1

Cowtan & Way völlig von der Rolle

Die UN zensierten die Aufzeichnung meiner höflichen, 45 Sekunden langen Intervention, indem sie das furiose Aufschreien und das Luftholen meiner vermeintlichen Mit-Delegierten herausschnitten. Sie waren alles andere als erfreut, dass ihr Kohlenstoff spuckender Zug des Absahnens gerade in den Abgrund gestürzt ist.

Die klimaextremistischen Nachrichtenmedien kochten vor Wut. Wie konnte ich es wagen, die Litanei der Kirche zu unterbrechen? Sie haben nur deswegen meine Äußerung wiedergegeben, weil sie so unkritisch der offiziellen Linie gefolgt waren, dass sie gar nicht wussten, dass es seit 16 Jahren überhaupt keine globale Erwärmung gegeben habe. Sie spöttelten, dass ich Unsinn von mir gegeben habe – und spielten damit ungewollt in unsere Hände, haben sie doch damit die Nachricht verbreitet, die sie so lange geleugnet und verschleiert haben.

Viele Delegationen beschlossen, das IPCC zu hinterfragen. Hatte die Delegation aus Burma recht? Es klang so, als wisse er, wovon er rede. Zwei Monate später war der Eisenbahningenieur Pachauri, klimawissenschaftlicher Vorsitzender des IPCC, gezwungen, in Melbourne zu verkünden, dass es tatsächlich seit 17 Jahren keine globale Erwärmung mehr gegeben habe. Es kam von ihm sogar der Hinweis, dass man vielleicht doch auf die Skeptiker hören sollte.

Auf dem diesjährigen UN-Klima-Witzfest in Warschau hat Marc Morano vom Climate Depot auf der Pressekonferenz von CFACT gesagt, dass die üblichen Verdächtigen erfolgreich versucht haben, den Stillstand dem vermeintlichen Erfolg des Montreal-Protokolls zum Schließen des Ozonlochs in die Schuhe zu schieben; oder der Kohleverbrennung in China (was für eine nette Ironie: Man verbrenne Kohle und rette den Planeten vor – ehm – dem Verbrennen von Kohle). Und jetzt wird pünktlich zur Konferenz versucht, so zu tun, als gäbe es den Stillstand gar nicht.

Wie David Whitehouse kürzlich enthüllt hat, hat eine Studie von Cowtan & Way im Quarterly Journal of the Royal Meteorological Society mit Hilfe von statistischen Taschenspielertricks versucht, den Stillstand zum Verschwinden zu bringen (siehe dazu den Beitrag von Judith Curry hier und in deutscher Übersetzung beim EIKE hier).

Dr. Whitehouses elegante Argumentation benutzte eine Technik, mit der schon Sokrates brillierte. Er stellte sich auf die eigene Grundlage der Autoren, akzeptierte um des Argumentes willen, dass sie verschiedene Methoden angewendet haben, um Datenlücken in der Arktis zu füllen, von wo es nur wenige Temperaturmessungen gibt, und hat dennoch gezeigt, dass ihre Prämissen nicht wirklich ihre Schlussfolgerung stützen.

Allerdings ist der zentrale Fehler bei Cowtan & Way fundamentaler Natur, und auf ihn wurde, soweit ich weiß, noch nicht hingewiesen. Also mache ich das jetzt.

Dr. Whitehouse zufolge trägt der HadCRUT4-Datensatz den fehlenden Daten in seinen monatlichen Abschätzungen der Unsicherheit bzgl. der Meldungsdichte bereits Rechnung. Für gute Messungen und gutes Messen gehören dazu auch Abschätzungen der Messungenauigkeit und der Unsicherheit hinsichtlich eines Bias‘.

Betrachtet man diese drei Quellen der Unsicherheit bei der Messung der globalen mittleren Temperatur, beträgt der Fehlerbalken eindrucksvolle 0,15°C – fast ein Sechstel Grad Celsius – auf beiden Seiten der zentralen Schätzung.

Der fundamentale konzeptionelle Fehler von Cowtan & Way liegt darin, dass sie nicht erkannt haben, dass große Unsicherheiten nicht die Länge des Stillstands reduzieren, sondern diesen tatsächlich zunehmen lässt.

Die von Cowtan & Way geforderten Änderungen im HadCRUT4-Datensatz, die die Verurteilung der Skeptiker durch das Eliminieren des von ihnen behaupteten Stillstands zum Ziel hatte, waren so klein, dass der auf Basis ihrer Amendierungen berechnete Trend immer noch innerhalb der gemeinsamen Unsicherheiten lag.

Kurz gesagt: Selbst wenn ihre erfinderischen Daten-Rekonstruktionen gerechtfertigt wären (was sie nicht sind, wie Dr. Whitehouse gezeigt hat), kamen sie nicht auf einen Unterschied, der groß genug ist, um uns von der 95-prozentigen Sicherheit abzubringen, dass es während des Stillstands keine globale Erwärmung gegeben hat.

Falls man die Fehlergrenzen nicht berücksichtigt und die Analyse auf die zentralen Schätzungen der Temperaturanomalien begrenzt, zeigt der HadCRUT4-Datensatz keinerlei globale Erwärmung in fast 13 Jahren (oben).

Wenn man allerdings den Unsicherheitsbereich von 2 σ einzeichnet, fällt die lineare Regression der kleinsten Quadrate total in den Bereich von 17 Jahren und 9 Monaten (unten).

Die wirkliche Länge des Stillstands auf Basis des HadCRUT4-Datensatzes nähert sich jetzt 18 Jahren. Daher hätte die Frage, die Cowtan & Way hätten stellen müssen, aber nicht gestellt haben, ob das Patchwork ihrer Einsetzungen und Extrapolationen und Krigings, die sie in dem Versuch verwendet haben, den Stillstand zu leugnen, überhaupt geeignet war, die großen Unsicherheiten in dem Datensatz zu verringern, anstatt sie zu vergrößern.

Die Veröffentlichung von Studien wie die von Cowtan & Way, die den Begutachtungsprozess nicht hätten passieren dürfen, zeigt die wachsende Verzweiflung von Institutionen wie der Royal Meteorological Society, die wie alle Institutionen, die von der globalen Erwärmung profitiert haben, nicht will, dass die Flut der Dollars von den Steuerzahlern versiegt.

Diejenigen, die die Angstmache vorangetrieben haben, haben sich inzwischen so weit von der Suche nach der Wahrheit entfernt, die Gegenstand und Ziel aller Wissenschaft ist, dass sie nicht mehr fähig sind, geradeaus zu denken. Sie haben den Anschluss verloren.

Hätten sie das bemerkt, hätten sie nicht erfinderische statistische Tricks anwenden müssen, um den Stillstand zum Verschwinden zu bringen. Sie hätten einfach bloß auf den nächsten El Niño warten müssen.

Diese plötzlichen Erwärmungen des äquatorialen Ostpazifiks, die die hoch gelobten Modelle immer noch nicht erfassen können, ereignen sich im Mittel alle drei bis vier Jahre. Nicht lange, und es wird zu einem neuen El Niño kommen, der Wind und die thermohaline Zirkulation werden die Wärme auf der ganzen Welt verteilen, und der Stillstand wird vorbei sein – zumindest vorübergehend.

Es ist verständlich, dass die Skeptiker die Aufmerksamkeit auf den Stillstand lenken sollten, weil dessen Existenz eine einfache, mächtige und augenblicklich nachvollziehbare Widerlegung des Unsinns ist, über den man in Warschau in dieser Woche verhandelt.

Zum Beispiel: das geradlinigste und unangreifbarste Argument gegen alle in den UN, das direkt der eigenen Wissenschaft des IPCC widerspricht, ist der Versuch, für den Taifun Haiyan die globale Erwärmung verantwortlich zu machen, obwohl es eine solche seit fast 18 Jahren gar nicht mehr gibt.

Logischerweise kann man ein Ereignis nicht einem anderen Ereignis zuordnen, das gar nicht stattgefunden hat.

Allerdings setzt die Welt weiterhin CO2 frei, und wenn man alles in allem betrachtet, könnte dadurch eines Tages eine gewisse Erwärmung erwartet werden.

Es ist daher wichtig, sich nicht so sehr auf den Stillstand selbst zu konzentrieren, so nützlich er auch ist, sondern viel mehr auf die zunehmende Diskrepanz zwischen der von den Modellen vorhergesagten globalen Erwärmung und der tatsächlich bestehenden Rate.

Das IPCC zeigt in seinem 5. Zustandsbericht Vorhersagen der globalen Erwärmung bis zum Januar 2005. Man scheint dort nicht bemerkt zu haben, dass Januar 2005 achteinhalb Jahre vor Veröffentlichung des AR 5 aufgetreten war.

Die IPCC-Vorhersagen dessen, was bisher geschehen ist, waren falsch. Und nicht nur etwas, sondern sehr falsch. Es gibt keine Preise für das Erraten der Richtung, in der sich die Diskrepanz zwischen den modellierten „Vorhersagen“ und der beobachteten Realität bewegt. Ja, richtig geraten! Sie haben übertrieben.

Links sind die Modellvorhersagen bis zum Jahr 2050 gezeigt. Rechts zeigt sich die Diskrepanz eines halben Grad Celsius zwischen „Vorhersage“ und Realität.

Zusätzlich zu dieser Diskrepanz divergieren die Trends der gemessenen Temperatur im Vergleich mit den Modellvorhersagen seit Januar 2005 unerbittlich weiter:

Hier werden 34 Modellprojektionen globaler Erwärmung seit Januar 2005 im AR 5 des IPCC gezeigt, und zwar repräsentiert durch das orangefarbene Gebiet. Die zentrale IPCC-Projektion, die dicke rote Linie, zeigt, dass sich die Welt während dieser Zeit um 0,2°C erwärmt haben sollte (das entspricht einer Rate von 2,33°C pro Jahrhundert). Der Trend des CO2-Anstiegs sowie anderer Treibhausgase sollte eine Erwärmung um 0,1°C gebracht haben, die verbleibenden 0,1°C stammen aus früheren CO2-Zunahmen.

Und doch zeigt das Mittel der RSS und UAH-Satelliten – dunkelblau über der hellblauen Trendlinie – eine globale Abkühlung um 0,01°C (Rate -0,15°C pro Jahrhundert). Folglich haben die Modelle die Erwärmung schon jetzt um 0,22°C überschätzt (Rate 2,48°C pro Jahrhundert).

Diese andauernde Glaubwürdigkeitslücke zwischen Vorhersage und Beobachtung ist der wirkliche Kanarienvogel in der Kohlemine. Nicht nur der Stillstand spielt eine Rolle: es ist diese Lücke, um die es geht, und diese Lücke wird weiterhin eine Rolle spielen; sie wird sich erweitern, lange nachdem der Stillstand vorbei ist. Die Leugner des Stillstands werden möglicherweise ihren großen Tag bekommen, aber die Leugner der Lücke werden mit dem Verlauf dieses Jahrhunderts immer dümmer aussehen.

Link: http://wattsupwiththat.com/2013/11/20/cowtan-way-off-course/#more-97772

Übersetzt von Chris Frey EIKE




Blackout Britain – warum unsere Energiekrise gerade erst anfängt

Vor einigen Tagen hat Kurt Bock, der geschäftsführende Direktor der Firma davor gewarnt, dass das Werk in Ludwigshafen bald gezwungen sein könnte zu schließen und die Arbeitsplätze aus Deutschland anderswohin zu verlagern. Der Grund hierfür seien die rasant steigenden Energiekosten und die lähmenden grünen Abgaben, die benutzt werden, um ‚Erneuerbare‘ wie Windparks zu bezahlen. Angesichts der verglichen mit den USA doppelt so hohen Energiepreise, die wahrscheinlich immer weiter steigen werden, ist es an der Zeit, die ‚Wettbewerbsfähigkeit des Standortes‘ neu zu überdenken.

Die britischen Konkurrenten von BASF sollten sich darob nicht bequem zurücklehnen. Jahrelang hat UK wie Deutschland grüner Energie den Vorzug vor billiger Energie gegeben – und den Versorgern von fossilen Treibstoffen eine Vorschrift nach der anderen, eine grüne Abgabe nach der Anderen auferlegt. In Deutschland werden die Auswirkungen jetzt immer offensichtlicher: Die Opferung der Industrie auf dem Altar des Umweltaktivismus‘. Es kann wie wirtschaftlicher Selbstmord klingen, aber das ist genau die Politik, die die Regierung von David Cameron verfolgt.

Energie steht inzwischen zentral im Mittelpunkt britischer Politik, ein Thema, dem durch Ed Millibands Versprechen, die Energiekosten der Haushalte einzufrieren, Leben eingehaucht worden ist. Seine Politik ist total populistisch, haben sich doch die Gas- und Strompreise während der letzten zehn Jahre in etwa verdreifacht. Jetzt naht der Winter, und die Wahl zwischen Heizen oder Essen [Wortspiel: heating or eating] ist kein abstrakter Slogan mehr, sondern ein tägliches Dilemma. Jeden Winter sterben in UK etwa 25.000 Menschen durch die Kälte.

Aber die Debatte war bizarr. Politiker auf allen Seiten des Unterhauses haben Spaß daran gehabt, auf die Großen Sechs Energieunternehmen einzuschlagen ohne ihre eigene Schuld  zu erwähnen. Milliband spricht davon, die Energiebosse zu zwingen, ihr Einkommen zu beschneiden. Inzwischen schlagen David Cameron und Ed Davey, der liberaldemokratische Minister der Klimaänderung, als Antwort vor, mit Schemata wie ‚Öko‘-Abgaben herumzufuchteln, um damit die Wärmedämmung der Häuser zu subventionieren. Außerdem sollen sie nicht mehr Treibstoffrechnungen bezahlen, sondern einer allgemeinen Besteuerung unterworfen werden. Das soll die Rechnungen um 7% verbilligen. Nichts, was egal von welcher Seite vorgeschlagen wird, wird zu mehr führen als einer vorübergehenden kosmetischen Differenz.

Während man sich darum zankt, ein paar Pfund mehr hier oder dort zu verteilen, hatte sich das Parlament mit dem Endstadium des Energiegesetzes befasst. Dieses Gesetz, zusammen mit seinem Vorgänger aus dem Jahr 2008, dem Climate Change Act, wird zur größten Preissteigerung bei Treibstoffen führen. Die Maßnahme des Jahres 2008 setzt ein gesetzlich bindendes Ziel der Kohlenstoffemissionen bis zum Jahr 2020. Aber weil es viel schwieriger ist, Emissionen aus Transporten und Heizung zu reduzieren als bei der Stromerzeugung, bedeutet das eine Verdreifachung der von Erneuerbaren erzeugten Energie von gegenwärtig 11 Prozent während nur sechs Jahren.

Die Kosten dieser schnellen und radikalen Transformation marginalisiert Themen wie z. B. die Umweltabgabe. Dem durch das Energiegesetz etablierten ‚levy control framework‘ zufolge müssen dann die Subventionen bis zum Ende dieser Dekade auf 7,6 Milliarden Pfund verdreifacht werden. Die Gesamtsubventionen für Erneuerbare, die die Verbraucher in UK über höhere Stromrechnungen bezahlen müssen, werden sich bis zum Jahr 2020 auf wahnsinnige 46 Milliarden Pfund belaufen.

Und selbst diese gewaltige Zahl ist eine massive Unterschätzung. Vor Kurzem hat das National Audit Office gesagt, dass die Rechnungen wahrscheinlich während der nächsten 17 Jahre stärker steigen werden als die Inflation, mit Kosten durch Verordnungen der Regierung von mindestens 700 Pfund pro Haushalt. Den Energieexperten Prof. Gordon Hughes von der Edinburgh University und Peter Atherton von Liberum Capital zufolge ist in den Energierechnungen nicht der Faktor enormer Kosten enthalten, die Windturbinen mit dem nationalen Netz zu verbinden; und auch nicht die Einrichtung der komplizierten Schalter-Mechanismen, die benötigt werden, um der Tatsache Rechnung zu tragen, dass keine Windturbine mehr als ein Drittel der Zeit Energie erzeugt. Sie sagen, dass die wirkliche grüne Rechnung bis zum Jahr 2020 über 100 Milliarden Pfund betragen könnte, wobei jeder einzelne Haushalt allein für Strom 400 Pfund zusätzlich bezahlen müsste.

Für die Wähler bedeutet dies weitere Härten bei den Lebenshaltungskosten. Aber für das Geschäftsleben könnte es sehr leicht zum Bankrott wie in Deutschland kommen [!!!]. Etwa zwei Drittel dieser legal verordneten Abgaben müssen die Unternehmen aufbringen. Einige werden das unerträglich finden und es den früheren Opfern der grünen Revolution in UK gleichtun wie z. B. den Aluminiumwerken – sie werden gehen. Jene die bleiben werden kaum eine andere Wahl haben, als ihre Kosten an die Verbraucher weiterzugeben – so dass auch viele andere Dinge teurer werden.

In diesem Jahr hat UK als einzige Nation eine Steuer auf den Ausstoß von Kohlendioxid eingeführt, den ‚carbon price floor‘. Das bedeutet, dass Stromerzeuger 16 Pfund für jede Tonne CO2 bezahlen müssen, die sie emittieren. Das Climate Change Committee, ins Leben gerufen durch das Gesetz aus dem Jahr 2008, hat festgelegt, dass sich dies bis zum Jahr 2030 vervierfachen soll – weil das Emissionsziel 2020 nur der Anfang ist. Der Climate Change Act führt schon jetzt noch ambitioniertere Ziele bis 2027 ein, was mit ‚dem vierten Kohlenstoff-Budget‘ bezeichnet wird. Die Stromerzeugung soll dann weitgehend ‚dekarbonisiert‘ sein. Atherton zufolge werden die Kosten auf eine Revolution der wesentlichen Industrien hinauslaufen, von denen alle anderen abhängen – werden die Kosten doch rund 300 Milliarden Pfund betragen. Auch hier sind die Schmerzen für das Britische Geschäftsleben eindeutig. Niemand sonst hat bindende Ziele über das Jahr 2020 hinaus festgelegt.

An diesem Punkt wird die gegenwärtige Agonie in Deutschland instruktiv. Die Infrastruktur der teuersten Energieerzeugung, die je eingeführt worden ist, nämlich Offshore-Wind, ist dort weit fortgeschritten, während sie in UK noch in den Kinderschuhen steckt. Jüngsten Berichten im Spiegel zufolge haben grüne Subventionen schon fast ‚ein Niveau vergleichbar mit den Rettungsschirmen der Eurozone‘ erreicht. In diesem Jahr werden die deutschen Verbraucher insgesamt 20 Milliarden Euro für Energie aus Wind, Solarpaneelen und Biomasse zahlen – von denen atemberaubende 17 Milliarden Euro Subventionen sind.

Anfang dieses Jahres hat BASF beschlossen, eine neue Ammoniak-Fabrik in den USA zu errichten, weil der amerikanische Schiefergas-Boom die Stromkosten hat abstürzen lassen, was zu einer industriellen Wiedergeburt führte. Vor ein paar Tagen hat Hariolf Kottmann, Chef des BASF-Konkurrenten Clariant in der Schweiz, gesagt, dass er ‚keinerlei Grund mehr sehe, warum er noch einen Penny in Deutschland investieren sollte‘: „Wir hatten noch zwei oder drei Projekte geplant. Jetzt ziehen wir es vor, in den USA zu investieren!“ Ihm zufolge haben sich die Abgaben, die seine Firma für Erneuerbare zahlen muss, seit dem Jahr 2011 fast verdoppelt – was Energie doppelt so teuer macht wie in China oder Amerika. Und ja, er nannte diese beiden Länder im gleichen Atemzug.

Wie deutsche Unternehmen inzwischen wissen, könnten die Dinge für sie noch viel schlimmer werden. Bislang waren viele Unternehmen von den meisten ihrer Abgaben für Erneuerbare befreit. Die Europäische Kommission hat eine Untersuchung eingeleitet und könnte zu dem Ergebnis kommen, dass es sich dabei um eine illegale staatliche Subvention handelt. Wenn die Ausnahmeregelungen fallen, erwartet BASF zusätzliche Kosten in Höhe von 400 Millionen Euro pro Jahr allein für das Werk in Ludwigshafen – eine Gesamtsumme, die natürlich noch weiter steigen kann. Weitere etwa 300 deutsche Unternehmen sind von diesen Abgaben befreit. Welchen Sinn machen die Rettungsschirme der Eurozone, falls die deutsche Industrie, die so gut durch die Große Rezession gekommen ist, kollabiert?

Die Gruppe energieintensiver Unternehmen in UK, von der 800.000 Arbeitsplätze abhängen, hat die Regierung gedrängt, ihnen ähnliche Befreiungen zu gewähren. Einige wurden auch angeboten, obwohl im vorigen Jahr in einem Bericht der Regierung eingeräumt worden war, dass die britischen Unternehmen demnächst die höchsten grünen Kosten werden tragen müssen im Vergleich zu 11 anderen großen Industrienationen – 50 Prozent mehr als in Deutschland und fast doppelt so viel wie in Frankreich. ‚Die Unternehmen mit der stärksten Abhängigkeit von Strom sind auch diejenigen, die am stärksten im Wettbewerb mit dem Ausland stehen‘, sagte der Direktor der Gruppe Jeremy Nicholson. ‚Tausende Arbeitsplätze werden verloren gehen!‘

Es ist nicht einfach, die Auswirkungen der Klima- und Energiepolitik zu erkennen. Offizielle Dokumente sind in einem Stil geschrieben, der nahezu undurchschaubar ist. Schlimmer noch ist die schiere Unehrlichkeit der Regierungsvertreter. Das Klima- und Energieministerium von Ed Davey sagt, dass die Energierechnungen am Ende des Jahrzehnts 11 Prozent niedriger liegen werden, und der Minister heischt nach unserem Applaus. Aber das Kleingedruckte enthüllt den Unterschied zwischen ‚Preisen‘ und ‚Rechnungen‘. Der Strompreis, räumt er ein, wird wegen der grünen Politik um mindestens ein Drittel steigen. Warum also die niedriger werdenden Rechnungen? Bessere Isolierung und Heizungen – und, könnte man hinzufügen, geringere Nachfrage infolge explodierender Preise und dickerer Wollpullover.

Es ist nicht schwer, einen Ausgang aus dieser Strategie zu finden: man ziehe das Climate Change Act zurück, lasse deren Ziele fallen und setze die Energierechnung außer Kraft. Wir könnten mit dem Fracking weitermachen und so unsere kolossalen Reserven sauberen Erdgases erschließen. Prof. Hughes zufolge würde es etwa 15 Milliarden Pfund kosten, die Energieindustrie auf den Bau moderner Gaskraftwerke mit ‚kombinierten Zyklen‘ umzurüsten. Subventionen sind dabei nicht vonnöten. Das würde dem amerikanischen Beispiel folgen, wo die Kohlenstoff-Emissionen auf ein 20-Jahres-Tief gefallen sind, weil Gas viel weniger davon freisetzt als Kohle. Danach könnten wir die Milliarden, die gegenwärtig noch für Windenergie ausgegeben werden, in Forschungen bzgl. Nichtfossiler Energiequellen investieren wie z. B. Kernfusion – die viel schneller zu verwirklichen wäre als die meisten Menschen glauben.

Aber die intellektuelle Blockade britischer Politik in dieser Hinsicht bedeutet, dass man solchen Gedanken nicht öffentlich Ausdruck verleihen darf. Einige Mitglieder des Kabinetts – vor allem George Osborne und Umweltminister Owen Paterson, der ein starker Befürworter von Fracking ist – haben ein Gespür für die herauf ziehende Krise. Aber solange die Koalition im Amt bleibt, sind sie machtlos: den Liberaldemokraten steht die grüne Energie näher als die Religion. Auch ist es unwahrscheinlich, dass Ed Milliband das Climate Change Act zurückzieht, das er selbst geschaffen hat – und überhaupt ist es für ihn politisch nützlich, Energieunternehmen als nationale Schurken anzuprangern.

Selbst in dem unwahrscheinlichen Fall, dass die Konservativen eine echte Mehrheit gewinnen, ist alles andere als klar, ob die Partei überhaupt in der Lage ist, über eine Vermeidung dieser Katastrophe nachzudenken. Selbst Osborne unterzeichnete schließlich das teuerste Abkommen der Energiegeschichte. Erstaunlicherweise hat der Kanzler garantiert, EDF 40 Jahre lang fast den doppelten Marktpreis für Energie aus dem Kernkraftwerk zu zahlen, das in Somerset gebaut werden wird. Warum würde er das tun? Weil es sich die Torys seit mindestens acht Jahren nicht erlaubt haben, rationell über Energie nachzudenken. Selbst wenn sie die Katastrophe umgehen wollen, wissen sie nicht, wo sie anfangen sollen.

UK schlafwandelt sich in die gleichen wirtschaftlichen Kalamitäten, denen sich Deutschland jetzt gegenüber sieht. Selbst den Ministern, die das kommende Desaster erkennen, fehlt die Macht (oder das Wissen), um den Kurs zu ändern. Sie werden die absurde Wahrheit nur zu klar erkennen: trotz aller Krokodilstränen hinsichtlich steigender Energiekosten haben sich alle drei Parteien auf ein Bündel politischer Maßnahmen geeinigt, die vor allem dazu dienen, die Preise weiter steigen zu lassen – mit den unvermeidlichen Folgen für Familien und Wirtschaft. Das gegenwärtige Geplänkel hinsichtlich der Energiepreise ist nur ein Vorgeschmack auf eine weitaus größere, tiefere und gefährlichere Krise, die bereits am Heraufdämmern ist.

Hier kann man einem Interview von David Rose zuhören.

David Rose schreibt für die Mail on Sunday. Sein erster Roman ‘Taking Morgan’, ein Thriller mit Schauplätzen in Oxford und dem Gaza-Streifen, wird im Januar erscheinen.  

Link: http://www.spectator.co.uk/features/9078561/the-real-energy-scandal/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Zwar geht es auch in diesem Artikel wieder um UK, aber die Problematik in D ist ja ähnlich. Was mich am meisten bewegt: D wird öfter zum vergleich herangezogen – mit dem Tenor, dass die vom Autor in UK erwartete Krise dort bereits am Eintreten ist. Das hat mich, bildlich gesprochen, fast vom Sessel auffahren lassen.

Leben wir, d. h. die deutsche Politik, wirklich derartig in einem kostspieligen Wolkenkuckucksheim?




Wie man manchmal sehr viel erkennen kann, wenn man fast nichts sieht

Was also hat der Kommentator vorgeschlagen? Man betrachte die Abbildung rechts. Er hat eine Fläche Papier von genau einem Quadratmeter zusammen geklebt, also 10000 Quadratzentimeter. Dann hat er darin den Anteil des Kohlendioxids in der Atmosphäre markiert. Er beträgt derzeit rd. 0,04%, also 4 Quadratzentimeter oder ein Quadrat von 2 X 2 Zentimetern. Dies ist links unten – wenn auch schlecht erkennbar- durch das hellblaue Quadrat markiert. Der anthropogene Anteil daran ist wiederum nur ein Bruchteil dieses Bruchteilchens. Nichts genaues aber weiß wiederum niemand.  Die Alarmisten gehen nun von einer Verdoppelung dieses Gehaltes aus (was allein aus anthropogenen Quellen selbst beim besten – oder schlimmsten – Willen nicht zu erreichen ist.) Das darunter stehende Bild zeigt die Verhältnisse besser.

Wie auch immer, wir tun einfach mal so, als ginge das doch. Das Quadrat des CO2-Gehaltes würde sich dadurch um die rot gefärbte Fläche vergrößern. Und nur um diese rot gefärbte Fläche geht es! Diese lächerliche Zunahme soll all die der „Klimakatastrophe“ angedichteten verheerenden Folgen haben! Und dasvon einem Gas, das chemisch fast inert ist, also äußerst ungern mit anderen Stoffen reagiert, zudem auch in viel höheren Konzentrationen völlig ungiftig, dazu geruchlos und unsichtbar ist. Ja, ich höre schon den Einwand, dass Gifte auch in sehr kleinen Konzentrationen stark wirken können, aber da wird übersehen, dass die sich Verstärker suchen, z.B. das zentrale Nervensystem, um wirken zu können. Auch der Einwand der geringen Ozonschicht und ihrer Wirkung zieht nicht, denn hier wird mit Hilfe der Energie des UV Lichtes ein ziemlich energieintensiver komplizierter chemischer Prozess angestossen, der zur Ozonbildung führt und damit eben diese UV Strahlung dämpft.. Das alles trifft beim CO2 nicht zu! 

Und dieser lächerliche Zunahme wegen, zu der Deutschland noch dazu nur einen winzigen Bruchteil beiträgt, werden uns Milliarden und Abermilliarden Euro aus der Tasche gezogen, für eine „Energiewende“, die die Natur zerstört und D wirtschaftlich ruiniert (neben vielen anderen Dingen). 

Nun gut, ich bin also damit „hausieren“ gegangen, bei Freunden und Nachbarn. Der Kommentator hat dieses Quadrat seinerzeit einer Grünin vorgelegt und seiner Beschreibung nach nur noch Betroffenheit geerntet.  Ich habe dieses Quadrat nun zunächst meinen Nachbarn vorgelegt, die auch wirklich sehr gute Freunde von mir sind. Zitat: „Nun ja, man hört so viel anderes… wir glauben dir, aber…“

Dann habe das Ganze meinem Freund Hans-Dieter Schmidt gegeben, der vor Winterdienst-Leistern einen Vortrag zum Thema Wettervorhersage gehalten hat. Am Ende sagte er, dass der Winterdienst aller Voraussicht nach während der nächsten Jahre entgegen der Propaganda immer mehr zu tun bekommen werde und nicht weniger. Er berichtete mir dann von betroffenem Schweigen, nachdem er das Bild gezeigt hatte. Vielleicht waren die Zuhörer auch nur zu überrascht von der Darstellung, hatten die Meisten doch vermutlich ganz andere Vorstellungen.

Letzteres war mit Sicherheit der Fall, als ich selbst wieder diesen Quadratmeter Papier auf einem Stammtisch der lokalen AfD herumgezeigt habe. Es gab zuerst ebenfalls betroffenes Schweigen, dann ein Raumen. Dann haben mich einige der Anwesenden angesprochen, wobei ich die Wörter „unglaublich“ (im positiven Sinne), aber auch „toll, wie Sie das anschaulich gemacht haben!“ gehört habe.

Ich entnehme aus all dem aber auch, dass selbst Menschen, die ich für vernünftig und lernfähig halte, Schwierigkeiten haben, sich von der von Medien und Politik betriebenen Gehirnwäsche freizumachen. Aber ist diese Gehirnwäsche nicht furchtbar?

Ich werde das Quadrat noch weiteren Menschen vorlegen, unter Anderem auch im Kindergarten, in dem ich als Pate ehrenamtlich tätig bin, aber auch mir bekannten Repräsentanten von Grundschulen. Ein Fazit möchte ich aber schon jetzt ziehen:

Wer wird diesen Wahnsinn endlich, endlich stoppen??




IPCC Konferenz in Warschau – Es geht nur ums Geld! Arme Länder verlassen den UN-Klimagipfel

„Die EU hat Verständnis dafür, dass dieses Thema unglaublich wichtig für Entwicklungsländer ist. Aber sie sollten vorsichtig sein, eine neue Institution ins Leben zu rufen. Das ist nicht das, was dieser Prozess braucht“, sagte die EU-Klimakommissarin Connie Hedegaard. Sie wies deren wichtigste Forderung zurück und besteht darauf: „Wir können kein System mit automatischer Kompensation haben, wenn es auf der ganzen Welt Extremereignisse gibt. Das ist nicht machbar“. – John Vidal, The Guardian, 20 November 2013

Die Zerstörungen durch den Taifun Haiyan wurden zu einem Aufschrei bei den UN-Klimagesprächen, wo die Philippinen und andere Entwicklungsländer Hilfegarantien fordern für künftige Schäden durch die globale Erwärmung. Die Forderung führte zu einem weiteren tiefen Graben in den schwierigen Verhandlungen, weil reiche Länder das als eine potentielle Falle betrachten, die sie in eine niemals endende Verantwortung für Kompensationen treiben soll. Über 130 Entwicklungsländer rufen jetzt nach einem „Verluste und Schäden“-Mechanismus, finanziert von reichen Ländern, der 2015 in einen globalen Vertrag zur Klimaänderung eingebettet werden soll. – Agence France Press, 20 November 2013

Für die Anpassung an Auswirkungen der Klimaänderung kommen auf Afrika Kosten zu, die auf 350 Milliarden Dollar pro Jahr bis zu den siebziger Jahren dieses Jahrhunderts steigen werden, falls es den Regierungen nicht gelingt, die Emissionen unter Kontrolle zu bringen. Die Kosten, Afrikas Infrastruktur an steigende Meeresspiegel und stärkere Stürme ausgelöst durch die globale Erwärmung anzupassen, werden bis zum Jahr 2020 insgesamt 7 Milliarden bis 15 Milliarden Dollar betragen und danach „rapide steigen“ wegen der stetig weiter steigenden Temperatur. Das ließ die UNEP in einem Bericht für den Klimagipfel in Warschau verlauten. – Alex Morales, Bloomberg 20 November 2013

Trotz der Tatsache, dass es sich in der Vergangenheit einige Fehler geleistet hat, ist das IPCC genau die Art Institution, um wissenschaftliche Beratung zu liefern, um kontrastierende und unsichere empirische Behauptungen zu evaluieren. Im Falle von Schäden und Verlusten durch Extremereignisse sind die Beweise extrem stark. Gegenwärtig gibt es keine offensichtliche Basis für die Unterstützung von Forderungen nach Reparationen.

Der von den G77-Staaten plus China eingereichte Vorschlag, dass die USA und andere Nationen zehn oder sogar hunderte Milliarden Dollar an arme Länder zahlen sollen, die von Katastrophen betroffen sind, ist ein zentrales Thema der derzeitigen Klimaverhandlungen in Warschau. Für das Aufkommen der Debatte um historische Reparationen trägt Präsident Obama eine direkte Teilverantwortung, hat er doch entgegen wissenschaftlicher Beweise in seiner Rede an die Nation gesagt: „Hitzewellen, Dürren, Buschfeuer, Überschwemmungen – alle sind jetzt häufiger und intensiver. Wir können zu glauben auswählen, dass der Supersturm Sandy und die schlimmste Dürre seit Jahrzehnten sowie die schlimmsten Buschbrände in einigen US-Bundesstaaten alle nur ein zufälliges Zusammentreffen waren. Oder wir können wählen, der überwältigenden Mehrheit der Wissenschaft zu glauben“. – Roger Pielke Jr., The Guardian, 19 November 2013

Lange befürchteter Streit während zwei Tagen fast ununterbrochener Verhandlungen brach aus über die grundlegenden Beschlüsse des Warschauer Treffens. Ein Entwurf dieser Entschlüsse, bekannt geworden am Montag, wurde zum neuen Schlachtfeld, als entwickelte Länder es ablehnten, die Verantwortung gegenüber den Entwicklungsländern zu übernehmen. – Nitin Sethi, The Hindu, 20 November 2013

 

20% des EU-Haushaltes wird in den Kampf gegen den Klimawandel fließen, hat Klimakommissarin Connie Hedegaard in Warschau verkündet. Das summiert sich zu Klimaausgaben in Höhe von 180 Milliarden zwischen 2014 und 2020. Vieles davon wird für heimische Projekte aufgebracht, und zwar durch Hilfen für den Aufbau einer klimaverträglichen Landwirtschaft, Energieeffizienz und den Transportbereich. Auf einer Pressekonferenz in Warschau fuhr sie fort: „Wenn die Welt wirklich im Kampf gegen den Klimawandel erfolgreich sein will, ist eines der Dinge, die wir ändern müssen, das gesamte wirtschaftliche Paradigma, einschließlich der Art und Weise, wie wir unsere Haushalte konstruieren“. Sie fügte hinzu, dass Europa die erste Region mit einer derartigen Budget-Aufstellung sei. – Sophie Yeo, Responding to Climate Change, 20 November 2013

Der polnische Premierminister Donald Tusk hat vor einigen Tagen im Zuge einer Regierungsumbildung seinen Umweltminister Marcin Korolec entlassen. Er wird ersetzt durch Maciej Grabowski, ehemaliger Vize-Finanzminister und verantwortlich für die Vorbereitung von Schiefergas-Bewertung. „Es geht um eine radikale Beschleunigung der Schiefergas-Aktivitäten. Korolec wird der Bevollmächtigte für die Klimaverhandlungen bleiben“, sagte Tusk auf einer Pressekonferenz. Seine Entlassung führte zu Fragen über Polens Position bei den Verhandlungen. – Reuters, 20 November 2013

 

Link: http://wattsupwiththat.com/2013/11/20/newsbytes-the-climate-reparations-game-poor-countries-walk-out-of-un-climate-summit/

Übersetzt von Chris Frey EIKE




Politiker wie Tony Abbott (neuer Premierminister Australiens) brauchen wir auch hierzulande!

Vor allem setzte Tony Abbott mit Greg Hunt einen neuen Umweltminister ein, der in der Klimaszene als profilierter Gegner des Dogmas vom "menschengemachten Klimawandel" bekannt ist. Als wichtigste Maßnahme wird er schnellstens die Abschaffung der in der australischen Bevölkerung und Industrie verhassten Carbon-Tax durchsetzen.

Dass solche Informationen vermutlich viele Leser hierzulande überraschen, liegt vor allem daran, dass die deutschen Medien nur wenig über den so weit entfernten Kontinent Australien berichten. Allenfalls Buschbrände, die für die australische Natur notwendig sind (die Samenkapseln vieler Baumarten springen nur bei Feuer auf) sind grün/roten Schreiberlingen als unzutreffende Belege für "menschgemachten Klimawandel" (AGW) wenige Zeilen wert. Beliebt sind dagegen sachlich völlig verzerrte Meldungen über Australien. Diese "Tradition" scheint sich mit dem neuen australischen Premierminister Tony Abbott mit neuem Leben zu erfüllen. "Katastrophales" für die AGW-Jünger bahnt sich nämlich an. Da nimmt doch das neue australische Regierungsoberhaupt einfach die Fakten zur Kenntnis und legt in logischer Kosequenz den Sumpf aus Ideologen und Profiteuren der so lukrativen AGW-Hype ("Anthropogenic Global Warming") trocken, ohne auf das Gequake der aufgescheuchten AGW-Frösche zu hören. 

Entsprechend giftet die nicht gerade für Faktenorientierung in Klimadingen bekannte Frankfurter Rundschau am 14.Nov.2013 mit dem Titel "Australien schockt Klimagipfel"  und schreibt dann weiter "Australien hat auf dem Klimagipfel in Warschau einen Schock ausgelöst. Mit seiner Ankündigung, die eigenen Klimaschutz-Ambitionen einzufrieren und die Mittel für Anpassung in Entwicklungsländern nicht aufzustocken, provozierte das Land heftige Kritik. Umweltverbände zeigten sich empört. Der Schritt sei „ein Schlag ins Gesicht all derjenigen Menschen in den Philippinen, die unter den in ihrer Stärke zunehmenden Extremwetter-Ereignissen zu leiden haben“, sagte Greenpeace-Experte Martin Kaiser der FR. Mit der neuen australischen Regierung werde der UN-Klimaschutz-Prozess erneut „auf den Kopf gestellt“. Julie-Anne Richards, Sprecherin des Climate Action Network aus Australien, fragte konsterniert: „Wie kann die Regierung ihre Klimaschutzpolitik über den Haufen werfen, während der Rest der Welt in Warschau versucht, Fortschritte zu erzielen?

Aber auch das Handelsblatt titelt in einem offensichtlichen Anfall von Geistesverwirrung am 11.Nov.13 "Australien erklärt der Wissenschaft den Krieg". So ein unendlicher Quatsch! Wie kommt das Handelsblatt auf die abdurde Idee, dass die von Abbott geschlossene Hauptabteilung des Umweltministeriums "Climate Change" etwas mit Wissenschaft im üblichen Sinne zu tun hätte? Ein Teil der weltweiten Klimawissenschaft ist glücklicherweise noch seriös, diese Forscher machen nicht viel Aufhebens, schweigen öffentlich (das Geschrei der AGW-Böotier fürchtend), publizieren in Fachjournalen, kurz, gehen einfach ihrer seriösen wissenschaftlichen Arbeit nach. Was es dagegen mit dem wissenschaftlich fragwürdigen Teil der "Klimawissenschaft" auf sich hat, die man besser als "AGW-Advokatenwissenschaft" bezeichnen sollte, belegen nicht nur im fernen Australien immer wieder seine lautstark sachlichen Unsinn verbreitenden Vertreter. So auch hierzulande stellvertretend Stefan Rahmstorf oder Mojib Latif, die mit ihren medienwirksam konstruierten Aussagen suggerieren, der Wirbelsturm Haiyan sei dem menschgemachten "Klimawandel" zuzuschreiben (hier). Oder der nur vordergründig seriöser daherkommende Schweizer Thomas Stocker (inzwischen wohl zweiter Mann des IPCC nach der fragwürdigen Figur eines Rajendra Pachauri), der in Interviews befremdliche sachliche Klima-Kuriositäten wie etwa eine veränderte Schiefe der Erdachse als Ursache für die mittelaterliche Warmzeit nachfragenden Journalisten andient [1].

Die Realitäten sehen freilich anders aus als es sich S. Rahmstorf, M. Latif, T. Stocker, aber insbesondere auch die vielen Greenpeace-"Experten" vermutlich herbeiwünschen. Bei Greenpeace ist es ideologische Totalresistenz gegen die Realität zu Gunsten eines lukrativen Spenden-Geschäftsmodells, während Leute wie Rahmstorf, Latif, Stocker, Schellnhuber, Schönwiese, Graßl usw. sich ab und an wenigstens noch die Mühe machen die naturwissenschaftlichen Fakten elegant beiseite zu schieben.

Extremwetterereignisse können nun einmal nicht auf menschgemachtes CO2 zurückgeführt werden (hier), das ist nicht nur im IPCC Extremwetterreport (SREX) sondern sogar schon im SPPIEGEL, der FAZ, der WELT usw. nachzulesen. Wie verbohrt, scheinheilig und zynisch müssen die klimafachlich jeder Expertise baren Vertreter von Greepeace eigentlich noch auftreten, damit es die deutsche Öffentlichkeit bemerkt und diesem Verein die Türen vor der Nase zuschlägt? Deutsche Gutmenschen wissen leider nicht, dass sie einem Verein spenden, der es von einer kalifornischen Klitsche zu einer lukrativ agierenden weltweiten Krake gebracht hat, deren Führung sich inzwischen einer eigenen Großyacht erfreut. Einem Verein, der leider nicht mehr das sinnvolle Verhindern des Abschlachtens von Walen betreibt, sondern sich auf Vernichtungsfeldzüge gegen ganze Industriezweige (Kernenergie, Erdölexploration usw.) verlegt hat. Putin lässt grüßen, er verhaftete diese Typen von Greenpeace einfach und hat sich damit Beifall verdient. Wer mag wohl diese fragwürdige Organisation Greenpeace außer deutschen Gutmenschen und Dummköpfen noch finanzieren? Wie weit es dieser unappetitliche Verein bereits gebracht hat, ist daran abzulesen, dass seine Verlautbarungen in den deutschen Medien fast schon wie Verlautbarungen der Bundesregierung gehandhabt werden. In was für einer Welt leben wir!

Zurück zu Abbott! Seine Klima- und Energiepolitik ist sachgerecht, denn sie berücksichtigt die naturwissenschaftlichen Realitäten. Sie ist infolgedessen uneingeschränkt zu begrüßen. Abbott weiß, dass ein hoher anthropogener CO2-Ausstoß günstig für die Welternährung ist, so gut wie nichts mit Erdtemperaturen und schon gar nichts mit Extremwettern oder Meeresspiegelanstiegen zu tun hat. Vielleicht werden jetzt zumindest in Australien Mittel, die früher für unsinnige CO2 Vermeidungsaktionen verschleudert wurden, in den wirklichen Naturschutz umgewidmet. Wenn es so weitergeht, ist nach Sumatra auch bald ganz Borneo abgeholzt. Dies zu verhindern wäre mal etwas Sachgerechtes für unsere deutschen AGW-Krieger und Greenpeace Aktivisten. Doch davon hört man leider nichts.

Schlussendlich schreibt Joachim Wille von der Frankfurter Rundschau auch "Abbott hatte schon als Oppositionsführer befunden, Klimaforschung sei „Mist“, und kaum im Amt schaffte er auch gleich die Klimakommission ab, die die Regierung bisher beraten hatte." Tatsächlich lag Abbott in der Klimafrage schon immer richtig. Es erscheint zweifelhaft, ob für Abbott das von J. Wille geschriebene Statement "Klimaforschung sei Mist“ dem Sinne nach zutrifft, denn Abbott hat mit Sicherheit ausschließlich die hier beschriebene Spezies von Klimaforschung gemeint, nicht die seriöse Klimaforschung.

In Deutschland wäre dringend die Abbott-Politik angezeigt, d.h. in Folge davon die Auflösung des Beirats der Bundesregierung für globale Umweltveränderungen (WBGU) und Entlassen aller WBGU-Wassermelonen (außen grün, innen rot mit braunen Kernen). Ein Revirement des UBA ist ebenfalls unabdingbar. Dies werden freilich fromme Wünsche bleiben, denn Deutschland wird mit Sicherheit das letzte Land der Welt sein, das den Weg der Klima- und Energievernunft beschreitet. Das Erschießen von Deserteuren Ende des 2. Weltkriegs, als die Totalkapitulation bereits unübersehbar und nur noch eine Frage des nächsten Tages war, sind uns noch in historischer Erinnerung. So sind wir Deutschen nun einmal: auch im Irrtum konsequent bis zum Irrsinn.

[1] Roger Köppel, "Warum man Forschern misstrauen muss", Die Weltwoche, Ausgabe 41/2013




Unsicherheiten bei Messungen der Wassertemperatur und in Datensätzen

Die erste Studie von John Kennedy vom UK Met Office enthält eine kompakte und dringend nötige Ungenauigkeits-Analyse der Messungen und Analysen von Wassertemperaturen SST:

Eine Übersicht über in-situ-Messungen und Datensätze der Wassertemperatur

John Kennedy

Abstract: Archive mit In-Situ-Messungen der Wassertemperatur (SST) reichen über 160 Jahre zurück. Die Qualität der Messungen ist variabel und die Fläche der vermessenen Ozeane begrenzt, vor allem zu Beginn der Reihe und während der beiden Weltkriege.

SST-Messungen und darauf basierende gerasterte Datensätze werden in vielen Untersuchungen verwendet, so dass das Verständnis für und die Abschätzung der Unsicherheiten vital ist. Ziel dieser Übersicht ist es, die verschiedenen Komponenten aufzuzeigen, die zu der Gesamt-Unsicherheit der SST-Messungen beitragen sowie der daraus abgeleiteten Datensätze. Dabei bezweckt sie auch, gegenwärtige Lücken des Verständnisses zu identifizieren. Unsicherheiten entstehen auf der Ebene individueller Messungen sowohl durch systematische als auch durch Zufallseffekte. Obwohl diese eingehend untersucht worden sind, schreitet die Verbesserung der Fehlermodelle voran. Jüngste Verbesserungen gab es hinsichtlich des Verständnisses allgegenwärtiger systematischer Fehler, die die Abschätzung langzeitlicher Trends und der Variabilität betreffen. Allerdings sind die Adjustierungen zur Minimierung dieser systematischen Fehler unsicher, und diese Unsicherheiten sind vor den siebziger Jahren größer und vor allem in den Zeiträumen um den Zweiten Weltkrieg, und zwar infolge des Fehlens zuverlässiger Metadaten. Die Unsicherheiten in Zusammenhang mit der Auswahl der statistischen Methoden, mit denen man global vollständige SST-Datensätze erzeugen möchte, wurden mit Hilfe unterschiedlicher Analysemethoden erkundet, aber sie enthalten nicht die jüngsten Einsichten von Messfehlern, und sie verlangen nach einem ordentlichen Eckpfeiler zum Vergleich, mit dem ihre Eignung objektiv bestimmt werden kann. Diesen Problemen kann man begegnen durch die Erzeugung neuer SST-Analysen [new end-to-end SST analyses] und durch die Gewinnung und Digitalisierung von Daten und Metadaten aus Schiffslogbüchern und anderer zeitnaher Unterlagen.

Veröffentlicht in Reviews of Geophysics, Link zum Abstract und zum ganzen Manuskript.

Auszüge:

Bei der Verwendung der SST-Beobachtungen und der darauf basierenden Analysen ist es wichtig, die darin enthaltenen Unsicherheiten sowie die Hypothesen und statistischen Methoden zu verstehen, die zur Erzeugung beigetragen haben. Mit dieser Übersicht beabsichtige ich, die verschiedenen Komponenten aufzuzeigen, die zu der Gesamtunsicherheit der SST-Messungen und der daraus abgeleiteten Datensätze beitragen. Auch Wissenslücken möchte ich damit schließen.

Abschnitt 2 beschreibt eine Klassifizierung der Unsicherheiten. Die Einteilungen nach Klassen sind nicht definitiv und auch nicht ganz eindeutig. Allerdings spiegeln sie die Art und Weise, mit der man sich dieser Unsicherheiten in der Literatur angenommen hat. Und sie bieten einen nützlichen Rahmen, an Unsicherheiten in den SST-Datensätzen zu denken. …

Während dieser gesamten Studie wird unterschieden zwischen einem Fehler und einer Unsicherheit. Der Fehler in einer Messung ist der Unterschied zwischen einem idealisierten „wahren Wert“ und dem gemessenen Wert. Er ist nicht bestimmbar. Die Unsicherheit einer Messung ist definiert als der „Parameter zusammen mit dem Ergebnis der Messung, der die Verteilung der Werte charakterisiert, die man vernünftigerweise der Messgröße zuordnen kann“. In diesem Sinne ist Unsicherheit in der folgenden Diskussion gemeint. Das ist nicht notwendigerweise so wie in den zitierten Studien. Allgemein wird das Wort Fehler als Synonym für Unsicherheit gesehen, wie es in den üblichen Phrasen Standardfehler und Analysefehler zum Ausdruck kommt.

Grob gesagt wurden Fehler in individuellen SST-Beobachtungen aufgeteilt in zwei Gruppen: beobachtete zufällige Fehler [random observational errors] und systematische Fehler. Obwohl dies ein bequemer Weg ist, mit den Unsicherheiten umzugehen, werden sich allgemein Fehler in den SST-Messungen ein wenig durch gleiche Charakteristiken auszeichnen.

Zufällige Fehler treten aus vielen Gründen auf: falsche Ablesung des Thermometers, Rundungsfehler, die Schwierigkeit, ein Thermometer mit größerer Präzision als der vorgegebenen Skaleneinteilung zu lesen, falsch aufgezeichnete Werte, Fehler bei der Digitalisierung und Rauschen des Messfühlers. Obwohl all diese Fehler eine Einzelmessung beeinträchtigen, tendieren sie dazu, sich gegenseitig aufzuheben, wenn große Datenmengen miteinander verglichen werden. Daher ist der Beitrag von beobachteten Randwert-Fehlern zu den Unsicherheiten der globalen mittleren SST viel kleiner als der Beitrag eines Randwertfehlers zur Unsicherheit einer Einzelbeobachtung, selbst in Jahren mit geringster Anzahl von Messungen. Dennoch können, wenn nur wenige Beobachtungen vorliegen, beobachtete Randwert-Fehler einen wichtigen Beitrag zur Gesamtunsicherheit leisten.

Systematische Fehler sind viel problematischer, weil deren Auswirkungen relativ ausgeprägter sind, wenn größere Datenmengen zusammengeführt werden. Systematische Fehler können auftreten, weil ein bestimmtes Thermometer falsch kalibriert ist oder an einer ungeeigneten Stelle steht. Egal wie viele Daten man mittelt von einem Thermometer, das wegen falscher Kalibrierung stets 1 K zu viel anzeigt, wird den Fehler nicht unter dieses Niveau reduzieren, es sei denn durch Zufall. Allerdings wird der systematische Fehler in vielen Fällen von der Umgebung des Thermometers im Einzelnen abhängen und daher von Schiff zu Schiff verschieden sein. In diesem Falle wird die Mittelbildung von Messungen vieler verschiedener Schiffe oder Bojen dazu tendieren, den Beitrag systematischer Fehler zur Unsicherheit des Mittels zu reduzieren.

Kennedy et al. (2011b) haben zwei Formen der Unsicherheit betrachtet: die grid-box sampling-Unsicherheit und large scale sampling-Unsicherheit.* Grid-box sampling-Unsicherheit bezieht sich auf die Unsicherheit der Schätzung der mittleren Wassertemperatur in einem Gebiet innerhalb einer Gitterbox mit einer endlichen und oftmals kleinen Anzahl von Messungen. Large scale Sampling-Unsicherheit bezieht sich auf die Unsicherheit, die aus der Abschätzung der Wassertemperatur eines größeren Gebietes resultieren mit vielen Gitterboxen ohne eine Messung. Obwohl diese beiden Arten von Unsicherheit eng zusammenhängen, ist es oft einfacher, die Grid-box sampling-Unsicherheit abzuschätzen, wo man es nur mit der Variabilität innerhalb einer Gitterbox zu tun hat. Bei der großräumigen Sampling-Unsicherheit muss man das große Spektrum der Variabilität im globalen Maßstab berücksichtigen.

Im Zusammenhang mit der Unsicherheit der Wassertemperatur-[Daten] sind unbekannte Unbekannte die Dinge, die man leicht übersieht. Ihrem Wesen nach sind unbekannte Unbekannte nicht quantifizierbar; sie repräsentieren die tieferen Unsicherheiten, die allen wissenschaftlichen Unternehmungen anhaften. Mit dieser Übersicht hoffe ich zeigen zu können, dass die Bandbreite für Revolutionen in unserem Verständnis begrenzt ist. Nichtsdestotrotz kann eine Verbesserung durch eine kontinuierliche Entwicklung unseres Verständnisses nur erfolgen, wenn wir akzeptieren, dass unser Verständnis unvollständig ist. Unbekannte Unbekannte werden nur mit kontinuierlichen, sorgfältigen und manchmal erfinderischen Untersuchungen der Daten und Metadaten ans Tageslicht kommen.

Kommentar von Judith Curry: Das Uncertain T. Monster [das ist hier als „Name“ zu verstehen] ist SEHR erfreut über diese umfassende Diskussion der Unsicherheiten. Die größten Herausforderungen (in der Studie ausführlich beschrieben) sind die Annahme struktureller Unsicherheiten der Analysemethoden und die Kombination aller Unsicherheiten. Jedwede Applikation dieser Daten (einschließlich der Trendanalyse) erfordert die Berücksichtigung dieser Dinge.

In der zweiten Studie wird versucht, das Unsicherheits-Monster zu schlachten.

Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends

[etwa: Betrachtung des Bias’ in den Temperaturreihen von HadCRUT4 und dessen Auswirkungen auf jüngste Temperaturtrends]

Kevin Cowtan und Robert Way

Abstract: Eine unvollständige globale Abdeckung ist eine potentielle Bias-Quelle bei globalen Temperatur-Rekonstruktionen, falls die nicht mit Daten erfassten Gebiete nicht gleichmäßig auf der Planetenoberfläche verteilt sind. Der meistverwendete HadCRUT4-Datensatz erfasst im Mittel 84% des Globus‘ während der letzten Jahrzehnte, wobei sich die datenfreien Gebiete um die Pole und in Afrika konzentrieren. Drei bestehende Rekonstruktionen mit einer fast globalen Überdeckung werden untersucht, wobei jede zeigt, dass HadCRUT4 anfällig für Bias ist infolge der Behandlung datenfreier Gebiete. Zwei alternative Vorgehensweisen, die globale Temperatur zu rekonstruieren, werden untersucht. Eine davon basiert auf einem optimalen Interpolations-Algorithmus und die andere auf einer Hybrid-Methode [?] mit zusätzlichen Informationen aus Satellitendaten. Die Methoden werden validiert auf Basis ihrer Eignung, fehlende Daten zu rekonstruieren. Beide Methoden führen zu besseren Ergebnissen als wenn man die datenfreien Regionen ausschließt, wobei vor allem die Hybrid-Methode gut geeignet ist für diese datenfreien Gebiete. Temperaturtrends der Hybrid-Methode und der Rohdaten von HadCRUT4 werden verglichen. Der weithin genannte Trend seit 1997 ist nach der Hybrid-Methode zweieinhalb mal größer als der korrespondierende Trend in den HadCRUT4-Daten. Der Bias verursacht einen kühlenden Bias der Temperaturen der letzten Zeit verglichen mit Ende der neunziger Jahre. Trends, die in den Jahren 1997 oder 1998 beginnen, sind hinsichtlich des globalen Trends besonders verzerrt. Das wird verschärft durch das starke El Nino-Ereignis von 1997/1998, der auch dazu tendiert, Trends zu unterdrücken, die in jenen Jahren begannen.

Veröffentlicht von der Royal Meteorological Society, link zum abstract.

Es gibt eine Website mit Daten und Metadaten und auch ein erklärendes youtube video.

Im Guardian findet sich ein ausführlicher Artikel. Auszüge daraus:

Es gibt große Gebiete mit Lücken in der Datenerfassung, hauptsächlich in der Arktis, der Antarktis und Afrika, wo es nur ganz vereinzelt Stationen gibt, an denen die Temperatur gemessen wird.

Die Temperaturaufzeichnungen von NASA’s GISTEMP versuchen, diese Meldelücke zu schließen, indem Temperaturmessungen in der Umgebung auf diese Gebiete extrapoliert werden. Allerdings fehlen den NASA-Daten Korrekturen von der Art, wie Wassertemperaturen gemessen werden – ein Problem, das bislang nur vom Met. Office angegangen worden ist.

In ihrer Studie wenden Cowtan & Way das Kriging-Verfahren an, um die Lücken in den Messungen zu füllen, allerdings tun sie das sowohl für das Festland als auch für die Ozeane. In einem zweiten Anlauf nutzen sie auch die nahezu globale Erfassung von Satellitendaten, indem sie die Satelliten-Temperaturmessungen der University of Huntsville in Alabama (UAH) mit den verfügbaren Oberflächendaten kombinieren, um die Lücken mit einem ‚Hybrid‘-Datensatz zu füllen. Sie fanden heraus, dass das Kriging-Verfahren die besten Ergebnisse liefert, um Temperaturen über den Ozeanen zu bestimmen, während die Hybrid-Methode am Besten auf dem Festland und vor allem auch über Meereis funktioniert, das große Teile der datenfreien Gebiete ausmacht.

Cowtan & Way untersuchen die Behauptung eines ‚Stillstands‘ der globalen Erwärmung der letzten 16 Jahre, indem sie die Trends von 1997 bis 2012 betrachten. Während aus den HadCRUT4-Daten während dieser Zeit lediglich ein Trend von 0,046°C pro Jahrzehnt hervorgeht – die NASA nennt 0,08°C pro Dekade – schätzen das neue Kriging-Verfahren und die Hybrid-Datensätze einen Trend von jeweils 0,11°C bzw. 0,12°C pro Jahrzehnt.

Diese Ergebnisse zeigen, dass die Verlangsamung der Erwärmung der globalen mittleren Temperatur nicht so signifikant ist wie ursprünglich gedacht. Die Erwärmung hat sich verlangsamt, zum größten Teil deswegen, weil mehr der Erwärmung während des letzten Jahrzehnts in die Ozeane transferiert worden ist (hier). Allerdings erfolgt diese Art der vorübergehenden Verlangsamung der Erwärmung (und Beschleunigungen) auf regelmäßiger Basis infolge kurzfristiger natürlicher Einflüsse.

Die Ergebnisse dieser Studie haben auch Auswirkungen auf die jüngste Forschung. Zum Beispiel ergibt die Korrektur des jüngsten Kalt-Bias‘, dass die globale Temperatur nicht so weit vom Mittel der Modellprojektionen entfernt liegt als ursprünglich gedacht. Sie liegen mit Sicherheit noch innerhalb der Bandbreite der individuellen Temperatursimulationen der Klimamodelle (hier). Jüngste Studien, die ursprünglich zu dem Ergebnis gelangt waren, dass das globale Klima etwas weniger sensitiv auf zunehmende Treibhausgase reagiert als vorher gedacht, könnten ebenfalls die tatsächliche Klimasensitivität unterschätzt haben.

Das ist natürlich nur eine einzige Studie, beeilt sich Dr. Cowtan anzumerken.

„Kein schwieriges wissenschaftliches Problem wird jemals in einer einzigen Studie gelöst. Ich erwarte nicht, dass unsere Studie das letzte Wort hierzu ist, aber ich hoffe, dass wir die Diskussion vorangebracht haben“.

Beispiele für Tweets hierzu:

Dana Nuccitelli:  Diese neue Studie killt den Mythos des Stillstands der globalen Erwärmung.

John Kennedy: Die Ironie ist, dass die zum Zerschlagen der HadCRUT4-Daten verwendete Studie annimmt, dass HadCRUT4 dort korrekt ist, wo es Daten gibt.

Die Studie erregt viel Aufmerksamkeit in den Medien, und auch ich selbst bekomme Fragen von Reportern.

Beurteilung von Judith Curry

Schauen wir zuerst auf die drei Methoden, die sie anwenden, um Datenlücken zu füllen, vor allem in Afrika sowie in der Arktis und der Antarktis.

1. Kriging

2. UAH-Satellitenanalysen der Lufttemperatur

3. Reanalysen von NCAR NCEP

Der größte Unterschied in ihrem rekonstruierten globalen Mittel kommt aus der Arktis, so dass ich mich darauf konzentriere (wobei ich gerade diesbezüglich einige Erfahrung habe).

Erstens, Kriging. Das Kriging-Verfahren über Eis auf Land und Wasser macht physikalisch keinen Sinn. Während in der Studie Rigor et al. (2000) genannt werden, die ‚eine gewisse‘ Korrelation im Winter zwischen Festland und Meereis bis zu einer Höhe von 1000 km gefunden haben, würde ich in anderen Jahreszeiten keine Korrelation erwarten.

Zweitens, UAH-Satellitenanalysen. Sie sind unbrauchbar in höheren Breiten bei Temperaturinversionen, und sie sind unbrauchbar über Meereis, das räumlich eine sehr komplexe Verteilung der Abstrahlung im Mikrowellenbereich aufweist). Hoffentlich wird sich John Christy dieses Problems annehmen.

Drittens, Reanalysen in der Arktis. Man betrachte Abbildung 1 in dieser Studie, die einem das Gefühl für die Größenordnung der Gitterpunktfehler an einem Punkt während eines jährlichen Zyklus‘ gibt. Zwar sind sie in gewisser Weise brauchbar, aber Reanalysen sind unbrauchbar, um Trends aufzuzeigen, die temporären Inhomogenitäten in den Datensätzen geschuldet sind.

Also denke ich, dass die Analyse von Cowtan und Way nichts zusätzlich zu unserem Verständnis des globalen Temperaturfeldes und des ‚Stillstands‘ hinzufügt.

Unter dem Strich bleibt die Graphik von Ed Hawkins, in der Klimamodell-Simulationen in Gebieten verglichen werden, in denen Beobachtungen existieren. Das ist der geeignete Weg, um Klimamodelle mit Beobachtungen und Messungen zu vergleichen, und es bleibt die Tatsache, dass Klimamodelle und Beobachtungen stark voneinander abweichen.

Gibt es irgendetwas Nützliches von Cowtan und Way? Nun, sie machen deutlich, dass wir versuchen sollten, auf irgendeine Weise Temperatur-Variationen über dem Arktischen Ozean zu erfassen. Daran wird gegenwärtig geforscht.

Link: http://judithcurry.com/2013/11/13/uncertainty-in-sst-measurements-and-data-sets/

Übersetzt von Chris Frey EIKE




UN Klimatreffen Warschau (COP 19): Aktivisten missbrauchen Taifun Haiyan für eigene Zwecke: Studien fanden für die vergangenen Jahrzehnte keine Zunahme der Taifunaktivität

Neben den hohen Windgeschwindigkeiten kam jedoch noch ein weiterer unglücklicher Umstand hinzu, der die Opferzahlen nach oben schnellen ließ: Gerade als Haiyan auf Land traf herrschte nämlich Flut, so dass die Flutwelle noch viel höher auflief, als sie es sonst eigentlich getan hätte.

Abbildung 1: Zugbahn von Taifun Haiyan (alias Yolanda) im Bereich der Philippinen vom 6. Bis 9. November 2013. Quelle: PAGASA.

Was war eigentlich nochmal genau ein Taifun und wie unterscheidet er sich vom bekannteren Hurrikan? Als Taifune werden tropische Wirbelstürme in Ost- und Südostasien sowie im nordwestlichen Teil des Pazifischen Ozeans, westlich der internationalen Datumsgrenze und nördlich des Äquators bezeichnet (rot markiertes Gebiet in Abbildung 2). Tropische Wirbelstürme im Atlantik und nordöstlichen Teil des Pazifiks heißen hingegen Hurrikane.

Abbildung 2: Namen der tropischen Wirbelstürme in den verschiedenen Regionen: 1)  Hurrikan, 2) Taifun, 3) Zyklon. Quelle: Wikipedia.

Wie nach jeder größeren Extremwetterkatastrophe nutzten sogleich Klimaaktivisten die Situation aus und missbrauchten das schlimme Ereignis für eigene Zwecke. So nahm ein Delegierter der Philippinen bei der UN-Klimakonferenz in Warschau den Sturm in einer emotionsgeladenen Rede zum Anlass, zu einem entschiedenerem Kampf gegen den Klimawandel aufzurufen. Die Morgenpost berichtete:

«Stoppt diesen Wahnsinn», sagte Yeb Sano, der mit den Tränen kämpfte, als er von den Auswirkungen des Taifuns «Haiyan» in seiner Heimat berichtete. Er kündigte an, solange zu fasten, bis die Klimakonferenz eine bedeutsame Vereinbarung erzielt habe.

Auf der gleichen Klimakonferenz kündigte Japan an, seine CO2-Einsparungsbemühungen erheblich drastisch nach unten zu schrauben. Sogleich inszenierte eine Klimaaktivistengruppe ein fragwürdiges mediales Happening im Rahmen einer Pressekonferenz in Warschau, bei dem als Japaner verkleidete Schauspieler auf am Boden liegende Philippiner eintraten. Die Tagesschau stieg sofort mit ein und verbreitete das Schmierentheater dankbar.

Währenddessen meldet sich in der Zeit der Klimaaktivist Klaus Töpfer zu Wort:

Der Taifun “Haiyan” auf den Philippinen ist nach Einschätzung von Klaus Töpfer ein weiterer Augenöffner für den Klimawandel. […] Es sei Fakt und keine Spekulation, dass solche Stürme häufiger kämen und dass sie stärker würden, so der ehemalige Bundesumweltminister [im Deutschlandfunk].

Auch der Klimaspezialist und Generalsekretär der Vereinten Nationen, Ban Ki-moon ist sich sicher, dass Haiyan auf den menschengemachten Klimawandel zurückgeht, wie er jetzt in einer Rede an der Universität Tallinn in Estland erklärte. Im Bayerischen Rundfunk sprach der klimareligiöse Mojib Latif von einer Katastrophe “biblischen Ausmaßes”, die auf jeden Fall als Folge der Klimaerwärmung zu werten wäre. Im ZDF-Morgenmagazin behauptete Stefan Rahmstorf aus dem Bauch heraus, dass dies wahrscheinlich der stärkste Taifun war, der jemals auf Land getroffen ist (hier das Video). In seinem Blog fragt der Forscher:

Wie ruhig können diejenigen, die sich mit aller Macht gegen Klimaschutzmaßnahmen stemmen, im Angesicht der Bilder aus den Philippinen noch schlafen?

Seiner Hauspresse, den Potsdamer Neuesten Nachrichten, diktierte Rahmtorf weitere persönliche Einschätzungen in den Block (Fettsetzung ergänzt):

Der Potsdamer Klimaforscher Stefan Rahmstorf sieht einen direkten Zusammenhang zwischen dem Klimawandel und so verheerenden Unwettern wie dem Taifun „Haiyan“ auf den Philippinen. […] „Solche Stürme sind in den letzten drei Jahrzehnten häufiger geworden und Klimamodelle lassen eine weitere Verstärkung für die Zukunft erwarten.“ […] Der Taifun „Haiyan“, der am Freitag die Philippinen traf, gilt als der stärkste Tropensturm, der seit Beginn der Wetterbeobachtungen auf Land traf. Es wurden extreme Windböen von mehr als 300 Stundenkilometern gemessen. 

In seinem Klimalounge Blog versuchte Rahmstorf zudem den Anschein zu erwecken, er hätte allerneueste, exklusive Informationen, die seine Sichtweise stützen:

Im Juni war ich eine Woche beim International Hurricane Summit auf Kos, um mich auf den aktuellsten Forschungsstand zu bringen. […] Weitgehend unumstritten ist eine Zunahme der stärksten Stürme (damit sind die der Kategorien 4 und 5 gemeint) seit Beginn der Satellitenmessungen (z.B. Elsner et al. 2008). Die stärkste Zunahme findet man im Nordatlantik (siehe z.B. Abb. 3 in Coumou and Rahmstorf, A Decade of Weather Extremes, Nature Climate Change 2012). Für die Zeit vor Beginn der Satellitenära in den 1970ern ist die Datenlage außerhalb des Nordatlantiks nicht gut genug, um klare Aussagen zu machen. […] Einen interessanten neuen Ansatz zum Erfassen der früheren Zeiträume haben Grinsted et al. (PNAS 20122013) gefunden: sie nutzen Gezeitenpegeldaten ab 1923 von den Küsten, die Sturmfluten registrieren, um die Geschichte der auf Land treffenden Tropenstürme zu rekonstruieren. Damit wurde zunächst eine auch langfristige Zunahme im Nordatlantik belegt – die Analyse für den Rest der Welt wurde in Kos präsentiert aber noch nicht publiziert, sodass ich das Ergebnis hier noch nicht verraten kann.

Der Potsdamer tut sehr geheimnisvoll. But don’t hold your breath. Rahmstorfs PIK-Kollege Friedrich-Wilhelm Gerstengarbe sieht die Situation in einem Interview mit ntv nämlich realistischer (Fettsetzung ergänzt):

Doch anders als nach einem Tsunami gibt es für diese Naturkatastrophe möglicherweise einen Verursacher: den Klimawandel. Sicher ist das nicht; “an einem einzelnen Ereignis können Sie den Klimawandel nicht nachweisen”, sagt der Klimawissenschaftler Friedrich-Wilhelm Gerstengarbe n-tv.de. “Der Klimawandel ist ein schleichender Prozess, da muss man sich schon die Entwicklung über längere Zeiträume ansehen.” Eine quantitative Häufung von tropischen Wirbelstürmen sei nicht zu beobachten, sagt Gerstengarbe.

Interessanterweise sieht auch der IPCC die Wirbelsturmgefahr ganz anders als Stefan Rahmstorf, worauf Axel Bojanowski im Spiegel hinwies (Fettsetzung ergänzt):

Der Uno-Klimarat hat die Erkenntnisse in seinem jüngsten Bericht vom September zusammengefasst: Es gebe keine erkennbaren Langzeittrends bei tropischen Zyklonen, also bei Hurrikanen und Taifunen. Allerdings: Die stärksten Wirbelstürme, so eine Vermutung, könnten in Zukunft noch zerstörerischer werden. Tropische Stürme ziehen ihre Energie aus warmem Wasser. Doch die Gleichung “wärmere Ozeane gleich mehr Stürme” geht nicht auf. Scherwinde können sie schwächen. Lindernd wirken sich auch Staubpartikel aus. Entsprechend scheint die Verringerung der Luftverschmutzung in der westlichen Welt seit Ende der siebziger Jahredazu beigetragen zu haben, dass seither wieder mehr Hurrikane über dem Atlantik kreisen. […] Weltweit habe es im vergangenen Jahrzehnt sogar eine unterdurchschnittliche Aktivität tropischer Stürme gegeben, berichtet die WMO. Die globale Aktivität tropischer Stürme sei auf einen Tiefpunkt gefallen, schrieb der Klimaforscher Ryan Maue von der Florida State University 2011. Seit 1872 gehe die Anzahl der Stürme zurück, zeigte auch eine Studie 2012.

Das wollen wir genauer wissen. Was schrieb der IPCC wörtlich zu den gefährlichen Wirbelstürmen in seinem neuen Klimazustandsbericht, der vor einigen Wochen ganz frisch herauskam? (Fettsetzung ergänzt):

“In summary, this assessment does not revise the SREX conclusion of low confidence that any reported long-term (centennial) increases in tropical cyclone activity are robust, after accounting for past changes in observing capabilities.”

Roger Pielke Jr. wies darauf hin, dass eine mögliche anthropogene Beeinflussung der tropischen Wirbelstürme aufgrund seiner Studien wohl erst in einigen Jahrzehnten oder sogar Jahrhunderten zu erkennen sein wird:

In practical terms, on timescales of decision making a signal that cannot be seen is indistinguishable from a signal that does not exist.

Ganz im Gegensatz zu Rahmstorf, Latif und Töpfer fand die seriöse Wissenschaft keine Steigerung der Taifuntätigkeit in den letzten Jahrzehnten weder global noch in der philippinischen Region. Hat Rahmstorf die Hurrikan-Tagungswoche auf der griechischen Insel Kos vielleicht eher dazu genutzt, sich ausgiebig am Strand zu sonnen, anstatt sich auf die Fachvorträge zu konzentrieren? Es bleibt ein absolutes Rätsel, auf welcher Datengrundlage Rahmstorf & Co. ihre fragwürdige Behauptung aufbauen wollen. Was in einem Zeitungsinterview schnell daher gesagt ist, muss anhand solider Daten belegbar sein. Und hier hakt es. Langzeitdaten sind für jedermann im Internet verfügbar, zum Beispiel jene von Ryan Maue, einem Spezialisten für tropische Wirbelstürme. Auf seiner Webseite stellt er Kurven zur Verfügung, welche die Entwicklung der globalen tropischen Wirbelsturmenergie für die vergangenen 43 Jahre darstellt (Abbildung 3). Das Fazit fällt eindeutig aus: Die letzten fünf Jahre waren eher ruhig. Eine intensivere tropische Wirbelsturmaktivität gab es in den 1990er Jahren sowie um 2006. Langfristig ist keine Steigerung belegbar.

Abbildung 3: Global akkumulierte tropische Wirbelsturmenergie seit 1970. Quelle: Ryan Maue.

Auch die lokale Entwicklung lässt wenig Raum für alarmistische Spekulationen. Ein Forscherteam um Kubota et al. veröffentlichte 2009 in denGeophysical Research Letters eine Taifunstatistik der Philippinen für die letzten 100 Jahre (Abbildung 4). Wieder das gleiche Bild: Kein Anstieg der Taifunaktivität trotz globaler Erwärmung in der gleichen Zeit um mehr als ein halbes Grad. Die Autoren schreiben in ihrer Arbeit:

“Despite global warming during the 20th century the number of tropical cyclones annually making landfall in the Philippines did not experience any net change. All variability was merely oscillatory activity around a mean trend of zero slope”

Abbildung 4: Anzahl der Taifune, die seit 1900 die philippinische Küste erreicht haben. Aus Kubota et al. 2009 (mit Dank an WUWT).

Und wie sehen dies eigentlich die philippinischen Behörden? Laut dem philippinischen Wetterdienst (Philippine Met Agency, PAGASA) war in den letzten 65 Jahren kein Anstieg der Taifune in der philippinischen Region zu verzeichnen (Abbildungen 5 und 6).

Abbildung 5: Anzahl der Taifune, die seit 1948 die philippinische Küste erreicht haben. Quelle: PAGASA.

Abbildung 6: Entwicklung der Taifunhäufigkeit seit 1948 in der Region der Philippinen (PAR=Philippines Area of Responsibility). Quelle: PAGASA.

Erweitern wir auf die gesamte westliche Nordpazifikregion, zu der auch die Philippinen gehören, ist in den letzten 60 Jahren sogar eine Abnahme der Taifune zu verzeichnen, wie eine Studie eines Teams um Jessica Weinkle von der University of Colorado in Boulder im Journal of Climate aus dem Juli 2012 belegt (Abbildung 7). Die Autoren schreiben in ihrer Arbeit:

From currently available historical TC records, we constructed a long-period global hurricane landfall dataset using a consistent methodology. We have identified considerable interannual variability in the frequency of global hurricane landfalls; but within the resolution of the available data, our evidence does not support the presence of significant long-period global or individual basin linear trends for minor, major, or total hurricanes within the period(s) covered by the available quality data. Therefore, our long-period analysis does not support claims that increasing TC landfall frequency or landfall intensity has contributed to concomitantly increasing economic losses.

Abbildung 7: Anzahl der Taifune, die seit 1950 die Küsten im westlichen Nordpazifik erreicht haben. Quelle: Roger Pielke Jr. auf Basis von Daten inWeinkle et al. 2012. Pielke war Coautor der Studie.

Auch der verzweifelte Versuch, aus dem schrecklichen Taifun einen Rekordsturm zu machen, der alles Bisherige übertrumpfte, muss bei näherer Überprüfung der Fakten als gescheitert angesehen werden. Die nach Rekorden gierende Sensationspresse und die ihnen zuliefernden Klimaaktivisten sollten hier vielleicht überlegen, in Zukunft eine qualitätssichernde Faktencheck-Zwischenstufe einzuführen. So konzedierte dasGreenpeace-Magazin am 13. November 2013 in einem Beitrag:

Kurz vor der Küste hatte «Haiyan» eine mittlere Windgeschwindigkeit von geschätzten 314 Kilometer pro Stunde und Spitzenböen von bis zu 379 Kilometern pro Stunde. Das ist jedoch laut DWD kein Rekord, denn die höchsten mittleren Windgeschwindigkeiten, die bisher bei einem Taifun im Nordwestpazifik beobachtet wurden, hatte «Nancy» im September 1961. Damals wurden die mittleren Windgeschwindigkeiten auf bis zu 342 Kilometer pro Stunde geschätzt. Allerdings seien nach neuen Erkenntnissen die Windgeschwindigkeiten in den 1940-1960er Jahren überschätzt worden, heißt es in dem DWD-Beitrag. Auch bei den Spitzenböen habe «Haiyan» keinen Rekord aufgestellt: Nach Erkenntnissen der Weltorganisation für Meteorologie (WMO) sei die bisher stärkste Windgeschwindigkeit bei dem Tropensturm «Olivia» mit einer Böe von 407 Kilometern pro Stunde am 10. April 1996 auf Barrow Island (Australien) gemessen worden.

Eine genaue Analyse der Daten ergab jetzt, dass Haiyan lediglich auf Platz sieben der stärksten auf den Philippinen registrierten Taifune rangiert. Obwohl die Opferzahl des Sturms letztendlich nur ein Fünftel der ursprünglich angegebenen Zahl betrug, sind auch gut 2000 Todesopfer ein schlimmer Blutzoll, den die Philippinen an Haiyan zahlen mussten. Dabei darf jedoch auch nicht vergessen werden, dass tropische Wirbelstürme neben Pest, Cholera und Kriegen stets zu den übelsten Massenmördern der Geschichte zählten. Auf wunderground gibt es eine Aufstellung der Wirbelstürme mit den höchsten jemals zu beklagenden Opferzahlen und Haiyan wird hier durch unvorstellbare Zahlen von bis zu 300.000 weit übertrumpft (Abbildung 8).

Death counts from large killer cyclones are highly uncertain, particulary for those before 1900. The above rankings are somewhat speculative. Information sources: EM-DAT, the International Disaster Database; Banglapedia, Wikipedia,Climate change impacts and adaptation assessment in Bangladesh“ by Anwar Ali, and Encyclopedia of Hurricanes, Typhoons, and Cyclones (1999), by David Longshore.

Abbildung 8: Liste der 31 schlimmsten Wirbelstürme mit den meisten Todesopfern. Aus Wunderground.com.(Die Übertragung der Liste machte Schwierigkeiten. Sie ist schlecht lesbar, bitte bei Interesse auf Originalwebsite Wunderground.com nachlesen)

Dominik Jung, Diplom-Meteorologe und Redaktionsleiter wetter.net, beklagte in einem Blogbeitrag den Mangel an historischem Kontext in der klimaalarmistischen Haiyan-Berichterstattung:

6. Was hat der Klimawandel [mit dem Taifun Haiyan] zu tun?
Es ist wie immer: kaum wird auf der Erde ein Ereignis beobachten, welches ja “noch nie” gab, schon wird wieder über die Ursachen diskutiert. Ebenso schnell landet man dann wieder beim Stichwort “Klimawandel”. “Haiyan war einer der stärksten Taifune, die man beobachtet hat” – das klingt erstmal sehr spannend – aber es fehlt ein wichtiger kleiner Hinweis, nämlich: “seit Beginn der Wetteraufzeichnungen”. Und diese regelmäßigen Wetteraufzeichnungen gibt es in Sachen weltweiter tropischer Wirbelstürme erst seit ein paar Jahrzehnten! Wenn wir hier also von dem stärksten Sturm aller Zeiten sprechen, dann sind diese “aller Zeiten” noch nicht einmal volle 100 Jahre. Die Erde ist nun aber “schon” etwas älter als 100 Jahre und wir wissen überhaupt nicht, welche Naturkatastrophen es vor 500 oder 1000 Jahren schon gegeben hat und eben auch nicht welche tropischen Wirbelstürme. Für die vielen “Klimaexperten” dieser Erde ist dieses Ereignis natürlich wieder ein gefundenes Fressen, um wieder mächtig auf die Werbetrommel “böser Klimawandel” zu hauen, dabei kann nicht ein einziger dieser Damen und Herren nachweisen, dass es ähnliche Stürme nicht schon vor etlichen 100 Jahren gegeben hat, geschweige denn das dieser Sturm im Zusammenhang mit einer vom Menschen gemachten Klimaveränderung steht. Wie hieß es nach den letzten kalten Wintern in Mitteleuropa aus dem Mund der Klimaexperten so schön: “Ein paar zu kalte Winter sind noch lange kein Indiz für eine Trendwende in Sachen Klimawandel”. Ein einziger größerer Taifun soll nun aber im Umkehrschluss als Bestätigung herhalten? Ein sehr spannender Gedankengang!

Noch deutlicher wurde Ulli Kulke in einem Artikel in der Welt zu den Ereignissen:

Eine Tragödie, für die der Mensch nichts kann
Das furchtbare Leiden der Sturmopfer auf den Philippinen bewegt die Welt. Doch wer jetzt verkündet, der Taifun Haiyan sei menschengemacht, handelt wider besseres Wissen und verantwortungslos. […] Die Philippinen sind seit Menschengedenken eines der meistgeschädigten Durchzugsgebiete schwerster Taifune. Ihre katastrophale Wirkung wurde durch eine immer dichtere Besiedlung verstärkt, aber auch durch das Abholzen schützender Küstenwälder sowie des Dschungels im Landesinneren zugunsten von Palmölplantagen. Auch wenn es sich um namhafte deutsche Klimaforscher und das öffentlich-rechtliche Fernsehen handelt: Wer jetzt über den Bildschirm verkündet, der Taifun Haiyan sei gewiss menschengemacht, handelt wider besseres Wissen und verantwortungslos. Auch vor einer wichtigen Klimakonferenz.

Einen Missbrauch der Taifunkatastrophe der Klimaalarmisten für eigene Zwecke sieht auch Jasper von Altenbockum in einem Artikel in der FAZvom 11. November 2013:

Die Politik sollte nicht mit Ängsten spielen, schon gar nicht mit Katastrophen. Es ist deshalb unvorsichtig und unangebracht, den Taifun „Haiyan“ dazu zu missbrauchen, der UN-Klimakonferenz in Warschau vorzuwerfen, zu wenig gegen den Klimawandel zu tun. Den Opfern in den Katastrophengebieten muss schnelle und großangelegte Hilfe zuteil werden; die wird und sollte nicht aus Warschau kommen. […]Ehrlich und verantwortungsvoll wäre es, wenn gerade jetzt und gerade in Warschau darauf hingewiesen würde, dass es einen simplen Zusammenhang zwischen „Monsterstürmen“ und dem Klimawandel nicht gibt; dass auch die Wahrscheinlichkeit gering ist, dass deren Zahl zunehmen wird. Warum sollte es derzeit auch eine „Klimawandel-Pause“ geben, gleichzeitig aber immer mehr Klimawandel-Katastrophen?

Und abschließend noch eine wichtige Frage: Warum hat sich niemand aus der offiziellen deutschen Forschung in der Presse zu Wort gemeldet und die falsche, unmoralische Darstellung der historischen Taifuntrends durch Rahmstorf, Latif und Hobbyklimatologe Töpfer richtiggestellt, obwohl dies unter Hinweis auf begutachtete Publikationen ein Leichtes gewesen wäre? Wollte man wieder einmal “der klimaskeptischen Seite keine Munition liefern” und ließ daher die Fehler einfach so durchgehen? Was ist von dieser gefährlichen Passivität von mit deutschen Steuermitteln bezahlten Forschern zu halten, die aus Angst vor grünen Repressalien nicht mehr frei in der Öffentlichkeit sprechen können? Quo vadis deutsche Wissenschaft?

Lesetipps: Klimarealistischer Beitrag der Daily Mail, Taifunstatistik der letzten Jahre auf naturgewalten.de.

Der Beitrag erschien zuerst in „Die kalte Sonne“




Wie lange dauert es, bis wir eine katastrophale Erwärmung um 2°C bekommen?

Bild rechts: Central England Mean Monthly Temperatures 1659-2012

Als Teil dieser Präsentation weise ich darauf hin, dass die Temperatur von 1659 bis 2012 nur um 0,87°C innerhalb von 353 Jahren gestiegen ist, was einer Rate von 0,025°C pro Dekade entspricht. Wenn man bedenkt, dass die Erholung aus der Kleinen Eiszeit in diese Periode fällt, ist das kaum überraschend und einfach Bestandteil der natürlichen Variation. An dieser Stelle bekomme ich normalerweise einige Fragen der Marke „wirklich?“.

Meine Antwort: „Das sind die Zahlen des UK Met. Office selbst“.

Ein anderes Mal ergab sich jedoch ein kleiner Unterschied, als jemand im Auditorium die Frage stellte: „Wie lange wird es also dauern, bis wir diese gefährliche Erwärmung um 2°C bekommen?“

Pause – warum habe ich das nicht längst berechnet? Ein schneller Überschlag ergab: 800 Jahre!

„Wie bitte?“

Ich rechnete noch einmal nach und sagte: „Bei dem derzeitigen Trend etwa 800 Jahre“. Total verblüfftes Auditorium!

Link: http://wattsupwiththat.com/2013/10/30/how-long-before-we-reach-the-catastrophic-2c-warming/

Übersetzt von Chris Frey EIKE




Die verschiedenen Formen des Hydraulic Fracturing

Dieser war mit seinen Falschdarstellungen nicht nur bezüglich des Hydraulic “Fracking” Fracturings sondern auch wegen der angeblichen Folgen dieses seit sechs Jahrzehnten angewendeten Verfahrens ein gefundenes Fressen für Umweltbesorgte und unsere sensationsgierigen Medien. Darauf soll hier nicht weiter eingegangen werden, es finden sich auf dem Blog “Erdöl und Erdgas in Deutschland”einige Artikel zum Thema. Vielmehr möchte ich in diesem Beitrag die unterschiedlichen Formen des Frac-Verfahrens vorstellen und kurz erläutern.

Ursprüngliches Hydraulic Fracturing

Im Jahr 1947 wurde die erste hydraulische Fracmaßnahme durchgeführt, und zwar im Hugoton-Feld im Süden von Kansas. Dabei kamen ca. 4000 Liter angedicktes (geliertes) Benzin, auch aus Kriegseinsätzen bekannt als Napalm (naphthenic-acid-and-palm-oil) sowie im Anschluss ein Gelbrecher zum Einsatz. Dabei wurde eine ca. 800 Meter tief liegende Erdgaslagerstätte in einer Kalksteinformation gefract, allerdings zunächst ohne den erhofften Erfolg, die Produktionsrate der Bohrung bedeutend zu steigern. Nichtsdestotrotz wurden weiterhin Fracmaßnahmen in diesem Stil durchgeführt. Nur zwei Jahre später wurde das Verfahren dann patentiert und die Halliburton Oil Well Cementing Company erhielt eine exklusive Lizenz. Allein 1949 wurden 332 Bohrungen in den USA hydraulisch stimuliert. Als Stützmittel zur Rissoffenhaltung kam zunächst Sand (ungefähr 200 kg/Fracmaßnahme) aus Flüssen zum Einsatz. [1] Auch in Deutschland kamen bereits in den 1950er Jahren Fracmaßnahmen in dieser Form zum Einsatz. Beispielsweise im Erdölfeld Lingen.[2]

Wasser als Basis des Fracfluids – Gelfracs

Wie erwähnt waren Ölprodukte (Napalm, angedicktes Erdöl sowie angedicktes Kerosin) zunächst Basis des Gels, dass den Transport von Sand in die erzeugten Risse ermöglichte. Doch bereits 1953 wurde Wasser als Basis für das Fracfluid verwendet und in dem Zusammenhang eine Reihe von Gelbildnern sowie Gelbrechern (ein Teil der “bösen” Chemikalien) entwickelt. Weiterhin kamen Tenside zum Einsatz, die Reaktionen mit Formationswasser verringerten sowie Tonstabilisatoren, die das Aufquellen von Tonmineralen verhindern. Dadurch wurde es möglich Wasser (statt Öl) als Basis für das Fracfluid in verschiedenen geologischen Formationen zu verwenden. Für tiefliegende und hochtemperierte Formationen wurden dann Mittel eingesetzt, die das Gel stabil halten. Zunächst handelte es sich um Methanol (in Reinform giftig), im Laufe der Zeit kamen aber andere Stabilisierer hinzu und der Anteil von Methanol ging deutlich zurück oder wurde gar auf 0 % reduziert. [1] Gelfracs sind die bis heute am häufigsten angewandte Form des Hydraulic Fracturings in Deutschland, was tiefliegende erdgasführende Sandsteinformationen betrifft. Siehe dazu die entsprechenden Quellenangaben der in Deutschland tätigen Firmen hier oder auch hier. Hinweis: Es wird jeweils eine Testmaßnahme für Schieferton angeführt, wo kein geliertes Fracfluid zum Einsatz kam (Testfracs Bohrung “Damme 3″) sondern sogenanntes “Slickwater”.

Slickwaterfracs

Recht ähnlich gegenüber dem Gelfrac-Verfahren stellt sich das Slickwaterverfahren dar. Während ersteres in tiefen Sandsteinformationen eingesetzt wird, wird das Slickwaterverfahren in vergleichsweise tiefen Schiefertonformationen eingesetzt (sogenannte “Shales”). Jedoch anders als beim Anwenden von gelierten Flüssigkeiten zum Fracen ist der Einsatz von Zusätzen (den stets angeprangerten Chemikalien) um 1 Größenordnung geringer. Bei Gelfracs beträgt der Anteil an Additiven ca. 1 bis 5 Prozent während er bei Slickwater unter 0,5 Prozent liegt. Vergleiche dazu die Zusammensetzung des Fracfluids der Bohrung “Buchhorst T12″ (letzte durchgeführte Fracmaßnahme in Deutschland 2011) mit dem einzigen bisher angewandten Slickwaterfrac in Deutschland, den 3 Testfracs in der Bohrung “Damme 3″ [3] Die Aufgaben der Additive (der “bitterbösen” Chemikalien) beim Slickwaterfraccen sind denen der bei Gelfracs dem Wasser beigemengten Zusätze ähnlich. Im Wesentlichen werden Reibungsminderer, Korrosionshemmer und Bakterien tötende Mittel (die stets angeprangerten Biozide) verwendet. Schließlich erlaubt die Nutzung von Slickwater höhere Verpumpraten des Fluids [4].

Stickstoff-Fracs (Nitrogen-Fracs)

Hierbei wird flüssiger Stickstoff als Fluid verwendet oder auch als Schaumbildner im Fluid. Dadurch wird der Einsatz von Wasser (deutlich) verringert oder gar komplett eliminiert. Ein weiterer Vorteil ist, dass durch die Anwendung dieses speziell für die Gewinnung von Kohleflözgas (in flacheren Schiefergasformationen auch möglich) geeigneten Verfahrens eine Schädigung der Lagerstätte verhindert wird. Wasserbasierte Fluide könnten nämlich die geschaffenen Risse verstopfen und den Gasfluss behindern.[5][6] Nitrogenfracs könnten somit eine Alternative für wasserarme Gebiete darstellen.

Wasserfracs

Hierbei handelt es sich um Fracarbeiten, bei denen nur Wasser verpumpt wird um trinkwasserführende Schichten aufzubrechen und somit die Förderrate eines Brunnens in Festgestein zu erhöhen. Außerdem finden Wasserfracs Anwendung bei der Erschließung von Geothermiepotenzialen. So ist z.B. in Soultz (französische Seite des Oberrheingrabens) ein 3 km² großes Risssystem zur Thermalwassererzeugung geschaffen worden. [7]

Propanfracs

Recht neu ist es, flüssiges Propan als Fracfluid einzusetzen. Dieses Verfahren des Hydraulic Fracturings wird von der Firma “Gasfrac” angeboten. Die Firma wirbt mit (noch) geringeren potenziellen Umweltgefahren sowie einem Kreislaufsystem des eingesetzten Propans (das auch natürlich in Erdgasen vorkommen kann). Neben den gängigen, notwendigen und bekannten Eigenschaften von Fracfluiden an sich (z.B. Reibungsminderung) soll der Vorteil sein, dass durch Propan induzierte Fracs sich folgendermaßen auszeichnen: Es werden längere Risse erzeugt was wiederum die initiale Produktionsrate, aber auch eine Ausdehnung der Förderdauer ermöglichen soll. Außerdem soll diese Art des Hydraulic Fracturings es ermöglichen, dass das Fracfluid vollständig zurückgefördert wird [8].

Zusammenfassung

Anhand nachvollziehbarer belastbarer Quellen werden die unterschiedlichen Methoden und die Entwicklungen des Hydraulic Fracturings (HF) dargestellt. Es bleibt festzustellen, dass es keinen Sprung von HF alt zu HF neu gibt, der z.B. die Gewinnung von Shalegas/Schiefergas ermöglicht, sondern dass es sich um eine kontinuierliche, teils parallel verlaufende Fortentwicklung des Verfahrens handelt. Hydraulic Fracturing heutzutage ist bestimmt nicht mehr das, was es vor 66 Jahren war. Aber es ist auch nicht das neue unbekannte Teufelszeug, wofür es in diesem Land, wo HF schon seit über 60 Jahren angewendet wird, gehalten wird.

Istvan Adler

[1] Hydraulic Fracturing – History of an Enduring Technology

[2] Boigk, Heinz: Erdöl und Erdölgas in der Bundesrepublik Deutschland, Enke Verlag, Stuttgart 1981.
[3] Von ExxonMobil in Deutschland eingesetzte Fracfluide
[4] Slick Water Solutions
[5] HYDRAULIC FRACTURING IN COAL BEDS
[6] Nitrogen gas fracking
[7] Dry Rock Projekt Soultz: Erste Phase der Erstellung einer wissenschaftlichen Pilotanlage
[8] gasfrac.com

Der Beitrag erschien zuerst bei ScienceSceptical




James Delingpole: Watermelons – eine Rezension

800×600

Gleich im 1. Kapitel mit der Überschrift „Imagine“, das man so etwas wie eine Einleitung nennen kann, wird ein Zitat des Club of Rome dem gegenüber gestellt, was Delingpole uns vorzustellen auffordert.  Weil sich das wie ein roter Faden durch das ganze Buch zieht, folgt hier die erste Übersetzung (Seite 1 bis 2 oben):

Zunächst das Zitat des Club of Rome, mit dem Delingpole sein Buch einleitet:

„Auf der Suche nach einem neuen Feind, der uns einigen könnte, kam uns die Idee, dass Verschmutzung, die Bedrohung einer globalen Erwärmung, Wasserknappheit, Hungersnöte und dergleichen diesem bestreben nachkommen könnten … All diese Gefahren werden durch menschliche Eingriffe heraufbeschworen … der wirkliche Feind ist also die Menschheit selbst.“

(Council des Club of Rome, 1991)

Dem stellt Delingpole nun seine Vorstellungen gegenüber, die er mit einer logischen Schlussfolgerung abschließt:

Stellen wir uns vor, dass alles, was wir über die Umwelt wissen, falsch ist.

Stellen wir uns vor, die globale Erwärmung wäre etwas Wünschenswertes und nicht etwas, das man fürchten muss.

Stellen wir uns vor, dass organische Nahrungsmittel, Nachhaltigkeit, Biotreibstoffe und der WWF viel schlimmere Auswirkungen auf die Umwelt und seine Bewohner hätten als GM Food, die Industrie und Exxon Mobil.

Stellen wir uns vor, dass es nicht im Mindesten eine Rolle spielt, wie groß Ihr Kohlenstoff-Fußabdruck ist, wie oft Sie mit dem Auto fahren, wie viele Meilen Sie im Flugzeug zurücklegen ohne den Zwang, sich auch nur ansatzweise schuldig zu fühlen hinsichtlich der Umweltschäden, die Sie damit verursachen.

Stellen wir uns vor, dass Kohlendioxid unser Freund wäre.

Stellen wir uns vor, dass der schlimmste Massenmörder eine Frau wäre, die gegen Chemikalien und Pestizide wettert, und der größte Retter der Menschheit der Mann wäre, der hunderte Millionen vor Hunger bewahrt durch genverändertes Getreide und moderne Landwirtschaft.

Stellen wir uns vor, dass wir nur mit einem Bruchteil des Geldes, dass wir für den ‚Kampf gegen den Klimawandel’ ausgeben, sicherstellen können, das kein Kind der Welt mehr hungrig oder unterernährt ist und dass jedermann in der Welt Zugang zu sauberem Trinkwasser hätte.

Stellen wir uns vor, dass ‚Überbevölkerung’ ein illusorisches Problem wäre.

Stellen wir uns vor, dass fossile Treibstoffe ein Wunder wären, das wir hochschätzen sollten, und nicht etwa ein Fluch.

Stellen wir uns vor, wir könnten damit aufhören, uns Sorgen über ‚zu Ende gehende Ressourcen’ machen.

Stellen wir uns vor, dass es den Eisbären, Gletschern, Korallenriffen, Regenwäldern, den Pazifikinseln und den polaren Eiskappen einfach durchweg gut gehen würde.

Stellen wir uns vor, dass wirtschaftliches Wachstum, weit davon entfernt, die Welt zu zerstören, diese sauberer, gesünder, glücklicher macht – und mit mehr Platz für uns alle.

Stellen wir uns vor…

Wie ich sicher annehme, haben Sie längst erkannt, dass sie sich all diese Dinge gar nicht vorstellen brauchen, weil sie allesamt schon jetzt wahr sind.

Es folgen dann mehrere Beispiele, in denen Verleumdungen der Alarmisten sowie haarsträubende Äußerungen vieler Personen, die teilweise schon den Tatbestand der Volksverhetzung erfüllen, den Aussagen und Studien der Realisten gegenüber gestellt werden.

Schließlich macht sich Delingpole Gedanken über die Gründe, warum sich die Realisten diesem von Regierungen und Medien entfesselten Sturm aussetzen (Seite 9 unten):

Was sie alle antreibt – und mit Sicherheit mich selbst – ist ihr absoluter Schrecken darüber, was die grüne Bewegung unserer Welt antut – alles im Namen, diese zu ‚retten’. Regenwälder werden vernichtet und Menschen hungern als Folge der Politik gegenüber Biodiesel. Flora und Fauna werden zerstört, und die Landschaft wird verspargelt durch Windparks. Und die Natur, einst eine Quelle endloser Freude, wird zunehmend zu etwas, gegenüber dem wir uns schuldig fühlen sollen, angestachelt durch Lehrer, Umweltaktivisten und elegischen Dokumentationen von David Attenborough auf BBC. Sie alle wollen uns verantwortlich machen für die (vermeintlich) schwindenden Pole.

Es folgen zahlreiche Beispiele, wie Politiker und Medien in vielen Ländern der Welt die globale Erwärmungskatastrophe sehen. Dabei gibt es so viele erschreckende Worte von Politikern und anderen Mächtigen, dass man sich immer wieder aufs Neue wundert…

Aber folgen wir weiter Delingpole. Wie gesagt, dieses erste Kapitel kann man als eine Art Einleitung für alles Folgende sehen. Es schließt mit den Worten (Seite 16):

Es spielt keine Rolle, wer ich bin, wie viel ich von Wissenschaft verstehe, ob ich es für Geld mache oder ob ich gegen alles bin oder weil ich zutiefst überzeugt und ernst bin. Und es spielt auch keine Rolle, ob die vom Menschen verursachte Katastrophe wirklich stattfindet oder nicht, weil der Beweis, dass sie nicht stattfindet, unmöglich geführt werden kann.

Was ich mit den folgenden Kapiteln machen werde ist, Ihnen die einzigen Dinge zu beweisen, die man in dieser traurigen Geschichte beweisen muss – von Narrentum und sinnloser Verschwendung, größer denn je in der Geschichte der Menschheit. Die Menschen, die ihnen verkünden, dass AGW fast sicher bevorsteht, sind ein Haufen Lügner, Schummler und Betrüger. Ihre Steuern werden erhöht, Ihre Freiheiten beschränkt und Ihr Geld einkassiert, um einer ‚Krise’ zu begegnen, die so außerordentlich unwahrscheinlich und so wenig durch Daten der realen Welt oder objektive Wissenschaft gestützt wird, dass sie genauso gut auch gar nicht existent sein könnte.

In Kapitel 2 geht es um Klimagate und wie es dazu gekommen war. Vieles davon ist aus anderen Quellen bekannt, so dass das hier übersprungen werden kann. Seine zusammenfassende Bewertung der Klimagate-E-Mails ist aber wieder sehr aussagekräftig (Seiten 36 bis 37 oben):

Die Natur der Klimagate-E-Mails sieht so aus: Die schlimmsten Teufeleien stecken oftmals in den obskuren und ziemlich weitschweifigen Details. Sollten Sie auf E-Mails des Inhalts gehofft haben wie ‚Klasse! Mal sehen, wie lange wir noch mit diesem lächerlichen Betrug der globalen Erwärmung durchkommen’ oder ‚Ja, ich weiß! Fügen wir doch dem Datensatz der Sommer in den achtziger Jahren noch weitere 10 Grad hinzu’, dann werden Sie enttäuscht. Es gibt wenig Beweise dafür, dass die Klimagate-Wissenschaftler nicht an AGW glauben. Im Gegenteil: die meisten E-Mails beweisen, dass sie nur allzu inbrünstig daran glauben. So inbrünstig, dass sie nichts Unrechtes darin erkennen, Beweise zu verzerren, um den Eindruck der wissenschaftlichen Gewissheit zu stärken oder einen ‚Konsens’ zu konstruieren, der in Wirklichkeit gar nicht existiert. Darin liegt der wirkliche Skandal von Klimagate: Es handelt sich um einen Fall von Wissenschaftlern, die die Regeln der Wissenschaft brechen und sich stattdessen wie politische Aktivisten verhalten.

Wir sehen, wie sie Daten ‚willkürlich herauspicken’ [cherry-picking], die ihre Theorien stützen und alle Daten vernichten, die das nicht tun. Wir sehen, wie sie Schlussfolgerungen aufgrund von Bauchgefühlen ziehen und nicht aufgrund von Beweisen. Wir sehen, wie sie Herausgeber von Magazinen, Journalisten und andere Wissenschaftler unter Druck setzen, die mit ihnen nicht übereinstimmen. Wir sehen sie Schmierenkampagnen lostreten. Wir sehen, wie sie den Begutachtungsprozess untergraben und entwürdigen. Wir sehen, wie sie falsche Graphen und irreführende Informationen in offizielle Berichte einschleusen, in Berichte, die doch den ‚goldenen Standard’ der internationalen wissenschaftlichen Kenntnisse repräsentieren sollen. Wir sehen, dass sie nicht nur Aufzeichnungen angemessen durchführen, sondern auch, wie sie die notwendigen, unersetzlichen Rohdaten vernichten, die zu sammeln und auszuwerten sie von den Regierungen bezahlt werden. Wir sehen, wie sie auf jede nur erdenkliche Weise verhindern, Daten bekannt zu geben, obwohl sie gesetzlich unter dem Freedom of Information Act dazu verpflichtet wären.

Am schlimmsten aber ist, dass die Klimagate-Wissenschaftler so unendlich viel Macht ausüben.

Dann stellt er diesen Machenschaften die Arbeitsweise der Realisten gegenüber sowie die Umstände, unter denen diese ihre Arbeiten durchführen und was man beim Hacken ihrer E-Mails finden würde (Seite 38):

Man würde nichts Ehrenrühriges finden, das mir das Gefühl gibt, dass mein Ruf beschädigt worden wäre. Vor allem würde man nichts finden, was mich zu einem leidenschaftlichen Leugner der globalen Erwärmung machen würde. Keine geheimen Zahlungen von Big Oil! (Was schade ist). Kein vertrauter Austausch mit Viscount Monckton oder Christopher Booker oder Pat Michaels darüber, wie man am Besten die Daten so zurechtbiegt, dass es so aussieht, als würde AGW nicht wirklich stattfinden. Es ist einfach nicht die Art und Weise, in der wir Skeptiker agieren.

Warum nicht? Weil wir das nicht nötig haben! Wir versuchen nicht, irgendetwas zu verstecken, und wir befinden uns mit Sicherheit nicht auf einer Mission, Lügen zu verbreiten. Das Gegenteil ist der Fall! Alles, worum es uns geht ist, dass die Wahrheit ans Licht kommt. Falls diese Wahrheit aufschlussreiche Beweise dafür hergibt, dass anthropogene CO2-Emissionen ein signifikanter, beispielloser und gefährlicher Klimatreiber sind, dann in Ordnung: Wir werden unseren Skeptizismus ablegen und anfangen, darüber zu diskutieren, wie man diesem Problem begegnen kann. Bis es soweit ist, ist alles, was wir wollen, eine offene und ehrliche Debatte, in der die bekannten Fakten verfügbar gemacht werden und in der der am besten belegte Sachverhalt vorherrschen soll bis zu dem Zeitpunkt, an dem ein besser belegter Sachverhalt auftaucht.

Das ist es, was uns von unseren Gegnern unterscheidet, und es ist ein Faktum, das ganz klar aus jenen Klimagate-E-Mails hervorgeht. Das Letzte, was diese Leute wollen, ist Offenheit und Ehrlichkeit. Schon beim leisesten Anklang eines Dissens’ begegnen sie diesem nicht mit der überlegenen Kraft ihrer Argumente, sondern sie schlagen zu mit Schikanen, Erpressung und persönlichen Angriffen.

Es geht weiter mit wirklich haarsträubenden Beispielen von Tom Wigley und Michael Mann, wie man mit solchen Leuten umgehen sollte. Das Kapitel schließt mit den Worten (Seite 40):

Das vielleicht Sympathischste, was man von den Klimagate-Wissenschaftlern sagen kann ist, dass sie aus freien Stücken daran glauben, Männer auf einer Mission zu sein, um die Welt zu retten, und dass sie uns allen mit dem Unterdrücken jedweden Dissens’ einen Gefallen tun. Falls das so ist, wäre es eine politische Entscheidung, keine wissenschaftliche. … Am Schluss dieses Kapitels möchte ich eine einfache Frage stellen. Nehmen wir mal für einen Moment an, dass es wirklich einen starken Konsens pro AGW gibt, und nehmen wir weiter an, dass die wissenschaftlichen Beweise für AGW so überwältigend sind – wie Mann, Jones et al zu glauben scheinen – dass man keine Opposition dulden muss. Wie kommt es dann, dass die Wissenschaftler im gesamten Klimagate-E-Mail-Schriftwechsel so schreckliche Angst davor haben, dass ihre Forschungen, Meinungen und ihre Glaubwürdigkeit einer offenen öffentlichen Debatte unterzogen werden? Was genau versuchen sie eigentlich zu verstecken?

Im dritten Kapitel mit der Überschrift „Es geht nicht um ‚die Wissenschaft’“ geht Delingpole ausführlich auf die Rolle von Margaret Thatcher ein. Er schlägt einen Bogen von einer katastrophalen Alarmismus-Rede am 27. September 1988 bis hin zu ihrem Buch Statecraft, in dem Thatcher hart mit den Alarmisten ins Gericht geht. Delingpole ist Engländer, daher liegt ihm dieser Punkt wohl nahe. Auch andere Politiker und öffentlich aktive Personen kommen mit ihren Plattitüden zu Wort. Das alles ist aber im Wesentlichen auch Gegenstand zahlreicher Beiträge u. a. hier beim EIKE, daher wird hier nicht weiter darauf eingegangen.

Das vierte Kapitel trägt den Titel ‚In the Pay of Big Koch’ [muss man das übersetzen?]. Und genau darum geht es auch im gesamten Kapitel, nämlich um Geld. Eingeleitet wird es von ein paar Beispielen des Jahreseinkommens bestimmter Personen an der Alarmisten-Front, dem Delingpole sein eigenes Einkommen gegenüberstellt (eine Zehnerpotenz weniger!) Es folgen zahlreiche Beispiele, in denen er Zuwendungen an die AGW-Seite solchen an die Skeptiker-Seite gegenüberstellt. Er zitiert Jo Nova, die errechnet hat, dass die AGW-Seite seitens öffentlicher oder industrieller Zuwendungen etwa 3500 mal so viel Geld erhalten hat als die Skeptiker-Seite (Seite 71).

Auch hier soll der Schlussabschnitt übersetzt werden (Seite 87):

Klimagate hat einen der größten wissenschaftlichen Skandale der Weltgeschichte ans Tageslicht gebracht, für den Milliarden Dollar Steuergelder verschwendet worden sind.

Und worin bestand die fast einhellige Reaktion des Establishments auf der ganzen Welt? Nun, es hat alle verfügbare Macht, alle Ressourcen und die ganze Autorität dazu verwendet, die durch Klimagate bekannt gewordenen Probleme zu leugnen.

Vor zehn, zwanzig, dreißig Jahren wären sie damit möglicherweise auch davon gekommen. Heute ist das aber einfach nicht mehr möglich. Von der geduldigen, akribischen Zerstörung des Hockeyschlägers von McIntyre und McKitrick über den Blogger Richard Norton …, Donna Laframboise und anderen sind die lügenden Lügner des großen grünen Öko-Schwindels einer Überprüfung ausgesetzt, so unbarmherzig und gnadenlos, dass man fast Mitleid mit ihnen bekommen könnte.

Fast!

Das fünfte Kapitel trägt die Überschrift The Science is unsettled’. Eingeleitet wird es von dem Statement von Michael Crichton „Es gibt so etwas wie Konsens in der Wissenschaft nicht. Wenn es Konsens ist, ist es keine Wissenschaft. Wenn es Wissenschaft ist, ist es kein Konsens!“

Im Folgenden werden zahlreiche Beispiele gelistet, in denen die Aussagen von Skeptiker-Einzelkämpfern der geballten Macht vom IPCC und Konsorten gegenüber gestellt werden. Dabei hebt er besonders die Royal Society hervor, mit der sich Delingpole selbst als ein solches Beispiel vergleicht. Stellvertretend für alle zeigt der auf Seite 94 diese Tabelle, die hier übersetzt eingefügt werden soll:

Und dann zitiert er die Stellungnahme eben dieser Royal Society zur globalen Erwärmung, in der zwar von heftigen Debatten um Einzelheiten die Rede ist, aber auch von einem bestehenden ‚überwältigenden Konsens hinsichtlich der Grundlagen’.

Die zusammenfassenden beiden Absätze am Schluss des Kapitels sollen hier wieder übersetzt werden (Seite 111):

Mit anderen Worten, ‚Klimaänderung’ hat wenig wenn überhaupt etwa mit ‚Wissenschaft’ zu tun, so wie Sie oder ich das Konzept verstehen könnten. Es handelt sich nicht um ein echt gefährliches Problem, das gelöst werden muss, sondern um eine handliche Entschuldigung – mit einer modischen grünen Patina – um bestimmte soziale und politische Agenden voranzutreiben unter dem Deckmantel ökologischer Rechtschaffenheit und wissenschaftlicher Autorität.

Nach Klimagate muss man fragen: ‚die wissenschaftliche Autorität welcher Wissenschaftler’? Alles ist gut für jemand wie Lord Rees, der die Haltung der Royal Society zur globalen Erwärmung verteidigt, indem er die Nullius-in-Verba-Keule schwingt als ob dieses Motto immer noch ein Emblem einer unwiderlegbaren Wahrheit ist. Tatsache ist aber, dass die Integrität seiner Institution – genauso wie die der US-Schwesterorganisation, die National Academy of Sciences – in Trümmern liegt, und zwar genau deswegen, weil sie etwas getan hat, das sie laut ihrem Motto niemals tun würde. Sie hat auf einen Klüngel postnormaler Wissenschaftler gehört, die mehr an politischem Aktivismus interessiert waren als an objektiver Wahrheit – und deren Wort dafür übernommen.

Im sechsten Kapitel mit der Überschrift „A Few Things you should Know about ‚Global Warming’ werden die wichtigsten Behauptungen der Alarmisten auf den Prüfstand gestellt und widerlegt. Weil das vielfach hier und in anderen Blogs auch schon gemacht wurde, kann dieses Kapitel weitgehend übersprungen werden. Am Ende nennt Delingpole einen Link, auf dem über 800 Probleme aufgelistet sind, deren Ursache die globale Erwärmung sein soll: http://www.numberwatch.co.uk/warmlist.htm. (Auch in dem im Subheader genannten Link findet sich am Ende ein solcher Link).

Im siebenten Kapitel, Titel ‚Watermelons’ geht es mehr um die dem Spektakel um die globale Erwärmung zugrunde liegende Psychologie. Zu Beginn stellt er die Ansichten eines gewissen Keith Farnish vor, der meint, dass der einzige Weg, den globalen ökologischen Kollaps zu verhindern darin besteht, die industrielle Zivilisation abzuschaffen. Delingpole schreibt dazu (Seite 139):

…Man kann mich altmodisch nennen, aber ich bin höchst interessiert daran, die industrielle Zivilisation zu erhalten, die abzuschaffen Farnish so bestrebt ist. Sie hat mir Arbeit gegeben, die Möglichkeit zu reisen, Unterhaltung, sauberes Wasser, gesunde Kinder, ein schönes Zuhause, angenehme Ferien und vieles mehr. Ich glaube, dass ich nur sehr ungern das Handtuch werfe, nur weil irgendein Kerl in einem Buch schreibt, dass dies die einzige Möglichkeit für das Überleben unseres Planeten ist. Und es macht mir große Sorgen, dass es Leute gibt, die dieses Zeug lesen und aus vollem Herzen zustimmen.

Einer von Ihnen ist James Hansen, der das Buch von Farnish in einer Rezension aufgepeppt hat. …

Und etwas weiter unten (Seite 140):

Klar, für Farnish und seine grünen Mitläufer sind wir genau das, was sie als ‚Leugner’ bezeichnen: unsere Aktivitäten und Ansichten sind das Ergebnis einer Mischung von Gier, Eigennutz, Selbstgefälligkeit und reflexartigem Konservativismus. Er würde einfach nie begreifen, dass wir unser Leben nur deswegen nicht ändern wollen, weil wir die Welt angeschaut, die Fakten studiert und erkannt haben, dass es dafür absolut keine Notwendigkeit gibt. Der Grund, warum er das niemals verstehen wird, ist der Glaube der Grünen wie aller anderen Zeloten auch, dass sie ein Monopol auf die einzige Wahrheit besitzen.

Dann folgt eine längere Passage, in der er hervorhebt, wie wichtig Umweltschutz ist und dass es gerade Menschen wie er sind, dem der Naturschutz sehr am Herzen liegt. Am Ende dieser Passage beschreibt er die in diesem Zusammenhang von den Wassermelonen ausgehende Gefahr so (Seite 145 unten):

Es gibt etwas, das alle hartgesottenen Grünen [hardcore greenies] überraschend gemeinsam haben. Ich nenne es die Mentalität ‚um-die-Stadt-zu-retten-müssen-wir-sie-zerstören’. Oder, wenn man mag, die Orthodoxie ‚Die Natur übertrumpft die Natur’. … Je genauer man die Kern-Grundsätze dieses Glaubens untersucht, umso mehr kommt man zu der Erkenntnis, dass an der grünen Religion nichts Kuscheliges, Lockeres oder irgendwie Liebenswertes ist. Tatsächlich könnte man sie als einen heidnischen Totenkult beschreiben, der im Hass auf die Menschheit wurzelt; der versessen darauf ist, fast alles zu zerschlagen, was die Menschheit bisher erreicht hat; der sklavisch, unheimlich und wahnwitzig einer herzlosen Gottheit opfert, die im Gegenzug nichts anbietet außer kalter Gleichgültigkeit.

Dann beschreibt er ausführlich seine Sicht der ‚Wassermelonen’ – grün außen, tiefrot innen. Unterlegt wird es mit Beispielen von Äußerungen einiger Personen wie (unter mehreren) Paul Ehrlich und einer Definition von Heinrich Himmler zum Begriff ‚Lebensraum’ (der so original im Buch steht).

Die Schlussabsätze auch dieses Kapitels sind wieder eine Übersetzung wert (Seiten155 und 156):

Mit etwas Glück habe ich Ihnen bis hierher zu zeigen vermocht, wofür die Wassermelonen stehen. Und damit meine ich nicht die netten, flauschigen Assoziationen, die die Bezeichnung ‚grün’ mit den Jahren entwickelt hat – pflegend, sich kümmernd, erhaltend, säubernd und so weiter. Ich meine vielmehr die Eckpfeiler des Glaubens, auf dem die grüne Religion basiert, wie er in den Schriften der einflussreichsten Philosophen zum Ausdruck kommt.

Diese Eckpfeiler des Glaubens, obwohl oft verkleidet als Sorge um die Natur und die Zukunft der Menschheit, wurzeln in bitterster Misanthropie und dem düstersten Pessimismus. Sie kümmern sich keinen Deut um die Myriaden Errungenschaften der Menschheit; sie ziehen es vor, unsere Rasse als ein Schandmal in der Landschaft zu betrachten, ein Parasit, eine Krankheit, die die ansonsten perfekte Ausgewogenheit des Ökosystems bedroht und die am Besten mit natürlichen Mitteln reduziert werden sollte oder – im schlimmsten Fall – skrupellos ausgemerzt werden muss.

Sind das wirklich die Personen von denen Sie wollen, dass sie die Zukunft unserer Kinder kontrollieren?

Das achte Kapitel trägt die Überschrift ‚Welcome to the New World Order’. Vorangestellt ist u. a. ein Wort von Christopher Booker: Böse Menschen stehen nicht morgens auf und sagen, dass sie jetzt Böses tun wollen. Sie sagen: ‚Ich werde aus der Welt einen besseren Ort machen’.

Dann stellt Delingpole die Kernthese dieses Kapitels gleich an den Anfang (Seite 157):

Hier handelt es sich nicht um böse, kahlköpfige Männer mit Narben im Gesicht. … Im Gegenteil, die Leute, die Sie von Ihren demokratischen Rechten befreien wollen, einen größeren Teil der globalen Bevölkerung ausmerzen wollen, die industrielle Zivilisation zerstören wollen und die den Planeten nach ihrer eigenen Agenda regieren wollen, könnten netter oder fürsorglicher nicht daherkommen. Sie tun doch das alles für uns, verstehen Sie. Weil sie sich kümmern. Weil sie im Gegensatz zu Ihnen oder mir das Wissen für die Erkenntnis erhalten haben, dass sich unser kränkelnder Planet auf der Überholspur in die Hölle befindet und dass nur radikale Eingriffe durch eine erleuchtete Elite die Hoffnung bieten, das nächste Millenium zu überstehen.

Im Folgenden werden die unglaublichen Einlassungen des Club of Rome sowie mehrerer prominenter Vertreter beleuchtet. Das kommt so einprägsam und logisch beschrieben daher, dass man sich wundert, dass die Gesellschaft schlechthin das nicht durchschaut. Die ‚neue Weltordnung’ aus der Überschrift ist jene, die die Wassermelonen am liebsten einführen wollen.

Vor etwa zwei Jahrzehnten ist in Rio die Agenda 21 aus der Taufe gehoben worden, vor drei Jahrzehnten hat die Bruntland-Kommission das Konzept der ‚Nachhaltigkeit’ entwickelt, das vor vier Jahrzehnten erstmals vom Club of Rome ins Spiel gebracht worden war. Das war mehr als genug Zeit für jene, die an das Projekt glauben und alles getan haben, um das System zu infiltrieren und zu übernehmen.

Delingpole listet dann auf, wie die Agenda 21 funktioniert. Davon steht anderweitig auch schon viel, daher soll hier nur Delingpoles Fazit erwähnt werden.

In Punkt 5 der Agenda resigniert er: …Und es gibt rein gar nichts, was man dagegen tun kann! (Seite 175). Nach einem Vergleich, der diese Agenda kennzeichnen soll (was aber etwas am Ziel vorbeigeht), ist der Schluss dieses Kapitels auf jeden Fall wieder eine Übersetzung wert (Seite 184/185). Dabei fängt er bei unsäglichen Äußerungen von Prinz Charles an und schwingt einen weiten Bogen zu anderen Wassermelonen:

Es ist diese Art gut gemeinter Idiotie, die mich veranlasst hat, eine boshafte Denunziation meines zukünftigen Königs [= Prinz Charles] in dem Magazin The Spectator zu schreiben. Genau wie einer seiner Vorfahren, Æthelred the ‚Unready‘, argumentierte ich, dass auch Prinz Charles ‚unread‘ ist – was angelsächsisch für ‚schlecht beraten‘ steht. Aber mehr noch als das ist er verdorben, bockig, unverantwortlich und dick.

Nicht alle meine Leser teilen diese Einstellung. Einige der Kritiken, die ich erhalten habe, waren reiner Snobismus – etwa so: ‚Wer bist du, du ekelhafter kleiner Untermensch [oik], der du dich erfrechst, unseren zukünftigen König einen Trottel zu nennen?‘ Andere bewegten sich auf ähnlich sicher abzuschätzendem Grund und sagten, dass Prinz Charles ein netter, wohlmeinender Kerl ist, der sein bestes tut, und wenn er über das Sparen seltener Ressourcen oder die Reduktion von Kohlenstoff-Fußabdrücken redet – was ist daran unrecht?

Unrecht daran ist, dass es in der modernen grünen Bewegung keine halben Maßnahmen gibt. Wenn man nur deswegen mitmacht, weil man Bäume, Blumen und Vogelgezwitscher liebt, ist das grob so ähnlich wie dem Beitritt zur Nazi-Partei Mitte der dreißiger Jahre nur wegen der tollen Uniformen und effizienterer Eisenbahn-Fahrpläne. Was bedeutet, dass die ökofaschistischen Elemente keine optionalen Extras sind. Der Anti-Kapitalismus, der Hass auf ökonomisches Wachstum, die Beschneidung persönlicher Freiheit, die Geringschätzung der menschlichen Rasse, die Sehnsucht nach einer ‚Eine-Welt-Regierung‘ durch ‚Experten – all dies ist genauso integraler Bestandteil der Wassermelonen, wie es der Lebensraum und die Konzentrationslager für die Nazis waren.

Ich bin sicher, dass der Prince of Wales, Ted Turner, Robert Redford, Leonardo DiCaprio, Deepak Chopra, Ed Begley Jr und der Rest langen, langen Liste der grünen Bewegung mit berühmten nützlichen Idioten alle wirklich liebe Menschen sind, wenn man sie einmal kennenlernt. Aber ich fürchte, die Zeit ist lange vorbei, in der Ignoranz und Naivität in irgendeiner Form ihre Unterstützung für einen derartig bösartigen Grund entschuldigen können.

In ihrem selbstgerechten Trachten nach Errettung der Welt sind die Wassermelonen ideologisch dem Weg hörig, der höchstwahrscheinlich zur Zerstörung der Welt führt. Das ist nicht lieb. Das ist nicht sich kümmern. Das ist reine Sinnlosigkeit.

Das 9. Kapitel trägt den Titel „Malthus & Co“, und das sagt auch schon alles. Wie in allen anderen Kapiteln auch bringt Delingpole haarsträubende Beispiele über Exzesse à la Malthus. Kernaussagen sind aber darin nicht enthalten, weshalb ich hier gleich übergehen zum 10. Kapitel mit dem Titel „They don’t Like it up ‘em“.

Hier wird erst aus dem Inhalt deutlich, was mit dem Titel gemeint ist. Es beginnt mit dem Beispiel des unsäglichen Films ‚No Pressure‘, in dem Kinder, die sich nicht linientreu verhalten, in Blut und Fleischfetzen explodieren. Aber es folgen viele weitere, teils extrem üble Methoden, wie Warmisten versuchen, ihre Agenda durchzudrücken, Medien unter Druck setzen, die Öffentlichkeit zu zwingen, ihrem Weg zu folgen.

Das Fazit dieses Kapitels ist aber wieder die Übersetzung wert (Seiten 226 und 227):

Erinnern Sie sich, das Verhältnis zwischen den Mitteln, die den Warmisten zukommen und den Mitteln für die Skeptiker ist derzeit einer sehr konservativen Schätzung von Jo Nova zufolge 3500 zu eins. Erinnern Sie sich auch daran, dass ein großer Teil dieses Geldes, da es ‚Geld von der Regierung‘ ist, aus Ihren und meinen Taschen gezogen wird. Nicht unvernünftigerweise könnten Sie da zu der Schlussfolgerung kommen, dass dies den Warmisten die größere Last an Redlichkeit, Präzision und Transparenz auferlegt, verglichen mit den Skeptikern.

Und schließlich, falls Andrew Bolt oder Jo Nova mit einem ihrer Fakten falsch liegen, was könnte dann schlimmstenfalls passieren? Während eines kurzen Zeitraumes, bis die Korrektur ordnungsgemäß angebracht worden ist, könnte einer ihrer Leser das geringe Risiko eingehen, ein wenig in die Irre geführt zu werden. Wenn andererseits führende Warmisten wie Ross Garnaut oder Tim Flannery ein Faktum falsch haben (Nur ein Faktum? Was für ein Glück das für uns wäre!), hängt das Schicksal einer ganzen Nation davon ab: Scheußliche Entsalzungsanlagen für 1 Milliarde Dollar werden gebaut, Maßnahmen zum Schutz vor Überschwemmungen werden aufgeschoben, Kohlenstoffsteuern werden eingeführt, Landbesitzer verlieren ihre Eigentumsrechte, wirtschaftliches Wachstum erleidet einen Rückschlag, die Arbeitslosigkeit steigt, Kindheiten werden zerstört.

Sehen Sie den Unterschied?

Oh, und noch etwas: Nur eine Seite in dieser Debatte glaubt, dass ihre Sache so gerecht und dringend ist, dass es sie davon befreit, irgendwelche Standards von Anstand einzuhalten. Es gibt nur eine Seite, die denkt, dass es in Ordnung ist, wenn: öffentliche Untersuchungen manipuliert werden, unbescholtene Menschen aus ihren Arbeitsplätzen gedrängt werden, Gesetze zur Informationsfreiheit gebrochen werden, wissenschaftliche Methoden missbraucht werden; wenn gelogen, gedroht, bestochen und geschummelt wird, wenn rein politische Positionen in vom Steuerzahler finanzierten Agenturen und Beraterposten  übernommen werden, die an sich strikt neutral sein sollten; wenn man auf Eigentumsrechten herumtrampelt, Regenwälder zerstört, für steigende Lebensmittelpreise sorgt (die zu Unruhen im Nahen Osten und Hunger in der Dritten Welt führen), Steuern erhöht werden, persönliche Freiheiten eingeschränkt werden, Energiepreise künstlich verteuert werden, Landschaften verschandelt werden, Wähler beschwindelt werden, Beweise verzerrt werden; wenn jedermann gezwungen wird, teure, dunkle Glühlampen zu verwenden, Schulkinder geängstigt werden, Erwachsene drangsaliert werden, die Arbeitslosigkeit zunimmt, demokratische Verantwortlichkeiten zerstört werden, Kontrolle über die Herrschaft über die Welt übernommen und eine neue Weltordnung eingeführt wird.

In Kapitel 11 werden Ideologie und Realismus gegenüber gestellt. Eingeleitet wird das mit einem fiktiven Beispiel aus dem alten Rom, das von den Barbaren angegriffen wird. Aus diesem Kapitel sollen einige Stellen übersetzt werden, wodurch auch verdeutlicht wird, um was es geht und was Delingpole zum Ausdruck bringen möchte.

Es beginnt mit der These, warum AGW eine Religion ist (Seiten 232/233):

AGW ist eine Religion. Sie hat Hohepriester und Propheten: Al Gore, der Prince of Wales, Sir Jonathan Porritt. Sie hat Tempel: die National Academy of Sciencs, die Royal Academy, das IPCC. Sie hat Kriegermönche (und Nonnen): Leonardo DiCaprio, Ed Begley Jr., Tamsin Omond. Sie hat das Konzept einer Erbsünde – der Kohlenstoff-Fußabdruck – von dem man sich mit Hilfe von Ablass‘ freikaufen kann – den Kohlenstoff-Zertifikaten. Sie wird motiviert durch die überwältigende Schuld, dass wir alle Sünder sind, aber wir können uns selbst davon loskaufen, in dem wir uns kasteien: z. B. Ersetzen hell leuchtender Glühlampen durch solche, die flackernd und vergilbt arbeiten, aber ökofreundlich sind; die Ihnen Kopfschmerzen verursachen, aber vermeintlich besser für die Umwelt sind, (solange man all das Quecksilber vergisst, das sie enthalten). Außerdem durch Selbstentsagung (weniger Urlaub, mehr Geld an die Regierung zahlen, kleine Vergnügen opfern um zukünftiger Generationen willen).

Und am Wichtigsten: All dies basiert auf keinerlei harten Beweisen irgendwelcher Art. Nur auf Glaube. Reiner, blinder Glaube.

Über ein Zitat von Lawrence Solomon („wir haben zwei mächtige Verbündete auf unserer Seite: die Zeit und die Natur selbst“) schlägt er dann einen Bogen zu den Verhältnissen, was Kälte oder Wärme wirklich bedeuten vor dem Hintergrund, dass es immer mehr Wissenschaftler gibt, die aufgrund solarer Vorgänge von einer unmittelbar bevorstehenden Abkühlung unseres Planeten ausgehen. Hier könnte man das gesamte restliche Kapitel übersetzen, aber ich hoffe, die Kernaussagen auch mit den folgenden Auszügen zu treffen.

Auf den Seiten 236 und 237 heißt es:

Die Welt wird also kälter – das ist unbequem und vielleicht gefährlich. Historisch gesehen haben Kaltphasen zu schlechten Ernten, Nahrungsmittelknappheit, Hungersnöten und zivilen Unruhen geführt. Trotz der Fortschritte, die wir in der Biotechnologie gemacht haben, erwirtschaftet die Getreideerzeugung der Welt einen Überschuss von lediglich 15%. Wenn die Weizen- und Maisanbaugebiete der Nordhemisphäre von einer längeren Abkühlung betroffen werden würden – und das werden sie – könnte dieser Überschuss sich in kürzester Zeit in ein Defizit verwandeln. Und wenn diese schon dadurch verringerten Ernten durch einen massiven Vulkanausbruch weiter beeinträchtigt werden würden – wie nach demjenigen, der zu einem ‚Jahr ohne Sommer‘ geführt hat – würde es auf der ganzen Welt verbreitet zu Hungersnöten kommen, vor allem aber dort, wo man den unvermeidlich folgenden Preissprung nicht stemmen kann. Dies würde zu einer klimainduzierten Katastrophe führen, und zwar in einer Größenordnung, die bislang nicht ein einziges Mal aufgetreten ist während der segensreichen Periode globaler Erwärmung, die unsere Zivilisation glücklicherweise zwischen Mitte der siebziger Jahre und 1998 durchlaufen hat.

Kann jemand die Absurdität hier erkennen? Globale Erwärmung ist etwas Gutes. Sie ging einher mit einigen der besten und kulturell blühendsten Perioden in der Menschheitsgeschichte einschließlich der segensreichen, weitgehend friedlich verlaufenden Dekaden, die jetzt leider vorbei sind. Erwärmung bedeutet, dass wir weniger Energie für unser Überleben aufbringen müssen und dass wir mehr Zeit haben, uns zu vergnügen und all die großen sozialen und technologischen Fortschritte zu machen, die (anders als in den kalten, rauen Perioden der Dark Ages) jede Generation reicher und komfortabler gemacht hat als die jeweils vorige.

Welches geistig gesunde menschliche Wesen während der letzten 10.000 Jahre, als wir aus den Schrecken der letzten Eiszeit gekommen sind, hat sich jemals ein kälteres und nicht ein wärmeres Klima gewünscht?

Niemand – bis jetzt! Was sind wir nur für eine besondere Generation! Wie stolz müssen wir auf uns selbst sein! Wir sind die ersten in der gesamten Weltgeschichte, die Vernunft und Logik in so großem Maßstab überwinden, dass – soweit es unsere Politiker betrifft – schwarz jetzt weiß ist und weiß schwarz; vor Erwärmung muss man sich fürchten, Kälte ist etwas Willkommenes; Überfluss etwas, das man ablehnen muss, wirtschaftliche Stagnation etwas, das aktiv angestrebt werden muss; Begründungen und Beweise müssen vermieden werden, rauschhafte Emotionalität und billige Gefühle müssen ermutigt werden. Mit guten Gründen bezeichnet der US-Meteorologe Roy Spencer unsere gegenwärtige Paranoia bzgl. der globalen Erwärmung als ‚den schlimmsten Ausbruch einer Massenhysterie der Welt‘.

Dann führt er als explizites Beispiel David Cameron an und geht mit dessen Vorgehen hart ins Gericht. Das gilt vordergründig erst einmal für UK, ist aber natürlich auf D und die ganze Welt übertragbar. Er schreibt, das Cameron seine Absichten kundgetan hat,  „den Klimawandel zu bekämpfen“ und „der grünsten Regierung jemals vorzustehen“. Und weiter (Seite 238):

Aber das Gesamtergebnis ist immer das Gleiche: gewaltige Verschwendung, empörende Einmischung der Regierung in das Privatleben freier Bürger, in den Himmel schießende Steuern, die zu widerrufen schwierig sein wird und ein schwerer Knick in den wirtschaftlich sensibelsten Bereichen zu einer Zeit, zu der sie so etwas am wenigsten gebrauchen können. Und all das nur, um einer Bedrohung zu begegnen, die so verschwindend gering ist! Das ist genauso sinnvoll wie die Errichtung von Knoblauch-Farmen, um Vampire abzuschrecken. …

Zum Ende dieses Kapitels geht er noch auf die Rolle der Entwicklung der Zivilisation hinsichtlich der Natur auf unserem Planeten ein. Er beschreibt die segensreichen Auswirkungen menschlichen Fortschritts auf die Natur, wie sie auch anderweitig schon oft beschrieben worden sind. Das Kapitel endet dann mit der Gegenüberstellung beider Alternativen. Das soll hier wieder übersetzt werden (Seiten 248 und 249):

Entweder man glaubt, wie ich es tue, dass wir Menschen im Wesentlichen eine wohltätige Spezies auf der Erde sind: innerhalb gewisser legaler und sozialer Beschränkungen – wie Eigentumsrechten und Gesetzen – lässt man uns am Besten in Ruhe, frei von Einmischungen der Regierung, und man kann uns allgemein vertrauen, dass wir das Richtige tun und alle jene Vorteile genießen, die – wie uns die Geschichte lehrt – auf freien Märkten, freiem Handel und persönlicher Freiheit beruhen.

Oder man übernimmt die pessimistische Sichtweise, dass wir eine Landplage sind, die mit immer weiter reichenden Vorschriften in Schach gehalten werden muss, kontrolliert von Experten, über die wir keine demokratische Kontrolle haben, sind sie doch schließlich die Experten, und sie haben nur unser Bestes im Sinn. Man lehne sich mit dieser Sicherheit zurück, diese Art des Kollektivismus‘ – in all seinen hässlichen Formen – wird immer in Tränen enden.

Es gibt keinen Mittelweg! Selbst wenn man glaubt, dass es einen gäbe – die Personen, die uns unsere Freiheiten und unsere demokratischen Rechte stehlen wollen im Namen der ‚Umwelt‘ haben sehr intensiv daran gearbeitet, einen solchen Mittelweg auszuschließen.

Es ist wirklich so einfach: Optimismus oder Pessimismus, Freiheit oder Tyrannei, Freude oder Leid. Sie haben die Wahl!

Das könnte schon als Schlusswort stehen, und es kommt auch kein weiteres nummeriertes Kapitel. Aber es folgt noch ein Abschnitt mit der Überschrift Postskript: The Big Lie.

Die Überschrift ist eine bewusste Anspielung auf Hitler, was gleich in den ersten Absätzen dieses Nach-Kapitels deutlich wird (Seiten 251 und 252):

Manchmal frage ich mich, warum ich mich so echauffiere. Hier stehen wir zwei Jahre nach Klimagate, und trotz all der schockierenden Enthüllungen über die Korruption, Betrügereien, Lügen, Inkompetenz, Geldgier, Verschwendung und mutwillige Destruktivität der globalen AGW-Industrie – der größte und teuerste wissenschaftliche Skandal jemals – kommen die Bastarde immer noch damit durch.

Wie? Um Gottes Willen, wie?!

Tatsächlich glaube ich inzwischen zu wissen, wie. Was wir derzeit mit den Klimakriegen erleben, ist das Phänomen, das Hitler in ‚Mein Kampf‘  beschrieben hat, als er über die ‚Große Lüge‘ sprach. Die Theorie ist ganz einfach: Man flüchte sich in kleine Lügen, und man wird wahrscheinlich überführt. Aber wenn man eine wirklich große Lüge erzählt, hat man ausgesorgt. Warum? Weil die Lüge dem Widerspruch trotzt, wenn sie nur groß genug ist. ‚Niemand kann so verwegen sein, eine Lüge von derartigem Umfang zu äußern!‘, sagt das Auditorium der Großen Lüge zu sich selbst. Und so kommt es, dass die Große Lüge vorgibt, sich den Mantel akzeptierten Wissens umgehängt zu haben.

So war es in großem Umfang auch im Falle der globalen Erwärmung. Sicher, in allen Meinungsumfragen nimmt der Skeptizismus in der Öffentlichkeit zu. Aber angesichts des Wetters, der Folgen für die Wirtschaft, des wachsenden Widerstands gegen Windparks, Biotreibstoffe und Kohlenstoffsteuern kommt das nicht überraschend. Nein, was wirklich überrascht – und auch sehr deprimierend ist – ist, wie viele Menschen es da draußen noch gibt, die trotz all dem der vom Menschen verursachten globalen Erwärmung anhängen als einen lieb gewonnenen Glauben.

Auch die abschließenden Worte sollen hier nicht fehlen. Danach folgt noch ein kurzer Abschnitt, mit dem sich Delingpole allerdings keinen Gefallen getan hat. Sein resignierend klingendes Resümee lautet (Seiten 264 und 265):

Die globale Erwärmung ist inzwischen für so viele Menschen so unendlich wichtig, dass man sie hätte einführen müssen, wenn sie nicht schon existieren würde.

Was sie komischerweise ja auch getan haben: Die Klimawissenschaftler; die Kohlenstoffhändler; Die Installateure von Solarpaneelen; die Investoren in erneuerbare Energie; die Versicherungs- und Rückversicherungsunternehmen; die ethischen Verwalter des Vermögens [the ethical fund managers]; die Umweltkorrespondenten in Presse und Fernsehen; die professionellen Öko-Krieger, die diesen Schwindel brauchen, um Sponsoren für ihren nächsten Kanu-Ausflug zum Nordpol zu gewinnen; die lokalen Umweltfunktionäre der Regierung; die Verkäufer von Kohlenstoff-Zertifikaten; die grünen Berater und PR-Spezialisten; die grünen Politiker; die Hersteller von Elektroautos; die Windpark-Ingenieure; die Schreiberlinge, die auf alle Packungen beschreiben, wie kohlenstoffneutral das Produkt ist; die Lehrer an Schulen, die die glauben, die Welt zum Besseren zu wenden, wenn sie unseren Kindern beibringen, sich schuldig zu fühlen und sich Sorgen zu machen; die Redakteure von BBC-Dokumentationen; die Lobbyisten; die Prius-Verkäufer; die Autoren von Zeitungsartikeln mit Namen wie ‚Öko-Krieger‘; die Geistlichen, die Gott mehr oder weniger aufgegeben haben und ausschließlich Gaia in den Vordergrund rücken; die Touristenbehörde auf den Malediven; die Technokraten und Administratoren und Sekretäre der UN und der EU; die Mechaniker, die die Aston-Martin-Limousine des Prince of Wales umgerüstet haben, so dass er jetzt mit Biotreibstoffen fahren kann; die Luftfahrtunternehmen, die regelmäßig von Al Gore und Rajendra Pachauri für ihre Flüge in der Weltgeschichte brauchen, um uns daran zu erinnern, wie wichtig es ist, unsere mit dem Flugzeug zurück gelegten Strecken zu beschränken…

Niemals zuvor wurde so viel Paranoia erzeugt, so viel Geld verschwendet, so viel Unsinn verbreitet, so viele Leben beschränkt, so viel wirtschaftlicher Schaden angerichtet, so viele hoffnungsvolle Aussichten zerstört auf Basis von so wenigen oder fehlenden Beweisen.

Das ist der schreiende Skandal der Klimaänderung!

Fazit: Dies ist kein wissenschaftliches Buch. Es ist auch kein Buch, das auf Recherchen beruht wie die Arbeit von Donna Laframboise. Im Grunde ist es das Aufbegehren des ‚gesunden Menschenverstandes‘ gegen die überwältigend starke Maschinerie, die von UN und IPCC und den ganzen Ideologen vor Ort betrieben wird.

Ein ganzes Buch, um den an sich unglaublichen Vorgang um die Klimaänderung zu beschreiben. Wenn man mich, Chris Frey, den Schriftsteller und Nicht-Fachmann fragt, warum „ich nicht an die globale Erwärmung glaube“, noch dazu von Leuten, auch guten Freunden, die sehr stark diesem Glauben anhängen – wie soll ich da in zwei oder drei Sätzen antworten?




Energieautarkie am Beispiel Sonne: Wie ideal ist dezentral? Nur wenn Geld keine Rolle spielt!

Um dieser Frage nachzugehen, muss man sich einmal die Erfordernisse einer „dezentralen Energieversorgung“, wie sie von grünbewegten Zeitgenossen unermüdlich propagiert werden, genauer ansehen. Unter Fachleuten spricht man in solchen Fällen auch von „Insellösung“. Um die Sache einfach zu halten, nehmen wir an, eine einzelne Familie mit 4 Personen wolle sich aus der Abhängigkeit von den Energieriesen befreien. Man kappt die Netzverbindung und setzt jetzt einzig auf Solarzellen sowie Batterien als Speicher für solche Zeiten, wo die Sonne mal gerade ein Päuschen einlegt. Was würde dafür benötigt, und wie sieht die entsprechende Kalkulation aus? Um das zu untersuchen, braucht man zunächst realistische Daten. Hierfür wurden deshalb die in Deutschland installierten Solarkapazitäten sowie die damit produzierten Strommengen über eine 1-Jahresperiode hinweg analysiert. Datenquelle sind die von der deutschen Strombörse (EEX) veröffentlichten Erzeugungsstatistiken in viertelstündlicher Auflösung.

Solarstromproduktion im Jahresverlauf

Für die hier durchgeführte Betrachtung wurde als Ausgangspunkt der 1-Jahresperiode der April 2012 gewählt, weil dadurch gleich am Anfang ein hohes Solaraufkommen gewährleistet wird. Das zwischen April 2012 und März 2013 in Deutschland produzierte Aufkommen an Solarstrom zeigt Bild 1.

Bild 1: Solarstromproduktion in Deutschland im Zeitraum von April 2012 bis März 2013 in MWh (Datenquelle: EEX)

Schon beim ersten Blick auf den Verlauf zeigt sich, dass das Aufkommen an Solarenergie genau gegenläufig zur üblichen Bedarfskurve verläuft: Im Winter, wenn der Energiebedarf am größten ist, liefert die Fotovoltaik die geringsten Erträge. Dies zeigt sich auch, wenn man sich die entsprechenden Nutzungsgrade der FV-Anlagen im Jahresverlauf ansieht, Bild 2. Bei dieser Kalkulation wurde übrigens der Zubau, der im Laufe der Untersuchungsperiode stattfand, mithilfe eines linearen Ausgleichsfaktors berücksichtigt.

Bild 2. Monatliche Nutzungsgrade der in Deutschland installierten Fotovoltaikanlagen im Zeitraum April 2012 bis März 2013

Entsprechend der geringeren Sonnscheindauer und des schlechteren Einfallswinkels im Winter zeigt sich ein Abfall des Nutzungsgrades von ca. 20 % in den sonnenreichen Sommermonaten auf teils weniger als ein Zehntel dieses Wertes in den vier dunklen Monaten November bis Februar. Für die Gesamtperiode ergab sich übrigens ein über dem langjährigen Durchschnitt liegender Gesamtnutzungsgrad von 12 %. Diese Nutzungsgradkurve diente als Grundlage für die Abschätzung des Solarstromaufkommens im nachfolgend vorgestellten Beispiel.

Familie Mustermann und ihr autarkes Solarhaus

Unsere Test-Inselfamilie Mustermann besteht aus Vater, Mutter und zwei fast erwachsenen Kindern und lebt in einer Doppelhaushälfte, die nach heutigem Standard gedämmt ist. Als Beitrag zum Klimaschutz verzichtet man auf fossile Energieträger wie Öl oder Gas und hat stattdessen eine elektrische Warmwasserbereitung sowie eine moderne Wärmepumpenheizung. Mustermanns verbrauchen jährlich die für einen solchen 4P-Haushalt typische Strommenge von 6190 kWh [WIKI] und für die Wärmepumpenheizung zusätzlich nochmals 2500 kWh, macht zusammen 8690 kWh. Während man beim normalen Stromverbrauch in erster Näherung einen konstanten Verlauf über das Jahr hinweg annehmen kann, hängt der Strombedarf der Heizung natürlich von der Jahreszeit bzw. von den Aussentemperaturen ab. Im vorliegenden Fall wird davon ausgegangen, dass sich Mustermanns auch hierbei mustergültig verhalten und die entsprechende Strombedarfskurve der üblichen Berechnung mittels Gradtageszahlen nach VDI 2067 entspricht. Den sich aus diesen Betrachtungen ergebenden Jahresverlauf des Stromverbrauchs zeigt Bild 3.

Bild 3. Verlauf des Strombedarfs von Familie Mustermann von April 2012 bis März 2013

Dimensionierung der Solaranlage

Die entscheidende Forderung an die zu beschaffende Solaranlage muss natürlich sein, dass sie den Jahresbedarf der Familie vollständig decken kann, und das über den gesamten Nutzungszeitraum von mindestens 20 Jahren und auch in etwas schlechteren Sonnenjahren, denn der Zähler soll ja abgeklemmt bleiben. Da Fotovoltaikpaneele mit einer Maximalleistung (kWp) von 1 kWp bei einem Nutzungsgrad von 12 % im Jahr 1051 kWh liefern, bräuchte man theoretisch rund 8,3 kWp, um die benötigte Jahresstrommenge zu erzielen.

Zunächst einmal müssen jedoch noch Abschläge mit Blick auf Modulwirkungsgrad, Dachneigung und Abschattung berücksichtigt werden, die man im Durchschnitt mit 8 % veranschlagen kann. Hinzu kommt die Tatsache, dass bei der Batteriespeicherung Verluste auftreten. Leider findet sich dazu nicht in jedem Prospekt eine Angabe. Deshalb sollte man beim Füllen und Entleeren der Batterien Verluste von 10 % ansetzen. Um beide Faktoren auszugleichen, muss man die Solaranlage entsprechend größer dimensionieren. Weitere Korrekturen betreffen den Ausgleich des Leistungsabfalls der Kollektoren im Verlauf der Zeit, den man mit 25 % ansetzen kann, sowie eine Sicherheitsmarge von 20 % für Jahre, in denen der Anlagenertrag wegen schlechten Wetters niedriger ausfällt. Hieraus ergibt sich folgende Auslegung:

Da Solarmodule pro Quadratmeter etwa 125 Wp liefern, bräuchte man dafür eine Dachfläche von rund 133 m2. Soviel geeignete Fläche steht auf einem klassischen Einfamilienhaus mit Satteldach jedoch nicht zur Verfügung, daher muss man vermutlich noch den Garten mit Solarmodulen belegen. Aber nun gut, für die Rettung des Klimas ist Familie Mustermann bereit, gewisse Einschränkungen in Kauf zu nehmen. Die Investitionskosten für eine solche Anlage betrugen (laut Solarrechner.de) im November 2013 rund 29.700,- €.

Für die weiteren Betrachtungen unterstellen wir ein worst-case-Szenario, d.h. wir simulieren eine Situation, in der die Solaranlagen aufgrund diverser Faktoren am unteren Minimum arbeitet und auch die Sonnenscheindauer um 20 % unter dem üblichen Niveau liegt.

Ist Tagesspeicherbetrieb sinnvoll?

Als erstes ist die Frage zu klären, ob mit einer solchen Anlage und einem ordentlichen Batteriepack eine Versorgung im Tag/ Nachtwechselbetrieb auch im Winter möglich ist. Als Simulationstag nehmen wir den 1. Januar 2013. An diesem Tag liegt der tägliche Bedarf an elektrischer Energie bei 30,35 kWh. Bezüglich der Batterie nehmen wir an, dass Mustermanns sich für die größte Version mit 13,8 kWh Speicherkapazität entschieden haben. Weitere Annahme ist, dass der Weihnachtsmann der Batterie um Mitternacht eine volle Ladung spendiert hat. Das Ergebnis einer Simulation am Beispiel dieses typischen Januartages zeigt Bild 4.

Bild 4. Simulation des Verlaufs von FV-Erzeugung, Nutzungsgrad, Strombedarf und Batterieladung in 15-min Schritten am 1. Januar 2013. An diesem Tag lag der Nutzungsgrad der Solaranlage bei 2,6 %, deutlich besser als der Monatsdurchschnitt von 1,6 %.

Wie sich zeigt, reicht die Batterieladung gerade hin, um den Strombedarf bis 10.30 zu decken, danach ist Schluss. Die Solaranlage kann den laufenden Bedarf nach einstündiger Pause dann lediglich zwischen 11.30 Uhr und 13.00 Uhr decken, danach ist alles dunkel und kalt. An ein Laden der Batterie für den nächsten Tag ist gar nicht zu denken. Da die meisten Tage in den Monaten November bis Februar ähnlich verlaufen, nützt die Batterie bei dieser Betriebsart herzlich wenig, und zwar gerade in der Jahreszeit, wenn sie am meisten gebraucht würde. Energieautarkie ist so nicht zu erreichen. Das ginge nur, wenn man die Batterie als Saisonspeicher betreibt, der in den sonnenreichen Monaten aufgeladen wird, um die Ladung dann im Winter abzugeben.

Batterie als Saisonspeicher

Deshalb wird im nächsten Schritt simuliert, wie sich die Kombination aus Solaranlage und Batterie bei einem Saisonspeicherbetrieb verhält. Dabei wird von den gleichen Voraussetzungen ausgegangen wie im ersten Fall, nur geht es jetzt darum zu ermitteln, welche Batteriekapazität erforderlich ist, um den Winter zu überstehen. Natürlich kann und muss die Batterie hierbei auch im Tagspeicherbetrieb verwendet werden, dieser braucht jedoch nicht speziell simuliert zu werden, für die Betrachtung genügen Monatsbilanzierungen. Das Ergebnis der entsprechenden Simulation zeigt Bild 5.

Bild 5. Simulation von Solaranlage und Batterien im Saisonspeicherbetrieb mit für Deutschland zwischen April 2012 und März 2013 ermittelten Solardaten

Wie man sieht, wäre ein solcher Betrieb im Prinzip machbar, sofern die Batterien diese Betriebsart ohne wesentliche Verluste und Eigenschaftsänderungen mitmachen. Benötigt würde allerdings ein recht grosser Batteriespeicher: Um die maximal erforderliche Energiemenge von 3358 kWh speichern und wieder abgeben zu können, würden Batterien mit einer Nennkapazität von 3730 kWh benötigt, da die maximale Entladetiefe von Li-Ionen-Batterien rund 90 % beträgt. Bei den aktuell angebotenen Systemen von z.B. Varta/ RWE beträgt die maximale Kapazität pro Einheit 13,8 kWh [RWE], für die benötigte Speicherkapazität wären demnach 270 Einheiten erforderlich. In durchschnittlichen Einfamilienhäusern könnte es bei einem Flächenbedarf von 0,24 m2 pro Einheit im Keller etwas knapp werden, vor allem da die Module noch ein wenig Zwischenraum für die Kühlluft benötigen. Zudem ist in solchen Fällen sicherlich eine Rücksprache mit der Feuerversicherung ratsam, denn Li-Ionen-Batterien haben den Ruf einer gewissen Feuergefährlichkeit [FEUE].

Bild 5. Li-Ionenakkus eignen sich sehr gut für alle möglichen Haushaltsanwendungen…aber für den Solarbereich?

Das grösste Problem dürften die Kosten sein. Mit Preisangaben halten sich die meisten Anbieter merklich zurück. Im Internet finden sich Angaben, aus denen sich ein Preis von rund 2615 €. pro kWh Speicherkapazität errechnen lässt [BATT]. Um die Zahlen nicht ins Unendliche wachsen zu lassen, wollen wir einmal annehmen, dass die Preise dank chinesischer Anbieter auf 1000,- €/ kWh sinken. Damit wären für die hier berechnete Speicherlösung rund 3,75 Mio. € aufzubringen. Allerdings kann davon ausgegangen werden, dass man bei einem derartigen Auftrag sicherlich noch etwas handeln kann, vielleicht bekommt man dann die Transportaufwendungen bezahlt, denn schliesslich wiegen diese Batterien rund 12,5 kg pro kWh Speicherkapazität, in Summe also etwa 47 Tonnen. Sinnvollerweise sollte man auch zu diesem Zeitpunkt gleich klären, wer sich nach Ablauf der Betriebsdauer um Abtransport und Entsorgung kümmert.

Interessant ist in diesem Zusammenhang die Frage, was denn eine solche Batterielösung für die „Insellösung Deutschland“ kosten würde. Hier genügt eine einfache Überschlagsrechnung: 0,9375 Mio. Batteriekosten pro Einwohner bei 80 Mio. Einwohnern macht rund 75 Billionen. Fazit: Eine Saisonspeicherlösung mit Batterien könnte möglicherweise an der Finanzierungsfrage scheitern.

Nepp und Bauernfängerei

Wie bereits erwähnt, finden sich im Internet dennoch zahlreiche Angebote für Privatleute, ihre neue oder bereits vorhandene Solaranlage mit einem solchen Speichersystem aufzurüsten. Hintergrund sind entsprechende Fördergelder – natürlich auf Kosten der Allgemeinheit –, die bei kleinen Batteriegrössen angeblich Gewinne ermöglichen sollen. Wie überall im Bereich der „Erneuerbaren“ sollte man solchen Angeboten jedoch mit Vorsicht begegnen, denn die Aussicht auf leichtes Geld lockt jede Menge Bauerfänger an, die dem arglosen Häuslebauer gerne das Blaue vom Himmel herunter versprechen. Nach überschlägigen Berechnungen liegen die Kosten für Batteriespeicherung von Strom im günstigsten Fall bei 35-50 ct./ kWh. Rechnet man noch die Kosten des eigenen Solarstroms hinzu, so liegt man nach wie vor deutlich über dem Strompreis der Versorgungsunternehmen.

Zudem sollte man auch den Leistungsangaben der Batterieanbieter mit gesundem Misstrauen begegnen. Da werden Betriebsdauern von 20 Jahren [VAR2], teilweise sogar von 24 Jahren [RWE] gemacht, mit der „kleinen“, aber wichtigen Einschränkung, dass lediglich 250 Lade/ Entladezyklen pro Jahr vorzusehen sind. Man fragt sich unwillkürlich, wie solche Zeiten garantiert werden können, obwohl das Produkt erst seit wenigen Jahren existiert und Langzeiterfahrungen demnach fehlen dürften. Bei den Garantiebestimmungen ist aber möglicherweise dann von lediglich 7 Jahren bzw. 4000 Ladezyklen statt der im Prospekt angegebenen 6000 die Rede [VAR1]. Und als defekt gilt ein Modul erst ab einem Kapazitätsverlust von 20 %. Wenn der Hersteller demnach einen Kapazitätsverlust von 19 % in 7 Jahren für zulässig hält, so würde dies im letzten von 20 Jahren Betriebsjahren knapp 54 % Kapazitätsverlust entsprechen. Häufig finden sich auch keine Angaben zur Selbstentladung, obwohl dies gerade für Langzeitspeicherung ein wichtiger Faktor ist. Und ach ja, nicht zu vergessen – wie sieht es mit der Selbstentladung der Batterien bei längerer Speicherdauer aus?

Misstrauen empfiehlt sich generell auch bei allen Produkten, für die im Datenblatt kein Speicherwirkungsgrad angegeben wird, obwohl dies bei der angegebenen Lebensdauer ein entscheidendes Kriterium darstellt. Bei 6000 Ladezyklen macht es schon einen erheblichen Unterschied, ob ich nur 5 %, 10 % oder gar 15 % des teuren Solarstroms pro Ladezyklus verliere. 6000 Zyklen mal 10 % sind immerhin 600 vollständige Batterieladungen zu je 13,8 kWh, da kommt schon was zusammen. Also Augen auf beim Batterienkauf – und im Zweifel lieber die Finger von windigen Angeboten lassen.

Fred F. Mueller

Quellen

[BATT] http://www.solista-solar.de/lithium-batteriespeicher-photovoltaik/

[FEUE] http://www.hawaiinewsnow.com/story/19173811/hfd-battling-kahuku-wind-farm-blaze

[RWE] www.rwe.de/homepower-solar

[VAR1] http://www.varta-storage.com/de/downloads.html

[VAR2] http://www.varta-storage.com/de/downloads.html

[WIKI] http://de.wikipedia.org/wiki/Bedarf_an_elektrischer_Energie  4.11.2013




Wissenschaftler zerschlagen den Mythos der globalen Erwärmung von Obama: Er begründet Politik mit falschen Computermodellen als mit Wissenschaft

Der Umweltler Lawrence Solomon schrieb in der Financial Post: „Inzwischen kehren immer mehr Wissenschaftler zum Denken der sechziger und siebziger Jahre zurück. Die Hypothese der globalen Abkühlung könnte am Ende doch richtig gewesen sein. Sie sagen, dass die Erde auf dem Weg in eine neue Kleine Eiszeit sein könnte“.

Der Daily Caller berichtet:

Solomon fügt hinzu, dass George Kukla von der Columbia University – der die US-Regierung schon 1972 vor den Gefahren einer globalen Abkühlung warnte – postuliert hat, dass eine globale Erwärmung immer einer Eiszeit vorangeht… Mit anderen Worten, die Erwärmung der achtziger und neunziger Jahre war zu erwarten, sozusagen als die Ruhe vor dem Sturm“.

Jüngst haben Wissenschaftler auf die Sonnenaktivität geschaut als Indikator des Weltklimas. Geringe Sonnenaktivität war in der Menschheitsgeschichte immer mit kalten Perioden verbunden, während ein hohes Niveau der Sonnenaktivität mit wärmeren Perioden verbunden war wie z. B. von den fünfziger Jahren bis 1980.

Die Klimaautorität der UN hat versucht, den Einfluss der Sonnenaktivität auf das Erdklima herunterzuspielen, aber Klimawissenschaftler haben immer nachdrücklicher darauf hingewiesen, dass die Sonne eine Rolle hinsichtlich des Einflusses auf die globale Temperatur spielt.

Dr. Judith Curry zufolge, der Vorsitzenden der School of Earth and Atmospheric Sciences am Georgia Institute of Technology bewegt sich die öffentliche Debatte seit etwa dem Jahr 2002 zunehmend weg von dem seit 15 bis 17 Jahren andauernden Stillstand hin zu der Abkühlung.

Professor Cliff Ollier von der School of Earth and Environmental Studies an der University of Western Australia verweist auf eine Korrelation zwischen Sonnenflecken und Klimaänderung. Prof. Ollier hat Anfang dieses Jahres postuliert, dass die Sonne der Haupttreiber des Klimas ist.

Er sagt: Solare Zyklen bilden eine Basis für die Vorhersage. Der Sonnenzyklus 24 hat begonnen, und wir können eine ernste Abkühlung erwarten. Viele glauben, dass politische Entscheidungen bzgl. des Klimas auf wissenschaftlichen Vorhersagen beruhen, aber was die Politiker in Händen halten, sind Projektionen, die auf Computermodellen basieren“.

Wissenschaftler aus Russland und UK gehen ebenfalls aufgrund des Zyklus’ 24 von einer globalen Abkühlung aus. Habibullo Abdussamatov von der russischen Akademie der Wissenschaften erwartet, dass die globale Abkühlung bereits 2014 massiv einsetzt bis hin zu einer Kleinen Eiszeit bis zum Jahr 2055. Professor Mike Lockwood von der Reading University prognostiziert eine „Kleine Eiszeit“ für Nordeuropa infolge des Rückgangs der Sonnenaktivität.

Prof. Lockwood begründet sein Postulat mit Untersuchungen bestimmter Isotope in Eisbohrkernen, die darauf hindeuten, wie aktiv die während der letzten paar tausend Jahre gewesen ist. Lockwood glaubt, dass die Sonnenaktivität „derzeit schneller abnimmt als zu irgendeiner anderen Zeit während der letzten 10.000 Jahre“.

Die letzte Kleine Eiszeit war im 17. Jahrhundert aufgetreten und fiel mit einer inaktiven Sonne zusammen; bekannt unter der Bezeichnung Maunder Minimum. Don Easterbrook zufolge, dem emeritierten Professor der Geologie an der Western Washington University ist die Erde während der letzten 400 Jahre aufgetaut.

Easterbrook: „Von daher war die Erwärmung, die lediglich von 1978 bis 1998 gedauert hat, etwas, das man vorhersagen und erwarten konnte. Weil sich die Temperaturen des Ozeans geändert haben, ist globale Abkühlung fast eine todsichere Sache. Man kann davon ausgehen, dass es mindestens 25 bis 30 Jahre dauern wird, bevor es wieder wärmer wird. Es kann sogar noch viel länger dauern“.

Fazit: Wissenschaftler, die die Sonnenaktivität und die Sonne zusammen mit Isotopen aus Eisbohrkernen untersucht haben, haben einen Zyklus identifiziert, in dem Erwärmungs- und Abkühlungsperioden der Erde mit solaren Zyklen zusammenfallen. Diese Korrelationen basieren auf tatsächlichen Beobachtungen und Studien, und nicht auf Compuermodellen, deren Projektionen von Informationen durch Wissenschaftler abhängig sind, die nii alle Variablen identifizieren können, die in eine Gleichung eingehen sollten. Die Informationen aus Computermodellen werden dadurch fehlerhaft und ungenau und können die Notwendigkeiten der wissenschaftlichen Methode nicht erfüllen. Vergleicht man die Modellszenarien mit Beobachtungen und tatsächlichen Daten, ergibt sich ein No-Win-Szenario für die Modellvorhersage.*

[Siehe hierzu einen Kommentar des Übersetzers am Ende!]

Seit Obama die „globale Erwärmung/Klimaänderung” zu einer direkten Bedrohung für die USA erklärt hat – eine Bedrohung, der man sofort mit entsprechenden Maßnahmen begegnen muss – werden alle anderen Daten, die gegen den großen Mythos der globalen Erwärmung sprechen, ignoriert. Sie werden ignoriert, weil sie nicht der politischen Agenda entsprechen.

Die Erkenntnis, dass solare Zyklen zu Perioden mit Erwärmung und Abkühlung führen, fliegt direkt in das Gesicht von Obamas Agenda, die die USA zum Krüppel macht. Wenn diese Postulate stimmen, sollten Maßnahmen getroffen werden, die Stromerzeugung zu verbessern, anstatt ein Sechstel des amerikanischen Energie-Outputs zu zerschlagen. Amerika sollte Energiequellen erforschen, auf die man sich verlassen kann, anstatt dem flüchtigen Traum der „erneuerbaren Energie“ nachzujagen. Amerika sollte daran arbeiten, sich gegen Invasionen abzusichern, seine Wirtschaft und das Wachstum von Arbeitsplätzen sowie die Unabhängigkeit seiner Einwohner zu stärken. Dies erreicht man nicht durch die Erweiterung der Regierung, sondern dadurch, sie in ihren von der Verfassung vorgegebenen Grenzen zu halten mit der Möglichkeit, nicht konstitutionelle Agenturen aufzulösen und durch die Annullierung sämtlicher abwürgender Vorschriften zur Kontrolle der Wirtschaft und der Bevölkerung.

Diese Administration und der Kongress würden eher die Ressourcen dieser Nation verkrüppeln, indem ein Pipeline-Projekt verhindert und die Kohleindustrie zerstört werden, um die Amerikaner abhängiger von der Regierung zu machen – je abhängiger die Menschen von der Regierung sind, umso leichter sind sie zu kontrollieren. Falls die Regierung die Ressourcen wie Wasser und Strom kontrolliert, können ganze Gemeinden hinsichtlich Ressourcen benachteiligt werden, um sie auf eine Linie mit der Regierungsagenda zu bringen. Der theoretische Mythos der globalen Erwärmung vollbringt dies, während der zyklische Klimatrend der Erde infolge solarer Zyklen dies nicht schafft.

Durch sein Ignorieren dieser wissenschaftlichen Tatsachen zur Sonnenaktivität und aus den Eisbohrkernen zeigt Obama, dass der dickköpfig, stur und narzistisch ist sowie ein diktatorisches Verhalten an den Tag legt. Er unterstützt eine Lüge anstatt der Wahrheit. Jedes Mal, wenn er zum Sprechen ansetzt, kommt ein ganzes Repertoire von Lügen zum Vorschein; Obama lebt eine Lüge. Für ihn ist die Lüge Wahrheit, so lange es gelingt, die Fakten zu verstecken; diejenigen, die sie nennen, zu beschimpfen und eine Bevölkerung mit geringem Intellekt zu hypnotisieren. Eine Lüge fördert eine Agenda, in der das Ende die Mittel rechtfertigt.

Schon als Kind habe ich gelernt: Wenn man einmal lügt, muss man eine weitere Lüge äußern, um die erste Lüge am Leben zu halten; danach muss man fortwährend lügen, um alle Lügen zuvor nicht platzen zu lassen. An diesem Punkt hat man ein Kartenhaus gebaut, das bei der geringsten Störung in sich zusammenfällt. Lügen schlagen am Ende immer auf den Lügner zurück, weil es immer schwerer wird, sich daran zu erinnern, welche Lügen man früher von sich gegeben hat, während sich die Wahrheit niemals ändert. Das Ende ist da, wenn es keine Lügen mehr zu erzählen gibt und das Kartenhaus eingestürzt ist. Dann werden die Lügen zu den Karten, die das Gebäude umfallen lassen.

Quelle: TDS

Link: http://sppiblog.org/news/scientists-blast-obamas-global-warming-myth-youre-basing-politics-on-faulty-computer-models-rather-than-science#more-10289

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers hierzu: Wir alle wissen um die Problematik von Vorhersagen. Auch hier handelt es sich ja ausschließlich um solche. ABER: Würden hier Vorhersagen einer globalen Erwärmung stehen, wären sie bestimmt sofort das totale Thema in unseren ach so objektiven Medien. Allerdings glaube ich, dass keine einzige der hier gut begründeten Vorhersagen in irgendeinem Medium auftaucht. Und darum geht es mir als Laien auch hauptsächlich: Dieser Artikel belegt, in welch furchtbarem Umfang in dieser Hinsicht mit zweierlei Maß gemessen wird.

C. F.




Schützen Wind, Sonne und Faulgasstromerzeuger das Klima?

Diese Aussage gilt selbstverständlich auch für die Herstellung von elektrischem Strom. In den Medien und bei sogenannten Expertendiskussionen, wie beispielsweise „Hart aber fair“ am 4.11.2013 in der ARD, werden die unterschiedlichsten „Stromkosten“ in die Welt gesetzt. Es wird von Teilkosten, Marginalkosten, Fremdkosten, – und ganz wichtig! – unberücksichtigten Kosten und ähnlichem Unfug geschwafelt, um die „Erneuerbaren“ ins korrekte wirtschaftliche Licht zu rücken. Allen diesen vermeintlichen „Stromkosten“ ist eines gemeinsam: Mit einer korrekten betriebswirtschaftlichen Kalkulation haben sie nichts zu tun, einer korrekten Kostenanalyse halten sie nicht stand. Obwohl das so ist, ist der gutgläubige Bürger gezwungen, das alles zu glauben, weil er sich in der Materie nicht auskennt.

Nun ist im August 2010 eine für die wirtschaftliche Beurteilung der Stromwirtschaft grundlegend wichtige Arbeit von der Universität Stuttgart veröffentlicht worden (1) ferner (hier), in der die Herstellkosten für die verschiedenen Prozesse der Stromerzeugung nach allen gültigen Regeln der Betriebswirtschaftslehre berechnet worden sind. Dabei sind ausnahmslos sämtliche zugrundeliegenden Kostenarten und selbstredend die jährlichen Laufzeiten korrekt berücksichtigt und nach gängigen Vorschriften in Herstellkosten umgerechnet. Wichtig ist hierbei, dass die Herstellkosten aller verglichenen Herstellverfahren einheitlich für Neuinvestitionen im Jahr 2015 berechnet sind. Damit sind alle lähmenden Diskussionen über nebulöse Kostenbeurteilungen aus abgeschriebenen Anlagen ausgeschlossen.

In dieser schulbuchmäßig ausgeführten Arbeit werden folgende Herstellkosten für elektrischen Strom nach verschiedenen Herstellverfahren errechnet. Windenergie: 118,5-146,5 €/MWh; Photovoltaik: 277,0-317,7 €/MWh; Braunkohle, reduziert um 17,2 €/MWh für CO2-Zertifikate, die mit technischen Herstellkosten nichts zu tun haben: 37,1 €/MWh. (2) Diese hier errechneten Kosten sind die tatsächlichen, korrekten Kosten für die Stromerzeugung nach den genannten Verfahren. Setzt man die Kosten in Relation zueinander, so ergibt sich, dass elektrischer Strom aus PV das 7-fache und aus Wind das 3-fache kostet, verglichen mit einem Braunkohlekraftwerk. Diese harten Fakten sind die einzig korrekte Grundlage zur wirtschaftlichen Beurteilung der „Erneuerbaren Energien“.

Bei Verwendung dieses Faktenmaterials in Diskussionen mit Vertretern der „Ökoszene“ wird gebetsmühlenartig und unisono das „Wunderargument“ der grünen Lobby aufgetischt, um jegliche weitere Diskussion abzuwürgen: „Da fossile Energieträger zukünftig immer knapper werden, steigen die Kosten der klassischen Kraftwerke entsprechend und werden in Kürze die Kosten für „Erneuerbare Energien“ übertreffen.“ Diese Aussage ist indes ein fundamentaler Irrtum! Der Grund für diesen Irrtum wird durch das „Kosten-Energie-Äquivalenzgesetz“ offensichtlich, das die Kosten neu definiert: „Ausnahmslos sämtliche im Weltwirtschaftssystem auftauchenden Kosten bestehen zu 100% aus reinen Energiekosten.“ Die neueste Veröffentlichung des „Kosten-Energie-Äquivalenzgesetz“ ist als PDF beigefügt.

Die weltweit auftretenden Kosten sind Kosten für Wirtschaftswerte, die in der Vergangenheit durch den Einsatz der Primärenergieträger geschaffen worden sind. Zu diesen Werten gehören Immobilien, Produktionsanlagen, Fahrzeuge, langlebige Gebrauchsgüter, Haushaltsausstattungen, Versicherungen, Sparguthaben, – nicht zu vergessen – das monetäre Gesamtvolumen der Weltwährungen und vieles mehr. Obwohl sich die Zusammensetzung der Primärenergieträger – Kohle/Öl/Gas – seit dem 2. Weltkrieg verändert hat, bestanden die Primärenergieträger stets und ununterbrochen zu mehr als 90% aus Kohlenstoff-haltigen Fossilien. Bis heute besteht der Primärenergieeinsatz zu über 90% aus Kohle, Öl und Gas (hier), bei deren physischem Einsatz in die Wertschöpfungskette die äquivalente Menge an CO2 in die Atmosphäre abgegeben wird (3). Damit bestehen die heutigen weltweiten Kosten zu über 90% aus dem Verbrauch von Kohle, Öl und Gas. Diese fundamentale Aussage beruht einzig und allein auf physikalischen und chemischen Grundgesetzten, die die Grundlage des „Kosten-Energie-Äquivalenzgesetzes“ bilden.

Selbstverständlich resultieren dann auch die Kosten für „Erneuerbare Energien“ wie alle anderen weltweit auftretenden  Kosten zu über 90% aus fossilen Kohlenstoffverbindungen. Windstrom verbraucht demnach das 3-fache, PV-Strom das 7-fache an Kohle, Öl und Gas, das in einem Braunkohlkraftwerk benötigt wird.  Entsprechend beträgt die CO2-Emission bei Windrädern das 3-fache, bei PV-Anlagen das 7-fach der CO2-Emissionen eines Braunkohlekraftwerks. Sollte das Klima wirklich durch Reduktion von CO2 geschützt werden, so wird durch die Umstellung auf „Erneuerbare Energien“ exakt das Gegenteil erreicht.

Die lauthals verkündete Umkehr der Kostenstruktur zu kostengünstigeren „Erneuerbare Energie“-Anlagen, hervorgerufen durch steigende Kosten für Kohle, Öl und Gas stellt sich als fundamentaler Irrtum heraus, da auch in absehbarer Zukunft der Löwenanteil der Primärenergieträger aus Kohle, Öl und Gas bestehen wird. Steigenden Kosten für diese fossilen Energieträger erhöhen – wie das „Kosten-Energie-Äquivalenzgesetz“ zeigt – zwangsläufig die Kosten für „Erneuerbare Energien“.

Zur Rettung der „Erneuerbaren Energien“ bliebe als einziger Ausweg eine technische Effizienzsteigerung der Produktionsverfahren für „Erneuerbare Energien“. Eine notwendige Effizienzsteigerung um den Faktor 3 und 7 ist jedoch aufgrund der technischen Reife dieser Verfahren absolut ausgeschlossen.

Die Einsparung von CO2 durch Einführung von „Erneuerbaren Energien“ zur Rettung der Welt ist ganz offensichtlich ein modernes Märchen.

Dr- rer. nat Heinz Schütte 

Über den Autor

Geboren 1939 in Kassel. Studium der Chemie, Physik und Pharmakologie an der Universität Marburg. 1966 Promotion in organischer Chemie. Executive Course in BWL an der University of California, Berkeley. Ab 1967 bei der damaligen HOECHST AG zunächst in der Forschung tätig. Nach mehreren Jahren Tätigkeit als Referent im Vorstand der HOECHST AG, Chief Operating Officer des Pharmabereichs mit Verantwortung für 12000 Mitarbeiter und 14 Mrd. DM Produktionsvolumen.

(1)  S. Wissel et al., Energiekosten zur Bereitstellung elektrischer Energie von Kraftwerksoptionen in 2015,   Bericht Nr.7, August 2010, IER, Universität Stuttgart

(2)  Wenn der Leser dieser Auffassung nicht folgen möchte, kann er für Braunkohle, die durch politische Willkür aufgeblähte Summe von 54,3 €/MWh einsetzten. Das Verhältnis PV, Wind, Braunkohle lautet dann 5/2/1 und ändert an der Aussage qualitativ nichts.

(3)  BP Global, Statistical Review of World Energy, 2012

Related Files




Nordfriesland – Tacloban/Manila – Warschau

Höher gelegene Teile sind als Inseln erhalten geblieben, z.B. Sylt. Die Zahl der Opfer ist nicht bekannt, aber die Größe der überfluteten Fläche und die dort zerstörten Sied­lungen lassen vermuten, dass es sehr viele Tausend waren. Knapp 300 Jahre spä­ter hat die Nord­see weiter Land in Besitz genommen und später auch noch. Sie versucht es im­mer wieder – Hamburg stand 1963 unter Wasser und Holland wäre ohne seine Deiche nur halb so groß. Die folgenden Kartenausschnitte  zeigen die Veränderungen der Küste Nordfrieslands (Details bei Wikipedia). Deswegen gilt an der Küste: Wer nicht deichen will, muss weichen!

Heute

Hinsichtlich der Stärke von Fluten und Hochwässern ist festzustellen, dass extreme Ereignisse selten sind: je höher – desto seltener. Oft sind seit der letzten wirklich großen Flut viele hundert Jahre mit relativ kleinen Ereignissen vergangen. Das erinnert keiner, wenn der Abschnitt noch unbewohnt war, was wohl für Teile der philippinischen Inselwelt gelten mag. Allein zwischen 1200 und 1700 hat es an der nordfriesischen Küste die folgenden 6 großen Ereignisse gegeben:

1219    Marcellus -Flut

1287    Lucia-Flut

1362   Große Manndränke

1436   Allerheiligen-Flut

1570   2. Allerheiligen-Flut

1634   2. Manndränke

Für den Schutz der Küsten und der Flussauen gibt es ein Abwägungsproblem: Um sie gegen seltene Groß-Fluten und Hochwässer zu schützen, sind hohe Deiche nötig, deren Kosten über­proportional steigen.  Welche sind noch berechtigt ? Das ist nach dem örtlich unterschiedlichem Risikopotential zu entscheiden – bei Ackerflächen im Hinterland  könnte man seltene Überflu­tungen in Kauf nehmen, bei Siedlungen nicht. Was wir viel zu selten realisieren: Wir sind auf der Erde Gäste und die Erde ist der Chef,  der die Größenordnungen auch plötzlicher Verände­rungen bestimmt. Die Skala ist nach oben offen – nicht nur bei Vulkanausbrüchen, Erdbeben und Tsunami sondern auch bei Wetterereignissen wie Stürmen und Regenfällen. 

Bei Erdbeben vergrößern sich in den letzten Jahrzehnten die Opferzahlen. Beweist dies, dass die Erdbeben grundsätzlich stärker werden ?  Nein!  Sondern das Schadenspotential ist gestiegen, denn es leben immer mehr Menschen, und in manchen Regionen wohnen sie zumeist in weniger stabilen Häusern! Das folgende Bild aus der NW vom 13.11.2013 demonstriert die Konsequen­zen der Leichtbauweise sehr drastisch. Das dreistöckige Haus ist beschädigt, aber es steht noch und kann repariert werden.  Die in Leichtbauweise errichteten Häuser wurden zertrümmert.

Die Landnahme der Nordsee war ein natürliches Ereignis erheblicher Größenordnung. Deiche fehlten oder waren nicht hoch genug, und das flache Hinterland lag oft tiefer als das Hochwasser. Die Flut auf den Philippinen ist ein gleiches Ereignis. Der Sturm und die Regengüsse waren un­gewöhnlich stark. Deiche waren nicht hoch genug oder fehlten vollkommen, obwohl dort Tai­fune regelmäßig auftreten – und besonders große möglich sind.

Die Nachrichten zeigen Bilder mit zertrümmerten Häusern, mit einer zerstörten Stadt auf einer schmalen (Halb-?) Insel – vermutlich Tacloban.  Von Deichen ist nichts zu sehen! Wenigstens Reste müssten erhalten geblieben sein, hätten sie überhaupt bestanden. Verletzlicher kann eine küstenparallele Siedlungsstruktur in einem Gebiet mit häufigen Taifunen nicht sein. Diese Phi­lippinen-Flut wurde durch einen besonders starken Taifun bewirkt, der infolge mangelnder Vor­sorge mittels Eindeichung, großer Besiedlungsdichte und der vorherrschenden Leichtbauweise eine städtische und menschliche Katastrophe verursacht hat.

Die besondere Größenordnung dieses Taifuns soll durch die zunehmende Erderwärmung verur­sacht worden sein. Das ist schon deshalb nicht möglich, weil seit 16 Jahren wieder in eine Ab­kühlungsphase stattfindet. Sollte die Stärke dieses Sturmes die übliche Schwankungsbreite über­schritten haben, wäre das kein Beweis gegen seine natürliche Entstehung, sondern klassifi­ziert ihn als ein Großereignis, das seit Menschengedenken dort noch nicht erlebt wurde. Viel­leicht stellt die Detailanalyse fest, dass ein fünfhundertjähriges Ereignis vorliegt.

Wenn man hört, wie die Agitprops *) des Klimawandels auch dieses be­sondere Wetterer­eignis wieder erklären, ist man einen Moment fassungslos und fragt sich, wie sie in der Öffent­lichkeit zu einer solchen Beurteilung kommen, z.B. die Klimaforscher Mo­jib Latif und Stefan Rahmstorf. Wie ist es zu erklären, dass sie fundamentale Fakten nicht ken­nen oder unbe­rück­sichtigt lassen, nur um bei ihrem Credo bleiben zu können? 

 

*) Agitprops – nannte man in der DDR die Beauftragten für Agitation und Propaganda

Erklärung EINS: Man wurde zwar in Ozeanografie ausgebildet und weiß, wie sich Ozeane ver­halten, brauchte aber nie zu lernen, dass sie sich im Laufe der Erdgeschichte ständig verändert haben und das sie das auch heute noch tun; man weiß also nicht, dass sie früher anders waren als in der Gegenwart – und wie.

Diese Erklärung ist deshalb naheliegend, weil bei diesem Personenkreis eine erstaunliche Un­kenntnis erdgeschichtlicher Fakten festzustellen ist – oder diese vorgegeben wird. Ihnen reichen die Kenntnis der Wettererscheinungen von einhundert Jahren aus, um die Entwicklung des Wet­ters bis 2100 zu simulieren. Die irdische Klimageschichte von 4,5 Mrd Jahren mit ihrer Unzahl besonderer und auch aus der Hydrologie und Meteorologie wohlbekannter Vorkommnisse bleibt unberücksichtigt, beispielsweise hundertjährige Überflutungen flacher Küstenländer und tau­sendjährige Überschwemmungen der Flussauen. Wie Tacloban lehrt, können sich beide jeder Zeit wiederholen. Wissen Rahmstorf und seine Glaubensbrüder wirklich nicht, das der CO2-Ge­halt der Atmosphäre in der geologischen Vergangenheit sehr viel höher war als heute,  was der Natur gut bekommen ist, und was weder Eis- noch Warmzeiten verhindert hat? Wissen sie wirk­lich nicht, dass „wissenschaftliche“  Szenarien und Prognosen, die auf kurzfristigen Änderungen beruhen, Scharlatanerie sind?

Erklärung ZWEI: Tatsächlich weiß man alles, u.a. auch,

  • dass wir das von der Sonne gesteuerte Wetter – nach 30 Jahren wird es Klima genannt – nicht schützen können;
  • dass die Änderungen des 20. Jh. von nur einigen Zehntel Grad übliche Temperatur-schwan­kungen sind, aber noch lange kein Klimawandel;
  • dass ausweislich der Temperaturaufzeichnungen von 300 Jahren diese Erwärmung noch nicht mal überall auf der Erde stattfindet, denn in etwa ein Viertel aller Stationen dauert die Kleine Eiszeit immer noch an;
  • dass CO2  der Grundbaustein unserer Nahrungsmittel ist und mehr CO2 reichere Ernten er­gibt, weshalb u.a. die Pflanzen in Gewächshäusern damit begast werden;
  • dass es seit 16 Jahren wieder kühler wird;
  • dass der CO2-Gehalt der Luft trotzdem ansteigt;
  • dass "CO2 als  Klimagas bedeutungslos ist“, wie im Lexikon der Physik von 1959 festge­stellt wird, wofür das Gegenteil bis heute nicht bewiesen wurde, und schließlich
  • dass es für das Modell einer anthropogen verursachten Erderwärmung keinen Beweis son­dern nur unterschiedliche Simulationsergebnisse ergibt, die je nach Eingabe stark voneinander abweichen, und schon deshalb nicht richtig sein können.

Es wird wiederholt eine „Versauerung der Ozeane“ befürchtet – und von den Medien als Ge­spenst an die Wand gemalt. Dazu besteht jedoch kein Anlass:  Die sehr komplizierte Bio-Chemie des Lebens im Wasser und besonders die der Korallenriffe muss dem Ozeanografen Stefan Rahmstorf nicht bekannt sein, aber sollte er

·      tatsächlich eine Abnahme des pH-Wertes von 8,2 auf 8,1 schon für eine Versauerung hal­ten, obwohl sich doch nur die Alkalinität etwas verringert hat ?, und

·      wirklich nicht berücksichtigen können, dass notabene unbekannt ist,  wie und wo sich der pH-Wert der Ozeane örtlich und zeitlich ändern muss, weil Flüsse wechselnde Mengen und Arten von Ionen ins Meer entlassen, die bei der chemischen Verwitterung der Ge­steine gelöst wur­den ?

Aber: Wissen kann stören, so dass man es verdrängt, um nicht den Entzug von Vorteilen zu ris­kieren. Was umso leichter fällt, als  das Glaubensbedürfnis der Masse umso eher und gründlicher zu befriedigen ist,  je absurder die Dogmen sind. Das ist nicht neu, die Geschichte der Wissen­schaft kennt viele Beispiele – auch die von verantwortungslos handelnden Wissenschaftlern.

Erklärung Drei: Fakten sind unerheblich und stören nur, denn man ist vom eigenen Rezept überzeugt, wie die Welt zu retten ist: Weltklimavertrag, Dekarbonisierung!  Dass die Rettung der Welt schon wiederholt versucht worden ist und jedes Mal scheiterte, braucht man nicht zu wis­sen, denn man weiß ja, dass man es besser weiß.

UN-Klimakonferenzen

Die Klimakonferenzen sehen ihren Auftrag darin, unseren CO2-Ausstoss zu verringern, um da­mit das Klima – und die Menschheit – zu schützen, denn sollte das nicht gelingen,  wäre ihre Existenz gefährdet. Insbesondere für die Länder der Dritten Welt soll das erforderlich sein. Tat­sächlich sind diese Bemühungen kontraproduktiv und bewirken das Gegenteil: sie schaden der Dritten Welt mehr als dass sie ihr nutzen: Die enormen Mittel, die bis heute für den grundsätz­lich unmöglichen ‚Klimaschutz’ ausgegeben worden sind, bewirken nichts, denn das CO2  ist nicht klimaschädlich, aber für wirkliche Umweltschutzmaßnahmen sind die Mittel verloren.

Verloren? Sie haben jahrzehntelang die Klimabürokratie, die als Klimaforschung  getarnte Selbstversorgung und den weltweiten Klimatourismus finanziert. Besonders letzterer lässt bei­spielhaft erkennen, dass das Gegenteil von dem erreicht wird, was angeblich beabsichtigt ist. Jene Teilnehmer,  die mangels selbstkritischer Reflexion von ihren guten Absichten überzeugt sind, scheinen den Widerspruch aber wohl nicht zu bemerken: An den Jahreskonferenzen neh­men Zehntausende teil. Sie reisen aus aller Welt zu fernen Zielen. Für ihren Kampf gegen den Anstieg des CO2 in der Luft verbrauchen sie für ihre Reisen große Mengen an Treibstoff und produzieren damit CO2, das in die Atmosphäre entweicht.

Es wird Zeit, die Klimabürokratie und den Klimatourismus zu beenden. Es wird Zeit, die dafür nutzlos ausgegebenen Mittel in praktischen Umweltschutz zu investieren, damit sie den Men­schen wirklich nutzen, z.B. in den Bau von Deichen und stabilen Häusern.

Es wird auch Zeit, eine Klimaforschung zu beenden, die der Nobelpreisträger Ivar Giaevar Pseudo-Wissenschaft nennt, und deren manche Vertreter sich nicht schämen, das Unglück der Opfer von Tacloban als Bestätigung der Ergebnisse ihrer Computerspiele zu missbrauchen.

Der gesamte Aufsatz kann als pdf im Anhang herunter geladen werden.

Related Files




Energiewende wirkt: Deutsche Stromversorger kämpfen ums Überleben! „Die Hütte brennt!“

Die Verluste der Kraftwerksbetreiber aus dem für die Versorgungssicherheit unverzichtbaren fossil befeuerten Kraftwerken erreichen deshalb Schwindel erregende Höhen, die nicht länger verkraftbar sind

28 weitere Kraftwerksblöcke mit den modernsten Maschinen sind zur Stilllegung bei der Bundesnetzbehörde angemeldet.

Deshalb ist es geradezu zynisch wie auch dumm, wenn einige Journalisten (z.B. Daniel Wetzel in Die Welt) wie auch div. Politker aller Parteien behaupten:

„Die großen deutschen Versorger haben die Energiewende verschlafen“.

Nur wer absolut keine Ahnung von Physik, Mathematik und Elektrotechnik hat, und das sind wohl jene Journalsiten und Politiker, kann ernsthaft glauben, dass vernünftige Leute mit Sachverstand sich auf dieses Irrsinnsexperiment namens Energiewende hätten frühzeitig einlassen müssen.

Wenn man den Kraftwerksbetreibern etwas vorwerfen kann, dann dies, dass sie dem kollektiven grünen Irrsinn, der sich besonders in der „Energiewende“ zeigt, nicht aufs stärkste widersetzt haben. Das haben Sie nicht, sondern laut mit den Wölfen geheult und sind dem öffentlich verkündeten Zeitgeist hinterher gelaufen

Die einzige rühmliche Ausnahme war Jürgen Großmann von RWE, die anderen spielten alle – wider besseres Wissen- mit. So wie auch heute wieder, denn „Jetzt korrigieren sie den Kurs radikal“ wird gemeldet. D.h. im Klartex, sie gehen weiter den falschen Weg in die Deindustrialiserung  Deutschlands, aber jetzt mit hohem Tempo und Einsatz.

Die WiWo schreibt: RWE streicht über 6000 Stellen

RWE hat sein Sparprogramm nochmals verschärft. Die Zukunft der Energieversorger sieht zunehmend düster aus. Mit welchen Mitteln die Betreiber sparen wollen und wie viel. RWE-Chef Peter Terium setzt nochmal den Rotstift an: Angesichts der düsteren Aussichten auf dem deutschen Energiemarkt sollen bis 2016 weitere 6750 Stellen wegfallen oder durch Verkauf abgegeben werde, 4750 davon in Deutschland. Terium will auch auf Management-Ebene über Gehaltskürzungen sprechen. Betriebsbedingte Kündigungen soll es soweit möglich nicht geben. RWE setzte auf die konzerninterne Jobbörse, Altersteilzeit und die natürliche Fluktuation. Den bis Ende 2014 garantierten tariflichen Kündigungsschutz will Terium angesichts der Lage nicht verlängern. Von 2011 bis Ende 2013 hat RWE bereits 6200 Stellen abgebaut oder durch Verkauf abgegeben.

Der neue Abbau trifft vor allem die Kraftwerkssparte mit 2300 Stellen. Im Rahmen des Effizienzprogramms „RWE 2015“ fallen 2400 Stellen weg, und durch den geplanten Verkauf der Ölfördertochter Dea weitere 1400 Stellen. Auch die Tochter für erneuerbare Energien RWE Innogy speckt ab – 250 Stellen gehen verloren. Zum Jahresende 2013 verringert sich die Zahl der Stellen von 67.400 auf knapp 61.000. Ende 2011 arbeiteten noch 72.000 Menschen für RWE….  Zunächst hieß es, die Zahl der Mitarbeiter solle um 8000 sinken, mittlerweile ist von über 10.000 Stellen die Rede. 3000 davon sollten durch Verkäufe von Unternehmensteilen wegfallen. Nun legte Chef Peter Terium nochmals nach

Und an andrer Stelle weiter:

So dramatisch steht es um die Zukunft der Energieriesen

von Andreas Wildhagen und Rebecca Eisert

Die drei großen deutschen Energiekonzerne E.On, RWE und EnBW kämpfen mit der Energiewende. Diese Woche purzeln die letzten Hoffnungen bei der Veröffentlichung der Neunmonatszahlen. „Die Hütte brennt“, lautet der Alarmruf von E.On-Chef Johannes Teyssen. Der Satz gilt für alle drei großen Energieversorger in Deutschland: Nicht nur für E.On, sondern auch für RWEund EnBW. Die Baden-Württemberger veröffentlichten am Dienstag ihr Dreivierteljahresergebnis. E.On bittet am Mittwoch zur Telefonkonferenz mit dem Vorstandschef. Und RWE-ChefPeter Terium legte am heutigen Donnerstag seinen Bericht ab. Es sieht grau und rot aus in den Bilanzen der Energiekonzerne in diesem November. Neue Kostenziele werden verkündet. Der RWE-Chef kündigt einen erneuten Stellenabbau bis 2016 an. Und EnBW-Chef Frank Mastiaux gab bereits vergangene Woche bei einer Podiumsdiskussion während einer Anhörung in der Katholischen Akademie in Stuttgart bekannt, dass alle konventionellen Kraftwerke von EnBW rote Zahlen schreiben, ausgenommen die Atomkraftwerke.

In „Die Welt“   lesen wir:

RWE streicht weitere 6700 Stellen in Europa, schließt Kraftwerke, kürzt Investitionen und die Dividende zusammen: Deutschlands größter Kraftwerksbetreiber kann zwar dank einiger Sondereffekte in diesem Jahr noch einmal sein Bilanzergebnis einigermaßen retten. Doch für die Ertragskraft der kommenden Jahre sieht es äußerst mau aus: Der mit mehr als 30 Milliarden Euro hoch verschuldete Konzern hat die Aktionäre auf ein Tal der Tränen eingestimmt, der Aktienkurs brach nach der Vorlage zum 3. Quartal des Geschäftsjahres am Donnerstag erneut drastisch ein. Das Papier verlor zeitweise mehr als acht Prozent an Wert… Unvorhersehbare politische Eingriffe, wie der Zwang zur Abschaltung von Atomkraftwerken im Jahre 2011 oder die Ökostrom-Subventionierung katapultierten dann das einst mächtige Oligopol ins Abseits. Die vier Unternehmen, die noch vor zehn Jahren 80 Prozent der Stromerzeugung und fast den ganzen Endkundenmarkt dominierten, haben aus Sicht der Monopolkommission ihre marktbeherrschende Stellung in Deutschland heute verloren…. Die Misere hat bei allen dieselbe Ursache: Konventionelle Kraftwerke brechen als Ertragsbringer fast völlig weg, weil an der Strombörse zuerst die Stromerzeuger mit den niedrigsten variablen Kosten zum Zuge kommen, und das sind Windkraft- und Solaranlagen. Der subventionierte Ökostrom-Ausbau hat zudem die bestehenden Überkapazitäten in ganz Europa noch vergrößert. Die Großhandelspreise für Strom sind auf ein Niveau verfallen, auf dem es sogar Braunkohle- und Atomkraftwerke schwer haben, ihre Fixkosten zu verdienen.

Die FAZ schreibt :

Unter Druck Den Versorgern bricht das Geschäftsmodell weg

15.11.2013 ·  Die Aktienkurse von RWE und Eon stehen unter Druck. Sie bleiben wenig gefragt, Analysten äußern sich skeptisch zu den Zukunftschancen.

Von WERNER STURBECK. DÜSSELDORF

Aus dem Markt gedrängt

Der Großhandelspreis an der European Energy Exchange (EEX) ist seit dem Frühjahr 2011 von gut 60 Euro je Megawattstunde stetig auf weniger als 40 Euro geschrumpft. Bei solchen Preisen bringen nur noch Atom- und Braunkohlekraftwerke Geld. Aber auch deren Margen werden durch die Brennelementsteuer und die seit Januar komplett zu erwerbenden Handelszertifikate für die CO2-Emissionen erheblich eingeengt.

Der mit Einspeisevorrang privilegierte, sehr teure regenerative Strom drängt die konventionellen Kraftwerke mit höheren Kosten aus dem Markt. Mit dem Preisverfall im Großhandel schrumpfen die Gewinne. Bei RWE, dem größten deutschen Kraftwerksbetreiber, ist das betriebliche Ergebnis der konventionellen Stromproduktion in den ersten neun Monaten um 1,5 Milliarden Euro oder 64 Prozent auf 841 Millionen Euro gesunken.