1

Video-Vorträge (I) 5. IKEK München

Wie belastbar sind die Belege des menschengemachten Klimawandels?

Prof. Dr. Fred Singer, NIPCC, Science and Environmental Policy Project

Nach Prof. Singer gibt es keinerlei Beweise für einen Temperaturanstieg, der auf die sogenannten Treibhausgase zurück zu führen sei. CO2 hat vermutlich einen kleinen Effekt, er ist aber bisher überhaupt nicht verstanden und läßt sich mit heutiger Meßtechnik nicht nachweisen.

Die Ursachen von rezenten Klimaänderngen: Welche Rolle spielt das CO2?

Prof. em. Dr. Horst Lüdecke;

Pressesprecher, Europäisches Institut für Klima und Energie (EIKE)

Welche Rolle spielt das CO2? Untersucht wurden Klimadaten seit 1770 von sechs mitelleuropäischen Stationen (Kremsmünster, Hohenpeissenberg, Prag, München, Wien und Paris). Nach einer Persistenzanalyse sind nur 30% der Temperaturreihen unnatürlichen Ursprungs und von einem externen Trend bestimmt. Die Ursache dafür ist unbekannt. CO2 dürfte dabei aber nur einen marginalen Einfluss haben. Eine Fourieranalyse erbrachte eine Pearson-Korrelation von 0,96. Diese Übereinstimmung konnte durch den Einfluss von z.B. CO2 nicht verbessert werden.

Der Einfluss kosmischer Strahlung auf das Klima – Neuste Erkenntnisse und deren Bedeutung für das Verständnis des Klimawandels
Prof. Dr. Nir Shaviv

Racah Institute of Physics – The Hebrew University of Jerusalem

Die Untersuchung der Wolkenbildung durch kosmische Strahlung im Magnetfeld der Sonne ist seit mehreren Jahren ein wichtiges Feld, Klimaänderungen besser zu verstehen – Strahlungsänderung, UV-Absorption in der Stratosphäre, Modulation der kosmischen Strahlung durch das Magnetfeld der Sonne. Prof. Shaviv kommt in seiner Modellrechnung zum Schluss, dass die Erwärmung in diesem Jahrhundert gering sein wird. „21st Century warming will be small (~1°C) under business as usual“.

Warum regnet es nach Finsternissen am stärksten? Nachweis eines solar-galaktischen Signals. Ein klares Signal für einen extraterrestrischen Einfluss auf das Klima!

Prof. Dr. Walter Fett

Freie Universität Berlin

Hier wird eine statistische Auswertung der Niederschlagsmengen über die Mondphasen vorgestellt. Deren Verlauf wird dabei nicht mehr als Schwingung um ein mittleres Niveau, sondern als eine Häufigkeitsverteilung über ein Grundniveau dargestellt. Das überraschende Ergebnis ist, dass die Maximas von der geographischen Breite und der Stellung des Mondes relativ zu Sonne und Erde abzuhängen scheinen. Vom Einfluss des CO2 ist jedenfalls in diesen genauen Statitisken nichts zu finden, stattdessen ist ein solarer Einfluss eindeutig feststellbar.

Gletscher- und Waldentwicklung in alpinen Hochlagen in den letzten 10.000 Jahren
Prof. Dr. Patzelt.

An gut erhaltenen Baumstämmen, die in den zurückgehenden Gletschergebieten immer wieder zum Vorschein kommen, kann man die Baumgrenzen und die Ausdehnung der Gletscher in den letzten 10.000 Jahren rekonstruieren und genau datieren. Es gab immer wieder Gletscherrückzugsperioden und die Baumgrenze lag auch immer wieder höher als heute. Diese Untersuchungen in den Alpen lassen sich nicht nur als ein lokales Phänomen darstellen, sondern passen auch zB in die Entwicklung von Grönland. Es ist dabei keine Korrelation zu CO2 ausfindig zu machen.

Meeresspiegelanstieg — Fakt und Fiktion

Prof. Dr. Nils-Axel Mörner

Auch die ökologische Begründung der „Energiewende“ durch die Notwendigkeit, eine drohende Klimakatastrophe abzuwenden, steht auf äußerst wackligen Füßen. Das zeigten in München die Vorträge mehrerer international renommierter Naturforscher. Der schwedische Geophysiker Niels Axel Mörner demonstrierte, dass der Meeresspiegel bis zum Jahr 2100 höchstens um fünf bis zwanzig Zentimeter ansteigen kann.

Wird fortgesetzt.




IPCC Chef Pachauri nimmt Geld vom WWF

Bild: Offizielle Sponsoren des Nachhaltigkeits-Gipfels von TERI

Das IPCC soll eigentlich eine wissenschaftliche Institution sein. Aber dessen Vorsitzender, Rajendra Pachauri, kann sich offenbar nicht selbst helfen. Er verbündet sich weiterhin mit grünen Aktivisten.

Jedes Jahr findet in Delhi ein Nachhaltigkeits-Gipfel statt, der vom TERI organisiert wird, dem Institut, dessen Generaldirektor Pachauri ist. In diesem Jahr endete dieses Ereignis vor zwei Tagen.

Bild oben rechts: Titelseite der Webiste des Gipfels 2013

Auf der Steuerungsleiste der Konferenz-Website findet sich ein Button mit der Bezeichnung Sponsoren. Der Mauszeiger auf diesem Button bringt einen zu der Seite, auf der die Organisationen gelistet sind, die diese Konferenz gesponsert haben.

Es erscheinen zahlreiche Regierungs-Dienststellen, Banken und UN-Organisationen. Wenn man an Nachhaltigkeit denkt, denkt man nicht als erstes an einen Hersteller von Luxusautos. Dennoch, BMW war zweimal ein Sponsor.

Aber hier kommt die echte Bombe: Die Sektion Indien des WWF war ebenfalls Sponsor!

Das stimmt, Leute! Der Vorsitzende des IPCC kassiert Schecks vom WWF.

Mit Dank an den New Nostradamus of the North blog, mich an diese Konferenz zu erinnern, und an Tom Nelson.

Siehe auch:

 Pachauri’s 5-Star Sustainability Summit,  What Pachauri Means by ‘Sustainable’ und den letzten Abschnitt von Big Oil Money for Me, But Not for Thee, der die lange Liste fossiler Treibstoff-Unternehmen listet, die Pachauris Nachhaltigkeits-Gipfel seit dem Jahr 2003 gesponsert haben.

Hintergrund der Website, auf der die Sponsoren dieses Jahres vorgestellt werden, ist hier.

Link: http://nofrakkingconsensus.com/2013/02/04/pachauri-takes-wwf-money/

Übersetzt von Chris Frey EIKE




Windturbine im Sturm zusammengebrochen

Der Turm im Wert von 250000 Pfund, so hoch wie ein sechsstöckiges Haus, wurde von Sturmböen von 50 mph [ca. 81 km/h] betroffen. Die 50 KW-Bau brach danach auf einer Farm in Bradworthy, Devon, zusammen und hinterließ ein „übel zugerichtetes Wrack“.

Margaret Coles, die Vorsitzende vom Bradworthy District Council, sagte, dass Hagel und starker Wind in dem Gebiet getobt und die Turbine getroffen haben. Die nur drei Jahre zuvor errichtete Turbine konnte dem Wind einfach nicht standhalten.

„Die Bolzen an der Basis konnten dem Wind nicht standhalten, und da es sich hier um einen Teil des Landes handelt, in dem es immer sehr windig ist, stehen sie (das Energieunternehmen) jetzt sehr dumm da“, sagte sie. „Es gibt jetzt Sicherheitsbedenken“.

Der Bradworthy Parish Council, der gegen die Turbine war, drückte angesichts der Tatsache, dass an der Windgeschwindigkeit „nichts Außergewöhnliches“ war, seine Sorge aus.

Installiert vom Unternehmen für erneuerbare Energien Dulas sollte die Turbine eine Lebenserwartung von 25 Jahren haben. Sie gaben bekannt, dass „die Windgeschwindigkeit Teil unserer Ursachenforschung ist“.

Die Turbine wurde im Juli 2010 trotz heftiger Proteste von Anwohnern errichtet. Die Anwohner sagten, es sei ein lärmendes und sichtbares Ärgernis.

Ratsmitglied Keith Tomlin sagte: „Wir sind erleichtert, dass niemand verletzt worden ist. Wäre dies tagsüber passiert, hätten leicht Mitarbeiter der Farm, auf der sie errichten worden ist, oder Passanten auf der nahe gelegenen Straße ernsthaft verletzt werden können.

„Noch größere Sorge macht uns, dass der Torridge District Council vor Kurzem die Errichtung einer zweiten Turbine gleicher Größenordnung und Bauart genehmigt hat, und zwar an einer Stelle, die noch näher an der öffentlichen Straße gelegen hätte“.

Mrs. Coles sagte, dass Energieunternehmen das Gebiet ins Auge gefasst hätten mit der Errichtung von 25 Turbinen in der Umgebung während der letzten paar Jahre. „Diese Unternehmen versuchen, eine einstmals abgelegene ländliche Gegend mit Beton zu überziehen“.

Die Turbine vom Typ E-3120 50 kW war das erste Modell seiner Art in UK, als sie auf der East Ash Farm in Brandworthy errichtet worden ist.

Ein Sprecher der in Wales ansässigen Firma Dulas sagte, dass der Generator eine 5-jährige Garantie hatte, und fügte hinzu: „Wir können der lokalen Gemeinde versichern, dass wegen der isolierten Stellung der Turbine niemand in Gefahr war, und wir arbeiten gegenwärtig hart daran, den genauen Grund für den Vorfall zu finden.

Unser technisches Team ist eines der Erfahrensten in UK. Es arbeitet zusammen mit dem Hersteller der Turbine, um eine vollständige analytische Untersuchung der Gründe durchzuführen. Wir werden weiterhin offen informieren und Aktualisierungen verbreiten, wenn wir weitere Informationen haben“.

Ursprünglich hatte man gedacht, dass die Turbine oder ihre Mechanik Feuer gefangen hatte, aber da es keine Zeugen gibt, kann dies vor dem Abschluss der Untersuchungen nicht bestätigt werden.

Bob Barfoot, Vorsitzender der Campaign to Protect Rural England in Nord-Devon [etwa: Kampagne zum Schutz des ländlichen England] war hinsichtlich der Sicherheit besorgt, werden doch weitere Turbinen des gleichen Typs im ganzen Land errichtet.

Er sagte, es sei eine relative billige, leicht verfügbare Turbine gewesen, und es muss Hunderte „errichtet, genehmigt oder geplant“ geben. „Es ist sehr besorglich. Falls es sich um einen Konstruktionsfehler handelt, muss er auch bei allen anderen Turbinen vorliegen. Dies ist einer der populärsten Turbinen in diesem Land. Ich möchte nicht neben einer solchen Turbine leben“.

Die Eigentümer der East Ash Farm haben vor Kurzem die Genehmigung zur Planung vom Torridge District Council erhalten, eine zweite Turbine zu errichten. Und die Regierung will während der nächsten zehn Jahre tausende weitere Turbinen in England bauen.

In Schottland fiel 2011 eine Turbine um, und eine andere brach in Flammen aus.

Simon Thurley, leitender Direktor von English Heritage, sagte, dass bestimmte Teile der englischen Landschaft für Windturbinen „ungeeignet“ seien, wie zum Beispiel schöne Gebiete mit steinernen Kirchen und Häusern zwischen sanften Hügeln.

Er sagte, dass vor allem die Midlands bedroht sind, weil das eine windige Gegend ist, die nicht zu den Gebieten außerordentlicher Schönheit oder einem Nationalpark zählt.

Andere Gebiete der „Shires” mit steinernen Kirchen und Häusern zwischen „sanften Hügeln“ sind ebenfalls für Wind ungeeignet, sagte er.

In einer Rede anlässlich 100 Jahren Kampf für nationale Monumente in Britannien sprach er sich dafür aus, den Bau von  Turbinen in wichtigen Landschaften zu bekämpfen.

„Windparks auf dem Land nehmen immer noch viel von unserer Zeit in Anspruch. Es gibt eine große Anzahl von Anträgen im ganzen Land, und wir sprechen uns nur gegen einige wenige aus. Aber die East Midlands sind für Energieunternehmen interessant, weil es dort nur wenige Restriktionen bzgl. der Landschaft gibt. Allerdings ist es ein Gebiet mit einer urenglischen Landschaft, und viele dieser Windparks zeitigen massive Auswirkungen auf Häuser, Dörfer und Kirchen, und sie verschandeln lokal und landesweit beliebte Aussichten“.

English Heritage und der National Trust bekämpfen gegenwärtig einen Windpark nahe Lyveden New Bield in Northamptonshire (hier).

Louise Gray

Link: http://www.telegraph.co.uk/earth/energy/windpower/9837026/Wind-turbine-collapses-in-high-wind.html

Übersetzt von Chris Frey EIKE




Globale Erwärmung – anthropogen oder nicht?

Ziemlich klarer Fall, sowohl Dr. Hayhoe als auch ich selbst, wir beide sind glaubwürdige professionelle Wissenschaftler. Angesichts unserer Arbeits- und Forschungs-Spezialisierungen sind wir daher kompetent, die Beweise hinsichtlich der gefährlichen globalen Erwärmung zu bewerten, für die das IPCC industrielle Kohlendioxid-Emissionen verantwortlich macht.

Und doch empfiehlt Dr. Hayhoe am Ende ihres Artikels, für weitere Informationen die Websites RealClimate.org und SkepticalScience.com anzuklicken, während ich hier zu meinem Artikel dafür die Websites wattsupwiththat.com und www.thegwpf.org  (Global Warming Policy Foundation) als die Besten ansehe. Für gebildete Leser signalisiert dies sofort, dass Dr. Hayhoe und ich diametral entgegengesetzte Auffassungen zum Thema globale Erwärmung haben.

Die allgemeine Öffentlichkeit kann nicht verstehen, wie es zu einer solchen Diskrepanz zwischen zwei gleich qualifizierten Personen zu einem wissenschaftlichen Thema kommt, einer Diskrepanz, die sich auch im größeren Rahmen durch die Existenz äquivalenter Gruppen von Wissenschaftlern zeigt, die die Ansichten des IPCC zur gefährlichen anthropogenen globalen Erwärmung (DAGW) unterstützen oder ablehnen.

In diesem Aufsatz möchte ich versuchen zusammenzufassen, was die Grundlinie des Dissens’ zwischen diesen beiden Gruppen ist, und ich möchte zeigen, wie es zu der Fehlinterpretation dieses Dissens’ in der Öffentlichkeit kommen konnte.

Übereinstimmungen unter den DAGW-Protagonisten

Obwohl man das der antagonistischen Natur öffentlicher Diskussionen über die globale Erwärmung nicht entnehmen kann, gibt es unter allen Wissenschaftlern, die sich mit dem Thema befassen, ein großes Maß an Übereinstimmung und geteilter Interpretationen. Die allgemeinen Grundlagen, von denen viele von Dr. Hayhoe in ihrem Artikel oberflächlich angesprochen worden sind, enthalten unter Anderem:

· Das Klima hat sich immer geändert und wird sich immer ändern.

· Kohlendioxid ist ein Treibhausgas, das die untere Troposphäre erwärmt.

· Menschliche Emissionen reichern sich in der Atmosphäre an.

· Im 20. Jahrhundert gab es eine Erwärmung um 0,5°C, aber

· die globale Erwärmung ist seit 15 Jahren nicht mehr vorhanden.

Bei dem wissenschaftlichen Streit um DAGW geht es also um keinen dieser Punkte. Vielmehr geht es im Wesentlichen um drei andere, wenngleich auch damit zusammen hängende Dinge, nämlich:

· um die Größe der Gesamterwärmung, die durch menschliche Emissionen verursacht wurden und in Zukunft werden

· darum, ob es irgendwelche aktuellen Beweise gibt für die gefährliche Erwärmung durch den Menschen während der letzten 50 Jahre, und

· darum, ob die Computermodelle des IPCC genaue Klimavorhersagen für 100 Jahre im Voraus ausgeben können.

Die Antworten von Dr. Hayhouse auf diese drei Fragen bewegen sich jeweils vermutlich entlang der Linie substantiell, viele und ja. Meine Antworten würden jeweils lauten: nicht signifikant, keine und nein.

Wie kann man sich solche unvereinbaren Antworten auf einen weitgehend übereinstimmend beurteilten Satz faktischer Klimadaten erklären?

Wie arbeitet die Wissenschaft?

Beim Streit um die globale Erwärmung oder allgemeiner die Klimaänderung geht es um eine wissenschaftliche Angelegenheit. Wissenschaft befasst sich mit Fakten, Experimenten und numerischen Präsentationen der natürlichen Welt um uns herum. Wissenschaft befasst sich nicht mit Emotionen, Glauben oder Politik, sondern versucht, die Dinge unparteiisch und in objektiver Weise zu analysieren, um bei der Betrachtung eines gegebenen Satzes von Fakten zwei verschiedene Betrachter zur gleichen Interpretation kommen; und ja, die Ironie dieser Feststellung in dem Zusammenhang hier ist mir bewusst.

Das bringt uns zum Fall von Occams Rasierer und der Null-Hypothese. William of Occam (1285 – 1347) war ein englischer Franziskanermönch und Philosoph, dem der Ausspruch ‚Pluralitas non est ponenda sine necessitate’ zugeschrieben wird, übersetzt: ‚Pluralität sollte nicht ohne Notwendigkeit eingeführt werden’. Dies ist eine prägnant kurze Feststellung des Prinzips der Einfachheit oder Sparsamkeit, die zum ersten Mal von Aristoteles entwickelt worden ist und die heute jeder wissenschaftlichen Bemühung zugrunde liegt.

Der Ausdruck ‚Occams Rasierer’ wird heute allgemein als Kürzel verwendet, um die fundamentale wissenschaftliche Vermutung der Einfachheit zu repräsentieren. Um einen gegebenen Satz von Beobachtungen aus der natürlichen Welt zu erklären, besteht die wissenschaftliche Methode darin, zunächst die einfachste mögliche Erklärung anzubieten (Hypothese), die die bekannten Fakten erklären kann. Diese einfache Erklärung, Null-Hypothese genannt, wird dann so lange zur vermuteten Interpretation, bis zusätzliche Fakten auftauchen, die eine Modifikation der ursprünglichen Hypothese erforderlich machen oder sie vielleicht sogar insgesamt widerlegen.

Angesichts der großen, aus den Klimaaufzeichnungen hervorgehenden natürlichen Variabilität und des bis heute andauernden Fehlschlags, in diesen Aufzeichnungen oder Teilen davon ein menschliches Signal zu identifizieren, lautet die passende Null-Hypothese – weil es die einfachste ist, die zu den bekannten Fakten passt – dass globale Klimaänderungen natürlichen Ursprungs sind, solange und bis spezifische Beweise für eine menschliche Beteiligung auftauchen.

Es ist eine der mehr außerordentlichen Fakten beim IPCC, dass in deren Forschungsstudien meistens eine (ungerechtfertigte) Umkehrung der Null-Hypothese bevorzugt wird – nämlich dass globale Klimaänderungen vermutlich durch vom Menschen emittiertes Kohlendioxid zustande kommen, solange und bis spezifische Beweise etwas anderes ergeben.

Welche Hypothese wollen wir testen?

Obwohl die Klimawissenschaft alles in allem sehr Komplex ist, ist die Treibhausgashypothese geradlinig, und es ist relativ einfach, sie oder ihre Implikationen mit den verfügbaren Daten zu testen. Zuerst allerdings muss kristallklar sein, was genau wir mit dem Ausdruck meinen.

Im allgemeinen Sprachgebrauch sowie in den Medien haben die Ausdrücke Treibhaus und Treibhaus-Hypothese eine spezielle mundartliche Bedeutung angenommen – fast unabhängig von ihrem wissenschaftlichen Ursprung. In Meinungsumfragen oder von einem Reporter, der wissen will, welche gesellschaftlichen Schichten wie über dieses Thema denken, werden Fragen gestellt wie „Glauben Sie an die globale Erwärmung?“, Glauben Sie an die Klimaänderung?“ oder „Glauben Sie an den Treibhauseffekt?“

Wenn man mal die Tatsache beiseite schiebt, dass es bei Wissenschaft niemals um Glauben geht, sind alle diese Fragen eigentlich kodiert und sollen in der Öffentlichkeit so verstanden werden: „Ist die gefährliche globale Erwärmung durch menschliche Emissionen von Kohlendioxid verursacht?“ Unnötig zu erwähnen, dass dies eine ganz andere, wenngleich auch damit in Beziehung stehende Frage ist. Diese und andere saloppe Unklarheiten (z. B. „Kohlenstoff“ für „Kohlendioxid“) werden täglich in den Medien verwendet und führen zu großer Konfusion in der öffentlichen Debatte über die Klimaänderung; sie unterminieren auch den Wert von nahezu allen Ergebnissen von Meinungsumfragen.

Die DAGW-Hypothese, die ich hier abklopfen möchte, lautet einzig und genau „dass die gefährliche globale Erwärmung durch menschliche Kohlendioxid-Emissionen verursacht wird oder werden wird“. Um „gefährlich“ zu sein, muss die Änderung zumindest die Größenordnungen von Erwärmungen übersteigen, von denen bekannt ist, dass sie mit normalem Wetter und der Klimavariabilität verbunden sind.

Mit welchen Beweisen können wir die DAGW-Hypothese testen?

Die DAGW-Hypothese kann auf vielfache Weise getestet werden. Hier habe ich nur Raum, um fünf davon zu zeigen, die allesamt auf empirischen Daten aus der realen Welt beruhen. Um mehr zu erfahren, lese man sowohl das Buch von Dr. Hayhoe als auch mein Buch.

Man betrachte die folgenden Tests:

(i) Während der letzten 16 Jahre hat die globale Temperatur, gemessen sowohl von Thermometern als auch von Satelliten-Sensoren, keine statistisch signifikante globale Erwärmung gezeigt; während in der gleichen Periode der Gehalt an Kohlendioxid in der Atmosphäre um 10% zugenommen hat.

Die große Zunahme des Kohlendioxids hat also nicht nur keine gefährliche Erwärmung, sondern sogar überhaupt keine Erwärmung gezeitigt. Hypothese widerlegt.

(ii) Während des 20. Jahrhunderts kam es zu einer Erwärmung zwischen 0,4°C und 0,7°C mit einer Maximum-Rate in den ersten Jahrzehnten des Jahrhunderts von etwa 1,7°C pro Jahrhundert. Zum Vergleich: unsere besten regionalen Klimaaufzeichnungen zeigen, dass es während der letzten 10000 Jahre durch natürliche Klimazyklen bis zu mindestens 1°C wärmer als heute war, mit Erwärmungsraten bis zu 2,5°C pro Jahrhundert.

Mit anderen Worten, sowohl die Rate als auch die Größenordnung der Erwärmung im 20. Jahrhundert liegen im Rahmen der natürlichen Klimaänderung. Hypothese zweimal widerlegt.

(iii) Falls die globale Temperatur hauptsächlich durch den atmosphärischen CO2-Gehalt bestimmt wird, sollten Änderungen des Kohlendioxids parallelen Änderungen der Temperatur vorangehen.

Tatsächlich zeigt sich in allen zeitlichen Bereichen aber das Gegenteil. Eine Temperaturänderung geht einer Änderung des CO2 um etwa 5 Monate während des jährlichen jahreszeitlichen Zyklus’ voran und um 700 bis 1000 Jahre während einer Eiszeitphase. Hypothese widerlegt.

(iv) Den Projektionen der allgemeinen Computer-Zirkulationsmodelle des IPCC zufolge, die die Auswirkung des zunehmenden CO2-Gehaltes modellieren, sollte die globale Erwärmung mit einer Rate von +2,0°C pro Jahrhundert voran schreiten.

Tatsächlich hat es aber in der Atmosphäre und auch in den Ozeanen seit mehr als einem Jahrzehnt überhaupt keine Erwärmung gegeben. Die Modelle sind ganz klar falsch und weisen dem zusätzlichen CO2 einen zu großen Erwärmungseffekt zu (technisch: man sagt, dass sie die Klimasensitivität überschätzen).

(v) Die gleichen Computermodelle sagen voraus, dass ein Fingerabdruck der treibhausgasbedingten Erwärmung die Bildung eines atmosphärischen Hot Spots in einer Höhe von 8 bis 10 km über dem Äquator sein würde, sowie auch eine verstärkte Erwärmung an beiden Polen.

Angesichts unseres Wissens, dass die Modelle falsch sind, sollte es uns nicht überraschen, dass direkte Messungen sowohl mit Ballonaufstiegen als auch mit Satelliten-Sensoren das Fehlen jeglicher Erwärmung in der Antarktis und ein vollständiges Fehlen des vorhergesagten Hot Spots in der Atmosphäre zeigen. Hypothese zweimal widerlegt.

Einer der größten Physiker des 20. Jahrhunderts, Richard Feynman, hat bzgl. Wissenschaft angemerkt:

Im Allgemeinen suchen wir mit folgendem Prozess nach einem neuen Gesetz. Zuerst vermuten wir es. Dann berechnen wir die Konsequenzen der Vermutung, um zu sehen, was daraus folgen würde, wenn dieses unser vermutetes Gesetz zutreffend wäre. Dann vergleichen wir die Ergebnisse dieser Berechnungen mit der Natur, entweder durch Experimente oder durch Erfahrung, und vergleichen sie direkt mit Beobachtungen, ob sie zutreffen.

Es ist dieses einfache Statement, das der Schlüssel zur Wissenschaft ist. Es macht nicht den geringsten Unterschied, wie schön unsere Vermutung ist. Es macht nicht den geringsten Unterschied, wie smart einer ist, von dem die Vermutung stammt, oder wie er heißt. Wenn sie nicht mit dem Experiment übereinstimmt, ist sie falsch.

Keine der fünf Tests oben unterstützt die in der Treibhausgas-Hypothese implizit enthaltenen Vorhersagen oder stimmt mit ihnen überein. Richard Feynman hat recht mit seinen Worten, dass daher die Hypothese ungültig ist, und das sogar viele Male.

Zusammenfassung

Die gegenwärtige wissenschaftliche Realität lautet, dass die IPCC-Hypothese einer gefährlichen globalen Erwärmung wiederholt überprüft und dadurch widerlegt worden ist. Trotz der gewaltigen finanziellen Aufwendungen während der letzten 25 Jahre (mehr als 100 Milliarden Dollar) und großen Forschungsbemühungen von mit dem IPCC verbundenen und anderen (unabhängigen) Wissenschaftlern gibt es bis auf den heutigen Tag keine einzige Studie, die eine gewisse Verbindung zwischen Änderungen irgendeines signifikanten Umweltparameters und vom Menschen verursachten CO2-Emissionen ergeben hat.

Im Gegensatz dazu harrt die Null-Hypothese, dass die während der letzten 150 Jahre beobachteten globalen Klimaänderungen (die wir auch heute noch beobachten) natürlichen Ursprungs sind, immer noch der Widerlegung. Wie in den Berichten des Nongovernmental International Panel on Climate Change (NIPCC) zusammengefasst, enthalten buchstäblich tausende von in vielen Journalen veröffentlichten Studien Tatsachen und Beschreibungen, die mit der Null-Hypothese konsistent sind. Außerdem zeigen sie plausible natürliche Erklärungen für alle globalen Klimaänderungen nach 1850, die bislang beschrieben worden sind.

Warum wird diese Schlussfolgerung nicht allgemein verstanden?

Ich habe früher schon betont, dass es bei Wissenschaft nicht um Emotionen oder Politik geht. Unbequemerweise ist es aber auch richtig, dass die öffentliche Diskussion zum Thema globale Erwärmung viel mehr nach diesen Kriterien geführt wird und nicht wissenschaftlich. Wie ich in meinem Buch ausführlich dargelegt habe, gibt es drei Hauptgründe dafür.

Erstens ist das IPCC als Zweig der UN selbst eine absolut politische und keine wissenschaftliche Institution. Außerdem ist in der IPCC-Charta festgelegt, dass nicht die Klimaänderung allgemein untersucht werden soll, sondern allein die globale Erwärmung infolge menschlicher Treibhausgas-Emissionen.

Zweitens, von lokalen grünen Aktivistengruppen bis hin zu den Nicht-Regierungsorganisations-Giganten wie Greenpeace und WWF hat die Umweltbewegung während der letzten 20 Jahre zu ihrem Leitmotiv erhoben, den Planeten vor der globalen Erwärmung zu erretten. Das hatte zwei verheerende Folgen. Eine davon ist, dass radikale Umweltaktivisten unablässig daran gearbeitet haben, sowohl in der Öffentlichkeit als auch im Bildungssystem Falschinformationen zu verbreiten. Die zweite ist, dass den Politikern gar nichts anderes übrig blieb, dieser Linie zu folgen, jedenfalls angesichts der Beeinflussung [propagandization] der öffentlichen Meinung und junger Leute und auch durch starke Lobbyarbeit von durch Eigeninteresse geleiteten Gruppen wie Forschungswissenschaftlern der Regierung sowie durch alternative Energieversorger und Finanzakteure. Was auch immer ihre primäre politische Philosophie ausmacht, alle aktiven PolitikerInnen werden Tag für Tag von dem Gedanken beherrscht, die grüne Einschüchterung zu beschwichtigen, denen sie und ihre WählerInnen ständig ausgesetzt sind.

Drittens, und das wiegt vielleicht am schwersten, mit nur wenigen Ausnahmen haben die einschlägigen Medien eine uneingeschränkte Unterstützung für Maßnahmen verbreitet, die „globale Erwärmung zu stoppen“. Dieses Verhalten scheint getrieben von einer Kombination liberaler und grüner persönlicher Ansichten der meisten Reporter und dem kommerziellen Gespür erfahrener Herausgeber, die verstehen, dass eine alarmistische Berichterstattung sowohl für bessere Verkaufszahlen des Produktes als auch für zusätzliche Werbeeinnahmen sorgt.

Aber angesichts dessen, dass die Wissenschaft unsicher bleibt, sollten wir dann nicht der Erde den Vorteil des Zweifels zukommen lassen?

[Original: But given that the science remains uncertain, shouldn’t we give earth the benefit of the doubt?]

Dieser berühmte Slogan (und man beachte die absichtlich emotionsgeladene Wortwahl) wird dem Medienmogul Rupert Murdoch zugeschrieben. Er enthält alle Kennzeichen, von einer grünen Gruppe oder Werbeagentur verfasst worden zu sein. Die eingängige Phrase enthüllt auch ein ausgeprägtes Missverständnis der wirklichen Klimarisiken, denen unsere Gesellschaft gegenüber steht, weil sie annimmt, dass die globale Erwärmung gefährlicher ist als eine globale Abkühlung, in Wirklichkeit ist es aber wohl umgekehrt.

Es muss beachtet werden, dass die theoretische Gefahr einer gefährlichen, vom Menschen verursachten globalen Erwärmung nichts als ein kleiner Teil einer viel größeren Klimagefahr ist, bei der auch alle Wissenschaftler übereinstimmen, nämlich die gefährlichen Wetter- und Klimaereignisse, mit denen uns Mutter Natur immer wieder beschert und immer wieder bescheren wird. Die Beispiele der Hurrikane Kathrina 2005 in New Orleans und Sandy 2012, die Überschwemmungen 2007 in UK und die tragischen Buschfeuer in Australien 2003 (Canberra), 2009 (Victoria) und im Januar dieses Jahres (verbreitet) haben absolut klar gemacht, dass die Regierungen selbst von wohlhabenden, entwickelten Ländern oftmals ungenügend auf klimabezogene Katastrophen natürlichen Ursprungs vorbereitet sind.

Das müssen wir besser machen, und das Verschleudern von Geld als präventive Maßnahme gegen eine ungerechtfertigte Vermutung, dass nämlich eine gefährliche Erwärmung demnächst einsetzen wird, ist genau der falsche Weg für eine solche Verbesserung.

Weil viele Wissenschaftler einschließlich führender Sonnenphysiker gegenwärtig erklären, dass die Lage der Erde bzgl. solarer Zyklen impliziert, dass der wahrscheinlichste Klimatrend der kommenden Jahrzehnte der einer signifikanten Abkühlung sein wird, und nicht Erwärmung. Mittlerweile versichern uns die Computermodellierer des IPCC mit all ihrer Autorität, dass die globale Erwärmung in Kürze wieder einsetzen wird – man muss nur abwarten.

Die Wirklichkeit ist, dass kein Wissenschaftler auf diesem Planeten mit glaubwürdiger Wahrscheinlichkeit sagen kann, ob das Klima im Jahr 2030 kälter oder wärmer als heute sein wird. Unter diesen Umständen kann die einzige rationale Schlussfolgerung nur lauten, dass wir uns sowohl auf eine Erwärmung als auch auf eine Abkühlung vorbereiten müssen, je nachdem, was Mutter Natur für uns auswählt.

Wie kann man am Besten weiter vorgehen?

Wenn wir das zukünftige Klima nicht vorhersagen können, brauchen wir dann überhaupt noch eine nationale Klimapolitik?

Aber sicher, ist es doch die erste Pflicht der Regierung, ihre Bürger und die Umwelt vor den Verwüstungen natürlicher Klimaereignisse zu schützen. Was gebraucht wird, sind nicht unnötige oder sträfliche Maßnahmen gegen Kohlendioxid-Emissionen, sondern eine umsichtige und kosteneffektive Politik zur Vorbereitung und als Reaktion auf alle Klimaereignisse und Gefahren, wann immer sie auftreten.

Wie Ronald Brunner und Amanda Lynch in ihrem jüngst erschienenen Buch Adaptive Governance and Climate Change geschrieben haben, dem auch viele andere Wissenschaftler zustimmen:

Wir brauchen eine adaptive Politik, die Programme zu Reaktionen auf gefährliche Klimaereignisse entwickelt und die Vielfalt und Innovation auf der Suche nach Lösungen ermutigt. Auf diese Weise kann das hoch umstrittene Problem der ‚globalen Erwärmung’ auf eine Thematik zurückgeführt werden, an der jede Kultur und jede Gemeinde rund um die Welt ein inhärentes Interesse haben muss.

Klimabedrohungen sind sowohl eine geologische als auch eine meteorologische Problematik. Geophysikalischen Gefahren begegnet man meistens, in dem man die Behörden der Zivilverteidigung und die Öffentlichkeit mit genauen, auf Beweisen basierenden Informationen versorgt, wenn es um so etwas wie Erdbeben, Vulkanausbrüche, Tsunamis Stürme und Überschwemmungen geht (die sowohl Klima- als auch Wetterereignisse repräsentieren) sowie durch Abschwächung und Anpassung an die Auswirkungen, wenn sie eintreten.

Das  GeoNet-Netzwerk zu Naturgefahren in Neuseeland ist das weltbeste Beispiel, wie man vorgehen sollte. GeoNet ist die nationale Gefahrenschutz- und –überwachungsbehörde. GeoNet betreibt Netzwerke mit geophysikalischen Instrumenten, um Erdbeben, vulkanische Aktivitäten, Erdrutsche und Tsunamis zu erfassen, zu analysieren und darauf zu reagieren. Das zusätzliche Risiko einer längerfristigen Klimaänderung, die GeoNet gegenwärtig nicht erfasst, unterscheidet sich von den meisten anderen Naturgefahren nur dadurch, dass sie in Zeitabschnitten von Dekaden bis zu hunderttausende von Jahren stattfinden. Dieser Unterschied ist nicht von Bedeutung und sollte auch nicht in unsere Planung zur Abwehr einfließen.

Die geeignete Antwort auf Klimagefahren ist demnach eine nationale Politik, die sich an alle Klimaereignisse anpasst und auf sie vorbereitet, wenn und sobald sie auftreten und unabhängig von deren Gründen. Jedes Land muss für sich eigene Pläne entwickeln, um mit einer Kombination von Klimagefahren innerhalb seiner Grenzen umzugehen. Die Planungen sollten auf  Anpassung basieren und auf Abschwächung der Folgen für Menschen, die auf unerwünschte Weise davon betroffen sind.

Der Gedanke, dass es eine einzige globale Lösung für nur einen einzigen möglichen Aspekt einer zukünftigen Klimaänderung gibt, wie es vom IPCC verlangt und von grünen Aktivisten und den meisten Kommentatoren in den Medien bevorzugt wird, scheitert vollkommen, mit den wirklichen Klima- und mit dem Klima zusammen hängenden Gefahren umzugehen, denen wir jeden Tag ausgesetzt sind.

Prof. Dr. Robert (Bob) Carter


—————————————————————————————————————

[Wegen der zahlreichen Eigennamen verzichte ich hier auf eine Übersetzung von Carters folgender Biographie:]

Robert (Bob) Carter is a marine geologist and environmental scientist with more than 40 years professional experience who has held academic positions at the University of Otago (Dunedin) and James Cook University (Townsville), where he was Professor and Head of School of Earth Sciences between 1981 and 1999. His career has included periods as a Commonwealth Scholar (Cambridge University), a Nuffield Fellow (Oxford University) and an Australian Research Council Special Investigator. Bob has acted as an expert witness on climate change before the U.S. Senate Committee of Environment & Public Works, the Australian and N.Z. parliamentary Select Committees into emissions trading, and was a primary science witness in the U.K. High Court case of Dimmock v. H.M.’s Secretary of State for Education, the 2007 judgement from which identified nine major scientific errors in Mr Al Gore’s film “An Inconvenient Truth“. Carter is author of the book, Climate: the Counter Consensus (2010, Stacey International Ltd., London).

Link: http://wattsupwiththat.com/2013/01/30/global-warming-anthropogenic-or-not/

Übersetzt von Chris Frey EIKE




VDI Berlin-Brandenburg Veranstaltung: Energiewende – Energiewunder?

Energiewende – Energiewunder?

am Donnerstag, den 21. Februar 2013, 18.00 Uhr im Magnus-Haus, Am Kupfergraben 7, 10117 Berlin

In Beiträgen und in einer Podiumsdiskussion sollen Energiewendeszenarien und ihre Auswirkungen auch auf die Region Berlin-Brandenburg beleuchtet werden.

Auftakt-Referat:

Dipl.-Ing. Ulrich Meyer Teamleiter Energie, ZAB Zukunftsagentur Brandenburg

„Ziele der Energiestrategie 2030 für Brandenburg und des Berliner Energiekonzepts 2020, Darstellung des in Brandenburg erreichten Standes“

Einleitende Kurzbeiträge:

Dipl.-Ing. Sascha Hermann Dipl.-Ing. Michael Limburg

Es diskutieren:

Dr. Bernd Benser; 
Dipl.-Ing. Markus Czerner; Dipl.-Ing. Sascha Hermann; Dipl.-Ing. Michael Limburg

Moderation:

Thomas Prinzler. 
Im Anschluss besteht bei einem Buffet Gelegenheit zu persönlichen Gesprächen und Diskussionen.

Wegen der begrenzten Zahl von Plätzen im Magnus-Haus bitten wir um Anmeldung, 

Anmeldung zur Veranstaltung aus der Reihe „Technik und Gesellschaft“ am 21. Februar 2013 Anmeldeschluss: 18. Februar 2013

Name:_______________________ Vorname: _______________________

Ansprechpartner:

E-Mail-Adresse: Fax

Dr. Werner Nickel
 VDI Landesverband Berlin und Brandenburg Reinhardtstraße 27 b
10117 Berlin

bv-berlin-brandenburg@vdi.de + 49 (0) 30 34 10 261




Todesspirale des EU-CO2- Zertifikatehandels dreht sich weiter

Reuters: Deutsche Bank gibt den Kohlenstoff-Zertifikatehandel auf

Die Deutsche Bank hat ihren globalen Kohlenstoff-Emissionshandel geschlossen, sagte ein Mitglied des Direktoren-Gremiums [board of directors] der Investment-Bank. Quelle: http://www.pointcarbon.com/news/1.2162216.

Zusätzlich zum Preisverfall auf einen Wert unter den Preis eines Sackes mit Briketts könnte es etwas mit dieser Untersuchung zu tun haben:

Der Name des Vizevorsitzenden der Deutschen Bank wurde bei einer Untersuchung zur Kohlenstoffsteuer namentlich erwähnt.

Zwei Mitglieder des Gremiums bei der Deutschen Bank, einschließlich des Vizedirektors der Kreditvergabe wurden in eine polizeiliche Untersuchung über Steuerhinterziehungen gezogen, die mit dem Kohlenstoffhandel der Gruppe zusammen hängen. Quelle: http://www.telegraph.co.uk/finance/newsbysector/banksandfinance/9740904/Deutsche-Bank-co-chief-named-in-carbon-tax-investigation.html

Inzwischen hat der Kohlenstoff-Zertifikatemarkt am 30.1.13 mit einem neuen Rekord-Tiefststand geschlossen, und zwar mit einem Wert um 8% unter dem des Vortages.

Es sieht so aus, als habe der EU-Kohlenstoff-Zertifikatemarkt bei Handelsschluss heute etwa die Hälfte seines Wertes seit dem Spitzenwert Anfang Januar verloren.

Beim Experiment des Kohlenstoffhandels in Neuseeland sieht es auch nicht gut aus:

Kohlenstoff-Zertifikate Neuseelands erreicht neuen Rekordtiefstwert inmitten stabiler Verfügbarkeit.

Spot-Zertifikate im Emissions-Zertifikatehandel in Neuseeland fielen um 6,5% Woche für Woche bis zu einem Wert von 2,45 NZ-Dollar, der niedrigste jemals aufgetretene Wochenpreis, während frischer Nachschub immer noch seinen Weg in den Markt findet. Quelle: http://www.pointcarbon.com/news/1.2161391

Aktualisierung: Der Markt wurde heute mit einem weiteren Rekordverlust geschlossen. Seit Januar 2013 war es ein Rückgang um fast 50%.

31. Januar 2013, Anthony Watts

Link: http://wattsupwiththat.com/2013/01/31/eu-carbon-death-spiral-continues/

Übersetzt von Chris Frey EIKE, der nicht sicher ist, ob er die ganzen Wirtschafts-Fachausdrücke richtig übersetzt hat.




Das sich ändernde Klima der Klimaänderung

Bild rechts: Nehmen wir ein Ende in Feuer oder in Eis?

Nach der Wiederwahl von Barack Obama erklärten seine radikalen Mitläufer „das ist unsere Zeit“. Gleichzeitig beschleunigten sie ihre Bemühungen, die Gesellschaft zurück in eine ärmere Periode zu transformieren, als Energie noch nach Pferdestärken definiert worden ist und Wohlstand ein ferner Traum war. Der Präsident manövrierte sich aus diesem Klima-Morast heraus und zog es vor, seine Environmental Protection Agency EPA das „Problem“ bearbeiten zu lassen, abseits öffentlicher Prüfung.

Inzwischen haben wir ganze Stürme des Alarmismus’ erlebt. Das öffentliche Fernsehen erklärte, dass der Hurrikan Sandy in das zu erwartende Schema einer sich erwärmenden Welt passt, trotz der Tatsache, dass das Auftreten starker Hurrikane dramatisch um die Hälfte zurückgegangen ist, verglichen mit der kälteren Zeit der fünfziger Jahre. Kolumnist Paul Krugman von der New York Times und zwei Philosophie-Professoren an der Oregon State University unterstrichen ihre intellektuelle Überlegenheit über „Kreationisten“ und „Leugner“ (“Rejecting science that crosses faith,” Paul Krugman, Nov. 24, 2012“Exposing the logic of climate change denial,” Michael P. Nelson and Kathleen Dean Moore, Dec. 2, 2012). Und der Reporter Beth Borenstein von der Associated Press jubelte, dass seine unablässige Klima-Propaganda in die amerikanische Psyche einsinke.

Wie zur Bestätigung dessen stellte sich der Republikaner James L. Huffman „Beweise durch Überreden“ einer menschlichen Beteiligung an der globalen Erwärmung vor (“Are all doubters really ‘hapless’ or ‘greedy’?” Dec. 10, 2012) [etwa: Sind alle Zweifler ‚unglücklich‘ oder ‚habgierig‘?]. Angus Duncan und Jack Roberts waren sich sicher, dass ihre Windmühlen der kommenden Klimakatastrophe entgegen wirken (“Keeping climate science and climate politics apart,” Nov. 11, 2012). [etwa: Unterscheidung zwischen Klimawissenschaft und Klimapolitik]. Und auf der jährlichen Klima-Sèance in Doha hörte man unter den Delegierten, die sich an dem von fossilen Treibstoffen zur Verfügung gestellten opulenten Luxus erfreuten, endlose Rufe nach Action. Der einzige vernünftige Kommentar kam von Huffman, der ein Defizit hinsichtlich wissenschaftlicher Arbeit einräumte (als er seine wissenschaftliche Meinung kund tat).

Echte Wissenschaft ist weit entfernt von dem, was Amateure denken. Die Probleme mit der klassischen Treibhausgas-Theorie entgehen denen, die Wissenschaft als Politik (Konsens) oder als Religion (Glaube) ansehen.

Wissenschaftler wissen, dass es nur auf Logik und Beweise ankommt. Der gegenwärtig große Besorgnis hervor rufende Beweis ist seit 15 Jahren die Weigerung der globalen Temperatur zu steigen. Sie schwankt vor und zurück, wie man es auf einem Planeten mit riesigen Ozeanen und einer Atmosphäre erwartet, die beide niemals im Gleichgewicht sind. Aber sie erwärmt sich nicht so, wie Einige angesichts des langsam steigenden atmosphärischen CO2-Gehaltes behauptet haben. Als Konsequenz zeigen sich Risse in der wissenschaftlichen Fassade, die das Dogma stützen.

Das Lesen der Nachrichten [proceedings] der National Academy of Sciences gleicht sehr dem Lesen der Prawda zur Zeit des Kalten Krieges: Man sucht nicht nach Glauben, sondern nach Hinweisen auf Änderungen. In einem kürzlichen Paper (nicht begutachtet) priesen neu gewählte Mitglieder ihren Glauben, dass sie den „Fingerabdruck“ von Treibhausgasen gefunden hätten. Dennoch räumten sie eine beachtliche Diskrepanz mit den Beobachtungen ein, ein schlimmes Ding in einer rationalen Welt. Und tief in der letzten Tabelle zusätzlicher Informationen begraben lag der Beweis, dass ihre Klimasimulationen grandios gescheitert sind.

Vielleicht war dies der Grund, der das IPCC dazu gebracht hat, einen Satz in seinen jüngsten Entwurf einzufügen des Inhalts, dass die Sonne eine größere Rolle spielt als ursprünglich gedacht. Wenn die NOAA jetzt zugibt, dass der gegenwärtige Sonnenzyklus weit unter dem Grand Maximum solarer Zyklen der letzten zwei Jahrhunderte liegt; wenn die amerikanischen Sonnenphysiker William Livingston und Matthew Penn auf ein Zusammenbrechen des solaren Magnetfeldes hinweisen; und wenn der russische Astrophysiker Habibullo Abdussamatov sagt, dass das Kohlendioxid „unschuldig“ ist und eine längere Abkühlungsphase für dieses Jahrhundert vorhersagt, ist es dafür höchste Zeit.

Die voran gegangenen Warmzeiten (die mittelalterliche, die römische und die minoische Warmzeit) hatten wahrscheinlich die gleichen natürlichen Ursachen wie die gegenwärtige Warmzeit. Folglich sollten wir ein Jahrhundert der Abkühlung erwarten, in dem die Erwärmung des 20. Jahrhunderts nachhaltig umgekehrt wird. Die Temperatur-Rekonstruktionen aus Eisbohrkernen aus Grönland zeigen, dass genau das auch zuvor schon der Fall war.

Obwohl die Öffentlichkeit wenig über Wissenschaft weiß und zu leicht auf Schwindel hereinfällt, wissen die Wissenschaftler, dass sie nicht an Theorien kleben bleiben können, die den Beweisen so eklatant widersprechen, selbst wenn eine enorme Freigebigkeit der Regierung die Balance zugunsten der Theorien neigt. Diejenigen, die einen Faustischen Pakt geschlossen haben, fangen an sich Sorgen zu machen, dass der Teufel eines Tages kommen wird, um seinen Lohn einzufordern.

Gordon J. Fulks, PhD (Physics), Corbett, Oregon USA, Quelle: The Oregonian

Gordon J. Fulks lives in Corbett and can be reached at gordonfulks@hotmail.com. He holds a doctorate in physics from the University of Chicago, Laboratory for Astrophysics and Space Research. 

Link: http://sppiblog.org/news/the-changing-climate-of-climate-change#more-9046

Übersetzt von Chris Frey EIKE




Strompreise: Auch Wärmepumpen jetzt unwirtschaftlich!

Vor wenigen Tagen erreicht mich die folgende Mail. Wir wollen sie unseren Lesern,mit Einverständnis des Absenders, nicht vorenthalten.

Sehr geehrte Herr Limburg,

seit Anfang der 1980er Jahre beheizen wir unser Einfamilienhaus mit einer Luft-Wasser-Wärmepumpe. Dabei hat die gewählte Wärmepumpentechnik bis heute nicht versagt. Dennoch werden wir in der kommenden Heizperiode unsere noch vorhandene Öl-Heizung reaktivieren. Ende des vergangenen Jahres wurde der Wärmepumpenstrom-Preis von derzeit 14,34 Ct/kWh auf 21,48 Ct/kWh angehoben. Dazu kommen noch jeweils 0,71 Ct/kWh als Mess- und Schaltpreis. Bei einer mittleren Leistungszahl derWärmepumpe von 2,5 rechnet sich der äquivalente „Heizölpreis“ zu 88,76 Ct/l (10 kWh entsprechen 1l Heizöl). Dagegen betrug der Heizölpreis am 8. Januar 2013 86,60 Ct/l    

In den vergangenen 12 Jahren ist der Preis für Wärmepumpenstrom von 7,2 Ct/kWh auf die genannten 21,48 Ct/kWh gestiegen. (Hervorhebung hinzugefügt Anm. d. Redaktion) Ein Wechsel zu einem anderen Versorger  von Wärmepumpenstrom ist aus technischen Gründen (Abschaltmöglichkeit durch den Versorger) nicht möglich.

Mit freundlichen Grüßen

Dr.-Ing. Rolf Diederichs

Bue 18

47877 Willich




Zehn Punkte eines Zweifelnden

Wessen es bedarf, mich zu überreden, dass die gegenwärtige Klimapolitik sinnvoll ist.

Seit über 25 Jahren habe ich über Klimaänderung und Energiepolitik geschrieben. Ich bin zu der Schlussfolgerung gekommen, dass die gegenwärtige Energie- und Klimapolitik sowohl ökonomisch als auch ökologisch gefährlicher ist als die Klimaänderung selbst. Das ist nicht das Gleiche wie das Argument, dass sich das Klima nicht verändert hat oder die Menschheit nicht teilweise dafür verantwortlich ist. Dass sich das Klma wegen des anthropogenen CO2 verändert hat, akzeptiere ich. Was ich nicht akzeptiere ist, dass die Änderung schädlich ist oder sein wird oder dass die gegenwärtige Politik daran etwas ändern wird.

Zum Wohle der Befürworter der Politik zur Klimaänderung, die sich durch Leute wie mich frustriert fühlen, der ich zögere, ihren Versicherungen Glauben zu schenken, benenne ich hier, was sie tun müssen, um meine Meinung zu ändern.

1. Man muss mich davon überzeugen, dass der städtische Wärmeinsel-Effekt UHI aus den Temperaturaufzeichnungen vollständig herausgefiltert worden ist. Die Satelliten zeigen weniger Erwärmung als die Thermometer am Boden, und es gibt Beweise dafür, dass die lokale Erwärmung wachsender Städte sowie die ungeeignete Aufstellung der Thermometer immer noch die globale Aufzeichnung verfälschen. Man muss mich auch davon überzeugen, dass die Adjustierungen seitens jener, die die globalen Temperaturaufzeichnungen zusammen stellen, gerechtfertigt sind. Allein seit 2008 hat die NASA zum Trend etwa 0,1°C hinzu addiert, und zwar durch nicht erklärte „Adjustierungen“ an ältere Aufzeichnungen. Es ist wenig Vertrauen erweckend, dass eine der wesentlichen Temperaturaufzeichnungen von einem Extremisten stammt, der sich darauf vorbereitet, verhaftet zu werden (James Hansen).

2. Trotz diesen beiden verzerrenden Faktoren bleibt der Temperaturtrend moderat: nicht viel mehr als 0,1°C pro Dekade seit 1979. Also muss man mich davon überzeugen, dass Wasserdampf den CO2-Effekt in der Zukunft um das Dreifache verstärkt, was bisher noch nicht der Fall war. Dies jedenfalls geht aus den Modellen hervor, trotz der Beweise dafür, dass aus Wasserdampf entstandene Wolken irgendeine Erwärmung eher abschwächen als verstärken.

3. Ich bin auch nicht davon überzeugt, dass Schwefel-Aerosole und die Wärmeaufnahme der Ozeane die Lücke erklären können, die sich zwischen den Modellvorhersagen und tatsächlichen Beobachtungen während der letzten 34 Jahre aufgetan hat. Beides ist inzwischen gut erforscht und bietet nur eine unzureichende Erklärung für dieses Fehlverhalten. Negative Wolken-Rückkopplungen, die die Gesamt-Rückkopplung moderat halten, sind eine plausiblere Erklärung.

4. Der einzige Trend, der schlimmer war als erwartet – beim arktischen Meereis – wird plausibel durch Ruß und nicht durch Kohlendioxid erklärt. Ruß aus schmutzigen Dieselmotoren und Kohlekraftwerken wird inzwischen als ein viel größerer Faktor bzgl. der Klimaänderung angesehen; es ist ein kurzlebiger Verschmutzer, gegen den man eher einfach auf lokaler Ebene als im globalen Maßstab vorgehen kann. Also muss man mich davon überzeugen, dass dieses Ergebnis, das etwas von der gegenwärtigen Klimaänderung erklären kann, die wahrscheinliche Sensitivität der Atmosphäre hinsichtlich des CO2 nicht noch weiter reduziert. Mit Sicherheit „kaufen wir damit Zeit“.

5. Selbst das Met Office räumt inzwischen ein, dass das Fehlen des Temperatur-Stillstands der letzten 16 Jahre in den Modellvorhersagen ein Beweis dafür ist, dass natürliche Faktoren genauso wichtig sind wie anthropogene Faktoren. Wir wissen jetzt, dass das Niveau und die Rate der Temperaturänderung heute im Vergleich zum Mittelalterlichen, Römischen und Holozän-Klimaoptimum nichts ist, was noch nie vorgekommen ist. Zu jenen Zeiten hat sich der CO2-Gehalt nicht wesentlich verändert, wohl aber die Temperatur. Man muss mich davon überzeugen, dass hinsichtlich ihrer Auswirkungen natürliche Faktoren in Zukunft deutlich hinter den anthropogenen Faktoren zurück bleiben.

6. Wir wissen, dass die Erwärmung bisher dazu geführt hat, dass die globale Vegetation und die Niederschlagsmenge zugenommen haben, dass Wachstumsphasen verlängert worden sind, dass es dadurch nur minimale ökologische Veränderungen gegeben hat und dass sie keine Auswirkung auf Extremwetterereignisse hatte. Angesichts dieser Umstände muss man mich überzeugen, dass die zukünftige Erwärmung schnell und stark genug ausfällt, um insgesamt mehr Schaden als Nutzen zu bringen. Die Modelle zeigen eine hohe Wahrscheinlichkeit für eine Temperaturänderung unter 2°C, und das wird von fast jedermann als vorteilhaft angesehen [„unless water-vapour supercharged“. ?]

7. Auch ist keineswegs klar, dass sich Ökosysteme und die Menschen nicht anpassen können, weil es klare Beweise gibt, dass Anpassung schon jetzt die Schäden des jetzigen Klimas erheblich reduziert haben – es gab beispielsweise seit den zwanziger Jahren eine Reduktion von 98% der Wahrscheinlichkeit, bei Dürren, Überschwemmungen oder Stürmen zu Tode zu kommen, und die Malaria hat sich rapide zurück gezogen, selbst während des Temperaturanstiegs im 20. Jahrhundert.

8. Daher kann ich nicht erkennen, warum diese relative arme Generation die Kosten von Schäden tragen soll, die sich nicht vor dem Erscheinen einer weitaus reicheren zukünftigen Generation zeigen, jedenfalls nicht in größerem Umfang als die Menschen im Jahr 1900 Opfer hätten bringen sollen, um uns heute ein wenig reicher zu machen. Oder warum die heutigen Armen durch Subventionen mittels ihrer Stromrechnungen die heutigen Reichen unterstützen sollen, die diese Subventionen für Windparks einstreichen, obwohl diese weniger als 0,5% des Stromes dieses Landes erzeugen.

9. Tatsächlich muss man mich überreden, dass die überstürzte Hinwendung zu den Erneuerbaren die Emissionen reduzieren kann anstatt sie zu erhöhen; es ist keineswegs sicher, dass der von der Klimapolitik gewollte vermehrte Verbrauch von Bioenergie wie Ethanol aus Holz oder Mais die Emissionen nicht eher verstärkt. Inzwischen hat der Schiefergas-Boom in den USA dort zu einer erheblich stärkeren Reduktion der Emissionen geführt als jede andere Technologie, und dennoch wird jeder Schritt auf diesem Weg durch die Klimaalarmisten behindert.

10. Und schließlich: man kann das Argument vorbringen, dass selbst eine geringe Wahrscheinlichkeit einer sehr gewaltigen und gefährlichen Änderung des Klimas schon heute drastische Aktionen rechtfertigt. Aber ich würde darauf antworten, dass eine sehr kleine Wahrscheinlichkeit einer sehr großen und gefährlichen Auswirkung durch Übernahme erneuerbarer Energie im großräumigen Maßstab, reduziertes Wirtschaftswachstum durch Kohlenstoff-Steuern oder Geo-Engineering nicht extreme Vorsicht rechtfertigt.

Derzeit scheint es höchst wahrscheinlich, dass die Medizin schlimmer ist als die Krankheit. Wir nutzen eine Chemotherapie zur Bekämpfung eines Schnupfens.

Der gesamte Artikel nebst Graphiken und Referenzen ist hier.

Dr Matt Ridley

Matt Ridley war Wissenschaftler, Journalist und Geschäftsmann. Mit BA und PhD von der Oxford University arbeitete er neun Jahre lang für den Economist als Wissenschaftsredakteur, Korrespondent in Washington und Amerika-Redakteur, bevor er ein selbständiger Autor und Geschäftsmann wurde. Er ist Autor zahlreicher Bücher, die sich inzwischen 900000 mal verkauft haben und in 30 Sprachen übersetzt worden sind. Er war nominiert für neun große Literaturpreise und hat mehrere Orden bekommen. Er ist Mitglied im Academic Advisory Council der GWPF.

Link: http://www.thegwpf.org/mett-ridley-lukewarmers-ten-tests/

Übersetzt von Chris Frey EIKE




Wenn der Staat subventioniert!

Mit seiner Solartechnik gerät jetzt auch ein grundsolides Unternehmen in Schwierigkeiten: der Elektrogerätehersteller Bosch.Ja, so geht es mit Produkten, die am Markt nur mit Staatshilfe unterzubringen sind, wie es der deutsche Staat mit dem (per Gesetz indirekt hoch subventionierten) Strom aus Sonnenlicht tut: Konkurrenten in anderen Ländern kriegen dergleichen schnell mit, legen kräftig los und schaffen es, jene Unternehmen, die staatlich gepäppelte Produkte herstellen, zu unterbieten. In diesem Fall ist es vor allem die Konkurrenz aus China.

Solarworld im Strudel, Siemens gibt auf, Bosch schreibt ab

Es geht um die in Deutschland hergestellten Produkte, mit denen das Sonnenlicht eingefangen wird: Solarzellen und Solarmodule zum Einsatz in Fotovoltaik-Anlagen.Deutschland ist für sie wegen seiner vergleichsweise hohen Arbeitskosten ein teurer Produktionsstandort. Das macht auch den mit ihnen erzeugten Solarstrom teuer, zu teuer. Freiwillig würde ihn kein Mensch kaufen.Deshalb drückt ihn das Erneuerbare-Energien-Gesetz  mit staatlicher Gewalt ins Stromnetz: mittels Abnahmezwang und Zwangsabnahmepreis, genannt Einspeisevorrang und Einspeisevergütung.*) Nur deshalb waren deutsche Solarzellen und –module überhaupt absetzbar – bis die chinesische Konkurrenz weit billiger lieferte.Seitdem leiden deutsche Hersteller an ihrer Überkapazität Not, etliche haben schon aufgegeben.Das einstige Vorzeigeunternehmen, die SolarWorld AG in Bonn, ringt ums Überleben,  Gläubigern droht nun der Schuldenschnitt.Siemens hat seinen verlustreichen Ausflug in die Stromerzeugung aus Sonnenlicht schon für beendet erklärt und den Verkauf der Solarenergie-Technik angekündigt.Und so hat es die Bosch Solar Energy AG ebenfalls getroffen.

Wer den staatlich eingebrockten Brei auslöffeln muss

Seit 2008 hatte der Konzern hier ein milliardenschweres Engagement aufgebaut.2012 musste er es komplett abschreiben.Das hat ihn 2012 über eine Milliarde Euro gekostet – 450 Millionen an operativem Verlust und 600 Millionen an Abschreibungen.So etwas ist auch für Bosch ein schwerer Brocken.Und für die Beschäftigten seiner Solartechnik-Sparte.Ja, so geht es, wenn sich Unternehmen auf staatlich subventionierten Absatz verlassen.Und wie immer sind es unschuldige Menschen, die  den staatlich eingebrockten Brei auslöffeln müssen: durch den Verlust ihrer künstlich geschaffenen Arbeitsplätze, in die sie hineingelockt wurden.

Was jetzt überhaupt nicht mehr natürlich ist

Auf der Web-Seite von Bosch-Solartechnik werden Arbeitsuchende sogar  nach wie vor zum “Einsteigen“ aufgefordert, und zwar so: „Sie sind Schüler, Student, Absolvent, Doktorand oder verfügen bereits über einschlägige Berufserfahrung und möchten sich den Herausforderungen einer spannenden Zukunftsbranche stellen? Wir bieten Ihnen vielfältige, interessante Möglichkeiten für Ihre berufliche Laufbahn.“ Nun, diese Zukunftsbranche ist auf Sand gebaut, auf staatlichen Sand. Die berufliche Laufbahn ist wohl besser woanders aufgehoben. Und weiter liest man: „Wir bieten ambitionierten Mitarbeitern individuelle, funktions-, branchen- und länderübergreifende Karrieremöglichkeiten.“ Nun, mit diesen Karrieremöglichkeiten ist es jetzt nichts mehr. Auch beginnt diese Solartechnik-Homepage von Bosch noch immer fett mit der Überschrift „Solarenergie? Natürlich von Bosch.“  Das ist jetzt überhaupt nicht mehr natürlich.

Zuerst erschienen im Blog von K.P. Krause hier

*) Zur grundsätzlichen Kritik an der Stromerzeugung aus Sonnenlicht siehe meinen Beitrag „Solarstrom – das Milliardengrab – Dieser Strom ist fehl- und übersubventioniert“ http://kpkrause.de/2010/03/18/solarstrom-%e2%80%93-das-milliardengrab/

Sie auch hier Auszug aus FinanzNachrichten.de :

Firmenchefs sehen Produktionsstandort Deutschland durch niedrige US-Energiepreise in Gefahr

Unternehmenschefs sehen den Produktionsstandort Deutschland durch die niedrigen Energiepreise in den USA in Gefahr. Sie betragen dort inzwischen nur noch ein Drittel des Niveaus in Deutschland.

„Das kann dramatische Folgen für die Wettbewerbsfähigkeit des produzierenden Gewerbes haben“, sagte Axel Heitmann, Chef des Chemiekonzerns Lanxess, dem „Handelsblatt“ (Freitagausgabe). „Viele Industriekonzerne planen, wegen der niedrigen Energiepreise neue Fabriken nicht mehr in Europa, sondern in den USA zu bauen“, sagte Gisbert Rühl, Chef des Stahlhändlers Klöckner, der Zeitung. „Wir reagieren darauf und planen selbst neue Geschäftseinheiten in den USA.“ Attraktiv ist eine Produktion in den USA vor allem für Unternehmen aus energieintensiven Branchen wie der Stahl- und Aluminiumproduktion oder der Chemie.




Ein Klima des Skeptizismus

Es gibt einige ziemlich klare Anzeichen einer wärmeren Welt. Das arktische Eis ist nicht mehr das, was es einmal war [3]. Viele Gletscher ziehen sich zurück [4]. Einige Gletscher – zum Beispiel am Kilimandscharo – schrumpfen, weil die langzeitliche Niederschlagsmenge nicht mehr das ist, was sie vor 150 Jahren war, und nicht, weil es wärmer ist [5]. Andere schrumpfen durch das wärmere Klima.

Der Punkt, in dem die Skeptiker sich von vielen anderen Wissenschaftlern unterscheiden, besteht darin, dass Letztere für die Erwärmung menschliche Aktivitäten verantwortlich machen – im Besonderen durch das Verbrennen fossiler Treibstoffe und der daraus resultierenden steigenden CO2-Konzentration in der Atmosphäre. Die Hypothese lautet, dass das CO2 infrarote Strahlung einfängt, die anderenfalls in den Weltraum entweichen würde. Dies bedeutet, dass ein Teil der von der Sonne einfallenden Energie nicht verloren geht und stattdessen zu einer Erwärmung des Globus‘ führt.

Die Physik, mit der das Kohlendioxid infrarote Strahlung zurück hält, ist gut bekannt [6]. Aber es gibt andere Moleküle in der Atmosphäre, die infrarote Strahlung ebenfalls zurück halten. Wasserdampf ist das vorherrschende „Treibhausgas“ [7]. Nicht so eindeutig ist das Ausmaß, mit dem die zurück gehaltene Energie Erwärmung bringt. Es gibt wunderbare mathematische Modelle, die behaupten zu zeigen, wie es zu der Erwärmung kommt. Unglücklicherweise weisen diese Modelle allesamt identifizierbare Unstimmigkeiten auf, worauf ich später noch eingehe.

Eine primäre Schwierigkeit der These von der anthropogenen Erwärmung besteht darin, dass nicht bekannt ist, wie viel von der Erwärmung natürlichen Ursprungs ist und wie viel davon dem Kohlendioxid zuzuschreiben ist. Das ist einfach zu illustrieren. Abbildung 1 zeigt die globale Temperaturaufzeichnung, wie sie vom Hadley Center an der University of East Anglia dargestellt wird [8].

Abbildung 1: Globale Temperaturen im Vergleich zum Mittel 1950-1990

Die globale Temperatur ist von 1850 bis 1860 zurück gegangen, dann bis 1880 gestiegen, bis 1910 zurück gegangen, gestiegen bis 1945, zurückgegangen bis 1980, gestiegen bis zum Jahr 2000, wonach sie wieder leicht zurück gegangen ist.

Abbildung 2 zeigt die Aufzeichnung von Kohlendioxid. Sorgfältige Messungen wurden auf dem Mauna Loa in Hawaii seit 1958 durchgeführt [9]. Das vorindustrielle Niveau des CO2-Gehaltes wird übereinstimmend mit etwa 280 ppm angenommen [10]. Abbildung 2 zeigt eine vernünftige Extrapolation der Daten bis hin zu einem Wert von 280 ppm im Jahr 1800.


Abbildung 2: Atmosphärische CO2-Konzentrationen, gemessen und geschätzt..

Es scheint vollkommen vernünftig, dass der gemessene Anstieg die Folge des Verbrauchs fossiler Treibstoffe ist. Abbildung 3 zeigt die jährlichen CO2-Emissionen mit der Zeit [11]. Im Jahr 1900 lagen sie bei knapp 2 Milliarden Tonnen pro Jahr, 1943 bei 5 Milliarden Tonnen. Danach gab es einen Rückgang, und die 5 Milliarden Tonnen wurden erst 1947 überschritten. Danach gab es einen rapiden Anstieg über 10 Milliarden Tonnen 1963, über 15 Milliarden Tonnen 1971, über 20 Milliarden Tonnen 1986 und 30 Milliarden Tonnen 2006.

Abbildung 3: jährliche CO2-Emissionen durch den Verbrauch fossiler Treibstoffe

Der Vergleich der Abbildungen 2 und 3 macht klar, dass der Anstieg des atmosphärischen Kohlendioxids fast mit Sicherheit direkt durch Emissionen fossiler Treibstoffe zustande gekommen ist. Allerdings macht das geringe Niveau der Jahre vor 1945 auch klar, dass der Einfluss der Verbrennung fossiler Treibstoffe vor 1945 sehr klein wenn nicht sogar vernachlässigbar gewesen sein muss. Daher sind die in Abbildung 1 gezeigten Änderungen der Temperaturen vor 1945 größtenteils natürlich. Der zusätzliche CO2-Eintrag durch menschliche Aktivitäten kann bei den Änderungen vor 1945 keine signifikante Rolle gespielt haben.

Wenn wirklich das meiste der Temperaturänderungen vor 1945 natürlichen Ursprungs war, dann ist es sehr schwierig zu bestimmen, wie viel der Temperaturänderungen nach 1945 natürlichen Ursprungs ist und wie viel davon dem zunehmenden CO2-Gehalt zuzuschreiben ist. Da erhebt sich die Frage, wie groß die natürliche Variabilität der Temperatur sein könnte.

Um diese Frage zu beantworten betrachten wir den Wostok-Eisbohrkern der letzten 9000 Jahre [12]. Der Bohrkern wurde für jeden Meter Tiefe analysiert, wobei jeder Meter im oberen Teil etwa 20 Jahre Akkumulation und in den unteren Schichten etwa 50 Jahre Akkumulation repräsentiert. Während eine solche Punktmessung keine gute Messung der mittleren globalen Temperatur ergeben kann, ermöglicht er eine vernünftige Messung der Änderungen der globalen Temperatur, und es sind ja vornehmlich die Temperaturänderungen, die hier interessieren.

Die entsprechenden Daten zeigt die Abbildung 4. Es gab während der letzten 9 Millenien eine leichte Abkühlung, wie die Linie der kleinsten Quadrate zeigt. Die Daten wurden daher vor der weiteren Analyse trendbereinigt – die mittlere Temperatur an irgendeinem Datum wurde zu der gemessenen relativen Temperatur addiert. Die trendbereinigten Temperaturen waren „normal verteilt“, d. h. es war nichts Anomales oder Verdrehtes darin. Dann wurde die Änderungsrate jeder trendbereinigten Temperatur und der Temperatur 100 ±20 Jahre zuvor berechnet und als Rate pro Jahrhundert ausgedrückt. Die Ergebnisse waren ebenfalls normal verteilt mit einer Standardabweichung von 0,94°C pro Jahrhundert.

Abbildung 4: Relative Temperaturen der letzten 9000 Jahre.

Folglich beträgt die Chance 2 : 1, dass die Temperatur bis zu 1°C pro Jahrhundert aus natürlichen Gründen variieren kann, aber nur eine solche von 1 : 10, dass sie natürlich um mehr als 1,9°C pro Jahrhundert variiert. Zwischen 1900 und 2000 variierte sie um etwa 0,9°C, was folglich innerhalb der Bandbreite der natürlichen Variation liegt. Und das, vereinfacht ausgedrückt, ist der Grund für Skeptizismus hinsichtlich der These, dass Kohlendioxid globale Erwärmung verursacht – es gibt kein klares Signal irgendeines solchen Erwärmungseffektes.

Allerdings behaupten die Befürworter der These von der anthropogenen Erwärmung, über Modelle zu verfügen, die zeigen, wie zusätzliches Kohlendioxid zu einer wärmeren Welt führt [13]. Es gibt massive Probleme mit diesen Modellen, von denen nicht das Kleinste die Tatsache ist, dass die Befürworter behaupten, die Verdoppelung des CO2-Gehaltes der Atmosphäre werde die Temperatur um über 3°C zunehmen lassen. Dies liegt weit oberhalb aller physikalischen Gründe [14]. Es resultiert aus Argumenten über die Auswirkungen von Wasserdampf in der Atmosphäre, von dem angenommen wird, dass er die Auswirkungen zusätzlichen CO2’ verschärft.

Der Verdoppelungseffekt ist bislang unsichtbar. Andere Schätzungen haben ergeben, dass eine Verdoppelung des CO2-Gehaltes die globale Temperatur um weniger als 1°C zunehmen lassen könnte [15]. Die Beweise hierfür formieren sich gerade. Zum Beispiel hat es seit 1945 eine CO2-Zunahme in der Atmosphäre um 40% gegeben, was eine Erwärmung um 1,2°C bewirkt haben müsste, wenn man der These von der Erwärmung um 3°C bei einer Verdoppelung folgt. Abbildung 1 zeigt jedoch, dass die derzeitige Erwärmung in diesem Zeitraum lediglich etwa 0,4°C betragen hat. Hat sich der Globus um 0,8°C abgekühlt, während uns das zusätzliche CO2 gewärmt hat? Das scheint unwahrscheinlich.

Es gibt weitere Gründe, den Modellen zu misstrauen. Zum Beispiel reproduziert Abbildung 5 die Abbildung 10.7 aus dem AR 4 des IPCC [16].

Abbildung 5: Modellvorhersagen globaler Temperaturänderungen: Atmosphäre oben, Ozeane unten

Die Gebiete reichen vom Südpol links bis zum Nordpol rechts. In der Atmosphäre wird die Höhe durch den Luftdruck repräsentiert, mit 1000 hPa auf Meeresspiegel-Niveau und 200 hPa in einer Höhe von 11 km. Die Schraffierung zeigt Gebiete, in denen alle Modelle in engen Grenzen übereinstimmen.

Das besondere Interesse richtet sich auf die ‚Blase’ über dem Äquator in einer Höhe von etwa 200 hPa. In den Jahren 2011 bis 2030 ist sie weniger als 1,5°C über den heutigen Temperaturen am Boden [?]. Bis zum Zeitraum 2046 – 2065 wird eine Erwärmung um 3°C und von 2080 bis 2099 von etwa 5°C erwartet. Folglich müsste es sich in dieser Region um etwa 0,6°C pro Dekade erwärmen, wenn man den Modellen glauben soll.

Während etwa der letzten 60 Jahre sind Instrumente tragende Ballone bis in diese Region aufgestiegen, um Daten für die Wettervorhersage zu gewinnen. Eine Untersuchung der Temperaturaufzeichnungen hat bisher keinerlei Erwärmung gezeigt [17]. Satelliten sind seit Ende der siebziger Jahre in Betrieb, und einige ihrer Sondierungen durch die Atmosphäre hindurch können als mittlere Temperatur bestimmter Regionen interpretiert werden [18]. Die Satelliten zeigen eine sehr geringe Erwärmung – aber nichts auch nur annähernd von 0,6°C pro Dekade.

In der Wissenschaft kann ein einzelnes Experiment ausreichen, um eine Theorie zu bestätigen, falls das Experiment zu einem unerwarteten Ergebnis führt, wie es von der Theorie vorhergesagt worden ist. Die Allgemeine Relativitätstheorie von Einstein im Jahr 1915 musste bis zum Jahr 1019 auf eine experimentelle Bestätigung und die nachfolgende verbreitete Akzeptanz warten. Genauso sollte aber jede Theorie, deren Vorhersagen durch Experimente widerlegt werden, ohne wenn und aber verworfen werden. Im gegenwärtigen Fall hat die These der anthropogenen Erwärmung zu theoretischen Modellen geführt, aber diese Modelle sind experimentell gescheitert. Der Glaube an die anthropogene Erwärmungsthese ist jedoch so stark, dass sich die Modellierer in höchstem Maße sträuben, ihre Modelle zu verwerfen – oder auch nur zu überarbeiten. Das ist einer der gewichtigsten Gründe für Skeptizismus.

Die Anthropogen-These führte auch zu vielen Vorhersagen möglicher Bedingungen in einer wärmeren Welt. Einige davon wie beispielsweise der Einfluss auf die Kryosphäre scheinen ausgetragen zu sein [seem to be borne out]. Allerdings beschreiben die Modelle, die wie vorher schon gesagt hoch verdächtig sind, solche Dinge wie dramatische Änderungen des Niederschlags. Der Beweis ist vernachlässigbar.

Zum Beispiel gibt es eine sehr lange Reihe der Niederschlagsmenge für England und Wales, dargestellt in Abbildung 6 [19]. Es gibt absolut kein Anzeichen für irgendeine Änderung der Niederschlagsverteilung während der letzten 60 Jahre. Während der gesamten Periode lag das 25-jährige Mittel bei 913 ±18 mm. Diese 18 mm sind die maximale Abweichung, nicht die Standardabweichung!

Abbildung 6: eine 240-jährige Aufzeichnung der Niederschlagsmenge.

Ebenso gibt es wiederholte Hinweise darauf, dass der Meeresspiegel infolge des Schmelzens von Eis und der Erwärmung der Ozeane rapide steigen wird (warmes Wasser hat eine geringere Dichte als kaltes Wasser, so dass es ein größeres Volumen einnimmt). Es stimmt, dass der Meeresspiegel steigt, aber man sucht vergeblich nach irgendeinem Beweis, dass er nach 1945 signifikant schneller gestiegen ist als davor. Abbildung 7 zeigt dies, und zwar durch Tidenmessungen in New York, die bis zum Jahr 1858 zurück reichen mit einer Lücke von 1879 bis 1892 [20]. Die Regressionsgerade von 1870 bis 2011 weist eine Steigung von 2,947 mm pro Jahr, diejenige von 1945 bis 2011 eine Neigung von 2, 948 mm pro Jahr auf. Es gab keine signifikante Zunahme der Rate des Meeresspiegelanstiegs in New York während der letzten 140 Jahre.

Abbildung 7: eine 150 Jahre lange Aufzeichnung des Meeresspiegels.

Viele der Befürchtungen hinsichtlich eines Anstiegs des Meeresspiegels sind unbegründet. Ja, der Meeresspiegel steigt langsam. Satellitenmessungen seit Anfang der neunziger Jahre bestätigen eine Anstiegsrate von etwa 3 mm pro Jahr [21]. Allerdings gibt es bereits Abwehrmaßnahmen gegen das Meer. Es ist notwendig, sich gegen Spring- und Sturmfluten und sogar Tsunamis zu schützen. Die bestehenden Gefahren werden in Metern und nicht in Millimetern gemessen. Einer Zunahme des mittleren Niveaus um 3 mm pro Jahr kann man begegnen, wenn man Schutzmauern um eine Reihe von Ziegelsteinen alle 30 Jahre erhöht. Der steigende Meeresspiegel ist keine Bedrohung.

Natürlich gibt es Ereignisse, bei denen sich die Schutzmaßnahmen als ungeeignet erweisen. Das war der Fall beim Hurrikan Kathrina in New Orleans. Viele Jahre zuvor wurde schon berichtet, dass die Deiche einem solchen Ereignis wahrscheinlich nicht standhalten werden. Sie waren alt und ließen Modernisierungen vermissen. Sie haben wie erwartet beim Eintreffen der Sturmflut versagt. Ihr Versagen jedoch hat nichts mit dem Anstieg des Meeresspiegels zu tun, sondern ausschließlich mit fehlenden Schutzmaßnahmen.

Allerdings gibt es wiederholte Hinweise in der Literatur, dass das Versagen der Deiche eine Folge der „Klimaänderung“ sei. Dies illustriert eine Seite der Debatte, die den Skeptizismus verstärkt. Katastrophen, die nichts mit einem sich ändernden Klima zu tun haben, werden der „Klimaänderung“ zugeschrieben als ein Mittel, die Aufmerksamkeit auf die vermeintlichen Katastrophen aufrecht zu erhalten.

Nichts illustriert diesen Aspekt der Debatte besser als die fortgesetzte Betonung von „Extremereignissen“. Ein heftiger Sturm wie kürzlich Sandy, der New York betroffen hat, wird sofort als ein Beweis für die „Klimaänderung“ herangezogen.

Das Wetter war jedoch schon immer variabel. Die Energie jedes natürlichen Phänomens hat eine große Bandbreite. Viele Phänomene wie z. B. die Regenmenge werden am besten durch eine Verteilung beschrieben, die sehr stark verzerrt ist. Solche Verteilungen sind ziemlich wenig eingängig für die Definition, was „extrem“ eigentlich ist.

Das Problem besteht darin zu bestimmen, wie weit die ‚normale’ Bandbreite reicht; eine Bestimmung, die wesentlich dafür ist, ein Ereignis als anomal oder ‚extrem’ zu beschreiben, d. h. dass es außerhalb der normalen Bandbreite liegt. Eine Menge Daten sind erforderlich zur Definition dessen, was ‚normal’ ist, wobei diese Daten über einen langen Zeitraum gesammelt werden müssen. Dieser lange Zeitraum kann länger als die Lebensdauer eines Menschen sein. Falls dem so ist, können nur wenige lebende Individuen wirklich „extreme“ Ereignisse erlebt haben – und ein Ereignis deutlich weniger als extrem kann als ein Extremereignis angesehen werden, obwohl es das gar nicht ist.

Im Falle des Sturms Sandy gab es eine Zustandsbeschreibung der Intensität aller Hurrikane und „außertropischen Stürme“ (ein solcher war Sandy), die auf das US-Festland zwischen 1900 und 2012 übergegriffen haben. Diese Daten zeigt Abbildung 8 [23].

Eine im Jahr 1900 geborene Person würde möglicherweise das extremste Ereignis im Jahr 1936 erlebt haben. Allerdings kann diese Person 106 Jahre alt geworden sein, dann hätte sie zwei noch stärkere Stürme erlebt. Das könnte ihn/sie zu der Überzeugung gebracht haben, dass die Welt immer schlimmer werde. Er/sie hätte natürlich unrecht – die Randstellung von Extremereignissen hätte sie zum Narren gehalten.

Abbildung 8: Index der Stärke von Stürmen, die zwischen 1900 und 2012 auf das US-Festland übergegriffen haben.

Dies illustriert ziemlich gut, wie lange man warten muss, bevor man selbst ein 100-Jahres-Ereignis bestimmen kann – und wie man berechnen kann, ob ein solches Ereignis danach auch in weniger als 100 Jahren noch einmal auftreten kann! Die Statistiken von Extremereignissen sind nicht eingängig, und man braucht sehr lange Zeiträume, um zu bestimmen, ob ein Ereignis extrem ist oder nicht.

Es gab extensive Besorgnisse hinsichtlich von Extremereignissen, teilweise weil fast jeden Tag irgendwo auf dem Globus ein Ereignis eintritt, dass man als ‚Extrem‘ bezeichnen kann. Das IPCC hat dazu einen speziellen Bericht [a special report] herausgegeben [24]. Wohl am besten kann man diesen Bericht als ‚zweideutig‘ beschreiben – eine Reihe sehr vorsichtiger Äußerungen, die auf unterschiedliche Weise interpretiert werden können, abhängig vom eigenen Standpunkt. Die wahrscheinlich beste Methode, das Ausmaß zu messen, mit dem ein Extremereignis wahrscheinlich vom Klimawandel verursacht wird, kommt aus einer Studie über Todesfälle infolge extremen Wetters [25]. Die Ergebnisse zeigt Abbildung 9.

Es wird deutlich, dass die absolute Zahl der Todesfälle pro Jahr seit den zwanziger Jahren des vorigen Jahrhunderts zurückgegangen ist. Relativ gesehen war der Rückgang sogar noch dramatischer, und zwar von einem Spitzenwert von 241 pro Million auf 5 pro Million. Diese niedrige Rate zeigt ganz klar, dass Extremwetter nicht mehr das gleiche Risiko für die Menschen darstellt wie für frühere Generationen.

Abbildung 9: Rate der Todesfälle pro Million Menschen durch Extremwetterereignisse

Es gibt viele Gründe für diesen steilen Abfall. Einer davon ist die erheblich verbesserte Wettervorhersage, so dass man jetzt ausreichend Zeit hat, sich auf das extreme Wetter vorzubereiten. Zweitens ist die Kommunikation hinsichtlich drohenden Extremwetters viel besser geworden. Und schließlich hat die Menschheit durch verbessertes Wissen über extreme Bedingungen gelernt, Strukturen zu entwickeln, um uns vor der Katastrophe zu schützen.

Die finale Angstgeschichte, die aufs Abstellgleis geschoben werden muss, ist die Mär vom Aussterben mancher Spezies als Folge des Klimawandels. Über diese Geschichte berichtet die öffentliche Presse regelmäßig. „‚Die Klimaänderung repräsentiert inzwischen eine genauso große Bedrohung für die Anzahl der auf der Erde lebenden Spezies wie die Veränderung oder Zerstörung von Habitaten‘, sagt Chris Thomas, ein Umweltschutz-Biologe an der University of Leeds in UK. – Die vorhergesagte Bandbreite der Klimaänderung bis zum Jahr 2050 wird 15 bis 35% der 1103 untersuchten Spezies dem Risiko des Aussterbens aussetzen. Es wird erwartet, dass diese Zahlen noch steigen, wenn sie global extrapoliert werden und potentiell mehr als 1 Million Spezies aussterben könnten“ [26].

Allerdings bevorzugt die Wissenschaft Vorhersagen, die man auch verifizieren kann. Eine vor kurzem erschienene Studie kommt zu dem Schluss, dass „es überraschenderweise keine geradlinige Beziehung zwischen lokalem Aussterben und begrenztem Ertragen hoher Temperaturen gibt“ [27]. Tatsächlich folgt dies aus dem gesunden Menschenverstand. Abbildung 10 zeigt die mittleren täglichen Maxima und Minima, die Linien zeigen die höchste bzw. tiefste jemals aufgezeichnete Temperatur, und die untere bzw. obere horizontale Linie reflektiert die jeweilige jährliche Mitteltemperatur in den Jahren 1900 und 2000.


Abbildung 10: Monatliche Temperaturen in einer subtropischen Stadt sowie jeweilige jährliche Mittel der Jahre 1900 und 2000.

Es ist vernünftig zu fragen, wie die relativ kleine Änderung der Mitteltemperatur von Organismen erspürt werden kann, die jedes Jahr Änderungen ausgesetzt sind, die etwa 50 mal größer sind und an die sie sich perfekt angepasst zu haben scheinen.

Der finale Grund für den weiter bestehenden Skeptizismus ist das Verhalten von einigen der Befürworter der These von der Klimaänderung. Das fängt beim IPCC an. Es wurde mehr zu einer politischen als zu einer technischen Institution. Am besten zeigt sich dies in der Veröffentlichung der IPCC-Berichte. Ihr geht jeweils eine Publikation einer Summary for Policy Makers voraus. Die in dieser Summary genannten Schlussfolgerungen unterscheiden sich oftmals von denen des Hauptberichtes und verleihen ihm eine politisch korrekte Ausrichtung auf etwas, das eine leidenschaftslose Übersicht über die wissenschaftliche Literatur sein soll [28].

Der Arbeit des IPCC ist die Tatsache, dass viele der zitierten Arbeiten nicht wissenschaftlich, sondern aus Schriften von Aktivisten reproduziert worden sind, nicht förderlich. Die kanadische Journalistin Donna Laframboise hat dieses Problem detailliert dokumentiert [29].

Zum Beispiel folgt sie der Spur eines relativ unbekannten Professors der Epidemiologie, Anthony McMichael, der 1991 eine Polemik geschrieben hatte, und der Leitautor des Kapitels über Malaria und die gesundheitlichen Auswirkungen der Klimaänderung geworden ist, obwohl es von ihm keinerlei professionelle Publikationen über Malaria gibt und sogar obwohl einige seiner Schlussfolgerungen von Mitgliedern des Panels zurückgewiesen worden sind, die wirklich Experten auf diesem Gebiet waren.

Abschnitte aus dem Buch von McMichael erschienen fast wortgleich im IPCC-Zustandsbericht aus dem Jahr 1995. Dieses führte direkt zu der These, dass die globale Erwärmung für eine Ausbreitung der Malaria sorgen wird. Es gibt keine Beweise, dass dies wahrscheinlich ist, weil Malaria-Ausbrüche Jahrhunderte lang auch aus kalten Gebieten bekannt sind. Mehr noch, man weiß, dass die Ausbreitung von Malaria fast ausschließlich eine Funktion sozialer Bedingungen und öffentlicher Gesundheit ist.

Dem Kampf gegen Malaria wird nicht von denen geholfen, die behaupten, dass die Klimaänderung Teil des Problems ist. Würde man ihnen folgen, würde man sich mehr um den Klimawandel als um Malaria kümmern. Dies illustriert die Gefahr, wenn man eine möglicherweise falsche These zu unkritisch übernimmt – Ressourcen können notwendigen Aktivitäten entzogen werden, die das Leben von Millionen betreffen in der Hoffnung, dass es positive Auswirkungen auf mutmaßliche Risiken hat, die Milliarden betreffen könnten. Bevor man eine solche Entscheidung trifft, muss man wirklich sehr sicher sein, dass die mutmaßlichen Risiken durch das Umverteilen von Ressourcen vermieden werden können.

Ein weiterer Grund für Skeptizismus besteht darin, dass die Debatte über die Klimaänderung einige wesentliche Unstimmigkeiten unter den Wissenschaftlern selbst enthüllt hat. Einige Spieler auf dem Spielfeld der vom Menschen verursachten Klimaänderung haben sich nur als zu menschlich gezeigt bei der Verteidigung des Unhaltbaren. Zum Beispiel haben zwei Wissenschaftler das getan, was Wissenschaftler tun sollten – sie haben die Arbeiten von etwa 200 anderen Wissenschaftlern begutachtet [30]. Sie schreiben, dass:

„Auf der ganzen Welt zeigen zahlreiche Aufzeichnungen, dass das 20. Jahrhundert wahrscheinlich weder die wärmste noch eine extreme klimatische Periode des letzten Jahrtausends gewesen ist“.

Dies stand diametral im Gegensatz zu der These, dass die derzeitige Erwärmung außerordentlich ist. Folgerichtig haben die Gläubigen an den vom Menschen verursachten Klimawandel den Herausgeber des Journals, dass diese Begutachtung abgedruckt hatte, zum Rücktritt gezwungen. Dann gerieten sie außer Rand und Band mit dem Versuch, die Reputation der beiden Autoren zu zerstören. All dies (und noch mehr) wurde enthüllt, als eine Reihe von E-Mails den Weg in eine öffentliche Domain des Hadley Centre an der University of East Anglia gefunden hatte [31].

Die Welt ist etwas wärmer. Das Niveau des Kohlendioxidgehaltes der Atmosphäre nimmt zu. Pflanzen wachsen besser als zuvor wegen dieses höheren Gehalts an CO2 [32]. Der Meeresspiegel steigt mit einer kaum messbaren Rate. Klimatische Katastrophen sind nicht schlimmer als früher. Das Tierreich wird durch das Wachstum einer einzigen Spezies bedrängt, nämlich uns, doch hat dies nichts mit der globalen Erwärmung zu tun.

Und das sind die Gründe dafür, dass es ein Klima des Skeptizismus gibt.

Philip Lloyd, Energy Institute, CPU

Link: http://wattsupwiththat.com/2013/01/18/a-climate-of-scepticism/#more-77781

Übersetzt von Chris Frey EIKE

References


[1] http://wattsupwiththat.com/2010/08/29/gisstimating-1998/ Accessed January 2013

[2]http://wattsupwiththat.files.wordpress.com/2012/07/watts-et-al_2012_discussion_paper_webrelease.pdf Accessed January 2013

[3] http://www.ijis.iarc.uaf.edu/seaice/extent/AMSRE_Sea_Ice_Extent_L.png Accessed January 2013

[4] Paul, F., Kääb, A. and Haeberli, W. Recent glacier changes in the Alps observed by satellite: Consequences for future monitoring strategies, Global and Planetary Change, Volume 56, Issues 1–2, March 2007, Pages 111-122, ISSN 0921-8181, 10.1016/j.gloplacha.2006.07.007.

(http://www.sciencedirect.com/science/article/pii/S0921818106001603) Accessed January 2013

[5] Mölg, T., and D. R. Hardy (2004), Ablation and associated energy balance of a horizontal glacier surface on KilimanjaroJ. Geophys. Res.109, D16104, doi:10.1029/2003JD004338.

[6] http://scienceofdoom.com/roadmap/atmospheric-radiation-and-the-greenhouse-effect/ Accessed January 2013

[7] http://www.ncdc.noaa.gov/oa/climate/gases.html Accessed January 2013

[8] http://www.metoffice.gov.uk/hadobs/hadcrut4/ Accessed January 2013

[9] http://co2now.org/Current-CO2/CO2-Now/noaa-mauna-loa-co2-data.html Accessed January 2013

[10] http://www.noaanews.noaa.gov/stories2005/s2412.htm Accessed January 2013

[11] http://cdiac.ornl.gov/trends/emis/glo.html Accessed January 2013

[12] http://www.ncdc.noaa.gov/paleo/icecore/antarctica/vostok/vostok.html Accessed January 2013

[13] Randall, D.A., R.A. Wood, S. Bony, R. Colman, T. Fichefet, J. Fyfe, V. Kattsov, A. Pitman, J. Shukla, J. Srinivasan, R.J. Stouffer, A. Sumi and K.E. Taylor, 2007: Climate Models and Their Evaluation. In: Climate Change 2007: The Physical Science Basis. WG1, Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S. et al, (eds.)]. Cambridge University Press, Cambridge

[14] See Randall, D.A. et al, op cit p. 640: “A number of diagnostic tests have been proposed…but few of them have been applied to a majority of the models currently in use. Moreover, it is not yet clear which tests are critical for constraining future projections (of warming). Consequently, a set of model metrics that might be used to narrow the range of plausible climate change feedbacks and climate sensitivity has yet to be developed.

[15] Spencer, R.W. and Braswell, W.D Potential Biases in Feedback Diagnosis from Observational Data: A Simple Model Demonstration, J Climate 21 5624-5627, 2008 DOI: 10.1175/2008JCLI2253.1

[16] Meehl, G.A., T.F. Stocker, W.D. Collins, P. Friedlingstein, A.T. Gaye, J.M. Gregory, A. Kitoh, R. Knutti, J.M. Murphy, A. Noda, S.C.B. Raper, I.G. Watterson, A.J. Weaver and Z.-C. Zhao, 2007: Global Climate Projections. In: Climate Change 2007: The Physical Science Basis. WG1, Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., et al (eds.)]. Cambridge University Press, Cambridge

[17] Douglass, D. H., Christy, J. R., Pearson, B. D. and Singer, S. F. (2008), A comparison of tropical temperature trends with model predictions. Int. J. Climatol., 28: 1693–1701. doi: 10.1002/joc.1651

[18] Spencer, R.W. and Christy, J.R. 1992: Precision and Radiosonde Validation of Satellite Gridpoint Temperature Anomalies. Part I: MSU Channel 2. J. Climate, 5, 847–857.

doi: http://dx.doi.org/10.1175/1520-0442(1992)005<0847:PARVOS>2.0.CO;2 Accessed January 2013

[19] http://climexp.knmi.nl/data/pHadEWP_monthly_qc.dat Accessed January 2013

[20] http://www.psmsl.org/data/obtaining/rlr.monthly.data/12.rlrdata Accessed January 2013

[21] http://sealevel.colorado.edu/ Accessed January 2013

[22] Fischetti, M. Drowning New Orleans. Scientific American, October 2001, pp34-42

[23] http://rogerpielkejr.blogspot.com/2012/11/us-hurricane-intensity-1900-2012.htmlAccessed January 2013

[24] IPCC, 2012: Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation. A Special Report of Working Groups I and II of the Intergovernmental Panel on Climate Change [Field, C.B. et al (eds.)]. Cambridge University Press, Cambridge

[25] Goklany, I.M. Wealth and Safety: The Amazing Decline in Deaths from Extreme Weather in an Era of Global Warming, 1900–2010. Reason Foundation, Washington DC and Los Angeles, CA, 2011

http://reason.org/files/deaths_from_extreme_weather_1900_2010.pdf Accessed January 2013

[26] http://news.nationalgeographic.com/news/2004/01/0107_040107_extinction.htmlAccessed January 2013

[27] Cahill, A.E, Aiello-Lammens, M.E., Fisher-Reid, M.C., Hua, X., Karanewsky, C.J., Ryu, H.Y., Sbeglia, G.C, Spagnolo, F., Waldron, J.B., Warsi, O. and Wiens, J.J. How does climate change cause extinction? Proc. Royal Soc. B 2012 doi: 10.1098/rspb.2012.1890

http://rspb.royalsocietypublishing.org/content/early/2012/10/15/rspb.2012.1890.fullAccessed January 2013

[28]http://www.publications.parliament.uk/pa/ld200506/ldselect/ldeconaf/12/1207.htmAccessed January 2013

[29] Laframboise, Donna The Delinquent Teenager who was mistaken for the world’s top climate expert. Ivy Avenue Press, Toronto 2011. ISBN: 978-1-894984-05-8

[30] Soon, W. and Baliunas, S. Proxy climatic and environmental changes of the past 1000 years. Climate Research Vol. 23, pp89–110, 2003

[31] http://www.assassinationscience.com/climategate/1/climactic-research-unit-foi-leaked-data.zip Accessed January 2013

[32] http://www.co2science.org/data/plant_growth/plantgrowth.php Accessed January 2013

Related articles

C. F.