1

Energie – Behauptungen und Wirklichkeit

Pennsylvania ist glücklich. Sogar mitten in dieser langen Rezession und der deprimierend hohen Arbeitslosenrate (9,5%) zahlen Familien in diesem US-Bundesstaat lediglich 9,4 Cent pro Kilowattstunde für Strom.

Dies liegt zum größten Teil daran, dass Pennsylvania 53% seines Stromes mit Kohle erzeugt. Viele Menschen schmähen dieses schwarze Gestein. Aber bedenken Sie, wie viel einfacher es ist, zu diesem Preis unsere Häuser zu heizen und unsere Mahlzeiten zu kochen – oder Fabriken, Bauernhöfe, Büros, Geschäfte, Krankenhäuser, Schulen, Kirchen… oder eine Agentur der Regierung zu betreiben.

Natürlich sieht es so aus, als ob 9,4 Cent pro Kilowattstunde ein hoher Preis ist, verglichen mit [den US-Bundesstaaten] Indiana, wo man nur 7,1 Cent zahlen muss), Kentucky (6,3 Cent) oder West Virginia (mit dem billigsten preis von 5,6 Cent pro kWh).

Und jetzt denken Sie daran, wie viel schwerer all das wäre, wenn man in Kalifornien leben würde, wo nur etwa 1% des Stromes mit Kohle erzeugt wird, und wo man 13 Cent pro kWh zahlen muss; in Rhode Island, wo Kohle bei der Stromerzeugung überhaupt keine Rolle spielt und der Strom 16 Cent kostet; oder auf der anderen Seite des Delaware – Flusses in New Jersey, wo Familien und Industrien 14,9 Cent pro kWh berappen müssen, hauptsächlich deshalb, weil hier der Arbeitsplätze schaffende Strom nur zu 15% mit Kohle erzeugt wird.

In Kalifornien gilt bereits in Bezug auf globale Erwärmung ein eigenes Gesetz zum Emissionshandel (cap-tax-and-trade global warming law), Bestimmungen zu erneuerbaren Energien, die von Jahr zu Jahr strenger und teurer werden, und Programme, bei denen Milliarden von Steuergeldern fließen, um große Solar- und Windkraftinitiativen zu subventionieren. Der ehemals Goldene Staat [eine Art Kosebezeichnung, die jeder US-Bundesstaat hat. Beispiele: California – Golden State, Pennsylvania – Keystone State, New Jersey – Garden State, usw. A. d. Übers.] weist die zweithöchste Arbeitslosenquote der USA auf (12,4%), ein Haushaltsdefizit von fast 20 Milliarden Dollar, und etwa 500 Milliarden an nicht gesicherten Pensionszahlungen für Beamte (government workers). Der Staat rangiert an 49. Stelle von 50 US-Bundesstaaten in Bezug auf die „Wirtschaftsfreundlichkeit“.

Die schwer belastenden Regeln werden mit Behauptungen gerechtfertigt, dass sie uns vor dem Klimawandel infolge steigenden CO2-Gehaltes bewahren. Ich bin kein Wissenschaftler, aber tausende Wissenschaftler sind gänzlich anderer Ansicht. Die im vorigen Jahr bekannt gewordenen e-mails von amerikanischen und britischen Alarmistenforschern zeigen, dass die Wissenschaft vom Klimawandel bis zu einem Punkt politisiert worden ist, dass Wissenschaftler, die dies nicht mittragen oder nicht üb erzeugt sind, als Ketzer verdammt werden – und außerdem manipulieren die Alarmisten Temperaturdaten und Computermodelle, um die Ergebnisse zur „Klimakrise“ zu erhalten, die sie haben wollen. Das ist unehrlich und falsch.

Mehr noch, selbst der Anteil von Kalifornien am CO2-Gehalt der Erdatmosphäre ist winzig. Der Anteil von Pennsylvania ist noch winziger. Selbst wenn beide Bundesstaaten ihre CO2-Emissionen auf Null zurückfahren, würden China und Indien den Ausfall dieser schmerzhaften, Arbeitsplätze vernichtenden Aktionen innerhalb von nur wenigen Monaten komplett ersetzen.

Beispiel aus einem Bericht aus Pennsylvania:

„Während der letzten 5 Jahre haben die menschlichen Emissionen von CO2 mit einer mittleren Rate von 3,5% pro Jahr zugenommen. Diese Zunahme ist also 3,5 mal größer als die gesamte Emission von Pennsylvania. Dies bedeutet, dass selbst bei einem kompletten Stillstand aller CO2-Emissionen in Pennsylvania dieser Ausfall in weniger als 4 Monaten vollständig kompensiert wird. Tatsächlich fügt China für sich allein schon das 2,3-fache an neuen CO2-Emissionen der Gesamtemission von Pennsylvania in jedem einzelnen Jahr hinzu.“

Einigen Klimawissenschaftlern zufolge würde sich der Temperaturanstieg bis zum Ende des Jahrhunderts um höchstens kaum messbare 0,1 °C reduzieren, selbst wenn die gesamten USA ihre CO2-Emissionen bis 2050 um 83% verringern würden, wie es ein Gesetz verlangt, das dem Kongress zur Abstimmung vorliegt.

Schlimmer noch, diese Minderung um 83% würde die CO2-Emissionen auf das Niveau von 1910 zurückfahren (oder sogar von 1870 unter Berücksichtigung der Bevölkerungsentwicklung und technologischer Veränderungen seit 1900). Also handelt es sich um wirklich schmerzhafte Einschnitte, an der Benzinpumpe, an Stromzählern und Bankkonten.

Die Aktivitäten in Kalifornien führen bereits dazu, dass Firmen Arbeiter entlassen müssen. Ein Bundesgesetz würde den gleichen Effekt in den gesamten USA zur Folge haben. Millionen Arbeiter würden ihren Job verlieren, wenn die Energiepreise in den Himmel schießen und man gezwungen wird, von fossilen Energieträgern, die derzeit 85% der Energie liefern, zu teurer Wind- und Solarenergie zu wechseln, die hohe Subventionen erfordert, Energie nur etwa in 30% der Zeit zur Verfügung stellt und derzeit 1% der in den USA verbrauchten Energie erzeugt.

Glaubt jemand allen Ernstes, dass der Emissionshandel Erfolg hat, oder dass man den Verbrauch von Öl, Erdgas und Kohle regulieren, verurteilen oder in anderer Form bestrafen kann – ohne dass es zu ernsten, sogar massiven Schäden in der Wirtschaft von Pennsylvania führt? Oder in der Wirtschaft der anderen 26 Bundesstaaten, die zu 47% bis 98% von kohleerzeugter Energie abhängig sind, die ihre Arbeitsplätze, ihre wirtschaftlichen Möglichkeiten, ihren Wohlstand oder ihren Lebensstandard garantiert?

Bundesstaaten wie Arkansas (47%), Colorado (65%), Illinois (48%), Indiana (95%), Kentucky (94%), Missouri (81%), North Dakota (91%), Ohio (85%), West Virginia (98%) und Wisconsin (66%), um nur einige zu nennen. Den Verbrauch von Kohle zu bestrafen würde zum Verlust von Millionen amerikanischer Arbeitsplätze führen und die Energiekosten von Haushalten und allgemein um Tausende Dollar pro Jahr verteuern würde, jedenfalls nach Studien des Brookings Institute, Heritage Foundation, Congressional Budget Office und anderen Analysten.

Als Theologe und ehemaliger Pfarrer bete ich um Gottes Hilfe dafür, dass wir weise mit Seiner Schöpfung umgehen, sich um die Erde und seine Bewohner zu kümmern. Wir dürfen die Ressourcen, mit denen Er uns gesegnet hat, nicht verschwenden, sondern dürfen sie nur für unser Wohlergehen einsetzen.

Es ist auch geboten, dass wir unsere Umwelt erhalten und Umweltprobleme lösen. Allerdings haben wir die Pflicht zu erkennen, dass die Probleme real, ernst und vordringlich sind, bevor wir Milliarden ausgeben, um diese Probleme zu lösen – und bevor wir neue Probleme schaffen, die die Umwelt auf andere Weise schädigen oder Familien noch mehr schaden.

Zunehmende Kosten für Energie, Nahrung und Mobilität sowie Millionen mitten in einer Rezession in die Arbeitslosigkeit zu entlassen sind mit Sicherheit Beispiele für die Schaffung neuer Probleme. Dies gilt auch für die Installation tausender Windturbinen, die Millionen Quadratkilometer [acres, die amerikanische Angabe für Flächen. Es wird jedoch nur eine unbestimmte, sehr große Zahl genannt, so dass eine genaue Umrechnung unnötig scheint. A. d. Übers.] Land bedecken, riesige mengen Rohstoffe verbrauchen und tausende Vögel töten, nur um Strom zu erzeugen, der viel zu teuer und unzuverlässig ist, um damit moderne Fabriken, Geschäfte, Haushalte, Krankenhäuser, Schulen und Städte zu versorgen.

Wir müssen es uns sehr sorgfältig überlegen, bevor wir kostenintensive politische Maßnahmen ergreifen, die mehr schaden als das sie nützen.

_____________

Reverend Dr. James Tonkowich, ein ehemaliger Pfarrer, ist Mitglied der Cornwall Alliance for the Stewardship of Creation.

Link zum Original: http://sppiblog.org/news/energy-claims-and-realities#more-3329

Kommentar des Übersetzers zu diesem Text

Hier kommt nun mal jemand zu Wort, der noch weniger mit Wetter und Klima am Hut hat als der Übersetzer. Reverend Tonkovich macht sich um alles Mögliche Sorgen wie z. B. um unser Wohlergehen und die Umwelt, um nur zwei zu nennen. Genau wie jeder Mensch mit gesundem Menschenverstand sieht er, was hier angerichtet wird. Allerdings kann man das nicht erkennen, wenn man nicht informiert wird. Es wird also immer mehr deutlich, wo der eigentliche Skandal liegt: In der einseitigen, verzerrenden, Andersdenkende diffamierenden Berichterstattung der (deutschen?) Medien. Diese Medien machen sich damit zum willfährigen Handlangern von Politikern und „Umwelt“verbänden.

Man kann nur hoffen, dass solche Vernunft auch via Informationen aus dem Internet immer mehr um sich greifen. Im Monet (Herbst 2010) sieht es aber (noch) nicht danach aus – jedenfalls nach dem, was man so in den Medien liest.

Übersetzt und kommentiert von Chris Frey für EIKE




Umfrage unter Klimarealisten: Wer sind sie eigentlich? EIKE Internetportal ist unter deutschsprachigen Realisten am beliebtesten!

Zwischen dem 26.9. und dem 11.10.2010 wurde auf dem Blog “Die Klimazwiebel” eine Umfrage durchgeführt, die sich speziell an Klimaskeptiker richtete. Bewußt wurde keine Definition dieses Begriffes vorgegeben. Angesprochen waren all jene, die sich selbst – aus welchen Gründen auch immer – als Klimaskeptiker bezeichnen. Anlaß war die Diskussion von Vorurteilen über die Gruppe der Klimaskeptiker, wie sie von Alarmisten und auch den Massenmedien intensiv gepflegt werden.

Aus meiner Sicht standen dabei zwei Fragestellungen im Mittelpunkt:

  • Was denken eigentlich die Klimaskeptiker wirklich? Ist es möglich, dieser durchaus heterogen zusammengesetzten Gruppe eine gemeinsame Haltung zuzuweisen? Ist es also möglich, den Begriff “Klimaskeptiker” in einer Form zu definieren, die, wenn nicht alle, so doch zumindest die übergroße Mehrheit dieser Gruppe treffend charakterisiert?
  • Stimmen die bekannten Vorurteile? Ist es insbesondere richtig, daß man den Skeptikern nur den Treibhauseffekt richtig erklären müsse, und schon wäre ihr Skeptizismus hinfällig? Ist es richtig, daß die Klimaskeptiker erstens inkompetent sind, die Erkenntnisse der Klimaforschung zu verstehen und zu bewerten? Und daß sie zweitens durch die Bank von dem Wahn erfaßt sind, die Klimakatastrophe wäre eine Erfindung einer weltweiten Verschwörung und Klimaforscher entsprechend samt und sonders Lügner?

Bild 1: Die Webseiten, die zur Umfrage führten

Die Umfrage wurde von Klimazwiebel-Leser Rob Maris programmiert und ausgewertet. Hans von Storch und ich haben den Prozeß begleitet. Ich habe auch an der Formulierung einiger Fragen mitgewirkt. Vom Erfolg der Befragung waren wir ziemlich überrascht. Ich persönlich hätte schon eine kleine dreistellige Zahl an Teilnehmern als Erfolg betrachtet. Insbesondere , da wir auf die Umfrage nur auf wenigen Blogs (Klimazwiebel selbst, hier, EIKE und Ökowatch) hingewiesen haben. Vor allem gab es keine Verweise bei “Watts up with that” und auch nicht bei “Climateaudit” (Bild 1).

Es konnten insgesamt 673 Teilnehmer gezählt werden, von denen 489 den Fragebogen vollständig ausgefüllt hatten.  Nach einer ziemlich ausführlichen Validitätsprüfung hat sich Rob Maris entschlossen, 578 Teilnehmer (aus 28 Ländern, Bild 2) in die Auswertung einzubeziehen. Es wurden vor allem Teilnehmer aussortiert, die versuchten, die Befragung mehrfach zu durchlaufen. Und solche, die eine extrem kurze Bearbeitungszeit vorzuweisen und/oder nur ganz wenige Fragen beantwortet hatten.

Bild 2: Woher die Teilnehmer kamen…

Die Analyse und Aufbereitung der Daten hat mehr als zwei Wochen beansprucht und war für Rob Maris und mich mit sehr viel Zeitaufwand verbunden. Vor allem Rob Maris hat sich sehr engagiert und Hans von Storch war intensiv eingebunden. Den beiden Herren möchte ich also an dieser Stelle herzlich für das Projekt und die Möglichkeit der Mitwirkung danken.

Die Umfrage ist natürlich nicht repräsentativ. Die aus meiner Sicht große Zahl an Teilnehmern erlaubt es aber, Schlüsse zu ziehen. Vor allem, da dies nach meiner Kenntnis der erste Ansatz der Art war, Klimaskeptiker als Gruppe zu identifizieren und zu charakterisieren. Ob alle Teilnehmer wahrheitsgemäß geantwortet haben, kann man natürlich nicht erkennen. Die Antworten entsprechen aber meinen Vermutungen, die aus jahrelanger Beobachtung der Debatte im Internet entstanden sind. Das Gesamtbild, das sich ergibt, ist also nach meiner Auffassung durchaus plausibel. Und ich bin der Ansicht, daß auch eine Befragung im größeren Umfang mit einer entsprechend wissenschaftlichen Konzeption und Begleitung kaum ein anderes Ergebnis erbracht hätte. Dazu ist anzumerken, daß sich das Antwortverhalten über verschiedene Gruppen hinweg ziemlich stark ähnelt. Unabhängig davon, ob man beispielsweise nur diejenigen betrachtet, die aus Deutschland an der Umfrage teilgenommen haben, oder nur die Amerikaner, ob man nur die betrachtet, die sich selbst als Wissenschaftler betrachten, oder als Laien: die Antwortmuster sind mit geringen Differenzen im einstelligen Prozentbereich immer dieselben.

Die Darstellung der Ergebnisse und meine Bewertung teile ich auf zwei Blogbeiträge auf. Heute möchte ich zunächst einige allgemeine Charakteristika der Teilnehmer präsentieren. Die eigentlich spannenden inhaltlichen Fragen folgen dann im Laufe der kommenden Woche. Wer bis dahin zu ungeduldig ist, kann das  Gesamtergebnis auf der Klimazwiebel in englischer Sprache anschauen.

1. Klimaskeptiker informieren sich in der Regel schon seit vielen Jahren

Bild 3: Steigendes Interesse seit 2001…

Während die IPCC-Berichte der Jahre 1991 und 1995 von der allgemeinen Öffentlichkeit wenig zur Kenntnis genommen wurden, haben insbesondere die der Jahre 2001 und 2007 eine breite Diskussion ausgelöst. Dies kann man auch an der Frage ablesen, seit wann sich denn die Teilnehmer überhaupt für die Klimaproblematik interessieren (Bild 3). Climategate hingegen hat keinen größeren Effekt hinterlassen. Mehr als 50% der Teilnehmer befassen sich schon seit 5 oder mehr Jahren mit dem Thema.

  2. Der Skeptizismus nimmt zu

Bild 4: Skeptizismus ist kein Naturgesetz

Und man wird nicht als Skeptiker geboren (Bild 4). Ganz im Gegenteil: Mehr als 75% der Teilnehmer waren anfangs eher neutral oder gar alarmistisch eingestellt. Dies zeigt einmal mehr auf: Je länger man sich mit der Klimafrage auseinandersetzt, desto skeptischer wird man gegenüber dem Alarmismus. Oberflächlichkeit läßt sich daraus nun gerade nicht ableiten. Die vergangenen zwei Jahre waren geprägt durch die Debatten über den IPCC-Bericht 2007, das Scheitern der Klimaverhandlungen auf internationaler Ebene und Climategate. Dies alles hat den Skeptizismus weiter verfestigt (Bild 5).

Bild 5: Skeptizismus steigt…

3. Die Gründe für den Skeptizismus sind vielfältig

Bild 6: Vielfältige Motivationen

Zwar ist die ursprüngliche Motivation der Skeptiker überwiegend durch Zweifel an der Interpretation wissenschaftlicher Ergebnisse geprägt, aber die Fragestellung der richtigen Klimapolitik hatte für viele ebenfalls schon immer eine große Bedeutung. Die konkreten Anlässe für  sind vielfältiger Natur, wobei die Diskussionen im Internet und die Hockeystick-Debatte wie erwartet herausragen. Die von uns ein wenig auch als “Kontrollfrage” eingebaute Möglichkeit “Winter 2010? spielte keine Rolle. Was die Seriösität der Umfrageteilnehmer unterstreicht (Bild 6).

4. Skeptiker sind kompetent

Mehr als zwei Drittel der Teilnehmer verfügen über eine wissenschaftlich/technische Ausbildung. Dem Vorurteil der mangelnden Kompetenz in dem Verständnis und der Bewertung wissenschaftlicher Aussagen ist damit der Boden entzogen. Zumal man auch Laien, die sich über Jahre mit dem Thema befassen, nicht ohne weiteres die Kompetenz absprechen kann (Bild 7).

Bild 7: Skeptiker sind kompetent

5. Was und wen Skeptiker mögen…

In Frage 9 wurden eine Reihe von Personen vorgegeben, die von Skeptikern häufig und gerne zitiert werden. Es zeigt sich, daß Steven McIntyre und Richard Lindzen – und damit eher wissenschaftsorientierte Kritiker – das mit Abstand höchste Ansehen genießen. Es gab hier die Möglichkeit, weitere Namen frei hinzuzufügen. Es wurden 41 zusätzliche Personen genannt. Davon erhielten nur zwei, Henrik Svensmark und Jo Nova, fünf oder mehr Stimmen. Sechs Personen wurden je zweimal, 33 jeweils einmal eingetragen. In der vorgegebenen Personenliste wurden mit Judith Curry, den beiden Pielkes und Mike Hulme auch Protagonisten aufgeführt, die sich selbst wahrscheinlich niemals als Skeptiker bezeichnen würden (Bild 8).

Gleiches galt für Frage 10. Hier wurden gleich drei Blogs (, , ) aufgeführt, die man als alarmistisch charakterisieren kann und mit der  und  weitere zwei, die eher als gemäßigt oder neutral anzusehen sind. Die Bewertung der alarmistischen Blogs zeigt ziemlich eindeutig, daß die Umfrage tatsächlich von Skeptikern bearbeitet wurde (sollte auch ein kleiner Test sein, um Versuche, die Resultate zu verfälschen, besser erkennen zu können). Gelesen aber werden diese Blogs offensichtlich schon – auch und gerade durch die Skeptiker. Daß diese sich nur einseitig informieren würden, ist also ebenfalls nicht haltbar. Zumal gerade die beiden “neutralen” Blogs sehr positiv gesehen werden. Ansonsten zeigt das Ergebnis (Bild 9) einmal mehr die Ausnahmestellung, die sich Anthony Watts und Steven McIntyre in der Szene erarbeitet haben. Bei letzterem ist das Ergebnis besonders bemerkenswert, denn sein Blog ist doch sehr speziell auf ein Thema (statistische Verfahren in der Paläoklimatologie) ausgerichtet und nicht gerade allgemeinverständlich. Skeptiker sind also willens, sich in komplexe Themen einzuarbeiten.

Bild 9: Beliebte Webseiten (alle Teilnehmer)

Die Umfrage richtete sich an ein internationales Publikum und wurde dementsprechend auch in englischer Sprache verfaßt.  Naturgemäß haben es rein deutsche Blogs im Vergleich zu denen des englischen Sprachraums daher schwer. Betrachtet man die Resultate nur für die deutschen Teilnehmer, ergibt sich eine etwas andere Reihenfolge (Bild 10). Hier hat EIKE erwartungsgemäß die Nase vorn. Hinsichtlich der Zahl der regelmäßigen Besucher erringen wir in dieser Befragung immerhin auch eine Bronzemedaille. Das motiviert durchaus…

Bild 10: Beliebte Webseiten (nur deutsche Teilnehmer)

Soviel für den Moment. In der kommenden Woche werde ich die Haltung der Skeptiker zu konkreten inhaltlichen Fragen beleuchten und analysieren. Und das Ergebnis mag tatsächlich für einige überraschend sein…

Dr.Peter Heller von science sceptical; EIKE dankt für die Überlassung des Beitrags

ÄHNLICHE BEITRÄGE:




Schlagzeile aus Absurdistan

Temperaturentwicklung im Holozän nach Schönwiese

http://www.wissenslogs.de/wblogs/blog/klimalounge/allgemein/2008-12-05/forscher-beraten-politiker), war es nicht unsere Absicht, ihn zu “kaufen“. Neben dem Nichtwollen, würden uns hierzu auch die Mittel fehlen. So erhielt das PIK in der Hochzeit des Klimaalarmismus neben den 6,6 Millionen Euro aus staatlichen Mitteln, 3,3 Millionen aus anderen Quellen, deren Herkunft nach unserem Wissen nicht veröffentlicht wurde (FAZ vom 05. September 2007).

Prof. Rahmstorf schreibt: “Bin ich endlich umgekauft worden?“ Was bedeutet, Herr Prof. Rahmstorf, “endlich umgekauft“. Sollen wir Klimarealisten das so verstehen, dass er darauf wartet? Ist das bei den Klimaalarmisten etwa üblich, das man versucht sie zu kaufen? Viele Offene Fragen! Aber das sind wir Klimarealisten bekanntlich von den Arbeiten und Aussagen der Klimaalarmisten gewöhnt und werden „gezwungen“, mit eigenen Untersuchungen Licht in das Dunkel zu bringen.

“Forscher beraten Politiker

– ist damit etwa Lobbyarbeit gemeint, kann doch wohl bei Klimarettern gar nicht sein. Die o.g. 3,3 Millionen dienen denn sicherlich einzig zur Rettung der Erde und zum Wohle der Menschheit. Wir möchten an dieser Stelle nicht die vielen Millionen nennen, die z.B. IPCC-Fürsten erhalten und sonstige Alarmisten-Größen wie Al Gore. Beim Klimarummel geht es um ein Jahresvolumen von ca. 3.000 Milliarden Dollar (z.B. Zertifikatehandel, welche kriminellen Machenschaften damit verbunden sind, wurde jüngst in der Monitor-Sendung vom 19.08.2010 einer erstaunten Öffentlichkeit präsentiert), die diejenigen einstreichen, die sich der Thematik verschrieben und ihre Geschäftsmodelle darauf ausgerichtet haben. Wir alle gehen natürlich davon aus, dass kein einziger aus jenem Personenkreis unter den o.g. 3,3 Millionen Eurospendern ist.

3.000 Milliarden Dollar Jahresvolumen,

Herr Prof. Rahmstorf hat offensichtlich mit seinen Schilderungen zur Lobbyarbeit etwas durcheinander gebracht. Zur Abrundung, was Klimaalarmisten anrichten, verweisen wir auf einen aktuellen Beitrag vom Tagesspiegel (http://www.tagesspiegel.de/politik/blutdiamanten-der-moderne/1959060.html). Hierin geht es um den CO2-neutralen Anbau von Kraftstoffen und wie daran auf Kosten der Ärmsten in der Welt prächtig verdient wird.

Durcheinander gebracht? 

Wie war das noch einmal mit den Himalaya-Gletschern, Untergang Hollands, verschwinden des Regenwaldes, Meeresspiegelangaben, …, die Liste ist lang, EIKE berichtete ausführlich darüber. Durcheinanderbringen liegt demnach im Trend bei nicht wenigen Klimaalarmisten. Frühaufstehen hat hin und wieder also doch seine Vorteile. Der Volksmund stellt nicht umsonst fest. Morgenstund hat Gold im Mund.

Dass das Argument an uns herangebracht würde, dass die DO-Ereignisse regionale Ereignisse sind, war absehbar, darum wurde in unserem Bericht ausdrücklich darauf hingewiesen (evtl. überlesen?) und mit Charts, bzw. Hinweisen zu anderen wissenschaftlichen Untersuchungen (Mittelmeerraum und atlantischer Ozean) belegt, dass es sich bei der Temperaturentwicklung des Holozäns, also der Zeitspanne der letzten 10.000 Jahre, nicht um spezifisch auf Grönland zutreffende Ereignisse handelt, sondern um breit gefächerte. Die folgende Abbildung 1, in der wissenschaftliche Arbeiten um den ganzen Globus zusammengefasst sind, belegen dies. 

Weiter ist die Aussage von Herrn Prof. Rahmstorf in seinem o.g. Beitrag vom 27.10.2010, dass es sich bei den DO-Ereignissen, auf Grönland beschränkte Ereignisse handelt, schlicht und ergreifend falsch, wie in Sepektrum der Wissenschaft: “Warum die Neandertaler ausstarben“ (11/2009, S. 68) festgehalten und nachzulesen ist. Die DO-Einflüsse mit den schnellen und heftigen Temperaturwechseln trafen mindestens auf ganz Europa zu, Auszug: Die Isotopenanalysen zeigen aber auch, dass das Klima sich keineswegs stetig von milden zu kalten Temperaturen veränderte; vielmehr wurde es auf dem Weg zur maximalen Vereisung zunehmend instabil und schwankte stark. Diese Oszillationen lösten tief greifende ökologische Veränderungen aus: Die Wälder wichen baumlosen Graslandschaften, Rentiere ersetzten Nashörner. Die Schwankungen vollzogen sich bisweilen so schnell, dass einzelne Individuen sogar im Lauf ihres Lebens beobachten konnten, wie Pflanzen und Tiere, mit denen sie noch aufgewachsen waren, verschwanden und durch eine ihnen unvertraute Flora und Fauna ersetzt wurden. Ebenso schnell konnte die Umwelt sich auch wieder in die umgekehrte Richtung verändern.“

Von Nashörnern auf Grönland habe ich bis jetzt noch nichts gehört, aber evtl. hat Herr Prof. Rahmstorf Knochenfunde oder sonstige Belege?

Abbildung 2 (Quelle: S.d.W. 11/09, “Warum die Neandertaler ausstarben“) zeigt das untersuchte und betroffene Gebiet der schnellen Temperaturwechsel, die lt. Prof. Rahmstorf auf Grönland beschränkt seien. Aber auch bei seiner obigen, von uns zitierten Arbeit aus 2003 musste er 2 Jahre später eigene, vermeintliche Erkenntnisse und Schlussfolgerungen revidieren und korrigieren. Ging er noch 2003 von einem eigenen 1.470 Jahre-Zyklus der Sonne aus, der die DO-Ereignisse auslöst, so erkannte er in einer beteiligten Arbeit  (Holger Braun, Marcus Christl, Stefan Rahmstorf et al. (2005): “Possible solar origin of the 1,470-year glacial climate cycle demonstrated in a coupled model“, in: Nature, Vol. 438, S. 208-211) 2 Jahre später, dass es sich dabei um den Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus, sowie um den Gleissberg-Zyklus der Sonne handelt.

Herr Prof. Rahmstorf hat also bewiesen, dass er lernfähig ist. Insofern haben wir bei den Klimarealisten noch Hoffnung, dass das PIK seine Villa „Kunterbunt“, mit dem Motto “…Ich mach‘ mir die Welt Widdewidde wie sie mir gefällt“ verlässt und Verbindung zur Realität aufnimmt. EIKE ist dazu die richtige Anlaufstelle! Insofern haben Sie, Herr Prof. Rahmstorf mit Ihrem jüngsten Artikel auf Klimalounge bewiesen, dass Sie auf dem richtigen Weg sind.

R. Leistenschneider – EIKE

Ergänzung der Redaktion I: Wie allergisch Stefan Rahmstorf – in trauter Dreisamkeit mit Michael Mann und Paul Ehrlich- auf Meinungen anderer reagiert, zeigt dieser amüsante Blogbeitrag (Roger Pielke jr.) über die Buchbesprechung des Pielke Buches in Daniel Greenberg Meets the Climate Scientists.

Ergänzung der Redaktion II.

Unter der Überschrift Journalisten-Workshop vor 16. UN-Klimakonferenz in Cancún veranstaltet das PIK eine Jounrnalisten-Beeinflussungstagung in Neuauflage der unsäglichen Veranstaltung zum Desinformationstraining für Journalisten der Deutschen Welle vom Sommer diesen Jahres. Brainwash-Interessenten bitte zahlreich anmelden!




Acht Zehntel von einem Grad? Denkt an die Enkelkinder!

In einem kürzlich hier auf WUWT erschienenen Beitrag unterbreitete Thomas Fuller den Vorschlag (proposal), dass man ein paar Grad als erwartete Temperaturzunahme im Jahrhundert als gegeben übernehmen könnte. Er sagt in den Kommentaren zu seinem Thread, dass

Ich denke, wir schulden es den Völkern der Welt, dass wir ihnen eine Vorstellung davon geben, wie viel Erwärmung sie erwarten können, so dass sie Planungsgrundlagen für die Errichtung von Gebäuden und Straßen oder für die Planung ihrer Geschäfte und ihres Lebens erhalten. Das interessiert sie. Es ist ihnen egal, welchen Anteil das CO2 zu dieser Erwärmung von einer Kleinen Eiszeit beiträgt oder wie viel davon durch Antriebe kommt, die wir nicht verstehen. Sie verstehen es jedenfalls [sicherlich] nicht. Das sollten sie vielleicht auch nicht.

Es gibt seit 1958 einen Temperaturanstieg, dem wir fast vertrauen können. Er zeigt einen Trend von etwa 2 K für dieses Jahrhundert, wenn es so weitergeht.

Zuerst: Ich glaube nicht, dass wir den Völkern mehr schulden als die wissenschaftliche Wahrheit, so wie wir sie verstehen. Und falls wir es nicht verstehen, was für die weitere Klimaentwicklung in diesem Jahrhundert ohne Weiteres der Fall ist, schulden wir es den Leuten, ihnen einfach zu sagen „Wir wissen es nicht“. Diese vier kleinen Wörter, so schwierig auszusprechen… daher – nein, wir schulden den Völkern nichts, was wir nicht haben.

Als nächstes: Die Zukunft aus der einfachen Verlängerung eines „Trends” abzuleiten ist eine schlechte Idee, weil es ein völlig falsches Bild von Genauigkeit und wissenschaftlicher Verlässlichkeit gibt für etwas, von dem wir nicht viel Ahnung haben, außer dass wir ziemlich sicher sind, dass der Trend eben nicht linear verläuft… Wie Mark Twain über diese Art der Extrapolation schrieb:

Im Laufe von 176 Jahren hat sich der untere Mississippi um 242 Meilen verkürzt. Im Mittel ergibt das die Kleinigkeit von einer und einer Drittelmeile pro Jahr. Da kann jeder Mensch, wenn er nicht gerade blind oder ein Idiot ist, erkennen, dass der untere Mississippi in der Periode des Silur, vor einer Million Jahren im nächsten November, 1 Million und 300 000 Meilen lang war und wie eine Angel über den Golf von Mexiko hinweg verlief.

Der gleiche Mensch kann auch sehen, dass der Mississippi in 742 Jahren nur noch 1 und eine dreiviertel Meile lang ist. Die Städte Cairo und New Orleans werden ein gemeinsames Straßennetz haben und gemeinsam komfortabel unter einem einzigen Bürgermeister und einem einzigen Stadtrat leben. Wissenschaft ist irgendwie faszinierend. Man bekommt eine solche Masse von Vermutungen aus einer so kleinen Betrachtung von Fakten.

Also ist es keine gute Sache, lineare Trends einfach zu extrapolieren, insbesondere bei unseren gegenwärtigen Kenntnissen über das Klima. Der Planet könnte in fünfzig Jahren wärmer sein. Er könnte aber auch kälter sein – wir wissen es nicht.

Aber schieben wir alle diese Schwierigkeiten einmal beiseite. Hier ist Fullers Vorschlag graphisch dargestellt unter Verwendung der Daten vom HadCRUT. (Nebenbei bemerkt, der Trend von 1958 bis 2010 in den Daten von HadCRUT beträgt derzeit etwa 1,3°C pro Jahrhundert, nicht 2°C, wie es Fuller zeigt. Daher ist seine Darstellung eine Übertreibung des historischen Trends.)

 

Abbildung 1: Eine graphische Darstellung von Thomas Fullers Vorschlag, eine erwartete Erwärmung um 2°C im 21. Jahrhundert anzuordnen. Bildquelle

Allerdings brachte mich Fullers Vorschlag zusammen mit einem Kommentar von Michael Tobin zum Nachdenken. Was ist mit diesen zwei Grad pro Jahrhundert, was, falls das tatsächlich passiert? Diese zwei Grad waren immer die Angst machende Nummer, der Kipp-punkt (Tipping Point) des Temperaturanstiegs, der zum drohenden Thermageddon führen soll; die Temperatur, der wir weltweit zum Opfer fallen sollen. So kam ich dazu, Hansens Bemerkung über die Enkelkinder und ebenso Fullers Forderung nach einer historisch unwahrscheinlichen Erwärmung um 2 Grad in diesem Jahrhundert abzuwägen. Zwei Grad pro Jahrhundert sind acht Zehntel eines Grades bis 2050. Daraus ergaben sich für mich folgende Fragen:

Was würde ich anders machen, falls ich sicher wissen würde, dass meine Enkel 2050 in einem um acht Zehntelgrad wärmeren Klima leben müssten? Oder anders gefragt, wie würde ich mich fühlen, wenn ich meine noch nicht geborenen Enkelkinder dazu verurteilt hätte, 2050 in einer Welt zu leben, in der es acht Zehntelgrad wärmer ist als heute?

Ich konnte keine einzige Sache finden, die ich um einer Erwärmung von acht Zehntelgrad willen in 2050 anders gemacht hätte, sei es hinsichtlich von Gebäuden oder Geschäften oder Straßen oder meinem Lebensstil.

Diese Erwärmung um acht Zehntelgrad könnte für meine Enkel 2050 einige nachteilige Auswirkungen haben, aber weder ich selbst noch irgendjemand anders weiß, welcher Art diese Auswirkungen sein werden. Vermutlich wird es irgendwo eine zusätzliche Überschwemmung geben und eine weniger woanders, sehr wahrscheinlich wird es an einigen Orten trockener und an anderen feuchter; mit anderen Worten, das Klima wird genau das tun, was es von Beginn an immer getan hat – es wird sich ändern.

Aber jeder, der behauptet vorhersagen zu können, wo genau es zu Überschwemmungen und Dürren in jenem unbekannten Klima der Zukunft kommen könnte, zündet nichts als Nebelkerzen. Und ich bin nicht einmal sicher, ob wir eine Änderung von acht Zehntelgrad überhaupt feststellen können, und zwar aus folgenden Gründen:

Man betrachte, was das bedeutet, acht Zehntelgrad. Abbildung 2 zeigt eine Reihe der Klimastation des GHCN [Global Historical Climatology Network], die mir am nächsten liegt, Santa Rosa, Kalifornien.

Abbildung 2:Temperaturreihe von Santa Rosa, Rohdaten in Blau, überarbeitete Daten vom GISS in rot. Im unteren Teil erkennt man den Grad der Anpassung.

Die Reihe von Santa Rosa ist sehr gut und fast vollständig seit 1902 bis heute. Nun gibt es ein paar Dinge hinsichtlich der vom GISS vorgenommenen Anpassungen. Vor der Anpassung zeigte die Reihe eine leichte Abkühlung, aus der nach der Anpassung eine leichte Erwärmung wurde. Wer weiß, welchen Effekt der Wärmeinseleffekt darauf hat? Außerdem waren die Anpassungen der letzten Jahre viel größer als in früheren Jahren. Das scheint gegen die Intuition zu sprechen.

Allerdings ist keine Einzelheit dieser Anpassungen Gegen­stand dieses heutigen Papiers. Ich möchte etwas anderes betonen, nämlich die Tatsache, dass die Anpassungen der Temperaturreihe von Santa Rosa etwa ein Grad pro Jahrhundert ausmachen. Also beträgt die Ungewissheit zum allermindesten nur ein Grad, [wahrscheinlich aber mehr]. Und es handelt sich hier um eine gute Reihe.

Nun, welche Reihe stimmt also? Die überarbeitete oder die nichtüberarbeitete Reihe? Unglücklicherweise gibt es keine Möglichkeit, das herauszufinden. Warum? Weil die Anpassung um ein Grad pro Jahrhundert im Rauschen untergeht. Oftmals kommt es zu Wintern oder Sommern, die drei oder vier Grad wärmer oder kälter sind als jeweils im Vorjahr. Es gibt warme und kalte Jahrzehnte. Ein Grad ist einfach nicht ausreichend, um überhaupt einen Unterschied festzustellen. Die ältesten Männer und Frauen, die von Kindheit an in Santa Rosa gewohnt haben, können uns nicht sagen, ob es in ihrer Kindheit ein Grad wärmer oder kälter war als heute. Und unsere Thermometer können es auch nicht. Wir wissen einfach nicht, ob die Anpassung um ~1 Grad sinnvoll ist oder nicht.

Der Punkt ist: Die Anpassung macht fast ein ganzes Grad aus. Dies ist etwas mehr als der vorhergesagte Temperaturanstieg in den ängstigenden Geschichten über das Klima 2050 und den Enkelkindern. Und angesichts der Tatsache, dass der Betrag der Anpassung in Santa Rosa um fast 1 K so klein ist, dass wir gar nicht abschätzen können, ob diese Anpassung sinnvoll ist oder nicht, warum sollte ich mir Gedanken über die acht Zehntelgrad bis 2050 machen? Wir können nicht einmal aus einer sehr guten Temperaturreihe eine solche Genauigkeit ablesen, und dann soll ich mir um eine unmessbare Änderung Gedanken machen? Ich glaube nicht.

Daher tut es mir leid, aber ich lehne es ab, Angst zu haben, selbst bei Fullers Übertreibung bei der Extrapolation eines linearen, eigens ausgewählten Trends. Ich habe kein Problem damit, falls meine Enkelkinder im Jahre 2050 wirklich mit einem Klima konfrontiert werden, das um acht Zehntelgrad wärmer als heute ist. Ohne alarmistische Wissenschaftler mit Megaphonen und einer selbst gebastelten Mathematik, um ihre Auftritte zu untermauern – wie würden wir überhaupt herausfinden, ob es 2050 in Santa Rosa wirklich acht Zehntelgrad wärmer ist? Unsere Wissenschaftler können nicht bestimmen, ob es eine Änderung um 1 K gibt, und da sollen wir vor einer noch kleineren Änderung bis 2050 Angst haben? Ich denke nein.

Und was für Katastrophen sollte es durch eine Erwärmung um acht Zehntelgrad geben? Man erkennt dekadische Schwingungen in der Reihe, die viel größer sind, und die keinerlei negative Folgen zeitigten. Ja, ich weiß, es gibt Scharen von Wissenschaftlern da draußen, die mir sagen, was für schlimme Dinge aus Thomas Fullers geforderten Erwärmung folgen sollen, aber ich frage mich Folgendes:

Lassen Sie uns zunächst annehmen, dass die AGW – Leute recht haben und dass die globale Erwärmung zu globalen Katastrophen verschiedenster Art führt, einschließlich aller biblischen Plagen und noch einige mehr. Zunehmende Temperaturen sollen zu extremerem Wetter mit schrecklichen Folgen führen, ein perfektes Unwetter von Hunderten schlimmer Effekte, das ich „Thermageddon“ genannt habe.

Als nächstes sollte man beachten, dass sich die Erde erwärmt hat, zwar mit mehreren Fort- und Rückschritten, aber eben erwärmt seit der Kleinen Eiszeit. Schätzungen dieser Erwärmung belaufen sich auf eine Größenordnung von eineinhalb bis zwei Grad.

Und schließlich sollte man nicht vergessen, dass es seit 1958 (dem Beginn von Fullers Kurve) innerhalb eines halben Jahrhunderts eine viel schnellere Erwärmung gegeben hatte.

Meine Fragen sind nun Folgende: Wo sind all die Katastrophen der Erwärmung um mehrere Grad seit der Kleinen Eiszeit sowie der raschen Erwärmung in dem halben Jahrhundert seit 1958? Ich meine, will James Hansen die Elisabethaner bestrafen, weil sie nicht nur ihren Enkeln, sondern auch ihren Urenkeln eine wärmere Welt vermacht haben? Ich weiß nicht, wie die Elisabethaner nachts geschlafen haben, nachdem sie sich gewünscht hatten, es möge doch für ihre armen, unschuldigen Enkelkinder etwas wärmer werden. Aber wo sind die Katastrophen der um mehrere Grad erfolgten langsamen Erwärmung seit dem 17. Jahrhundert?

Manche Leute sagen allen Ernstes, dass es bzgl. des Klimas ein Problem ist, dass man es nicht mit Experimenten im Labor erforschen kann. Aber für die vergangenen drei Jahrhunderte haben wir exzellente natürliche Experimente! Wir sahen eine Erwärmung Jahrhundert für Jahrhundert (warming century after century), und doch gab es kein Thermageddon. Wo sind die Katastrophen?

Dann, im zweiten natürlichen Experiment haben wir die viel schnellere Erwärmung seit 1958, von der Fuller spricht, wie in Abbildung 1 dargestellt. Während dieser Zeit sind die Pazifischen Atolle größer geworden, und Bangladesh ist um mehrere Hektar gewachsen (more hectares of land). Die Menschen haben mehr zu essen als jemals in der Geschichte. Es gab keine Zunahme extremer Wetterereignisse. Wo sind die Katastrophen dieser zwei Experimente einer langsamen und einer schnellen Erwärmung?

Also mache man sich keine Sorgen über eine Erwärmung um acht Zehntelgrad bis 2050. Ich schlafe gut in der Gewissheit, dass meine Enkelkinder an einen Punkt kommen, an dem sie acht Zehntelgrad genau messen können und wissenschaftliche Gründe für die Größenordnung von Anpassungen haben… Ich glaube, dass sie diese Möglichkeiten haben werden, dass sie klüger und reicher und mächtiger als wir sind, mit Technologien, von denen wir heute noch nicht einmal träumen. Vielleicht finden sie sogar heraus, dass es zwischen heute und 2050 eine Erwärmung um acht Zehntelgrad gegeben hat. Und dann könnten sie auch mit Gewissheit sagen, ob wirklich das CO2 der hauptsächliche Knopf zur Klimakontrolle ist. Und wahrscheinlich werden sie eine ganze Palette anderer Energiequellen zu der Zeit haben.

Aber zurück zu den acht Zehntelgrad bis 2050. Ich kann einfach nicht erkennen, welche Katastrophen daraus in der realen Welt für meine Enkel folgen sollen. Bisher jedenfalls gab es mit Sicherheit keine Katastrophen.

Dann heißt es, unabhängig von den Enkelkindern, was ist mit den anderen Spezies? Werden sich ihre Verbreitungsgebiete ändern?

Ich denke an den 38. nördlichen Breiengrad. Die globale Temperaturänderung rund um den Globus beträgt etwa 1 K pro hundert Meilen, wenn man sich von diesem Breitengrad nach Norden oder Süden bewegt.

Daraus folgt, dass sich nach der Vermutung von Thomas Fuller die Isothermen im Mittel bis 2050 80 Meilen weiter nach Norden verlagern. Aber auch das geht wieder im Rauschen unter. Diese Art der Änderungen gab es seit Beginn des Klimas ständig. Normalerweise nimmt die Welt das nicht einmal wahr. Acht Zehntelgrad ist einfach zu wenig und ist zwergenhaft im Vergleich der täglichen, monatlichen, jährlichen und dekadischen Temperaturänderungen.

Ach so, dann werden die Leute sagen, dass die Erwärmung in diesem Falle viel schneller als in der Vergangenheit erfolgt, und dass hier die Probleme beginnen. Aber diese Leute vergessen, dass sich alle Lebensformen sehr schnell anpassen können. Wenn sich die Temperatur immer wieder von einem Jahr zum nächsten um drei Grad ändert, sei es nun auf- oder abwärts, müssen (und können) sich Pflanzen und Tiere an diese jährliche Änderung anpassen. Der Gedanke, dass sich diese Pflanzen und Tiere an eine Änderung um acht Zehntelgrad bis 2050 nicht anpassen können, ist also unsinnig, wenn sie sich an eine Änderung um drei Grad innerhalb eines Jahres anpassen können. Und es ist klar geworden, dass selbst in der von Fuller betonten raschen Erwärmung seit 1958 keine Katastrophen aufgetreten waren, weder unter den Menschen noch unter Tieren und Pflanzen. Also funktioniert die Behauptung „rasche Erwärmung führt zu Katastrophen“ auch nicht.

Welches letztendliche Fazit kann man also ziehen? Es tut mir leid, wenn ich so anderer Ansicht bin, aber ich sehe nicht einmal unter der Voraussetzung von Thomas Fullers übertriebener Erwärmung von 2 K pro Jahrhundert (verglichen mit vergangenen Änderungen), dass es irgendwelche Probleme oder gar Katastrophen gibt. Es heißt, dass die größte Erwärmung laut IPCC in den außertropischen Gebieten stattfinden, im Winter, nachts.

Am Ende dieses Tages kann man mir neo-elisabethanische Brutalität vorwerfen, wenn ich willentlich Enkelkinder in eine wärmere Welt entlassen will, aber ich werde nicht schlechter schlafen, wenn ich Nächte erlebe, die weniger kalt sind als in Helsinki, oder bei Fullers möglichen (nicht garantierten, sondern lediglich möglichen) acht Zehntelgrad Erwärmung bis 2050. Erwärmung verursachte in der Vergangenheit keine Katastrophen, und falls es in Zukunft wärmer wird, gibt es alle Gründe, auch davon keine Katastrophen zu erwarten.

Ich weiß, dass ich mit dieser Meinung eine Minderheit repräsentiere. Aber damit ich meine Ansichten ändere, muss man mir zeigen, dass die Erwärmung in der Vergangenheit zu Katastrophen und gewaltigen Problemen geführt hat. Bis dahin glaube ich einfach nicht, dass eine künftige Erwärmung Katastrophen und gewaltige Probleme bringt, schon gar nicht bei einer Erwärmung, die wir kaum messen können.

Wilis Eschenbach

Hier finden Sie das Original

Übersetzt von Chris Frey für EIKE




Vom Wert der Klima-Prognosen: Nicht heiß genug, nicht kalt genug…

Viele Menschen aber können nicht mehr einfach nur genießen. Sie unterliegen dem Zwang der Suche nach dem Negativen. Und so verwundert es nicht, wenn die Klimaalarmisten die Temperaturen in Deutschland als Vehikel benutzen, um landauf landab auf die „globalen Temperaturrekorde“ hinzuweisen. Rekorde oder zumindest rekordverdächtige Werte, die sich beispielsweise aus den Berechnungen des NASA Goddard Institute for Space Studies (NASA-GISS) ableiten lassen. Und natürlich werden uns diese Daten in allen möglichen Blogbeiträgen, Zeitungsartikeln und Fernsehberichten als Menetekel verkauft. Als – je nach Formulierung – Beweis oder zumindest Indiz für die fortschreitende globale Erwärmung, die zwangsläufig in die Katastrophe führt.

Stefan Rahmstorf beispielsweise findet es heiß. In seinem jüngsten Text läßt er die Interpretation der Temperaturkurve zwar geschickt offen, aber es ist deutlich, was er seinen Lesern sagen möchte. Auch er weiß: Globale oder gar lokale Temperaturrekorde sind kein Beweis für eine menschgemachte, katastrophale Erderwärmung. Aber wenn es eine solche gäbe, wären entsprechende Werte zu erwarten. Da man nun solche Daten mißt, berechnet und in Deutschland Wärme auch wirklich wieder spüren kann, ist der Indizienbeweis perfekt.

Nein, ist er nicht. Denn dafür ist es schlicht und ergreifend noch immer nicht heiß genug.

Die Prognose der globalen Temperaturanomalie

Auf die Differenz zwischen Szenario und Prognose bin ich hier bereits ausführlich eingegangen. Ein Szenario ist nicht deswegen gut, weil es eine hohe Eintrittswahrscheinlichkeit hätte. Vielmehr werden Szenarien und Projektionen genau nicht unter der Berücksichtigung von Wahrscheinlichkeiten erstellt. Ein Szenario ist genau dann sinnvoll, wenn es grundsätzlich möglich und in sich widerspruchsfrei (konsistent) ist.  Das IPCC wird aus meiner Sicht genau deswegen zu Recht kritisiert, weil es aus all den denkbaren Szenarien für die Zukunft unserer klimatischen Bedingungen nur eine Teilmenge auswählt und damit eine bestimmte Richtung der Berichterstattung forciert. In der dann die feine, aber wichtige Unterscheidung zwischen Projektion („projection“) und Prognose („prediction“) genau nicht mehr vorgenommen wird.

Bild 1: Langzeittrend und Prognose

Eine Vorhersage, die ohne zusätzliche Annahmen der Veränderung von Einflußfaktoren auskommt, besteht immer in der Fortschreibung eines als stabil erkannten Trends. Und wenn man sich die Entwicklung der mittleren globalen Temperaturanomalie nach den Daten der NASA anschaut, so kann man einen solchen Trend tatsächlich ableiten. Er ist in erster Näherung linear und bedeutet einen Temperaturanstieg um etwa 0,6° pro Jahrhundert. Die Stabilität dieses Trends ergibt sich (neben den üblichen statistischen Tests) auch daraus, daß die Wissenschaftler in früheren Jahrzehnten ihn in ähnlicher Größenordnung hätten ableiten können (Bild 1).

Zur Klarstellung: Dieser Trend ist vereinbar mit der Annahme einer Erwärmung durch die anthropogenen Kohlendioxid-Emissionen. Aber „Vereinbarkeit“ bedeutet noch lange nicht „Beweis einer Kausalität“. Es sind vielmehr eine Menge Prozesse denkbar, die einen solchen Trend begründen können.   Und im Zusammenhang mit der aktuellen Debatte über das rekordverdächtig heiße Jahr 2010 ist außerdem zu beachten:

Wenn alles so weitergeht, wie bisher, wenn dieser Trend also weiterhin stabil bleibt, droht uns keine Klimakatastrophe. Sondern vielmehr eine weitere Erwärmung bis zum Ende des Jahrhunderts um lediglich etwa 0,5 Grad.

  • Die Größenordnung von Zehntelgraden, in der sich das Jahr 2010 global möglicherweise um einen Rekord mit anderen Jahren streitet, ist für den Trend belanglos. Die Prognose bleibt stabil, auch wenn 2010 „das global wärmste Jahr seit Beginn der Aufzeichnungen“ werden würde.

  • Der stabile Langzeittrend beinhaltet immer wärmere Jahre und immer neue Rekorde in den Messungen und Berechnungen der mittleren globalen Temperaturanomalie. Auch Aussagen wie „von den zehn wärmsten Jahren bisher lagen 8 in der letzten Dekade“ werden immer wieder möglich sein. Und sind genau kein Beleg für den unaufhaltsamen Schritt in den Abgrund.

    Im Gegenteil: Wenn alles so weitergeht wie bisher, ist dies eher ein Indiz für das Ausbleiben der Katastrophe. Weil die Erwärmungsrate schlicht nicht ausreicht, eine Prognose in Richtung extremer Klimaveränderungen bis zum Ende des Jahrhunderts zu rechtfertigen. Es ist zwar heiß in Deutschland, im Moment, und es mag warm sein auf der Welt im Durchschnitt, aber es ist immer noch nicht heiß genug.

    Die Latif-Prognose

    Mojib Latif sieht das anders. Und verwendet die Bild-Zeitung, um seine Botschaft möglichst weit zu streuen. Die ihn aus lauter Dankbarkeit für so viel Ehre auch gleich zu „Deutschlands bestem Klimaforscher“ ernennt. Und so lautet seine Prognose:

    „Was wir jetzt erleben, ist erst der Anfang. Bis zum Ende des Jahrhunderts werden die Temperaturen – wenn nichts geschieht – um fünf bis sechs Grad steigen.”  

    Er bezieht sich mit diesen Werten wohl auf die apokalyptischen Szenarien des IPCC. Um zu sehen, wie sich die Latif-Prognose im Verhältnis zum stabilen Langzeittrend verhält, ist in obiger Abbildung der Maßstab zu ändern. Und natürlich beinhalten die IPCC-Szenarien keinen linearen Anstieg. Aber zur Vereinfachung des Verständnisses ist ein solcher in der Zeichnung angesetzt. Zumal er der einfachste Weg ist, auf dem Latifs Prognose erreicht werden könnte. Jeder andere Verlauf würde Phasen mit einem noch höheren und schnelleren Temperaturanstieg erfordern (Bild 2).

    Bild 2: Der Langzeittrend und die Latifprognose

    Man erkennt, wie stark Latifs Prognose von dem Langzeittrend seit Beginn der Aufzeichnungen abweicht. Es gibt keine Datengrundlage, die eine solche Vorhersage rechtfertigen würde. Was Latif nicht  davon abhält, regional gleich noch aufzusatteln:

    „Dann reden wir im Sommer von Hitzewellen mit fast 50 Grad hier in Deutschland.“  

    Damit verläßt er dann auch noch den Boden der IPCC-Szenarien. Jedenfalls steht diese Prognose in einem gewissen Widerspruch zu den Botschaften des “regionalen Klimaatlas Deutschland“, der auf den auch durch das IPCC zitierten Modellrechnungen basiert. Und: Betrachtet man die dortigen Prognosen zu Themen wie “heiße Tage” und “tropische Nächte”, so scheint uns dieser Sommer tatsächlich einen Vorgeschmack darüber zu geben, was wir von der Klimakatastrophe bemerken werden: Nichts.

    Meine damalige Einschätzung einer höheren Zahl an “heißen Tagen” als “Risiko” muß ich jedenfalls nach den aktuellen Erfahrungen wieder zurücknehmen. Und komme zu dem Schluß: „Wenn nichts geschieht“ – Herr Latif – geschieht genau das: Nichts. Und wenn 2010 ein Rekordjahr wird – ob global, ob in Deutschland – ist eben immer noch nichts geschehen, was auf die Apokalypse hinweist.

    mit Dank an Peter Heller von Science Sceptical

    ÄHNLICHE BEITRÄGE (BETA):




Wo bleibt die Arktis-Schmelze ? Der Parade-Schocker der Alarmisten bleibt aus!

Die Entwicklung der arktischen Eis-Fläche verläuft ganz anders, als von den Klima-Alarmisten seit Jahren behauptet wird. Zunächst: Das jährliche Minimum der arktischen Eisbedeckung wird jeweils Mitte September erreicht. Dabei gab es zwischen 2003 und 2007 einen insgesamt abnehmenden September-Wert, wie die Abbildung 1 veranschaulicht:

Abb. 1[1] : Arktische Eisbedeckung

Stand: 19.10.2010

Das veranlaßte die Katastrophen-Propheten zu der Behauptung, schon in ein bis zwei Jahrzehnten könne die Arktis im Sommer eisfrei sein. Dabei wird auch gerne auf die z.B. vom PIK-Forscher Rahmstorf vermuteten “Klima-Kipp-Punkte“ verwiesen, bei denen es angeblich ab einem bestimmten Entwicklungs-Stadium keine Rückkehr zum Vorzustand mehr geben könne. Diese Vermutung erweist sich jedoch bei näherer Betrachtung als unhaltbar , auch beim Arktis-Eis – wie wir derzeit sehen. Mittlerweile zeigen nämlich die Beobachtungen in der Arktis seit 2007 einen ganz anderen Trend : 

Dazu die Zahlen zum sommerlichen Minimum der arktische Eisfläche jeweils im September :

2007* :  4,3 Mill. km2

2008* :  4.7 Mill. km2

2009* :  5.4 Mill. km2

2010** :  4.8 Mill. km2

)* AWI: Presse-Mitteilung, Bremerhaven/Hamburg, den 23.06.2010 

)**  http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm

Danach gab es zwischen 2007 und 2009 eine sommerliche Eiszunahme von über 1,1 Mill. km2 , folglich ca. dem Dreifachen der Fläche Deutschlands von 360.000 km2. Das sind mehr als 20 % Zuwachs !  Der Wert von September 2010 liegt zwischen den Minima von 2008 und 2009, aber immer noch um 0,5 Mill. km2 über 2007.

F a z i t :  Die “Kipp-Punkt-These“ funktioniert offensichtlich nicht, s o n s t  müßte es seit 2007 eine ständige und beschleunigte Eis-Abnahme geben, aber das Gegenteil ist der Fall!

Aus dem angeblichen Umkippen des Arktis-Eises leiten Klima-Alarmisten gerne ein dann folgendes “Kollabieren“ des Erdklimas ab. Dazu bemerkt der Vizedirektor des Alfred-Wegener-Instituts Prof. Dr. Heinz Miller  : “Das Klima kann nicht kollabieren, Natur kennt keine Katastrophen.“ 

Noch deutlicher wird eine Stagnation der arktischen Eisfläche, wenn man den winterlichen Maximal-Wert der Eisbedeckung betrachtet. Die Messungen des IJIS-Projektes  zeigen folgendes Bild : 

“Stich-Tag“ 4. April ; in Mill. km2

2003   14,2

2004 13,8

2005 13,5

2006 13,3

2007 13,4

2008 14,0

2009 13,9

2010 14,3

Das zeigt: Im April 2010 hatten wir den größten Wert der winterlichen arktischen Eisbedeckung in den vergangenen acht Jahren.

Betrachtet man ein aktuelles Datum wie den 10. Oktober 2010 in Abbildung 2, dann wird der seit 2007 zunehmende Trend der arktischen Eisbedeckung besonders deutlich: innerhalb von 4 Jahren erfolgte zu diesem Termin eine Eiszunahme um 1,2 Mill. km2 (!). 

Abbildung 2

Das "National US snow and ice data center" in Colorado hatte noch vor kurzem einen sommerlich eisfreien Nordpol ab 2013 vorhergesagt. Wie man allerdings aus den vorliegen Daten einen solchen Trend zum Abschmelzen des Nordpols innerhalb von nur 4 – 5 Jahren solide ableiten kann, das wird auf ewig das Geheimnis den Damen und Herren aus Colorado bleiben. Allerdings  –  nun konstatierte auch dieses Institut  im Januar 2010, daß das Eis am Nordpol in den letzten 2 Jahren um 26% zugenommen hat. In ihrer Zeitschrift bestätigen sie jetzt gegenüber der zuvor behaupteten Temperaturerwärmung: "…The bitter winter afflicting much of the Northern Hemisphere is only the start of a global trend towards cooler weather that is likely to last for 20 or 30 years, say some of the world’s most eminent climate scientists…." Sie sehen sogar in der gegenwärtigen Wiedervereisung eine Trendumkehr und sagen für die nächsten 20 bis 30 Jahre eine weitere Abkühlung voraus. 

Bei alledem ist noch anzumerken, daß arktische Temperatur-Sprünge und Eisschmelzen auch in früheren Jahrhunderten und sogar im 20. Jahrhundert immer wieder auftraten. Mangels seinerzeitiger Satelliten-Beobachtungen sind dabei allerdings die Eis-Schmelzen nicht flächendeckend dokumentiert. 

In einem Bericht  (vgl. auch Abb.3) über eine explosions-artige Arktis-Erwärmung ab 1919 für ca. 20 Jahre heißt es:  “Genau im Januar 1919 explodierten im hohen Norden die Temperaturen. So ein gewaltiger Temperaturanstieg wurde von der Meteorologie bisher nur dieses eine Mal gemessen und zwar auf Spitzbergen. Man kann es als Klimaknall bezeichnen. Zwischen den Wintermonaten (Jan/Feb) 1917 & 1918 einerseits und der Jahre 1919 & 1920 andererseits liegt eine Differenz von 16°C. Das gilt selbst dann noch, wenn man sich die Winter (D/J/F) der sieben Jahre 1912-1918 und 1919-1925 gegenüberstellt, die einen Sprung nach oben von 10° ergeben.  Doch nicht nur die Höhe des Anstiegs war verblüffend. Nicht weniger war die Tatsache, daß der Anstieg über zwei Jahrzehnte Bestand hatte und sich noch verstärkte, bis 1939, als der Zweite Weltkrieg seinen Lauf nahm. Die damalige Klima-Wissenschaft wunderte sich und zögerte nicht, das Ereignis und seine Fortdauer als „Klimarevolution“ zu bezeichnen.

In den späteren Jahren der 1930er Dekade waren so warm wie die erste Dekade nach dem Jahr 2000. Nach 30 Jahren Abkühlung ab 1940, setzte der Erwärmungstrend seit 1980 wieder ein. War es eine Fortsetzung der Erwärmung, die mit dem Klimaknall im Januar 1919 begonnen hatte? Wer diesen denkwürdigen Januarmonat 1919 erinnern will, muss es ganz alleine tun. Wer jedoch das Geschehen in der Arktis heute bewerten will, muss zunächst die Erwärmung von damals verstehen. Selbst 90 Jahre nach dem Ereignis liegen keine Erkenntnisse darüber vor, was sich damals in der Arktis abgespielt hat.

Abbildung 3

Schließlich könnten sich die Aussagen der AWI-Direktorin Prof. Dr. Karin Lochte zum Arktis-Eis als sehr besonnen und weitsichtig erweisen, als sie z.B. in einem FASZ-Interview auf die Frage, ob die starken Meereisverluste im Sommer 2007 ein Indiz für die künstliche Erwärmung sei, sagte: "Das müssen wir erst noch sehen. Wir wissen heute noch nicht, ob wir in vielleicht fünf Jahren wieder mehr Eis haben…". Nun, es brauchte gar keine 5 Jahre, bereits ein Jahr später, 2008, hatten wir wieder drastisch mehr Eis. 

Und ein Jahr später äußerte sich Karin Lochte nochmals im gleichen Sinne: Auf die Frage , ob die Nordpol-Umrundung 2008 von FS POLARSTERN ein Hinweis auf den globalen Klimawandel sei, bemerkte sie: “Das ist noch nicht klar… Es gibt noch keine Antwort auf die Frage, ob der Rückgang des Meereises anhalten oder ob es wieder eine kältere Phase geben wird.“ 

Dipl.-Met- Klaus-Eckart Puls,  EIKE


[1] http://www.ijis.iarc.uaf.edu/seaice/extent/AMSRE_Sea_Ice_Extent_L.png

[2] Kipp-Punkte, Kipp-Elemente im Klimasystem…

[3] http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic  u n d

http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm

[4] Bohrer im Eis, DIE ZEIT, 06.06.2007 , S.40

[5] The IARC-JAXA Information System (IJIS) is a geoinformatics facility for satellite image analysis and computational modeling/visualization in support of international collaboration in Arctic and global change research at the International Arctic Research Center in corporation with the Japan Aerospace Exploration Agency (JAXA). Copyright: since 2005, Japan Aerospace Exploration Agency (Access and Contact)
IARC-JAXA Information System, IARC, UAF P.O. Box 757340 Fairbanks, Alaska 99775-7340 USA

[6] http://www.dailymail.co.uk/sciencetech/article-1242011/DAVID-ROSE-The-mini-ice-age-starts-here.html#ixzz0cyotPDua

[7] http://www.ozeanklima.de/

[8] FAS 16.11.2007, S.46

[9] ElbeWeserAktuell, 29.10.2008, S.6BC

 

 

Related Files




Die heraufziehende Bedrohung einer globalen Abkühlung!

Es gab während der letzten Eiszeit und den 10 000 folgenden Jahren zahlreiche abrupte, kurzfristige Wärme- und Kältephasen, viel intensiver als die gegenwärtige Erwärmung/Abkühlung, von denen keine einzige mit Änderungen des CO2-gehaltes in der Atmosphäre erklärbar ist, geschahen sie doch vor dem starken  Anstieg des CO2 um das Jahr 1945. Diese Studie dokumentiert die geologischen Beweise für diese plötzlichen Fluktuationen des Klimas, die eine bemerkenswerte Konsistenz über Dekaden, Jahrhunderte und Jahrtausende aufweisen.

Eine der großen Überraschungen bei der Analyse von Sauerstoffisotopen in Eisbohrkernen aus Grönland und der Antarktis war die Erkenntnis von sehr plötzlichen Klimaänderungen in sehr kurzer Zeit. Die Aufzeichnungen aus den Eisbohrkernen zeigen, dass diese abrupten Klimaänderungen umfassend, sehr schnell und global synchron vor sich gingen. Klimaverschiebungen bis etwa zur Hälfte des Unterschieds zwischen Eis- und Zwischeneiszeiten ereigneten sich teils während nur weniger Jahrzehnte. Die Graphik in Abbildung 1 zeigt die Variation der Temperatur, abgeleitet aus Änderungen von Sauerstoffisotopen aus dem Eiskern GISP aus Grönland, dem weltweiten Standard für die Untersuchung vergangener Epochen der Klimaänderungen. Die Temperatur ist in Abhängigkeit von der Zeit aufgetragen, genauestens abgelesen aus den jährlichen Staubschichten im Eis. Perioden plötzlicher, intensiver Erwärmungen sind in rot dargestellt, solche mit Abkühlungen in blau. Zehn große, intensive Perioden abrupter Klimaänderungen zeigen sich während der letzten 15 000 Jahre, zusammen mit 60 anderen kleineren, aber ebenso plötzlichen Änderungen während der letzten 5000 Jahre.

Das Ausmaß und die Plötzlichkeit dieser klimatischen Fluktuationen sind erstaunlich. Immer wieder stieg oder fiel die Temperatur um 5 bis 10 K innerhalb eines Jahrhunderts oder weniger. Die Temperatur stieg um 5 K innerhalb von 30 Jahren und um 9 K in nur 40 Jahren während der abrupten Erwärmung vor etwa 11 500 Jahren.

  

Abbildung 1: Temperaturänderungen der letzten 17 000 Jahre aus Änderungen von Sauerstoffisotopen im GISP Eisbohrkern aus Grönland.

Die eingekreisten Nummern in der Abbildung beziehen sich auf die plötzlichen Klimaänderungen, die im Folgenden aufgelistet werden:

1.    Vor 15 000 Jahren: eine plötzliche, intensive Klimaerwärmung um etwa 12 K verursachte das dramatische Abschmelzen riesiger kontinentaler Gletscherschilde aus der voran gegangenen Eiszeit in weiten Gebieten von Nordamerika, Europa und Asien.

2.    Ein paar Jahrhunderte später fiel die Temperatur wieder um etwa 11 K, und die Gletscher kamen wieder.

3.    Vor 14 000 Jahren stieg die Temperatur global rapide um etwa 4,5 K, und die Gletscher zogen sich zurück.

4.    Vor 13 400 Jahren fiel die Temperatur um etwa 8 K, und die Gletscher stießen wieder vor.

5.    Vor 13 200 Jahren gab es erneut einen starken Temperaturanstieg um etwa 5 K, verbunden mit einem starken  Gletscherrückzug.

6.    Vor 12 700 Jahren fiel die Temperatur in kürzester Zeit um etwa 8 K, gefolgt von einer 1000-jährigen Periode einer Rückkehr zur Eiszeit, dem jüngeren Dryas.

7.    Vor 11 500 Jahren gab es einen genauso scharfen Temperaturanstieg um etwa 12 K, die das Ende der Kälteperiode des jüngeren Dryas markiert.

8.    Vor 8200 Jahren unterbrach eine plötzliche Abkühlung die Warmzeit der vergangenen 10 000 Jahre und endete mit einer abrupten Erwärmung 150 Jahre später. Wie in der Abbildung gezeigt, liegt das Level der Temperatur nahezu während der gesamten vergangenen 10 000 Jahre über dem Level der gegenwärtigen Temperaturen, was darauf hindeutet, dass es die meiste Zeit während der letzten 10 000 Jahre wärmer war als heute.

9.    Die Jahre 900 bis 1300 – Das mittelalterliche Klimaoptimum war eine Zeit globaler Erwärmung, in der die Temperaturen etwas höher lagen als heute.

10.  Vom Jahr 1300 bis zum vergangenen Jahrhundert – die Kleine Eiszeit war eine Zeit kühleren Klimas, in der sich die Gletscher signifikant vorschoben und die zu großen Hungersnöten in Europa führte.

Die Kaltzeit des jüngeren Trias vor 12 800 bis 11 500 Jahren

Das dramatische Abschmelzen der kontinentalen Eisschilde in Nordamerika, Europa und Asien, das vor 15 000 Jahren einsetzte, wurde durch eine plötzliche Abkühlung vor 12 800 Jahren unterbrochen, welche die Welt zurück in eine Eiszeit katapultierte. Weltweit stellten die Gletscher ihr Zurückweichen ein, und kontinentale wie auch die alpinen Gletscher stießen wieder einmal vor. Die Periode des jüngeren Dryas dauerte 1300 Jahre und endete mit einer plötzlichen, abrupten Erwärmung vor 11 500 Jahren. Das Klima in Grönland erwärmte sich um etwa 5 K innerhalb von 30 und um etwa 7 K innerhalb von 40 Jahren.

Abbildung 2: Temperaturkurve abgeleitet aus Sauerstoffisotopen aus dem GISP Eiskern aus Grönland, die die Dauer und Intensität der Kaltzeit des jüngeren Dryas zeigt, die vor 12 800 Jahren begann und vor 11 500 Jahren zu Ende ging.

Während dieser Kaltzeit haben sich die Gletscher nicht nur signifikant ausgedehnt, sondern zeigten auch wiederholte Fluktuationen, mancherorts bis zu neun mal (Abbildung 3)

Abbildung 3: Neun Vorstöße und Rückzüge des Eisschildes der Kordilleren im Nordwesten der heutigen USA im Endstadium der letzten Eiszeit. Das Alter auf der rechten Seite des Diagramms stellen ‚Kohlenstoffisotop-Jahre [C14]‘ dar, die mit dem Zeitraum vor 11 500 bis etwa 13 000 Kalenderjahren korrespondieren.

Das Klima im Holozän

Die Temperaturen während des größten Teils der letzten 10 000 Jahre lagen um Einiges höher als heute, bis vor etwa 3000 Jahren (Abbildung 4). Während der letzten 700 Jahre kam die Erde aus der Kleinen Eiszeit und erwärmte sich allgemein mit alternierenden Perioden von Warm- und Kaltzeiten.

Abbildung 4: Die Temperaturen lag während der letzten 10 000 Jahre generell über den heutigen Werten, bis vor etwa 3000 Jahren.

Klimafluktuationen während der letzten 5000 Jahre

 

Abbildung 5: Klimaerwärmung und –abkühlung während der vergangenen 5000 Jahre. Rote Bereiche stehen für Erwärmung, blaue für Abkühlung. Quelle: Daten aus dem GISP Eiskern.

Das Mittelalterliche Klimaoptimum und die Kleine Eiszeit

Sowohl das Mittelalterliche Klimaoptimum als auch die Kleine Eiszeit sind seit Langem bestätigt und dokumentiert mit eindeutigen geologischen Beweisen. Georef nennt 485 Studien zu diesem Klimaoptimum und 1413 zur Kleinen Eiszeit. Als Mann et al. 1998 behaupteten, dass es beide Perioden gar nicht gegeben und das Klima der letzten 1000 Jahre sich überhaupt nicht verändert hatte (der unsägliche Hockeyschläger), haben Geologen das folgerichtig nicht ernst genommen. Sie dachten, dass (1) die Baumringdaten, die sie für ihre Klimarekonstruktion nutzten, nicht klimasensitiv waren oder (2) die Daten in unzulässiger Weise bearbeitet wurden. Abbildung 6 zeigt einen Vergleich zwischen dem ‚Hockeyschläger‘ von Mann et al. Und drei Beispiele aus zahlreichen anderen, die belegen, wie gut die Temperaturänderungen des Mittelalterlichen Klimaoptimums und der Kleinen Eiszeit definiert sind.

 

Abbildung 6: Vergleich des Mann’schen Hockeyschlägers (1998; oben links) mit den Wassertemperaturen des Sargasso-Meeres, die aus dem Verhältnis von Isotopen in maritimen Organismen abgeleitet wurden (oben Links; Keigwin 1996), rekonstruierten Paläoklimatemperaturen ohne Baumringdaten (unten links; Loehle 2007) und Wassertemperaturen im Sommer bei Island (unten rechts; Sicre et al. 2008).

Wie die drei Beispiele in Abbildung 6 ebenso wie etwa 1900 andere Studien belegen, gab es das Mittelalterliche Klimaoptimum und die Kleine Eiszeit mit Sicherheit tatsächlich, und der Mann’sche ‚Hockeyschläger‘ ist unsinnig und ohne jeden glaubhaften Beweis.

Abfolge von Erwärmung und Abkühlung während der letzten 500 Jahre

Die Analyse der Sauerstoffisotope im GISP Eiskern von Grönland zeigt einen bemerkenswerten Wechsel von warmen und kalten Perioden. Die vertikalen blauen Linien im unteren Teil visualisieren die Zeiträume zwischen jeder Warm-/Kaltperiode. Im Mittel dauerte ein solcher Zeitraum 27 Jahre. Dies entspricht dem gleichen Zeitraum,  wie im Pazifischen Ozean warme und kühle Perioden im Zuge der Pazifischen dekadischen Oszillation wechseln (siehe unten).

 

Abbildung 7: Die Temperaturänderungen nach dem GISP Eiskern von Grönland zeigen ein regelmäßiges Muster von alternierenden Erwärmungen und Abkühlungen mit einer Periode von 25 bis 30 Jahren während der letzten 500 Jahre. Dies ähnelt sehr stark dem Alternieren der Pazifischen dekadischen Oszillation.

Der Vergleich von Warm-/Kaltzeiten mit solaren Veränderungen

Die vielleicht bekannteste Verbindung zwischen einer Klimaänderung und solaren Veränderungen ist das solare Maunder-Minimum zu Beginn der Kleinen Eiszeit. In der Zeit zwischen den Jahren 1650 und 1700 wurden fast keine Sonnenflecken beobachtet (Abbildung 8), und das Klima wurde kalt, was zu massenhaften Hungersnöten wegen wiederholten Missernten in Europa führte.

Abbildung 9 zeigt den Zusammenhang vieler anderer solarer Minima mit einer Klimaabkühlung vor und nach dem Maunder-Minimum. Das Sporer-Minimum, das dem Maunder-Minimum vorausging, war ebenfalls eine Zeit der Abkühlung. Weitere Abkühlungen, die mit solaren Minima zusammenfielen, waren das Dalton-Minimum (1790 bis 1820), das Minimum von 1880 bis 1915 sowie das von 1945 bis 1977.

Abbildung 8: Sonnenflecken während des solaren Maunder-Minimums. Von 1650 bis 1700 wurden fast keine Sonnenflecken beobachtet, und die damit zusammenhängende Klimaabkühlung führte zu verheerenden Hungersnöten in Europa.

 

Abbildung 9: Zusammenhang zwischen solaren Veränderungen und klimatischer Abkühlung. Dem gut bekannten Maunder-Minimum sowie dem vorangegangenen Sporer-Minimum folgte das Dalton-Minimum (1790 bis 1820) sowie den solaren Minima von 1880 bis 1915 und von 1945 bis 1977. Alle solaren Minima waren mit Klimaabkühlung verbunden.

Den Zusammenhang zwischen solarer Aktivität und der Wassertemperatur in Ozeanen zeigt sehr gut Abbildung 10. Der Southern Oscillation Index SOI folgt nahezu exakt dem solaren magnetischen Index (AP) [?].

 

Abbildung 10: Zusammenhang zwischen dem SOI und solarer Aktivität.

Historische Fluktuationen

Die globale Erwärmung ist real, begann aber nicht 1945, als die CO2-Emissionen stark zunahmen. Im 20. Jahrhundert gab es zwei Perioden mit globaler Erwärmung (1915 bis 1945 und 1977 bis 1998) sowie zwei Perioden mit einer globalen Abkühlung, nämlich von 1880 bis 1915 und 1945 bis 1977. Die CO2-Emissionen begannen nach dem 2. Weltkrieg stark zu steigen, wurden aber von einer globalen Abkühlung anstatt einer Erwärmung der folgenden 30 Jahre begleitet. Die frühere Periode der Erwärmung von 1915 bis 1945 ereignete sich vor dem rasanten Anstieg des CO2 in der Atmosphäre.

Abbildung 11: Temperaturverlauf des vergangenen Jahrhunderts.

Während jeder der beiden Erwärmungsphasen zogen sich die alpinen Gletscher zurück, um in den beiden Perioden mit Abkühlung jeweils wieder vorzustoßen. Der zeitliche Verlauf der Gletschervorstöße und –rückzüge entspricht nahezu perfekt den globalen Temperaturänderungen und mit den Wassertemperaturen im Pazifik (PDO).

 

Abbildung 12: Zusammenhang zwischen den Fluktuationen der Gletscher auf dem Mt. Baker im US-Bundesstaat Washington mit der globalen Temperatur und der PDO.

Die pazifische dekadische Oszillation PDO

Der Pazifische Ozean hat zwei Zustände (Modi), einen warmen und einen kalten, die regelmäßig wechseln in einem Zyklus, der etwa 25 bis 30 Jahre dauert. Dies ist bekannt unter dem Begriff Pazifische Dekadische Oszillation PDO. Befindet sich die PDO im Warmmodus, erwärmt sich das Klima, befindet sie sich im Kaltmodus, kühlt sich das Klima ab. Man weiß, dass Fluktuationen von Gletschern durch Klimaänderungen hervorgerufen werden, die wiederum durch die Wassertemperaturen (PDO) angetrieben werden, aber der zugrunde liegende Mechanismus der PDO ist noch nicht sicher verstanden. (Abbildung 13).

 

Abbildung 13: Gletschervorstöße und –rückzüge, die durch die Wassertemperatur der Ozeane beeinflusst werden. Es scheint Beweise dafür zu geben, dass die Temperatur der Ozeane durch die solare Variation beeinflusst werden, aber das muss noch näher untersucht werden.

Beispiele für die beiden PDO – Zustände zeigt Abbildung 14. Im Kaltmodus der PDO sind die Temperaturen im Ostpazifik niedrig (dargestellt in blau). Dies war typisch für die globale Abkühlung von 1945 bis 1977. Der abrupte Wechsel vom kühlen in den warmen Modus innerhalb eines einzigen Jahres (1977) wurde „die große pazifische Klimaverschiebung“ genannt [Great Pacific Climate Shift]. Die Graphik im unteren Teil der Abbildung zeigt, wie der Wechsel zwischen den beiden Modi im vergangenen jahrhundert erfolgt war. Es zeigt sich eine direkte Korrelation zwischen dem Modus der PDO und der globalen Temperatur.

 

Abbildung 14: Beispiele für die Kaltphase der PDO (1945 bis 1977) und der Warmphase (1977 bis 1998).

Die Phasenänderung der PDO von warm nach kalt im Jahre 1999

Die Wassertemperatur im Ostpazifik vor der nordamerikanischen Küste war warm im Jahre 1997 (Abbildung 15). 1999 ging die Warm- in die Kaltphase über und verharrte seitdem in diesem Zustand, wie die Teilbilder von 2001, 2007, 2009 und 2010 zeigen (Abbildungen 15 und 16).

Abbildung 15: NOAA – Satellitenbilder mit Aufnahmen, die zeigen, wie die PDO 1999 von der Warm- in die Kaltphase übergegangen war. Orange und gelbe Töne repräsentieren wärmeres und blaue Töne kühleres Wasser.

 

Abbildung 16: NOAA – Bilder der Wassertemperatur in 2009 und 2010.

Aussichten für die kommenden Jahrzehnte

Die Extrapolation des Verhaltens der PDO des ersten Jahrzehnts dieses Jahrhunderts für das restliche Jahrhundert zeigt interessante Verhältnisse. Die Warmphase von 1915 bis 1945, die Kaltphase von 1945 bis 1977, die Warmphase von 1977 bis 1998 und die erneute Änderung von warm nach kalt 1999 passen allesamt zu globalen Klimaänderungen und lassen mit hoher Wahrscheinlichkeit Folgendes vermuten:

  1. Die PDO weist einen regelmäßigen Rhythmus auf mit einem Wechsel von warm nach kalt und umgekehrt alle 25 bis 30 Jahre.

  2. Die PDO passte genau zu jeder einzelnen Klimaänderung im vorigen Jahrhundert und kann als ein Instrument zur Vorhersage (Prädiktor) genutzt werden.

  3. Seit dem jüngsten Wechsel von warm nach kalt im Jahre 1999 lagen die Temperaturen nie mehr höher als 1998, dem Höhepunkt der letzten Warmphase.

  4. Jedes Mal, wenn die PDO von einem Modus in den anderen gewechselt hatte, blieb sie in diesem Modus für 25 bis 30 Jahre. Daraus folgt, dass sie nach dem Wechsel in die Kaltphase 1999 zweifellos noch einige Jahrzehnte in der Kaltphase verharren wird (Abbildung 17).

  5. Da die PDO also wohl noch mehrere Jahrzehnte in der Kaltphase verharrt, kann man genauso viele Jahrzehnte einer globalen Abkühlung erwarten.

 

Abbildung 17: Veränderungen der PDO im vergangenen Jahrhundert. Weil die PDO 1999 in die Kaltphase gewechselt hat, deutet die logische Extrapolation der Graphik darauf hin, dass sich die globale Abkühlung verstärkt und noch einige Jahrzehnte anhalten wird.

Im Jahre 2000 hat das IPCC eine globale Erwärmung um 0.5 K pro Jahrzehnt und eine globale Erwärmung um 5 K bis zum Jahr 2100 vorhergesagt. Die rote Linie in Abbildung 18 zeigt die Vorhersage des IPCC von 2000 bis 2050. Man beachte, im Jahre 2010 sollte es bereits 0.5 K wärmer sein als 2000. Dies war aber nicht so, und die Rechnungen des IPCC lagen schon bei der Berechnung der ersten 10 Jahre daneben.

Die blauen Kurven der angenommenen globalen Abkühlung in Abbildung 18 basieren auf den vergangenen Verhältnissen der PDO und auf dem Temperaturverlauf der letzten 500 Jahre. Drei mögliche Szenarien werden gezeigt: (1) globale Abkühlung ähnlich wie in den Jahren 1945 bis 1977, (2) globale Abkühlung ähnlich der Jahre 1880 bis 1915, (3) globale Abkühlung ähnlich dem Dalton-Minimum von 1790 bis 1820.

Abbildung 18: Angenommene Temperaturentwicklungen bis 2050. Die rote Kurve zeigt die IPCC-Rechnung aus dem Jahr 2000. Blaue Kurven zeigen den Temperaturverlauf basierend auf den Variationen der PDO im vergangenen Jahrhundert und dem Temperaturverlauf der letzten 500 Jahre.

Die Aussicht, dass die Temperatur bis auf ein Niveau ähnlich dem Dalton-Minimum zurückgehen könnte, basiert auf der kürzlichen Änderung der solaren Aktivität von einem solaren Großen Maximum zu einem solaren Minimum ähnlich wie im Dalton-Minimum. Der ungewöhnlich lange Sonnenzyklus 23 und dessen magnetischer Index lassen die Möglichkeit dass ein solches Minimum ähnlich wie zur Zeit des Dalton-Minimums sehr wahrscheinlich ist.  Eine vierte Möglichkeit besteht darin, dass wir uns einem Minimum vom Typ des Maunder-Minimums nähern mit einer weiteren Kleinen Eiszeit. Die Zeit wird zeigen, welche Kurve der Realität entspricht.

Auswirkungen einer globalen Abkühlung

Dass die globale Erwärmung vorbei ist, zumindest für die nächsten Jahrzehnte, scheint eine Erleichterung zu sein. Die schlechte Nachricht ist jedoch, dass eine globale Abkühlung viel schlimmere Folgen für die Menschen hat als eine globale Erwärmung und ein Grund für noch größere Sorgen ist, und zwar aus folgenden Gründen:

  1. Einer jüngeren Studie zufolge kommen durch extreme Kälte doppelt so viele Menschen ums Leben wie durch extreme Hitze.
  2. Globale Abkühlung hat auf die Produktion von Nahrungsmitteln infolge kürzerer und kälterer Wachstumsphasen sowie schlechtes Wetter während der Ernte einen sehr negativen Effekt. Dies ist jetzt schon im Mittleren Westen der USA, in China, Indien und anderen Orten in der Welt der Fall. Am härtesten wird es die Staaten der sog. Dritten Welt treffen, die jetzt schon vielfach Hunger leiden.
  3. Zunahme des Energieverbrauchs pro Kopf, besonders zu Heizzwecken.
  4. Verschlechterung der Möglichkeiten, mit der Bevölkerungsexplosion umzugehen. Die Weltbevölkerung wird bis 2050 auf 9 Milliarden Menschen wachsen, eine Zunahme um 50%. Dies bedeutet eine substantielle Zunahme des Bedarfs an Nahrung und Energie, und zwar in einer Zeit, in der beides wegen des sich abkühlenden Klimas immer weniger zur Verfügung steht.

Schlussfolgerungen

Zahlreiche, abrupte, kurzlebige Warm- und Kaltphasen, viel intensiver als die gegenwärtige Erwärmung/Abkühlung, ereigneten sich während der letzten Eiszeit, von denen keine einzige durch Änderungen des atmosphärischen CO2-Gehaltes ausgelöst wurde.

Klimaänderungen in geologischen Aufzeichnungen zeigen ein regelmäßiges Muster von Erwärmung und Abkühlung mit einer Periode von 25 bis 30 Jahren während der letzten 500 Jahre.

Starke Korrelationen zwischen Änderungen der solaren Strahlung, der PDO, Gletschervorstößen und –rückzügen und das globale Klima gestatten es, ein konsistentes Muster in die Zukunft zu extrapolieren.

Die angenommene Abkühlung während der nächsten Jahrzehnte basiert auf Mustern der PDO im vorigen Jahrhundert und des Temperaturverlaufs der letzten 500 Jahre. Drei mögliche Szenarien lassen sich ableiten: (1) globale Abkühlung ähnlich wie in den Jahren 1945 bis 1977, (2) globale Abkühlung ähnlich der Jahre 1880 bis 1915, (3) globale Abkühlung ähnlich dem Dalton-Minimum von 1790 bis 1820.

Zu erwarten ist eine globale Abkühlung der nächsten 2 bis 3 Dekaden, die weit schlimmere Folgen haben wird als es eine globale Erwärmung je hätte.

Kommentar des Übersetzers zu diesem Text

Obwohl es sich hier eindeutig um eine hoch seriöse wissenschaftliche Studie handelt, so fehlt doch jede Wortschwurbelei. Die Aussagen sind allgemein verständlich, klar, präzise und werden auch noch schlüssig nachvollziehbar hergeleitet. Diese Studie sollte auch Nichtfachleuten gut verständlich sein.

Behandelt wird das Verhalten der PDO durch die Jahrhunderte, was dann in Beziehung gesetzt wird zur Klimaentwicklung. Die gerade begonnene Kaltphase der PDO sollte zu einer Abkühlung führen. Erst am Schluss kommt der Autor auf den zeitlichen Zusammenhang mit den sehr schwachen solaren Aktivitäten, die für sich allein in der Vergangenheit ja ebenfalls Kaltphasen des Klimas zur Folge hatten. Nun trifft also beides zusammen – für den Übersetzer ist dies der zentrale Punkt dieser Studie. Der Autor weist am Ende auch auf die negativen Folgen kälteren Klimas hin. Es ist eine Schande (a travesty!), dass weder Politik noch Medien diese Bedrohung auch nur ansatzweise ernst nehmen, und dass es immer noch Institutionen gibt, die das längst vielfach wissenschaftlich widerlegte Gespenst der globalen Erwärmung kolportieren!

Prof. Dr. Don Easterbrook

Übersetzt und kommentiert von Chris Frey EIKE




Rahmstorf vom PIK bestätigt: Anthropogenen Klimawandel gibt es nicht!

 

Tatsächlich liegt lediglich 1% des im Meerwasser befindlichen CO2 als gelöstes CO2 vor. Der übrige Rest ist gebunden, meist als Hydrogencarbonat (91%). Weiter bleibt fraglich, inwieweit solche Megaveranstaltungen wie Mexiko, die große Geldmengen verschlingen, in Anbetracht von Climategate, längst widerlegter Zusammenhänge zwischen Temperatur und CO2, sowie weltweit fallender Temperaturen gegenüber dem Steuerzahler noch verantwortbar sind.

Der prominente amerikanische Physikprofessor Harold Lewis bezeichnet die menschlich verursachte Erderwärmung als den “größten und erfolgreichsten pseudowissenschaftlichen Betrug, den ich während meines langen Lebens gesehen habe.“ In seinem Rücktrittsschreiben an die der Amerikanischen Physikalischen Gesellschaft gewährt er tiefe Einblicke in die Machenschaften einer durch eine “Flut aus Geldern…korrumpierten“ Forschern (Siehe Anmerkung der Redaktion unter * vom 8.8.15), deren einziges Interesse die Jagd nach Forschungsgeldern und Karrieremöglichkeiten ist. Wir möchten nun aufzeigen, dass diese Worte, zumindest teilweise, doch etwas zu hart geraten sind, denn die Gilde der Angesprochenen liefert wenigstens zeitweise auch wissenschaftlich Wertvolles.

EIKE berichtete bereits darüber, dass Prof. Schellnhuber anhand eigener Untersuchungen zu dem Schluss gelangte, dass es keine globale Erwärmung in den letzten Jahrzehnten gab: „J.F. Eichner, E. Koscielny-Bunde, A. Bunde, S. Havlin, and H.-J.Schellnhuber: Power-law persistence and trends in the atmosphere, a detailed study of long temperature records, Phys. Rev. E 68 (2003)“. In dieser Arbeit wurden die Temperaturverläufe von 95 weltweit verteilten Stationen der letzten Jahrzehnte untersucht, wozu es im Summary unmissverständlich heißt “In der weit überwiegenden Mehrheit aller Stationen konnten wir keine Anzeichen für eine globale Erwärmung erkennen“.

Auch sein nicht minder medienbekannter PIK-Kollege, Prof. Rahmstorf, hat durch eigene Untersuchungen im gleichen Jahr bestätigt, dass das heutige Temperaturniveau kühl im Vergleich zu früheren Warmperioden ist. Seine Arbeit (“Timing of abrupt climate change: A precise clock“, Geophys. Res. Lett.. 30, Nr. 10, 2003, S. 1510, doi:10.1029/2003GL017115) beschäftigt sich mit den sog. Dansgaard-Oeschger-Ereignissen (DO-Ereignisse, siehe hier ). Diese beschreiben rasante Klimaschwankungen während der letzten Eiszeitepoche. Zwischen 110.000 und 23.000 BP wurden 23 solcher Ereignisse aus dem GISP-2-Eiskern rekonstruiert. Benannt sind sie nach Prof. Willi Dansgaard und Prof. Hans Oeschger, die sie als erste entdeckten. Die folgende Abbildung zeigt die DO-Ereignisse in der Arbeit von Rahmstorf, 2003.

 

Abbildung 1 zeigt die nummerierten Dansgaard-Oeschger-Ereignisse von 50.000 – 0 Jahre BP, dazu besonders markiert, dass sog. 8k-Ereignis, welches für einen abrupten Kälteeinbruch steht. Die Ursache war ein abruptes Abrutschen sehr großer, gelöster Eismassen in den Nordatlantik. Rechts ist die Lage der Probe (roter Kreis) zu sehen.

Die DO-Ereignisse folgen einem 1.470 Jahre-Zyklus, der auch in Einzelfällen die zwei- oder dreifache Länge erreichen kann, was auf ein Schwingverhalten hindeutet. Die Periodizität fand Prof. Gerard Clark Bond. Darüber hinaus wies er nach, dass die DO-Ereignisse in 5er-Gruppen auftreten, die zwischen 5.000 und 15.000 Jahren liegen. In diesem 1.470-Jahre-Zyklus sind sowohl der bekannte de Vries/Suess-Zyklus der Sonne, als auch der Gleissberg-Zyklus der Sonne abgebildet. Die folgende Abbildung zeigt die Länge der DO-Ereignisse und den Bond-Zyklus (kleine Abbildung, Quelle: http://www.uni-graz.at/~foelsche/VO/Klima_2010/Klima_09_Abrupte_Klimaaenderungen.ppt#302,9,Folie 9).

 

Abbildung 2 zeigt den typischen Temperaturverlauf einiger DO-Ereignisse. Sie beginnen mit einer abrupten Erwärmungsphase, halten ihre Temperatur, um anschließend wieder rapide zu fallen.

So weit zu den DO-Ereignissen. Betrachten wir nun den Temperaturverlauf, der sich aus dem GISP-2-Eiskern ergibt.

 

Abbildung 3 zeigt das aus GISP-2 ermittelte Temperaturprofil von 50.000 BP bis heute und darunter, als Feinauflösung von 7.000 v.Chr. bis heute. Unschwer ist zu erkennen, dass wir, zumindest nach den Untersuchungen von Rahmstorf, heute in einer vergleichweise kalten Zeit leben. Während der mittelalterlichen Warmzeit vor 1.000 Jahren, als die Wikinger das grüne Grönland (daher der Name: Grünland) besiedelten und dort Ackerbau und Viehzucht betreiben konnten, war es ca. 1°C wärmer als heute. Im römischen Klimaoptimum vor ca. 2.000 Jahren, als Hannibal mit seinen Elefanten im Winter! die weitgehend gletscherfreien Alpen überquerte, war es sogar rund 2°C wärmer als heute und im Klimaoptimum des Holozäns vor fast 3.500 Jahren, als sich die Hochkulturen entwickelten, war es sogar ca. 3°C wärmer als heute. Im Anschluss daran gab es vor ca. 3.200 Jahren eine rapide Abkühlung von etwa 2°C.

Untersuchungen des geologischen und paläontologischen Instituts der Uni Bonn, im Auftrag von Dr. Mordechai Stein (University of Israel) anhand von Pollen*) ergaben zweifelsfrei, dass im 13. Jahrhundert v.Chr. eine “dramatische Trockenperiode“ (Prof. Dr. Thomas Litt, Anmerkung: Trockenes Klima bedeutet kälteres Klima) herrschte – es handelt sich also nicht um regionale, auf Grönland beschränkte Ereignisse, wie Abbildung 4 aus einer weiteren Arbeit zeigt.

*)   Die mikroskopisch kleinen Pollen lagern sich im Sediment ab, wo sie lange überdauern. Anhand der Pollenarten und Mengen (die Olivenbaumpolle steht z.B. für feuchtes Klima) lässt sich auf die herrschenden klimatischen Verhältnisse schließen. Die „Jahresringe“ werden durch weißen Verdunstungskalk, der sich im Sommer bildet, abgeschlossen.

 

Abbildung 4 (Quelle: http://www.oism.org/pproject/s33p36.htm) zeigt die Oberflächentemperatur in der Sargasso-See über die letzten 3.000 Jahre. Auch hier ist deutlich zu sehen, dass die heutigen Temperaturen vergleichsweise niedrig sind.

Abschließend ist festzuhalten, dass die heutigen Temperaturen nichts Außergewöhnliches darstellen, im Vergleich eher unterdurchschnittlich sind und es bereits in jüngster Vergangenheit Epochen gab, in denen es deutlich wärmer war als heute. Den Menschen ging es in Warmzeiten verständlicherweise besser als in Kaltzeiten. Nicht umsonst reisen wir im Sommer nach Spanien und nicht nach Sibirien oder zum Nordpol.

Es bleibt abzuwarten, wann beim PIK die eigenen wissenschaftlichen Erkenntnisse in die tägliche Arbeit einfließen werden und man dort wieder Verbindung zur Realität aufnehmen wird.

Raimund Leistenschneider – EIKE

(*) Hier stand bis zum 8.8.15 eine beleidigende Äußerung des Autors gegenüber alarmistischen Klimaforschern, die weder durch das zuvor gestellte Zitat noch durch die Realität gedeckt war. Wir bedauern diese Entgleisung und entschuldigen uns bei den Kollegen auf die sie gemünzt war. Wir haben sie außerdem gestrichen.




Neuseelands Wetterbehörde zieht Verantwortung für historische Temperaturangaben zurück!

Das NIWA (National Institute of Water & Atmospheric Research) hat eine hilflose Erklärung der Verteidigung veröffentlicht – eine Verteidigung, die man vornimmt, wenn man beschlossen hat, sich zu ergeben.

….Verrat an den Anhängern

Das ist ein Skandal. Die rechtfertigende Selbstdarstellung des NIWA nach Erscheinen unseres Papiers im vergangenen November kann man vergessen. Jetzt haben sie es aufgegeben und sagen, dass das NIWA nichts mit der NZTR zu tun hat, und dass es ohnehin so etwas wie eine „offizielle“ Temperaturaufzeichnung von Neuseeland nicht gibt.

Werden die Main Stream Medien (MSM) dies berichten? Ich denke, dass sie das tun sollten, aber ich habe ziemliche Zweifel, dass sie es auch tun.

Ich wäre jedenfalls sehr ärgerlich, falls ich ein Anhänger des NIWA gewesen wäre. Wir haben sie Monat für Monat gegen skurrile Angriffe auf ihren Ruf unterstützt,  und zwar mit dem Argument, dass sie gute Gründe dafür hatten, das zu tun, was sie getan haben. Dann plötzlich machten sie eine Kehrtwende und erklärten, dass der Graph des Temperaturverlaufs nichts mit ihnen zu tun hat!

NZCSC: „Das ist fehlerhaft!” NIWA: „Das stammt nicht von uns!”

Wie können seriöse, engagierte Wissenschaftler so etwas tun? Wie können sie eine solche Antwort auf monatelange Gerüchte über wissenschaftliche Fehler geben? Ihren Anhängern zufolge waren sie von Versuchen betroffen, ihre führenden Wissenschaftler zu bestechen. Wie kann das NIWA darauf mit der Feststellung reagieren, dass sie nicht dafür verantwortlich sind?

Sie verteidigen nicht die Temperaturaufzeichnung oder die Fehler darin, sondern sie sagen einfach: „Ihr habt recht, der Datensatz könnte verfälscht sein, darum waschen wir uns davon rein.“ Das erweckt nicht unser Vertrauen in die „Wissenschaft“, die sie da hinein steckten. Was ist da eigentlich los? Ich hoffe wirklich, dass ihre Anwälte irgendeinen schlauen, gerissenen Dreh kennen, um sie da heraus zu bringen, aber danach sieht es nicht aus.

Aber es kommt noch schlimmer.

Nach Ansicht des NIWA wird zu keiner Zeit von dem NIWA verlangt, die besten verfügbaren Informationen oder die besten wissenschaftlichen Methoden anzuwenden. Es glaubt nicht, dass das irgendetwas mit ihrer satzungsgemäßen Pflicht zu tun hat, eine „hervorragende Leistung“ zu erbringen.

Das war ein Schlag ins Kontor. Wie können sie eine hervorragende Leistung erbringen, ohne die besten Techniken zu verwenden?

Das NIWA verneint, dass es so etwas wie eine “offizielle” Temperaturaufzeichnung von Neuseeland gibt, obwohl sie Spaß daran hatten, ein Akronym dafür zu erfinden (NZTR). Die berühmte „Serie der sieben Stationen [„seven-station series“] (7SS) ist vollständig inoffiziell und ausschließlich für forschungsinterne Zwecke gedacht. Niemand sonst sollte sich darauf verlassen.

Es sieht eindeutig aus wie die neuseeländische Temperaturreihe

Aber sie existiert nicht außer als Akronym – und im Labor – und das NIWA ist nicht verpflichtet, danach zu suchen.

Die 7SS wurde auf der Website unter dem Titel “NZ Temperature record” [Temperaturreihe von Neuseeland] gepostet [posted on their web site] und sieht für die ganze Welt wie die offizielle Reihe aus. Falls sie absolut zuverlässig korrekt wäre, würde das NIWA dies nur zu gerne behaupten und sorgfältig auf die Korrektheit achten. Der einzige Grund, warum sie sich davon reinwaschen, besteht darin, dass die Reihe voller Fehler und böser Ungenaujigkeiten steckt, genau wie wir gesagt haben.

Wir haben die ganze Zeit recht gehabt!

Aber falls die 7SS eine Totgeburt ist, was wird das NIWA in Zukunft sagen, wenn die Regierung oder die Gerichte fragen, ob es in Neuseeland während der letzten 100 Jahre warmer oder kälter geworden ist? Nun, sie schaffen sich eine neue NZTR und erwarten, dass der Austausch mit der ursprünglichen Reihe ihre Verteidigung etwas verbessert. Es bleibt abzuwarten, ob aus dieser Reihe nun Erwärmung oder Abkühlung herauskommt.

$ 70 000 für nichts und wieder nichts

Im Februar, als die Neuseeland-Sektion der Climate Science Coalition einen Brief an Chris Mace, dem Vorsitzenden der NIWA, geschrieben und auf die vielen fehlerhaften Aspekte der 7SS hingewiesen hatte, versprach Mr. Mace eine „formelle Begutachtung“. Minister Wayne Lapp sagte später im Parlament, dass die „Begutachtung“ durch fünf oder sechs Wissenschaftler erfolgen sollte, die die Anpassungen des NIWA innerhalb von sechs Monaten durchleuchten sollten. Er sagte auch, dass das NIWA eine zusätzliche Staatshilfe in Höhe von $ 70 000 im Budget des Jahres 2010 erhält, um diese „Begutachtung“ finanziell abzusichern.

Das ist viel Zeit und Geld, um ein Problem dingfest zu machen, das wir sehr schnell ohne jede Zuwendung erkannt haben.

Das alles ist auch ein ziemliches Kompliment an Jim Salinger. Schließlich nahm er die Anpassungen der 7SS als Student in den siebziger Jahren vor – ohne Unterstützung durch Steuergelder oder ein Team von Wissenschaftlern. 1992, 20 Jahre später, hat das NIWA nicht einmal Jims Kalkulationen durchgesehen (die in irgendeinem Computerspeicher schmoren) oder die Methodik verbessert, bevor sie das Ganze als ein NIWA-Produkt ausgaben.

Diesmal scheinen sie ihre Hausaufgaben zu machen. Ihr Verteidigungspapier offenbart, dass die neue NZTR fertig zur Präsentation ist und nur noch einer wissenschaftlichen Begutachtung durch das australische Büro der Meteorologie (BOM) harrt. In nicht allzu ferner Zukunft dürfte die 7SS Geschichte sein.

Sieg ohne einen Schuss abzufeuern. Es tut gut, dass unsere Kritik nun offiziell gerechtfertigt ist, aber was für ein Tiefpunkt!

Falls das Land [Neuseeland] irgendwann eine gesicherte Temperaturaufzeichnung hat, wird sich dann irgendjemand noch an uns erinnern?

Richard Treadgold |6. October 2010

Frei übersetzt von Chris Frey für das EIKE

Den Originalartikel finden Sie hier




Hockeystick-Kontroverse: Real Climates (RC) Antwort auf McShane und Wyner- ein Fall mit vielen Umleitungen

Das ist ein ganz schöner Hammer. Hier sieht man den Graph von M&W:

McShane-Wyner Abbildung 16

Ich musste nur den ersten Absatz des Papieres lesen, um mich verärgert abzuwenden. Einfügungen von mir:

McShane und Wyner (2010) (im Folgenden “MW”) analysieren einen Datensatz von “Proxy”-Klimadaten, der von Mann et al (2008) (im Folgenden M08) benutzt wurde, um zu versuchen, deren Brauchbarkeit hinsichtlich der Rekonstruktion von historischen Temperaturverläufen abzuschätzen. MW wenden in ihren Analysen neue Methoden an, was sehr willkommen ist. Jedoch machen sowohl das Fehlen einer sauberen Qualitätskontrolle der Daten als auch eines angemessenen “Pseudoproxytests” zur Einschätzung der Güte ihrer Verfahren ihre wesentlichen Schlussfolgerungen ungültig.

Warum war ich verärgert?

Die schiere Arroganz der Behauptung einer unsauberen “Qualitätskontrolle der Daten” ist verwirrend, wenn man bedenkt, dass Mann selbst in seinen eigenen Arbeiten Dinge wie falsche Werte von geogr. Länge und Breite der Fundorte seiner Proxydaten (incorrect lat/lon values of proxy samples), verkehrt angeordneten Proxies aus den Tiljander-Sedimenten (upside down Tiljander sediment proxies) sowie abgeschnittene oder ganz andere Daten (truncated/switched data) verwendet. Es ist doppelt verwirrend, wenn Tausenden Menschen dies wohlbekannt ist und Mann nichts getan hat, um diese Fehler zu korrigieren, sondern stattdessen in seiner Widerlegung von Qualitätskontrollen spricht. Immerhin verteidigt Schmidt diese Sicht der Dinge auf RC [RealClimate] (Schmidt defends these sort of things). Es scheint, dass das Team die Arbeit von McShane und Wyner nie gelesen hat, weil sie ganz klar Folgendes über Datenqualität gesagt haben:

Wir sind in diesem Stadium nicht daran interessiert, uns mit der Datenqualität zu befassen. Das heißt, im Folgenden und der gesamten übrigen Arbeit verwenden wir ausschließlich die Daten von Mann et al. (2008)

Also haben MW Manns eigene Daten benutzt und erklärt, dass es in ihrer Arbeit lediglich um Anwendungen für diese Daten geht, und nicht um die Daten selbst. Und jetzt beklagt sich das Team über die Kontrolle der Datenqualität?

Das hier zum Ausdruck kommende Selbstbewusstsein des Teams muss so groß sein, dass die Autobahndirektion Leitkegel aufstellen muss, wenn sie reisen. Und sie wundern sich, warum man sich in Cartoons über sie lustig macht:

Dann jammern sie darüber, dass die MWP “aufgeblasen” wurde.

Der Gebrauch zusätzlicher Proxies von minderer Qualität hat einen substanziellen Einfluss auf die Rekonstruktionen, indem sie die mittelalterliche Wärmespitze aufblähen, vor allem in ihrem vorgestellten “OLS PC 10” [?]

Das ist also der Punkt: man WEISS nicht, wie hoch die Temperatur in der MWP war. Es gibt keine Absolutmessungen davon, sondern nur Rekonstruktionen aus Proxies; und die Meinung des Teams, wie die Temperatur gewesen sein könnte, basiert auf Annahmen und nicht aktuellen Messungen. Man kann sich nicht als Autorität aufspielen, die bestimmt, ob die Wärme aufgebläht war oder nicht, wenn man gar nicht weiß, wie die Temperatur wirklich war. Auch regen sie sich über „Proxies minderer Qualität“ auf (ihren eigenen), die in MW verwendet wurden. So wie die hier [these]?

Der Hockeyschlägergraph basiert zur Hälfte auf Proxies von Grannenkiefern, deren Wertlosigkeit schon längst bekannt war [already been exposed]. Man hatte sie beibehalten, weil die anderen HS-Graphen, basierend auf Briffas Yamal Baumringdaten aus Lärchen, nicht widerlegt werden konnten. Wir wissen heute, dass Briffa den Temperaturverlauf von Jahrhunderten aus den Daten von 12 Bäumen und einem gemeinen Ausreißer abgeleitet hatte. Eine so kleine Datenmenge ist skandalös; die Verwendung dieser nicht veröffentlichten Daten als endgültiger Beweis für viele andere HS-Graphen ist skandalös. Und die nicht erfolgte säuberliche Trennung von Baumringdaten und lokalen Temperaturaufzeichnungen ist die Mutter aller Skandale.

Lesen Sie die ganze Antwort des Teams hier; Kommentare sind willkommen: http://pubs.giss.nasa.gov/docs/notyet/inpress_Schmidt_etal_2.pdf

Falls man damit nicht weiterkommt: inpress_Schmidt_etal_2

Zum Ausgleich findet man hier das Papier von McShane und Wyner: http://wattsupwiththat.files.wordpress.com/2010/08/mcshane-and-wyner-2010.pdf ======================

Übersetzt von Chris Frey für EIKE unter Mithilfe von Pierre Gosselin




Saturnmond TITAN enthält mehr Kohlenwasserstoffe auf der Oberfläche als die Erde Öl-Reserven hat!

Mit seinen milden minus 179 Grad Celsius ist TITAN ganz anders als die Erde. Anstelle von Wasser befinden sich flüssige Kohlenwasserstoffe in Form von Methan und Ethan auf der Oberfläche des Mondes und THOLINE bilden vermutlich die Dünen.

Die Bezeichnung THOLIN wurde 1979 von Carl Sagan zur Bezeichnung der komplexen organischen Moleküle geprägt, die den Kern der präbiotischen Chemie bilden. CASSINI hat etwa 20 Prozent der TITAN-Oberfläche mit Radar erfasst. Hunderte von Seen und Ozeanen wurden beobachtet, von denen mehrere Dutzend mehr flüssigen Kohlenwasserstoff enthalten als alle irdischen Öl- und Gas-Reserven.

Die dunklen Dünen entlang des Äquators enthalten eine viel hundertmal größere Menge von organischem Material als alle Kohlereserven der Erde. Die nachgewiesenen Erdgas-Reserven der Erde betragen 130 Mrd. Tonnen. Das entspricht der 300fachen Energiemenge, die in den USA jährlich für Heizung, Kühlung und Beleuchtung der Wohnungen verbraucht wird. Unter Dutzenden von TITAN-Seen enthält jeder einzelne diese Energiereserven in Form von Methan und Ethan.

Dieser Film, der aus einzelnen Radarbildern CASSINI zusammengesetzt ist, zeigt Mengen von Flüssigkeit in der Gegend des Norpols. Video mit voller Abdeckung. „Diese grobe Abschätzung beruht auf den Bildern der Seen in der Norpol-Region. Wir nehmen an, dass der Südpol ähnlich ist, aber wir wissen noch nicht, wieviel Flüssigkeit dort ist,“ sagte Lorenz.

Das CASSINI-Radar hat die Südpolregion erst einmal beobachtet und da waren nur zwei kleine Seen zu sehen. Weitere Beobachtungen sind für die vorgeschlagene erweiterte CASSINI-Mission geplant. Die Tiefe der TITAN-Seen wurde aufgrund von Annahmen geschätzt, die auf irdischen Seen beruhen. Man nahm die durchschnittliche Fläche und Tiefe von Seen auf der Erde unter Berücksichtigung der angrenzenden Umgebung, wie auch der Berge. Auf der Erde ist die See-Tiefe meist 10 mal geringer als die Höhe der umliegenden Berge. „Wir wissen auch, dass einige Seen mehr als 10 Meter tief sind, weil sie rabenschwarz auf dem Radar aussehen. Wenn sie flach wären, würden wir den Grund sehen, was nicht der Fall ist,“ sagte Lorenz. Die Frage zur Menge der Flüssigkeit auf der Mond-Oberfläche ist wichtig, weil Methan ein starkes Treibhausgas auf TITAN ist, wie auch auf der Erde. Aber auf TITAN ist viel mehr davon. Wenn alle beobachtete Flüssigkeit auf TITAN Methan ist, würde sich das nur ein paar Millionen Jahre halten, weil es sich in der TITAN-Atmosphäre verflüchtigt und in den Weltraum verschwindet. Falls das Methan ausginge, würde TITAN viel kälter.

Die Wissenschaftler nehmen an, dass Methan vom Inneren durch kryo-vulkanische Eruptionen in die Atmosphäre geblasen wird. Falls das zutrifft, hätten der Methan-Anteil und die Temperatur dramatisch während TITANs Vergangenheit geschwankt. „Unser Leben beruht auf Kohlenstoff,“ fügte Lorenz hinzu, „und zu wissen, wie weit die chemische Komplexitätskette zum Leben in einer Umgebung wie auf TITAN gehen kann, ist wichtig für unser Verständnis von der Entstehung des Lebens im Universum.“ 

Der nächste Radar-Überflug auf TITAN ist am 22. Februar. Dann wird das Radar den Landeplatz des Huygens-Raumfahrzeugs inspizieren. 

Wer mehr sehen und erfahren will, sei auf http://www.nasa.gov/cassini und  http://saturn.jpl.nasa.gov verwiesen.

Den Originalartikel finden Sie hier 

Die CASSINI-Huygens Mission ist ein Gemeinschaftprojekt der NASA, der ESA und der Italienischen Raumfahrtbehörde. JPL, eine Abteilung des California Institute of Technology in Pasadena steuert die Cassini-Huygens Mission im Auftrag des NASA Science Mission Directorate, Washington. Das Cassini Raumfahrzeug ist bei JPL entworfen, entwickelt und gebaut worden. Das Radargerät wurde von JPL und der Italienischen Raumfahrtbehörde in Zusammenarbeit mit den USA und anderen Europäischen Ländern gebaut. 

Carolina Martinez 818-354-9382 Jet Propulsion Laboratory, Pasadena, Calif. carolina.martinez@jpl.nasa.gov 2008-025

Mit Dank an Spürnase Ferner!

Man sehe auch hier: Scinexx Wissensmagazin (mit Dank an Spürnase Olaf Köhler)

Erdöl und -gas aus dem Erdmantel?
Experiment belegt Entstehung von Ethan, Propan und Butan auch ohne organische Relikte



„Erneuerbare“ werden in UK zu einer Erhöhung von Strom-Rechnungen um £880 führen

Mal ins Blaue gesagt: Es gibt nicht die geringste Chance, irgendeines der von der Regierung verkündeten Ziele zu erreichen, Energie aus Erneuerbaren zu erzeugen!

Gibt es irgendein Thema, bei dem von der Regierung mehr Unsinn erzählt wird und mehr abstruse Vorschläge verbreitet werden, wie unsere von der EU vorgegebenen Ziele der Energieerzeugung zu erreichen sind, als da wäre, die Energiegewinnung auf 30% aus Erneuerbaren innerhalb von 10 Jahren umzustellen? (Dies würde etwa die sechsfache Menge der gegenwärtigen Kosten verursachen, was bedeutet, dass wir die größte Herausforderung im Vergleich zu anderen europäischen Staaten haben).

Beispielsweise hat der Industrieregulator Ofgem [?] kürzlich verkündet, dass wir bis zum Jahre 2020 £40 Milliarden ausgeben müssen, um unsere erneuerbaren Energiequellen in das nationale Netz zu integrieren – £4 Milliarden pro Jahr. Alistair Buchanan, der Vorsitzende von Ofgem, behauptete in der Sendung BBC Today und auch anderswo vergnügt, dass dies lediglich zu einer Erhöhung des Strompreises um £6 für die 25 Millionen Haushalte in Großbritannien führen würde. Jedoch zeigen zehn Sekunden mit einem Taschenrechner, dass sich die zusätzlichen Kosten dieser £4 Milliarden pro Jahr aufgeteilt auf jeden Haushalt auf £160 belaufen dürften.

Als ob das noch nicht genug wäre, will die Regierung bis 2020 Windfarmen im Meer mit einer Kapazität von 33 Gigawatt (1 Gigawatt = 1000 Megawatt) errichten. Legt man die gegenwärtigen Kosten von £3 Millionen pro Megawatt an Kapazität zugrunde, würde das weitere £100 Milliarden kosten (£10 Milliarden pro Jahr, oder £400 für jeden Haushalt). Dies müsste mit unseren Stromrechnungen bezahlt werden. Und dennoch, selbst wenn man diese Windfarmen alle errichten könnte, würden sie trotzdem im Mittel nur etwa ein Viertel dieses Stromes erzeugen.

Hinzu kommen laut Vorhersage der Regierung £8 Milliarden pro Jahr (oder £320 pro Haushalt) für den albernen, freigiebigen Einspeisungstarif für Solarenergie sowie, nur für dieses eine Ziel, unsere totale jährliche Zahlung für den Traum, die Vorgaben der EU zu erreichen, in Höhe von mindestens £22 Milliarden. Das ist erheblich mehr als die gesamten Kosten der Energieerzeugung im vergangenen Jahr, die sich auf £18,6 Milliarden beliefen.

Mit anderen Worten, diese Maßnahmen allein würden unsere Stromrechnung mehr als verdoppeln, und zwar für die Erzeugung von etwa so viel – und sehr unzuverlässiger – Energie wie von einer Handvoll herkömmlicher Kraftwerke.

In der Realität gibt es nicht die geringste Chance, dass die Regierung irgendeines dieser Ziele erreichen wird. Aber die massive Umverteilung der Energiequellen, die umzusetzen die Regierung alles tut, wird nicht helfen, die drohende Lücke der Stromversorgung zu füllen, wenn 17 der älteren Kohle- und Kernkraftwerke geschlossen werden müssen. Dann gibt es nahezu nichts in diesen Plänen, um sicherzustellen, dass die Lichter in Britannien nicht ausgehen.

 Christopher Booker

Veröffentlicht: 16. Oktober 2010 in [der britischen Zeitung Telegraph]

Übersetzt von Chris Frey für EIKE

Link: Den Originalartikel finden Sie hier




Solare Konfusion: Die Klima-Lügner tappen in ihre eigene Falle

Nach der lange anhaltenden Hitzewelle in diesem Sommer bereiten sich die Russen auf einen außerordentlich kalten Winter vor. Beide auf den ersten Blick widersprechende Entwicklungen scheinen eine gemeinsame Ursache zu haben: Eine Blockade der in West- und Osteuropa normalerweise vorherrschenden Westströmung. So blockierte das im September über Skandinavien nach Osteuropa gelangte Kältehoch „Marcel“ mehrere Wochen lang mächtige, vom Atlantik heranziehende Tiefdruckgebiete, die es gerade noch schafften, Westeuropa mit ihren schwachen Ausläufern zu streifen. Inzwischen ist „Marcel“ durch neue Kaltluftmassen aus dem Norden abgelöst worden. Hält diese Blockade an (was zurzeit mit Gewissheit niemand voraussagen kann), dann müssen wir uns auf einen sehr kalten Winter gefasst machen. In der Tat wurden sowohl in Russland als auch in Großbritannien bereits entsprechende Warnungen ausgesprochen. Im Sommer führte eine vergleichbare Blockade der West-Ost-Strömung in Russland zu einer wochenlang andauernden Hitzewelle und in deren Gefolge zu riesigen Waldbränden.  

Jedes Schulkind kann verstehen, warum die gleiche Blockadesituation zu so unterschiedlichen Lufttemperaturen führen kann: Setzt sich ein Hoch im Sommer fest, dann sorgt die lange hoch am Himmel stehende Sonne für eine rasche und anhaltende Aufheizung der ursprünglich kühlen Polarluftmasse. Gleichzeitig bleibt deren nächtliche Abkühlung gering. Im Winter ist es umgekehrt: In den langen Nächten wird bei klarer Luft viel Wärme in den Weltraum abgestrahlt und die kurze Sonnenscheindauer am Tage setzt der Wiedererwärmung der Luft enge Grenzen. Macht also die bodennahe Temperatur das Wetter oder ist sie nicht vielmehr das Resultat bestimmter Verhältnisse von Wind- und Sonneneinstrahlung? Die Antwort liegt nach dem oben gesagten auf der Hand. Dennoch haben es so genannte Klimaforscher in Zusammenarbeit mit gedankenlos abschreibenden Journalisten-Kollegen in Massenmedien geschafft, die Verhältnisse buchstäblich auf den Kopf zu stellen: Sie gehen in ihren „Klimamodellen“ unausgesprochen davon aus, dass die Temperatur das Wetter macht. Zu dieser sonderbaren Annahme gelangen sie, weil sie den Gegenstand ihrer Forschung, das „Weltklima“, gar nicht definieren können. Zur Erinnerung: Der Begriff „Klima“ bezeichnet die durchschnittliche Wetterneigung einer bestimmten Region im Unterschied zu einer anderen. So zeichnet sich das in Deutschland vorherrschende gemäßigt ozeanische Klima dadurch aus, dass hier die jährlichen Temperatur- und Niederschlagsmaxima zeitlich zusammenfallen. Im südlich angrenzenden mediterranen Klima ist es genau umgekehrt. Dort sind trocken-heiße Sommer und feucht-kühle Winter die Regel. Für die jeweils dort lebenden Pflanzen und Tiere ist dieser Unterschied von entscheidender Bedeutung. So lassen sich alle Klimazonen der Erde durch einen charakteristischen Jahresgang von Lufttemperatur und Niederschlagsmenge definieren. Ein „Weltklima“ lässt sich nicht definieren.

Das wissen auch jene vom Staat ausgehaltenen Eierköpfe, die „Klimaforschung“ nahezu ausschließlich am Computer betreiben. Statt von einem „Weltklima“ reden sie deshalb meistens von der globalen Durchschnittstemperatur. Doch diese gibt es ebenso wenig wie ein „Weltklima“. Das statistische Konstrukt muss aus Tausenden von Einzelmessungen errechnet werden. Dabei gelten Satellitenmessungen als zuverlässiger als die Messungen von Bodenstationen, die oft auf städtischen Wärmeinseln stehen. Die „Klimamodelle“ des „Weltklimarates“ IPCC gehen jedenfalls davon aus, dass die errechnete Durchschnittstemperatur der unteren Luftschicht in erster Linie abhängig sei von der Höhe des Ausstoßes von CO2 und anderer so genannter Treibhausgase durch Fabrikschlote, Hauskamine und Kfz-Auspüffe. Doch diese Annahme widersprach dem Augenschein: Die vom IPCC veröffentlichte Kurve des Temperaturanstiegs in den letzten 100 oder 150 Jahren zeigt wenig Ähnlichkeit mit der Kurve des Anstiegs der CO2-Konzentration in der Atmosphäre. Dagegen muss ihre Übereinstimmung mit dem Auf und Ab bekannter Sonnenzyklen jedem ins Auge springen, der nicht blind ist. Obendrein war schon lange bekannt, dass die so genannte Kleine Eiszeit des 17. und 18. Jahrhunderts mit einem Minimum der Sonnenaktivität (gemessen an der damals mithilfe des Fernrohres schon feststellbaren Zahl der Sonnenflecken) einherging. Es war also schwierig, den engen Zusammenhang zwischen Sonnenaktivität und Erdtemperatur anzuzweifeln. Der IPCC musste zu einer ganzen Reihe von Hilfsannahmen wie dem möglichen Einfluss von Ruß und Vulkanasche greifen, um den historischen Temperaturverlauf erklären zu können.

Umso mehr erleichtert werden seine Mitglieder und Helfershelfer nun gewesen sein, als „nature“ nun die Ergebnisse von Strahlungsmessungen eines von Joanna Haigh geleiteten Teams am Londoner Imperial College veröffentlichte. Diese beziehen sich auf die kurze Periode zwischen 2004 und 2007, in der die Sonnenaktivtät abnahm. In dieser Zeit habe die UV-Strahlung der Sonne viel stärker abgenommen als angenommen. Die sichtbare Strahlung und die Wärmestrahlung (IR-Strahlung) habe jedoch entgegen der Erwartung zugenommen. Also könne die Abschwächung der Sonnenaktivität nicht die Ursache irdischer Abkühlungsphasen sein, schlussfolgerte Haigh und mit ihr die ganze Gemeinde der Warner vor einer globalen Überhitzung der Erde. Der britische „Daily Telepraph“ schrieb daraufhin zum Beispiel: „A stronger Sun actually cools the Earth“. In Deutschland titelte SPIEGEL-Online: „Sonne wärmt stärker während Schwächephase“. Und der britische „Daily Mail“ erklärte einen Tag später, die Messergebnisse des Teams um Haigh habe die Theorie der globalen Erwärmung ins Chaos gestürzt.

Dabei hatte Haigh verschwiegen, dass schon längst bekannt war, dass die UV-Strahlung im Laufe eines Sonnenzyklus viel stärker schwankt als die totale Sonnenhelligkeit. Der bekannte britische Wissenschaftspublizist David Whitehouse verweist darauf, dass die US-Forscherin Judith Lean schon im Jahre 2000 Messwerte publiziert hatte, die zeigen, dass die UV-Strahlung der Sonne zehnmal stärker schwankt als die sichtbare Strahlung. In Deutschland hat der heute im (Un-)ruhestand lebende Physiker Dr. Horst Borchert seit den 80er Jahren des letzten Jahrhunderts im Auftrag des Bundeslandes Rheinland-Pfalz mithilfe eines aufwändigen Messnetzes die UV-Strahlung, den damit zusammenhängenden Ozon-Gehalt der Luft, den Sonnenmagnetismus und die von ihm beeinflusste irdische Höhenstrahlung aufgezeichnet. Er fand, dass der mit der Sonnenaktivität schwankende Partikelstrom (Sonnenwind) auf der Nordhalbkugel der Erde die Wolkenbildung und die Nordatlantische Oszillation (NAO) zwischen dem so genannten Island-Tief und dem Azoren-Hoch beeinflusst (Korrelation bis zu 0,8). Bei einer Abschwächung der Sonnenaktivität, wie sie seit Dezember 2006 zu beobachten ist, geht die NAO in einen Modus über, der so genannte meridionale Luftströmungen anstelle der sonst vorherrschenden Westströmung begünstigt und es kommt öfters zu Blockadesituationen, wie wir sie zurzeit erleben.

Es ist also klar, dass Schwankungen der Sonnenaktivität nicht direkt auf die irdische Lufttemperatur wirken, sondern Muster der Luftzirkulation beeinflussen. Das kann dazu führen, dass sich eine Region aufheizt oder abkühlt, während in einer benachbarten Region das Gegenteil zu beobachten ist. Bekanntlich ging die Hitzewelle in Russland mit einem außerordentlich kühlen Augustwetter in Westeuropa einher. Ob es dabei unterm Strich global wärmer oder kälter wird, ist gar nicht so leicht feststellbar. Hätte Joannna Haigh nicht Klima und Temperatur gleichgesetzt, wäre ihr das auch aufgefallen. Aber das ist nicht das erste Mal, dass Weltverbesserer die Welt auf den Kopf stellen.

Internet:

A stronger Sun actually cools the Earth http://www.telegraph.co.uk/earth/environment/climatechange/8046586/A-stronger-Sun-actually-cools-the-Earth.html

Sonne wärmt stärker während Schwächephase http://www.spiegel.de/wissenschaft/natur/0,1518,721715,00.html

Die Original-Veröffentlichung in „nature“: http://www.nature.com/nature/journal/v467/n7316/full/nature09426.html

Global Warming Theory in Chaos http://www.dailymail.co.uk/sciencetech/article-1318425/Global-warming-theory-chaos-Increased-solar-activity-COOL-Earth.html#

David Whitehouse: Solar Speculation http://thegwpf.org/the-observatory/1662-solar-speculation.html

Vortrag Dr. Borchert http://www.fin.ucar.edu/UCARVSP/spaceweather/abstract_view.php?recid=1149

Edgar L. Gärtner EIKE

Hier der –  „Nature“ Artikel 

An influence of solar spectral variations on radiative forcing of climate




Ausgewogenere Berichterstattung der BBC?

Der BBC wurde wiederholt vorgeworfen, über Belange des Klimawandels verzerrt berichtet zu haben.

Im vorigen Jahr wurde einer ihrer Reporter, Paul Hudson, kritisiert, weil er nichts über die hoch kontroversen „Klimagate“ – e-mails berichtet hat, obwohl er einige davon für längere Zeit besessen hatte.

Skeptiker des Klimawandels haben der BBC auch vorgeworfen, nicht neutral über “Gletschergate” berichtet zu haben, als eine Studie die Aussage des IPCC, dass die Gletscher des Himalaya bis 2035 geschmolzen sein werden, als völlig haltlos entlarvt hat.

Aber die neuen Richtlinien der BBC, die gestern nach einer extensiven Beratung, die über 1600 Einwendungen aus der Öffentlichkeit berücksichtigt hatte, veröffentlicht wurden, legen erstmals explizit fest, dass die Berichterstattung über wissenschaftliche Themen der Verpflichtung zur Unparteilichkeit der BBC unterliegt.

 „Die BBC muss umfassend berichten, alle äußeren Perspektiven berücksichtigen und sicherstellen, dass auch die Vielfalt anderer Meinungen angemessen dargestellt wird”, sagt der BBC-Treuhänder Alison Hastings.

„Zusätzlich erweitert die neue Richtlinie die Definition von ‚kontrovers’ auch auf Bereiche jenseits öffentlicher politischer bzw. industrieller Kontroversen einschließlich von Kontroversen in den Bereichen Religion, Wissenschaft, Finanzen, Ethik und anderes“.

Jedoch erklärte gestern James Delingpole, ein prominenter Skeptiker des Klimawandels, dass er nur wenig Bewegung der BBC bei der Berichterstattung über Umweltthemen erwartet.

„Es ist sehr unwahrscheinlich, dass ihre Berichterstattung ausgewogener wird”, sagte er.

„Es hat bei der BBC Kultstatus – dass Leute, die nicht gläubig sind, die ‚Erde als Scheibe’ sehen. Wann immer sie Dissidenten wie mich zu Diskussionen einladen, umgeben sie uns mit ‚Alarmisten’. In der Sendung Any Questions [etwa: irgendwelche Fragen] zum Beispiel tat Jonathan Dimbleby sein Bestes, unparteiisch zu sein, aber es ist ein Mann mit einer Windturbine in seinem Garten“.

Im Jahre 2007 hieß es in einer Reportage der BBC unter dem Titel Sicherstellung der Objektivität im 21. Jahrhundert [Safeguarding Impartiality in the 21st Century]: „Der Klimawandel ist ein anderes Thema, bei dem Abweichler unpopulär sein können… Die BBC hat ein hochrangiges Seminar mit einigen der besten wissenschaftlichen Experten veranstaltet. Dabei kam sie zu der Schlussfolgerung, dass es angesichts des Gewichtes der Beweise nicht länger gerechtfertigt ist, Gegnern des Konsens’ genauso breiten Raum einzuräumen. Aber diese Abweichler (oder sogar Skeptiker) werden immer noch zu hören sein, was sie auch sollten, denn es ist nicht die Aufgabe der BBC, diese Diskussion zu schließen“.

Die Anstalt BBC führt gegenwärtig auch eine Untersuchung über die Objektivität der Berichterstattung über wissenschaftliche Themen durch, die von Professor Steve Jones vom University College London geleitet wird. Die Ergebnisse dieser Untersuchung werden im nächsten Frühjahr veröffentlicht.

Professor Jones wurde insbesondere gebeten zu überprüfen, ob die BBC „angemessen über wissenschaftliche Schlussfolgerungen berichtet einschließlich anderslautender Theorien und auch die Ansichten derjenigen erwähnt, die skeptisch hinsichtlich der Wissenschaft sind und wie sie durchgeführt oder bewertet wird“.

Eine weitere neue Richtlinie religiöse Themen betreffend besagt, dass „alles, was sich mit religiösen Angelegenheiten befasst und was Menschen mit anderen religiösen Ansichten und Überzeugungen vermutlich beleidigen würde, redaktionell vor allgemein akzeptierten Standards gerechtfertigt sein muss“.

Jedoch wandte der Präsident der National Secular Society [nationale weltliche Gesellschaft (?)]Terry Sanderson ein: „Dies ist ein total nach hinten gerichteter Schritt, der ernste Restriktionen für Komiker, Dokumentatoren, Satiriker und Kommentatoren nach sich ziehen dürfte, die sich kritisch mit der Religion auseinandersetzen. Fast alles, was nicht ehrfürchtig von religiösen Dingen berichtet wird, kann von einigen Gläubigen als anstößig empfunden werden“. 

Von Neil Midgley

Veröffentlicht: 13. Oktober 2010




SRU (Sachverständigenrat für Umweltfragen) legt Gefälligkeitsgutachten zur 100% Versorgung mit „Erneuerbaren“ vor!

Das Ergebnis fiel entsprechend aus. Eine Durchsicht der Ergebnisse zeigt, dass wieder einmal die leider sehr in Mode gekommenen Methoden der falschen Annahmen, Rechnen mit unrealistischen Hoffnungstechniken, Kleinrechnen massiver Defizite der Erneuerbaren, Schönrechnen der Kosten und Unterschätzen der Widerstände – insbesondere seitens der Bürger – zu den gewünschten Ergebnissen führen kann. (Originalbeitrag der SRU hier)

Im Einzelnen:

Das Traumziel einer "komplett regenerativen Stromversorgung" sei erreichbar, "sofern die notwendigen Kapazitäten zur Speicherung und zum weiträumigen Ausgleich der Elektrizität geschaffen werden". So ist es und deshalb ist das Ziel illusionär, da prinzipiell unerreichbar. Sämtliche Physiker und Chemiker wissen, dass alle möglichen Speicherungsprinzipien für Strom lange bekannt sind und dass ebenfalls ihre physikalischen und ökonomischen Limitierungen Fakten sind, die auch durch politisch korrekte Prognosen nicht verändert werden können. Auch können die in vielen Jahrzehnten errungenen und jetzt möglichen  technischen Leistungen dieser Speicher nur noch in kleinen, teuren Schritten weiter getrieben werden, was jegliche großartigen  technologischen Durchbrüche ausschließt. Wir müssen mit den vorhandenen Systemen und Verfahren leben; neue sensationelle, in wenigen Jahrzehnten marktfähige Speichertechniken wird es nicht geben.

Die effizientesten Systeme, die Pumpspeicherwerke, sind bereits ausgelastet. Die an den Horizont projizierte Hoffnungstechnik – Pumpspeicherwerke in Norwegen, die über Seekabel an unser Netz angeschlossen werden – ist ebenfalls bald ausgebucht, wobei das erste geplante Seekabel gerade einmal 1,4 GW Übertragungsleistung haben soll – eine kaum ins Gewicht fallende Größe. Um die norwegischen Speicherkapazitäten werden übrigens sämtliche Nord- und Ostseeanrainer mit Windkraftanlagen konkurrieren. Die weiteren genannten Speichertechniken führen uns in die teure Welt der Science Fiction: Druckluftspeicher, die bisher als Prototypen Wirkungsgrade unter 50% haben – und mit den Erdgasspeichern um die Kavernenstandorte konkurrieren. Dann die Methanerzeugung mit Strom und dessen  Rückumwandlung in Strom – eine Energievernichtung großen Ausmaßes. Schließlich wird auch noch die Vision eines "größeren europäisch-nordafrikanischen Stromverbundes" angerufen,  das mit zahllosen Risiken behaftete Projekt DESERTEC, das selbst bei seiner äußerst unwahrscheinlichen Realisierung seinen überaus teuren Strom niemals nach Europa liefern würde.

Eine weitere, das gewünschte Ergebnis fördernde Annahme ist , daß "bei erneuerbaren Energien im Gegensatz zur konventionellen Stromerzeugung keine steigenden Preise für Brennstoffe zu berücksichtigen sind." Daß man nur von Brennstoffen spricht, ist ein Trick. Wie steht es denn mit den Gesamtkosten der Erneuerbaren ? Die weisen leider beträchtlich steigende Preise auf, wie man bereits an den kürzlich erhöhten Einspeisevergütungen für Offshore-Windkraft sieht,. Die besonders ungünstigen Bedingungen für die deutschen Offshore-Windparks schlagen sich in besonders hohen Kosten nieder: Für Land-Anlagen betragen die Stromerzeugungskosten 8 – 9,5 Cent/KWh, für Offshoreanlagen aber 15 –20 Cent/KWh. Und gerade die Offshoreanlagen sollen ja  künftig den Hauptanteil des Windkraft-Zubaus leisten. Das allein bedeutet bereits drastische Kostensteigerungen der erneuerbaren Stromquellen. Dazu kommen die weiter steigenden Kosten für Rohstoffe, Energie, Ersatz, Anlagenwartung, Transport der Biomasse, Löhne, Inflation.

Den Beweis für die stark kostensteigernde Wirkung der Erneuerbaren  liefert schon die Betrachtung der monatlichen Stromkosten für einen Haushalt mit 3500 KWh Jahresverbrauch: 1998 betrugen die reinen monatlichen Stromerzeugungskosten ohne Steuern 37,60 Euro. 2010 betrugen sie 40,53 Euro – also nur 7,8% mehr – aber es kommen jetzt 12 Euro für die durch das EEG verursachten Kosten hinzu; damit ist der Strompreis durch die Zwangssubventionierung der Erneuerbaren bereits jetzt um 41% angestiegen. Und dieser Anstieg wird beschleunigt weiter gehen.

Mit seinen irrealen Speicher-Spekulationen und Netzausbau-Träumen für seine Kohle- und Kernkraftfreie Stromvollversorgung einerseits und mit seinen geschönten Kostenrechnungen andererseits  kommt dann der SRU auf seine Bewertung "bezahlbar".

Mehrfach wird "Biomethan" als Energiequelle zur Stromerzeugung angeführt. Was nicht diskutiert wird, ist der enorme Flächenverbrauch, der mit dieser Technik verbunden ist, und der sie – im Gegensatz zu den SRU-Behauptungen – alles andere als nachhaltig erscheinen läßt. Allein der Ersatz der deutschen Kernkraftwerke durch die Stromerzeugung mittels Biomasse würde 75% der gesamten deutschen Agrarfläche beanspruchen. Von der ethischen Bewertung eines Ersatzes von Lebensmittelproduktion durch Energieerzeugung einmal ganz abgesehen – was den Sachverständigenrat für Umweltfragen aber nicht interessiert.

Schließlich wird der bereits jetzt sehr spürbare Widerstand der Bürger, die nun den reichlich unnachhaltigen Charakter der Erneuerbaren leidvoll erfahren,  gegen neue Stromtrassen, CO2-Speicher und Windmühlen vom SRU ignoriert. Er wird sich jedoch im leichthin betrachteten 40-Jahre-Zeitraum nicht gerade verringern.

 

Im Übrigen fehlt dem rein politischen Ziel eines möglichst hohen Anteils der Erneuerbaren an der Stromerzeugung von vornherein eine einleuchtende Begründung: Der VGB, der Verband der Energiewirtschaft, betonte soeben, daß Wind und Sonne zwar Brennstoffe einsparen, nicht aber Kraftwerksleistung. Aufgrund der fluktuierenden Verfügbarkeit von Wind und Sonne und weiterhin fehlender Stromspeicher erfordert deren Ausbau umfangreiche Kapazitäten an gesicherter Kraftwerksleistung – im Wesentlichen Erdgas-, Kohle- und Kernkraftwerke. Der Ausbau der Erneuerbaren führt also nur zu einer unsinnig doppelten Bereitstellung von Stromerzeugungsanlagen und damit zu einer sinnlosen, teuren  Kapitalinvestition bei nur geringfügiger Brennstoffeinsparung. Und im Falle des teilweisen Ersatzes von Kernkraft tritt nicht einmal eine CO2 – Einsparung ein.

Der Sachverständigenrat für Umweltfragen hat sich in unbegreiflicher Selbstüberschätzung auf fachliches Glatteis begeben und das erwartete blamable Ergebnis abgeliefert. Aber wenigstens ist es politisch korrekt. Nur mit Sachverstand hat es nichts zu tun.

 

EIKE Gastautor Dr.-Ing. Günter Keil, Sankt Augustin