1

Monckton über “Planck aus dem Hut zaubern”

Joel Shore wies darauf hin, dass Schwartz, auf dessen Studie aus dem Jahr 2007 ich mich stützte, in der er eine Klimasensitivität von ~1K errechnete, 2008 eine zweite Studie erstellt hatte, in der er diese Sensitivität mit fast 2 K berechnete. Shore nahm an, dass ich das gesehen, aber unterdrückt hatte. Inzwischen dürften die meisten Leser bei Anthony weniger unfreundlich von mir zu denken. Die neue .pdf-Version des Kommentars, bei Anthony (hier), lässt beide Studien von Schwartz wegfallen: aber sie werden in einer Vollversion des Streits der Reihe nach erwähnt, zusammen mit anderen Studien, die auf Beobachtungen und Messungen basieren und nicht auf bloßes modellieren, um die Klimasensitivität zu bestimmen.

Professor Michael Asten von der Monash University stellte eine gute Referenz in der begutachteten Literatur zur Verfügung, und zwar für die Studie von Christopher Scotese aus dem Jahr 1999, in der die mittlere globale Temperatur vom Kambrium bis zur Gegenwart rekonstruiert worden war. Auch diese Studie fand Eingang in die neue .pdf.Version.

Professor Asten stellte auch die Kopie einer Studie von David Douglass und John Christie zur Verfügung, die in dem vitalen Outlet der Wahrheit Energy & Environment 2009 veröffentlicht worden war, und schloss daraus auf der Basis gegenwärtiger Temperaturtrends, dass Feedbacks wahrscheinlich nicht positiv seien, einschließlich der Klimasensitivität von ~ 1 K. Ich sollte diese Studie und viele andere in der Vollversion des Papers sicher hinzufügen, welches den von Anthony veröffentlichten Kommentaren zugrunde liegt. Diese Studie ist jetzt in Arbeit, und ich werde sie gerne jedem interessierten Leser zukommen lassen, der mir mailt: monckton@mail.com.

Eine sich immer wieder zu Wort meldende Kritikerin, Lucia Liljegren, brannte wie schon so oft zuvor darauf, meine Berechnungen anzugreifen – sie veröffentlichte ein Dementi, dass ich ihr eine Referenz nicht gesandt hatte (dabei kann ich beweisen, dass sie sie empfangen haben musste), und sie bloggte fälschlich, dass Moncktons Planck-Parameter „aus einem Hut gezaubert wurde“ (hier), obwohl ich ihr gezeigt hatte, dass ich in meinem Kommentar den IPCC-Wert als korrekt bezeichnet hatte. Sie führte ihre Leser in die Irre, indem sie ihnen nicht sagte, dass die „aus-dem-Hut-Zauberei“, über die sie sich beklagte, eine ist, die Kiehl und Trenberth (1997) schon vermutet hatten, wenn auch mit einer geringen Variation (ihr Wert von λ beträgt 0,18 und nicht die 0,15, die ich aus einer Studie von Kimoto (2009) abgeleitet habe). Und sie war selektiv, indem sie nicht erwähnte, dass sie mit ihrer Vermutung, dass eine Schwarzkörper-Beziehung zwischen Flüssen und der Temperatur an der Oberfläche stattfindet, falsch lag (sollte das stimmen, wie ich in meinem Kommentar schrieb, würde dies eine Klimasensitivität von ~1 K bedeuten).

Ein Troll (Kommentator auf WUWT) sagte, dass ich die Treiberfunktion für CO2 „fabriziert“ hätte. Als ich darauf hinwies, dass ich diese aus Myhre et al. (1998) abgeleitet hatte (welche vom IPCC 2001 und 2007 abgenommen worden ist), jammerte er darüber, als Troll bezeichnet zu werden. (Also man werfe mir nicht „fabriziertes“ Zeug vor, besonders wenn ich Sorgfalt hatte walten lassen, viele Quellen zu nennen, von denen er keine einzige in Frage stellen konnte). Er verrannte sich noch weiter mit dem Vorwurf, dass auch das IPCC die CO2-Funktion „fabriziert“ hätte. Nein: Das IPCC hatte sie von Myhre et al., die sie wiederum durch Vergleich von drei Modellrechnungen gewannen. Ich konnte und kann nicht garantieren, dass diese CO2-Treiberfunktion richtig ist: das liegt über meinem Horizont. Jedoch hat Chris Essex, der Mathematiker, der als Erster einige der frühesten Spektraluntersuchungen des treibenden CO2-Effektes untersucht hatte, bestätigt, dass Myhre und das IPCC mit ihrer Feststellung, dass diese Funktion logarithmischer Natur sei, richtig gelegen haben. Also werde ich sie auch in meinen Berechnungen weiter benutzen, bis ich den Beweis des Gegenteils habe.

Ein anderer Troll behauptete – wie üblich ohne jeden Beweis – dass ich das Ergebnis des Prozesses, der zu einer ausschlaggebenden (und niedrigen) oberen Grenze der Klimasensitivität führte, falsch dargestellt habe. Tatsächlich kam das Ergebnis von einem Verfahrenstechniker, Dr. David Evans, der einer der besten intuitiven Mathematiker ist, den ich je getroffen habe. Er wandte viel Zeit in seiner früheren Karriere auf, Schaltkreise zu entwerfen und zu bauen. Daher kann man ihm kaum vorwerfen, nicht zu wissen, worüber er spricht. Da die obere Grenze der Klimasensitivität nicht höher als bei 1,2 K liegt, dachte ich, dass die Leser vielleicht interessiert wären, einen tieferen Einblick davon zu bekommen, was zum größten Teil das Werk von  David Evans ist. Er ist unter diesen Ausführungen gepostet.

Hereward Corley wies darauf hin, dass die Referenz zu Shaviv (2008) eher Shaviv (2005) sein sollte. Nir Shaviv – ein weiterer genialer Mathematiker – hat mir das Originalpapier mit der Bemerkung gesandt, es stamme aus dem Jahr 2008, aber seine Version war eine undatierte Kopie einer Vorveröffentlichung. Mr. Corley stellte freundlicherweise ein halbes Dutzend weiterer Studien zur Verfügung, die die Klimasensitivität empirisch berechnen. Die meisten Studien zeigen, dass sie niedrig liegt, und alle zeigen, dass sie niedriger als vom IPCC geschätzt liegt. Bei den Studien handelt es sich um Chylek & Lohman (2008); Douglass & Knox (2005); Gregory et al. (2002); Hoffert & Covey (1992); Idso (1998); und Loehle & Scafetta (2011).

Ich würde es sehr begrüßen, wenn Leser so freundlich wären und mich über weitere Studien informieren, in denen die Bestimmung der Klimasensitivität auf empirischen Methoden und nicht auf den Ergebnissen globaler Klimamodelle beruhen. Es ist egal, zu welchen Ergebnissen diese Studien kommen, aber mir geht es nur um solche, die eine Antwort aufgrund von Messungen und Beobachtungen geben und die diese Ergebnisse mit den Resultaten der etablierten Theorien vergleichen.

Vielen Dank an alle für Ihr Interesse und Ihre Assistenz. Zu viele der wissenschaftlich begutachteten Journale sind nicht mehr professionell genug oder frei genug von Vorurteilen, um irgendetwas zu veröffentlichen, das die neue Staatsreligion einer vermutlichen katastrophalen, von Menschen verursachten globalen Erwärmung in Frage stellt.  Remote Sensing zum Beispiel hatte bis heute nicht die Freundlichkeit, den Empfang des Kommentars, den ich ihnen habe zukommen lassen, zu bestätigen. Da die Herausgeber der gelehrten Journale ihre Rolle als unparteiische Schiedsrichter aufgegeben zu haben scheinen, ist die Site WattsUpWithThat derzeit die Stelle, wo zwischen all dem Jammern, Heulen und Zähneklappern der Trolle echte Wissenschaft betrieben wird.

Im Original folgt hier eine hoch wissenschaftliche Betrachtung Lord Moncktons zur Klimasensitivität unter der Überschrift „The fundamental constraint on climate sensitivity“. Der Inhalt übersteigt deutlich meine Fachkenntnisse. Ich gehe davon aus, dass jemand, der das dort Geschriebene versteht und nachvollziehen kann, der englischen Sprache mächtig genug ist, um auf eine deutsche Übersetzung verzichten zu können.

Mit bestem Dank an Prof. Lüdecke, den ich um Hilfe gefragt hatte und der mir diesen Hinweis gab.

Chris Frey

Link: http://wattsupwiththat.com/2011/09/27/monckton-on-pulling-planck-out-of-a-hat/

Übersetzt von Chris Frey für EIKE




Das Fukushima des Naturschutzes: Windräder, die stillen Mörder

Es soll hier nicht von technischen Details der Windkraftanlagen die Rede sein. Etwa der viel zu geringen Leistungsdichte des Windes, die diese Art der landschaftszertörerischer Stromerzeugung für eine modernes Industrienation verbietet. Auch nicht von der praktischen Unmöglichkeit, Strom zu speichern, so dass die Unstetigkeit des Winddargebots, Windkraftanlagen grundsätzlich unwirtschaftlich macht, denn die ungünstigen Eigenschaften des Strömungsmediums kann prinzipiell keine noch so moderne Windradtechnik beheben. Und schlussendlich auch nicht vom kubischen Geschwindigkeitsgesetz aller Strömungsmaschinen, das lautet – „die Leistungsabgabe ist proportional zur dritten Potenz der Strömungsgeschwindigkeit des Mediums“ -. Klartext: weht der Wind nur halb so stark, wie bei Vollauslastung des Windrads, werden gerade noch (1/2) x (1/2) x (1/2) = 1/8, d.s. rund 12% Leistung der Volleistung erbracht. Bei lauem Wind sich drehende Windräder suggerieren Stromerzeugung, die es gar nicht gibt.

Nicht um Technik geht es also, sondern um Windräder als stille Tierkiller. Der Beitrag des engagierten und mehrfach mit Auszeichnungen bedachten Naturschützers Dr. Buer

„Das Fukushima des Naturschutzes, Windräder töten Vögel und Fledermäuse und warum die Naturschutzverbände dazu schweigen“,

der hier als pdf beiliegt, belegt dies dramatisch. Da sich auch der Autor dieser Zeilen zu den engagierten Natur- und Landschaftsschützern zählt, gibt er diesmal die übliche wissenschaftliche Zurückhaltung auf. Die Grünen haben sich in der Vergangenheit bei vielen Gutmenschen berechtigterweise einen Platz im Herzen erobert, weil sie konsequent für den Tier- und Landschaftsschutz eintraten. Mit diesem Eintreten für eine richtige Sache hat es nun ersichtlich ein Ende, und das hässliche Antlitz von gesellschaftsverändernden Ideologen kommt zum Vorschein. Alle früheren grünen Überzeugungen werden über Bord geworfen. Windräder werden als Hebel eingesetzt, um eine Industrienation "umzugestalten" – zum Nachteil unserer Volkswirtschaft und des Wohlstands unserer künftigen Generationen! Dass dabei zudem noch Landschaft und Natur in großem Ausmaß geschädigt werden, schert die Grünen nicht.

Agesichts der so gut wie kompletten, freiwilligen Gleichschaltung der Medien und aller politischen Parteien sprechen viele Stimmen bereits von einem neuen Faschismus, diesmal einem grünen. Wir wollen uns aus Platzgründen hierzu nicht äußern. Es sei nur angemerkt, dass insbesondere wieder einmal die deutschen Intellektuellen versagen, wie bereits in unserer unseligen Vergangenheit geschehen, als es noch Zeit gewesen wäre. Man duckt sich weg, man hört weg und man sieht weg, obwohl in privaten Gesprächen die meisten Zeitgenossen mit entsprechender Bildung sehr gut erkennen, was gespielt wird. Schließlich möchte man Karriere und Ruf nicht gefährden – hatten wir doch alles schon einmal!

Heute nehmen weite Industriegruppen, das Handwerk und nicht zuletzt die einschlägigen Klimainstitute und technischen Hochschulen, die vom Wind-, Sonnenenergie- und Klimawandelwahn auf Kosten des schutzlosen Verbrauchers profitieren, ungerührt Profite und Karrieren mit, in der Regel wohl wissend, was für einen volkswirtschaftlichen Irrsinn sie da zusammenrühren. Schließlich werden einschlägige staatliche Subventionen garantiert. Was steckt also dahinter? Nur mangelndes Geschichtsbewusstsein, das wieder einmal eine aufkeimende Diktatur unterschätzt? Reine Profitgier, der von Subventionen gepäppelten Profiteure? Diese Frage kann wohl nur ein der "deutschen Seele" bestens kundiger Psychologe beantworten. Eines scheint aber festzustehen. In der Rangfolge von Nationen mit aufrechtem Rückgrat einer maßgebenden Mehrheit seiner Bürger nehmen wir, wie immer, einen der letzten Plätze ein.

Uns bei EIKE fällt auf, dass insbesondere unsere Mitbüger aus der ehemaligen DDR über den derzeitigen grünen Wahn mit der Frage „Wozu sind wir aus einer roten Diktatur entkommen, um nun in eine sich abzeichnende neue grüne Diktatur hineinzugeraten?“ schlaflose Nächte erleben. Dass unsere Bedenken nicht unbegründet sind, zeigt der jüngst in der FAZ vom 30.Sept.2011 erschienene Artikel des bekannten Wissenschaftlers Carl Christian von Weizsäcker "Die große Transformation, ein Luftballon". Hier werden deutliche Worte gesprochen.

Wir appellieren daher an dieser Stelle an alle Demokraten, sich ideologischen Rattenfängern entgegenzustellen, die eine "große gesellschaftliche Transformationen zur Rettung der Welt vor dem Wärmetod oder vor was einer Chimäre auch immer" propagieren – bevor es wieder einmal zu spät ist. Und wir appellieren an alle Abgeordneten, sich dem vorbeschriebenen "Konsens" nicht zu unterwerfen und damit ihre Verantwortung als echte Volksvertreter und nicht als Parteilinienabnicker wahrzunehmen.

Wir bitten ferner den Artikel von Dr. Buer so weit als möglich an alle Freunde und Bekannten des Naturschutzes mit der Bitte um erneute Weitergabe weiterzuleiten.

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)

Related Files




Windräder machen krank durch Infraschall

Ganz anderer Meinung ist da die kalifornische Medizinerin Nina Pierpont. In einer vor knapp zwei Jahren veröffentlichten Studie, der die medizinische Beobachtung von zehn Familien mit insgesamt 38 Personen zugrunde lag, deutet Pierpont die oben geschilderten Symptome als Hinweis auf ernste Störungen des vestibulären Organs im Innenohr, dem Gleichgewichtssinn, durch den von WKA erzeugten Infraschall. Pierpont spricht deshalb vom Windturbinen-Syndrom. Unter Infraschall versteht man weitgehend unhörbare Luftschwingungen (Druckschwankungen) mit sehr tiefen Frequenzen unter 100 Hertz (im engeren Sinn unter 20 Hertz). Solche Schwingungen werden von WKA zweifelsohne erzeugt. Das streiten nicht einmal deren Planer und Betreiber ab. Nur behaupten sie, unhörbarer Schall könne nicht schädlich sein. Sie können sich dabei sogar auf die bislang geltende Rechtsverordnung TA Lärm nach dem deutschern Bundesimmissionsschutzgesetz (BImSchG) berufen, denn diese beschäftigt sich nur mit der Messung und Begrenzung von hörbarem Lärm. Die genannten Beschwerden von WKA-Anwohnern beruhen nach Ansicht der WKA-Befürworter auf Angst und Einbildung.

Pierpont konnte demgegenüber nachweisen, dass psychisch vorbelastete Personen nicht besonders anfällig für das WKA-Syndrom sind. Besonders stark unter dem WKA-Syndrom leiden hingegen Personen, die zu Migräneanfällen und zur Reise- bzw. Seekrankheit neigen oder wegen eines Innenohrschadens bewegungssensibel sind. Nach Ansicht von Pierpont gaukelt Infraschall dem menschlichen Otolithenorgan (Vestibulärsystem) im Innenohr vor, es sei in Bewegung. Dieses Gleichgewichtssystem ist beim Menschen genauso aufgebaut wie bei allen Fischen, Amphibien und Meeressäugern. Von diesen weiß man, dass sie auf Schall-Frequenzen um 100 Hertz besonders empfindlich reagieren. Auch beim Menschen werde das Gleichgewichtssystem durch Töne von 100 Hertz, die über die Schädelknochen geleitet werden, stark angeregt, sagt Pierpont. Doch während für Schweinswale inzwischen ein akustischer Belastungswert ermittelt und in die Genehmigungsverfahren für Offshore-WKA aufgenommen wurde, warten die Menschen im Umkreis von Onshore-WKA noch immer auf eine offizielle Anerkennung ihrer Beschwerden.

Nina Pierpont grenzt übrigens das Wind-Turbine-Syndrome (WTS) ab gegenüber der Vibro-Akustischen Krankheit (Vibro-Acoustic Desease, VAD), die von den portugiesischen Arbeitsmedizinern Mariana Alves-Pereira und Nuno A. A. Castelo Branco auf dem Second International Meeting on Wind Turbine Noise im September 2007 in Lyon mit WKA in Zusammenhang gebracht wurde. WTS sei eine sensorische und neurologische Störung, die über das Vestibulärsystem vermittelt wird, während VAD auf direkte Schäden an Geweben zurückgehe, die durch sehr starken Schall niedriger Frequenz in Schwingungen versetzt werden. Typisch dafür sind Blutungen der Bronchien oder Verdickungen der Herzwand. Solche Schäden seien aber allenfalls bei längerem Aufenthalt in unmittelbarer Nähe zu den Windrädern zu erwarten, während das WKA-Syndrom (WTS) auch bei weiter entfernten WKA-Anwohnern auftritt.

Während aber VAD als Berufskrankheit (beispielsweise für Piloten von Propellermaschinen oder Bauarbeiter mit Presslufthämmern) anerkannt ist, wird WTS bislang nur von wenigen Medizinern ernst genommen. Doch weist Nina Pierpont zu recht darauf hin, dass nachweisbare Beeinträchtigungen des Gleichgewichtssinns nicht auf die leichte Schulter genommen werden dürfen. Denn unser ganzes Selbst hängt vom Gleichgewichtssinn und dem damit verbundenen räumlichen Denken ab. Wie der berühmte portugiesisch-kalifornische Hirnforscher Antonio Damasio gezeigt hat, beruht unser Gedächtnis auf Dispositionen beziehungsweise Anweisungen für die Erzeugung von Karten und Bewegungs-Bildern. Diese Fähigkeit hängt eng mit dem Gleichgewichtsystem zusammen. Wird dieses durch Infraschall gestört, kann das sämtliche Hirnleistungen beeinträchtigen.

 Nach Ansicht von Prof. Dr. iur. Erwin Quambusch und seines Mitarbeiters Martin Lauffer müsste aus diesem Grund bei der Genehmigung von WKA unbedingt das im BImSchG verankerte Vorsorgeprinzip beachtet werden. Sie schließen sich deshalb ausdrücklich Pierponts Empfehlung an, bei der Errichtung von Windparks im Flachland 1,25 Meilen (2 Kilometer) und im Hügelland 2 Meilen (3,2 Kilometer) Mindestabstand zu Wohngebäuden einzuhalten. Danach hätten etliche der inzwischen weit über 20.000 deutschen WKA nie errichtet werden dürfen. Vielleicht nimmt aber die Merkel-Regierung die Beeinträchtigung des Denkvermögens ihrer Untertanen durch das WKA-Syndrom bewusst in Kauf, denn mit klar denkenden Menschen ist Deutschlands selbstmörderische „Energiewende“ wohl nicht zu machen. 

Edgar Gärtner EIKE

In diesem Zusammenhang auch interessant: 

Münster (dpa/lnw) – Der Lärm der Windräder brachte ihn um den Schlaf und störte bei Grillabenden auf der Terrasse: Vor Gericht hat ein Hausbesitzer aus Warendorf sich jetzt erfolgreich gegen den Nachtbetrieb einer Windanlage nahe seinem Grundstück gewehrt (Az.: 10 K 1405/10). Seine Klage vor dem Verwaltungsgericht Münster hatte sich gegen zwei von sieben neuen Anlagen in seiner Nachbarschaft gerichtet. Sie waren 2007 von der Bezirksregierung genehmigt worden – zu Unrecht, wie der Kläger argumentierte.

Denn bei der immissionsschutzrechtlichen Genehmigung sei der Lärm von zwei älteren Windkraftanlagen nicht korrekt berücksichtigt worden, die sich schon in der Nähe des Hauses befanden. Durch den zusätzlichen Krach der beiden neuen Anlagen würden die zulässigen Grenzwerte überschritten. Zur Verhandlung am Freitag kam auch der Betreiber der Windparks aus Warendorf: Er sieht die Verantwortung für den Lärm bei dem Betreiber der alten Anlagen.

Nach hitziger Debatte im Saal hob das Gericht die Genehmigung der Bezirksregierung am Freitag schließlich teilweise auf. Eine der beiden strittigen Anlagen darf nun zwischen 22 und 6 Uhr nicht mehr laufen. «So ist die Zusatzbelastung deutlich geringer», erklärte der Richter. Berufung sei nicht zugelassen, sagte ein Gerichtssprecher.




Die erstaunliche Abnahme von Todesfällen wegen Extremwetter in den Zeiten des Klimawandels 1900 – 2010

Die den Extremwetterlagen zugeschriebene aggregierte Sterblichkeit ist seit den 1920ern um mehr als 90% zurückgegangen, trotz der Vervierfachung der Bevölkerung und einem viel besseren Berichtswesens über derartige Ereignisse. Die aggregierte Sterblichkeitsrate ist um 98% gesunken, hauptsächlich wegen verminderter Sterblichkeit in drei Hauptbereichen:

          Die Todes- und Sterberaten aus Dürren, ursächlich für etwa 60% aller Toten wegen Extremwetterereignissen von 1900 – 2010, sind mehr als 99,9% niedriger als in den 1920ern.

          Die Todes- und Sterberaten aus Überschwemmungen, ursächlich für etwa 30% aller Toten wegen Extremwetterereignissen, sind um mehr als 98% gegenüber den 1930ern zurückgegangen.

          Die Todes- und Sterberaten aus Stürmen (z.B. Hurrikane, Zyklonen, Tornados, Taifune), ursächlich für etwa 7% aller Toten wegen Extremwetterereignissen von 1900 – 2008, sind seit den 1970ern um mehr als 55% zurückgegangen.

Man muss die Auswirkungen von Extremwetterereignissen im Zusammenhang mit der gesamten öffentlichen Gesundheit sehen. Sie tragen heute nur noch mit 0,07% zur globalen Sterblichkeit bei. Die Sterblichkeit wegen Extremwetterereignissen ist zurückgegangen, obwohl die Sterblichkeit insgesamt zugenommen hat. Das zeigt, dass die Menschen besser mit Extremwetterereignissen zurechtkommen als mit weit wichtigeren Gesundheits- und Sicherheitsproblemen.

 

Der Rückgang bei der Gesamtzahl von Toten und bei den Todesraten verweist auf einen bemerkenswerten Fortschritt der Anpassungsfähigkeit der Gesellschaft, wahrscheinlich infolge größeren Wohlstands und besserer Technik, die teilweise durch den Einsatz von fossilen Energieträgern zustande gekommen sind. Wenn der Einsatz von fossilen Energieträgern weiter behindert werden soll, kann das zur Verminderung weiterer Anpassungsfähigkeit führen und dadurch die negativen Auswirkungen des Klimawandels noch verschlimmern. Zumindest sollte die Möglichkeit derartiger negativer Resultate gegen den möglichen Nutzen von Verminderungen abgewogen werden.

Wer den gesamten Beitrag (in Englisch) mit allen Diagrammen lesen möchte, findet ihn hier, mit freundlicher Unterstützung der Reason Foundation. Die Pressemitteilung befindet sich hier: Extreme Weather Events Are Killing Fewer People Than Ever Before.

Übersetzung: Helmut Jäger, EIKE




Der PIK-EIKE Workshop – worüber die Medien nicht berichten

Das PIK wollte sich dagegen nicht zu einem gemeinsamen Protokoll bewegen lassen und wünschte zudem auch keine journalistische Öffentlichkeit beim PIK/EIKE-Workshop. Es zog vielmehr vor, jüngst seinerseits die Schrift „EIKE-Besuch am PIK – Sammlung von Sachargumenten.pdf“ ins Internet zu stellen, die erhebliche Unrichtigkeiten und Fehler aufweist. EIKE widerspricht daher diesen „Sachargumenten“ und beantwortet sie hier mit der „Widerlegung_Teil1_der_PIK_Sachargumente.pdf“, die ebenfalls beiliegt. Jeder Leser kann sich nun selber informieren.

Die AGW-Lobby und die AGW-Skeptiker vermögen zumindest in sehr bescheidenem Maße auch einmal fachlich miteinander und nicht immer übereinander zu reden. Zur Vermeidung von Missverständnissen beim Begriff AGW: Unter AGW verstehen wir bei EIKE die IPCC-Hypothese von einer schädlichen und gefährlichen anthropogenen globalen Erwärmung. Eine unbedenkliche, geringfügige und sogar erwünschte anthropogene Erwärmung der Erde wird selbstredend auch von uns anerkannt, allein schon der Erwärmungseffekt durch große Städte (UHI = Urban Heat Island effect) gehört dazu.

Die großen deutschen Medien haben vom Workshop PIK/EIKE keine Notiz genommen, obwohl ihnen das hier beigefügte Protokoll des Treffens zur Verfügung gestellt wurde. Insbesondere Presseorgane wie die Süddeutsche Zeitung (SD) oder DIE ZEIT ziehen es vor, an Stelle ordentlich recherchierter Berichterstattung Häme gepaart mit Verleumdungen über die AGW-Skeptiker und insbesondere über EIKE auszuschütten. Die SD war sich beispielsweise nicht zu schade, ihren Artikel vom 31.3.2010 mit dem von ihr frei erfundenen und EIKE-Pressesprecher Lüdecke in den Mund gelegten Satz „Wir brauchen keine Klimaforscher“ zu titeln. Die ZEIT ist dagegen etwas subtiler. Die Überschrift „Die Gehilfen des Zweifels“ (Ausgabe 48, 26. Nov. 2010) belegt es. Den verantwortlichen ZEIT-Redakteuren fiel indes nicht einmal auf, dass „Zweifel“ von jeher der Motor allen Fortschritts war und ist. Nur Ideologen und religiöse Fanatiker zweifeln niemals.

Tatsächlich gilt inzwischen – bedingt durch jahrelange, erfolgreiche, grün-mediale Gehirnwäsche – jeder Zweifel an der Klimaschädlichkeit des anthropogenen CO2 als politisch inkorrekt, ja geradezu anstößig. Man wird beim medialen Durchdrücken der AGW-Hypothese und der Verächtlichmachung jeden Zweifels daran fatal an den Stil des „Neuen Deutschland“ der ehemaligen DDR erinnert. Die Opferrolle spielen heute die sog. „Klimaleugner“, eine Bezeichnung, deren Assoziation mit dem Begriff „Holocaustleugner“ wohlbeabsichtigt ist. 

Beteuerungen von AGW-Zweiflern, sich auf dem Boden der Wissenschaft zu bewegen, werden nicht überprüft, sondern ungesehen verworfen. Immerhin gibt es bereits um die 1000 Peer-Review-Fachveröffentlichungen, die eine ganz andere Auffassung als die des IPCC äußern. Man nimmt sie erst gar nicht zur Kenntnis. Aber auch ein Blick auf die Mitglieder des Fachbeirats von EIKE (hier) dürfte klarstellen, dass es sich hier nicht um esoterische Abweichler mit Sondermeinungen zur Klimaphysik handeln kann.

Journalisten, die es nicht wahrhaben wollen, oder es (besser wissend) aus ideologischen Gründen zurückhalten, dass die faktische Sinnhaftigkeit von „Klimaschutz“ und „Energiewende“ aus guten Gründen bezweifelbar ist, richten mit unehrlicher Berichterstattung volkswirtschaftlichen Schaden an. Sie verstoßen gegen die Pflicht einer objektiven, gründlich recherchierten Berichterstattung. Wir betonen, dass insbesondere im PIK-EIKE-Workshop und den sich hier weiter ergebenden Diskursen im Internet zwischen diesen beiden Instituten (s. die her beigefügten pdf-Dokumente) auf fachlicher Ebene die wichtigsten Argumente für oder gegen die AGW-Hypothese ausgetauscht werden. Wir meinen daher, das dieser Diskurs für Redakteure eine gute Gelegenheit ist, sich kundig zu machen und zu berichten.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

Related Files




Vierte Internationale Klima- und Energiekonferenz in München

Wir haben in der EIKE-News (Rubrik Energie) am 25.9.2011 bereits über die Münchner Konferenz berichtet. Nunmehr liegt das vervollständigte Tagungsprogramm, das Anmeldungsformular und der Flyer vor (als herunterladbare pdf-Files anbei).

Admin

Jena im Okt. 2011

Related Files




Was ist mit dem Fracking wirklich los?

Bisher haben Umweltaktivisten gewöhnlich das “saubere Erdgas” unterstützt. Warum also dieses neue intolerante Gehabe?

Ölgesellschaften haben das hydraulische Fracking bereits seit 60 Jahren angewandt, um die größtmögliche Menge von Erdöl aus widerspenstigen Felsformationen tief unter der Erde zu gewinnen. Vor einigen Jahren haben Mitchell Energy und andere das HF mit horizontalen Bohrungen kombiniert, um in gasreiche Schieferablagerungen vorzustoßen, die zuvor ihren Energiereichtum nicht preisgegeben hatten. Zahlreiche Frackings später waren die Ergebnisse spektakulär.

Die Erschließung der Felder Marcellus, Bakken [siehe hierzu den weiteren Artikel unten], Barnett, Haynesville und anderer Formationen hat zur Schaffung von Arbeitsplätzen und zu steigendem Einkommen geführt, es hat schwächelnde Industrien in vielen [US-Bundes-]Staaten wiederbelebt, in denen es Schiefervorkommen gibt, oder die über Industrien zur Produktion von Flüssigkeiten, Rohren und anderer Ausrüstung verfügen, die hierfür gebraucht werden. Die Gasförderung und die geschätzten Reserven in den USA sind in die Höhe geschnellt, und die Preise sind von 11 Dollar pro 1000 Kubikfuß im Jahre 2008 auf heute 4 Dollar zurückgegangen. In Kanada wird aktiv gebohrt, während man in Polen und Großbritannien die ersten Erkundungsergebnisse evaluiert.

Das Fort Worth Chamber sagt, dass das Fracking 110 000 direkte und sekundäre Jobs in der Region stützt und Milliarden in Eigentums- und Umsatzsteuer erbringt. Loren C. Scott & Associates berechnen, dass das Bohren nach Schiefer der Wirtschaft in Louisiana 11 Milliarden Dollar zusätzlich eingebracht hat. Das Labor and Industry Department in Pennsylvania berichtet, dass das HF bereits 72 000 Arbeitsplätze sowie 1,4 Milliarden Dollar an staatlichen Steuereinnahmen erbracht hat, und dass weitere 20 Milliarden Dollar bis zum Jahr 2020 folgen könnten. West Virginia und Nord Dakota berichteten von ähnlichen Erfolgen (siehe den 2. Artikel unten!).

Die rasant zunehmenden Vorkommen und die fallenden Preise haben Dow, Shell, Sasol, Ormet und andere Firmen dazu gebracht, Werke zur Produktion von Äthylen, Petrochemikalien, Aluminium o. ä. zu errichten, wieder zu eröffnen oder zu erweitern – und dazu, viele neue Arbeitsplätze zu schaffen.

Das sind exzellente Energie- und Wirtschaftsnachrichten in einer Zeit, in der wir ein paar gute Nachrichten wirklich gebrauchen können.

Sicherlich bedarf es bei all diesen Aktivitäten – viele davon in [US-Bundes-]Staaten, in denen seit Jahrzehnten keine Bohrungen stattgefunden hatten, wenn überhaupt –  Regeln und Übersicht. Wir müssen sicherstellen, dass das Bohren und Fracking sauber ausgeführt werden, dass die Chemikalien korrekt behandelt, gelagert und recycelt werden, um Schaden von der menschlichen Gesundheit, Flora und Fauna sowie der Umwelt abzuwenden. Während sich die meisten Schiefergas-Lagerstätten Tausende Meter unter den für das Trinkwasser bedeutsamen Grundwasserschichten befinden, müssen wir sicherstellen, dass die Bohrlöcher sauber abgedichtet werden, um die Gefahr der Kontamination zu beseitigen.

Aber das hydraulische Fracking zu verbieten – und all dieses Einkommen und diese Jobs verwerfen? Was zum Frack ist hier los?

Man denke darüber nach! Dies ist freies Unternehmertum bei der Arbeit. Das zahlt sich auf eigene Weise aus. Es braucht keine Subventionen, Befürworter, Tarife oder Bürokraten und Politiker, die entscheiden, welche Industrien gewinnen oder verlieren. HF schafft echte, nachhaltige Arbeitsplätze plus signifikante Steuern und Einkommen, und zwar genau hier in Amerika. Es sorgt für eine sichere Energieversorgung 24/7/365… und ist weit billiger als landhungrige Installationen von Solar- oder Windparks. Tatsächlich macht es diese Schiefergas-Revolution noch schwieriger, diese „erneuerbaren Energiealternativen“ zu rechtfertigen.

Erdgas, speziell Schiefergas, ist unabdingbar für Backup-Generatoren für die unzuverlässige Solar- und Windenergie. Außerdem machen niedrige Gaspreise Solar und Wind noch weniger wettbewerbsfähig. Die bessere Lösung ist, auf Gas, Kohle und Kernkraft zur Stromerzeugung zu setzen und die teure, umweltfeindliche und subventionsabhängige Wind- und Solarenergie zu vergessen.

HF zerstört auch das Mantra der „Höchstförderung von Öl und Gas“, dass also demnächst rasch der Rohstoff für kohlenstoffbasierte Energie zu Ende geht. Es zeigt wieder einmal, wie recht der Geologe Wallace Pratt hatte mit seiner Aussage, „Öl und Gas findet man zuerst in den Gehirnen der Menschen“. Als die Industrie einmal neue Wege der Gewinnung von Schiefergas erschlossen hatte, wurden riesige neue Vorkommen verfügbar.

Die Menschen wünschen und brauchen verlässliche, preiswerte Energie. Viele Umweltaktivisten unterstützen Paul Ehrlichs Wort, dass „der Gesellschaft billige Energie zur Verfügung zu stellen dem Überreichen eines Maschinengewehrs an ein dummes Kind gleicht“.

Kein Wunder, dass rücksichtslose Hasser fossiler Energie bei dem Stichwort Fracking so durchdrehen.

Alle anderen wollen lediglich ehrliche Antworten, sorgfältig durchgeführte Bohrungen, Fracking und Produktionswege – und die Vorteile, die damit einhergehen. Glücklicherweise lassen sich die Fakten einfach finden.

Das Wall Street Journal hat viele dieser Tatsachen in einem klaren und kraftvollen Editorial mit dem Titel “The facts about fracking: die wirklichen Risiken der Schiefergas-Revolution und wie man damit umgeht” ausgeblendet. Seien es Krebs, die Verseuchung von Trinkwasser, giftige oder radioaktive Chemikalien, Erdbeben oder Regulationen – die Wahrheit ist Meilen von diesen Fehlinterpretationen, dieser Hysterie und den Angst erzeugenden Behauptungen entfernt, die von Food &Water Watch und ähnlichen Vereinigungen propagiert werden.

Menschen, die wissen wollen, wie das Fracking funktioniert – und welche Chemikalien tatsächlich genutzt werden, selbst in bestimmten spezifischen Zuständen – findet reichhaltige Informationen auf gut aufbereiteten Websites u. a. durch Chesapeake Energy, dem Ground Water Protection Council und Halliburton.

[Eine ausgezeichnete Website auf Deutsch zu genau diesem Thema findet sich hier. Auch die übersetzten Passagen im folgenden Absatz stimmen mit den dort gemachten Aussagen überein. A. d. Übers.]

Auf der Site von Halliburton heißt es: 99,5% der Fracking-Flüssigkeit betseht aus Wasser und Sand (der Sand wird in die Risse gepresst, um sie zur Entgasung offen zu halten). Allerdings erfordert das Einbringen der Flüssigkeitsmixtur durch die Bohrlöcher und in solide Felsformationen Tausende Meter unter Tage gut entwickelte Ingenieurtechniken und spezielle Chemikalien, um:

*den Sand in der Flüssigkeit gelöst zu halten, so dass er tief in die Risse eindringen kann;

*Bakterien im Bohrloch und in der Flüssigkeit zu bekämpfen, so dass das Gas fließt und die Rohe nicht korrodieren; und

*die Oberflächenspannung des Wassers zu reduzieren, das mit dem Reservoir in Kontakt kommt, um die Gaserzeugung zu verbessern.

Unterschiedliche Felsformationen unter der Erdoberfläche und andere Bedingungen erfordern eine unterschiedliche Zusammensetzung der 0,5% der HF-Flüssigkeit, die spezielle Chemikalien enthält. In der Vergangenheit benutzte man Diesel und verschiedene Industriechemikalien.

Heute kommen diese Chemikalien mit ständig zunehmendem Anteil aus der Nahrungsmittel- und Kosmetikindustrie. Die technischen Bezeichnungen klingen abschreckend oder sogar Angst machend (anorganische Säuren, polysaccharide Polymere und geschwefelte Alkohole, zum Beispiel), aber diese Chemikalien findet man in Käse, Bier, Fischkonserven Milchdesserts, Marshmallows, Shampoo und vielen mehr.

Selbst diese drei chemischen Gruppen (und andere Chemikalien in Nahrungsmitteln und Kosmetika) werden von der EPA und der FDA als „gefährlich“ eingestuft, weil sie in hoher Dosierung bei Tieren Krebs und andere Krankheiten ausgelöst hatten. Also könnte man sagen, dass Food & Water Watch technisch richtig liegt, wenn es sagt, dass die Fracking-Flüssigkeiten „giftige Chemikalien“ enthalten. Aber das würde dann auch für alkoholische Getränke, Fruchtsäfte, Lippenstifte, Speisestärke, Handseife und zahlreiche andere Produkte des täglichen Bedarfs gelten. Sollen wir die auch verbieten, zusammen mit Kaffee, Brokkoli und anderen Nahrungsmitteln, die von Natur aus sogar noch mehr potentielle Karzinogene enthalten?

Aber die Technik schreitet noch weiter voran. Anstelle chemischer Pestizide zur Bekämpfung von Bakterien nutzen einige Systeme jetzt ultraviolettes Licht, und mobile Einheiten bereiten bereits benutztes Wasser auf. Damit wird der Frischwasseranteil am Fracking reduziert. Andere Verbesserungen erfolgen auf regelmäßiger Basis, wie sie auf den genannten Websites detailliert erläutert werden. Man findet dort auch 3D-Ansichten, wie das Fracking funktioniert und Erklärungen anderer faszinierender Technologien.

New York und andere US-Staaten, die Delaware River Basin Commission, kanadische Provinzen, Großbritannien, Polen, die Europäische Kommission [?] und viele asiatische und lateinamerikanische Staaten erwägen HF als Teil der Lösung ihrer Probleme hinsichtlich Energie, Arbeitslosigkeit, Ökonomie und Steuereinnahmen. Das Kennenlernen der Tatsachen ist unabdingbar.

Schiefergas fungiert als Veränderer des energiepolitischen Spiels. Das Letzte, was wir brauchen, sind mehr Gesetze, Regulierung und politische Maßnahmen, die auf Fehlinterpretationen und Fabrikationen von Institutionen wie Food & Water Watch beruhen.

Paul Driessen

Paul Driessen ist politischer Ratgeber für das Committee For A Constructive Tomorrow (CFACT) und den Congress of Racial Equality (Rassengleichheit). Er ist Autor des Buches Eco-Imperialism: Green power – Black death.

Original Artikel  hier.

Dass der Umbruch des Energiemarktes, größtenteils (noch?) an der Politik vorbei in den USA bereits in vollem Gange ist, wird auch durch einen Artikel von Stephen Moore deutlich. Aus Gründen des Copyrights kann hier aber nur eine deutsche Zusammenfassung erscheinen. Moore schreibt:

Harold Hamm, Gründer der 14-größten Ölgesellschaft in Amerika, verbreitete im August eine frohe Botschaft ökonomischen Optimismus’: dass nämlich zum Ende dieses Jahrzehnts „die USA völlig energieunabhängig“ sein könnten. „Wir könnten das Saudi-Arabien bzgl. Öl und Gas im 21. Jahrhundert werden”.

 „Präsident Obama hat auf das falsche Pfernd gesetzt”, fügt er hinzu. Man kann nicht energieunabhängig werden, wenn man Steuergelder in „grüne Energie“ wie Wind und Solar steckt. Das muss durch Öl und Gas kommen.

Zwar erwartet man solche Aussagen von einem Ölmann, aber seit 2005, als Hamm die riesigen und ergiebigen Ölfelder von Montana und Nord-Dakota entdeckt hatte, sind die USA dadurch zum drittgrößten Ölproduzenten der Welt geworden.

Wie viel Öl enthält dieses Ölfeld mit dem Namen Bakker? Offizielle Schätzung: 4 bis 5 Milliarden Barrel. Hamm: insgesamt bei voller Erschließung 24 Milliarden Barrel.

Er hat recht, das würde die Ölreserven der USA verdoppeln. Die „nachgewiesenen Reserven“ zeigten damit einen raketenhaften Anstieg von 118 Millionen Barrel 2006 auf 421 Barrel in diesem Sommer.

Man erwarte eine Verdreifachung der Reserven und der Produktion während der nächsten 5 Jahre. Hamm bestritt auch, dass dieses Öl ihn allein reich mache. „Es gibt 10 Millionen Eigentümer im ganzen Land, die Geld für das auf ihrem Land erbohrte Öl bekommen. Der Reichtum ist weit verteilt.“

Ein Grund für diese Renaissance war die Erosion der Kräfte des Marktes durch die OPEC. Kaum machte man in den USA Anstalten, im Lande die Produktion zu verstärken, drehten die Saudis ihre Hähne auf und überschwemmten die USA mit billigem Öl.

Heute zerfällt die Marktmacht der OPEC, und sie diktiert nicht mehr den Weltpreis. Das ist enorm! meint Hamm. “Endlich können wir vernünftig fördern, ohne einen Zusammenbruch der Preise zu befürchten”. In den neunziger Jahren importierten die USA zwei Drittel ihres Öls aus der OPEC. Heute kommt der Großteil aus Kanada und Mexiko. Deswegen glaubt Hamm, dass die USA die völlige Unabhängigkeit erreichen kann.

Außerdem wurden neue Bohrtechniken entwickelt, die auch bisher schwierig zu erschließende Vorkommen zu vertretbaren Kosten  nutzbar machten. Maßgeblich war auch Hamm daran beteiligt.

Hamms Erfolgsgeschichte kann so wohl nur in den USA stattfinden. Als jüngstes von 13 Kindern und aufgewachsen im ländlichen Oklahoma hatte er kein Geld für das College und ging stattdessen in den Ölfeldern arbeiten, wo er die Leidenschaft entwickelte. Schon immer wollte er Öl finden.

Er bohrte wild drauflos, und schon bald wurden seine Erfolge legendär. Aber er selbst sagt nur, dass er einfach Glück gehabt habe.

Außerdem hatte er bereits Millionen Dollar an Schulen in Oklahoma und an die Diabetesforschung gespendet).

Kurz sprach er auch mit Präsident Obama und versuchte ihn von der Revolution bei der Öl- und Gasindustrie zu überzeugen, und dass es genug Kapazitäten gebe, die OPEC zu ersetzen.

Die Reaktion des Präsidenten? “Öl und Gas sind für die nächsten Jahre sicher von Bedeutung. Aber wir müssen uns grüner und alternativer Energie zuwenden. Energieminister Steven Chu versicherte ihm, dass innerhalb der nächsten 5 Jahre eine Batterie entwickelt werden würde, die in einem Auto eine Leistung von etwa 130 Meilen per Gallone (ca. 70 km pro Liter) hätte. Für Hamm war das sehr enttäuschend. Selbst wenn man das glaube, warum wollte man die Öl- und Gasförderung stoppen?

Washington hält uns den regulatorischen Stiefel an den Hals und fragt dann, warum wir nicht mehr Jobs schaffen, klagt Hamm. Es braucht inzwischen Monate und manchmal Jahre, um die Erlaubnis zum Bohren zu bekommen. Das killt Projekte. Außerdem ziehen die Behörden die Schrauben bei der Ölindustrie immer mehr an. „Ich kann ins Gefängnis kommen, wenn ein lokaler Operateur vor Ort falsche Angaben über die Förderung macht“.

Vor einigen Monaten wurden Hamms Firma Continental und sechs andere Ölgesellschaften in Nord-Dakota angeklagt, 28 Zugvögel getötet  zu haben. Dafür sieht das Gesetz eine Gefängnisstrafe bis zu 6 Monaten vor. Die Menschen in Oklahoma sind sehr wütend über diese behördliche Willkür, weil die Windindustrie, die jährlich hunderttausende von Vögeln tötet, völlig unbehelligt bleibt.

Hamm erklärte sich vor Gericht für nicht schuldig und fügte hinzu, dass so etwas in Amerika nicht passieren sollte. Für ihn ist der Vorgang ein weiterer Beweis, dass Washington sie „einkassieren“ wolle.

Wenn Obama wirklich mehr Arbeitsplätze schaffen wollte, sollte er nach Nord-Dakota schauen, dem US-Bundesstaat mit der geringsten Arbeitslosenquote von 3,5%, glaubt Hamm. Aber selbst diese Zahl hält er für übertrieben: „Wir können hier keine Arbeitslosen finden. Vielmehr gibt es 18 000 freie Stellen“. Wegen des Ölbooms weist das Budget einen Überschuss aus, zahlt Continental doch 50 Millionen Dollar Steuern pro Jahr.

Es fällt schwer, Hamms Feststellung, dass Obama eine falsche Energiepolitik in Amerika betreibt, zu widersprechen. Die Regierung spült in den Nischenmark grüne Energie, der zur Zeit 2,5% unseres Energiebedarfs deckt, Milliarden von Dollar an Subventionen. „Kommerziell kann die Windenergie mit einem Preis von 6 Dollar pro tausend Kubikfuß (ca. 28 Kubikmeter) nicht mithalten. Derzeit liegt der Preis sogar unter 4 Dollar. Dies könnte die Gegnerschaft der Regierung zur Renaissance fossiler Treibstoffe erklären.

Falls Washington irgendwann einmal mehr Bohrerlaubnisse für Öl und Erdgas erteilen würde, rechnet Hamm vor, könnte die Bundesregierung (der USA) über die Jahre 18 Billionen (Trillions) Dollar an Einnahmen erzielen. Das ist mehr als die USAS derzeit Schulden haben, sagt er und lächelt.

Diese Schätzung scheint überhaupt nicht plausibel zu sein, aber Hamm hat sein Leben lang die Skeptiker immer wieder vorgeführt. Und selbst wenn er um die Hälfte falsch liegen würde, wäre dies eine atemberaubende Zahl, über die man nachdenken sollte. Bei dieser Geschichte von „Amerika zuerst!“ geht es nicht nur um Arbeitsplätze und wirtschaftliches Überleben. Sie könnte auch die erschütterte Bilanz der USA beheben. Irgendjemand sollte diesen Mann vor ein Superkomitee des Kongresses zur Reduzierung des Defizits bringen.

Originalartikel hier

Beide Artikel übersetzt bzw. zusammengefasst von Chris Frey für EIKE




Eine neue Studie nimmt dem Wind den Wind aus den Segeln

Dies sind die Ergebnisse einer gründlichen neuen Studie, die heute von Bentek Energy veröffentlicht worden ist. Bentek Energy ist eine in Colorado ansässige Firma zur Analyse von Energie. Anstatt sich auf Computermodelle zu verlassen, die lediglich theoretische Emissionsdaten benutzen, haben die Autoren Porter Bennett und Brannin McBee aktuelle Emissionen von Kraftwerken in vier Gebieten analysiert: Beim Electric Reliability Council of Texas, Bonnevielle Power Administration, California Independent System Operator und dem Midwest Independent System Operator. Diese vier Systemoperatoren beliefern 110 Millionen Verbraucher oder ein Drittel der US-Bevölkerung.

Bennet und McBee schauten sich mehr als 300 000 stündliche Aufzeichnungen von 2007 bis 2009 an. Ihre Ergebnisse zeigen, dass die American Wind Energy Association (AWEA) und andere Windparks die Fähigkeit des Windes, Schwefeldioxid, Nitrooxid und Kohlendioxid zu reduzieren, weit überschätzt hatten.

Tatsächlich stellte sich in der Studie heraus, dass in einigen Regionen des Landes, z. B. in Kalifornien, die Nutzung der Windenergie die Schwefeldioxidemissionen kein bisschen reduziert. Aber die wichtigste Schlussfolgerung aus der Studie ist, dass die Windenergie nicht „eine kosteneffektive Lösung zur Reduzierung von Kohlendioxid ist, wenn man Kohlenstoff mit weniger als 33 Dollar pro Tonne rechnet“. Angesichts der nach wie vor in der Rezession steckenden US-Wirtschaft und der Arbeitslosigkeit auf Rekordhöhe kann und will der Kongress nicht versuchen, eine Kohlenstoffsteuer einzuführen, egal wie gering diese ausfallen soll.

Die AWEA behauptet, dass jede Megawattstunde durch Windturbinen erzeugten Stromes den Ausstoß von Kohlendioxid um 0,8 Tonnen verringert. Aber die Bentek-Studie zeigt, dass die CO2-Reduktion durch Windenergie in Kalifornien, einem Staat, der stark abhängig von mit Erdgas erzeugtem Strom ist, nur etwa 0,3 Tonnen pro Megawattstunde betragen hatte. Weiter fand die Studie heraus, dass im Gebiet, das von der Bonneville Power Administration bedient wird, die einen großen Anteil ihres Stromes aus Wasserkraft erzeugt, die CO2-Reduktion nur bei 0,1 Tonne pro Megawattstunde lag.

Um eines klarzustellen: die Bentek-Studie fand heraus, dass in der vom Midwest Independent System Operator bedienten Region, in der der meiste Strom in Kohlekraftwerken erzeugt wird, die Vorteile des Windes größer sind (etwa 1,0 Tonnen eingesparten CO2’) als die AWEA behauptet. Jedoch, betrachtet man die Reduktionen von Schwefeldioxid und Nitrooxiden im Mittleren Westen, zeigte sich laut der Bentek-Studie erneut, dass die Behauptungen der AWEA übertrieben waren.

Wie ist das in Texas, dem Bundesstaat mit einigen 10 000 Watt installierter Kapazität aus Windstrom, mehr als jeder andere Bundesstaat (hier)? Auch hier stellte sich in der Bentek-Studie heraus, dass die Behauptungen der AWEA übertrieben waren. Texas ist stark abhängig von der Stromerzeugung durch Erdgas. Bei der Anwendung von Windenergie im Bereich des Electric Reliability Council von Texas ergab sich aus der Bentek-Studie eine Reduktion von Schwefeldioxid um 1,2 Pfund pro Megawattstunde, deutlich weniger als die von AWEA behaupteten 5,7 Pfund. Ähnlich war es mit der Reduktion von Nitrooxiden, fand man doch eine Reduktion um lediglich 0,7 Pfund anstatt der von der AWEA behaupteten 2,3 Pfund, und die Reduktion von Kohlendioxid belief sich auf 0,5 Tonnen pro Megawattstunde und nicht auf die von AWEA behaupteten 0,8 Tonnen.

Aus der Bentek-Studie kommen aber noch mehr schlechte Nachrichten für die subventionsabhängige Windindustrie, die schon jetzt auf Zahnfleisch läuft. Niedrige Preise für Erdgas, der wirtschaftliche Abschwung und die Ungewissheit über die Fortsetzung föderaler Subventionen lassen die Windindustrie zittern. Im Jahre 2010 ist die gesamte Kapazität von winderzeugtem Strom in den USA um 5100 Megawatt gestiegen, etwa halb so viel wie im Jahre 2009. Im ersten Viertel dieses Jahres belief sich der Zuwachs gerade mal auf 1100 Megawatt, was darauf hindeutet, dass es in diesem Jahr noch schlimmer ist als 2010 (hier).

Die Aussichten für die Windindustrie sind so schlecht, dass T. Boone Pickens, lange Zeit einer der lautesten Befürworter der Windenergie, auf dem US-Markt aufgegeben hat. Der sich selbst vermarktende Milliardär (hier), der mit lautem Getöse einmal Windturbinen im Wert von etwa 2 Milliarden Dollar im Jahre 2008 bestellt hatte, versucht inzwischen, in Kanada eine Heimstatt für diese Turbinen zu finden.

Zusätzlich zu diesen Schwierigkeiten erhebt sich in immer mehr Ländern der Welt Protest gegen die Windindustrie. In der Europäischen Plattform gegen Windfarmen haben sich derzeit 485 Organisationen aus 22 europäischen Staaten zusammen geschlossen. In Großbritannien, wo Windprojekte in Wales, Schottland und anderswo bitter bekämpft werden, haben sich rund 250 Anti-Wind-Gruppen gebildet. In Kanada gibt es allein in der Provinz Ontario mehr als 50 Anti-Wind-Gruppen. In den USA gibt es etwa 170 solcher Gruppen.

Während viele Faktoren der Windindustrie arg zusetzen, nimmt der heute veröffentlichte Bentek-Bericht dieser Industrie auch noch die Hauptgrundlage für ihre Existenz. Der Global Wind Energy Council, eine der Hauptlobbygruppen der Windindustrie, behauptet,  dass die Reduktion des Eintrags von Kohlendioxid in die Atmosphäre „der wichtigste Vorteil der Windstromerzeugung für unsere Umwelt ist (hier)“. Die American Wind Energy Association beharrt ihrerseits auf der Feststellung, dass die Windindustrie „den Eintrag von Kohlendioxid bis zum Jahr 2030 um 825 Millionen Tonnen vermeiden kann (hier)“.

Aber wenn der Windenergie Kohlendioxid-Emissionen nicht signifikant reduziert, können die Kritiker die üppigen Subventionen der Branche in Frage stellen, einschließlich der Steuergutschrift von $ 0,022 für jede Kilowattstunde Strom. Zum Vergleich: im Jahr 2008, berichtete die Energy Information Administration, dass die Subventionen für den Öl-und Gassektor 1,9 Mrd. $ pro Jahr oder etwa USD 0,0001 je kwh betrug.

In anderen Worten, Subventionen für die Windenergie je kwh mehr als 200 mal so groß wie jene, die dem Öl-und Gassektor [auf der Basis [von pro-unit-of-Energie (BTU) – ] erzeugt]. Mit anderen Worten, die Subventionen für den Windsektor sind je kwh mehr als 200 mal größer als diejenigen für den Öl- und Gassektors.*

Falls diese Subventionen einmal wegfallen sollten, wäre der Windsektor in den USA augenblicklich mausetot. Und für die Verbraucher wäre das eine hoch willkommene Nachricht.

Die Windenergieindustrie ist das Gegenstück zum Betrug mit Biodiesel aus Mais: es handelt sich um eine übermäßig subventionierte Industrie, die vollständig von fließenden Steuergeldern abhängt, um solvent zu bleiben. Außerdem wird dem Verbraucher ein Produkt angedreht, das unseren Bedarf an Erdgas kaum verringert oder CO2-Emissionen reduziert. Die jüngste Bentek-Studie sollte eine Pflichtlektüre für politische Entscheidungsträger sein. Es ist eine dringend notwendige Erinnerung an die ärgerlichen Fakten über die Windenergie, die durch den tsunami-artigen Hype um grüne Energie verschleiert worden sind.

Autor Robert Bryce

Robert Bryce ist beratendes Mitglied am Manhattan Institute. Sein viertes Buch, Power Hungry: The Myths of "Green" Energy and the Real Fuels of the Future wurde kürzlich als Paperback veröffentlicht.

Link: http://www.forbes.com/2011/07/19/wind-energy-carbon.html

Übersetzt von Chris Frey für EIKE

*Erläuterungen von Leser F. Wildhagen zu den Maßeinheiten und sonstigen Vergleichen 

* => Absolut wurde etwa das gleiche an Subventionen für Öl und Wind ausgegeben. Lediglich das 200-fache für Windenergie auf Basis einer kwh. 

Nimmt man die produzierte Windenergie aus dem Jahr 2010 (Wikipedia http://en.wikipedia.org/wiki/Wind_power_in_the_United_States), so ergibt sich eine US-Windsubvention von ca. USD 2 Mrd. (nämlich produzierte kwh in 2010 [lt wiki] knappe 100 Mrd. kwh [94,650 Mrd. kwh]).

Etwas pikant ist natürlich der Fakt, dass selbst die US-Ölindustrie Steuersubventionen erhält. Schließlich werden jedes Jahr Rekordgewinne erzielt.

BTU = British thermal unit; in SI-Einheiten

1 Btu = 1055,05585262 J

Die British thermal unit ist eine Einheit der Energie. Ihr Einheitenzeichen ist Btu oder BTU, ihr Formelzeichen W. Die Btu gehört nicht zum SI-System und ist definiert als die Wärmeenergie, die benötigt wird, um ein britisches Pfund Wasser um 1 Grad Fahrenheit zu erwärmen. Da auf Grund der temperaturabhängigen Wärmekapazität diese Energie je nach Temperatur des Wassers unterschiedlich ist, existieren mehrere Definitionen der Btu.

Die International (Steam) Table Btu wurde nach der International (Steam) Table Kalorie (calIT) als 1055,05585262 Joule definiert.[1]

1 BtuIT = 1055,05585262 J ≈ 252 cal 

1 MBtu = 1.000 Btu ≈ 293,071 Wh 

1 MMBtuIT = 1.000.000 BtuIT = 1055,05585262 MJ ≈ 293,071 kWh 

Bei der Spezifizierung von Wärmepumpen (speziell Klimaanlagen) wird oft bei Importgeräten die Kühlleistung (fehlerhaft) in Btu angegeben. Gemeint ist hier BTU pro Stunde (BTU/h).

1000 BTU/h ≈ 293 W 

Auch für zu kühlende Geräte von Rechenzentren wird die in Wärme abgegebene Verlustleistung in BTU/h angegeben.

Der Erdgas-Verbrauch wird manchmal auch in mmBTU (million British thermal units; mm kommt von tausend tausend) angegeben. 1 mmBTU entspricht 26,4 Standard Kubikmeter Gas, basierend auf einem Energieinhalt von 40 Megajoule/m³. 




Wie der WWF das IPCC unterwandert hat

Der WWF könnte früher einmal recht bescheiden gewesen sein, aber es ist wichtig zu verstehen, dass dies längst nicht mehr der Fall ist. Aus ihm wurde ein Unternehmen mit Büros in 30 Ländern mit etwa 5,000 Beschäftigten (siehe letzte Seite in diesem PDF). In den USA allein beschäftigt WWF:

·                      einen geschäftsführenden Direktor der internationalen Finanz

·                      Einen Vizepräsidenten von Geschäft und Industrie

·                      Einen beratenden Vizepräsidenten für Markttransformation und

·                      Einen Manager für Beziehungen zur Regierung

Der gleiche Zweig in den USA enthält auch:

·                      Einen Direktor der internationalen Klimapolitik

·                      Einen geschäftsführenden Direktor der Klimaänderung

·                      Einen geschäftsführenden Direktor der Klimaanpassung

·                      Einen Direktor für Kommunikation zur Klimaänderung

·                      Einen beratenden Wissenschaftler, Klimaanpassung und

·                      Einen führenden Spezialisten der Klimaänderung

Der USA-Zweig des WWF verfügte im Jahre 2010 über Gelder in Höhe von 224 Millionen Dollar – fast eine viertel Milliarde.

Zum Vergleich: die verfügbaren Gelder für Amnesty International in den USA betrugen 36 Millionen Dollar – ein Sechstel der Menge (siehe Seite 29 hier)

Dem Jahresbericht 2010 des WWF zufolge belief sich das Einkommen des internationalen Netzwerks des WWF auf € 524 963 000. Übertragen auf US-Dollar sind das fast drei Viertel Milliarden Dollar! In einem Jahr!

Wenn der WWF jemanden neu einstellt, um die globale Klimainitiative zu leiten, tat der das, was Hedgefonds und der Internationale Geldmarkt auch machen, wenn nach Leuten für hohe Stellungen gesucht wird – man schaltet eine halbseitige Anzeige im Magazin New Economist.

Mit anderen Worten, der WWF ist eine obszön wohlhabende Organisation. Und Geld, wie sie sagen, redet. Wenn jemand im Lobbyismus tätig ist und Geld in Hülle und Fülle vorhanden ist, behandelt man seine Freunde wirklich sehr gut, tatsächlich. Gute Mahlzeiten, üppige Hotelzimmer, Reisen in exotische Orte – und der Himmel weiß, was sonst noch.

Was mich zum IPCC bringt.

Die Einstellungskampagne

In der zweiten Hälfte des Jahres 2004, etwa um die Zeit, als die Arbeit an etwas begann, dass später der Zustandsbericht 4 des IPCC werden sollte, startete der WWF eine Einstellungskampagne. Er rief eine Parallelinstitution ins Leben – das Climate Witness Scientific Advisory Panel – und zielte damit systematisch auf die mit dem IPCC verbundenen Wissenschaftler.

Es ist unklar, wie genau der Prozess der Anwerbung verlief – oder wer wann und in welcher Reihenfolge eingestellt worden ist – aber Ende 2008 verkündete der WWF, dass man 130 führende Klimawissenschaftler eingestellt habe, meistens, aber nicht durchweg, vom IPCC… (siehe Seite 2 von diesem PDF).

Mit einem achtseitigen Dokument, das im Jahr 2008 zusammengestellt worden war, drängte der WWF Wissenschaftler, dass es hier „Gelegenheiten für ein weiteres Teilhaben an einer Anzahl weiterer WWF-Aktivitäten“ gebe, einschließlich „Teilnahme an Konferenzen, Foren oder Arbeitsgruppen sowie Austausch mit den Medien“. Außerdem bot sich zusätzlich die Möglichkeit „der Zusammenarbeit zwischen dem WWF und Forschungsinstitutionen“.

Es fällt schwer zu glauben, dass irgendein Wissenschaftler, der etwas auf sich hält, nach der Lektüre dieser acht Seiten noch irgendetwas mit dem Climate Witness Panel zu tun haben wollte. Das WWF stellt an vorderster Stelle auf der Titelseite ganz offen fest, dass es das Ziel dieses Panels ist, den Sinn für die Dringlichkeit in der Öffentlichkeit zu schärfen. Diese Phrase taucht auf der Schlussseite gleich viermal auf.

In bemerkenswert offener Weise sagt der WWF, dass er stärkere Maßnahmen hinsichtlich der Klimaänderung in der Gemeinschaft anregen möchte. Wir wollen eine Bewegung von Individuen bilden… die gegen diese Bedrohung aktiv werden wollen.

Niemand hat also diese „führenden Klimawissenschaftler” angelogen. Niemand hat verschleiert, was wirklich los war. Der WWF hat ihnen explizit gesagt, dass er ihre Hilfe brauchte, um die Öffentlichkeit immer mehr zu ängstigen, so dass der WWF eine Bewegung ins Leben rufen konnte. Von Wissenschaftlern, die dem Panel des WWF beitraten, wurde verlangt, ein Formular auszufüllen, aus dem ihr Wille hervorging, Aussagen, die der WWF von gewöhnlichen Menschen sammelte, zu evaluieren; von Menschen, die daran glaubten, selbst die anthropogene Klimaänderung ausgelöst zu haben.

Die glorifizierte öffentliche Meinungsumfrage, die der WWF anführt, um diese Aussagen zu verbinden, kann man  hier sehen. Wenn man es ein beschämendes, unwissenschaftliches Stück Abfall nennt, ist das noch milde ausgedrückt.

Die Leute wurden gefragt, ob sie persönlich Änderungen bei Regen- und Schneefall, bei der Wassertemperatur und den Meeresströmungen beobachtet haben. Aber vernünftige Untersuchungen – wie „haben Sie eine längere, sorgfältige gespeicherte Aufzeichnung?“ finden sich nirgendwo.

Das WWF lädt diese Menschen ein, „Konsequenzen“ aus den Änderungen zu ziehen, die sie glauben persönlich beobachtet zu haben. Er stellte alle Arten von Fragen, die die gewöhnliche Frau auf der Straße oder die Großmutter in einem ländlichen Dorf in der Dritten Welt kaum zuverlässig beantworten können. Gab es Änderungen in der maritimen Biodiversität? Wie sieht es mit der Verteilung und Zuwanderung von Spezies aus?

Als nächstes lädt der WWF die Antwortenden ein zu erkunden, welche Konsequenzen für die menschliche Gesundheit nach ihrer Ansicht in Zusammenhang stehen mit den Klimaänderungen, die sie glauben, beobachtet zu haben. Haben Fälle von Malaria zugenommen? Was ist mit Krankheiten durch Wasser? Und hier kommt mein Favorit: Gab es eine Änderung der ultravioletten Strahlung?

Der WWF erklärt den Wissenschaftlern, dass das Einzige, was sie tun müssen, diese Aussagen „wissenschaftlich zu begutachten“ und sie in Konsistenz mit dem derzeitigen Kenntnisstand der Wissenschaft hinsichtlich der Auswirkungen des Klimawandels zu bringen… Die Hauptfunktion eines Mitglieds (des Scientific Advisory Panel) besteht darin, die wissenschaftliche Basis der Aussagen der Klimazeugen zu verifizieren, die der WWF aus der ganzen Welt sammelt, um sicherzustellen, dass sie in Übereinstimmung mit der wissenschaftlich begutachteten Literatur über die Auswirkungen der Klimaänderung stehen, die heute in einer bestimmten Region stattfinden.

Die Öffentlichkeit füllt fünf Seiten mit Fragen aus, aber die Wissenschaftler werden aufgefordert, eine Seite mit ‚Aussagen von Klimazeugen’ zu evaluieren, die uns [dem WWF] aus der Öffentlichkeit übermittelt werden.

Mit anderen Worten, die Daten, die die Wissenschaftler bekommen, wurden zunächst von Aktivisten zusammengefasst. Dieses Vorgehen allein macht die ganze Übung schon ungültig.

Der WWF ködert die Wissenschaftler für ihre Mühe mit einer handfesten Belohung:

Die Teilnahme am Klimazeugen-Programm ist freiwillig, und im Gegenzug würdigen wir euren Beitrag zu unserer globalen Website, und wir nennen eure Namen unter jeder Geschichte der Klimazeugen (sic), die ihr begutachtet. Wie also können Leute, die klug genug sind, einen PhD zu erlangen, herausfinden, dass dies ein spektakulär schlechter Handel ist? Arbeite für uns umsonst, und wir anerkennen eure makellose wissenschaftliche Reputation und verlinken sie mit unserer wissenschaftlich bankrotten Kampagne, die Öffentlichkeit zu ängstigen und zu manipulieren.

Wir bieten euch den großen Service der Werbung auf unserer globalen Website, so dass euch niemand mehr mit jemandem mit einem ausgeprägten Urteilsvermögen verwechselt. Wir nutzen unser Multimillionen Dollar schweres Budget, um der Welt zu verkünden, dass ihr entweder ein politischer Parteigänger [a hack] oder ein ungebildeter Trottel seid.

Ah, aber vielleicht bin ich nicht fair: Es gibt in diesem Absatz noch eine Zeile. Sie lautet: Der WWF sucht auch nach Möglichkeiten, neue Klimaforschungsergebnisse bekannt zu machen. Zögern Sie nicht, hierzu den Klimazeugenmanager zu kontaktieren.

Zwischen 2004 und 2008 hat der WWF 130 Wissenschaftler dazu überredet, seinem Climate Witness Scientific Advisory Panel beizutreten. Wie oben ausgeführt, hat die Klimazeugenkampagne ein offen erklärtes politisches Ziel. Der WWF gibt offen zu, dass er versucht, das Gefühl der Dringlichkeit in der Öffentlichkeit stärker zu verankern. Furcht, Alarm, Ängstlichkeit – das ist es, was sie vorantreiben.

Die Kampagne sammelt auch Aussagen von gewöhnlichen Menschen, die glauben, Zeuge der direkten Auswirkungen der Klimaänderungen in ihren eigenen Hinterhöfen zu sein. In einem Versuch, diesen Glauben mit einer Aura der Wissenschaftlichkeit zu durchtränken, überprüfen die Wissenschaftler im WWF Advisory Panel diese Aussagen der Seite 1 und entscheiden, ob sie mit den veröffentlichten Forschungsergebnissen konsistent sind.

Wenn es um das große Ganze geht, gibt es beim WWF keine Zweifel oder Unsicherheiten. Er sagt, dass es „fast unmöglich ist, die Bedrohung des Klimawandels zu überschätzen“.

Das IPCC sollte jedoch eine neutrale, objektive wissenschaftliche Institution sein. Ein Richter in einem Mordprozess kann nicht mit den Anklägern am Abend eine Party feiern. Ganz ähnlich sollte sich das Personal des IPCC, das mit der Aufgabe betraut ist  festzustellen, ob die Menschheit für die Klimaänderung verantwortlich ist oder nicht, von dem Lynchmob außerhalb der Gefängnistür fernhalten.

In einem Dokument aus dem Jahr 2008 sagt der WWF, sein Beirat von 130 „führenden Klimawissenschaftlern“ komme „zumeist, wenn auch nicht durchweg, vom IPCC“. Diese speziellen Wissenschaftler stehen also den Ansichten des WWF mehr als nahe. Sie haben eine formalistische Beziehung mit dieser Organisation. Sie wurden gedrängt, sie wurden überredet, und dann haben sie das WWF-Zelt betreten.

Was bedeutet dies für den gefeierten IPCC-Bericht aus dem Jahr 2007 – derjenige, der dem IPCC den Friedensnobelpreis einbrachte? Lassen Sie mich einen schnellen Schnappschuss zeigen:

Es bedeutet, dass es in nahezu zwei Drittel der Kapitel in der Klimabibel von 2007 – 28 von 44 oder 64% –  mindestens ein Individuum auf ihrem Autorenspiegel haben, der mit dem WWF verbunden ist.

Es bedeutet, dass die mit dem WWF verbundenen Wissenschaftler geholfen haben, sämtliche Kapitel der Arbeitsgruppe 2 zu schreiben – alle 20.

Es bedeutet, dass 15 Kapitel in der Klimabibel von 2007 von WWF-Verbindungsleuten geleitet worden waren – ihre koordinierenden Leitautoren waren Mitglieder im Panel des WWF. In drei Fällen wurden Kapitel durch zwei mit dem WWF verbundene Leitautoren verfasst. In einem Fall haben 8 Persönlichkeiten in einem einzigen Kapitel links zum WWF. In einem anderen sind es sechs.

Es bedeutet, meine Damen und Herren, dass das IPCC infiltriert worden ist. Es wurde ganz und gar kompromittiert.

Ich habe unzählige Stunden damit verbracht, all das zu suchen, Gegenproben zu machen und Tabellen zu kalkulieren, um diese Ergebnisse zu untermauern. Während der kommenden Tage werde ich jede der oben aufgezählten Behauptungen mit klaren, unwiderlegbaren Beweisen untermauern. Wie üblich verlinke ich alles zu meinen Quellen, so dass jeder meine Behauptungen sofort verifizieren kann.

Bleiben Sie dran! Das wird eine wilde Fahrt!

Anhang 1
Zwar ist der WWF erschreckend wohlgefällig, wenn es darum geht, den Ruf der von ihm rekrutierten Wissenschaftler zu wahren, doch ist er nichtsdestotrotz peinlich darauf bedacht, sein Image nicht ankratzen zu lassen.

Das 8-seitige Dokument zur Rekrutierung, das auf die Wissenschaftler zielt, enthält eine Passage, die sich so liest:

Wir regen an, dass Sie sich bemühen, zuvor die Genehmigung … Ihrer Verbindungsperson zu erhalten, falls Sie den WWF oder dessen Klimazeugenprogramm-Logo oder Namen nutzen wollen, oder beziehen Sie sich auf Ihre Teilnahme am Klimazeugenprogramm (siehe Seite 6).

Wie finden Sie das als Chuzpe?

.

Anhang 2
Auf Seite 1 des Formulars für Interviews von Klimazeugen werden der Öffentlichkeit zwei Fragen gestellt, die ihnen einen enormen Anreiz gibt, ihre Beobachtungen zu übertreiben.  Die erste Frage lautet:

Sind Sie darauf vorbereitet, in Ihre Hauptstadt als Klimazeuge zu fahren, wenn die Kosten erstattet werden?

Klartext: Wie würden Sie eine kostenlose Reise finden, die Sie irgendwohin führt, wo Sie sonst nie hinkommen?

Schamlos wird dann diese Frage weiter aufgebauscht:

Sind Sie darauf vorbereitet, eine Fernreise als Klimazeuge anzutreten, falls die Kosten ersetzt werden?

Links zum WWF: hier, hier und hier, außerdem hier und hier

Donna Framboise

Link zum Original: hier

Übersetzt von Chris Frey für EIKE




Teil 8: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

Da die Temperaturentwicklung ausschließlich von der solaren Aktivität abhängt, werden die Temperaturen mit der derzeit zurückgehenden Sonnenaktivität ebenfalls zurückgehen, so wie wir dies seit etwa 10 Jahren auch beobachten. Zu dieser Erkenntnis kommen NASA, wie auch das Space and Science Research Center (SSRC) in Orlando.

Wie dargelegt, bestimmt der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus maßgeblich unser Klima. Er hatte zu Beginn des Jahrhunderts (2002/2003) sein Maximum. Wie nach jedem Hauptsonnenzyklus, gehen seither die Temperaturen deutlich zurück.

 

Abbildung 183 zeigt die Kälteperioden der letzten 1.100 Jahre (ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus. Nach jedem Maximum fallen die Temperaturen deutlich.

Daher werden der Temperaturverlauf ausgewählter Stationen nach dem davor liegenden Maximum des de Vries/Suess-Zyklus betrachtet. Dieses lag in den 1790-Jahren. Nur solche Stationen wurden betrachtet, in denen eine natürliche Schwingung zu sehen ist, um auszuschließen, dass menschliche Effekte, hier vor allen der Wärmeinseleffekt, auf den Temperaturverlauf störend wirken.

 

Abbildung 184, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von Kopenhagen im Zeitraum von 1768 – 2009. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen noch stark zwischen warm und kalt (rote Fläche). Bis zum Erreichen seines Minimums, sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten (blaue Fläche). Vor einem erneuten Temperaturanstieg (steigender Sonnenzyklus), fallen die Temperaturen auf ein Minumum und steigen dann kontinuierlich an (schwarze Linien).

Abbildung 185, Quelle: (http://www.lanuv.nrw.de/luft/wirkungen/klima_grundlagen.htm) zeigt den Temperaturgang des Hohenpeißenberg von 1781-1995 nach Fricke 1997. Die rote Linie kennzeichnet wieder das Maximum des Hauptsonnenzyklus. Auch hier sind bis 30 Jahre nach dem Hauptsonnenzyklus starke Jahresschwankungen der Temperatur zu sehen (rote Fläche), die dann geringer werden (grüne Fläche) und nach dem Minimum im Hauptsonnenzyklus die geringsten Werte einnehmen (blaue Fläche).

 

Abbildung 186: Zu sehen ist der Temperaturverlauf von Wien im Zeitraum von 1775 – 2008, Quelle: Prof. Ewert, EIKE. Der Temperaturverlauf verhält sich wie bei den vorherigen Datenreihen.

 

Abbildung 187: Ebenfalls das gleiche Bild bei der Temperaturgangreihe München im Zeitraum von 1781 – 1991.

 

Abbildung 188: Temperaturgangreihe von Berlin-Dahlem von 1701 – 2008 mit den gleichen Merkmalen.

 

Abbildung 189: Temperaturgangreihe Zentralenglands von 1659 – 2000 (alle nicht eigens angegebene Quellen: Prof. Ewert, EIKE). Mit seinem ausgeglichenen Seeklima zwischen Atlantik und Nordsee nimmt England sicherlich eine Sonderstellung ein. Dies zeigt sich, dass hier die „grüne“ Phase von der „roten“ Phase nicht so stark differiert wie in Mitteleuropa. Aber auch hier ist das Muster, trotz der Moderation durch den Ozean, vorhanden. Die Temperaturgangreihe ist deshalb besonders interessant, weil sie bis 1659 zurückreicht und damit an einem weiteren Hauptsonnenzyklus gespiegelt werden kann (Maximum um 1590). Während der Epoche der "Kleinen Eiszeit" zeigt sich auch hier deutlich das typische Temperaturgangmuster. Auch beim davor liegenden Hauptsonnenzyklus, fallen zuerst die Temperaturen stark, bevor sie dann wieder ansteigen (schwarze Linien).

 

Abbildung 190: Eine weitere Region, neben Mitteleuropa und Großbritannien, St. Petersburg, zeigt ebenfalls das typische Muster des Temperaturganges nach einem Maximum im Hauptsonnenzyklus.

 

Abbildung 191: In Vilnius ein ähnliches Bild.

 

Abbildung 192: Nicht nur in Europa, sondern auch in Amerika ergibt sich das gleiche Muster des Temperaturganges nach einem Hauptsonnenzyklus, wenn auch hier sozusagen der mittlere Teil fehlt, weil keine Messungen vorhanden sind.

Fazit

Anhand der solaren Aktivitätsschwankungen, dem derzeitigen und weiteren Rückgang der solaren Aktivität, sowie der Vergleiche der Temperaturentwicklung nach einem Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem spürbaren Rückgang der Temperaturen zu rechnen. Nach einem Hauptsonnenzyklus fallen die Temperaturen deutlich, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie wir es übrigens auch gegenwärtig wieder erleben, so dass der Temperaturgang für die nächsten 10 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangphase (Hystherese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert. Im eingeschwungenen Zustand (z.B. kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus, sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau.

Obwohl die Untersuchungen anhand eines, bzw. 2 Hauptsonnenzyklen sicherlich zu gering sind, um eine abschließende Aussage treffen zu können, zeigt sie, dass starke Temperaturschwankungen zwischen warmen und kalten Jahren in den ersten Jahrzehnten nach einem Hauptsonnenzyklus, insbesondere in Mitteleuropa, nichts ungewöhnliches darstellen. Die heutigen Schwankungen passen somit in sehr guter Weise zu den historischen.

Lässt sich darüber hinaus eine weiter gehende Prognose für die Temperaturentwicklung herleiten. Der Autor hält dies nicht grundsätzlich für unmöglich, wenn dazu weitere solare Zyklen, wie der Hallstatt-Zyklus, der die Hüllkurve des de Vries-Suess-Zykluss darstellt zu Grunde gelegt werden. Sonnenzyklen bestimmen nicht nur auf kurzen Zeitskalen, sondern auch auf langen Zeitskalen das Klima auf der Erde, wie die folgenden Abschnitte zeigen.

 

Abbildung 193 zeigt den im Mittel 2.300 Jahre dauernden Hallstatt-Zyklus (geglättete Kurve), gewonnen aus 14C-Werten aus Baumringen (schwarze Kurve: de Vries-Suess-Zyklus), Quelle: United States Geological Survey, “The Sun and Climate“, August 2000. Der Autor hat hierzu die Zyklenzeiten, bzw. Halbzyklenzeiten, (zwischen zwei Extrema) eingefügt. Deutlich ist zu sehen, dass die Länge des Hallstatt-Zyklus zur Gegenwart hin zunimmt. Zwischen letztem Maximum (roter, senkrechter Pfeil) und Minimum (blauer, senkrechter Pfeil) liegt eine Zeitspanne von 1.500 Jahren (grünes Rechteck). Sein letztes Minimum hatte er um 650 nChr. Seinerzeit herrschten übrigens besonders kühle Temperaturen. Wird dieses grüne Rechteck gespiegelt, so zeigt sich, dass der Hallstatt-Zyklus nach dieser 14C-Auswertung sein Maximum um das Jahr 2150 haben wird (in der Abbildung ist die Skalierung der letzten 500 Jahre nicht maßstabsgerecht zu den übrigen, deshalb scheint es, dass das Maximum um das Jahr 2000 liegt). In der Zeit des Holozän-Klimaoptimums (roter Balken) war die Zykluszeit wesentlich kürzer.

Anhand dieser Untersuchung (längere Zykluszeiten) ist davon auszugehen, dass der Trend des Temperaturrückgangs im Holozän, wie es die Arbeit von Schönwiese zeigt, fortgeführt wird.

 

Abbildung 194, Temperaturgang im Holozän nach Schönwiese und dazu vom Autor, der linearen Trend (rot).

Die Analogie, dass mit kurzen Zyklenzeiten, höhere Temperaturen verbunden sind, wird durch die Untersuchungen erhärtet, dass auch beim Schwabe-Zyklus (kleine Skalen), die Zeiträume mit kurzen Zyklenzeiten, zu der aktiven Sonne und damit zu den Warmzeiten gehören! Erreicht der Hallstatt-Zyklus sein nächstes relatives Maximum, ist davon auszugehen, dass für mindestens die nächsten 1.500 Jahre der Temperaturtrend nicht nach oben, sondern im Gegenteil, nach unten, zu kälteren Temperaturen geht.

 

Abbildung 195 dient zum Vergleich der Ergebnisse aus der Abbildung 193. Sie stammt von Solanki, S.K., et al. 2005 (geglättete rote Kurve: Ray Tomes, “Cycles in Sunspot Number Reconstruction for 11,000 Years” – anhand von Berechnungen der Ausgleichskurve gibt Tomas das Maximum der Ausgleichskurve – Hallstatt-Zyklus – im Jahr 2.293 an). Auch diese Arbeit zeigt deutlich den Hallstatt-Zyklus. Wie in der Darstellung der USGS, war dessen Zykluszeit während des Holozän-Optimums kurz. Bei Solanki et al. auch der ansteigende Zyklus während des römischen Klimaoptimums (rechter rote Balken). Auch bei Solanki et al. werden die Zykluszeiten des Hallstatt-Zyklus zur Gegenwart hin länger, was dafür spricht, dass es einen, dem Hallstatt-Zyklus übergeordneten Sonnenzyklus gibt, der dessen Zykluslänge bestimmt. Nach der Untersuchung von Solanki et al., steigt der Hallstatt-Zyklus noch bis ca. zum Jahr 2.200 an, was in etwa der Untersuchung der USGS entspricht. Erst danach geht die solare Aktivität für längere Zeit (mindestens 1.500 Jahre, bis zum nächsten relativen Minimum im Hallstatt-Zyklus) wieder zurück. Nach M. A. Xapsos und E. A. Burke, ”Evidence of 6000-Year Periodicity in Reconstructed Sunspot Numbers” (Solar Physics, Volume 257, Number 2, 363-369) gibt es diesen, dem Hallstatt-Zyklus, zeitlich übergeordneten Sonnenzyklus.

Die folgende Abbildung bestätigt ebenfalls den Temperaturtrend nach dem Hallstatt-Zyklus bis zum Jahr 2.200.

 

Abbildung 196 zeigt die gemittelten Temperaturen (rot) in 50-Jahresintervallen Quelle: (http://www.abd.org.uk/pr/274.htm). Deutlich ist eine Schwingung zu erkennen, die nur auf natürliche Ursprünge zurückzuführen ist. Wird die ansteigende Zykluslänge gleich der absteigenden gesetzt (komplette Schwingung), so ergibt sich das erweiterte Bild (grau) bis zum Jahr 2.200. Auch hier steigen bis um das Jahr 2150 die Temperaturen noch an. Der Temperaturrückgang nach C, also bis zum Jahr 2050, gibt zum einen, den bisherigen 10-jährigen Temperaturrückgang wieder, die bevorstehende zurückgehende Sonnenaktivität, sowie die Temperaturentwicklung nach dem davor liegenden Maximum des Hauptsonnenzyklus, nach dem die Temperaturen ebenfalls zurückgingen (rote Säule bei 1800).

Diese, auf langen Zeitskalen wirkenden solaren Aktivitäten geben den Langfristtrend an. Sie geben keine Auskunft über kurzfristige Schwankungen. Hierzu sind, wie gezeigt, die solaren Zyklen, wie Schwabe- und de Vries/Suess-Zyklus notwendig. Diese zeigen die klimatischen Veränderungen auf Zeitskalen von Jahren, bzw. Jahrzehnten. Anhand derer, in den nächsten 30-40 Jahren eine deutliche Abkühlung eintritt, wie wir sie seit einigen Jahren bereits beobachten.

 

Die beiden Charts in Abbildung 197, Quelle: (http://garymorris93.cwahi.net/weather/solar_variations.html), zeigen Periodendauer (links) und Phasenverzögerung (rechts) des Hallstatt-Zyklus. Deutlich zu sehen, dass während des Klima-Optimums im Holozän, Zykluszeit und Phasenverzögerung sehr gering, bzw. stark negativ waren, was für eine starke solare Aktivität typisch ist! Dessen Periodendauer hat wiederum einen Zyklus von ca. 7.800 Jahren.

 

Abbildung 198 zeigt den Temperaturgang in der Antarktis der letzten 5.000 Jahre (http://www.c3headlines.com/). Deutlich zeichnen sich die Warmperioden der mittelalterlichen Warmzeit, des römischen Klimaoptimums und dem Holozänoptimum ab. Das gegenwärtige Temperaturniveau ist als mäßig einzustufen. Allein in 13 Zeitabschnitten war es in den letzten 5.000 Jahren wärmer als heute. Seit Beginn dieses Jahrhunderts ist wieder ein deutlicher Temperaturrückgang zu verzeichnen. Die derzeitigen Temperaturen (2010) sind als moderat einzustufen. Der Trend ist negativ (türkisfarbener Pfeil)

Im Betrachtungszeitraum ist deutlich ein Schwingverhalten (grün) zu sehen, mit Extrema vor ca. 1.000 Jahren und vor ca. 4.500 Jahren, was nur auf natürliche Ursachen zurückzuführen ist. Anhand der halben Periodenlänge, die auf der Abbildung zu sehen ist, beträgt die gesamte Schwingungsdauer für einen Zyklus ca. 7.800 Jahre. Dies ist dieselbe Schwingungszeit, wie sie die Sonne bei ihren Langzeitaktivitätsschwankungen in Abbildung 197 aufweist. Auch die Extrema in Abbildung 197 stimmen recht gut überein mit Abbildung 198 überein – vor ca. 1.100 Jahren und vor ca. 4.300 Jahren.

 

Abbildung 199, Quelle: United States Geological Survey, “The Sun and Climate“, August 2000, zeigt das Energiespektrum der 14C-Daten. Deutlich sind Maxima zu erkennen, die Sonnenzyklen zuzuordnen sind.

 

Abbildung 200, Quelle: K.E. Behre, “Probleme der Küstenforschung“, Band 28, Isensee-Verlag, 2003,  zeigt die Meeresspiegelschwankungen an der deutschen Nordseeküste. Deutlich sind Schwingungen, mit einer mittleren Länge von ca. 510 Jahren zu sehen. Diese passen zu der vorherigen Abbildung, die zeigt, dass Anhand der Spektralanalyse eine Periode in der solaren Aktivität mit einer Länge von 504 Jahren vorhanden ist.

Über die direkte Sonnenaktivität hinaus, sind auch die Bahnparameter der Erde variabel. Langanhaltende periodische Änderungen in der solaren Einstrahlung, verbunden mit den Bahnparametern der Erde, sind die Milanković-Zyklen, die Änderungen in der Erdbahn, Neigung Erdachse, Änderung der Jahreszeiten auf der Erdbahn und Erdumlaufbahn um die Sonne beinhalten.

 

Milanković-Zyklen:

a)  Exzentrizität: Form des elliptischen Orbits um die Sonne

     Es findet eine Verschiebung der Sonneneinstrahlung zwischen den Erdhalbkugeln statt. Die Halbachsen können zwischen 0,005 und 0,058 variieren. Der Unterschied in der Sonneneinstrahlung variiert dabei zwischen 27 W/m2 und 314 W/m2 (Prof. Weber). Bei 0,0 sind beide elliptischen Halbachsen gleich (Kreisbahn). Mit zunehmender Exzentrizität wird die Erdbahn zunehmend zur Ellipse, wodurch sich im Laufe einer Umlaufbahn (Jahr) ständig der Abstand Erde zur Sonne und damit der Leistungseintrag ändert, was zu Temperaturschwankungen führen kann, aber nicht zwangsläufig führen muss, da Obligität und Präzession den Effekt entweder abschwächen, aber auch verstärken können. Es findet also eine Überlagerung statt.

     Gegenwärtig beträgt die Exzentrizität 0,0174, was 6,7% mehr Einstrahlung auf der Südhalbkugel bedeutet. Bei 0,058 beträgt der Unterschied ca. 28%. Die Periodendauer schwankt aus Gründen des Gravitationseinflusses der großen Planeten von 90.000 – 100.000 Jahre.

   Obligität: Neigung der Erdachse

     Bei starker Neigung gibt es ausgeprägtere Jahreszeiten und starke Schwankungen der absorbierten Sonnenenergie in den hohen Breiten. Die Schwankungsbreite beträgt 21,30° – 24,36°. Der heutige Wert liegt bei 23,47°. Auf der Nordhalbkugel (große Landmassen) wird die Abkühlung verstärkt, wenn die Neigung am geringsten ist. Schnee kann im Sommer wegen mangelnder Wärme nicht mehr ausreichend geschmolzen werden. Die Periodizität beträgt 40.000 – 41.000 Jahre. Die Sonneneinstrahlung variiert dabei um 30 W/m2 (Prof. Weber).

Durch die Neigung der Erdachse ändert sich der Einstrahlwinkel der Sonnenstrahlung auf die Erde. Der Bereich, in dem diese senkrecht auf die Erde fallen, wird subsolare Zone genannt.

Mit zunehmender Neigung der Erdachse verschiebt sich die subsolare Zone (der Begriff wird überwiegend im englischen verwendet) mehr und mehr in die gemäßigten Zonen und damit in Richtung Nord- oder Südpol (folgende Abbildung). Dies hat zur Folge, dass die Sonneneinstrahlung zwischen Sommer und Winter in diesen Breiten mehr und mehr schwankt, was zu heißen Sommern und kalten Wintern führt. Es herrscht dann ein Klima, mit großen Temperaturschwankungen. Eine geringere Neigung der Erdachse führt demnach zu einem ausgeglicheneren Klima.

 

Abbildung 201 (Quelle: www.Biosphaere.info) zeigt die Lage der subsolaren Zone (Sonne steht senkrecht am Firmament) zur Obligität und die Abbildung rechts die ihre tatsächliche Wanderung über das Jahr, Quelle: (http://joseph-bartlo.net/supp/sungeo.htm).

c) Präzession: der Erdachse und des Orbits – Wanderung des Frühlingspunktes

Die Präzession (vom lateinischen prae­cedere = voranschreiten) moderiert das Timing der Jahreszeiten. Nach jeder Sonnenumrundung kehrt die Erde nicht mehr genau an ihre Ausgangsposition zurück, sondern „wandert“ dabei in ihrem Orbit geringfügig vorwärts durch die Tierkreiszeichen. Derzeit erreicht die Erde z.B. ihre größte Nähe zur Sonne am 03. Januar. Der Zyklus dauert 25.780 Jahre. Dabei ändert sich nicht der Einstrahlungsbetrag, sondern der Zeitpunkt.

Mit Änderungen in der solaren Aktivität selbst, befassen sich die Milanković-Zyklen nicht. Daher soll an dieser Stelle nach langperiodischen Schwingungen gesucht werden, die den Milanković-Zyklen entsprechen.

 

Abbildung 202: Periodenlänge (links) und Phasenverschiebung (rechts) des 5.800 Jahres-Zyklus, der Einfluss auf den 200- und den 2.300-Zyklus hat, Quelle: (http://garymorris93.cwahi.net/weather/solar_variations.html). Auffallend ist, dass während dem Höhepunkt der letzten Eiszeit, vor 20.000 Jahren, die Zykluszeit sehr lang und damit die solare Aktivität entsprechend gering war. Zum Ende der letzten Eiszeit vor ca. 12.500 Jahren erreichte die solare Aktivität hohe Werte (geringste Periodenlänge).

Es liegt der Schluss nahe, dass neben den Milanković-Zyklen, die die Abhängigkeit der solaren Einstrahlung zu den Bahnparametern der Erde wieder geben, zusätzlich die solare Aktivität in großen Zeitskalen stark schwankt und die Milanković-Zyklen, die die Änderung in der Erdbahn und damit verbunden, eine Änderung in der solaren Einstrahlung, die die Erdoberfläche erreicht beschreiben, die Einflüsse, die zu den Milanković-Zyklen führen, auch direkt die Sonnenaktivität ändern. Da die Milanković-Zyklen durch die Planeten des Sonnensystems verursacht werden und nach Landscheidt die Planeten die Sonnenaktivität auf kurzen und mittleren Zeitskalen moderieren, liegt der Schluss nahe, dass die Planeten nicht nur die Zeitintervalle der Erdbahnparameter, sondern auch die Sonne selbst auf langen Zeitskalen beeinflussen.

Die spannende Frage, wann oder ob sich die seit etwa 3 Millionen Jahre beobachteten Eiszeitintervalle fortsetzen, lässt sich anhand der derzeit vorliegenden Erkenntnisse über die solare Aktivität nicht beantworten. Sie lässt sich derzeit in erster Linie statistisch bewerten.

  

Abbildung 203, Quelle: NZZ vom 11. Juli 2007, “Genauere Informationen über die abrupten Klimaänderungen der Eiszeiten“ (Original: Matrat et al.) zeigt oben die Bahnparameter der Erde, Mitte, die Temperatur im Mittelmeerraum und unten, in der Antarktis. Im Betrachtungszeitraum sind drei ganze Eiszeitperioden zu sehen. Nach jedem Temperaturmaximum (rote gestrichelte Linie) kommt es zu einem typischen Temperaturrückgang nach gleichem Muster (blaue gestrichelte Linie). Die Zeitspanne dazwischen ist relativ konstant und beträgt ca. 18.000 Jahre. Die grüne gestrichelte Linie markiert den Zeitpunkt (ca. 13.700 Jahre nach Max), in dem die Temperatur dort ihren Mittelwert erreicht, also den Übergang zu kälteren Temperaturen im Betrachtungszeitraum durchschreitet.

Wie die Abbildung weiter zeigt, lag in den vergangenen drei Eiszeiten die großräumige Vereisung (blaue, durchgezogene Linie) in einem deutlichen Zeitabstand zum Temperaturmaximum. Die Zeitabstände sind wieder relativ konstant und legen den Beginn 55 – 60 tsd. Jahre nach Beginn des Temperaturmaximums. Inwieweit diese Temperaturmuster auf den jetzigen Zyklus, dessen Warmzeit vor ca. 12.500 Jahren begann, übertragen werden können, ist, wie eingangs genannt, derzeit wissenschaftlich nicht zu beantworten. Nach der statistischen Fortschreibung, stünde das Unterschreiten des Mittelwertes, also der Begin zu dauerhaft kühleren Jahren (blaue gestrichelte Linie) in ca. 1.200 Jahren an. Anhand der bekannten solaren Zyklen, beginnt zu diesem Zeitpunkt das solare Minimum im nächsten Hallstatt-Zyklus. Nach weiteren 5.000 Jahren beginnt der erste Kältezyklus. Dessen Dauer beträgt anhand der vorherigen Zyklen 2 – 3 tsd. Jahre.

Eine großräumige Vereisung, was allgemein mit dem Begriff “Eiszeit“ assoziiert wird, steht nach dieser statistischen Betrachtung erst in ca. 42 tsd. Jahren an. Wissenschaftsberichte, wie “Verhinderte der Mensch eine Eiszeit“ aus S.d.W. 02/06, der folgenden Untertitel trägt: “Anscheinend haben schon die Bauern der Jungsteinzeit einen bedeutenden Treibhauseffekt ausgelöst, als sie bei der Rodung von Wäldern und dem Anbau von Nassreis große Mengen Kohlendioxid und Methan freisetzten“ sind denn vor dem Hintergrund der realen Temperaturer-eignisse der letzten Eiszeiten, in denen die erste Warmepoche im Durchschnitt 18.000 Jahre andauert, blühender Unsinn und als solcher nicht zu überbieten. Es ist der tragische, zum scheitern verurteilte Versuch, einen nicht existierenden Effekt, den Treibhauseffekt herleiten zu wollen. Im vorliegenden Fall aus der Geschichte der Menschheit, um ihm damit eine vermeintliche Realität geben zu wollen. Aber auch hier hält der Wunsch der Wirklichkeit nicht stand. Anstatt weiter den Fokus in Richtung sog. THG zu lenken, sollten die Mittel besser in die Sonnenforschung investiert werden, um ihr die Geheimnisse zu entreißen, die uns die Frage beantworten, wann sich die klimatischen Bedingungen auf der Erde wirklich ändern.

Für Langfristbetrachtungen der Temperaturentwicklung werden, wie bereits geschildert, die Milanković-Zyklen herangezogen. Dies ist darauf begründet, dass das Klima der letzten 3 Millionen Jahre, als die Erde wieder größere Vereisungen aufweist, zwischen zwei Zeitzyklen, die den Milanković-Zyklen entsprechen, pendelt (folgende Abbildung)

 

Abbildung 204, Quelle: (http://www.moraymo.us/current_projects.php) zeigt die aus dem Sauerstoffisotopenverhältnis ermittelten Temperaturschwankungen der letzten 3 Millionen Jahre. Von 3 Mio. Jahren bis vor ca. 700.000 Jahren schwankte die Temperatur zyklisch in Zeiträumen von 41.000 Jahren. Danach wechselte der Zyklus zu 100.000 Jahren. Der 41 ky-Zyklus steht allgemein für die Obligität und der 100 ky-Zyklus für die Exzentrizität. Der Grund für diesen Wechsel ist in der Wissenschaft nicht verstanden. Rot gepunktet = Obligität, B/M = Brunhes–Matuyama-Event, J = Jaramillo-Event,  Told = Top of Olduvai-Event, G/M = Gauss/Matuyama – Event (jeweils Wechsel im Magnetfeld der Erde). An der Gauss/Matuyama-Grenze beginnt das Quartär, also die jüngste Erdepoche, die auch als Eiszeit bekannt ist.

Da in der Abbildung 203 zu dem Temperaturgang, sowohl alle drei maßgeblichen Milanković-Zyklen (Präzession, Obligität und Exzentrizität), sowie die daraus berechnete solare Einstrahlung für 65° Nord aufgezeigt sind, sollen ihre Extrema an der Temperaturentwicklung gespiegelt werden. In der ersten Abbildung, die Extrema von Präzession, Obligität und Exzentrizität.

 

Abbildung 205: Die Erdbahnparameter (Präzession und Exzentrizität), sowie die Neigung der Erdachse (Obligität), die die Einwirkung der Solarstrahlung auf der Nord-/Südhalbkugel moderiert, sind ganz oben, bzw. direkt darunter zu sehen. Die längste Periode hat die Obligität. Deren Maxima (Erdbahn besonders elliptisch) fallen jeweils mit Warmperioden der Eiszeitepochen zusammen (grüne gestrichelte Linien). Dies passt nicht zur These, da eine Kreisbahn die Erde am nächsten zur Sonne bringt. Extrema der Obligität (rote gestrichelte Linien) und Präzession (schwarze gestrichelte Linien) haben überhaupt keine Übereinstimmung zu Temperaturereignissen auf der Erde. Beide fallen sowohl mit Warm- als auch mit Kaltzeiten zusammen. Ganz oben sind noch die Pegel von CO2 und CH4 zu sehen die zu gar nichts passen.

Matrat et al. haben in Ihrer Datenreihe anhand der Milanković-Zyklen auch den berechneten Wert für die solare Einstrahlung für 65° nördlicher Breite angegeben. Dieser geographische Bereich ist besonders von Eiszeiten betroffen und dementsprechend dynamisch.

 

Abbildung 206: Die gestrichelte schwarze Datenreihe zeigt die Dynamik der solaren Einstrahlung für die letzten 420.000 Jahre für 65° Nord. Sie schwankt etwa zwischen 440 W/m2 und 550 W/m2. Der Autor hat die Bereich über dem Mittelwert rot (wärmer) und die Bereiche unter dem Mittelwert blau (kälter) gekennzeichnet. Manche Maxima/Minima in der berechneten solaren Einstrahlung stimmen mit dem Temperaturgang überein, andere wiederum nicht. Teilweise müsste es wärmer werden, wird aber kälter und teilweise kälter, wird aber wärmer (rote Blockpfeile). Zwei Beispiele: Am ersten Blockpfeil fällt die solare Einstrahlung stark ab, die Temperaturen bleiben aber konstant warm. Am dritten Blockpfeil steigt die solare Einstrahlung stark an, die Temperatur fällt jedoch auf ein absolutes Minimum. Rote Pfeile geben die Maxima und blaue Pfeile der Minima wieder.

Die Milanković-Zyklen geben kein einheitliches Bild zum Temperaturgang wieder, was auch in der folgenden Abbildung sichtbar wird.

 

Abbildung 207, Quelle: ”Pleistocene glacial variability as a chaotic response to obliquity forcing”, P. Huybers, Department of Earth and Planetary Sciences, Harvard University (2009), zeigt unten die Obligität und oben die aus 18O rekonstruierte Temperatur. Die Ganglinien sind uneinheitlich zueinander.

Wenn die Milanković-Zyklen die Temperaturentwicklung nicht eindeutig genug wiedergeben, sog. THG keine Rolle spielen, schon allein deswegen nicht, weil z.B. CO2 der Temperatur nachläuft und nicht vorläuft, bliebe noch die variable Sonne, die die Temperaturzyklen steuert.

 

Abbildung 208 zeigt das Frequenzspektrum der Temperaturdaten im Pleistozän. In beiden Arbeiten bilden sich Maxima bei 23 ky, 41, ky und 100 ky aus, die den Milanković-Zyklen zugeordnet werden, Quelle: (http://www.moraymo.us/current_projects.php).

Gibt es Sonnenaktivitätszyklen, die in ihrer Länge den Milanković-Zyklen entsprechen – Ja!

 

Abbildung 209 (http://garymorris93.cwahi.net/weather/solar_variations.html): Der 6.000-jährige Sonnenzyklus, der den Hallstatt-Zyklus moderiert zeigt, dass ihm ein Zyklus mit einer Länge von ca. 22.000 Jahren übergeordnet ist. Darüber hinaus gibt es einen 100.000 Jahres-Zyklus in der Sonnenaktivität, der damit dem Milanković-Zyklus der Exzentrizität entspricht, Abbildung 210.

 

Abbildung 210 ist ein Auszug aus der Arbeit von Prof. Dr. Mukul Sharma und zeigt den 100.000 jährigen Sonnenzyklus und dazu als Kalibrierung, den 18O-Gahalt aus Proxys. Sauerstoff kommt in drei Isotopen vor, 16O, 17O und 18O. Bei Warmperioden verdunstet zuerst das leichtere 16O, so dass die Menge des in den Proxys (z.B. Sedimenten) eingelagerten 18O, Aufschlüsse über die seinerzeit vorherrschenden klimatischen Verhältnisse wiedergibt. In “astronews.com“ vom 11. Juni 2002 ist hierzu folgendes festgehalten:

“Die magnetische Aktivität der Sonne zeigt einen 100.000 Jahre langen Zyklus, der offenbar mit einem gleichlangen Zyklus des irdischen Klimas in Einklang steht. Das zeigen Untersuchungen des Geochemikers Mukul Sharma vom Dartmouth College in Hanover im US-Bundesstaat New Hampshire. Der Forscher veröffentlichte seine Analyse jetzt im Fachblatt Earth and Planetary Science Letters. Sharma vergleicht darin die Produktionsrate des radioaktiven Isotops Beryllium-10 mit den Variationen des irdischen Magnetfelds. "Überraschenderweise zeigt sich in den Daten eine Variation der Sonnenaktivität über wesentlich längere Zeitspannen als bislang vermutet", so Sharma. "Noch überraschender ist, dass diese Variationen offenbar eng mit den Eiszeiten und Zwischeneiszeiten der vergangenen 200.000 Jahre verknüpft sind."

“Beryllium-10 wird durch hochenergetische Teilchen erzeugt, die aus dem Weltall in die Erdatmosphäre eindringen. Die Stärke dieser "kosmischen Höhenstrahlung", und damit die Erzeugungsrate von Beryllium-10, werden sowohl durch die Sonnenaktivität, als auch durch die Stärke des Erdmagnetfelds gesteuert. Da die Stärke des Erdmagnetfelds in den letzten 200.000 Jahren gut bekannt ist, konnte Sharma aus den Beryllium-Daten auf die Schwankungen der Sonnenaktivität schließen.“

“Für die Entstehung der Eiszeiten hatten die Klimaforscher bislang geringfügige Schwankungen der Erdbahn verantwortlich gemacht. Allerdings führen diese Variationen nur zu minimalen Änderungen der Sonneneinstrahlung. Wie diese kleinen Änderungen zu den großen Unterschieden zwischen Eiszeiten und Zwischeneiszeiten führen können, ist bislang ungeklärt. Sharma betont allerdings, dass auch seine These der weiteren Überprüfung bedarf: "Ich habe nur auf die vergangenen 200.000 Jahre geschaut – meine Berechnungen müssen nun für die letzte Million Jahre verifiziert werden."

Der Grund, warum die Milanković-Zyklen, also die Veränderung der Erdbahnparameter und der daraus berechneten solaren Einstrahlung den Temperaturgang, sowie Eiszeiten nicht eindeutig wiedergeben, liegt denn daran, dass die „Akteure“, die die Erdbahnparameter beeinflussen, die Planeten des Sonnensystems, hier die großen Gasplaneten, auch die Sonne direkt beeinflussen und hiermit deren magnetische Aktivität und damit ihre Energieabgabe (siehe auch Dr. Landscheidt). Dies ist bei den Milanković-Zyklen nicht berücksichtigt. Dies ist das fehlende Glied, die Sonne selbst, den Temperaturgang im Pleistozän zu erklären und damit den Beginn und das Ende von Eiszeiten. Der Wechsel zwischen dem 41 ky-Zyklus und dem 100 ky-Zyklus sollte auf Veränderungen der dynamischen Plasmamassen in der Tachocline und der Konvektionszone der Sonne zurückzuführen sein.

Von besonderem Interesse ist dabei, wie bereits gezeigt, die Tachocline, die als Ursprungszone für den Sonnendynamo gilt. Inwieweit deren Lage und Dicke, die beide die Magnetfelder in der Konvektionszone beeinflussen und damit die Energieabgabe der Sonne, über die Zeit konstant sind, ist nicht bekannt. Ist Dicke und/oder Lage der Tachocline variabel, hat dies natürlich Einfluss auf die magnetische Aktivität der Sonne. Bis vor ca. 10 Jahren wurde noch angenommen, dass die Tachocline konstant ist. Untersuchungen mittels Helioseismologie ergaben jedoch, dass sie in einem 16-Monatsrythmus oszilliert und in starker Wechselbeziehung mit der Strahlungszone steht.

Tachocline

Die Tachocline bildet die Grenzschicht zwischen starrer innerer Rotation der Sonne (obere Grenzschicht der Strahlungszone) und dynamischer Rotation in der Konvektionszone, deren Rotationsgeschwindigkeit erheblich von der der Strahlungszone abweicht. An der Grenzschicht kommt es wegen der stark unterschiedlichen Rotation zu einer starken Scherung. Diese Grenz-schicht wird Tachocline genannt (folgende Abbildung). Die in der Konvektionszone entstehenden Magnetfelder dringen bis zur Tachocline vor und werden durch die Scherung dort aufgewickelt, wodurch toroidale Felder entstehen, deren Feldlinien in Richtung der Rotationsgeschwindigkeit zeigen. Ab bestimmten Schwellwerten (“Instabilities in the Magnetic Tachocline“, R. Arlt, Astro-physikalisches Institut Potsdam) in der Feldstärke, kommt es zu Instabilitäten in der Tachocline.

 

Abbildung 211 links (http://lcd-www.colorado.edu/SPTP/sptp_global.html)  zeigt die Lage der Tachocline zum Sonnenradius und farbig die Rotationszeit. Die Abbildung rechts zeigt die Änderungen der Rotation zum Sonnenradius und zur geographischen Breite. Schwarzer Pfeil kennzeichnet die Tachocline, Quelle: (http://irfu.cea.fr/Sap/Phys/Sap/Activites/Projets/GOLF/science/page.shtml). Deutlich ist zu sehen, dass die differenzielle Rotationen im Bereich der Tachocline beginnt und diese damit ein wesentlicher Faktor für den Sonnenmagnetismus darstellt.

Die Tachocline bestimmt die Helizität (Drehrichtung, kann nur dort geändert werden, da sie die Basis für den Sonnenmagnetismus bildet) der Megnetfeldlinien, d.h. in welcher Form (rechtshändig = positiv / linkshändig= negativ) die Magnetfelder aufsteigen, bzw. abfallen. Dies ist mit entscheidend für eine Verstärkung oder Abschwächung der magnetischen Felder in der Konvektionszone. Die Lage der Tachocline liegt derzeit in Äquatornähe bei rt = 0,693 Sonnenradien und bei 60° bei rt = 0,717 Sonnenradien. Sie hat also eine prolate Form, womit sie der Rotationsformgebung, nach der rotierende Körper am Äquator am größten sind, wie auch alle Planeten entgegen läuft. Die Sonne selbst ist über Äquator und Pol etwa gleich. Da die Grenzfläche zwischen der Strahlungszone und Konvektionszone bei 0,713 Sonnenradien liegt, durchschneidet die Tachocline diese Grenzfläche. Die Tachocline hat eine Dicke von ca. 30.000 km.

 

Abbildung 212 links: Durch Drehung abgeplattetes Rotationsellipsoid (oblate)Abbildung 212 rechts: Durch Drehung verlängertes Rotationsellipsoid (prolat)

Wie eingangs geschildert, wurde nach Entdeckung der Tachocline vor gut 20 Jahren allgemein angenommen, dass es sich bei der Tachocline um ein weitgehend stabiles Gebilde handelt. Seit Ende der 1990-Jahre ist jedoch bekannt, dass die Tachocline hoch dynamisch ist und auf kurzen Zeitskalen mit einer Periodendauer von 16 Monaten pulsiert (folgende Abbildung).

 

Abbildung 213, Quelle: (http://soi.stanford.edu/press/GONG_MDI_03-00/pressbase.gif) zeigt die Oszillation im Sonneninneren (0,72 Sonnenradius oben und 0,63 Sonnenradius unten). Deutlich die die 16-Monatsschwingung zu sehen und dies in Gebieten, über die Tachocline hinaus. Das darin enthaltene Gas rotiert mal schneller und mal langsamer. Rot sind nach MDI (Michelson Doppler Imager, SOHO) und schwarz nach GONG-Daten (Global Oscillation Network Group). “Entdeckt wurden die von niemand vorausgesagten Strömungen in vierjährigen Meßreihen des MDI-Instruments auf dem Satelliten SOHO und des GONG-Netzes von Sonnenteleskopen rund um die Erde.“ (http://www.astro.uni-bonn.de/~dfischer/news/SuW-L-1-10.html)

Nach der gängigen Theorie von Rüdiger und Kitchatinov (1997) wird angenommen, dass während der Entstehung der Tachocline ein schwaches Magnetfeld in der Sonne eingeschlossen wurde, welches die differenzielle Rotation in den äußeren Randbereich der Strahlungszone drängt und so die Tachocline erzeugt wird. Weiter geht die Theorie davon aus, dass die Tachocline aktiv mit der Strahlungszone verbunden ist und starke Wechselbeziehungen bestehen, was auf Grund ihrer Lage auch naheliegend ist.

Inwieweit die Tachocline über ihre von niemanden vermutete Oszillation auf großen Zeitskalen konstant oder variabel ist, lässt sich aus heutiger Sicht nicht beantworten, bzw., ob die Tachocline ihre prolate Form beibehält, oder zwischen prolat und oblat wechselt, was erheblichen Einfluss auf die magnetische Aktivität der Sonne haben sollte. Weiter muss davon ausgegangen werden, dass Einflüsse, die z.B. die Erdachse kippen lassen, ihre Obligität ändern, auch Einfluss auch die Tachocline haben und deren Lage in der Sonne ändern. Insbesondere bei einem möglichen Wechsel in der Form und Lage der Tachocline wäre mit erheblichen Einflüssen auf das Magnetfeld der Sonne zu rechnen, wobei in einer Übergangszeit das Magnetfeld in der Konvektionszone ganz verschwinden kann und dadurch lang anhaltende Kälteperioden auf der Erde ausgelöst werden. Ob weiter, die Tachocline zwischen prolat (derzeit) und oblat wechselt, ist ebenfalls ein interessanter Aspekt, um den Sonnendynamo besser verstehen zu können. Ausgeschlossen sollte ein solcher Wechsel nicht. Interessant ist in dem Zusammenhang, dass die letzte Eiszeitepoche exakt an der Gauss-Matuyama-Grenze vor 2,588 Mio. Jahren liegt, als sich das Magnetfeld der Erde umpolte. Zufall ist dies sicherlich nicht. Inwieweit die „Akteure“, die die Erdbahnparameter ändern, die Sonne im Raum wobbeln/wackeln lassen, nach Landscheidt das Barryzentrum ändern, auch auf die Konvektionszone und Tachocline der Sonne und auf die dynamischen Massen im Erdmantel*), die letztendlich die Magnetfeldpolarität bestimmen, parallel Einfluss nehmen und somit z.B. Eiszeiten auslösen, lässt sich wissenschaftlich derzeit noch nicht beantworten, sollte aber Inhalt weiterer Forschungsarbeiten sein, da der Autor davon ausgeht, dass darin der Schlüssel für das Verstehen des Erdklimas auf allen Zeitskalen liegt.

*) In seinem EIKE-Artikel „Gibt es einen Zusammenhang zwischen Sonnenfleckenaktivität und Erdbeben-/Vulkantätigkeit?“ (http://www.eike-klima-energie.eu/news-anzeige/gibt-es-einen-zusammenhang-zwischen-sonnenfleckenaktivitaet-und-erdbeben-vulkantaetigkeit/) hatte der Autor gezeigt, wie sowohl die Erdbebenaktivität, als auch die Vulkanaktivität mit der Aktivität synchron laufen. Dass Gravitationseinflüsse anderer Planeten auf den Vulkanismus Einfluss nehmen, lässt sich übrigens am Beispiel des Jupitermonds „Jo“ sehr gut beobachten. Er hat den stärksten Vulkanismus im gesamten Sonnensystem. Grund dafür ist die Gravitationskraft des Jupiters auf Jo, der eine elliptische Bahn um seinen Planeten vollführt, aufgrund dessen seine innere Form konstant „durchgeknetet“ wird.

Da die Wissenschaft die Sonne erst seit ein paar hundert Jahren mit technischen Mitteln beobachtet und dieser Zeitraum im Lebenslauf der Sonne verschwindend klein ist, kann anhand der heutigen Beobachtungen nicht festgestellt werden, inwieweit die derzeitigen solaren Aktivitätsschwankungen auch für die Zeiträume davor galten, bzw. weiter gelten werden. Hier ist es hilfreich, andere Sterne, die etwa der Sonne entsprechen, zur Beantwortung heran zu ziehen.

Durch immer bessere Messsysteme gelang es Astrophysikern in den letzten Jahren, eine Vielzahl von Sternen mit magnetischer Aktivität zu erforschen. Beispielsweise befasst sich die Emmy Noether Research Group am Institut für Astrophysik der Uni Göttingen in einem groß angelegten Forschungsprogramm (“Magnetische Aktivität sonnenähnlicher Sterne und ultrakalter "Brauner Zwerge“) mit der Thematik. Deren Ergebnisse liegen derzeit noch nicht vor, da das auf 5 Jahre angelegte Projekt noch am laufen ist. Einzelbeobachtungen zeigten bereits einige Überraschungen, die darauf hindeuten, dass auch unsere Sonne Aktivitätsschwankungen unterliegt, die sich auf mehr als nur 0,1% im TSI-Strahlungsbereich, wie es die einschlägigen Veröffentlichungen des TSI zeigen und darüber hinaus, die Aktivitätsschwankungen ganz zum erliegen kommen.

Wissenschaftler vom Smithsonian Center für Astrophysics und das Dartmouth College in Hanover (US-Bundesstaat New Hampshire, “Evidence for long-term brightness changes of solar-type stars“) untersuchten 74 Sterne auf ihre magnetische Aktivität. Die Messreihen gingen dabei teilweise über 23 Jahre. Anhand ihrer Untersuchungen stellten die Forscher fest, dass ca. 2/3 der Sterne ähnliche Aktivitätsschwankungen unterliegen, wie die Sonne, wogegen ca. 1/3 überhaupt keine Aktivitätsschwankungen aufweisen. Unter der Annahme, dass sich die Sterne gleich verhalten, schlossen Sie daraus, dass stellare Objekte wie die Sonne grundsätzlich zwischen zwei Aktivitätsschema pendeln, einer aktiven Phase und einer passiven Phase, ohne jegliche Aktivitätsschwankungen, wie die Sonne während dem Maunder Minimum. In einer Ruhephase strahlt (Helligkeitsbereich) ein Stern ca. 0,4% weniger als in einer aktiven Phase. Bei dem Stern HD 3651 (“Piscium“ im Sternbild Fische, HD steht für Henry-Draper-Katalog) konnte dieser Übergang, von der Phase ausgeprägter zyklischer Aktivität, in die Maunder-Minimum-Phase mit sehr geringer magnetischer Aktivität beobachtet werden (Nesme-Ribes, E., Baliunas, S. L. und Sokoloff, D.: “The stellar dynamo“, Scient. American, August 1996, 51-52).

Die bisherige Datenlage zeigt, dass der Übergang von der Aktivitätsphase in die passive Phase zum einen, nach starker magnetischer Aktivität und zum anderen, der Wechsel abrupt erfolgt. Dies spricht dafür, dass die Prozesse in der Konvektionszone, die einen starken solaren Zyklus antreiben, bei ihrer Umkehrung, neue magnetische Aktivität, umso länger und stärker dämpfen, je stärker die vorangegangene magnetische Aktivität im Hauptsonnenzyklus ist. Bei der Sonne ist dies der de Vries/Suess-Zyklus. Dies würde auch erklären, warum nach jedem Maximum im de Vries/Suess-Zyklus die Temperaturen auf der Erde stark abfallen.

 

Abbildung 214, Quelle: (http://solar.physics.montana.edu/reu/2004/awilmot/introduction.html), zeigt am Beispiel von 11 Sternen, dass diese ähnliche Muster in ihren Aktivitätsschwankungen wie die Sonne (oben Mitte) aufweisen, was auf magnetische Aktivitätszyklen zurückzuführen ist und die Ausgangsthese vom Smithsonian Center für Astrophysics, dass sich die Sterne gleich verhalten, zu bestätigen scheint. Ausgewertet wurde die Ca II H and K-Linien.

Die Ca II H and K-Linien dienen zur Helligkeitsbestimmung von Sternen und gehen auf Joseph Fraunhofer zurück, der mit dieser Methodik die Sterne klassifizierte und die hellsten mit Großbuchstaben nummerierte. Die Nummerierung beginnt im roten Teil des Spektrums und endet im blauen. Die Calzium II-Linien liegen bei 397 nm (H-Linie) und 393nm (K-Linie) Wellenlänge. Die römische Ziffer kennzeichnet den Ionisationsgrad (I = neutral, II = einfach ionisiert, III = zweifach ionisiert, u.s.w.).

Die Datenreihen in Abbildung 214 zeigen weiter, dass die Aktivitätsschwankungen zeitlich sehr ähnlich sind und in der Amplitude meist deutlich stärker ausfallen als bei der Sonne. Bei HD 152391 (folgende Abbildung) fallen die Schwankungen gar fast 5-mal so stark aus wie auf der Sonne, was natürlich in erster Linie auf seine im Vergleich zur Sonne erhöhte Rotationsrate zurückzuführen ist.

 

Abbildung 215 links zeigt die Aktivitätsschwankungen des Sterns HD 152391, der mit 0,92 Sonnenmassen und einer Oberflächentemperatur von 5.500 Kelvin der Sonne sehr ähnlich ist. Rechts der Stern HD 143761, der nahezu keine Aktivitätsschwankungen aufweist, sich also in einer ruhigen Phase befindet, Quelle, wie oben.

 

Abbildung 216, Quelle: (http://e-collection.ethbib.ethz.ch/eserv/eth:24899/eth-24899-01.pdf) zeigt das Hertzfeld-Russel-Diagramm für 34 sonnenähnliche Sterne nach Radick et al., 1998. Sonne und HD 152391 gelb, orange: Sterne aus der Abbildung 214.

Selbst bei stellaren Objekten, bei denen die Astrophysiker bisher davon ausgingen, dass sie keine oder nur wenig magnetische Aktivität aufweisen würden, wie z.B. sog. Zwergsterne, ergaben Untersuchungen (roter Zwerg TVLM513-46546, 0,09 Sonnenmasse, Oberflächentemperatur: 2.400 Kelvin), dass sie entgegen der gängigen Lehrmeinung, nicht nur keine, sondern sogar eine komplexe magnetische Aktivität aufweisen (Carnegie Institution, 06.12.2007). Dies zeigt, dass in diesem Forschungsfeld noch mit einigen „Überraschungen“ zu rechnen ist.

Das Max Planck Institut für Sonnenforschung (MPS) gibt an, dass die Sonne gegenwärtig geringere Schwankungen der Helligkeit aufweist, als vergleichbar aktive Sterne (http://www.mps.mpg.de/homes/schuessler/klima.pdf) und stellt die Frage: “Wird das so bleiben?“ Insgesamt ist festzuhalten, dass stellare Objekte eine ausgeprägte magnetische Aktivität ausweisen und diese zwischen einer aktiven Phase, die teils deutlich über den jetzigen Sonnenaktivitätsschwankungen liegen und einer inaktiven Phase, vergleichbar dem Maunderminimum pendelt. Die derzeitigen Aktivitätsschwankungen der Sonne im Vergleich zu ihren „Schwestern“ sind als vergleichsweise gering einzustufen.

Man braucht kein Prophet zu sein, dass die Sonne noch viele Geheimnisse verborgen hält, die auf eine Entdeckung warten und die zum Verständnis den Klimas auf der Erde essenziell sind. Anstatt Unsummen an Gelder dafür zu verwenden, Exorzisten-gleich einem Teufel (CO2) nachzujagen, den es nicht gibt, sollten diese Gelder besser in die Sonnenforschung investiert werden. Ertrag und Ernte werden fruchtbarer ausfallen, als die bisherige Trockenernte bei den Treibhausgasen, die nach 20 Jahren nicht einmal den Beweis erbringen konnten, dass es einen Treibhauseffekt gibt – gibt keine wissenschaftlichen Beweise dafür, sondern einzig, zusammengebastelte Computermodelle, die mit manipulierten Daten (Climate Gate) und falschen Annahmen (siehe jüngstes Beispiel der NASA, die herausgefunden hat, dass die Erde fünfmal mehr Wärme in Weltall abstrahlt, als in den Modellen eingesetzt und daher in den Modellen viel zu viel Energie in der Atmosphäre verbleibt, was zur Folge hat, dass sämtliche Klimasimulationen grund-falsch, mit viel zu hohen Temperaturen sind) gefüttert werden und IPCC, PIK und Co. das Ergebnis anschließend als „Stein der Weisen“ verkaufen. Deren Absicht ist klar, wie die Karikatur in Abbildung 217 zeigt. Uns sollte das alles nicht gleichgültig sein, da IPCC, PIK und Co. ihr (bisher) sorgenfreies Leben mit unseren Steuergeldern betreiben.

 

Abbildung 217

Teufel, wie am Beispiel CO2, Horrorszenarien und Exorzisten sollten Hollywood vorbehalten bleiben, in der Realität und der Wissenschaft haben sie nichts zu suchen. Den Rückschritt ins Mittelalter gilt es zu verhindern. Die Artikelserie “Dynamisches Sonnensystem – die wahren Hintergründe des Klimawandels“ ist als Beitrag dazu zu verstehen. Weitere Aufklärung wird auf EIKE folgen.

 

Raimund Leistenschneider – EIKE

 

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Wirtschaftsaufschwung durch Schieferöl in amerikanischen Prärie-Staaten

Ende September veröffentlichte die amerikanische National Geographic Society auf ihrer Webseite einen Beitrag über neue große Schiefergas- und Schieferöl-Funde in den USA. Eine gekürzte Version dieses Beitrags erschien auf der Blog-Seite von ALFIN. EIKE bringt die gekürzte Form in Deutsch.

Der Aufschwung durch Schieferöl stoppt den in den 1970er Jahren einsetzenden Niedergang der amerikanischen Öl-Förderung. Obgleich die Obama-Regierung die Erdölförderung vor der Küste, in der Arktis und den Rocky-Mountains behindert, ist Obamas Energie-Aushungerungspolitik durch den steilen Aufschwung beim Schieferöl in den südlicheren Bundesstaaten auf dem linken Fuß erwischt worden.
Einige der jüngst vom Boom begünstigten Staaten liegen im Präriegürtel über dem NIOBRARA-Feld.

Schieferöl darf nicht mit anderen Energielagerstätten verwechselt werden, die normalerweise allesamt „Ölschiefer“ genannt werden. Sie wurden reichlich im Bereich der Green River Formation in West-Colorado, Utah, Wyoming gefunden. „Ölschiefer“ bezeichnet einen Rohöl-Vorläufer mit dem Namen KEROGEN. Um KEROGEN in verwertbares Öl zu wandeln, ist hohe Erhitzung und Aufarbeitung nötig.

Dessen Förderung wird erst in fernerer Zukunft für möglich gehalten. Das jetzt mit Hilfe des “Fracking”-Verfahrens geförderte Schieferöl dagegen ist konventionelles Rohöl, das mit  unkonventionellen Methoden gefördert wird.

Der Aufsehen erregende neuerliche Erfolg hat sehr große Hoffnungen beflügelt, dass die Förderung des auch als „tight oil“ (gebundenes Öl) bekannten Schieferöls zu einem starken Anstieg der amerikanischen Ölförderung in den kommenden Jahrzehnten führen würde.
“Die Karten könnten neu gemischt werden,“ sagte Hill Valden, Energie-Experte bei der Beratungsfirma Wood Mackenzie. Er dämpfte die Hoffnungen zugleich aber wieder: es sei noch zu früh dafür und es gäbe noch eine Menge offene Fragen.

(Siehe hierzu auch: "Methane on Tap: Study Links Pollution to Gas Drilling" und "New Brunswick Seeks Natural Gas, and a Safer Way")

Der Enthusiasmus wird durch die Förderung aus einer anderen Schieferformation bestärkt, dem BAKKEN. Sie reicht von Nord Dakota und Montana bis hinauf nach Kanada. Die Ölförderung im U.S.-Teil des BAKKEN ist von 3.000 Barrels pro Tag im Jahre 2005 auf etwa 400.000 derzeit angestiegen. Einer Schätzung des amerikanischen Energie-Informations-Amtes zufolge lagern im BAKKEN rund 3,6 Milliarden Barrel förderbares Rohöl. Damit ist es zur größten Rohöllagerstätte seit der Entdeckung von PRUDHOE-BAY in Alaska in den 1960ern geworden.
Im vergangenen Jahr ist die U.S.-Ölförderung auf den höchsten Stand seit 2004 geklettert. Rund 5,5 Mio Barrel pro Tag sind gefördert worden. Nord Dakota hat den höchsten Beitrag zur Steigerung geleistet.

Nordamerikas Öl-Reserven “erweisen sich als viel größer als je gedacht,“ teilweise dank des Schieferöls, wie es im September in einem Bericht des amerikanischen National Petroleum Council (NPC) hieß. Dieses Gremium ist privat finanziert, aber bei der U.S.-Bundesregierung als Beratungsgremium unter Vertrag. Die Vorhersage lautet auf eine Steigerung der Ölförderung aus „gebundenen Öllagerstätten“ auf 2 bis 3 Mio Barrel pro Tag, „aber abhängig vom Zugang zu den neuen Lagerstätten und von der Weiterentwicklung der Fördertechnik.“

Bei diesem Fördertempo reicht das neuen Schieferöl nicht aus, um die USA von ihrer Auslandsabhängigkeit zu lösen, da in Amerika derzeit etwa 19 Mio Barrel Erdölprodukte pro Tag verbraucht werden. Aber die heimische Versorgung würde signifikant verstärkt. NatGeo

Die schlagartige Entstehung von neuen Arbeitsplätzen im Mittleren Westen kurbelt eine Wanderung der Arbeitskraft an, weil die Arbeiter dorthin gehen, wo die Arbeitsplätze entstehen. Das ist ein Kennzeichen in den USA seit ihrer Entstehung – eine sozusagen migratorische Eigenart der Arbeitskraft.

Der Aufschwung beim Öl und Gas ist einer der wenigen Glanzpunkte der Obama-Wirtschaft. Und das scheint ein wenig paradox zu sein, weil Obamas Umweltbehörde EPA und das Innenministerium ständig Entschuldigungen suchen, um deren Wachstum ganz abzudrehen, oder den Aufschwung doch wenigstens abzudämpfen, so wie es wegen Obamas defakto Moratorium für die Hochsee mit der Exploration im Golf von Mexiko ging.

Eine wachsende Anzahl von US-Wählern beobachtet die amtierende Regierung aufmerksam, um festzustellen, wie weit sie noch gehen wird, um die US-Energieproduktion abzuwürgen und weitere amerikanische Arbeitsplätze und Wirtschaftsaussichten zu vernichten. Je mehr Wähler erkennen, wie Obamas Vorbehalte gegenüber der Energie-Industrie und dem privaten Sektor beschaffen sind, umso düsterer sieht es für den Präsidenten und seine Wiederwahl aus.

[Übersetzung: Helmut Jäger]




Klimamodelle und ihre Mängel

Das Kyoto-Protokoll enthält verbindliche Verpflichtungen für die Reduzierung der menschengemachten CO2-Emissionen durch die Verbrennung von fossilen Brennstoffen. Bisher gab es nur eine begrenzte Anzahl von entwickelten Ländern, darunter EU-Mitgliedstaaten, die sich dazu verpflichtet haben. Aber die von vielen erhoffte (und von anderen befürchtete) weltweite Ausbreitung der Gruppe stieß auf Widerstand von großen CO2-Emittenten wie China und Indien, während Japan und Russland, die sich heute noch an Kyoto beteiligen, erklärt haben, in der Zukunft auszusteigen. Die USA hatten zwar angekündigt, Massnahmen zu treffen, um CO2-Emissionen zu reduzieren, aber nicht im Rahmen einer "internationalen Architektur". Zusätzlich zog Kanada sich zurück. Dies bedeutet, dass die internationalen Verhandlungen über ein Abkommen tot sind.

Die Klimapolitik beruht auf den Erkenntnissen des UN-Klimarats (offiziell: "Intergovernmental Panel on Climate Change“, IPCC) (1), das alle 5 oder 6 Jahre einen umfangreichen Bericht mit einer Erfassung und Bewertung der relevanten Klima-Literatur veröffentlicht. Der Bericht enthält auch Prognosen über den zukünftigen Temperaturverlauf bis 2100. Sie beruhen auf einer Kombination von Erwartungen der wirtschaftlichen Aktivität und der Ergebnisse von Klimamodellen.

Der Einsatz von wirtschaftlichen Szenarien/Modellen bietet eine Reihe von wirtschaftlichen Wachstumsraten. Weil Wirtschaftswachstum und CO2-Emissionen sowie andere Treibhausgas-Emissionen, eng miteinander verbunden sind, bekommt man in dieser Weise Emissionswerte. Diese werden als Eingabe für Klimamodelle verwendet. Man geht davon aus, dass es einen Zusammenhang gibt zwischen CO2 (und anderen Treibhausgasen) und der globalen Erwärmung. Aber das IPCC verwendet nicht nur ein wirtschaftliches Szenario/Modell, sondern viele. Das gleiche gilt für Klimamodelle. Das IPCC verwendet ungefähr zwanzig dieser Modelle, die alle ihre eigenen Eigenschaften haben und daher zu unterschiedlichen Ergebnissen führen. Das Endergebnis ist, dass es nicht einen Wert für die prognostizierte globale Erwärmung gibt, sondern eine Bandbreite von 1,4 – 5,8 Grad Celsius in diesem Jahrhundert.

Obwohl genau genommen nicht unbedingt bewiesen, wird allgemein davon ausgegangen, dass nur bei einem Temperaturanstieg von mehr als 2 Grad Celsius die negativen Auswirkungen der Erwärmung die Oberhand erlangen über die positiven Effekte. Deshalb haben viele Länder das Ziel bestätigt, dass die Erhöhung der Temperatur der Erde in diesem Jahrhundert sich auf 2 Grad Celsius beschränken soll.(2) Aber sie haben sich dabei nicht verpflichtet, die Maßnahmen zu treffen, die dafür nach conventional wisdom erforderlich wären. 

Die Aussagekraft der Klimamodelle

Oft wird der Eindruck erweckt, oder es wird stillschweigend davon ausgegangen, dass die Klimamodelle zuverlässig genug sind, um als Grundlage für die Klimapolitik zu dienen. Aber ohne Prüfung der Werthaltigkeit dieser Modelle, ohne angemessene Berücksichtigung der zugrunde liegenden empirischen Daten und ohne eine gründliche wissenschaftliche Bewertung und Diskussion der Gültigkeit ist es problematisch, diese Ansicht zu verteidigen.

Aber steht die Wissenschaft dann mit leeren Händen da? In der Klimadiskussion werden viele Daten und Erkenntnissen letztlich in Modelle eingegliedert. Das Ergebnis ergibt langfristige Erwartungen über die Höhe des Meeresspiegels, die Durchschnittstemperaturen, CO2-Konzentrationen und so weiter. Die Erkenntnisse sind aber sehr unterschiedlich. Kein Wunder, dass die Erwartungen ebenso unterschiedlich sind. Das ist an sich nicht bedenklich. Das kommt häufig in der Wissenschaft vor. Oft führt das zu tieferen Einsichten und eine bessere theoretische Fundierung.

Aber die politischen und wirtschaftlichen Implikationen der Ergebnisse können tiefgreifend sein. Dies führt zu hitzigen Diskussionen über die Gültigkeit der Modelle. Die Literatur bietet reichlich Belege dafür. Aber die Frage nach der inhärenten Gültigkeit der Modelle (unabhängig davon, ob erhebliche Erwärmung durch menschliche Emissionen von CO2 als Ausgangspunkt gewählt ist oder nicht) bekommt zu wenig Aufmerksamkeit. Oder, mit anderen Worten, ist es überhaupt möglich mit Hilfe von Modellen valide Aussagen über längerfristige Klimawandel zu tun?

Deshalb zunächst ein Überblick über relevante Entwicklungen in der Meteorologie. Anfang der sechziger Jahre wurden die Meteorologen sich bewusst, dass sie an einem Wendepunkt in ihrem Fachbereich standen. Die manuelle Analyse von Wetterkarten und die Verwendung von verschiedenen Tabellen – die synoptische Methode genannt – war zwar effektiv, aber mit dem Erscheinen von Tirus- und Nimbussatellieten standen mehr und vor allem genauere Daten zur Verfügung. Es war der Anbruch einer neuen Ära, die eine viel schärfere Analyse der Wetterkarten ermöglichte. Und nicht nur das! Es schien sogar möglich, eine Wetterprognose für 5 Tage zu stellen. Das war aber ein bisschen tricky, wie sich herausstellte.

In den USA wurde ein Büro für "Extended Forecasting"gegründet, wo ein gewisser O’Connor mit Hilfe von statistischen Modellen dieses Kunststück schaffte.(3) Überall gab es Skepsis und Diskussion in den meteorologischen Kreisen in den Niederlanden. Wäre es überhaupt möglich, langfristige Erwartungen zu stellen auf Grund der Beobachtungstechniken, und welche Methoden und Modelle sollte man dann verwenden? Eine Vorhersage von zwei Tagen war bisher das Maximum, vor allem in der komplexen Wetterlage in den Niederlanden. Mit dem Aufkommen von leistungsfähigen Computern wurden numerische (dynamische) Modelle daher immer attraktiver.

Damals hatte ein Unteroffizier/Meteorologe der Luftwaffe behauptet, dass eine Prognose für sieben Tage möglich sei (es war Hochsommer). Herausgefordert von seinem Major steckte er seine Vorhersage in einem großen Umschlag. Eine Woche später konnte sein Major lesen: "anhaltend Tauwetter“. Eine hier nicht unwichtige Fußnote.

Vielleicht unbeabsichtigt, betraf es hier das Kernproblem bei der Arbeit mit dynamischen Modellen. Das heisst, inwieweit ist es möglich mit einer erwünschten Genauigkeit Aussagen über zukünftige Ereignisse zu machen? Später stellte sich heraus, dass bestimmte Ergebnisse der "chaotischen" Prozesse, die inhärent sind in dynamischen Modellen, innerhalb gewisser Grenzen (das anhaltende sommerliche Tauwetter!) auftreten.

Klimamodelle haben oft viel gemeinsam mit den meteorologischen Modellen. Vor allem geht es um Systeme, die nichtlinear sind und dass die Kalkulationen chronologisch, d. h. eine Periode nach der anderen, stattfinden. Das heisst, dass die berechneten Werte zu einem bestimmten Zeitpunkt wieder als Startwerte für die nächste Periode verwendet werden und so weiter. Darin steckt das Problem der Gültigkeit dieser Art von Modellen: der Flügelschlag eines Schmetterlings in Brasilien kann drei Monate später ein Gewitter in den Niederlanden verursachen. Wie bei der Meteorologie können die ursprünglichen Werte mit Monte Carlo-Methoden (das betrifft die Einführung von Zufallszahlen um einem bestimmten Startwert) manipuliert werden. Ergebnisse sind dann Werte, die mit einer gewissen Wahrscheinlichkeit auftreten können. Aber dann wird eigentlich das Problem verschoben zu den Nutzern der Ergebnisse der Berechnung: politische Entscheidungsträger, die 100% Sicherheit wünschen/brauchen. Aber die Wisschaft kann das nicht liefern.

Die inhärent chaotische Natur der Ergebnisse dieser Modelle ist nicht das einzige Problem. Wie in der Meteorologie spielt die Genauigkeit der Beobachtungen ebenso eine entscheidende Rolle.  Zu diesem Thema gibt es zahlreiche Diskussionen. Und das ist verständlich! Die Modelle sind in der Regel empfindlich für die Anfangswerte. Die Zuverlässigkeit dieser Werte ist eine Voraussetzung für valide Ergebnisse. Es gibt oft Meinungsverschiedenheiten über die Genauigkeit und Definition von Beobachtungen in der Klimaforschung. Das gibt Anlass zur vielen Missverständnissen, die zu unterschiedlichen Schlussfolgerungen führen.

Das dritte Problem liegt in der Gestaltung der Modelle selbst. Es gibt unzählige, je nach Interesse und der Schule, zu der sein Designer gehört. Oft stehen die Modelle im Widerspruch zueinander. Sie haben alle gemeinsam, dass sie kaum überprüft werden können. Kaum, denn man hat auch versucht, die Modelle ex post, so historisch, zu validieren – nützlich vielleicht, aber nicht ohne methodische Fallstricke.

Werden neue Modelle schließlich entscheidend sein für die Debatte und in verschiedenen Bereichen zu einer "Paradigmenwechsel" führen? Das ist nicht unmöglich, aber auch nicht wahrscheinlich, jedenfalls nicht in kurzer Frist.

Stehen die Modellbauer in der Klimaforschung dann mit leeren Händen da? Ja und nein.

Ja, wenn eine zu große Präzision erwartet wird. So ist es beispielsweise grundsätzlich unmöglich, steigende Meeresspiegel mit einer Genauigkeit von Zentimetern vorherzusagen. Diejenigen, die so tun, sollten noch einen weiteren kritischen Blick auf ihren Modelle werfen. Zwar ist das Problem, dass die Öffentlichkeit oft von Wissenschaftlern erwartet, dass sie ihre Aussagen mit großer Genauigkeit machen. Die Gezeiten sind doch auch mit großer Präzision vorherzusagen?

Nein, wenn eine normale wissenschaftliche Debatte über die oben genannten Probleme stattfinden könnte. Die inhärent begrenzte Gültigkeit der Ergebnisse der Modelle ist eine gewaltige Behinderung und sollte Gegenstand ständiger Aufmerksamkeit sein. Die politischen Entscheidungsträger müssen lernen damit umzugehen.

Ein praktischer Ansatz

Die Frage ist, ob dynamische Modelle in der Klimaforschung derzeit möglich sind und, wenn das heute nicht genügend der Fall ist, wie weit es noch möglich ist, mit akzeptabler Genauigkeit Aussagen über das Klima der Zukunft zu machen. In der Meteorologie (kurzfristig) werden dynamische Modelle mit relativem Erfolg angewandt. Die oben genannten Probleme sind in diesem Wissenschaftsbereich hinreichend geklärt. In der Klimaforschung (langfristig) ist das nicht der Fall. Deshalb sollte man zurückgreifen auf geschickte Sub-Modelle, in denen diese Probleme weniger dominant sind.

Dick Thoenes (4) zeigt eine praktische Liste dieser Sub-Modelle oder Prozesse. Nach Ansicht der Autoren bietet sie ein nutzbares Format. Der Überblick zeigt gleichzeitig die Komplexität des Klimaproblems.

1. Sonnenstrahlung und kosmische Strahlung auf die Erde (Land, Wasser, Atmosphäre) und die Ausstrahlung der Erde zum Universum;

2. die Wechselwirkung zwischen Strahlung und der Atmosphäre, inklusive Wolken (Absorption und Emission, einschließlich des Treibhauseffekts),

3. andere Prozesse in der Atmosphäre, wie zum Beispiel verschiedene Arten von Luftströmungen, Wolkenbildung, Niederschlag und Tiefdruckgebieten,

4. Prozesse in den Ozeanen, wie horizontale und vertikale Strömungen, sowohl an der Oberfläche als auch in der Tiefe, besonders wichtig für den Transport von CO2  und andere Prozesse wie Verdunstung, Bildung und Schmelzen von Eis,

5. die Prozesse, die an Land auftreten, wie Verdunstung und Abfluss, Erosion, Bildung und Schmelzen von Landeis sowie Vulkanismus,

6. die Wechselwirkung zwischen der Atmosphäre und den Ozeanen, vor allem in Bezug auf Wärme-, H2O (Wasserdampf) – und CO2-Ströme,

7. die Wechselwirkung zwischen der Atmosphäre und der Landoberfläche, insbesondere im Hinblick auf Wärme- und H2O-Strömungen,

8. die Prozesse in der Biosphäre, vor allem das Wachstum der Pflanzenmasse und die Zersetzung von abgestorbenem Pflanzenmaterial (insbesondere im Hinblick auf CO2-Ströme),

9. die Wechselwirkung zwischen der Biosphäre und der Atmosphäre (insbesondere im Hinblick auf CO2-Ströme),

10. die Interaktion zwischen den Ozeanen und dem Meeresboden, wie unterseeische vulkanische Aktivität (warmes Wasser) und die Fällung von Calciumcarbonat Schalen und Skeletten (insbesondere im Hinblick auf CO2-Ströme).

Hinter der allgemeinen Beschreibung dieser Variablen, die eine Rolle spielen, liegt natürlich eine Vielzahl von versteckten Prozessen, deren Geschwindigkeit variiert je nach Ort auf der Erde, den lokalen Wetterbedingungen und Jahreszeiten. Was wir "Klima" nennen, sind die laufenden Ergebnisse all dieser Prozesse, Wechselwirkungen und Rückkopplungen zwischen ihnen. Viele Prozesse beeinflussen zum Beispiel die Temperatur der Atmosphäre, aber sie selbst sind auch temperaturempfindlich. Fast alle Prozesse sind relevant für das Klima.

Die meisten Prozesse sind unzureichend oder nicht genügend genau bekannt. Auch wenn die Erkenntnisse hinlänglich sind, sind aufgrund der Komplexität modell-basierte Vereinfachungen notwendig, um sie überschaubar zu machen. Die Frage ist immer: Inwieweit können wir die Modelle so gestalten, dass sie ausreichende Gültigkeit beibehalten? Wie soll man mit den Unvollkommenheiten in den Modellen umgehen? In der Praxis sind daher Schätzungen und/oder Annahmen über funktionale Zusammenhänge zwischen verschiedenen Faktoren unvermeidlich. Diese Schätzungen und Annahmen sind um so problematischer, je weniger über die zugrunde liegenden Prozesse bekannt ist.

Angesichts der Bedeutung der Modelle ist es klar, dass sie häufig heftiger Kritik ausgesetzt sind. Die Hauptkritik konzentriert sich auf die Unterschätzung des Einfluss‘ der Sonne, die Vernachlässigung des Einfluss‘ von Meeresströmungen, die Unsicherheit über die Auswirkungen von Aerosolen und die Nichtbeachtung des Verhaltens der Wolken. Jedes Modell wird daher Fehler wegen der unzureichenden Kenntnisse aufweisen. Die Frage ist daher, in wie weit die drei oben genannten grundlegenden Probleme gelöst werden können.

Um den Realitätsgehalt der Modelle zu testen, verwendet man "hindcasting". Dies ist das Spiegelbild von "forecasting". Man ändert die Parameter des Modells so lange, bis man eine gute Übereinstimmung bekommt über die Entwicklung der wichtigsten Merkmalen des Klimas in der Vergangenheit, vor allem hinsichtlich der Temperatur. Auffällig ist, dass diese Methode in vielen Modellen in dieser Hinsicht recht erfolgreich ist, obwohl sie völlig unterschiedliche Eigenschaften haben. Diese Methode zeigt sich als plausibel. Aber die methodischen Fallstricke sind nicht zu vernachlässigen. So ist zum Beispiel die Qualität der historischen empirischen Daten nicht immer adäquat. Aber im Moment müssen wir mit diesen Mängeln leben. Simulationsmethoden sind immer noch unzureichend untersucht.

Ein Problem von entscheidender Bedeutung

Wir haben gezeigt, dass in der Klimawissenschaft die Anwendung von Modellen bei weitem nicht einfach ist, aber dass es von großer Bedeutung ist, um zuverlässige Ansätze zu finden und Antworten zu geben auf die Fragen, die von großem gesellschaftlichem Interesse sind. Ein zentrales Problem dabei ist die sogenannte Klimasensitivität ("climate sensitivity"). Es ist eine Art von Elastizität. Sie ist definiert als der Temperatur-Effekt einer Verdoppelung der CO2-Konzentration in der Atmosphäre. Wenn der heutige Anstieg von CO2 in der Atmosphäre so weiter geht, kann ein solches Niveau am Ende des Jahrhunderts erreicht werden.

Wie bereits erwähnt, behaupten Befürworter der menschlichen Treibhausgas-Hypothese (AGW = "Anthropogenic Global Warming"), dass eine solche Entwicklung zu einem Anstieg der Temperatur zwischen 1,4 und 5,8 Grad Celsius führen kann aufgrund der Absorption und Reflexion der von der Erde ausgehenden (warmen) Infrarot-Strahlung von CO2. Dieser Anstieg besteht aus einem primären Wärme-Effekt von einem Grad Celsius. Weiter sollte es einen sekundären Effekt geben – oder einen zusätzlichen Rückkopplungsseffekt – durch den Einfluss von Wasserdampf, einem wichtigen Treibhausgas.

Die Anhänger der AGW-Hypothese argumentieren, dass höhere Temperaturen zu mehr Verdunstung führen. Damit kommt mehr Wasserdampf in die Luft, der den primären Heiz-Effekt verstärkt. Ihre Opponenten, die sogenannte Klimaskeptiker, vertreten eine andere Auffassung. Sie kommen – anhand verschiedener Methoden – zu dem Schluss, dass die Klimasensitivität wahrscheinlich erheblich niedriger ist:  In der Größenordnung von 0,5 Grad Celsius oder weniger. Ihre Annahmen sind anders: sie sind der Meinung, dass Wasserdampf einen negativen Rückkopplungseffekt verursacht. Sie argumentieren von der klassischen Meteorologie aus, gegenüber der AGW-Hypothese, dass CO2 ein Treibhausgas ist, und dadurch unbedingt erwärmend wirken soll.

Die klassische Meteorologie geht davon aus, dass das Land und die Meeresoberfläche auf zwei verschiedene Weisen die eingefangen Sonneneinstrahlung los werden kann: Infrarot-Strahlung direkt in dem Raum, und Konvektion (thermisch, Wind, Wolken und vor allem tropische Regengüsse), die Wärme in der Atmosphäre transportiert. Sie halten es für erwiesen, dass Klimaschwankungen in der Vergangenheit – kleine Eiszeit, mittelalterliche Warmzeit und all die großen Eiszeiten – überhaupt nicht mit CO2 Variationen, aber mit solar-magnetischer Aktivität verknüpft sind. Im Allgemeinen erkennen sie an, dass CO2 eine gewisse erwärmende Wirkung hat, aber sie halten diese für unbedeutend und nicht messbar im statistischen Rauschen des Temperatursignals. Wenn sie Recht haben, gibt es kein Erwärmungsproblem. Die umweltökonomische Literatur zeigt, dass ein geringer Temperaturanstieg per Saldo sehr vorteilhaft sein wird für Mensch und Natur.

Die grundlegende Meinungsverschiedenheit über das Vorzeichen der Rück-Kopplung (positiv oder negativ) wird derzeit in Gesprächen zwischen Vertretern der "Schulen" diskutiert. In den Niederlande beteiligt sich auch das Königliche Niederländisches Meteorologisch Institut (KNMI) an dieser Diskussion.

Es ist wichtig dass eine solche Diskussion stattfindet, denn beide Schulen begegnen, jeder aus seiner eigenen Sicht, ähnlichen Problemen. Die oben genannte wissenschaftliche Debatte in diesem Bereich kann deshalb Früchte tragen.

Übereinstimmung oder nicht?

Es bleibt von grösster Wichtigkeit, dass die Wissenschaftler durch ein freien und ungehinderten Austausch von sachlichen Argumenten und die Bündelung von zersplitterte wissenschaftlichen Erkenntnisse zum Konsens kommen. Aber die Erfahrung zeigt, dass ein solches Verfahren in der Klimatologie bislang noch kaum begonnen hat. Die Beziehungen sind polarisiert. Kuhn (5) hat übrigens darauf hingewiesen, dass solche Verhältnisse nicht nur in der Klimatologie, sondern auch in vielen anderen wissenschaftlichen Disziplinen vorgekommen.

Auf der Seite der Klimaskeptiker gibt es die Oregon Petition, in deren sich 31.000 Unterzeichner von der AGW-Hypothese distanziert haben. (6) Von AGW-Seite jedoch werden die Qualifikationen mancher dieser Wissenschaftler bestritten. Zusätzlich gab es auch ernsthafte Kritik an der Vorgehensweise, die bei der Erstellung der Petition verfolgt wurde. Diese Beschwerden treffen nicht zu in Bezug auf die Liste hergestellt vom „Climate Depot“. Diese Liste nennt über 1000 klimaskeptische Wissenschaftler, inklusive umfangreicher Auskünfte über die akademischen Qualifikationen und wissenschaftlichen Zugehörigkeiten der Beteiligten.(7)

Anderseits gibt es die viel zitierte Aussage, dass 97% der Wissenschaftler AGW unterschreiben. Diese Zahl stammt aus einer Umfrage/Probe von 79 Klimatologen.(8) Natürlich kann man behaupten, dass es hier um eine sehr beschränkte Probe handelt. Trotzdem bleibt die Tatsache, dass eine relativ große Anzahl von Forschern diese Hypothese anhängt.

Es ist übrigens bedauerlich, dass beide Schulen versuchen, ihr Gewicht durch verschiedene Umfragen zu belegen. Sie zeigen auch, dass man von der notwendigen wissenschaftlichen Debatte noch weit entfernt ist. Sie zeigen weiter, dass grundlegende Fragen nichtwissenschaftlicher Natur noch gelöst werden müssen.

Illustrativ in diesem Zusammenhang ist eine interessante Studie deutscher Herkunft von Hans M. Kepplinger und Svenja Post, veröffentlicht unter dem Titel "Die Klimaforscher Sind Sich Nicht Sicher.“ Sie haben die Ergebnisse ihrer Studie auf Welt Online zusammengefasst.(9).

Der Klimaschutz ist zu einem der wichtigsten Rechtfertigungsgründe von politischen Entscheidungen geworden. Als parteiübergreifende Begründung von Macht- und Gestaltungsansprüchen hat er hierzulande die Funktion übernommen, die Nation und Religion in der Vergangenheit besaßen und in anderen Weltregionen noch besitzen. Der Klimaschutz legitimiert. Er legitimiert staatliche Eingriffe in die Energieversorgung, die Technologieförderung, den Wohnungsbau. Mit dem Klima kann man alles begründen – von Subventionen für Wind- und Solarenergie über Vorschriften für den Bau von Eigenheimen bis hin zur steuerlichen Behandlung von Dienstwagen.

Kepplinger und Post haben 133 deutsche Klimaforscher befragt. Die zweite Frage der Untersuchung betraf die Zuverlässigkeit der Modelle.(10) Nur 14% der Befragten gaben an, dass diese bereits ausreichend zuverlässig sind. 65% dachten, dass sie in der Zukunft hinreichend zuverlässig sein würden. 14% Hielten es aus prinzipiellen Gründen für unmöglich, und 7% gaben keine klare Antwort. Die allgemeine Schlussfolgerung von Kepplinger und Post war wie folgt: 

Anhand ihrer Urteile über die Qualität der Daten und Modelle der Klimaforschung, der Interpretation der Befunde zur Entwicklung des Klimas sowie zu den zukünftigen Gefahren kann man einen Index berechnen, der in der Klimaforschung zwei unterschiedliche Lager ausweist – überzeugte Warner und skeptische Beobachter. Im Unterschied zu ihrer Präsenz in der Öffentlichkeit und zu ihrer Resonanz in der Politik sind beide Lager in der Klimaforschung gleich groß (37 beziehungsweise 36 Prozent der Klimaforscher). Zwischen ihnen steht eine etwas kleinere Gruppe (27 Prozent), die weniger klar umrissene Ansichten vertritt und hier außer Acht bleiben kann.

Nota bene! Dies sind professionelle Klimatologen, die im formalen akademischen Umfeld tätig sind. Der politische Kontext ihrer Arbeit sickert überall durch und bedeutet ein schweres Handicap für eine gründliche Diskussion. Wir sehen in den zitierten Quellen wenig Hoffnung zu einem Konsens in absehbarer Zeit. Dies bedeutet, dass viel Energie in nicht-produktiven Diskussionen verloren gehen wird. Angesichts der Bedeutung der Klimatologie ist das bedauerlich. Aber in Anlehnung an Kuhn trösten wir uns mit der Hoffnung, dass es letztendlich klappen wird.

Zum Schluss

In Bezug auf Klima wird oft gesagt: "The science is settled – all scientists agree,“ oder Wörter mit ähnlicher Bedeutung.(11) Wie wir gezeigt haben, ist das nicht korrekt. Im Gegensatz zu dem, was oft behauptet wird, bieten Klimamodelle jetzt (noch?) keine zuverlässige Grundlage für Vorhersagen über künftige Klimaänderungen. Das IPCC erkennt das implizit. Es verwendet daher konsequent die korrekte Bezeichnung "Projektionen" – eine bessere Formulierung für Ergebnisse, die von vielen Unsicherheiten umgeben sind. Im Hinsicht auf diesen Unsicherheiten ist der Begriff “Vorhersagen“ also falsch. Aber in der Kommunikation mit dem Publikum geht diese subtile Unterscheidung oft verloren. Infolgedessen setzen die Politik, die Medien und die Öffentlichkeit auf das falsche Pferd. Was bleibt ist, dass Politiker lernen müssen mit Ergebnissen umzugehen, die ein hohes Maß an Unsicherheit haben.

Heute scheint die Aufregung über die angebliche globale Erwärmung nachzulassen. Und renommierte Astrophysiker, einschließlich des niederländischen Kees de Jager, erwarten sogar eine neue kleine Eiszeit (im Jargon: Maunder Minimum). Das bedeutet, dass es Zeit und Gelegenheit gibt für ein Umdenken über Richtung und Grenzen der Klimaforschung, insbesondere die Grenzen der Aussagekraft von Klimamodellen. Werden sie jemals zuverlässig genug sein, um vertrauenswürdige Prognose zu liefern? Oder werden sie, wie ökonomische Modelle, niemals dazu in der Lage sein?

Die Zeit wird es zeigen.

Autoren: Prof. Dr. Theo deVries, Dr. Oec. Hans Labohm für EIKE. Der Originalartikel erschien hier. Die Übersetzung besorgte Hans Labohm

Theo de Vries ist Mathematiker. Derzeit ist er Professor für Zukunftsstudien Gesundheitswesen an der Universität Twente. Sein zweites Interessengebiet ist die Anwendung von mathematischen Modellen für soziale Fragen. Er ist ehemaliger Vorsitzender des Ausschusses Wissenschaft und Technik der VVD, Mitglied des Kuratoriums der Telders Stiftung und Mitglied der Redaktion von Liberaal Reveil. 

Hans Labohm ist derzeit unabhängiger Ökonom und Publizist. Von 1987 bis 1992 war er stellvertretende Ständiger Vertreter der Niederlande bei der OECD (Paris) und nachher Berater der Verwaltung des Niederländischen Instituts für Internationale Beziehungen (‚Clingendael‘). Auch war er Expertengutachter für den Zwischenstaatlichen Ausschuss für Klimaänderungen (IPCC) der Vereinten Nationen. Zusammen mit Dick Thoenes und Simon Rozendaal hat er das Buch ‚Man-Made Global Warming: Unravelling a Dogma‘ (Multi-Science Publishing Co. Ltd. April 2004, 200 S., 51,50 Euro) veröffentlicht. Er ist Mitglied des wissenschaftlichen Beirats von EIKE.

Liberaal Reveil ist eine Ausgabe der Telders Stiftung. Die Telders Stiftung ist die wissenschaftliche Ideen-schmiede der Niederländischen VVD (Volkspartei für Freiheit und Demokratie – also die klassischen Liberalen). Sie ist zu vergleichen mit der Friedrich Naumann Stiftung in Deutschland. Die neueste Ausgabe des Liberaal Reveils war das Thema der Vorhersagen gewidmet. Das unterstehende Artikel von Theo de Vries und Hans Labohm wurde in dieser Sonderausgabe veröffentlicht.

Fußnoten

(1) Das IPCC wurde vor kurzem stark kritisiert, weil es das nicht auf ausgewogener und objektiver Art und Weise getan hätte. Siehe insbesondere den Bericht des „Inter Academy Council“: „Climate Change Assessments.  Review of the Processes and Procedures of the IPCC.“

http://reviewipcc.interacademycouncil.net/report.html

(2) Im letzten Kommuniqué des G8-Gipfels in Deauville war zum Beispiel wieder zu lesen:

„49. Tackling climate change is a global priority. We, members of the G8, have undertaken ambitious measures, and are committed to long-term efforts, with a view to doing our part to limit effectively the increase in global temperatures below 2 degrees Celsius above pre-industrial levels, consistent with science. We express our determination to act as part of a larger global effort to address this threat as well as our solidarity with developing countries, particularly the poorest and most vulnerable.“

(3) KNMI, Bericht des „International Meteorological Satellite Workshop“, 1961. 

(4) Prof. Dr. Dick Thoenes, ‚Over de onvoorspelbaarheid van het klimaat‘. Geografie, februari 2007.

(5) Thomas S. Kuhn, „The Structure of Scientific Revolutions“, UoC 1996.

(6) Petition Project, http://www.oism.org/pproject/

(7) Climate Depot Special Report, „More Than 1000 International Scientists Dissent Over Man-Made Global Warming Claims“, http://hw.libsyn.com/p/b/f/6/bf663fd2376ffeca/2010_Senate_Minority_Report.pdf?sid=68b5e7d9e3a454a4675c254d6348a1c3&l_sid=27695&l_eid=&l_mid=2336201

(8) Dennis Ambler, „Climate ‚Consensus‘ Opiate. The 97% Solution“, http://scienceandpublicpolicy.org/originals/climate_qconsensusq_opiate_the_97_solution.html

(9) Hans M. Kepplinger, Senja Post, „Die Klimaforscher sind sich längst nicht sicher“, Weltonline, 25.09.2007, http://www.welt.de/welt_print/article1210902/Die_Klimaforscher_sind_sich_laengst_nicht_sicher.html

(10) http://www.kepplinger.de/files/Die_Klimaforscher_sind_sich_laengst_nicht_sicher_0.pdf

(11) Siehe zum Beispiel: http://en.wikipedia.org/wiki/User:Sbandrews/the_science_is_settled

     

Related Files




Können wir die Klimawissenschaft wirklich Wissenschaft nennen?

Sowjetisches Politbüro 8. September 1927:

Trotzki: Lassen Sie uns unser Programm auf dem Parteikongress vorstellen. Wovor haben Sie Angst?

Stalin: Kamerad Trotzki verlangt Gleichheit zwischen dem Zentralkomitee und seiner Oppositionsgruppe. In wessen Namen sprechen Sie so anmaßend?

Trotzki-Verbündeter: Warum versuchen Sie, ihr Programm zu verbergen? Was sagt dies über Ihren Mut aus?

Stalin: Wir sind nicht darauf vorbereitet, die Partei in einen Debattierclub zu verwandeln!“

George Orwell, Animal Farm, Kapitel 7

 „Sie werden in einer Zeit ankommen, wo es niemand mehr wagt, seine Meinung zu sagen, wenn wilde, grollende Hunde überall herumstreunen und wenn Sie beobachten müssen, wie Ihre Kameraden in Stücke gerissen werden, nachdem sie schockierende Verbrechen gestanden haben“.

E-mails von  Phil Jones (East Anglia University)

8. Juli  2004
„Ich kann nicht erkennen, dass seines dieser Papiere im nächsten IPCC-Bericht auftaucht. Kevin und ich werden dafür sorgen, sie irgendwie da heraus zu halten – selbst wenn wir dafür neu definieren müssen, was wissenschaftlich begutachtete Literatur ist!“

8. März 2003

„Ich werde eine e-mail an das Journal senden und ihnen sagen, dass ich nichts mehr mit diesem Journal zu tun haben möchte, bis sie diesen Schwierigkeiten machenden Herausgeber loswerden“.

Es ist völlig unstrittig, dass sich die Temperatur der Erde mit der Zeit immer verändert hat. Es gibt Zeiten mit Erwärmung und andere Zeiten mit Abkühlung. Es scheint, dass wir gegenwärtig in einer Periode der Erwärmung leben. Die Debatte zwischen den „Warmisten“ und den „Skeptikern“ dreht sich darum, ob anthropogene CO2-Emissionen der Grund für die Erwärmung sind, ob die relativ geringen Effekte dieser Emissionen zu größeren Änderungen führen und, falls ja, ob die Vorteile dieser Sanierung die Kosten überwiegen. Mit den „Warmisten“ meine ich die Alarmisten der globalen Erwärmung, die glauben, dass die Erwärmung von den Menschen verursacht wird und desaströse Konsequenzen für die Menschheit hat, sofern die Emissionen nicht begrenzt werden, koste es, was es wolle.

Der Konsens der “Warmisten” der “Klimawissenschaft” wird auf populäre Art und Weise von Befürwortern wie Al Gore und dem wissenschaftlichen und technischen Niveau des IPCC repräsentiert. Dieses wird unterstützt von Forschern an der [University of] East Anglia (Phil Jones) und Penn State (Michael Mann). Die Palette von Leuten und Organisationen ist das Äquivalent zu dem Zentralkomitee im Stalin-Dialog oben. „Skeptiker“ (entsprechend Trotzki oben) sind individuelle Wissenschaftler und Sachwalter, die Positionen gegensätzlich zu denen der Orthodoxie des IPCC-Zentralkomitees aufstellen. Sie sind diejenigen, die „es wagen zu sprechen, wenn überall wilde heulende Hunde herumstreunen“.

Drei kürzliche Ereignisse haben die Kontroverse über die Klimawissenschaft in die Nachrichten und auf meinen Bildschirm zurück gebracht:

Erstens, Ivar Giaever, Gewinner des Nobelpreises in Physik im Jahre 1973, hat sich aus der Amerikanischen Physikalischen Gesellschaft zurückgezogen, und zwar weil er deren Haltung „der Beweis (für den Erwärmungsalarmismus) ist nicht widerlegbar“ nicht mittragen konnte. Statt dessen schrieb er, dass der Beweis nahelegt, dass „die Temperatur erstaunlich stabil gewesen ist, und sowohl die menschliche Gesundheit und auch das Wohlergehen haben sich definitiv in dieser ‚Erwärmungs’-Periode verbessert“.

Zweitens, der Herausgeber der Zeitschrift Remote Sensing trat zurück und distanzierte sich von einer skeptischen Studie, die von Roy Spencer, Klimawissenschaftler an der University of Alabama, mitverfasst worden war, nachdem diese Gegenstand einer Lawine von Kritik seitens der „Warmisten“ gewesen ist. Sein Rücktritt ruft die Drohung von Phil Jones ins Gedächtnis, „lästige Herausgeber los zu werden“.

Drittens, die New York Times und andere Hauptmedien machen sich über den Gouverneur von Texas Rick Perry lustig, weil dieser gesagt hatte, dass es für die globale Erwärmung „keinen Beweis“ gibt. Ihre Botschaft: jeder, der sich nicht dem Alarmismus der globalen Erwärmung anschließt, ist ein ignoranter Hinterwäldler und mit Sicherheit nicht für eine Präsidentschaft geeignet.

Welche Lehren ziehe ich als Ökonom aus diesen drei Ereignissen?

Erstens: Die Giaver-Geschichte zieht die Behauptungen der Warmisten über einen “unwiderlegbaren Beweis” stark in Zweifel. Trotz der lauten Stille der Presse über solche Dinge gibt es eine große Zahl von Wissenschaftlern mit solidem Hintergrund, die mit dem Zentralkomitee des IPCC nicht übereinstimmen. Jene, die „bewiesene Wissenschaft“ und „Konsens“ behaupten, ignorieren diese Wissenschaftler einfach.

Mit seinem Rücktritt reiht sich Nobelpreisträger Giaever in eine lange Reihe angesehener „Skeptiker“ ein, darunter Richard Lindzen, Alfred P. Sloan Professor of Atmospheric Science am MIT und Mitglied der National Academy of SciencesHendrik Tennekes, Direktor der Forschung im Ruhestand, Royal Netherlands Meteorological Institute,  Sallie BaliunasAstronom am, Harvard-Smithsonian Center for AstrophysicsIan Clarkhydrogeologist, Professor, Department of Earth Sciences, University of Ottawa: William M. Gray, Professor Emeritus und Vorsitzender des Tropical Meteorology Project, Department of Atmospheric Science, Colorado State UniversityWilliam Happer, Physiker, Princeton University, Tim PattersonPaläoklimatologe und Professor of Geology at Carleton University in Canada, und  Fred Singer, Professor emeritus of Environmental Sciences at the University of Virginia (um nur einige von der langen Listen zu nennen).

Zweitens: Als jemand, der vierzig Jahre Erfahrung mit wissenschaftlich begutachteten Journalen hat, kann ich bestätigen, dass der Rücktritt des Herausgebers von Remote Sensing und die öffentliche Diskreditierung von Spencers skeptischer Studie als bizarr eingestuft und ihm selbst unprofessionelles Verhalten in jeder Fachdisziplin vorgeworfen werden würde.

In allen Bereichen wissenschaftlicher Untersuchungen gründen die Herausgeber von Zeitschriften ihre Entscheidungen, was veröffentlicht wird, auf Berichte von Schiedsrichtern, die Experten auf diesem Gebiet sein sollten. Vermutlich haben im Falle der Spencer-Studie die Schiedsrichter die Veröffentlichung unterstützt. Selbst wenn es einen Negativbescheid gegeben hätte, publizieren gute Herausgeber kontroverse Papiere, um einen scholastischen Dialog zu eröffnen. (Erinnert sich irgendjemand an ein Thema, das kontroverser ist und mehr Diskussion braucht als die globale Erwärmung?). Im Falle kontroverser Studien räumen die Herausgeber Kritikern Raum für ihre Einwände ein, und der Autor erhält die Gelegenheit, darauf zu antworten.

In diesem merkwürdigen Fall folgte der Herausgeber nicht der normalen Prozedur, kritische Kommentare von Spezialisten zu veröffentlichen, die mit der Studie nicht übereinstimmen. Statt dessen zog er es vor, die Studie selbst abzulehnen und zu diskreditieren, trotz der Tatsache, dass er kein Experte zu diesem Thema ist. Auch gab der Herausgeber Spencer nie die Gelegenheit, sich zu seiner persönlichen Ablehnung zu äußern. Statt dessen werden Zurückweisungen der Spencer-Studie für die Veröffentlichung in anderen, warmisten-freundlichen Journalen weitergereicht. Spencer gibt man keinerlei Gelegenheit, in diesen Journalen darauf zu antworten. (Spencer ist wie der mundtot gemachte Trotzki in meinem Zitat oben. Stalin entscheidet, was andere hören dürfen).

In meinem Bereich der Ökonomie würde ein solch unprofessionelles Verhalten den professionellen Respekt zerstören und ihn oder sie zu einem Gegen­stand von Gelächter machen. Offenbar nicht so in der Klimawissenschaft. Wir können Jones’ Drohung „wissenschaftliche Begutachtung neu definieren“ leibhaftig sehen. Genau wie Stalin kann das Klima-Establishment nicht erlauben, die Klimawissenschaft in einen „Debattierclub“ zu verwandeln.

Drittens: Die Medien teeren und federn Rick Perry, wie wir jetzt sehen, weil er dem Nobelpreisträger Giaever sowie einer Reihe anderer prominenter Wissenschaftler zustimmt. Ich denke, falls Perry ein unwissender texanischer Hinterwäldler wäre (oder schlimmer, ein Erfüllungsgehilfe von Big Oil), so wäre das auch jeder andere Wissenschaftler, der es wagt, mit dem IPCC-Zentralkomitee nicht überein zu stimmen. Solche Einschüchterungen sorgen dafür, dass Politiker, Publizisten und Wissenschaftler zitternd Angst davor haben, auch nur einen Inch von der orthodoxen Linie abzuweichen. Sie wollen Orwells „beobachten, wie ihre Kameraden in Stücke gerissen werden, nachdem sie schockierende Verbrechen gestanden haben“ vermeiden. Wie viele gibt es, die diese Last schultern wollen?

Ich weiß nicht, ob die Warmisten oder die Skeptiker recht haben. Ich weiß aber, dass die Klimamodellierung eine der schwierigsten und kompliziertesten wissenschaftlichen Aufgaben ist. In dieser Hinsicht haben die Klimawissenschaft und die Ökonomie viel gemeinsam. Bei beidem muss versuchen, die komplizierten Systeme zu verstehen samt ihrer komplexen Feedbacks und ungewisser Zusammenhänge. Wie jüngste Erfahrungen zeigen, müssen wir Ökonomen noch die „unwiderlegbare Wahrheit“ finden. Wir werden niemals einen Konsens erzielen. Und das sollten wir auch nicht. Warum sollten wir erwarten, dass die Klimawissenschaft im Gegensatz zu anderen Disziplinen einen Konsens erreichen, wenn wir dies von älteren Gebieten wissenschaftlicher Forschung nicht erwarten.

Vor etwa einem Jahr nahm ich an einer Diskussion zwischen einem bekennenden Warmisten und einem Skeptiker teil. Sie stimmten nur in einer Sache überein: Die Klimawissenschaft steckt noch in den Kinderschuhen. Wir fangen gerade erst an, das Klima zu verstehen. In der Rückschau verstehen wir, wie wenig wir wirklich verstanden haben und wie falsch unsere ersten Ergebnisse waren. Dies ist der Weg, auf dem Wissenschaft kreiert wird.

Falsche Behauptungen über Konsens und unwiderlegbaren Wahrheiten enthüllen eine politische oder ideologische Agenda, die in einer Hülle der Wissenschaft verpackt ist. Das beispiellos schlechte Benehmen der Warmisten hat dazu geführt, dass die Skeptiker den Verdacht unlauterer Motive haben, und wer kann ihnen das verübeln?

Mehr über Paul Roderick Gregory: Ich schreibe über Wirtschaft bei uns und weltweit aus einer Perspektive des freien Marktes. Ich bin Forschungsmitglied an der Hoover Institution, in Stanford und Wirtschaftsprofessor an der University of Houston. Ich bin auch Forschungsprofessor am Deutschen Institut für Wirtschaftsforschung in Berlin. Meine Spezialität sind Russland und vergleichende Ökonomie, und ich füge China zu meinem Portfolio hinzu. Ich habe mehr als 20 Bücher über Wirtschaft, Russland und vergleichende Ökonomie geschrieben. Mein letztes Buch trägt den Titel „Politics, Murder, and Love in Stalin’s Kremlin: The Story of Nikolai Bukharin and Anna Larina.“

Ich blogge bei www.paulgregorysblog.blogspot.com.

Der Autor liefert Beiträge an Forbes. Seine hier geäußerten Meinungen sind die Meinungen des Autors.

Paul Roderick Gregory’s Popular Posts

More from Paul Roderick Gregory

Link: hier

Anthony Watts hat zu diesem Artikel noch einige eigene Bemerkungen gemacht (hier). Nach einer Zusammenfassung der Äußerungen von Gregory schreibt er:

Für ein Beispiel aus jüngster Zeit für „beobachten, wie ihre Kameraden in Stücke gerissen werden, nachdem sie schockierende Verbrechen gestanden haben“, brauchen wir nicht weiter zu gehen als bis zu dem Versuch von Dr. Roger Pielke, einen Dialog mit der bezeichnenderweise „SkepticalScience.com“ genannten Website zu führen. Bishop Hill beschreibt, was dann geschehen war, als ein Selbstopfer, Shub Niggurath listet es als einen dunklen Tag in der Debatte um die Klimawissenschaft (hier.)

Was immer es ist, es ist das schlimmste Beispiel von Klimahässlichkeit, das ich in diesem Monat gesehen habe, wenn nicht das schlimmste aller Zeiten (man beachte die „Korrekturen“ am Ende). Es ist jedoch überraschend, dass eine Website, die vor kurzem die prestigeträchtige Eureka-Auszeichnung in Australien verliehen bekommen hatte (hier), es nötig hatte, auf dieses Niveau jugendlichen Ungehorsams herabzusinken, das an Animal Farm erinnert, wie es Paul Roderick Gregory in seinem Artikel in Forbes zitiert hat.

Das Ausgrenzen opponierender Kommentare, besonders eines Kommentars von einem professionellen Wissenschaftler, der nicht einmal ansatzweise aufrührerisch oder abseits des Themas lag (da er auf einen anderen Kommentator geantwortet hatte), ist „Grundschule“.

Können Sie sich das Aufheulen vorstellen, das sich erheben würde, wenn ich das Gleiche mit Walt Meier auf NSIDC machen würde, wenn er hier etwas postet, dem ich nicht zustimmen könnte?

Aus meiner Perspektive, der ich einmal gesagt habe, dass John Cook zumindest „zivilisiert den Diskurs mit mir gesucht hat“, habe ich aus diesem Grunde SkepticalScience Platz in meinem Blog eingeräumt. Ich überdenke das jetzt angesichts seiner jüngsten Hässlichkeiten.

Ein Zitat von Shub Niggurath sprang mir ins Auge:

In jüngster Zeit erst wurde der Ton bei (SkepticalScience) schrill. Der Hauptbetreiber John Cook, der für seine Kommunikation zur Klimaänderung ausgezeichnet worden war, hat das offenbar abgesegnet. Diese Änderungen wurden vor allem erkennbar, nachdem ein gewisser ‚dana1981’ – vermutlich das Geburtsjahr des Autors 1981 – damit anfing, Beiträge auf jener Website zu posten.

Und um das alles auf die Spitze zu treiben, waren die Leser/Moderatoren und Autoren einschließlich ‚dana1981’ in ihren eingeengten und verblödeten Versuchen, Blogbeiträge von Roger Pielke Senior zu interpretieren, komplett blind für die Tatsache, dass einer von ihnen – ‚dana1981’ – tatsächlich genau das getan hat, was sie so vehement abgelehnt hatten.

Das erinnert mich an etwas, das ich mal über das Internet gesagt habe: Anonymität brütet Verachtung (contempt) aus

Ich möchte mal wissen, falls Cook jemals das Niveau der Achtung erreicht, das das australische Nationale Museum ihm mit dem Eureka-Preis gewährt hatte, ob er dann das Durcheinander von ‚dana1981’ geklärt hätte, oder ob er auf dem Auge blind war und lediglich einen für „das Team“ gesucht hätte. Ich habe meinen Teil dazu beigetragen und Vorschläge angenommen; der Ball liegt jetzt bei John Cook. Ironischerweise haben sie in einem Versuch, Dr. Pielke mundtot zu machen und ihm nahe legten, sich den Anordnungen zu fügen, genau seine Originalaussage bewiesen.

Angesichts der Art und Weise, wie man dieser Tage in der Klimawissenschaft miteinander umgeht, erhebt sich wirklich die Frage Können wir wirklich die Klimawissenschaft noch eine Wissenschaft nennen?

Link zum Original bei Wattsup: hier

Alle Übersetzungen von Chris Frey für EIKE




Energiewende zu teuer-Mehrkosten von 165 Euro im Monat pro Haushalt!

Den gesamten deutschen Energiebedarf von 2.500 Milliarden Kilowattstunden – also inklusive Heizung, Verkehr und große Teile der Industrie – ausschließlich über grüne Technologie zu decken, hält der Experte von der Universität Konstanz für unmöglich: "Das würde nochmals Kosten von 800 Euro pro Haushalt und Monat mit sich bringen. Und das ist nicht bezahlbar", so Ganteför.

So die Rheinpfalz von heute: Den ganzen Beitrag finden Sie hier

Mit Dank an Spürnase K.E. Puls EIKE




Witz des Monats: Stadt Arnsberg sucht Klimamanagerin/Klimamanager

Auszug aus der Stellenanzeige:

Klimamanagerin/Klimamanager

Die Stadt Arnsberg (rd. 78.000 Einwohner) -historische Hauptstadt des Sauerlands mitten in Westfalen- verfügt über eine bedeutende Wirtschaft, ist Sitz der Bezirksregierung, kann mit herausragenden ökologischen Qualitäten aufwarten, bietet hohe Freizeitqualitäten und viele Chancen, seine Möglichkeiten zu entdecken und zu entfalten.

Wir suchen zum nächst möglichen Zeitpunkt befristet für drei Jahre 

eine Klimamanagerin / einen Klimamanager.

Aufgaben

Die Stelleninhaberin / der Stelleninhaber ist für die Vorbereitung und Umsetzung von Schwerpunkt-Maßnahmen aus dem Klimaschutzkonzept der Stadt Arnsberg zuständig (siehe auch: www.arnsberg.de/klima/klimaschutzkonzept.php) durch die Aktivierung öffentlicher, privatwirtschaftlicher und bürgerschaftlicher Potentiale. Dazu zählen u.a.:

Konkretisierung der Maßnahmen,

Erarbeitung und Durchführung von Aktivierungs- und Umsetzungsstrategien,

Einleitung der Umsetzung der politisch beschlossenen Maßnahmen,

Unterstützung bei der Vorbereitung und Durchführung von begleitenden Informations- und Bildungsveranstaltungen sowie die Erstellung von Informationsmaterialien,

Vernetzung wichtiger Klimaschutzakteure,

Beratung der potentiellen öffentlichen, privaten und bürgerschaftlichen Akteure über die Inanspruchnahme wichtiger Förderprogramme.

Anforderungen

Abgeschlossenes Fach-/Hochschulstudium der Umwelt- oder Ingenieurwissenschaften mit dem Schwerpunkt Energie/Erneuerbare Energie oder einer gleichwertigen Studienrichtung mit entsprechender einschlägiger Berufserfahrung,

Kommunikationsvermögen, Teamfähigkeit und soziale Kompetenz,

Koordinierungsfähigkeit, eine an strategischen Zielen ausgerichtete Arbeitsplanung sowie Begeisterung für diese Aufgabe der Mobilisierung ungenutzter Potentiale für Klimaschutz und Energiewende.

Wir bieten 

Interessante, kommunikative und verantwortungsvolle Tätigkeit

Eingruppierung nach Eignung, Leistung und Befähigung in Entgeltgruppe 11 / 12 TVöD

Zusätzliche Altersversorgung des öffentlichen Dienstes

Abwechslungsreiches Arbeiten im Team

  

Die Stelle wird gefördert durch das Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit. 

Die Stadt Arnsberg ist in Anlehnung an den Frauenförderplan bestrebt, den Frauenanteil in unterrepräsentierten Bereichen zu erhöhen. Bewerbungen von Frauen sind daher besonders erwünscht. Bei gleicher Eignung, Befähigung und fachlicher Leistung werden Frauen bevorzugt berücksichtigt, sofern nicht in der Person eines Mitbewerbers liegende Gründe überwiegen. ….

Mit Dank an Spürnase R. Hoffmann.