1

IPCC Vizechef will Klimaseminar stoppen: Jean-Pascal van Ypersele verbietet Seminar zu Klimafragen in Brüssel zu unterstützen!

"Sie sollten wissen, dass Herr Fred Singer eine Person ist, deren wissenschaftliche Integrität viel zu wünschen übrig lässt. Seine Aktivitäten sind Desinformation, die durch die Lobby der fossilen Brennstoffe finanziert(siehe XXXXXXXXXXXXXX) [sic] werden, und es ist skandalös, dass  eine solche Person, direkt oder indirekt, der  SEII und der University Foundation zugeordnet werden könnte.

Bedeutende Kollegen haben zudem geschrieben, dass Herr Johnson (eEiner der Teilnehmer, die Redaktion) nicht besser sei. Eines seiner "Lehrbücher" dass er vor kurzem von der Royal Institute of Technology (KTH, Schweden) veröffentlicht hattein dem er zufällig über den Klimawandel sprach,  musste von ihm zurückgezogen werden, weil es Fehler enthielt…."

Zum Glück, weigerten sich die Organisatoren der Konferenz einzuknicken und verlegten stattdessen den Konferenzort. Sie wird nun in Rhode St. Genèse, 1. September, ab 18.00 Uhr stattfinden.

Hier dazu der Kommentar von Fred Singer:

Warum bin ich nicht von dieser üblen Aktion des IPCC Offiziellen überrascht? Nach allem, was wir aus den Climategate E-Mails wissen, ist, dass diese Leute auf jede beliebige Weise versuchen, den wissenschaftlichen Diskurs zu unterdrücken. Auch indem sie Verleumdungen und  schlimme Lügen verwenden. Natürlich werde ich nicht durch die Öl-Kohle Industrie unterstützt. Das ist völliger Unsinn und frei erfunden. Mein Europa Besuch wird von der Ettore Majorana Foundation bezahlt – um einen Vortrag auf der Klimakonferenz in Erice zu halten. Ich benutze die Gelegenheit, um weitere Einladungen zu sprechen (ohne Honorare für Vorträge) anzunehmen, wie an der Helmut Schmidt Universität Hamburg, dem Imperial College, der University of Paris – Jussieu, und natürlich an der KNMI in De Bilt. Ich wurde auch eingeladen, vor ca. 100 + Ingenieuren, in Zürich zu sprechen. Unser IPCC Kollege van Ypersele stellt auch meine Ehrlichkeit in Frage. Nun – das IPCC hat mit mich als wissenschaftlichen Gutachter eingesetzt, der regelmäßig in peer-reviewed Zeitschriften veröffentlicht und als ein gewählter Fellow verschiedener wissenschaftlicher Gesellschaften wirkt. Also muss es dort einige geben, die nicht mit van Ypersele einverstanden sein.

Dazu der Kommentar eines der von van Ypersele Angegiffenen Prof. Claes Göran Johnson (Details hier

"Dieser Brief ist eine strafbare Handlung gegen die Wissenschaft, gegen deren offenen Diskurs. Nicht nur ist die Welt in den Händen von intellektuellen Kindern, diese sind auch gegen echte Wissenschaft, deren wichtigste Säule der offene Diskurs der Parteien ist "

Zur Klarstellung:

SEPP (das Science & Environmental Policy Project) bittet nicht um Unterstützung von Firmen oder Regierungen, noch viel weniger von Lobbyisten der Kohle-und Erdölindustrie. Es ist hingegen empörend, dass die Steuerzahler Aktivitäten von Menschen wie van Ypersele finanzieren, die in skandalöser Weise mit persönlichen Angriffen eingreifen, weil es immer klarer wird, dass ihre "Wissenschaft" als Rechtfertigung für ihre Tätigkeiten versagt.

Ken Happala, Vicepresident SEPP unter Mitarbeit von Michael Limburg EIKE




Der globale Kohleverbrauch steigt um fast 50% – und doch sinkt die globale Temperatur

Nein, sind sie nicht! Tatsächlich sind sie während der gleichen Periode leicht zurückgegangen. Man betrachte das Bild rechts!

Darin zeigt die blaue Linie den drastischen Anstieg des globalen Kohleverbrauchs, und doch sind die globalen Temperaturen gefallen.

Die Werte für den Kohleverbrauch (blaue Linie) stammen von hier, Review of World Energy. Dem Bericht zufolge sind China und Indien allein zu 90% für die Zunahme des Weltkohleverbrauchs verantwortlich.

Die international Energie-Agentur (IEA) sagt, dass aus China bis zum Jahr 2035 kolossale 600 Gigawatt Kapazität von Kohlekraftwerken kommen werden, das entspricht der gegenwärtigen Kapazität von den USA, der EU und Japan – zusammen! Während also in China jede Woche ein neues Kohlekraftwerk ans Netz geht, befinden sich Europa und die USA in der glücklichen Lage, eines innerhalb eines ganzen Jahres zu installieren.

Die Nachfrage nach Kohle wird sich in naher Zukunft nicht ändern. Die IEA schätzt, dass die globale Bevölkerung im Jahr 2035 auf 8,5 Milliarden steigen wird. Das bedeutet eine gewaltige Steigerung der Nachfrage nach Strom. Schon heute ist es traurige Wahrheit, dass 20% der globalen Bevölkerung immer noch keinen Zugang zu elektrischem Strom haben. Der Preisauftrieb durch den CO2-Zertifikatehandel und Kohlesteuern wird die Lage für die Ärmsten nur noch schlimmer machen.

Aber jetzt, wo wir wissen, dass das Verbrennen von Kohle kaum einen merklichen Effekt auf Temperatur und Klima hat (Null-Korrelation), ist es höchste Zeit, unsere Anstrengungen, mehr Kohle zu produzieren, zu verdoppeln, so dass die Nachfrage in der Welt befriedigt werden und bittere Armut damit ein für allemal ausgerottet werden kann.

Pierre Gosselin

Link zu dem oben erwähnten BP-Bericht: hier

Link zu diesem Artikel auf NoTricksZone: hier

Übersetzt von Chris Frey für EIKE




CCS und Dekarbonisierung wegen CO2 ? Viel Lärm um Nichts ! Teuer, gefährlich und kontraproduktiv !

Der CO2-Ge­halt der Luft war in der geologischen Vergan­genheit oft sehr viel höher als heute. Das war für die Biosphäre gut, denn CO2 ist der Grundbau­stoff der Nahrungsmittel. Und weil das so ist, soll­ten wir einen weiteren CO2-Anstieg – so er dann stattfände – nicht fürchten son­dern begrü­ßen: er würde das Pflanzenwachstum verstärken, was die Ernährung von immer mehr Men­schen er­leichtern wird. Was aber tun wir? CO2, der neben dem Wasser wichtigste Lebens­bau­stein, wird geächtet und durch Regie­rungsbe­schluss und Ab­segnung durch das Parla­ment mittels CCS-Tech­nologie unter die Erde verbannt, wodurch für das Leben auf der Erde ein er­hebliches ­Gefahrenpotential entsteht. Der Treibhauseffekt, den der Mensch angeblich mit seiner CO2-Pro­duktion verstärkt und da­mit den Kli­mawandel verursacht, wird von der Politik als Selbstverständ­lichkeit behandelt. Die Wissenschaft soll da­von mehrheitlich überzeugt sein, und es sei nur eine Minderheit, die ihn aus wirt­schaftli­chen Interessen bestreite. Diesen falschen Be­hauptungen muss widersprochen wer­den.

Wenn anthropogenes CO2 mittels verstärktem Treibhauseffekt die Erderwärmung be­schleuni­gen würde, müsste man das auf der Erde merken und messen  können. Man kann es nicht, wie die Fakten belegen: Die Ganglinien der realen Temperaturmessungen in Anlage 1 demonstrieren beispielhaft, dass die Erwärmungen im vorindustriellen Zeitalter zum Teil stärker waren und schneller er­folgten als seit 1950, als wir begannen, mehr Kohle, Öl und Gas zu verbrennen und damit CO2 zu produzieren und in die Luft zu entlassen. Statt einer verstärkten Erwärmung, die das CO2 hätte bewirken sollen, folgte bis 1980 eine Abkühlung, die sich nach einer ca. 15 Jahre andauernden zwischenzeitlichen Warmphase schon ab etwa 1998 wieder fortsetzt. Die Mehrheit der Stationen meldet eine neue Abkühlung, der CO2-Gehalt steigt gegenwärtig trotzdem noch an (Anlage 2). Dass die Wissenschaft mehrheitlich  von dem Modell – mehr CO2 beschleunigt die Erwärmung, die wiederum lässt den CO2-Gehalt weiter steigen – überzeugt ist, stimmt nicht, wie man mit den Stichwörtern CO2-Lüge oder Klimaschwindel oder Klimalüge schnell ergoogeln kann. Die Medien unterstützen mit Bildern diesen Zeitgeist nach Kräften: Grauer Smog über Städten, weiße Wolken aus Kühltürmen, schwarzer Rauch aus Schornsteinen sollen die Gefahr CO2 illustrieren! CO2 ist bekanntlich unsichtbar und geruchlos! Wir atmen CO2 ständig ein und aus – kann man es sehen? Nur Fehlanzeige oder bewusste Indoktrination?

Wer als interessierter Laie die öffentliche Diskussion zur Bedeutung des CO2 für unser Klima verfolgt, muss den Eindruck gewinnen, als hätte es einen großen Anteil an der Atmosphäre und wäre außerordentlich wirksam. Er ist in der Regel überrascht, wenn ihm die Zusammensetzung der Luft erläutert wird, dass sie nämlich zu 78% aus Stickstoff und 21% aus Sauerstoff besteht, und dass CO2 neben den anderen Spurengasen nur einen sehr kleinen Anteil hat. In der geologi­schen Vergangenheit war der Anteil von CO2 wesentlich größer, und unabhängig davon wech­selten Warm-, Kalt- und Eiszeiten miteinander ab. Der CO2-Gehalt ist variabel und nimmt ge­genwärtig zu: für 2011 wird sein Anteil mit 0,039 % (= 390 ppm) angegeben. Er ändert sich von Natur aus immer, weil die oberirdischen Vulkane und untermeerischen Förderschlote mal mehr, mal weniger CO2 liefern, weil die Ozeane mal mehr, mal weniger absorbieren oder wieder emit­tieren, und weil die Pflanzen und Tiere der Biosphäre je nach dem sich immer ändernden Klima mal mehr, mal weniger aufnehmen, um sich zu ernähren und nach ihrem Absterben durch die Verwesung wieder in die Luft entlassen.

CO2 befindet sich in einem Naturkreislauf, der gegenwärtig ca. 210 Gt/a C (Gt/a C – Gigaton­nen Kohlenstoff im Jahr) beinhaltet. An diesem Kreislauf ist auch der Mensch durch seine Er­nährung und At­mung – und seit einigen Jahrzehnten auch durch seine Industrie – betei­ligt, und zwar mit etwa 10 Gt/a C, kaum 5% der vorgenannten Gesamtmenge. Der Anteil Deutsch­lands an den 5% beträgt derzeit ca. 3%, mit abnehmender Tendenz.

Die CO2-Konzentration der Luft wächst gegenwärtig jährlich mit ca. 0,0002% (2 ppm). Sie  stammen teils aus unseren Emissionen, teils aus natürlichen Quellen, wie schon erwähnt. Der CO2-Ge­halt der Luft und der Ozeane unterliegt mehreren Gleichgewichten: beispielsweise tritt CO2 aus den Ozeanen in die Atmosphäre über, oder wird von einer wachsenden Biosphäre zu­sätzlich auf­genommen – oder freigesetzt. Diese Zustandsänderungen erfolgen mit unterschied­lich langer Verzögerung: wenn sich die Ozeane in vielen Jahren erwärmen, beginnt ihre Entga­sung nach Jahrzehnten, und es braucht Jahrhunderte, bis sich das neue Gleichgewicht eingestellt hat. Diese Änderung wirkt sich auf andere Gleichgewichte aus – was bedeutet, dass praktisch nie ein End­zustand erreicht ist und immer „alles fließt“. Alle diese Prozesse können in diesem Rah­men nicht detailliert erläutert werden.

Wir kennen nur den CO2-Anteil, den wir selbst in die Luft entlassen, aber was wann daraus wird und was zusätzlich aus anderen Quellen hinzukommt oder von Verbrauchern wieder aufge­nommen wird, ist unbekannt. Dazu ein Beispiel: Sehr viele Pflanzen und Tiere über und im Was­ser sind mit CO2 unterversorgt – beispielsweise liegt das Optimum für Weizen bei ca. 1000 ppm; wenn also die Atmosphäre CO2 aufnimmt, kommt es seinem Wachs­tum zu Gute – und wird der Luft wieder entzogen. Gegenwärtig emittiert allein der Ätna täg­lich ca. 35.000 Tonnen CO2; wie viel das vor 100 Jahren war, ist unbekannt, und ob diese Menge zukünftig abnimmt oder zu­nimmt, ist nicht voraussagbar. Der Ätna ist gegenwärtig zwar der produktivste CO2-Lieferant, aber es gibt oberirdisch viele andere und auf dem Ozeanboden noch sehr viel mehr davon.

Die wechselvolle Erd- und Klimageschichte ist 4,5 Milliarden Jahre alt. Aus geologischer Sicht kann man nur staunen, wie schon Änderungen weniger Jahre Klimaforscher ermuntern, Modelle zu entwickeln, Berechnungen anzustellen und Voraussagen zu wagen – nicht nur zum CO2-Haus­halt der Erde. Lei­der bleiben solche Szenarien keine akademischen Übungen, sondern werden publiziert, um von den Medien und der Politik propagandistisch in­strumentalisiert zu werden.

Nach der Empfehlung des IPCC und des WBGU soll die Globaltemperatur um nicht mehr als 2°C ansteigen, anderenfalls wären Klimakatastrophen nicht mehr zu verhindern. Die Fakten be­weisen, dass dieses ‚2°-Ziel’ der Poli­tik „un­sinnig“ ist, wie schon 2009 die Leiter des Geofor­schungszentrums Potsdam, des Alfred-Wegener-Instituts Bremer­haven und des Senckenberg-Museums Frank­furt/Main (Prof. Dr, Hüttl, Prof. Dr. Lochte, Prof. Dr. Moosbrug­ger) als führende geowissen­schaftliche Forschungsin­stitute Deutschlands in einem gemeinsamen Interview be­gründet und geurteilt haben.

Es ist wichtig zu wissen, dass CO2 nicht schädlich oder gar giftig ist, wie oft zu lesen und zu hören ist – und wie Schulkinder lernen müssen. Tatsächlich ist CO2 so wenig giftig wie Was­ser; es ist nur schwerer als Luft, und in einer CO2-gefüllten Mulde fehlt, wie unter Wasser, die Luft zum Atmen. Wasser kann man sehen, und man nimmt sich in acht. Das CO2 ist jedoch unsicht­bar, und in abflusslosen Mulden kann es eine Todesfalle sein. Deshalb gibt es Erstickungsun­fälle, nicht selten mit schlimmen Folgen, wie Anlage 3 zeigt: ein CO2-Ausbruch forderte in Ka­merun 1700 Todesopfer. CO2-Ausbrüche können sehr gefährlich sein, und deshalb ist die CCS-Technologie äußerst riskant, vor allem natürlich in dicht bewohnten Gebieten.

Wie fehlgeleitet der WBGU handelt, wird klar, wenn man sich mit der Frage ‚Dekarbonisie­rung‘ – ‚Entkoh­lenstoffung‘ seriös befasst. Beim WBGU scheint keiner zu wissen – oder nicht berücksichtigen zu wollen, dass

1)       unsere CO2-Produktion nur wenige Prozent des natürlichen CO2-Kreislaufes ausmacht, dass

2)       CO2  die Grund­lage des Lebens auf der Welt ist: mit­tels Pho­to­synthese pro­duzieren die Pflanzen aus CO2 und Wasser den Grundbaustoff aller Nahrungsmit­tel, und Pflan­zen und viele Tierarten benötigen CO2, um Holz und Skelette bil­den zu können, so wie auch unser Körper zu 9% aus Kohlenstoff besteht; dass

3)       der CO2-Gehalt der Atmosphäre in der geologischen Vergangenheit sehr viel höher war als heute, was der Biosphäre gut bekommen ist;  dass

4)       es trotz dieser sehr viel höheren CO2-Gehalte Eiszeiten gegeben hat, deren Gletscher bis zum 38. Breitengrad reichten, dass sich

5)       die Produktivität unserer Pflanzenwelt, einschließlich der Getreidesorten, mit einem höhe­ren CO2-Gehalt der Atmosphäre verbessert, weshalb Treibhäuser mit CO2 begast werden, dass

6)       die Annahme, der Klimawandel werde durch uns verursacht, nie bewiesen wurde bzw. nicht beweisbar ist und nur auf Klimasimulationsmodellen beruht, während die realen Temperaturmessungen klar das Gegenteil beweisen – wie  die genannten Temperatur­ganglinien.

Der vom WBGU vorgeschlagene Weltklimavertrag basiert folglich auf einem Phantom.  Dass völlig unrealistische Modelle nicht zum ersten Mal die Politik bestimmt haben, und dass Wissen­schaftler diese schon zu allen Zeiten begründet und verteidigt haben, ist nicht neu – oft aus Existenzgründen, und nicht selten aus Eigennutz.  Die bisherigen Diktaturen wurden auf diese Weise installiert – was sie angerichtet haben, ist bekannt. Die Realisierung eines Weltklimaver­trages würde ebenfalls eine Diktatur erfordern – und der WBGU fühlt sich im Namen Deutsch­lands unbeschadet der von uns zu verantwortenden Katastrophen berufen, ihn zu konzipieren und der Weltöffentlichkeit über den UN-Sicherheitsrat anzudienen? Und diese Aktivitäten werden noch mit öffentlichen Geldern bezahlt!

Auf diesem Erkenntnishintergrund müssen die Gutachten des WBGU eingeordnet werden. Zum vorgeschlagenen Weltklimavertrag mit dem Ziel einer Dekarbonisierung könnten Zyniker sagen, diese Empfehlung ließe sich am leichtesten mit einem totalen Boykott der Nahrungsauf­nahme erreichen – was allerdings ohne wesentlichen Effekt auf das Klima bliebe, denn selbst ein kollektiver Selbstmord der Erdbevölkerung würde die CO2-Bilanz der Erde nicht fühlbar beein­flussen.

In der Tat: beim Lesen der Zusammenfassung für Entscheidungsträger“ wird besonders der durch Diktaturen sensibilisierte Leser von blankem Entsetzen gepackt. Haben die für geowissen-schaftli­che Fragestellungen überwiegend unsachverstän­digen Mitglieder des Beirates die Konse­quenzen des Weltklimavertrages zuende gedacht?  Der Text lässt das nicht erkennen. Prof. Schellnhuber, der Vorsitzende des Beirates, hat in der Physi­cal Review als Ergebnis seiner wis­senschaftlichen Auswertung und Analyse von Klimadaten richtigerweise festgestellt, dass Anzei­chen für eine Erwärmung der Atmosphäre nicht gefunden wurden – was impliziert, dass auch das CO2 bedeutungslos ist; Quelle und Zitat sind als Anlage 4 beigefügt. Auf welchem ethisch-mo­rali­schen Konzept und auf welcher Seriosität basiert dieser Beirat, wenn der Vorsit­zende das Ge­genteil seiner Arbeitsergebnisse zum Fundament seiner geopolitischen ­Schluss­folgerungen macht, d.h. das Phantom CO2 benutzt, um das Leben der Menschheit zu organisie­ren. Orientiert sich Herr Schellnhuber an Karl Marx?: „Die Philo­sophen haben die Welt nur ver­schieden inter­pre­tiert, es kommt darauf an, sie zu verändern“.  Nach diesem Gebot ist für Veränderungen eine Ideologie zuständig, und deren Vertreter haben diese Entwicklungskette zu realisieren: „Die Par­tei organisiert den Klassenkampf und die Revolution – Im Besitz der Macht hat die Partei immer Recht, bestimmt, was Wissenschaft ist,  und lässt ihr Politbüro den Aufbau einer humanen Ge­sellschaft planen.“

Für die Länder in einem ‚Sechstel der Erde’ wurde dieses Gesellschaftsmodell zwischen 1917 und 1950 Realität; der Versuch, für die Menschen eine bessere Welt zu schaffen, schlug fehl – die triste Praxis ist noch in Nordkorea zu besichti­gen. Wo sich dagegen die Welt  nach dem Prin­zip Versuch und Irr­tum in Wissenschaft, Technik und Wirtschaft  entwickeln konnte, durften immer mehr Menschen zu eini­germaßen akzeptablen Bedingungen leben – nicht ohne Fehler und Ungerechtigkeiten, aber ohne planende Instanz und Reglementierung, und vor allem ohne Ges­tapo und KZ und ohne KGB und GULAG. Hat die Bundesre­gierung als Auftragge­ber des WGBU noch nicht verstanden, dass es höchste Zeit ist, die auf dem Phantom CO2-Einfluss  ge­grün­deten schlimmen Empfehlungen dahingehend zu prüfen, ob sie mit dem ­Grundgesetz ver­einbar sind? Der WBGU wird aus öffentli­chen Mitteln bezahlt, hat der Auftrag­geber keine Pflicht zu kontrollieren? Da die Bundes­regierung umsetzt, was IPCC und PIK einflüs­tern, be­steht die Sorge zu recht, sie könnte auch seine Vorschläge zur Neuorganisierung der Welt befol­gen. In diesem Falle wäre Artikel 20 des Grundgesetzes involviert, und hier beson­ders der Ab­satz 4:

(1)  Die Bundesrepublik Deutschland ist ein demokratischer und sozialer Bundesstaat.

(2)  Alle Staatsgewalt geht vom Volke aus. Sie wird vom Volke in Wahlen und Abstimmun­gen und durch besondere Organe der Gesetzgebung, der vollziehenden Gewalt und der Rechtsprechung ausgeübt.

(3)  Die Gesetzgebung ist an die verfassungsmäßige Ordnung, die vollziehende Gewalt und die Rechtsprechung sind an Gesetz und Recht gebunden.

(4)  Gegen jeden, der es unternimmt, diese Ordnung zu beseitigen, haben alle Deutschen das Recht zum Widerstand, wenn andere Abhilfe nicht möglich ist.

Warum wurde überhaupt eine durch den Treibhauseffekt des CO2 ausgelöste Erderwärmung angenommen? Zur Erinnerung: Wissenschaftler befürchteten während einer Abkühlungsphase in den späten 1970er Jahren noch eine neue Eiszeit!  Wenige warme Sommer reichten aus, die Meinung zu ändern. Plötzlich wurde ein globaler Klimawandel  befürchtet. Nur weil der Welt­klimarat (IPCC) und bei uns das Pots­dam Institut für Klimafolgenforschung (PIK) die Tempe­raturdaten erst ab 1860 berück­sichtigten und die älteren Daten nicht zur Kenntnis nahmen, kam man wegen eines angeb­lich schnelleren Temperaturanstieges im 20. Jahrhundert auf den Gedan­ken, es gäbe ei­ne vom Menschen verursachte ‚Erderwärmung’. Schon die Wahl dieses Begriffes demonstriert die eklatante Unkenntnis geophysikalischer Grundlagen: unter der Erdoberfläche steigt die Bodentemperatur, und je nach Klimaregion ist in wenigen 10 Me­tern Tiefe unter unse­rem Boden die mittlere Jahrestemperatur erreicht. Von dort wird es mit zunehmender Tiefe wärmer, und zwar mit durchschnittlich 3°C je 100m. Bis zum Mittelpunkt der Erde sind es dann noch 6378 km. Was immer CO2 bewirken kann – eine ‚Erderwärmung’ mit Sicherheit nicht.

Wie schon gesagt: Die Klima- und CO2-Geschichte der Erde ist 4,5 Mrd. Jahre alt. Wer die Entwicklung des Klimas auf der Grundlage der Daten von nur 130 Jah­ren beurteilt, kennt entwe­der die Klimage­schichte nicht, vor allem die der letzten 1000 Jahre, oder handelt zweckbe­stimmt. Alte Wetterberichte, die 994 beginnen, ver­zeichnen für das Mittelalter besonders viele sehr heiße Jahre. Einige Beispiele (aus Das schöne Allgäu, Heft 4, 2007):

1185 – War der Winter so mild, dass im Mai das Getreide und im August der Wein reif waren.

1186 – Im Januar standen die Gärten in schönster Blüte, im Februar trugen die Apfelbäume

            Früchte. Das Getreide reifte im Mai und im August die Trauben.

1229 – War wiederum ein sehr milder Winter. Zu Weihnachten blühten die Veilchen

1241 – Wurden im März bereits Kirschen auf den Märkten feilgeboten.

Bekanntlich wurde in dieser Zeit in Grönland Ackerbau betrieben und waren die Alpenglet­scher stark zurückgetaut. Weltweit war weniger Wasser im Eis gespeichert und der Meeresspie­gel war einige Meter höher, was trockengefallene Korallenriffe beweisen: sie konnten bis zum früher höheren Meeres­spiegel wachsen, reichen heute aber in vielen Regionen der Erde bis ei­nige Meter darüber hin­aus, weil sich der Meeresspiegel infolge globaler Abkühlung absenkte. Im Mittelalter war es also deutlich wärmer als in den letzten Jahrhunderten, einschließ­lich Gegen­wart.

Mit exakten Messungen der Temperatur wurde 1659 begonnen. Die Lang­zeit-Temperatur­rei­hen, die 1659 beginnen, zeigen wechselweise aufeinanderfolgende Abküh­lungs- und Erwär­mungs­phasen von wenigen bis einigen Zehntel Grad an, wie die Beispiele in Anlage 1 zeigen. Ein wirklicher Klima­wandel ist nicht zu erkennen, denn dazu müssten die Un­terschiede mindes­tens einige Grad betragen. Die Tempera­turschwankungen wa­ren in der vorindustriellen Zeit oft stärker und erfolg­ten schneller, und da­mals spielte das von uns Menschen und der In­dustrie in die Luft ent­lassene („anthropo­gene“) CO2 noch keine Rolle. Außerdem: Die markante Er­wär­mungsphase zwi­schen 1920 und 1950 fand vor der vom Menschen verursachten Produk­tion von CO2 statt. Da die Ursache immer der Wirkung vorangeht, ist bewiesen, dass „unser CO2“ als Klimafak­tor unbedeutend ist. Die Anlage 5 zeigt die der wechselnden Solaraktivität folgende Temperaturentwicklung und den Be­ginn des verstärkten Verbrauchs von Kohle, Öl und Gas; bei der Interpretation dieser Darstel­lung ist der unterschiedliche Maßstab der beiden Temperaturach­sen zu berücksichtigen ­­– die scheinbar starke Erwärmung im unteren Teil der Grafik wird da­durch erheblich kleiner.

Das letzte Jahrzehnt war nicht das wärmste seit Beginn des In­dust­rie­zeitalters, wie PIK be­hauptet, denn zwischen 1995 und 2005 hat in den meisten Regionen der Erde eine neue Abküh­lungsphase be­gonnen, die noch andauert und zum Teil sehr kräftig aus­fällt, wie die in Anlage 6 dargestellten Beispiele bezeugen.

Ein vom Menschen verursachter Klimawandel wird nicht – wie in den Medien dargestellt – nur von einer Minderheit bestritten. Die Wirklichkeit ist umgekehrt. Es ist die absolute Mehrheit, die den Klimawandel be­streitet. In Deutschland weiß das allerdings kaum einer, weil selektiv und tendenziös berichtet wird. Dafür zwei Beispiele. ‚Selektiv’: 2009 fand in New York mit ca. 800 Teilnehmern, u.a. dem Tschechischen Staatspräsidenten und aner­kannten Wissenschaftlern, eine Internationale Konferenz der Klimarealisten statt – bei uns konnte man dar­über weder aus der Presse noch aus dem Radio oder Fernsehen irgend etwas er­fahren, es wurde totgeschwiegen. ‚Tendenziös’: Die öffentlich-rechtlichen Medien gefallen sich vielmehr darin, mit Horrorszenen einen vom Menschen verursachten Klimawandel zu suggerieren, zuletzt noch z. B. die „Neue Westfälische“. Sie überschreibt am 13.07.2011 ihren Hauptartikel auf Seite 2: „Die Na­tur schlägt teuer zurück“ und illustriert das auf einer Weltkarte mit Erdbe­ben, Tsu­nami, Über­schwemmungen etc. Damit schlägt die Natur nicht zu­rück, denn Erdbeben etc. verursa­chen we­der wir noch das Klima – der Vulkanausbruch auf der indonesi­schen Insel Sulawesi de­monstriert das ge­rade. Dass Schäden, auch Versicherungsschäden, grö­ßer wer­den, ist eine Folge der wach­senden Bevölkerung, falscher Besiedlung und Bauweisen und haar­sträu­ben­der Umwelt­schäden. Dagegen lassen sich z. B. mit einem angemes­senen Deichbau Opfer vermeiden, auch in Pakistan.

Dem aufmerksamen und kritischen Beobachter drängen sich demgegenüber wirtschaftliche Interessen der Agitatoren für Klimawandel und Klimaschutz auf. Das IPPC hat in einem seiner frühen Be­richte festgestellt, dass das Wetter ein nicht-linearer chaotischer Prozess ist, der keine Vor­aussa­gen für die Entwicklung des Klimas erlaubt. Das stimmt! Demzufolge erforschen IPCC, PIK und andere Institutionen die zukünftigen Folgen von etwas, was man nicht voraussagen kann. In logischer Konsequenz dieser Erkenntnis hätten diese Institutionen ihre Tätigkeit einstel­len müssen. Statt dessen blüht die Erstellung von Computer-Szenarien – eine dem Computer-Zeitalter angepasste Art von Alchemie. Wer hat davon Vorteile? Klimawandel-Bürokratie und Klimawan­del-Forschung sind Institutionen, die mit Voraussagen für eine nichtvoraussagbare Zukunft dafür sorgen, dass ihnen die Arbeit nicht ausgeht, mit der sie auf Kosten der Steuerzah­ler gut leben. In den letzten Jahrzehnten hat man gelernt, dass man im Wege des Klimawandel-Konferenztourismus auf komfortable und einträgliche Weise die Welt kennen ler­nen kann. Und schließlich hat sich eine Indust­rie etabliert, die mit sog. Kli­maschutz gut verdient.

Das von der EU wie ein Staatsziel beschlossene CCS-Projekt beruht also auf einem Phantom, denn erstens gibt es den glo­balen Klimawandel nicht, und zweitens hat das CO2 auf das Klima keinen merkbaren Ein­fluss – jedenfalls lassen die aus den Langzeit-Temperaturreihen herge­stellten Ganglinien keinen Einfluss erkennen – oder: die gegenwärtige Temperaturentwicklung unterscheidet sich nicht von der in der vorindustriellen Zeit (Anlage 1). Das CCS-Projekt ist also völlig unnütz, und auch noch kontraproduktiv: Es ist unnütz, weil es keine Wirkung haben kann; und es ist kontraproduktiv, weil es nicht zur besseren Nutzung der Primärenergien führt, sondern im Gegenteil die nutzbare Energie­ausbeute der Kohle- und Gaskraftwerke verringert, denn die Abtrennung und Verflüssi­gung des CO2 sowie der Bau von Leitungen und Anlagen ist auf­wen­dig. Was aber noch wichti­ger ist und entscheidend sein sollte, ist sein mögliches Risikopotential: Wenn man CO2 mit dem beabsichtigten hohen Druck von 250 bar in geschichteten Fels ein­presst, können durch den Druck noch geschlossene Schicht- und Kluftflächen aufgepresst wer­den (Anlage 7). Das CO2 steigt dann bis zur Erdoberfläche auf, tritt dort aus und kann sich in Geländemulden sammeln, weil es schwerer als Luft ist. Das ist gefähr­lich, denn CO2 ist geruch­los, wird deshalb nicht bemerkt und kann zu Erstickungsunfällen führen. Eine andere Gefahr besteht, wenn man es in großen Mengen – anders machte der technische Aufwand keinen Sinn – in einen Felsuntergrund mit einer dichten Zwi­schenschicht einpresst. Es könnte zwar zunächst nicht entweichen, würde aber den Spannungszustand und damit die Stabilität gegen Erdbe­ben verändern. Schließlich kann das Grund­wasser chemisch beein­trächtigt werden, wenn das CO2 in  ein chemisch reagierendes Gestein eingepresst wird.  Das CCS-Projekt ist nur dann anwend­bar, wenn man das CO2 in entleerte Erdgaslagerstätten gepumpt werden kann.

Der CO2-Gehalt der Atmosphäre war erdgeschichtlich gesehen selten so niedrig wie gegen­wär­tig. Warum soll also ein etwas höherer CO2-Gehalt schädlich sein? So wie jetzt schon Treib­häu­ser mit CO2 begast werden, wäre ein größerer CO2-Gehalt der Atmosphäre wün­schenswert, um das Pflanzen­wachstum zu fördern, denn immer mehr Menschen brauchen mehr Nahrungs­mittel, und für ihre Bildung benötigt die Pflanze CO2 – das Klima wird da­durch nicht verän­dert. Wir müssen die Umwelt schützen, das Klima wird von der Sonne be­stimmt!

Die in Deutschland beschlossenen und noch konzipierten Maßnahmen zum angeblichen Klimaschutz und die völlige Umgestaltung der Energiewirtschaft kosten Hunderte von Milliarden – und wahrscheinlich mehr – niemand kann das heute zuverlässig abschätzen. Sie sind bar jeder sachlich begründbaren Vernunft. Das globale Klima können wir nicht schützen, das bestimmt seit 4,5 Mrd. Jahren die Sonne.  Was wir aber dringend brauchen und erreichen können – und müssen, ist Umweltschutz! Und darin sollte investiert werden – beispiels­weise in erdbebensichere Bauweisen, Deichbau gegen Überschwemmungen, die Vermei­dung der Bebauung von Hanglagen, die bei größeren Niederschlägen instabil wer­den und ganze Siedlungen abrutschen lassen, die geordnete Aufforstung von gerodeten Urwäl­dern, oder die Verbesserung der Wasserversorgung für Trockengebiete – Wasser hat die Erde genug, seine Aufbereitung und Bereitstellung sind möglich, wenn auch teuer. Alle diese Arbeitsfelder schaffen überall Arbeitsplätze. Wir haben genug richtige und wichtige Auf­gaben, in die zu investieren sich lohnt – und die sind erforderlich. Klimaschutz und CO2-Verpressung sind sinnlose Maßnahmen, denn sie verbessern nichts und sind kontra­pro­duktiv, denn sie verschwenden Geld, das den nötigen Maßnahmen entzogen wird und sie deshalb verhindert.

Prof. Dr. F-K. Ewert EIKE

Zum Schluss noch zwei Zitate zum Thema:

Die gefährlichste Weltanschauung ist die Weltanschauung derjenigen, die sich die Welt nicht angeschaut haben. (Alexander von Humboldt)

Natur! Wir sind von ihr umgeben

und umschlungen – unvermögend,

aus ihr herauszutreten, und

unvermögend, tiefer in sie hineinzu-

kommen. …….

Wir leben mit ihr, und sind ihr fremde.

Sie spricht unaufhörlich mit uns, und

verrät uns ihr Geheimnis nicht.

Wir wirken beständig auf sie,

und haben doch keine Gewalt über sie.

(Johann Wolfgang von Goethe)

Anlage 1:  Beispiele Temperaturganglinien: Mittelengland, Berlin, De Bilt, Uppsala St.Petersburg,  Stockholm, Paris

Anlage 2: Der CO2-Gehalt der Atmosphäre steigt trotz Abkühlung weiter


Anlage 3: Beispiele für kleine CO2-Ausgasungen und große CO2-Ausbrüche

Anlage 4:   Auszüge aus einer von Prof. Schellnhuber als Mitautor publizierten Arbeit
PHYSICAL REVIEW E 68, 046133 ~2003!
Power-law persistence and trends in the atmosphere: A detailed study of long temperature records
J. F. Eichner,1,2 E. Koscielny-Bunde,1,3 A. Bunde,1 S. Havlin,2 and H.-J. Schellnhuber4
1Institut für Theoretische Physik III, Universität Giessen, D-35392 Giessen, Germany
2Minerva Center and Department of Physics, Bar Ilan University, Ramat-Gan, Israel
3Potsdam Institute for Climate Research, D-14412 Potsdam, Germany
4Tyndall Centre for Climate Change Research, University of East Anglia, Norwich NR4 7TJ, United Kingdom
~Received 12 December 2002; published 28 October 2003!
We use several variants of the detrended fluctuation analysis to study the appearance of long-term persistence
in temperature records, obtained at 95 stations all over the globe. Our results basically confirm earlier studies.      We find that the persistence, characterized by the correlation C(s) of temperature variations separated by s days, decays for large s as a power law, C(s);s2g . For continental stations, including stations along the coastlines, we
find that g is always close to 0.7. For stations on islands, we find that g ranges between 0.3 and 0.7, with a maximum at g 50.4. This is consistent with earlier studies of the persistence in sea surface temperature records where g is close to 0.4. In all cases, the exponent g does not depend on the distance of the stations to the continental coastlines. By varying the degree of detrending in the fluctuation analysis we obtain also information about trends in the temperature records.
~iii! In the vast majority of stations we did not see indications for a global warming of the atmosphere. Exceptions
are mountain stations in the Alps [Zugspitze (D), Säntis (CH), and Sonnblick (A), where urban warming can be excluded. Also, in half of the islands we studied, we found pronounced trends that most probably cannot be attributed to urban warming. Most of the continental stations where we observed significant trends are large cities where probably the fast urban growth in the last century gave rise to temperature increases.
Anlage 5:  Sonnenaktivität, Temperaturschwankungen und Verbrauch von Öl und Gas im  20. Jahrhundert.

Anlage 6: Neue Abkühlung nach 1990, repräsentative Auswahl

Anlage 7: Aufpressen von Schicht- und/oder Kluftflächen, Einlagerung von Flüssigkeiten oder Gasen, im dargestellten Fall wurden geschlossene Schieferflächen bei einem Druck von 10 bar aufgepresst und dann mit Zementsuspension verfüllt; CO2 soll mit ca. 250 bar eingepresst werden

Related Files




Nongovernmental IPCC stellt Update zum Stand der Klimaforschung vor.




Teil 1: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Die Sonne bestimmt den Temperaturgang

Wir alle kennen die Hauptargumente in der Diskussion der sog. menschen-gemachten Klimaerwärmung. Eines davon sei die Tatsache, dass globale Temperatur und Sonnenaktivität seit etwa Mitte der 1970-Jahre nicht mehr synchron laufen würden und sich die Erdtemperaturen von der Sonnenaktivität abgekoppelt hätten und folglich als Ursache dieser Erwärmung zum Ende des 20. Jahrhunderts, bis kurz nach der Jahrtausendwende (bis ca. 2003, Anmerkung: Seitdem gehen die Temperaturen zurück) nur sog. Treibhausgase, allen voran CO2 verantwortlich wären. Der Bericht des Autors wird Ihnen zeigen und wissenschaftlich darlegen, dass diese Aussage falsch ist und der Temperaturgang auf der Erde einzig durch die Sonne bestimmt wird. Die Beeinflussung erfolgt direkt, sowie indirekt über die Wolkenbildung (z.B. Svensmark-Effekt). Über die bekannten Einflüsse, gibt es weitere Einflussfaktoren, die Inhalte dieses Artikels sind:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

Sie werden erfahren:

· Was und worauf der (moderate) Temperaturanstieg, der sich in der Abbildung 1 wiederfindet, über ClimateGate hinaus, anhand solarer Aktivitätsschwankungen zurück zu führen ist

· Wie die Sonne in ihrem Innern nach dem heutigen Kenntnisstand aufgebaut ist und was ihre Aktivitätsschwankungen, wie steuert

· Die Sonnenaktivität die Hurrikan- und Tornadoaktivität steuert – wann mit starker Hurrikan- und Tornadoaktivität zu rechnen ist

· Was die Eisbedeckung in der Arktis und Antarktis, sowie die Gletscherentwicklung am Beispiel der Alpen bestimmt

· Wie und in welche Richtung sich die Temperaturen und damit das Klima in den nächsten 40 Jahren, 200 Jahren und 2.000 Jahren anhand gültiger Sonnenparameter entwickeln und wann mit einer nächsten großen Vereisungsepoche auf der Nordhalbkugel zu rechnen ist. Wobei eine Fortführung der dynamischen und zyklischen Sonnenparameter, die im Innern der Sonne entstehen, angenommen wird

 

Abbildung 1 (Quelle: Stanford Solar Center) zeigt den mittels Thermometern erfasste und gemittelten, globalen Temperaturanstieg (rote Kurve), die blaue Kurve zeigt die Entwicklung der CO2-Konzentration in der Atmosphäre und die beiden unteren Kurven die Sonnenzyklen und die (über 5 Jahre geglättete) gemittelte Sonnenfleckenkurve, jeweils im Zeitraum von 1850 bis 2007. Sie soll anhand des ausgewählten solaren Parameters, der Sonnenfleckenzahl darlegen, dass Sonnenaktivität und Erdtemperatur(en) nicht mehr synchron laufen würden.

In einem meiner letzten EIKE-Berichte hier, hatte ich bereits aufgezeigt, dass das Temperaturgeschehen El Niño-basiert ist und El Niño, wie seine „Schwester“ La Niña durch die Sonnenaktivität ausgelöst werden. Hierzu dienten teilweise bisher nicht angewandte Sonnenparameter, die in Korrelation zum Temperaturgang der letzten 30 Jahre gesetzt wurden und signifikante Übereinstimmung zeigen. In diesem Bericht möchte der Autor daran ansetzen und zeigen, wodurch diese Schwankungen auf der Sonne ausgelöst werden.

Besser zur Betrachtung der Sonnenaktivität, als die Sonnenfleckenzahl (warum, wird Ihnen der Autor anhand des inneren Aufbaus der Sonne noch zeigen) eignet sich zur Bewertung der solaren Aktivität die direkte magnetische Aktivität der Sonne. Seit dem Satellitenzeitalter stehen noch weitere Parameter für die variable Sonne als beispielsweise die Sonnenfleckenzahl zur Verfügung, die von der Erde aus nicht beobachtbar sind. Ein bedeutsamer Parameter ist die Korona der Sonne. Wie die folgende Abbildung zeigt, springt die Koronatemperatur scheinbar unvermittelt auf annähernd ihren doppelten Temperaturwert.

 

Abbildung 2 (http://rst.gsfc.nasa.gov/Sect20/A5a.html) zeigt die Koronatemperatur im Zeitraum 1991 – 2007, aufgenommen mit SWICS (Solar Wind Ion Composition Experiment) der Sonnensonde Ulysses.

Hat dieses Zuschalten der Koronaturboheizung, die nahezu Verdopplung der Koronatemperaturen von 1 Million Kelvin auf nahezu 2 Millionen Kelvin Auswirkungen auf das irdische Wetter und hier insbesondere auf El Niño/La Niña-Ereignisse? Hierzu werden die El Niño-Ereignisse in Relation gesetzt.  

Die Zeitreihe oben (Abbildung 3) zeigt den El Niño 3.4, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird. Die mittlere Zeitreihe die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Koronatemperatur aus Abbildung 2. Die blauen Linien dienen zur Zeitausrichtung der Kurven, die rote Linie zeigt den Sprung der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck, die Zeitspanne vom Einschalten der „Koronaturboheizung“ bis zum El Niño-Maximum.

Nun lässt sich anhand einer Datenbeziehung kein Korrelationsbeweis führen. Daher sollen alle El Niño-Ereignisse in der Datenreihe El Niño 3.4 auf Korrelation zur solaren Aktivität überprüft werden. Der Zeitpunkt ab 1981 ist daher so interessant, da von den Vertretern der CO2-basierten Erwärmung die Aussage gemacht wird, dass bis ca. 1980 Sonnenaktivität und Temperatur synchron laufen, ab 1980 sich die Temperatur aber von der solaren Aktivität abkoppeln würde.

 

Abbildung 4 zeigt die globale Temperaturentwicklung (Bodenstationen) und die Strahlungsleistung (TSI) der Sonne bis 2000, Quelle: MPS, Solanki. Ab ca. 1980 koppelt sich danach die Temperatur vom TSI ab, wogegen sie bis zu dem Zeitpunkt weitgehend synchron laufen. Doch wie realistisch gibt diese Darstellung die tatsächliche solare Aktivität wieder? Koppelt sich die Globaltemperatur von der solaren Aktivität wirklich ab? Darüber hinaus hatte der Autor Ihnen bereits in früheren Artikeln mitgeteilt, dass der TSI (Total Solar Irradiance) eine Mogelpackung ist, da die Satelliten-Messsysteme lediglich den Wellenlängenbereich zwischen 200 nm und 2.000 nm, also den direkten Strahlungsbereich der Sonne, der auf die Erdoberfläche auftrifft, aufzeichnen und die übrigen Energiebereiche der Sonne einfach ausblenden. Unser Wetter wird aber nicht auf der Erdoberfläche, sondern in der Tropos- und Stratosphäre „gemacht“ und dorthin gelangt ein größeres Wellenlängenspektrum der Sonne. Von „Total“ kann demnach beim TSI keine Rede sein!

 

Da, wie bereits geschildert, Beobachtungsdaten über die Korona nur vom Weltraum aus möglich sind und Daten nur für den Zeitraum 1991 – 2007 vorliegen, wird die weitere Datenreihe rekonstruiert, wobei die Zeitabstände sowohl beim Koronaminimum (grüne Rechtecke), als beim Zyklusbeginn Schwabe-Zyklus zum Anstieg Koronatemperatur (kleine blaue Rechtecke) jeweils gleich gehalten werden und dann geprüft wird, inwieweit eine El-Niño-Beziehung zur Korona besteht. Abbildung 5 zeigt, dass nach jedem Einschalten der Koronazusatzheizung ein El Niño ausgelöst wird (rote Rechtecke) und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht.

 

Abbildung 6 (http://www.gao.spb.ru/english/astrometr/index1_eng.html) verdeutlicht, die Sonnenflecken sind nur eingeschränkt zur solaren Aktivität aussagefähig. Während der 23. Zyklus deutlich weniger Sonnenflecken zeigt als seine beiden Vorgänger und dadurch fälschlich abgeleitet wird, die solare Aktivität wäre deutlich niedriger, ist die Höhe der Strahlungsleistung gleich zu seinen Vorgängern. Der Betrag (Flächenintegral) sogar größer.

Die El Niño 3.4-Reihe in Abbildung 5 zeigt, dass im betrachteten Zeitraum, in dem laut IPCC-Anhänger, die Erdtemperaturen von der solaren Aktivität abgekoppelt sein sollen, noch mehr El Niño-Ereignisse stattfanden. Es muss demnach noch mindestens eine weitere solare Aktivität geben, die auf der Erde einen El Niño auslöst. Die Antwort, um welche solare Aktivität es sich handelt gibt die folgende Abbildung. Es ist die unmittelbare magnetische Aktivität der Sonne, ihr Maximum.

Die folgende Abbildung 7 bringt den El Niño 3.4, der für die Entwicklung der Erdtemperaturen steht, den Total Flux, den TSI und die Korona in Relation zueinander.

 

Abbildung 7 zeigt nochmals die Erkenntnisse aus Abbildung 5. Darüber hinaus die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Bleibt noch die Frage zu beantworten, was die grün und rot umrundeten schwächeren El-Niño-Ereignisse auslöst. Die Antwort für das rot-umrundete in 2005 lässt der Autor die NASA und zwar deren Sonnenforscher David Hathaway vom September 2005 geben: “Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum“ (http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm). Die Antwort für die grün umrundeten zeigt die Datenreihe von der Max Planck Gesellschaft und zwar die grüne Datenreihe, die das magnetische Polarfeld der Sonne zeigt. Der Autor möchte Ihnen dieses anhand der Sonnenwindaktivität weiter belegen.

 

Abbildung 8 zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s von (Ausschnitt), Quelle: (http://www.leif.org/research/files.htm). Blau, rekonstruiert, rot, direkt gemessene Werte. Wie noch gezeigt wird, kommt der schnelle Sonnenwind entweder aus dem Nonaxisymmetric Open Flux, dort von starker solarer magnetischer Aktivität (z.B. Koronale Massenauswürfe, Coronal Mass Ejections (CME)) oder aus den polaren Löchern der Sonne. Deren Aktivität wird durch das Polarfeld der Sonne (grüne Datenreihe von der Max Planck Gesellschaft) bestimmt. Werden nun die dort umrundeten Spitzen (starke magnetische Aktivität des Polarfeldes der Sonne) mit den grün-umrundeten Spitzen in der El-Niño-Datenreihe verglichen, so ist Übereinstimmung festzustellen.

Das Max Planck-Institut für Sonnensystemforschung (MPS) nennt diese Aktivität, Coronal Hole associated storms (“Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“) folgende Abbildung.

 

Abbildung 9 zeigt die solare magnetische Aktivität im Zeitraum von 1930 – 2000 (Quelle: MPS).

Abschließend ist festzuhalten, dass El Niño-Ereignisse durch drei solare Ereignisse unmittelbar ausgelöst werden:

1) Dem Einschalten der Koronaturboheizung, wenn deren Temperatur verdoppelt wird

2) Nach jedem Maximum im magnetischen solaren Zyklus

3) Dem Polarfeld der Sonne (schwache El-Niño)

Fehlt noch der „Schulterschluss“ von El Niño, zu den globalen Temperaturen. Dieser ist in Abbildung 11 ersichtlich.

Zur Klimaentwicklung wird meist die globale Temperaturentwicklung herangezogen.

 

Abbildung 10, Quelle: (http://www.climate4you.com/GlobalTemperatures.htm), zeigt die Temperatur-Messergebnisse der NOAA-Satelliten (UAH, University of Alabama, Huntsville) von Januar 1979 bis Dezember 2010 – Globale Monats- und 3-Jahres (37-Monate-Durchschnitt).

Es gilt nun zu zeigen, dass das Auf-und Ab in der Temperaturdatenreihe und ihr Trend, von den oben genannten Sonnenparametern, die auf den El Niño einwirken, abhängen. Es wird noch gezeigt, wie der Hauptsonnenzyklus, der im Mittel 208 jährige de Vries Suess-Zyklus die Richtung der Sonnenaktivität und damit der Erdtemperaturen vorgibt. El Niño, bzw. sein Gegenpart, La Niña sind Klimaereignisse mit weltweiten Auswirkungen. Für beide gibt es verlässliche Datenreihen. Dass ein starkes El Niño-Ereignis bis nach Europa Auswirkungen hat und dort klirrende Kälte bringt, hat bereits Prof. Brönnimann (ETH-Zürich) nachgewiesen. (Spektrum der Wissenschaft 03/05, “Pazifik ließ Europa frieren"). So war laut WMO 2010 (starker El Niño) ein vergleichsweise warmes Jahr, obwohl Europa unter einem langen und kalten Winter litt und auch der Sommer bei uns „ausfiel“.

 

Abbildung 11 oben zeigt die Temperaturdatenreihe aus Abbildung 10. Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa, die keinerlei Übereinstimmung mit dem Temperaturgang aufweist. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El-Niño-Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen.

 

Abbildung 12 zeigt die El Niño-Gebiete.

Die Messdaten zeigen, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies nichts zu tun, sondern einzig mit der dynamischen Sonne. Die vorliegenden Korrelationen zeigen, dass alle El Niño-Ereignisse im Betrachtungszeitraum durch die solare Aktivität unmittelbar ausgelöst werden. Sie lassen somit den Schluss zu, dass die globalen Temperaturen einzig auf die Sonne zurückzuführen sind. Auf ihre direkten und indirekten Einflüsse, wie noch gezeigt wird.

Bleibt noch die Frage zu klären, wodurch die gezeigte Sonnenaktivität ihren Einfluss sozusagen umsetzt. Hier geben die Antwort, die Passatwinde (englisch: Trade Winds), also die Großraumwetterlage, die durch die Hadley-Zellen bestimmt wird. Die Passatwinde sind ein beständiges Windsystem, welches sich auf beiden Seiten des Äquators bis zum 24 Breitengrad ausbildet. Es liegt damit im Bereich der Hadley-Zellen und unterteilt sich in den Nordost-Passat (Nordhalbkugel) und in den Südost-Passat (Südhalbkugel). In der Wissenschaft ist unstrittig, dass die Passatwinde durch die Sonne entstehen und ihre Ausbildung und Stärke von der Sonnenscheindauer und -Stärke abhängt. Durch erwärmte, aufsteigende Luftschichten (Tiefdruckgebiet entlang der innertropischen Konvergenzzone) die an der Tropopause vom Äquator weg strömt und ca. 30° Nord oder Süd wieder zu Boden fällt (Hochdruckgebiet) entsteht ein Druckgefälle, wodurch es zu Ausgleichströmungen zwischen den Hoch-/Tiefdruckgebieten kommt. Durch die Corioliskraft werden sie entsprechend abgelenkt.

  

Abbildung 13 (Quelle Watts up) zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark ist bekannt, wie die solare Aktivität die Bewölkung beeinflusst. Weitere Einflüsse, wie die des Polfeldes (Hale-Zyklus) auf die Wolkenbedeckung werden noch gezeigt.

Raimund Leistenschneider – EIKE

Teil 2 – “Die Sonne, der faszinierende Stern“ in Kürze

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Auswertung des Bürgerdialogs (Phase 1): Energiewende wird abgelehnt

Dies ist auch die Erwartungshaltung der Bundesregierung an die von ihr getroffenen Entscheidungen. Denn die vier Leitthesen des Bürgerdialogs zur Energiewende spiegeln diese Aussichten wieder.  In der Zeit vom 11.07. bis zum 25.08.2011 war es auf dem durch das Bundesforschungsministerium betriebenen Portal für jeden möglich, seine Meinung zu diesen Fragestellungen zu äußern:
    •    These 1 (“Speicher und Netze”): Ich trage den Ausbau der Energieinfrastruktur mit, auch wenn es bedeutet, dass in meiner Umgebung neue Stromleitungen oder Energiespeicher gebaut werden müssen.
    •    These 2 (“Brückentechnologien”): Ich halte Investitionen in neue Gas- und Kohletechnologie für notwendig, auch wenn dadurch die Klimaschutzziele in Deutschland nicht vollständig erreicht werden.
    •    These 3 (“Erneuerbare Energien”): Ich bin bereit, höhere Strompreise (ca. 3 -6 % pro Jahr bis 2020) zu zahlen, um den Ausbau der erneuerbaren Energietechnologien zu fördern.
    •    These 4 (“Energieeffizienz”): Ich halte Maßnahmen zum Energiesparen für sinnvoll, auch wenn sie mich in meinem persönlichen Lebensstil einschränken.
Neben einer formalisierten Bewertung dieser Aussagen in dem Raster “vollständige Zustimmung”, “teilweise Zustimmung”, “neutral”, “teilweise Ablehnung” und “vollständige Ablehnung” gab es auch noch die Möglichkeit, seine Haltung mit einem kurzen Kommentar zu erläutern. Unser Autor Quentin Quencher hat in mühevoller Kleinarbeit (für die ihm an dieser Stelle großer Dank und große Anerkennung auszusprechen sind) alle diese Kommentare inhaltlich ausgewertet. Es waren 2.450. Es kann leider nicht festgestellt werden, wieviele Bürger sich an dieser Befragung wirklich beteiligt haben. Eine ganze Reihe Nutzer hat alle vier Thesen kommentiert, andere haben sich nur bei einzelnen zu Wort gemeldet. Da man auch anonym schreiben durfte, können Mehrfachkommentierungen durch einzelne Personen nicht ausgeschlossen werden. Repräsentativ ist das Meinungsbild des Bürgerdialogs natürlich auch nicht. Aber es mag für die Bundesregierung eine interessante und unerwartete Erfahrung darstellen, was insgesamt zum Ausdruck gebracht wurde.

Abbildung 1: Bewertung der Leitthesen
Abbildung 1 zeigt die weit überwiegende Ablehnung der vier Thesen (die Zahlen in der Beschriftung auf der x-Achse stehen für die Gesamtzahl an Wertungen, die für die jeweilige These abgegeben wurden).   Besonders deutlich ist die Abneigung gegen eine Subventionierung der NIEs ausgeprägt.
Die These zu den Brückentechnologien verlangt eine differenzierte Betrachtung. Denn hier wird die weitere und intensivere Nutzung der Energieträger Kohle und Gas als kontraproduktiv zu den deutschen Klimaschutzbemühungen dargestellt. Was ja auch richtig ist. Da mir beispielsweise der Klimaschutz völlig gleichgültig ist, habe ich “vollständige Zustimmung” ausgewählt. Viele andere Kommentatoren haben die These allerdings genau deswegen negiert, weil sie ihre Ablehnung von Maßnahmen zur Emissionsreduzierung zum Ausdruck bringen wollten. Eine Opposition gegen Kohle- und Gaskraftwerke kann und darf man also aus diesem Antwortverhalten nicht ableiten. Durch die Fragestellung hat man es vielmehr geschafft, Klimaskeptiker, Klimaalarmisten und diejenigen, die ihre Zustimmung zur Kernkraft verdeutlichen wollten, zu einem identischen Abstimmungsverhalten anzuregen.
Betreffend These 4 ist festzuhalten, daß “Effizienzsteigerung” und “Sparen” (im Sinne der Fragestellung) nicht dasselbe sind. Dieser Irrtum wurde in sehr vielen Beiträgen thematisiert. Die überwiegende Ablehnung bezieht sich daher eindeutig auf das Sparen, das mit einer “Einschränkung des persönlichen Lebensstils” verbunden ist.
Die Nutzer des Onlinedialogs akzeptieren also die zu erwartenden Folgen der Energiewende mit großer Mehrheit nicht. Wenn man daraus Widerspruch gegen die Energiewende insgesamt ableitet, liegt man nicht falsch (Abbildung 2).


Abbildung 2: Haltung zur Energiewende insgesamt
Quentin hat alle 2.450 Kommentare daraufhin durchgearbeitet, ob man aus dem Geschriebenen die Haltung zur Energiewende insgesamt erkennen kann oder nicht. Und das Resultat ist klar und deutlich. In 62% der Kommentare werden die jüngst getroffenen Entscheidungen der Bundesregierung abgelehnt.
Es stellt sich die Frage, ob denn auch die Befürworter der Energiewende deren negative Folgen verstanden haben. Ja, sie haben (Abbildung 3). Aber sie sind bereit, diese in Kauf zu nehmen. Die Befürworter der Energiewende sind also willens, flächenverbrauchende Infrastrukturen in ihrer unmittelbaren Lebensumwelt hinzunehmen, sie akzeptieren, erheblich mehr für Strom zu bezahlen zu müssen um den Ausbau der NIEs aus eigener Tasche zu finanzieren und sie sind richtig scharf darauf, sich durch Energiesparen in ihrem persönlichen Lebensstil einzuschränken. Man kann erwarten, daß das BMBF exakt diese Botschaft in den Energiedialog hineininterpretieren wird. “Energiedialog zeigt: Bürger mit den Auswirkungen der Energiewende einverstanden” – so oder so ähnlich könnte der Tenor der offiziellen Kommunikation lauten.


Abbildung 3: Die Haltung der Befürworter
Es war eben nicht Ansinnen der Bundesregierung, durch den Bürgerdialog Zustimmung oder Ablehnung zur Energiewende insgesamt, oder auch zu einzelnen Themen wie Klimaschutz und Kernenergie in Erfahrung zu bringen. Es ging allein um die Fragestellungen, die sich innerhalb des durch die Energiewende mit beschleunigtem Ausstieg aus der Kernenergie gesetzten Rahmens stellen. Man hat die Online-Plattform also unter der Annahme gestaltet, die Bürger wären ohnehin in großer Mehrheit für den bereits gesetzlich festgelegten Umbau unserer Stromversorgung. Wichtig ist, sich zu verdeutlichen, daß dieser Umbau in Wahrheit schon lange vor Fukushima beschlossen wurde. Das Modell des Jahres 2010, das eine moderate Laufzeitverlängerung der Kernenergienutzung von 12 Jahren, einen schnellen Ausstieg aus der Verstromung von Braunkohle und Gas sowie eine erhebliche Reduzierung des Strombedarfes und eine Ausweitung der Importe vorsah, zeigt Abbildung 4. Schon damals war die Resonanz auf diese Pläne eher wenig enthusiastisch.
 

Abbildung 4: Das Energiekonzept des Jahres 2010
 
Nun hat man durch den Störfall in Japan die Chance bekommen, dieses Konzept erneut offensiv zu vermarkten, lediglich geändert durch die Vertauschung der Rollen von Kernkraft und fossilen Energieträgern. Und wieder zeigt sich: Begeisterung für diese Pläne ist kaum zu wecken. Die Befürworter der Energiewende argumentieren auch im Online-Dialog überwiegend nicht getrieben von der Aussicht auf technische und ökonomische Verbesserungen. Sondern getrieben von der Angst vor Klimakatastrophen und Radioaktivität. Die zeigt sich in ihrer Ablehnung von Kohle- und Gaskraftwerken (These “Brückentechnologien”). Strom aus Kernkraftwerken darf in ihrer Weltsicht nicht nur nicht genutzt, er darf auch nicht durch Strom aus fossilen Quellen ersetzt werden. Sie halten es für geboten, zu verzichten.
Wie sehr Furcht die Basis für die Befürworter der Energiewende darstellt, zeigt sich auch in der Abwesenheit von Ideen zur Behebung der ihr innewohnenden Probleme. Gerade mal drei Vorschläge finden sich in nachweisbarer Größenordnung in den Kommentaren (Abbildung 5). Vom “Smart Grid” erwartet man eine Verringerung der erforderlichen Produktionskapazitäten, von den “dezentralen Netzen” einen größeren Wettbewerb, der zu einem geringeren Kostenanstieg beiträgt. Und als einzige Innovation im Bereich der NIEs wird “Windgas” genannt, womit die Erzeugung von Wasserstoff oder Methan als Zwischenspeicher durch den von Windanlagen produzierten überschüssigen Strom in Zeiten geringeren Bedarfs gemeint ist.

Abbildung 5: Lösungsvorschläge in den Kommentaren
In deutlich mehr Kommentaren hingegen wurde die Kernenergie verteidigt. Hier sind sowohl diejenigen eingerechnet, die die gegenwärtige Technologie weiter nutzen wollen, als auch diejenigen, die sich von Kernkraftwerken der kommenden Generationen und insbesondere von einem neuen, auf Thorium basierendem Brennstoffkreislauf, erhebliche Vorteile versprechen.
Der Bürgerdialog wurde genutzt, um Fragen zu beantworten, die nicht gestellt wurden. Die Nutzer haben ihre Ablehnung der Energiewende und ihre Befürwortung der Kernenergie sehr deutlich artikuliert. Wer nun erwartet hatte, die Macher der Online-Plattform hätten dies in der nun begonnenen zweiten Phase berücksichtigt, wurde enttäuscht. Nun sollen nicht mehr die Risiken, sondern die Chancen und Möglichkeiten diskutiert werden und bei den vorgegebenen Ideen wurde das Ergebnis der ersten Phase schlicht ignoriert.
Es nützt nichts. Einmal mehr agieren die befragten Bürger anders, als von der Bundesregierung intendiert. Mit “Kostenverteilung nach Verursacherprinzip“, “neue Reaktoren“, “AKW Laufzeit verlängern” und “Subventionen abschaffen” erhalten vier von Bürgern zusätzlich eingebrachte Vorschläge derzeit den meisten Zuspruch. Vorschläge, durch deren Umsetzung die Energiewende verhindert würde.
Dr. Peter Heller; zuerst erschienen auf Science Sceptical hier




Teil I Globaltemperatur grob fehlerhaft! Neue begutachtete Studien enthüllen: Fehler deutlich größer als gesamte Änderung im letzten Jahrhundert.

Jetzt hat Pat Frank ein unerschrockener und erfahrener Experimental-Wissenschaftler der alten Schule, die Rechenmethoden für die Globaltemperaturberechnung des IPCC auf messtechnische, mathematische und logische Richtigkeit überprüft. Sein Ergebnis, das in zwei begutachteten Aufsätzen veröffentlicht wurde: die mittlere Temperatur der Erde kann nicht genauer als mit ± 1 °C bestimmt werden.  Damit ist jede Änderung, die daraus abgeleitet wird, statistisch von Null nicht zu unterscheiden. Jede Zuordnung von Ursachen für nicht von Null unterscheidbare Änderungen ist daher Spekulation.

Seit vielen Jahrzehnten wird uns von den Medien mitgeteilt, dass eine globale Mitteltemperatur existiere und diese sich in nie dagewesene Höhen aufgeschwungen hätte. Die Ursache dafür, so wird ständig wiederholt, läge beim Menschen.

Abbildung 1 Die blaue mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom britischen Met-Office [0]von 1850 bis Ende 2010 im Internet zu Verfügung gestellt wird. Ihr überlagert ist die nach Brohan et al ermittelte Unsicherheit von ± 0,1 K. Die Referenzzeit ist hier 1961-1990

Belegt wird diese Behauptung – inzwischen umfassend mit der Wirkung eines vermuteten anthropogenen Treibhauseffektes begründet- und zum schlichten "Klimawandel[1]" verkürzt, mittels diverser wissenschaftlicher Studien. Eindrucksvoll zusammengefasst in den Abschätzungs-Berichten der IPCC Reports zum Klimawandel. Widerspruch dagegen wird immer häufiger als Häresie, ja als Gotteslästerung angesehen. Es herrsche doch Konsens unter 97 % der Wissenschaftler, so wird jedenfalls behauptet (Details dazu hier).

Doch jedem, der auf der Oberschule Physikunterricht genossen hat und ihn nicht vorzeitig abwählte, müssen die veröffentlichen globalen Temperaturkurven irgendwie merkwürdig vorkommen. Man wird sich erinnern, wie umständlich es schon in der Schule war, auch nur in zwei dicht benachbarten Räumen, deren Temperatur auf 1/2 ° C genau zu bestimmen. Allenfalls gelang eine Momentaufnahme und nur an diesem Ort. Wie kann es dann gelingen, eine Temperatur der ganzen Welt auf ± 1/10 ° C und dazu noch über 150 Jahre, genau zu bestimmen? 

Die Antwort ist: Das kann man nur, wenn man diverse Fehler, die unvermeidbar auftreten, von denen man viele zwar vermuten kann, deren genauen Wert und Verlauf man jedoch nur grob schätzen könnte, glatt unter den Tisch fallen lässt. Das ist bei der Berechnung der globalen Mitteltemperatur und ihres Trendverlaufes nachweislich geschehen. Dies ist gelegentlich auf böse Absicht zurückzuführen (wie die ClimateGate Emails zu beweisen scheinen), häufiger auf blinden Ehrgeiz, unbedingt das gewünschte Ergebnis zu erzielen, aber am allerhäufigsten wohl auf ein mangelhaftes Verständnis der Grundlagen der Fehlertheorie, des altehrwürdigen und gut bekannten, aber sehr speziellen Zweiges der mathematischen Statistik.  Die besagen nämlich, dass sich auch mit noch so ausgefeilten statistischen Methoden aus höchst ungenauen und unvollständigen Daten keine präzisen Messergebnisse herleiten lassen. Doch genau das wird mit erheblichem Aufwand versucht. Aber anders lässt sich dieses merkwürdige, selten offiziell angezweifeltes und falsches Ergebnis der offiziellen Klimainstitute nicht erklären.

Pat Frank, ein promovierter Physiko-Chemiker [2], der sich in seiner langen beruflichen und wissenschaftlichen Laufbahn viel mit Spektralmessungen und deren Auswertung beschäftigte, hat jetzt -im bekannt aufmüpfigen Wissenschaftsjournal "Energy & Environment"- nacheinander zwei begutachtete Fachbeiträge[3] [4] veröffentlicht, die Aufsehen erregen müssen. Zugegeben, in der Fachöffentlichkeit haben die Zeitschriften "Nature" und "Science" trotz diverser grober Fehler, gerade in Sachen Klimaforschung, noch einen höheren Stellenwert als "Energy & Environment". Aber saubere wissenschaftliche Redaktions- und Begutachtungsarbeit wird auch dieser Zeitschrift, selbst von Gegnern, bescheinigt.

Die erste Arbeit von Pat Frank erschien im Winter 2010. Ihr Titel: „Uncertainty in the global average surface air temperature index: representative lower limit“

In der Zusammenfassung zu diesem Aufsatz schreibt Frank:

Zitat: Die Messfühler (Sensor)-Messunsicherheit wurde nie umfassend in früheren Aufsätzen zur mittleren globalen bodennahen Lufttemperatur berücksichtigt. Der geschätzte durchschnittliche ± 0,2 °C Stations-Fehler wurde fälschlicherweise als zufällig beurteilt, während der systematische Fehler, bestimmt durch unkontrollierte Variablen, immer vernachlässigt wurde. Der systematische Fehler bei den Messungen von drei ideal gelegenen und (ideal) gewarteten Temperatursensoren wurde hier berechnet. In Kombination mit dem mit ± 0,2 ° C allgemein berichteten Durchschnitts Stations-Fehler, wurde eine repräsentative untere Grenz-Unsicherheit von ± 0,46 °C für alle globalen jährlichen bodennahen Lufttemperatur Anomalien gefunden. Diese ± 0,46 ° C zeigt, dass der Trend der globalen bodennahen Lufttemperatur Anomalie von 1880 bis 2000 statistisch nicht von 0 ° C zu unterscheiden ist, und stellt somit eine untere Grenze der Kalibrierunsicherheit für Klimamodelle und für jeden mögliche physikalisch vertretbare Proxy-Rekonstruktion der Paläo-Temperatur dar. Die Geschwindigkeit und das Ausmaß der Erwärmung des 20. Jahrhunderts sind somit unbekannt, und Vermutungen von einer beispiellosen Entwicklung der globalen Lufttemperatur im 20. Jahrhundert sind somit nicht nachhaltig (begründbar). Zitatende

Das ist eine klare Ansage. Sie stellt, wenn sie sich denn als richtig erweisen sollte, und daran besteht kein vernünftiger Zweifel, der offiziellen Klimaforschung ein denkbar schlechtes Zeugnis aus. Doch um die Brisanz dieser Aussage wirklich nachvollziehen zu können, sollte man sich ein wenig mit der Fehlertheorie beschäftigen. Danach unterscheidet man drei Arten von Fehlern: Zufällige Fehler, systematische Fehler und grobe Fehler.

Zufällige Fehler

Zufällige Fehler entstehen immer bei jeder Messung und sind unvermeidbar. Beispielsweise zeigt jedes noch so genaue Thermometer unter der Bedingung, dass bei jeder Messung immer dieselbe Temperatur gemessen wird, zum Beispiel in kochendem Wasser, immer einen leicht anderen Wert als genau 100 °C an. Schreibt man die ermittelten Werte auf und misst genügend oft, dann streuen die Messungen um den „wahren“ Messwert häufig gleichverteilt herum. Bei Mittelung gleichen sie sich bei genügend großer Anzahl von Messungen aus. Wobei sie dadurch gekennzeichnet sind, dass sie völlig zufällig auftreten und deshalb durch Mittelung minimiert werden können. Ihr Mittelwert tendiert also im Idealfall gegen Null. Diese Fehler nennt Frank in seinem Papier „Rausch-Fehler“. (Noise Errors)

Systematische Fehler.

Jedes Messinstrument, aber auch jeder Messprozess, erzeugt bei der Messung zudem systematische Fehler. Diese haben unter sonst gleichen Bedingungen und immer auf denselben Fehler bezogen immer dasselbe Vorzeichen und immer denselben Wert. Sind sie bekannt, dann können sie mittels einer Korrekturrechnung ausgeglichen werden. Ein gutes Beispiel für einen systematischen Fehler ist eine Uhr (ein Zeitmesser), die immer 5 Minuten vorgeht. Diese 5 Minuten kann man von der angezeigten Zeit einfach abziehen, um auf die genaue Zeit zu kommen. Sind sie aber nicht bekannt, dann gibt es keinen Weg sie zu vermeiden. Sie müssen als Fehlergröße oder Unsicherheit der Messung angegeben werden.

Grobe Fehler

Das sind Fehler, die einfach grob falsche Ergebnisse liefern. Z.B. wenn eine Messstation deshalb keine Ergebnisse anzeigt, weil sie nicht abgelesen wurde. Oder wenn bei der Übertragung ein grober Zahlendreher passierte, oder wenn eine Temperaturmessung in einem Eisblock statt am Kochherd gemacht wurden. Grobe Fehler lassen sich nicht ausgleichen, die Messergebnisse müssen verworfen werden

Pat Franks 1. Aufsatz konzentriert sich nun auf die zufälligen und sensoreigenen systematischen Fehler.

Er zeigt mit einiger Mathematik, dass sich bei den meteorologischen Messungen, die zufälligen Fehler (oder Messunsicherheiten) komplizierter verhalten, als es die einfache Fehlertheorie, die bisher auf sie angewendet wurde, bescheibt.

In der Klimatologie wird der Aufsatz von Brohan et. al 2006[5]  als maßgeblich für die Bestimmung der Unsicherheitsbandbreite des mittleren globalen Temperaturtrends angesehen. Sie geben in ihrer Arbeit (und beziehen sich dabei auf Folland et. al 2001) diesen (dort „station error“ genannten) gesamten mittleren Stations-Fehler (genauer;  die Standardabweichung 1σ) mit ±0,2 °C an. D.h. sie unterstellen (von Folland 2001 übernommen) , dass 68,3 % (Vertrauensbereich [6]) der Messwerte jeder Station im Bereich von ± 0,2 °C um den wahren Wert gleichverteilt herum liegt.  Nun fallen bei der täglichen Bestimmung von z.B. Max. und Min. Temperatur täglich zwei Messungen an. Im Monat sind das 60.

Unterstellt man nun, dass dieser mittlere Stations-Fehler (Messfehler oder Messunsicherheit) von ± 0,2 °  C für jeden Messwert, wie im oben genannten Standardaufsatz zur Bestimmung des gesamten zufälligen Fehlers der globalen Mitteltemperatur geschehen, auftritt, dann lautet das Ergebnis für den gesamten Fehler des Monatsmittels – jedoch nur bei immer derselben Temperatur unter sonst gleichen Bedingungen gemessen- 

°C

Diese einfache Formel ist heute schon geschichtsträchtig und damit legendär, denn sie erlaubt, aus ungenauen Messwerten, sehr genaue Trends herzuleiten.  Sie begründete damit den Glauben einer ganzen Generation von Klimaforschern an präzise globale Temperaturtrends, weil sie die schöne Eigenschaft hat, aus ungenauen, nicht mehr änderbaren historischen Messwerten, sehr genaue Rechenwerte zu erzeugen. Genau das, was die Klimatologen für die Berechnung einer hinreichend genauen globalen Mitteltemperatur brauchten.

Sie hat aber leider einen großen Nachteil! Sie ist für klimatologische Temperaturmessungen so nicht einsetzbar, weil sie für Messarten angewendet wird, für die sie nicht entwickelt wurde. Es werden damit Messfehler nicht berücksichtigt, die zwar unvermeidbar vorkommen, aber mit dieser Formel unterdrückt werden.

Pat Franks Verdienst ist es nun, diese Formel an die reale Welt angepasst zu haben. Er hat dazu ihre Bedeutung zur Klärung ihrer Schwächen einfach wörtlich genommen, wie es auch Brohan et al selber erklären. Wenn die Fehler jeder einzelnen Messung so sind, wie dort angenommen, dann müsste jeden Tag 2 x dieselbe Temperatur τi [7]

gemessen werden. Mit  

Weil das offensichtlich nicht so ist, die Temperaturen ja definitiv verschieden sind, muss  zusätzlich  dieser Temperatur τi eine – „Wetterrauschen“ wi genannte Komponente- addiert, welche die maximale Tagestemperatur von der konstanten Temperatur, aber auch der minimalen Tagestemperatur, und auch von den Messdaten der Folgetage, unterscheidet. Aber, und das ist die Bedingung, der Mittelwert all dieser Wetterrauschwerte wi, muss – weil  zufällig á la Brohan et. al – gegen Null tendieren. Des Weiteren unterliegt jede Messung dem eigenen Signalrauschen des Sensors. Dieser Signal-Rauschfehler muss ebenfalls zur konstanten Temperatur τi  addiert werden. Nur dann lässt sich der Fehler nach der bekannten Formel  gegen Null ausmitteln. N ist dabei die Zahl der Messungen.

Doch diese Annahme ist offensichtlich physikalischer Unsinn. Die Max-Temperatur eines Tages ist stark von den Strahlungs- und Wetterbedingungen tagsüber abhängig, die Min-Temperatur von ganz anderen Strahlungs- und Wetterbedingungen des nachts. Keine davon ist konstant. Doch lässt diese Betrachtungsweise zu, dass mittels der dann folgenden Betrachtungen, ein systematischer Fehler abgeleitet werden kann, der zwangsläufig bei realen verschiedenen Messwerten der Max- und Min- Temperatur auftritt und nicht unterschritten werden kann.

Frank beginnt damit die drei theoretisch möglichen Fälle zu unterscheiden, bei denen man erfolgreich Rauschverminderungstechniken, oder hier Verminderungstechniken zufälliger Fehler[8], ansetzen kann und wann nicht. Er beschreibt dazu 3 Klassen von Zuständen, die anfangs ideal einfach, später komplizierter, die Möglichkeiten darstellen zufällige und systematische Instrumenten-Fehler zu klassifizieren und sie mathematisch zu definieren. Die Klasse 3 ist bei ihm die, welche der Wirklichkeit am nächsten kommt. Hier wird davon ausgegangen, dass die jeweiligen Messwerte immer verschieden sind und auch ihre Rauschanteile verschieden sind. Zudem sind alle voneinander statistisch unabhängig. Das ist bei den Wetter-Temperaturmessungen immer der Fall.

Auf die oben erwähnte -zu einfache- Formel bezogen, bedeutet das, dass sie wegen der sich ständig ändernden Messwerte, die täglich, jeweils nur 1 x (ein Max. Wert und ein Min. Wert) um einen zufälligen nicht normalverteilten Fehler ±σ  und zusätzlich einen systematischen Fehleranteil s ergänzt werden muss. Hundertmal denselben Wert zu messen und dann daraus evtl. normalverteilte zufällige Fehler zu bestimmen, ist eben nicht dasselbe, als 100 verschiedene einzelne Messwerte mit verschiedenen zufälligen Fehlern zusammen zu fassen und dann ihren Gesamt-Fehler zu bestimmen.

Hatte man vorher 100 Messwerte um den einen „wahren“ Wert herum, so hat man nun 100 Messwerte, die von 100 „wahren“, aber verschiedenen, Werten leichter oder stärker abweichen können. 

Unter der Überschrift: Zweck der Studie schreibt er

Zitat

Diese Studie entwickelt eine untere Grenze für die Unsicherheit, die in die Temperatur-Aufzeichnungen -bei den geschätzten zufälligen und systematischen Fehlern- eingeführt werden muss und die Feld-Auflösung der terrestrischen Sensoren beeinflusst.

Eine grundlegende Signalmittelung wird eingeführt und dann verwendet, um die Bedeutung der geschätzten ± 0,2 C durchschnittlichen Unsicherheit aufzuklären, die bei terrestrischen Temperaturmessungen seitens Folland, et al. [12] geschätzt wurde. Eine Schätzung der Rausch-Unsicherheit für jede bestimmte jährliche Temperatur-Anomalie wird dann entwickelt. Im Anschluss daran werden die unteren Grenzen der systematischen Fehler bei drei Temperatursensoren anhand zuvor berichteter idealer Feldstudien [13] ermittelt.

Schließlich wird die durchschnittliche (Mess)-Rausch-Unsicherheit und die untere Grenze des systematischen (Instrumenten-) Fehlers in einem Maximum-Minimum Temperatur Mess-System (MMTS)-Sensor in eine gesamt untere Grenze der Unsicherheit für eine jährliche Anomalie, bezogen auf ein 30-Jahres-Mittel kombiniert. Die Wirkung dieser unteren Grenz-Unsicherheit auf den globalen Durchschnitt der bodennahen Lufttemperatur Anomalie Zeitreihe wird beschrieben. Die Studie endet mit einer Zusammenfassung und einer kurzen Diskussion über den Nutzen des instrumentellen bodennahen Lufttemperatur Aufzeichnung als einme Validierungs- Ziel in Klima-Studien.

Zitat Ende (Klammerbegriffe vom Autor ergänzt)

Mittels diesen neuen Ansatzes vermag Pat Frank die untere Grenze bei Max-Min Temperaturmessungen unter idealen Bedingungen zu definieren. Dazu setzt er die sehr gründliche  Bestimmung von Temperatur – Sensorfehlern von Lin and Hubbard [9] ein und benutzt diese – fast idealen Sensoren- als untere erreichbare Grenze.

 

Abbildung 2 Die rote mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom amerikanischen Goddard Institute of Space Sciences (http://data.giss.nasa.gov/gistemp/graphs/) GISS von 1880 bis Ende 2008 im Internet zu Verfügung gestellt wird. Ihr überlagert ist die minmale Unsicherheit nach Frank in Höhe von ± 0,46 K. Die Referenzzeit ist hier 1951-1980

Im  Abschnitt: 3.2. An empirical approach to temperature uncertainty“ beschreibt er die Vorgehensweise und leitet darin die beiden Komponenten der nichtvermeidbaren Restfehler ab. Sie errechnen sich bei Verwendung modernster Technologien für die Temperatursensoren, zudem bei bester Wartung und mit sauberster Kalibrierung mit

Da im wirklichen Leben, wie besonders die Arbeit von Antony Watts mit seinem Surface Station Project gezeigt, die Verhältnisse bei den terrestrischen Messstationen wesentlich schlechter sind und waren, kann Frank mit Fug und Recht behaupten, dass dies die unterste Grenze aller Fehlerberechnungen bei der Anomalienbildung der globalen Mitteltemperatur sein muss. Ein Fehler von ± 0,46 °C kann deshalb in keinem Fall unterschritten werden. Bei einer Veränderung der globalen Temperaturanomalie von behaupteten 0,7 bis 0,8 ° C im vorigen Jahrhundert, verschwindet diese deshalb im Rauschen bzw. im breiten Unsicherheitsband.

Wird fortgesetzt.

Michael Limburg EIKE


[1] lt UNFCC der rechtlich bindenden Rahmenkonvention der UN von 1992, die Grundlage der IPCC Arbeit und den rechtlichen Rahmen für alle verbindlich setzend ist das Wort „Klimawandel“ (Climate Change) immer als mensch-gemacht zu verstehen und zu verwenden. Natürlicher Klimawandel muss hingegen als „Klimavariation“ (Climate variation) bezeichnet werden.

[2] Education is BS and MS in Chemistry from San Francisco State University. The Masters Degree research was in Physical Organic Chemistry. My Ph.D. is in Chemistry from Stanford University. After that I was a Bergman Postdoctoral Fellow at the Weizmann Institute of Science in Israel. The PhD and postdoctoral research involved Inorganic Biochemistry. This subject includes using physical and chemical methods to investigate the spectroscopy and chemistry of metalloproteins and metalloenzymes. These are proteins and enzymes that contain transition metals such as iron and copper.

For the last many years I have been a member of the research staff of the Stanford Synchrotron Radiation Lightsource, which is part of the SLAC National Accelerator Laboratory. There I use x-ray absorption spectroscopy to study the heavier elements found in biological systems; elements such as sulfur, vanadium, iron and copper. Some of my more recent research includes work with collaborators from France, Sweden, and Italy.

[3] Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

[4] Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surface                  409 Air Temperature Index“[4]

 

[5] Brohan, P., Kennedy, J.J., Harris, I., Tett, S.F.B. and Jones, P.D., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850, J. Geophys. Res., 2006, 111 D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/cru/info/warming/.

[6] Vertrauensbereich heißt, dass bei 1 σ 68,3 % der Messwerte innerhalb dieses Bandes liegen

[7] Diese Herleitung wird im 2. Paper von 2011 ausführlich behandelt

[8] Rauschverminderungstechniken bedeuten nichts anderes als Fehlerverminderungstechniken zufälliger Fehler

[9] Lin, X. and Hubbard, K.G., Sensor and Electronic Biases/Errors in Air Temperature Measurements in Common Weather Station Networks, J. Atmos. Ocean. Technol., 2004, 21 1025-1032.

Related Files




Peaköl war gestern: Amerika, nicht der Nahe Osten, wird Energie-Weltmeister

Seit Anfang dieses Jahrtausends jedoch hat die Energiewirtschaft dieses Problem weitgehend gelöst. Mit Hilfe horizontaler Bohrungen und anderen Innovationen ist die Schiefer Gas-Produktion in den Vereinigten Staaten innerhalb von weniger als zehn Jahren sprunghaft von nahezu Null auf 15 bis 20 Prozent der U.S. Erdgasversorgung in die Höhe geschnellt. Bis 2040 könnte mehr als die Hälfte darauf entfallen. Diese gewaltige Steigerung des Volumens hat die Diskussion in der US-Erdgas-Industrie auf den Kopf gestellt: Während sich Amerika einst darum sorgte, wie es die Erdgasversorgung der Länder sicherstellt, machen sie sich jetzt Gedanken darüber, wie sie potentielle Käufer für den Energiegasüberschuss finden können.

In der Zwischenzeit erlebt die Festland-Ölförderung in den Vereinigten Staaten, die nach Vorhersage von Analysten seit zwei Jahrzehnten zum unaufhaltsamen Niedergang verurteilt wurde, ein unerwartetes Comeback. Die Öl-Produktion aus Schiefergestein, ein technisch komplexer Vorgang, bei dem Kohlenwasserstoffe aus Sedimentschichten gepresst werden, ist erst am Anfang. Aber Analysten prognostizieren für die nächsten Jahre eine Produktion von 1,5 Millionen Barrel pro Tag für die nächsten Jahre allein aus den Lagerstätten unter den Great Plains und Texas – das entspricht 8% des derzeitigen US-Öl-Verbrauchs. Diese Entwicklung wirft die Frage auf, was die US-Energie-Industrie erreichen kann, wenn die Preise hoch bleiben und sich die Technologie weiter entwickelt. Ein weiteres Beispiel für die Stagnation des Rückganges sind die steigenden ? recovery rate?-Erholungsgeschwindigkeit? Förderraten aus alten Ölbohrungen. Zusätzlich dazu erwarten Analysten weitere 1 bis 2 Millionen Barrel pro Tag aus dem Golf von Mexiko, jetzt wo die Bohrungen wieder aufgenommen wurden. Ist die Spitze schon erreicht? Noch nicht so bald.

Das Bild in anderen Teilen Nord- und Südamerikas sieht ebenfalls vielversprechend aus. Von Brasilien wird angenommen, dass es die Kapazität zur Förderung von 2 Millionen Barrel pro Tag aus "vor Salz" Tiefseeressourcen hat, Rohöleinlagerungen mehr als eine Meile unter der Oberfläche des Atlantischen Ozeans, die bis vor ein paar Jahren technologisch noch nicht zugänglich waren. Ähnliche Zuwächse werden aus Kanadischen Öl-Sand Vorkommen erwartet, wo Erdöl aus teerigen Sedimenten im Tagebau gewonnen wird. Eine Produktion von möglicherweise 3 bis 7 Millionen Barrel pro Tag und mehr ist möglich, wenn die Vereinigten Staaten vor Ort Schweröl oder Kerogen kommerziell herstellen können. Bei diesem Prozess wird das Gestein aufgeheizt,  um das darin enthaltene Öl in flüssiger Form abpumpen zu können. Zweifellos stehen solchen Entwicklungen auch umweltpolitische Hindernisse entgegen. Hier jedoch beginnt auch die Industrie zu sehen, das Wege zu deren Überwindung gefunden werden müssen: mit Investitionen in ungiftige Bohrflüssigkeiten, gering-invasiven hydraulischen Aufbruch-Techniken, neuartigen Wasseraufbereitungsverfahren und anderen Technologien hofft man, die Umwelteinflüsse durch Bohrungen reduzieren zu können. Genauso wie die US-Öl-Industrie hat auch das ölhungrige China das Energiepotenzial Amerikas erkannt und investiert Milliarden in Kanada, die USA und Lateinamerika.

Zur gleichen Zeit werden der von Revolutionen geschüttelte Nahe Osten und Nordafrika den unbequemen Wahrheiten über das Vermächtnis ihrer eigenen fossilen Brennstoffproduktion ins Auge sehen müssen: Regierungswechsel in den betroffenen Regionen haben zu einem historisch anhaltenden und steilen Rückgang der Öl-Produktion geführt. Libyens Ölproduktion ist bisher nicht wieder auf die 3,5 Millionen Barrel pro Tag zurück gekommen, die gefördert wurden als Oberst Muammar al-Gaddafi 1969 König Idris stürzte; stattdessen hängt sie seit drei Jahrzehnten unter 2 Millionen Barrel pro Tag und ist jetzt nahezu Null. Iran produzierte zu Zeiten des Schahs täglich mehr als 6 Millionen Barrel, durch die Auswirkungen der Islamischen Revolution von 1979 sank jedoch die Öl-Produktion steil ab auf 2 Millionen Barrel pro Tag. Auch in den 1980er Jahren zeigte sich keine deutliche Erholung, die 4 Millionen Barrel-Marke wurde in den letzten Jahren nur mit Mühe erreicht. Ebenso wie im Iran hat auch die Förderung im Irak durch die vielen Unruhejahre gelitten und steht nun bei 2,7 Millionen Barrel pro Tag, einiges niedriger als jene 3,5 Millionen vor Saddam Husseins Machtergreifung.

Der Arabische Frühling hat die Dinge nur noch weiter verkompliziert: eine Störung der Ölexporte des Mittleren Ostens im Stil der 1979er Jahre steht ebenso wenig außer Frage wie Arbeitsniederlegungen oder Streiks der Ölarbeiter, all dies spiegelt den politischen Zeitgeist der Region wieder. Alles in allem stehen 21 Millionen Barrel arabische Ölproduktion pro Tag auf dem Spiel – etwa einem Viertel der weltweiten Nachfrage. Der Boom auf dem amerikanischen Kontinent sollte jetzt auch die restlichen Autokraten im Nahen Osten zum Nachdenken bringen – möglicherweise können sie nicht auf ständig steigende Ölpreise zählen um die unruhige Bevölkerung im Zaum zu halten.

Diese Kohlenwasserstoff-getriebene geopolitische Neuordnung zeigt sich bereits in Aktion. Die Ölmacht des Irans, Russlands und Venezuelas wankt angesichts der reichlichen amerikanischen natürlichen Erdgaslieferungen: ein Überschuss an Ressourcen in Amerika macht es anderen ausländischen Lieferanten schwer Kunden in Europa und Asien zu binden, wodurch es für die Akteure schwieriger wird sich fortan über plumpe Energie-"Diplomatie"  zu behaupten,

Die US-Energie-Industrie wäre auch in der Lage, Europa und China auch technische Unterstützung bieten um ihre eigenen unkonventionellen Ressourcen zu nutzen und damit die Abhängigkeit von Moskau und dem Persischen Golf zu beseitigen.
Also, schauen Sie genau hin: Amerika ist vielleicht als Energie-Lieferant der Welt zurück.

Autzor Amy Myers Jaffe ist Direktor des Instituts „Baker Institute Energy Forum at Rice University

Die Übersetzung besorgte dankenswerterweise C. Ohle für EIKE

Den Originalartikel finden Sie hier




Brandneu! – CERN-Experiment bestätigt: kosmische Strahlen beeinflussen die Wolkenbildung!

Sogar das IPCC hat dies im letzten Bericht (2007) bestätigt:

 „Das Feedback der Wolken ist die wichtigste Quelle von Unterschieden zwischen den einzelnen Modellen beim Gleichgewicht der Klimasensitivität, mit den tiefen Wolken als dem größten Beitrag.“

Aktualisierung: Im Artikel in Nature klingt es bei Kirkby noch etwas gedämpfter als bei der GWPF:

Frühere Ergebnisse scheinen darauf hinzuweisen, dass kosmische Strahlen Grund für eine Änderung sind. Die hochenergetischen Protonen scheinen die Bildung von Nanometer großen Partikeln in der gasförmigen Atmosphäre mit einem Faktor zehn zu begünstigen. Aber, fügt Kirkby hinzu, diese Partikel sind viel zu klein, um als Kondensationskerne für Wolken zu dienen. „Im Moment sagt das nichts über eine mögliche Auswirkung kosmischer Strahlen auf Wolken und Klima, aber es ist ein erster sehr wichtiger Schritt“, sagt er.

Aktualisierung: Bizarrerweise kommt das Magazin New Scientist mit dieser Schlagzeile daher: Cloud-making: Another human effect on the climate [etwa: Wolkenmachen: Eine weitere menschliche Auswirkung auf das Klima]

==========================================================

Experiment am CERN bestätigt den Einfluss kosmischer Strahlen auf Klimaänderung

von Nigel Calder

Lang erwartete Ergebnisse des CLOUD-Experiments am CERN in Genf erscheinen in der jüngsten Ausgabe der Zeitschrift Nature (25. August). Der Generaldirektor des CERN erregte im vorigen Monat Kontroversen mit seinen Worten, dass der Bericht des CLOUD-Teams politisch korrekt über die Klimaänderung sein sollte (siehe den Link zu meinem früheren Beitrag vom 17. Juli unten). Die Absicht war, auf keinen Fall die dänische Häresie abzusegnen – Henry Svensmarks Hypothese, dass der größte Teil der globalen Erwärmung des 20. Jahrhunderts durch die Reduzierung kosmischer Strahlen infolge einer aktiveren Sonne erklärt werden kann, was zu weniger Bewölkung und damit höheren Temperaturen an der Erdoberfläche führt.

Wohl oder übel sprechen die Ergebnisse für sich, und es ist kein Wunder, dass der Generaldirektor unruhig geworden ist.

Jasper Kirkby am CERN und seine 62 Mitautoren von 17 Instituten in Europa und den USA verkünden große Auswirkungen von Pionen aus einem Beschleuniger, der die kosmischen Strahlen simuliert und die Luft in einem Experimentierkasten ionisiert. Die Pionen sorgen in erheblichem Umfang dafür, dass sich Cluster von Schwefelsäure- und Wassermolekülen bilden – Aerosole von der Art, die zu Kondensationskernen für Wolken anwachsen können, um die sich dann Tröpfchen bilden. Mehr noch, es ergab sich auch eine sehr wichtige Klärung der beteiligten Chemie.

Ein Bruch der Etikette

Mein Interesse am CLOUD-Experiment reicht fast 14 Jahre zurück, und zwar bis zu einem Vortrag, den ich am CERN über Svensmarks Entdeckung über den Zusammenhang zwischen kosmischen Strahlen und Bewölkung gehalten habe.  Dies erregte Kirkbys Neugier, und wir beide, Svensmark und ich waren unter jenen, die ihm halfen, seinen Vorschlag für CLOUD auf den Weg zu bringen.

Es ist eine unfreundliche Ironie, dass der einzige Svensmark-Beitrag, der im Nature-Bericht bestätigt worden ist, die Studie von 1997 (Svensmark und Friis-Christensen) ist, auf die ich mich bei meinem CERN-Vortrag bezogen hatte. Die erfolgreichen Experimente in der Ionenchemie und der Bildung molekularer Cluster durch das dänische Team in Kopenhagen, Boulby und zuletzt in Aarhus, bei denen die ersten Resultate von CLOUD mit Hilfe eines Partikelstrahlers (an Stelle von Gammastrahlen und natürlichen kosmischen Strahlen) zur Ionisierung der Luft in einer Experimentierkammer gewonnen worden sind, werden nicht erwähnt – siehe hier.

Was werden Wissenschaftshistoriker einst zu diesem Bruch der wissenschaftlichen Etikette sagen? Dass Kirkby ärgerlich war, weil Svensmark, der wegen der langen Verspätung der Finanzierung und die Genehmigung des CLOUD-Experimentes die Geduld verloren hatte, die Sache nun selbst in die Hand nahm? Oder weil Svensmarks Offenheit hinsichtlich der kosmischen Strahlung Zweifel an der katastrophalen, anthropogen verursachten Klimaerwärmung säte, die die nationalen geldgebenden Institutionen ängstigte? Oder tat Kirkby lediglich sein bestes (trotz der Ergebnisse), um seinem Generaldirektor zu gehorchen, in dem er alles Dänische ignorierte?

Abgesehen von den persönlichen Rivalitäten: Die wichtige Frage lautet, was die neue CERN-Studie für die Svensmark-Hypothese bedeutet. Sucht man seinen Weg durch die zurückhaltende Prosa, findet man Folgendes:

Ionen induzierte Keimbildung (Wirkung der kosmischen Strahlen) wird sich selbst als eine ständige Produktionsstätte neuer Partikel (molekulare Cluster) manifestieren. Es ist schwierig, dies in atmosphärischen Beobachtungen wegen anderer Quellen von Variabilität zu isolieren, aber sie findet nichtsdestotrotz statt und kann ziemlich groß werden, wenn man es global über die Troposphäre mittelt“.

Das ist so durchsichtig im Sinne dessen, was die Dänen schon die ganze Zeit gesagt haben, dass ich überrascht war, dass ein Warmistenmagazin wie Nature das veröffentlichen konnte, wobei jedoch die Bände sprechende Graphik (s. unten) weggelassen wurde. Zusätzlich zu den vorher schon positiven experimentellen Ergebnissen der Dänen ist das Ergebnis des detaillierteren CERN-Experiment exzellent. Tausend Dank, Jasper!

Eine Graphik, bei der sie gerne sehen würden, dass Sie sie nicht bemerken. Versteckt am Ende des online verfügbaren unterstützenden Materials und beim Abdruck in Nature ausgelassen, zeigt sie eindeutig, wie kosmische Strahlen die Bildung molekularer Cluster („Teilchen“) anregen, die in der realen Atmosphäre wachsen können und zur Wolkenbildung führen. In einem experimentellen Durchlauf am CERN, der um 03.45 Uhr begann, erzeugte ultraviolettes Licht Schwefelsäuremoleküle in der Kammer, während ein starkes elektrisches Feld die Luft ionenfrei machte. Es tendierte auch dahin, molekulare Cluster, die sich in einer neutralen Umgebung (n) gebildet hatten, zu entfernen, aber einige von diesen akkumulierten sich mit einer niedrigen Rate. Sobald das elektrische Feld um 04.33 Uhr ausgeschaltet wurde, halfen natürliche kosmische Strahlen (gcr), die durch das Dach der Experimentierhalle in Genf einfielen, dass sich Cluster mit einer höheren Rate bildeten. Woher wissen wir, dass sie den Beitrag geleistet haben? Daher: als um 04.58 Uhr im Rahmen von CLOUD stärkere kosmische Strahlen mit einem Strahl geladener Pionen (ch) aus dem Beschleuniger simuliert wurden, verstärkte sich die Rate der Clusterbildung noch mehr. Die verschiedenen Farben stehen für Cluster unterschiedlicher Durchmesser (in Nanometern), wie sie durch zahlreiche Instrumente aufgezeichnet worden sind. Die Teilchen mit dem größten Durchmesser (schwarz) brauchten am längsten zum Wachsen, beim kleinsten Durchmesser (blau) ging es am schnellsten. Dies ist Abbildung S2c aus dem unterstützenden Online-Material für J. Kirkby et al., Nature 476, S429 bis 433, © Nature 2011.

 

Erläuterung der Chemie

Und in besseren Zeiten würden wir an der Kampagne einer wunderbaren Entdeckung mit CLOUD teilnehmen, dass Spuren von Ammoniak die Produktion von schwefligen Clustern tausendfach verstärken kann. Dies wird in der Überschrift auf den Punkt gebracht: „Die Rolle von Schwefelsäure, Ammoniak und galaktischer kosmischer Strahlen bei der Bildung atmosphärischer Aerosole“. Möglich wurde dies durch aufwändige chemische Analysen in großem Rahmen in Genf. Im Zentrum steht, dass Ammoniak hilft, molekulare Cluster zu stabilisieren.

Obwohl es das nicht offen sagt, impliziert das CLOUD-Team eine Herabsetzung für die Dänen mit diesen Ergebnissen, indem sie wiederholt erklärten, dass es ohne Ammoniak kaum Clusterbildungen in niedrigen Breiten geben würde. Aber obwohl die Experimentierer in Aarhus tatsächlich die einfachere Reaktionsgleichung (H2SO4 + H2O) übernehmen, bekamen sie durch abweichende Ergebnisse in nachfolgenden Experimenten den Verdacht, dass sich variierende Mengen von Spurenbestandteilen in ihren Luftzylindern befanden, um die Kammer zu füllen. Jetzt sieht es so aus, als ob der Schlüsselbestandteil Ammoniak gewesen sein könnte. Aber einige Mitglieder des CLOUD-Konsortiums bevorzugten auch (H2SO4 + H2O), und in früheren Durchläufen in Genf wurde kein Ammoniak mit Absicht benutzt. Also haben sie wenig Grund, sich darüber lustig zu machen.

In jedem Falle ist es lediglich von akademischem, aber nicht von praktischem Interesse, ob nun (H2SO4 + H2O) oder (H2SO4 + H2O + NH3) die zugrunde liegende Chemie ist. Es gibt immer Spuren von Ammoniak in der realen Luft, und dem CLOUD-Bericht zufolge braucht man nur ein Molekül in 30 Milliarden anderen. Falls das hilft, Svensmarks klimatischen Motor zu ölen, ist das gut zu wissen, aber es braucht keine Entschuldigungen und verändert die Implikationen auf das Klima kein bisschen.

Das Logo des Experiments, das Akronym „Cosmic Leaving Outdoor Droplets” implizierte immer ein starkes Interesse an Svensmarks Hypothese. Und die Rolle der Galaxie und der Sonne werden berücksichtigt.

Technisch ist CLOUD ein willkommener Fortschritt für die dänischen Experimente. Die Chemie ist nicht nur viel umfangreicher, sondern man kann auch molekulare Cluster bis zu dem geringen Durchmesser von 1,7 Nanometer aufspüren, verglichen mit den 4 nm in Dänemark. Und der Versuchsaufbau ermöglicht es den Wissenschaftlern, die Ionenchemie bei niedrigen Temperaturen zu untersuchen, korrespondierend mit zunehmender Höhe in der Atmosphäre. Die Clusterproduktion steigt rapide, wenn die Temperatur zurückgeht, bis „fast jedes negative Ion ein neues Partikel wachsen lässt“ (d. h. molekulares Cluster). Die niedrigste Temperatur, von der in der Studie berichtet wird, beträgt -25°C. Dies entspricht einer Höhe von 6000 Metern. Solange man nicht einen Regen von wolkenbildenden Aerosolen sichtbar machen will, ist das nicht sehr relevant für Svensmarks Interesse an den untersten 3000 Metern.

Wie die Warmisten ihren Damm gebildet haben

Gehe ich nun aus meiner Insider-Perspektive des CLOUD-Experiments hinaus und betrachte das Ganze im Umfeld einer politisierten Klimawissenschaft des frühen 21. Jahrhunderts, wird die stärkste Reaktion ein müder Seufzer der Erleichterung sein. Obwohl sie das niemals gesagt haben, wussten die Hohepriester der unbequemen Wahrheit – in Tempeln wie NASA-GISS, Penn State [University] und der University of East Anglia – immer, dass Svensmarks Hypothese der kosmischen Strahlen die Hauptbedrohung ihres skizzenhaften und ärmlich modellierten Gedankens der sich selbst verstärkenden Auswirkungen von Treibhausgasen war.

Mit der Erklärung des offensichtlich großen Einflusses der Sonne in früheren Jahrhunderten und Millenien und bei der Anwendung des gleichen Mechanismus‘ auf die Erwärmung im 20. Jahrhundert stellte Svensmark die Vorhersagen der Alarmisten in Frage – und mit ihnen die Milliarden von Dollar, die von ängstlichen Regierungen in das Geschäft der globalen Erwärmung gepumpt worden waren.

Für den Damm, der dazu gedacht war, einen wachsenden Strom von Entdeckungen aus dem Kopenhagener Frühling abzuwehren, wurde der erste Grundstein am Tag nach der ersten Bekanntmachung der Dänen über die Verbindung zwischen kosmischen Strahlen und Wolken auf einer Weltraumkonferenz in Birmingham, England, im Jahre 1996 gelegt. „Wissenschaftlich extrem naiv und unverantwortlich“ erklärte Bert Brolin als Vorsitzender des IPCC.

Da viele Journalisten sich daneben benahmen, indem sie über die Geschichte aus Birmingham berichteten, lag die oberste Priorität darin, die Medien zu zähmen. Die ersten Maurerarbeiten stellten sicher, dass alles, was Svensmark und seine Kollegen sagen könnten, ignoriert oder, falls das nicht gelingt, sofort durch einen warmistischen Wissenschaftler beseitigt wird. Seriöse Zeitungen wie The Times in London und die New York Times [und vielleicht auch die Süddeutsche Zeitung? A. d. Übers.] sowie seriöse Fernsehanstalten wie BBC reihten sich sofort ein. Enthusiastisch warmistische Magazine wie New Scientist und Scientific American brauchten kein Training in dieser Hinsicht.

Ganz ähnlich stellten die Zeitschriften Nature und Science, die in meiner Jugend sich selbst dafür priesen, vorherrschende Paradigmen herauszufordern, sehr gerne Zement für ein höheres Bauwerk zur Verfügung, um die verzwickte Hypothese auf dem wissenschaftlichen Niveau in Schach zu halten. Man streiche Svensmark die Förderung. Man weise seine wissenschaftlichen Studien zurück, aber man öffne jedem die Tür, der ihn kritisiert. Man trivialisiere seine Ergebnisse in Gestalt eines heiligen Erlasses des IPCC. Nichts davon ist für meinen Teil Paranoia, sondern eine Sache enger persönlicher Überwachung seit 1996.

„Es ist die Sonne, Dummkopf!” Die Geschichte handelt nicht wirklich von ein paar ungezogenen dänischen Physikern. Sie waren lediglich Sprecher für die brillantesten Ermittler der Klimaänderung. Da es die Sonne war, welche die Warmisten wirklich mit ihrem Damm abwehren wollten, konnten sie das nicht tun. Und was die Hilfe der Dänen betrifft, indem sie kurzerhand viele kosmische Strahlen mit großen Ausstößen von Gas davon bliesen, ermöglichte es die Sonne dem Team, detailliert der konsequenten Reduktion von Kondensationskernen und flüssigem Wasser in den Wolken auf die Spur zu kommen. Siehe hierzu auch meinen Beitrag hier. Übrigens, diese Forschungen entsorgten auch ein Häppchen Zweifel an der neuen CLOUD-Studie, dass nämlich die kleinen Speckstückchen der kosmischen Strahlen wirklich ausreichten, um Wolkentröpfchen zu bilden.

Mit dem zunehmenden Wissen hinter ihrem Damm, dass diesen zu überfluten drohte, stand den Warmisten noch eine letzte Möglichkeit zur Verfügung. Paradoxerweise war es CLOUD. Lange Verspätungen dieses Experiments, um den mikrochemischen Mechanismus des Svensmark-Effektes zu erforschen, wurden zur Hauptentschuldigung, keine Neubewertung der Rolle der Sonne bei der Klimaänderung vorzunehmen. Als der mikrochemische Mechanismus vorher durch das SKY-Experiment in Kopenhagen entdeckt und 2006 veröffentlicht wurde, sagten die Warmisten „Kein Teilchenbeschleuniger? Das bringt nichts! Wartet auf CLOUD!“ Als das Experiment in Aarhus den Mechanismus mit Hilfe eines Partikelbeschleunigers bestätigte, sagten sie “Oh, wieder diese Dänen! Wartet auf CLOUD!“

Nun, sie haben gewartet, und ihr Damm wurde gebrochen.

Hall of Shame

Was ist, wenn in der Rückschau dieser 14 Jahre die Physik so funktioniert hat, wie sie das sollte? Was wäre geschehen, wenn CLOUD, rasch angenommen und finanziert, mit all der Autorität des CERN bereits zu Anfang dieses Jahrhunderts durchgeführt worden wäre? Was wäre, wenn das IPCC hinsichtlich der Klimaänderung verantwortlich gearbeitet hätte; wenn  es die Rolle der Sonne berücksichtigt hätte und die Prophezeiungen der katastrophalen Erwärmung gedrosselt hätte?

Zunächst würde es keine Überraschung der „Schande [travesty]“ sein, dass die globale Erwärmung Mitte der neunziger Jahre mit der sich abschwächenden Sonne zum Stillstand gekommen ist. Riesige Summen für fehlgeleitete Forschung und Technologie sowie für Veranstaltungen zur Klimaänderung hätten gespart werden können. Die Armen der Welt und ihre fragile Umgebung hätten viel wichtigere Hilfe haben können als die für Vorkehrungen gegen die Erwärmung.

Und es wäre weniger Zeit für die vielen hervorragenden Leute aus Wissenschaft, Politik, Industrie, Finanzsektor, den Medien und den Künsten verblieben, sich in die menschengemachte Klimakatastrophe einzureihen. (In London beispielsweise von der Royal Society zum National Theatre). Traurig für sie, dass sie sich während der letzten zehn Jahre mit ihren warmistischen Einlassungen in die Hall of Shame gedrängt haben, wie die Bankiers vor dem Crash.

Weitere Links: Calders Aktualisierungen, 24 August 2011

Weitere Informationen zum Thema hier:

Vorbericht am 14. Mai 2011:  Update on the CERN CLOUD experiment:

Aus Physics World Head in a CLOUD [hier folgt ein Video, das das oben Gesagte in Worte fasst]

Kosmische Strahlen kommen voran in CLOUD:

Wolkenbildung könnte mit kosmischen Strahlen zusammenhängen

Studien zur Wolkenbildung werfen einen Schatten auf  bestimmte Klimamodelle:

Von der GWPF

Link zum CLOUD experiment am CERN.

Link zu diesem Artikel auf Wattsup: hier

Übersetzt von Chris Frey für EIKE

 




Energiewende: Merkels Großer Sprung. Ein kleiner Rückblick

Mao setzte beim Großen Sprung auch auf Scharlatane wie den sowjetischen Agronom Trofim Lyssenko. Der hatte schon in der UdSSR den Wissenschaftsbetrieb gründlich ruiniert, Vererbungs-Theorien beim Pflanzenmaterial entworfen, die ungeheure Ernteerträge versprachen, leider nie funktionierten. Weil sein Größenwahn dem Großen Vorsitzenden Mao gut passte, wurde Lyssenkos Lehre auch in China zum Dogma. Wer dagegen redete, kam ins Lager.

Auch bei der Eisen- und Stahlproduktion wollte Mao den Kreis quadrieren. 1957 hatte China 5,3 Millionen Tonnen Stahl produziert. 1975 sollten es ungeheure 700 Millionen Tonnen sein, so Maos Zielvorgaben. Statt moderner großer Hochöfen sollten viele kleine selbstgebastelte Öfchen, aus Sand, Steinen, Tonerde und Ziegeln gefertigt, diesen Schub auslösen und überall im Land massenhaft Eisen und Stahl erzeugen. Was bei der archaischen Produktionsweise heraus kam, war aber viel zu aufwändig produziert und außerdem von so mieser Qualität, dass es zum großen Teil nicht weiterverarbeitet werden konnte.

Erinnert das jemanden an Aktuelles? Noch etwas Geduld.

Ich selber, kurzer Ausflug, erinnere mich an eine Informationsreise ins China von 1979, wo Funktionäre die Begehung einer Eisenbrücke zum feierlichen Programmpunkt für die Besucher aus Deutschland gemacht hatten. Beim Gang über die eher schlichte Konstruktion – sie führte über einen Fluss bei Shanghai, wenn ich mich recht erinnere – fragte ich einen unserer Gastgeber, was es mit der Brücke denn nun auf sich hätte. Erfuhr, dass sie historische Bedeutung besaß. Sie war nämlich eine der wenigen, wenn nicht die einzige der Region, die aus dem berüchtigten „Volksstahl“ der Großer-Sprung-Ära gefertigt und trotzdem bis dato nicht zusammengekracht war.

Das Ergebnis des Großen Sprungs, der 1961 abgebrochen wurde, war etwas, das man einen Ökonomiezid nennen könnte. Die groteske Fehlsteuerung der chinesischen Planwirtschaft führte zu Chaos und Produktionszusammenbrüchen, schließlich zu Hungersnöten biblischen Ausmaßes, die zwischen 15 und 45 Millionen Menschen das Leben gekostet haben sollen. In der Mao-Biografie von Jung Chang und Jon Halliday werden Einzelheiten des Irrsinns in Kapitel 40 dokumentiert.

Wer heute durch den ländlichen Raum Deutschlands fährt, zum Beispiel in Niedersachsen, spürt einen Hauch von China, dem China Maos. Überall wird kleinteilig Strom produziert. Auf jedem dritten Haus steht ein staatlich gefördertes Solarfeldlein, in jeder zweiten Gemarkung daddeln Windräder, müffeln Biogasanlagen. Für die Fütterung der Letzteren hat sich schon jetzt die Landwirtschaft sichtbar und dramatisch verändert. Maisfelder ohne Ende; Maisfelder, wohin man blickt. Die Bodenpachten steigen rapide, noch mehr kleine Bauern müssen aufgeben. Der Begriff Vermaisung hat es bis in die letzte Lokalzeitung geschafft. Sogar die Naturschützer-Szene, ansonsten jedem erneuerbaren Unsinn zugeneigt, schlägt Alarm. Denn die riesigen Mais-Monokulturen, die wegen der staatlichen Förderung der „Erneuerbaren“ entstehen, schädigen die Böden, vergiften die Gewässer, vernichten Flora und Fauna. Ein alter Öko-Freak gestand mir neulich auf einer Party, er wisse selbstverständlich, dass Biogas- und Solaranlagen sinnlos seien. Was er für Windräder so nicht gelten lassen mochte, Kunststück: er ist an Windspargelfeldern finanziell beteiligt.

Noch eine Parallele zwischen Mao-China und Energiewende-Deutschland drängt sich auf. In beiden Fällen waren es Scharlatane und Ideologen, die das Märchen vom Großen Sprung, der ganz schnell machbar sei, in die Welt gesetzt haben – Trofim Lyssenko und der hl. Franz Alt von der Kirche zur solaren Erleuchtung haben in dieser Hinsicht einiges gemeinsam. In beiden Fällen basierten die Wendemärchen auf Zahlen, die keiner Überprüfung standgehalten hätten. Die phantastischen Erfolgsmeldungen, die gleich nach Beginn des Großen Sprungs von den Funktionären der chinesischen Landwirtschaft und Industrie hinausposaunt wurden, ähneln verblüffend den Hochrechnungen, die sich unsere Politiker heutzutage gern in die Tasche lügen lassen. Die Industrienation Deutschland, bis 2050 fast komplett erneuerbar energetisiert – dazu braucht man schon eine Mao-Denke.

Oder eine große Maise.

Blöd wie Brot, aber unvermeidlich wie Stuhlgang sind die üblichen Reden von windigen Geschäftemachern und grün gewendeten Politikern, die bei irgendeiner Einweihung eines heftig subventionierten Windparks in irgendeinem Entenhausen der Republik geschwungen werden. Textbaustein: „Dieser Windpark kann einen Ort von 3000 Einwohner mit Strom versorgen.“ Kann er natürlich nicht, aber kaum jemand hält dagegen. Schon gar kein so genannter Qualitätsjournalist, dessen Aufgabe es wäre, offenkundigen Unfug mit Lust zu zerpflücken.

Hier liegt noch eine Parallele zur frühen Volksrepublik China: Menschen, die es eigentlich besser wissen müssten, halten smart die Klappe. Denn wer gegen die grassierenden Energiesprung-Legenden anrecherchierte, stände in den meisten deutschen Medien schnell auf der zeitgeistigen Shitliste. Und abseits vom Mainstream zu sein, ist für die schreibenden Nachfahren der antiautoritären Bewegung – sad to say – womöglich beinahe so schlimm wie ins Lager zu wandern.

Damit endet der chinesisch-deutsche Vergleich. Nein, es wird bei uns natürlich keine Hungersnöte geben. Was wir an Nahrungsmitteln nicht mehr erwirtschaften, weil die Felder mit der Produktion von Gas-Mais beschäftigt sind, holen wir aus dem Ausland. Den Strom, welcher fehlt, weil Atomkraftwerke abgeschaltet werden und der Bau moderner Gas- und Kohlekraftwerke durch grüne BIs blockiert wird, diesen Strom holen wir uns ebenfalls aus dem Ausland. Solange, wie das Ausland partout nicht am deutschen Energiewesen genesen will. Also noch ziemlich lange.

No problem? Höchstens eines: Die hunderte Milliarden, die in ein aussichtloses Energiekonzept gesteckt werden, gibt es nicht doppelt. Sie fehlen, um neue, belastbare Energiequellen mit aller Kraft zu erforschen. Aber keine Sorge, damit beschäftigen sich längst andere. Im Ausland, wo sonst.

Energiewende-Deutschland hat dagegen den Großen Sprung. …..In der Schüssel.

von Gastautor Wolfgang Röhl

zuerst erschienen bei ACHGUT




CLOUD-Experiment beim CERN lässt Klimaschwindel auffliegen

Die elektrisch geladenen Teilchen können dann zu Keimen der Kondensation von Wasserdampf werden, indem sie anders geladene Wassermoleküle anziehen. Die winzigen, nur etwa 0,3 Nanometer großen Kondensationskerne können sich dann zu Clustern (Kondensationskeimen) von 1 bis 2 Nanometer Durchmesser zusammenballen, aus denen unter weiterem Beschuss mit elektrisch geladenen Teilchen 10 bis 20 Mikrometer große Wassertröpfchen werden können. Diese Tröpfchen können wieder zerfallen oder weiter wachsen und sich vermehren, bis sichtbare Wolken entstehen (siehe Abbildung).


Kosmische Partikel begünstigen die Tröpfchenbildung

Na und, könnte man dazu sagen. Das ist doch nichts Umwerfendes. Die Brisanz der am CERN erzielten Ergebnisse ergibt sich erst aus der Tatsache, dass die Intensität der Höhenstrahlung in der freien Natur im umgekehrten Verhältnis zur Sonnenaktivität schwankt: Ist die Sonnenaktivität (ablesbar an der Zahl und der Größe der Sonnenflecken) hoch, werden mehr kosmische Partikel vom starken solaren Magnetfeld abgelenkt. Ist die Zahl der Sonnenflecken gering, lässt das schwächere Magnetfeld mehr kosmische Strahlung in die Atmosphäre eintreten und es bilden sich mehr Wolken, was zu einer spürbaren Abkühlung der Erde führen muss.

Schon zu Beginn der 90er Jahre des vergangenen Jahrhunderts hatte der dänische Astrophysiker Henrik Svensmark auf der Basis der damals verfügbaren Klimadaten eine enge Korrelation zwischen der Sonnenaktivität und der Entwicklung der irdischen Durchschnittstemperatur festgestellt. Um die Mitte der 90er Jahre formulierte er die Hypothese, dass die wechselnde Sonnenaktivität mithilfe der Höhenstrahlung und der Wolken als Zwischenglied in erster Linie für Temperaturschwankungen auf der Erde verantwortlich sei. Schon vor 200 Jahren war dem berühmten englischen Astronomen William Herschel aufgefallen, dass die Brotpreise immer dann stiegen, wenn die Zahl der Sonnenflecken sehr niedrig war. Svensmark glaubte nun erklären zu können, warum das so ist. Doch als er seine Hypothese zusammen mit seinem Chef Eigil Friis-Christensen veröffentlichte, stellte ihn Bert Bolin, der damalige Vorsitzende des „Weltklimarates“ IPCC, als „naiv und unverantwortlich“ hin. Kein Wunder, denn Svensmarks Ansatz für die Aufklärung der Ursachen des Klimawandels widersprach dem vom IPCC in die Welt gesetzten Dogma, wonach der Klimawandel in der Hauptsache durch so genannte Treibhausgase ausgelöst wird. Svensmark bekam zunächst keine öffentlichen Gelder, um seine Hypothese im Labor zu testen. Immerhin konnte er mithilfe der Carlsberg-Stiftung das Experiment SKY, einen kleiner Vorläufer von CLOUD, durchführen.

Schon in den 90er Jahren regte der bekannte britische Wissenschaftsautor Nigel Calder an, Svensmarks Hypothese am viel besser ausgerüsteten europäischen Kernforschunsgzentrum CERN zu testen. Calder gewann die Aufmerksamkeit des am CERN arbeitenden schottischen Experimentalphysikers Jasper Kirkby, der eine Theorie der Wolkenentstehung entwickelt hatte, die mit Svensmarks Ansatz übereinstimmte. Doch das CERN konzentrierte seine Finanzmittel auf das Large Hadron Collider Experiment (LHC). Für das im Vergleich dazu bescheidene CLOUD-Experiment war kein Geld übrig. Jasper Kirkby gelang es schließlich nach zähen Verhandlungen, das CLOUD-Experiment im Herbst 2009 zu starten. Mitte 2010 erschien ein viel versprechender Zwischenbericht über den Verlauf des Experiments. Inzwischen sind die Arbeiten abgeschlossen und die Welt wartet auf die Veröffentlichung der Ergebnisse. Doch schon vorab hat CERN-Generaldirektor Rolf-Dieter Heuer in einem Mitte Juli in „Welt-online“ erschienenen Interview erklärt, er habe seine Mitarbeiter angewiesen, die Versuchsdaten ohne jegliche Interpretation zu veröffentlichen, um damit keine politische Diskussion anzufachen. Hier ein Auszug aus diesem Interview:

Welt Online: „Mit großer Spannung werden auch die Ergebnisse des so genannten Cloud-Experiments erwartet, bei der die Bildung von Wolken erforscht wird. Diese Ergebnisse könnten doch für das Verständnis des globalen Klimawandels wichtig sein?“
Heuer: „Es geht hier in der Tat darum, die Wolkenbildung besser zu verstehen. In der Natur gibt es sehr viele Parameter, die das beeinflussen – unter anderem die Temperatur, die Luftfeuchtigkeit, Verunreinigungen und auch die Höhenstrahlung. Beim Experiment „Cloud“ geht es darum, den Einfluss der Höhenstrahlung auf die Wolkenbildung zu untersuchen. Die dafür genutzte Strahlung kommt aus dem Beschleuniger. Und in einer Experimentierkammer kann unter kontrollierten Bedingungen erforscht werden, wie die Tröpfchenbildung von der Strahlung und Schwebstoffen abhängt. Die Ergebnisse werden in Kürze veröffentlicht. Ich habe die Kollegen gebeten, die Ergebnisse klar dazustellen, aber nicht zu interpretieren. Damit würde man sich sofort in die hochpolitische Arena der Klimawandeldiskussion begeben. Man muss sich darüber klar sein, dass es sich bei der Höhenstrahlung nur um einen von sehr vielen Parametern handelt.“

Das lässt vermuten, dass die Ergebnisse tatsächlich politischen Sprengstoff bergen, auch wenn sie, alleine genommen, sicher nicht genügen, um das Treibhaus-Lügengebäude zum Einstürzen zu bringen. Im Verein mit den kürzlich veröffentlichten Satelliten-Messungen der NASA, über die wir vor kurzem berichteten, könnte das aber gelingen. Diese Messungen haben klar gezeigt, dass von einem von den Menschen verursachten Hitzestau in der Atmosphäre nicht die Rede sein kann. Der gegen Ende des vergangenen Jahrhunderts registrierte Temperaturanstieg über den Landmassen der Erde, der inzwischen zum Stehen gekommen ist, muss also andere Ursachen haben. Als Erklärung bietet sich nach dem erfolgreich abgeschlossenen CLOUD-Experiment die schwankende Sonnenaktivität an. Die Billionensummen, mit denen die EU den angeblich von uns Menschen verursachten Klimawandel bekämpfen will, sind buchstäblich für die Katz.

Edgar Gärtner EIKE

der Originalbeitrag erschien hier

Weiterführende Links mit aktuellen Ergebnissen die die obigen Vermutungen bestätigen hier :

1. Die Welt Unterschätzen wir die Sonne nicht!

2. GWPF CERN Experiment Confirms Cosmic Rays Can Influence Climate Change

und hier besonders ausführlich

3. Dirk Maxeiner auf ACHGUT: Cloud-Experiment am Cern oder: Ein Loch ist im Treibhaus

4. Goethe Universität Frankfurt: Klimamodelle: Beschreibung der Aerosolneubildung muss revidiert werden




Die globale Erwärmung, so sie wirklich stattfinden würde, wäre ein Segen für uns

Die Bemühungen der Environmental Protection Agency (EPA) zur Auffindung von Gefährdungen führten schon im Dezember 2009 zu der Behauptung, dass das „gehobene Niveau“ von THG-Emissionen in die Atmosphäre „die öffentliche Gesundheit und den Wohlstand gefährde“. Die EPA behauptet auch, dass es die Autorität hat, neue Regelungen unter dem Clean Air Act (CAA) einzuführen.

Aber Idso, der Vorsitzende des Center for the Study of Carbon Dioxide, argumentiert, dass dieses konventionelle Denken genau falsch ist (exactly wrong). Er führte 55 alphabetisch geordnete Fälle an, wie das CO2 tatsächlich zu Verbesserungen für die Umwelt beiträgt, und zwar in einem neuen Buch mit dem Titel “The Many Benefits of Atmospheric CO2 Enrichment. Idso war der Ko-Autor des Buches zusammen mit seinem Vater Dr. Sherwood Idso.

“Pflanzen in einer mit CO2 angereicherten Atmosphäre bevorzugen ganz allgemein wärmere Temperaturen als jene in einer Atmosphäre mit geringerem CO2-Anteil“, sagte Idso bei der Beschreibung seiner Serie von Experimenten. „Die Verdoppelung der atmosphärischen CO2-Konzentration hebt die optimale Temperatur für die Photosynthese um mehrere Grad Celsius, und sie hebt auch die Temperatur, bei der die Pflanzen den Hitzetod sterben“.

Als Ergebnis eines höheren atmosphärischen CO2-Anteils werden sich die Pflanzen sehr wahrscheinlich in ihren natürlichen Habitaten verstärkt entwickeln, was sich auch vorteilhaft auf das Tierleben auswirken dürfte, das von diesen Pflanzen abhängig ist, hat Idso beobachtet.

 „Am Ende steht eine Zukunft mit einer wahrscheinlich großen CO2-induzierten Zunahme der regionalen Biodiversität, was im Gegensatz zum behaupteten globalen Aussterben von Spezies steht“, sagte er. „Eine Menge wissenschaftlich begutachteter Literatur unterstützt dieses Ergebnis.“

Roger Helmer, Mitglied des Europaparlaments und bekannter Klimaskeptiker, nahm ebenfalls an dieser Diskussion teil. Organisationen wie das IPCC unterdrücken einige Schlüsselpassagen an Informationen in ihren Berichten, sagte er.

 „Jeder weiß, dass CO2 ein Treibhausgas ist. Was aber kaum jemand zu wissen scheint, ist, dass Wasserdampf ein viel wirksameres Treibhausgas ist, und so weit ich weiß, werden wir, solange der Wind über den Ozean weht, nie in der Lage sein, den Gehalt an Wasserdampf zu kontrollieren“, merkte er an.

Obwohl das IPCC davor warnt, dass erhöhte Anteile von CO2 auch zu einer Erhöhung des Wasserdampfes in der Atmosphäre führen, übersieht diese Argumentation die Möglichkeit „negativer Feedbacks“, wie Helmer erwähnte.

Weiter erklärte er: „Es kann auch sein, dass Wasserdampf zu mehr Bewölkung führt, was die Albedo der Erde steigen lassen würde. Dies bedeutet, dass mehr Sonnenlicht und mehr Energie zurück in den Weltraum reflektiert werden würde.“

Eine erneuerte Aufwertung des CO2 als ein natürlich vorkommendes und lebenserhaltendes Element kann helfen, die Politik von teuren und kontraproduktiven Initiativen abzuhalten, die durch grüne Gruppen favorisiert werden, schlug Robert Ferguson, der Präsident des Science and Public Policy Institute (SPPI) vor. Ferguson führte den Vorsitz in der Podiumsdiskussion.

Kevin Mooney is a contributing editor to Americans for Limited Government.

Den Originalartikel finden Sie hier

Anmerkung des Übersetzers: Der gleiche Artikel erschien auch bei www.icecap.us, jedoch unter einer anderen Überschrift, nämlich: CO2 increase would be a boon to humanity (etwa: Eine Zunahme  von CO2 wäre ein Segen für die Menschheit).

Der Text ist jedoch identisch.

Übersetzt von Chris Frey für EIKE




Wärmedämmung: Bis zum Verschimmeln!

Was Politiker nicht schert

Nicht anders zu beurteilen sind die staatlichen Zwangsmaßnahmen zur Wärmedämmung, um, wenn es kalt ist, weniger heizen zu müssen. Diese Maßnahmen gelten gerade auch für private Häuser. Ich aber will nicht dämmen, jedenfalls nicht dämmen müssen. Und wenn mir das Heizen zu teuer wird, dann heize ich weniger und ziehe mich wärmer an. Oder ich dämme schließlich doch. Aber freiwillig. Ob ich mir zu teures Heizen leiste, ist mein Privatvergnügen. Auch Dämmen soll mein Privatvergnügen sein. Und bleiben. Ob ich entweder teuer heize oder aber heizkostensparend dämme, geht keinen etwas an. Schon gar nicht den Staat und seine Politiker. Das schert die aber nicht. Eigenständigkeit der Bürger, Selbstverantwortung, Subsidiarität, Bürgerwille? Nicht gewollt. Wo kämen wir mit so etwas hin! Die Regulierungssüchtigen in der Politik sollen gefälligst danach handeln, was einst Goethe so formuliert hat: "Welche Regierung die beste sei? Diejenige, die uns lehrt, uns selbst zu regieren."

Staatlicher Dämmbefehl auch für alte Häuser

Neulich las man den freundlichen Hinweis, bis Ende des Jahres müssten alte Häuser besser gedämmt sein und Heizungen weniger Energie verbrauchen. Nun müsse man sich sputen, dann seien neue Regeln zur Energieeffizienz einzuhalten. Diese Nachrüstpflichten gelten für alle Immobilieneigentümer, die ihren Altbau nach dem 1. Februar 2002 übernommen haben, ihn auch selbst bewohnen. Eigentümer, die schon vor dem Stichtag in ihrer Immobilie gewohnt haben, sind allerdings nicht betroffen, außer wenn sie ihren Altbau ohnehin umfassend sanieren oder gänzlich umbauen. Dann müssen sie die Vorgaben ebenfalls umsetzen.

Dämmen bis zum schimmelig werden

Bürger, die rechnen können (und wollen), werden schnell dahinterkommen, wieviele lange Jahre es dauert, bis der Investitionsaufwand für das Dämmen die Höhe der Heizkostenersparnis erreicht und sich erst dann amortisiert hat. Und ist das Haus erst luftdicht eingepackt, müssen sie sich Sorgen um das Verschimmeln machen. So richtig zwar die Mahnung ist, regelmäßig ausgiebig zu lüften, um das Haus vor Schimmelbildung zu bewahren, so wahrscheinlich ist aber auch, dass dies mit der Zeit vernachlässigt oder ganz vergessen wird. Doch selbst dann, wenn stets brav gelüftet wird, drohen Feuchtigkeit und Schimmel, so an heißen Tagen im Sommer mit hoher Luftfeuchtigkeit. Dann dringt diese beim Lüften von außen ein, schlägt sich an den Wänden nieder und begünstigt, dass sich Schimmel bildet. Ein höheres Risiko der Bewohner für Asthma, Allergien und höhere Infektanfälligkeit sind die Folge.

Der scheinbar harmlose Beginn

Gesetzlich fixiert sind die Zwangsmaßnahmen in der Energiesparverordnung (EnEV) von 2009. Die ist, wie bei Regulierern üblich, ein Ungetüm – im Umfang, in der Detail-Dichte, auch sprachlich. Begonnen hatte es scheinbar harmlos und sinnfällig: Die EnEV löste zwei bestehende Verordnungen ab, die Wärmeschutzverordnung und die Heizungsanlagenverordnung. Am 1. Februar 2002 trat sie in Kraft. Schon 2004 kam ihre zweite Fassung, denn die EG-Richtlinie vom Dezember 2002 über die Gesamtenergie-Effizienz von Gebäuden war in nationales Recht umzusetzen. Die bisher letzte Änderung ist seit dem 1. Oktober 2009 in Kraft und heißt abgekürzt EnEV 2009. Das erklärte Ziel ist, den Bedarf an Energie, Heizung und Warmwasser um rund 30 Prozent zu senken. Für 2012 ist eine weitere Senkung von 30 Prozent beschlossen. Bis 2050 soll der CO2-Ausstoß von Wohnhäusern um 80 Prozent gedrückt, dafür also soll schon jetzt teuer gedämmt werden – teuer nicht nur für die Hauseigentümer, sondern auch für Mieter, weil die Kosten auf die Miete umgelegt werden.

Teuer dämmen wegen eines Riesenschwindels

Hinter allem dem steckt der Wahn, die Emissionen von CO2 zu begrenzen. So nämlich will die herrschende Klasse „das Klima schützen“, weil CO2 doch ein so schädliches „Treibhausgas“ sei, das die Erde erwärme. Jedenfalls lautet so die Begründung für die Bevölkerung, damit diese sich vorerst nicht auflehnt. Daher heißt das, was die Bundesregierung bei ihrer Klausurtagung in Meseberg am 23. August 2007 beschlossen hat, auch Integriertes Energie- und Klimaprogramm (Meseberger Beschlüsse). Mit ihm werden die EU-Richtungsentscheidungen vom Frühjahr 2007 in Sache Klimaschutz, Ausbau der „erneuerbaren Energien“ und Energieeffizienz in ein deutsches Maßnahmenpaket gegossen – völlig unbeeindruckt davon, dass die Behauptung, anthropogenes CO2 wirke wie ein Treibhaus und erwärme die Erde, längst als Riesenschwindel widerlegt ist. Dem Mitbegründer von Greenpeace, Paul Watson wird die Äußerung zugeschrieben: „Es spielt überhaupt keine Rolle, was die Wahrheit ist, wichtig ist nur, was die Leute glauben, dass es wahr ist.“ Und Goethe hat einmal gesagt: „Wer die Menschen betrügen will, muss vor allen Dingen das Absurde plausibel machen.“

Die Profiteure des CO2-Wahns machen mit …

In Wirklichkeit handelt es sich um ein verkapptes staatlich inszeniertes Konjunkturprogramm – bestenfalls, denn nach anderer Lesart sogar um ein Weltverbesserungs- oder Weltbeherrschungsprogramm. Profiteure sind unter anderem die Hersteller von Windkraft- und Photovoltaikanlagen, die Zulieferfirmen in Maschinenbau und Elektrotechnik, die Bauwirtschaft, der Schiffbau mit Spezialschiffen für Windanlagen im Meer. Auch Landwirte verdienen, Dämmstoffhersteller verdienen, Dachdecker verdienen, andere Handwerker ebenfalls. Auch der Export wird durch die staatlich befohlene und subventionierte Technik beflügelt.

… sind aber von der Begründung nicht überzeugt

Der Diplom-Meteorologe Klaus-Eckart Puls schrieb in einer auch mir zugegangenen E-Mail: „Die meisten der Profiteure (ich habe mit einigen gesprochen) sind weder von der Effektivität und Wirtschaftlichkeit noch von der Begründung (CO2-Vermeidung, Welt-Klima-Rettung) überzeugt; sehr wohl aber sind sie der Ansicht, dass sich damit gut und schnell Geld verdienen lässt. Steuer-Mittel, d.h. Subventionen, sprudeln derzeit wie neue Öl-Quellen!! Der ‚Dumme’ – will meinen: der Zahler und der Benachteiligte – ist der unmündige, ideologisch verbrämte, häufig (leider!!) auch uninteressierte und somit insgesamt meist schlecht bis gar nicht über die Hintergründe informierte Steuerzahler/Bürger.“
Unterschlagen wird, was an Nutzen entgeht
Amtlich vorgeschwärmt wird nur vom Nutzen dieses Konjunkturprogramms, unterschlagen oder verharmlost wird, was es wirklich kostet. Zu diesen Kosten gehören auch jene, die man nicht sieht. Die bestehen darin, was der Volkswirtschaft und den Menschen an Nutzen entgeht, wenn sie die ihnen abgezwungenen Milliarden und Abermilliarden für andere Zwecke verwenden würden, auf jeweils individuelle Weise, nicht auf zentralverwaltungswirtschaftlichen Befehl. Wie der einzelne Mensch sein Geld ausgibt, ist gesamtwirtschaftlich sinnvoller, als wenn der Staat, als wenn machtbesessene Politiker alle Menschen zum Geldausgeben dafür zwingen, was allein sie für richtig halten.
Mit dem Vorwand des (an sich sinnvollen) Umweltschutzes wird uns schon viel Unnötiges aufgezwungen und noch mehr aufgezwungen werden. Mit dem Vorwand Klimaschutz hat es schlimmste Ausmaße angenommen. Und stets wird eine Minderheit daran verdienen und die Mehrheit dies finanzieren müssen und damit belastet werden. Warum nimmt die Mehrheit das hin? Eine Begründung liefert Schiller: „Verstand ist stets bei wenigen nur gewesen.“

Dr. Klaus Peter Krause

zuerst erschienen bei eigentümlich frei




Neue Studie von Lindzen und Choi zeigt, dass die Modelle die Klimasensitivität übertreiben

Abbildung 11: Sensitivität im Vergleich zum Feedback-Faktor.

Dr. Richard Lindzen hat mir von dieser wichtigen neuen Studie berichtet. „Es hat fast 2 Jahre gedauert, diese Studie zu veröffentlichen“, sagte er. Teil des Problems waren feindlich gesinnte Begutachter in früheren Eingaben an JGR (Journal of Geophysical Research), ein Umstand, den wir kürzlich auch bei anderen skeptischen Arbeiten erlebt haben wie z. B. O’Donnell’s Erwiderung auf Steig et al (die Antarktis erwärmt sich), wobei Steig selbst unfairerweise als Begutachter fungierte, und ein feindlicher noch dazu.

Trotz der feindlichen Begutachter wird diese Studie jetzt in einer der nächsten Ausgaben des Asia-Pacific Journal of Atmospheric Sciences veröffentlicht werden, und es ist eine Ehre für mich, sie bereits jetzt hier präsentieren zu können. Die Autoren stellen fest:

Wir haben die Annäherung von Lindzen und Choi (2009) korrigiert, und zwar auf der Basis der gesamten Kritiken an der früheren Arbeit (Chung et al. 2010, Murphy 2010, Trenberth et al. 2010).”

Das hier vorgestellte Papier antwortet auf die Kritik und korrigiert frühere Annäherungen, wo es nötig ist. Die früheren Ergebnisse wurden nicht signifikant verändert, und wir zeigen, warum sich diese Ergebnisse von anderen Ergebnissen wie z. B. von Trenberth et al. (2010) und Dessler (2010) unterscheiden.

Während dies also einige Kritiker befriedigen könnte, wenn man die Feindseligkeit gegenüber dem Gedanken betrachtet, dass es eine geringe Sensitivität für Antriebe gibt, bin ich sicher, dass eine ganze neue Meute von Kritikern zu dieser Studie wachsen wird. Die Reaktion auf diese Studie in Kreisen der AGW-Befürworter wird wie das postulierte Feedback auf das Klimasystem der Erde sicher negativ sein. Lassen wir das Spiel von Neuem beginnen!

Einige Höhepunkte:

Jedoch würde die Erwärmung bei einer Verdoppelung des CO2-Gehaltes lediglich etwa 1°C betragen (basierend auf einfachen Kalkulationen, bei denen die Strahlungsstärke und die Planck-Temperatur von der Wellenlänge abhängen, zusammen mit den Dämpfungs-Koeffizienten der gut durchmischten CO2-Moleküle; eine Verdoppelung jedweder Konzentration in ppmv erzeugt die gleiche Erwärmung, und zwar wegen der logarithmischen Abhängigkeit der Absorption durch die Menge des CO2; IPCC 2007)

Diese moderate Erwärmung ist viel geringer, als gegenwärtige Klimamodelle bei einer Verdoppelung des CO2-Gehaltes erwarten. Die Modelle simulieren bei einer Verdoppelung eine Erwärmung von 1,5°C bis 5°C und sogar noch mehr.

Als Ergebnis zeigt sich eine geschätzte Klimasensitivität bei einer Verdoppelung des CO2-Gehaltes von 0,7 K (innerhalb eines Intervalls von 0,5 K bis 1,3 K bei einem Niveau von 99%). Dieses auf Beobachtungen beruhende Ergebnis zeigt, dass die im Zustandsbericht 4 des IPCC erwähnten Modell-Sensitivitäten vermutlich größer sind als man nach den Abschätzungen aus Beobachtungen annehmen kann.

Unsere Analyse der Daten erfordert lediglich eine relative Stabilität der Instrumente über kurze Zeiträume und ist weitgehend unabhängig von langzeitlichen Strömungen.

Willis Eschenbach wird zweifellos einige interessante Aspekte in dieser Studie finden, da es darin um einige der gleichen Regulations-Mechanismen in den Tropen geht, die Willis bereits hier auf WUWT angesprochen hat [auf Deutsch auch bei EIKE u. a. hier].

 

Über die durch Beobachtungen festgestellte Klimasensitivität und deren Bedeutung

Asia-Pacific J. Atmos. Sci., 47(4), 377-390, 2011 DOI:10.1007/s13143-011-0023-x

Einführung:

Wir schätzen die Klimasensitivität aus Beobachtungen ab, indem wir jahreszeitbereinigte Fluktuationen der Wassertemperatur (SST) und die konkurrierenden Fluktuationen der an der Obergrenze der Atmosphäre (TOA) ausgehenden Strahlung nutzen, gemessen und beobachtet von den ERBE (1985 bis 1999) und CERES (2000 bis 2008)-Satelliteninstrumenten. Ausgeprägte Perioden der Erwärmung und Abkühlung der SST wurden benutzt, um die Feedbacks zu evaluieren. Eine frühere Studie (Lindzen und Choi 2009) war Gegenstand signifikanter Kritik. Diese aktuelle Studie stellt eine Erweiterung der früheren Arbeit dar, in der die zahlreich geäußerte Kritik berücksichtigt wird. Die hier präsentierte Analyse berücksichtigt die 72-tägige Präzessionsperiode der ERBE-Satellitendaten besser als in der früheren Arbeit. Wir entwickeln eine Methode, das Rauschen in der hinausgehenden Strahlung genauso zu bestimmen wie Änderungen der Strahlung, die zu Änderungen der SST führen. Wir zeigen, dass unsere neue Methode ganz gut geeignet ist, positive von negativen Feedbacks zu trennen und die negativen Feedbacks zu quantifizieren. Im Gegenteil, wir zeigen, dass einfache Regressionsmethoden, die in vielen Studien zur Anwendung kommen, generell positive Feedbacks übertreiben und sogar dann noch positive Feedbacks zeigen, wenn diese in Wirklichkeit schon negativ sind. Wir argumentieren, dass Feedbacks zum größten Teil in den Tropen konzentriert auftreten, und die tropischen Feedbacks können so justiert werden, dass sie für die Auswirkungen auf der Welt als Ganzes stehen können. Tatsächlich zeigen wir, dass unter Einschluss aller CERES-Daten (nicht nur aus den Tropen) ähnliche Resultate zeigt wie für die Tropen allein – wenn auch mit größerem Rauschen. Erneut zeigt sich, dass die hinaus gehende Strahlung durch SST-Fluktuationen über das Null-Feedback hinausgeht und folglich ein negatives Feedback impliziert. Im Gegensatz dazu zeigen modellierte, an der TOA ausgehende Strahlungsflüsse von 11 atmosphärischen Modellen aufgrund beobachteter SST weniger als das Null-Feedback, was konsistent ist mit den positiven Feedbacks, die diese Modelle charakterisieren. Die Ergebnisse zeigen, dass die Modelle die Klimasensitivität übertreiben.

Schlussfolgerungen:

Wir haben auf der Grundlage all der Kritik (Chung et al. 2010; Murphy 2010; Trenberth et al. 2010) zu dem früheren Artikel von Lindzen und Choi (2009) die darin gemachten Aussagen korrigiert. Um die statistische Signifikanz der Ergebnisse zu verbessern, haben wir zu allererst die ERBE-Daten durch die CERES-Daten ersetzt, dann haben wir das Rauschen mit einer Glättung über 3 Monate heraus gefiltert, haben objektiv die Intervalle aufgrund dieser geglätteten Daten gewählt und haben vertrauenswürdige Intervalle für alle Abschätzungen der Sensitivität vorgestellt. Diese Bemühungen haben uns geholfen, noch genauere Klima-Feedback-Faktoren zu erhalten als mit den monatlichen Daten. Als nächstes spiegeln unsere neuen Formeln zum Klimafeedback und zur Klimasensitivität, dass das Feedback in den Tropen auch in der übrigen Welt zu finden ist, so dass die Region der Tropen jetzt sauber als ein offenes System identifiziert werden konnte. Und zuletzt, die Feedback-Faktoren aus den atmosphärischen Modellen sind konsistenter mit der vom IPCC definierten Klimasensitivität als jene aus den gekoppelten Modellen. Dies deswegen, weil vor dem Hintergrund der Veränderungen im Strahlungshaushalt durch sich veränderte Bewölkung und der sich dadurch ändernden Wassertemperatur die Abschätzungen des Klima-Feedbacks dazu tendieren, ungenau zu sein. Mit all diesen Korrekturen lautet die Schlussfolgerung aber immer noch, dass alle gegenwärtigen Modelle die Klimasensitivität immer noch überschätzen (einige sehr erheblich). Mehr noch, wir haben gezeigt, warum Studien, die nur einfache Regressionen der Änderungen des Strahlungsflusses (ΔFlux), die zu Änderungen der SST (ΔSST) führen, kaum geeignet sind, Feedbacks zu bestimmen.

Als Reaktion auf die Kritik daran, dass wir unser Augenmerk auf die Tropen gelegt haben (Murphy 2010, Trenberth et al. 2010) haben wir die kompletten Aufzeichnungen von CERES für den Globus analysiert (Dessler 2010). (Man beachte, dass ERBE-Daten aus hohen Breiten nicht zur Verfügung stehen, weil der beobachtete Bereich nur von 60° S bis 60° N reicht). Wie im vorigen Abschnitt gezeigt, führt die Verwendung der globalen CERES-Daten zu einem Ergebnis, dass grundsätzlich ähnlich der Daten aus den Tropen in dieser Studie ist. Die globalen CERES-Aufzeichnungen enthalten jedoch mehr Rauschen als die Aufzeichnungen aus den Tropen. Dieses Ergebnis verleiht dem Argument Nachdruck, dass das Feedback durch Wasserdampf hauptsächlich auf die Tropen beschränkt ist, und es gibt Gründe für die Annahme, dass dies auch für das Feedback durch Wolken gilt. Obwohl Klima-Feedbacks im Prinzip aus allen Breiten stammen können, gibt es stichhaltige Gründe für die Annahme, dass sie sich tatsächlich hauptsächlich in den Tropen konzentrieren. Das bekannteste Modell-Feedback ist jenes durch Wasserdampf, wobei allgemein davon ausgegangen wird, dass sich die Modelle so verhalten, als ob die Relative Feuchtigkeit einen festen Wert hat. Pierrehumbert (2009) untersuchte die Ausstrahlung als eine Funktion der Temperatur an der Erdoberfläche in Atmosphären mit einer theoretisch konstanten Relativen Feuchtigkeit. Seine Ergebnisse zeigt die Abbildung 13.

Abbildung 13. OLR im Vergleich mit der Oberflächentemperatur von Wasserdampf in Luft mit einer konstant gehaltenen Relativen Feuchtigkeit. Der Druck an der Oberfläche beträgt 1 Bar. Das Temperaturprofil im Modell ist die Feuchtadiabate in Wasser/Luft. Die Berechnungen wurden mit dem Strahlungscode des Community Climate Model durchgeführt (Pierrehumbert 2009).

Die spezifische Feuchtigkeit ist außerhalb der Tropen gering, während sie in den Tropen hoch ist. Wir sehen, dass sich unter außertropischen Bedingungen die ausgehende Strahlung eng der Planck’schen Schwarzkörperstrahlung annähert (was zu einem geringen Feedback führt). Unter tropischen Bedingungen jedoch wird die Zunahme der ausgehenden Strahlung unterdrückt, was ein substantielles positives Feedback impliziert. Ebenso gibt es Gründe anzunehmen, dass sich Wolken-Feedbacks zum größten Teil auf die Tropen beschränken. In den außertropischen Gebieten sind die Wolken meist stratiformen Charakters, die sich bei aufsteigender Luftbewegung bilden, während Gebiete mit Absinken wolkenfrei sind. Hebung und Absinken werden zum größten Teil durch großräumige Wellenbewegungen bestimmt, die die Meteorologie der außertropischen Gebiete bestimmen. Für diese Wellen erwarten wir etwa 50% Wolkenbedeckung, unabhängig von der Temperatur (obwohl einige Details von der Temperatur abhängig sein können). Andererseits werden hohe Wolken in den Tropen meistens durch das Auswehen aus den Cumulonimbus-Türmen bestimmt, und es wird beobachtet, dass die Wolkenbedeckung signifikant von der Temperatur abhängt (Rondanelli und Lindzen 2008).

Wie schon bei LCH01 [Lindzen und Choi 01] angemerkt, resultiert der Beitrag der auf die Tropen beschränkten Feedbacks aus den Wechselwirkungen mit den Feedback-Flüssen der außertropischen Gebiete. Dies führte zur Einführung des verbindenden Faktors (sharing factor) c in Gleichung 6. Die Wahl eines größeren Faktors c führt zu einem kleineren Beitrag des tropischen Feedbacks zur globalen Sensitivität, aber die aus der Beobachtung abgeschätzte Auswirkung auf die Klimasensitivität ist gering. Zum Beispiel ist bei einem Faktor c = 3 die Klimasensitivität aus der Beobachtung und den Modellen 0,8 K und einem höheren Wert (zwischen 1,3 K und 6,4 K). Mit einem Wert c = 1,5 liegt die globale Gleichgewichts-Sensitivität aus der Beobachtung und den Modellen bei 0,6 K und irgendeinem Wert größer als 1,6 K. Man beachte, dass wir wie in LCH01 nicht die Möglichkeit von Feedbacks in außertropischen Gebieten ausschließen, sondern dass wir uns lediglich auf den Beitrag aus den Tropen zum globalen Feedback konzentrieren. Man beachte auch, wenn man die dynamischen Wärmetransporte in außertropische Gebiete berücksichtigt, dass das Überschätzen des Feedbacks aus den Tropen durch die GCMs zu einer noch größeren Überschätzung der Klimasensitivität führen kann (Bates 2011).

Dies unterstreicht, wie wichtig die tropische Domäne selbst ist. Unsere Analyse der Daten erfordert lediglich eine relative Stabilität der Messinstrumente während kurzer Zeitspannen, und sie ist weitgehend unabhängig von langzeitlichen Abweichungen. Was die unterschiedlichen Messmethoden der Instrumente von ERBE und CERES betrifft, wiederholten Murphy et al. (2009) die Analyse der CERES-Daten von Forster und Gregory (2006) und fanden sehr unterschiedliche Werte als jene von ERBE. In dieser Studie jedoch die Auswirkungen der Addition der CERES-Daten zu den ERBE-Daten auf die Ergebnisse von ΔFlux/ΔSST nur gering – außer dass deren Wert ein wenig steigt (was allerdings auch der Fall ist, wenn nur die CERES-Daten verwendet werden). Dies kann sein, weil diese frühere einfache Regression die Verzerrung von Feedback-Prozessen durch Ausgleich einschließt. Um einen präzisen Feedback aus den Daten abzuleiten, ist die einfache Regressionsmethode von der Datenperiode abhängig, während dies bei unserer Methode nicht der Fall ist. Das Ergebnis der einfachen Regression in Abbildung 7 ist schlechter, wenn die Zeit der Modellintegration länger ist (möglicherweise wegen des größeren Einflusses zunehmender Strahlungsantriebe).

Unsere Studie legt auch nahe, dass in gekoppelten Ozean-Atmosphäre-Modellen die Atmosphäre und der Ozean zu schwach gekoppelt sind, da die thermische Koppelung umgekehrt proportional zur Sensitivität ist (Lindzen und Giannitsis 1998). Newman et al. (2009) hatten angemerkt, dass die Koppelung entscheidend für die Simulationen von Phänomenen wie El Niño ist. Folglich können Korrekturen der Sensitivität in den aktuellen Klimamodellen sehr gut das Verhalten gekoppelter Modelle verbessern und sollten daher vermehrt angebracht werden. Man sollte beachten, dass es bereits unabhängige Tests gegeben hat, die ebenfalls eine geringere Sensitivität nahe legen als von den aktuellen Modellen vorhergesagt. Diese Tests basieren auf den Auswirkungen vulkanischer Eruptionen (Lindzen und Giannitsis 1998), auf der vertikalen Struktur beobachteter im Vergleich zu simulierter Temperaturzunahme (Douglass 2007, Lindzen 2007), auf die Erwärmung der Ozeane (Schwartz 2007, Schwartz 2008) und auf Satellitenbeobachtungen (Spencer und Braswell 2010). Die meisten Behauptungen zu einer größeren Sensitivität basieren auf Modellergebnissen, von denen wir gerade gezeigt haben, dass sie in dieser Sache sehr in die Irre führen können. Es gab auch Versuche, die Sensitivität aus paläoklimatischen Daten abzuleiten (Hansen et al. 1993), aber das sind keine wirklichen Tests, da der Antrieb wegen der Ungewissheiten hinsichtlich der Bewölkung, des Staubs und anderer Faktoren unbekannt ist. Schließlich haben wir gezeigt, dass die Versuche, Feedbacks der SST durch simple Regressionen der von Satelliten gemessenen hinaus gehenden Strahlung zu erhalten, unzweckmäßig sind.

Ein letzter Punkt muss noch erwähnt werden. Geringe Sensitivität der globalen Temperaturanomalien als Antrieb im globalen Maßstab impliziert nicht, dass wesentliche Klimaänderungen nicht stattfinden können. Die Erde hat natürlich erhebliche Kaltphasen in den Eiszeiten durchgemacht, ebenso wie Warmzeiten wie z. B. im Eozän (Crowley und North 1991). Wie jedoch in Lindzen (1993) schon erwähnt, waren diese Episoden hauptsächlich mit Änderungen der Temperaturdifferenz zwischen Äquator und Polen verbunden und räumlich heterogenen Antrieben. Änderungen der globalen Mitteltemperatur sind einfach die Folge solcher Änderungen und nicht deren Ursache.

Richard S. Lindzen (1) and Yong-Sang Choi (2)

(1) Program in Atmospheres, Oceans, and Climate, Massachusetts Institute of Technology, Cambridge, U. S. A.
(2) Department of Environmental Science and Engineering, Ewha Womans University, Seoul, Korea

==============================================================

Die vollständige Studie von Dr. Lindzen findet sich hier:


Link auf Wattsup hier

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE




Führender Princeton Forscher: Die Wahrheit über die „Treibhausgase“!

Happer erörtert das, was er die „gegenwärtige moralische Epedemie“ des Klima-Alarmismus nennt: Die Vorstellung, daß zunehmende Treibhausgas-Konzentrationen, besonders Kohlendioxid (CO?), katastrophale Auswirkungen für die Menschheit und für den Planeten haben werde. Er wirbt für eine nüchterne und ausgewogene Einschätzung auf der Basis von empirischen Beobachtungen statt Computermodellen.

„CO2 verursacht tatsächlich eine gewisse Erwärmung des Planeten. Wenn alles andere konstant bleibt, verursacht ein mehr an CO? ein Mehr an Wärme. Fraglich ist aber, wie viel Wärme entsteht und ob vermehrtes CO? und die von ihm verursachte Erwärmung gut oder schlecht für den Planeten sein wird“,

schreibt Happer.

William Happer ist der Cyrus Fogg Brackett Professor für Physics an der Princeton University.

Details dazu hier  und hier

Mit Dank übernommen von Klimaskeptikerinfo hier