1

Null komma drei mal der Antrieb

Nach reiflicher Überlegung und Untersuchung erkannte ich, dass das GISSE-Modell alle Antriebe gleich wichtet … außer Vulkane. Aus welchen Gründen auch immer – das GISSE-Klimamodell verleiht den vulkanischen Antrieben etwa 40% des Gewichtes der übrigen Antriebe.

Also zog ich die Gesamt-Antriebe heran und reduzierte den vulkanischen Antrieb um 60%. Dann war es einfach, weil man nichts anderes mehr brauchte. Es stellt sich heraus, dass die Temperatur-Nachhersage des GISSE-Modells ergibt, dass die Temperaturänderung in Grad Celsius 30% der adjustierten Änderung des Antriebs in Watt pro Quadratmeter W/m² ausmacht. Die Abbildung verdeutlicht dieses Ergebnis:

Abbildung: Nachhersage der Temperatur im GISSE-Klimamodell im Vergleich mit der Temperatur-Nachhersage mittels der Formel ∆T = 0.3 ∆Q, wobei T die Temperatur und Q die gleichen Antriebe sind, welche dem GISSE-Modell zugrunde liegen, jedoch mit einem um 60% reduzierten vulkanischen Antrieb.

Zunächst ein erforderlicher Exkurs in Blackbox. Zum Zwecke dieser Untersuchung habe ich das GISSE-Modell als eine Blackbox behandelt, von der ich nur die Inputs (die Antriebe) und die Outputs (die Nachhersage der Temperaturen) kenne. Es ist wie in einem Detektivspiel, wenn man versucht nachzuvollziehen, was innerhalb der GISSE-Blackbox passiert ohne das Innere desselben sehen zu können.

Die daraus resultierende Nachbildung kann uns nicht sagen, was wirklich in derBlackbox vor sich geht. Zum Beispiel kann die Blackbox den Input aufnehmen, durch vier dividieren und das Ergebnis mit acht multiplizieren und dieses Ergebnis dann als Output ausgeben.

Betrachtet man dies von außerhalb der Blackbox sehen wir, dass falls wir die Zahl 2 eingeben die Blackbox die Zahl 4 ausgibt. Wir geben 3 ein und erhalten 6, dann 5 mit dem Ergebnis 10 und so weiter. Also folgern wir, dass die Blackbox den Input mit 2 multipliziert.

Natürlich multipliziert die Blackbox den Input mit 2. Sie teilt ihn durch 4 und multipliziert anschließend mit 8. Aber von außerhalb der Blackbox spielt das keine Rolle. Sie multipliziert den Input im Endeffekt mit 2. Wir können die Nachbildung nicht dazu verwenden zu ergründen, was tatsächlich in der Blackbox passiert. Aber wir können sagen, dass die Blackbox funktional äquivalent einer Blackbox ist, die mit 2 multipliziert. Die funktionale Äquivalenz bedeutet, dass wir eine Blackbox durch die andere ersetzen können, weil beide zum gleichen Ergebnis kommen. Sie erlaubt es uns auch zu erkennen und festzustellen, was die erste Blackbox effektiv macht. Nicht was sie tatsächlich macht, sondern was sie im Endeffekt macht. Ich komme gleich nochmal zurück auf diesen Gedanken der funktionellen Äquivalenz.

Verfahren

Jetzt möchte ich beschreiben, was ich gemacht habe, um das in der Abbildung gezeigte Ergebnis zu bekommen. Zuerst habe ich eine multiple lineare Regression mit allen Antrieben durchgeführt um festzustellen, ob die GISSE-Temperatur-Nachhersage als eine lineare Kombination der Antriebs-Inputs dargestellt werden kann. Sie kann, und zwar mit einem r² von 0,95. Das ist ein guter Fit.

Allerdings ist jenes Ergebnis fast mit Sicherheit Gegenstand eines „overfittings“, weil es zehn individuelle Antriebe gibt, die den Gesamtantrieb ausmachen. Mit so vielen Antrieben endet man mit einer Menge Parameter, so dass man fast alles passend machen kann. Das heißt, der gute Fit bedeutet nicht viel.

Ich fuhr fort und sah, dass der Vergleich Gesamtantrieb ↔ Temperatur sehr gut passte außer für einen Antrieb – dem der Vulkane. Ausprobieren zeigte, dass das GISSE-Klimamodell den vulkanischen Antrieb um 60% vom Originalwert zu gering wichtet, während dem Rest der Antriebe das volle Gewicht beigemessen wird.

Dann habe ich den Gesamt-GISSE-Antrieb mit dem angemessen reduzierten vulkanischen Beitrag herangezogen, und man bekommt das in der Abbildung dargestellte Ergebnis. Die Temperaturänderung beträgt 30% der Änderung bei dem adjustierten Antrieb. So einfach ist das. Es ist ein wirklich sehr kurzer Abschnitt über das Verfahren, weil das, was das GISSE-Modell macht, wirklich sehr einfach ist.

Diskussion

Und nun, welche Implikationen bietet dieses interessante Ergebnis nun (oder nicht)? Was bedeutet es hinsichtlich der Temperatur, welche der Blackbox GISSE-Modell mit einer Genauigkeit von fünf Hundertstel Grad abbildet (0,05°C RMS-Error), dass der GISSE-Modell-Blackbox funktionell äquivalent ist mit einer Blackbox, der einfach die adjustierten Antriebe mit 0,3 multipliziert?

Meine erste Implikation müsste sein, dass die fast unglaubliche Komplexität des Modells E mit simulierten Tausenden Gitterpunkten und Dutzenden atmosphärischer und ozeanischer Schichten unter Berücksichtigung von Eis und Festland und Seen und allem anderen, dass all diese Komplexität eine fast unglaubliche korrespondierende Einfachheit maskiert. Die Modellierer haben wirklich keine Witze gemacht, dass sich alles andere heraus mittelt und dass alles, was übrig bleibt, Strahlung und Temperatur ist. Ich glaube nicht, dass das Klima auf diese Weise beschreibbar ist … aber ihr Modell beschreibt es mit Sicherheit auf diese Weise.

Die zweite Implikation ist merkwürdig und ziemlich bedeutsam. Man betrachte die Tatsache, dass ihre Temperatur-Nachhersage (in Grad) einfach 0,3 mal die Änderung des Antriebs ist (in W/m²). Aber das ist auch eine Feststellung der Klimasensitivität, 0,3 W/m². Konvertiert man dies in Grad Erwärmung bei einer Verdoppelung von CO2, erhalten wir (0,3°C pro W/m²) X (3,7 W/m² pro CO2-Verdoppelung). Dies ergibt eine Klimasensitivität von 1,1°C pro CO2-Verdoppelung. Dies liegt weit unter dem kanonischen Wert der GISSE-Modellierer von etwa 0,8°C pro W/m² oder etwa 3°C pro Verdoppelung.

Die dritte Implikation ist, dass es eine erstaunlich geringe Verzögerung in ihrem System gibt. Ich kann den Fit des obigen Modells ein wenig verbessern mittels Hinzufügung eines Verzögerungs-Terms auf der Grundlage der Änderung des Antriebs mit der Zeit d(Q)/dt. Aber dies verbessert den r² nur auf 0,95, hauptsächlich durch Wegmitteln der Spitzen vulkanischer Exkursionen (z. B. sinkt die Temperatur 1885, 1964). Eine komplexere Verzögerungs-Regression könnte dies vermutlich verbessern, aber angesichts der ursprünglichen Angabe mit einem r² von 0,92 bleibt nur ein Spielraum von 0,08°C für eine Verbesserung, und einiges davon ist mit Sicherheit Zufallsrauschen.

Die vierte Implikation lautet, dass das Modell sklavisch den Strahlungsantrieben folgt. Die Modellläufe sind ein Mittel über 5 Läufe [a 5-run average], so dass nicht klar ist, wie weit ein individueller Modelllauf sich vom Mittel entfernen kann. Aber da das Temperaturmittel der fünf Läufe so nahe dem Ergebnis 0,3 X die Antriebe liegt, kann kein einziger individueller Lauf sehr weit entfernt liegen von den Antrieben.

Wie auch immer, das ist das, was ich diesem Vorgehen entnehme. Weitere Inferenzen, Fragen, Objektionen, Einflüsse und Erweiterungen sind willkommen. Aber bitte keine Spekulationen über Motive. Motive spielen keine Rolle.

Link: https://wattsupwiththat.com/2011/01/17/zero-point-three-times-the-forcing/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Fachlich konnte ich nicht immer ganz folgen, so dass ich ggf. um konstruktive Verbesserungsvorschläge bitte. – C. F.




Behauptung: Eingeben von Phantasie-Faktoren lässt Klima­modell-Ergebnisse noch gefähr­licher aussehen

Graphik: Seite 6, Fehlerfortpflanzung und die Zuverlässigkeit globaler Temperatur-Projektionen von Pat Frank. Quelle

Studie: Die genauesten Klimamodelle prophezeien die alarmierendsten Konsequenzen

Chris Mooney, 6. Dezember 2017

Die Klimawandel-Simulationen, welche die gegenwärtigen planetaren Bedingungen am besten abbilden, sind auch diejenigen Simulationen, die die düstersten Aussichten bzgl. einer vom Menschen getriebenen Erwärmung prophezeien. Dies geht aus einer vor ein paar Tagen veröffentlichten Statistik-Studie hervor.

Die Autoren Patrick Brown und Ken Caldeira von der Carnegie Institution for Science in Stanford in Kalifornien untersuchten in ihrer Studie die hoch gepuschten Klimawandel-Simulationen oder „Modelle“, welche Forscher heranziehen, um die Zukunft des Planeten zu projizieren auf der Grundlage der physikalischen Gleichungen, die das Verhalten von Atmosphäre und Ozeanen steuern.

Dann nahmen die Forscher diejenigen Modelle unter die Lupe, welche die gegenwärtigen Bedingungen hoch in der Atmosphäre am besten abbildeten, und schauten nach, was sie für die Zukunft prophezeiten. Diese Modelle prophezeiten allgemein ein höheres Niveau von Erwärmung als die Modelle, welche diese Ausgangsbedingungen nicht so gut erfassen.

Mehr: https://www.washingtonpost.com/news/energy-environment/wp/2017/12/06/the-most-accurate-climate-change-models-predict-the-most-alarming-consequences-study-claims/

Abstract der Studie:

Stärkere zukünftige globale Erwärmung, abgeleitet aus dem gegenwärtigen Energie-Budget der Erde

Patrick T. Brown & Ken Caldeira
Nature 552, 45–50 (07 December 2017)
doi:10.1038/nature24672

Klimamodelle bieten die grundlegenden Elemente für die Projektion der globalen Erwärmung im verbleibenden 21. Jahrhundert, aber die modellierten Schätzungen variieren um einen Faktor von etwa zwei selbst bei gleichen Strahlungsantriebs-Szenarien. Vergleiche der Modelle untereinander zwischen gegenwärtig zu beobachtenden Eigenschaften des Klimasystems und die simulierte Größenordnung der zukünftigen Erwärmung haben das Potential, die Projektionen zu stützen. Hiermit zeigen wir, dass es robuste Relationen über Modellgrenzen hinweg gibt zwischen der globalen räumlichen Verteilung des Energiehaushaltes an der Obergrenze der Atmosphäre und der Größenordnung der projizierten globalen Erwärmung. Vergleichen wir die Modellprojektionen mit Beobachtungen, erhalten wir mehr Elemente und eine engere Bandbreite einer zukünftigen globalen Erwärmung über die wesentlichen Strahlungsantriebs-Szenarien hinweg allgemein. Im Einzelnen zeigt sich aber, dass die an Beobachtungen ausgerichtete Erwärmungs-Projektion zum Ende des 21. Jahrhunderts beim stärksten Strahlungsantriebs-Szenario eine um 15% (0,5°C) stärkere Erwärmung ergibt, einhergehend mit einer Reduktion der Standardabweichung um etwa ein Drittel (-1,2°C) relativ zu den Projektionen der Roh-Modelle, welche das IPCC verwendet. Unsere Ergebnisse zeigen, dass das Erreichen irgendeines Stabilisierungs-Zieles der globalen Temperatur stärkere Reduktionen von Treibhausgas-Emissionen erfordert als zuvor berechnet.

Mehr (Zahlschranke): https://www.nature.com/articles/nature24672

Zu erzwingen, dass das Modell besser zu den Beobachtungen passt, ist potentiell ein lohnendes Unterfangen, um die Auswirkungen von Modellfehlern zu erkunden. Was mir aber Kopfzerbrechen bereitet, ist der offensichtliche Versuch, vorzeitige Schlussfolgerungen der realen Welt durch dieses willkürliche Anpassungsverfahren zu ziehen.

Man betrachte noch einmal die Graphik oben aus der Studie von Pat Frank mit dem Titel [übersetzt] „Fehlerfortpflanzung und die Zuverlässigkeit von Projektionen der globalen Lufttemperatur“. Der Antrieb durch Wolken ist eine Hauptkomponente im Klimasystem, welche Klimamodelle eindeutig sehr falsch beurteilen. Die Erzeugung des erwarteten Ergebnisses mittels Nachhersage trotz großer Fehler ist kein Beweis, dass Wissenschaftler das Klimasystem der Erde korrekt modellieren.

Manchmal haben die Wissenschaftler Glück, aber die Wahrscheinlichkeit, mit ein paar willkürlichen Korrekturen die Modelle zu verbessern ohne jedes Verständnis dafür, warum die Modelle das Klima so falsch darstellen, ist genauso groß wie die Wahrscheinlichkeit eines Volltreffers im Lotto. Die Verkündung der Realwelt-Implikationen aufgrund eines willkürlichen Anpassungsverfahrens ist so, als ob man verkündet, dass jedermann ein Gewinnlos einer Lotterie hat, bevor die Gewinnen gezogen worden sind – nicht unmöglich, aber sehr unwahrscheinlich.

Korrektur: Meine Beschreibung klang so, als ob ich impliziert hätte, dass Caldeira und Brown die Phantasie-Faktoren selbst hinzugefügt hätten. Dies ist falsch. Sie haben bevorzugt Modelle gewichtet, welche mit Phantasie-Faktoren anderer Personen gefüttert worden waren – Modelle, welche scheinbar besser waren bei der Nachhersage des Energie-Ungleichgewichtes an der TOA, was via Interferenz bedeutet, dass sie Wolken weniger falsch beurteilen als andere Modelle.

Die Veränderlichkeit von Wolken ist ziemlich komplex, und weil die Modelle nicht in der Lage sind, diesen Änderungen ihrer kleinräumigen Größenordnung wegen nicht in vollem Umfang Rechnung zu tragen, neigen die Programme stattdessen dazu, auf Statistik basierende Hypothesen einzubeziehen über das Verhalten von Wolken. Das nennt man „Parametrisierung“.

Aber die Forscher haben nicht viel Vertrauen, dass diese Parametrisierungen richtig sind. „Was man hier sieht, ist das Verhalten von etwas, das ich als das schwächste Glied im Modell betrachte“, sagte Winton.

An diesem Punkt kommt die Studie von Brown und Caldeira ins Spiel. Darin werden Modelle untersucht, die mittels Vorteilen dieser Programmierung und anderer Faktoren besser zu sein scheinen hinsichtlich der Repräsentation des gegenwärtigen Verhaltens von Wolken. Allerdings sagten Winton und zwei andere Wissenschaftler, die von der Post befragt worden sind, dass sie anerkennen, was die Studie versucht, aber nicht vollständig davon überzeugt sind. …

Mehr: Washington Post (Same link as above)

Link: https://wattsupwiththat.com/2017/12/06/claim-adding-fudge-factors-makes-climate-models-scarier/

Übersetzt von Chris Frey EIKE




Klima-Klartext im Magazin COMPACT-Spezial : Fakten gegen Hysterie !

Klaus-Eckart Puls

Gegenüber der wahnhaften politisierten Übersteigerung der CO2-Wirkung als Treibhausgas mehren sich international seit einigen wenigen(!) Jahren die kritischen Stimmen und dabei auch die peer-reviewten Publikationen – Tendenz steigend.

D a g e g e n :

In den deutschen Medien läuft es genau andersrum: Staatsfernsehen und Staatsrundfunk sind politisch längst auf Linie gebracht und steigern derzeit ihre Hype vor der anstehenden Klimakonferenz in Bonn (November 2017) ins Uferlose. Die deutschen Klima-Institute liefern Tag und Nacht: Die Profiteure mit Professoren-Titeln mischen bei den Interviews mit sorgenvollen Mienen und angehobenen Stimmen kräftig mit, es geht für sie weiterhin um viel Geld und das Ausleben ihrer Eitelkeiten.

Selbst wenn von ihnen nicht alles stammt, was in den Medien produziert wird an aberwitzigen Behauptungen – diese Institute lassen auch den größten naturwissenschaftlichen Unfug unwidersprochen laufen; es dient ihrem Geschäft mit der Angst. Das alles geschieht unter Ignoranz der globalen Messungen und in wesentlichen Punkten gegen die Aussagen des Klimarates IPCC [1] sowie gleichermaßen gegen die physikalischen Gesetze.

Das neue COMPACT-Spezial zum politisierten Klimawahn ist in einer Zeitschrift in Deutschland eine bisher beispiellose Übersicht: „Fakten gegen Hysterie“ !

Namhafte Wissenschaftler sowie bekannte Denker aus Politik und Gesellschaft, ergänzt durch versierte Wissenschafts-Journalisten, zerpflücken das „Konstrukt Klimakatastrophe“ bis ins Mark – zum Beispiel:

Prof. Horst Malberg (eh. Direktor des Meteorologischen Inst. der FU Berlin), Dr. Wolfgang Thüne (langj. ZDF-Fernseh-Meteorologe), Vaclav Klaus (eh. Präsident der Tschechischen Republik), Holger Krahmer (MdB FDP), Dr. Holger Thuss (EIKE-Präsident) … kommen mit eigenen Artikeln zu Wort; Prof. Fritz Vahrenholt (eh. Umweltsenator HH) und seine Kollegen werden ausführlich zitiert und ihre Erkenntnisse werden ausführlich besprochen.

Das ganze Spektrum der Klima- und Energie-Debatte wird in COMPACT behandelt, sowie dessen totale Politisierung, Ideologisierung und Profitisierung :  < Klima – Energie – Politik – Profiteure – Schwindel bis hin zur Lüge – materielle Umverteilung – Kosten …. >.

Die Sprache ist klar, direkt, beißend, entlarvend, glossierend – ein Vergnügen für jeden kritisch denkenden Menschen.

Schon die Überschriften der einzelnen Aufsätze versprechen spannende Lektüre, und so ist es auch:

A l s o : „Alles gut“ ?

Leider nein, nicht aus der Sicht eines Physikers.

Es fehlt „schmerzlich“ ein Übersichtsartikel über die physikalischen Hintergründe und Gesetze, welche die Behauptungen der „Klima-Katastrophen-Szene“ unhaltbar machen – hier einmal aufgelistet anhand von Zitaten aus den IPCC-Berichten und „amtlichen Studien“ wie z.B. dem Klima-Enquete-Bericht der Bundesregierung von 1988 und anderen „Skeptiker-unverdächtigen“ (!) Quellen:

() Deutscher Bundestag [2] : „Da die CO2-Absorptionsbanden bereits weitgehend gesättigt sind, nimmt der Treibhauseffekt durch zusätzliches CO2 nur noch mit dem Logarithmus der CO2 -Konzentration zu, so daß sich die Temperatur der Erde bei jeder Verdoppelung des CO2-Gehaltes der Atmosphäre jeweils nur um den gleichen Betrag erhöht.“ (Anm.:1988 – 350 ppm CO2)

() IPCC [3] : „In der Mitte des 15-μm-Absorptions-Bereiches hat zusätzliches CO2 nahezu keinen Effekt…“

() PAUL CRUTZEN (Nobelpreis Chemie 1995) [4] : „Es gibt bereits so viel CO2 in der Atmosphäre, daß in vielen Spektralbereichen die Aufnahme durch CO2 fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr“.

() IPCC [5] : „Der Wasserdampf-Feedback ist nach wie vor der durchweg wichtigste Rückkopplungseffekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdoppelung vorhergesagte globale Erwärmung verursacht“.

() IPCC [6] :Würde sich die Menge von CO2 in der Luft verdoppeln, stiege die Temperatur chemischen Experimenten zufolge um 1 Grad. Erst Wasserdampf verstärkt der Theorie zufolge den Treibhauseffekt in gefährlicher Weise: Wärmere Luft läßt mehr Wasser verdampfen, das quasi als Dampfglocke die Luft weiter erwärmen würde. Wie stark der Effekt ist, gilt als Kernfrage der Klimaforschung.“

() PALTRIDGE et al. [7] : „Negative trends in „q“ as found in the NCEP data would imply that long-term water vapor feedback is   n e g a t i v e ….“ “The upper-level negative trends in q are inconsistent with climate-model calculations …“

(Anm.: „q“ ist die spezifische Luftfeuchte in g/kg i.d. Luft; mit der von PALTRIDGE über 45 Jahre gemessenen Abnahme von „q“ in der Troposphäre sind die Klimamodelle falsifiziert, eine „Wasserdampf-Verstärkung“ findet nicht statt in der Atmosphäre!)

() IPCC [8] :

„The equilibrium climate sensitivity … is defined as the change in global mean surface temperature at equilibrium that is caused by a doubling of the atmospheric CO2 concentration.“

„No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies.“

() Alfred-Wegener-Inst. [9] : „Eine detaillierte Untersuchung der Phasenbeziehung zwischen Temperatur und CO2 zeigt, daß die Glazial/Interglazial-Änderungen der CO2-Konzentration primär von der Temperatur kontrolliert werden und CO2 nur sekundär zu einer Treibhaus-Rückkopplung führt.“  

() IPCC [10] :„In climate research and modeling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible „

……………..

Der folglich hier und da fehlende physikalische Tiefgang in COMPACT ändert jedoch nichts an dem weit überwiegenden positiven Gesamteindruck des Heftes, bei dem es sich schließlich ja nicht um ein wissenschaftliches Periodikum handelt :

+ radaktionell ausgezeichnet gegliedert, übersichtlich, gute „Aufhänger und Augenstopper“

+ sehr anschauliche Graphiken sowie eine Auswahl von brillanten Fotos

+ Das Heft ist auch im Layout total professionell gemacht

F a z i t :

Wer dieses COMPACT-Heft gelesen hat, der weiß :

Es ist eine Illusion zu glauben, durch das Drehen an ein paar CO2-Stellschrauben könne man sich ein schönes angenehmes stabiles Klima erhalten oder gar schaffen. Die Politik hat sich einer Pseudowissenschaft namens „Klima-Schutz“ bemächtigt! Profiteure aus Wissenschaft, Gesellschaft, Industrie sowie ganze Schwärme von Ideologen und selbsternannten Weltenrettern leben davon und verdienen prächtig daran.

Q u e l l e n :

[1] https://eike.institute/2015/12/09/pinocchiopresse-luegenpresse-die-deutschen-medien-und-ihre-klimakatastrophen/

[2] Enquete-Kommission Deutscher Bundestag, 11. Wahlperiode „Zur Sache“ 5/1988, „Schutz der Erdatmosphäre“, 02.11.1988 / Abschnitt D / Seite 376-377   u n d  http://dip21.bundestag.de/dip21/btd/11/032/1103246.pdf (PDF S. 190-191)

[3] IPCC, Climate Change (1994), Radiative Forcing …, Cambridge Univ. Press, S.174 (nachz. H.HUG, Angsttrompeter)

[4] P.J.Crutzen ; T.E.Graedel: Chemie der Atmosphäre, Spektrum Akad.Vlg,, Berlin, 1993, S.414

[5] IPCC, Climate Change 2001, Working Group I: The Scientific Basis, Contr.Wok.Gr.I, 3rd Ass.Rep.IPCC, Ch.7.2.1.1

[6] Welt-Klimareport: Fünf große Sorgen, fünf große Fragen, SPON ; 27.09.2013

[7] PALTRIDGE , ARKING & POOK: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor Appl Climatol, DOI 10.1007/s00704-009-0117-x Springer-Verlag 2009

[8] IPCC: CLIMATE CHANGE 2013; The Physical Science Basis; summary for policymakers ; Working Group 1; Contribution to the fifth Assessment Report of the Intergovernmental Panel on Climate Change ; S.14, Fußnote 16; http://tinyurl.com/p5n6cvk

[9] AWI-Report, 2004/05, S.138ff

[10] IPCC, 3. Ass. Report, 2001, Section 14.2.2.2, S. 774

 




Ein skeptischer Versuch, die gläsernen Grenzen der „kumpelhaften Begutachtungen“ der Wissenschaftsjournale zu durchbrechen

Regelmäßige Leser bei Anthony’s Watts Up With That und EIKE werden wissen, dass ich seit Juli 2013 über Jahre hinweg versucht habe, eine Analyse der Fehler der Klimamodelle zu veröffentlichen.

Die Analyse zeigt die Fortpflanzungsfehler der Klimamodelle durch Kalibrierung an der Untergrenze ihrer Projektionen der Lufttemperatur. Wer das erkannt hat, kann als Ergebnis vorhersagen: Klimamodelle sind äußerst unzuverlässig. Für eine ausführlichere Diskussion siehe meinen früheren WUWT-Beitrag zu diesem Thema (Danke Anthony).

Das Endergebnis ist, dass, wenn es zu einem CO 2-Effekt auf das globale Klima kommt, niemand weiß, wovon er redet.

[[ Eine ganze Passage voll Frust, die ich Ihnen dann doch übersetzt habe – etwas eingerückt. Informationen zur Studie gehen unten (normal formatiert) weiter, der Übersetzer

Bevor ich fortfahre, möchte ich ein herzliches Dankeschön aussprechen an Anthony, dafür, dass er den Klimaskeptikern eine unzensierte Stimme gibt, gegenüber denen, die sie lieber zum Schweigen bringen würden. Mit „Klimaskeptikern“ meine ich, wissenschaftlich denkende Menschen, die den Fall einer anthropogenen globalen Erwärmung beurteilen und ihre kritische Integrität beibehalten haben. Ich jedenfalls habe kürzlich meine sechste Ablehnung erhalten; diesmal von Earth and Space Science, einer AGU-Zeitschrift. [American Geophysical Union ; Die AGU veröffentlicht 20 hoch angesehene, von Experten begutachtete wissenschaftliche Zeitschriften zur Erforschung der Erd- und Weltraumwissenschaften – Eigenwerbung]

 Die Ablehnung folgte den üblichen zwei Runden von gleichmäßig negativen, aber wissenschaftlich verdienstvollen Bewertungen (mehr dazu später).

 Nach sechs Versuchen in mehr als vier Jahren zweifelte ich nun daran, den Artikel jemals in einem Klimaportal zu veröffentlichen. Die Einsätze sind einfach zu groß. Es sind nicht nur die Billionen von Dollar, die für Nachhaltigkeitstreibende verloren gehen würden.

Nee. Wenn die Analyse veröffentlicht würde, würde die Karriere jedes einzelnen Klimamodellierers mit James Hansen beginnend, Ihre Kompetenz würde in Frage gestellt. Zuschüsse verschwinden, Universitäten verlieren enormes Einkommen.

Welcher Konsens-Klimawissenschaftler würde bei all dem Interessenkonflikt möglicherweise eine unpassende Bewertung liefern? Sie werden sich zu Recht bedroht fühlen. Warum sollten sie nicht einen Grund finden, irgendeinem Grund, die Studie abzulehnen?

Irgendwie scheinen Herausgeber von Journalen zur Klimawissenschaft für diesen offensichtlichen Interessenkonflikt blind zu sein, wenn sie ihre Gutachter auswählen.

 Mit nahezu Hoffnungslosigkeit auf Veröffentlichung habe ich beschlossen, das Manuskript als Samisdat-Literatur weithin verfügbar zu machen [ein System …, um die von der Regierung unterdrückte Literatur heimlich zu drucken und verteilen].

]]

Das Manuskript mit seinem Hintergrund ist hier uneingeschränkt verfügbar (13,4 MB pdf).

Bitte beschäftigen Sie sich damit weiter und laden Sie es herunter, prüfen Sie es, kommentieren Sie es und senden Sie es an wen Sie möchten. Ich habe keine Zweifel, dass die Analyse korrekt ist.

Der analytische Kern des Ganzen:

Die Projektionen von Lufttemperatur sind in Klimamodellen nur lineare Extrapolationen der Treibhausgasemissionen. Sie unterliegen daher einer linearen Fehlerfortpflanzung.

Kompliziert, oder nicht? Nun muss ich nur noch auf einen Konsens-Klimawissenschaftler treffen, der dieses Konzept erfassen kann.

Willis Eschenbach hat im Jahr 2011 gezeigt, dass Klimamodelle nur Linearitätsmaschinen sind, so wie ich es in meinem Skeptic-Paper 2008 und bei CA im Jahr 2006 bereits vorgestellt habe.

Diese lineare Gleichung …

… emuliert die Projektion der Lufttemperatur eines Klimamodells nach;  fCO2 spiegelt die Klimasensitivität wider [bei angenommener Verdoppelung des CO2 Gehaltes] und “ a “ ist der Offset. Beide Koeffizienten variieren je nach Modell. Der Ausdruck in Klammer ist nur die partielle Veränderung des [CO2 -] Antriebs. Die Projektionen der Lufttemperatur selbst der fortgeschrittensten Klimamodelle sind kaum besser als y = mx + b.

Das Manuskript zeigt Dutzende erfolgreicher Emulationen wie diese:

Legende: Punkte sind CMIP5 RCP4.5 und RCP8.5 Projektionen. Grafik ‚a‘ [links] ist das GISS GCM Modell-E2-H-p1. Grafik ‚b‘ ist das GCM Modell 1-1 aus Beijing (BCC-CSM1-1). Die PWM-Graphen sind Emulationen aus der linearen Gleichung.

Die CMIP5-Modelle zeigen einen inhärenten Kalibrierungsfehler von ± 4 Wm-2 in ihren Simulationen der Langwellen-Wolkenforcierung (LWCF). Dies ist ein systematischer Fehler, der sich aus falscher physikalischer Theorie ergibt. Es pflanzt sich in jedem einzelnen iterativen Schritt einer Klimasimulation fort. Eine ausführliche Diskussion findet sich im Manuskript.

Die folgende Abbildung zeigt, was passiert, wenn dieser Fehler sich in CMIP5-Lufttemperaturprojektionen (ab 2005) fortpflanzt.

Legende: Grafik ‚a‘ Punkte sind die CMIP5 Multi-Model Mean Anomaly Projektionen der 5AR RCP4.5 und RCP8.5 Szenarien. Die PWM-Linien sind die linearen Emulationen. In der Grafik ‚b‘ sind die farbigen Linien die gleichen zwei RCP-Projektionen. Die Bandbereite der Unsicherheiten stammen aus der Fortpflanzung des Kalibrierungsfehlers des LWCF Modells.

Bei RCP4.5 weicht die Emulation ab der mittleren Projektion des Jahres 2050 ab, weil der GHG [Treibhausgas] Antrieb konstant geworden ist.

Als ein Monument für die außergewöhnliche Inkompetenz, die auf dem Gebiet der Konsens-Klimawissenschaft herrscht, stelle ich die 29 Bewertungen und meine Antworten für alle sechs Vorlagen hier zur öffentlichen Prüfung (44,6 MB Zip-Datei, geprüft mit Norton Antivirus).

 

Wenn ich Inkompetenz sage, hier ist was ich damit meine und was Sie finden:

„Konsens“ Klimawissenschaftler:

  1. sie denken, dass Präzision Genauigkeit ist
  2. sie denken, dass ein quadratischer Mittelwert-Fehler eine energetische Störung im Modell ist
  3. sie denken, dass Klimamodelle zur Validierung von Klimamodellen verwendet werden können
  4. sie habe keine Ahnung von Kalibrierung
  5. Sie wissen nicht, dass der Kalibrierungsfehler sich in nachfolgenden Berechnungen fortpflanzt
  6. sie kennen den Unterschied nicht, zwischen statistischer Unsicherheit und physikalischem Fehler
  7. sie glauben, dass eine „±“ [plus/minus] Unsicherheit einen positiven Fehlerversatz bedeutet
  8. sie glauben, dass die zufällige Annullierung von Fehlern die physikalisch bedingte Unsicherheit beseitigt
  9. sie glauben, dass die Anomalien der Projektionen physikalisch genau sind (das wurde nie bewiesen)
  10. sie glauben, dass die Projektionsvarianz über einen Mittelwert mit dem propagierten Fehler identisch ist
  11. sie denken, dass eine „± K“ -Unschärfe eine physikalisch reale Temperatur wäre
  12. sie denken, dass ein „± K“ -Unschärfebalken bedeutet, dass das Klimamodell selbst heftig zwischen Kältekammer- und Backofen Klima oszilliert
    Punkt 12 ist besonders bezeichnend für die allgemeine Unfähigkeit von Konsens-Klimawissenschaftlern.
    Nicht einer der Doktoren, die diese Annahme machten, bemerkte, dass ein „±“ – Unsicherheitsbalken jeden einzelnen simulierten Temperaturpunkt durchläuft und vertikal durchschneidet. Nicht einer von ihnen hat erkannt, dass ihre „±“ vertikalen Schwingungen bedeuten, dass das Modell die Kältekammer und Backofen Klimazustände gleichzeitig einnehmen muss!

Wenn Sie sie herunterladen, finden Sie diese Fehler wiederholt und verzweigt in den Bewertungen.

 

Meine Manuskriptbegutachter haben diese offensichtlichen Fehler offenbar als gültige Bewertung akzeptiert. Einige [der Gutachter] haben die Erfahrung, um zu erkennen, dass die [meine] Manuskriptanalyse korrekt ist.

Aus diesem Grund habe ich entschieden, dass ihre Bewertungsleistung Applaus verdient. Es sind:

  • Steven Ghan Journal of Geophysical Research-Atmospheres
  • Radan Huth International Journal of Climatology
  • Timothy Li Earth Science Reviews
  • Timothy DelSole Journal of Climate
  • Jorge E. Gonzalez-cruz Advances in Meteorology
  • Jonathan Jiang Earth and Space Science

Bitte kontaktieren oder belästigen Sie keine dieser Herren. Denn man kann hoffen, dass manche Veröffentlichung sie dazu bringt, vor Scham zu erröten.

Nachdem ich meine Antworten eingereicht hatte, die zeigten, dass die Kritiken wissenschaftlich nicht haltbar waren, bat ich einige dieser Redakteure, den Mut eines Wissenschaftlers zu haben und als „verdienstlose Einwände“ zu veröffentlichen. Schließlich werden in der Wissenschaft kritische, analytische Äußerungen oft ignoriert. Keiner von ihnen stellte sich jedoch der Herausforderung.

Wenn irgendein Redakteur oder Verleger nach der Prüfung meines Manuskripts dieses in wissenschaftlichen Journalen veröffentlichen will, wäre ich sehr dankbar.

Die oben genannten Zeitschriften vereinbarten, das Manuskript zur Überprüfung zu versenden. Zielstrebige Leser mögen vielleicht die wenigen eigenartigen Geschichten von nichtgeprüften -Rückweisungen im Anhang unten lesen.

Wirklich seltsam: Mehrere Gutachter haben unabsichtlicher Weise das Manuskript validiert und obwohl sie es ablehnten.

 

Zum Beispiel schrieb der dritte Rezensent der JGR Runde 2 [vom Journal of Geophysical Research]  (JGR-A R2 # 3), dass,

„[Emulation] ist nur bei Situationen möglich, in denen das Forcing [der GHG Antrieb] im Wesentlichen linear ist …“ und „[Emulationen] funktionieren nur mit Szenarien, die annähernd linear zunehmende Forcings haben. Jede Stabilisierung oder Addition großer Transienten (wie Vulkane) führt dazu, dass die Fehlanpassung zwischen diesem Emulator und dem zugrunde liegenden GCM offensichtlich ist. „

 Das Manuskript zeigte sofort, dass jede einzelne Klimamodell-Projektion ein lineares Forcing hatte. Die Überprüfung der Linearität durch den Rezensenten ist gleichbedeutend mit einer Validierung.

Der Gutachter hat aber auch ein Kriterium festgelegt, mit dem die Analyse verifiziert werden kann – eine Projektion mit nichtlinearen Forcierungen nachzuahmen. Offensichtlich überprüfte er  seine Aussage nicht, bevor er sie machte (oh, oh!), obwohl er die Emulationsgleichung hatte.

Meine Antwort beinhaltete diese Grafik:

Legende: Die Punkte von Jim Hansen 1988 Szenario A , B und C. Alle drei Szenarien beinhalten vulkanische Forcings. Die Linien sind die linearen Emulationen.

Die vulkanischen Forcings sind nicht linear, aber Klimamodelle extrapolieren sie linear. Die lineare Gleichung emuliert erfolgreich lineare Extrapolationen von nichtlinearen Forcings. Simpel. Die Emulationen von Jim Hansens GISS Model II Simulationen sind so gut wie die eines jeden anderen Klimamodells.

Der Herausgeber war offenkundig unbeeindruckt von der Demonstration und dass der Rezensent versehentlich die Manuskriptanalyse validiert hatte.

Die gleiche Inkongruenz von unbeabsichtigten Validierungen trat in fünf der sechs Einreichungen auf: AM R1 # 1 und R2 # 1; IJC R1 # 1 und R2 # 1; JoC, # 2; ESS R1 # 6 und R2 # 2 und R2 # 5.

In dem Review bei JGR R2 erwähnt Rezensent 3 sofort Informationen, die er nur in der Debatte gefunden haben konnte, die ich mit Gavin Schmidt bei Realclimate führte (und gewonnen hatte). Der Rezensent verwendete auch eine Gavin-ähnliche Ausdrucksweise. Ich vermute also, dass dieser JGR-Rezensent in der Tat Gavin Schmidt war. Das ist nur meine Meinung. Ich kann nicht ganz sicher sein, weil die Begutachtung anonym war.

Also, nennen wir ihn Gavinoid Schmidt-ähnlich. Drei der Redakteure bemühten diesen Rezensenten. Man erwartet, dass sie die große Waffe auspacken, um den Emporkömmling zu entsorgen.

Der Gavinoid antwortete mit drei meist identischen Bewertungen. Diese Bewertungen gehörten zu den unfähigsten der 29. Jeder dieser drei enthält den Fehler # 12.

Hier ist Gavinoids tiefes Denken:

„Selbst wenn sich die Forcings stabilisiert haben, würde diese Analyse voraussagen, dass die Modelle zwischen den Zuständen „snowball“ [entweder Schneeball = Kälte, oder „expotentiell“ ?] und außer-Kontrolle-laufenden „Gewächshäuser“ immer wilder schwingen werden.“

Und das ist es. Gavinoid denkt, dass die immer größer werdenden „± K“ -Projektions-Unsicherheitsbalken bedeuten, dass das Klimamodell selbst immer stärker zwischen Eis- und Hitze-Klimazuständen oszilliert. Er denkt, dass eine Statistik eine physikalisch reale Temperatur ist.

Ein Fehler eines naiven Neulings und der Gavinoid ist zweifellos ein promovierter Klimamodellierer.

Der Hauptteil von Gavinoids analytischen Fehlern besteht aus den Listenpunkten 2, 5, 6, 10 und 11. Wenn Sie die Studie und die Hintergrundinformationen herunterladen, enthält Abschnitt 10.3 der Hintergrund-Information eine Diskussion des gesamten Hash-Gavinoids aus einer Stefan-Boltzmann-Analyse.

Und wenn Sie eine außergewöhnlich schlechte Bewertung sehen möchten, sehen Sie sich die ESS-Runde 2-Rezension # 2 an [Earth and Space Science]. Es hat anscheinend die redaktionelle Durchsicht passiert.

Ich kann nicht enden, ohne das Video von Dr. Patrick Brown zu erwähnen, da welches die Youtube-Präsentation der Manuskriptanalyse kritisiert. Dies war mein Vortrag in 2016 für die Ärzte der Katastrophenvorsorge. Dr. Browns Vortrag wurde auch in „andthentheresphysics“ (aufgeführt ohne Ironie) und auf youtube veröffentlicht .

Dr. Brown ist Klimamodellierer und Postdoktorand bei Prof. Kenneth Caldiera am Carnegie Institute der Stanford University. Er hat mich freundlich benachrichtigt, nachdem er seine Kritik veröffentlicht hat. Unsere Unterhaltung darüber befindet sich im Kommentarbereich unter seinem Video.

Dr. Browns Einwände waren der klassischen Klimamodellierer, die Listenfehler 2, 4, 5, 6, 7 und 11.

Er machte auch den fast einmaligen Fehler, den quadratischen Mittelwert von statistischen Kalibrierungsfehlern [~?- im Original: root-sum-square average of calibration error statistics] mit einem Durchschnitt physikalischer Größen zu verwechseln; fast einzigartig, weil nur einer der ESS-Gutachter denselben Fehler gemacht hat.

Mr. „andthentheresphysics“ brachte seine eigenen falschen Ansichten sowohl bei Patrick Brown Webseite als auch bei seinen eigenen ein. Seine Blog-Kommentatoren äußerten alberne Unwesentlichkeiten und sein Moderator war mühsam kritisch.

Das ist alles. Leser, die Kritik an der Analyse vorbringen, werden dringend gebeten, zuerst die Liste und dann die Rezensionen zu konsultieren. Wahrscheinlich finden Sie ihre Einwände kritisch angesprochen.

Ich habe die Begutachtungen erleichtert, indem ich sie mit einer Zusammenfassung von Überprüfungsfehlern begann. Allerdings schien das den Redakteuren nicht zu helfen.

Danke, für Ihre Nachsicht, das hier zu lesen.

Ich fühlte ein echtes Bedürfnis, an die Öffentlichkeit zu gehen, anstatt schweigend zu dulden, was ich als reflexive intellektuelle Ablehnung und als einen schädlichen Verrat an der Wissenschaft durch die Menschen betrachte, die mit ihrem Schutz beauftragt sind.

Anhang von Journalen mit redaktionellen ABM* -Antworten

[ABM – anyone but me ~ jeder außer mir]

Risk Analysis. L. Anthony (Tony) Cox, Chefredakteur; James Lambert, Manuskript-Herausgeber.

Dies war meine erste Einreichung. Ich hatte ein positives Ergebnis erwartet, weil sie erkennbare Ambitionen im Klimakampf hatten, ihre Website über Kompetenz in der mathematischen Modellierung verfügt und Veröffentlichungen zur Fehleranalyse numerischer Modelle veröffentlicht hat. Was könnte schiefgehen?

Grund für eine ablehnende Begutachtung: „Der Ansatz ist ziemlich eng gefasst und es gibt wenig Aussicht auf Interesse und Lehren, die sich auf die verschiedenen Disziplinen übertragen, die die Zielgruppe der Zeitschrift RA sind.

Chefredakteur Tony Cox stimmte diesem Urteil zu.

Das Publikum des Online Journals: Risk Analysis, das nicht daran interessiert ist, dass es kein erkennbares Risiko für CO2-Emissionen gibt.

Genau.

Asia-Pacific Journal of Atmospheric Sciences, Songyou Hong, Chefredakteur; Sukyoung Lee, Manuskript-Herausgeber.

Dr. Lee ist Professor für atmosphärische Meteorologie am Penn State, ein Kollege von Dr. Michael Mann [Hockey Stick] und insgesamt bieten sie eine wunderbare Aussicht auf unvoreingenommenes Urteilsvermögen.

Grund für eine ablehnende Begutachtung: „Modellsimulierte atmosphärische Zustände sind weit davon entfernt, in einem strahlenden konvektiven Gleichgewicht zu sein, wie in Manabe und Wetherald (1967), auf dem Ihre Analyse basiert “ Und weil das Klima komplex und nichtlinear ist.

Chefredakteur Songyou Hong unterstützte dieses Urteil.

Das Manuskript handelt von Fehleranalyse, nicht von Klima. Es verwendet Daten von Manabe und Wetherald, basiert aber offensichtlich nicht darauf.

Dr. Lees Ablehnung folgt entweder einer flachen Analyse oder einem bequemen Vorwand.

Ich hoffe, sie wurde trotzdem mit Mike’s [Dr. Mann] Wertschätzung belohnt.

 

Science Bulletin, Xiaoya Chen, Chefredakteur, unsignierte E-Mail-Kommunikation von „Zhixin“.

Grund für eine ablehnende Begutachtung: „Wir haben [dem Manuskript] ernsthafte Aufmerksamkeit geschenkt und es sorgfältig gelesen. Die Kriterien für das Science Bulletin zur Beurteilung von Manuskripten sind die Neuheit und Bedeutung der Forschung und ob sie für ein breites wissenschaftliches Publikum interessant ist. Leider erreicht Ihr Manuskript keine Priorität, die für eine vollständige Überprüfung in unserem Journal ausreichend ist. Wir bedauern, Ihnen mitzuteilen, dass wir es nicht weiter zur Veröffentlichung betrachten werden. 

Eine Analyse, die jede einzelne Klimamodellstudie der letzten 30 Jahre entkräftet – zeigt, dass eine globale Klimawirkung von CO 2-Emissionen, falls vorhanden, gegenwärtig unerkennbar ist und das beweist unbestreitbar die wissenschaftliche Bedeutungslosigkeit des IPCC: „…erreicht keine Priorität ausreichend für eine vollständige Überprüfung im Science Bulletin.

Na klar.

Das Science Bulletin fuhr dann tapfer fort, mein E-Mail-Konto sofort zu sperren.

* * *

Erschienen auf WUWT am

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/10/23/propagation-of-error-and-the-reliability-of-global-air-temperature-projections/




Solare Aktivität weiter unter normal – Klimamodelle verwenden übertriebene Forcingparameter

Sehr geehrte Damen und Herren,
die Sonne war auch im vergangenem Monat deutlich unternormal aktiv. Die festgestellte Sonnenfleckenzahl SSN (SunSpotNumber) betrug 18,3. Dies sind nur 36% des zu diesem Zykluszeitpunkt Üblichen (SSN=51) als Mittelwert aller 23 bisher komplett beendeten Zyklen. An 11 Tagen des Juli war die Sonne gänzlich fleckenfrei. Der aktuelle Zyklus entwickelt sich zum drittschwächsten Sonnenzyklus seit 1755. Mal sehen, wie sich das in den nächsten Jahren und Jahrzehnten auf unser Klima auswirkt.
Eine hoch interessante Arbeit unter Führung von Thomas Mauritsen vom Hamburger Max- Planck- Institut erschien am Monatsende des Juli. (http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3357.html?foxtrotcallback=true). Die Autoren stellten sich die Frage: Wie viel Wärme ist schon in der „Pipeline“, also was wäre, wenn der Antrieb durch Treibhausgase auf dem heutigen Stand eingefroren würde und wir ins Jahr 2100 schauen? Ein (wirklich sehr) aufmerksamer Leser wird sich vielleicht erinnern, dass auch wir diesen Fall schon einmal betrachtet haben, und zwar im Oktober 2015, kurz vor der Pariser Klimakonferenz.(http://www.kaltesonne.de/die-sonne-im-september-2015-und-ein-bericht-zum-wissenstand-vor-der-pariser-klimakonferenz/) Das erste, was man für ein solches Experiment wissen muss, ist: wie empfindlich reagiert unser Klima auf die Verdopplung von CO2? In der Arbeit von Mauritsen/ Pincus benutzen die Autoren löblicherweise einmal nicht Modelle, sondern stützen sich auf Beobachtungen, wie es jeder empirische Wissenschaftler bevorzugt tun würde. Sie ermitteln die „TCR“ (Transient Climate Response), das ist die Erwärmung durch Kohlendioxidverdopplung im Verlaufe der stetigen Erhöhung des Anteils dieses Treibhausgases in unserer Atmosphäre. Sie ist vornehmlich für das Temperaturniveau in dekadischen Zeiträumen (also bis mindestens 2100) verantwortlich.
Mauritsen kommt zu einer TCR von 1,32 °C , wir kamen seinerzeit zu einer TCR von 1,25 °C – da besteht kein großer Unterschied, zumal Mauritsen die neueren Erkenntnisse der Aerosolforschung nicht berücksichtigt hat, die ergeben, dass Aerosole (Staub, Sulfat) eine nur halb so stark dämpfende Wirkung auf die Temperaturentwicklung haben als in den IPCC -Berichten angenommen. Daraus ergibt sich, dass die erwärmende Wirkung des CO2 in den Modellen entsprechend weniger stark sein muss, wie bislang behauptet. Darüber hatte ich in meinem letzten Rundschreiben berichtet : Wenn Björn Stevens , Direktor des Max-Planck Instituts für Meteorologie in Hamburg, feststellt , dass Aerosole keine so stark negative Wirkung auf die Temperaturentwicklung haben kann, dann darf CO2 nicht so stark temperaturtreibend sein, wenn Modelle und Wirklichkeit einigermassen in Übereinstimmung zu bringen sind.
Es bedarf also einer grundlegenden Überarbeitung der IPCC-Modelle, die von einer TCR bis 2,5 °C ausgehen – mit fundamentalen Konsequenzen.
Denn selbst, wenn man in der Modellwelt des IPCC verbleibt – wonach der Einfluss der Sonne und der ozeanischen zyklischen Meereströmungen eine völlig untergeordnete Rolle spielen – kommt man zu einer Konzentration von 600 ppm CO2 , um das 2 Grad Ziel nicht zu überschreiten. Geht man von aktuell 407 ppm CO2 aus und einem augenblicklichen Wachstum von 2,11 ppm pro Jahr, wären die 600 ppm im Jahre 2108 erreicht. Natürlich wäre es notwendig, gegen Ende dieses Jahrhunderts die CO2 –Emissionen deutlich zu senken –eine Aufgabe für drei globale Generationen und nicht für drei deutsche Legislaturperioden !
Insofern steht nichts anderes als der Pariser Vertrag zur Disposition. Denn danach kann der mit Abstand globale Hauptemittent China ( 29 % der CO2-Emissionen der Welt) bis 2030 die CO2-Emissionen um 85 % ansteigen lassen, Europa hat aber aber die Emissionen um 40 % bis 2030 zu senken. China baut nach dem aktuellen 5 Jahresplan bis 2020 allein 368 Kohlekraftwerke, Indien 370. Das heißt für China, zwei Kohlekraftwerke pro Woche. Diese Planung ist sechs Monate nach dem Pariser Abkommen bekannt geworden.
Da kann man die Bewertung der deutschen Umweltministerin, Barbara Hendricks, zum Ausstieg der USA aus Paris :„Es kann ja nicht im Interesse Europas sein, China die Führungsrolle im Klimaschutz allein zu überlassen“ nur als ziemlich dümmlich zu bezeichnen.
Nun kann man einwenden, dass es doch gerechter wäre, den CO2 Ausstoss pro Kopf zu berechnen. Nun, das Ergebnis ist überraschend: China 7,7 t CO2/ Kopf , EU 6,9 t CO2/Kopf. In 2030 sollen die Europäer mit dem CO2- Ausstoss pro Kopf runter auf 4 t und China darf auf 14t/Kopf, USA soll runter auf etwa 10t/Kopf. Letzteres hat nun Donald Trump kassiert. http://www.kaltesonne.de/usa-beginnen-den-prexit/
Dabei wird er bemerkenswerter Weise unterstützt von US- amerikanischen Klimaforschern wie Prof. Richard Muller, Berkeley, verantwortlich für die globale Temperaturmessreihe BEST ( Berkeley Earth Surface Temperature). Er fordert die Aufkündigung des Pariser Abkommens mit der Begründung, dass China angekündigt habe aus den Mitteln des grünen Klimafonds (100 Mrd Dollar) neue Kohlekraftwerke zu bauen. Muller spricht sich dagegen für Schiefergasnutzung, Kernenergie und vor allen Dingen gegen das Elektro-Auto aus, dass die CO2 Emissionen dramatisch steigen lässt, so lange die Batterieherstellung mit Hilfe von Kohlekraftwerksstrom in Südostasien erfolgt. So stösst dort die Herstellung von Batterien soviel CO2 aus wie ein Dieselfahrzeug auf 160 000 gefahrenen Kilometern.
Alles das geht an unseren grünen Wahlkämpfern vorbei : die Kanzlerin erklärt im Kreis von Regierungs- und Staatschefs, dass die “ Autoindustrie in ihrer heutigen Form nicht überleben werde“ , Martin Schulz will eine Quote für das Elektro-Auto und die Grünen fordern das Verbot für Benziner und Diesel ab dem Jahre 2030.
Alles für den Kimaschutz. Wir haben die Wahl.
Herzlichst
Ihr
Fritz Vahrenholt

 




Gleich­gewichts­modelle versagen vor der Komplexität der Realität

Komplexe Systeme sind natürlich, menschengemacht oder eine Kombination aus beidem. Der Aktienmarkt ist ein von Menschen gemachtes komplexes System. Dagegen ist das Wetter in allen seinen Erscheinungsformen ein natürliches komplexes System. Seine exakte Vorhersage ist unmöglich. Doch selbst wenn exakte Vorhersagen möglich wären und die Wetterdienste der aller Staaten perfekt funktionierende Prognosemodelle hätten, würde das Wetter trotzdem machen, was das Wetter macht. Dem Wetter ist es gleichgültig, ob eine Vorhersage richtig oder falsch ist. Es spielt nicht mit, sondern geht seine eigenen Wege. Wer sich anpassen muss, ist der Mensch! Er muss ein adaptives Verhalten an den Tag legen, nicht das Wetter.

 

Die Entwicklung von Komplexität als Theorie einer formalen Wissenschaft begann mit Beginn der 60-ger Jahre, als mehr und mehr Wissenschaftler Zugang zu Großrechnern mit hoher Rechenleistung hatten. Solch ein Wissenschaftler war der Mathematiker Edward Lorenz, der mit numerischen Wettervorhersagemodellen experimentierte. Er entdeckte etwas, was als „Schmetterlingseffekt“ bekannt wurde und gerne fehlgedeutet wird. Ein Flügelschlag eines Schmetterlings über Alaska kann keinen Wirbelsturm über Florida auslösen, wohl aber kann eine extrem geringfüge Änderung oder ungenaue Beobachtung in einem Anfangsfeld zu völlig verschiedenen Vorhersagen führen. Es ist nicht der Mensch als Akteur, der das Wetter macht. Es ist das Wetter, das über Feedback oder Rückkopplungen sich immer wieder selbst organisiert und auf uns Menschen den Eindruck eines chaotischen Systems macht.

 

Zur Komplexität von Kapitalmärkten und Finanzmärkten

 

Wer in diese Thematik, die ohne den Einfluss der Politik schon komplex genug ist, einen Einblick gewinnen will, dem empfehle ich das Buch „Der Weg ins Verderben – Wie die Eliten die nächste Krise vorbereiten und wie Sie sich davor schützen können“ von James Rickards. Er ist Bestseller Autor von der New York Times und dem Manager Magazin.

 

Das Buch ist wahrhaft ein Hammer, ein schwerer Hammer, der Erkenntnisse ins Gehirn einprägt, die eine nachhaltige Wirkung erzeugen. Rickards ist einer aus der „Finanzelite“ und legt mutig und schonungslos die Schwächen der Ökonomik offen: „Die meisten Ökonomen sind keine Wissenschaftler. Ökonomen verhalten sich wie Politiker, Priester, Dogmatiker oder Demagogen. Sie ignorieren Tatsachen, die nicht zu ihren Paradigmen passen.“ Seit 70 Jahren herrsche „intellektueller Stillstand“. Immer noch arbeiteten sie stur mit primitiven „ungeeigneten Gleichgewichtsmodellen“. Sie halten an fehlerhaften Paradigmen fest und ignorieren penetrant alles Wissen von „Verhaltenspsychologie, Komplexitätstheorie und kausaler Interferenz“.

 

James Rickards präsentiert keine leichte Lektüre. Man muss sich hineinarbeiten, wird aber dann belohnt mit Einblicken und Erkenntnissen und insbesondere der Einsicht, dass „komplexe Systeme sich völlig anders verhalten als Gleichgewichtssysteme“, denn wer fehlerhafte Daten in fehlerhafte Modelle einspeist, erhält fehlerhafte Ergebnisse. Alles was er schreibt, ist direkt erlebtes Wissen aus intimer Kenntnis des Wechselspiels zwischen Staat, Finanzwesen und Wirtschaft. In Kapitel 1 „Dies ist das Ende“ sind zwei Sätze besonders wichtig: „Die globalen Eliten haben dem Bargeld den Krieg erklärt, um das Entstehen alternativer Märkte zu unterdrücken“ und „Die Sparer müssen in ein komplett digitales System gezwungen werden, bevor negative Zinsen kommen werden. Dann wird Ihr Geld Ihnen wie ein Juwel in einer Glasvitrine bei Cartier erscheinen: Sie können es sehen, aber nicht anfassen“.

 

In dem Kapitel „Eine Währung, eine Welt, eine Ordnung“ legt Rickards minutiös dar, dass „ein Top-down-Herrschaftsprozess gar nicht nötig sei, um die Welt über Geld zu regieren – der tatsächliche Prozess ist viel subtiler“. Fazit? „Die Fusion von globalem Datenaustausch, globaler Durchsetzung von Steuergesetzen und globaler Besteuerung von Bruttoeinkünften versetzt entwickelte Wirtschaftsmächte in die Lage, die maximalen Mengen an Wohlstand aus den produktiven Sektoren zu extrahieren, um damit unproduktive Eliten zu versorgen. Das geht so lange gut, bis das gesellschaftliche Gefüge zusammenbricht – das übliche Schicksal von Zivilisationen, die eine späte Stufe parasitären Prälatentums erreichen“. Das Problem sind die „Eliten“, die in „Blasen“ leben fern der Realität. Die künftige „Weltordnung“ werde den gesamten Globus und all seine Zivilisationen zugleich erfassen.

 

Das Faszinierende an dem Buch sind immer wieder die historischen Rückblicke und die bestechenden Analysen der Vorgänge. „Weltordnungen“ hat es schon immer gegeben, denn die „Alternative zur Ordnung ist das Chaos“. Dennoch sind alle Ordnungen und „Reiche“ immer wieder zerfallen. Heute gehe der Trend beharrlich in Richtung „mehr Staatsmacht, höhere Steuern, weniger Freiheit“. Das Werkzeug nennt sich „Piecemeal Social Engineering“! Wir werden stückchenweise der Freiheit beraubt und merken es kaum. Komplexe Dynamiken seien so alt wie die Menschheit, doch statt sie sorgfältig zu analysieren, gehen die „Eliten“ faul den bequemsten Weg und operieren mit „veralteten Gleichgewichtsmodellen“. Die Beobachtungen von Konrad Lorenz im Jahr 1963, dass Vorhersagen in nichtlinearen Systemen wie dem Wetter wegen winziger Veränderungen im Ausgangszustand grundsätzlich völlig unmöglich sind, werden schlichtweg ignoriert. „Schmetterlingseffekte“ gibt es überall, auch in gesellschaftspolitischen Sphären.

 

Erleuchtend und aufschlussreich sind die Kapitel „Vorbeben 1998“, „Vorbeben 2008“ und „Erdbeben 2018“. In diesen werden die Hintergründe der Finanzkrisen mit den vielfältigen „Blasen“ diskutiert und gezeigt, dass „Gelddrucken“ keine Lösung ist. Die Welt ist inzwischen „ein Minenfeld von faulen Krediten, das nur darauf wartet, in die Luft zu gehen“. Eine bösartige Bedrohung sei die Deflation. Obwohl die Haushaltsdefizite sinken, steigen die Schuldenquoten immer weiter, weil das nominale Wachstum so gering ist. Verschuldete Gesellschaften können nicht mit „neuem Geld“ saniert werden und scheitern, so dass 2018 mit einem Kollaps des Systems zu rechnen ist. Dennoch werde es zu einem „Freudenfeuer der Eliten“ kommen: „Sie regieren die Welt“. Doch der „Triumph der Globalisierung über den Nationalismus beflügelt heute neu erwachende nationalistische Strömungen“. Unter Donald Trump überdenken die USA ihre nationalen Interessen. Beendet das explosionsartige Wachstum der Verschuldung den Aufstieg der „globalisierten Eliten“?

 

Das spannendste Kapitel heißt „Kapitalismus, Faschismus und Demokratie“ und beruht auf einer historischen Analyse von Joseph Schumpeter. Er argumentiert induktiv und gibt der Realität den Vorzug vor Abstraktionen. Für Schumpeter war Sozialismus keine Diktatur des Proletariats, vielmehr ein vom Staat gesteuertes Wirtschaftssystem, das von „Eliten“ betrieben wurde, die er „Planer“ nannte. Profiteure kommunistischer wie sozialistischer Systeme seien die „Planer und die Arbeiter“ Der Verlierer sei die „Mittelklasse“. Nicht ohne Grund warne eine McKinsey-Studie von 2016: „Heute läuft die jüngere Generation Gefahr, am Ende ärmer dazustehen als ihre Eltern“. Abschnitte wie „Die neuen Prätorianer“ und „Der neue Faschismus“ sollte die geistige Mittelschicht, das klassische Bildungsbürgertum, lesen, um die verschlungenen Wege der Politik besser zu verstehen, die düsteren Prognosen noch abzuwenden oder wenigstens abzumildern. „Der Staat darf nicht der einzige Mediator menschlichen Handelns sein“.

 

Der Komplexität entfliehen auch keine „Klimamodelle“

 

Mich hat das Buch klüger gemacht und aufgeschreckt. Es ist ein massiver Vorwurf an die Ökonomen: „Seit 70 Jahren herrscht intellektueller Stillstand“. Da kommt der Gedanke auf, ob es nicht in anderen Wissenschaftszweigen ähnlich ist. Auch bei den numerischen Wettervorhersagen ist seit Edward Lorenz kein wesentlicher Fortschritt zu erkennen, sind exakte Vorhersagen ein Wunschtraum. Was man beim Wetter nicht kann, versucht man mit Klimavorhersagen zu umgehen. Doch diese sind keinen Deut besser, sondern eher schlimmer, weil sie so weit in die Zukunft weisen, um überprüfbar zu sein, liegt diese doch jenseits der normalen Lebenserwartung von jetzt 40 bis 50-jährigen.

 

Geht man bei den Wettervorhersagen noch von gemessenen Wetterdaten und realen Luftdruck- und Strömungsfeldern, so ist das „Treibhausmodell“ der „Klimaexperten“ wie „Klimaplaner“ auch ein „Gleichgewichtsmodell“, das von der verrücktesten Annahme ausgeht, die man sich ausdenken kann. Man geht von einem „Strahlungsgleichgewicht“ zwischen Sonne und Erde aus. Eine absurdere Annahme kann man nicht machen, als die elektromagnetische Strahlung von Sonne und Erde „gleich“ zu setzen.

 

Ein Strahlungsgleichgewicht wäre theoretisch dann und nur dann möglich, wenn beide Körper, die sich Energie zu strahlen, physikalisch „schwarz“ sind und die gleiche Kelvin-Temperatur haben. Diese primitivste aller Annahmen muss man machen, um die extreme Komplexität im Sonnensystem zu reduzieren und einen Schuldigen für den seit Urzeiten stattfindenden „Klimawandel“ herauszudestillieren. Dieser Alleinschuldige sei das CO2, das Kohlenstoffdioxid-Molekül. CO2 wird ganz ohne Beweis zum „Klimakiller“ verurteilt und wir Menschen zu „Klimasündern“ gemacht, denn wir haben ja das „Klima“ gemacht, indem wir es als Kunstgröße definiert und vom Wetter abgeleitet haben.

 

Mit den Klimamodellen ist es noch weitaus schlechter bestellt wie mit Milton Friedmans Gleichgewichtsmodell zwischen Geldmenge und Wachstum. James Rickards ist milde mit seinem Urteil, dass „Friedmans Theorie zwar nützlich für Gedankenexperimente, aber in der realen Welt völlig nutzlos“ sei. Mit den Klimamodellen wird eine prognostizierbare Scheinwelt konstruiert, die mit der realen Wetterwelt absolut nichts zu tun hat. Die Politik hat sich diesen Schuh angezogen, um uns in die Traumwelt eines irdischen Paradieses einer Welt zu führen, in der „globale Klimagerechtigkeit“ herrscht und auch den Wunsch nach „sozialer Gerechtigkeit“ verwirklicht.

 

Oppenheim, den 2. Mai 2017

Wolfgang Thüne

 

 

 

 




Das Gute, das Schlechte und die Null-Hypothese

*CAGW = katastrophale anthropogene globale Erwärmung.

**„Strohmann-Trugschluss“: Eine gute Erklärung dazu gibt es hier.

Dies ist gleichbedeutend mit der Argumentation, dass man Konvektion widerlegen muss, um die Plattentektonik zu falsifizieren, oder die Genetik, um die Evolution zu falsifizieren. Plattentektonik und Evolution sind äußerst haltbare wissenschaftliche Theorien, welche auf einer Kombination empirischer und korrelativer Beweise beruhen. Keine der beiden Theorien kann direkt getestet werden mittels eines kontrollierten Experimentes. Allerdings sind beide Theorien mit Jahrzehnte langen Beobachtungen überprüft worden. Nachfolgende Beobachtungen haben diese Theorien voll und ganz bestätigt.

Anmerkung: Ich werde mich hier nicht in Debatten ergehen über die Validität der wissenschaftlichen Theorien der Plattentektonik oder der Evolution!

Die Macht derartiger wissenschaftlicher Theorien wird demonstriert durch ihre Vorhersagbarkeit: Theorien sind Vorhersagen zukünftiger Beobachtungen. Darum ist eine robuste wissenschaftliche Theorie sogar noch stärker als Fakten (lies Messungen/Beobachtungen).

CAGW ist ein ähnlicher Typ theoretischer Hypothese. Sie hängt ab von empirischen („guten“) und korrelativen („schlechten“) Beweisen.

Die Guten

Kohlendioxid ist ein so genanntes „Treibhausgas“. Es verlangsamt Strahlungsabkühlung. Hält man alle anderen Faktoren konstant, wird eine steigende atmosphärische CO2-Konzentration zu irgendwie höheren Temperaturen führen. Allerdings sind alle anderen Dinge in der Erd- und Atmosphären-Wissenschaft niemals konstant… Die Atmosphäre ist nicht Luft in einem Gefäß; Verweise auf Arrhenius haben keine Bedeutung.

Abbildung 1: Treibhausgas-Spektren. Quelle. Der atmosphärische CO2-Gehalt ist seit dem 19. Jahrhundert gestiegen.

 

Abbildung 2: Atmosphärischer CO2-Gehalt aus instrumentellen Messungen, Eisbohrkernen aus der Antarktis und Pflanzen-Stomata. Die Menschen sind zumindest für die Hälfte dieses CO2-Anstiegs in der Atmosphäre verantwortlich.

Abbildung 3: Rund 50% des atmosphärischen CO2-Anstiegs seit 1750 ist natürlichen Quellen geschuldet.

Während anthropogene Quellen nur einen winzigen Bruchteil der Gesamtquellen ausmachen, holen wir Kohlenstoff aus der geologischen Abscheidung wieder hervor und führen ihn zurück in den aktiven Kohlenstoff-Zyklus.

[Anmerkung des Übersetzers: Hier habe ich selbst mir Gedanken gemacht, warum der Mensch die Verpflichtung hat, den Kohlenstoff in den aktuellen Kohlenstoff-Kreislauf zurückzuführen!]

Abbildung 4: Kohlenstoffzyklus. Quelle.

Die mittlere Temperatur an der Oberfläche der Erde und in der Troposphäre ist während der letzten 150 Jahre allgemein gestiegen.

Abbildung 5: Temperaturanomalien: BEST (nur Festland), HadCRUT4 & GISTEMP. Satellitendaten der unteren Troposphäre: UAH & RSS.

Atmosphärisches CO2 ist gestiegen, und eine Erwärmung fand statt.

Die Schlechten

Die moderne Erwärmung begann lange vor dem jüngsten Anstieg der atmosphärischen CO2-Konzentration, und vor dem 19. Jahrhundert waren Temperatur und CO2 entkoppelt:

Abbildung 6: Temperatur-Rekonstruktion (Moberg et al. 2005) und Law Dome* CO2 (MacFarling Meure et al. 2006). [*Law Dome = ein antarktischer Eisbohrkern]

Der jüngste Temperaturanstieg ist nicht anomaler als die Mittelalterliche Warmzeit oder die Kleine Eiszeit:

Abbildung 7: Temperatur-Rekonstruktion (Ljungqvist 2010), instrumentelle Temperaturen der Nordhemisphäre (HadCRUT4) und Law Dome CO2 (MacFarling Meure et al. 2006). Temperaturen sind 30-jährige Mittelwerte, um die sich ändernde Klimatologie zu reflektieren.

Während der letzten 2000 Jahre war die Temperatur der Nordhemisphäre drei mal über die natürliche Variabilität hinausgegangen (definiert als zwei Standard-Abweichungen des Mittels vor 1865): 1) der Höhepunkt der Mittelalterlichen Warmzeit, 2) der Tiefpunkt der Kleinen Eiszeit und 3) seit 1998. Menschliche Aktivitäten waren eindeutig nicht der Grund für die ersten beiden Abweichungen. 70% der Erwärmung seit Anfang des 17. Jahrhunderts liegen eindeutig innerhalb der natürlichen Variabilität.

Zwar kann es sein, dass es während der gegenwärtigen Warmphase etwa 0,2°C wärmer ist als zum Höhepunkt der Mittelalterlichen Warmzeit, doch könnte dies auch der unterschiedlichen Auflösung der Proxy-Rekonstruktion und der instrumentellen Daten geschuldet sein:

Abbildung 8: Die instrumentellen Daten zeigen eine höhere Frequenz und eine höhere Amplitude der Temperaturvariationen als die Proxy-Rekonstruktionen:

Die Amplitude der rekonstruierten Temperatur-Variabilität im Zeitmaßstab von Jahrhunderten ist größer als 0,6°C. Diese Rekonstruktion ist die erste, welche eine ausgeprägte Römische Warmzeit der Jahre 1 bis 300 zeigt und die das Temperaturniveau des Zeitraumes 1961 bis 1990 erreicht hatte. Dieser Warmzeit folgte die Kaltzeit des Dark Age der Jahre 300 bis 800. Die Mittelalterliche Warmzeit erkennt man von 800 bis 1300 und die Kleine Eiszeit tritt klar hervor von 1300 bis 1900, gefolgt von einer rapiden Erwärmung im 20. Jahrhundert. Die höchsten Mitteltemperaturen in der Rekonstruktion trifft man von Anfang bis Mitte des 10. Jahrhunderts an, die niedrigsten Mitteltemperaturen Ende des 17. Jahrhunderts. Dekadische Mitteltemperaturen scheinen das mittlere Temperaturniveau der Jahre 1961 bis 1990 erreicht oder überschritten zu haben während längerer Zeiträume der Römischen und der Mittelalterlichen Warmzeit. Die Temperatur der letzten beiden Jahrzehnte jedoch ist möglicherweise höher als zu irgendeiner Zeit der letzten beiden Jahrtausende, obwohl dies nur aus den instrumentellen Temperaturdaten hervorgeht und nicht aus der Multi-Proxy-Rekonstruktion selbst.

(…)

Die Proxy-Rekonstruktion selbst zeigt eine solche beispiellose Erwärmung nicht, aber dabei muss man berücksichtigen, dass nur wenige bei der Rekonstruktion verwendete Aufzeichnungen bis in die neunziger Jahre des vorigen Jahrhunderts reichen. Nichtsdestotrotz muss man das Wärmeniveau seit dem Jahr 1990 im Vergleich zu den Höhepunkten der Römischen bzw. der Mittelalterlichen Warmzeit auf jeden Fall sehr vorsichtig interpretieren.

(…)

Die hier rekonstruierte Amplitude der Temperatur-Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten sollte man als das mutmaßliche Minimum der wahren Variabilität jener Zeitmaßstäbe betrachten.

(…)

Ljungqvist, 2010

Abbildung 9: Ljungqist zeigt, dass die Erwärmung der Gegenwart nicht eindeutig über die Bandbreite der natürlichen Variabilität hinausgeht. Die dick schwarz gestrichelte Linie sind die Instrumentenaufzeichnungen. Ich habe die roten Linien hinzugefügt, um die Fehlerbandbreite hervorzuheben.

Das Klima im Holozän war gekennzeichnet durch einen grob Jahrtausende langen Zyklus von Erwärmung und Abkühlung (all jenen, die das Wort „Zyklus“ nicht mögen, lesen bitte statt dessen „quasi-periodische Fluktuation“):

Abbildung 10: Ein Jahrtausend-Zyklus zeigt sich in der Rekonstruktion von Ljungqist

Abbildung 11: Der Tausend-Jahre-Zyklus tritt auch in der Rekonstruktion von Moberg hervor:

Diese Zyklen haben sogar Nahmen:

Abbildung 12: Klimazyklen zum Ende des Holozäns (quasi-periodische Fluktuationen).

Schon lange wurden diese Zyklen von Quaternary-Geologen erkannt (Abbildung 13):

Abbildung 13: Eine Fourier-Analyse des Eisbohrkerns GISP2 zeigt klar, dass der Klimazyklus im Jahrtausend-Maßstab das dominante Signal im Holozän ist (Davis &Bohling 2001):

 

Abbildung 14: Das Klima des Holozäns wurde dominiert von einem Klimazyklus im Jahrtausend-Maßstab.

Das Klima der industriellen Ära hat sich in keiner Weise verändert, die nicht zum gut belegten Jahrtausend-Zyklus passt. Unter der Annahme, dass die Erkenntnisse bzgl. CO2 in dem Eisbohrkern zuverlässig sind, hatte der gegenwärtige CO2-Anstieg kaum einen Einfluss auf das Klima, falls überhaupt irgendeinen.

Die Null-Hypothese

Was ist eine ,Null-Hypothese‘?

Eine Null-Hypothese ist ein in der Statistik angewendeter Typ von Hypothese, der davon ausgeht, dass bei einem Satz gegebener Beobachtungen keine statistische Signifikanz vorhanden ist. Die Null-Hypothese versucht zu zeigen, dass es zwischen Variablen keine Variation gibt oder dass eine Einzel-Variable sich nicht von seinem Mittelwert unterscheidet. Sie setzt voraus zu stimmen, bis statistische Beweise auftauchen, die sie ungültig machen zugunsten einer alternativen Hypothese.

Mehr: Null Hypothese http://www.investopedia.com/terms/n/null_hypothesis.asp#ixzz4eWXO8w00

Da es unmöglich ist, mit dem Klima der Erde ein kontrolliertes Experiment durchzuführen (gibt es doch keinen Kontroll-Planeten), ist die einzige Möglichkeit des „Tests“ der CAGW-Hypothese mittels Modellen. Falls die CAGW-Hypothese stimmt, sollten die Modelle Vorhersage-Fähigkeiten zeigen. Daran sind die Modelle grandios gescheitert:

Abbildung 15: „95% aller Modelle stimmen überein: Die Beobachtungen müssen falsch sein!“ Quelle

Abbildung 16: „Klima-Modelle versus Klima-Realität“: Michaels & Knappenberger. Quelle.

Die Modelle haben versagt, weil sie von einer Klimasensitivität ausgehen, die zwei bis drei mal höher ist als aus Beobachtungen hervorgeht:

Abbildung 17: Gleichgewichts-Klimasensitivität: Realität vs. Modelle. Quelle

Von Hansen 1988 über jeden IPCC-Zustandsbericht folgten die gemessenen Temperaturen konsistent den starken Abschwächungs-Szenarien, welchen zufolge der atmosphärische CO2-Anstieg verlangsamt und/oder angehalten wurde.

Abseits der starken El Niño-Ereignisse der Jahre 1998 sowie 2015-16 folgte GISTEMP dem Szenario C, nach welchem das CO2-Niveau ab dem Jahr 2000 nicht mehr gestiegen ist und bei 368 ppm verharrt.

Abbildung 18: Hansens Modell aus dem Jahr 1988 und GISTEMP.

Das völlige Scheitern dieses Modells tritt am klarsten hervor aus dem klimarelevanteren gleitenden 5-Jahre-Mittel:

Abbildung 19: Hansens Modell 1988 und GISTEMP, gleitendes Mittel über 5 Jahre. Aus dem Ersten IPCC.Zustandsbericht:

 

Abbildung 20: Aus dem Ersten Zustandsbericht des IPCC (FAR). Modell vs. HadCRUT4.

HadCRUt4 lag unter Szenario D.

Abbildung 21: Szenarien aus IPCC-FAR.

Im Dritten Zustandsbericht (TAR) finden wir:

Abbildung 22: IPCC-Modell aus TAR vs. HadCRUT4.

HadCRUT4 folgte den starken Abschwächungs-Szenarien trotz eines allgemeinen Fehlens von Abschwächung.

Die Klimamodelle haben niemals irgendeine Vorhersage-Fähigkeit an den Tag gelegt.

Und die Modelle werden nicht besser. Selbst wenn man den Modelllauf im Jahre 2006 beginnen lässt, liegen die gemessenen Temperaturen permanent beim oder unter dem unteren Ende der Bandbreite 5% bis 95%. Die gemessenen Temperaturen kamen dem Modell-Mittel (P50) nur während der Jahre 2006, 2015 und 2016 nahe.

Abbildung 23: Climate Lab Book. Vergleich CMIP5 mit Beobachtungen.

Das Ensemble besteht aus 135 Modellläufen, welche eine Reihe von repräsentativen Konzentrations-Verläufen anwenden (RCP). Sie reichen vom Worst-Case-Scenario RCP5, oftmals als „Business as Usual“ bezeichnet, bis zu variierenden Graden von Abschwächungs-Szenarien (RCP 2.6, 4.5 und 6.0).

Abbildung 24: Abbildung 23 mit individuellen Modelläufen. Quelle.

Wenn wir Löcher bohren, berechnen wir Wahrscheinlichkeiten, um die Öl- und Gasreserven zu schätzen, falls sich die Bohrung als erfolgreich erweist. Der Input für die Modelle besteht aus einer Bandbreite von Schätzungen der Dicke des Reservoirs sowie aus Gebiets- und petrophysikalischen Charakteristiken. Der Modelloutput enthält eine Wahrscheinlichkeits-Verteilung von P10 bis P90.

P10 = Maximum-Fall. Es gibt eine Wahrscheinlichkeit von 10%, dass das Loch mindestens so viel Öl und/oder Gas ergibt.

P50 = Mittlerer Fall. Es gibt eine Wahrscheinlichkeit von 50%, dass wir mindestens so viel Öl und/oder Gas erzeugen. Mögliche Reserven sind >P50.

P90 = Minimum-Fall. Es gibt eine Wahrscheinlichkeit von 90%, dass das Loch mindestens diese Menge Öl und/oder Gas erbringen wird. Nachgewiesene Reserven sind P90.

Mit der Zeit sollte ein Bohrprogramm nahe P50 liegen. Falls die Bohr-Ergebnisse nahe P10 oder P90 liegen, hat das Modell ernsthaft versagt.

Falls das CMIP5-Modellensemble Vorhersagefähigkeiten besäße, sollten die Beobachtungen um P50 liegen, d. h. die Hälfte aller Modelle sollte mehr und die andere Hälfte weniger Erwärmung prophezeien als tatsächlich beobachtet. Während des Vorhersage-Laufes des Modells lag HadCRUT4.5 nicht einmal ansatzweise irgendwo nahe P50…

Abbildung 25: Hervorhebung einer Modelllauf-Periode mit kommentierten Wahrscheinlichkeits-Verteilungen.

Ich habe die instrumentellen Messungen „beleuchtet“, um eine Wahrscheinlichkeits-Verteilung der Vorhersagefähigkeit des Modelllaufes zu schätzen.

Prediction Run Approximate Distribution

2006 P60 (60% der Modelle prophezeiten eine höhere Temperatur)
2007 P75
2008 P95
2009 P80
2010 P70
2011-2013 >P95
2014 P90
2015-2016 P55

Man beachte, dass die Messungen während des El Niño von 1998-99 einen Spitzenwert über P05 erreichten (weniger als 5% der Modelle hatten dies prophezeit). Während des El Niño 2015-16 erreichte HadCRUT4 nur einen Spitzenwert bei P55. El Niño-Ereignisse sind keine P50-Bedingungen. Starke El Niño- und La Niña-Ereignisse sollten Spitzenwerte bei den P05 und P95-Grenzen erreichen.

Die Temperaturmessungen folgen eindeutig viel eher den starken Abschwächungs-Szenarien als dem RCP 8.5, dem simulierten „Business as Usual“-Szenario.

Das rot schraffierte Trapez zeigt, dass HadCRUT4.5 weiterhin zwischen weniger als P100 und P50 verlaufen wird. Dies ist ein Hinweis auf ein erhebliches Scheitern der Modelle und ein ziemlich aufschlussreicher Hinweis darauf, dass die Modelle nach unten adjustiert werden müssen.

In jedem anderen Bereich der Wissenschaft wäre CAGW eine schon lange ausgesonderte, falsifizierte Hypothese.

Schlussfolgerungen

Behauptungen, denen zufolge AGW oder CAGW eine Ausnahme vom Prinzip der Null-Hypothese darstellen, sind offenkundig lächerlich:

In der Wissenschaft eine breite natürliche Erklärung einer großen Bandbreite von Phänomenen. Theorien sind prägnant, kohärent, systematisch, vorausschauend und breit anwendbar. Oftmals integrieren und generalisieren sie viele Hypothesen. Theorien, welche von der wissenschaftlichen Gemeinschaft akzeptiert sind, werden generell durch viele unterschiedliche Beweislinien gestützt – aber selbst Theorien können modifiziert oder widerlegt werden durch neue Beweise und Perspektiven. – UC Berkeley

Dies ist keine wissenschaftliche Hypothese: mehr CO2 verursacht Erwärmung. Es ist Schaumschlägerei.

Das hier ist eine wissenschaftliche Hypothese:

Eine Verdoppelung des atmosphärischen CO2-Gehaltes wird die untere Troposphäre sich um ___°C erwärmen lassen.

Über 30 Jahre lang gescheiterte Klimamodelle waren niemals in der Lage, die Lücke zu füllen. Im 5. IPCC-Zustandsbericht wurde essentiell festgestellt, dass das Füllen der Lücke nicht mehr erforderlich war.

Während es recht wahrscheinlich ist, dass menschliche Aktivitäten zumindest teilweise während der letzten 150 Jahre ursächlich für einen Anteil der Erwärmung waren, gibt es dafür keine robuste statistische Korrelation. Das Scheitern der Klimamodelle zeigt eindeutig, dass die Null-Hypothese immer noch auch für atmosphärisches CO2 und Temperatur gilt.

Selected References

Davis, J. C., and G. C. Bohling, The search for patterns in ice-core temperature curves, 2001, in L. C. Gerhard, W. E. Harrison, and B. M. Hanson, eds., Geological perspectives of global climate change, p. 213–229.

Finsinger, W. and F. Wagner-Cremer. Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach. The Holocene 19,5 (2009) pp. 757–764

Grosjean, M., Suter, P. J., Trachsel, M. and Wanner, H. 2007. Ice-borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations. J. Quaternary Sci.,Vol. 22 pp. 203–207. ISSN 0267-8179.

Hansen, J., I. Fung, A. Lacis, D. Rind, Lebedeff, R. Ruedy, G. Russell, and P. Stone, 1988: Global climate changes as forecast by Goddard Institute for Space Studies three-dimensional model. J. Geophys. Res., 93, 9341-9364, doi:10.1029/88JD00231.

Kouwenberg, LLR, Wagner F, Kurschner WM, Visscher H (2005) Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsuga heterophylla needles. Geology 33:33–36

Ljungqvist, F.C. 2009. N. Hemisphere Extra-Tropics 2,000yr Decadal Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2010-089. NOAA/NCDC Paleoclimatology Program, Boulder CO, USA.

Ljungqvist, F.C. 2010. A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

MacFarling Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins. 2006. The Law Dome CO2, CH4 and N2O Ice Core Records Extended to 2000 years BP. Geophysical Research Letters, Vol. 33, No. 14, L14810 10.1029/2006GL026152.

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005. Highly variable Northern Hemisphere temperatures reconstructed from low-and high-resolution proxy data. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Instrumental Temperature Data from Hadley Centre / UEA CRU, NASA Goddard Institute for Space Studies and Berkeley Earth Surface Temperature Project via Wood for Trees.

Link: https://wattsupwiththat.com/2017/04/17/the-good-the-bad-and-the-null-hypothesis/

Übersetzt von Chris Frey EIKE




Der Klima-,Gott aus der Maschine‘ hat sich als falscher Gott herausgestellt

Der Pionier-Meteorologe und Mathematiker am Massachusetts Institute of Technology Edward Lorenz bezweifelte diese Fähigkeit bereits in den sechziger Jahren des vorigen Jahrhunderts. Der glückliche Entdecker der Chaos-Theorie postulierte „gibt es so etwas wie Klima überhaupt?“ Gibt es ein definierbares „normales globales Klima“, von welchem Abweichungen als anomal bezeichnet werden können? In seiner Studie aus dem Jahr 1965 heißt es: „… falls außerdem der gegenwärtige Zustand oder der gegenwärtige und vergangene Zustand nicht mit vollständiger Genauigkeit bekannt sind, wird jedes Vorhersageverfahren zu schlechteren und immer schlechteren Vorhersagen führen, so wie die Bandbreite des Niederschlags zunimmt, bis ultimativ nur die periodische Komponente in ferner Zukunft vorhergesagt werden kann“. Sein Statement ist eine Beschreibung dessen, was als chaotisches Verhalten bekannt ist. Derartige Systeme sind charakterisiert durch die Tatsache, dass winzige Änderungen der Ausgangsbedingungen zu gewaltig unterschiedlichen Ergebnissen über einen bestimmten Zeitraum führen. Das Verhalten des Klimas erfüllt treffend diese Definition. Kurzfristige Änderungen sind bekannt als Wetter, und die Genauigkeit von Wettervorhersagen hat sich im Laufe der Jahrzehnte bis zu einer Woche im Voraus verbessert.

Jetzt hatte Judith Curry den Mut gehabt, das Fehlen von Kleidung des Kaisers ,Klima-Computer‘ zu bemerken. Prof. Curry, Autorin von über 180 wissenschaftlichen Studien zum Thema Wetter und Klima, hat sich kürzlich vom Georgia Institute of Technnology zurückgezogen. Dort fungierte sie als Professorin und Vorsitzende der School of Earth and Atmospheric Sciences. Sie schrieb jüngst Climate Models for the Layman [auf Deutsch beim EIKE hier], worin sie die inhärent in Computermodellen vorhandenen fundamentalen Probleme offenlegte. Diese Probleme sind so schwerwiegend, dass sie Zweifel wecken an der Fähigkeit, ein solches Klima-Vorhersagesystem zu erstellen. Gegenwärtige Klimamodell-Prophezeiungen weichen von der historischen Realität ab, wenn man sie im Zeitmaßstab von Jahrzehnten betrachtet. Und doch werden diese fehlbaren Prophezeiungen, anderweitig als Szenarien bekannt, von Politikern, Umweltgruppen und Energie-Firmen herangezogen, um darauf Politik und zukünftige Energiepläne zu entwickeln.

Prof. Curry:

Es ist nicht nur die Tatsache, dass Klimasimulationen frisiert werden müssen, die problematisch ist. Es kann gut sein, dass es unmöglich ist, langfristige Prophezeiungen über das Klima zu erstellen – es ist schließlich ein chaotisches System. Falls das der Fall ist, dann versuchen wir möglicherweise, die globale Ökonomie für nichts und wieder nichts umzukrempeln“.

Allerdings gab es jene unter den „wir“, welche gelernt haben massiv zu profitieren von dem Versuch, „die globale Wirtschaft umzukrempeln“. Regierungen haben Milliarden ausgegeben, um die Energieerzeugung zu kontrollieren und zu benutzen in dem Versuch, das Klima zu kontrollieren. Milliarden des Steuerzahlers wurden an die Betreiber zahlreicher derartige Programme geleitet. Kontrolle über Energie bedeutet Kontrolle über alle Aspekte des modernen Lebens einschließlich persönlicher Freiheit. Ein vom Menschen verursachter gefährlicher Klimawandel ist ein Musterbeispiel „falscher Fake-Nachrichten“, ein Begriff, eingeführt von Julian Simon, um den Gebrauch von falschen Nachrichten zur Angsterzeugung in den Medien zu verwenden – eine Taktik, die er treffend in seinem Traktat „Hoodwinking the Nation“ zum Ausdruck gebracht hat.

Großer Dank an Judith Curry, die diesen falschen Gott bloßgestellt hat!

[Dem aber Politik und Medien hierzulande, allen voran die „Süddeutsche Zeitung“, nach wie vor huldigen! Anm. d. Übers.]

Charles G. Battig, M.S., M.D., Heartland Institute policy expert on environment; VA-Scientists and Engineers for Energy and Environment (VA-SEEE). His website is Climate Reality

Link: https://wattsupwiththat.com/2017/02/22/the-climate-deus-ex-machina-is-shown-to-be-a-false-god/

Übersetzt von Chris Frey EIKE




Computer-Prophe­zeiungen von Klima­alarm sind inhärent fehlerhaft

Die Autorin der Studie, die bedeutende amerikanische Klimatologin Prof. Judith Curry erklärt, dass der Klimaalarm auf hoch komplexen Computer-Simulationen des Klimas der Erde beruht.

Aber obwohl Wissenschaftler sich seit Jahrzehnten mit der Entwicklung derselben befasst haben, müssen diese Simulationen immer noch „frisiert“ werden, um sie dem realen Klima anzupassen. Dies macht sie im Wesentlichen unbrauchbar für den Versuch herauszufinden, was Änderungen des Klimas verursacht, und es macht sie unzuverlässig für Prophezeiungen, was in der Zukunft passieren wird.

Prof. Curry: „Es ist nicht nur die Tatsache, dass Klimasimulationen frisiert werden müssen, die problematisch ist. Es kann gut sein, dass es unmöglich ist, langfristige Prophezeiungen über das Klima zu erstellen – es ist schließlich ein chaotisches System. Falls das der Fall ist, dann versuchen wir möglicherweise, die globale Ökonomie für nichts und wieder nichts umzukrempeln“.

Prof. Curry kündigte kürzlich an, dass sie ihre akademische Laufbahn aufgegeben habe infolge von Angriffen auf ihre Forschungen und dem „Idiotismus“ [craziness] der Klimadebatte.

Einschub des Übersetzers: Das gesamte PDF steht hier . Die ,Executive Summary‘ lautet [Ende Einschub]:

Executive Summary

Es gibt eine große Debatte über Genauigkeit und Brauchbarkeit von globalen Klimamodellen (GCMs). Diese Debatte findet innerhalb der Gemeinschaft der Klimawissenschaftler statt, die sich über das Gewicht uneinig sind, welches man Computermodellen relativ zu Beobachtungen beimessen sollte. GCM-Outputs werden auch von Ökonomen, Gesetzgebern und Politikern herangezogen, weshalb die Modelle Gegenstand sehr genauer Überprüfungen seitens einer größeren Gemeinschaft von Wissenschaftlern, Ingenieuren, Software-Experten und Wissenschaftsphilosophen waren und sind. Dieser Report versucht, die Debatte um die GCMs zu beschreiben für eine gebildete, aber nicht technisch bewanderte Zuhörerschaft.

Schlüsselpunkte der Summary:

GCMs wurden niemals einer rigorosen Verifikation und Validierung unterzogen, welche jedoch die Norm sind im Ingenieurswesen und in der behördlichen Wissenschaft.

Es gibt wohlbegründete Bedenken hinsichtlich eines fundamentalen Fehlens von Vorhersagbarkeit im komplexen, nicht linearen Klimasystem.

Es gibt zahlreiche Argumente, die die Schlussfolgerung stützen, der zufolge Klimamodelle nicht geeignet sind für das Ziel, den Anteil der Erwärmung des 20. Jahrhunderts mit hoher Sicherheit zu identifizieren, der im Gegensatz zu natürlichen Kräften anthropogenen Ursachen zuzuschreiben ist.

Es gibt immer mehr Beweise dafür, dass Klimamodelle viel zu viel Erwärmung prophezeien infolge des steigenden atmosphärischen CO2-Gehaltes.

Die Ergebnisse der Klimamodell-Simulationen für das 21. Jahrhundert, wie sie vom IPCC bekannt gegeben werden, enthalten nicht entscheidende Elemente der Klimavariabilität und sind daher wenig nützlich für Projektionen, wie sich das Klima im 21. Jahrhundert tatsächlich entwickeln wird.

Klimamodelle sind nützliche Utensilien für die Durchführung wissenschaftlicher Forschungen, um das Klimasystem besser zu verstehen. Allerdings führen die oben genannten Punkte zu der Schlussfolgerung, dass die gegenwärtigen GCMs nicht geeignet sind, um die Gründe der Erwärmung des 20. Jahrhunderts anzugeben oder die Vorhersage globaler oder regionaler Klimaänderungen im Zeitmaßstab von Jahrzehnten bis Jahrhunderten vorzunehmen, mit welch hohem Niveau von Vertrauen auch immer. Übertragen bedeutet dies, dass sie keineswegs herangezogen werden sollten für politische Entscheidungen, die die Sozial-, Ökonomie- oder Energiesysteme der Erde fundamental verändern. Es ist diese Anwendung der Ergebnisse von Klimamodellen, welche die Lautstärke der Debatte um Klimamodelle befeuern.

———————————————-

Hier folgt jetzt noch die Zusammenfassung am Schluss der Studie:

Summary

Es gibt immer mehr Beweise, dass Klimamodelle viel zu warm ausfallen und dass die Klimasensitivität bzgl. Kohlendioxid am untersten Rand der vom IPCC angegebenen Bandbreite liegt. Nichtsdestotrotz wird diesen niedrigeren Werten der Klimasensitivität in den IPCC-Klimamodell-Projektionen bis zum Ende des 21. Jahrhunderts oder bei Schätzungen der Reduktion von CO2-Emissionen auf die Temperatur in keiner Weise Rechnung getragen. Die IPCC-Klimamodell-Simulationen konzentrieren sich auf die Reaktionen des Klimas bei verschiedenen Emissions-Szenarien. In den Klimamodell-Projektionen für das 21. Jahrhundert sind nicht enthalten:

Eine Bandbreite von Szenarien bzgl. vulkanischer Eruptionen (die Modelle nehmen an, dass die vulkanische Aktivität im 21. Jahrhundert mit derjenigen im 20. Jahrhundert vergleichbar ist, obwohl die Aktivität in Letzterem deutlich geringer war als im 19. Jahrhundert).

Ein mögliches Szenario solarer Abkühlung analog dem solaren Minimum, welches von russischen Wissenschaftlern vorhergesagt wird.

Die Möglichkeit, dass die Klimasensitivität um einen Faktor zwei niedriger ist als von den meisten Klimamodellen simuliert.

Realistische Simulationen von Phase und Amplitude der natürlichen internen Klimavariabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten.

Die Gemeinschaft der Klima-Modellierer konzentrierte sich auf die Reaktion des Klimas auf vom Menschen verursachte Emissionen, und die politische Gemeinschaft akzeptiert (entweder explizit oder implizit) die Ergebnisse der Simulationen für das 21. Jahrhundert als tatsächliche Prophezeiungen. Folglich fehlt uns bislang ein gutes Verständnis der relativen Klimaauswirkungen auf die oben genannten Parameter oder dessen potentielle Auswirkungen auf die Entwicklung des Klimas im 21. Jahrhunderts.

Übersetzt von Chris Frey EIKE




Solareinfluss 2: Zukunft braucht Herkunft: Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache!

Das Klimasystem der Erde ist ein dynamisches, nichtlineares System, das permanent sowohl von langperiodischen als auch von kurzperiodischen und unsystematischen Einflussfaktoren angetrieben wird. Längerfristige Antriebe sind vor allem die Veränderungen des solaren Energieflusses, der „Solarkonstanten“. In welchem Ausmaß auch der anthropogene Treibhauseffekt eine Rolle beim längerfristigen Klimawandel spielt, soll in dieser Untersuchung nach dem Residuumprinzip überprüft werden.  

Zu den kurzperiodischen Klimafaktoren zählen die Veränderungen der Meeresoberflächentemperatur, wie sie u.a. im Pazifik als ENSO-Kalt- und Warmphasen und im Atlantik als meridionale Temperaturschaukel (H.Malberg, G.Bökens 1993) auftreten. Auch der vulkanische Einfluss wirkt sich kurzzeitig auf das Klima aus. So kommt es nach Vulkanausbrüchen durch den Feinstaub zu einer erhöhten atmosphärischen Trübung und damit infolge einer verstärkten Absorption von Solarstrahlung  zu einer Erwärmung in der oberen Stratosphäre bei gleichzeitiger Abkühlung in den bodennahen Schichten. 

Als Beispiel für klimarelevante Wechselwirkungen/Rückkopplungen seien die gekoppelten Änderungen von Temperatur und Schnee-/Eisbedeckung beschrieben. Eine Erhöhung der Temperatur führt zu einem Rückgang der Schnee-/Eisbedeckung. Die Erdalbedo verringert sich, und die Temperaturerhöhung wird verstärkt. Analoges gilt, wenn sich Abkühlungen bei zunehmender Schnee-/Eisbedeckung (erhöhte Albedo) verstärken. Hohe Klimaeffekte haben auch Änderungen der Wolkenbedeckung.

Eine Vielzahl von Prozessen ist somit zu jedem Zeitpunkt in unserem Klimasystem wirksam. Was wir als Klimaverhalten beobachten, ist das Gesamtresultat aller Antriebe, welche auf der kurz- und langfristigen Zeitskala ablaufen.  In Abb.1 sind die in Mitteleuropa seit der Endphase der  Kleinen Eiszeit beobachteten Temperaturänderungen eines Jahrzehnts zum Vorjahrzehnt wiedergegeben. Dabei sind positive wie negative Temperatursprünge von 0,4K bis 0,5K keine Seltenheit. Im Einzelfall werden sogar +/-0,9K erreicht. Die Konsequenz aus diesem Temperaturverhalten ist, dass es nicht möglich ist, langfristige Klimaänderungen auf der Basis von einzelnen dekadischen (oder etwa jährlichen) Temperaturänderungen zuverlässig zu beurteilen.

Aufgrund dieses Sachverhalts haben unsere klimatologischen Lehrer als Klimaperioden 30-jährige Mittelwerte eingeführt. Auf diese Weise wird erreicht, dass die kurzzeitig wirkenden Klimaeinflüsse herausgefiltert werden und allein die langfristige, nachhaltige Klimaänderung sichtbar wird.  

In Abb.2  sind anhand der 30-jährig gleitenden Mitteltemperaturen die langfristigen Klimaänderungen von Mitteleuropa seit der Kleinen Eiszeit wiedergegeben. Der permanente Klimawandel ist ein Faktum. Ferner wird in der Abbildung (relativ zum Mittelwert) deutlich, wann unternormale, also kalte, und wann übernormale, also warme Klimabedingungen geherrscht haben. Der Kleinen Eiszeit des 17. Jahrhunderts folgte eine Wärmeperiode im 18. Jahrhundert. An diese schloss sich die Kälteperiode des 19. Jahrhunderts an. Ihr folgte die Erwärmung im 20. Jahrhundert. Fazit: Der Klimawandel ist ein systemimmanenter Prozess. Alle unsere Vorfahren mussten sich auf veränderte Klimaverhältnisse einstellen. Auch die heutigen und nachfolgenden Generationen werden dieses tun müssen – egal welche CO2-Maßnahmen ergriffen werden.  

Ursachen der langfristigen Klimaänderungen   

Bei der Frage nach der primären Ursache des langfristigen Klimawandels ist die Klimawissenschaft auch unmittelbar vor dem UN-Klimagipfel in Kopenhagen (Dezember 2009) unverändert in zwei grundsätzliche Lager gespalten. Das eine Lager ist sich mit Politik und Medien in der  Annahme einig, dass der anthropogene Treibhauseffekt den langfristigen Klimawandel primär verursache, auch wenn es dafür keinen schlüssigen Beweis gibt. Vor allem empirische Klimatologen und Astrophysiker gehen dagegen davon aus, dass der solare Einfluss auf das Klima, wie zu allen Zeiten, der dominierende langfristige Klimaantrieb ist. Zur Klärung dieses Dissens sollen  nachfolgend unterschiedliche räumliche und zeitliche Klimaskalen analysiert werden. Dabei bleibt der methodische Ansatz gegenüber den früheren Untersuchungen grundsätzlich unverändert, jedoch werden entsprechend den Klimaperioden über 3 Dekaden Untersuchungsintervalle von 3 Sonnenfle-ckenzyklen definiert.

Die rotierende Sonne ist wie unser Klimasystem ein dynamisches, nichtlineares System. In ihr wirken nukleare, elektrische, magnetische, thermische Kräfte sowie die Gravitation. Die Folge der damit verbundenen Prozesse sind kurz- und langzeitliche Schwankungen des solaren Energieflusses. In Bezug auf die längerfristigen klimarelevanten Auswirkungen ist es daher auch beim solaren Antrieb sinnvoll, die kurzperiodischen/unsystematischen Aktivitätsschwankungen herauszufiltern. Dieses erfolgt, wie gesagt, durch die Mittelwertbildung der Sonnenfleckenzahlen über 3 Sonnenfleckenzyklen, im Mittel also über 33 Jahre. 

Die globale Klimaskala  

Von den untersuchten Klimaskalen umfasst die globale/hemisphärische Skala (mangels weltweiter Beobachtungsdaten) mit rund 150 Jahren den kürzesten Zeitraum der jüngeren Klimageschichte. In Abb.3 ist die globale Mitteltemperatur, in Abb.4 die mittlere Sonnenfleckenzahl jeweils über 3 Sonnenfleckenzyklen gleitend für die Zeit 1860-1999 dargestellt.

 

 Vergleicht man Abb.3 und Abb.4 miteinander, so fällt die längerfristige globale  Erwärmung unverkennbar mit einem Anstieg der Sonnenfleckenzahl, also mit einer langfristigen Zunahme der Sonnenaktivität, zusammen. Temperatur und Sonnenaktivität verlaufen grundsätzlich synchron. Analoges gilt für die Temperaturentwicklung auf der Nord- und Südhalbkugel.

Um den quantitativen Zusammenhang zwischen den langfristigen solaren Antriebsänderungen und den effektiven (direkten und indirekten) Auswirkungen auf die globale/ hemisphärische Temperatur zu bestimmen, wurde eine Korrelationsanalyse durchgeführt. Die Ergebnisse sind für die zeitlichen Intervalle 1860-1999, 1870-1999 und 1883-1999 in Abb.5 wiedergegeben.

Wie sich zeigt, ergibt sich für die von kurzperiodischen Einflüssen befreite langfristige Temperaturentwicklung ein globaler Korrelationskoeffizient von +0,90 mit dem solaren Antrieb. Mit +0,92 liegt der Korrelationskoeffizient für die Nordhalbkugel leicht höher als der Wert der Südhalbkugel von +0,87 –vermutlich ein Effekt der unterschiedlichen Land-Meer-Verteilung. Ferner zeigt der Blick auf Abb.5, dass die Korrelationskoeffizienten eine hohe zeitliche Stabilität aufweisen.  

    

Die lokale Klimaskala (Deutschland)

Während die globale Klimareihe den Klimawandel erst seit der Mitte des 19. Jahrhunderts erfasst, geben die Klimabeobachtungen von Hohenpeißenberg (60 km südwestlich von München gelegen) Aufschluss über die Klimaentwicklung in Deutschland seit 1780. Dabei zeichnen sich die Hohenpeißenbergdaten –im Gegensatz zu den globalen Daten- durch eine hohe Homogenität aus. Durch die über 3 Sonnenfleckenzyklen berechneten Mitteltemperaturen wurden die vielfältigen zirkulationsbedingten kurzfristigen kontinentalen und maritimen Einflüsse eliminiert, so dass im Ergebnis allein das langfristige Klimaverhalten von Deutschland erkennbar wird.  

In Abb.6 ist die Klimaentwicklung anhand der Temperaturbeobachtungen von Hohenpeißenberg für den  Zeitraum 1778-1999 dargestellt. (Die zwei Jahrestemperaturen 1778/1779 wurden zur Vervollständigung des entsprechenden Sonnenfleckenzyklus aus der Berliner Klimareihe reduziert). 

Wie Abb.6 zeigt, weist das Temperaturverhalten während der 220 Jahre einen U-förmigen Verlauf auf. Einer Wärmeperiode um 1800 folgte ein deutlicher Temperaturrückgang im 19. Jahrhundert. Ihm folgte  dann als Klimaerholung der Temperaturanstieg im 20. Jahrhundert. 

Die über 3 Sonnenfleckenzyklen gleitenden mittleren Sonnenfleckenzahlen sind in Abb.7 dargestellt. Wie sich zeigt, weist die solare Aktivität in den 220 Jahren einen grundsätzlich analogen Verlauf zum Temperaturverhalten von Deutschland auf.

Der verstärkten Sonnenaktivität am Ende des 18. Jahrhunderts mit einem Mittelwert von rund 45 Sonnenflecken folgten im 19. Jahrhundert zeitweise Werte zwischen 30 und 35 und zum Ende des 20. Jahrhunderts von über 70, was einer Zunahme der mittleren Sonnenfleckenzahl um 100% während der  jüngsten Erwärmung entspricht.  

 

Den engen Zusammenhang zwischen den langfristigen Änderungen der Sonnenaktivität seit 1778 und dem gleichzeitigen langfristigen Temperaturverhalten in Deutschland  zeigt die statistische Korrelationsanalyse. 

Der rapide Temperatursturz zu Beginn des 19. Jahrhunderts fällt mit einer ebenfalls kurzen, aber deutlichen Abnahme der Sonnenfleckenzahl zusammen (Dalton-Minimum  der solaren Aktivität). Entsprechend hoch ist die Korrelation für den Zeitraum 1787-1836. Auch wenn wegen der geringen Zeitspanne der Koeffizient statistisch nicht signifikant ist, so ist der Zusammenhang zwischen solarem Aktivitätseinbruch und Temperatursturz eindeutig.

Für die Temperaturentwicklung in Deutschland seit 1837 berechnen sich Korrelationskoeffizienten mit der Sonnenaktivität -je nach Zeitintervall- zwischen +0,81 und +0,89 (Abb.8). Damit dürfte es keinen Zweifel geben, dass sich der integrale (direkte und indirekte) solare  Einfluss auf den langfristigen Klimawandel selbst auf der lokalen Klimaskala von Deutschland eindeutig nachweisen läßt und dass zwischen der jüngsten Erwärmung und der Zunahme der Sonnenaktivität ein hoher kausaler Zusammenhang besteht. Je nach Zeitraum vermag der solare Antrieb 65-80% der Temperaturvarianz, d.h. des Temperaturverhaltens der letzten 220 Jahre zu erklären.  

Die regionale Klimaskala (Mitteleuropa)

Die Untersuchung der Klimaentwicklung von Mitteleuropa basiert auf den Klimareihen von Berlin-Dahlem (J.Pelz), Prag sowie den beiden Stationen Basel und Wien (F.Baur). Den drei Dekaden 1671-1700 liegen die auf Mitteleuropa reduzierten Beobachtungen der Zentralenglandreihe (G.Manley) zugrunde. Damit stehen für die langfristige Klimadiagnose geprüfte Beobachtungsdaten für die Zeit seit dem letzten Höhepunkt der Kleinen Eiszeit zur Verfügung. (Nicht einbezogen wurden die Klimabeobachtungen von Hohenpeißenberg, da sonst die lokalen und die regionalen Ergebnisse nicht unabhängig voneinander gewesen wären).

In Abb.9 ist anhand der über 3 Sonnenfleckenzyklen gemittelten Temperaturen die langfristige Klimaent-wicklung von Mitteleuropa wiedergegeben (vgl. Abb.2). Nach der Endphase der Kleinen Eiszeit im 17. Jahrhundert stieg die Temperatur bis zum Wärmeoptimum um 1800 an. Dieser Wärmeperiode folgte die Kälteperiode des 19. Jahrhunderts. Ihr schloss sich die Erwärmung des 20. Jahrhunderts an. Die beiden Kälteperioden waren dabei mit einer maximalen Ausdehnung der Alpengletscher verbunden. Mit Gebeten, mit Bittprozessionen und dem Versprechen, in Zukunft tugendhafter zu leben, hofften die Menschen damals, dass eine höhere Macht einen weiteren Vorstoß der Gletscher verhindern (Der Tagesspiegel, 7.8.2009) und damit der Kälte Einhalt gebieten möge.  

Fragt man nach dem dominierenden Klimaantrieb, nach der primären Ursache des wiederholten Wechsels der ausgedehnten Kälte- und Wärmeperioden  in den letzten 3 Jahrhunderten, so liefert der Vergleich des Klimawandels seit der Kleinen Eiszeit (Abb.9) mit der Veränderung der Sonnenfleckenzahl (Abb.10) eine  schlüssige Antwort. Das synchrone langfristige Verhalten von Temperatur und Sonnenaktivität über die gesamte Zeitspanne ist so eindeutig, dass jeder Zufall ausgeschlossen werden kann. 

Der ruhigen Sonne des Maunder-Minimums Ende des 17. Jahrhunderts folgte die Zunahme der Sonnenaktivität im 18.Jahrhundert. Dieser folgte das solare Dalton-Aktivitätsminimum im 19. Jahrhundert und der Anstieg der solaren Aktivität im 20.Jahrhundert auf die höchsten Werte der letzten Jahrhunderte.

Ferner kommt in beiden Zeitreihen deutlich ein periodisches, sinusartiges Schwankungsverhalten zum Ausdruck. Der Vergleich von Abb.9 und Abb.10 zeigt: Sonnenaktivität und Temperaturverlauf weisen beide eine rund 200-jährige Schwingung auf. In der Astrophysik wird diese 200-jährige Schwingung der Sonnenaktivität als De-Vries-Zyklus bezeichnet. 

Die hohe Verknüpfung von Klimaentwicklung und Sonnenaktivität seit der Kleinen Eiszeit kommt auch beim Vergleich von Abb.11 und Abb.12 zum Ausdruck. Dort sind die Abweichungen vom Mittelwert der Temperatur bzw. der Sonnenfleckenzahl für die 3 Sonnenfleckenzyklen umfassenden Klimaperioden dargestellt.

Die negativen Anomalien der Temperatur des 17. und des 19. Jahrhunderts  sind gekoppelt mit den negativen Anomalien der solaren Aktivität. Den positiven Temperaturabweichungen des 18. und des 20. Jahrhunderts entsprechen die zeitgleichen positiven Abweichungen der solaren Aktivität. 

Anders ausgedrückt: Perioden mit übernormaler Sonnenaktivität, entsprechen einer aktiven Sonne und sind mit Wärmeperioden verbunden. In Zeiten mit einer unternormalen Sonnenaktivität, einer ruhigen Sonne, kommt es zu Kälteperioden.

Grundsätzlich lässt sich somit über den Zusammenhang von Sonnenaktivität und Klimaverhalten festhalten: Zeiten mit langfristig zunehmender Sonnenaktivität fallen langfristig mit Erwärmungen zusammen. In Perioden mit einer langfristigen Abnahme der solaren Aktivität kommt es langfristig zur Abkühlung.     

Dieser qualitative Zusammenhang wird durch die Ergebnisse der Korrelationsanalyse in vollem Umfang bestätigt. Korreliert wurden wiederum die über 3 Sonnenfleckenzyklen gleitenden Mitteltemperaturen mit den entsprechenden mittleren Sonnenfleckenzahlen. Die Ergebnisse sind in Abb. 13 dargestellt. 

Wie zu erkennen ist, berechnen sich für den Zusammenhang zwischen dem langfristigen Verhalten der  solaren Aktivität und dem langfristigen Temperaturanstieg nach der Kleinen Eiszeit bis zum Ende des 18.Jahrhunderts Korrelationskoeffizienten von +0,90 bis +0,94. Analoges  gilt für die kurze, intensive Ab-kühlungsphase zu Beginn des 19. Jahrhunderts. Für die heute diskutierte Erwärmung von der Mitte des 19. Jahrhunderts bis zum Ende des 20.Jahrhunderts ergeben sich Korrelationskoeffizienten mit der Sonnenaktivität von +0,83 bis +0,87 und für die Periode vom Ende des 19. Jahrhunderts bis 1999 von +0,90 bis +0,92. Bedenkt man, dass ein Korrelationskoeffizient (per Definition) maximal den Wert 1,0 annehmen kann, so ist der dominierende solare Einfluss auf den langfristigen Klimawandel nicht länger weg zu diskutieren.

Zusammenfassende Schlussbetrachtungen  

In dieser klimadiagnostischen Untersuchung wurde der Klimawandel der letzten Jahrhunderte auf drei räumlichen Klimaskalen analysiert: auf der globalen, der lokalen und der regionalen Klimaskala. Damit verbunden sind drei zeitliche Klimaskalen. 

Die globale/ hemisphärische Untersuchung basiert auf den CRU-Klimareihen (Hadley-Center,UK) seit 1850. Der lokalen Klimaskala liegen die homogenen Klimabeobachtungen von Hohenpeißenberg seit 1780  zugrunde. Die regionale Klimaskala wird durch die „Klimareihe Mitteleuropa“ erfasst. Sie reicht bis 1671 zurück und damit bis zum letzten Höhepunkt der Kleinen Eiszeit.

Als erster Sachverhalt ist festzustellen: Die globale IPCC- Klimareihe ist mit rund 150 Jahren die kürzeste. Sie erfasst nur ein sehr begrenztes Zeitfenster und ihre Erwärmung ist ohne Bezug zur Klimavorgeschichte.    

Der zweite wichtige Tatbestand ist: Die globale Klimareihe beginnt, wie die Klimareihe Mitteleuropa beweist, zu einer Zeit mit den lebensfeindlichsten Klimaverhältnissen nach der Kleinen Eiszeit. In der Mitte des 19. Jahrhunderts waren die Klimabedingungen so ungünstig, dass als Folge der Kälteperiode in Mitteleuropa Missernten und Hungersnöte auftraten und Menschen verhungert sind. Wer diese lebensfeindliche Klimaepoche für Mensch und Natur zum Referenz-/Normalklima erklärt, indem er die aktuelle Erwärmung dramatisiert und als Klimakatastrophe darstellt, der stellt die Klimarealität auf den Kopf und schürt bewußt eine Klimahysterie. Man fragt sich unwillkürlich: cui bono? 

Wie die gegenwärtigen Klimabedingungen auf der langfristigen Klimaskala wirklich einzuordnen sind, wird durch die lokale Klimareihe von Hohenpeißenberg und die Klimareihe Mitteleuropa dokumentiert: 

In den letzten Jahrhunderten kam es zu einem wiederholten Wechsel von anhaltenden Kälte- und Wärmeperioden. Dem letzten Höhepunkt der Kleinen Eiszeit im 17. Jahrhundert folgte eine Erwärmung im 18. Jahrhundert. Ihr folgte nach einem rapiden Temperaturrückgang die Kälteperiode des 19. Jahrhunderts und dann die Wärmeperiode im 20. Jahrhundert. 

Der Einwand, Mitteleuropa sei für das globale Klimaverhalten nicht repräsentativ, ist auf der langfristigen Klimaskala unrichtig. Dass die Klimaentwicklung der letzten Jahrhunderte in Mitteleuropa den globalen Klimaverlauf auch vor 1850 grundsätzlich widerspiegelt, lässt sich aus  der extrem hohen Korrelation von +0,95 (1851-2000) bis +0,97 (1881-2000) ableiten, die sich für die 30-jährig gleitenden Klimaperioden zwischen globalem und mitteleuropäischem Klimaverhalten ergibt. Dieser Zusammenhang ist auf dem 99,9%-Niveau hochsignifikant.

Vor diesem Hintergrund stellt die globale Erwärmung nach 1850 lediglich den aufsteigenden Ast einer langperiodischen Klimaschwingung dar.

Die Antwort auf die Frage nach dem dominierenden Klimaantrieb auf der globalen, lokalen und regionalen Klimaskala folgt aus der Analyse des langfristigen Klimaverhaltens einerseits und den langfristigen Veränderungen der solaren Aktivität anderseits. 

Klimafluktuationen, also kurzperiodisch wirkende Antriebe (z.B. El Nino/La Nina, Vulkanausbrüche), sind auf der langfristigen Klimaskala grundsätzlich unerheblich. Diese stellen klimatische Oberschwingungen dar, die dem langfristigen Klimaverlauf nur überlagert sind. 

Der nachhaltige Prozess, dem sich Mensch und Natur anpassen müssen, ist die langfristige Klimaänderung. 

Entsprechend der klimatologischen Konvention, Klimafluktuationen durch die Bildung 30-jähriger Mittelwerte  zu eliminieren, wurde die Klimadiagnose über den Zusammenhang von solarem Antrieb und Klimaverhalten mittels Klimaperioden von 3 Sonnenfleckenzyklen (im Mittel 33 Jahre) durchgeführt. 

Auf diese Weise wird es möglich, das langfristige Klimaverhalten und die primäre Ursache deutlicher zu erkennen als dieses unter Einbezug der vielfältigen kurzfristigen Variabilität möglich ist. 

Auf der globalen Klimaskala berechnen sich für den Zusammenhang von solarer Aktivität und globaler/ hemisphärischer Temperatur im Zeitraum 1860-1999 stabile Korrelationskoeffizienten von +0,90. Das Ergebnis ist auf dem 99,9%-Niveau hochsignifikant.  

Auf der lokalen Klimaskala (Deutschland) folgen für den Zusammenhang zwischen Temperaturverlauf Hohenpeißenberg und solarer Aktivität im Zeitraum 1860-1999 statistisch hochsignifikante Korrelationskoeffi-zienten von +0,83 bis +0,89. Für die vorhergehende kurze, intensive Abkühlungsphase liegt die Korrelation mit der Sonnenaktivität über +0,90.  

Auf der regionalen Klimaskala von Mitteleuropa ist die enge Kopplung zwischen den langfristigen Änderungen der solaren Aktivität und dem Klimaverhalten seit der Kleinen Eiszeit, d.h. für über 300 Jahre nachweisbar. Für die Erwärmungsperiode unmittelbar nach der Kleinen Eiszeit berechnen sich Korrelationskoeffizienten von +0,90 bis +0,94. Ebenso hohe Werte ergeben sich für die kurze, rapide Abkühlung zur Zeit des Dalton-Minimums der solaren Aktivität. Die jüngste Erwärmung Mitteleuropas weist ab 1848 je nach Zeitintervall Korrelationskoeffizienten von +0,87 bis +0,92 mit den Änderungen der solaren Aktivität auf.  Auch diese Werte sind auf dem 99,9%-Niveau statistisch abgesichert.

Fazit: Der dominierende Einfluss der solaren Aktivität auf das langfristige Klimaverhalten ist auf der globalen und hemisphärischen sowie auf der lokalen und regionalen Klimaskala eindeutig nachzuweisen. Langfristige  Änderungen des solaren Energieflusses führen im Klimasystem zu direkten und indirekten Reaktionen. Direkt sind die breitenkreisabhängigen Temperaturänderungen gemäß dem jeweiligen Einfallswinkel der Sonnenstrahlung. Dabei kommt naturgemäß in den Tropen und den wolkenarmen Subtropen den Einstrahlungsänderungen das stärkste klimatische Gewicht zu, denn 50% der Erdoberfläche liegen in dieser strahlungsintensivsten Zone zwischen 30°N-30°S. Dort findet folglich auch im System Erde/Ozean-Atmosphäre die stärkste thermische Energieumsetzung statt. 

Über die damit verbundenen Veränderungen der Hadley-/Passat-Zirkulation kommt es zu komplexen Auswirkungen auf die gesamte planetarische Zirkulation, d.h. auf die atmosphärischen und ozeanischen Wärme-transporte. 

Indirekt sind jene Auswirkungen, die durch photochemische Prozesse (Ozonschicht) und durch Rückkopplungseffekte, z.B.  durch großräumige Veränderungen der Wolken- und Schnee-/Eisbedeckung hervorgerufen werden.  

Es liegt in der Natur statistisch-klimadiagnostischer Analysen, dass sie die physikalischen Einzelprozesse nicht aufzulösen vermögen. Die vorgestellten Ergebnisse stellen das Integral über alle durch die solaren Antriebsänderungen verursachten Auswirkungen auf das Temperaturverhalten dar. Der Zusammenhang zwischen Klima-/ Temperaturentwicklung in den letzten Jahrhunderten und den Änderungen des solaren Antriebs in dieser Zeit sind statistisch auf dem 99,9%-Niveau  abgesichert. 

Wie die früheren Untersuchungen gezeigt haben, ergeben sich unter Einbezug auch der kurzperiodischen natürlichen Klimaantriebe für den solaren Antriebsanteil Korrelationen von +0,75 bis +0,80. Das entspricht einer erklärten Varianz durch den solaren Effekt bis zu 65%. Betrachtet man allein die relevanten langfristigen Klimaänderungen, indem die kurzfristigen Klimaschwankungen herausgefiltert werden, so folgt: Für den Zusammenhang zwischen langzeitlichem solarem Aktivitätsverhalten und langfristiger Klimaentwicklung berechnen sich Korrelationskoeffizienten von +0,90. Der integrale solare Anteil erklärt somit rund 80%  der langzeitlichen Klima-/Temperaturänderungen. Die statistische Irrtumswahrscheinlichkeit liegt nur bei 0,01 Prozent.

Daraus folgt: Die in den bisherigen Klimamodellen dem solaren Effekt zugewiesene Statistenrolle widerspricht der Klimarealität. Dem solaren Einfluss kommt die dominierende Rolle beim langfristigen Klimawandel zu. Der anthropogene Treibhaus-/CO2-Einfluss auf die langfristige Klimaentwicklung wird  weit überschätzt. Sein Beitrag vermag nach den obigen Ergebnissen maximal 20% des langfristigen Temperaturverhaltens zu erklären. Abkühlungsphasen, ob kurz- oder langfristig, kann der anthropogene Treibhauseffekt dabei physikalisch überhaupt nicht erklären. Als jüngste Beispiele seien der Temperaturrückgang der letzten 10 Jahre und die Abkühlung in den 1960er/70er Jahren genannt. 

Es ist ein Rätsel, wie die Politik auf der Grundlage einer der Klimavergangenheit widersprechenden und wissenschaftlich nicht konsensfähigen Arbeitshypothese über den anthropogenen CO2-Einfluss „Klimabeschlüsse“ mit  weitreichenden Konsequenzen begründen kann. Alle Szenarienrechnungen, ob bei Banken, in der Wirtschaft oder in der Klimaforschung, sind im Konjunktiv und daher unter Vorbehalt zu verstehen. Sie basieren auf vielfältigen Annahmen und führen in eine  Vertrauenskrise, wenn sie als fundierte Prognosen missinterpretiert werden. Wenn die klimatische Zukunft der klimatischen Herkunft so offensichtlich widerspricht, ist über kurz oder lang mit einem Platzen der anthropogenen „Klimablase“ und mit mehr realistischen Klimamodellen zu rechnen.   

Statt einer auf tönernen Füßen stehenden Klimapolitik wäre es angebracht, alle Anstrengungen auf eine ehrgeizige globale Umweltpolitik zu konzentrieren. Saubere Luft, saubere Flüsse, Seen und Ozeane, ein unbelasteter Erdboden gehören zu den fundamentalen Rechten aller Menschen. So ist z.B. das Abschmelzen hochgelegener Gletscher eine Folge fehlenden Umweltschutzes in der Vergangenheit und nicht des Klimawandels. Eine Erwärmung von 1°C vermag physikalisch bei Gletschertemperaturen weit unter 0°C nichts zu bewirken. Ein mit Russ und Staub verunreinigter Gletscher verliert dagegen sein natürliches Reflexionsvermögen und absorbiert verstärkt Sonnenlicht und damit Wärmestrahlung. Die Folge: Der Gletscher „schwitzt in der Sonne“, er schmilzt. Die im Schatten liegenden Gletscherregionen schmelzen hingegen nicht.

Die Klimazukunft 

„Prognosen sind immer schwierig, vor allem wenn sie die Zukunft betreffen“, soll der berühmte Atomphysiker Nils Bohr einmal gesagt haben. Dies gilt auch für das Verhalten der Sonne. Die rund 200-jährige Schwingung der solaren Aktivität  ist jedoch ein astrophysikalisches Faktum. Neben dem beschriebenen Maunder- und Dalton-Minimum im 17. bzw. 19. Jahrhundert wird der rund 200-jährige De-Vries-Zyklus  auch durch das Spoerer- Minimum im 15. Jahrhundert belegt. Die damit verbundene rund 200-jährige Klimaschwankung ist ebenfalls ein Faktum. Alle drei solaren Aktivitätsminima waren mit Kälteperioden verbunden. Im 15. Jahrhundert war zeitweise die Ostsee vollständig zugefroren. Im 17. Jahrhundert lag der letzte Höhepunkt der Kleinen Eiszeit, der 200 Jahre später die Kälteperiode des 19. Jahrhunderts folgte. Die Phasen hoher Sonnenaktivität korrespondieren dagegen jeweils mit den Erwärmungen im 16., 18. und 20. Jahrhundert. 

Gemäß dieser rund 200-jährigen Schwingung befinden wir uns mit hoher Wahrscheinlichkeit derzeit am Ende einer Wärmeperiode und damit am Beginn einer Abkühlung als Folge eines zu erwartenden  solaren Aktivitätsrückgangs. Zu diesem Ergebnis kommen auch das SSRC (Space Science Research Center) in Orlando/USA und – nach einem Bericht der russischen Zeitung „Novosti“ (Juni 2008) – das russische Hauptobservatorium Pulkov bei Sankt Petersburg. 

Die von den bisherigen Klimamodellen aufgrund des CO2-Effekts für das 21. Jahrhundert vorhergesagte fortschreitende Erwärmung ist aufgrund der klimadiagnostischen Ergebnisse daher höchst unwahrscheinlich.  

P.S.1 Australische Wissenschaftler (R.M.Carter et al.) sind ebenfalls zu Ergebnissen über den hohen El Nino-Einfluss bei der globalen Erwärmung der letzten  Jahrzehnte gekommen (J.Geophys.Res., 2009), wie sie in den Beiträgen zur BWK SO 34/07 und SO 11/09 dargelegt worden sind.  

P.S.2 Es ist soeben erstmals gelungen, mit einem Klimamodell (NCAR/USA) nachzuweisen, dass schon geringe solare Aktivitätsänderungen klimatisch messbare Auswirkungen verursachen: Meehl, G.A.,J..M. Arblaster, K. Matthes, F. Sassi, and H. van Loon (2009), Amplifying the Pacific climate system response to a small 11 year solar cycle forcing, Science, 325, 1114-1118. 

P:S.3 Die Sonne ist weiterhin nahezu frei von Sonnenflecken, und die Eisbedeckung in der Arktis liegt in diesem Sommer über der der beiden Vorjahre. 

P.S.4 Kohlendioxid wird zu Unrecht als „Klimakiller“ und „Umweltverschmutzer“ verteufelt. Außer Wasser gibt es für das irdische Leben im allgemeinen und die Welternährung im speziellen kei-nen Stoff , der wichtiger ist als das Spurengas CO2 (0,038 Vol.%). Aus H2O und CO2 bauen Pflan-zen (Photosynthese) unter Produktion des lebenswichtigen Sauerstoffs O2 ihre  Zellsubstanz auf, d.h. die gesamte Nahrungsgrundlage für Mensch und Tier.., J.M. Arblaster, K. Matthes, F.   

Literatur

– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global observed tem-perature changes: a new dataset from 1850. J. Geophysical Research   

111, D12106, doi:10.1029/2005JD006548 — pdf 

– BMBF   „Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf

– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin Climate      

  Middle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003

– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissen- 

  schaftsmgazin der Max-Planck-Gesellschaft (2001)

– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976

– EIKE: www.eike-klima-energie.eu

– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800. 

  Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904

– Hoyt, D. V. und Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford Univer-

  sity Press. 1997

– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its varia-     

   tions over the last 150 years. Reviews of Geophysics 37, 173-199. 

– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower 

  Stratosphere. 1997

– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005

– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.: 

  Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983)  

– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Subtropen und Sub-polarregion im atlantischen Bereich im Zeit

              raum 1960-90. Z.f.Meteor. N.F. (1993)

– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte: .

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02  

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02 

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 10/03 

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) – 

In Memoriam Prof. Richard Scherhag. 

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07 

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07 

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08 

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO  03/09

– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007

– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007

– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the troposphere: Northern winter.  J. Geophys. Res., 111.2005

– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität 

– Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003  

– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-Cottbus.2007   

– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997 

– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)

– Scherhag, R. Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970

– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000) 

– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)

– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in   Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)

– Wehry, W.    Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09

Daten: Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden. 

Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.

Die Temperaturreihe von Berlin entspricht der von J.Pelz auf Berlin-Dahlem redzierten Werten ab 1701.

Die globalen Temperaturreihen basieren auf den Werten des Climatic Research Unit, UK. (www.cru.uea.ac.uk/cru/data)

Die Sonnenfleckenzahlen entstammen den Veröffentlichung von NOAA

(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot¬_Numbers/Monthly/)

Die Sonnefleckenzahlen vor 1749 wurden aus verschiedenen Quellen ermittelt.

Horst Malberg, Univ.-Prof. (a.D.) für Meteorologie und Klimatologie; EIKE Beiratsmitglied

 Datei hier: Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache: Zukunft braucht Herkunft

Herausgegeben vom Verein BERLINER WETTERKARTE e.V. zur Förderung der meteorologischen Wissenschaft 60/09         http://www.Berliner-Wetterkarte.de  ISSN 0177-3984 

Related Files




„Autoritäten nicht blind vertrauen“ – Interview mit Vince Ebert

FreieWelt.net:  Sie nehmen im Rahmen Ihres Comedyprogramms die häufige Verzerrung wissenschaftlicher Erkenntnisse in der medialen Berichterstattung aufs Korn.  Wie kommt es zu diesen Verzerrungen?

Vince Ebert: Als vor einigen Wochen ein Trafobrand im Kernkraftwerk Krümmel zur Schnellabschaltung führte, habe ich in keinem einzigen „seriösen“ Medium erfahren, dass auf der achtstufigen internationalen Sicherheitsskala der Vorfall in die Kategorie „Null“ eingestuft wurde. Die öffentliche Diskussion über Reizthemen wie Atomkraft oder Gentechnologie wird von Menschen dominiert, die oft noch nicht mal wissen, was ein Gen ist, oder die Becquerel für einen französischen Landwein halten.

Obwohl man zum Beispiel die Photovoltaik mit jährlich einer Milliarde Euro subventioniert, macht sie nur 0,3 Prozent des Energiemixes aus. Rein von der Ökobilanz wäre es also effektiver, Langzeitarbeitslosen 100.000 Euro pro Jahr zu zahlen, damit sie ein, zwei Stündchen am Tag auf Ergometern für den deutschen Energiehaushalt strampeln Deswegen heißt Solarenergie ja auch so. Weil sie so lala funktioniert.

Aber statt sich ernsthaft mit zukunftsfähigen Technologien auseinanderzusetzen, träumen wir von Ackerbau und Viehzucht vor 100 Jahren, stellen Windmühlen auf und schicken unsere Kinder in Schulen in denen sie lernen, ihren eigenen Namen zu tanzen. Und dieses weltfremde Rumgeeiere nennen wir dann „Fortschritt“. 

FreieWelt.net:  Wie groß ist die Gefahr, dass die Wissenschaft von der Politik missbraucht wird?

Vince Ebert: Das Geschäft mit der angeblichen Klimakatastrophe ist ein sehr gutes Beispiel. Viele Politiker retten lieber das Klima in 50 Jahren, als sich heute mit so lästigen Themen wie Rentenpolitik oder der Gesundheitsreform zu beschäftigen. Der Staat pumpt seit Jahren Unsummen von Fördergeldern in Klimaforschungsinstitute – im Wesentlichen, um den Satz zu hören: Es wird alles immer schlimmer – wir müssen endlich etwas tun!

Vielen ist nicht bewusst, dass es in der Klimaforschung im Grunde gar nicht um Wissenschaft geht. Die computergestützten Klimamodelle, auf die sich alle Prognosen stützen, basieren nämlich alle auf sogenannten „nichtlinearen Systemen“. Ich habe in meinem Studium und später als Unternehmensberater diese nichtlinearen Systeme kennen gelernt und weiß, dass man mit ihnen jedes beliebige Ergebnis „errechnen“ kann, wenn man nur geschickt den ein oder anderen Anfangsparameter minimal variiert. Salopp gesagt sind Prognosen von Klimamodellen also nichts anderes als die in Formeln gegossene Meinung ihrer Schöpfer.

Das steht übrigens auch so im Weltklimabericht. In Kapitel 13 (ganz weit hinten also) findet sich der Satz: „Klimamodelle arbeiten mit gekoppelten nichtlinearen chaotischen Systemen. Dadurch ist eine langfristige Voraussage des Systems Klima nicht möglich.“ Egal ob Sie also eine Versicherung abschließen oder die Welt retten wollen – lesen Sie vorher auf jeden Fall das Kleingedruckte!…….

Nachdruck mit freundlicher Genehmigung des Autors.

Das ganze Interview finden Sie hier