Von den etwa zwanzig Klima-Einflussfaktoren sind die meisten natürliche astrophsikalisch bedingten Klimazyklen, z.B.
der 145-150 Mio.Jahres-Zyklus (Solarsystem)
der 32 Mio.-Jahre Zyklus (Sonne)
der 413 000-Jahreszyklus (Exzentrizität Erdbahn)
der 100 000-Jahreszyklus (tatsächlich abwechselnd mit 82 000 oder 125 000 Jahre)
der 41 000-Jahre-Zyklus der Erdachsen-Schwankung (Milankovic)
der 19-26 000 Zyklus der Nutation der Erdachse
der Hallstadt- oder Bray-Zyklus mit 2200-2500 Jahren
der Eddy-Zyklus von 1000 Jahren (950-1100 Jahre) mit +/- 1°C
der Suess/deFries Zyklus von 210-240 Jahren, mit +/- o,3°C
der Gleissberg-Zyklus von 80-90 Jahren, (+/- 0,3°), Solar-Intensität
der „Ozean-Zyklus (PDO, AMO) mit +/- 0,2° . und
der Sonnenflecken-Zyklus von 11 Jahren, bzw. 8 bis 14 Jahre.
Diese natürlichen Zyklen werden von den meisten Klimaforschern und speziell vom IPCC ignoriert.
(ein ehemaliger Mitarbeiter des amerikanischen NOAA-Behörde sagte, dass es dort „unerwünscht“ sei, sich mit dem Klima der Vergangenheit zu beschäftigen“).
Tatsächlich hat die United Nations Framework Convention on Climate Change (UN-FCCC) 1992 festgestellt, dass „climate change“ aus zwei verschiedenen Faktoren besteht:
(1) change of climate which is attributed directly or indirectly to human activity that alters the composition of the global atmosphere, which is addition to
(2) natural climate variability observed over comparable time periods.
Dieser zweite Teil wurde von Klimaforschern jedoch weitgehend ignoriert, da er nicht – im Gegensatz zu (1) auf staatlich (finanziell) gefördertes Interesse stiess. Dabei läßt sich der reale anthropogene Einfluss erst ermitteln, wenn der natürliche Klimawandel identifiziert ist.
Vermutlich wäre jedoch kein Unterschied zu finden, wie die Klimadaten der letzten 8000 Jahre zeigen (kein Temperaturanstieg, aber einen Abfall um 0,7°C trotz Anstieg des CO2-Gehalts von 260 auf 410 ppm (!).
Alleine diese Tatsache stellt die Hypothese von dem angeblichen “Klimagas CO2” komplett infrage. Aber das IPCC wurde speziell für die Verteufelung von CO2 gegründet – von ideologischen Kämpfern gegen den Kapitalismus und die Industrie-Gesellschaft. Dies zeigt die Feststellung von Maurice Strong,
IPCC_Funktionär und „Vater des Kyoto-Protokolls“ :
„Besteht nicht die einzige Hoffnung für diesen Planeten in dem Zusammenbruch der Industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?”
Doch nun zuück zur Fragestellung des Titels:
Der für uns in dieser Zeit maßgebliche Faktor ist der 1000-Jahre-Klimazyklus, dessen aktuelles zyklisches Maximum wir derzeit erreicht, bzw.überschritten haben.Der von den Medien als “Klimakatastrophe” gefeierte Temperaturanstieg von 1°C in den letzten Hundert Jahren war nichts anderes als ein Teil des letzten Zyklus und hatte mit dem CO2-Anstieg nichts zu tun.
Das ist dadurch bewiesen, dass bei den Zyklen-Maxima vor 1000 und 2000 Jahren etwas höhere Temperaturen aufgetreten waren als heute, obwohl die CO-Anteile der Atmosphäre mit 177 ppm deutlich niedriger lagen als derzeit. Die CO2-baserten Klimamodelle sind deshalb auch nicht in der Lage, die damalige Situation zu rekonstruieren. Aber Modelle sind heute wichtiger als Fakten.
Die verschiedenen Klimazyklen überlagern ihren Einfluss, d.h.addieren oder reduzieren die aktuellen Temperaturwert, was die Analyse der Zyklen erschwert.
Während der 1000-Jahreszyklus vor dem Abfall um ca.2°C in eine neue Kaltzeit steht wie beim letzten Minimum im Zeitraum1500-1700 (auch als “Little Ice Age” bezeichnet), ist beim 230-Jahre-Zyklus ebenfalls ein Temperatur-Abfall bis zum Minimum um 2075 zu erwarten.
Der Abfall wird jodoch voraussichtlich durch den Anstieg des “Ozean-Zyklus” bis zum Jahr 2060 um bis zu 0,6°C teilweise ausgeglichen. Als zusätzliche Unsicherheit kommen natürlich Vulkanausbrüche, Schwankung der mittleren Wolkenbedeckung und die ENSO-Ereignisse hinzu.
Klimazyklen, EIKE und der AUSTRALIAN
|
Zwischen 1950 und heute hat sich die Erde um ca. 0,7 °C erwärmt (hier). In der gleichen Zeitspanne, also erst ab 1950, erfolgten 80% aller anthropogenen CO2-Emissionen, die erstmals nennenswert mit der Industrialisierung um das Jahr 1850 einsetzten (hier sowie hier).
Dem Klimaalarm zuneigende Klimaforscher, unterstützt von Medien und Politik, sehen in dem Phänomen einer gleichzeitigen Temperatur- und CO2-Zunahme ab etwa 1950 einen ursächlichen physikalischen Zusammenhang, ohne ihn aber hinreichend begründen zu können. Dies ist zweifellos fragwürdig, denn mit dieser Vorgehensweise ließe sich auch aus der gleichzeitigen Zunahme von Störchen und Geburten in einem Dorf herleiten, dass dort die Kinder vom Storch gebracht werden.
Eine andere Gruppe von Klimaforschern betont dagegen, dass die jüngste globale Erwärmung natürlichen Ursprungs sei und verweist dazu auf die zahlreichen und wohlbekannten Erwärmungsphasen der Vergangenheit. Es handelt sich in den letzten 10.000 Jahren um die starken Warmzeiten um 6500 und 4500 Jahren vor heute (Holozän-Maxima) sowie die römische und die mittelalterliche Warmperiode. Alle diese Ereignisse waren global, selbst für das in dieser Hinsicht etwas umstrittene Mittelalter gibt es dafür ausreichende Belege (hier).
Es wird von dieser, nicht dem Mainstream angehörigen, Forschergruppe weiter argumentiert, dass ähnliche und sogar weit stärkere globale Erwärmungsereignisse wie die der letzten Jahrzehnte in der jüngeren Klimavergangenheit fast beliebig oft vorkamen Und schließlich weisen diese „klimaskeptischen“ Wissenschaftler insbesondere auf Klimazyklen von Temperaturen und Niederschlägen hin, wie sie in Analysen von sogenannten Proxydaten aufzufinden sind. Mit „Proxies“ werden in der Klimaforschung Baumringe, Stalagmiten und organische sowie anorganische Sedimente bezeichnet. In diesen werden mittels aufwendiger Analyseverfahren die Isotopenverhältnisse von Wasserstoff, Sauerstoff, Kohlenstoff und weiteren Elementen bestimmt und daraus beispielsweise die Temperaturen in Zeiten abgeleitet, als es noch keine Thermometer gab. Entsprechende Verfahren können im Extremfall Klimaparameter bis zu vielen Millionen Jahren zurückverfolgen.
Die Entscheidung, welche Auffassung über die Ursache der jüngsten globalen Erwärmung der Wahrheit am nächsten kommt, dürfte bei rationaler Argumentation sowie unter Beachtung der Klimafachliteratur eigentlich nicht schwer fallen. Zunächst einmal bestätigt selbst das IPCC, recht kleinlaut allerdings, dass der Zahlenwert der globalen Erwärmung infolge anthropogener CO2-Zunahme unbekannt sei. Diese zentrale Größe wird in der Fachliteratur als „climate sensitivity“ bezeichnet und noch unterschieden in equilibrium climate sensitivity ECS bzw. transient climate response TCR (auf den Unterschied soll hier nicht eingegangen werden). Die einschlägige Unkenntnis-IPCC-Aussage findet sich im IPCC Report für Politiker vom Jahre 2013 (hier) auf Seite 16, Zitat 16.
Die Eigenschaft von Klimamodellen nun, selbst bei versuchsweisen „Nachvorhersagen“ ohne künstliche Hilfen nur falsche Ergebnisse zu liefern, ist ebenfalls bekannt und wird allenfalls nur noch von hartgesottenen Modellieren bestritten. Klimamodelle sind für Detailfragen der Forschung zweifellos wertvolle Hilfsmittel, zu Globalaussagen oder gar zu Vorhersagen der globalen Klimazukunft darf man sie aber nicht missbrauchen.
Damit bleibt den Vertretern einer anthropogenen Erwärmungshypothese nur noch das reichlich dünne „Baby-Storch-Argument“.
Dass nunmehr über Klimazyklen sogar eine weltweit renommierte, überregionale Tageszeitung Australiens berichtet, ist neu. In der gleichgeschalteten deutschen Zeitungslandschaft, deren Konformität inzwischen der einer gut durchgekochten DDR-Mediendiktatur entspricht, ist ein solcher Bericht undenkbar. Unangepasster Journalismus ist inzwischen nur noch in Internetblogs wie Tichys Einblick oder der Achse des Guten und den wenigen Printausnahmen wie der Jungen Freiheit oder der Preussischen Allgemeinen zu finden.
Der AUSTRALIAN hat dagegen neutral berichtet. Der Artikel erschien bereits am 23.Sept.2017, wir erfuhren von ihm aber erst jetzt. Ein vollständiger Übersichtsartikel zum Thema „Klimazyklen“ ist der Artikel nicht, eher eine Würdigung des aktuellen Forschungsstands mit spezieller Betonung australischer Forscher. Insbesondere fehlt die Erwähnung so wichtiger Autoren wie Gerard Bond (hier), Nicola Scafetta (hier) oder Henrik Svensmark (hier). Dennoch ist der australische Artikel ein erster Lichtblick.
Er erfreut uns in EIKE insbesondere auch deswegen, weil er die jüngste begutachtete Zyklen-Publikation der zwei EIKE-Autoren, Horst-Joachim Lüdecke und Carl Otto Weiss TOASCJ-11-44, als Zeugen anführt – der AUSTRALIAN-Aufsatz im Original The Australian Sept 2017, in einer freien und teilweise zur besseren Verständlichekit ergänzten Übersetzung The Australian Sept 2017 Übersetzung.
Das Fazit aller bisherigen Fachpublikationen über Klimazyklen, welche die jüngste Vergangenheit erfassen, ist schnell umrissen: Nur vier (oder sogar nur drei) Zyklen sind völlig ausreichend, um nicht nur den Verlauf der globalen Mitteltemperatur über die letzten 2000 Jahre, sondern insbesondere auch die jüngste Erwärmung in erstaunlich guter Übereinstimmung wiederzugeben. Fast alle Publikationen nennen dabei die Zyklen von 1000, 500, 200 und 60 Jahren Länge. Und nun das Wichtigste: Ein Beitrag des seit 1950 zugenommenen CO2 wird in der Zyklenerklärung nicht benötigt.
Wenn Medien, Politik und Öffentlichkeit über das Prinzip des Philosophen William Ockham (hier) Bescheid wüssten, es verstünden und dieses Grundparadigma der modernen Naturwissenschaft auch ernst nähmen, wäre der Spuk einer angeblich anthropogenen Erwärmung vorbei. Das Ockham-Prinzip besagt, dass für die Erklärung eines beobachteten Phänomens stets die einfachste zu nehmen ist. Nur wenn es keine befriedigende Erklärung gibt, darf gemäß Ockham eine neue Hypothese ins Spiel gebracht werden. Ein populäres Beispiel zum Ockham-Prinzip: Ein über Nacht umgestürzter Baum wird mit dem starken Wind in dieser Nacht, mit Schädlingsfraß im Baumstamm oder sonstigem Bekannten erklärt. Keine seriöse Wissenschaft würde die theoretisch auch denkbare Erklärung ernst nehmen „Außerirdische sind gelandet und haben den Baum umgerissen“. Das unterscheidet die moderne Wissenschaft vom Mittellalter.
Fassen wir zusammen: Die Klimamalarm-Fraktion einer globalen anthropogenen Erwärmung stützt sich ausschließlich auf Klimamodellaussagen sowie auf die Gleichzeitigkeit von CO2- und Temperatur-Anstieg. Von beiden darf füglich bezweifelt werden, dass sie etwas mit realer Physik zu tun haben. Man kann die Wirkung des zusätzlichen anthropogenen CO2 in der Atmosphäre nicht direkt messen. Umgekehrt stützt sich aber die Fraktion derjenigen Klimaforscher, welche eine natürliche Klimavariation für die jüngste globale Erwärmung annehmen, auf Messungen.
Ein Wermutstropfen verbleibt aber auch bei den Klimazyklen: Obwohl sie messbar sind und ihre Existenz zeifelsfrei ist, bleibt ihre physikalische Ursache immer noch weitgehend unbekannt. Einzige Ausnahme ist der 200-Jahre-Zyklus, benannt nach den Forschern de Vries und Suess. Für diesen Zyklus konnte insbesondere in der Veröffentlichung von H.-J. Lüdecke und C. O. Weiss ein neuer Beleg für seinen kosmischen Ursprung (Sonne) erbracht werden.
Wegen elementarer Unkenntnis in elementarer Naturwissenschaft, Technik und schließlich des Ockham-Prinzips sowie einem noch hinzukommenden irrationalen, grün-ideologischen Einschlag der deutschen Medien sowie Politik werden wir wohl noch weiterhin unter dem Unsinn der „Klimarettung“ und, in weiterer Folge, einer hirnrissigen Energiewende leiden und zahlen müssen. Es bleibt nur die Hoffnung, dass es endlich eine neue deutsche Generation von klar denkenden Bürgern fertigbringt, in internationaler Zusammenarbeit und Verflechtung, den aktuellen deutschen Klima-Alptraum und Energiewende-Unfug zu beenden.
**„Strohmann-Trugschluss“: Eine gute Erklärung dazu gibt es hier.
Dies ist gleichbedeutend mit der Argumentation, dass man Konvektion widerlegen muss, um die Plattentektonik zu falsifizieren, oder die Genetik, um die Evolution zu falsifizieren. Plattentektonik und Evolution sind äußerst haltbare wissenschaftliche Theorien, welche auf einer Kombination empirischer und korrelativer Beweise beruhen. Keine der beiden Theorien kann direkt getestet werden mittels eines kontrollierten Experimentes. Allerdings sind beide Theorien mit Jahrzehnte langen Beobachtungen überprüft worden. Nachfolgende Beobachtungen haben diese Theorien voll und ganz bestätigt.
Anmerkung: Ich werde mich hier nicht in Debatten ergehen über die Validität der wissenschaftlichen Theorien der Plattentektonik oder der Evolution!
Die Macht derartiger wissenschaftlicher Theorien wird demonstriert durch ihre Vorhersagbarkeit: Theorien sind Vorhersagen zukünftiger Beobachtungen. Darum ist eine robuste wissenschaftliche Theorie sogar noch stärker als Fakten (lies Messungen/Beobachtungen).
CAGW ist ein ähnlicher Typ theoretischer Hypothese. Sie hängt ab von empirischen („guten“) und korrelativen („schlechten“) Beweisen.
Die Guten
Kohlendioxid ist ein so genanntes „Treibhausgas“. Es verlangsamt Strahlungsabkühlung. Hält man alle anderen Faktoren konstant, wird eine steigende atmosphärische CO2-Konzentration zu irgendwie höheren Temperaturen führen. Allerdings sind alle anderen Dinge in der Erd- und Atmosphären-Wissenschaft niemals konstant… Die Atmosphäre ist nicht Luft in einem Gefäß; Verweise auf Arrhenius haben keine Bedeutung.
Während anthropogene Quellen nur einen winzigen Bruchteil der Gesamtquellen ausmachen, holen wir Kohlenstoff aus der geologischen Abscheidung wieder hervor und führen ihn zurück in den aktiven Kohlenstoff-Zyklus.
[Anmerkung des Übersetzers: Hier habe ich selbst mir Gedanken gemacht, warum der Mensch die Verpflichtung hat, den Kohlenstoff in den aktuellen Kohlenstoff-Kreislauf zurückzuführen!]
Die mittlere Temperatur an der Oberfläche der Erde und in der Troposphäre ist während der letzten 150 Jahre allgemein gestiegen.
Atmosphärisches CO2 ist gestiegen, und eine Erwärmung fand statt.
Die Schlechten
Die moderne Erwärmung begann lange vor dem jüngsten Anstieg der atmosphärischen CO2-Konzentration, und vor dem 19. Jahrhundert waren Temperatur und CO2 entkoppelt:
Der jüngste Temperaturanstieg ist nicht anomaler als die Mittelalterliche Warmzeit oder die Kleine Eiszeit:
Während der letzten 2000 Jahre war die Temperatur der Nordhemisphäre drei mal über die natürliche Variabilität hinausgegangen (definiert als zwei Standard-Abweichungen des Mittels vor 1865): 1) der Höhepunkt der Mittelalterlichen Warmzeit, 2) der Tiefpunkt der Kleinen Eiszeit und 3) seit 1998. Menschliche Aktivitäten waren eindeutig nicht der Grund für die ersten beiden Abweichungen. 70% der Erwärmung seit Anfang des 17. Jahrhunderts liegen eindeutig innerhalb der natürlichen Variabilität.
Zwar kann es sein, dass es während der gegenwärtigen Warmphase etwa 0,2°C wärmer ist als zum Höhepunkt der Mittelalterlichen Warmzeit, doch könnte dies auch der unterschiedlichen Auflösung der Proxy-Rekonstruktion und der instrumentellen Daten geschuldet sein:
Die Amplitude der rekonstruierten Temperatur-Variabilität im Zeitmaßstab von Jahrhunderten ist größer als 0,6°C. Diese Rekonstruktion ist die erste, welche eine ausgeprägte Römische Warmzeit der Jahre 1 bis 300 zeigt und die das Temperaturniveau des Zeitraumes 1961 bis 1990 erreicht hatte. Dieser Warmzeit folgte die Kaltzeit des Dark Age der Jahre 300 bis 800. Die Mittelalterliche Warmzeit erkennt man von 800 bis 1300 und die Kleine Eiszeit tritt klar hervor von 1300 bis 1900, gefolgt von einer rapiden Erwärmung im 20. Jahrhundert. Die höchsten Mitteltemperaturen in der Rekonstruktion trifft man von Anfang bis Mitte des 10. Jahrhunderts an, die niedrigsten Mitteltemperaturen Ende des 17. Jahrhunderts. Dekadische Mitteltemperaturen scheinen das mittlere Temperaturniveau der Jahre 1961 bis 1990 erreicht oder überschritten zu haben während längerer Zeiträume der Römischen und der Mittelalterlichen Warmzeit. Die Temperatur der letzten beiden Jahrzehnte jedoch ist möglicherweise höher als zu irgendeiner Zeit der letzten beiden Jahrtausende, obwohl dies nur aus den instrumentellen Temperaturdaten hervorgeht und nicht aus der Multi-Proxy-Rekonstruktion selbst.
(…)
Die Proxy-Rekonstruktion selbst zeigt eine solche beispiellose Erwärmung nicht, aber dabei muss man berücksichtigen, dass nur wenige bei der Rekonstruktion verwendete Aufzeichnungen bis in die neunziger Jahre des vorigen Jahrhunderts reichen. Nichtsdestotrotz muss man das Wärmeniveau seit dem Jahr 1990 im Vergleich zu den Höhepunkten der Römischen bzw. der Mittelalterlichen Warmzeit auf jeden Fall sehr vorsichtig interpretieren.
(…)
Die hier rekonstruierte Amplitude der Temperatur-Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten sollte man als das mutmaßliche Minimum der wahren Variabilität jener Zeitmaßstäbe betrachten.
Das Klima im Holozän war gekennzeichnet durch einen grob Jahrtausende langen Zyklus von Erwärmung und Abkühlung (all jenen, die das Wort „Zyklus“ nicht mögen, lesen bitte statt dessen „quasi-periodische Fluktuation“):
Diese Zyklen haben sogar Nahmen:
Schon lange wurden diese Zyklen von Quaternary-Geologen erkannt (Abbildung 13):
Das Klima der industriellen Ära hat sich in keiner Weise verändert, die nicht zum gut belegten Jahrtausend-Zyklus passt. Unter der Annahme, dass die Erkenntnisse bzgl. CO2 in dem Eisbohrkern zuverlässig sind, hatte der gegenwärtige CO2-Anstieg kaum einen Einfluss auf das Klima, falls überhaupt irgendeinen.
Die Null-Hypothese
Was ist eine ,Null-Hypothese‘?
Eine Null-Hypothese ist ein in der Statistik angewendeter Typ von Hypothese, der davon ausgeht, dass bei einem Satz gegebener Beobachtungen keine statistische Signifikanz vorhanden ist. Die Null-Hypothese versucht zu zeigen, dass es zwischen Variablen keine Variation gibt oder dass eine Einzel-Variable sich nicht von seinem Mittelwert unterscheidet. Sie setzt voraus zu stimmen, bis statistische Beweise auftauchen, die sie ungültig machen zugunsten einer alternativen Hypothese.
Da es unmöglich ist, mit dem Klima der Erde ein kontrolliertes Experiment durchzuführen (gibt es doch keinen Kontroll-Planeten), ist die einzige Möglichkeit des „Tests“ der CAGW-Hypothese mittels Modellen. Falls die CAGW-Hypothese stimmt, sollten die Modelle Vorhersage-Fähigkeiten zeigen. Daran sind die Modelle grandios gescheitert:
Abbildung 16: „Klima-Modelle versus Klima-Realität“: Michaels & Knappenberger. Quelle.
Die Modelle haben versagt, weil sie von einer Klimasensitivität ausgehen, die zwei bis drei mal höher ist als aus Beobachtungen hervorgeht:
Abbildung 17: Gleichgewichts-Klimasensitivität: Realität vs. Modelle. Quelle
Von Hansen 1988 über jeden IPCC-Zustandsbericht folgten die gemessenen Temperaturen konsistent den starken Abschwächungs-Szenarien, welchen zufolge der atmosphärische CO2-Anstieg verlangsamt und/oder angehalten wurde.
Abseits der starken El Niño-Ereignisse der Jahre 1998 sowie 2015-16 folgte GISTEMP dem Szenario C, nach welchem das CO2-Niveau ab dem Jahr 2000 nicht mehr gestiegen ist und bei 368 ppm verharrt.
Das völlige Scheitern dieses Modells tritt am klarsten hervor aus dem klimarelevanteren gleitenden 5-Jahre-Mittel:
HadCRUt4 lag unter Szenario D.
Im Dritten Zustandsbericht (TAR) finden wir:
HadCRUT4 folgte den starken Abschwächungs-Szenarien trotz eines allgemeinen Fehlens von Abschwächung.
Die Klimamodelle haben niemals irgendeine Vorhersage-Fähigkeit an den Tag gelegt.
Und die Modelle werden nicht besser. Selbst wenn man den Modelllauf im Jahre 2006 beginnen lässt, liegen die gemessenen Temperaturen permanent beim oder unter dem unteren Ende der Bandbreite 5% bis 95%. Die gemessenen Temperaturen kamen dem Modell-Mittel (P50) nur während der Jahre 2006, 2015 und 2016 nahe.
Das Ensemble besteht aus 135 Modellläufen, welche eine Reihe von repräsentativen Konzentrations-Verläufen anwenden (RCP). Sie reichen vom Worst-Case-Scenario RCP5, oftmals als „Business as Usual“ bezeichnet, bis zu variierenden Graden von Abschwächungs-Szenarien (RCP 2.6, 4.5 und 6.0).
Wenn wir Löcher bohren, berechnen wir Wahrscheinlichkeiten, um die Öl- und Gasreserven zu schätzen, falls sich die Bohrung als erfolgreich erweist. Der Input für die Modelle besteht aus einer Bandbreite von Schätzungen der Dicke des Reservoirs sowie aus Gebiets- und petrophysikalischen Charakteristiken. Der Modelloutput enthält eine Wahrscheinlichkeits-Verteilung von P10 bis P90.
● P10 = Maximum-Fall. Es gibt eine Wahrscheinlichkeit von 10%, dass das Loch mindestens so viel Öl und/oder Gas ergibt.
● P50 = Mittlerer Fall. Es gibt eine Wahrscheinlichkeit von 50%, dass wir mindestens so viel Öl und/oder Gas erzeugen. Mögliche Reserven sind >P50.
● P90 = Minimum-Fall. Es gibt eine Wahrscheinlichkeit von 90%, dass das Loch mindestens diese Menge Öl und/oder Gas erbringen wird. Nachgewiesene Reserven sind P90.
Mit der Zeit sollte ein Bohrprogramm nahe P50 liegen. Falls die Bohr-Ergebnisse nahe P10 oder P90 liegen, hat das Modell ernsthaft versagt.
Falls das CMIP5-Modellensemble Vorhersagefähigkeiten besäße, sollten die Beobachtungen um P50 liegen, d. h. die Hälfte aller Modelle sollte mehr und die andere Hälfte weniger Erwärmung prophezeien als tatsächlich beobachtet. Während des Vorhersage-Laufes des Modells lag HadCRUT4.5 nicht einmal ansatzweise irgendwo nahe P50…
Ich habe die instrumentellen Messungen „beleuchtet“, um eine Wahrscheinlichkeits-Verteilung der Vorhersagefähigkeit des Modelllaufes zu schätzen.
Man beachte, dass die Messungen während des El Niño von 1998-99 einen Spitzenwert über P05 erreichten (weniger als 5% der Modelle hatten dies prophezeit). Während des El Niño 2015-16 erreichte HadCRUT4 nur einen Spitzenwert bei P55. El Niño-Ereignisse sind keine P50-Bedingungen. Starke El Niño- und La Niña-Ereignisse sollten Spitzenwerte bei den P05 und P95-Grenzen erreichen.
Die Temperaturmessungen folgen eindeutig viel eher den starken Abschwächungs-Szenarien als dem RCP 8.5, dem simulierten „Business as Usual“-Szenario.
Das rot schraffierte Trapez zeigt, dass HadCRUT4.5 weiterhin zwischen weniger als P100 und P50 verlaufen wird. Dies ist ein Hinweis auf ein erhebliches Scheitern der Modelle und ein ziemlich aufschlussreicher Hinweis darauf, dass die Modelle nach unten adjustiert werden müssen.
In jedem anderen Bereich der Wissenschaft wäre CAGW eine schon lange ausgesonderte, falsifizierte Hypothese.
Schlussfolgerungen
Behauptungen, denen zufolge AGW oder CAGW eine Ausnahme vom Prinzip der Null-Hypothese darstellen, sind offenkundig lächerlich:
In der Wissenschaft eine breite natürliche Erklärung einer großen Bandbreite von Phänomenen. Theorien sind prägnant, kohärent, systematisch, vorausschauend und breit anwendbar. Oftmals integrieren und generalisieren sie viele Hypothesen. Theorien, welche von der wissenschaftlichen Gemeinschaft akzeptiert sind, werden generell durch viele unterschiedliche Beweislinien gestützt – aber selbst Theorien können modifiziert oder widerlegt werden durch neue Beweise und Perspektiven. – UC Berkeley
Dies ist keine wissenschaftliche Hypothese: mehr CO2 verursacht Erwärmung. Es ist Schaumschlägerei.
Das hier ist eine wissenschaftliche Hypothese:
Eine Verdoppelung des atmosphärischen CO2-Gehaltes wird die untere Troposphäre sich um ___°C erwärmen lassen.
Über 30 Jahre lang gescheiterte Klimamodelle waren niemals in der Lage, die Lücke zu füllen. Im 5. IPCC-Zustandsbericht wurde essentiell festgestellt, dass das Füllen der Lücke nicht mehr erforderlich war.
Während es recht wahrscheinlich ist, dass menschliche Aktivitäten zumindest teilweise während der letzten 150 Jahre ursächlich für einen Anteil der Erwärmung waren, gibt es dafür keine robuste statistische Korrelation. Das Scheitern der Klimamodelle zeigt eindeutig, dass die Null-Hypothese immer noch auch für atmosphärisches CO2 und Temperatur gilt.
Selected References
Davis, J. C., and G. C. Bohling, The search for patterns in ice-core temperature curves, 2001, in L. C. Gerhard, W. E. Harrison, and B. M. Hanson, eds., Geological perspectives of global climate change, p. 213–229.
Finsinger, W. and F. Wagner-Cremer. Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach. The Holocene 19,5 (2009) pp. 757–764
Grosjean, M., Suter, P. J., Trachsel, M. and Wanner, H. 2007. Ice-borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations. J. Quaternary Sci.,Vol. 22 pp. 203–207. ISSN 0267-8179.
Hansen, J., I. Fung, A. Lacis, D. Rind, Lebedeff, R. Ruedy, G. Russell, and P. Stone, 1988: Global climate changes as forecast by Goddard Institute for Space Studies three-dimensional model. J. Geophys. Res., 93, 9341-9364, doi:10.1029/88JD00231.
Kouwenberg, LLR, Wagner F, Kurschner WM, Visscher H (2005) Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsuga heterophylla needles. Geology 33:33–36
Ljungqvist, F.C. 2009. N. Hemisphere Extra-Tropics 2,000yr Decadal Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2010-089. NOAA/NCDC Paleoclimatology Program, Boulder CO, USA.
Ljungqvist, F.C. 2010. A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x
MacFarling Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins. 2006. The Law Dome CO2, CH4 and N2O Ice Core Records Extended to 2000 years BP. Geophysical Research Letters, Vol. 33, No. 14, L14810 10.1029/2006GL026152.
Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005. Highly variable Northern Hemisphere temperatures reconstructed from low-and high-resolution proxy data. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.
Instrumental Temperature Data from Hadley Centre / UEA CRU, NASA Goddard Institute for Space Studies and Berkeley Earth Surface Temperature Project via Wood for Trees.