1

Panne beim Weltklimarat: Neuer IPCC-Spezialbericht zum 1,5°C-Ziel blendet natürlichen Klimawandel komplett aus

A1. Human activities are estimated to have caused approximately 1.0°C of global warming above pre-industrial levels, with a likely range of 0.8°C to 1.2°C. Global warming is likely to reach 1.5°C between 2030 and 2052 if it continues to increase at the current rate. (high confidence)

Die Begründung ist wieder einmal “confidence“, d.h. Glauben oder Vertrauen, aber keine Fakten, die normalerweise eine Hypothese bestätigen müssen. Andererseits bleibt die Hypothese ein Hirngespinst. Bisher war der, die oder das IPCC (je nach Übersetzung als Ausschuss, die Arbeitsgruppe  oder das Komitee, aber auf keinen Fall die hochstaplerische Bezeichnung „Klimarat“) nicht in der Lage, einen konkreten Beweis für die alleinige Verantwortung des CO2 für die beobachtete Erwärmung der letzten 150 Jahre zu liefern. Der fundamentale und immer noch nicht korrigierte Fehler der IPCC-Berichte ist die komplette Ignoranz der natürlichen Klima-Entwicklung, die es tatsächlich auch schon vor Existenz der Menschheit, ja seit Bestehen der Erde gibt. Dabei hatte die übergeordnete UN-Organisation UN-FCCC (The United Nations Framework Convention on Climate Change) schon 1992 offiziell festgestellt, dass Klimawandel aus zwei verschiedenen Elementen besteht:

(1) change of climate which is attributed directly or indirectly to human activity that alters the composition of the global atmosphere, which is addition to

(2) natural climate variability observed over comparable time periods.

Der entscheidende 2. Teil, der beschreibt, wie die globale Temperaturentwicklung ohne anthropogene Einflüsse verlaufen wäre, fehlt beim IPCC komplett. Dabei gibt es für die letzten 10.000 Jahre (seit dem Ende der letzten Eiszeit, bzw. für das Holozän als aktuelle Zwischeneiszeit) relativ gute und zahlreiche Klima-Daten. Dabei geht es nicht um die “natural variability“ (wie ENSO-Ereignisse oder Vulkanausbrüche), sondern um die nachgewiesenen regelmäßigen natürlichen Klimazyklen von 1000, 230 und 65 Jahren. Es gibt natürlich gute Gründe für den IPCC, dies besser nicht darzustellen. Fakt ist: Noch immer bewegt sich das Klima innerhalb der bekannten natürlichen Schwankungsbreite. Es ist kein Unterschied zu erkennen zwischen der heutigen Klimaentwicklung der letzten 150 Jahre und den 10.000 Jahren davor.

Vermutlich ist der CO2-Effekt sehr viel geringer als angenommen. Mutige Äußerungen in diese Richtung sind jedoch nur von Wissenschaftlern möglich, die keine berufliche Funktion mehr erfüllen. Ansonsten müssten sie mit harschen und persönlichen Angriffen ihrer Kollegen rechnen, die dem Klima-Dogma ihrer Regierungen und damit den IPCC-Behauptungen folgen müssen. Und auch Journalisten schreiben lieber vom „offiziellen“ IPCC-Bericht ab, als der Empfehlung von Immanuel Kant zu folgen („Habe den Mut, dich deines eigenen Verstandes zu bedienen!“)

Wer willens und imstande ist, sich mit der historischen Klima-Entwicklung unseres Planeten zu befassen, macht eine überraschende Entdeckung: sie ist beherrscht von einer Reihe langfristiger, mittelfristiger und kurzfristiger Klimazyklen. Für die letzten 8000 Jahre sind dies insbesondere die Zyklen mit einer Frequenz von 1000 bis 1070 Jahren (Eddy-Zyklus), 230 Jahren (Suess/deFries-Zyklus) und der sogenannte Ozean-Zyklus mit 60-65 Jahren. Diese Zyklen haben solare und astrophysikalische Ursachen, die kein Mensch beeinflussen kann.

Die Erforschung der Klima-Historie (Klima-Paläontologie) ist bei den Klima-Instituten stark unterentwickelt, aus verschiedenen Gründen. Einer ist sicher, dass der hochgespielte „anthropogene Klimawandel“ attraktiver und finanziell einträglicher ist. Mit alarmistischen Klima-Warnungen ist man in den Medien hochwillkommen. Dagegen ist die Klima-Historie natürlich langweilig. Wen interessiert es schon, dass es vor 1000 Jahren wärmer war als heute, dies aber bei einem CO2-Anteil von nur 230 ppm (heute 400 ppm). Auch nicht gerade ein Argument für einen CO2-Einfluss.

Aber nochmals konkret zur IPCC-Behauptung „der Anstieg von 1°C in den letzten 100 Jahren sei komplett durch anthropogene Treibhausgase (CO2) verursacht“. Man könnte hierzu die Anti-These aufstellen, dass dieser Anstieg komplett auf den natürlichen Klimazyklen beruhe, die schon seit 8000 Jahren zu beobachten sind:

–Der Ozean-Zyklus war die nachgewiesene Ursache des globalen Temperaturrückganges um 0,4°C zwischen 1940 und 1975. Anschließend ist die Temperatur zwischen 1975 und 2007/2010 wieder um 0,3 bis 0,4° gestiegen und hat jetzt wieder seinen neuen Abwärtstrend begonnen. Erste Anzeichen sind zu erkennen (2018 keine NW-Passage mehr möglich, zuviel Eis; neuer Minustemperatur-Rekord in der Antarktis mit -89,6°C).

–Der 230-Jahreszyklus hatte sein Minimum zwischen 1880 und 1900  und erreichte sein neues Maximum zwischen  2000 und 2015 mit einem Temperatur-Anstieg von ca.0,4°C.

–Der 1000-Jahre-Zyklus hatte sein letztes Minimum zwischen den Jahren 1500-1700, auch „Little Ice Age“ genannt und erreichte sein aktuelles Maximum zwischen den Jahren 2000 und 2020. Rechnet man den Anteil des Anstieges in den letzten 100 Jahren, ergeben sich ca. 0,3°C. In den nächsten 400 Jahren wird wieder ein Abfall um ca.2°C erfolgen.

Zusammengenommen, könnte der Temperaturanstieg von ca. 1° in den letzten 100 Jahren durch den gleichzeitigen Anstieg der drei natürlichen Zyklen mit einem kombinierten Effekt von 1 bis 1,1°C weitgehend erklärt werden. Der Einfluss des CO2-Antieges geht ensprechend zurück. Es ist sehr seltsam und nicht verständlich, wie es möglich ist, dass der IPCC diese simplen Fakten schlicht ignoriert, um seine ideologische Hypothese mit allen Mitteln und Tricks zu verteidigen.

Der Beitrag erschien zuerst bei Die kalte Sonne hier




Wer nichts weiß, muss alles glauben

Der Klimawandel-Alarmismus nimmt schon wieder schrille Töne an. Der Ausschuss für Klimaänderungen*) trompetet wieder Warnungen in die Welt. Einen Sonderbericht hat er veröffentlicht. Die Lückenmedien können sich gar nicht lassen vor Begeisterung mitzutrompeten.**)Beispiele dafür sind diese: „Klimarat: Jetzt helfen nur noch radikale Maßnahmen“ – „Klimabericht befeuert Debatte um den Kohleausstieg. Umweltschützer sehen sich durch Weltklimarast bestätigt“ – „Klimawandel: Die Zeit drängt. UN-Experten fordern rasches Handeln“ – „Jetzt mal schnell die Welt retten“ – „Erderwärmung: Lübecks Kampf gegen das Wasser“ – „Die Welt geht unter, macht was draus“. So tönen sie ihrem Publikum entgegen, das – weil dauerhaft indoktriniert – tief ergriffen und entsetzt ist, weil es nicht sämtliche Fakten kennt, auch nicht kennen kann, denn sie werden ihm vorenthalten. Da wir mit diesen Alarmtönen schon so lange und immer wieder traktiert werden, muss man auch immer wieder dagegenhalten.

Gegen den Klimawandel und CO2 der Natur kann der Mensch nichts ausrichten

Klimawandel in der Erdgeschichte hat es immer gegeben – im Wechsel Eiszeiten, Kaltzeiten, Warmzeiten. Niemand kann es bestreiten, es tut auch niemand. Das ist Natur, dagegen lässt sich nichts ausrichten. Eines Tages ist die Erzählung aufgetischt worden, das CO2 in der Lufthülle der Erde sei ein Gas, das wie in einem Treibhaus von Gärtnern die Erde erwärme. Auch dagegen kann der Mensch, wenn es denn so wäre, nichts machen. Aber zu dem natürlichen CO2 kommt von Menschen erzeugtes CO2 hinzu, nämlich durch das Verbrennen fossiler Rohstoffe (Kohle, Erdgas, Erdöl), um deren Energie in elektrische oder andere Energie umzuwandeln.

Gegner der Klimaschutzpolitik sind Geschäftsverderber und werden bekämpft

Ja, das ist Tatsache. Doch ebendieses menschengemachte (= anthropogene) Kohlendioxid – so wird uns gesagt – heize das Erdklima auf. Doch gibt es genug Wissenschaftler, die gegenteilige Informationen bieten. In meinen eigenen Beiträgen auf dieser Seite reiche ich sie weiter. Es sind weit über hundert. Sie finden sie alle hier  und hier  und hier. Mehr noch finden Sie bei dem Verein EIKE, der sich Europäisches Institut für Klima und Energie nennt (hier) und von Wikipedia (hier) und den Profiteuren der Klimaschutzpolitik als unglaubwürdig hingestellt wird. Klar, es verdirbt ihnen den erfundenen, hoch lukrativen Geschäftszweig. Diese Geschäftsverderber werden folglich bekämpft. Alle EIKE-Beiträge zur Klimaschutzpolitik hier.

Willfährig gemacht durch Alarmismus und Lücken-Information

Auch der neue Sonderbericht des IPCC dient dem Ziel, für die Menschen akzeptabel und hinnehmbar zu machen, dass anthropogenes Kohlendioxid ein „Klima-Killer“ ist, dass daher abgeschafft gehört und es folglich gerechtfertigt ist, Milliarden und Aber-Milliarden für das hehre Ziel auszugeben. Der neue Bericht soll die Menschen zusätzlich willfährig machen – willfährig durch Alarmismus und Lücken-Information. Das Leiden, dem sie durch die Klimaschutzpolitik ausgesetzt sind, ist ein politisch und geschäftlich erzwungenes Leiden. Daher darf es nicht sein, dass der Klimawandel n i c h t  menschengemacht,  n i c h t  anthropogener Art ist.  Da viele Wissenschaftler und nahezu sämtliche Politiker dies seit vielen Jahren herunterbeten, glauben es die Leut’. Solange sie nicht kundiger gemacht werden, solange sie sich nicht aus Eigenantrieb kundiger machen, was im Internet unschwer möglich ist, werden Sie glauben müssen, was ihnen vorgebetet wird. Wer nichts weiß, der muss alles glauben.

___________________________________________________________________

*) Vollständiger Name: Zwischenstaatlicher Ausschuss für Klimaänderungen (Intergovernmental Panel on Climate Change, abgekürzt IPCC). Näheres über ihn, aber mit Vorsicht zu lesen, bei Wikipedia hier.

**) Die Zitate stammen aus der Frankfurter Allgemeinen Zeitung (FAZ)vom 8. und 9. Oktober und aus den Lübecker Nachrichten vom 9. Oktober.

Dei Beitrag erschien zuerst auf dem Blog des Autors hier




Über eine auf Fake News des IPCC basierende Vorstellung zum Ausstieg aus der Kohle

Das in der Vergangenheit vorgenommene vollmundige Versprechen, den CO2-Ausstoß in Deutschland als Vorbild für die Weltgemeinschaft drastisch zu vermindern, ist einer Ernüchterung gewichen. Die u.a. nun diskutierte Anhebung der erneuerbaren Energien auf 65% bereits bis 2030 auf Kosten der Kohle soll das Versprechen retten – kann es das?
Dieses Ansinnen fußt auf dem Glauben an den Weltuntergang durch einen überhöhten CO2-Gehalt in der Atmosphäre, auf vom IPCC ausgelösen Fake News. Zudem kann durch die „Deutsche Energiewende“ für den Bereich der Stromherstellung der CO2-Gehalt in der Atmosphäre von z.Z. 0,040% CO2 (400 ppm) nur um 0,000 013% CO2 (0,13 ppm) abgesenkt werden bei einem durch die Photosynthese verursachten Schwankungsbereich zwischen Sommer und Winter je nach örtlichem Bewuchs von bis zu 0,010% CO2 (100 ppm). Am Äquator liegt der Schwankungsbereich bei 0,0040% CO2 (40 ppm).
Das Wort des Jahres 2016 „postfaktisch“ – inzwischen gepaart mit Fake News und Fake-Wissenschaften – bestimmt weiter die politische Agenda.

——————————————————————-

  1. Die Phantasie der Deutschen für ständig neue Energiewenden ist ungebrochen

Es hat in Deutschland in den letzten Jahren – wie in keinem anderen Land – nicht an Maßnahmen zur Absenkung des CO2-Ausstoßes gefehlt:
– „Energiewende 2010“
– „Energiewende 2014“
– Eckpunkte für die geplante Novelle EEG in 2016
– „Klimaschutzplan 2050“ in 2016 (Dekarbonisierung neben der Stromerzeugung für alle Sektoren wie „Industrie und Gewerbe, Handel und Dienstleistungen“, „Gebäude“, „Verkehr“, „Landnutzung, Land- und Forstwirtschaft“).
– Koaltionsvertrag vom 14. März, 2018, mit neben dem „Klimaschutzplan 2050“ erweiterten Zielen wie die Anhebung der erneuerbaren Energien auf 65% bereits bis 2030 und damit einem vorgezogenen Kohleausstieg.

In der nun folgenden Diskussion soll ausschließlich die Dekarbonisierung im Bereich der Stromerzeugung betrachtet werden.
Da die „Klimaschutzziele“ hinsichtlich des CO2-Aussoßes in der Vergangenheit in Deutschland nicht zuletzt durch die Stilllegung der Kernkraftanlagen nicht eingehalten werden konnten (Bild 1), sollen nun über Wind, Sonne, Wasserkraft und Biomasse nicht mehr nur 50% sondern 65% des Strombedarfes bis 2030 gedeckt werden, in 2050 praktisch 100%.

Bild 1
Da die Kernkraft bis 2022 ausläuft, stellt sich die Frage bei der vorgesehenen Erhöhung des Stromanteiles über erneuerbare Energien auf 65% bis 2030 nach dem Ausmaß der Rücknahme des Kohleanteiles im Strommix.
Zu dieser Frage wurde bereits eine Kohlekommission gegründet, die ihre Tätigkeit bereits aufgenommen hat.

  1. Kohlekommission

Eine aus 42 Migliedern bestehende Mammutkommission soll nun den Ausstieg aus der Kohle vorbereiten, bestehend nicht zuletzt aus NGO´s wie z.B. Greenpeace, BUND, etc.
Die Marschrichtung dieser Kommission erinnert in ihrer Zusammensetzung und Vorgehensweise an die Ethikkommission in 2011 zum Ausstieg aus der Kernenergie, die aus geistlichen Würdeträgern und Geisteswissenschaftlern bestand.
Andere Länder wie z.B. China, Indien steigern die Kohlekraftwerkskapazitäten beträchtlich: in China kommen 280 Gigawatt hinzu, in Indien 174 GW. Insgesamt wird die Kohlekraftwerkskapazität weltweit um 43% erweitert.

Und Deutschland zerfleischt sich bei nur 22,6 GW Braunkohle und 14,4 GW Steinkohle im Strommix bis hin zu militanten Protesten (vgl. später).

  1. Quantifizierung des Strommixes bei Anhebung der erneuerbaren Energien auf 65% bis 2030 auf Kosten des Kohleanteiles

3.1 Auswirkung auf die Stromversorgungssicherheit und die Erfordernis von Stromspeichern

Deutschlands Strommix lag in 2017 wie im Folgenden beschrieben und soll 2030 auf einen Anteil an erneuerbaren Energien von 65% angehoben werden. In 2017 wurden insgesamt brutto 654 000 GWh erzeugt. (AGEB e.V.) Die Bruttoerzeugung schließt den Stromverbrauch der Kohlekraftwerke von etwa 10% mit ein. Da in den folgenden Betrachtungen der Anteil der Stromerzeugung über Kohle gegen null geht, wird im Folgenden der Nettostromverbrauch von 588 000 GWh in 2017 zugrunde gelegt.

 

Berechnung der Daten für 2030 siehe unten.
Regenerativ wurden in 2017  194 600 GWh oder 33,1% (Punkte 6-11), 393 400 GWh oder 66,9% über konventionelle Stromerzeuger (Punkte 1-5) erzeugt.
In den folgenden Betrachtungen werden die Punkte 5 bei der konventionellen Stromerzeugung sowie die Punkte 9-11 bei den Regenerativen als nicht variabel angenommen.
Davon ausgehend errechnen sich für 2030 bei einem Anteil von 65% erneuerbarer Energien  bei gleichbleibenem Verhältnis von Wind- zu Sonnenstrom und einem mittleren Nutzungsgrad von Wind+Sonne von 14,4% (Durchschnittswert 2011-2016) (1) folgende Werte:

In dieser Übersicht gelten die Beziehungen

a)      7,3 GW Spalte  9-11  +  X GW Wind+Sonne (2030)   =  65%/100 x 66,6 GW
X = 36 GW Wind+Sonne (2030)
b)      36 GW Wind+Sonne (2030) – 14,8 GW Wind+Sonne (2017)   =  21,2 GW,

die über Kern (7,7 GW) und BK (13,5 GW) ausgetauscht werden müssen.

15,0 GW BK (2017) – 13,5 GW BK = 1,5 GW BK (2030)

Um 65% erneuerbare Energien einsetzen zu können, muß dann  die Stromerzeugung über Wind+Sonne von 14,8 auf 36 GW erhöht werden auf Kosten von 13,5 GW Braunkohle und den ausgelaufenden 7,7 GW über Kernenergie.
Das bedeutet für Wind+Sonne von 2017 bis 2030 eine Erhöhung der zu installierenden Leistung von 103 auf 250 GW. Die Stromerzeugung wird bis 2030 wie in 2017 angesetzt, auch wenn alleine über die vorgesehene Sektorkopplung von einer deutlichen Zunahme des Stromverbrauches ausgegangen werden muß, was die im Folgenden aufgezeigten Probleme noch deutlich verschärfen wird.
In 2030 müssen dann bei einer Einstellung von 65% erneuerbarer Energien im Mittel nur noch 1,5 GW über Braunkohle und 9.6 GW über Steinkohle beigestellt werden.
In Bild 2sind nun ausgehend von einer mittleren erforderlichen Stromleistung von 66,6 GW in 2017 bei gleichbleibender Stromleistung bis 2030 die Verteilung der Stromträger graphisch dargestellt.

Bild 2
Zunächst sind die konventionellen Stromträger Erdgas, Öl, Sonst. sowie die gemäß der erforderlichen Dekarbonisierung abnehmenden Erzeuger Kern und Kohle zugunsten des auf 65% zunehmenden Anteiles von Wind+Sonne sowie der nicht fluktuierenden erneuerbaren Energien aufgetragen.
Zudem ist der wesentliche Schwankungsbereich des täglichen Leistungsbedarfes von 35 bis 75 GW sichtbar gemacht. (1)
Die Linie der mittleren Nutzung von Wind+Sonne besagt (66,6 GW), dass der oberhalb dieser Linie anfallenden Strom gespeichert werden muß, um ihn bei Bedarf unterhalb der mittleren Nutzung von Wind+Sonne wieder einspeisen zu können.
Zur Speicherung der flatternden Strommengen ist eine Armada an Stromspeichern erforderlich, was einer kaum machbaren Logistik bedürfte – und neben anderen Argumenten die Stromversorgungssicherheit in Frage stellt.
Bei 66,6 GW in 2030 bzw. einer Gesamtstromerzeugung von 588 000 GWh/a bzw. 1610 GWh/Tag und einer nur auf Wind+Sonne bezogenen Leistung von 36 GW bzw. 317 800 GWh/a (871 GWh/Tag) müssen dann 871/2= 435 GWh/Tag (36/2=18 GW) im Mittel gespeichert werden können.
Das größte deutsche Pumpspeicherwerk Goldisthal hat eine Leistung von 8,4 GWh/Tag, d.h. es wären im Mittel täglich 52 Pumpspeicher dieser Größenordnung erforderlich.
Um eine 14-tägige Windflaute im Winter überbrücken zu können, müßten etwa
14 x 871 GWh/Tag = 12 194 GWh
mit etwa 1452 Speicher der Goldisthalgröße zur Verfügung stehen – ein hoffnungsloser Fall. Andere Stromspeicher (z.B. Power to Gas) sind für solche Strommengen weder geeignet noch bezahlbar. (2)
In 2017 kann die Differenz zwischen mittlerer Leistungsdeckung (66,6 GW) und einem Ausfall der Stromerzugung über Wind +Sonne von 14,8 GW noch soeben über Reservekraftwerke, Stromimporte, etc. abgedeckt werden – sicher nur bedingt im Winter -,  in 2030 liegt diese Differenz bei 36 GW, wo nur noch die beschriebenen Stromspeicher helfen. Da die täglichen Leistungsanforderungen bis etwa 80 GW ansteigen können, müssen dann nach Gleichung a) 44,7 GW abgedeckt werden mit zu installierenden Wind-und Solaranlagen von 310 GW.
Ohne Stromspeicher kann nur in geringen Mengen Strom an Nachbarländer abgegeben werden, d.h. die Wind-und Solaranlagen müssen vermehrt still gesetzt werden, was in der Vergangenheit bereits stark zunehmend der Fall war. Die Nachbarländer schotten sich z.T. durch technische Maßnahmen ab oder freuen sich über den mit negativen Preisen abgeschobenen Strom, um damit ihre Wasserspeicher aufzufüllen, um uns anschließend diesen Strom wieder teuer zu verkaufen (z.B. Österreich).
Gleichzeitig muß ein Großteil des Stromes über riesige Stromleitungen von Nord nach Süd geschaufelt werden, die wiederum die gleiche Streubreite im Gepäck haben und im Mittel nur mäßige 14,4% Nutzungsgrad liefern können – bei reinem Windstrom in der Gegend von 20-30%.
Dafür werden dann erschreckend hohe Milliardenbeträge ausgegeben!

3.2 Betrachtung des Zeitraumes ohne jeden Kohleeinsatz

Bei der Beschreibung der auf Deutschland zukommeneden Schwierigkeiten bei einer Anhebung der erneuerbaren Energien auf 65% bis 2030 erübrigt sich eine Diskussion der zu erwartenden Probleme bei einer weiteren Anhebung der Erneuerbaren. Nur so viel:
Aus Bild 2läßt sich leicht abgreifen, in welchem Jahr unter Beibehaltung der Geschwindigkeit der Anhebung der erneuerbaren Energien bei gleichbleibendem Anteil Erdgas, Öl, Sonst. keine Kohle mehr eingesetzt werden kann: bereits im Jahre 2037.
Die dann erforderliche Installation von Wind+Solaranlagen läge dann bei:
66,6 GW – 12,2 GW (Erdgas, Öl, Sonst.) – 7,3 GW (nicht fluktierende EE) / 0,144  = 327 GW. (Für eine Leistungsanforderung von 80 GW errechnen sich zu installierende Wind-und Solaranlagen von 420 GW).
Werden auch noch die letzten Kohlenstoffträger Erdgas, Öl, Sonst. gegen die Erneuerbaren ausgetauscht, wäre theoretisch in 2044 eine Stromerzeugung von 100% über erneuerbare Energien möglich mit einer Installation von Wind-+Solaranlagen von:
66,6 GW – 7,3 GW „Nicht fluktuierende EE“ /0,144  =  412 GW (für eine Leistungsanforderung von 80 GW ergeben sich dann 505 GW),
wo auch immer diese erforderliche Fläche freigeschaufelt werden könnte.

3.3 Netzkapazität

Durch das volatile Verhalten der Stromerzeuger Wind+Sonne muß die Netzkapazität von etwa 80 GW beträchlich erweitert werden, mit welchen Kosten auch immer (vgl. Bild 2).

  1. Die CO2-Apokalypse

„Postfaktisch“ war das Wort des Jahres 2016: Fakten, die nicht zum eigenen Glauben passen, werden ignoriert oder für falsch erklärt. Der Begriff der „Fake News“ wurde gleichzeitig gegenwärtig und schließlich kamen die „Fake-Wissenschaften“ in jüngster Zeit ins Gerede, ohne wissenschaftliche „Peer Reviews“ geprüfte Veröffentlichungen, die in „Fake Journalen“ (England: „Predatory Journals“) veröffentlicht werden. Weltweit, auch in Deutschland, haben Tausende Wissenschaftler in solchen scheinwissenschaftlichen Journalen gegen Bezahlung publiziert, z.T. reinen Schrott (FAZ, 20.07.2018).
Das gilt auch für Fragen der „Globalen Erwärmung“. (3) Auch die IPCC-Berichte sind nicht unabhängig begutachtet, wie es für wissenschaftliche Publikationen verbindlich ist (4).
Teile der IPCC-Berichte waren sogar von NGO-Aktivisten verfaßt worden, die über keinen ausreichenden Fachhintergrund verfügten, (5) ganz zu schweigen von der mangels Begutachtung fehlender Wissenschaftlichkeit und Vertrauenswürdigkeit des Vorhabens „Deutsche Energiewende“.
Kürzlich gab es einen weiteren Aufschrei über das Unwesen der „Predatory Journals“. Nach Recherchen der „Die kalte Sonne“ (6) reichte Schellnhuber (PIK, Potsdam) 16 Veröffentlichungen bei der Zeitschrift der National Academy of Science (PNAS), einem Predatory-Verlag (?), ein (wo Schellnhuber auch Mitglied ist) und suchte seine Gutachter selbst aus.
Aber nun zur Geschichte der „CO2-Apokalypse“:
Am Beginn der „CO2-Hysterie“ stand der „Klimarat der Vereinten Nationen“, der „Intergovernmental Panel on Climate Change“ (IPCC) vor 30 Jahren, dessen Aussagen gewaltige Spuren hinterlassen haben. Was muß man vom IPCC wissen?
1. Aufgabe des IPCC: Zusammenfassung der Ergebnisse von Hunderten von Wissenschaflern aus verschiedenen Disziplinen zu gemeinsamen Berichten, ausschließlich zum anthropogenen Klimawandel.
2. Struktur des IPCC: IPCC-Funktionäre, also die Vertreter der Nationalstaaten, wählen die Wissenschaftler aus. Bei der Endformulierung der Berichte dominieren die IPCC-Funktionäre, nicht die Wissenschafler.
Das heißt: Das IPCC ist ein politisches Gremium, kein wissenschafliches.
So wurden im Rahmen des IPCC schon früh unwissenschaftliche Modelle zum Einfluß von CO2 auf das Klima entwickelt (ausschließlich anthropogenes CO2 versteht sich), die die Vergangenheit nicht nachvollziehen konnten, wohl aber dazu mißbraucht wurden, die Zukunft aber in Form von Untergangsszenarien (Weltuntergang durch Verglühen) zu beschreiben. Das hatte durch die damit erzeugte Angst zur Folge, dass ungeheuere Geldmengen von den verschiedenen Regierungen den „Wissenschaflern“ zur Verfügung gestellt wurden, um die Welt vor ihrem Menschen-gemachten Untergang durch das anthropogene CO2 zu retten. Die Folge war eine weltweite Errichtung von Forschungsinstituten mit Milliarden von Euros/Dollar zur Untersuchung des vom Menschen verursachten CO2 auf das Klima.
Die Ergebnisse der vielen Forschungsinstitute entsprachen selbstredend – naturgemäß zum Selbsterhalt der Forschungsinstitute –  der Aufgabenstellung des IPCC: nämlich die unsinnige Ausarbeitung der lebensbedrohenden Wirkung der Menschheit durch den ausschließlich anthropogenen CO2-Ausstoß.
Eine nähere kritische Betrachtung zu den Vorstellungen des IPCC und seiner Modelle führt nämlich schnell zu dem Ergebnis, dass sich diese Modelle erwartungsgemäß durch eine Reihe von Fehlern hervortun, so dass ihre Mitteilungen an die Welt schlicht als Fake News einzuordnen sind:
1. Die Treibhauswirkung von H2O, dem Gas mit der höchsten Treibhauswirkung (H20 36-70%, CO2 9-26%), wurden nicht eingebaut.
2. Das Gleiche gilt für den Einfluß der Wolken. Die Wolkenbildung ist bei einem mittleren Bedeckungsgrad von 50-60% immerhin für 50% der Strahlung verantwortlich.
3. Basierend u.a. auf einer nicht korrekten Anwendung des Planckschen Strahlungsgesetzes/Stefan-Boltzmann-Gesetzes (Mißachtung des Gleichgewichtszustandes) wurde dem Gas CO2 ein überhöhter Treibhauseffekt zugesprochen, der die Temperatur der Erde von -18° C ohne Atmosphäre auf +15°C anheben soll.
4. Bei einem CO2-Gehalt in der Atmosphäre von 0,040% (400 ppm) werden jedoch nur etwa 3% vom Menschen verursacht, was weltweit 0,0012% CO2 (12 ppm) in der Atmosphäre ausmacht.
Der vom Menschen verursachten CO2-Mengen werden teilweise durch die übrigen, weit stärkeren Stoffströme (Ozeane, Photosynthese, etc.) wieder aufgenommen.
Im Sinne des Treibhauseffektes a la IPCC sollen diese marginalen Spuren, 0,0012% CO2, in der Lage sein, 324 W/m2 aus der Atmosphäre zurück zur Erde zu bewegen: ein wärmebilanzmäßiges und thermodynamisches Wunderwerk (u.a. 2. Hauptsatz der Thermodynamik). Einwände gegen diesen Unsinn werden in dem grün-linken Milieu in Deutschland hypermoralisch in die rechte Ecke gestellt.
Der Anteil Deutschlands an diesen 3% weltweit liegt bei 2,7% entsprechend 0,000 032% CO2 (0,32 ppm) in der Atmosphäre, nicht mehr meßbar.
Der Gedanke in Deutschland, mit dem Abbau von 0,000 032% CO2 einen wesentlichen Beitrag zum Treibhauseffekt beisteuern zu können, ist geradezu absurd, zumal wenn man bedenkt, dass durch den „Klimaschutzplan 2050“ bezogen auf die Stromerzeugung (verantwortlich für etwa 50% des CO2-Ausstoßes) der mögliche CO2-Abbau gerade bei 0.000 013% (0,13 ppm) läge. (1)
Dennoch verschleißt sich Deutschland mit dem „Klimaschutzplan 2050“, dem Abbau des CO2-Ausstoßes in allen Sektoren wie Strom, Verkehr, Industrie, etc., gegen null, um das nicht mehr Meßbare abzusenken, u.a. durch den geplanten Ausstieg aus der Kohle.
5. Der CO2-Gehalt in der Atmosphäre schwankt durch die Photosynthese zwischen Sommer und Winter je nach örtlichem Bewuchs bis zu 0,010% (100 ppm). Am Äquator liegt der Schwankungsbereich bei 0,0040% (40 ppm). (1) Damit liegt der vom Menschen verursachte CO2-Ausstoß mit 0,0012% (12 ppm) weit unter der jährlichen Schwankungsbreite, ohne auf die von Deutschland zu verantwortenden 0,000 032% (0,32 ppm) eingehen zu wollen.
6. In den Berechnungen des IPCC zum Treibhauseffekt durch CO2 wird von einem Strahlungsgleichgewicht zwischen Sonnenstrahlung und der Abstahlung  der Erde/Atmosphäre ausgegangen, obwohl das System Erde/Atmosphäre zum Weltraum hin offen ist, d.h. der Energieerhaltungssatz ist nicht anwendbar.
7. Schließlich wurden in die IPCC-Modelle überhöhte Klimasensitivitäten eingebaut.
8. Zusammenfassend bleibt fetzuhalten, dass es keinen Beweis für den Einfluß von CO2 auf das Klima gibt, die IPCC-Modelle sind völlig wertlos. Sicher ist nur, dass eine Erhöhung der Temperatur des Meerwassers zu einer Freisetzung des CO2 führt (Löslichkeit von CO2 in Wasser), so dass die CO2-Gehalte der Atmosphäre ansteigen (vgl. Untersuchungen an Eisbohrkernen aus Kalt- und Warmzeiten).

Für die nicht meßbaren CO2-Absenkungen in der Atmosphäre durch die deutschen Energiewenden zahlt Deutschland in Form des EEG z.Z. etwa 25 Mrd. €/a. Das „Institut für Wettbewerbsökonomik“ an der Uni Düsseldorf schätzt die zwischen 2015 bis 2025 anfallenden Kosten auf 520 Mrd. € (7), die „Wissenschaftsakademien Leopoldina, Acatech und Union“ bis 2050 auf 2 000 Mrd. €. (8)
Schließlich sei noch angemerkt, dass sich das Klima der Erde in einem ständigen Wandel befindet, ein Einfluß von CO2 auf das Klima kann in der Erdgeschichte nicht nachgewiesen werden – die Erde hat um Potenzen höhere CO2-Gehalte bestens verkraftet.
Außerdem verdanken wir der Anwesenheit von CO2 in der Atmosphäre unser Leben durch die Photosynthese
6 CO2 + 6 H2O = C6H12O16 + 6 O2  ,
also sogar den Sauerstoff.
Trotz all dieser Argumente leben von diesem „politogenen“ Gas CO2 (Kirstein) weltweit ganze Heerscharen von Medienleuten, Politikern, Klimawissenschaftlern, etc. prächtig.

Da ist es schon verwunderlich, wenn unsere Kanzlerin nach dem Atomausstieg nun im Sinne einer Rechtfertigung der Energiewenden Aussagen vernehmen läßt wie: „Nicht jeder Generation ist es gegeben, solche technische Umbrüche zu erleben und dabei zu sein, ist schön“.

  1. Politik und Medien

Ungeachtet aller Fakten werden ungebremst immer höhere Anforderungen an die Absenkung des CO2-Ausstoßes gestellt – im Sinne des „Klimaschutzplanes 2050“ für alle Sektoren (nicht zuletzt auch durch die neuesten unmäßigen Forderungen der EU an den CO2-Ausstoß von Verbrennungsmotoren).
Trotz der Aussage vieler Sachverständiger bleibt die Regierung völlig ungerührt. Eine deutliche Interessenverfilzung der Akteure der Energiewende (Klimapolitiker, einschlägige Industrie , Landwirte, etc.) ist erkennbar zu Lasten der Allgemeinheit.
Eine wünschenswerte Medienlandschaft mit kritischem investikativem Journalismus gibt es nicht, stattdessen ein im Gleichklang im Sinne einer „political correctness“ mit den Regierenden verbandeltes Staatsfernsehen. In den vielen auf rudimentären Kenntnissen zu Klimafragen agierenden Talkshows werden Klimarealisten nicht zugelassen.
So entstand im Gleichklang zwischen Regierenden und den Medien im Mainstream ein „postfaktisches Gebilde“, genannt Energiewende, basierend auf den Fake News des IPCC zum Einfluß von CO2 auf das Klima, auf das sich auch die Universitäten meist haben einlassen müssen, um nicht von geldlichen Zuwendungen abgeschnitten zu werden.

Wie die Vergangenheit zeigt, jagen die meisten Medien ein Thema nach dem anderen vor sich her. Es geht um Einschaltquoten/Auflagen nach dem Motto: „Only bad news are good news“.
So wetteiferten z.B. im Jahre 1975 die Medien, als die Globaltemperaturen seit 1940 leicht abgefallen waren, mit Warnungen vor der nächsten Eiszeit mit Eisbergen vor Portugal – später kam das Waldsterben, Vogelgrippe, etc.
Es stellt sich die Frage, weshalb der intelligendere Teil der Gesellschaft nicht gegen das Treiben dieser Medien gerade in den essentiellen Klimafragen und dem daraus resultierenden Unternehmen Energiewende angehen kann. Ist es die „German Angst“ oder sind wir inzwischen vergleichbar geworden mit den USA, wo ihr President vermerkte: „We won with poorly educated, I love the poorly educated“.
So erstarren wir über 30 Jahre auf der Suche nach Möglichkeiten, unseren wertvollen „Atommüll“ zu vergraben, während andere Länder 51 Kernkraftwerke im Bau haben und in schnellen Brütern die Energie aus dem wertvollen „Atommüll“ wieder nutzbar machen.

Die Angst vor CO2 durch ein mögliches Verglühen der Erde sowie den Meeresspiegelanstieg ist inzwischen bei vielen zu einer religiösen Vorstellung geworden. So wie das Christentum die  Menschen über 2000 Jahren durch die Angst vor dem Höllenfeuer steuerte, ist es nun die Angst vor dem Verglühen der Erde durch CO2.
Gegen Emotionen haben Fakten nur schwer eine Chance. Wie sagte noch der Philosoph Luhmann: „Wer Angst hat, ist moralisch im Recht“.
„Denk ich an Deutschland in der Nacht…..“.

Quellen

  1. Beppler, E.: „Die Vorstellungen der Regierung/Parteien zur Absenkung des CO2-Ausstoßes im Lichte einer technischen Analyse“; EIKE, 27.12.2017
    2. Beppler, E.: „Energiebranche jetzt für Kohleausstieg bis 2030- aber wo bleiben die Stromspeicher?“; EIKE, 02.07.2018
    3. Watts, A.: „Da schau her: „Deckel abgesprengt vom Topf der Vertrauenswürdigkeit wissenschaftlicher Begutachter“; EIKE, 23 07.2018
    4. Lüdecke, H.-J.: „Kleine Inspektion der Klimadampfer“; EIKE, 13.08.2018
    5. Buch Laframboise, D.: „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde“
    6. „Die kalte Sonne“: „PNAS ein „Predator“-Verlag? Ex- PIK Chef Schellnhuber reicht 16 papers ein und sucht seine Gutachter selber aus“; EIKE, 13.08.2018
    7. Limburg, M.: Mitteilung EIKE vom 10.10.2016
    8. Studien der Wissenschaftsakademien Leopoldina, Acatech und Union; FAZ, 15.11.2017

 




Schweizer Medien sind das neue Westfernsehen! Oderrrr??

Am 02. September 2018 um 21Uhr40 wurde im Schweizer Fernsehen ein 23-minütiger Film-Bericht über den Schweizer Klimaforscher Thomas Stocker gezeigt, an dessen Dreharbeiten wir vom „Klimamanifest-von-Heiligenroth“ seit April 2018 mitbeteiligt waren und wo wir auch mit unserer Kritik zu Wort kommen, hier: [SRF Reporter, Youtube, ab Minute 4:40.] Auch wenn wir uns als Ergebnis in dem am 02.09.2018 gesendeten SRF-Filmbericht etwas mehr Detail-Kritik an den Thesen von Thomas Stocker gewünscht hätten, so ist doch der Filmbericht in Verbindung mit den beiden ergänzenden SRF-Blogtexten von Simon Christen eine im Vergleich zu ARD, ZDF (und auch ORF) wohltuend-hinterfragende Auseinandersetzung mit den abstrusen Thesen eines bekannten Klima(folgen)forschers, in diesem Fall Thomas Stocker:

Klimaforscher Thomas Stocker und seine Gegner

Klimaforscher Thomas Stocker beantwortet Fragen von Kritikern

Auf der obigen SRF-Blogwebseite sind nur vier (4) Fragen und Antworten an und von Thomas Stocker aufgelistet. Insgesamt hatte der SRF-Autor Simon Christen dem Schweizer Klimaforscher Thomas Stocker aber insgesamt neun (9) Fragen gestellt, die wir ergänzend ebenfalls kommentiert bzw. beantwortet haben und die wir nachfolgend alle neun (9) veröffentlichen und zusätzlich mit Beleg-Links ausgestattet haben:

#1
Die Schweizer Bevölkerung ist über den Klimawandel besorgt, wie eine Studie der Uni Lausanne zeigt. Aber nur 44% der Befragten glauben, dass der Klimawandel auf menschliche Aktivitäten zurückzuführen ist. Wie erklären Sie sich das?

Thomas Stocker, Uni Bern:
Diese Zahl verwundert mich, da SFR eine kürzliche Umfrage gemacht hat, in welcher die Sorge um den menschgemachten Klimawandel Platz #1 der Schweizer Bevölkerung einnahm. Generell beobachte ich aber, dass die öffentliche Meinung zu dieser Frage recht schnellen Veränderungen in beide Richtungen unterworfen ist. Deshalb muss die Wissenschaft und die Medien noch besser und differenzierter informieren.

Rainer Hoffmann, www.klimamanifest.ch
Es ist stattdessen wahrzunehmen, dass immer mehr Menschen die Widersprüche begreifen, die die Klima(folgen)forscher seit über 30 Jahren bei Ihren Thesen über die angeblich gefährliche globale Erwärmung fabrizieren. Vergleicht man die Begründungen der Klimafolgenforscher aus den 1980er-Jahren für die angebliche Existenz einer gefährlichen globalen Erwärmung, insbesondere aus der Zeit seit Gründung des IPCC, des Weltklimarates, so stehen diese Begründungen im krassen Gegensatz zu den heute publizierten Begründungen der Klima(folgen)forscher. Diese grundlegenden Widersprüche in den Begründungen, die wir auch mit zunehmenden Erfolg öffentlich machen, erkennen und begreifen immer mehr Menschen, da es auch einfachste logische Widersprüche sind.

#2
Die «Klima-Zweifler» lassen sich grob in 2 Gruppen einteilen. Die einen sagen: Es gibt keinen Zusammenhang zwischen der Erderwärmung und menschlichen Aktivitäten. Die anderen sagen: Es gibt einen Zusammenhang, aber er wird stark übertrieben – ergänzt wird die Aussage mit dem Hinweis darauf, dass nur 3% des CO2 in der Atmosphäre menschgemacht seien. Der Einfluss könne also gar nicht gross sein. Was sagen Sie dazu?

Thomas Stocker, Uni Bern:
Beide Gruppen stellen Behauptungen auf, die keine wissenschaftliche Basis haben. Die Behauptung der Gruppe 1 ist klar widerlegt durch tausende von wissenschaftliche Studien, die in den letzten 50 publiziert wurden, die von den Wissenschaftern vor der Publikation kritisch begutachtet, und im Rahmen der IPCC Berichte gründlich beurteilt wurden. Diese Studien umfassen die theoretischen Grundlagen, Messungen der letzten 150 Jahre in der Atmosphäre und im Ozean, aber auch die paläoklimatischen Informationen der letzten 40 Millionen Jahre.

Die Behauptung der Gruppe 2 ist ebenfalls falsch: Der Anstieg der atmosphärischen Konzentration von CO2 seit 1750 ist vollständig menschgemacht durch die Verbrennung von Kohle, Erdöl und Erdgas, sowie die Abholzung. Das hat zu einer gemessenen Erhöhung der CO2 Konzentration um 35% geführt. Heute ist die CO2 Konzentration höher als je zuvor in den letzten 800’000 Jahren.

Neben der Konzentration von CO2 ist diejenige des drittwichtigsten Treibhausgases, Methan, seit 1750 sogar um 150% angestiegen!

Rainer Hoffmann, www.klimamanifest.ch
Man benötigt keine (natur-) wissenschaftliche Ausbildung, um die Widersprüche in den Behauptungen der Klima(folgen)forschung zu erkennen, sondern nur ein gesundes logisches Verständnis bzw. einen gesunden Menschenverstand. Und „tausende von wissenschaftliche Studien“ sind definitiv kein Beweis für die Kausalität des menschengemachten Kohlendioxids (oder anderer angeblicher Treibhausgase), die bodennahe Luft messbar zu erwärmen. Denn das notwendige wissenschaftliche Experiment, dass die Hypothese von der atmosphärischen Wärmerückstrahlung durch CO2 beweist, fehlt bis heute. Damit ist auch die obigen Antwort von Thomas Stocker zur „kritischen Gruppe 2“ als argumentationslos und inhaltsleer entlarvt, weil Thomas Stocker nur eine Korrelation als angebliche Begründung beschreibt, aber eben keine Kausalität, die aber als Beweis für den angeblichen Einfluss der menschgemachten „Treibhausgase“ zwingend wissenschaftlich notwendig ist. Und das angeblich so effektive und angeblich Fehler vermeidende „peer-reviewed-Verfahren“, auf das Thomas Stocker in seiner Antwort anspielt, ist letztendlich spätestens seit Öffentlichwerdung des „Himalaya-Fehlers“ im 4. IPCC-Bericht (und weiterer Fehler) im Januar 2010 kläglich gescheitert. Und in diesen Tagen wurde bekannt, dass z.B. Hans Joachim Schellnhuber, der bekannte deutsche „Klimapapst“ die peer-reviewed Begutachter mancher seiner Publikationen selbst aussucht. Damit ist dokumentiert, dass dieses „peer-reviewed-Verfahren“ der Klima(folgen)forscher nur Augenwischerei und Täuschung der Öffentlichkeit ist

#3
Diejenigen, die den Zusammenhang zwischen CO2 und Erderwärmung bestreiten, sagen: In der Physik müssten Theorien bewiesen werden. Es existiere aber weltweit noch kein Experiment, in dem nachgewiesen werden konnte, dass die erdnahen Luftschichten infolge CO2 erwärmt werden. Ihr Kommentar?

Thomas Stocker, Uni Bern (1. Antwort):
Das Experiment findet seit Millionen von Jahren in der Atmosphäre statt, denn ohne Treibhausgase (Wasserdampf und CO2, plus weitere Spurengase) wäre die mittlere Temperatur an der Erdoberfläche ca –15°C, und Leben wäre nicht möglich. Das ist der natürliche Treibhauseffekt der Erdatmosphäre.

Rainer Hoffmann, www.klimamanifest.ch
Auch diese Antwort von Thomas Stocker zeigt leider, dass er die eigentliche Herleitung des angeblichen „Treibhauseffektes“ nicht kennt. Denn „-15°C“ sind falsch, denn die mittlere Temperatur an der Erdoberfläche wurde mit „-18°C“ behauptet und von dem Rückstrahlungswert „240 W“ aus der Stefan-Boltzmann-Strahlungswert-Tabelle abgeleitet. Thomas Stocker hat satte 3 Grad (Differenz -15°C zu -18°C) einfach „wegretouschiert“, und DAS, wo doch die Klima(folgen)forschung alles daran setzt, dass die Weltöffentlichkeit eine angeblich so wichtige „2-Grad-Ziel-Leitplanke“ endlich ernst nehmen soll. Zum wiederholten Male stellen wir fest, dass Thomas Stocker seine eigene Wissenschaft nicht korrekt und nicht-logisch-konsistent erklären kann. Das ist z.B. so ein Widerspruch, von denen ich oben bei meinen Antworten bereits gesprochen hatte. Über diesen und weitere Widersprüche in den Behauptungen von Thomas Stocker haben wir auch bereits ein eigenes Video gemacht.

Am 30.08.2018, 8:32 erhielten wir von Simon Christen (SRF) die folgende Nachricht:

Stocker hat soeben seine Antwort […] korrigiert. Es müsse nicht -15 Grad, sondern -18,3 Grad heissen.
Er habe sich hier selbst falsch zitiert:
http://climatehomes.unibe.ch/~stocker/papers/stocker18icm.pdf …

Damit sieht die (2.) Antwort dann von Thomas Stocker zu dieser Frage zwangsläufig wie folgt aus:

Thomas Stocker, Uni Bern (2. Antwort):
Das Experiment findet seit Millionen von Jahren in der Atmosphäre statt, denn ohne Treibhausgase (Wasserdampf und CO2, plus weitere Spurengase) wäre die mittlere Temperatur an der Erdoberfläche ca –18,3°C, und Leben wäre nicht möglich. Das ist der natürliche Treibhauseffekt der Erdatmosphäre.

Rainer Hoffmann, www.klimamanifest.ch
Diese Antwort von Thomas Stocker zeigt leider, dass er die eigentliche Herleitung des angeblichen „Treibhauseffektes“ nicht kennt. Denn „-18,3°C“ (Stocker vorher: „-15°C“) sind nach offizieller Lehrmeinung, die sogar auch in Schulbüchern nachzulesen ist, auch falsch. Denn bezeichnend ist, dass Stocker für die „-18,3°C“ keine andere Quelle angibt, ausser seine eigene Publikation. Denn die mittlere Temperatur an der Erdoberfläche „ohne Atmosphäre“ wurde mit genau „-18°C“ behauptet und explizit von dem Rückstrahlungswert „240 W“ aus der Stefan-Boltzmann-Strahlungswert-Tabelle abgeleitet. Thomas Stocker hat also 0,3 Grad (Differenz: -18°C zu -18,3°C) einfach „wegretouschiert“, und DAS, wo doch die Klima(folgen)forschung alles daran setzt, dass die Weltöffentlichkeit eine angeblich so wichtige „2-Grad-Ziel-Leitplanke“ mit jeder wichtigen Nachkommenstellen-Änderung endlich ernst nehmen soll. Man muss wissen: Thomas Stocker bindet die „-18,3°C“ in seinen Publikationen in einen vollständigen Zusammenhang wie folgt ein:

„Wäre die Erde ein perfekter schwarzerKörper, also e =1, so würde die Temperatur –18.3°C betragen. Die ca. +33°C sind dem natürlichen Treibhauseffekt der Erde zuzuschreiben, der hauptsächlich durch Wasserdampf verursacht wird.“

Da aber jedes Kind weiss, dass die Erde bekanntlich kein „perfekter schwarzer Körper“ ist, ist zwingend anzunehmen, dass die Klima(forscher)forscher sich bei dieser Argumentation ein „Möchte-Gern-Konstrukt“ gebastelt haben. Aber wenn man dieses „Konstrukt“ mal trotzdem als korrekt voraussetzt, ist zu beachten, dass der globale Absoluttemperaturwert aus dem natürlichen Treibhauseffekt (kurz: THE) – nach Stocker – bei 14,7°C (-18,3°C + 33°C = 14,7°C) liegen würde, was gleichwohl bedeutet, dass sich die Erdmitteltemperatur in den letzten über 150 Jahren nur um 0,1°C (wenn überhaupt) über ein gefährliches Mass hinaus erhöht hat, da die WMO in Genf für die Jahre 2016 und 2017 eine absolute Globaltemperatur von rund 14,8°C [2016: 14,83°C und 2017: 14,76°C] vermeldet hatte. Stocker bestätigt also mit seiner heutigen Antwort, dass die Menschheit mit dem angeblich mensch-verstärkten Treibhauseffekt eine gefährliche globale Erderwärmung seit über 150 Jahren, d.h. seit Beginn der Industrialisierung, lediglich bei höchstens 0,1°C liegt (14,8°C [WMO] – 14,7°C [THE lt. Stocker]) und eben nicht bei 0,8°C bis 1°C, was aber Klima(folgen)forscher laufend in den (TV-)Medien behaupten. Wenn der natürliche Treibhauseffekt (THE) aber bei 15°C (anstatt: 14,7°C lt. Stocker) definiert wird, wie es einschlägige und offizielle wissenschaftliche Publikationen bis heute ausweisen, gibt es sogar per definitionem seit über 150 Jahren überhaupt keine gefährliche Erderwärmung. (siehe dazu auch: #7)

Video nicht mehr verfügbar

 

 

Paul Bossert, www.klimamanifest.ch
Thomas Stocker weicht in Sachen wissenschaftlicher Beweisführung aus, mit dem Hinweis auf die angebliche Treibhausgas-Hypothese. Thomas Stocker muss den wissenschaftlichen experimentellen Beweis erbringen, dass das CO2 die erdnahen Luftschichten erwärmt. So will es die wissenschaftliche Terminologie der Physik.

 

 

#4
Zudem sagen diese Kreise, die Infrarot-Rückstrahlungstheorie sei nicht möglich, weil damit der zweite Hauptsatz der Thermodynamik verletzt werde. Werde auf dieser Theorie beharrt, wäre ein Perpetuum-Mobile zweiter Ordnung möglich, was aber bekanntermassen niemals funktionieren werde. Was sagen Sie dazu?

Thomas Stocker, Uni Bern:
Der natürliche Treibhauseffekt, verursacht durch die Infrarot-Rückstrahlung durch die Treibhausgase in der Atmosphäre (vor allem H2O und CO2), zeigt deutlich, dass der Treibhauseffekt, sowohl der natürliche menschgemachte, sehr wohl im Einklang mit der Thermodynamik ist. Dieselbe Physik gilt für den zusätzlichen Treibhauseffekt, der durch die Erhöhung der Treibhausgaskonzentrationen zustande kommt.

Die Infrarot-Rückstrahlung wird weltweit gemessen und zeigt, in Übereinstimmung mit dem durch menschliche Aktivitäten verstärkten Treibhauseffekt, einen deutlichen Anstieg seit Messbeginn.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker ist mit seiner Antwort definitiv nicht in der Lage, den Vorwurf der Verletzung des zweiten Hauptsatzes der Themodynamik bei der Hypothese vom Treibhauseffekt zu entkräften.

Dabei lässt sich bereits bei den wissenschaftlichen Erklärungen zu „Der natürliche Treibhauseffekt“ von Bakan/Raschke aus dem Jahr 2002, auf die auch ein Stefan Rahmstorf häufig verweist, und die auch ein Mojib Latif in seinen Büchern zum Klimawandel nachweislich verwendet, dokumentieren, dass der angebliche Treibhauseffekt auf einer Iteration, d.h. auf einen wissenschaftlich unstatthaften Zirkelschluss basiert. Der angebliche Treibhauseffekt wird nur mit sich selbst begründet und wird bis heute nicht – nach den sonst üblichen wissenschaftlichen Standards – erklärt. Beispiel: So findet sich z.B. auch in Publikationen von Thomas Stocker die bekannte globale Energiebilanzgrafik mit einer angeblichen Bodenabstrahlung von 396 W/m² [390 W/m²], die gleichbedeutend ist mit einer Bodentemperatur von 16°C [15°C] nach dem Stefan-Boltzmann-Gesetz. Diese „16°C“ [15°C] können aber alleine schon durch das Stefan-Boltzmann-Gesetz begründet (denn die „-18°C“ wurden mit der gleichen Logik begründet) und hergeleitet werden, trotzdem behauptet die Klima(folgen)forschung, diese „16°C“ [15°C] seien die Ursache für einen angeblichen „Treibhauseffekt“. In diesem Sachverhalt steckt die wissenschaftlich-unstatthafte Iteration und (mindestens) ein logischer Widerspruch, auf den der angebliche Treibhauseffekt basiert.

Paul Bossert, www.klimamanifest.ch
Thomas Stocker glaubt an eine Infrarot Rückstrahlung, obwohl es auf der Welt noch keinen einzigen Thermo-Scanner gibt, der diese so genannte atmosphärische Gegenstrahlung messen kann. Die von den „Klimaforschern“ verwendeten Pyranometer und Pyrgeometer (z.B. von Kipp & Zonen) sind für eine Rückstrahlungsmessung nicht geeignet. Dass eine nichtmessbare Rückstrahlung die Erde erwärmen soll, kann Thomas Stocker wissenschaftlich nicht beweisen. Gemäss IPCC beträgt diese Rückstrahlung 342 W/m2. Das ist mehr als die gesamte Sonnenstrahlung von 340 W/m2. Wäre diese Strahlung vorhanden, könnte weltweit auf Heizungen verzichtet werden. Dass die Wärmeabstrahlung der Erde [398 W/m²] um 58 W/m2 grösser als die Sonneneinstrahlung [340 W/m²] sein soll, ist ebenfalls nicht nachvollziehbar.

aus: 5. IPCC-Bericht 2013 (deutsche Übersetzungen von P. Bossert)

#5
Die Erderwärmung wird in einer Verlaufkurve der «globalen Mitteltemperatur» ausgedrückt. Was ist das genau?

Thomas Stocker, Uni Bern:
Das ist eine mathematische Grösse, die aus Millionen von Thermometermessungen berechnet wird.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker verschleiert mit seiner Antwort, dass die „Millionen von Thermometermessungen“ trotzdem nur in Wahrheit auf wenigen Tausend Messstationen weltweit basieren, die in Wahrheit nicht in der Lage sind, eine „globale Mitteltemperatur“ in notwendiger Weise objektiv und glaubwürdig abzubilden. So gibt es zum Beispiel grosse Gebiete auf den Weltmeeren und in der Antarktis, wo überhaupt keine Messstationen vorhanden sind.


#6

In den Jahren 1988 bis 1995, also in den Anfangsjahren des Weltklimarates IPCC, wurde nach mehreren übereinstimmenden Quellen die absolute globale Mitteltemperatur zwischen 15,4 °C bis 15,5 °C ausgewiesen. Seit dem wissenschaftlichen 4. IPCC-Bericht 2007, für den auch Sie mitverantwortlich waren, verläuft aber die globale Absoluttemperatur einer globalen Erderwärmung nur noch zwischen einem absoluten Temperaturfenster von 13,67 °C (für das Jahr 1850) und bis zu 14,8°C (laut WMO in Genf für das Jahr 2017). Wurde es in den letzten 30 Jahren also kälter?

Thomas Stocker, Uni Bern:
Die Wissenschaft steht nicht still, das heisst, dass auch diese Zahlen ständig hinterfragt und kritisch beurteilt werden. Wenn in einem nachfolgenden IPCC Bericht Zahlen korrigiert werden, erfolgt dies erst nach einem langwierigen Begutachtungsverfahren, eingehender Debatte und genauer Nachprüfung, bis schliesslich ein Konsens gefunden wird. Das bedeutet, dass die erwähnten Zahlen von einem früheren Bericht nicht mit denjenigen eines nachfolgenden Berichts verrechnet werden können.

Rainer Hoffmann, www.klimamanifest.ch
Die Antwort von Thomas Stocker ist ausweichend und verfälschend, denn Thomas Stocker ignoriert, dass in den ersten Jahren seit der Gründung des IPCC eine ganz bestimmte, auch damals noch logisch-nachvollziehbare Begründung für eine gefährliche Erderwärmung der Weltöffentlichkeit vorgelegt worden ist, die auch heute noch nachweislich in Schulbüchern nachzulesen ist. Es behauptet auch niemand, dass die erwähnten Zahlen von einem früheren IPCC mit denjenigen eines nachfolgenden Berichts – so Stocker wörtlich – „verrechnet“ worden sein sollen. Es ist vielmehr durch Recherchen in den IPCC-Berichten 1 bis 5 erkennbar, dass im 5. IPCC-Bericht die ursprünglichen Temperaturgrundlagen für den „greenhouse-effect“ (Treibhauseffekt) und „Globaler Absoluttemperatur“ still und heimlich entfernt worden sind, obwohl diese Informationen im 4. IPCC-Bericht noch vorhanden waren. Seit dem 5. IPCC-Bericht sind die argumentativen Grundlagen, mit denen vor über 30 Jahren eine gefährliche Erderwärmung begründet worden ist, entfernt worden. Es wurde nicht „verrechnet“, sondern es wurden wichtige Informationen im 5. IPCC-Bericht „beseitigt“, womöglich deshalb, weil die heutigen Widersprüche zu der damaligen Argumentation einer angeblich gefährlichen Erderwärmung, mittlerweile offensichtlich geworden sind.

 


#7

In den Anfangsjahren des IPCC wurde der Wert aus dem «natürlichen Treibhauseffekt» durch die verantwortlichen Klimaforscher mit einer globalen Absoluttemperatur von 15 Grad begründet. Ein Wert, der auch heute noch in zahlreichen klima-wissenschaftlichen Publikationen und auch in aktuellen, deutsch-sprachigen Schulbüchern zu finden ist, um die Gefährlichkeit einer Erderwärmung zu erklären und zu begründen. Nach dem Ende der „Kleinen Eiszeit“ im Jahr 1850 ist aber die globale Absoluttemperatur nur von 13,76 °C (1850) bis auf 14,8 °C (2017) angestiegen. Der Wert eines Treibhauseffekts von „+ 15 °C + X“ wurde also seit 1850 bis heute nicht überschritten. Inwiefern kann also überhaupt von einer „gefährlichen, mensch-verstärkten Erderwärmung“ gesprochen werden?

Thomas Stocker, Uni Bern:
Diese Behauptung entbehrt jeder Grundlage (siehe vorherige Antwort). Schulbücher sind nicht geeignet, um eine wissenschaftliche Debatte zu führen. Mit „gefährlicher Erderwärmung“ ist nicht die bisher erfolgte Erwärmung von 1°C seit dem Jahr 1900 gemeint, sondern die mögliche weitere Erwärmung von 4.5°C in den kommenden 80 Jahren, falls die CO2 Emissionen nicht schnell sinken.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker verleugnet mit seiner Antwort seine eigene Wissenschaft. Denn in Schulbüchern steht nachweislich die gleiche wissenschaftliche Argumentation, mit denen bereits vor über 30 Jahren die Klima(folgen)forschung eine gefährliche Erderwärmung begründet hatte, siehe z.B. die Seiten 27 bis 29 der Bundestagsdrucksache 11/8030 vom 24.05.1990 der wissenschaftlichen Enquete-Kommission, zu denen u.a. auch ein Hartmut Graßl und ein Paul Crutzen gehört haben. Es lässt sich durch weitere, unzählige Publikationen in diversen Archiven nachweisen, dass die Klima(folgen)forschung in den Jahren 1988 bis 1995, also insbesondere in den Anfängen des IPCC, eine gefährliche, mensch-verstärkte Erderwärmung („gefährlicher Klimawandel“) bei einer globalen Absoluttemperatur von oberhalb von 15°C definiert hatte:

aus: Seite 29 der Bundestagsdrucksache 11/8030 vom 24.05.1990 (Blaue Pfeile, Kreis und blaue Temperaturwerte nachträglich zur Verdeutlichung ergänzt)


Es ist deshalb auch historisch nachvollziehbar, dass diese Argumentation auch heute noch in Schulbüchern zu finden ist. Kein geringer als Stefan Rahmstorf vom PIK in Potsdam hat im Februar 2018 unsere Recherchen als korrekte Prämissen bestätigt. Denn es steht defacto auch im Schellnhuber/Rahmstorf-Buch „DER KLIMAWANDEL“, dass auf Basis der ursprünglichen und historischen Definition für eine gefährliche Erderwärmung seit über 150 Jahren keine gefährliche Erderwärmung existiert.

#8
Das «2-Grad-Ziel» ist in aller Munde. Bei welchem globalen Absoluttemperaturwert wird der Anfang der „2-Grad-Ziel-Leitplanke“ definiert?

Thomas Stocker, Uni Bern:
Die Absoluttemperatur ist in dieser Diskussion nicht relevant, sondern die Änderung bezüglich der vorindustriellen Temperatur.

Rainer Hoffmann, www.klimamanifest.ch
Da Thomas Stocker oben in einer Antwort bestätigt hat, dass „Millionen von Thermometermessungen“ relevant sind, um eine globale Mitteltemperatur zu errechnen, wird Thomas Stocker nicht abstreiten können, Temperaturwerte in absolut-gemessener Form auch die Grundlage für ein „2-Grad-Ziel“ darstellen müssen. Thomas Stocker wird bestätigen müssen: Temperaturveränderungen sind definitiv nur durch den Vergleich mindestens zweier Absoluttemperaturwerte errechenbar. Soweit Thomas Stocker in seiner Antwort die „vorindustrielle Temperatur“ erwähnt, müsste Stocker zuerst einmal korrekt den Zeitpunkt (= Jahreszahl) für eine „vorindustrielle Temperatur“ bestimmen und mitteilen. Noch im November 2017 definierte der bekannte Wissenschaftsjournalist Harald Lesch auf der Webseite des ZDF diesen Zeitpunkt auf das Jahr 1994. Kein Witz:

In der NZZ konnte man am 03.02.2017 lesen, dass amerikanische Wissenschaftler sich dafür ausgesprochen hätten, dass der Beginn der Industrialisierung ab dem Jahr 1750 zu definieren sei. Ja, was denn nu?

Wir haben auf unserer Klimamanifest-Webseite bisher sage-und-schreibe 27. (!) verschiedene Varianten eines „2-Grad-Zieles“ recherchiert. Deshalb: Es wäre endlich mal an der Zeit, dass die Klima(folgen)forschung- und eben auch ein Thomas Stocker – der Weltöffentlichkeit mitteilt, welches „2-Grad-Ziel“ denn das richtige, das korrekte ist. Auch Thomas Stocker ist mit seiner heutigen Antwort dieser wichtigen Frage erneut ausgewichen.

#9
Wenn der CO2-Ausstoss auf dem aktuellen Niveau weitergeht, wann wird dieser Absoluttemperaturwert des «2-Grad-Zieles» erreicht sein?

Thomas Stocker, Uni Bern
Die 2°C Marke wird um etwa 2040 erreicht sein, falls die CO2 Emissionen auf heutigem Stand bleiben. Sie steigen jedoch immer noch an, also wird +2°C früher erreicht. Um +2°C nicht zu überschreiten, müssen die CO2 Emissionen sehr schnell sinken und um ca. 2050 auf Null gehen, in einigen Szenarien sogar netto negativ werden.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker ist erneut dem gefragten Absoluttemperaturwert ausgewichen, obwohl deutlich danach gefragt worden ist. Da der deutsche „Klimapapst“ Schellnhuber in der Vergangenheit laufend das globale „2-Grad-Ziel“ mit „2-Grad-Fieber“ beim Menschen verglichen hat, ist es ebenfalls legitim, zu fragen, wo denn vergleichbare Absoluttemperaturwerte bei der Erde liegen, wenn der Absolutwert beim Menschen für zwei Grad Fieber bei 39°C liegt? Das nachfolgende Schaubild verdeutlicht diese elementare Fragestellung:


Zusatz-Info:
Wir beabsichtigen ausserdem erneut ein Aufklärungs-Video über den Auftritt von Thomas Stocker in der SRF-„Schawinski“-Sendung am 27.08.2018 und über die zwei „Unschärfen“ in der REPORTER-Sendung vom 02.09.2018 in Kürze zu erstellen.

Übernommen von www.klimamanifest.ch

 




Wissenschaftler: 30 Jahre später, wie gut stehen Prognosen zur globalen Erwärmung?

von Dr. Pat Michaels und Dr. Ryan Maue
James E. Hansen wischte sich den Schweiß von der Stirn. Draußen gab es am 23. Juni 1988 eine Rekordtemperatur von 36,7 °C, als der NASA-Wissenschaftler vor dem Senatsausschuss für Energie und natürliche Ressourcen während einer längeren Hitzewelle aussagte, die er zu einem Klimaereignis von kosmischer Bedeutung erklärte. Er drückte gegenüber den Senatoren sein „hohes Maß an Vertrauen“ in eine „Ursache-Wirkungs-Beziehung zwischen dem Treibhauseffekt und der beobachteten Erwärmung“ aus.

Video von Tony Heller über die Prophezeiungen von James Hansen, während und vor und nach der Anhörung vor dem US-Senat am 23.6.1988, die samt und sonders nicht nur nicht eintrafen, sondern oft stattdessen das ganze Gegenteil.
Mit diesem Zeugnis und einer begleitenden Arbeit im Journal of Geophysical Research entzündete Mr. Hansen das Feuer der Gewächshäuser im Gewächshaus und entzündete damit eine weltweite Debatte über die Energiestruktur des gesamten Planeten. Präsident Obamas Umweltpolitik beruhte auf ähnlichen Modellen schneller, kostenintensiver Erwärmung. Aber der 30. Jahrestag der Vorhersagen von Herrn Hansen bietet die Gelegenheit, zu sehen, wie gut seine Prognosen waren – und die Umweltpolitik entsprechend zu überdenken.
In der Zeugenaussage von Herrn Hansen wurden drei mögliche Szenarien für die Zukunft der Kohlendioxidemissionen beschrieben. Er nannte Szenario A „business as usual“, da das für die 1970er und 80er Jahre typische beschleunigte Emissionsanstieg beibehalten wurde. Dieses Szenario prognostizierte, dass sich die Erde bis 2018 um 1 Grad Celsius erwärmen würde. Szenario B setzte die Emissionen niedriger ein und stieg heute mit der gleichen Rate wie 1988. Herr Hansen nannte dieses Ergebnis das „plausibelste“ und prognostizierte, dass es etwa 0,7 Grad betragen würde Erwärmung dieses Jahr. Er fügte eine finale Prognose, Szenario C, hinzu, die er als sehr unwahrscheinlich ansah: konstante Emissionen beginnend im Jahr 2000. In dieser Prognose würden die Temperaturen einige Zehntel Grad steigen, bevor sie nach 2000 flach werden würden.
Dreißig Jahre Daten wurden gesammelt, seit Herr Hansen seine Szenarien skizziert hat – genug, um zu bestimmen, welches der Realität am nächsten kam. Und der Gewinner ist das Szenario C. Die globale Oberflächentemperatur ist seit 2000 nicht signifikant angestiegen und hat den El Niño, der größer als üblich ist, von 2015-16 abgezinst. Nach dem Modell von Herrn Hansen verhalten sich die Oberflächentemperaturen so, als hätten wir vor 18 Jahren die Kohlendioxidemissionen begrenzt, die für den verstärkten Treibhauseffekt verantwortlich sind. Aber wir haben es nicht getan. Und es ist nicht nur Mr. Hansen, der es falsch verstanden hat. Die vom Zwischenstaatlichen Ausschuss der Vereinten Nationen für Klimaänderungen (IPCC) entwickelten Modelle haben im Durchschnitt etwa doppelt so viel Erwärmung vorhergesagt wie seit Beginn der weltweiten Überwachung der Satellitentemperatur vor 40 Jahren.
Hanses total falsche Vorhersage für den künftigen Temperaturverlauf. Rot aktueller Verlauf
Was ist mit Herrn Hansens anderen Behauptungen? Außerhalb der Erwärmungsmodelle war sein einziger ausdrücklicher Anspruch in der Aussage, dass die späten 80er und 90er Jahre eine „überdurchschnittliche Erwärmung im Südosten der USA und im Mittleren Westen“ erleben würden. In diesen Regionen wurde kein solcher Anstieg gemessen.
Als die beobachteten Temperaturen im Laufe der Jahre von seinen Vorhersagen abwichen, verdoppelte sich Herr Hansen. In einem Fall von 2007 über Autoemissionen erklärte er in seiner Ablagerung, dass das meiste von Grönlands Eis bald schmelzen würde und den Meeresspiegel im Laufe von 100 Jahren auf 23 Fuß anheben würde. Nachfolgende Forschungen, die in der Zeitschrift Nature über die Geschichte der grönländischen Eiskappe veröffentlicht wurden, haben gezeigt, dass dies unmöglich ist. Ein Großteil der Oberfläche Grönlands schmilzt jeden Sommer, was bedeutet, dass in einer sich dramatisch aufheizenden Welt mit einem raschen Schmelzen zu rechnen ist. Aber nicht in dem, in dem wir leben. Die Nature-Studie fand nur einen bescheidenen Eisverlust nach 6.000 Jahren viel wärmerer Temperaturen, als die menschliche Aktivität jemals ertragen konnte.
Einige weitere Vorhersagen von Herrn Hansen können nun anhand der Geschichte beurteilt werden. Sind Hurrikane stärker geworden, wie Mr. Hansen in einer Studie von 2016 vorhergesagt hat? Nein. Satellitendaten ab 1970 zeigen keine Hinweise auf die globale Oberflächentemperatur. Haben Stürme in den USA immer mehr Schaden angerichtet? Daten aus der National Oceanic and Atmospheric Administration zeigen keinen solchen Anstieg der Schäden, gemessen am Bruttoinlandsprodukt. Wie wäre es mit stärkeren Tornados? Das Gegenteil mag zutreffen, da NOAA-Daten Hinweise auf einen Rückgang liefern. Die Liste dessen, was nicht passiert ist, ist lang und langwierig.
Das Problem mit den Modellen von Herrn Hansen – und den U.N.’s – ist, dass sie keine präziseren Messungen darüber in Betracht ziehen, wie die Aerosolemissionen der Erwärmung von Treibhausgasen entgegenwirken. Mehrere neuere Klimamodelle tragen diesem Trend Rechnung und projizieren routinemäßig ungefähr die Hälfte der von den U.N.-Modellen vorhergesagten Erwärmung, wodurch ihre Zahlen den beobachteten Temperaturen viel näher kommen. Das jüngste von ihnen wurde im April von Nic Lewis und Judith Curry im Journal of Climate veröffentlicht, einer zuverlässig etablierten Zeitschrift.
Diese korrigierten Klimaprognosen werfen eine entscheidende Frage auf: Warum sollten Menschen weltweit drastische Kosten für die Reduzierung von Emissionen bezahlen, wenn die globale Temperatur so wirkt, als ob diese Kürzungen bereits vorgenommen worden wären?
Am 30. Jahrestag der Zeugenaussage von Herrn Hansen ist es an der Zeit anzuerkennen, dass die von ihm vorhergesagte schnelle Erwärmung nicht stattfindet. Klimaforscher und politische Entscheidungsträger sollten die bescheideneren Prognosen übernehmen, die mit den beobachteten Temperaturen übereinstimmen.
Das wäre eine lauwarme Politik, im Einklang mit einem lauwarmen Planeten.
Weiterführende links:
http://www.climatedepot.com/2018/06/22/scientists-30-years-on-how-well-do-global-warming-predictions-stand-up/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+ClimateDepot+%28Climate+Depot%29
und
https://wattsupwiththat.com/2018/06/22/thirty-years-on-how-well-do-global-warming-predictions-stand-up/

 




Das IPCC: Niemals wurde mit so wenig Wissen von so Vielen so viel ange­richtet zu so gewal­tigen Kosten

Man kann sich irgendein Segment des Kohlenstoff-Zyklus‘ herauspicken, welches sie in Abbildung 1 zeigen (ihre Abbildung 6-1 im 5. Zustandsbericht). Keines davon basiert auf tatsächlichen Messungen, also realen Daten. Alles ist nichts als eine Schätzung und kann noch nicht einmal als vernünftige Vermutung durchgehen:

Abbildung 1

Sie erklären dazu:

Zahlen repräsentieren die Größe des Reservoirs, auch ,Kohlenstoff-Speicher‘ genannt PgC (1 PgC = 1015 gC) sowie jährliche Flüsse des Kohlenstoff-Austauschs (in PgC yr–1).

Was sie sagen sollten ist, dass jede einzelne Zahl eine sehr grobe Schätzung ist, verzerrt, um ihre Behauptungen einer unbewiesenen Hypothese zu stützen, der zufolge menschliches CO2 die globale Erwärmung AGW verursacht. Sie müssen in aller Klarheit sagen, dass sie keine tatsächlichen Messungen von irgendwas haben, es gibt keine realen Daten. Sie zeigen lediglich einen sehr vagen Hinweis in Box 2.1 „Unsicherheiten bei Messaufzeichnungen“ in Kapitel 2 des Physical Science Basis Report, aber das ist irreführend und lenkt vom eigentlichen Thema ab.

Die große Mehrheit historischer (und aktueller) Wetterbeobachtungen waren nicht dazu gedacht, zum Zwecke des Klima-Monitoring herangezogen zu werden.

Also sind sogar die Wetterdaten ungeeignet oder unangemessen. Sie müssen auch sagen, dass von den anderen Daten praktisch kein einziges existiert.

Die schwarzen Zahlen repräsentieren die geschätzte Reservoir-Masse und die Austausch-Flüsse für die Zeit vor der industriellen Ära (1750). Das für sich ist schon lächerlich. Sogar heute noch haben wir keine Ahnung von den wirklichen Reserven fossiler Treibstoffe. Saudi Arabien hat es permanent abgelehnt, Auskunft über das Niveau seiner Reserven zu geben. Man würde denken, dass Leute aus der Limits to Growth crowd aus ihrer gescheiterten „Peak Oil“-Kampagne gelernt haben würden, dass man sich auf keine globale Ressourcen-Statistik verlassen darf. Ein Standardprojekt in meiner Vorlesung über Geopolitik war es für die Studenten, die Reserven fossiler Treibstoffe in Kanada und der Welt zu bestimmen. Sie waren fassungslos durch die Bandbreite der Zahlen, auf die sie stießen. Wenn man sich vor Augen führt, dass die beiden vermeintlich genauesten Schätzungen der Weltbevölkerung (aus den USA und von den UN) um fast 6 Millionen Menschen differieren (2011) bekommt man eine Ahnung von der Größenordnung des Problems. Wir haben heute nicht einmal ansatzweise genaue Schätzungen, geschweige denn von vor 268 Jahren. Aber genau diese Menschen sind es, die uns mit einem ängstigenden und vollkommen ungerechtfertigten Grad an Sicherheit mitteilen, dass sie genau wüssten, welche Temperatur global im Jahre 1750 geherrscht hatte.

Ich will hier nur ein Segment des Diagramms betrachten mit der Bezeichnung Vegetation und soils [Böden]. Ich unterstelle, dass mir niemand eine Schätzung der Ausdehnung der Wälder der Welt im Jahre 1750 geben kann mit einer Genauigkeit von nur 20%. Aber genau das ist es, was das IPCC tut.

Das terrestrische Biosphären-Reservoir enthält Kohlenstoff in organischen Verbindungen lebender Biomasse der Vegetation (450 bis 650 PgC; Prentice et al., 2001) und in totem organischen Material in Abfall und Böden (1500 bis 2400 PgC; Batjes, 1996).

Man beachte, das war zum Höhepunkt der Kleinen Eiszeit LIA. Meine Forschungen für das zentrale Kanada auf der Grundlage genauer Karten zeigten, dass sich die Baumgrenze am Nordrand des borealen Waldes zwischen 1772 und 1972 um rund 200 km verschoben hat. Dies ist eine Bewegung von 1 km pro Jahr in einer der härtesten Wachstums-Bedingungen der Welt. Die Verschiebung repräsentiert außerdem eine massive Steigerung der Biomasse nur bei dieser Art der Vegetation.

Eine der großen natürlichen Paradoxa ist, dass der tropische Regenwald auf mit den nährstoffärmsten Böden der Welt wächst. Dass Verständnis, warum das so ist, unterstreicht, warum die IPCC-Behauptungen fälscher nicht sein können. Die meisten Menschen wissen, dass es zwei grundlegende Klassifizierungen aller Bäume gibt – Nadelbäume und Laubbäume; mal mit, mal ohne Laub. Der tropische Regenwald ist beides. Er steht niemals ohne Laub da, aber Blätter fallen ununterbrochen und werden sofort durch neue Blätter ersetzt. Ohne diesen Umstand könnte der Wald nicht existieren. Klimatisch gesehen gibt es eine jährliche Niederschlagsmenge von 2000 mm oder mehr bei einer Mitteltemperatur, die das ganze Jahr über zwischen 20°C und 30°C liegt.

Diese Bedingungen waschen die meisten Mineralien aus dem Boden und lassen nur Eisen und ein wenig Aluminium zurück. Dies sind die roten Laterit-Böden* tropischer Regionen (Abbildung 2). Rodet man den Wald, so dass der Boden frei liegt, wird er entweder durch die schweren tropischen Regenfälle rasch erodiert oder unter der tropischen Sonne steinhart gebacken.

[Wer es genauer wissen will: Zu Laterit steht hier bei Wikipedia mehr, sofern man Wikipedia trauen kann. Anm. d. Übers.]

Abbildung 2: Laterit

Im Grunde existiert der Regenwald nur, weil er sich selbst immer wieder erneuert. Die Blätter fallen kontinuierlich und verrotten rasch, um den Bäumen wieder Nährstoffe zuzuführen. Die beiden größten natürlichen CO2-Quellen sind die Ozeane und die verrottende Vegetation, das tote organische Material beim IPCC. Es gibt eine verstörende Analogie zum IPCC-Verfahren in dieser Sequenz. Sie produziert verrottende Daten, mit denen es sich immer wieder erneuert.

Die Menschen in den tropischen Regenwäldern praktizieren eine einheitliche Landwirtschaft, welche den Prozess beschreibt: „slash and burn“ [einschlagen und verbrennen]. Sie roden eine kleine Fläche und verbrennen das Material, um ausreichend Mineralstoffe für ein paar Jahre Getreideanbau betreiben zu können. Dann geben sie das Gebiet auf und lassen die Vegetation auf der geringen Menge zurück gebliebener Mineralien sich regenerieren. Im 20. Jahrhundert scheiterten drei Experimente der Einführung einer großräumigen Landwirtschaft in den tropischen Regenwäldern, hauptsächlich weil man die unerbittliche Unfruchtbarkeit des Bodens ignoriert hatte.

Das erste Experiment war das von Henry Ford, Gummibäume auf Plantagen in Brasilien anzubauen. Im Zentrum dieser Bemühungen lag eine Gemeinde namens Fordlandia. Das zweite gescheiterte Experiment ist bekannt unter der Bezeichnung Groundnut Scheme [Erdnuss-Schema. ,Groundnut‘ ist britisches Englisch für das amerikanische ,peanut‘. Anm. d. Übers.]. Darin involviert war ein Plan der britischen Regierung, die Versorgung mit dem wichtigsten landwirtschaftlichen Produkt der Welt sicherzustellen – Pflanzenöl. Das Experiment begann in Tanganjika (heute Tansania) und dauerte zehn kurze Jahre. Es scheiterte ebenfalls wegen des nährstoffarmen Bodens. Das dritte gescheiterte Experiment beruhte auf einer Idee des amerikanischen Milliardärs Daniel Ludwig. Er glaubte, dass die Kaltklima-Wälder nicht den Bedarf für Papier aus Holz decken konnten. Also veranlasste er eine Anpflanzung einer rasch wachsenden Baumsorte rund um eine Stadt namens Jari, ebenfalls im Amazonas-Becken.

Hier folgt ein Zitat aus einem im Jahre 2017 veröffentlichten Artikel, in dem atemlos verkündet wird:

Eine von brasilianischen und britischen Forschern durchgeführte, in Nature veröffentlichte Studie zeigte, dass Sumpfgebiete im Amazonas-Regenwald Jahr für Jahr zwischen 15 und 20 Millionen Tonen Methan produzieren – das Äquivalent aller Ozeane zusammen.

Hat das IPCC jene Daten bis zum Niveau des Jahres 1750 zurück extrapoliert? Natürlich nicht! Wie die freigesetzte CO2-Menge durch verrottende Vegetation im Amazonas-Regenwald ist es nichts als eine weitere riesige Unbekannte. Die vom IPCC angeführten Zahlen für CO2 aus den Ozeanen und verrottende Vegetation weisen einen Fehlerfaktor auf, der jeder für sich weit über die gesamte menschliche Produktion hinausgeht. Aber dennoch behauptet es, dass die jährliche Zunahme von CO2[-Emissionen?] – nach seinen eigenen Worten – sehr wahrscheinlich (90 bis 100%) für die Zunahme des atmosphärischen CO2 seit 1950 ursächlich ist. Das passt sehr gut zum Trend des Mauna Loa, aber die Messungen und die verwendete Instrumentierung werden von der Keeling-Familie patentiert und kontrolliert, zuerst der Vater und jetzt der Sohn. Diese Messungen sind die Quelle des vom IPCC herangezogenen atmosphärischen CO2-Niveaus. Der Vater war ein glühender Anhänger des Glaubens an das menschliche CO2 als Ursache der Erwärmung, und der Sohn ist Mitglied des IPCC. In einem perversen Twist zur Sicherstellung der Qualität falscher Daten erzeugt das IPCC seine eigenen Schätzungen der jährlichen Erzeugung von menschlichem CO2.

Falls die Ozeane wirklich die hauptsächliche Quelle und Senke für atmosphärisches CO2 sind, warum zeigen sich dann die warmen El Nino-Ereignisse nicht in den Mauna Loa-Aufzeichnungen? In einer Story aus dem Jahr 2015 über El Nino heißt es:

El Nino spielt in diesem Jahr bei vielen Dingen eine Rolle: Nicht nur, dass das Ereignis dazu beiträgt, das Jahr 2015 zum wärmsten Jahr jemals zu machen, sondern auch, dass es eine zentrale Rolle bei der Hurrikan-Aktivität im Pazifik spielt. Außerdem trägt es zu einem wesentlichen weltweiten Korallensterben bei.

Nichts davon hat sich als korrekt erwiesen.

Dem Vernehmen nach war es im Jahre 1998 zu einem starken El Nino gekommen, welcher die globalen Temperaturen auf einen Höhepunkt seit instrumentellen Aufzeichnungen hat steigen lassen. Warum aber zeigt sich diese Wärmespitze nicht in den Aufzeichnungen des Mauna Loa, während doch die jahreszeitliche Variation der Vegetationsbedeckung so klar zum Ausdruck kommt? (Abbildung 3):

Abbildung 3

Man beachte, dass die Quelle dieser Abbildung das Scripps Institute of Oceanography ist. Dort beschäftigt ist auch der Patentinhaber des Mauna Loa Ralph Keeling und des Befürworters des AGW-Alarmismus‘ Naomi Oreske (Abbildung 4). Wo ist die Reflektion der CO2-Zunahme infolge der dramatischen Ozeanerwärmung, verursacht durch den El Nino?

Abbildung 4: Keeling, Oreske und Talley, photographiert bei Scripps nach der Nominierung zum Nobelpreis (Quelle)

Die gesamte AGW-Hypothese ist der größte Betrug der Geschichte. Es kommt nicht überraschend, dass sie auf dem größten Betrug hinsichtlich tatsächlicher Daten beruht. Die offene und eklatante Repräsentation aller Daten in den IPCC-Berichten als reale Daten ist weit mehr als nur beschämend.

Es ist angemessen, dass der 5. IPCC-Zustandsbericht einen Nachruf auf Stephen Schneider enthält. Er versuchte erstmals, den Gedanken zu rechtfertigen, dass Unehrlichkeit eine Voraussetzung war, um die falsche Story über AGW in Umlauf zu bringen. Er hatte im Jahre 1989 ausgeführt:

Einerseits sind wir als Wissenschaftler ethisch der wissenschaftlichen Methode verpflichtet, die Wahrheit zusagen, die ganze Wahrheit und nichts als die Wahrheit. Das bedeutet, dass wir alle Zweifel, Schwächen, Unsicherheiten usw. ansprechen müssen. Andererseits sind wir aber nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen wollen wir die Welt zu einem besseren Ort machen, was in diesem Zusammenhang bedeutet, dass unsere Arbeit darauf ausgerichtet sein muss, das Risiko eines potentiell gefährlichen Klimawandels zu reduzieren. Um das zu erreichen müssen wir uns um breit angelegte Unterstützung kümmern, um der Vorstellung der Öffentlichkeit zu genügen. Das bedeutet natürlich auch eine umfangreiche Berichterstattung in den Medien. Also müssen wir ängstigende Szenarien an die Wand malen; vereinfachende und dramatische Erklärungen abgeben und nicht die Zweifel ansprechen, die wir vielleicht haben. Diese ,doppelte ethische Bindung‘, in der wir uns immer wieder befinden, kann nicht mittels irgendeiner Formel gelöst werden. Jeder von uns muss für sich entscheiden, welches das richtige Gleichgewicht ist zwischen ehrlich und effektiv zu sein. Ich hoffe, dass beides der Fall ist.

Der vorletzte Satz ist falsch, genau wie die Daten des IPCC. Was er in Wirklichkeit meint ist, dass falls man Klimawissenschaft studiert, man sich entscheiden muss ob man ehrlich oder unehrlich sein will. Wir wissen aufgrund der als realistische Daten präsentierten unrealistischen ,Daten‘, für was sie sich entschieden haben.

Link: https://wattsupwiththat.com/2018/06/the-ipcc-never-has-so-much-been-made-out-of-so-little-by-so-many-at-so-great-a-cost/

Übersetzt von Chris Frey EIKE




Überzogene Behaup­tungen bzgl. Temperatur-Rekorden

„Fast niemals wird in diesen alarmistischen Pressemeldungen erwähnt, dass die angebliche Änderung lediglich um ein paar hundertstel Grad von den Messungen zuvor abweicht. Niemals wird erwähnt, dass die Fehlerbandbreite bei diesen Messungen viel größer ist als die angebliche Zunahme. Niemals auch wird erwähnt, dass ein wenig mehr Wärme viel besser wäre als eine kältere Welt mit weniger urbarem Land und kürzeren Wachstumsphasen. Und mit Sicherheit werden niemals die gewaltigen Defizite unseres Wissens über das System erwähnt, welches die Temperaturen der Erde bestimmt … sondern immer werden die Menschen und fossile Treibstoffe für irgendwelche Änderungen verantwortlich gemacht.

Der folgende Beitrag Von Dr. Tim Ball und Tom Harris spricht all diese hoch relevanten, aber oft absichtlich ignorierten Realitäten an“.

—————————-

Nach dem Abklingen allen Geschreis hinsichtlich der Nachricht, dass das Jahr 2017 hinsichtlich der Temperatur eines der wärmsten jemals auf der Erde gewesen ist, ist es an der Zeit, darüber noch einmal in Ruhe und angemessen nachzudenken.

Bedeutet die entsprechende Verlautbarung der NOAA, dass nämlich 2017 das drittwärmste Jahr seit 1880 war, irgendetwas?

Gott sei Dank befinden wir uns in einem graduellen Erwärmungstrend seit dem Tiefpunkt der Kleinen Eiszeit.

Obwohl die Los Angeles Times das Jahr 2017 als ein „Top-3-Hitzejahr für den Planeten Erde“ bezeichnete, sind weder die NASA- noch die NOAA-Rekorde in irgendeiner Weise signifikant. Es ist trivial, dass die wärmsten Jahre auf natürliche Weise während der jüngsten Jahre mit einem Erwärmungstrend auftreten. Und Gott sei Dank befinden wir uns in einem graduellen Erwärmungstrend seit dem Tiefpunkt der Kleinen Eiszeit zum Ende des 17. Jahrhunderts! Damals war die Themse mit meterdickem Eis überzogen, wie das Gemälde „The Great Frost“ von Jan Grifier 1683 illustriert.

Wie auch immer, jüngste Änderungen waren sogar noch zu gering, um selbst von den meisten Thermometern noch erfasst zu werden. Noch wichtiger ist, dass die Änderungen fast durchweg geringer sind als die Schätzungen der Regierung bzgl. Unsicherheiten in den Messungen hergeben. Tatsächlich fehlen uns Daten, um die heutigen Temperaturen angemessen und wissenschaftlich mit den Temperaturen der Vergangenheit zu vergleichen.

Ursache hierfür ist, dass bis Ende der sechziger Jahre die Temperaturdaten mit Quecksilber-Thermometern erfasst worden sind, welche sich an Wetterstationen zumeist in den USA, Europa, Teile der ehemaligen Sowjetunion, Chinas, Japan, UK und Ostaustralien befanden. In fast allen übrigen Gebieten der Welt gab es nur sehr wenige Messpunkte. Und aus keinem der Ozeangebiete der Erde, welche 70% der Erdoberfläche bedecken, gibt es mehr als höchstens gelegentlich einmal eine Messung, tausende Kilometer entfernt von der nächsten Messung.

Die an den so spärlichen Messpunkten gesammelten Daten hatten im besten Falle eine Genauigkeit von ±0,5°C. In den meisten Fällen lag die Genauigkeit sogar nur um ±1°C. Die Mittelung so weniger Daten, um globale Bedingungen zu bestimmen, kann nichts Bedeutsames hervorbringen. Die Darstellung der globalen mittleren Temperatur auf Zehntel- oder sogar Hundertstel Grad genau vergewaltigt eindeutig den gesunden Menschenverstand.

Heute werden Temperaturdaten an Wetterstationen mittels Präzisions-Thermoelementen gemessen. Aber mit Beginn in den siebziger Jahren fanden immer weniger am Boden gemessene Temperaturdaten Eingang in die Plots von NOAA und NASA. Ursprünglich hatte man nämlich gedacht, dass Satelliten-Monitoring die Daten besser erfassen kann.

Aber leider haben die Satelliten die gewünschte Erwärmung in keiner Weise gezeigt, weshalb Bürokraten die meisten der kälteren Messpunkte ausgesondert haben, um die gewünschte Erwärmung doch noch zu bekommen.

Dass die Satelliten die von den Computermodellen prophezeite Erwärmung, welche so entscheidend für Klima-Studien und Energiepolitik war, nicht zeigten, war den Bürokraten ein Dorn im Auge. Also schlossen diese die kälteren ländlichen Stationen – also die am weitesten von wärmeren Stadtgebieten entfernt liegenden Stationen – und konnte so doch noch die gewünschte Erwärmung vorweisen, ausschließlich für politische Zwecke.

Heutzutage gibt es praktisch keine Daten aus etwa 85% der Erdoberfläche. Tatsächlich werden heute weniger Stationen betrieben als im Jahre 1960.

Berechnungen von NOAA und NASA nach etwa 1980 sind bedeutungslos

Dies bedeutet, dass Temperatur-Berechnungen von NOAA und NASA nach dem Jahr 1980 bedeutungslos sind. Kombiniert man diesen Umstand mit den Problemen früherer Daten, ergibt sich eine unvermeidliche Schlussfolgerung: Es ist unmöglich festzustellen, wie die so genannte mittlere globale Temperatur über die vergangenen eineinhalb Jahrhunderte hinweg variiert hat.

Die Daten sind daher nutzlos, um als Input für Computermodelle zu dienen. Und doch bilden diese die Grundlage der politischen Empfehlungen des IPCC, und sie werden oftmals herangezogen, um die Eliminierung fossiler Treibstoffe zu rechtfertigen und diese durch erneuerbare Energie zu ersetzen.

Aber mit dem Fehlen geeigneter Daten von der Erdoberfläche fängt das Problem erst an. Die Computermodelle, auf welchen die Klima-Angst fußt, sind mathematische Konstruktionen, welche den Input von Daten über der Oberfläche erfordern, ebenso wie solche an der Oberfläche. Die Modelle unterteilen die Atmosphäre in übereinander gestapelte Würfel, idealerweise mit den Verhältnissen von Wind, Feuchtigkeit, Wolkenbedeckung und Temperatur in verschiedenen geographischen Breiten. Aber gegenwärtig gibt es über der Oberfläche sogar noch weniger Daten als von der Oberfläche, und definitiv gibt es aus höheren Schichten keine historischen Daten.

Viele Menschen glauben, dass der Planet gleichmäßig von Satelliten-Beobachtungen erfasst wird; Daten, welche global über 24 Stunden an 7 Tagen der Woche gemessen werden. Dies soll weitaus genauer sein, als irgendetwas an Wetterstationen Gemessenes. Aber die Satelliten können keine Daten aus den Polargebieten erfassen, also aus Gebieten, welche das IPCC, die NOAA und die NASA als so entscheidend für das Verständnis der globalen Erwärmung hinaus posaunen. Außerdem begannen Temperaturaufzeichnungen via Satellit erst im Jahre 1979, und 30 Jahre mit Wetterdaten sind erforderlich, um auf einer Klimagraphik nur einen einzigen Datenpunkt zu erzeugen.

Folglich sind die Satelliten-Aufzeichnungen viel zu kurz, um brauchbare Schlussfolgerungen hinsichtlich Klimawandel ziehen zu können.

Tatsächlich weisen alle Daten große Unzulänglichkeiten auf – Temperatur, Land- und Meereis, Gletscher, Meeresspiegel, Extremwetter, Ozean-pH und so weiter –, so dass es unmöglich ist zu sagen, wie sich das heutige Klima von dem der Vergangenheit unterscheidet. Angesichts des Fehlens so grundlegender Daten haben die von den Klimaaktivisten ausgegebenen Prophezeiungen keinerlei Bezug zur realen Welt.

Der britische Professor Hubert Lamb wird oftmals als der Begründer der modernen Klimatologie angesehen. In seiner umfassenden Abhandlung aus dem Jahr 1972 mit dem Titel Climate: Past, Present and Future zeigt er eindeutig, dass man Klimawandel unmöglich verstehen kann ohne große Mengen genauer Wetterdaten über lange Zeiträume. Lamb schreibt auch, dass die Finanzierung der Verbesserung der Datengrundlage verschwindend gering war im Vergleich zu den Geldern, welche für Computermodelle und Theoretisierungen ausgegeben worden sind. Er warnte, dass dieser Umstand zu wilden und gehaltlosen Theorien und Behauptungen führen wird, während sich Prognosen nicht verbessern. Und genau das ist ja auch geschehen.

Jede einzelne Prophezeiung seitens der vom IPCC verwendeten Computermodelle hat sich ohne eine einzige Ausnahme als falsch erwiesen.

Tatsächlich lagen die ersten ihrer Prognosen für den 1. IPCC-Zustandsbericht so meilenweit von der Realität entfernt, dass das Gremium diese Prophezeiungen „Projektionen“ zu nennen begann. Mit ihnen wurden niedrige, mittlere und hohe „Vertrauens“-Intervalle für zukünftige Prophezeiungen angeboten. Dennoch haben Journalisten, Politiker und Andere diese als absolut zuverlässige Prognosen für zukünftiges Wetter und Klima ausgegeben.

IPCC-Mitglieder scheinen zu folgern, dass – sofern nur die Bandbreite für Vorhersagen groß genug ist – diese schon stimmen werden. Aber selbst das war zu optimistisch. Alle drei vom IPCC prophezeiten Bandbreiten haben sich als falsch herausgestellt.

Der neue EPA-Chef Scott Pruitt hat recht, wenn er von dem Recht der Öffentlichkeit auf eine offene und umfassende öffentliche Debatte spricht – unter Wissenschaftlern über die Gründe und Konsequenzen des Klimawandels. In einem Fernsehinterview vom 6. Februar erklärte Mr. Pruitt:

„Es gibt viele sehr wichtige Fragen bzgl. des Themas Klima, welche sich den Menschen nicht richtig erschließen. Und das ist einer der Gründe, warum ich von einer ehrlichen, offenen, transparenten Debatte spreche über das, was wir wissen und was wir nicht wissen. Damit kann sich die amerikanische Bevölkerung informieren und anfangen, eigene Entscheidungen unter Berücksichtigung dieser Dinge zu treffen“.

Am 3. Januar erklärte Pruitt vor dem Senate Environment and Public Works Committee, dass man über „ein rotes und ein blaues Team“, also eine von der EPA gesponserte Debatte nachdenkt zwischen Klimawissenschaftlern mit unterschiedlichen Standpunkten. Es ist von entscheidender Bedeutung, dass es zu einer solchen Debatte kommt.

Die meisten der den Klima-Befürchtungen zugrunde liegenden Hypothesen sind entweder zweifelhaft oder schlicht und ergreifend falsch.

Der Öffentlichkeit muss genau dieser Punkt vor Augen geführt werden! Die Kampagne, welche Amerika, Kanada, Europa und den Rest der Welt vom Verbrauch reichlicher und bezahlbarer Kohle und anderer fossiler Treibstoffe wegführen soll – hin zu teuren, unzuverlässigen und land-intensiven Alternativen, um das sich ewig ändernde Klima der Erde vermeintlich zu kontrollieren – wird sich dann als das herausstellen, was sie wirklich ist: der größte und schädlichste Betrug aller Zeiten.

—————————-

Dr. Tim Ball ist Umweltberater und ehemaliger Professor der Klimatologie an der University of Winnipeg in Manitoba. Tom Harris ist Direktor der in Ottawa ansässigen Denkfabrik International Climate Science Coalition.

Link: https://www.iceagenow.info/overheated-claims-temperature-records/

Übersetzt von Chris Frey EIKE




Nach dem ,Katastrophen­signal‘ – als die Wissen­schaft das politische Treib­haus betrat

Wie zaghaft auch immer die Wortwahl sein mag, dies war das erste Mal, dass ein offizieller Bericht eine positive ,Erkennungs‘-Behauptung aufgestellt hatte.

Der Durchbruch wurde weit verbreitet gefeiert und dann als Rechtfertigung für eine Änderung der Politik der USA herangezogen, nämlich hin zu einer Unterstützung bindender Ziele hinsichtlich der Emission von Treibhausgasen.

Aber dies erfolgte erst nach Protesten gegen das, was man mit dem IPCC-Bericht gemacht hatte, um den Weg für dieses Statement frei zu machen. Nur Tage vor der Verkündung der Änderung der US-Politik beschrieb ein Op-Ed des führenden US-Wissenschaftlers Frederick Seitz das späte Entfernen skeptischer Passagen als einen ,grundlegenden Betrug‘ und eine ,verstörende Korrumpierung des Begutachtungs-Prozesses‘, wobei Politiker und die Öffentlichkeit in den Glauben fehlgeleitet worden sind, dass ,wissenschaftliche Beweise belegen, dass menschliche Aktivitäten eine globale Erwärmung verursachen‘.

Für Seitz und Andere war der Verantwortliche für den Betrug schnell ausgemacht: Ben Santer, der koordinierende Autor des ,Betrugs‘-Kapitels. Obwohl es tatsächlich Santer war, der diese Änderungen vorgenommen hatte, ist inzwischen klar, dass er nicht allein gehandelt hat. Stattdessen scheint es eine konzertierte Kampagne gegeben zu haben, wissenschaftliche Ergebnisse zu ändern, so dass sie als Rechtfertigung für die Änderung der US-Politik herangezogen werden konnten.

Am deutlichsten wird dies belegt durch die offizielle Unterwerfung der US-Regierung unter das IPCC. Eigentlich sollten damit nur Änderungen der Ausdrucksweise der Summary des Reports bewirkt werden, aber die Unterwerfung zeigt, dass Washington Druck auf das IPCC ausgeübt hatte, das zugrunde liegende wissenschaftliche Kapitel zu ändern. Mit dem Druck wurden jüngste Ergebnisse gefordert hinsichtlich der Auswirkungen von Sulphat-Aerosol-Emissionen, welche die Behauptung der Entdeckung dieser ,smoking gun‘ rechtfertigen sollten, und für die Entfernung der Aussagen bzgl. der Unsicherheiten, die dem im Wege standen.

Die Unterwerfung wurde von Robert Watson geschrieben, einem britischen Chemiker, der kurz zuvor eine Stellung im Weißen Haus bezogen hatte. Zuvor war er noch bei der NASA und stand dort im Zentrum einer früheren Angsterzeugung – nämlich der Zerstörung der Ozonschicht – wo er eine geschickte Hand bzgl. Public Relation an den Tag legte, Angst erzeugende Stories in den Schlagzeilen zu halten, um Druck auszuüben hinsichtlich eines kompletten Verbots von CFCs. Bis zum Jahr 1989 hatten sich die Bedenken hinsichtlich eines Ozon-,Loches‘ über der entfernt liegenden Antarktis bereits verflüchtigt, aber unmittelbar vor einer ,Rettet-die-Ozonschicht‘-Konferenz erklärte Watson, dass das arktische Ozon während der nächsten Tage ,an der Schwelle einer großflächigen Zerstörung‘ stehen würde.

Watson wusste nur zu gut, dass es praktisch keine Chance auf ein ,Loch‘ im Norden gab, aber seine Warnung zeitigte den gewünschten Effekt. Sie fand sich in den Schlagzeilen auf der ganzen Welt und beeinflusste zweifellos die Entscheidung der Europäer, die gesamte Produktion von CFCs einzustellen.

Die Fähigkeit der Wissenschaftler, politische Maßnahmen zu katalysieren, blieb nicht unbemerkt. Zum Zeitpunkt des ,Erdgipfels‘ von Rio im Jahre 1992 hatte sich die politische Aufmerksamkeit der Regulierung fossiler Treibstoffe zugewandt, und viele Delegierte der Länder hatten sich hinter George Bush Senior gestellt, um eine Konvention zu unterzeichnen, genau das zu tun. Immer noch warteten die USA auf bindende Verpflichtungen hinsichtlich Emissionsziele. Im folgenden Jahr lag die Änderung mit dem Einzug von Bill Clinton in das Weiße Haus in der Luft.

Die einzigen Probleme gab es noch mit der Wissenschaft. Es gab immer noch keine belastbaren Beweise, dass Emissionen die Auswirkungen hatten, welche die Modelle zeigten. Tatsächlich hatte sich das IPCC immer weiter zurückgezogen, ein ,Nachweis‘-Ergebnis zu erzeugen. Im ersten Zustandsbericht 1990 fand sich die Warnung, dass ein solcher Nachweis auch in Jahrzehnten nicht geführt werden könnte. Ein Sonderbericht für den Rio-Gipfel war sogar noch skeptischer. Bis zum Jahr 1995 erklärten die Wissenschaftler, dass ,sie nicht wüssten‘, wann ein solcher Nachweis erbracht werden könne. Dies kann kaum drastische Klima-Maßnahmen rechtfertigen.

Der erste Schritt, diese Lage zu verbessern, involvierte eine Behauptung, der zufolge Emissionen von Sulphat-Aerosolen die Erwärmung während der letzten Jahrzehnte gedämpft hätten. So konnten die Klima-Modellierer das Fehlen von Erwärmung erklären, während sie nach wie vor eine zukünftige Katastrophe prophezeiten. Aber immer noch war die Argumentation für einen Nachweis schwach.

Aber dann, zur elften Stunde, machte Santer eine dramatische neue Entdeckung. Die Auswirkung der Aerosole verzerrte die erwartete geographische Verteilung der Erwärmung, und er behauptete, genau diese Verteilung in den Klimadaten gefunden zu haben. Allerdings kam diese Behauptung erst, nachdem sein Kapitel im IPCC-Bericht bereits begutachtet und durchgewunken worden war. Während man zustimmte, die neuen Ergebnisse einfließen zu lassen, gab es scharfe und nachhaltige Kritik seitens seiner Begutachter, und dies erklärt, warum er eine sehr skeptische Schlussfolgerung beibehielt.

Alles, was jetzt noch zu tun übrig blieb war, dass die Delegierten der Länder den Report der Wissenschaftler akzeptieren und einer Zusammenfassung auf einem Treffen in Madrid zustimmen. Aber auf dem Weg zu diesem Treffen sagten die USA in ihrem Kommentaren zu der Summary, dass der Report Änderungen bedarf. Watson unterbreitete spezifische Vorschläge, wie man Santers neue Erkenntnisse für ein Statement bzgl. eines Nachweises gebrauchen könnte. Der Leitbrief des State Department war weniger spezifisch, aber beharrlicher, und forderte, ,dass die Autoren des Kapitels dazu gebracht werden müssen, ihren Text zu modifizieren‘.

In Madrid wurde Santer erneut eingeladen, seine Entdeckung zu erläutern. Als er erklärte, dass sein Kapitel überholt war und Änderungen bedurfte, protestierten die Saudis und die Kuwaitis, dass die neuen Erkenntnisse nur vorläufiger Natur seinen, und sie stellten auch die Redlichkeit der nationalen Delegationen in Frage, den Text des Reports der Wissenschaftler zu ändern. Aber dies wurde als Krittelei und Blockade-Strategie eigennütziger Interessen verworfen; die von den USA gewünschten Änderungen wurden vorgenommen.

Viele Jahre später veröffentlichte Houghton eine Reflektion des Treffens in Madrid unter der Rubrik ,Treffen, welche die Welt veränderten‘. Seiner Ansicht nach hätten globale Maßnahmen bzgl. des Klimawandels ohne diesen Triumph der Wissenschaft über die Öl-Lobby kaum Eingang gefunden in den Klimavertrag von Kyoto zwei Jahre später. Houghton zufolge rettete die Passage des berühmten ,erkennbaren menschlichen Einflusses‘ den Vertragsprozess. Deren Auswirkungen auf spätere Ereignisse ist kaum zu übersehen. Aber was nicht so bekannt ist: diese von der Politik vorgegebenen Ergebnisse retteten auch das IPCC.

————————————-

Das Buch von Bernie Lewin über die Ursprünge der Globale-Erwärmungs-Angst mit dem Titel [übersetzt] „Auf der Suche nach dem Katastrophen-Signal“ [Searching for the Catastrophe Signal] wird von der Global Warming Policy Foundation veröffentlicht.

Link: https://wattsupwiththat.com/2017/11/24/after-the-catastrophe-signal-when-science-entered-the-policy-greenhouse/

Übersetzt von Chris Frey EIKE




Brief an UBA und BUMB

Die Hypothese von der „menschengemachten gefährlichen Klima-Erwärmung“ entstand in den 80er-Jahren als Folge von gleichzeitigem CO2-Anstieg und Temperaturanstieg und wurde von einigen Klimatologen und den Medien begeistert verbreitet. Endlich wieder eine neue Katastrophe (nachdem aus dem „Waldsterben nichts geworden war).

 Hatte man doch gerade die schönen Schlagzeilen von der „kommenden Eiszeit“ aufgeben müssen, als die globale Abkühlung zwischen 1940 und 1970 zu Ende ging. Dass diese Abkühlung trotz CO2-Anstieg stattfand, wurde ignoriert und unterdrückt, denn das störte natürlich bei der neuen Erwärmungs-Theorie.

Schnell wurde das IPCC (Intergovernmental  Committee  for Climate Change) gegründet, der dann durch pseudowissenschaftliche „Klimamodelle“ den erwarteten Anstieg der Globaltemperatur berechnete.

Das war außerordentlich naiv, denn diese Modelle beruhten auf einer Annahme für die CO2-Sensitivität von 1979 und diese konnte bis heute nicht verifiziert werden. Die Tatsache, dass es dann aber nach 1998 keinen weiteren globalen Temperaturanstieg mehr gab, war natürlich für die Klima-Alarmisten und die Medien sehr enttäuschend und wurde weitgehend unterdrückt. Was nicht sein darf, das nicht sein kann. Das Klima hat „menschengemacht“ zu sein. Basta. Glauben ist wichtiger als die Fakten in unserer „postfaktischen Zeit“. Hinzu kamen der „Kampf gegen den Kapitalismus“ und das alte Motto „der Mensch ist schuldig von Geburt an, egal für was“. Es entwickelte sich eine Art pseudoreligiöser Wahn oder idiologische Obsession zur Rettung unseres Planeten und der „Zukunft unserer Kinder“. 

Der fundamentale Fehler, den das IPCC und einige Klimaforscher machten, war die Ignoranz der natürlichen Klimazyklen, wie sie seit Jahrtausenden und Jahrmillionen regelmäßig stattfanden – auch schon (unglaublich !!) vor Existenz der Menschheit.

Man könnte das durchaus als Bestätigung der von Albert Einstein damals definierten “ unendlichen menschlichen Dummheit” betrachten. Natürlich kann man nicht erwarten, dass bei allen Menschen etwas von der Klima-Historie der Erde bekannt ist, aber dessen Ignoranz der natürlichen Fakten durch viele (auch deutsche) Klimaforscher und das IPCC ist schon sehr seltsam.

Die ideologisch und politisch hochgespielte „Erwärmungphase“ der letzten zwei Jahrzehnte ist nichts anderes als das erneute Maximum des tausendjährigen natürlichen Klimazyklus‘ , wie er seit 9000 Jahren (nach dem Ende der letzten Eiszeit) regelmäßig alle 1000 Jahre aufgetreten ist. Nur gab es früher noch keine katastrophensüchtige Mediengesellschaft.

Das IPCC begründet seine CO2-Hypothese nicht mit Fakten, sondern mit “ confidence”, d.h. Vertrauen oder Glauben. Nur ist dies eher Religion oder Ideologie zuzuordnen als Wissenschaft. Jede Theorie muss in der Wissenschaft durch konkrete Beweise gesichert werden, sonst bleibt es eine Annahme oder Idee.

Ein globaler Temperaturanstieg bewirkt zweifellos einen Anstieg des CO2-Niveaus durch Ausgasung aus den Ozeanen (weil Wasser bei höherer Temperatur weniger CO2 gelöst haben kann). Und das geschah in der Vergangenheit mehrfach bis zu 6000 ppm (heute 400 ppm).  Nur ein umgekehrter Effekt (d.h. Temperaturanstieg durch mehr CO2) konnte auf Basis der Eiskernbohrungen in Grönland und in der Antarktis nicht beobachtet werden.

Im Gegensatz zu der Hypothese über den angeblichen CO2-Einfluss auf das Globalklima zeigt eine Analyse der Klima-Vergangenheit keine  nennenswerten Einfluss von CO2.  Auch gibt es schon seit 1998 keinen “ Klimawandel” oder globalen Temperaturanstieg mehr; stattdessen den “Stillstand oder neudeutsch “hiatus”, auch wenn mit allen Mitteln von den interessierten Kreisen versucht wird, diese Tatsache zu leugnen oder zu vertuschen.

Dr. Dietrich E. Koelle, Okt.2017

  

Kein maßgeblicher Politiker in Deutschland hat die inszenierte Klima-Hysterie erkannt und kritisiert – mit einer Ausnahme: Altkanzler Helmut Schmidt sagte dazu am 4.Juni 2007 : „Klimatischen Wandel hat es auf der Erde gegeben, seit es sie gibt. Und sich darüber aufzuregen und zu meinen, der Mensch könnte diesen Wandel durch gemeinsamen Beschluss aufhalten, das ist reine Hysterie, das ist dummes Zeug.

 

 

Klima-Paranoia

 

Das Erneuerbare-Energien-Gesetz (EEG) ist ein Musterbeispiel dafür, was geschieht, wenn inkompetente Politiker ihre realitätsfremden Träume von einer schönen neuen Energiewelt von wehrlosen Bürgern bezahlen lassen. Aus dem Wahn, das Weltklima am deutschen Wesen genesen zu lassen, werden Milliarden in hierzulande nutzlose Technologien wie die Fotovoltaik gesteckt.

 

Professor Dr.-Ing. Jürgen Althoff, früherer Vorstandsvorsitzender TÜV Saarland),

St-Wendel/Saar

WirtschaftsWoche, Nr. 52, 24. Dezember 2010

 

 

 

BMWU, UBA (mit Chefs)   14.10.

Bethke




RT Deutsch Exklusiv zum Klimawandel: Prof. Dr. Kirstein „CO2 ist harmlos“

In dem Gespräch mit Maria Janssen von RT Deutsch erklärt Kirstein auf welche Erkenntnisse er im Rahmen seiner Forschungsarbeit gestoßen ist und warum die Öffentlichkeit den Bericht vom Intergovernmental Panel for Climat Change unbedingt hinterfragen sollte.

Video des Interviews von RT Deutsch Reporterin Maria Janssen und Prof. Dr. Werner Kirstein Universität Leipzig

Kirstein stellt sich mit seinen Thesen gegen den weit verbreiteten Konsens in den Wissenschaften, die den Klimawandel als von Menschen verursacht ansehen.

Kirstein stellt sich mit seinen Thesen gegen den weit verbreiteten Konsens in den Wissenschaften, die den Klimawandel als von Menschen verursacht ansehen.
Mehr auf unserer Webseite: https://deutsch.rt.com/




Und noch eine Schätzung einer sehr geringen Klima-Sensitivität

Wie versprochen schreiben wir hier etwas über eine weitere veröffentlichte Schätzung der Gleichgewichts-Klimasensitivität der Erde, welche am unteren Ende der vom IPCC genannten Bandbreite der Möglichkeiten liegt.

Man erinnere sich, dass die Gleichgewichts-Klimasensitivität bestimmt, wie stark die Temperatur der Erde steigen wird bei einer Verdoppelung der vorindustriellen atmosphärischen CO2-Konzentration. Als solcher ist es möglicherweise DER wichtigste Faktor bei der Entscheidung, ob wir „etwas tun müssen“, um einen zukünftigen Klimawandel abzuschwächen. Geringere Sensitivität bedeutet geringere Dringlichkeit, und falls die Sensitivität gering genug ist, ergeben sich aus CO2-Emissionen insgesamt nur Vorteile.

Und trotz der allgemeinen Behauptung, dass „die Wissenschaft settled“ sei, wenn es um die globale Erwärmung geht, erfahren wir immer noch täglich mehr über das komplexe Klimasystem der Erde – und je mehr wir erfahren, umso schwächer scheint die Reaktion der Temperatur auf menschliche CO2-Emissionen zu sein.

Die jüngste Studie, in der eine geringe Klimasensitivität berechnet wird, stammt von dem unabhängigen Wissenschaftler Nic Lewis. Die Veröffentlichung der Studie im Journal of Climate ist geplant. Lewis‘ Studie ist eine mathematisch ziemlich komplizierte Reanalyse einer früheren, ebenfalls mathematisch komplizierten Analyse, welche die gemesse globale Temperaturänderung in Übereinstimmung bringt mit der simulierten Temperaturänderung eines einfachen Klimamodells mit einem konfigurierbaren Satz von Parametern, deren tatsächliche Werte weitgehend unbekannt sind, die aber in Modellsimulationen eingehen können: Indem man die Werte dieser Parameter in den Modellen variiert und dann schaut, wie gut die sich ergebende Temperatur zu den Beobachtungen passt, kann man Hinweise darauf bekommen, welches die Werte dieser Parameter in der realen Welt sind. Und der am meisten interessierende Parameter ist die Gleichgewichts-Klimasensitivität. Lewis‘ Studie enthält auch zusätzliche Modelljahre und zusätzliche Jahre mit Messungen einschließlich vieler Jahre während des gegenwärtigen Temperatur-„Stillstandes“.

Wir haben nun etwas in ähnlichem Stil gemacht und es bereits im Jahre 2002 veröffentlicht. Wir waren damals zu dem gleichen Ergebnis gekommen wie Lewis heute: eine substantiell geringere Erwärmung. Wir wurden angemessen „belohnt“ ob unserer Bemühungen seitens der Klimagate-Mafia. Diese hatte versucht, 1) die Studie zurückzuziehen, 2) die Herausgeber zu feuern – nicht nur von dem Journal, sondern gleich von der Auckland University und 3) eine Nachuntersuchung anzustrengen meines (Michaels) PhD von der University of Wisconsin.

Lewis folgert, dass die mittlere Schätzung der Gleichgewichts-Klimasensitivität 1,6°C beträgt

mit einer Bandbreite von 90% zwischen 1,0°C und 3,0°C. (Das ist fast genau der gleiche Wert, zu dem wir vor 11 Jahren gekommen waren).

Auf der Grundlage dieses Ergebnisses heißen wir die Studie von Lewis (2013) auf der wachsenden Liste von Ergebnissen willkommen, welche in der wissenschaftlichen Literatur seit dem Jahr 2010 veröffentlicht worden waren und die eine Klimasensitivität am unteren Ende der vom IPCC genannten Bandbreite zeigen. Gott weiß, welche Inhalte die Climategaters jetzt austauschen.

Abbildung 1 illustriert alle neuen Ergebnisse ebenso wie die vom IPCC genannten Werte:

Man beachte besonders die neuen Ergebnisse (und deren Mittel) in Relation zu dem schwarzen Balken oben mit der Bezeichnung „IPCC AR5 Climate Models”. Von den 19 hypermodernen Klimamodellen, welche in den neuesten, noch im Entwurfsstadium befindlichen Zustandsbericht Eingang finden, zeigen genau NULL Modelle eine Gleichgewichts-Klimasensitivität, die ähnlich niedrig ist wie der mittlere Wert der Schätzungen in der neuen Literatur, die wir in unserer Abbildung zeigen.

Auf der Grundlage der in Abbildung 1 gezeigten Sammlung von Ergebnissen ergibt sich: die Projektionen zukünftiger Klimaänderungen, die demnächst vom IPCC veröffentlicht werden, weichen im Mittel um atemberaubende 70% vom IPCC-Wert ab.

Kein Wunder, dass das IPCC so zögerlich ist, ihr Best Estimate des tatsächlichen Wertes der Gleichgewichts-Klimasensitivität der Erde zu senken. Falls es das tun würde, würden sie einräumen, dass die von ihnen gewählte Masse der Klimamodelle zur Projektion des zukünftigen Klimas der Erde – nun, sollen wir es so sagen – falsch! sind … was bedeutet, dass dies auch für die Rate gilt, mit welcher der Himmel herabfällt, jedenfalls nach USGCRP und der EPA in den USA.

Wir am Cato Center for the Study of Science werden fortfahren mit unseren Bemühungen, den sich entwickelnden Zustand der Klimawissenschaft zu beleuchten und die Möchtegern-Mächte zu überzeugen versuchen, dass nationale und internationale Abschätzungen, auf denen die EPA-Vorschriften beruhen, (ebenso wie verrückte Forderungen nach einer Kohlenstoff-Steuer), so grandios falsch sind. Wir haben es in unserer Begutachtung vom 12. April der „National Assessment“ der USGCRP so ausgedrückt: „Die Nationale Klima-Abschätzung wird am Tag ihrer offiziellen Veröffentlichung obsolet sein“.

References:

Aldrin, M., et al., 2012. Bayesian estimation of climate sensitivity based on a simple climate model fitted to observations of hemispheric temperature and global ocean heat content. Environmetrics, doi: 10.1002/env.2140.

Annan, J.D., and J.C Hargreaves, 2011. On the genera­tion and interpretation of probabilistic estimates of climate sensitivity. Climatic Change, 104, 324-436.

Hargreaves, J.C., et al., 2012. Can the Last Glacial Maximum constrain climate sensitivity? Geophysical Research Letters, 39, L24702, doi: 10.1029/2012GL053872

Intergovernmental Panel on Climate Change, 2007. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Solomon, S., et al. (eds). Cambridge University Press, Cambridge, 996pp.

Lewis, N. 2013. An objective Bayesian, improved approach for applying optimal fingerprint techniques to estimate climate sensitivity. Journal of Climate, doi: 10.1175/JCLI-D-12-00473.1.

Lindzen, R.S., and Y-S. Choi, 2011. On the observational determination of climate sensitivity and its implica­tions. Asia-Pacific Journal of Atmospheric Science,47, 377-390.

Michaels, P.J., et al., 2002. Revised 21st century temperature projections. Climate Research, 23, 1-9.

Ring, M.J., et al., 2012. Causes of the global warming observed since the 19th century. Atmospheric and Climate Sciences, 2, 401-415, doi: 10.4236/acs.2012.24035.

Schmittner,  A., et al. 2011. Climate sensitivity estimat­ed from temperature reconstructions of the Last Glacial Maximum. Science, 334, 1385-1388, doi: 10.1126/science.1203513.

van Hateren, J.H., 2012. A fractal climate response function can simulate global average temperature trends of the modern era and the past millennium. Climate Dynamics,  doi: 10.1007/s00382-012-1375-3.

Link: https://www.cato.org/blog/still-another-low-climate-sensitivity-estimate-0

Übersetzt von Chris Frey EIKE




Neu aufgelegt: „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde – Ein IPCC-Exposé“,

Die kanadische Journalistin und Bloggerin Donna Laframboise hat vor einigen Jahren die Korruption im IPCC – dem sogenannten „Weltklimarat“ – akribisch analysiert („Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurdeEin IPCC-Exposé“, ISBN 978-3-940431-33-2, 220 S., 19,90 EUR (D)). Dieses Buch erschien 2012/13 als zweiter Band der EIKE-Schriftenreihe auf Deutsch und war lange vergriffen. Jetzt ist es aufgrund der hohen Nachfrage in einer überarbeiteten Version wieder erhältlich.

Denn das IPCC genießt noch immer ein viel zu großes Ansehen. Ständig heißt es, dessen Veröffentlichungen entsprächen höchsten wissenschaftlichen Standards. Von den IPCC-Autoren als den besten Fachleuten der Welt ist die Rede. Donna Laframboise hat gezeigt, dass das keineswegs der Fall ist. Deshalb verglich sie das Gremium mit einem unerziehbaren Jugendstraftäter. Einer der interessantesten Abschnitte des Buches ist die akribische Untersuchung aller 18.531 Quellen des 4. IPCC-Sachstandsberichts durch die Autorin und ihr Team. Im folgenden veröffentlichen wir exklusiv einige Abschnitte des Buches, das übrigens direkt über den Link auf der rechten Seite dieser Webseite (und überall im Buchhandel) bestellt werden kann.

 

(Kapitel 3) Weltklassewissenschaftler und Spitzenfachleute?

 

Die Autoren der IPCC-Berichte sind die Crème de la Crème. Jeder sagt das. Auch Rajendra Pachauri, IPCC-Vorsitzender seit 2002. 2007 erklärte er gegenüber einer Zeitung, wie seine Organisation die Menschen auswählt, die an der Klimabibel mitschreiben: „Das sind Menschen, die aufgrund ihrer wissenschaftlichen Laufbahn ausgewählt wurden, aufgrund ihrer Publikationsliste, aufgrund ihrer Forschungen. […] Das sind die Spitzen ihres Fachs.“[1]

Zwei Jahre später sagte er vor einem Ausschuss des US-Senats aus, dass „alle vernunftbegabten Men­schen“ von den IPCC-Schluss-folgerungen überzeugt sein sollten, weil seine Organisation die „besten Talente aus der ganzen Welt“ mobilisiert.[2]

Ob er nun in Österreich oder in Australien ein Interview gibt oder über sich selbst spricht, Pachauri meint stets, er „kann sich keine bessere Kombination qualifizierter Menschen“ für das Verfassen der IPCC-Berichte vorstellen.[3] Bei diversen Gelegenheiten äußerte er, das IPCC bestehe aus:

  • Tausenden der besten Wissenschaftler,[4]
  • dem weltweit besten wissenschaftlichen Sachverstand,[5]
  • fast viertausend der besten Spezialisten der Welt.[6]

Damit steht er nicht allein. Auch Robert Watson, fünf Jahre lang Pachauris Vorgänger im Amt, behauptete, das IPCC würde „Tausende von Spitzenfachleuten aus der ganzen Welt“ beschäftigen.[7] Die Medien haben es immer wieder nachgeplappert.

Solche Behauptungen sind dumme Sprüche. Denn eines gleich zu Beginn: Einige der weltweit erfahrensten Fachleute blieben außen vor. So erklärte William Gray, ein Atmosphärenwissenschaftler der Colorado State University, 2005 einem Ausschuss des US-Senats: „Trotz meiner 50-jährigen wissenschaftlichen Erfahrung mit Meteorologie und meiner langjährigen Befassung mit saisonalen Orkan- und Klimavorhersagen wurde ich nie um einen Beitrag zu einem der [IPCC-] Berichte gebeten.“ Warum wurde er nicht zur Party eingeladen? Als Grund gab er seine Überzeugung an, der Klimawandel würde keineswegs mehr (oder stärkere) Wirbelstürme verursachen: „Die kennen meine Ansichten und wollen sich nicht damit auseinandersetzen.“ [8]

Sechs Monate vor Grays Aussage hatte ein Experte von der anderen Seite des Atlantiks seine Bedenken vor einem Ausschuss des britischen Oberhauses geäußert.

Paul Reiter weiß wenig über Atmosphärenwissenschaft. Doch womit er sich auskennt, ist ein Fachgebiet, auf das er sich seit über 40 Jahren spezialisiert hat – von Moskitos übertragbare Krankheiten. Ihm zufolge sind die Autoren, die über diese Krankheiten in der Klimabibel geschrieben haben, keine Experten.

Obwohl ein großer Teil des Gesundheits-Kapitels der Ausgabe von 1995 der Malaria gewidmet war, machte Reiter deutlich, dass „keiner der Leitautoren jemals eine Forschungsarbeit zu diesem Thema veröffentlicht hatte!“ Nur jemand mit begrenztem Fachwissen hätte seiner Meinung nach eine solche „amateurhafte“ Arbeit abliefern können.

So behauptete die Klimabibel, dass die Moskitos, die Malaria übertragen, normalerweise nicht in Gebieten überleben, wo die Wintertemperaturen unter 16 °C fallen. Das, so Prof. Reiter, ist Unsinn. Heute verbinden wir Malaria mit den Tropen, doch sind Armut und das Fehlen medizinischer Versorgung wichtigere Faktoren. Hawaii, Aruba und Barbados sind allesamt tropische Gebiete, doch Malaria ist dort kein Problem. Andererseits sind im 19. Jahrhundert in Nordamerika, Europa und sogar Sibirien Tausende an Malaria gestorben.[9]

Das gleiche spielte sich bei den Meeresspiegelhöhen ab. Der ehemalige Vorsitzende der Kommission über die Veränderung des Meeresspiegels, Prof. Nils-Axel Mörner, sagte ebenfalls vor dem britischen Oberhaus aus. Mörner, der eine 40jährige Erfahrung auf diesem Fachgebiet vorweisen kann, wies auf die Unterschiede in den Auffassungen zwischen den Fachleuten zum Thema Meeresspiegel und den IPPC-Autoren hin. Letztere, sagte er, besäßen über keinerlei greifbare Erfahrung. Stattdessen ver­suchten sie, die Zukunft mit Hilfe von mathematischen Formeln und Computern vorherzu­sagen (Computer-Modellierung).

Mörner berichtete dem Oberhaus, dass zwischen 1999 und 2003 fünf internationale Tagungen von echten Meeresspiegel-Experten stattgefunden hätten, auf denen die verfügbaren weltweiten Belege diskutiert worden wären. Das Ergebnis war die Schlussfolgerung, dass der Meeresspiegel bis 2010 um kaum mehr als 10 Zentimeter steigen würde. Mörner meinte, die Behauptungen vom raschen Anstieg des Meeresspiegels und von der unmittelbaren Gefahr einer Überflutung ganzer Inselstaaten wären einfach unwahr.

Der Hurrikan-Experte Prof. Gray lebt in Amerika. Der Malaria-Experte Prof. Reiter wirkt am Pasteur-Institut in Paris. Bei Prof. Mörner handelt es sich um den ehemaligen Leiter des Fachbereichs Geodynamik an der Universität Stockholm.

Alle drei besitzen hoch spezialisiertes Wissen. Alle drei sind echte Fachleute mit langjähriger Erfahrung auf ihrem Fachgebiet. Sie sind mit anderen Worten genau die Sorte von Menschen, die man im Zentrum einer Organisation von Weltklasse-Wissenschaftlern, die sich mit einer der wichtigsten Fragen zur Zukunft unseres Planeten beschäftigt, erwarten würde.

Doch sie gehören nicht zum IPCC. Es liegt also nahe, dass das IPCC unter „Spitzenwissenschaftlern“ und „besten Fachleuten“ etwas anderes versteht als die meisten von uns.

 

(Kapitel 4) Wissenschaftler-Nachwuchs unter Dreißig

 

Wenn also Malaria-Experten nicht den Malaria-Teil und weltbekannte Meeresspiegel-Experten nicht den Meeresspiegelteil der Klimabibel schreiben, wer schreibt dann die IPCC-Berichte?

Eine Gruppe sind graduierte Studenten (Doktoranden und MA-Studenten), vom Lebensalter her typischerweise Mittzwanziger. Deren Welterfahrung ist weder breit noch tiefgehend. Wenn sie nur Verwaltungsaufgaben übernehmen würden, ginge das in Ordnung. Doch das IPCC verlässt sich seit langem auch auf ihr fachliches Urteilsvermögen.

Richard Klein, heute Professor für Geografie in den Niederlanden, ist ein gutes Beispiel. 1992 wurde Klein 23 Jahre alt, machte sein Diplom und tat sich als Greenpeace-Aktivist hervor. Zwei Jahre später, im zarten Alter von 25 Jahren, befand er sich bereits unter den IPCC-Leitautoren.

Was bedeutet das? Das IPCC kennt dreierlei Autoren: Koordinierende Leitautoren sind für ein ganzes Kapitel zuständig und stehen rangmäßig am höchsten. Für jedes Kapitel gibt es davon normalerweise zwei. Von den Leitautoren (ohne Attribut!) wird hingegen erwartet, dass sie große Teile des Textes schreiben. Deren Anzahl schwankt zwischen einer Handvoll und mehreren Dutzend. Beitragende Autoren stellen ihr Wissen ergänzend zur Verfügung. Sie nehmen normalerweise nicht an den Besprechungen der beiden anderen Autorenkategorien teil. Sie werden nur gebeten, kurze Beiträge zu einem eng gefassten spezifischen Thema zu liefern. Die einzelnen Kapitel hatten zwischen null und 20 Beitragende Autoren.

Kleins Online-Biografie können wir entnehmen, dass er seit 1994 bei sechs IPCC-Berichten Leitautor war. Dreimal seit 1997 war er Koordinierender Leitautor. Das bedeutet, dass Klein bereits mit 28 Jahren in die ranghöchste Autorenkategorie des IPCC befördert worden war, sechs Jahre vor der Erlangung seines Doktorgrades. Weder seine Jugend noch seine geringen akademischen Meriten hinderten das IPCC, ihn als einen Experten von Weltrang zu betrachten.[10]

Das ist keinesfalls ein Einzelfall. Laurens Bouwer arbeitet derzeit am Institut für Umweltstudien der Freien Universität Amsterdam. Von 1999 bis 2000 war er IPCC-Leitautor, noch bevor er 2001 seinen Master-Grad erwarb.

Wie kann ein junger Mann ohne Master beim IPCC Leitautor sein? Gute Frage, aber nicht die einzige. Bouwers fachliche Qualifikation liegt auf dem Gebiet des Klimawandels und der Wasservorräte. Doch das Kapitel, für das er als erstes als Leitautor tätig war, hatte den Titel „Versicherungen und andere Finanzdienstleistungen“.

Es stellt sich heraus, dass Bouwer 2000 für ein paar Monate Trainee bei der Münchener Rückver­sicherung war. Das bedeutet, dass das IPCC als Leitautor jemanden ausgewählte, der a) Trainee war, b) noch keinen Master hatte und c) noch ein ganzes Jahrzehnt von seiner Promotion (2010) entfernt war.

Wer fällt noch in diese Kategorie?

Da ist zum Beispiel Lisa Alexander. Noch 2008 war diese Frau Forschungsassistentin an der Monash-Universität in Australien. Nach ihrer Promotion 2009 erhielt sie an einer anderen australischen Universität eine Anstellung. Diese Universität erwähnte in der Ankündigung der Anstellung, dass sie bere­its eine „Schlüsselrolle“ bei den Ausgaben der Klimabibel 2001 und 2007 gespielt hätte. (Sie war 2001 Beitragende Autorin und 2007 Leitautorin.)

Das IPCC wählte die 2001er Autoren bereits 1999 aus. Daraus ergibt sich, dass die IPCC-Führung auch Lisa Alexander bereits 10 Jahre vor ihrer Promotion als Weltklasse-Expertin ansah.

Sari Kovats ist derzeit Dozentin an der „London School of Hygiene and Tropical Medicine“. Sie ist ein noch extremeres Beispiel. Erst 2010 wurde sie promoviert. Doch bereits 1994 – 16 Jahre vorher und drei Jahre vor der Veröffentlichung ihres ersten Forschungspapiers – befand sich Kovats bereits unter jenen 21, die weltweit ausgewählt worden waren, um das erste IPCC-Kapitel auszuarbeiten, das sich die möglichen Auswirkungen des Klimawandels auf die menschliche Gesundheit untersuchte. Insgesamt war Frau Kovats zweimal Leitautorin beim IPCC und einmal Beitragende Autorin – lange, bevor sie ihre Dissertation abgeschlossen hatte.

Einer ihrer amerikanischen Kollegen beim Verfassen des Gesundheitskapitels war Jonathan Patz. Seinen Master in „Öffentliches Gesundheitswesen“ erlangte er 1992. Seine erste Fachveröffentlichung erfolgte 1995. Doch bereits 1994 hielt das IPPC seine akademischen Würden für so beeindruckend, dass er zum Leitautor ernannt wurde.

Wenn man sich die Beteiligung von Frau Kovats und Herrn Patz vorstellt, macht Paul Reiters Beschreibung des 1995er Gesundheitskapitels als „amateurhaft“ Sinn. Anstatt wirkliche Experten wie Reiter einzuladen, hat das IPCC junge, unerfahrene Nichtexperten eingestellt.

Seit Mitte der 1990er Jahre geht das so. Doch 2011 berichteten Zeitungen noch immer, dass im IPCC die „weltbesten Wissenschaftler“ versammelt sind.

Das Buch kann direkt beim TvR Medien-Verlag, über den Buchhandel oder zB. hier bei Amazon bestellt werden

[1] „The science is absolutely first rate“, Rediff-Interview mit Rajendra Pachauri, 5. 6. 2007, http://www.webcitation.org/5wYGqL431 [6. 6. 2012].

[2] Testimony before the US Senate Committee on Environment and Public Works, submitted by Dr. R K Pachauri, Chairman, Intergovernmental Panel on Climate Change (IPCC), 25. 2. 2009, Washington, DC, http://epw.senate.gov/public/index.cfm?FuseAction=Files.View& FileStore_id=d8c3fda8-d987-4d98-be99-c2c06395dfc4 [6. 6. 2012].

[3] Interview, wie Fn. 15.

[4] Rajendra Pachauri, Rede in Poznan, 1. 12. 2008, S. 1.

[5] R K Pachauri, Interview, in: The Progressive, Mai 2009.

[6] R K Pachauri, UN Summit on Climate Change, Rede, 22. 9. 2009, S. 1.

[7] Robert Watson, The public has been swindled, The Guardian, 21. 7. 2008, http://www.guardian.co.uk/commentisfree/2008/jul/21/ofcom.channel4 [7. 7. 2012].

[8] U.S. Senate Committee on Environment & Public Works, Hearing Statements, Date: 09/ 28/ 2005, Statement of Dr. William Gray, Department of Atmospheric Science, Colorado State University, The Role of Science in Environmental Policy-Making.

[9] Der volle Text des 1995er IPCC-Gesundheitskapitels findet sich hier:

http://www.webcitation.org/623qFqtAB [6. 6. 2012].

Unten auf Seite 571 (Seite 11 in der PDF-Version) heißt es: „Although anopheline mosquito species that transmit malaria do not usually survive where the mean winter temperature drops below 16-18 °C, some higher-latitude species are able to hibernate in sheltered sites.“ Zu Malaria im historischen Kontext vgl. die folgenden Links aus „The Lancet“, zu einem Vortrag von Paul Reiter, einer Rezension von Paul Reiter im Malaria Journal (2008) und zur Situation in Nairobi (ebd., 2011): www.webcitation.org/61BPoHDZF [6. 10. 2012],

www.ncbi.nlm.nih.gov/pmc/articles/PMC2627969/pdf/10653562.pdf [6. 10. 2012],

www.webcitation.org/6242mPfWj [6. 10. 2012], www.malariajournal.com/content/10/1/138 [6. 10. 2012]. Vgl. Auch http://www.malariajournal.com/content/7/S1/S3 [6. 10. 2012].

[10] Große IPCC-Berichte sind als Sachstandsberichte (assessment reports) bekannt. Bisher erschienen vier: 1990, 1995, 2001 und 2007. In diesem Buch werden sie als Klimabibel bezeichnet. Das IPCC produzierte auch eine Anzahl kleinerer Berichte zu spezifischen Themen. Klein arbeitete bei beiden Berichtsarten mit und bezieht beide in seine Zählung ein.




Klimaerwärmung Naturgesetze oder Paradoxon?

Wodurch wird die globale Temperatur bestimmt?

Die globale Temperatur wird definiert als Mittelwert der Lufttemperatur in Bodennähe der gesamten Erdoberfläche über ein Kalenderjahr. Ermittelt wird die globale Temperatur mit Tausenden von Mess-Stellen, die ungleichmäßig über Fläche und Zeit an der Erdoberfläche verteilt sind. Gemessen wird auf dem Festland die Lufttemperatur in 1 bis 2 früher auch bis 3,2 Meter Höhe, in den Ozeanen in 0-50 cm bis mehrere Meter (Engine Inlet) Wassertiefe. Analog zur globalen  Temperatur sind auch die Energieflüsse als Mittelwerte der Erdoberfläche über ein Kalenderjahr  definiert.

Das übergeordnete Ziel des Streits ist es, den Sinn vom „Klimaschutz“ zu beweisen oder zu widerlegen. Um hier weiterzukommen, brauchen wir eine saubere Untersuchung, inwieweit anthropogenes CO2 die globale Temperatur erhöht. Um dies zu ermitteln werden keine fragwürdigen Klimamodelle benötigt. Die globale Temperatur und ihre Beeinflussung, durch welchen Impuls auch immer, werden eindeutig von unstrittigen Naturgesetzen bestimmt. Der erste Hauptsatz der Thermodynamik, bekannter als Energieerhaltungssatz, liefert die Informationen, die wir benötigen.

Das Gleichgewicht von 4 Energieflüssen bestimmt die globale Temperatur:

  • Energiezufuhr durch die Sonne (1)
  • Energieabfuhr durch Verdunstung (2), Infrarotstrahlung (3) Konvektion (4)

Bild 1: Die 4 maßgebenden Energieflüsse

 

Wie kann sich die globale Temperatur ändern?

Änderungen der globalen Temperatur hat es im Verlauf der Erdgeschichte immer wieder gegeben. Auslöser waren zum Beispiel Sonnenaktivitäten, die Erdbahngeometrie, die Neigung der Erdachse, Verschiebung der Kontinente, Vulkanausbrüche und auch Treibhausgase. Jede Veränderung der Energieflüsse hat zu einem neuen Energiegleichgewicht und einer veränderten Temperatur  geführt. In der aktuellen Diskussion über den Klimawandel steht nur der „anthropogene“ Treibhauseffekt im Focus, während alle anderen Einflüsse auf das Klimageschehen ausgeblendet werden.

 

Welche Rolle spielt der Treibhauseffekt?

Der Treibhauseffekt ist im Netto Energiefluss der infraroten Strahlung (3) enthalten. Ohne Treibhausgase wäre die Kühlung der Erdoberfläche durch Wärmestrahlung viel stärker und die Erde kälter. Treibhausgase, unter anderem der dominante Wasserdampf und CO2, absorbieren den größten Teil (85 Prozent) der infraroten Abstrahlung von der Erdoberfläche. Dieser Effekt hat uns ein angenehmes Klima beschert. Zusätzliches “anthropogenes” CO2 kann den Treibhauseffekt allerdings nur marginal verstärken. Die Wirkung von CO2 ist weitgehend gesättigt. Wenn sämtliche fossilen Energieträger verbrannt werden, steigt der Treibhauseffekt lediglich um 1,2 Prozent. Um diesen geringen Wert verringert sich die Kühlwirkung der Strahlung (3). In der öffentlichen Darstellung wird die Wirkung bei weitem überschätzt.

Wechselspiel von Energieflüssen und globaler Temperatur

  • Die Strahlung der Sonne wird durch die Wolkendecke reflektiert und absorbiert. Nur etwa die Hälfte der ausgesandten Strahlung erreicht deshalb die Erdoberfläche. Die Wolken entstehen aus Wasserdampf, der an der Erdoberfläche verdunstet. Mit steigender Temperatur erhöht sich die Verdunstungsrate und die Wolkenbedeckung wird dichter. Damit wird die Sonneneinstrahlung ganz wesentlich durch die globale Temperatur beeinflusst.
  • Die Verdunstungsrate ist proportional zum Dampfdruck des Wassers und verläuft synchron mit der Dampfdruckkurve des Wassers. Aktuell trägt die Verdunstungskühlung 80 W/m² zur Energieabfuhr bei. Der Dampfdruck und damit auch die Verdunstungsrate steigen progressiv mit der Temperatur (Siedepunkt bekanntlich bei 100 Grad Celsius). Eine höhere globale Temperatur wird also zu einer verstärkten Kühlung durch Verdunstung führen. Gleichzeitig schirmt die vergrößerte Wolkendecke die Sonne stärker ab. Hier handelt es sich um einen doppelten Mechanismus der das Klima stabilisiert.
  • Die infrarote Strahlung von der Erdoberfläche wird durch den Treibhauseffekt eingeschränkt. 63 W/m² ist der Nettobeitrag zur Kühlung der Erdoberfläche. Der Wert steigt nach der allgemeinen Strahlungsgleichung mit der 4ten Potenz der absoluten Temperatur.
  • Die Konvektion trägt 17 Watt/m² zur Kühlung der Erdoberfläche bei. Bei Erwärmung steigen Wärmeinhalt und Geschwindigkeit der aufsteigenden Luft, was ebenfalls zu einer stärkeren Kühlung der Erdoberfläche beiträgt.

Wir haben gesehen, dass alle 4 Energieströme einer Erwärmung entgegen wirken. Für Verdunstung (Dampfdruckkurve) und Wärmestrahlung (Strahlungsgleichung) sind die Zusammenhänge eindeutig definiert. Für Konvektion (4) und Sonneneinstrahlung (1) wurden plausible Ansätze aufgestellt. Die kühlenden Mechanismen wurden zu einer Gesamtkurve (5) aufaddiert.

Die Kurve für Energiezufuhr von der Sonne (1) und die Gesamtkurve für die Energieabfuhr (5) schneiden sich bei 15 Grad Celsius. Energiezufuhr und Abfuhr sind bei dieser Temperatur genau gleich groß (Energiegleichgewicht). Damit ist die globale Temperatur eindeutig bestimmt. Eine Änderung der Energieflüsse führt zu einem neuen Gleichgewicht mit einer anderen Temperatur. Der „anthropogene“ Treibhauseffekt stellt eine solche Änderung dar. Eine Verdoppelung der CO² Konzentration generiert einen Strahlungsantrieb von 4 Watt/m². Dieser Wert wird von der Summe der kühlenden Energieströme (5) kompensiert, wenn sich die Temperatur um 0,4 Grad Celsius erhöht hat (Abbildung 2). Das Energiegleichgewicht und die globale Temperatur sind sehr stabil. Die Prognosen des IPCC weisen Phantasiewerte von mehr als 9 Grad Celsius aus (1). Eine derartige globale Erwärmung würde einen zusätzlichen Strahlungsantrieb von unvorstellbaren 190 Watt/m² erfordern. Das ist fast das 50 fache des maximalen „anthropogenen“ Treibhauseffektes. Absurd! Dieses Paradoxon befindet sich außerhalb jeglicher Realität.

Bild 2: Energieflüsse und globale Mitteltemperatur

Schlussfolgerung

Es wurde bereits mehrfach nachgewiesen, dass die globale Erwärmung durch anthropogenes CO2 sehr gering ausfällt (2, 3, 4). Dies ist ein weiterer Beweis dafür.

 

Quellenangaben und Impressum

  1. Assessment Report of the Intergovernmental Panel on Climate Change, p. 13, table SPM.3 A2 Scenario IPCC-Report 2007, AR4, WG1, Seite 96 [12]
  2. Hermann Harde: Was trägt CO2 wirklich zur globalen Erwärmung bei, ISBN 9 783842371576, Norderstedt: BoD, 2011
  3. R.S. Lindzen and Y.-S. Choi: On the determination of climate feedbacks from ERBE data, Geophysical Research Letters, Vol. 36, L16705 (2009)
  4. P.Frank Future Perfect 22.05.2010 Nonconsenus.wordpress.com/2011/05/24/futureperfect/

Autor:

Dr.-Ing Wolfgang Burkel,

Weißdornweg 6

69168 Wiesloch

Mail: wolfgangbu@aol.com

Borne 1945, Study and Promotion TU Munich Mechanical Engineering / Process Engineering, Professional experience: sewage technology, energy engineering, Management Heidelberg Power Plants Procurator HSE Darmstadt (EVU), Member of EIKE (European Institute for Climate and Energy) http://www.eike-klima-energie.eu/




Gedanken zu: Klimawissenschaft vs. Klimatologie; Spezialisierung vs. Generalisierung; Wald vs. Bäume

Das Problem ist, das alles schon öffentlich war. Ich hörte den Kongressabgeordneten Lamar Smith während der großen Anhörung anlässlich der Heartland Conference im Juni 2015 sagen, dass die Vorladungen eingereicht wurden, um die vollständige Offenlegung des gesamten Materials zu erlangen. Er erzählte uns auch, dass die Anträge abgelehnt wurden, aber ein Follow-up war im Gange. Die gleichen Informationen wurden in den Mainstream-Medien gemeldet, allerdings mit einer Voreingenommenheit.

Warum ging Bates nicht zu Smith und berichtete ihm im Vertrauen, was er wusste?

Die Smith-Anfragen müssen von Gesprächen im Büro oder am Kaffeeautomaten initiiert worden sein.

Alle Arten von lahmen Ausreden wurden für Bates gemacht, vielleicht die einzige mit begrenztem Verdienst war, dass seine späte Offenlegung besser war als niemals. Das Problem ist, dass er und seine Unterstützer nicht beide Wege gehen können. Er kann kein kenntnisreicher Klimaforscher sein, der wertvolle Arbeit leistet, wenn das, was er und alle anderen um ihn herum taten, korrumpiert war, nicht in Frage gestellt wurde,  naiv und begrenzte politische Wissenschaft war.

Es muss mehr sein als ein bewusst blindes „ich befolge nur meine Anweisungen“. Die größere Frage ist, warum hat er nicht gesehen, was los war? Sogar als er erkannte, dass Thomas Karl nur unzureichende Daten genutzt hat, um „die Pause“ zu beseitigen. Es scheint, dass er davon ausgegangen ist, dass es ein Einzelfall war. Er sah nur, was er sehen wollte, weil er korrupte Wissenschaft ohne Frage akzeptierte. Wie konnte ich als Wissenschaftler die konsequent falschen IPCC-Vorhersageversagen sehen und nicht fragen, was an der Wissenschaft falsch war?

Die offensichtlichste Antwort ist, dass ein Wissenschaftler und ein Bürokrat sich gegenseitig ausschließen. Interessanterweise, der Nachweis dieser Aussage ist, das Wissenschaftler wie James Hansen, die offen das was ihre politischen Meister wollen befürworteten, öffentlich handelten und den Hatch Act brechen konnten [Verbot für Beamte, sich an aktiv an politischen Auseinandersetzungen zu beteiligen]. Das Gesetz wurde speziell entwickelt, um diese Aktivitäten zu begrenzen. Er tat dieses in so unverschämter Weise, dass er außerhalb des Weißen Hauses verhaftet wurde. Diejenigen, die wussten, was falsch war, hielten den Mund und die Gesellschaft litt.

Verhaftung Dr James e Hansen anlässlich einer Demonstration am Weißen Haus 2011
Übernommen vom Original Beitrag dieser Übersetzung; Quelle gefunden: de.Wkipedia.org.

Es ist unmöglich, ein Wissenschaftler und gleichzeitig ein Bürokrat zu sein, denn die Definition eines Bürokraten erfordert, Sie müssen tun, was Ihnen gesagt wird. Walter Gilbert sagte: „Die Tugenden der Wissenschaft sind Skepsis und Unabhängigkeit des Denkens“

Beide sind Anathemen für Bürokratien [Der Ausdruck Anathema, auch Anathem bezeichnet eine Verurteilung durch … , die mit dem Ausschluss / … Bann aus der … Gemeinschaft einhergeht]. Es gibt eine größere Erklärung, die alle gegenwärtigen Verständnisse, nicht nur die Wissenschaft umfasst und einschränkt. Ich habe darüber geschrieben und es in meinen Büchern aufgenommen, weil es vor allem für das Verständnis von Klima und Klimawandel gilt.

Ich habe bereits vor WUWT darüber geschrieben, aber der Bates / NOAA Fall zeigt, dass ein Update erforderlich ist. Es ist ein Problem der „Überspezialisierung“, das von der Klimaforschung geschaffen wurde. Fast jeder in der Klimawissenschaft ist ein Spezialist in einem anderen Bereich, der diese Spezialisierung auf das Studium des Klimas anwendet, in der Regel, weil die Finanzierung verfügbar war und immer ohne Zusammenhang mit dem Kontext. Hal Lewis, der späte Emeritus Professor für Physik, erklärte die Auswirkungen,

„Der Betrug mit der globalen Erwärmung, der mit (buchstäblich) Billionen von Dollar angetrieben wird, hat so viele Wissenschaftler verdorben … Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich in meinem langen Leben als Physiker gesehen habe.“

Einige folgende Absätze sind aus meinen früheren Schriften. Ich sage dies, um zu veranschaulichen, wie verrückt, hirnverbrannt und unlogisch die Welt der Forschung ist. Was ohne Quellenangabe zitiert wird, gilt als Plagiat. Natürlich unterstreicht es die satirische Bedeutung, denn wenn aus mehreren Quellen kopiert wird, ist es Forschung.

Das Jahr 1859 war entscheidend im menschlichen Verständnis, weil Ereignisse auftraten, die einen großen Fortschritt zu bieten schienen, aber auch eine ernsthafte Begrenzung hervorrief. In diesem Jahr wurde Darwins Herkunft der Arten veröffentlicht und Alexander von Humboldt starb. Wir erreichten jetzt einen Punkt, wo die Wirkungen dieser Ereignisse ein Umdenken von Wissen, Verständnis und Erklärung erfordern; Eine Aktualisierung von dem, was wir die Wahrheit nennen.

In meinen Eröffnungskommentaren zu Kunstkursen, lehrte ich die Studenten, dass ich ihnen die heutige Wahrheit erzähle. Es wird nicht die gestrige ‚Wahrheit‘ sein, obwohl diese den Menschen so real war, wie die heutige Wahrheit es für uns ist. Und es wird nicht die „Wahrheit“ von morgen sein, aber sie können sicher sein, dass es eine geben wird, weil die Wahrheit, wie die Wissenschaft, niemals abgeschlossen sein wird. Leider sind sie alle als logische Positivisten erzogen, für die es nur absolute Wahrheiten gibt.

Alexander von Humboldt, der gerade wiederentdeckt wird, gilt als der letzte „universelle Mensch“. Es ist ein endgültiges Ende, weil er alle bekannten Wissenschaften seiner Zeit kannte und das schiere Volumen der bekannten Wissenschaft jetzt über die menschliche Fähigkeit hinausgeht, alles zu wissen. Eine von Humboldts Fähigkeiten war die Produktion der ersten Wetterkarte. Das ist wichtig, weil er einzelne diskrete Informationen, den atmosphärischen Druck an einem Ort, genommen und auf eine Karte gezeichnet hat. Er verband dann Punkte von gleichem atmosphärischem Druck mit einer Linie, die Isobar genannt wird, wodurch ein Muster für das Verständnis von Wetter, das aus den einzelnen Informationen nicht verfügbar ist, geschaffen wird.

Darwins Arbeit, die, wie Alfred Russell Wallace darauf hinwies, die Menschen nicht erwähnte, löste den wissenschaftlichen Bedarf an Daten aus, um eine Theorie zu stützen. Seine Arbeit wurde von Carolus Linnaeus unterstützt, der ein Klassifizierungssystem erstellte, das ein Sortier-/ [Einteilungs-] System lieferte. Das Problem ist, es hat auch die Analyse eingeschränkt, denn wenn eine Kreatur gefunden wurde, die nicht ins Schema passt, das entenartige Platypus [„Das Schnabeltier – ist ein eierlegendes Säugetier aus Australien. Es ist die einzige lebende Art der Familie der Schnabeltiere], haben sie einfach eine andere Kategorie erstellt, ohne zu bedenken, dass es darauf hindeuten könnte, dass das Klassifizierungssystem falsch war.

Unabhängig davon, führte das schiere Datenvolumen zur Schaffung unterschiedlicher Forschungszweige, die zu individuellen Spezialitäten wurden. Die westlichen Universitäten expandierten von zwei großen Fakultäten, den Geisteswissenschaften und den Naturwissenschaften, zu einer neuen und heute größten Fakultät, den hybriden Sozialwissenschaften. Innerhalb jeder, explodierte die Anzahl der Fachgebiete, bis sich Konflikte in jenen Gebieten entwickelten, die mit der realen Welt jenseits der Elfenbeintürme arbeiten wollten. Einige Universitäten reagierten darauf, was sie interdisziplinäre Studien nannten, aber auch diese waren problematisch, weil sie die institutionellen Fachgebietsgrenzen überlappten, was Grabenkämpfe verursachte.

All dies löste eine intellektuelle Verschiebung aus, als es das Diktum in der Akademie wurde, das sich zu spezialisieren das Zeichen des Genies war, um die Anmerkung eines Narren zu verallgemeinern. Das Problem in der realen Welt ist es, dass jedes spezialisierte Stück in das größere allgemeine Bild passen muss , denn die meisten Menschen leben und funktionieren in einer verallgemeinerten Welt. Der [daraus entstandene] Ausdruck „es ist rein akademisch“ bedeutet, dass es für die reale Welt irrelevant ist. Im zwanzigsten Jahrhundert verließ die westliche Welt das Diktum: ‚es gibt allgemeine Regeln mit Ausnahmen‘ hinzu:  ‚es gibt keine Regeln und alles ist eine Ausnahme‘. Dies manifestiert sich in der Gesellschaft als Verurteilung von Verallgemeinerungen und die Förderung, dass alles eine Ausnahme ist – die Grundlage der politischen Korrektheit.

 (Selbst-Plagiatsalarm). Eine häufige Anklage ist, ich habe keine Glaubwürdigkeit, weil ich nur „einen Geographiegrad“ habe. Es ist ein ignoranter Angriff auf vielen Ebenen und wird gewöhnlich als Zeichen der Überlegenheit von Spezialisten in den „harten Wissenschaften“ verwendet. Meine Promotion machte ich in der Geographie-Abteilung an Queen Mary College, weil Klimatologie traditionell Teil der Geographie war. Der eigentliche Dr. Grad wurde in der Fakultät für Naturwissenschaften erteilt.

Klimatologie, ist wie Geographie eine generalistische Disziplin, die Muster und Beziehungen studiert. Geographie ist die ursprüngliche integrative Disziplin, traditionell Chorologie genannt wird. In den späten 1960er Jahren, als ich nach einer Schule der Klimatologie suchte, gab es effektiv nur zwei, die Hubert Lamb’s Climatic Research Unit (CRU) in Ostanglien und Reid Brysons Programm in Madison Wisconsin. Keines davon war eine gangbare Option, obwohl ich privilegiert war, mit Professor Lamb über meine These zu sprechen.

Ian Plimer sagte, Studien über die Erdatmosphäre erzählen uns nichts über zukünftiges Klima.

Ein Verständnis des Klimas erfordert eine Verschmelzung von Astronomie, Sonnenphysik, Geologie, Geochronologie, Geochemie, Sedimentologie, Plattentektonik, Paläontologie, Paläoökologie, Glaziologie, Klimatologie, Meteorologie, Ozeanographie, Ökologie, Archäologie und Geschichte.

Es ist eine interessante Beobachtung, die das Dilemma unterstreicht. Die Klimatologie ist als Teilmenge aufgeführt, muss aber alle Disziplinen und mehr enthalten. Sie können das Muster des Klimas im Laufe der Zeit oder in einer Region nicht studieren oder verstehen, ohne sie alle einzuschließen. Er [Ian Plimer] ist in einigen Disziplinen nicht korrekt, aber es veranschaulicht das Problem, zum Beispiel ist die Meteorologie eine Untergruppe der Klimatologie.

Er lässt viele Spezialisierungen aus, indem er seine Liste auf ein Verständnis der Atmosphäre beschränkt, während die Liste für das Klima viel länger ist. Meteorologie ist das Studium der Physik der Atmosphäre, aber die Anzahl der anderen Disziplinen, die erforderlich sind, um die Atmosphäre zu verstehen, ist in Abbildung 1 impliziert.

 

Abbildung 1, ein einfaches Systemdiagramm des Wetters (nach Kellogg und Schneider 1974). Beachten Sie, dass drei Felder das Wort „Flux“ enthalten, aber der 2007 IPCC Science Report sagt: „Leider sind die gesamten Oberflächenwärme- und Wasserströme nicht gut beobachtet [… genug verstanden].

Quelle, siehe Text

Wie viele Fachgebiete können Sie in diesem Diagramm erkennen?

Klimawissenschaft ist die Arbeit von Spezialisten, die an einem kleinen Teil der Klimatologie arbeiten. Es ist ein klassisches Beispiel dafür, den Wald vor lauter Bäumen nicht zu sehen. Manche denken, Computer-Modellierer sind Generalisten. Sie sind Spezialisten, die versuchen, Generalisten zu sein, die aber die Zusammenhänge, Interaktionen und Feedbacks im großen Ganzen nicht kennen. Wegman hat das Problem in seinem Bericht über das Hockey-Stick-Fiasko identifiziert.

Als Statistiker wurden wir von der Isolierung von Gemeinschaften wie der Paläoklima-Gemeinschaft getroffen, die sich stark auf statistische Methoden stützen und dennoch nicht mit der Mainstream-Statistik zusammenarbeiten. Die politikpolitischen Implikationen dieser Debatte sind finanziell schwankend und doch wurde anscheinend kein unabhängiges statistisches Fachwissen gesucht oder verwendet.

In der Klimaforschungs-Gruppe wurde es bis zum Extrem getrieben und in den zugespielten E-Mails von Climategate entblößt.

Das Problem der Spezialisierung erschien tauchte früh auf in der Klimatologie und verhinderte von Anfang an eine breitere Querschnittsperspektive. Zwei frühe Beispiele veranschaulichen das Problem. Ein früherer Durchbruch in der Klimatologie trat auf, als Ericson und Wollin 1964 außerhalb der Akademie „The Deep and The Past“ [„Die Tiefe und die Vergangenheit“, eine populär wissenschaftliche Abhandlung von 17 Jahre ozeanographischer Forschung] veröffentlichten. Es erregte Aufmerksamkeit, weil die Autoren es als „Handelsbuch“ veröffentlichten.

Robert Claiborne erkannte, dass er bei der Untersuchung der natürlichen Einflüsse unterschiedliche und widersprüchliche Zeitabläufe zwischen Anthropologie und Glaziologie in Bezug auf das Muster und der Sequenz der menschlichen Geschichte bekam. Er schlug eine Doktorarbeit vor, um das Problem zu untersuchen. Wieder war es interdisziplinär und so wurde abgelehnt. Claiborne wandte sich von der Akademie ab und schrieb ein Handelsbuch mit dem Titel “Climate, Man and History”  [„Klima, Menschheit und Geschichte“] das 1970 veröffentlicht wurde. Abgesehen von der intellektuellen Starrheit [~Sturheit?], die durch die Spezialisierung gefördert wurde, verdeutlicht sie auch, wie das IPCC sinnvolle Forschung im Jahr 1990 beendet hat.

Folgend einige gute Beispiele, von Forschern, die sich bis zum Ende des Tunnelblicks der akademischen Spezialisierung und die späteren Einschränkungen des IPCC durchkämpfen, um Klima und Klimawandel besser zu verstehen;

  • Sun, Weather and Climate, (1978) by John Herman and Richard Goldberg
  • Ice Ages: Solving the Mystery, (1979) by John and Kathrin Imbrie
  • The Manic Sun: Weather Theories Confounded, (1997) by Nigel Calder
  • The Maunder Minimum and the Variable Sun-Earth Connection (2003) by Willie Soon and Steven Yaskell
  • Taken by Storm: The Troubled Science, Policy, and Politics of Global Warming. (2003) Christopher Essex and Ross McKitrick
  • The Chilling Stars: A New Theory of Climate Change, (2007) by Henrik Svensmark and Nigel Calder

Die Gesellschaft hat spezialisierte Akademiker, insbesondere Wissenschaftler, vergöttlicht. Bedenken Sie die Phrase „Sie müssen nicht ein Raketenwissenschaftler sein“ um „harte Wissenschaft“ und intellektuelle Überlegenheit anzuzeigen.

Ersetzen Sie es durch eine andere Beschäftigung und Vorurteile entstehen: „Du musst kein Bauer sein„. Betrachten wir nun die Palette der spezialisierten Bereiche, die für den Erfolg auf einem modernen Bauernhof erforderlich sind. Ein Bauernhof, wie so viele Arbeitssegmente der Gesellschaft, kann nur als generalistischer Betrieb gelingen. Ich erkannte das Problem, als ein Landwirt mir sagte, er vermutete, dass er Probleme mit seinem Boden hatte. Er ging zur Universitätsfakultät der Landwirtschaft, um zu erfahren, dass sie keine „Bodenspezialisten“ hatten. Sie hatten Leute, die sich mit Nematoden [Fadenwürmer], Tonmineralkomplexen, Spurenmineralien, allen Teilmengen des Bodens auskannten, aber keinen „Bodenspezialisten“.

Die Klimatologie ist eine generalistische Disziplin, die alle Fachdisziplinen beinhaltet. Die moderne Verherrlichung von Spezialisierung ermöglichte es den Klimaforschern zu dominieren, indem sie behaupteten, ihr Stück eines riesigen Puzzles wäre kritisch. IPCC-Klimawissenschaftler missbrauchen Spezialgebiete, vor allem in Klimamodellen, um ein vorgegebenes Ergebnis zu erzielen. Dieses wird nur offenbart, wenn andere Spezialisten, wie zB Steve McIntyre, untersuchen, was getan wurde oder Klimatologen finden ein Stück des Puzzles, das nicht passt.

Das Bates-Ereignis ist ein Symptom für ein viel breiteres Problem. Es ist viel mehr als nur die Angst, über Fehlverhalten am Arbeitsplatz zu sprechen. Es ist mehr als das Problem der Bürokraten, der Wissenschaft oder Menschen die Wissenschaft für eine politische Agenda nutzen. All das existiert und erfordert Aufmerksamkeit. Allerdings maskiert dieses die größeren Probleme unserer Unfähigkeit, Dinge zu beschreiben, zu verstehen und voranzutreiben in einer generalistischen Welt, die eine Forschungsstruktur entwickelt hat, die Spezialisten verherrlicht, die viel über ein winziges Stück wissen, aber nicht einmal wissen, wie es in ein größeres Bild passt.

Erschienen am 27.02.2107

Übersetzt durch Andreas Demmig

http://principia-scientific.org/climate-science-climatology-specialization-generalization-forest-trees/




Blockbuster-Studie: Nur 15% der CO2-Zunahme seit der Industria­lisierung gehen auf menschliche Emissionen zurück

Harde, 2017

Abstract:

Klimawissenschaftler vermuten, dass der Kohlenstoff-Zyklus aus dem Gleichgewicht geraten ist infolge der zunehmenden anthropogenen Emissionen aus der Verbrennung fossiler Treibstoffe und dem Landverbrauch. Dies wird verantwortlich gemacht für die rasch zunehmende atmosphärische CO2-Konzentration während der letzten Jahre, und es wird geschätzt, dass die Entfernung der zusätzlichen Emissionen aus der Atmosphäre ein paar hunderttausend Jahre dauert. Da dies einher geht mit einem zunehmenden Treibhauseffekt und einer weiteren globalen Erwärmung, ist ein besseres Verständnis des Kohlenstoffzyklus‘ von erheblicher Bedeutung für alle Prophezeiungen der Klimaentwicklung in der Zukunft. Wir haben diesen Zyklus entscheidend überprüft und präsentieren hier ein alternatives Konzept, in welchem die Aufnahme von CO2 in natürlichen Senken proportional ist zur CO2-Konzentration. Außerdem betrachten wir temperaturabhängige natürliche Emissions- und Absorptionsraten, durch welche die paläoklimatischen CO2-Variationen und die derzeitige Rate der CO2-Zunahme sehr gut erklärt werden können. Der anthropogene Beitrag zur derzeitigen CO2-Konzentration beträgt lediglich 4,3%, dessen Anteil an der CO2-Zunahme während der industriellen Ära beträgt 15% und die mittlere Verweildauer 4 Jahre.

Conclusion

Klimawissenschaftler nehmen an, dass ein gestörter Kohlenstoffkreislauf, aus dem Gleichgewicht geraten durch die zunehmenden anthropogenen Emissionen aus der Verbrennung fossiler Treibstoffe und der Änderung des Landverbrauches verantwortlich ist für die rapide zunehmenden CO2-Konzentrationen der letzten Jahre. Während des gesamten Holozäns war man der Ansicht, dass bis zum Eintritt in die industrielle Ära (1750) natürliche Emissionen durch heterotrophe Prozesse und Brände im Gleichgewicht stünden mit der CO2-Aufnahme durch Photosynthese und dem Gas-Gesamtaustausch zwischen Ozean und Atmosphäre. Mit dem Beginn der industriellen Ära schätzt das IPCC, dass etwa 15 bis 40% der zusätzlichen Emissionen nicht weiter absorbiert werden können durch natürliche Senken und sich deshalb in der Atmosphäre anreichern.

Weiter argumentiert das IPCC, dass das bis zum Jahr 2100 emittierte CO2 über 1000 Jahre in der Atmosphäre verweilen wird, und im gleichen Zusammenhang wird sogar erwähnt, dass die Entfernung des anthropogen emittierten CO2 aus der Atmosphäre durch natürliche Prozesse ein paar hunderttausend Jahre dauern wird (hohes Vertrauen; siehe AR5-Chap.6-Executive-Summary).

Da die steigenden CO2-Konzentrationen einhergehen mit einem zunehmenden Treibhauseffekt und folglich einer weiteren globalen Erwärmung, ist ein besseres Verständnis des Kohlenstoffkreislaufes eine notwendige Grundlage für alle zukünftigen Klima-Prophezeiungen. In den Verfahren und Modellen des Kohlenstoffkreislaufes zieht das IPCC viele neue und detaillierte Daten heran, welche sich primär auf die Emission durch fossile Treibstoffe konzentrieren, auf die Zementherstellung oder die Änderung des Landverbrauches (siehe AR5-WG1-Chap.6.3.2), aber es ignoriert jedwede Änderungen der natürlichen Emissionen, welche zu über 95% der gesamt-Emissionen beitragen und die bestimmt nicht als konstant über lange Zeiträume angesehen werden können (siehe u. A. last 800,000 years (Jouzel et al., 2007); the last glacial termination (Monnin et al., 2001); or the younger Holocene (Monnin et al., 2004; Wagner et al., 2004)).

Da unsere eigenen Schätzungen der mittleren Verweildauer von CO2 in der Atmosphäre um viele Größenordnungen von den verkündeten IPCC-Werten abweichen und andererseits neue Untersuchungen von Humlum et al. 2013 oder Salby 2013, 2016 eine starke Relation zeigen zwischen der natürlichen CO2-Emissionsrate und der Temperatur, war dies Motivation genug, um das IPCC-Verfahren detaillierter unter die Lupe zu nehmen und jene in Gegensatz zu unseren Berechnungen zu stellen.

Anders als das IPCC beginnen wir mit einer Gleichung der Raten von Emission und Absorption, wobei die Aufnahme nicht als gesättigt angenommen wird, sondern proportional zur derzeitigen CO2-Konzentration in der Atmosphäre ist (siehe auch Essenhigh, 2009; Salby, 2016). Dies ist gerechtfertigt durch die Beobachtung eines exponentiellen Zerfalls von C14. Eine teilweise Sättigung, wie vom IPCC angenommen, kann direkt ausgedrückt werden durch eine längere Verweildauer von CO2 in der Atmosphäre, und es macht eine Unterscheidung zwischen einer Fluktuations- und einer Anpassungs-Zeit überflüssig. Auf der Grundlage dieses Verfahrens und als eine Lösung der Raten-Gleichung leiten wir eine Steady-State-Konzentration ab, die nur festgelegt wird durch das Produkt aus der Gesamt-Emissionsrate und der Verweildauer. Unter den gegenwärtigen Bedingungen tragen die natürlichen Emissionen 373 ppm und anthropogene Emissionen 17 ppm zur Gesamt-Konzentration von 390 ppm bei (2012). Als mittlere Verweildauer ergeben sich bei uns lediglich 4 Jahre.

Die stärkere Zunahme der Konzentration während der industriellen Ära bis heute kann erklärt werden durch die Einführung einer temperaturabhängigen natürlichen Emissionsrate ebenso wie durch eine von der Temperatur beeinflusste Verweildauer. Mit diesem Verfahren können nicht nur die exponentielle Zunahme mit dem Beginn der industriellen Ära sehr gut reproduziert werden, sondern auch die Konzentrationen in glazialen und kühleren interglazialen Zeiten. Folglich findet die starke Zunahme der Konzentration seit 1850 anders als die IPCC-Interpretation seine natürliche Erklärung in sich selbst beschleunigenden Prozessen einerseits durch stärkeres Ausgasen der Ozeane ebenso wie beschleunigtes Pflanzenwachstum und Ablagerung, andererseits durch eine zunehmende Verweildauer bei reduzierter Löslichkeit von CO2 in den Ozeanen.

Zusammengefasst resultiert dies in einer von der Temperatur kontrollierten natürlichen Zunahme, welche etwa 85% zu der CO2-Zunahme um 110 ppm während der industriellen Ära beigetragen hat, während die tatsächlichen anthropogenen Emissionen von 4,3% nur 15% beigetragen haben. Diese Ergebnisse zeigen, dass nahezu alle Änderungen des CO2-Gehaltes während der industriellen Ära nicht anthropogenen, sondern Änderungen der natürlichen Emissionen folgten.

Die Ergebnisse sind konsistent mit der beobachteten Verzögerung von CO2-Änderungen, zu denen es nach Temperaturänderungen kommt (Humlum et al., 2013; Salby, 2013), ein Signal von Ursache und Wirkung. Unsere Analyse des Kohlenstoffkreislaufes, in welche ausschließlich Daten der CO2-Konzentrationen und der Flüsse aus dem veröffentlichten AR 5 Eingang fanden, zeigt, dass auch eine vollständig andere Interpretation dieser Daten möglich ist – und das vollständig konform mit allen Beobachtungen und natürlichen Ursachen.

Mehr: http://notrickszone.com/2017/02/25/blockbuster-paper-finds-just-15-of-co2-growth-since-industrialization-is-due-to-human-emissions/#sthash.Sz6Fv5sX.dpuf

Link: http://notrickszone.com/2017/02/25/blockbuster-paper-finds-just-15-of-co2-growth-since-industrialization-is-due-to-human-emissions/#sthash.Sz6Fv5sX.dpbs

Übersetzt von Chris Frey EIKE