1

Akute Erklärungsnot: Die Grundrechenarten sind die schlimmsten Feinde des IPCC

Im “Summary for Policymakers” findet sich keine Inhaltsangabe für eine überschlägigen Suche und auch keine vernünftige Zusammenfassung der Ergebnisse. Es drängt sich erneut der Eindruck auf, dass  das IPCC gar kein Interesse daran hat, der Öffentlichkeit allgemeinverständliche Ergebnisse zu präsentieren. Ein Blick auf die deutsche Zusammenfassung hilft leider auch nicht weiter, um direkt an die Kernaussagen zu gelangen. Verlassen wir uns hier also einmal auf die öffentlich-rechtlichen Medien, deren Auftrag eine seriöse Informationen der Zwangsbeitragszahler ist, Zitat von tagesschau.de, Stand: 08.08.2019 um 10:49 Uhr mit Hervorhebungen:

Dürren, Hitzewellen, Wasser- und Nahrungsmangel: In seinem neuen Sonderbericht zum Klimawandel zeichnet der Weltklimarat ein düsteres Zukunftsbild und fordert eine dringende Kehrtwende bei der Landnutzung.

Der Weltklimarat (IPCC) hat seinen neuen Sonderbericht zur Erderwärmung veröffentlicht und darin die dramatischen Auswirkungen des Klimawandels beschrieben. Aus dem Bericht geht hervor, dass der weltweite Temperaturanstieg über den Landmassen bereits 1,53 Grad erreicht hat. Unter Berücksichtigung der sich langsamer erwärmenden Meeresflächen sei die globale Temperatur insgesamt um knapp 0,9 Grad gestiegen. Verglichen wurden die Zeiträume 1850 bis 1900 und 2006 bis 2015.”

Zunächst fällt einmal auf, dass es bei den öffentlichen Verlautbarungen zur Globaltemperatur NST bisher KEINE Aufteilung Land/Meer Unterscheidung gegeben hatte, Vergleichsdaten dazu also kaum öffentlich sind. Vermutlich hat man jetzt diese Landtemperatur aus der NST ausgegliedert, um analog zum ominösen 97%-Konsens (=Rekursion der 100% Anfangsmenge auf eine Teilmenge) einen medienwirksamen „Aufhänger“ zur Befeuerung der globalen Klimahysterie generieren zu können. Weiterhin wäre hier auch noch die grob unwissenschaftliche Darstellung der betreffenden Temperaturwerte zu nennen, denn bei direkten wissenschaftlichen Zahlenvergleichen MUSS immer die GLEICHE Anzahl von Nachkommastellen angegeben werden:

  • Temperaturanstieg über den Landmassen bereits 1,53 Grad-
  • -globale Temperatur insgesamt um knapp 0,9 Grad gestiegen-

Das ist also schon mal ganz schlecht. Aber wir können uns ja wegen der Chancengleichheit auf eine Nachkommastelle einigen und mal ein bisschen Kopfrechnen, vielleicht wird es dann ja besser. Wir wissen, dass die Erde zu 70% mit Wasser bedeckt ist. Und dann rechnen wir mal auf Grundlage der nachfolgenden Beziehungen los:

Landfläche       0,3 Fläche @1,5 Grad @ 0,3F    (1)

Gesamtfläche   1,0 Fläche @0,9 Grad @ 1F       (2)

Meeresfläche  0,7 Fläche @X Grad @ 0,7F       (3)

Diese Beziehungen (1) bis (3) können wir dann folgendermaßen als Gleichung ausdrücken:

1,0 * F * 0,9° = 0,3 * F * 1,5° + 0,7 * F * X°

Wir teilen nun beide Seiten  durch „F“ und erhalten:

1 * 0,9° = 0,3 * 1,5° + 0,7 * X°

Diese Gleichung lösen wir nach „X°“ auf und erhalten:

X° = (0,9° – 0,3 * 1,5°) / 0,7 = 0,64° Temperaturanstieg über den Ozeanen

Probe: 1,5° * 0,3 + 0,64° *0,7 = 0,9°

Ergebnis: Der Temperaturanstieg über den Ozeanen betrug also 0,6 Grad C.

Daraus ergibt sich nun aber wiederum ein Problem für die Klimasensitivität von CO2: Der CO2-Gehalt der Atmosphäre war von vorindustriellen 280 ppm auf aktuell etwa 415 ppm angestiegen. Für eine grobe Abschätzung rechnen wir mal mit einem Anstieg von 50%. Weiterhin GLAUBEN wir für die nachfolgende Berechnung mal an einen alleinigen CO2-Klimaantrieb und vernachlässigen den logarithmischen Zusammenhang zwischen CO2-Gehalt und Temperatur. In einer einfachen linearen Abschätzung würde ein CO2-Anstieg von 50% dann die Hälfte der CO2-Klimasensitivität [°C/2xCO2] betragen, also:

Temperaturanstieg über den Landmassen = 1,5 Grad C=> Klimasensitivität CO2= 3 [°C/2xCO2]

Temperaturanstieg über den Ozeanen = 0,6 Grad C       => Klimasensitivität CO2= 1,2 [°C/2xCO2]

Globaler Temperaturanstieg = 0,9 Grad C                     => Klimasensitivität CO2= 1,8 [°C/2xCO2]

Aus den aktuellen Zahlen des IPCC ergibt sich folglich eine sehr unterschiedliche CO2-Klimasensitivität für Landmassen und Ozeane. Daraus leitet sich schon mal die Frage ab:

Wie kann das CO2seine unterschiedliche Klimawirkung steuern, die offenbar invers zu einer behaupteten Wasserdampf-Verstärkung verläuft?

Also hilft es den IPCC-Alarmisten auch nicht weiter, dass sie jetzt die Landmassen ausgegliedert hatten, weil die Erdoberfläche nun mal zu 70% aus Wasser besteht. Eine Verdoppelung des CO2-Anteils in der Atmosphäre würde demnach folgenden Temperaturanstieg ergeben:

3,0°C * 0,3 + 1,2°C *0,7 = 1,7°C  (die Zahlen für KS-CO2in die Proberechnung oben eingesetzt)

Anmerkung: Dieses Ergebnis stimmt mit der aus dem globalen Temperaturanstieg abgeleiteten CO2-Klimasensitivität von 1,8 [°C/2xCO2] überein. Der Unterschied von 0,1°C mag die Trolle nähren…

Das Ergebnis heißt also: Wir können so weitermachen wie bisher und halten das 1,5°-Ziel ein!

Anmerkung: Aufgrund deslogarithmischen Zusammenhangs zwischen CO2-Gehalt und Temperatur ist die Klimawirkung der zweiten 50% CO2geringer als die der ersten.

Diese Berechnung hat auch Auswirkungen auf ein globales CO2-Budget:

Bei einer durchschnittlichen Lebensdauer von etwa 100 Jahren für atmosphärisches CO2beträgt das jährlich erneuerbare CO2-Budget 30 Gigatonnen (=3.000 Gt/100 Jahre)  für einen stabilen Temperaturanstieg um 1,5 Grad – WENN wir denn ÜBERHAUPT an eine Klimawirksamkeit von CO2GLAUBEN wollen (was dem Autor sehr fern liegt).

Selbst wenn die ganze Welt also an einen alleinigen CO2-Klimaantrieb glauben würde, müsste sich eine globale Erwärmung von 1,5°C bei einem jährlichen CO2-Ausstoß von 30 Gigatonnen von selbst stabilisieren. Die beabsichtigte globale Dekarbonisierung muss also ganz andere Zielehaben…




Fabrikation von Wahrheiten*

97 Prozent der Klimawissenschaftler unterstützen die Aussage des Weltklimarates – dies wird denjenigen entgegengehalten, die im Spektrum der Klimawissenschaft zu Ergebnissen kommen, die dem Mainstream widersprechen. Insbesondere in Diskussionen mit Politikern, Journalisten, aber auch Klimaaktivisten ist dieser Hinweis das probate Mittel, um jeden Zweifel abzublocken. Zweifel etwa, ob es nicht auch natürliche Ursachen für einen Teil der Erwärmung gegeben haben könnte; ob nicht das CO2 in seiner Klimawirkung überschätzt sei; ob die Klimamodelle wirklich ein zureichendes Bild der realen Klimaentwicklung abgäben.

Der immer wieder zitierte 97-Prozent-Konsens beruht auf einer Arbeit von John Cook, einem australischen Psychologen, aus dem Jahr 2013. Cook hat klimawissenschaftliche Artikel aus den Jahren 1991 bis 2011 untersucht. Er stellte fest, dass 97 Prozent der Veröffentlichungen einen Zusammenhang zwischen Erwärmung und anthropogenem Einfluss annehmen. Schaut man sich die Studie Cooks allerdings etwas genauer an, stellt man fest, dass gerade mal 1,6 Prozent diesen menschlichen Einfluss mit mehr als 50 Prozent beziffern, die restlichen 95,4 Prozent sehen einen Zusammenhang, ohne ihn zu quantifizieren.

Die weit überwiegende Zahl der Wissenschaftler – ich zähle mich zu ihnen – sieht den CO2-Ausstoss durch den Menschen als eine von mehreren Ursachen für die globale Erwärmung der letzten 150 Jahre. Darunter sind einige, die den CO2-Beitrag auf weniger als 50 Prozent einschätzen, einige sicher auch auf 60 oder gar 80 Prozent. Der Uno-Weltklimarat (IPCC) behauptet in seinem Bericht aus dem Jahr 2018, dass ausschliesslich menschliche Aktivitäten für den Anstieg von 0,9 Grad Celsius seit 1850 ursächlich sind. Und landauf, landab verbreiten Politik und Medien, die Wissenschaftler seien sich zu 97 Prozent einig. Abweichende Meinungen werden damit als absurd oder skurril gebrandmarkt.

Da ist es doch interessant, einen Blick auf den letzten Bericht der American Meteorological Society aus dem Jahr 2017 zu werfen. 42 Prozent der befragten Meteorologen erachteten die Natur als bedeutsamere oder mindestens gleichwertige Ursache für die Erwärmung. 49 Prozent sehen den Menschen als Urheber im Vordergrund, allerdings vermuten auch hier nur 15 Prozent den Menschen als alleinig ursächlich: gegenüber der Untersuchung des Zeitraumes 1991 bis 2011 eine deutliche Steigerung, aber eben nur um 15 Prozent.

Nun werden naturwissenschaftliche Erkenntnisse nicht per Mehrheitsentscheid proklamiert. Gerade wenn sich zu politisch gehypten Themen eine unselige Allianz aus Politik, Medien und Wissenschaft bildet, wird es immer gefährlich. Auf dem Höhepunkt der Waldsterbensdebatte in den neunziger Jahren waren die wenigen abweichenden Wissenschaftler sehr schnell isoliert. Sie wurden von den Medien nicht mehr zitiert und von Forschungsmitteln abgeschnitten. Die Realität gab ihnen später recht.

Viele Menschen goutieren Schwarzweiss-aussagen, welche die komplizierte Welt so einfach wie möglich erklären. Von 97 zu 100 Prozent Konsens betreffend menschenverursachtes Klima ist es nur noch ein ganz kleiner Schritt, der alles kolossal vereinfacht und die Schuldfrage auch noch gleich löst. Dabei wird in der Klimawissenschaft mit so extremen Unsicherheiten operiert wie sonst nirgendwo. Sämtliche Klimaberichte strotzen nur so vor Unsicherheiten. Erkenntnisse werden mit Konfidenzbereichen ausgewiesen: «sehr wahrscheinlich», «wahrscheinlich» und «unwahrscheinlich». Man stelle sich vor, Galileo oder Einstein hätten ihre gesetzmässigen Erkenntnisse mit derart ungefähren Formeln begründet.

Sündenbock CO2

So gibt etwa der IPCC die entscheidende Grösse der Klimasensitivität – also die Temperaturentwicklung bei Verdoppelung des CO2-Gehalts der Luft von vorindustriellen 280 ppm auf zukünftige 560 ppm (parts per million) – mit einem Streubereich von 1,5 bis 4,5 Grad an. Bei 1,5 Grad könnten wir der Entwicklung mit Gelassenheit entgegensehen; bei 4,5 Grad droht eine katastrophale Entwicklung. Was gilt nun? Auch der Weltklimarat kann die Antwort nicht liefern. Für den Weltklimarat ist die Sache klar: Der Mensch ist zu 100 Prozent schuld. In früheren Berichten hiess es, CO2 determiniere das Klima seit 1950. Neuerdings ist man sich sehr sicher: Bereits seit 1850 gibt es nur einen Stellknopf für das sich seither erwärmende Erdklima: Die anthropogenen Einflüsse allein sind die Sünder, vornehmlich CO2.

Woher weiss man das? Aus Modellrechnungen, in denen bestimmte mögliche Einflüsse eingegeben werden. Aus Messungen weiss man indes lediglich, dass CO2 eine Klimasensitivität von 1,1 Grad bei einer Verdopplung des CO2-Gehalts hat. Aus Modellsimulationen kommt man inklusive Rückkopplungen auf den etwa dreifachen Wert. Die Sonnenaktivität wird mit nahe null berücksichtigt, denn man stellt fest, dass die gesamte Sonneneinstrahlung während des elfjährigen Sonnenzyklus nur unwesentlich schwankt. Zwar schwankt die UV-Strahlung im Prozentbereich und das Magnetfeld der Sonne im Verlauf der Jahrzehnte um 10 bis 20 Prozent. Da man aber einen Mechanismus, wonach ein schwankendes Magnetfeld oder auch eine schwankende UV-Strahlung die Erdatmosphäre stark beeinflussen können, nicht berücksichtigt, bleibt es bei der Aussage: Die Sonne macht kein Klima. Dass es Hunderte von wissenschaftlichen Arbeiten gibt, welche die Warmzeiten und Kaltzeiten der Menschheitsgeschichte mit der solaren Aktivität in Zusammenhang bringen, ist für das Uno-Gremium nicht von Bedeutung. Was nicht zur Theorie passt, wird einfach ignoriert.

Zweifellos gibt es auch noch den Einfluss ozeanischer zyklischer Strömungen, im Atlantik wie auch im Pazifik, auf das Temperaturgeschehen. Diese können innerhalb eines sechzigjährigen Zyklus um plus/minus 0,3 Grad schwanken. Man kann diese Zyklen mit den IPCC-Rechenmodellen immer noch nicht zutreffend berücksichtigen. Also schlägt man Erwärmungseffekte, die in den letzten dreissig Jahren hierdurch bedingt sind, einfach dem CO2 zu. So einfach geht das.

Und dann gibt es noch einen kühlenden Effekt, der in die Rechenmodelle eingeht: die Aerosole. Dabei handelt es sich um Staubteilchen und Tröpfchen zum Beispiel aus Schwefeldioxidemissionen. Dummerweise ist aber die Unsicherheit über die Wirkung der Aerosole extrem hoch. Sie streuen in den Modellen um den Faktor zehn und können in den Computerberechnungen immer so eingesetzt werden, dass CO2 und Realität zur Übereinstimmung gebracht werden können. Die Aerosole sind, samt ihrer Wirkung auf Wolken, der Joker im Spiel der Klimamodellierer: Man berücksichtigt sie je nach Bedarf – stärker oder schwächer oder auch gar nicht.

So gelingt es dann insgesamt, die CO2-Wirkung auf das Klima um den Faktor drei höherzuschrauben. Begründet wird dies mit der Annahme, dass CO2 zu einer Erwärmung der Ozeane führt und dass Wasserdampf einen viel stärkeren Einfluss auf das Klima zeitigt als CO2. Auch Wolken sollen angeblich modelltechnisch ein positives Feedback bewirken. Über diesen kleinen Umweg erreicht das CO2 seine allmächtige, das Klima fast im Alleingang steuernde Wirkung.

Doch was passiert, wenn die steigende Verdunstung der Meere zu mehr Wolkenbildung führt und Wolken sich insgesamt abkühlend auswirken? Man weiss es nicht, weil bislang die Rechenmodelle die Wolken nicht berechnen können.

Viel Unsicherheit also. Trotzdem ist man ganz fest dabei, die Politik zu überzeugen, dass das CO2 auf null gebracht werden muss, weil es in so dominanter Weise das Klima verändert.

Wie war es nur möglich, dass es in der mittelalterlichen Wärmeperiode von 900 bis 1150 ebenso warm war wie heute – und das bei tieferen CO2-Konzentrationen. Eine Reihe von Publikationen zeigt, dass die Erwärmung nicht nur ein Phänomen in Grönland oder Nordeuropa war, sondern alle Erdregionen weltweit umfasste.

So warm wie heute

Und wie konnte es dramatisch kühler werden während der Kleinen Eiszeit (1600 bis 1820), ohne dass das CO2 seine Finger im Spiel hatte? Hungerkatastrophen und Kriegen um schwindende Ressourcen fielen in jenem Zeitraum Millionen von Menschen zum Opfer. Warum sollte die Natur diese Schwankungen um mehrere Grad Celsius nach 1850 einfach eingestellt haben?

Das sind unangenehme Fragen. Daher hat es immer wieder Versuche gegeben, die Vergangenheit zu retuschieren. Das berühmteste Beispiel ist diehockey stick-Kurve von Michael Mann. Dabei wurden die Berechnungen so manipuliert, dass die mittelalterliche Warmzeit verschwindet und auch die Kleine Eiszeit als transitorisches kühles Lüftchen eingestuft werden konnte. Denn es stellte sich heraus, dass die Modelle, die an den Temperaturentwicklungen zwischen 1850 und heute angepasst wurden, die Vergangenheit vor 1850 nicht zutreffend wiedergeben konnten.

Weder die mittelalterliche Wärmeperiode noch die Kleine Eiszeit scheinen in den Modellrechnungen je existiert zu haben. Weil menschengemachte Emissionen aber die einzigen Stellschrauben in den Modellen sind, versagen diese, wenn die Ursachen der Klimaänderung natürlichen Ursprungs sind. Und so verwundert es nicht, dass die mittelalterliche Warmzeit, die so warm war wie die heutige Warmzeit, von ausserordentlich hoher Sonnenaktivität gekennzeichnet war. Eine Aktivität, die wir als solares Maximum auch für das 20. Jahrhundert feststellen: So aktiv wie im letzten Jahrhundert war die Sonne seit fast 2000 Jahren nicht mehr. Dass in der Kleinen Eiszeit die Sonne ihre Sonnenfleckenaktivität über ein halbes Jahrhundert vollständig einstellte (Maunder-Minimum), passt da ins Bild.

Wie schrecklich sind 0,9 Grad?

Die Basis für die heutige Erwärmung ist das Ende der Kleinen Eiszeit. Es war die kälteste Zeit in der Geschichte der letzten 10 000 Jahre. Doch ist das wirklich die richtige Basis für Klimaziele? Wer wollte dahin zurück? Nimmt man den Mittelwert der letzten 2000 Jahre, so wäre als Nulllinie eher das Klima zwischen 1940 und 1970 als Basis geeignet. Damit hätten wir bisher eine Erwärmung von 0,5 Grad festgestellt – eine Abweichung also vom langjährigen Mittelwert, die schon die zyklischen Temperaturschwankungen im Atlantik und im Pazifik von plus/minus 0,3 Grad mit sich bringen.

Mit der heute festzustellenden Erwärmung wären wir in der besten aller Klimawelten, wie uns ein Blick in die rund alle tausend Jahre stattfindenden Warmzeiten (minoisches, römisches und mittelalterliches Zeitalter) zeigt. Weil aber die katastrophalen Voraussagen der Klimamodelle, eine Erwärmung von 1,5 bis 4,5 Grad, in der Zukunft die Debatte bestimmen, müssen wir uns mit den Klimaprognosen beschäftigen.

Die Gleichgewichtsklimasensitivität ECS (Equilibrium Climate Sensitivity) beschreibt die Änderung des Temperaturniveaus durch eine Verdoppelung des CO2 von 280 auf 560 ppm nach Einstellen eines neuen Gleichgewichtes durch die Ozeane, was mehrere hundert Jahre beanspruchen dürfte. Hierfür gibt der IPCC die erwähnte Bandbreite von 1,5 bis 4,5 Grad Celsius an. Fast niemand in der Politik und in den Medien hat bislang offensiv kommuniziert, dass dies nach den Vorstellungen des IPCC ein über mehrere Jahrhunderte dauernder Prozess ist.

Doch wie wirkt sich eine Verdoppelung des CO2 in diesem Jahrhundert aus? Eine Antwort liefert uns die transiente Klimaantwort TCR (Transient Climate Response). Sie gibt uns die Änderung der Temperatur bei Verdoppelung des CO2-Gehaltes in der Luft an zum Zeitpunkt, in dem 560 ppm erreicht worden sind. Nehmen wir also an, dass bei einem jährlichen Zuwachs von 2 ppm CO2 der Wert (heute 411 ppm) in 75 Jahren erreicht werden wird, also im Jahre 2094. Dann beträgt der entsprechende Temperaturanstieg von 1850 bis 2094 nach Angaben des IPCC 1 bis 2,5 Grad. Als wahrscheinlichster Wert wird 1,8 Grad angegeben.

Das hört sich nicht besonders gefährlich an, wenn man bedenkt, dass hiervon schon angeblich 0,9 Grad durch bisherige CO2-Emissionen verursacht wurden. Natürlich bewegt sich im Modell des IPCC die Temperatur nach 2100 in Richtung 4,5 Grad, jedoch – immer unter der Voraussetzung, dass sich die Prognostiker nicht irren – in mehreren hundert Jahren. Wissen das unsere Politiker? Wissen das die Bürger?

Doch es wird noch besser. Mittlerweile sind die ECS- und TCR-Werte des Weltklimarates einer Erosion unterworfen. Sie schmelzen gleichsam mit den Alpengletschern.

Thorsten Mauritsen vom Max-Planck-Institut in Hamburg und Robert Pincus von der Colorado-Universität kamen 2017 in der ZeitschriftNature Climate Changezum Ergebnis, dass der ECS-Wert nur noch 1,79 Grad betrage und der TCR-Wert 1,32 Grad. Zu einem ähnlichen Ergebnis kamen die Klimaforscher Judith Curry und Nicholas Lewis 2018 in einer Veröffentlichung der American Meteorological Society (ECS: 1,7 Grad, TCR: 1,33 Grad). Diese beiden Arbeiten sind die zurzeit besten Abschätzungen der Auswirkungen des CO2-Anstiegs aus realen Betrachtungen.

Bemerkenswert bei beiden wissenschaftlichen Publikationen ist, dass sie sich am unteren Rand der Bandbreite, die der IPCC für die Temperaturentwicklung vorsieht, befinden. Alle Arbeiten zur Abschätzung der Sensitivität unseres Klimas aus tatsächlichen Beobachtungen kommen zu niedrigeren Empfindlichkeiten gegenüber CO2, als die Modelle des IPCC ergeben.

Bei einer ECS von 1,7 Grad langfristig und einer TCR von rund 1,3 Grad können wird die Klimakatastrophe bis 2100 getrost absagen. Damit die vom IPCC angestrebten 2 Grad nicht überschritten werden, dürften wir die 560 ppm nicht wesentlich überschreiten. Das bedeutet, dass die Emissionen in den nächsten hundert Jahren auf das vorindustrielle Niveau gesenkt werden müssen. Auch das ist eine gewaltige Herausforderung. Doch wir hätten viel mehr Zeit für eine nachhaltige Energiezukunft, mit welcher Technologie auch immer. Das Ziel wäre über drei Generationen, nicht über drei Legislaturperioden hinweg zu bewältigen.

Auf null bis 2050 – wirklich?

In Anbetracht der aussergewöhnlich hohen Unsicherheit, des Versagens der Klimamodelle und der immer deutlicher werdenden wissenschaftlichen Erkenntnisse, dass die Klimamodelle zu heiss laufen, bleibt eigentlich nur eine vernünftige Strategie. Es ist richtig, die CO2-Verminderung auf globaler Ebene anzustreben, aber wir müssen diese immer wieder am realen Erwärmungsprozess nachjustieren. Wenn sich wider Erwarten die Katastrophenszenarien des IPCC nicht in Luft auflösen, müssen wir auf drastischere CO2-Minderungs-Schritte vorbereitet sein. CO2-arme Technologien müssen auf jeden Fall entwickelt werden. Varianten gibt es viele: Kernfusion, inhärent sichere Kernkraftwerke, fossile Kraftwerke mit CO2-Sequestrierung und natürlich auch erneuerbare Energien. Es wäre ausgesprochen dumm, sich auf eine bestimmte Option zu versteifen und andere a priori auszuschliessen.

Wenn die Klimareaktion auf das CO2 bei einem TCR-Wert von 1,3 Grad liegt, haben wir bis 2100 Zeit, um das vorindustrielle Emissionsniveau zu erreichen. Dabei ist es unerheblich, ob Deutschland und Europa 2050 oder 2100 auf netto null kommen. Entscheidend ist: Was macht die Welt, und vor allem, was macht China? Zu glauben, dass China, wie in Paris versprochen, bis 2030 die CO2-Emissionen von 8,9 Milliarden Tonnen auf (nur!) 12,5 Milliarden Tonnen ansteigen lassen wird, um diese hernach in zwanzig Jahren auf null zu senken, wäre schon arg naiv. Chinas Regierung selbst rechnet im 2050 mit den gleichen Emissionen wie heute, was schon eine gewaltige Anstrengung voraussetzt. Oder entspricht es etwa der europäischen Logik, dass wir unsere Industriegesellschaft zerstören, damit China richtig aufblühen kann?

Der Weltklimarat oder die «Fridays for future» sind der KP von China so ziemlich egal. Für die Chinesen ist gut, was China nützt, darüber sollten wir uns keine Illusionen machen. Wie China mit internationalen Abkommen umspringt, zeigte erst kürzlich der Bruch des Montreal-Abkommens. Das Übereinkommen, das für China 2002 in Kraft getreten ist, verbietet die Produktion und das Inverkehrbringen von Ozonschicht-schädigenden FCKW. Seit 2013 stossen chinesische Fabriken wieder jährlich mehr als 7000 Tonnen der verbotenen Gase aus. Reaktionen der Weltgemeinschaft: null.

1600 Kohlekraftwerke werden zurzeit weltweit in 62 Ländern gebaut, die meisten übrigens durch chinesische Firmen und mit Hilfe chinesischer Kredite. Konkret heisst das gemäss derSouth China Morning Post:15 300 MW zusätzlicher Kohlestrom für Pakistan, 16 000 MW für Bangladesch, selbst Myanmar will mit zusätzlichen 5100 MW seine Wirtschaft anheizen. Insgesamt wird die Kohlekraftwerkskapazität weltweit nicht reduziert, sondern um 43 Prozent erweitert. Das ist keine theoretische Modellrechnung, sondern die Realität. Und in Deutschland proklamiert die Bundeskanzlerin netto null für 2050.

Katastrophenwarnungen gab es schon viele. Die einen bewahrheiten sich, andere nicht, oft kam es auch ganz anders, als man dachte. Das nächstliegende Szenarium aber wäre zurzeit: Die Welt stellt sich bis 2100 langsam um, und Deutschland stürzt in zehn Jahren ab.

=====================================

Prof. Dr. Fritz Vahrenholt hat in Chemie promoviert und ist Honorarprofessor an der Universität Hamburg. Als Vertreter der SPD war er Umweltsenator in Hamburg (1991 bis 1997). Unter Bundeskanzler Gerhard Schröder war er auch als Berater für Energiefragen auf Bundesebene tätig.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich :  Fritz Vahrenholt, Fabrikation von Wahrheiten“ Sonderheft „Klimawandel für die Schule“, (11.07.2019) ;  http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Fritz Vahrenholt für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Panik macht alle Probleme schlimmer – die Klimapanik genauso!

(Einleitung von AR Göhring)

Der Philosoph Dushan Wegner, gebürtiger Tscheche und in Köln aufgewachsen, ist ähnlich wie sein Kollege Michael Klonovsky einer der pointierten kritischen Stimmen unserer grünen Zeitläufte. Immer wieder spießt er die Widersprüche und versteckten Konsequenzen der sogenannten Klimarettung auf und analysiert die dahinterstehenden Intentionen.

In einem aktuellen Artikel seines glänzenden Weblogs schaut er sich die Profiteure und deren Orwellsche Logik genauer an. Zitat:

„Selbst wenn man annimmt, daß es einen neuartigen Klimawandel gibt, daß er diesmal menschengemacht ist, daß er dazu noch erstens aufgehalten werden sollte und zweitens aufgehalten werden kann – selbst wenn wir all das annehmen, stellt sich doch immer noch die Frage, wie man dabei vorgeht?“

Ja, das sind die Formulierungen, die wir auch von Klonovsky oder Norbert Bolz kennen – sie treffen zielgenau bis ins grüne Mark.

Genießen Sie realitätsbezogene moderne Philosophie abseits der Hofberichterstatter wie Richard David Precht:

Panik macht alle Probleme schlimmer – die Klimapanik genauso!

 

Mit freundlicher Genehmigung von Dushan Wegner




Spätester Beginn der Hurrikan-Saison im Atlantik seit 2004

[*Im Original verwendet Watts den Terminus disaster porn. Anm. d. Übers.]

Abbildung: Graphik des National Hurricane Center NHC

Dass es gegenwärtig keine Gebiete gibt, in denen die Bildung eines Hurrikans zu erwarten ist, bedeutet, dass es mindestens seit 2004 nicht mehr zu einem so späten Beginn gekommen war. Damals war es der Hurricane Charley, der als erster Hurrikan am 9. August benannt worden war. In einer privaten E-Mail mit dem erfahrenen Hurrikan-Prognostiker Joe Bastardi stimmte dieser zu und fügte hinzu:

Es bestehen gute Aussichten, dass es auch gleichzieht mit dem August 1977 mit der geringsten ACE in einem August

ACE = Accumulated Cyclone Energy, ein Index zur Messung der von Tropical Storms/Hurricanes in die Atmosphäre freigesetzten Energie. 1977 war das Jahr mit der geringsten ACE innerhalb einer Saison.

Dem NHC zufolge ist nichts dergleichen während der nächsten Tage zu erwarten:

Tropical Weather Outlook
NWS National Hurricane Center Miami FL
800 AM EDT Wed Aug 7 2019

For the North Atlantic...Caribbean Sea and the Gulf of Mexico:

Tropical cyclone formation is not expected during the next 5 days.

$$
Forecaster Stewart

[Diese Meldung spricht für sich und wurde absichtlich unübersetzt gelassen. Anm. d. Übers.]

Abbildung 2

Unter der Annahme, dass sich bis zum 9. August keine neuen tropischen Zyklone bilden, würde der Beginn der Namensgebung bis zum Jahr 2001 zurückgehen, als am 14. August Tropical Storm Chantal benannt worden war.

Der Höhepunkt der Saison liegt aber noch vor uns, nämlich im September.

Abbildung 3: Graphik der Häufigkeit von Tropical Storms und Hurrikanen im Atlantik auf monatlicher Basis von 1851 bis 2017. Daten von der NOAA hier und von Chris Landsea am NHC. „Gesamte und mittlere Anzahl tropischer Zyklone nach Monaten (1851 bis 2017)“, NOAA, Atlantic Oceanographic and Meteorological Laboratory, Stand 1. September 2018. Graphik von Rcraig.

Link: https://wattsupwiththat.com/2019/08/07/slowest-start-to-atlantic-hurricane-season-since-2004/

Übersetzt von Chris Frey EIKE




Klimakrise und Trockenheit: Waldsterben 2.0?

Unser Wald ist massiv geschädigt“ titelte SPON am 01.08.2019 und verkündete: „Der Wald in Deutschland ist in einem schlechten Zustand. 100.000 Hektar wurden seit 2018 von Stürmen, Dürren und Schädlingen beschädigt“. In einem weiteren Beitrag vom 25.7. zum gleichen Thema sagt Ulrich Dohle, Vorsitzender des Bundes Deutscher Forstleute (BDF), das Hauptproblem sei die Trockenheit. In vielen Wäldern habe es seit dem Frühjahr 2018 zu wenig geregnet. Die aktuell hohen Temperaturen von um die 40 Grad Celsius seien nicht das Problem. Selbst Buchen, die eigentlich als robust gelten, werfen vielerorts ihr Laub ab und drohen abzusterben. Sowohl alte als auch junge Bäume seien betroffen. „Das ist vor allem bei den jungen Bäumen tragisch, weil sie die nächste Waldgeneration bilden“, wird Dohle zitiert. Selbst naturbelassene Buchenmischwälder seien gefährdet.

Der Klimawandel wird zum Kernproblem erklärt

Zwar wird auch in den SPON-Artikeln eingeräumt, dass die Ursachen doch vielfältiger seien und die Schuld nicht nur am Klimawandel liegt. In Wahrheit geht es um ein ganzes Bündel von Ursachen wie Sturmschäden, Schädlinge sowie die Bepflanzung mit Monokulturen, die für unser Klima nicht optimal geeignet sind. Allerdings wird in beiden Artikeln sowie in Nachrichtensendungen des Fernsehens das Thema der angeblich klimabedingten Trockenheit in den Vordergrund gerückt. Diese klimabedingte Schwächung, so die Botschaft, sei im Verein mit Sturmschäden (die ja, so die ständig wiederholte Botschaft der Medien, als ebenfalls klimabedingte Wetterextreme einzustufen sind) der wesentliche Wegbereiter für die Schädlinge, welche jetzt dem Wald zusetzen. BDF-Chef Dohle sieht die Wälder gar „vor dem Kollaps“. Der Wald als der Klimaretter schlechthin werde aktuell selbst Opfer der Klimakatastrophe. Zur Untermauerung dieser These wurden in Nachrichtensendungen des Fernsehens Diagramme des Helmholtz-Zentrum für Umweltforschung GmbH – UFZ gezeigt, welche die aktuell schlimme Trockenheit in unseren Böden bis in eine Tiefe von 1,8 m in flammenden roten und gelben Farbtönen darstellen, Bild 2. Untermalt wird diese Botschaft durch eine Legende, deren Abstufungen ausschließlich von „ungewöhnlich trocken“ bis „extreme Dürre“ reichen.

Bild 2. In Fernsehnachrichten wurden Ende Juli 2019 Bilder wie dieses gezeigt, welche die schlimme Trockenheit unserer Böden selbst noch in einer Tiefe von 1,8 m belegen sollen (Bild: UFZ)

Die (Klima)-Wissenschaft hat festgestellt…

Beim Helmholtz Zentrum für Umweltforschung handelt es sich um eine staatlich unterstützte Großforschungseinrichtung mit rund 1.100 Mitarbeitern an mehreren Standorten, das sich u.a. mit den Ökosystemen der Zukunft sowie der Klimaforschung beschäftigt. Deshalb gilt auch hier automatisch der Grundsatz, dass die vermittelten Erkenntnisse dem aktuellen Stand der Wissenschaft entsprechen und höchstens von „Leugnern“ in Frage gestellt werden. Dennoch wollen wir hier die durch solche Diagramme vermittelte Klimakatastrophen-Botschaft einem Faktencheck unterziehen. Das oben gezeigte Diagramm entspricht der aktuellen Situation von Ende Juli 2019. Schauen wir deshalb einfach mal auf zwei „normale“ Jahresübersichten, nämlich die Zeitreihen der Dürredarstellungen der Jahre 2016 und 2017, Bild 3 und Bild 4.

Bild 3. Verlauf der Trockenheit über den Gesamtboden (bis ca. 1.8m Tiefe) im Jahr 2016. Oben links = Januar (Grafik: UFZ)

Bild 4. Verlauf der Trockenheit über den Gesamtboden (bis ca. 1.8m Tiefe) im Jahr 2017 (Grafik: UFZ)

Wie man sieht, zeigt die Karte für das Jahr 2016 über insgesamt fünf Monate hinweg überwiegend Warnfarben, wobei sich die Situation in den letzten vier Monaten stark verschlimmert. Dies setzt sich dann noch über die ersten sieben Monate des Jahres 2017 hinweg fort. Erst ab dem August des Jahres 2017 signalisiert die Zunahme weißer Farbe eine Besserung der Lage. Soweit die Wissenschaft. Grundlage der Diagramme sind übrigens, so wie in den Klimadisziplinen heute üblich, Berechnungen, die auf der Grundlage einer Modellierung erfolgen.

doch was sagen die Fakten?

Sucht man für die Jahre 2016 und 2017 die jeweiligen Regenmengen aus der Niederschlagsmengenstatistik des Umweltbundesamtes heraus, so findet man für 2016 eine Regenhöhe von 733 mm und für 2017 sogar den Wert 859 mm. Das Gesamtmittel der Jahre 1881 bis 2017 liegt bei 772 mm, wobei Extremwerte zwischen 552 mm (1959) und 1018 mm (2002) registriert wurden. Demnach liegt die Regenmenge des Jahres 2016 um lediglich 5 % unter dem Mittelwert, während der Niederschlag im Jahr 2017 sogar um mehr als 11 % darüber lag. Wenn man dies mit den Darstellungen von Bild 3 und Bild 4 vergleicht, drängt sich schon die Frage auf, ob diese Diagramme die Realität nicht ein klein wenig zu stark in Richtung Alarmismus verzerren.

Waldsterben 2.0 – was sagt die Statistik?

Auch beim Blick auf die in den SPON-Artikeln genannte Schadenshöhe von 100.000 Hektar seit 2018 lohnt es sich, die Försterklage genauer mit der Faktenlage zu vergleichen. Vor allem, wenn der Klimawandel ins Spiel gebracht wird. So betont der BDF-Vorsitzende Ulrich Dohle: „Bis vor einem Jahr hätte ich noch nicht von einem Waldsterben 2.0 gesprochen. Jetzt schon“. Es habe zwar auch in den vergangenen Jahrtausenden immer wieder Klimaschwankungen gegeben. Doch der Mensch beschleunige den Prozess, wodurch den langsam wachsenden Bäumen die Zeit fehle, um sich anzupassen.

Die aktuell genannten 100.000 Hektar, die sich zudem noch auf alle Ursachen – also Stürme, Dürren und Schädlinge – verteilen, sollte man zunächst mit anderen Schadensereignissen ins Verhältnis setzen. So ist beispielsweise vom Sturm „Lothar“ aus dem Jahr 1999 dokumentiert, dass er allein schon 60.000 Hektar Wald zerstört hat, d.h. allein dieser Sturm hat einen Schaden in fast vergleichbarer Größenordnung angerichtet hat wie die Kombination von Windbruch, Dürre und Schädlingsbefall aus den anderthalb Jahren seit Anfang 2018. Seitdem hat es zahlreiche weitere schwere Stürme wie Jeanett (2002), Gudrun (2005), Kyrill (2007), Paula (2008), Emma (2008), Klaus (2009), Xynthia (2010), Norina (2010), Christian (2013), Xaver (2013), Ela (2014), Niklas (2015), Axel (2017) und Xavier (2017) gegeben. Die bisher bekannten Schadenssummen aus diesen Unwettern summieren sich zu rund 33 Mrd. €. Das in den Betrachtungszeitraum fallende Sturmtief Burglind (2018) und der Orkan Friederike (2018) verursachten mit zusammen 2,6 Mrd. Schäden weniger als 10 % dieser Summe. Diese Zahlen mögen dabei helfen, die aktuellen Klagen der Waldbesitzer besser einzuschätzen. Natürlich hat der eine oder andere Kleinwaldbesitzer erhebliche bis existenzielle Schäden erlitten, doch auf die gesamte Branche bezogen erscheint die derzeitige Klagelautstärke doch recht hoch. Ganz auszuschließen ist ein Zusammenhang mit der Aussicht auf Gelder aus einem Fördertopf von ca. 800 Mio. natürlich nicht.…

Ein Blick in den Waldschadensbericht

Seit den denkwürdigen „Waldsterbens“-Aktionen der Grünen im letzten Jahrhundert wird der Waldzustand in Deutschland jährlich bundesweit erfasst. Zu den Kernstücken des Berichts gehört eine zusammenfassende Grafik. In dieser wird der Kronenzustand der Bäume in die drei Kategorien „ohne Verlichtung“, „Warnstufe“ und „deutliche Kronenverlichtung“ unterteilt, Bild 5.

Bild 5. Ergebnisse der Waldzustandserhebung aus den Jahre 1984 bis 2018 (Grafik: BMEL)

Der Blick auf diese Auswertung zeigt, dass es auch im Dürrejahr 2018 nicht zu außergewöhnlichen Schädigungen gekommen ist. Wie auch in anderen „trockenen“ Jahren wie 1991 und 2003/ 2004 stieg der Anteil der Bäume mit starker Kronenverlichtung auf um die 30 % an. Die Vergangenheit zeigt jedoch, dass sich der Wald danach stets schnell erholte. Den umgekehrten Trend zeigt naturgemäß der Anteil der Bäume ohne Kronenverlichtung. Insgesamt verlaufen alle drei Trends wenn, dann eher mit kleinen Schwankungen linear seitwärts. Bis auf eine geringfügige Zunahme des Anteils der Bäume in der Warnstufe ist seit etwa 1990 kein Negativtrend erkennbar. Von dem behaupteten „dramatischen“ Anstieg der Waldschäden, gar von einem Waldsterben 2.0 aufgrund von Klimaveränderungen, kann keine Rede sein. Zu beachten ist außerdem, dass es bei der Erfassung keine eindeutigen, wissenschaftlich exakt überprüfbaren Kriterien gibt. Stattdessen gibt es einen breiten individuellen Ermessenspielraum. Die Ergebnisse können daher kaum als belastbar angesehen werden.

Die Klimaentwicklung ist in Wahrheit der Freund des deutschen Waldes

Vollends haltlos werden alle Behauptungen über nachteilige Auswirkungen des Klimawandels beim Blick auf eine seit mehr als 135 Jahren sehr gut dokumentierte Statistik, nämlich die Entwicklung der Niederschlagsmengen, Bild 6.

Bild 6. Entwicklung der Niederschlagshöhe in Deutschland von 1881 bis 2019 nach Daten von UBA und Statista. Daten für 2019 auf der Grundlage des bisherigen Jahresverlaufs hochgerechnet (Grafik: Autor)

Aus der Niederschlagsstatistik geht nämlich hervor, dass jegliche Klimahysterie in Sachen Waldsterben völlig unangebracht ist. Seit 1881 ist das Klima in Deutschland nämlich nicht etwa trockener, sondern feuchter geworden, d.h. es fällt mehr Regen als früher. Damit sind Klagen über nachteilige Folgen des Klimawandels auf deutsche Wälder durch die Fakten widerlegt. Während die Vertreter der „Klimaerwärmung“ gerne behaupten, hinter ihnen stehe „die Wissenschaft“, lässt sich hier eindeutig beweisen, dass das Gegenteil der Fall ist. Seit 1881 ist die mittlere Regenhöhe in Deutschland von 728 mm/a um 63 mm/a bzw. fast 9 % auf inzwischen 791 mm/a angestiegen. Was wir dagegen in den vergangenen zwei Jahren hatten, waren die üblichen kurzfristigen Schwankungen, die für Wetter normal sind. Das Klima, der langfristige Trend dagegen, ist im Gegenteil positiv für unsere Wälder und auch für unsere Ernten. Es ist ein Jammer, dass unseren Journalisten hier wieder einmal die sonst so vielbeschworene investigative Motivation abhandenkommt, sobald das Stichwort „Klimawandel“ ins Spiel gebracht wird.


Bild 7. Im Dürrejahr 2018 trugen die Apfelbäume in der Region Stuttgart so reichlich saftige Früchte, dass vielfach die Äste abbrachen (Foto: Autor)




Temperaturmessung: Rekord unbrauchbar

Wurde sie gerade noch einmal abgewendet, diese schreckliche Klimakatastrophe? Zumindest in Lingen? Das war – zur Erinnerung – bei jener Hitzewelle vor kurzem bekanntlich Deutschlands heißester Ort. Eine Station des Deutschen Wetterdienstes registrierte am 25. Juli der Wert von 42,6 °C, der von Medien und Potsdamer Klimakatastrophisten als Vorstufe zur Wetterhölle erklärt wurde.

Doch jetzt hat der private Wetterdienst »Wetter online« diesen Wert zurückgezogen: Rekord unbrauchbar. »Bezüglich des Standorts gibt es aber so viel berechtigte Kritik, dass Wetter online diesen Rekordwert nicht anerkennt.«

Historisch sei die Hitze im letzten Julidrittel ohne Zweifel gewesen, bekundet Wetter online. In Geilenkirchen wurde der alte Rekord von 40,3° am 24. Juli mit 40,5° knapp überboten. Danach hatten verschiedene Stationen mehr als 40° gemeldet. »So etwas hat es in Deutschland seit Beginn der regelmäßigen Wetteraufzeichnungen nicht gegeben.«

In Duisburg und Tönisvorst zeigte das Thermometer 41,2° an. Lingen kam dann in die Schlagzeilen mit 42,6°. Doch diese Messstelle in Lingen erfüllt jetzt nicht mehr den Standard der Weltorganisation für Meteorologie WMO. Denn es ist nicht egal, wo und wie das Thermometer steht und die Umgebung beschaffen sein soll. Der Messfühler muss abgeschattet sein, so dass er nicht von der Sonnenstrahlung oder der Wärmeabstrahlung eines Mauerwerkes beeinflusst wird. Er muss zudem ausreichend belüftet werden.Doch gerade im Umfeld der Station in Lingen wuchsen die Büsche in den vergangenen Jahren so, dass rund um die Wetterstation eine Wärmeinsel entstand, in der Wärme gestaut wurde. Höhere Temperaturen sind also nicht weiter verwunderlich. Die Station in Lingen geriet schon in den vergangenen Jahren in die Kritik, weil der Unterschied der Messwerte zu den umliegenden Stationen von Jahr zu Jahr größer wurde. Wetterunternehmer Jörg Kachelmann kritisierte den Standort der Station schon seit längerem; er wusste um den Effekt der Wärmeinseln.

Auch der Deutsche Wetterdienst DWD plante seit einigen Jahren, die Station zu verlegen. Allerdings fürchtet der Dienst die politischen Folgen einer solchen Verlegung. Wetter online: »Erkennt man den Wert nicht an, rücken »Klimawandelleugner« auf den Plan und erklären, dass es nach dem Medienhype gar nicht so heiß gewesen sei. Wird er für ungültig erklärt, wären wohl schnell unangenehme Fragen zur Standardqualität im Allgemeinen aufgetaucht.«

 

Denn Temperaturmessungen sind nach einem alten Spruch von Meteorologen das größte Problem dieser Zunft. Wo wird gemessen? Jeder kennt das: Steht in einem Zimmer das Thermometer nah an einem Ofen, ist es wärmer als in der Ecke gegenüber. Wo also ist die wahre Zimmertemperatur?

Die Vorschriften für offizielle Temperaturmessungen sehen einen Standort der Wetterhäuschen zwei Meter über dem Boden auf einer freien Fläche vor. Der Messfühler muss abgeschattet sein, ein Ventilator die Luft durchwedeln. Das Thermometer soll nicht die eigene Wärme messen, sondern die der Luft.

Besonders delikat sind Vergleiche der Temperaturentwicklung über vergangenen Jahrzehnte oder gar Jahrhunderte hinweg. Messtechnik ändert sich, ebenso wandeln sich die Gegebenheiten rund um die Messstationen. Häuser werden gebaut oder Wände hochgezogen, die die Temperaturen in der Umgebung verändern. Häufig muss der Wetterdienst auch den Standort seiner Station verändern. Messstationen mussten umgestellt werden, weil die Ableser laut Protokoll des Wetterdienstes unfähig waren, regelmäßig die Werte abzulesen und weiterzugeben.So wurde die Station in Bad Dürkheim, in der Rheinebene nahe dem Pfälzer Wald gelegen, mehrfach verlegt. »Am 13.9.1977 wurden die Beobachtungen an der jetzigen Station wegen Unfähigkeit des Beobachters eingestellt.« Zwei Monate später wurde ein neuer Beobachter gefunden und die Station wieder entsprechend verlegt. Da auch dieser Beobachter ausschied, ruhte die Station vom vom 21.10.1987 bis 14.4.1988. Die Station meldete rückgängige Temperaturen. Es ist also ein sehr schwieriges Unterfangen, Temperaturmesswerte über viele Jahre zu vergleichen. Meteorologen versuchen daher, stark schwankende Daten durch statistische Verfahren zu »homogenisieren«, etwas böse ausgedrückt: passend zu machen.

Wie schwierig, ja unmöglich es ist, die Entwicklung von Temperaturen über die letzten 100, 200 Jahre sogar auf die Nachkommastelle genau anzugeben, zeigte einst die wichtige Arbeit von Michael Limburg, der als Ingenieur im Bereich der Messtechnik und Fehlerstatistik gearbeitet und die entsprechenden Erfahrungen gesammelt hat: »Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme« lautete der etwas sperrige Titel.

Limburg ging in seiner Dissertation der Frage nach, ob die meteorologischen Daten der vergangenen 150 Jahre genau genug sind, um den Verlauf der »Globalen Mitteltemperatur« auf 1/10 Grad Celsius genau zu berechnen. Dieser Verlauf spielt in der aktuellen Klimadebatte eine wichtige Rolle; belegen die einen damit doch, dass es wärmer, die anderen, dass es kälter wird.

Doch die wichtige Frage ist: Lässt sich eine solche Aussage überhaupt treffen? Satelliten vermögen heute sehr genau alle möglichen Wetterdaten wie Temperaturen der verschiedenen Oberflächen zu messen. Sie gibt es allerdings erst seit etwa knapp 40 Jahren. Davor beruhen die Temperaturangaben auf Messungen unterschiedlicher Messstationen. Bei denen hängt es sehr davon ab, wo und wie die Thermometer angebracht sind. Über einer Wiesenfläche ergeben sich andere Temperaturen als über Asphaltflächen. Ziemlich schwierig, wenn man sehr unterschiedlich zustande gekommene Temperaturaufzeichnungen mit vielen dubiosen Angaben miteinander vergleichen und Trends herauslesen will.Das Ergebnis der Dissertation von Limburg:

»Dabei kam ich zu dem eindeutigen Ergebnis, dass die verwendeten historischen Wetter-Messdaten dies nicht erlauben. Ich fand heraus, dass die bei der Berechnung der globalen Mitteltemperatur unvermeidliche verbleibende Unsicherheit mindestens genau so groß ist wie die ganze offiziell angegebenen Änderung über 150 Jahre, wahrscheinlich aber sogar ein Vielfaches beträgt. Dies ergibt sich zwangsläufig bei Anwendung aller gängigen und vielfach erprobten Regeln der Messtechnik und der statistischen Fehlerrechnung.«

Dieses Ergebnis schreckte die prüfenden Professoren erheblich auf. Limburg weiter: »Die Arbeit stellte ja indirekt wesentliche Aussagen zur angeblichen ›menschengemachten Klimaerwärmung‹ und damit einen der Hauptgründe für die Förderung der sogenannten ›Erneuerbaren Energien‹ infrage. Für beide Themenkomplexe gibt es jedoch höchst umfangreiche Fördergelder. Vermutlich befürchteten die Verantwortlichen diesbezügliche Nachteile, falls sie einer Arbeit Platz und dem Autor einen akademischen Grad zugestanden, der dem bisherigem Dogma – und sei es auch nur indirekt – widersprach.«

Man kann sich vorstellen, wie der Blutdruck der Herren Prüfprofessoren hochschnellte. Die erste Kommission, die die Promotionsarbeit prüfen sollte, trat tatsächlich geschlossen zurück. Begründung: »Weitgehende politische Motivationder Arbeit«.

Um es kurz zu machen: Die Arbeit wurde nach einer hanebüchenen Odyssee schließlich abgelehnt. Es darf nicht belegbar sein, was nicht ins politische Konzept passt.

Nur die Entwicklung der Temperaturen über Jahrhunderte hinweg wird nach wie vor so genau angegeben, wie dies messtechnisch überhaupt nicht möglich ist. Doch ist sie ist Grundlage jener wilden These der Klimakatastrophe, auf der moderne Ablasshändler ihre Geschäfte aufbauen.

Der Beitrag erschien zuerst bei TE hier




„Jede Batterie hat zwei Polen: Kathole und Synode“

von Robert von Loewenstern

Die Grünenvorsitzende Annalena Baerbock zählt zu den kreativsten und gebildetsten Köpfen der deutschen Politik. Sie ist nicht nur medizinisch bewandert, sondern verfügt ebenso über ein grundiertes Fundwissen in vielen weiteren naturwissenschaftlichen Bereichen. Bereits mehrfach fiel die Spitzengrüne mit technisch anspruchsvollen Vorschlägen und Lösungsansätzen auf, die auf der Achse umfassende Würdigung erfuhren. Auch ihr vorurteilsfreier und ergebnisoffener Umgang mit Zahlen hat so manches Nach- und Umdenken ausgelöst – und zugleich Anfeindungen von rechtsaußen.

Jetzt, nach einem ARD-Interview, gab es erneut eine heftige Kontroverse um Aussagen der grünen Energieexpertin. Unter anderem hatte sich Baerbock zu Begleiterscheinungen der Elektromobilität geäußert. Wörtlich sagte sie (hier ab 10:00): „Fragen wie Rohstoffe, Kobold, wo kommt das eigentlich her, wie kann das eigentlich recycelt werden? Da müssen wir natürlich Antworten geben, und da gibt es jetzt die ersten Batterien, die auf Kobold verzichten können.“

Unmittelbar darauf ergoss sich in den sozialen Medien ein brauner Strom von Spott und Häme über die angehende Kanzlerkandidatin. Kein Wortspiel war den Hetzern zu billig. Da war die Rede von „Problembaerbock“ und „Baerbockmist“, man geiferte und ereiferte sich, die umstrittene Grüne habe mal wieder „einen echten Baerbock geschossen“ beziehungsweise wolle den Zuschauern „einen Baerbock aufbinden“.

Achse-exklusiv: Das ganze Interview

Stellvertretend für die Hasskommentare der Abgehängten und Abgedrehten sei ein „Dr. Bauer“ zitiert, der auf Twitter giftete: „Früher hieß es bei Esso: Pack den Tiger in den Tank. Heute heißt es bei den #Gruenen: Pack den #Kobold in die Batterie.“ Ein anderer User unterstellte gar Bildungslücken: „Offensichtlich hat es schon lange vor Greta Thunberg Schulschwänzer/innen gegeben.“

Was die Baerbock-Feinde sämtlich übersahen: Die grüne Energieexpertin hat recht. Zum einen ist die wirkmächtige Kombination von Kobold und Strom nachgewiesen und weit verbreitet. Zum anderen sind mittlerweile zahlreiche Stromspeicher ohne Kobold auf dem Markt. Die Baerbock-Aussage über koboldfreie Batterien entspricht damit dem Stand der Wissenschaft.

Zudem war ihr Statement aus dem Zusammenhang gerissen. Die ARD hatte das Gespräch geschnitten, was zu stark verkürzter Darstellung und missverständlichen Aneinanderreihungen führte. Achgut liegt exklusiv das gesamte (sechsstündige) Originalmaterial des Interviews vor, mit den vollständigen Antworten Annalena Baerbocks auf alle vier Fragen. Die ungeschnittene Aufnahme beweist, dass die Grünenvorsitzende zu zahlreichen Themenfeldern ebenso detailliert wie kompetent Stellung nimmt.

„Sonarstrom und Grasfasernetze ausbauen“

Unter anderem erläutert Baerbock ausführlich Aufbau und Funktionsweise von Batterien:

„Für die Batterieherstellung benötigt man eine Vielzahl seltsamer Erden, zum Beispiel Silentium, Graffiti, Mango, Titten und Lyzeum beziehungsweise – auf Griechisch – Lecithin. […] Jede Batterie hat zwei Polen mit Elektrohoden: Kathole und Synode. Die Synode besteht neben Lyzeum meist aus leitendem Graffiti. Für die Kathole wird klassisch und am häufigsten Mangodioxid verwendet, gefolgt von Graffitifluorid.“

Leidenschaftlich plädiert die Grünenchefin im ungekürzten Interview für eine langfristige Förderung der ökologischen Stromproduktion und einen beschleunigten Leitungsausbau:

„Es kann nicht sein, dass wir mit unseren Windkraft- und Sonaranlagen in Massen Strom erzeugen, den wir in die ganze Welt exportieren. Deshalb brauchen wir einen konsequenten Netzausbau. In diesem Zug müssen wir die veralteten Kuffarrohre Schritt für Schritt durch moderne und umweltfreundliche Grasfasernetze ersetzen. Dann können unsere ökumenisch produzierten Elektrolyte endlich deutschlandweit dorthin fließen, wo die Menschen sie benötigen: in ihren Steckdosen und Akkumulierungen.“

Baerbock weiter: 

„Die Förderung von Wind- und Sonarstrom ist alternativlos. Es ist längst gesellschaftlicher Konvent, dass wir unsere Kinder nicht weiter mit den Langzeitfolgen von angereichertem Urin belasten dürfen. Andere Lösungen sind nicht absehbar. Die seit Jahrzehnten von der Industrie versprochene Kernkonfusion ist, wie bereits der Name nahelegt, nichts als eine Spinnerei. Dasselbe gilt für andere Kontrazeptionen im Zusammenhang mit Atmokraft.“

„Reduktion von Coladioxid bleibt oberstes Ziel“

Die Grünenchefin betont, Klimaschutz, Umweltschutz und Menschenschutz seien für sie ein „Dreiklang in perfekter Einfalt“. Die Elektromobilität nutze nicht nur dem Klima, sondern sorge speziell in den Innenstädten „für einen spürbaren Rückgang der tödlichen Stinkoxide“. Gleichzeitig erinnert sie daran, damit sei „das Feenstaubproblem noch lange nicht gelöst“. Vor allem die „Bekämpfung von Trollwiderstand und Reifenabtrieb“ sei nun vorrangige Aufgabe der Industrie.

Zum Schutz bedrohter Minderheiten sei das Gute-Kobold-Gesetz in Vorbereitung, das eine koboldfreie Batterieproduktion verbindlich festschreibe. Zu der Frage nach möglichen Interessenkonflikten, weil an dem Entwurf auch Grünen-eigene Kobolde (K. Schulze, A. Hofreiter) mitgearbeitet hatten, wollte sich die Parteivorsitzende nicht äußern. Grundsätzlich bleibe jedenfalls die Reduktion von CO2 vorrangiges politisches Ziel der Grünen:

„Die Klimaleugner führen ja immer wieder an, dass unsere Atomsphäre zu 99 Prozent aus Stinkstoff und Sauberstoff besteht und Coladioxid nur in winzigen Mengen in der Atomluft vorkommt. Das ist richtig. Ebenso korrekt ist die Aussage, dass Pflanzen Coladioxid zum Wachstum benötigen und per natürlichem Photoshop-Prozess wieder in die Bestandteile Colastoff und Oxymoron zerlegen. Nur, all das sagt nichts über die Gefährlichkeit von menschengemachtem CO2 für das Klimakterium aus. Man kann es gar nicht oft genug wiederholen: Jeder Deutsche erzeugt pro Kopf jährlich neun Gigabyte Coladioxid!“

Darmkatholiken und Verbalgonorrhoe

Dass das Interview mit der Spitzengrünen so umfangreich ausfiel, hängt indirekt ebenfalls mit der CO2-Reduktion zusammen. Zur Abwendung der Klimakatastrophe verzichten viele Grüne auf CO2-haltige Getränke – auch sie selbst, wie Baerbock offenbart:

„Dazu muss man wissen, dass die im Volksmund sogenannte ,Colasäure‘ in Wahrheit keine Säure ist. Es handelt sich um gelöstes Coladioxid, also CO2 , das beim Öffnen der Flasche wieder in die Atomsphäre gelangt. Wir Grünen verwenden für den Sprudeleffekt deshalb seit langem vegane Ersatzstoffe, nämlich NO2 und SO2.“

Das Problem hierbei: Aus NO2 (Stinkstoffdioxid) und SO2 (Schwafeldioxid) entstehen unter Zugabe von Wasser unter bestimmten Bedingungen echte Säuren. Im einen Fall ist dies H2SO4 (Schwafelsäure), im anderen Fall HNO3 (Salbadersäure). Diese beiden Reizstoffe prickeln zwar im Mund- und Rachenraum ähnlich angenehm wie „Colasäure“. Die Einnahme ist allerdings mit Nebenwirkungen verbunden.

Werden Schwafelsäure und Salbadersäure kombiniert, bildet sich unangenehmer Salbader in Reinform. Außerdem führt Langzeitgenuss zu Darmkatholiken und verbaler Dauergonorrhoe, einem hartnäckigen, ansteckenden und meldepflichtigen Ausfluss, von dem neben Annalena Baerbock zahlreiche weitere Grüne betroffen sind.

Mit freundlicher Genehmigung des Autors. Zuerst erschienen auf der Achse des Guten.

Herr von Loewenstern meinte, wir dürfen weiterhin nur dann etwas von ihm übernehmen, wenn sich unsere Leser wie wir von EIKE königlich amüsieren. Also bitte, geneigter Leser, lachen Sie sich schlapp, sonst müssen wir Vertragsstrafe zahlen!




Die 70er Jahre Klima Krisen Show geht weiter, Teil 2 von 2

Auf der Suche nach… der kommenden Eiszeit

Nach der Absage der größten TV-Show aller Zeiten fand Leonard Nimoy die nächstbeste Unterhaltungsnische für Mr. Spock…

In Search of…. The Coming Ice Age

Auf der Suche nach…. Die kommende Eiszeit
30min | Dokumentarfilm, Science-Fiction | ausgestrahlt Mai 1978

Storyline
Eine Untersuchung, ob die dramatischen Wetterveränderungen in den nördlichen Bundesstaaten Amerikas bedeuten, dass sich eine neue Eiszeit nähert.

Pat Bushnell
Dr. James Hayes
Dr. Chester Langway
Dr. Gifford Miller
Dr. Stephen Schneider

IMDB [Link zu alten Hollywood Filmen, hier, obiger Dokumentarfilm]

Besonders sehenswert ist das Segment mit Dr. Stephen Schneider . Er wurde nach Geoengineering-Plänen gefragt, um „The Coming Ice Age“ abzuwenden.

Können wir diese Dinge tun? Ja. Aber werden sie die Dinge verbessern? Ich bin mir nicht sicher. Wir können nicht mit Sicherheit vorhersagen, was mit unserer eigenen klimatischen Zukunft geschieht. Wie können wir daherkommen und das [verstümmeln] ignorieren? Wir könnten die Eiskappen schmelzen. Aber was würde das für die Küstenstädte bedeuten? Die Heilung könnte schlimmer sein als die Krankheit. Wäre das besser oder schlechter als das Risiko einer Eiszeit?

  

Die sich abkühlende Welt, Newsweek, April 28, 1975

 

Die sich abkühlende Welt
Newsweek, April 28, 1975

Es gibt bedrohliche Anzeichen dafür, dass sich das Wetter auf der Erde dramatisch verändert hat und dass diese Veränderungen einen drastischen Rückgang der Nahrungsmittelproduktion bedeuten könnten – mit schwerwiegenden politischen Konsequenzen für nahezu jede Nation auf der Erde. Der Rückgang der Nahrungsmittelproduktion könnte ziemlich bald einsetzen, vielleicht erst in 10 Jahren. Die Regionen, die davon betroffen sein werden, sind die großen Weizenanbaugebiete Kanadas und der UdSSR im Norden sowie eine Reihe von marginal autarken tropischen Gebieten – Teile Indiens, Pakistans, Bangladeschs, Indochinas und Indonesiens -, in denen der Anbau erfolgt Die Jahreszeit hängt von den Regenfällen ab, die der Monsun mit sich bringt.

Die Beweise für diese Vorhersagen häufen sich inzwischen so massiv, dass Meteorologen kaum mehr mithalten können.

[…]

Für Wissenschaftler sind diese scheinbar unterschiedlichen Vorfälle die ersten Anzeichen für grundlegende Veränderungen des Weltwetters. Die zentrale Tatsache ist, dass nach einem Dreivierteljahrhundert außergewöhnlich milder Bedingungen das Erdklima sich abzukühlen scheint.

[…]

Klimatologen sind pessimistisch, ob die politischen Führer positive Maßnahmen ergreifen werden, um den Klimawandel zu kompensieren oder sogar seine Auswirkungen zu mildern. Sie räumen ein, dass einige der spektakuläreren vorgeschlagenen Lösungen, wie das Schmelzen der arktischen Eiskappe durch Bedecken mit schwarzem Ruß oder das Umleiten von arktischen Flüssen, weitaus größere Probleme verursachen könnten als die, die sie lösen. Die Wissenschaftler sehen jedoch nur wenige Anzeichen dafür, dass die Regierungschefs überhaupt bereit sind, die einfachen Maßnahmen zur Bevorratung von Nahrungsmitteln oder zur Einbeziehung der Variablen der klimatischen Unsicherheit in wirtschaftliche Prognosen für die künftige Nahrungsmittelversorgung zu ergreifen. Je länger die Planer sich verweigern, desto schwieriger wird es für sie, den Klimawandel zu bewältigen, sobald die Ergebnisse ernst werden.
– Peter Gwynne mit Berichten der Redaktion

Newsweek , 28. April 1975 Volltext.

Zurück zum Jahr 1975… „Klimatologen sind pessimistisch, dass die politischen Führer positive Maßnahmen ergreifen werden, um den Klimawandel zu kompensieren oder sogar seine Auswirkungen zu mildern.“ Manche Dinge ändern sich nie…

 

Wissenschaftler fragen, warum sich das Weltklima ändert, The New York Times 21. Mai 1975
WALTER SULLIVAN 21. Mai 1975

(Dies ist eigentlich ein sehr guter Artikel …)

Das Weltklima verändert sich. Davon sind die Wissenschaftler fest überzeugt. Aber in welche Richtung und warum ist Gegenstand der vertiefenden Debatten.
Es gibt Spezialisten, die sagen, dass eine neue Eiszeit auf dem Weg ist – als unvermeidliche Folge eines natürlichen Kreislaufprozesses oder als Folge einer von Menschen verursachten Verschmutzung der Atmosphäre. Und es gibt Leute, die behaupten, solche Verschmutzungen könnten tatsächlich eine Eiszeit auslösen.

Früher oder später wird eine starke Abkühlung des Klimas allgemein als unvermeidlich angesehen. Hinweise, dass es bereits begonnen haben könnte, sind offensichtlich. Der Rückgang der Durchschnittstemperaturen seit 1950 auf der Nordhalbkugel hat beispielsweise ausgereicht, um die britische Vegetationsperiode um zwei Wochen zu verkürzen.

In einem kürzlich veröffentlichten Bericht der National Academy of Sciences heißt es: „Die globalen Strukturen der Nahrungsmittelproduktion und der Bevölkerung, die sich entwickelt haben, hängen implizit vom Klima des heutigen Jahrhunderts ab.“

Die Anfälligkeit für den Klimawandel sei „umso gravierender, als wir erkennen, dass unser derzeitiges Klima in der Tat sehr ungewöhnlich ist und dass wir es möglicherweise Klimaveränderungen als Ergebnis unserer eigenen Aktivitäten hervorbringen. “

 […]

Die erste Hälfte dieses Jahrhunderts war anscheinend die wärmste Zeit seit der „Warmzeit“ vor 5.000 und 7.000 Jahren unmittelbar nach der letzten Eiszeit. Dass sich das Klima zumindest auf der Nordhalbkugel seit etwa 1950 abkühlt, ist gut begründet – wenn man die letzten beiden Winter außer Acht lässt.

[…]

Vom Menschen verursachter Einfluss Es besteht allgemeine Einigkeit darüber, dass das Einbringen großer Mengen von Rauchpartikeln oder Kohlendioxid in die Atmosphäre das Klima verändern kann. Gleiches gilt für die Erzeugung von Industriewärme, die mit einem erheblichen Teil der Sonnenenergie vergleichbar ist, die auf die Erde fällt. Im Mittelpunkt der Debatte stehen die genauen Rollen dieser Auswirkungen und der Grad der Verschmutzung, die zu gravierenden Veränderungen führen.

Kohlendioxid in der Luft wirkt wie Glas in einem Gewächshaus. Es ermöglicht, dass Sonnenenergie als sichtbares Licht auf die Erde gelangt, behindert jedoch den Austritt dieser Energie in Form von Wärmestrahlung (bei infraroten Wellenlängen) in den Weltraum.

Dr. Mitchell hat darauf hingewiesen, dass eine Vielzahl von Faktoren die Rolle von Kohlendioxid auf der Erde bestimmen. Inwieweit dieses Gas, das durch Schornsteine und Auspuffrohre in die Atmosphäre gelangt, von den Ozeanen absorbiert wird, hängt von der Temperatur der Oberflächengewässer ab.
Dies wiederum wird durch das Klima beeinflusst, was zu sogenannten Rückkopplungseffekten führt. Pflanzen verbrauchen Kohlendioxid in einer Menge, die von der Temperatur und der Menge des Gases in der Luft abhängt, was Vorhersagen über ihre Rolle erschwert.

Das Observatorium auf Mauna Loa, dem großen hawaiianischen Vulkan, verzeichnete zwischen 1958 und 1972 einen stetigen Anstieg des durchschnittlichen Kohlendioxidgehalts in der Atmosphäre um 4 Prozent. Dies war jedoch eine Periode der globalen Abkühlung – nicht das Gegenteil, wie man es von einem Treibhauseffekt erwarten würde.

Das Mauna-Loa-Observatorium hat auch einen stetigen Anstieg der atmosphärischen Trübung verzeichnet – das Ausmaß, in dem Partikel die Helligkeit der Sonne verringern. Die Studie der Akademie zeigt, dass die menschliche Aktivität in den letzten 120 Jahren mehr zu diesem atmosphärischen Staub beigetragen hat als Vulkanausbrüche.

Es heißt jedoch, dass die derzeitige atmosphärische Belastung durch künstlichen Staub vielleicht nur ein Fünftel der Menge beträgt, die durch die Vulkanexplosion von Krakatoa im Jahr 1883 in die Stratosphäre geworfen wurde. Die Rolle von atmosphärischem Staub ist komplex, da er zwar das auf die Erde kommende Sonnenlicht reduziert, aber der Staub wird selbst durch das Licht erwärmt, das die Atmosphäre erwärmt, in der er sich befindet.

Bis vor kurzem war die Vorstellung, dass Eiszeiten durch intensive vulkanische Aktivitäten ausgelöst werden, unpopulär, da keine Beweise für eine solche Aktivität vorliegen. Die Hypothese hat durch die Analyse von Sedimentkernen, die vom Bohrschiff Glomar Challenger aus dem Meeresboden gewonnen wurden, an Glaubwürdigkeit gewonnen.

Laut Wissenschaftlern der University of Rhode Island war Asche weit häufiger in Schichten zu finden, die in den letzten zwei Millionen Jahren gebildet wurden, als in den vorausgegangenen 18 Millionen Jahren.

Wenn der weltweite Energieverbrauch in der jetzigen Größenordnung weiter steigt, hat MI Budyko, ein führender sowjetischer Spezialist, katastrophale Klimaveränderungen prognostiziert. Er sagt, dass das kritische Niveau wahrscheinlich innerhalb eines Jahrhunderts erreicht wird.

Dies werde zu einer „vollständigen Zerstörung der polaren Eisdecke“ führen. Mit dem eisfreien Nordpolarmeer würde nicht nur der Meeresspiegel steigen, sondern auch das gesamte Wettersystem der nördlichen Hemisphäre verändert.

Dr. Mitchell hat jedoch angedeutet, dass die Erwärmung des Klimas aufgrund der Verschmutzung ausreichen könnte, um eine Eiszeit „ganz ungewollt“ auszulösen.

KANN DIE WAHRHEIT ERLERNT WERDEN?

Eine genauere Kenntnis der Vergangenheit wird sicherlich die Wahl zwischen verschiedenen Erklärungen für langfristige Klimaveränderungen erleichtern. Das Greenland Ice Sheet Program mit amerikanischen, dänischen und schweizerischen Teilnehmern bohrt eine Reihe von Löchern in den Kamm des grönländischen Eises in der Hoffnung, letztendlich das Klima der letzten 100.000 Jahre in jahresweisen Aufzeichnungen zu rekonstruieren.

Bisher wurde das Eis bis zu einer Tiefe von 400m durchbohrt, was die untersuchten Zeiträume um 1.420 Jahren verlängert. Die jährlichen Schichten können wie Baumringe in Bezug auf Sommer- und Winterschwankungen in der relativen Häufigkeit von zwei Formen von Sauerstoff (Sauerstoff 16 und Sauerstoff 18) gezählt werden. Ihr Verhältnis gibt die Temperatur zu dem Zeitpunkt an, als der Schnee zur Bildung dieser Eisschicht fiel.

[…]

The New York Times 21. Mai 1975 Vollständiger Text.

Die „Wissenschaft“ steckte damals eindeutig in den Kinderschuhen… Aber, wie schon erwähnt, manche Dinge ändern sich nie…

Wenn der weltweite Energieverbrauch in der jetzigen Größenordnung weiter steigt, hat MI Budyko, ein führender sowjetischer Spezialist, katastrophale Klimaveränderungen prognostiziert. Er sagt, dass das kritische Niveau wahrscheinlich innerhalb eines Jahrhunderts erreicht wird.

Dies werde zu einer „vollständigen Zerstörung der polaren Eisdecke“ führen. Mit dem eisfreien Nordpolarmeer würde nicht nur der Meeresspiegel steigen, sondern auch das gesamte Wettersystem der nördlichen Hemisphäre verändert.

Zumindest waren ihre Vorhersagen damals weniger fälschbar… Die Eiskappen werden bis 2075 geschmolzen sein. Hat jemand eine Referenz für Budykos Vorhersage? Bezog er sich auch auf die Antarktis und Grönland? Oder nur das Meereis? Die Tatsache, dass die aktuelle arktische Meereisbedeckung deutlich über dem holozänen Durchschnitt liegt, führt mich zu einem Alfred E. Neuman-Moment .

 

  „Kommt die Eiszeit?“, Science News, 1. März 1975


Science News 1. März 1975

Worte sind nicht nötig und das bringt uns zum pièce de résistance

Wie die gegenwärtige gefälschte Klimakrise uns vor der Klimakrise der 70er gerettet hat

Autor, modifiziert nach IPCC AR4

Nach den heiligen Klimamodellen wäre der Planet ohne die Climate Wrecking Industry kälter als „Die Eiszeit kommt“

Dieses stolze Mitglied der Climate Wrecking Industry sagt: „Gern geschehen.“

****

Gefunden auf WUWT vom 24.07.2019

Zusammengestellt und übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/07/24/that-70s-climate-crisis-show/




Der Juli 2019 war nicht der wärmste Juli jemals

Man würde denken, dass für eine solche Abschätzung nur die besten verfügbaren Daten herangezogen werden würden. Schließlich stammen die Angaben von offiziellen regierungsamtlichen Stellen (NOAA, WMO).

Aber die derzeitigen offiziellen Verkündigungen globaler Temperaturrekorde stammen von einer ziemlich limitierten Anzahl fehleranfälliger Thermometer, welche niemals dazu gedacht waren, globale Temperaturtrends zu ermitteln. Das globale Thermometer-Netzwerk weist drei große Probleme auf, wenn es um global gemittelte Temperaturwerte geht:

1) Der städtische Wärmeinseleffekt (UHI) hat zu einer graduellen Erwärmung der meisten Thermometer-Messstellen geführt wegen zunehmender Bebauung, der Einrichtung von Parkplätzen und Maßnahmen zu Air Conditioning, Autos usw. Diese Effekte sind lokaler Natur und nicht repräsentativ für die meisten globalen Festlandsgebiete (die zumeist weiterhin ländlich geprägt sind), und diese Erwärmung ist keinesfalls dem zunehmenden Kohlendioxid-Anteil in der Atmosphäre geschuldet. Weil die UHI-Erwärmung wie eine globale Erwärmung „aussieht“, ist es schwierig, diese aus den Daten zu entfernen. Tatsächlich sieht es so aus, als ob die Bemühungen der NOAA, UHI-kontaminierte Daten wie Daten aus ländlicher Umgebung aussehen zu lassen, den gegenteiligen Effekt hatten. Die beste Strategie wäre es, einfach die Daten der besten Thermometer-Standorte (in ländlicher Umgebung) heranzuziehen, aber genau das wird derzeit nicht gemacht.

2) Wassertemperaturen der Ozeane sind notorisch unsicher wegen wechselnder Messverfahren (vor langer Zeit Messungen mittels Eimer-Stichproben, dann Messungen der Temperatur in einströmendem Kühlwasser der Schiffsmotoren, Bojen und Satellitenmessungen erst seit 1983 usw.)

3) Sowohl Land- als auch Wassertemperaturen sind geographisch notorisch unvollständig. Wie kann man Temperaturen abschätzen in einem Gebiet von 1 Million Quadratmeilen, wo es keine einzige Messung gibt?

Es gibt bessere Möglichkeiten.

Ein vollständigeres Bild: Datensätze globaler Re-Analysen

An vielen Wettervorhersage-Zentren weltweit arbeiten Experten, welche eine Vielfalt von Daten aus allen möglichen Quellen auswerten und herausfinden, welche dieser Daten Wetterinformationen enthalten und welche nicht.

Aber wie können sie diesen Unterschied erkennen? Weil gute Daten zu guten Wettervorhersagen führen und schlechte Daten nicht.

Unter den Datenquellen sind Thermometer, Bojen und Schiffe (wie in den „offiziellen“ globalen Temperatur-Berechnungen), aber auch zusätzlich Daten von Wetterballonen, kommerziellen Flugzeugen und eine Vielfalt von Daten aus Satellitenmessungen.

Warum sollte jemand nicht von der Erdoberfläche stammende Daten verwenden, um bessere Messungen an der Oberfläche zu bekommen? Da das Wetter an der Oberfläche die Wetterbedingungen in der höheren Atmosphäre beeinflusst (und umgekehrt), kann man eine bessere Schätzung der globalen mittleren Temperatur erhalten, falls man Temperaturmessungen via Satelliten im globalen Maßstab in der freien Atmosphäre hat und auch in Regionen, in denen es gar keine Daten von der Oberfläche gibt. Aus Satellitendaten ableiten zu können, ob es sich um eine warme Luftmasse oder um eine kalte Luftmasse handelt, ist besser als überhaupt keine Daten zu haben.

Außerdem verlagern sich Wettersysteme. Und darin liegt auch der Sinn von Re-Analysen-Datensätzen: Weil all die verschiedenen Datenquellen sorgfältig durchforstet worden sind, um zu sehen, welche Mischung derselben zu den besten Wettervorhersagen führte (einschließlich Adjustierungen möglicher Instrumentenfehler und zeitlicher Verlagerung), wissen wir, dass die physikalische Konsistenz der verschiedenen eingehenden Daten ebenfalls optimiert waren.

Ein Teil dieses Verfahrens des Erstellens von Vorhersagen ist es, „Daten“ zu erhalten, wo es keine Daten gibt. Weil Wettersysteme unentwegt um die Welt ziehen, können die Gleichungen für Verlagerung, Thermodynamik und Feuchtigkeit herangezogen werden, um Temperaturwerte dort abzuschätzen, wo es keine Daten gibt, indem man vorhandene Daten in anderen Gebieten extrapoliert und dann beobachtet, wie sich das Wettersystem verhält, wenn es in Gebiete ohne Daten zieht. Darum wussten wir im Voraus, dass es in Frankreich einige außerordentlich heiße Tage geben würde, weil eine Luftmasse aus der Sahara bis nach Westeuropa vorankommen würde.

Diese Art der Extrapolation auf physikalischer Grundlage (nichts anderes ist Wettervorhersage) ist viel realistischer als beispielsweise die Temperaturen auf dem Festland rund um die Arktis zu messen und einfach zu raten, wie die Temperaturverhältnisse über dem kalten Meerwasser und dem Eis beschaffen sind, wo die Temperatur im Sommer selten deutlich über den Gefrierpunkt steigt. Tatsächlich ist dies eine der höchst fragwürdigen Verfahren von NASA GISS, um Daten aus datenfreien Gebieten zu erhalten.

Falls man denkt, dass das Re-Analyse-Verfahren fragwürdig klingt, weise ich nochmals darauf hin, dass genau dieses für die tägliche Wettervorhersage herangezogen wird. Zwar können wir uns über einige falsche Wettervorhersagen lustig machen, aber die objektiven Beweise zeigen, dass Vorhersagen für 2 bis 3 Tage im Voraus ziemlich genau sind, und sie werden mit der Zeit immer weiter verbessert.

Das Re-Analyse-Bild für den Juli 2019

Die einzigen Re-Analyse-Daten, die ich kenne und die fast in Echtzeit zu erhalten sind, stammen von WeatherBell.com und kommen vom Climate Forecast System der NOAA, Version 2 (CFSv2).

Die Graphik der Temperaturabweichungen vom Mittel des Zeitraumes 1981 bis 2010 zeigen für Juli 2019 eine globale mittlere Abweichung von lediglich etwas über 0,3°C über den Normalwerten:

Man beachte bei dieser Graphik, wie verzerrt die Berichterstattung in den Nachrichten war, als es um die vorübergehenden heißen Orte in Frankreich ging. Den Medienberichten zufolge sollen sie zur globalen mittleren Erwärmung beitragen. Ja, in Frankreich war es im Juli ungewöhnlich warm. Aber man betrachte die kalten Gebiete in Osteuropa und Westrussland. Wo gab es Berichte darüber? Was ist mit der Tatsache, dass es in den USA allgemein kälter als normal war?

Der Re-Analyse-Datensatz CFSv2 reicht nur bis zum Jahr 1979 zurück, und doch erkennt man, dass der Juli 2019 seit 41 Jahren an vierter Stelle der wärmsten Juli-Monate lag: in den Jahren 2016, 2002 und 2017 war es jeweils wärmer. Und eine Abweichung vom Mittelwert von +0,3°C ist nun wirklich nicht alarmierend.

Warum verwendet man bei der Verfolgung der globalen Temperaturen keine Re-Analyse-Datensätze?

Die Hauptbegrenzung der Re-Analyse-Datensätze liegt darin, dass sie meist nur bis 1979 zurück reichen, und ich glaube, dass mindestens einer bis 1950 zurückreicht. Da man bei der Berechnung globaler Temperaturtrends Daten so weit zurück reichend wie möglich haben will (zumindest bis zurück zum Jahr 1900 oder davor), können sie legitimerweise sagen, dass sie ihre eigenen Datensätze konstruieren wollen aus den längsten Datenreihen: von Thermometer-Messungen.

Aber der größte Teil der Erwärmung ereignete sich während der letzten 50 Jahre, und falls man versucht, die globale Temperatur mit Treibhausgas-Emissionen zu verlinken, scheint der Zeitraum seit 1979 ausreichend, da dies der Zeitraum mit den höchsten Treibhausgas-Emissionen ist.

Also schlage ich vor, dass man globale Re-Analyse-Datensätze heranzieht, weil diese ein genaueres Bild geben für Schätzungen globaler Temperaturänderungen zum Zwecke des Erkennens von Erwärmungstrends während der letzten 40 Jahre und diese zeitlich nach vorne zu extrapolieren. Es sind eindeutig die Datensätze mit der besten physikalischen Grundlage. Sie wurden optimiert, um die besten Wettervorhersagen zu erstellen und sind viel weniger anfällig für willkürliche Eingriffe in Gestalt von Adjustierungen und damit dafür, die vom Provider gewünschten Antworten zu liefern anstatt die Physik der Atmosphäre für diese Antworten zugrunde zu legen.

Link: https://wattsupwiththat.com/2019/08/02/july-2019-was-not-the-warmest-on-record/

Übersetzt von Chris Frey EIKE




KLEINE KLIMAKUNDE – Grüne Klimakiller (1)

Ja, das Wort ist Unfug. Klima kann man nicht killen, es ist und bleibt eine Wetterstatistik. Es klingt aber so schön reißerisch und vielleicht lockt es Leser an, die nur an Kohle, Öl und Gas denken, wenn jemand „Klimakiller“ sagt. Hier geht es aber um die Wirkung der gar nicht reinen Ökoenergien auf das Klima.

Die menschliche Nutzung der Wind- wie auch der Sonnenenergie ist ein Eingriff ins Ökosystem. Energie kann nicht erzeugt, nur gewandelt werden. Jede Naturenergie wird ohne menschlichen Eingriff zu 100 Prozent von der Natur genutzt, jeder Eingriff stört das ursprüngliche energetische Gleichgewicht.Solar- und Windenergie sind das Ergebnis der Sonneneinstrahlung, die wiederum einem kernphysikalischen Fusionsprozess der Sonne entspringt. Die Strahlung sorgt für direkte wie auch indirekte Energiezufuhr über Luftdruckunterschiede und Wasserkreisläufe. Sonnenenergie sorgt für die Erwärmung des Bodens, die Fotosynthese und die Verdunstung von Wasser, der Wind ebenfalls für Verdunstung und zusätzlichen Wärmeentzug.

Sobald der Mensch eingreift und Energie „abzweigt“, fehlt sie der Natur an anderer Stelle. „Jeder Eingriff in dieses bodennahe Ausgleichs- und Kühlsystem muss zu Änderungen im Wärmehaushalt der betroffenen Regionen führen“, schreiben die „Energiedetektive“ aus Graz in ihrer Studie 1). Die Entnahme von Sonnen- und Windenergie ändert natürliche Klimaprozesse. Windkraftanlagen beeinflussen die natürliche Ausgleichsströmung zwischen Zonen verschiedenen Luftdrucks, die Energie fehlt im bodennahen Kühlsystem und ändert damit auch die Wasserbilanzen. Sie greifen in das Lüftungssystem der Natur ein.

Wie das im Detail geschieht, durch welche sich überlagernden Prozesse, die sich kompensieren, aber auch verstärken können, ist noch nicht eindeutig geklärt. Es gibt eine dünne Quellenlage, die verschiedene Theorien zeigt.
Die „Energiedetektive“ gehen davon aus, dass die geminderte Energie des Windes nach der Windkraftanlage (WKA) den Boden weniger kühlt und weniger Feuchtigkeit verdunsten lässt. Weniger Verdunstung und weniger Wolkenbildung, weniger Regen in weiterer Entfernung wären die Folge. In Summe würde die Sonneneinstrahlung zunehmen, was die Erwärmung wiederum fördert.Andere gehen davon aus, dass durch die Drehung der Rotoren die laminare Schichtung der strömenden Luft aufgebrochen werde. Es erfolgt eine Umwandlung in Elektrizität mit einem Wirkungsgrad von etwas über 40 Prozent. Physikalisch bedingt unterliegt der maximale theoretische Wirkungsgrad der Windkraftanlagen der so genannten Betz-Grenze von 59 Prozent, hinzu kommen die praktischen Reibungs-, Wärmeverluste, Umwandlungs- und Leitungsverluste.

Die gegenseitige Windverschattung mehrerer Anlagen in Windindustrieparks mindert zusätzlich den rechnerischen möglichen Ertrag. Ein Teil der umgewandelten Energie wird sofort über die Verlustwärme von Generator und – sofern vorhanden – Getriebe und der Trafostation am Boden an die Umgebung abgegeben.

Der nicht umgewandelte Teil der Energie sorge für Verwirbelung. Es bilden sich so genannte Wirbelschleppen, die man sich als horizontale Tornados (geringer Intensität) vorstellen kann, die noch kilometerweit Bestand haben. Die vertikale Durchmischung der Luft bewirke einen Transport der feuchten Luft aus den bodennahen Schichten in höhere. Dabei kann es zur Auskondensation der Luftfeuchte in größerer Höhe durch den niedrigeren Druck kommen, was dann, wie auf dem Foto zu sehen, die Wirbelschleppen sichtbar macht.

Dazu komme der thermische Effekt. Durch den Luftabtransport aus bodennahen Schichten würde dem Boden Luftwärme entzogen, die feuchte Luft ziehe gleichzeitig Verdunstungswärme ab. Abkühlung und geringere Feuchtigkeit verschlechterten die Bedingungen für das Pflanzenwachstum. Die anthropogen verursachte Wolkenbildung sorge als atmosphärischer Wasserdampf für die Zunahme dieses stärksten und häufigsten Treibhausgases.

Eine weitere Theorie geht davon aus, dass die Verwirbelung der Luft zu deren Erwärmung führt und die Ablenkung nach oben sogar zu einer Verwirbelung und Zerstreuung von Wolkenfeldern führen kann.

Im Wald haben Windkraftanlagen unzweifelhaft besonders schädigenden Einfluss. Zunächst wird der Wald durch den Einschlag als CO2-Senke und Wasserspeicher dezimiert. Erosion und Auswaschung des ehemaligen Waldbodens sowie Versandung führen zu schnellerem Wasserabfluss, eine Versteppung der gerodeten Flächen droht.Hinzu kommt die unterirdische Bodenversiegelung durch die mehrere tausend Tonnen schweren Stahlbetonfundamente, die mehr als drei Meter mächtig sind. Der feuchte Boden darüber trocknet aus, das Wasser kann nicht versickern und an der Grundwasserbildung teilnehmen. Der gleiche Effekt tritt auf den verdichteten Zufahrtsstraßen und Montageplätzen auf, die in der Ausdehnung die Fundamentflächen der Anlagen weit übersteigen. Desweiteren führen die Erdkabel für die Stromableitung zu örtlicher Austrocknung des Bodens. Die klimaregulierende Wirkung des Waldes wird insgesamt reduziert, der natürliche Widerstand gegen Extremwetter verringert sich.

Der Dürremonitor des Helmholtz-Zentrums für Umweltforschung zeigt die verschiedenen Trocknungsgrade des Bodens in Deutschland im Oberboden und in etwa 1,8 Metern Tiefe an. Offensichtlich ist, dass das Gebiet der trockensten Böden etwa deckungsgleich mit der räumlichen Verteilung von Windkraftanlagen ist.
Korrelation ist nicht Kausalität, der Bezug scheint dennoch augenfällig. Deckungsgleichheit mit der Niederschlagsverteilung besteht hingegen, abgesehen vom Osten des Landes, nicht.

Die Erkenntnisse sind nicht neu. Die Wirkung von Windkraftanlagen auf die Bodenfeuchte wurde bereits vom Wissenschaftlichen Dienst des Bundestages (WD8-3000-057/13) beschrieben. Dass dies öffentlich kaum kommuniziert wird, ist Ergebnis von Lobbyarbeit und Energiewendeerfolgsjournalismus in unseren Medien.
Ebenso korrelieren der Ausbau der Windenergie und die Anzahl der Tornadomeldungen in Deutschland 1). Wachsen mehrere Windindustrieparks räumlich zusammen, wie zum Beispiel in der Uckermark, kann man davon ausgehen, dass die Beeinflussung des Mikroklimas zu einer Änderung des Regionalklimas führt.

Klima ist mehr als nur Temperatur

Die durchschnittlichen Windgeschwindigkeiten scheinen zu sinken. Ursache könnten die vielen Windkraftanlagen an der Nordseeküste und in der norddeutschen Tiefebene sein. Wurden in den 60er Jahren in Osnabrück noch im Jahresdurchschnitt 3,7 Meter pro Sekunde Wind gemessen, sind es heute nur noch 3,2 Meter pro Sekunde 2). Dies könnte die Verdunstung mindern, in heißen Sommern jedoch auch die Abkühlung und damit Extremtemperaturen begünstigen.Bei der Offshore-Windkraftnutzung beträgt die Luftfeuchte am Fuß der Anlage, also auf Wasserspiegelhöhe einhundert Prozent. Dementsprechend werden größere Mengen Feuchtigkeit in höhere Luftschichten befördert, was mehr als an Land die Wolkenbildung und damit die Bildung des Treibhausgases Wasserdampf fördert.

Die Frage, ob die Nutzung der Windenergie „gut“ ist fürs Klima, lässt sich nur mit „nein“ beantworten. Sie kann die Bildung von Treibhausgas (Wasserdampf) fördern, für Austrocknung des Bodens sorgen und damit für verringerte Fotosynthese als CO2-Senke. Bezüglich der quantitativen Auswirkungen gilt auch hier das Wort von Paracelsus: Die Dosis macht`s. Der bisherige massenhafte Ausbau und der geplante exzessive Zubau zu den schon vorhandenen fast 30.000 Anlagen im Land steigern die negativen Umwelt- und Klimawirkungen.

Jede Windkraftanlage muss durch ein fast 100-prozentiges konventionelles Backup im Netz abgesichert werden, das wiederum Klimawirkung hat. Der Lastfolgebetrieb konventioneller Anlagen in nicht optimalen Betriebsbereichen erhöht deren spezifische Emissionen pro Kilowattstunde. Der „Wasserbetteffekt“ über den europäischen Emissionshandel (Windstrom verdrängt Emissionszertifikate ins Ausland und hält deren Preis niedrig) kommt hinzu.

Verhinderte Forschung

Zur genaueren Bewertung der Folgen der Windenergienutzung bräuchte es Messnetze im Bodenbereich für Aufzeichnungen von Temperatur und Luftfeuchte und deren Betrieb und Auswertung über längere Zeiträume. Zunächst bräuchte es aber den politische Willen und das Geld dazu, dies untersuchen zu lassen. Auf eine Anfrage der FDP-Bundestagsfraktion zum massenhaften Insektensterben an den Rotorblättern der Windkraftanlagen antwortete Umweltministerin Schulze, dass sie keinen Handlungsbedarf sehe. Man möchte die Welt, wie sie gefällt. Oder um es mit Schopenhauer zu sagen: „Was dem Herzen widerstrebt, lässt der Kopf nicht ein.“Mit den grünen „Klimakillern“ verhält es sich genauso. Viel einfacher ist es für Politiker und Journalisten, fossile Verbrennungsprozesse allein für Klimawandel und das Elend dieser Welt verantwortlich zu machen.

Was bewirkt exzessive Windenergienutzung? Zugestellte Landschaften, ihrer Weite und ihrer Ruhe beraubt, Windindustriegebiete anstelle Natur. Der Blick darauf ist subjektiv. Manche verdienen an jeder Drehung des Rotors und sogar dann, wenn er steht, weil der Strom nicht abgenommen werden kann. Andere leiden unter Infraschall, haben Schlafprobleme, Bluthochdruck und den Wertverfall ihrer Immobilie. Auch hier wird die Gesellschaft gespalten.

Die Auswirkungen auf die Umwelt sind erheblich, auf Menschen, Flora und Fauna. Diese Themen sind an vielen Stellen schon beschrieben, zum Beispiel hier, hier und hier.

Windkraftanlagen beeinflussen das regionale Wetter und wirken sich langfristig auf das Klima aus. Dieses Feld der Forschung ist vor allem hinsichtlich seiner quantitativen Auswirkungen noch ausgesprochen unterbelichtet. Sollten Leser dazu weitergehende Erkenntnisse oder Quellen haben, nehmen wir diese gern entgegen.

In Teil 2 geht es um die Wirkungen der Photovoltaik auf den Treibhauseffekt.

1) Dieser Beitrag entstand unter maßgeblicher Verwendung einer ausführlichen Studie „Ermittlungsakte Energiewende – Nebenwirkungen auf Klima und Umwelt“
vom „Energiedetektiv“ aus Graz. Hier der Weg zur Studie.

2) donnerwetter.de, Pressemitteilung vom 29.5.2015

Der Beitrag erschien zuerst bei TE hier




Heftige Strafen für „Klimaaktivisten“ in der Schweiz

Am 8. Juli blockierten Dutzende Aktivisten der Schweizer Gruppe Collective Climate Justice die Zugänge der Crédit Suisse-Hauptverwaltung in Zürich und einer UBS-Geschäftsstelle in Basel über mehrere Stunden. Die jungen Klimakämpfer trugen ähnlich wie Kollegen im Tagebau Arbeitsoveralls und Atemschutzmasken (warum auch immer) und nutzten Pflanzenkübel zum Barrikadenbau. Als Grund für die Blockade wurde angegeben, daß die beiden Großbanken „klimaschädliche Geschäfte“ finanzieren würden. Trotz des rigorosen Vorgehens der Polizei machten die Pressesprecher der Banken den Kotau vor den Kriminellen, indem sie ihre Finanzierungstätigkeit in Bezug auf Kohlekraftwerken etc. relativierten.

Die eidgenössische Polizei löste die Blockade auf und verhaftete 84 Aktivisten, darunter, natürlich, 20 Deutsche. Die Kinder wurden 48 Stunden eingesperrt, was laut Aussage eines der Verhafteten eine körperliche, „vor allem aber psychische Belastung“ gewesen. Fragen seien nicht beantwortet worden; und man habe Mutti und Vati oder deren Leibanwalt nicht anrufen dürfen.

Aus eigener Erfahrung kann ich sagen, daß ein bißchen Untersuchungshaft für linke Aktivisten, auch wenn sie noch so herumjammern, durchaus ein gewinnbringendes Erlebnis ist. Man kann vor den Freunden in der Schule oder Universität damit angeben und sich irgendwie als staatsfeindlicher Revoluzzer fühlen.

Das scheinen auch die Bankmanager und die Justiz zu ahnden, weswegen es nun weit empfindlichere Strafen für die Revolutionsspieler hagelt. Es gab Strafanzeigen wegen Nötigung, Hausfriedensbruch, Sachbeschädigung und Landfriedensbruch. Außerdem müssten alle Teilnehmer der „Demonstration“ in Zürich 1.200 Franken Strafe zahlen (60 Tagessätze zu je 30 F, Quelle: die Aktivisten). In Basel fallen pro Person sogar 9.000 Franken (180 Sätze zu 50F) an. Einigen Teilnehmern drohen sogar 150 bis 170 Tage Justizvollzug.

Hinzu kommen auch noch Aufenthaltssperren für die verhafteten Ausländer von ein bis drei Jahren.




Die 70er Jahre Klima Krisen Show, Teil 1 von 2

Ein wenig 70er Jahre Hintergrund

Ich bin seit Mai 1981 ein professioneller Geologe / Geophysiker in der Öl- und Gasindustrie. Von September 1976 bis Mai 1980 war ich Student an der Southern Connecticut State University in New Haven, Connecticut. Die Winter waren damals verdammt kalt. Der Blizzard im Nordosten der USA von 1978 (AKA „Storm Larry“ ) hat den Bundesstaat Connecticut für fast eine ganze Woche stillgelegt. Der Unterricht wurde abgesagt, wir waren in unseren Schlafsälen eingeschneit … und wir konnten eine ganze Woche lang nur Bier trinken, zwischendurch nach draußen gehen und riesige Schneeballschlachten durchführen … Dann schlug die Krise ein – Jedem Schnapsladen im Umkreis von wenigen Gehminuten um das Campus herum, ging das Bier und alle anderen alkoholischen Getränke aus. Wir mussten unsere Autos aus dem Schnee schaufeln und wurden so die ersten Klimaflüchtlinge. (Wenn Sie denken, ich wäre sarkastisch, denken Sie nicht weit genug.)

Trotz all dieser außerschulischen Aktivitäten fand ich Zeit für den Unterricht und behielt sogar die meisten meiner alten Lehrbücher. Wenn es einen Konsens über den Klimawandel gegeben hätte, hätte es mindestens einen geben müssen.

Historische Geologie

Der Vorschlag: “ …den Kohlendioxidgehalt der Atmosphäre zu ändern, könnte ein wesentlicher Faktor für den Klimawandel sein,“   stammt aus dem Jahr 1861, als der britische Physiker John Tyndall dies vorschlug.

[…] Leider können wir Änderungen des CO2 -Gehalts der Vergangenheit, weder in der Atmosphäre noch in den Ozeanen genau abschätzen, noch gibt es eine feste quantitative Grundlage für die Abschätzung des Ausmaßes des Kohlendioxidgehaltsabfalls, der zur Auslösung der Vereisung erforderlich ist.  Darüber hinaus ist das gesamte Konzept eines atmosphärischen Treibhauseffekts umstritten, da die Geschwindigkeit des Ausgleichs zwischen Ozean und Atmosphäre ungewiss ist.

Dott, Robert H. und Roger L. Batten. Evolution der Erde . McGraw-Hill, Inc. Zweite Auflage 1976. p. 441.

Meteorologie

VORAUSSCHAU DER ZUKUNFT.  Wir können nun versuchen zu entscheiden, ob wir uns in einem interglazialen Stadium befinden, andere Gletscher folgen oder ob die Welt endlich aus der kenozoischen Eiszeit herausgetreten ist. Nach der Milankovitch-Theorie müssen sich die Strahlungsschwankungen der in Abb. 16-18 gezeigten Art fortsetzen, und daher werden sich auch künftig Veränderungen der Gletscher fortsetzen. Nach der eben beschriebenen Theorie sind die Polarbreiten kalt, solange der Nord- und der Südpol ihre derzeitige thermisch isolierte Lage beibehalten. und da der arktische Ozean zwischen eisfreien und eisbedeckten Gebieten pendelt, wird das eiszeitliche interglaziale Klima anhalten.

Unabhängig von der Theorie, der man sich anschließt, solange wir keine grundlegende Veränderung des späten kenozoischen Klimatrends sehen, deutet das Vorhandensein von Eis auf Grönland und in der Antarktis darauf hin, dass die Schwankungen der letzten Millionen Jahre weitergehen werden.

Donn, William L. Meteorologie. 4. Auflage. McGraw-Hill 1975, S. 463-464

Physikalische Geographie

Die Deckwirkung der Atmosphäre auf der Erdoberfläche wurde mit der Funktionsweise eines Gewächshauses verglichen. Kurzwelliges Sonnenlicht dringt so leicht durch das Glas des Gewächshauses wie durch die Atmosphäre. Da Glas für die langwellige Strahlung aus dem warmen Innenraum des Gewächshauses undurchlässig ist, behindert es das Entweichen von Energie.

Als Planet erwärmt oder kühlt sich die Erde im Durchschnitt nicht nennenswert, weil sie so viel Strahlungsenergie verliert, wie sie gewinnt.

Kolenkow, Robert J., Reid A. Bryson , Douglas B. Carter, R. Keith Julian, Robert A. Müller, Theodore M. Oberlander, Robert P. Sharp und M. Gordon Wolman. Physische Geographie heute: ein Porträt eines Planeten . Del Mar, CA: CRM Books, [1974]. p. 64.

Ja … dieser Reid Bryson .

 

Ein Jahrhundert der Klimakrisen

Dan Gainor und Warren Anderson haben 2006 eine großartige Zusammenfassung der „Windfahne“ Klimakrisen zusammengestellt…[Anspielung auf: … seine Meinung nach dem Wind richten]

Feuer und Eis

Es war fünf Jahre vor der Jahrhundertwende und die großen Medien begannen vor dem katastrophalen Klimawandel zu warnen. Die Seite sechs der New York Times hatte die Schlagzeile: Die ernsten Bedenken der „Geologen“. Der damalige Präsident war nicht Bill Clinton; es war Grover Cleveland. Und die Times warnte nicht vor der globalen Erwärmung – sie erklärte den Lesern die drohenden Gefahren einer neuen Eiszeit.

Das Jahr 1895 war nur einer von vier verschiedenen Zeiträumen in den letzten 100 Jahren, in denen große Printmedien eine bevorstehende Klimakrise prognostizierten. Jede Vorhersage hatte ihre eigenen Schicksalsmerkmale: Kanada könnte „ausgelöscht“ werden, oder niedrigere Ernteerträge würden „Milliarden sterben“ bedeuten.

[…]

Dan Gainor und R. Warren Anderson, 17. Mai 2006

Fire and Ice ist eine großartige Lektüre mit einigen fantastischen Grafiken:

1924: ..neue Eiszeit

1933: ..längste Wärmeperiode seit 1776

1975: Abkühlung unvermeidlich

2005: vergangene Hitzeperioden … Gründe für Gelassenheit

1923:Veränderungen der Sonne und der Ausdehnung von Gletschern… neue Eiszeit

1939: …die sagen, dass die Winter früher härter waren, haben recht, kein Zweifel es wird wärmer

1974: .. zunehmende Besorgnis … vor der nächsten Eiszeit

2001:  … keinen Zweifel an globaler Erwärmung, … Menschen sind dafür verantwortlich

Vorstehende Grafiken aus Fire and Ice, Medienforschung

 

 *** Beginn Einschub

Im Original, hat der Autor hier eine Reminiszenz an Bob Dylan eingeschoben.

Für unsere deutschen Leser möchte ich auf ein bereits bei Eike gebrachten Artikel verweisen:

https://eike.institute/2019/05/11/reloaded-kaleidoskop-der-klimafakten-teil-3-von-3/

Dort finden Sie weitere Klima-Alarmmeldungen, sowohl in Deutschland wie auch zum Teil im Ausland. Unvergessen: Rudi Carrell besang 1975 das schlechte Wetter. „Wann wird’s mal wieder richtig Sommer?“

 *** Ende Einschub

 

Da Wetter nicht Klima ist, scheint es, dass Sie einen weather man brauchen, um zu wissen, in welche Richtung das Klima weht! (/ Sarkasmus)

Es würde zwar Spaß machen, all diese gefälschten Krisen aufzuspießen, aber ich werde mich auf die Climate Crisis Show in den 70er Jahren konzentrieren, weil ich Live dabei war.

 

Die Klimakrise der 70er Jahre

Manche Dinge ändern sich nie… Die Heilung ist immer noch schlimmer als die Krankheit, und alle vorgeschlagenen „Lösungen“ für den Klimawandel sind weitaus schlimmer als das Risiko einer etwas wärmeren Welt im 21. Jahrhundert.

„Eine weitere Eiszeit?“ Time Magazine  Montag, 24. Juni 1974

 

Wissenschaft: Eine weitere Eiszeit?

In Afrika dauert die Dürre das sechste Jahr in Folge an, was die Zahl der Hungeropfer erheblich erhöht. Während des Jahres 1972 verursachten Rekordregen in Teilen der USA, Pakistans und Japans die schlimmsten Überschwemmungen seit Jahrhunderten. In Kanadas Weizengürtel hat eine besonders kühle und regnerische Quelle die Aussaat verzögert und möglicherweise eine enttäuschend kleine Ernte gebracht. Andererseits litt Rainy Britain in den letzten Jahren unter ungewöhnlichen Trockenperioden. Eine Reihe von ungewöhnlich kalten Wintern hat den amerikanischen Westen erfasst, während Neuengland und Nordeuropa in jüngster Zeit die mildesten Winter nach allen Erinnerungen erlebt haben.

Während sie das bizarre und unvorhersehbare Wettermuster der letzten Jahre untersuchen, vermuten immer mehr Wissenschaftler, dass viele scheinbar widersprüchliche meteorologische Schwankungen tatsächlich Teil eines globalen Klimawandels sind. Das Wetter ist jedoch von Ort zu Ort und von Zeit zu Zeit unterschiedlich. Wenn Meteorologen weltweit Durchschnittstemperaturen messen, stellen sie fest, dass sich die Atmosphäre in den letzten drei Jahrzehnten allmählich abgekühlt hat. Der Trend zeigt keinen Hinweis auf eine Umkehr. Klimatische Cassandras werden zunehmend besorgniserregend, da die Wetterabweichungen, die sie untersuchen, möglicherweise der Vorbote einer neuen Eiszeit sind.

Überall sind verräterische Anzeichen zu sehen – von der unerwarteten Beständigkeit und Dichte des Packeises in den Gewässern um Island bis zur Abwanderung eines wärmeliebenden Wesens wie des Gürteltiers aus dem Mittleren Westen nach Süden. Seit den 1940er Jahren ist die globale Durchschnittstemperatur um etwa 2,7 ° F[~1,5 K] gefallen. Obwohl diese Zahl bestenfalls eine Schätzung ist, wird sie von anderen überzeugenden Daten gestützt. Als der Klimatologe George J. Kukla vom Lamont-Doherty Geological Observatory der Columbia University und seine Frau Helena Satellitenwetterdaten für die nördliche Hemisphäre analysierten, stellten sie fest, dass die Fläche der Eis- und Schneebedeckung 1971 plötzlich um 12% zugenommen hatte und seitdem hat der Anstieg weiter zugenommen. Die Gebiete von Baffin Island in der kanadischen Arktis zum Beispiel waren im Sommer einmal völlig schneefrei, jetzt sind sie ganzjährig bedeckt.

[…]

Unabhängig von der Ursache des Abkühlungstrends können seine Auswirkungen äußerst schwerwiegend, wenn nicht sogar katastrophal sein. Wissenschaftler gehen davon aus, dass nur ein Rückgang der Sonneneinstrahlung auf die Erdoberfläche um 1% das Klimagleichgewicht beeinträchtigen und den Planeten soweit abkühlen kann, dass er innerhalb weniger hundert Jahre in eine andere Eiszeit gleitet.

Das gegenwärtige Klima der Erde ist eine Anomalie. In den letzten 700.000 Jahren gab es mindestens sieben große Episoden von Gletschern, die sich über einen Großteil des Planeten ausbreiteten. Die Temperaturen waren nur in etwa 5% der Fälle so hoch wie jetzt. Aber es gibt eine unmittelbarere Gefahr als die Aussicht auf eine weitere Eiszeit. Selbst wenn sich die Temperatur- und das Niederschlagsmuster in einem oder mehreren der drei großen Getreideexportländer – den USA, Kanada und Australien – in naher Zukunft nur geringfügig ändern, würden die weltweiten Lebensmittel stark zurückgehen. Der Klimatologe von der University of Toronto, ehemaliger Präsident der Royal Meteorological Society, ist der Ansicht, dass die anhaltende Dürre und der jüngste Ausfall der russischen Ernte, der Welt eine düstere Ahnung gegeben haben, was passieren könnte. Warnt Kenneth Hare:

Time Magazine  Montag, 24. Juni 1974 Volltext.

Ende des Teil 1 von 2

Lesen Sie in Teil 2: Die sich abkühlende Welt, Newsweek, April 28, 1975, und   „Kommt die Eiszeit?“, Science News, 1. März 1975 und ebenfalls lesenswert: Wissenschaftler fragen, warum sich das Weltklima ändert, The New York Times 21. Mai 1975

Gefunden auf WUWT vom 24.07.2019

Zusammengestellt und übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/07/24/that-70s-climate-crisis-show/




„Klimaleugner sind alles Verschwörungstheoretiker“

Wir berichteten über einen „psychologischen“ Artikel von Stephan Lewandowsky und Michael Mann im Magazin Journal of Social and political sociology.

Lewandowsky ist wie Cook Australier, von dem man in Europa nur wenig liest oder hört. Nichtsdestotrotz ist ihr Wirken vor allem in der Heimat desaströs – unsere Referentin Joanne Nova berichtete, daß die Australier massenhaft Diesel-Generatoren kaufen, weil ihre Regierung eine „Energiewende“ durchgedrückt hat, gegen die selbst die Merkelsche Politik fast harmlos erscheint. Die Universität von West-Australien scheint auf dem Südkontinent die Rolle unseres Potsdam-Instituts für Klimafolgenforschung (PIK) einzunehmen; allerdings sind die Klimaschwindler dort wohl noch um einiges mächtiger als Schellnhuber, Rahmstorf & Co. Wie die Australier wohl über ihre Klimaexperten denken, wenn mal wieder flächendeckend der Strom ausfällt?

Die beiden Psychologen (!) Lewandowsky und John Cook veröffentlichten vor einiger Zeit einen Artikel mit dem Titel Rekursive Wut: Verschwörungstheorie in der Blogosphäre als Reaktion auf Forschungen zur Verschwörungstheorie (…)

Darin analysieren sie die „Verschwörungstheorien“ der Klimaskeptiker und wehren diese ab, in dem sie die Kritiker bezichtigen, selber Verschwörer zu sein.

Dabei definieren sie die Kriterien der konspirativen Theorien mit Beispielen wie folgt.

„Schändliche Absicht“: Annahme, dass die mutmaßlichen Verschwörer schändliche Absichten haben. Nun, Egoismus könnte man als „schändlich“ definieren. Die Industrie des Westens zu ruinieren, nur um seinen anstrengungsfreien Job mit guten Gehalt zu ermöglichen, das ist schon schä#ndlich. Projektion?

„Verfolgte Unschuld“: Klimaleugner sähen sich als von Klimaalarmisten verfolgt an. Zu dem Argument möge man sich das Schicksal von Augusto Mangini aus Heidelberg anschauen, der sich erdreistete, Stefan Rahmstorf et al. zu kritisieren und dafür von den Polit-Wissenschaftlern aus der Klimaforschung zur Schnecke gemacht wurde.

„Nihilistischer Skeptizismus“: Alles ablehnen, was nicht in die eigene Verschwörungstheorie passt. Dazu kann man nur sagen, daß wir es hier erneut mit einer Projektion eigenen Verhaltens zu tun haben. Nehmen wir Nir Shavivs und Henrik Svensmarks Theorie von der Wirkung der Erdsonne auf unser Klima. Um diese „Klimalüge“ zu „entlarven“, hat Harald Lesch ein eigenes Video im Rahmen von TerraX veröffentlicht, in dem er dummerweise eine manipulierte Wikipedia-Grafik nutzte, die seine Theorie der CO2-getriebenen Klimakatastrophe eher stützte.

„Nichts passiert zufällig“: Zufällige unbedeutende Ereignisse werden der konspirativen Erzählung hinzugefügt. Dieser Punkt erinnert an die Strategie der Klima-Alarmisten, jedes kleine natürliche Ereignis als Ergebnis des „menschgemachten Klimawandels“ darzustellen. Dürre, Gletscher in der Arktis, Gletscher in der Antarktis, Torfbrände, heiße Sommer, Klimaflüchtlinge…., Sie dürfen ergänzen, es gibt ja vieles.

In dem Zusammenhang sei auch an die „Zuordnungswissenschaft“ der Philosophie-Doktorin Friederike Otto erinnert, die angeblich genau ausrechnen kann, welches Extremereignis zu wie viel % auf den Klimawandel zurückzuführen sei.

„Etwas MUSS falsch sein“: Hin- und Herschalten zwischen sich sogar widersprechenden Verschwörungstheorien, die nur die Vermutung gemein haben, daß etwas an den öffentlichen Verlautbarungen der Verschwörer falsch sein muß. Als Beispiel nennen die Autoren die Überzeugung einiger Briten, Prinzessin Diana habe ihren Tod nur vorgetäuscht und sei gleichzeitig vom MI5 liquidiert worden.

Dazu fällt mir sofort ein, daß die Klima-Apokalyptiker in den 70ern vor Schwefelverbindungs-Emissionen und der resultierenden  Eiszeit warnten, und später dann mit denselben Argumenten vor den CO2-Emissionen und der Heißzeit. An beidem sei hauptsächlich der alte weiße Mann schuld, die Meeresspiegel veränderten sich, es entstünden Extremwetterereignisse und Dürren, Klimaflüchtlinge würden nach Norden wandern…..

Ähnlich gelagert die Einschätzung der „Klimaleugner“: Mal seien wir ein versprengter Haufen von verschrobenen Spinnern, mal mit Industrie-Dollarmilliarden geschmierte mächtige Verschwörer, dann wieder andersherum…

Selbstbestätigende Argumentation: Beweise gegen die Verschwörungstheorie werden als Beweis für die Theorie interpretiert. Würden zum Beispiel Klimawarner mehrfach von unabhängigen Stellen bestätigt, wird dies als Beweis aufgefasst, daß die angeblich Unabhängigen in Wirklichkeit zu den Klimawarnern gehören.

An dieser Stelle wäre zu fragen, ob die angebliche Verschwörungstheorie nicht durchaus richtig liegen kann. Auch wenn keine echte Verschwörung, also Absprache, nötig ist, so ist schon auffällig, wie viele völlig unterschiedliche Leute aus völlig unterschiedlichen Bereichen am Klimaschwindel beteiligt sind. Physiker, Geologen, Psychologen, Journalisten, Politiker, Aktivisten, Industrieprofiteure, Feld- und Waldbauern, und mittlerweile sogar Immigranten („Klimaflüchtlinge“). Die kommunizieren natürlich zum größten Teil gar nicht miteinander, können sich also gar nicht verschworen haben. Brauchen sie aber auch nicht, weil Menschen mit ähnlichen Interessen schlicht ähnlich handeln. Ein „sich selbst organisierendes System“, wie unser Vizepräsident Michael Limburg so treffend formuliert.

Die Kriterien, die Lewandowsky und Cook zur Definition einer Verschwörungstheorie präsentieren, sind allgemein durchaus korrekt. Ihr Beispiel zu Prinzessin Dianas Tod oben, oder auch Theorien zur Inszenierung der Mondlandung, erfüllen die Kriterien gut. Und wenn einzelne Klimaskeptiker ihr sachlich-kritisches Gedankengut zum Beispiel mit mystischen Ideen von der Bilderberger-NWO oder den mächtigen Echsenmenschen vermengen, liefern sie den beiden Klima-Psychologen prima Munition.

Insofern ist der hier untersuchte Artikel perfide: Berechtigte Kritik wird raffiniert, wortreich und pauschal in das Reich der Verschwörungstheorien verbannt, in dem Verrückte oder bösartige Lobbyisten ihr Unwesen treiben. Dabei arbeiten die Klimaverschwörer spielend mit dem Mittel der Projektion; bezichtigen ihre Gegner also genau der Methoden, die sie selbst hauptsächlich anwenden. Da hat wohl jemand seinen Machiavelli gelesen. Ob Il principe bei Rahmstorf, Gore und Cook wohl im Bücherregal steht?

 

 

 




Waldsterben 2.0!

Nach der drohenden Klimakatastrophe wird nun ein neues Fass von Klimaschützern aufgemacht. Das Waldsterben 2.0. Dazu einige Fakten.

Deutschland ist das waldreichste Land Mitteleuropas. Aktuell sind rund 11,4 Mio. Hektar mit Wald bedeckt. Das entspricht knapp einem Drittel der Gesamtfläche Deutschlands. Nach der Entwaldung im Mittelalter nimmt seit etwa 1850 die Waldfläche in Deutschland stetig zu.

Waldfläche-Deutschland

Dank einer nachhaltigen Bewirtschaftung hat die Waldfläche trotz einer intensiven wirtschaftlichen Nutzung seit dem 2. Weltkrieg stetig zugenommen. Auf dem Fundament des Bundeswaldgesetzes ist die Waldfläche in den letzten 50 Jahren um mehr als 1,5 Mio. ha gewachsen. Eine Fläche, die mehr als 2 Mio. Fußballfeldern entspricht.

Zwischen 1992 und 2008 ist die Waldfläche in Deutschland „pro Jahr durchschnittlich um 176 Quadratkilometer (17.600 ha) gewachsen“, meldet das Statistische Bundesamt in Wiesbaden. Das entspricht pro Jahr in etwa der Fläche der Stadt Karlsruhe. Oder aber der Fläche eines Quadrates mit 13 km mal 13 km Kantenlänge.

In den zehn Jahren von 2002 bis 2012 hat der deutsche Wald um mehr als 50.000 ha an Fläche zugelegt. Einer Fläche, die mehr als 70.000 Fußballfeldern entspricht. Das Volumen der Waldbäume hat zwischen 2002 und 2012 um 220 Mio. m3 zugenommen – und das bei einer deutlich intensivierten Nutzung.

Nicht nur die Waldfläche wächst, sondern auch das Waldvolumen. Heute wächst mehr Wald zu, als entnommen wird und abstirbt und damit steigt auch der Holzvorat in deutschen Wäldern an. Der Holzzuwachs im deutschen Wald beträgt gemäß Waldbericht der Bundesregierung von 2017 durchschnittlich 11,2 m³ je Hektar und Jahr.

 

Bzw. insgesamt 121,6 Mio. m³ pro Jahr. Seit 1970 wurden die Wälder deutlich voratsreicher. Die Gründe für den hohen Zuwachs sind vielfältig. Eine verlängerte Vegetationsperiode, vermehrte Stickstoffeinträge aus der Luft, eine erhöhte CO2-Konzentration in der Luft und die großen Vorräte tragen zu der enormen Wuchsleistung der Wälder bei. Nur etwa 2/3 des Zuwachses wird dabei wirtschaftlich genutzt.

So zeigen auch Satellitendaten, dass Deutschland in den letzten 3-4 Jahrzehnten grüner geworden ist.

Deutschland-Gruen

Im europäischen Vergleich ist Deutschland nicht nur eines der am waldreichsten Länder, es wächst auch am meisten Holz hinzu.

Waldzuwachs

Laut einer Uno-Studie von 2011 sind die Wälder in Europe in den vergangenen 20 Jahren deutlich gewachsen. Laut dem in Oslo vorgestellten Bericht „Zustand der europäischen Wälder 2011“ wuchsen in den vergangenen 20 Jahren die Waldflächen in allen Regionen zumindest etwas – mit Ausnahme von Russland. Insgesamt habe sich der Wald durch Aufforstung und natürliches Wachstum um rund 17 Millionen Hektar Wald ausgedehnt. Das der Wald auch in Deutschland an Fläche gewinnt, hatte damals auch die Bundesagrarministerin Ilse Aigner (CSU) bei der Präsentation des Waldschadensberichts betont: In den vergangenen 40 Jahren wuchs die Fläche um rund zehn Prozent oder eine Million Hektar.

Im deutschen Wald stehen jetzt ca. 90 Mrd. Bäume, das sind über 1.000 Bäume pro Einwohner.

Einen überdurchschnittlichen Waldanteil haben die Bundesländer Rheinland-Pfalz und Hessen, gefolgt vom Saarland, von Baden-Württemberg, Bayern, Brandenburg mit Berlin und Thüringen.

infografik_13293_waldflaeche_in_den_bundeslaendern_n

Auch in der Länderbetrachtung nimmt die Waldfläche nahezu überall weiter zu. Das zeigen die Auswertungen der Bundeswaldinventur. Der deutsche Wald im Ganzen wächst seit Jahrzehnten. Und das sowohl, was die Gesamtfläche betrifft, als auch was das Volumen der Bäume angeht. Das gesamte Volumen der Waldbäume erreicht inzwischen Rekordwerte: 3,66 Milliarden m3 – und das ist noch nicht einmal alles, denn es kommt noch das sehr dünne Holz der Äste dazu, das traditionell nicht mitgezählt wird. Selbst der Vorrat an abgestorbenen Bäumen nimmt zu, und zwar deutlich: auf jetzt über 200 Mio. m3.

So ist auch nicht weiter verwunderlich, wenn der Wald in der Fläche und im Volumen wächst, so gibt es darunter auch mehr abgestorbene Bäume und auch mehr Bäume die durch Stürme, oder Trockenheit und Schädlinge Schaden erleiden können. In Naturwäldern liegt aus diesem Grund auch viel Bruchholz und Totholz herum.

Besonders stark zugelegt haben die dicken Bäume. Das hängt auch damit zusammen, dass die Bäume in unseren Wäldern im Durchschnitt immer älter und kräftiger werden. Und das trotz „sauren Regen“ und „Klimawandel“.

In ganz Deutschland bedecken die über 100-jährigen Waldflächen inzwischen mehr als 2,6 Mio. ha – eine Zunahme um mehr als 17 % seit 2002! Zum Vergleich: Das ist eine Fläche, die wesentlich größer ist als das ganze Bundesland Hessen (mit einer Gesamtfläche von etwa 2,1 Mio. ha = 21.000 km2).

Besonders die Flächen der sehr alten Bäume (mit einem Alter von über 160 Jahren) nehmen seit Jahrzehnten stark zu. Die bundesweiten Walderhebungen zeigen zwischen 2002 und 2012 eine Zunahme dieser alten Baumriesen um über 45 % auf jetzt 350.000 ha.

Nach den Ergebnissen der dritten Bundeswaldinventur 2011/2012 sind dabei rund 36 % der Waldfläche als sehr naturnah (14,5 %) oder als naturnah (21,3 %) einzustufen.

Auch für Klimaschützer sollte es sehr erfreulich sein, dass mit dem Holzvolumen der Bäume auch die Kohlenstoff-Menge immer mehr zunimmt, die in unseren Wäldern gespeichert ist: Etwa 2 Milliarden Tonnen Kohlenstoff stecken im deutschen Wald, eine unglaubliche Menge! In Kohlendioxidmengen umgerechnet heißt das: Die heutigen Wälder haben der Atmosphäre im Laufe ihres Wachstums über 7 Milliarden Tonnen CO2 entzogen, und jedes Jahr schlucken sie weitere 50 Mio. Tonnen. Dazu kommen noch die Kohlenstoffvorräte im genutzten Holz. Aktuell werden der Atmosphäre jedes Jahr 150 Mio. Tonnen Kohlendioxid entzogen oder bleiben ihr erspart – dank Wald und Holznutzung in Deutschland.

Allen Unkenrufen zum Trotz stirbt der deutsche Wald also nicht. Ganz im Gegenteil. Nirgendwo in Europa geht es dem Wald so gut wie in Deutschland und nirgends in Europa bindet der Wald durch die hohen Zuwächse so viel CO2 wie in Deutschland. Allen voran die „Klimaschützer“ machen aber ein neues Fass Waldsterben 2.0 auf. Siehe z.B. den Kampf um den Hambacher Forst und die jetzige Debatte um das Waldsterben 2.0 infolge Klimawandel. Hier werden dann insbesondere Fichtenmonokulturen gezeigt, die anfällig für Sturmschäden und Trockenheit und Insektenbefall sind und dies wird dann dem Klimawandel in die Schuhe geschoben. Dabei handelt es sich hier um Fehler der Vergangenheit, welche die Holzwirtschaft gemacht hat. Nach dem 2. Weltkrieg wurde viel Holz gebraucht und vor allen Fichten wurden nach der Rodung neu angepflanzt. Nach dem 2. Weltkrieg ließen England und Frankreich in Deutschland Wälder als Reparationsleistung für eigene Schäden abholzen. Die deutsche Forstverwaltung forstete danach mit Hilfe von Frauen wieder auf, vor allen schnell wachsende Fichtenwälder. Die Folgen wirken bis heute nach. Mit dem Klimawandel hat das wenig zu tun. Was den Klimaschützern aber nicht zu vermitteln sein dürfte. Man glaubt auch hier, was die Medien berichten und sogenannte Fachleute und Experten erzählen.

Der Beitrag erschien zuerst bei ScienceSceptical hier




„Eine Lüge oft genug wiederholt wird zur Wahrheit“ – Vorsicht, wenn sich 97 Prozent aller Wissenschaftler einig sind …

Vorsicht ist geboten, wenn sich wieder mal alle einig sind. Das geht für diejenigen selten gut aus, die nicht bei der trauten Einigkeit dabei sind.

Bei Honecker seinerzeit waren sich 98,85 Prozent einig. Heute sollen sich 97, manchmal auch 98 Prozent aller Wissenschaftler einig darüber sein, dass die Sache mit dem menschengemachten Klimawandel wahr sein muss. »Wir«, also die Menschheit, stehen am Abgrund und müssen sofort »das Ruder rumwerfen«.
Das sei einhellige Meinung nahezu aller Wissenschaftler. Also nahezu aller, damit sie nicht gleich 100 Prozent sagen müssen. Das klingt denn doch zu undemokratisch.

Die Geschichte geht auf den Kognitionspsychologen John Cook zurück. Der wertete 2013 knapp 12.000 Studien zum Thema globale Erwärmung aus. Die ZEIT zitierte das Ergebnis folgendermaßen: »97 Prozent derjenigen, die sich zum Klimawandel positionierten, waren sich einig, dass der Klimawandel auch menschengemacht ist.« Und sie wusste: »Es sind Lobbygruppen der fossilen Industrie, die seit Jahrzehnten bewusst Zweifel an diesem wissenschaftlichen Konsens streuen.«

Cook und seine Kollegen hatten knapp 12.000 Beiträge aus den Jahren 1991 bis 2011 gesammelt. Die sollten in verschiedene Kategorien eingeteilt werden, welche »Haltung« sie zum Klimawandel einnehmen. Weil auch 12.000 Arbeiten eine Menge Leseaufwand bedeuten, haben das »Bürger« in einem »citizen science project« getan. Wer genau, wie und nach welchen Kriterien, ist nicht bekannt.

Dann werfen sie jene Beiträge in den Papierkorb, die keinen Einfluss des Menschen sehen. Das sind rund 66 Prozent jener 12.000 Beiträge. Die willkürlich übrig gebliebenen 4.014 Beiträge teilen sie dann in eine pro und contra Kategorie. Sie finden nur 118 Arbeiten in der contra-Kategorie. Macht jene berühmten 97,06 Prozent.

Der ehemalige US-Präsident Barack Obama jubelte per Twitter: »97 Prozent der Wissenschaftler stimmen überein: Klimawandel ist eine Tatsache, menschengemacht und gefährlich.« Er berief sich auf diese auf merkwürdige Weise zustande gekommene Studie. Das Problem ist allerdings: Der Konsens der Wissenschaftler ist ein anderer, als Obama suggeriert.

Der Spiegel hat das damals, in seinen glanzvolleren alten Tagen, so gesehen und erzählte selbst, wie diese Fake-News-Nummer aufkam:

»Die Studie belegt also lediglich eine Banalität: Wissenschaftler sind sich weitgehend einig, dass der Mensch zur Klimaerwärmung beiträgt. Selbst hartgesottene Kritiker der Klimaforschung zweifeln nicht an dem physikalischen Grundsatz, dass Treibhausgase aus Autos, Fabriken und Kraftwerken die Luft wärmen.

Zu den eigentlich entscheidenden Fragen jedoch mache die Cook-Studie keine Aussage: Wie groß ist der menschengemachte Anteil am Klimawandel? Und wie gefährlich ist der Klimawandel? Die bedeutendsten Fragen der Umweltforschung sind weitaus schwieriger zu beantworten – und hier gehen die Meinungen der Wissenschaftler weit auseinander.

Warum erwecken die 97 (%) Forscher mit ihrer Kampagne den gegenteiligen Eindruck? Die Öffentlichkeit, so begründen die Autoren die Idee zu ihrer Studie, zögere bei der Unterstützung des Klimaschutzes aus Unwissenheit über den Wissenschaftlerkonsens.«

In den USA würden viele bezweifeln, dass der Klimawandel vom Menschen gemacht ist. Das ist schlecht für die Spendenkassen der vielen Panik-NGOs, die fett daran verdienen. Die sind mittlerweile zu einer unüberschaubaren Masse herangewachsen und tönen alle dasselbe. Die 97-Prozent-Kampagne sollte entsprechenden Druck ausüben. Doch die Kritik daran bezieht sich darauf, dass solche vereinfachenden Kampagnen den »Argwohn« stärken würden.

Der Spiegel zitierte damals noch den Meteorologen Victor Venema von der Universität Bonn, der fünf Gründe auflistet, warum Forscher den Konsens über den Klimawandel nicht mögen. «Über die meisten Fragen der Klimaforschung herrsche keine Einigkeit … Die Kampagne schaffe zudem zwei Lager, die Hauptgruppe und die Sonderlinge. Solch ein Gegensatz widerspreche der Widerspruchskultur der Wissenschaft.«.

In der Wissenschaft werden Erkenntnisse eben nicht mit Mehrheitsabstimmungen verabschiedet. Im Gegensatz etwa zum Fußball, wo 97 Prozent aller Fans der Meinung sind, dass Jogi Löw kein guter Bundestrainer ist; leider interessiert das wenig. Ein ›Wir stimmen ab, ob sich die Sonne um die Erde dreht oder doch umgekehrt‘ gibt es nicht. Bisher jedenfalls nicht.

Der Beitrag erschien zuerst bei TICHYS Einblick hier

Weiterführende Literatur zur Erfindung von „Konsens“ in der Klimawissenschaft finden sie ua. auch hier:

Was stimmt nicht mit der Behaup­tung, „97% aller Klima­wissen­schaftler“ stimmen hinsicht­lich AGW überein?