1

Über neue Erkennt­nisse und alte Poster­gucker als „Hüter der Wissen­schaft“

Zitat:

„… Unter die Postergucker mischte sich ein Älterer: Halbbrille, Glatze, grauer Bart. Dem Gebaren nach ein Wissenschafts-Guru. Kurz nahm der Typ Maß, um dann den jungen Koreaner mit Anwürfen nach dem Muster zu belegen: Wieso meinen Sie denn …? Aber es ist doch sattsam bekannt, dass …! Der Jüngere schien seiner Sache gewiss, blickte dem Älteren tapfer ins Gesicht und verteidigte sich in einem Englisch, das zu genauestem Hinhören zwang. Der Angreifer winkte nach ein paar zusätzlichen Einwänden ab und flanierte weiter durch die Reihen, bis er stirnrunzelnd vor einem anderen Poster verharrte. Dasselbe Szenario. Als ein Hüter der Wissenschaft wollte er imponieren, einer, der allerdings nur das zur Kenntnis nahm, was er sowieso schon wusste und auch nur deshalb zu wissen für werthielt. Leute waren das, die es verstanden, kunstvoll am Winde zu segeln, den sie selbst machten. Ein paar Jahre hin, und diesen Laffen wird niemand mehr kennen. Seine altväterlichen Weisheiten nimmt er dann wie alle vor ihm mit ins Grab.

Das hemisphärische Stefan-Boltzmann-Modell kommt ohne einen Treibhauseffekt aus

Meine neuartige hemisphärische Stefan-Boltzmann-Betrachtung für die Temperaturgenese auf unserer Erde (Abbildung unten) kommt ohne einen „natürlichen atmosphärischen Treibhauseffekt“ aus und kann unter Einbeziehung der S-B-Umgebungsgleichung die sogenannte „gemessene“ globale Durchschnittstemperatur NST widerspruchsfrei erklären.

Abbildung: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Mein hemisphärischer 2PIR²-S-B-Ansatz für die Tagseite der Erde ohne THE steht also diametral gegen den konventionellen 4PIR²-Tag=Nacht-THE-Ansatz, wie die nachfolgende Tabelle zeigt:

Tabelle: Hemisphärischer 2PIR²-S-B-Ansatz versus 4PIR²-Tag=Nacht-THE-Ansatz

Die von mir bereits mehrfach erhobene Widerlegungsanforderung gegen meinen S-B-Ansatz, nämlich einen physikalischen Gleichwertigkeitsnachweis von Tag und Nacht zu erbringen, wurde von meinen Kritikern bisher nicht erfüllt. Stattdessen mühen sich die üblichen „Postergucker“ als Blogwarte des herkömmlichen 24h=Faktor4-THE-Flacherdeansatzes mit Argumenten „ad hominem“ und „ad auctoritatem“ sowie paternosterartigen KKDMP-Wiederholungen ab. Einer der KKDMP-Namensgeber, ein Herr „Gerhard Kramm, Fairbanks, Alaska, USA“, hat nun noch einen draufgesetzt und zwei Aufsätze gegen meinen hemisphärischen S-B-Ansatz geschrieben. In dem einen argumentiert er „ad auctoritatem“, indem er eine Phalanx von Physikkoryphäen gegen meinen hemisphärischen S-B-Ansatz antreten lässt, von denen sich zeitlebens kein einziger zustimmend zum THE geäußert hatte; im anderen widerlegt er dann Aussagen, die er selbst mir erst freihändig zugeschrieben hatte:

Kramm behauptet in seinem ersten Aufsatz, Zitat Seite 18, Mitte, mit Hervorhebungen: „Während Weber (2019) den Temperaturverlauf auf der Nachtseite einer Erde ohne Atmosphäre bzw. des Mondes ignorierte, um seinen hemisphärischen Stefan-Boltzmann-Ansatz anwenden zu können, …“. Und in seinem zweiten Aufsatz behauptet er dann einfach mal das Gegenteil, Zitat erster Satz mit Hervorhebungen: „Ausgehend von dem Begriff des ‚solaren Klimas‘ wird nachgewiesen, dass die von Herrn WEBER in seinem Beitrag aufgestellten Behauptungen zur global ermittelten Oberflächentemperatur einer Erde ohne Atmosphäre mit den theoretischen Grundlagen unvereinbar sind.“

Kramm skandalisiert also, ich hätte angeblich den Temperaturverlauf „einer Erde ohne Atmosphäre“ ignoriert (1. Aufsatz) und gleichzeitig Behauptungen über „eine Erde ohne Atmosphäre“ aufgestellt (2. Aufsatz). Diese Argumentation ist also ein geschickt konstruierter Zirkelschluss (petitio principii) mit einer Beweisführung ad auditores (vordergründig plausibel für ein Publikum ohne tiefere Kenntnis). Nur zur Erinnerung, mein hemisphärisches S-B-Modell beschreibt die Temperaturgenese auf der REALEN Erde mit Tag und Nacht ohne einen THE, aber unter Einbeziehung der in Atmosphäre und Ozeanen gespeicherten Wärme. Kramms Skandalisierung betrifft also gar nicht meinen realitätsnahen hemisphärischen S-B-Ansatz, sondern vielmehr seine eigene 24h=Faktor4-THE-Flacherde ohne Atmosphäre. Und wo Kramm in seinen Kommentaren unbewiesene justitiable Behauptungen verbreitet, überschreitet er dann auch noch die Grenze zwischen wissenschaftlicher und dichterischer Fiktion.
Kramms Kommentar mit dem Link zu seinem 1. Aufsatz und die dortigen Referenzen zu meinen Arbeiten:

Weber, U. (2018): Die hemisphärische Stefan-Boltzmann Temperatur unserer Erde. Books on Demand, 48 pp.

Weber, U. (2019): Weitere Überlegungen zur hemisphärischen Herleitung einer globalen Durchschnittstemperatur. Mitt. Deutsche Geophysikalische Gesellschaft, 1/2019, 18-25.

Kramms Kommentar mit dem Link zu seinem 2. Aufsatz und die dortigen Referenzen zu meinen Arbeiten:

WEBER, U. (2017): Beweist die Temperatur des Mondes den hemisphärischen Stefan-Boltzmann Ansatz? EIKE e.V., https://eike.institute/2017/07/02/beweist-die-temperatur-des-mondes-den-hemisphaerischen-stefan-boltzmann-ansatz/

WEBER, U. (2018): Die hemisphärische Stefan-Boltzmann Temperatur unserer Erde. Books on Demand, 48 pp.

WEBER, U. (2018): Weitere Überlegungen zur hemisphärischen Herleitung einer globalen Durchschnittstemperatur. Mitt. Deutsche Geophysikalische Gesellschaft, 1/2019, 18-25.

Konkurrierende Modelle können sich untereinander weder bestätigen noch widerlegen

Insgesamt bewahrheitet sich damit erneut, was ich bereits hier auf EIKE über konkurrierende Modelle ausgeführt hatte, Zitat: „…Eine Skandalisierung meines Modells anhand von bekanntem Lehrbuchwissen, in dem diese konkurrierenden Modelle dargestellt werden, ist also wissenschaftlich absolut unzulässig. Konkurrierende Modelle können sich untereinander weder bestätigen noch widerlegen; das geht nur über deren gemeinsame physikalische Grundlagen…“. Murphy, der Lieblingsphilosoph aller Ölsucher, hatte diese Problematik folgendermaßen auf den Punkt gebracht, Zitat, „In a two-boat operation, the idiots are always on the other ship“. Bei der subjektiven Bewertung „Totalverweigerer“ und „Realist“ kommt es nämlich lediglich auf den eigenen Standpunkt an. Da sich neue wissenschaftliche Ansätze, die dem klimawissenschaftlichen Mainstream widersprechen, heutzutage nur sehr schwer verbreiten lassen, beflügeln solche manipulativen Scheinkritiken immerhin den sogenannten „Streisand-Effekt“.

Nun kaprizieren sich einige Kommentatoren aber auch darauf, dass mein hemisphärisches S-B-Modell experimentell noch gar nicht bewiesen worden sei. Dabei hatte Herr Albert Agerius diesen Nachweis über eine Rückrechnung der ERBS-Satellitenmesswerte auf die hemisphärische Sonneneinstrahlung bereits öffentlich geführt (sein Buch hier und sein aktueller EIKE-Artikel hier) und damit das IPCC-KT97-Klimamodell anhand von gemessenen Daten widerlegt. Denn schließlich stellen solche Satellitenmesswerte ein 1:1-Experiment bezüglich unserer realen Erde dar.

Der Teufelskreis zwischen Verständlichkeit und nicht angreifbaren Formulierungen

Der Autor versucht nachfolgend einmal, den Teufelskreis zwischen Verständlichkeit und nicht angreifbaren Formulierungen zu durchbrechen. Im nachfolgenden Text weisen die Zahlen in eckigen Klammern jeweils auf weiter unten verlinkte Artikel hin, in denen einzelne Aspekte meines hemisphärischen S-B-Modells bereits ausführlich behandelt worden waren.

Mein hemisphärisches S-B-Modell kann die Temperaturgenese auf der Tagseite unserer Erde und die „gemessene“ globale Durchschnittstemperatur von ca. 15°C unter Einbeziehung der S-B-Umgebungsgleichung ohne einen „natürlichen atmosphärischen Treibhauseffekt“ widerspruchsfrei erklären.

Dabei erfolgt die globale Abstrahlung von 235W/m² analog zum konventionellen THE-Ansatz über die sogenannte „Abstrahlungshöhe“. Allerdings erklärt sich die Temperaturdifferenz von 33°C zwischen Erdoberfläche (ca. 15°C) und dieser „Abstrahlungshöhe“ von etwa 5.000 Metern (ca.-18°C) ohne eine thermodynamisch widersinnige „atmosphärische Gegenstrahlung“ und ohne einen THE allein über die barometrische Höhenformel [19], wie das erstmals in einem Kommentar des EIKE-Admins ausgeführt worden war.
Immer wieder versuchen zweidimensionale Rechenkünstler und „Segler am selbstgemachten Wind“, mein hemisphärisches S-B-Modell mit vordergründigen THE-Argumenten infrage zu stellen [14-16]. Dieses hemisphärische S-B-Modell ist physikalisch leider nicht ganz barrierefrei und erfordert eine gewisse Abstraktion sowie sphärisches Vorstellungsvermögen. Bitte beachten Sie daher, dass sich die solare Einstrahlung ausschließlich auf die Tageshemisphäre der Erde beschränkt [13] und nur hier die spezifische solare Strahlungsleistung über das Stefan-Boltzmann-Gesetz ZEITGLEICH in ein S-B-Temperaturäquivalent (Strahlung => Temperatur) überführt werden kann. Beachten Sie bitte weiter, dass dieses rechnerische S-B-Temperaturäquivalent auf unserer Erde nur in extremen Ausnahmefällen erreicht wird, weil die örtliche Aufheizung üblicherweise durch Verdunstung und Konvektion begrenzt ist [20], also Wärme in die globalen Zirkulationen abfließt. Und beachten Sie bitte schließlich auch noch, dass die in Atmosphäre und Ozeanen gespeicherten Energiemengen über die S-B-Umgebungsgleichung das Temperaturverhalten auf der Nachtseite und der Winterhemisphäre unserer Erde entscheidend beeinflussen [12].

Die Inversion des Stefan-Boltzmann-Gesetzes

Tatsächlich stellt mein S-B-Modell eine S-B-Inversion (Strahlung => Temperatur) dar [20]. Der Einwand, eine S-B-Inversion würde den Erfahrungswerten beim Gebrauch eines Mikrowellenherdes widersprechen, stellt eine unzulässige dialektische Erweiterung des ursprünglichen Anwendungsbereiches dar; dieses Argument springt also vom sichtbaren (~1015 Hz) und infraroten (~1013 Hz) Licht zu monofrequenter Mikrowellenstrahlung (~1010 Hz). Und außerdem gilt dieser Einwand selbstverständlich für BEIDE konkurrierenden S-B-Modelle, also SOWOHL für mein hemisphärisches S-B-Modell ALS AUCH für den Faktor4=24h-THE-Flacherdeansatz.

Physikalisch ist aber auch die Inversion des S-B-Gesetzes (Strahlung => Temperatur) gültig, solange die S-B-Randbedingungen, also die strenge Gleichzeitigkeit (bei beiden, sowohl beim S-B-Gesetz als auch bei der Inversion) und die geometrisch korrekte spezifische Strahlungsleistung für die betrachtete Fläche (S-B-Gesetz: Strahlende Fläche des Schwarzkörpers/ Inversion: Ausschließlich die bestrahlte Fläche), stringent eingehalten werden. Insbesondere darf eine S-B-Inversion also nur auf die gleichzeitig beleuchtete Fläche angewendet werden; unbeleuchtete Flächen haben in einer solchen S-B-Inversion nichts verloren.

Die Gültigkeit einer solchen S-B-Inversion wird durch eine Übereinstimmung meines hemisphärischen S-B- Ansatzes mit dem Verlauf der gemessenen Tagestemperatur auf dem Mond eindeutig nachgewiesen [5]. Die Oberflächentemperatur auf dem Mond wird durch die einfallende solare Strahlungsleistung erzeugt. Der gemessene Temperaturverlauf auf der Tagseite des Mondes entspricht meinem hemisphärischen S-B-Modell. Damit ist der Beweis erbracht, dass eine Inversion der spezifischen solaren Strahlungsleistung dem Stefan-Boltzmann-Gesetz gehorcht. Somit wäre zunächst beiden S-B-Inversionen abgeholfen; als Knackpunkte eines 24h-Faktor4-THE-Flacherdeansatzes verbleiben allerdings weiterhin dessen Nichterfüllung der S-B Randbedingungen und die Verletzung des 2. HS der Thermodynamik.

Beim Stefan-Boltzmann-Gesetz kommt es streng auf die Reihenfolge an

In manchen Kommentierungen zu meinen Artikeln wird eine grundlegende Unkenntnis über den Zusammenhang der physikalischen Größen „Leistung“ und „Arbeit“ erkennbar. Versuchen Sie doch einfach mal, aus einem Liter kochendem Wasser, das anfänglich eine Temperatur von 8°C hatte, die elektrische Leistung der betreffenden Herdplatte zu ermitteln, ohne dass Ihnen die Zeit bis zum Kochen des Wassers bekannt ist. Sie werden feststellen, dass es für diese Aufgabe keine eindeutige Lösung gibt, sondern unterschiedliche Kombinationen von Heizleistungen und Kochzeiten zum selben Ergebnis führen.

Also, [Leistung] ist, was hinten auf der Herdplatte draufsteht, ganz egal, ob sie heiß oder kalt ist, beispielsweise 2000 Watt bei 230 Volt. Und [Arbeit] ist das Ergebnis, wenn die Herdplatte für einen gewissen Zeitraum eingeschaltet war und Wärme produziert hat, also [Wärme = Leistung mal Zeit]. Wenn Sie jetzt diese Heizplatte bis zum Kochen des Wassers bei voller Leistung im Wechsel für jeweils 30 Sekunden ein- und ausschalten, dann erhalten Sie, von Verlusten einmal abgesehen, prinzipiell die gleiche Wärmemenge, als wenn Sie diese Heizplatte bei halber Leistung über den gesamten Zeitraum betreiben würden. Der wesentliche Unterschied ist dann, dass die Heizplatte bei 1.000 Watt Leistung nicht so heiß geworden ist wie bei 2.000 Watt.

Und damit die KKDMP&B-Fraktion jetzt nicht im Chor aufheult, nein, dieses Beispiel hat nicht direkt mit dem S-B-Gesetz zu tun, sondern nur mit dessen physikalischen Einheiten; es kann aber sinngemäß auch auf das S-B-Gesetz übertragen werden. Denn die primäre Temperaturgenese auf unserer Erde erfolgt allein durch die direkte spezifische Strahlungsleistung der Sonne (S-B-Inversion: Strahlung => Temperatur) auf ihrer hemisphärischen Tagseite. Alle globalen Mittelwerte, die sich aus zeitlich und/oder räumlich gemittelten spezifischen Strahlungsleistungen der Sonne herleiten, verlassen dagegen unwiderruflich das S-B-Gesetz. Sie enden daher, ebenso wie das Beispiel mit der Herdplatte, für die primäre solare Einstrahlung bzw. deren Temperaturäquivalent in einer beliebigen Lösungswolke, deren Ergebnisse noch nicht einmal der physikalischen S-B-T4-Beziehung genügen.

Nicht alles, was hinkt, ist ein Beispiel – aber jedes Beispiel hinkt.

Wenn ein gemeiner Forentroll (Vexator fororum utgardensis) verhindern will, dass der interessierte Leser ein gutes Beispiel versteht, dann fokussiert er seinen Kommentar auf das Hinken dieses Beispiels. Je einfacher und allgemeinverständlicher nämlich ein solches Beispiel ist, umso größere Angriffsflächen bietet es für sophistische Interpretationen. So hatte beispielsweise ein Herr Werner Schulz den physikalischen Unterschied zwischen der Verteilung der solaren Einstrahlung über die Fläche der Tagseite einerseits und über die Gesamtfläche unserer Erde andererseits am Beispiel eines Schweißbrenners erläutert. Und der interessierte Leser kann dieses Beispiel jederzeit in einen direkten Zusammenhang mit der ursprünglichen Argumentation bringen. Wenn er sich also nicht durch Troll-geführtes Störfeuer auf einen sophistischen Holzweg abdrängen lässt, wird er feststellen, dass bei der Umrechnung einer definierten spezifischen Strahlungsleistung in ein S-B-Temperaturäquivalent die Größe der bestrahlten Fläche die alles entscheidende Rolle spielt.

Bei unserer Erde handelt es sich um ein quasistatisches und energetisch „voll mit Wärme aufgeladenes“ System, bei dem Energiespeicherung und Energieabgabe zeitgleich, aber nicht ortsgenau erfolgen [6], wobei die gerade eingestrahlte Sonnenenergie nicht unbedingt im selben Augenblick wieder als IR-Strahlung abgestrahlt, sondern zum Teil in den globalen Zirkulationen von Atmosphäre und Ozeanen „zwischengespeichert“ wird. Nehmen Sie beispielsweise den Golfstrom. Sie könnten behaupten, die Energiemenge, mit der dieser gerade in den Tropen und Subtropen beladen wird, fehle in der momentanen Energiebilanz. Sie könnten aber umgekehrt auch behaupten, die momentane Aufheizung in mittleren und höheren geographischen Breiten durch den Golfstrom müsse der Energiebilanz zusätzlich zugerechnet werden. In Wirklichkeit geschieht aber beides gleichzeitig an unterschiedlichen Orten, sodass es sich insgesamt betrachtet um ein globales Nullsummenspiel handelt.

Das Treibhaus-Modell erfordert zwei Sonnen

Gleichgültig, ob eine oder zwei Sonnen mit einer spezifischen Strahlungsleistung von insgesamt 1.367W/m² auf unsere Erde scheinen [20], das 24h=Faktor4-Flacherde-THE-Modell kommt immer auf dasselbe S-B-Temperaturäquivalent von -18°C als sogenannte „theoretische globale Durchschnittstemperatur“.

Abbildung: Das auf der 13. IKEK von Herrn Michael Limburg als Analogon zum konventionellen THE-Ansatz vorgestellte 2-Sonnen-Modell (links) und der hemisphärische S-B-Ansatz ohne THE (rechts)

Und allein mein hemisphärisches S-B-Modell ist in der Lage, den Unterschied zwischen diesen beiden Fällen darzustellen und das jeweilige S-B-Temperaturäquivalent (1 Sonne ~ +15°C / 2 Sonnen ~ -18°C) korrekt zu quantifizieren [17]. Dieses S-B-Modell ist statisch und beruht auf folgender Durchschnittsbetrachtung: Nirgendwo auf der Erde herrscht im Tages- oder Jahresverlauf irgendein energetisches Gleichgewicht, dieses Ungleichgewicht treibt unser Wetter an und Klima ist dessen 30-jahriger Durchschnitt. Für ein generalisiertes makroskopisches Modell unserer Erde muss ich also zeitlich mindestens bis zum Klimabegriff abstrahieren. Und erst hier kann ich dann versuchen, die grundlegenden Phänomene der Klimagenese auf unserer Erde zu beschreiben, wie das in meinem hemisphärischen S-B-Modell ausgeführt wird.

Die sogenannte „globale Durchschnittstemperatur“ NST von ca. 15°C für das energetisch „voll aufgeladene“ System Erde/Atmosphäre/Ozeane lässt sich ganz gut anhand einer „tiefgekühlten“ Erde erläutern, die von der Sonne gerade energetisch aufgeladen wird [6]. Wenn wir jetzt beispielsweise einmal den Golfstrom betrachten, dann nimmt er in dieser Situation zwar Wärme auf, gibt aber in nördlichen Breiten noch keine Energie ab, sodass die NST zunächst deutlich unter 15°C bleibt. Denn aufgrund von Verdunstung und Konvektion wird das örtliche S-B-Temperaturäquivalent nirgendwo erreicht, und andererseits können die globalen Wärmeströme (atmosphärische und ozeanische Zirkulationen) in mittleren und höheren Breiten noch keine gespeicherten Wärmemengen „zurückliefern“, um dieses Defizit auszugleichen. Erst im Endstadium, wenn also sämtliche Wärmespeicher unserer Erde komplett gefüllt sind, ist global gesehen der „Gewinn“ aus Kondensation und Advektion im langjährigen Mittel genauso groß, wie der „Verlust“ durch Verdunstung und Konvektion. Und deshalb konvergiert die maximal mögliche Durchschnittstemperatur auf unserer Erde beim flächengewichteten Durchschnitt von ca. 15°C für das S-B-Temperaturäquivalent aus der hemisphärischen Sonneneinstrahlung [13]. Dieses S-B-Temperaturäquivalent entspricht der „gemessenen“ NST von ca. 15°C und lässt keinerlei Raum für einen „natürlichen atmosphärischen Treibhauseffekt“.

Das Land-Seewind-System als Funktionsbeispiel für die globalen Zirkulationen

Im Ablauf von Tag und Nacht verläuft die Erwärmung und Abkühlung von Land- und Wassermassen sehr unterschiedlich. Das nachstehend abgebildete Land-Seewind-System ist ein bekanntes Beispiel für den Wärmeaustausch zwischen Land und Meer:

Abbildung: Skizze zum Land-Seewind-System (A Seewind / B Landwind). Aus Wikipedia, Autor: Talifero – Diagrama de formacion de la brisa-breeze.png…, Lizenz: CC BY-SA 3.0

Aus der Beschreibung auf Wikipedia, Zitat:

Seewind: Luftmassen strömen vom Wasser aufs Land, da sich dieses aufgrund des relativ geringen c-Wertes von bspw. Boden, Beton, Häusern, (Dachziegeln c= 0,73 kJ/(kg·K)) und Asphalt tagsüber schneller aufheizt. Wasser dagegen heizt/kühlt sich aufgrund des höheren c-Wertes von 4,18 kJ/(kg·K) wesentlich langsamer auf/ab. Daher steigen tagsüber die Luftmassen über Land auf und es kommt zu einer Ausgleichsbewegung durch vom Wasser aus nachrückende Luftmassen (=Seewinde).

Landwind: Luftmassen strömen vom Land zur oder zum See. Grund: Abends, noch mehr nachts, dreht sich diese Zirkulation um; Land kühlt sich viel schneller ab als die/der See, wegen viel geringerer c-Werte der genannten Stoffe, (Dachziegel, c = ca. 0,73 kJ/(kg·K)). D. h. wesentlich geringere Spezifische Wärmekapazität als Wasser (4,18 kJ/ (kg·K)). Nun ist das Wasser relativ wärmer; nun steigt über der/dem See die Luft auf- und relativ kältere Luftmassen fließen vom Land weg zur/zum See nach.

Im Land-Seewind-System werden nächtliche Wärmeverluste der Landmassen also durch die Advektion erwärmter Luft von den Meeresflächen abgemildert, während am Tage die Wärme der Landflächen durch Konvektion abgeführt wird. Dieses Beispiel lässt sich auf die die globalen Zirkulationen in Atmosphäre und Ozeanen übertragen, wobei hier die Quellen um den Äquator und die Senken in mittleren und höheren Breiten liegen.

Die hemisphärische Sonneneinstrahlung in den Tropen treibt die kombinierte Luft-Wasser-Heizung unserer Erde an

Betrachten wir jetzt einmal die Beziehung zwischen Temperatur und spezifischer Strahlungsleistung nach dem Stefan-Boltzmann-Gesetz am Beispiel der Tropen. Die Mitteltemperatur in den Tropen wird mit ca. 25°C angegeben. Wenn wir dort jetzt einmal eine flächengewichtete Schwankungsbreite von +/-10°C unterstellen, dann würde der Unterschied (DELTA S) im S-B-Strahlungsäquivalent innerhalb von 24 Stunden zwischen Temperaturmaximum und Temperaturminimum etwa 120W/m² betragen. Dieser Verlust von 120W/m² wird auf der Tagseite durch die spezifische Strahlungsleistung der Sonne mehr als kompensiert, wie die nachstehende Abbildung zeigt:

Bei vertikalem Sonnenstand erhalten wir im mittäglichen Zenit der Tropen folgende Maximalwerte:

0 bis390 W/m²: Leistungsüberschuss

390 bis 510 W/m²: Ausgleich der Temperaturspanne zwischen angenommener Maximal- und Minimal-Temperatur in den Tropen von etwa 120W/m²

510 bis 940 W/m²: Leistungsüberschuss

940 bis 1.367 W/m²: Bei einer Albedo von 0,306 bleiben 427W/m² aus der spezifischen solaren Strahlungsleistung auf unserer Erde ohne Einfluss auf die Temperatur. Diese Albedo ist ein Durchschnittswert, sodass örtlich durchaus höhere oder niedrigere spezifische Strahlungsleistungen temperaturwirksam werden können.

Die flächengewichtete tägliche Schwankungsbreite der Ortstemperaturen in den Tropen ist mit +/-10°C eher zu hoch angesetzt, wenn man bedenkt, dass die oberflächennahen Temperaturen im tropischen Ozean eher an die 30°C heranreichen und die tägliche Schwankungsbreite dort wesentlich geringer ausfällt. Es werden also weniger als 13 Prozent der maximalen spezifischen Strahlungsleistung der Sonne für den Temperaturerhalt in der Äquatorregion benötigt, während mehr als 87 Prozent die kombinierte Luft-Wasser-Heizung unserer Erde antreiben. Umgekehrt dürften jenseits der Tropen bis in die Polarzonen hinein Kondensation und Advektion aus den globalen Zirkulationen einen immer weiter ansteigenden Beitrag zur jeweiligen Ortstemperatur liefern, insbesondere auf der jeweiligen Winterhemisphäre.

Die hemisphärische Sonneneinstrahlung auf der Tagseite der tropischen Äquatorialzone treibt also die kombinierte Luft-Wasser-Heizung unserer Erde mit einer maximalen spezifischen Strahlungsleistung von mehr als 820W/m² an. Die dort mit Wärme beladenen Luft- und Wassermassen werden dann durch die globalen Zirkulationen in die mittleren und höheren geographischen Breiten transportiert und dort wieder frei gesetzt. Die Sonneneinstrahlung auf der Tagseite unserer Erde reicht im „voll mit Wärme aufgeladenen“ Stadium der globalen Zirkulationen also völlig aus, um die sogenannte „gemessene globale Durchschnittstemperatur“ von ca. 15°C ohne einen sogenannten „natürlichen atmosphärischen Treibhauseffekt“ zu erklären.

Für alle ernsthaft interessierten EIKE-Leser nachfolgend eine aktuelle Auflistung der bisher hier auf EIKE erschienen Artikel über meinen hemisphärischen S-B-Ansatz:

  1. 23. Januar 2017: Über einen vergeblichen Versuch, unsere Welt vor der Dekarbonisierung zu retten
  2. 1. Februar 2017: Wer im Treibhaus sitzt…
  3. 16. Februar 2017: Nachdem sich der Rauch verzogen hat: Stefan-Boltzmann auf den Punkt gebracht
  4. 23. Juni 2017: Noch ein paar Fragen zum „natürlichen“ atmosphärischen Treibhauseffekt
  5. 2. Juli 2017: Beweist die Temperatur des Mondes den hemisphärischen Stefan-Boltzmann Ansatz?
  6. 19. August 2017: Machen wir mal ein Gedankenexperiment: Es gibt gar keine Erde!
  7. 26. November 2017: Rückblick: Ein Jahr hemisphärischer Stefan-Boltzmann Ansatz
  8. 30. November 2017: Nicht immer passt wirklich alles zusammen
  9. 14. Februar 2018: https://eike.institute/2018/02/14/das-gegenteil-von-gut-ist-gut-gemeint/
  10. 22. Februar 2018: Eine barrierefreie Erklärung für die hemisphärische Temperaturgenese auf unserer Erde
  11. 7. Mai 2018: Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an
  12. 29. Juli 2019: Safety First: Zum besseren Verständnis meiner hemisphärischen Energiebilanz
  13. 11. September 2019: https://eike.institute/2019/09/11/anmerkungen-zur-hemisphaerischen-mittelwertbildung-mit-dem-stefan-boltzmann-gesetz/
  14. 2. Dezember 2019: https://eike.institute/2019/12/02/eine-analyse-der-thesen-antithesen-fuer-einen-natuerlichen-atmosphaerischen-treibhauseffekt-teil-1-gegenueberstellung-der-thesen-antithesen/
  15. 3. Dezember 2019: https://eike.institute/2019/12/03/eine-analyse-der-thesen-antithesen-fuer-einen-natuerlichen-atmosphaerischen-treibhauseffekt-teil-2-diskussion-der-thesen-antithesen/
  16. 4. Dezember 2019: https://eike.institute/2019/12/04/eine-analyse-der-thesen-antithesen-fuer-einen-natuerlichen-atmosphaerischen-treibhauseffekt-teil-3-erkenntnisse-zu-den-thesen-antithesen-und-das-ergebn/
  17. 15. Dezember 2019: https://eike.institute/2019/12/15/kelvin-allein-zu-haus-der-unterschied-zwischen-zwei-watt-ist-deren-umgebungstemperatur/
  18. 25. Dezember 2019: https://eike.institute/2019/12/25/ein-weihnachtlicher-rueckblick-auf-die-rolle-der-klimarealisten-in-der-oeffentlichkeit/
  19. 12. Januar 2020: https://eike.institute/2020/01/12/zeigt-der-poynting-vektor-auf-mittelerde-oder-auf-die-sogenannte-abstrahlungshoehe/
  20. 5. Februar 2020: https://eike.institute/2020/02/05/anmerkungen-zur-bestimmung-der-hemisphaerischen-solaren-einstrahlung-auf-mittelerde/
  21. 23. Februar 2020: https://eike.institute/2020/02/23/neues-von-willis-eschenbach/
  22. 18. März 2020: https://eike.institute/2020/03/18/verbesserungswuerdig-ueber-fehlerhafte-ansaetze-fuer-eine-breitenabhaengige-globaltemperatur/

Und hier finden Sie noch ein paar Bücher von Uli Weber, der in seinem ersten Klimabuch (Farbe 2012/ SW 2017) den THE sogar noch als Stand der Wissenschaft beschrieben hatte. Aber man lernt ja glücklicherweise niemals aus…




Feuer!

Das Mantra der Globale-Erwärmung-Propagandisten einer vom Menschen verursachten globalen Erwärmung, weshalb fossile Brennstoffe beseitigt werden müssen, ist ziemlich ermüdend, ganz zu schweigen davon, dass die wichtigsten Faktoren dabei übersehen werden. Noch wichtiger ist, dass selbst wenn die globale Erwärmung auch nur einen Bruchteil der Waldbrände verursachen würde, dann würde die Reduzierung der fossilen Brennstoffe auch nur diesen Bruchteil der Brände verhindern, aber selbst das nur auf einer Zeitskala von vielen Jahrzehnten.

Kalifornien

Hier folgt eine Auflistung der intelligenteren Artikel zum Thema Flächenbrände in Kalifornien.

In der LATimes findet sich einer unter der Schlagzeile „150 million dead trees could fuel unprecedented firestorms in the Sierra Nevada“ [etwa: 150 Millionen abgestorbener Bäume dürfte den Treibstoff für beispiellose Feuerstürme in der Sierra Nevada bilden“]. Auszüge daraus:

Das Creek-Feuer brennt im Sierra National Forest, einem Epizentrum des Befalls mit Borkenkäfern, die in den letzten zehn Jahren fast 150 Millionen dürregestresste Bäume getötet haben.

„Wir alle, die wir diese Studie erstellt haben schlugen vor, dass Sie, wenn Sie versuchen wollen, dieses Massenbrandproblem in Zukunft zu reduzieren, wirklich damit beginnen sollten, vorschriftsgemäße Brände in diese Bestände zu legen, um mit dem Verschwinden dieser noch größeren Brennstoffe zu beginnen“.

Während die Durchforstung – das Abholzen und Abtransportieren des Totholzes – eine Rolle spielen kann, vor allem in der Nähe von Berggemeinden, sagte North, dass sich die Mehrheit der vom Käfer vernichteten Bestände in der Wildnis oder in Gebieten befindet, die zu abgelegen und zu steil sind, um abgeholzt zu werden.

Darüber hinaus haben die abgestorbenen Bäume den größten Teil ihres kommerziellen Wertes verloren und sind für die verbleibenden Sägewerke in Kalifornien von geringem Interesse.

Feuerökologen weisen seit langem auf den Kiefern- und Nadelwaldgürtel der Sierra Nevada in mittlerer Höhenlage als einen Ort hin, der dringend die häufigen, wenig intensiven Brände benötigt, die den Wald prägten, bevor die Siedler und ein Jahrhundert staatlicher Brandbekämpfungspolitik diese zu verhindern wussten.

Die Abschaffung indigener Feuerpraktiken, die Abholzung der größten und feuerbeständigsten Bäume und die Brandbekämpfung führten zu einem überwucherten Wald, der während der schweren kalifornischen Dürre von 2012-16 anfällig für den Befall von Borkenkäfern war.

In einige Gebiete wachsen 500 bis 800 Bäume pro Hektar, verglichen mit 60 bis 100 vor der Besiedlung. In den dichtesten Beständen war der Borkenkäferbefall am größten. Dort wird sich abgestorbenes Brennmaterial noch auf Jahre hinaus anhäufen.

Vorgeschriebene Brandprogramme erhalten von den regionalen und nationalen Forstdienststellen nicht das Personal und Geld, das sie benötigen.

Wir haben eine Kultur und eine Gesellschaft, die es schwierig machen, das Feuer an seinen richtigen Platz in der Sierra zurückzubringen“, sagte er. „Ich kann Ihnen nicht sagen, wie oft wir kontrollierte Brände gelegt hatten und einen Campingplatz schließen mussten, und die Leute waren verärgert, weil wir ihnen den Urlaub ruinierten“, erinnerte er sich. „Wir mussten erklären, dass wir versuchen, dies zu einem Ort zu machen, zu dem wir in Zukunft zurückkehren werden“.

In den Mercury News findet sich unter der Schlagzeile „California fires: State, feds agree to thin millions of acres of forests“ [Etwa: „Brände in Kalifornien: staatliche Stellen stimmen einer Ausdünnung von Millionen Acres Wald zu“] ein weiterer sinnvoller Beitrag. Auszüge:

Die zwei Dutzend Großbrände in ganz Nordkalifornien wurden durch mehr als 12.000 Blitzeinschläge ausgelöst, ein ungewöhnliches Wetterereignis, das die bislang relativ milde Brandsaison in eine verheerende Katastrophe verwandelte.

Doch was diese enormen Brände antreibt, sind keine Funken, sondern Millionen Hektar Brennstoff: knochentrockene Bäume und Gestrüpp, welches seit vielen Jahren nicht mehr gebrannt haben.

Der Plan sieht vor, dass die kalifornischen Behörden und der U.S. Forest Service bis zum Jahr 2025 jährlich 1 Million Hektar durch Rodung, Abholzung und kotrollierte Brände ausdünnen – ein Gebiet, das pro Jahr größer ist als der Yosemite National Park – und die Ausdünnungsrate, die bereits doppelt so hoch ist wie vor einigen Jahren, nochmals ungefähr verdoppeln.

Aber der Plan ist nicht ohne Komplikationen.

Die Umweltschutzbestimmungen müssen gestrafft werden, insbesondere die Genehmigungen für Landbesitzer mit kleinen Parzellen zum Auslichten von Bäumen und Büschen auf ihren Grundstücken müssen mehr erteilt werden.

Einige Bewohner beschweren sich über kontrollierte Feuer, weil sie Rauch in die Luft streuen und Krankenhausbesuche von Asthmatikern erschweren.

Auch für Millionen Tonnen von totem Gestrüpp und kleinen Bäumen, die aus den Wäldern entfernt werden und von denen ein großer Teil nur einen geringen Holzwert hat, müssen weitere Nutzungsmöglichkeiten gefunden werden. Einige können zur Erzeugung von Spanplatten und anderen Waldprodukten verwendet werden. Es gibt Hoffnungen, dass einige zu Biokraftstoffen verarbeitet werden können. Das Material kann auch in Biomasseanlagen verbrannt werden, um Strom zu erzeugen, aber diese sind umweltschädlich und in vielen Gemeinden umstritten. Ansonsten türmen die Besatzungen in den Frühlings- und Wintermonaten totes Gestrüpp im Wald auf und verbrennen es, wenn die Waldbrandgefahr gering ist.

Und das kostet jedes Jahr Hunderte von Millionen Dollar.

Umweltgruppen sagen, dass sie im Allgemeinen den aggressiveren Durchforstungsplan unterstützen. Aber sie haben Bedenken.

Der Artikel stammt von Michael Shellenberger und hat den Titel „California ha always had fires, ENvironmental Alarmism Makes Them Worse than Necessary“ [etwa: „In Kaliforien gab es immer Brände, aber Umwelt-Alarmismus macht diese schlimmer als nötig“]. Lesenswert!

Oregon

Ein ausgezeichneter Beitrag in OregonLive mit dem Titel „Oregon’s historic wildfires: unusual but not unprecedented“ [etwa: „Historische Flächenbrände in Oregon: ungewöhnlich, aber nicht beispiellos“] ist ebenfalls sehr lesenswert. Auszüge:

Das „Ostwind-Ereignis“, das sich mit der bestehenden Dürre verschworen hat, um am vergangenen Montag zwei kleinere Brände und andere vom Menschen verursachte Feuer auszulösen, ist selten, aber kaum einzigartig, sagen Wissenschaftler und Feuerexperten. Der Wind war der Hauptverantwortliche dafür, dass sich die katastrophalen Infernos so schnell bewegten wie es der Fall war. Der Sturm und die daraus resultierende Brandgefahr wurden Tage im Voraus vorhergesagt, aber niemand hat sich dafür interessiert.

Die Aussicht auf weit verbreitete Waldpflege in den komplexen Ökosystemen des Westens [der USA] – die Einrichtung von Feuerschneisen und die Durchführung von Durchforstungen und kontrollierte Brände zur Reduzierung der Brennstoffe, die den Waldboden ersticken – ist für einige ökologisch undenkbar und für andere unpraktisch.

Damit steht Oregon vor dem Paradoxon, sich auf eine vollständige Brandbekämpfung zu verlassen. Aber auf jedes Feuer zu springen und es sofort zu löschen ist genau die Praxis, die das Problem überhaupt erst geschaffen hat.

Alternativ kann sich Oregon anderen, einfacheren Maßnahmen zuwenden. Es könnte eine Politik verfolgen, die häufigere präventive Stromausfälle durch Versorgungsunternehmen vorsieht, so dass ausgefallene Stromleitungen keine Brände auslösen können. Oder der Staat könnte aktualisierte Bauvorschriften und Bestimmungen über Spielraum in der Nähe von Gebäuden erzwingen und das Risiko von Waldbränden in die Flächennutzungsplanung und Zoneneinteilung einbeziehen.

Aber diese Politik wird große Brände nicht verhindern und ist auch umstritten. Gesetzentwürfe zur Ausweitung der Waldpflege im gesamten Bundesstaat sowie Gesetze zur Modernisierung und Stärkung der Fähigkeit des Oregon Department of Forestry, Waldbrände schnell zu bekämpfen, führten zu nichts.

Der Gedanke des von Menschen gelegten Feuers ist ebenfalls naheliegend. Die meisten der heutigen im Westen Oregons wurden nicht durch Blitzschlag verursacht, was bei den atmosphärischen Bedingungen am Montag nicht sein konnte. Offizielle Stellen haben die Ursache für die meisten Brände noch nicht identifiziert und sagen, sie würden derzeit untersucht. Doch angesichts der Bevölkerungszunahme, insbesondere in dem Gebiet, das von Brandexperten als „wildland-urban interface“ bezeichnet wird, sind 70 Prozent der Brände in Oregon vom Menschen verursacht, und Anfang dieses Sommers lag der Prozentsatz bei 90 Prozent, so das Oregon Department of Forestry.

Es ist denkbar, dass sich die Oregonier auf einige der vom Rat empfohlenen Strategien zur Eindämmung von Waldbränden und zur Anpassung an den Klimawandel einigen können. Dazu gehören u.a. die Aktualisierung der Bauvorschriften, die Erhöhung durchsetzbarer Anforderungen an den zu verteidigenden Raum, die Einbeziehung der Waldbrandgefahr in die Flächennutzungsplanung und die Zoneneinteilung, aber auch diese Empfehlungen sind nicht überall beliebt. Sollten die Anforderungen für Neubauten gegenüber Nachrüstungen bestehender Häuser gelten? Wie kann sichergestellt werden, dass einkommensschwache Gemeinden davon profitieren? Führen Sie Strafen für Nachbarn ein, die sich nicht an den zu verteidigenden Raum halten?

Die folgende Graphik stammt aus dem Forstwirtschaftsministerium von Oregon. Man erkennt den Einfluss der Pacific Decadal Oscillation (PDO):

Australien

Der folgende hervorragende Beitrag erschien in der NYTimes unter der Schlagzeile „Australia’s Witnesses to Fire’s Fury and Desperate to Avoid a Sequel“ [etwa: „Australien erlebt die Wut des Feuers und die verzweifelten Versuche, eine Fortsetzung zu vermeiden“] (ist aber hiter einer Zahlschranke). Frei verfügbare Auszüge:

Ms. Taylor Mills ist eine von vielen, die sich zum ersten Mal an lokale Brandexperten der Aborigines gewandt haben, um Hilfe bei kontrollierten Verbrennungen zu erhalten, die darauf abzielen, das im vergangenen Jahr verschont gebliebene Land weniger anfällig zu machen. Andere waren in noch von Bränden betroffenen Gebieten damit beschäftigt, Äste und tote Bäume für eigene vorbeugende Brandversuche zusammen zu kehren.

Rodungen sind inzwischen häufiger als Grillfeuer. Die Notrufnummer 000 wurde nahezu lahm gelegt, da die Menschen sowohl vorbeugende Feuer seitens ihrer Nachbarn als auch durch diejenigen meldeten, die es versäumt hatten, ihr Eigentum von Gestrüpp und Blättern zu säubern.

Die Regierung überträgt den Landbesitzern tatsächlich mehr Verantwortung. Staatliche Brandschutzbeamte haben vor kurzem eine Reihe von Empfehlungen aus einer unabhängigen Branduntersuchung ausgegeben, darunter eine Maßnahme, die den Menschen vorschreibt, durch die Räumung von Land und die Durchführung von kontrollierten Feuern zur Gefahrenminderung die Sicherheit ihres Eigentums zu gewährleisten.

Weitere Änderungen, die eine präventivere Brandbekämpfung durch Feuerwehrleute und Experten der Aborigines ermöglichen, könnten noch in diesem Jahr auf nationaler Ebene eingeführt werden.

Das Interesse ist bereits stark gestiegen. Die Walbanja-Ältesten, die mit Ms. Taylor Mills arbeiteten – Andrew White, Owen Carriage und Les Simon – sagten, sie hätten mehr als 60 Bitten um Hilfe bei kontrollierten Feuern erhalten, die sich auf das Wissen der Aborigines stützen, um die Auswirkungen auf Tiere und einheimische Pflanzen zu minimieren.

Wenn man seit Tausenden von Jahren mit der Umwelt lebt, weiß man, wie man sie liest“, sagte Mr. Carriage, 67, als er das verbrannte Gras auf dem Grundstück von Ms. Mills begutachtete. „Sie sind ein Teil davon. Und Feuer ist ein Teil davon.“

Zum gleichen Thema fand sich auch ein Beitrag in The Conversation unter der Schlagzeile „The biggest estate on Earth: how the Aborigines made Australia“ [etwa: Das größte Grundstück der Erde: Wie die Aborigines Australien formten]. Auch daraus Auszüge:

Die Aborigines arbeiteten hart, um eine üppige Fauna und Flora zu erhalten.

Indem sie Pflanzen verteilten und in Mosaiken zusammenfügten und diese dann dazu benutzten, Tiere anzulocken und zu lokalisieren, machten die Aborigines Australien so, wie es die ersten Europäer im Jahre 1788 vorfanden.

Kein Feuer“, weil die bewusste Entscheidung, Brände gesteuert zu legen, auch Pflanzen und Tiere reguliert. Sie beurteilten gleichermaßen, was brennen sollte und was nicht, wann, wie oft und wie heiß. Sie rodeten Unterholz und pflanzten Gras auf geeigntem Boden, schlugen Lichtungen in dichtem und offenem Wald und setzten Büschel von Gestrüpp auf Grasland.

Vereinfacht ausgedrückt, sehen die Bauern das anders. Wie unsere Zugpferde tragen wir die Scheuklappen, die uns die Landwirtschaft auferlegt. Australien ist nicht wie Nordeuropa, aus dem die meisten frühen Siedler kamen. Verbrennen Sie die australischen Stauden und sie kommen grün zurück; verbrennen Sie die europäischen Einjährigen und sie sterben.

Auch hier ist es vorhersehbar, dass man Australiens Tiere anlocken und lokalisieren kann, weil es hier fast keine Raubtiere gab, während die vielen Raubtiere in Europa ihre Beute zerstreut hatten, so dass die Idee, Feuer zur Lokalisierung von Ressourcen zu verwenden, dort fremd war.

Aber vor allem sehen wir nicht, weil die Bauern nicht wie Jäger und Sammler denken. Für uns liegt „Wildnis“ gerade außerhalb unserer Grenzen; für sie existiert Wildnis nicht. Bis die Europäer kamen, gab es in Australien keine Wildnis und kein terra nullius„.

Leben im Einklang mit der Natur

Wir müssen viel mehr im Einklang mit der Natur leben. Einer der am meisten zum Nachdenken anregenden Denker und Journalisten zu diesem Thema ist der niederländische Filmemacher Marijn Poels. Marijn wird demnächst einen neuen Dokumentarfilm mit dem Titel Return to Eden drehen. Ich habe ihn mir angesehen, er ist wirklich gut. VERBLÜFENDE Kinematographie. Hier geht es hauptsächlich um die Landwirtschaft und die Beziehung zwischen verschiedenen Kulturen und dem Land (und wie die Politik von oben nach unten alles durcheinander bringt). Die Interviews waren faszinierend, mein Favorit war der Anbau von Lebensmitteln in der Wüste Sinai.

Die Veröffentlichung war für den 17. September vorgesehen.

Wenn es jemals ein Beispiel für post-normal science gegeben hat, dann ist es dieser. Ich weiß, dass viele Menschen sich darob aufregen, weil sie fälschlicherweise „postnormal“ mit „postmodern“ o. Ä. verwechseln.

Nun, die „normale“ Wissenschaft (so wie sie ist) sagt uns, dass die vom Menschen verursachte globale Erwärmung die Brände verursacht, mit der Schlussfolgerung, dass die Lösung darin besteht, mit der Verbrennung fossiler Brennstoffe aufzuhören.

Die breit gefächerten, post-normale Wissenschaft vertretenden Gemeinschaften begrüßen Beiträge von Interessenvertretern und nicht-traditionellen Experten wie den Aborigines. Amerikanische Indianer sollten ebenfalls eine gute Quelle des Wissens um Brände sein.

Die Geschichte der Politik in Oregon rund um das Thema Feuer macht deutlich, dass ein breites Spektrum von Interessenvertretern in die Politikentwicklung und Entscheidungsfindung einbezogen werden muss.

Auch von den Bauern und Innovatoren, die in Return to Eden interviewt wurden, gibt es viel zu lernen.

Link: https://wattsupwiththat.com/2020/09/17/fire/

Übersetzt von Chris Frey EIKE




Deutschlands Strom-Importe erreichen neuen Rekord – Anstieg um 43,3% in der ersten Hälfte 2020!

Man könnte denken, dass mit all der hinzugefügten Wind- und Solarenergie in Deutschland, zusammen mit all den konventionellen Kraftwerken im Standby, sich das alles zu Unmengen nicht benötigter Kapazität summiert und man überhaupt keine Energie-Importe braucht. Nichts könnte weiter von der Realität entfernt sein!

Das Magazin epochtimes.de berichtet hier, dass die deutschen Stromimporte tatsächlich „während des ersten Halbjahres 2020 um 43,3% gestiegen waren auf 25,7 Milliarden Kilowattstunden gestiegen waren im Vergleich zum gleichen Zeitraum 2019“.

Weiter erklärt das Magazin:

Ein Grund hierfür war der abnehmende Anteil der inländischen Einspeisung aus grundlastfähigen, meist konventionell betriebenen Kraftwerken, die hauptsächlich mit Kohle, Kernenergie und Erdgas arbeiten. Insbesondere bei Windstille oder Dunkelheit wurde daher zur Deckung des Strombedarfs Strom importiert. Hauptimportland für Strom war Frankreich mit 8,7 Milliarden Kilowattstunden.

Insgesamt wurde aber weiterhin mehr Strom aus Deutschland exportiert als nach Deutschland importiert.

[Zitat aus dem Original! Keine Rückübersetzung! Hervorhebung vom Autor dieses Beitrags.]

Was im Artikel jedoch nicht erwähnt wird ist die Ursache des Export-Anstiegs von Strom aus Deutschland. Bei Wind und Sonnenschein produziert Deutschland an windigen und sonnenreichen Tagen mehr Strom als benötigt und ist daher gezwungen, den überschüssigen Strom in benachbarte ausländische Märkte zu entsorgen – oft zu negativen Preisen. Die negativen Preise bedeuten in Kombination mit den obligatorischen Einspeisetarifen und der überschüssigen Erzeugung höhere Kosten für die Verbraucher.

Kein Wunder, dass die Strompreise mit 35 US-Cent pro Kwh in Deutschland mit die höchsten der Welt sind.

Link: https://wattsupwiththat.com/2020/09/17/german-electricity-imports-hit-new-record-rise-43-3-percent-in-first-half-of-2020/

Übersetzt von Chris Frey EIKE




Minister Altmaier zum Klimawandel: …

Im Bundestag soll es bald keine Opposition, sondern nur noch gemeinsamen Konsens geben …

Es ist wirklich erschütternd, wie schnell und vor allem konsequent es einer in der ehemaligen DDR in Agitation geschulten Frau gelang, Deutschlands Politelite auf eine (in ihrer ehemaligen Sozialisierungsumgebung übliche) Einheitsmeinung einzuschwören und das Parlament in der Folge gleich auszuschalten (ohne dass diese hochbezahlte Versammlung auch nur im Ansatz revoltiert), indem in Zukunft Räte die Politik maßgeblich bestimmen sollen [4].

Wie üblich, lässt sie dies vorab durch andere verkünden, um die Reaktionen abzuwarten und wenn es gelungen ist, ihrer der „Konsensmeinung“ zuzustimmen:
[2] (Altmaier:) …. Deshalb schlage ich vor, dass wir noch vor Beginn des Bundestagswahlkampfes einen breiten parteiübergreifenden Konsens über die klimapolitischen Handlungsnotwendigkeiten herbeiführen. Daran sollten nicht nur die im Bundestag vertretenen Parteien, sondern auch weite Teile der Klimabewegung, der Wirtschaft und der Kirchen und Religionsgemeinschaften mitwirken …

Es ist mit rationalen Argumenten nicht bestreitbar …

Herrn Altmaier ist wahrscheinlich gar nicht bewusst (und wenn, würde es ihn wohl auch nicht stören), dass er sich mit der Aussage zum „Klimakonsens“ auf dem investigativen Niveau des Mittelalters befindet.

Damals war nicht die eigene Meinung, sondern die „honoriger Personen der Zeitgeschichte“ verbindlich. Nur so konnte sich die Hexenverfolgung so lange halten und die Kirche mit gefälschten (aber von längst verstorbenen „honorigen Personen“ angeblich bestätigten) Dokumenten fremde Ländereien in ihr Eigentum „überführen“.

Er spricht damit aber ein heißes Thema an: Warum sind methodisch völlig falsche Studien (rein persönliche, durch nichts belegte Meinung des Autors) in denen beim genauen Hinsehen eindeutig das Gegenteil herauskam, noch nach Jahren – und vielen Widerlegungen – als Belege zitierfähig und werden hemmungslos weiterhin argumentiert?
Das machen nicht nur Herr Altmaier (der wohl schon um seinen Posten im künftigen, GRÜNen Politikumfeld buhlt) und unsere Umweltministerin [15], sondern auch die Redaktion der Lokalzeitung des Autors:
Ein Redakteur: … Und da sagt eine breite Koalition aus Experten unterschiedlichster Lage aktuell, dass eben doch sehr viel dafür spricht, dass es besagten menschengemachten Klimawandel gibt. Natürlich, auch eine solch überragende Mehrheit kann sich irren – aber wie wahrscheinlich ist das? Und ist es nicht auf jeden Fall viel wahrscheinlicher, dass es umgekehrt die wenigen Experten, die keine Indizien für den Klimawandel erkennen wollen, sind, die falsch liegen?
Ich vertraue an dieser Stelle dem derzeitigen wissenschaftlichen Mehrheitskonsens.

Was macht man als aktiver Opportunist in einem solchen Fall? Man lädt die am ehesten Erreichbaren zur fachlichen Diskussion ein:
Autor (gekürzt): An die Redaktion der …
In Reaktionen auf meine Einwendungen zum zunehmenden Klimaalarmismus in der … kommt als „Gegenargument“ verblüffend oft die Antwort, dass „die Mehrheit“ der Klimawissenschaftler den AGW-Klimawandel bejahen, weshalb kritische Stimmen dazu automatisch in der absoluten Minderheit seien und alleine deshalb schon falsch liegen müssen. Zitierung: „
Ich vertraue an dieser Stelle dem derzeitigen wissenschaftlichen Mehrheitskonsens“.
Lassen wir das Thema, wann in der Geschichte überhaupt jemals bei wissenschaftlichen Übergängen die etablierte Wissenschaft richtig lag … Bleibt die Fragestellung, wie es sich beim angesprochenen (angeblichen) 97 % Klimakonsens verhält, der nicht einmal eine Abstimmung, sondern nur eine Wortzählung ist …
Meine Ansicht dazu habe ich der Redaktion bereits öfters gezeigt (Anlage). Sie mündet in der Behauptung, dass es sich um einen beispiellosen Datenbetrug handelt, indem jegliche methodische Seriosität mit den Füßen getreten wurde …

Nun steht es selbstverständlich jedem völlig frei, einem verkündeten „Mehrheitskonsens“ zu vertrauen – sofern man als Privatperson agiert. Die Mitarbeiter der Redaktion verkünden es jedoch in ihrer Eigenschaft als besonders investigativ agierende, und vermitteln es so auch ihren Lesern, womit der „Konsens“ eine völlig andere Wertigkeit bekommt.

Eine Klärung der Plausibilität und Methodik-Qualität des von Vielen als Klimahysterie-Beleg verstandenen „Konsenses“ liegt also mit Sicherheit im allgemeinen Interesse …
Mein Vorschlag an die Redaktion ist deshalb, die Fragestellung, wie glaubwürdig dieser 97 % Konsens (Studie:
John Cook et al, 27. Mai 2013: Quantifying the consensus on anthropogenic global warming in the scientific literature) wirklich ist, und auch, warum die vielen Gegenpetitionen von Wissenschaftlern als „nicht argumentativ“ verworfen werden und in allen Medien unerwähnt bleiben, auf Sachebene zu diskutieren.
Mit Sicherheit finden sich bei den … Redakteur*innen welche dies können, bzw. schon getan haben (denn dass dieser wichtige, weil jegliche weitere Fachargumentation angeblich „ersparende“ „Konsens“, einfach aufgrund von „Hörensagen“, oder, weil Frau S. Schulze es von der Bundestagskanzel verkündet hat, ohne Sichtung der Studie geglaubt wird, ist bei investigativen Journalist*ìnnen ja mit Sicherheit auszuschließen).
… Da die Durchführung sicher auf beiden Seiten etwas Aufwand erfordert, würde ich den Mailverkehr der Fachdiskussion als Artikel auf dem bekannten Portal EIKE veröffentlichen …
Bisher kam von der Redaktion auf diesen Vorschlag noch keine Antwort. Trotzdem hat der Autor hat mit diesem Artikel einen ersten Diskussionsentwurf ausgearbeitet.

Die Konsensstudie(n)

Trotz schon einiger Veröffentlichungen zu diesem Thema auch auf EIKE [15] wird nicht jedem Leser*in geläufig sein, welcher genaue Hintergrund mit dem „97 %-Konsens“ gemeint ist. Zudem gibt es einige „Konsensstudien“, deren bekanntesten sind:
Die allgemein als „97 % Konsensstudie“ zitierte:
– John Cook at al., 15. Mai 2013:
Quantifying the consensus on anthropogenic global warming in the scientific literature
Eine Vorgängerstudie
– Doran, P. T., and M. Kendall Zimmermann (2009):
Examining the Scientific Consensus on Climate Change
Und die 99,84 % “Konsens”-Studie:
– James Lawrence Powell 28. März 2016: Climate Scientists Virtually Unanimous: Anthropogenic Global Warming Is True

Der Konsensstudien-Autor J. L. Powell hat in einer Schrift [16] dazu eine Tabelle hinterlegt:

Bild 1 Wichtige Konsensstudien und deren „Konsensergebnis“ [16]. Anmerkung: Die Studie von Doran et al. fehlt darin

Konsensstudie” Oreskes 2004

Diese Studie ist in einem EIKE-Artikel gut beschrieben:
[18] EIKE 22. Juni 2017: Was stimmt nicht mit der Behauptung, „97% aller Klimawissenschaftler“ stimmen hinsichtlich AGW überein?

Deshalb Zitierungen daraus.
[18] … Im Jahre 2004 hat Science die Ergebnisse einer Studie der Historikerin Naomi Oreskes veröffentlicht, in welcher sie behauptet, dass „ohne substantielle Unterschiede die Wissenschaftler erkennen, dass menschliche Aktivitäten die Erde erwärmen“.
Aber ein Versuch, die Studie nachzuvollziehen, ergab, dass sie sowohl bei der Bearbeitung der Daten schwere Fehler gemacht hatte als auch, dass nach einer Neubearbeitung der Daten entgegengesetzte Ergebnisse herauskamen. Benny Peiser wies in einem Brief an
Science … darauf hin, dass das Magazin es abgelehnt habe, dies zu publizieren. Aber die Cornwall Alliance hat die Ergebnisse im Jahre2006 so zusammengefasst:

Oreskes behauptete, dass eine Analyse von 928 Abstracts in der ISI-Datenbasis, welche den Terminus „Klimawandel“ enthielten, den vermeintlichen Konsens beweisen würden.
Es stellte sich heraus, dass sie die Datenbasis nach drei Schlüsselwörtern durchsucht hatte („global climate change“) anstatt der zwei Wörter („climate change“), die sie genannt hatte. Dies hat die Anzahl der Suchergebnisse um eine Größenordnung verkleinert. Die Suche lediglich nach „climate change“ ergab stattdessen fast 12.000 Artikel in der gleichen Datenbasis während der relevanten Dekade. Außen vor gelassen wurden in Oreskes‘ Liste „zahlreiche Forschungsstudien, welche zeigen, dass die globalen Temperaturen ähnlich oder sogar höher gelegen haben während des Klimaoptimums im Holozän und während der Mittelalterlichen Warmzeit, als das atmosphärische CO2-Niveau viel niedriger war als heute; dass solare Variabilität ein Schlüsseltreiber des jüngsten Klimawandels ist und dass die Klimamodellierung höchst unsicher ist“. Außerdem, selbst wenn man die drei Schlüsselwörter eingibt, was sie tatsächlich getan hat, ergaben sich nicht 928, sondern 1247 Treffer, von denen 1117 Abstracts enthielten. Eine Analyse dieser Abstracts ergab:
nur 1 Prozent der Abstracts stützte explizit, was Oreskes den „Konsens-Standpunkt“ nannte,
29 Prozent akzeptierten das implizit, „aber hauptsächlich konzentriert auf Abschätzungen der Auswirkungen eines vorhergesagten globalen Klimawandels,
8 Prozent rankten sich um „Abschwächung“,
6 Prozent konzentrierten sich auf Fragen der Methodik und der Verfahren
8 Prozent behandelten „exklusiv paläo-klimatologische Forschung ohne Bezug zum jüngsten Klimawandels
3 Prozent wiesen den Standpunkt zurück oder bezweifelten ihn, dass menschliche Aktivitäten der Haupttreiber der ,beobachteten Erwärmung während der letzten 50 Jahre‘ sind,
4 Prozent konzentrierten sich auf „natürliche Faktoren eines globalen Klimawandels“, und
42 Prozent enthielten keinerlei direkten oder indirekten Link oder einen Bezug zu menschlichen Aktivitäten, CO2- oder Treibhausgas-Emissionen, geschweige denn einen anthropogenen Antrieb des jüngsten Klimawandels.

Konsensstudie” Doran, P. T., and M. Kendall Zimmermann 2009

Hierbei handelt es sich um die Befragung von Geowissenschaftlern durch eine Studentin (Link).

Dazu stellte eine damalige Studentin eines Prof. Doran, Frau Margaret Zimmerman, 10.257 Geowissenschaftlern (90 % davon in den USA, also nicht entfernt eine globale Stichprobe) zwei Hauptfragen mit Unterpunkten:
-When compared with pre-1800s levels, do you think that mean global temperatures have generally risen, fallen, or remained relatively constant?
(
Glauben Sie, dass die globalen Durchschnittstemperaturen im Vergleich zu den Werten vor 1800 im Allgemeinen gestiegen, gefallen oder relativ konstant geblieben sind?)
-Do you think human activity is a significant contributing factor in changing mean global temperatures?
(Glauben Sie, dass menschliche Aktivitäten einen wesentlichen Beitrag zur Veränderung der globalen Durchschnittstemperaturen leisten?)

Diese zwei Fragen sind so allgemein, dass man sich fragt, was eine Beantwortung zur Faktenstellung, inwieweit die Bejahung eines schlimmen, vom Menschen verursachten Klimawandels von der Klimawissenschaft weltweit getragen wird, wenig bis nichts beitragen kann.

Begründungen:
Zur ersten Frage:
– Niemand bezweifelt, dass die Temperatur nach dem Ende der nachmittelalterlichen, kleinen Eiszeit nicht gestiegen wäre. Nur sagt eine Beantwortung nichts über eine Bejahung, Neutralität oder Ablehnung des „schlimmen, alleine vom Menschen verursachten Klimawandels“ aus.

Zur zweiten Frage:
– Selbst Klimaskeptiker „gönnen“ dem CO2 – und damit auch vom Menschen emittiertem – einen kleinen Anteil an zusätzlicher Erwärmung. So lange der „wesentliche Beitrag“ jedoch nicht näher quantifiziert und mit Gefährlichkeitsstufungen vergleichbar gemacht ist, sagt weder ein „Ja“ noch ein „Nein“ etwas Konkretes über die Ansicht zum AGW-Klimawandel aus. Allerhöchstens wäre eine Tendenz ableitbar.

Konkrete – zur Klärung erforderliche – Fragen wurden nicht gestellt, wie sich zum Beispiel angeboten hätte:
– Woraus schließen Sie, dass der aktuelle Anstieg unnatürlich ist und wie hoch schätzen Sie den vom Menschen verursachten Beitrag?
– Betrachten Sie die Erwärmung seit der letzten Zwischeneiszeit als eine Gefahr oder einen Segen?
– Erwarten Sie, dass sich die Erwärmung über hunderte von Jahren weiter fortsetzt und zu einer Überhitzung mit Kipppunkt führt?
Wohl der Grund, warum nur 30,7 % der Befragten (3146 Personen) überhaupt antworteten.

Damit kann es rechnerisch nur noch max. 30,7 % (gesicherte) Zustimmung aller Fachpersonen (denn diese wurden ja angefragt) geben.
Die Analyse der „Unterfragestellungen“ ergab dann:
– Von den 30,7 % der Antwortenden stimmten 90 % (28 % der Angefragten) bei der Frage 1 (glauben Sie, dass die globalen Durchschnittstemperaturen im Vergleich zu den Werten vor 1800 im Allgemeinen gestiegen, gefallen oder relativ konstant geblieben sind?) dem „gestiegen“ zu (was mit einer Zustimmung zum schlimmen AGW-Klimawandel überhaupt nichts zu tun hat),
– 82 % (25 % der Angefragten) gaben bei der Frage 2 (Glauben Sie, dass menschliche Aktivitäten einen wesentlichen Beitrag zur Veränderung der globalen Durchschnittstemperaturen leisten?) ein „ja“ an .
Dieses Ergebnis wollte man so nicht publizieren.

Und so wurde „tiefgehender“ ausgewertet:
Eine zusätzliche – allgemeine – Fragestellung war die nach der „Klimakompetenz“. Von den Antwortenden bezeichneten sich ungefähr 5 % als „Climate Scientists“ und 8,5 % gaben an, dass mehr als 50 % ihrer peer-reviewed Publikationen in den letzten 5 Jahren den Klimawandel zum Inhalt hatten.

In Abänderung der ursprünglichen Methodik wurde nun festgelegt, dass nur die „wirklichen Klimaspezialisten“, also nur die 79 Personen von den 10.257 angeschriebenen, welche 50 % peer-reviewte „Klimaartikeln“ in den letzten 5 Jahren –vorzuweisen hatten, wirklich repräsentativ wären (Anmerkung: Dabei ist bekannt dass die Klimafachpresse zu jener Zeit grundsätzlich keine Beiträge von Klimaskeptikern veröffentlichte) deshalb diese 79 Personen alleine die Gesamtsumme „Klimawissenschaftler“ stellt und auch alleine deren Antworten zählt.
Damit gelang das „geforderte“ folgende Ergebnis:
… (79 individuals in total). Of these specialists, 96.2% (76 of 79) answered “risen” to question 1 and 97.4% (75 of 77) answered yes to question2.

Seitdem publiziert man hemmungslos (und unwidersprochen): 97 % aller Wissenschaftler sind vom Klimawandel überzeugt …., oder wie es Altmaier sagte: Dass diese Meinung „von der übergroßen Mehrheit der Wissenschaftler geteilt werde“.

Selbstverständlich kam Herrn Altmaier nicht selbst darauf, sondern er weiss es von „wissenschaftlichen Plattformen“, wie zum Beispiel: [8] SkepticalScience: Der 97% Konsens ist ein belastbares Ergebnis
… Trotzdem ist die Existenz eines Konsens unter Experten zur anthropogenen globalen Erwärmung Realität, was durch eine Untersuchung aller dafür vorhandener Beweise belegt wird … Doran & Zimmerman (2009) ermittelten einen 97% Konsens unter Wissenschaftlern, die Studien aus der Klimaforschung publizieren …

Methodisches Problem “Stichprobe”

Bereits diese Studie zeigt ein statistisches Problem, welches auch alle Nachfolgestudien aufweisen: Von den ausgewählten Fachpersonen antwortet ein Großteil nicht.
Die Studie „tut“ nun so, als wären die Antwortenden eine Stichprobe, welche repräsentativ sei und deshalb problemlos ausgewertet werden könne. Das ist methodisch aber grundfalsch.

Eine Stichprobe muss repräsentativ sein. Dies ist sie nur, wenn deren Auswahl nach dem Zufallsprinzip erfolgt. Dies ließe sich erreichen, indem aus der Gesamtmenge per Zufallsgenerator die anzufragenden Wissenschaftler bestimmt werden. (Und nur) Wenn diese alle antworten, hätte man eine repräsentative, statistisch auswertbare, Stichprobe, allerdings mit einem Streubereich, der zum Mittelwert anzugeben wäre.

Die erfolgte „Deklaration“ der ca. 31 % Antwortenden als Stichprobe erfüllt die Zufallsbedingung nicht, da diese Antwortenden damit bereits eine Vorauswahl getroffen haben und für den überwiegenden Rest der Fachpersonen mit ziemlicher Sicherheit nicht repräsentativ sind.
Nur bei Wahlen wird trotzdem so vorgegangen und selbst bei kleiner Wahlbeteiligung „behauptet“, dass das Ergebnis das Meinungsbild der Gesamtheit sei. Dies ist jedoch einfach der Not geschuldet, um überhaupt zu einem Ergebnis zu kommen. Ein methodischer Fehler bleibt es trotzdem (weshalb bei geringer Wahlbeteiligung, diese deshalb oft auch als –„Protest der Mehrheit“ deklariert und das Ergebnis angezweifelt wird).

Allerdings ist dieses Ignorieren von statistisch „ordentlichem Handwerk“ bei diesen Konsensstudien kein Zufall, sondern bewusst angewandt, um genau das – was bei Wahlen mit geringer Beteiligung als negativ bemängelt wird – zu erreichen: Wer „am lautesten schreit“ – sich also nach dem offiziellen Mainstream richtet und es überdeutlich bereits im Summary richtig deklariert – gewinnt und gilt als Vertreter der angeblichen Wahrheit.
Solche Betrügereien bewusst falsch angewandte Statistik findet sich öfters in politisch orientierten Wissenschaften. Beim AGW-Klimawandel ist es allerdings nicht nur besonders schlimm, sondern fast schon Methode.
Der Erfolg gibt dem Betrug Vorgehen recht. Wer es macht, um das politisch gewünschte Narrativ zu bedienen, wird allseits gelobt sogar von Obama (und mit Fördermitteln versorgt). Wer es nicht mitmacht, muss um seine Zukunft, eventuell sogar um seinen Job bangen.

Konsensstudie” John Cook et al., 2013

Diese Studie ist die gängigste, als 97 % Konsens-Studie bezeichnete und dazu auch noch von Obama höchstpersönlich „geadelt“. Auch diese Studie ermittelte – also bestätigte – die 97 % Zustimmung.

Bild 2 Tweed von Obama zur „John Cook“ Konsensstudie

Gewichtige Informationsplattformen „können“ die absolute Seriosität auch dieser Studie bestätigen [6] [8]. SkepticalScience: Der 97% Konsens aus Cook et al. (2013) ist ein belastbares Ergebnis
Wissenschaftliche Belege zeigen…
Der 97% Konsens wurde durch eine Reihe von unterschiedlichen und voneinander unabhängigen Ansätzen und Beweisketten bestätigt.

Sehen wir deshalb einfach nach, was diese Studie wirklich ermittelt hat. Vorab etwas Information über diese Studie vom SPIEGEL (ja, es gab Zeiten, da durfte ein bestimmter Journalist dort noch ab und zu auch etwas Klimakritisches schreiben) ist hilfreich:
[9] DER SPIEGEL 23.09.2014: Missglückter Forscher-Aufruf zum Uno-Klimagipfel Die 97-Prozent-Falle
Die Uno berät über einen Weltklimavertrag, Wissenschaftler nutzen das für eine Kampagne: Sie behaupten, 97 Prozent der Klimaforscher seien sich einig. Doch das ist nur die halbe Wahrheit.
… Die Studie, die für so viel Aufsehen sorgt, wurde vergangenes Jahr von Forschern um John Cook von der australischen University of Queensland … Sie hatten Umweltaktivisten der Internetseite „Skeptical Science“ beauftragt, Tausende Klimastudien auszuwerten. Die Freiwilligen prüften, ob in den Zusammenfassungen der Arbeiten der menschengemachte (anthropogene) Klimawandel als gegeben vorausgesetzt wurde.
Das Ergebnis: Weniger als ein Prozent der Studien widersprachen ausdrücklich dem Einfluss des Menschen. Gut zwei Drittel hatten keine Position zu dem Thema – sie blieben außen vor. Das Resümee von Cook und seinen Kollegen: 97 Prozent legten einen menschlichen Einfluss zugrunde.
Die Studie belegt also lediglich eine Banalität: Wissenschaftler sind sich weitgehend einig, dass der Mensch zur Klimaerwärmung beiträgt. Selbst hartgesottene Kritiker der Klimaforschung zweifeln nicht an dem physikalischen Grundsatz, dass Treibhausgase aus Autos, Fabriken und Kraftwerken die Luft wärmen.
Zu den eigentlich entscheidenden Fragen jedoch macht die Cook-Studie keine Aussage: Wie groß ist der menschengemachte Anteil am Klimawandel? Und wie gefährlich ist der Klimawandel? Die bedeutendsten Fragen der Umweltforschung sind weitaus schwieriger zu beantworten – und hier gehen die Meinungen der Wissenschaftler weit auseinander …
Der Klimaökonom Richard Tol vom Economic and Social Research Institute in Dublin übt methodische Kritik an der Studie von Cook: Die ausgewerteten Klimastudien seien willkürlich ausgewählt. Und ob die Auswerter vertrauenswürdig gearbeitet hätten, sei nicht getestet worden. „Wenn Leute glaubten, Klimaforscher seien inkompetent“, … „dann brauchen sie zur Bestätigung nur auf die 97-Prozent-Konsens-Studie zu verweisen“.
Die Fachzeitschrift „Environmental Research Letters“ indes, in der die Arbeit erschien, ist begeistert von der Cook-Studie. Sie hat sie zum besten Artikel 2013 gewählt.

Zur Studie selbst. Es gibt eine kurze Darstellung dazu auf WUWT [12]. Doch auf einer deutschen Infoseite ist diese so umfassend und detailliert „aufgedröselt“, dass dem nichts mehr hinzuzufügen ist, und diese deshalb zur Erklärung dient:
Anti-Spiegel: Klimawandel (stark gekürzt und textlich teils leicht verändert): [10] Die 97% Einigkeit unter Wissenschaftlern, die es nie gegeben hat

Aktivisten haben die Basisdaten gefiltert

[10] … John Cook hat mit Hilfe von Freiwilligen unter den Lesern der Seite „Skeptical Science“ die einleitenden Kurzzusammenfassungen („Abstracts“) von 11.944 wissenschaftlichen Arbeiten auf bestimmte Kriterien hin untersucht.
In die Auswahl wurden alle Veröffentlichungen genommen, die die Stichwörte:
-„Global Warming“ (Globale Erwärmung) oder
-„global climate change“ (globale Klimaveränderung)
enthielten.

Anmerkung: Wie (nicht nur) vom Autor oft gezeigt wird, haben die Angaben in Pressemitteilungen und Summaries oft bewusst weit alarmistischere Aussagen als die Studieninhalte, gar nicht so nicht selten bis zum Summary-Bericht des (alarmistischen) Gegenteils. Denn nur dann findet eine (Klimawandel-)Studie Verbreitung und wird oft zitiert, um das Ranking der Autoren zu erhöhen (das ist meistens der einzige Sinn solcher Studien). Eine solche „Belegung“ alleine anhand der Summarie-Texte führen zu wollen, ist schon deswegen ein eklatanter, methodischer (aber sicher ganz bewusster) Fehler.

[10] Er hat diese Arbeiten 7 Kategorien zugeordnet. Die Kategorien sind:

Bild 3 [10] In der Studie abgefragte Kategorien
Die Kategorien kann man übersetzen als:
1: Äußern sich explizit zum AGW (menschgemachter globaler Erwärmung) und ordnen dem Menschen mehr als 50% Anteil am Klimawandel zu.
2: Äußern sich explizit zum menschgemachten Klimawandel, jedoch quantifizieren oder minimieren den Anteil nicht.
3: Äußern sich implizit zum menschgemachten Klimawandel (z.B. durch Erwähnung desselben).
4: Nehmen keine Position ein.
5: Minimieren oder lehnen den menschgemachten Klimawandel wenigstens implizit ab
6: Minimieren oder lehnen den menschgemachten Klimawandel explizit ab, quantifizieren aber nicht den Anteil.
7: Lehnen den menschgemachten Klimawandel ab und behaupten, der menschliche Anteil liegt unter 50%.

Schon an dieser Einordnung fällt ein systematischer Fehler auf, denn die Gruppe 2 muss sich zumindest mit den Gruppen 5, 6 und 7 inhaltlich überschneiden. Diejenigen, die dem menschgemachten Klimawandel zustimmen aber nicht über 50% sehen, minimieren eigentlich sinngemäß den Anteil des Menschen (Kategorien 5 und 6) bzw sehen ihn definitionsgemäß unter 50% (Kategorie 7).
Es ist schwierig, hier eine eher zustimmende bzw. ablehnende Haltung der Autoren zum anthropogenen Anteil der Klimaveränderung herauszulesen. Vor allem, wenn die Abstracts wie gewohnt sehr sachlich und vorsichtig geschrieben sind, fehlen regelmäßig Äußerungen, die hier eine eindeutige Zuordnung ermöglichen …

Die Frage lautet, wie kommen Cook et al. auf 97%?

[10] dazu habe ich mir … von einem Tabellenkalkulationsprogramm nachzählen lassen, wie viele wissenschaftliche Veröffentlichungen von Cooks Mitarbeitern den einzelnen Kategorien zugeordnet wurden … Und das Ergebnis war ernüchternd …

Bild 4 [10] In der Studie zugewiesene Kategorien (anhand der von [10] durchgeführten Auswertung)
[10] Wichtig ist … zunächst, dass in der Originalarbeit die obige detaillierte Tabelle in keiner Form in der Veröffentlichung von Cook et al. Erwähnung findet! Eine detaillierte Auflistung der Messergebnisse fehlt.

Dem Leser wird … verheimlicht, dass lediglich 0,54% aller Autoren, die etwas zum Klimawandel schreiben, den Menschen als wesentlichen Treibers des Klimas sehen

[10] Diese Prozentzahl taucht tatsächlich im gesamten Artikel von Cook et. al nicht auf! Nicht als Tabellenwert, nicht im Fließtext.
Cook et al. fassen die Teilergebnisse der Kategorien 1 bis 3 in ihrer Tabelle 3 hingegen zu einer Teilmenge zusammen und zeigen uns die detaillierten Ergebnisse nicht. Dies führt zwingend zur Frage: Will der Autor der Studie hier etwas verheimlichen?

Bild 5 [10] In der Studie in Tabelle 3 angegebene Kategorien (übersetzt)
[10] Auch dass plötzlich eine Kategorie „Unsicher über AGW“ mit 40 Arbeiten auftaucht, verwundert auch, weil das aus den Originalzahlen nicht hervorgeht.

In der Studie wurden die Veröffentlichungen nachträglich neu gruppiert

[10]Und hier werden abermals die Originaldaten nicht präsentiert. Verschwiegen werden die Kategorien 5 bis 7.
Zumindest in den Naturwissenschaften ist es eiserne Regel, dass man vor Versuchsbeginn den Analyseplan, also die Messmethoden und den Umgang mit den Messdaten zwingend festlegt … Hier werden aber plötzlich die wissenschaftlichen Veröffentlichungen ganz offenbar komplett neu eingruppiert. Und das auch noch zusätzlich in Kategorien, die es beim Start der Studie anscheinend noch nicht gegeben hat …
Cook et al. schreiben dazu:
„Nach Abschluss der endgültigen Bewertungen wurde eine Zufallsstichprobe von 1000 Abstracts der Kategorie „Keine Position“ erneut untersucht, um diejenigen zu unterscheiden, die keine Meinung äußerten, und diejenigen, die die Ansicht vertreten, dass die Ursache von GW [Globaler Erwärmung] ungewiss ist.“

Trotz durchgängiger, eklatanter Manipulation Mängel gilt die Studie als „Goldstandard“

[10] Diese Stichproben, so kann man aus der folgenden Arbeit entnehmen betrafen die Arbeiten, die keine Aussagen machten (Kategorie 4). Was genau hierbei herauskam, wird auch nicht verraten. Wurde das Ergebnis der Stichprobe auf die Gesamtzahl der Arbeiten hochgerechnet? Keine Angabe. Warum nur eine Stichprobe? Warum hat man nicht alle Abstracts der Kategorie von vornherein nach dieser Fragestellung untersucht. Es sieht für mich hier danach aus, dass hier im Nachhinein vom ursprünglichen Analyseplan abgewichen wurde.
Alleine wegen der bisher festgestellten Mängel muss man fragen, wie dieser Artikel ein Peer-Review-Verfahren überstehen konnte.
Zufügung: Noch viel schlimmer ist, dass diese Studie bis heute in „Klima-Fachkreisen“ (und bis zu unseren „höchsten“ Politikern – den Journalisten der Lokalzeitung des Autors sowieso), sozusagen als „Goldstandard“ gilt.

In Wirklichkeit ermittelte die Studie folgende Daten

[10] Zurück zu den eigentlichen Rohdaten.
-Kategorie 1:
0,54% der wissenschaftlichen Veröffentlichungen ordnen dem Menschen explizit einen überwiegenden Anteil am Klimawandel von über 50% zu
-Kategorie 2:
7,72 % gehören zu denen, die dem Menschen einen Anteil am Klimawandel zusprechen, sich jedoch nicht genau dazu äußern.

Wie manipulierte rechnete Cook et al., um auf 97% „Zustimmung“ zu kommen?

[10]zunächst einmal haben Cook et al. alle Arbeiten, die sich irgendwie zustimmend zum Klimawandel in den Abstracts äußern (Also die Kategorien 1 bis 3) wie wir oben in Tabelle 3 sehen zusammengefasst.
Das ist schon bemerkenswert! Vor allem die vollkommen unbestimmten Äußerungen aus Kategorie 3 zum Klimawandel und die stark variierenden Meinungen aus Kategorie 2 zum menschlichen Anteil am Klimawandel (von viel bis wenig) wurden hier einfach mit denen zusammengefügt, die sich absolut sicher über den überwiegenden Anteil des Menschen am Klimawandel sind. Gefolgt von der Behauptung, dass alle betroffenen Wissenschaftler sich einig wären über den menschgemachten Klimawandel.
Es ergeben sich hier in Summe 32,62% aller wissenschaftlichen Arbeiten. Dieser Wert ist weit von 97% entfernt.

Die Enthaltungen wurden herausgenommen

[10] Jetzt kommt der gravierendste Kniff: Ähnlich wie bei der Bundestagswahl haben Cook et al. einfach die Enthaltungen aus der Rechnung herausgenommen. Das sind in diesem Fall alle Arbeiten in Kategorie 4 mit ca. 67%. Durch diesen rechnerischen Taschenspielertrick bezogen sich die Ergebnisse nur noch auf ca. 33% der Gesamtstichprobenmenge. Und dann steht am Ende die Aussage, dass die überwältigende Mehrheit (97%) der Wissenschaftler einen menschgemachten Einfluss am Klima erkennt. Daraus machen dann nicht wenige Lei(d/t)medien, dass über 97% der Wissenschaftler einen wesentlichen Anteil des Menschen am Klimawandel sehen.

Das ist bemerkenswert! Denn dass es einen menschlichen Anteil am Klimageschehen gibt ist tatsächlich breiter Konsens. Mit wenigen Ausnahmen finden wir diesen Konsens auch bei sehr kritischen Stimmen zum Thema. Diese werden aber pauschal zu „Klimaleugnern“ abgestempelt, weil sie nicht damit einverstanden sind, dass dem Menschen über 50% oder gar über 80-90% Anteil an der globalen Erwärmung zukommen. Und wie die Studie von Cook et al zeigt, schließen sich tatsächlich die allermeisten Wissenschaftler in ihren Veröffentlichungen genau der These nicht an, dass es einen überragenden Anteil des Menschen am Klimawandel gibt.

Rohdaten: Falsch zugeordnete Veröffentlichungen

Diesen – nicht unwichtigen Teil (aber mit vielen, großen Tabellen versehen) – kann jeder in der Publikation selbst nachlesen.

Zusammenfassung zu Cook et al: Lediglich 0,54% aller Veröffentlichungen behaupten einen überwiegenden Anteil des Menschen am Klimageschehen.

[10] … Was bleibt also nun am Ende von dem angeblichen 97%- Konsens? Es gibt einen klaren Konsens, nur leider einen ganz anderen, als sich Cook und seine Freunde gewünscht hätten.
Die Zusammenfassung von Cook et al. hätte ehrlicher Weise lauten müssen:
-In 99,46 % aller wissenschaftlichen Arbeiten ist eine Zustimmung zur These des überwiegenden Anteils des Menschen am Klimawandel
nicht erkennbar
-Die überwiegende Mehrheit von mehr als 66% macht keine Aussage zu dieser Fragestellung. Ein geringer Teil lehnt gar einen überwiegenden oder wenigstens maßgeblichen menschlichen Anteil am Klimawandel eindeutig ab
-Lediglich 0,54% aller Veröffentlichungen behaupten einen überwiegenden Anteil des Menschen am Klimageschehen.

Außerdem ist die Datenbasis der Studie fehlerbehaftet, zahlreiche Veröffentlichungen sind in falsche Kategorien eingeordnet, was eine Stichprobe ergab. Das könnte bei nochmaliger Prüfung die ermittelten Anteile der Veröffentlichungen deutlich zu Gunsten der Ablehner des überwiegenden Anteils den Menschen verschieben.

Daraus ergibt sich eine Frage und eine Schlussfolgerung

[10]Wir können auf Basis dieser Daten hier aber noch eine viel weitergehende Frage stellen:
Wie ist es den anderen sieben bekannten Studien zum angeblichen Klimakonsens möglich, auf Zustimmungswerte bis 99% zu kommen? Die Cook-Studie deckt hier mit 11.944 untersuchten Veröffentlichungen bereits eine ziemlich große Menge an wissenschaftlichen Arbeiten und damit auch Äußerungen zum Klimawandel ab. Wenn wir hier einen nur verschwindend geringen Anteil an Zustimmung zum angeblichen Klimakonsens des IPCC finden, auf welcher Datenbasis kommen dann die anderen Studien zu 99%? Es ergibt sich hier ein erster Anfangsverdacht, dass auch mit diesen Studien etwas nicht stimmen kann. „Further research has to be done.“
Dazu sagen Cook et. al selbst (Übersetzung aus dem Englischen):
„Eine genaue Einschätzung des Grades an wissenschaftlichem Konsens ist ein wesentliches Element für die öffentliche Unterstützung der Klimapolitik (Ding et al 2011). Die Vermittlung des wissenschaftlichen Konsenses erhöht auch die Akzeptanz der Menschen für den Klimawandel (CC) (Lewandowsky et al. 2012).“
Meine Schlussfolgerung dazu ist eindeutig: Es geht hier um die Manipulation der öffentlichen Meinung. Und der Autor gibt das auch indirekt zu! Das lässt auch die Frage aufkommen, ob der Autor hier ergebnisoffen geforscht hat, oder ein gewolltes Ergebnis von Vornherein feststand.
Weitere Kritiken zu dieser „Studie“: [14] [12] [15]

Zufügung

An der Cook-Studie war auch eine Frau Barbel Winkler mit Zuordnung: Skeptical Science, Brisbane, Queensland, Australia, – also einer reinen Klimawandel-Aktivistenorganisation – Co-Autorin.

Bild 6 SkepticalScience. Screenshot von der Homepage

Dazu ein Blogeintrag aus [18]: … Ich habe kürzlich gesehen, dass an der dubiosen Australischen 97%-Cook-Studie auch eine Bärbel Winkler mitgeschrieben hat.
Ich habe diese Frau im Januar 2015 in Radolfszell am Bodensee erlebt. Sie ist eine gelernte Computer-Programmiererin, die dann beim NABU auf Klimaaktivismus „umgeschult“ hat, wie sie es selbst (mit anderen Worten) in Radolfzell erwähnt hatte.
Sie hatte in Radolfzell einen Klima-Vortrag gehalten, voller faktischer Fehler und Widersprüche. Ich hatte ihr mehrfach während ihres Vortrags „die Karten gelegt“, in dem ich ihre Fehler und Widersprüche richtiggestellt hatte.
Am Ende ihres Vortrags kamen ca. 20 Leute auf mich zu und stellten mir Fragen, und nicht Frau Winkler. Das war eine der besten Situationen, die ich je erlebt habe. Das hatte mir damals richtig Motivation gegeben.
Auch deshalb ist mir klar, dass die australische Cook-Studie „Müll“ sein muss.

Die 99,99 %-„Konsensstudie“ von James Lawrence Powell 28. März 2016

97 % „Zustimmung“ reichen beim sich stetig wandelnden Klima natürlich nicht. Wie in autoritären – und allen linksdemagogisch geführten – Ländern „üblich“, darf es keinen Abweichler*in (in Historien oft der/die plötzlich und zur Unzeit auftauchende „Königsmörder*in“) geben, der/die das System in Frage stellen (könnte). Also müssen alle zustimmen. Und so hält man es auch beim schlimmen AGW-Klimawandel.

Ein Professor, von der Obama-Administration dazu beauftragt, auch solch ein „anspruchsvolles“ (Wunsch-)Ergebnis zu liefern, fand sich. Er kam nicht nur auf 97 % Zustimmung, sondern fand, dass es mit Sicherheit mindestens 99,99 %, eventuell sogar 100 % sein müssen.

Wie gelang dies?
Der beauftragte Herr Powell sagte sich: Wenn man die Auswahl der infrage kommenden Studien noch weiter einschränkt und darin nur noch nach einem „Ablehnungsbegriff“ sucht, und das auch nur in der Überschrift und im Abstrakt und dann alle Studien, welche genau diesen einen Begriff nicht listen, automatisch als vorbehaltlose Zustimmung zum schlimmen AGW-Klimawandel wertet, muss die „Zustimmungsrate“ mit Sicherheit noch höher werden. Und so geschah es.
Vorab noch der Hinweis, dass es mehrere „Powell-Studien“ gibt. Im Kern behandeln alle das Gleiche mit geringen Abwandlungen. Seine Diskussion dreht sich lediglich darum, ob die Zustimmung 99,97; 99,99 oder 100 % beträgt.

Powell-Konsensstudien:
-James Lawrence Powell 2012: Science and Global Warming (zweiter Link dazu)
[13] James Lawrence Powell et al., March 28, 2016: Climate Scientists Virtually Unanimous: Anthropogenic Global Warming Is True (Anm.: Diese ist die Powell-2016-„Standardstudie“)
[16] James Lawrence Powell, May 24, 2017: The Consensus on Anthropogenic Global Warming Matters (im WEB zu finden)
Powell, J. (2019): Scientists Reach 100% Consensus on Anthropogenic Global Warming.

Dabei ging (und geht) es Herrn Powell gar nicht um eine „wissenschaftliche Belegführung“ zum wirklichen Anteil an Zustimmungen, sondern – wie er es selbst im Summary seiner Hauptstudie darlegt -, vorwiegend um AGW-Propaganda:
[13] James Lawrence Powell: Abstract
The extent of the consensus among scientists on anthropogenic global warming (AGW) has the potential to influence public opinion and the attitude of political leaders and thus matters greatly to society. The history of science demonstrates that if we wish to judge the level of a scientific consensus and whether the consensus position is likely to be correct, the only reliable source is the peer-reviewed literature. During 2013 and 2014, only 4 of 69,406 authors of peer-reviewed articles on global warming, 0.0058% or 1 in 17,352, rejected AGW. Thus, the consensus on AGW among publishing scientists is above 99.99%, verging on unanimity. The U.S. House of Representatives holds 40 times as many global warming rejecters as are found among the authors of scientific articles. The peer-reviewed literature contains no convincing evidence against AGW.

deepl-Übersetzung: Das Ausmaß des Konsenses unter Wissenschaftlern über die anthropogene globale Erwärmung (AGW) hat das Potenzial, die öffentliche Meinung und die Haltung der politischen Führer zu beeinflussen, und ist daher für die Gesellschaft von großer Bedeutung. Die Geschichte der Wissenschaft zeigt, dass die einzige verlässliche Quelle für die Beurteilung des Ausmaßes eines wissenschaftlichen Konsenses und der Wahrscheinlichkeit, dass die Konsensposition richtig ist, die von Fachkollegen überprüfte Literatur ist. In den Jahren 2013 und 2014 lehnten nur 4 von 69.406 Autoren von peer-reviewed Artikeln über die globale Erwärmung, 0,0058% oder 1 von 17.352, den AGW ab. Somit liegt der Konsens über den AGW unter den veröffentlichenden Wissenschaftlern bei über 99,99%, was an Einstimmigkeit grenzt. Im US-Repräsentantenhaus gibt es 40-mal so viele Ablehnungen der globalen Erwärmung wie unter den Autoren wissenschaftlicher Artikel. Die begutachtete Literatur enthält keine überzeugenden Beweise gegen AGW.

Details zur „Powell-Studie“

Powell reduzierte zuerst einmal (gegenüber seinen „Vorgänger*innen“) die Anzahl der “analysierungswürdigen“ Studien noch weiter, indem er nur solche „auswertete“, welche die Begriffe “Global warming” oder “Gobal climate change” oder “Cimate change” im Summary und Überschrift beinhalteten. So war von vornherein sichergestellt, dass nur zum Klima-Alarmismus tendierende überhaupt Berücksichtigung fanden.
Damit nicht genug. Powell legte zusätzlich fest – beziehungsweise „begründete“ es -, dass jede*r Studienautor*in, welche nicht felsenfest an den schlimmen AGW-Klimawandel glaubt, dies im Summary mit den Wörtern „reject“ (Ablehnung) oder „rejection“ (ablehnen) verkündet.
Kam keiner dieser zwei Begriffe vor, wurde es automatisch als volle Zustimmung zum Klimawandel gewertet. Was wirklich im Summary, gar in den Studien selbst stand, wurde vollkommen ignoriert, wie selbstverständlich auch die vielen Petitionen gegen den AGW-Alarmismus.

Es überrascht nicht, dass nach diesen vielen Einschränkungen von 24.210 Studien (-Summaries) nur fünf den Klimaalarmismus ablehnten:
(Grobe Übersetzung) Powell: … Meine Suche ergab 24.210 Artikel von 69.406 Autoren. Meines Erachtens nach, lehnten nur fünf Artikel die AGW ab:… Dies entspricht einem Anteil von 1 Artikel an 4.842 oder 0,021%. In Bezug auf die Autoren lehnen 4 AGW ab: 1 in 17.352 oder 0,0058%. Wie bereits erläutert, würde dies bedeuten, dass 99,99% der Verlagswissenschaftler AGW akzeptieren …

Petitionen gegen den Klimaalarmismus

Keine der Verfasser*innen der „Konsensstudien“ dachte überhaupt daran, neben (vorselektierten) Studien auch Petitionen als Argumentation zu berücksichtigen.
Ein Trend, der sich aktuell in der Politik wiederfindet, wo die Wählerstimmen nebensächlich werden und stattdessen verstärkt auf die Meinung von (geeignet herausgesuchten), selbsternannten NGOs und Lobbygruppen gehört wird.

Damit stört es auch nicht, dass beispielsweise das immer stärker politisch unterwanderte WIKIPEDIA Hinweise dazu löscht.
Deshalb eine (unvollständige) Zusammenstellung von klimakritischen Petitionen:
– Oregon-Petition, im Jahre 2008, 31.000 Unterzeichner, davon 9000 promoviert, die meisten aus dem Ingenieurbereich, aber auch zahlreiche Klimaforscher (hier).
-Das Heidelberger Manifest, 1992, 4000 Naturwissenschaftler, 72 Nobelpreisträger, überwiegend keine Klimaforscher (
hier). Bemerkenswert ist, dass es diesen Wikipedia-Eintrag nur im Englischen Wikipedia gibt, im deutschen Wikipedia werden dem IPCC widersprechende Artikel zensiert
– Leipziger Manifest, 1995, (80 Forscher der Naturwissenschaft, 25 Meteorologen), (
hier). Auch hier nichts im deutschen Wikipedia
– Der U.S. Senate Minority Report, 11.12.2008, 700 Naturwissenschaftler (
hier)
– Offener Brief an Angela Merkel, 26.7.2009, (
hier)
– Die Eingabe an US-Präsidenten Obama (100 Fachwissenschaftler, (
hier)
– Offener Brief an UN Generalsekretär Ban Ki-Moon (125 Naturwissenschaftler, (
hier)
– Petition an Präsident Donald Trump, (
hier)
– Physiknobelpreisträger Ivar Giaever:
Youtube gegen den Klimawahn
– Petition italienischer Wissenschaftler, 6.7.2019, (
hier)
– 700 Klimawissenschaftler weltweit an den UN-Generalsekretär António Guterres eine Petition „Es gibt keinen Klimanotstand“ (
hier)
-EIKE 14. Sept. 2020: 49
NASA-Wissenschaftler sagen, wie es ist
Es gibt vermutlich noch weitere Petitionen, die aber „erfolgreich“ aus dem Internet gelöscht wurden. Uns bekanntes Beispiel ist die von kanadischen Wissenschaftlern an den damaligen kanadischen Ministerpräsidenten Harper
*sciencefiles 10.03.2020:
Liste der Wissenschaftler, die menschengemachten Klimawandel für Humbug halten
… Wikipedia en.wikipedia hat die Liste der Wissenschaftler, die dem “wissenschaflichen Konsens über globale Erwärmung” (List of scientists who disagree with the Scientific consensus on global warming) widersprechen, gelöscht …

Fachpersonen“ und „-Organe“ sind sich sicher …

Es ist überraschend. Alle diese Konsensstudien bauen ihre „Belegführung“ auf dem gleichen, extrem manipulativem und durch Vorauswahlen extrem eingeschränktem“ Befragungs- und Stichwortschema auf. Und bei allen lässt sich nach genauerer Analyse anstelle der „ermittelten“, extremen „sicheren Zustimmung“ von 97 … 99,9 % (sogar 100 %), eine sehr geringe in der Größenordnung von maximal 1 – 2 % ableiten. Die weiteren, methodischen Fehler (wie auch die nicht-Berücksichtigung der vielen Petitionen von Wissenschaftlern) mal außen vor gelassen.

Trotzdem sind sich „honorige Personen und Institutionen“ ganz sicher, dass diese Konsensstudien sorgfältig recherchiert seien und weltweit überzeugend die Meinung der Wissenschaft zum Klima und seinem stetigen Wandel abbilden:

Einmal das „Wahrheitsinstitut“ dpa mit der Imprimatur unseres Bundespräsidenten(Versuchs) – Steinmeier: „Fakten sind Fakten, wenn sie von der dpa gemeldet werden“:
[17] PRESSEPORTAL dpa 20.02.2020: dpa-Faktencheck – Studien lassen keinen Zweifel: Große Einigkeit beim Thema Klimawandel
… Regelmäßig stellen Autoren, die die Verantwortung des Menschen für die globale Erwärmung anzweifeln, den wissenschaftlichen Konsens in Frage: Es gebe unter Wissenschaftlern keinen 97%-Konsens darüber, dass der Klimawandel von Menschen zu verantworten ist, behauptet „sciencefiles.org“ (http://dpaq.de/WQe4R). „Für jeden einigermaßen integren Beobachter riecht das nicht nur nach Betrug, es ist auch Betrug“, kommentiert das Portal „Eike“ entsprechende Studien (http://dpaq.de/QNzTe Anm.: Link geht zu EIKE [15]).
… Den wissenschaftlichen Konsens umfassend untersucht hat auch der US-Geologe James Powell. Nach der Analyse von entsprechenden Publikationen kam er 2012 zu dem Schluss, dass von 33 700 wissenschaftlichen Autoren ganze 34 Zweifel am Konsens zum menschengemachten Klimawandel übten (
http://dpaq.de/WhUng). 99,9 Prozent dieser Wissenschaftler sind demzufolge von der Verantwortung des Menschen überzeugt. Weitere Analysen von 2016 (http://dpaq.de/gcZKk) und 2017 (http://dpaq.de/X03EE) bestätigen diese Erkenntnis.
Psychologen und Kommunikationswissenschaftler erklären, mit welcher Taktik die Verbreiter von Falschinformationen vorgehen: Sie stellen „den wissenschaftlichen Konsens in Frage, indem sie Gruppen mit geringerem Fachwissen in der Klimaforschung hervorheben“, heißt es im „Handbuch zum Klimakonsens“ (http://dpaq.de/UUE4U). Laien würden zu Experten aufgewertet, um die öffentliche Wahrnehmung zu manipulieren.

[8] SkepticalScience: Dutzende von wissenschaftlichen Organisationen stimmen dem Konsens über die menschengemachte globale Erwärmung zu. Nur eine einzige hat den Konsens früher abgestritten – die American Association of Petroleum Geologists – und sogar diese äußert sich heute neutral, nachdem Mitglieder damit gedroht hatten, ihre Mitgliedschaft wegen dieser Haltung einer Leugnung des Klimawandels nicht zu verlängern …
Kurz gesagt ist der 97% Konsens über die von uns verursachte globale Erwärmung ein belastbares Ergebnis, das durch mehrere unterschiedliche Methoden in verschiedenen Studien des letzten Jahrzehnts ermittelt wurde. Es sollte heute keine Überraschung mehr sein und es zu leugnen ist, na ja, Leugnung.

Klimafakten.de (in deren Wissenschaftlichem Beirat sitzt Prof. Rahmstorf vom PIK): Behauptung: „Es gibt (noch) keinen wissenschaftlichen Konsens zum Klimawandel
Fakt ist: Über 90 Prozent der Klimaforscher sind überzeugt, dass maßgeblich der Mensch den Klimawandel verursacht:
Antwort: Es ist wissenschaftlich gesichert und gut belegt, dass der Mensch Hauptverursacher der bereits laufenden globalen Erwärmung ist. Diesem Konsens stimmen Wissenschafts-Akademien aus 80 Ländern zu, außerdem viele weitere wissenschaftliche Organisationen und – laut mehrerer Studien – rund 97 Prozent der Klimawissenschaftler.
… Vermutlich wird es immer Wissenschaftler geben, die den menschengemachten Klimawandel bestreiten – die große Frage ist aber, wie kompetent diese sind und wie verlässlich ihre Einschätzungen.

Bekanntlich müssen Wissenschaftler ihre Meinungen mit Forschungsergebnissen und Daten untermauern, die einen strengen Begutachtungsprozess überstanden haben. Bei diesem sogenannten „Peer Review“-Prozess wird eine Veröffentlichung anderen Kollegen mit derselben Spezialisierung vorgelegt und so geprüft, ob sie überzeugende Einwände erheben. Eine Untersuchung aller peer-reviewten Veröffentlichungen zum Stichwort “globaler Klimawandel” aus dem Jahren 1993 bis 2003 ergab, dass nicht eine einzige Studie den Konsens bestritt, dass der Mensch die wesentliche Ursache des Klimawandels ist (Oreskes 2004).
Spätere Untersuchungen bestätigten diesen klaren Befund. Beispielsweise stellte eine Umfrage unter 3146 Geowissenschaftlern (Doran/Zimmermann 2009) folgende Frage: „Meinen Sie, dass menschliche Aktivitäten einen entscheidenden Einfluss auf die Veränderung der durchschnittlichen globalen Temperaturen haben?“ Von der Gesamtheit der Studienteilnehmer beantworteten 82 Prozent die Frage mit Ja.
Hinweis: Man beachte, dass nicht informiert wird, dass die „Gesamtheit der Studienteilnehmer“ nur eine Mindermenge darstellt.

Der Fachdienst des Bundestags auf eine Anfrage der AfD: Deutscher Bundestag Drucksache 19/12631 23.08.2019
... Die in der Anfrage zitierte Untersuchung von Cook et al aus dem Jahr 2013, aus der die Zahl von 97 Prozent der Wissenschaftler stammt, wird mittlerweile durch aktuellere Studien ergänzt. So analysiert James Powel in einer Metastudie aus dem Jahr 20161 insgesamt 54 195 durch Fachkollegen geprüfte (peer reviewed) wissenschaftliche Artikel aus dem Zeitraum von 1991 bis 2015. Davon bejahen im Durchschnitt 99,94 Prozent den menschengemachten Klimawandel.
Eine frühere Untersuchung von Powel zu geprüften Fachaufsätzen für den Veröffentlichungszeitraum 2013 bis 20142 zeigt dieselbe Tendenz zu einem weitgehenden Konsens in der Wissenschaftswelt: Hier stehen 4 von 69 406 Verfassern (0,0058 Prozent) dem menschengemachten Klimawandel kritisch gegenüber.
Vor dem Hintergrund dieser neueren Erkenntnisse vertritt die Bundesregierung nunmehr die Auffassung, dass rund 99 Prozent der Wissenschaftler, die Fachaufsätze zum Klimaschutz veröffentlichen, der Überzeugung sind, dass der Klimawandel durch den Menschen verursacht ist …

Man meint zu ahnen, dass sich unsere Umweltministerin, Herr Altmaier und (nicht nur) viele Redakteure (aus Bequemlichkeit oder mangelndem Intellekt?) verhalten, wie es lange, lange Zeit für die Untertanen von der Geistlichkeit vorgeschrieben (und auch teils bequem) war: (Sinngemäß) Es steht dem Volk nicht zu, sich eigene Gedanken über Auslegungen zu machen. Es hat die Auslegungen der Kirchenväter (und allgemein der Kirche) als absolute und nicht bezweifelbare Wahrheit anzunehmen. Wer dazu auch nur kritische Gedanken, gar Fragen hat, begeht bereits Häresie (wurde eine lange Zeitspanne nicht überlebt).

Natürlich ist das sicher eine falsche Schlussfolgerung. Bestimmt haben die beispielhaft Genannten einfach mehr Hintergrundwissen zum Thema als der Autor.
Trotzdem kamen dem Autor beim Sichten der Konsensstudien solche vergleichenden Gedanken.

Fazit

Jeder Leser*in sollte sich anhand des Beschriebenen nun selbst ein Bild machen können, ob die Konsensstudien die Meinungswirklichkeit der gesamten Klimawissenschaft zum schlimmen, vom Menschen verursachten Klimawandel richtig abbilden und ob man es wirklich „mit rationalen Argumenten nicht bestreiten kann“, wie es eine besonders ausgewiesene „Intelligenz“ verkündet.

Quellen

[1] SZ, 11. September 2020: Altmaier überrascht mit Klimaschutz-Offensive

[2] Bundesministerium für Wirtschaft, September 2020, Broschüre: KLIMA SCHÜTZEN & WIRTSCHAFT STÄRKEN Vorschlag für eine Allianz von Gesellschaft, Wirtschaft und Staat für : Klimaneutralität und Wohlstand:

[4] Tichys Einblick 12.09.2020: SO WERDEN WAHLEN ÜBERFLÜSSIG Peter Altmaiers neues Konzept entsorgt die Soziale Marktwirtschaft

[6] SkepticalScience: Studie zum 97%igen Konsens 1 Million Mal heruntergeladen!

[7] Macquarie University, Murray Goot: The ‘Scientific Consensus on Climate Change’: Doran and Zimmerman Revisited

[8] SkepticalScience: Der 97% Konsens aus Cook et al. (2013) ist ein belastbares Ergebnis

[9] DER SPIEGEL 23.09.2014: Missglückter Forscher-Aufruf zum Uno-Klimagipfel Die 97-Prozent-Falle

[10] Anti-Spiegel: Klimawandel: Die 97% Einigkeit unter Wissenschaftlern, die es nie gegeben hat

[11] EIKE 14.09.2020: 49 NASA-Wissenschaftler sagen, wie es ist

[12] WUWT July 16 2014: Climate Consensus? Nonsense!

[13] James Lawrence Powell March 28, 2016: Climate Scientists Virtually Unanimous: Anthropogenic Global Warming Is True

[14] ScienceFiles JULY 15, 2019: Der nächste Klima-Mythos fällt: Es gibt keinen 97%-Konsens zum menschengemachten Klimawandel

[15] EIKE 26. August 2019: 97 % sind nicht genug! Jetzt sollen es 99,84 % sein

[16] James Lawrence Powell, May 24, 2017: The Consensus on Anthropogenic Global Warming Matters

[17] PRESSEPORTAL dpa 20.02.2020: dpa-Faktencheck Studien lassen keinen Zweifel: Große Einigkeit beim Thema Klimawandel

[18] EIKE 22. Juni 2017: Was stimmt nicht mit der Behauptung, „97% aller Klimawissenschaftler“ stimmen hinsichtlich AGW überein?




Augusterwär­mung in Deutschland: Zunehmender Wärmein­seleffekt, Austrocknung der Landschaft, mehr Sonnen­schein und geänderte Großwetter­lagen-Häufig­keiten

Das nennt die Klimawissenschaft die Zunahme der Wärmeinseleffekte, und sie führt zu einer weiteren Erwärmung vor allem in den Sommermonaten, im Winter durch die Heizungen. Der Einfluss der Sonne ist jedoch stärker

Typische unterschiedliche Temperatur-Entwicklung verschiedener DWD-Wetterstationen

Das Google Bild der Wetterstation Hof (Land) stammt vom 22.Sept. 2019, am linken Bildrand ist die Wetterstation in einer ausgetrockneten Wiese, eine Folge der seit 20 Jahren anhaltenden Flächenversiegelung im Gewerbegebiet. Nur 30m entfernt, die seit 9 Jahren fertige vierspurige B15 mit stark zunehmender Verkehrsbelastung, wenn diese auf der Momentaufnahme gerade nicht erkennbar ist. Die nur 90 km entfernte Wetterstation Amtsberg in Sachsen steht auch außerhalb der Stadt, neben einer Gärtnerei an einem leichten Südhang. Die Aufnahme ist vom Sept. 2002, erkennbar an der leichten Gelbfärbung einzelner Laubbäume, aber alles ist grün, die Böden sind nicht ausgetrocknet. Der Hochsommermonat August entwickelt sich nach der Wende vollkommen unterschiedlich in den beiden Gebieten.

Abbildung links: Die einst ländliche Wetterstation Hof steht in der Mitte des linken Bildrandes. Die Wetterstation Amtsberg beim roten Punkt in einer ländlich intakt gebliebenen Landschaft.

Eine weitere Versteppung der Landschaft um Hof im Sommer ist vorhersehbar, derartige Entwicklungen haben wir hier beschrieben.

Nach Angabe des Wetteramtsleiters Amtsberg hat sich um seine Siedlung herum wenig verändert seit 1982, dem Beginn seiner Wetteraufzeichnungen am selben Standort. Eine auch dort neu erbaute Bundesstraße führt in beträchtlicher Entfernung an seiner Wetterstation vorbei. Die Industrialisierung hat nach der Wende Hof voll getroffen, an Amtsberg gingen die „blühenden Landschaften“ vorbei.

Einfluss der Landschaftsveränderungen auf die Temperaturentwicklung des Hochsommermonates August.

Grafik 1: unterschiedliche Augusttemperaturentwicklung in Hof und Amtsberg. Die Station Hof liegt 150 m höher, war vor der Bebauung kälter und hat in den letzten 3 Jahren Amtsberg überholt.

Erkenntnis: Ohne die anthropogenen Wärmeinseleffekte zeigt die Wetterstation in Amtsberg keinerlei Augusterwärmung seit 1982.

Ein anderes Beispiel für WI-Effekte findet sich in Thüringen; das ländliche Dachwig erwärmte sich in den letzten dreißig Jahren viel weniger stark, als Jena-Stadt:

Grafik 2: Das im ländlichen Thüringer Becken liegende Dachwig erwärmte sich im August deutlich weniger, als die in der Jenaer Innenstadt liegende Station Jena-Sternwarte. Beide Stationen sind nur etwa 50 Km voneinander entfernt und weisen eine ähnliche Höhenlage auf.

Ergebnisse: Die anhaltende Bebauung und Trockenlegung in Hof (Land) führte zur Augusterwärmung, verursacht durch die Addition der jährlichen Wärmeinseleffekte. Während das ein Beispiel für ländlich unterschiedliche WI-Effekte ist, zeigen die Unterschiede zwischen Jena-Stadt und Dachwig hauptsächlich den in den bebauten Gebieten zunehmenden UHI-Effekt („Urban Heat Island Effect“). An allen Orten ist die CO2-Konzentration der Luft seit 1982 um 75 ppm gestiegen.

Grafik 3: Kontinuierlicher Anstieg der CO2-Konzentrationen auf momentan knapp unter 420 ppm-Anteile in der Luft. Auch der Corona lock-Down und der weltweit verminderte anthropogene Ausstoß machte sich nicht bemerkbar. Demnach scheint ein Zurückfahren der menschengemachten Einträge in die Luft wenig an der Konzentrationszunahme zu ändern. Zur Maßeinheit 400 ppm=400 parts per million. Das wäre eine Konzentration von 0,04%.

Weitere Ursachen der August-Erwärmung

Diese sollen hier anhand zweier Grafiken gezeigt werden; die zunehmende Besonnung und geänderte Großwetterlagen-Häufigkeiten.

Grafik 4: Seit 1951 gibt es ein DWD-Mittel der Sonnenscheindauer. Stolze gut 50% der Temperaturvariabilität des August lassen sich mit der Sonnenscheindauer erklären; das ist hoch signifikant. Auf ganz Deutschland bezogen war der bislang sonnigste August (2003) auch der wärmste. Auch der bislang zweitwärmste (2020) war überdurchschnittlich sonnig, wenngleich nicht so markant, wie 2003; er verdankt seine Hitze auch der intensiven Zufuhr von Subtropikluft (xS). Seit 1951 stieg die Sonnenscheindauer merklich. Zur besseren Darstellbarkeit in einer Grafik musste die Sonnenscheindauer in Indexwerte umgerechnet werden; einige markante August-Monate sind daher beschriftet.

Erst seit 1979 liegt beim DWD die Objektive Wetterlagen-Klassifikation für Deutschland vor. Seitdem nahm die Häufigkeit der kühlend wirkenden Lagen mit nördlichem Strömungsanteil im August merklich ab:

Grafik 5: Merkliche Häufigkeitsabnahme der Tage mit nördlichem Strömungsanteil im August. Das trug ebenfalls zur August-Erwärmung bei. Im August 2020 wurden gerade mal drei Tage mit Nordanteil klassifiziert – einer der niedrigsten Werte seit 1979.

Zusammenfassung:

1.) Die Augusttemperaturen variieren an allen Betrachtungsorten von Jahr zu Jahr. Die Gründe sind die unzähligen natürlichen und sich ständig ändernden Einflüsse auf das Wetter und das Klima.

2.) Daneben übt der Mensch einen konstanten zusätzlichen Einfluss durch die Schaffung immer neuer zusätzlicher Wärmeinseleffekte aus. Bei manchen Stationen mehr, bei anderen weniger.

3.) Wie die Grafiken zeigen, bewirkt eine CO2-Zunahme entweder gar nichts oder fast nichts.

4.) Eine merklich gestiegene Besonnung und weniger Nord-, dafür mehr Süd- und Hochdruckwetterlagen trugen ganz wesentlich zur August-Erwärmung bei.

Fazit: Es wird Zeit, dass endlich Umwelt- und Naturschutz in den Mittelpunkt des politischen Handelns gerückt werden, saubere Luft, genügend Trinkwasser zu verträgliche Preisen und gesunde Nahrungsmittel sind menschliche Grundrechte. Eine CO2-Klimaabgabe taugt zu gar nichts, auf alle Fälle nicht dem Klima. Es handelt sich um ein Geschäftsmodell. Neben den oben beschriebenen Gründen, weshalb CO2 nicht an der gemessenen Erwärmung schuld sein kann, sollen noch drei weitere Gründe genannt werden.

  1. Es gibt keinen Versuch, der die Klimasensitivität von CO2 auch nur annähernd bestimmen kann. Behauptet werden 1,5° bis 4°C. Jeder Versuch liefert Null.
  2. Es gibt auch keinerlei Anwendungsbeispiel, bei welchem wir Menschen uns den behaupteten CO2-Treibhauseffekt positiv zunutze machen könnten.
  3. Schon bei der Elite der deutschen Physiker wie Einstein, Heisenberg, Hahn, Planck spielte der CO2-Treibhauseffekt keine Rolle. Er existierte für sie schlichtweg nicht, obwohl die Hypothese dazu schon Jahrzehnte zuvor entwickelte wurde.

Eine positive Eigenschaft hat die CO2-Zunahme in der Atmosphäre. Es ist ein Düngemittel für alle Pflanzen, führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, Kohlendioxid und eine angenehm milde Temperatur.




Unbestreitbare NASA-Daten: Globale Brände haben um 25% abgenommen

Quelle: NASA Earth Observatory

Die Kontrolle des Feuers ist ein Ziel, das vielleicht so alt ist wie die Menschheit, aber die systematische Überwachung des Feuers auf globaler Ebene ist eine viel neuere Fähigkeit.

In den 1910er Jahren begann der U.S. Forest Service mit dem Bau von Feuerwachtürmen auf Berggipfeln, um Brände aus der Ferne zu erkennen. Einige Jahrzehnte später flogen Löschflugzeuge zu den Brandorten. Anfang der 1980er Jahren begannen dann Satelliten, Brände über große Gebiete vom Weltraum aus zu kartieren.

Im Laufe der Zeit haben Forscher eine reichhaltige und strukturierte Aufzeichnung der Feueraktivität der Erde erstellt und sind nun in der Lage, dekadische Trends zu analysieren. „Das Tempo der Entdeckungen hat im Satellitenzeitalter dramatisch zugenommen“, sagte James Randerson, ein Wissenschaftler an der Universität von Kalifornien, Irvine. „Es war entscheidend, täglich qualitativ hochwertige Beobachtungen von Bränden auf globaler Ebene zur Verfügung zu haben“.

1. Dezember 2014 – 31. August 2015 [Animation. Falls nicht funktionierend, bitte im Original schauen! Anm. d. Übers.]

Die obige Animation zeigt die Orte der aktiv brennenden Brände auf monatlicher Basis für fast zwei Jahrzehnte. Die Karten basieren auf Beobachtungen des Moderate Resolution Imaging Spectroradiometer (MODIS) auf dem NASA-Satelliten Terra. Die Farben basieren auf einer Zählung der Anzahl (nicht der Größe) der Brände, die innerhalb eines 1.000 Quadratkilometer großen Gebiets beobachtet wurden. Weiße Pixel zeigen das obere Ende der Zählung – bis zu 30 Brände in einem 1.000 Quadratkilometer großen Gebiet pro Tag. Orangefarbene Pixel zeigen bis zu 10 Brände an, während rote Bereiche nur 1 Feuer pro Tag aufweisen.

Die Sequenz beleuchtet die Schwingungen – sowohl die natürlichen als auch die vom Menschen verursachten – der globalen Feueraktivitäten. Feuerschwaden ziehen über Eurasien, Nordamerika und Südostasien, während die Bauern im April und Mai ihre Felder räumen und pflegen. Der Sommer bringt neue Aktivitäten in den borealen und gemäßigten Wäldern Nordamerikas und Eurasiens aufgrund von Bränden in entlegenen Gebieten. In den Tropenwäldern Südamerikas und Äquatorialasiens flammen im August, September und Oktober Brände auf, da die Menschen die Trockenzeit nutzen, um Regenwald und Savanne abzuholzen und Bäume und Sträucher daran zu hindern, auf bereits gerodetes Land vorzudringen. Nur wenige Monate vergehen in Australien, ohne dass irgendwo in den ausgedehnten Grasländern, Savannen und Tropenwäldern des Kontinents ein Brand wütet.

Aber der wirkliche Feuerkontinent ist Afrika. An einem durchschnittlichen Tag im August erkennen die Moderate Resolution Imaging Spectroradiometers (MODIS) der NASA-Satelliten Aqua und Terra 10.000 aktive Brände auf der ganzen Welt – und 70 Prozent davon in Afrika. Im Dezember und Januar kommt es im nördlichen Teil des Kontinents zu einer gewaltigen Anzahl von Bränden. Ein halbes Jahr später haben sich die Brände nach Süden verlagert. In der Tat erreichen die globalen Feueremissionen in der Regel im August und September ihren Höhepunkt, zeitgleich mit den Hauptbrandsaisons der südlichen Hemisphäre, insbesondere in Afrika. (Eine hohe Aktivität in Wäldern der gemäßigten und borealen Zonen der nördlichen Hemisphäre im Sommer trägt ebenfalls dazu bei).

29. August 2018 JPEG

Die zweite Animation unterstreicht, wie stark sich die Feueraktivität saisonal verschiebt, indem sie die Aktivität im Dezember 2014, April 2015 und August 2015 hervorhebt. Das obige Satellitenbild zeigt Rauch, der am 29. August 2018 aus der Savanne im Norden Sambias aufsteigt, etwa zu der Zeit, wenn die globalen Emissionen ihr Maximum erreichen.

Obwohl Afrika bei der schieren Anzahl der Brände dominiert, sind die Brandsaisons dort von Jahr zu Jahr ziemlich konstant. Die variabelsten Feuerjahreszeiten finden anderswo statt, z.B. in den Tropenwäldern Südamerikas und Äquatorialasiens. In diesen Gebieten wird die Schwere der Brandsaison oft mit den Zyklen von El Niño und La Niña in Verbindung gebracht. Die Ansammlung von warmem Wasser im östlichen Pazifik während eines El Niño verändert die atmosphärischen Muster und verringert die Niederschläge in vielen Regenwäldern, so dass diese leichter und breiter brennen können. (video)

Trotz der enormen Mengen an Kohlenstoff*, die durch Brände in Savannen, Grasland und borealen Wäldern freigesetzt werden, zeigt die Forschung, dass Brände in diesen Biomen in der Regel langfristig keinen Kohlenstoff in die Atmosphäre einbringen. Durch das Nachwachsen der Vegetation oder die Bildung von Holzkohle wird in der Regel innerhalb von Monaten oder Jahren der gesamte Kohlenstoff wieder eingefangen. Wenn Brände jedoch dauerhaft Bäume entfernen oder durch Torf brennen (ein kohlenstoffreicher Brennstoff, dessen Bildung Jahrhunderte dauern kann), wird nur wenig Kohlenstoff zurückgewonnen, und die Atmosphäre verzeichnet einen Nettoanstieg von CO2.

[*Gemeint ist natürlich Kohlendioxid. Es wurde aber für besser gehalten, beim Original zu bleiben. Anm. d. Übers.]

Deshalb haben Brände in Ländern mit großen Torfvorkommen wie Indonesien einen übergroßen Einfluss auf das globale Klima. Brände im äquatorialen Asien machen nur 0,6 Prozent der weltweit verbrannten Fläche aus, dennoch ist die Region für 8 Prozent der Kohlenstoffemissionen und 23 Prozent der Methanemissionen verantwortlich. Am 25. Oktober 2015 nahm die Earth Polychromatic Imaging Camera an Bord des DSCOVR-Satelliten ein Bild (unten) von dichtem Rauch über Indonesien auf; El Niño war zu dieser Zeit besonders aktiv.

15. Oktober 2015

Eines der interessantesten Dinge, die Forscher entdeckt haben, seit MODIS mit dem Sammeln von Messungen begann, ist Randerson zufolge ein Rückgang der Gesamtzahl der jährlich verbrannten Quadratkilometer. Zwischen 2003 und 2019 ist diese Zahl um etwa 25 Prozent gesunken.

Da die Bevölkerung in den feuergefährdeten Regionen Afrikas, Südamerikas und Zentralasiens zugenommen hat, haben sich Grasland und Savannen stärker entwickelt und in Ackerland umgewandelt. Infolgedessen haben die langjährigen Gewohnheiten, Grasland zu verbrennen (um Sträucher und Land für Vieh oder aus anderen Gründen zu roden), abgenommen, erklärte der NASA Goddard Space Flight-Wissenschaftler Niels Andela. Und anstatt Feuer setzen die Menschen zunehmend Maschinen ein, um ihre Felder zu roden.

„Es gibt wirklich zwei verschiedene Trends“, sagte Randerson. „Auch wenn die Zahl der weltweit verbrannten Flächen aufgrund der Geschehnisse in den Savannen zurückgegangen ist, sehen wir in den westlichen Vereinigten Staaten eine deutliche Zunahme der Intensität und Reichweite von Bränden“*.

[Randerson führt Letzteres auf den Klimawandel zurück. Ganz frei vom Propaganda-Gespinst ist also auch er nicht. Anm. d. Übers.]

2003 – 2015 [Animation. Falls nicht funktionierend, bitte im Original schauen! Anm. d. Übers.]

Als die Forscher in den 1980er Jahren begannen, die Brände der Welt mit Hilfe von Satelliten zu untersuchen, waren sie gerade dabei, die Grundlagen für die Erkennung von Bränden aus dem Weltraum zu klären. Jetzt, nachdem sie fast zwei Jahrzehnte lang MODIS-Daten ausgewertet haben, blicken die Wissenschaftler auf andere Satelliten und Technologien, von denen sie hoffen, dass sie die Erforschung von Bränden in den kommenden Jahren voranbringen werden.

Eine Reihe von Folgesensoren, die Visible Infrared Imaging Radiometer Suite (VIIRS) auf dem Suomi NPP und den NOAA-20-Satelliten, machen jetzt Beobachtungen von Emissionen in Beinahe-Echtzeit, die sogar noch genauer als die von MODIS sind, weil die Branderkennung am Rande der Bilder verbessert wurde, bemerkte Andela.

Unterdessen hilft auch der Start von Satelliten mit höher auflösenden Sensoren. „Insbesondere die Landsat 8- und Sentinel-Satelliten tragen zu einer Revolution unserer Fähigkeit bei, die verbrannte Fläche von kleinen Grasland- und Waldbränden zu messen“, sagte Randerson. „Und wir werden in den kommenden Jahren zusätzliche Detektionskapazitäten benötigen, um zunehmend zerstörerische Megabrände zu allen Tages- und Nachtzeiten verfolgen zu können“.

References & Resources

Link: https://wattsupwiththat.com/2020/09/16/irrefutable-nasa-data-global-wildfire-down-by-25-percent/

Übersetzt von Chris Frey EIKE




Was wir heute übers Klima wissen

Der Bericht ist auf den gefälschten Temperaturdaten von Michael Mann aufgebaut (Hockey Stick Kurve, siehe 1. Abbildung). Dieser amerikanische Professor hatte vergeblich vor Gericht gegen Professor Tim Ball geklagt, der ihn in der Fachwelt als Lügner und Betrüger bezeichnet, der aufgrund seiner kriminellen Datenfälschungen besser im Staatsgefängnis als in der Staatsuniversität aufgehoben sei.

Kurz gefasst beschreibt der Bericht auf 24 Seiten, dass es seit Beginn der Industrialisierung Mitte des 19. Jahrhunderts auf der Erde wärmer wurde. Diese Feststellung ist allseits bekannt und wird auch von keinem Klimarealisten angezweifelt. Dass es nach einer „kleinen Eiszeit“, wie sie Mitte des 19. Jahrhunderts zu Ende ging, wieder wärmer wird, ist eine Binsenweisheit. Dafür braucht man keinen 24-seitigen Artikel zu schreiben. Zusätzlich aber stellen die Autoren die Behauptung auf, wir hätten derzeit eine beispiellose Häufung von Wärme-Rekordjahren und Naturkatastrophen, auch die Ernteerträge würden sinken. Diese Angaben sind nachweislich falsch!

Bereits im Alten Testament wird berichtet „Nachdem sieben ertragreiche Jahre verstrichen waren, begannen sieben Jahre der Dürre. Die Nachbarländer Ägyptens hungerten, in Ägypten selbst aber wurde auf Josefs Rat hin in den ertragreichen Jahren zuvor genug Getreide gesammelt, um die Dürre zu überstehen“ (1. Buch Mose-41). Damit hat Josef, der Urenkel Abrahams, bereits vor tausenden von Jahren gezeigt, wie man sich mit passivem Management sinnvoll auf einen Klimawandel einstellt. Aktives Management wäre es gewesen, wenn Josef dem Pharao geraten hätte, CO2 aus der Luft zu filtern um dadurch den Klimawandel zu verhindern. Das hätte damals den Klimawandel nicht verhindert und tut es auch heute nicht (darüber später mehr).

Die Autoren behaupten, die erdhistorischen Klimaschwankungen ließen sich nur erklären, wenn man den Treibhauseffekt mit einbezieht. Die vielfältigen Forschungen hätten „natürliche Ursachen für den aktuellen, sehr schnellen und steilen Temperaturanstieg um etwa 1°C seit Beginn der Industrialisierung ausgeschlossen“. Er sei „nur durch die menschengemachte Verstärkung des Treibhauseffekts erklärbar“. Dem widersprach bereits 2001 der aus Funk, Film und Fernsehen allseits bekannte Klimaalarmist Harald Lesch (https://youtu.be/RrNLNpOdmbA). Seinen Angaben zufolge gab es im Laufe der Erdgeschichte des Öfteren Temperatursprünge von 14°C innerhalb von 10-Jahres-Zeiträumen.

Auch die Behauptung der Autoren, ein Temperaturniveau wie heute hätte es „noch nie während der vergangenen 2000 Jahre gegeben und sehr wahrscheinlich auch nie seit Ende der letzten Eiszeit vor 12.000 Jahren“, ist falsch. Die Abbildung aus dem IPCC-Bericht 1990 zeigt eindeutig die früh-mittelalterliche Wärmeperiode, gefolgt von der „kleinen Eiszeit“ (links). Sie zeigt aber auch die gefälschten Daten von Michael Mann, der in der Fachwelt juristisch korrekt als Lügner und Betrüger bezeichnet werden darf, was aber das Intergovernmental Panel for Climate Control (IPCC) nicht abhielt, diese gefälschten Daten in seinen Bericht von 2001 aufzunehmen. Die Fälschungen waren damals politisch opportun und sind es leider auch heute noch.

Bereits in der Schule haben wir gelernt, dass Hannibal 218 v. Chr. die winterlichen Alpen mit circa 50.000 Soldaten, 9.000 Reitern und 37 Kriegselefanten überquerte, um Rom anzugreifen. Das ging nur wenn die Alpen damals schnee- und eisfrei waren. Es musste logischerweise in Europa eine Temperatur geherrscht haben, die weit über der heutigen lag.

Für die zurückliegenden 4.500 Jahre konnte gezeigt werden, dass die Geschichte menschlicher Siedlungen auf Grönland dem Takt von Klimaänderungen folgt. Die Temperaturen konnten beträchtlich steigen bzw. sinken. Forscher fanden beispielsweise Veränderungen um 4°C innerhalb von 80 Jahren (hier) – und das ganz ohne „Kipppunkte“.

Gehen wir noch etwas weiter zurück in der Erdgeschichte. Vegetationsüberreste belegen, dass vor etwa 90 Millionen Jahren ein gemäßigter, sumpfiger Regenwald im Küstenbereich der Westantarktis wuchs. Die Jahresdurchschnittstemperatur muss etwa 12 Grad Celsius betragen haben – weitaus höher als die heutigen minus 20 bis minus 70°C. Dieser überraschend hohe Wert war nach Auffassung von Wissenschaftlern nur möglich, weil der antarktische Eisschild damals fehlte.

Die mittlere Kreidezeit vor circa 115 bis 80 Millionen Jahren gilt nicht nur als das Zeitalter der Dinosaurier, sie war auch die wärmste Periode der zurückliegenden 140 Millionen Jahre. Nach bisherigem Wissensstand betrug die Oberflächentemperatur des Meeres in den Tropen damals rund 35 Grad Celsius. Der Meeresspiegel lag bis zu 170 Meter höher als heute – und das ganz ohne menschlichen Einfluss (hier).

Auch die im Bericht behauptete angebliche Häufung von Katastrophen derzeit widerspricht bereits biblischen Beispielen. Etwa im 13. Jahrhundert v. Chr. wurde Ägypten von zehn Plagen getroffen (2. Buch Mose). Die Sintflut zur Zeit Noahs sollte als weiteres Beispiel einer vorchristlichen Naturkatastrophe erwähnt werden. Auch die Anzahl und Stärke tropischer Stürme nimmt derzeit keineswegs zu (hier). Sturmfluten gab es schon immer. Man lese nur die Erzählung „Der Schimmelreiter“ von Theodor Storm aus dem Jahr 1888.

Weitaus höhere Hochwasserstände als heute wurden in Deutschland bereits vor Jahrhunderten gemessen:

Im Gegensatz zur Behauptung der Autoren, die Ernteerträge würden aufgrund der angestiegenen Temperaturen und CO2-Werte zurückgehen, zeigen viele Studien genau das Gegenteil. Die Apfelernte in den USA hat sich beispielsweise seit 1961 vervierfacht (siehe Abbildung) und die Erhöhung des CO2-Anteils der Luft führt nachweislich zu höheren Ernteerträgen (Parry et al.: Glob. Environ. Change 14, 2004; Bazzaz, F.A., Carlson, R.W. The response of plants to elevated CO2 . Oecologia 62, 196–198 (1984; hier und hier) (https://doi.org/10.1007/BF00379013;https://plantsneedco2.org/default.aspx?menuitemid=325).

Während wir in den gemäßigten Zonen der Erde gerade mal eine Ernte im Jahr haben, gibt es in wärmeren Gebieten der Erde jährlich zwei bis drei Ernten.

Seit 1989 erscheinen jedes Jahr durchschnittlich 310.000 qkm zusätzliche grüne Blattfläche auf der Erde, etwa so groß wie Polen oder Deutschland (Winkler AJ et al.: Earth system models underestimate carbon fixation by plants in the high latitudes. Nature Communications 2019) und trotz extensiver Waldrodungen weltweit ist seit 1982 eine Grünfläche doppelt so groß wie die USA hinzugekommen (Nature Climate Change 6, 791-795, 2016, www.nature.com/articles/nclimate3004).

Desweiteren behaupten die Autoren, detaillierte Computermodelle des Klimasystems der Erde hätten „bereits in den 1970er und 1980er Jahren die derzeit stattfindende Erwärmung korrekt vorhergesagt“. Auch diese Behauptung ist falsch! Richtig ist, dass kein einziges der 32 Computermodelle auch nur annäherungsweise die tatsächlich gemessenen Temperaturen vorhergesagt hat (siehe Abbildung).

Die hier besprochene Veröffentlichung wird alarmistisch aufgepeppt durch die bereits vielfach widerlegte Behauptung, der Mensch sei an der derzeitigen Klimaerwärmung Schuld, genauer gesagt, der wahre Übeltäter an der Klimaerwärmung sei das durch Verbrennen fossiler Energieträger emittierte CO2. Diese Behauptung wird an jeder unpassenden Stelle in den laufenden Text eingestreut, so als ob die Qualifikation der Autoren nach der Häufigkeit dieser „Produktplatzierung“ gemessen würde, ob sie nun Sinn macht oder nicht.

Sinn macht diese „Produktplatzierung“ sicherlich nicht, denn es gibt keine einzige wissenschaftliche Studie, die diese pure Annahme bestätigen würde. Im Gegenteil, ein Einfluss von CO2 auf den Klimawandel wurde mehrfach wissenschaftlich widerlegt, z.B. durch Gustav Robert Kirchhoff (1824-1887) und William Thomson (1824-1907), durch Josef Stefan (1879), Robert W. Wood (1909) und Emanuel Kayser (Zentralblatt Mineralogie 1913, S. 769). Auch Anders Jonas Angström hat die Hypothese über den Einfluss von CO2 auf die Erderwärmung mit einem einfachen Experiment verworfen. Er zeigte, dass die Infrarot-Absorption durch CO2 bereits bei niedrigen CO2-Konzentrationen gesättigt ist und dass eine weitere Erhöhung der CO2-Konzentrationen die Erdtemperatur nicht maßgeblich erhöhen kann.

G. Gerlich & R.D. Tscheuschner widerlegten 2009 den CO2 -induzierten Treibhauseffekt erneut:  „Falsification of the atmospheric CO2 greenhouse effects within the frame of physics“, Int. J. Modern Physics B 23, Nr. 3, 275-364, 2009. Auch die Deutsche Meteorologische Gesellschaft stellte zu den Grundlagen des Treibhauseffektes fest: Es ist unstrittig, dass der anthropogene Treibhauseffekt noch nicht unzweifelhaft nachgewiesen werden konnte(hier).

Der österreichische Ingenieur Walter Hopferwieser aus Salzburg bietet sogar 100.000 Euro dem Ersten, der ihm „einen schlüssigen naturwissenschaftlichen Beweis vorlegt, dass das von uns Menschen freigesetzte CO2 eine Klimaerwärmung bewirkt, die uns Menschen und unsere Erde nachhaltig schädigt.“ Da sich bisher noch niemand diese 100.000 Euro abgeholt hat, kann es mit der Hypothese der CO2-induzierten Klimaerwärmung nicht weit her sein!

Schauen wir uns also die Hypothese mal genauer an. Es steht die Frage im Raum „wird der Anstieg der globalen Erwärmung kausal verursacht durch den Anstieg atmosphärischer CO2-Konzentrationen oder ist es der Anstieg der globalen Erwärmung, der sekundär die atmosphärischen CO2-Konzentrationen ansteigen lässt?“ Diese Frage ist elementar für die Betrachtung des Klimawandels. Sie ist aber leicht zu beantworten, wenn man sich die vorliegenden Messwerte anschaut. In der nachfolgenden Abbildung sind die Länge der Sonnenzyklen, die atmosphärischen CO2-Konzentrationen und die globalen Temperatur-Anomalien von 1860, als die kleine Eiszeit zu Ende ging und die Industrialisierung begann, bis 1990 gezeigt:

Von 1860 bis 1890 gab es noch keine nennenswerten Veränderungen der dargestellten Parameter. Von 1890 bis circa 1945 nahm die Intensität der Sonnenzyklen zu, gefolgt von einem Anstieg der globalen Temperaturen um etwa 0,4°C. Während dieser Zeit lag die europäische Industrie aufgrund des 1. Weltkriegs für lange Zeit am Boden und – wie aus der Abbildung zu erkennen ist – die CO2-Konzentrationen der Luft blieben niedrig. Sie stiegen erst ab Ende des 2. Weltkriegs deutlich an, d.h. mit einer Verzögerung von gut 50 Jahren.

Obwohl nach dem 2. Weltkrieg die Industrialisierung weltweit große Fortschritte machte und die CO2-Konzentrationen deutlich anstiegen, wurde es von 1945 bis circa 1970 auf der Erde im Durchschnitt um etwa 0,2°C kälter. Dieser Temperaturabfall ging einher mit geringerer Sonnenaktivität. Die Medien waren damals voll von der Hysterie, wir stünden vor einer neuen Eiszeit und machten dafür die Verbrennung fossiler Energieträger und damit den Anstieg des CO2 verantwortlich. Basierend auf den Angaben amerikanischer Wissenschaftler prognostizierte die Washington Post vom 9.7.1971, dass die globalen Temperaturen in den nächsten 50 Jahren – also bis zum Jahr 2021 – um 6°C fallen würden.

Jedoch, die Sonne als die wahre Verantwortliche für die Temperaturschwankungen auf der Erde verstärkte von 1975 bis 1995 wieder ihre Zyklen und lies die globalen Temperaturen um etwa 0,3°C ansteigen. Nur während dieser 20 Jahre stiegen auch die CO2-Werte parallel zur globalen Erwärmung an. Für die meiste Zeit seit Beginn der Industrialisierung gab es keine Korrelation, geschweige denn eine Kausalität, zwischen den CO2-Werten der Luft und der Erdtemperatur. Sogar Harald Lesch erklärte seinen Zuschauern in einem Video aus dem Jahr 2015, dass es auf der Erde zuerst aufgrund der Sonneneinstrahlung wärmer wurde. Auch die Meere wurden wärmer, was dazu führte, dass Wasserdampf und CO2 in die Luft entwichen.

Im folgenden Punkt widersprechen die Autoren ihrer eigenen Schlussfolgerung. Sie behaupten, die derzeitige Klimaerwärmung sei verursacht durch den Anstieg der CO2-Konzentrationen der Luft. Andererseits aber behaupten sie, das CO2 der Luft würde im Meerwasser gelöst und würde dort Kohlensäure bilden und die Meere versauern. Die Autoren haben diese beiden Aussagen gewiss nicht auf Plausibilität überprüft, so wie es Ihre Pflicht als Wissenschaftler gewesen wäre. Hätten Sie es getan, dann hätten Sie festgestellt, dass diese Annahme physikalisch gar nicht möglich ist. Das eine schließt nämlich das andere aus folgenden Gründen aus:

  1. Wird das Klima wärmer, dann wird auch das Meerwasser wärmer.
  2. Da sich CO2 in warmem Wasser weniger löst als in kaltem Wasser müsste konsequenterweise bei einer Klimaerwärmung mehr CO2 aus dem Meer entweichen. Die gemessenen CO2-Konzentrationen bestätigen dies. CO2 aus der Luft hingegen kann sich höchstens unter hohem Druck in wärmer werdendem Meerwasser lösen.
  3. Wenn aber CO2 dem Meer entweicht, verbleibt weniger Kohlensäure im Meer, d.h. das Meer wird logischerweise alkalischer, nicht saurer. Realität ist, Meerwasser ist mit pH 7,5 bis 8,4 tatsächlich alkalisch.
  4. Es gibt also keinen Grund, wegen vermehrter Konzentration von Kohlensäure in den Weltmeeren ein Korallensterben herbeizureden! Im Übrigen benötigen Korallen zum Aufbau ihres Kalkskeletts CO2. Ohne CO2 gäbe es kein Calciumcarbonat und somit kein Kalkskelett. Korallenriffe sind von Natur aus weis. Sie werden nur durch die Symbiose mit Zooxanthellen farbig. Eine Korallenbleiche bedeutet also keineswegs den Tod der Koralle, wie von den Autoren behauptet. Korallen haben seit hunderten von Millionen Jahren deutlich höhere Temperaturen und höhere CO2-Werte überdauert.

Fazit: Entweder wir haben eine Klimaerwärmung – dann kann es keine Versauerung der Meere geben – oder wir haben eine Versauerung der Meere, dann kann es aber keine Klimaerwärmung geben. Um diese Schlussfolgerung zu ziehen, braucht man kein Klimawissenschaftler zu sein, es genügt der gesunde Menschenverstand!

Richard Toll, Professor für Klimawandel-Ökonomie und Gutachter für den Weltklimarat IPCC empfiehlt: „Es ist wenig teurer, eine Strategie der Anpassung an den Klimawandel zu wählen, statt ihn durch drastische CO2 Reduktion verhindern zu wollen.“ Laut UN-Schätzungen könnte man für die Hälfte der Kosten von Kyoto die schlimmsten Probleme der Welt dauerhaft lösen: Trinkwasser, Sanitärhygiene, Gesundheitsversorgung, Bildung. Investitionen also, die sofort Leben retten würden. Aber, solange die CO₂-Bilanz stimmt, sind uns Umwelt und Menschheit egal!!!




Stoppt Kohlendioxid – und verursacht damit Elend!

Die Studie befasst sich mit verschiedenen Bemühungen, Kohlendioxid aus der Atmosphäre zu entfernen, einschließlich des Anbaus und der Verbrennung von mehr Pflanzen zur Erzeugung von Energie, Bioenergie mit Kohlenstoffabscheidung und -speicherung (BECCS) und Technologien zur direkten Luftabscheidung (DAC), die in Kanada und der Schweiz getestet werden, um Kohlendioxid aus der Luft zu entfernen.

Um den Kohlendioxidausstoß deutlich zu senken, würde BECCS riesige Mengen an Land und Pflanzen verbrauchen, die sonst als Nahrungsmittel verbraucht werden, hier jedoch zur Energiegewinnung verbrannt werden. Die Auswirkungen auf die Nahrungsmittelpreise wären dramatisch, insbesondere für die ärmsten Völker der Welt.

Die Studie kam beispielsweise zu dem Ergebnis, dass „die am schlimmsten betroffenen Gebiete in Afrika südlich der Sahara liegen würden, wo die Preise bis 2050 um 500 bis 600 Prozent steigen könnten. In Indien, Pakistan und vielen anderen Ländern Asiens würden die Preise um das Drei- bis Fünffache steigen, während sie sich in Europa und Südamerika verdoppeln oder verdreifachen dürften.

Obwohl eine weit verbreitete Anwendung des DAC die für den Anbau von Pflanzen für das BECCS benötigte Fläche in bescheidenem Maße reduzieren würde, würde sie die weltweite Energie- und Wasserversorgung enorm beanspruchen, ihre Verfügbarkeit einschränken und damit die Preise für beides erhöhen – was auch die Nahrungsmittelpreise steigen lassen wird, da Energie und Wasser zu den Grundbedürfnissen des Pflanzenwachstums gehören.

Die Forscher schätzen, dass der DAC-Einsatz, der erforderlich ist, um die zukünftigen Temperaturen unter dem 1,5℃-Ziel des Pariser Klimaabkommens zu halten, „Energie in Höhe von 115 Prozent des derzeitigen weltweiten Erdgasverbrauchs“ erfordern würde, und der Wasserbedarf dieser Maschinen allein würde 35 Prozent des Wassers ausmachen, das derzeit für die weltweite Erzeugung von Strom verwendet wird.

Mit einer wachsenden Bevölkerung und großen und zunehmenden Mengen an Land, Wasser und Energie, die nur für die Entfernung von Kohlendioxid aus der Atmosphäre aufgewendet werden, werden die Energie-, Nahrungsmittel- und Wasserpreise dramatisch steigen, so die Studie.

So wichtig die Ergebnisse dieser Studie auch sein mögen, da die Länder erwägen, BECCS und DAC in großem Maßstab zur Reduzierung der atmosphärischen Kohlendioxid-Emissionen umzusetzen, so zeichnen sie doch nur ein halbes Bild und ignorieren dabei die wichtigste, unbeabsichtigte, aber völlig vorhersehbare negative Konsequenz einer solchen Politik: Die Reduzierung der Kohlendioxidwerte wird das Pflanzenwachstum im Allgemeinen und die Erzeugung von Nutzpflanzen im Besonderen begrenzen.

Kohlendioxid ist im Wesentlichen für die Photosynthese entscheidende pflanzliche Nahrung. Wie von CO2Science.org und in den zahlreichen von Fachkollegen überprüften Studien untersucht wurde, auf die in der Buchreihe Climate Change Reconsidered II hingewiesen wird, hat der Anstieg des Kohlendioxidgehalts im letzten halben Jahrhundert direkt zu einer beträchtlichen Begrünung der Erde beigetragen, einschließlich einer enormen Zunahme der weltweiten Erzeugung von Nutzpflanzen. Land für Land wurden in den letzten 30 Jahren Jahr für Jahr immer wieder Ertragsrekorde aufgestellt und gebrochen – als direkte Folge des steigenden CO2-Gehalts.

Beispielsweise veröffentlichte der Online-Landwirtschafts-Nachrichtendienst World-Grain.com kürzlich eine Meldung mit dem Titel [übersetzt] „IGC-Projekte erzielen Rekordproduktionen bei Mais, Weizen und Sojabohnen“ (hier), in der die Ergebnisse des International Grains Council (IGC) hervorgehoben werden, wonach die Ernte der wichtigsten Getreidepflanzen Mais, Reis, Sojabohnen und Weizen – die wichtigsten Grundnahrungsmittel für viele Völker auf der ganzen Welt – im Jahr 2020 Rekorde erzielen wird.

Die Projekte des IGC zur Überprüfung des Getreidemarktes vom 27. August sehen vor, dass die weltweite Getreideproduktion im Wirtschaftsjahr 2020-2021 insgesamt 2,230 Milliarden Tonnen erreichen wird, was einen um 9 Prozent höheren Ertrag als die 2,181 Milliarden Tonnen aus dem vorangegangenen Wirtschaftsjahr bedeutet.

Klima auf einen Blick: Crop Yields fasst die Daten des US-Landwirtschaftsministeriums und der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (Food and Agriculture Organization FAO) zusammen, die dokumentieren, dass die Ernteerträge in den USA und die weltweiten Ernteerträge fast jedes Jahr, wenn sich der Globus bescheiden erwärmt, Rekorde verzeichnen. Vor allem dank längerer Wachstumsperioden, weniger Frostereignissen, mehr Niederschlägen und dem Düngeeffekt des atmosphärischen Kohlendioxids produzieren die Landwirte mehr Nahrungsmittel auf weniger Land und können so eine wachsende Weltbevölkerung ernähren. Fast jede wichtige US-Kulturpflanze hat in den letzten drei Jahren Rekorderträge pro Acre erzielt, wobei die meisten der besten 10 Jahre bei den Erträgen pro Acre in den letzten zehn Jahren zu verzeichnen waren.

[Hervorhebung vom Übersetzer]

Tatsache ist, dass die meisten Pflanzen entstanden, als der Kohlendioxidgehalt viel höher war als heute. Im Laufe der Zeit nahm der Kohlendioxidgehalt in der Atmosphäre langsam ab, und während der letzten Eiszeit sank der Kohlendioxidgehalt in der Atmosphäre auf gefährlich niedrige Werte von nur 180 ppm (parts per million). Pflanzen beginnen zu sterben, wenn der Kohlendioxidgehalt auf 150 ppm sinkt, weil sie nicht in der Lage sind, das Sonnenlicht zur Photosynthese von Nahrung aus Kohlendioxid und Wasser zu nutzen. Nachdem die Erde aus der vorangegangenen Eiszeit hervorgegangen war, stieg der Kohlendioxidgehalt wieder auf etwa 280 ppm, lag damit immer noch weit unter den Werten zu der Zeit, als Pflanzen begannen, das Land zu besiedeln.

„Von einem Viertel bis zur Hälfte des bewachsenen Landes der Erde hat sich in den letzten 35 Jahren eine erhebliche Begrünung gezeigt, die größtenteils auf den steigenden Gehalt an Kohlendioxid in der Atmosphäre zurückzuführen ist“, fand ein internationales Team von 32 Forschern heraus, welche 24 Institutionen in acht Ländern vertreten.

In einem Bericht des Heartland Institute vom Mai 2018 mit dem Titel „The Social Benefits of Fossil Fuels“ (etwa: Der soziale Nutzen fossiler Treibstoffe) heißt es: „Der Anstieg der atmosphärischen [Kohlendioxid-]Konzentration …, der durch die historische Verbrennung fossiler Treibstoffe verursacht wurde, hat wahrscheinlich die landwirtschaftliche Erzeugung pro Flächeneinheit bei C3-Getreide [einschließlich Reis] um 70 Prozent erhöht, Weizen, Hafer, Baumwolle und immergrüne Bäume], 28 Prozent für C4-Getreide [zu denen Sorghum, Mais und verschiedene Gräser gehören], 33 Prozent für Obst und Melonen, 62 Prozent für Hülsenfrüchte, 67 Prozent für Wurzel- und Knollenfrüchte und 51 Prozent für Gemüse.”

All diese Erkenntnisse bedeuten, dass die Umsetzung von BECCS, DAC (oder beiden) das Kohlendioxid, das für das Gedeihen von Nutzpflanzen zur Verfügung steht, verringern wird, wodurch die Ernteerträge sinken, während die Nahrungsmittelversorgung abnimmt und die Preise steigen.

Die Moral der Geschichte ist folgende: Man kann mehr Feldfrüchte, niedrigere Lebensmittelpreise und weniger hungernde Menschen und Todesfälle durch Verhungern haben, oder man kann der Atmosphäre Kohlendioxid entziehen und nur eine geringe oder gar keine Verringerung der zukünftigen Temperaturen bewirken, aber mit den heutigen und vernünftigerweise zu erwartenden zukünftigen Technologien kann man nicht beides haben.

SOURCES: BBC; Nature Climate Change; Climate Change Reconsidered II: Fossil Fuels; Climate Change Reconsidered II: Biological Impacts; CO2 Science; The Heartland Institute

Link: https://www.heartland.org/news-opinion/news/cut-carbon-dioxide-cause-misery

Übersetzt von Chris Frey EIKE




Eine Botschaft von Mutter Erde

Sprecherin Pelosi:

Hier spricht Mutter Erde. Sie haben mich diffamiert, und das werde ich nicht tolerieren. Diese Woche sagten Sie:

.Mutter Erde ist wütend. Sie sagt uns mittels Hurrikanen an der Golfküste Bränden im Westen und mittels vielem Anderen, dass … die Klima-Krise real ist und Auswirkungen zeitigt‘.

Wie können Sie es wagen, in meinem Namen zu sprechen? Wie können Sie es wagen, mich zu diffamieren, um von den Fehleinschätzungen und der verrückten Politik Ihrer kalifornischen Kollegen der Demokraten abzulenken?

In historischen Zeiten war ich bekannt als die Göttin von Wasser und Fruchtbarkeit.

Ich habe Kalifornien viel Wasser gegeben, um das Land und die Menschen zu ernähren, ich gab euch Regen, aber ihr habt ihn weglaufen und ins Meer abfließen lassen, anstatt das Wasser aufzufangen und zu behandeln. Hätten Sie das getan, hätten Sie nicht nur viel Wasser, sondern Sie würden auch Geld und Stromkosten sparen, wenn Sie das Wasser aus anderen Bundesstaaten einpumpen würden. Die Dämme, die Sie haben, lassen Sie verfallen, so dass sie eine extreme Gefahr für die Anwohner darstellen, und Sie haben keine angemessenen Wasserspeicheranlagen gebaut. Victor Davis Hanson, ein wahrer Freund von mir, hat dies klar und deutlich formuliert:

Genauso wie Kaliforniens Autobahnen so konzipiert wurden, dass sie dem steigenden Verkehrsaufkommen gewachsen sind, wurden die riesigen Wasserprojekte des Bundesstaates so konzipiert, dass sie mit der Bevölkerung mitwachsen können. Viele gingen davon aus, dass der Bundesstaat die geplanten Erweiterungen des kalifornischen Staatswasserprojekts und seiner Nebenanlagen zu Ende führen würde. Doch in den 1960er und frühen 1970er Jahren rechnete niemand damit, dass die damals aufkommende Umweltbewegung eines Tages vor Gericht gehen würde, um die meisten neuen Staudammbauten zu stoppen, darunter das 14.000 Morgen große Sites Reservoir am Sacramento River bei Maxwell, die Anlage Los Banos Grandes entlang eines Abschnitts des California Aqueduct im Merced County und das Temperance Flat Reservoir oberhalb des Millerton Lake nördlich von Fresno. Wäre das gigantische Umleitungsprojekt des Klamath River nicht ebenfalls in den 1970er Jahren abgebrochen worden, wäre das daraus resultierende Aw Paw-Reservoir das größte von Menschenhand geschaffene Reservoir des Bundesstaates gewesen. Mit einer Größe von zwei Dritteln des Lake Mead hätte er 15 Millionen Hektar Wasser speichern können, genug, um San Francisco 30 Jahre lang zu versorgen. Die Wasserspeicherkapazität Kaliforniens wäre fast doppelt so groß wie heute, wenn diese Pläne Wirklichkeit geworden wären. Es war ebenso schwer vorstellbar, dass Umweltschützer versuchen würden, vertragsgebundene Bewässerung und kommunales Wasser aus bereits bestehenden Reservoiren umzuleiten. Und doch taten sie genau das, und anschließend gingen sie dazu über, Kaliforniens Wasserreserven mit der Kapazität der 1970er Jahre einzufrieren. … Der grüne Traum war jedoch nicht nur die Wiederherstellung und Verschönerung von Flüssen. Umweltschützer in der Bay Area glaubten auch, dass ein enormer Anstieg des Süßwasserzuflusses dazu beitragen würde, das San-Francisco-Delta mit Sauerstoff zu versorgen und so das Überleben der Delta-Schmelze, eines Drei-Zoll-Köderfisches, zu ermöglichen und gleichzeitig sicherzustellen, dass der Lachs wieder im Wassereinzugsgebiet des San-Joaquin-Flusses heimisch werden würde.

Ah ja, die Umwelt muss gerettet werden, auch wenn die Erde stirbt und die Menschen auf ihr verhungern oder an besser verwaltete Orte fliehen müssen.

Sie lassen reiche Spender und grüne Schwachköpfe zerstören, was ich Ihnen gegeben habe, und suchen sich hier und da eine Spezies aus, die auf Kosten von Menschenleben und Wohlergehen „gerettet“ werden soll, und Sie sind dabei sehr wählerisch.

Während Sie den hohen Energiebedarf der Aluminium- und Glaserzeugung ignorierten, bedeckten Sie das Land mit Sonnenkollektoren, ohne sich um die Wassermenge zu kümmern, die benötigt wird, um sie in Betrieb zu halten: 1200 Millionen Gallonen Wasser pro Jahr für nur zwei der kalifornischen Anlagen zur Erzeugung von Solarenergie. Auch die verheerenden Folgen für die Vogelwelt haben Sie nicht bedacht – 6000 Vögel werden jedes Jahr in der Mojave-Wüste über nur einer Ihrer Anlagen in der Luft gebraten. Und dann sind da noch die Windparks, in denen Vogelpasteten en masse erzeugt werden. Allein der Windpark Altamont in Ihrem Bundesstaat [Kalifornien] hat seit seiner Inbetriebnahme Zehntausende von Vögeln getötet.

Retten Sie also die Umwelt, aber ignorieren Sie die Turmfalken und Weißkopfseeadler? Wie alles andere, was ich, Mutter Natur, Ihnen gegeben habe, haben Sie es schlecht verwaltet und stattdessen auf die reichen, aber dummen Spender reagiert, die die Kassen Ihrer „grünen“ Unterstützer auffüllen, und auf diejenigen, die hoffen, von staatlich geförderten Projekten zu profitieren, die weit mehr versprechen als sie halten, während sie die Folgen für die Verbraucher und die Erde selbst unterschätzen.

Sie lassen Ihre Wälder überwuchern, so dass sie nicht zum Erhalt der Wasserversorgung beitragen können. Die zugewachsenen Wälder verringern die Waldversorgung und verhindern, dass Wasser in Grundwasserleiter und -reservoirs einsickert. Tatsächlich sind es Sie und Ihre demokratischen Kollegen – und nicht der Klimawandel – die den Wäldern, die ich Ihnen gegeben habe, so viel Schaden zufügen.

Ich habe Ihnen üppige Wälder geschenkt, um Ihnen und allen Tieren Unterschlupf zu gewähren. Was haben Sie damit gemacht? Sie haben es schlecht gemacht, weil Sie sich geweigert haben, das Gestrüpp abzuholzen. Sie blockierten die Holzernte, das Entfernen des Unterholzes und kontrollierten die Verbrennungen. Damit blieb in den Wäldern ein Überschuss an getrockneter Biomasse zurück, so dass jeder Blitzschlag die Gefahr großer Brände schafft. Sie haben die Hänge und Schluchten Südkaliforniens in Pulverfässer verwandelt, und jetzt ist der Himmel von San Diego bis Seattle dunkel mit Ruß von Waldbränden, die nicht so katastrophal hätten sein müssen. Zweifeln Sie an mir? Sie sollten nicht zweifeln.

„Der U.S. Forest Service war früher eine profitable Bundesbehörde“, sagte McClintock zu Grimes.

Bis Mitte der 1970er Jahre bewirtschafteten wir unsere nationalen Wälder nach gut etablierten und bewährten Methoden der Waldbewirtschaftung. Aber vor 40 Jahren ersetzten wir diese vernünftigen Bewirtschaftungspraktiken durch etwas, das man nur als Doktrin der wohlwollenden Vernachlässigung bezeichnen kann. Schwerfällige, byzantinische Gesetze und Vorschriften, die von einem wachsenden Kader ideologischer Eiferer in unseren Landmanagementbehörden verwaltet wurden, versprachen, die Umwelt zu retten. Die Verfechter dieser Doktrin haben seither unser Recht, unsere Politik, unsere Gerichte und unsere Bundesbehörden dominiert.

Aber diese Eiferer haben die Wälder nicht geschützt. Sie haben sie zerstört. Die Folgen sind weitreichend.

Haben Sie oder Gouverneur Newsom sich die nordamerikanische räumliche Verteilung der Brände angesehen? James Woods tat dies und fragt, warum der „Klimawandel“ an der kanadischen Grenze Halt macht. Ich habe Ihnen reichlich Öl und Erdgas geliefert, und Sie haben alles Mögliche getan, um das zurückzuweisen. Stattdessen haben Sie dummerweise Elektrizität von anderswo gekauft und so getan, als ob Sonnenenergie und Windmühlen die Differenz liefern würden, obwohl das natürlich nicht möglich ist. (Ich muss sagen, mit dem Stromnetz, das jetzt mit einem Flügel und einem Gebet und um sich greifenden Stromausfällen standhält, lache ich über Leute, die ihre Elektroautos nicht auftanken können. Wie der Iowahawk können sie wohl einfach Löcher in ihre Bodenbretter schneiden und zu Fuß weiterfahren wie ein Fred Feuerstein-Auto. Eigentümer, die zweifellos dafür gekämpft haben, das sehr saubere Kernkraftwerk San Onofre zu schließen, um den Planeten zu retten, während sie gleichzeitig von außerhalb des Staates gelieferten Strom nutzen, der aus genau den fossilen Brennstoffen erzeugt wird, denen Sie abschwören).

Glauben Sie ja nicht, dass ich mich in einen kalifornischen Gerichtssaal begeben werde, um Sie wegen Verleumdung zu verklagen. Ich habe andere Pläne.

Mutter Erde

Link: https://wattsupwiththat.com/2020/09/13/a-message-from-mother-earth-to-nancy-pelosi/

Übersetzt von Chris Frey EIKE




Klima-Krieger streichen die Segel angesichts der Tatsache, dass sich Extinction Rebellion zu spalten beginnt

Ms. Lights, eine führende Gestalt in der Gruppe, musste einräumen, dass die Zahlen „umstritten“ sind. Andrew Neil von der BBC, der nach Blut lechzte, stürzte sich auf sie und beschuldigte sie, „Menschen mit Rhetorik zu erschrecken“.

Rückblickend sagte Frau Lights, 36, die inzwischen die Organisation verlassen hat und zu einer Kernenergie-Kämpferin geworden ist, ihre Erfahrung in „XR“ habe sie „erschöpft“ hinterlassen, und sie ist offen über das, was sie als ihre Bedenken empfindet.

„Was die Leute nicht wussten, als sie das sahen: Ich habe wegen dieser Zahl seit sechs Wochen intern einen massiven Kampf mit XR ausgefochten“, sagte sie der Times. „Viele von uns, ich und viele Wissenschaftler, sagten: ‚Es ist nicht OK, man kann keine Zahlen erfinden, die Leute müssen im Rahmen gehalten werden‘. Aber es gab eine Anhängerschaft des Gründers Roger Hallam, der die Zahl erfunden hatte.

Sie würden sagen: ‚Nein, wir haben einen Wissenschaftler gefunden, der das unterstützt‘. Aber so funktioniert Wissenschaft nicht. Ich kam aus der Show und war erschöpft, ein Teil von mir ist einfach gestorben. Ich habe einen Master-Abschluss in Wissenschaftskommunikation. Ich sagte einfach zu ihnen: ‚Oh mein Gott, ich kann das nicht tun’“.

Es ist eine außergewöhnliche Behauptung und gibt einen seltenen Einblick in die heftigen Auseinandersetzungen hinter den Kulissen, die der Öffentlichkeit bisher weitgehend verborgen geblieben sind.

Ms. Lights, Mutter von zwei Kindern, verließ XR im Juni, nachdem sie ob der Weigerung von XR einzugestehen, dass die Zahlen nicht durch Beweise belegt sind, desillusioniert worden war. Sie erzählte der Times, dass sie seit ihrem Weggang Morddrohungen und Misshandlungen von Mitgliedern erhalten habe, die sie als „abtrünnigen Abschaum“ und „nuklearen Handlanger“ bezeichneten.

Eine Sprecherin der Gruppe sagte, dass die Behauptung eines internen Streits um die Zahlen „völliger Unsinn“ sei und dass die Behauptung von Mr. Hallam, die aus seinen eigenen Nachforschungen hervorgegangen sei, sich auf die wahrscheinliche Zahl der Todesfälle bis zum Ende des Jahrhunderts beziehe.

The Times hat mit XR-Insidern gesprochen, die eine Reihe von Anschuldigungen aufgedeckt hatten, darunter Rassismus, Mobbing und eine kultartige Anhängerschaft von Mr. Hallam, die zu Anklagen wegen finanziellen Missmanagements führten.

Der ganze Beitrag steht hier (Zahlschranke)

Link: https://www.thegwpf.com/climate-campaigners-quit-as-extinction-rebellion-starts-to-split/

Übersetzt von Chris Frey EIKE




Ketzerei, moderne Inquisition und die BBC

Ketzerei wird rücksichtslos entlarvt, Hexenjagden sind ohrenbetäubend, bürgerliche Autorität kuscht, die öffentliche Zensur ist brutal. An die traditionelle Definition der Ehe zu glauben, ist Ketzerei, ebenso wie jeder Vorschlag, dass der Ersatz fossiler Brennstoffe durch Windkraftanlagen unpraktisch sei oder dass das Britische Empire etwas Gutes getan haben könnte oder dass man von den Menschen, die vor einigen Jahrhunderten lebten, nicht hätte erwarten dürfen, dass sie so denken wie wir.

Es ist Ketzerei, zu behaupten, dass Großbritannien nicht zutiefst rassistisch sei, oder ein patriotisches Lied zu singen. Verflixt, es ist auch jetzt noch Ketzerei zu behaupten, dass Frauen menstruieren.

Die Macht der modernen Inquisition ist so groß, dass es der Staat und nicht die Eltern sind, die entscheiden, wann und wie Kinder, die noch im Kindergarten sind, an das herangeführt werden sollen, was wir einst vornehm „die Realitäten des Lebens“ nannten.

Einer der größten Förderer der modernen Inquisition ist die BBC. Angeblich unparteiisch, ignoriert sie einfach, was ihr nicht gefällt, und springt auf jeden vorbeiziehenden Zug auf, der ihren eigenen von der Großstadtelite getriebenen Vorstellungen entspricht, wie der Enthusiasmus beweist, mit dem sie in letzter Zeit die Agenda aufgenommen hat, Großbritannien und seine historischen Figuren als fanatischen Rassisten darzustellen.

Und es sind nicht nur die Nachrichten und Sendungen zum aktuellen Zeitgeschehen, die dies tun.

Das Drama wird in ähnlicher Weise für alles getadelt, was nicht „kantig“, mit Schimpfwörtern gespickt und sexbesessen ist. Diejenigen, die etwas anderes wollen, können ihre Lizenz in die Tonne treten und in den Hades gehen. Tim Davie, der neue Generaldirektor der BBC, hat eine große Aufgabe, dieses Land wieder zu einem Land der Freiheit und der freien Meinungsäußerung zu machen. Ich wünsche ihm alles Gute, aber ich halte nicht den Atem an.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/ann-widdecombe-heresy-modern-inquisition-and-the-bbc/

Übersetzt von Chris Frey EIKE




All jene Prophezeiungen bzgl. eines sich erwärmenden Klimas haben plötzlich ein großes neues Problem!

Das IPCC sagt, dass die ECS wahrscheinlich zwischen 1,5 und 4,5 Grad Celsius liegt, aber genauer kann es die ECS nicht angeben. Das ist zu schade, denn von ihrem Wert hängt ein enormer Teil der öffentlichen Politik ab. Leute, die die Auswirkungen der globalen Erwärmung untersuchen, haben herausgefunden, dass bei niedriger ECS – sagen wir weniger als zwei – die Auswirkungen der globalen Erwärmung auf die Wirtschaft meist gering und vielerorts leicht vorteilhaft sein werden. Wenn sie sehr gering sind, zum Beispiel um eins, dann bedeutet das, dass die Treibhausgas-Emissionen es einfach nicht wert sind, etwas dagegen zu unternehmen. Ist die ECS jedoch hoch – sagen wir um vier Grad oder mehr – dann ist der Klimawandel wahrscheinlich ein großes Problem. Wir sind vielleicht nicht in der Lage, ihn aufzuhalten, aber wir sollten uns besser darauf vorbereiten, uns an ihn anzupassen.

Also sollte irgendjemand mit irgendetwas die ECS genau messen. Zwar haben schon viele Leute genau das versucht, aber was dabei herauskam, hat enorme politische Implikationen.

Um zu verstehen, warum, müssen wir uns zunächst ein wenig mit der Methodik beschäftigen. Es gibt zwei Möglichkeiten, wie Wissenschaftler versuchen, die ECS zu schätzen. Die erste besteht darin, ein Klimamodell zu verwenden, die modellierte CO2-Konzentration gegenüber dem vorindustriellen Niveau zu verdoppeln und so lange laufen zu lassen, bis sich die Temperaturen einige hundert Jahre in der Zukunft stabilisieren. Dieser Ansatz, der als modellbasierte Methode bezeichnet wird, hängt in seiner Genauigkeit von der Gültigkeit des Klimamodells ab, und da sich die Modelle recht stark voneinander unterscheiden, ergibt sich daraus ein breites Spektrum möglicher Antworten. Eine bekannte statistische Verteilung, die aus Modellstudien abgeleitet wurde, fasst die Unsicherheiten dieser Methode zusammen. Sie zeigt, dass die ECS wahrscheinlich zwischen zwei und 4,5 Grad liegt, möglicherweise sogar nur 1,5, aber nicht weniger, und möglicherweise sogar bis zu neun Grad. Dieser Bereich der potentiellen Erwärmung ist sehr einflussreich für ökonomische Analysen der Kosten des Klimawandels.

Die zweite Methode besteht darin, langfristige historische Daten über Temperaturen, Sonnenaktivität, Kohlendioxidemissionen und Atmosphärenchemie zu verwenden, um die ECS mit Hilfe eines einfachen statistischen Modells zu schätzen, das durch Anwendung des Energieerhaltungssatzes auf die planetarische Atmosphäre abgeleitet wurde. Dies wird als Energiebilanzmethode bezeichnet. Sie stützt sich auf eine gewisse Extrapolation, um die Definition der ECS zu erfüllen, hat aber den Vorteil, dass sie die verfügbaren Daten berücksichtigt, die zeigen, wie sich die reale Atmosphäre während der letzten 150 Jahre verhalten hat.

Das Überraschende ist, dass die Schätzungen der Energiebilanz im Vergleich zu modellbasierten Schätzungen sehr niedrig sind. Die nebenstehende Graphik* vergleicht den modellbasierten Bereich mit den ECS-Schätzungen aus einem Dutzend Energiebilanzstudien des vergangenen Jahrzehnts. Es ist klar, dass diese beiden verfahren unterschiedliche Antworten geben, und die Frage, welche der beiden Verfahren genauer ist, ist von entscheidender Bedeutung.

Klimamodellierer haben zwei Erklärungen für die Diskrepanz angeführt. Die eine wird als „Emerging Constraint“-Ansatz bezeichnet. Dahinter steht der Gedanke, dass die Modelle eine Reihe von ECS-Werten liefern, und während wir die ECS nicht direkt messen können, liefern die Modelle auch Schätzungen für viele andere Dinge, die wir messen können (z.B. das Reflexionsvermögen von Wolkenoberflächen), so dass wir diese anderen Maße mit den Daten vergleichen können. Wenn wir das tun, liefern die Modelle mit hohen ECS-Werten manchmal auch Maße für sekundäre Dinge, die besser zu den Daten passen als Modelle mit niedrigen ECS-Werten.

Dieses Argument hat sich schwer verkauft, da die Korrelationen oft schwach sind, und es erklärt nicht, warum die Ergebnisse der Energiebilanz so niedrig sind.

Der zweite Ansatz basiert auf den so genannten „forcierten Effizienzen“, d.h. dem Konzept, dass Klimaforcings wie Treibhausgase und Aerosolschadstoffe sich in ihrer zeitlichen und räumlichen Wirksamkeit unterscheiden, und wenn diese Schwankungen berücksichtigt werden, können die Schätzungen der Energiebilanz-Sensitivität höher ausfallen. Auch dies ist ein kontroverser Vorschlag gewesen.

Eine kürzlich von Nicholas Lewis und Judith Curry im Journal of Climate veröffentlichte ECS-Schätzung der Energiebilanz weist mehrere Merkmale auf, welche ihre Studie besonders wertvoll machen. Erstens stützen sie sich auf die IPCC-Schätzungen der Treibhausgase, die solaren Veränderungen und andere Klimafaktoren, so dass man ihnen nicht vorwerfen kann, durch die Wahl ihrer Daten eine Verzerrung einzubringen. Zweitens berücksichtigen sie die Frage der Wirksamkeit und diskutieren sie ausführlich. Sie berücksichtigen auch die jüngsten Debatten darüber, wie Oberflächentemperaturen gemessen werden sollten oder nicht, und wie mit Gebieten wie der Arktis umzugehen ist, in denen die Daten spärlich sind. Drittens berechnen sie ihre Schätzungen über eine Vielzahl von Start- und Enddaten, um zu überprüfen, ob ihre ECS-Schätzung nicht von dem relativen Erwärmungs-Stillstand der letzten zwei Jahrzehnte abhängig ist.

Es sieht so aus, als müssten die Klimamodelle, die wir seit Jahrzehnten verwenden, überarbeitet werden.
Ihre ECS-Schätzung beträgt 1,5 Grad, mit einem Wahrscheinlichkeitsbereich zwischen 1,05 und 2,45 Grad. Wenn die Studie ein einmaliger Ausreißer wäre, könnten wir sie vielleicht ignorieren. Aber sie ist Teil einer langen Liste von Studien unabhängiger Teams (wie diese interaktive Graphik zeigt), die eine Vielzahl von verfahren durchführen, die kritische Herausforderungen berücksichtigen, und die allesamt zu dem Schluss kommen, dass Klimamodelle eine zu hohe Sensitivität gegenüber Treibhausgasen aufweisen.

Jetzt müssen die politischen Entscheidungsträger sehr aufmerksam sein, weil diese Debatte direkt die Diskussion um eine Kohlenstoff-Steuer beeinflusst.

Die Umweltschutzbehörde [Environmental Protection Agency] verwendet soziale Kosten von Kohlenstoffmodellen, die sich auf die modellbasierten ECS-Schätzungen stützen. Letztes Jahr veröffentlichten zwei Kollegen und ich eine Studie, in der wir eine frühere ECS-Schätzung von Lewis und Curry verwendeten und diese in zwei dieser Modelle einfließen ließen. Das Ergebnis war, dass die geschätzten wirtschaftlichen Schäden durch Treibhausgasemissionen um 40 bis 80 Prozent zurückgingen, und im Falle eines Modells waren die Schäden mit 40-prozentiger Wahrscheinlichkeit für die nächsten Jahrzehnte negativ – d.h. es wären vorteilhafte Veränderungen. Die neue ECS-Schätzung von Lewis und Curry ist sogar noch niedriger als ihre alte, so dass wir, wenn wir die gleiche Studie erneut durchführen würden, noch niedrigere soziale Kosten von Kohlenstoff feststellen würden.

Wenn die ECS so niedrig ist, wie die Energiebilanz-Literatur suggeriert, bedeutet dies, dass die Klimamodelle, die wir seit Jahrzehnten verwenden, zu heiß laufen und überarbeitet werden müssen. Es bedeutet auch, dass die Treibhausgasemissionen nicht so große Auswirkungen auf das Klima haben, wie behauptet wurde, und dass die Argumente für kostspielige politische Maßnahmen zur Verringerung der Kohlendioxidemissionen viel schwächer sind, als uns die Regierungen mitgeteilt haben. Für eine Wissenschaft, die angeblich bereits Anfang der 1990er Jahre „settled“ war, haben wir sicherlich noch viel zu lernen.

Dieser Artikel war zuerst bei financialpost.com erschienen.

Link: https://cornwallalliance.org/2020/07/ross-mckitrick-all-those-warming-climate-predictions-suddenly-have-a-big-new-problem/

Übersetzt von Chris Frey EIKE




Das schmutzige Dutzend Fragen bzgl. der Globale-Erwärmung-Wissenschaft

Mit einer Temperaturäderung um 1°C –

  1. Wie viele Millimeter ist der Meeresspiegel gestiegen?
  2. Um wie viele ppm hat sich der atmosphärische CO2-Gehalt geändert?
  3. Um wie viele Tonnen ändert sich das Gewicht der irdischen Vegetation wie z. B. von Wäldern?
  4. Um welchen Betrag hat sich der pH-Wert der Ozeane geändert?
  5. Um wie viele Quadratkilometer hat sich die mittlere Fläche mit Wolkenbedeckung geändert?
  6. Welche Änderung erfuhr der accumulated cyclone index ACE?
  7. Wie groß ist global die Änderung der Anzahl von
    1. Vögeln
    2. Landtieren
    3. Algen?
  8. Um wie viele W/m² ändert sich die Strahlungsbilanz an der Obergrenze der Atmosphäre TOA?
  9. Um wie viele Tonnen ändert sich das Gewicht von Eis –
    1. Auf dem Festland
    2. Auf dem Meer schwimmend?
    3. Auf Grund liegendes Meereis?
  10. Um wie viel ändert sich die Menge des Gesamt-Niederschlags?
  11. Wie ändert sich die Anzahl großer Flächenbrände?
  12. Um wie viele Tonnen ändert sich die Erntemenge, ausgedrückt in verfügbare Tonnen pro Person, beispielsweise
    1. Reis
    2. Weizen
    3. Bohnen
    4. Gerste
    5. Mais?

Die Anzahl dessen was sich vermeintlich durch die globale Erwärmung verändert hat, bewegt sich im Bereich von vielen Hundert (hier)

Zu dieser Liste von einem Dutzend Behauptungen könnten noch viele weitere Fälle hinzugefügt werden. Diese Liste enthält jedoch die wichtigsten, die von Agenturen wie der NASA und anderen Anti-Erwärmungs-Agenturen wie NGOs diskutiert werden.

Die NASA hat eine Webseite, auf der einige Auswirkungen ihrer Sicht des Klimawandels erwähnt werden.

Es folgt ein Text der NASA, um die Unsicherheit und den Mangel an Quantifizierung selbst für einen kleinen Teil der Erde wie die USA hervorzuheben.:

Die Länge der frostfreien Saison (und der entsprechenden Vegetationsperiode) hat seit den 1980er Jahren auf nationaler Ebene zugenommen, wobei die größten Zunahmen im Westen der Vereinigten Staaten zu verzeichnen sind, was sich auf die Ökosysteme und die Landwirtschaft auswirkt. Überall in den Vereinigten Staaten wird sich die Vegetationsperiode voraussichtlich weiter verlängern.

Die durchschnittliche Niederschlagsmenge in den USA hat seit 1900 zugenommen, aber in einigen Gebieten ist die Zunahme größer als der nationale Durchschnitt, und in einigen Gebieten ist sie zurückgegangen. In diesem Jahrhundert werden für den Norden der Vereinigten Staaten mehr Winter- und Frühlingsniederschläge prognostiziert und für den Südwesten weniger.

Dürreperioden im Südwesten und Hitzewellen (Perioden mit ungewöhnlich heißem Wetter, die Tage bis Wochen dauern) werden voraussichtlich überall intensiver und Kältewellen überall weniger intensiv werden.

Die Intensität, Häufigkeit und Dauer der Hurrikane im Nordatlantik sowie die Häufigkeit der stärksten (Kategorie 4 und 5) Hurrikane haben seit Anfang der 1980er Jahre zugenommen.

Mit der richtigen Anwendung der Wissenschaft, welche die politischen Maßnahmen der Regierung derart beeinflusst, werden qualitative Behauptungen ständig durch mathematische Beziehungen ersetzt, die getestet und verifiziert werden können. Behauptungen bleiben ungeprüfte Behauptungen. Mathematische Beziehungen unterstützen Projektionen in die Zukunft.

Daher ist die Fähigkeit der Klimawissenschaftler, dieses Dutzend Beziehungen zu quantifizieren, ein Test dafür, ob das gegenwärtige Verständnis der Wissenschaft überhaupt geeignet ist, um die Politik zu beeinflussen. Sie gehören zu den grundlegendsten Beziehungen zu den Hypothesen der globalen Erwärmung und des Klimawandels, und das seit 30 Jahren.

Dies ist wirklich ein Test von Getöse gegen harten wissenschaftlichen Fortschritt. Wenn man diesen Test nicht besteht, sollte man sich vom „Klimawandel-Alarmismus“ verabschieden.

Sollte ich eine Wette eingehen, dass NICHT EINE dieser Dutzend Gleichungen mathematisch quantifiziert worden ist?

Melbourne, Australia

10. September 2020

Link: https://wattsupwiththat.com/2020/09/11/the-dirty-dozen-tests-of-global-warming-science/

Übersetzt von Chris Frey EIKE




Nein, ein Verbot fossiler Treibstoffe wird de Lebens­erwartung nicht erhöhen – sehr wohl aber fossil erzeugter Strom

Dr. Caleb Rossiter, 3. September 2020

Briefe an den Herausgeber, Cardiovascular Research:

Lelieveld et al. (3. März 2020) kommen zu dem Schluss, dass die Beendigung der Nutzung fossiler Brennstoffe die globale Lebenserwartung um ein Jahr verlängern würde, da die Außenluftverschmutzung reduziert würde.1 Diese Studie ist typisch für eine einseitige, irreführende „Klimawandel“-Forschung, die sich nur auf eine Seite einer Kosten-Nutzen-Analyse konzentriert. Wenn fossile Brennstoffe verboten würden, wären weitaus teurere und weniger zuverlässige Wind- und Solarnetze erforderlich, um auch nur die aktuelle Nachfrage zu decken. Das würde die Preise erhöhen sowie Exporte und Wirtschaftswachstum verringern. Die Lebenserwartung wird stark vom Wirtschaftswachstum beeinflusst.

Darüber hinaus würde die Alternative einer verstärkten Abhängigkeit von intermittierender Wind- und Solarenergie Stromausfälle nebst der daraus resultierenden, Ruß ausstoßende „Dieselierung“ in unzuverlässigen Netzen wie dem afrikanischen immer häufiger auftreten lassen. Ohne einsatzbereite, mit fossilen Brennstoffen betriebene Notstromversorgung würde ein „erneuerbares“ Netz täglich zusammenbrechen, was zu hohen Kosten für die Wiederinbetriebnahme und Reparatur führen würde. Ironischerweise, da der Abbau, die Raffinierung, der Bau und der Transport von Windflügeln, Sonnenkollektoren und Batterien so intensiv mit fossilen Brennstoffen betrieben wird, würde der Bau von Gebäuden, die die derzeitigen Methoden der Stromerzeugung ersetzen, genau die Schadstoffe in die Atmosphäre einbringen, die ein Verbot fossiler Brennstoffe beseitigen würde.

China und Afrika südlich der Sahara hatten 1960 die gleiche Lebenserwartung: 44 Jahre. Heute liegt China bei 77 Jahren und damit in der Nähe der USA mit 79 Jahren, während die Lebenserwartung in Afrika nur auf 61 gestiegen ist.2 Für die eine Milliarde Afrikaner südlich der Sahara bedeutet dies einen Verlust von 16 Milliarden Lebensjahren, weil sie nicht mit China Schritt halten konnten.

Der eingeschränkte Zugang zu Elektrizität – etwa ein Drittel der Haushalte und tägliche Stromausfälle bei Unternehmen – ist eine der Hauptursachen für die niedrige Lebenserwartung in Afrika. Der Hauptgrund dafür ist, dass wirtschaftliches Wachstum in einem wettbewerbsorientierten, globalen Markt eine zuverlässige, universelle Elektrifizierung erfordert. Ein zweiter Grund ist, dass laut Weltgesundheitsorganisation die Luftverschmutzung in Innenräumen das weltweit größte umweltbedingte Gesundheitsrisiko darstellt.

Weltweit schätzt die WHO, dass drei Milliarden Menschen mit festen Brennstoffen wie Holz, Holzkohle und getrocknetem Tiermist kochen, heizen und Licht in ihren Häusern erzeugen. Die Gifte und Feinstaubpartikel aus der Verbrennung fester Brennstoffe töten jährlich fast vier Millionen Menschen an Lungenentzündung (27%), Herzkrankheiten (27%), Lungenkrankheiten (20%), Schlaganfall (18%), Lungenkrebs (7%) und einer Vielzahl beeinträchtigter Immunitäten. Die Hälfte der Todesfälle durch Lungenentzündung bei Kindern unter fünf Jahren sind auf Ruß im Haus zurückzuführen.3

UNICEF schätzt den afrikanischen Anteil an diesen jährlichen Todesfällen durch Innenraumverschmutzung auf 400.000. Gefährliche Werte der Luftverschmutzung in Innenräumen sind für Familien ohne Zugang zu Elektrizität fast garantiert. UNICEF berichtet, dass 352 Millionen afrikanische Kinder in Häusern leben, in denen mit festen Brennstoffen gekocht wird.4 Ein Spitzenforscher berichtete der WHO: „Ein offenes Feuer in der Küche zu haben, ist wie 400 Zigaretten pro Stunde zu verbrennen“.5

Der bevorstehende Ausbau des mit fossilen Brennstoffen betriebenen afrikanischen Netzes wird zur Lösung des Problems der Luftverschmutzung in Innenräumen beitragen. Noch besser wäre es, wenn durch den Einsatz „neuartiger“ Stromerzeugungs- und Reinigungstechnologien die jährliche Belastung durch die Luftverschmutzung in Afrika mit 258.000 Menschen nicht weiter ansteigen würde.6 Forscher, die sich mit den gesundheitlichen Folgen der Erzeugung von Energie befassen, täten gut daran, alle Seiten der Frage zu untersuchen. Keiner der von mir zitierten Faktoren wird in der Lelieveld-Studie berücksichtigt.

Caleb Stewart Rossiter, Ph.D.

Former professor of climate statistics and mathematical modeling, American University

Executive director, the CO2 Coalition

Quellen:
1 https://academic.oup.com/cardiovascres/article/116/11/1910/5770885

2 https://data.worldbank.org/indicator/SP.DYN.LE00.IN

3 https://www.who.int/news-room/fact-sheets/detail/household-air- pollution-and-health

4 https://www.unicef.org/media/55081/file/Silent%20suffocation%20in%20af rica%20air%20pollution%202019%20.pdf

5 https://www.nationalgeographic.com/news/2014/3/140325-world-health-organization-indoor-fuel-pollution-death/

6 https://www.power-eng.com/2013/06/12/first-last-the-ultra-supercritical-coal-fired-turk/#gref; https://www.unicef.org/media/55081/file/Silent%20suffocation%20in%20africa%20air%20pollution%202019%20.pdf

Link: https://cornwallalliance.org/2020/09/no-banning-fossil-fuels-wont-raise-life-expectancy-fossil-fueled-electricity-will/?eType=EmailBlastContent&eId=e7229a9b-7ba0-4820-a7c3-5f8a4bd2e5b5

Übersetzt von Chris Frey EIKE




49 NASA-Wissenschaftler sagen, wie es ist

28. März 2012

The Honorable Charles Bolden, Jr.
NASA Administrator
NASA Headquarters
Washington, D.C. 20546-0001

Dear Charlie,

Wir, die Unterzeichnenden, fordern die NASA und das Goddard-Institut für Weltraumstudien (GISS) respektvoll auf, von der Aufnahme unbewiesener Aussagen in öffentlichen Mitteilungen und Websites abzusehen. Wir glauben, dass die Behauptungen der NASA und des GISS, dass das vom Menschen erzeugte Kohlendioxid katastrophale Auswirkungen auf den globalen Klimawandel hat, nicht belegt sind, insbesondere wenn man die empirischen Daten aus Tausenden von Jahren berücksichtigt. Angesichts der Tatsache, dass Hunderte von bekannten Klimawissenschaftlern und Zehntausende anderer Wissenschaftler ihren Unglauben in die katastrophalen Vorhersagen bekunden, insbesondere in die von der GISS-Führung, ist es klar, dass die Wissenschaft NICHT settled ist.

Das ungebremste Eintreten für CO2 als Hauptursache des Klimawandels ist unangemessen und hinsichtlich ihrer Historie der NASA unwürdig, wenn man dennoch ohne eine objektive Bewertung aller verfügbaren wissenschaftlichen Daten Entscheidungen trifft oder öffentliche Erklärungen abgibt.

Als ehemalige NASA-Mitarbeiter sind wir der Meinung, dass das Eintreten der NASA für eine extreme Position vor einer gründlichen Untersuchung der möglichen erdrückenden Auswirkungen der natürlichen Klimafaktoren unangemessen ist. Wir fordern, dass die NASA davon Abstand nimmt, unbewiesene und nicht unterstützte Bemerkungen in ihre zukünftigen Veröffentlichungen und Websites zu diesem Thema aufzunehmen. Es besteht die Gefahr, dass der beispielhafte Ruf der NASA, die gegenwärtigen oder ehemaligen Wissenschaftler und Mitarbeiter der NASA und sogar der Ruf der Wissenschaft selbst beschädigt wird.

Für weitere Informationen über die Wissenschaft, die hinter unserem Anliegen steht, empfehlen wir Ihnen, sich mit Harrison Schmitt oder Walter Cunningham oder anderen, die sie Ihnen empfehlen können, in Verbindung zu setzen.

Vielen Dank, dass Sie diesen Brief zur Kenntnis nehmen.

Sincerely,

(Liste der Unterzeichner)

CC: Mr. John Grunsfeld, Associate Administrator for Science

CC: Ass Mr. Chris Scolese, Director, Goddard Space Flight Center

Ref: Letter to NASA Administrator Charles Bolden, dated 3-26-12, regarding a request for NASA to refrain from making unsubstantiated claims that human produced CO2 is having a catastrophic impact on climate change.

/s/ Jack Barneburg, Jack – JSC, Space Shuttle Structures, Engineering Directorate, 34 years

/s/ Larry Bell – JSC, Mgr. Crew Systems Div., Engineering Directorate, 32 years

/s/ Dr. Donald Bogard – JSC, Principal Investigator, Science Directorate, 41 years

/s/ Jerry C. Bostick – JSC, Principal Investigator, Science Directorate, 23 years

/s/ Dr. Phillip K. Chapman – JSC, Scientist – astronaut, 5 years

/s/ Michael F. Collins, JSC, Chief, Flight Design and Dynamics Division, MOD, 41 years

5/s/ Dr. Kenneth Cox – JSC, Chief Flight Dynamics Div., Engr. Directorate, 40 years

/s/ Walter Cunningham – JSC, Astronaut, Apollo 7, 8 years

/s/ Dr. Donald M. Curry – JSC, Mgr. Shuttle Leading Edge, Thermal Protection Sys., Engr. Dir., 44 years

/s/ Leroy Day – Hdq. Deputy Director, Space Shuttle Program, 19 years

/s/ Dr. Henry P. Decell, Jr. – JSC, Chief, Theory & Analysis Office, 5 years

/s/Charles F. Deiterich – JSC, Mgr., Flight Operations Integration, MOD, 30 years

/s/ Dr. Harold Doiron – JSC, Chairman, Shuttle Pogo Prevention Panel, 16 years

/s/ Charles Duke – JSC, Astronaut, Apollo 16, 10 years

/s/ Anita Gale

/s/ Grace Germany – JSC, Program Analyst, 35 years

/s/ Ed Gibson – JSC, Astronaut Skylab 4, 14 years

/s/ Richard Gordon – JSC, Astronaut, Gemini Xi, Apollo 12, 9 years

/s/ Gerald C. Griffin – JSC, Apollo Flight Director, and Director of Johnson Space Center, 22 years

/s/ Thomas M. Grubbs – JSC, Chief, Aircraft Maintenance and Engineering Branch, 31 years

/s/ Thomas J. Harmon

/s/ David W. Heath – JSC, Reentry Specialist, MOD, 30 years

/s/ Miguel A. Hernandez, Jr. – JSC, Flight crew training and operations, 3 years

/s/ James R. Roundtree – JSC Branch Chief, 26 years

/s/ Enoch Jones – JSC, Mgr. SE&I, Shuttle Program Office, 26 years

/s/ Dr. Joseph Kerwin – JSC, Astronaut, Skylab 2, Director of Space and Life Sciences, 22 years

/s/ Jack Knight – JSC, Chief, Advanced Operations and Development Division, MOD, 40 years

/s/ Dr. Christopher C. Kraft – JSC, Apollo Flight Director and Director of Johnson Space Center, 24 years

/s/ Paul C. Kramer – JSC, Ass.t for Planning Aeroscience and Flight Mechanics Div., Egr. Dir., 34 years

/s/ Alex (Skip) Larsen

/s/ Dr. Lubert Leger – JSC, Ass’t. Chief Materials Division, Engr. Directorate, 30 years

/s/ Dr. Humbolt C. Mandell – JSC, Mgr. Shuttle Program Control and Advance Programs, 40 years

/s/ Donald K. McCutchen – JSC, Project Engineer – Space Shuttle and ISS Program Offices, 33 years

/s/ Thomas L. (Tom) Moser – Hdq. Dep. Assoc. Admin. & Director, Space Station Program, 28 years

/s/ Dr. George Mueller – Hdq., Assoc. Adm., Office of Space Flight, 6 years

/s/ Tom Ohesorge

/s/ James Peacock – JSC, Apollo and Shuttle Program Office, 21 years

/s/ Richard McFarland – JSC, Mgr. Motion Simulators, 28 years

/s/ Joseph E. Rogers – JSC, Chief, Structures and Dynamics Branch, Engr. Directorate,40 years

/s/ Bernard J. Rosenbaum – JSC, Chief Engineer, Propulsion and Power Division, Engr. Dir., 48 years

/s/ Dr. Harrison (Jack) Schmitt – JSC, Astronaut Apollo 17, 10 years

/s/ Gerard C. Shows – JSC, Asst. Manager, Quality Assurance, 30 years

/s/ Kenneth Suit – JSC, Ass’t Mgr., Systems Integration, Space Shuttle, 37 years

/s/ Robert F. Thompson – JSC, Program Manager, Space Shuttle, 44 years/s/ Frank Van Renesselaer – Hdq., Mgr. Shuttle Solid Rocket Boosters, 15 years

/s/ Dr. James Visentine – JSC Materials Branch, Engineering Directorate, 30 years

/s/ Manfred (Dutch) von Ehrenfried – JSC, Flight Controller; Mercury, Gemini & Apollo, MOD, 10 years

/s/ George Weisskopf – JSC, Avionics Systems Division, Engineering Dir., 40 years

/s/ Al Worden – JSC, Astronaut, Apollo 15, 9 years

/s/ Thomas (Tom) Wysmuller – JSC, Meteorologist, 5 years

Link: https://wattsupwiththat.com/2020/09/10/49-nasa-scientists-call-bs/

Übersetzt von Chris Frey EIKE