1

IPCC im roten Drehzahlbereich von Ideologie und Realitätsverlust

Ein kleiner Überblick zum anthropogenen CO2

Schauen wir dazu einfach im Report der PBL Netherlands Environmental Assessment Agency nach, einer Organisation der holländischen Regierung (hier), die Trends in den globalweiten Emissionen von Klimagasen veröffentlicht. In diesem Report sagt Fig. 2.3 bereits alles nötige aus

Bild (Fig. 2.3): Emissionen von Klimagasen weltweit (hier)

In guter Näherung können wir die im Bild angegebenen Klimagase mit CO2 gleichsetzen, denn die entsprechenden Differenzen spielen für unsere Betrachtung keine Rolle. Die Tortengrafik in Fig. 2.3 weist mit zusammen knapp 40% die USA plus China als größte CO2 Emittenten aus. Russland und Japan zusammen mit 8% entsprechen etwa der EU mit ihren 9%. Deutschlands Beitrag ist im Bild nicht mehr aufgeführt, er liegt bei grob 2,5%. Bereits hier ist erkennbar, dass unser Beitrag global vernachlässigbar ist, weiter unten dazu mehr.

Über den industriellen Entwicklungshunger Chinas braucht man kaum Worte zu verlieren. Es baut neue Kohlekraftwerke fast im Wochentakt. China von seinem Weg des CO2 Ausstoßes abzuhalten wäre allenfalls theoretisch mit Waffengewalt möglich. Dabei denkt sicher jeder sofort an Josef Stalin, der sich über den Papst mit der rhetorischen Frage lustig machte „wieviel Division hat der Papst“ (also hier das IPCC)? Mit China und den USA als stärksten CO2 Emittenten ist es aber nur aktuell getan, Indien und Brasilien liegen schon in den Startlöchern, sie fangen an mit massiver Kohleverbrennung und später mit Kernkraftwerken nachzuziehen.

Müssen wir nun verzweifeln?

Nein, einer fiktiven Klimaschädigung wegen, verursacht durch menschgemachtes CO2, jedenfalls nicht. Was den Sachverstand des IPCC oder der GroKo angeht ist, ist das allerdings anders, hier sind starke Nerven gefragt, um tiefster Verzeiflung zu entkommen. Ein schöner Beitrag von Dirk Maxeiner (ACHGUT) zu diesem Thema hier. Trotz Propagandageballer aus allen Grün-Kanonenrohren dieser Welt ist ein Faktum nun einmal nicht aus der Welt zu schaffen, die Fachwissenschaft bürgt dafür – für jedermann erreichbar an Hand der öffentlich zugänglichen begutachteten Klima-Fachpublikationen: Es gibt bis heute keinen stringenten Nachweis, dass das anthropogene, also menschgemachtes(!) CO2 irgend einen Klimaeinfluss ausgeübt hat, der eindeutig auf diese Quelle zurückführbar ist.

Die so laut beklagte Temperatursteigerung gegen Ende des 20. Jahrhunderts (seit etwa 20 Jahren stagnierte die mittlere Globaltemperatur wieder bis heute) liegt weit im natürlichen Normalbereich, s. dazu Bild 1 in der EIKE-News hier. Die Steigerung des CO2 Gehalts in unserer Atmosphäre seit Beginn der Industrialisierung ist dagegen sehr wohl menschgemacht. Zum Glück für die Menschheit stieg der CO2-Gehalt der Luft wieder an, denn dadurch hat die Pflanzenmasse unseres Planeten zugenommen (hier) – einschließlich der globalen Nahrungsernten. Natürliche Klimaänderungen wie unsere bislang nur sehr kurze jüngste Warmperiode, haben stets Gewinner und Verlierer. Nur in Extremfällen, wie der kleinen Eiszeit vom Ende des 15. bis Mitte des 19. Jahrhunderts oder gar dem letzten Glazial vor 115.000 bis vor 12.000 Jahren, gab es so gut wie keine Gewinner.

Was passiert, wenn Deutschland weiter CO2 vermeidet?

Für die mittlere Globaltemperatur gar nichts! Die folgende Grobabschätzung für die globale Wirkung der CO2-Emissionen zeigt es, wobei hilfsweise die abstrusen Annahmen des IPCC vorausgesetzt werden:

Deutschlands Anteil an den weltweiten CO2 Emissionen beträgt etwa 2,5%. Um zu ermitteln, wie sich eine Verringerung dieses Beitrags um 50% auf die globale Mitteltemperatur bis zum Jahre 2050 auswirkt, gehen wir von vereinfachten Annahmen aus: Die derzeitige CO2 Konzentrationserhöhung der Luft beträgt 2 ppm/Jahr36, das sind in den 32 Jahren bis 2050 32 x 2 = 64 ppm mehr. Die deutsche 50% Einsparung ergibt 0,5 x 0,025 x 64 = 0,8 ppm weniger. Als ungünstigsten Wert der Klimasensitivität, also infolge CO2 Anstieg von heute 400 ppm auf 2 x 400 = 800 ppm, nennt das IPCC im Sachstandsbericht AR5 (2015) 4,5 °C. Die Temperaturverringerung durch 50% deutscher CO2 Einsparung beträgt somit höchstens 4,5 x 0,8/400 = 0,009 °C, also so gut wie nichts. Dieses „Nichts“ kostet Deutschland viele Milliarden Euro jedes Jahr. Diese Abschätzung wurde dem NRW-Landtag vom Autor anlässlich seiner Einladung als Gutachter zur Kenntnis gebracht und ist auf dem Landtagsserver abgreifbar. Es ist nicht bekannt, dass sie bei den politisch Veranwortlichen zum nachdenken geführt hat.

Leider passiert aber doch etwas, betreffend unseren Industriestandort. Eine Minderheit von sachunkundigen Grünverrückten (Strom kommt aus der Steckdose und wenn nicht, dann eben aus Wind und Sonne), fast die gesamte deutsche Medienlandschaft und leider auch die Justiz (hier) sind fleißig dabei Deutschland zum Zweck der CO2 Einsparung in die Tonne zu treten. Ein naiver Zeitgenosse fragt sich nicht zuletzt bei dem Urteil des OVG Münster zum Hambacher Forst, ob es inzwischen zwei Rechtsauffasungen gibt, eine für die Fällung von Bäumen für Windräder und eine für die Kohleversorgung. Wo protestieren eigentlich die grünen Aktivisten, wenn es den Waldtieren bei Windradinstallationen an den Kragen geht?

Nehmen wir jetzt einmal an, CO2 Vermeidung sei nötig. Wo soll die in Deutschland denn noch erfolgen? Windenergie trägt heute mickrige 3% zur deutschen Primärenergie bei, Photovoltaik 1%. Beide werden subventioniert und können nur den für ein stabiles Stromnetz unbrauchbaren Flatterstrom liefern. Die Versorgungssicherheit geht mit jedem neuen Windrad und jeder neuen Photozelle weiter in die Knie (hier, hier, hier, hier). Bleibt noch Energiemais mit 1%. Zu steigern ist dieses „Erneuerbare“ daher nicht mehr, denn insbesondere die Schäden durch Windturbinen übersteigen in Deutschland bereits jedes Maß (hier). Eine Studie des Bundesumweltamts zeigt auf S. 38 die Abbildung 12, aus der hervorgeht, dass ein weiterer Ausbau der Windenergienutzung zumindest an Land kaum noch möglich ist.

CO2 – Emissionen sind proportional zum Energieverbrauch. Hier sind auf allen Sektoren in Deutschland die Margen bereits ausgereizt. Selbst „Nullenergie-Häuser“ stellen sich inzwischen als Energieverschwender anstatt Energieeinsparer heraus (hier) – vorausgesetzt man erstellt eine realistische Gesamtbilanz.

Wovon wir als rohstoffarmes Land noch leben sollen, wenn die Kernkraftwerksindustrie, die Kohle, die Elektrizitätswirtschaft, die Autoindustrie, die chemische Industrie (Pflanzenschutz) und alle energieintensiven Industrien abgewickelt sind, kommt den für diesen Vernichtungsfeldzug Verantwortlichen anscheinend nicht in den Sinn. Haben die vielen Profiteure dieses Feldzugs schon vorgesorgt? Sie sollten es allmählich tun, denn den Ast auf dem sie sitzen, sägen sie gerade selber ab.




Tägliche Averages? Vorsicht, nicht so schnell…

Im Kommentarbereich meines jüngsten Beitrages zu den GAST (Global Average Surface Temperature)-Anomalien (und warum es ein Verfahren ist, mit dem die Klimawissenschaft sich selbst austrickst) kam (erneut) zur Sprache, dass das, was die Klimawissenschaft als die Tägliche Average Temperatur von irgendeiner Wetterstation angibt, nicht das ist, was wir denken, nämlich das Average der Temperaturen über den Tag (indem alle gemessenen Temperaturen addiert werden und die Summe durch die Anzahl der Werte dividiert wird). Stattdessen werden einfach die tägliche Maximum- bzw. Minimum-Temperatur addiert und durch zwei dividiert. Das kann man übersetzt in die Sprache der Mathematik so schreiben: (Tmax + Tmin)/2.

Jeder, der hinsichtlich der verschiedenen Formen von Averages versiert ist, wird erkennen, dass Letzteres in Wirklichkeit der Median von Tmax und Tmin ist – also die Mitte zwischen beiden Werten. Dies ist offensichtlich auch gleich dem Mean der beiden Werte – aber da wir nur ein tägliches Maximum bzw. Minimum für eine Aufzeichnung heranziehen, in welcher heutzutage viele Messungen einen Tagessatz bilden, finden wir einen Median, wenn wir alle Messungen nach ihrer Magnitude angleichen und den Mittelpunkt zwischen dem höchsten und dem tiefsten Wert finden (allerdings machen wir das unter Ignoranz aller anderen Messungen zusammen, und wir kommen auf den Median eines Datensatzes aus zwei Werten, der nur aus Tmax und Tmin besteht).

Das ist sicher kein Geheimnis und das Ergebnis der historischen Tatsache, dass Temperaturaufzeichnungen in irgendeiner entfernten Vergangenheit vor Einführung automatisierter Wetterstationen auf diese Weise erstellt wurden – beispielsweise mit einem Max-Min-Thermometer wie diesem hier:

Jeden Tag zu einer festgesetzten Zeit würde ein Beobachter zum Stevenson screen* gehen, ihn öffnen und darin befindliche Thermometer ablesen. Man würde die durch die Marker angezeigten Maximum- und Minimum-Temperaturen ablesen und dann den Reset-Schalter drücken (in der Mitte), um die Messung neu laufen zu lassen.

[*Einschub des Übersetzers: Mit ,Stevenson Screen‘ bezeichnen die Amerikaner eine simple Wetterhütte wie die unten Abgebildete, welche im DWD bis vor einigen Jahren in Gebrauch waren. Darin befinden sich links ein Thermo-/Hygrograph, rechts quer liegend ein Maximum- und ein Minimum-Thermometer, darunter noch ein weiteres Minimum-Thermometer, das abends vor der Hütte über dem Boden abgelegt wird, um das nächtliche Minimum in Bodennähe zu ermitteln. Dahinter befinden sich senkrecht zwei Thermometer, links zur Messung der Feuchttemperatur {bitte googeln, falls nicht bekannt}, rechts zur Messung der aktuellen Temperatur.

Abbildung: Schau-Wetterhütte, wie sie bis vor einigen Jahren im DWD gebräuchlich war. Bild: © der Übersetzer.

Es entzieht sich der Kenntnis des Übersetzers, ob der im Original vorgestellte, verlinkte ,Stevenson Screen‘, welcher ja nur mit Thermometern der Art aus Abbildung 1 bestückt ist, exemplarisch für alle Stationen in den USA oder ein hier vorgestellter Sonderfall ist.

Ende Einschub]

Mit lediglich diesen beiden aufgezeichneten Messwerten lässt sich nur die tägliche Average-Temperatur berechnen, die dem Median der beiden am nächsten liegt. Um heutige Temperaturwerte mit solchen aus der Vergangenheit vergleichen zu können, war es erforderlich, das gleiche Verfahren anzuwenden, um das tägliche Average von heutigen Temperaturen zu erhalten, obwohl von automatisierten Messpunkten alle sechs Minuten eine neue Messung vorliegt.

Nick Stokes schrieb einen Beitrag über die Verwendung von Min-Max-Thermometern nebst deren Problemen in Relation zu Adjustierungen bzgl. der Beobachtungszeit. In jenem Beitrag schreibt er:

Ab und zu erscheint ein Beitrag wie dieser, in welchem jemand entdeckt, dass die Messung der täglichen Temperatur mittels (Tmax + Tmin)/2 nicht genau dem entspricht, was man mit einer Integration der Temperatur über die Zeit erhält. Na und? Beides sind einfach Messungen, und man kann damit Trends abschätzen.

Und da hat er absolut recht – man kann jede Zeitreihe von irgendwas heranziehen, alle Arten von Averages finden – Means, Mediane, Modes – und deren Trends auffinden über verschiedene Zeiträume.

[Einschub des Übersetzers: Am Meteorologischen Institut der Freien Universität Berlin wurde seit seiner Gründung durch Prof. Richard Scherhag im Jahre 1953 ein Klimamittel errechnet, aber nicht nach der hier beschriebenen, vorsintflutlich anmutenden Methode. Es wurden jeweils täglich die Temperaturwerte von 7 Uhr, 14 Uhr und 2 x 21 Uhr (MEZ; MESZ 1 Stunde später) gemessen (das sind die sog. ,Mannheimer Stunden‘) und durch 4 dividiert. Vermutlich wurde dieses Verfahren auch beim DWD so durchgeführt. Wie es in anderen europäischen Ländern gehandhabt wird, ist nicht bekannt, zumindest in einigen Ländern ist es aber wohl das hier von Kip Hansen beschriebene Verfahren.

Seit den achtziger Jahren werden am Institut auch stündliche Temperaturwerte ermittelt und durch 24 dividiert. Seit Jahr und Tag werden die so gewonnen Mittelwerte mit dem der Mannheimer Stunden verglichen. Es ergeben sich Differenzen bis 1°C. Da wir es aber hier mit Zehntel oder sogar Hundertstel Grad (!) zu tun haben, ist das natürlich erheblich.

Weiteres hierzu kann man über die Website des Instituts erfahren.

Ende Einschub]

In diesem Falle müssen wir die Frage stellen: Was ermitteln sie eigentlich? Ich musste immer wieder diesen Beitrag heranziehen, wenn ich etwas über aktuelle wissenschaftliche Forschung schrieb, welche irgendwie einen bedeutenden ,roten Faden‘ wahrer Wissenschaft verloren zu haben scheint – dass wir extreme Vorsicht walten lassen müssen bei der Definition dessen, was wir erforschen – welche Messungen von welcher Eigenschaft welcher physikalischen Größe uns das zeigen wird, was wir wissen möchten.

Stoke schreibt, dass jedwede Daten von Messungen irgendwelcher Temperatur-Averages offenbar genauso gut sind wie jede andere – dass der Median von (Tmax+Tmin)/2 genauso brauchbar für die Klimawissenschaft als wahres Average ist wie häufigere Temperaturmessungen wie etwa heutige Messungen alle sechs Minuten.

Damit haben wir mindestens drei Frage aufgeworfen:

1. Was versuchen wir mit Temperaturaufzeichnungen zu messen? Wenn wir die Berechnungen monatlicher und jährlicher Means nebst deren Trends sowie den Trends von deren Anomalien berechnen – was werden wir daraus erkennen? (Mit Anomalien sind hier immer Anomalien von irgendwelchen klimatischen Means gemeint).

2. Was wird mit (Tmax+Tmin)/2 wirklich gemessen? Ist es quantitativ unterschiedlich zur Mittelung [averaging] von alle sechs Minuten (oder stündlich) gemessenen Temperaturen? Sind die beiden qualitativ unterschiedlich?

3. Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren alles, um Frage Nr. 1 beantworten zu können?

Ich werde diese Fragen im Folgenden beantworten. Jeder kann aber in Kommentaren seine eigenen Antworten kundtun.

Was versuchen wir zu messen?

Die Antworten auf Frage 1 sind davon abhängig, wer man ist und in welchem Bereich der Wissenschaft man arbeitet.

Meteorologen messen die Temperatur, weil es in ihrem Bereich ein Schlüsselparameter ist. Ihre Aufgabe ist es, Temperaturen der Vergangenheit zu kennen und diese dazu heranzuziehen, um zukünftige Temperaturen im Kurzfrist-Zeitraum vorherzusagen – Höchst- und Tiefstwerte für morgen, Wochenend-Wetter und Jahreszeiten-Prognosen für die Landwirtschaft. Vorhersagen von Extremtemperaturen sind ein wichtiger Bestandteil ihrer Aufgabe – und „vor Wetterereignissen zu warnen, die zu einer Gefahr für die öffentliche Sicherheit und Ordnung führen können“*

[*Das ist keine Übersetzung, sondern ein Original-Auszug aus dem deutschen Wetterdienst-Gesetz. Anm. d. Übers.]

Klimatologen befassen sich mit langzeitlichen Averages sich ständig verändernder Wetterbedingungen für Gebiete, Kontinente und den Planeten als Ganzes. Mit diesen langfristigen Averages wollen sie die verschiedenen Gebiete der Welt in die 21 Zonen der Klima-Klassifikation nach Köppen einteilen und nach Änderungen in diesen Regionen Ausschau halten. [Statt des Links lieber nach „Köppen Klimazonen“ googeln. Anm. d. Übers.] In Wikipdedia findet sich eine Erklärung, warum dieser Studienbereich schwierig ist:

Klimaforschung ist schwierig wegen der Größenordnung der Gebiete, der langen Zeiträume und der komplexen Prozesse, welche das Klima steuern. Klima wird gesteuert durch physikalische Gesetze, die man als Differentialgleichungen darstellen kann. Diese Gleichungen sind gekoppelt und nichtlinear, so dass angenäherte Lösungen nur erhalten werden können mittels numerischer Verfahren, um globale Klimamodelle zu konstruieren. Klima wird manchmal modelliert als ein stochastischer (Zufalls-)Prozess, aber es ist allgemein als eine Approximation von Prozessen akzeptiert, welche anderenfalls zu kompliziert sind, um analysiert werden zu können. (Hervorhebung von mir {dem Autor}).

Die Temperaturen der Ozeane und die verschiedenen Schichten der Atmosphäre sowie die Unterschiede zwischen Regionen und atmosphärischen Schichten sind zusammen mit einer langen Liste anderer Faktoren Treiber des Wetters, und die langfristigen Unterschiede der Temperatur folglich von Interesse für die Klimatologie. Der momentane Gleichgewichtszustand des Planeten hinsichtlich Ein- und Ausstrahlung ist gegenwärtig einer der Brennpunkte in der Klimatologie, und Temperaturen sind ein Teil davon.

Wissenschaftler der anthropogenen globalen Erwärmung (IPCC-Wissenschaftler) befassen sich mit der Beweisfindung, dass anthropogenes CO2 dazu führt, dass das Klimasystem der Erde zunehmend einfallende Solarstrahlung zurückhält, und berechnen globale Temperaturen allein aufgrund dieser Objektive. Folglich konzentrieren sich die AGW-Wissenschaftler auf regionale und globale Temperaturtrends sowie die Trends der Temperatur-Anomalien und anderer klimatischer Faktoren, die ihre Position stützen könnten.

Welche Aussagen erhoffen wir uns von Berechnungen monatlicher und jährlicher Means nebst deren Trends?

Meteorologen sind an Temperaturänderungen bzgl. ihrer Prognosen interessiert und verwenden „Means“ von Temperaturen der Vergangenheit, um eine zu erwartende Bandbreite der Temperatur-Variabilität zu erhalten und vorherzusagen, wenn es Temperatursprünge nach außerhalb dieser Bandbreite gibt. Temperaturunterschiede zwischen Örtlichkeiten und Regionen treiben das Wetter, was diese Aufzeichnungen für ihre Arbeit bedeutsam macht.

Klimatologen wollen wissen, wie sich das längerfristige Bild ändert – Erwärmt es sich in dieser Region wirklich, kühlt sie ab, gibt es immer mehr/weniger Regen? Und das alles über Zeiträume von Jahrzehnten oder auch 30 Jahren. Dafür brauchen sie Trends. (Anmerkung: Nicht einfach dümmliche, selbst generierte ,Trendlinien‘ in Graphiken, die von ihren Beginn- und Endpunkten abhängen – sie wollen reale Änderungen der Bedingungen mit der Zeit erkunden).

AGW-Wissenschaftler müssen in der Lage sein zu zeigen, dass sich die Erde erwärmt und ziehen Temperaturtrends heran – regional und global, als Absolutwerte und Anomalien – in dem Bemühen, die AGW-Hypothese zu beweisen, der zufolge das Klimasystem der Erde mehr Energie von der Sonne zurückhält infolge zunehmender CO2-Konzentrationen.

Was wird mit (Tmax+Tmin)/2 wirklich gemessen?

(Tmax+Tmin)/2, die tägliche Tmittel [Tavg] der Meteorologen, ist das Median der täglichen Höchst- und Tiefsttemperatur (man klicke auf den Link, falls man nicht so genau weiß, warum das der Median und nicht das Mean ist). Die monatliche Tavg ist tatsächlich das Median des Monatlichen Means täglicher Höchsttemperaturen und des monatlichen Means der Täglichen Tiefsttemperatur. Die Monatliche Tavg ist der grundlegende Eingangswert für alle daraus abgeleiteten Berechnungen regional, staatenweit, national, kontinental und global der Average-Temperatur (in 2 m Höhe auf dem Festland). Mit dieser Berechnung will man den Median der Means von Tmax und Tmin finden für den Monat an der Station, indem man all die täglichen Tmax und Tmins jeweils addiert und ihr Mean (arithmetisches Average) berechnet, um dann den Median jener zwei Werte zu finden. (Dies so zu definieren war nicht einfach – ich musste zu den Original-GHCN-Aufzeichnungen gehen und mich per E-Mail an den Customer Support von NCEI wenden, um Klarheit zu bekommen).

Wenn wir jetzt also wissen, wie die Zahl zustande gekommen ist, die wir die monatliche Tavg nennen, können wir jetzt einmal betrachten, was damit eigentlich gemessen wird.

Ist es eine Maßzahl für das Average der Temperatur für den Monat? Eindeutig nicht. Dieses würde man berechnen mittels Addition von Tavg für jeden Tag und Division der Summe durch die Anzahl der Tage des jeweiligen Monats. Dieses Verfahren könnte einen Wert ergeben, der überraschend nahe der aufgezeichneten monatlichen Tavg liegt – unglücklicherweise haben wir aber schon gesagt, dass die täglichen Tavgs nicht die Average-Temperaturen für ihre jeweiligen Tage sind, sondern die Mediane der täglichen Höchst- und Tiefsttemperatur.

Das in diesem Beitrag behandelte Problem illustriert das Bild ganz oben. Hier folgt es vergrößert:

Diese Abbildung stammt aus einem Beitrag, in welchem Means und Medians definiert werden. Man erkennt, dass falls die violetten Einzelschritte für die Temperatur über einen Tag stehen, wäre der Median für stark unterschiedliche Temperaturprofile identisch, aber das wahre Average, das Mean wäre sehr unterschiedlich. (Man beachte: das rechte Ende der Graphik ist abgeschnitten, aber beide Einzelwerte enden am gleichen Punkt rechts – das Äquivalent einer Höchsttemperatur für den Tag). Falls das Profil dicht an einer „Normalverteilung“ liegt, liegen Median und Mean dicht beieinander – falls nicht, sind beide ziemlich unterschiedlich.

Ist es quantitativ unterschiedlich zum Averaging der Temperatur des Tages alle sechs Minuten (oder stündlich)? Sind die beiden qualitativ unterschiedlich?

Um eine Antwort zu finden, müssen wir zu den täglichen Tavgs zurückkehren. Wodurch ändert sich die Tägliche Tavg? Jedwede Änderung der täglichen Höchst- oder Tiefsttemperatur, falls die tägliche Tavg 72 beträgt, können wir dann die Höchst- und Tiefsttemperatur daraus ablesen? Nein, können wir nicht. Die Tavg des Tages sagt uns wenig über diese beiden Tagesextrema. Auch erfahren wir durch die Tavg nicht viel darüber, wie sich die die Temperatur im Tagesverlauf entwickelt und geändert hat.

Tmax 73, Tmin 71 = Tavg 72
Tmax 93, Tmin 51 = Tavg 72
Tmax 103, Tmin 41= Tavg 72*

[*Das sind natürlich Grad Fahrenheit. Da es um das Prinzip und nicht um die Werte als solche geht, spare ich mir die Umwandlung. Anm. D.Übers.]

Der erste Tag wäre ein milder Tag und eine sehr warme Nacht, der zweite ein heißer Tag und eine Nacht mit normaler Temperatur. Dabei könnte es ein wolkiger warmer Tag gewesen sein, wobei eine Stunde purer Sonnenschein die Temperatur auf einen Momentanwert von 93 hätte steigen lassen oder auch ein durchweg sonniger Tag mit Erwärmung auf 93 Grad bis 11 Uhr und Verharren der Temperatur über 90 bis Sonnenuntergang mit einem nur sehr kurzen Zeitraum am frühen Morgen, in welchem es 51 Grad kühl geworden ist.

Unser drittes Beispiel, wie es für die Hochwüsten im Südwesten der USA typisch ist, zeigt einen sehr heißen Tag mit einer nachfolgenden kalten Nacht. Ich selbst habe Tage mit Temperaturwerten über 90°F [34°C] erlebt mit Frost während der folgenden Nacht. (Tmax+Tmin)/2 ergibt nur den Median zwischen zwei Temperatur-Extrema, von denen jedes Einzelne mehrere Stunden oder auch nur ein paar Minuten erreicht haben kann.

Die tägliche Tavg, der Median von Tmax und Tmin, sagt uns nichts über den „Wärmegehalt“ oder das Temperaturprofil des Tages. Wenn das so ist, weist die monatliche Tavg die gleiche Schwäche auf – ist sie doch der Median der Means der Tmaxs und Tmins.

Vielleicht hilft eine Graphik bei der Veranschaulichung des Problems:

Diese Graphik zeigt die Differenz zwischen der täglichen Tavg (mittels des (Tmax+Tmin)/2-Verfahrens) einerseits sowie dem wahren Mean der täglichen Temperatur Tmean andererseits. Man erkennt Tage mit einer Differenz von drei oder mehr Grad mit einem Augenschein-Average von einem Grad oder so, mit ziemlich vielen Tagen mit einer Differenz von ein oder zwei Grad. Man kann eine ähnliche Graphik für die monatliche TAVG und den wahren monatlichen Means plotten, entweder von tatsächlichen täglichen Means oder durch averaging aller Temperaturaufzeichnungen für den jeweiligen Monat.

Die gegenwärtig gebräuchlichen Tavg und TAVG (täglich und monatlich) sind nicht das Gleiche wie tatsächliche Means der Temperaturen über den Tag oder den Monat. Sie sind beide quantitativ und qualitativ unterschiedlich – und sagen uns unterschiedliche Dinge.

Also: JA, die Daten sind qualitativ und quantitativ unterschiedlich.

Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren die Zwecke jedweder Antwort auf Frage 1?

Betrachten wir dazu mal wieder die Forschungsbereiche:

Meteorologen messen Temperaturen, weil es einer der zentralen Bereiche ihrer Arbeit ist. Die Wetterleute sind zufrieden mit Temperaturmessungen nahe des nächsten ganzen Grads. Ein Grad mehr oder weniger war nicht groß von Belang (außer bei Temperaturwerten um den Gefrierpunkt). Average Wetter kann auch eine Unsicherheit von ein oder zwei Grad aushalten. Also denke ich, dass das Verfahren (Tmax+Tmin)/2 für die Wetterleute ausreichend ist – auch hinsichtlich des Wetters und der Wettervorhersage. Bzgl. Wetter weiß der Meteorologe, dass die Temperatur auf natürliche Weise um ein oder zwei Grad variiert.

Klimatologen befassen sich mit den langzeitlichen, sich immer ändernden Wetterbedingungen in Regionen, auf Kontinenten und den Planeten als Ganzes. Klimatologen wissen, dass Wetterbeobachtungen der Vergangenheit nicht gerade präzise waren – sie akzeptieren, dass (Tmax+Tmin)/2 keine Maßzahl der Energie im Klimasystem ist, sondern sie damit nur einen Hinweis von Temperaturen an einer Station, in einem Gebiet oder auf kontinentaler Basis bekommen, ausreichend um sich ändernde Klimate zu beurteilen – ein Grad mehr oder weniger der average Sommer- bzw. Wintertemperatur für eine Region ist möglicherweise keine klimatologisch bedeutende Änderung – es ist einfach jährliches oder vieljähriges Wetter. Die meisten Klimatologen wissen, dass nur Temperaturmessungen aus jüngster Zeit auf ein oder zwei Grad präzise sind.

AGW-Wissenschaftler (IPCC-Wissenschaftler) befassen sich damit zu beweisen, dass das Klimasystem der Erde durch menschliche CO2-Emissionen Energie von der Sonne zurückhält. Und hier kommen die Differenzen in den quantitativen und qualitativen Werten ins Spiel zwischen (Tmax+Tmin)/2 bzw. einer wahren täglichen/monatlichen Mean-Temperatur.

Es gibt Leute, die (korrekt) argumentieren, dass Temperatur-Averages (mit Sicherheit die GAST genannte Größe) keine genauen Indikatoren der Energie-Rückhaltung im Klimasystem sind. Aber bevor wir uns dieser Frage annehmen können, müssen wir korrekte quantitative und qualitative Messwerte der Temperatur haben, welche die sich ändernde Wärmeenergie an Wetterstationen reflektiert. Aus (Tmax+Tmin)/2 geht nicht hervor, ob wir einen heißen Tag und eine kühle Nacht hatten oder einen kühlen Tag und eine relativ warme Nacht. Temperatur ist eine intensive Eigenschaft (in diesem Fall von Luft und Wasser) und nicht wirklich geeignet für Addition, Subtraktion und Averaging im normalen Sinne – die Temperatur einer Luft-Stichprobe (wie etwa in einer automatischen Wetterstation ASOS) – steht in Beziehung zu, ist aber nicht das Gleiche wie die Energie (E) in der Luft an jener Stelle und steht in Relation zu, ist aber nicht das Gleiche wie die Energie im lokalen Klimasystem. Verwendet man (Tmax+Tmin)/2 bzw. TMAX und TMIN, um eine monatliche TAVG zu erhalten, reflektiert dies nicht einmal genau, wie die Temperaturen waren und kann und wird uns daher nicht (akkurat und präzise) informieren über die Energie im lokal gemessenen Klimasystem. Daher kann sie uns auch nicht, wenn man sie über Regionen und Kontinente kombiniert, (akkurat und präzise) über die Energie im regionalen, kontinentalen oder globalen Klimasystem informieren – nicht quantitativ in Absolutwerten und nicht in Gestalt von Änderungen, Trends oder Anomalie-Trends.

In der AGW-Wissenschaft geht es um das Zurückhalten von Energie im Klimasystem, und die gegenwärtig verwendeten mathematischen Verfahren – bis hinab zum Niveau des täglichen Averages – sind trotz der Tatsache, dass dies alles ist, was wir in der Historie klimahistorischer Aufzeichnungen haben, nicht geeignet, um eine sich eventuell ändernde Energie-Zurückhaltung zu berechnen bis zu irgendeinem Grad quantitativer oder qualitativer Akkuratesse oder Präzision.

Für die Wetterprognostiker mag es ausreichen, diese trügerische Größe als „ausreichend für die Wettervorhersage“ anzusehen. Die Vorhersage von Hurrikanen kann sehr gut mit Temperaturwerten innerhalb einer Genauigkeit von ein oder zwei Grad vorhergesagt werden – solange alles miteinander vergleichbar ist.

Selbst Klimawissenschaftler – jene, die nicht an den Klima-Kriegen interessiert sind – können gut mit Temperaturwerten plus/minus 1 Grad oder so leben – gibt es doch eine Fülle anderer Faktoren, von denen viele wichtiger sind als eine „Average Temperatur“ und die in Kombination das Klima jedweder Region ausmachen.

Nur AGW-Aktivisten bestehen darauf, dass die minimalen Änderungen, die sich aus langzeitlichen Klima-Aufzeichnungen der falschen Parameter ergeben, wahrlich signifikant sind für das Weltklima.

Unter dem Strich:

Die gegenwärtig angewandten Verfahren zur Berechnung sowohl der globalen Temperatur als auch globaler Temperatur-Anomalien stützen sich aus historischen Gründen auf einen Parameter, der in vielfacher Weise ungeeignet ist, um mit Präzision zu bestimmen, ob sich das Klimasystem der Erde infolge Zurückhalten von Sonnenenergie erwärmt oder nicht. Er ist ungeeignet zur Bestimmung der Größenordnung einer solchen eventuellen Änderung und womöglich nicht einmal dazu geeignet, überhaupt das Signal für eine solche Änderung auszumachen. Das gegenwärtige Verfahren misst nicht in angemessener Weise eine physikalische Eigenschaft, welche eine solche Berechnung gestatten würde.

Schlussbemerkungen des Autors:

Das diesem Beitrag zugrunde liegende Thema ist viel einfacher als es aussieht. Die Messungen zur Erstellung einer GAST (Anomalie) und GAST (absolut) – besonders (Tmax+Tmin)/2, egal ob täglich oder monatlich – sind nicht geeignet für eine Berechnung jener globalen Parameter in der Art, wie sie uns von den AGW-Aktivisten-Wissenschaftlern präsentiert werden. Sie werden oftmals herangezogen zu zeigen, dass das Klimasystem mehr Energie zurückhält und sich folglich erwärmt … aber die kleinen Änderungen dieser unpassenden Größe über klimatologisch signifikante Zeiträume können uns darüber nichts sagen, messen sie doch in Wirklichkeit nicht die average Temperatur, nicht einmal die an einer einzelnen Wetterstation. Die zusätzliche Unsicherheit dieses Faktors lässt die Gesamt-Unsicherheit der GAST nebst deren Anomalien bis zu einem Punkt unsicher werden, an dem sie über die gesamte Zunahme seit Mitte des 20. Jahrhunderts hinausgeht. Diese Unsicherheit wird nicht eliminiert durch wiederholtes Glätten und Averaging entweder von absolute Werten oder deren Anomalien.

Ich empfehle der Leserschaft dringend, die immer präsente Hypothese zurückzuweisen, die da lautet „falls wir immer weiter fortfahren, Averages zu mitteln [averaging averages] wird die Variation früher oder später so gering werden, dass sie keine Rolle mehr spielt – egal ob es Fehler, Unsicherheiten oder einfach schlechte Daten sind“. Das führt zu wissenschaftlicher Verrücktheit.

Die Argumentation wäre anders, falls wir tatsächlich genaue und präzise Temperatur-Averages von Wetterstationen hätten. Viele würden immer noch nicht dem Argument zustimmen, dass die Temperaturaufzeichnung allein eine Änderung der Zurückhaltung von Sonnenenergie anzeigen kann. Die in das System eintretende Energie wird nicht wie von Zauberhand automatisch in der Luft 2 Meter über Grund oder auch an der Oberfläche der Ozeane in fühlbare Wärme umgewandelt. Änderungen der fühlbaren Wärme, gemessen in 2 m Höhe und an der Oberfläche der Ozeane, reagieren nicht notwendigerweise sofort auf eine Zu- oder Abnahme zurückgehaltener Energie im Klimasystem der Erde.

Es wird Einwände gegen die Schlussfolgerungen dieses Beitrags geben – aber die Fakten sind so, wie sie sind. Einige werden diese Fakten unterschiedlich interpretieren, verschiedenen Werten verschieden starke Wichtigkeiten zuordnen und unterschiedliche Schlussfolgerungen ziehen. Aber genau das ist Wissenschaft.

Link: https://wattsupwiththat.com/2018/10/02/daily-averages-not-so-fast/




Wissenschaft­liche Korruption mit der Wurzel ausreißen

Jüngste Entwicklungen zeigen, dass Reformen in der Luft liegen, aber es bleibt noch viel zu tun, besonders bzgl. Klima.

Unzählige Dollar-Milliarden an Steuergeldern in Gestalt an Zuwendungen für Unternehmen (und folglich die Verbraucher) haben Forschung gefördert und Löhne aufgebläht, wobei Universitäten rund 40% abschöpfen für „Übersicht und Aufwand“. Anreize und Versuchungen allerorten.

Viel zu viele Forscher haben sich derartigen Praktiken viel zu lange verschrieben. Viel zu viele ihrer Kollegen führen schlampige, begünstigende oder verlogene Begutachtungen durch. Viel zu viele Universitäten und andere Institutionen sind diesem Weg gefolgt. Viel zu oft ernten jene, die diesen Weg gehen, Ruhm und Glück. Viel zu viele verdächtige Ergebnisse wurden herangezogen um Unternehmen anzugreifen oder gerichtlich zu belangen oder um kostspielige politische Maßnahmen auf den Weg zu bringen.

Ein gutes Beispiel hierfür ist Glyphosat.

Massenschäden-Klage-Industrie gewinnt den Jackpot

[Original: Mass-tort lawsuit industry hits the jackpot]

Es half der Mass-tort lawsuit industry, den Jackpot zu gewinnen, als eine Jury in San Francisco einem Platzwart im Ruhestand 289 Millionen Dollar Ausgleichs- und Schmerzensgeld zugesprochen hatte – wegen seiner Behauptung, dass seine Erkrankung des Lymph-Systems entstanden ist, weil er Glyphosat ausgesetzt war. Viele ähnliche Gerichtsverfahren stecken jetzt in der Pipeline.

Die potentiellen Auswirkungen auf die chemische Industrie und die konventionelle Landwirtschaft weltweit sind noch gar nicht abzusehen.

Aber noch viel schlimmere Auswirkungen zeitigen die Forschungen, um die These des „gefährlichen menschengemachten Klimawandels“ voranzutreiben – dienst diese doch als Grundlage für Forderungen an uns, fossilen Treibstoffen zu entsagen, welche 80% des Energiebedarfs in den USA und weltweit decken – und sie zu ersetzen durch teure, unzuverlässige, pseudo-erneuerbare Alternativen.

Die infame „Hockeyschläger“-Temperaturgraphik

Es ist eine positive Entwicklung, die vielleicht eine Aufarbeitung im Cornell-Stil [?] ankündigt, dass nach sieben langen Jahren des Mauerns und der begünstigenden Gerichtsurteile die University of Arizona schließlich entschieden hat, der Free Market Environmental Law Clinic die E-Mails und anderen, vom Steuerzahler finanzierten Aufzeichnungen zu übergeben, die man schon im Jahre 2011 angefordert hatte. Die Dokumente beziehen sich auf die infame Hockeyschläger-Temperaturgraphik, in welcher versucht wurde, die Mittelalterliche Warmzeit und die Kleine Eiszeit aus der Historie verschwinden zu lassen, in welcher Machenschaften zur Beeinflussung eines IPCC-Berichtes sowie Bemühungen aufgedeckt wurden, nicht-alarmistische Studien von wissenschaftlichen Journalen fernzuhalten, und andere raffinierte Tricks.

Während juristische Belange des öffentlichen Zugangs zu wissenschaftlichen Ergebnissen sehr ähnlich anderen Fällen nach dem FOIA im Jahre 2010 folgten, nahm das Gericht in der Causa Virginia/Penn State University eine ganz andere Wendung. Jener Gerichtshof fällte das absurde Urteil, dass der Alarmisten-Forscher Dr. Michael Mann seine Daten, Verfahren und E-Mails als sein persönliches, intellektuelles Eigentum behandeln darf – unerreichbar für jeden außerhalb des inneren Zirkels um Mann – obwohl seine Arbeiten ausschließlich vom Steuerzahler finanziert waren und obwohl diese Daten als Grundlage herangezogen wurden, das „endangerment finding” und den Krieg gegen die Kohle zu rechtfertigen, was in der Folge den Lebensstandard aller Amerikaner beeinträchtigte.

Engagement in fragwürdige, geheimniskrämerische, unverantwortliche Wissenschaft

Wissenschaftliche Debatten sollten ausschließlich in akademischen, wissenschaftlichen und öffentlichen politischen Arenen geführt werden und nicht vor Gericht, wie etwa 800 Wissenschaftler bei der Verteidigung der Mann’schen Wissenschaft vorbrachten. Allerdings ist das nicht möglich, wenn es die in Frage kommenden Wissenschaftler ablehnen, sich derartigen Debatten zu stellen; wenn sie ihre Daten, Computerprogramme, Algorithmen und Verfahren zurückhalten; wenn sie sich in fragwürdiger, geheimniskrämerischer, unverantwortlicher Wissenschaft engagieren.

Wir, die wir diese Forschung bezahlen und zum Opfer schlampiger, ungeeigneter oder betrügerischer Arbeit werden, haben das klare und unabdingbare Recht, darauf zu bestehen, dass Wissenschaft ehrlich und korrekt durchgeführt wird. Und dass die Daten, Verfahren und Arbeitsergebnisse der Wissenschaftler öffentlich sind und für Analysen und Kritik zur Verfügung stehen. Und dass sich die Forscher robusten Debatten stellen mit anderen Wissenschaftlern und Kritikern. Es gleicht dem fundamentalen Recht, Zeugen in einem Zivil- oder Strafprozess ins Kreuzverhör zu nehmen, Inkonsistenzen aufzudecken, Glaubwürdigkeit zu erlangen und die Wahrheit zu bestimmen.

Wissenschaftler, welche diese grundlegenden Prinzipien verletzen, sollten nicht weiter finanziell gefördert werden.

Stattdessen haben wir jetzt eine erneuerbare Energie/Klimakrise-Industrie im Wert von fast 2 Billionen Dollar pro Jahr. Diese achtet peinlich, eifernd und eifersüchtig auf ihr Territorium und attackiert jeden, der es wagt, heikle Fragen zu stellen – wie die Folgenden:

Welche wirklichen, nachvollziehbaren Beweise in der realen Welt gibt es, um überzeugend zu demonstrieren, dass…:

●… man jetzt relativ geringe menschliche Einflüsse von den vielen mächtigen natürlichen Kräften unterscheiden kann, welche immer Klimawandel getrieben haben?

●… Treibhausgase jetzt das Klima kontrollieren und dass die Sonne und andere Kräfte nur eine geringe Rolle spielen?

●… die Erde derzeit bedeutende und beispiellose Änderungen bzgl. Temperatur, Eiskappen, Meeresspiegel, Hurrikane, Tornados und Dürren erlebt?

●… diese Änderungen katastrophal sein werden und den Verbrauch fossiler Treibstoffe seitens der Menschheit als Ursache haben?

●… ihre Computermodelle die Bedingungen der realen Welt genau prognostiziert haben, die wir heute messen?

●… Wind, Solar und Biotreibstoffe fossile Treibstoffe ersetzen können, um moderne Industrie-Ökonomien zuverlässig mit Energie zu versorgen und den Lebensstandard erhalten, dass Güter ohne fossile Treibstoffe hergestellt, transportiert und installiert werden können, dass sie „nachhaltig“ sind bis in absehbare Zukunft und dass sie keine schädlichen Auswirkungen auf Wildnis, Habitate, Luft und Wasser haben?

Alarmistische Klimakrisen-Wissenschaftler fordern und/oder helfen zu rechtfertigen radikale, transformative, destabilisierende und destruktive Änderungen unserer Energie-Infrastruktur, unserer Ökonomie, unseres Lebensstandards – und sie hindern die Ärmsten der Erde daran, die Energie zur Verfügung zu haben, die sie zur Verbesserung ihres Gesundheitszustandes und Lebensstandards unabdingbar brauchen. Darum obliegt ihnen eine sehr hohe Beweislast, dass sie recht haben. Sie müssen gezwungen werden, solide Beweise vorzulegen und sich robusten Debatten stellen bis hin zu Kreuzverhören.

Man darf ihnen nicht länger erlauben, materielle Beweise, E-Mails oder Konversationen zurückzuhalten, welche Interessenkonflikte, geheime Absprachen, Korruption, Datenmanipulation oder -verfälschung sowie andere substantielle Probleme offenlegen.

Inzwischen ist ein Punkt erreicht, an dem fast alles, was passiert, fossilen Treibstoffen, Kohlendioxid, anderen Treibhausgasen und jenen in die Schuhe geschoben wird, welche „die Realität eines (katastrophalen, vom Menschen verursachten) Klimawandels in Frage stellen“.

Die Behauptungen reichen inzwischen von implausibel bis lächerlich: Die Erde ist zum Untergang verurteilt, falls entwickelte Länder nicht bis zum Jahr 2020drastisch ihre Emissionen reduzieren; das arktische Eis wird verschwinden; Buschbrände werden immer häufiger und tödlicher; mehr Menschen werden durch einen Herzschlag sterben; die Hurrikane Harvey und Irma haben menschliche Aktivitäten als Ursache; Präsident Trump verursachte mit seinem Rückzug aus dem Paris-Abkommen den Hurrikan Florence (hier); Pflanzen in der Arktis werden zu groß; der Kaffeeanbau wird in vielen Ländern unmöglich; die Erde wird zu einer zweiten Venus; Schweine werden immer dünner; schmackhafte Gerichte wie Fischsuppe (cioppino) werden ein Ding der Vergangenheit. Und es gibt eine scheinbar endlose Liste mit behaupteten weiteren, noch viel absurderen, vom Menschen verursachten Katastrophen.

Der Kongress und die Trump-Regierung wollen ordentliche Wissenschaft und eine informierte Gesellschaft sicherstellen, Betrug und Korruption ausmerzen sowie „den Sumpf trockenlegen“. Falls sie das ernst meint, wird sie alle notwendigen Schritte unternehmen sicherzustellen, dass keine Universitäten oder andere Institutionen auch nur noch einen Cent Steuergeld bekommen, solange sie die hier vorgeschlagenen Änderungen nicht implementieren. Die Klima-Krise-Korruption wäre ein sehr guter Anfang damit!

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow and other think tanks, and author of books and articles on energy, climate change and economic development.

Link: https://www.iceagenow.info/rooting-out-scientific-corruption/

Übersetzt von Chris Frey EIKE




Das FAZ-Klima-Interview vom 2.10.2018: Nachdem sie das Ziel endgültig aus den Augen verloren hatten, verdoppelten sie ihre Anstrengungen

Das Interview in Auszügen

Das Interview führten Christian Schwägerl und Joachim Müller-Jung von der FAZ. Es erschien unter dem Titel „Ein Gespräch zum 1,5-Grad-Sonderbericht des Weltklimarats, Klimaschutz ist kein Wunschkonzert“ (hier). Nun ja, Wunschkonzert ist nicht einmal falsch, denn Klimaschutz ist in der Tat unmöglich. Klima schützen zu wollen – also bekanntlich das lokale statistische Mittel von Wetter über mindestens 30 Jahre, mit der Eigenschaft, sich seit Bestehen unserer Erde überall auf dem Globus stets gewandelt zu haben – kann nur den von der FAZ Interviewten „Fachexperten“ einfallen. Über die „Klima-Expertise“ von Herrn Müller-Jung erschienen bereits in den EIKE-News zwei humorige Artikel (hier, hier). Schauen wir uns jetzt also an, was die Kollegen der Wissenschaft so von sich gaben.

Es ging um das 1,5 Grad oder das 2 Grad Ziel und welches sinnvoller sei. Auf die erste Frage der FAZ nach diesen Zielen aus Sicht der Klimaforschung behauptet Schellnhuber „Aber Fakt ist doch: Schon bei bislang grob einem Grad globaler Erwärmung sehen wir heftige Folgen., etwa Wetterextreme – und wir sind auf dem Weg in eine drei bis fünf Grad wärmere Welt bis Ende des Jahrhunderts, wenn wir nicht rasch umsteuern“. Nein, Herr Schellnhuber, das ist eben nicht Fakt, sondern falsch: Wetterextreme sind Normalität, wie jeder Meteorologie bestätigt, ist die natürliche Eigenschaft des Wetters seine Ungewöhnlichkeit. Es geht hier um Extremwetterzunahmen in Klimazeiträumen. Das IPCC ist in seinem letzten Sachstandsbericht AR5 detailliert auf diese Frage für den Zeitraum ab 1950 eingegangen, denn seit diesem Datum gibt es statistisch ausreichend viele Messungen. Fazit und Fakt: Das IPCC hat nichts gefunden, s. die entsprechenden Belege und Nachweise (hier), (hier) (bzw. Gutachterliche Stellungnahme Lüdecke 4April2018 unter dem Abschnitt „Extremwetter“, dort sind die Links direkt anklickbar). Es wäre interessant von Schellhuber zu erfahren, wo denn nun die Extremwetter in Klimazeiträumen bleiben, wenn sie selbst von seiner „vorgesetzten Behörde“ (IPCC) nicht aufzufinden sind.

In seiner Antwort führt Schellhuber weiter aus „Wir brauchen statt ehrgeizigerer Ziele endlich ehrgeizigere Maßnahmen zur Klimastabilisierung“. Unser Kommentar zu dieser Antwort ist selbstverständlich etwas höflicher als der von Prof. Hans v. Storch, der das 2 Grad Ziel volksnah als „Verarschung“ bezeichnete (hier). Wir ziehen es dagegen vor, unsere Hochachtung vor einem deutschen Klima-Gelehrten auszudrücken, der offensichtlich Maßnahmen zur Klimastabilisierung in der Tasche hat. Donnerlüttchen, das ist ja mehr als ein Nobelpreis für Physik, ein echter Zampano, dieser Schellnhuber! Es fertig zu bringen, ein sich naturgesetzlich stets änderndes Phänomen wie das Klima zu stabilisieren, Glückwunsch.

Nun aber zu Frau Boetius: „Wir Polarforscher sind auf der anderen Seite auch lauter geworden. Denn 1,5 Grad mehr globale Erwärmung bedeutet in der Arktis 4 Grad mehr. Da kam politisch also noch Extradruck dazu, denn 1,5 Grad global bedeutet dort eben, dass den Menschen im Norden der Boden unter den Füßen weggezogen wird. Das gleiche gilt für die Habitate. Es heißt: Walross weg, Eisbär weg. Das ist keine Anekdote“. Sehr gut, Frau Boetius, möchten wir da gerne bestätigen, Polarforscher sind natürlich auch noch da, wäre ja noch schöner! Schließlich gibt es neben diesem PIK ja auch noch das AWI. So etwas muss doch endlich einmal unter die Leute gebracht werden. Und um sich nicht mit Petitessen abzugeben und gleich was Medienwirksames zu präsentieren, macht also Frau Boetius mir nichts, dir nichts aus den global gemittelten 1,5 Grad salopp 4 Grad in der Arktis.

Wie kommt sie denn darauf? Selbst in den wärmsten Zeiten nach Ende des letzten Glazials war es in Grönland im Höchstfall etwa 2,5 Grad wärmer als heute, s. Fig. 6 in Lecavalier et al, Quaternary Science Revies, 63 (2013). Außerdem ist die gegenwärtig höhere Erwärmung der Arktis nur ein zyklisches Phänomen (Klimaschaukel oder sea saw) mit einer Periode von etwa 60 Jahren (s. Fig. 2a in Chylek et al, Geophys. Research Letter, 37, (2010). Als wenn dies noch nicht genug wäre, setzt Frau Boetius noch eins drauf mit „Walross weg, Eisbär weg“. Das halten selbst die einfältigsten FAZ-Leser nicht mehr aus. Diese beiden Tierarten haben sogar die extremen Temperaturmaxima der letzten 1/2 Millionen Jahre putzmunter überstanden –  und nun plötzlich weg wegen 1,5 Grad natürlicher Erwärmung? Dagegen zeichneten sich die fachlich korrekten Aussagen des ehemaligen AWI-Direktors Prof. Heinz Miller durch unaufgeregte, angenehme Sachkundigkeit aus (hier). Ob abstruse Katastrophenszenarien die Politik bewegen, mehr Forschungsgelder dem AWI zukommen zu lassen?  Unter diesem Aspekt sind die Aussagen von Frau Boetius vielleicht noch zu verstehen. Das AWI macht sehr ordentliche Forschung. Der Autor dieser News, sein EIKE-Kollege Prof. Dr. Carl-Otto Weiss und zwei chinesische Mitautoren hatten sogar die Ehre, der begutachteten Fachzeitschrift „Polarforschung“ vom Jahre 2016, Herausgeber AWI, einen  Artikel (polfor_2016_015) beizusteuern. Man kann nur hoffen, dass der gute Ruf des AWI nicht durch fragwürdige Interview-Aussagen seiner Leitung in den Hintergrund gerät.

Zu Herrn Haug: Mit ihm wird es nicht besser als bei den drei anderen mit seinen “ Wir messen bereits jetzt eine globale Erwärmung von einem Grad über dem vorindustriellen Wert“. Ist ja nicht falsch, lieber Herr Haug, nein, nein, aber zu dieser Aussage gehört unbedingt dazu, auch etwas Sachliches über die vorindustriellen Werte hinzuzufügen, wie etwa: Das mittelalterliche und römische Klimaoptimum war jeweils etwa so warm wie heute, die beiden Holozän-Maxima dagegen noch weit wärmer (s. Bild). Was soll eigentlich an den 1,5 Grad Katastrophales sein, oder haben wir da etwas falsch verstanden?

Bild 1: NH historische Temperaturen, Bildautor Dr. Kehl, TU Berlin

Und schlussendlich zu Herrn Stocker: Er umschifft elegant das CO2-Thema, indem er korrekt ausführt, dass China nun seine Kohlekraftwerke mit Filtern ausstattet. Tatsächlich und völlig sachgerecht bekämpfen die Chinesen Ruß, Staub und Aerosole, das CO2 können sie natürlich auch nicht wegfiltern, es ist ihnen aber auch egal. Dann erzählt Stocker noch etwas über CO2-Versenkung im Boden mit viel Energieaufwand – als carbon capture and storage wird das bezeichnet. Außer den von diesem technischen Abersinn profitierenden Unternehmen nimmt niemand diese Art von Energieumwandlung in nutzlose Wärme (vulgo Energievernichtung) ernst, denn dafür gibt es unterhaltsamere Methoden (Ausnahme machen da nur die Isländer, die wissen nicht wohin mit ihrer Energie aus Vulkanismus und versenken tatsächlich CO2 im Boden. ARTE, das darüber berichtete, bezeichnete zu diesem Anlass CO2 als „Schadstoff“).

In diesem Zusammenhang sagt Schellnhuber erstaunlicherweise auch einmal etwas Vernünftiges „Ich glaube nicht, dass man Geoengineering, über das wir sprechen, irgendwann zu vernünftigen Kosten hochskalieren kann“. Er hätte es auch von der ethischen Seite betrachten können, denn Geoengineering wäre nur mit einer Weltdiktatur möglich. Dafür ist er schließlich Spezialist, wie es seine Propagierung einer großen Transformation zeigt – undemokratisch, Ökoweltdiktatur mit kommunistischen Merkmalen -, nachlesbar in „Welt im Wandel Gesellschaftsvertrag für eine große Transformation“ (hier). Stocker  gibt inzwischen weiter ungerührt Fragwürdiges von sich über zunehmende Hitzewellen in den Ozeanen. Wo soll denn die Wärme herkommen, lieber Herr Stocker, könnten Sie uns dies bitte erklären? Aber halt, Pardon, er fügt ja gleich hinzu „was dann passiert, wissen wir noch gar nicht“. Ach so ist das also: die Jungs wissen gar nicht was passiert, wollen aber trotzdem ganze Volkswirtschaften durch CO2-Vermeidung umbringen. Na dann Prost auf den Deutschen Industriestandort!

Frau Boetius kann es in diesem Zusammenhang nicht lassen, gegen eine uralte Regel zu verstoßen, die uns schon unser Lateinlehrer eingetrichtert hatte „Si tacuisses, philosophus mansisses“ (wenn Du geschwiegen hättest, wärest Du ein Philosoph geblieben). Interessanterweise geht dieser Spruch auf den spätrömischen Gelehrten Boethius zurück, „Nomen est Omen“. Frau Boetius fürchtet also Meeresversauerung durch zunehmendes CO2, obwohl der ph-Wert von Meerwasser zwischen deutlich alkalischen 8,2 und 8,8 liegt. Na Schwamm über diese abstruse Befürchtung, Korallen gibt’s schon seit vielen Hunderten von Millionen Jahren bei CO2-Konzentrationen in der Luft bis zum 20-fachen von heute, s. R. A. Berner, Nature 426 (Nov. 2003) (hier). Auch und gerade bei höchsten CO2-Konzentrationen der Erdvergangenheit boomte das Leben in den Weltmeeren. Von „Versauerungsschäden“ ist nichts bekannt (hier, hierhier, hier).

Es ist vielleicht an der Zeit, jetzt aufzuhören, denn der von den vier Interviewten hervorgezauberten Katastrophenszenarien nahmen einfach kein Ende. Wer es mag, kann sich ja den vollen Artikel im Netz antun hier. Von Veränderungen der Meeresbiologie bis in die tiefste Tiefsee lauern uns also Katastrophen und Kippelemente auf. Diese Katastrophen gibt es tatsächlich, bloß nicht die von den vier Klima-Alarmisten im Interview genannten, die sind glücklicherweise Fiktionen. Die bedauernswerte Bevölkerung von Indonesien hat erst jüngst viele Opfer eines Tsunami beklagt. Das sind reale Katastrophen und keine Kindermärchen wie die im FAZ-Interview vorgestellten Vermutungen, die eine mehr oder weniger ferne Zukunft betreffen.

Das Interview ist einfach zu albern. Als ob es in der Erdvergangenheit nicht schon unzählige Male wesentlich wärmer und die Atmosphäre CO2-haltiger war als heute und als ob nicht auch Klima-Änderungsgeschwindigkeiten die heutigen Werte meilenweit übertrafen – man denke nur an die abrupten Dansgaard-Oeschger-Ereignisse mit Temperatursprüngen von bis zu 10 °C in einem Menschenleben (hier). Heute sollen wir uns dagegen bei vergleichbaren Zeiträumen vor wenigen Zehntel Graden wie vor dem Leibhaftigen fürchten. Die Biosphäre dürfte gemäß den düsteren Warnungen unserer vier Interviewten vor den so brandgefährlichen Kippunkten (die es ja logischerweise auch in der Vergangenheit geben musste) überhaupt nicht mehr existieren und wir Menschen schon gar nicht. Auch auf die etwas peinlich anmutenden „zertifizierten“ Klimaprojekte, die von Frau Boetius angesprochen wurden, decken wir besser den Mantel gnädigen Schweigens.

Nicht schweigen kann man allerdings zu der Forderung, die jetzige Infrastruktur komplett auf „erneuerbare Energien“ umzustellen. Sind sich diese vier Interviewten, denen als Physikern eigentlich technische Sachkunde attestiert werden sollte, überhaupt darüber im Klaren, was „Erneuerbare“ an Katastrophen für jede moderne Industrienation bedeuten? Ein erste kleine Einführung zu diesem Thema (hier). Sogar dem Bundesrechnungshof wird es beim Thema Energiewende allmählich zu bunt (hier).

Wo bleibt die Kernenergie?

Warum kommt eigentlich niemand von den Interviewten, inklusive der beiden Journalisten, bei der allgemeinen Forderung nach Ende der fossilen Verbrennung auf die nächstliegende Idee, diese durch die Generation IV modernster Kernkraftwerke (schnelle Brüter) zu ersetzen? Die laufen bereits als sog. BN-Typen seit Jahren in Russland (hier). Diese Option bietet doch alles an Nachhaltigkeit, was man überhaupt nur fordern kann, keine CO2-Emissionen, keine Naturschädigung durch „erneuerbare Energien“ mehr wegen der unvergleichbar hohen Leistungsdichte von Kernenergie, fast vollständige Ausnutzung des Brennstoffs Uran, also kein nennenswerter nuklearen Abfall mehr und schlussendlich Bresstoffreichweiten infolge Uranversorgung aus dem Meer für Millionen Jahre – Thorium als Kernbrennstoff aus der Erde braucht man da nicht einmal mehr zu erwähnen. Und inhärent sicher kann man die Dinger auch noch bauen, man denke nur an das private Deutsche Projekt des Dual Fluid Reaktor (DFR). An dieser Stelle vielleicht schon einmal ein wenig Eigenwerbung: Voraussichtlich noch vor Jahresende wird das Buch „Kernenergie: Der Weg in die Zukunft“ erscheinen (Autoren: Götz Ruprecht und Horst-Joachim Lüdecke). Wir werden die EIKE-Leser zum Zeitpunkt noch einmal darauf hinweisen.

Aber Kernkraft ist ja in Deutschland des Teufels – wobei wir mit der kompletten Aufgabe dieser unübertroffenen Zukunftstechnologie wieder einmal ziemlich allein und ziemlich bekloppt auf dieser Welt dastehen. Schellnhubers Forderung, die Umstellung der gesamten Bauinfrastruktur auf Holzbauweise wollen wir dann besser nicht mehr kommentieren, die Faschingszeit naht, die ist für so etwas eher zuständig….

Zusammenfassung

Was uns die vier Wissenschaftler im FAZ-Interview geboten haben, war unterirdisch. Von irgendeiner Berücksichtigung des heutigen wissenschaftlichen Stands, dokumentiert in unzähligen begutachteten Fachveröffentlichungen, war nichts zu vernehmen. Statt dessen ein serviles Hinterherlaufen der grünen Ideologie und Politik. Die vier Interviewten sind Wissenschafts-Advokaten, welche das in der Fachliteratur dokumentierte Wissen durch unbelegte Vermutungen, nicht funktionierende Klimamodelle und grüne Ideologie ersetzen wollen.

Glücklicherweise ist der Abnutzungseffekt gegenüber dieser Grünpropaganda in der Bevölkerung bereits mit den Händen zu greifen – kaum ein vernünftiger Mensch glaubt den Klima-Alarmisten noch. Insbesondere Schellnhuber hat mit abstrusen Übertreibungen wie in seinem Buch „Selbstverbrennung“ ausreichend dazu beigetragen. Vertreten und sekundiert werden die Wissenschafts-Advokaten von der überwiegend grün-links polarisierten Journalistenschaft. Was die beiden FAZ-Journalisten in ihrem Interview versuchten, hat mit neutralem Journalismus nichts mehr zu tun. Dieser bestünde darin, jeden Gesichtspunkt zu Wort kommen zu lassen.  Im konkreten Fall hätten zwei Fachleute des Interviews durch Klimaexperten der Gegenseite ersetzt werden müssen, welche den steilen Katastrophenthesen der verbliebenden zwei Alarmisten widersprechen und dies auch fachlich belegen. Das hat die FAZ aus guten Gründen nicht gewagt. Erst mit strikter Neutralität und Fairness wird aber Journalismus wieder gut und spannend. Dies wäre vielleicht sogar geeignet, den stetig sinkenden Auflagen der FAZ wieder auf die Sprünge zu helfen.

Immerhin hat zumindest Schellnhuber seine ideologisch/politischen Ziele nie verschwiegen, sondern sich stets offen dazu bekannt. Das ist ok und sein gutes Recht. Er propagiert eine große Transformation in Form einer Art neuer kommunistischer Weltdiktatur (hier). Propheten, Verrückte und Aktivisten, die derartiges anstreben, sterben nicht aus, obwohl solche Vorhaben in der Realität stets viele Millionen Tote gekostet haben. Dennoch baut man hierzulande für die geistigen Väter dieser „Irrtümer“ Denkmäler wie z.B. in Trier für Karl Marx. Ein maßgebender Teil der deutschen Wahlbevölkerung wählt Grün, oder gar die Linke. Insbesondere diese zeichnet sich durch ehemalige Vertreter der DDR-Diktatur aus, wie Gregor Gysi als ehemaligem SED-Chef (hier) oder der so charmant-klug daherkommenden Sarah Wagenknecht (hier), die sage und schreibe sogar noch 1989 der SED beitrat! Frau Wagenknecht hat vor nicht langer Zeit das Wirtschaftsmodell Venezuelas von Chavez gepriesen, dessen katastrophale Folgen wir inzwischen mitverfolgen durften. Überflüssig zu erwähnen, dass „Klimaschutz“ politisch um so heftiger propagiert und gefordert wird, je weiter links die fordernde Ecke steht. Kein Wunder, denn Kommunismus ist bekanntlich Knechtschaft mit dem Mittel unerreichbarer Ziele.

Deutschland steht zur Zeit vor gewaltigen und ausnahmslos selbstverschuldeten Problemen. Andere Länder lösen dagegen einfach ihre Probleme. So etwa China, das sich mit geschickt wirkungsvoller Entwicklungspolitik in Afrika mit seinen bald 2 Milliarden Menschen dauerhaft festsetzt – zur Sicherung seiner Rohstoffbasis. China baut neue saubere Kohlekraftwerke im Wochentakt und verfährt ähnlich konsequent mit Kernkraftwerken. Wir dagegen lassen unsere Infrastruktur nicht nur verkommen, sondern zerstören sie auch noch konsequent mit der Energiewende – und unsere Wälder durch Windräder gleich mit dazu. Projekte, über welche Chinesen nur müde lächeln können (Berliner Flughafen), bekommen wir nicht auf die Reihe. Die Deutsche Bahn, ehemals Muster an Qualität, Pünktlich- und Zuverlässigkeit fährt in Richtung dritte Welt. Es werden Nachrüstungen für Dieselfahrzeuge diskutiert, als ob in unseren Städten die Bevölkerung mit stetig ansteigender Lebenserwartung durch NOx-Autoabgase dahinhingerafft wird, deren Konzentration am Arbeitsplatz gesetzlich um vieles höher sein darf als auf der freien Straße. Und wir kümmern uns um die Rettung des Weltklimas vor dem unverzichtbaren Pflanzendünger CO2. Selbst wenn man hilfsweise eine Klimawirksamkeit des anthropogenen CO2 unterstellt, die tatsächlich nicht einmal wissenschaftlich gesichert ist, wären selbst die höchsten Anstrengungen Deutschlands an CO2-Vermeidung wirkungslos, wie es unter „Was bewirken die gesetzlichen CO2 Einsparungen Nordrhein-Westfalens“? durch eine simple rechnerische Abschätzung belegt wird (hier).

Bereits kaum noch erkennbare Miniprobleme oder gleich totaler Nonsense, wie die Bedrohung des Juchtenkäfers am Stuttgarter Bahnhof, das angeblich klimaschädliche anthropogene CO2 oder Toiletten für die inzwischen bis zur Zahl 40 angewachsenen menschlichen Geschlechter töten nicht nur Zeit und Nerven sondern sie zerstören. Die Mahnung der Vernünftigen, endlich die Problem-Elefanten in unserem Vorgarten anzupacken, wie ungesteuerte Migration, die dadurch verursachte Belastung unserer Sozialsysteme, fehlender Verschuldungsabbau, kommender Zusammenbruch unserer Strominfrastruktur durch die Energiewende, Zerstörung des Verbrennungsmotors und damit Wegbrechen unserer Wirtschaftsgrundlage, von Italien niemals an uns mehr zurückzahlbare Target-Schulden in Billionengröße, die EU-Garotte der Ökodesignrichtlinien (hier) usw. usw., wird dagegen als rechte Gesinnungsnörgelei abgetan und in den Wind geschlagen. Deutschland ist inzwischen übervoll von fachunkundigen, aber dafür ideologiefesten Nichtstuern, die in unzähligen Institutionen und Behörden für grünen Unfug sorgen, ihn überwachen und steuern. Zur Erhöhung der Produktivität tragen diese Leute nichts bei, sie schädigen nur immer wirksamer unsere Volkswirtschaft

Der größte Unfug wird heute bitterernst und konsequent zur Normalität erhoben, Widerspruch dagegen führt zu gesellschaftlicher Ächtung. Wirkliche Probleme dürfen nicht angesprochen werden.  Deutschland ist verrückt geworden, und das FAZ-Interview hat dazu wieder einmal beigetragen.

 

 

 




Wer wird den europäischen Kalten Energie-Krieg gewinnen? Russland und die USA!

Abseits der Diplomatie folgt die scheinbare Verrücktheit des US-Präsidenten einer bestimmten Methode. Mr. Trump weiß, dass Europa Erdgas braucht, und unter Anspielung auf Befürchtungen – zu Recht oder nicht – dass Russland wieder einmal eine Bedrohung des Friedens in Europa darstellt, hofft er, dass Deutschland und die EU mehr Gas aus den USA importieren werden.

Der russische Präsident Wladimir Putin hat dem eine diplomatische Charme-Offensive entgegen gesetzt, darunter auch zwei Treffen während der letzten vier Monate mit der deutschen Kanzlerin Angela Merkel – wobei eines davon im vorigen Monat dreieinhalb Stunden dauerte – und ein Besuch in Österreich, wo er einen Kosaken-Chor mitbrachte und Arm in Arm mit der Außenministerin Karin Kneissl anlässlich deren Hochzeit tanzte.

Schiebt man einmal Mr. Trumps diplomatische Offensive und Mr.Putins Tanzkünste beiseite, wird sich an der europäischen Front wahrscheinlich eine Art Energie-Realpolitik entfalten, in der ökonomische Notwendigkeiten und geopolitische Realitäten und nicht Ideologie zugrunde liegen.

Der Einsatz für Russland ist hoch. Öl und Gas machen die Haupteinkünfte seiner Exporte aus. Aber auch der Einsatz für die EU ist hoch. Geht Nord Stream 2 erst einmal in Betrieb, werden etwa 40% aller Gasimporte nach Europa aus Russland kommen.

EU und Russland: Wechselseitige Abhängigkeit

Dennoch, trotz ihrer wechselseitigen Abhängigkeit befinden sich die EU und Russland in „einem offenen Kampf hinsichtlich der Normen internationalen Verhaltens“ – innerhalb des Europäischen Rates für auswärtige Beziehungen (ECFR). Einer jüngsten PEW-Umfrage zufolge „fehlt“ 78% der Europäer das „Vertrauen“, dass Russland „das Richtige tun werde“, wenn es um Welt-Angelegenheiten geht. Auch merkte der ECFR an, dass der Sieg in diesem Kampf nicht im „Kampf gegen Russland“, sondern mit einer „Verbesserung von Europas Belastbarkeit“ erreicht werden wird.

Mr. Trump erkennt in dem Europäischen Misstrauen gegenüber Russland eine Gelegenheit. Der globale Energiesektor war Schauplatz massiver Umbrüche, zum größten Teil weil die USA jetzt zum größten Erzeuger von Erdgas und zu einem rapide wachsenden Exporteur geworden sind. Vor dieser Transformation war die primäre Option Europas bei der Minimierung der Abhängigkeit von russischer Energie der Nahe Osten mit all seinen geopolitischen Belastungen.

Selbstinteresse vs. Selbstinteresse

EU-Beamte bleiben dabei, dass die USA lediglich ihren „Eigeninteressen“ folgen bei dem Schub für ihre Exporte verflüssigten Erdgases. Natürlich ist das so. Und Europa hat sein eigenes Selbstinteresse hier. Genau dann, wenn Handelspartner gegenseitige Selbstinteressen haben, können sensitive Handels- und Geschäftsbeziehungen geschmiedet werden.

Zufällig braucht Europa keine teuren Flüssiggas-Importterminals zu bauen, um der Energie-Transition in den USA Rechnung zu tragen. Die bestehende Anzahl von EU-Terminals ist derzeit nur zu einem Viertel ausgelastet. Würde man die volle Kapazität ausschöpfen, könnte man fast drei mal so viel Erdgas importieren wie für die Nord Stream 2-Pipeline vorgesehen.

Während der letzten Wochen hat sich die EU ein wenig empfänglich gezeigt für den Gedanken, amerikanisches Flüssiggas zu importieren – so lange die Preise „wettbewerbsfähig“ bleiben. Ja, Gazprom kann Gas nach Europa zu einem geringeren Preis liefern als selbst rekordniedrige Preise für Flüssiggas-Schiffe es je könnten. Aber die Führer der EU haben anderswo eine Politik begrüßt, welche eine nicht preisliche Haltung enthält: Hier sind Belastbarkeit und Diversität noch etwas wert.

Auf der Grundlage der gegenwärtigen Preisdifferenz zwischen russischem und amerikanischem Flüssiggas würden die Kosten für Energieimporte der EU insgesamt um weniger als 5% steigen – selbst wenn Europa seine Import-Kapazität bzgl. amerikanischen Flüssiggases voll ausschöpfen würde. Langfristig wäre dies ein Schnäppchen als Absicherung der Belastbarkeit. Vielleicht können die EU-Diplomaten einige dieser Ausgaben verhandeln als Ausgleich für steigende NATO-Verpflichtungen.

Flüssiggas: Sollte die EU das aus Amerika kaufen?

Es gibt jene, die glauben, dass Europa sich diversifizieren könnte, indem die Strategie bzgl. alternativer Energie beschleunigt wird. Aber selbst wenn Wind, Solar und andere alternative Quellen die Erwartungen übertreffen, werden Öl und Gas immer noch lange Zeit die Hauptquelle für Energie in Europa sein. In der Zwischenzeit wird der Kollaps der Erzeugung von Gas aus der Nordsee die Deckung des Bedarfs aus heimischen Quellen abnehmen lassen, und zwar um mehr als die Kapazität von Nord Stream 2.

Wie wird dieser Krieg nach Art des Kalten Krieges um Europas Energiebedarf ausgehen? Pragmatischerweise natürlich mit einem zunehmenden Mix aus den USA und direkt aus Osten strömendem Gas. Man vergesse nicht, dass weder Mr. Trump noch Mr. Putin ewig da sein werden – genau wie ihre Vorfahren als Kalte Krieger. Wörter wie „Geiseln“ und „kontrolliert“ können mit den richtigen diplomatischen Untermauerungen ersetzt werden durch „Kooperation“ und „Partnerschaft“.

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE




Weitere Risse im Pariser Klima-Abkommen

Nicht nur in Australien sind die Stimmungen hoch gekocht hinsichtlich der Zukunft des Pariser Abkommens zur Bekämpfung des Klimawandels. Ein Dringlichkeitstreffen in Bangkok endete am 9. September im Stillstand, haben doch zuständige Institutionen jahrelang die Erstellung eines Maßnahmen-Katalogs blockiert, wie man das Paris-Abkommen umsetzen könnte.

Geld, Macht und Misstrauen sind zentraler Mittelpunkt des Streits, der sich nur noch verschärfen dürfte im Zuge der Vorbereitung der Regierungen auf den nächsten Klimagipfel am 3. Dezember in Kattowitz in Polen.

Umweltgruppen haben die USA und Australien für das Scheitern der Verhandlungen darüber verantwortlich gemacht, wie man einen Fonds im Wert von 100 Milliarden US-Dollar pro Jahr managen sollte. Hinter den Kulissen hat eine Gruppe von Ländern unter Führung Chinas daran gearbeitet, die Lücke zu erweitern zwischen der Art und Weise, wie die Regeln in entwickelten Ländern und Entwicklungsländern umgesetzt werden sollen.

Das kommt allen nur zu bekannt vor, die zwei Jahrzehnte lang die UN-Klimadiplomatie verfolgt haben. Entwicklungsländer werfen der entwickelten Welt vor, das Problem des Klimawandels verursacht zu haben, und bestehen auf ihr Recht, sich zu entwickeln. Einfache Mathematik zeigt, dass entwickelte Nationen das Problem nicht allein lösen können.

Der 100-Milliarden-Fonds war der Klebstoff, welcher entwickelte und Entwicklungsländer in einem einzelnen Vertrag zusammengebracht hatte. Aber wie immer steckt der Teufel im Detail. Es ist normal bei Klimawandel-Verhandlungen, dass sie bis zum Ende durchgefochten werden. Aber der Gipfel in Kopenhagen 2009 hat gezeigt, dass Erfolg nicht immer garantiert werden kann.

Ein weiteres Niveau der Ungewissheit ergab sich mit der Entscheidung von Präsident Trump, sich aus dem Paris-Abkommen zurückzuziehen. Ein formeller Austritt kann nicht vor November 2019 vollzogen werden. Bis dahin nehmen die USA weiter aktiv an Verhandlungen teil.

Ohne die USA dürfte es drastisch schwieriger werden, die 100 Milliarden Dollar pro Jahr ab 2020 für den Fonds zusammen zu bekommen. Unsicherheit hat den Weg geebnet, dass das Paris-Abkommen an verschiedenen Fronten immer brüchiger wird.

Das Paris-Abkommen war am 4. November 2016 in Kraft getreten, nachdem es mit einer großen Fanfare des Konsens‘ am 12. Dezember 2015 beschlossen worden war. Das Abkommen ist aber immer noch operativ, weil nach wie vor ein Maßnahmen-Katalog zu dessen Umsetzung fehlt. In seiner jetzigen Form ist das Abkommen kaum mehr als eine Absichtserklärung, trotz aller Emotionen, die darum herum geweckt worden sind.

Selbst wenn es in Kraft tritt, wird es weitgehend freiwilliger Natur sein, und man muss sich auf den internationalen Druck verlassen, die Teilnehmer bei der Stange zu halten. Länder werden verpflichtet werden, über ihre Ambitionen zur Erreichung des 2°C-Zieles zu berichten, aber es gibt kein Mittel, dies zu erzwingen. Letzte Details sollen nun Ende dieses Jahres geklärt werden.

Aber nach Bangkok scheint jenes Abkommen weiter entfernt denn je, trotz einiger ermutigender offizieller Ankündigungen. Beobachter haben öffentlich bekundet, dass das Paris-Abkommen am Rande des Scheiterns steht. Die Economic Times in Indien klagt: „Die Welt legt jetzt die neuen Normen fest, die Versprechungen einer globalen Zusammenarbeit nicht einzuhalten“.

Diese Entwicklungen bilden den Hintergrund der Debatte über die Zukunft des Paris-Abkommens in Australien. Dort lag der Schwerpunkt auf der Frage, welche Ziele man setzen sollte, um zukünftig Kohlendioxid-Emissionen zu reduzieren. International spielt Australien immer noch eine sehr aktive Rolle bei den Verhandlungen, trotz des geringen Beitrags des Landes zu den globalen Emissionen.

Indem er Forderungen aus seiner eigenen Partei widerstand, das Paris-Abkommen aufzukündigen wegen der Strompreise bei einem Übergang zu erneuerbarer Energie, blieb Scott Morrison der Diplomatie verhaftet.

„Ich darf hier nicht nur dieses eine Thema betrachten“, sagte der neue Premierminister in einem Interview. „Im Pazifik ist dieses Thema unglaublich wichtig. Es dominiert dort ihr Denken und ihre Agenda. Und der Pazifik ist eines der strategischen Gebiete, welche unsere Welt heutzutage beeinflussen“.

Kurz gesagt, ein Rückzug aus dem Paris-Abkommen könnte erhebliche regionale Konsequenzen nach sich ziehen und Verhandlungen über Freihandel mit der EU behindern.

Trotz der Kritik an Australien bei den Bangkok-Gesprächen sagte ein Sprecher des Außenministeriums, dass man sich nach wie vor dem Prozess des Paris-Abkommens verpflichtet fühle. „Australien möchte eine umfassende und effektive Anleitung für das Paris-Abkommen implementieren“, sagte der Sprecher. „Australien setzt sich dafür ein, eine solche Anleitung auf der COP24 in Polen vorzulegen und unterstützt effektive Assistenz, einschließlich finanzieller Hilfen, die Entwicklungsländern zugute kommen sollen“.

Australien hat über die Hälfte seiner im Jahre 2015 eingegangenen Zahlungsverpflichtungen über fünf Jahre erfüllt (2015/16 bis 2019/20), um Entwicklungsländern zu helfen, widerstandsfähiger zu werden und Emissionen zu reduzieren. Darunter sind 300 Millionen Dollar über vier Jahre für Klima-Maßnahmen im Pazifik.

Die Assistenz Australiens erfolgt auf der Grundlage von Darlehen auf Antrag der Partnerländer, ist ausgeglichen zwischen Abschwächung und Anpassung und konzentriert sich auf kleine Inselnationen und weniger entwickelte Länder in der indo-pazifischen Region.

Das Geld wird aufgebracht mittels multilateraler, globaler, regionaler und lokaler Verfahren im Zuge des australischen Hilfsprogramms, verwaltet vom Ministerium.

Die Wahrheit jedoch ist, dass globale Gespräche ins Stocken geraten sind wegen der Frage, ob Kredite und bestehende Auslandshilfen als Anteil an dem geforderten 100-Milliarden-Dollar-Fonds gelten sollen oder nicht.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/more-cracks-in-the-paris-climate-agreement/

Übersetzt von Chris Frey EIKE




Kanada – und [fast] die ganze Welt geben die Grüne Agenda auf

Erneuerbare nebst deren hohen Strompreisen als Begleiterscheinung haben viele Individuen in Energiearmut getrieben und die Industrie veranlasst abzuwandern. Dies alles entlarvt die Behauptung, dass Wind und Solar die Treibstoffe der Zukunft sind, als Lüge.

China war einst das Aushängeschild der Erneuerbare-Energie-Industrie – noch vor einigen Monaten hieß es bei Bloomberg: „Chinas Investitionen in Erneuerbare lassen den Rest der Welt hinter sich“, dank deren enormen, von Subventionen gestützten Wachstums. Jetzt wirft aber auch China allmählich das Handtuch, indem Subventionen für Erneuerbare zurückgefahren werden – eine Verheißung für den Niedergang der Investitionen des Landes in den Bereich Erneuerbare. Mit der Reduktion von Subventionen für Erneuerbare in der EU verringerten sich im vorigen Jahr die Investitionen auf mehr als die Hälfte zum Zeitpunkt des Maximums vor sechs Jahren (hier). Japans Investitionen haben sich sogar innerhalb von nur drei Jahren halbiert.

Während China immer mehr Abstand von Erneuerbaren nimmt, stürzt sich das Land auf die Kohle. Einem BBC-Bericht von voriger Woche zufolge fährt China seine Abhängigkeit von heimischer Kohle um 25 Prozent nach oben mittels Bau Hunderter neuer Kohlekraftwerke zur Stromerzeugung. Sind diese erst einmal vollendet, wird die zunehmende Kohle-Kapazität äquivalent sein zur gesamten Kohle-Kapazität in den USA. Neben Kohle wird China in diesem Jahr auch zum weltgrößten Importeur von Erdgas werden, sowohl per Pipeline (20% Steigerung) als auch per Schiff (über 50% Steigerung). Bzgl. Kohle und Öl ist das Land schon jetzt der weltgrößte Importeur.

Deutschland, ein weiteres Aushängeschild bzgl. erneuerbarer Energie, folgt dem gleichen Weg der Abwicklung, werden doch Subventionen für Windmüller reduziert, während die Importe von Gas und die Verwendung heimischer Kohle zunehmen. Um diese Kohle zu fördern hat Deutschland beschlossen, eine bestehende Tagebau-Kohlemine – die größte in Europa – zu erweitern, wofür man einen 12.000 Jahre alten Wald abholzen muss. Abgerundet wird dieses Abrücken Deutschlands von Forderungen der Grünen-Lobby durch die Abschwächung von Vorschriften, welche den Autobauern auferlegten, Fahrzeuge mit geringeren CO2-Emissionen herzustellen.

Japan plant, seine ohnehin schon bescheidenen Subventionen für Erneuerbare zu beenden (hier), während der Verbrauch fossiler Treibstoffe massiv ausgeweitet wird – zu den bereits 100 bestehenden Kohle-Kraftwerken sollen weitere 40 hinzukommen. Auch UK wendet sich von Erneuerbaren ab. Dort wird erwartet, dass die Investitionen bis zum Jahr 2020 um 95% sinken werden – zugunsten der Erschließung der immensen Schiefergas-Vorräte des Landes. Und Australien beendet sein Subventionsprogramm für Erneuerbare bis zum Jahr 2020 vollständig.

Die grundlegendste Änderung jedoch erfolgte in den USA, wo die Partei der Demokraten – Anhänger der Globale-Erwärmung-Orthodoxie – zunächst die Kontrolle über den Kongress und dann die Präsidentschaft an Präsident Trump von den Republikanern verloren haben. Dieser ist ein ausgesprochener Kritiker der Globale-Erwärmung-Lobby. Als Präsident Trump sich aus dem Paris-Abkommen zurückzog zugunsten Kohle und anderer, auf Kohlenstoff basierender Treibstoffe, haben sich die Führer der Welt fast einhellig darob empört.

Nachdem die USA ihre Kohle-Industrie wiederbelebt haben, zum weltgrößten Ölproduzenten geworden sind und ihre einst siechen ökonomischen Zuwachsraten diejenigen der anderen hinter sich gelassen haben, folgen jene Weltführer inzwischen der Führung Amerikas, während man bzgl. Paris von ihnen gar nichts mehr hört. Das einst so mächtige IPCC, ehemals ein Fixpunkt in den Nachrichten, ist unschädlich gemacht und vergessen, nachdem die USA dessen Finanzierung gestoppt haben und dessen Bedeutung gegen Null tendiert.

Die Abnahme der regierungsamtlichen Finanzierung von Erneuerbaren folgt vielen Jahren, in denen Meinungsumfragen konsistent ergeben, dass der Öffentlichkeit der Klimawandel ziemlich egal ist. Regierungen haben schließlich verstanden, dass die Grüne Lobby doch nicht so mächtig war. Die ängstlichsten und am wenigsten prinzipientreuen Glieder der Gesellschaft – der Unternehmensbereich – könnten die nächsten sein, die bzgl. der Causa Klimawandel ein wenig mehr Rückgrat zeigen.

Einem durchgesickerten Memo zu Anfang dieses Monats [September] zufolge beabsichtigt BusinessEurope, der größte Unternehmer-Verband der EU, gegen EU-Pläne einer Verschärfung der Vorschriften bzgl. CO2-Emissionen auf ihre Kosten Widerstand zu leisten, wenngleich gedämpft. Falls sich diese Pläne bewahrheiten und der Verband es wirklich wagt, die Interessen seiner Mitglieder zu vertreten, ist dies ein weiteres Anzeichen, dass NGOs und deren wichtigste Verbündete – die Mainstream-Medien – ihre Macht eingebüßt haben.

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE




Rundbrief der GWPF vom 26. September 2018 – Thema Energie­politik

Deutschland ringt mit dem Ende der Kohle-Energie, stellt doch die populistische AfD den Grünen Konsens in Frage

Der Kohle-Showdown reflektiert den mühsamen Kampf der deutschen Regierung um den Übergang zu erneuerbarer Energie. Falls es der Regierung nicht gelingt zu zeigen, dass es Klimaschutz sorgfältig ausbalancieren kann mit einer bezahlbaren und sicheren Energieversorgung, „dann wird das zu einer großen Herausforderung, die Wähler bei der Stange zu halten“, sagte Georg Kippels von der CDU während einer Tour durch seinen Wahlkreis im Rheinland. Dort hat er immer größere Schwierigkeiten, Angela Merkels Energiepolitik zu verteidigen. Bei der Wahl im vorigen Jahr konnte die AfD ihren Stimmenanteil in seinem Wahlkreis mehr als verdoppeln. – Bloomberg, 27. September 2018

Merkel wird vorgeworfen, sich im Zuge ihres Kampfes für das CO2-Ziel auf einen ,schmutzigen Deal‘ mit Autobauern eingelassen zu haben

Die deutsche Kanzlerin Angela Merkel hat den Zorn von Klima-Aktivisten und sogar von ihrem eigenen Umweltministerium auf sich gezogen, nachdem sie sich zuvor dagegen ausgesprochen hatte, die von der EU vorgegebenen CO2-Grenzen bis 2030 anzuheben. Die endgültige Vorschrift bzgl. Reduktion ist abhängig von einem Votum der EU-Kommission. Gestern jedoch widersprach Merkel öffentlich ihrem Umweltminister, als sie vor einer Tagung des BDI sagte, dass von der Kommission vorgegebene Ziel von 30% bestehen bleiben sollte. Sie sagte, dass höhere Ziele die Gefahr mit sich bringen, dass Autohersteller ihre Produktionsstätten nach außerhalb von Europa auslagern. – Forbes, 26. September 2018

,Angela Merkel ist eine Versagerin‘ – Die Autorität der deutschen Kanzlerin schwindet dahin vor dem Hintergrund von Widerstand aus den Reihen ihrer eigenen Partei.

Angela Merkel wurde als eine „Versagerin“ beschimpft, und zwar von Mitgliedern ihrer eigenen Partei in einer beispiellosen Rebellion, welche die deutsche Kanzlerin zu entthronen droht. Nach 18 Jahren an der Spitze der CDU sah sich Frau Merkel mit einem „Aufstand“ konfrontiert, als die Parlamentarier ihrer Partei ihre Rechte Hand aus dem Amt wählten. – Daily Express, 27. September 2018.

[Es sieht fast so aus, als hätte da noch mehr stattgefunden als in den deutschen Medien zu lesen war. Anm. d. Übers.]

—————————————–

Und noch zwei Meldungen, die dazu passen:

Man vergesse Paris: Frankreich steht vor Einschnitten bzgl. Wachstum erneuerbarer Energie

Die französische Regierung wird den Anstieg ihrer Ausgaben für Erneuerbare im Jahre 2019 drastisch reduzieren, weist doch der Haushaltsentwurf des Ökologie-Ministeriums einen Anstieg von lediglich 1,3% aus, welcher gleichauf mit der Inflationsrate liegt. Der Vorgang wird Frankreich zwingen, sich nach alternativen Energieträgern umzusehen, nachdem das Land Kohle-Energie aus UK importieren musste, als die Temperaturen im vorigen Winter stark gefallen waren. – The Energy Advocate, 26. September 2018

UN-Chef wettert gegen das Scheitern der Welt, die globale Erwärmung aufzuhalten

Der Chef der UN machte fehlende Führung verantwortlich für das Scheitern der Welt, strenge Entscheidungen zu treffen, um die globale Erwärmung aufzuhalten, und warnte, dass ein Schlüsselziel des Pariser Klima-Abkommens auf dem Spiel steht. – Associated Press, 26. September 2018

Übersetzt von Chris Frey EIKE




Der „Trick“ anomaler Temperatur-Anomalien

In den meisten Fällen ist die Anomalie sehr gering, und die Änderung wird aufgemotzt, indem die Y-Achse so gestreckt wird, bis diese geringe Änderung daherkommt wie ein steiler Anstieg (oder Fall). Die vermeintliche Aussagekraft der Graphiken wird durch die behauptete Genauigkeit der Anomalie verstärkt – bei der globalen mittleren Temperatur werden oftmals Zehntel- oder sogar Hundertstel Grad Celsius angegeben. Verschlimmert wird das Ganze, indem die Anomalien ohne oder nur mit sehr geringen „Fehler“-Bandbreiten gezeigt werden. Sollte das doch einmal der Fall sein, sind es nicht Fehler- oder Unsicherheits-Balken, sondern tatsächlich die statistische Standardabweichung (und nur selten wird das so angegeben).

Vor vielen Wochen habe ich dazu einen Beitrag geschrieben mit dem Titel [übersetzt] „Fast wie die Erde. Wir sind sicher!“ [Almost Earth-like, We’re Certain]. In dem Beitrag, der vom Weekly News Roundup des Science and Environmental Policy Project als „leicht lesbar“ charakterisiert worden ist, verlieh ich meiner Meinung Ausdruck, dass man Anomalien verwendet und so tut, als ob die Unsicherheit verringert worden wäre. Es ist nichts als Vortäuschung. Es ist ein Trick, um bekannte große Unsicherheiten zu verdecken.

Mit dem Eingeständnis, dass sich diese meine Meinung bis heute nicht geändert hat, denke ich, dass es gut ist, genauer zu erklären, wie ich zu dieser Ansicht gekommen ist – und was für einen umfangreichen Bereich in der Welt der Klimawissenschaft ziemlich kränkend sein wird. Zwei Dinge müssen wir betrachten:

1.Warum nenne ich das einen „Trick“?

2.Wer wird da ausgetrickst?

Zu Punkt 1: Warum nenne ich die Verwendung von Anomalien einen „Trick“?

Was genau ist das „Auffinden einer Anomalie“? Nun, nicht das, was man allgemein denkt. Die vereinfachte Antwort lautet, dass man die jährlich gemittelte Temperatur heranzieht und diese von jenem 30-Jahre-Klimamittel subtrahiert. Was übrig bleibt, ist „Die Anomalie“.

Das ist das, was sie sagen, aber nicht wirklich das, was sie tun. Sie fangen mit dem Auffinden von Anomalien auf einem niedrigen Niveau an und arbeiten sich empor bis zur Globalen Anomalie. Selbst wenn Gavin Schmidt den Gebrauch von Anomalien erklärt (hier), erkennen sorgfältige Leser, dass er sich rückwärts bewegen muss zu Absoluten Globalen Mittelwerten in Grad – indem die allgemein vereinbarte Anomalie dem 30-Jahre-Mittel hinzugefügt wird:

„… wenn wir versuchen, die absolute globale Mitteltemperatur für, sagen wir, das Jahr 2016 abzuschätzen. Die Klimatologie gibt im Zeitraum 1981 bis 2010 einen Wert von 287,4 ± 0,5K, und die Anomalie für 2016 (nach der GISTEMP-Grundlage) beträgt 0,56 ± 0,05°C. Folglich ist unsere Schätzung des absoluten Wertes 287,96 ±0,502 K, und bei Heranziehen des zweiten reduziert sich das zu 288,0 ± 0,5 K“.

Aber hier wollen wir einfach nur betrachten, dass die Anomalie einfach das von der berechneten GAST* subtrahierte 30-Jahre-Mittel in Grad ist.

Wie Schmidt freundlicherweise erklärt, ist die korrekte Angabe einer GAST in Grad irgendetwas auf der Linie 288,0 ± 0,5 K – das ist die Gradzahl bis auf ein Zehntel Grad genau mit einer Unsicherheits-Bandbreite von ± 0,5 K. Wenn eine Zahl auf diese Art und Weise angegeben wird, bedeutet das, dass der tatsächliche Wert nicht genau bekannt ist, aber es ist bekannt, dass er innerhalb der Bandbreite der Plus/Minus-Angabe liegt.

[*GAST = Global Averaged Surface Temperature]

Die Abbildung zeigt dies als aktuelle Praxis mit den Temperaturaufzeichnungen … die gemessenen Temperaturen sind auf ganze Grad Fahrenheit gerundet – eine Angabe, welche IRGENDEINE der unendlichen Zahl kontinuierlicher Werte zwischen 71,5 und 72,499999… repräsentiert.

Es ist kein Messfehler, es ist die gemessene Temperatur dargestellt als eine Bandbreite von Werten 72 +/– 0,5. Es ist eine Unsicherheits-Bandbreite – hinsichtlich der tatsächlichen Temperatur sitzen wir immer noch im Dunklen – wir kennen lediglich die Bandbreite.

Nun ist die Ein-Grad-Bandbreite für normale Menschen als Information ausreichend. Knifflig wird es in manchen Fällen, wenn sich die Temperatur dem Gefrierpunkt nähert – Temperaturen über oder unter dem Gefrierpunkt sind klimatisch bedeutsam für Landwirte, bei der Straßenausbesserung und Wartung von Flugzeugen.

Egal was wir mit Temperaturaufzeichnungen machen, müssen wir uns mit der Tatsache befassen, dass die tatsächliche Temperatur nicht aufgezeichnet worden ist – wir haben lediglich Bandbreiten aufgezeichnet, innerhalb derer die tatsächliche Temperatur lag.

Dies bedeutet, dass wenn diese Temperaturen für Berechnungen herangezogen werden, müssen sie Bandbreiten bleiben und als solche behandelt werden. Was nicht ausgesondert werden kann ist die Bandbreite des Wertes. Die Mittelung eliminiert die Bandbreite nicht – der Wert hat immer die gleiche Bandbreite. (Siehe Durable Original Measurement Uncertainty).

Auf der Grundlage einfacher Logik, wenn wir schließlich zur Globalen Mittleren Temperatur kommen, ist immer noch die originale Unsicherheit vorhanden – wie Dr. Schmidt korrekt illustriert, wenn er die Absolute Temperatur für das Jahr 2016 mit 288,0 ± 0,5 K angibt.

Der Trick kommt dort ins Spiel, wo die tatsächliche berechnete Temperatur zu einer Anomalie von Mittelwerten konvertiert. Wenn man ein Mittel berechnet (ein arithmetisches Mittel – Summe aller Werte geteilt durch die Anzahl der Werte), bekommt man eine sehr genaue Antwort. Wenn man das Mittel von Werten heranzieht, welche Bandbreiten sind, wie etwa 71 +/- 0,5, dann ist das Ergebnis eine sehr präzise Zahl mit einer hohen Wahrscheinlichkeit, dass das Mittel nahe dieser präzisen Zahl liegt. Während also das Mittel ziemlich genau ist, sind die tatsächlichen Temperaturen der Vergangenheit immer noch unsicher bis +/-0,5.

Drückt man das Mittel mit der gebräuchlichen „+/-2 Standardabweichung“ aus, sagt uns das nur, welchen Mittelwert wir erwarten können – wir können ziemlich sicher sein, dass das Mittel innerhalb jener Bandbreite liegt. Die tatsächliche Temperatur, wenn wir sie ehrlicherweise in Grad darstellen wie in der folgenden Graphik, immer noch behaftet sein mit der Messungenauigkeit: +/-0,5 Grad.

Diese Graphik wurde (ohne meine Anmerkungen) von Dr. Schmidt in seinem Beitrag über Anomalien (hier) gezeigt. Ich habe die erforderlichen I-Balken für +/-0,5 Grad hinzugefügt. Man beachte, dass die Ergebnisse der verschiedenen Re-Analysen selbst einen Spread von 0,4 Grad aufweisen – man könnte darüber sprechen, die Gesamtzahl von 0,9 Grad als die Unsicherheit der Globalen Mittleren Temperatur zu verwenden auf der Grundlage der Unsicherheiten oben (siehe die beiden grünen Unsicherheits-Balken, einer über dem anderen).

Dies illustriert die wahre Unsicherheit der Globalen Mittleren Temperatur – Schmidts eingeräumte +/-0,5 und die Unsicherheits-Bandbreite zwischen den Re-Analyse-Produkten.

Im Sinne der realen Welt sollte die oben dargestellte Unsicherheit als die Minimum-Unsicherheit betrachtet werden – die Unsicherheit der Originalmessungen plus die Unsicherheit der Re-Analyse. Es gibt noch viele andere Unsicherheiten, die man eigentlich hinzufügen müsste – wie sie etwa auftreten, wenn man Lücken in den Messungen mit berechneten Temperaturwerten füllt.

Der Trick besteht nun darin, dass der gleiche Datensatz als Anomalien präsentiert und behauptet wird, dass die Unsicherheit folglich auf 0,1 Grad reduziert ist (wenn sie überhaupt angegeben wird) – BEST halbiert diesen Wert nochmals und proklamiert 0,05 Grad!

Die Herabstufung des Datensatzes zu einem statistischen Produkt, Anomalie genannt, informiert uns nicht über die wahre Unsicherheit im tatsächlichen Parameter selbst – die Globale Mittlere Temperatur – jedenfalls nicht mehr als der Blick rückwärts auf eine Bergkette mittels eines speziellen Fernglases, das die Berge kleiner erscheinen lässt, wie stark das Auge auch immer getäuscht wird.

Hier folgt eine Stichprobe der Daten, welche dier Graphik ganz oben in diesem Beitrag ausmachen. Die Spalten bedeuten: Jahr – GAST-Anomalie – Glättung nach dem Lowess-Verfahren:

2010  0.7    0.62
2011  0.57  0.63
2012  0.61  0.67
2013  0.64  0.71
2014  0.73  0.77
2015  0.86  0.83
2016  0.99  0.89
2017  0.9    0.95

Die Vergrößerung der Graphik im Bereich 2000 bis 2017 sieht so aus:

7

Wir sehen globale Anomalien, dargestellt bis zu einer Genauigkeit von Hundertstel Grad Celsius. Unsicherheit wird nicht gezeigt – keine einzige ist erwähnt auf der NASA-Website, auf der die Graphik zu finden ist (hier). Auf dieser NASA-Website, zu finden im Abschnitt Vital Signs – Global Climate Change, heißt es weiter, dass „diese Forschungen im Wesentlichen konsistent sind mit ähnlichen Konstruktionen durch die Climatic Research Unit und die National Oceanic and Atmospheric Administration.” Schauen wir mal:

Von der CRU:

Hier sehen wir die Globale Temperatur nach CRU (Referenz-Zeitraum 1961 bis 1990) – ärgerlicherweise also mit einem anderen Referenz-Zeitraum als bei der NASA 1951 bis 1980. Die Differenz bietet ein paar Einblicke in den Umstand, welche gewaltigen Unterschiede diese verschiedenen Referenz-Zeiträume bzgl. der Ergebnisse ausmachen.

2010   0.56 0.512
2011 0.425 0.528
2012   0.47 0.547
2013 0.514 0.569
2014   0.579  0.59
2015 0.763 0.608
2016   0.797 0.62
2017 0.675 0.625

Die offizielle CRU-Anomalie für das Jahr 2017 beträgt 0,675°C – präzise bis zu einem Tausendstel Grad. Sie zeichnen das dann mit 0,68°C in die Graphik ein. CRU bringt es fertig, die gleiche Präzision in ihren geglätteten Werten zu zeigen – 2015 = 0,608.

Und der Vollständigkeit halber, die NOAA bietet folgende Werte an, präzise bis auf ein Hundertstel Grad:

2010,   0.70
2011,   0.58
2012,   0.62
2013,   0.67
2014,  0.74
2015,  0.91
2016,  0.95
2017,  0.85

Wir sehen, dass diese Anomalien anders als absolute globale Temperaturen wie jene von Gavin Schmidt bei RealClimate gezeigten (hier) mit überhaupt keiner Unsicherheit gezeigt werden. Keine SDs [Standard-Abweichungen], keine 95% CIs, keine Fehlerbalken, nichts. Und das präzise bis zu einem Hundertstel eines Grades Celsius.

Zusammengefasst: Die großen Klima-Institutionen der Welt informieren uns über den Zustand des Klimas, indem sie uns Graphiken der Anomalien der Globalen Mittleren Temperatur [GAST] anbieten. Diese zeigen einen stetigen und alarmierenden starken Anstieg seit etwa 1980. Dieser alarmierende Anstieg besteht aus einer globalen Änderung von etwa 0,6°C. Nur das GISS liefert irgendeine Art Unsicherheits-Schätzung, und auch das nur in der Graphik mit dem grünen 0,1°C-Balken wie oben gezeigt. Betrachten wir ein einfaches Beispiel: Wir folgen Gavin Schmidt gemäß diesem seinem Beitrag vom August 2017 und verwenden GAST-Absolutwerte in Grad Celsius mit seiner angenommenen Unsicherheit von 0,5°C.

Wie sieht das Mittel der beiden GAST-Werte aus, eine für die Nord- und eine für die Südhemisphäre? Um ein wirklich einfaches Beispiel zu geben, wollen wir einmal jeder Hemisphäre den gleichen Wert zuordnen von 20 +/-0,5 Grad Celsius. Unsere Rechnung: 20 +/- 0,5 plus 20 +/- 0,5 geteilt durch 2 ergibt … Das Mittel ist genau 20. (Nun, das nennt man Präzision…).

Was ist mit der Bandbreite? Sie beträgt +/- 0,5 – ist also 1 Grad breit. Das Mittel mit der Bandbreite beträgt 20 +/- 0,5.

Aber was ist mit der Unsicherheit? Nun, die Bandbreite legt die Unsicherheit fest: wir sind sicher, dass das Mittel zwischen 20,5 und 19,5 liegt.

Schauen wir die Wahrscheinlichkeiten – hier gleiten wir in den Bereich „Statistik“.

Hier folgen einige der Werte für die Nord- und Südhemisphäre aus einer unendlichen Anzahl von Möglichkeiten, die sich aus 20 +/- 0,5 ergeben. Wenn wir gleiche Werte heranziehen, ist das Mittel natürlich das gleiche. Aber wir wollen Wahrscheinlichkeiten haben – wie viele Wege gibt es also, dass das Ergebnis 20,5 oder 19,5 beträgt? Jeweils einen Weg.

NH           SH
20.5 —— 20.5 = 20.5 einzig mögliche Kombination
20.4         20.4
20.3         20.3
20.2         20.2
20.1         20.1
20.0         20.0
19.9         19.9
19.8         19.8
19.7         19.7
19.6         19.6
19.5 —— 19.5 = 19.5 einzig mögliche Kombination

Aber wie ist das mit 20,4? Es können 20,4-20,4 oder 20,5-20,3 oder 20,3-20,5 sein – drei mögliche Kombinationen. 20,3? 5 Kombinationen. 20,2? 7 Kombinationen. 20,1? 9 Kombinationen. 20,0? 11 Kombinationen. Jetzt sind wir über den Buckel gesprungen: 19,9? 9 Kombinationen. 19,8? 7 Kombinationen. 19,7? 5 Kombinationen. 19,6? 3 Kombinationen und 19,5? 1 Kombination.

Man erkennt, wie die Verteilung aussieht:

Da wir lediglich 11 Werte für jede der gemittelten Temperaturen verwendet haben, bekommen wir eine wenig pointierte Kurve. Es gibt zwei Kleine Graphiken … die zweite (unten) zeigt, was passieren würde, falls wir das Mittel von zwei identischen Zahlen gefunden hätten, jede mit einer Unsicherheits-Bandbreite von +/-0,5, falls sie gerundet worden wären auf das nächste halbe Grad anstatt auf das normale ganze Grad. Das Ergebnis ist intuitiv – Das Mittel besitzt immer die höchst mögliche Wahrscheinlichkeit, dass es der zentrale Werte ist.

Nun, dass scheint so offensichtlich, dass es selbst Dummies einsehen. Schließlich sollte ein Mittel mathematisch immer der zentrale Wert sein. Der Punkt ist aber: mit unseren gleich verteilten Werten um das Mittel – und wir erinnern uns, wenn wir einen Temperaturrekord sehen, angegeben als XX +/- 0,5, sprechen wir über eine Bandbreite von gleichmäßig verteilten möglichen Werten – wird das Mittel immer der zentrale Wert sein, ob wir nun das Mittel einer einzelnen Temperatur oder das von tausend Temperaturwerten mit dem gleichen Wert finden. Die Unsicherheits-Bandbreite ist jedoch immer die Gleiche! Natürlich! Muss doch so sein.

Hierin liegt der Trick – wenn sie die Anomalie des Mittels heranziehen, lassen sie die Unsicherheits-Bandbreite insgesamt fallen und konzentrieren sich einzig auf die zentrale Zahl, das Mittel, welches immer präzise ist und nahe dieser zentralen Zahl liegt. Wenn überhaupt einmal eine Unsicherheit genannt wird, wird sie als die Wahrscheinlichkeit angegeben, wie nahe das Mittel der zentralen Zahl liegt – und ist getrennt von der tatsächlichen Unsicherheits-Bandbreite der Originaldaten.

William Briggs sagt dazu: „Diese Ergebnisse sind keine Statements bzgl. der tatsächlichen Temperaturen in der Vergangenheit, die wir bis auf die Messgenauigkeit bereits kennen“.

Wir kennen bereits die berechneten GAST (siehe die Re-Analysen oben). Aber wir wissen nur, dass sie irgendwo innerhalb deren bekannten Unsicherheits-Bandbreiten liegt, welche laut Dr. Schmidt +/- 0,5 Grad betragen. Berechnungen der Anomalien der verschiedenen Mittelwerte sagen uns nichts über die tatsächlichen Temperaturen der Vergangenheit – die kannten wir bereits – und wir wissen, wie unsicher das war.

Es ist ein TRICK zu behaupten, dass mittels der Überleitung jährlicher Globaler Mittlerer Temperaturwerte zu Anomalien wir die bekannte Unsicherheit UNBEKANNT machen können.

Zu Punkt 2: Wer wird ausgetrickst?

Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Sie kennen bereits die GAST so genau wie sie dieselben mit ihren gegenwärtigen Verfahren zu berechnen in der Lage sind. Sie kennen die involvierte Unsicherheit – Dr. Schmidt räumt ein, dass sie um 0,5 K liegt. Folglich ist ihre Verwendung von Anomalien (oder die Mittelwerte von Anomalien…) einfach ein Weg, sich selbst zum Narren zu halten, indem die bekannte Unsicherheit irgendwie auf magische Weise einfach verschwindet, äquivalent zu „falls wir auf diese Weise blinzeln und unseren Kopf nach einer Seite neigen…“.

Viel Glück dabei!

——————————-

Schlussbemerkungen des Autors:

Dieser Beitrag wird einem gewissen Segment der Leserschaft hier nicht gefallen, aber das verringert nicht dessen Validität. Jene, die sich selbst zum Narren halten wollen mit dem Verschwinden lassen der bekannten Unsicherheit der Globalen Mittleren Temperatur werden den einfachen, hier dargestellten Argumenten widersprechen. Das ist deren Minus.

Ich verstehe das Argument der Statistiker, welche darauf bestehen, dass das Mittel wirklich viel genauer ist als die Originaldaten. Aber sie lassen zu, dass jene Tatsache ihnen die Erlaubnis gibt, die Unsicherheits-Bandbreite der Originaldaten aus der realen Welt zu ignorieren. Man verstehe mich nicht falsch, sie versuchen nicht, uns auszutricksen. Sie sind sicher, dass dies wissenschaftlich und statistisch korrekt ist. Sie halten sich jedoch selbst zum Narren, weil im Endeffekt alles, was sie tun, die Veränderung der Werte auf der Y-Achse ist (von ,absolute GAST in K‘ zu ,absolute GAST in K minus dem Klimamittel in K‘) und die Unsicherheit fallen lassen – mit viel Rechtfertigung aus der Statistik-/Wahrscheinlichkeits-Theorie.

Link: https://wattsupwiththat.com/2018/09/25/the-trick-of-anomalous-temperature-anomalies/

Übersetzt von Chris Frey EIKE




Der Öffentlichkeit globale Erwärmung zu erklären ist unmöglich, weil wir nicht die gleiche Sprache sprechen

Er sagte:

Die ultimative Folge davon, die Menschheit vor den Auswirkungen von Dummheit zu schützen ist, die Welt mit Dummköpfen anzufüllen“.

,Nicht informiert‘ ist ein besseres Wort als Dummköpfe, aber das Problem ist das Gleiche. Es ist kein neues Problem, aber es scheint im heutigen, so genannten Informationszeitalter schlimmer denn je zu sein. Michael Crichton hatte recht, wenn er es das Zeitalter der Falschinformation nennt. Bertrand Russel sagte:

Das ganze Problem mit der Welt besteht darin, dass Dummköpfe und Fanatiker sich ihrer Sache immer so sicher und klügere Menschen so voller Zweifel sind“.

Voltaire schlug einen Beginn für Diskussionen vor:

Falls du dich mit mir unterhalten willst, definiere deine Anliegen“.

Ich würde hinzufügen, falls du dich mit mir unterhalten willst, sorge dafür, wenigstens minimal die Fakten zu verstehen. Während eines Interviews wurde ich kürzlich von einem Interviewer genervt, der unentwegt sagte, ich hätte unrecht und sei ein Lügner. Also forderte ich ihn schließlich heraus, der Zuhörerschaft den Treibhauseffekt zu erklären. Er konnte es nicht! Er wusste nicht einmal, dass die Treibhaus-Theorie auch zu einer kälteren Welt führen kann. Dieses fehlende Verständnis ist eine Folge der verwendeten Wörter. Die Öffentlichkeit assoziiert mit dem Terminus ein Treibhaus und folglich auch höhere Temperaturen. Dieses Konzept suggeriert automatisch Erwärmung. Das ist auch der Grund, warum diese Analogie für die politische Agenda und den Betrug der anthropogenen Erwärmung gewählt wurde. Viele andere Analogien, hauptsächlich ein Energie-Gleichgewicht implizierend, wie etwa Füllen und Ablassen einer Badewanne, wurden über die Jahre ins Spiel gebracht, konnten sich aber bisher nicht durchsetzen. Gleiches gilt für die Phrase „Löcher im Ozon“. Da sind keine Löcher, nur ein Gebiet mit einer Ausdünnung, aber die Phrase impliziert, dass etwas leckt oder zerbrochen ist.

Wegen dieser absichtlichen, in die Irre führenden Wortwahl ist es unglaublich, wie viele Menschen hartnäckig Standpunkte bzgl. globaler Erwärmung hegen, ohne auch nur die Grundlagen zu verstehen. Das führt zu dem unlösbaren Dilemma, logische Diskussionen über unlogische Dinge zu führen.

Dann gibt es da noch das zusätzliche Problem des technischen Jargons. Man schätzt, dass eine durchschnittliche englisch sprechende Person* einen Wortschatz von etwa 9000 Wörtern hat und dass etwa 100 dieser Wörter immer wieder verwendet werden. Die meisten glauben diese Zahlen nicht, was durch die Tatsache belegt wird, dass sie glauben, jedes Wort einer Fremdsprache lernen zu müssen, um sich in jener Sprache unterhalten zu können. Ich weiß, dass Shakespeare in seinen Dramen und Sonetten 24.000 Wörter verwendet und 1700 neue Wörter der Sprache hinzugefügt hat. Ich sagte meinen Studenten witzelnd, dass ich richtig lag mit 9000 zu 24.000 Wörtern, weil die Menschen nur etwa ein Drittel von Shakespeare verstehen. Das Oxford English Dictionary (OED) listet 171.476 Wörter, räumt aber ein, dass darunter viele Bereiche nicht abgedeckt werden, wie etwa der Jargon von Wissenschaftlern und Akademikern. Dennoch kommt es zu der Folgerung:

[*Weil ich nicht weiß, wie das bei Deutschen ist, bleibe ich hier und im Folgenden bei der direkten Übersetzung. Anm. d. Übers.]

Dies zeigt, dass es mindestens eine Viertel Million verschiedene englische Wörter gibt, ohne Beugung, und Wörter aus dem technischen oder auch regionalem Bereich nicht abgedeckt werden; oder dass Wörter noch nicht dem OED hinzugefügt worden sind, von denen 20% nicht länger gebräuchlich sind. Falls unterschiedliche Bedeutungen gezählt werden würden, würde sich die Gesamtzahl der Wörter vermutlich auf eine Dreiviertel Million belaufen“.

Ein Universitätsprofessor verfügt in der Regel über einen Wortschatz von 40.000 Wörtern, aber die Mehrzahl davon sind Fachwörter. Das Erste, was ein Student im ersten Semester gleich welchen Fachbereiches lernt, ist die ,Sprache‘ der jeweiligen Disziplin. Manchmal erfordert das Studiengebiet eindeutige Wörter, aber oftmals hat ein allgemein verwendetes Wort eine andere Bedeutung, was zu Konfusion führt. Das beste Beispiel hierfür ist ein Terminus, der zu Beginn der Debatte um die anthropogene globale Erwärmung AGW auftauchte, als all jene Wissenschaftler, welche richtigerweise die Theorie mittels des normalen wissenschaftlichen Verfahrens in Frage stellten, Skeptiker genannt wurden. Michael Shermer erklärt:

Wissenschaftler sind Skeptiker. Es ist unglücklich, dass das Wort ,Skeptiker‘ andere Bedeutungen in der Kultur angenommen hat, darunter Nihilismus und Zynismus. In Wirklichkeit ist es in seiner Reinheit und der ursprünglichen Bedeutung einfach nur nachdenkliches Hinterfragen“.

All dies rückte in dieser Woche wieder in den Mittelpunkt, weil ich in Diskussionen einbezogen wurde mit einer Gruppe, die eine Debatte arrangieren wollte. Ich bin immer grundsätzlich für Debatten und den freien Austausch von Gedanken und Meinungen, aber hier liegt das Problem. Falls zwei Wissenschaftler über ein Thema diskutieren, würde der größte Teil der Öffentlichkeit nicht folgen können, weil sie den Jargon nicht kennt und verschiedenen Wörtern eine unterschiedliche Bedeutung beimisst. Falls ein Wissenschaftler und ein Umweltaktivist oder auch nur ein durchschnittlicher Bürger diskutieren, gerät die Diskussion rasch zu einem emotionalen, faktenfreien Streit.

Die beschämende Wahrheit ist, dass Gerichte keinen wissenschaftlichen Fall behandeln, weil sie den Jargon nicht einmal auf der grundlegendsten Ebene verstehen. Es war für mich eine Herausforderung, einen Verteidiger zu finden, welcher wissenschaftlichen Grundlagen folgen konnte. Dazu nutzte ich das Wissen anderer Studenten, die sich Jura zugewandt hatten. Sie sagten mir, dass die meisten Anwälte Kunststudenten sind und die prozentual größte Fehlquote in einem Kurs über Steuerpolitik aufgetreten war, gewöhnlich im zweiten Jahr. Ich erhielt eine Liste mit Anwälten spezialisiert auf Diffamierung und fragte diese, wie sie sich bzgl. Steuerrecht machten. Derjenige, der sagte, dass er der Beste des Kurses und sehr stolz auf seine 84% war, wurde mein Anwalt. Bisher funktioniert das.

Das Problem fehlender Bildung bzgl. Zahlen erstreckt sich auf die Öffentlichkeit insgesamt. Abbildung 1 zeigt die Anzahl der 15-jährigen Schüler mit wissenschaftlichem Hintergrundwissen:

Abbildung 1

Das höchste Niveau weist Finnland auf mit etwa 18%, was bedeutet, dass 82% wissenschaftliche Erfahrung fehlt. Der Mittelwert über alle untersuchten Länder beträgt 10%. Man kann getrost annehmen, dass dies den Prozentanteil in der Gesellschaft reflektiert, so dass 90% nicht in der Lage sind, die Summary for Policymakers zu verstehen, welche explizit für die allgemeine Öffentlichkeit gedacht ist, geschweige denn die Wissenschafts-Berichte der Arbeitsgruppe 1 des IPCC.

Trotz dieser Unfähigkeit sind sie durchdrungen von dem Absolutismus, der Perfektion und der Unveränderbarkeit von Zahlen. Dies entwickelte sich aus einer Bewegung der 1920-ger Jahre mit der Bezeichnung logischer Positivismus und ist definiert als:

ist charakterisiert von der Ansicht, dass wissenschaftliche Kenntnisse die einzige Art tatsächlichen Wissens ist und dass jede traditionelle metaphysische Doktrin als bedeutungslos zurückgewiesen werden muss.

Hierauf entgegnete der Mathematiker und Philosoph A. N. Whitehead (1861-1947):

Es gibt keinen größeren Irrtum als zu vermuten, dass weil längere und genaue mathematische Berechnungen durchgeführt worden waren, die Anwendung des Ergebnisses auf einige Fakten der Natur absolut sicher ist.

Die Menschen sind derartig durchdrungen von logischem Positivismus, dass sie einfach nicht glauben können, dass es unterschiedliche Arten von Zahlen und also auch Daten gibt. Schon früh in meiner Laufbahn habe ich erfahren, dass Zahlen bei der Untersuchung von Energie-Input bei der Bildung eines Strandes diskret oder kontinuierlich sind. In vielen statistischen Anwendungen ist dieser Unterschied entscheidend für die Validität der Ergebnisse. Die meisten Menschen wissen noch nicht einmal, dass in einigen Bereichen der Mathematik imaginäre Zahlen verwendet werden.

Gleichzeitig mit dem Aufkommen des logischen Positivismus wurden Statistiken angewendet auf die Gesellschaft und vor allem auf Menschen und menschliches Verhalten. Hierzu habe ich in meinem vorigen Beitrag mit dem Titel [übersetzt] „Standardabweichung – die übersehene, aber essentielle Klima-Statistik“(hier) etwas geschrieben. Klima, das Mittel von Wetter, wurde schon von den Griechen studiert und verstanden, tauchte aber in der Historie erst während der ersten Hälfte des 20. Jahrhunderts auf. Um auf Wünsche von Piloten im 1. Weltkrieg einzugehen, wurde Meteorologie das, was jeder in Relation zu Wetter wusste. Das gilt heute immer noch, aber nur wenige Menschen wissen, dass Meteorologie begrenzt ist auf das Studium der Physik der Atmosphäre. Klima tauchte in nationalen Wetterdiensten nur deswegen auf, weil jemand – zumeist eine Person, die des Vorhersagens überdrüssig war – tägliche, wöchentliche und monatliche Mittelwerte erstellen musste. Darum war und ist das in der World Meteorological Organization (WMO) verblieben. Nach 1947 waren die Aufgaben immer noch diktiert von dem Bedarf nach Vorhersagen für die Luftfahrt, weshalb Wetterstationen zumeist an Flughäfen eingerichtet worden waren, und die einzige Referenz von Verpflichtungen für alle Agenturen unter dem Schirm der WMO „Klimatologische Statistik“ war.

Alles begann, als Reid Bryson (1920-2008) und Hubert Lamb (1913-1997) damit anfingen, sich ernsthaft mit Klimatologie zu befassen. Bryson gründete im Jahre 1948 die Abteilung Meteorologie an der University of Wisconsin-Madison und dem Center for Climatic Research. Lamb gründete die Climatic Research Unit CRU im Jahre 1972, um Klimadaten und langzeitliche Aufzeichnungen aus der Vergangenheit zu rekonstruieren, die schon lange zuvor aufgekeimt waren. Der Independent erklärt in seinem Nachruf auf Lamb:

Etwa zur gleichen Zeit (1950), hatten Lamb – und Klimatologie – großes Glück. Er wurde in die dahin siechende Abteilung Klimatologie im Met.-Office versetzt, wo er ohne wesentliche Unterbrechung seiner Faszination nachgehen konnte für etwas, was möglicherweise das vollständigste und nie untersuchte meteorologische Archiv der Welt war. Er erstellte Rekonstruktionen der monatlichen atmosphärischen Zirkulation über dem Nordatlantik und Europa bis zurück zum Jahr 1750, was ihn immer mehr von der Realität des Klimawandels überzeugte in zeitlichen Größenordnungen, die für die moderne Menschheit von Bedeutung waren. Er begann auch, erstmals Verbindungen herzustellen zwischen der Wassertemperatur in den Ozeanen und der atmosphärischen Zirkulation.

Es ist eine Ironie, dass es heutzutage große Bemühungen gibt, derartige Verbindungen zu verstehen, und zwar wegen der Bedeutung von Verbindungen zwischen ozeanischer Zirkulation und der darüber liegenden Atmosphäre. Lambs Verfahren wurde völlig unkritisch übernommen bis zum Ende seines Lebens.

Lamb hatte recht bzgl. des Gebrauchs von Computern und deren Anwendung, aber er hatte auch recht bzgl. der Probleme, die inhärent in der Forschung über ein allgemeines Thema vorhanden sind, in welchem es so viele Unter-Themen gibt. Darum ist Klimatologie traditionellerweise in der originalen integrativen Disziplin Physikalische Geographie gelehrt worden.

Dieser neue Studienbereich wird als ein Zweig der atmosphärischen Wissenschaften angesehen und als Unterbereich von physikalischer Geographie, welche eine der Geowissenschaften ist“.

Viele versuchen mich niederzumachen, weil ich meinen Ph.D. in Geographie habe. Das war eines der Dinge, auf denen der Interviewer immer wieder herumtrat, der mich einen Lügner genannt hatte. Die einzigen Klimatologie-Optionen außerhalb Physikalischer Geographie waren zu jener Zeit die Verfahren von Bryson oder Lamb. Ich kontaktierte Wisconsin, konnte es mir aber nicht leisten, persönlich dorthin zu kommen. Stattdessen erreichte ich meinen Grad am Queen Mary College an der University of London,, wo sich mein Doktorvater, Dr. Bruce Atkinson, auf das Studium städtischer Wärmeinseln spezialisiert hatte. Er arrangierte viele Treffen von Prof. Lamb von East Anglia mit mir. Schon damals wurde ich Zeuge der schändlichen Art und Weise, mit der man – kontrolliert und angestiftet von Tom Wigley und Phil Jones, die später die CRU und das IPCC kontrollierten – ihn behandelt und über ihn gesprochen hat. Glücklicherweise sind deren Aktivitäten und Verhalten in den Klimagate-E-Mails vom November 2009 bekannt geworden.

In einigen wenigen Disziplinen wie etwa dem Studium von System-Analysen versteht man das fundamentale Problem im Zentrum der AGW-Problematik. Abbildung 2 ist ein einfaches Systemdiagramm der Atmosphäre, erstellt von Kellogg und Schneider im Jahre 1974. Die so genannten Klimawissenschaftler verstehen nicht. Die Arroganteren unter ihnen glauben, weil sie Grade in Mathematik oder Physik haben, dass sie darüber stehen und es verstehen, während wir Anderen dumm sind, weil wir versuchen, selbst die größeren Teile des Systems richtig zu verstehen. Es ist die unvermeidliche Ausweitung von logischem Positivismus.

Abbildung 2

Die arroganten Wenigen, welche den Rest von uns schikanieren, erkennen noch nicht einmal den Unterschied zwischen Verallgemeinerung und Spezialisierung. Sie wissen nicht, dass es für jeden Teilbereich in dem Diagramm unterschiedliche Spezialisten gibt, wobei jeder einen anderen Jargon verwendet. Man frage sie einfach mal, ob sie die Bedeutung des Wortes yazoo kennen, welches von Experten in den Mund genommen wird, die den Boden-Durchfluss [overland flow] von „Niederschlag“ in dem Diagramm untersuchen.

Jetzt weiß man, warum es zu jedem IPCC-Report ein Glossar gibt, einschließlich der Summary for Policymakers (SPM). Daraus die Definition von Abscheidung [Sequestrierung]:

Die Aufnahme (d. h. die Hinzufügung einer bedenklichen Substanz zu einem Reservoir) von Kohlenstoff enthaltenden Substanzen, vor allem Kohlendioxid, in terrestrische oder maritime Reservoire. Biologische Abscheidung schließt das direkte Entfernen von CO2 aus der Atmosphäre ein mittels Veränderungen des Landverbrauchs LUC, Aufforstung, Wiederbegrünung, Kohlenstoff-Speicherung auf Deponien und Verfahren, welche den Kohlenstoffgehalt des Bodens in der Landwirtschaft verbessern. In Teilen der Literatur, aber nicht in diesem Report, wird die Kohlenstoff-Abscheidung diskutiert.

Also ist der größte Teil der Bevölkerung nicht besser informiert, und ein Teil derselben, die Rechtsanwälte, verstehen darunter etwas ganz anderes.

Die Aufgabe, einige wenige Punkte als Hinterfragung von AGW aufzustellen, ist es, diese im meist verbreiteten und weithin verständlichem Englisch zu formulieren. Natürlich muss man etwas Klassisches überwinden: nämlich die numerisch und linguistisch ungenaue Behauptung, dass 97% aller Wissenschaftler übereinstimmen. Viel Glück!

Link: https://wattsupwiththat.com/2018/09/23/explaining-global-warming-to-the-public-is-impossible-because-we-are-not-talking-the-same-language/

Übersetzt von Chris Frey EIKE




Wir müssen alle Opfer für die Umwelt bringen (aber ich meinte Sie – nicht mich!)

In Hamlets berühmtester Rede prophezeite er, dass ein Möchtegern-Attentäter „am Ende von seinen eigenen Missetaten eingeholt werden könnte“. Mit „Missetaten“ ist hier eine Bombe gemeint, folglich bedeutet dieser Satz einfach, dass der Bombenbauer von seiner eigenen Bombe hinweg gepustet werden könnte. Heute ist die Shakespear’sche Phrase ein allgemeines Sprichwort, eine andere Art zu sagen „in die eigene Grube gefallen“ oder „was man gibt, kommt tausendfach zurück“.

Die Beamten von San Francisco lernen wieder einmal die Bedeutung des Wortes „Sünden“ kennen, kämpfen sie doch mit Wasserknappheit. Viele Male hat das Thema gefährdete Spezies auf einige der unnachgiebigsten Umwelt-Campaigner sowie deren gewählte Vertreter zurückgeschlagen (San Francisco ist Gründungsort und Hauptquartier des Sierra Clubs). Und doch hat die Stadt niemals ihrem „heiliger-als-man-selbst“-Umweltaktivismus gehuldigt. Als beispielsweise Präsident Trump den Rückzug aus dem Paris-Abkommen verkündete, verkündete San Francisco, auf jeden Fall weiter dem Ziel zu folgen, den lokalen Verbrauch fossiler Treibstoffe zu limitieren. Die Stadt verbannte Plastik-Trinkhalme, Einkaufstüten und Styropor und forderte sogar die Installation von Solarpaneelen auf Privathäusern. Falls das auf der industriellen Wunschliste steht, weist San Francisco den Weg.

Genauso: Wenn Aktivisten dort darauf bestehen, mehr Wasser in den Flüssen zu lassen, um den Lachs zu schützen, meinen sie das Wasser der Farmer im Central Valley – und nicht ihr eigenes Wasser. Staatliche Behörden machten Vorschriften, und Restriktionen bzgl. Wasserverbrauch wurden den Farmern im Süden 25 Jahre lang aufgezwungen. Hunderte Milliarden Gallonen Wasser, welches eigentlich für die Bewässerung vorgesehen war, flossen jedes Jahr in den Ozean, anstatt durch das Kalifornien-Aquädukt in das Central Valley zu strömen. Der Lachs ist trotzdem gefährdet. Und die zuständige Behörde, das California Water Resources Control Board, hat nichts Eiligeres zu tun, als weitere Restriktionen bzgl. Wasser auf den Weg zu bringen, dieses Mal einschließlich des Wassers, das für die Versorgung der Stadt San Francisco vorgesehen ist.

In öffentlichen Anhörungen dazu hagelt es wütende Proteste. Der Plan würde die Durchflussmenge in den Flüssen Tuolumne, Stanislaus und Merced verdoppeln, was für die Lachse mehr Wasser übrig lässt, aber weniger für die Stadt – viel weniger. Es könnte eine Reduktion von 300.000 bis 675.000 Kubikfuß Wasser für die Bay Area bedeuten.

Die Wasserversorgung von San Francisco war über ein Jahrhundert kontrovers, aber heute ist es mit das sauberste Wasser in den USA. Ursache hierfür ist der Ursprung des Wassers im Hetch Hetchy-Reservoir im Yosemite National Park. Die verlorene Schlacht gegen den Bau jenes Dammes war ein Schlachtruf vom Gründer des Sierra Clubs John Muir. Der Damm wurde trotzdem gebaut und hat seit den zwanziger Jahren Wasser aus dem Tuolomne River nach San Francisco geliefert sowie zu Farmen nahe Modesto. Aber die Wasserrechte von San Francisco sind den landwirtschaftlichen Rechten untergeordnet, so dass tatsächlich die Stadt selbst Schauplatz der stärksten Reduktionen sein könnte.

Die Führer der Golden Gate-Stadt sind empört. Sie hatten niemals daran gedacht, dass die von ihnen auf den weg gebrachten Wasser-Reduktionen irgendwelche Auswirkungen auf sie selbst haben würden. Eine lokale Gruppe, die sich „Restore Hetch Hethcy“ nennt [restore = erhalten, wiederherstellen] kämpft dafür, den Damm abzureißen, und stellte dieses Vorhaben in einer lokalen Wahl zur Diskussion. Aber die Wähler in San Francisco stimmten dagegen – sie unterstützen nur den Abriss von Reservoiren anderer Menschen, aber nicht ihre eigenen. Die Gegner zogen dann vor Gericht, und da sind sie immer noch. Ironischerweise bekämpfen sie die Stadt selbst, welche argumentiert, dass die Legalität von Hetch Hetchy „settled“ und dass die Wasserversorgung aus dieser Quelle unverzichtbar ist. Das Reservoir erzeugt bedeutende Mengen Strom aus Wasserkraft und liefert Wasser für 2,7 Millionen Anwohner und Industrien in über einem Dutzend Städte in der Bay Area. Der Lachs scheint den Führern der Stadt irgendwie weniger wichtig zu sein.

Ihre Alternative: Der Staat muss viel mehr für die Wiederherstellung des Flusses aufwenden, einschließlich den Schutz der Fische. Aber selbst wenn das dem Lachs hilft, würde es die Umwelt-Industrie nicht befriedigen, welche immer neue Wasser-Restriktionen haben möchte.

Vielleicht kann man den Wasser-Gewaltigen im gesamten Westen ihre Denkweise „Willkommen in unserer Welt“ vergeben, falls San Francisco sich an seinen eigenen Vorgaben verschluckt. Es ist eine Welt, die zu erschaffen die Stadt half.

[Originally Published at Greg Walcher’s Website]

Link: https://www.heartland.org/news-opinion/news/we-must-all-sacrifice-for-the-environment-but-i-meant-you–not-me

Übersetzt von Chris Frey EIKE




Wird der Südwesten/Süden Deutschlands kälter?

Deutschlands Südwesten gilt als das Wärmezentrum Deutschlands, nicht zuletzt auch deshalb, weil das Gebiet über die Burgundische Pforte mit Warmluft aus dem Süden Frankreichs versorgt wird. In unserem Artikel über Freiburg konnten wir überraschenderweise einen Temperaturrückgang verzeichnen, woran sicherlich die Stationsverlegung ein Hauptgrund sein dürfte. Aber nicht nur.

Abb.1 Seit 30 Jahren zeigt die Wetterstation der Stadt Freiburg im warmen Südwesten Deutschlands eine deutliche Abkühlung. Das wärmste Jahr war das Jahr 2000.

Im Falle der südbadischen Hauptstadt haben wir es mit einem negativen Wärmeinseleffekt zu tun. Schaut man sich den Temperaturverlauf jedoch genauer an, dann erkennt man den fallenden Temperaturverlauf jedoch bereits ab dem Jahre 2000 und die Wetterstation stand noch 7 weitere Jahre am selben Platz in der Innenstadt. Damit stellt sich für einen Klimawissenschaftler die Frage zwangsläufig: Hätte sich Freiburg auch minimalst abgekühlt ohne die Verlegung der Wetterstation in den Außenbezirk? Dabei muss man wissen, dass die Einwohnerzahl Freiburgs und damit der menschengemachte WI-effekt auch in den letzten 30 Jahren besonders stark zugenommen hat.

Wir erweitern die Frage durch den Zusatz: Wird etwa das gesamte Umland, insbesondere der ganze Regierungsbezirk Freiburg oder gar der Süden Deutschlands in der unbebauten Fläche kälter? Dazu suchen wir weitere DWD-Wetterstationen möglichst außerhalb einer städtischen Bebauung. Ganz außerhalb in der freien Fläche haben wir keine gefunden.

Fündig wurden wir in Wolfach. Wolfach ist eine Kleinstadt mit knapp 6000 Einwohnern im Mittleren Schwarzwald im Kinzigtal, das sich zur Rheinebene hin öffnet, gute 40 km nordöstlich der Stadt Freiburg. Die automatische Wetterstation des DWD ist im Klimagarten der seit vielen Jahrzehnten nach den Standards der WMO und des DWD aufgebauten und betriebenen Station der Stern- und Wetterwarte Wolfach errichtet. Dieser Standort liegt ganz am Rand, eher außerhalb des Siedlungsbereichs der Gemeinde Wolfach auf 291m Höhe.

Abb.2: Die Wetterstation Wolfach liegt im östlichen Außenbereich der Stadt im Kinzigtal. Auf unserer Karte rechts unten.

Während in Wikipedia eine Klimaerwärmung für die Stadt Freiburg entgegen den Messdaten der Freiburger Station fälschlicherweise behauptet wird, findet man über Wolfach nichts. Die Durchschnittstemperatur über die letzten 30 Jahre beträgt etwa 10 C und damit um einiges höher als der DWD-Schnitt.

Die Grafik der letzten 30 Jahre bestätigt eine leichte Abkühlung für die Station Wolfach.

Abb.3. Die DWD-Wetterstation Wolfach in Deutschlands Südwesten zeigt seit 30 Jahren eine leichte Abkühlung. Abkühlung ist das Gegenteil einer Erwärmung. Das wärmste Jahr der letzten 30 Jahre war wie in vielen Orten im Süden mit geringem WI-effekt das Jahr 1994.

Zum Vergleich der DWD-Deutschlandschnitt aus über 1800 Stationen, die meisten stehen direkt im Wohngebiet der Städte und Gemeinden oder an Flugplätzen.

Abb.4: Die mehr oder weniger stark WI-behafteten DWD-Stationen zeigen eine moderate Erwärmung in den letzten 30 Jahren.

Und dieses Jahr 2014 gilt auch offiziell als das wärmste Jahr Deutschlands. Diese Feststellung ist naturwissenschaftlich falsch ausgedrückt. Bei den WI-armen Stationen – siehe Wolfach – war entweder 2000 oder bereits 1994 das wärmste Jahr innerhalb der letzten 30 Jahre.

Doch wieder zurück zu Deutschlands Südwesten: Mit Wutöschingen-Ofteringen bei Waldshut-Tiengen haben wir eine weitere WI-arme Station gefunden. Die seit 1961 bestehende Nebenamt-Station liegt auf 398 m Meereshöhe im Wutachtal zwischen Schwarzwald und Randen (Ausläufer des Jura). Das Tal verläuft von Nordost nach Südwest und entwässert einen großen Teil des Südschwarzwaldes in den Rhein bei Waldshut-Tiengen. Die jährliche Niederschlagsmenge (1961-90) liegt bei 993 mm

Abb.5: Station Wutöschingen-Ofteringen, nördlich des kleinen Weilers Ofteringen auf 398 m Meereshöhe. – siehe gelbe Markierung- Allerdings trägt das dunkle Band der in unmittelbarer Nähe verlaufenden Bundesstraße B 314 viel Wärme in die Umgebung ein, ebenso wie die Häuserumgebung. Die Station ist deshalb nur WI-arm.

Die Bundesstraße 314 und der in den letzten 30 Jahren überall zunehmende Verkehr – die Ofteringer beklagen insbesondere die Zunahme des Schwerlastverkehrs – bringt viel Wärme in die Umgebung des Thermometers ein. Schließlich sind Straßen wie Wärmebänder in der Landschaft. Da die Straße von Nord nach Süd verläuft und zudem leicht in Richtung Süden zum Rhein hin abfällt, dürfte der dunkle Asphaltbelag im Sommer durchaus 50 C heiß werden und nachts die gespeicherte Wärme abstrahlen und damit der nächtlichen Abkühlung in Wetterstationsnähe entgegenwirken

Trotzdem zeigt die in unmittelbarer Nähe sich befindende Wetterstation keine Erwärmung.

Abb.6: Obwohl die Wetterstation unmittelbar neben einer breiten Straße steht, zeigt Wutöschingen-Ofteringen über die letzten 30 Jahre keine Erwärmung.

Wir weisen nochmals auf den sicherlich vorhandenen WI-effekt in der Grafik hin. 2014 ist wärmer als 2000 und reicht fast an 1994 heran. Außerdem ist das Jahr 1996 um einiges kälter als 2010. Der zunehmende WI-effekt des kleinen Ortes verhinderte die noch kühlere Temperatur fürs Jahr 2010. Bei wirklich WI-armen Stationen im Süden unterscheiden sich beide Kältejahre nur geringfügig, bisweilen ist auch 2010 kälter als 1996

Wir gehen davon aus, dass Wutöschingen-Ofteringen ohne die Zusatzheizung der Bundesstraße 314 auch eine leicht fallende Trendlinie, ähnlich wie Wolfach hätte. Der DWD müsste die Messstation nur gute 100m weiter weg stellen.

Wird der Südwesten Deutschlands kälter? Die Antwort ist nicht mit einem Ja oder Nein zu beantworten. Es kommt auf die Lage der Wetterstation an und auf die nähere und weitere Umgebung. Zur Beantwortung der Frage bräuchte man Wetterstationen, deren weiteres Umfeld sich in den letzten 30 Jahren überhaupt nicht geändert hätte. Und diese Bedingung finden wir fast nirgendwo vor. Deshalb treffen wir die vorsichtige Einschätzung.

Unser Ergebnis: Im Süden und Südwesten sinken in der freien Landschaft die Temperaturen in den letzten 30 Jahren.

Zur Untermauerung unserer Aussage greifen wir auf zwei weitere Messstationen zurück, die sich ebenfalls außerhalb oder am Rande des Siedlungsgebietes befinden:

Memmingen: Die Klimastation steht im Stadtgarten in Friedhofsnähe, also einer Art Parklandschaft. Allerdings verläuft die Autobahn nach München in unmittelbarer Nähe.

Abb.7: Auch in Memmingen stagniert die Erwärmung seit 30 Jahren. Die Station steht nicht in einer wärmenden Siedlung, sondern im Stadtgarten, der Friedhof schließt sich an

Mittenwald

Die Wetterstation steht nördlich des Ortes in den unbebauten Buckelwiesen mit Einzelgehöften

Abb.8: Auch der Wintersportort Mittenwald zeigt seit 30 Jahren keine Klimaerwärmung trotz moderater Bebauung und Zunahme der Touristen, der Wintersportler und des Straßenverkehrs im Ort selbst.

Gerade in Deutschlands Süden und Südwesten nehmen die Einwohnerzahlen und die Industrialisierung zu, ebenso der Verkehr und die Touristenströme. So hat z.B. Freiburg in den letzten 60 Jahren seine Bevölkerung verdoppelt. Wetterstationen ganz außerhalb von Orten zu finden ist fast unmöglich, da die Orte mitsamt Industrie stark anwachsen, ebenso wie die Grundstückpreise. Die Ortsränder fressen sich in die einst freie Fläche hinein. Deshalb kann in Südbaden und im Alpenvorland auch eine freie Landschaftsfläche nicht mehr ganz WI-frei sein.

Abkühlungsgründe: Im folgendem wollen wir ergründen, weshalb der Süden/Südwesten Deutschlands außerhalb stark wachsender Gemeinden zur Abkühlung neigt.

Ein möglicher Abkühlungsgrund mancher Stationen ist die Häufigkeitsentwicklung der Großwetterlagen und die Entwicklung der Sonnenscheindauer in den letzten 30 Jahren. Während bei langfristiger Betrachtung, also über mehr als 50 Jahre, die Häufigkeit der im Jahresmittel besonders erwärmend wirkenden West- und Südwestlagen zu- und die der kühlenden NW-, N-, NE-, Skandinavien-Hoch- und TM-Lagen abnahm, zeigt sich über die vergangenen 30 Jahre ein anderes Bild:

Abb. 9: Mehr im Jahresmittel kühlende Großwetterlagen (dunkelblau) in den letzten 30 Jahren, weniger wärmende. Großwetterlagenklassifikation nach HESS/BREZOWSKY. Wegen einer in Deutschland aber im selben Zeitraum zunehmenden Sonnenscheindauer, von der besonders WI-belastete Orte profitierten, konnte sich diese wetterlagenbedingte Abkühlung nur an WI- armen Orten mehr oder weniger deutlich bemerkbar machen.

Was die erwärmend wirkende Sonnenscheindauer betrifft, so hat diese in ganz Deutschland, aber auch in Südwestdeutschland, während der vergangenen 30 Jahre merklich zugenommen, was die wetterlagenbedingte Abkühlung überkompensierte. Stark WI-belastete Orte profitieren einerseits besonders von einer erhöhten Sonnenscheindauer und erzeugen diese andererseits auch selbst, weil dort die für Dunst-, Nebel- und Wolkenbildung erforderliche Verdunstung vermindert ist. Leider liegen für viele der Nebenstationen keine oder nur lückige Sonnenscheinaufzeichnungen vor. Am Beispiel der erwärmungsträgen, WI-armen Station Rosenheim in Bayern lässt sich aber zeigen, dass sich an solchen ungestörten Orten die Sonnenscheindauer besonders im Sommerhalbjahr (nur da wirkt die höhere Sonnenscheindauer stark erwärmend) möglicherweise nicht erhöht hat; weitere Untersuchungen hierzu werden folgen, dauern aber bei der unbefriedigenden, komplizierten Datenlage sehr lange.

Abb.10: Seit 30 Jahren wird das Sommerhalbjahr am Hohenpeißenberg (grün), der einen starken Erwärmungstrend im Jahresmittel zeigt, sonniger, in Rosenheim nicht.

Erg: Wärmeinselarme Wetterstationen im Süden Deutschlands zeigen bereits seit 30 Jahren keine Erwärmung mehr. Wir gehen davon aus, dass in der freien Fläche, das sind 85% des Landes, sogar eine leichte Abkühlung stattgefunden hat.

Anmerkung: Auch in anderen Regionen Deutschlands haben wir WI-arme Standorte mit Erwärmungsstagnation oder gar einem Abkühlungstrend während der letzten 30 Jahre gefunden. Dazu später. Sie sind jedoch nicht so gehäuft wie im Süden.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Lasst Kohlenstoff-Steuern im Boden!

Inzwischen ereignete sich Folgendes:

Doug Ford wurde neuer Premierminister von Ontario, indem er heftig gegen Kohlenstoff-Steuern und teuren Wind- und Solarstrom vorgegangen war, welcher den Kanadiern immer saurer aufstößt. Er eliminierte sofort 2 Milliarden Dollar an Steuern pro Jahr, indem er 200 stark subventionierte Projekte erneuerbarer Energie auf Eis lege, welche sein Vorgänger auf den Weg gebracht hatte. Inzwischen sieht sich die Trudeau-Regierung zunehmendem Widerstand gegen ihre Pläne ausgesetzt, eine stetig steigende Kohlenstoff-Steuer einzuführen.

In Australien bedeutet die Ernennung von Angus Taylor zum Energieminister, dass Wind- und Solar-Subventionen ihrem raschen Ende entgegen gehen. Dies wird zweifellos die Bewohner von Süd-Australien sehr freuen. Dort hat ein Erneuerbaren-Programm von 50% die weltweit höchsten Strompreise zur Folge sowie zwei Wochen mit Null Wind/Null Strom innerhalb von zwei Jahren (September 2016 und 2018) und außerdem den Umstand, dass etwa 200.000 Familien sich Strom nicht mehr leisten können,

Die Solarindustrie in Deutschland kollabiert gerade, und deren Subventionen stürzen ab. Das Ende von Subventionen für Windräder ist für das Jahr 2020 geplant. Historische Dörfer und Wälder wurden planiert, um den Kohleabbau als Treibstoff für neue Kraftwerke zu fördern, und die „Grüne Partei“ des Landes hat eingeräumt, dass eine „Dekarbonisierung“ der deutschen und der Weltwirtschaft nur erreicht werden kann, indem weltweit die Demokratie beschnitten oder ganz eliminiert wird (hier).

Und dennoch – wie die Monster von Dracula: Eingaben für eine Kohlenstoff-Steuer feiern die Auferstehung von den Toten.

Viele große Unternehmen, die republikanische Politiker Jim Baker, Hank Paulson und George Schultz und deren Klima-Führungsrat behaupten jetzt, dass 56% der Amerikaner eine Besteuerung von Kohlenstoff befürworten, während nur 26% dagegen sind. Das jedenfalls geht aus ihrer jüngsten Umfrage hervor. Da fragt man sich natürlich – wie in aller Welt kann das sein?!?

Nun, zunächst einmal: Sie haben es nicht eine ,Steuer‘ genannt, sondern clever als eine „Kohlenstoff-Dividende“ etikettiert (wer mag Dividenden nicht?) und behauptet, dass „die große Mehrheit amerikanischer Familien“ irgendwie als Sieger daraus hervorgeht, wenn sie implementiert wird. In der Umfrage wurde nicht darauf hingewiesen, dass ihre Pläne von unserem immer freundlichen Internal Revenue Service [IRS = das US-Finanzamt] kontrolliert würde oder dass die Steuer bei 43 Dollar pro emittierter Tonne Kohlenstoff beginnen würde.

Ebenfalls nicht erwähnt hat man, dass die Steuer Gießereien, Fabriken, Raffinerien, Kohle- und Gaskraftwerken, anderen industriellen Einrichtungen und sogar (mit geringerer Rate) Erzeugnissen aus anderen Ländern auferlegt werden würde. Auch fehlt jeder Hinweis, wie sehr diese Berater, Unternehmen und Tausende Mitglieder des globalen Klima-industriellen Komplexes im Wert von 2 Billionen Dollar finanziell von diesen Dingen profitieren würden.

Was genauso wichtig ist: fortwährende Beteuerungen, dass „marktbasierte“ Kohlenstoff-Steuern wie diese 43 Dollar-por-Tonne-Version „einkommensneutral“ seinen, dass die Zusatzbelastung an die Steuerzahler zurückfließt in Gestalt von Steuernachlässen anderswo, und dass die Gelder verwendet werden, um das Haushaltsdefizit zu reduzieren, sind allesamt illusorisch. Kann der Rat irgendwie garantieren, dass der nächste Kongress nicht (sofort) diese „net-gain“-Provisionen umkehren würde?

Aber spielen wir mal das A und O der „Kohlenstoff-Steuern“ und „sauberer, erneuerbarer“ Energie durch.

Der emeritierte Professor am MIT Richard Lindzen weist darauf hin, dass jene, die den Kohlenstoff kontrollieren, auch das Leben kontrollieren. Und man mache sich keine falschen Vorstellungen: Dies sind Steuern auf kohlenstoffbasierte Treibstoffe – also auf 83% der Energie, die wir verbrauchen. Es sind Steuern auf alles und jedes, was wir machen, transportieren, essen und tun – auf unser Leben, unsere Lebensweise und unseren Lebensstandard, auf das Transportwesen, Heizung, Kühlung, Gesundheitsvorsorge, Kleidung und überhaupt auf alles, was wir berühren.

Mit dem Gebrauch des Wortes „Kohlenstoff“ suggerieren die Befürworter der Steuer trügerisch, dass sie Ruß, Verschmutzung und giftige Emissionen besteuern wollen. Aber mit den modernen Filtern und anderen verschmutzungshemmenden Kontrollen, ist das, was heutzutage aus den Schornsteinen der Kraftwerke und Fabriken kommt, fast nur noch Wasserdampf und Kohlendioxid.

Fossile Treibstoffe sind das, was unseren gesundheitlichen und ökonomischen Fortschritt der letzten 150 Jahre überhaupt erst ermöglichte – und dies auch weiterhin tun. Kohlenstoff (Kohle, Öl und Erdgas) ist das, was wir zur Stromerzeugung verbrennen, um Fabriken zu betreiben und Fahrzeuge zu fahren. Kohlendioxid ist das, was durch diesen Verbrennungsprozess erzeugt und emittiert wird.

Also wollen diese Klima-Führer Kohlendioxid besteuern: Das Gas des Lebens, dieses Wunder-Molekül, welches wir ausatmen und welches das Leben auf der Erde überhaupt erst möglich macht. Tatsächlich ist es so: je mehr CO2 sich in der Luft befindet, umso schneller und besser wachsen Getreide, Wälder und Wiesen; umso besser überstehen sie Dürren, Krankheiten und Viren. Ein zunehmendes atmosphärisches CO2-Niveau lässt die Erde tatsächlich „ergrünen“, einschließlich der Wälder auf der ganzen Welt.

Das Ziel des Gremiums ist es, „fossile Treibstoffe im Boden zu lassen“ und den Übergang zu Wind, Solar, Äthanol und andere „erneuerbare“ Energie zu forcieren. Im Zuge dieses Prozesses sind diese Aktivisten, Politiker, Lobbyisten und verschworenen Unternehmer unglaublich reich geworden und trachten nach zunehmender Kontrolle der globalen Ökonomien und des Lebensstandards.

Wie wären Sie von 43 Dollar pro metrischer Tonne Kohlendioxid betroffen? Es würde die Stromrechnungen und Benzinkosten auf die exorbitanten Preise steigen lassen, welche Familien und Geschäfte schon jetzt in Kalifornien, Dänemark und Deutschland zahlen. Jeder Aspekt des Lebens wäre betroffen. Millionen Arbeitsplätze würden verloren gehen. Hierzu nur ein Beispiel: Ein Krankenhaus, welches derzeit 8 Cent pro kWh und 1,6 Millionen Dollar pro Jahr zahlt, würde damit konfrontiert, dass dessen Stromkosten um nachhaltige 2 Millionen Dollar jährlich steigen würden!

Und der Clou von all dem: All diese unglaublichen Lasten und Freiheitsverluste würden bzgl. Klima keinerlei Vorteile mit sich bringen. Selbst wenn man einmal annimmt, dass Kohlendioxid an die Stelle der Sonne und anderer mächtiger natürlicher Kräfte getreten ist, welche das Klima der Erde steuern – arme Nationen verbrennen jedes Jahr immer mehr auf Kohlenstoff basierende Treibstoffe, emittieren mehr CO2 und andere Treibhausgase und bauen oder planen, etwa 1600 neue Kohlekraftwerke zu errichten.

Es ist blanker Unsinn zu behaupten, dass 400 ppm CO2 und ein weiteres Grad Celsius globale Erwärmung „beispiellose Kataklysmen“ und „existentielle Bedrohungen“ für den Planeten und die Menschen bedeuten. Kohlendioxid mag gewisse Auswirkungen haben, aber zu sagen, dass es das Klima kontrolliert, ignoriert die glazialen und interglazialen Perioden des Pleistozäns, die Römische und die Mittelalterliche Warmzeit, die Kleine Eiszeit, die Dürren [während der 1930-er Jahre in den USA], die rekordlange Zeit von 12 Jahren, ohne dass auch nur ein einziger starker Hurrikan auf das US-Festland getroffen ist (hier) sowie andere natürliche Wetter- und Klimaänderungen.

Wissenschaftler wissen heute einfach noch nicht genug über das Erdklima oder die Ursachen von Klima-Fluktuationen in der Vergangenheit und können noch nicht einmal menschliche von natürlichen Einflüssen trennen – geschweige denn zukünftige Klimaänderungen vorhersagen.

Arme Länder, die das Paris-Abkommen unterzeichnet haben, erhoffen sich pro Jahr 100 Milliarden Dollar jährlich für „Klima-Anpassungs- und -Abschwächungsmaßnahmen“. Das Geld soll von (derzeit noch) wohlhabenden Ländern kommen, von denen das Abkommen verlangt, dass sie ihre Kohlendioxid-Emissionen senken müssen, während jetzt arme Nationen die ihren steigern. Weil reiche Länder nicht willens oder in der Lage sind zu zahlen, dürfte der Vertrag auf der nächsten Klimakonferenz COP 24 in Polen wie ein Kartenhaus in sich zusammenfallen.

Last but not least: erneuerbare Energie ist weder erneuerbar noch sauber, noch grün oder nachhaltig. Die Herstellung von Windturbinen, Solarpaneelen, Batterien als Backup und ultralange Überlandleitungen erfordern die Beseitigung von Milliarden Tonnen Gestein und Boden, um Millionen Tonnen hochgiftiger seltener Metalle, Kalkstein, Mangan, Kupfer, auf Petroleum basierendes Fiberglas und andere Materialien zu extrahieren – und all das auf der Grundlage fossiler Treibstoffe.

Die notwendigen Exoten-Materialien stammen aus der Mongolei, aus China und dem Kongo, wo sie unter minimalen bis nicht existenten umweltlichen, gesundheitlichen und Sicherheits-Standards gewonnen werden. Aber das sind die Hinterhöfe von Anderen, so dass Klima-Aktivisten sich damit brüsten und die Emissionen, Zerstörung von Habitaten, Wasserverschmutzung, Auswirkungen auf die Gesundheit und frühzeitige Todesfälle getrost ignorieren können.

Kein Wunder, dass die Alarmisten auf ihrem globalen Klimazirkus nonstop Phrasen dreschen, 1 Milliarde Dollar pro Jahr einheimsen für Klima-Aktivismus und „Bildung“ sowie die Zusammenarbeit mit und für Gouverneure der Demokraten und General-Staatsanwälten, um ihre radikale Agenda voranzutreiben, Gesetze und Vorschriften zu erzwingen und um Skeptiker bzgl. des Klima-Chaos‘ anzugreifen und sogar zu verfolgen.

Was im Boden bleiben muss sind nicht die fossile Treibstoffe, welche unsere modernen Gesundheits- und Lebensstandards erst möglich machen und das Pflanzenwachstum anregen. Im Boden bleiben müssen die Vorschläge zur Besteuerung von Kohlenstoff. Mögen Vernunft und Realität endlich Einzug halten!

About the Author: Paul Driessen is senior policy advisor for CFACT and author of Cracking Big Green and Eco-Imperialism: Green Power – Black Death.

Link: http://www.cfact.org/2018/09/16/keep-carbon-taxes-in-the-ground/




Und wieder ändert sich die Welt und das Klima

Das Erreichen dieser Meilensteine erforderte natürlich, dass sich Regierungen, Industrien, Fachleute, Lehrer und Studenten für diese Ziele ins Zeug legten – und nicht Extrem-Umweltaktivisten, die ewig nur gegen etwas sind oder jeden technologischen Fortschritt blockieren.

Traurigerweise haben seit den sechziger Jahren viele Stiftungen und Organisationen, große Teile der Medien und viele Individuen hart daran gearbeitet, jeden Fortschritt zu verhindern. Sie wollen Energie- und Mineral-Schätze in der Erde lassen und bestehen darauf, dass nichts, was die Menschheit macht, sicher genug ist. Extrem-Umweltaktivisten scheinen dazu ausersehen, die Welt zu kontrollieren.

Milliarden Menschen würden leiden und sterben

Es scheint für sie keinen Unterschied zu machen, dass Milliarden Menschen leiden und sterben würden ohne die Vorteile fossiler Treibstoffe und deren ungeheure Vielfalt lebensverbessernder und -rettender Nebenprodukte.

Es sind vier Organisationen, welche die globalen Kampagnen gegen fossile Treibstoffe und Kernkraft anführen: Union of Concerned Scientists, Natural Resources Defense Council, Sierra Club und Greenpeace. Viele andere springen ihnen bei – froh und stolz.

In entschlossener Opposition zu diesen inhumanen Bemühungen stehen vier Organisationen, welche tatkräftig Bemühungen unterstützen, mittels Entwicklung von Technologien eine bessere Welt zu schaffen. Es sind dies das Committee For A Constructive Tomorrow, Cornwall Alliance, Nuclear Africa und Association des Ecologistes pour le Nucléaire. Viele andere sind ihnen zu Hilfe geeilt – in dem Bemühen, Verbesserungen für Menschen und Planeten zu erreichen.

Viele Individuen haben mittels Verbrauch von fossilen Treibstoffen und Kernkraft zu einer Verbesserung der Welt beigetragen. Die Welt schuldet ihnen große Dankbarkeit. Über 800 ihrer Artikel, Power Point-Präsentationen, Bücher und Videos gibt es hier.

Nachdem sie Jahrzehnte lang an vorderster Front der Hilfe für die Menschheit standen, haben die USA und Europa traurigerweise in großem Umfang ihre auf Kernkraft basierende Hilfe für die übrige Welt aufgegeben. Zusammen mit den UN, der Weltbank und vielen multinationalen Entwicklungsbanken unterstützen sie nicht einmal mehr in großem Stil Kohle-, Erdgas- oder hydroelektrische Projekte zur Energieerzeugung. Seit mindestens einem Jahrzehnt hat sich ihre finanzielle und technologische Assistenz um unzuverlässige und wetterabhängige Wind-, Solar- und Biotreibstoff-Projekte gruppiert.

Ironischerweise machen inzwischen China und Russland gewaltige Fortschritte bzgl. der Verbesserung des Lebens ihrer Bürger und Menschen in anderen Ländern – wenngleich auch zwischen teurer militärischer Aufrüstung, aggressiver territorialer Ausbreitung und Restriktionen für ihre Länderkunden.

Rosatom und Gazprom in Russland bieten anderen Ländern teure Energie- und Unterstützungs-Projekte an. China nutzt seine neue Energie-Kompetenz und ökonomische Stärke, um auf der ganzen Welt immer mehr Einfluss sowie Zugang zu Ressourcen zu gewinnen. Damit will das Land seine eigenen kritischen Energie- und Rohstoff-Bedürfnisse decken.

Das Klima der Erde ändert sich – zumeist aus komplexen natürlichen Gründen

Ja, die Welt ändert sich rapide. Völker wachsen und werden wohlhabender, gesünder und widerspenstiger. Technologien erzielen in beispiellosem Tempo Fortschritte. Das Klima der Erde ändert sich, zumeist aus komplexen natürlichen Gründen.

Regierungen und ökonomische Führer müssen sich mit ihnen ändern. Die beste Zukunft für die meisten Menschen sind u. A. stabile Regierungen, starke Ökonomien, Freiheit, Gleichheit, Respekt für andere Menschen und die Umwelt sowie bessere Planung für Mega-Städte. Das ist alles machbar und dürfte die Welt zu einem viel besseren Ort machen.

Würgegriff auf freie Ökonomien

Falls jedoch extremistische Umweltorganisationen und feindliche äußere Kräfte damit fortfahren, ihren Würgegriff auf freie Ökonomien aufrecht zu erhalten, werden Länder dahin siechen. Neue Mächte werden an die Stelle jener treten, welche in unterschiedlicher Gestalt hunderttausende Jahre lang existiert haben. Eroberungen haben in der Vergangenheit kontinentale und globale Änderungen mit sich gebracht, und diese Versuche werden weitergehen. Überwältigt von außen werden einige Länder untergehen, während ein Kollaps von innen heraus anderen Ländern das gleiche Schicksal beschert.

Die Öko-Experten stützen Solarpaneele und schreiben große Berichte (z. B. hier) darüber, wie die Menschheit vermeintlich großräumige Verschmutzungen anrichtet, welche zu einem katastrophalen, vom Menschen verursachten Klimawandel führen und welche die Bewohnbarkeit von Menschen sowie Flora und Fauna in vielen Teilen der Welt beenden wird. Viel zu viele Personen in den Medien – sogar im Forbes magazine – verbreiten deren Propaganda und verleihen ihnen weit mehr Aufmerksamkeit als sie verdienen oder als sie selbst je erregen könnten.

Die Folge ist, dass immer mehr Menschen die zuverlässige und bezahlbare Energie vorenthalten wird, die sie brauchen, um ihr Leben und ihre Lebensstandards zu erhalten und zu verbessern. Es ist nichts weiter als eines von vielen Beispielen, wie extrem-umweltaktivistische Bemühungen die USA und Europa schwächen. Es wird die Welt der grundlegenden Stützen von Demokratie, Freiheit und ökonomischem Wohlstand berauben.

Vor Kurzem stand in einem Report von Eco Experts zu lesen, was deren Ansicht nach die zehn schmutzigsten Städte der Welt sind (hier). Auf der Liste finden sich u. A. Paris, Istanbul, Moskau, Shanghai, Guangzhou und Los Angeles. Während nur wenige Städte so sauber sind wie Zürich, blühen in diesen sechs Städten Wirtschaft und Tourismus, gibt es dort eindrucksvolle Bauwerke und kulturelle Attraktionen – und allgemein sehr saubere Luft und Wasser.

Der Eco Experts-Report ist äußerst irreführend und ignoriert weitgehend wirkliche urbane Probleme. In den fünfziger Jahren war die Luft in London und Pittsburgh schmutziger als jemals in Paris oder Istanbul. Der Sprecher der Cornwall Alliance Calvin Beisner schreibt in seiner vernichtenden Kritik (hier), dass der „Eco Expert“-Report sämtliche urbanen Probleme in der realen Welt in entwickelten und Entwicklungsländern gekonnt umgeht.

Die wirklichen Faktoren für menschliches Leiden und verkürzte Lebenserwartung

Welche wirklich führenden Faktoren sind es denn nun, welche Menschen leiden lassen und deren Lebenserwartung verkürzen? Bösartige Diktatoren (Hitler, Stalin, Mao Tse Tung), korrupte Politiker, rücksichtslose Geschäftsleute (Ken Saro-Wiwa) – und Öko-Imperialisten (wie Paul Driessen hier dokumentiert hat). Das sind die Hauptgründe dafür, dass Milliarden Menschen immer noch nicht über eine zuverlässige Energieversorgung, gesunde Ökonomien, gesteigerten Wohlstand, gute Gelegenheiten oder auch bessere Bildung, Gesundheitssysteme, Trinkwasser, Kanalisation und Abfallwirtschaft verfügen.

Extremistische Umweltbanden konzentrieren sich auf sehr geringe Mengen extrem kleiner Luftpartikel und Kohlendioxid, dieses ungiftige Spurengas, welches so unabdingbar ist für fast das gesamte Tier- und Pflanzenleben. Das ist absolut falsch. Der zwangsweise Ersatz von von fossilen Treibstoffen und Kernkraft durch Wind- und Solarenergie schwächt die Energieversorgung – und verursacht Leiden, Chaos und frühzeitigen Tod für Millionen. Im Gegensatz dazu bleiben Länder, die an fossilen Treibstoffen und Kernkraft festhalten, stark.

Ein zweiter Report von Eco Experts ist genauso absonderlich. Darin wird deren Prophezeiung beschrieben, welche Länder vermeintlich nicht den menschengemachten Klimawandel überleben werden (hier). Geht man rund um den Globus auf der gleichen geographischen Breite, könnte man ähnliche Ergebnisse erwarten. Aber ihre Farbcodierung des Risiko-Niveaus ist nicht konsistent. Aus Grönland gibt es gar keine Daten, während das benachbarte und genauso datenfreie Nordkanada das niedrigste Risiko-Niveau aufweist.

Die Länder Bolivien, Zimbabwe, Madagaskar und Australien liegen etwa auf gleicher südlicher Breite. Australien mit seinem ohnehin schon sehr trockenen Klima ist kürzlich zu unzuverlässiger Wind- und Solarenergie übergegangen. Das Land ist als mit dem geringsten Risiko behaftet klassifiziert, während den üppig grünen, aber Energie-armen Ländern Bolivien, Zimbabwe und Madagaskar ein viel höheres Risiko des Untergangs durch den menschengemachten Klimawandel bescheinigt wird.

Wer kauft Solarpaneele von Eco Experts, und wer akzeptiert deren schlecht fundierte Reports über giftige Verschmutzung und den Kollaps von Ländern durch den menschengemachten Klimawandel? Paul Driessen präsentiert eine weitaus bessere Analyse, was gut war und was falsch gelaufen ist, in seinem jüngsten Vortrag [übersetzt] „Wie Wohlstand den Planeten retten kann“ [How Prosperity Can Save the Planet]. Dieser Vortrag ist eine faszinierende Reise durch die moderne Historie von Energie, Gesundheit und Wohlstand. Sehr empfehlenswert!

John Shanahan is a civil engineer and president of Environmentalists for Nuclear Energy-USA of Denver, Colorado.

Link: https://www.iceagenow.info/as-the-world-and-climate-change-yet-again/

Übersetzt von Chris Frey EIKE




Der Klimawandel führt zu mehr Unfällen in der Landwirt­schaft – meldete eine Zeitung in Österreich

Seit 1997 haben sich die Unfallzahlen halbiert, aber wegen des Klimawandels erhöht sich die Unfallgefahr …

Solche Ungereimtheiten in Berichterstattungen fallen Redakteuren heutzutage nicht mehr auf – sofern es um die Bestätigung des (AGW-)Klimawandels geht. Da darf wirklich jeder einen vollkommenen Unsinn melden, er wird redaktionell mit Begeisterung durchgewunken. Das ist nicht nur in Deutschland so [4] [6] und weiterhin in den USA [5], sondern auch im Nachbarland Österreich:
OÖ Nachrichten:[3] Der Klimawandel erhöht die Unfallgefahr in der Landwirtschaft
... 1179 Arbeitsunfälle in der Landwirtschaft verzeichnete die SVB im Vorjahr in Oberösterreich. 2016 waren es noch 995 Arbeitsunfälle. Damit steht das Jahr 2017 gegen den langjährigen Trend sinkender Unfallzahlen in der Landwirtschaft. Zum Vergleich: 1997 waren noch rund 2200 Arbeitsunfälle in der oberösterreichischen Landwirtschaft verzeichnet worden.
Wie ist dieser Anstieg der Unfallzahlen zu erklären? „Zusammengefasst kann man sagen, dass es mit der Klimaveränderung zusammenhängt. An den sehr heißen Tagen passiert schneller etwas. Die Konzentration wird schwieriger. Da misslingt rasch ein Handgriff und das kann verheerende Folgen haben“, sagt Striegl …
… Trotz der gestiegenen Unfallzahlen gibt es auch Positives zu berichten. Die Zahl der tödlichen Unfälle in der Landwirtschaft ist auch im Vorjahr von elf Toten (2016) auf sechs Tote (2017) wieder deutlich zurückgegangen.

Nachgedacht hat der Redakteur in Österreich nicht, welchen Bären ihm da der Direktor der „Sozialversicherung Bauern, SVB“ aufgebunden hat. Die Zahlen „belegen“ ja den Klimawandel und damit kann die Aussage nicht falsch sein. Nachsehen allerdings ergibt:
– Im Jahr 1997 waren es 2200 Arbeitsunfälle,
– Im Jahr 2016 waren es 995 Arbeitsunfälle (45 % vom Jahr 1997), davon elf Tote,
– im Jahr 2017 waren es 1178 Arbeitsunfälle (+ 18 % gegenüber dem Vorjahr, 54 % zum Jahr 1997), davon allerdings nur sechs Tote (55 % gegenüber dem Vorjahr)

Im Jahr 2017 waren es mehr Unfälle als im Jahr 2016, allerdings nur die Hälfte an tödlichen und insgesamt etwa die Hälfte des Jahres 1997. So etwas würde man allgemein wohl als einen starken Rückgang und damit positiv betrachten. Aber Statistik unter AGW-Klimawandel-Gesichtspunkten angewandt, kann eben auch noch das letzte, versteckte Quäntchen an grausamen Aussagen „herauskitzeln“.
Für einen Zeitungsredakteur scheint es wohl plausibel, vor allem wenn es ein leibhaftiger Direktor sagt:
Im schlimmen Unfalljahr 2017 nur 54 % der Unfälle des Jahres 1997 zu haben, ist reiner Zufall; die +18 % im Jahr 2017 gegenüber dem Vorjahr können dagegen nur Klimawandel sein, denn diese erinnern unbestreitbar an einen „Hockeystick“ und dessen typische, bestimmt „noch nie dagewesene“ Beschleunigung. Dass es gleichzeitig nur 54 % an tödlichen Unfällen gegenüber dem Vorjahr waren, scheint beide Klimaanalysten in der Analysekunst überfordert zu haben, jedenfalls wurde das in die Betrachtung gar nicht erst mit einbezogen.
(Bewusst) falscher kann man diese Daten kaum mehr interpretieren.

Könnte sich trotzdem ein Klimawandeleinfluss finden?

Die Unverfrorenheit (eigentlich sollte hier ein deutlicher beschreibendes Wort stehen) der Klimawandelinterpretation des Direktors wird allerdings erst richtig deutlich, wenn man sich ein Folienbild mit Unfallzahlen-Verlaufsdaten seiner eigenen Institution ansieht (Bild 1; 2). Seine Versicherung publizierte bereits genau das Gegenteil von dem, was deren Direktor der Zeitung erzählt hat:
(Bild 1; 2) In Österreich reduzierten sich die bäuerlichen Arbeitsunfälle von 1980 bis 2014
– Arbeitsunfälle und Berufskrankheiten: von 22.238 auf 4.763
– Tödliche Arbeitsunfälle und Berufskrankheiten: von 167 auf 77

Zur letzten Überprüfung, ob dieser Direktor nicht doch etwas besser weiß, als es der Autor recherchieren und interpretieren konnte, sind in das SVB Unfalldatenbild Temperaturverläufe hinein kopiert. Da sich keine geeignete Global-Temperaturreihe von Österreich mit Sommertemperaturen fand (wie sie beispielsweise der DWD als Datensatz für Deutschland bereitstellt), ist es eine Messreihe der Stadt Wien, in der Annahme, dass diese ganz grob auch den Globalverlauf von Österreich mit bäuerlichem Umfeld zeigt.

Damit wird ganz offensichtlich, dass das sich stetig wandelnde Klima auf gar keinen Fall einen negativen Einfluss auf die Unfallzahlen hat.

Bild 1 Entwicklung der bäuerlichen Arbeitsunfälle und Berufskrankheiten Österreich. Jahres-Mitteltemperatur Wien vom Autor zugefügt. Quelle Unfalldaten: SVB.at; Temperaturen: wien.gv.at

Bild 2 Entwicklung der bäuerlichen Arbeitsunfälle und Berufskrankheiten Österreich (Auszug). Jahres-Höchsttemperaturen Wien vom Autor zugefügt. Quelle Unfalldaten: SVB.at; Temperaturen: wien.gv.at

Sind die Landarbeiter in Deutschland Klimawandel-fester?

Wenn ein Nachbarland so stark vom Klimawandel gebeutelt zu sein scheint, ist man gezwungen nachzusehen, wie das eigene Land betroffen ist. Aus diesem Grund anbei eine vergleichende Betrachtung zu Deutschland.

Die Verlaufsübersicht über Arbeitsunfälle (Bild 3) zeigt seit 1960 – dem Beginn der Darstellung – eine stetige Verringerung der tödlichen Arbeitsunfälle. Und zwar von ca. 1700 im Startjahr auf 133 (7,8 %) im Jahr 2016. Um eine „Korrelationssicht“ zu ermöglichen, wurde in das Bild der Sommertemperatur-Verlauf von Deutschland hineinkopiert. Eindeutig ergibt sich auch hier eine stark negative Korrelation der (tödlichen) Arbeitsunfälle mit der Sommertemperatur – also ein signifikant positiver Einfluss des (AGW-)Klimawandels.
Der Autor erspart sich das Herausrechnen der Beschäftigtenzahl, da alleine schon diese Rohdaten die Angaben der Zeitung aus Österreich (nochmals bestätigend) als absurd ausweisen.

Bild 3 [1] Deutschland, tödliche Arbeitsunfälle 1960 – 2016. Grafik vom Autor um Zusatzangaben ergänzt
Fazit

Auch anhand der Daten von Deutschland lässt sich die Aussage des SVB-Direktors ausschließlich als absurd verneinen.
Zum Glück gibt es das Internet und mit google eine gute Suchmaschine (und Institutionen, welche Dateninhalte verfügbar stellen), so dass sich die Untertanen oft selbst ein Bild über die wahren Tatsachen machen können.

Das ist unseren „Oberen“ schon lange ein großer Dorn im Auge. Unser Grüßonkel Bundespräsident in Berlin hält es für geboten, die Möglichkeit der Untertanen, über das Netz die Verkündungen der staatstragenden „Intelligenz“ kontrollieren zu können, einzuschränken:
Westfalenpost 21.03.2018: Steinmeier warnt: Lügen im Netz spalten die Gesellschaft
… Wer das mit Meinungsfreiheit rechtfertige, liege falsch: „Meinungsfreiheit ist eine Farce“, zitiert er Hannah Arendt, wenn schlichte Tatsachen nicht mehr anerkannt würden. Oder: „Wie sollen wir die realen Probleme, zum Beispiel den Klimawandel, angehen“, fragt der Bundespräsident, „wenn andere die wissenschaftlichen Fakten bestreiten?“ …

Was ein Herr Steinmeier sagt, interessiert in Wirklichkeit niemanden in unserer Republik. Was die GRÜNEN sagen, schon eher, denn es kann ja sein, dass diese Partei wieder einmal in eine Koalition „rutscht“. Wie diese Parteiideologen die „Vorgaben“ von Herrn Steinmeier umzusetzen gedenken, lässt sich lesbar aufbereitet zu Gemüte führen:
Achgut 17.09.2018: Die Grünen im großen Achse-Test

Anmerkung: Dank an „kaltesonne“ für den Hinweis: Konfusion um sinkende Unfallzahlen in der Landwirtschaft: Hilft der Klimawandel?

Quellen

[1] Bundesministerium für Arbeit und Soziales: Sicherheit und Gesundheit bei der Arbeit–Berichtsjahr 2016, Unfallverhütungsbericht Arbeit

[2] EIKE 09. September 2018: Deutschland in den Klauen des Klimawandels

[3] OÖ Nachrichten, 08.08.2018: Der Klimawandel erhöht die Unfallgefahr in der Landwirtschaft

[4] EIKE 09. September 2018: Deutschland in den Klauen des Klimawandels

[5] EIKE 15.09.2018: @NYT lügt hinsichtlich Klima – indem die Vergangenheit verschwiegen wird

[6] EIKE 17.09.2018: (SUV-) Autokäufer ignorieren Klimawarnungen