1

Das Geschäft mit der Angst, die unendliche Geschichte….oder, lernen wir Deutsche gar nichts aus der Geschichte? Teil 2: Die Corona-Maßnahmen

Bereits Abb.15 lässt Zweifel darauf kommen, dass der jetzige Lockdown zum Schutz der Bevölkerung notwendig ist. Seit Anfang November bewegen sich die Ansteckungszahlen auf hohem Niveau seitlich und pendeln um die 30.000-Marke. Wenn z.B. der saarländische Ministerpräsident am vergangenen Montag nach dem Lockdown-Beschluss vom 13.12.2020 vor dem saarländischen Landtag als Rechtfertigung, neben den vielen Todesopfern, für das widersprüchliche Verhalten – noch 10 Tage vor dem Beschluss verkündete die Kanzlerin eine Lockerung der Maßnahmen zu Weihnachten – der Politik verkündet, man könne bei Corona nur „auf Sicht fahren“, so ist dies natürlich blanker Unsinn.

Bevor man aufgrund einer Grippe stirbt, muss man zuerst an dieser erkranken. Dieser inne liegenden Weisheit wird sich auch der saarländische Ministerpräsident nicht entziehen können. So beträgt der „Nachlauf“ 2-4 Wochen. D.h. Ende November war das absehbar, was jetzt als Begründung herhalten muss. Wie gesagt, da haben Kanzlerin und Ministerpräsidenten noch von einer Lockerung gesprochen.

Nach Angaben des RKI starben an der schweren „üblichen“ Grippesaison 2017/18 25.100 Menschen (hier). Das Bundesgesundheitsamt sprach von einer Epidemie, Abb.16.

Abb.16 zeigt, dass es sich bei nahezu allen Grippewellen um Epidemien handelte. Dem Autor ist entgangen, dass vor Weihnachten 2017 alle Einzelhandelsgeschäfte, etc. geschlossen wurden.

25.000 Todesfälle laut RKI. Dies sind auf 4 Grippewintermonate (18 Wochen) verteilt, im Mittel knapp 1.400 Tote/Woche. Da die Kurve nicht digital, sondern analog verläuft, sind dies 3.000 – 5.000 Tote in Spitzenzeiten. Also bis zu 700/Tag. Ob nun 700/Tag oder 800/Tag wie bei COVID-19, 700 sind genauso 700 zu viel wie 800. Wenn dann der Autor in den (Staats)Medien hört, dass die EU weitaus mehr als die 300 Mio. Impfdosen von Biontech hätte erhalten können, so kommen ihm Zweifel, ob der Schutz der Bevölkerung der Grund für den jetzigen Lockdown ist.

Wenn Wirtschaftsminister Altmaier am Montag nach dem Beschluss verkündet, der Lockdown würde die Wirtschaft nicht ruinieren, so hat er damit unbedingt recht. Wird doch die deutsche Wirtschaft und mit ihr die deutsche Industrie, seit Jahren mit einer verfehlten, Energie-, Klima-und Verkehrspolitik ruiniert. Geschaffene Arbeitsplätze für ein Batteriewerk für E-Autos, das in der Produktionsspitze ca. 2.000 Arbeitsplätze schafft, werden gepriesen, dass dabei anderweitig 200.000 Arbeitsplätze vernichtet werden, wird verschwiegen. Niemand würde z.B. ein Geschäft abschließen, dass ihn 200.000€ kostet, er dafür aber nur 2.000€ bekommt. In der deutschen Verkehrspolitik wird aber genau dass gemacht.

Die nachfolgenden Zeilen haben keinen Anspruch auf Richtigkeit, sie stellen lediglich den Versuch dar, die Frage zu beantworten, warum die Politik am 13.12.2020 die rasante Kehrtwende vollzog, die in den Staatsmedien von ARD und ZDF bereits Tage zuvor angekündigt wurde. Man könnte sagen „die Bevölkerung wurde weich geklopft“. Der Autor geht dabei der Frage nach, wer den Hauptnutzen von dem Lockdown hat?

Auf euronews war am 01.05.2020 zu lesen:

Mehr Umsatz, mehr Kosten

Sein Online-Riese ist gefragter denn je – das bestätigen die jetzt veröffentlichen Zahlen für das erste Quartal. Der Amazon-Umsatz kletterte im Vergleich zum Vorjahr um 26 Prozent auf 75,5 Milliarden Dollar.

Doch beim Gewinn sieht es schlechter aus – er fiel um rund 30 Prozent auf 2,5 Milliarden Dollar. Das liegt vor allem an den Kosten in Milliardenhöhe, die die Pandemie mit sich bringt – etwa für Tests und Schutzausrüstung.“ (hier)

Sowohl der 1. Absatz, als auch der 2. sind heute längst überholt, wie Abb.17 zeigt.

Abb.17 (Quelle) zeigt den Quartalsgewinn von Amazon. Zu dieser Graphik bedarf es keiner weiteren Worte.

Wurde nicht auch der Verkauf von Silvesterfeuerwerk im Handel untersagt. Wo wird man sich wohl dann die Sachen besorgen? Na, im EU-Onlinehandel. Wer macht auch dort den Gewinn? Richtig: Amazon!

Gegen Ende der 1970-Jahre war im Spiegel zu lesen, die Stasi habe im deutschen Bundestag Fraktionsstärke. Damit meinte Der Spiegel, das die Agenten, die die Stasi (sicherlich nicht ohne Wissen/Unterstützung des „großen Bruders“ KGB) in den Bundestagsfraktionen CDU/CSU, SPD und FDP platziert hat, zusammen Fraktionsstärke erreichen. Die Stasi und die DDR gibt es nicht mehr, den KGB auch nicht. Wohl aber dessen Nachfolgeorganisation.

Nun hat der FSB sicherlich ähnliche Bestrebungen wie die Stasi, seine Zuarbeiter im deutschen Bundestag zu platzieren, so wie dies jedem Geheimdienst zu Grunde liegt, alles wissen und die Dinge in seine Richtung lenken zu wollen. Allerdings ist die Welt von 2020 eine ganz andere, wie die Welt von 1979. Zu den staatlichen Akteuren kommen private. Deren Firmen ein Umsatzvolumen erreichen, dass größer als das der meisten Staaten ist. So beträgt der in der Corona-Krise sprunghaft gestiegene Jahresumsatz von Amazon in 2020 mit gut 320 Milliarden Euro (nicht Dollar) fast so viel wie der Bundeshaushalt 2020 mit seinen knapp 360 Milliarden Euro.

Und all die Zahlen stammen noch von vor dem Lockdown-Beschluss, den Einzelhandel zu ruinieren. Amazon hat es übrigens nicht versäumt, am Dienstag, Mittwoch und Donnerstag nach dem Beschluss Werbung zu platzieren. Leider kennt der Autor nicht den Vorlauf für das Senden von Werbung bei den Öffentlich-rechtlichen, um dies näher zu beleuchten.

In Anbetracht der o.g. Zeilen im Spiegel, soll der Autor davon ausgehen, dass Amazon die „Aktienmehrheit“ am Deutschen Bundestag übernommen hat?

Abb.18, Deutscher Bundestag mit leeren Bänken (die bräuchte man dann auch nicht mehr) unter Amazon-Logo. Quelle, ergänzt

Mit diesen Überlegungen hat indes der Autor ganz sicher Unrecht, denn es ist ja gar nicht das vom Volk gewählte Parlament, welches solche Einschneidungen in den Persönlichkeitsrechten beschließt, fast hätte der Autor „Hinterhofrunde“ gesagt, sondern vom Volk nicht gewählte, willkürlich (will heißen, dem Parteienproporz geschuldet) benannte Personen. Daher ist Abb.19 wohl in diesem Szenario zutreffender.

Abb.19, ergänzt nach Quelle

In den Überlegungen des Autors, warum die o.g. Runde diese Kehrtwende zum Lockdown vollzog, ist dann die Kanzlerin die Filialleiterin.

Abb.20, ergänzt nach Quelle

Aktualisierung vom 26.12.2020: (Kommentator Frank Grabitz stellt in seinem Kommentar mehrere Fragen, die zu beantworten sich der Autor dieses Beitrages viel Mühe gemacht hat. Weil das in der Kommentarfunktion zu lang wäre und er seine Ausführungen außerdem mit zwei Graphiken unterstreicht, folgt die Antwort des Autors hier. Anm. v. Admin)

Sehr geehrter Herr Grabitz, Sie schreiben:

“ Wieso fiel wegen des Maskentragens die Grippewelle zusammen ?“

Deswegen:

Abbildung 21. Quelle

Das RKI schreibt dazu:

„Abrupter Rückgang der Raten an Atemwegserkrankungen in der deutschen Bevölkerung Insgesamt ist zu beobachten, dass die ARE-Raten seit der 10. KW (2.3. – 8.3.2020) stark gesunken sind. Diese Entwicklung ist sowohl bei Kindern (bis 14 Jahren) und bei den Jugendlichen und Erwachsenen (ab 15 Jahren) zu verzeichnen. Insbesondere bei den Erwachsenen ist ein so deutlicher Abfall der ARE-Raten über mehrere Wochen extrem ungewöhnlich und konnte in keiner der drei Vorsaisons verzeichnet.“

Sie schreiben:

„…gehen Sie nach Italien rüber, die haben schon 6 Wochen vor uns Masken im öffentlichen Raum getragen,…“ Nochmals, eine UND-Verknüpfung ist keine ODER-Verknüpfung. Beides sind math. zwei ganz andere Dinge…

Sie schreiben:

„Und ich bin nicht der Meinung, dass dies eine 2. Welle ist. Es ist sozusagen eine Dauerwelle wie bei der Grippe.“

Dass ist Ihr gutes Recht. Indes sind Sie damit auf der falschen Interpretation, wie Abb.22 zeigt:

Abb.22, Quelle wie Abb.15.

Sie schreiben:

„Was nützen FFP3 Masken, oder die normalen, wenn derjenige Bartträger ist und die meisten haben Vollbart, also unter dem Kinn, und 2-5 cm Bart. Sollte der Bart dann nicht verboten werden ? Vielleicht fehlt dem Verbots-Lauterbach noch dieser Hinweis.“

Da es sich bei Corona nicht um eine gasförmige „Substanz“ wie z.B. bei einem chem. Kampfstoff handelt – da sind bekanntlich Gasmasken wegen eines Bartes wenig hilfreich, da die Barthaare die Abdichtung der Maske zur Haut behindern – sondern um eine Tröpfcheninfektion, nützt eine Maske hier auch bei Bartträgern. Einfach mal die Strömungslehre beim Einatmen anwenden.

Sie schreiben:

„Übrigens : die Mutation b.1.1.7 (eine von bisher 9650) die jetzt für so viel Aufregung sorgt, ist seit dem 20. Sept. in der englischen Datenbank vom COG erfasst…“

Hier haben Sie mit Ihren Bedenken aus meiner Sicht vollkommen Recht. Auch ich gehe davon aus, dass die ergriffenen Maßnahmen nicht zum Schutz der Bevölkerung vorgenommen wurden, sondern rein politischer Natur sind. So lies z.B. auch das RKI kurz nach den Grenzschließungen verlauten, dass es davon ausgeht, das die Virus-Variante bereits in Deutschland ist. Lassen Sie mich den Grund für die Maßnahmen mal so umschreiben:

Ich kann mir sehr gut vorstellen, dass unter Führung (oder gar Initiative) Frankreichs, Herrn Johnson mal gezeigt werden sollte, was Großbritannien bevorsteht, wenn es zu einem ungeregelten Brexit kommt. Hat ja auch seine Wirkung nicht verfehlt.




Thüringen verbietet Windkraftanlagen in Wäldern

Im Landtagswahlkampf 2019 hat die Thüringer FDP damit geworben, das Errichten von Windrädern in den Wäldern des „Grünen Herz Deutschlands“ verbieten zu wollen. Da außer in den Unistädten Weimar, Erfurt und Jena kaum „progressive“ Bürger in Thüringen zu finden sind, rannte die FDP damit offene Türen ein.

Die CDU-Fraktion unter ihrem neuen Chef Mario Voigt schloß sich diesem Vorhaben an. Voigt gilt zwar als „Kniefall“-Oppositionsführer (Zitat Vera Lengsfeld), der mit der rotrotgrünen Landesregierung im Rahmen einer „konstruktiven Opposition“ gut zusammenarbeitet. Da die Verabschiedung des Haushalts 2021 aber von der CDU-Fraktion abhängig ist, verlangte sie die Zustimmung der Regierungsfraktionen zum Verbot. Die Grünen schäumten naturgemäß („schmutziges politischen Geschäft“, „Erpressung“). Gut, ihre Klientel wohnt ja auch gern gediegen in Großstädten, wo garantiert keine häßlichen Windräder Krach machen, vom Sockel fallen, brennen oder starke elektromagnetische Felder im Wohnhaus erzeugen. Pikant wäre, wenn eine Landesregierung das Aufstellen von WKA in Siedlungsgebieten mit aufgelockerter Bebauung (Villen) erlaubte….

Die FDP und die CDU-Seite Waldbeschützer behaupten, den Thüringer Wäldern gehe es schlecht. Eine Behauptung, die nach der „Waldsterben“-Hysterie in den 1980ern mit äußerster Vorsicht behandelt werden muß; auch Konservativ- Liberale können Narrative nutzen. Da allerdings nach den Weltkriegen ordentlich Holz in den Thüringer Wäldern für Reparationsleistungen geschlagen wurde, sind weite Teile der heutigen Bestände schnell aufgeforstete Mononkulturen, die in der Tat recht anfällig sind, auch ganz ohne Klimawandel. Daher hat unsere Interviewpartnerin Dr. Ute Bergner von der FDP angeregt, die Waldfläche Thüringens (nur 34%) zu vergrößern. Dafür bietet sich der typisch europäische Mischwald mit Buchen, Eichen, anderen Laubbäumen und wenig Nadelgehölzen an.

Stahlbetonmonster mit Plastik-Rotoren gehören selbstverständlich nicht dazu. Man könnte einwenden, daß die Windräder ja irgendwann wieder abgebaut werden, was aber nicht ganz stimmt. Um die neuen gigantischen Anlagen über 20 Jahre sturmsicher im Boden zu verankern, werden mittlerweile tiefe und breite Betonfundamente benötigt, die wesentlich mehr Raum benötigen als die sichtbaren Teile der WKA und in der Regel nie mehr entfernt werden, da der Abbau äußerst aufwendig teuer wäre und die üppige Gewinnmarge der Windenergiebauer und/oder – Anbieter deutlich schmälern würde.

Darüberhinaus denke man nicht, daß der Einschlag für ein modernes Großwindrad nur zehn mal zehn Meter groß ist. Nein, der Baumabriß für die Standfläche der Anlage ist fast schon vernachlässigbar, wenn man an die breite Trasse für die Schwerlasttransporter und die Hochspannungsleitung denkt. Das ist klar: „Klimaschutz“ mit Windkraft dient nur den finanziellen Interessen einer kleinen Gruppe von Profiteuren und geht eindeutig zu Lasten der Natur, und der Bürger.




EIKE wünscht allen Lesern ein frohes Fest und ein gesundes Neues Jahr

Ein Ausnahmejahr im schlechten Sinne neigt sich dem Ende zu. Zusätzlich zu den katastrophalen Entscheidungen im Bereich der Klima-, der Energie, der Industrie-, der Währungs-, und der Migrationspolitik, gefiel es unserer Regierung Millionen von Existenzen zu vernichten, um ein Virus zu bekämpfen. Das Virus breitete sich trotzdem aus, aber die weit aus schlimmeren Folgen der oben erwähnten Fehlentscheidungen werden uns aber bis weit in die 30er Jahre des neuen Jahrhunderts begleiten. Unausweichlich.

Deutschland wurde einmal mehr als Industriestaat geschliffen und damit als Wirtschaftsstandort massiv geschwächt.

Trotzdem bitten wir unsere Leser den Mut nicht zu verlieren und weiter zur Verbreitung von Fakten, die diese Seite und unser Institut täglich bieten, beizutragen. Wir halten es da wie der große Luther:

„Und wenn ich wüsste, dass morgen die Welt untergeht, dann würde ich heute ein Apfelbäumchen pflanzen.“

Lassen Sie uns daher mit Familie und Freunden fröhlich das Weihnachtsfest feiern und mutigen Schrittes auf das neue Jahr zugehen. Wir wünschen Ihnen dazu jedenfalls alles Gute.

Jeder auf seine Weise.

EIKE hat sich für das neue Jahr ein paar Schwerpunkte gesetzt.

Einer davon ist unsere Arbeit „hinter den Kulissen“. Dazu gehört der EIKE-Webauftritt, er wird überarbeitet. Wir haben dafür einen sehr kompetenten Ingenieur gewonnen, der es uns ermöglicht, die EIKE-Website nicht nur benutzerfreundlicher zu gestalten, sondern auch den aktuellen Sicherheits- und Datenschutzanforderungen anzupassen. Ein Unterfangen, das aufgrund des Umfangs der EIKE-Website ein größeres Projekt ist.

Speziell in einer Zeit, in der solche juristischen Anforderungen andere „klimakritische“ Webseiten bereits aufgeben ließen, bemühen wir uns also verstärkt, so das Meinungsmonopol der Alarmisten zu brechen.

Vor dem Hintergrund, dass es auf absehbare Zeit unmöglich sein wird, dass Sie zu uns kommen, haben wir beschlossen zu Ihnen zu kommen. Aus diesem Grund planen wir, unser Büro in Jena zu erweitern und ein Internet-Fernsehstudio einzurichten. Damit wollen wir sicherstellen, dass wir Sie im nächsten Jahr regelmäßig in Bild und Ton über unsere Arbeit und Entwicklungen auf den Gebieten Klima und Energie informieren können.

Des Weiteren gehören natürlich auch Berichte über das Forschungsprojekt des Teams um Prof. Svensmark (TU Kopenhagen)dazu, das wir seit einiger Zeit mit Ihrer Hilfe unterstützen und über das sonst kaum etwas bekannt werden würde.

Da wir zur Umsetzung dieser Projekte die entsprechenden Dienstleistungen zukaufen und die dafür notwendigen Anschaffungen tätigen müssen und auch den „normalen“ EIKE-Betrieb aufrechterhalten wollen, bitten wir Sie einmal mehr, unser Institut mit Ihrer Spende zu unterstützen.

Mit Ihrer Spende tragen Sie dazu bei, den ideologisch getriebenen Weg in die Scheinrationalität zu stoppen und zur Vernunft zurückzukehren.
EIKE ist (noch!) gemeinnützig und wegen Förderung von Wissenschaft und Forschung und Förderung der Bildung von der Körperschaftssteuer und nach § 3 Nr. 6 des Gewerbesteuergesetzes von der Gewerbesteuer befreit und können daher abzugsfähige Spendenquittungen ausstellen. Alle Spenderdaten werden streng vertraulich behandelt.

Mit Dank für Ihre rege Beteiligung und mit freundlichen Grüßen und den besten Wünschen für die kommenden Festtage

Ihr

EIKE Vorstand für alle Mitglieder und der Redaktion

 




Das Geschäft mit der Angst, die unendliche Geschichte….oder, lernen wir Deutsche gar nichts aus der Geschichte? Teil 1: anthropo­gener Klima­wandel

Abb.1, links Quelle: Bild vom Gemälde von Peter Paul Rubens: Papst Leo X. Rechts: UN-Generalsekretär Guterres, einer der Haupttreiber beim sog. anthropogenen Klimawandel, Quelle: Deutscher Bundestag.

Der Artikel soll zeigen, dass wir in der Tat einen menschengemachten Klimawandel (Erderwärmung) haben, aber nicht auf der Basis sog. Treibhausgase wie CO2, sondern auf der Basis manipulierter Maßsysteme/Messungen. Die Dreistigkeit, mit der dabei vorgegangen wird, wird mit zunehmender Abnahme der solaren Tätigkeit, immer dreister. EIKE berichtete darüber hier , hier oder hier. Zuerst will der Autor einen Blick darauf werfen, inwieweit die Aussage vom Rückgang der solaren Tätigkeit, z.B. einer „kalten“ Sonne berechtigt ist.

Abb.2 (Quelle) zeigt den 11-jährigen Schwabe-Zyklus (Zyklus 23 und 24) der Sonne bis 2020, sowie den projizierten 25 Sonnenzyklus bis 2030. Deutlich zu erkennen, dass die solare Aktivität, gemessen an der Sonnenfleckenzahl – diese betrachtet der Schwabe-Zyklus – deutlich zurück gegangen ist.

Nun lässt sich die Aktivität der Sonne nicht an einem einzigen Parameter festmachen, wie z.B. die (unsinnige) Behauptung, die Erderwärmung hinge einzig am CO2, sondern die solare Aktivität ist weitaus komplexer. In seinem 8-teiligen Eike-Bericht, „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ hatte der Autor dies 2011 dezidiert aufgezeigt.

Wichtig für die Erdtemperatur ist neben der solaren Einstrahlung, der Grad der Wolkenbedeckung, die die Sonnenscheindauer bestimmt. Niemand wird bestreiten wollen, dass ein wolkenloser Himmel für höhere Tagestemperaturen sorgt, als ein wolkenverhangener Himmel zur gleichen Jahreszeit und geographischer Breite. Dem interessierten Leser fällt hier sicherlich zuerst der Svensmark-Effekt ein, der darlegt, dass die Wolkenbedeckung mit dem Maß der solaren Aktivität (über die Modulation der kosmischen Strahlung durch den Sonnenwind) zusammenhängt. Der Sonnenwind wiederum wird (zumindest tlw.) durch die Sonnenflecken und die solaren Flares (Sonneneruptionen) beeinflusst.

Wie gesehen, ist die Fleckenaktivität seit Jahren vglw. gering und auch die magn. Aktivität der Sonne, die für die Flares mitverantwortlich ist, ist fallend (Abb.3).

Abb.3 (Quelle) zeigt die jährliche Anzahl magnetischer Stürme (blau) und die geglättete Sonnenfleckentätigkeit. Im 20. Jahrhundert ist eine deutliche Zunahme der magnetischen Aktivität der Sonne zu verzeichnen, die etwa um das Jahr 1900 begann. Seit Beginn des Jahrtausends fällt die magn. Aktivität der Sonne wieder.

Abb.3 zeigt einen etwa 100 jährigen Anstieg der solaren Aktivität. Diese fällt zusammen mit dem Anstieg im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus.

Warum Hauptsonnenzyklus? Den Grund zeigt Abb.4.

Abb.4, Quelle: Orgutschov et al. Aanhand der Fourier-Analyse werden in der Sonnenfleckenzahl verschieden Perioden sichtbar. Die dominanteste ist die 205-Jahres-Periode, was dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus entspricht. Darüber hinaus ist eine 85-Jahres-Periode, der Gleissberg-Zyklus, eine 60-Jahres-Periode (Landscheidt-Zyklus) und die 1.020-Jahres-Periode erkennbar.

In ihrer Arbeit „Multi-periodic climate dynamics: spectral analysis of long-terminstrumental and proxy temperature records“ untersuchten die Wissenschaftler Lüdecke, Hempelmann und Weiss den Einfluss des de Vries-Suess-Zyklus auf die Erdtemperaturen und fanden den in Abb. 5 dargestellten Verlauf der Temperaturanomalien.

Abb.5, Quelle: Lüdecke, Hempelmann und Weiss zeigt die Temperaturanomalie der letzten 250 Jahre. Der Verlauf folgt dem de Vries-Suess-Zyklus der Sonne, der in 2002/2003 sein Aktivitätsmaximum erreichte.

Bezogen auf seine mittlere (statistische) Länge von 208 Jahren, lag sein (statistisches) Minimum um das Jahr 1899. Das Jahr 2020 liegt 17 Jahre nach seinem letzten Maximum. Normiert auf die Zeit (Jahre) sind dies 16% entfernt vom Maximum. Das Jahr 2020 liegt somit noch 84% vom nächsten Minimum entfernt. In diesem Zusammenhang von einer schwachen Sonne oder gar „kalten“ Sonne zu reden, ist denn auch fehl am Platz und weitaus verfrüht. Dies zeigt Abb.6.

Abb.6 (Quelle) zeigt die heliosphärische Stromschicht (current sheet = HCS), den die Sonne in den Orbit schickt. Neben dem Sonnenwind ist sie der entscheidende Parameter, der Aufschluss über die magnetische Aktivität der Sonne gibt. Die Abb. zeigt, dass die Sonne (obwohl schwach im Schwabe-Zyklus, siehe Abb. 2, Zyklus 24) im 24. Schwabezyklus ihren zweitstärksten Aktivitätszyklus ausgebildet hat. Beim HCS ist nicht das Maximum ausschlaggebend, sondern das Flächenintegral. Im Zeitraum, als der Hauptsonnenzyklus sein Maximum erreichte (um 2003) hatte die Sonne ihre stärkste Aktivität, wie Abb.6 transparent zeigt.

Eine kurze Erklärung.

Heliospheric Current Sheet (HCS)

Das Interplanetarische Magnetfeld ist auf der Erdbahn mit einer Stärke von 1 – 10 nT 100 bis 1000-fach stärker, als das Dipolfeld der Sonne dies erwarten lässt (magnetische Dipolfelder klingen mit der dritten Potenz des Abstandes ab). Deshalb muss es einen Effekt geben, der es verstärkt. Dies ist die Heliosphärische Stromschicht, die bis an die Grenzen des Sonnenwindes reicht. Dabei hat sie eine Breite von ca. 60.000 km. Der elektrische Strom in der HCS ist radial einwärts gerichtet und liegt bei ca. 104 A/km².

Die Heliosphärische Stromschicht dreht sich mit der Sonne und braucht für einen Umlauf knapp 4 Wochen. In diesem Zeitfenster befindet sich die Erde einmal über und einmal unterhalb der HCS. Da sich die Erde in 365 Tagen einmal um die Sonne bewegt, gerät sie mehrfach abwechselnd in den Bereich von südlich, bzw. nördlich gerichteten Magnetfeldern der Sonne, wobei sie jedes Mal die Heliosphärische Stromschicht durchquert. Die Lage der HCS im Orbit ist dabei abhängig von der solaren Aktivität (in Abb.6 ist daher als Maß der Aktivität der Winkel – Inclination = Neigung – angegeben).

In seiner Abhandlung „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ ist der Autor im Teil 4b (hier) näher auf die HCS eingegangen.

Was hat das nun mit dem Klima und der Erdtemperaturen zu tun? Nun, eine ganze Menge. Hat die HCS doch direkten Einfluss auf die irdische Wolkenbedeckung und niemand wird ernsthaft bestreiten wollen, dass eine strahlende Sonne am Himmel (mit wenig Wolken), die Temperaturen höher steigen lässt, als ein wolkenverhangener Himmel. Mit ihrem Einfluss auf die Gewitteraktivität hat sie einen weiteren unmittelbaren Einfluss auf trockene oder nasse Sommer. Siehe hierzu z.B.:

„Lightning as a space‐weather hazard: UK thunderstorm activity modulated by the passage of the heliospheric current sheet“, Owens et al. 2015, Geophysical Reseach Letters (https://agupubs.onlinelibrary.wiley.com/doi/10.1002/2015GL066802)

„Daily changes in global cloud cover and Earth transits of the heliospheric current sheet“, D.R. Kniveton und B.A. Tinsley., Journal of Geophysical Research Atmospheres. (https://www.researchgate.net/publication/238494062_Daily_Changes_in_Global_Cloud_Cover_and_Earth_Transits_of_the_Heliospheric_Current_Sheet)

Zum Einfluss der solaren Aktivität auf den irdischen Niederschlag siehe auch Stanford University (hier).

Im Teil 7 seiner Arbeit „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ hat der Autor mögliche Zusammenhänge der HCS mit der nordatlantischen Hurrikanaktivität dargelegt (hier, darin Abbildung 179)

Wie gezeigt, haben warme und trockene Jahre nichts mit sog. Treibhausgasen zu tun, sondern sind allein auf die solare Aktivität zurückzuführen, wie Abb. 7 und 8 weiter zeigen.

Abb. 7a stammt aus der Arbeit von Wang et al 2000 (hier) und zeigt die Polarität des Sonnenmagnetfeldes*.

* Der magnetische Zyklus wird Hale-Zyklus (der Astronom George Hale maß Anfang des 20. Jahrhunderts erstmals Magnetfelder in den Sonnenflecken) genannt und beträgt 22,1 Jahre. Dies ist der eigentliche Zyklus der Sonnenfleckenaktivität. Fleckengruppen setzen sich aus nordmagnetischen und südmagnetischen Flecken zusammen, die bipolar angeordnet sind. Während eines 11-jährigen Zyklus (Schwabe-Zyklus: 8 – 15 Jahre) laufen bei der Rotation der Sonne entweder die Nordpole oder die Südpole ständig voraus (Hale´s Polaritätsgesetz). Nach 11 Jahren kehrt sich diese Polarität um. Es vergehen also zwei 11-jährige Zyklen, bis die gleiche Anordnung wieder erscheint.

Abb.8 (Quelle) zeigt den Hale-Zyklus von 1800 – 2009 (obere Datenreihe). Die Rauten geben US-Trockenjahre an und die untere Datenreihe zeigt El-Niño-Ereignisse. Während El-Niño-Ereignisse keinen direkten Zusammenhang mit dem Hale-Zyklus erkennen lassen, zeigen die US-Trockenjahre, also bewölkungsschwache Jahre, eine deutlich Häufung zum Hale-Zyklus und zwar immer dann, wenn die Polarität des Sonnenmagnetfeldes N+ und S- beträgt.

Abb.7b, in Abb.2 hat der Autor die Informationen aus Abb.7a bis in unsere Zeit (Jahr 2020) erweitert. Aufgrund der solaren Aktivität sind die Jahre 2017 bis 2020 als „Trockenjahre“ zu bezeichnen, was wohl in 2021 anhalten wird. Mit irgendwelchen sog. Treibhausgasen oder einem angeblichen menschengemachten Klimawandel hat das rein gar nichts zu tun, sondern sind wiederkehrende Ereignisse, wie sie im 22-jährigen Hale-Zyklus und/oder im 208-jährigen de Vries-Suess-Zyklus „üblich*“ sind.

* So verlor z.B. der bekannte Pilgervater und spätere Gouverneur von Plymouth, William Bradford, aufgrund mehrerer nachfolgender Trockenjahre in der Mitte der 1590-Jahre in England, die die Ernten vernichteten, sein (bescheidenes) Vermögen. Quelle: ARTE-Sendung „Aufbruch in die neue Welt“, Doku USA 2015 „Die Pilgerväter“.

Abb.9 zeigt die Kälteperioden der letzten 1.100 Jahre (Dreiecke ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus (grüne Dreiecke). In der Zeit der 1590-Jahre hatte der Hauptsonnenzyklus sein Maximum.

Auch das Temperaturverhalten nach einem Hauptsonnenzyklus ähnelt dem des anderen, wie ein Blick auf historische Temperaturaufzeichnungen zeigt (Abb.10).

Abb. 10, Quelle: Prof. Ewert, zeigt die Temperaturen in München im Zeitraum von 1781 – 1991. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen noch stark zwischen warm und kalt (rote Fläche). Im Vergleich zu heute bis zum Jahr 2025 – 2035.

Bis zum erreichen seines Minimums, sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten (blaue Fläche). Vor einem erneuten Temperaturanstieg (steigender Sonnenzyklus), fallen die Temperaturen auf ein Minimum und steigen dann kontinuierlich an (schwarze Linien).

Dies gilt auch für die übrigen europäischen Städte, deren Temperaturaufzeichnungen bis in diese Zeit zurückreichen. Für Mittelengland liegen noch weiter in die Vergangenheit zurückreichende Temperaturaufzeichnungen vor. Diese zeigen, dass der Temperaturgang bei dem davorliegenden Maximum im Hauptsonnenzyklus nach dem gleichen Muster verlaufen, Abb.11.

Abb. 11: Temperaturgangreihe Zentralenglands von 1659 – 2000 (Quelle: Prof. Ewert). Mit seinem ausgeglichenen Seeklima zwischen Atlantik und Nordsee nimmt England sicherlich eine Sonderstellung ein. Dies zeigt sich, dass hier die „grüne“ Phase von der „roten“ Phase nicht so stark differiert wie in Mitteleuropa. Aber auch hier ist das Muster, trotz der Moderation durch den Ozean, vorhanden. Auch beim davor liegenden Hauptsonnenzyklus, fallen zuerst die Temperaturen stark, bevor sie dann wieder ansteigen (schwarze Linien).

Fazit

1. Sowohl die heutigen Temperaturen, als auch deren Wechselverhalten, wie die Trockenperioden sind natürlich wiederkehrende Ereignisse nach dem Maximum im Hauptsonnenzyklus. Mit sog. Treibhausgasen hat dies nichts zu tun.

2. In Anbetracht, dass die Sonne noch 86% (normiert auf die Zeit) von ihrem Aktivitätsminimum in ihrem Hauptzyklus entfernt ist, sind Aussagen von einer schwachen oder gar „kalten“ Sonne unangebracht und fehl am Platz. Wir Menschen neigen lediglich dazu, Dinge, die wir sehen (hier deren Fleckenaktivität in Abb.2), höheres Gewicht zukommen zu lassen. Bei der Sonne, die neben ihrer Fusionsenergie die Erde mit ihrer magn. Energie direkt und vor allem indirekt beeinflusst, eine falsche Gewichtung.

3. Meldungen von „höchsten“ Temperaturen, etc. sind auf dreiste Temperaturfälschungen, sowohl bei den Daten (bitte erinnern Sie sich an „Climategate“), wie bei der Messerfassung (vor 50 oder 100 Jahren wurde mit Quecksilber gemessen, heute durchweg elektronisch), aber vor allem bei der Auswahl der Messstationen zurück zuführen. Siehe Abb.12.

4. Aus 3 folgt, dass bei Temperaturvergleichen von heute zu früher durchweg „Äpfel mit Birnen“ verglichen werden und damit sämtliche Temperaturvergleich von DWD (Deutschem Wetterdienst, etc.) wertlos sind.

Abb.12 (Quelle) zeigt, dass mittlerweile fast ausschließlich Messstationen, die für die Mittelwertvergleiche herangezogen werden, aus städtischen Regionen stammen. Die der ländlichen hat drastisch abgenommen. Jeder braucht nur auf die Anzeige der Fahrzeugaußentemperatur zu schauen, um zu wissen, dass die Temperatur in Städten um bis zu 3°C höher ist, als in ländlichen Gebieten.

Weiter wird in vielen Gebieten der Erde überhaupt nicht gemessen und doch dreist von einer Globaltemperatur gesprochen. Vgl. Bericht im o.g. Link und die Vorgehensweise des Met Office.

Wie sehr sich die Temperatur allein durch die Bodenbeschaffenheit ändert, zeigt Abb.13.

Abb.13 zeigt den Tagesgang der Temperatur an einem sonnigen Sommertag in Bodenhöhe für verschiedene Böden, nach Fezer 1975.

Zu Abb. 13: Nicht nur, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern auch, dass ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen vorliegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschaft stehen, weil sich das Landschaftsbild über die Jahrzehnte änderte oder städtische Messstationen, die fast 90% der Datenquelle ausmachen, geben somit deutlich höhere Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich.

Mittlerweile räumt sogar der DWD ein, dass mit solchen Aussagen wie „heißester“… etwas nicht stimmt und diese falsch sind, Abb.14.

Abb.14, Quelle: Bildzeitung vom 18.12.2020.

Es ist eine geradezu unverantwortlich, das auf solch einer falschen, auf Lügen und Betrug aufgebauten Metapher, gemeint ist der sog. anthropogene Klimawandel, hunderte von Milliarden Euro von unten nach oben verteilt werden, unsere Wirtschaft und Industrie ruiniert wird und letztendlich unsere Arbeitsplätze vernichtet werden.

Von Politik und Staatsmedien hochgepriesene neue Wirtschaftszweige, die stattdessen für vernichtete Branchen (als eine der letzten ist die Automobilindustrie dran) entstehen würden, entpuppen sich denn auch als nicht überlebensfähig (z.B.: Solarindustrie) oder als schlichte Betrugsfirmen, wie wirecard, die parasitengleich das Volksvermögen abzweigen, dass über Jahre der „Karle vom Band“ oder die „Jutta vom Einzelhandel“ erwirtschaftet haben.

Für solche Firmen macht dann die Kanzlerin auch noch Werbung. Aber Intelligenz ist offenbar nicht jedermanns (oder jederfraus) Sache.

(Teil 2 folgt demnächst)




Lockdown und Dieselfahrverbote haben keinen Einfluss auf Werte der Messstationen

Lockdown in Stuttgart – weniger Autos, weniger Luftschadstoffe, sollte man annehmen. Doch weit gefehlt: Die Luftmesswerte zeigen sich vom deutlich verminderten Verkehrsaufkommen unbeeindruckt.
Die Dieselfahrverbote und der durch den Lockdown bedingt geringere Autoverkehr zeigen keine Auswirkungen auf die Werte, die die Luft-Messstationen liefern.
Die Diagramme der vergangenen Tage zeigen für Stickstoffdioxid ein Pendeln um Werte zwischen 40 und 50 µg/m3. Deutschlands berühmteste Messstation Stuttgarter Tal Am Neckartor wies am 21.12. um 10 Uhr eine Stickstoffkonzentration von 44 µg/m3 aus.

Ebenso schwankten die NO2-Immissionen an der Hintergrundmessstelle in Bad Cannstatt um 40 µg/m3. Der 12-Monats-Mittelwert wird dort übrigens mit 23 µg/m3 angegeben, also deutlich unter den geltenden Grenzwerten. Die liegen für das Jahresmittel bei 40µg/m3, für Innenräume bei 80 µg/m3 und am Arbeitsplatz sogar bei 950 µg/m3. In den Vereinigten Staaten liegt er mit 100 µg/m3 sogar mehr als doppelt so hoch wie auf deutschen Straßen.

Zu diesem Ergebnis kommt auch Messspezialist Martin Schraag, der den Werten auch den gesunkenen Verkehrsfluss gegenüber gestellt hat, wie er bei Tomtom zu sehen ist. Sein Resumee: „Das tägliche Muster der Verkehrs-Messstellen Am Neckartor und Pragstraße hat sich praktisch ab dem Lockdown nicht geändert. An der Pragstraße, einer langen Steigung vom Neckar zum Pragsattel, lag der Spitzenwert am 18.12. um 17 Uhr nach dem Lockdown. Ansonsten sehen wir auch hier um 40 µg/m³ schwankende Werte, mit typischen Maxima um 17 Uhr.“

Er weist auf die überdies geltenden weitreichenden Fahrverbote in Stuttgart hin: „Es ist unwahrscheinlich, dass diese Werte von Diesel-Pkw verursacht werden. Selbst Euro 5 Diesel sind seit Monaten aus der kleinen Umweltzone Stuttgart verbannt! Beim Lockdown im April waren Euro 5 Diesel nur an Einzelstrecken verbannt, die Kontrolle war noch lax.“

Denn zusätzlich zum Lockdown gibt es in Stuttgart die wohl weitgehendsten Fahrverbote deutscher Städte: Dieselfahrzeuge der Euro 3 und 4 Norm dürfen seit 1. Januar 2019 nicht mehr in die Landeshauptstadt Baden-Württembergs fahren. Betroffen von dem Fahrverbot sind nicht nur einige besonders frequentierte Straßen der Innenstadt wie in anderen Städten, die Fahrverbotszone reicht bis nach Kornwestheim, Gerlingen und gilt bis in die Vororte, die droben auf den Fildern liegen – eher ländliche Gebiete mit lockerer Bebauung als in der Innenstadt. Selbst neue Euro-5 Diesel sind seit 1. Juli 2020 aus der Stuttgarter Innenstadt verbannt.

Die Begründung meinte Baden-Württembergs Verkehrsminister Winfried Herrmann (Grüne), dass die zugrundeliegenden Rechenmodelle sehr gut seien. Er nahm außerdem die mit alten Passivsammlern – eine reguläre Messstation existiert dort erst seit Oktober – gewonnenen nicht sonderlich genauen Messwerte an der Pragstraße und eine Hochrechnung für das Jahr 2021 als Begründung dafür, den Euro-5 Diesel aus Stuttgart auszusperren. Er unterschlug dabei, dass der neue Rosensteintunnel ab 2021 erhebliche Verkehrsströme unter die Erde verlegt und wesentlich zur Entlastung der Pragstraße beiträgt. Das hat aber die Stadt Stuttgart in ihrem Luftreinhalteplan schon vor längerem beschrieben.

Der Chef des Vereins „Deutsche Umwelthilfe e.V.“, Vielflieger Jürgen Resch, überzieht wie viele andere Städte auch Stuttgart mit Klagen wegen Überschreitungen der extrem niedrigen Grenzwerte. Nur Fahrverbote für Dieselfahrzeuge könnten die Werte senken und Menschenleben retten, argumentierte er. Drunter ging es nicht. Die Verwaltungsrichter winken solche Klagen durch, während das Bundesverwaltungsgericht Leipzig einst noch hinzugefügt hatte, Fahrverbote müssten auch verhältnismäßig sein. Herrmann meinte seinerzeit, der Begriff „verhältnismässig“ beziehe sich auf die Übergangsfristen und nicht auf die Fahrverbote.

Die wirtschaftlichen Folgen in der Stadt sind dramatisch. Autobesitzer mussten neuwertige drei, vier Jahre alte Autos verramschen, die heute häufig in Ländern in Osteuropa fahren. Nach diesem fundamentalen Kampf gegen den Diesel in der Stadt, in der das Auto erfunden wurde, sollte man aufgrund des Lockdowns und des drastisch gesunkenen Autoverkehrs erwarten, dass die Luftwerte in der Stadt sich deutlich verändert haben.

Der Großtest „Corona-Autolockdown“ zeigt: Der Diesel kann es nicht sein. Die Diesel-Lüge geht also weiter.

Der Beitrag erschien zuerst bei TE hier




Wie zuverlässig sind die ermittelten Globaltemperaturen der letzten 170 Jahre?

Jedes Messergebnis wird unter speziellen Messbedingungen erzielt. Diese sind möglichst konstant zu halten und stets anzugeben. Das Messresultat ist immer mit einer Messunsicherheit (Messabweichung, veraltet: Fehler) behaftet.

Die für Messungen verwendeten Messgeräte wurden im Laufe der Zeit immer genauer.
Problematisch war in der 2. Hälfte des 20. Jahrhunderts der Übergang von Analog-Anzeigen auf Digitalanzeigen. Die digitale Anzeige von Messergebnissen gaukelt oft dem ungeschulten Anwender eine Genauigkeit vor, die nicht vorhanden ist. Liegt beispielsweise die abgelesene Spannung von 12,62 V an den Messpunkten an, die wir ablesen? Oder fahren wir tatsächlich die 88 km/h, die uns der Digital-Tacho anzeigt? Nein, Messungen sind immer mit Messabweichungen behaftet. Im allgemeinen Sprachgebrauch wird für eine Messabweichung meist (noch) der Begriff Messfehler oder kurz Fehler verwendet. Jedoch empfehlt z.B. die DIN-Norm 1319, diesen Begriff durch den der
(Mess-)Abweichung zu ersetzen.

Abb 1:  Welcher Waage vertrauen wir mehr?  Analog oder Digital…
Bild links: Frank C. Müller, Personenwaage fcmCC BY-SA 4.0, Bild rechts: Digital-Personenwaage (Bild ohne Lizenz)

1.2.) Kalibrieren und Eichen
Kalibrieren bzw. Eichen (Eichamt) ist der Vergleich einer bezifferten Skala mit einem Normal. Jedes Messgerät (Messeinrichtung), das auf einem physikalischen Messprinzip beruht, muss an ein Sekundär- oder Primär-Normal mit geringerer Messunsicherheit gekoppelt sein. Kalibrierte bzw. geeichte Messgeräte sind somit mit geringeren Messunsicherheiten behaftet. Trotzdem sind Messungen mit diesen Geräten nicht fehlerfrei. Es verbleibt die Messunsicherheit des Gerätes und die Fehleranfälligkeit durch die messende Person.

Als Erkenntnis dieser Einleitung sollte erreicht werden, dass der Leser an fremde Messergebisse kritisch herangehen sollte. Informationen zu den Messgeräten, den Mess-Bedingungen, Anzahl der Messungen, u.s.w. sind unerlässlich. Deutlich ausgedrückt: Ohne Zusatzinformationen sind Messergebisse wertlos! Weitere Informationen in den nächsten Kapiteln. Diese grundlegenden Voraussetzungen werden in den folgenden Kapiteln auf die Zuverlässigkeit der Global-Temperatur-Daten angewendet.

2.) Art der Messabweichungen

2.1.) Zufällige Messabweichungen
Zufällige Messabweichungen entstehen aufgrund nicht beherrschbarer, nicht determinier- ter Einflüsse. Sie sind nicht vorausbestimmbar. Werden die Messungen am selben Messobjekt unter gleichen Bedingungen wiederholt, führen sie zur Streuung der Messwerte. Deshalb lassen sich diese zufälligen Messabweichungen sehr gut mit mathematisch statistischen Methoden ermitteln und eingrenzen. Diese Methode soll jedoch nicht innerhalb dieses Aufsatzes behandelt werden. Es gibt hierzu genügend gute Fachliteratur.

2.2.) Systematische Messabweichungen
Systematische Messabweichungen haben einen konstanten Betrag mit einem bestimmten Vorzeichen oder unterliegen nur einer sehr langsamen Veränderung aufgrund einer Ursache, die die Messgröße nur in eine Richtung verändert. Sie führen zu einer immer gleichen, zeitlich konstanten Differenz des Messwerts vom wahren Wert, d. h. zu einem „falschen“ Messergebnis. Systematische Messabweichungen sind durch Wiederholungen der Messungen unter gleichen Bedingungen nicht erkennbar!

3.) Temperatur-Messungen

Die Bestimmung der genauen Temperatur eines Systems ist trotz der alltäglichen Anwendungen keine triviale Sache – jedenfalls nicht, wenn man es genau nimmt. Im Gegenteil, die genaue Temperatur-Messung ist eine besondere Herausforderung. Eine Vielzahl von Unwägbarkeiten beeinflussen eine exakte Messung: Richtiges Thermometer für die jeweilige Anwendung, Genauigkeit des Thermometers, Sorgfältigkeit der Messung, äußere Einflüsse wie Licht oder Wärmestrahlung, u.s.w.. Einfach formuliert, die möglichen systematischen Fehler sind zahllos. Temperaturmessungen sind häufig falsch.

3.1.)  Definition der Temperaturmessung
Sämtliche Verfahren zur Bestimmung der Temperatur eines thermodynamischen Systems durch Vergleich mit einer Temperaturreferenz, z.B. dem Thermometer. Hierfür können im Prinzip jegliche physikalischen Größen (z.B. Länge, elektrischer WiderstandStrahlungsgrößen) oder chemischen Eigenschaften (z.B. Temperatur-Messfarben) verwendet werden, die sich mit der Temperatur gesetzmäßig ändern.

3.2.)  Arten von Thermometer
Die Zahl der unterschiedlichen Arten von Thermometern ist nahezu unüberschaubar. Prinzipiell wird unterschieden zwischen Berührungs-Thermometern und Thermometern, die auf berührungslosen Verfahren beruhen. Die Diskussion zu den unterschiedlichen Arten von Thermometern würde den Rahmen dieses Aufsatzes sprengen.

4.) Temperatur-Messung in der Meteorologie / Klimatologie

Inzwischen nähern wir uns der eigentlichen Fragestellung zur „Zuverlässigkeit der Temperatur-Messdaten der letzten 170 Jahre“. Betrachten wir die Fakten zur Ermittlung der mittleren Global-Temperaturen in diesem Zeitraum. Doch zunächst 2 entscheidende Begriffs-Definitionen.

4.1.)  Direkte Messung durch Thermometer
Viel Menschen haben schon eine meteorologische Mess-Station gesehen. Seit dem 17. Jahrhundert (England) werden weltweit regelmäßig verschiedene Parameter des Wetters gemessen. Insbesondere ab dem 19. Jahrhundert sind Mess-Stationen in vielen Ländern weit verbreitet. Hauptzweck ist es, die Daten-Grundlage für die lokale Wetter-Vorhersage zu erlangen. Nicht zu vergessen die Einsätze von Wetter-Ballonen oder Flugzeugen durch Meteorologen. Dadurch wird es möglich, auch Daten von unterschiedlichen Luftschichten der Atmosphäre zu erhalten.

Abb. 2:  DWD-Wetterwarte bei Weiden/Opf. (Bild: ohne Lizenz)

 

4.2.)  Indirekte Messung durch Proxy-Daten

Die meisten Leute werden sich bei der aktuellen Klimawandel-Diskussion fragen: Woher kommen eigentlich die Temperatur-Daten aus dem Mittelalter, aus dem Römischen Zeitalter, viele Jahrtausende oder 100 Tausende oder sogar Millionen Jahre zurück? Da gab es keine Thermometer bzw. gar keine Menschen! Wie ist das möglich?

Natürlich wurden die Temperaturen bei den Römern nicht direkt gemessen, sie hatten definitiv noch keine Thermometer. Hier sprechen die Forscher von so genannten Proxy-Daten. Das sind Temperatur-Daten, die durch indirekte Messungen erhalten werden. „Proxy-Daten“ ist ein Sammelbegriff für Informationen, die indirekt Auskunft über vergangene Klimaverhältnisse geben. Proxydaten erhalten wir aus Baumringen und Wachstumsringen in anderen Organismen (wie Korallen), Isotopenmessungen in Eisbohrkernen oder Sedimenten, oder biologische Proben wie etwa Pollenanalysen.

 5.) Zuverlässigkeit der Temperatur- Daten

 5.1.) Zuverlässigkeit der Proxy-Daten
Proxy-Daten werden grundsätzlich über längere Zeiträume der Erd-Vergangenheit ermittelt.Zum Beispiel bei Baumringen hunderte von Jahren oder Eisbohrkerne 10 Tausende von Jahren. Die große Stärke der Proxy-Daten-Ermittlung liegt in der in sich abgeschlossenen Methodik, der Konsistenz der Daten. Nehmen wir als Beispiel die zeitliche Abfolge der Schichten in Eisbohr-Kernen. Alle Proben werden an einer Stelle eines Gletschers bzw. eines Inlandeis-Panzers entnommen, gleich aufbereitet und mit derselben Methode gemessen. Vorausgesetzt, es werden keine groben Fehler gemacht, sind die Ergebnisse in sich konsistent und zuverlässig. Die besondere Stärke liegt in der guten Genauigkeit der relativen Änderungen innerhalb der jeweiligen Messreihen. Die Ermittlung der absoluten Temperatur im betrachteten Zeitraum ist kaum möglich.

5.2.) Zuverlässigkeit der direkt gemessenen Temperaturen seit 1850

Somit sind wir beim Hauptpunkt dieses Aufsatzes. Die gesamte Diskussion zum Thema „Klimawandel“ und „Erderwärmung“ basiert auf den Temperaturdaten der letzten 170 Jahre. Warum wird immer auf das Jahr 1850 referenziert? Der Zeitraum rund um das Jahr 1850 gilt als der Startpunkt der industriellen Revolution. Sozusagen der Beginn allen Übels bei vielen Protagonisten. Doch wie zuverlässig sind die weltweit direkt gemessenen Daten der letzten 170 Jahre? Das soll in den folgenden Kapiteln behandelt werden.

6.) Pseudo-Wissenschaft. „Gefahr“ durch Klima-Erwärmung.

Eine verbreitete Aussage bei den Physikern lautet „Wer viel misst, misst Mist“. Die Physik legt höchste Maßstäbe in die Ermittlung und Verarbeitung von Mess-Ergebnissen. Deshalb sind Physiker auch besonders kritisch, wenn sie Messungen in anderen Fachgebieten der Naturwissenschaft und Ingenieurs-Wissenschaften beurteilen.

 6.1.) Ivar Giaever bezeichnet die Klimawissenschaft als Pseudo-Wissenschaft.

Der hoch angesehene norwegisch amerikanische Physiker und Nobelpreis-Träger Ivar Giaever bezeichnete in dem viel beachteten Gast-Vortrag während des Nobelpreisträger-Treffens von 2012 in Lindau die Klimawissenschaft, basierend auf den seit 1850 ermittelten jährlichen Durchschnitts-Temperaturen der Erde, als Pseudo-Wissenschaft. Die Begründung ist nicht von der Hand zu weisen. Selbstverständlich verunglimpfen die „Klima-Alarmisten“ diese Position und versuchen die Argumente und Beweise von Giaever klein zu reden. Es sei betont, dass die nachfolgend beschriebenen Giaever-Kritikpunkte grundsätzlichen wissenschaftstheoretischen Prinzipien entsprechen. Andere Schlussfolgerungen wurden von ihm durch konsequent logische Denkweise erarbeitet.

Abb. 3:  Ivar Giaever, Physik-Nobelpreisträger und Klima-Kritiker  [1;2]. Bildlizenz: NTNU VitenskapsmuseetIvar Giæver, verkleinert von Dr. Andreas Karl, CC BY 2.0

 

Giaevers Hinweise und Kritikpunkte sind vielschichtig, gleichzeitig typisch für einen Physiker, der über den eigenen Tellerrand hinausschaut.

 6.2.) Ivar Giaevers Argumente und Beweise.

Außerordentlich bemerkenswert ist die Grundposition, mit der Giaever an die Thematik heran geht. Eigentlich interessierte ihn das Thema Klimawandel nicht. Er wurde gebeten dazu einen Gast-Vortrag in Lindau zu halten. Alleine diese Haltung, den Sachverhalt von außen als neutrale Person zu analysieren, spricht Giaever von Parteilichkeit frei. Er betrachtet die Fakten und Daten als kritischer Physiker, der sein gesamtes Wissenschaftler-Leben seine eigenen und fremde Mess-Ergebnisse bewerten musste. Sein Urteil ist vernichtend. Der Umgang und die Bewertung der gemessenen Temperaturen der Klimaforschung sei eindeutig eine Pseudowissenschaft.

6.1.1.) Grundsätzliche Kritik an der Genauigkeit

Giaevers Grundkritik besteht zunächst in der Angabe von zehntel Graden bei den Temperaturen zur Erderwärmung im Betrachtungs-Zeitraum. Eine angebliche Erwärmung von weniger als 1,5°C in 170 Jahren sei eine höchst erstaunliche Kontinuität des Klimas, völlig unabhängig von den Ursachen der Erwärmung. Die Temperatur-Angabe mit einer Auflösung von 0,1°C ist messtechnischer und physikalischer Unsinn.

Dazu ein treffendes Zitat des Mathematik-Genies Carl Friedrich Gauß: „Durch nichts zeigt sich mathematischer Unverstand deutlicher als durch ein Übermaß an Genauigkeit im Zahlenrechnen.“ Die Naturwissenschaft spricht bei der Verwendung von Messwerten von „Signifikanten Stellen“. Der korrekte Umgang mit Messwerten bezüglich der signifikanten Stellen wird sogar in der DIN 1333 beschrieben. Der Autor dieses Aufsatzes hatte in seinem Studium ein prägendes Erlebnis zu diesem Thema. Der damalige Physik-Professor kündigte im Vorfeld der Physik-Vordiplom-Klausur an: „Prüflinge, die den Rechenweg und das Ergebnis einer Aufgabe korrekt erarbeitet haben, jedoch das Ergebnis mit zu vielen signifikanten Stellen angeben, bekommen Punktabzug.

6.1.2.) Unterschiedliche Thermometer vor Ort und im Laufe der Zeit

Giaever kritisiert zu Recht, es sei mehr als naiv zu glauben, die auf der Welt verteilten Thermometer (Abb. 3) seien alle von gleicher Qualität und zeigen alle die korrekte Temperatur an. Dazu kommt die technische Entwicklung der letzten 170 Jahre. Selbst die optimistischste Phantasie reicht nicht aus zu glauben, all die weltweit über viele Jahrzehnte tausende Thermometer seien im Laufe der Zeit gleich genau und gleich zuverlässig gewesen.

Abb. 4: Thermometer (17. Jhdt.) und modernes Infrarot-Thermometer. Bildlizenzen: Links: Ferdinand II de‘ Medici [attr.] Museo GalileoTermometri cinquantigradi inv 85 IF 46774CC BY-SA 4.0. Rechts: Hedwig Storch1024 Pyrometer-8445CC BY-SA 3.0

 

6.1.3.) Ungleiche Verteilung der Thermometer auf der Erde

Alleine die Tatsache der ungleichmäßigen Verteilung der meteorologischen Mess-Stationen über die Erdoberfläche reicht aus, die Berechnung einer fiktiven Durchschnitts-Temperatur der Erde als unrealistisch bzw. unmöglich zurückzuweisen. Abbildung 4 zeigt die Häufung der Mess-Stationen auf der nördlichen Erdhalbkugel und den Industrie-staaten. Weite Bereiche Afrikas, Südamerikas, Kanadas, Grönlands und von Sibirien werden nicht abgedeckt. In der Antarktis, die einen großen Einfluss auf das Erdklima hat, gibt es nur wenige Stationen an der Küste.

Abb. 5: Verteilung meteorologischer Mess-Stationen auf der Erde im 21. Jhdt. [3;4]

 

Abb. 6: Gemeldete Wetterwerte für die Woche vom 2. bis 8. Januar 2000 (Schiffe) [3;4]

 

Ca. 70% der Erde sind mit Wasser bedeckt. Wie die Forschungen der letzten Jahrzehnte ergeben haben, spielen die Ozeane eine entscheidende Rolle für das Klima der Erde. Entgegen der meteorologischen Bedeutung der Ozeane ist die dort die Abdeckung der Mess-Stationen nur mangelhaft. Sowohl in Abbildung 5 als auch in Abbildung 6 ist zu erkennen, welche riesigen Lücken nicht durch Messungen abgedeckt werden. Abbildung 7 zeigt die zeitliche Entwicklung der über die Erde verteilten Mess-Stationen über einen Zeitraum von 100 Jahren.

Abb. 7: Meteorologische Mess-Stationen von 1885-1985 [3;4]

 

6.1.4.) Veränderungen im Umfeld von Mess-Stationen und deren Einfluss auf
die gemessenen Temperaturen.

Beispiele: Eine Mess-Station lag 100 Jahre außerhalb einer Stadt, inzwischen ist die Stadt um die Station herum gewachsen. Nahe einer Mess-Station gab es keinen nennenswerten Bewuchs, dann wurde in der Nähe ein Wald aufgeforstet. In 30m Entfernung einer Mess-Station wurde ein Gebäude errichtet. Die Liste solcher Beispiele kann beliebig verlängert werden. Niemand ist in der Lage, die veränderten Einflüsse aus der unmittelbaren Umgebung der Mess-Stationen zu bewerten und einzurechnen. Ein Argument Giaevers, das sicherlich einen großen Einfluss auf den Fehler in der zeitlichen Betrachtung hat.

6.2.) Giaevers philosophische Grundsatz-Kritik zur Klima-Diskussion

Ivar Giaever begnügt sich nicht mit den reinen Sachargumenten oder den Beweisen, die er vorgelegt hat. Er blickt tiefer, macht sich grundsätzliche Gedanken zur Klima-Debatte. Seine im Folgenden beschriebenen Überlegungen haben den Autor dieses Aufsatzes am meisten beeindruckt und gleichzeitig überzeugt.

Giaever blickt auf die Welt als Gesamtes und auf sich als Person. Alles und jeder ist betroffen von Veränderung und Alterung, das kann niemand bestreiten. Er fragt, warum in den meisten Bereichen der politischen und gesellschaftlichen Diskussion die Dinge sich nur zum Negativen bewegen, immer wieder negativ, negativ. Niemand kann bestreiten, dass die Entwicklung der Menschheit seit 1850 einen positiven Weg genommen hat. Die Menschen leben angenehmer, sicherer, Hungern weniger und werden älter. Was soll so negativ an der Temperatur-Entwicklung sein? Wer sagt uns, was die „Optimale Temperatur auf der Erde ist? Wie bereits gesagt, alle Klimaforscher referenzieren auf die Temperatur um 1850. Es ist absolut unwahrscheinlich, dass ausgerechnet diese Temperatur optimal gewesen sein soll. Im Gegenteil, die Klimatologen sprechen vom Römischen Temperatur-Optimum und dem Mittelalterlichen Temperatur-Optimum.

6.3.) Ergänzende Informationen zur Klimaerwärmung (CO2-Einfluss)

Die Zeit um 1850 gilt als das Ende der „Kleinen Eiszeit“, eine Kaltperiode über ca. 400 Jahre innerhalb der aktuellen Eiszeit. Anders formuliert: Um 1850 begann eine Warmphase innerhalb der aktuellen Eiszeit. Gleichzeitig begann um das Jahr 1850 auch die industrielle Revolution (s. unter 5.2.). Folgt nach einer Kaltperiode eine Warmzeit, so muss sich die Erde auch ohne Zutun des Menschen erwärmen. Eine einfache und logische Schlussfolgerung. Schließlich wurde die kleine Eiszeit ja nicht vom Menschen verursacht. Das IPCC (Klimawandel-Organisation der UNO) behauptet jedoch seit 2016, dass die gesamte Erderwärmung seit 1850 ausschließlich auf die Wirkung des anthropogenen CO2 zurückzuführen ist. Mit massiven Auswirkungen auf die Wirtschaft und Energie-Politik der jeweiligen Staaten. Leider ist ausgerechnet Deutschland der Protagonist dieser unsäglichen Ideologie.

Abb. 8: Veröffentlichung von Patrica Adams [5]

 

Was die „Klima-Alarmisten“ der religiös anmutenden Glaubensgemeinschaft übersehen, ist die Entwicklung in den entscheidenden Ländern Indien und China. Beide haben dem Pariser Klima-Abkommen zugestimmt, sind jedoch berechtigt bis 2050 soviel CO2 auszustoßen, wie sie wollen. Patricia Adams hat kürzlich einen Aufsatz mit dem treffenden Titel „THE RED AND THE GREEN CHINA´S USEFUL IDIOTS“ veröffentlicht.

Mit der von der Politik ausgerufenen Energiewende in Deutschland zerstören wir unsere sichere und unabhängige Energie-Versorgung. Hierzu gibt es viele Veröffentlichungen von unabhängigen Wissenschaftlern, Ökonomen und Ingenieuren. Am bekanntesten ist wohl der ehemalige Chef des ifo-Instituts Prof. Hans-Werner Sinn. Er warnt seit vielen Jahren vor dem Umbau der deutschen Strom-Versorgung hin zu einem Übermaß an regenerativer Stromerzeugung.

6.4.) Stimmen anderer Wissenschaftler

Es gibt auch Wissenschaftler, die sich in Veröffentlichungen kritisch zur Problematik der Ermittlung der mittleren Lufttemperatur der Erde in den letzten 170 Jahren geäußert haben. Verstärkt wird diese Kritik durch geachtete wissenschaftliche Stimmen, welche die Methodik der Temperatur-Ermittlung, das Verständnis des Klimas und den Ausblick auf die Zukunft des Klimas durch die Klimawissenschaftler mit ihren aufwändigen Computer-Modellen in Frage stellen. Dazu 2 ausgewählte Bespiele.

6.4.1.) Fundamentalkritik durch das Genie Freeman Dyson

Freeman Dyson (s. Abb. 9, links), der geniale Mathematiker und Physiker lehrte über 40 Jahre Jahre lang an der Princeton University am Lehrstuhl für Theoretische Physik. Sein Vorgänger auf diese Position war Albert Einstein. Leider ist Freeman Dyson am 28.02.2020 im Alter von 96 Jahren verstorben. In Amerika, sowie in naturwissen-schaftlichen Kreisen, galt Freeman Dyson als Genie. Wegen seiner freundlichen und humorvollen Art war er ein „Wissenschafts-Superstar“. In Interviews wusste er immer zu überraschen und sorgte für Heiterkeit. Andererseits war er kein Mensch, der gemütlich auf der Mainstream-Welle schwamm (s. Abb. 9, rechts).

Abb. 9  Freeman Dyson (2007) am Institute of Advanced Study. Bildlizenz: MonroemFreeman dysonCC BY-SA 3.0 

 

Bereits Ende der 60er-Jahre und Anfang der 70er-Jahre war Dyson an den ersten Computer-Modellrechnungen zur Darstellung und Voraussage des Wetters beteiligt. Kein Wissenschaftler auf der Welt kann diese jahrzehntelange Erfahrung auf diesem Gebiet vorweisen. Kaum jemand kennt die Stärken und Schwächen der Klima-Vorhersage besser als er. In vielen Interviews der letzten 15 Jahre wurde er zu seiner Position in der Diskussion zum Klimawandel befragt. Seine Haupt-Thesen stellte er folgendermaßen (hier vereinfacht) dar:  1.) Die Wissenschaft ist noch nicht annähernd in der Lage die Komplexität des Wetters und des Klimas zu verstehen. Viele Fragen zur Wolkenbildung, der Rolle der Ozeane, Einflüsse der Sonne, usw. sind ungeklärt.  2.) Versuche, das Klima über längere Zeiträume vorauszusagen, müssen zwangsläufig scheitern. 3.) Der Einfluss des anthropogenen CO2 zur Erderwärmung der letzten 170 Jahre wird überbewertet. Dagegen werden die positiven Effekte der gestiegenen CO2-Konzentration in der Atmosphäre nicht ausreichend berücksichtigt.

6.4.2.) Positive Auswirkungen der erhöhten CO2-Konzentration

Die USDA (U.S. Department of Agriculture) meldet seit vielen Jahren eine stetig steigende weltweite Getreideernte. Diese Meldungen beschränken sich nicht auf nur auf die weltweite Weizenernte (s. Abb. 10) sondern sind für alle wichtigen Getreidearten wie Reis, Gerste, Mais oder Soja zu beobachten. Wo sind die Auswirkungen der Hitzeperioden, Trockenperioden, Stürmen und Hochwasser, wie sie von den Klima-Alarmisten propagiert werden? Fakt ist, CO2 ist der mit Abstand beste Pflanzendünger.

Abb. 10  Weltweite Weizenernte der letzten 20 Jahre (Quelle: USDA)

 

Abb. 11  Bild aus einer NASA-Studie von 2016 „Carbon Dixoide Fertilisation, Greening Earth“ [6]

 

Eine NASA-Studie aus 2016 belegt eindeutig den Düngungs-Effekt durch vermehrtes CO2 in der Atmosphäre. Die Satelliten-Daten (s. Abb. 11) zeigen einen unerwarteten und höchst erstaunlichen Effekt. Die Erde wird grüner! Dank der erhöhten CO2-Konzentration wachsen die Pflanzen besser und schneller, die Wüsten der Erde werden kleiner.

Die Weltbevölkerung steuert bald auf 8 Mrd. Menschen zu. Deshalb sollte die Welternährungs-Organisation der UNO (FAO) eine Studie in Auftrag geben, wieviel Menschen die Erde im Jahr 1850 mit einer CO2-Konzentration von 280 ppm im Vergleich zu heute mit einer CO2-Konzentration von 410 ppm hätte ernähren können. Eine spannende Frage, zumal das Jahr 1850 als „gute“ vorindustrielle Zeit gilt. Die Klima-Alarmisten fordern doch die Rückkehr zu den CO2-Werten der Atmosphäre vor 170 Jahren.

6.4.3.) Bewertung der Temperaturdaten durch Pat Frank

Unterhalb des Radars der Öffentlichkeit wird der der Druck im „Schnellkochtopf“ der Klimawandel-Diskussion immer größer. Die klimakritischen, nicht IPCC-konformen wissenschaftlichen Papers sind von Jahr zu Jahr in größerer Anzahl zu vermelden. Bisher schaffen es jedoch die gleichgeschalteten Medien, besonders in Deutschland, diese Informationen gut unter den Teppich zu kehren. Nur Leute, die bewusst nach nicht klima-alarmistischen Informationen suchen, werden fündig. Ansonsten ist die Meinungs-Hoheit  fest in der Hand der Mainstream-Medien.

Abb. 12  Bewertung der Messfehler bei den durchschnittlichen weltweiten Temperaturen nach Pat Frank

 

Was in diesem Aufsatz eher qualitativ bewertet wurde, hat Pat Frank bereits 2010 und 2011 in 2 interessanten Veröffentlichungen quantifiziert. Er untersuchte die vorliegenden Temperaturdaten nach mathematisch physikalisch Prinzipien auf Zuverlässigkeit. Seine Ergebnisse sind in einem Diagramm zusammengefasst (s. Abb.12).

Quellen: Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surf

Die Schlussfolgerungen von Pat Frank zu den Fehlergrößen der Temperatur-Messungen in den letzten 170 Jahren sind logisch und nachvollziehbar. Dabei kommt es nicht darauf an, ob der Fehlerbalken 0,46K (s. Abb. 12) groß ist, etwas größer oder kleiner. Entscheidend ist die Erkenntnis, dass die Darstellungen in allen wissenschaftlichen Veröffentlichungen und in den Medien deutlich fehlerbehaftet sind.

Abb. 13: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. [7]

Mit großer Wahrscheinlichkeit sind die einheitlichen Fehlerbalken von Pat Frank über den gesamten Zeitraum von 170 Jahren nicht durchgehend realistisch. Die messtechnischen Entwicklungen und bessere Verteilung der Mess-Stationen über die Erde im Laufe der Zeit werden von ihm nicht berücksichtigt. Realistischer dürfte die Abschätzung des englischen Metoffice-Instituts sein (Abb. 13). Die Fehlerbalken sind im 19. Jahrhundert groß und werden im Laufe der Zeit kleiner. Eine Darstellung, die wesentlich besser die Argumente in den vorhergehenden Kapiteln dieses Aufsatzes berücksichtigen.

7.) Schlussfolgerungen

Die Grundlage aller Argumente und Schlussfolgerungen des IPCC, der Klima-wissenschaftler und Klima-Alarmisten sind die verfügbaren weltweiten Durchschnitts-Temperaturen seit 1850. Die Zeit zu Beginn der Industrialisierung ist sozusagen der „Absolute Nullpunkt“ für die Temperatur-Entwicklung auf unserer Erde. Dieser Bezugspunkt wurde gewählt, weil ab dort die Menschheit relevant zum Anstieg der CO2-Konzentration in der Atmosphäre beigetragen hat. Der so genannte anthropogene CO2-Anteil. Was nützten starke Mauern, massive Zwischendecken und ein festes Dach, wenn das Fundament eines Gebäudes zu schwach ausgelegt ist? Fakt ist, die verfügbaren Temperaturdaten (Fundament) sind fehlerbehaftet. Die Fehlergröße bewegt sich in einem Bereich, wo eine Referenzierung auf diese Daten wissenschaftlich keinen Sinn macht. Alle noch so großen Anstrengungen der Klimawissenschaftler mit ihren immer leistungsfähigeren Großcomputer werden die Simulationen zur Zukunft des Erdklimas nicht verbessern. Die Datenbasis ist schlecht, die Kenntnisse über das hoch komplexe Klima immer noch gering (Freeman Dyson). Deshalb bleibt die Klimawissenschaft, die einzig auf die Wirkung des anthropogenen CO2 abzielt, eine Pseudo-Wissenschaft.

Referenzen:

[1]  Ivar Giaever, The Strange Case of Global Warming, 2012 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[2]  Ivar Giaever, Global Warming Revisited, 2015 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[3]   Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface
air temperature index: representative lower limit

[4]  Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and
Neglected Uncertainty in the Global Average Surface

[5]   Patricia Adams in GWPF, 2020   https://www.thegwpf.org/content/uploads/2020/12/Green-reds.pdf?utm_source=CCNet+Newsletter&utm_campaign=ac7e32fda3-EMAIL_CAMPAIGN_2020_12_11_10_30_COPY_01&utm_medium=email&utm_term=0_fe4b2f45ef-ac7e32fda3-36485917&mc_cid=ac7e32fda3&mc_eid=a769d95777

[6]  https://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth

[7]  Metoffice:  https://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/comparison.html

Der Beitrag erschien zuerst bei Die Kalte Sonne hier

Über den Autor:

Andreas Karl, ist promovierter Diplom-Chemiker (Organische Chemie)  55 Jahre alt, verheiratet, 3 erwachsene Kinder und auch schon stolzer Opa.
Lebt in der Mittleren Oberpfalz. Seit der Uni-Ausbildung nicht mehr in der Forschung tätig, hat jedoch nie den Bezug und das Interesse an Naturwissenschaft und Technik verloren. Seit ca. 2 Jahren großes Interesse zum Thema „ Klimawandel“. Arbeitet im Vertrieb bei einem großen Chemie-/ Pharma-Konzern.

Anmerkung der Redaktion

Es sei auch in diesem Zusammenhang auf die grundlegenden Arbeiten unseres Vizepräsidenten Michael Limburg verwiesen. Der sie im März 2010 über seine offiziell eingereichte Dissertation  der Öffentlichkeit vorstellte. Wer sie nachlesen möchte mag dies hier tun.



Angeblicher deutscher Hitzerekord von 2019 annuliert – wegen Meßfehler

Spektrum meldet, daß die angeblich höchste je gemessene Temperatur in Deutschland am 25. Juli 2019 in Lingen erreicht wurde. Nun wurde nach technischer Kritik vom Deutschen Wetterdienst DWD offiziell annuliert. Wo lag der Fehler?

Ganz einfach – der Luftaustausch beim Meßfühler war nicht ausreichend. Da einige Fachleute den Treibhauseffekt vollständig oder teilweise auf mangelnden Wärme-Austausch zurückführen, kann etwas ähnliches hier vermutet werden. Neue Rekordhalter sind laut DWD die Wetterstationen Duisburg-Baerl und Tönisvorst mit am 25. Juli 2019 gemessenen 41,2 Grad Celsius. Beide Stationen mit derselben Temperatur, am selben Tag wie der falsche Wert aus Lingen? Hört sich zumindest verdächtig an.

Es gibt noch viele andere Möglichkeiten von Meßverzerrungen, die Michael Limburg 2018 in seinem Vortrag auf unserer Konferenz eingehend beleuchtet. Nebenbei: Unser Vizepräsident ist Ingenieur für Meßtechnik.

Sehen Sie die Video-Vorschau nicht? HIER KLICKEN!

Auf unserer Konferenz 2019 hatte Nicola Scafetta das Problem des Wärmeinsel-Effektes beleuchtet, was generell für die steigenden Temperaturen im Bereich von wachsenden Siedlungen auftritt:




Klimaschau 2 – die Tagesschau von Sebastian Lüning

Keine Vorschau? HIER KLICKEN!




Bidens Plan für grüne Energie, wird die USA von China abhängig machen

Wir alle sind uns seiner Inkonsistenzen im Wahlkampf bewusst, wenn es um Fracking ging. Während einer der demokratischen Präsidentschafts – Debatten war Biden sehr klar als er sagte, dass er „..sicherstellen würde, … Fracking wird beseitigt und es gibt keine Subventionen mehr für … Fracking oder Kohle“. Später ruderte sein Kampagnenteam zurück, und korrigierte „…   Biden unterstützt kein landesweites Fracking-Verbot, will aber dennoch alle Öl- und Gasbohrungen in Bundesländern stoppen.“

Die wirtschaftlichen Konsequenzen dieses Plans liegen auf der Hand – eine kürzlich durchgeführte Studie ergab, dass es „fast 200.000 Arbeitsplätze kosten, der US-Regierung Milliarden von Einnahmen Dollar verweigern und die Offshore-Produktion in andere Länder verlagern würde“. Dies sind Arbeitsplätze, Einnahmen und Geschäfte, die die Amerikaner mehr denn je brauchen, wenn wir uns von COVID-19 erholen wollen. Leider gehen die Auswirkungen von Bidens Energieplan weit über die Wirtschaft hinaus.

In einer kürzlich durchgeführten Studie hat Power The Future (PTF) die geopolitischen Gefahren von Bidens letztendlichem Ziel aufgezeigt – den Übergang der US-Wirtschaft zu einer Wirtschaft, die von Wind, Sonne und anderen erneuerbaren Energiequellen angetrieben wird. Unter Präsident Trump erlangte Amerika zum ersten Mal Energieunabhängigkeit, indem es unsere eigenen reichlich vorhandenen natürlichen Ressourcen nutzte. Biden gefährdet nicht nur diesen Vorteil, sondern übergibt unserem größten Gegner auch einen erheblichen Hebel.

Bidens Ziel, bis 2035 CO2-frei zu sein, würde eine dramatische Verlagerung in Richtung Wind und Sonne bedeuten, eine immense Batteriespeicherkapazität notwendig machen und ein Schwenk auf  Elektrofahrzeuge. Offensichtlich wird dies alles eine bedeutende Herstellung „umweltfreundlicher“ Technologien erfordern – von denen ein Großteil von China kontrolliert wird. Eine frühere PTF- Studie untersuchte die Konsequenzen der Kontrolle Chinas über die Verarbeitung und den Abbau von Seltenerdmaterialien, die für die Mehrheit der grünen Technologien von wesentlicher Bedeutung sind.

Einfach ausgedrückt, wir können es China nicht erlauben, unseren Zugang zu kritischen Ressourcen im Rahmen von Bidens Energieplan zu kontrollieren. Eine vollständige Abhängigkeit dieser Materialien von China sowie die sich abzeichnende Fähigkeit, unser Angebot an Seltenerdmaterialien jederzeit zu unterbrechen, ist ein großes nationales Sicherheitsrisiko. Es ist wahrscheinlich, dass China den Markt mit billiger grüner Technologie überfluten wird, um die Produkte dann strategisch zu rationieren und zu regulieren, sobald sie eine Abhängigkeit hergestellt haben.

Wir haben bereits mit COVID-19 die Konsequenzen erlebt, wenn wir uns bei der medizinischen Versorgung auf China verlassen. Bidens vorgeschlagener Energieplan berücksichtigt diese Lehre nicht, und China bereitet sich nun darauf vor, die Herstellung „umweltfreundlicher“ Technologien zu monopolisieren. Leider sind sie nicht die einzigen, die sich auf diese Verschiebung vorbereiten. Die Wall Street hat deutlich gemacht, dass sie eine signifikante Verlagerung auf erneuerbare Energien erwartet.

Die Investitionen in nachhaltige Fonds stiegen im dritten Quartal gegenüber dem Vorquartal um 14%. Ende September verfügten „nachhaltige Fonds“ über ein Vermögen von 1,26 Billionen US-Dollar – eine Steigerung von 19% gegenüber dem zweiten Quartal. Es ist schon schlimm genug, dass wir eine radikale Verlagerung hin zu grüner Energie erwarten können, die alle wirtschaftlichen und nationalen Sicherheitsbedenken ignoriert, aber jetzt trägt die Wall Street dazu bei, den Übergang zu beschleunigen.

Ich glaube nicht, dass irgendjemand argumentieren wird, dass China vertrauenswürdig ist. Warum scheint Biden dann so beharrlich auf einer grünen Agenda zu stehen, die uns nur in eine größere Abhängigkeit von der kommunistischen Nation treiben wird? Es kann argumentiert werden, dass seine Rhetorik auf dem Feldzugspfad nur die Öko-Linken für ihn einnehmen sollte, aber jetzt sind die Konsequenzen seiner Worte viel realer. Hoffen wir, dass Biden im Interesse unserer Wirtschaft, der nationalen Sicherheit und der finanziellen Erholung von dieser Pandemie, die Gefahren einer so bedeutenden Abhängigkeit von China versteht.

Biden, oder besser gesagt der Praktikant, der seinen Account führt, hat „America is back“ getwittert, was vermutlich auf eine Rückkehr zum internationalen Engagement hinweist. Wenn sich die Welt im freien Fall befindet, so sagen uns die Videos der Fluggesellschaft vor dem Flug, dass wir zuerst unsere Maske aufsetzen müssen, bevor wir anderen helfen können. Die Stärkeren müssen stark bleiben, um den Schwachen zu helfen. Ein starkes Amerika kann besser „zurück sein“. Amerikanische Schwäche macht uns nicht einfühlsamer, fürsorglicher oder mitfühlender. Es macht die Welt nicht sicherer und besänftigt nicht den Zorn unserer Gegner.

Amerika könnte eine noch größere Kraft für das Gute in der globalistischen Vision einer Welt sein, wenn wir nicht zur Abhängigkeit vom Nahen Osten für Öl zurückkehren und eine neue Abhängigkeit von China für grüne Technologie schaffen. Autonomie und Selbstversorgung sind keine schlechten Dinge und wenn Biden seine globalistische Agenda verfolgt, sind sie unverzichtbar.

Daniel Turner ist der Gründer und Geschäftsführer von  Power The Future , einer nationalen gemeinnützigen Organisation, die sich für amerikanische Energiearbeitsplätze einsetzt. Kontaktieren Sie ihn unter daniel@powerthefuture.com und folgen Sie ihm auf Twitter  @DanielTurnerPTF

 

https://dailycaller.com/2020/12/03/turner-bidens-green-energy-plan-will-leave-the-us-dependent-on-china/

Übersetzt durch Andreas Demmig




Europäisches Wetter-Institut stellt klar: „2020 loderten weltweit insgesamt … weniger Brände und setzten so den absteigenden Trend seit 2003 weiter fort.“

Flächen-deckend und unentwegt wird von den Klima-Alarmisten und Medien gebets-mühlen-artig DAS behauptet und verbreitet :

()  DEUTSCHE WELLE (23.09.2020) [a]:

„Das Ausmaß der Waldbrände bricht in den USA alle Rekorde. Die Rufe werden lauter sie „Klimabrände“ zu nennen, die Sprache solle unmißverständlich sein.“

()  SPON; Stefan Rahmsdorf (18.09.2020) [b]:

„Tatsächlich zeigen die Daten für Kalifornien, daß sich besonders heiße und trockene Feuersaisons seit der Jahrtausendwende häufen – und daß genau unter diesen Bedingungen die schlimmsten Feuer auftreten. Die Daten bestätigen damit die Prognosen der Klimaforscher.“

()  DIE WELT (13.05.2016) [c]:

„Waldbrände durch Klimawandel?“„Die Waldbrände in Alberta sind ein hervorragendes Beispiel für das, was wir zunehmend beobachten, schreibt auch der US-Klimaforscher Jonathan Overpeck …“.

()  DER TAGESSPIEGEL (17.09.2020) [d]:

Der Klimawandel ist der Brandstifter – und das sind die Indizien … Die Waldbrände im Westen der USA erreichen katastrophale Ausmaße. Lange fehlte die Verbindung zur globalen Erwärmung. Doch das hat sich geändert.“

Diese wenigen(!) Beispiele von TAUSENDEN(!) mögen hier genügen.

Allerdings – es gibt sie doch noch:

Kritischen Journalisten und Wissenschaftler bei der ganzen Klima-Hysterie. Dazu hier ein aktuelles Zitat zu unserem Thema, aus dem ausführlichen Interview mit Prof. Fritz Vahrenholt aus dem HAMBURGER ABENDBLATT [e]:

„Wir hatten im Sommer eine Hitzewelle in Sibirien, die überall ein großes Thema war. Zugleich war es in Brasilien so kalt wie seit 50 Jahren nicht, davon sprach niemand. Wir haben eine selektive Wahrnehmung. Dabei zeigen wir im Buch (Anm.: „Unerwünschte Wahrheiten“), daß die Zahl der Hurrikane, Starkregenereignisse oder Dürren eben nicht zugenommen hat.“

Und nun kommt von höchster Europäischer Wissenschafts-Institution (ECMWF/Copernicus) die sachliche Richtigstellung für die Bürger und zugleich die Ernüchterung für die Alarmisten [f]:

Obwohl manche Regionen, wie beispielsweise der Westen der USA, stark betroffen waren, loderten 2020 weltweit insgesamt jedoch weniger Brände und setzten so den absteigenden Trend seit 2003 weiter fort.

u.w.a.a.O.:

„Während Regionen wie der nördliche Polarkreis und der Westen der USA Brände von nie dagewesenen Ausmaßen und Intensität erlebten, war auf globaler Ebene 2020 eines der Jahre mit den geringsten gemessenen Brandaktivitäten. Dies hat zu einem weiteren Rückgang der Feueremissionen geführt und den Trend der letzten 17 Jahre fortgesetzt.“ …

„Die Beobachtungen werden von Sensoren in Satelliten durchgeführt … Copernicus ist das wichtigste Erdbeobachtungsprogramm der Europäischen Union.“

Anm.: die Hervorhebungen in den Zitaten sind von der EIKE-Redaktion

F A Z I T :

Das Europäische Wetter- und Klima-Institut ECMWF hat soeben klar gestellt:

Es gibt keinen globalen Trend zu mehr Wald- und Buschbränden.

==================================================================

Q u e l l e n :

[a]  https://www.dw.com/de/klimawandel-in-der-sprache-sollten-wir-%C3%BCber-waldbr%C3%A4nde-oder-klimabr%C3%A4nde-sprechen/a-55013351

[b]  https://www.spiegel.de/wissenschaft/mensch/kalifornien-die-drei-klima-treiber-der-waldbraende-a-13dcf2e6-8820-44b6-8f3e-42094a9a7211

[c]  https://www.welt.de/print/die_welt/wissen/article155308133/Waldbraende-durch-Klimawandel.html

[d]  https://www.tagesspiegel.de/wissen/historische-feuer-katastrophe-in-den-usa-der-klimawandel-ist-der-brandstifter-und-das-sind-die-indizien/26189788.html

[e] HAMBURGER ABENDBLATT, 11.12.2020, S.10, THEMA: „Uns droht dramatischer Wohlstandverlust“.

[f]  [Copernicus Atmosphere Monitoring Service/ECMWF; https://atmosphere.copernicus.eu/qa-wildfires;Presse-Mitt. (Deutsche Fassung): Von: Copernicus Press [mailto:copernicus-press@ecmwf.int],Gesendet: Montag, 14. Dezember 2020 12:05; Betreff: Newsflash: Copernicus]

[g]  https://eike.institute/2020/01/13/australiens-busch-brennt-die-agw-klimahysterie-lodert-mit/  (13.01.2020)

==========================================================================

Auf den oben vom ECMWF/Copernicus Sachbestand hatte EIKE unlängst hin gewiesen [g]. Die wesentlichen Aussagen und Graphiken seien hier nochmals angefügt :

Australiens Busch brennt – die AGW-Klimahysterie lodert mit !

(1) WAS sagen die Chroniken ?

In Überlieferungen findet man z.B. [1]  :

„Das Buschfeuer in Victoria 1851 ereignete sich am 6. Februar 1851 in Victoria (in AustralienBlack Thursday genannt). Es war das größte Buschfeuer, das sich bis dahin in einer von Europäern bevölkerten Region Australiens ereignet hatte. Es verbrannten 50.000 km² Land und 12 Menschen, über eine Million Schafe und Tausende von Rindern kamen ums Leben.

Die von dem Feuer betroffenen Gebiete lagen um Portland, Westernportund im Plenty Rangessowie im Wimmera– und im Dandenong-Distrikt.[1]Das verbrannte Gebiet erstreckte sich über ein Viertel des Bundeslandes Victoria.

Bereits im Jahr 1850 gab es eine große Hitze und Trockenheit, Bäche und Billabongstrockneten aus und Schafe und Rinder verdursteten, die Sonne verbrannte die Graslandschaften, Gebüsch und Bäume vertrockneten. Als der australische Sommer weiter fortschritt, steigerte sich diese Entwicklung. Am Morgen des 6. Februar 1851 entstand starker Wind, der sich zu einem Tornado entwickelte.

Feuer brach aus und Männer, Frauen und Kinder, Schafe und Rinder, Vögel und Schlangen flohen vor den Feuern in großer Panik, Farmhäuser, Zäune, Gärten, Scheunen und Brücken brannten. Die Luft war erfüllt von Rauch, der sich auch bis über das Meer hinaus erstreckte, wie von Schiffen berichtet wurde.[2]

(2)  WAS zeigen die meteorologischen Messungen in Australien ?

Folglich :

Ob Max.-Temperaturen, Dürren, Regen – alles schwankt und fluktuiert in Jahren, Jahrzehnten und Jahrhunderten; alles schon mal da gewesen.

Mehr noch :

Betrachtet man die Daten des Australischen Wetterdienstes, dann gibt es sogar einen säkularen signifikanten Trend zu mehr Niederschlag in fast allen Regionen Australiens [3 ]:

Zusammenfassend sagt eine Publikation meteorologischer Daten von Australien [3]:

„In NSW ist es derzeit nicht heißer oder trockener als es immer wieder mal der Fall war, obwohl es in diesem Jahr zweifellos recht heiß und trocken ist. Aber das sind einfach nur Wettervorgänge, wie es sie auch vielfach in der Vergangenheit schon gegeben hat.“

(3)  Gibt es außerhalb von Australien einen globalen Dürre-Trend?

Dazu schreibt der Klimarat IPCC :

D a z u   ist das die Datenbasis, der Beweis:

(4)  Gibt es außerhalb von Australien regionale Dürre-Trends?

(a)  U S A :

(b)  I n d í e n :

(c)  S A H E L

(d)  E u r o p a :

(e)  H i s t o r i s c h e  Daten :

 

(f)  Meteorologische Bewertung :

Dazu der meteorologische Altbarde Jörg Kachelmann auf MEEDIA [26.04.22019 ; https://tinyurl.com/y4na2gwq] :

(5)  Gibt es außerhalb von Australien regionale Waldbrand-Trends?

Nun,  w e n n  es keine Trends zu mehr Dürren gibt,  d a n n  kann es auch keine Trends zu mehr Waldbränden geben – und genau das zeigen auch die Beobachtungen über lange Zeiträume :

(6)  Die Erde ergrünt !

Jüngst haben sogar die AGW-gleich-geschalteten Medien ausführlich darüber berichtet :

„Die Welt wird grüner“

„CO2 sorgt für den Klimawandel – doch gleichzeitig läßt es verstärkt Pflanzen wachsen. Satellitendaten zeigen: Die Erde ergrünt. “ [5].

F o l g l i c h :

W e n n  die Erde nachweislich(!) GRÜNER geworden ist,  d a n n  kann das wohl kaum durch zunehmende Dürren und vermehrte Waldbrände verursacht sein. DAS wäre/ist ein Widerspruch in sich. Merkt das noch jemand ? … Die meisten Journalisten und Politiker offensichtlich nicht (?).

Ergänzende Schluß-Anmerkung :

Hierzulande ist kaum bekannt, daß in Australien früher wie heute von Forstleuten die verpflichtende Beseitigung brennbaren Unterholzes aus der näheren Umgebung von Siedlungen dringend empfohlenen wird [6]. Genau das wurde mit dem Einzug der Grünen in die Parlamente in einigen australischen Bundesländern inzwischen gesetzlich untersagt.

Hinzu kommt aktuell :

Es mehren sich Hinweise, daß bei den ständig neu aufflackernden Brandherden und der Brand-Ausbreitung in Australien pyromane Brandstiftung eine Rolle spielt; von über 100 diesbezüglichen Verhaftungen wird berichtet, z.B. in DailyMail [7]. Das ist schlimm, erzeugt zusätzliche Probleme und neues Leid – ist aber für unsere vorstehend naturwissenschaftliche Betrachtung kein Thema.

F a z i t  :

o  Der Klimarat IPCC findet global keine Trends zu mehr Dürren, die Wetterdienste in aller Welt auch nicht ;

o  Die Langzeit-Beobachtungen und Statistiken von Dürren zeigen eher eine Abnahme als ein Zunahme ;

o  Zum gleichen Ergebnis kommen historische Auswertungen der vergangenen 1000 Jahre ;

o  Regionale Statistiken zu Waldbränden zeigen eine säkulare Abnahme ;

o  Die Waldbrände in Australien sind eine Wetterlagen-bedingte Natur-Katastrophe, aber kein Klima-Trend ;

„ständige“gegenteilige Behauptungen zu alledem sind falsch !

=================================================================

Anm.: die Hervorhebungen in den Zitaten sind von der EIKE-Redaktion

Q u e l l e n :

[1]  taz:  https://taz.de/Waldbraende-in-Australien/!5653513/

[2]  https://de.wikipedia.org/wiki/Buschfeuer_in_Victoria_1851

[3]  https://www.thegwpf.com/are-australian-wildfires-due-to-climate-change/  u n d

https://eike.institute/2020/01/01/gehen-die-waldbraende-in-australien-auf-den-klimwandel-zurueck/

[4]  IPCC 2013, AR5, WGI, Technical Summery, Seite 50, pdf-Seite 66

[5]  Die Welt wird grüner: https://www.spiegel.de/wissenschaft/natur/co2-macht-die-welt-gruener-a-1089850.html

[6]  https://www.washingtonexaminer.com/opinion/australian-wildfires-were-caused-by-humans-not-climate-change

[7]  https://www.dailymail.co.uk/news/article-7860635/Australian-bushfire-crisis-183-people-arrested-24-charged-starting-fires.html

==================================================




Die große Transition! – Europas Strompreise explodieren, wenn die Sonne untergeht und der Wind nicht weht

Diese opportunistischen „Teufel“, die zuverlässige, mit fossilen Brennstoffen betriebene Kraftwerke beherrschen, verhalten sich wie wahre Banditen. Während die Energie-Spekulanten-Punters sich auf einen weiteren bitteren Winter vorbereiten, lassen sie die ärmeren Bewohner im Dunkeln frieren.

 

Die Strompreise in Großbritannien steigen, nachdem der nationale Stromnetzbetreiber  vor Versorgungsrisiken gewarnt hat

Rachel Morison, Bloomberg, 6. Dezember 2020

Die Strompreise in Großbritannien stiegen auf ein Vierjahreshoch, nachdem der britische Netzbetreiber gewarnt hatte, dass sein Sicherheitspuffer für die Versorgung am Sonntagabend fast erodiert ist.

National Grid Plc sagte in einer auf Twitter veröffentlichten Warnung, dass es „die Situation genau überwacht“. Der Netzbetreiber verbreitete keine offizielle Warnung mehr, die als Electricity Margin Notice [~Strommangel …] bezeichnet wurde und zuletzt am Donnerstag ausgelöst wurde. Normalerweise wird es veröffentlicht, wenn die Sicherheitsmarge für den Betrieb des Systems unter das von der Regierung zugelassene Niveau sinkt.

National Grid ESO – EoZWP2pW8AICxiR

Es ist ungewöhnlich, dass es an einem Wochenende Probleme gibt,  wenn der Verbrauch typischerweise niedriger ist, da Büros und Industrie geschlossen sind. Das zeigt, wie nahe das britische Stromnetz in diesem Winter an die Belastungsgrenze gekommen ist. National Grid erwartet in diesem Jahr weitere Versorgungswarnungen, sagte der Vorstandsvorsitzende John Pettigrew in einem Interview mit Bloomberg im vergangenen Monat. Der Spielraum zwischen Angebot und Nachfrage sei der knappste, den Großbritannien seit etwa vier Jahren gesehen habe.

Read more of the interview with National Grid’s CEO here

Der Strom für die Lieferung am Sonntagabend wurde in einer Auktion am Samstag auf der Epex Spot SE mit bis zu 350 Pfund (470 USD) pro Megawattstunde gehandelt. Dies ist der höchste Wert für den Zeitraum von 17 bis 18 Uhr seit November 2016. Der Peakload [Spitzenlast]-Vertrag stieg auf 96,29 Pfund pro Megawattstunde, der höchste Wert seit 2018, wie die Daten zeigen.

 

National Grid ESO, Prognosen für den Winter 2020 Seite 12.

Wir erwarten Nettoimporte von Strom durch Verbindungsleitungen von Kontinentaleuropa nach GB für den größten Teil des Winters. Wir erwarten typischerweise Strom- Export von GB nach Nordirland und Irland während der Spitzenzeiten.

Diesen Winter erwarten wir…

  • steigende-Preise in GB vor denen in Kontinentaleuropa für den größten Teil der Winterperiode
  • Importe in GB zu Spitzenzeiten über IFA, BritNed und Nemo Link Verbindungsleitungen, obwohl gelegentlich nicht vollständig importiert und vorbehaltlich Wettervariationen
  • Moyle- und EWIC-Interkonnektoren werden normalerweise von GB nach Nordirland und Irland in Spitzenzeiten exportiert
  • Einige Importe über Moyle und EWIC in Zeiten hoher Windleistung in Irland oder in Zeiten von Systemstress in GB

https://www.nationalgrideso.com/document/178126/download

Epex Spot Data – Preisspitzen

National Grid bemüht sich, das System in der Balance zu halten, da die Nachfrage bei kälterem Wetter steigt und die Winderzeugung voraussichtlich gering ist. Die Prognosen zeigen, dass sich die Situation nächste Woche fortsetzt. National Grid identifizierte nächste Woche als einen der Krisenpunkte in seinen Winteraussichten.

National Grid – Weather outlook

Großbritannien bezieht etwa 8% seiner Stromversorgung über Verbindungsleitungen  aus Europa. Eine dieser sogenannten Interkonnektoren führt nach Frankreich. Die angespannte Stromversorgung könnte durch einen geplanten Streik der Mitarbeiter von Electricite de France SA am 10. Dezember noch verschärft werden. Wenn sich der Streik auf die Kernkraftwerke ausweitet und Frankreich keinen Strom nach Großbritannien exportieren kann, könnte National Grid vor einer noch härteren Herausforderung stehen, die Lichter nicht ausgehen zu lassen.

Wenn die verfügbaren Strommengen niedrig sind, fordert National Grid zunächst alle ansprechbaren Kohle- und Gaskraftwerke zum Betrieb auf. Reicht das dann nicht, können einige Großverbraucher aufgefordert werden, ihre Nachfrage zu drosseln, um zu versuchen, das System auf diese Weise am Laufen zu halten. Danach fordert der Netzbetreiber die lokalen Versorger auf, die Stromversorgung der Verbraucher vorübergehend zu unterbrechen. [das heißt dann smart Energiemanagement]

Bloomberg

 

Die Strompreise erreichen in Belgien ein Rekordhoch.

The Brussels Times, 11. Dezember 2020

Die Strompreise stiegen am Montagmorgen in Belgien aufgrund ungünstiger Wetterbedingungen auf Rekordhöhen.

Die Preise schossen auf 2.300 € pro MWh, weil Mangels an Wind und Sonne Windkraftanlagen und Sonnenkollektoren kaum „erneuerbare [?] Energie“  produzierten.

Im Oktober hatten Solar- und Windenergie einen Rekordanteil von 23% im Stromnetz, da in Belgien immer mehr Solarmodule und Windparks errichtet wurden. Darüber hinaus waren die Temperaturen in Belgien niedrig, was dazu führte, dass viele ihre elektrischen Heizungen einschalteten. In Verbindung mit dem Mangel an nuklearer Kapazität in Frankreich stiegen die Kosten für die Stromversorgung auf 66 EUR / MWh.

The Brussels Times

 

https://stopthesethings.com/2020/12/16/some-transition-europes-power-prices-rocket-whenever-the-sun-sets-calm-weather-sets-in/

Übersetzt durch Andreas Demmig

***

Fundstück zur Smart Home Lösung auf der Seite des BMWI

… Die intelligente Verknüpfung von Verbrauchs- und Erzeugungsanlagen ermöglicht es, den Eigenverbrauch unter Berücksichtigung der Wetterentwicklung zu prognostizieren und zu optimieren. Mit einer einzigen App kann ein Haushalt mit Solaranlage beispielsweise bei Vorhersage eines sonnigen Tages die Wasch- oder Spülmaschine am Morgen so programmieren, dass sie mittags läuft. Der zusätzlich gespeicherte Solarstrom kann abends zum gemeinsamen Kochen oder dem Aufladen des Elektroautos genutzt werden.

… Die Einspeisung von Sonnen- und Windenergie unterliegt zudem starken Schwankungen. Intelligentes Energiemanagement muss unter diesen Voraussetzungen Erzeugungs- und Verbrauchsmuster in Einklang bringen“, erklärt Dr. Thomas Goette, Geschäftsführer der Kölner GreenPocket GmbH.

https://www.bmwi.de/Redaktion/DE/Artikel/Digitale-Welt/Intelligente-Vernetzung/KARTE-Best-Practice/036-green-pocket-energiemanagement-projektsteckbrief.html

Zum Smart (?)  kein Kommentar, aber das hier zur Erinnerung

Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlast­fähigkeit




Maja Göpel: „Das Wichtige an der Pandemie­erfahrung ist, daß die Idee implodiert ist, dass es nicht anders geht, als wir es bisher machen“

Maja Göpel ist unseren Lesern bekannt als ehemalige Generalsekretärin des Wissenschaftlichen Beirates der Bundesregierung Globale Umweltveränderungen (WBGU) und Leiterin der Berliner Dependance des Wuppertal Instituts für Klima, Umwelt, Energie, der NRW-Version des PIK von Schellnhuber und Rahmstorf. Außerdem ist sie Mitglied des Club of Rome und Mitgründerin von Scientists for Future SFF

Als interessenneutrale Wissenschaftlerin kann man sie also nicht so recht bezeichnen; gerade ihr Engagement für SFF mit Eckart von Hirschhausen („Die Erde hat Fieber!“) macht klar, daß sie eine Aktivistin ist. Im November wechselte sie als Forschungsleiterin an The New Institute TNI, eine Denkfabrik (Thinktank) des Hamburger Großreeders Erck Rickmers. Der seltsame Name des Institutes verwundert zunächst; die Selbstbeschreibung läßt aber keinen Zweifel, worum es dieser NGO geht:

Die Klimakrise ist eine Herausforderung und ein Symptom für unser weit verbreitetes Versagen, das Leben auf der Erde mit unserem Verhalten und Handeln zu unterstützen. Wir befinden uns in einem Kreislauf des Überkonsums mit der Ausbeutung und Zerstörung unserer natürlichen Ressourcen. Wir stehen vor einer Zukunft in einer anderen Welt. Die Klimakrise ist Teil einer Reihe miteinander verbundener Krisen. Wir müssen unsere Volkswirtschaften und Demokratien grundlegend überdenken und umstrukturieren, wenn wir das Leben auf der Erde erhalten wollen.

Im Klartext: TNI käut das 50 Jahre alte Dogma des Club of Rome wieder, nach dem unsere kapitalistische (?) und auf Wachstum ausgelegte Wirtschaftsweise die Biosphäre der Erde zerstöre und bald unbewohnbar mache, mit dem aktuellen Fokus auf den „Klimakollaps“. Daß die vielen unterschiedlichen behaupteten Weltuntergänge frei erfunden sind, bewies zum Beispiel unser Autor Peter Ridd anhand des Großen Barriere-Riffes vor Australien.

Politische, also finanzielle Interessen ideologisieren meist schnell, wenn eine genügend große Anzahl privilegierter und an Transferzahlungen interessierter Kostgänger vorhanden ist. Da werden dann nicht nur „Narrative“ über böse alte weiße Männer erzählt, sondern auch Versatzstücke der echten Wissenschaft benutzt, um dem eigenen Weltbild einen vernünftigen und moralischen Anstrich zu geben.

Das können nicht nur Vertreter aus den Natur- und Meteowissenschaften wie Rahmstorf, Schellnhuber und Latif sehr gut, sondern auch politische Wirtschaftswissenschaftler wie Edenhofer und Maja Göpel, die die Stichwörter zur Etablierung der enormen finanziellen Transferleistungen liefern, man denke an die CO2-Steuer.

Passend dazu die erste Antwort von Göpel im Interview:

Ideologien sind geschlossene Weltbilder. Die helfen uns nicht weiter in liberalen, aufklärungsorientierten Gesellschaften mit einem hohen Anspruch an ihre Innovations- und Erneuerungsfähigkeit. Denkmuster zu hinterfragen, ist deshalb auch eine emanzipatorische Agenda. Einer meiner liebsten Theoretiker ist Antonio Gramsci.

Der Verweis auf Gramsci ist fast schon frech, da der Kommunist in den 1920ern die Strategie formulierte, die Genossen seien im Bereich der Wirtschaft und Politik chancenlos und müßten daher den Bildungs- und Kultursektor erobern, um das Land für ihre Bedürfnisse umzudrehen. Und genau das haben die extremistischen 68er gemacht – ihr „Marsch durch die Institutionen“ und die Nutzung von ökologischen Panik-Erzählungen unterschiedlichster Art haben ihnen viel Macht und Geld ohne Leistung beschert. Göpel gibt durch ihren Verweis auf Gramsci erstaunlich offen zu, was sie und ihre Kollegen antreibt.

Allerdings baut sie noch einen besonderen Dreh ein und behauptet, daß es nur eine „Erzählung“ sei, wirtschaftliches Wachstum und Umweltschutz (Klimaschutz?) seien vereinbar. Die Kapitalisten seien also die wahren Gramscisten – das ist nun wirklich eine Wendung, wie sie Orwell nicht besser hätte erfinden können.

Im weiteren sieht Göpel sich und ihre Kollegen als die neutralen Wissenschaftler, denen zu Unrecht vorgeworfen werde, Lobbyisten für elitäre Transferempfänger zu sein.

Da kann es schon kommod sein, die Übermittler der Analysen als Interessenvertreter für eine bestimmte Klientel abzustempeln.

Passend dazu will Göpel die liberale Marktwirtschaft wie z.B. Katja Kipping zur Lösung des „Klimaproblems“ gar nicht abschaffen, sondern behauptet sogar, daß das gegenwärtige System mangels Berücksichtigung der Ökologie gar nicht liberal sei.

Auch eine unsichtbare Hand als Marktmechanismus kann nur funktionieren, wenn die Preise in etwa die Kostenwahrheit abbilden und ein gewisses Maß an Gerechtigkeit in der Verteilung von Informationen, Bildung, Geld, Besitz und Macht nicht unterschritten wird.

Mit „Kostenwahrheit“ sind angebliche Schäden wie zum Beispiel die Folgen von Kohlendioxid-Emissionen in die Atmosphäre gemeint. Was aus so einer Argumentation folgen könnte, zeigt der ARD-Spielfilm Ökozid, in dem eine Gerichtsverhandlung gezeigt wird, an deren Ende Deutschland zu gewaltigen Zahlungen an „klimageschädigte“ Länder im Süden verpflichtet wird.

Große Stellschrauben sind: CO2 ausreichend hoch zu bepreisen und die dreckigen Subventionen endlich abzubauen, um die Energiewende hin zu erneuerbaren Quellen und diversen Speicherformen für Energie so schnell wie möglich voranzutreiben. (…)

Von der europäischen Ebene ist mit dem Green Deal nun endlich ein Ansatz formuliert worden, der dem entspricht, was wir „Whole Institution Approach“ nennen, also das Ziel der Dekarbonisierung und Kreislaufwirtschaft wirklich als Querschnittsthema und auch Wettbewerbsstrategie zu verankern.

Heißt, unsere sowieso schon durch zahlreiche Hindernisse wie Öko- und Gendergesetze durchregulierte Rest-Marktwirtschaft vollends in ein Kommandosystem umzuwandeln, in dem von Steuern lebende Eliten die Früchte der Arbeit anderer problemlos abschöpfen können, oder zumindest leichter.

Interessanterweise kritisiert Göpel das dogmatische „Folgt DER Wissenschaft“ von Greta, Lesch & Co.:

Darüber hinaus gibt es bei Studien Unsicherheiten, sobald es sich um komplexe lebendige Systeme handelt und nicht um Maschinen. „Unite behind the Science“ bedeutet daher nicht, dass es nur eine klare Wahrheit gibt. Der Wunsch nach Orientierung in einer Umbruchzeit darf nicht in dogmatische Fronten münden, dann wird die Suche nach dem nächsten gemeinsamen Schritt sehr schwer. Deshalb ist es wichtig, die eigenen Erkenntnisse und Interessen stark und offen zu vertreten, aber idealerweise ohne Aversion oder gar Hass gegen diejenigen, die andere haben.

In dem Zusammenhang sei erinnert, daß Anders Levermann vom PIK der taz sagte, die sonst so häufig bemühten Kipp-Punkte gäbe es gar nicht mehr. Man hat den Eindruck, daß die Klima-Gramscisten im Sinne des „Doppeldenks“ von Orwell in 1984 versuchen, Festlegungen zunehmend zu vermeiden, um nicht für die absehbaren Folgen haftbar gemacht werden oder schnell situationsbezogen für sie selbst günstig reagieren zu können.

Die von der Politik ausgerufene Corona-Pandemie ist ein wichtiger Konkurrenzfaktor für die Klimaaktivisten, die aus den Medien verdrängt wurden und auch nicht mehr ihre freitäglichen Demos veranstalten dürfen. Nichtsdestotrotz nutzt Göpel die Seuchenerzählung in ihrem Sinne, als „Beweis“ für die Notwendigkeit einer Transformation:

Das Wichtige an der Pandemieerfahrung ist, dass die Idee implodiert ist, dass es nicht anders geht, als wir es bisher machen. Nicht für alle, aber für diejenigen mit sicheren Jobs war neuer Zeitwohlstand eine positive Erfahrung, und es gibt viele Umfragen, in denen die dauernde Pendelei ins Büro und auch die volle Arbeitszeit lieber nicht wiedergewollt werden. Aber solange unsere Alltagsroutinen durch To-go-Verkaufsbuden führen und unsere Aufmerksamkeit mit Werbe- und Marketingbotschaften vermüllt wird oder auf Kurzlebigkeit getrimmte Trends und Halbwertzeiten wie Fast Fashion und Elektrogeräte nicht politisch angegangen werden, bleibt Konsumismus eben die vermeintliche „Normalität“.

Fazit: Man merkt schon, daß Göpel aus ihrer privilegierten Position einer Tochter der diskutierenden Klasse heraus spricht und deren Interessen vertritt. Es ist ihr übrigens quasi in die Wiege gelegt: Sie wuchs in einer Art Ökobauernhof-Kommune in Niedersachsen auf, mußte den Ökologismus als finanzielle oder Karriere-Strategie also gar nicht erst entdecken.




Was macht die Temperatur?

Die Computermodelle des IPCC (Intergovernmental Panel on Climate Change, Weltklimarat) sind nach wie vor von sehr begrenztem Wert, die resultierenden Vorhersagen so gut wie unbrauchbar – das Weltklima ist einfach zu kompliziert. So reichen die Prognosen des IPCC für die CO2-Klimasensitivität (Temperaturanstieg bei Verdoppelung des CO2) von 1,6 bis 5,6 Grad C, aber nur mit einer Wahrscheinlichkeit von 66%. Vor diesem unbefriedigenden Hintergrund haben, wie überall in der Physik, Messungen das letzte Wort. Und die gibt es inzwischen schon seit längerer Zeit. Ist es da nicht besser, man orientiert sich an konkreten Messergebnissen anstelle von fragwürdigen und in aller Regel übertriebenen Alarm-Prognosen?

Die Temperatur-Werte, ermittelt von vielen tausend Stationen, enthalten allerdings auch Fehlerquellen wie unregelmäßig verteilte Messstationen, welche Stationen ausgewählt werden, Messungenauigkeiten sowie die meist intransparenten Adjustierungen und Homogenisierungen der Messdaten. Über den Ozeanen und vor allem auf der Südhalbkugel gibt es weniger Messstationen. Je älter die Temperaturdaten, desto größer sind die Ungenauigkeiten. Belege für „gezielte“ Anpassungen gibt es ebenfalls. Nachfolgende HadCRUT4-Bodendaten werden auch vom IPCC verwendet – schon deshalb ist eine „Untertreibung“ eher unwahrscheinlich.

Unschwer ist zu erkennen, dass den Temperaturverläufen Periodizitäten überlagert sind, für die es teilweise gute Beschreibungsansätze gibt (Ozeanische Oszillationen, El Niño, Nord-Süd-Klimaschaukel, Solarzyklen verstärkt durch kosmische Strahlung und Wolkenbildung), die aber in den Klimamodellen bisher kaum Berücksichtigung finden. Auch ist bis heute nicht sicher bekannt, welche natürlichen Vorgänge die historischen Klimaschwankungen verursacht haben – wie damals die Mittelalterlichen Warmzeit, als u.a. die Wikinger Grönland besiedelten, und die vorausgegangenen Warmzeiten davor.

Die Ozeane stellen einen riesigen Wärmespeicher dar, mehr als 100mal größer als die gesamte Atmosphäre. Insbesondere in den tieferen Ozeanbereichen folgen die Meerestemperaturen einer Erderwärmung nur sehr langsam, von bis etwa 1000 Jahren Verzögerung ist die Rede. Auch wird über den Ozeanen weniger Temperaturanstieg gemessen als über Land. Zusätzlich sind die Temperaturanstiege auf der Nordhalbkugel größer als auf der Südhalbkugel (Klimaschaukel?).

Zusätzliche Einflüsse wie die Wärmeinseleffekte durch zunehmende Bebauung und möglicherweise der Luftverkehr (Eintrag von Aerosolen in die Stratosphäre) bis hin zur wachsenden Energiefreisetzung von immer mehr Menschen spielen ebenfalls eine Rolle. Worauf hier nicht näher eingegangen wird, weil der Einfluss von natürlichen Ursachen auf den Temperaturverlauf zwar oftmals plausibel ist, aber aus heutiger Sicht dennoch meist spekulativ. Die Vorgaben der 1,5 Grad bzw. 2 Grad-Ziele gemäß Paris-Abkommen beziehen sich immer auf globale Mitteltemperaturen, worauf auch hier der Schwerpunkt gelegt wird.

Der Temperaturanstieg seit Beginn der Industrialisierung fand vor allem im Laufe des letzten 120 Jahre statt (Darstellung unten nach Dr Kevin Cowtan – University of York, gefunden bei Kalte Sonne). Der Temperaturrückgang/-stillstand nach dem Jahr 2000 („Hiatus“), der den Temperaturrückgang zwischen 1945 und 1975 im Ansatz zu wiederholen schien, wurde seit 2016 von zwei El Niños unterbrochen. Was den Medien Gelegenheit gibt, fortlaufend „hohe“ Temperaturwerte zu vermelden, auch wenn es nur Zehntelgrad-Rekorde sind. Dennoch, in den kommenden zehn Jahren wird es spannend, wie es mit den Temperaturen weitergeht.

Setzt man diesen 120-jährigen Temperaturtrend fort, dann ist bis 2100 ein weiterer Temperaturanstieg von nur etwa 0,66 +/- 0,07 Grad C zu erwarten, was niemanden beunruhigen muss.

Von 1978 bis etwa 2005 korrelierten das CO2 und die Temperaturen kurzzeitig, was der Alarmforschung bekanntlich Auftrieb gab. Dazu in der nachfolgenden Grafik (von climate4you) rot eingetragen die CO2-Konzentration in der Atmosphäre, gemessen auf dem Mauna Loa. Davor und danach ist die Korrelation deutlich schlechter. Die beiden Peaks seit 2016 sind, wie bereits erwähnt, Folge des unregelmäßig wiederkehrenden Klimaphänomens El Niño, das von den Klimamodellen ebenfalls nicht dargestellt werden kann. Der CO2-Anstieg müsste genau genommen logarithmisch eingetragen werden, weil auch die spektroskopische Erwärmung nur dem Logarithmus der CO2-Konzentration folgt. Was dann den CO2-Anstieg etwas weniger „dramatisch“ aussehen lässt.

Seit etwa 1979 gibt es Satellitenmessungen, bei denen ebenfalls global gemessen wird und zwar die Mikrowellenstrahlung von O2 (Sauerstoff) in der Troposphäre:

Bei den Satellitendaten wird offenbar weniger manipuliert, doch auch hier gibt es einige Fragen: Man misst die Temperaturen in der Troposphäre und nicht in Bodennähe. Auch sind Nachjustierungen bei den Bahnparametern von Zeit zu Zeit erforderlich – zumindest, wenn dies bei den Satelliten nicht automatisch erfolgt. Auch gibt es z.B. bei El Niño Zeitverzögerungen, bis die Troposphäre den Bodentemperaturen folgt. Die hier gezeigten Satellitendaten schneiden immerhin gut ab beim Vergleich mit Ballonmessungen und sog. Nachrechnungen – siehe hier.

Bei Satellitendaten ist ferner zu beachten, dass es sie erst seit 1979 gibt, also seit Beginn der relativ steilen Anstiegsphase, ähnlich, wie sie auch schon von 1910 bis 1945 aufgetreten ist – was für eine „Übertreibung“ aufgrund der Auswahl des Zeitfensters spricht. In diesem kurzen Zeitabschnitt ist der Temperaturanstieg pro Dekade beinahe doppelt so hoch wie in den letzten 120 Jahren. Auch ist das Unsicherheitsintervall mehr als fünfmal größer.

Statistisch gesehen erlaubt deshalb der 120-jährige Messzeitraum, wie in der ersten Abbildung oben dargestellt, die verlässlichste Prognose mit einem Temperaturanstieg von nur 0,66 +/- 0,07 Grad C bis 2100. Wobei mit längerer Messdauer die Unsicherheitsintervalle immer kleiner werden.

Der reale Temperaturanstieg dürfte in Wirklichkeit sogar noch kleiner sein, wie z.B. der dänische Geologe Prof. em. Dr. Johannes Krüger ausführte:

Die offizielle, von NOAA (National Oceanic and Atmospheric Administration) entwickelte Temperaturkurve der globalen Temperatur für den Zeitraum 1900-1999, die das IPCC in seinen Berichten vorgestellt hat, wurde umfassend angepasst, um einen viel höheren Temperaturanstieg als die ursprünglichen Temperaturdaten zu zeigen. Die Anpassung trägt bis zu 0,3 ° C der postulierten globalen Erwärmung von 0,7–0,8 ° C während des 20. Jahrhunderts bei. Die Schlussfolgerung ist daher, dass die globale Temperatur zwischen 0,4 ° C und 0,7 ° C angestiegen ist, wobei die erste Zahl auf der ursprünglichen Temperaturreihe und die letzte auf angepassten und manipulierten Daten basiert. Keiner dieser Werte ist in irgendeiner Weise alarmierend.“

Was folgt daraus? Man sollte die Temperaturen unaufgeregt weiter beobachten, zumal Ozeane und Pflanzen immer mehr von dem atmosphärischen CO2 aufnehmen. Was auch die stark zunehmende Begrünung der Erde sowie die gestiegenen Ernteerträge beweisen. Und hinzu kommt, dass die Temperaturen, wenn überhaupt, aus spektroskopischer Sicht nur logarithmisch mit dem CO2 ansteigen. Auch gehen die „Fossilen“ sowieso früher oder später zur Neige. Selbst wenn nicht, was vor allem russische Wissenschaftler behaupten, ist genügend Zeit vorhanden, Temperaturen und das CO2 in der Atmosphäre vorerst weiter zu beobachten. Auch sollte man notwendige Folgetechniken möglichst dem Markt überlassen und nicht einer grünen Staatsplanwirtschaft!

Da die deutsche Energiewende kein tragfähiges Energiekonzept für die Zukunft bietet, wird voraussichtlich an Dual Fluid-Reaktoren der 4. Generation längerfristig kein Weg vorbei führen – sie sind inhärent sicher. Auch sind damit die bisher gelagerten Brennstäbe zu 90 bis 95% nutzbar. Bereits heute ist die Kerntechnik die mit Abstand sicherste Energietechnik – und dies trotz der Tschernobyl-Katastrophe. Letztere trat ein als Folge eines untauglichen Reaktorkonzepts sowie unglaublicher Bedienungsfehler. Die 20.000 Fukushima-Opfer waren ausschließlich dem Tsunami geschuldet, und nicht, wie es uns Grüne suggerieren, der Reaktor-Havarie, die sich dank unzureichendem Tsunami-Schutz ereignete. Der Kernbrennstoff Thorium sollte bei dem neuen Reaktorkonzept für mindestens 1 Mio. Jahre reichen. Bis dahin funktioniert auch die Fusion… Prozesswärme für synthetische Kraftstoffe gäbe es dann auch – Mobilität mit gewohntem Komfort und Reichweiten wäre möglich.

Die erhofften Resultate der geplanten CO2-Reduktion sind dagegen in jeder Hinsicht höchst ungewiss. Das beginnt mit der Frage, welche Staaten dabei überhaupt mitmachen – Deutschland alleine ist hier vollkommen bedeutungslos! Schon deshalb bleibt offen, wie viel CO2 überhaupt reduziert werden kann, und was, last but not least, bei den Temperaturen damit letztlich erreicht werden wird (und welches Temperaturziel überhaupt gelten soll). Auf die Klimamodelle kann man sich dabei nicht verlassen. Somit ist die Dekarbonisierung eine jahrzehntelange sehr kostspielige Geisterfahrt mit höchst ungewissem Ergebnis – die nachhaltige Schädigung des Industriestandorts Deutschland ist dagegen gewiss!

Wenn überhaupt, wären für eine CO2-Reduktion weltweite Aufforstungsprogramme sinnvoller und  für eine zuverlässige Temperaturabsenkung Geoengineering billiger, zeitnah und effektiver!

Ärgerlich, warum sieht das Frau Merkel nicht genauso? Klar, sie hat bereits Billionen auf „Klima-Weltrettung“ durch Dekarbonisierung gesetzt, da gibt es kein Zurück…

Über den Autor

Dr. Roland Ullrich ist Physiker und promovierte an der LMU über Plasmaphysik.Sein Berufsweg führte ihn von der Plasmaphysik, einem kurzen Ausflug in die Welt der Metallhydridspeicher zu einer überwiegend gutachterlichen Tätigkeit in der technisch-wissenschaftlichen Analyseabteilung einer Bundesbehörde.

 




Grüne Verwahrlosung*

Daher geht ihnen auch jedes Gespür abhanden dafür, was geht oder was verantwortbar ist. Den weniger Gesicherten und jenen mit mehr Überblick erteilt das Leben selbst die erforderlichen Lehren, die es braucht, um diese Grenzen zu erkennen und zu respektieren. Wohlstandsverwahrloste verachten die Realität und die Grenzen, die sie zieht.

Grünen-Co-Chefin Annalena Baerbock hat im Interview mit der linken „taz“ ein Paradebeispiel dafür geliefert, was herauskommen kann, wenn Wohlstandsverwahrlosung das politische Bewusstsein verwüstet. Bei ihr heißen die Resultate Fanatismus, Rücksichtslosigkeit und Machtrausch.

Baerbock will das ganze Land ihren „Klimazielen“ unterordnen, „alle Sektoren müssen liefern“, fordert sie im Duktus eines Diktators. Zum totalen Kohleausstieg müsste „fünfmal so viel Windkraft an Land“ „gebaut“ werden „wie jetzt“. Die Naturzerstörung, die das mit sich brächte, ist kaum auszumalen. Bauern dürften nur noch zwei Kühe pro Hektar halten, ab 2030 sollten nur noch „emissionsfreie Autos“ zugelassen und ab sofort pro Jahr „eine Million Solaranlagen“ installiert werden.

Das Ergebnis dieser Politik ist absehbar:

Strom wird zum Luxus ebenso wie Autofahren oder Fleischessen. Die Energieversorgung Deutschlands verkäme zum Glücksspiel, das aufs Wetter angewiesen wäre, Stromausfälle würden zum Normalfall, eine massive Deindustrialisierung wäre die Folge. Der Wohlstand der Deutschen ginge steil den Bach runter, derweil die Belastungen für die Bürger immens stiegen. Es ist ein umfassendes Verarmungsprogramm. Nur Wohlstandsverwahrlosung kann solchen Irrsinn gebären.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  18. Dezember 2020, S.8; EIKE dankt der PAZ-Redaktion sowie dem Autor  Hans Heckel für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/;  Hervorhebungen:EIKE-Red.

=================================================================




Wassertem­peratur an der Ozean-Oberfläche: Vergleich Hadley Centre und NOAA

Abbildung 1. Der ursprüngliche Vergleich von ERSST und HadSST aus meinem vorherigen Beitrag.

Ich habe Kennedy gefragt, ob er eine Maske des besiedelten Gebiets in seinem SST-Gitter hat, aber das hat er nicht, was bedauerlich ist. Eine Maske ist ein Bereich von Längen- und Breitengraden, der digital auf einer Karte überlagert werden kann und verwendet wird, um alle Daten auszuschneiden, die außerhalb dieses Bereichs liegen. Außerdem wies Kennedy darauf hin, dass sich die Maske von Monat zu Monat ändert, da ein Großteil der Daten von Schiffen, treibenden Bojen und Schwimmern stammt. Schade, mehr Arbeit für mich.

HadSST ist ein Fünf-Grad-mal-Fünf-Grad-Gitter für Breiten- und Längengrade, und ERSST ist ein Zwei-Grad-Gitter. Sie sind nicht einmal Vielfache voneinander, so dass das Erstellen einer Maske von Nullbereichen in HadSST, die zum Abschneiden von ERSST-Daten verwendet werden kann, kompliziert und zeitaufwändig ist. Glücklicherweise war ich nach der Programmierung von zwei „cleveren“ Lösungen, die fehlschlugen, bei meinem dritten Versuch erfolgreich, obwohl mein Computer vielleicht nie mehr derselbe sein wird. Die „cleveren“ Methoden hätten dem Computer Zeit gespart, aber keine von beiden hat funktioniert. Am Ende verwendete ich eine „Brute-Force“-Methode, die eine schrecklich aussehende, fünf tiefe Computerschleife war, die jede Gitterzelle mit jeder Gitterzelle verglich. Hässlich, aber es funktionierte, und es ist relativ sicher vor Fehlern.

Die Ergebnisse meiner hässlichen Logik sind in Abbildung 2 zu sehen. Diese Abbildung zeigt den originalen NOAA ERSST-Datensatz, der mit der Linie in Abbildung 1 identisch ist, den „HadSST maskierten“ ERSST-Datensatz und HadSST selbst, der ebenfalls mit der Linie in Abbildung 1 identisch ist. Zumindest HadSST fällt zwischen die beiden NOAA-Linien.

Abbildung 2. Die globale NOAA ERSST-Durchschnittstemperatur vor Anwendung der HadSST-Maske (Original) und nach Anwendung der Maske. HadSST ist ebenfalls dargestellt.

Wir erinnern uns aus dem ersten Beitrag, dass HadSST durch Mittelwertbildung der Punkte innerhalb jeder 5-Grad-Gitterzelle konstruiert wird. Wenn es nicht genügend Punkte in einer Zelle gibt, wird die Zelle leer gelassen. NOAA beginnt im Wesentlichen mit den gleichen Daten, verwendet aber eine andere Methode, um ihre Zellen zu füllen. Sie verwenden einen Gitteralgorithmus, der jede ihrer 2-Grad-Zellen mit Interpolation und etwas Extrapolation auffüllt. Auf diese Weise erhalten sie ein Gitter, das viel weniger Nullzellen und eine fast globale Abdeckung hat. Da die meisten HadSST-Nullzellen in der Nähe der Pole liegen, hat die NOAA ERSST-Aufzeichnung eine niedrigere Temperatur, wie in den Abbildungen 1 und 2 zu sehen ist. Um den Unterschied zu verdeutlichen, ist es aufschlussreich, einen Teil des ursprünglichen 2-Grad ERSST-Gitters zu betrachten, siehe Tabelle 1. Der gezeigte Bereich liegt im Arktischen Ozean, nördlich von Russland und Alaska.

Tabelle 1. Ein Teil des ERSST-2-Grad-Gitters der SSTs 2018 im Arktischen Ozean, nördlich von Alaska und Russland. Beachten Sie den konstanten „Füllungs“-Wert von 1,8 °C über einem Großteil des Gebiets.

Als Nächstes sehen wir uns das HadSST-Gitter über demselben Teil des Arktischen Ozeans in Tabelle 2 an. Diese Werte sind keine Temperaturen, sondern die Anzahl der Nullmonate 2018 für diese Zelle. Mit unserer Methodik, nur einen Nullmonat pro Jahr zuzulassen, würde nur eine dieser Zellen, Breitengrad = 62,5 und Längengrad = -177,5, in unserem Mittelwert verwendet werden. Während der in Tabelle 1 gezeigte Teil des Arktischen Ozeans im ERSST-Gitter vor der Anwendung der HadSST-Maske vollständig gefüllt ist, werden alle Werte nach Anwendung der Maske null.

Tabelle 2. Arktischer Ozean HadSST-Gitterzellen. Die Werte sind die Anzahl der fehlenden Monatswerte im Jahr 2018.

Abbildung 3 ist die ursprüngliche ERSST-Durchschnittstemperaturkarte für 2018. Wie man sieht, hat sie Werte über den größten Teil des Globus, die Nullen sind im Allgemeinen in den polaren Ozeanen unter Meereis. Der blaue Fleck im äußersten Nordwesten, nördlich von Alaska und Russland, ist das Gebiet, das in den Tabellen eins und zwei gezeigt wird. Abbildung 3 ist die Karte, die die untere ERSST-Linie in den Abbildungen 1 und 2 darstellt. Die Linie zeigt einen steigenden Temperaturtrend von etwa 1,6°C pro Jahrhundert.

Abbildung 3. Die ursprünglichen ERSST-Gitterzellen in 2-Grad-Breiten- und Längengraden. Weiße Regionen sind Null.

Abbildung 4 zeigt die gleichen Daten wie in Abbildung 3, aber jede HadSST-Zelle, die mehr als einen Monat ohne Wert im Jahr 2018 hat, wurde gelöscht. Man beachte, dass der blaue Fleck nördlich von Alaska und Russland, im Arktischen Ozean, verschwunden ist. Die Null-Zellen sind in weiß dargestellt. Wir haben subjektiv zugelassen, dass ein Monat keinen Wert hat, aber zwei wurden als zu viel angesehen. Die großen saisonalen Temperaturschwankungen in den Polarregionen hätten dazu führen können, dass mehr als ein Nullmonat den Durchschnitt beeinflusst. Die oberste Linie in Abbildung 2 wird durch Abbildung 4 dargestellt. Die Linie liegt zwischen 20°C und 21,5°C. Durch das Ausblenden genau der Zellen, in denen HadSST mehr als einen Nullmonat hatte, sprang der ERSST-Mittelwert von 14°C auf 21°C, ein Anstieg von 7°! Außerdem ist die neue Linie mehr als 2°C wärmer als HadSST. Die neue ERSST-Linie hat auch ihren Trend umgekehrt, sie zeigt jetzt einen abnehmenden Temperaturtrend von 3,5°C/Jahrhundert, fast genau so wie HadSST (3,48°C/Jahrhundert).

Abbildung 4. Die ERSST-Karte mit einer angewandten HadSST-Null-Gitterzellenmaske. Weiße Regionen sind null.

Abbildung 5 zeigt die Maske, die verwendet wurde, um die HadSST-Nullzellen in der ERSST-Karte in Abbildung 4 zu löschen. Die Farben in Abbildung 5 repräsentieren die Anzahl der fehlenden HadSST-Monatswerte. Wir haben einen fehlenden Monat zugelassen, also sind einige der blauen Zellen null, die eine „1“ darstellen und einige nicht, die eine „2“ darstellen. Alle anderen Farben sind „nulled“. Weiße Bereiche haben keine fehlenden Monate. Bitte beachten, dass die Formen in Abbildung 4 nicht exakt mit den Formen in Abbildung 5 übereinstimmen werden. Das ERSST-Gitter ist ein 2-Grad-Gitter und wir wenden eine 5-Grad-Gittermaske darauf an. Dazu musste ich von jeder Zelle aus 2,5 Grad in alle Richtungen suchen und ein 2-Grad-Zellengitter mit den fehlenden Monaten aus einem 5-Grad-Gitter auffüllen. Dieses Verfahren ist so genau wie möglich, kann aber die Nullbereiche um bis zu einer Zwei-Grad-Zelle verzerren. Es gibt keinen genaueren Weg, dies zu tun, ohne zwei Gitter mit übereinstimmenden Gitterzellengrößen zu haben.

Abbildung 5. Die HadSST-Maske, die auf Abbildung 3 angewendet wurde, um Abbildung 4 zu erhalten. Wir akzeptierten Zellen, die einen monatlichen Nullwert (dunkelblau) oder keine monatlichen Nullwerte (weiß) hatten. Zwei monatliche Nullwerte oder mehr wurden abgelehnt. Die Farben stellen die Anzahl der Monate im Jahr 2018 dar, die keine Werte aufweisen. Daher sind die meisten der farbigen Boxen in Abbildung 4 Nullen. Einige der tiefblauen Kästchen werden akzeptiert, die für „1“ stehen, einige nicht, die für „2“ stehen.

Diskussionen und Schlussfolgerungen

John Kennedy hatte recht, dass die Anwendung der HadSST-Nullmaske auf die NOAA ERSST-Aufzeichnung einen Unterschied machte, die durchschnittliche globale Temperatur sprang um 7°C! Was vielleicht noch wichtiger ist: Der Trend kehrte sich von einem Erwärmungstrend von 1,6°C/Jahrhundert zu einem Abkühlungstrend von 3,5°C/Jahrhundert um. Da die Polarregionen die meisten der neu ausgefallenen Zellen enthalten, könnte man daraus schließen, dass sich die Polarregionen ziemlich stark erwärmen und der Rest des Weltozeans sich abkühlt. Dies ist konsistent mit den Beobachtungen, insbesondere in der Region um den Nordpol. Aber es ist nicht konsistent mit der „CO2-Kontrollknopf“-Hypothese (Lacis, Schmidt, Rind, & Ruedy, 2010). Wenn steigendes CO2 die jüngste Erwärmung verursacht, warum sollte sich dann der größte Teil der Welt abkühlen?

Wir werden nicht beurteilen, welche Schätzung der globalen Ozeanoberflächentemperatur besser ist, beide haben einen Nutzen. Die HadSST-Schätzung spiegelt die zugrunde liegenden Daten genau wider, Durchschnittswerte repräsentieren Daten besser als Interpolation und Extrapolation. Wenn das Ziel jedoch darin besteht, die bestmögliche Schätzung der globalen Durchschnittstemperatur mit den uns zur Verfügung stehenden Daten zu erreichen, dann ist das ERSST-Gitter besser. Unser Ziel war es, die beiden Gitter zu vergleichen, ohne Anomalien zu verwenden, die hier nicht benötigt werden. Kennedys Kommentare haben uns dabei geholfen, und wir sind dankbar für die Hilfe. Das Ergebnis zeigt, dass die ERSST-Schätzung, die auf die Mehrjahresschätzungen der Universität Hamburg und des NOAA MIMOC fällt, zwar wahrscheinlich die beste Schätzung der globalen Ozeanoberflächentemperatur, aber dennoch spekulativ ist. Die wahren Ozeanmessungen, die durch HadSST gut repräsentiert werden, unterstützen ERSST nicht. Daher ist die ERSST-Schätzung zwar logisch, aber sie leitet sich nicht aus den zugrunde liegenden Daten ab. Nur weil eine Karte so aussieht, wie sie Ihrer Meinung nach aussehen „sollte“, ist sie noch lange nicht richtig.

Wir können auch folgern, dass wir keine Ahnung haben, was die globale durchschnittliche Oberflächentemperatur der Ozeane ist oder ob sie sich erwärmt oder abkühlt. Die in den Abbildungen 1 und 2 dargestellten Daten zeigen eine riesige Temperaturspanne, und alle basieren im Wesentlichen auf den gleichen Rohdaten. Der Fehler, den die Schätzungen implizieren, liegt bei mindestens ±3,5°C. Die von HadSST/ERSST geschätzte Erwärmung über unnötige und irreführende Anomalien beträgt 1,7°C/Jahrhundert für diesen 19-jährigen Zeitraum. Doch sowohl die HadSST- als auch die ERSST-Ist-Temperaturen zeigen eine Abkühlung von 3,5°C/Jahrhundert über denselben Zeitraum.

Jeder, der glaubt, er wisse, was das Klima heute tut oder in zehn Jahren tun wird, hat einfach nicht aufgepasst. Es sollte jedem klar sein, dass die Ozeane der wichtigste Treiber unseres langfristigen Klimas sind, und die Aufzeichnungen, auf die wir uns verlassen, um uns zu sagen, wie sich die Temperaturen der Meeresoberfläche und der gemischten Schicht verhalten, sind dieser Aufgabe nicht gewachsen. Man könnte genauso gut Würfel benutzen, um eine Temperatur zu wählen.

[Hervorhebung vom Übersetzer]

I processed a lot of data to make this post, I think I did it correctly, but I do make mistakes. For those that want to check my work, you can find my R code here.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

Works Cited

Lacis, A., Schmidt, G., Rind, D., & Ruedy, R. (2010, October 15). Atmospheric CO2: Principal Control Knob Governing Earth’s Temperature. Science, 356-359. Retrieved from https://science.sciencemag.org/content/330/6002/356.abstract

Link: https://wattsupwiththat.com/2020/12/16/sea-surface-temperatures-hadley-centre-v-noaa/

Übersetzt von Chris Frey EIKE