Stefan Rahmstorf: Die Nordsee war um 1-2°C wegen des Klimawandels zu warm, deshalb brachten Nordwinde Schneerekorde!
|
Der DWD gibt gerade neue Schneerekorde für die ersten zwei Januarwochen in den Alpen bekannt:
Darunter einige Jahrhundertrekorde, die sich nur einmal pro Jahrhundert wiederholen. Die Neuschneesummen erreichten bis über 4,5 Meter!
Die Klimafolgenforscher vom PIK in Potsdam sind nun der Meinung, dass würde an zu warmen Ozeanen und einer aktuell um 1-2°C zu warmen Nord- und Ostsee liegen. Die Nordwinde laden sich dabei mit der ganzen Feuchtigkeit über der Nordsee und Ostsee auf, die dann in den Alpen abschneit.
Für unser Winterwetter ist aktuell eine positive Noradatlantische Osziallation (NAO) im Nordaatlantik verantwortlich. Der Nordatlantik ist unsere Wetterküche. Zwischen Islandtief und Azorenhoch bringen Westwinde Tiefdruckgebiete mit Wind und Niederschlägen zu uns.
Im Sommer hatten wir eine gänzlich andere Wettersituation. Es stellte sich eine stabile Omega-Wetterlage ein. Die Omegalage, auch Omegahoch, ist eine Wetterlage, die von einem großen Hochdruckgebiet charakterisiert wird. Die Omegalage bewirkt im Bereich des Hochdruckgebietes eine typische sommerliche Schönwetterlage mit ausgeprägter Trockenheit und Wärme bis hin zu Hitzewellen und Dürren, im Winter hingegen Tiefsttemperaturen und Kältewellen. Aktuell haben wir genau das Gegenteil davon, eine positive Noradatlantische Oszillation mit Westwinden und durchziehenden Tiefdruckgebieten vom Nordatlantik zu uns ist dominant. Das hat nichts mit Klima zu tun, sondern mit Wetter.
Schaut man sich die Temperaturen über dem Nordatlantik (also unserer Wetterküche) vom Herbst 2018 an, so zeigt sich, dass es dort nicht besonders warm war, sondern besonders kalt.
Das Wasser im Nordatlantik war im letzten Herbst um rund -1°C zu kalt! Die Tiefdruckgebiete ziehen über den zu kalten Nordatlantik zwischen Islandtief und Azorenhoch mit dem Westwind über tausende von Kilometern zu uns. Dabei gelangen sie auch über die Nordsee. Die südliche Nordsee und westliche Ostsee waren im Herbst und sind es auch noch, um etwa 1-2°C zu warm für die Jahreszeit.
Das PIK und auch Herr Rahmstorf sind nun der Meinung, dort hätte sich die Luft mit all der Feuchtigkeit aufgeladen, die dann in den Alpen abgeschneit ist. Dabei hat es nur einige Stunden gedauert, bis die Tiefs über die südliche Nordsee und die westliche Ostsee gezogen waren.
Die aktuelle Wassertemperatur der südlichen Nordsee liegt bei 5°C. Schaut man sich Klimadiagramme an, so sind das Werte, die im normalen Bereich liegen.
Festzustellen ist, der Nordatlantik, wo sich die Tiefdruckgebiete bilden und über den sie ziehen ist für die Jahreszeit zu kalt. Die südliche Nordsee und die westliche Ostsee sind ebenfalls nicht außergewöhnlich warm für die Jahreszeit. Die Temperaturen liegen in der normalen Schwankungsbreite. Mit dem Klima hat das folglich wenig zu tun! In den letzten Jahren gab es diverse Winter, in denen die südliche Nordsee und die westliche Ostsee genauso warm und auch wärmer waren, als aktuell. Wir hatten dadurch aber keine Schneerekorde in den Alpen. Jetzt aber sollen warme Ozeane und Randmeere infolge der Klimaerwärmung dafür verantwortlich sein. Hätten wir anstatt einer Westwind-Wetterlage mit vielen Tief (wir haben aktuell ca. 50% mehr Niederschläge als im Mittel) ein stabiles Omegahoch mit sibirischen Temperaturen, so hätten die Klimafolgenforscher aus Potsdam vermutlich auch vermeldet das würde am Klimawandel liegen. Als nächstes wird vermutlich vom PIK vermeldet es ist Winter im Winter Dank Klimawandel und es ist Sommer im Sommer Dank Klimawandel!
Video eingebettet aus youtube
Auch der sog. Lake-Effekt kommt hier nicht in Betracht!
Dieser Effekt tritt auf, wenn im Winter kalte Winde über große Seeflächen mit warmem Wasser strömen. Dabei wird über dem See Wasserdampf aufgenommen, der jedoch schnell gefriert und am Lee-Ufer des Sees als Schnee niedergeht. Der Lake Effekt tritt in Deutschland vor allem an den Küsten auf und in den westlichen Mittelgebirgen an Seen wie z. B. im Sauerland. In schwacher Ausprägung sorgen Nord- und Ostsee häufig für Schnee in den angrenzenden Bundesländern, insbesondere in der hügeligen Holsteinischen Schweiz bei nordöstlichen Winden.
Man lese hierzu auch die kluge Analyse zu Rahmstorf Phantasien bei die kalte Sonne hier
Fossile Treibstoffe haben der Menschheit sehr geholfen, und das sollten sie auch weiterhin tun!
|
Das Non-Governmental International Panel on Climate Change (NIPCC) hat vier umfassende Berichte erstellt, welche Beiträge von hunderten Wissenschaftlern enthalten, die Tausende begutachtete Forschungsartikel vorstellen. Darin wird nachvollziehbar nachgewiesen, dass die IPCC-Behauptungen, denen zufolge menschliche Treibhausgas-Emissionen einen gefährlichen Klimawandel bewirken, falscher nicht sein können.
Historisch gibt es keine Korrelation zwischen dem Kohlendioxid-Gehalt in der Atmosphäre und der Temperatur auf der Erde. Und das NIPCC weist nach, dass Behauptungen bzgl. Extremwetter mit Bezug zum anthropogenen Klimawandel verifizierbar falsch sind. Weder die Anzahl noch die Dauer extremer Regenfälle oder Dürren und auch nicht die Rate des Meeresspiegel-Anstiegs haben nachgewiesenermaßen während der zweiten Hälfte des vorigen Jahrhunderts zugenommen.
Was aber noch wichtiger ist, der fünfte und neueste NIPCC-Report mit dem Titel „Climate Change Reconsidered II: Fossil Fuels” (CCRIIFF) zeigt die Schäden auf, zu denen es kommen würde, wenn man den Verbrauch fossiler Treibstoffe rapide beenden würde – Schäden, die weit über die spekulativen, vom IPCC hinaus posaunten Schäden durch Klimawandel selbst hinausgehen.
Fossile Treibstoffe sind die Grundlage moderner Ökonomien. Menschen in Ländern, die regelmäßig fossile Treibstoffe verbrauchen, leben länger, sind wohlhabender und gesünder als Menschen in Ländern ohne Zugang zu fossilen Treibstoffen. CCRIIF zeigt, dass der Zugang zu fossilen Treibstoffen die durchschnittliche Lebensspanne der Menschen mehr als verdoppelt sowie eine deutliche Zunahme des Gesundheitszustandes der Menschen, einen deutlichen Rückgang von Armut und eine erhebliche Verbesserung der Versorgung mit Nahrungsmitteln im vorigen Jahrhundert bewirkt hat.
„Es gibt eine starke positive Korrelation zwischen niedrigen Energiepreisen und ökonomischem Wohlstand“, wird im Report festgestellt, und weiter: „Ökonomischer Wohlstand wiederum ist von entscheidender Bedeutung für Gesundheit und Wohlstand der Menschen“.
Eine Untersuchung von nur zwei Bereichen moderner Ökonomien zeigt schon, wie fossile Treibstoffe zu einem hohen Lebensstandard beitragen.
Fossile Treibstoffe sind die Grundlage moderner Landwirtschaft. Fossile Treibstoffe treiben Traktoren und Lastfahrzeuge an, welche den Markt mit Nahrungsmitteln versorgen, sie sind der Grundstock von Düngemitteln, so dass höhere Ernten auf immer weniger Ackerfläche verzeichnet werden, und sie versorgen die Kühlschränke und Speichereinrichtungen mit Energie, so dass man in diesen Lebensmittel lange lagern kann, ohne dass sie verderben. Kurz, fossile Treibstoffe sorgen dafür, dass Landwirte die zunehmende Bevölkerung des Planeten immer besser ernähren können, während gleichzeitig der Natur ehemalige Äcker zurück gegeben werden können.
Fossile Treibstoffe sind auch die Wurzel der modernen Medizin, womit Kindersterblichkeit und Krankheiten reduziert werden konnten, sowie für alle möglichen medizinische Produkte. Moderne Diagnose-Gerätschaften und lebenserhaltende Maschinen sind mit alternativen Quellen nicht zuverlässig zu betreiben.
Tatsächlich decken fossile Treibstoffe 81% des primären Energiebedarfs weltweit, und mit der Zunahme des Verbrauchs fossiler Treibstoffe hat auch das menschliche Wohlergehen substantiell zugenommen.
Weiter aus dem NIPCC-Report: „Dem Census Bureau der USA zufolge (2016) ist das Sterbealter der Menschen seit 1970 um 35 Jahre gestiegen, wobei die Sterberaten in allen Altersgruppen gesunken sind, auch in der Gruppe der 60-jährigen oder älteren. Zieht man die offizielle 1-Dollar-pro-Tag-Leitlinie heran (die UN-Definition von Armut), schätzen wir, dass die Armut der Welt von 1970 bis … 2006 um 80% zurückgegangen ist. Die korrespondierende Zahl der Armen ist von 403 Millionen im Jahre 1970 auf 152 Millionen im Jahre 2016 gesunken“.
CCRIIF kommt zu dem Ergebnis, dass die hanebüchenen Forderungen des IPCC nach einer Reduktion des Verbrauchs fossiler Treibstoffe bis zum Jahr 2050 auf Null einen zwei Jahrhunderte langen Zeitraum menschlichen Fortschritts zunichte machen würde. Im Wesentlichen würde das abscheuliche Vorhaben des IPCC dafür sorgen, dass das Pro-Kopf-Einkommen global auf ein Niveau sinken würde, wie es in den USA und Westeuropa in den Jahren 1820 oder 1830 üblich war.
Weil die Beweise für Klimarisiken durch fossile Treibstoffe im besten Falle dürftig und die Vorteile des weiteren Verbrauchs derselben nur zu offensichtlich sind, wäre es ein Verbrechen gegen die Menschheit seitens Regierungen, die Menschen zu zwingen, ihren Gebrauch fossiler Treibstoffe drastisch zu reduzieren. Nach einem Spruch des englischen Philosophen Thomas Hobbes wäre ein Leben ohne fossile Treibstoffe „ärmlich, hässlich, brutal und kurz“.
Machen wir also weiter mit Bohren, Bergbau und dem Gebrauch bezahlbarer und zuverlässiger fossiler Treibstoffe zur Energieerzeugung, so dass jedermann jetzt und in Zukunft länger, gesünder und erfüllter leben kann.
Hin und wieder bleibt subalternes Personal selbst in mehreren Anläufen bei einer Problemlösung erfolglos. Der Boss oder die Chefin nahmen die Sache selbst in die Hand. Dann geht in der Regel ein Aufatmen durch die Belegschaft. Hoffnung entsteht, dass jetzt endlich die Sache geklärt wird.
Die Ankündigung der Kanzlerin zu Jahresbeginn, sich der Frage des Kohleausstiegs, also einer wichtigen, aber dennoch nur einer Teilfrage der Energiewende, persönlich anzunehmen, dürfte hingegen wenig Begeisterung ausgelöst haben. Es steht die Frage im Raum, ob sich die Reihe ihrer politischen Fehler vergangener Jahre nahtlos fortsetzt. Zudem ist sie, obwohl auf dem Gebiet der Physik qualifiziert und promoviert, keineswegs in Energiefragen spezifisch kompetent. Sie bleibt auf die Zuarbeit von Leuten angewiesen, die jeweils nur Teilgebiete der Energiewende überblicken und in einigen Fällen lobbybeeinflusst sind. Diese sitzen auch in der „Strukturkommission“, die, wie zu erwarten war, medial nur als „Kohlekommission“ gehandelt wird mit der regelmäßigen Ergänzung, es gehe um einen Ausstiegstermin.
Als eine von vier Vorsitzenden sitzt dort die Nachhaltigkeits-, Umwelt-, Energie- und Klimaökonomin Professorin Praetorius. Sie ist die einzige für ihren Vorsitz in der Strukturwandelkommission bezahlte Person. Das Geld kommt vom Umweltministerium, ihr Auftrag auch.
Direkter Erfüllungsgehilfe der Kanzlerin ist ein weiterer Vorsitzender, Ronald Pofalla, Ex-Politiker, Kanzlerin-Getreuer, Sozialwissenschaftler und Jurist, der jetzt in einem zunehmend erfolglosen Staatskonzern Vorstand spielt. Seit Mitte der 90er Jahre legte die Bahn 5.400 Gleiskilometer und über 200 Bahnhöfe still und kehrt den Grundsatz „Von der Straße auf die Schiene“ konsequent um. Kein Wunder, dass es Pofalla nicht gelingt, Zusagen zur Infrastruktur zu machen. Die Bahn-Milliarden fließen vor allem in den Stuttgarter Untergrund. Eine für die gescheiterte Verkehrswende zuständige Person soll der Stromwende zum Erfolg verhelfen. Hoffnung sieht anders aus.
Was wird die Kanzlerin tun? Im Vorfeld des „Kohlegipfel“ genannten Treffs am 15. Januar hing Regierungssprecher Seibert die Erwartungen schon mal tiefer, indem er von einem Gespräch zu Information und Gedankenaustausch sprach.
Es gab auch wenig Anlass zur Vermutung, dass die Kanzlerin ihren Stil ändert. Im weiteren Verlauf ihrer „verlöschenden Kanzlerschaft“ (Hans-Ulrich Jörges) laviert sie ohne feste Meinung weiter und versucht, offene Probleme mit Geld zu lösen. Neun Minuten nordkoreanisch anmutender Parteitagsbeifall in Hamburg können nicht darüber hinwegtäuschen, dass es ein Beifall zum Abschied war. Sie ist von mehr als nur dem Parteivorsitz zurückgetreten. Für den Rest des Weges ist sie eine erschöpfte Marathonläuferin, die dem Ziel mit abnehmender Leistung entgegengeht. Der nächste Beifall wird weniger die Leistung honorieren, sondern zu erheblichen Teilen dem Mitgefühl entspringen.
Am Ende des „Spitzengesprächs“ steht nun nicht einmal ein merkeltypisch halbgarer Kompromiss, es wurde „Stillschweigen“ vereinbart. Vertrauensbildung sieht anders aus, schließlich geht es nicht um Persönlichkeitsschutz, Tarifverhandlungen oder Staatsgeheimnisse. Teilnehmer äußern sich positiv zum Spitzengespräch. Das einzige konkret benannte Ergebnis neben der üblichen Politrhetorik und den Allgemeinplätzen ist die Zusage des Finanzministers, Geld zu geben. Die Lausitz zum Beispiel solle „EU-Modellregion für Klimaschutz und nachhaltiges Wachstum“ werden. Konkreter ging es offenbar nicht. Konkret sind und werden nur die Abschalttermine. Die Ministerpräsidenten wären gut beraten, sich auf wolkige Versprechen einer gealterten Bundesregierung mit Verfallsdatum nicht einzulassen.
Nun liegt der Ball wieder im Feld der Strukturkommission. Dort gab es ein Patt, das die Spitzenrunde erst nötig gemacht hatte. Unabhängig davon, was die Kommission am 25. Januar verkünden wird, Frau Merkel muss und wird allen gerecht werden wollen. Sie muss die Länderchefs ruhig stellen. Sie muss den Grünen, den im Geiste treuesten Unterstützern – die besonders Treuen beten für sie – ein Opfertier hinwerfen und gleichzeitig das Landvolk beruhigen, ihm eine schöne sichere Zukunft versprechen, ohne den im Raum stehenden politischen Elefanten mit Namen AfD zu erwähnen. Sie muss die in dieser Frage völlig zerrissene SPD irgendwie auf Linie bringen, damit diese auf Bundesebene weiterhin ihre Basis ignoriert.
Die Frage, wer die wegfallenenden Atom- und Kohlekapazitäten ersetzen wird, liegt im Nebel von Diskussionen über Wunschvorstellungen und Szenarien, die allesamt nicht mit Projekten und Plänen, geschweige denn Terminen untersetzt sind. Neu beschlossene Ausbaukorridore können beliebig breit sein, zufällig zur Verfügung stehender Strom kann keinen Beitrag zur Versorgung leisten.
Konkrete Ideen zur Versorgungssicherung und zum Strukturwandel wird die Kanzlerin auch künftig nicht haben. Die Vorschläge ihrer Subalternen sind vage und setzen – wie die Energiepolitik insgesamt – nicht mehr auf Markt, sondern auf den Staat und Subventionen. Auf die Idee, die vom Strukturwandel betroffenen Gebiete für privates Geld von Investoren interessant zu machen, kommt offenbar keiner. Neue Schienen und Straßen sind gut, man kann auf ihnen aber auch schneller an der Region vorbeifahren. Zum Beispiel nach Polen, wo in den grenznahen Wojewodschaften Sonderwirtschaftszonen mit attraktiv niedrigen oder Nullsteuern locken.
In der Nach-Merkel-Zeit werden dann die Karten durch den Druck der Realitäten neu gemischt und alle Misserfolge der scheiternden Energiewende werden auf sie verbucht werden.
Welche Ergebnisse der Chefin-Runde auch sonst hätten entspringen können, ist am Ende nicht entscheidend. Der Hambacher Forst zeigt, wie wertlos politische Entscheidungen und verbriefte Genehmigungen sein können, wenn es Klimarettern, NGO`s und selbst vertragsbeteiligten Grünen nicht (mehr) gefällt. Dann zwingt grüner Mob den Staat unabhängig aller Beschlüsse in die Knie.
Es wird ein neuer Kanzler oder eine neue Kanzlerin kommen. Beim Einzug findet sich dann in der unteren linken Schreibtischschublade der Bericht der Ethikkommissionzum Atomausstieg 2011 mit dem Absatz:
„Moderne, hocheffiziente Kohlekraftwerke bieten einen deutlichen Effizienzgewinn gegenüber solchen alten Kraftwerken, die immer noch mit gerade ca. 30 Prozent Wirkungsgrad am Netz sind. Ihr Ersatz ist eine klimapolitische und energiewirtschaftliche Notwendigkeit.“
Wer nicht weiter weiß, gründet eine Kommission. Dies festzulegen, ist Chefsache.
Der Beitrag erschien zuerst bei TICHYS Einblick hier
In eigener Sache: Mehr Serverleistung erforderlich!
|
EIKE betreibt als Blog, die mit großem Abstand beliebteste und daher meist frequentierte Website, die sich mit den Themen Klima und Energie beschäftigt. Darin sind alle zustimmenden und auch ablehnenden Blogs eingeschlossen.
Unsere Ratings sind um mindestens eine Zehnerpotenz besser, als die der nächsten „Konkurrenz“. Unsere Klickzahlen sprangen besonders ab August 2018 um im Mittel 20 % in die Höhe. Das ist zumindest der Monat in dem ARD Monitor seine als diffamierende Sendung über EIKE ausstrahlte. Seitdem verzeichnen wir einen beständig höheren Traffic als zuvor.
Das führt offensichtlich zu einer zu starken Belastung unseres „Managed Servers“, was sich zeitweise in zu langen Antwortzeiten beim Seitenaufruf niederschlägt. Daher wurde uns vom Provider empfohlen auf die nächst stärkere Stufe hoch zu rüsten. Das wird am 22.1.19 ab 8:00 Uhr geschehen. Ab etwa 9:00 morgens sollte der Umzug geschafft sein, und der Blog wieder voll zugänglich.
Nun ist der Server nicht nur stärker, sondern auch um ca. 50 % teurer – als rd 60 € pro Monat. Das ist überschau-, aber trotzdem merkbar. Daher werden alle Leser gebeten den Spendenknopf weiterhin fleißig zu betätigen.
Allen Spendern sei hiermit unser tief empfundener Dank ausgesprochen. Spendenquittungen kommen wie immer – es braucht immer ein paar Tage.
Zusammenfassende Version einer Studie mit dem Titel [übersetzt] „Missachtung von Nyquist: Eine weitere Quelle signifikanter Fehler bei Thermometer-Temperaturmessungen“
|
[*Vorbemerkung der Redaktion: In Deutschland wird dieses Verfahren schon sehr lange nicht mehr angewendet. Hier wird die Tagesmitteltemperatur seit Jahr und Tag folgendermaßen ermittelt: T(7.00h) + T(14.00h) + 2 x T(21.00h)/4 (Angaben in MEZ). Als Grundlage dienten die sog. „Mannheimer Stunden“ (mehr dazu hier), definiert bereits im 18 Jahrhundert. Die Verdoppelung des Messwertes von 21 Uhr sollte einmal eine Nachtmessung ersparen, zweitens liegt er ziemlich genau zwischen den Tagesextremen und wird auch morgens durchlaufen.
In anderen europäischen Ländern, wie auch Russlands wurden andere Algorithmen verwendet. Allen ist gemeinsam, dass sie für denselben Tagestemperaturverlauf unterschiedliche Mitteltemperaturen ergeben. Details dazu z.B. hier. Fakt ist jedoch auch, dass bedingt durch die englische US- amerikanische Dominanz besonders im 19.Jahrhundert die Max Min Methode die weltweit bestimmende war.
Nach Erfindung der Digitalthermometer hat man die stündlichen Werte durch 24 dividiert, um die Tagesmittelwerte zu berechnen. Ein am Institut für Meteorologie viele Jahre lang durchgeführter Vergleich beider Verfahren zeigt zwar ähnliche Werte mit nur wenigen Ausnahmen aufgrund der Advektion unterschiedlich temperierter Luftmassen.
Da in jedem Fall die Anomalien der absoluten Mittelwerte gebildet werden, dürfte sich deren Verhalten, besonders in einer Zeitreihe, von der im Text beschriebenen unterscheiden. Für das Folgende spielen dieser Umstand auch nur eine untergeordnete Rolle. Man muss ihn aber bei der Lektüre im Hinterkopf behalten.
Trotzdem ist die Beachtung der in der Signaltheorie entwickelten Gesetze auch bei der Auswertung von meteorologischen Verläufen empfehlenswert. Autor Werner Kohl hat auf Die Kalte Sonne dazu schon einiges geschrieben. (hier)
Ende Einschub]
Allerdings ist die Lufttemperatur ein Signal, und Messungen von Signalen müssen den mathematischen Gesetzen der Aufbereitung von Signalen folgen. Das Nyquist-Shannon Sampling Theorem sagt uns, dass wir ein Signal mit einer Rate messen müssen, die mindestens doppelt so hoch ist wie die höchste Häufigkeits-Komponente des Signals. Das nennt man die Nyquist Rate. Sammelt man Proben mit einer geringeren Rate, kommt ein Alias-Fehler [? hier steht etwas dazu. Anm. d. Übers.] in die Messungen. Je geringer die Mess-Häufigkeit im Vergleich zu Nyquist, umso größer wird der Fehler bei Berechnungen der Mitteltemperatur und von Trends. Das Nyquist Sampling Theorem ist heutzutage grundlegende Wissenschaft in jedem technologischen Bereich. Digitales Hören und Sehen, industrielle Prozess-Steuerung, medizinische Instrumente, Flugkontroll-Systeme, digitale Kommunikation usw. – alles beruht auf der grundlegenden Mathematik und Physik von Nyquist.
Die NOAA hat in ihrem USCRN (US Climate Reference Network) bestimmt, dass es notwendig ist, eine Anzahl von 4320 Messungen pro Tag zu haben, um Nyquist anwenden zu können. 4320 Messungen pro Tag bedeuten eine Messung alle 20 Sekunden. Das ist die anwendungsorientierte Nyquist-Anzahl von Messungen. Die NOAA mittelt diese 20-Sekunden-Messwerte zu einer Messung alle 5 Minuten oder 288 Messungen pro Tag. Die NOAA veröffentlicht auch nur diese 288 Messungen pro Tag (nicht die 4320 Messungen pro Tag). Eine Rate wird dann nur aus diesen 288 Messungen pro Tag berechnet (oder „5-Minuten-Messungen). Diese Rate kann allerdings nur erhalten werden mittels automatisierten Messungen mit elektronischen Instrumenten. Die meisten instrumentellen Aufzeichnungen enthalten Ablesungen von Quecksilber-Max/Min-Thermometern, welche lange vor der Automatisierung eine Option waren. Heutzutage nutzt man für instrumentelle Aufzeichnungen trotz der Verfügbarkeit von Automatisierung immer noch Tmax und Tmin (im Endeffekt 2 Messungen pro Tag) anstatt einer Messdaten-Gewinnung nach Nyquist. Grund hierfür ist, die Vergleichbarkeit mit älteren historischen Aufzeichnungen zu wahren. Mit lediglich 2 Messungen pro Tag ist die instrumentelle Aufzeichnung jedoch stark aliased. In dieser Studie wird gezeigt, dass das historische Verfahren signifikante Fehler bei den Mitteltemperaturen und den langzeitlichen Temperaturtrends ergibt.
Das UACRN der NOAA ist ein kleines Netzwerk, welches im Jahre 2008 komplett war, und es trägt nur sehr wenig zu den instrumentellen Aufzeichnungen insgesamt bei. Allerdings bieten die USCRN-Daten eine besondere Gelegenheit, eine hochwertige Version des historischen Verfahrens mit dem Nyquist-Verfahren zu vergleichen. Die Max- und Min-Werte werden ermittelt mit den höchsten und niedrigsten Werten unter den 288 Messungen über den interessierenden 24-Stunden-Zeitraum.
Beispiele aus dem USCRN der NOAA zur Illustrierung des Effektes eines Verstoßes gegen das Nyquist-Theorem bzgl. der Mitteltemperatur
Das folgende Beispiel soll zeigen, wie der Fehler bei der Berechnung der Mitteltemperatur zunimmt, wenn die Anzahl der Messungen abnimmt. Abbildung 1 zeigt die Temperatur, wie sie am Messpunkt Cordova AK [= Alaska] am 11. November 2017 gemessen worden ist, und zwar mittels der 5-Minuten-Messungen nach USCRN:
Die blaue Linie repräsentiert die 288 Temperaturmessungen jenes Tages. Sie zeigt 24 Stunden mit Temperaturdaten. Die grüne Linie zeigt die korrekte und genaue tägliche Mitteltemperatur, berechnet aus der Summe aller Messwerte dividiert durch die Anzahl der Messungen. Temperatur ist nicht Wärmeenergie, aber sie wird verwendet als eine Annäherung an dieselbe. In dieser Hinsicht zeigen die grüne Linie (Mitteltemperatur) und die Tageslinie (blaue Linie) genau die gleiche Menge von Wärmeenergie über den Zeitraum von 24 Stunden jenes Tages. Das korrekte Mittel beträgt -3,3°C. Tmax wird repräsentiert durch die orange, Tmin durch die graue Linie. Sie ergeben sich aus dem höchsten bzw. niedrigsten Wert der 288 Messungen über den 24-Stunden-Zeitraum. Das aus (Tmax + Tmin)/2 berechnete Mittel zeigt die rote Linie. (Tmax + Tmin)/2 ergibt einen Mittelwert von -4,7°C, weist also einen Fehler von 1,4°C im Vergleich zum korrekten Mittel auf.
[Dazu noch einmal zum Einschub oben: Bei dem zumindest in Deutschland gebräuchlichen Verfahren ist der Fehler geringer, was den Ausführungen des Autors zufolge aber auch daran liegen kann, dass es vier Messungen zu ganz bestimmten Zeiten sind und nicht nur zwei zu verschiedenen Zeiten am Tag. Daher zeigt sich in der folgenden Tabelle (Abbildung 2) bei 2 bzw. 4 Messwerten bei der Berechnung des Mittels der gleiche Fehler. Anm. d. Übers.]
Mit den gleichen Signalen und Daten aus Abbildung 1 zeigt die Tabelle in Abbildung 2 die berechneten Temperaturmittel in Abhängigkeit von einer immer weiter abnehmenden Zahl von Messwerten. Diese reduzierten Raten kann man mittels Division der 288 Messwerte pro Tag durch 4, 8, 12, 24, 48, 72 und 144 errechnen. Bei einer angemessenen Aussortierung der Messwerte nach diesem Verfahren ist der Gesamteffekt der gleiche, als ob man im Original mit reduzierter Rate gerechnet hätte. Das sich aus dieser reduzierten Anzahl von Messwerten ergebende korrespondierende Aliasing zeigt sich auch in der Tabelle:
Aus der Tabelle geht klar hervor, dass bei Reduktion der Anzahl der Messwerte unter Nyquist der daraus erwachsende korrespondierende Fehler infolge des Aliasing zunimmt. Auch zeigt sich eindeutig, dass 2, 4, 6 oder 12 Messwerte pro Tag ein sehr ungenaues Ergebnis zeitigen. Eine Anzahl von 24 Messungen pro Tag (also stündlich) bis zu 72 Messwerten pro Tag (3 Messwerte innerhalb von 1 Stunde) kann genaue Ergebnisse erzielen – oder auch nicht. Die NOAA hat sich für 288 Messwerte pro Tag entschieden (4320 Messwerte pro Tag vor der Mittelbildung). Also wird das jetzt als der gegenwärtige Grund-Standard angesehen. Eine Anzahl von Messwerten unter 288 pro Tag wird (und sollte auch) als eine Verletzung des Nyquist-Theorems angesehen werden.
Es ist interessant darauf hinzuweisen, dass das in der Tabelle Gelistete einen Fehler von 0,7°C zeigt. Aber (Tmax + Tmin )/2 sind technisch 2 Werte pro Tag mit einem Fehler von 1,4°C, wie aus der Tabelle folgt. Wie kann das sein? Es kann sein, weil (Tmax + Tmin )/2 ein Sonderfall von 2 Messungen pro Tag ist, sind doch diese beiden Messungen nicht gleichmäßig über den Tag verteilt. Sie treten jeweils zu unterschiedlichen Zeiten auf. Bei geeigneten Messungen messen wir nach der Uhr – mit Messungen zu jeweils genau der gleichen Zeit an jedem Tag. Die Tatsache, dass Tmax und Tmin zu unregelmäßigen Zeiten am Tag auftreten, verursacht eine eigene Art von Messfehler. Es liegt jenseits dieser Studie, diesen in vollem Umfang zu erklären. Im Bereich der Signalanalyse und der Datengewinnung ist das ein bekanntes Problem. 2 Messungen pro Tag zu regelmäßigen Zeiten wird wahrscheinlich bessere Ergebnisse zeigen als das Auffinden der Höchst- und Tiefsttemperatur irgendeines gegebenen Tages. Die instrumentelle Temperaturaufzeichnung wendet das absolut schlechtestmögliche Verfahren an – was zu einem maximalen Fehler führt.
Abbildung 3 zeigt das gleiche tägliche Temperatursignal wie Abbildung 1, repräsentiert durch die 288 Messwerte pro Tag (blaue Linie). Ebenfalls gezeigt ist das gleiche tägliche Temperatursignal, errechnet aus 12 Messwerten pro Tag (rote Linie) und 4 Messwerten pro Tag (gelbe Linie). Aus dieser Abbildung geht schon für das bloße Auge hervor, dass viele Informationen des Original-Signals bei der Verwendung von nur 12 Werten pro Tag verloren gehen, und sogar noch mehr bei nur 4 Werten pro Tag. Es sind diese verloren gegangenen Informationen, welche das resultierende Mittel verfälschen. Diese Abbildung illustriert graphisch, was man in der korrespondierenden Tabelle von Abbildung 2 erkennt.
Abbildung 4 zeigt den täglichen mittleren Fehler zwischen dem Verfahren mit 288 Werten pro Tag nach USCRN und dem historischen Verfahren, wie er über 365 Tage an der Station Boulder in Colorado im Jahre 2017 gemessen worden war. Jeder Datenpunkt ist der Fehler jedes einzelnen Tages in der Aufzeichnung. Man erkennt aus Abbildung 4, dass (Tmax + Tmin )/2 tägliche Fehler bis zu ± 4 °C erzeugt. Die Berechnung eines Mittelwertes mit nur zwei Werten pro Tag ergibt kaum jemals den korrekten Mittelwert.
Betrachten wir noch ein weiteres Beispiel ähnlich dem in Abbildung 1 gezeigten, aber über einen längeren Zeitraum. Abbildung 5 zeigt (in blau) das 288 Werte pro Tag-Signal aus Spokane, WA [= Washington State, am Pazifik] vom 13. bis zum 22. Januar 2008. Tmax (mittel) und Tmin (mittel) sind jeweils in orange bzw. grau gezeigt. Das Mittel aus (Tmax + Tmin )/2 ist in rot dargestellt (-6,9°C) und das korrekte Mittel aus den alle 5 Minuten gemessenen Werten ist in grün dargestellt (-6,2°C). Das Mittel aus (Tmax + Tmin )/2 weist einen Fehler von 0,7°C über die 10-Tage-Periode auf.
Die Auswirkung einer Verletzung des Nyquist-Theorems auf Temperaturtrends
Schließlich müssen wir die Auswirkungen der Verletzung des Nyquist-Theorems bei der Anwendung auf Temperaturtrends betrachten. Abbildung 6 zeigt einen Vergleich zwischen linearen Temperaturtrends, wie sie sich aus dem historischen Verfahren ergeben, und Verfahren gemäß Nyquist unter Verwendung der Daten von Blackville, SC [= South Carolina], und zwar von Januar 2006 bis Dezember 2017. Man erkennt, dass der aus dem historischen Verfahren abgeleitete Trend (orange Linie) etwa 0,2°C wärmer anfängt und einen Erwärmungs-Bias von 0,24°C pro Dekade aufweist, jeweils im Vergleich zu dem Verfahren nach Nyquist (blaue Linie). Abbildung 7 zeigt den Trend-Bias oder Fehler (°C pro Dekade) für 26 Stationen im USCRN über einen Zeitraum von 7 bis 12 Jahren. Die 5-Minuten-Werte ergeben den Referenz-Trend. Fast jede Station zeigt einen Erwärmungs-Bias und nur wenige einen Abkühlungs-Bias. Der größte Erwärmungs-Bias beträgt 0,24°C pro Dekade und der größte Abkühlungs-Bias -0,17°C pro Dekade. Über alle 26 Stationen gemittelt ergibt sich ein Erwärmungs-Bias von 0,06°C. Wikipedia zufolge beträgt der berechnete globale Erwärmungstrend im Zeitraum 1880 bis 2012 0.064 ± 0.015°C pro Dekade. Schauen wir auf einen jüngeren Zeitraum, welcher den kontroversen „Stillstand der globalen Erwärmung“ enthält, und verwenden dann Daten von Wikipedia, erhält man die folgenden Erwärmungstrends – abhängig davon, welches Jahr man wählt als Beginn des „Stillstands“:
1996: 0.14°C pro Dekade
1997: 0.07°C pro Dekade
1998: 0.05°C pro Dekade
Obwohl man keine Schlussfolgerungen ziehen kann, wenn man die Trends über 7 bis 12 Jahre an 26 Stationen im USCRN vergleicht mit den gegenwärtig anerkannten lang- oder kurzzeitigen globalen Mitteltemperatur-Trends, kann dieser Vergleich instruktiv sein. Klar ist, dass die Anwendung des historischen Verfahrens zur Berechnung von Trends einen Trend-Fehler ergibt und dass dieser Fehler von ähnlicher Größenordnung sein kann wie die geltend gemachten Trends. Daher ist es vernünftig, die Validität der Trends zu hinterfragen. Es gibt keine Möglichkeit, diese Validität sicher herauszufinden, weil es bzgl. des Großteils der instrumentellen Aufzeichnung keine ordentlich errechnete Aufzeichnung zum Vergleich gibt. Aber mathematisch sicher ist, dass jede Mitteltemperatur und jeder Trend in den Aufzeichnungen signifikante Fehler enthält, falls das Verfahren der 2 Werte pro Tag angewendet worden ist.
Schlussfolgerungen
1. Die Lufttemperatur ist ein Signal und muss daher gemessen werden nach den mathematischen Gesetzen, welche die Signalverarbeitung bestimmen. Die Wertesammlung muss gemäß dem Nyquist Shannon-Sampling Theorem durchgeführt werden.
2. Das Nyquist Shannon-Sampling Theorem ist seit über 80 Jahren bekannt und von grundlegender Bedeutung in jedem Technologiebereich, bei dem es um Signalverarbeitung geht. Eine Verletzung von Nyquist garantiert, dass die Werte korrumpiert sind mit einem Aliasing-Fehler, und die Werte werden nicht das sich ergebende Signal repräsentieren. Aliasing kann nach der Werte-Gewinnung nicht korrigiert werden.
3. Das Nyquist Shannon-Sampling Theorem erfordert, dass die Rate der Anzahl der Werte größer sein muss als 2 mal die höchste Häufigkeits-Komponente des Signals. Unter Verwendung automatisierter elektronischer Ausrüstung und Computer erstellt das NOAA USCRN Wertemengen mit einer Rate von 4320 Werten pro Tag (gemittelt zu 288 Werten pro Tag), um Nyquist praktikabel anwenden zu können und einen Aliasing-Fehler zu vermeiden.
4. Die instrumentelle Temperaturaufzeichnung beruht auf dem historischen Verfahren der Berechnung aus den Werten der täglichen Höchst- und Tiefsttemperatur. Daher verletzt die instrumentelle Aufzeichnung das Nyquist Shannon-Sampling Theorem.
5. Das USCRN der NOAA ist ein hochwertiges Datengewinnungs-Netzwerk, welches in der Lage ist, ein Temperatursignal ordentlich zu messen. Das USCRN ist ein kleines, im Jahre 2008 vervollständigtes Netzwerk und trägt nur wenig zu der gesamten instrumentellen Aufzeichnung bei. Allerdings bieten die USCRN-Daten eine besondere Gelegenheit, Analyse-Verfahren miteinander zu vergleichen. Ein Vergleich kann erfolgen zwischen Temperatur-Mittelwerten und Trends, errechnet aus Tmax und Tmin und einem ordentlich ermittelten Signal gemäß Nyquist.
6.Mittels der Verwendung einer begrenzten Anzahl von Beispielen aus dem USCRN wurde gezeigt, dass die Verwendung von Tmax und Tmin als Datenquelle die folgenden Fehler ergeben kann im Vergleich zu einem gemäß Nyquist ermittelten Signal:
a) Einen mittleren Fehler, der von Station zu Station sowie von Tag zu Tag an einer Station variieren kann.
b) einen mittleren Fehler, der mit der Zeit variiert mit einem mathematischen Anzeichen, welches sich ändern kann (positiv/negativ)
c) Tägliche mittlere Fehler bis zu ±4°C
d) Langzeitliche Trendfehler mit einem Erwärmungs-Bias bis zu 0,24°C pro Dekade und einem Abkühlungs-Bias bis zu -0,17°C pro Dekade.
7. Die volle instrumentelle Aufzeichnung weist keine angemessen ermittelte Wertemenge auf für einen Vergleich. Es bedarf weiterer Arbeiten, um zu bestimmen, ob eine theoretische Obergrenze berechnet werden kann für den Mittelungs- und den Trendfehler, der sich ergibt bei der Anwendung des historischen Verfahrens.
8. Das Ausmaß des beobachteten Fehlers mit der damit verbundenen Größenordnung der Unsicherheit stellen den wissenschaftlichen Wert der instrumentellen Aufzeichnung in Frage sowie auch die Praxis, Mittelwerte und langzeitliche Trends aus Tmax und Tmin zu berechnen.
Der Druck von Trump macht sich bemerkbar: Deutschland wankt bzgl. russischer Gas-Pipeline
|
Nord Stream 2, ein 11-Milliarden-Dollar-Projekt,welches die Erdgas-Versorgung unter der Ostsee hindurch nach Deutschland verdoppeln wird, sieht sich wachsendem Skeptizismus seitens deutscher Beamten ausgesetzt, welche das Projekt einst gegen Kritik von Trump sowie einiger anderer EU-Länder verteidigt haben. Dies melden leitende Mitglieder der Regierung. Die Änderung könnte den Druck auf Merkels Regierung verstärken, Abstand von der kontroversen Pipeline zu nehmen und deren Inbetriebnahme womöglich zu verzögern.
Der sozialdemokratische Politiker Nils Schmid, dessen Partei, die SPD, sich stets zuverlässig hinter das Projekt gestellt hatte, sagte, dass zu viele Entscheidungsträger in Berlin die geopolitische Bedeutung von Nord Stream nicht verstanden hätten. Es wird die durch die Ukraine strömende Gasmenge reduzieren, was den russischen Versuchen entspricht, die Ökonomie seines Nachbarn zu schwächen, indem das Land weniger lukrative Gebühren für die Durchleitung von Gas kassiert.
„Die Debatte in Deutschland ist kritischer geworden“, sagt Schmid, der außenpolitische Sprecher der SPD, und fügte hinzu, dass man das Projekt nicht weiter verfolgen sollte, solange Russland und die Ukraine keine Transit-Vereinbarung erzielen. „Es wäre besser gewesen, diese politische Dimension stärker zu berücksichtigen“.
Russlands ,Geisel‘
Die 1200 km lange untermeerische Pipeline – gebaut von der russischen Firma Gazprom PJSC zur Stärkung der Versorgung Deutschlands, nachdem sich norwegische, holländische und heimische Quellen der Erschöpfung nähern – ist von einigen EU-Ländern angeprangert worden. Sie sagen, dass nur die Abhängigkeit Europas von Russland gestärkt wird und Schlüsselpartner wie die Ukraine außen vor gelassen werden. Trump hat das Projekt verurteilt, macht sich doch Deutschland damit zu einer „Geisel“ Russlands.
Die Basis verschiebt sich, mit einer immer gespannteren Beziehung zu Russlands Präsident Wladimir Putin, vor allem nach der Festnahme von zwei Dutzend Seeleuten aus der Ukraine nahe dem Asowschen Meer. Merkel, die mit Putin seit der Annexion der Krim im Jahre 2014 im Streit liegt, fordert die Freilassung der Schiffsbesatzung.
Der Vorfall im Asowschen Meer hat die Wahrscheinlichkeit dafür steigen lassen, dass Merkels Diplomatie den Konflikt in der Ostukraine herunterstuft. Das sagt der außenpolitische Sprecher der CDU Jürgen Hardt.
Unerfüllte Hoffnungen
„Die Ereigisse im Asowschen Meer zeigen zumindest mir, dass dies unerfüllte Hoffnungen sind“, sagte Hardt in einem Interview. „Russland rückt meiner Ansicht nach nicht einen Millimeter von seinen Zielen ab“.
Hardt sagte weiter, dass die Regierungsparteien in Deutschland einen Konsens mit der Europäischen Kommission finden müssen hinsichtlich Energie-Diversifikation und der Abhängigkeit von russischem Gas. Er stellte auch die ökonomische Machbarkeit von Nord Stream in Frage. Dies bohrt Löcher in die ursprüngliche Verteidigung des Projektes seitens der Regierung.
Merkel änderte ihre Haltung zu Nord Stream im April vorigen Jahres. Sie räumte die politischen Dimensionen der Pipeline ein und nahm Abstand von der Ansicht, dass das Projekt allein eine Sache eines Unternehmens privater Investoren sei. Das Projekt darf die Ukraine nicht schwächen, indem die Durchleitung von Gas unterbrochen wird, sagte sie damals.
Richard Grenell, der US-Botschafter in Deutschland, begrüßte die zunehmend skeptische Haltung in Berlin und sagte, dass die Pipeline die Energie- und Sicherheitsbedürfnisse der EU unterminiere.
Russischer Einfluss
„Es strömt nicht nur russisches Gas durch die Pipeline, sondern auch russischer Einfluss“, sagte Grenell. „Es ist jetzt nicht an der Zeit, Moskau zu belohnen“.
Die US-Regierung hat angedeutet, dass Sanktionen bzgl. der Pipeline nahe bevorstehen. Die Spannungen bzgl. Nord Stream kamen in vollem Umfang zum Vorschein auf dem NATO-Gipfel im Juli vorigen Jahres, als Trump der Merkel-Regierung in Deutschland vorwarf, zu wenig für Verteidigung auszugeben.
die aktuelle Berichterstattung zum Schneedesaster wird ja wieder garniert mit Hinweisen, wonach genau derartige Ereignisse die angebliche Kilmakatastrophe bestätigen. Ich möchte einen Aspekt hierzu herausgreifen und Ihnen Folgendes schreiben:
Meine Frau und ich bewirtschaften seit nunmehr 15 Jahren ein Gebirgsrevier im Salzburgischen und ich kann bestätigen, dass in diesen 15 Jahren keinerlei wirkliche Klimaveränderung im Hinblick auf das Schneegeschehen stattgefunden hat. Schneehöhen von 2 Metern und mehr vor meinem Jagdhaus haben wir mehrfach gehabt. Mal kommt der Schnee erst Mitte Dezember, mal schon im November. Mal bleibt er bis Ende Mai liegen, ein anderes Mal ist das Revier schon Mitte April gut befahrbar. Nichts Neues also. Wie der im bayerischen Rundfunk vor einigen Wochen interviewte Fahrer eines sog. Pistenbulli an der Zugspitze zum gleichen Thema sagte: „Ich mach das jetzt seit 30 Jahren hier. Es hat sich nichts geändert. Mal ist es so, mal ist es so.“ Dabei wird es niemanden wundern, dass dieses Interview im Zusammenhang mit der Zugspitze – Berichterstattung in BR5 nur 1 x ausgestrahlt wurde und dann schnell niedergeschlagen wurde.
Im gleichen Zusammenhang möchte ich Sie rein vorsorglich auf den diese Beobachtungen in eindrucksvoller Weise bestätigenden ganzseitigen Zeitungsartikel in der Frankfurter Allgemeinen Sonntagszeitung vom 13.1.2019, Seite 57, „Sie nennen es Winter“ hinweisen, wo Schneebeobachtungen seit 1908 bestätigen „Nichts Besonderes!“
Ich bin mehrfach auch schon Anfang Juni in heftige Schneefälle geraten. Mit Ausnahme von 2019 gab es stets ausreichend , manchmal sogar im übermaß Regenfälle , sodaß außerhalb der Schneesaison immer sattes Grün und damit (über-)reichlich Äsung für das Rot-und Rehwild vorhanden war.
Unverändert mit großem Respekt vor Ihrer Arbeit zeichne ich
mit besten Grüßen als Ihr
NN
China: Keine Wind- und Solarenergie mehr, solange sie nicht billiger wird als Kohle
|
Peking zog den Stecker aus Unterstützungen für große Solarprojekte, welche Ende Mai Zahlungen pro Kilowattstunde erhalten hatten. Diese Nachricht folgte unmittelbar nach dem größten Ereignis bzgl. Solarenergie des Landes und überraschte alles und jeden.
Man glaubt, dass die Bürokraten frustriert seien darüber zu erleben, wie chinesische Zuliefer- und Ingenieurbüros, welche in Übersee Solarprojekte realisieren, den Strom zu einem Preis erzeugen können, der weit unter dem liegt, was im eigenen Land verfügbar war.
Das Land hat auch seine eigenen Erfahrungen mit Blockaden. Diese haben dazu geführt, dass Energie aus Wind- und Solarprojekten verschwendet worden war infolge fehlender Kapazitäten des Netzwerkes bzgl. Übertragung und Verteilung. Im Jahre 2017 wurden 12% der Wind- und 6% der Solarerzeugung gekürzt.
Nach den jüngst verkündeten Plänen stellten die National Development and Reform Commission (NDRC), die oberste strategische Planungsbehörde, und die National Energy Administration (NEA) eine Reihe von Bedingungen, nach welchen neue Solar- und Windprojekte genehmigt werden würden, und zwar bis Ende 2020.
An erster Stelle dieser Bedingungen steht, dass die Preise den nationalen Preis-Eckpunkt für Kohle erreichen oder unterschreiten müssen, was zum ersten Mal jemals gerade im vorigen Monat der Fall war. Projekte müssen auch den Nachweis erbringen, dass das Netz den erzeugten Strom aufnehmen kann. Technische Einzelheiten werden sicherstellen, dass in dieser Hinsicht die höchsten Standards erreicht werden.
Lokalen Verwaltungen wurde anheim gestellt, ihre eigenen Subventionen Projekten zukommen zu lassen, falls sie das wollen. In der Vergangenheit haben Provinzregierungen viel Geld ausgegeben, um nicht wettbewerbsfähige Solarpaneel-Hersteller am Leben zu halten.
Die Klima-Studie, über welche die Medien 2018 am meisten berichteten, war in Wirklichkeit ein Ruf nach globalem Sozialismus
|
„Über diese Studie wurde am fünft-häufigsten Mal im Vergleich zu sämtlichen, in Journalen veröffentlichten Studien berichtet, und am häufigsten im Vergleich zu allen Studien bzgl. globaler Erwärmung. Dies steht auf der Website Carbon Brief. „Sie war Gegenstand von 460 Nachrichten-Beiträgen in 326 Portalen, einschließlich Guardian, BBC News, Sky News, New Scientist, Al Jazeera und des Sydney Morning Herald. Links zu der Studie fanden sich außerdem in 5392 Tweets und 34 Facebook-Einträgen“, berichteteCarbon Brief am Dienstag.
Carbon Brief erstellte eine Liste von Klimastudien aus Daten von Altmetric, einer Gruppe, welche Studien im Auge hat, die in „Nachrichten-Beiträgen und Blogs erwähnt werden und die in sozialen Medien wie Twitter, Facebook, LinkedIn und Reddit eine Rolle spielen“.
Die Studie, durchgeführt unter Mitarbeit einer Gruppe prominenter Wissenschaftler, forderte eine „grundlegende Transformation auf der Basis einer fundamentalen Neuorientierung menschlicher Werte, Fairness, Verhalten, Institutionen, Ökonomien und Technologien“.
Die Wissenschaftler warnten vor einer Erwärmung um 2°C über das vorindustrielle Niveau, weil dieser Wert der Tipping Point zu einem unbewohnbaren „Hothouse Earth“ sei. „Fundamentale gesellschaftliche Änderungen“, um eine „stabilisierte Erde“ zu schaffen, sind erforderlich, wie aus der die Studie begleitenden Presseerklärung hervorgeht.
Viele Konservative machten den Autoren der Studie den Vorwurf, „sozialistische Forderungen“ für eine „globale Regierung“ voranzutreiben (hier).
„Anstatt sich auf die Wissenschaft und die Identifizierung von Tipping Points und Trajektorien zu konzentrieren, schweift man im Abstract ab und fordert eine globale Regierung“, twitterte Michael Liebreich als Reaktion auf die „Hothouse“-Studie. Liebreich war der Mitbegründer von New Energy Finance bei Bloomberg. „Die Verquickung von Wissenschaft mit sozialistischen Forderungen bedeutet normalerweise, dass Wissenschaft Quatsch ist, und als Konservativer kann und will ich mir nicht die Mühe machen, sie zu lesen“, sagte Liebreich, der kein Skeptiker einer vom Menschen verursachten Erwärmung ist.
Die in UK ansässige Denkfabrik GWPF, mitbegründet vom ehemaligen Parlamentsabgeordneten der Konservativen Nigel Lawson verurteilte die Studie als „sozialistische Agenda des Klima-Alarmismus’“.
Andere Klima- und Energieexperten waren ebenfalls skeptisch hinsichtlich der „Hothouse“-Studie (hier). Der Klimawissenschaftler Bob Kopp sagte, es stecke „keine neue Wissenschaft darin zu argumentieren, dass der Übergang in ein Hothouse rasch erfolgt“. Wenn ein „Hothouse Earth“ wirklich kommen sollte, „werden wir nicht wissen, wie es dazu kam, und die Transition wird Jahrhunderte dauern“.
Carbon Brief zufolge war eine Studie mit der Behauptung, dass die globale Erwärmung zu einer Verknappung von Bier führen könnte (hier), die am vierthäufigsten erwähnte Klimastudie. Die im Oktober veröffentlichte Studie kam zu dem Ergebnis, dass die globale Hopfenernte im Mittel um bis zu 17% sinken könnte unter einem „Business-as-Usual“-Szenario. Allerdings basiert dies auf Projektionen der globalen Erwärmung, welche von Experten auf dem Gebiet als „außerordentlich unwahrscheinlich“ eingestuft werden.
Eine weitere Klima-Propaganda-Story, welche das Normale als anomal propagiert
|
Das jedoch rechtfertigt nicht, dass sich die Medien dieser Praxis bedienen. Alles, was damit erreicht wird, ist die Illustrierung, warum das ein bequemes Verfahren war, den betrügerischen Eindruck zu erwecken darüber, was normal ist. Zum Beispiel posaunte eine Schlagzeile der BBC im Jahre 2017 „Heißester Junitag seit der Hitzewelle im Sommer 1976“. Das sind 41 Jahre, was zwar statistisch, aber nicht klimatologisch relevant ist. In einer Youtube story heißt es: „Sydney verzeichnete den nassesten Novembertag seit 1984“. Bei CBS Pittsburgh hörte man: „2018 ist das zweitnasseste Jahr jemals in Pittsburgh“. Die Aufzeichnungen begannen im Jahre 1871 oder vor 147 Jahren, aber nicht einmal das ist klimatologisch signifikant. Schlagzeilen nach meinem Geschmack sind von der Art wie die Folgende aus North Carolina, in der es heißt: „Ein Blick zurück auf den kältesten Tag jemals in North Carolina“. „Jemals“ heißt etwa 4,5 Milliarden Jahre.
Andere Artikel konzentrieren sich auf eine bestimmte Lage oder die Änderung einer Lage, wieder mit dem Gedanken im Hinterkopf, dass das alles neu oder anomal ist. Beispielhaft steht hierfür die Schlagzeile aus dem Jahr 2012 „Warum gab es in diesem Jahr mehr Tornados als normal?“ Oft sind diese Schlagzeilen auch suggestiv wie etwa bei der New York Times im Jahre 2017: „Die Hurrikan-Saison 2017 ist wirklich stärker als normal“. Liest man den ganzen Beitrag, erkennt man wie üblich, dass die ganzen Vorbehalte am Ende zeigen, dass es keineswegs ungewöhnlich ist. Das Problem ist die Schlagzeile selbst, welche sich in den Köpfen der Öffentlichkeit festsetzt.
Eine Schlagzeile lautet: „Der Autor schreibt über eine Reihe von Stürmen, die Kurs auf die Westküste von Nordamerika nehmen“. In dem Artikel heißt es dann:
Während El Nino-Jahren beruhigen sich die Dinge nach dem 1. Januar oftmals … aber nicht in diesem Jahr … wird doch die Westküste der USA vom zentralen Kalifornien bis nach Washington State durch eine Reihe von Stürmen geschlagen. Regen, Schnee, Wind? Vieles für jedermann. Ein Blick auf das jüngste Infrarot-Satellitenbild zeigt eine erstaunliche Kette von Stürmen, die sich bis weit auf den Pazifik hinaus erstreckt. Ein Verkehrsstau von Stürmen.
Die Termini „geschlagen“ [pummeled] und „Verkehrsstau“ [traffic jam] sind aufrüttelnd und implizieren, dass diese Lage ungewöhnlich ist. Tatsache ist aber, dass die Lage absolut normal ist bis zu dem Punkt, dass es dafür einen treffenden Begriff gibt, den ,Ananas Express‘ [Pineapple Express]. Dieser Begriff bezieht sich auf die Lage der Polarfront entlang der Nordwestküste von Alaska und dem nördlichen British Columbia. An dieser Polarfront bilden sich das ganze Jahr über Tiefdruckgebiete. Die von diesen Vorgängen betroffenen Gebiete ändern sich mit der Verlagerung der Polarfront von einer nördlicheren Position im Sommer und einer südlicheren Lage im Winter. Der Terminus ,Ananas Express‘ bezieht sich auf die Lage im Winter, wenn sich diese Tiefdruckgebiete im Gebiet von Hawaii bilden und sich entlang der Polarfront verlagern, bis sie schließlich einer nach dem anderen die Nordwestküste erreichen. Diese Lage hört nicht auf während eines El Nino-Jahres, doch schlagen die Stürme in diesen Jahren einen anderen Weg ein.
Diese Tiefdrucksysteme stehen auch im Mittelpunkt der Darstellung normaler Wetterereignisse als anomal in Europa. Die Südverlagerung der Polarfront erfolgt auf der gesamten Nordhemisphäre. Zwei wesentliche Faktoren beeinflussen die Wetterlage, nämlich die Wassertemperatur, welche im Zuge der Meeresströme fluktuiert, und die Verteilung von Rossby-Wellen. Diese Wetterlage von Tiefdruckgebieten, welche im Winter auf Westeuropa übergreifen, wurde der Propaganda-Liste hinzugefügt, als man begann, die Tiefdruckgebiete mit Namen zu versehen*. Das stellte in den Gehirnen der Öffentlichkeit einen Link zu Hurrikanen her und impliziert, dass es ein neues Phänomen sei.
Es ist nicht neu und auch nicht von stärkerer Intensität, wie der Ausschnitt im Bild oben aus dem Jahr 1704 (!) zeigt.
[*Einschub des Übersetzers hierzu: Ursache der Namensgebung von Hoch- und Tiefdruckgebieten ist eine andere. Man begann damit in den fünfziger Jahren, also lange vor der heutigen Hysterie, am Meteorologischen Institut der Freien Universität Berlin auf eine Initiative von Frau Dr. Karla Wege. Damit sollte in Begleittexten eindeutiger hervortreten, von welchem Tiefdruckgebiet auf der Wetterkarte gerade die Rede ist. Dem Autor Dr. Ball kann aber keineswegs aus dem Mangel dieses Detailwissens ein Vorwurf gemacht werden!
Außerdem bezeichnet Dr. Ball die Tiefdruckgebiete der Polarfront durchweg als ,anti-cyclones‚, was aber als Tiefdruckgebiet übersetzt worden ist, denn nur um solche handelt es sich.
Ende Einschub]
Ein bedeutender Teil der grundlegenden und monumentalen Arbeit von Prof. Hubert Lamb zur Historie der Klimatologie war eine langzeitliche Rekonstruktion der Verteilung dieser Tiefdruckgebiete. Es passt zu folgender Behauptung, warum er die Climate Research Unit CRU an der University of East Anglia ins Leben rief:
„… es war klar, dass es das Erste und Wichtigste war, die Fakten der Aufzeichnungen des natürlichen Klimas in der Vergangenheit zu etablieren, während einer Zeit also, bevor irgendwelche Auswirkungen menschlicher Aktivitäten Bedeutung erlangen konnten“.
Als er erst einmal eine langzeitliche Reihe dieser Tiefdrucksysteme erstellt hatte, war es einfacher, die zugrunde liegenden Vorgänge zu erkennen. Daraus konnte er dann sein Endziel einer besseren Vorhersage erreichen. Die Fähigkeit zur Vorhersage definiert Wissenschaft. Falls das nicht das Endziel sein soll, ist die Arbeit zumeist irrelevant.
Man erinnere sich einmal an die destruktive und den Lauf der Geschichte verändernde Rolle von Stürmen von der Art, wie sie die spanische Armada trafen, als diese versuchte, im Jahre 1588 in England einzufallen. Phil Jones, der den Ruf der CRU unter seiner Leitung in Grund und Boden stampfte, schrieb eine gute Zusammenfassung von Lambs Arbeit. Sehr detailliert wird auch der Sturm des Jahres 1703 in dem Buch The Storm des berühmten Schriftstellers Daniel Defoe beschrieben.
Marcel Leroux war ein früher bedeutender Skeptiker hinsichtlich der Behauptung von AGW. Sein Buch Global Warming: Myth or Reality war wirkungsvoll, weil Leroux eindeutig qualifiziert war. In einer Begutachtung seines Buches liest man:
In der Debatte um die globale Erwärmung bleiben Antworten auf Fragen nach den ultimativen Ursachen und Auswirkungen vage. In seinem Buch trachtet Marcel Leroux danach, Fakten von Fiktivem zu trennen in dieser entscheidenden Debatte aus einer klimatologischen Perspektive. Er beginnt mit einer Bewertung der düsteren Hypothesen für Klimatrends und beschreibt dann die Historie des 1998 gegründeten IPCC und vieler nachfolgender Konferenzen. Er diskutiert die Haupt-Schlussfolgerungen der drei IPCC-Berichte und die prophezeiten Auswirkungen auf globale Temperaturen, Regenmenge, Wetter und Klima, während er die steigende Konfusion und den Sensationalismus von Berichten in den Medien hervorhob.
Die Bemerkung über den Sensationalismus in den Medien ist relevant für diesen Beitrag, weil Leroux genau wie Lamb an einer Rekonstruktion der Tiefdrucksysteme im Nordatlantik arbeitete. Leroux arbeitete später auch an einer Ausbeutung des Normalen seitens John Holdren, dem Wissenschaftsberater von Präsident Obama bzgl. des so genannten „Polarwirbels“. Die Arbeit von Leroux aus dem Jahr 1993 mit dem Titel [übersetzt] „Das mobile Polarhoch: ein neues Konzept zur Erklärung gegenwärtiger Prozesse des meridionalen Austausches von Luftmassen und Energie sowie globale Fortpflanzung paläoklimatischer Änderungen“ (hier) zeigte, dass diese Ausbrüche von Polarluft ein ganz normales Wetterereignis sind, die in die Klimaaufzeichnungen eingehen wegen ihres regelmäßigen, jedoch variablen zeitlichen Auftretens und deren Auswirkungen.
Wir sind hier Konfrontiert mit einer unheiligen Allianz des politischen Missbrauchs von Wissenschaft seitens des IPCC, den Tatsachenverdrehern oder, wie ich lieber sage, den professionellen Lügnern, sowie der Mainstream-Medien, welche Fake News fabrizieren, indem sie das Normale als anomal darstellen. Wie wahr ist das jüdische Sprichwort „Wahrheit stirbt niemals, führt aber eine armselige Existenz“. Das gilt vor allem für einen solchen absichtlichen Angriff.
RALF STEGNER COUNTRY NEWS – Die Luftsauger von Kiel
|
Gut, hier in der Ecke hält sich Ralf Stegner auf, jener SPD-Mann, der durch – sagen wir einmal – mitunter eigenwillige Gedanken auffällt. Aber dass es in Kiel so ausarten muss, das kann sich außerhalb kaum jemand vorstellen. Dort ist am Theodor Heuss Ring, einer vielbefahrenen Umgehungsstraße Kiels, die Hölle los. Denn dort steht eine Luftmessstation und stellt mit schöner Regelmäßigkeit Werte fest, bei denen die Kieler reihenweise vorzeitig tot umfallen müssten. Das machen sie bisher beobachtbar nicht.
Doch jetzt müssen auch in Kiel die Messwerte irgendwie runter, sonst drohen Fahrverbote. Die Behörden heckten deshalb einen großartigen Plan aus: Alle Fahrzeuge sollen vor der Messstelle auf die linke Spur fahren. Damit fahren Sie ein paar Meter weiter entfernt an der Luftmessstation vorbei. Der richtige Gedanke der Kieler: Dort ist die Konzentration der tödlichen Gase schon wieder so gering, dass kein Grenzwert überschritten wird. Es muss kein Fahrverbot verhängt werden.
Soweit so gut.
Doch offenbar fürchten die Kommunalpolitiker unter Kiels Oberbürgermeister Ulf Kämpfer (SPD) nichts mehr als ihre Genossen von der DUH. So kamen sie auf die Idee, eine mobile Absaugunganlage an den Theodor Heuss Ring zu stellen. Die soll die Stickoxide aus der Luft absaugen und saubere Werte melden. Staubsauger ein – Fahrverbot weg. So die Ideen, die in Kiel derzeit geboren werden.
In einer großen Absaugunganlage soll ein Filtersystem eingebaut sein, dass das macht, was auch die Natur tut: NOx unschädlich machen. Die Technik sei noch in der Erprobungsphase, weder ist die Produktion gesichert, noch sei die Wirksamkeit nachgewiesen, sagt Kiels Oberbürgermeister Kämpfer. Dennoch könnte sie bereits im Februar testweise eingesetzt werden.
Die Grenzwerte in Kiel betrugen im Durchschnitt des vergangenen Jahres 60 µg/Kubikmeter Luft, 2017 waren es 56 und davor wiederum 65 µg/Kubikmeter Luft gewesen. Der europäische Grenzwert wurde auf niedrige 40 µg/Kubikmeter festgelegt.
Das bedeutet: Die Absauganlage soll einen Anteil an NO2 von 0,00000008 an 1.000 Liter Luft herausfiltern, wenn wir das Gewicht der Luft mit idealen 1,3 kg pro Kubikmeter ansetzen. Der natürliche Anteil an NO2 kann bis zu 10 Mikrogramm pro Kubikmeter erreichen. Jeder Gasherd erzeugt beim Kochen einer Portion Spaghetti 1.200 Mikrogramm NO2 pro Kubikmeter Luft, also deutlich mehr als draußen an der Messstelle herrschen.
Gegen Kiel wirken die Bürger von Schilda wie clevere, ausgefuchste Leute. Sie trugen in Körben das Licht von außen in ihr Rathaus hinein. Das hatten sie schön neu gebaut, dabei allerdings die Fenster vergessen einzubauen.
Der Beitrag erschien zuerst bei TICHYS Einblick hier
Der Sonntagsfahrer: Geliebte Katastrophen
|
Es ist gar nicht so leicht, die Tagesschau gegenüber einer treuen Zuschauerin zu dementieren. Schließlich hatte sie selbst gesehen, wie ein bis zu den Oberschenkeln im Schnee stehender Reporter einen dramatischen Aufsager aus Bad Tölz absetzte. Die Aufnahme hätten sie auch in Augsburg in meiner Garageneinfahrt machen können, die hatte ich allerdings schon freigeschippt. „Mutter es ist Winter“, sagte ich beruhigend, „und im Winter schneit es schon mal“.
Um das Ganze anschaulich zu machen, beschloss ich, an ihr Langzeit-Gedächtnis zu appelieren: „Das ist hier nicht wie bei eurer Flucht im eisigen Winter 1944.“ Um dann noch hinzuzufügen: „Hier fährt die Straßenbahn, und zwar pünktlich im 5-Minuten Takt“. Was ich nicht sagte, aber dachte: Ganz im Gegensatz zur Berliner S-Bahn, die steht auch ohne Schnee ständig still.
Zum in den Landkreisen Bad-Tölz und Miesbach ausgerufenen Notstand, sagt der Miesbacher Landrat (ein Grüner): „Der Katastrophenfall wird festgestellt, wenn wir einen erhöhten Koordinierungsbedarf sehen. Sehr viele Einsatzkräfte stehen gerade unter Dauerbelastung. Mit dem K-Fall ist es leichter, wieder normale Verhältnisse herzustellen“. Und auf die Frage, ob er sich daran erinnern kann, dass in Miesbach schon mal wegen Schnee so lange die Schule ausgefallen ist, antwortet er: „Nein. Ich durfte das als Kind leider nie erleben. Wir hatten vielleicht mal hitzefrei. Aber die Schule ist wegen Schnee nie ausgefallen – obwohl wir auch früher schon starke Winter gehabt haben“.
Im Schulunterricht erfolgreich zu Klimaangsthasen dressiert
Es ist immer wieder erstaunlich, was in Deutschland zur Katastrophe hochgejazzt wird – und was nicht. Der jüngeren Generation, die im Schulunterricht erfolgreich zu Klimaangsthasen dressiert wurde (je höher der Schulabschluss, desto nachhaltiger die grüne Verblödung), kann man sogar weismachen, das so ein paar kalte, schneereiche Tage irgendwas mit der globalen Erwärmung zu tun haben.
Gibt es keinen richtigen Winter, wie vielfach prophezeit, ist das ein Beweis für die globale Erwärmung. Gibt es einen richtigen Winter, ist auch das ein Beweis für die globale Erwärmung („Extremwetterereignisse nehmen zu“), jedenfalls für die üblichen Verdächtigen vom Potsdamer Telegrafenberg. So etwas nennt man eine sich selbst immunisierende Argumentation. Egal was passiert, man hat immer recht. Die These von der menschengemachten Klimakatastrophe kann mit keiner möglichen Tatsache mehr kollidieren. Ist das nicht genial?
Laut Wikipedia versteht man unter Immunisierungsstrategie „alle Versuche, Theorien, religiöse oder säkulare Anschauungen durch Dogmatisierung gegen unvoreingenommene, kritische Überprüfung, gegen rationale Einwände abzuschirmen (zu immunisieren), unwiderlegbar zu machen, indem man sie zum Beispiel zu absoluten und unumstößlichen Wahrheiten erklärt“. Und das gilt nicht nur fürs Klima. In vielen Medien und auf der Regierungsbank muss es eine Schluckimpfung geben, die gegen rationale Einwände immunisiert. Aufgrund des unschönen Eindringens der Wirklichkeit wird in Deutschland daher immer mehr offenkundiger Blödsinn zur unumstößlichen Wahrheit erklärt. Nur so lässt sich der Glauben an das allein Seligmachende noch für einige Zeit retten.
Und bei dieser Übung gibt es nun mal Katastrophen die medial willkommen sind, weil sie unumstößliche Wahrheiten bestätigen, und solche, die es nicht sind, weil sie unumstößliche Wahrheiten demaskieren. Ich denke da beispielsweise an die Silvester-Katastrophe 2015/2016 auf der Kölner-Domplatte, die medial gar nicht willkommen war.
Die Schweinegrippe verpasst
Aber zurück zum Anruf meiner Mutter. Er erinnerte mich an 2009. Da habe ich zwei Wochen auf den Hochebenen der chilenischen Atacama-Wüste verbracht. Das hat mir jetzt Cem Özdemir nachgemacht. Mit einem Unterschied: Während ich dort oben mit einem Geländewagen das Weltklima gefährdete, machte Öszdemir das wieder wett, indem er auf einem mit Biomöhren genährten Pferd durch die Wüste ritt und die bösen Klimageister beruhigte. Die Reise nach Südamerika hat er auf dem Buckel eines Wales absolviert, da muss ich Archi Bechlenberg in seinem heutigen Antidepressivum korrigieren. Aber das nur am Rande.
Genau wie ich hier und heute beinahe die Schnee-Katastrophe um mich herum nicht bemerkt hätte, habe ich damals doch glatt die Schweinegrippe verpasst. Dafür war man zu Hause um so besorgter: Liegt die Atacama nicht in Südamerika, also irgendwie bei Mexiko (wo die Schweinegrippe ausgebrochen war)? Zum Glück funktionierte das Handy nicht. Der Aufenthalt in einer garantiert medienfreien Zone kann mitunter äußerst gesund sein, weil aus aufgeblasenen Katatstrophen bereits die Luft gewichen ist, bevor man das Telefon wieder abnehmen kann.
Anhand der Erzählungen und des nachträglichen Studiums der Tageszeitungen konnte ich den Hergang der Schweingerippe aber nach meiner Rückkehr rekonstruieren: Zunächst erste Fälle in Mexiko, dann überall diese Atemschutz-Masken. Sieht aus wie Giftgas-Alarm, so etwas lieben Fotografen und Kameramänner. Die Masken werden knapp. Von Tag zu Tag fettere Schlagzeilen: Weltweite Pandemie! Hunderte von Toten! Notstand in Mexiko! Erste Erkrankungen in Deutschland! Ausnahmezustand in USA!
Sogar Präsident Obama muss Stellung nehmen. Dann erste, vorsichtige Rückzieher. Schließlich die Fakten – nicht mehr in Riesenlettern, sondern in deutlich reduzierter Schriftgröße. Die Weltgesundheitsorganisation zählte insgesamt 65 Tote. Zum Vergleich: Die saisonale „normale“ Grippe kostet weltweit jährlich etwa 200.000 Tote. Mit etwas Abstand betrachtet, wirkt das Geschehen dann wie eine gewaltige Dampfmaschine, die irgendwann leise pfeifend ausläuft. Bis die nächste Sau durchs Dorf getrieben wird. Ich nenne das mal den Schweinezyklus.
Angehöriger der Vor-Schneeflocke-Generation
Der Anruf meiner Mutter hat übrigens nicht nur ihr Langzeitgedächtnis aktiviert, sondern auch meines. Ich frage mich als Angehöriger der Vor-Schneeflocke-Generation jedenfalls, wie wir so manchen Winter in der Eifel überleben konnten. Oder genauer gesagt: Vereiste und abschüssige Forstwege, die zu waghalsigen Schlitten-Rennen genutzt wurden, auf dem Bauch liegend, den Kopf voran und ohne Helm. Das Ganze auch gerne in der Dunkelheit mit einer vorne am Schlitten festgeschraubten Taschenlampe. Das war Pflicht für alle, die dazugehören wollten. Die Kür für Leistungsträger bestand übrigens darin, das gleiche mit dem Fahrrad zu probieren.
Ab dem 16. Lebensjahr verfügten wir außerdem über einen schrottreifen aber fahrbereiten NSU Prinz 4. Ein sehr ähnliches Modell gab es auch in der DDR, den Saporoshez 966, genannt die „Taiga-Trommel“. Der asthmatische Kleinwagen gehörte meinem Freund Peter, der in einem einsamen Landhaus direkt am Wald wohnte. Eine Batterie von sechs Zusatzscheinwerfern, die wir auf dem Schrott besorgt hatten, sowie das Fehlen von Bremsbelägen machte dieses Fahrzeug in unseren Augen zu einem Favoriten für die Rallye Monte Carlo. Wenn es ordentlich geschneit hatte und die Luft rein war, bretterten wir damit des Nachts durch den lokalen Forst, erschreckten die reichlich vorhandenen Füchse und Hasen und landeten regelmäßig in irgendeinem Graben. Das war immer eine Riesen-Gaudi, zumal wir meist vorgeglüht hatten.
Bis zu jenem schicksalhaften Tag, an dem der kleine NSU nicht anspringen wollte. Unser Blick fiel auf den Dienstwagen von Peters Vater, einen nobel-schwarzen Volkswagen 1600. Der hatte weniger Lichter aber mehr Power, was zu einem abrupten Ende unseres Ausfluges führte. Wir rutschten einen Hang hinab und wurden von dicken Bäumen aufgehalten, bevor wir in einen Bach stürzen konnten. Papas Dienstwagen musste mit Hilfe eines Kranwagens evakuiert werden. Danach fuhren wir kein Schlitten mehr, sondern es wurde mit uns Schlitten gefahren. Sehr traditionell. Ich erinnere mich heute noch ungern.
Dieser Beitrag erschien zuerst in ACHGUT am 13.1.2019, Autor Dirk Maxeiner. Die EIKE – Redaktion dankt Herrn Maxeiner herzlich für die Erlaubnis, seinen Artikel unverändert in EIKE zu bringen. Das Titelbild wurde von uns ausgewählt.
Horst-Joachim Lüdecke, EIKE-Pressesprecher
Eine geringe Fehlerbandbreite
|
Ich werde darauf aufmerksam, dass Zeke Hausfather neben vielen Anderen behauptet, dass das Jahr 2018 das wärmste Jahr jemals hinsichtlich der Ozeane gewesen sei, und zwar bis zu einer Tiefe von 2000 m. Er drückte es so aus:
Als ich die Graphik in Zekes Tweet sah, leuchtete mein innerer Detektor für schlechte Zahlen sofort grell rot auf. Was mir verdächtig erschien war, dass die Vertrauens-Intervalle viel zu klein aussahen. Nicht nur das, sondern auch, dass die Graphik Einheiten verwendet, die für die Meisten bedeutungslos sind. Nun ja …
Die Einheiten in dieser Graphik sind „Zettajoules“, abgekürzt ZJ. Ein Zettajoule sind 110 Joule. Das wollte ich in eine allgemein bekanntere Einheit umrechnen, nämlich Grad Celsius (°C). Dazu musste ich berechnen, wie viele Zettajoules man braucht, um die Temperatur in den obersten 2000 Meter der Ozeane um 1°C zu erhöhen.
Man betrachte die zugehörige Mathematik im Anhang [wird hier nicht übernommen. Wer nachrechnen möchte, klicke auf den Link zum Original. Anm. d. Übers.] Es genügt an dieser Stelle zu sagen, dass man etwa 2600 Zettajoule braucht, um die Temperatur in dieser Ozeanschicht um 1°C zu erhöhen. Noch einmal: 2600 ZJ pro Grad.
Jetzt betrachte man noch einmal Abbildung 1. Sie behaupten, dass ihre Fehlerbandbreite der Werte von 1955 plus/minus 95 Zettajoules ausmacht … und das rechnet sich um zu ± 0.04°C. Vier Hundertstel eines Grades Celsius … tatsächlich …
Man mag mich für dumm halten, aber ich glaube einfach NICHT, dass wir die Wassertemperatur der oberen 2000 Meter der Ozeane bis auf plus/minus vier Hundertstel Grad genau kennen.
Es kommt aber noch schlimmer. Im Jahre 2018 behaupten sie, dass die Fehlerbandbreite eine Größenordnung von plus/minus neun Zettajoules aufweist … was umgerechnet drei Tausendstel Grad Celsius sind – 0,003°C. Also wirklich! Man frage irgendeinen Verfahrenstechniker – die Bestimmung der mittleren Wassertemperatur in einem normalen Swimmingpool auf drei Tausendstel Grad genau würde mindestens ein Dutzend Thermometer erfordern …
Sie begründen ihre Behauptung, diesen Grad an Genauigkeit zu erreichen, mit den ARGO-Bojen. Diese Bojen treiben in verschiedenen Tiefen im Ozean. Alle zehn Tage steigen sie langsam an die Oberfläche und messen auf dem Weg dorthin die Temperatur. Gegenwärtig, das heißt vor drei Tagen, waren 3835 Bojen in Betrieb.
Das sieht nach einer ziemlich großen Abdeckung aus in dieser Graphik, nicht wahr? Vielleicht nicht ein paar Dutzend Thermometer pro Swimmingpool, aber dicht … Tatsächlich ist es aber so, dass auf jeweils 93.500 km² Ozean nur eine ARGO-Boje kommt. Das ist ein Kasten mit jeweils 300 km Seitenlänge und einer Tiefe von 2 km … die genau ein Thermometer enthält.
Das ihrer Schätzung der Fehlerbandbreite zugrunde liegende Problem ist Folgendes: Wenn die Anzahl der Messungen steigt, nimmt die Fehlerbandbreite um 1 geteilt durch die Quadratwurzel der Anzahl der Beobachtungen ab. Und das heißt, falls wir mehr Dezimalstellen in unserer Fehlerbandbreite haben wollen, müssen wir einhundert mal die Anzahl der Messpunkte haben.
Beispiel, falls wir einen Fehler von – sagen wir – einem Zehntelgrad Celsius aus zehn Messungen haben wollen, dann brauchen wir eintausend Messungen, um den Fehler um ein Hundertstel Grad zu reduzieren …
Umgekehrt ist es genauso. Nehmen wir also einmal an, dass ihre Schätzung der Fehlerbandbreite von ± 0.003°C der Daten aus dem Jahr 2018 korrekt ist und das dies der ausgezeichneten Abdeckung mit 3835 ARGO-Bojen geschuldet ist.
Das würde bedeuten, dass wir eine zehn mal so große Fehlerbandbreite bekommen, also ± 0.03°C, falls es nur 38 ARGO-Bojen gäbe …
Tut mir leid, das glaube ich nicht. 38 Thermometer, von denen jedes drei Vertikalprofile der Temperatur pro Monat aufzeichnet, um die Temperatur der oberen 2000 Meter der gesamten globalen Ozeane zu messen – auf plus/minus drei Hundertstel Grad genau?
Mein Detektor für schlechte Zahlen leuchtete immer noch rot. Also führte ich eine Art „Monte Carlo“-Analyse durch. Benannt nach dem berühmten Casino impliziert eine Monte Carlo-Analyse, dass man Zufallsdaten einer Analyse unterzieht, um zu sehen, ob die Antwort vernünftig ist.
In diesem Falle nahm ich mir ein Gitternetz von 1° Breite mal 1° Länge vor und betrachtete die Ozeantemperaturen in verschiedenen Tiefen bis zu 2000 m aus dem Levitus World Ocean Atlas. Dieser enthält die monatlichen langzeitlichen Mittelwerte in jeder Tiefe für jedes Gitterquadrat für jeden Monat. Dann berechnete ich das globale Mittel für jeden Monat von der Oberfläche bis zu einer Tiefe von 2000 m.
Nun gibt es 33.713 Gitterquadrate von 1° x 1° mit Ozeandaten. (Die Gebiete jenseits der beiden Polarkreise habe ich mal außen vor gelassen, weil es dort fast keine Bojen gibt). Und es gibt 3825 ARGO-Bojen. Im Mittel befinden sich etwa 5% davon in einem normalen Gitterquadrat. Die ARGO-Bojen vermessen also größenordnungsmäßig zehn Prozent der Gitterquadrate … was bedeutet, dass trotz der vielen ARGO-Bojen zu jeder gegebenen Zeit 90% der 1°x1°-Gitterquadrate in den Ozeanen nicht vermessen werden! Ich meine ja nur …
Um zu sehen, welchen Unterschied das ausmacht, unterzog ich 3825 zufällig ausgewählte Ozean-Gitterquadrate wiederholten Analysen. Dabei machte ich genau das Gleiche wie zuvor – errechnete die Mittelwerte in jeder Tiefe und berechnete dann die globale mittlere Temperatur Monat für Monat für jene Gitterquadrate. Hier folgt eine Graphik typischer Zufallsorte für simulierte ARGO-Punkte für einen Lauf:
Und dabei fand ich das, was zu finden ich mir gedacht hatte. Ihre behauptete Genauigkeit stammt nicht aus Experimenten. Abbildung 4 zeigt die Ergebnisse eines typischen Laufs. Das 95%-Vertrauensintervall der Ergebnisse variierte zwischen 0,05°C und 0,1°C:
Wie man sieht, erhält man mittels der simulierten ARGO-Messpunkte eine Antwort, die dem tatsächlichen Temperaturmittel ziemlich nahe kommt. Monatliche Mittelwerte liegen innerhalb eines Zehntelgrades des tatsächlichen Mittelwertes … aber weil die ARGO-Bojen nur etwa 10% der 1° x 1°-Ozean-Gitterquadrate vermessen, ist das immer noch eine Größenordnung mehr als das für das Jahr 2018 behauptete 95% CI der Daten in Abbildung 1.
Also denke ich, dass mein Detektor für schlechte Zahlen weiter angeschaltet bleiben sollte …
Und schließlich sagt Zeke, dass die Ozeantemperatur im Jahre 2018 die Temperatur des Jahres 2017 um eine „komfortable Spanne“ übertrifft. Aber in Wirklichkeit ist es nur 8 Zettajoule wärmer … was geringer ist als die für 2018 behauptete Fehlerbandbreite. Oh nein, das ist keine „komfortable Spanne“. Es liegt noch deutlich innerhalb ihres behaupteten unglaublich geringen Fehlers, den sie mit ± 9 ZJ für das Jahr 2018 angeben.
Letzte Bemerkung: Man mache bitte nicht Zeke hierüber Vorwürfe. Er ist einer der Guten, und wir alle liegen mitunter falsch. Wie ich immer wieder nachgewiesen habe, hatte der amerikanische Wissenschaftler Lewis Thomas völlig recht mit seiner Bemerkung „Wir sind erschaffen, um Fehler zu machen, programmiert auf Irrtümer…“
Die Glaubwürdigkeits-Lücke zwischen prophezeiter und tatsächlicher globaler Erwärmung
|
Fangen wir mit den Prophezeiungen bzgl. der globalen Erwärmung seitens des IPCC an. Im Jahre 2013 wurden vier Szenarien definiert, von denen eines, nämlich RCP 8.5, von dessen Autoren (Riahi et al, 2007; Rao & Riahi, 2006) selbst als absichtlich extrem gehaltenes Szenario eingestuft worden ist. Es basiert auf so absurden Kriterien der Bevölkerungsentwicklung und des Energieverbrauchs, dass es getrost ignoriert werden kann.
Für das weniger unvernünftige, am oberen Ende der plausiblen Szenarien liegende RCP 6.0 soll der gesamt-anthropogene Antrieb im 21. Jahrhundert 3,8 Watt pro Quadratmeter betragen (2000 bis 2100):
Die CO2-Konzentration von 370 ppmv im Jahre 2000 sollte den Prophezeiungen zufolge beim RCP 6.0-Szenario bis zum Jahr 2100 auf 700 ppmv steigen (AR 5, Abb. 8.5). Folglich wäre der hundertjährige prophezeite CO2-Antrieb 4,83 ln(700/370) oder 3,1 W/m², also fast fünf Sechstel des Gesamtantriebs. Die prophezeite hundertjährige Referenz-Sensitivität (d. h. Erwärmung vor Rückkopplungen) ist das Produkt von 3,8 W/m² und des Planck-Parameters von 0,3 K/Wm², also 1,15 K.
Die CMIP5-Modelle prophezeien eine mittelfristige Gleichgewichts-Sensitivität bei einer CO2-Verdoppelung von 3,37 K (Andrews+ 2012) im Vergleich zu einer Referenz-Sensitivität von 1 K vor Berücksichtigung von Rückkopplungen, was eine mittelbreite Transfer-Funktion [a midrange transfer function] von 3,37/1 = 3,37 impliziert. Die Transfer-Funktion, also das Verhältnis von Gleichgewichts- und Referenz-Temperatur, umfasst definitionsgemäß die gesamte Auswirkung von Rückkopplungen auf das Klima.
Daher beträgt die Erwärmung im 21. Jahrhundert, welche das IPCC prophezeien sollte, beim RCP 6.0-Szenario und auf der Grundlage der eigenen Schätzung der CO2-Konzentration sowie der Modell-Schätzungen des CO2-Antriebs und der Charney-Sensitivität 3,37 x 1,15 oder 3,9 K.
Tatsächlich aber prophezeit das IPCC nur eine Erwärmung von 1,4 bis 3,1 K im 21.Jahrhundert unter dem RCP 6.0-Szenario. Das ergibt eine mittelfristige Schätzung von gerade mal 2,2 K und impliziert eine Transfer-Funktion von 2,2/1,15 = 1,9. Das ist etwas höher als die Hälfte der mittelbreiten Transfer-Funktion von 3,37, welche implizit in den Projektionen der Gleichgewichts-Sensitivität im CMIP5-Ensemble enthalten ist.
Man beachte, dass in Abb. 2 jeder Hinweis darauf fehlt, dass die globale Erwärmung „settled science“ ist. Das IPCC prophezeit mit allen Szenarien und der Absicherung seiner Angaben eine Temperaturänderung zwischen -0,2 K und +4,5 K bis zum Jahr 2100. Dessen Best Estimate ist die mittelbreite Schätzung von 2,2 K.
Im Endeffekt impliziert also bei einer gegebenen Referenz-Sensitivität von 1 K bei einer CO2-Verdoppelung die dem IPCC zufolge zu erwartende Erwärmung im 21. Jahrhundert eine Charney-Sensitivität von 1,9 K. Das ist das Standardmaß für Studien zur Klimasensitivität, welche die Gleichgewichts-Sensitivität bei CO2-Verdoppelung ist, nach Einwirkung aller kurzfristig agierenden Rückkopplungen. Es sind nicht die 3,4 (2,1; 4,7) K der CMIP5-Modelle.
Da die offiziellen Prognosen also folglich untereinander erheblich inkonsistent sind, ist es schwierig, aus ihnen einen Eckwert abzuleiten für die offiziell prophezeite Erwärmung für das 21. Jahrhundert. Er liegt irgendwo zwischen den 2,2 K, die das IPCC aufgrund seiner RCP 6.0-Schätzung gibt, und den 3,9 K, abgeleitet aus dem anthropogenen Antrieb im 21. Jahrhundert mittels der mittelbreiten CMIP5-Transfer-Funktion.
So viel zu den Prophezeiungen. Aber was geht in Wirklichkeit vor sich, und passt die beobachtete Erwärmung zur Prophezeiung? Hier folgen die gemessenen Erwärmungsraten während der 40 Jahre von 1979 bis 2018. Fangen wir mit GISS an. Dort zeigt sich, dass sich die Welt während der 40 Jahre mit einer Rate erwärmt hat äquivalent nicht zu 3,9°C/Jahrhundert, nicht einmal zu 2,2°C/Jahrhundert, sondern lediglich zu 1,7°C/Jahrhundert:
Als nächstes zum NCEI: Dieser Datensatz – vielleicht aus politischen Gründen – ist plötzlich nicht mehr verfügbar:
Als nächstes der vom IPCC bevorzugte Datensatz vom HadCRUT4. Die University of East Anglia ist ziemlich betulich hinsichtlich der Aktualisierung seiner Informationen, läuft doch der 40-Jahre-Zeitraum dort von Dezember 1978 bis November 2018. Die Erwärmung ist aber mit derjenigen vom GISS identisch mit 1,7°C/Jahrhundert:
Als nächstes die von Satelliten gemessenen Trends, zuerst RSS. Es ist bemerkenswert, dass seit der Überarbeitung des RSS-Datensatzes zur Eliminierung des Stillstands dieser Datensatz dazu tendiert, die höchste Rate der globalen Erwärmung zu zeigen, nämlich 2°C/Jahrhundert. Der Chef-Wissenschaftler dort nennt alle, die nicht mit ihm bzgl. Klima übereinstimmen, „Leugner“:
Und schließlich noch UAH. Diesen sieht Prof. Ole Humlum (climate4you.com) als den Goldenen Standard für globale Temperaturaufzeichnungen an. Bevor UAH seinen Datensatz änderte, zeigte dieser gewöhnlich mehr Erwärmung als die anderen. Jetzt zeigt er die geringste Erwärmungsrate, nämlich 1,3°C/Jahrhundert:
Wie viel globale Erwärmung hätte es geben müssen während der 40 Jahre seit Beginn der Satellitenmessungen? Die CO2-Konzentration ist um 72 ppmv gestiegen. Der CO2-Antrieb während dieses Zeitraumes beträgt folglich 0,94 W/m². Dies impliziert einen Gesamt-Antrieb von 0,94 x 6/5 = 1,13 W/m² von allen Quellen. Entsprechend liegt die Referenz-Sensitivität dieses Zeitraumes bei 1,13 x 0,3 oder 0,34 K, und die Gleichgewichts-Sensitivität laut der CMIP5-Transfer-Funktion 3,37 sollte 1,14 K ergeben. Und doch betrug die Erwärmung über diesen Zeitraum 0,8 K (RSS), 0,7 K (GISS & HadCRUT4) oder 0,5 K (UAH) – gibt im Mittel eine Erwärmung von etwa 0,7 K.
Ein realistischeres Bild könnte man zeichnen, wenn man den Beginn der Berechnungen in das Jahr 1950 verlegt, als unser Einfluss erstmals bemerkbar war. Die HadCRUT4-Aufzeichnung sieht so aus:
Der CO2-Antrieb seit 1950 beträgt 4,83 ln(410/310) oder 1,5 W/m². Dies wird zu 1,8 W/m², nachdem man nicht-anthropogene CO2-Antriebe zugelassen hat. Dieser Wert ist konsistent mit dem IPCC (2013, Abb. SPM.5.). Daher beträgt die Referenz-Sensitivität über den Zeitraum 1950 bis 2018 1,8 x 0,3 oder 0,54 K, ist 0,54 x 3,37 = 1,8 K, von denen lediglich 0,8 K eingetreten sind. Zieht man die überarbeitete Transfer-Funktion 1,9, abgeleitet aus der prophezeiten Erwärmung nach dem RCP 6.0 heran, sollte die Erwärmung nach 1950 0,54 x 1,9 = 1,0 K betragen haben.
Man sollte hier auch die Temperaturaufzeichnung aus Mittelengland im Zeitraum der 40 Jahre von 1694 bis 1733 betrachten. Während dieses Zeitraumes war die Temperatur in den meisten Gebieten von England mit einer Rate äquivalent zu 4,33°C/Jahrhundert gestiegen im Vergleich zu den lediglich 1,7°C/Jahrhundert während der 40 Jahre von 1979 bis 2018. Daher ist die gegenwärtige Erwärmungsrate keineswegs beispiellos.
Aus dieser Aufzeichnung geht klar hervor, dass selbst die große Temperaturänderung aufgrund natürlicher Ursachen nicht nur in England, sondern weltweit gering ist im Vergleich zu den großen jährlichen Temperaturschwankungen der globalen Temperatur.
Der einfachste Weg, die sehr große Diskrepanz zwischen prophezeiter und gemessener Erwärmung während der letzten 40 Jahre darzustellen ist es, die Ergebnisse auf einer Scheibe zu zeigen:
Sich überlappende Projektionen des IPCC (gelbe & gelbbraune Zonen) und der CMIP5-Modelle (gelbbraune & orange Bereiche) der globalen Erwärmung von 1850 bis 2011 (dunkelblaue Skala), 1850 bis 2 x CO2 (dunkelrote Skala) und 1850 bis 2100 (schwarze Skala) gehen über die gemessene Erwärmung von 0,75 K im Zeitraum 1850 bis 2011 (HadCRUT4) hinaus. Sie liegt zwischen der Referenz-Sensitivität von 0,7 K bis zum anthropogenen Antrieb in IPCC (2013, Abb. SPM.5) (blaugrüner Zeiger) und der zu erwartenden Gleichgewichts-Sensitivität in diesem Zeitraum von 0,9 K nach Adjustierung des Strahlungs-Ungleichgewichtes (Smith et al. 2015) (blauer Zeiger). Die Projektion der CMIP5-Modelle einer Charney-Sensitivität von 3,4 K (roter Zeiger) liegt etwa drei mal so hoch wie der Wert aus den Beobachtungen. Das überarbeitete Intervall der Prophezeiungen globaler Erwärmung (grüner Bereich) korrigiert um einen physikalischen Fehler in den Modellen, deren Rückkopplungen nicht auf die Emissions-Temperatur reagieren, liegt nahe der beobachteten Erwärmung.
Anmerkungen: Ich verpflichtete mich, über den Fortschritt der Studie meines Teams zu berichten, in welcher der physikalische Fehler der offiziellen Klimatologie betrachtet wird, der darin bestand, die schlichte Tatsache, dass die Sonne scheint, in den Berechnungen der Rückkopplungen nicht zu berücksichtigen. Ursprünglich ist die Studie Anfang vorigen Jahres abgelehnt worden mit der Begründung, dass der Herausgeber des führenden Journals, bei dem sie eingereicht worden war, offenbar niemanden finden konnte, der kompetent genug war, die Studie zu begutachten. Wir vereinfachten die Studie und reichten sie erneut ein, und nach einer Verzögerung von vielen Monaten kamen nur zwei Begutachtungen zurück. Bei der ersten handelte es sich um die Begutachtung eines Begleit-Dokuments, in welchem die Ergebnisse der Experimente beschrieben worden waren, die in einem Labor der Regierung durchgeführt wurden. Es war jedoch klar, dass der Begutachter den Laborbericht nie gelesen hat, worin sich auch die Antwort auf die Frage befand, die der Begutachter gestellt hatte. Die zweite war angeblich eine Begutachtung der Studie, aber der Begutachter gab an, dass er sich nicht die Mühe gemacht habe, die Gleichungen zu lesen, welche jene Schlussfolgerungen gerechtfertigt haben, weil er diese Schlussfolgerungen unlogisch fand.
Wir protestierten. Der Herausgeber holte dann eine dritte Begutachtung ein. Aber das war wie die beiden ersten keine Begutachtung der vorliegenden Studie. Es handelte sich um die Begutachtung einer anderen Studie, welche im Jahr zuvor bei einem anderen Journal eingereicht worden war. Alle in dieser Begutachtung aufgeworfenen Fragen sind schon seit Langem umfassend beantwortet. Keiner dieser drei Begutachter kann also die Studie gelesen haben, die sie angeblich begutachtet hatten.
Nichtsdestotrotz meinte der Herausgeber die Studie ablehnen zu müssen. Als Nächstes kontaktierte uns das Management des Journals des Inhalts, dass man hoffe, wir wären einverstanden mit der Ablehnung, und man lud uns ein, künftig weitere Studien einzureichen. Ich erwiderte, dass wir keineswegs mit der Ablehnung einverstanden waren wegen der offensichtlichen Tatsache, dass keiner der Begutachter die Studie überhaupt gelesen hatte, welche der Herausgeber ablehnte. Wir bestanden daher auf das Recht, die Studie zu veröffentlichen.
Der Herausgeber stimmte zu, die Studie noch einmal zur Begutachtung zu stellen, und wählte diesmal die Begutachter mit größerer Sorgfalt aus. Wir schlugen vor – und der Herausgeber stimmte dem zu – dass wir angesichts der Schwierigkeiten, welche die Begutachter mit dem Verständnis des Punktes hatten, um den es geht und welcher sie eindeutig überraschte, der Studie eine umfassende mathematische Beweisführung hinzufügen, dass die Transfer-Funktion, welche die gesamte Wirkung der Rückkopplungen auf das Klima umfasst, sich nicht nur als das Verhältnis der Gleichgewichts-Sensitivität nach Rückkopplungen und der Referenz-Sensitivität ausdrücken lässt, sondern auch als das Verhältnis der gesamten absoluten Gleichgewichts-Temperatur zur gesamten absoluten Referenz-Temperatur.
Wir sagten, dass wir detaillierter erklären sollten, dass die Gleichung der Klimatologie nicht brauchbar ist – obwohl beide Gleichungen der Transfer-Funktion der offiziellen Klimatologie und unsere eigenen valide sind – weil selbst geringe Unsicherheiten in den Sensitivitäten, die um zwei Größenordnungen geringer sind als die absoluten Temperaturen, zu einer großen Unsicherheit der Werte der Transfer-Funktion führen, während sogar große Unsicherheiten bei den absoluten Temperaturen zu geringer Unsicherheit in der Transfer-Funktion führen. Diese kann folglich sehr einfach und sehr zuverlässig abgeleitet werden ohne den Gebrauch der allgemeinen Zirkulationsmodelle.
Ich habe den Eindruck, dass der Herausgeber erkannt hat, dass wir recht haben. Wir warten jetzt auf einen neuen Abschnitt unseres Professors der Kontroll-Theorie zur Ableitung der Transfer-Funktion aus der Energiebilanz-Gleichung mittels einer Ausdehnung einer Taylor-Reihe von führender Größenordnung. Das wird uns Ende des Monats vorliegen, und der Herausgeber wird die Studie dann noch einmal einer Begutachtung zuführen. Falls wir recht haben und die Charney-Sensitivität (Gleichgewichts-Sensitivität im Verhältnis zu verdoppeltem CO2) 1,2 (1,1; 1,3)°C beträgt, was viel zu gering ist, um von Bedeutung zu sein und nicht wie die Modelle zeigen 3,4 (2,1; 4,7)°C, dann wird dies, wissenschaftlich gesprochen, das Ende des Klima-Betrugs sein.
GRÜNE Energieweisheit würde die Stromkosten um ca. 2,5 EUR/kWh erhöhen
|
Künftige Stromkosten bei Akkuspeicherung
Es gibt viele, welche in Akkus die einfache Lösung des latenten EEG-Speicherproblems sehen. Allen gemeinsam ist, dass dies nur einfach erscheint, so lange die Kosten dafür nicht angegeben werden.
In einer Information des Autors zum berühmten und hochgelobten Tesla-Akkuspeicher in Australien: [2] EIKE 01. Oktober 2018: 90 Millionen US-Dollar für eine Tesla-Batterie in Süd-Australien, 28.224 Milliarden EUR dafür in Deutschland … wurden überschlägig die Kosten für eine Umsetzung in Deutschland mit grob 28.000 Milliarden EUR abgeschätzt. Ein anderer Fachmann ermittelte dafür etwas weniger, nämlich nur 19.000 Milliarden EUR:
P. Dietz: … Zur Pufferung von Solar- und Windstrom bei Öko-Vollversorgung übers Jahr würde D (gemäß von mir hierzu extrapolierten Daten aus einer Untersuchung von Prof. Sinn für 2014 … einen Speicherbedarf für etwa 20 Tage Dunkelflaute benötigen, was bei 1,7 TWh/d 4000 mal Goldisthal oder etwa das 35.000-fache (!!) des südaustralischen weltweit größten Tesla-Akkus mit 100 MWh entspricht … der 55 Mio USD kostete und bei dortiger Netzlast von 5 GW i.w. nur als dringend benötigte Sekundenreserve genutzt wird …
Für D würde der 35.000 mal so große Ganzjahres-Pufferakku (ohne Elektromobilität) gut 19.000 Mrd € kosten und 220 Mio t wiegen. Bei einer Nutzungsdauer von 12 Jahren müsste jeder Einwohner von D pro Jahr dafür gut 19.000 € zahlen. Da der Li-Preis bereits heute auf das 3-fache gestiegen ist und die Vorräte begrenzt sind (und nicht mal für die E-Mobilität reichen) ist so etwas überhaupt nicht realisierbar. Allein um D nur *einen* Tag lang aus Autobatterien mit je 30 kWh zu versorgen, wären 56 Mio. Fahrzeuge nötig …
Nun halten Akkus nicht ewig. Stark abhängig von der elektrischen Belastung gehen sie turnusgemäß kaputt. Wirklich lange halten sie nur, wenn sie mit maximal +-10 % Lade-/ Entladungsdifferenz beansprucht werden, eine Begrenzung, welche im Betrieb als Volumenspeicher sicher nicht eingehalten werden kann.
Deshalb ist es wohl nicht völlig daneben – eher noch etwas hoch gegriffen -, mit einer mittleren Gebrauchsdauer solcher Akkuspeicheranlagen von ca. 12 Jahren zu rechnen. Und dann ergeben sich ganz, ganz grob die folgenden Kosten:
Nun muss nicht alle 12 Jahre alles vollständig erneuert werden. Nehme man also nur die Hälfte davon an. Dann sind trotzdem noch alleine für die Akkuspeicherung, also zusätzlich zum aktuellen Strompreis, für die „Frau Baerbock-Speicherlösung“ zu bezahlen: Zusatzkosten der kWh: 1,67 … 2,5 EUR oder
Jahres-Zusatzkosten pro Einwohner: 9.655 … 14.341 EUR
Da anzunehmen ist, dass die Industrie ihre anteiligen Kosten nicht voll übernehmen wird, dürfte der Betrag für die Privathaushalte eher deutlich höher ausfallen.
Manche mögen einwenden, dass die enormen Kosten für die zusätzlich erforderliche Infrastruktur noch fehlen. Aber beim EEG fehlt so viel (auch an Verstand), dass es darauf wirklich nicht mehr ankommt.
Werden die Speicherkosten heimlich zu den Elektroautos „verlagert“?
Solche Kosten werden sich nicht einfach vermitteln lassen. Während beherzte (hier ein sich besonder klimahysterisch gebender [4]) Verfechter der Energiewende sagen: Weil es nicht lösbar ist, am Besten einfach ignorieren, sonst wird noch nachgedacht und das ganze Konstrukt käme vielleicht ins Wanken: [4]Klimaretter.Info: [2] Quaschning sieht solche Großprojekte aber nicht als Bedingung für den weiteren Ausbau der Erneuerbaren: „Es wird gern vorgeschoben, dass große Projekte wie der Netz- oder Speicherausbau erstmal fertig sein müssen, bevor die Energiewende losgehen kann“,kritisiert er…. Fragt man Quaschning, sind Netze und Speicher sogar der letzte Schritt. Der erste heiße Kohleausstieg… Sehen andere die vielen Dollars in ihren Augen, wie lokale (kommunale) Versorger, die ihre „gut Betucht“-Akkulösungen verkaufen wollen [5].
Es könnte aber auch sein, dass die kleine Episode nur der Auftakt zu einem neuen EEG-Speichermodell wird: Erzwingen und subventionieren der 100 % Elektromobilität, um „auf Teufel komm raus“ Speicher zu generieren, ohne die Kosten direkt benennen zu müssen.
Nach bewährter EEG Umlage-Subventionssitte würden die E-Auto-Besitzer davon profitieren und die daran gewöhnten, sonstigen privaten Strombezieher dafür wieder abgezockt. Diese sind das schon lange gewohnt, weshalb es in Deutschland dagegen kaum Proteste geben dürfte.
Und es lässt sich auch wie gewohnt als besonders bürgernah verkaufen, denn ein Teil der Bürger profitiert ja davon. Ach ja: Die Welt rettet es bestimmt auch ein ganz, ganz kleines bisschen vor dem Klimatod, weshalb die Gute Tat dieser Bürger noch draufgeschlagen werden kann.
Es wäre also nicht verwunderlich, wenn Frau Baerbock spontan gar nicht – wie man es bei der rein technisch/monetären Betrachtung meinen würde -, eine besondere Dummheit von sich gegeben hat, sondern nur ein bereits vorbereitetes (hochsubventioniertes) EEG-Lösungsmodell ausplauderte. Die Politik – weil sie bald eine Lösung braucht – und die Profiteure warten schon lange darauf, dass es endlich gestartet wird.
In diesem Sinn wäre Frau Baerbock wieder genial, nämlich mit dem richtigen Versprecher zur richtigen Zeit am richtigen Ort.