1

Deutschland: Die Kosten der Energiewende verstecken

In der Schweiz blickt man immer mit einem gewissen Interesse nach Deutschland. Die sogenannte Energiewende, die dort läuft, gleicht in Vielem den Plänen, die auch unser Land umsetzen will. Deutschland plant, bis Ende nächstes Jahr die verbliebenen sechs Atomkraftwerke abzustellen und bis 2038 auch aus der Kohleverstromung auszusteigen. Die so entstehende riesige Stromlücke soll durch Alternativenergie gestopft werden, im Wesentlichen durch Sonnen- und Windstrom. Der Umbau ist schon in vollem Gang.

In der Schweiz soll nach dem beschlossenen Ausstieg aus der Atomkraft der Strom ebenfalls zu grossen Teilen von Solar- und Windkraft-Anlagen kommen. Die Schweizer Energiewende geht allerdings weit langsamer voran, sodass die deutsche Energiewende – je nach Standpunkt – als Vorbild oder abschreckendes Beispiel dient.

Weder Wind- noch Sonnenstrom sind derzeit marktfähig. Deshalb muss ihre Produktion mit viel Geld subventioniert werden. Die Betreiber von Windrädern und Solaranlagen bekommen während 20 Jahren nach der Erstellung einer Anlage einen festen Preis für den Strom, den sie ins Netz einspeisen. In Deutschland ist das im Erneuerbare-Energien-Gesetz (EEG) geregelt. Um die Subventionen zu finanzieren, bezahlen die Stromkunden pro Kilowattstunde (kWh) einen Zuschlag, die EEG-Umlage.

Der teuerste Strom Europas

Die Subventionierung von Alternativstrom hat in Deutschland in den letzten Jahren mit jährlich rund 30 Milliarden Euro schwindelerregende Höhen erreicht. Entsprechend ist die EEG-Umlage immer weiter gestiegen und betrug zwischenzeitlich fast 7 Eurocents pro Kilowattstunde. Damit macht die EEG-Umlage etwa einen Viertel des Strompreises aus. Auch wegen weiteren Zuschlägen ist der Strom in Deutschland so teuer geworden wie sonst nirgends in der Europäischen Union. Der Strompreis liegt 43 Prozent über dem Schnitt der EU-Länder.

Das bringt viele Privatleute mit kleinem Portemonnaie in finanzielle Nöte. Eine Familie mit einem Durchschnittsverbrauch von 4000 Kilowattstunden bezahlt mittlerweile über 300 Euro pro Jahr für die EEG-Umlage. Zudem gerät auch die Konkurrenzfähigkeit der deutschen Wirtschaft mehr und mehr in Gefahr. Erst kürzlich hat der Bundesrechnungshof die hohen Strompreise kritisiert. Diese würden die gesellschaftliche Akzeptanz der Energiewende aufs Spiel setzen, warnte er in einem Bericht. (siehe hier)

Die Koalitionsregierung aus CDU/CSU und SPD ist also unter Druck. Sie will den Ausbau von Wind- und Solaranlagen auf jeden Fall vorantreiben, muss aber die Stromkonsumenten dringend finanziell entlasten. Also bedient sie sich beim allgemeinen Bundeshaushalt.

EEG-Umlage soll abgeschafft werden

Schon für dieses und nächstes Jahr wendet die Koalition Milliardenbeträge aus dem Bundeshaushalt auf, um die EEG-Umlage zu senken. Diese beträgt 2021 noch 6,5 Eurocents pro kWh und 2022 noch 6 Eurocents pro kWh. Vor wenigen Tagen hat die Koalition nun beschlossen, dass in den beiden darauf folgenden Jahren die Steuerzahler noch stärker zur Finanzierung des Ökostrom-Subventionen herangezogen werden sollen. 2023 und 2024 wird die EEG-Umlage so auf unter 5 Eurocents pro kWh sinken.

MIttelfristig soll die EEG-Umlage gar vollständig abgeschafft werden, wie es schon im Februar aus dem Wirtschaftsministerium von Peter Altmaier (CDU) hiess. Die milliardenschwere Subventionierung wird künftig ganz aus allgemeinen Mitteln bestritten werden. Das hat für die Koalitionsregierung den Vorteil, dass viel weniger sichtbar ist, wie viel Geld die Energiewende kostet.

So lässt sich das Geld wieder viel lockerer ausgeben: Die Koalition hat mit der Absenkung der EEG-Umlage für 2023 und 2024 gleich auch beschlossen, die für 2022 vorgesehene Ausschreibungsmenge für Wind- und Sonnenstrom kurzfristig «deutlich» zu erhöhen. Diese wird für Wind an Land von 2,9 Gigawatt auf 4,0 Gigawatt Zubau angehoben, für Fotovoltaik gar von 1,9 Gigawatt auf 6,0 Gigawatt.

Die Einspeisevergütung soll auslaufen

In der Schweiz drückt das Pendant zur EEG-Abgabe, die Abgabe für die Kostendeckende Einspeisevergütung (KEV), noch nicht so stark aufs Portemonnaie wie in Deutschland. Mit der KEV werden die Produzenten von Alternativstrom ebenfalls mit festen Tarifen während 20 Jahren nach dem Bau einer Anlage abgegolten. Mit dem Energiegesetz, das das Volk 2017 angenommen hat, stieg die KEV-Abgabe auf 2,3 Rappen pro kWh.

Vorgesehen ist, dass die KEV 2023 ausläuft – das heisst, dass aber dann keine weiteren Anlagen mehr in die Finanzierung aufgenommen werden. Die KEV soll dann durch Einmalvergütungen für Anlagen über wettbewerbliche Ausschreibungen abgelöst werden. Ob es wirklich so kommt, bleibt abzuwarten – denn Subventionen haben allgemein die Tendenz, sich zu verewigen.

Der Beitrag erschien zuerst im Schweizer Nebelspalter hier




Ein Kommentar zu dem Artikel in der WELT am Sonntag vom 25.April 2021 „ Goliaths fürs Klima“

Schon die Gründung des Club of Rome vor einem halben Jahrhundert war ein handverlesener Club der Goliaths, der Mächtigen, der Reichen und des Adels. Seine Botschaft war, dass die Grenzen des Wachstums nun erreicht seien, weil eine Industrialisierung anderer Kontinente mit dem Rohstoffhunger der westlichen Industriestaaten nicht zu vereinbaren sei. Der Gründung des Clubs folgte am 10. Dezember 1974 das berüchtigte Strategiepapier NSSM 200 ( National Security Study Memorandum 200) mit dem Titel: „ Memorandum 200 zur nationalen Sicherheit: Implikationen des weltweiten Bevölkerungswachstums für die Sicherheitsinteressen der USA in Übersee.“, unterzeichnet vom damaligen Außenminister Kissinger.

Zitat aus dem umfangreichen Text, Kapitel III:

Der größte Faktor, der die Nachfrage nach nichtlandwirtschaftlichen Rohstoffen beeinflußt, ist das Niveau der industriellen Aktivität, regional und global. So konsumieren z.B. die USA mit 6% der Weltbevölkerung etwa ein Drittel der Ressourcen. Die Nachfrage nach Rohstoffen, im Unterschied zu den Nahrungsmitteln, ist nicht direkt vom Bevölkerungswachstum abhängig. Die gegenwärtige Verknappung und die hohen Preise für die meisten dieser Rohstoffe ist im Wesentlichen ein Resultat des Aufschwunges in allen Industrieregionen in den Jahren 1972 und 73.“ (hier)

Dieses Papier und etliche weitere unterlagen bis 1990 strenger Geheimhaltung, denn wer wollte schon offen zugeben, dass die Politik darauf abzielte, eine erfolgreiche Industrialisierung der Entwicklungsländer zu verhindern?

Die Idee von den Grenzen des Wachstums wurde deshalb in Tücher des Umweltschutzes verpackt und dem Club in den Schoß gelegt, der sich in den folgenden Jahrzehnten an verschiedensten Themen wie schwindende Ozonschicht, neue drohende Eiszeit, Waldsterben usw. versuchte. Shließlich fand man, dass der Klimawandel von allen Themen das geeignetste sein könnte. Betrachten wir die Welt nicht vom deutschen Standpunkt, sondern als Ganzes, muß man allerdings zu dem Schluß kommen: Ein Erfolgskonzept war der Klimawandel nicht, trotz jahrzehntelanger Propaganda. Auch deswegen gehen die Goliaths jetzt aufs Ganze.

Mission Possible Partnership

Die Hysterie, die man seit dem jüngsten Weltwirtschaftsforum im Januar beobachten kann, legt selbst naiven Beobachtern nahe, dass es nicht im entferntesten um den Planeten geht, sondern um die Rettung mächtiger Ansprüche seitens der „Mission Possible Partnership“, die 2019 gegründet und am 27. Januar 2021 bei der fünftägigen WEF-Konferenz von deren maßgebenden Vertretern Klaus Schwab, Prinz Charles und Mark Carney vorgestellt wurde. Die Mission Possible Partnership fordert jetzt den Turbo-Gang für die Dekarbonisierung aller Wirtschaftsbereiche in den nächsten 10 Jahren. Die Forderung nach 100 prozentiger Dekarbonisierung bis 2050 bedeutet nichts weniger als die schon öfters geäußerte politische Absicht, die gesamte Zivilisation um mindestens 250 Jahre zurückzuwerfen.

Sie fordert die radikale Dekarbonisierung aller Wirtschaftsbereiche, besonders auch der energieintensiven wie Zement-, Stahl-, Aluminium- und Chemieindustrie, sowie Schiffs- und Flugverkehr, Lastwagen, kurz, aller Transportmittel. Aber auch die Nahrungsmittelproduktion und das Gesundheitssystem stehen im Fokus. In der Zusammenfassung für Führungskräfte wird beklagt, dass der Gesundheitssektor (weltweit gerechnet) als Planetenverschmutzer an 5. Stelle steht und dass die USA alleine für 57 mal so viel Emissionen im Vergleich zu Indien verantwortlich sind. Die Antreiber dieser Zerstörungswut sind wieder altbekannte Institutionen: Das WEF   mit seinem exekutiven Arm, der Energy Transmission Commission, geleitet von Lord Adair Turner of Ecchinswell, mit 50 „Beauftragten“ aus den größten Finanzinstituten und multinationalen Konzernen der westlichen Gesellschaft, dann das Rocky Mountain Institute, gegründet 1982 und 2014 fusioniert mit Richard Bransons Carbon War Room und die Koalition globalierter Unternehmen We Mean Business. Dazu zählen einige der größten Banken weltweit wie Wells Fargo, Goldman Sachs, Bank of Amerika und JP Morgan. Es dürfte jedem auffallen, dass der Finanzsektor bei dieser Turbo-Strategie seit der Pariser Klimakonferenz im Mittelpunkt steht. Paul Bodnar, Vorsitzender des Center for Climate-Aligned Finance und Geschäftsführer des Rocky Mountain Institute gibt freimütig zu, dass es nicht ganz einfach ist ,die Industrie auf Linie zu bringen:

“Die Klimaausrichtung festigt sich als Goldstandard für den Finanzsektor, aber wir müssen anerkennen, wie schwierig es ist, die Weichen der Weltwirtschaft auf Netto-Null zu stellen. Das Center ( Center for climate aligned finance, AA) wird mitprägen, wie ehrgeizige Verpflichtungen tatsächlich zu nachhaltigen Auswirkungen umgesetzt werden können”.

Ein Rückfall in die Barbarei

Das Mercator-Research-Institute on Global Commons and Climate-Change in Berlin hat eine Studie gemacht, die selbst Schulkindern den Wahnsinn dieser Politik ganz einfach verdeutlichen kann. Die Studie trägt die Überschrift: 140000-quadratkilometer-solarzellen-fuer-co2-freien-flugverkehr im Jahr 2050.

Untersucht wurde in verschiedenen Szenarien die mögliche Dekarbonisierung des künftigen Flugverkehrs für den Passagierbereich. Wollte man Kerosin durch strombasierte Treibstoffe für 15,9 Billionen Passagierkilometer ersetzen, bräuchte man für deren Produktion eine entsprechende Anzahl von Solarpanelen, was 40 % der Fläche Deutschlands in Anspruch nehmen würde. Das Institut schlägt daher aus offensichtlichen Gründen vor, dass Wüstenregionen vorzugsweise dafür in Frage kämmen. Wie oben beschrieben, haben wir es nun nicht allein mit dem Passagierflugsektor zu tun. Dazu kommen die Stahl-, Aluminium- ,Zement-, Kühlmittel-Industrie, der gesamte Verkehrs-, Nahrungsmittel-, und Gesundheitssektor und das ist noch längst nicht alles.

Es drängen sich folgende Fragen auf:

  1. Erheben diese Leute Anspruch auf Fächen anderer Länder oder gar Kontinente?
  2. Erwarten diese Leute, dass Entwicklungsländer ihre Kohlekraftwerke dichtmachen, um Platz für Wind- und Solartechnik zu bekommen?
  3. Volk ohne Raum? Die Widerkehr der braunen Gespenster?

Da nicht zu erwarten ist, dass die ganze Welt sich diesem Wahnsinn beugt, ist wohl eher damit zu rechnen, dass in den Ländern, die den Irrsinn mitmachen wie z.B. Deutschland, die Industrie verschwindet, die Transformation sich Bahn bricht oder dass es gar zum Bürgerkrieg kommt.

Race to Zero

Die Schrecklichkeit dieser malthusianischen Verirrungen findet sich in allen Einzelheiten und alle Bereiche einbeziehend auf der Kampagnenseite für den nächsten Klimagipfel COP26 in Glasgow:

In einem Interview, das der „UN High Level Champion for Climate Action“ Nigel Topping mit dem „UN Special Envoy on Climate Action and Finance“ Mark Carney am 21. April führte, stellen sie ihr neues Projekt für das Verschieben von Trillionen in die Dekarbonisierung vor: GFANZ ( Glasgow Financial Alliance for Net Zero). Die Koalition, unter Vorsitz von Mark Carney, (von 2013 bis 2020 Governor der Bank of England), wird mit 160 Firmen aufwarten, die ein Kapital von insgesamt 70 Billionen US$ managen und zusätzlich 40 Banken, die zu den Gründern der Net Zero Banking Alliance (NZBA) gehören (hier).

Die Botschaft ist eindeutig und auch so gewollt: Wir sind die Goliaths. Wenn eure Regierungen und Parlamente zu lahm sind, dann machen wir Druck. Mark Carney: „Der Wettlauf für Klima-Neutralität bedeutet unter anderem folgendes: Es heißt, dass bestimmte Aktivitäten und Geschäftsfelder nicht mehr profitabel sind und nicht mehr in die Wirtschaft gehören, und das ist auch gut so. Sie waren überhaupt nie profitabel, weil sie nie die Kosten des Klimawandels beinhalteten.

Was ist also die Absicht?

1.) Investitionen ausschließlich in Technik niedrigster Energiedichte zu kanalisieren

2) Industrialisierung besonders in Entwicklungsländern zu behindern oder zu ersticken

3) Investitionen in ESG-konforme Kunstprodukte zu lenken, die sich vorwiegend für spekulative Zwecke eignen und von denen nur eine kleine Schicht große Profite macht.

Es geht um Systemwechsel, um eine große Transformation.

Aus allem läßt sich nur ein Schluß ziehen: Wir brauchen einen David!

 




„Pandemie-Effekt“: Bremste Lockdown die Schneeschmelze im Industal?

Spektrum berichtet, daß eine Forschergruppe der Universität von Kalifornien in Santa Barbara (UCSB) es für sehr wahrscheinlich halte, daß Lockdown-bedingt 30 % weniger Industrie-Feinstaub wie Kohlepartikel ausgestoßen worden seinen, die sich sonst auf den Schneeflächen rund ums Industal in Pakistan ablagern. Da der Schnee somit „weißer“ ist, strahlt er mehr Wellenlängen des Sonnenlichts zurück ins All oder die Atmosphäre, die dann nicht in Wärme umgewandelt werden und den Schnee aufheizen. Der Laie kennt den Effekt der Schnee-Albedo von der berüchtigten Schneeblindheit: Die Augen bekommen die volle Sonnenstrahlung ins Auge, bis die Netzhaut vorübergehend abschaltet.

2020 sei daher deutlich weniger Schnee geschmolzen, als im Jahresmittel vorher. Gemessen habe man das mit Fernerkundungsdaten; Proben wurden noch keine genommen. Erst damit könne man die Hypothese überprüfen (Warum veröffentlichen die dann jetzt schon?).

Wir haben eine Alternativhypothese anzubieten: Es wird zumindest auf der Nordhalbkugel Solarzyklus-bedingt immer kühler, wie man überall seit Dezember beim Anblick von Blizzards selbst erleben konnte. Logisches Ergebnis ist natürlich ein verringertes Abschmelzen von Schneemassen auf Bergen.

Könnte es sein, daß die Schnell-Veröffentlichung, deren Titel übrigens gar nicht so konjunktivlastig ist, interessensmotiviert ist? Könnte es sein, daß die „Pandemie“- und die Klimaerzählung verschmolzen werden, um bestimmte, davon unabhängige Ziele zu erreichen; und Wissenschaftler als Verbreiter und Verteidiger des Narrativs dienen? Entscheiden Sie selbst:

COVID-19-Quarantänen zeigen eine verringerte Verschmutzung von Schnee und Eis im Indus-Einzugsgebiet




Wer die Physik nicht kennt: Wie Windmühlen zur politischen Falle wurden

Deutschland war ein Musterland industrieller Entwicklung und Erfindungsgeistes. Deutschland war auch ein Beispiel dafür, dass der über Generationen erkämpfte Wohlstand in keinem Widerspruch zum Umweltschutz stand. Die Wissenschaftstradition, die das ermöglichte, geht zurück bis ins 17. Jahrhundert und länger. Wie konnte es passieren, dass das Land von Albert Einstein und Max Planck der ganzen Welt demonstriert, dass es jeden physikalischen Verstand verloren hat? Wir schafften den Transrapid ab, wir schaffen die Kernenergie ab, die Automobilproduktion ….wo soll dieser Selbstzerstörungsprozess enden? Neuerdings erheben wir selbst Anspruch auf Landmasse im Ausland, um dort „grünen Wasserstoff“ produzieren zu können. Der  klinische Ausdruck für das, was die politische Klasse als „ Große Transformation“ plant, muß erst noch erfunden werden, weil die Geschichte kein Beispiel für diesen gigantischen Unsinn hat.

Als Albert Einstein im Jahr 1905 seine berühmte Formel (E=mc2) veröffentlichte, verstanden die klügsten Köpfe der Welt sofort,  was das für die zukünftige Entwicklung der Energietechnik bedeuten würde. Die sich anschließenden revolutionären Entdeckungen eröffneten ein gewaltiges Potential, das über Dampfmaschine und Verbrennungsmotor weit hinausging. Die fundamentale Äquivalenz von Materie und Energie, wie sie in den Bereichen der Kernspaltung, der Kernfusion und der Materie-Antimaterie-Reaktionen zum Ausdruck gelangt, eröffnet in der Tat unbegrenzte Möglichkeiten. Jeder Industriemanager wußte früher, dass die Beherrschung immer höherer Energieflußdichten im Produktionsbereich ein unverzichtbares Maß für die steigende Produktivität einer Volkswirtschaft und den wachsenden Lebensstandard seiner Bevölkerung ist. Und jetzt?

Im 21. Jahrhundert erklärt man in Deutschland, dass Dampfmaschine, Verbrennungsmotor und Kernspaltung (noch dazu aus ganz verschiedenen Gründen!) zu gefährlich seien und geht zurück zu Energiedichten des Mittelalters! Es soll hier nicht bezweifelt werden, dass Windmühlen in irgendwelchen abgelegenen Gegenden zeitweise vorteilhaft sein können. Auch der Nutzen einer begrenzten Anzahl von Solarpaneelen in abgelegenen Dörfern oder auf irgendwelchen Dächern kann nicht schädlich sein. Die Politik der deutschen Energiewende jedoch verfolgt das extreme Ziel, auf die wirtschaftliche Anwendung und Beherrschung von Techniken höherer Energiedichte zu verzichten – und rennt damit  aus Dummheit in den Ruin.

Die Gegner der Industriepolitik haben seit  mindestens 50 Jahren auf diese physikalische Falle gesetzt. Sie scheinen – im Gegensatz zu der Mehrheit naiver Industrievertreter  und einer  naturwissenschaftlich weitgehend ungebildeten Bevölkerung  – ziemlich genau zu wissen, wie man die Unwissenden Schritt für Schritt dazu bringt, sich selbst zu zerstören. Es folgen drei Beispiele, die zeigen, wie bewußt diese Strategie eingesetzt wird.

Beispiel 1: Die  „flächenfressende Energiestrategie“ der Agora

Die von finanzstarken Geldgebern getragene Institution mit dem Namen „Agora“ 1beschreibt freimütig, in  welche Falle das Projekt  „Energiewende“ führt.  Man kann das in einem Strategiepapier aus dem Jahr 2017 mit dem Titel „ Energiewende und Dezentralität“ nachlesen. Die Autoren lassen den Leser darin wissen, daß die „physikalischen Gegebenheiten“ sogenannter erneuerbarer Technik, sobald man sie als tragende Technik akzeptiert hat, für eine entwickelte Industriewirtschaft wie Sand im Getriebe sind und zwangsläufig das ganze System verändern werden.

Der erste wesentliche Treiber ist die Physik, da der massive Ausbau von Wind- und Solaranlagen aufgrund der Physik der Wind- und Solarressourcen zu einer verteilteren Erzeugungsstruktur führt…..“ (Energy from space. Wegen der geringen Leistungsdichte von Wind und Sonne muß der Strom auf den dafür notwendigen Flächen umständlich eingesammelt werden.)

Der zweite wesentliche Treiber ist die daraus resultierende Entwicklung der Akteursstruktur, da eine verteiltere Erzeugungsstruktur auch mit sich bringt, dass die Zahl der Stromproduzenten um ein Vielfaches steigt und bereits gestiegen ist. Während es noch in den 1990gern lediglich eine dreistellige Anzahl von Kraftwerken gab, die ganz Deutschland mit Strom beliefert haben, gibt es heute bereits mehr als 1,5 Millionen Stromerzeuger.

Der dritte wesentliche Treiber in Richtung Dezentralität sind technologische Entwicklungen auf der Stromnachfrageseite (Stromspeicher Elektromobilität, Wärmepumpen) sowie die digitale Revolution…..die eine Vernetzung und Einbindung dezentraler Anlagen………. ermöglichen.

…..Diese Treiber sind weitestgehend unabhängig von politischer Regulierung und verschwinden insofern nicht mehr – sie werden vielmehr zwangsläufig dafür sorgen, dass Dezentralität dauerhaft ein neues Strukturmerkmal der Stromwirtschaft bleibt. „Mit der Transformation des von fossilen und nuklearen Energieträgern beherrschten Energiesystems hin zu einem regenerativen wird ein in vielen Dimensionen fundamentaler struktureller Wandel ausgelöst.

Diejenigen, denen die Zusammenhänge zwischen Physik und Wirtschaft nicht bekannt sind, werden jetzt naiv fragen: na und? Darüber reden doch alle, was ist daran so schlecht? Es ist der ungeheure wirtschaftliche Aufwand, der durch die genannten „Treiber“ zwangsläufig entstehen muß, und der mit wachsendem Ausbau der flächenfressenden, wetterabhängigen Technik zur unerträglichen Belastung und Verteuerung des gesamten wirtschaftlichen Prozesses führt. Das permanente Gerede von Effektivität dient lediglich der Täuschung, denn in Wirklichkeit wird eine über Jahrhunderte entstandene Produktivität auf diese Weise systematisch zerstört.

Wetterabhängige Technik, digitale Vernetzung immer kleinteiligerer Strukturen und ein zunehmend chaotischer Marktmechanismus benötigen außerdem ein krebsartig anwachsendes Management, das mit dem Ausdruck „Sand im Getriebe“ nur unzureichend charakterisiert ist. Im Vergleich mit dem vorher vorhandenen, bestens organisierten Energie-System, welches wetterunabhängig für sichere, bezahlbare und umweltfreundliche Stromproduktion sorgte, ist es nicht übertrieben, diese Methode als eine Waffe gegen die Industriegesellschaft zu bezeichnen.

Der erschreckendste Aspekt wird gerade in der von CDU-Wirtschaftsminister Altmaier beschrittenen Wasserstoff-Strategie deutlich: Deutschland hat nicht genug Fläche, um den Bedarf an sogenanntem grünen Wasserstoff überhaupt zu produzierenSollen wir dadurch abermals zu einer Politik der territorialen Expansion  getrieben werden?

Beispiel 2: 1970er Jahre – Amery  Lovins &  Co.

Der hier beschriebene fundamentale Strukturwandel wurde seit den Anfängen des Club of Rome, also in den 70er Jahren  geplant. Es gibt dazu ein sehr lesenswertes Dokument von Dr.Penczynski (gestorben 2017) aus dem Jahr 1978, das im Auftrag der Siemens AG entstand. Das kleine Buch trägt die Überschrift: „Welche Energiestrategie können wir wählen“ und beschreibt eine Diskussion, die im Jahr 1977 am IIASA-Institut stattfand (Internationales Institut für Angewandte Systemanalyse in Laxenburg bei Wien).

Daran nahmen neben Dr. Penczynski teil:  Prof. Häfele, der damalige Vizechef des IIASA, ehemals Leiter des Projekts „Schneller Brüter“ in Kalkar von 1960 bis 1972; der bekannte Dennis Meadows, Mitautor der Club of Rome- Studie „Limits to Growth“  („Grenzen des Wachstums“) und Amery Lovins, bis heute einer der  radikalsten Ökologen. Lovins gründete 1982 das Rocky Mountain Institute und spielte später auch eine Rolle beim Wuppertal-Institut für Klima, Umwelt und Technologie. Die Diskussionsrunde wurde inszeniert, um den bereits weit fortgeschrittenen Weg zur modernen Kerntechnologie abzusperren und zu zerstören.

Das Thema lautete: Welche Energiestrategie sollen wir wählen?

  1. Den Weg der „soften“ Energie (sogenannte erneuerbare Techniken) oder
  2. Den Weg der „harten“ Energie (fossile Brennstoffe und Kerntechnik)?

Penczynski erkannte in aller Klarheit die wirkliche Absicht hinter dieser als wissenschaftlich verbrämten Debatte. Er verstand die  Absicht der Leute des Club of Rome, besonders die von Lovins, die sogenannten Erneuerbaren als politische Waffe mit dem Ziel des Systemwechsels einzusetzen.

Dr. Penczynski schrieb völlig klarsichtig: „Das Gedankengut des Soft-Energieweges entspringt dem soziopolitischen Bereich. Die Einbeziehung des Energiesektors als wichtigen Teil unserer Gesellschaft soll diesen Weg des sozialen Wandels technologisch vorbereiten und gangbar machen helfen. Der Bewertungsschwerpunkt der Energietechnologien liegt deshalb bei nicht-wirtschaftlichen Faktoren. Die Stoßrichtung ist eindeutig gegen die Kernenergie als den Inbegriff einer zentralisierten Energie-,Wirtschafts-, Bevölkerungs- und Machtstruktur gerichtet……..“

Unter technisch-wirtschaftlichen Aspekten erscheint das Konzept des soft energy path nicht lebensfähig. Das technische Potential der Soft– Technologien ist nicht in der Lage, mit der quantitativen und qualitativen Entwicklung der Menschheit Schritt zu halten und den voraussehbaren Energiebedarf bei einer katastrophenfreien Entwicklung zu decken. Hier muß erst der von den Soft-Exponenten angestrebte tiefgreifende soziale Wandel stattfinden, so dass drastische Änderungen von Wertvorstellungen angestrebt werden. Dazu müssen der Übergang zu ländlichen Siedlungsstrukturen, starke Reduktion des Bevölkerungswachstums und Einbußen im materiellen Wohlstand von dem Großteil der Bevölkerung freiwillig akzeptiert werden.

Die Soft-Technologien sind die kapitalintensivsten aller Alternativen zu Öl und Gas. Der Soft– Pfad fordert für die Industrienationen so schnell wie möglich ein energetisches Nullwachstum.

Wie von Dr. Penczinsky in aller Klarheit überliefert, hatten diese Leute schon damals die Gesellschaftsveränderung im Sinne der „Großen Transformation“ anvisiert und den Marsch durch die Institutionen angetreten.

Beispiel 3: Die radikalen Grünen vom DAVOS FORUM

Es ist durchaus bemerkenswert, dass in dem kürzlich erschienenen Buch „Covid 19. The Great Reset“ von K Schwab und T. Malleret diese systemverändernde Wirkung mittelalterlicher Energiedichte erneut  ganz unverhohlen betont wird. Die Finanz-Oligarchie, die sich seit Neuestem in aller Öffentlichkeit als die eigentlichen Initiatoren fanatischer Dekarbonisierung zu erkennen gibt, war seit den Gründungstagen des Club of Rome der wirkliche Nutznießer grüner Ideologie. Denn nicht erst seit heute bevorzugen ihre Vertreter eine Gesellschaft, in welcher eine kleine Schicht reicher Priester regiert, die Masse der Menschen aber dumm bleibt, Verzicht übt und zahlenmäßig wieder abnehmen soll. Deswegen wundert das folgende Zitat auf Seite 142 (englische Ausgabe) keineswegs:

Selbst beispiellose und drakonische Lockdowns, bei denen 1/3 der Weltbevölkerung mehr als einen Monat lang in ihren Häusern eingeschlossen war, erwiesen sich in keinster Weise als brauchbare Dekarbonisierungsstrategie, da die Weltwirtschaft dennoch weiterhin große Mengen an Kohlendioxid emittierte. Wie könnte eine solche Strategie also aussehen? Die enorme Größe und Tragweite der Herausforderung kann nur durch eine Kombination aus zwei Faktoren bewältigt werden: Eine radikale und tiefgreifende Systemveränderung der Art und Weise, wie wir die Energie erzeugen, die wir zum Leben benötigen, und zweitens: Strukturelle Veränderungen in unserem Konsumverhalten.

Wollen wir wirklich weiterhin  diesen völlig irren Gegnern  der Industriegesellschaft und unseres Wohlstandes die Zerstörung unserer Zukunft widerstandslos überlassen? Kehren wir lieber zurück zur Vernunft, werfen wir die von außen verpassten ideologischen Scheuklappen ab, lassen die Naturgesetze (Physik) walten und schicken die Ökoverrückten aufs Altenteil!

Die Zukunft gehört dem Fortschritt, d.h. neben den effektiven fossilen Brennstoffen der Kernenergie und in fernerer Zukunft vielleicht auch der Kernfusion! 

 

Mehr zum Thema:

https://www.bueso.de/stoppt-gruenen-feudalismus

https://www.bueso.de/deutschlands-rolle-beim-aufbau-weltwirtschaft

https://www.bueso.de/raumfahrt

  • AGORA, 2012 gegründet, bezeichnet sich als Denkfabrik und ist mit den verschiedensten deutschen Institutionen verbunden. Sie wird finanziert von der Mercator Stiftung und der von internationalen Geldgebern getragenen European Climate Foundation. Die ECF finanzierte nach eigenen Angaben in der Vergangenheit auch Aktionen von BUND, KlimaAllianz, Deutsche Umwelthilfe und Campact eV. gegen konventionelle Kohlekraftwerke in Deutschland. Bezüglich des Engagements heißt es: „In der Strategie der ECF spielt Deutschland als größtes und wirtschaftlich stärkstes EU-Land eine zentrale Rolle.“
  • Peter Penczynski, „Welche Energiestrategie können wir wählen?“, 2. überarbeitete Auflage 1978; erschienen bei Siemens-Aktiengesellschaft, Abteilung Verlag
  • Covid 19: The Great Reset. Klaus Schwab, Thierry Malleret. World Economic Forum 2020, Genf

 




Die sogenannte „gemessene globale Durchschnitts­temperatur“ wird von den Ozeanen bestimmt

Insbesondere erblicken wir in dem System der fossilen Klimazeugen keinen empirischen Anhalt für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe. Desgleichen fehlt es an Tatsachen, welche durch Änderung der Durchstrahlbarkeit der Atmosphäre (Arrhenius) oder des Weltalls (Nölke) zu erklären wären; …“

Daran hat sich bis heute nichts geändert, denn die Klimawissenschaft ist seit nunmehr knapp 100 Jahren mit einem eindeutigen Beweis für diesen vorgeblichen „natürlichen atmosphärischen Treibhauseffekt“ nicht vom Fleck gekommen. Vielmehr basiert das Bild der Klimawissenschaft von unserer Erde noch immer auf einer „Erde ohne Atmosphäre“, wie sie Julius von Hann im Jahre 1897 beschrieben hatte, Sekundärzitat mit Dank an Dr. Gerhard Kramm (Fairbanks, Alaska):

«Denken wir uns die Erdoberfläche ganz vom Fest-land eingenommen und ohne Atmosphäre, also etwa in dem Zustande, in dem sich der Mond befin-det, so würde die Wärmeverteilung auf derselben überall nur von der jedem Orte zukommenden Quantität der Sonnenwärme und dem Betrage der Wärmeausstrahlung daselbst abhängig sein. Da nun diese beiden Faktoren für alle Orte auf demsel-ben Parallel- oder Breitekreise dieselben sein müß-ten, so würden die Erdgürtel gleicher Wärme mit den Breitekreisen zusammenfallen. Selbst die Exis-tenz einer wasserdampffreien Atmosphäre würde an dieser Wärmeverteilung wenig ändern, bloß die absoluten Quantitäten der Wärme-Einstrahlung und -Ausstrahlung an der Erdoberfläche würden dadurch beeinflußt

Und um jetzt den Unterschied zwischen einer „Erde ohne Atmosphäre [und Ozeanen]“ einerseits und andererseits den Messwerten von einer realen Erde zu erklären, hatte man schließlich den ominösen „natürlichen atmosphärischen Treibhauseffekt“ erfunden. Dieser Effekt soll auf einer sogenannten „atmosphärischen Gegenstrahlung“ beruhen, die wiederum dem 2. HS der Thermodynamik widerspricht.

Es stehen hier also zwei konkurrierende Modelle für unsere reale Erde zur Diskussion:

Das Faktor4-Tag=Nacht-THE-Flacherdemodell mit einem „natürlichen atmosphärischen Treibhauseffekt“ (THE) der etablierten Klimawissenschaft auf dem Stand des 19. Jh.:

Reale Erde = „Erde ohne Atmosphäre“ + THE

Der Ketzer Weber behauptet im 21. Jh. dagegen, es gäbe gar keinen THE:

Reale Erde = Hemisphärisches S-B-Modell ohne THE

Wir setzen jetzt die beiden Modelle für die „reale Erde“ gleich und erhalten die Alternativen:

Erde ohne Atmosphäre“ plus THE = Hemisphärisches S-B-Modell ohne THE

Und welches von beiden Modellen ist nun wohl richtig?

Das Dilemma der exakten Atmosphärenwissenschaft sind Tag und Nacht, die von der Jahreszeit bestimmte breitenabhängige Tageslänge sowie die physikalischen Einheiten für Leistung und Arbeit. Die üblichen klimawissenschaftlichen Darstellungen der solaren Einstrahlung auf unserer Erde umfassen seit mehr als einem Jahrhundert lediglich die taggenaue örtliche Gesamtstrahlungsmenge der Sonne über die gesamte Erdoberfläche, sogar inklusive der Elliptizität der Erdbahn; einige dieser Beispiele hatte ich hier diskutiert. Bei einem solchen 24h-Durchschnitt der solaren Arbeit ist dann physikalisch allerdings Endstation. Unbeleuchtete Flächen und zeitliche Ableitungen haben in einer S-B-Inversion nämlich nichts zu suchen, und daher müssen wir uns bei der Betrachtung der Sonneneinstrahlung auf die Tagseite unserer Erde beschränken.

Zur Erinnerung, ich hatte in meinen beiden DGG-Veröffentlichungen (2016 und 2019) diesen sogenannten „natürlichen atmosphärischen Treibhauseffekt“ als Ergebnis einer fehlerhaften Faktor4-Inversion des Stefan-Boltzmann-Gesetzes widerlegt. Unter anderem hatte ich das hier noch einmal näher ausgeführt und einen konkreten Nachweis geliefert, dass unbeleuchtete Flächen in einer Inversion des Stefan-Boltzmann-Gesetzes nichts zu suchen haben, Zitat:

Es gibt im streng ‚gleichzeitigen‘ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer ‚gleichzeitigen‘ S-B-Inversion erlaubt. Physikalisch ‚gleichzeitig‘ bedeutet übrigens auch nicht, dass unterschiedliche ‚Gleichzeitigkeiten‘ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften.“

ALSO: Der Faktor4-Tag=Nacht-THE-Flacherdeansatz leitet sich aus der durchschnittlichen solaren ARBEIT über den 24h-Tag her. Ein solcher Tag+Nacht-Durchschnittswert der solaren Strahlungsleistung hat aber überhaupt nichts mit der Temperatur auf unserer Erde zu tun, wie ich hier bereits ausführlich erläutert hatte. Denn von der 24h-durchschnittlichen Arbeit führt nun einmal kein physikalisch korrekter Weg mehr zurück zur Ermittlung der tatsächlichen spezifischen solaren Strahlungsleistung auf der Tagseite unserer Erde.

Aus einer solchen rückgerechneten 24h-Tag&Nacht-Durchschnittsleistung der Sonneneinstrahlung hatten erstmals Kramm et al. (2017) eine breitenabhängige Ortstemperatur (Kramm et al. (2017) Abbildung 22a) vorgelegt. Dieser Wert entsteht aus der Division der eingestrahlten solaren 24h-Gesamtenergie geteilt durch die Sekunden@24h pro Quadratmeter, die eigentliche physikalische Einheit ist also 1 J/(m² s). Folgerichtig ergibt die Ableitung einer Temperatur aus einer solchen 24h-durchschnittlichen Rückrechnung der solaren Strahlungsleistung durch die Einbeziehung der unbeleuchteten Nachtseite eine „Schneeball-Erde“ mit gefrorenen tropischen Meeren und einem Temperatur-Hotspot am Pol der jeweiligen Sommerhemisphäre, wie man das ebenfalls in der nachfolgenden Abbildung 1b ablesen kann.

In seiner E-Mail vom 29.01.2021 um 09:58 Uhr* an mich und den üblichen Skeptiker-Email-Verteiler hatte dieser Dr. Gerhard Kramm schließlich ein PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ (wird in der Folge als „Kramm 2021“ bezeichnet) mit einem direkten Vergleich zwischen meinem hemisphärischen S-B-Modell und seiner „Erde ohne Atmosphäre“ verschickt. Die beiden nachfolgenden Abbildungen entstammen diesem PDF:

Abbildungen 1 a und b*: Berechnete Oberflächentemperaturen aus dem PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ von Dr. Gerhard Kramm, Fairbanks, Alaska*

Anmerkung: Die Temperaturskalen dieser Abbildungen stimmen nicht überein.

Originalbeschreibung:Abbildung 15. Wie in Abbildung 12, jedoch für die auf dem lokalen Strahlungsgleichgewicht nach Gleichung (3) beruhende Oberflächentemperatur.“

Dazu der Text zu Abbildung 12:Berechnete solare Einstrahlung für alle Tage des Jahres und alle geographischen Breiten:

(a [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545),

(b [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5).“

Die „Maxima nach Weber“ in der linken Abbildung, abgeleitet aus dem Maximum der örtlichen solaren LEISTUNG [W/m²] ohne Albedo, schwanken mit dem jahreszeitlichen Sonnenstand um den Äquator („Latitude 0°“) mit bis zu 394 Kelvin. Sie reduzieren sich dann zum Pol der Winterhemisphäre gegen null Kelvin. In der Realität werden diese theoretischen Maximalwerte aber aufgrund von Albedo, Verdunstung und Konvektion nicht erreicht; die Minimalwerte werden dagegen durch Advektion und Kondensation gestützt.

Die „Tägliche[n] Mittelwerte nach Kramm et al. (2017)“ in der rechten Abbildung, abgeleitet aus einer 24h-durchschnittlichen solaren ARBEIT [J/m²s] ohne Albedo, stellen dagegen die äquatoriale Zone bei 150-200 Kelvin mit gefrorenen tropischen Meeren als „Snowball-Earth“ dauerhaft im ewigen Eis dar; dafür verwandelt sich die Polarregion der jeweiligen Sommerhemisphäre in einen Touristen- und Temperatur-Hotspot mit 275-300 Kelvin.

Allein unser Schulwissen sagt uns also schon, welche der beiden Abbildungen am ehesten den Verlauf der Klimazonen unserer Erde spiegelt und dass der Pol der jeweiligen Sommerhemisphäre gar kein globaler Temperatur-Hotspot ist. Meine Ausführungen dazu hatte ich in dem EIKE-Artikel „Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur“ vom 18. März 2020 ausführlich dargestellt.

Abbildung 2: Zum physikalischen Unterschied zwischen Leistung (Watt) und Arbeit (Joule) der solaren Einstrahlung (Graphiken nicht flächengetreu)- Links: Tentative Gegenüberstellung der Beleuchtungsklimazonen mit dem Jahresverlauf der maximalen solaren Strahlungsleistung im Sommerhalbjahr (Südsommer linke Hälfte und Nordsommer rechte Hälfte). Overlays: Die Beleuchtungsklimazonen der Erde, von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License) Darunter: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium- Rechts: Die maximale spezifische solare (Strahlungs-) LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel (weitere Erläuterungen sind hier zu finden)

Auf unserer Erde wandert der senkrechte Sonnenstand im Verlauf des Jahres zwischen den beiden Wendekreisen und verursacht so die gegenläufigen Jahreszeiten auf der Nord-und Südhemisphäre. Das maximal mögliche rechnerische S-B-Temperaturäquivalent der solaren Strahlungsleistung (@W/m²) folgt diesem vertikalen Sonnenstand, also von der Sonnenwende am Wendekreis der jeweiligen Sommerhemisphäre über den Äquator mit dem Äquinoktium zum gegenüber liegenden Wendekreis und wieder zurück. Polare Temperatur-Hotspots dagegen existieren nicht, es gibt in der Polarzone der Sommerhemisphäre lediglich eine tageszeitlich länger eingestrahlte solare Energiemenge [J/m²], die dort zu einer erhöhten Biomasse-Produktion im Sommerhalbjahr führt.

Also schauen wir mal, was wir sonst noch über die sogenannte „gemessene globale Durchschnittstemperatur“ herausfinden können

Betrachten wir jetzt einmal, wie sich die Tagseite (A) und die Nachtseite (B) auf die sogenannte „gemessene globale Durchschnittstemperatur“ von vorgeblich 14,8°C auswirken. Denn diese Durchschnittstemperatur NST kann über ihren 24h-Verlauf eigentlich nur ganz minimal schwanken. Schließlich soll dieser Wert aus weltweit zeitgleich ermittelten Temperaturen berechnet werden und bildet deshalb für jeden Zeitpunkt des 24h-Tages einen globalen Tag&Nacht-Durchschnitt ab. Die Tagseite (A) und die Nachtseite (B) der Erde sind an diesen Durchschnittswerten also gleichberechtigt beteiligt. Lediglich die unterschiedliche geographische Verteilung von Land- und Ozeanflächen und deren Position zum aktuellen Stand der Sonne dürften einen merklichen Einfluss auf den globalen tages- und jahreszeitlichen Temperaturdurchschnitt ausüben.

Es ist etwas ärgerlich, aber die „gemessenen“ Globaltemperaturen werden üblicherweise als Differenzen zu einem Referenzzeitraum angegeben, sodass eine echte Zuordnung oder gar die Überprüfung von konkreten Aussagen kaum noch möglich ist. Diesem Vorgehen liegt sicherlich keine böse Absicht zugrunde, Zusammenhänge zu verschleiern oder gar fehlerhafte Aussagen zu stützen. Auf meteo.plus findet man schließlich eine Copyright-geschützte Abbildung mit dem Verlauf der absoluten Globaltemperaturen seit 1979 bis heute, und zwar aufgeteilt in Globaltemperaturen sowie die Temperaturen von Nord- und Südhemisphäre, deren grobe Durchschnittswerte nachstehend aufgeführt sind:

Tabelle 1: Globale Durchschnittswerte der Temperatur (Daten von meteo.plus)

Im Ergebnis schwankt die Globaltemperatur also zwischen 12°C und 17°C, und im langjährigen Durchschnitt liegt sie bei etwa 14,5°C. Sie verläuft in Phase mit der Temperatur der Nordhemisphäre, und zwar mit dem Mittelwert der jeweiligen Temperaturen von Nord- und Südhemisphäre, beispielsweise als MED(MIN-Nord, MAX-Süd) oder MED(MAX-Nord, MIN-Süd).

In einer ersten groben Näherung können wir also die Nord-Temperatur den Landmassen und die Süd-Temperatur den Ozeanen zuordnen, wohl wissend, dass eine reine Land-Temperatur eine noch größere Schwankungsbreite hätte und eine reine Ozean-Temperatur eine noch geringere; Willis Eschenbach gibt übrigens die Schwankungsbreite der reinen Landtemperatur mit 15°C und die der Ozeane mit 5°C an. Was bei den meteo.plus-Daten allerdings in beiden Fällen bleibt, ist eine Mitteltemperatur von etwa 14,5°C, die der sagenhaften „gemessenen globalen Durchschnittstemperatur“ (NST) von 14,8°C recht nahe kommt. Und in seiner E-Mail vom 11.04.2021 um 23:47 Uhr an den Skeptiker-Verteiler verweist Kramm auf einen Artikel von Lockyer, „Studies of temperature and pressure observations„, der 1906 in Nature erschien war. Darin heißt es, Zitat:

« It is interesting to remark that the northern hemisphere appears to be 1.5 °C warmer than the southern. Spitaler in 1886 came to a similar conclusion, his figures being :-

[Der Google-Übersetzer: Es ist interessant festzustellen, dass die nördliche Hemisphäre 1,5 ° C wärmer zu sein scheint als die südliche. Spitaler kam 1886 zu einem ähnlichen Ergebnis, seine Zahlen waren:- ]

Northern hemisphere …..15.4 °C,

Southern hemisphere….. 14.8 °C,

Whole earth………………. 15.1 °C,

Excess of N. over S. ………0.6 °C

Die „Whole-earth-Temperatur“ von Spitaler (1886) liegt also bei etwa 15°C. Da bleibt die Frage, wie überhaupt die „aktuelle globale Erwärmung bereits bei etwa 1 Grad Celsius“ über einer „vorindustriellen Durchschnittstemperatur“ liegen kann, wo doch in der Gegenwart immer noch sogenannte Globaltemperaturen um 15°C herum gemessen werden. Schließlich können für die Zeit vor 1886 gar keine neuen Temperaturmessungen mehr dazugekommen sein…

Meinem hemisphärischen S-B-Modell für unsere reale Erde wird von diversen Kritikern eine Nachttemperatur von 0 Kelvin nachgesagt. Nun erhält die Nachtseite unserer realen Erde zwar keinerlei Sonneneinstrahlung, aber trotzdem herrscht dort keine Mond-Temperatur von etwa minus 200°C. Vielmehr befindet sich die Temperatur unserer Erde in einem „eingeschwungenen“ Zustand. Lediglich die Differenz zur minimalen Nachttemperatur muss täglich ersetzt werden (hier letzte Abbildung). Denn die Nachttemperatur eines passiv bestrahlten Himmelskörpers hängt im Wesentlichen von dessen Wärmespeicherfähigkeit ab. Und auf unserer Erde wird der Nachtseite die erforderliche Wärme von ihrer kombinierten Luft-Wasser-Heizung aus den globalen Zirkulationen (Atmosphäre und Ozeane) zur Verfügung gestellt. Allein die Ozeane, die zwei Drittel unserer Erdoberfläche bedecken, enthalten ein Wärmeäquivalent von etwa 50.000 24h-Tagen Sonneneinstrahlung; und diese Wärmespeicher (Atmosphäre und Ozeane) werden wiederum fortwährend durch die solare Einstrahlung auf der Tagseite unserer Erde „aufgeladen“. In der nachfolgenden Abbildung ist links die jahresdurchschnittliche Oberflächentemperatur der Ozeane dargestellt, also der Durchschnitt zwischen Tag und Nacht sowie Frühling, Sommer, Herbst und Winter – mit entgegengesetzten Jahreszeiten auf beiden Hemisphären:

Abbildung 3: Temperaturvergleich Ozeane und S-B-Temperaturäquivalent der solaren Einstrahlung. Links: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA). Rechts: Das maximale breitenabhängige S-B-Temperaturäquivalent über den 24h-Tag im Äquinoktium, das aufgrund von Verdunstung und Konvektion nirgendwo erreicht wird

Mit angepasster Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)) Darüber: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über einen 24h-Tag im Äquinoktium

ALSO noch einmal ganz langsam zum Mitdenken: Die Sonne muss unsere Erde gar nicht jeden Morgen von 0 Kelvin auf Tagestemperatur bringen. Die Erde befindet sich nämlich in einem „eingeschwungenen“ Zustand und ihre Wärmespeicher sind mit dem Äquivalent von mehr als 50.000 24h-Tagen Sonneneinstrahlung gefüllt. Diese Wärmespeicher verlieren also nachts „nur etwas“ Energie und müssen deshalb auf der Tagseite lediglich „nachgefüllt“ werden, mehr nicht. Im Mittel sprechen wir hier von 1,05*10^22 Joule, die die Erde über den durchschnittlichen 24h-Tag netto erhält und auch wieder abstrahlt. Denn sonst wäre die sogenannte „gemessene“ globale Durchschnittstemperatur (NST) nicht einigermaßen stabil. Herr Werner Schulz hatte die KKDML-Fraktion mit pädagogischem Langmut immer wieder darauf hingewiesen, dass auf der Tagseite im Mittel* 480W/m² kontinuierlich eingestrahlt und 240W/m² kontinuierlich über die Gesamtfläche der Erde abgestrahlt werden. Abgestrahlt werden also jeweils 240W/m² auf der Tagseite und 240W/m² auf der Nachtseite – das ergibt in Summe dann wieder 480W/m² Abstrahlung, also gilt: IN=OUT.

*) Für die Sophisten unter Ihnen: Korrekt wäre bei der Einstrahlung eine Summierung über (S0(1-Albedo)* COSZenitwinkel). Ich verwende hier nach KT97 weiterhin 940W/m² für (S0(1-ALBEDO)); in meinen DGG-Veröffentlichungen beschreibe ich dagegen einen Zweischichtfall.

Die solare Einstrahlung ersetzt also lediglich die terrestrische Abstrahlung bei einer „gemessenen globalen Durchschnittstemperatur“ (NST) von etwa 15°C, die sich wiederum ohne einen „natürlichen atmosphärischen Treibhauseffekt“ ganz zwanglos aus meinem hemisphärischen S-B-Ansatz herleitet. Es gilt demnach im langjährigen Durchschnitt:

[ Solare Einstrahlung @2PIR² = terrestrische Abstrahlung @4PIR² ] @ NST

Unsere Erde verfügt auf zwei Dritteln ihrer Oberfläche über eine Fußbodenheizung mit der in Abbildung 3 (links) dargestellten mittleren Vorlauftemperatur. Diese Ozean-Temperaturen repräsentieren wiederum zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Die mittlere jährliche Oberflächentemperatur der Ozeane liegt bis etwa 70° nördlicher und südlicher geographischer Breite zwischen 0°C – 30°C und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt dürfte also in etwa bei der NST von etwa 15°C kumulieren. Wie wir bereits erfahren haben, wird das maximale rechnerische S-B-Temperaturäquivalent meines hemisphärischen S-B-Modells aufgrund von örtlicher Konvektion und Verdunstung in der Realität nirgendwo erreicht. Andererseits sinkt die Temperatur der Winterhemisphäre, insbesondere in der Polarnacht, niemals auf das rechnerische S-B-Temperaturäquivalent der geringen/fehlenden solaren Einstrahlung ab. Die nachfolgende Abbildung zum globalen horizontalen Wärmetransport gibt Aufschluss über die Gründe dafür:

Abbildung 4: Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite. QUELLE: HÄCKEL, Meteorologie, Verlag Eugen Ulmer, Stuttgart 1990, hier aus dem Internet

Alle diese Energieströme summieren sich für eine feste geographische Breite im durchschnittlichen Jahresmittel gerade auf null. Wir können hier also erkennen, dass sich die Überschüsse und Defizite gegenüber dem hemisphärisch berechneten S-B-Temperaturäquivalent durch den lateralen Transport von Wärme gerade global ausgleichen und damit mein hemisphärisches S-B-Modell voll bestätigen.

Wenn wir jetzt abschließend in der nachfolgenden Abbildung noch einmal die beiden Modell-Temperaturverläufe mit den Beleuchtungsklimazonen unserer Erde vergleichen, dann finden wir estätigt, dass unser Schulwissen über diese Klimazonen gar nicht mal so schlecht ist:

Abbildung 5: Vergleich unterschiedlicher Modelle für die globale Verteilung der Temperatur. Links mein hemisphärisches S-B-Modell: Oberflächentemperatur für die solaren Strahlungsmaxima nach Weber aus Kramm (2021)*. Mitte: Die Beleuchtungsklimazonen der Erde: von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License). Rechts ein breitenabhängiges 24h-Temperaturmittel: Oberflächentemperatur für die solaren tägliche Mittelwerte nach Kramm et al. (2017) aus Kramm (2021)*

Ergebnis: Unserem profanen Schulwissen ist an dieser Stelle wohl nichts mehr hinzuzufügen. Wie erwartet, spiegeln die Beleuchtungsklimazonen (Definition) unserer Erde (Abbildung 5 Mitte) den Verlauf der maximalen örtlichen solaren Strahlungsleistung. Und diese solare Strahlungsleistung ist in den Tropen am höchsten und fällt dann zu den Polarregionen kontinuierlich ab. Von den beiden konkurrierenden theoretischen Klimamodellen in Abbildung 5 wird dieser natürliche Verlauf lediglich von meinem hemisphärischen S-B-Modell korrekt abgebildet. Mein hemisphärisches S-B-Modell aus dem 21. Jahrhundert ersetzt als realistisches Modell unserer Erde ohne THE also das Faktor4-Tag=Nacht-THE-Flacherdemodell der real existierenden Klimawissenschaft mit einem fehlerhaft konstruierten „natürlichen atmosphärischen Treibhauseffekt“ von konstant 33°C.

*) Nachtrag: Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Adressat der o. g. E-Mail vom 29. Januar 2021 um 09:58 Uhr mit Kramms PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ und den dort enthaltenen Abbildungen 15 a und b (hier Abb. 1 a und b sowie Abb. 5 links und rechts) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein. Ich beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung dieser Graphiken in meinem Artikel „Die sogenannte ‚gemessene globale Durchschnittstemperatur‘ wird von den Ozeanen bestimmt“, Zitat:

CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, die Inhalte der besagten E-Mail Kramm vom 29. Januar 2021 um 09:58 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.




Die Klimaschau von Sebastian Lüning: Sind Dürren in Mitteleuropa wirklich häufiger geworden?




Ist die Wissenschaft wirklich settled?

Am Montag, den 15. März, wurde ein Artikel [1] in Nature Geoscience veröffentlicht (eine der Zeitschriften des Nature-Verlags), in dem behauptet wird, dass „die Abfolge der jüngsten [mitteleuropäischen] Sommertrockenheit seit 2015 beispiellos in den letzten 2.110 Jahren ist“ und „wahrscheinlich durch die anthropogene Erwärmung und die damit verbundenen Veränderungen in der Position des Sommer-Jetstreams verursacht wurde.“ Der Guardian [2] griff diese Erkenntnisse auf und titelte: „Recent European Droughts: Worst in 2,000 Years“.

Aber am Freitag derselben Woche (19. März) wurde in einem anderen Nature-Journal – Communications Earth & Environment – ein weiterer Artikel[3] veröffentlicht, der zu dem Ergebnis kam, dass „Mitteleuropa viel längere und schwerere Dürren [in den Jahren 1400-1480 n. Chr. und 1770-1840 n. Chr.] als die im 21. Jahrhundert beobachteten erlebt hat“ und dass die Megadürren durch Winterblockaden über den Britischen Inseln, reduzierten solaren Antrieb und explosiven Vulkanismus verursacht wurden. Sie kommen zu dem Schluss, dass die „jüngsten Dürre-Ereignisse (z.B. 2003, 2015 und 2018) im Bereich der natürlichen Variabilität liegen und im letzten Jahrtausend nicht beispiellos sind.“

Wie kann es sein, dass zwei Arbeiten, die innerhalb derselben Kalenderwoche in zwei angesehenen Fachzeitschriften veröffentlicht wurden, zu Schlussfolgerungen kommen, die diametral entgegengesetzt sind? Willkommen in der Welt der Wissenschaft, wo „The Science is Never Settled“. Ungeachtet dessen, was die Alarmisten Sie glauben machen wollen, ist die Klimawissenschaft immer noch eine laufende Debatte, und wir haben sicherlich nicht alle Antworten.

————————

[1] Büntgen, U., Urban, O., Krusic, P.J. et al. Recent European drought extremes beyond Common Era background variability. Nat. Geosci. (2021). https://doi.org/10.1038/s41561-021-00698-0

[2] https://www.theguardian.com/environment/2021/mar/15/climate-crisis-recent-european-droughts-worst-in-2000-years

[3] Ionita, M., Dima, M., Nagavciuc, V. et al. Past megadroughts in central Europe were longer, more severe and less warm than modern droughts. Commun Earth Environ 2, 61 (2021). https://doi.org/10.1038/s43247-021-00130-w

Link: https://cornwallalliance.org/2021/05/is-the-science-settled/

Übersetzt von Chris Frey EIKE

 




Woher kommt der Strom? Frühlingshaft starke Photovoltaik

Die Stromerzeugung mittels Photovoltaik (PV) war diese Woche (Abbildung) frühlingshaft stark. Sogar als ab Mittwoch Wind aufkam und die Windstromerzeugung aus dem ´Strom-Keller` hievte, ließ sie kaum nach. Womit ein Problem eines immer stärkeren Ausbaus der Photovoltaik sichtbar wurde.

Allerdings auf hohem Niveau. Die teilweise starken Preiseinbrüche (Abbildung 1) führten beim Stromexport unter dem Strich zu einem erheblichen Einnahmeeinbruch. 42,35€/MWh waren es in der 16. Woche, die für den Stromexport per Saldo erzielt wurden (Abbildung 2). Die jeweiligen Preise pro MWh täuschen. Wenn man den   Saldo Export Strom = 413,8 GWh und den Saldo Exportpreis = 17,52 Mio. € nach €/MWh auflöst, erhält man den mittleren Preis 42,35€/MWh für den exportierten Strom. Das hat mit der bereits angesprochenen starken Stromerzeugung per PV zu tun. Über die Mittagszeit wird viel mehr Strom erzeugt als benötigt wird. Am Morgen und am Vorabend, wenn wenig oder überhaupt kein Solarstrom produziert wird, fehlt dagegen Strom, um den Bedarf zu decken. Dieser muss dann, wie so oft in dieser Woche, importiert werden (Abbildung 3). Zu Preisen, die in jedem Fall höher liegen als die Exportpreise über Mittag. War am Anfang der Woche die Windstromerzeugung fast gar nicht vorhanden, zog diese ab Mittwochmittag an. Dieser Umstand verschärfte das Mittagsspitzenpreisproblem. Zum Nachmittag sinken die Exportpreise massiv. Die stark wellenförmige Stromerzeugung der konventionellen Stromproduzenten belegt, dass diese das bestmögliche versuchen, um die Mittagspitzen auszugleichen (Abbildung 4). Doch irgendwann sind die Möglichkeiten der Konventionellen ausgereizt. Ohne wirtschaftliche Einbußen – zusätzliche Kraftwerke werden kurzfristig herunter- und wieder hochgefahren – ist das nicht zu machen. Da nimmt man lieber den niedrigen Exportstrompreis netto in Kauf. Zahlen muss unter dem Strich ohnehin der Stromverbraucher.

Die Werte der Energy-Charts bilden die Grundlage für die Tabelle und der daraus generierte Chart der 16.Woche (Abbildung 5).

Beim virtuellen Energiewender (Abbildung 6) schalten Sie den einen oder anderen konventionellen Energieträger ab. Sehen Sie, welche Auswirkungen das auf die Stromversorgung hat. Der Energierechner, der unter Abbildung 6 ebenfalls aufgerufen werden kann, hilft bei der Substitution des wegfallenden Stroms. Eine weitere Möglichkeit, den Aufwand zu berechnen, der zwecks immer stärker werdender regenerativer Stromversorgung notwendig wird, bietet das Simulationstool. Diverse vorbereitete Szenarien finden Sie hier.

Eine im Verhältnis zum Wind besonders starke PV-Stromerzeugung verschärft natürlich das Problem der Bedarfsdeckung bei einer Vervielfachung der Wind- und PV-Stromerzeugung (Abbildung 7). Gut sichtbar wird dies am Mittwoch, den 21.4.2021. Mehr dazu in der Tagesanalyse.

Tagesanalysen  

Montag, 19.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 30,82 Prozent, davon Windstrom 5,66 Prozent, Solarstrom 12,02 Prozent, Strom Biomasse/Wasserkraft 13,14 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wenig Windstrom, mäßiger Solarstrom. Zum Wochenbeginn ist die Stromversorgung Deutschlandsauf Kante genäht. Morgens und abends fehlt Strom, der hochpreisig importiert werden muss. Die Konventionellen bullern kräftig. Doch auch Pumpspeicherstrom kann die Stromlücken nicht abwenden. Der Handelstag.

 

Dienstag, 20.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 34,37 Prozentdavon Windstrom 4,57 Prozent, Solarstrom 17,55 Prozent, Strom Biomasse/Wasserkraft 12,26 Prozent. Die Agora-Chartmatrix: Hier klicken.

Weiter wenig bis null Windstrom. Die PV-Stromerzeugung zieht an. Das Preisniveau ist hoch. Doch die Importpreise übersteigen die Exportpreise bei weitem. Auch heute kann starker Pumpspeichereinsatz die Stromlücken morgens und abends nicht verhindern. Der Handelstag.

Mittwoch, 21.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 50,10 Prozentdavon Windstrom 21,11 Prozent, Solarstrom 17,52 Prozent, Strom Biomasse/Wasserkraft 11,46 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung wird stärker. Aber erst ab 6:00 Uhr. Bis dahin würde auch eine angenommene Verzehnfachung der Stromerzeugung mittels Windkraft nicht ausreichen, um den Bedarf zu decken. Deshalb gelten meine Berechnungen in Sachen angenommene Verdoppelung, Verdreifachung der Stromerzeugung per Windkraft- und Photovoltaikanlagen auch immer nur im Tagesdurchschnitt. Die konventionelle Stromerzeugung fährt so gut es geht herunter. Zum Nachmittag wird wieder hochgefahren. Die Morgen- und Vorabendlücke entfällt heute. Deutschland exportiert den ganzen Tag Strom. Und kassiert insgesamt gutes Geld.

Donnerstag, 22.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 61,16 Prozent, davon Windstrom 33,17 Prozent, Solarstrom 16,74 Prozent, Strom Biomasse/Wasserkraft 11,26 Prozent. Die Agora-Chartmatrix: Hier klicken.

Nur eine Stunde, um 20:00 Uhr entsteht eine kleine Stromlücke. Da wird denn auch sofort der Tageshöchstpreis aufgerufen. Die starke PV-Stromerzeugung in Verbindung mit der kräftigen Windstromerzeugung lässt die Preise über Tag Richtung Null purzeln. Die Konventionellen können/wollen aus wirtschaftlichen Gründen nicht dagegenhalten. Auch Kraftwerke an- und ab zuschalten kostet richtig Geld. Da wird lieber Strom verschenkt. Der Handelstag

Freitag, 23.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 55,12 Prozent, davon Windstrom 21,29 Prozent, Solarstrom 21,21 Prozent, Strom Biomasse/Wasserkraft 12,62 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Freitag wird wieder teuer. Zwei Stromlücken müssen geschlossen werden. Über Tag fällt der Preis nicht so massiv wie gestern. Die Konventionellen führen ordentlich nach, so dass die Stromüberproduktion im Rahmen bleibt. Der Handelstag. Frankreich und die Niederlande machen feine Preisdifferenzgeschäfte.

Samstag, 24.4.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 56,48 Prozent, davon Windstrom 18,20 Prozent, Solarstrom 24,14 Prozent, Strom Biomasse/Wasserkraft 14,13 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die deutsche Stromerzeugung liegt wieder auf Kante. Wenig Bedarf, wenig Windstrom, viel Sonnenstrom. Nur ein Blick auf den Im- und Exportchart veranschaulicht, ob am Morgen, am Abend Strom im- oder exportiert wird. Konventionell wird gut nachgeführt. Die regenerative Erzeugung plus Preise.

Sonntag, 25.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 57,89 Prozent, davon Windstrom 18,09 Prozent, Solarstrom 25,42 Prozent, Strom Biomasse/Wasserkraft 14,38 Prozent. Die Agora-Chartmatrix: Hier klicken.

Zwei Stromlücken und eine starke PV-Stromerzeugung sowie wenig Bedarf lassen über Tag den Preis in den negativen Bereich. Konventioneller Pumpspeicherstrom kann die Lücken nicht annähernd schließen. Der Handelstag.

Die PKW-Neuzulassungen März 2021 zusammengestellt von Peter Hager:

Der März 2021 führte zu einer deutlichen Belebung bei den PKW-Neuzulassungen in Deutschland. Mit 292.349 PKW wurden 35,9% mehr als im Vorjahresmonat zugelassen. Wobei ein Vergleich mit dem Vorjahr wegen Corona nur bedingt aussagekräftig ist. Die Anzahl der Neuzulassungen lag im 1. Quartal 2021 bei 656.452 PKW (ggü. 1. Quartal 2020: -6,4% / ggü. 1. Quartal 2019: -25,4%).

Gesamt: 292.349 (ggü. 03/2020: +35,9% / ggü. 03/2019: -15,4%)

Wie zu erwarten, gab es bei den alternativen Antrieben durchgehend sehr hohe Zuwachsraten:

  • Hybrid (incl. Plug-in): 81.220 (ggü. 03/2020: +182,7% / Zulassungsanteil: 27,8%)
  • Plug-in-Hybrid: 35.580 (ggü. 03/2020: +277,5 % / Zulassungsanteil: 12,2%)
  • Elektro (BEV): 30.101 (ggü. 03/2020: +191,4% / Zulassungsanteil: 10,3%)

Gegenüber 2020 haben fast alle Hersteller ihren Anteil an alternativen Antrieben an den Neuzulassungen zumeist deutlich erhöht. Im März gelang Tesla mit dem Model 3 der Sprung auf Platz 1 bei den beliebtesten Elektro-Modellen.

Seit 2021 bietet das KBA eine zusätzliche Auswertung für alternative Antriebe (batterieelektrisch, Hybrid, Plug-In, Brennstoffzelle, Gas, Wasserstoff) sowie für die Teilmenge der Elektro-Antriebe (Elektro/BEV, Plug-In, Brennstoffzelle) an.

Im Jahr 2020 führten die hohen Förderungen sowie die Mehrwertsteuerreduzierung im zweiten Halbjahr zu einer deutlichen Zunahme bei den Zulassungszahlen. Dieser Trend hat sich im ersten Quartal 2021 abgeschwächt.

Top 5 nach Herstellern:

Hybrid-PKW (ohne Plug-in): 101.326 (01-03/2021)

Audi: 23,4%
BMW: 16,4%
Toyota: 8,9%
Hyundai: 7,4%
Ford: 7,3%

Hybrid-PKW (mit Plug-in): 78.047 (01-03/2021)

Mercedes (mit 9 Modellen): 21,6%
BMW (mit 9 Modellen): 15,4%
VW (mit 6 Modellen): 14,5%
Audi (mit 8 Modellen): 10,6%
Volvo (mit 5 Modellen): 6,7%

Elektro-PKW: 64.694 (01-03/2021)

VW (mit 5 Modellen): 25,1%
Hyundai (mit 2 Modellen): 9,6%
Tesla (mit 3 Modellen): 9,4%
Smart (mit 2 Modellen): 9,2%
Renault (mit 2 Modellen): 7,8%

Die beliebtesten zehn E-Modelle in 03/2021 (Gesamt: 30.101) waren:

Tesla Model 3: 3.699 (Mittelklasse)
VW Up: 3.599 (Minis)
Hyundai Kona: 3.237 (SUV)
VW ID3: 2.260 (Kompaktklasse)
Smart FourTwo: 1.901 (Minis)
Renault ZOE: 1.692 (Kleinwagen)
Mini: 1.647 (Kleinwagen)
BMW i3: 1.161 (Kleinwagen)
Opel Corsa: 828 (Kleinwagen)
Peugeot 208: 757 (Kleinwagen)

Zur Nachhaltigkeit von Elektroautos:

Das Handelsblatt berichtet, dass bereits jetzt viele Batterien von Elektrofahrzeugen bei den Recyclingfirmen landen. Bei den Firmen Erlos und Duesenfeld sind das im Jahr über 4.000 Tonnen (ein Akku wiegt je nach Modell zwischen 200 kg und 650 kg), darunter auch von neueren Modellen (bei E-Autos rechnet man mit einer Akku-Lebensdauer von acht bis zehn Jahren).

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe& Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr. 

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt seit über fünf Jahren den Politikblog www.mediagnose.de.




Die CO2-Verschiebung: Eiszeit zu Gaszeit

Der CO2-Hockeyschläger

Der CO2-Hockeyschläger ist eine bekannte Grafik. Abbildung 1 zeigt CO2-Daten aus Eiskernblasen, CO2-Daten aus dem Firn sowie atmosphärische, instrumentelle CO2-Messungen von Cape Grim. Atmosphärische Daten sind nur für etwa die letzten 150 Jahre verfügbar. Daher werden Firn- und Eiskerndaten verwendet, um den CO2-Datensatz weiter in die Vergangenheit zu verlängern. Hochakkumulierte Eisdaten wie DE08 reichen häufig nicht so weit in die Vergangenheit zurück und decken nicht einmal die Kleine Eiszeit (LIA) ab. Es ist erstaunlich, wie sich all die sehr unterschiedlichen CO2-Datensätze bis auf wenige Ausnahmen recht gut überschneiden.

Abbildung 1: Auf das Gasalter korrigierte CO2-Konzentrationen. Inset ist ein Blow-up zwischen 1900-2020 n. Chr., das den CO2-Flachpunkt zeigt. Kästen markieren verschiedene Datenmedien und die ungefähre Lage der Eisblasenzone. Die CO2-Daten für Law Dome (DE08, DSS) stammen aus Rubino 2019; WAIS stammt aus Bauska 2015; Siple stammt aus Neftel 1994; und EDML stammt aus Siegenthaler, 2005.

Abgesehen von dem auffälligen Hockeyschläger gibt es noch einige andere bemerkenswerte Beobachtungen. Es gibt eine größere Streuung in den CO2-Messungen von 1900 und älter zwischen den verschiedenen Eiskernaufzeichnungen. Ein Grund für die größere Streuung ist, dass die WAIS-CO2-Daten systematisch 3-4 ppm höher sind als die Law-Dome-Eiskern-CO2-Daten (Ahn, 2012). Wissenschaftler können diese Abweichung nicht erklären und subtrahieren häufig einfach 4 ppm von diesem Datensatz (Bereiter, 2014).

Ein CO2-Flachpunkt und eine Stabilisierung von 310-312 ppm von 1940-1960 ist in den Law-Dome-Daten erkennbar (MacFarling, 2006). Die Glättung aufgrund der Gasdiffusion im Firn und des Einschlusses in Blasen reduziert die CO2-Variationen, so dass die tatsächliche atmosphärische Variation wahrscheinlich größer ist als die Aufzeichnung des Law Dome-Eiskerns. Leider endete die CO2-Glättung kurz bevor die atmosphärischen Aufzeichnungen am Mauna Loa begannen.

Eine CO2-Ausbuchtung tritt in allen Eiskernaufzeichnungen von etwa 1000 n. Chr. bis 1600 n. Chr. auf und ist über 600 Jahre lang. Auch dieser CO2-Anstieg hatte wahrscheinlich eine größere atmosphärische Signatur, als in den Eisbohrkernen erhalten ist. Der CO2-Buckel endet mit dem Beginn der LIA um 1600 n. Chr., wo CO2 in allen Eiskernaufzeichnungen abnimmt. Ein einzigartiger CO2-Einbruch in den Law Dome DSS-Daten tritt um 1610 n. Chr. nahe dem Beginn der LIA auf und könnte auf die höhere Auflösung zurückzuführen sein (Rubino, 2019). Diese Senke ist in keinem anderen Eisdatensatz zu finden und trägt zur Streuung der CO2-Daten bei. DSS hat auch andere CO2-Tiefpunkte um 1780 n. Chr. nahe dem Ende der LIA und um 1278 und 1350 n. Chr. in der Mitte der CO2-Ausbuchtung. Rubino weist darauf hin, dass das Verständnis dieser vom Eis aufgezeichneten Amplitudenschwankungen und der tatsächlichen Größe der ursprünglichen atmosphärischen Signaturen vor der Firnglättung ein entscheidendes Teil des CO2-Puzzles ist.

Die CO2-Verschiebung

Wie in meinem früheren WUWT-Beitrag hier besprochen, werden atmosphärische Gase während des Firnübergangs zu Eis und Blaseneinschluss modifiziert. Es gibt zwei wesentliche Modifikationen, die von der Schneeakkumulationsrate und der Temperatur abhängig sind. Erstens wird die CO2-Variabilität aufgrund der atmosphärischen Durchmischung und Diffusion mit den CO2-Konzentrationen im Firn geglättet. Zweitens wird angenommen, dass das Gas jünger als das Alter des Eises ist, wenn es schließlich in den Blasen eingeschlossen wird. (Battle, 2011; Trudinger, 2002, Blunier, 2000). Sobald das Gas in den Blasen eingeschlossen ist, wird angenommen, dass es mit dem Eis altert. Dieser Altersunterschied wird als Eis-Gas-Altersdelta bezeichnet. Das Delta reicht von etwa 30 Jahren im Law Dome bis zu 835 Jahren im EDML-Eiskern mit geringer Akkumulation. Sehr niedrig akkumulierende Standorte wie Dome C und Vostok haben ein großes Delta von Tausenden von Jahren.

Abbildung 2 zeigt die CO2-Messungen aus dem tatsächlichen Alter des Eises, in dem es eingeschlossen ist, für fünf Eiskerne in der Antarktis und vor den Anpassungen durch die Anwendung von Eis-Gas-Alter-Deltas, wie in Abbildung 1 gezeigt. Atmosphärische Daten von Cape Grim und Firndaten sind zum Vergleich in der Grafik dargestellt. Die Deltadifferenz in Jahren zwischen dem jüngeren Gasalter und dem älteren Eisalter sind vermerkt. Die Spitze des Eises, die ungefähr der Basis der Blasenzone entspricht, ist ebenfalls dargestellt. Dieser Plot ist ein Profil, das in der veröffentlichten Literatur selten zu finden ist oder diskutiert wird.

Abbildung 2: CO2-Konzentrationen in der Eiszeit. Die Zahlen zeigen die Eiszeitdifferenz in Jahren. Die gestrichelte Linie ist die Spitze des Eises und die ungefähre Position der Basis der Blasenzone. Die Referenzen der CO2-Daten sind in Abbildung 1 vermerkt.

Abbildung 2 führt zu der Frage, wie das Delta zwischen Eis- und Gasalter berechnet wird. Wenn die Gasmessungen in Eis oder Firn mit den Instrumentaldaten übereinstimmen, wird es einfach auf das Alter der Instrumentaldaten verschoben. Zum Beispiel werden die Eisgasdaten von Law Dome DE08 einheitlich um 31 Jahre verschoben, um mit den instrumentellen atmosphärischen Daten übereinzustimmen. Verschiedene andere Methoden werden verwendet, um das Delta und die daraus resultierende einheitliche Verschiebung zu schätzen. Firnmodelle können das Eisgas-Altersdelta für Eiskerne unter Verwendung von Dichte- und Temperaturdaten berechnen und werden durch die Verwendung von Stickstoff-15-Daten, einem Proxy für die Firndicke, eingeschränkt (Raynaud, 2005). Ein anderer Ansatz verwendet Eistiefen im Kern, die zeitgleich mit Eiskernen sind, bei denen die Gasalter gut eingegrenzt sind (Bender, 2005). DSS und Siple werden um 58 bzw. 83 Jahre verschoben, um mit den DE08-Daten übereinzustimmen. Nachdem alle Verschiebungen vorgenommen wurden, erscheint ein großer Hockeyschläger steigender CO2-Konzentrationen um 1900 n. Chr., wie in Abbildung 1 dargestellt.

Die CO2-„Verschiebungsmethode“ unter Verwendung der Siple-Daten wurde insbesondere von Jaworowski, 2004, hervorgehoben. Er wies darauf hin, dass im Jahr 1890 n. Chr. im Siple-Eiskern hohe CO2-Konzentrationen von 328 ppm auftraten, die nicht mit der interpretierten CO2-Basislinie übereinstimmten. Die gesamten Siple-CO2-Daten wurden einfach um 83 Jahre verschoben, um mit den modernen instrumentellen CO2-Messungen am Mauna Loa von 1973 übereinzustimmen. Diese einfache Verschiebungsmethode ist nach wie vor eine akzeptierte Technik zur „Korrektur“ des jüngeren Gasalters in Eiskernen.

Das Ausmaß der Altersverschiebung ist interpretierbar, und Wissenschaftler verwenden verschiedene Methoden, die zu unterschiedlichen Verschiebungen für denselben Datensatz führen. Eisgasalter-Deltas haben Unsicherheiten von 10-15% (Seigenthaler, 2005). Warum ist dies also wichtig? Die Temperaturen aus der Wasser-Isotopenzusammensetzung des Eises sind eiszeitlich. Daher werden die Temperaturen immer im gleichen Alter wie das Eis dargestellt. Die Gasdaten hingegen werden vom Alter des Eises auf ein interpretiertes Gasalter korrigiert. Jede Auswertung von Lead-Lag-Beziehungen sollte die 10-15%ige Unsicherheit berücksichtigen, die mit der Berechnung der CO2-Eis-Gas-Alter-Deltas verbunden ist.

Die Erhaltung des CO2-Hocleyschlägers in Eis

Wenn die CO2-Verschiebung oder das Altersdelta entfernt wird, wie in Abbildung 2 gezeigt, dann wird die CO2-Variabilitätsunterdrückung mit niedrigeren Akkumulationsstellen leicht erkennbar. Mit Ausnahme von DE08 zeigen die Eiskernaufzeichnungen unterhalb der Blasenzone, dass die höchste Aufzeichnung von CO2 nur 312-316 ppm beträgt, was fast 100 ppm unter dem aktuellen atmosphärischen Wert von 410 ppm liegt (Abbildung 3a). Es ist interessant festzustellen, dass diese Messwerte von 312-316 ppm mit dem DE08-Flachpunkt vergleichbar sind.

Viele Autoren haben eine Gasglättung in der Firnschicht aufgrund von vertikaler Gasdiffusion und allmählicher Blasenschließung beim Übergang von Firn zu Eis dokumentiert (Trudinger, 2002; Spahni, 2003; MacFarling, 2006; Joos und Spahni, 2008; Ahn, 2012; Fourteau, 2019; Rubino, 2019). Um Kerne von Standorten mit unterschiedlicher Akkumulationsrate zu kompensieren, wird eine Gasaltersverteilungsbreite oder Glättung modelliert. Zum Beispiel haben Kerne mit hoher Akkumulation wie Law Dome ein durchschnittliches Gasalter von 10-15 Jahren, WAIS ein durchschnittliches Gasalter von etwa 30 Jahren und DML von 65 Jahren. Standorte mit geringer Akkumulation wie Dome C und Vostok zeigen, dass das Gas über Hunderte von Jahren gemittelt oder geglättet ist. Das bedeutet, dass ein Glättungsfaktor auf atmosphärische Gasmessungen angewendet werden muss, wenn man sie mit verschiedenen Eiskernen vergleicht. Die meisten historischen CO2-Diagramme spleißen jedoch einfach atmosphärisches und Firn-CO2 auf Eis-CO2-Daten auf, ohne eine Glättung anzuwenden, wie in Abbildung 1 gezeigt.

Abbildung 3: a) Anfängliche CO2-Konzentration in jedem Eiskern unterhalb der Blasenzone. b) Diagramm, das die Beziehung zwischen Eis-Gas-Alter-Delta und Gasglättung in Jahren zeigt. Daten aus Ahn, 2012; Trudinger, 2002, und Seigenthaler, 2005.

Eiskerne mit geringer Akkumulation, die größere Verschiebungen und größere Eis-Gas-Alter-Deltas erfahren, bewahren auch eine geringere CO2-Variabilität und eine höhere Glättung. Die Beziehung zwischen der Verschiebung des Eisgasalters und der Glättung der Gasamplitude ist in Abbildung 3b dargestellt.

Beobachtungen

Beim Vergleich des schnellen Anstiegs des atmosphärischen CO2 in diesem Jahrhundert mit Daten aus vergangenen Eiskernen werden viele Variablen und Datenannahmen verwendet. CO2-Messungen aus sehr unterschiedlichen Datensätzen werden häufig miteinander verknüpft; atmosphärische, Firn- und Eiskerne. Atmosphärisches CO2-Gas wird im Firn durch Diffusion und allmählichen Blaseneinschluss verändert und kann nicht direkt mit CO2-Daten in Eiskernen unterhalb der Blasenzone verglichen werden. Die übliche Methode, CO2-Eiskernaltersmessungen einfach zu verschieben, kombiniert mit der Nichtanwendung der entsprechenden atmosphärischen Abschwächung, ergibt den verstärkten CO2-Hockeyschläger.

Acknowledgements: Special thanks to Donald Ince and Andy May for reviewing and editing this article.
Download the bibliography here.

Link: https://wattsupwiththat.com/2021/05/02/the-co2-shift-ice-age-to-gas-age/

Übersetzt von Chris Frey EIKE




Erwärmung der Ozeane? Nun ja…

Und was habe ich gefunden? Nun, ich bin ein visueller Typ, das heißt, ich brauche es anschaulich. Hier sind also meine Grafiken. Ich interessiere mich für die Veränderungen im ozeanischen Wärmeinhalt, also sind das zwei Ansichten dieser Trends.

Abbildungen 1 & 2. Dekadische Trends im ozeanischen Wärmeinhalt, in Exajoule (1018 Joule) pro Dekade.

Meine erste Überraschung? Es gibt eine Reihe riesiger ozeanischer, langsam rotierender Wirbel, die ich schon einmal gesehen habe. Sie beginnen an der Südspitze Afrikas und reichen bis unter Australien. Ich wusste von ihnen, weil sie in Grafiken von Satellitendaten über die Meeresoberfläche sichtbar sind. Aber was mir nicht klar war: diese Wirbel mischen warmes Oberflächenwasser in die Tiefe. Dies wird durch die orange/gelbe Linie der erhöhten Unterwasserwärme angezeigt, die sich von Afrika unter Australien erstreckt.

Und wenn man etwas warmes Oberflächenwasser nach unten mischt, muss anderes kühles Tiefenwasser nach oben kommen … wie die entsprechende Linie von Gebieten direkt südlich der Wirbel anzeigt, die von schwarz/weißen Linien umgeben sind und Gebiete zeigen, die seit 1955 tatsächlich Wärme verloren haben.

Was hat mich noch überrascht? Die Turbulenzen des Golfstroms, die mit der Topographie des Ozeanbodens entlang der Ostküste der USA interagieren, mischen auch warmes Oberflächenwasser nach unten … und der entsprechende Auftrieb von kaltem Wasser unter der Oberfläche findet gerade südlich von Grönland statt.

Ich habe mich schon lange gefragt, wie sich weniger dichtes, wärmeres Wasser nach unten in dichteres, kühleres, tieferes Wasser mischen kann … nun, es gibt ein paar Orte, an denen dies geschieht.

Zum Schluss habe ich mir noch die tatsächliche Temperaturänderung angesehen, die durch diese Exajoule an Energieänderungen dargestellt wird. Ich bin sicher, ich weiß es nicht.

Aber man kann es ausrechnen. Also habe ich die langsame Zunahme des Wärmeinhalts in Exajoule in Grad Celsius langsamer Erwärmung umgerechnet. Hier ist das Ergebnis:

Abbildung 3. Veränderung der globalen Ozeantemperatur, Oberfläche bis 700 Meter Tiefe von 1955 bis 2020

Ein Viertelgrad in einem halben Jahrhundert?

Nun lese ich immer wieder davon, dass Fische als Reaktion auf die Erwärmung der Ozeane ihre Standorte ändern. Aber das erscheint mir äußerst zweifelhaft, weil die Veränderungen so gering sind. In den letzten fünfzig Jahren hat sich der Ozean um etwa 0,005°C pro Jahr erwärmt … und nennen Sie mich verrückt, aber ich glaube einfach nicht, dass die Fische und andere Unterwasserbewohner so temperaturempfindlich sind, dass eine Veränderung von einem Viertelgrad in einem halben Jahrhundert sie dazu bringt, ihr glückliches Zuhause zu verlassen.

Zum einen liegt die vertikale Temperaturveränderung im offenen Ozean oft in der Größenordnung von 1°C pro 40 Meter Höhe oder so. Hier sind einige ARGO-Schwimmerprofile der oberen 200 Meter:

Abbildung 4. Vertikale Temperaturprofile des Nordpazifiks, Argo-Float-Daten.

Und das bedeutet, dass ein Fisch oder ein anderer Unterwasserbewohner, wenn er sich um zehn Meter nach oben oder unten bewegt, bereits die gefürchtete Temperaturänderung von einem Viertelgrad durchgemacht hat …

Hinzu kommt, dass viele Millionen von Meeresfischen, Garnelen und Copepoden jede Nacht von 800-1000 Metern Tiefe auf etwa 100 Meter Tiefe wandern und dann bei Sonnenaufgang wieder abtauchen … was bedeutet, dass sie jede Nacht fröhlich 5° – 10° Temperaturwechsel ertragen. Ich bezweifle daher sehr, dass sie sich von einer Temperaturänderung von einem Viertelgrad in einem halben Jahrhundert stören lassen.

Und gemessen an der Tonnage ist diese tägliche vertikale Wanderung die größte Bewegung von Lebewesen auf dem Planeten … wir reden also nicht über ein paar Fische hier und da.
Das ist die Quintessenz. Wenn die Lebewesen auf der Welt, sowohl an Land als auch im Meer, so temperaturempfindlich wären, wie die Alarmisten uns glauben machen wollen, wären diese Lebewesen (und auch wir Humanoiden) alle schon längst ausgestorben. Und soweit ich das beurteilen kann, ist das nicht geschehen … zumindest noch nicht.

Link: https://wattsupwiththat.com/2021/05/01/oceanic-warming-well-sorta/

Übersetzt von Chris Frey EIKE

 




Die Argumente-Tricks der Klima-Alarmisten, Teil 1: Die samtpfötigen Vogelkiller des Volker Quaschning

Vogelkiller Windkraft? Erschießt alle Katzen!

Warum also über Windräder aufregen?

Ganz einfach, lieber Professor Quaschning: Unsere Stubentiger fangen die Amseln und Meisen im Garten, aber sicher nicht die Fledermäuse, Störche, Rotmilane und Seeadler über den Windparks. Es liefe eher andersherum: Würde ein Raubvogel ab Weihengröße eine Hauskatze auf freiem Feld erspähen, wäre diese in Gefahr.

Die zerfetzten Amseln und Meisen, außerdem Spitz- und Gartenspitzmäuse sind nicht schön, aber halbwegs Natur. Die Falbkatzen in unseren Häusern und Gärten sind zwar von den Römern (?) vom Mittelmeer nach Norden gebracht worden, aber die Miezen sind selber Lebewesen und agieren weitgehend selbständig im Ökosystem.

Das Argument von Quaschning ist daher erkennbar ein rhetorischer Kniff, der an die Emotion der Bürger appelliert, um den Verstand zu umgehen; eine Standardmethode der Reklame und der politischen PR. Es dürfte kaum einen Katzenhalter in den DACH-Ländern geben, dem die unnötig verspeisten Gartensänger gleich wären. Im Gegenteil: Viele Katzenfreunde hängen ihren Vogeljägern Glöckchen um, damit die gefiederten Gäste den herannahenden Räuber hören können.

Im Englischen bezeichnet man diesen Kniff auch als Whataboutismus, zu deutsch etwa „Und was ist mit?“. Man lenkt damit von einem Argument, dem man nichts entgegenzusetzen hat, ab, indem man unsaubere Vergleiche zieht, und den Debattengegner so auf für ihn ungünstiges Terrain lockt.

Wie reagiert man am besten darauf? Einfach benennen: „Das ist Whataboutismus; Sie lenken nur ab.“ In der Tat hat die Katzenjagd mit der Vogelschredderei durch Windparks nichts zu tun und existiert unabhängig. Und: Wenn unsere Stubentiger schon so viele Singvögel vernichten, sollten wir dann nicht nach Möglichkeit jeden weiteren Verlust vermeiden? Vor allem dann, wenn Windkraftanlagen nur der Profit einiger weniger dienen und durch Produktion und Stellfläche enorm umweltbelastend und naturzerstörend wirken?

Haben Sie Ideen für weitere alarmistische Pseudoargumente? Schreiben Sie uns!

leserreporter@klima-eike.eu




Lisa Fitz, die Klima-Rebellin?

Wer von den älteren Semestern kennt sie nicht, die Kabarettnummer von Lisa Fitz im Scheibenwischer der ARD 1986 nach Tschernobyl? Die Physiker und Ingenieure mochten den Auftritt wohl nicht, weil die öffentlich-rechtlichen Medien damals schon gemeinsam mit Spiegel & Co. die Weltuntergangsgeschichten von Atomtod und Waldsterben verbreiteten – der aktuelle Eliten-Lobbyismus von ARD und ZDF ist also „nichts Neues unter der Sonne“, wie das Alte Testament so schön sagt.

Umso mehr wundert man sich, daß ausgerechnet die früher eher grüne Fitz heute ausgerechnet im SWR (ARD!) den Regierenden und schon länger hier Profitierenden eine Ohrfeige nach der anderen verpaßt.

Letzten Samstag bekam Tesla-Boß Elon Musk eine Watsch’n von der Fitz, die man bei EIKE oder der Achse, aber nicht im SWR vermutet hätte. Die Münchener Kabarettistin aus alter Schaustellerfamilie berichtete über Musks Gigafaktorei in Grünheide bei Berlin, die, ganz ökologisch, die größte Produktionsstätte der Welt sein wird. Sie hob besonders darauf ab, daß die Fabrik mitten in einem Wasserschutzgebiet stehe und von diesem Wasser sehr viel verbrauche. Dann zitiert sie den Besitzer, von örtlichen Naturschützern darauf angesprochen, nur meint: Ja, aber da wüchsen ja viele Bäume, die bräuchten Wasser, und das müsse dann ja auch dort sein. Es sei ja nicht die Wüste.

„Wow. Also, daß er Ami is, weiß man..aber daß er so dumm ist…“ meint die Künstlerin lakonisch dazu.

(Musk ist Kanadier-Südafrikaner, hat aber die US-Bürgerschaft.)

So geht das übrigens jeden Monat in der Spätschicht, wenn Lisa Fitz auftritt. Was sie über den Drosten-Lauterbach-Coronismus sagt, können Sie sich denken. Schauen Sie es sich trotzdem an, wenn Sie es noch nicht kennen. Kollegin Simone Solga aus Sachsen ist übrigens auch sehr zu empfehlen!

Man wundert sich schon, wie glatt das bislang durchgeht; besonders, wenn man an die Angriffe auf Naomi Seibt, Dieter Nuhr und aktuell die Schauspieler von #allesdichtmachen denkt. Der unbeirrbare Nuhr läßt es sich nicht nehmen, Greta Thunberg und ihre Entourage auf die Schippe zu nehmen und die Themen wie Klimagenderismus und Corona-Politik mit ganz einfachen Fragen auseinanderzunehmen. Die gefährlichen Gedanken der Allesdichtmacher wurden noch heftiger angegangen, einschließlich Morddrohungen. Über eine mediale Hatz der selbsternannten Meinungs- und Gedankenpolizisten auf Lisa Fitz ist bislang nichts groß bekannt geworden. Ich würde sagen: Es würde auch nichts nutzen. Fitz macht nicht den Eindruck, als würde sie wie Meret Becker oder Heike Makatsch auch nur daran denken, etwas Gefälligeres zu sagen oder gar zu widerrufen. Und der SWR kann es sich analog zu Nuhr sicher nicht leisten, seine altgediente Kabarettwaffe auszumustern. Womit soll man sonst seine Milliardengebühren noch rechtfertigen? Mit Tagesschau und Herzschmerz-Serien? Vielleicht sehen die Staatsfunker von „Miosga today“ und „Kleber today“ (Zitat Dirk Maxeiner) die Fitz auch als eine Art „Ventillösung“, wie damals die Kollegen am Grenzübergang Bornholmer Straße.




Das neue Buch von Steven Koonin: Unsettled…

Der Buchautor Steven E. Koonin

Professor Koonin schickte mir im November einen fast endgültigen Entwurf zum Lesen und Kommentieren und ich habe sein Buch ein wenig überarbeitet, aber der Entwurf war schon damals in guter Form. Jetzt ist er noch besser. Ich habe vor ein paar Wochen ein signiertes Vorabexemplar erhalten, aber ich habe trotzdem eine Kindle-Version vorbestellt, um leichter darauf zugreifen zu können, und ich empfehle Ihnen, das auch zu tun. Dies ist ein wichtiges Buch, nicht nur weil Koonin ein brillanter und berühmter Physiker ist, sondern auch wegen des Inhalts. Es ist ein guter Überblick über die Wissenschaft, aber auch philosophisch wichtig.

Koonin hat mehr als 200 wissenschaftliche Arbeiten und Artikel geschrieben. Sie wurden laut Google Scholar über 14.000 Mal zitiert. Diese beziehen sich meist auf seine Hauptgebiete der Kern- und Atomphysik. Er hat auch über Biokraftstoffe, Energie, Klimawissenschaft, Beobachtungen der Albedo der Erde und die Analyse des menschlichen Genoms geschrieben. Er war einst Vorsitzender der kleinen JASON-Gruppe von Wissenschaftlern, die das Pentagon und andere Bundesbehörden beraten. Wie das Wall Street Journal in seiner kürzlichen Rezension des Buches berichtet, sind „Mr. Koonins wissenschaftliche Referenzen tadellos.“ (Mills, 2021).

Wir können erwarten, dass er von der Presse geschmäht wird, weil er nicht auf der Parteilinie liegt, aber er ist in dem Buch eindeutig korrekt und besonnen. Das Buch ist noch nicht für die Öffentlichkeit zugänglich, aber es ist bereits ein #1 Bestseller im Amazon Kindle Store, unter „Wetter“. Ein paar interessante Zitate aus der frühen Kopie, die er mir geschickt hat:

Die Erde hat sich im letzten Jahrhundert erwärmt, teilweise aufgrund natürlicher Phänomene und teilweise als Reaktion auf wachsende menschliche Einflüsse. Diese menschlichen Einflüsse (vor allem die Anhäufung von CO2 aus der Verbrennung fossiler Brennstoffe) üben einen physikalisch kleinen Effekt auf das komplexe Klimasystem aus. Leider reichen unsere begrenzten Beobachtungen und unser Verständnis nicht aus, um sinnvoll zu quantifizieren, wie das Klima auf menschliche Einflüsse reagiert oder wie es sich auf natürliche Weise verändert. Doch selbst wenn sich die menschlichen Einflüsse seit 1950 verfünffacht haben und sich der Globus nur geringfügig erwärmt hat, bleiben die meisten schweren Wetterphänomene innerhalb der Variabilität der Vergangenheit. Projektionen zukünftiger Klima- und Wetterereignisse beruhen auf Modellen, die für diesen Zweck nachweislich ungeeignet sind.“ (Koonin, 2021, S. 24)

Dieses Zitat ist besonders wichtig, weil viele in der Öffentlichkeit nicht erkennen, dass der menschliche Einfluss auf das Klima nie in der Natur beobachtet oder gemessen wurde. Sie halten es für eine Tatsache, aber das IPCC hat uns nur eine sehr grobe Schätzung auf der Basis von Modellen geliefert. Was hat Professor Koonin zu den Klimamodellen zu sagen?

Es ist leicht, sich von der Vorstellung verführen zu lassen, dass wir einfach den gegenwärtigen Zustand der Atmosphäre und der Ozeane in einen Computer einspeisen können, einige Annahmen über zukünftige menschliche und natürliche Einflüsse machen und so das Klima Jahrzehnte in die Zukunft genau vorhersagen können. Leider ist das nur ein Hirngespinst, wie man aus Wettervorhersagen schließen kann, die bis auf zwei Wochen oder so genau sein können. (Koonin, 2021, S. 79)

Zwei Wochen? Koonin ist sehr großzügig; er beruft sich auf diese Quelle [EZMW]. Er fügt ein paar Seiten später hinzu:

Jeder, der sagt, dass Klimamodelle ’nur Physik‘ sind, versteht sie entweder nicht oder er will absichtlich in die Irre führen. (Koonin, 2021, S. 81).

Einige Wissenschaftler des Max-Planck-Instituts haben beschrieben, wie sie ihr Klimamodell getrimmt haben, indem sie eine ECS (die Klima- oder Temperatursensitivität auf eine Verdoppelung der CO2-Konzentration) von etwa 3°C anvisierten, indem sie ihre Wolkenrückkopplungen anpassten. Um zu verstehen, wie ungeheuerlich dies ist, muss man verstehen, dass Wolken nicht modelliert werden; sie sind einstellbare Parameter. ECS ist kein Modell-Input, sondern wird aus dem Modell-Output errechnet. Koonin’s Kommentar: „Die Forscher haben ihr Modell so manipuliert, dass die Sensitivität gegenüber Treibhausgasen ihren Vorstellungen entsprach. Das heißt, sie frisieren die Modelle, bis sie zum Narrativ passen.“ (Koonin, 2021, S. 93).

Die Regierungen der Welt und die U.N. haben Milliarden von Dollar für die Klimaforschung ausgegeben, und Tausende von Wissenschaftlern auf der ganzen Welt haben ihre ganze Karriere mit diesem Thema verbracht, wie steht es also um uns? Koonin sagt es uns:

Ein erhebliches Problem ist, dass die Streuung des [IPCC AR5] CMIP5-Ensembles in den Jahren nach 1960 größer ist als die der Modelle in CMIP3 – mit anderen Worten, die spätere Generation von Modellen ist tatsächlich unsicherer als die frühere. Hier gibt es also eine echte Überraschung: selbst als die Modelle anspruchsvoller wurden – einschließlich feinerer Gitter, ausgefeilterer Untergitter-Parametrisierungen … nahm die Unsicherheit zu (Koonin, 2021, S. 87)

Wir fügen hinzu, dass die Unsicherheit bei der Berechnung des Effekts von CO2 auf die globale Erwärmung (ECS) im AR5 genau der Berechnung entspricht, die im Charney-Report (Charney, et al., 1979, S. 2) angegeben wurde, nämlich 1,5° bis 4,5° (IPCC, 2013, S. 16).

Koonin wurde zuerst in Physik an der Cal Tech ausgebildet, wo er Richard Feynman kannte und mit ihm studierte, den berühmten Physiker, der uns lehrte, „an die Unwissenheit der Experten zu glauben.“ Koonin zitiert diese Passage aus Feynmans Cal-Tech-Eröffnungsrede von 1974:

Gestern Abend habe ich (im Fernsehen) gehört, dass das Wesson-Öl nicht das Essen durchtränkt. Nun, das ist wahr. Es ist nicht unehrlich; aber die Sache, von der ich spreche, ist nicht nur eine Angelegenheit von nicht unehrlich sein, es ist eine Angelegenheit der wissenschaftlichen Integrität, die eine andere Ebene ist. Die Tatsache, die zu dieser Werbeaussage hinzugefügt werden sollte ist, dass Öle keine Lebensmittel durchtränken, wenn sie bei einer bestimmten Temperatur zubereitet werden. Wenn sie bei einer anderen Temperatur betrieben werden, werden sie alle durchweichen – auch Wesson Oil. Es ist also die Implikation, die vermittelt wurde, nicht die Tatsache, die wahr ist, und der Unterschied ist das, womit wir uns beschäftigen müssen. (Koonin, 2021, S. 7)

Wie Koonin erzählt, ist dies der Zustand der Klimawissenschaft heute. Was der IPCC und die US-Regierung uns über die Klimawissenschaft erzählen, ist im Allgemeinen wahr, aber in ihrem Bemühen, „eher zu überzeugen als zu informieren“, lassen sie das weg, was nicht in ihr Narrativ passt. Sie erzählen uns genug, um alarmiert zu sein, aber nicht genug, um uns zu informieren. Es ist der Verlust der wissenschaftlichen Integrität, der alarmierend ist, nicht das Klima.

Ein Großteil des Buches wird damit verbracht, den Mythos zu zerstreuen, dass extreme Wetterereignisse aufgrund des vom Menschen verursachten Klimawandels zunehmen. Er erzählt, dass Hitzewellen heute nicht häufiger vorkommen als im Jahr 1900, Tornados nehmen nicht zu, ebenso wenig wie Dürren. Koonin kritisiert die Medien für die Behauptung, dass extremes Wetter irgendwie mit menschlichen Aktivitäten zusammenhängt, obwohl es dafür keine Beweise gibt.

Holman Jenkins vom Wall Street Journal hat ebenfalls einen Entwurf des Buches gelesen und Folgendes geschrieben, basierend auf einem Interview mit Koonin:

Koonin argumentiert nicht gegen die aktuelle Klimawissenschaft, sondern dass das, was die Medien und Politiker und Aktivisten über die Klimawissenschaft sagen, so weit von der tatsächlichen Wissenschaft entfernt ist, dass es absurd und nachweislich falsch ist. (Jenkins, 2021)

Jenkins und Koonin beklagen sowohl den Verlust der Ehrlichkeit als auch des Glaubens an die Bedeutung von Ehrlichkeit und Wahrheit in den heutigen Nachrichtenmedien und der Politik. Von 2009 bis 2011 war Koonin Präsident Obamas Unterstaatssekretär für Wissenschaft im Energieministerium. Später, im Jahr 2020, erklärte Obama, dass wir uns in einer „epistemologischen Krise“ befinden. Ob wir mit Obama in der Sache übereinstimmen oder nicht, wir sind uns einig, dass sich die USA in einer Krise in Bezug auf Wahrheit und Wissen befinden. In der Wissenschaft geht es darum, die Wahrheit auf objektive und reproduzierbare Weise zu ermitteln. Die eigenen Gefühle spielen keine Rolle, Ausreden spielen keine Rolle, Konsensmeinungen spielen keine Rolle, wie man es nennt („globale Erwärmung“ oder „Klimawandel“) spielt keine Rolle, es zählt nur das, was man präsentiert, das unabhängig reproduziert werden kann. Bei Unsettled geht es darum, die Wissenschaft wieder auf den richtigen Weg zu bringen, Wissenschaftler sollten berichten, was sie wissen, was sie nicht wissen, was sie modelliert haben und was sie beobachtet haben. Nicht mehr und nicht weniger.

Einige von Ihnen erinnern sich vielleicht daran, dass Professor Koonin 2014 einen interessanten, hochkarätig besetzten Workshop der American Physical Society zum Thema Klimawandel leitete. Sie diskutierten und debattierten die wesentlichen Elemente der laufenden Klimawandel-Debatte. Meine Zusammenfassung des Workshops kann hier nachgelesen werden. Das Lesen des Transkripts dieses Workshops war für mich ein großes Aha!-Erlebnis, es ist 573 Seiten lang, aber ein großartiges Beispiel für gut gemachte Wissenschaft. Leider wurden die großen Defizite in der populären, vom Menschen durchgeführtten Klimawissenschaft, die er aufzeigte, ignoriert. Koonin setzte sich aktiv für mehr solcher formalen wissenschaftlichen Debatten über die Wissenschaft ein; wobei ihm zufolge beide Seiten vertreten sein sollten. Leider wurde jeder Vorschlag in diese Richtung abgeschmettert. In Kapitel 11 beschreibt er „Fixing the Broken Science,“ und wie prominente demokratische Senatoren Markey, Schatz, Smith, Blumenthal, Shaheen, Booker, Stabenow, Klobuchar, Hassan, Markey, und Feinstein versuchten, jede Finanzierung einer ehrlichen Debatte über die Klimawissenschaft buchstäblich zu verbieten:

die Verwendung von Geldern an Bundesbehörden zu verbieten, um ein Gremium, eine Arbeitsgruppe, einen beratenden Ausschuss oder andere Bemühungen einzurichten, die den wissenschaftlichen Konsens zum Klimawandel in Frage stellen, und für andere Zwecke. (Koonin, 2021, S. 202)

Versuchen sie wirklich, ein Forschungsergebnis gesetzlich festzulegen? Wissenschaft ist Debatte. Ohne Debatte gibt es keine echte Wissenschaft. Die verschiedenen wissenschaftlichen Akademien sind nicht besser als der Senat. Koonin und seine Kollegen haben sie gedrängt, ihren Prinzipien treu zu bleiben und zu informieren, anstatt zu überreden, aber ihre Bitten wurden ignoriert. An diesem Punkt sind wir heute. Wir applaudieren Professor Koonin’s Standpunkt zur wissenschaftlichen Integrität und ermutigen andere, seinem Beispiel zu folgen.

[Hervorhebung vom Übersetzer]

Works Cited

Charney, J., Arakawa, A., Baker, D., Bolin, B., Dickinson, R., Goody, R., . . . Wunsch, C. (1979). Carbon Dioxide and Climate: A Scientific Assessment. National Research Council. Washington DC: National Academies Press. doi:https://doi.org/10.17226/12181

IPCC. (2013). In T. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. Allen, J. Boschung, . . . P. Midgley, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. Retrieved from https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf

Jenkins, H. (2021, April 16). How a Physicist Became a Climate Truth Teller. Wall Street Journal. Retrieved from https://www.wsj.com/articles/how-a-physicist-became-a-climate-truth-teller-11618597216?mod=article_inline

Koonin, S. E. (2021). Unsettled: What Climate Science Tells us, What it doesn’t, and why it matters. Dallas, Texas, USA: BenBella. Retrieved from https://www.amazon.com/dp/B08JQKQGD5/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1

Mills, M. P. (2021, April 25). ‘Unsettled’ Review: The ‘Consensus’ On Climate. Wall Street Journal. Retrieved from https://www.wsj.com/articles/unsettled-review-theconsensus-on-climate-11619383653

Link: https://andymaypetrophysicist.com/2021/04/26/unsettled-steven-koonins-new-book/

Übersetzt von Chris Frey EIKE

 




Klimaspaß mit EIKE: Britischer Geheimdienst MI6 will Klimasünder bekämpfen

Der lange in Moskau tätige Journalist Boris Reitschuster meinte in einem seiner Videos, die russischen Generäle nähmen der Bundeswehr die von Ursula vd Leyen auferlegte Multikulti-Gender-Initiative nicht ab. Das sei Desinformation, um mögliche Gegner in Sicherheit zu wiegen. Daß deutsche Eliten mittlerweile völlig inkompetent und deswegen „woke“ sind, liegt außerhalb des Vorstellungsvermögens der russischen Eliten.

Vor kurzem gab der Chef des britischen Geheimdienstes MI6 (Außen, Military Intelligence Section 6, auch SIS), Richard Moore oder „C“, das erste Mal in der Geschichte des Dienstes ein öffentliches Interview und betonte, daß seine Agenten nach Klimasündern im Ausland Ausschau halten würden. Wie darf man sich das vorstellen? Hangeln sich da Doppel-Null-Spione im Stil eines James Bond nachts durch Raffinerieanlagen in Dschidda? Knipst ein Schlapphut mit Minox-Minikamera vertrauliche Emissions-Aufzeichnungen im Berliner Wirtschaftsministerium? Oder klettert ein Geheimer im schmutzgrauen Tarnanzug an Schloten hoch und mißt den CO2-Gehalt im Qualm?

Vielleicht wird der übernächste Bond-Film ja ein Ökothriller, in dem Daniel Craig Klimaschurken nachspürt. Arbeitstitel: „Liebesgrüße aus Leuna“.

Zitat Moore:

„Wo Menschen im Klimaschutzbereich Verpflichtungen eingehen, ist es vielleicht unsere Aufgabe sicherzustellen, dass das, was sie tun, auch wirklich das ist, wozu sie sich verpflichtet haben. Wie jemand so schön zu sagen pflegte: ‚Vertrauen ist gut, Kontrolle ist besser.'“

Ob man das ernst nehmen darf, ist offen. Ähnlich wie bei der Bundeswehr ist in westlichen Staaten grundsätzlich davon auszugehen, daß kleine grünrote Interessensgruppen ihre Agenda selbst in Institutionen durchsetzen, die sie bislang verachteten oder ignorierten. Vielleicht kann man Militär und Geheimdienst mit einer Gender-Bundeswehr oder einen Klima-MI6 ja durch die Hintertür abschaffen. Dumm nur, daß die Russen und Chinesen es nicht tun.

Allerdings muß man beachten, daß der britische Regierungschef nicht Angela Merkel oder Annalena Baerbock heißt, sondern Alexander Boris de Pfeffel Johnson. Er hat zwar genau wie seine kontinentalen Kollegen die Corona-Sars2-„Pandemie“ politisch genutzt; in anderen Fragen aber eine klar bürgerfreundliche Politik gemacht. Daß er einem „C“ dessen ernsthafte Klimaschnüffelei durchgehen lassen würde, ist daher nicht wahrscheinlich. Vermutlich ist das Tamtam wohl nur eine PR-Offensive von Moore, der den britischen Journalisten etwas zu schlucken gab, da die genau wie die Kollegen in den DACH-Staaten meist völlig entrückt sind. Ganz substanzlos wäre ein Klima-007 aber nicht: Würde der MI6 Informationen darüber besitzen, daß die Klimapolitik zum Beispiel eines Joe Biden oder einer Bärbock nach vier Jahren nicht so erfolgreich ist wie verlautbart, könnte man das schon in Verhandlungen unterschiedlicher Art nutzen.




Norwegens wirtschaftliche Erfolgsgeschichte

Dem Bericht der Deutschen Welle nach, investiert der Fond jedoch in Energieunternehmen, die Raffinerien haben und sich mit dem Vertrieb und Einzelhandelsverkauf von Öl befassen und Gasprodukte. Damit behält der Fond weiterhin maßgebliche Beteiligungen an Big Oil-Unternehmen wie Shell, BP, Total und ExxonMobil.

Oslo sagte, der Schritt beruhe ausschließlich auf finanziellen Erwägungen und spiegelt keine besondere Sicht auf die Zukunftsaussichten der Ölindustrie wider. Die Rendite der Fondsinvestitionen in Öl- und Gasaktien ging im vergangenen Jahr um 9,5 Prozent zurück.

Die norwegische Zentralbank, die den Mammutfonds verwaltet, hat lange behauptet, dass die Veräußerung darauf abzielte, das Engagement des Landes im Energiesektor zu verringern. Die Erlöse der Öl- und Gasindustrie des Landes machen mehr als 20 Prozent der norwegischen Einnahmen aus.

„Die Regierung schlägt vor, Unternehmen, die als Explorations- und Produktionsunternehmen im Energiesektor eingestuft sind, von der staatlichen Pensionskasse Global auszuschließen„, heißt es in einer Erklärung des Finanzministeriums. „Ziel ist es, die Anfälligkeit unseres gemeinsamen Vermögens bei einem dauerhaften Ölpreisverfall zu verringern.“ Die Zentralbank Norges Bank hatte 2017 eine vollständige Veräußerung von Öl- und Gasaktien vorgeschlagen.

Der Fonds hielt Ende letzten Jahres rund 13 Milliarden US-Dollar – 5,9 Prozent seiner gesamten Aktieninvestitionen – im Ölsektor. Ein Großteil dieses Betrags wird nun jedoch in integrierte Ölunternehmen investiert, die von der Exploration bis zum Verkauf von Kraftstoff am Straßenrand tätig sind.

 

Verpasste Gelegenheit

Norwegens Entscheidung rief gemischte Gefühle bei Klimaaktivisten hervor , die erwarteten, dass Oslo ‚aufs Ganze gehen‘ würde.
Martin Norman von der norwegischen Gruppe von Greenpeace, sprach von ‚einer verpassten Gelegenheit‘, meinte jedoch, dass sei ein „Schritt in die richtige Richtung“, der andere Investoren dazu veranlassen würde, sich von fossilen Brennstoffen zurückzuziehen.

 

Norwegens Ölreserven haben dazu beigetragen, dass Norwegen eines der reichsten Länder der Welt ist

Zu diesem Thema bietet BP eine interessante Grafik:

Weltweit wachsen die bestätigten Energiereserven von 1999, 2009 und 2019

 

Norwegens wirtschaftliche Erfolgsgeschichte

Norwegens „Government Pension Fund – Global“, allgemein als „Oil Fund“ bezeichnet, hat heute einen neuen Höhepunkt erreicht. Zum ersten Mal hat der Wert des weltweit größten staatlichen Investmentfonds zehn Billionen Kronen überschritten. Das sind ungefähr 1,087 Billionen USD. …

Slogan: Wir arbeiten daran, finanziellen Wohlstand für zukünftige Generationen zu sichern und aufzubauen [Welchen Slogan würden Sie für Deutschland passend finden?]
1990 verabschiedete das norwegische Parlament das Gesetz über staatliche Pensionsfonds. Die erste Einzahlung erfolgte 1996. Seit 1998 erzielt der Fonds eine jährliche Rendite von 5,9 Prozent oder 4.660 Milliarden Kronen.

 

Sogar die schottische Unabhängigkeitsbewegung ‘ Scotland Independence‘ nutzte schon 2016 Werbung mit

Der norwegische Ölfonds beläuft sich nun auf ~ 503 Mrd. GBP, was jeden Norweger zu einem theoretischen Kroner-Millionär macht (dies entspricht jeweils ~ 100.000 GBP).

Aufeinanderfolgende Regierungen von Labour und Tory UK konnten keinen einzigen Cent der schottischen Öleinnahmen einsparen.Norwegen ist mit ca. 5,1 Mio. Einwohnern ein unabhängiges Land.

Es ist an der Zeit, dass  auch Schottland mit einer Bevölkerung von ~ 5,3 Millionen unabhängig wird.

Zusammenstellung und Übersetzung Andreas Demmig