1

North Face -Outdoor Bekleidung ist auf Erdölprodukte angewiesen – will diese Branche jedoch nicht beliefern

CBS7 berichtete, dass Adam Anderson, CEO von Innovex [Ausrüstungen für die Exploration von Öl und Gas], dass das Unternehmen, bei dem die Jacken angefragt waren, die Öl- und Gasindustrie nicht unterstützen wolle, genauso wie es die Porno- oder Tabakindustrie nicht unterstützen würde.

„Sie sagten uns, dass wir ihre Markenstandards nicht erfüllen. Wir wurden separat darüber informiert, dass dies wirklich bedeutete, weil wir ein Öl- und Gasunternehmen wären.“

Anderson bemerkte gegenüber der Verkaufsstelle [North Face verkauft über Handelspartner], dass es für North Face ironisch sei, ihnen die Jacken zu verweigern, da erst die Öl- und Gasindustrie es dem Oberbekleidungsunternehmen ermöglicht, ihre Produkte herzustellen.

Seiner Meinung nach, ist das pure Heuchelei von North Face.

“ Die Herstellung von Kleidung und Produkten für outdoor- Freizeitaktivitäten, erfordern alle Kohlenwasserstoffe, um sie herzustellen. Es ist einfach so eng mit allem verbunden, was wir tun.“

Statista 2020 -US emissions

Anderson schickte The North Face auch einen vierseitigen Brief auf LinkedIn, in dem er erläuterte, wie die Öl- und Gasindustrie der Welt geholfen und die Kohlendioxidemissionen in den letzten zehn Jahren gesenkt hat, einschließlich Grafiken, die den Rückgang der klimabedingten Todesfälle zeigen.

EM-Dat.be The international disasters database

„Kostengünstige, zuverlässige Energie ist entscheidend, damit der Mensch gedeihen kann. Öl und Erdgas sind die beiden wichtigsten Ressourcen, mit denen die Menschheit kostengünstige und zuverlässige Energie erzeugen kann. Die Arbeit meines Unternehmens und unserer Branche im weiteren Sinne ermöglicht es den Menschen, eine Lebensqualität und Lebenserwartung zu haben, die noch vor einem Jahrhundert unfassbar waren“.

Anderson erklärte, wie seine Branche das Leben in den Industrieländern ermöglicht und dass diejenigen, ohne Zugang zu Elektrizität, ein kürzeres und schwierigeres Leben führen. Er legte all dies dar, bevor er Steve Rendle, dem CEO der VF Corporation, der The North Face gehört, erklärte, warum er ihm den Brief schrieb. Er beschrieb die Erfahrung seines Unternehmens mit dem Versuch, bei North Face-Jacken für seine Mitarbeiter zu bestellen, was nur aufgrund ihrer Branche abgewiesen wurde.

 „Die Ironie in Ihrer Aussage ist, dass Ihre Jacken aus den Öl- und Gasprodukten hergestellt werden, die die fleißigen Männer und Frauen unserer Branche produzieren. Ich denke, diese Haltung Ihres Unternehmens ist ein kontraproduktives Signal für Tugenden, und ich würde es begrüßen, wenn Sie diese Haltung überdenken würden. Wir sollten die Vorteile von Öl und Gas feiern, um den Lebensstil zu genießen, den Ihre Produkte für Outdoor Aktivitäten ermöglichen. Ohne Öl und Gas gäbe es für Sie keinen Markt und keine Möglichkeit, die von Ihrem Unternehmen verkauften Produkte überhaupt herzustellen “, schloss Anderson.

CBS 7 sagte, es habe „The North Face um einen Kommentar per Telefon, E-Mail, Twitter und Facebook gebeten, aber sie haben nicht geantwortet.“

Anderson sagte der Verkaufsstelle auch, dass er hofft, dass sein Brief einen Dialog mit The North Face eröffnen kann.

„Ich denke, es gibt eine wachsende Anhängerschaft in der Welt, die sagt: ‚Öl und Gas sind schlecht. Und ich bin mit dieser Ansicht in jeder Hinsicht grundsätzlich nicht einverstanden.“

https://www.dailywire.com/news/north-face-reportedly-snubs-oil-and-gas-company-ceo-points-out-hypocrisy?

Übersetzt durch Andreas Demmig




„Blackout – kleines Handbuch für den Umgang mit einer wachsenden Gefahr“ – eine Rezension

Diese Warnung ist seitdem praktisch wirkungslos verhallt.

Das Büchlein „Blackout – kleines Handbuch für den Umgang mit einer wachsenden Gefahr“ weist nach, dass es sich bei einem solchen Stromausfall um eine nationale Katastrophe mit zehntausenden von Toten handelt, deren Eintrittswahrscheinlichkeit derzeit  immer weiter steigt. In der Broschüre werden Architektur und Wirkungsweise unseres Stromnetzes ausführlich erläutert sowie das vielfältige Spektrum seiner Gefährdungen analysiert: zunehmende Cyberangriffe, Bevorrechtigung der schwankenden Einspeisung von Wind und Sonne mit Umkehr der Fließrichtung des Stroms im Netz, defizitäre Energieerzeugung und auch koronare Sonnenauswürfe. Im Licht dieser Fakten sind dann die erschreckende Inkompetenz regierungsamtlicher Vorsorgemaßnahmen und die mangelnde Sachkunde verantwortlicher Politiker zu sehen.

Broschüre „Blackout“ von Wulf Bennert

Wichtigstes Anliegen des „Kleinen Handbuchs“ von Wulf Bennert ist es, die Leserschaft auf aktuellem Stand über Möglichkeiten und Grenzen rechtzeitiger Vorsorge gegen einen Blackout zu informieren sowie über hilfreiche Verhaltensstrategien während seiner Dauer. Diese können je nach Wohn- und Lebenssituation recht unterschiedlich sein. Die Broschüre bietet eine breite Palette verschiedener Empfehlungen, die vom Erkennen des Blackout über den richtigen Umgang mit dem Trinkwasser- und Toilettenproblem, über Licht im Dunkeln, Zubereitung von Lebensmitteln, den Weiterbetrieb der Heizung bis zur Auswahl des geeigneten Notstromaggregats und der möglichen Nutzung einer Solaranlage bei Stromausfall reichen. Es sind Ratschläge, die im Ernstfall das Überleben sichern können. Deshalb sollte die Broschüre in jedem Haushalt verfügbar sein.

Das Büchlein kann über den Kaleidoscriptum Verlag ISBN 978-3-00-067547-8 für 8,70 € hier bezogen werden.

 

 




Energiewende 2020 – das Wetter als Spielverderber

Näheres zum Stand und den Problemen der Energiewende sowie zu den meteorologischen Hintergründen finden Sie hier. Diese Ausführungen werden im Folgenden um die Daten des Jahres 2020 ergänzt und einige Monate, Monatsabschnitte oder Jahreszeiten näher betrachtet; außerdem wird sich zeigen, welcher Energieträger der „Gewinner“ des Jahres bei der Stromerzeugung ist.

Zwischen Mangel und Überproduktion – der Hochwinter 2020

Gerade in der „dunklen“ Jahreszeit wird viel Strom verbraucht. Leider fällt die Sonne mit meist nur ein bis 2 Sonnenstunden pro Tag als Stromlieferant fast gänzlich aus; und die Windenergieerzeugung schwankt in dieser Jahreszeit zwischen totaler Flaute und Überangebot so stark wie zu keiner anderen Zeit des Jahres. Die Monate Januar und Februar 2020 waren enorm gegensätzlich; im von Hochdrucklagen dominierten Januar häuften sich Flauten; im extrem milden Februar jagte ein Wintersturm den nächsten:

Abbildung 1: Nur wenig Wind, kaum Solarenergie (gelbliche Spitzen) im Januar 2020. Um den 22.01. schlief der Wind für mehrere Tage fast völlig ein; 60 bis 70% des Stroms mussten konventionell erzeugt werden; die gut 30.000 Windräder und Millionen Solarpaneele standen völlig nutzlos in der Landschaft. Effektive Speicher, die Strom aus besseren Zeiten bereitstellen könnten, fehlen und sind in naher Zukunft auch nicht in technisch machbarer Reichweite. Die schwarze Zackenlinie stellt die Last (Stromverbrauch) dar. Bildquelle: Fraunhofer-Institut, ergänzt

Abbildung 2: Enorm hohe Schwankungen der verschiedenen Stromerzeugungsquellen im stürmischen Februar 2020. Häufig überstieg die Windstromproduktion die Nachfrage – andere Energiequellen mussten hektisch gedrosselt und der Stromüberschuss entweder zu Schleuderpreisen exportiert, oder Windkraftanlagen zeitweise vom Netz genommen werden. Aber selbst in diesem für die Windenergie so rekordverdächtigen Monat gab es Phasen mit Hochdruckeinfluss fast ohne Windstrom – so um den 6., 14. und 26. Februar. Bildquelle: Fraunhofer-Institut, ergänzt

Ein schönes Beispiel für den extremen, über längere Zeit währenden Mangel an Wind- und Solarenergie findet sich im vom 22. Bis zum 26.Januar 2020; Näheres zu den meteorologischen Besonderheiten des Januars 2020 hier:

Abbildung 3: Über fast fünf Tage kaum Wind- und Solarenergie vom späten Nachmittag des 22. bis zum frühen Nachmittag des 26. Januars 2020. Der Wind lieferte in der Nacht zum 23. Januar bloß mickrige 1 bis 2 GW! Die hellblauen Zacken sind Strom aus Pumpspeichern – hübsch anzusehen, doch fast bedeutungslos; auch die Solarenergie spielt kaum eine Rolle; mehr als zwei Drittel der Stromproduktion entstammten konventionellen Quellen. Bildquelle: Fraunhofer-Institut, ergänzt

Zeitweise sonnig-windiger Frühling – aber ohne konventionelle Kraftwerke ging es auch da nicht

Der März 2020 liefert ein schönes Beispiel, wie rasch sich die Bedingungen zur Stromerzeugung ändern können:

Abbildung 4: Bis etwa Mitte März ähnelten die Bedingungen denen des Februars – zeitweise viel Wind, aber auch kurze, flaue Phasen mit viel konventioneller Nettostromproduktion. Danach insgesamt weniger Wind und mehr Solarstrom; der aber nur tagsüber verfügbar ist. Bildquelle: Fraunhofer-Institut, ergänzt

Das ganze Dilemma der Solar- und Windstromproduktion wird deutlich, wenn man nur deren Erzeugung im März 2020 betrachtet:

Abbildung 5: Solarstromproduktion (gelb-orange Spitzen) und Windstrom (verschiedene grau-grüne Töne für Anlagen diverser Firmen an Land; bläulich für Anlagen auf See). Immer wieder fallen beide Quellen auch in der Summe fast völlig aus; auch sonst ergänzen sie sich nur selten. Und auch die von Energiewende-Befürwortern oft geäußerte Behauptung, dass irgendwo in Deutschland immer Wind wehe, besonders auf dem Meer, erweist sich als falsch. Bildquelle: Fraunhofer-Institut, ergänzt

Der April 2020 bescherte uns mit über 290 Sonnenstunden im DWD-Mittel rekordverdächtig viel Sonnenschein – zu dumm nur, dass unser Zentralgestirn im Erdschatten der Nacht keinen Strom liefern kann:

Abbildung 6: Erzeugung von Wind- und Solarstrom im sehr sonnigen April 2020. Tagsüber reichlich Sonne, manchmal viel, oft aber auch kaum Wind. Symbolik wie in Abbildung 5. Bildquelle: Fraunhofer-Institut, ergänzt

Im Mai, der hier nicht näher behandelt werden soll, gab es das typische Wechselspiel aus vielen Mangel- und wenigen Überproduktionsphasen.

Schwüler, flauer Sommer

Besonders im Juni und August herrschten bei geringen Luftdruckgegensätzen schwüle, zu Gewittern neigende Luftmassen vor; Wind fehlte oder war nur tagsüber als schwacher Lokalwind vorhanden; und die Sonne zeigte sich auch keinesfalls immer. Am Beispiel des Juni zeigen sich wieder die Probleme der unzuverlässigen Wind- und Solarstromproduktion; man spricht auch von VEE (Volatile Erneuerbare Energien):

Abbildung 7: Erzeugung von Wind- und Solarstrom im fast durchschnittlichen Juni 2020. In den Nächten fast immer kaum Strom, doch auch sonst viele über Tage währende Mangelphasen. Aber mitunter auch kurzzeitige Stromschwemmen – die Maxima von Wind- und Solarstromerzeugung fallen oft gegen Mittag zusammen. Dieser kurzzeitige Überfluss kann nicht gespeichert werden und führt, wie der Mangel, zur Destabilisierung der Stromnetze. Ganz ähnliche Produktionsergebnisse waren im August 2020 zu verzeichnen. Bildquelle: Fraunhofer-Institut, ergänzt

Auf den ersten Blick schien wenigstens der Juli 2020 den Erneuerbaren Energien gewogen zu sein – es gab im Norden Deutschlands zeitweise viel Wind, im Süden viele Sonnenstunden. Das Produktionsergebnis sieht aber ernüchternd aus:

Abbildung 8: Auch im Juli war Windstrom meist Mangelware, und die über die schwarze Lastlinie ragenden, mittäglichen Erzeugungsspitzen der Solarenergie konnten nicht verwertet werden (Überproduktion). Beim genauen Hinsehen erkennt man in den Nächten mitunter weiße Flächen unter der Lastlinie – das sind Strommangelphasen, welche beispielsweise durch teure Stromimporte ausgeglichen werden müssen, um Brown- oder Blackouts zu vermeiden. Bildquelle: Fraunhofer-Institut, ergänzt

Herbst: Sonniger, flauer September, trüber Oktober, seltene Stürme

Der September zählt im Jahresverlauf mit den Singularitäten des Spät- und Altweibersommers ohnehin zu den meist windschwachen Schönwettermonaten des Jahres; doch diesmal waren die sonnigen Hochdruckphasen besonders ausgeprägt:

Abbildung 9: Für einen Herbstmonat fiel die Windstromproduktion im September 2020 äußerst mager aus. Bildquelle:Fraunhofer-Institut, ergänzt

Im sehr trüben Oktober gab es endlich mal mehr Wind, doch immer wieder durch Flauten unterbrochen:

Abbildung 10: Im Oktober probte die Sonne schon mal den Winterurlaub – sie schien kaum. Und weil es auch nur zeitweise reichlich Wind gab, mussten die konventionellen Kraftwerke hektisch herauf- und heruntergefahren werden – deshalb der äußerst „zackige“ Verlauf bei Gas, Braun- und Steinkohle. Bildquelle: Fraunhofer-Institut, ergänzt

Es war wie verhext: Im November erschien die Sonne wieder übernormal häufig, doch bei von etwa 10 auf 8 Stunden abnehmender Tageslänge lieferte sie dennoch nur wenig Strom. Und der Wind schlief wieder über längere Phasen fast ganz ein:

Abbildung 11: Viele „Fehlzeiten“ bei den Volatilen Erneuerbaren Energien (Sonne und Wind) auch im sonnigen November 2020. Bildquelle: Fraunhofer-Institut, ergänzt

Eine ernüchternde Erkenntnis im Christmond: „And the Winner is – Natural Gas!“

Zum Jahresabschluss werfen wir noch einen Blick auf das erste Dezemberdrittel, welches 2020 ungewöhnlich trüb und windstill verlief. So richtig spannend wird aber erst ein Vergleich mit demselben Zeitraum 2016, der liegt nur vier Jahre zurück:

Abbildungen 12a und 12b: Nettostromproduktion im reichlich ersten Dezemberdrittel 2020 (oben) und 2016 (unten). Man achte auf die starke Zunahme der orangerosa Fläche (Erdgas!) in 2020, während fast alle anderen Energieträger Federn lassen mussten; besonders Steinkohle und Kernkraft. Biomasse, Solar und Wasserkraft blieben etwa gleich unbedeutend; Wind gab es in beiden Vergleichszeiträumen nur wenig. Bildquellen: Fraunhofer-Institut, ergänzt

Das nennt man dann wohl eine lupenreine Mogelpackung – Kohle und Kernkraft werden, weil Wind und Sonne sie niemals ganz ersetzen können, durch umweltpolitisch inkorrektes Erdgas ersetzt – klammheimlich wird wohl Nord-Stream 2 nun doch noch vollendet, und still und leise wie in der Heiligen Nacht hat die Bundesnetzagentur vier Gaskraftwerke mit je 300 Megawatt Leistung im Süden Deutschlands genehmigt. Sie werden unter anderem in Biblis durch RWE und in Irsching durch Uniper gebaut. Man darf nun gespannt sein, wann die Gutmenschen der GRÜNEN und von Greenpeace die Erdgas-Verdichterstationen und die Schornsteine der Gaskraftwerke blockieren werden… .

Zirkulationsarme, unbestimmte (XX)-Wetterlagen häufen sich – schlecht für die Wind- und Solarenergie

Was zirkulationsarme, unbestimmte Großwetterlagen sind, wird hier näher erläutert. Eine Häufung dieser Lagen deutet sich bei freilich großer Streuung an:

Abbildung 13: Entwicklung der Anzahl der Tage mit XX-Lagen (unbestimmte Lagen nach der Objektiven Wetterlagen-Klassifikation des DWD) im Jahr. Im Langjährigen Mittel sind diese für die Erzeugung Erneuerbarer Energien problematischen Wetterlagen an fast 70 Tagen zu erwarten – mit steigender Tendenz. Das sind mehr als zwei Monate pro Jahr, an denen besonders die Windenergie, aber im Winterhalbjahr auch der Solarstrom, kaum zur Verfügung stehen; man achte nur auf die Kalamitäten im Januar und Dezember 2020!

Folglich nahm auch die Windgeschwindigkeit in den letzten 3 Jahrzehnten merklich ab, was möglicherweise auch eine Folge des zu massiven Windkraftausbaus ist:

Abbildung 14: Weil es kein DWD-Flächenmittel der Windgeschwindigkeit gibt, wurde ein solches aus 25 Stationen in Norddeutschland, also dort, wo die meisten Windräder stehen, berechnet. Seit etwa 30 Jahren sinkt die Windgeschwindigkeit, leider nur in Beaufort verfügbar, merklich. Das Jahr 2020 wird mit etwa 2,92 Beaufort trotz des extrem stürmischen Februars sehr windschwach ausfallen.

Düsterer Ausblick

All die vielen, teuren, verzweifelten Forschungs- und Modellprojekte konnten bislang keine Energieform und keine Energiespeicher finden, die umweltfreundlich, wirtschaftlich, zuverlässig und effektiv sind. Die physikalischen Gesetze machen da auch für die kommenden Jahrzehnte wenig Hoffnung. Und sollte der große Wurf, etwa mit der Kernfusion, doch noch gelingen, so würden bis zur technisch-ökonomischen Reife weitere Jahrzehnte ins Land gehen. Wegen ihrer geringen Energiedichte und ihrer schlechten Speicherbarkeit müssten Wind- und Solarkraft um das etwa fünfzehn- bis zwanzigfache ihrer heurigen Anzahl ausgebaut werden; hinzu kämen enorm teure, ebenfalls umwelt- und ressourcenschädigende Großspeicher. Für die Windkraft würde das gegenüber den heurigen gut 30.000 Anlagen weit über 300.000 Anlagen bedeuten; auf nahezu jedem Quadratkilometer Deutschlands stände dann etwa ein großes Windrad, auch in Städten, Wäldern, Naturschutzgebieten… . Nach den Berechnungen des Autors Klaus Maier („Die Abrechnung … mit der Energiewende“) würde bei dieser Vorgehensweise Strom im Jahre 2050 mit über 1,3 Euro/Kilowattstunde zum unbezahlbaren Luxusgut – schöne, neue Energiewendewelt, mir graut vor Dir… .




Biden will die gesamte Regierung – einschließlich des Militärs – für eine weitere ehrgeizige Klimaschutzagenda gewinnen

Die sich abzeichnende Verschiebung im Verteidigungsministerium wird laut Analysten und Insidern eine Rückkehr in die Obama-Ära darstellen, in der die Pentagon-Führung den Klimawandel laut und konsequent als existenzielle Herausforderung betrachtet, die in allen Ecken des Militärs angegangen werden muss, auf Augenhöhe mit allen anderen Feinden wie China, Russland oder dem islamischen Extremismus.

Wenn der Demokrat Joseph R. Biden am 20. Januar als Präsident vereidigt wird, geht es in der neuen Dynamik wahrscheinlich genauso um Rhetorik und Haltung wie um Handeln. Während der Trump-Präsidentschaft hat das Pentagon Stützpunkte für steigende Meeresspiegel und heißere Temperaturen vorbereitet, auf sparsamere Technologien umgestellt und eine Reihe anderer Programme und Initiativen umgesetzt, die laut Militärführern die Risiken angehen, die ein sich änderndes Klima für die militärische Bereitschaft mit sich bringt .

Bei diesem Ansatz fehlte jedoch eine lautstarke Botschaft von oben, sagen Kritiker. Weder der Verteidigungsminister noch andere hochrangige Beamte der Trump-Administration, haben über den Klimawandel weder gesprochen noch ihn wie ihre Vorgänger als große Bedrohung eingestuft, was möglicherweise zu einem unausgesprochenen Verständnis im Pentagon geführt hat, dass das Thema nicht mehr im Vordergrund stand.

„Im Allgemeinen werden Sie feststellen, dass das Militär dieses Thema nicht durchpeitscht. Sie kümmern sich um die Missionssicherung, sie kümmern sich um die militärische Widerstandsfähigkeit, sie kümmern sich um die Bereitschaft. Das hat sich nicht von Obama über Trump bis Biden geändert “, sagte John Conger, Direktor des Zentrums für Klima und Sicherheit, das die Schnittstelle zwischen Umwelt- und Sicherheitsfragen verfolgt.

einen Unterschied“, sagte er. „Ich habe lange gesagt, als die Trump-Administration ans Ruder kam, war es nicht so,  als ob sie im Verteidigungsministerium auf die Bremse getreten waren. Es ist eher, als ob sie das Gas zurückgenommen haben. … Biden wird es wieder anziehen.

Angesichts seiner Kampagnenrhetorik und einiger seiner frühen Personalentscheidungen, scheint Herr Biden entschlossen zu sein, eine Reihe neuer Maßnahmen zum Klimawandel in der gesamten Regierung umzusetzen, einschließlich einer wahrscheinlichen Rückkehr zum Pariser Klimaabkommen aus der Obama-Ära, was den US-Emissionen neue Grenzen setzt. Herr Trump zog sich zu Beginn seiner Präsidentschaft von dieser Agenda zurück.

https://www.washingtontimes.com/news/2020/dec/16/joe-biden-thrust-climate-change-pentagon-forefront/




Da packt einen die Wut

Nun beschränken sie unsere Freiheit noch massiver. Bundeskanzlerin und Ministerpräsidenten der Bundesländer haben unter dem Corona-Vorwand am 13. Dezember entschieden, die Freiheitsbeschränkungen vom 16. Dezember an drastisch zu verschärfen. Schon vorher hatten sich führende Politiker darin überboten, „schnelle und harte Maßnahmen“ zu fordern oder anzukündigen. Der Bundespräsident, ohne Zweifel im Vollbesitz seiner geistigen Kräfte, behauptete: „Die Lage ist bitter­ernst.“ Der Bundeswirtschaftsminister, ebenfalls bei klarem Verstand, fürchtete drohend, die Corona-Pandemie könne völlig außer Kontrolle geraten. Doch nicht das Virus gerät außer Kontrolle, sondern die Bundesregierung. Sie hat  mit ihrer Corona-Panikmache auch ihre Selbstkontrolle verloren, denn jedes Mitglied im Kabinett spielt unverdrossen gehorsam mit, keines erhebt Widerspruch. Die Regierenden in Bund und Ländern sind von einem anderen Virus befallen. Es heißt Machtmissbrauch. Gegen das allerdings hilft nur dieses eine Medikament: die Abwahl. Das aber will die Mehrheit der deutschen Bürger nicht anwenden, denkt noch nicht einmal im Traum daran. Zu tief sitzt die ihr erfolgreich eingejagte Angst.

Das Virus ist politisch und wirtschaftlich weit gefährlicher als für die menschliche Gesundheit

Bei den immer noch weiteren Verschärfungen und Verlängerungen der staatlichen  Anti-Corona-Diktate packt einen die Wut. Es ist ohnmächtige Wut, denn wer sich widersetzt, wird strafbewehrt verfolgt und, wer warnt, eines Tages wohl gar wegen „Volksverhetzung“. Vorstellen kann man sich inzwischen alles. Politische Führung und die meist links-grün verseuchten Mainstream-Medien sind sachlicher Aufklärung und vorgebrachten Tatsachen nicht zugänglich.*) Dass die Folgen der Maßnahmen gegen eine Corona-Infizierung politisch und wirtschaftlich folgenreicher, schlimmer und gefährlicher sind als die Folgen des Virus für die menschliche Gesundheit, schert sie einen Kehricht.

Was in und mit Deutschland geschieht, treibt viele Menschen um – und auch, was die Menschen mit sich geschehen lassen

Viele Bürger treibt um, was in und mit Deutschland geschieht sowie mit der westlichen Welt insgesamt. Und was die Menschen hier und dort mit sich geschehen lassen. Dabei ist die „Plandemie“ durch das  Virus SARS-CoV-2 (kurz Coronavirus oder Covid-19) nur ein Teil dieses Geschehens. Aber die politische Instrumentalisierung dieses Virus‘ (hier und hier) und damit ihre politische Gefährlichkeit rechtfertigt es, nein, gebietet es geradezu, dass auch ich diesem Thema immer wieder besondere Aufmerksamkeit gebe und wiederholt darüber informiere, wie es durch freie und unabhängige Köpfe auch anderswo im Internet geschieht.

Die Fakten des Schweizer Forschungsprojekts SPR

Daher hier ein weiterer Hinweis: Eine besonders umfassende und allgemein verständliche Darstellung der Fakten gibt es vom Schweizer Forschungs- und Informationsprojekt Swiss Policy Research (SPR). Im August habe ich auf SPR schon einmal hingewiesen (hier). Diese Darstellung ist hervorragend. Sie wird regelmäßig auf den jeweils aktuellen Stand gebracht und verdient, weithin verbreitet zu werden. Es sind, wie SPR schreibt „von Fachleuten präsentierte, vollständig referenzierte Fakten zu Covid-19, die unseren Lesern eine realistische Risikobeurteilung ermöglichen sollen“.  Die jüngste Aktualisierung stammt jetzt aktuell vom Dezember 2020. Wegen der Länge der Darstellung gebe ich nur die länderübergreifende Übersicht wieder. Das Folgende ist ihr Wortlaut.

  1. Letalität: Laut den neuesten immunologischen Studien liegt die Letalität von Covid-19 (IFR) in der Allgemeinbevölkerung in den meisten Ländern bei insgesamt circa 0.1% bis 0.5%, was vergleichbar ist mit den mittelstarken Grippe­pandemien von 1957 und 1968.
  1. Behandlung: Bei Personen mit hohem Risiko oder hoher Exposition ist eine frühzeitige oder prophylaktische Behandlung entscheidend, um eine Progression der Erkrankung zu vermeiden.
  2. Altersprofil: Das Medianalter der Verstorbenen liegt in den meisten Ländern bei über 80 Jahren und nur circa 5% der Verstorbenen hatten keine ernsthaften Vor­er­kran­kungen. Das Alters- und Risikoprofil der Covid-Mortalität entspricht damit im Unterschied zu Grippepandemien im Wesentlichen der normalen Sterblichkeit und erhöht diese proportional.
  3. Pflegeheime: In vielen westlichen Ländern ereigneten sich bis zu zwei Drittel aller Todesfälle in Pflegeheimen, die einen gezielten und humanen Schutz benötigen. Teilweise ist nicht klar, ob die Bewohner wirklich an Covid-19 starben oder an wochenlangem Stress und Isolation.
  4. Übersterblichkeit: Bis zu 30% aller zusätzlichen Todesfälle wurden nicht durch Covid verursacht, sondern durch die Folgen von Lockdowns, Panik und Angst. So ging etwa die Behandlung von Herzinfarkten um bis zu 40% zurück, da sich Patienten nicht mehr in die Kliniken wagten.
  5. Antikörper: Bis im Sommer 2020 erreichten globale Hotspots wie New York City oder Bergamo Antikörper-Werte von circa 25%. Metropolen wie Madrid, London und Stockholm lagen bei circa 15%. Weite Teile Europas und der USA lagen indes noch bei unter 5%.
  6. Symptome: Bis zu 40% aller infizierten Personen bleiben symptomfrei, circa 80% zeigen höchstens milde Symptome, und circa 95% zeigen höchstens moderate Symptome und müssen nicht hospitalisiert werden. Milde Verläufe werden unter anderem durch kreuzreaktive T-Zellen erklärt, die durch den Kontakt mit früheren Coronaviren (Erkältungsviren) entstanden sind.
  7. Long Covid: Circa 10% der Erkrankten berichten von post-akutem Covid, d.h. von Symptomen über mehrere Wochen oder Monate. Dies betrifft auch jüngere und zuvor gesunde Menschen mit starker Immunantwort. Das post-virale Syndrom ist bereits von starker Influenza bekannt.
  8. Übertragung: Die Übertragung des Coronavirus erfolgt nach derzeitigem Kenntnisstand hauptsächlich durch Aerosole in Innenräumen sowie durch Tröpfchen, während Aerosole im Freien sowie die meisten Objekt­oberflächen eine untergeordnete Rolle zu spielen scheinen.
  9. Masken: Für die Wirksamkeit von Masken in der Allgemein­bevölkerung gibt es weiterhin kaum Evidenz, und die Einführung einer Maskenpflicht konnte die Epidemie in kaum einem Land eindämmen oder verlangsamen. Bei unsachgemäßer Verwendung können Masken das Infektionsrisiko sogar erhöhen und in manchen Fällen zu Atemproblemen führen.
  10. Kinder und Schulen: Im Unterschied zur Influenza ist das Erkrankungs- und Über­tragungsrisiko bei Kindern im Falle von Covid-19 sehr gering. Für die Schließung von Grundschulen oder andere besondere Maßnahmen für Kinder gab und gibt es deshalb keinen medizinischen Grund.
  11. Contact Tracing: Eine WHO-Studie von 2019 zu Maßnahmen gegen Grippepandemien ergab, dass Kontakt­verfolgung aus medizinischer Sicht “unter keinen Umständen zu empfehlen” ist. Auch Contact-Tracing-Apps auf Mobiltelefonen sind in den meisten Ländern bereits gescheitert.
  12. PCR-Tests: Die international verwendeten Virentestkits sind fehleranfällig und können teilweise falsche positive und falsche negative Resultate ergeben sowie auf nicht-infektiöse Virenfragmente einer früheren Infektion reagieren. Eine wichtige Kennzahl ist dabei der Zyklusschwellwert.
  13. Fehlbehandlungen: In den USA und einigen anderen Ländern kam es zu teils tödlichen Fehl­be­handlungen von Covid-Patienten aufgrund fragwürdiger finanzieller Anreize und ungeeigneter Methoden. In den meisten Ländern sank die Covid-Letalität inzwischen deutlich.
  14. Lockdowns: Die WHO erklärte, dass Lockdowns eine “schreckliche globale Katastrophe” ausgelöst haben. Laut UNO sind durch Lockdowns 1.6 Milliarden Menschen vom akuten Verlust ihrer Lebens­grund­lagen sowie 150 Millionen Kinder von akuter Armut bedroht. Arbeitslosigkeit, Konkurse und psychologische Probleme haben weltweit Höchstwerte erreicht.
  15. Schweden: In Schweden liegt die Gesamtsterblichkeit ohne Lockdown bisher im Bereich einer starken Grippewelle. 70% der schwedischen Todesfälle erfolgten in Pflege­ein­rich­tungen, die zu wenig rasch geschützt wurden. Das Medianalter der Todesfälle liegt bei 84 Jahren.
  16. Medien: Viele Medien berichten oftmals unseriös über die Pandemie und haben dadurch eine Maximierung der Angst sowie eine massive Überschätzung der Mortalität durch Covid-19 bewirkt. Einige Medien verwendeten sogar manipulative Bilder, um die Situation zu dramatisieren.
  17. Impfstoffe: Zahlreiche Fachleute bezeichneten forcierte Impfstoffe gegen das Coronavirus als risikoreich. So führte etwa der Impfstoff gegen die sogenannte Schweinegrippe von 2009 zu teilweise schweren neurologischen Schäden und Klagen in Millionenhöhe. Auch bei Tests von Corona-Impfstoffen kam es bereits zu ernsthaften Komplikationen.
  18. Ursprung: Der Ursprung des neuen Coronavirus bleibt unklar, aber die beste Evidenz deutet derzeit auf einen Covid-artigen Pneumonie-Vorfall in einer chinesischen Mine von 2012 hin, deren Virenproben vom Virologischen Institut in Wuhan gesammelt, gelagert und erforscht wurden.
  19. Überwachung: NSA-Whistleblower Edward Snowden warnte, dass die Covid-Pandemie für den permanenten Ausbau von Überwachung genutzt wird. Weltweit kam es während Lockdowns zum Monitoring der Zivilbevölkerung durch Drohnen und zu teilweise massiver Polizeigewalt.

Soweit der SPR-Überblick zur aktuellen Lage. Die vollständige Faktensammlung finden Sie hier. Zum Ausbau der staatlichen Überwachung hatte SPR in der September-Aktualisierung dies festgehalten: „Über 600 Wissenschaftler haben vor einer “beispiellosen Überwachung der Gesellschaft” durch problematische Apps zur Kontakt­­verfolgung gewarnt. In einigen Ländern wird diese Kontakt­ver­folgung bereits direkt vom Geheimdienst durchgeführt.“

In Deutschland kein gezielter Schutz der Risikogruppen

Was SPR über „Deutschland im Corona-Winter“ zusammengetragen hat, finden Sie hier. Bemängelt wird darin dies: „Ein Konzept zur ambulanten Prophylaxe und Frühbehandlung von Risikogruppen, mit dem Hospitalisierungen und Todesfälle laut internationalen Studien um bis zu 80% reduziert werden können, besteht in Deutschland bisher nicht. Auch ein gezielter Schutz der Risikogruppen wird – mit einigen beachtlichen Ausnahmen wie der Stadt Tübingen – kaum versucht (mehr dazu).

Die Beweislastumkehr und der Missbrauch des Wortes „Fälle“

„Vor Corona“ galt man bis zum Beweis des Gegenteils als gesund, heute „mitten in Corona“ gilt man bis zum Beweis des Gegenteils als krank. Das ist wie eine willkürliche Beweislastumkehr. „Vor Corona“ wurde der Beweis durch Symptome und  ärztliche Diagnosen erbracht, heute „mitten in Corona“ wird er durch einen Test geliefert, der dafür weder vorgesehen noch geeignet ist (siehe http://.kpkrause.de/2011/26/die-taeuschung-mit-den-corona-pcr-tests/). Fällt der Test „positiv“ aus, heißt das allenfalls, dass die getestete Person „infiziert“ ist. Aber infiziert bedeutet nicht, dass man auch erkrankt. Und stets werden nur die aktuellen Infiziertenzahlen verbreitet. Die Zahl der Fälle sei schon wieder gestiegen, liest oder hört man dann. Aber unter dem Wort „Fälle“ versteht der normale Mensch „Krankheitsfälle“. Das soll er auch so verstehen, um seine Angst zu verstärken und ihn für die Freiheitsberaubungen gefügig zu machen und gefügig zu halten.

Der tiefe Eingriff in die Freiheitsrechte ist grob unverhältnismäßig und daher rechtswidrig

Diese Fehlinformation, diese Verfälschung, ist das Werk von Interessenten im Hintergrund, gefördert von Politikern und Medien. Politische Führung und Mainstream-Medien, auch System- oder  Regime-Medien genannt, haben sich im Verbreiten von immer mehr Angst gegenseitig hochgeschaukelt. Sie alle müssten es besser wissen. Die auch ihnen bekannten Tatsachen sprechen gegen sie. Sie wollen es aber nicht besser wissen. Sie ziehen es vor, mit tiefen Eingriffen in die Lebensabläufe der Menschen deren Interessen und Freiheitsrechte schwer zu verletzen. Sie sind für die Corona-Grippe-Bekämpfung weder angemessen, noch erforderlich, noch geeignet. Angesichts der (unterdrückten) Tatsachen sind diese Eingriffe grob unverhältnismäßig und daher in hohem Maße rechtswidrig.

 

Nachtrag: Wenn Sie darüber ins Grübeln kommen, warum dies geschieht trotz entgegenstehender Tatsachenlage und trotz aller Rechtswidrigkeit, dann lesen Sie dies

https://traugott-ickeroth.com/wp-content/uploads/2020/07/TranscriptDE-The-Covid-Plan_Rockefeller-Lockstep-2010.pdf

und hören sich dies an (ist auch schriftlich verfügbar und bei mir abrufbar)

https://www.youtube.com/watch?v=Asi0XpTxi7E&feature=youtu.be

und denken selbst darüber nach, ob das „Verschwörungstheorie“ ist oder nicht doch Verschwörungspraxis. Und ob Ihnen das aus den vergangenen Monaten, Wochen, Tagen und bis heute nicht irgendwie bekannt vorkommt.

___________________________________________

*)  Eine Ausnahme hat gerade in der Sonntagszeitung der FAZ stattgefunden. Unter der Überschrift  Geht es auch anders? Deutschland setzt in der Pandemie vor allem auf den Lockdown. Einige Wissenschaftler halten das für den falschen Weg“ ist es nach meiner Wahrnehmung der erste Beitrag in FAS/FAZ, der auch Kritikern des Lockdown breiten Platz einräumt (FAS vom 13. Dezember 2020, Seite 3 hier). Autor ist der FAS-Redakteur Morton Freidel. Versucht die Redaktion jetzt endlich die Kurve zu kriegen?

Der Beitrag erschien zuerst auf dem Blog des Autors hier




EEG-Novelle für Altanlagen sichert die Einnahmen für die Windmüller

Das oberste Ziel deutscher Energiepolitik besteht darin, Herstellern und Betreibern von Ökoenergieanlagen die Gewinne zu sichern. Nach außen plakatiert man die Rettung des Weltklimas. „Energieminister“ Peter Altmeier bezeichnet es so:  „EEG 2021 sendet klares Zukunftssignal für mehr Klimaschutz und mehr erneuerbare Energien“ Dabei zahlen viele für wenige.

Mit Einführung des Erneuerbare Energien Gesetzes (EEG) im Jahr 2000 wurde ein 20-jähriger Förderzeitraum festgeschrieben. Je nach Technologie und Datum der Inbetriebnahme gibt es garantierte Einspeisevergütungen über diesen Zeitraum, die sich abhängig vom Jahr der Inbetriebnahme verringerten, aber eben auch für 20 Jahre unantastbar waren und sind. Dazu kommen die nicht bezifferbaren Vorteile eines vom Bedarf unabhängigen Strom-Einspeisevorrangs und eines kostenlosen Netzanschlusses. Müssen Anlagen auf Grund von Netzrestriktionen abgeschaltet werden, fließt trotzdem Geld für den so genannten „Phantomstrom“. Vertrieb, Vermarktung und Abrechnung sind ebenso für die Betreiber gratis.

Förderungen finden üblicherweise statt, um neuen Technologien beim Eintritt in den Markt zu helfen. Schon der Förderzeitraum von 20 Jahren zeigt, dass es sich hier um keine Anschubförderung, sondern eine Massen- und Dauersubventionierung handelt. Mit der EEG-Novelle 2017 und der Einführung von Ausschreibungsverfahren wehte ein kalter Hauch von Markt durch die Branche, der sofort zu heftiger Arbeitsverweigerung führte.

Die Ausschreibungsrunde vom 24. November ging wieder ohne Beteiligung der Windkraft aus. Gebote lagen nur für den Bau von Solaranlagen vor. Als Vorwand für die Zurückhaltung werden immer wieder lange Genehmigungsverfahren und Bürgerwiderstand genannt. Maßgebend sind aber die Zuschlagswerte, in diesem Fall höchstens 5,45 Cent pro Kilowattstunde, die offensichtlich selbst für moderne Windkraftanlagen nicht lukrativ sind. Geschrumpfte Gewinnaussichten zeigen, dass es zugig wird im Streichelzoo. Die großen Rosinen sind gepickt, die Kosten für das Einsammeln von Naturkräften mit geringer Energiedichte bleiben hoch.

Bevor nun zu Jahresbeginn 2021 erstmals Anlagen aus dem Förderzeitraum fallen würden, ergriff die Windbranche eine gewisse Panik, denn die betroffenen Anlagen sind nicht nur alt und ineffizient, sondern vor allem nicht wettbewerbsfähig. Die Lobby ist allerdings schlagkräftig genug, um auf den letzten Metern eine Anschlussregelung durchzudrücken, von der man sich einen irgendwie rentablen Weiterbetrieb verspricht.

Bürokratie als Methode

Im Paragrafen 23b der nunmehr beschlossenen Novelle soll es für die Anlagen, die ab 2021 und 2022 aus der Förderung fallen würden, einen „anzulegenden Wert“ geben, der per Ausschreibung ermittelt werden soll. Die Modalitäten dieser Ausschreibung erfordern wiederum eine neue Verordnung, die die Bundesregierung bis zum 30. Juni 2021 erlassen muss. Wer sich an dieser Ausschreibung nicht beteiligt, erhält pauschal einen Cent pro Kilowattstunde mehr als den „Monatsmarktwert für Windenergieanlagen an Land“, ab 1. Juli 2021 nur noch einen halben, ab 1. Oktober nur noch einen Viertelcent. Die Einzelheiten entnehmen Sie, liebe Leser, dem Gesetz, ebenso die geänderten Regelungen zur Photovoltaik, dem Mieterstrom et cetera. Sollten Sie dem inhaltlich nicht ganz folgen können, ist das kein Makel. Sollte zudem die Darstellung hier nicht in jedem Punkt korrekt sein, bitte ich vorauseilend um Entschuldigung. Bürokratie ist inzwischen Instrument politischen Handelns geworden. Die wenigsten der Abgeordneten, die dem EEG 2021 zustimmten, dürften den Inhalt auch nur annähernd umfänglich verstanden haben.

Die Rechnung von Sonne und Wind

Prognosen des DIW und anderer sagten für die 2020er Jahre fallende EEG-Umlagen und insgesamt fallende Strompreise voraus, eben weil ab 2021 viele Anlagen aus der Förderung gehen würden. Nun wird der Druck auf das EEG-Umlagekonto nicht sinken, die Umlage bleibt hoch und wird einen höheren Anteil vom Steuergeld erfordern. Dazu kommen die Einnahmen aus dem Brennstoffemissionshandelsgesetz (BEHG), dessen Wirkung vor allem an der Tanksäule spürbar werden wird. Man rettet also an der Tanke nicht direkt das Weltklima, sondern sichert die Einnahmen der Windmüller. „Rasen für die Windmüller“, hätte die FDP titeln können, aber es hilft auch den anderen EEG-Umlagebeziehern.

Ob die Zwangsbeatmung alter Windmühlen diesen tatsächlich das Überleben sichern wird, ist zweifelhaft. Vermutlich wird der politische Mechanismus einsetzen, den wir von den Auslandseinsätzen der Bundeswehr kennen. Die Regelungen werden vor dem jeweiligen Auslaufen einfach verlängert. Damit wird Realität, was abzusehen war, aber immer von Branche und Politik abgestritten wurde: Die „Erneuerbaren“ sind nicht wettbewerbsfähig und werden es auch nicht sein. Aber wie kann das sein, liegen sie doch in der Tat bei den Strom-Gestehungskosten heutzutage unter den Werten konventioneller Kraftwerke?

Der Grund liegt in den erzielbaren Marktpreisen. Der Strom als besonderes Gut ist dadurch gekennzeichnet, dass er zum Zeitpunkt der Produktion auch verbraucht werden muss. Die Speicheroptionen im Land sind vernachlässigbar. Es gibt inzwischen um die 30.000 Windkraftanlagen im Land und auf See, die bei gutem Wind viel Strom erzeugen. Nach dem Marktgesetz von Angebot und Nachfrage sinkt bei hohem Angebot der Preis. Die Anlagen produzieren den größten Teil ihres Stroms also in Zeiten niedriger Preise. Die Erträge müssen aber die Fixkosten decken und sollen noch Gewinn abwerfen. Mit der festen Einspeisevergütung hatte man eine sichere Kalkulationsgrundlage und, von wenigen Ausnahmen abgesehen, auch ausreichenden bis üppigen Gewinn. Für Anlagen an guten Standorten und bei Errichtung in frühen EEG-Zeiten war es quasi die Lizenz zum Gelddrucken.

Gestehungskosten und Marktpreise sind zwei völlig verschiedene Paar Schuhe. Ist der Strom knapp, rechnet sich auch der Betrieb teurer Gasturbinen für mehr als 12 Cent pro Kilowattstunde, viel Wind sorgt hingegen für niedrige bis zeitweise negative Preise. Wind- und Solaranlagen kannibalisieren sich am Markt schlicht durch ihre hohe und wachsende Zahl. Sie produzieren wetter- oder tageszeitabhängig im Wesentlichen gleichzeitig und drücken so den Marktpreis in den Keller. Von diesem können sie schlecht leben. Selbst moderne Anlagen wären deshalb ohne feste Vergütungszusage nicht lebensfähig.

Technologien, die nach 20 Jahren teils üppigster Förderung nicht ohne Zuschüsse auskommen, werden dies auch nach 23, 25 oder 30 Jahren nicht tun. Die künstlich geschaffenen Boomzeiten gehen nun für immer mehr Anlagen dem Ende entgegen. Der vorgesehene 1-Cent-Aufschlag wird für viele Altanlagen nicht reichen, sobald der Reparaturaufwand steigt. Entsprechend kritisch fallen die Kommentare der Energiewender aus: „Nur eine Not-OP am EEG“ schreibt Klimareporter.de und spricht von EEG-Kosmetik. Es sei „Unsinn abgewendet worden“, sprach Umweltministerin Schulze. Ältere und noch funktionstüchtige Windräder hätten sonst vom Netz genommen werden müssen.

Da stutzt der Bürger und fragt sich, warum die Bundesbahn 1977 ihre Dampfloks stilllegte. Die Loks waren gut erhalten, man hätte sie weiter fahren können. Auch VW bettelte nicht um Staatsgeld oder um eine Umlage von allen Autokunden, als die Produktion des Käfers im Jahr 2003 eingestellt werden musste. Man hätte weiter mit ihm fahren können, aber es wirkte die Marktwirtschaft. In Deutschlands Energiewirtschaft wirkt inzwischen die Klimaplanwirtschaft.

Die EEG-Novelle ist der Offenbarungseid des Scheiterns des jahrzehntelang verkündeten angeblich erfolgreichen Weges zur Dekarbonisierung. Sie zeigt, dass es einen Energieträger- und Strukturwandel auf der Grundlage der bestehenden sozialen Marktwirtschaft und eines EU-weit liberalisierten Strommarktes nicht geben wird. Nötig wäre die globale Schellnhubersche Große Transformation hin zur „klimagerechten“, aber armen Weltbevölkerung. Um das umzusetzen ist Deutschland – zum Glück – zu unbedeutend.

Russisches Gas für amerikanische Autos

Klimaideologie ist zum Maßstab der Gesetzgebung geworden. Gegenwärtig gibt es kaum marktgetriebene Großinvestitionen in der Industrie. Geklotzt wird dort, wo Fördermittel fließen und Staatsgeld Aufträge auslösen hilft, zum Beispiel in den „Reallaboren der Energiewende“.

Kommt ein Investor wie Elon Musk, der den Begriff „Subvention“ vermutlich nicht kennt, wird schneller gebaut, als es die Behörden verkraften. Großer Jubel brach in der Ökoszene nach seiner Entscheidung zur Ansiedlung aus, nicht nur ob der zu erwartenden Massenproduktion „emissionsfreier“ Fahrzeuge, sondern auch, weil Musk seine Fabrik in Grünheide komplett mit Ökostrom betreiben wollte. Die Verfügbarkeit von Ökostrom in Brandenburg sei ein wichtiges Entscheidungskriterium für den Standort gewesen, hieß es. Dieser wurde auch von der Landesregierung zugesagt. Die Energiewender kamen vor Freude kaum in den Schlaf. Eine „Superstory für Brandenburg“ hieß es und man grübelte schon, wo man die vielen neuen Windkraftanlagen hinstellen wolle. Etwa 170 Stück wären nötig gewesen für die durchschnittlich benötigte Strommenge, wobei die Versorgungssicherheit natürlich außen vor bleibt. Professor von Hirschhausen vom DIW folgerte in der in der Branche üblichen Logik, dass man deshalb jetzt schneller aus der Braunkohle aussteigen müsse.

Nach etwas Bedenkzeit ruderte die Landesregierung dann zurück. Auf eine kleine Anfrage im Landtag von Brandenburg hieß es: „Es ist nicht Aufgabe der Landesregierung, die Energieversorgung der künftigen Gigafactory bei Grünheide sicherzustellen.“

109 Megawatt Strombedarf kündigte Tesla für den Betrieb rund um die Uhr an, etwa so viel, wie die Stadt Chemnitz braucht. Helfen sollen dabei Solarzellen, die auf allen Hallendächern angebracht werden sollen, von eigenen Speicheranlagen ist nichts bekannt. Musk weiß natürlich, dass der Strom sicher fließen muss. Und so formulierteer in typisch amerikanischer Unbedarftheit und ohne Rücksicht auf die deutschgrüne Volksseele:

„Wenn der gesamte Verkehrssektor elektrifiziert wird, brauchen wir die doppelte Menge an Strom. Dazu müssen wir die Kapazitäten von Wind-, Solar- und Atomkraftwerken erhöhen“

Der Spruch ging nur sporadisch durch einige Medien, die Ökoszene schwieg und hofft auf baldiges Vergessen. Den Strom und die Wärme für die Gießerei, das Presswerk, die Lackiererei und die zusätzlich geplante Batteriefabrik soll nun aus einem werkseigenen 100-MW-Gaskraftwerk kommen, womit auch die unkalkulierbare Strompreisentwicklung umgangen wird. Bei den europäischen Industriestrompreisen liegen wir zwar nur auf Platz drei, aber da ist noch Luft nach oben.

16.000 Kubikmeter Erdgas pro Stunde gibt Tesla als Bedarf an. Die großen Hauptleitungen Jagal, Eugal, Opal und EuRoPol liegen nur wenige Kilometer vor dem künftigen Werkstor. Darin fließt ausschließlich russisches Erdgas, es kommt vor allem von den Anlandestationen der Nordstream 1 (und 2) bei Lubmin an der Ostsee. Nordstream 2 macht auch diesbezüglich Sinn, denn nicht nur Tesla wird künftig stabile Energie brauchen, sondern ganz Deutschland. Es ist für Amerikaner sicher schwer vorstellbar, dass sich ein Land ohne Not aller seiner einheimischen Energierohstoffe entledigt und aus der Kernkraft aussteigt. Es braucht nun russisches Gas, um amerikanische Autos zu bauen, Dank der deutschen Energiewende. Elon Musk sollte diesbezüglich mit President elect Biden sprechen.

Man sieht, wenn konkreter Bedarf entsteht, sind Wind und Sonne wenig hilfreich. Die CO2-Emissionen Brandenburgs werden nun trotz Kohleausstiegs nicht wie geplant sinken. Sichtbar wird der Webfehler der Energiewende, bei der unzuverlässige Einspeiser dauerhaft gefördert und Versorgungssicherheit missachtet werden.

Deutschland first

Immerhin ist unsere nationale Sicherheit nach der Verabschiedung der EEG-Novelle nicht mehr vom Wind abhängig. Schon der Ansatz, den Begriff „national“ in einem Energiewendegesetz zu verankern, zeigt die Einsamkeit des deutschen Weges. Wird sonst stets der europäische Gedanke (gemeint ist der EU-Gedanke) in den Vordergrund gestellt und für jedes Problem nach einer europäischen (gemeint ist wiederum die EU) Lösung gerufen, bleibt die Energiewende ein deutschnationales Unterfangen. Keine Rede mehr von „Europa ist die Antwort“. Aus Richtung EU akzeptiert man nur schärfere Klimaziele, deren Umsetzung uns am schwersten fallen wird und für deren Nichterreichen wir mit einiger Sicherheit heftig zur Kasse gebeten werden.

Nun thematisieren mehrere EU-Länder, allen voran Frankreich, die Kernenergie als Klimaschutzinstrument. Sie ist entgegen der Darstellungen deutscher Politik und Medien kein Auslaufmodell, sondern erlebt global eine Renaissance. Wir gehen den entgegengesetzten Weg und müssen künftig einen wesentlichen Teil unserer emissionsarmen Stromproduktion emissionsarm ersetzen. Im Jahr 2019 erzeugten die deutschen Kernkraftwerke noch 75 Terawattstunden Strom. Diesen zu ersetzen, würde zusätzliche 17.800 Windkraftanlagen des jetzigen Anlagenparks erfordern, nur um über den Jahresdurchschnitt die entsprechende Menge zu produzieren. Damit wäre noch keine einzige Kilowattstunde Kohlestrom ersetzt und keine zusätzliche Elektrizität bereitgestellt für die zunehmende E-Mobilität, für Digitalisierung und KI, für den Umstieg auf Elektrowärme und die Herstellung grünen Wasserstoffs für Straßen- und Luftverkehr, chemische Industrie, Stahlerzeugung und Rückverstromung. Mit jedem abgeschalteten Reaktor sinkt die Wahrscheinlichkeit einer Dekarbonisierung.

Die Regierungskoalition geht mit diesem halbgaren EEG-Kompromiss den Weg bisheriger Politik. Sie versucht, Probleme im Geld zu ersticken, gewinnt aber damit nur Zeit, bis sie wieder auftauchen. Eine breite öffentliche Diskussion zur EEG-Novelle wird es im Schatten des End-Lockdowns nicht geben. Bundeskanzleramt und Bundeswirtschaftsministerium sollten kräftig quergelüftet werden, ein paar Kniebeugen und Händeklatschen zum Aufwachen wären hilfreich. Oder auch eine Novellierung der Regierung.

Der Beitrag erschien zuerst bei TE hier

Nachtrag der Redaktion

Auch bei dieser Novelle wurde das Parlament, wie auch schon beim Infektionsschutzgesetz planmäßig überrumpelt und ließ diese Überrumperung auch gern zu. Denn, es ist nachzutragen, dass die GroKo erst am 15.12.20 gegen 17:00 Uhr ihren endgültigen Entwurf der Novelle (Ausschussdrucksache 19(9)909) des Erneuerbaren Energien Gesetzes (EEG) den Abgeordneten des Ausschusses für Wirtschaft und Energie zur Überprüfung und Abstimmung zukommen ließ. Dieser sollte dann nur eine Stunde später, in einer Sondersitzung, die 320 Seiten des Gesetzentwurfes prüfen und nach Prüfung seine Abstimmempfehlung abgeben.

Jeder weiß, dass dies für jeden Menschen unmöglich ist und zeigt daher einmal mehr mangelnden Respekt vor dem Souverän in diesem Land, den die gewählten Mitglieder des Bundestages als gewählte Volksvertreter nach unserer Verfassung sind. Der Bundestag verabschiedete dann empfehlungsgemäß diese Novelle am 17.12.20, gelobt von „Energieminister“ Peter Altmeier als  „EEG 2021 sendet klares Zukunftssignal für mehr Klimaschutz und mehr erneuerbare Energien“ , die Zustimmung des Bundesrates erfolgte am 18.12.20, samt Unterzeichnung durch den Bundespräsidenten, so dass sie mit Wirkung vom 1.1.21 in Kraft treten kann.

Der einzige Lichtblick dieses Gesetzesungetüms ist indes die Tatsache, dass der große öffentliche Druck von einigen Medien, Verbänden, einigen mutigen Abgeordneten der CDU, ebenso wie der FDP und vor allem der AfD, offensichtlich die Autoren veranlasste, die heftig umstrittene Formulierung, dass sog. Erneuerbare einen wesentlichen Beitrag zur „öffentlichen Sicherheit“ leisten – ohne Begründung – zu streichen.

Es war allerdings auch reines Orwellsches Doppelsprech, wenn die Regierung in ihrem früheren Entwurf behauptete, und dies gesetzlich festschreiben wollte, dass die Erzeugung und Einspeisung von klar netzstabilitätssenkendem und damit die öffentliche Sicherheit gefährdendem Flatterstrom, die öffentliche Sicherheit erhöhe, gar garantieren würde. Das Gegenteil ist wahr.




Das Hähnchen­grill-Paradoxon

Würden Sie ein solches Angebot tatsächlich annehmen?

Vielleicht würden Sie die Funktionsweise eines solchen Turbobräuners auf das Prinzip eines Hähnchengrills zurückführen, dessen Leistung man einfach auf das ganze Hähnchen inklusive seiner Rückseite herunterrechnet. Und daher könnten Sie zu der Erkenntnis gelangen, dass die Wirkung einer doppelt so großen direkten Strahlungsleistung Ihrer Gesundheit nicht ganz zuträglich wäre. Und genauso berechnet man jetzt umgekehrt einen viel zu geringen Wert für die tatsächliche „natürliche“ Temperatur unsere Erde. Man verteilt nämlich einfach die tatsächliche spezifische Strahlungsleistung der Sonne auf der Tagseite unserer Erde rechnerisch über die gesamte Erdoberfläche, also auch auf deren Nachtseite. Dabei kommt man fälschlicher Weise auf eine „theoretische Globaltemperatur“ von (-18°C) und behauptet, die Sonne sei gar nicht stark genug, um mit ihrer direkten Einstrahlung die gemessenen Temperaturen auf unserer Erde zu erzeugen. Als Erklärung für die Differenz zur sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) postuliert man dann eine ominöse „atmosphärische Gegenstrahlung“, die konstruktionsbedingt jede Differenz zu einer beliebigen NST erklären kann, weil sie quantitativ lediglich an der sogenannten „Abstrahlungstemperatur“ von (-18°C) „festgemacht“ ist. Damit schaltet man dann eben mal den natürlichen Klimaantrieb aus, dessen Einfluss in den vergangenen 420.000 Jahren immerhin um ca. +3°C/-9°C geschwankt hatte. Mit diesem „Hähnchentrick“ beweist man also einen vorgeblich „natürlichen atmosphärischen Treibhauseffekt“ als alleinigen Antrieb unseres Klimageschehens, denn man muss ja immer nur die „Gegenstrahlung“ passend nachjustieren. Die direkte spezifische Strahlungsleistung der Sonne kann auf unserer Erde im äquatorialen Zenit aber eine Maximaltemperatur von bis zu ca. 120°C erzeugen. Abzüglich des durchschnittlich reflektierten Anteils und durch eine Mittelung über die gesamte Erdoberfläche ergeben sich nach herkömmlicher Rechnung aber lediglich -18°C.

Bezogen auf einen Hähnchengrill, bei dem man ebenfalls die Leistung des Heizstrahlers auf das gesamte Hähnchen inklusive seiner Rückseite herunterrechnet, würde das den Unterschied zwischen einem gegrillten (120°C) und einem tiefgefrorenen (-18°C) Hähnchen ausmachen.
(Aus meinem Buch „Mehr geht nicht“ mit Änderungen und Ergänzungen.)

Also, je nachdem, ob man sich auf die tatsächlich bestrahlte Fläche beschränkt oder ob man, wie beim Hähnchen, „aufgrund der Rotation“ fälschlicherweise unbestrahlte Flächen in diese S-B-Inversion einbezieht, kommt man für unsere Erde zu ganz unterschiedlichen „theoretischen“ Temperaturen, von denen nur eine richtig sein kann. Und beim THE-Paradigma wird ohne weitere Erklärung der planare solare Poynting Vektor (Einstrahlung) gegen einen radialen terrestrischen Poynting Vektor (Abstrahlung) ausgetauscht, indem einfach nur mit Beträgen gerechnet wird. Bei meinem hemisphärischen S-B-Modell wird dagegen bei der solaren Einstrahlung auf der Tagseite der Erde der solare Zenitwinkel berücksichtigt.

Definition: Als Temperaturgenese sei derjenige Prozess bezeichnet, mit dem der Vektor (Betrag&Richtung) der Strahlstärke von der solaren Einstrahlungsrichtung zur terrestrischen Abstrahlungsrichtung hin verändert wird. Es ist in einer physikalischen Betrachtung nicht statthaft, die Richtung eines Vektors zu unterdrücken und nur mit seinem Betrag zu rechnen.

ERGO: Mein hemisphärisches S-B-Modell ist das einzige Modell für die Temperaturgenese auf unserer Erde, das die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden kann.

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung abbilden und erfasst damit qualitativ alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Temperaturgenese.

Das Modell einer „Erde ohne Atmosphäre“ orientiert sich am Mond

Die hemisphärische S-B-Inversion ist nicht auf eine ominöse „Erde ohne Atmosphäre“ anwendbar, aus der sich dann ein „natürlicher atmosphärischer Treibhauseffekt herleitet. Nur zur Erinnerung, Klima kommt aus dem Griechischen und bedeutet ‚Krümmung/Neigung [des Sonnenstandes]‘ – und eine solche Neigung des Sonnenstandes gibt es nachts nun einmal nicht. Der unvoreingenommene Betrachter kann das schon daran erkennen, dass der Lichtschutzfaktor der – selbstverständlich nur am Tage – benutzten Sonnencreme üblicherweise umgekehrt proportional zur geographischen Breite des jeweiligen Einsatzortes ist. Eine solche „Erde ohne Atmosphäre“ entspricht übrigens viel eher dem Mond, dessen Tagestemperatur mein hemisphärischer S-B-Ansatz (hier und hier) ganz hervorragend abbilden kann. Dabei ist zu beachten, dass, abweichend von der Situation auf dem Mond, auf der Erde das S-B-Temperaturäquivalent niemals erreicht wird. Denn mit der örtlichen Erwärmung beginnen hier unmittelbar auch Konvektion und Verdunstung, durch die fortlaufend Energie in die globalen Zirkulationssysteme abgeführt wird.

Also noch mal zur Erinnerung der Unterschied zwischen dem S-B-Gesetz und einer S-B-Inversion:

Das Stefan-Boltzmann-Gesetz: Temperatur (primär) => Spezifische Strahlungsleistung (sekundär)

Formel: S=P/A=SIGMA T4

In Worten: Ein schwarzer Körper mit einer gegebenen Temperatur T (>0K) in [K] strahlt zeitgleich eine durch das S-B-Gesetz fest verknüpfte Strahlungsleistung [W] über seine gesamte Oberfläche „A“ in [m²] aus. Die Abstrahlung erfolgt in Richtung der Flächennormalen. Das S-B-Gesetz enthält weder nicht strahlende Flächen „B“ noch Zeit [s] oder zeitlich abgeleitete Mittelwerte [J/s].

Jede Berechnung einer Temperatur (sekundär) aus einer bestimmten Strahlungsleistung (primär) stellt eine Inversion (Strahlung=>Temperatur) des Stefan-Boltzmann-Gesetzes dar, die nur zulässig ist, wenn alle genannten Randbedingungen des S-B-Gesetzes strikt 1:1 erfüllt werden:

Die Stefan-Boltzmann-Inversion: Spezifische Strahlungsleistung (primär) => Temperatur (sekundär)

Formel: T=(S/SIGMA)1/4

In Worten: Eine gegebene spezifische Strahlungsleistung [W/m²] beleuchtet einen (schwarzen) Körper mit einer Oberfläche „A“ in [m²] und erzeugt dort zeitgleich ein über das S-B-Gesetz fest verknüpftes Temperaturäquivalent in T [K], und zwar strikt abhängig vom Einfallswinkel der Strahlungsleistung auf die Fläche „A“. Eine Stefan-Boltzmann-Inversion darf weder unbeleuchtete Flächen „B“ noch Zeit [s] oder zeitlich abgeleitete Mittelwerte [J/s] enthalten.

Die PHYSIKALISCHE Gleichzeitigkeit im Stefan-Boltzmann-Gesetz: Die Zeit „t“ ist NICHT im S-B-Gesetz enthalten. Daher müssen alle mathematischen Prozesse im Zusammenhang mit S-B (S-B-Berechnung, S-B-Inversion) unmittelbar zeitgleich erfolgen.

Die fehlerhafte Durchschnittsberechnung: In einem physikalischen T4-Gesetz folgt eine Durchschnittsberechnung nicht der ursprünglichen Funktion, Beispiel:
0 W/m² entsprechen nach dem S-B-Gesetz -273 °C und 470 W/m² entsprechen 28 °C. Der daraus gemittelte Temperaturwert von etwa -122,5 °C für einen Strahlungsdurchschnitt von 235 W/m² entspricht aber keineswegs der diesem Strahlungswert direkt zugeordneten S-B-Temperatur von -19°C.

Im Stefan-Boltzmann-Gesetz ist der Rechenweg nicht austauschbar:

PHYSIK(=MEAN@S-B-Inversionen[W/m²]) # MATHEMATIK(=S-B-Inversion@MEAN[J/m²s])

In jede Gleichung können Sie ohne Veränderung der mathematischen Lösung beliebige Größen einfügen, solange diese gleichzeitig im Zähler UND Nenner auftauchen, also zum Beispiel:

(Lichtgeschwindigkeit/Lichtgeschwindigkeit) oder (Gewicht der Erde/Gewicht der Erde) oder (Sekunde/Sekunde) oder…

Wenn Sie also auf Ihrem Rechenweg zwischendurch die spezifische Leistung mit Sekunden multiplizieren (=Arbeit [s*W/m²=J/m²]) und am Ende wieder durch Sekunden teilen (Leistung [J/m²s=W/m²]), macht das der Mathematik gar nichts; anders ist es mit der Physik, denn die ist hinterher nicht mehr dieselbe. Denn in der Physik muss der Gegenstand der Betrachtung physikalisch anwesend sein. Beim S-B-Gesetz selbst ist das ganz profan, weil der Schwarzkörper eine ganz konkrete Temperatur besitzt und daher die gleichzeitige spezifische Strahlungsleistung über seine gesamte Fläche „A“ konstant ist. Bei der S-B-Inversion darf dagegen ein Temperaturdurchschnitt nur aus den UNMITTELBAR GLEICHZEITIGEN S-B-Ortstemperaturen berechnet werden, eine MITTELBARE Durchschnittsbildung über die zeitliche Summation/Integration der spezifischen Strahlungsleistung mit nachfolgender S-B-Anwendung ist dagegen nicht erlaubt.

Unbeleuchtete Flächen und zeitliche Ableitungen haben in einer S-B-Inversion nichts zu suchen.

AUFFORDERUNG: Die Faktor4-Tag=Nacht-THE-Fraktion möge den PHYSIKALISCHEN Beweis erbringen, dass das Stefan-Boltzmann-Gesetz (S=P/A=SIGMA T^4) Flächen (B) enthält, die NICHT zur Strahlungsleistung (P) des Schwarzkörpers beitragen.

 

 

ERGEBNIS: Es gibt im streng „gleichzeitigen“ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer „gleichzeitigen“ S-B-Inversion erlaubt. Physikalisch „gleichzeitig“ bedeutet übrigens auch nicht, dass unterschiedliche „Gleichzeitigkeiten“ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften…

Die „zweite Sonne“ im hemisphärischen S-B-Modell sind die Ozeane

Und jetzt betrachten wir einmal, wie sich die Flächen (A=beleuchtet) und (B=unbeleuchtet) auf die sogenannte „gemessene globale Durchschnittstemperatur“ von 14,8°C auswirken. Diese Durchschnittstemperatur NST kann über ihren 24h-Verlauf nur ganz minimal schwanken. Schließlich soll dieser Wert aus weltweit zeitgleich ermittelten Temperaturen berechnet werden und bildet deshalb für jeden Zeitpunkt des 24h-Tages einen globalen Tag&Nacht-Durchschnitt ab. Die Tagseite (A) und die Nachtseite (B) der Erde sind an diesem Durchschnittswert also gleichberechtigt beteiligt. Lediglich die unterschiedliche geographische Verteilung von Land- und Ozeanflächen und deren Position zum aktuellen Stand der Sonne dürften einen merklichen Einfluss auf den globalen tages- und jahreszeitlichen Temperaturdurchschnitt ausüben.

Die Nachtseite unserer realen Erde erhält in der erlebten Realität also keinerlei Sonneneinstrahlung, hat aber trotzdem keine Mond-Temperatur von etwa minus 200°C. Denn die Nachttemperatur hängt im Wesentlichen von der Wärmespeicherfähigkeit des passiv bestrahlten Himmelskörpers ab. Und auf der Erde wird der Nachtseite die erforderliche Wärme von ihrer kombinierten Luft-Wasser-Heizung aus den globalen Zirkulationen (Atmosphäre und Ozeane) zur Verfügung gestellt. Allein die Ozeane, die zwei Drittel unserer Erdoberfläche bedecken, enthalten ein Wärmeäquivalent von etwa 50.000 24h-Tagen Sonneneinstrahlung, und diese Wärmespeicher werden wiederum fortwährend durch die solare Einstrahlung auf der Tagseite unserer Erde „aufgeladen“. In der nachfolgenden Abbildung ist die jahresdurchschnittliche Oberflächentemperatur der Ozeane dargestellt, also der Durchschnitt zwischen Tag und Nacht sowie Frühling, Sommer, Herbst und Winter auf beiden jahreszeitlichen Hemisphären:

Abbildung 2: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA)

Diese Ozean-Daten repräsentieren also schon einmal zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Die mittlere jährliche Oberflächentemperatur der Ozeane liegt bis etwa 70° nördlicher und südlicher geographischer Breite zwischen 0°C – 30°C und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt dürfte also in etwa bei der NST von ca. 15°C kumulieren. Dieser Verlauf bestätigt mein hemisphärisches S-B-Modell, das den 0°C-Durchgang des tagseitigen S-B-Temperaturäquivalentes ebenfalls bei etwa 70° nördlicher und südlicher geographischer Breite berechnet, wie die nachfolgende Abbildung beweist:

Abbildung 3: Das breitenabhängige S-B-Temperaturäquivalent im Äquinoktium

Links: Das vom Zenitwinkel abhängige tagseitige S-B Temperaturäquivalent für 1°-Segmente zwischen 0° und 90° nördlicher und südlicher Breite in [°C]

Berechnungsschema:

Lotrechter Sonnenstand auf dem Äquator,
Berechnung des S-B-Temperaturäquivalents aus der lokalen solaren Einstrahlung auf Mantelringen von 1° Breite mit dem Radius ri und dem Zenitwinkel i nach der Formel:

Der Grenzwert (n->oo) für die Summation über alle Segmente „n“ zwischen 0° und 90° nördlicher und südlicher Breite auf der Tagseite der Erde ergibt sich als meine Korrektur der Integrallösung von G&T (2009) zu 2 x 144,15K = 288,3K = 15,15°C

Rechts: Das maximale breitenabhängige S-B-Temperaturäquivalent über den 24h-Tag

Und nun erkläre bitte irgendein Anhänger der ominösen „Erde ohne Atmosphäre“, wie die globale Nachttemperatur in meinem hemisphärischen S-B-Modell für die reale Erde auch nur auf -18°C oder sogar auf Mond-Temperaturen von ca. -200°C absinken sollte. Die NASA-Abbildung der jährlichen mittleren ozeanischen Oberflächentemperatur weist vielmehr nach, dass die Ozeane genügend Wärme enthalten, um die Nachttemperaturen über die Umgebungsgleichung des S-B-Gesetzes nicht unter ihr eigenes Temperaturniveau absinken zu lassen (Ozean=>Atmosphäre=>Land). Denn schließlich tragen die dort abgebildeten Durchschnittstemperaturen nicht nur zu zwei Dritteln zur globalen Durchschnittstemperatur bei, nachts/im Winter/in höheren geographischen Breiten erfolgt aus diesem Wärmereservoir auch noch ein stetiger Wärmefluss vom Meer zum Land (hier Punkt 6). Auf dem Hamburger Bildungsserver Klimawandel heißt es unter „Ozean im Klimasystem“ bestätigend, Zitat mit Hervorhebungen:
Zwischen Ozean und Atmosphäre herrscht ein ständiger Energie-/Wärmeaustausch: Energie wird immer an das Subsystem gegeben, welches gerade weniger Energie besitzt. Im Sommer/ am Tag ist der Ozean kälter als die Atmosphäre, da diese sich schneller durch die höhere solare Einstrahlung erwärmt. Es wird also Wärme von der Atmosphäre in den Ozean transportiert, der diese speichert. Auch im Winter/ in der Nacht reagiert der Ozean nur sehr langsam auf die viel geringere Einstrahlung. Während die Atmosphäre schon wieder stark abgekühlt ist, ist in der oberen Schicht des Ozeans noch viel Wärme gespeichert und erwärmt somit die über ihm liegende Atmosphäre. Der Ozean dämpft also den Einfluss der Sonneneinstrahlung, sodass Landgebiete in Meeresnähe im Winter eher wärmer, im Sommer kühler als meerferne Gebiete sind. Sie zeigen somit einen schwächeren Jahresgang. Analoges gilt für Tag- und Nachttemperaturen.“

ALSO:Energie wird immer an das Subsystem gegeben, welches gerade weniger Energie besitzt“, und dieser Energietransfer wird durch die S-B-Umgebungsgleichung beschrieben:

DELTA S = SIGMA (T4 – T04)
An dieser Stelle bietet es sich an, auch gleich noch das viel diskutierte Jacken-Paradoxon aufzulösen. Wenn es draußen kalt ist, dann ist die Umgebungstemperatur T0 niedrig, nehmen wir mal 273K; Ihre Körpertemperatur beträgt dagegen 310K. Ihr Körper strahlt also mit DELTA S = SIGMA (3104K – 2734K) und Sie frieren. Wenn Sie jetzt eine Jacke anziehen, erwärmt sich deren Innenseite durch Ihre Körpertemperatur, sagen wir einmal auf 305K, das ist also Ihre neue Umgebungstemperatur. Ihr Körper strahlt dann nur noch mit DELTA S = SIGMA (3104K – 3054K) und Sie frieren nicht mehr, weil Ihr Körper durch die Jacke besser gegen den Wärmeverlust isoliert ist. Die Jacke erhöht also Ihre Körpertemperatur nicht, sondern verhindert lediglich dass Sie auskühlen. Anders ist es, wenn Sie in dieser Jacke Sport treiben. Dann produziert Ihr Körper mehr Wärme, als durch diese Jacke abgeleitet werden kann und Sie fangen an zu schwitzen. Da hilft dann nur noch eine dünnere Jacke, die schlechter isoliert…

Die hemisphärische S-B-Inversion ist ein qualitatives 3D&T-Modell unserer Erde

Da nun einmal die tagseitige solare Einstrahlung als Primärquelle für die Temperaturgenese auf unserer Erde anzusehen ist, stellt die hemisphärische S-B-Inversion ein realistisches 3D&T-Modell unserer Erde dar. Dieses Modell erklärt die Temperaturgenese, die Nachttemperatur und die globale Abstrahlung widerspruchsfrei zu den Hauptsätzen der Thermodynamik, wie die drei nachfolgenden Abbildungen belegen:

Tagseitige Einstrahlung @2PIR² und Temperaturgenese: Die hemisphärische Temperaturgenese folgt dem Sonnenstand auf der Tagseite der Erde:
S0*(1-ALBEDO) * COS(örtl. Zenitwinkel der Sonne)

Abbildung 4: Maximales breitenabhängiges S-B-Temperaturäquivalent im Äquinoktium.

Die Temperatur auf den Landmassen der Nachtseite unserer Erde kann nicht unter die Temperatur der globalen Wärmespeicher absinken und wird durch die S-B-Umgebungsgleichung DELTA S=SIGMA(T4-T04) beschrieben:
Die globalen Wärmespeicher unserer Erde (@T0) verhindern ein Mond-ähnliches Absinken der Nachttemperaturen auf unserer Erde. Der nächtliche Abstrahlungsverlust der Landoberfläche (@T) wird durch Advektion und Kondensation kompensiert.

Abbildung 5: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA).

Globale Abstrahlung @4PIR²:

Der Energiefluss bei der Abstrahlung (@4PIR²) vom Warmen (Erdoberfläche@390W/m²) zum Kalten (Abstrahlungshöhe@235W/m²) gehorcht den Hauptsätzen der Thermodynamik.

Abbildung 6: Die Richtung des Poynting-Vektors im globalen Abstrahlungsmodell (@4PIR2). Mit perspektivisch angepasster Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)

QED: Mein hemisphärisches S-B-Modell geht vom prinzipiellen Unterschied zwischen Tag und Nacht aus und erfordert keinen „natürlichen atmosphärischen Treibhauseffekt“ zur Erklärung der terrestrischen Temperaturgenese. Dieses S-B-Modell liefert vielmehr ein qualitatives Bild von den räumlichen und zeitlichen Veränderungen, die unser globales Klimageschehen bestimmen. Das hemisphärische S-B-Modell wäre also eine einmalige Möglichkeit, die Position der Klimarealisten in der Auseinandersetzung um unserer aller Zukunft zu stärken und die gesamte CO2-Klimahysterie ad absurdum zu führen; meinen damaligen Ausführungen ist also nichts hinzuzufügen…

Das Treibhaus-Paradoxon macht die Nacht zum Halbtag – den Tag aber leider auch…

Aber GLAUBEN Sie mir bitte ja nichts, schon gar nicht mein hemisphärisches S-B-Modell. PRÜFEN Sie vielmehr alles sehr sorgfältig, und widerlegen Sie mein S-B-Modell, indem Sie den wissenschaftlichen Nachweis über eine eindeutige physikalische Tag&Nacht-Gleichheit führen. In der nachfolgenden Tabelle können Sie noch einmal die Unterschiede der beiden konkurrierenden Modelle überprüfen:

Tabelle 1: Direkter Vergleich der konkurrierenden S-B-Modelle für die Globaltemperatur mit meiner Bewertung – können Sie hier vielleicht einen Vorteil für das 4PIR2-THE-Paradoxon erkennen?

2PIR² = Das hemisphärische S-B-Modell 4PIR² = Das THE-Tag=Nacht-Flacherdeparadigma
[Hinweis von Admin: Die in der Tabelle in der rechten Spalte genannten Links konnten im EIKE-Editor nicht übernommen werden. Sie folge hier entsprechend der Numerierung links.

Links: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18.

Ende Hinweis]

Die tatsächliche Abfolge von Tag und Nacht im realen Leben entspricht nicht dem 4PIR2-Tag=Nacht-THE-Halbdunkel, sondern spiegelt vielmehr das Kindergarten-Alltagswissen, nachts sei es dunkler als draußen. Von daher müsste jeder Betrachter erkennen können, dass unsere Sonne ausschließlich am Tage (@2PIR2) Arbeit (=Leistung*Zeit) zu verrichten gewillt ist und nachts (ebenfalls @2PIR2) einfach streikt. Der Ausgangspunkt der herkömmlichen THE-Ableitung, die „-18°C-S-B-Globalinversion“ ist also definitiv falsch, weil sie mit der Tag&Nacht-Realität auf unserer Erde nichts zu tun hat und erst durch das Kunstprodukt „THE“ wieder an diese Realität anzuschließen vermag. Wer also meinen hemisphärischen 2PIR2-Ansatz ablehnt, der möge sich gerne etwas ganz Neues ausdenken; der 4PIR2-Tag=Nacht-THE-Ansatz kann es jedenfalls wirklich nicht sein. Es ist schon sehr erstaunlich, dass der astronomische Gebrauch des Stefan-Boltzmann-Gesetzes für aktiv leuchtende Sterne einstmals kritiklos auf einen passiv bestrahlten Planeten wie unsere Erde übertragen worden ist. Es ist noch erstaunlicher, dass mehr als drei Jahrzehnte intensiv alimentierte Klimaforschung den Unterschied zwischen Tag und Nacht nicht erkannt haben will. Am erstaunlichsten aber ist, dass selbst bei den sogenannten Klimarealisten eine überwiegende Mehrheit diese fehlerhafte S-B-Inversion hochemotional verteidigt.

 




Corona: Gibt es intelligente Lösungen oder nur die unserer Politiker?

Coronadaten

Anmerkung: Warum immer wieder „Corona“? Weil es eine vorgezogene Blaupause für die Maßnahmen zum Klimawandel ist. Genau so Unsinnig und an vielen Fakten vorbei wird auch dort entschieden. Nur, dass man es bei Corona besser erkennen kann.

Lediglich die Zeithorizonte unterscheiden sich und etwas ganz Wichtiges: Bei „Covid“ schmeißen die Politiker das Geld zum Fenster hinaus und es kommt nie wieder zurück. Beim Klimawandel passiert das Erste auch, doch bekommt das Geld gezielt ein bestimmtes Klientel und die anderen müssen es über Jahrzehnte über die Luftsteuer zurückbringen.

Schaut man sich (nur) die Grafiken auf amtlichen Seiten – und die immer verzweifelteren Hilferufe unserer Politiker – an, dann kann einem mit Corona wirklich Angst und Bange werden.

 

Bild 1 Corona-Fallzahlen. Quelle: RKI Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) 16.12.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND

Bild 2 Corona-Daten. Grafik vom Autor erstellt. Quelle: RKI: Die dem RKI übermittelten COVID-19-Fälle nach Meldewoche und nach Geschlecht sowie Anteile mit für COVID-19 relevanten Symptomen, Anteile Hospitalisierter und Verstorbener für die Meldewochen KW 10 – 49

Bild 3 Corona-Daten von Bild 2.Blaue und rote Linie rechte Werteachse. Grafik vom Autor erstellt. Quelle: RKI: Die dem RKI übermittelten COVID-19-Fälle nach Meldewoche und nach Geschlecht sowie Anteile mit für COVID-19 relevanten Symptomen, Anteile Hospitalisierter und Verstorbener für die Meldewochen KW 10 – 49

Bild 4 Corona-Daten, summiert. Anzahl Todesfälle (rot) Maßstab rechte Werteachse. Grafik vom Autor erstellt. Quelle: RKI: Gesamtübersicht der pro Tag ans RKI übermittelten Fälle, Todesfälle und 7-Tages-Inzidenzen nach Bundesland und Landkreis

Erste Zweifel sollten einem jedoch spätestens kommen, wenn man sich die Mühe macht, Verläufe anderer Länder, wie zum Beispiel der Schweiz zu betrachten:

Bild 5 Schweiz: Covid-19 Fallzahlen und Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 13.12.2020. Rote Linie rechte Werteachse. Grafik vom Autor erstellt. Quelle: Covid-19 Schweiz

Auswertung

Die Darstellungen auf den üblichen Dashboards sind in aller Regel so aufgebaut, dass ein Alarm „sichtbar“ ist, Datenhintergründe aber wenig, bis gar nicht erkennbar werden.
Deshalb anbei der Versuch, solche Hintergrundaussagen nachzubilden.

Dazu eine Ableitung der Mortalität der ersten und der zweiten Welle:

Bild 6 Aufteilung der „zwei Wellen“-Darstellung zum Ableiten der Zahlen in Tabelle, Bild 7

Bild 7 Daten von Bild 6 (RKI-Corona-Werte)

Der „Fall Tübingen“

In dieser Stadt hat ausgerechnet der GRÜNE Bürgermeister ein Experiment gewagt, welches aufzeigt, wie sehr an der Wirklichkeit vorbei die globalen Corona-Maßnahmen der hohen Politik sind und vor allem, mit wie wenig Aufwand – aber eben mit Köpfchen – das Coronaproblem in den Griff zu bekommen ist.

Aus irgend einem Grund finden sich ausgerechnet zur Stadt Tübingen keine Coronazahlen! Das hat dazu geführt, dass „Der Tagesspiegel“ aus Berlin – die „Berlinprawda“ als Pendant zur Alpenprawda – sich genötigt sah, ihren „Verriss“ dieser Maßnahmen mit den Zahlen des Landkreises zu „belegen“:
[8] Der Tagesspiegel, 11.12.2020: Statistik-Diskrepanz in Palmer-Aussagen Doch kein Corona-Wunder in Tübingen?
… Anders als von Oberbürgermeister Palmer behauptet, gibt es Infektionen bei den Über-75-Jährigen. Die Landkreiszahlen sind teils sogar höher als in Berlin …
Zum Glück wurde dieser dämliche Artikel nicht über die dpa verbreitet, sonst wäre laut unserem Bundespräsidenten(Versuch) diesem Pamphlet der bewussten Falschdarstellung noch ein „Wahrheitstempel“ aufgedrückt worden (Laut unsrem Präsidentenversuch sagt die dpa immer die reine Wahrheit).

Wie gesagt, finden sich aus irgend einem Grund zur Stadt keine Zahlen. Allerdings veröffentlicht die Uniklinik Tübingen auf ihrer Homepage „ihre“ Corona-Behandlungszahlen.
In der Datennot kann man diese sicher als eine grobe Stichprobe betrachten und die Wahrheit wenigstens im Ansatz ergründen. Aus irgend eine Grund macht es die Uniklinik schwer, deren Hinterlegung auszuwerten, denn die Angaben sind in einer katastrophal ausgeführten Textdatei hinterlegt, deren Umsetzung auf Excel viel, viel händische Nacharbeit erfordert. Für eine Uniklink eigentlich eine Schande und schade. Aber in Deutschland gewöhnt man sich daran und fragt sich nur, woher unsere Politiker ihr „Wissen“ beziehen. Dass diese (oder ihre Büromitarbeiter) sich solche Mühen machen, kann der Autor kaum glauben.

Anbei nun ein Vergleich von Verläufen Deutschland und Stadt Tübingen. Leider fehlen zu Tübingen die „Fälle gesamt“. Die „Fälle“ Uniklinik und „Anzahl hospitalisiert“ sollten aber vergleichbar sein. Auch listet die Uniklinik keine Mortalität. Man muss von einer „Ähnlichkeit“ des Verlaufes Intensivfälle und Mortalität ausgehen (diese stimmt allerdings nicht ganz, da in der zweiten Welle die Mortalität niedriger ist).
Um sich allerdings ein grobes Bild über Erfolg oder Misserfolg zu machen sollte es ausreichen (und es gibt derzeit nichts Besseres):

Bild 8 RKI Deutschlandzahlen

Bild 9 Fallzahlen der Uniklinik Tübingen. Die Differenz von „Fälle gesamt“ zu „Intensivfälle“ sind Patienten auf Bettenstation Grafik vom Autor erstellt. Datenquelle: Uniklinikum Tübingen, Corona-Fallzahlen Behandlungen

Dazu nochmals parallel die Deutschlandwerte mit einem Korrekturversuch der Mortalitätswerte:

Bild 8a RKI-Deutschlanddaten. Anzahl Intensivbehandelt aus der Mortalitätszahl hochgerechnet. Für die 1. Welle mal 2; für die 2. Welle mal 1,5). Grafik vom Autor erstellt

Fazit
In der Stadt Tübingen scheinen in der zweiten Welle im Deutschlandvergleich die Hospitalisierungen und die Sterbezahlen wesentlich niedriger zu sein! Herr Palmer hat also richtig erkannt, wo und wie man zur wirklichen Problemlösung ansetzen muss und dass das verzweifelte, blinde „Schießen mit der Schrotflinte“ nur immens Geld verpulvert, aber nichts bringt.

Gut, weil Klugheit – und sich zu trauen, es auch noch leibhaftig umzusetzen – in seiner Partei mit das Schlimmste ist, was eine Führungskraft haben kann, will ihn seine Partei auch am liebsten „entlassen“. Und die Landesfürsten Deutschlands und unsere Kaiserin interessieren sich sowieso nicht dafür.
Große, aufwühlende Reden zu halten (was unsere unfehlbare Kanzlerin aber definitiv nicht kann, da deren furchtbares Grammatik-Geschwurbel jegliches Zuhören zur Qual macht, Söder damit allerdings „staatsmännisch“ brilliert, weshalb er es so oft wie möglich anbringt) ist werbewirksamer und leichter, als sich in die Niederungen von Lösungsversuchen zu begeben.

Übersterblichkeit“

Immer neu muss man sich klarmachen, dass der totale Lockdown mit einer hohen Übersterblichkeit begründet wird:
[9] … Söder sagte, er könne nicht nachvollziehen, warum in der Öffentlichkeit die hohen Todeszahlen nicht zu mehr Anteilnahme führen würden. Er sprach in diesem Zusammenhang von einer „ethischen Kapitulation“.

Nur, diese „Übersterblichkeit“ ist in den Daten des Statistischen Bundesamtes nicht zu finden. Das „darf“ aber nicht sein. Also hat dieses Amt einfach selbstherrlich festgelegt, dass eine Abweichung vom Mittelwert der letzten 4 Jahre ein Übersterblichkeit begründet.

Um zu zeigen, was die Zahlen dieses Amtes wirklich aussagen, anbei nochmals Grafiken dazu. Muss man sich natürlich selbst erstellen, denn solche sind zu aussagekräftig und belegen die Falschdarstellung des Amtes:

Bild 9a Deutschland, Sterbezahlen der letzten Jahre. Die Covid-Mortalität zugefügt. Grafik vom Autor erstellt. Datenquellen: Statistisches Bundesamt; RKI

Nun sind die Gesamt-Verstorbenen vielleicht nicht ganz aussagekräftig. Also die Grafik für die Hoch-Risikogruppe ab 70 Jahren. Auch bei dieser Gruppe sieht man keine Übersterblichkeit:

Bild 10 Deutschland, Sterbezahlen der letzten Jahre für die Altersgruppe ab 70. Grafik vom Autor erstellt. Datenquellen: Statistisches Bundesamt

Auch die Uni München findet keine Übermortalität

Bei der Uni München gibt es scheinbar noch ein paar „renitente“ Professoren, die nicht bedingungslos die unfehlbare Merkel und den heiligen Landespapst Söder anhimmeln, sondern sich noch trauen, die Zahlen anzusehen und der eigenen Auswertung mehr zu glauben als den Corona-Landtagsreden von Herrn Söder oder den „Verzweiflungsaufrufen“ an das Volk von Frau Merkel.
Deren Bericht zur (nicht vorhandenen) „Übermortalität“ von Corona ist für jeden nachlesbar:
[5] LMU: CoDAG-Bericht Nr. 4 11.12.2020

Den Autor freut es, denn diese Professoren haben genau das gemacht, was der Autor auch laufend durchführt:
[6] EIKE 11.12.2020: Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterblichkeit“ zu finden
[7] EIKE 04. Dez. 2020: Will unsere Regierung ab jetzt bei jeder neuen Grippewelle das Land zugrunde richten?

… und sind dabei zum gleichen Ergebnis gekommen. Auf Achgut gibt es dazu eine kleine Rezension:
[1] Achgut, 16.12.2020: Bericht zur Coronalage vom 16.12.2020 – die totale Angstkommunikation
Die wichtigsten Schlussfolgerungen (Anm.: Originalzitierungen aus der Studie):
1. Todesfälle durch COVID-19 – Adjustiert auf die Einwohnerzahl, zeigt sich keine ausgeprägte Übersterblichkeit
2. Problematische Entwicklung der Fallzahlen bei den Hochbetagten – Die bisherigen Corona-Maßnahmen verfehlen notwendigen Schutz der Ältesten
3. Aktuelle Analysen zum Verlauf der Pandemie: Kein deutlicher Rückgang nach dem Lockdown. Seit der dritten Oktoberwoche gibt es insgesamt einen stabilen Verlauf
Wobei wir als Negativbeispiel wieder beim Robert-Koch-Institut landen. Was sind dessen Corona Lageberichte eigentlich wert? Nehm
en wir den vom 13. Dezember 2020. Das RKI bringt es fertig, uns die täglichen Todeszahlen zu präsentieren, ohne zu beantworten, ob diese Teil des normalen Sterbegeschehens von ca. 2.700 Toten täglich sind oder nicht.
Offensichtlich sind sie es, wie die LMU errechnet, doch wieso interessiert sich das RKI nicht für diese gute Nachricht? Mögliche Corona-Impftote dagegen stellt Lothar Wieler schon einmal 
vorsorglich in den Kontext des normalen Sterbens. Ich muss mich leider wiederholen: Das RKI ist in der Corona-Krise ein Totalausfall.

Aus der Studie einige Grafiken:

Bild 11 [5] LMU: CoDAG-Bericht
Bild 12 [5] LMU: CoDAG-Bericht
 

Bild 13 [5] LMU: CoDAG-Bericht
Das Ergebnis der Studie:
[5] LMU: CoDAG-Bericht: … Die November-Maßnahmen waren nicht hinreichend geeignet die Entwicklung steigender Fallzahlen in der besonders vulnerablen Gruppe der Ältesten zu stoppen. Insgesamt zeigen die Analysen einen Beginn des starken exponentiellen Wachstums in den letzten Septemberwochen. Eine Stabilisierung bei den gemeldeten Ansteckungen gab es schon in der 3. Oktoberwoche, also vor Inkrafttreten des “Lockdown Light” …
Ein deutlicher Rückgang der Zahlen im November ist in keiner der untersuchten räumlichen Ebenen zu erkennen … Problematisch ist, dass die Eindämmung der Entwicklung steigender Fallzahlen in der besonders vulnerablen Gruppe der Ältesten nicht ausreichend gelungen ist …

Ein bisschen Vorbild – ist auch die Schweiz

[1] Achgut: … Peak in der Schweiz schon Ende Oktober erreicht
… Es klingt hart, aber die Politik instrumentalisiert auf diese Weise die Covidtoten, um Grundängste anzuheizen, die sich im Vergleich zu der normalen Sterberate schnell relativieren ließen. Es würde derzeit vielen Menschen mental sehr helfen, davon zu erfahren. Aber wohl nicht den Umfragewerten.
Vielleicht sollte man zum schweizerischen Bundesamt für Gesundheit nach Bern schauen, die machen das nämlich deutlich besser. Zum Beispiel im letzten 
Situationsbericht vom 9. Dezember 2020. Dort erkennt man, dass der Peak schon Ende Oktober erreicht wurde und die Belegungen sinken, und das alles ohne Lockdown. Wir erfahren außerdem die genaue Altersverteilung und das Medianalter der Verstorbenen, welches bei 86 Jahren liegt. 

Anbei einige Grafiken aus der Schweiz, Sehr gut sieht man darin die Altersverteilung::

Bild 14 Schweiz: Laborbestätigte Hospitalisationen, Schweiz und Liechtenstein, 08.06.2020 bis 17.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Bild 15 Schweiz: Laborbestätigte Hospitalisationen nach Altersklassen, Schweiz und Liechtenstein, 08.06.2020 bis 13.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Bild 16 Schweiz: Laborbestätigte Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 17.12.2020, pro 100 000 Einwohner

Bild 17 Schweiz: Laborbestätigte Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 13.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Das ist mit Sicherheit falsch: „Es gebe zwar Alternativen zum Lockdown, „aber keine ist besser

BR24, 15.12.2020: … Der bayerische Ministerpräsident Markus Söder hat in einer Regierungserklärung die Notwendigkeit des Lockdowns ab Mittwoch betont. „Die Lage wird von Tag zu Tag dramatischer“, die Zahlen gingen „sprunghaft“ nach oben, sagte der CSU-Politiker im Bayerischen Landtag. Die Folgen seien „absolut dramatisch“, Corona sei „die Katastrophe unserer Zeit“. Deswegen müsse nun die Notbremse gezogen werden. „Wenn wir jetzt nicht konsequent runterfahren, sind die Schäden enorm.“ Es gebe zwar Alternativen zum Lockdown, „aber keine ist besser“

Dazu lässt sich nur sagen: Entweder spinnen die Zahlen, oder unsere Politiker. Was davon zutrifft, soll jeder Leser für sich entscheiden.

Quellen

[1] Achgut, 16.12.2020: Bericht zur Coronalage vom 16.12.2020 – die totale Angstkommunikation

[2] Achgut, 12.12.2020: Corona-Stellungnahme: Der Lieferservice der Leopoldina

[4] DW, 17.12.2020: Corona-Hotspots abriegeln? In Sachsen liegen die Nerven blank

[5] LMU: CoDAG-Bericht Nr. 4 11.12.2020

[6] EIKE 11.12.2020: Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterblichkeit“ zu finden

[7] EIKE 04. Dez. 2020: Will unsere Regierung ab jetzt bei jeder neuen Grippewelle das Land zugrunde richten?

[8] Der Tagesspiegel, 11.12.2020: Statistik-Diskrepanz in Palmer-Aussagen: Doch kein Corona-Wunder in Tübingen?

[9] FAZ, 03.12.2020: Söder erwägt strengere Beschränkungen von Kontakten

 




Der UN-Klimagipfel: Nach dem Notstand ist vor dem Notstand

Das ist in Corona-Zeiten nicht anders als in jeder anderen Epoche der menschlichen Geschichte. Früher bedurfte es allerdings der Kriegsführung mit Armeen und Waffen, um Herrschaftsansprüche durchzusetzen. Heute erledigen dies supranationale Organisationen, die einst als völkerverbindende Institutionen gegründet wurden, längst aber der globalen Durchsetzung kollektivistischer Ideologien sowie der Etablierung favorisierter Industrien dienen. Sie haben sich zu schlagkräftigen Formationen entwickelt, deren Waffen so vernichtend sind wie Panzer und Kanonen. Ob Weltgesundheitsorganisation, Vereinte Nationen, Weltklimarat oder all die anderen Satelliten, die angeblich zum Wohl der Weltgemeinschaft um die immer gebrechlicher erscheinenden Demokratien kreisen – das Leben der Menschen wird kaum noch dort bestimmt, wo sie zuhause sind. Uniformes Handeln ist das Gebot der Zeit, weil angeblich nur so den vielen Bedrohungen für das menschliche Leben entgegengewirkt werden kann, deren inflationäres Auftauchen ausgesprochen beachtlich ist. Dabei haben sich in der Vergangenheit viele der Weissagungen der selbsternannten Weltverbesserer nicht bewahrheitet, sind vorhergesagte Horrorszenarien ausgeblieben und müssen prognostizierte Weltuntergänge immer wieder verschoben werden. Dennoch glauben ihnen die Menschen.

Wie bei Corona sollen durch die gesetzliche Verankerung des Klimanotstands neue weitreichende Grundrechtseingriffe dauerhaft legalisiert werden

Nun hat UN-Generalsekretär Guterres die Katze aus dem Sack gelassen: Auch nach Corona denkt niemand im herrschenden Olymp daran, die Zügel noch einmal locker zu lassen. Anlässlich eines virtuellen Klimagipfels in London forderte der Portugiese, der einst als Präsident der Sozialistischen Internationalen fungierte und später als UN-Hochkommissar die Flüchtlingsströme organisierte, die Staats- und Regierungschefs aller Länder der Welt mögen umgehend den „Klimanotstand“ ausrufen. Was als symbolische Geste bereits in vielen Städten und Regionen passiert ist, soll auf diese Weise institutionalisiert werden, um per gesetzlicher Verankerung neue weitreichende Grundrechtseingriffe dauerhaft zu legalisieren. Während wir bereits einen erheblichen Teil unserer verfassungsmäßigen Rechte aus „Gesundheitsgründen“ abgegeben haben, wird also bald der Nachschlag zur „Rettung“ des Klimas folgen. Realisten dürfte bewusst sein, dass die Notstandsgesetze, mit denen inzwischen regiert wird, von Dauer sein werden. Gesetze, die einmal da sind, nimmt niemand mehr zurück. Das Damoklesschwert einer vermuteten Pandemiegefahr wird auch nach Corona über der Demokratie schweben. Schon die nächste Grippewelle, vielleicht aber auch nur der Masernausbruch in den Kitas einer Region, könnte die gesetzlichen Mechanismen erneut in Gang setzen. Guterres will dies auch für den sogenannten Klimaschutz erzwingen. Und er hat durchaus gute Karten. Der Notstand soll so lange verhängt werden, „bis Klimaneutralität erreicht ist“. Dass dieser Begriff so unwissenschaftlich ist wie all die anderen Messzahlen, Statistikmodelle und Entscheidungsparameter, die der Klima-, Umwelt- oder Corona-Politik zugrundeliegen, wird inzwischen kaum mehr wahrgenommen.

Es würde die Ärmsten der Armen um Generationen zurückwerfen, wollte man ihnen die unheilvolle Klimaideologie der westlichen Welt aufzwingen

Kern des dramatischen Appells des UN-Generalsekretärs ist der Ruf nach der Vermeidung jeglicher „zusätzlicher Treibhausgase“. Die plumpe populistische Forderung ist gefährlich, weil sie nicht nur auf einem fehlenden Grundverständnis des hochkomplexen Klimasystems beruht, sondern vor allem einen Aktionismus propagiert, der – ähnlich, wie wir es bei den Corona-Maßnahmen erleben – zu unübersehbaren Kollateralschäden führen wird. Die Entwicklungs- und Schwellenländer würden um Generationen zurückgeworfen, wollte man ihnen die Klimaideologie der westlichen Welt aufzwingen. Schon heute konstatieren Experten ernüchtert, dass die Errungenschaften vieler Länder der „Dritten Welt“ – Erfolge im Gesundheitswesen, die Reduzierung der Sterblichkeit sowie der Sprung aus der totalen Armut – in weniger als einem Jahr Corona zunichte gemacht worden sind. Noch weit mehr Ungemach droht den Ärmsten der Armen, sollte das rigide UN-Klimaregime global verordnet werden. Daran ändern auch die von Merkel eilig zugesagten 500 Millionen Euro an weiteren „Klimageldern“ nichts. Milliarden von Menschen haben völlig andere Probleme als die Elfenbeinturmbewohner der westlichen Politik. Und ein „Klimanotstand“ ist ohnehin weit und breit nicht zu sehen. Allenfalls ein Klimawandel, dem wir uns anzupassen haben, wollen wir unser Dasein auch künftig aktiv gestalten. In entwaffnender Offenheit hat einer ausgesprochen, was tatsächlich hinter dem UN-Vorstoß steckt: Der britische Premierminister Johnson versprach Millionen „grüner“ Arbeitsplätze. Es geht um die Etablierung neuer Geschäftsmodelle. Und wie bei Corona soll ein verordneter „Notstand“ die rasche Verwirklichung gegen alle bisherigen Widerstände möglich machen. Welch durchschaubares Spiel.

Zuerst erschienen auf der Liberalen Warte.

Weltchaos

Mein aktuelles Werk Weltchaos erhalten Sie auf Wunsch signiert direkt von mir und darüber hinaus überall im Handel. Die früheren Werke Chronik des Untergangs, Hexenjagd und Das Grauen gibt es ebenfalls im Buchhandel. Spukschloss Deutschland erhalten Sie als Ebook.




Trump nutzt seine verbliebene Zeit, um die Energiewirtschaft zu verändern

Scheidende Präsidenten haben in der Vergangenheit oft ihre letzten Amtswochen genutzt, um offene Fragen zu klären und sich auf den Übergang vorzubereiten. Da Trump die Wahlergebnisse jedoch weiterhin rechtlich in Frage stellt, verteilt er laut US News & World Report auch politische Landminen, die die Agenda des [mutmaßlich] gewählten Präsidenten Joe Biden behindern könnten .

Die Berater des Weißen Hauses sagten, die Regierung werde die Bundespolitik bis zur erwarteten Machtübertragung Anfang nächsten Jahres weiter umgestalten, so die Washington Post. Eine Reihe dieser politischen Änderungen dürfte es der Regierung von Biden schwer machen, diese zu ändern oder in Frage zu stellen.

Die Trump-Regierung hat in letzter Minute Reformen in einem entscheidenden Politikbereich durchgesetzt. In Energie und Klima vertreten der derzeitige Präsident und der gewählte Präsident radikal unterschiedliche Ansichten.

Eine wichtige Ankündigung Anfang dieses Monats, könnte die amerikanische Energiewirtschaft verändern.

Beamte des Bureau of Land Management (BLM) kündigten in einer Erklärung vom 7. Dezember an, dass die Regierung ab dem 6. Januar Bohrrechte im Arctic National Wildlife Refuge (ANWR) in Alaska versteigern wird. Bundesland mit einer Größe von mindestens 400.000 Acres dürfen in Leasingverkäufen durch eine Bestimmung im Tax Cuts and Jobs Act von 2017. angeboten werden.

[Wiki.de: Das Bureau of Land Management ist eine dem US-amerikanischen Innenministerium unterstellte Behörde, der seit ihrer Gründung im Jahr 1946 die Verwaltung und wirtschaftliche Verwertung von öffentlichem Land in den Vereinigten Staaten obliegt.]

(RELATED: Trump Admin Steps Up Pace On First Oil Lease Sale In Alaskan Arctic, Enviros Cry Foul)
(Zum Thema: Trump Admininistration beschleunigt den ersten Verkauf von Ölpachtverträgen in der Arktis Alaskas, Umweltschützer schreien „Foul“)

„Der Kongress hat uns angewiesen, Mietverträge in der ANWR-Küstenebene abzuschließen und wir haben einen bedeutenden Schritt unternommen, um den ersten Vertrag vor Ablauf der gesetzlich festgelegten Frist im Dezember 2021 anzukündigen“, sagte Chad Padgett, Staatsdirektor von BLM Alaska, in einer Erklärung. „Öl und Gas aus der Küstenebene sind eine wichtige Ressource zur Deckung des langfristigen Energiebedarfs unserer Nation und werden zur Schaffung von Arbeitsplätzen und wirtschaftlichen Möglichkeiten beitragen.“

Ein Vorschlag zum Beginn des Leasingprogramms wurde ursprünglich von Innenminister David Bernhardt Anfang dieses Jahres angekündigt und von der republikanischen Alaska Sens. Lisa Murkowski und Dan Sullivan zusammen mit dem republikanischen Gouverneur Mike Dunleavy unterstützt.

Das ANWR ist das größte Naturschutzgebiet des Landes und umfasst rund 350 Tierarten auf mehr als 19.000 Hektar Land. Die Frage, ob in der Zuflucht nach Öl gebohrt werden soll, ist seit Jahrzehnten umstritten, und die öffentliche Debatte konzentriert sich hauptsächlich auf einen Teil des Landes, das als „1002-Gebiet“ bekannt ist und das die Befürworter von Bohrungen für Operationen nutzen möchten.

Laut einem Bericht der Energy Information Administration aus dem Jahr 2009 deckt der ANWR ein Gebiet ab, das zwischen 7 bis 12 Milliarden Barrel Öl enthält . Die Öffnung des Landes für Bohrungen könnte erhebliche wirtschaftliche Auswirkungen nicht nur für den Bundesstaat Alaska, sondern für die gesamte USA haben
(RELATED: Ocasio-Cortez’s Green New Deal Could Be A Huge Boon For China. Here’s How)
(Zum Thema: Der New Green von Ocasio-Cortez könnte ein großer Segen für China sein. Hier ist warum)

Die Trump-Regierung und die republikanischen Verbündeten machten es zur Priorität, die reichlich vorhandenen Energieressourcen der Region zu nutzen. Murkowski schlug ursprünglich vor, eine Änderung des Steuerreformgesetzes von 2017 aufzunehmen, um die ANWR zu öffnen, so der Maine Beacon.

Umwelt- und Tierschutzgruppen verurteilten die Ankündigung jedoch als Entscheidung der Trump-Regierung in letzter Minute, die Industrie für fossile Brennstoffe auf Kosten einer der wichtigsten ökologischen Stätten des Landes anzureichern.

„Dies ist ein beschämender Versuch von Donald Trump, der fossilen Brennstoffindustrie auf dem Weg zur Tür eine letzte Handreichung zu geben, auf Kosten unseres öffentlichen Landes und unseres Klimas“, sagte Michael Brune, Executive Director des Sierra Clubs, am 3. Dezember. „Im Gegensatz zu Donald Trumps politischer Karriere ist der Kampf um den Schutz der Arktischen Zuflucht noch lange nicht vorbei.“

„Heute haben wir die Ölindustrie benachrichtigt“, sagte Jamie Rappaport Clark, Präsident von Defenders of Wildlife, in einer Erklärung vom 3. Dezember . „Alle Ölunternehmen, die auf Pachtverträge für die Küstenebene des Arctic National Wildlife Refuge bieten, sollten sich auf einen harten Rechtsstreit mit hohen Kosten und Reputationsrisiken einstellen.“

Öl- und Gasunternehmen haben nicht öffentlich bekannt gegeben, ob sie beabsichtigen, im Rahmen des Leasingververfahrens zu bieten. Die Coronavirus-Pandemie und die Ölpreisschocks haben nach einem OECD-Bericht vom September auch diese Branche zu Grunde gerichtet, und es ist eher unwahrscheinlich, dass große Unternehmen auf Kapitalinvestitionen in die ANWR drängen.

„Die Preise sind auf ein Niveau gefallen, das nur sehr wenig Kapital für die Exploration in diesen Unternehmen übrig lässt“, sagte der Geologe Mark Myers gegenüber NPR . „Das ist also eines der größten Hindernisse.“

Die Unsicherheit über die neue Regierung könnte auch Öl- und Gasunternehmen vertreiben. Biden ist seit langem gegen Bohrungen im ANWR und seine umfassenderen Klimaziele unterstützen laut The Hill den Schutz des Bundeslandes und die Abkehr von fossilen Brennstoffen.

 (RELATED: Biden’s Green Energy Plan Will Leave The US Dependent On China)
(Bidens Plan für grüne Energie wird die USA von China abhängig machen)

Für Bidens Regierung könnte es Laut NPR jedoch schwierig sein, die Pachtverträge zu widerrufen, wenn sie vor seinem Amtsantritt am 20. Januar abgeschlossen werden. Eine Strategie, die die kommende Behörde  anwenden könnte, besteht darin, die Genehmigungen zu verzögern, bis sich die Energieunternehmen von alleine aufgeben.

Öl- und Gasunternehmen benötigen sowohl Zeit für die Suche nach Ölvorkommen als auch Kapitalinvestitionen, um Infrastruktur aufzubauen und den Betrieb aufrechtzuerhalten, stellte der Bloomberg-Kolumnist Liam Denning in einer Stellungnahme vom 9. Dezember fest . Eine Verlängerung des Genehmigungsprozesses würde sich auf die Kapitalrendite auswirken und die Unternehmen vom Pachten abhalten.

Der frühere Beauftragte für natürliche Ressourcen in Alaska, Andy Mack, argumentierte auch, dass diese Strategie Bidens beste Wahl sein könnte, um ANWR-Bohrungen zu stoppen.

 „Sie würden versuchen, es so schwierig und nervend wie möglich zu machen, eine Reihe von Genehmigungen zu erhalten, dass die Unternehmen nur sagen:‚ Nun, wir werden nicht 10 Jahre damit verbringen, nur zu versuchen, eine einfache Genehmigung zu erhalten. Wir werden unser Geld und unsere Investition woanders hinlegen “, sagte Mack gegenüber NPR .

Die andere Möglichkeit für Biden wäre, sich auf die Justiz zu verlassen. Maßnahmen der Trump-Administration in Bezug auf die Umwelt wurden bereits von Naturschutz- und Stammesgruppen sowie von 15 Staaten rechtlich angefochten, berichtete NPR . Aber vor Gericht zu gehen, wäre ein langwieriger Prozess mit wenig Erfolgsgarantie.

https://dailycaller.com/2020/12/15/trump-biden-energy-industry-arctic-national-wildlife-refuge-leasing-program-drilling/

 

Zum Thema finden Sie auf Eike

Alaska will Öl- und Gasvorräte mit Einvernehmen der Umweltschützer erschließen, zum Nutzen der dort lebenden Menschen

Übersetzt durch Andreas Demmig




Grüne Gruppen sind Chinas „nützliche Idioten“

Laut der Autorin Patricia Adams, einer langjährigen Beobachterin des Landes, hat Peking westliche Umweltgruppen durch eine Kombination aus Zuckerbrot und Peitsche für sich ins Spiel gebracht.

„Wie alle westlichen NGOs dürfen grüne Gruppen nur in China operieren, solange sie sich systemkonform verhalten und die Parteilinie vertreten. Peking kann ihr Verhalten aber auch durch Förderorganisationen wie die Energy Foundation China beeinflussen, eine in den USA ansässige Einrichtung, die Geld von amerikanischen Milliardärsstiftungen verteilt. “

Dieser zweigleisige Ansatz bedeutet, dass westliche Grüne für Präsident Xi praktisch zum Sprachrohr geworden sind.

„Sie loben das Ausmaß der chinesischen Ambitionen in Bezug auf den Klimawandel und kritisieren gleichzeitig Chinas massive Kohleexpansion. Währenddessen blenden die Grünen das Offensichtliche aus; China löst seine internationalen Abkommen nicht ein und beabsichtigt auch nicht, den Verbrauch fossiler Brennstoffe zu senken, ganz im Gegenteil. Während die Welt Chinas eigennützliches Verhalten erkannt hat, schweigen westliche Umweltschützer“, sagt Patricia Adams. „China spielt sie als nützliche Idioten aus.“

Im Original finden Sie hier o.g. Ausarbeitung, in englisch

The Red and the Green: China’s Useful Idiots (pdf)

Eine grobe Übersetzung ins Deutsche finden Sie hier:

Die Roten und die Grünen (pdf)

 

Gefunden auf

https://www.thegwpf.com/green-groups-are-chinas-useful-idiots/

Übersetzt durch Andreas Demmig

 

Zum Thema

Die Untersuchung von Hunter Biden‘s Aktivitäten erfolgt aufgrund  einer Reihe verdächtiger ausländischer Banküberweisungen

Von Rowan Scarborough – The Washington Times – Donnerstag, 10. Dezember 2020

Hunter Biden, ein Sohn des mutmaßlichen gewählten Präsidenten Joseph R. Biden, nutzte einen stetigen Zustrom verdächtiger ausländischer Banküberweisungen in Höhe von mehreren Millionen Dollar, bevor das Justizministerium 2018 eine strafrechtliche Untersuchung einleitete, ob er den Bundessteuern ausweichen konnte.

Die Republikaner des Senats legten von 2014 bis 2017 sein Netzwerk zwielichtiger Begünstigter offen, darunter Oligarchen in Moskau und der Ukraine sowie ein Tycoon, der mit der Kommunistischen Partei Chinas in Peking verbunden ist. Ihr Bericht vom 18. September basierte auf verdächtigen Aktivitätsberichten  über ein Netzwerk zur Durchsetzung von Verbrechen, was beim Finanzministerium eingereicht wurde. Kreditinstitute haben sich an die Behörde zu wenden, wenn sie den Verdacht auf Geldwäsche und / oder Steuerhinterziehung haben.

Transaktionen wie die von Hunter Biden „können eine solche Untersuchung auslösen“, sagte Brett L. Tolman, ein ehemaliger US-Anwalt für Utah. „Normalerweise beginnt es als Geldwäsche oder Steuerhinterziehung, kann sich aber ausweiten.“…

https://www.washingtontimes.com/news/2020/dec/10/hunter-biden-probe-followed-string-suspicious-fore/




Durchmischungs-Schicht in den Ozeanen, Wasser­temperatur SST und Klimawandel

Die Mischschicht ist eine Zone, in der Turbulenzen, verursacht durch Oberflächenströmungen und Wind, das Wasser so gründlich vermischt haben, dass Temperatur, Dichte und Salzgehalt in der gesamten Schicht relativ konstant sind. Ursprünglich wurde die „Mischschichttiefe“, die Bezeichnung für die Basis der Schicht, als der Punkt definiert, an dem die Temperatur 0,5 °C von der Oberfläche abweicht (Levitus, 1982). Dies erwies sich im Winter in der Nähe der Pole als unzureichende Definition, da die Temperatur dort in bestimmten Bereichen bis zu 2.000 m nahezu konstant sein kann, die turbulente Zone der Mischschicht aber nicht so tief ist (Holte & Talley, 2008). Zwei der Gebiete, die bei der Auswahl der Mischschichttiefe mit dem 0,5°C-Kriterium Probleme bereiten, sind der Nordatlantik, zwischen Island und Schottland und im Südlichen Ozean südwestlich von Chile. Die Gebiete sind in Abbildung 1 durch hellblaue Kästen gekennzeichnet.

Abbildung 1. Die Gebiete des Nordatlantiks und des Südlichen Ozeans, in denen die Definition der Tiefe der Mischschicht aufgrund des abwärtsströmenden Oberflächenwassers während des lokalen Winters schwierig ist.

Die in Abbildung 1 gezeigten Regionen sind Gebiete, in denen ein signifikantes Absinken von Oberflächenwasser in die Tiefsee stattfindet. Dies sind nicht die einzigen Gebiete, in denen dies geschieht, aber diese Gebiete enthalten oft nahezu konstante Temperaturprofile für die oberen 1.000 Meter oder sogar tiefer. Abbildung 2 zeigt das durchschnittliche Juli-Temperaturprofil für das Gebiet des Südlichen Ozeans in Abbildung 1.

Abbildung 2. Ein durchschnittliches Juli-Temperaturprofil des Südlichen Ozeans aus der blauen Region, die in Abbildung 1 dargestellt ist. Die Daten, die zur Erstellung des Profils verwendet wurden, stammen aus mehr als 12 Jahren, zentriert auf 2008. Die Daten stammen von NOAA MIMOC.

Wie von James Holte und Lynne Talley erläutert (Holte & Talley, 2008), hat die Tiefenkonvektion in diesem Teil des Südlichen Ozeans das Temperaturprofil so stark verzerrt, dass eine einfache Temperaturgrenze nicht verwendet werden kann, um die Tiefe der Mischungsschicht festzulegen. Im Laufe der Jahre wurden zahlreiche Lösungen für dieses Problem vorgeschlagen, die in ihrem Artikel aufgeführt und diskutiert werden. Das von ihnen vorgeschlagene Verfahren wird von Sunke Schmidtko verwendet, um die Mischungsschicht im NOAA MIMOC-Datensatz zu definieren, der weiter unten diskutiert wird (Schmidtko, Johnson, & Lyman). Die Methode von Holte und Talley ist kompliziert, wie viele der anderen Lösungen auch. Es scheint, dass bis heute kein allgemein akzeptiertes Verfahren zur Definition der gemischten Schicht gefunden worden ist.

Je nach Ort und Jahreszeit ändert sich die Tiefe der Mischschicht. Am dicksten ist sie im lokalen Winter in den höheren Breiten. Dort kann sie sich nach der Logik von Holte und Talley bis zu 400 m unter der Oberfläche oder noch weiter erstrecken, und bei Verwendung der Temperaturgrenze von 0,5 °C noch viel tiefer. Abbildung 3 zeigt eine Karte der Mischschichttiefe im Januar.

Abbildung 3. Mischschichttiefe des Ozeans im Januar nach dem Vergahren von Holte und Talley. Die orangenen und roten Farben kennzeichnen 400 bis 500 Meter. Daten von NOAA MIMOC.

Die Mischungsschichtdicke der nördlichen Hemisphäre wird jedoch in den nördlichen Sommermonaten dünner und in der südlichen Hemisphäre dicker, insbesondere im südlichen Ozean um die Antarktis, wie in Abbildung 4 dargestellt.

Abbildung 4. Die Mischschichttiefe des Ozeans im Juli unter Verwendung des Verfahrens von Holte und Talley. Wieder kennzeichnen die orangenen und roten Farben 400 bis 500 Meter. Daten von NOAA MIMOC.

Die dickeren Zonen der Mischungsschicht treten immer im lokalen Winter auf und erreichen ihren Höhepunkt in der Nähe des 60° Breitengrades, wie in Abbildung 5 zu sehen ist.

Abbildung 5. Durchschnittliche Mischschichtdicke nach Breitengrad und Monat. Die dickste Mischungsschicht wird auf der Südhalbkugel bei etwa 55 Grad Süd erreicht. In der nördlichen Hemisphäre wird der Spitzenwert bei etwa 60 Grad erreicht. Die Mischschichttiefe in diesem Diagramm wurde nach dem von Holte und Talley entwickelten Verfahren berechnet. Daten von NOAA MIMOC.

Die Bedeutung der Mischschicht

Im vorherigen Beitrag wurde betont, dass die gemischte Schicht in thermischem Kontakt mit der Atmosphäre steht, mit einer kleinen Verzögerung von ein paar Wochen. Außerdem hat sie etwa die 22-fache Wärmekapazität der Atmosphäre, wodurch die durch Wetterereignisse verursachten drastischen Änderungen der Lufttemperatur geglättet werden. Wenn man also das Klima betrachtet, das viel längerfristig ist als das Wetter, erscheint die Beobachtung des Trends der Mischschichttemperatur ideal. In Abbildung 6 vergleichen wir die jährlichen globalen Durchschnittswerte der Mischschichttemperatur von Jamstec, MIMOC und der Universität Hamburg mit den globalen Schätzungen der Meeresoberflächentemperatur (SST) von der Hadley Climatic Research Unit (HadCRU) und der NOAA. Das sind keine Anomalien, das sind tatsächliche Messungen, aber sie sind alle korrigiert und gerastert. Ich habe einfach die jeweiligen globalen Raster gemittelt.

Abbildung 6. Die von Jamstec berechnete globale Mischschichttemperatur ist in schwarzer Farbe aufgetragen. Sie wird mit der HadSST Version 4, der ICOADS SST der NOAA und der ERSST der NOAA verglichen. Die Mischschichttemperaturen von NOAA MIMOC und der Universität Hamburg sind nahezu identisch und zentriert auf das Jahr 2006, sie sind als Kästchen gezeichnet, die sich gegenseitig überlagern. Die Daten stammen von den jeweiligen Agenturen.

Eine vernünftige Ozeanabdeckung ist erst seit 2004 verfügbar, daher sind die Jahre davor suspekt. In Abbildung 6 sind alle Daten als Jahresmittelwerte aufgetragen. Die Hadley-CRU-Temperaturen stimmen gut mit dem Jamstec-Datensatz für die gemischte Schicht überein, und überraschenderweise zeigen beide Datensätze ähnliche abnehmende Temperaturtrends von etwa zwei bis drei Grad pro Jahrhundert. Der ICOADS (International Comprehensive Ocean-Atmosphere Data Set) SST-Trend der NOAA ist flach bis steigend und über ein Grad wärmer als die beiden anderen Aufzeichnungen. Die Anzahl der Jamstec-Mischschichtbeobachtungen ist in orange eingezeichnet (rechte Skala), um uns zu helfen, die Datenqualität für jedes Jahr zu beurteilen. Jamstec erreichte im Jahr 2004 150.000 Beobachtungen, und wir waren der subjektiven Meinung, dass dies ausreichend sei.

Die Mischschichttemperaturen von NOAA MIMOC und der Universität Hamburg sind viel niedriger als HadSST und die Jamstec Mischschichttemperaturen. Dennoch fallen diese beiden mehrjährigen Mittelwerte, die auf das Jahr 2006 zentriert sind, entsprechen genau den Aufzeichnung der ERSST SST und liegen über vier Grad niedriger als HaddSST und Jamstec. Der Unterschied kann nicht einfach darin liegen, wo die Temperaturen gemessen werden. Er kann nicht einmal in den Daten liegen, da alle diese Aufzeichnungen fast die gleichen Eingangsrohdaten verwenden, er muss in den Korrekturen und Verfahren liegen.

Die verschiedenen Schätzungen der Mischschichttemperaturen sind unterschiedlich, ebenso die SSTs. Warum sind zwei Aufzeichnungen rückläufig und der Rest gleichbleibend oder steigend? Die verschiedenen Schätzungen stimmen weder bei der Temperatur noch beim Trend überein.

Meeresoberflächen- und Mischschichttemperaturen sollten nicht in Anomalien umgewandelt werden müssen, es sei denn, sie werden mit terrestrischen Temperaturen verglichen. Sie werden alle auf ungefähr der gleichen Höhe und im gleichen Medium gemessen. Alle Datensätze sind global, mit ähnlichen Eingangsdaten. Alle sind gerastert, um die Auswirkungen einer ungleichmäßigen Datenverteilung zu reduzieren. Die Raster sind unterschiedlich groß und die gerasterten Gebiete unterscheiden sich in ihren nördlichen und südlichen Grenzen, aber alle Raster decken alle Längengrade ab. Tabelle 1 listet die Breitengrad-Datengrenzen der Gitter auf, sie sind nicht so unterschiedlich.

Tabelle 1. Die nördlichen und südlichen Datengrenzen für jeden Datensatz im Jahr 2019.

In Abbildung 7 haben wir die HadSST- und ERSST-Anomalien aufgetragen. Wie haben sie diese Anomalien aus den Messungen in Abbildung 6 erhalten?

Abbildung 7. HadSST und ERSST Version 4 Temperaturanomalien.

Der HadSST-Datensatz wird von John Kennedy und seinen Kollegen an der MET Hadley Climatic Research Unit gepflegt (Kennedy, Rayner, Atkinson, & Killick, 2019). Sie stellen fest, dass sich ihr Datensatz von ERSST unterscheidet und geben zu, dass dies auf die Unterschiede bei den Korrekturen und Anpassungen der Rohdaten zurückzuführen ist. Kennedy erwähnt, dass die SST „entscheidend zur Charakterisierung des Klimas der Erde beiträgt.“ Wir stimmen zu. Kennedy schreibt auch:

Eine der größten Unsicherheitsquellen bei Schätzungen der globalen Temperaturänderung ist die Korrektur systematischer Fehler bei Messungen der Meeresoberflächentemperatur (SST). Trotz der jüngsten Arbeiten zur Quantifizierung und Reduzierung dieser Fehler in der gesamten historischen Aufzeichnung bleiben die Unterschiede zwischen den Analysen größer als durch die geschätzten Unsicherheiten erklärt werden kann.“ (Kennedy, Rayner, Atkinson, & Killick, 2019)

Ein Blick auf Abbildung 6 bestätigt, dass diese Aussage richtig ist. Der größte Teil von Kennedys 90-seitiger Studie katalogisiert die Schwierigkeiten bei der Erstellung einer genauen SST-Aufzeichnung. Er stellt fest, dass selbst subtile Änderungen in der Art und Weise, wie SST-Messungen vorgenommen werden, zu systematischen Fehlern von bis zu einem Grad führen können, und das ist die geschätzte globale Erwärmung des 20. Jahrhunderts. Wir glauben nicht, dass die SST-Aufzeichnung von 1850 bis 2005 sinnvoll ist. Die mehrdeutigen Datenquellen (hauptsächlich Schiffsmessungen mit Eimern bis zum Zweiten Weltkrieg und Messungen im Kühlwasser der Schiffsmotoren danach) sowie die ungenauen Korrekturen ersticken jedes potenzielle Klimasignal. Die Daten sind seit 2005 viel besser, aber Abbildung 6 zeigt große Unterschiede in den Zusammenstellungen der verschiedenen Agenturen. Als nächstes überprüfen wir die Definitionen der Agenturen für die in Abbildung 6 dargestellten Variablen.

[Es folgt eine genaue Beschreibung der verschiedenen Datensätze. Wem das zu theoretisch ist, der gehe gleich zum Abschnitt „Schlussfolgerungen“. Weil der Übersetzer aber interessant findet, wie unterschiedlich Temperatur-Rohdaten bearbeitet werden nebst den daraus resultierenden Unterschieden der als „absolut“ angegebenen Temperaturwerte, sind diese Bewertungen hier mit übersetzt. Anm. d. Übers.]

Der HadSST 4-Datensatz des UKMO

Diese Daten wurden aus einer HadSST NetCDF-Datei gelesen. NetCDF-Dateien sind die Art und Weise, wie die meisten Klimadaten geliefert werden. Ich habe in einem früheren Beitrag erklärt, wie man sie mit R (einem hochwertigen kostenlosen Statistikprogramm) liest. Die Variable, die aus der HadSST-Datei gelesen wurde, war mit „tos“ beschriftet, es ist ein 5-Grad-Gitter aus Breiten- und Längengraden, definiert als „Meerwassertemperatur“. Die Dokumentation sagt, dass es sich um die Ensemble-Mitteltemperatur der Meeresoberfläche aus HadSST v4 handelt. Die angegebene Referenz ist die bereits erwähnte Arbeit von John Kennedy (Kennedy, Rayner, Atkinson, & Killick, 2019). HadSST verwendet Daten aus ICOADS Release 3, ergänzt durch Daten von Treibbojen des Copernicus Marine Environment Monitoring Service (CMEMS). Kennedy erwähnt den Unterschied zwischen seinem Datensatz und ERSST v5, der in Abbildung 6 deutlich zu sehen ist. Die SST des Hadley Centre ist auf eine Tiefe von 20 cm korrigiert.

ERSST v5 der NOAA

In Abbildung 6 stellen wir die jährlichen globalen Mittelwerte der ERSST v5 NetCDF-Variable „sst“ dar, die als „Erweiterte rekonstruierte Meeresoberflächentemperatur“ definiert ist. Sie merken an, dass die tatsächliche Messtiefe von 0,2 bis 10 m variiert, aber alle Messungen sind auf die optimale Bojenmesstiefe von 20 cm korrigiert, genau die gleiche Referenztiefe wie HadSST. Wie HadSST bezieht auch ERSST seine Daten aus ICOADS Release 3 und verwendet Argo-Float- und Driftbojen zwischen 0 und 5 m zur Berechnung der SST. Dies ist sinnvoll, da ERSST mit dem Datensatz der Universität Hamburg und den MIMOC (mixed layer)-Datensätzen der NOAA übereinstimmt, die ebenfalls stark auf Argo-Float-Daten beruhen. Wie oben besprochen, sollten die SST (bei 20 cm) und die Mischschichttemperatur fast immer gut übereinstimmen. Die ERSST-Anomalien, die in Abbildung 7 aufgetragen sind, stammen von der Variable „ssta“. Ich habe ssta auf die HadSST-Referenzperiode von 1961-1990 verschoben, von der ursprünglichen Referenz von 1970-2000. Die grundlegende Referenz zu ERSST v5 ist ein Beitrag von Boyin Huang und Kollegen (Huang, et al., 2017).

Wie Kennedy geht auch Boyin Huang direkt auf die Unterschiede zwischen ERSST und HadSST ein. Huang glaubt, dass die Unterschiede auf die unterschiedlichen Korrekturen an den Rohdaten zurückzuführen sind, die vom Hadley Centre und der NOAA angewendet wurden.

NOAA MIMOC

Das globale Mittel der „konservativen Temperatur“ der NOAA-MIMOC ist in Abbildung 6 als Kasten dargestellt, der auf die ERSST-Linie fällt. Sie wird als ein Punkt im Jahr 2006 eingezeichnet, weil der MIMOC-Datensatz Argo- und Bojendaten über mehr als 12 Jahre verwendet, die auf dieses Jahr zentriert sind. Die globale Durchschnittstemperatur all dieser Daten beträgt 13,87°C von 0 bis 5 Meter Tiefe. Die konservative Temperatur ist nicht dasselbe wie die SST. Die SST wird gemessen, die konservative Temperatur wird so berechnet, dass sie mit dem Wärmeinhalt des Wassers in der Mischschicht übereinstimmt und den Salzgehalt und die Dichte des Wassers berücksichtigt. Wir würden jedoch erwarten, dass die SST sehr nahe an der konservativen Temperatur liegt. Da die konservative Temperatur den Wärmeinhalt der Mischungsschicht genauer charakterisiert, ist sie für Klimastudien nützlicher als die SST. Die primäre Referenz für diesen Datensatz ist die bereits erwähnte Arbeit von Schmidtko (Schmidtko, Johnson, & Lyman).

Der Datensatz der Universität Hamburg

Der Datensatz der Universität Hamburg ist MIMOC insofern ähnlich, als dass es nicht nach Jahren unterteilt ist, sondern alle verfügbaren Daten der letzten 20 bis 40 Jahre zusammenfasst, um einen hochauflösenden Datensatz und eine Reihe von Gitterpunkten für die Ozeantemperatur nach Tiefe zu erstellen. Wie ERSST und MIMOC stützt es sich stark auf Argo- und Bojendaten. Die globale Durchschnittstemperatur der oberen fünf Meter der Ozeane in diesem Datensatz beträgt 13,88°C und unterscheidet sich damit kaum vom MIMOC-Wert. Die verwendete NetCDF-Variable ist „Temperatur“. Sie ist definiert als die „optimal interpolierte Temperatur“. In der Dokumentation steht, dass es sich um die SST handelt, nicht um die „konservative Temperatur“. Der Wert ist jedoch nahezu identisch mit der konservativen Temperatur. Die Hauptreferenz für diesen Datensatz ist ein Ocean Science-Artikel von Viktor Gouretski (Gouretski, 2018).

NOAA ICOADS

Die NOAA ICOADS-Linie in Abbildung 6 wurde vom KNMI Climate Explorer heruntergeladen und mit „sst“ beschriftet. Die Beschreibung lautet: „Sea Surface Temperature Monthly Mean at Surface“. Die Daten von ICOADS Version 3 werden in allen anderen hier beschriebenen Datensätzen der Behörde verwendet, aber die Organisation führt nicht viele Analysen durch. Nach eigenem Bekunden bieten sie ein paar „einfache gerasterte monatliche zusammenfassende Werte“ an. Ihre Linie ist in Abbildung 6 als Referenz dargestellt, aber es ist keine ernsthafte Analyse und sollte wahrscheinlich ignoriert werden. Sie hilft zu zeigen, wie ungenau die Daten sind.

Jamstec ML Temperatur

Das Jamstec MILA GPV-Produkt passt gut zu HadSST, wie in Abbildung 6 zu sehen ist. Diese Linie stammt von der NetCDF-Variablen „MLD_TEMP“. Sie ist die zentrale Temperatur der Mischungsschicht. Die Temperatur ist keine echte „konservative Temperatur“, aber die Art und Weise, wie sie berechnet wird, stellt sicher, dass sie nahe diesem Wert liegt. Die Referenz für dieses Produkt ist ein Artikel im Journal of Oceanography von Shigeki Hosada und Kollegen (Hosada, Ohira, Sato, & Suga, 2010). Jamstec verwendet hauptsächlich Argo-Float- und Bojendaten.

Schlussfolgerungen

Die in Abbildung 6 gezeigte Gesamttemperaturspanne beträgt mehr als 5,5 °C, und dennoch gehen diese Agenturen im Wesentlichen von denselben Daten aus. Dies ist kein Versuch, die SST und die Temperatur der gemischten Schicht vor hundert Jahren zu charakterisieren, sondern ein Versuch, uns die durchschnittliche Oberflächentemperatur des Ozeans heute zu sagen. Um Abbildung 6 in die richtige Perspektive zu rücken: Der gesamte Wärmeinhalt unserer Atmosphäre beträgt ungefähr 1,0×1024 Joule. Der Unterschied zwischen der HadSST-Linie in Abbildung 6 und der ERSST-Linie beträgt unter der Annahme einer durchschnittlichen Mischschichttiefe von 60 Metern (von Jamstec) 3,9×1023 Joule oder fast 39% der gesamten Wärmeenergie in der Atmosphäre.

Ich habe keine Ahnung, ob die Temperaturen von HadSST oder von ERSST korrekt sind. Sie können nicht beide korrekt sein. Ich neige zu den ERSST-Temperaturen, da es schwer ist, einen 18-Grad-Ozean in einer 15-Grad-Welt zu haben, aber warum sind dann die HadSST-Temperaturen so hoch? Die wichtigste Variable, um festzustellen, wie schnell sich die Welt erwärmt oder abkühlt, ist die Aufzeichnung der Ozeantemperatur. Seit etwa 2004 haben wir bessere Daten zur Verfügung, aber offensichtlich kein vereinbartes Verfahren, um sie zu analysieren. Wenn es um die globale Erwärmung (oder vielleicht die globale Abkühlung) geht, lautet die beste Antwort: Wir wissen es nicht.

Angesichts der Tatsache, dass die Ozeane 71 % der Erdoberfläche bedecken und 99 % der Wärmekapazität enthalten, sind die Unterschiede in Abbildung 6 enorm. Diese Diskrepanzen müssen aufgelöst werden, wenn wir jemals einen Klimawandel, ob menschlich oder natürlich, feststellen wollen.

[Hervorhebung vom Übersetzer]

I processed an enormous amount of data to make this post, I think I did it correctly, but I do make mistakes. For those that want to check my work, you can find my R code here.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here

Link: https://wattsupwiththat.com/2020/12/13/the-ocean-mixed-layer-sst-and-climate-change/

Übersetzt von Chris Frey EIKE

Anmerkung M.Limburg

Es ist sehr erfreulich, dass nun, 10 Jahre nach meinem Versuch, die unvermeidlichen und fast immer unbekannten systematischen Fehler jeder historischen meteorologischen Messung, in einer Dissertation öffentlich zu machen, deren Ergebnisse eine so umfassend begründete und überzeugende Bestätigung bekommen haben. Dank an Andy May!




Brüsseler Klimabeschlüsse – Wenn Strom zum Luxusgut wird, läuft ziemlich viel falsch

Denn die EU hat beschlossen, ihre „Klimaziele“ wieder einmal zu verschärfen. Bisher galt, daß bis zum Jahr 2030 der Ausstoß von Kohlendioxid (CO2) gegenüber 1990 um 40 Prozent reduziert werden soll. Die neue Marschrichtung heißt: 55 Prozent.

Allerdings verfehlt – bleibt man in der Welt der Klimarechenspiele – Deutschland bereits jetzt seine alten selbstgesteckten „Klimaschutzziele“ deutlich. Sollte der CO2-Ausstoß bis 2020 im Vergleich zu 1990 um 40 Prozent vermindert werden, werden es laut Bundesumweltministerium in diesem Jahr nur 35 Prozent sein. Merkwürdig angesichts der Tatsache, daß sich Deutschland für viele Milliarden eine ruinöse Energiewende leistet und Autoindustrie und Landwirtschaft zerstört.

Brüsseler Klimabelanglosigkeiten wie beim Billigen Jakob

Ein Grund: Deutschland setzt nicht mehr auf Atomkraft. Die gilt als CO2-frei, deswegen steht Nachbarland Frankreich mit seinen vielen Atomkraftwerken CO2-bilanzmäßig so viel besser da als Deutschland, dessen Grüne und CDU doch so gern Vorbild sein möchten. Nun wollen auch Bulgarien, Tschechien, Rumänien mehr Atomstrom und können eines Tages behaupten, klimafreundlicher als das vorreitende Deutschland zu sein.

Im Raum stand sogar, daß Deutschland aufgrund der CO2-Überschreitungen 300 Millionen Euro Strafe nach Brüssel zahlen soll. Doch der Corona-„Shutdown“ erledigt auch die Wirtschaft in solch starkem Maße, daß nach diesen Rechenspielereien auch der CO2-Ausstoß zurückgeht. Das letzte Mal, als Deutschland einen großen Sprung nach vorn in Sachen Klimarechenkunststücken gemacht hat, war nach der Wende mit der Abschaltung der völlig veralteten DDR-Industrie.

Jetzt also wieder Brüsseler Klimabelanglosigkeiten wie beim Billigen Jakob – immer noch eins drauflegen, nein, nicht 40, sondern 55 Prozent. Umweltgruppen forderten sogar eine Reduktion von 60 Prozent  – und insgeheim am liebsten sicher noch mehr.

Der sogenannte Klimaschutz wird noch teurer

Das EU-Parlament war freudig begeistert, als von Kommissionspräsidentin Ursula von der Leyen (CDU) das neue Ziel vor kurzem in ihrer Rede zur „Lage der Union“ vor einem ziemlich leeren Parlament offiziell ankündigte. Der Klimagipfel bedeutete letztlich ein Durchwinken der bereits beschlossenen Richtung.

Für Deutschland heißt dieser Beschluß: der sogenannte Klimaschutz wird noch teurer. Der CO2-Ausstoß hängt direkt vom Energieverbrauch ab, das bedeutet, Benzin, Diesel, Heizöl und Gas werden teurer und sollen über den Preis rationiert werden. In Deutschland bezahlen die Bürger bereits jetzt die höchsten Strompreise, die höchsten Steuern und im kommenden Jahr Abgaben auch für das Luftgas CO2 – auf dem jetzt noch draufgepackt werden soll.

Davon, daß CO2 ein Segen für die Menschheit ist, weil sich die grünen Pflanzen daraus in einer sehr komplizierten Reaktion den Kohlenstoff als Baumaterial für Blätter, Äste und Stämme holen, redet niemand mehr. Für die meisten Pflanzen bedeuten die aktuell 400 Teile CO2 pro eine Million Teile Luft übrigens eine Minderversorgung. Jeder Gärtner weiß: Steigt der CO2 Gehalt, steigt auch das Pflanzenwachstum.

Industrie wird Produktion verlagern

Der Klimabeschluß bedeutet weiterhin, daß die Industrie in Deutschland schneller ihre Produktion verlagern wird, so wie das die energieintensive Industrie schon tut. Die norwegischen Eigentümer der letzten deutschen Aluminiumhütten haben bereits erklärt, nicht mehr in ihre deutschen Werke zu investieren. Die sehr energieintensive Produktion verträgt sich nicht mit den hohen Strompreisen.

BMW hat angekündigt, keine Verbrennermotoren mehr in Deutschland zu produzieren, Diesel und Benziner sollen nur noch in den Werken in Großbritannien und Österreich gefertigt werden. Daimler will gemeinsam mit dem chinesischen Autobauer Geely, dem bereits Volvo gehört, in Europa und China Motoren produzieren. Dabei handelt es sich immerhin um anspruchsvolle Entwicklungsarbeiten, bei denen chinesische Autobauer bisher noch erheblichen Nachholbedarf hatten. Das Know-how, einen modernen Dieselmotor zu bauen, wandert jetzt gewissermaßen gratis nach China.

Wenn Strom zum Luxusgut wird, läuft ziemlich viel falsch. Denn preiswerte und jederzeit verfügbare Energie ist immer Voraussetzung für Prosperität. Nicht umsonst bauen China, Indien und andere aufstrebende Staaten in hoher Zahl Kraftwerke. Sie wissen: Eine Hungersnot aufgrund Energiemangels können sie sich nicht leisten.

Hinter den Brüsseler Beschlüssen steht letztlich: Energie zu rationieren – das ist genau das Gegenteil dessen, was die Voraussetzung für moderne Industriegesellschaften ist. Das heißt nicht, Energie vergeuden. Energie effizient einsetzen ist das tägliche Brot von Ingenieuren. Die Menschheit ist energiehungrig. Ihr aber den „Saft abzudrehen“ heißt, Lebensadern zu durchtrennen.

Ganz offen wird schon über Stromrationierungen geredet

Ganz offen wird hierzulande schon über Stromrationierungen geredet. Nicht unter diesem Namen, sondern unter dem noch schöneren Begriff „Spitzenglättung“. Das bedeutet nichts anderes als abschalten, wenn Windräder und Photovoltaikanlagen in Spitzenzeiten zu wenig Strom erzeugen.

Grüne Politik träumt von Smartmetern, mit denen die Energiezufuhr in die Wohnungen an- und abgeschaltet werden kann. Gebadet werden kann also nicht mehr, wenn man gerade Lust hat oder es nötig ist, sondern wenn der Wind weht. Im Zweifel bekommt der politisch Zuverlässige den Strom, während der andere in die Röhre schaut. Neu wäre das nicht.

Vorsicht gilt vor Sprüchen wie „Nationalen Zielen“ und „Verpflichtungen“, wie sie beim EU-Gipfel wieder herausschwappten; sie enden häufig schrecklich. Ebenso ist höchstes Mißtrauen bei Formulierungen wie „gemeinsam“ angebracht. Es gibt unterschiedliche Interessen, wenig Gemeinsamkeiten. Und an die werden immer in sozialistischen Systemen appelliert.

Der Beitrag erschien zuerst bei JF hier




Woher kommt der Strom? Die Konventionellen müssen übernehmen

49. Woche

(Abbildung, bitte unbedingt anklicken, es öffnen sich alle Abbildungen und Mehr, sowie der Energierechner),

Außer eben, dass er keinesfalls kontinuierlich erzeugt wird. Da Sonnenstromerzeugung in dieser Woche zwar stattfindet, bezogen auf den Bedarf und die installierte Leistung Solar kaum nennenswert ist, müssen die konventionellen Stromerzeuger (Abbildung 1) wieder in weiten Teilen dieser Woche die Stromversorgung Deutschland zum größten Teil übernehmen. Man frage sich, woher der Strom kommen soll, wenn der graue, der braune und der schwarze Balken nicht mehr da sind. Eingedenk der Volatilität der regenerativen Energieträger Wind- und Sonnenkraft gelingt den Konventionellen in dieser Woche die Bedarfsdeckung jedenfalls gut. Wenn allerdings für kurze Zeit nicht genügend Strom in Deutschland erzeugt wird und eine kleine Stromlücke entsteht, so dass der Bedarf nicht gedeckt werden kann, dann kostet der Importstrom (Abbildung 2) auch schon mal 110€/MWh (Höchstpreis der Woche). Wobei der Strommarkt dank der konventionellen Erzeugung diese Woche insgesamt recht ordentliche Preise, die fast immer über 30€/MWh liegen, abwirft. Meist werden sogar Exportstrompreise über 40€, manchmal sogar bis zu annähernd 80€/MWh erzielt. Wer Strom wann importiert, exportiert und welche Preise gezahlt werden, zeigt Abbildung 3. Abbildung 3, die besonders anschaulich zeigt, wie eine bezogen auf die Woche kleine Stromlücke ins „Preiskontor“ Deutschlands schlägt. Da freuen sich Frankreich und die Schweiz, die Niederlande und Dänemark. Sogar Polen liefert Strom nach Deutschland. Strom, für den das Kohleland noch weniger als die Hälfte einige Stunden zuvor an Deutschland gezahlt hat. Als es Strom aus Deutschland importierte. Sie erkennen das an den schwarzen Bereichen in den IMEX-Balken.

Die Charts mit den Im- und Exportzahlen für das aufgelaufene Jahr 2020 sowie den Zahlen der 48. Woche sind unter Abbildung 4 aufgeführt. Der Wochenchart zeigt, dass Deutschland eine Menge Strom aus Frankreich.

Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart (Abbildung 5) belegen nochmal eindrucksvoll, wie die Stromversorgung Deutschlands aussähe, wenn es die konventionelle Stromerzeugung (Kernkraft, Braun- und Steinkohle sowie Gas) nicht gäbe.

Da würde auch eine angenommene Verdoppelung der Wind- und Sonnenstromerzeugung nicht viel weiterhelfen. Abbildung 6 zeigt das für die 48. Woche. Dort können Sie auch die Exceltabelle mit dem kompletten Chart herunterladen.

Die Tagesanalysen

Sonntag, 29.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 23,08 Prozent, davon Windstrom 8,46 Prozent, Sonnenstrom 3,85 Prozent, Strom Biomasse/Wasserkraft 10,77 Prozent. Die Agora-Chartmatrix: Hier klicken.

Den konventionellen Stromerzeugern fiel es heute nicht schwer, ihren Anteil zu Sicherstellung der Bedarfsdeckung Deutschlands zum regenerativ erzeugten Strom hinzu zu produzieren. War der Bedarf doch gering. Genau wie die erneuerbare Stromerzeugung gering war. Die Preise reichten von 36 bis knapp 60€/MWh. Diese Nachbarn importierten aus, exportierten nach Deutschland.

Montag, 30.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 28,83 Prozent, davon Windstrom 17,18 Prozent, Sonnenstrom 3,07 Prozent, Strom Biomasse/Wasserkraft 8,59 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am ersten Werktag der Woche zog über die Windstromerzeugung an. Die konventionelle Stromerzeugung folgte dem Anstieg durch Herunterfahren der Produktion kaum. Die Erzeugung wurde praktisch gehalten. Der überschüssige Strom konnte zu zum Teil mehr als auskömmlichen Preisen verkauft werden. An diese Nachbarländer.

Dienstag, 1.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 22,93 Prozentdavon Windstrom 12,10 Prozent, Sonnenstrom 0,64 Prozent, Strom Biomasse/Wasserkraft 10,19 Prozent. Die Agora-Chartmatrix: Hier klicken

In der Nacht von Montag auf Dienstag kam es schon zum Rückgang der Windstromerzeugung. Am Dienstag ging es weiter Richtung Null Windstromerzeugung. Die Strompreise waren wieder auskömmlich. Auch die Importpreise bewegten sich für Deutschland heute nicht in exorbitante Höhen. Kaum erneuerbar erzeugter Strom, viel konventionell erzeugter Strom, das wirkt auf die Preise. Das bringt Geld. Wenn denn richtig gesteuert wird. Das gelingt den Konventionellen heute nur teilweise. So wird mühsam generierter Ertrag wieder weggeschenkt.

Mittwoch, 2.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 18,24 Prozentdavon Windstrom 6,29 Prozent, Sonnenstrom 1,26 Prozent, Strom Biomasse/Wasserkraft 10,69 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ein Tag des Grauens für die Freunde der Energiewende. Das Wetter will einfach nicht verstehen, dass es im Herbst stürmisch sein soll. Dass die Sonne fast gar nicht scheint, ist hingegen nichts Besonderes. Besonders auffällig sind die beiden Stromlücken, die teuer geschlossen werden müssen. Die konventionellen Kraftwerke bullern auf Hochtouren. Die Pumpspeicher liefern Strom, was das Zeug hält: Es reicht nicht. Also kostet es. Hier noch mal gefragt: Woher soll der Strom kommen, wenn die konventionelle Stromversorgung, nicht mehr da ist?  Der Vollständigkeit halber: Diese Nachbarn machten gute Geschäfte. Österreich gehörte diesmal nicht dazu. Dafür aber Polen. Gratulation. Polnischen Kohlestrom für über 100€/MWh nach Deutschland zu liefern, das ist schon ein Coup. Prosit!

Donnerstag, 3.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 37,79 Prozent, davon Windstrom 27,91 Prozent, Sonnenstrom 0,58 Prozent, Strom Biomasse/Wasserkraft 9,30 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die regenerative Stromerzeugung zieht an. Es entstehen gleichmäßige Stromüberschüsse, da die Konventionellen exakt nachführen. Leider ist in der Vorabendzeit zu viel Strom im Markt, so dass diesmal um diese Zeit nicht der erwartete richtig gute Schnitt gemacht werden kann. Der fand bereits am Vormittag statt, als um 9:00 Uhr 66€/MWh erzielt wurden. Dänemark, Schweden und die Niederlande exportierten nach Deutschland. Ab 7:00 Uhr praktisch nur noch Dänemark und Schweden. Die übrigen Nachbarn kauften Deutschland Strom ab.

Freitag, 4.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 44,70 Prozent, davon Windstrom 34,30 Prozent, Sonnenstrom 1,16 Prozent, Strom Biomasse/Wasserkraft 9,30 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute lässt die regenerative Stromerzeugung über Tag wieder kontinuierlich nach. Die Konventionellen führen vorbildlich nach. Eine feine Leistung der Techniker und Ingenieure. Diesmal klappt auch der „Gute Schnitt“. Zum Vorabend wird ein auskömmlicher Preis erzielt. An diesem Chart erkennt man gut, dass der Preis umso mehr steigt, desto weniger die regenerative Stromerzeugung Strom liefert. Ein Sachverhalt, der immer wieder ins Auge fällt. Diese Nachbarn nehmen Deutschland den Strom ab.

Samstag, 5.12.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 29,05 Prozent, davon Windstrom 16,22 Prozent, Sonnenstrom 2,03 Prozent, Strom Biomasse/Wasserkraft 10,81 Prozent. Die Agora-ChartmatrixHier klicken.

Auch zum Einstieg ins Wochenende wird die regenerative Stromerzeugung so konventionell „aufgefüllt“, dass der Bedarf passgerecht gedeckt werden konnte. Bis 8:00 Uhr liegt der Strompreis um die 35€/MWh. Ab 9:00 Uhr wird er auskömmlich. Diese Nachbarn zahlen.

Eine ´nette` Anekdote schrieb Leser Wagner:

Mein Erlebnis: auf einer Ausflugsfahrt vor der Nordseeküste zu den Seehundbänken erzählt der Kapitän, dass viele Windräder noch nicht angeschlossen sind und keinen Strom liefern. Um das Einrosten(?) Zu verhindern, werden Sie regelmäßig mit Diesel „angeworfen“.

Leser Horst Hauptmann meint:

Windenergieanlagen (WEA) haben Asynchrongeneratoren, die im Weichstart mit Thyristoren zugeschaltet und in der Nähe der Netzfrequenz (Drehzahl) mit einem Generatorschalter fest auf das Netz synchronisiert (zugeschaltet) werden. Je größer die Drehzahldifferenz zwischen Netz und WEA, desto größer der Synchronisierungs-Stromstoß. Mit anderen Worten: Photovoltaikanlagen (PV) und WEA können betrieben werden, weil das Netz mittels konventioneller Kraftwerke stabil gehalten und geregelt wird. Ohne Netz keine Wind- oder Solarstrom. Wenn nach einem Blackout die Netze wieder angefahren werden müssen und keine konventionellen Kraftwerke zur Verfügung stehen, kann man den Netzaufbau vergessen* oder er dauert ewig, weil die Netze vom Ausland her aufgebaut werden müssten (sofern dort noch konventionelle Kraftwerke vorhanden und am Netz sind). Wie man die Leistungsbilanz von WEA und PV im Inselbetrieb stabil halten will, die Frequenz regeln, die immer ziemlich genau 50 Hz (Abbildung 7) betragen muss, ist mir ein Rätsel.  […] 

*Deshalb haben große konventionelle Kraftwerke gewaltige Batteriespeicher „nebenan“. Die dienen der Glättung der Netzfrequenz mittels Regelenergie und der Herstellung der Schwarzstartfähigkeit des Großkraftwerks.

Im Zusammenhang mit der in den vergangenen Wochen angesprochenen Elektromobilität, möchte ich noch auf Abbildung 8 verweisen, unter der Sie die aktuellen Zulassungszahlen E- und Hybridautos finden, die Leser Peter Hager zusammengetragen hat.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de Aber bitte immer höflich. Ist klar, nicht wahr?

Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt fast fünf Jahre den Politikblog  www.mediagnose.de

 




Temperatur der Meeresoberfläche

Der Versuch, die Richtung, Geschwindigkeit und Ausmaß des Klimawandels durch Messung und Mittelwertbildung der atmosphärischen Oberflächentemperaturen aufzuzeigen, ist meiner Meinung nach sinnlos. Die Aufzeichnungen, die wir über die atmosphärischen und ozeanischen Oberflächentemperaturen haben, sind zu kurz und viel zu ungenau, um uns nützliche Trends auf einer klimatischen Zeitskala (30 Jahre +) zu liefern. Außerdem handelt es sich bei diesen Aufzeichnungen um sporadische Messungen in einer chaotischen Oberflächenzone, die große Temperaturschwankungen aufweist. In Montana, USA, zum Beispiel, lag die Tiefst- und Höchsttemperatur in letzter Zeit bei -57°C bzw. 47°C. Diese enormen Schwankungen machen es äußerst schwierig, globale Durchschnittsunterschiede von 0,1 °C von Jahr zu Jahr zu messen. Dies ist jedoch die Genauigkeit, die erforderlich ist, um ein Klima richtig zu charakterisieren, das sich nur mit einer Rate von etwa 1,4°C pro Jahrhundert erwärmt, was 0,014°C pro Jahr und 0,14°C/Dekade entspricht.

Die Messungen sind besonders nützlich für die Vorhersage des Wetters, aber ungeeignet für die Messung von Änderungen von weniger als einem halben Grad über klimatische Zeitspannen. Wir müssen für diesen Zweck etwas Stabileres und weniger Chaotisches messen. Dieser und der nächste Beitrag zeigen, dass die Mischschicht im Ozean für diese Aufgabe gut geeignet zu sein scheint.

Meiner Meinung nach müssen wir, um die Richtung und Geschwindigkeit der globalen Erwärmung richtig in den Griff zu bekommen, die Temperaturveränderungen im Ozean betrachten. Besonders die Teile des Ozeans, die in ständigem Kontakt mit der Atmosphäre stehen. Bei sehr langfristigen Klimaveränderungen, d.h. über einen Zeitraum von tausend Jahren, ist der gesamte Ozean betroffen. Aber für Zeiträume von hundert Jahren oder weniger haben wir es hauptsächlich mit den oberen paar hundert Metern des Ozeans zu tun.

Das Temperaturprofil des oberen Ozeans ist sehr komplex. Dies wird durch die schlechte Qualität unserer Messungen der Oberflächentemperatur des Ozeans erschwert, insbesondere vor der Einführung von Argo-Bojen und anderen Bojenmessungen im Ozean wie den Triton-Bojen in den letzten 20 Jahren. Schiffe decken nur einen begrenzten Bereich des Ozeans ab und die Tiefe, Konsistenz und Qualität ihrer Temperaturmessungen sind unsicher. Satellitenmessungen des obersten Teils des Ozeans sind möglich, aber diese Messungen werden durch den so genannten Ozean-Skin-Effekt erschwert.

Die Ozean-Haut

An der Ozean-Luft-Grenzfläche ändern sich die Temperaturen schnell. Das Ausmaß der Änderung und die Dicke der betroffenen obersten Ozeanhaut wird durch die Bewölkung, ob es Tag oder Nacht ist, und die Windgeschwindigkeit bestimmt. Diese „Haut“ ist an ruhigen, wolkenlosen Tagen dicker und in der Nacht und an windigen, bewölkten Tagen dünner. Die Temperatur an der Ozean-Luft-Grenzfläche („SST“) ist das, was von Radiometern und Satelliten gemessen wird. Leider ist die Beziehung zwischen dieser Temperatur und der stabileren Temperatur der gemischten Schicht oder der „Basistemperatur“ unbekannt. Die Beziehung ändert sich schnell und ist kompliziert. Es wurden verschiedene Modelle vorgeschlagen (Horrocks, O’Carroll, Candy, Nightingale, & Harris, 2003), aber keines hat die erforderliche Zuverlässigkeit und Genauigkeit.

Erschwerend kommt hinzu, dass sich direkt an der Oberfläche eine Population von Cyanobakterien befindet, die daran arbeitet, die Temperatur zu verändern und den Salzgehalt des Oberflächenwassers zu senken (Wurl, et al., 2018). Das Problem der Meeresoberflächentemperatur lässt sich am besten mit dem Diagramm in Abbildung 1 veranschaulichen, das von der Group for High Resolution Sea Surface Temperature (GHRSST) stammt. Sie sind bestrebt, die Hautschicht des Ozeans zu verstehen, damit Satellitenmessungen der Meeresoberflächentemperatur angemessen mit gemessenen Ozeantemperaturen kombiniert werden können.

Abbildung 1. Das GHRSST-Diagramm der Temperatur an der Meeresoberfläche. Die Meeresbedingungen, insbesondere die Windgeschwindigkeit und die Tages- oder Nachtzeit, können einen Unterschied von 2,5 °C oder mehr im Temperaturgradienten von der Oberfläche zur Temperatur des Untergrunds (stabiler Teil der Mischschicht) ausmachen. Die Tiefe bis zum oberen Ende des stabilen Teils der Mischschicht kann zwischen Null und 10 Metern variieren. Quelle: GHRSST.

Der Temperaturunterschied zwischen der SST und dem stabilen Teil der Mischschicht kann täglich drei bis sechs Grad betragen (Wick & Castro, 2020). Wie Gary Wick und Sandra Castro erklären:

Der Tageszyklus der Sonneneinstrahlung führt zu einer periodischen Erwärmung der oberflächennahen Schicht des Ozeans. Bei geringen Windgeschwindigkeiten wird die turbulente Durchmischung reduziert und es kann sich tagsüber eine warme Schicht und eine tageszeitliche Thermokline nahe der Meeresoberfläche bilden. In der Nacht wird diese Schicht durch die Durchmischung normalerweise abgetragen. Während die Amplitude der täglichen Erwärmung im Durchschnitt relativ klein ist [0,5 K], kann die Erwärmung an der Oberfläche, die von Satelliten erfasst wird, unter Bedingungen mit sehr niedrigen Windgeschwindigkeiten und ausreichender Sonneneinstrahlung sehr signifikant sein… In-situ-Beobachtungen haben eine Erwärmung von mehr als 5 K in Tiefen von 0,3-0,6 m gezeigt. Satellitenbeobachtungen von mehreren Sensoren haben extreme Erwärmungsereignisse von bis zu 7 K an der Oberfläche beobachtet, und es wurde vermutet, dass Ereignisse von mehr als 5 K nicht selten sind.“ (Wick & Castro, 2020)

Die Temperaturen im Zitat sind in Kelvin (K) angegeben und entsprechen Grad Celsius. Der Hauptpunkt ist, dass außergewöhnlich große Unterschiede in der SST des Ozeans bei ruhigen Bedingungen an klaren (wolkenlosen) Tagen auftreten. Abbildung 1 zeigt, dass die Temperaturerhöhungen das Wasser bis zu einer Tiefe von zehn Metern betreffen können. Aber Unterschiede von mehr als 0,5 °C sind fast immer auf den obersten Meter des Ozeans beschränkt. Wie wir im nächsten Beitrag über die gemischte Schicht sehen werden, werden diese bekannten Hautanomalien in Ozeantemperatur-Datensätzen ignoriert. Sie haben oft eine Messung, die als Nulltiefe gekennzeichnet ist, aber sie wird unter der Oberfläche gemessen, normalerweise in einer Tiefe von 20 cm oder mehr. Die Temperatur der Mischschicht wird oft als die Temperatur der Schicht definiert, die eine Temperatur innerhalb von 0,5°C der Oberflächentemperatur hat (Levitus, 1982). Dies ist nicht genau, gemeint ist die Temperatur des Ozeans direkt unter der Oberfläche, vielleicht 20 bis 100 cm. Außer an klaren, windstillen Tagen wird dies die „Grundtemperatur“ sein. In der Nacht und an bewölkten oder windigen Tagen wird die Temperatur immer die „Fundament“-Temperatur sein.

Die Mischschicht hat aufgrund der turbulenten Vermischung homogene Eigenschaften und die Verwendung einer Temperaturdifferenzgrenze von 0,5 °C ist eine bequeme Definition, die jedoch im Winter in der Nähe der Pole versagt, wo eine komplexere Definition erforderlich ist. Es wurden zahlreiche Methoden vorgeschlagen, zu viele, um sie hier aufzulisten, aber die komplexe Methode, die von James Holte und Lynne Talley (Holte & Talley, 2008) beschrieben wurde, wird derzeit bevorzugt. Ihre Technik wird heute weithin verwendet, um eine „Mischschichttiefe“ zu wählen, d. h. den Boden der Mischschicht. Sie ist notwendig, weil in den Polarregionen im Winter die tiefe Konvektion, angetrieben durch den Wärmeverlust an der Oberfläche, die Wassersäule bis zu 2000 Meter oder noch tiefer durchmischen kann. Wie wir im nächsten Beitrag sehen werden, wird in diesen Bereichen die Wärmeenergie von der Oberfläche in die Tiefsee übertragen.

Es gibt viele Ozeantemperatur-Datensätze, und wir werden die Daten von mehreren von ihnen im nächsten Beitrag diskutieren. Abbildung 2 ist eine Darstellung der globalen durchschnittlichen Dezember-Ozeantemperaturen von der Oberfläche bis zu 140 Metern aus den Datensätzen der Universität Hamburg. Diese Darstellung veranschaulicht die besprochenen Begriffe des Temperaturprofils mit echten globalen Daten.

Abbildung 2. Globales durchschnittliches Dezember-Temperaturprofil von der Oberfläche bis 140 Meter. Diese Grafik zeigt die „Basis“-Temperatur in der Mischschicht. Die Temperatur ist von der Oberfläche bis etwa 20 Meter nahezu konstant und beginnt dann zu sinken. Sobald sie sich um 0,5 °C von der Temperatur knapp unter der Oberfläche unterscheidet, ist die „Mischschichttiefe“ erreicht. Datenquelle: Universität Hamburg.

Die von der Universität Hamburg ausgewiesenen Temperaturen sind Durchschnittstemperaturen über mehr als 12 Jahre und repräsentieren nicht ein bestimmtes Jahr. Die NOAA-MIMOC-Temperaturen, die wir im nächsten Beitrag betrachten werden, sind die gleichen. Abbildung 3 zeigt das durchschnittliche Jahr der Messungen und die Standardabweichung der Jahre.

Abbildung 3. Die in Abbildung 2 verwendeten Daten stammen nicht aus einem einzigen Jahr, sondern sind der Durchschnitt der Daten aus über 12 Jahren. Das zentrale Jahr für jede Tiefe ist blau dargestellt (linke Skala) und die Standardabweichung aller verwendeten Jahre ist orange dargestellt (rechte Skala). Datenquelle: Universität Hamburg.

Sowohl die Universität Hamburg als auch die NOAA räumen ein, dass die den Großteil ihrer Rohdaten ausmachenden Argo-Daten spärlich sind. Es gibt einen Schwimmer pro 3° Breiten- und Längengrad (~84.916 Quadratkilometer bei 40° Nord oder Süd, der alle zehn Tage ein vollständiges Profil an uns sendet. Die Universität und die NOAA haben beschlossen, dass sie, um den Mangel an Daten zu bekämpfen, monatliche Durchschnittswerte aller Daten, die sie finden konnten, zusammenstellen sollten. Wie wir im nächsten Beitrag sehen werden, treten die großen Veränderungen in der Mischschicht je nach Monat und Ort auf, so dass dies durchaus Sinn macht.

Oberhalb der Fundament- oder Mischschicht gibt es weitere Zonen, die in Abbildung 1 gekennzeichnet sind. Diese werden von GHRSST wie folgt definiert. Ich habe den GHRSST-Text der Übersichtlichkeit halber bearbeitet, der Originaltext kann hier eingesehen werden.

Die Grenzflächentemperatur (SSTint)

An der exakten Luft-Meer-Grenzfläche wird eine hypothetische Temperatur, die sogenannte Grenzflächentemperatur (SSTint), definiert, die allerdings keinen praktischen Nutzen hat, da sie mit heutiger Technik nicht gemessen werden kann.

Die Hauttemperatur der Meeresoberfläche (SSTskin)

Die Meeresoberflächentemperatur (SSTskin) ist definiert als die von einem Infrarot-Radiometer gemessene Temperatur, die typischerweise bei Wellenlängen von 3,7 bis 12 µm (aus Gründen der Konsistenz mit den meisten Infrarot-Satellitenmessungen gewählt) gemessen wird und die Temperatur innerhalb der leitfähigen, von Diffusion dominierten Unterschicht in einer Tiefe von ~10-20 Mikrometern darstellt. SSTskin-Messungen unterliegen einem großen potenziellen Tageszyklus, der Auswirkungen der kühlen Hautschicht (besonders nachts bei klarem Himmel und geringer Windgeschwindigkeit) und solche der warmen Schicht während des Tages beinhaltet.

Die Unteroberflächentemperatur der Meeresoberfläche (SSTsub-skin)

Die Subskin-Temperatur (SSTsubskin) stellt die Temperatur an der Basis der leitfähigen laminaren Unterschicht der Meeresoberfläche dar. Für praktische Zwecke kann die SSTsubskin gut an die Messung der Oberflächentemperatur durch ein Mikrowellenradiometer angenähert werden, das im Frequenzbereich von 6-11 GHz arbeitet, aber die Beziehung ist weder direkt noch invariant gegenüber wechselnden physikalischen Bedingungen oder der spezifischen Geometrie der Mikrowellenmessungen.

Die Oberflächentemperatur in der Tiefe (SSTz oder SSTdepth)

Alle Messungen der Wassertemperatur unterhalb der SSTsubskin werden als Tiefentemperaturen (SSTdepth) bezeichnet, die mit einer Vielzahl von Plattformen und Sensoren wie driftenden Bojen, vertikale Profile messende Bojen (wie Argo) oder tiefen Thermistorketten in Tiefen von 10 bis 750 m (wie Triton und Tao) gemessen werden. Diese Temperaturbeobachtungen unterscheiden sich von denen, die mit Fernerkundungstechniken (SSTskin und SSTsubskin) gewonnen werden und müssen durch eine Messtiefe in Metern qualifiziert werden.

Die Basistemperatur (SSTfnd)

Die Basis-SST, SSTfnd, ist die Temperatur, die frei vom Tagesgang der Temperatur ist. Das heißt, die Oberseite des stabilen Teils der Mischschicht. Nur die In-situ-Kontaktthermometrie kann die SSTfnd messen.

Schlussfolgerungen

Zusammenfassend lässt sich sagen, dass die SST und die Lufttemperaturen zu sehr vom Wetter und der tageszeitlichen Variabilität beeinflusst werden, um Klimaveränderungen zuverlässig und präzise zu messen. Die Gesamttemperaturen des Ozeans oder der Tiefsee geben uns einen Hinweis auf lange klimatische Veränderungen von tausend Jahren oder mehr, aber sie sagen uns wenig über Veränderungen im Hundert-Jahre-Zeitraum.

Die ozeanische Mischschicht ist eine Zone, die zwischen einem Millimeter und etwa zehn Metern unterhalb der Meeresoberfläche beginnt. Oberhalb dieser Tiefe werden die Temperaturen Minute für Minute von der Atmosphäre und dem Sonnenlicht beeinflusst. Nachts bewegt sich die Oberseite der Mischschicht näher an die Oberfläche, kann aber durch Windgeschwindigkeit, Niederschlag und Bewölkung beeinflusst werden. Unterhalb des oberen Teils der Mischschicht ist die Temperatur stabiler als in der Atmosphäre und an der Meeresoberfläche. Die Temperatur, der Salzgehalt und die Dichte der Schicht sind aufgrund von Turbulenzen von oben nach unten nahezu konstant. Sie spiegelt die Oberflächentemperaturen wider, ist aber eine Funktion des Durchschnitts der vorangegangenen mehreren Wochen. Die Dicke der gemischten Schicht variiert saisonal von einigen zehn Metern bis zu mehreren hundert Metern. Wir werden die gemischte Schicht im nächsten Beitrag ausführlicher behandeln.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here.

Link: https://andymaypetrophysicist.com/2020/12/09/sea-surface-skin-temperature/

Übersetzt von Chris Frey EIKE

Anmerkung: Der wiederholt angesprochene nächste Beitrag erscheint demnächst ebenfalls hier in deutscher Übersetzung.