1

Kohlendioxid hält in Bayern einen Dauerschlaf

Wir fragen uns: Wie verhalten sich die Temperaturen?

Schauen wir uns zunächst die Temperaturentwicklung des größten Bundeslandes seit über 100 Jahren an:

Abb.1: Seit 1898 wurde es wärmer in Bayern. Gleichzeitig stieg auch der CO<sub>2</sub>-Gehalt der Atmosphäre von damals geschätzten 290 ppm auf heute 417 ppm.

Doch betrachten wir die Temperaturkurve näher, dann sehen wir erst im letzten Viertel der Grafik einen Anstieg, während die CO2-Kurve gleichmäßig gestiegen ist, zu Beginn leicht nach dem Kriege jedoch immer deutlicher.

Deshalb unterteilen wird den Temperaturverlauf Bayerns in 2 Abschnitte:

a) 1898 bis 1987 und vergleichen mit der CO2-Anstiegskurve im selben Zeitraum

b) Seit 1988 bis heute

Abb. 2: Die Jahrestemperaturen Bayern blieben von 1898 bis 1987, also 90 Jahre lang ziemlich gleich, die Trendlinie ist eben. Im gleichen Zeitraum sind die CO<sub>2</sub>-Konzentrationen der Luft von knapp unter 290 ppm auf 350 ppm gestiegen.

Ergebnis: Trotz des Anstiegs der CO2-Konzentrationen sind die Jahrestemperaturen in den 90 Jahren des Betrachtungszeitraumes nicht gestiegen. Demnach hat CO2 keinen oder kaum einen Einfluss auf die Jahrestemperaturen in Bayern.

B) Der Zeitraum von 1988 bis heute in Bayern.

Abb.3: Seit 1988 bis 2020 sind die Jahrestemperaturen in Bayern plötzlich stark gestiegen. Ein Temperatursprung verbunden mit einer allgemeinen Klimaerwärmung setzte ein.

Die Frage ist: Was sind die Gründe dieser plötzlichen Erwärmung?

Der kleine Temperatursprung von etwa einem halben Grad im Jahre 1988 hat natürliche Ursachen, denn Kohlendioxid sorgt für keine Temperatursprünge. Das wird auch von niemandem behauptet. Jedoch: Die Weitererwärmung Bayerns seit 1988 korreliert durchaus mit der zunehmenden globalen CO2-Kurve. Doch handelt es sich hierbei um einen Zufallskorrelation, die Begründung des Zufalls ist wissenschaftlich einfach zu führen: Da die kontinuierliche CO2-Zunahme von 1898 bis 1987 zu keiner erkennbaren Erwärmung führte, scheidet Kohlendioxid auch als hauptsächlicher Erwärmungsgrund für die letzten 33 Jahre aus. Wir müssen nach anderen Erwärmungsgründen suchen. Die Erklärung gestaltet sich somit wesentlich schwieriger als angenommen.

Auf der Suche nach Lösungen unterteilen wir die Jahrestemperaturen in die Jahreszeiten. Vor allem die drei Sommermonate im Vergleich zu den 3 Wintermonaten liefern erste Lösungsansätze.

Abb. 4a/b: Vor allem die drei Sommermonate sind in Bayern seit 1988 wärmer geworden, während sich die drei Wintermonate im Schnitt aller DWD-Wetterstationen weniger erwärmt haben. Insgesamt erhöht sich damit der Jahresschnitt.

Versuch einer Erklärung der Sommer- Winterunterschiede:

Global wirkende Klimagründe kann man wohl weitgehend ausschalten, denn eine eventuell stärker wirkende Sonne oder eine Vermehrung an kosmischen Teilchen kann nicht jahreszeitenbedingt und auch nicht nur in Bayern wirken. Auch eine allgemeine Verschiebung von Klimazonen nach Norden müsste sich ebenso im Winterhalbjahr bemerkbar machen. Lediglich von den zunehmenden Wärmeinseleffekten bei den Wetterstationen wissen wir, dass sie im Sommer stärker wirken.

Wärmeinseleffekte sind vom Menschen erzeugt. Streng genommen handelt es sich um eine Naturzerstörung. Die ständige Bebauung und Trockenlegung um die Stationen herum wirkt sich im Sommer viel stärker aus als im Winter. Eine Asphaltstraße ist nur in den Sommermonaten ein heißes Wärmeband in der Landschaft. Im Winter sind auch trockengelegte Flächen nass, so dass im Winter kaum Temperaturunterschiede zwischen einer Straße und der Wiese daneben auftreten. Lediglich die Heizwärme der Gebäude erzeugt auch in den Wintermonaten in der Siedlung leicht höhere Temperaturen. Und wie hier vermutet, verhalten sich auch die Temperaturreihen der beiden Jahreszeiten

Zunächst eine WI-arme Wetterstation: Die Wetterstation Memmingen lag bis vor kurzem im Stadtpark beim Friedhof, sie ist nun ganz außerhalb des Ortes.

Abb. 5: Bei einer WI-armen Station wurden die Sommermonate leicht wärmer, die Wintermonate blieben gleich seit 1988

Krasse Gegensätze bilden die meisten anderen bayrischen Wetterstationen mit ihren zunehmenden WI-effekten wie Hof (Land). Die Station wächst in ein Gewerbegebiet ein. Die meisten bayrischen Wetterstationen sind Wärmeinsel-Wetterstationen.

Abb. 6: WI-starke Wetterstationen zeigen eine kräftige Sommererwärmung seit 1988, in den Wintermonaten wirkt der WI-effekt nicht so stark, deshalb ist die Erwärmung vorhanden, jedoch deutlich schwächer als in den Sommermonaten.

Damit erhalten wir ein vorläufiges Ergebnis: anthropogen und natürlich.

An der Erwärmung Bayerns seit 1988 ist der Mensch sehr stark beteiligt. Die Zunahme der Wärmeinseleffekte bei den Messstationen, die zunehmende Bebauung der einst freien Landschaft und die damit verbundenen Landschaftstrockenlegungen tragen erheblich zur Sommererwärmung bei den DWD-Messstationen bei, was sich letztlich auf die Jahresstatistik auswirkt.

Natürliche Gründe der Erwärmung: Sie sorgten für den Temperatursprung von 1987 auf 1988, der bei allen Wetterstationen im Sommer wie im Winter auftritt. Zu nennen wäre eine Änderung der Großwetterlagen. Allgemein ist das Klima in diesem Zeitraum in Süddeutschland mediterraner geworden. Die Südwestlagen haben im Sommer zugenommen, genauso wie die Anzahl der Sonnenstunden. Mehr Sonne wirkt in den Sommermonaten erwärmend, in den Wintermonaten bisweilen sogar abkühlend, wenn lange Winternächte wolkenlos bleiben sollten.

Konsequenzen für die Politik: Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt der Politik und des menschlichen Handelns gestellt wird. Sauberes Wasser in genügender Menge ist ein Grundbedürfnis des Menschen, genauso wie saubere Luft. Die großzügige Bebauung der Freiflächen muss reduziert werden, das Regenwasser sollte vor Ort aufgefangen und verbraucht oder auf Freiflächen versickert werden. Ein Weiter so führt zur weiteren Sommererwärmung in den Wärmeinseln samt trockengelegter Umlandflächen, die inzwischen mehr als 20% der Landesflächen ausmachen. Ein weiter sinkender Grundwasserspiegel verbunden mit zunehmender Wasserknappheit auch in Bayern würde auf Dauer die Folge sein.

Flächenverbrauchszähler für Deutschland: Derzeit ist ein Siebtel der Gesamtfläche versiegelt. Jede Sekunde wird in der Bundesrepublik Deutschland 5,22 m2 Boden neu als Siedlungs- und Verkehrsfläche beansprucht! Quelle.

 




Willkomen im Land der Stromsperren! oder Lockdown der Physik.

Nicht nur E-Fahrzeugen und Wärmepumpen, auch Nachtspeicherheizungen sollte ferngesteuert der Saft abgedreht werden. „Spitzenglättung“ hieß die Zwangspause in Paragraph 14a des geänderten Energiewirtschaftsgesetzes. Die Welt am Sonntag veröffentlichte am 17. Januar einen Artikel, und innerhalb weniger Stunden erhob sich ein Shitstorm mit mehr als 1.000 wütenden Zuschriften. Und das, obwohl die Welt nur noch Abonnenten kommentieren lässt.

Das Ganze sieht aus wie ein Versuchsballon. „Wir beschließen etwas, stellen das dann in den Raum und warten einige Zeit ab, was passiert. Wenn es dann kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir weiter – Schritt für Schritt, bis es kein Zurück mehr gibt.“ Das sagte niemand geringerer als der ehemalige EU-Kommissionschef Jean-Claude Juncker.

Um 9.55 Uhr am Sonntag bemerkte der Wirtschaftsminister Peter Altmaier sein Eigentor und ruderte zurück. „Es handelt sich um einen Entwurf der Arbeitsebene, der nicht die Billigung des Ministers gefunden hat“, teilte seine Sprecherin über einen Gesetzentwurf mit, der schon auf der Internetseite des Ministeriums veröffentlicht und den Lobbyverbänden zur Kenntnis gegeben worden war. Übersetzt: Der Peter ist nicht schuld, sein Name ist Hase. Der Entwurf verschwand sang- und klanglos von der Webseite des Ministeriums.

Wer geglaubt hat, dass eine Regierung absurde Politik nur bis zu einer gewissen Grenze betreiben kann, der sieht sich getäuscht. Dümmer geht immer. Vor 11 Jahren gab es die Abwrackprämie. Da sollten die Bürger mit Steuer-Milliarden zum Kauf von Neuwagen gepuscht werden – bevorzugt Diesel, wegen der Umwelt. Seit zwei Jahren dürfen die Leichtgläubigen, die damals der Politik glaubten, mit ihren unverkäuflichen Diesel nicht mehr in viele Städte einfahren.

Derzeit fördert der Staat mit Fantastilliarden den Kauf von Elektrofahrzeugen, pro Wagen bis zu 11.000 Euro – wegen der Umwelt. Das staatliche Ziel waren eine Million Elektroautos bis zum Jahr 2020, es wurde leise weinend beerdigt. So dumm sind die Bürger nun doch nicht.

Lockdown der Physik

Auch die Umrüstung von Heizungen auf Wärmepumpen wird mit viel Steuergeld massiv gefördert, mit bis zu 45 Prozent der immensen Kosten, natürlich für die Umwelt.

Gleichzeitig legt dieselbe Regierung zwangsweise alle Kernkraftwerke bis zum Jahr 2022 still und beschließt, auch alle Kohlekraftwerke stillzulegen. Auch dazu werden weitere Fantastilliarden Steuergeld bereitgestellt. Hochmoderne funkelnagelneue Kraftwerke werden reihenweise verschrottet.

Wer vor einem Erzeugungsengpass gewarnt hat, war Klimaleugner oder Atomfuzzi – ein neurechter Nazi eben. Schließlich ist das alles hoheitlich ausgerechnet, der Flatter-Strom kann im Netz gespeichert werden – nach einem Lockdown der Physik.

An Tagen wie diesen, wo es grau ist, da haben wir natürlich viel weniger erneuerbare Energien. Deswegen haben wir Speicher. Deswegen fungiert das Netz als Speicher. Und das ist alles ausgerechnet. Ich habe irgendwie keine wirkliche Lust, mir gerade mit den politischen Akteuren, die das besser wissen, zu sagen, das kann nicht funktionieren.“

Das sagt eine Frau, die sich allen Ernstes und mit einer gewissen Berechtigung Chancen ausrechnet, einmal Bundeskanzlerin zu werden. Ich will hier aus Höflichkeit lieber nicht den Satz des berühmten Philosophen Dieter Bohlen einfügen.

Wirtschaftsminister Peter Altmaier bringt die Energiewende voran und erklärt das auch den unkundigen Bürgern auf seine angemessene Weise: „Wir haben mit der Energiewende gute Erfahrungen gemacht…“ Stimmt, hat er. Fließt doch die gute Hälfte des exorbitanten Strompreises in seine Staatskasse.

Beamte, die noch Grundrechenarten beherrschen

Offenbar sitzen aber im Wirtschaftsministerium immer noch ein paar Beamte, die wenigstens die Grundrechenarten und das Lesen von Texten in einfacher Sprache beherrschen. Es müssen welche von denen die launigen Blackout-Kochanleitungen ihrer Kollegen vom Bundesamt für Bevölkerungs- und Katastrophenschutz gelesen und sogar verstanden haben. Die Ministeriumskantine ohne Strom? Das geht gar nicht. Da muss sofort gehandelt werden.

Kannibalisiert die Energiewende die Verkehrswende? Irgendwer in der Regierung hat erkannt, dass es bei den Stromleitungen genauso ist wie bei den Wasserleitungen: hinten kann nicht mehr rauskommen, als vorne reingepumpt wird. Mich beeindruckt diese Erkenntnistiefe. Da will das Wirtschaftsministerium also jetzt ausgerechnet den Unbedarften den Stromhahn zudrehen, die den Ankündigungen der Politik Glauben geschenkt haben und sich einen Elektroauto oder eine Wärmepumpe als Beitrag zur Rettung der Welt gekauft haben.

Das kommt davon, wenn die Politik vom Ende her, aber nicht zu Ende denkt. Deutschland steht vor einem energiepolitischen Scherbenhaufen. Jeder Fünftklässler, der freitags noch in die Schule geht, hätte sich das ausrechnen können. Wer jetzt aber meint, dass es das war mit den energiepolitischen Pleiten, Pech und Pannen, der irrt. Der Energie- und Verkehrswende-Unfug geht munter weiter. Elektromobilität und Wärmepumpen werden staatlich weiter massiv gefördert, es sind sogar Verbote von Verbrennern und anderen Heizungen im Gespräch. Liebe Politik-Genies, wie wollt ihr die Millionen neuen Verbraucher powern, wenn es nicht mal für die schon Existierenden reicht, weil ihr die Kraftwerke verschrottet?

Wer den Medien oder der Politik abnimmt, dass die geplante Zwangsabschaltung von Auto-Ladestationen und Wärmepumpen eine nur in Extremfällen vorkommende Notmaßnahme wäre, der weiß nichts davon, dass schon heute industrielle Großverbraucher wie Aluhütten und Walzwerke ziemlich regelmäßig bei Flaute und Dunkelheit abgeschaltet werden müssen – natürlich vergütet mit Steuermitteln.

Es wird nicht bei Ladesäulen und Wärmepumpen bleiben

Außerdem wird es beim großen Abschalten nicht bei Ladesäulen und Wärmepumpen bleiben. Liebe Bürger, nur die Masse macht’s. Wenn der Damm erst mal gebrochen ist, dann kommt die Zwangsabschaltung der Waschmaschinen, Elektroherde, Wasserboiler, Geschirrspüler und Internet so sicher wie das Amen in der Kirche. Schließlich hat das große Abschalten der Kohlekraftwerke ja noch gar nicht richtig begonnen, und es laufen noch ein paar Kernkraftwerke. Das soll alles weg.

Vor dem Gesetz und bei der Stromsperre sind alle gleich? Na ja, eher nicht. Allerdings müssen die Ministerien nur noch die Prioritätenlisten für die Durchführungsbestimmungen des neuen Spitzenglättungsgesetzes erstellen. Dort muss festgelegt werden, wessen Stromverbraucher „systemrelevant“ sind, damit nicht etwa versehentlich den Verursachern der Misere der Saft abgedreht wird.

Was wird, wenn nach Corona der Verbrauch wieder ansteigt? Die Spitzenglättung muss im Gesetz bleiben, weil es ohne sie irgendwann Blackouts gäbe. Es werden jetzt also andere Verbraucher sein müssen, die bei Flaute und Dunkelheit abgeschaltet werden. Die Auswahl ist gering, man darf gespannt sein. Mein Tipp: es werden Flächen-Netze sein, die für einige Zeit abgeschaltet werden müssen. Dann sind lokal auch Wärmepumpen und Ladestationen schwarz, man muss es ja nicht gleich ins Gesetz schreiben. Die gute alte Zeit der lokalen Stromabschaltungen kommt wieder, die Pläne dazu gibt es schon länger

Der Beitrag erschien zuerst bei ACHGUT hier




100 Prozent garantierter Kernkraftstrom für Privathaushalte und Kleinunternehmen.. Zwei Schweden mischen den Strommarkt auf.

„Es dauerte 15 Minuten, bevor das Telefon zu klingeln anfing, und innerhalb von 24 Stunden war diese Nachricht überall – mit ihrer Botschaft  von zwei Freunden und Unternehmern,  die beide nicht von der Energie- und Kernkraftindustrie kamen, jedoch mit der Absicht, die Kernkraft wieder populär zu machen“,  erinnert sich Ahlberg mit einem Lächeln.

Sjölander und Ahlberg waren sich der Einzigartigkeit der Kernkraft als einzige saubere, stets vorhandene und verfügbare sowie regelbare Energiequelle wohl bewusst und sie sahen jetzt eine zunehmende  Notwendigkeit für ihre Verstärkung in einer Welt, die nach Möglichkeiten sucht, um Emissionen zu reduzieren und zur stärkeren Elektrifizierung.
Sie wussten, dass – zumindest in Schweden – eine deutliche Unterstützung für die Kernkraft besteht und fragten sich, ob sie diese passive Befürwortung einsetzen könnten, um das in etwas Wesentliches, Starkes zu verwandeln.

Aber anstatt wieder eine weitere NGO oder eine Facebook-Gruppe zu gründen, um damit öffentliche Unterstützung zu erreichen, entschloss sich das Duo, dieses Konzept zu kommerzialisieren und es für rationale Umweltfreunde möglich zu machen, dass sie einen Teil ihrer  Lebensweise  auf die Kernkraftnutzung ausrichten – direkt von ihrem schwedischen Favoriten-Kraftwerk.  Indem sie dieses Unternehmen gründeten,  könnte die „schweigende Mehrheit“ in die Lage versetzt werden,  „mit ihrer Brieftasche abzustimmen“ und Kernkraftstrom zu wählen.

Sie nahmen an, dass durch die Versorgung ihrer Kunden und Befürworter mit Tatsachen, mit Werbung sowie mit anschaulichen, verständlichen Info-Grafiken deren Wahlentscheidung zu Gesprächen an Küchentischen und  Arbeitsplätzen führen werde, wodurch Kärnfull von dieser Mund-zu-Mund Propaganda profitieren würde.
Wie sich herausstellte, hatten sie recht.

Aber wie konnte das funktionieren? Ein hundertprozentiger Kernkraft-Tarif wirkt in der gleichen Art wie ein 100 % Ökostromtarif: Liefere die elektrische Energie und kompensiere das mit der gleichen Anzahl von Kilowattstunden durch Erzeugungs-Garantien.

„Das ist bei Weitem kein perfektes System, aber es ist die beste Art und Weise, in der die Verbraucher ihre Bevorzugung einer bestimmten Energiequelle  äußern können. In Schweden gibt es 140 Energieanbieter, die fast alle „bra miljöval“ anbieten – damit sind Erzeugungsgarantien für Erneuerbare gemeint. Wir dachten uns, dass wir mit der gleichen Methode für Kernkraftenergie das gleiche Bewusstsein im gesamten System voranbringen können“, fügt Sjölander hinzu. „Unsere schwache Stelle liegt vielleicht darin, dass wir entschieden haben, eine kleine Spende pro verkaufter Kilowattstunde für die Nuklearforschung hinzuzufügen. “

Ein Jahr darauf sind die beiden Gründer von der Akzeptanz sowie davon, wie sich die Sache seit dem Start entwickelt hat, geradezu überwältigt.
Die Startphase war ein geradezu rauschender Erfolg und führte zu nahezu 3000 Namen, was das Team zwang, rasch zuzulegen um diesen Bedarf in zahlende Kunden zu verwandeln.  Am 1. Dezember 2019 bezogen die ersten Haushalte ihre Stromversorgung über Kärnfull – auf der Grundlage eines   stundenbasierten flexiblen Vertrags, der durch niedrige Preise und gute Kundenbetreuung gekennzeichnet war und keine festgelegten Termine enthielt.

„Von diesem Tag an entwickelte es sich buchstäblich lawinenartig. Unser organisches Wachstum ist erstaunlich – sowohl bezüglich der Gewinnung neuer Kunden als auch in unserer Weiterentwicklung. Die Annahme unseres Angebots war phänomenal und unsere schwedischen Sozial-Media-Kanäle wurden das Zentrum der Diskussionen über technisch-neutrale saubere Energie – während unser Newsletter jede Woche etwa 15.000 Leser erreicht.“

Man kann heute nur feststellen, dass die Ankündigung von 2019 erhebliches Aufsehen erregte. Politiker, Journalisten, Wettbewerber und das normale Publikum fingen gemeinsam an, das eingehend zu beobachten, wobei eine klare Botschaft über die zahlreichen Vorzüge der Kernkraft für eine sich verändernde Welt vermittelt wird.
Auch wenn Kärnfull, mit dem Vorteil der ersten Initiative ausgestattet – und mit der Qualität in der Lieferung und deren Ausführung – in die Führungsrolle in diesem Segment gekommen ist, haben sie auch registriert, dass in den vergangenen Monaten ca. 20 andere schwedische Anbieter diesem Vorbild folgten und nun 100-Prozent-Kernkraftstrom-Tarife in ihren Angeboten haben.

„Das sind natürlich gute Nachrichten sowohl für das Klima als auch für die Industrie. Es gibt schon heute etwa eine halbe Million Haushalte in Schweden, die ausdrücklich 100 % Kernkraftenergie-Verträge wünschen.
Es gibt also viel Raum für das Wachstum von uns allen. Zudem expandiert der ansprechbare Markt, weil der Bedarf für die Kernenergie zunimmt.
Wir sind ein Teil dieser neuen Debatte als ein vertrauenswürdiges  unpolitisches und unabhängiges Start-Up mit einem eindeutigen Markennamen, einem großartigen Angebot sowie einem eindrucksvollen Ratgeber-Gremium“, sagt John und weist auf einen weiteren unterstützenden Faktor der Erfolgsgeschichte hin.

Käirnfulls Markenname ist auf den Punkt gerichtet: Skandinavisch-cool und voll auf ihren wichtigsten Marktsektor ausgerichtet. Also wissenschaftsorientierte, junge und vornehmlich städtische Schweden. Das sind die Leute, die am stärksten über den Klimawandel besorgt sind – und weil sie jung sind, haben sie nicht die tiefsitzende Furcht vor der Kernspaltung, wie diejenigen, die im Schatten des Kalten Kriegs aufgewachsen sind. Aber mehr als das: Sie haben eine Dosis von Popkultur in den Nuklearbereich eingebracht.

Während des Gesprächs schalten die beiden Gründer oft vom Macro-Level („Es gibt heute 2-3 Milliarden Menschen ohne Zugang zur Elektrizität – und dies muss geschehen“) in die Aussichten im Micro-Level
(„Südschwedens Stromnetz leidet enorm unter Ausfällen, schwankenden Preisen, steigenden Emissionen und vorzeitigen Stilllegungen.
Wir riskieren, Deutschlands schwachsinniger Energiewende zu folgen, falls wir es nicht schaffen, die Menschen für die Kernenergie zu begeistern – und zwar jetzt“).

„Als wir in Schweden starteten war unser Fokus – und er ist es selbstverständlich weiterhin – unserem Heimatland dabei zu helfen, „umweltvernünftig“ zu werden. Aber innerhalb von Wochen nach unserem Start begannen große Pro-Nuklear-Vereinigungen im UK, in Frankreich, in den USA etc. uns zu folgen. John und ich haben viele Jahre im Ausland gelebt und internationale Geschäfte aufgebaut. Deshalb sind wir dabei, darüber nachzudenken, wie wir das Konzept exportieren könnten“, erklärt Sjölander.

„Es stellt sich heraus, dass es einen beträchtlichen Appetit für unsere Marke und auch für unsere Pläne für mehrere Länder gibt. Wir werden in der Tat in den kommenden Monaten in einen neuen Markt starten. Hoffentlich als Erste von Vielen.“

Es ist nicht gerade leicht, Kärnfulls Erfolg anzuschauen und sich zu fragen, was das für den großen Nuklear-Sektor bedeutet. Zumindest in Schweden hat der Aufbau einer Marke, die völlig auf die Kernenergie baut, funktioniert. Nicht nur immerzu nur über das Thema Sicherheit zu sprechen, war erfolgreich. Aber kann Kärnfulls Erfolg irgendwo wiederholt werden?

„Ja wir glauben das gewiß. Und wir suchen stets nach Wegen, um neue Märkte für den breiteren Nuklearsektor zu erschließen – indem wir mit herausragenden örtlichen Persönlichkeiten sprechen und um Partner zu finden. Es braucht einiges an Investment zu Beginn, aber mit Schweden als Erfolgsbeweis sieht es recht gut aus“, stellt John fest.

(Anmerkung: Unterstreichungen vom Übersetzer.)

Quellen:
1. atw – International Journal for Nuclear Power; Vol. 66 (2021).
Ausgabe Nr.1, Januar. Titel: „Kärnfull Energi. Making nuclear energy
cool  (again).“  Keine Autorenangabe; somit atw-Redaktion.
Internet: nucmag.com
2. Übersetzung und erste deutschsprachige Veröffentlichung:
https://www.ageu-die-realisten.com
3. Verbindungen zur Fa. Kärnfull Energi
E-Mail: hej@kärnfull.se
Web: www.karnfull.se

7

 




Wenn die Sonne schweigt

Die global gemittelten Temperaturen sind seit 1850 bis 2020 um ca. 1,1 Grad C gestiegen. Vom IPCC, Intergovernmental Panel for Climate Change, wurde im letzten Zustandsbericht AR 5, 2014, dieser Anstieg mit mindestens 50% Wahrscheinlichkeit der menschlichen Emission von Kohlendioxid, CO2, durch Nutzung fossiler Brennstoffe zugeschrieben.

Bis Ende des Jahrhunderts 2100 sollte die globale Temperaturerhöhung unter 2 Grad C bleiben, besser unter 1,5 Grad C durch drastisches Reduzieren der CO2 Emissionen. Satelliten-Messungen seit 1979 bis 2020 zeigen einen Anstieg von 0,13 Grad C pro Jahrzehnt, also in den 80 Jahren bis 2100 noch ca. 1 Grad C. Diese Forderung beruht auf Grund der Berechnungen mit Modellen, die allerdings den Einfluss einer veränderlichen Sonnenaktivität, markiert durch die Sonnenflecken, nicht beinhalten. In diesem Artikel soll gezeigt werden, dass dies eine unzulässige Annahme ist.

In diesem Jahrhundert wird die Zahl der Sonnenflecken stark zurück gehen, mit ihnen einher ein Beitrag zur Verringerung der global gemittelten Temperatur um -0,5 bis – 0,7 Grad C. Das bedeutet aber, dass selbst bei gleichbleibender Emission von CO2 durch den Menschen, die globale Temperatur deutlich unter 2 Grad C bleiben wird!

„Am 6. Februar veränderte sich die grausame 15 Wochen anhaltende Kälte, sich zu jedermanns Vergnügen in ein löbliches Tauwetter zu verwandeln, welches aber ohne Schäden nicht abging. Zwischen Maastricht und Scheermase wurde ein Berg durch den Eisgang weggeströmt, wobei wohl 1500 Stück Vieh umkam…Das losbrechende Eis nahm zu Bremen zwei Pfeiler einer Brücke weg und richtete an Schiffen und Befestigungen große Schäden an.“

So ein Bericht zum 6. Februar 1684 (aus Rüdiger Glaser, Klimageschichte Mitteleuropas, 2001). 1684 befand man sich in der stärksten Abkühlungsphase des Maunder Minimums, eine 50 Jahre dauernde Zeit zwischen 1650 und 1700, in der die Aktivität der Sonne sehr schwach war. In dieser Zeit war die Zahl der Sonnenflecken sehr gering, nahezu Null. Die Temperaturen fielen vor allem im letzten Jahrzehnt des 17. Jahrhunderts extrem ab, wobei alle Jahreszeiten davon erfasst waren. Es waren die Zeiten der ruhigen Sonne, in denen die Sonne schwieg!

[Siehe auch, empfehlenswert: Die kalte Sonne, Warum die Klimakatastrophe nicht stattfindet, Fritz Vahrenholt, Sebastian Lüning, Hoffmann und Campe Verlag]

Die Sonne ist keine absolut konstante Strahlungsquelle, sondern ihre Abstrahlung zeigt auch in kurzfristigen Zeiten Veränderungen, die uns in Form der Sonnenflecken bekannt sind Abb.: 1.

Abb 1: Sonnenflecken, links aktive Sonne, rechts schweigende Sonne

Die nächste Abbildung 2 zeigt die Variabilität der Sonnenflecken und damit der Sonnenaktivität in den vergangenen 500 Jahre. Man erkennt deutlich, wie stark sich die Zahl der Sonnenflecken verändert. Neben dem kurzfristigen 11 Jahres Rythmus gibt es längere Zeiträume, in denen es nur eine sehr geringe Zahl gegeben hat.

Abb 2: Veränderung der Zahl der Sonnenflecken ab 1600. Quelle: DeWikiMan, Sunspots-gn-yr-total-smoothed-de, CC BY-SA 4.0

Diese Minima umfassen das Maunder-Minimum und um 1800 (Französische Revolution) das Dalton-Minimum mit der anschließenden „Kleinen Eiszeit“ bis ca. 1899. Bemerkenswert ist, dass diese Zeiten mit erheblichen Abkühlungen und Klimaveränderungen zumindest in Europa einhergingen. Diese ergaben schlechte Ernteerträge mit all ihren sozialen Auswirkungen. Die erheblichen Klimaschwankungen in den letzten Jahrhunderten bis 1900 waren sicherlich ohne menschliche CO2 Emissionen entstanden und sind auf natürliche Variabilität des Klimas, hervorgerufen durch die Änderung der Sonnenaktivität, zurückzuführen.

Wie wird sich die Aktivität der Sonne in Zukunft entwickeln?

Spannend ist natürlich die Frage, ob man zukünftig von einer weiteren Abschwächung der Sonnenaktivität, die nach der Zeit hoher Sonnenaktivität ansteigend ab 1900 bis 2000 derzeit bereits sehr niedrig ist, ausgehen muss. W. Livingston und M. J. Penn (siehe auch IAU Symposium No. 273, Abb.2) sehen eine dramatische Abschwächung im Zyklus 25 voraus. Immerhin stimmte ihre Vorhersage für den Zyklus 24 recht gut mit dem aktuellen Verlauf überein (siehe folgende Abbildungen 3,4).

Abb 3: Sonnenflecken ab 1749 bis 1999 (Nr. 23) und Projektion für Nr 24, 25

Abb 4: Sonnenfleckenzyklus 22-24, The Solar Physics Group at NASA

Empirische Untersuchungen legen nahe, dass die Sonnenfleckenzahlen über den 11-jährigen Schwabe Zyklus hinaus weiteren periodischen Schwankungen unterliegen. Diese periodischen Schwankungen der Sonnenflecken-Intensität sind der Gleissberg-Zyklus von ca. 80- 88 Jahren und der De Vries- oder Seuss-Zyklus von 200-210 Jahren.

Der Autor hatte in der folgenden Graphik Abb. 5 (R. Link, 2009 [1]), die als sinusförmig angenommenen Sonnenfleckenzyklen Gleissberg und De Vries aufaddiert, nachdem die Zyklen in ihrer Phase zueinander und ihren  Längen, sowie die Sonnenfleckenzahlen an die beobachteten Werte der Abb.: 2 angepasst wurden (blaue, fetter gedruckte Kurve). Die Zyklen Zeiten für die optimale Anpassung betragen 84 Jahre Gleissberg/Seuss (dunkelblau), 208 Jahre De Vries (rot).

[1] https://rlrational.wordpress.com/2010/03/22/wenn-die-sonne-schweigt/
Klimawandel – Eine rationale Diskussion

Abb.: 5 Überlagerung von Gleisberg- und Suess-Zyklus

Es ergibt sich eine gute Übereinstimmung mit der Variabilität der Sonnenfleckenzyklen der vergangenen 500 Jahre. Der Abbildung kann man entnehmen, dass wir in den kommenden Jahren wieder auf eine ruhige, schweigende Sonne zulaufen, sofern die bisherigen periodischen Variationen in die Zukunft extrapoliert werden können. Bis 2050 werden wir mit einer Aktivität ähnlich dem Dalton Minimum und bis 2100 wie im Maunder Minimum mit den entsprechenden niedrigen Temperaturen zu rechnen haben. G. Feulner und S. Rahmstorf, Potsdamer Institut für Klimafolgenforschung PIK [2], haben in einer Arbeit mittels eines Klimamodells berechnet, dass die Erwärmung vom Maunder Minimum bis 1950 zwischen 0,5 bis 0,7 °C beträgt.

[2] On the effect of a new grand minimum of solar activity on the future climate on Earth, Georg Feulner and Stefan Rahmstorf, GEOPHYSICAL RESEARCH LETTERS, VOL. 37, 2010

Die Veränderung der Sonnenaktivität durch die Sonnenflecken und deren Einfluss auf unser Klima ist in den Klimamodellen nicht berücksichtigt. Insgesamt kann man davon ausgehen, dass die Sonne in diesem Jahrhundert abkühlend auf die globale Temperatur wirken wird. Die Stärke dieser Abkühlung kann man nicht mit Sicherheit voraussagen, bis zu -0,5 °C können es aber durchaus werden. Somit ergibt sich bis 2100 bei gleichbleibender CO2 Emission, keine erforderliche Reduktion, eine globale mittlere Temperatur von nur noch ca. 1,5 Grad C.

 

EIKE-Redaktion:

Der Beitrag erschien zuerst am 12.01.2021 in der“kalten Sonne“, wir danken der KA und Dr. Link für die Genehmigung der Übernahme.




Event 201 – die Wirklichkeit vorweg genommen

Ein Spiel mit der Zukunft

Für den 18. Oktober 2019 hatte das Johns Hopkins Center for Health Security, in Zusammenarbeit mit dem Weltwirtschaftsforum und der Bill and Melinda Gates Foundation eine gutes Dutzend Auserwählte in das Hotel Pierre am Central Park in New York eingeladen. Auf sie wartete eine Veranstaltung mit dem Namen Event 201 .

Die Teilnehmer waren “Versuchskaninchen”, die in einem Rollenspiel die Mitglieder eines „Pandemic Emergency Board (PED)“ verkörpern sollten. Sie kamen aus aller Herren Länder und waren im wirklichen Leben höhere Manager in unterschiedlichen Organisationen. Sie sahen sich bei dieser Gelegenheit zum ersten Mal.

Unter ihnen war auch ein deutscher Teilnehmer, Herr Martin Knuchel, „Head of Crisis, Emergency & Business Continuity Management Lufthansa Group Airlines” (…wie auch immer das auf Deutsch heißen mag).

Die brasilianischen Schweine

Keiner von ihnen war vorab über die Aufgaben informiert worden, die sie zu meistern hätten; sie erfuhren vor Ort zum ersten Mal über den Inhalt des Rollenspiels:

Es handelte sich um eine durch ein Corona Virus verursachte Pandemie, die in Brasilien ausgebrochen war und sich inzwischen weltweit verbreitet hatte.

Hier das Szenario im Detail:

Der Ausbruch eines neuartigen Coronavirus, das von Fledermäusen auf Schweine und dann auf Menschen übertragen wird, führt zu einer schweren Pandemie. Der Erreger und die Krankheit ähneln SARS, allerdings ist auch Übertragung durch Kranke mit nur milden Symptomen möglich.

Die Seuche tritt zuerst in brasilianischen Schweinefarmen auf, greift aber dann rasch um sich. In den Slums südamerikanischer Megastädte kommt es explosionsartig zu einer Epidemie. Per Flugzeug gelangt das Virus in den Rest der Welt. Einige Länder können sich zwar zunächst wehren, doch schließlich setzt sich die Seuche überall durch.

Es zeigt sich, dass Im ersten Jahr auf keinen Fall ein Impfstoff verfügbar sein wird; es gibt nur ein antivirales Medikament, welches zwar den einzelnen Patienten hilft, die Ausbreitung der Krankheit jedoch kaum bremst.

In den ersten Monaten der nun weltweiten Pandemie verdoppelt sich die Zahl der Fälle jede Woche und die wirtschaftliche und gesellschaftliche Notlage verschlimmert sich von Tag zu Tag.

Zu Ende der Simulation, nach 18 Monaten, sind 65 Millionen Todesfälle zu beklagen. Wegen einer gewissen Durchseuchung verlangsamt sich jetzt die Ausbreitung des Virus, er wird aber bleiben, bis es einen wirksamen Impfstoff gibt oder bis 80-90% der Weltbevölkerung exponiert wurden.

Ab diesem Zeitpunkt handelt es sich dann um eine endemische Kinderkrankheit.

Die Tatsache, dass erste Fälle von Covid-19 nur zwei Monate nach dieser Simulation tatsächlich auftraten, und dass das Szenario der späteren Wirklichkeit so frappierend ähnlich war, gab natürlich Anlass zu Fragen und Spekulationen. Die Veranstalter verneinen jedoch irgend eine frühere Kenntnis von dem realen Covid 19-Virus und der kommenden Seuche gehabt zu haben.

Ein internationales Rollenspiel

Das Event war aus jeder Perspektive perfekt ausgestaltet und organisiert. Die Gastgeber hatten weder Geld noch Mühen gescheut, um eine täuschend echte Simulation zu schaffen. Die Vorbereitung muss Monate in Anspruch genommen haben, das Event selbst wurde an einem Tag abgewickelt.

Es begann mit dem ersten „Emergency Meeting“, in dem die Teilnehmer über die Situation gebrieft wurden. Hier wurde dann auch das Problem der internationalen Verteilung von medizinischen Materialien, etwa Impfsoffen diskutiert.

Es folgten zwei weitere Sitzungen, die jeweils nach mehreren simulierten Wochen stattfanden, im Hotel aber jeweils nach einer Kaffeepause. Diese informierten über den aktuellen Stand der Pandemie und behandelten die Themen Reisen und Handel sowie die wirtschaftlichen Auswirkungen der Pandemie.

Die Moderation hatte ein echter Experte der Johns Hopkins Universität, die auch andere Fachleute zu bestimmten Themen zu Wort kommen ließ, um die Teilnehmer mit der notwendigen fachlichen Information zu versorgen.

Die Sitzungen wurden auf Video mitgeschnitten. Springen Sie im ersten Segment auf 14:20, wenn Sie sich die einleitenden Worte der Gastgeber sparen wollen. Der Zuschauer vergisst nach ein paar Szenen, dass alles ein Rollenspiel ist. Die eingeblendeten TV Ausschnitte sind simuliert, und auch den Sender GNN gibt es nicht, zumindest nicht in dieser Aufmachung. Ab und zu kommen Sekretärinnen ins Bild, die Teilnehmern einen Zettel zuschieben, was irgendwie störend wirkt. Aber auch das gehörte zu dem Spiel. Auf den Zetteln standen dann so Dingen wie „Die Seuche hat jetzt auch in Borneo erste Opfer gefordert“.

Es ist frappierend, mit welcher Präzision dieses Szenario dem späteren Ernstfall gleicht und es ist erstaunlich, wie hilflos und unprofessionell die meisten Regierungen reagierten, obwohl der ungefähre Lauf der Ereignisse vorherzusehen war.

Ratschläge für die Wirklichkeit

Die Simulation führte zu Empfehlungen für Entscheidungsträger in Politik, Wirtschaft und Wissenschaft, die hier zusammengefasst sind.

Wir wissen nicht, ob unsere politischen Entscheidungsträger diese Empfehlungen kannten, meines Wissens spielte Event 201 niemals eine Rolle im öffentlichen Diskurs. Auf jeden Fall widersprach das Handeln unserer Entscheidungsträger mancher Empfehlung ganz massiv.

Hier einige der Empfehlungen, zusammengefasst in meinen Worten. Ich überlasse es meinen geschätzten Lesern, diese mit der politischen Wirklichkeit zu vergleichen.

  • Kontinuität der Wirtschaft muss trotz Krankheit und trotz Gegenmaßnahmen garantiert sein. Andernfalls würde ein ökonomischer Dominoeffekt zu galoppierender Inflation, Armut und gesellschaftlicher Instabilität führen.

  • Reisen im Inland und ins Ausland müssen möglich sein, so wie üblich. Grenzen dürfen nicht aus Panik geschlossen werden.

  • Die Bevölkerung muss zuverlässig informiert werden und persönliche Verantwortung für die eigene Sicherheit übernehmen. Das ist wirksamer als Vorschriften und Verbote.

  • Entscheidungen müssen von seriösen, respektablen Persönlichkeiten kommen.

  • Länder mit unterschiedlichen Maßnahmen zur Bekämpfung der Pandemie müssen die Wirksamkeit ihrer Vorgehensweisen vergleichen und von einander lernen.

Der Unterschied

Bei aller Perfektion des Event 201, trotz aller Sorgfalt bei der Schaffung eines realistischen Szenarios, konnte ein zentraler Faktor nicht simuliert werden: die Moral der Entscheidungsträger. Im Rollenspiel war es wohl das oberste Ziel jeden Teilnehmers, eine gute Figur zu machen. Dazu schlug er möglichst intelligente und wirksame Maßnahmen zur Lösung der Probleme vor.

In der Realität aber ist die Zielsetzung eine andere. Oberste Priorität hat die Frage: ist diese Entscheidung nützlich für mich persönlich? Wie kann meinem Feind maximaler Schaden zugefügt werden? Kann man mich später zur Rechenschaft ziehen?

In dieser Kaskade der Prioritäten spielt die Suche nach der optimalen Lösung für die Bevölkerung nur vorgeblich und in Worten die wichtigste Rolle, nicht aber in den Taten.

Aber auch abgesehen davon: eine optimale Lösung für alle zu finden ist wesentlich anspruchsvoller, als die eigenen Interessen zu verteidigen. Zu sagen, „das paßt mir nicht“ erfordert weder Intelligenz noch Moral. Einen Beitrag zu leisten, der für die Allgemeinheit größten Nutzen bringt, nicht aber für den Entscheider selbst, das erfordert hinsichtlich Ethik und Klugheit einen Typ von Menschen, der am Aussterben ist.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Unsere Politiker sollten sich endlich darum kümmern, wie man mit Corona leben kann und nicht umgekehrt

Der Rückgang der Zahlen durch den Lockdown fällt nicht sehr beeindruckend aus …

sagt B. Palmer (der GRÜNE Bürgermeister von Tübingen) und spricht damit ein Thema an, welches ganz offensichtlich ist: Sieht unsere Politik überhaupt noch das Ziel, oder stochert sie nur mit immer größerem Aufwand im Nebel herum?

B. Palmer: [1] Es wird nur noch darüber geredet, ob der Lockdown … halt so lange dauern soll, bis Lauterbachs Ziele erreicht sind. Alternativen? Fehlanzeige.
… Taiwan und Südkorea zeigen, wie man mit moderner Kontaktverfolgung eine Pandemie in Schach hält. … Schweden wird für seinen Weg bei uns nur gescholten. Dabei haben die nicht mehr Tote als Österreich und viel weniger als Frankreich oder Belgien, in denen es mehrfach harte Lockdowns gab.
Die Schweiz hat Geschäfte und Restaurants den ganzen Winter offen gehalten. Die Infektionszahlen sind höher, aber die Krankenhäuser haben 30% freie Intensivbetten. Das Durchschnittsalter der Toten steigt immer weiter an. Mittlerweile sind wir deutlich jenseits der 80. Die Übersterblichkeit in Deutschland bewegte sich 2020 im Rahmen einer schweren Grippe. Eine Überlastung der Intensivkapazitäten in Deutschland droht nicht mehr. Und: Der Rückgang der Zahlen durch den Lockdown fällt nicht sehr beeindruckend aus.
In so einer Situation nur mehr vom Gleichen zu fordern, ist mindestens einfallslos … aber … auch völlig unverständlich.
B. Palmer ist allerdings eher so etwas wie der „Sarrazin der GRÜNEN“ und wird deshalb konsequent ignoriert (so lange man ihn nicht aus der Partei entfernen kann).

Und so wundert es nicht, dass der Bayerische Ministerpräsident Söder getreu Frau Merkels Corona-Maßnahmen-Eskalation hinterhertrottet und solche Fragen erst gar nicht stellt. Als zum Populisten mutierter Landesvater setzt er dazu allerdings noch etwas drauf und zeigt dazu, wie Kritik an der Coronapolitik – und an ihm – zu verorten ist:
WELT 09.01.2021 Söder holt zum Rundumschlag aus – und vergleicht Corona mit der Pest
Söder warnte vor allem vor der Gefahr, dass sich Mutationen ausbreiten, und verglich das Virus mit der Pest: „Corona ist wie die Pestilenz. Sie kriecht in jede Ritze.“
Kein Verständnis habe er daher für Corona-Leugner und Politiker, die die Lage auszunutzen versuchten. „Es erschüttert mich zutiefst, wie
die AfD und der ganze ,Querdenker‘-Klub versuchen, das kaputt zu machen“, so Söder in Bezug auf die Maßnahmen zur Pandemiebekämpfung.
„Es ist verheerend. Endlose Fake News und Lügen führen dazu, dass Leute sich in Scheinwelten und Parallelwelten begeben. Es ist wie eine sektenähnliche Entwicklung. Die Leute werden wie einer Gehirnwäsche unterzogen.“ Daher müsse gelten: „Wir lassen uns unsere Demokratie nicht kaputt machen.“

In Kurzform meint Söder (rein private Interpretation des Autors, die durch nichts belegt ist): Unter mir hat selbstverständlich jeder das Recht auf eine eigene Meinung, so lange es die Gleiche ist …

Sogar seinen Koalitionspartner – die Freien Wähler – regt er damit auf. Was die Tageszeitung des Autors allerdings veranlasst hat, Söder vor seinem Koalitionspartner in Schutz zu nehmen und zu zeigen, dass ihre Redaktion auch nicht gescheiter ist.

Betrachtet man vor diesem Hintergrund die aktuell publizierten Lockdown-Verschärfungsforderungen von Merkel und Landesfürsten, meint man zu Ahnen, dass solche „Wissensqualität“ eine erhebliche mit-Entscheidungsbasis sein wird.

Und wer die wirklichen „Querdenker“ sind, sei anbei nochmals gezeigt. Söders „eigener“ Staatsfunk meldete einst:
Sendung im Bayerischen Rundfunk am 30. Januar 2020: Quer erklärt: Wer behauptet, das Coronavirus sei so gefährlich, dass Grenzen geschlossen, der Verkehr eingeschränkt und manche Berufe eingestellt werden müssen, sei ein rechter Verschwörungstheoretiker in Paranoiaproduktion mit Endzeitpsychose.
Im Niedermachen und Verleumden anderer Meinungen sind sich im Merkeldeutschland Politik wie Medien einig.

Schaut man sich die Coronadaten an, stellt sich allerdings schon die Frage, wer eher eine Gehirnwäsche bekommen hat. Deshalb anbei eine Aktualisierung zum vorhergehenden „Corona-Bericht“ des Autors [2].

Aktuell dargestellter Status

Die Sterbezahlen des Statistischen Bundesamtes lahmen der Zeit leider immer vier Wochen hinterher. Um das Jahr 2020 zu bewerten, reicht jedoch der Zeitraum bis zur dort aktuell (zum Zeitpunkt der Editierung dieses Artikels) hinterlegten KW 51 aus. Um in den Grafiken das Gesamtjahr abzubilden, wurde in denen des Autors notgedrungen die fehlende KW 52 mit den Werten der KW 51 gefüllt. Der mögliche Datenfehler dürfte i den Grafiken kaum sichtbar sein.Die auf der Homepage des Statistischen Bundesamtes gezeigte Sterbegrafik zeigt – wie dort auch berichtet wird – eine Übersterblichkeit durch Corona:
… Im April lagen die Sterbefallzahlen deutlich über dem Durchschnitt der Vorjahre. Gleichzeitig war ein Anstieg der Todesfälle zu beobachten, die mit dem Coronavirus in Zusammenhang stehen (Quelle: Robert-Koch-Institut (RKI)). Als diese zurückgingen, bewegten sich ab Anfang Mai auch die Sterbefallzahlen zunächst wieder etwa im Durchschnitt. Im August waren sie allerdings wieder erhöht. Dies geht offenbar auf eine Hitzeperiode zurück. Auch die Sterbefallzahlen im September lagen etwas über dem Durchschnitt der Vorjahre. Nach durchschnittlichen Sterbefallzahlen in der ersten Oktoberhälfte steigen die Sterbefallzahlen seit der zweiten Oktoberhälfte über den Durchschnitt hinaus an. Zeitgleich ist erneut ein Anstieg der COVID-19-Todesfallzahlen zu beobachten.

Bild 1 Sterbezahlen Deutschland. Quelle: Statistisches Bundesamt. Screenshot vom 11.01.2021

Bild 2 RKI-Corona-Dashboard, Screenshot vom 11.01.2021. Anmerkung: Der Spitzenwert beim „Meldedatum“ datiert auf den 17.12., im Bild also vor ca. 3 1/2 Wochen

Auf einem anderen Portal sieht der Verlauf der Meldungen zum Schlussdatum etwas anders aus.

Bild 3 Daten von Bild 2 auf einem anderen Portal

Die beim Register DIVI hinterlegten Intensiv-Zahlen sagen wenig aus, da Vergleiche zu Grippejahren fehlen.

Bild 4 DIVI-Intensivregister Screenshot vom 11.01.2021

Bild 5 DIVI-Intensivregister. Screenshot vom 11.01.2021

Allerdings zeigt das DIVI, warum die Krankenhäuser so überlastet sind: Nicht die Anzahl der belegten Intensivbetten hat zugenommen, sondern deren Reserve wurde abgebaut. Ein Teil davon dürfte wohl auf Personalmangel zurückzuführen sein.

Bild 6 DIVI-Intensivregister. Screenshot vom 11.01.2021

Übersterblichkeit

Reiht man die Sterbedaten Deutschland (Bild 1) hintereinander, ergibt sich das folgende Verlaufsbild (Bild 7). Allerdings lässt sich daraus keine eindeutige Aussage zur Übersterblichkeit ableiten. Deshalb im Folgebild (Bild 8) ein Jahresvergleich.

Bild 7 Deutschland, Sterbezahlen von 2016 – 2020. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Bis zur KW 50 war das „Coronajahr“ 2020 in der Jahres-Sterbesumme nicht schlimmer, als das Grippejahr 2018.

Bild 8 Deutschland, Sterbezahlen von 1.2016 – 2020. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Erst am Jahresende (die noch fehlende Kalenderwoche hochgerechnet mit dem Wert der KW 51) sieht man, dass das „Coronajahr“ 2020 in der Jahres-Sterbesumme der letzten fünf Jahre ganz leicht am Höchsten liegt (siehe dazu Bild 21 mit den tabellierten Werten).

Wegen der 1,53 %, bzw. 14.589 im Jahr 2020 mehr als im Grippejahr 2018 verstorbene Personen,
oder anteilig zur Gesamtbevölkerung 0,016 % Corona-„Überverstorbenen“,
sind unsere Politiker der festen Überzeugung, Deutschland und das gesamte öffentliche Leben ruinieren zu müssen (und es zu dürfen).

Bild 9 Deutschland, Todesursachen. Bild vom Autor bei den „Frauen“ um den Coronaanteil von ca. 3,3 % ergänzt. Quelle: WIKIPEDIA

Mit dem folgenden Bild der Jahresmortalität seit 1920 nochmals eine Darstellung, wie das angeblich so schlimme Coronajahr 2020 wirklich einzuordnen ist.
Damit sieht man die völlig unspektakuläre Sterberate des Jahres 2020 – die nun jedes Jahr alleine aufgrund des Sterblichkeitstrends ob „mit oder ohne Corona“ eintreffen wird.

Bild 10 Deutschland, relative, jährliche Sterbezahlen seit 1950. Fehlender Wert 2020 KW 52 vom Autor mit den Daten KW 51 ersetzt und ab 2016 korrigierte Daten. Grafik vom Autor erstellt. Datenquelle: destatis.de (verlinkt über das Statistische Bundesamt)

Es stellt sich somit die Frage, warum Herr Söder nur bei den anteilig ca. 3 % Corona-Verstorbenen jedes Mal einen „Stich ins Herz“ bekommt und „um jedes Leben kämpft“, wo es parallel noch 96,7 % aus anderen Gründen Verstorbene gibt, die sicher nicht weniger „Wert“ sind als Corona-Opfer und bei denen er sich auch „bewähren“ könnte.
WELT DE: Corona live: Markus Söder fordert längeren und härteren Lockdown – WELT:
Panorama 09.01.2021 Markus Söder fordert längeren und härteren Lockdown: Söder sagte … Die wahren Opfer seien aber die fast 40.000 Toten im Zusammenhang mit dem Virus. „Es ist jedes Mal ein kleiner Stich ins Herz.“ Um jedes Leben werde gekämpft, versprach Söder. „Jeder Tag ist eine neue Bewährungsprobe.“

Und obwohl trotz Lockdown die Inzidenzwerte stetig nur weiter steigen (Bild 3) – aber als fast alleiniges Reverenz-Maß genommen werden – wird diese sich als nicht zielführend zeigende Maßnahme immer verbissener weitergeführt.

Bild 11

MSN 14.01.2020: Merkel: Deutschland droht Horror-Szenario wegen Corona-Mutation
Nach Ansicht von Bundeskanzlerin Angela Merkel droht Deutschland aufgrund der in Großbritannien aufgetauchten Corona-Mutation ein Horror-Szenario … Bundeskanzlerin Angela Merkel denkt bereits über eine Lockdown-Verlängerung bis Ostern 2021 nach …

Bild 12

Tichys Einblick, 14.01.2020: GEGEN JEDE REALITÄT Die Bundesregierung plant wohl noch schärferen Einheitslockdown
… Der Knaller: Die Bundeskanzlerin persönlich forciert wohl eine Verschärfung. Wie die Bild berichtet, will sie möglicherweise am 20. Januar eine Ministerpräsidentenrunde einberufen und die Maßnahmen im Land verschärfen und vereinheitlichen. „mega-Lockdown“ nennt die Bild-Zeitung das. Unter anderem sind wohl die Schließung der öffentlichen Nahverkehrs und Ausgangssperren wie etwa in Frankreich in der Diskussion.
Die Begründung? Die mutierten Viren aus Großbritannien und Südafrika. Eine wissenschaftliche Evidenz, dass diese Mutation in irgendeiner Weise schlimmer ist gibt es nicht.

Stimmt B. Palmers „Altersansage“?

B. Palmer: Das Durchschnittsalter der Toten steigt immer weiter an. Mittlerweile sind wir deutlich jenseits der 80.

In einem Podcast des Prof. Nieden vom Statistischen Bundesamt wird diese wichtige Aussage ebenfalls getätigt. Doch stammt dieser Podcast noch aus der ersten „Welle“.
Deshalb anbei eine Sichtung, ob diese Aussage wirklich noch aktuell ist. Stimmt sie immer noch, ist es der Beleg, dass die „Schrotflintenpolitik“ und Wegsperren aller Jüngeren im bisherigen und dem aktuellen Lockdown barer Unsinn ist und gezieltes Schützen der Problem-Altersgruppe viel effektiver – und mit Sicherheit auch viel, viel billiger – wäre.

Schon eine erste, einfache Sichtung der Sterbezahlen dieser Altersgruppe zeigt, wie recht Herr Palmer hat: Die Altersgruppe bis 80 hat auch derzeit keine höhere Mortalität als in einem „kleinen“ Grippejahr und in der Jahressumme zu den vergangenen fünf Jahren sogar die niedrigste.

Bild 13 Deutschland, Sterbezahlen von 2016 – 2020 für die Altersgruppen unter-/über 80 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Die Jahressummen der Sterbezahlen dieser zwei Altersgruppen zeigen zusätzlich, dass die Gruppe bis 80 Jahre auch mit Covid überhaupt keine erhöhte Sterblichkeit aufweist.

Bild 14 Deutschland, Sterbezahlen Jahreswerte von 2016 – 2020 für die Altersgruppen unter-/über 80 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Vorsichtshalber die gleiche Sichtung mit der Altersgruppe von 70 – 80 Jahren. Beide Grafiken zeigen, dass nicht einmal die Altersgruppe von 70 bis 80 Jahren – die auch als Hoch-Risikogruppe angegeben ist – durch Corona eine wirkliche Übersterblichkeit aufweist.

Bild 15 Deutschland, Sterbezahlen von 2016 – 2020 für die Altersgruppen 70 – 80 Jahre/über 80 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Bild 16 Deutschland, Sterbezahlen Jahreswerte von 2016 – 2020 für die Altersgruppen 70 – 80 /über 80 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Nun noch die Meldung der Helios-Klinikgruppe zu Corona. Während nach vielen Berichten die Kliniken „überlaufen“, ist die Helios-Klinikgruppe inzwischen weniger belastet und weist gegenüber dem Vorjahr über alle Zeiträume eine erhebliche Unterauslastung auf.

Bild 17 Helios-Kliniken. Bericht 11. Januar 2021

Tübingen, die Stadt des GRÜNEN „Querdenkers“

Herr Söder (und die ganze Berliner Polit-Schickeria) täten gut daran, sich endlich zu informieren, wie (einzelne Länder im Ausland, in Deutschland allerdings anscheinend nur) Tübingen „Coronawunder“ vollbringt.

Weiterhin sind für die Stadt Tübingen im WEB keine Zahlen zu Corona zu finden. Deshalb muss zur Darstellung des „Tübinger Coronaweges“ weiterhin auf die Daten der Universitäsklinik Tübingen als Stichprobe ausgewichen werden (in [2] im Detail ausgeführt und erklärt).

Anbei die aktuellen Coronadaten der Klinik (Bild 19) zum Vergleich mit den Corona-Deutschlandwerten (Bild 18). Auch wenn die Werte inhaltlich nicht direkt vergleichbar sind, haben die Verläufe eine erhebliche, relative Signifikanz. Und diese zeigen weiterhin, dass in Tübingen durch Palmers einfache Maßnahmen – konsequenter Schutz der Personen über 80 Jahre – noch weit vor dem ersten Impfen, das Verhalten der Wellen Eins und Zwei umgedreht werden konnten.
Davon ist der Rest von Deutschland mit Merkels „alternativlosen“ Maßnahmen und Herrn Söders markig-arroganten Sprüchen immer noch meilenweit entfernt, eher ist überhaupt kein Weg dorthin erkennbar.

Bild 18 Deutschland Coronadaten 2020 (Tageswerte)

Bild 19.1 Uniklinik Tübingen. Behandlungsdaten Corona-Patienten 2020 (vom Autor aus deren liebloser Homepagehinterlegung mühsam abgetippt und grafisch umgesetzt)

Ein Land kaputt zu machen ist immer einfacher, als es mit Bedacht zu regieren

Es scheint sich inzwischen eine echte Manie mit einem Wettbewerb entwickelt zu haben, alleine beim nutzlosen Weg des immer härteren und immer längeren Lockdown zu bleiben und andere Wege aus Prinzip nicht in Erwägung zu ziehen. Streng nach der in Deutschland bisher gängigen Regel, einen Feind – egal wie übermächtig er sei – grundsätzlich (bis zum bittersten Ende) versuchen zu vernichten, auch wenn es das eigene (Über-)Leben kostet, anstelle ihn zu akzeptieren und mit ihm zu kooperieren (Anm.: Nur wo es um die eigenen Fleischtöpfe geht – wie in den politischen Einheitsmeinungs-Parteien – wird davon abgewichen). Der Berliner „Tagesspiegel“ zeigt es symptomatisch:
Tagesspiegel 11.01.2020: Corona-Bekämpfung sollte verschärft werden: Die neue Mutante ist schnell – wir müssen schneller sein

Und damit reiht sich die aktuelle Pandemiebekämpfung Deutschlands nahtlos in der unfehlbaren Merkels „Alternativlosigkeiten“ ein, öfters optische Bilder (Fukushima, von Greenpeace gelbrot eingefärbte Wasserdampfwolken von Kohlekraftwerken, Kinder an der Grenze, Särge in Bergamo) zum Anlass ihres Handelns zu nehmen.

Die Särge von Bergamo

Die erschütternden Bilder Anfang des letzten Jahres aus Bergamo mit von einem Militärlastwagen-Konvoi auf offenen Ladeflächen abtransportierten Särgen sagen etwas vollkommen anderes aus, als es den deutschen Bürgern von der Politik und den Medien weisgemacht wurde, wurde in deutschen Medien und seitens der Politik (nach Meinung des Autors) nie richtiggestellt:
[3] THE EUROPEAN 14.05.2020: Italiens Pandemie-Gesetz und seine Folgen
… Ein wunderbares Beispiel der Wirkung gesetzlicher Logik. Die zentrale Norm dazu ist das italienische Pandemie-Gesetz, das vorschreibt, dass an einem Pandemie-Virus Verstorbene nicht beerdigt werden dürfen, sondern verbrannt werden müssen. Wer Italien kennt …, weiß wie gut-katholisch sie sind … und hat … die richtige Assoziation von den landesweit üblichen, traditionellen Beerdigungszeremonien.
… dass die Zahl der in Italien sehr selten genutzten Krematorien nicht ausreicht, um plötzlich alle Verstorbenen zu verbrennen … Jawohl alle! … die Folge der zwingenden, gesetzlichen Angst-Vorschrift: Die Särge durften nicht abgeholt werden, sie stapelten sich vor den Krankenhäusern und wurden nicht wie sonst üblich, Stück für Stück einzeln auf die Dörfer und zu den Kirchen transportiert. Am Ende lagerten so viele übelriechende Särge vor den Krankenhäusern, dass man in dieser Notlage das Militär und seine Lagerkapazitäten einsetzen musste. Was bei diesen Einsätzen produziert wurde, waren wunderbare, bewegte und bewegende TV-Bilder, die die Welt erschreckten.
… Aber das Ganze hatte noch einen gesetzlichen Verstärker … jedenfalls ist es … nach den in ganz Italien geltenden Vorschriften nur sehr schwer möglich, als Kranker von einem Krankenhaus in ein anderes verlegt zu werden. Diese strenge Regel bewirkte, dass die Krankenhäuser im Süden Italiens leer waren und die Krankenhäuser im verdichteten italienischen Norden teilweise übervoll.
Auch diese gesetzliche Vorschrift verstärkte die Sichtbarkeit der Todesfälle, denn eine bessere Verteilung innerhalb des Landes hätte auch sonst die Berichterstattung entzerrt. Die Bilder von der geballten Ladung überlasteter Krankenhäuser im Norden Italiens … beflügelte die Angstmacherei unserer Mainstream-Medien.
… Dass diese Erkenntnisse bislang nicht aufgedeckt wurden, ist deshalb eine der schlimmsten Journalismus-Versagen unserer Zeit. Und die Drohung wirkt immer noch, Tag für Tag: Ja nicht zu schnell öffnen, sonst könnten wir unsere Erfolge wieder aufs Spiel setzen, verlautet es vom Kanzlerinnen-Thron. Von welchen Erfolgen redet sie denn bitte?

Übersterblichkeit

Auf die Rede des Herrn Söder mit dem „täglichen Corona-Flugzeugabsturz“ und der Erklärung hoher Übersterblichkeit durch Corona fragte der Autor über die Bayerischen Servicestelle beim Bayerischen Staatsministerium für Gesundheit und Pflege nach Belegen für die vom Ministerpräsidenten angegebene Übersterblichkeit nach.
Nach Mahnungen und längerer Wartezeit kam eine Antwort. Darin wird richtig informiert, dass eine „Übersterblichkeit“ nur zeitweise bestand und sich diese am Jahresende wahrscheinlich ausmittelt. Die Übersterblichkeit durch eine Pandemie wird am Wert des Vorjahres (und nicht denen ähnlicher Jahre mit Grippewellen) „festgemacht“. Weiter wird mitgeteilt, dass Deutschland eigentlich gar nicht „so schlimm“ betroffen ist, man sich aber am Ausland orientiert:
Ministerium, Antwort: … Nach Prof. Felix zur Nieden haben sich die Sterbezahlen erhöht.
„Im Frühjahr hatten wir im April zum Beispiel eine Erhöhung um zehn Prozent im Vergleich zum Durchschnitt der Vorjahre“, so zur Nieden. „Und auch regional ist es eben immer genau da auffällig, wo auch die höchsten Covid-19-Inzidenzen und Todesfallzahlen [zu finden sind].“ Das sei etwa in der ersten Welle in Bayern und Baden-Württemberg so gewesen. Laut zur Nieden lagen die Sterbefallzahlen in der Spitze dort um fast 30 Prozent über dem Vorjahresdurchschnitt.“
Nach einer Entspannung im April wurden Ende November und Dezember eine Anhäufung registriert.
Wahrscheinlich gleicht sich aber im Jahresvergleich die Rate der Übersterblichkeit aus. Zieht man jedoch einen europäischen Vergleich so ist eine 30 – 40 %ige Erhöhung laut des europäischen Projektes EuroMOMO zu verzeichnen. Dieses zeigt auf, dass der bisherige Weg der Regierung unser Land mit den verhängten Maßnahmen vor Schlimmeren bewahrt hat.

Prof. Nieden findet sich beim Statistischen Bundesamt. Von ihm ist auf der Homepage des Statistischen Bundesamtes ein Podcast „Podcast mit Dr. Felix zur Nieden, Experte für Sterbefallzahlen im Statistischen Bundesamt.“ hinterlegt.“
Darin führt er bezüglich der Ermittlung der Corona-Übersterblichkeit aus: … Übersterblichkeit bestand ausschließlich in Bayern und Baden-Württemberg. Andere Bundesländer waren kaum oder gar nicht betroffen. Wenn man sich das Ganze bezüglich der Altersstruktur ansieht, dann waren es vor allem die über 80jährigen, die davon betroffen waren. Da lagen die Zahlen teilweise 20 % über dem Vorjahresdurchschnitt. Wegen der zunehmenden Alterspyramide betrug deren Übersterblichkeit allerdings auch nur ca. 10 %.
Zudem definiert er in seinem Podcast die Übersterblichkeit (wie es die Bayerische Landesregierung übernommen hat): Übersterblichkeit liegt vor, sobald die Zahl der Sterbefälle im Krisenzeitraum über der des Vorkrisenniveaus liegt. Zufügung: Oder höher ist als im Vorjahr.

Bild 20 Deutschland, Sterbezahlen von 2016 – 2020 (fehlende KW 52 mit dem Wert der KW 51 gefüllt). Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Herr Prof. Nieden definiert Corona-Übersterblichkeit also nicht, indem er ein Pandemiejahr mit ähnlichen (Grippejahren) der Vergangenheit vergleicht und prüft, ob es aktuell signifikant „schlimmer“ oder „nicht so schlimm“ ist, sondern vergleicht einfach mit dem vorhergehenden Jahr.

Wie herrlich sich bei solchen Definitionen „Aussagen“ alleine über die letzten fünf Jahre generieren lassen anbei:
In den letzten fünf Jahren hatten:
– drei Jahre eine Übersterblichkeit (gegenüber dem Vorjahr),
– zwei Jahre eine Übersterblichkeit gegenüber dem Mittelwert

Bild 21 Deutschland, Jahreswerte Verstorbene gesamt der letzten 5 Jahre (Jahr 2020 hochgerechnet). Daten vom Statistischen Bundesamt

Mit der Definition des Prof. Nieden hätte die Politik somit schon die letzten fünf Jahre mehrmals „pandemisch“ tätig sein müssen. Hat sie aber nicht im Entferntesten getan. Was zeigt, dass es ihr diesmal im Kern eher um ein selbst aufgestelltes „Exempel“ und nicht um wirkliche, langfristig sinnvolle Pandemiebewältigung geht. Wobei sich eine Generalfestlegung stellt: Ab welcher deklarierten Übersterblichkeit hat die Politik nun vor, Deutschland jedes Mal konsequent „plattzumachen“?

Mit der Festlegung der Übersterblichkeit von Herrn Prof. Nieden sei nun geprüft, was diese für Auswirkungen auf das politische Handeln haben müsste. Dazu ein Hinweis. beim Statistischen Bundesamt finden sich Tabellen mit den Sterbezahlen seit 1950 und 1990, sowie eine Sonderauswertung „Sterbefälle – Fallzahlen nach Tagen, Wochen, Monaten ,,, Deutschland 2016 – 2020“. Zwischen beiden unterscheiden sich die Sterbezahlen etwas. Der Autor hat deshalb in allen entsprechenden Grafiken bis 2015 die Werte der Langzeittabellen und ab 2016 die der Sonderauswertung verwendet.

Bild 10 zeigt, dass die Sterblichkeit seit 2004 in Deutschland stetig ansteigt. Zieht man die Sterbewerte ab 2004 heraus, sieht man es deutlich als Trend:

Bild 22 Sterbefälle je 1000 Einwohner (Sterberate) seit 2004. Grafik vom Autor erstellt. Datenquelle: destatis

Daraus lässt sich ableiten:
– die Festlegung der Übersterblichkeit als Differenz zum Vorjahreswert ist barer Unsinn,
– die Corona- „Übersterblichkeit“ des Jahres 2020 kann genau so gut aus einem „natürlichen“ Trend der Sterberaten-Erhöhung erklärt werden und wird in Zukunft häufiger geschehen.

Als Basis für politische Maßnahmen bis hin zur Zerstörung Deutschlands ist diese Definition somit vollkommen ungeeignet.
Das folgende Bild mit den gleichen Werten in anderer Darstellung verdeutlicht es zusätzlich, weil es ausweist, wie oft die angeblich so schlimme Corona-Übersterblichkeit bereits vorgekommen ist (und nie zu besonderen Maßnahmen geführt hat).


Bild 23 Differenz zum Vorjahreswert der Sterberate seit 1950. Grafik vom Autor erstellt

Bild 24 Differenz zum Vorjahreswert der Sterberate, aber nur Jahre mit positiven Differenzwerten zum Vorjahr, also einer „Übersterblichkeit“. Grafik vom Autor erstellt

Nach der Übersterblichkeitsdefinition des Statistischen Bundesamtes hätten und müssen in Zukunft unsere Politiker regelmäßig Lockdowns mit allen Folgen und Kosten einleiten, wie es die Bilder mit den Vorjahresdifferenzen zeigen. Dass sie es bisher trotz „eindeutiger“, statistischer Vorgaben früher nicht getan haben, sagt aus, dass die Definition wohl nur „aus dem Hut gezaubert“ wurde, um die Lockdown-Maßnahmen nachträglich (pseudo-)„wissenschaftlich“ zu belegen.

Würden es die Politiker mit dieser Definition wirklich ernst meinen, bekämen sie ein immer größeres Lockdown-Zukunftsproblem.

Bild 25 Differenz zum Vorjahreswert der Sterberate seit 2004 (Ausschnitt aus Bild 24), aber nur Jahre mit positiven Differenzwerten zum Vorjahr, also einer „Übersterblichkeit“. Grafik vom Autor erstellt

Zum Thema passend:
[5] Achgut 14.01.2021: Fallender Grenznutzen, steigende politische Dummheit
[4] Tichys Einblick 11. Januar 2021: Corona-Versagen: Dreht die Politik jetzt durch?
… Immer lauter, immer schriller, immer dümmer: Wenn man der Politik zuhört, kann einem Angst und Bange werden. Nicht vor dem Virus, sondern angesichts der Unfähigkeit, eigene Fehler einzuräumen und zu korrigieren.

Tichys Einblick, 15.01.2021: „Illegaler Kindergeburtstag“ – Medien und Polizei im Dauereinsatz gegen Bürger

Abschließend zur Frage: Warum immer wieder Corona? – Weil die Verdummung der Bürger und das Vorgehen der Politik – und nun der auf diesen Zug aufspringenden NGOs – eine direkte Äquivalenz zum Klimawandel darstellt (rein persönliche Überzeugung des Autors die wissenschaftlich nicht belegt ist).

Und die Akteure sind auch schon die Gleichen:
WELT 14.01.2020: Initiative will Europas Wirtschaft komplett runterfahren – bis null Neuinfektionen
Eine Initiative von Wissenschaftlern, Aktivisten und Gesundheitspersonal fordert angesichts der Corona-Krise ein europaweites Herunterfahren auch für die Wirtschaft.
„Die Initiative hält die bisherigen Versuche, die Pandemie zu kontrollieren, für gescheitert“, hieß es in dem Aufruf. Die Maßnahmen schränkten das Leben dauerhaft ein und hätten dennoch Millionen Infektionen und Zehntausende Tote gebracht. Durch Mutationen breite sich das Virus nun noch schneller aus. Die Infektionszahlen auf null zu drücken sei Voraussetzung, um die Krise bewältigen zu können.
Zu den Erstunterzeichnern gehören nach Angaben der Initiative etwa die Klimaaktivistin Luisa Neubauer, die Autorinnen Margarete Stokowski und Teresa Bücker sowie der Sea-Watch-Aktivist Ruben Neugebauer.

Quellen

[1] THE EUROPEAN 09.01.2021: Der Rückgang der Zahlen durch den Lockdown fällt nicht sehr beeindruckend aus

[2] EIKE 11.12.2020: Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterblichkeit“ zu finden

[3] THE EUROPEAN 14.05.2020: Italiens Pandemie-Gesetz und seine Folgen

[4] Tichys Einblick 11. Januar 2021: Corona-Versagen: Dreht die Politik jetzt durch?

[5] Achgut 14.01.2021: Fallender Grenznutzen, steigende politische Dummheit

 




Freie Rede? Kann man vergessen!

Hier sind die neuesten „Nachrichten“: David Legates und Ryan Maue, Wissenschaftler im White House Office of Science and Technology Policy, wurden aus dem Weißen Haus versetzt und der National Oceanic and Atmospheric Administration (NOAA) zugewiesen, wo sie zuvor beschäftigt waren.

Was haben sie getan, um auf diese Weise degradiert zu werden?

Sie veröffentlichten, was die New York Times CERES als „widerlegte wissenschaftliche Berichte“ bezeichnete, auf einer „Klimaleugner“-Website (die von einer privaten Forschungsgruppe, dem Center for Environmental Research and Earth Sciences gesponsert wird). Sie taten dies ohne die Zustimmung von Kelvin Droegemeier, dem Leiter des Büros für Wissenschaft und Technologie.

Seltsamerweise erfuhr Droegemeier erst durch die Medien von dem Posting.

Die Times schrieb über die Aktion: „Der Schachzug schien ein schurkischer Versuch zu sein, die Unterschrift der US-Regierung unter eine Forschung zu setzen, die darauf abzielt, die etablierte Wissenschaft des Klimawandels zu untergraben.“

Schurkisch? Bis zum 12. Januar war David Legates Leiter des US-Forschungsprogramms für globalen Wandel, und die Beiträge handelten vom globalen Klimawandel. Vielleicht war das Ziel, die Öffentlichkeit mit einigen Forschungsergebnissen zu versorgen, die eine Alternative zu den apokalyptischen Behauptungen bieten, die jetzt ungenau als „etablierte“ Wissenschaft bezeichnet werden? („Etablierte“ Wissenschaft, jawohl.)

Schauen wir uns einige Formulierungen an, welche die Times in diesem angeblichen Nachrichtenbeitrag verwendet hat:

Sie spielte die Qualifikationen herunter. Legates wurde als „ein Klima-Leugner im vergangenen Jahr von der Trump-Administration installiert, um die wissenschaftliche Arbeit über den Klimawandel zu überwachen.“ Tatsächlich ist er ein Professor in der Abteilung für Geographie und Raumwissenschaften und dem Physical Ocean Science and Engineering Program in der School of Marine Science and Policy an der University of Delaware, die jetzt mit der NOAA und dem Weißen Haus zusammenarbeitet. Er ist ein Klimatologe.

Roy Spencer wird als ebenfalls als „Klimaleugner“ bezeichnet. Tatsächlich ist er Leiter des US-Wissenschaftsteams für das Advanced Microwave Scanning Radiometer (auf dem Aqua-Satelliten der NASA) sowie leitender Forscher an der University of Alabama in Huntsville (UAH) und Meteorologe.

William Happer bekam nicht nur eine allgemeine Beschreibung, sondern seine Erkenntnisse spielten die zweite Geige bei dem Versuch der Times, ihn extrem klingen zu lassen. Er ist „ein Physiker, der die Dämonisierung von Kohlendioxid mit der ‚Dämonisierung der armen Juden unter Hitler‚ verglichen hat.“ Tatsächlich ist er Cyrus Fogg Brackett-Professor für Physik, emeritiert, in Princeton.

Ein wenig mehr Hintergrund: die „widerlegten Berichte“ waren als Broschüren gedacht, so CERES, die man als Reaktion auf „eine Reihe von ‚Hit Piece‘-Artikeln in den Medien“ von seiner Website genommen hat. CERES hat die Dateien fallen gelassen, gleichzeitig aber auch versucht, das Projekt zu erklären.

Die ursprüngliche Version dieser Webseite wurde ursprünglich als ein temporäres „Spiegel“-Archiv einer Sammlung von 10 pdf-Dateien von einer Reihe von Forschern gepostet, darunter ein pdf von CERES. Es wurde kein Kontext zur Verfügung gestellt, da der ursprüngliche Zweck lediglich der Austausch per E-Mail mit einigen Kollegen war. Die Webseite sollte einen einfachen Zugriff auf die Dateien zu Diskussionszwecken ermöglichen. Angesichts des großen Medieninteresses, das dies hervorgerufen hat, haben wir diese Webseite jedoch aktualisiert, um zusätzliche Informationen bereitzustellen.“

Nachdem die PDFs eine Zeitlang nicht verfügbar waren, findet man sie jetzt auf ClimateRealism.com.

[First posted at the Liberty and Ecology Blog.]

Link: https://www.heartland.org/news-opinion/news/free-speech-forget-it

Übersetzt von Chris Frey EIKE




Green New Deal: Ideologie, Phantaste­reien und Realitäten

Doch stattdessen verschwören sich Big Media und Big Tech mit den Demokraten, den Grünen, der innerstaatlichen Gewalt und anderen autoritären Elementen, um jede Diskussion von jedem zu unterbinden, der ihre Klima- und Energieagenda nicht unterstützt. Wut und Frustration bauen sich unter den zunehmend entrechteten Menschen auf. Unsere Zukunft ist in der Tat beunruhigend.

Joe Biden, Kamala Harris, AOC, die Demokratische Partei und US-Umweltschützer wollen den Klimawandel, den Green New Deal (GND) und den Ersatz fossiler Brennstoffe durch Wind-, Solar-, Batterie- und Biokraftstoffenergie zum Kernstück ihrer Außen- und Innenpolitik machen.

Sie behaupten, der Übergang wäre einfach, erschwinglich, ökologisch, nachhaltig und schmerzlos. Das ist Ideologie und Fantasie, nicht Realität.

Wind und Sonne sind sicherlich sauber und erneuerbar. Sie zu nutzen, um Amerika anzutreiben, ist es nicht.

Der GND würde amerikanische Familien, Arbeitsplätze, den Lebensstandard und die Umwelt hart treffen. Die westlichen US-Bundesstaaten würden die Hauptlast zu spüren bekommen, weil ihre Steuereinnahmen über fossile Brennstoffe, Lizenzgebühren, Arbeitsplätze und Steuereinnahmen verschwinden würden, wenn Bohrungen, Fracking und Kohleabbau auf öffentlichen Ländereien eingestellt werden. Ihre Freiflächen, landschaftlichen Ausblicke, Lebensräume für Wildtiere und die Tierwelt würden durch Windturbinen, Solarpaneele und Übertragungsleitungen entwertet werden, um weit entfernte städtische Wohnblöcke zu bedienen, die Energie- und Landnutzungsentscheidungen weit über die Stadtgrenzen hinaus diktieren.

[Hervorhebung im Original]

Kohle, Öl, Erdgas und Petroleumflüssigkeiten liefern immer noch 80 % der US-Energie. Im Jahr 2018 erzeugten sie 2,7 Milliarden Megawattstunden (MWh) Strom – die im Rahmen eines allumfassenden Green New Deal, der zig Billionen Dollar kosten würde, ersetzt werden müssten.

Weitere 2,7 Milliarden MWh Erdgas versorgten Fabriken, Notstromanlagen sowie Öfen, Herde und Warmwasserbereiter in Restaurants, Wohnungen und anderen Gebäuden. Autos, Lastwagen, Busse, Sattelschlepper, Traktoren und andere Fahrzeuge verbrauchten das Äquivalent von weiteren 2 Milliarden MWh.

Insgesamt sind das 7,4 Milliarden Megawattstunden pro Jahr, die der GND ersetzen müsste! Darüber hinaus bräuchten wir mindestens weitere 150 Millionen MWh an Wind- und Solarstrom-Erzeugungskapazität, um die Batterien immer wieder aufzuladen, um nur eine Woche lang eine landesweite Notstromversorgung aufrechtzuerhalten und/oder um Blackouts zu vermeiden.

Je mehr wir versuchen, dies zu tun, desto mehr müssten wir Turbinen und Paneele an Standorten errichten mit geringer Wind- und Solarausbeute. Dort erzeugen sie nur 15-20% des Jahres Strom, 80-85% unter der „Nennleistung“.

Natürlich könnten wir all diese fossile Energie durch Kernkraft ersetzen. Aber radikale Grüne innerhalb und außerhalb der baldigen Biden-Regierung verabscheuen und lehnen Atomkraft genauso ab wie fossile Brennstoffe.

Es würde die größte Ausweitung von Bergbau und Produktion in der Geschichte der Menschheit erfordern.

[Hervorhebung im Original]

Das bedeutet, dass diese Transformation zu einer rein elektrischen Nation Millionen von Onshore-Windturbinen, Tausende von Offshore-Turbinen, Milliarden von Solarmodulen, Millionen von Fahrzeugbatteriemodulen, Milliarden von Backup-Energiespeichermodulen, Tausende von Kilometern neuer Übertragungsleitungen, Millionen von Ladestationen, zig Milliarden Tonnen Beton, Stahl, Kupfer, Kunststoff, Kobalt, Seltene Erden und unzählige andere Materialien erfordern würde – und das Ausgraben Hunderter Milliarden Tonnen Abraum und Erzen!

Falls die USA und die Welt den Willen aufbringen könnten, genügend Metalle und Mineralien abzubauen, zu verarbeiten und zu schmelzen – und all diese Turbinen, Paneele, Batterien und Übertragungsleitungen herzustellen, zu transportieren und zu installieren – würde der GND die größte Ausweitung von Bergbau und Fertigung in der Geschichte der Menschheit erfordern.

Aber radikale Grüne innerhalb und außerhalb der Biden-Regierung verabscheuen und bekämpfen den Bergbau und die Produktion in den USA fast so sehr, wie sie fossile Brennstoffe verachten. Das bedeutet, dass wir für diese essentiellen Metalle und Mineralien nach Übersee gehen müssten – in erster Linie nach China und Russland, die sie innerhalb ihrer Grenzen oder unter ihrer Kontrolle in verschiedenen afrikanischen, asiatischen und lateinamerikanischen Nationen abbauen.

Sie haben auch keine Vorbehalte oder Bedenken, sie auszugraben und zu verarbeiten – ohne Rücksicht auf Kinder-, Sklaven- oder Zwangsarbeit, Sicherheit am Arbeitsplatz, Luft- und Wasserverschmutzung, Rekultivierung des abgebauten Landes oder andere Standards, auf die wir in Amerika bestehen. Und es ist höchst unwahrscheinlich, dass ein Team Biden verlangen würde, dass diese Länder solche Standards umsetzen – oder dass es sich weigern würde, die Metalle, Mineralien und fertigen „grünen“ Technologien zu importieren, solange China, Russland und ihre ausländischen Tochtergesellschaften sich nicht an unsere Regeln und Vorschriften halten. Der gesamte GND (und vieles mehr) würde ohne diese unethisch gewonnenen Rohstoffe zusammenbrechen.

Darüber hinaus würden fast alle diese Bergbau-, Verarbeitungs- und Herstellungsprozesse Benzin, Diesel, Erdgas und Kohle in diesen fremden Ländern benötigen, da diese Operationen nicht mit Wind-, Solar- und Batteriestrom durchgeführt werden können. Die Nutzung fossiler Brennstoffe und die Emissionen würden außerhalb der USA stattfinden, aber nicht verschwinden. In der Tat würden sie sich wahrscheinlich verdoppeln oder verdreifachen. Die Kohlendioxid-Emissionen würden das globale atmosphärische Niveau erhöhen und – Team Biden besteht darauf – Klima-Chaos und Extremwetter verschlimmern.

Tatsächlich findet der größte Teil des Abbaus, der Verarbeitung und der Herstellung von Wind-, Solar- und Batteriewerken bereits in Übersee statt, unter wenigen oder gar nicht existierenden Gesetzen zur Arbeitssicherheit, zu fairen Löhnen, Kinderarbeit und Umweltschutz. Etwa 40.000 kongolesische Kinder schuften neben ihren Eltern für ein paar Dollar am Tag, während sie ständig giftigem, radioaktivem Schlamm, Staub, Wasser und Luft ausgesetzt sind, um den heutigen Kobaltbedarf zu decken. Man stelle sich die GND-Kosten vor.

Um Öl und Gas für Petrochemikalien, Pharmazeutika und Kunststoffe zu ersetzen, müssten diese Rohstoffe ebenfalls importiert werden – oder es müssten Millionen von Hektar mit Raps, Sojabohnen und anderen Biokraftstoffpflanzen bepflanzt werden. Der Bedarf an Wasser, Dünger, Pestiziden, Traktoren, Erntemaschinen, Verarbeitung und Transport wäre astronomisch.

All diese Arbeiten und Industrieanlagen würden Hunderte Millionen Hektar landschaftlicher Gebiete, Anbauflächen und Lebensräume für Wildtiere beeinträchtigen. Raubvögel, andere Vögel, Fledermäuse, Wald-, Grasland- und Wüstenbewohner würden erhebliche Verluste erleiden oder zum Aussterben verurteilt werden.

Die meisten dieser Auswirkungen würden auch im Mittleren Westen und Westen Amerikas auftreten, weit entfernt von den Wahlzentren und verdächtigem Wahl verhalten, die Team Biden ins Amt gebracht haben. Aber wie man so schön sagt: Aus den Augen, aus dem Sinn – in den Hinterhöfen der anderen.

Der GND würde auch bedeuten, dass perfekt funktionierende Erdgasgeräte herausgerissen und durch Elektromodelle ersetzt werden müssten, dass Schnellladesysteme für Fahrzeuge installiert werden müssten und dass die elektrischen Systeme der Haushalte, der Nachbarschaft und des Landes aufgerüstet werden müssten, um die zusätzlichen Lasten zu bewältigen – was weitere Billionen Dollar kosten würde.

Die Stromkosten würden sich verdoppeln, verdreifachen, vervierfachen – oder viel schlimmer

Familien, Fabriken, Krankenhäuser, Schulen und Unternehmen, die gewohnt sind, 7-11 Cent pro Kilowattstunde für Strom zu bezahlen, würden 14-22 Cent pro kWh zahlen, wie sie es bereits in „grünen“ US-Bundesstaaten tun – oder sogar die 35 Cent, die Haushalte derzeit in Deutschland zahlen. Sobald sie mehr als eine willkürlich festgesetzte „maximale Grundmenge“ Strom pro Monat verbrauchen, werden sie eher 45¢ pro kWh bezahlen, wie es Familien in Kalifornien bereits tun.

[Hervorhebung vom Übersetzer]

Wie Unternehmen überleben werden, wie viele Arbeitsplätze verschwinden werden, wie viele Familien sich in die Riege derer einreihen werden, die zwischen Heizung und Essen wählen müssen – das weiß niemand.

GND-Technologien sind zu fast 100 % abhängig von Metallen und Mineralien aus China, Russland, der Ukraine und chinesischen Unternehmen in Afrika und Lateinamerika. E-Mails aus Hunter Bidens Laptop unterstreichen die Bedenken, dass Amerikas Außen-, Verteidigungs- und Innenpolitik in Geiselhaft genommen würde, während bestimmte gut vernetzte Politiker, Familien und Wind-, Solar-, Batterie- und Biokraftstoffunternehmen reich werden.

All diese Themen erfordern eine offene, robuste Debatte – die zu viele Schulen und Universitäten, Nachrichten und Soziale Medien, Unternehmens- und politische Führer sowie und Antifa-Schläger und Brandstifter weiterhin zu zensieren und zu verhindern versuchen. Diese Zensur und das Schweigen müssen aufhören, bevor irgendwelche Abstimmungen oder andere Maßnahmen zu einem Grünen New Deal getroffen werden. Leider ist das Gegenteil der Fall.

[Hervorhebung vom Übersetzer]

Big Media und Big Tech verschwören sich mit Demokraten, Grünen und anderen autoritären Elementen, um jedwede Diskussion mit jedem abzuwürgen, der nicht ihre Agenden unterstützen. Andere scheuen keine Mühen, Präsident Trump und jeden mit seiner Regierung und Politik verbundenen Menschen zu verfolgen.

[Hervorhebung im Original]

Da Wut und Frustration unter den zunehmend entrechteten Menschen zunehmen, könnten Amerika und die Welt in der Tat auf eine beängstigende Zukunft zusteuern.

Paul Driessen is senior policy advisor for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books, reports and articles on energy, environmental, climate and human rights issues

Link: https://www.iceagenow.info/green-new-deal-ideologies-fantasies-and-realities/

Übersetzt von Chris Frey EIKE




Kein Vergleich: Zufälliger Wind- und Sonnenstrom kann nicht mit zuverlässiger Kohlekraft konkurrieren

Die Standard-Trickkiste beinhaltet das Ignorieren der Systemkosten, wenn jedes einzelne (unzuverlässige) Megawatt Wind oder Sonne ständig durch ein anderes zuverlässiges Medium aus Kohle, Gas, Kernkraft oder Wasserkraft gesichert werden muss. Die Befürworter weigern sich, die Kosten für den Stromverbraucher anzuerkennen: Begünstigung der Produzenten von EE durch vorgeschriebene Abnahmeziele, Vorrangeinspeisung, Steuererleichterungen und / oder massive direkte Subventionen, die ausschließlich Wind und Sonne zugutekommen; weiterhin werden die der zusätzlichen Übertragungsleitungen und deren Kosten Ignorieren, die entstehen, wenn intermittierende und diffuse Energiequellen von entfernten Orten (wo sie produziert werden) in die Städte gebracht werden, in denen der Strom verbraucht wird. Auf dem Land werden durch die Zerstörung von einst lebenswerten ländlichen Gebieten und Gemeinden Werte vernichtet, einschließlich der Wertminderung von Immobilien. Das geht soweit, dass Eigentümer gezwungen waren, ihre  Häuser zu verlassen, da der pulsierende, pochende, niederfrequente Lärm  der Windkraftanlagen unerträglich wurde.

Ende letzten Jahres trat das australische CSIRO – die Commonwealth Scientific and Industrial Research Organization – mit seinen eigenen „Schweine können fliegen“ -Behauptungen in den Kampf ein , wonach Wind und Sonne gegenüber zuverlässigen Stromerzeugungsquellen wettbewerbsfähig wären.

Die GenCost-Studie 2018/2020 des CSIRO hat die AEMO und die üblichen Verdächtigen als Goldstandard angepriesen, um zu demonstrieren, dass Wind und Sonne billiger sind als herkömmlicher Strom. Diese gefährliche Illusion wurde durch eine umfassende Studie unterstützt, die vor über einem Jahr dem NSW-Parlament vorgelegt wurde.

Hier ist eine weitere Kritik von zwei Teammitgliedern des Projekts „Vier Eisberge“, Craig Brooking und Mike Bowden, deren Zusammenfassung folgt.

Ein Rückblick auf die Probleme mit Gencost 2018
Craig Brooking und Mike Bowden
Dezember 2020

1 ZUSAMMENFASSUNG

 1.1 Hintergrund

Als Antwort auf ein Schreiben eines der Autoren dieser Studie an seinen Parlamentarier, erklärte der Minister für Energie und Umwelt: „Die wirtschaftlichste Form einer zuverlässigen Erzeugung sind ausgebaute erneuerbare Energien. Dies führt zu der größten Veränderung in die Geschichte unseres Elektrizitätssystems “. In dem Schreiben des Ministers wurde dem Verfasser außerdem empfohlen, bei Bedarf weitere Informationen von der dafür zuständigen Beamtin einzuholen.

Anschließend wurde die zuständige Beamtin kontaktiert und ihr Rat bezüglich der Referenz für die Erklärung des Ministers zur Wirtschaftlichkeit erneuerbarer Energien eingeholt. Der Autor wurde ordnungsgemäß darauf hingewiesen, dass die CSIRO-Veröffentlichung ‚GenCost 2018‘ die Quelle war.

Muir-Model-Options in GenCost 2018, Modellierung durch Barry Murphy, 

Basisfall 1 (Aktueller Strommix –  NEM-Näherung), durchschnittliche Grundlast von 18.368 MW bei konstantem Strombedarf. Diese Last zuzüglich täglicher Spitzen müssen jederzeit zuverlässig versorgt werden. Gegenwärtig im Mix mit 78% Kohle plus kombinierten Gasturbine (CCGT), offener Gasturbine (OCGT), Wind-, Solar-PV und Wasserkraft, einige Batteriespeicher. Die geschätzten Kosten betragen 68,87 USD / MWh.

Fall 2 3.000 MW Kernkraftkapazität in den Mix von Fall 1 als Ersatz für Braunkohle, geschätzte Kosten insgesamt 72,48 USD / MWh , … Emissionen um rund 23% senkt.

Fall 3 Ersetzens der gesamten Kohle in Fall 1 durch Atomkraft. Die Emissionen sinken um rund 93%, wobei der SLCOE auf 90,23 USD / MWh steigt .
[Es könnte viel billiger werden: Abschalten aller Wind- und Solaranlagen]

Fall 4 Auswirkungen der vom australischen Energiemarktbetreiber (AEMO) bis 2040 projizierten Kombination von Erzeugungstechnologien, wie in seinem Integrierten Systemplan (ISP) vom Juli 2018 gezeigt.

Fall 5 Ersetzens der gesamten Kohle in Fall 1 durch CCGT. Beachten Sie, dass dies einen Anstieg des SLCOE um + 6,49 USD / MWh gegenüber dem obigen Fall 3 sowie einen erheblichen Anstieg der Emissionen zeigt.

Fall 6 100% erneuerbare Mischung aus Solar-PV, Wind und Wasserkraft mit Unterstützung durch Pumpspeicher und einige Batteriespeicher… Solar-PV und Wind benötigen einen Ausbau auf mind. 110.000 MW. Zuzüglich 30.000 MW Pumpspeicherkapazität für 3 Tage, zuzüglich Infrastruktur – geschätzte SLCOE $ 415,50 I MWh.

Empfehlung Rafe Champion, 09/2020: Langfristig muss das bestehende Verbot der Entwicklung der Kernenergie für Australien aufgehoben werden.

Hat jemals jemand gesagt, dass es billig sein würde, den Planeten zu retten?

GenCost 2018 wurde untersucht und eine Reihe potenzieller Mängel festgestellt. GenCost 2018 wies insbesondere darauf hin, dass „ LCOE-Schätzungen in ihrer derzeitigen Form irreführend sein können, wenn sie unabhängig vom klimapolitischen Risiko denselben Abzinsungssatz anwenden und die erforderliche zusätzliche Ausgleichstechnologie von Natur aus nicht anerkennen durch variable erneuerbare Erzeugung, wenn ihr Anteil am Erzeugungsmix zunimmt. Angesichts der Tatsache, dass der variable Anteil erneuerbarer Energien in den meisten australischen Staaten voraussichtlich auf 50% oder mehr ansteigen wird, ist dies ein Problem, das gelöst werden muss. “

[Levelized Cost of Energy (LCOE) – Stromgestehungskosten, Umwandlung eines Rohstoffs in Elektrizität incl. Zusatzkosten; CO2 Steuer z.B.]

Dementsprechend wurde eine kurze Studie ausgearbeitet, um die Mängel hervorzuheben und die Regierung von New South Wales wurde um Klärung gebeten. Die Regierungsbeamten lehnten es ab, weitere Auskünfte zu erteilen. Der Autor wurde an das CSIRO verwiesen und die Korrespondenz ohne Antwort an das CSIRO weitergeleitet. Es wurde beschlossen [durch die o.g. Autoren], eine umfassendere Analyse der Energiepolitik der NSW-Regierung durchzuführen und ein Treffen mit dem Minister anzustreben. Diese Studie ist das Ergebnis dieser Ausarbeitung.

[CSIRO – Die Commonwealth Scientific and Industrial Research Organisation ist die staatliche Behörde Australiens für wissenschaftliche und industrielle Forschung. Dienstsitz ist Canberra, gehört zum Ministerium für Industrie, Wissenschaft, Klimawandel, Energie und Ressourcen]

 1.2 Die Frage zu Kohlendioxid (CO2)
Eine kurze Untersuchung der geologischen Geschichte der Erde bestätigt, dass sich die CO2-Konzentration in der Atmosphäre über Millionen von Jahren oft dramatisch verändert hat und die Erde nicht zerstört wurde.

Es kann daher der Schluss gezogen werden, dass die unbewiesene Hypothese, dass anthropogene CO2-Emissionen zu einer außer Kontrolle geratenen globalen Erwärmung führen, bei der Entwicklung der Energiepolitik von NSW keine ernsthafte Rolle spielen sollte.

Dementsprechend wurde jede Diskussion über die Kohlenstoffabscheidung und -speicherung (CCS) und den Preis für Kohlenstoff, der in Lebenszyklusberechnungen verwendet wird, aus dieser Studie gestrichen, da sie dem Stromsystem erhebliche Kosten ohne wirklichen Nutzen hinzufügen.

 1.3 Methodik

Es wurde ein Szenario entwickelt, das ein modernes, hocheffizientes, emissionsarmes Kohlekraftwerk (HELE) umfasste, das einem kürzlich in Deutschland in Betrieb genommenen Kraftwerk ähnelt. Es gab auch Windparks, die auf der Sapphire Wind Farm in NSW basieren. In Anbetracht der bekannten Zuverlässigkeitsprobleme bei intermittierenden Windstromanlagen, wurden die Windparks im Szenario entweder durch Open Cycle-Gasturbinen (OCGT) oder Combined Cycle-Gasturbinen (CCGT) gestützt, mit technischen Eigenschaften, die die auf  internationalen Märkten üblichen Windräder widerspiegeln.

Die Kapital- und Betriebskosten für jede Technologie wurden anhand von Daten ermittelt, die vom australischen Energiemarktbetreiber (AEMO) angefordert wurden. Berechnungen wurden durchgeführt, um die Kosten pro Megawattstunde (MWh) elektrischer Energie zu bestimmen und die Ergebnisse zu vergleichen.

Die Ergebnisse zeigten, dass die Kosten pro MWh, die durch die HELE-Kraftwerke erzeugt wurden, signifikant niedriger waren als in den von OCGT oder CCGT betriebenen Windparks, was darauf hinweist, dass feste erneuerbare Energien nicht die wirtschaftlichste Form einer zuverlässigen Erzeugung sind.

[HELE – High Efficiency, Low Emissions (HELE) coal plants]

1.4 Ersetzen der NSW-Kohlekraftwerke

Bis 2035 wird es in NSW noch ein einziges Kohlekraftwerk geben. Die Elektrizitätsstrategie der Regierung von New South Wales sieht einen Plan für die Lieferung von drei Zonen für erneuerbare Energien (REZ) in den Regionen Central-West Orana, New England und South-West vor. Dies baut auf der NSW Transmission Infrastructure Strategy auf und unterstützt die Umsetzung des Integrated System Plan des australischen Energiemarktbetreibers. Es wird davon ausgegangen, dass diese REZ die Kohlekraftwerke ersetzen sollen.

In dieser Studie wurden die Kosten für den Ersatz der Kohlekraftwerke durch Windparks untersucht, die von OCGTs oder CCGTs betrieben werden. Diese Kosten sind erheblich und die Frage, wer diese Kosten übernimmt und welche Auswirkungen sie auf den Einzelhandelspreis für elektrische Energie haben werden, bleibt offen.

1.5 Die deutsche Erfahrung

Deutschland hat die Energiewende-Politik eingeführt, seine Kohle- und Kernkraftwerke durch Wind, Biomasse und Sonne zu ersetzen. Die Kosten sind jedoch enorm und es gibt jetzt eine erhebliche öffentliche Gegenreaktion gegen die daraus resultierende Zerstörung der Umwelt und der erhöhten Stromkosten.

Die installierten Nennleistungen der kombinierten deutschen Wind- und Solaranlagen, sind ungefähr doppelt so hoch wie der durchschnittliche Leistungsbedarf in diesem Land. Aufgrund des intermittierenden Charakters der Wind- und Solarparks in Verbindung mit ihren geringen Kapazitätsfaktoren, kann ihre Stromproduktion jedoch nicht den Bedarf decken, den bislang die konventionellen deutschen Kraftwerke und die aus den Nachbarländern importierte Energie alleine liefern. Australiens aktuelle Planung bringt es auf einen ähnlichen Pfad wie Deutschland; Australien hat jedoch nicht den Luxus, elektrisch [noch] gut ausgerüsteter Nachbarn.

Stromgestehungskosten_Deutschland_2018_laut_Fraunhofer_ISE

[Obige Grafik kann nicht mit der australischen Studie verglichen werden, da in dieser alle Zusatzkosten für Erneuerbare fehlen. Ausserdem ist kein Faktor zur Bewältigung / Back-up der volatilen Einspeisung von Wind und Sonnenstrom eingeschlossen. – Fundstück durch den Übersetzer]

1.6 Solarenergie

Angesichts der Tatsache, dass der Kapazitätsfaktor von Solarenergie in großem Maßstab geringer ist als der von Wind und daher eine noch stärkere back-up  Leistung und damit höhere Kosten erfordert, ist es schwierig, die Einbeziehung solarer Energie  in das elektrische Energiesystem zu rechtfertigen. Dementsprechend wurde in dieser Studie keine detaillierte Untersuchung der Solarenergie durchgeführt.

1.7 Schlussfolgerungen

Diese Studie zeigt, dass die Kosten je MW für zuverlässige und planbare elektrische Energie, die von den HELE-Kohlekraftwerken erzeugt wird, erheblich geringer sind, als die Kosten für erneuerbare Energien. Daher sollte die HELE-Technologie die Energiestrategie der NSW-Regierung unterstützen.

1.8 Empfehlungen
Die NSW-Regierung:

  • Sollte die Elektrizitätsstrategie überprüfen und sofort ein Programm zur Verlängerung der Lebensdauer der fünf vorhandenen Kohlekraftwerke umsetzen.
  • Sollte sofort den Bau zusätzlicher Einheiten in bestehenden Kohlekraftwerken umsetzen, damit diese in einem überschaubaren Zeitpunkt in Betrieb gehen können. Zum Beispiel Mt Piper. Kohlekraftwerk mit 1.400 MW, in der Nähe von Portland im zentralen Westen von New South Wales]
  • Sollte planen, die fünf Kohlekraftwerke nach Ablauf ihrer verlängerten Lebensdauer durch moderne HELE-Kohlekraftwerke zu ersetzen.
  • Sollte sicherstellen, dass alle Generatoren für erneuerbare Energien (RE), ihre auf dem Typenschild angegebene Leistung planbar und ohne Subventionen und / oder Vorzugsbehandlung wirtschaftlich liefern können, bevor sie an das Übertragungsnetz angeschlossen werden.
  • Sollte sicher stellen, dass die für einen solchen Anschluss erforderliche Infrastruktur vorher vom Investor dieser „Erneuerbaren Stromquelle“ finanziert werden muss. [Wo kommen denn die dahin!?]

Die vollständige Studie: Brooking & Bowden 2020 A review of the Problems with Gencost 2018
[Ein Überblick über die Probleme mit Gencost 2018 – es öffnet sich ein WORD.doc]

https://stopthesethings.com/2021/01/10/no-contest-never-reliable-wind-solar-cant-compete-with-ever-reliable-coal-fired-power/

Übersetzt durch Andreas Demmig

 

Ergänzung:

In den Kommentaren zu obigen




Klimaschau 8 – die Tagesschau von Sebastian Lüning

Keine Vorschau zu sehen? HIER KLICKEN!




Deutschlands wacklige Stromversorgung

Dieser Trend setzt sich dramatisch fort – augenfällig in der kalten Jahreszeit.

Jedes Jahr im Winter ein ähnliches Bild: Ohne Strom aus Kohle- oder Kernkraftwerken säßen wir im Dunkeln. Die Energiemengen, die Windräder und Photovoltaikanlagen liefern, reichen bei weitem nicht aus, sie gehen sogar an vielen Tagen gegen null. Beispiel 9. Januar, 18:00 Uhr. Deutschland verbrauchte knapp 65 Gigawatt (GW), dazu trug der Wind gerade einmal 1,6 GW an Leistung bei. Nicht verwunderlich, daß die Photovoltaikanlagen vollends dunkel blieben.

Stromerzeugung und -verbrauch vom 6. bis zum 13. Januar Grafik: Agora Energiewende

Und das war kein Einzelfall: In den vergangenen Wochen sah das Bild nicht viel besser aus. Ohne die gewaltigen Stromlieferungen von Kohle und Kernkraft wäre es im Dezember mit der knusprig gebratenen Weihnachtsgans im Backofen nichts geworden. Die Sonne lieferte erwartbar wenig, an den dünnen gelben Flächen auf der Grafik nicht zu übersehen. Die blauen darunter repräsentieren die Energiemengen aus Wasserkraft – sie reichen bei weitem nicht; ganz zu schweigen von der geringen Leistung der Kraftwerke, die mit Biomasse betrieben werden, wie man an dem dunkelgrünen Streifen am unteren Rand erkennen kann. Erschreckend dünn, vergleicht man das Resultat mit den gewaltigen Flächen, auf denen Mais für Biogasanlagen angebaut werden.

Stromerzeugung und -verbrauch von November bis Januar Grafik: Agora Energiewende

„Erneuerbare“ Energien sind privilegiert die Kosten hoch

Gerade veröffentlichte die Bundesnetzagentur die Bilanz von Stromerzeugung und Stromhandel des vergangenen Jahres. Die dramatischen wirtschaftlichen Folgen aufgrund der „Lockdowns“ schlugen sich auch im reduzierten Stromverbrauch nieder. Der sank um 3,2 Prozent auf 474,9 Terawattstunden (TWh). Der sogenannte regenerativ erzeugte Strom lieferte mit 49,3 Prozent fast die Hälfte der Netzlast, im Vorjahr waren es 46,1 Prozent.

Wenn insgesamt weniger Strom erzeugt wird, steigt der Anteil des Stroms der sogenannten „Erneuerbaren“. Die sind aufgrund des EEG-Gesetzes privilegiert, deren Strom muß zuerst abgenommen werden, im Zweifel müssen Kohle- und Kernkraftwerke heruntergefahren werden.

Das ist vor allem eins: extrem teuer, weil große Kraftwerke unproduktiv in der Landschaft stehen. Gegen ein vollständiges Abschalten sträubt sich die Bundesnetzagentur. Dort sitzen noch einige Experten, die wissen: Ohne Kohle und Kernkraft geht es nicht, sie erklären diese Kraftwerke für systemrelevant. Deren Stillstand wird vom Stromverbraucher bezahlt.

Der Stromverbrauch steigt mit zunehmender Technisierung

Bis vor zehn Jahren noch – in Zeiten eines gedeihenden Industrielandes Deutschland – lag der Stromverbrauch mit bis zu 541 TWh deutlich höher. Doch bekanntlich hatte sich die Bundesregierung im Energiekonzept aus dem Jahre 2010 das Ziel gesetzt, den Energieverbrauch zu senken. Die Folgen für ein Industrieland kann sich jeder leicht selbst ausmalen, wenn man weiß, daß mit steigender Zivilisation immer auch der Energieverbrauch ansteigt.

„Der tägliche Energiebedarf eines Erwachsenen hat sich im Laufe der Menschheitsgeschichte laufend erhöht. Er betrug um die 8 kWh bei Jägern und Sammlern der Steinzeit, 30 kWh im Mittelalter und ist auf über 300 kWh in modernen Industriegesellschaften angestiegen.“ So beschreibt diese Entwicklung Physiker Horst-Joachim Lüdecke in seinem Buch „Energie und Klima« die Zusammenhänge“.

Wenn man Grünen-Fraktionschef ist und Anton Hofreiter heißt, kann man vom Erfolg der Energiewende und vom Stromexportland Deutschland reden. Oder man redet von einem Exportüberschuß in Höhe von 60 Milliarden kWh wie ein Felix Matthes, Energieexperte beim Öko-Institut in Berlin, das vor drei Jahren getan hat: „Wir erreichen in diesem Jahr einen Exportüberschuss von 60 Milliarden Kilowattstunden, das ist die Jahresproduktion von 20 Kraftwerksblöcken.“

Wenn man realistisch ist, fragt man, wann Strom exportiert und wann importiert wird. Ein Blick auf die technischen Hintergründe verschafft Klarheit: Strom ist ein besonderer Saft. Er kann nicht wie Zement, Mehl oder Benzin gelagert werden, sondern muß in sekundengenau dem Augenblick erzeugt werden, in dem er gebraucht wird. Umgekehrt muß die Produktion sofort reduziert werden, wenn die Nachfrage sinkt. Gewaltige Energiemengen werden dazu in Sekundenbruchteilen durch europäische Netze verschoben, äußerst empfindliche Regelvorgänge finden dazu im Hintergrund statt.

Photovoltaikanlagen können nicht gleichmäßig Strom liefern

Es hat genau 130 Jahre findiger Ingenieursarbeit gebraucht von der ersten Fernübertragung von Drehstrom aus einem Flußkraftwerk in Lauffen am Neckar nach Frankfurt zur Internationalen Elektrotechnischen Ausstellung 1891 bis zum heutigen noch sehr gut funktionierenden komplizierten Netzbetrieb, der sehr zuverlässig preiswerten Strom zur Verfügung stellt. Es sind nur wenige Jahre „Energiewende“ notwendig, um mal eben milliardenteure Kraftwerke abzuschalten, das System zu zerschlagen und die Energieversorgung wackligem und teurem Strom aus Windrädern und Photovoltaikanlagen zu überlassen.

Die können nicht gleichmäßig dann Strom liefern, wenn er benötigt wird. Stahlwerke, Eisenbahnen und Lebensmittelherstellung sollen sich nach dem Windangebot richten – wie früher, als die Windmüller das angelieferte Getreide nicht mahlen konnten, wenn kein Wind wehte. Aluhütten wird der Strom kurzzeitig abgeschaltet, wenn zu wenig vorhanden ist. Nach drei Stunden ist die Schmelze erkaltet, das Aluwerk Schrott.

Windräder und Photovoltaikanlagen liefern häufig dann viel Strom, wenn er nicht in den Mengen gebraucht wird. Dann muß er „entsorgt“, also europaweit angeboten werden – in genau jenen Augenblicken, in denen Windräder liefern. Wenn kein Nachbarland gerade den Strom gebrauchen und abnehmen kann, geraten die Übertragungsnetzbetreiber ins Schwitzen. Eine gehörige Mitgift erleichtert das „Geschäft“, damit zum Beispiel Österreich oder die Schweiz die hierzulande überflüssigen Strommengen annehmen und mit ihnen Wasser in ihre Pumpspeicher in den Alpen hinaufpumpen. Das lassen sie sich je nach Marktsituation gut bezahlen.

Der ökonomische Wert dieses Stromes ist gering, ihn benötigt zu dem Augenblick niemand. Er sinkt sogar noch weiter, je mehr Windräder die Landschaft zerstören. Nicht umsonst müssen die Verbraucher immer mehr für Strom bezahlen.

Kauft Kerzen

Es ist wie beim Bäcker, von dem morgens früh alle Brötchen kaufen wollen, nachmittags aber niemand mehr, und er dennoch munter weiter produziert, weil eben gerade der Ofen noch so schön warm ist. Wäre er Energiewender, würde er ins Rathaus marschieren und verlangen, daß ihm seine überflüssigen Nachmittagsbrötchen bezahlt werden. Man hätte sie ja abnehmen können.

Genügend Grund, sich freudig auf die Schenkel zu schlagen, haben allerdings Österreicher und Schweizer dann, wenn Wind und Sonne mal wieder nichts liefern, aber in Deutschland plötzlich Strommengen benötigt werden. Dann drehen sie die Schieber in den Alpen auf, lassen Wassermassen wieder herab, die Turbinen erzeugen Strom, den sie gern für teures Geld an die Piefkes im Nachbarland verkaufen. Dieser Spaß wird lediglich getrübt, wenn die Stauseen in den Alpen ziemlich leer sind.

Speicher in Batterieform für größere Mengen elektrischer Energie gibt es nicht; sie sind auch nicht am fernen Horizont in Sicht. Pumpspeicherkraftwerke in Deutschland sind rar, sie wären nach ein paar Stunden unter Volllast leergelaufen. Nicht umsonst liegt der beste Energiespeicher in chemischer Form als Kohle, Erdöl oder Gas vor.

Das neue knuffige Zauberwort der Stromversorger heißt „Spitzenglättung“. Auf deutsch: Strom abschalten. Die Stromversorger wollen ein Gesetz, nach dem sie den Strom einfach abschalten können, wenn keiner mehr da ist. Daher drängen sie auf die „Spitzenglättung“. Helfen sollen dabei digitale Smartmeter, die in alle Wohnungen eingebaut von Ferne auf Mausklick Strom ein- und ausschalten können. Rationierung des Stroms als letztes Mittel, die Energiewende zu retten.

Nicht umsonst empfiehlt die Bundesregierung: Kauft Kerzen!

Der Beitrag erschien zuerst bei JF hier

Zum Schluss noch ein gefälliges Video (leider mit einiger Werbung) was erklärt was am 8.1.21 geschehen ist und auch ahnen lässt, dass das Ende der Fahnenstange noch längst nicht erreicht ist.



Corona in Deutschland 2020 : Die Rückkehr der harten Lockdowns, Unter- und Übersterb­lichkeit und der fällige Offenba­rungseid der Corona-Politik

Ebenfalls am 28. Oktober entwickelten auf einer Pressekonferenz der Vorstandsvorsitzende der Kassenärztlichen Bundesvereinigung (KBV) Andreas Gassen gemeinsam mit den Professoren Hendrik Streeck (Bonn) und Jonas Schmidt-Chanasit (Hamburg) ein moderates Gegenmodell zum autoritären Containement-Modell der herrschenden Virologenschule. Seine Kernthesen waren (in wörtlicher Wiedergabe ) :

  • Abkehr von der Eindämmung allein durch Kontaktpersonennachverfolgung.

  • Einführung eines bundesweit einheitlichen Ampelsystems anhand dessen sowohl auf Bundes- als auch auf Kreisebene die aktuelle Lage auf einen Blick erkennbar wird.

  • Fokussierung der Ressourcen auf den spezifischen Schutz der Bevölkerungsgruppen, die ein hohes Risiko für schwere Krankheitsverläufe haben.

  • Gebotskultur an erste Stelle in die Risikokommunkation setzen“

Die letzten beiden Spiegelstriche bedeuten die implizite Absage an das Instrument des Lockdowns.

Während diese Kernthesen vielleicht auch den Beifall von Mitgliedern der „Querdenken“-Bewegung finden könnten, ist dies sicherlich nicht der Fall beim Festhalten der Gruppe an den fünf Corona-Benimmregeln: Maske, Abstand, Hygiene, Lüften und Warn-App.

Hier wäre zu wünschen gewesen, dass die Reformgruppe um KBV-Chef Gassen eine Erklärung dafür gibt, dass die offiziellen Fallzahlen seit Oktober in die Höhe schießen, obwohl das Regime der Corona-Benimmregeln schon Monate zuvor in Kraft getreten ist. Immerhin hatte bereits die Einführung der Maskenpflicht am 22. April d. J. keinen messbaren Effekt gehabt (CIDM. online, 2020, Graphik Aktuelles Corona-Monitoring 2 / 2).

Die Empfehlungen aus Wissenschaft und Ärzteschaft (laut Gassen 200 000 Kassenärzte !) konnten nur für sehr kurze Zeit die mediale Aufmerksamkeit beanspruchen. Als sich immer mehr herausstellte, dass sich die Corona-Fallzahlen nicht dem staatlichen Steuerungsoptimismus fügen wollten und auf relativ hohem Niveau verharrten, ergriff unsere Staatslenker einmal mehr eine Panikattacke. Den Anfang machte wieder einmal MP Markus Söder, der den Vorreiter im Corona-Abwehrkampf gab und am 6. Dezember den Katastrophenfall für Bayern verkündete Im Zuge dessen weitete die Landesregierung die Kontaktbeschränkungen aus und kippte die für Silvester vorgesehenen Lockerungen. Von nun an gab es kein Halten mehr und ein Bundesland nach dem anderen kündigte Verschärfungen an. Dabei war die spektakulärste wohl die Ankündigung eines „harten“ Lockdowns in Sachsen. Dem folgte wenig später MP Günther für SH.

In dem panischen Aktionismus ging der Vorschlag der KBV vollständig unter. Offenbar erfüllte er auch nicht den Begriff von Wissenschaftlichkeit, den Merkel meinte, als sie sich in ihrer Haushaltsrede am 9. Dezember zur Verteidigung ihrer Position härterer Corona-Schutzmaßnahmen ausdrücklich auf die „Wissenschaft“ berief. Damit war offensichtlich nur der harte Lockdown-Vorschlag der Nationalen Wissenschaftsakademie Leopoldina gemeint, den diese für die Weihnachtszeit gemacht hatte.

Wie schon bei der Klimapolitik anerkennt Merkel offenbar nur die Form von Wissenschaft, deren Ergebnisse ihr aus welchem Grund auch immer zupass kommen. Mir ihrer Ignorierung des pluralistischen Charakters moderner Wissenschaft, auch von Naturwissenschaft, lässt sie erkennen,. dass sie von Wissenschaft gar nichts versteht. Darüber hinaus kann man erkennen, dass sie innerhalb der ihr genehmen Wissenschaftsvariante die jeweilige Hardliner-Position favorisiert.

Dabei hat der am Schutz der Risikogruppen orientierte Ansatz der KBV die statistische Wahrheit für sich: 90 % aller „Coronatoten“ sind laut RKI über 70 Jahre alt, der Altersmedian liegt bei 83 Jahren. Diese Menschen haben in aller Regel zumindest eine schwere Vorerkrankung. Was liegt da näher, als die Ressourcen auf diese Gruppe zu konzentrieren? So könnte man an eine regelmäßige satte staatliche Bonuszahlung über eine längere Zeit an die Beschäftigten im Kranken- und Altenpflegebereich denken, um das seit langem bestehende strukturelle Personaldefizit in diesem Bereich dauerhaft zu beheben. Eine derartige Ausgabe erscheint deutlich zielführender als milliardenschwere Kompensationszahlungen an durch Lockdowns geschädigte Restaurantbetreiber und Einzelhändler.

Ähnlich einseitig die Position der Bundesregierung beim Klimaschutz. Hier war jahrelang engster Berater Merkels der frühere Präsident des PIK Hans-Joachim Schellnhuber, der es in einer Veröffentlichung 2018 unter Berufung auf das Eintreten fiktiver „Kippelemente“ tatsächlich fertig brachte, die Gefahr einer Erderwärmung um bis zu 8 Grad in diesem Jahrhundert an die Wand zu malen – etwa das Doppelte des negativsten Szenarios des Weltklimarats IPCC (zur Kritik vgl. Nahamowitz 2020 a). Die ausführlich begründete klimaskeptische Gegenposition entthront das CO2 als Haupttreiber des Klimas und ersetzt es zumindest zu 50 % durch die Sonne und diverse ozeanische Oszillationen. Sie ist kürzlich noch einmal ausführlich von Vahrenholt / Lüning (2020) begründet worden – und bleibt von der Politik und den Mainstream-Medien unbeachtet, obwohl sie mit ihrer (m.E. selbst wieder problematischen) grundsätzlichen Anerkennung des CO2 als etwa hälftigem Klimaverursacher zwischen dem alarmistischen und dem skeptischen Klimaparadigma eine vermittelnde Position einnimmt.

Bei Corona ist Merkels engster Berater der Berliner Virologe Christian Drosten, der zusammen mit dem RKI schon bei der Schweinegrippe ( 2009 / 2010 ) durch völlig übertriebene Warnungen aufgefallen war (Reiss, Bhakdi 2020, 121 f). Seit kurzem ist als ihr Berater der Braunschweiger studierte Physiker Meyer-Hermann hervorgetreten, der aber seinem Kollegen Drosten in seiner Vorliebe für harte Lockdowns in nichts nachsteht und der wahrscheinlich bei der Lockdown-Empfehlung der Leopoldina eine treibende Kraft war. Diese in Deutschland und europaweit dominierende Position hat das Ideal eines unbarmherzigen Schlages in Form eines möglichst harten Lockdowns, der das Virus ein für alle Mal vertreibt oder zumindest – so bescheiden ist man zum Teil mittlerweile geworden – eine Zeitlang still stellt, so dass das Gesundheitssystem vor Überlastung bewahrt wird.

Diese Strategie ist mittlerweile dabei, sich selbst ad absurdum zu führen, wird sie gegenwärtig in Deutschland doch zum zweiten Mal probiert und in Österreich und Italien zum dritten Mal – innerhalb von 9 Monaten. Diese Strategie ist frustran und teuer, ihre Protagonisten sollten anerkennen, dass das Virus gekommen ist, um zu bleiben. Auch mit der Grippe existiert in den modernen Gesellschaften eine ( mitunter spannungsvolle ) Koexistenz. Die mögliche Konsequenz daraus kann nur sein: Die finanzielle und personelle Ausstattung des Gesundheitssystems zu optimieren, auch in Vorsorge gegen künftige Epidemien, die wirklich gefährlich sind, anstatt dort nach gewohntem Muster zu sparen.

Die epidemiologisch vorzüglich begründete, explizit auf Evidenz basierende Gegenposition wird in Deutschland vor allem vom Professoren-Ehepaar Reiss / Bhakdi (2020), dem früheren Amtsarzt und Bundestagsabgeordneten Wolfgang Wodarg und auf internationaler Ebene vom Stanford-Professor John Joannidis (2020) vertreten. Diese Richtung hebt ab auf die relativ niedrige, einer mittelstarken Grippe vergleichbare Letalitätsrate von SARS-CoV-2, auf den quantitativ und qualitativ erheblichen Unterschied von „an“ und „mit“ Corona Verstorbenen sowie die Unterscheidung von Infizierten und Erkrankten. Sie betont die Unzuverlässigkeit des nicht validierten und nicht für die klinische Diagnose zugelassenen PCR-Tests und macht auf den systematischen Zusammenhang von ansteigenden Fallzahlen und Zunahme der Testungen aufmerksam. Nicht zuletzt gewinnt sie ein realistisches Bild von der quantitativen Bedeutung der Corona-Sterbezahlen, indem sie diese in Beziehung setzt zu anderen Todesarten wie Herz-Kreislauferkrankungen, Krebs, Lungenentzündung u.a.

Als praktische Handlungsempfehlung folgt aus diesem Konzept 1. die sofortige Beendigung der repressiven Containment-Politik für die allgemeine Bevölkerung, 2. die Konzentration der Ressourcen auf die verwundbaren Gruppen der Bevölkerung, vor allem die über 70-jährigen mit Vorerkrankungen sowie 3. die Aufhebung der erwiesenermaßen wirkungslosen Maskenpflicht, soweit sie die Alltagsmasken betrifft. In diesem dritten Punkt sowie in dem Verzicht auf das bundesweite Ampelsystem bestehen die entscheidenden Unterschiede zur Reformgruppe um Gassen und Streeck.

Das Ohr der Politik erreichen beide Reformgruppen nicht, Merkel und die Länder-MP setzen ihre unbeirrt lernresistente Linie fort. Angesichts der nahezu weltweiten Lernresistenz der Politik erkennt Joannidis keine Corona-Krise, sondern eine „Krise der Evidenz“.

Zweifel an der Urteilsfähigkeit Merkels sind nicht nur in Sachen Wissenschaft, sondern auch bei relativ banalen Angelegenheiten angebracht. Man erinnere ihren Versuch, dem Fernsehpublikum die Funktionsweise des Reproduktionswerts R zu erklären, Bekanntlich bedeutet R = 1, dass ein Infizierter einen anderen Menschen ansteckt, Was aber bedeutet R = 1,1 oder R = 1,3 ? Bei dem Versuch. diese Frage zu beantworten, gerät die promovierte Physikerin Merkel so vollständig in die Konfusion, dass die Antwort unverständlich ausfällt. Der Zuschauer ist ratlos, sollte die Kanzlerin tatsächlich intellektuell überfordert sein?

Bei den Hausberatungen in der ersten Dezemberhälfte zeigt Merkel einmal mehr ihr unzureichendes Verständnis der Corona-Realität, wenn sie angesichts der RKI-Zahlen des Tages klagt : „ 590 Tote ! Es tut mir so leid“. Der Ausspruch deutet darauf hin, dass sie erstens nicht weiß, dass in Deutschland die durchschnittliche tägliche Sterbezahl bei 2600 liegt, die doch alle wohl ebenfalls Mitleid verdienen und ihr zweitens unbekannt ist, dass mindestens 80 % keine „echten“ Corona-Tote, sondern nur „mit“ dem Virus Gestorbene sind. Bei so viel Unwissenheit wird man schließlich nicht von ihr verlangen können, dass sie die für Deutschland auch im Corona-Jahr 2020 relevanten Phänomene der Untersterblichkeit bzw. nur leichten Übersterblichkeit (s. unten unter 3.) kennt.

Bei der Haushaltsrede Merkels am 9. Dezember ereignete sich auch noch ein bezeichnender Zwischenfall. Auf den Zwischenruf eines AfD-Abgeordneten : „Das ist doch alles nicht bewiesen“. antwortet sie direkt – und zwar unter Bezug auf ihr Physikstudium in der DDR – mit dem Hinweis auf die unabänderliche Kraft der „Schwerkraft“ und der „Lichtgeschwindigkeit“. Was genau sie damit meint, bleibt unklar. Anscheinend möchte sie wohl der von ihr verfolgten Strategie der Corona-Abwehr den Status unverbrüchlicher Naturgesetzlichkeit verleihen. Die ignorante Schlichtheit des Arguments macht ziemlich fassungslos.

Schon während der Haushaltsberatungen drang zunehmend der Ruf einiger Länder-MP nach einem baldigen harten Lockdown durch. Hinter dem Vorschlag steht ein fehlgeleitetes Coronaverständnis, welches erstens Corona als verhängnisvolles Killervirus und zweitens als ein radikal aus dem Land zu vertreibendes Agens auffasst. Diese unterkomplexe Auffassung wird vor allem von den traditionellen Virologen vertreten. Epidemiologen sehen Corona zumeist differenzierter. Zwischen den traditionalistischen Virologen a` la Drosten, Lauterbach, Wieler und Co. einerseits und den evidenzbasierten Epidemiologen um Reiss /Bhakdi und Joannidis andererseits nimmt die Gruppe um die Virologen Streeck und Schmidt-Chanasit sowie den KBV-Vorstandsvorsitzenden Gassen so etwas wie eine Mittelstellung ein.

Streeck fasst sie gerne in die Formel, dass das Corona-Virus einerseits zwar „ernst zu nehmen“, andererseits aber „nicht zu überdramatisieren“ sei. Mit letzterer Wendung wird der Lockdown als Instrument der Infektionsbekämpfung implizit ausgeschlossen. Auch vertritt er die Auffassung, dass das Corona-Virus hier sei, um zu bleiben und sich den anderen vier schon seit Jahrzehnten hierzulande residierenden Corona-Virenstämmen bei zu gesellen.

Beides dürfte der wesentliche Grund dafür sein, dass die Gruppe, obwohl anders als Bhakdi, Joannidis und Co. fest im deutschen medizinischen Establishment verankert, keine Chance hatte, das Ohr der Kanzlerin und der MP zu erlangen. Die politische Vereinigung der Corona-Dilettanten aus Bund und Ländern sträubt sich mit aller Macht gegen epidemiologische Aufklärung.

Am 13. Dezember nun wurde ein harter Lockdown von eben dieser Dilletantenrunde zunächst einmal bis zum 10. Januar beschlossen. Die einzelnen Bestandteile eines harten Lockdowns sind aus dem Frühjahr bekannt, ich gehe nicht näher auf sie ein.

Nur Weihnachten erhielt eine spezielle Regelung. Das weihnachtliche Feiern machte der Politik größte Sorgen. So bemühten sich etwa Gesundheitsminister Spahn und Bundespräsident Steinmeier, den Bürgern die altruistischen Vorteile ungeselliger Weihnachtsfeiern (z.B. zugunsten des Pflegepersonals) schmackhaft zu machen. Ein Eindämmungskonzept, welches sich derartiger Überredungsstrategien glaubt bedienen zu müssen, zeigt sehr deutlich seine Hilflosigkeit.

Die Auseinandersetzung zwischen den konkurrierenden Corona-Konzepten fand ihren vorläufigen Abschluss durch einen kürzlich erfolgten Aufruf hunderter europäischer Wissenschaftler zu Gunsten einer strengen Politik des Containement für einen längeren Zeitraum und abgestimmt unter den europäischen Staaten. Der Aufruf wurde im renommierten Fachjournal „Lancet“ am 19. Dezember d. J. veröffentlicht. Im Kern verfolgt er die gleiche stramm virologische Konzeption wie auch die Leopoldina., welcher der deutsche harte Lockdown-Beschluss nahezu nahtlos gefolgt war.

Es verwundert daher nicht, dass der Aufruf von den deutschen strammen Virologen-Virologen Drosten, Wieler und z.B. Brinkmann unterzeichnet ist, Ebenso unterzeichnet haben die Präsidenten der Leopoldina und der großen Wissenschaftsorganisationen. Bei letzteren ist freilich keine Sachkompetenz zu unterstellen, genauso wenig wie bei dem mitunterzeichnenden Ökonomen und IfO-Präsidenten Clemens Fuest.

Ziel ist die Senkung der Fallzahlen auf den Stand von Ländern wie China und Australien. Mit „entschlossenem Handeln“ und „tiefgreifenden Interventionen“ soll innerhalb von 2 Wochen der R-Wert auf 0,7 gesenkt und die 7-Tage-Inzidenz von 200 auf 50 gesenkt werden. Diese Holzhammertherapie soll offenbar an die in Deutschland und anderen Ländern seit Wochen exekutierten Lockdowns angeschlossen werden. Das ultimative Zeil ist aber noch weit ehrgeiziger: eine Inzidenz von maximal 7 auf 100 000 Einwohner , zu erreichen „spätestens im Frühjahr“.

Der Aufruf scheint mir das typische Produkt enthemmter Virologenphantasien zu sein, welcher die Folgebereitschaft einer bereits sehr Corona-müden Bevölkerung deutlich überschätzt und die mannigfachen Folgeschäden der Therapie mit dem Holzhammer unterschätzt. In China jedenfalls dauerte die Phase des harten Lockdowns nur 4 Wochen. Dass dieses riesige Land nun gänzlich frei von Corona ist, lässt m.E. nur eine Erklärung zu: Es wird – im Vertrauen auf die relativ geringe Gefährlichkeit des Virus – nicht mehr getestet.. Dann wird das Virus auch nicht mehr gefunden. Aufgrund seiner relativ geringen Letalitätsrate birgt diese Strategie auch kein untragbares Risiko für die Machthaber.

Im übrigen weist der Appell die bekannten epidemiologischen Defizite auf und zeigt noch einmal. dass die Virologen die Epidemiologie nicht können. Ich nenne drei prinzipielle Kritikpunkte :

  1. Es wird ignoriert, dass SARS-CoV-2 die Gefährlichkeit nur eines mittleren Grippevirus hat. Ein solches hat noch nie auf der Welt staatliche Zwangsmaßnahmen hervorgerufen. Typisch für die unzureichende wissenschaftliche Qualifikation der Verfasser ist, dass das Bulletin der WHO vom 14. Oktober ignoriert wird, in dem die Organisation das Ergebnis der umfangreichen Metaanalyse von John Joannidis sich zu eigen macht. Nach ihr liegt die Median-Covid-19-Infektionssterblichkeitsrate bei nur 0,23 % und damit auf dem Niveau eines mittelstarken Grippevirus. Das bedeutet 2300 Tote auf 1 Mio. Infizierte (bei gegenwärtig gut 1,7 Mio. positiv Getesteten in Deutschland), was denjenigen nicht zu erschrecken braucht, der weiß, dass gegenwärtig hierzulande, wie bereits erwähnt, 2600 Menschen pro Tag sterben.

  2. Ausfluss der geringen Sterblichkeitsrate ist, wie im 3. Abschnitt belegt wird, dass Deutschland im Jahr mehrerer Lockdowns keine signifikante Übersterblichkeit und damit auch keine „epidemische Lage von nationaler Tragweite“ aufweist. Damit entfällt überhaupt die Grundlage für Zwangsmaßnahmen nach dem InfektionsschutzG.

  3. Unbekannt ist den Initiatoren ebenfalls, dass der rasche Anstieg der Fallzahlen seit September / Oktober überwiegend der Verdopplung der Testungen geschuldet ist (CIDM.online, Grafik 7 / 8). Die kritischen Beobachter des Infektionsgeschehens sprechen von „Labor -Pandemie“.

Einen Tag nach Veröffentlichung des Aufrufs erschien die Meldung, dass in England eine Mutation des Corona-Virus mit um 70 % erhöhter Infektiösität aufgetaucht sei. Damit scheint allen überambitionierten Eindämmungsphantasien bezüglich des Virus. wie sie der „Lancet“- Aufruf aufweist, ein Riegel vorgeschoben. Eindämmungszeit und / oder regulatorischer Eindämmungsaufwand müssten sich um den genannten Prozentsatz erhöhen. Und zwar in ganz Europa, denn das mutierte Virus hat inzwischen auf dem Festland Fuß gefasst. Am 5. Januar 2021 hat denn auch der englische Premierminister die Konsequenz gezogen und einen harten Lockdown angeordnet, begründet u.a. mit der Mutation des Virus. Der Chef von Biontech brauchte nur verdächtig wenige Tage um zu versichern, dass der Impfstoff von Biontech / Pfizer auch gegen das mutierte Virus wirke.

Zum Schluss noch einmal zurück zu Angela Merkel, und zwar zu ihrer Neujahrsansprache. Nun verwandelt sich die Irritation endgültig in Verärgerung. Die Kritiker der staatlichen Maßnahmen werden nach dem bereits sattsam Muster politischer Verunglimpfung als „unverbesserliche Leugner des Virus“ bezeichnet und mit „Verschwörungstheorien“ in Zusammenhang gebracht. Die Kritiker leugnen aber in der Regel nicht die Existenz des Virus, sondern kritisieren die überbordende Unverhältnismäßigkeit der Maßnahmen, von der eine auch nach 10 Monaten Krise immer noch schlecht informierte Kanzlerin auch nicht den Hauch einer Ahnung hat. Ich gebe nur zwei Stichworte: Erstens, die exponentiellen Fallzahlen existieren bei korrekter Zählung nicht und zweitens, die Todeszahlen sprengen nicht den Rahmen des Üblichen der letzten Jahre. Damit ist der staatlichen Containement-Politik der epidemiologische und rechtliche Boden entzogen. Darüber weiter unten mehr.

Der zweite Punkt ist der Drosten-Test, den die Kanzlerin als „zuverlässig“ bezeichnet. Hier stellt sich sehr unmittelbar die Frage, weiß sie es nicht besser oder lügt sie. Es ist allseits bekannt, dass der Test nicht validiert und demgemäß offiziell für die klinische Diagnose nicht zugelassen ist. Die kritischen Experten gehen bei den positiv Getesteten von eine Fehlerquote von 1-3 % aus („falsch positiv“). Der deutsche Rechtsanwalt Dr. Rainer Fuellmich, der mit amerikanischen Kollegen eine Sammelklage („class action“) auf Schadensersatz gegen die Herren Drosten, Wieler und Spahn vor einem amerikanischen Zivilgericht anhängig gemacht hat, geht von einer Fehlerquote bis zu 97 % aus. Andere Klagen, auch gegen staatliche Stellen, sind in weiteren Ländern (Österreich, England) in Vorbereitung oder bereits anhängig. Von dieser Seite könnte aus der „Jahrhundertaufgabe“ der Pandemiebekämpfung, von der Merkel spricht, eine Jahrhundertpleite für die Politik werden,

2. Die absurde Jagd auf die „Infektions“-Zahlen

Seit Ende September / Anfang Oktober befinden sich in Deutschland die absoluten Zahlen der positiv Getesteten in einem steilen Anstieg – der Anlass für die seit Anfang November hierzulande eingeschlagene Politik der Lockdowns. Deren politischen Initiatoren ist offensichtlich unbekannt, dass primärer Grund für den Anstieg der absoluten „Infektions“-Zahlen die Verdopplung der Testungen ab Mitte August ist – ein schockierender Fall staatlicher Ignoranz.

Oder doch nicht? Es ist öffentlich geworden, dass zumindest Gesundheitsminister Spahn und das RKI um den systematischen Zusammenhang von Fallzahlen und Häufigkeit der Testungen wissen. Die absoluten Fallzahlen verlieren ihren Schrecken, wenn sie richtigerweise korrigiert und auf 100 000 Testungen bezogen werden. Dann tritt an die Stelle der roten ( „exponentiellen“) „Panik“-Kurve die blaue „Real“-Kurve mit ihrem nur sanften Anstieg ( vgl. unten die Graphik 7 / 8 von CIDM. online ). Diese Graphik hatte ich schon in meinem letzten Artikel herangezogen (Nahamowitz 2020 c), nun geht ihre Zeitreihe bis zum Jahresende (KW 52).

Die Schlussfolgerungen bleiben die gleichen: Von einer „exponentiellen Infektionsdynamik“ und einer „drohenden Überforderung des Gesundheitswesens“ kann keine Rede sein, weder eine „erste“ noch eine „zweite“ Infektionswelle sind für das Jahr 2020 auffindbar. Der Kampf der Politik gegen die steigenden „Infektions“-Zahlen erinnert stark an den dichterisch beschriebenen Kampf des Don Quixote gegen die Windmühlen, die nur in der Phantasie des verblendeten spanischen Edelmannes eine Gefahr darstellten.

Die frühzeitige Veröffentlichung der „Realkurve“ schon im Frühjahr hätte die Hysterie um Corona im Keim erstickt. Dass sie unterblieben ist, stellt eine Amtspflichtverletzung der im RKI und im Gesundheitsministerium Verantwortlichen i. S. von Art. 34 GG / § 839 BGB dar und berechtigt die durch die Corona-Maßnahmen Geschädigten zu Schadensersatz gegen den Staat.

Sehr dubios ist auch die von Beginn an praktizierte kombinierte Zählweise des RKI der „an und mit“ Corona Gestorbenen. Schon diese Kombination ist eine permanente Verletzung ärztlicher Leitlinien (Reiss / Bhakdi, 18). Da kommt es gegenwärtig zu Zahlen von mehreren hundert bis über 1000 täglichen „Corona-Toten“ – Zahlen, die völlig unglaubhaft sind. Der Anteil der Atemwegserkrankungen an den Todesarten in Deutschland liegt seit langem bei ungefähr 10%, der von Krebs bei einem Viertel und der Anteil der Herz-Kreislauferkrankungen bei einem Drittel, Täglich sterben etwa 2600 Menschen in Deutschland. 1000 „an und mit“ Corona, welche eine Atemwegserkrankung ist, Gestorbene würden einen Anteil von über einem Drittel ausmachen – völlig unglaubhaft. Hier sind im großen Stil Umverteilungen innerhalb der Todesarten hin zu Corona vorgenommen worden. Daher ist von einer weiteren Amtspflichtverletzung des für die Zählung verantwortlichen RKI auszugehen..

Nach der kompetenten Schätzung der Corona Initiative Deutscher Mittelstand (CIDM) betrug im vergangenen Jahr der Anteil der „echten“ Corona-Toten, d.h. „an“ Corona Verstorbenen, an allen Verstorbenen nicht mehr als 1,1 % (CIDM. online, Graphik Sterbefallzahlen Deutschland). In absoluten Zahlen sind dies weniger als 30 täglich. Es wird Zeit, dass der schon bei der Schweinegrippe zu Tage getretene völlig übersteigerte Alarmismus des RKI beendet wird.

3. Über– und Untersterblichkeit in Deutschland

Für die Darstellung der Mortalität in Deutschland verwende ich die Daten von Euromomo (European mortality monitoring) in den alternativen Fassungen von Germany (Berlin) und Germany ( Hessen ). Die Daten des Statistischen Bundesamts (Destatis) finden keine Verwendung, da das Amt seit seinem Versuch, für die Corona-Monate im Frühjahr eine Phase von Übersterblichkeit für unser Land herbei zu rechnen, unter Manipulationsverdacht steht.

Schon mit bloßem Auge ist erkennbar, dass die Mortalitätsentwicklung gemäß Graphik Germany (Berlin) im Jahr 2020 flacher als in den Vorjahren ab 2017 verläuft, d. h. mit weniger Zacken nach oben (den Indikatoren für Übersterblichkeit). Das Jahr 2018 weist erkennbar die höchste Übersterblichkeit auf. In 2020 gibt es allein in KW 33 (3.8. – 9. 8.) einen Zacken etwas höherer Übersterblichkeit (Standardabweichung plus 3,44, wie uns der Cursor verrät). Dieser dürfte wie in den beiden Vorjahren der Sommerhitze geschuldet sein.

Von KW 47 (16. 11. – 22. 11.) an bis Jahresende , d.h. von der zeitlichen Mitte des Teil-Lockdown im November bis zum Jahresende befand sich das Land, wie uns der Cursor ebenfalls mitteilt, in einem Zustand leichter Untersterblichkeit. Aber der Öffentlichkeit wurde aus allen Rohren der Meinungsmanipulation, einschließlich der Alarmmeldungen des RKI, das Gegenteil erzählt. Und die Politiker, anscheinend von niemandem über die realen Mortalitäts- und damit Epidemieverhältnisse aufgeklärt, wurden zum Opfer ihrer eigenen Katastrophenlegenden (z. B.Söders Katastrophenalarm in Bayern Anfang Dezember).

Die Graphikvariante Germany (Hessen) ergibt ein etwas anderes Bild. Hier ist die Übersterblichkeit in 2020 etwas (nicht wesentlich) stärker vertreten. Zunächst einmal im Vergleich zu den Vorjahren 2017 und 2019, ohne deren Sterblichkeit freilich signifikant zu übertreffen. Das Jahr 2018 weist weiterhin die höchste Übersterblichkeit auf. Vor allem aber befinden sich die Wochen während der beiden Lockdowns (ab KW 45) fast durchgängig im Zustand einer leichten Übersterblichkeit – bis auf die KW 50 und 51 mit einer deutlicheren Übersterblichkeit, (Standardabweichung plus 5,44 und 4,30) die aber durch die deutlichere Untersterblichkeit der KW 52 (Standardabweichung minus 2,56) etwas ausgeglichen wird.

Nimmt man die Aussagen beider Kurven, die leichte Untersterblichkeit von Germany (Berlin) und die leichte Übersterblichkeit von Germany (Hessen), zusammen, ergibt sich für ganz Deutschland im Jahr 2020 grosso modo das Bild einer Mortalität, welche der durchschnittlichen Entwicklung seit vier Jahren entspricht. Daraus folgt, dass in Deutschland eine „epidemische Lage von nationaler Tragweite“, wie sie der Bundestag gem. §5 Abs.1 Infektionsschutzgesetz festgestellt hat, zu keiner Zeit auffindbar war. COVID-19 ist keine „bedrohliche übertragbare Krankheit““ i.S. des § 5 Abs. 1 Nr. 1 und 2 IfSG. Der Beschluss des Bundestags gehört daher schon lange aufgehoben.

Auch im internationalen Vergleich ist die Mortalität Deutschlands nicht besorgniserregend. Euromomo unterscheidet sechs Stufen der „Exzess-Mortalität“, reichend von „No excess“ bis „Extraordinary high excess“.

Die Rangfolge der Länder ( Stand: Ende 2020, KW 52 ) :

No excess: Germany (Berlin), Sweden, Finland, Norway, Estonia, Ireland. UK (Wales), UK (Scotland), Hungary, Spain.

Low excess : Germany (Hessen), France, Denmark, Belgium, Greece, Estonia.

Moderate excess , UK (England), Austria, Netherlands, Italy, Portugal.

High excess : Slovenia.

Very high excess: Switzerland.

Extraordinary high excess :

Bemerkenswert ist die Position Deutschlands (Hessen), die sich im Dezember innerhalb eines Tages um zwei Stufen auf moderate excess verschlechtert hatte, aber in KW 52 auf low excess zurück gegangen ist. Germany (Berlin) hingegen blieb durchgängig auf No excess. Die gute Performance unseres Landes bei der Mortalität zeigt sich auch international.

Erfreulich auch die sehr gute Stellung Schwedens, welches allen, vor allem deutschen Anfeindungen (einschließlich dreisten fake news) zum Trotz, als einziges Nicht-Lockdown-Land eine Reihe von Lockdown-Ländern hinter sich gelassen hat und mit anderen auf der gleichen Stufe No excess steht.

4. Der fällige Offenbarungseid der Corona-Politik

Das von verschiedenen Variationen staatlicher Corona-Eindämmung regulierte Jahr 2020 zeigt nach seiner Beendigung, dass für die `überkommene Corona-Politik die Zeit des Offenbarungseids gekommen ist. Der politische Offenbarungseid hätte offen zu legen, dass die Daten von 2020 nicht mit den Zielen der Corona-Politik überein stimmen, die „Infektions“-Zahlen auf die 7-Tage-Inzidenz von 50/100 000 zu reduzieren und so zu einer deutlichen Entlastung der krisenhaft überlasteten Intensivstationen zu kommen.

Denn die „Infektions“-Zahlen sind bei korrekter Zählung, welche sie auf 100.000 Testungen bezieht, weder exponentiell ansteigend noch sonst besorgniserregend. Die „Realzahlen“ zeigten im Frühjahr und zeigen gegenwärtig nur einen sehr sanften Anstieg. Dies gilt es von der Politik nun anzuerkennen. Und die Mortalität des zu Ende gegangenen Jahres übersteigt nicht die durchschnittliche Mortalität der letzten vier Jahre. Gegenüber 2018 ist sie sogar erkennbar geringer. 2018 sprach niemand von der Gefahr überlasteter Intensivstationen, und sie ist auch gegenwärtig nicht gegeben. Auch dies gilt es von der Politik nun anzuerkennen.

Dies ist die Voraussetzung für die Änderung einer im Kern verfehlten Krisenpolitik. Eine Bundeskanzlerin, die in ihrer Neujahrsansprache für die Krisenüberwindung entscheidend auf das freiwillige Engagement der Bürger setzt, nachdem sie vorher monatelang deren Freiheitsbetätigung stranguliert hat, gibt damit das Scheitern der Repressionspolitik unfreiwillig zu. Um aus der Sackgasse unbotmäßiger Fallzahlen herauszukommen, die nicht ausreichend sinken wollen, gilt es, sich den alternativen Konzepten der Corona-Behandlung, wie sie eingangs dieses Artikels vorgestellt worden sind, zu öffnen.

Der Notwendigkeit eines solchen drastischen Politikschwenks wird die offizielle Corona-Politik nicht durch die Perspektive der Impfung enthoben. Erstens ist das letzte Wort über deren Wirksamkeit, vor allem aber deren Sicherheit, noch nicht gesprochen. Zweitens steht die Impfbereitschaft der deutschen Bevölkerung durchaus in Frage. Und drittens wird, auch wenn das Projekt Impfung alle Versprechungen hält, ein allgemeiner Immunschutz für die Bevölkerung erst in Monaten erreicht sein.

Was bleibt, ist dann nur noch die Hoffnung auf das Frühjahr mit dem Abklingen des saisonalen Infektionsgeschehens in seinem Gefolge. Dies ist für eine rationale Politik, die auch mit dem Widerstand eines mutierten Virus mit erhöhter Infektiösität zu rechnen hat, eine sehr dünne Perspektive, die auch erst ab März / April zum Tragen kommen könnte. Soll so lange der Lockdown bestehen bleiben?

Es ist Zeit für die Politik, ihre oft genug manifestierte Lernresistenz abzulegen und einen grundlegend anderen Ansatz für die Krisenbewältigung zu wählen. Was liegt näher, als das eingangs vorgestellte moderate Reformkonzept der Gruppe um Gassen und Streeck zu wählen? Dieses müsste doch auch für den politischen Mainstream akzeptabel sein.

5. Der Offenbarungseid wird nicht geleistet

Am 5 Januar beschloss die Runde der notorisch Unkundigen aus Coronakabinett mit der Kanzlerin an der Spitze und den MP der Bundesländer die Verlängerung des Lockdowns bis Ende Januar, der sogar verschärft wurde. So wurden etwa die privaten Kontakte weiter eingeschränkt und in den Hotspots ab einer Inzidenz von 200/100.000 die räumliche Bewegungsfreiheit auf 15 km begrenzt.

Ende Januar wird die drastische Einschränkung der sportlichen Betätigung durch die Schließung von Schwimmhallen, Sportstätten und Fitnessstudios im Gefolge dreier Lockdowns seit drei Monate andauern. Dies hat negative Konsequenzen für das vor Infektionen schützende natürliche Immunsystem und die Gesundheit allgemein der sportlich orientierten Teile der Bevölkerung. Der Autor z.B. war es seit Jahrzehnten gewohnt, mehrfach in der Woche Schwimmen zu gehen. Der Mangel an sportlicher Betätigungsmöglichkeit dürfte freilich für einige seiner maßgeblichen Urheber nicht von Wichtigkeit sein: Der seit Jahren übergewichtigen Kanzlerin und ihrem adipösen Kanzleramtsminister Braun sowie den Herren Spahn und Söder mit ihren sichtbar wachsenden Bauchansätzen dürfte sportliche Betätigung wenig bis nichts bedeuten. Dem entspricht die Nonchalance, mit der die Lockdownpolitik durchgezogen wird.

Eine bewusste staatliche Förderung von Gesundheit und Immunsystem durch systematische Aufklärung über richtige Ernährung, Bewegung, gesunden Schlaf und wichtige Nahrungsergänzungsmittel wie Omega 3 und Vitamin D findet denn auch nicht statt. Anscheinend wird die Sorge um die Gesundheit der Schulmedizin und der Pharmaindustrie überlassen.

Durch ihre Verlängerung wurde der an sich fällige Offenbarungseid der bisherigen Corona-Politik vermieden. Im Wirtschaftsleben würde man von Insolvenzverschleppung sprechen. Es ist auch kaum damit zu rechnen, dass die angestrebte Inzidenz von 50/100.000 bis Ende Januar tatsächlich erreicht wird. Nicht zuletzt die aufgrund der Mutation gesteigerte Infektiösität des Virus spricht dagegen. Manche Forderungen sind sogar noch ehrgeiziger und zielen auf eine noch niedrigere Inzidenz, z.B. 25/100.000 oder sogar 7/100.000, ab.

Es ist immer wieder schockierend, mit welcher Chuzpe die politisch Verantwortlichen und ihre Berater die empirische Evidenz ignorieren, z. B. die Erfahrungen Israels. Israel hatte im September bei laut worldometer über 6000 täglichen Neu-“Infektionen“ Ende des Monats einen harten Lockdown angeordnet, der die Fallzahlen bis Mitte November auf etwas über 600, also auf ein Zehntel, drückte. Diese sind aber Anfang Januar 2021 wieder auf über 6000 gestiegen. Der Erfolg hatte also eine Verfallszeit von gerade gut 6 Wochen.

Auch die wissenschaftliche Evidenz wird ignoriert. In einer hochrangigen aktuellen Studie des amerikanischen National Bureau of Economic Research wird gezeigt, dass Lockdowns, Schließungen, Reisebeschränkungen, Quarantänemaßnahmen, Sperrstunden und Masken keinen Einfluss auf die Übertragungsraten des Corona-Virus und die Todesfälle haben ( Atkeson, Kopecky, Zha 2020 ).

Quellen :

Atkeson, Andrew, Kopecky, Karen, Zha, Tao 2020 : Four stylized Facts about COVID-19, Working Paper 27719, National Bureau of Economic Research.

Nahamowitz, Peter 2020 a : Klimawandel und CO2: falsche Alarmzeichen für die Weltgesellschaft, scienceFiles, Blaue Reihe, Bd. 8.

Nahamowitz, Peter 2020 b: Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland, EIKE-Publikation vom 17. Mai.

Nahamowitz, Peter 2020 c: Corona-Panik, die dritte: Zentrale Gründe für die Verfassungswidrigkeit des Teil-Lockdown vom 28. Oktober 2020, EIKE-Publikation vom 25. 11.

Reiss, Karina, Bhakdi, Sucharit 2020: Corona Fehlalarm?, Berlin.

Vahrenholt, Fritz, Lüning, Sebastian, 2020: Unerwünschte Wahrheiten. Was Sie über den Klimawandel wissen sollten, München.

Zum Autor :

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz Universität Hannover. Er ist seit 2007 im Ruhestand.




Widerlegung der Wissenschafts-Aussage der Geological Society of London zum Klimawandel

Interessanterweise enthält das Papier diesen Haftungsausschluss:

Datenverfügbarkeit
Datenfreigabe ist für diesen Artikel nicht anwendbar, da während der aktuellen Studie keine Datensätze generiert oder analysiert wurden.

Wissenschaftliche Stellungnahme der Geological Society of London

Die Autoren stellen viele Behauptungen auf, bieten aber wenig unterstützendes Material an. Es wimmelt von Übertreibungen und zumindest ein paar internen Widersprüchen. Das Konzept der Langzeitbetrachtung und der Verlust der [zeitlichen] Auflösung in der geologischen Aufzeichnung im Vergleich zu modernen instrumentellen Beobachtungen scheint völlig zu fehlen.

Atmosphärisches CO2

Beobachtungen aus der geologischen Aufzeichnung zeigen, dass die atmosphärischen CO2-Konzentrationen jetzt auf dem höchsten Stand seit mindestens 3 Millionen Jahren sind.
Wissenschaftliche Erklärung der Geological Society of London

Dies ist sehr wahrscheinlich wahr. Die atmosphärischen CO2-Konzentrationen könnten sogar jetzt auf dem höchsten Stand der letzten 12 Millionen Jahre sein.

Abbildung 1. Neogen-Quartär Temperatur und Kohlendioxid (älter ist nach links). (WUWT)

Die geologische Aufzeichnung von atmosphärischem CO2 ist höchst unsicher, und wird immer unsicherer, je weiter wir in der Zeit zurückgehen. Diese Passage aus Evolution of the Earth (1976) ist heute genauso wahr wie damals, als wir Geologiestudenten im Pleistozän waren…

Leider können wir die Veränderungen des CO2-Gehalts in der Vergangenheit weder in der Atmosphäre noch in den Ozeanen genau abschätzen, und es gibt auch keine solide quantitative Grundlage für die Abschätzung des Ausmaßes des Rückgangs des Kohlendioxidgehalts, der notwendig ist, um eine Vergletscherung auszulösen. Außerdem ist das gesamte Konzept des atmosphärischen Treibhauseffekts umstritten, denn die Geschwindigkeit des Ausgleichs zwischen Ozean und Atmosphäre ist unsicher.

Dott & Batten, 1976

Obwohl sich die Verfahren zur Schätzung vergangener atmosphärischer CO2-Konzentrationen seit den 1970er Jahren verbessert haben, können wir nicht einmal sicher sein, dass die atmosphärische CO2-Konzentration während des viel wärmeren Klimatischen Optimums im Mittel-Miozän im Vergleich zu den extrem niedrigen Werten des Quartärs signifikant erhöht war.

Darüber hinaus ist die derzeitige Geschwindigkeit der vom Menschen verursachten CO2-Veränderung und Erwärmung fast ohne Beispiel in der gesamten geologischen Aufzeichnung, mit der einzigen bekannten Ausnahme des augenblicklichen, durch Meteoriten verursachten Ereignisses, das das Aussterben der nicht vogelartigen Dinosaurier vor 66 Millionen Jahren verursachte.

Wissenschaftliche Stellungnahme der Geological Society of London

Jeffrey Severinghaus und Kollegen wären über diese Aussage sehr überrascht. Sie zeigten, dass zu Beginn des Holozäns, vor etwa 11.700 Jahren, die Temperaturen der nördlichen Hemisphäre innerhalb weniger Jahrzehnte um „5 – 10ºC“ anstiegen (Severinghaus, Sowers, Brook, Alley, & Bender, 1998).

In Bezug auf CO2 ist dies möglich. Es gibt keine geologischen Aufzeichnungen von CO2-Änderungen, die eine ausreichende Auflösung haben, um diese Behauptung mit einem gewissen Grad an Sicherheit aufzustellen. Die einzige Ausnahme wären die Law-Dome-Eisbohrkerne in der Antarktis, die nur etwa 2.000 Jahre zurückreichen. Die mangelnde Auflösung der CO2– und Temperaturschätzungen der vorindustriellen Ära schränkt Vergleiche der geologischen Geschichte mit der Neuzeit stark ein.

Dieser zusammengesetzte Eisbohrkern-CO2-Datensatz (0-800 kyr BP) von Bereiter et al. (2014) scheint einen sehr überzeugenden Hockeystick zu zeigen:

Abbildung 2: Komposit der CO2-Aufzeichnung (0 bis 800.000 Jahre vor heute) von Bereiter et al. (2014).

Das Komposit wurde aus folgenden Eisbohrkernen erstellt:

Diese Eisbohrkerne haben sehr unterschiedliche Auflösungen.  Petit et al., 1999 geben an, dass die CO2-Auflösung für Vostok 1.500 Jahre beträgt. Lüthi et al., 2008 schlagen eine CO2-Auflösung von etwa 500 Jahren für Dome C vor. Es scheint, dass der hochauflösende Law Dome DE08-Kern einfach an die älteren Eiskerne mit niedrigerer Frequenz angeklebt wurde.

Wendet man auf den DE08-Eiskern Glättungsfilter an, um die Auflösung der niedriger aufgelösten Eiskerne anzugleichen, erhält man ein deutlich anderes Bild:

Abbildung 3. Ein 500-Jahre-Glättungsfilter entfernt die Klinge des Hockeysticks vollständig.

Die Eiskerne mit niedrigerer Frequenz sind nicht in der Lage, CO2-Verschiebungen im Jahrhundertmaßstab aufzulösen. Als solche können sie nicht verwendet werden, um die Möglichkeit von kurzzeitigen Schwankungen auszuschließen, die mit dem Anstieg des atmosphärischen CO2 im Industriezeitalter während des frühen Holozäns und Pleistozäns vergleichbar sind. Und sie widersprechen damit nicht den Schlussfolgerungen von Wagner et al., 1999:

Im Gegensatz zu konventionellen Eisbohrkern-Schätzungen von 270 bis 280 ppmv [parts per million by volume] legt das Signal der Stomatafrequenz nahe, dass die Kohlendioxid-Konzentration im frühen Holozän deutlich über 300 ppmv lag.

(…)
Die meisten der holozänen Eiskernaufzeichnungen aus der Antarktis haben keine ausreichende zeitliche Auflösung.

(…)

Unsere Ergebnisse falsifizieren das Konzept von relativ stabilen holozänen CO2-Konzentrationen von 270 bis 280 ppmv bis zur industriellen Revolution. SI [stomatal index]-basierte CO2-Rekonstruktionen könnten sogar darauf hindeuten, dass während des frühen Holozäns atmosphärische CO2-Konzentrationen, die 300 ppmv betrugen, eher die Regel als die Ausnahme gewesen sein könnten.

Wagner et al. (1999)

Oder Wagner et al., 2004:

Die Mehrheit der auf der Stomatafrequenz basierenden CO2-Schätzungen für das Holozän unterstützen nicht das weithin akzeptierte Konzept vergleichbar stabiler CO2-Konzentrationen während der letzten 11.500 Jahre. Um der Kritik zu begegnen, dass diese Stomata-Häufigkeitsschwankungen aus lokalen Umweltveränderungen oder methodischen Unzulänglichkeiten resultieren, wurden mehrere Stomata-Häufigkeitsaufzeichnungen für drei klimatische Schlüsselperioden während des Holozäns verglichen, nämlich die präboreale Oszillation, das 8.200 Jahre währende Abkühlungsereignis und die Kleine Eiszeit. Die hochgradig vergleichbaren Schwankungen in den paläoatmosphärischen CO2-Aufzeichnungen, die von verschiedenen Kontinenten und Pflanzenarten (sommergrüne Angiospermen sowie Nadelbäume) unter Verwendung unterschiedlicher Kalibrierungsansätze gewonnen wurden, liefern einen starken Beweis für die Integrität der blattbasierten CO2-Quantifizierung.

Wagner et al., 2004

Die GSL-Autoren präsentierten auch einen starken Widerspruch:

Kurz gesagt: Während die atmosphärischen CO2-Konzentrationen in der geologischen Vergangenheit aufgrund natürlicher Prozesse stark schwankten und oft höher waren als heute, ist die derzeitige Rate der CO2– (und damit Temperatur-) Veränderungen beispiellos in fast der gesamten geologischen Vergangenheit.

Wissenschaftliche Stellungnahme der Geological Society of London

Sie behaupten, dass „die aktuelle Rate der CO2– (und damit Temperatur-)Änderung beispiellos ist in fast der gesamten geologischen Vergangenheit“, um dann wenig später zu sagen:

Angesichts der Aufzeichnung vergangener Klimaveränderungen (Abschnitt 1) ist das Ausmaß der jüngsten beobachteten Klimaveränderungen nicht ungewöhnlich.

Wissenschaftliche Stellungnahme der Geological Society of London

Der moderne Klimawandel ist angeblich sowohl beispiellos als auch „nicht ungewöhnlich“. Sie scheinen CO2 und Temperatur zu verwechseln. Obwohl sie miteinander verwandt sind, sind sie nicht austauschbar.

CO2 und Meeresspiegel

Sie stellen auch die Behauptung auf, dass die geologische Aufzeichnung eine Beziehung zwischen CO2 und Meeresspiegel zeigt.

Die geologischen Aufzeichnungen stimmen mit den Vorhersagen überein, dass das langfristige Ausmaß und die Geschwindigkeit des zukünftigen Meeresspiegelanstiegs sehr empfindlich auf zukünftige CO2-Emissionsszenarien reagieren und Intervalle mit sehr schnellem Anstieg enthalten können.

Wissenschaftliche Stellungnahme der Geological Society of London

Es gibt jedoch keine Beziehung zwischen CO2 und Meeresspiegel in den geologischen Aufzeichnungen:

Abbildung 4. Von links nach rechts: Verallgemeinerter Querschnitt entlang der nördlichen GOM-Region (Galloway et al., 2009), Ablagerungsphasen sind nummeriert. Relativer Meeresspiegel (Miller et al., 2005), atmosphärisches CO2 (Berner & Kothavala, 2001) und Temperaturanomalien (Royer et al., 2004). Bild.

William Galloway von der Jackson School of Geosciences an der University of Texas hat die Ablagerungsgeschichte der Golfküste/des Golfs von Mexiko in dieser Arbeit zusammengefasst…

Die Ablagerungsgeschichte kann in sieben Phasen verallgemeinert werden: (1) Mittel- bis spätjurassische Evaporit- und Karbonatablagerung in einem breiten, flachen, auf ein offenes Meer beschränkten Becken. (2) Spätjurassisch-frühkreidezeitliche sandreiche klastische Progradation von den nördlichen Rändern. (3) Spät-frühkreidezeitliche Entwicklung eines umrandeten Karbonat-Schelfs. (4) Spätkreidezeitliche gemischte klastische und karbonatische Aggradation der Kontinentalränder. (5) Wiederauflebende paläogene klastische Progradation und Auffüllung mit Schwerpunkt im NW-Becken. (6) Miozäne Progradation und Beckenfüllung mit Schwerpunkt im zentralen und nordöstlichen Golf. (7) Spätneogene klimatisch und eustatisch beeinflusste Progradation entlang des zentralen Golfrandes. Im Gegensatz zu dem breiten, progradierenden Sedimentkeil des nördlichen Golfs ist der Florida-Rand eine primär aggradierende Karbonatplattform.

Galloway, 2008.

[Linguee-Übersetzer. Anm. d. Übers.]

Abbildung 4 zeigt deutlich die Bedeutung von Klima, atmosphärischem CO2 und Meeresspiegelzyklen in der Ablagerungsgeschichte der US-Golfküste/des Golfs von Mexiko; aber keine Korrelation von CO2 und Meeresspiegel. Beachten Sie, dass die meisten der Ausgangsgesteinsformationen abgelagert wurden, als das atmosphärische CO2 über 1.000 ppm lag und die Erde wesentlich wärmer war als heute, was auf mehr pflanzliches Leben in den wärmeren, CO2-reichen Zeiten schließen lässt.

Die Temperatur- und CO2-Diagramme haben eine Auflösung von 10 Millionen Jahren; sie sind stark geglättet. Diese spezielle Temperatur-Rekonstruktion (Royer et al., 2004) beinhaltet eine pH-Anpassung, abgeleitet von CO2. Sie demonstriert eine relativ gute Korrelation zwischen CO2 und Temperatur auf einer geologischen Zeitskala. Ein Cross-Plot ergibt jedoch nur eine Gleichgewichts-Klimasensitivität (ECS) von etwa 1,28 °C.

Die moderne Erwärmungsperiode begann am Tiefpunkt der Kleinen Eiszeit (ca. 1600 n. Chr.), der kältesten Periode des Holozäns. Dies war 300 Jahre bevor das atmosphärische CO2 den vermuteten normalen vorindustriellen Bereich deutlich überschritt.

Abbildung 5. Temperaturrekonstruktion (Moberg et al., 2005) und Law Dome CO2 (MacFarling Meure et al., 2006)

Der moderne Anstieg des Meeresspiegels begann am Ende der Neoglazialzeit. Die Meeresspiegel-Rekonstruktion von Jevrejeva et al., 2014 (J14) zeigt, dass der Meeresspiegel in den frühen 1800er Jahren sank:

Abbildung 6: Rekonstruktion des Meeresspiegels aus Tiden-Aufzeichnungen (Jevrejeva et al. 2014). Der Geologenhammer soll die Größenordnung verdeutlichen.

Abbildung 7: Meeresspiegel im Vergleich zur CO2-Aufzeichnung und Temperatur

Klima-Sensitivität (ECS)

Der IPCC (2014) gab eine 66%ige Wahrscheinlichkeit an, dass der ECS-Wert zwischen 1,5 und 4,5°C liegt. …

Um ECS aus der geologischen Aufzeichnung abzuschätzen, werden quantitative gepaarte Aufzeichnungen von atmosphärischem CO2 und globaler Temperatur aus Proxies benötigt …

Viele Studien der geologischen Vergangenheit haben den kanonischen Bereich für ECS von 1,5-4,5°C unterstützt

Wissenschaftliche Stellungnahme der Geological Society of London

Die erste, im Charney-Report 1979 veröffentlichte moderne Schätzung des ECS lag bei 1,5 bis 4,5 Grad Celsius pro Verdoppelung des CO2. Mit anderen Worten, der „kanonische Bereich“ hat sich seit über 40 Jahren nicht verändert. Moderne empirische Schätzungen von ECS, basierend auf instrumentellen Daten, liegen zwischen 0,44 Grad C (Lindzen und Choi, 2011) und 1,6 (Lewis und Curry, 2018). Diese Schätzungen beruhen auf hochauflösenden CO2– und Temperaturdaten, was bei geologischen Schätzungen nicht der Fall ist.

Auch wenn die geologischen Schätzungen des ECS höher sein könnten – die GSL sagt, dass die geologischen Schätzungen im Bereich von 2,6 bis 3,9 Grad liegen – können wir uns mit der Genauigkeit oder Präzision dieser Schätzungen nicht anfreunden. Die Daten, insbesondere die CO2-Daten, sind zu schlecht.

Außerdem präsentieren die Autoren eine Karikatur, die scheinbar eine starke Korrelation von CO2 und Temperatur über das Känozoikum darstellt:

Abbildung 8. GLS känozoische Klimasensitivität (modifiziert nach Lear, et al., 2012). Bild.

Die GSL-Karikatur zeigt eine Klimasensitivität von fast 7°C pro CO2-Verdoppelung. Dies würde zu einer Erwärmung von etwa 3,5 °C seit Mitte der 1800er Jahre führen, die eindeutig nicht stattgefunden hat. Moderne hochauflösende instrumentelle Messungen ergeben eine viel geringere Klimasensitivität.

Parallelen i n den geologischen Aufzeichnungen

Die Autoren versuchen, aus den geologischen Aufzeichnungen Parallelen zum gegenwärtigen Klimawandel zu finden:

Im mittleren Pliozän (vor 3,3-3,1 Millionen Jahren) lagen die atmosphärischen CO2-Konzentrationen zwischen 389 (-8 bis +38) ppm und 331 (-11 bis +13) ppm (de la Vega et al. 2020), was höher ist als die vorindustriellen Werte von ca. 280 ppm und etwas niedriger als die heutigen Werte (ca. 407,4 ± 0,1 ppm im Jahr 2018). Die kontinentalen Konfigurationen der Erde, die Landerhebungen und die Bathymetrie der Ozeane waren alle ähnlich wie heute (Haywood et al. 2016). Das Pliozän war durch mehrere Intervalle gekennzeichnet, in denen das orbitale Forcing dem der Neuzeit ähnlich war und bietet uns daher ein nahes Analogon zum Klima unter modernen CO2-Konzentrationen (McClymont et al. 2020). Während dieses Intervalls waren die globalen Temperaturen ähnlich wie die für das Jahr 2100 vorhergesagten (+2,6 bis 4,8 °C im Vergleich zur vorindustriellen Zeit) unter einem Business-as-usual-Szenario (d. h. ohne den Versuch, die Emissionen zu verringern). Mehrere Arbeitslinien deuten auf Ähnlichkeiten zwischen der modellierten Ozeanzirkulation der Zukunft und derjenigen der Warmzeit des mittleren Pliozäns hin, mit einer schwächeren thermohalinen Zirkulation, die mit der Erwärmung und Schichtung des oberen Ozeans zusammenhängt, aber auch mit einem Rückgang der Eisschilde und des Meereises, einer polwärts gerichteten Verschiebung der terrestrischen Biome und einer schwächeren atmosphärischen Zirkulation (Haywood and Valdes 2004; Cheng et al. 2013; Corvec and Fletcher 2017; Fischer et al. 2018). Der pliozäne Meeresspiegel könnte bis zu 20 m über dem heutigen Wert gelegen haben und im Durchschnitt um 13 ± 5 m über die pliozänen Glazial-Interglazial-Zyklen variiert haben, in Verbindung mit Schwankungen in der Ausdehnung des antarktischen Eisschildes (Grant et al. 2019).

Geological Society of London Wissenschaftliche Stellungnahme

Während „die kontinentalen Konfigurationen der Erde, die Landerhebungen und die Bathymetrie der Ozeane“ während des Pliozäns der heutigen Zeit ähnlicher waren als in früheren Zeitabschnitten, war es im mittleren Pliozän aufgrund tektonischer Unterschiede deutlich wärmer als heute. Der Panama-Seeweg war noch offen und ermöglichte einen viel effizienteren Wärmetransport durch den Ozean. Signifikante Hebungsepisoden in den Rocky Mountains und im Himalaya während des Pleistozäns waren auch treibende Faktoren für die Abkühlung der Erde in den letzten 2 Millionen Jahren.

Die geologischen Aufzeichnungen informieren uns darüber, dass die großen klimatischen Verschiebungen des Känozoikums mit tektonischen Veränderungen korreliert waren.

Abbildung 9. Känozoisches Klima, Tektonik und Kohlenstoff-Isotopen-Exkursionen. (Zachos et al., 2001)

Die Temperaturen in Abbildung 9 wurden aus δ18O in benthischen Foraminiferen unter Verwendung eines Modells ohne Meereis abgeleitet. Salzgehalt und Eisvolumen haben einen Einfluss auf die Umrechnung. Diese Temperaturen sind nur auf das untere Tertiär, das Warmhausklima, anwendbar.

Diese Behauptung über das Pliozän als Präzedenzfall für den modernen Klimawandel ist offenkundig lächerlich:

Während dieses Intervalls waren die globalen Temperaturen ähnlich wie die für das Jahr 2100 vorhergesagten (+2,6 bis 4,8 °C im Vergleich zum vorindustriellen Zeitalter) unter einem Business-as-usual-Szenario (d. h. ohne den Versuch, die Emissionen zu verringern).

Wissenschaftliche Stellungnahme der Geologischen Gesellschaft von London

Sie betrachten RCP8.5 eindeutig als „business as usual“.

Abbildung 10: Szenarien der Klimamodelle Bild

[Bildinschrift: Klimamodelle beruhen auf Szenarien:

RCP-Szenarien werden herangezogen, um zu evaluieren, wie sich das zukünftige Klima unter verschiedenen unterschiedlichen Szenarien von Treibhausgas-Emissionen ändern könnte:

Das RCP2.5 entspricht im Wesentlichen dem „Green New Deal“-Szenario, welchem zufolge die Emissionen darauf begrenzt sind, einen zusätzlichen Strahlungsangtrieb von mehr als 2,5W/m² zu verhindern.

Das RCP4.5 ist ein Szenario starker Abschwächung, etwa durch relativ hohe Kohlenstoff-Steuern. Gemessene Temperaturen folgen derzeit dieser Trajektorie.

Das RCP6.0 ist ein Szenario geringer Abschwächung. Die Emissionen folgen allgemein dieser Trajekgtorie.

Das RCP8.5-Szenario ist ein dystopisches Szenario mit rapidem wirtschaftlichen Wachstum und nur geringen technologischen Fortschritten. Dies wird oftmals als „business as usual“ angesehen und ist die Quelle der meisten Katastrophen-Prophezeiungen.]

Betrachtet man jedoch die gesamte Bandbreite der Modell-Simulationen, wird klar, dass das Klima mehr dem RCP4.5 als dem RCP8.5 folgt.

Abbildung 11. Modelle vs. Beobachtungen. (modifiziert nach Climate Lab Book)

Selbst bei einer zusätzlichen Erwärmung von 0,5 bis 1,0 °C bis zum Ende dieses Jahrhunderts wird sich das Klima immer noch im Bereich der pleistozänen Zwischeneiszeitstadien befinden, also deutlich unter dem mittleren Pliozän.

Abbildung 12. SST in hohen Breiten (°C) aus benthischen Foramen δ18O (Zachos, et al., 2001) und HadSST3 (Hadley Centre / UEA CRU über www.woodfortrees.org) im gleichen Maßstab, gebunden an 1950 n. Chr.

Es kommt alles auf den Kontext und die Auflösung an

Beachten Sie, dass die Auflösung der δ18O-Temperaturrekonstruktion viel geringer ist als die der instrumentellen Aufzeichnung und das HadSST-Signal nicht auflösen würde. Noch einmal: Die geologische Aufzeichnung liefert ein allgemeines Bild des vergangenen Klimawandels, kann aber nicht direkt mit hochauflösenden instrumentellen Aufzeichnungen verglichen werden, ohne sie explizit in den Kontext zu setzen. Die moderne Erwärmung erscheint nur aufgrund der höheren Auflösung der instrumentellen Aufzeichnungen und ihrer Position am Ende der Zeitreihe anomal.

Ljungqvist (2010) hat das Problem durch den direkten Vergleich von instrumentellen Daten mit Proxy-Rekonstruktionen deutlich erklärt.

Die Amplitude der rekonstruierten Temperaturvariabilität auf hundertjährigen Zeitskalen überschreitet 0,6°C. Diese Rekonstruktion ist die erste, die eine ausgeprägte Römische Warmzeit von ca. 1-300 n. Chr. zeigt, die bis zum mittleren Temperaturniveau von 1961-1990 reicht, gefolgt von der Dunkelzeit-Kaltzeit von ca. 300-800 n. Chr. Die mittelalterliche Warmzeit wird ca. 800-1300 n. Chr. gesehen und die kleine Eiszeit ist ca. 1300-1900 n. Chr. deutlich sichtbar, gefolgt von einem raschen Temperaturanstieg im 20 Jahrhundert. Die höchsten Durchschnittstemperaturen in der Rekonstruktion werden in der Mitte bis zum Ende des zehnten Jahrhunderts angetroffen und die niedrigsten im späten siebzehnten Jahrhundert. Die dekadischen Mitteltemperaturen scheinen während wesentlicher Teile der Römischen Warmzeit und der Mittelalterlichen Warmzeit das Niveau der Mitteltemperatur von 1961-1990 erreicht oder überschritten zu haben. Die Temperatur der letzten zwei Jahrzehnte ist jedoch möglicherweise höher als während jeder früheren Zeit in den letzten zwei Jahrtausenden, obwohl dies nur in den instrumentellen Temperaturdaten und nicht in der Multi-Proxy-Rekonstruktion selbst zu sehen ist.

(…)

Die Proxy-Rekonstruktion selbst zeigt keine solch beispiellose Erwärmung, aber wir müssen bedenken, dass nur wenige der in der Rekonstruktion verwendeten Aufzeichnungen bis in die 1990er Jahre reichen. Nichtsdestotrotz wird eine sehr vorsichtige Interpretation des Niveaus der Erwärmung seit 1990 n. Chr. im Vergleich zu den Spitzenwerten der Erwärmung während der römischen Warmzeit und der mittelalterlichen Warmzeit dringend empfohlen.

(… )

Die Amplitude der hier rekonstruierten Temperaturvariabilität auf dekadischen bis hundertjährigen Zeitskalen sollte vermutlich als das Minimum der wahren Variabilität auf diesen Zeitskalen betrachtet werden.

Ljungqvist, 2010

Direkte Vergleiche der modernen instrumentellen Aufzeichnung mit den älteren Proxy-Rekonstruktionen sind nicht robust, weil die Proxy-Daten eine viel geringere Auflösung haben. Die Proxydaten zeigen das „Minimum der wahren Variabilität auf diesen Zeitskalen.“ Die Instrumenten-Daten bilden etwas ab, das näher an der tatsächlichen Variabilität liegt.

Den Proxydaten fehlt die Hochfrequenz-Komponente des Signals. Wenn die Hochfrequenz-Komponente eines Signals herausgefiltert wird, schwächt dies die Amplitude ab. Das ist grundlegende Signaltheorie:

Abbildung 13. Sinuswelle mit 100-pt-Glättungs-Mittelwert angewendet. Beachten Sie die Reduktion der Amplitude aufgrund von Filterung und Glättung. (Wood for Trees) Der Ältere ist nach links gerichtet.

Der direkte Vergleich von Instrumentaldaten mit Proxydaten wird noch problematischer, wenn die Aufzeichnungslänge über 2.000 Jahre hinaus verlängert wird:

Abbildung 14. Holozäne Klima-Rekonstruktion, Andy May. Älter ist links.

Die vermeintlich „vier wärmsten Jahre seit Beginn der Aufzeichnungen“ sind nur etwa 300 Jahre nach dem kältesten Jahrhundert der letzten 100 Jahrhunderte aufgetreten.  Dies könnte nur von jemandem als „Klimakrise“ oder „Klimanotstand“ bezeichnet werden, der sich mit den wissenschaftlichen Grundlagen der Quartärgeologie und der Signalverarbeitung nicht auskennt.

Je länger die Datensatzlänge der Rekonstruktion, desto wichtiger wird die Konsistenz der zeitlichen Auflösung.

„Konsistenz der zeitlichen Auflösung“ bedeutet, dass die Auflösung der älteren Proxies mit den jüngeren Proxies konsistent ist. Die zeitliche Auflösung ist eine Funktion des Stichprobenintervalls…

Wir glauben, dass die größere Fehlerquelle in diesen Rekonstruktionen in der Auswahl der Proxies liegt. Wie in dieser Serie dokumentiert, sind einige der ursprünglichen 73 Proxies von Auflösungsproblemen betroffen, die bedeutende klimatische Ereignisse verbergen, und einige sind von lokalen Bedingungen betroffen, die keine regionale oder globale Bedeutung haben. Andere decken kurze Zeitspannen ab, die die beiden wichtigsten klimatischen Merkmale des Holozäns, die Kleine Eiszeit und das Holozäne Klimaoptimum, nicht abdecken.

(…)
Wir haben auch Proxies mit langen Stichprobenintervallen (größer als 130 Jahre) vermieden, weil sie dazu neigen, die Auflösung der Rekonstruktion zu verringern und wichtige Details abzuschwächen („auszugleichen“). Der kleinste Klimazyklus beträgt etwa 61 bis 64 Jahre, die sogenannte „Stadionwelle“, und wir wollen versuchen, ihrem Einfluss nahe zu kommen. In dieser einfachen Rekonstruktion haben wir versucht, diese Probleme zu berücksichtigen.

Andy May WUWT.

Für zusätzliche Lektüre zur Auflösung, siehe: Auflösung und Hockeyschläger, Teil 1.

Diskussion

Während geologische Daten bei der Untersuchung des Klimas sehr hilfreich sind, wie die GSL sagt, wird die Interpretation der Bedeutung des modernen Klimawandels wahrscheinlich nicht von geologischem Input profitieren. Die Erwärmung über das 20. Jahrhundert beträgt nur etwa ein Grad und die Erwärmung seit 1950, die vom IPCC als Richtwert verwendet wird, beträgt nur etwa 0,7 Grad. Die geologischen Zeiträume sind größer als 1.000 Jahre, wie das GSL-Papier feststellt, und die daraus folgenden Erwärmungs- und Abkühlungsereignisse in der geologischen Aufzeichnung sind größer als fünf Grad. Die geologischen Daten, die wir haben, sind sehr niedrig aufgelöst und werden sich wahrscheinlich nicht verbessern. Das Hauptproblem ist, dass die jüngste Erwärmung auf einer geologischen Skala unbedeutend ist.

[Hervorhebung vom Übersetzer]

Wie oben beschrieben, sind die CO2-Daten niedriger aufgelöst und weniger genau als die Temperaturdaten. Wir haben gesehen, dass der Vergleich von Temperatur-Proxydaten über die letzten 2.000 Jahre mit modernen instrumentellen Daten unangemessen ist, und es ist noch weniger angemessen, geologische Daten mit der modernen instrumentellen Aufzeichnung zu vergleichen. Weder das Ausmaß der jüngsten Erwärmung noch die jüngsten CO2-Konzentrationsänderungen sind über geologische Zeiträume hinweg ungewöhnlich.

Geowissenschaftler haben die Verantwortung, den geologischen Kontext des Klimawandels zu vermitteln, anstatt zu behaupten, dass jede Beobachtung, die nicht in der geologischen Aufzeichnung auflösbar ist, beispiellos und Grund für eine wirtschaftlich zerstörerische Regierungspolitik ist. Es sollte ausreichen zu sagen, dass die anthropogenen CO2-Emissionen wahrscheinlich die Ursache für den größten Teil des Anstiegs von ~280-400 ppm in den letzten 200 Jahren sind und dass dies einen Netto-Erwärmungseffekt auf die Atmosphäre hat. Obwohl so ziemlich jede aktuelle, auf Beobachtungen basierende Schätzung darauf hinweist, dass der Erwärmungseffekt minimal ist.

Obwohl es keinen „Klimanotstand“ gibt, existieren wirtschaftlich gangbare Wege, um die Kohlenstoffintensität unserer Energieproduktion zu reduzieren und das endgültige Wachstum des atmosphärischen CO2 auf ~600 ppm bis zum Ende dieses Jahrhunderts zu begrenzen. Dies würde uns im „Rauschpegel“ des Känozoikums halten.

Abbildung 15a. Marines pCO2 (Foram-Bor δ11B, Alkenon δ13C), atmosphärisches CO2 aus Pflanzenstomata (grüne und gelbe Rauten mit roten Umrissen), instrumentelles CO2 vom Mauna Loa (dicke rote Linie) und känozoische Temperaturänderung aus benthischen Foram δ18O (hellgraue Linie).

Abbildung 15b. Legende zu Abbildung 15a.

Anstatt Fristen für „Netto-Null-Emissionen“ und andere unerreichbare und willkürliche Kriterien festzulegen, sollte der Schwerpunkt auf der Reduktion der Kohlenstoffintensität der Energieerzeugung auf wirtschaftlich nachhaltige Weise liegen. Die Vereinigten Staaten haben dies, größtenteils durch unseren privaten Sektor, bereits getan. Die CO2-Emissionen bei der Stromerzeugung in den USA sind auf das Niveau der 1980er Jahre gesunken, was vor allem auf den Ersatz von Kohle- durch Erdgas-Strom zurückzuführen ist.

Abbildung 16. Quelle: U.S. Energy Information Administration, Monthly Energy Review

Geowissenschaftler werden in diesem Prozess eine entscheidende Rolle spielen, indem sie weiterhin wirtschaftlich förderbare Öl- und Gasreserven finden, die Methoden der geologischen Kohlenstoffabscheidung und -speicherung verbessern, den Weg für die Erweiterung unseres Zugangs zu der riesigen Bandbreite an mineralischen Ressourcen ebnen, die für den Ausbau der „erneuerbaren Energien“ (Wind und Sonne), Batterie- und andere Speichertechnologien benötigt werden, und die sichere geologische Entsorgung von nuklearen Abfallprodukten fördern, und all dies auf die sicherste Art und Weise, mit so wenig Umweltbelastung wie möglich. Wirtschafts-Geowissenschaftler in den Bereichen Öl & Gas und Mineralien sind aufgrund ihrer Erfahrung mit der Projektökonomie besonders gut positioniert, um den Weg zu weisen.

Energie, Wirtschaft und Umwelt sind untrennbar miteinander verbunden. Ohne erschwingliche, zuverlässige Energie kann eine Gesellschaft nicht die wirtschaftlichen Mittel haben, die Umwelt zu schützen. Nichts korreliert stärker mit menschlichem Wohlstand und einer sauberen Umwelt als der billige Zugang zu Energie (May, Climate Catastrophe! Science or Science Fiction?, 2018, S. 7, 18). Für eine Diskussion über Energie und Armut siehe hier.

[Hervorhebung vom Übersetzer]

Der texanische Staatsgeologe und Direktor des Bureau of Economic Geology Scott Tinker hat es in diesem Editorial über Kohlenstoff-Bepreisung sehr gut zusammengefasst:

Kohlenstoff-Bepreisung ist kein Allheilmittel für Klimawandel

Scott Tinker, 23. August 2019

Heute wird viel über die Bepreisung von Kohlendioxid gesprochen, um die CO2-Emissionen zu reduzieren und den Klimawandel zu bekämpfen. Anders als viele Umweltschadstoffe, die eine lokale oder regionale Auswirkung haben, ist Kohlendioxid (CO2) global – es gibt nur eine Atmosphäre. Wenn Maßnahmen zur Reduzierung der atmosphärischen Emissionen in einer Region zu erhöhten Emissionen an anderer Stelle führen, dann gilt das für die gesamte Atmosphäre.

Eine Form der Kohlenstoff-Bepreisung – -steuer, -handel, -gutschriften – wird von vielen Politikern, NGOs, Akademikern und sogar einigen in der Industrie favorisiert. Aber die Realität ist, dass ein Preis für Kohlenstoff von den Entwicklungs- und Schwellenländern nicht durchgesetzt werden wird, weil er ihre Energie teurer macht, und sie zu sehr damit beschäftigt sind, ihre Wirtschaft aufzubauen und sich aus der Armut zu befreien.

In den Industrieländern verteuert die Bepreisung von Kohlenstoff die Herstellung und die Produkte, was wiederum die Produktion in die Entwicklungsländer treibt, wo sie aufgrund niedrigerer Arbeitskosten und weniger strenger Umweltvorschriften und Emissionsstandards günstiger ist. Die globalen Emissionen steigen in der einen gesamten Atmosphäre.

Anders ausgedrückt: Die guten Absichten der Kohlenstoffbepreisung haben einen unbeabsichtigten negativen Einfluss auf den Klimawandel. Dies ist nicht hypothetisch. Es ist Realität.

Wenn die Kohlenstoff-Bepreisung nicht funktioniert, was dann? Die Energiewissenschaft sagt uns, wie wir die CO2-Emissionen in die Atmosphäre in dem erforderlichen Zeitrahmen tatsächlich senken können. Leider scheinen diejenigen, die den Klimawandel am leidenschaftlichsten angehen wollen, die Antworten der Energieexperten nicht zu mögen.

(…)

Welche Optionen mit großem Einfluss auf den Klimawandel schlagen also die Energiewissenschaftler vor?

Erdgas und Kernenergie als Ersatz für Kohle bei der Stromerzeugung in großen Entwicklungsländern wie Indien, China und Vietnam würden einen großen Einfluss haben. Kohlenstoffabscheidung, -nutzung und -speicherung, direkte Kohlenstoffabscheidung aus der Atmosphäre und vielleicht naturbasierte Lösungen wie die Vergrößerung der Wälder würden helfen, besonders in Regionen, die fossile Brennstoffe produzieren, wie die USA, Russland, China und der Nahe Osten.

(…)

Diese wissenschaftlich fundierten und wirtschaftlich untermauerten Energielösungen stellen ein Problem dar. Viele werden von den Menschen, die am meisten über den Klimawandel besorgt sind, nicht favorisiert. Daher werben Politiker, die auf der Suche nach Wählerstimmen für das Klima sind, weiterhin leidenschaftlich für Programme und Maßnahmen, die den Klimawandel nicht wirklich bekämpfen.

Aber wir haben eine bemerkenswerte Gelegenheit. Die Rechte kann die Notwendigkeit anerkennen, den Klimawandel zu bekämpfen. Die Linke kann die Energiewissenschaft anerkennen, die notwendig ist, um eine echte globale Reduktion der Emissionen in die Atmosphäre zu erreichen. Und die Entwicklungs- und Schwellenländer können sich weiter aus der Energiearmut befreien.

Leider scheint dies noch lange nicht der Fall zu sein. Klimapolitik scheint in Europa und den USA Energielösungen zu übertrumpfen, und die Entwicklungsländer verbrennen weiterhin Kohle.

Scott Tinker ist der Allday-Stiftungslehrstuhl für Untergrundgeologie und Direktor des Bureau of Economic Geology an der University of Texas in Austin.

UT News

Sollte der Klimawandel wirklich ein Problem sein, können wir ihn nur angehen, wenn wir wirtschaftlich tragfähige Wege verfolgen, die den Zugang zu erschwinglicher, zuverlässiger Energie bewahren und den weiteren Ausbau des menschlichen Wohlstands ermöglichen. Und der private Sektor ist weitaus besser darin, dies zu tun als jede Regierung.

AZ Quotes

Milton Friedman: „Die regierungsamtliche Lösung eines Problems ist normalerweise genauso schlimm wie das Problem selbst“.

References

Bereiter, Bernhard.  Sarah Eggleston, Jochen Schmitt, Christoph Nehrbass-Ahles, Thomas F. Stocker, Hubertus Fischer, Sepp Kipfstuhl and Jerome Chappellaz. 2015. Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present. Geophysical Research Letters. . doi: 10.1002/2014GL061957. LINK

Bereiter et al. (2014), Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present, Geophysical Research Letters, doi: 10.1002/2014GL061957.  Data

Berner, R.A. and Z. Kothavala, 2001. GEOCARB III: A Revised Model of Atmospheric CO2 over Phanerozoic Time, American Journal of Science, v.301, pp.182-204, February 2001.

Charney, J., Arakawa, A., Baker, D., Bolin, B., Dickinson, R., Goody, R., . . . Wunsch, C. (1979). Carbon Dioxide and Climate: A Scientific Assessment. National Research Council. Washington DC: National Academies Press. Doi: https://doi.org/10.17226/12181

Dott, Robert H. & Roger L. Batten.  Evolution of the Earth.  McGraw-Hill, Inc.  Second Edition 1976.  p. 441.

Galloway, William. (2008). “Chapter 15 Depositional Evolution of the Gulf of Mexico Sedimentary Basin”. Volume 5: Ed. Andrew D. Miall, The Sedimentary Basins of the United States and Canada., ISBN: 978-0-444-50425-8, Elsevier B.V., pp. 505-549.

Jevrejeva, S., J. C. Moore, A. Grinsted, and P. L. Woodworth (2008). “Recent global sea level acceleration started over 200 years ago?”. Geophys. Res. Lett., 35, L08715, doi:10.1029/2008GL033611.

Jevrejeva, S. , J.C. Moore, A. Grinsted, A.P. Matthews, G. Spada. 2014.  “Trends and acceleration in global and regional sea levels since 1807”.  Global and Planetary Change. %vol 113, 10.1016/j.gloplacha.2013.12.004 https://www.psmsl.org/products/reconstructions/jevrejevaetal2014.php

Lear, Caroline H., Pallavi Anand, Tom Blenkinsop, Gavin L. Foster, Mary Gagen, Babette Hoogakker, Robert D. Larter, Daniel J. Lunt, I. Nicholas McCave, Erin McClymont, Richard D. Pancost, Rosalind E.M. Rickaby, David M. Schultz, Colin Summerhayes, Charles J.R. Williams and Jan Zalasiewicz. Geological Society of London Scientific Statement: what the geological record tells us about our present and future climate.
Journal of the Geological Society, 178, jgs2020-239, 28 December 2020, https://doi.org/10.1144/jgs2020-239

Lewis, N., & Curry, J. (2018, April 23). The impact of recent forcing and ocean heat uptake data on estimates of climate sensitivity. Journal of Climate. Retrieved from https://journals.ametsoc.org/doi/10.1175/JCLI-D-17-0667.1

Lindzen, R., & Choi, Y.-S. (2011, August 28). On the Observational Determination of Climate Sensitivity and Implications. Asia-Pacific Journal of Atmospheric Sciences, 47(377). Retrieved from https://link.springer.com/article/10.1007/s13143-011-0023-x#citeas

Ljungqvist, F.C. 2010. “A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia”. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

MacFarling-Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins (2006). “Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP“. Geophys. Res. Lett., 33, L14810, doi:10.1029/2006GL026152.

May, Andy. Climate Catastrophe! Science or Science Fiction? American Freedom Publications LLC, 2018.

Miller, Kenneth & Kominz, Michelle & V Browning, James & Wright, James & Mountain, Gregory & E Katz, Miriam & J Sugarman, Peter & Cramer, Benjamin & Christie-Blick, Nicholas & Pekar, S. (2005). “The Phanerozoic Record of Global Sea-Level Change”. Science (New York, N.Y.). 310. 1293-8. 10.1126/science.1116412.

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005.  “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data”. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Nerem,  R. S.,  B. D. Beckley, J. T. Fasullo, B. D. Hamlington, D. Masters, G. T. Mitchum. “Climate-change–driven accelerated sea-level rise”. Proceedings of the National Academy of Sciences. Feb 2018, 115 (9) 2022-2025; DOI: 10.1073/pnas.1717312115

Pagani, Mark, Michael Arthur & Katherine Freeman. (1999). “Miocene evolution of atmospheric carbon dioxide”. Paleoceanography. 14. 273-292. 10.1029/1999PA900006.

Royer, D. L., R. A. Berner, I. P. Montanez, N. J. Tabor and D. J. Beerling. “CO2 as a primary driver of Phanerozoic climate”.  GSA Today, Vol. 14, No. 3. (2004), pp. 4-10

Severinghaus, J. P., Sowers, T., Brook, E. J., Alley, R. B., & Bender, M. L. (1998, January 8). Timing of abrupt climate change at the end of the Younger Dryas interval from thermally fractionated gases in polar ice. Nature, 391, pp. 141-146. Retrieved from http://shadow.eas.gatech.edu/~jean/paleo/Severinghaus_1998.pdf

Terando, A., Reidmiller, D., Hostetler, S.W., Littell, J.S., Beard, T.D., Jr., Weiskopf, S.R., Belnap, J., and Plumlee, G.S., 2020, Using information from global climate models to inform policymaking—The role of the U.S. Geological Survey: U.S. Geological Survey Open-File Report 2020–1058, 25 p., https://doi.org/10.3133/ofr20201058.

Tripati, A.K., C.D. Roberts, and R.A. Eagle. 2009.  “Coupling of CO2 and Ice Sheet Stability Over Major Climate Transitions of the Last 20 Million Years”.  Science, Vol. 326, pp. 1394 1397, 4 December 2009.  DOI: 10.1126/science.1178296

Wagner F, et al., 1999. Century-scale shifts in Early Holocene CO2 concentration. Science 284:1971–1973.

Wagner F, Kouwenberg LLR, van Hoof TB, Visscher H, 2004. Reproducibility of Holocene atmospheric CO2 records based on stomatal frequency. Quat Sci Rev 23:1947–1954.  LINK

Zachos, J. C., Pagani, M., Sloan, L. C., Thomas, E. & Billups, K. “Trends, rhythms, and aberrations in global climate 65 Ma to present”. Science 292, 686–-693 (2001).

Link: https://wattsupwiththat.com/2021/01/13/may-middleton-rebuttal-to-geological-society-of-london-scientific-statement-on-climate-change/

Übersetzt von Chris Frey EIKE




Biden könnte dabei helfen, die Bergbau-Tragödie in Entwicklungs­ländern zu lindern

Bidens „Krieg gegen die Umweltverschmutzung“ erfordert eine weltweite Transparenz der Lieferketten sowie Umwelt- und Arbeitsschutzgesetze und -standards, um die Umweltzerstörung und die Gräueltaten an der Menschheit zu kontrollieren, die auf der ganzen Welt durch den Bergbau in den fernen Ländern entstehen, die die Lieferkette der exotischen Mineralien und Metalle zur Herstellung von Windturbinen, Solarzellen und EV-Batterien dominieren.

Die dunkle Seite der erneuerbaren Wind-, Solar-, EV-Batterien und Biokraftstoff-Energie ist, dass sie nicht sauber, grün, erneuerbar oder nachhaltig sind. Sie sind entsetzlich zerstörerisch für die lebenswichtigen ökologischen Werte in fremden Ländern, die noch für Generationen bestehen werden.

[Hervorhebung vom Übersetzer]

Am Ende des Lebenszyklus von Windturbinen, Solarmodulen und EV-Batterien hat Biden die Möglichkeit, Stilllegungs-, Wiederherstellungs- und Recycling-Standards in fremden Ländern bis zum letzten Löwenzahn anzustreben, so wie wir es für stillgelegte Minen, Öl- oder Atomanlagen in Amerika haben.

Der Klimawandel bleibt eine der größten Bedrohungen für die Integrität des Lebens auf der Erde [?]. Aber wir brauchen unbedingt ein Mitgefühl für den Kompromiss, fossile Brennstoffe zu schnell zu eliminieren, weil sich dadurch der Tod von jährlich 11 Millionen Kindern weltweit fortsetzen dürfte. Diese Todesfälle sind auf vermeidbare Ursachen wie Durchfall, Malaria, Infektionen bei Neugeborenen, Lungenentzündungen, Frühgeburten oder Sauerstoffmangel bei der Geburt zurückzuführen, da viele Entwicklungsländer keinen oder nur minimalen Zugang zu den Tausenden von Produkten aus Erdölderivaten haben, deren sich die wohlhabenden und gesunden Länder erfreuen.

Biden kann der Welt die Notwendigkeit vermitteln zu begreifen, dass Energie mehr ist als intermittierende Elektrizität aus Wind und Sonne. Seit der Entdeckung der Vielseitigkeit der Produkte, die aus Erdölderivaten hergestellt werden können, und dem Beginn der Herstellung und Montage von Autos, Lastwagen, Flugzeugen und militärischer Ausrüstung in den frühen 1900er Jahren hatte die Welt fast 200 Jahre Zeit, etwas zu entwickeln, um die Erdölderivate zu ersetzen, welche die Grundlage für mehr als 6.000 Produkte bilden, die die Basis für den Lebensstil und Volkswirtschaften auf der ganzen Welt sind.

Die sozialen Bedürfnisse unserer materialistischen Gesellschaften, sowohl in den USA als auch weltweit, werden höchstwahrscheinlich weiterhin nach kontinuierlicher, unterbrechungsfreier und zuverlässiger Elektrizität aus Kohle, Erdgas oder Kernenergie als Backup für die intermittierenden erneuerbaren Energien und für all die chemischen Derivate verlangen, die aus Erdöl hergestellt werden und aus denen alles besteht, was Teil unseres täglichen Lebensstils und unserer Wirtschaft ist.

Der Schlüssel zu Reichtum und Wohlstand ist der kontinuierliche Zugang zu den Tausenden von Produkten, die aus Erdölderivaten hergestellt werden, sowie zu zuverlässiger, kontinuierlicher, unterbrechungsfreier und bezahlbarer Elektrizität. Die „unzuverlässigen“ Quellen Wind und Solar bedrohen sowohl Reichtum als auch Wohlstand.

In Amerika leben nur etwa vier Prozent der Weltbevölkerung (330 Millionen vs. 8 Milliarden). Biden weiß, dass Öl und Gas nicht nur ein amerikanisches Geschäft mit seinen 135 Raffinerien in den USA ist, sondern eine internationale Industrie mit mehr als 700 Raffinerien weltweit, die den Bedarf der 8 Milliarden Menschen auf der Erde bedienen.

Die unbeabsichtigte Folge von Bidens Ziel, bis 2050 in Amerika keine fossilen Brennstoffe mehr zu verwenden, wird sein, dass die Brennstoffe und Produkte aus dem Ausland importiert werden, wo die Umweltkontrollen wesentlich weniger streng sind. Dieser Plan kann zwar funktionieren, geht aber mit höheren Kosten für den amerikanischen Verbraucher einher und kann Amerika in ein nationales Sicherheitsrisiko mit erhöhter Abhängigkeit von ausländischen Ländern für die Produkte und Brennstoffe für Amerikas Wirtschaft setzen.

Biden muss das Rad nicht neu erfinden, indem er die Transparenz der weltweiten Umwelt- und Arbeitsgesetze einfordert, da die Handelsorganisation der Vereinten Nationen UNCTAD bereits einen Bericht herausgegeben hat, der einige der unbeabsichtigten negativen Folgen der grünen Bewegung oder der „Verlagerung“ von Emissionen ins Ausland aufschlüsselt, die sowohl ökologische Degradation als auch Menschenrechtsverletzungen umfassen.

Darüber hinaus hat Amnesty International dokumentiert, dass Kinder und Erwachsene Kobalt in engen, von Menschenhand geschaffenen Tunneln abbauen und die Exposition gegenüber den dabei freigesetzten gefährlichen Gasen, ganz zu schweigen von der Zerstörung der lokalen Ökosysteme, wenn das Abwasser und andere unbrauchbare Erze einfach in der Umgebung abgelagert werden. Sie haben keine andere Wahl, wenn sie überleben wollen, weil ihre Löhne so verschwindend gering sind. All dies sollte uns veranlassen, einen Schritt zurückzutreten und unsere moralischen Verpflichtungen gegenüber diesem Teil der Menschheit zu überprüfen.

[Hervorhebung vom Übersetzer]

Amerika könnte den nachhaltigen Bergbau in diesen Entwicklungsländern fördern, indem es das Land nach der Schließung der Mine zu einem gesunden Ökosystem zurückführt und den umliegenden Gemeinden mehr Wohlstand, Bildung, Gesundheitsversorgung und Infrastruktur hinterlässt, als sie vor der Inbetriebnahme der Mine hatten. Wie der Bergbau in Amerika muss auch der Bergbau in Entwicklungsländern das Ziel der sozialen Verantwortung von Unternehmen und das Ergebnis der erfolgreichen ökologischen Wiederherstellung von Landschaften sein.

Amerikas Leidenschaft für grünen Strom zur Reduzierung von Emissionen muss ethisch sein und sollte nicht von Menschenrechts- und Umweltverletzungen in den fremden Ländern leben, die die exotischen Mineralien und Metalle zur Unterstützung von Amerikas grüner Leidenschaft liefern.

Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics.

Link: https://www.cfact.org/2021/01/09/biden-should-help-clean-up-the-developing-worlds-exotic-mining-tragedy/

Übersetzt von Chris Frey EIKE

 




Woher kommt der Strom? Überangebot im Markt

Woche 53. (Abbildung, bitte unbedingt anklicken. Es öffnen sich alle Abbildungen und mehr)

  1. Wenn die regenerative Stromerzeugung sehr stark ist, kommt es zu häufig zu einem Überangebot im Markt. Kommt dann noch wenig Bedarf hinzu, kommt dann noch die Mindesterzeugung (20 GW zwecks Netzstabilität) durch konventionelle Kraftwerke hinzu, dann muss der überschüssige Strom zu niedrigen Preisen verkauft, vielleicht sogar verschenkt werden. Verschenkt mit einem Bonusscheck, damit Deutschlands Nachbarn den Strom überhaupt abnehmen. Letzteres war am Sonntag, den 27.12.2020 beispielhaft der Fall.
  2. Wenn nach einem Zeitraum sehr starker regenerativer Stromerzeugung diese rapide und stark abfällt, kommen die konventionellen Stromerzeuger nicht schnell genug mit dem Hochfahren nach (Abbildung 1). Dann entsteht eine Stromversorgungslücke, die in aller Regel hochpreisig geschlossen werden muss. Genau das war am Montag der Fall (Abbildung 2)
  3. Wenn die konventionellen Stromerzeuger den Erzeugungsverlauf der erneuerbaren Stromerzeugung gut nachführen, also kaum ein Überangebot entsteht, sind die Preise, die Deutschland erzielt, häufig auskömmlich, ab und zu auch mehr als auskömmlich. Dies trifft in erster Linie auf die Mittags- und Vorabendzeit zu. Auch diesen Sachverhalt dokumentiert die 53. Woche.
  4. Kommt es hingegen aus welchen Gründen auch immer – es kann auch spekulative Gründe haben – zu einer Stromunterdeckung zu genau diesen Zeiträumen (Mittag 11:00 bis 13:00 Uhr/Vorabend 17:00 bis 19:00 Uhr), muss der Strombedarf mittels Importstrom gedeckt werden. Das war am besagten Montag, aber auch am Freitag und Samstag der Fall. Da wurden die höchsten Preise der 53. Woche aufgerufen. Höchstpreise, die Deutschland bezahlte.
  5. Je volatiler die Strompreise sind, desto besser können Preisdifferenzgeschäfte getätigt werden. Die 53. Woche liefert auch dafür gute Beispiele (Abbildung 3). Am markantesten sind selbstverständlich der Sonntag und der Montag. Vor allem Dänemark, aber auch Österreich, die Schweiz, Frankreich nahmen Gratisstrom plus Scheck an, um am folgenden Tag ihren Strom hochpreisig an Deutschland zu verkaufen.

Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart liegen unter Abbildung 4, die Charts mit den Jahresdaten Import-Export, die Im-, Exportdaten der 53. Woche (beides bis 31.12.2020) liegen unter Abbildung 5 ab.

Die angenommene Verdoppelung der Wind- und Sonnenstromerzeugung hat zu überraschenden Ergebnissen geführt (Abbildung 6). Lediglich an 121 von 366 Tagen des Jahres 2020 hätte diese ausgereicht, um zumindest rein rechnerisch den Strom-Tagesbedarf Deutschlands zu decken. Eine stunden- oder gar viertelstundenscharfe Analyse könnte das Ergebnis durchaus noch negativer aussehen lassen. Wie auch immer. Nicht mal an einem Drittel der Tage des Jahres 2020 hätte eine Verdoppelung Wind- und Sonnenstrom ausgereicht. Noch ernüchternder ist die Analyse des Stromüberschusses bzw. der Stromunterdeckung.  An den 121 Tagen, wo die Verdoppelung ausgereicht hätte, wurden 32,1 TWh überschüssiger Strom produziert. An den Tagen, wo die Verdoppelung nicht ausgereicht hätte fehlten 95,73 TWh Strom.  Bemerkenswerterweise ist es auch hier ziemlich genau nur ein Drittel des fehlenden Stroms, der an den 121 Tagen „zu viel“ erzeugt wurde

Sonntag, 27.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 75,86 Prozent, davon Windstrom 63,45 Prozent, Sonnenstrom 2,07 Prozent, Strom Biomasse/Wasserkraft 10,34 Prozent. Die Agora-Chartmatrix: Hier klicken.

Sonntag, wenig Bedarf und auch deshalb viel zu viel Strom ist im Markt. Die konventionellen Stromerzeuger dürfen aus Gründen der Netzstabilität 20 GW nicht unterschreiten. Die Preise fallen ins Bodenlose. Es ist ein wirtschaftliches Desaster. Für Deutschland. Unsere Nachbarn langen zu. Nehmen Strom plus Scheck dankend oder gar feixend entgegen: Sie ahnen vielleicht, dass sie am folgenden Tag womöglich weitere gute Geschäfte machen können.

Montag, 28.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 41,88 Prozent, davon Windstrom 27,35 Prozent, Sonnenstrom 1,71 Prozent, Strom Biomasse/Wasserkraft 12,82 Prozent. Die Agora-Chartmatrix: Hier klicken.

Gestern viel zu viel Strom im Markt. Heute zu wenig. Die Windstromerzeugung ist nahezu komplett eingebrochen. Hinzu kommt der Bedarf eines Werktags. Ab 12:30 fehlt Strom, muss Strom importiert werden. Aus den Staaten, denen Deutschland noch gestern Strom plus Geld (Geld der Stromkunden) nachgeworfen hat. Der Zusammenhang mit dem regenerativ erzeugten Strom ist offensichtlich. Je weniger desto besser. Aber nicht so wenig, dass die Konventionellen nicht mehr nachkommen. Dann wird es teuer.

Dienstag, 29.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 42,15 Prozentdavon Windstrom 26,45 Prozent, Sonnenstrom 2,48 Prozent, Strom Biomasse/Wasserkraft 13,22 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ab Dienstag 6:00 Uhr ist das Schlimmste vorbei. Die konventionelle Stromerzeugung folgt der regenerativen Erzeugung gut. Diese ist heute gut kalkulierbar. Dementsprechend sind die Preise, die erzielt werden.

Mittwoch, 30.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,89 Prozentdavon Windstrom 34,81 Prozent, Sonnenstrom 2,96 Prozent, Strom Biomasse/Wasserkraft 11,11 Prozent. Die Agora-Chartmatrix: Hier klicken.

Auch dieser Tag, der Mittwoch ist für die Konventionellen ein entspannter Tag. Es sei erwähnt, dass Bedarfs-Spitzen immer mit Pumpspeicherstrom abgedeckt werden. Deutschland exportiert. Von 8:00 bis 19:00 Uhr zu Preisen immer über 54€/MWh. Um 17:00 Uhr werden sogar 60€/MWh abgegriffen. Von diesen Nachbarn.

Donnerstag, 31.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 41,32 Prozent, davon Windstrom 25,26 Prozent, Sonnenstrom 3,31 Prozent, Strom Biomasse/Wasserkraft 12,40 Prozent. Die Agora-Chartmatrix: Hier klicken

Heute lässt die Windstromerzeugung nach. Die konventionelle Stromerzeugung gleicht aber gut aus. Es entstehen keine Deckungslücken. Die Preise sind meist auskömmlich. Für Deutschland. Diese Nachbarn zahlen.

Freitag, 1.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 24,51 Prozent, davon Windstrom 7,84 Prozent, Sonnenstrom 1,96 Prozent, Strom Biomasse/Wasserkraft 14,71 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am ersten Tag des neuen Jahres findet regenerative Stromerzeugung praktisch nicht statt. Zum Glück ist der Bedarf niedrig. So bleibt es bei einer auf Kante genähten konventionellen Stromerzeugung mit nur einer geringen Lücke zu Vorabend. Eine Lücke, die hochpreisig geschlossen werden muss.

Samstag, 2.1.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 24,07 Prozent, davon Windstrom 8,33 Prozent, Sonnenstrom 1,85 Prozent, Strom Biomasse/Wasserkraft 13,89 Prozent. Die Agora-ChartmatrixHier klicken.

Annähernd das gleiche Bild wie gestern. Die Konventionellen halten sich zurück. Sie kommen über die „Kante“ kaum hinaus. Deutschland importiert den fehlenden Strom. Die Importpreise sind entsprechend.

Sonntag, 3.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 47,62 Prozent, davon Windstrom 34,92Prozent, Sonnenstrom 0,79 Prozent, Strom Biomasse/Wasserkraft 11,90 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung zieht moderat an. Die konventionelle Stromerzeugung kann recht gut folgen. Am Mittag, am Vorabend erzielt Deutschland gute Preise für seinen Exportstrom. Von diesen Nachbarn. Glück gehabt, dass die Windstromerzeugung dann doch moderat ist. So wurde eine Katastrophe wie am Sonntag, den 27.12.2020 vermieden.

Nach zwei Jahren und über 100 Artikeln „Woher kommt der Strom?“ möchte ich auf folgende Sachverhalte hinweisen. Alle Daten der Energy-Charts wurden und werden per Hand in eine Excel-Vorlage eingetragen. Leider werden diese Daten auch weit im Nachhinein von den Energy-Charts verändert. Hinzu kam ein Paradigmenwechsel im Oktober 2020. Die Im- und Exportdaten der Energy-Charts werden seitdem komplett in GWh angegeben und nicht mehr mit nur zwei Nachkommastellen in TWh. Die viel größere Genauigkeit machte ein Nachtrag dieser Zahlen in meiner Tabelle notwendig. Dennoch sind die Tabellen der Energy-Charts, welche auf der Achse veröffentlicht wurden, nicht korrekt. Um dieses Manko auszugleichen, werden wir die komplette Exceltabelle mit allen Charts veröffentlichen. Allerdings erst dann, wenn mit Energy-Charts noch einiger weitere Ungereimtheiten abgeklärt wurden. Im Lauf des Jahres ist auch für die Kolumne eine automatisierte Datenerfassung geplant.

Wahrscheinlich noch im Januar wird die Webseite www.stromdaten.info online gestellt werden. Diese Seite greift auf Daten des Agorameter und smard.de zu. Es kann zwischen beiden Datengebern gewechselt werden. Etliche Analysen in Sachen Strom werden möglich. Darüber hinaus wird das Thema „Wasserstoffwirtschaft“ zentral sein. Ein Simulationstool ermöglicht einen physikalisch realistischen Blick auf verschiedene Ideen, aber auch auf konkrete (Forschungs-) Projekte. Vervollständigt wird die Seite durch einen Info- und einen Debattenteil. Lassen Sie sich überraschen.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.