1

Schilda pur: Die Stromtrasse Deutschland – Belgien – Deutschland

Dort steht ebenfalls ein Konverter.

1 GW Leistung kann also mittels Gleichspannung über die Trasse transportiert werden. Die Konverter dienen zur Umwandlung von Gleichstrom (Transport) in Wechselstrom (Netz) und umgekehrt. Damit werden die Übertragungsverluste vermindert.

https://www.aachener-zeitung.de/nrw-region/eine-verbindung-voller-energie_aid-54523643 Quelle

Quelle grün-kursives Zitat & kompletten Artikel lesen: Hier klicken

Der belgische Ministerpräsident

De Croo betonte, die Strombrücke verkörpere die Verbindung zwischen den von beiden Ländern getroffenen strategischen Entscheidungen, nämlich auf Kernenergie zu verzichten und dafür klimaneutrale Energiequellen zu nutzen.

„Strategisch“ bedeutet in diesem Zusammenhang: nicht sofort. Belgiens Energieministerin Tinne van der Straeten, die wie NRW-Ministerpräsident Armin Laschet (CDU) zum Festakt in Aachen angereist war, nannte Alegro dementsprechend einen wichtigen Schritt hin zur Umsetzung des Green Deal, in dessen Rahmen Europa bis 2050 der erste klimaneutrale Kontinent werden will. Auch Laschet denkt gezwungenermaßen in größeren Zeiträumen, wurde aber etwas konkreter: Die Strombrücke zwischen beiden Ländern ermögliche „langfristig die Stilllegung von Tihange und Doel“. Sie sei „ein Meilenstein für die grenzüberschreitende Stromversorgung“. […]

Jetzt ist die Trasse fertig. Sie kann die Menge Strom transportieren, welche mit der möglichen Erzeugung in Tihange II, also eines Kernkraftblocks identisch ist. Tihange II hat eine Nennleistung von ebenfalls einem GW. Theoretisch könnte der umstrittene Block II  in Belgien, welcher nach der qualifizierten Meinung von Prof. Allelein, Inhaber des Lehrstuhls für Reaktorsicherheit und -technik an der RWTH Aachen, sicher ist, sofort abgeschaltet werden.  Dann aber müsste Braunkohlestrom nach Belgien geliefert werden. Lässt man die Leitung, die übrigens sehr zügig gebaut wurde, also ungenutzt liegen? Bestimmt nicht. Schließlich will der Netzbetreiber seine Investition „in´ s Verdienen“ bringen.

Oberzier liegt allerdings nicht in einer Windparkgegend, sondern mitten im rheinischen Braunkohlegebiet. Dort wird trotz aller Ausstiegsbeschlüsse noch über Jahre Strom mittels Braunkohleverbrennung produziert werden (müssen).  Nach Belgien wird also Braunkohlestrom geliefert. Oder Belgien liefert Atomstrom nach Deutschland.

Das ist im Sinne der Energiewende plus Atomausstieg Schilda pur!

 




Saisonale Viren-Todesfälle in Deutschland in 2020 sind erheblich niedriger als in 2017 und 2018.

Datenbasis

Wie im vorhergehenden Beitrag wird die Zahl der pro Zeiteinheit Verstorbenen zugrunde gelegt als der mit Abstand ‘härteste‘ Endpunkt eines ‘Gesundheits-‘ bzw. Krankheitsindikators. Fehler sind hier nur noch bei der zeitlichen Einordnung des Todesfalls möglich – wenn man absichtliche Unterschlagung oder Erfindung von Todesfällen bei den Meldeämtern sowie bei der datentechnischen Weiterverarbeitung ausschließt. Die Zahl der möglichen Fehler bei der ärztlichen Zuordnung von Todesursachen geht demgegenüber in die Myriaden. Sie können beruhen auf ‘ehrlichem‘ Irrtum, unzureichender Sorgfalt bzw. auch Fähigkeit – persönlich bedingt oder mangels Ausrüstung und Kapazität – bis hin zu tendenziöser bis bewusst falscher Diagnose. Wie viele der gemeldeten Influenza Opfer hauptursächlich an Influenza und nicht nur mit Influenza verstorben sind, das wird und kann in der Regel nie mit vertretbarem Aufwand diagnostiziert werden. Gleiches wie bei Influenza gilt für „an“ bzw. „mit“ Covid-19 Verstorbene. Somit bleibt die Gesamtzahl der Sterbefälle allen anderen Zahlen haushoch an Qualität überlegen.

Sterblichkeit insgesamt, Deutschland 2016 bis 2020

Im vorhergehenden Beitrag (hier) wurden die von DeStatis veröffentlichten Sterbefälle (hier) mit logarithmischer Skalierung der Y-Achsen präsentiert, weil nur so die Aufteilung der Sterblichkeit auf die verschiedenen Altersklassen optisch überhaupt erst sichtbar gemacht werden kann. Dem einen oder anderen Leser sowie Kommentator war die Interpretation dieser Kurven möglicherweise nicht geläufig. Abbildung 1 präsentiert jetzt die wöchentlichen Todesfälle der Jahre 2016 bis 2020 (2020 bis erste Oktoberwoche), und zwar diesmal nur die Todesfälle insgesamt in linearer Skalierung der Y-Achse. Die gestrichelten Geraden sind grobe Schätzungen des Verlaufs, den man erwarten würde, wenn die Sterblichkeit nur dem kalenderjährlichen Trend ohne die typischen winterlichen (meist) Virus bedingten Todesfälle verliefen und wie er auch während des Anstiegs in der zweiten Jahreshälfte in Erscheinung tritt.

Abbildung 1: Pro Kalenderwoche gemeldete Todesfälle insgesamt in Deutschland der Jahre 2016 bis 2020 (bis KW 41 in 2020). Gestrichelte Linien schätzen den Verlauf der Sterblichkeitbei Abwesenheit einer ‘Grippe‘ Welle. (eigene Graphik)

Überschuss-Sterblichkeit

Die gelbe Linie in Abb. 2 zeigt einen solchen jahreszeitlich typischen Verlauf der Sterblichkeit in den U.S.A. für die Jahre 2017 bis 2020. Um eine signifikante Zahl für die Überschuss Sterblichkeit schätzen zu können, ist dem tatsächlichen Verlauf noch die statistische Schwankungsbreite zu addieren. Nur das, was diese statistische Schwankung übersteigt, kann statistisch gesichert als Überschuss Sterblichkeit interpretiert werden. In Abb. 2 wurden entsprechende Wochen mit Überschuss Sterblichkeit vom US Center of Disease Control mit roten „+“-Zeichen markiert. Im Januar 2017 und 2018 wurden diese zusätzlichen Todesopfer durch Influenza Epidemien verursacht. In 2020 sind sehr markant die (mutmaßlichen) Opfer der Corona-CoV-2 Epidemie in den U.S.A. zu erkennen. Die Ende 2017/Anfang 2018 erkennbare Überschuss-Sterblichkeit war auch in Deutschland mit einem erheblichen Anstieg der Sterblichkeit zu registrieren.

Abbildung 2: Wöchentliche Gesamtsterblichkeit in den U.S.A der Jahre 2017 bis 2020. Die gelbe Linie stellt die Basis dar für die Schätzung der Exzeß Sterblichkeit in den mit roten „+“-Zeichen markierten Epidemien. Der markante Überschuß in 2020 wird der Covid-19 Epidemie zugeordnet. (Graphik modifiziert aus dieser Quelle [8. 11. 2020])

Überschuß Sterblichkeit Deutschland

Der in Abb. 2 realistische, gekrümmte Verlauf der gelben Linie wurde in Abb. 1 wie auch in Abb. 3 durch gerade Verbindungslinien zwischen den Fußpunkten der Peaks vergröbernd approximiert. Durch diesen geraden Verkauf sowie durch die Vernachlässigung der Schwankungsbreite werden die daraus ermittelten Überschuß Todesfälle überschätzt. Neben den Winter/Frühjahrs Toten unterbrachen in Deutschland im Hochsommer 2017, 2019 und 2020 weitere Sterblichkeitsgipfel den ansonsten mit der Erwärmung abnehmenden Trend der Sterblichkeit wie er in Abb. 2 erscheint. Diese Sterblichkeitsgipfel wurden mutmaßlich durch extreme Hitzeperioden mitverursacht.

Abbildung 3: Überschuss-Sterblichkeit in der jeweiligen ‘Grippe-Saison‘ der Jahre 2016 bis 2020. Für das Jahr 2018 demonstriert die logarithmische Darstellung die für Grippe Wellen typische Altersabhängigkeit der Sterblichkeit. Die Unsicherheit der grob geschätzten Zahlen in den Feldern unten links könnte bei einigen Hundert liegen. (eigene Graphik)

Die in den Feldern der Abb. 3 unten links gezeigten Zahlen geben die Summe der dort mit senkrechten gestrichelten Linien gezeigten Differenzen zwischen den Zahlen der gemeldeten Toten und den gemäß der gestrichelten Geraden zu erwartenden Zahlen der Toten bei ‘normalem‘, ungestörtem Verlauf der Sterblichkeit wieder. Mit anderen Worten, es ist eine Schätzung der durch diese ‘Grippe-‘ Wellen verursachten Überschuß Sterblichkeit. Die ‘Welle‘ Anfang 2017 begannt schon im Dezember 2016, weswegen die gestrichelte Linie nicht den Beginn trifft.

Die 15.361 für das Frühjahr 2020 geschätzten überschießenden Toten übersteigt noch deutlich die am 12.11.2020 in der Presse (z.B. hier) für das ganze Jahr 2020 bisher vermeldeten 11.618 Corona Todesfälle. Von einem Anstieg der Todesfälle ist im übrigen in den DeStatis Daten Anfang Oktober immer noch nichts zu erkennen. Im Gegenteil, die am 06.11. zuletzt veröffentlichten Zahlen zeigen für KW41 zunächst einen weiteren Abfall von 17.241 auf 16.925 Todesfälle insgesamt pro Woche. Die Altersabhängigkeit der Sterblichkeit, die ja charakteristisch für Viren Epidemien ist, wird für 2018 zusätzlich für die Altersklassen ab 50 bis über 95 Jahre gezeigt (Abb. 3, unten Mitte, wieder mit logarithmischer Y-Achse). Sie zeigt den für Viren Epidemien typischen Anstieg der Sterblichkeit mit dem Lebensalter während der ‘Grippe Welle‘. Unter 50 Jahren ist ein solcher Trend nicht erkennbar, weswegen er ausgeblendet wurde.

Rangordnung der Überschuss-Sterblichkeit der Jahre 2016 bis 2020

Abbildung 4: Überschuss-Sterblichkeit der während der winterlichen ‘Grippe‘ Wellen der letzten 5 Jahre verstorbenen Virenopfer. (eigene Graphik)

Ungeachtet der erheblichen Fehlerbreite dieser Schätzung lässt sich eine klare Rangfolge der Jahre anhand Zahl der Todesopfer aufstellen, die in den vergangenen fünf winterlichen ‘Grippe-Wellen‘ einem Virus zum Opfer fielen. Vor 2020 waren das keine SARS-CoV-2 Viren! Daß ausgerechnet in 2020 Influenza Viren völlig unbeteiligt gewesen sein sollen, das ist im übrigen sehr fraglich. Insofern sind unter den 15.361 Toten in Frühjahr 2020 sicher einige (wenige) Tausend der üblichen Influenza Opfer zu vermuten. Die Zahl dieser bisherigen Todesopfer des Jahres 2020 entspricht – gemessen an den Jahren 2019, 2018 und 2017 – nicht nur die Anzahl eines absolut (stink-) normalen oder durchschnittlichen Jahres. Die Zahl der Nicht-Covid-19 Toten der anderen drei Jahre übertraf sie deutlich um Faktoren, um bis zu beinahe einem Faktor 3.

Fragen ohne Antworten

Angesichts dieser Zahlen drängen sich einige Fragen auf: Warum haben in den Vorjahren die verantwortlichen, vorgeblichen Lebensschützer keinen Lockdown zur Vermeidung dieser insgesamt über 100.000 Todesopfer verordnet? Ein Lockdown hätte – ihrer eigenen gegenwärtigen Logik zufolge – in 2017, 2018 und 2019 weitaus mehr Menschen das Leben retten können, als bisher in 2020 an (oder auch nur mit) Corona verstorben sind. Wer zieht die Verantwortlichen für diese Vernachlässigung ihrer Sorgfalts- und Schutzpflicht für das Leben ihrer Untertanen in diesen vorhergehenden ‘Katastrophen-‘Jahren zur Verantwortung? Was motiviert 2020 bei bisher weitaus weniger Viren-Opfern die Verantwortlichen zu ‘Schutzmaßahmen‘, deren negative Nebenwirkung die Schutzwirkung sehr wahrscheinlich deutlich übertreffen wird?

Was führte zum Ausfall der Kontrollfunktion der für das Handeln oder Unterlassen der Regierungen verantwortlichen Parlamentariern? Der gleichen Parlamentarier, die die aktuellen Maßnahmen zur Strangulierung des öffentlichen und wirtschaftlichen Lebens mit ihren noch gar nicht absehbaren Spätfolgeschäden frag- und kritiklos so abnickten, wie sie ihnen von den Regierungen als alternativlos vorgesetzt wurden – inzwischen gewohnheitsmäßig wie in den letzten Jahren eingeübt. In der gleichen kritiklosen Manier, in der sie die alternativlosen Rettungsmaßnahmen des Klimas, des Euros (der Großbanken), Europas … abgenickt hatten. Was bewegt die Volksvertreter, dem an die Notverordnung unseligen Angedenkens erinnernden Abbau des Rechtsstaates und der Grundrechte zuzustimmen? Es scheint Zeitverschwendung zu sein, danach zu fragen.

Vollends Zeitverschwendung wäre es, nach der Kontrollfunktion der vierten Gewalt, der Verlautbarungsmedien zu fragen. Folglich wird auch kein Wähler danach fragen, so daß das ungehemmt weiter gehen wird – bis zum unvermeidlichen bitteren katastrophalen Ende. Mit Sicherheit wird es keine Klima-Katastrophe sein.




Die Qual der Wahl

Diese Privilegien müssen umso weitreichender sein, je größer die Gemeinschaft ist, die es zu organisieren gilt; das ist insbesondere so, wenn es um ein ganzes Land geht. Da besteht dann das Risiko, dass die Erwählten ihre Privilegien weniger zum Wohl der Gemeinschaft einsetzen, als zum persönlichen Vorteil.

Um das zu vermeiden müssen die Eliten so ausgewählt werden, dass sie den hohen moralischen und professionellen Anforderungen ihrer Rolle gerecht werden. Mein Eindruck ist nun, dass dies heutzutage immer weniger gelingt. Es kommt mir vor, als wären unsere Eliten weder in sachlicher noch in ethischer Hinsicht ihren Aufgaben gewachsen.

Vielleicht sagen Sie jetzt, meine Forderung sei utopisch und weltfremd; wo Menschen sind, da menschelt es eben. Zugegeben, wir sind noch nicht so weit wie im alten Rom, als Kaiser Caligula sein Pferd zum Konsul machte, aber zwischen Utopia und einem Irrenhaus gibt es doch einen gewissen Spielraum, und der aktuelle Trend geht zu Letzterem.

Selbstverwirklichung

Wenn ein Chirurg oder ein Flugkapitän seiner Aufgabe nicht gewachsen ist, dann akzeptieren wir das nicht, denn seine Untauglichkeit könnte fatale Konsequenzen für uns haben.

Als Bürger sind wir den Politikern in gleichem Masse ausgeliefert. Fakt ist nun leider, dass es hier keinerlei Garantie für deren Qualität gibt; dass die fachliche Untauglichkeit unserer Minister und Ministerinnen immer ungenierter zur Schau gestellt wird; dass man ihnen Milliarden an Steuergeldern zur Verfügung stellt, die dann großzügig für die persönliche Selbstverwirklichung in Form von Lufttaxis oder Genderstudien ausgegeben werden.

Noch schlimmer aber wird es, wenn die politische Macht dem Ausleben von nicht verheilten Ressentiments aus der jugendlichen Entwicklung dient. Wenn etwa höchste deutsche Beamte ihren pubertären Groll gegen die USA dann als Repräsentanten des deutschen Volkes abreagieren. Oder wenn frustrierte Politikerinnen ihre Feindseligkeit gegen Männer zur Staatsraison machen. Oder wenn Neid auf erfolgreiche Unternehmer dazu führt, dass der Industrie immer mehr Steine in den Weg gelegt werden.

Des Pudels Kern

Wie ist solch eine Fehlentwicklung in einer Demokratie denn möglich? Das kann doch von der Allgemeinheit nicht so gewollt sein!

Und voila: hier stoßen wir auf des Pudels Kern: Nicht die Regierungen handeln gemäß unserer Wünsche und Bedürfnisse, sondern sie reden uns ein, welche Wünsche wir haben müssen. Wie soll das gehen? Über die von Steuern und Abgaben finanzierten Medien, welche uns ein Bild der Welt präsentieren, das auf die Absichten der Mächtigen maßgeschneidert ist. Und dieses Bild wird uns so oft gezeigt, bis in der Vorstellung für ein anderes Bild kein Platz mehr ist.

So kommt es dann, dass wir den Klimawandel, den Rassismus und das CO2 allen Ernstes für unsere zentralen Probleme halten, während Erfahrungen, die wir  am eigenen Leibe machen, nicht mehr wahrgenommen werden: extreme Steuern und Abgaben, Verfall des Bildungssystems, Anstieg der Gewaltkriminalität, Verlust an innerer Sicherheit, Verlust an Meinungsvielfalt, Zensur alternativer Medien, Verlust der technisch-industriellen Kompetenz, Angst und Misstrauen in der Bevölkerung: „man kann heute nicht mehr alles sagen“.

Dieser Verfall ist weitestgehend hausgemacht; er hat kaum externe oder globale Ursachen, er ist nicht Folge von „höherer Gewalt“, er ist das – gewollte oder gebilligte – Resultat jahrelanger verfehlter Politik.

Wie kann es sein, dass angesichts dieser desolaten Bilanz die Kanzlerin so hohe Beliebtheit bei den Bürgern genießt?

Zweimal dasselbe Kleid

Vor einiger Zeit fragte ich eine Bekannte, warum sie Angela Merkel so gut fände. „Weil sie zwei Jahre hintereinander dasselbe Kleid bei den Bayreuther Festspiele anhatte; das ist doch sympathisch“. Ich erklärte besagter Bekannten, immerhin eine Ärztin, dass das vielleicht nicht das richtige Kriterium für die Beurteilung der Regierungschefin sei. Man würde doch den Chirurgen für seine Knieoperation auch nicht danach aussuchen, was er für ein Auto  fährt.

Und hier liegt das Dilemma: Wir sind mit zwei unabhängigen, manchmal sich widersprechenden Navigationssystemen ausgestattet: Vernunft und Gefühl. Je nach Situation ist das eine nützlicher als das andere. Und es kann sehr teuer werden, wenn wir dem falschen Kompass folgen. Das ist dann die „Anna Karenina Falle“.

Die wunderhübsche Anna war eine Frau nach dem Geschmack der Männer. Sie hatte die Wahl, wem sie einmal ihre Hand fürs Leben reichen würde. Nach gründlicher Überlegung traf es dann Graf Karenin, der ihr ein Dasein in Luxus und Sicherheit bieten würde.

Sie hatte ihre Schönheit zu angemessenem Preis verkauft, doch sie war unglücklich, denn sie liebte den Gatten nicht. Schließlich begann sie eine amouröse Beziehung zu dem jungen Alexej Bronski. Ihr Ehemann erfuhr von der Liaison und bereitete ihr die Hölle auf Erden, bis sie schließlich ihrem Leben ein Ende setzte. Was hatte sie falsch gemacht?

Sie hatte eine Todsünde begangen, die das Leben nicht verzeiht: In einer Situation, wo das Gefühl hätte entscheiden müssen, da hatte sie ihrem berechnenden Verstand nachgegeben und den Grafen geheiratet. Und in einer Situation, wo der Verstand sie dringend warnte, da hörte sie auf ihr Herz und ließ sich mit Bronski ein.

Unermessliches menschliches Leid entsteht, weil Fragen, die nur das Herz beantworten kann, vom Verstand entschieden werden; und umgekehrt, dass dann, wenn der Verstand die Lösung hätte, die Gefühle dominieren. Politische Ansichten wachsen bei vielen Menschen auf der Gefühlsebene, und das ist nicht gut so.

Das Herz folgt nicht der Logik

Entscheidungen des Herzens werden noch gefährlicher, wenn sich Gruppen bilden, in der alle das Gleiche empfinden. In solchen Massen wird der Verstand total ausgeschaltet und man genießt das „Wir-Gefühl“. Die Menschen werden für die primitivsten Lügen empfänglich. Sie erliegen der Magie der Vereinfachung, welche jeglichen logischen Widerspruch platt macht.  Im Extremfall sind sie dann bereit, ihrem Anführer ins eigene Unheil zu folgen.

An Beispielen dafür mangelt es in der deutschen Geschichte nicht. Und auch wenn wir daraus vielleicht gelernt haben, die menschliche Psyche ist dieselbe geblieben.

So feiern die Deutschen heute die wunderbare Einigkeit darüber, dass Donald Trump ein Gangster ist, oder ein Idiot, oder beides. 90% sind dieser Ansicht, obwohl nur wenige genug Englisch können, um seine Reden zu verstehen. Von ihrem Urteil lassen sich die 90% auch nicht abbringen, wenn sie hören, dass die Hälfte der Amerikaner ihn gewählt haben. Nein, Logik wäre hier fehl am Platz. Dann sind die Amis eben auch alle Idioten.

Aber Vorsicht, was auch immer wir von den Amis halten, eines haben die uns in Sachen Demokratie voraus: Ihre Regenten sind maximal acht Jahre an der Macht*; schlimmstenfalls gibt es dann ein Ende mit Schrecken. Wir aber haben die Option auf einen Schrecken ohne Ende.

Unsere Kanzlerin genießt heute das Vertrauen von 81% der Bevölkerung, trotz der oben erwähnten Unannehmlichkeiten, die wir ihr zu verdanken haben. Dieses Votum kann kaum das logische Resultat kritischer Beobachtung sein. Es kommt aus dem unbestimmten Gefühl, dass „Sie eine kluge Frau ist, die ihre Sache doch gut macht“.

Die Klugheit des Fuchses wird oft überschätzt, weil man ihm auch noch die Dummheit der Hühner als Verdienst anrechnet (Hans Kasper). Wenn es ein Gebiet gibt, wo da Herz schweigen muss, dann ist es die Politik, denn das Herz hört lieber eine sanfte Stimme die lügt, als eine kalte, welche die Wahrheit sagt.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ und anderes ist bei Amazon erhältlich.

*Ein schönes Zitat von Samuel Clemens alias Mark Twain:

Politiker und Windeln sollte man möglichst häufig wechseln. Aus demselben Grund.

 




Junge – Mädchen

Zusätzlich zu meiner zugrunde liegenden Ketzerei betrachte ich die verschiedenen Klimaphänomene in einer Art und Weise, die manche Leute für rückständig oder unangemessen halten. Ich interessiere mich nicht so sehr dafür, wie diese Phänomene zusammenspielen. Stattdessen interessiert mich viel mehr, was sie tun, wenn sie eben das tun. Mir wurde gesagt, dass dies eine „funktionale“ Analyse einer Lage genannt wird, was sinnvoll ist – ich will die Auswirkungen eines Phänomens sehen.

Wenn ich einen funktionalen Analysestil anwende, kann ich beispielsweise feststellen, dass Gewitter nach genau demselben Prinzip funktionieren wie Ihr Haushaltskühlschrank. Und es führt auch zu meiner ketzerischen Sicht auf ein anderes aufkommendes, die Temperatur beeinflussendes Phänomen, das gemeinhin als „El Nino“ bezeichnet wird.

Schauen wir uns in aller Ruhe die Wechselwirkungen von El Nino/La Nina an und betrachten die auftauchenden Phänomene.

Lassen Sie mich zunächst die Erscheinung und die Klasse der Phänomene, die als „emergent“ bezeichnet werden, erörtern. Hier sind die bestimmenden Merkmale der verschiedenen Phänomene.

Auftauchende Phänomene erscheinen, oft sehr schnell, aus einem, wie man es nennen könnte, „eigenschaftslosen Hintergrund“ heraus. Zum Beispiel dämmert ein Tag in den tropischen Ozeanen typischerweise mit klarem Himmel an. Das bleibt so bis zum späten Vormittag, wenn sich plötzlich und ohne Vorwarnung aus dem nichtssagenden blauen Himmelshintergrund bauschige weiße Kumuluswolken bilden und den halben Himmel bedecken. Diese Kumuluswolken sind ein emergentes Phänomen.

Im Allgemeinen sind emergente Phänomene nicht das, was man als offensichtlich vorhersehbar bezeichnen könnte, bevor sie entstehen. Nehmen wir zum Beispiel an, man hätte sein ganzes Leben unter tropisch klarem, blauem Morgenhimmel gelebt, ohne jemals Wolken gesehen zu haben oder etwas über Wolken zu wissen. Auf keinen Fall würde man aufblicken und sagen: „Wissen Sie was? Ich glaube, ein ganzer Haufen riesiger weißer, bauchiger Massen könnte plötzlich weit oben am Himmel erscheinen!“ Die Leute würden einen als verrückt bezeichnen.

● Zweitens sind auftauchende Phänomene im Allgemeinen nicht von Dauer. Beispielsweise lösen sich die tropischen Kumuluswolken typischerweise vor Sonnenaufgang auf. Emergente Phänomene haben in der Regel eine Emergenzzeit, eine Lebensdauer und eine Dissipationszeit.

● Emergente Phänomene sind oft, aber bei weitem nicht immer, mit einem Phasenwechsel verbunden. Zum Beispiel sind die oben erwähnten Wolken mit Kondensation verbunden, d.h. einem Phasenübergang von Wasserdampf in der Luft zu winzigen Flüssigkeitströpfchen in den Wolken.

● Auftauchende Phänomene sind oft mobil und wandern durch die Landschaft. Ein hervorragendes Beispiel für diese Art emergenter Phänomene sind die bekannten „Staubteufel“, die sich häufig über trocken-heiße Landschaften bilden.

● Emergente Phänomene betreffen Strömungssysteme, die weit entfernt vom Gleichgewicht sind.

● Emergente Phänomene entstehen, wie der Name schon sagt, spontan unter bestimmten Bedingungen.

Die Bedingungen für diese Entstehung sind oft von Schwellenwerten abhängig. Sobald die Schwelle überschritten ist, können schnell viele Einzelbeispiele des Phänomens auftreten. Dies gilt zum Beispiel für die oben diskutierten tropischen Kumuluswolken. Wenn der Morgen warm genug und eine lokale Temperaturschwelle überschritten wird, bildet sich schnell aus dem Nichts ein Himmel voller Kumuluswolken.

Auftauchende Phänomene sind im Allgemeinen nicht zyklisch. Sie wiederholen sich nicht und bewegen sich auch nicht in vorhersehbarer Weise. Aus diesem Grund haben die Vorhersagen z. B. von tropischen Wirbelstürmen hinsichtlich ihrer Zugbahn immer eine Bandbreite.

Von den kleinsten bis zu den größten, die auftauchenden Phänomene, die meiner Meinung nach zusammenwirken, um die globale Temperatur zu regulieren, umfassen:

● Staubteufel

● Rayleigh-Benard Zirkulation der Atmosphäre und des Ozeans

● Tägliche Cumulus-Wolkenfelder

● Tropische (konvektive) Gewitter

● Sturmlinien und andere Gewitteransammlungen

● Tropische Wirbelstürme

● Der El Nino/La Nina-Umbau, diskutiert in diesem Beitrag

● Ozeanweite Schwingungen wie die Pacific Decadal Oscillation (PDO), Atlantic Multidecal Oscillation (AMO) und ähnliches.

All dies sind die Temperatur regelnde Phänomene. Wenn die lokale Temperatur ein bestimmtes Niveau überschreitet, treten sie auf und kühlen die Oberfläche auf verschiedenste Weise ab.

Mit dieser Diskussion über auftauchende Phänomene als Prolog wollen wir uns ansehen, was im Pazifik geschieht. Hier ist ein Film über die monatlichen Meeresoberflächentemperaturen (SSTs). Man achte besonders auf die Zunge kühleren Wassers, die sich in unterschiedlicher Entfernung von Südamerika entlang des Äquators erstreckt.

Abbildung 1. Monat für Monat Temperaturschwankungen, Reynolds optimal interpolierter Meeresoberflächentemperatur-Datensatz. Das blaue Kästchen zeigt den Bereich „NINO34“, von 5°N bis 5°S und von 170°W bis 120°W

[Hinweis: Das ist eine Animation. Falls diese hier nicht dargestellt wird, bitte im Original schauen. Anm. d. Übers.]

Wo in all dieser endlosen Bewegung sind also die El Nino und die La Nina? Hier ist eine Zeichnung der NOAA, die die normalen Bedingungen im Pazifik zeigt:

Abbildung 2: Die Karte (obere Fläche) zeigt den Pazifischen Ozean von Amerika (braune Fläche, rechter Rand) bis Australien (braune Fläche, linker Rand). Die Grafik zeigt die Meeresoberflächentemperatur (Farben von blau bis rot für kalt bis heiß), die atmosphärische Zirkulation (schwarze Pfeile), die Meeresströmung (weiße Pfeile) und die „Sprungschicht“ (blaues Untergrundblatt). Die Sprungschicht ist der Boden der gemischten Schicht – oberhalb der Sprungschicht vermischt sich der Ozean regelmäßig, und unterhalb der Sprungschicht findet nur eine geringe Vermischung statt. Infolgedessen ist das Wasser oberhalb der Sprungschicht wärmer, oft viel wärmer, als das Wasser unterhalb der Sprungschicht.

Zuweilen staut sich die Wärme jedoch im östlichen Pazifik in der Nähe von Amerika. In diesem Fall ändert sich sowohl die atmosphärische als auch die ozeanische Zirkulation, wie in Abbildung 3 dargestellt. Die Sprungschicht vertieft sich mit wärmerem Wasser nahe der Küste Amerikas:

Abbildung 3: El Niño-Bedingungen. Die Oberfläche in der Nähe von Amerika ist wärmer. Die Sprungschicht vor der Küste Amerikas ist tiefer.

Um von der Theorie zur Messung überzugehen, folgt hier ist die Meeresoberflächentemperatur (Abbildung 4) sowie die Anomalie derselben (jahreszeitliche Schwankungen heraus gerechnet, Abbildung 5) während eines El Niño:

Abbildung 4: Meeresoberflächentemperatur während des Höhepunktes (November) des großen El Nino von 1997-1998. Man beachte die hohe Wassertemperatur in dem blauen Rechteck, welches das NINO34-Gebiet umreißt. Die Temperatur in diesem Gebiet ist eine Diagnose des Zustands der Veränderung von El Nino/La Nina.

Abbildung 5: Anomalie der Meeresoberflächentemperatur (jahreszeitliche Schwankungen beseitigt) während des Höhepunktes (November) des großen El Nino von 1997-1998. Dies zeigt den großen Hitzestau entlang des Äquators im östlichen Pazifik in der Nähe des amerikanischen Kontinents.

Nachdem ein El Nino-Zustand seinen Höhepunkt erreicht hat, beginnt starker Passatwind in Richtung Asien zu wehen. Dieser bläst das warme Oberflächenwasser in Richtung Asien bis zu dem Punkt, an dem die Sprungschicht vor der Küste Amerikas ganz an die Oberfläche kommt. Wenn das warme Wasser auf die Küste Asiens trifft, spaltet es sich in zwei Hälften. Ein Teil geht in Richtung Arktis und der andere Teil geht in Richtung Antarktis. Hier ist die NOAA-Grafik, die die La Nina-Bedingungen zeigt:

Abbildung 6: Schematische Darstellung der La Nina-Bedingungen

Und wie oben gezeigt, ist unten ein tatsächlicher La Nina-Zustand dargestellt. Dies ist der La Nina-Höhepunkt desselben Nino/Nina-Zyklus in Abbildung 5, der 12 Monate zuvor, im November 1997, begonnen hatte.

Abbildung 7: Optimal interpolierte Wassertemperatur nach Reynolds im November 1988.

Und hier die Temperatur-Anomalie jener Zeit:

Abbildung 8: Abbildung 8. SST-Anomalie (saisonale Schwankungen entfernt) während eines La Nina-Höchepunktes.

Man beachte in Abbildung 8 oben, wie die Passatwinde die kühleren unterirdischen Gewässer über den gesamten äquatorialen Pazifik hinweg freigelegt haben. Sie wurden freigelegt, weil das warme Wasser nach Westen gedrückt wurde. Man erkennt, wie das warme Wasser, wenn es auf Asien/Australien trifft, meist in zwei Teile gespalten wird und sich in Richtung der Pole bewegt.

Nun sagte ich oben, dass ich eine Funktionsanalyse mache. Ich schaue nicht auf die Ursachen von El Ninos oder La Ninas. Ich versuche nicht, die Prozesse zu verstehen. Stattdessen schaue ich darauf, was sie bewirken.

Dabei sehe ich, dass es falsch ist, von El Nino und La Nina als getrennte Phänomene zu sprechen. Sie funktionieren zusammen als die größte Pumpe der Welt. Sie pumpen Billionen von Tonnen warmen äquatorialen Pazifikwassers polwärts. Es wird so viel Wasser gepumpt, dass die Höhe der äquatorialen Pazifikoberfläche sinkt, und der Effekt ist an den lokalen Pegeln sichtbar.

Abbildung 9: Die Nino/Nina-Unterschiede, wie sie durch die TAU/TRITON vertäuten Bojen entlang des Äquators gezeigt werden. Sie blicken nach Westen, über den Äquator im Pazifik, von einem Aussichtspunkt irgendwo in den Anden in Südamerika. Die farbigen Flächen zeigen die Meerestemperaturen von TAO/TRITON. Die obere Fläche ist die Meeresoberfläche, von 8°N bis 8°S und von 137°E bis 95°W. Die Form der Meeresoberfläche wird durch TAO/TRITON Dynamic Height-Daten bestimmt. Die breite vertikale Oberfläche liegt bei 8°S und erstreckt sich bis in 500 Meter Tiefe. Die schmalere vertikale Oberfläche befindet sich bei 95°W. Alle diese Daten stammen von der TAO/TRITON-Anordnung vertäuter Ozeanbojen im äquatorialen Pazifik.

Also … was passiert, wenn warmes Ozeanwasser zu den Polen transportiert wird? Es geht mehr Wärme an den Weltraum verloren. Abbildung 10 zeigt, wie viel aufsteigende Oberflächenstrahlung in den Weltraum gelangt, aufgeschlüsselt nach Breitengraden:

Abbildung 10: Abbildung 10. Menge der aufsteigenden Oberflächenstrahlung, die es in den Weltraum schafft, in einem Breitenband von 1°. Dies sind Monatsdurchschnitte über den gesamten Aufzeichnungszeitraum.

In Abbildung 10 oben liegt der tiefste Punkt bei etwa 7°N die Lage der ITCZ, der intertropischen Konvergenzzone. Wenn man beginnt, sich auf einen der beiden Pole zuzubewegen, gibt es eine sofortige und kontinuierliche Zunahme des Prozentsatzes der Wärmestrahlung an der Oberfläche, die in den Weltraum entweicht.

Angesichts der funktionalen Natur meiner Analyse nehme ich nun eine andere Identifizierung von „El Nino“ und „La Nina“ vor als die, die normalerweise angegeben wird.

Es gibt mehrere Indizes, die zur Bewertung der El Nino/La Nina-Bedingungen verwendet werden. Ein Beispiel für einen Index ist, dass „El Nino-Bedingungen“ Zeiten sind, in denen die Anomalie der Meeresoberflächentemperatur (SST) in der NINO34-Region (blauer Kasten) mehr als eine bestimmte Temperatur (oft um 1°C) wärmer ist als normal. Und „La Nina-Bedingungen“ sind Zeiten, in denen sie in der NINO34-Region (blue box) mehr als ein Grad kühler als normal sind. (Es gibt noch andere Identifikationen, aber sie alle identifizieren die Nino- und Nina-Bedingungen getrennt, und sie alle legen eine Temperaturschwelle für die Nino- und Nina-Bedingungen fest. Ich tue keines von beiden).

Ich betrachte sie nicht separat und habe auch keine festgelegten Temperaturen. Das liegt daran, dass ich sie nicht als separate Phänomene betrachte.

Im Gegensatz zu den Standarddefinitionen identifiziere ich das Nino/Nina-Phänomen als zusammenarbeitende Pumpe. Bei dieser Pumpe ist die El Nino die Spitze des Ansaughubs, und die La Nina ist die Spitze des Ausstoßhubs. Wir können diese Aktivität in einem Diagramm der Temperatur in der NINO34-Region sehen (blaues Rechteck in den obigen Diagrammen).

Abbildung 11. Meeresoberflächentemperatur im NINO34-Gebiet. Blaue Abschnitte zeigen die Zeiten, zu denen der Pumpvorgang stattfindet. Rote Punkte zeigen die Spitzenwerte der El Nino-Bedingungen und blaue Punkte die Spitzenwerte der La Nina-Bedingungen. Gepunktete vertikale weiße Linien zeigen den November eines jeden Jahres.

Ich habe die Zeiten des Pumpvorgangs blau hervorgehoben. Was mir zuerst an ihnen auffiel, ist das, was die Peruaner an ihnen bemerkt haben. Das ist, dass sie alle innerhalb eines Monats oder so im November beginnen und daher oft in der Nähe von Weihnachten stark sind … daher der Name „El Nino“ für den Baby Boy.

Mir ist noch eine andere Merkwürdigkeit aufgefallen. In allen hervorgehobenen Fällen beträgt die Dauer des Pumpvorgangs vom roten Punkt oben (Spitze „El Nino“) bis zum blauen Punkt unten (Spitze „La Nina“) ein Jahr plus oder minus einen Monat oder so. Auf diese Weise können wir die Pumpaktion von Nino/Nina von den normalen Temperaturschwankungen unterscheiden, die überall in der Natur vorkommen.

Die regelmäßige Länge des Entladungszyklus‘ von etwa 12 Monaten zeigt auch, dass die beiden (El Nino und La Nina) nicht als unabhängige Einheiten existieren. Stattdessen sind sie in einem einzigen größeren, einjährigen Phänomen eng miteinander verbunden.

Erinnern Sie sich nun daran, dass die Frage in der Funktionsanalyse lautet: Was bewirkt dieses einzelne größere kombinierte Nino/Nina-Phänomen?

Ich sage, dass die El Nino/La Nina-Pumpe ein emergentes Phänomen mit einer Lebensdauer von 12 Monaten ist. Es tritt auf, wenn im östlichen äquatorialen Pazifik genügend Wärme aufgebaut wird. Sie kühlt den äquatorialen Pazifik, und damit den gesamten Planeten, um

1) das warme äquatoriale Oberflächenwasser polwärts zu exportieren, wo die Wärme schneller in den Weltraum verloren geht, und durch

2) die kühlere Schicht unter der Ozeanoberfläche freizulegen, welche die Atmosphäre kühlt.

Die Funktion der El Nino/La Nina-Alteration besteht also darin, die Erde durch einen periodischen Pumpzyklus zu kühlen.

Wie viele andere sich abzeichnende Klimaphänomene ist es das, was ich als „Selbstverriegelung“ bezeichne. Damit meine ich, dass die Nino/Nina-Pumpe, sobald sie anspringt, Bedingungen schafft, unter denen sie sich selbst verstärkt und somit dazu neigt, sich zu halten.

Und so funktioniert das: Die Stärke der Passatwinde im äquatorialen Pazifik wird durch den Ost-West-Temperaturunterschied bestimmt. Jetzt, wo der Pumpvorgang im Gange ist, wird der Osten kühler, und das warme Wasser staut sich im Westen. Dadurch erhöht sich die Ost-West-Temperaturdifferenz, was wiederum die Ost->West-Windstärke erhöht, was wiederum die Temperaturdifferenz erhöht, was …

Dadurch wird es selbsthemmend, und dieses positive Feedback ist für die lange Dauer des Phänomens verantwortlich, sobald es einmal ausgelöst wurde. Sobald das Nino/Nina-Phänomen einsetzt, erzeugt es seinen eigenen Wind. Dadurch kann es weiterlaufen, bis das kalte Wasser entlang des gesamten Äquators offen ist, wie in Abbildung 8 oben erkennen.

Prognosen und Schlussfolgerungen

Nun, jede Theorie wie meine ist nur so gut wie ihre Vorhersagen. Wie kann ich also feststellen, ob die Nino/Nina tatsächlich ein aufkommendes Phänomen ist, das den Pazifik abkühlt, wenn sich überschüssige Wärme aufbaut?

Nun … wir könnten mit der Beobachtung beginnen, dass der Auslöser für den Pumpvorgang der Hitzestau im östlichen Pazifik ist. Die Form des Phänomens ist also offensichtlich temperaturbegrenzend (abkühlend) und thermisch schwellenwertbasiert (passiert eher, wenn es wärmer ist).

Was ich bis zu dieser Analyse nie herausgefunden hatte, war, wie man feststellen kann, ob das Nino/Nina-Pumpen-Phänomen insgesamt in wärmeren Zeiten häufiger oder stärker oder beides war als in kühleren Zeiten. Das Problem ist, dass wir bereits wissen, dass es durch überschüssige Wärme ausgelöst wird … aber nimmt es zu, wenn die überschüssige Wärme zunimmt? Und wie würde man diese Zunahme messen?

Ich habe erkannt habe, dass, wenn der Pumpvorgang in wärmeren Zeiten zunimmt, wie der aktuelle Reynolds SST-Rekord nach 1981, der eine allmähliche leichte Erwärmung der gesamten Ozeanoberfläche nachweist, wir unterschiedliche Erwärmungstrends im Pazifik sehen sollten.

Und wie das Muster von größeren und kleineren Trends aussehen sollte, ist das, wie es nach einem vollständigen Pumpzyklus aussieht – die Gebiete auf dem Weg zum Pol sollten wärmere Trends aufweisen, und der östliche Pazifik sollte kühler sein. Wenn die Anzahl der Nino/Nina-Zyklen zunimmt, wird sich die Energieübertragung im Trend zeigen. Der Trend sollte in dem Gebiet entlang des Äquators, wo die Pumpe kühleres Wasser freilegt, kleiner sein, und der Trend sollte dort größer sein, wo die Pumpe das warme Wasser bewegt, also westwärts und in Richtung der Pole.

So hat sich das am Ende des großen Nino/Nina-Zyklus 1997-1998 abgespielt. Zum Vergleich hier noch einmal Abbildung 8:

Und hier sind die Trends an der Meeresoberfläche während eines Zeitraums von 36 Jahren, als es, wie die Abbildung unten zeigt, eine leichte Erwärmung des SST gab (0,10°C pro Jahrzehnt):

Abbildung 12: Dekadische Trends der Meeresoberflächentemperatur.

Meine Schlussfolgerung aus der ausgeprägten Ähnlichkeit der beiden letzten Diagramme lautet, dass die Vorhersage meiner Theorie richtig ist – die Nino/Nina-Pumpe ist in der Tat ein die Temperatur regulierendes emergentes Phänomen, das einem Anstieg der Gesamttemperatur im tropischen Pazifik entgegensteht.

Link: https://wattsupwiththat.com/2020/11/08/boy-child-girl-child/

Übersetzt von Chris Frey EIKE




Zuverlässiger Strom? Ach was, Humbug!

Jetzt haben sie offenbar auch beschlossen, dass wir das intermittierende Fasten zu unserer Energiediät hinzufügen müssen, weil die Elektrizität in entwickelten Ländern wie den Vereinigten Staaten einfach zu zuverlässig ist, als dass es zu unserem eigenen Wohl wäre! Das Licht muss ab und zu ausgehen, oder, nun ja, der Planet ist dem Untergang geweiht.

Laut Hughes „könnte für diejenigen, die ernsthaft über den Klimawandel besorgt sind, der Umkehrschluss – die Forderung nach elektrischer Kontinuität – das eigentliche Problem sein“. Ja, Sie haben das richtig gelesen, der Wunsch, rund um die Uhr Strom zur Verfügung zu haben, ist die Ursache unserer globalen Klimakatastrophe, und wir müssen lernen, mit intermittierender Energie zu leben wie die glücklichen Camper in Simbabwe und Puerto Rico, die „Modelle für das liefern, was wir als Elektrizität voller Unterbrechungen bezeichnen könnten“.

Und wer ist der Erste auf der neuen Stromdiät? Warum Sie, Sie Einfamilienhaus-Umweltketzer? Hughes erklärt, dass „…jeder Haushalt, der kontinuierlich Strom nachfragt, die Klimakrise geringfügig verschärft. Vielleicht ist es dann entscheidend, dass wir keine Energie für diese Häuser speichern. Zumindest sollten wir dies nicht in einer Weise tun, die den Übergang von fossilen Brennstoffen behindert. Wir sollten erwägen, einige Jahre auf die Speicherung zu warten, die weit mehr als sechs Stunden Ausfallzeit pro Jahr ausmacht – um den Übergang weg von fossilen Brennstoffen zu beschleunigen“.

Sicherlich können Sie „ein paar Jahre“ mit zeitweiligen Stromausfällen und Stromausfällen umgehen, nicht wahr, Vorstädter?

Diese Energie-Rationierungsagenda wurde bisher durch eine Vielzahl von Scheinversprechungen verdeckt, die den Umstieg auf erneuerbare Energien erleichtern würden. Die Batterien, so wurde uns gesagt, werden sich so schnell anpassen, dass wir einfach Wind- und Solarenergie ausbauen können, während wir konventionelle Kraftwerke verkümmern und sterben lassen, und jeder wird seinen Kuchen haben und ihn auch essen! Leider ist die Realität der Einschränkungen bei der Batteriespeicherung für Menschen, die Tag für Tag die Realität der Batterien sehen, einfach zu offensichtlich: Sie werden mit der Zeit nicht mehr so viel stärker. Mark Mills vom Manhattan Institute weist auf Folgendes hin (und es empfiehlt sich, alles zu lesen!):

 Etwa 60 Pfund Batterien werden benötigt, um das Energieäquivalent von einem Pfund Kohlenwasserstoff zu speichern.

 Für jedes hergestellte Pfund Batterie werden mindestens 100 Pfund Material abgebaut, bewegt und verarbeitet.

 Für die Speicherung des Energieäquivalents von einem Barrel Öl, das 300 Pfund wiegt, werden 20.000 Pfund Tesla-Batterien (im Wert von 200.000 Dollar) benötigt.

Die Beförderung des Energieäquivalents des Flugbenzins eines Flugzeugs, das nach Asien fliegt, würde Batterien vom Typ Tesla im Wert von 60 Millionen Dollar erfordern, die fünfmal schwerer sind als dieses Flugzeug.

Und selbst Hughes gibt jetzt zu, dass die Herstellung von Batterien umweltschädlich ist, und Umweltschützer wollen nicht, dass Sie das tun, selbst wenn Sie es können. Schließlich sind Batterien einfach nicht umweltfreundlich:

Lithium-Ionen-Batterien sind auf dem besten Weg, diese Beschränkung zu überwinden, aber sie schaffen eigene Probleme. Wie bei den meisten Formen des Bergbaus entstehen auch bei der Lithiumgewinnung Giftstoffe, die in diesem Fall bei den einheimischen Abwicklern in Chile anfallen. Wie der Bergbau konzentriert auch der Lithiumhandel Macht und Reichtum in den Händen weniger Konzerne. Dieser Prozess, der manchmal als „Engpass“ bezeichnet wird, verwandelt eine Ressource, die zu reichhaltig für Profit ist – wie Sonnenlicht – in ein knappes und lukratives Gut. Nicht einmal der Umweltretter Elon Musk ist vor Missbrauch sicher, denn, so scheint es, Tesla „scheint auf dem Weg zu sein, einen kontrollierenden Anteil an jedem intelligenten Stromnetz zu erlangen, das an Elektrofahrzeuge angeschlossen ist; seine Powerwall-Batterie ist den weniger giftigen Technologien überlegen, und sie könnte sich schließlich mit einer Software verzahnen, die als ‚Reaktion auf die Nachfrage‘ bekannt ist“.

Oh, mein Gott! Sie meinen, Elon Musk ist ein Geschäftsmann? Nicht doch!

Die Moral dieser Geschichte ist, wenn die Typen „grüne“ Energie, „grüne Wirtschaft“, „Green New Deal“ sagen, dann drücken sie damit nur aus, dass Sie weniger haben sollen. Weniger Menge, weniger Zuverlässigkeit, weniger Erschwinglichkeit und weniger Flexibilität für die Verbraucher. Und das können Sie an die Wahlurne bringen.

Autor: Kenneth Green has studied energy and environmental policy at free-market think tanks in North America for over 20 years. He holds a Doctoral degree in Environmental Science and Engineering from UCLA, and has over 850 publications to his credit.

Link: https://www.cfact.org/2020/11/01/reliable-electricity-bah-humbug-kpg/

Übersetzt von Chris Frey EIKE




„Globale Abkühlung wird uns alle umbringen“

Versuche des berüchtigten William Connolley, der in einem vergeblichen Versuch, die Geschichte mit der willkürlichen Veränderung von 5428 Wikipedia-Einträgen zu verändern und den „Global Cooling Scare“ aus dem Internet zu löschen, scheiterten. Wie James Delingpole in The Telegraph erklärt, verwandelte Connolley Wikipedia systematisch in eine Maschine, welche die vom Menschen verursachte globale Erwärmung vor sich her peitschte (Delingpole, 2009). Er schrieb Artikel zur globalen Erwärmung, zum Treibhauseffekt, zu Klimamodellen und zur globalen Abkühlung um. Dabei versuchte er, die mittelalterliche Warmzeit und die kleine Eiszeit auszulöschen. Auf den Seiten von Wikipedia machte er berühmte Klimawissenschaftler, die der vom Menschen verursachten globalen Erwärmung skeptisch gegenüberstanden, wie Richard Lindzen, Fred Singer, Willie Soon und Sallie Baliunas, nieder. Außerdem hinderte er die Menschen daran, seine Lügen zu korrigieren.

William Connolley ist mit Michael Mann und seinem Hockeyteam befreundet, zu welchem auch Phil Jones und Raymond Bradley gehören. Er ist auch Mitbegründer der alarmistischen Website Realclimate.org. Offensichtlich sorgte Connolley dafür, dass Mann und Bradley bei Wikipedia glühendes Lob erhielten, bis er 2009 gefeuert und als Wikipedia-Administrator abgesetzt wurde (Delingpole, 2009).

Es überrascht uns nicht, dass Connolley als Koautor der von Fachkollegen begutachteten Studie „The Myth of the 1970s Global Cooling Scientific Consensus“ in BAMS [= Bulletin of the American Meteorological Society] auftaucht, das von Thomas Peterson, William Connolley und John Fleck verfasst wurde (Peterson, Connolley, & Fleck, 2008). Das Papier ist Unsinn und macht keinen Unterschied, weil Fakten stur sind. Dass die Studie die Begutachtung bestanden hat, zeigt, wie korrupt die Klimawissenschaft geworden ist. Die Einleitung darin liest sich so:

In den 1970er Jahren gab es keinen wissenschaftlichen Konsens darüber, dass die Erde auf eine bevorstehende Eiszeit zusteuerte. Tatsächlich dominierte die Möglichkeit einer anthropogenen Erwärmung schon damals die von Experten begutachtete Literatur“. (Peterson, Connolley, & Fleck, 2008)

Abbildung 1. Rekonstruktion der globalen Durchschnittstemperatur seit 1850 seitens U.K. Met Office Hadley Centre und der Climatic Research Unit (CRU) an der University of East Anglia. Sie zeigt, wie auch andere Rekonstruktionen, eine globale Abkühlung um etwa 0,09°C (0,16°F) von 1944 bis 1977.

Die globale Abkühlungsangst der 1960er und 1970er Jahre war vorhanden: Sowohl Klimawissenschaftler als auch die Öffentlichkeit befürchteten, dass sich der globale Abkühlungstrend, der in den 1940er Jahren begann (siehe Abbildung 1), fortsetzen und die Welt sehr kalt werden, vielleicht sogar zu einer Gletscherperiode zurückkehren würde, wie sie vor etwa 11.700 Jahren zu Beginn des Holozäns endete.

Die Studie von Peterson, et al. sucht sich ebenso sorgfältig wie willkürlich 71 Studien heraus und behauptet, dass nur sieben davon zwischen 1965 und 1979 der „Konsens“-Position widersprachen, der zufolge die globale Erwärmung in der Zukunft stattfinden würde. Sie fanden 20, die eine neutrale Position vertraten und 44, die mit dem Konsens über die globale Erwärmung übereinstimmten. Aber die Welt kühlte sich damals ab und zwar seit 1944. Kenneth Richard untersuchte dies und erweiterte den Zeitrahmen auf 1960 bis 1989. Richard fand 285 Studien, die nicht mit der „Konsens“-Position übereinstimmten, dass die globale Erwärmung in der Zukunft stattfinden würde (Richard, 2016).

Von diesen 285 Beiträgen diskutierten 156 die Abkühlung seit 1940 und sagten eine zukünftige Abkühlung voraus. Sieben versuchten zu zeigen, dass CO2 die Abkühlung verursachen könnte. Eine vollständige Liste der Beiträge kann von Kenneth Richards Beitrag heruntergeladen werden. Die Panikmacher fälschten die Zahlen, um einen 97%igen Konsens darüber zu zeigen, dass der Mensch die globale Erwärmung verursacht hat, dann fälschten sie auf die gleiche Weise den Konsens über die globale Kühlung.

Angus McFarlane nahm die von Kenneth Richard und Peterson u.a. erstellten Datenbanken, führte sie zusammen (es gab 16 Duplikate) und führte dann eine eigene unabhängige Suche durch. Er fand zwei weitere relevante Studien, die nicht bereits in einer der beiden Datenbanken enthalten waren. Dann eliminierte er die Studien, die außerhalb des ursprünglichen Zeitraums von 1965-1979 von Peterson et al. lagen.

McFarlanes Datenbank ist kleiner als die von Richard und enthält nur 190 relevante Arbeiten, aber das sind 119 mehr als die von Peterson u.a. gefundenen, und sie decken den gleichen Zeitraum ab. McFarlanes Durchsicht der Arbeiten ergab, dass 86 eine künftige Abkühlung, 58 eine neutrale und 46 eine Erwärmung vorhersagten. Von den 86 Abkühlungs-Studien sagten 30 eine mögliche neue „Eiszeit“ voraus. Streng genommen befinden wir uns nun aber in einer Eiszeit, was bedeutet, dass eine neue Eiszeit gemeint ist, in der sich das Eis zu einem neuen großen neuen Maximum ausdehnt wie vor 19.000 Jahren im letzten großen Gletschermaximum. Die 86 Abkühlungs-Studien machen 45% der Gesamtzahl aus. Wenn wir die neutralen Papiere ignorieren, wie es John Cook, et al. (Cook, et al., 2013) in seiner 97%-Konsensstudie taten, dann machen die Abkühlungspapiere 65% der Papiere aus, die eine Stellungnahme abgegeben haben. Wenn wir Cooks Regeln verwenden, können wir bequemerweise behaupten, dass es 1979 einen globalen Konsens bzgl. Abkühlung gab.

Als sich jedoch der Abkühlungstrend Mitte des zwanzigsten Jahrhunderts umkehrte und zu einem Erwärmungstrend wurde, dauerte es nicht lange, bis sich auch der „Konsens“ umkehrte. Der globale Oberflächentemperatur-Trend änderte sich um 1977 in Erwärmung (etwa 0,017°C/Jahr, wie in der Grafik dargestellt), und die von Experten begutachteten Klimastudien von 1977-1979 änderten sich in ein Verhältnis von 52% pro Erwärmung zu 48% pro Abkühlung, eine knappe Mehrheit der Erwärmungs-Studien, wobei die neutralen Studien ignoriert wurden. In den 1980er Jahren änderten sich der Trend in den Studien schnell auf Pro-Erwärmung.

[Hervorhebung vom Übersetzer]

Mitte der siebziger Jahre berichtete die Presse, dass ein Konsens von Klimawissenschaftlern glaubte, die Welt kühle sich ab und die Abkühlung werde sich fortsetzen (Struck, 2014). Artikel über den Abkühlungskonsens erschienen in Newsweek, Time, der New York Times und National Geographic. Eine bahnbrechende Geschichte von Peter Gwynne in Newsweek vom 28. April 1975 war typisch (Gwynne, 1975). Sie trug den Titel „The Cooling World“. Im überhitzten Stil der Newsweek beginnt der Artikel: „Es gibt unheilvolle Anzeichen dafür, dass sich die Wettermuster der Erde dramatisch zu verändern begonnen haben“. Später in dem Artikel erklärt Gwynne atemlos: „… das Klima der Erde scheint sich abzukühlen … und die daraus resultierenden Hungersnöte könnten katastrophal sein“. Zu Gwynne’s zitierten Quellen gehören die National Academy of Sciences, Murray Mitchell (NOAA), George Kukla (Columbia University), James McQuigg (NOAA’s Center for Climatic and Environmental Assessment) (Gwynne, 1975).

Anders als viele seiner Kollegen änderte George Kukla von der Columbia University und dem Lamont-Doherty Earth Observatory seine Ansicht über einen langfristigen globalen Abkühlungstrend nicht. Als er am 31. Mai 2014 traurigerweise verstarb, glaubte er immer noch, dass in der Zukunft, vielleicht in 5.000 Jahren, eine neue massive Eiszeit beginnen würde. Javier Vinós sagt in seinem Blogbeitrag über „The next glaciation“ (Vinós, 2018) voraus, dass die nächste große Eiszeit in 1500 bis 2500 Jahren beginnen würde. Es ist ein Glück, dass beide Vorhersagen weit in der Zukunft liegen.

Wenn die nächste globale Abkühlungsperiode beginnt, was unvermeidlich der Fall sein wird – werden Klimawissenschaftler dann mehr Studien bzgl. globaler Abkühlung schreiben? Warum sollten wir Klimawissenschaftlern glauben, die sagen, dass sich die Welt jetzt gefährlich erwärmt, während sie noch vor 50 oder 60 Jahren sagten, dass sie sich gefährlich abkühlt? Eine vernünftige Frage. Welche direkten Beweise sind aufgetaucht, die sie überzeugt haben, den Kurs umzukehren? Wir hatten einen Konsens für die Abkühlung, als sich die Welt abkühlte, jetzt haben wir einen Konsens für die Erwärmung, und die Welt erwärmt sich. Ist das alles, was es dazu zu sagen gibt? Beides sind Hypothesen – was lässt sie zu Fakten oder Theorien werden?

Hypothesen sind spekulative Ideen. Ein echter Wissenschaftler fragt: „Ist das so? Sagen Sie mir, warum Sie das denken!“ Mit einem strengen wissenschaftlichen Verfahren muss nachgewiesen werden, warum beobachtete Ereignisse wie die globale Erwärmung oder Abkühlung eintreten. Zu zeigen, dass sie potenziell gefährlich sind, erfordert sogar noch mehr Arbeit.

Konsens ist eine politische Sache. Die Öffentlichkeit bildet eine Konsensmeinung, stimmt dann ab und erlässt Gesetze oder Regeln, die diese Meinung reflektieren. In der Wissenschaft entwickeln wir zunächst eine Hypothese oder einen Gedanken, der ein beobachtetes Naturphänomen, wie z.B. eine Erwärmung oder Abkühlung, erklärt. Der nächste Schritt ist der Versuch, dies zu widerlegen. Wenn das nicht gelingt, überlebt die Hypothese. Wir veröffentlichen, was wir getan haben, und andere versuchen, die Hypothese zu widerlegen; wenn auch sie das nicht schaffen, überlebt sie. Wenn dies lange genug so weitergeht, wird der Gedanke zu einer Theorie. Eine wissenschaftliche Theorie überlebt einfach, sie wird nie bewiesen, sie muss immer einer Prüfung unterzogen werden.

Wir haben bereits erwähnt, dass sieben der von Angus McFarlane und Kenneth Richard untersuchten Papiere darauf hinwiesen, dass CO2 eine globale Abkühlung verursachen könnte. Ein gutes Beispiel ist Sherwood Idsos Beitrag von 1984 im Journal of Climatology. Das Papier trägt den Titel [übersetzt] „Was ist, wenn ein Anstieg des atmosphärischen CO2 einen umgekehrten Treibhauseffekt hat?“ (Sherwood Idso, 1984). Idso spekuliert, dass zusätzliches CO2 die Pflanzen dazu veranlassen wird, in trockenere Gebiete zu ziehen, weil zusätzliches CO2 bewirkt, dass die Pflanzen weniger Wasser für ihr Wachstum verbrauchen. Idso glaubt, dass dies die Albedo (Reflexionsvermögen) der Erde so verändern könnte, dass die Temperaturen sinken. In ähnlicher Weise spekulierten Richard Lindzen und Yong-Sang Choi, dass zusätzliches CO2 die Luftfeuchtigkeit in den Tropen und damit die Bewölkung erhöhen würde (Lindzen & Choi, 2011). Extrem kleine Veränderungen der durchschnittlichen Bewölkung können tagsüber einen großen kühlenden Effekt haben.

Peter Webster präsentiert eine interessante Diskussion über Sherwood Idsos Arbeit in seiner Klimawandel-Studie „The Carbon Dioxide/Climate Controversy: Some Personal Comments on Two Recent Publications“ (Webster, 1984). Neben einer interessanten Diskussion über die Emotionen, die mit der Debatte über den vom Menschen verursachten Klimawandel verbunden sind, können wir aus Websters Diskussion und Idsos Papier ersehen, wie wenig wir wirklich über die Auswirkungen von zusätzlichem CO2 in der realen Welt wissen. Winzige Veränderungen in der Albedo der Erde, sei es durch Bewölkung oder durch die Verteilung von Pflanzen, können einen großen Unterschied machen.

Empirische Schätzungen der ECS (die Veränderung der Lufttemperatur aufgrund der Verdoppelung der CO2-Konzentration) haben nie mit theoretischen Berechnungen aus Klimamodellen übereingestimmt. Die empirischen Werte (wie die von Idso oder die von Lindzen und Choi) sind normalerweise nur etwa halb so groß wie die Modellschätzungen und können wie die von Idso sogar negativ sein. Dies ist wahrscheinlich, weil den Modellen etwas fehlt – u. A. vielleicht mögliche zukünftige Veränderungen der Albedo durch wechselnde Bewölkungsverhältnisse und die Verbreitung von Pflanzen.

This post is condensed and modified from my new book, Politics and Climate Change: A History.

To download the post bibliography click here

Link: https://wattsupwiththat.com/2020/11/05/global-cooling-will-kill-us-all/

Übersetzt von Chris Frey EIKE




Impfstoff: Viel Lärm um fast nichts

Was ist und wie wirkt BNT162b2?

BNT162b ist ein mRNA-Impfstoff. Ein Fragment der RNA des Virus wurde als mRNA in ein Lipid-Nanopartikel als Trägersubstanz eingebracht. Das Fragment kodiert für ein Stück Eiweiß, die Rezeptorbindungsstelle des SARS-CoV-2 Spike-Glykoproteins, mit dem sich das Virus an Zellen des Atemwegsepithels anheftet. Wenn man die Partikel intramuskulär spritzt, werden sie von Zellen aufgenommen. In den Zellen synthetisieren Ribosomen aus der mRNA das Eiweißfragment des Spike-Glykoproteins, das dann in kleinere Stücke zerlegt und von den Histokompatibilitätskomplexen MHC I und II an der Zelloberfläche dem Immunsystem präsentiert werden. Das Immunsystem reagiert darauf mit der Vermehrung passender T- und B-Zellen seiner zellulären und humoralen Komponenten, es bildet sich eine Immunität gegen das Eiweißfragment aus. Man kann die entsprechenden Antikörper gegen das Fragment im Serum des Blutes messen.

BNT162b2 wäre bei seiner Zulassung der erste mRNA-basierte Impfstoff; es gibt mit dem Nutzen-Risiko-Profil der Technologie noch keine breiten Erfahrungen. Die Hersteller haben aber zahlreiche Maßnahmen ergriffen, um die potenziell toxische Wirkung der mRNA auf den Organismus zu vermeiden (gründliche Aufbereitung der mRNA, um nur Einzelstrang-RNA zu erhalten, Verpackung in Lipidpartikeln).

Wie ist die klinische Studie aufgebaut, und was kam bisher raus?

Für BNT162b sind bei clinicaltrials.gov drei Studien gemeldet, zwei davon mit Kaukasiern (das sind die Menschen, die derzeit in Europa und Nordamerika noch die rassische Mehrheit bilden: Weiße) laufen, eine Studie für Japaner (die Asiaten des zahlungskräftigsten Marktes im fernen Osten), die notwendig ist, weil Rassen unterschiedlich auf Pharmaka reagieren, rekrutiert noch nicht.

Die laufenden, von der zuständigen US-Behörde FDA im Eilverfahren genehmigten Studien haben einen unkonventionellen Aufbau. Normalerweise werden die drei Phasen 1, 2 und 3 nacheinander und aufeinander aufbauend durchgeführt. In der Phase 1 wird die elementare Sicherheit und die Pharmakokinetik (Aufnahme, Verteilung und Metabolisierung) des Arzneimittels etabliert. In der Phase 2 wird festgesellt, ob und wie stark das Pharmakon hinsichtlich eines messbaren Endpunkts wirkt, in Phase 3 werden die Ergebnisse an einer großen Zahl von Patienten validiert. Jede Phase wird nur begonnen, wenn die vorherige Phase erfolgreich war; oftmals werden die Phasen noch aus Sicherheits- und Kostengründen unterteilt. Bei Krebsmitteln werden die Phasen 1 und 2 manchmal kombiniert, um sie schneller zu entwickeln.

Hier wurden, wohl um der globalen Corona-Panik gerecht zu werden, gleich alle drei Phasen kombiniert, ein bisher präzedenzloses und in vielerlei Hinsicht törichtes Vorgehen, da auf diese Weise das Nutzen-Risiko-Profil des Stoffes viel schlechter ermittelbar ist und für die Probanden erhöhte Risiken in Kauf genommen werden; das klassische Studienschema gibt es nicht umsonst, denn klinische Studien sind Menschenversuche, das darf man nie vergessen.

Bei BNT162b2 wurden alle Phasen zusammengelegt. Die wichtigsten zu untersuchenden Eigenschaften (Endpunkte) sind laut Studienprotokoll: Reaktionen an der Injektionsstelle, systemische Reaktionen wie Fieber, Kopfschmerz, Grippegefühl sowie sonstige (potenziell ernste) unerwünschte Wirkungen (auch solche, die man anhand paraklinischer Tests ermittelt), Anteil der Studienteilnehmer mit und ohne COVID-19-Erkrankung vor der Impfung, sowie – und zwar nur als sekundärer Endpunkt (!) – Antikörpertiter nach erster und zweiter Impfung und im weiteren Verlauf. Es gibt keinen Endpunkt zur Messung der klinischen Wirksamkeit des Impfstoffs, der Verhinderung einer Infektion. Eine solche Messung ist sehr aufwändig und nur über Jahre zu ermitteln, indem man Impflinge und lediglich mit Trägerstoff behandelte (nicht geimpfte) Probanden beobachtet und vergleicht. Man muss dann feststellen, ob tatsächlich weniger Impflinge als Vergleichsprobanden erkranken.

Eine solche prospektive Studie ist logistisch aufwändig und statistisch anspruchsvoll, da Dropouts (Patienten, die aus der Studie verschwinden, weil sie versterben oder sich einfach nicht mehr melden) und vor allem Krankheitsbilder genau festgestellt und verglichen werden müssen. Für klassische Erreger wie Masern, Mumps oder Röteln hat man das gemacht und Impfstoffwirkungen von 99,9 Prozent festgestellt, bei Influenza-Impfstoffen liegen die Quoten je nach Alter zwischen 5 und 25 Prozent, die alten Risikopatienten profitieren kaum.

In der Phase 1/2-Studie wurden zwei intramuskuläre Impfdosen à jeweils 10, 30 oder 100 Mikrogramm gegeben, im Vergleichsarm der Studien sind wie üblich mit Placebo behandelte Patienten. Die ersten Ergebnisse liegen bereits seit August vor. Es zeigte sich, dass BNT162b2 bei 45 Patienten gut verträglich war und zu einer starken Immunreaktion mit Bildung von Antikörpern gegen das Spike-Protein-Fragment führte, was aber nichts über die klinische Wirksamkeit aussagt. Weitere Ergebnisse wurden noch nicht publiziert.

Die Jubelmeldungen, die uns erreicht haben, beziehen sich nicht auf publizierte Studienergebnisse, sondern auf mündliche Mitteilungen von Pfizer und Biontech, die eine baldige Veröffentlichung der Daten ankündigen, denn die Messung der klinischen Wirksamkeit ist gar nicht Ziel der Studien und kann in so kurzer Zeit auch nicht durchgeführt werden.

Keine Erlösung vom Wahn

Der in den Medien berichtete Hype wird sich sicherlich noch einmal verstärken, wenn die Studiendaten vorliegen, denn Uğur Şahin, der Chef von Biontech, wäre kaum vor die Presse getreten, wenn er die Daten nicht hätte. Doch wissen wir aufgrund der Antikörpertiter nichts über die klinische Wirksamkeit. Diese dürfte allenfalls moderat sein wie bei Influenza, obwohl Coronaviridae immerhin langsamer mutieren als diese, was Hoffnung gibt, dass die Wirksamkeit des Impfstoffs besser sein könnte. Das werden wir jedoch erst in einigen Jahren wissen, genauso lange wird es noch dauern, bis man weiß, wie oft der Impfstoff zu schweren Nebenwirkungen (Impfunfällen) führt, wie riskant er also ist. Ein gewisses Risiko besteht, da RNA im Extrazellulärraum sehr toxisch ist.

Vielleicht planen unsere Politiker und ihre Qualitätsmedien mit der Zulassung des Impfstoffs aber auch, den „Krieg gegen das Virus“ für gewonnen zu erklären – egal wie wirksam er ist. Wir werden es sehen.

Viel wichtiger ist es für uns alle aber, sich klarzumachen, dass SARS-CoV-2 lediglich eine etwas geringere Letalität als Influenza hat und epidemiologisch bedeutungslos ist: Durch SARS-CoV-2 hat sich die weltweite Zahl der Viruspneumonietoten pro Jahr nicht verändert. Es ist einfach nur ein weiterer Erreger grippaler Atemwegsinfekte zu den Dutzenden, die wir schon haben, hinzugekommen, und hat dafür andere ein wenig vom Futtertrog der infizierbaren Wirte verdrängt. Die Leute, die an SARS-CoV-2 sterben, sind zu weit über 99 Prozent alt und so schwer krank, dass sie 6 bis 12 Wochen nach dem Tod an COVID an etwas Anderem gestorben wären (das ist der Zeitraum, nach dem die ohnehin sehr geringe Übersterblichkeit eines Erkrankungsgipfels verschwindet). Bei ihnen ist COVID eine natürliche Todesursache. Ihnen hilft der Impfstoff nicht. Ob er den Anderen wenigsten nicht schadet, werden wir in den nächsten Jahren erfahren. Ich werde nächste Woche 50 und lasse mich nicht impfen, obwohl ich bei wirksamen Impfstoffen ein Impffanatiker bin und so ziemlich alle Impfungen frisch habe, die in unseren Breitengraden wirksam sind.

 

Der Autor ist Arzt,  Mathematiker und Publizist.

Der Beitrag erschien zuerst bei ACHGUT hier




Sie wollen zuverlässigen Strom? – Sie schädigen unseren Planeten!

Laut Hughes kann „für diejenigen, die ernsthaft über den Klimawandel besorgt sind, das Gegenteil – die Forderung nach elektrischer Kontinuität – das eigentliche Problem sein.“

 Ja, Sie haben richtig gelesen, der Wunsch, rund um die Uhr Strom zur Verfügung zu haben, ist die Ursache unserer globalen Klimakatastrophe, und wir müssen lernen, mit intermittierender Energie zu leben, wie die glücklichen Camper von Simbabwe und Puerto Rico, die „Modelle für das liefern, was wir als pausenreiche Elektrizität bezeichnen könnten“.

Und wer wird zuerst auf die neue Stromdiät gesetzt? Sie fragen noch- Sie sind es, Sie mit dem Einfamilienhaus sind Umwelt Ketzer. Hughes erklärt: „… Jeder Haushalt, der kontinuierlichen Strom benötigt, verschärft die Klimakrise geringfügig. Vielleicht ist es dann entscheidend, dass wir keine Energie für diese Häuser speichern. Zumindest sollten wir dies nicht so tun, dass der Übergang weg von fossilen Brennstoffen behindert wird. Wir sollten in Betracht ziehen, einige Jahre auf die Stromspeicherung zu warten – und dabei jedes Jahr mehr als sechs Stunden Ausfallzeit zu haben – um schneller von fossilen Brennstoffen wegzukommen.

Sicherlich können Sie mit „ein paar Jahren“ intermittierender Stromausfälle und Stromabschaltungen umgehen, richtig, Vorstädter?

Diese Agenda der  Energierationierung wurde bisher durch eine Vielzahl falscher Versprechungen verborgen, die den Wechsel zu erneuerbaren Energien erleichtern würden. Uns wurde gesagt, dass sich Batterien so schnell anpassen werden, dass wir Wind- und Sonnenenergie aufbauen können, während konventionelle Kraftwerke verdorren und sterben, und jeder wird seinen Kuchen haben und ihn auch essen [müssen]! Leider ist die Realität der Beschränkungen  von Batteriespeichern für Menschen, die Tag für Tag mit der  Realität von Batterien konfrontiert sind, einfach zu offensichtlich: Sie werden mit der Zeit nicht viel besser. Mark Mills vom Manhattan Institute weist darauf hin:

[die Übersetzung belässt pound ~ Pfund, was in der genauen Gewichtsbestimmung unerheblich ist, hier geht es nur um die Verhältnisse der Massen]

  • Etwa 60 Pound Batterien werden benötigt, um das Energieäquivalent von einem Pfund Kohlenwasserstoffen zu speichern.
  • Für jedes hergestellte Pound Batterie werden mindestens 100 Pfund Material abgebaut, bewegt und verarbeitet.
  • Für die Speicherung des Energieäquivalents eines Barrels Öl mit einem Gewicht von 300 Pound sind 20.000 Pound Tesla-Batterien (im Wert von 200.000 US-Dollar) erforderlich.

Um das Energieäquivalent des Flugkraftstoffs zu transportieren, der für einen Flug nach Asien notwendig ist, wären Tesla-Batterien im Wert von 60 Millionen US-Dollar erforderlich, die fünfmal so schwer sind wie überhaupt dieses Flugzeug.

Und selbst Hughes gibt jetzt zu, dass die Herstellung von Batterien umweltschädlich ist, und Umweltschützer wollen nicht, dass Sie diese herstellen, selbst wenn Sie könnten. Schließlich werden Batterien nicht einfach geerntet:

[Die Entwickler von] Lithium-Ionen-Batterien versuchen, diese Eigenschaften zu überwinden, [letztere] verursachen jedoch eigene Probleme. Wie die meisten Formen des Bergbaus produziert die Lithiumgewinnung Toxine, die in diesem Fall den einheimischen „Down-winders“ in Chile auferlegt werden. [~die in der giftigen Abluft leben]. Ebenso wie der Bergbau konzentriert der Lithiumhandel Macht und Reichtum in den Händen weniger Unternehmen. Dieser Prozess wird manchmal als „Engpass“ bezeichnet und wandelt eine zu gewinnbringende Ressource – wie Sonnenlicht – in eine knappe und lukrative Ware um. Nicht einmal der Umweltretter Elon Musk ist vor Missbrauch sicher, denn Tesla scheint „auf dem richtigen Weg zu sein, einen kontrollierenden Anteil an jedem an Elektrofahrzeuge angeschlossenen Smart Grid zu erlangen. Die Powerwall-Batterie ist weniger konkurrierend mit weniger toxischen Technologien und könnte sich möglicherweise mit Software kombinieren, die als „Demand Response“ bezeichnet wird.

Die Moral dieser Geschichte lautet: Wenn die Typen Ihnen „grüne“ Energie, „grüne Wirtschaft“ und „grüner New Deal“ sagen, ist alles, was sie wirklich wollen, dass Sie weniger davon haben. Weniger Quantität, weniger Zuverlässigkeit, weniger Erschwinglichkeit und weniger Flexibilität der Verbraucher. Und denken Sie daran, wenn Sie das nächste Mal zur Wahlurne gehen dürfen.

 

Autor

Kenneth Green studiert seit über 20 Jahren Energie- und Umweltpolitik an marktwirtschaftlichen Think Tanks in Nordamerika. Er hat einen Doktortitel in Umweltwissenschaften und -technik von der UCLA und verfasste mehr als 850 Veröffentlichungen.

https://www.cfact.org/2020/11/01/reliable-electricity-bah-humbug-kpg/

Übersetzt durch Andreas Demmig




Wo ist die Grippe geblieben?

Ein Kollege hat mich auf die WHO-FluMart aufmerksam gemacht. Sie finden auf dieser offiziellen WHO-Seite eine weltweite Influenza-Erhebung bezüglich der Grippehäufigkeit. Eine Standardisierungsplattform vieler Quellen, Labore, nationale Erhebungen etc. zum Thema Grippe. Wie man sich das vorstellen muss, zeigt diese Grafik. Dort ist die Influenza ab Frühjahr dieses Jahres einfach verschwunden. Dies war in keinem der vorangehenden Jahre der Fall. Die Influenza überlebt auf niedrigem Niveau im Sommer, um dann meist im Herbst wieder anzusteigen.

Wer es genau wissen und sehen will, muss leider folgenden komplizierten Weg gehen (oder einfach einen Absatz weiter unten weiterlesen). Da es keine direkte Verlinkung zu den Grafiken gibt, müssen Sie selbst bitte Folgendes tun: Folgen Sie diesem Link. Es öffnet sich eine Seite mit vier Feldern, die interaktiv sind.

Wählen Sie im 1. und 3. Feld jeweils 2020 und im 2. Feld: KW1 und im 4. Feld: KW 53. Wenn sie dann auf Display report klicken, dann sehen Sie eine Grafik, die die Messungen aller bekannten Influenzastämme weltweit darstellt und zwar ab der 1. Woche 2020 bis aktuell. Man erkennt, ab KW 13 wurden kaum noch Influenzafälle gemeldet und ab KW 17 gar keine mehr – bis heute. Tun Sie das Gleiche, indem Sie andere Jahre einstellen. Beispielsweise im 1. und dem 3. Feld das Jahr 2019. Und danach jeweils 2018 und so weiter.

Nun stellt sich die Frage: Gibt es eine plausible Erklärung dafür, dass nur im Jahr 2020 die Grippe ab KW 17 weltweit verschwunden ist? Die großen Medien stellen diese Frage meinem Überblick nach gar nicht erst.

Man warnt lieber alarmistisch vor der nächsten Grippewelle, und das mit den Bildern aus 2018. Damals war in der Tat eine echte Übersterblichkeit in Deutschland zu verzeichnen, und man konnte tatsächlich überall in Deutschland Betten auf den Gängen sehen, weil die Zimmer belegt waren. Doch war dies kaum eine Schlagzeile wert, geschweige denn kam jemand auf die Idee, einen Lockdown zu verhängen. Warum auch, es war ein mittelschweres, medizinisches Problem, welches einer medizinischen Diskussion von Fachleuten bedarf und besser gelöst werden sollte. Vorschläge dazu finden Sie weiter unten. Die eigentliche Frage bezüglich der Grippe lautet derzeit jedoch, ist es wirklich realistisch, dass sie seit Frühjahr komplett verschwunden ist, oder sind vielleicht ein Teil der als Covid gezählte Patienten in Wirklichkeit Grippefälle?

Auch scheint keinem der Verfasser solcher Grippe-Beiträge aufzufallen, dass sie in ihren Berichten indirekt zugeben, dass die Virensaison in Deutschland etwa 2018 viel schlimmer war als die Situation heute, etwa hier. Damals herrschte eine echte Übersterblichkeit, im Gegensatz zu heute. Das könnte Anlass sein, etwas beruhigter zu sein und für die Frage, ob die Maßnahmen überzogen und aufgrund ihrer Willkürlichkeit eine unzulässige Einschränkung unsere Grundrechte darstellen.

Viel dringlicher ist es, nach Lösungen innerhalb des Gesundheitssystems zu suchen. Wie beispielsweise die Ergänzung vieler Pflegeheime mit einer geriatrischen, palliativ ausgerichteten Intensiv-Pflegeabteilung unter ständiger ärztlicher Überwachung. Das würde viel besser dafür sorgen, dass alte Menschen ihr Lebensende nicht vereinsamt und getrennt von ihren Angehörigen an dem gefährlichsten Ort, in den sie verlegt werden können, verbringen müssen. Das Problem nosokomiale Infektionen bringt nach RKI-Schätzung 10.000 bis 20.000 Menschen jährlich in Deutschland um, in südlichen Ländern noch mehr. Hauptansteckungsort: die Intensivabteilung.

Die Behandlung ist Teil der Übersterblichkeit

Allerdings haben die Niederlande das Problem der nosokomialen Infektionen besser im Griff, aber dennoch verhältnismäßig mehr Covidtote zu verzeichnen. Ich persönlich glaube, dass alte Menschen mit Lungenentzündung vor allem durch eines bedroht sind, die viel zu frühe Intubationsnarkose bei Einweisung in ein Krankenhaus. Wie mir erfahrene Leiter von Lungenkliniken mitteilen, scheint das Problem der zu frühen Intubationsnarkose bei Viruspneumonien immer noch nicht durchgedrungen zu sein.

Es ist insbesondere für notärztlich sozialisierte Anästhesisten eine ungewohnte Vorstellung, bei einer sehr niedrigen Sauerstoffsättigung, aber Ansprechbarkeit des Patienten, von einer Intubation abzusehen. Eine Einstellung, die bei Unfallopfern Leben rettet. Bei einer viral geschädigten Lunge jedoch ist es ganz offensichtlich besser, abzuwarten, auch bei beängstigend niedriger Sauerstoffsättigung. Nach drei Tagen sei dann das Gröbste ausgestanden. Dazu braucht es keine Intensivabteilung, nur aufmerksames Pflegepersonal und einen Arzt vor Ort, der, falls die Ansprechbarkeit nicht mehr gegeben ist, dann die invasive Beatmung zügig durchführt.

Erfahrene Klinikleiter, die lungenfachärztlich geprägt sind, berichten mir, dass eine Verlegung auf Intensiv dann nur sehr selten notwendig wird und die kritische Phase allermeist nach 3 Tagen überstanden ist. Wer jedoch mit virengeschädigter Lunge invasiv beatmet wird, stirbt sehr häufig oder kommt meist nicht mehr gesund von der Beatmung los. Die schnelle Intubation scheint vor allem in den Ländern üblich zu sein, in denen auch eine Übersterblichkeit gemessen wird. Die Corona-Todesraten bei Intubation betragen in Wuhan 97 Prozent, in New York 80 Prozent und in Deutschland 54 Prozent. Die schnelle Intubation ist wohl besonders auch in Frankreich üblich. Diese Zahlen habe ich mündlich von Lungenärzten, eine entsprechende Publikation ist in Vorbereitung. Das wirklich Ärgerliche ist ein typisches Verhaltensmuster von leitenden Medizinern, auch bekannt als Semmelweis-Reflex.

So werden anscheinend aktuell Angebote, dieses Problem hochkompetent vor einem größeren Kreis vorzutragen, abgelehnt, mit dem Hinweis, dies würde nur verwirren. Es ist durchaus zu vermuten, dass die erhebliche Übersterblichkeit 2018 in Deutschland mit geschätzten 25.000 Toten zum Teil auf dieses antiquierte Revierverhalten zurückzuführen ist. Ich muss zugeben, dass mir dies auch nicht ausreichend bewusst war.

Grippesituation in Deutschland

In Deutschland erfasst das Robert-Koch-Institut im extra dafür entwickelten Projekt GrippeWeb die Situation. Dort werden Stichproben erfasst, um dann eine belastbare Vorstellung des aktuellen Grippeverlauf des jeweiligen Jahres zu bekommen.

Im Wochenbericht KW 43 kann man lesen.

„Die geschätzte Rate der die für die Bevölkerung in Deutschland neu aufgetretenen, akuten Atemwegserkrankungen (ARE) ist in der 43. Kalenderwoche (KW) (19.10. – 25.10.2020) gesunken ist. Die Rate der grippeähnlichen Erkrankungen (ILI, definiert als ARE mit Fieber) ist im Vergleich zur Vorwoche ebenfalls gesunken. Alle Proben werden am RKI auf 21 verschiedene Atemwegserreger, darunter Influenzaviren und SARS-CoV-2, untersucht. Bisher sind 299 Probenpaare am RKI eingegangen (Datenstand: 26.10.2020). In keiner Probe wurden bisher Influenzaviren nachgewiesen.“

Dieser Bericht spricht dafür, dass die Schutzmaßnahmen die Ausbreitung von Krankheitserregern relevant eindämmen. Influenza ist nicht gefunden worden.

In den Sentinelberichten entwickeln sich aktuell die SARI und ARE Fälle so:

„Die Aktivität der akuten Atemwegserkrankungen (ARE-Raten) in der Bevölkerung (GrippeWeb) ist in der 44. KW 2020 im Vergleich zur Vorwoche bundesweit stabil geblieben. Im ambulanten Bereich (Arbeitsgemeinschaft Influenza) wurden im Vergleich zur Vorwoche insgesamt mehr Arztbesuche wegen ARE registriert, die Werte befinden sich insgesamt über den Werten der Vorsaisons. Im Rahmen der ICD-10-Code basierten Krankenhaussurveillance schwerer akuter respiratorischer Infektionen (ICOSARI) lagen validierte Daten bis zur 43. KW 2020 vor. Die Gesamtzahl stationär behandelter Fälle mit akuten respiratorischen Infektionen (SARI-Fälle) ist stark angestiegen. Dabei ist der Anteil an COVID-19-Erkrankungen bei SARI-Fällen weiter deutlich angestiegen und lag in der 43. KW 2020 bei 32%.“ 

Dieser Bericht spricht nun gerade nicht dafür, dass die Schutzmaßnahmen die Ausbreitung von infektiösen Atemwegserkrankungen relevant eindämmen. Wie im Frühjahr übrigens auch. Das widerspricht dem Grippeweb aus gleichem Hause. Der Grund hierfür ist für mich unklar.

Bezüglich der Influenza liest man weiter im Sentinel-Wochenbericht:

„Im Nationalen Referenzzentrum (NRZ) für Influenzaviren wurden in der 44. KW 2020 in insgesamt 21 (51%) der 41 eingesandten Sentinelproben respiratorische Viren identifiziert, darunter 19 (46%) Proben mit Rhinoviren und zwei (5%) Proben mit SARS-CoV-2. Influenzaviren wurden nicht nachgewiesen. Aufgrund der geringen Zahl eingesandter Proben ist keine robuste Einschätzung zu derzeit eventuell noch zirkulierenden Viren möglich. Für die 44. Meldewoche (MW) 2020 wurden nach Infektionsschutzgesetz (IfSG) bislang 14 labordiagnostisch bestätigte Influenzafälle an das Robert Koch-Institut übermittelt (Datenstand: 3.11.2020). … Im europäischen Influenzanetzwerk berichteten 24 Länder (darunter Deutschland) für die 43. KW 2020 eine Influenza-Aktivität unterhalb des nationalen Schwellenwertes, drei Länder berichteten über eine niedrige Influenza-Aktivität. Für die 43. KW 2020 wurden in zwei (1%) von 236 Sentinelproben Influenzaviren detektiert.“ 

Demnach ist die Influenza-Aktivität in Deutschland derzeit sehr niedrig.

Aus meinem Netzwerk: Ein Chefarzt eines sehr großen Krankenhauses berichtet auf die Frage, ob die Influenza verschwunden ist:

„Nein, habe genügend ambulante Patienten, bei denen eine (Influenza) gefunden wurde, ich denke vor lauter Covid wird nicht dokumentiert, denke (weiß nicht) aber auch, dass durch Schutzmaßnahmen insgesamt weniger Influenza Fälle auftreten, sehe auch weniger „Grippe-Kranke“ im Zentrallabor.

Doppelinfektionen sind nicht ausgeschlossen, aber normalerweise wird bei „Grippe“ ja auch kein Influenza Test gemacht, man geht zum Hausarzt … Interessant, dass im Frühjahr weniger Antibiotika verschrieben wurden und keine vermehrten Toten durch bakterielle Pneumonie auffielen.“

Ein Epidemiologe schreibt dazu:

„Immerhin fast keine Influenzaviren. Die einfachen resp. Infekte sind endemisch. Die Influenza kommt oft aus dem Ausland, und da gibt es ungleich weniger Kontakt!“

Influenza weltweit

Ich halte es für ausgeschlossen, dass die Influenza zu Gänze seit der KW 17 verschwunden ist. Das Problem ist, dass virale Atemwegserkrankungen klinisch kaum voneinander zu unterscheiden sind. Alles, was zu Covid geschrieben wird, lässt sich auch auf Influenza übertragen, von den Symptomen wie zu den Langzeiteffekten. Die Diagnose Covid-19 ist definitiv nicht über den Test zu stellen, sondern klinisch zunächst über Symptome einer schweren Atemwegsinfektion, und dann anhand des einzigen wohl typischen Befundes: typische Infiltrate der Lunge, erkennbar nur im Rahmen eines CTs. Ein Herzinfarktpatient oder ein Unfallopfer ohne Lungenentzündung liegen definitiv nicht wegen Covid im Krankenhaus. Es ist grob irreführend, diese nur aufgrund eines positiven Tests als Covid-Patient zu listen.

Doch welche Länder haben ausreichend Computertomographen in jedem Krankenhaus, um für jeden Patienten die Diagnose Covid-19 durch den typischen CT-Befund abzusichern. Das dürfte in Ländern wie Brasilien, Indien, vielleicht auch Spanien und sicher in den County-Hospitals in den USA, wo die Nichtversicherten behandelt werden, eher die Ausnahme sein. Stimmt die WHO-Grippestatistik, ist die plausibelste Erklärung für das „Verschwinden“ der Grippe, dass weltweit viele Covid-Kranke in Wirklichkeit eine Grippe haben.

Fazit und Ausblick

In Deutschland ist die Rate an Influenzainfektionen derzeit niedrig. Die Annahme erscheint dennoch logisch, dass weltweit sehr viele als Covid-Patienten gezählte Erkrankte, sogar dann, wenn sie eine Lungenentzündung haben und/oder einen positiven SARS-CoV-2 Test aufweisen, kein Covid-19 haben, sondern aufgrund von Influenza symptomatisch wurden. Vereinzelt wird dies auch für Deutschland gelten.

Ceterum censeo: In keiner Weise, ganz egal unter welchen Maßnahmen auch immer, liegt in Deutschland medizinisch 2020 eine außergewöhnliche Situation vor. Ein Thema, welches ausschließlich anhand harter Statistik zu diskutieren ist. Punktuelle Überlastungen sind dagegen das tägliche Brot der Medizin in den Wintermonaten und systembedingt ganz und gar nicht außergewöhnlich. Entsprechende, hoch emotionalisierte Einzelberichte verstellen den Blick aufs Ganze. Viel geeigneter ist diese aktuelle Belegungsstatistik der Helioskliniken, die für 89 Krankenhäuser steht. Es spricht für sich, wenn ich den Verantwortlichen Mut konstatieren muss, diese zu veröffentlichen. Denn der geringe Covid-Anteil an der Belegung konterkariert die Panik.

Schauen sie insbesondere auf die obigen drei nebeneinanderstehenden Kästen. Die ersten beiden repräsentieren die harten Endpunkte Krankenhausbelegung in Bezug auf Normalstation und Intensivstation. Während der dritte Kasten lediglich den Ersatzparameter positive Testergebnisse repräsentiert. Dieser wird allgemein immer noch irreführend als Fälle aufgeführt und ohne Bezug zu einer belastbaren repräsentativen Aussage.

Die Belegungszahlen sind auch gar nicht das eigentliche Problem. Eine außergewöhnliche Situation entsteht allein durch die Panik, die symptomatische Menschen viel zu schnell in die Krankenhäuser treibt, den ständigen Quarantäneausfall positiv getesteten, aber symptomfreien Personals und die unglaublich schweren Arbeitsbedingungen infolge vermehrt unter Quarantänebedingungen zu pflegender Patienten, wo alleine schon eine einfache Blutabnahme wegen der Schutzmaterialien eine Stunde in Anspruch nimmt.

Das Positive

Die Medizin kann durch den Druck einer, meiner Meinung nach, künstlich geschaffenen, außergewöhnlichen Situation auch lernen:

1. Am dringendsten müssen wir darüber nachdenken, wie wir zukünftig besser mit viralen Atemwegserkrankungen bei alten, insbesondere pflegebedürftigen Menschen umgehen. Die wohl sinnvollste Antwort: Ergänzung der Pflegeheime mit einer geriatrischen, palliativ ausgerichteten, intensivmedizinischen Abteilung. Dies würde Unmengen von Krankenhausbetten ersetzen, wo immer noch alte Menschen viel zu invasiv behandelt werden mit dem hohen Risiko eines unwürdigen Todes. Wir dürfen uns diesem Drama, welches uns allen irgendwann droht, nicht verschließen durch wohlfeiles Euthanasiegefahr-Gerede.

2. Wie behandeln wir eigentlich Atemwegsinfektionen in der Hausarztpraxis? Offensichtlich ambulant immer noch viel zu häufig mit Antibiotika. Außerdem, das beziehe ich auch auf mich, haben viele Ärzte bisher zu sorglos infektiöse Patienten im Wartezimmer mit Nichtinfizierten auf engstem Raum platziert, anstatt sie voneinander zu trennen. Diese Trennung hat die Corona-Krise erzwungen, und dies sollte auch beibehalten werden.

3. In den Krankenhäusern sollte Revierverhalten und Semmelweis-Reflex schleunigst überwunden werden, um die Erkenntnisse der Pulmologie zum Thema stationäre Behandlung von Viruspneumonien durchzusetzen. Das wird zukünftig viele Leben retten. Wohin mit den unnötig bestellten Beatmungsgeräten? Das ist eine andere Frage.

4. Wir Ärzte müssen viel stärker als bisher darauf drängen, dass unsere medizinischen Funktionäre und Behördenleiter eine Grundkompetenz und -motivation besitzen, die es ihnen ermöglicht, frühzeitig und klar gegen panische Fehlentwicklungen im Namen der Gesundheit einzuschreiten. Vor allem, bevor die Deutung politisch-medial zementiert und die Wirklichkeit ausgeblendet wird. Wir dürfen es nicht zulassen, wenn angeblich im Namen der Gesundheit Grundrechte und Demokratie beschädigt werden. Das gilt auch dann, wenn eine schlechte Politik nicht mehr unmittelbar zu stoppen ist. Denn es wird wesentlich für den Ausgang juristischer Klagen sein, wenn sich möglichst viel Kompetenz frühzeitig öffentlich positioniert hat. In diesem Sinne Respekt vor den Kollegen, die dieses Positionspapier mit Unterstützung so vieler Fachgesellschaften initiiert haben.

Auch wenn nun versucht wird, die Verfasser in üblicher Weise zu desavouieren, solche öffentlichen Positionierungen sind, wie alle ärztlichen Aufrufe zur Vernunft, immens wichtig.

Nachtrag:

Thomas Maul machte mich auf folgende bemerkenswerte Statistik der zentralen amerikanischen Gesundheitsbehörde CDC aufmerksam. Offiziell werden dort, Stand 10.11.2020, 220.199 „Corona-Tote“ gezählt. (https://www.cdc.gov/nchs/nvss/vsrr/covid19/index.htm) Ganz abgesehen von den Begleiterkrankungen, sie wissen „mit oder an“, wiesen diese Verstorbenen den kritischen Verlauf einer Lungenentzündung ohne Influenza (sic) in einer Zahl von 101.119 auf. Von den anderen 119.000 Toten hatten 94.277 auch eine Influenza Infektion. Wie Influenza ermittelt wurde, z.B. durch einen Test, ist mir nicht bekannt. Das legt den Schluss ziemlich nahe, dass es einen beträchtlichen Anteil an Grippetoten unter den offiziell an Corona-Verstorbenen in den USA gibt. https://www.cdc.gov/nchs/nvss/vsrr/covid_weekly/index.htm#Comorbidities

In eigener Sache:

Manche Leser merken bei meinen Beiträgen an, dass diese zu lang und damit schwer zu lesen sind, manche wiederum finden die Fülle von Information und Aspekten gut. Ich versuche mich kurz zu fassen, was zugegebenermaßen nicht immer gelingt. Im Zweifel geht es im Moment vor allem um breite Information, weil sie in den etablierten Medien einfach fast nur noch einseitig in Form von Panikmache vorkommt. Wenn es nur um meine Deutung der aktuellen Corona-Krise ginge, könnte ich dies in fünf Sätzen ausdrücken. Aber ohne Anspruch, die einzig richtige zu sein.

Deswegen möchte ich Ihnen die Chance geben, eine eigene Deutung zu finden aufgrund der zur Verfügung gestellten Informationen (wenngleich ich mir manchmal Klartext nicht verkneifen kann). Deswegen die Länge. Ich bitte auch zu bedenken, dass dies irgendwo zwischen Sprechstunde und Einschlafen erfolgt, also nebenberuflich. Wäre die Zeit grenzenlos, wären noch tiefergehende Analysen möglich. Ich finde jedoch, dass das, was man in wenigen Stunden recherchieren kann, völlig ausreicht, um das Irrationale der jetzigen Situation deutlich zu machen.

Auch meinen einige Leser, das Ganze sei prinzipiell verlorene Liebesmüh, da die, die es lesen müssten, dies eh nicht tun würden. Das stimmt wahrscheinlich, aber ich bin nun mal Optimist und möchte diesen Fatalismus nicht teilen. Sicher bewirken Berichte wie die meinen kurzfristig wenig. Aber seien Sie gewiss, die Wenigsten, die für den Murks des aktuellen Krisenmanagements verantwortlich sind, sind bösartige, totalitäre Schweinehunde. Vielmehr sitzen sie, aus Gründen, wie ich sie in meinem Moralismus-Beitrag beschrieben habe, in Bezug auf ihre Qualifikation einfach am falschen Platz.

Sie sind komplett überfordert. Ich bekomme so viele ganz hervorragende Rückmeldungen zu meinen Berichten mit eindrücklichen Schilderungen von Kollegen aus Ämtern und Ministerien, die diese Inkompetenz und die Feigheit ihrer obersten Vorgesetzen eindrucksvoll schildern. Dies deckt sich mit meinen Erfahrungen mit Teilnehmern aus Talkshows und Hintergrundgesprächen. Der Fall Stephan Kohn steht exemplarisch für die Unfähigkeit und Feigheit der Vorgesetzten eines gesamten Ministeriums.

Das bedeutet: dranbleiben. Nicht in die eigene Panik-Frustrations-Falle laufen. Wir leben in einer Demokratie, und wir haben eine leistungsfähige Justiz, wenn auch zu häufig mit Schlagseite. Doch die vielen juristischen Rücknahmen von Corona-Maßnahmen stimmen hoffnungsvoll, sind sie doch eine Ohrfeige für die Politik. Auch werden die Klagen gegen Facebook von Achgut stets gewonnen, dank Joachim Steinhöfel und den finanziellen Unterstützern.

Gegen Inkompetenz wird sich sachliches Dagegenhalten, wo immer man ist, langfristig auszahlen. Corona bietet eine große Chance für einen allgemeinen Stimmungsumschwung, weg von Moralismus hin zu Vernunft. Ich wage mich mal vor: Spätestens im Frühjahr werden die meisten das Panik-Inkompetenz-Corona-Krisenmanagement am eigenen Leib spüren, finanziell und psychologisch. Sie werden zunehmend fragen, wozu eigentlich. Dann wird die Bereitschaft, die wirklichen Zahlen endlich wahrzunehmen, deutlich zunehmen. Die Mühlen der Demokratie mahlen langsam, aber sie mahlen.

Der Beitrag erschien zuerst bei ACHGUT hier




Die Elektrifizierung des Krieges

Bei diesen Gegnern hat man es weniger mit Kalaschnikows und „Panzerfäusten“, sondern mit präzisen Mittelstreckenraketen, einer funktionstüchtigen Luftabwehr und elektronischer Kriegsführung zu tun. Das alles vor allem in den Weiten des Pazifiks – für Amerikaner tauchen dabei sofort die Trauma von Perl Harbor, den Philippinen und dem blutigen „Inselhopping“ auf dem Weg nach Japan auf. In einer breiten Allianz zwischen den Parteien im Kongress und Senat ist bereits der Umbau der Teilstreitkräfte eingeleitet worden. An dieser Stelle kommt die Kernenergie mit riesigen Schritten ins Laufen.

Die Rolle der Stützpunkte

Stützpunkte (Flugbasen, Häfen etc.) haben den Bedarf von Kleinstädten an elektrischer Energie und Wärme. Sie müssen auch und gerade im Krieg sicher versorgt werden. Um welche finanzielle Größenordnung es sich dabei dreht, sieht man an den Energiekosten von 3,4 Milliarden US$ des US-Militärs (Fiskaljahr 2018) für seine 585 000 Einrichtungen und seine 160 000 Unterstützungsfahrzeuge. Damit im Kriegsfall diese Einrichtungen und die kämpfende Truppe sicher versorgt werden können, ist ein erheblicher logistischer Aufwand nötig. Nicht nur das, in den neun Jahren des Irak- und Afghanistan-Krieges sind 52% aller Opfer (18 700 Kriegsopfer) bei den Versorgungsfahrten eingetreten. Eine typische vorgeschobene Basis mit einer Grundlast von 13 MWel benötigt 16 000 Gallonen Diesel täglich. Das entspricht allein etwa sieben Tankwagen täglich. In den Weiten des Pazifiks unter feindlichen U-Booten und dem Beschuß durch Präzisionsmunition kaum zu leisten. Hier kommt die Idee des Einsatzes von Kernreaktoren. Durchaus keine neue Idee, aber mit neuer Technologie und neuen Randbedingungen.

Wie gewaltig die Stückzahlen sind, ergibt eine Studie der US-Army. Man hat zahlreiche Stützpunkte untersucht und kommt zum Schluß, daß man etwa 35 bis 105 Reaktoren mit einer elektrischen Leistung von 10 MWel und 61 bis 108 Reaktoren mit 5 MWel benötigt. Parallel hat das DOD („Verteidigungsministerium“) eine Untersuchung der Einrichtungen „in der Heimat“ (continental United States (CONUS)) durchgeführt. Es kommt zum Schluß, es sind 500 (!) Mini-Reaktoren sinnvoll. Abgesehen von den Einrichtungen in abgelegenen Regionen, werden die meisten Anlagen aus den öffentlichen Netzen versorgt. Man ist aber besorgt, daß die öffentlichen Netze immer anfälliger werden (Naturkatastrophen, Wind und Sonne etc.). Versorgungssicherheit ist aber für eine moderne Armee mit Radaranlagen, Raketenabwehr und totalem Kommunikationsanspruch überlebenswichtig. Im zweiten Weltkrieg konnte man notfalls einen Flugplatz noch mit Petroleumlampen betreiben – eine Abwehr von Interkontinentalraketen ohne Strom für das Rechenzentrum und das Phasenradar ist so wertvoll wie eine Steinaxt. Insofern stellen sich hier notwendige Investitionen anders dar: Da die Versorgungssicherheit im Vordergrund steht, muß auch beim Bezug „billiger Energie“ aus dem öffentlichen Stromnetz trotzdem die volle Leistung über Dieselanlagen vorgehalten werden.

Laserwaffen etc.

Seit dem (in Deutschland verlachten) „Krieg der Sterne“ Programm von Ronald Reagen, wird die Entwicklung von Hochenergie-Lasern mit Hochruck vorangetrieben. Die Klasse unter einem kW geht bereits an die Truppe, die Klasse bis 150 kW ist in der Erprobung. Die erste Anlage zur Abwehr von Drohnen ist bereits auf einem Schiff im Golf im Einsatz. Drohnen sind sehr billig und effektiv, wie man spätestens nach dem Einsatz durch den Iran gegen Ölanlagen in Saudi Arabien feststellen mußte. Weil sie so billig sind, kann man durch einen Sättigungsangriff schnell auch modernste Luftabwehr überfordern. Als Gegenmaßnahme bleiben nur Laser zum Schutz der Anlagen im Nahbereich – ohne teuere Raketen, sondern nur mit „Energie“.

Ein weiterer Schritt sind Geschütze (rail gun), die massive Geschosse mit mehrfacher Schallgeschwindigkeit über große Entfernungen sehr präzise verschießen. Die erste Installation sollte auf den Zerstörern der Zumwalt-Klasse erfolgen. Dies sind vollelektrische Schiffe, die ein Gasturbinenkraftwerk zur wahlweisen Energieversorgung besitzen. Dieses Konzept hat sich aber nicht bewährt, da die elektrische Belastung (Trägheit des Bordnetzes durch An/Abschaltung so großer Leistungsspitzen, Wellenbildung im Bordnetz usw.) die gesamte Stromversorgung des Schiffes gefährdet. Man favorisiert z. Zt. deshalb sogar auf Schiffen separate „Mini-Reaktoren“.

Die Elektromobilität

Fahrzeuge mit Elektroantrieb besitzen zwei militärische Vorteile: Sie sind leise und haben nur sehr geringe Abwärme – sind also nur schwer zu orten. Erste Kleinlaster für den Einsatz bei Spezialeinheiten sind mit Elektroantrieb in der Erprobung. Grundsätzlich gilt auch hier, der Bedarf an elektrischer Leistung für Elektronik und (später) Bewaffnung nimmt stetig zu. Im Moment deutet sich deshalb ein Übergang zu hybriden Antriebssystemen an. Der immer größer werdende Bedarf an elektrischer Energie soll dann bei Stillstand (teilweise) aus Batterien gedeckt werden. Als Nebenprodukt ergibt sich noch der etwas geringere Spritverbrauch durch Vermeidung ungünstiger Teillast. Wenn es gelänge, hoch mobile Kleinstreaktoren in Frontnähe zur Verfügung zu haben, könnte bei einer Umstellung auf vollelektrische Fahrzeuge der erforderliche Nachschub auf ein Minimum begrenzt werden. Alle hierfür notwendigen Unterstützungseinheiten würden für den Fronteinsatz frei. Ganz besonders groß ist das Interesse bei den US-Marines: Bei einer Konfrontation mit China müßten deren Einheiten sich möglichst schnell auf unterschiedlichen kleinen Inseln bewegen, um einer Vernichtung durch Mittelstreckenraketen etc. zu entgehen. Die Logistik – tausende Meilen von der Heimat entfernt – ist dabei das zentrale Problem. Diese Problematik ergibt sich bereits bei der Abschreckung um den Frieden zu bewahren.

Die Finanzierung

Wichtig ist in diesem Zusammenhang, daß es in den USA eine breite Unterstützung für die Kernenergie quer durch die Parteien gibt. Dies schließt sogar „Umweltschutzgruppen“ mit ein. Eine völlig andere Situation als in Merkelhausen. Widerstände kommen in den USA – wenn überhaupt – nur aus der fossilen Industrie. Selbst dort muß man noch deutlich unterscheiden: Die Kohleindustrie kämpft inzwischen selbst ums Überleben. Der „Feind“ ist nicht mehr nur die Kernenergie, sondern auch der Erdgassektor, der durch den Hype um Wind- und Sonnenenergie einen totalen Imagewandel erfahren hat. Jede neue Windmühle und jeder zusätzliche Sonnenkollektor fördert den Absatz von Erdgas (Dunkel-Flaute) bei der Stromerzeugung. Deutlich erkennt man diese Tendenz bereits in Texas: Kohlekraftwerke werden geschlossen und Gaskraftwerke neu in Betrieb genommen. Der Druck kommt über die „Alternativenergien“, für die Texas geradezu ideale Vorraussetzungen hat (dünne Besiedelung, recht stetige Winde vom Golf und jede Menge Sonnenschein). Hinzu kommen noch günstige Gaspreise (Begleitgas aus der Ölförderung) bei allerdings zunehmenden und preisstabilisierenden Exporten (nach Mexiko per Rohrleitungen und nach Übersee als verflüssigtes Erdgas).

Bisher haben die vom Kongress zugewiesenen Mittel sogar die Anforderungen der Verwaltung übertroffen. So wurden im Haushaltsjahr 2020 für das DOE’s Office of Nuclear Energy („Fachbereich Kernenergie des Energieministeriums“) nicht nur $1,49 Milliarden für die Kernenergie-Forschung bereitgestellt, sonder $230 Millionen Dollar zweckgebunden für ein „Programm zur Demonstration fortschrittlicher Reaktoren“. Im Rahmen dieses Programms wurden drei Wege für die Kooperation mit der Privatwirtschaft beschlossen: Förderung von zwei „Demonstrationsvorhaben“ innerhalb der nächsten 5–7 Jahre, Risikominimierung bei Vorhaben, die einen erwarteten Entwicklungsbedarf von 10 Jahren haben und „fortschrittliche Reaktorkonzepte“ die einen Zeithorizont von mehr als 15 Jahren besitzen.

Der Kongress (Mehrheit Demokraten) hat das DOD („Verteidigungsministerium“) bereits 2019 (also Während der Präsidentschaft von Trump) aufgefordert seine Stützpunkte durch „Minireaktoren“ unabhängiger von der öffentlichen Stromversorgung zu machen (siehe 2019 National Defense Authorization Act (NDAA) Section 327 ). Darin wird gefordert, mindestens einen Stützpunkt bis zum 31.12.2027 durch einen zugelassenen „Minireaktor“ zu versorgen. Das DOD’s Office of Acquisition and Sustainment („Beschaffungsstelle des US-Verteidigungsministeriums“) arbeitet dafür eng mit dem DOE („Energieministerium“) zusammen. Ebenfalls 2019 wurden $70 Millionen im Haushaltsjahr 2020 für ein Konstruktions- und Testprogramm für mobile Kleinstreaktoren zur Versorgung vorgeschobener Militärbasen eingestellt. Dies war der Start des „Projekt Pele“. Im März 2020 wurden knapp $40 Millionen für die Unternehmen BWXT, Westinghouse, und X-energy für einen zweijährigen Konstruktionszeitraum bewilligt. Danach soll ein Prototyp beim National Laboratory (INL) gebaut und 2024 mit einer C-17 zu einem Stützpunkt in Alaska geflogen werden, um die Mobilität und den Betrieb unter Praxisbedingungen zu demonstrieren. Damit es mit der Kerntechnik vorangehen kann, hat das DOD im Haushaltsjahr 2021 über $100 Milliarden für Forschung, Entwicklung, Tests, und Auswertung (RDTE) beantragt. Das ist der größte Betrag in der Geschichte des DOD. Allgemein wird geschätzt, daß für die Umsetzung des „Minireaktor-Programms“ insgesamt $500 Millionen benötigt werden.

Genehmigungsproblematik

Eigentlich kann das US-Militär Reaktoren bauen wie es will. Beispiel hierfür sind die zahlreichen Reaktoren für U-Boote und Flugzeugträger. Übrigens mit einer exzellenten Verfügbarkeit und Sicherheitsbilanz. Allerdings mit einem entscheidenden juristischen Unterschied: Die Schiffe sind amerikanisches Territorium. Man braucht mit ausländischen Häfen nur über eine Genehmigung zum Einlaufen bzw. den einzuhaltenden Regularien zu verhandeln. Für Stützpunkte in anderen Ländern geht das sicher nicht. Dort wird man sich den jeweiligen nationalen Genehmigungsverfahren unterwerfen müssen. Das gilt schon für den Transport mobiler Reaktoren dort hin. Insofern ist es folgerichtig, daß man von Anfang an eine Zulassung durch das NRC (Genehmigungsbehörde für kommerzielle Kernkraftwerke) anstrebt. Da immer noch die Zulassung durch das NRC als internationaler „Goldstandard“ betrachtet wird, wird dies die Genehmigung im Ausland stark vereinfachen und beschleunigen.

Ganz so einfach ist die Sache allerdings nicht. Das NRC ist bisher auf die Genehmigung von Leichtwasserreaktoren spezialisiert. Für „fortschrittliche Reaktoren“ mit anderen Kühlmitteln, Brennstoffen und Sicherheitssystemen sind noch erhebliche Vorarbeiten zu leisten, bis das Risiko qualitativ und quantitativ nachvollziehbar bemessen werden kann. Je mehr Unternehmen mit unterschiedlichen Konzepten kommen, um so mehr kommt das NRC an seine Kapazitätsgrenzen. In diesem Fiskaljahr beträgt ihr Etat rund $860 Millionen, wovon etwa $430 Millionen auf die Reaktorsicherheit entfallen.

Kommerzieller Ausblick

Das US-Militär arbeitet schon immer eng mit der Privatwirtschaft zusammen und man ging schon immer unkonventionelle Wege: In den 1950er Jahren entwickelte man die Sidewinder Flugabwehrrakete: Einmal abgeschossen, suchte sie sich selbst über ihren Infrarot-Suchkopf ihren Weg ins feindliche Ziel. Ein echter Gamechanger im Luftkampf. Die Sache hatte nur einen Harken: Man brauchte große Stückzahlen, was aber beim damaligen Stand der Halbleitertechnik schlicht zu teuer war. Man ging einen typisch kapitalistischen Weg: Um die Stückpreise zu senken, brauchte man zusätzliche Stückzahlen aus dem zivilen Sektor. Die Spielkonsole war geboren.

In Punkto „Mini-Reaktoren“ zeichnet sich der gleiche Weg ab. Man kann bereits Minengesellschaften für solche Reaktoren begeistern. Überall wo Diesel-Kraftwerke in abgelegenen Regionen im Einsatz sind, besteht wegen der hohen Stromkosten ernsthaftes Interesse. Ein weiteres Einsatzgebiet ergibt sich aus dem Hype für Elektrofahrzeuge. Will man Schwerlaster elektrifizieren, braucht man überall dort, wo man heute Tankstellen hat, Ladestationen. Diese brauchen aber enorme Leistungen, wenn man einen LKW auch in etwa 20 Minuten voll aufladen will. Hier kommen flugs Minireaktoren ins Spiel. Mit ihnen könnte man kontinuierlich Wärmespeicher beladen, die anschließend bei Bedarf große Spitzenleistungen über Dampfturbinen bereitstellen könnten. Es gibt bereits Pläne in Zusammenarbeit mit den Marketing-Genies von Tesla. Da freut sich doch das Grüne-Öko-Herz oder vielleicht doch nicht?

Der Beitrag erschien zuerst auf der Website des Autors hier




Winter-Orakel – und kein Ende ?

Der Herbst ist da, der Winter steht bevor – und nun geht es also in den Medien wieder „rund“ :

()   BILD (04.11.2020):

„Deutschland steht ein Wärme-Winter bevor … für den Dezember wird ein Plus von zwei Grad über dem langjährigen Durchschnitt erwartet, für den Januar sogar ein Plus von drei Grad. Also ein richtiger Mildwinter, kein Jahrhundertwinter mit Schnee und Frost.“

()  SONNTAGSZEITUNG ZÜRICH (25.10.2020):

„An ihrer Herbstversammlung sind sich die lnnerschweizer Wetterpropheten einig: Es gibt diesen Winter viel Schnee … Martin Holdener prophezeite eine •sehr weiße Weihnacht•. Im Dezember gebe es viel Schnee bis ins Flachland … Auch andere Wetterpropheten gehen für die Weihnachtstage von winterlichem Wetter und Schnee aus … Der Winter werde in die Geschichte eingehen …“.

()  LEIPZIGRER VOLKSZEITUNG(02.11.2020):

 „Wintertrend enttäuscht Ski- und Rodelfans … Und auch die Langfrist-Prognose zum Winter 2020/21 verspricht keine weißen Landschaften. Im Gegenteil: Die letzte Trend-Aktualisierung des amerikanischen Wetterdienstes NOAA dürfte Ski- und Rodelfans eher schockieren … Der klassische Wintermonat Januar könnte sogar komplett ins Wasser fallen …“.

… NUN, viel krasser können die Gegensätze derartiger Prophezeiungen kaum sein !? Ob es jemand merkt ? Wer erinnert sich nach Wochen oder gar Monaten noch an derartige „Prognosen“? Wenn schon in früheren Jahren in den Medien von z.B. „extremster Winter seit Menschengedenken“die Rede war, dann pflegte der erfahrene langjährige Abteilungsleiter im Seewetteramt Dr. Heinrich Kruhl zu sagen:

„Menschengedenken beim Wetter währet ein Jahr!“

Ähnlich kurz ist offensichtlich das Gedächtnis mancher Medien, d e n n – sonst würden sich auch die Redaktionen derartiger Winter-Prognosen erinnern an die „HAMBURGER ERKLÄRUNG 2011“ von etwa 100 Meteorologen anläßlich des dortigen Extrem-Wetter-Kongresses, worüber die in den Medien sehr ausführlich berichtet wurde :

… und an anderer Stelle (AUGSBURGER ALLGEMEINE 12.04.2011) :

„LANGFRISTIGE WETTERVORHERSAGEN: Meteorologen gehen gegen unseriöse Wetterprognosen vor: Meteorologen fürchten um ihr Image, denn unseriöse Wettervorhersagen häufen sich. Dagegen soll auf dem Extremwetterkongreß in Hamburg nun eine Erklärung unterzeichnet werden. Nach dem heutigen Stand von Wissenschaft und Technik sind detaillierte langfristige Prognosen unmöglichHeute schon wissen, ob im Juni die Sonne scheint, das möchte jeder. Es gibt auch einzelne meteorologische Experten, die meinen, schon Monate im Voraus vermeintlich präzise Wetterprognosen für ganze Jahreszeiten oder bestimmte Regionen machen zu können. Solche Vorhersagen haben dann, wenn sie genau betrachtet werden, die schwammige Aussage eines Horoskops. Und weil sie meist unzutreffend sind, ärgern sich die seriösen Meteorologen und fühlen sich allesamt in ‚Sippenhaft‘.“

Dabei wird man den Kollegen bei den Extremwetterkongressen nicht unterstellen, daß diese aus der „Szene der Klima-Skeptiker“ kommen.

Auch beim Deutschen Wetterdienst DWD hat man sich eindeutig zu derartigen unseriösen Langzeit-Prognosen geäußert (August 2013) [1] :

„Ist es Ihnen heute schon aufgefallen? In 4 Monaten ist Weihnachten. Gut, wenn Sie sich noch keine Gedanken über Weihnachtgeschenke gemacht haben ist das nicht schlimm. Es ist ja noch etwas Zeit. Aber, daß noch kein Journalist nach dem Weihnachtswetter gefragt hat, kommt mir schon etwas seltsam vor. In den Printmedien geisterte ja in den letzten Tagen schon eine Vorhersage für den kommenden Winter herum. Angeblich soll er sehr kalt und streng werden. Wie schön, daß doch manche Kaffeesatzleser dies schon wissen. Sollte der Winter aber wider erwarten eher mild ausfallen, dann wird sich an diesen Quatsch wohl auch kaum noch jemand erinnern. Das ist der große Vorteil von solchen Langfristvorhersagen. Seriöse Meteorologen werden sich aber kaum auf dieses dünne Eis begeben. Denn alles, was über einen Zeitraum von 8 bis 10 Tagen in der Vorhersage hinausgeht, bleibt immer noch im Reich der Mystik.“ (gez.f.d.DWD von Dipl.-Met. Helmut Malewski).

Sachliche Analysen und Aussagen zu „Witterungs-Langfrist-Prognosen“ wurden von Meteorologen auch immer wieder schon in früheren Jahren publiziert, z.B. in der  Naturwissenschaftliche Rundschau [2] :

„… Darüber hinaus sind der kurzfristigen, insbesondere aber der mittelfristigen Vorhersage physikalische Grenzen gesetzt. Zunächst spielen sich in der Atmosphäre hochkomplizierte Wechselwirkungen ab, nochdazu in extrem verschiedenen Größenordnungen: vom sekundenschnellen Hitzeflimmern bis zum tagelang tobenden Wirbelsturm, von kleinsträumigen Umwandlungen der Wassermoleküle bis zum gewaltigen Monsunregen, vom Staubteufel über dem Acker bis zur 3000 km langen atlantischen Wetterfront. Es laufen in allen Richtungen sogenannte Energie-Kaskaden in der Atmosphäre ab. Die vom kleinräumigen zum großräumigen gerichteten Umwandlungen verändern während eines mehrtägigen Vorhersagezeitraumes die Randbedingungen des Rechenmodells. Die Atmosphäre „vergißt“ ihren Anfangszustand. Das ist für die Computermodelle ab einem gewissen Zeitraum tödlich. Daher geht man heute davon aus, daß die äußerst erreichbare Vorhersagegrenze auch im nächsten Jahrhundert kaum über zwei Wochen hinausgehen wird. …

Das Problem der Prognose von Klimaschwankungen aufgrund extraterrestrischer Einflüsse sowie langzeitiger Wechselwirkungen zwischen Atmosphäre, Eis, Ozeanen und Landmassen ist noch viel komplizierter …“.

Wechselwirkungen der atmosphärischen Parameter [7]

… o d e r   in den Technischen Mitteilungen „Spektrum des Wissens“ [3] :

Die Grenzen der Vorhersagbarkeit: Der numerischen Wettervorhersage sind für alle Zeiten physikalische Grenzen gesetzt: Durch die nur hinreichend genaue Bestimmung des Ausgangszustandes, durch die extreme Komplexität der mathematischen Gleichungs-Systeme und durch den mathematisch-chaotischen Anteil der Atmosphären-Physik. Das Beobachtungsnetz zu Lande, zu Wasser und in der Luft kann schon aus Kostengründen niemals soweit verdichtet werden, daß es den physikalischen Anforderungen des Modells gerecht wird. Es bleiben also schon beim Start des Modells Ungenauigkeiten, die sich im Verlauf der Berechnungen von Tag zu Tag potenzieren und schließlich dazu führen, daß das Modell gewissermaßen „aus dem Topf schwappt“. Außerdem sind die Differentialgleichungen so kompliziert. daß man sich immer mit Näherungslösungen zufrieden geben muß, und seien diese noch so gut. Schließlich hat die Atmosphäre in ihrem physikalischen Verhalten einen deterministischen und einen chaotischen Anteil; je weiter sich die atmosphärischen Prozesse vom Ausgangszustand entfernen, um so mehr „vergißt“ die Atmosphäre diesen. Dabei hat die Atmosphäre die rechnerisch unbequeme Eigenschaft, daß die Energie-Kaskaden sich umkehren können, (theoretisch): Der Flügelschlag eines Schmetterlings kann über eine Ursachen-Wirkungs-Kette einen Wirbelsturm verursachen. Nach alledem geht man heute davon aus, daß die Grenzen der Wetter-Vorhersagbarkeit bei zwei Wochen liegen. Das heißt natürlich auch, daß mit dem heutigen Stand die Möglichkeiten der Wetterprognose noch längst nicht ausgeschöpft sind.“

Bei alledem muß man aber auch anerkennen, daß in seriösen Medien die naturwissenschaftliche Wahrheit zu den Grenzen der Vorhersage-Modelle durchaus publiziert wird, wie z.B. FAZ (21.10.2016 [6]) :

„Langfristige Wettervorhersagen : Wie der Winter wird, weiß kein Mensch.“

„Einmal war es eine absichtsvoll mißverstandene Aussage eines polnischen Klimaforschers, der angeblich vor einem Eiswinter warnte, dann ein mysteriöser Bienenforscher, der derlei Schlagzeilen auslöste. Im vergangenen Jahr stützten sich solche Jahreszeitenprognosen schließlich auf einen Naturbeobachter aus Oberbayern, dem der Bayerische Rundfunk gleich ein ganzes Filmteam vorbeischickte, um seine früh verblühte Königskerze aufzunehmen. Die wiederum sollte auf einen Jahrtausendwinter deuten. Funktioniert hat die Prognose am Ende natürlich nicht. Aber gegen ein bißchen Angstlust auf Eiseskälte haben auch seriöse Medien in der Regel nichts einzuwenden.“

„Wie viel Zukunft dürfen die Wissenschaftler wagen, ohne daß sie ihre Glaubwürdigkeit verlieren? Der Ausblick für die nächsten sieben Tage immerhin gelingt heute schon genauso gut wie eine Zweitagesprognose im Jahr 1968. Eine Woche im Voraus also kann man heute mit einiger Sicherheit das Wetter prognostizieren, bei besonders beständigen Wetterlagen auch länger, jedoch nie mehr als zehn Tage. Denn Wetterprozesse sind in einem physikalischen Sinne chaotisch: Minimale Veränderungen in der Atmosphäre können auf lange Sicht zu völlig unterschiedlichen Wetterlagen führen.“

Modell-Grenzen  –  ob Wetter oder Klima

Mit den Grenzen der Vorhersagbarkeit von Wetter- und Klima-Modellen hat sich auch immer wieder der Diplom-Meteorologe Christian Freuer beschäftigt, hier einige seiner Zusammenstellungen :

  

F a z i t :

Wir wissen nicht, wie Wetter und Witterung [4] übernächste Woche oder gar übernächsten Monat sein werden. Wir wissen aber, wie das Klima in 10…50…100 Jahren sein wird !? Erstaunlich! Erstaunlich um so mehr, wenn man berücksichtigt, daß nach Definition der WMO „Klima“ der statistische Mittelwert von Wetter&Witterung ist [5]. Und bei Letzterem ist mit einer seriösen Prognose nach einer Woche Schluß !

==================================================================

Q u e l l e n :

[1] DWD, Offenbach, den 24.08.2013; Thema des Tages: Weihnachtswetter ? http://www.dwd.de/

[2] Naturwissenschaftliche Rundschau, 12 (1988), S.485-492:  Wettervorhersage gestern und heute.

[3] SPEKTRUM DES WISSENS; Technische Mitteilungen H.4 (1994), S.171-180;  Ist die Wettervorhersage ihr Geld wert ?

[4] Wetter … Witterung … Klima … : Verwirrung für alle Zeiten ? 02.05.2020 :

https://eike.institute/2020/05/02/wetter-witterung-klima-verwirrung-fuer-alle-zeiten-2/

[5]  Def. (DWD): „Das Klima ist definiert als die Zusammenfassung der Wettererscheinungen, die den mittleren Zustand der Atmosphäre an einem bestimmten Ort oder in einem mehr oder weniger großen Gebiet charakterisieren. Es wird repräsentiert durch die statistischen Gesamteigenschaften (Mittelwerte, Extremwerte, Häufigkeiten, Andauerwerte u. a.) über einen genügend langen Zeitraum. Im allgemeinen wird ein Zeitraum von 30 Jahren zugrunde gelegt, die sog. Normalperiode…“  <https://de.wikipedia.org/wiki/Klima>

[6]  FAZ, 21.10.2016 ;  https://www.faz.net/aktuell/wissen/erde-klima/langfristige-wettervorhersagen-14483100.html

[7] MAJEWSKl, D.: Das Deutschland-Modell des DWD, in: Numerik und Synoptik, Fortbildungsveranstaltung DMG, Selbstverlag 1994, S. 55 -70

==================================================================

PDF hier anbei : Puls.Langfrist-Prog.Wetter.Tx.kpl

====================================




Fabrikation von Irrefüh­rungen bzgl. Klima­wandel

Obwohl wir eindeutig keine Verschwörungstheoretiker sind, war die vom Menschen verursachte globale Erwärmung oder der Klimawandel (man suche sich etwas aus) ein Mechanismus, der in der ganzen Welt genutzt wurde, um Regierungen dazu zu bringen, zu einer Eine-Welt-Regierung zu konvergieren und den Kapitalismus zugunsten des Weltsozialismus zu zerschlagen. Das Mittel der Wahl ist die Verwendung gut gewählter Fakten, wobei Fakten, die nicht als nützlich erachtet werden, beiseite geschoben werden, um zu täuschen. In der Wissenschaft nennt man das „Cherry Picking. Da es an Ethik mangelt, wählt man nur die Fakten aus, die seine Überzeugungen unterstützen, während man diejenigen ignoriert, die das nicht tun.

Im ersten Teil dieser zweiteiligen Serie verwendeten wir Material direkt aus Regierungsberichten, in denen auf die fehlenden Informationen hingewiesen wurde, um der Öffentlichkeit eine unehrliche Darstellung der Informationen zu liefern. Das tun wir auch hier.

Mit diesem Artikel können wir veranschaulichen, wie NASA/NOAA und das IPCC die Täuschung fördern, indem sie durch absichtliche Auslassungen ein falsches Verständnis bei unbedarften Lesern erzeugen. In diesem Aufsatz konzentrieren wir uns auf die letzte Hälfte des Artikels, in der die NASA in ihren Bemühungen, den Leser davon zu überzeugen, dass die Menschheit den Thermostat der Erde kontrolliert, die Kommentare der NASA zu Mars, Venus und unserer Sonne wiedergibt.

Der Artikel ist von der National Aeronautics and Space Agency (NASA), die am 16. September 2020 erschien, wird ohne Änderungen außer der Formatierung zum bequemen Lesen wiedergegeben. Das Original finden Sie, wenn Sie hier klicken. Vielleicht möchten Sie zuerst das Original lesen.

Kursiv gesetzt kommentieren wir im Anschluss an jedes letzte Segment des NASA-Artikels die von der NASA erzeugten Täuschungen. Ohne Kenntnis aller Fakten wird der Gelegenheitsleser zu dem vom Autor gewünschten falschen Eindruc k gelangen. Ein Beispiel dafür, wie unvollständige Informationen einen falschen Eindruck erwecken, ist in Abbildung 1 dargestellt:

Hier betrachten wir alle verfügbaren Daten über die Beziehung zwischen A und B, bei denen es sich um abhängige Variablen handeln könnte, z.B. wie A (Sonnenstrahlung) und B (atmosphärische Temperatur) miteinander variieren. Betrachtet man alle Daten, so ist die als Trend 1 dargestellte Beziehung eindeutig richtig. Wenn wir uns jedoch dafür entscheiden, nur eine kleine Auswahl von Daten zu verwenden, können wir zu jedem gewünschten Trend gelangen. Dies ist die Technik, die viele Regierungsbehörden anwenden, um falsche Eindrücke zu erwecken.

Nicht genug Treibhaus-Effekt: [11] Der Planet Mars hat eine sehr dünne Atmosphäre, die fast ausschließlich aus Kohlendioxid besteht. Wegen des niedrigen atmosphärischen Drucks und mit wenig bis gar keinem Methan oder Wasserdampf, die den schwachen Treibhauseffekt verstärken, hat der Mars eine weitgehend gefrorene Oberfläche, die keine Anzeichen von Leben zeigt.

[11] Eine wahrheitsgemäße Aussage impliziert eine glatte Täuschung. Der Mars ist aus vielen Gründen ein toter Planet, von denen keiner etwas mit CO2 oder menschlichen Aktivitäten zu tun hat.

Zu viel Treibhauseffekt: [12] Die Atmosphäre der Venus besteht, wie die des Mars, fast ausschließlich aus Kohlendioxid. Aber auf der Venus befindet sich etwa 154.000 Mal so viel Kohlendioxid in der Atmosphäre wie auf der Erde (und etwa 19.000 Mal so viel wie auf dem Mars), was einen unkontrollierbaren Treibhauseffekt und eine Oberflächentemperatur erzeugt, die heiß genug ist, um Blei zu schmelzen.

[12] Die NASA führt uns erneut durch Unterlassung in die Irre. Die Venus ist viel näher an der Sonne und heißer. Ihre Atmosphäre ist 90-mal dichter als die der Erde, und ihr barometrischer Druck würde einen Menschen zu einem Pfannkuchen zerdrücken. Die Venus ist eine wahre Hölle und aus vielen anderen Gründen als CO2 lebensfeindlich.

Auf der Erde verändern menschliche Aktivitäten [13] das natürliche Treibhaus. Im letzten Jahrhundert hat die Verbrennung fossiler Brennstoffe wie Kohle und Öl die Konzentration des atmosphärischen Kohlendioxids (CO2) erhöht. Dies ist darauf zurückzuführen, dass bei der Verbrennung von Kohle oder Öl Kohlenstoff mit Luftsauerstoff zu CO2 gebunden wird. In geringerem Maße hat die Rodung von Land für Landwirtschaft, Industrie und andere menschliche Aktivitäten die Konzentration von Treibhausgasen erhöht.

[13] Die NASA macht mehrere sachliche Aussagen, aber sehen wir, was sie uns nicht sagt. Verschwiegen werden die proportionalen Werte und der vergleichende Kontext. Zum Beispiel: (1) Ja, wir haben einen Anstieg des gesamten CO2 verursacht, aber es wird nicht erwähnt, dass der vom Menschen verursachte Anstieg vielleicht nur ein paar Prozent des gesamten CO2 ausmacht. (2) Die NASA versäumt es, uns zu sagen, welche und wie viel Prozent der Folgen auf den Menschen zurückzuführen sind. Eine detaillierte Erklärung aller Variablen und ihrer vergleichenden Beiträge finden Sie in dem Buch „A HITCHHIKER’S JOURNEY THROUGH CLIMATE CHANGE“.

[14] Die Folgen der Veränderung des natürlichen atmosphärischen Treibhauses sind schwer vorherzusagen, aber bestimmte Effekte scheinen wahrscheinlich:

[14] Beachten Sie bei den folgenden vier Punkten die wiederholte Verwendung der Worte „wahrscheinlich“, „könnte“, „möglicherweise“. Unter dem Strich weiß die NASA nicht, was erhöhte oder verminderte CO2-Konzentrationen in der Atmosphäre bewirken. Dies gilt insbesondere für Wolken in den Phasenumwandlungen von Wasserdampf in flüssig oder fest. Und auch die klassischen skeptischen Wissenschaftler wissen es nicht. Die Wissenschaft ist einfach zu schwierig, nicht gut verstanden und unmöglich genau zu modellieren.

● Im Durchschnitt wird die Erde wärmer werden. Einige Regionen mögen wärmere Temperaturen willkommen heißen, andere hingegen nicht.

● Wärmere Bedingungen werden wahrscheinlich insgesamt zu mehr Verdunstung und Niederschlag führen, aber die einzelnen Regionen werden unterschiedlich sein, einige werden feuchter und andere trockener.

● Ein stärkerer Treibhauseffekt wird die Ozeane erwärmen und Gletscher und anderes Eis teilweise schmelzen lassen, wodurch der Meeresspiegel ansteigt. Das Ozeanwasser wird sich auch ausdehnen, wenn es sich erwärmt, was zu einem weiteren Anstieg des Meeresspiegels beitragen wird.

● In der Zwischenzeit könnten einige Nutzpflanzen und andere Pflanzen positiv auf das erhöhte atmosphärische CO2 reagieren, kräftiger wachsen und Wasser effizienter nutzen. Gleichzeitig können höhere Temperaturen und sich verändernde Klimamuster die Gebiete, in denen Nutzpflanzen am besten wachsen, verändern und die Zusammensetzung natürlicher Pflanzengemeinschaften beeinflussen.

Die Rolle menschlicher Aktivitäten

In seinem Fünften Zustandsbericht kam das IPCC, eine Gruppe von 1.300 unabhängigen wissenschaftlichen Experten aus Ländern der ganzen Welt unter der Schirmherrschaft der Vereinten Nationen, zu dem Ergebnis, dass die Wahrscheinlichkeit, dass menschliche Aktivitäten in den letzten 50 Jahren unseren Planeten erwärmt haben, mehr als 95 Prozent beträgt.

Sonneneinstrahlung

Die Grafik [15] vergleicht globale Temperaturänderungen (rote Linie) und die Energie der Sonne, die die Erde empfängt (gelbe Linie), in Watt (Energieeinheiten) pro Quadratmeter seit 1880. Die leichteren/dünneren Linien zeigen die jährlichen Niveaus, während die schwereren/dickeren Linien die durchschnittlichen Trends über 11 Jahre zeigen. Elfjährige Durchschnittswerte werden verwendet, um den natürlichen Lärm in den Daten von Jahr zu Jahr zu reduzieren, wodurch die zugrunde liegenden Trends deutlicher werden.

[15] Die NASA verwendet zur Messung der globalen Temperatur nur „Oberflächentemperaturen“, weil diese leicht zu manipulieren sind und manipuliert wurden. Diese Manipulationen wurden im Jahre 2009 durch den „ClimateGate“-Skandal aufgedeckt. Würde man sie durch Satellitentemperaturen ersetzen, hätte die rote Linie den gleichen Trend wie die gelbe Linie.

Die Menge an Sonnenenergie, die die Erde empfängt, folgt dem natürlichen 11-Jahres-Zyklus der Sonne mit kleinen Höhen und Tiefen ohne Gesamtzuwachs seit den 1950er Jahren. Im gleichen Zeitraum ist die globale Temperatur deutlich gestiegen. Es ist daher äußerst unwahrscheinlich [16], dass die Sonne den beobachteten globalen Temperaturtrend des letzten halben Jahrhunderts verursacht hat. Quellenangabe: NASA/JPL-Caltech.

[16] Dies ist von einem Anwalt der NASA geschrieben, der einen dazu bringen soll, so zu denken, wie es von uns erwartet wird. Ich würde zustimmen, wenn es „unwahrscheinlich“ heißen würde, aber wichtiger ist, was sie nicht zu möglichen anderen Ursachen für die Erwärmung sagen, wie oben diskutiert, insbesondere zu galaktischer kosmischer Strahlung und vulkanischen Aktivitäten.

Es ist davon auszugehen, dass Veränderungen in der Energieausbeute der Sonne das Klima verändern würden, da die Sonne die grundlegende Energiequelle ist, die unser Klimasystem antreibt.
[17] Klassische Wissenschaftler kennen die Rolle der TSI beim Klimawandel nicht; vielleicht ist es kaum mehr als ein Thermostat, der dem Ofen sagt, was er tun soll. Siehe unsere obigen Diskussionen über die Ursachen des Klimawandels.

[18] Tatsächlich zeigen Studien, dass die Sonnenvariabilität bei früheren Klimaveränderungen eine Rolle gespielt hat. Beispielsweise wird angenommen, dass eine Abnahme der Sonnenaktivität in Verbindung mit einer Zunahme der vulkanischen Aktivität dazu beigetragen hat, die Kleine Eiszeit zwischen etwa 1650 und 1850 auszulösen, als Grönland von 1410 bis 1720 abkühlte und die Gletscher in den Alpen vorrückten.

[18] Eine wahrheitsgetreue Aussage, um die daraus resultierende Täuschung loszutreten, aber man sagt uns nicht, wann, warum oder wie TSI aufhörte, ein Faktor zu sein.

[19] Aber mehrere Beweislinien zeigen, dass die gegenwärtige globale Erwärmung nicht durch Veränderungen der Energie der Sonne erklärt werden kann:

[19] Hätte die NASA die Satellitentemperaturen anstelle der manipulierten Oberflächentemperaturen verwendet, könnte sie diese Aussage nicht machen.

Seit 1750 ist die durchschnittliche Energiemenge, die von der Sonne kommt, entweder konstant geblieben oder leicht gestiegen.

[20] Wenn die Erwärmung durch eine aktivere Sonne verursacht würde, dann würden die Wissenschaftler wärmere Temperaturen in allen Schichten der Atmosphäre erwarten. Stattdessen haben sie eine Abkühlung in der oberen Atmosphäre und eine Erwärmung an der Oberfläche und in den unteren Teilen der Atmosphäre beobachtet. Das liegt daran, dass Treibhausgase Wärme in der unteren Atmosphäre einfangen.

[20] Satellitendaten zeigen, dass die globale Erwärmung vor etwa 20 Jahren zu Ende ging, was dem Rückgang der TSI entspricht. Es ist nur die gefälschte NASA-Oberflächentemperatur, die weiter ansteigt, weil sie den Anstieg künstlich erzeugt hat.

[21] Klimamodelle, die Änderungen der Sonneneinstrahlung einbeziehen, können den beobachteten Temperaturtrend des vergangenen Jahrhunderts oder darüber hinaus nicht reproduzieren, ohne einen Anstieg der Treibhausgase einzubeziehen.

[21] Klimamodelle können überhaupt nichts mit irgendeiner Genauigkeit genau reproduzieren. Klimamodelle waren und sind weiterhin notorisch ungenau und zeigen Zunahmen von 2 – 3 Grad C mehr als die tatsächlichen Satelliten- und Ballondaten.

Wir alle zahlen einen beträchtlichen Preis für die irreführenden und unverantwortlichen Beiträge der NASA.

– Die Zeitungen/Medien greifen sie schnell auf und benutzen sie, um bedrohliche Schlagzeilen zu fabrizieren, um sich selbst und ihre politischen Ziele, den Sozialismus und eine Eine-Welt-Regierung zu verkaufen.

– Politiker nutzen die Schlagzeilen, um die Unterstützung eines uninformierten öffentlichen Lehrers zu gewinnen, der die Schüler mit der Angst vor einer Zukunft vergiftet, die nicht eintreten wird.

– Wir vertrauen darauf, dass dieses zweiteilige Tutorial dem Leser helfen wird, die Vorhänge besser zu verstehen, die zu viele Regierungsbehörden benutzen, um der Öffentlichkeit die Augen zu verschließen.

Autoren: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Terigi Ciccone Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

Link: https://www.cfact.org/2020/11/02/manufacturing-climate-change-deceptions-part-two/

Übersetzt von Chris Frey EIKE




„Ce n’est pas le moment“ – jetzt nicht, liebe Bundesregierung

Das sind Trinkhalme, Rührstäbchen für den Kaffee, Einweg-Geschirr aus konventionellem Plastik und aus „Bioplastik“ sowie To-go-Becher und Einweg-Behälter aus Styropor (der gleiche Stoff übrigens, der wegen der Dämmvorschriften tonnenweise an die Häuser geklebt wird). Das Bundeskabinett hat das gerade beschlossen, und jetzt braucht es der Bundesrat nur noch abzunicken, dann ist es durch und wird im Lande der Weltretter zum ehernen Gesetz.

In welcher Blase müssen Politiker leben, die so etwas während des Lockdowns beschließen? Die Webseite der Bundesregierung schreibt dazu: „Immer mehr Menschen konsumieren Essen außer Haus oder lassen es sich liefern. Einen Kaffee ‚to go‘, ein Schnitzel oder asiatische Nudeln in der Styropor-Box – ausgetrunken, aufgegessen, Verpackung weggeschmissen. Das ist bequem, aber wir verursachen damit immer mehr Müll.“ Dieser Satz strotzt nur so von Arroganz der herrschenden Elite gegen ihre Bürger. Gehören doch genau sie selbst zu den Menschen, die ebenfalls Essen außer Haus konsumieren und dann die „Verpackung wegschmeißen“.

Die Bundesregierung verbietet das Material, das den Leuten zum Essen außer Haus dient, nachdem sie den Verzehr in Gaststätten untersagt hat. Ist in der politischen Blase in Berlin nicht bekannt, dass in Deutschland Plastikabfälle nicht einfach in die Weltmeere geschmissen werden, sondern von den meisten braven Bürgern im gelben Sack gesammelt und einer geordneten Verwertung zugeführt werden?

Mancher Gastronom überlebt mehr schlecht als recht die von der Regierung verordnete Zwangsschließung seiner Gaststätte dadurch, dass er Essen außer Haus verkauft. Soll er seine Gerichte künftig in die Alpenprawda wickeln, wie es einst in England mit Fish and Chips geschah?

Brutal die letzte Luft zum Überleben abwürgen

Was ist mit den Kellnern, Friseuren, Yogatrainern, Masseuren, Kleinkünstlern und Sonstigen, denen die Regierung die Ausübung ihres Berufes untersagt hat und die jetzt als „Essensboten“ mit ihrem Fahrrad den eingesperrten Bürgern das Restaurantessen an die Wohnungstür liefern, um sich damit ein schmales Auskommen zu ermöglichen? Sollen sie den Hackbraten mit Soße und Gemüse direkt in ihre Thermotransporttaschen kippen? Die Politiker bedenken in ihrem Elfenbeinturm offenbar nicht, wem sie da brutal die letzte Luft zum Überleben abwürgen. Nämlich denjenigen, die sich am striktesten an die Regeln der Gängelung gehalten haben.

Es gibt alle möglichen Gründe, nicht selbst zu kochen, in die sich Politiker nicht hineinversetzen können. Es gibt Menschen, deren einziger gesellschaftlicher Kontakt darin besteht, dass sie irgendwo in einer Gaststätte ein bescheidenes Mittag- oder Abendessen einnehmen. Ich kenne einen Witwer, dem es so geht. Die Frau ist ihm weggestorben, als er 83 war. Er hat nie kochen gelernt, er will es auch nicht mehr. Denn in seiner kleinen Kneipe trifft er den einen oder anderen Leidensgenossen zu einem Schwätzchen. Das darf er jetzt nicht mehr. Doch nun will ihn die Politik noch zu kaltem Dosenfutter verdonnern. Auch wenn sich Politiker das nicht vorstellen können, es gibt Leute, die in ihrer bescheidenen Bleibe keine funktionstüchtig eingerichtete Küche haben, und daher gar nicht kochen können. Nicht jeder verdient mehr als 10.000 Euro im Monat als „Abgeordneten-Diät“.

Politiker gefallen sich darin, Probleme zu lösen, die sie erst selbst geschaffen haben und von deren Krampflösungen sie selbst nicht betroffen sind. So bleibt die Kantine des Abgeordnetenhauses Berlin offenbar nur für externe Gäste geschlossen. Auf deren Webseite heißt es:

„Bitte beachten Sie: Da der Zugang zu unserem Haus derzeit stark eingeschränkt ist, ist auch der Besuch der Kantine ist für externe Mittagsgäste zunächst bis 31.12.2020  nicht möglich. Vielen Dank für Ihr Verständnis!“ 

Das bedeutet wohl, dass die Abgeordneten von richtigen Tellerchen mit richtigen Löffelchen essen können und kein Plastikgeschirr brauchen, Frühstück 8 bis 11 Uhr, Mittagstisch von 11:30 bis 14:15 Uhr. Bon Appétit.

Das dicke Ende kommt im nächsten Jahr

Ich wollte kürzlich in einer Autobahnraststätte einen Espresso trinken. Es gab eine wunderbare italienische Kaffeemaschine und hübsche kleine Porzellantässchen. Es gab auch einen Geschirrspüler unterm Tresen. Doch dann nuschelte die Servicekraft durch den Mund- und Nasen-Schutz, dass sie die Porzellantässchen „wegen Corona“ nicht benutzen dürfe und servierte mir den Espresso in einem diese widerlichen Pappbecher. Ja, was denn nun, liebe Politiker?

Doch das Plastikgeschirr-Verbot mitten im Lockdown ist nur ein Bespiel, wie unüberlegt die Politik in Deutschland handelt.

Das dicke Ende kommt im nächsten Jahr. Durch die Corona-Politik rollt 2021 die größte Wirtschaftskrise nach dem 2. Weltkrieg auf Deutschland zu. Es wird hunderttausende Pleiten mit zerstörten Lebenskonzepten geben, vielleicht Millionen neue Arbeitslose, und es wird zur Inflation kommen. Das wird zu einem erheblichen Absinken des Lebensstandards führen, bis hin zur Verelendung tausender unschuldiger Menschen. Von den sozialen Verwerfungen gar nicht zu reden.

Und was tut die Politik – außer Geld drucken?

Die deutsche Regierung führt zur Rettung der Welt am ersten Januar 2021 eine CO2-Steuer ein – mitten in der Krise. Da dies andere Länder nicht machen, verschafft die Politik den ohnehin schon angeschlagenen deutschen Unternehmen einen geharnischten Wettbewerbsnachteil und greift den gebeutelten Verbrauchern noch tiefer in die ohnehin schon leeren Taschen. Svenja Schulze sagt: „Ein gerechter CO2-Preis ist möglich“. Na dann…

Was bedeutet das für die Industrie und Verbraucher, eine CO2-Steuer? Bisher läuft das stark unterhalb des öffentlichen Radars, das ausschließlich auf Corona-Panik fokussiert wird. Ein Schelm, wer Böses dabei denkt.

Es ist der Politik erstmalig gelungen, die Luft zu besteuern. Am 20. Mai 2020 hat die Bundesregierung beschlossen, dass der Preis für eine Tonne CO2 ab Januar 2021 zunächst 25 Euro beträgt. Bis zum Jahr 2025 soll der Preis jedoch schrittweise auf bis zu 55 Euro steigen. Auch 180 Euro waren schon über den nach oben offenen Preisideen zur Klimarettung im Gespräch.

Dadurch werden am 1.1. 2021 erst mal Benzin und Diesel teurer. Das macht pro Tankfüllung bis zu zehn Euro aus, 2025 sind es schon 20 Euro. Die Leute sollen eben auf Elektroautos umsteigen. Doch auch Strom wird teurer, wie könnte es in der Energiewende anders sein. Damit die Verbraucher das nicht so merken, soll der Strompreis mit steuerlichen Entlastungen gestützt werden – rechte Tasche, linke Tasche für die Steuerzahler. Allerdings fürchte ich, dass die steuerliche Stützung den Strompreisanstieg nur für eine kurze Zeit unterbrechen kann, denn die Energiewende geht ja weiter voran und plant eine Verdoppelung der Windräder und Solaranlagen, genauso wie den weiteren, gigantisch teuren Netzausbau.

Es wird sich keiner trauen aufzumucken

Aber auch Gas und Heizöl werden teurer. Im Jahr 2025 kostet die neue CO2-Steuer eine Familie, die mit Gas heizt, 270 Euro pro Jahr mehr, bei Öl wird’s noch teurer. Sollen die Leute sich doch eine modernere Heizung kaufen, meinen Svenja Schulze und die FFF-Kinder.

Eigentlich wird durch die CO2-Steuer wohl alles teurer, vom Frühstücksbrötchen bis zur Urlaubsreise, da ja ohne Energieeinsatz nichts produziert und bewegt werden kann und die Unternehmen die höheren Preise weitergeben müssen. Die Teuerung ist durch die vorgesehene jährliche Steigerung des CO2-Preises progressiv. Eigentlich ist die „CO2-Bepreisung“, wie es verniedlichend heißt – aus Verbrauchersicht nichts weiter als eine zweite, ständig steigende Mehrwertsteuer auf die schon Bestehende obendrauf. Insgesamt gilt für die CO2-Bepreisung: Wer ohnehin schon wenig verdient, macht mehr minus, weil er keine der sogenannten „Vergünstigungen“ absetzen kann.

Wenn jemand in Frankreich etwas sehr, sehr Unpassendes tun will, etwas, das absolut nicht in die Situation passt, dann heißt es „Ce n’est pas le moment“. Das sagt die Frau des Hauses mit sehr bestimmten Gesichtsausdruck, wenn der Ehemann im Rotweinüberschwang bei der Party mit Freunden seine Lieblingsfilmchen aus dem ehelichen Schlafzimmer vorführen möchte.

Die Wähler sollten den Deutschen Politikern zu ihren Weltrettungsplänen mitten in Corona-Krisenzeiten Plastikverbot und CO2-Steuer mit dem gleichen Gesichtsausdruck sagen: „Liebe Bundesregierung, „Ce n’est pas le moment“. Nur, es versteht ohnehin kaum einer, was da gerade läuft. Und ich fürchte, daher wird sich keiner trauen aufzumucken. Ein guter Deutscher rettet die Welt, auch um den Preis der eigenen Verelendung.

Der Beitrag erschien zuerst bei ACHGUT hier




Für den „Great Reset“ müssten Wind und Sonne erst einmal grundlastfähig werden

Die sogenannte Corona-Pandemie hatte zunächst auch den allgegenwärtigen Klimaalarm überrollt. Aber die in Aussicht gestellten Wiederaufbau-Milliarden nach dem ersten Lockdown haben dann sehr schnell Begehrlichkeiten geweckt, diese Mittel für den Klimaschutz zu requirieren. Denn nach der in Paris (2015) vereinbarten Dekarbonisierung der Welt bis 2100, oder der Deutschlands bis 2050, wird jetzt aus Angst vor einem vorgeblich „menschengemachten“ Anteil am „natürlichen atmosphärischen Treibhauseffekt“ sogar gefordert, unser Land bereits bis 2035 „klimaneutral“ umzugestalten. Und dieser Klima-Aktionismus beruht allein auf einer Fehlanwendung (1895) des Stefan-Boltzmann-Gesetzes (1884). Denn „Tag“ ist nun mal weder im Sprachgebrauch noch in der Realität gleich „Nacht“, und daher ist die ganze Klimahysterie völlig unnötig. Als vieljährige Durchschnittsbetrachtung unserer realen Erde kann mein hemisphärisches S-B-Modell vielmehr alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Temperaturgenese auf unserer Erde ohne einen solchen „natürlichen atmosphärischen Treibhauseffekt“ abbilden, beispielsweise:

Abbildung 1: Räumliche und zeitliche Derivate aus meinem hemisphärischen Stefan-Boltzmann-Modell (nicht flächengetreu). Links: Jahresverlauf der maximalen solaren Strahlungsleistung mit den Beleuchtungsklimazonen. Rechts: Das maximale S-B-Temperaturäquivalent (~spez. Leistung W/m²) und die maximale örtliche Tageslänge (~Arbeit=Leistung x Zeit) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel.

Anmerkungen: Overlays in der linken Abbildung: Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne MAX Si (rot=940W/m², schwarz=0W/m²) in Abhängigkeit von der geographischen Breite und der Jahreszeit. Für den Nordwinter (linke Seite) und den Nordsommer (rechte Seite) wurden darüber jeweils die Beleuchtungsklimazonen der Erde projiziert (von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Das hemisphärische S-B-Modell lässt also qualitative räumliche und zeitliche Aussagen über die tatsächliche Temperaturgenese auf unserer realen Erde zu, ohne einen „natürlichen atmosphärischen Treibhauseffekt“ als Erklärung für die ominöse Differenz von (33°C / 155W/m²) zwischen einer fehlerhaften S-B-Berechnung und der „gemessenen“ Realität zu benötigen.

Es gibt gar keinen „natürlichen atmosphärischen Treibhauseffekt“ von (33°C / 155W/m²)

Das gängige 24h-Tag=Nacht-THE-Flacherdemodell mit seinem vorgeblich „natürlichen atmosphärischen Treibhauseffekt“ von (33°C/155W/m²) ist dagegen streng eindimensional und kennt keinerlei Unterschiede zwischen Tag und Nacht, Pol und Äquator oder Sommer und Winter. Bei ihrer Berechnung überspringen die Anhänger eines THE einfach die primäre Temperaturgenese auf der Tagseite unserer Erde durch eine S-B-Inversion (Strahlung=>Temperatur) und fokussieren ihre Betrachtung mit dem S-B-Gesetz (Temperatur=>Strahlung) auf die sekundäre Abstrahlung über die gesamte Erdoberfläche. Dabei geht man allerdings nicht physikalisch-systematisch vor, indem man die Abstrahlungsleistung aus der tatsächlich „gemessenen“ globalen Durchschnittstemperatur von ca. 15°C ermittelt (=S-B-Gesetz), sondern man viertelt einfach die Einstrahlungsleistung der Sonne (=S-B-Inversion). Die Grundlage einer solchen Betrachtung ist dann eine ominöse Faktor4-„Erde ohne Atmosphäre“ mit einer „natürlichen“ Temperatur von (-18°C), die im Arrhenius-Paradoxon von 33°C hängen bleibt. Aus dieser Differenz wird dann wiederum das Postulat für einen bisher immer noch unbewiesenen „natürlichen atmosphärischen Treibhauseffekt“ abgeleitet, der entgegen dem 2. HS der Thermodynamik aus einer „atmosphärischen Gegenstrahlung“ gespeist werden soll. Die zugrundeliegende fehlerhafte Faktor4-Inversion des Stefan-Boltzmann-Gesetzes erfolgt also durch eine Gleichsetzung von Tag und Nacht unter Einbeziehung unbestrahlter Flächen – und ignoriert zudem noch die Wärmespeicher unserer Erde.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ ist unser Ticket in eine noch teurere und noch bessere Welt

Dank fossiler Energien leben wir heute in der besten aller historischen Welten. Und der sogenannte „natürliche atmosphärische Treibhauseffekt“ ist nun unser Ticket in eine noch teurere und noch bessere Welt. Denn was einstmals Kometen waren, bei deren Erscheinen man unseren Vorfahren den Weltuntergang geweissagt hatte, das sind heute „dünntelligente“ Supercomputer-Spekulationen der alimentierten Wissenschaften, die uns aufgrund unseres anthropogenen CO2-Ausstoßes zwingen wollen, unsere „Beste aller Welten“ eigenhändig zu zerstören.

Zwischenfrage: Wäre es eigentlich statthaft, Benutzer des Ausdrucks „Klimaleugner“ mit der Endung „-lunken“ zu bezeichnen, beispielsweise als „Klimalunken“, „Politolunken“ oder „Journalunken“?

Der Glaube unserer Zeit ist die Angst vor freihändig extrapolierten Hochrechnungen à la Club of Rome, die für jede willkürliche politischen Maßnahme als Begründung herhalten müssen, geradeso, als hätte es einen Herrn Gompertz niemals gegeben. Am anfälligsten für solche Computerspekulationen ist offenbar eine universitär ausgebildete Mittelschicht, die gelernt hat, Aussagen aus dem eigenen Ausbildungsumfeld blind zu vertrauen, während man aus Handwerk und Gewerbe oft sehr schöne Beispiele von angewandter Intelligenz zu hören bekommt, was gemeinhin auch als „gesunder Menschenverstand“ bezeichnet wird. Und KI-erleuchtete Politiker*innen träumen sogar davon, mittels einer „erneuerbaren Planwirtschaft“, also auf Grundlage der gescheiterten sozialistischen Planwirtschaft bei gleichzeitiger Nutzung von „erneuerbaren Energien“, eine noch teurere und noch bessere Welt zu errichten.

Um „klimaneutral“ zu werden, sollen die „erneuerbaren Energien“ massiv ausgebaut werden

Die Anhänger eines „natürlichen atmosphärischen Treibhauseffektes“ zeigen üblicherweise eine „natürliche“ physikalische Schwäche bei der Unterscheidung von „Leistung“ [Watt] und „Energie“ [Joule=Watt*Sekunden]. Denn die installierte Leistung der sogenannten „erneuerbaren Energien“ liegt mit mehr als 100 Gigawatt bereits heute deutlich über unserem Bedarf von bis zu 80 Gigawatt, wie die nachfolgende Abbildung beweist:

Abbildung 2 (SMARD): Installierte Erzeugungsleistung, linke Skala „Erneuerbare“ 0 (grün) – 120GW (gelb)

Eigentlich wären wir also schon längst „klimaneutral“, wenn die Zeit hier nicht physikalisch brutal zuschlagen würde. Denn Leistung [Watt] ist nicht gleich Arbeit [Joule=WattSekunden, in diesem Fall WattStunden], und die volatilen EEG-Zufallsstromerzeuger sind nun mal von Sonne und Wind abhängig, wenn sie Arbeit verrichten sollen; im Zweifel schau‘n Sie sich einfach noch mal den „Autobahneffekt“ von Herrn Ordowski an. Die nachfolgende Abbildung stellt die Realität dar und ist ein schönes Beispiel für die immer noch existierende deutsche Ingenieurskunst:

Abbildung 3 (SMARD): Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch im Zeitraum 14.-25. September 2020

Wenn tagsüber die Sonne scheint und nachts Wind weht, haben wir schon heute ein Problem, weil dann über den 24h-Tag bereits zu viel EEG-Strom produziert wird. Die mit kräftiger Hilfe der EEG-Zufallserzeuger realisierte Erzeugungsleistung verlief zwischen dem 14. und 25. September 2020 meist deutlich über dem tatsächlichen Stromverbrauch. An ganz wenigen Tagen stimmten die Minima oder Maxima der Kurven von realisierter Erzeugungsleistung und tatsächlichem Stromverbrauch auch nur annähernd überein.

Die konventionellen Grundlastkraftwerke können die tageszeitlichen EEG-Erzeugungsschwankungen und die tageszeitlichen Verbrauchsschwankungen also schon heute nicht mehr komplett ausgleichen, es bleibt lediglich eine gewisse Parallelität im Anstieg und Abfall beider Kurven. Daher mussten in diesem Zeitraum sowohl im Maximum (Solar) wie im Minimum (Wind) erhebliche Strommengen, wahrscheinlich meist kostenpflichtig, ins Ausland „verklappt“ werden. Die geniale Ingenieursleistung besteht nun darin, dass der große Blackout bisher trotzdem ausgeblieben ist, und wir uns vorläufig noch auf das MINT-ferne Narrativ, „der Strom kommt aus der Steckdose“, verlassen können. Aber an der Zerstörung dieses Narrativs von einer sicheren Stromversorgung wird weiterhin ganz kräftig gearbeitet, Zitat:

Europa muss seine Offshore-Windleistung 10x ausbauen, um die europäischen Klimaziele für 2050 zu erreichen.“

Vergleichen wir also mal die installierte EEG-Erzeugungsleistung direkt mit dem Verbrauch und dem tatsächlichen Strommix:

Abbildung 4 (SMARD) für den Zeitraum 14.-25. September 2020. Oben: Installierte Erzeugungsleistung „Erneuerbare“ 0 (grün) – 120GW (gelb) Unten: Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch

Es fragt sich, mit welcher Transfer-Funktion die realisierte EEG-Erzeugungsleistung und der tatsächliche Stromverbrauch jemals in Übereinstimmung gebracht werden sollen, ein Faktor 10 bei der Offshore-Windkraft wird es jedenfalls ganz sicher nicht sein. Selbst die verbliebene deutsche Ingenieurskunst wäre bei einem solchen Faktor 10 heillos damit überfordert, Strom-Erzeugung und Strom-Verbrauch weiterhin versorgungssicher und ohne regelmäßige Blackouts in Übereinstimmung zu bringen. Und wenn eines Tages alle Atom- und Kohlekraftwerke in unserem Lande abgeschaltet werden, während die EEG-Strom-Erzeugung noch weiter ausgebaut worden ist, dann ist es auch mit unserer Versorgungssicherheit vorbei, wovor abseits des medialen Mainstreams schon seit vielen Jahren eindringlich gewarnt wird, beispielsweise hier, hier und hier. Das einzig sichere am EEG bleibt vielmehr der weitere kontinuierliche Anstieg unserer Strompreise. Die öffentliche Sicherheit in Gestalt einer zuverlässigen Stromversorgung wird dagegen durch den weiteren Ausbau und den gesetzlichen Einspeisevorrang der volatilen EEG-Strom-Erzeugung in immer stärkerem Maße gefährdet. Nur MINT-fernste Gestalten könnten daher auf die Idee kommen, dem EEG-Zufallsstrom als Zerstörer unserer elektrischen Versorgungsicherheit müsse jetzt gesetzlich auch noch ein „Öffentliches Interesse“ für seinen weiteren Ausbau eingeräumt werden.

Insanity is doing the same thing over and over again and expecting different results“ (Einstein)

Und während wir dem „natürlichen atmosphärischen Treibhauseffekt“ zunehmend unsere Zukunft und unsere natürliche Umwelt opfern, behaupten erinnerungsferne Jugendliche sogar, es wäre in unserem Lande bisher noch gar nichts für die Umwelt getan worden und fordern eine ganz „andere“ Wirtschaftsordnung. Dabei wissen jene Jugendlichen nicht einmal, dass noch in den 1990-er Jahren kein Mensch freiwillig in eine plansozialistisch verseuchte Elbe gesprungen wäre. Als alter weißer Mann erlaubt sich der Autor hinzuzufügen, dass die Dystopie eines „Demokratiemoratoriums“ zwecks „Weltklimarettung“ die Lebensdauer von Herrn Kaisers Schaumweinsteuer locker übertreffen dürfte.

Und auf diesem intellektuellen Niveau will man uns jetzt auch noch vor unseren Bürgerrechten schützen. Denn die Corona-Krise bietet postnationalen Globalisten eine einmalige Gelegenheit für den Einstieg in die schon lange geforderte Große Transformation zu einer CO2-freien Welt – und das befürchtet man nicht nur hier bei uns. Auch dazu liefert die alimentierte Mainstream-Wissenschaft wieder entscheidende Beiträge, und eine solchermaßen beratene Bundesregierung versucht dann offenbar im Ermächtigungsmodus, 75% aller Kontakte zu unterbinden, anstatt 75% der Infektionsschwerpunkte auszuschalten. Der bekannte Rechtsanwalt Gerhard Strate führt im Hamburger Abendblatt (Paywall) aus, die Schließung der Gaststätten sei offensichtlich willkürlich; nach den vom RKI veröffentlichten Studien würden sich die meisten Infektionen im Umfeld von privaten Haushalten, Alten- und Pflegeheimen, Flüchtlings- und Asylbewerberheimen sowie Krankenhäusern ereignen. Die Forderungen nach Wohnungskontrollen, Denunziation und bewaffneten Coronawarten von Seiten demokratisch gewählter „Würdenträger“ lassen bereits Befürchtungen aufkommen. Und der eben noch konkret angekündigte Shutdown-II-Zeitraum wurde bereits am zweiten Tag aufgeweicht und relativiert. Die Gegner solcher angeordneten Zwangsmaßnahmen werden dann gerne in die Nähe von „antidemokratischen“ Verschwörungstheoretikern gerückt, wobei alle Spuren solcher Verschwörungstheorien schließlich in New York oder Davos enden.

Die mittelalterliche Landbevölkerung frönte der Verschwörungstheorie, eine Rückkehr der Wölfe würde vom Zerfall der staatlichen Ordnung künden

Vielleicht wird die Geschichte diese selbstzerstörerische Klimahysterie rückblickend einmal mit den Ereignissen des Jahres 999 vergleichen, als das Christliche Abendland zum ersten Jahrtausendwechsel Sein Jüngstes Gericht erwartet hatte; denn auch die Kirche liefert heute einen entsprechenden Beitrag zum aktuellen Tagesgeschehen. Zwecks Erhalt unserer gegenwärtigen Lebensqualität sollten wir daher sehr sorgsam mit unseren Freiheitsrechten und sehr nachhaltig mit unserer natürlichen Umwelt umgehen. Wir sollten also Erstere nicht aufgeben, nur um dann Letztere willkürlich mit wind- und tageslichtabhängigen Zufallsstromerzeugern zupflastern zu lassen, die lediglich in der Lage sind, diese natürliche Umwelt und deren Artenvielfalt zum Preis einer Vervielfachung unseres Strompreises zu zerstören. Denn politisch gewollte MINT-ferne Scheinlösungen können die hoch entwickelten technischen Anwendungen in unserer fossil betriebenen Industriegesellschaft gar nicht ersetzen. Und mittelalterliche Hans-im-Glück-Technologien zur Nutzung von Wind und Sonne können nun einmal systembedingt keinerlei verlässliche elektrische Grundlast liefern, sondern erfordern zwingend eine parallele „Zweitstromerzeugung“ durch fossile „Schattenkraftwerke“. Und wenn solche Kraftwerke dann irgendwann nur noch bei unseren Nachbarn stehen, dann wäre das eine Carte Blanche für den Zukauf von Atom- und Kohlestrom um jeden Preis – und das Ende des Industriestandortes Deutschland.

Im Angesicht des „Großen Neustarts“ im Dienste einer globalen Moral, von globaler Gerechtigkeit und des global-gesellschaftlichen Fortschritts passt die Erfahrung der mittelalterlichen Landbevölkerung, eine Rückkehr der Wölfe würde vom Zerfall der staatlichen Ordnung künden, wohl auch auf unsere demokratische Ordnung. Lassen Sie Sich also in dieser seltsamen Zeit nicht unterkriegen oder gar am selbständigen Denken hindern – und vor allem: Bleiben Sie gesund!




Anmerkung der EIKE-Redaktion zu Wijnsgaard und Happer

Die Ergebnisse aus der Arbeit von Wijnsgaard und Happer – hier speziell ihre Werte der Klimasensitivität in Table 5 auf S. 32 – fügen sich gut in die inzwischen berühmt gewordene Grafik von Francois Gervais ein, in welcher er die in Fachliteratur-Veröffentlichungen angegebenen Werte der Klimasensitivität gegen das jeweilige Erscheinungsdatum der betreffenden Veröffentlichungen aufgetragen hat [1].

Diese Grafik ist inzwischen von F. Gervais durch Hinzunahme neuer Veröffentlichungen dem aktuellen Stand angepasst worden worden, wobei sie der Vielzahl an einschlägigen Facharbeiten wegen nur schwer vollständig werden kann. Sie wurde auf der EIKE-Klimakonferenz 2017 in Düsseldorf anlässlich seines Vortrags gezeigt und ist hier noch einmal angegeben.

Insbesondere ist an der Arbeit von Wijnsgaard und Happer der gefundene Sättigungseffekt von zunehmenden „Treibhausgasen“ bemerkenswert. In der Conclusion ihrer Arbeit steht dazu im dritten Absatz der höchst bemerkenswerte Satz

The most striking fact about radiation transfer in Earth’s atmosphere is summarized by Figs. 4 and 5. Doubling the current concentrations of the greenhouse gases CO2, N2O and CH4 increases the forcings by a few percent for cloud-free parts of the atmosphere. Table 3 shows the forcings at both the top of the atmosphere and at the tropopause are comparable to those found by other groups.

(Fettschreibweise von „by a few percent“ von EIKE vorgenommen)

Die noch hinzukommende Eigenschaft von ansteigendem atmospärischen CO2, ebenfalls ansteigend vom Meer und der Biosphäre aufgenommen zu werden [2], entwertet jede der oft zu vernehmenden „Klima-Bedrohungen“ durch menschgemachtes CO2. Aktuell geht nämlich bereits die Hälfte alles anthropogenen CO2 in die Ozeane und die Biosphäre. Mit steigenden anthropogenen CO2-Emissionen nehmen diese Senken immer mehr CO2 auf, so dass bereits bei etwa 800 ppm  CO2-Gehalt in der Atmosphäre (Verdoppelung gegenüber heute) auch durch ultimatives Verbrennen aller Kohle- und Erdölreserven kein maßgebender weiterer atmosphärischer CO2-Anstieg mehr erfolgen kann.

[1] F. Gervais: Anthropogenic CO2 warming challenged by 60-year cycle, Earth Science reviews 155(2016) 129-135.

[2] W. Weber, H.-J. Lüdecke and C.O. Weiss: A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion, 6, 1-20 (2015).

Prof. Dr. Horst-Joachim Lüdecke

Wijngaarden_u_Happer_2020