1

PCR-Tests: (Viel?) zu hohe Fallzahlen

Der ct-Wert gibt an, wie lange es gedauert hat, wie viele Zyklen notwendig waren, bis in einer Probe genügend genetisches Material vorhanden war, um SARS-CoV-2 nachzuweisen. Im Zusammenhang mit der heftigen Kritik am PCR-Test, den Corman und Drosten et al. entwickelt haben, über die wir hier berichtet haben, spielt der ct-Wert eine große Rolle. So schreiben Borger et al. (2020) in ihrer Kritik am von Corman, Drosten et al. entwickelten PCR-Test, der zum Standard der WHO-Empfehlungen geworden ist:

“PCR data evaluated as positive after a Ct value of 35 cycles are completely unreliable.”

Dessen ungeachtet wird im WHO-Protokoll, das auf dem Corman, Dorsten et al. Paper basiert, behauptet, es seien bis zu 45 Zyklen möglich, um reliable Ergebnisse zu erhalten:

“But an analytical result with a Ct value of 45 is scientifically and diagnostically absolutely meaningless (a reasonable Ct-value should not exceed 30).”



Dessen ungeachtet sind unzählige PCR-Tests im Umlauf, deren Hersteller den Cutoff-Point für den ct-Wert, ab dem die Ergebnisse nicht mehr reliabel sind, bei 40 und zum Teil noch über 40 ansetzt:

Der ct-Wert ist derzeit wohl ein Rettungsring für diejenigen, die im Meer der Willkür und der unterschiedlichen Anwendung eines PCR-Tests zu ertrinken drohen. Dies gesagt, fällt uns Werner Bergholz ein. Bergholz ist das, was man wohl einen Standardisierungsprofi nennt. Und in dieser Funktion hat Bergholz am 30. Oktober 2020 eine schriftliche Stellungnahme zur Öffentlichen Anhörung des Ausschusses für Gesundheit des Deutschen Bundestages abgegeben, in der er sich explizit mit der Frage beschäftigt, ob PCR-Tests ein zuverlässiges Maß für den Stand des Infektionsgeschehens in Deutschland sind.

Antwort: Sie sind es nicht.

Warum nicht?

Wichtigste Zutaten dafür, dass eine Messung brauchbar ist, sind Reliabilität und Validität.

Reliabilität bezieht sich auf die Konstanz in Zeit und Raum. Wenn ein Labor X die Probe Y analysiert, dann muss dabei dasselbe Ergebnis herauskommen, das herauskommt, wenn Labor X1 die Probe Y analysiert und wenn Labor X die Probe Y zweimal analysiert, dann muss jedes Mal dasselbe Ergebnis dabei herauskommen.

Validität bezieht sich darauf, dass der Test, der das Vorhandensein von SARS-CoV-2 feststellen soll, auch dazu geeignet ist, dieses Vorhandensein festzustellen und wenn ja, innnerhalb welchem Fehlerbereich.

Bergholz spricht hier von Vergleichbarkeit, meint aber mehr oder weniger dasselbe wie wir.

Validität bei PCR-Tests wird gemeinhin als Spezifizität und als Sensitivität angegeben. Erstere bezieht sich auf die Anzahl von positiven Testergebnissen, die falsch sind (false positives), Letztere auf die Anzahl der negativen Testergebnisse, die falsch sind (false negatives). Dazu kommen wir gleich.

Um die Vergleichbarkeit von Gewebeproben zu gewährleisten, ist es notwendig,

  • dass die Gewebeproben in gleicher Weise entnommen werden, dass die “Testumgebung” vergleichbar ist;

Um die Vergleichbarkeit der Analyse der Proben durch unterschiedliche Labore sicherzustellen, ist es unabdingbar, dass die Labore

  • einheitlich vorgehen,
  • denselben Test oder die selbe Klasse von Tests verwenden;
  • den Labortest unter vergleichbaren Bedingungen und unter Einsatz vergleichbarer Reagenzien durchführen und
  • die selben Daten zum Ergebnis des Tests übermitteln.

Keines der fünf Kriterien wird derzeit eingehalten. Die Bestimmung der Inzidenz von SARS-CoV-2 in der Bevölkerung ist ein einzigartiges Patchwork unterschiedlicher Vorgehensweisen, unterschiedlicher Erhebungs- und Analysemethoden. Eine Standardisierung des Vorgehens, so Bergholz, sei dringend geboten.

Zudem findet derzeit keinerlei Monitoring der falsch positiven oder falsch negativen Testhäufigkeit statt. Das ist vollkommen unwissenschaftlich. Jeder der sich mit Daten befasst, weiß, dass die Unsicherheit, mit der die Ergebnisse belastet sind, Bestandteil der Ergebnisse ist. Ohne die Angabe von Vertrauensintervallen oder Irrtumswahrscheinlichkeit sind wissenschaftliche Ergebnisse wertlos. Dennoch fehlt beides bei PCR-Tests. Dass alle Ergebnisse, die aus Labors an das RKI übermittelt werden korrekt sind, ist eines dieser Märchen, die Politdarsteller entweder selbst glauben oder auf keinen Fall der Öffentlichkeit mitteilen wollen.

Dabei ist nur gesunder Menschenverstand notwendig, um sich die vielen Punkte, an denen ein Fehler geschehen kann, zu vergegenwärtigen:

  • Proben können bei Entnahme verunreinigt werden;
  • Proben können im Labor kontaminiert werden;
  • Proben können verwechselt werden;
  • Eine Messung kann fehlerhaft vorgenommen werden;
  • Der Test-Kit kann fehlerhaft sein;
  • Proben können zerstört werden (was in diesen Fällen, die sicher vorkommen, geschieht, ist unbekannt);
  • Ergebnisse können falsch übermittelt werden;

Gerade ein immenses Aufkommen, wie es derzeit in Labors zu verzeichnen ist, führt mit Sicherheit dazu, dass die Zahl der Fehler sehr hoch ist. In Unternehmen nennt man so etwas Ausschuss. Selbst bei hochstandardisierten Prozessen kann Ausschuss nicht ausgeschlossen werden. Aber deutsche Politdarsteller wollen der Öffentlichkeit erzählen, dass alle positiven Tests, die beim RKI gezählt werden, fehlerfrei sind, dass es in den Labors keinerlei Ausschuss gibt. Das ist absurd.

Wohlgemerkt, die bislang besprochenen Fehler sind nicht die Fehler, die dem PCR-Test immanent sind, die Fehler, die er quasi eingebaut hat: Spezifiziät und Sensitivität. Bergholz hat in seiner Stellungnahme eine Beispielrechnung, die in dieser Hinsicht sehr aufschlussreich ist:

“Bei 10 000 Tests, 1% wirklich Infizierte (also echt Positive), einer Spezifität von 1,4% und 98% Sensitivität (Werte aus dem Ringversuch vom April) ergibt der Test 98 echt Positive [1% von 10.000 minus 2% Fehler (Sensitivität) = 98) und zusätzlich 140 falsch Positive [1,4% Fehler bei Spezifizität]. Das heißt der positive Vorhersagewert (PPV = positive predictive value) beträgt 98/(98+140)x100% = 41%. Mit anderen Worten, es gibt mehr falsch Positive als echt Positive, also ein Messfehler grösser als ein Faktor 2.

Es ist schlicht unverständlich, dass dies bei der Aufbereitung der Rohdaten unberücksichtigt bleibt!”

Was Bergholz hier anspricht, ist, dass das Problem mit false positives dann, wenn die Häufigkeit eines Virus in einer Bevölkerung gering ist, erheblich ist. Wir haben das einmal für Inzidenzen von 1%, 2% und 4% durchgespielt. Das Ergebnis sieht wie folgt aus:




Operationalisiert man die Inzidenz von SARS-CoV-2 als Anteil der positiv Getesteten an allen Getesteten, dann beträgt die Inzidenz in Deutschland derzeit 4,1% und befindet sich damit in einem Bereich, in dem man mit rund 75% Test-Akkuratheit rechnen kann.

75% Test-Akkuratheit ist nicht wirklich der Goldstandard, denn eine Fehlerquote von 25%, mit anderen Worten, 25% der offiziellen Testangaben wären, auf Basis einer Spezifizität von 1,4% falsch, false positiv, ist eher erheblich. Vermutlich ist darin die Ursache dafür zu sehen, dass in Florida nunmehr versucht wird, über den ct-Wert zumindest ein wenig Verlässlichkeit in die Daten zu bringen.

Um verlässliche Angaben über die Verbreitung von SARS-CoV-2 in einer Bevölkerung machen zu können, immer vorausgesetzt, man will das und ist nicht an Zahlen interessiert, die so hoch wie nur möglich ausfallen, wäre es somit notwendig, die Tests, den Testablauf zu standardisieren, die zu erwartende Fehlerrate der veröffentlichten Zahlen anzugeben sowie eine Untersuchung dazu zu veranlassen, wie viele fehlerhafte Tests dadurch entstehen, dass Proben verunreinigt oder verwechselt werden oder die Häufigkeit zu untersuchen, mit der ein anderer Fehler unterläuft. Das Ergebnis wäre eine geringere Anzahl positiv Getesteter, und es wäre ein Mehr an Ehrlichkeit gegenüber der Öffentlichkeit, der vorgemacht wird, die veröffentlichten Zahlen wären exakt, ohne Fehler und ohne Makel.

So viel Ehrlichkeit ist natürlich politisch nicht gewollt.

der Beitrag erschien zuerst bei ScienceFiles hier

 




Speisen natürliche Quellen den CO2-Anstieg in der Atmosphäre?

Im November 2020 fand man im Fachjournal “nature communications“ (1) eine Arbeit, die sich mit den CO2-Emissionan aus den Böden befasste. Die Forscher der Universität im britischen Exter wollen herausgefunden haben, dass bei einer Temperaturerhöhung von 2°C im Vergleich zum vorindustriellen Zeitalter, etwa 230 Milliarden Tonnen Kohlenstoff aus den Böden in die Atmosphäre freigesetzt werden. Umgerechnet sind das 843 Milliarden Tonnen Kohlendioxid.

Nun bewegt sich die Erde nachweislich aus einer kalten Phase, der kleinen Zwischeneiszeit, die um das Jahr 1850 endete, heraus. Diese Erwärmung ist also durchaus eine ganz natürliche Erscheinung und hat mit Kohlendioxid nichts zu tun. Aber durch diese natürliche Erwärmung wird natürlich, so wie die britischen Forscher festgestellt haben, Kohlendioxid aus den sich erwärmenden Böden freigesetzt.

Lauf IPCC erwärmten sich die globalen Landflächen seit der industriellen Revolution um ca. 1,53 °C (2).

Wenn nun eine Temperaturerhöhung um 2°C 843 Milliarden Tonnen Kohlendioxid freisetzen, dann bewirkt die bisherige Temperaturerhöhung von 1,53 °C eine Freisetzung von 645 Milliarden Tonnen Kohlendioxid.

Der vorindustrielle Gehalt an Kohlendioxid in der Atmosphäre soll um die 270 ppm betragen haben. Das sind 2100 Milliarden Tonnen Kohlendioxid in der Atmosphäre.

Nun ist der Gehalt des Kohlendioxids in der Atmosphäre auf 410 ppm angestiegen; es sind nun also 3190 Milliarden Tonnen, also 1090 Milliarden Tonnen mehr.

Wir haben aber gerade gesehen, dass allein durch die Ausgasung der Böden 645 Milliarden Tonnen Kohlendioxid in die Atmosphäre gelangten. Das bedeutet, dass 59% der Konzentrationssteigerung des Kohlendioxids in der Atmosphäre aus den Böden stammt und nicht aus den Auspuffen und Kaminen!

Derselbe Effekt tritt natürlich auch in den Meeren auf. Diese haben sich seit Beginn der industriellen Revolution um 0,87°C erwärmt (2).

Pro Kelvin gasen rund 0,06 g CO2 aus einem Kilogramm Wasser aus.

Eine Temperaturerhöhung von 0,87 Kelvin setzt also rechnerisch 10815 Milliarden Tonnen CO2 frei (vorausgesetzt man setzt eine homogene Durchmischung der Meere in allen Tiefen voraus, was sicher nicht der Fall ist).

Das ist dreimal mehr, als sich derzeit überhaupt in der Atmosphäre befinden!

D.h. die Ausgasung von CO2 aus Böden und den Meeren durch die natürliche Temperaturerholung seit Ende der kleinen Zwischeneiszeit ist der treibende Faktor bei der Erhöhung der CO2– Konzentration in der Atmosphäre.

Es gibt einen weiteren Indikator, der dies stützt.

Durch die Corona-Krise sank die Industrieproduktion in Deutschland um 9,2% (3). Ähnlich dürfte es in anderen Ländern sein. Das Handelsblatt meldete, dass Russlands Industrieproduktion um 9,6% gesunken ist (4). BNEF, das Analyse- und Beratungsunternehmen der Nachrichtenagentur Bloomberg schreibt in seinem neuesten * New Energy Outlook 2020‘: „Infolge der Covid-19-Pandemie gingen die Energieemissionen im Jahr 2020 um etwa 8% zurück“ (5). Hinzu kommen die deutlich reduzierten Fahrten mit dem Auto, der völlig weggebrochene Flugverkehr usw.

Wenn nun die jährlich steigende Konzentration des CO2 in der Atmosphäre auf die menschlichen Aktivitäten zurückzuführen ist, wie ja behauptet wird, dann müsste sich der massive weltweite Rückgang der CO2-Emissionen auf die Konzentration des CO2 in der Atmosphäre auswirken. Mann müsste eine Abschwächung, eine Delle in der Steigungskurve erkennen können.

Diese ist aber nicht zu erkennen (6)! Der drastische Einbruch der Produktion, der nahezu weltweite Lockdown, der Zusammenbruch der Flugindustrie und des Tourismus hinterlässt keinerlei Spuren in der Atmosphäre.

Folglich wird der Anstieg des CO2 nahezu ausschließlich aus natürlichen Quellen gespeist.

Und deswegen werden auch die zahllosen, rein ideologisch begründeten und billiardenschweren CO2-Einsparmaßnahmen nicht annähernd den Effekt haben, den man behauptet.

Allgemein ist man der Meinung dass der Gehalt des Kohlendioxid in den letzten tausenden von Jahren relativ konstant war und um die 280 ppm betrug.

Wie kommt man zu diesem Wert?

Nun, man untersucht beispielsweise Bohrkerne von Gletschereis, das man verschiedenen Epochen zuordnet. Die im Eis eingeschlossenen Luftbläschen, so glaubt man, zeigen die Kohlendioxid- Konzentration der damaligen Atmosphäre an. Danach soll vor Beginn der Industrialisierung eine CO2-Konzentration von nur 260 ppm geherrscht haben. 

Das ist höchst verwunderlich wenn man die Ergebnisse verschiedener Forschungsgruppen sieht. Messungen in Gletschereis ergaben im norwegischen Strobreen eine Konzentration zwischen 200 und 2900 ppm Coachman, L.K., E. Hemmingsen and P.F. Scholander, 1956. Gas enclosures in a temperate glacier. Tellus, 8: 415-423. und Coachman, L.K., T. Ennis and P.F. Scholander, 1958 a. Gas loss from a temperate glacier. Tellus, 10: 493-495.] und in der Antarktis von 280 bis 2900 ppm [Matsuo, S. and Y. Miyake, 1966. Gas composition in ice samples from Antarctica. J. Geophys. Res., 71 (22): 5235-5241. Messungen, die auf verschiedenen Gebieten Grönlands durchgeführt wurden, fanden folgende Konzentrationen: 100-800 ppm Scholander, P.F., E.A. Hemmingsen, L.K. Coachman and D.C. Nutt, 1961. Composition of gas bubbles in Greenland icebergs. J. Glaciol., 3: 813-822., 1700 bis 7400 ppm Raynaud D., and R. Delmas, 1977. Composition des gaz contenus dans la glace polaire. In: Isotopes and Impurities in Snow and Ice. International Association of Hydrological Sciences (Washington, D.C.) Publ., 118: 371-381, 400 bis 1200 ppm [Berner, W., B. Stauffer and H. Oeschger, 1978. Past atmospheric composition and climate, gas parameters measured on ice cores. Nature, 276: 53-55 und 250 -1000 ppm Stauffer, B., W. Berner, H. Oeschger, J. Schwander, 1981. Atmospheric CO2 history from ice core studies. Zeitschr. für Gletcherkunde und Glaziol., 17: 1-15.

Und dennoch behauptet man, die vorindustrielle Konzentration lag dauerhaft und unverändert bei 260 -280 ppm.

  1. https://www.nature.com/articles/s41467-020-19208-8, A spatial emergent constraint on the sensitivity of soil carbon turnover to global warming
  2. https://www.ipcc.ch/site/assets/uploads/2019/08/4.-SPM_Approved_Microsite_FINAL.pdf
  3. https://www.tagesschau.de/wirtschaft/boerse/industrie-produktion-103.html
  4. https://www.handelsblatt.com/politik/international/industrie-corona-trifft-russlands-wirtschaft-hart-industrieproduktion-bricht-um-9-6-prozent-ein/25924010.html
  5. https://about.bnef.com/blog/emissions-and-coal-have-peaked-as-covid-19-saves-2-5-years-of-emissions-accelerates-energy-transition/

  6. https://www.esrl.noaa.gov/gmd/ccgg/trends//graph.html

Über den Autor: Günter Vogl ist Chemietechniker, mit fundierter naturwissenschaflicher Ausbildung. Er befasst mich seit über 30 Jahren mit diesem Thema, was inzwischen zu drei Büchern geführt hat (Die erfundene Katastrophe (2016) und Klimadiktatur (2020) sind die aktuellen.




Bericht zur Coronalage vom 07.12.2020: Wielers Offenbarungseid

Lothar Wieler gab am 3.12. eine Pressekonferenz zur Coronalage, die ein weiteres Dokument der Panikmache statt beruhigender Jahresvergleiche darstellt. Dieser Ausschnitt daraus in dem es um das Thema Impfung geht, ist der finale Offenbarungseid, denn ganz offensichtlich hat der Leiter des RKI den Verstand verloren von 50 Sekunden Länge:

Gut erkennbar anhand von drei Punkten:

Erstens: Einer der wichtigsten ärztlichen Grundsätze lautet: primum nihil nocere. Das bedeutet, der Arzt muss dafür Sorge tragen, dass seine Behandlung möglichst wenig schadet. Medizinische Maßnahme müssen ausreichend auf Nebenwirkungen geprüft werden, bevor man sie anwendet. PUNKT.

Das gilt ganz besonders bei Gesunden, die kaum ein Erkrankungsrisiko haben, und dennoch vorsorglich behandelt werden sollen. Generell halte ich Impfungen für eine Erfolgsgeschichte. Aber die klassischen Impfungen haben auf ihrem Weg zu guten und geprüften Vorsorgetherapien unzählige Todesopfer gefordert. Inzwischen sind jedoch die ernsten Nebenwirkungen selten geworden.

Ausnahme war die Schweinegrippeimpfung 2009. Hier wurde ebenfalls ein nicht seriös geprüfter Impfstoff ohne Not vom RKI zur breiten Anwendung mit ähnlichem Panikmodus empfohlen. Mit der Folge unzähliger schwerer Nebenwirkungen und der inzwischen gesicherten Langzeitfolge der Narkolepsie (Schlafkrankheit), von der offiziell laut Ärzteblatt etwa 1.300 Menschen betroffen sind.

Der infrage kommende Corona-Impfstoff kann ein Meilenstein in der Impfstoffentwicklung werden, aber wir wissen das noch nicht. Er kann sich auch als Desaster erweisen. Und zwar als ein vielfach größeres als das der Schweinegrippeimpfung. Um dies zu vermeiden, muss ein solches neues Verfahren sorgfältig an kleinen definierten Versuchen auf Nebenwirkungen langfristig (!) getestet werden. Das dauert viele Jahre und daran führt kein verantwortungsvoller Weg vorbei. Wäre die Situation medizinisch dramatisch, lägen auf den Straßen Leichen, dann muss man auch Kompromisse machen. Aber diese Situation liegt bei weitem nicht vor, wir haben keine außergewöhnlich abweichende Sterbesituation.

Und auch ein abklingendes Infektionsgeschehen, wie in jedem europäischen Land nach etwa 6 Wochen, egal, ob mit milden oder harten Maßnahmen – wie schon im Frühjahr. Niemand hat mir bis heute eine belastbare medizinische Kennziffer nennen können, mit der sich die Infektionssituation von denen der Vorjahre außergewöhnlich unterscheidet. Das hindert Herrn Wieler jedoch nicht daran, eine ungeprüfte Massenimpfung mit völlig unklarem Ausgang in Impfzentren anzukündigen (wer klärt dort eigentlich über die Risiken auf?), und das raubt mir ehrlich gesagt den Atem. Es kommt einem Feldversuch gleich, mit der eine gesamte Bevölkerung, nur um ein verantwortungsloses Krisenmanagement zu kaschieren, ins massive Risiko genommen wird. Ethisch absolut indiskutabel.

Zweitens: Das RKI hat bis heute nicht das kleine Einmaleins der Epidemiologe umgesetzt, nämlich die Einrichtung repräsentativer Kohortenstudien, um Licht ins Dunkel des Infektionsgeschehens und der tatsächlichen Wirkung der Schutzmaßnahmen zu bringen. Stellen Sie sich einmal vor, Sie beauftragen ein Wahlforschungsinstitut, das Ergebnis der nahenden Bundestagswahl vorauszusagen. Ginge dieses Institut so vor wie das RKI, dann würde es pro Woche 1,5 Millionen Wähler unsystematisch befragen, um dann die Prognose abzuliefern. Das wäre teuer und vor allen Dingen komplett nutzlos. Weil die Befragten nicht repräsentativ ausgewählt wurden. Deswegen befragen Wahlforschungsinstitut gut ausgewählte, repräsentative Gruppen. So reichen unter Umständen vielleicht wenige tausend Befragte aus, um dann tatsächlich ziemlich nahe an das spätere Wahlergebnis heranzukommen.

Hätte das RKI, wie von jedem kompetenten Epidemiologen seit Anfang der Corona-Krise gefordert, diese repräsentativen Studien durchgeführt, dann wüssten wir heute ziemlich genau Corona-Dunkelziffer, -Verbreitungswege, -Infektiösität und vieles mehr. Wir wüssten, welche Maßnahmen was bewirken und welcher Schaden entsteht. Am Geld lag es nicht. Meines Wissens hat allein die Charité 200 Millionen Euro für Coronaforschung erhalten, ohne dass wir heute irgendein brauchbares Ergebnis erhalten haben. Den Preis für dieses Versagen zahlen wir alle mit den physischen, psychischen und wirtschaftlichen Schäden der völlig überzogenen und ungeprüften Maximalmaßnahmen.

Drittens: Laut Lothar Wieler ist die Ursache, wenn alte Menschen nach der geplanten Impfung sterben, dann im Alter und in den Grunderkrankungen zu suchen. Doch wenn alte Menschen mit einem positiven Corona-Test sterben, dann gelten sie laut RKI selbstverständlich als COVID-Tote. Das ist das gleiche Spiel wie bei der Schweinegrippe. Damals wurden mit der gleichen Zählweise die Schäden der ungeprüften, aber vom RKI empfohlenen Impfung verschleiert. Lothar Wieler entdeckt nun plötzlich, dass in Deutschland täglich 2.700 Menschen sterben, was man nun bitte angesichts der erwartbaren Impftoten in Relation setzen muss. Ja das stimmt.

Mit diesem richtigen Hinweis könnte Lothar Wieler vor allem auch die Ängste und die Panik beruhigen, die inzwischen die wirkliche Gefahr durch COVID-19 völlig überdramatisiert. Doch wenn die Bundeskanzlerin in irreführender Weise 400 Tote benutzt und Ministerpräsident Söder von einem Flugzeug spricht, welches täglich abstürzt, dann müssen diese Toten natürlich singulär als Katastrophe gelten, obwohl die normale Tagessterblichkeit gar nicht außergewöhnlich ansteigt. Also diese 400 Teil der ganz normalen 2.700 Tagestoten sind. Das ist die billige Instrumentalisierung von Toten, um die eigene verantwortungslose Politik zu rechtfertigen. Das Wort Doppelmoral könnte für diese Argumentation neu erfunden werden.

Zur Person Lothar Wieler: Ich habe überhaupt nichts dagegen, dass ein Tierarzt Leiter der wichtigsten Seuchenbehörde ist. Tierärzte kennen Infektionsgeschehen gut, nicht selten besser als wir Humanmediziner. Das ist nicht das Problem, es liegt woanders. Mir liegen öffentliche wie auch nichtöffentliche Aussagen von Herrn Wieler vor. Daraus kann ich zum Beispiel erkennen, dass er das Versagen des RKIs im Rahmen der Schweinegrippe überhaupt nicht verstanden hat. Er glaubt offenbar wirklich, damals sei die Bevölkerung korrekt über den Impfstoff informiert wurden. Es ist nicht so, dass er nicht von vielen klugen, hochrangigen Leuten in der direkten Kommunikation gute Argumente und vernünftige Vorschläge erhält. Doch das Problem ist: Er versteht sie offenbar nicht. Ich meine tatsächlich fachlich wie intellektuell. Er lebt scheinbar in so etwas wie einem Wahn, wir hätte es mit Lepra, Beulenpest und Ebola gleichzeitig zu tun.

Lassen Sie mich versuchen, es in ein Bild zu fassen: Das Segelschiff Bundesrepublik Deutschland segelt im Seuchenmeer. Es herrscht eine mittlere Brise namens Corona, kein Problem bei kompetenter Führung. Unser Problem besteht darin, dass die Kapitänin von einem Navigator beraten wird, der an Geister glaubt und das kleine Einmaleins der Navigation nicht beherrscht. So steuern wir ohne Not auf Untiefen und Sandbänke zu. An Bord befinden sich zwar auch viele warnende Passagiere, doch die Kapitänin und ihre Mannschaft finden Sandbänke inzwischen toll. Keiner der Verantwortlichen ist willens, das Schiff wieder auf einen vernünftigen Kurs zu bringen. Jetzt kommen zu den Untiefen noch gefährliche Klippen dazu. Und diese Klippen heißen mRNA Impfstoffe.

Meinen Patienten habe ich folgende Rundmail zum Thema Corona-Impfung gesendet. Ich möchte Ihnen diese ebenfalls zur Verfügung stellen, gerne auch zur Weiterverbreitung.

Liebe Patienten und Freunde der Praxis Dr. med. Gunter Frank,

ich möchte Sie kurz zum Thema Corona Impfung aus meiner Sicht informieren.

Aus mehreren Gründen, medizinischen aber vor allem auch gesellschaftlichen, wäre es wünschenswert, einen gut geprüften Corona-Impfstoff zur Verfügung zu haben. Die Anwendung sollte meiner Meinung nach so gehandhabt werden wie bei der Empfehlung zur Grippeimpfung: sinnvoll für immungeschwächte, meist ältere Menschen, insbesondere in den Pflegeheimen.

Dieser Wunsch darf aber nicht dazu führen, dass wir eine neue Impfstofftechnik, ohne sorgfältige Prüfung auf Nebenwirkungen, in verantwortungsloser Weise einsetzen. Dies ist zuletzt 2009 im Rahmen der Schweinegrippe geschehen, als die Politik, das Robert-Koch-Institut und tatsächlich auch Professor Christian Drosten die Bevölkerung zur Impfung aufriefen, mit einem Impfstoff, der ebenfalls nicht ausreichend geprüft war und zu derart häufigen Nebenwirkungen führte, wie man es in der ärztlichen Praxis sonst selten beobachtet.

Ich möchte Ihnen die Schlussfolgerungen des Arzneimittelbriefes Nr. 11, November 2020, weiterleiten (hier teilweise zu öffnen, limitiert durch die Bezahlschranke). Der Arzneimittelbrief ist ein seriöses, kompetentes und unabhängiges Informationsblatt, welches seit 54 Jahren gute Informationen zu verschiedensten Medikamenten bietet. Im Beitrag mit dem Namen „Zur Entwicklung genetischer Impfstoffe gegen SARS-CoV-2 – technologische Ansätze sowie klinische Risiken als Folge verkürzter Prüfphasen“ wird davor gewarnt, mit Bezug auf renommierte Wissenschaftler und Publikationen, dass die Prüfung des möglichen Nutzens und Schadens durch den neuartigen mRNA Corona Impfstoff nicht solide erfolgt ist. Auch weil dazu der notwendige Zeitrahmen fehlt.

Insbesondere die Gruppe der unter 70-Jährigen, bei der ein äußerst geringes Risiko besteht, an COVID-19 zu sterben, kann auf diese Weise erheblich geschädigt werden ohne gleichzeitige Chance auf einen Nutzen. Das ist ethisch nicht verantwortbar. Schon angesichts der kurzen Beobachtungszeiträume aktueller Studien schreibt der Arzneimittelbrief: „Bei beiden aktuellen Impfstoff-Favoriten fällt eine signifikante Häufung von Nebenwirkungen auf.“ Leider ist es so, dass in den älteren Risikogruppen aufgrund ihres schwächeren Immunsystems auch Grippeimpfstoffe nur eingeschränkt wirken. Inwieweit dies bei dem neuartigen Corona-Impfstoff anders ist, ist ebenfalls nicht ausreichend geprüft.

Der Arzneimittelbrief fordert einen breiten wissenschaftlichen und gesellschaftlichen Diskurs über die Probleme der beschleunigten Impfstoffprüfung hinsichtlich der Impfstoffsicherheit sowie eine öffentliche Anhörung kritischer Experten:

„Ärztinnen und Ärzte und die Menschen, die sich impfen lassen wollen, müssen über Wirksamkeit und Risiken genetischer Impfstoffe, die nach verkürzten Zulassungsverfahren auf den Markt kommen, umfassend aufgeklärt werden. Es sollten dieselben Standards gelten, wie sie auch bei anderen Impfungen gefordert werden. Hinzu gehören die Antworten auf folgende Fragen für die Praxis:

  • Für welche Zielgruppe ist der Impfstoff zugelassen bzw. welche Zielgruppe könnte durch die Impfung profitieren und welche wissenschaftliche Evidenz gibt es hierfür?
  • Mit welchen Nebenwirkungen muss gerechnet werden?
  • Wie lange hält die durch den Impfstoff induzierte Immunität an, und warum muss gegebenenfalls erneut geimpft werden?
  • Wie wird der Impfstoff nach seiner Zulassung auf seine Sicherheit überprüft?
  • Wer haftet bei Impfschäden?“

Ich möchte Sie mit diesem Rundschreiben darüber aufklären, dass Sie, bevor Sie sich für die neue Corona-Impfung entscheiden, ein Anrecht haben, auf diese Fragen eine ausreichende und nachprüfbare Antwort zu erhalten. Gerne können Sie diese E-Mail auch weiterleiten.

Mit herzlichen Grüßen

Ihr

Dr. med. Gunter Frank

Der Beitrag erschien zuerst bei ACHGUT hier




„Wärmster November“ – und im Alpenland türmen sich Anfang Dezember die Schneemassen

Alle politischen Entscheidungsträger sollten ernster denn je darüber nachdenken, wie die Vereinbarungen des Pariser Klimaabkommens eingehalten werden können.

…meinte daher ein Copernicus-Sprecher in Paris. Da, jetzt wissen wirs. Lustigerweise hält sich die Realität nicht an das Narrativ der politisch Mächtigen: Norditalien, Bayern und Österreich melden ebenfalls Rekorde – allerdings nicht im Bereich der Temperaturerhöhung, sondern im Bereich der Schneemassen!

In der Facebook-Gruppe Fakten gegen Klimahysterie (sehr zu empfehlen!) listen die Mitglieder etliche Nachrichten dieser Kategorie auf. Beispiele:

Schneemassen: Flockdown in den SüdalpenEs schneit und schneit und schneit! In den Südalpen türmt sich der Schnee teils schon deutlich mehr als einen Meter hoch auf und es ist kein Ende in Sicht. In den kommenden Tagen fallen mancherorts noch mehrere Meter Neuschnee. Viele Straßen sind gesperrt und der Bahnverkehr ist teils eingestellt. Die Lage spitzt sich weiter zu.

Schnee und Regen – Rekordniederschlag in Österreich (07.12.2020): Unvorstellbare Mengen an Schnee und Regen sind am Wochenende im Süden Österreichs gefallen. Binnen 48 Stunden kamen teilweise über 350 Liter pro Quadratmeter zusammen. In Lienz im Süden Österreichs regnete und schneite es so viel, wie seit mindestens 140 Jahren nicht in so kurzer Zeit.

Schneemassen in Norditalien (05.12.2020): Heftiger Wintereinbruch in den Alpen: Vor allem in den Südalpen haben starke Schneefälle seit Freitag zu größeren Problemen geführt. In der italienischen Region Trentino-Südtirol fielen bereits bis zu 1 Meter Neuschnee.




KLIMA DES IRRTUMS: Die schweren physikalischen Fehler, welche einen Klima-‚Notstand‘ erschufen

Alles war ein ungeheurer Fehler. Die Befürchtungen über eine gefährliche globale Erwärmung ergaben sich aus einem schwerwiegenden Fehler der Physik aus dem Jahr 1984. Niemand hatte es bisher bemerkt, weil die Klimawissenschaftler die Rückkopplungsmathematik aus der Kontrolltheorie, einem anderen Zweig der Physik, übernommen hatten, ohne sie zu verstehen. Die Kontrolltheoretiker, deren Wissenschaft die Klimatologen ausgeliehen hatten, hatten nicht erkannt, wie sie missbraucht worden war.

Ein internationales Team hervorragender Klimatologen und Kontrolltheoretiker, das von Christopher Monckton aus Brenchley zusammengestellt wurde, verbrachte Jahre mit der Jagd nach dem Fehler. Ihre 70-seitige wissenschaftliche Arbeit errechnet, dass die vom Menschen verursachte globale Erwärmung nach Korrektur des Fehlers nur ein Drittel dessen betragen wird, was die Klimawissenschaftler vorhergesagt hatten.

Es wird zu wenig globale Erwärmung geben, um uns zu schaden. Eine kleine, langsame Erwärmung wird insgesamt eine gute Sache sein. Es gibt keinen Klima-Notstand. Den hat es nie gegeben. Die Billionen, die für die Vernichtung von Arbeitsplätzen und Industrien verschwendet wurden, können jetzt für die vielen echten Umweltprobleme der Welt ausgegeben werden. Die globale Erwärmung gehört nicht dazu.

EINIGE DEFIITIONEN: Emissions-Temperatur angetrieben durch die Wärme der Sonne, an der Oberfläche ohne Treibhausgase in der Luft erhalten würde. Die Rückkopplungsreaktion ist eine zusätzliche Erwärmung, vor allem durch mehr Wasserdampf in der wärmeren Luft, ausgelöst durch direkte Erwärmung (z.B. durch CO2). Die solare Rückkopplungsreaktion wird durch die Emissionstemperatur ausgelöst. Zu den nicht kondensierenden Treibhausgasen gehören CO2, Methan, Ozon, Distickstoffoxid und FCKW, nicht aber Wasserdampf. Der natürliche Treibhauseffekt ist die Differenz zwischen der Emissionstemperatur und der Temperatur im Jahre 1850, als das Industriezeitalter begann. Die Gleichgewichts-Klimasensitivität (ECS) ist letztlich die endgültige Erwärmung durch verdoppeltes CO2.

Infolge des Fehlers waren die Klimawissenschaftler davon ausgegangen, dass, obwohl nur etwa 1 °C – also ein Viertel der globalen Erwärmung, die sie durch die Verdoppelung des CO2 in der Luft vorhersagten – direkt von dem hinzugefügten CO2 herrührte, zu dieser direkten Erwärmung weitere 3 °C zusätzliche Erwärmung kommen würden, die als Rückkopplungsreaktion bezeichnet wird, hauptsächlich durch mehr Wasserdampf – ein Treibhausgas – der in die durch CO2 erwärmte Luft verdunstete.

Sie hatten angenommen, dass der natürliche Treibhauseffekt – die Differenz zwischen der Emissionstemperatur an der Oberfläche ohne Treibhausgase und der Oberflächentemperatur im Jahr 1850, zu Beginn des Industriezeitalters – 32 °C betrug. Davon hatten sie 8 °C für eine direkte Erwärmung durch die vorindustriellen Treibhausgase gehalten mit den verbleibenden 24 °C als Rückkopplung (Abb. 1a).

Abbildung 1: (a) irrige und (b) korrigierte Darstellung des natürlichen Treibhauseffektes

Die direkte Erwärmung durch verdoppeltes CO2 beträgt nur etwa 1°C, was nach irrtümlicher Vorstellung der Klimawissenschaftler eine Rückkopplung von 3°C auslösen wird, so dass 1°C direkte Erwärmung zu einer Enderwärmung von 4°C wird.

Sie hatten zwei Fehler gemacht, einen kleinen und einen sehr großen. Ihr kleiner Fehler: Sie hatten vergessen, dass es ohne Treibhausgase in der Luft keine Wolken gäbe, welche die Sonnenstrahlung wie ein Spiegel harmlos in den Weltraum reflektieren würden. Die wahre Emissionstemperatur – die Temperatur, die an der Oberfläche herrschen würde, wenn sich anfangs keine Treibhausgase in der Luft befänden – wäre etwa 12 °C größer als von ihnen berechnet. Der wahre natürliche Treibhauseffekt war also nicht 32 °C, sondern 12 °C kleiner, bei nur 20 °C.

Ihr sehr großer Fehler: Sie haben vergessen, dass die Sonne scheint. Denn fast die gesamte vorindustrielle Rückkopplung bis 1850 – die zusätzliche Erwärmung, von der sie alle dachten, sie sei durch nicht kondensierende Treibhausgase (andere Gase als Wasserdampf) ausgelöst worden – wurde in Wirklichkeit nicht durch diese Gase, sondern durch die Wärme der Sonne ausgelöst. Tatsächlich fügten sie hinzu, dass die solare Rückkopplung als Teil der vorindustriellen Treibhausgas-Rückkopplung, die sie um 3200% überbewertet hatten, falsch berechnet wurde.

Die Argonauten berechnen, dass von den echten 19,9 °C des natürlichen Treibhauseffekts (Abb. 1b) 13,1 °C eine Rückkopplung auf die durch die Sonnenwärme getriebene Emissionstemperatur waren (solare Rückkopplung). Nur 0,7 °C war eine vorindustrielle Rückkopplung auf die 6,1 °C direkte Erwärmung durch Treibhausgase.

Die 24 °C Rückkopplung der Klimawissenschaftler war um das 33-fache zu groß. Deshalb haben sie die Rückkopplung nicht nur der direkten vorindustriellen Erwärmung der Treibhausgase überbewertet, sondern auch die direkte Erwärmung im industriellen Zeitalter, die weitgehend durch unsere eigenen Treibhausgasemissionen von 1850-2020 verursacht wurde.

Die Auswirkungen der Überbewertung durch die Klimawissenschaftler waren gravierend. Die Argonauten sind der Ansicht, dass aufgrund des Irrtums die gegenwärtig vorhergesagte vom Menschen verursachte globale Erwärmung etwa dreimal zu groß ist. Eine Korrektur beendet die Krise.

Klimawissenschaftler hatten weit mehr globale Erwärmung prophezeit als tatsächlich eingetreten ist

In der Wissenschaft ist jede Theorie – wie schön oder gewinnbringend sie auch sein mag – falsch und muss geändert oder sogar ersetzt werden, wenn Daten aus der realen Welt ihr widersprechen. Die große Diskrepanz zwischen vorhergesagter und realer Erwärmung in den letzten Jahrzehnten hat in der Tat gezeigt, dass mit der offiziellen Theorie etwas sehr falsch sein muss.

IPCC (1990, S. xxiv) hatte zuversichtlich eine mittelfristige, vom Menschen verursachte Erwärmung von 3,4 °C pro Jahrhundert vorhergesagt. Die gemessene vom Menschen verursachte globale Erwärmung von 1990-2020 entsprach jedoch nur 1,15 °C pro Jahrhundert (Abb. 2).

Abbildung 2: Mittelfristige projizierte im Vergleich zu vom Menschen verursachten Erwärmungsraten, 1990 bis 2020

Die vom IPCC vorhergesagte mittelfristige vom Menschen verursachte Erwärmung hat sich als um das Dreifache zu groß erwiesen. Diese enorme Glaubwürdigkeitslücke zwischen Vorhersage und realem Wandel stimmt mit den Berechnungen der Argonauten überein.

Die Klimamodelle hatten auch die fast 19-jährige Pause der Erwärmung von 1997-2015 nicht vorhergesagt (Abb. 3). Gegen Ende dieses Zeitraums, als ein Drittel unseres Klimaeinflusses eingetreten war, aber keine Erwärmung eingetreten war, ersetzte das IPCC die Modellprojektionen durch sein „Expertenurteil“ und kürzte seine mittelfristigen Vorhersagen stark ab.

Abbildung 3: Keine Erwärmung während der 18 Jahre von Juli 1997 bis Januar 2016 (UAH)

Widersprüchlicherweise hat der IPCC nicht auch seine langfristige globale Erwärmungsvorhersage reduziert, die trotz Milliardenausgaben für die Klimaforschung bei 1,5-4,5 °C pro CO2-Verdoppelung bleibt. Diese Vorhersage ist seit dem Charney-Bericht (1979) vor mehr als 40 Jahren unverändert geblieben. Sie war und ist übertrieben.

Wie der Nobelpreisträger und Physiker Richard Feynman zu sagen pflegte: „Wenn Experimente mit der Theorie nicht übereinstimmen, ist die Theorie falsch. In dieser einfachen Aussage liegt der Schlüssel zur Wissenschaft.“ Vorhersagen über die globale Erwärmung stimmen nicht mit beobachteten und gemessenen Temperaturänderungen in der realen Welt überein. Die Korrektur des Fehlers löst diese Diskrepanz auf.

Wie der Fehler zustande kam: Klimawissenschaftler hatten übersehen, dass die Sonne scheint

Die Entstehungsgeschichte des Fehlers ist interessant. Zu Beginn des 20. Jahrhunderts hatten Arrhenius (1906) und Callendar (1938) vorausgesagt, dass die endgültige Erwärmung durch verdoppeltes CO2 in der Luft etwa 1,5 °C betragen würde. Obwohl die Rückkopplungstheorie damals noch in den Kinderschuhen steckte, waren ihre Schätzungen mehr oder weniger korrekt.

Eine der frühesten Arbeiten, die die mathematischen Grundlagen der Rückkopplungstheorie legten, war Black (1934). Eines Morgens im Jahr 1927 befand sich Harold S. Black auf dem Weg zur Arbeit in den Bell Labs in Manhattan, wo er Verfahren zur Reduzierung des Lärms auf Ferngesprächsleitungen entwickelte. Die Gleichungen für Rückkopplungen in dynamischen Systemen kamen ihm in den Sinn, und er notierte sie in der Zeitung jenes Tages, die bis heute im Bell Labs Museum ausgestellt ist.

Die rückgekoppelte Verstärkerschaltung von Black (Abb. 4) zeigt nicht nur den μ Verstärker (im Klima, direkte Erwärmung durch Treibhausgase) und den β Rückkopplungsblock, sondern auch das Eingangssignal e (die durch die Sonnenwärme getriebene Emissionstemperatur bei Abwesenheit von Treibhausgasen). Das Papier von Black nennt e die „Signaleingangsspannung“.

Die Klimawissenschaftler hatten nicht erkannt, dass man keinen Verstärker ohne ein zu verstärkendes Eingangssignal haben kann.

Der Verstärkungsblock μ im Blockdiagramm von Black (Abb. 4) verstärkt das Eingangssignal e, so wie die direkte Treibhausgas-Erwärmung die Emissionstemperatur verstärkt. Der β-Rückkopplungsblock erzeugt eine Rückkopplung nicht nur auf den μ-Verstärkungsblock (direkte Treibhausgas-Erwärmung), sondern auch auf das Eingangssignal e.

Abbildung 4: R+ckkopplungs-Verstärkungs-Blockdiagramm, welches das Eingangssignal e zeigt, also die Nicht-Treibhausgas-Emissionstemperatur, welche die Klimawissenschaftler übersehen hatten.

Wenn man die große solare Rückkopplung übersieht, addiert man sie effektiv zu der eigentlich winzigen vorindustriellen Rückkopplung auf die direkte Erwärmung durch nicht kondensierende Treibhausgase (wie CO2, Methan, Distickstoffoxid und Ozon, denn Änderungen in der Konzentration des wichtigsten kondensierenden Treibhausgases, Wasserdampf, werden als Rückkopplung behandelt) und zählt sie falsch. Diese falsche Zuordnung bläht die Rückkopplung auf die Treibhauserwärmung auf und führt dazu, dass Klimawissenschaftler die globale Erwärmung überbewerten. Die Klimawissenschaftler hatten vergessen, dass die Sonne scheint und ihre eigene substanzielle Rückkopplung antreibt.

1945 schrieb Harold Blacks Kollege bei Bell Labs, Hendrik Wade Bode, das Standard-Lehrbuch über das Design von Rückkopplungsverstärkern. Es erwies sich als so populär, dass es 30 Jahre lang jährlich veröffentlicht wurde.

Das Blockschaltbild des Rückkopplungs-Verstärkers (Bild 5) ist praktisch identisch mit dem von Black. Hier ist E0 das Eingangssignal, dessen große Rückkopplung Klimawissenschaftler irrtümlicherweise zur Rückkopplung der direkten Erwärmung durch Treibhausgase addieren hatten.

Abbildung 5: Blockdiagramm des Rückkopplungsverstärkers (Bode, 1945), welches das Eingangssignal E0 (in Klima, Emissionstemperatur) zeigt, das die Klimawissenschaftler übersehen hatten, wodurch versehentlich die solare Rückkopplung zur Rückkopplung der direkten Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase addiert wurde.

1945 schrieb Harold Blacks Kollege bei Bell Labs Hendrik Wade Bode das Standardlehrbuch über die Konstruktion von Rückkopplungsverstärkern. Es erwies sich als so populär, dass es 30 Jahre lang jährlich veröffentlicht wurde.

Das Blockschaltbild des Rückkopplungs-Verstärkers (Abb. 5) ist funktionell identisch mit dem von Black. Hier ist E0 das Eingangssignal, dessen große Rückkopplung Klimawissenschaftler irrtümlicherweise zur Rückkopplung der direkten Erwärmung durch Treibhausgase addiert hatten.

Leider zitierten die Klimaforscher Bodes Buch, ohne es jedoch zu verstehen, gerade in dem Moment, als die Digitalisierung die Bedeutung der Rückkopplungstheorie geschmälert hatte. So schrieb zum Beispiel Hansen (1984):

Wir verwenden Verfahren und Terminologie von Rückkopplungsstudien in der Elektronik (Bode, 1945), um die Beiträge verschiedener Rückkopplungsprozesse analysieren zu können. Wir definieren die Systemverstärkung als das Verhältnis des Netto-Rückkopplungsanteils der Temperaturänderung zur gesamten Temperaturänderung“.

Hier beschreibt Hansen fälschlicherweise den Rückkopplungsanteil (den Anteil der End- oder Gleichgewichtstemperatur oder Erwärmung, der durch die Rückkopplung dargestellt wird) als „Systemverstärkung“. Der Systemverstärkungsfaktor ist eigentlich die Größe, mit der die direkte Temperatur oder Erwärmung vor der Rückkopplung multipliziert wird, um die End- oder Gleichgewichtstemperatur oder -erwärmung zu erhalten, nachdem die Rückkopplung gewirkt und das Klima wieder ins Gleichgewicht gebracht hat.

Hansens schwerwiegenderer Fehler ist jedoch nicht der einer bloßen Nomenklatur. Er versäumt es, die solare Rückkopplung zu erwähnen, geschweige denn sie zu erklären. Deshalb stellt er sich vor, dass die direkte Erwärmung von wenig mehr als 1 °C durch das verdoppelte CO2 in der Luft zu einer schlussendlichen oder Gleichgewichtserwärmung von etwa 4 °C wird, so wie es Lacis et al., Hansens Kollegen am NASA Goddard Institute for Space Studies, in den Jahren 2010 und 2013 getan haben und so wie es heutige Modelle tun (z.B. Zelinka et al., 2020, Sherwood et al., 2020).

Schlesinger (1988) verschlimmerte Hansens Fehler und zementierte ihn. Sein Rückkopplungs-Blockdiagramm (Abb. 6) zeigt Verstärkungs- und Rückkopplungsblöcke, aber wie Hansen berücksichtigte er weder die Emissionstemperatur noch ihre große Rückkopplung, die er effektiv als Teil der Rückkopplung auf die direkte Erwärmung durch die vorindustriellen, nicht kondensierenden Treibhausgase falsch berechnet hat.

Abbildung 6: Fehlerhaftes Rückkopplungs-Blockdiagramm (Schlesinger 1988). Das Eingangssignal, die Emissionstemperatur, ist nicht vorhanden. Schlesinger impliziert somit, dass die große solare Rückkopplung darauf Teil der eigentlich winzigen Rückkopplung auf die vorindustrielle direkte Erwärmung durch nicht kondensierende Treibhausgase ist.

So stellte sich Schlesinger vor, dass der Rückkopplungsanteil – der Anteil der End- oder Gleichgewichtserwärmung, der durch die Rückkopplung repräsentiert wird – bis zu 71% betragen würde, ähnlich wie die 75% in Lacis et al.

1988 sagte Hansen vor dem US-Senat aus und prophezeite eine sehr schnelle globale Erwärmung. Seine Vorhersagen waren jedoch in seinem Irrtum verwurzelt. In jenem Jahr wurde das IPCC ins Leben gerufen. Sein Erster Sachstandsbericht sagte 1990, ebenfalls aufgrund des Irrtums, mittelfristig dreimal so viel globale Erwärmung voraus als während der folgenden 30 Jahre bis heute eingetreten ist (Abb. 2). Sein fünfter und jüngster Sachstandsbericht (IPCC 2013, S. 1450) definierte die Klima-Rückkopplung so:

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Störung in einer Klimagröße eine Änderung in einer zweiten bewirkt und die Änderung der zweiten Größe letztlich zu einer zusätzlichen Änderung der ersten führt. Eine negative Rückkopplung ist eine Rückkopplung, bei der die anfängliche Störung durch die von ihr verursachten Änderungen abgeschwächt wird; eine positive Rückkopplung ist eine Rückkopplung, bei der die anfängliche Störung verstärkt wird … die Klimagröße, die gestört wird, ist die globale mittlere Oberflächentemperatur, die wiederum Änderungen des globalen Strahlungshaushalts verursacht. … Die anfängliche Störung … kann von außen erzwungen werden oder als Teil der internen Variabilität auftreten“.

Die IPCC-Definition spiegelt nicht die in der Kontrolltheorie inzwischen fundierte Tatsache wider, dass das Eingangssignal – in Klima, Emissionstemperatur – selbst eine große solare Rückkopplung erzeugt.

Das IPCC verfügt über ein Fehlerbericht-Erstattungsprotokoll, zu dessen Annahme er von seinen Mitgliedsstaaten verpflichtet worden war, nachdem es eine Reihe von peinlichen Fehlern veröffentlicht hatte. Nach diesem Protokoll wurde der vorliegende Fehler dem IPCC gemeldet. Das IPCC weigerte sich jedoch sogar, den Erhalt des Fehlerberichts zu bestätigen, obwohl er zweimal an mehrere IPCC-Beamte und an das Sekretariat geschickt wurde. Nun, da der Fehler ans Licht gekommen ist, wird das IPCC nicht mehr benötigt.

Konsequenzen des Fehlers

Die direkteste Folge des Fehlers ist, dass, wenn die Emissionstemperatur weggelassen wird (Abb. 6-7), die große solare Rückkopplung fälschlicherweise zur eigentlich winzigen vorindustriellen Rückkopplung auf die direkte Erwärmung durch Treibhausgase addiert und entsprechend falsch gezählt wird.

Abbildung 7: Klimawissenschaftler stellen sich vor, dass 8°C direkte Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase eine Rückkopplung von 24°C bewirkten. Ihr Systemverstärkungsfaktor beträgt also 32 / 8 oder 4: Mit anderen Worten, sie multiplizieren jede direkte vom Menschen verursachte Erwärmung mit etwa 4, um die endgültige Erwärmung zu erhalten. Da die direkte Erwärmung als Reaktion auf das verdoppelte CO2 in der Luft etwa 1°C beträgt, sagen heutige Modelle nach Berücksichtigung der Rückkopplung eine mögliche Erwärmung von etwa 4°C voraus.

Das Team korrigierte diesen Fehler und berechnete, dass man die 6,1 °C direkte Erwärmung durch die vorindustriellen, nicht kondensierenden Treibhausgase nicht mit einem Systemgewinnfaktor von 32 / 8 oder 4 multiplizieren sollte, wie es Klimawissenschaftler tun. Stattdessen sollte man sie mit einem Systemverstärkungsfaktor von 6,8 / 6,1 oder nur mit 1,11 multiplizieren. Da sich die Erwärmung mit zunehmender Oberflächentemperatur ein wenig beschleunigt, wird aus dem Faktor 1,11 heute etwa 1,19.

Daher wird die direkte globale Erwärmung von 1,06 °C als Reaktion auf die Verdoppelung des CO2-Gehalts in der Luft zu einer Enderwärmung von nur 1,19 x 1,06, also nur 1,25 °C.
Die globale Erwärmung wird also weniger als ein Drittel der 4 °C betragen, die sich die Klimaforscher vorgestellt hatten.

Abb. 8 vergleicht die korrigierte Erwärmung mit aktuellen Vorhersagen.

Abbildung 8: Korrigierte Enderwärmung im Vergleich zu den Vorhersagen der Klimatologen.

Abb. 1 und 8 können kombiniert werden, um Abb. 9 zu erhalten, die die signifikante Kohärenz zwischen (a) der dreifach überhöhten Vorhersage der Klimawissenschaftler von 1990 über die mittelfristige, vom Menschen verursachte globale Erwärmung bis 2020 im Vergleich zur realen Erwärmung und (b) der dreifach überhöhten Vorhersage der Klimawissenschaftler von 1990 über die langfristige, endgültige Erwärmung durch verdoppeltes CO2 im Vergleich zu den korrigierten 1,25 °C zeigt.

Später wird sich auch zeigen, dass diese dreifach überhöhten Vorhersagen der mittel- und langfristigen globalen Erwärmung mit der dreifach überhöhten Vorhersage der mittelfristigen Erwärmung der tropischen Mitteltroposphäre über die letzten Jahrzehnte zusammenhängen (Abb. 19). 

Die von den Argonauten nach Korrektur des physikalischen Fehlers der Klimaforscher abgeleitete Enderwärmung von 1,25°C stimmt mit der Rate der beobachteten Erwärmung von 1850-2020 überein, aber die gesamte Bandbreite der Vorhersagen der Klimaforscher über die Enderwärmung stimmt nicht mit der Rate der beobachteten Erwärmung überein.

Abbildung 9: Klimatologen haben (a) die mittelfristige globale Erwärmung seit 1990 und (b) die langfristige, endgültige globale Erwärmung (d.h. die gleichgewichtige Klimasensitivität oder ECS) im Vergleich zu den auf Beobachtungen basierenden Werten überprognostiziert. Mittel- und langfristige Erwärmungsvorhersagen sind kohärent, wenn die Erwärmung um das Dreifache überbewertet wird.

Die Seiten 8-9, die ein wenig technisch sind, zeigen, wie die Argonauten fünf Tests zur Bewertung von Vorhersagen der globalen Erwärmung entwickelt haben. Zunächst nutzten sie die Tests, um ihre eigene Berechnung zu überprüfen, dass es nach Korrektur des Fehlers der Klimawissenschaftler zu einer Enderwärmung von 1,25°C durch verdoppeltes CO2 kommen würde (bekannt als Gleichgewichtsklimaempfindlichkeit oder ECS), mit einem Bereich von 1,05 bis 1,50°C. Als nächstes überprüften sie den gesamten Bereich der von den Klimawissenschaftlern vorhergesagten ECS von 2,0 bis 5,7°C, wobei sie Werte in diesem vorhergesagten Bereich als Input für einen Algorithmus verwendeten, um herauszufinden, ob und in welchem Ausmaß jede Vorhersage zu einem Widerspruch führte.

Die fünf Tests zum Nachweis, dass die Prophezeiungen der Klimawissenschaftler exzessiv sind

Lewis & Curry (2015) zeigten, dass man ohne ein gigantisches Klimamodell die endgültige Erwärmung durch verdoppeltes CO2 aus der beobachteten globalen Erwärmung des Industriezeitalters, den offiziell geschätzten Veränderungen, die durch unsere Treibhausgasemissionen verursacht werden, und dem gemessenen Strahlungsungleichgewicht der Erde berechnen kann. Sie kamen zu dem Schluss, dass die endgültige Erwärmung etwa 1,5°C betragen würde, so wie es Arrhenius und Callendar vor einem Jahrhundert getan hatten.

Ungeachtet einer ähnlich geringen Erwärmung, die in Lewis & Curry und vielen anderen Arbeiten (z.B, Lindzen & Choi 2011; Aldrin et al. 2012; Otto et al. 2013; Akasofu 2013; Spencer & Braswell 2014; Skeie et al. 2014; Soon et al. 2015; Bates 2016), haben die Klimaforscher ihre Vorhersagen von etwa 4 °C Enderwärmung als Reaktion auf die Verdoppelung des CO2-Gehalts in der Luft nicht reduziert, um die Reduktion zu erreichen, zu der sie die langsame Erwärmung der realen Welt in ihren mittelfristigen Vorhersagen der vom Menschen verursachten globalen Erwärmung gezwungen hatte.

Deshalb entwickelten die Argonauten fünf mathematische Tests, um festzustellen, ob ein Wert der Enderwärmung durch verdoppeltes CO2 aus dem Vorhersagebereich der Klimawissenschaftler von 2 °C bis 5,7 °C möglich war.

Test 1 basierte auf den Berechnungen des Teams, die zeigten, dass nach Korrektur des Fehlers der Klimawissenschaftler der wahre Bereich der Enderwärmung durch verdoppeltes CO2 1,05 bis 1,5 °C beträgt, mit einer mittleren Schätzung von 1,25 °C.

Selbst die geringste Vorhersage der Klimaforscher, 2 °C, scheitert bei diesem Test (Abb. 10).

Abbildung 10: Die neuesten offiziellen Vorhersagen der endgültigen Erwärmung oder ECS (Sherwood et al. 2020), verglichen mit der von Monckton of Brenchley et al. korrigierten ECS.

Die Tests 2-5 basieren auf Unit-Feedback-Reaktionen (UFR), d.h. Rückmeldungen pro 1 °C direkter Erwärmung.

Test 2 geht davon aus, dass die UFRs als Reaktion auf die direkte Treibhausgas-Erwärmung mit der Erwärmung der Oberfläche wachsen.

Die UFR ab 2020 sollte die UFR von 1850-2020 übertreffen, die wiederum die vorindustrielle UFR übertreffen sollte.

Doch selbst UFRs auf der Grundlage der geringsten Vorhersage der Klimatologen (ECS) von 2°C durch verdoppeltes CO2 basieren, scheitern bei diesem Test (siehe Einbruch der orangefarbenen Linie in Abb. 11).

Alle Vorhersagen über 2 °C fallen in Test 2 noch stärker durch.

Abbildung 11: Rückkopplungs-Reaktionen der Einheit U0 ≤ U1 ≤ U2 (solche pro 1 °C direkter Treibhauserwärmung) sollten mit der Erwärmung zunehmen. Sie tun genau das unter der Annahme einer Enderwärmung von 1,25°C durch verdoppeltes CO2 (equilibrium climate sensitivity, oder ECS: die grüne Linie). Basierend auf der vorhergesagten ECS ≥ 2°C in aktuellen Klimamodellen geht die Reihe jedoch unweigerlich nach unten statt nach oben.

Test 3 ermittelt, wie stark sich die Erderwärmung zwischen 1850 und 2020 hätte sein sollen, wenn eine gegebene Vorhersage der endgültigen Erwärmung durch verdoppeltes CO2 (ECS) zutreffen würde. Von 1850-2020 gab es eine gemessene globale Erwärmung von 0,9 °C. Allerdings impliziert selbst die vorhergesagte abschließende Erwärmung um 2 °C durch verdoppeltes CO2 (ECS) eine Erwärmung um 1,4 °C von 1850-2020, was wiederum das Eineinhalbfache der Erwärmung um 0,9 °C in diesem Zeitraum darstellt.

Test 3: Bei der mittleren ECS von 1850-2020 von 3,7 °C hätte es nicht 0,9 °C, sondern 2,5 °C Erwärmung geben müssen.

Die Obergrenze der Enderwärmung von 5,7°C würde eine Erwärmung um 3,6 °C von 1850-2020 bedeuten: das Vierfache der realen 0,9 °C (Abb. 12).

Somit fallen alle Vorhersagen der Klimawissenschaftler in Test 3 durch.

Abbildung 12: Alle derzeitigen Prognosen der Enderwärmung (ECS) von 2°C oder mehr aufgrund einer CO2-Verdoppelung im Zeitraum 1850 bis 2020 liegen weit über den gemessenen 0,9°C.

Test 4 leitet den vorindustriellen UFR und den durch die Emissionstemperatur ausgelösten UFR aus einer ECS-Vorhersage ab und nimmt deren Verhältnis X.
Selbst die von Klimawissenschaftlern prophezeite untere Grenze der Bandbreite von
2 °C impliziert einen vorindustriellen UFR, der zehnmal so hoch ist wie der UFR bei der Emissionstemperatur. Bei 1,25 °C ECS ist sie nur 2,4-mal so hoch.
Bei größeren Vorhersagen wächst der Überschuss rasch an (Abb. 13).

Abbildung 13: Der Anstieg des Basis-UFR-Verhältnisses X (das vorindustrielle UFR geteilt durch die Emissions-Temperatur UFR), der durch die vorhergesagte Enderwärmung ΔE2 impliziert wird, verdoppelte das CO2, wobei die Emissionstemperatur (a) 267,6 K und (b) 255,3 K beträgt.

Test 5 leitet die verdoppelten CO2– und 1850-2020 UFR-Werte aus einer gegebenen ECS-Vorhersage ab und nimmt deren Verhältnis X2.

Auch hier ist selbst bei 2 °C vorhergesagter ECS die Verdoppelung von CO2UFR das 5-fache von 1850-2020 UFR.

Bei 3,7 °C vorhergesagter ECS im mittleren Bereich ist der verdoppelte CO2UFR 14-mal so hoch wie der 1850-2020 UFR.

Bei 5,7 °C vorhergesagter ECS des oberen Bereichs ist der verdoppelte CO2UFR-Wert 24-mal so hoch wie der von 1850-2020 UFR.

Werte von X2 weit über 1 sind unmöglich.

Der gesamte Bereich der ECS-Vorhersagen der Klimaforscher fällt in Test 5 durch.

Abbildung 14: Der Anstieg des zeitweiligen UFR-Verhältnisses X2 (das von den UFR-Klimawissenschaftlern verdoppelte CO2-Verhältnis geteilt durch das UFR-Verhältnis 1850-2020), das sich aus der vorhergesagten Enderwärmung ΔE2 durch den gesamten Bereich der ECS ergibt, verdoppelte das CO2, wobei die Emissionstemperatur (a) 267,6 K und (b) 255,3 K beträgt, fallen die Vorhersagen fallen in Test 5 durch.

Dementsprechend versagt das gesamte Spektrum der aktuellen Vorhersagen zur globalen Erwärmung in allen fünf Tests; und wie die Abbildungen 10 bis 14 zeigen, ist das Versagen umso größer, je höher die Vorhersage ist. Im Gegensatz dazu entspricht die vom Team berechnete Enderwärmung von 1,25 °C durch verdoppeltes CO2, die als Grundlage für Test 1 dient, den Tests 2-5.

Wie die Klimamodelle die Zunahme des Wasserdampfes in der oberen Atmosphäre überbewerteten

Nachdem die Argonauten den physikalischen Fehler der Klimawissenschaftler korrigiert und mit Hilfe der fünf Tests theoretisch festgestellt hatten, dass die Klimamodelle eine um das Dreifache zu hohe globale Erwärmung vorhersagen, suchten sie nach einer physikalischen Diskrepanz zwischen der Art und Weise, wie die Modelle das Verhalten eines relevanten Aspektes des Klimas simulieren, und dessen gemessenem, realen Verhalten.

Da Klimamodelle die vorindustrielle Rückkopplungsreaktion um 3200% überbewerten, begannen die Argonauten zu untersuchen, wie die Modelle die Wasserdampfrückkopplung darstellen, die von den Klimawissenschaftlern als der mit Abstand wichtigste Rückkopplungsprozess im Klima angesehen wird, löst dieser doch alle oder fast alle Netto-Rückkopplungsreaktionen aus.

Tatsächlich wurde eine bemerkenswerte Diskrepanz zwischen den Vorhersagen der Modelle und der beobachteten Realität festgestellt. Klimamodelle sagen voraus, dass sich die tropische Mitteltroposphäre in 10.000 m Höhe mehr als doppelt so schnell erwärmen dürfte wie die Oberfläche. In Wirklichkeit gibt es jedoch keinen solchen Hotspot. Die tropische obere Atmosphäre erwärmt sich nur ein wenig schneller als die Oberfläche. Alle Modelle waren falsch. Wo immer die Daten aus der realen Welt zeigen, dass die Modelle falsch sind, sind die Daten zu bevorzugen. Irgendwo lauert ein großer Fehler.

Abb. 15a (IPCC (2007, Abb. 9.1c) sagt diesen tropischen Hotspot in der Mitte der Troposphäre voraus, aber es gibt keinen Hotspot im realen vertikalen Temperaturprofil von bis zu 26.000 Metern Höhe, gemessen von Millionen von Ballonsensoren (Abb. 15b: Lanzante et al. 2006)

Abbildung 15: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre

Der Hotspot wird von vielen einschlägigen Klimamodellen simuliert (Abbildung 16). Fehlt dieser, kann die Wasserdampf-Rückkopplung nicht so substantiell sein wie von den Modellen simuliert. Warum aber fehlt dieser prophezeite Hotspot?

Abbildung 16 Der Hotspot in vier Modellen (Lee at al. 2007: jedes Farbband repräsentiert 1°C)

IPCC 2007 (Abb. 9.1: hier Abb. 17) nahm an, dass der Hotspot der Fingerabdruck der vom Menschen verursachten Erwärmung sei.

Natürliche Einflüsse durch die Sonne, Vulkane, künstliches Ozon (O3) und Aerosole schienen den Hotspot nicht zu verursachen, wohl aber die vom Menschen verursachte Treibhausgas-Erwärmung.

Doch das IPCC hatte sich geirrt. Klimawissenschaftler sagen nun, dass der Hotspot ein Zeichen der globalen Erwärmung wäre, wie auch immer verursacht.

Abbildung 17: Der imaginäre Hotspot als Fingerabdruck der vom Menschen verursachten globalen Erwärmung.

Aber der Hotspot ist und bleibt abwesend. IPCC 2007 (Abbildung 10.7, hier Abbildung 18) prophezeite, dass sich der Hotspot mit der Zeit und der globalen Erwärmung ausbilden werde. Aber das IPCC hatte sich erneut geirrt.

Abbildung 18: Der Hotspotsoll sich angeblich im Zuge der Erwärmung bilden.

Obwohl das IPCC eine rasche Erwärmung der tropischen Oberluft vorhersagte, wurde sie in den Modellen von 1981-2016 im Vergleich zu den Daten aus der realen Welt um das Dreifache überbewertet (Christy 2019: hier Abb. 19).

Die Modelle wurden so programmiert, dass sie davon ausgehen, dass Wasserdampf, wie CO2, Methan, Distickstoffoxid und Ozon, in der gesamten Atmosphäre gut vermischt wäre. Das ist natürlich Unsinn.

Abbildung 19: Die Modelle überbewerten die Erwärmung der tropischen mittleren Troposphäre um das Dreifache zu hoch.

Die Modelle sagen voraus, dass der Wasserdampf in allen Höhenlagen zunehmen wird. Das ist falsch. In der mittleren Troposphäre sinkt die spezifische Feuchtigkeit seit 70 Jahren (NASA ESRL 1948-2020: hier Abb. 20).

Kein Hot Spot bedeutet eine geringe Wasserdampfrückkopplung und sehr geringe Erwärmung, was die Analyse des Teams bestätigt und belegt, dass sie mit den Beobachtungen in der realen Welt übereinstimmt.

Abbildung 20: In der mittleren Troposphäre nimmt die spezifische Feuchtigkeit ab (Kalnay et al. 1996).

Schlussfolgerung: Der moralische Imperativ lautet: Zugang zu bezahlbarem Strom für alle!

Nachdem der schwerwiegende physikalische Fehler der Klimaforscher korrigiert worden war, beträgt die globale Erwärmung ein Drittel dessen, was prophezeit worden ist, kohärent mit der realen Erwärmung, die ein Drittel der von ihnen vorhergesagten beträgt, und kohärent mit dem Rückgang des Wasserdampfes in der mittleren tropischen Troposphäre und mit dem Fehlen des vorhergesagten Hot Spots.

Aufgrund des Fehlers vergeben viele Banken keine Kredite mehr an Entwicklungsländer für Kohlekraftwerke: ab 2010 die Weltbank; ab 2015 Credit Agricole, Citibank, ANZ und Goldman Sachs; ab 2016 JP Morgan, Deutsche Bank, PNC, Credit Suisse, ABN Amro, Standard Chartered, US Bancorp, Commerzbank und Barclays; ab 2017 DZ Bank und NAB; ab 2018 DBS; ab 2019 sogar die Afrikanische Entwicklungsbank.

Doch laut Weltgesundheitsorganisation sterben 4 Millionen Menschen pro Jahr in Haushalten ohne Strom durch das Einatmen von Kochfeuerrauch und 500.000 Frauen pro Jahr bei der Geburt – nur zwei der zahlreichen Ursachen für vorzeitigen Tod durch fehlenden Zugang zu Elektrizität. Die Internationale Energieagentur definiert „Zugang“ als nicht mehr als die Kapazität, eine 60-Watt-Glühbirne vier Stunden täglich zu benutzen. Eine Milliarde Menschen haben keinen Zugang zu elektrischer Energie – eine Entwicklungspriorität, die heutzutage sicher und erschwinglich durch Kohleverstromung erfüllt werden kann.

Die ungerechtfertigte Furcht vor einer großen, raschen und gefährlichen globalen Erwärmung hat Mittel für Umweltverbesserungen verschlungen, die für erschwingliche und praktikable Lösungen für die vielen realen Umweltprobleme hätten ausgegeben werden müssen, die sich aus Armut und Elend in den Entwicklungsländern ergeben – Lösungen wie die universelle, erschwingliche, kontinuierliche, zuverlässige, kohle- und gasbefeuerte Elektrifizierung, die jetzt wieder möglich ist.

Nach der Korrektur des Fehlers wird die Indoktrination von Kindern über die globale Erwärmung von Cannow eingestellt. Viele haben ihre Kindheit durch grundlose Angst ruiniert, manche haben sich sogar aus Verzweiflung umgebracht.

Es gibt viele wirkliche Umweltprobleme, aber die langsame, leichte und insgesamt vorteilhafte Erwärmung, die nach der Korrektur des langjährigen und kostspieligen Fehlers der Klimawissenschaftler zu erwarten ist, gehört nicht dazu.Die Palette von Klimaregeln, Beschränkungen, Steuern, Auflagen, Konferenzen, Reden und Verträgen ist unnötig. Die vom Menschen verursachte globale Erwärmung verursachte, verursacht keinen „Klima-Notstand und wird dies auch niemals verursachen“. Es ist alles vorbei.

References

Akasofu S-I (2013) On the present halting of global warming. Climate 1(1):4–11.

Aldrin M, Horden M, Guttorp P, Skeie RB, Myhre G, Berntsen TK (2012) Bayesian estimation of climate sensitivity based on a simple climate model fitted to observations of hemispheric temperature and global ocean heat content. Environmetrics 23:253–271. https://doi.org/10.1002/env.2140

Andrews T, Gregory JM, Webb MJ, Taylor KE (2012) Forcing, feedbacks and climate sensitivity in CMIP5 coupled atmosphere– ocean climate models. Geophys Res Lett 39:L09712. https://doi.org/10.1029/2012GL051607

Arrhenius S (1906) Die vermutliche Ursache der Klimaschwankungen (“The possible cause for climate variability”) Meddelanden från K Vetenskapsakademiens Nobelinstitut 1(2):1ff

Bates JR (2016) Estimating climate sensitivity using two-zone energy–balance models. Earth Space Sci 3(5):207–225. https://doi.org/10.1002/2015EA000154

Black HS (1934) Stabilized feedback amplifiers. Bell System Tech J 1–18

Bode HW (1945) Network analysis and feedback amplifier design. Van Nostrand Reinhold, New York, 31–43

Callendar GS (1938) The artificial production of carbon dioxide and its influence on temperature. Q.J.R. Met. Soc. 64(275), 223– 240. https://doi.org/10.1002/qj.49706427503

Charney JG, Arakawa A, Baker DJ, Bolin B, Dickinson RE, Goody RM, Leith CE, Stommel HM, Wunsch CI, (1979) Carbon

Dioxide and Climate: A Scientific Assessment Report of an Ad-Hoc Study Group on Carbon Dioxide and Climate. Climate Research Board, Assembly of Mathematical and Physical Sciences, National Research Council, Woods Hole, Massachusetts Christy J (2019) The tropical skies: falsifying climate alarm. Global Warming Policy Foundation, London.

Hansen J, Lacis A, Rind T, Russel G, Stone P, Fung I, Ruedy R, Lerner J (1984) Climate sensitivity 1984: Analysis of feedback mechanisms. In: Climate Processes and Climate Sensitivity (AGU Geophysical Monograph 29). Hansen J Takahashi T (eds).

American Geophysical Union 130-163

IPCC (1990) Climate change – The IPCC Assessment: Report prepared for the Intergovernmental Panel on Climate change by Working Group 1. Houghton JT, Jenkins GJ, Ephraums JJ (eds). Cambridge University Press

IPCC (2001) Climate Change 2001: The scientific basis Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Houghton JT et al (eds). Cambridge University Press

IPCC (2007) Climate Change 2007: The physical science basi.s Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Solomon S et al (eds). Cambridge University Press

IPCC (2013) Climate change 2013: The physical science basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Stocker TF et al (eds). Cambridge University Press

Kalnay E, Kanamitsu M, Kistler R, Collins W, Deaven D, Gandin L, Iredell M, Saha S, White G, Woollen J, Zhu Y, Chelliah M,

Ebisuzaki W, Higgins W, Janowiak J, Mo KC, Ropelewski C, Wang J, Leetmaa A, Reynolds R, Jenne R, Joseph D (1996) The NCEP/NCAR Reanalysis 40–year Project. Bull Amer Meteor Soc 77:437–471

Lacis AA, Schmidt GA, Rind D, Ruedy RA (2010) Atmospheric CO2: principal control knob governing Earth’s temperature. Science

330: 356–359

Lacis AA, Hansen JE, Russel GL, Oinas V, Jonas J (2013) The role of long-lived greenhouse gases as principal LW control knob that governs the global surface temperature for past and future climate change. Tellus B 65:19734: https://doi.org/10.3402/tellusb.v65i0.19734

Lanzante JR, Peterson TC, Wentz FJ, Vinnikov KY (2006) CCSP synthesis and assessment report 11. In: Temperature Trends in the lower atmosphere: steps for understanding and reconciling differences. US Climate Change Science Program and Subcommittee on

Global Change Research (Karl TR, Hassol SJ, Miller CD, Murray WL, eds.). National Oceanographic & Atmospheric Administration, National Climatic Data Center, Asheville North Carolina

Lee MI, Suarez MJ, Kang IS, Held IM, Kim D (2007) A moist benchmark calculation for the atmospheric general-circulation models. J Clim 21:4934–4954

Lewis N, Curry JA (2015) The implications for climate sensitivity of AR5 forcing and heat uptake estimates. Clim Dyn 45:1009–

1023. https://doi.org/10.1007/s003820142342y

Lindzen RS, Choi Y-S (2011) On the observational determination of climate sensitivity and its implications. Asia-Pacific J Atmos Sci 47(4):337–290. https://doi.org/10.1007/s131430110023x

Meehl GA, Senior CA, Eyring V, Flato G (2020) Context for interpreting equilibrium climate sensitivity and transient climate response from the CMIP6 Earth system models. Sci Adv 6(26). https://doi.org/10.1126/sciadv.aba1981

HadCRUT4 dataset: metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.6.0.0.monthly_ns_avg.txt (accessed

November 2020)

Otto A, Otto F, Boucher O et al (2013) Energy budget constraints on climate response. Nat Geosci 6:415–416. https://doi.org/10.1038/ngeo1836

Schlesinger ME (1988) Feedback analysis of results from energy balance and radiative–convective models In: MacCracken MC, Luther FM (eds). The potential climatic effects of increasing carbon dioxide. US Dept of Energy, Washington DC, pp 280–319

Sherwood SC, Webb MJ, Annan JD, Armour KC, Forster PM, Hargreaves JC, Hegerl G, Klein SA, Marvel KD, Rohling EJ, Watanabe M, Andrews T, Braconnot P, Bretherton CS, Foster GL, Hausfather Z, von der Heydt AS, Knutti R, Mauritsen T, Norris JR, Proistosescu C, Rugenstein M, Schmidt GA, Tokarska KB, Zelinka MD (2020) An assessment of Earth’s climate sensitivity using multiple lines of evidence. Rev Geophys. https://doi.org/10.1029/2019RG000678

Skeie RB, Berntsen T, Aldrin M, Holden M, Myhre G (2014) A lower and more constrained estimate of climate sensitivity using updated observations and detailed radiative forcing time series. Earth Syst Dyn 5:139–175

Soon WW-H, Connolly R, Connolly M (2015) Re-evaluating the role of solar variability on Northern Hemisphere temperature trends since the 19 century. Earth-Sci Rev 150:409–452. https://doi.org/10.1016/j.earscirev.2015.08.010

Spencer RW, Braswell WD (2014) The role of ENSO in global ocean temperature changes during 1955–2011 simulated with a 1D climate model. Asia–Pacific J Atmos Sci 50(2):229–237

UAH dataset: monthly global mean land and sea lower-troposphere temperature anomalies (accessed November 2020). http://www.nsstc.uah.edu/data/msu/v6.0/tlt/uahncdc_lt_6.0.txt

Wu T, Hu A, Gao F, Zhang J, Meehl GA (2019) New insights into natural variability and anthropogenic forcing of global/regional climate evolution. Clim Atmos Sci 2(18). https://doi.org/10.1038/s4161201900757

Zelinka MD, Myers TA, McCoy DT, Po-Chedley S, Caldwell PM, Ceppi P, Klein SA, Taylor KE (2020) Causes of higher climate sensitivity in CMIP6 models. Geophys Res Lett. https://doi.org/10.1029/2019GL085782

Autoren (die Argonauten):

Christopher Monckton of Brenchley (monckton@mail.com) is a former adviser to Margaret Thatcher on science and policy at 10 Downing Street. He discovered climate scientists’ error and gathered the Argonauts to investigate it.

Dr Dietrich Jeschke is Professor of Control Theory at the Flensburg University of Applied Sciences.

Dr Willie Soon is an award-winning astrophysicist at the Harvard-Smithsonian Center for Astrophysics.

Dr David Legates is Professor of Climatology at the University of Delaware and a former State Climatologist. He is currently Executive Director of the U.S. Global Change Research Program.

Dipl.-Ing. Michael Limburg is a control engineer and climate specialist at the Europäisches Institut für Klima und Energie.

Alex Henney (alexhenney@aol.com) advises governments worldwide on the global electricity market and grid development.

He conceived the idea for this plain man’s guide and wrote the first draft.

John Whitfield is a control engineer. He designed and built the test apparatus on which this research was verified. His work was later confirmed by a similar test apparatus at a government physical laboratory.

James Morrison is an environmental consultant who once sold wind turbines to Napa Valley wineries.

Dr Tom Sheahen is a physicist and alumnus of the Massachusetts Institute of Technology.

William Rostron is an award-winning control engineer who designed and programmed the world-leading integrated control system at the Oconee Nuclear Facility, Seneca, South Carolina.

Acknowledgements

The Argonauts thank Mr William Bailey, Professor Matt Briggs, Mr Edward Bullerdieck, the late Professor Freeman Dyson,

Professor Chris Essex, Professor Pat Frank, Professor Dr Hermann Harde, Mr Michael Haseler, President Václav Klaus,

Professor Dr Mojib Latif, Mr Nic Lewis, Professor Adrian Mathias, The Viscountess Monckton of Brenchley, Dr Benoît Rittaud, Academician Dr Vladimir Semenov, Professor Nir Shaviv, Dr Roger Taguchi, Mr George White and Academician Dr

Nina Zaytseva for discussions, Professor Ray Bates, The Baron Clanmorris of Newbrook, Dr Michael Connolly, Dr Ronan

Connolly, Professor Will Happer, Dr David Heald, Professor Murry Salby and the

Global Warming Policy Foundation for pre-submission reviews; Professor Maria da Assunção Ferreira Pedrosa de Araújo, The Rev. David Foster, Mr G. Edward Griffin, Ms Pamela Matlack-Klein, the late Professor Nils-Axel Mörner, Mr Hal Shurtleff, the Cambridge Union Society, the Charles University at Prague, the Government of Colombia, the Committee for a Constructive Tomorrow, the Government of the Czech Republic, the Deutscher Bundestag, the Europäisches Institut für Klima und Energie, the European Parliament, Hancock Prospecting, the Heartland Institute, the Hong Kong and Shanghai Banking Corporation, the International Committee on Geoethics, the Moscow City Government, the Oxford Union Society, the St Andrews University Union, the Conference of the Parties to the United Nations Framework Convention on Climate Chance and the U.S. House of Representatives for facilitating discussion of these and related ideas at international conferences; and Professor Antonino Zichichi for having provided, at the Centre for Scientific Culture in Erice, Sicily, the high-level scientific forum from which these ideas sprang. Those acknowledged may or may not endorse the Argonauts’ conclusions.

Übersetzt von Chris Frey EIKE

Bemerkung: Wer die Übersetzung überprüfen will, der klicke auf das beigefügte PDF im Original. Die über die Formatierungen in dieser Übersetzung hinaus gehenden Formatierungen konnten nicht mit übernommen werden.

climate-error-guide




Klimapolitik: Rohstoff Kohlendioxid

Panik ist bekanntlich das Gegenteil von überlegtem Handeln. Wie ist es so weit gekommen, dass ein Mädchen, das das Gegenteil von überlegtem Handeln fordert, von Wissenschaftsredakteuren – und nicht nur von ihnen – als Prophetin verehrt wird? Wie ist es so weit gekommen, dass man, wenn man diese Frage stellt, als genervter „Greta-Feind“ kategorisiert wird? Worin unterscheidet sich ein „Greta-Feind“ von einem „Klimaleugner“? Warum denken Menschen überhaupt in solchen Kategorien?

Lassen wir diese Fragen und den Panik-Hype des Jahres 2019 beiseite und widmen wir uns der Frage nach dem Handeln. Amerikanische Forscher haben das Szenario eines Atomkriegs zwischen Indien und Pakistan im Jahr 2025 untersucht. Sie beschreiben die Konsequenzen als globale Eiszeit: Die nuklearen Explosionen und die ausgelösten Brände würden enorme Mengen Rauch freisetzen. Dieser gelangt dem Szenario zufolge bis in die Stratosphäre und verringert die Sonneneinstrahlung. Die Folge: Die Temperaturen auf der Erde sänken um 3 bis 5,5 Grad Celsius. Damit wäre in etwa das Niveau der letzten großen Eiszeit vor 21.000 Jahren erreicht. Mit anderen Worten: Man kann den Planeten kühlen. Auch bei großen Vulkanausbrüchen (Krakatau 1883, Tambora 1915, Pinatubo 1991) konnten wir den kühlenden Effekt, wenn auch weniger drastisch, schon gut beobachten.

Wir Menschen beeinflussen das Klima. Im Moment vor allem unbeabsichtigt durch die Emission von Treibhausgasen. Im schlechtesten Fall durch verheerende Kriege (die eine echte globale Katastrophe wären und deren Verhinderung uns vielleicht mehr beschäftigen sollte). In Zukunft aber hoffentlich eher geplant, kontrolliert und zielgerichtet. Wir kennen Mechanismen, wie wir mit technischen Mitteln die globalen Temperaturen beeinflussen können. Und wenn die Temperaturen in den nächsten Jahrhunderten schneller oder weiter steigen, als uns lieb ist, dann sollten wir dies auch tun.

Ideologische und ökonomische Lobby für Wind und Sonne

Parallel dazu müssen wir uns mittelfristig auf das postfossile Zeitalter vorbereiten. Irgendwann wird es kommen. Entweder, weil wir aus Gründen der Klimakontrolle auf die Nutzung von Kohle, Gas und Erdöl verzichten, oder weil wir bessere, effizientere Alternativen haben und aus Kostengründen auf fossile Energien verzichten. Unbegrenzte Mengen Energie bei minimalem Landschaftsverbrauch und niedrigen Kosten kann mittel- und langfristig ohne jeden Zweifel die Kernenergie liefern. Weltweit wird daher an neuen Reaktorkonzepten gearbeitet. Vielleicht überwindet ja auch Deutschland irgendwann die lähmende Tabuisierung dieser Option.

Immerhin durfte Rainer Klute vom Verein Nuklearia kürzlich in einem Gastbeitrag in Die Zeit für ein Revival der Kernenergie plädieren. Er formulierte ein verlockendes und vollkommen realistisches Angebot:

Allein aus den gebrauchten Brennelementen in den verschiedenen Zwischenlagern könnte Deutschland 250 Jahre lang komplett mit Strom versorgt werden. Die Reaktoren der sogenannten Generation IV würden damit nicht nur die Endlagerfrage lösen, sie würden auch die Menge des nutzbaren Urans um das 50- bis 80-fache strecken, sodass es für zehntausende Jahre Stromerzeugung reichen würde – und das alles klimafreundlich und emissionsfrei.“

Allerdings ist die ideologische und ökonomische Lobby für Wind und Sonne hierzulande so stark, dass wir uns ziemlich sicher sein können, dass Deutschland bei der nuklearen Revolution als murrender Nachzügler ganz, ganz hinten mit dabei sein wird. Denn Erneuerbare, deren Förderung inzwischen ein vernünftiges Maß überschritten hat, dienen nicht zuletzt dazu, die Kernenergie und damit die Lösung des Klimaproblems zu verhindern.

Praktikabilität, Umweltauswirkungen und Kosten

Neben einer künstlichen Verringerung der Sonneneinstrahlung, dem Solar Radiation Management (SRM) nach Vorbild der Vulkane, haben wir auch die Möglichkeit, auf verschiedene Art und Weise klimawirksame Gase aus der Atmosphäre zu entfernen oder fernzuhalten. Das wird derzeit unter dem Stichwort „negative Emissionen“ diskutiert. Wir können aus CO2 Chemikalien oder Treibstoffe herstellen. Wir können es zur Ölförderung in den Untergrund pressen. Wir können es bei der Betonherstellung verwenden. Wir können es aus Kraftwerksabgasen abscheiden und unterirdisch lagern (Carbon Capture and Storage – CCS).

Wir können es durch Bäume aus der Luft holen und das Holz anschließend verbauen oder verbrennen (und das dabei wieder entstehende CO2 unterirdisch lagern (Bio Energy + CCS = BECCS)) oder Biokohle daraus herstellen und dies zur Bodenverbesserung einsetzen. Wir könnten Pflanzen so verändern, dass sie große Mengen Kohlenstoff in ihren Wurzeln speichern. Wir können Gestein zermahlen, das dann durch den Prozess der chemischen Verwitterung (enhanced weathering) CO2 aufnimmt. Besonders geeignet wäre das Silikatgestein Olivin. Das „Project Vesta“ verfolgt das Ziel, es in großen Mengen an Stränden auszubringen, wo die Bedingungen für die Verwitterung besonders gut wären.

Wir können durch Eisendüngung des Ozeans mit geringem Aufwand sehr große Mengen von CO2 in Phytoplankton binden und an den Meeresgrund befördern. Wir können auch mit Maschinen CO2 aus der Luft entfernen (Direct Air Capture) und endlagern (DACCS). In welchem Maße diese einzelnen Methoden in Zukunft zum Einsatz kommen, hängt von vielerlei Faktoren ab, insbesondere von der Praktikabilität, den Umweltauswirkungen und den Kosten. (1)

Die Aufforstung hat ihre Grenzen. Während ein Wald heranwächst, was bekanntlich Jahrzehnte dauert, entzieht er der Atmosphäre CO2. Wenn er aber „fertig“ ist, wird seine CO2-Bilanz ausgeglichen. Er setzt genauso viel CO2 frei, wie er aufnimmt. Es sei denn, man entnimmt ihm Holz und sorgt dafür, dass dieses sich nicht zersetzt. Zum Beispiel, indem man aus Holz Häuser baut. BECCS ist vergleichsweise teuer und braucht viel Land. Entsprechend ist auch der Transportaufwand hoch. DAC ist ebenfalls sehr aufwändig. Das Problem ist, dass die Maschinen viel Energie brauchen und diese Energie auch wieder CO2-frei erzeugt werden müsste. Entsprechend wären (bei Ablehnung der Kernenergie) sehr große Flächen mit Solarpanelen erforderlich.

Wenn Wale ins Wasser koten

Das Abscheiden von CO2 aus Kraftwerksabgasen ist technisch möglich, aber noch immer recht teuer. Ein komplett veränderter Verbrennungsprozess könnte das ändern. Der sogenannte Allam Cycle erlaubt die emissionsfreie Verbrennung fossiler Brennstoffe. CO2 entsteht dabei als reines Beiprodukt, das als Rohstoff weiterverwendet oder dauerhaft unterirdisch gelagert werden kann. Die Technologie wird derzeit in einer Demonstrationsanlage in Texas erprobt. Die USA fördern Innovationen zur Gewinnung, Nutzung und Lagerung von CO2 (CCS beziehungsweise CCU) seit Anfang 2018 durch substanzielle Steuergutschriften von 35 Dollar pro Tonne CO2, die zur kommerziellen Nutzung weiterverarbeitet wird, und 50 Dollar für die unterirdische Speicherung (siehe hier). Die Aktivitäten sind dort entsprechend umfangreicher und weiter als in Europa.

Das künstliche Anregen der derzeit relativ geringen biologischen Produktivität der Ozeane könnte eine sehr effektive und effiziente Methode sein. Der Ozeanograph John Martin hat das Potenzial schon 1988 pointiert benannt, als er sagte: „Gebt mir einen halben Tanker voll Eisen, und ich werde euch eine Eiszeit geben.“ Eine Steigerung der Produktivität des Phytoplanktons um ein Prozent könnte zu einer erhöhten CO2-Aufnahme führen, die der von rund zwei Milliarden ausgewachsenen Bäumen entspricht. Die Düngung geschieht auch auf natürliche Weise, wenn Staub vom Land in den Ozean gelangt, insbesondere aus Wüsten wie der Sahara und aus Patagonien, oder wenn Wale ins Wasser koten. (Eine Greenpeace-kompatible Variante des Climate Engineering wäre demnach der Versuch, ein schnelles Wachstum der Walpopulationen zu fördern, zumal Wale selbst, wenn sie sterben, mit sich rund 33 Tonnen CO2 in der Tiefsee beerdigen.)

Bei der direkten Beeinflussung des Klimas, unabhängig vom CO2 in der Atmosphäre, geht es vor allem darum, die Energiemenge der Sonne, die die Erdoberfläche erreicht, zu vermindern oder die Menge, die wieder ins All zurück reflektiert wird, zu vergrößern. Zu den diskutierten Ansätzen zählt das Aufhellen von Wolken über dem Meer (marine cloud brightening, MCB) durch das Einbringen von Salzkristallen (hiermit könnte auch lokale Kühlung, etwa von Korallenriffen, erfolgen und man könnte Hurricanes abschwächen (2)) und insbesondere das Ausbringen von Aerosolen nach dem Vorbild der Vulkanausbrüche beim sogenannten Solar Radiation Management (SRM). Dafür geeignete Flugzeuge zu bauen, ist technologisch keine große Herausforderung und dürfte auch nicht besonders teuer werden.

Und dann gibt es ja noch Flugscham und SUV-Verachtung

Forscher kamen in ihrer Kalkulation eines 15-Jahresprogramms, mit jährlich steigenden Ausbringmengen und dem Ziel einer Senkung der globalen Temperatur um 0,3 Kelvin auf jährliche Kosten von 2,25 Milliarden Dollar. Das ist weniger, als wir allein in Deutschland jeden Monat für die Subventionierung von Ökostrom ausgeben. Dutzende von Ländern verfügen sowohl über das nötige Geld als auch über die notwendigen technischen Möglichkeiten. Ob es je gemacht wird, wird sich zeigen. SRM ist gewissermaßen der Joker, der erst zum Einsatz kommen müsste, wenn eine akute Erwärmung vorübergehend gemildert werden soll, bis die mittelfristige Reduzierung der Treibhausgase ausreichend Wirkung zeigt.

Und dann gibt es ja noch Flugscham, SUV-Verachtung etc. Aber was soll man dazu schon sagen? Veränderungen des Lebensstils des (relativ kleinen) wohlhabenden Teils der Menschheit sind im Vergleich zu den genannten technischen Maßnahmen vollkommen irrelevant. Allein die Tatsache, dass die Grünen-Wähler nach 25 Jahren Kampf für mehr Klimaschutz als reisefreudige Besserverdiener noch immer einen weit überdurchschnittlichen CO2-Fußabdruck haben dürften, sollte genügen, den gesamten Komplex „Lebensstiländerung“ aus der Debatte zu nehmen. Das Ausmaß der Scheinheiligkeit westlicher Besserverdiener hat groteske Ausmaße angenommen.

Dies ist ein Auzug aus dem Buch: „Schluss mit der Klimakrise: Problemlösung statt Katastrophenbeschwörung“ von Thilo Spahl (Hrsg.), 2020, Edition Novo: Frankfurt/Main, hier bestellbar.

Zuerst erschienen bei Novo Argumente und der Achse des Guten,

Teil 1 finden Sie hier, Teil 2 finden Sie hier.

Weitere Quellen

(1) Hepburn et al.: „The technological and economic prospects for CO2 utilization and removal“ in: Nature 575, 2019, S. 87–97.

(2) Stephen Salter: „Can Marine Cloud Brightening Reduce Sea-surface Temperatures to Moderate Extreme Hurricanes and Typhoons?“ in: Atmospheric Science Letters 13/4, 2012, S.231–37.




Alle reden vom Winter – Auch die Batterien

[Damit Sie sehen, wohin die Links der genutzten Quellen Sie führt, habe ich diese in „Klartext“ eingefügt.]

Bei den Autos mit Verbrennungsmotor wird die reichliche Abwärme zum Wärmen des Innenraums genutzt. Für deren Starterbatterien gelten natürlich auch unten folgende physikalische Einschränkungen. Da  Starterbatterien meist im Motorraum eingebaut sind, werden sie natürlich während der Fahrt ebenfalls gewärmt.

Alle Batterietypen haben eine „Wohlfühlbereich“,  in dem sie am besten arbeiten. (Diese Tabelle kommt nicht von einer Seite für Antriebsbatterien für Fahrzeuge, nach u.g.  Fahrzeugtests, ist das vergleichbar)

GRAPHIC COURTESY OF SMARTBATTERY iu-768×400

Quelle: https://offgridham.com/2019/12/cold-weather-batteries/

Der oben angezeigte Kapazitätsverlust,  zeigt sich auch beim Reichweitentest des ADAC

ADAC infographic

Quelle: https://www.adac.de/rund-ums-fahrzeug/elektromobilitaet/info/elektroauto-reichweite-winter/

 

Der norwegische Automobilverband  (NAF) fuhr mit 20 Elektrofahrzeugen von Oslo bis Hafjell. Stadtverkehr, Autobahn und einen Gebirgspass. Geschwindigkeiten von 60 km/h bis 110 km/h

Es wird festgestellt, dass die von den Herstellern genannten Reichweiten (nach dem Praxis näherem WLTP Standard) bei keinem erreicht werden. Ebenso wurden die Ladezeiten gemessen  (nach mind. zwei Stunden Autobahn, damit die Batterien warm sind), um von 10% auf 80% Kapazität zu kommen. Der Test kommt zu dem Schluss, dass der Akku auch dann langsamer als angegeben geladen wird, wenn Sie alles richtig machen und es schwierig sein kann, den Akku vor dem Laden im Winter warm zu halten. Die Ladestationen konnten von den meisten Fahrzeuge mit bis zu 50kW belastet werden, Tesla konnte bis zu 200 kW nutzen.

Vergleichstabelle der in USA angebotenen E-Autos finden Sie hier: [wg. copyright nicht eingeklinkt)

https://insideevs.com/news/409231/ev-range-price-compared-us-april-2020/

Einzelbeschreibungen und Tests hier

https://insideevs.com/tag/wltp/

Darüber hinaus, sind zu tiefe (und natürlich auch zu hohe) Temperaturen dem Aufladen ebenfalls nicht förderlich. Moderne Batterieautos haben daher ein elektronisches Batteriemanagement, was  während des Ladevorgangs auch die Temperatur der Batterie überwacht und ggf.  anheizt. Bei LIO Batterien, werden die Zellen im Betrieb einzeln überwacht um schwächere Zellen evtl. nachzuladen und nicht zu überladen, bzw. überlasten.

https://www.naf.no/elbil/aktuelt/elbiltest/ev-winter-range-test-2020/

***

Nachfolgend ein Blog, in dem erklärt wird, warum man Lio Batterien nicht unter 0°C aufladen sollte (Temperatur der Batteriezelle(n))

https://electronics.stackexchange.com/questions/263036/why-charging-li-ion-batteries-in-cold-temperatures-would-harm-them

Temperaturen haben auch einen Effekt auf die Batterielebensdauer

mpoweruk_lithium failures_age_temperature

https://www.mpoweruk.com/lithium_failures.htm

 ***

Sowieso wird den E-Autos Besitzern, das Aufwärmen des Innenraums an der Steckdose geraten. Anstatt die Reichweite durch Heizung des Innenraums zu verkürzen, werden warme Kleidung, evtl. elektrisch heizbare für  Motorradfahrer und  elektrisch heizbares Lenkrad empfohlen.  Schwierig wird es natürlich bei vereisten Scheiben. Dann auftauen lassen und schnell eine Steckdose suchen.

***

Eine Studie untersucht den

Temperatureffekt und thermische Auswirkungen in Lithium-Ionen-Batterien: Ein Überblick

https://www.sciencedirect.com/science/article/pii/S1002007118307536

Abstrakt

Lithium-Ionen-Batterien mit hoher Energiedichte (bis zu 705 Wh / L) und Leistungsdichte (bis zu 10.000 W / L) weisen eine hohe Kapazität und eine hervorragende Arbeitsleistung auf. Lithium-Ionen-Batterien dienen als wiederaufladbare Batterien als Stromquellen in verschiedenen Anwendungssystemen. Die Temperatur als kritischer Faktor beeinflusst die Leistung von Lithium-Ionen-Batterien erheblich und schränkt auch die Anwendung von Lithium-Ionen-Batterien ein. Darüber hinaus führen unterschiedliche Temperaturbedingungen zu unterschiedlichen nachteiligen Auswirkungen. Genaue Messung der Temperatur in Lithium-Ionen-Batterien und Verständnis der Temperatureffektesind wichtig für das richtige Batteriemanagement. In diesem Aufsatz diskutieren wir die Auswirkungen der Temperatur auf Lithium-Ionen-Batterien sowohl im niedrigen als auch im hohen Temperaturbereich. Die aktuellen Ansätze zur Überwachung der Innentemperatur von Lithium-Ionen-Batterien sowohl über kontaktbehaftete als auch über kontaktlose Prozesse werden ebenfalls in der Übersicht erörtert.

Weitere Tipps einer Fachzeitschrift

https://www.auto-motor-und-sport.de/tech-zukunft/alternative-antriebe/elektroauto-heizung-im-winter-tipps-reichweite/

Auf deren Webseite fand ich einen Bericht über eine neue Wunderbatterie aus China.

https://www.auto-motor-und-sport.de/tech-zukunft/alternative-antriebe/nio-elektroauto-batterie-150-kwh/

Mit dieser großen Speicherkapazität  würde ein durchschnittlichen E-Autos auf locker 900 km kommen

Übertroffen wird das dann von der 1 Million Meilen Batterie:

https://www.aktionaer-report.de/1-million-meilen-batterie

Der chinesische Batteriehersteller CATL hat eine Batterie am Start, die eine Lebensdauer von zwei Millionen bzw. von bis zu 16 Jahren hat. Bislang lag die Grenze bei acht Jahren und rund 300.000 Kilometern.

Was davon zu halten ist, kann ich nicht beurteilen.

***

Bei so viel Batterien, kann natürlich auch mal über die Kosten einer Aufladung gesprochen werden. Ein Hauptargument der Käufer von Batterieautos ist sicherlich die Möglichkeit, an der heimatlichen Steckdose preiswert aufladen zu können. Wer wie die Teslabesitzer an Supercharge-Säulen tanken kann – um schnell geladen zu sein, sollte die Kosten für den Strom auch mal nachrechnen.

Bekannt ist mir, das Tesla seinen Käufern kostenlose Ladungen an einigen, eigenen Stationen anbietet. Ob sich das ändert, weiß ich nicht.

Eine australische Autoseite berichtet über eine kürzlich erfolgte Preiserhöhung für die Verwendung der leistungsstarken Tesla  Superchargers und falscher Angabe des Energiebedarf auf der Tesla-Website. In Australien würde daher das Aufladen an einem kostenpflichtigen Supercharger nun teurer als Benzin für ein Vergleichsfahrzeug sein.

Laut Tesla betragen die Kosten für das Aufladen eines Tesla Model 3 7 USD pro 100 km, verglichen mit 12 USD für ein konkurrierendes Benzinauto. Diese Schätzungen enthalten mindestens drei falsche Zahlen: Wie viel Strom ein Tesla Model 3 verbraucht, wie hoch die Stromkosten für einen Tesla- Supercharger sind und wie hoch der Benzinpreis ist.

Die jüngste Erhöhung der kWh auf 52 Cent pro Kilowattstunde liegt deutlich über den 42 c / kWh auf der Tesla-Website. Das bedeutet, dass das Aufladen selbst des effizientesten Tesla Model 3 Standard Range Plus, der nach Angaben der Regierung 18,8 kWh / 100 km verbraucht, mit einem Supercharger 9,78 USD pro 100 km kosten würde.

Ein konkurrierender BMW 330i kostet 8,00 USD pro 100 km, vorausgesetzt, die durchschnittlichen bleifreien Benzinkosten betragen 1,38 USD.  Das stammt von der Fuel Check-Website der NSW-Regierung. Würde der von BMW behauptete Durchschnitt von 5,8 Litern pro 100 km stimmen – weit unter dem auf der Tesla-Website verwendeten Wert von 7,0 l / 100 km – wäre der BMW 18 Prozent billiger als ein Tesla in den Kraftstoffkosten.

Wählen Sie den Lexus IS300h mit Hybridantrieb, und die Kraftstoffkosten pro 100 km sinken auf 6,76 US-Dollar – etwa 31 Prozent weniger als die Kosten eines Tesla, der mit einem Kompressor aufgeladen wird.

https://www.whichcar.com.au/car-news/teslas-now-more-expensive-to-charge-than-petrol-cars

An den Ladesäulen in meiner Stadt habe ich Preise von meist 50ct/kWh, tws. bis 60 ct/kWh gesehen (leistungsstärkere Stationen)

Bei obigen 18,8 kWh / 100 km wären das 9,40 Euro. Mein Nachbar, mit einem 2er Diesel fährt mit „um 6 l auf 100km,“ das wären dann aufgerundet z.Zt.  nicht mehr als 7 Euro.

Fazit: In USA ist der Strom billiger als ausgerechnet in Südaustralien oder Deutschland. In USA, in einer günstigen Gegend,  sieht sicherlich ganz anders aus.

Daher zu Hause Strom aufladen, und in der Garage vorwärmen.

Demmig: Photovoltaik Fläche im Schnee

PS: Bei Schnee kein Ökostrom

Gefunden und zusammengestellt von Andreas Demmig




Mobiles AKW läuft und läuft: Licht und Wärme für Sibirien

Der Weg wurde begleitet von lautstarken Protesten von Greenpeace, die das schwimmende KKW als „Schwimmendes Fukushima“ bezeichneten und den baldigen Untergang prophezeiten.

Seither schweigt sich die deutsche Presse weitgehend über das Projekt aus, die letzten Meldungen sind fast zwei Jahre alt. Und sie sind natürlich mit den Warnhinweisen von Greenpeace über das „Tschernobyl auf dem Wasser“ versehen.

Die schwimmende Energieeinheit „Akademik Lomonosov“ ist der Prototyp einer Reihe von mobilen Kernkraftwerken mit zwei Reaktoren einer Leistung von je 40 Megawatt. Es ist für den Betrieb als schwimmendes Kernkraftwerk (APEC) konzipiert und stellt eine neue Klasse von Stromerzeugungsanlagen dar, die auf der russischen Nuklearschiffbautechnologie basiert.

100.000 Menschen mit Strom und Wärme versorgen

Der Typ Kernkraftwerk „Akademik Lomonosov“ soll der Energieversorgung von großen Industrieunternehmen, Hafenstädten, Öl- und Gasverarbeitungskomplexen dienen und wird auf der Grundlage des seriellen Baus von nuklearen Eisbrechern erstellt, einer Technologie, die bereits während ihres langen Betriebs in der Arktis getestet wurde.

Die „Akademik Lomonosov“ ist mit zwei Reaktoranlagen KLT-40S ausgestattet. Gemeinsam sind sie in der Lage, 70 MW Strom und bis zu 50 Gcal/h thermische Energie in Onshore-Netze zu liefern, um Strom und Heizwasser für Städte zu liefern.

Ohne Wärmeauskopplung beträgt die Stromerzeugungskapazität etwa 76 MW. Bei der Abgabe einer maximalen Wärmeleistung von ca. 146 Gcal/h beträgt die elektrische Leistung, die an das Netz abgegeben werden kann, etwa 44 MW. Die „Akademik Lomonossow“ wird somit in der Lage sein, eine Bevölkerung von etwa 100.000 Menschen mit Strom und Wärme zu versorgen. Das Projekt ist für die zuverlässige ganzjährige Wärme- und Stromversorgung in den entlegensten Gebieten der Arktis und des Fernen Ostens konzipiert.

Achgut.com berichtete auch schon über den Start des ersten Reaktors des schwimmenden Kernkraftwerkes. Wie ist der Stand heute?

Der Bau der „Akademik Lomonosov“ wurde 2006 bei Sevmash FGUP in Severodvinsk, im Auftrag des russischen Staatskonzerns Rosenergoatom, der alle russischen Kernkraftwerke betreibt, begonnen. Ab 2009 wurde im Baltic Shipbuilding Werk in St. Petersburg weitergebaut.

Die „Akademik Lomonossow“ löst gleich zwei Probleme

Am 30. Juni 2010 fand der Stapellauf der „Akademik Lomonossov“ statt. Im Jahre 2011 wurde der Schiffspram an den Anlagenbauer für die Energieanlagen ausgeliefert.

Am 7. Dezember 2012 unterzeichneten der Konzern Rosenergoatom und Baltic Shipbuilding Ltd. einen Vertrag über den Anschluss des schwimmenden Kernkraftwerks an das Tschukotische Stromnetz. Der Anschlussstandort befindet sich in der sibirischen Stadt Pevek der autonomen Region der Tschuktschen in der Nähe der Beringstraße, im hohen Norden Sibiriens.

Am 28. April 2018 wurde das schwimmende Kernkraftwerk über die Ostsee nach Murmansk geschleppt und machte am Atomflot-Standort für die Verladung und Erprobung von Kernbrennstoffen fest. Dieser Standort ist auch die Basis der russischen Atom-Eisbrecher-Flotte.

Am 23. August 2019 begann der Transport der „Akademik Lomonosov“ von Murmansk in die Stadt Pevek, wo sie am 9. September ankam.

Am 19. Dezember 2019 lieferte das schwimmende Kernkraftwerk im Probebetrieb den ersten Strom an das sibirische Insel-Netz. Der Probebetrieb war am 22. Mai 2020 abgeschlossen und die industriemäßige Produktion lief an. Am 30. Juni 2020 wurde die Wärmeauskopplung für Pevek an die Energiekreisläufe des Kernkraftwerkes gekoppelt.

Die „Akademik Lomonossow“ löst gleich zwei Probleme. Erstens handelt es sich um den Ersatz der alten Reaktoren des Kernkraftwerks Bilibino, das seit 1974 in Betrieb ist, sowie des Kohleheizwerkes Chaun, das mehr als 70 Jahre alt ist. Zweitens versorgt sie die wichtigen Bergbauunternehmen im westlichen Bilibino-Bezirk mit Energie – einem großen Erz-Metall-Cluster, einschließlich Goldminen und der Entwicklung der Baim-Erzzone.

Das Projekt „schwimmendes Kernkraftwerk“ hat weltweit keine Analogie. Daher erregt es besondere Aufmerksamkeit. Heute interessieren sich viele Länder in Südostasien und dem Nahen Osten für das Konzept der schwimmenden Kernkraftwerke. Das Projekt rechnet sich für die Russen, wenn sie mehr als sechs dieses Typs bauen können.

Noch eine Nachbemerkung:

Gerade hat der schwedische Staatskonzern Vattenfall den Zuschlag für die Abschaltung eines der modernsten Kohlekraftwerke der Welt, des Hamburger Doppelblocks Moorburg bekommen. Fast drei Milliarden Euro investiertes Geld sind futsch und Vattenfall bekommt noch mehr als 200 Millionen Steuergeld für die Stilllegung eines drei Jahre jungen Kraftwerks von 1.600 MW, das eigentlich noch eine Lebenserwartung von mindestens 30 Jahren vor sich hätte. Moorburg könnte ständig so viel Strom produzieren wie etwa 3.000 Windräder. Nur – auch bei Nacht und Flaute.

Was kaum jemand weiß: Moorburg gehört zu den ganz wenigen „schwarzstartfähigen“ Kraftwerken Deutschlands. Das bedeutet, dass dieses Kraftwerk imstande wäre, nach einem Blackout ohne ein funktionsfähiges Landesnetz wieder angefahren werden zu können. Nur mittels solcher schwarzstartfähigen Kraftwerke ist es überhaupt möglich, nach einem Blackout Strom zu erzeugen und das Netz schrittweise wieder aufzubauen. Noch zur Information: Windräder und Solarpaneele sind nicht „schwarzstartfähig“.

Wenn jetzt nicht noch die Netzbetreiber dazwischen grätschen und Moorburg als „Systemkraftwerk“ einstufen, kommt bald die Abrissbirne. Nur komplett Irre machen so etwas. Aber vielleicht schicken die Russen ja ein schwimmendes Kernkraftwerk nach Hamburg, wenn es hart auf hart kommt. Das ist nämlich „schwarzstartfähig“.

 

Weihnachten und Lockdown ist Lese- und Schenkenszeit. Manfred Haferburg ist Autor des Romans „Wohn-Haft“. Das Buch basiert auf einer wahren Geschichte und erzählt, wie ein selbst denkender Mensch in einer sozialistischen Diktatur zum Spielball und Opfer der Mächtigen und ihrer Mitläufer wird. Wir müssen alle aufpassen, dass aus „Wohn-Haft“ nicht ein Science-Fiktion-Roman wird.

Der Beitrag erschien zuerst bei ACHGUT hier




Fördern ohne zu fordern

Feindbild Unternehmer

Die aktuelle Weltanschauung ist geprägt von Heldinnen wie Greta: voller guter Absicht, aber ohne Verständnis für Zusammenhänge. Personen, die nicht wissen, was Wirtschaft ist und nicht erkennen, dass sie selbst ein Teil davon sind, sehen in Unternehmern nur Ausbeuter, welche auf Kosten anderer Profit machen und dabei die Umwelt zerstören. Im Geiste dieser Zeit wird die Leistung von Gründern kaum honoriert.

Die Gründung von Unternehmen ist jedoch Voraussetzung für jegliche Zivilisation. Es ist der Start eines Spiels, bei dem alle gewinnen: Verbraucher, Arbeiter, Banken, Finanzamt und der Unternehmer selbst. Durch den systematischen Einsatz von Ressourcen wird etwas erzeugt, was von Nutzen für die Gemeinschaft ist. Der Einzelne wird davon befreit, seinen persönlichen Bedarf selbst schaffen zu müssen. Er braucht sich nicht mehr das Wasser zum Trinken aus dem Fluss zu holen, er muss nicht nach Ratten oder Fischen jagen, um seinen Proteinbedarf zu decken, und er braucht seine Schuhe nicht aus Baumrinde zu schnitzen.

Er dreht stattdessen den Wasserhahn auf und geht in den Supermarkt. Unternehmertum ist nichts anderes, als die intelligente Organisation der Nutzung von Ressourcen zum Wohle der Menschheit.

Willkommen im Kongo

Wie sähe eine Welt ohne Unternehmer aus? Dazu gibt es dramatische Fallbeispiele, etwa den Kongo: zwei Millionen Quadratkilometer, wo in der Erde jede Menge wunderbare Dingen wie Kupfer, Kobalt und Diamanten schlummern (und vielleicht auch Kobolde). Klima und Boden sind wohlwollend, sodass man anpflanzen könnte was man will, und an jungen, starken Arbeitskräften mangelt es auch nicht. Eine riesige natürliche Autobahn aus Wasser durchzieht das Land, ideal für den Transport von Personen und Waren.

Und es ist das ärmste Land der Welt, mit geschätzten €500 Bruttosozialprodukt pro Kopf jährlich. Warum?

Die politische korrekte Erklärung für die Misere lautet: Ausbeutung durch den weißen Mann. Dieses Argument aber verliert an Logik, je länger die Kolonialzeit zurück liegt.

Die nächste Erklärung ist Korruption. Die Eliten aller Subsahara Staaten zeichnen sich ja dadurch aus, dass sie Privilegien, die ihnen für ihre politischen Aufgaben zugestanden werden, gnadenlos zur persönlichen Bereicherung missbrauchen. Aber ist das nur in Afrika so? Es gibt andere Länder, in denen die Wirtschaft trotz Korruption funktioniert.

Warum also ist der Kongo so arm? Warum macht das Land nichts aus all den Schätzen, die vor den Augen und unter den Füßen liegen? Weil es niemanden gibt, der die intelligente Nutzung von Ressourcen zum Wohle der Menschheit organisiert! Mit anderen Worten: Es gibt keine Unternehmer. Afrika hat viel Tradition, etwa in kriegerischen Dingen, aber anders als im Rest der Welt gibt es keinerlei Tradition in Sachen Unternehmertum.

Dieses Problem konnte bisher auch nicht durch Abermilliarden an so genannter Entwicklungshilfe gelöst werden. Im Gegenteil: den Geldsegen, den man über dem Kontinent ausgeschüttet hat, haben sich flinke NGOs und Regierungschefs geteilt. So wurden Faulheit und Korruption belohnt, die elementare unternehmerische Erfahrung aber, nämlich „Erfolg durch harte Arbeit“, wurde verhindert. Deswegen haben heute die ärmsten Länder der Erde die reichsten Regierungschefs, aber keine ehrlichen Unternehmer.

Kein Klima für Startups

Vom Kongo an die Spree, wo die deutsche Regierung gerade den „Zukunftsfonds“ ins Leben gerufen hat; einen Topf mit zehn Milliarden, gefüllt durch die öffentliche Hand, aber auch offen für private Investoren. Das Geld soll ab Januar 2021 für Firmengründungen zur Verfügung stehen, vorzugsweise in der Hauptstadt, unter dem Motto „Innovation made in Germany“.

Die deutsche Politik hat in den vergangenen Jahren ja alles getan hat, um privates Unternehmertum zu behindern. Hohe Steuern, horrende Sozialabgaben, unnötige Regularien, träge Bürokratie und die höchsten Strompreise weltweit haben dafür gesorgt, dass ehemals sehr erfolgreiche Branchen ausgewandert oder verschwunden sind. Das ist nicht der Boden, auf dem Neugründungen gedeihen, die dann im internationalen Wettbewerb bestehen sollen. In den vergangenen Jahren haben ganze acht Startups in Berlin die Milliarden Dollar Schwelle erreicht, im Vergleich zu London mit 36 und Silicon Valley mit 128.

Der erwähnte Goldregen aus dem Zukunftsfonds, einer Entwicklungshilfe in Sachen Hitech, soll diese Situation nun ändern und tüchtige Unternehmer und erfolgreiche Startups schaffen. Geht das denn? Erinnern Sie sich an den Kongo. Vielleicht zieht der Geldsegen auch hier flinke Profiteure an, etwa Agenten, die Firmengründer bei der Beschaffung von Mitteln aus dem Zukunftstopf beraten und dann selbst von dem Segen etwas abbekommen.

Und auch die vermeintlichen Gründer werden schnell erkennen, wie man an Geld kommt, ohne ein Produkt zu haben, das sich verkaufen lässt. Sie lernen, dass man mit weniger Anstrengung aber der richtigen politischen Haltung, dank großzügiger Förderung durch den Staat überleben kann.

Das aber wäre genau das falsche Training für werdende Unternehmer. Schwimmen lernt man nur ohne Schwimmgürtel.

Der Genius loci

Und noch etwas. Da gibt es so etwas wie den „Genius loci“, den typischen Geist der einem Ort innewohnt. Berlin etwa ist „arm aber sexy“. Vielleicht haben Sie auch beobachtet, wie nach dem Umzug aus Bonn dieser Geist das Wesen der deutschen Regierung gefärbt hat – wobei ich mir bei dem zweiten Attribut nicht so sicher bin.

Berlin ist, wirtschaftlich gesehen, ein Parasit. Ohne den Länderfinanzausgleich und die Geldströme, die durch die Regierungsgeschäfte in die Stadt gesogen werden könnte die Stadt nicht überleben. Ist das der geeignete Nährboden für Unternehmensgründungen? Dafür gäbe es eine bessere Scholle, etwa im Süden und Westen des Landes, wo die Geldströme Richtung Hauptstadt erarbeitet werden. Aber für diese spießigen und sparsamen Tüftler hat man dort nur Verachtung übrig.

Man scheut sich, an die Tradition der sehr erfolgreichen deutschen Unternehmensgründungen in der zweiten Hälfte des 20. Jahrhundert anzuknüpfen. Stattdessen orientiert man sich lieber an den Startups Kaliforniens und bedient sich auch deren Vokabulars.

Fake it Until You Make it

Es mag durchaus ein interessanter Versuch sein, gewisse Gepflogenheiten vom Silicon Valley zu imitieren, nach dem Motto „Fake it until you make it“. Aber entsteht deswegen in Berlin eine kritische Masse an Unternehmern? Im Valley etwa ist es üblich, gescheiterte Projekte nicht in einen Mantel des Schweigens zu hüllen und in der Versenkung verschwinden zu lassen, sondern sie werden mit Saus, Braus und Party beerdigt. Und um aus den gemachten Fehlern zu lernen gibt es dann eine Vorlesung zum „Fuck Up“ des Jahres, zum Champion unter den Blindgängern.

So etwas gefällt den Berlinern und man macht das jetzt auch an der Humboldt Uni. Im Silicon  Valley wäre die entsprechende Vorlesung vermutlich an der Stanford University.

Und hier enden die Möglichkeiten einer Imitation. Stanford liegt im World Ranking der Universitäten unter den ersten drei, Humboldt auf Platz 117. Und diese Zahlen charakterisieren nicht nur die Hochschulen, sondern in gewisser Weise auch die Qualität ihrer Absolventen.

Der Raketentreibstoff

Mit Geld alleine kommt ein Startup nicht in die Höhe, da braucht sie noch andere Zutaten. Der Treibstoff für Raketen hat ja auch mehrere Komponenten. Auf jeden Fall braucht es eine sehr gute fachlich – technische Kompetenz, Disziplin, Kreativität und Beharrlichkeit. Sie sagen nun, solche Tugenden seien total von gestern? Mag schon sein, aber gestern war Deutschland auch noch ein Land mit blühender Wirtschaft, und nicht nur technologisch führend, sondern auch im Fußball. Jetzt liegt die Quittung für Jahrzehnte ideologischer, leistungsfeindlicher und technophober Politik vor uns.

Es hat sich gezeigt, dass Regierungen besonders dann sehr großzügig Geld ausgeben, wenn es um das Kaschieren von Fehlern in ihrer Politik geht. So will man jetzt mit viel Geld schicke Startups aus dem Boden stampfen und mit Slogans wie „Innovation made in Germany“ eine Zugehörigkeit zu technologischer Weltklasse vorspiegeln.

Sicherlich werden wir dann in einiger Zeit eine telegene junge Unternehmerin in den Talkshows sehen, die vom grandiosen Erfolg ihrer Firma schwärmt, der dank des Zukunftsfonds und der wunderbar innovativen Stimmung in der Hauptstadt möglich wurde. Aber dass an der Spree ein zweites Silicon Valley entsteht, daran habe ich meine Zweifel.

Das „fake It“ ist zwar durchaus vorstellbar, das „make it“ aber nicht unbedingt.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Prinz Harry: Covid ist eine Ermahnung der Natur – wegen Klimazerstörung?

Der Thronfolger und Fürst von Wales, Charles, ist bekannt für sein Engagement für „Umweltschutz“. Er hatte mehrfach Fristen für den Weltuntergang ausgerufen, die unbeachtet verstrichen (aktuell 2019, Bild: Prinz Charles gibt der Welt noch 18 Monate Zeit).

Sein jüngerer Sohn, Henry Charles Albert David („Harry“), in den Medien vor allem durch seine Ehe mit der schönen Meghan bekannt, tritt in die Fußstapfen seines Vaters und behauptet in einem aktuellen Video, die angebliche Sars2-Pandemie sei eine „Ermahnung der Natur“.

Es ist fast so, als habe Mutter Natur uns auf unser Zimmer geschickt, damit wir nachdenken können, was wir angerichtet haben.

Behauptet Harry hier allen Ernstes, daß das Wuhan-Virus wegen Klimaerwärmung auf den Menschen überspringen konnte? Zwar sind heiße Regionen generell anfälliger für die Entwicklung von Parasiten jeder Art (Viren sind Zell-Parasiten), bestes Beispiel ist Westafrika (Ebola). Aber Wuhan liegt in Zentralchina und nicht im „blauen“ Süden, wo es warm ist. Und daß eine Anhebung der mittleren Temperatur im Gebiet nachweisbar ist und die sich auch noch relevant auf Viren, Fleder- und Schuppentiere auswirke… nun ja, lassen wir das, wir sind ja ein Wissenschaftsblog.

Pikanterweise ist Prinz Harry, ähnlich wie Leonardo di Caprio, bekannt für seine himmelschreiende Doppelmoral, weil er gern privat, viel, und weit fliegt.

Charles und Harry sind nicht die einzigen, die in der Postmoderne Naturkatastrophen als quasi göttliche Strafen für irgendwelches Fehlverhalten interpretieren. Auch John Houghton, ehemals IPCC-Chef, soll 1994 gesagt haben, “

Solange wir keine Katastrophe ankündigen, wird keiner zuhören.

Den Klimawandel betrachte er

….als Strafe Gottes für unsere Sünden

Kein Wunder, daß Kritiker wie Norbert Bolz von „Fernsehpredigern“ sprechen und Klimaschutz und ähnliches als para-religiöse Veranstaltung empfinden. Fehlt das klassische Christentum oder Judentum, suchen sich satte Menschen etwas Neues.

Nebenbei, Naturkatastrophen für Interessen zu instrumentalisieren, ist sogar außerhalb des klimapolitmedialen Komplexes üblich. Die bekannte Schauspielerin Jennifer Lawrence brachte Tropenstürme 2017 mit der Wahl Donald Trumps in Verbindung.

Man sieht diese Hurrikane, und es ist wirklich schwer, nicht die Wut von Mutter Natur zu spüren, ihren Zorn

 

 

 




Klima : Erderwärmung ? Vielleicht passiert auch das genaue Gegenteil.*

Im Juli 1657 erklärte Friedrich III. von Dänemark und Norwegen dem Nachbarn Schweden den Krieg. Dabei wähnte er sich angesichts der übermächtigen Marine Dänemarks derart sicher, dass er auf seiner Hauptinsel Seeland kein Heer zusammenzog. Diesen Fehler sollte Friedrich im darauffolgenden Winter bitter bereuen. Da nämlich marschierten die Truppen von Karl X. Gustav von Schweden über den zugefrorenen Kleinen und Großen Belt nach Seeland, woraufhin der paralysierte König der Dänen und Norweger am 24. Februar 1658 den Frieden von Roskilde unterzeichnen musste, der ihm schmerzliche Gebietsverluste bescherte. Das Ganze war eine der vielen Auswirkungen der sogenannten „Kleinen Eiszeit“, die von etwa 1250 bis 1850 andauerte. In deren Verlauf sank die globale Durchschnittstemperatur um bis zu zwei Grad, was unter anderem Missernten, Hungersnöte und Teuerungen sowie daraus resultierende soziale Unruhen zur Folge hatte.

Besonders kalt fiel dabei die Phase zwischen 1645 und 1715 aus, die als Maunder-Minimum bezeichnet wird. Weitere heftige Temperaturstürze gab es auch während des Dalton-Minimums von 1790 bis 1830, des Spörer-Minimums von 1420 bis 1570 und des Wolf-Minimums von 1280 bis 1340. Ursache waren in jedem Falle Vulkanausbrüche, durch die große Mengen Asche und Gase in die Erdatmosphäre gelangten, Änderungen der Erdumlaufbahn sowie eine verringerte Aktivität der Sonne.

Der Abstand unseres Planeten zur Sonne schwankt – je nachdem, ob er mehr kreisförmig oder mehr elliptisch um das Zentralgestirn kreist. Dazu kommt das rhythmische Kippen der Erdachse: Je stärker diese geneigt ist, desto kälter kann es werden.

Sonnenflecken sind entscheidend

Den größten Einfluss auf die globale Temperaturentwicklung übt jedoch ganz offensichtlich die Sonne aus. Sie strahlt mal kräftiger und mal schwächer – das resultiert aus Veränderungen ihrer inneren Magnetfelder, die ähnlich wie bei einem elektrischen Dynamo Energie erzeugen. Markantester Ausdruck solcher Abweichungen ist die Zahl der Sonnenflecken, welche teilweise schon mit bloßem Auge beim Auf- und Untergang der Sonne oder einfachen Fernrohren zu sehen sind. Gibt es viele solcher dunkler Stellen auf der Oberfläche unseres Zentralgestirns, dann nimmt dessen Strahlung zu, werden sie weniger oder verschwinden sie komplett, geht die Strahlungsintensität zurück. Während des Maunder-Minimums erschienen lediglich 50 Sonnenflecken, und von 1672 bis 1704 gab es überhaupt keine – normal wären einige Tausend gewesen.

Im 20. Jahrhundert befand sich die Sonne hingegen in einer ungewöhnlich aktiven Phase, dem „Modernen“ beziehungsweise „Großen Maximum“, als dessen Höhepunkt die Jahre 1957/58 gelten. Zwischen 1950 und 2000 lag die Zahl der Sonnenflecken doppelt so hoch wie zum Ende der „Kleinen Eiszeit“, allerdings mit deutlich abnehmender Tendenz. Das nährte ab etwa 1970 die Befürchtung, unserem Planeten stehe eine baldige neue Kälteperiode bevor.

So warnte die Presse damals fast unisono vor dem kommenden „Cold Snap“ (Kälteeinbruch) und der „Spiegel“ schrieb am 12. August 1974, die Klimaabkühlung könnte zum Verhungern von einer Milliarde Menschen führen.

Zum Ende der 1980er Jahre hin verdrängte dann freilich das gegensätzliche Narrativ von der globalen Erwärmung die Warnungen vor der kommenden Eiszeit.

Seitdem war in wachsendem Maße davon die Rede, dass die Temperatur nicht sinken, sondern kontinuierlich steigen werde und der Mensch mit seinen Emissionen daran schuld sei. Nun liegen jedoch neue wissenschaftliche Erkenntnisse vor, welche das Szenario von einer drohenden Eiszeit doch nicht so unrealistisch erscheinen lassen, wie das Gros der Klimaforscher es heute gerne hätte.

So untersuchten Dan Lubin und David Tytler von der Universität von Kalifornien in San Diego mehr als 30 sonnenähnliche Sterne, die gerade ein starkes Aktivitätsminimum aufweisen, um abzuschätzen, wie weit sich die Strahlung unseres Gestirns im Vergleich zu heute abschwächen könnte. Dabei kamen sie auf einen Wert von immerhin bis zu sieben Prozent. Allerdings vertreten Lubin und Tytler die Ansicht, dass die hierdurch verursachte Abkühlung erst ab 2050 einsetzen werde.

Dahingegen erwartet die aus der Ukraine stammende Mathematikerin Valentina Zharkova von der Northumbria-Universität in Newcastle den Beginn der nächsten „Kleinen Eiszeit“ aufgrund der reduzierten Sonnenaktivität bereits 2021, wonach die Zahl der Sonnenflecken bis in die 2030er Jahre hinein um 60 Prozent zurückgehen – wie während des Maunder-Minimums. Das mathematische Modell vom Zharkova hat angeblich eine Vorhersagegenauigkeit von 97 Prozent.

Andere Forscher halten dagegen

Die dritte alarmierende Nachricht stammt von Martin Mlynczak vom Langley Research Center der NASA. Er verweist auf Daten des Forschungssatelliten TIMED, welcher die Verhältnisse in der oberen Erdatmosphäre untersucht und eine deutliche Abkühlung registriert hat. Für Mlynczak ist dies die Folge der verminderten Sonnenaktivität. Gleichzeitig meint der Wissenschaftler aber, die Messungen von TIMED stünden nicht im Widerspruch zu der herrschenden Meinung vom Temperaturanstieg in den unteren Bereichen der Lufthülle unseres Planeten.

Ähnlich argumentieren auch all jene, die unerschütterlich an der These von der menschengemachten globalen Erwärmung oder gar „Erhitzung“ festhalten, so wie beispielsweise die Mitarbeiter des Potsdam-Instituts für Klimafolgenforschung (PIK), das den Weltklimarat IPCC unterstützt, der wiederum den Takt im „Kampf gegen den Klimawandel“ vorgibt.

Zwar hüten diese sich, die eindeutigen wissenschaftlichen Befunde hinsichtlich der Schwankungen der Sonnenaktivität offiziell anzuzweifeln, behaupten aber, der möglicherweise bevorstehende Rückgang bei der Strahlungsintensität unseres Zentralgestirns werde kaum nennenswerte Auswirkungen zeitigen. Denn er könne nur zu einer Abkühlung von maximal 0,3 Grad führen, wohingegen der drohende Temperaturanstieg durch die ausgestoßenen Treibhausgase vier Grad betrage.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  4. Dezember 2020, S.12; EIKE dankt der PAZ-Redaktion sowie dem Autor Wolfgang Kaufmann für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




VW-Chef Herbert Diess: Murks statt Musk

Das liegt an der Tatsache, dass in Fallersleben schon vor dem Krieg eine Fabrik für den “Kraft durch Freude-Wagen (KdF)” entstand. Die “deutsche Arbeitsfront” wollte für den einfachen Arbeiter die Massenmotorisierung mit einem Rabattmarkenheft beginnen. So sollten die 1.000 Reichsmark Kaufpreis angespart werden. Für die Menschen, die dort arbeiten sollten, baute der Führer eine neue Stadt: Wolfsburg.

Doch statt des KdF-Wagen liefen hauptsächlich “Kübelwagen” vom Band, die die Wehrmacht bis vor die Tore Moskaus bringen sollten. Konstruiert hatte den späteren VW Käfer Ferdinand Porsche, der prägende Techniker der deutschen Vorkriegs-Auto-Industrie.

1960 wurde VW privatisiert. Aus der Volkswagen GmbH wurde eine Aktiengesellschaft, an der sich die deutschen Bürger beteiligen sollten. Ganz aus der Hand wollte der Staat die Macht nicht geben. Das damals in Kraft getretene Gesetz sieht vor, dass wesentliche Entscheidungen mit einer mehr als 80-prozentigen Mehrheit getroffen werden. Die Stimmrechte jeden Aktionärs sind unabhängig von der Anzahl der Aktien auf 20 Prozent beschränkt. So viele hält auch das Land Niedersachsen, gegen das so im Zweifel nichts entschieden werden kann. Und die jeweilige Landesregierung sieht in den rund 250.000 Menschen, die in Niedersachsen direkt oder indirekt für Volkswagen arbeiten, potenzielle Wähler. Gegen die Belegschaftsvertreter stimmt der Ministerpräsident, der im Aufsichtsrat sitzt, nur selten. 50 Prozent der VW-Aktie gehören heute der Porsche Holding SE. In deren Aufsichtsrat sitzt auf Arbeitnehmerseite natürlich Bernd Osterloh.

Ohne Gesichtsverlust in die Kurzarbeit gerettet

Im Februar/März, noch vor dem CORONA-Lockdown, wurde bekannt, dass VW bevorzugt in Norddeutschland händeringend Parkplätze sucht. Die beiden fast zeitnah eingeführten Modelle, die neueste Generation des Golfs und das neue Elektroauto ID.3 hatten so große Software-Probleme, dass sie nicht ausgeliefert werden konnten und bis zum Beheben der Fehler sprichwörtlich zwischengeparkt werden sollten. Selbst der Pannenflughafen BER war im Gespräch. Dank Corona konnte man sich ohne Gesichtsverlust in die Kurzarbeit retten.

Die paritätische Mitbestimmung hat in Deutschlands Industrie zur Konsensgesellschaft geführt. Der Produktivitätsgewinn wird zwischen Kapitalgebern und Belegschaft aufgeteilt und die Arbeitnehmervertreter haben auch die Unternehmensinteressen im Blick. Da wundert es nicht, dass Osterloh im März der Kragen platzte: “Hier wollen übereifrige Vorstände zu schnell zu viel Technik in ein Auto stopfen – und sind damit gescheitert”. Und führende IG-Metall Funktionäre schrieben in einem offenen Brief: “Für uns ist das Maß inzwischen unerträglich. Mittlerweile ist ein Zustand erreicht, in dem sich immer mehr Kolleginnen und Kollegen für ihren Arbeitgeber schämen.” Das berichtet die Augsburger Allgemeine am 9.September 2020 rückwirkend.

Schon im Januar zitiert die Braunschweiger Zeitung den Sprecher des Volkswagen– und Audi-Partnerverbandes Dirk Weddingen von Knapp im Bezug auf den Golf 8, der seit dem 8. Dezember 2019 ausgeliefert werden sollte: “Solch ein Chaos hat es nie gegeben”. Bis zum 12. März waren im Stammwerk Wolfsburg von den geplanten 100.000 Einheiten seit August gerade mal rund 8.400 gebaut worden, berichtet die Zeit. Osterloh war “entsetzt, wie nachlässig und schwach der Vorstand weit vor dem Anlauf das ganze Projekt aufgestellt hat.“ Weder die Basismotorisierungen noch die Varianten GTD oder GTI seien lieferbar.

„So rollten beispielsweise am Dienstag, dem 10. März 2020, lediglich 39,2 Prozent der neuesten Golf-Serie fehlerfrei vom Band, also etwas mehr als jeder dritte Wagen“ berichtet Business-Insider. Den Anlauf der wichtigsten beiden Modelle hatte Diess vergeigt. Und der ID.3 wird mittlerweile auch nicht mit der endgültigen Software ausgeliefert. Die wird dann später aufgespielt. Die Spatzen pfiffen es von den Dächern. Die Arbeitnehmer kritisieren nicht die Elektrostrategie, sondern dass das Management seine Hausaufgaben nicht gemacht hatte. Trotzdem zog Diess sich das Büßerhemd nicht an. Im Gegenteil.

Diess wirft dem Aufsichtsrat „Straftaten“ vor

Laut Manager-Magazin sagte Diess vor 3.400 Topmanagern: „Das sind Straftaten, die im Aufsichtsratspräsidium passiert und dort offensichtlich zugeordnet werden können“. Der ließ dennoch Milde walten. Diess musste die Markenführung von VW abgeben, als Chef des Konzerns blieb er im Amt. Die Verlängerung seines Vorstandsvertrages als Konzernchef konnte er sich allerdings erst mal abschminken. Das war im Juni.

Allerdings scheinen Golf 8 und ID.3 auch als Produkt nicht der große Wurf zu sein. Und die Tester der VOX-Fernsehsendung Automobil machen sich über das Flat-Screen-Bedienkonzept des Golf lustig. Statt eines einfachen Lichtschalters muss man sich durch diverse Untermenüs wählen, um das Abblendlicht manuell einzuschalten. Und weil ein Einklemmschutz beim VW-Logo auf der Heckklappe fehlt, mit dem man gleichzeitig den Kofferraum öffnet, klemmte sich ein Tester den Finger schmerzhaft ein, wenn gleichzeitig die Rückfahrkamera, die ebenfalls dahinter verborgen ist, einfährt und das “Schwenkemblem” zurückfährt. Das sind keine Petitessen. Das eine tut weh, und das andere kann wehtun, weil es den Fahrer ablenkt.

Und auch der ID.3 fällt bei dem E-Autotester Nando Sommerfeldt von der Welt durch. “Technologisch müssen ID.3-Fahrer der ersten Stunde noch deutliche Abstriche hinnehmen. Wirklich intelligente Mobilität bietet dieses Auto nicht. Die IT-Experten des Konzerns haben es schlichtweg nicht geschafft, eine Software in den Wagen zu integrieren, die das Fahrzeug mit der Außenwelt kommunizieren lässt.” Das wird irrelevant, als die zwei Displays des Autos ganz ausfallen und das Testauto ausgetauscht werden muss. Sowas kann passieren. Es passt aber ins Bild. Irgendwie. Immerhin kennt man das Problem. Ein Update kann helfen. Nur gibt es in Berlin keinen Servicebetrieb, der das kann. Das wird sich gewiss ändern. Und im Test schafft der Wagen, der mit 420 km Reichweite angegeben ist, nicht mal die Strecke ins ca. 230 Autobahnkilometer entfernte Wolfsburg. Der Ersatzwagen wird auf dem Trailer gebracht. Sommerfeldt berichtet, dass für die 400 km Distanz mit Nachladen schon mal sechs bis acht Stunden aufgebracht werden können.

Sendungsbewusstsein des VW-Chefs nimmt obskure Züge an

Wie alles, was das VW-Badge trägt, werden Golf und ID.3 wahrscheinlich trotzdem erst mal die Zulassungsstatistiken stürmen. Der eine ist eben DER Golf, und für den anderen gibt es 9.000 Euro Nachlass, zehn Jahre Kfz-Steuerfreiheit und billigen Strom. Und irgendwann hat VW ja den alten Persil-Werbeslogan gekauft: Da weiß man, was man hat. Es wird ein bisschen brauchen, bis sich die Erfahrung durchsetzt, dass dies nicht mehr stimmt.

Herbert Diess hat seine PR-Aktivitäten derweil auf Linkedin verlegt. Ihm gelingt mit dem ID.3 die Alpenquerung mitsamt Tochter bis zum Gardasee. Allerdings startet er nicht in Wolfsburg oder dem Produktionsstandort Zwickau, sondern fliegt bis München. Praxisnah ist das nicht. Wer zum Gardasee will, würde dann wohl gleich bis Mailand durchfliegen. Für den Vorstandschef im Urlaubsmodus trotzdem eine entspannte Tour. In dem sozialen Job-Netzwerk springt er auch jenen bei, die Elektromobilität als einzige Heilslehre predigen, was in diesen Kreisen als „Technologieoffenheit“ gehandelt wird. Sich selbst versucht er so vor seiner Absetzung zu immunisieren und als Alternative zum Tesla-Gründer Elon Musk und Hohepriester dieser Technologie zu stilisieren. Musk springt ihm auch bei und fährt auf dem Flughafen Braunschweig mit dem ID.3 ein paar Runden, Selfie mit Auto und Diess inklusive.

Dabei nimmt das Sendungsbewusstsein des VW-Chefs obskure Züge an. Von Hand werden gescannte Artikel, die auf seiner Linie liegen, unterstrichen und gelobt, und insbesondere der Artikel eines 21-jährigen Studenten, der eine Elektro-Autovermietung betreibt, hat es ihm angetan. Auf einem Video zeigt sich Dr. D. wie einst Dr. Z. (der damalige Chrysler-Chef Dieter Zetsche) von seinen eigenen Produkten am meisten überzeugt. Auch auf LinkedIn postet Diess ein längeres Statement, von dem zwei Drittel vorher schon im Handelsblatt erschienen sind. Diess präsentiert die Zukunft von Volkswagen, wie er sie sich vorstellt:

Die Konzern-PKW-Flotte verursacht heute rund ein Prozent des weltweiten CO2-Ausstoßes. Schon allein dadurch tragen wir eine besondere Verantwortung, vor allem bei der Bekämpfung der Klimakrise. Das Ziel für die Zukunft ist klar: Den Konzern in eine nachhaltige und erfolgreiche Zukunft führen. Wir sprechen von einem Zeitraum von ca. zehn Jahren, in dem sich der Wandel vollziehen wird. Mit oder ohne Volkswagen. Der Klimawandel erfordert eine Elektrifizierung unserer Antriebsstränge. Der Fortschritt bei der künstlichen Intelligenz, insbesondere bei der Situationswahrnehmung ermöglicht es bald, den Fahrer durch ein lernendes weltweites neuronales Netz zu ersetzen. Individuelle Mobilität wird dadurch nachhaltig, unglaublich sicher und komfortabel.

Und ein wenig selbstkritisch zeigt er sich auch. Seinen als ruppig gestalteten Führungsstil werde er an die Gepflogenheiten bei Volkswagen anpassen und mehr auf empathische Führungskräfte bauen, die mit dem Betriebsklima einhergingen.

Steingart, Dudenhöffer, Osterloh und das VW-Gesetz

Diess ist 62 Jahre alt. Sein derzeitiger Vertrag läuft bis 2023, dann wäre er 65 und hätte ohnehin die in Deutschland übliche Altersgrenze erreicht. Bei seinem vorherigen Arbeitgeber BMW, wo er zuletzt Entwicklungsvorstand war, ist mit 60 Schluß. Und Vertragsverlängerungen werden üblicherweise ungefähr ein Jahr vor Ablauf verhandelt. Das wäre bei Diess in zwei Jahren. Trotzdem hatte er bereits im Juni versucht, eine vorzeitige Verlängerung über 2023 hinaus im Aufsichtsrat durchzusetzen. Mit bekanntem Ergebnis.

Mittlerweile hat er diese durchaus unübliche Forderung erneuert, verbunden mit zwei Personalvorschlägen für die Posten des Finanz- und Einkaufsvorstandes, die nicht auf die Gegenliebe des Aufsichtsrates gestoßen sind. Diess hat die “Vertrauensfrage” gestellt. Und Business Insider meldet bereits am 30.11.2020, gut unterrichtete Kreise hätten verlautbaren lassen, eine Vertragsverlängerung stehe nicht zur Debatte. Das Handelsblatt berichtet, das Präsidium des Aufsichtsrates habe getagt und Diess‘ Wünschen nicht entsprochen. Vielmehr seien überhaupt keine Entscheidungen gefällt worden. Ein Rücktritt des Vorstandschefs sei allerdings möglich.

Dass ein Machtkampf zwischen Osterloh und Diess tobt, ist offensichtlich. Diess und seine Befürworter sind der Ansicht, der Betriebsrat blockiere die von Diess favorisierte Strategie, die den Konzern vollständig auf den Kopf stellt und ausschließlich auf die Elektrisierung setzt. Öffentlich hat Osterloh allerdings nur die offensichtlichen Versäumnisse des Managements benannt. Zu recht.

Gabor Steingart hatte in seinem Morning Briefing davon berichtet und die Hypothese vertreten, die Arbeitnehmervertreter würden den Konzernumbau blockieren. In einem Podcast bei Steingart ist Professor Ferdinand Dudenhöffer, der als Autopapst tituliert wird, Diess beigesprungen. Tatsächlich ist Dudenhöffer emeritierter Professor für Betriebswirtschaft, der mit Rabattrechnern und Mitteilungen über Tageszulassungen in der Autoindustrie Popularität erlangte und hauptsächlich Autokongresse in China betreibt. Seine technologische Kompetenz ist also eher bescheiden. Er macht für den Machtkampf in einem Podcast bei Steingart offensichtlich ebenfalls die Arbeitnehmervertreter und das VW-Gesetz verantwortlich.

Insgesamt kommt man nicht umhin, sowohl das VW-Gesetz als auch die Strategie von Herbert Diess für falsch zu halten.

Betriebsräte in niedersächsischen Provinzbordellen

Das VW-Gesetz manifestiert einen zu großen Einfluss von Gewerkschaften und Politik auf das Unternehmen. Gegen den Betriebsrat geht nichts. Das wurde etwa bei der Korruptionsaffäre 2005 deutlich. Osterlohs Vorgänger Klaus Volkerts wurde vom Personalvorstand Peter Hartz mit 2,6 Millionen bestochen, und ein Verbindungsbüro finanzierte die Besuche einiger Betriebsräte in niedersächsischen Provinzbordellen. Das war nötig, um die Zustimmung zur Sanierung zu erkaufen. Neue Arbeitsmodelle, die die Arbeitszeiten ohne Lohnausgleich radikal reduzierte, um Entlassungen zu verhindern.

Und der langjährige Vorstands- und Aufsichtsratsvorsitzende Ferdinand Piech verbündete sich kurzerhand mit den Arbeitnehmervertretern, um seine Entmachtung durch die eigene Familie zu verhindern. Piech war der Enkel und als genialer Konstrukteur der wahre Erbe Ferdinand Porsches. Wendelin Wiedeking, der als Vorstandsvorsitzender mit eigenem Risiko erst Porsche sanierte, der Familie das Unternehmen rettete und dann den Plan, die Mehrheit an VW zu erwerben, austüftelte und umsetzte, sprang über die Klinge.

Mindestens zweimal stand der Konzern vor dem Ruin. Weil man Anfang der Siebziger Jahre am überalterten Käfer Prinzip mit luftgekühltem Heckmotor mit Hinterradantrieb festhielt, fielen die Verkäufe ins Bodenlose. Erst der Golf brachte nach 1974 die Rettung. Und als Piech 1993 den Vorstandsvorsitz übernahm, sagte er im Nachgang:

“Wir hatten noch Liquidität für vier Wochen.”

Die Arbeitnehmervertreter und der staatliche Eigentümer war dabei eher hinderlich. Die sauberste Lösung wäre der von Christian Lindner 2019 propagierte Vorschlag, den Landesanteil von 20 Prozent zu privatisieren. Das würde das VW-Gesetz gegenstandslos machen.

Elektro ist für einen Konzern mit 670.000 Mitarbeitern hochgradig gefährlich

Die Elektrisierungsstrategie von Herbert Diess nimmt sich Tesla zum Vorbild. Doch anders als Volkswagen verkauft Elon Musk nicht Autos profitabel, sondern Visionen. Mit dem Autobau hat Tesla 2018 und 2019 rund 3,75 Mrd. Euro Verlust gemacht, trotz aller Prämien und Subventionen. Dass der Fehlbetrag nur rund 2 Milliarden ausmachte, liegt am Erfolg des Verbrenners. Fiat Chrysler und General Motors haben dafür teuer bezahlt, ihren US-Flottenverbrauch mit Teslas “Zero-Emissionen” in den USA zu verrechnen.

Die alleinige Konzentration auf den Elektroantrieb ist für einen Konzern mit 670.000 Mitarbeitern hochgradig gefährlich. Sie kann ein Erfolg werden, muss es aber nicht. Und bisher hat sich weltweit das Elektroauto ohne staatliche Subventionen nicht wirklich durchgesetzt. Auch das von Diess propagierte “Autonome Fahren” ist eine ziemlich riskante Wette auf die Zukunft, weil noch sehr viele technische Probleme gelöst werden müssen.

Diess hat die Vertrauens- und damit die Machtfrage gestellt, in dem er eine zum jetzigen Zeitpunkt unübliche und aus Sicht des Konzerns überflüssige Vertragslängerung über 2023 und seinen 65. Geburtstag hinaus einfordert. Die Augsburger Allgemeine hat in ihrem Portrait bemerkt, Diess sei kein Wipper, der etwa auf den Füßen wippt. Sondern ein Wupper, weil er die Dinge wuppt. Vielleicht geht er aber auch – bildlich gesprochen – über die Wupper.

Bernd Osterloh hat seiner Strategie übrigens öffentlich nie widersprochen. Im Gegenteil. Er hat nur auf die handwerklichen Mängel hingewiesen, die VW nicht hätten unterlaufen dürfen. Vielleicht hält er auch etwas mehr Sorgfalt und Ruhe für notwendig. Er selbst wird wohl 2022 noch mal als Betriebsratsvorsitzender wiedergewählt, um dann altersbedingt an seine Stellvertreterin zu übergeben. Bei einem Organisationsgrad von 90 Prozent (IG Metall) kann das als gesichert gelten. Vielleicht gehen Diess und Osterloh ja auch 2023 gemeinsam von Bord?

Zuerst veröffentlicht auf der Achse des Guten und auf dem Drehmomentblog.

Carl Christian Jancke ist Experte für die Automobilindustrie und historische Wagen.




„Kippunkte“ als Katastrophen-Joker

In den letzten 30 Jahren, in denen die Temperaturen deutlich stiegen, sind die globalen Kosten durch Naturkatastrophen von etwas über 0,3 Prozent des BIP auf rund 0,25 Prozent gesunken. Betrachtet man nur die wetterbedingten Katastrophen, lässt also Vulkanausbrüche und Erdbeben weg, so ist der Rückgang noch deutlicher: von etwa 0,28 auf 0,2 Prozent. (siehe hier) Bei den Todesfällen beträgt der Rückgang in den letzten 100 Jahren mehr als 90 Prozent. Heute sind nur noch 0,1 Prozent der Todesfälle weltweit Naturkatastrophen zuzurechnen. Hierzu zählen Dürre, Überschwemmungen, extremes Wetter, extreme Temperaturen, Erdrutsche, Trockenmassebewegungen, Waldbrände, vulkanische Aktivitäten und Erdbeben.

Der größte Teil geht auf das Konto von Erdbeben in armen Ländern. Im Jahr 2018 starben weltweit 4.321 Menschen durch Erdbeben, 2.869 durch Flutkatastrophen, 1.666 durch Extremwetter, 878 durch Vulkanausbrüche, 536 durch Extremtemperaturen, 275 durch Erdrutsche, 247 durch Waldbrände, 17 durch Trockenmassebewegungen und Null durch Dürre. Das sind insgesamt 10.809 Tote, davon etwa die Hälfte wetterbedingt. (siehe hier)

An Durchfall sterben jährlich fast 300-mal so viele Menschen. Und 3.500-mal so viele an Herz-Kreislauferkrankungen. Rund 300.000 Menschen ertrinken, aber keiner davon wegen eines um 20 Zentimeter gestiegenen Meeresspiegels. Was also Leib und Leben anbetrifft, ist das Klima unser geringstes Problem. Natürlich kommt immer mal wieder jemand in einem Sturm ums Leben. Aber im Vergleich zu fast allen anderen Todesursachen ist die Gesamtzahl vernachlässigbar. Wir sterben zu fast 100 Prozent an anderen Ursachen. (siehe hier)

5.957.000 „Klima- und Kohlenstofftote“

Wer ein rechter „Klimaretter“ sein will, dem sind solche Zahlen egal. Einer der prominentesten Vertreter der „Scientists for Future“, der Arzt und Fernsehmoderator Eckart von Hirschhausen, sagte unter tosendem Beifall auf einer Demo in Dortmund:

„Die Klimakrise ist die größte Gesundheitskrise der Menschheit, und meine Generation hat echt verkackt.“ (siehe F.A.Z. vom 2. August 2019)

Gerade beim Thema Gesundheit ist den Alarmisten wirklich nichts zu peinlich. Von Fußpilz bis Heuschnupfen werden Katastrophen heraufbeschworen. Gleichzeitig wird die Bekämpfung realer globaler Probleme wie Tuberkulose oder Durchfallerkrankungen durch die geforderte Konzentration aller Kräfte (und Mittel) auf die CO2-Reduktion effektiv behindert.

Der Trick der Katastrophisten besteht darin, einfach für alle möglichen Todesursachen das Klima verantwortlich zu machen. Im zweiten „Climate Vulnerability Monitor“ lesen wir:

„Die Fortsetzung der heutigen Muster des kohlenstoffintensiven Energieverbrauchs wird zusammen mit dem Klimawandel bis 2030 auf sechs Millionen Todesfälle pro Jahr geschätzt, von denen fast 700.000 auf den Klimawandel zurückzuführen wären. Dies bedeutet, dass eine kombinierte Klima-Kohlenstoff-Krise bis zum Ende des nächsten Jahrzehnts schätzungsweise 100 Millionen Menschenleben fordern wird.“ (1)

Wie kommt man auf solche Zahlen? Man behauptet einfach, dass irgendwie wegen des Klimas jährlich 150.000 mehr Menschen an Durchfall, 35.000 an Wärme oder Kälte, 380.000 an Hunger, 20.000 an Malaria und anderen von Mücken übertragenen Krankheiten, 40.000 an Hirnhautentzündung, 7.000 an Naturkatastrophen, 2.100.000 an Luftverschmutzung, 3.100.000 an Luftverschmutzung in Innenräumen, 80.000 an Arbeitsplatzbelastungen und 45.000 an Hautkrebs sterben. Macht zusammen 5.957.000 „Klima- und Kohlenstofftote“.

Besonders absurd ist die Zurechnung der 3.100.000 vorzeitigen Todesfälle durch Innenraumluftverschmutzung. Diese Belastung, vor allem durch Feuerstellen in armen Ländern, entsteht nicht, weil es zu viele (Kohle)-Kraftwerke gäbe, die Strom für Elektroherde liefern könnten, sondern weil es zu wenig davon gibt. Und dies inzwischen auch deshalb, weil westliche Länder mit Verweis auf den Klimawandel den Bau nicht mehr unterstützen, sondern auf teurere Energiebereitstellungsmethoden bestehen. Auch alle anderen genannten Todesursachen sind im Wesentlichen durch Armut bedingt und nicht durch das Klima. Wenn man also eine solche Rechnung aufmachen möchte, dann sollte man sich fragen, ob wir es eher mit Klimatoten oder mit Klimaschutztoten zu tun haben.

Kippunkt-Wissenschaft

Wenn wir zugestehen, dass sie heute noch nicht da ist, müssen wir dann nicht dennoch fürchten, dass die Katastrophe über uns hereinbricht, wenn wir in 10 oder 20 oder 40 Jahren die berüchtigte 1,5-Grad-Grenze oder etwas später die berüchtigte 2-Grad-Grenze reißen? Eher nicht. Der Katastrophismus beruht vollständig auf der Idee der Kipppunkte. Demnach sollen wir uns durch die praktisch nicht erkennbaren Schrecken von 150 Jahren Klimaerwärmung nicht täuschen lassen. Irgendwann kämen wir an eine Klippe und würden dann in den Abgrund der Überhitzungskatastrophe stürzen.

Der Klimaforscher Stefan Rahmstorf, der wohl prominenteste deutsche Warner, nennt als Paradebeispiel für solche Kipppunkte die Instabilität des unter dem Meeresspiegel aufliegenden Eisschilds der Westantarktis. Ziehe das Eis sich zu weit hinter einen unterseeischen Bergkamm zurück, gebe es kein Halten mehr: Weil das Land nach hinten abfällt, fließe das Eis umso schneller ab, je weiter es schrumpfe. Dann drohe ein Anstieg des Meeresspiegels um drei Meter.

„Bewahrheitet sich die Prognose“, schreibt Rahmstorf im Spiegel, „wären wir allein durch diesen Effekt zu einem globalen Meeresspiegelanstieg von drei Metern verdammt, der sich unaufhaltsam vollziehen würde, selbst wenn wir die weitere globale Erwärmung stoppten.“

Das sind fürwahr beunruhigende Aussichten. Allerdings fügt Rahmstorf korrekterweise hinzu:

„Immerhin geschähe er in Superzeitlupe und würde sich wohl über ein- oder zweitausend Jahre erstrecken.“

Diverse andere Kipppunkte werden uns an anderer Stelle in Aussicht gestellt und durch das Zusammenwirken der ganzen Entwicklungen könne es dann richtig ungemütlich werden:

„Einige frühe Ergebnisse der neuesten Klimamodelle – die für den sechsten Bewertungsbericht des IPCC im Jahr 2021 erstellt wurden – deuten auf eine wesentlich höhere Klimasensitivität hin (definiert als die Temperaturreaktion auf die Verdoppelung des atmosphärischen CO2) als in früheren Modellen. Es liegen noch viel mehr Ergebnisse vor, und es sind weitere Untersuchungen erforderlich, aber für uns deuten diese vorläufigen Ergebnisse darauf hin, dass ein globaler Kipppunkt möglich ist“, schreiben Rahmstorf und Kollegen. (2)

Daher hätten wir es mit einem Klimanotfall (Climate Emergency) zu tun, für den sie sich sogar eine Formel ausgedacht hat: E = R × U = p × D × τ / T (3).

Wenn Wissenschaftler Laiendarsteller stärken

Doch die Kipppunkt-Katastrophentheorie, auf der der gesamte derzeitige Alarmismus aufbaut, ist alles andere als ein wissenschaftlicher Konsens. Richard Betts, Leiter der Klimafolgenforschung am britischen Met Office Hadley Centre, bezeichnet es als „extrem unwahrscheinlich“, dass es bei zwei Grad Erwärmung zu einem Kippen kommen könnte, und erinnert ebenfalls daran, dass, selbst wenn es so wäre, die drastische Veränderung Jahrhunderte oder Jahrtausende brauchen würde.

Eine ganz neue Studie, die 2019 in Nature veröffentlicht wurde, sieht keine Plausibilität für die Hypothese der Eiskliffinstabilität (marine ice-cliff instability – MICI) und geht von einem Meeresspiegelanstieg von maximal 45 Zentimetern im Jahr 2100 aus. (4) Andere Forscher sprechen in einem Beitrag in Nature Climate Change in Bezug auf die 2030-Deadline, auf der die Rhetorik des Klimanotstands aufbaut, von „politischem Missbrauch von Wissenschaft“:

„Obwohl die Rhetorik von Wissenschaftlern meist als irreführende Interpretation der IPCC-Ergebnisse angesehen wird, haben der IPCC und die meisten Klimawissenschaftler bisher geschwiegen und scheinen sie damit implizit zu unterstützen. Da jedoch der SR15-Bericht des IPCC dazu beigetragen hat, die Voraussetzung für diese Rhetorik zu schaffen, sollte der IPCC als institutionelle Autorität für die Klimawissenschaften die Verantwortung dafür übernehmen und sich aktiver in die politischen Gespräche einbringen“, fordern sie. (5)

Vor dem Hintergrund dieser Kritik ist es schon bezeichnend, wenn Rahmstorf und Kollegen in ihrem aktuellen Katastrophenwarnbeitrag schreiben:

„Unserer Meinung nach trägt die Berücksichtigung von Kipppunkten dazu bei, zu definieren, dass wir uns in einer Klimakrise befinden, und stärkt den diesjährigen Chor der Forderungen nach dringenden Klimaschutzmaßnahmen – von Schülern über Wissenschaftler bis hin zu Städten und Ländern.“ (6)

Ist es die Aufgabe von Wissenschaftlern, den Chor von Laiendarstellern zu stärken? Ein Selbstverständnis, das problematisch genug wäre, wenn Rahmstorf nur Spiegel-Kolumnist wäre, das aber am Potsdam Institut für Klimafolgenforschung offenbar gang und gäbe ist.

Unterhalb des Meeresspiegels – aber eben nicht im Wasser

Rahmstorfs oben zitierter Artikel im Spiegel trägt den schönen Titel „Klimakrise. Die Menschheit verliert die Kontrolle über den Zustand der Erde.“ Das ist sicher keine wahre Aussage. Sehr viel plausibler wäre, zumal mit Blick auf den Zeitraum der nächsten Jahrtausende: „Die Menschheit GEWINNT die Kontrolle über den Zustand der Erde.“ Das ist kein leicht zu erreichendes, aber zweifellos ein überaus erstrebenswertes Ziel. Zum Glück fangen wie nicht bei Null an. Ein Blick in unser Nachbarland lehrt uns, dass man mit einem steigenden Meeresspiegel relativ unkompliziert zurechtkommen kann. Ganze 26 Prozent der Niederlande liegen schon heute unter dem Meeresspiegel. Und zwar nicht nur ein paar Zentimeter, sondern bis zu sieben Meter.

Offenbar haben die Niederländer die Sache ganz gut im Griff. Das Meer ist nach wie vor eine Bedrohung. Bei der großen Flut von 1953 kamen fast 2.000 Menschen ums Leben. Aber wenn die Bedrohung durch den Anstieg der Pegel um knapp 20 Zentimeter in den letzten 100 Jahren zugenommen hat, so haben doch die Fortschritte beim Deichbau diesen Risikozuwachs mehr als wettgemacht. Wir können daher zuversichtlich sein, dass die Holländer angesichts eines weiteren Anstiegs des Meeresspiegels um derzeit durchschnittlich 3,3 Zentimeter pro Jahrzehnt auch in Zukunft nicht kapitulieren und ihr Land dem Meer überlassen werden.

Ähnlich verhält es sich an anderen Orten der Welt, etwa dem Mekong-Delta in Vietnam. Hier ist das Hauptproblem nicht der steigende Meeresspiegel, sondern das sich absenkende Land. Mit jährlich 2 bis 4 Zentimetern sinkt es 6 bis 12-mal schneller, als der Meeresspiegel steigt. Sich an diese Veränderung, die nichts mit dem Klimawandel zu tun hat, anzupassen, ist eine große Herausforderung. Eine wichtige Maßnahme des Küstenschutzes ist hier zum Beispiel das Anpflanzen von Mangrovenwäldern. Außerdem stellen sich die Menschen um. Wo Salzwasser vordringt, werden inzwischen im großen Stil Aquakulturen betrieben und statt Reis eben Fische und Garnelen geerntet.

Weltweit leben schon heute rund 110 Millionen Menschen unterhalb des Meeresspiegels – aber eben nicht im Wasser. 2050 werden es aktuellen Voraussagen zufolge 40 Millionen mehr sein. Doch auch sie werden größtenteils gut damit zurechtkommen, da sie wohlhabender sein werden und über mehr Möglichkeiten verfügen werden, sich das Wasser vom Leibe zu halten. Im Zweifelsfall werden Menschen im Lauf von Jahrzehnten allmählich wegziehen. Dann kann man sie „Klimaflüchtlinge“ nennen, wenn man keine Scheu vor irreführenden Bezeichnungen hat.

Auch mit Trockenheit kann man umgehen

Auch beim Thema Hitze sind keineswegs alle Klimaforscher mit der Katastrophenrhetorik glücklich. Hans von Storch, der selbst an den Berichten des Weltklimarates IPCC mitgeschrieben hat, beschreibt die Folgen der Erderwärmung relativ nüchtern:

„Durch die Klimaerwärmung könnte es theoretisch in den ohnehin heißen Tropen so heiß werden, dass man dort ohne technische Hilfen wie Klimaanlagen nicht mehr gut leben kann. Aber in allen anderen Regionen, etwa bei uns, kann davon keine Rede sein. In Phoenix/Arizona leben übrigens Millionen Menschen. Das war früher unmöglich, heute gibt es Klimaanlagen.“

Und auch mit Trockenheit kann man umgehen, wie ein Blick nach Arizona zeigt. Die Kleinstadt Yuma in diesem US-Bundesstaat an der mexikanischen Grenze ist mit etwa 340 Sonnentagen (93,09 Prozent) pro Jahr der Ort mit den durchschnittlich meisten Sonnenstunden weltweit. Die Temperatur beträgt im Jahresdurchschnitt 23,4 Grad Celsius, im Sommer übersteigt sie regelmäßig die 40-Grad-Marke. Es fallen nur 81 Millimeter Niederschlag im Jahr. Dennoch floriert in der Region um Yuma, zwischen den Flüssen Gila und Colorado, die Landwirtschaft: Fast 90 Prozent des in den USA angebauten Blattgemüses wird hier produziert.

Und vergessen wir nicht, dass nach wie vor für uns Menschen Kälte ein deutlich größeres Problem darstellt als Hitze. Eine Auswertung des Einflusses der Temperatur auf die Sterblichkeit hat ergeben, dass, weltweit betrachtet, 7,71 Prozent der Mortalität ungünstiger Temperatur zuzuschreiben ist, davon 7,29 Prozent der Kälte und 0,42 Prozent der Hitze. Menschen sterben also 17-mal häufiger wegen zu niedriger Temperatur als wegen zu hoher. (7)

Worauf die Warner ebenfalls selten hinweisen: Die Erde wird immer grüner. Das zeigen Auswertungen von Satellitendaten. Demnach hat auf 25 bis 50 Prozent der Landfläche die Vegetation in den letzten Jahrzehnten kontinuierlich zugenommen, nur auf vier Prozent hat sie abgenommen. Da CO2 für Pflanzen Nahrung ist, trägt zu 70 Prozent die erhöhte CO2-Konzentration zur globalen Ergrünung bei, zu rund acht Prozent die Erwärmung. (8)

Noch deutlicher als in der Natur zeigt sich der Trend auf Agrarflächen. In weniger entwickelten Regionen (Asien, Südamerika und Afrika) sind die Hauptgründe für die vermehrte Vegetation in der Landwirtschaft die Ausdehnung der Anbauflächen und die Reform der Anbausysteme, die die Vegetationsperiode verlängert. In den entwickelten Regionen (Nordamerika, Australien und Europa) ist der Hauptgrund die Intensivierung der Landwirtschaft (Grüne Revolution). (9) Interessanterweise hat der Pflanzenanbau selbst wiederum Auswirkungen auf das Klima. Im US-amerikanischen „Corn Belt“, den riesigen Maisanbauflächen, sind durch die intensive Landwirtschaft die Sommertemperaturen um ein Grad gesunken und die Niederschläge haben um 35 Prozent zugenommen. (10)

Angesichts der Entwicklungen bei der Vegetation sind Behauptungen, der Klimawandel würde die Ernährungssicherheit beeinträchtigen, wenig plausibel, zumal es bei landwirtschaftlichen Erträgen noch sehr viel Luft nach oben gibt. In großen Teilen der Welt werden heute nur 10 oder 20 Prozent der Erträge erreicht, die unter den jeweiligen Bedingungen mit den Methoden der modernen Landwirtschaft möglich wären.

Teil 1 finden Sie hier.

Teil 3 finden Sie hier.

Dies ist ein Auzug aus dem Buch: „Schluss mit der Klimakrise: Problemlösung statt Katastrophenbeschwörung“ von Thilo Spahl (Hrsg.), 2020, Edition Novo: Frankfurt/Main, hier bestellbar.

Zuerst erschienen bei Novo Argumente und der Achse desGuten.

Weitere Quellen

(1) DARA and the Climate Vulnerable Forum: „Climate Vulnerablility Monitor. A Guide to the Cold Calculus of a Hot Planet“, 2. A., 2012, S. 17

(2) Timothy M. Lenton et al.: „Climate tipping points – too risky to bet against“ in: Nature 575, 2019, S. 592–95.

(3) Ebd.: „We define emergency (E) as the product of risk and urgency. Risk (R) is defined by insurers as probability (p) multiplied by damage (D). Urgency (U) is defined in emergency situations as reaction time to an alert (τ) divided by the intervention time left to avoid a bad outcome (T).“

(4) Tamsin L. Edwards et al. „Revisiting Antarctic ice loss due to marine ice-cliff instability“ in: Nature 566, 2019, S. 58–64

(5) Shinichiro Asayama et al.: „Why setting a climate deadline is dangerous“ in: Nature Climate Change 9, August 2019, S. 570–7

(6) Timothy M. Lenton et al.: „Climate tipping points – too risky to bet against“ in: Nature 575, 2019, S. 592–95.

(7) Antonio Gasparrini et al: „Mortality risk attributable to high and low ambient temperature: a multicountry observational study“, The Lancet 386, 2015, S. 369–75

(8) Zaichun Zhu et al.: „Greening of the Earth and its drivers“ in: Nature Climate Change 6, 2016, S. 791–95

(9) Xueyuan Gao et al.: „Detected global agricultural greening from satellite data“ in: Agricultural and Forest Meteorology 276–77, 15.10.2019

(10) Ross E. Alter et al.: „Twentieth Century Regional Climate Change during the Summer in the Central United States Attributed to Agricultural Intensification“, in: Geophysical Research Letters, Volume45, Issue3, 16.02.2018, S. 1586-1594




Die Klima-Inquisition von Senator Sheldon Whitehouse geht weiter

Amerika und die Welt brauchen nicht noch mehr Zensur. Sie brauchen eine offene, robuste Debatte: über die Stichhaltigkeit der Behauptungen zur Klimakrise, über die Auswirkungen, die buchstäblich Millionen von Windturbinen und Milliarden von Sonnenkollektoren und Batteriemodulen auf unsere Umwelt und die Tierwelt haben, über die Auswirkungen, die ein teures, nur vom Wetter abhängiges Energiesystem auf Arbeitsplätze, Lebensstandard und Arbeiterfamilien haben. In meinem Artikel geht es um diese Fragen.

Vor fünf Jahren sagte ich, dass Senator Sheldon Whitehouse (D-RI) sich wie Torquemada verhält, indem er inquisitionsähnliche Taktiken anwendet, um Skeptiker der „menschengemachten Klimakrise“ zu schikanieren, und damit droht, sie wegen Erpressung zu verfolgen. Tomas de Torquemada war der Großinquisitor der spanischen Inquisition, die Tausende wegen religiöser Ketzerei verhörte, folterte, einsperrte und hingerichtet hat.

Der Senator nahm großen Anstoß daran und prangerte mich in den Kammern des Senats an, in denen ich einst arbeitete. Aber er änderte sein Verhalten nicht. Wenn überhaupt, dann ist er intoleranter und rachsüchtiger geworden.

Kürzlich sagte er, dass die Kontrolle des Senats durch die Demokraten es ihm und seinen Kollegen ermöglichen würde, Ermittlungen einzuleiten, Klima-Realisten vor Komitees zu bringen (für Schauprozesse prominenter Natur) und sogar große Geschworenenjurys und Strafverfolgungen einzusetzen – um Nichtgläubige bzgl. Klimakrise einzuschüchtern, zum Schweigen zu bringen und zu bestrafen.

Sicher würde sich der dünnhäutige Senator in der Inquisition Spaniens, im stalinistischen Russland, bei der Roten Garde und im Xi Jinping China oder im buchverbrennenden vor-holocaust-faschistischen Europa zu Hause fühlen. Ihre Geschichte, Dissidenten zum Schweigen zu bringen, sie aus der Geschichte auszulöschen und sie in Gulags und Salzminen (oder noch schlimmer) zu schicken, ist legendär. Ihre Wirtschafts- und Regierungsideologie ist der klassische Faschismus:

… ein extremes, intolerantes System, in dem eine autoritäre Regierung Unternehmen und Industrien nicht direkt besitzt, sondern ihnen diktiert, was sie herstellen, tun, verkaufen und sagen dürfen – während sie die Gedanken, die Rede und die Entscheidungen der Bürger kontrolliert – und zwar durch Einschüchterung, zum Schweigen bringen, Verhaftung, Strafverfolgung und aus Angst davor, mit einer Geldstrafe belegt, eingesperrt, entlassen, in Strafkolonien oder Umerziehungskolonien geschickt und geschlagen oder hingerichtet zu werden.

Diese Taktiken sind verwerflich und diktatorisch. Sie sind unamerikanisch und wissenschaftsfeindlich. Tatsächlich erzielt die Wissenschaft ohne Dissens, Diskussion und Debatte keinen Fortschritt. Sie benötigt nicht nur Hypothesen, Theorien und Computermodelle, sondern solide, empirische Beweise, um Hypothesen, Modelle und Vorhersagen zu bestätigen oder zu widerlegen.

Diskussion, Auseinandersetzung, Dissens und Beweise sind besonders wichtig, um der Behauptung zu begegnen, dass die Menschheit vor einer beispiellosen, von Menschen verursachten Klimakrise steht. Diese Behauptung wird benutzt, um Forderungen an die Vereinigten Staaten, Europa und die Industrieländer zu rechtfertigen, die fossilen Brennstoffe, die über 80% unserer Energie liefern, sowie petrochemische und pharmazeutische Rohstoffe, Düngemittel und zahllose andere Vorteile zu eliminieren.

Sie wird benutzt, um Forderungen zu rechtfertigen, dass wir diese zuverlässige, erschwingliche Energie- und Rohstoffbasis durch Wind-, Sonnen-, Batterie- und Biokraftstoffenergie ersetzen. Diese Alternativen sind nicht nur intermittent, wetterabhängig und weitaus teurer. Sie sind mit umfangreichem Bergbau, Landnutzung, Vernichtung von Wildnis, Umweltverschmutzung und anderen Umweltauswirkungen verbunden. Sie sind nicht erneuerbar, nachhaltig, umweltfreundlich oder klimasicher.

Allein in den Vereinigten Staaten müssten wir jährlich etwa 7,5 Milliarden Megawattstunden Strom und das Strom-Äquivalent fossiler Brennstoffe ersetzen, enorme Mengen an Erdöl- und Erdgasrohstoffen ersetzen und unsere Verkehrs-, Hausheizungs- und sonstigen Systeme überholen. Dazu wären Millionen von Windturbinen, Milliarden von Sonnenkollektoren, Milliarden von 1000-Pfund-Batteriemodulen, zig Millionen Hektar Mais, Raps, Soja und andere Biokraftstoffpflanzen erforderlich – und zig Billionen von Dollar.

Die demokratische Stadtbevölkerung und die Wählerzentren werden sich wahrscheinlich gegen diese Anlagen im industriellen Maßstab in ihren Hinterhöfen stellen. Sie hätten wenig dagegen, sie in einem Land anzusiedeln, das von vielen Herrschafts-, Medien- und Hollywood-Eliten herrisch und spöttisch als „Überflugsland“* bezeichnet wird – in den westlichen, mittelwestlichen und südlichen US-Staaten.

[*Gemeint sind die dünn besiedelten US-Staaten, in denen man „nicht wohnt“. Anm. d. Übers.]

Diese „Umgestaltung“ – im Rahmen des Pariser Klimaabkommens, eines Green New Deal oder eines Biden-Harris-Regulierungsprogramms – würde die Wirtschaft, die Arbeitsplätze, den Lebensstandard, die Gesundheit und das Wohlergehen der Amerikaner massiv beeinträchtigen, was insbesondere für arme Familien und Gemeinschaften, die einer Minderheit angehören, für Arbeiter, Festverdiener und für Familien und Gemeinschaften in den dünn besiedelten US-Staaten gilt.

Klima-Alarmisten bestehen darauf, dass alle verlorenen Arbeitsplätze durch „grüne“ Arbeitsplätze ersetzt würden. Aber das wären zumeist Mindestlohnpositionen: Ziehen, Installieren, Warten, Demontieren, Entfernen und Deponieren von Turbinen, Paneelen und Batterien. Darüber hinaus würden die meisten dieser grünen Technologien in Übersee hergestellt werden, insbesondere in China, da Umweltschützer gegen jeden Bergbau in den USA kämpfen und ein klimaorientiertes Energiesystem den Fabriken nicht genügend zuverlässigen und erschwinglichen Strom liefern würde.
Diese riesigen und beispiellosen Mengen an Bergbau und Produktion würden fossile Brennstoffe erfordern. Das Einzige, was sich also ändern würde, sind die Örtlichkeiten des Verbrauchs und der Emissionen fossiler Brennstoffe stattfinden.

Es wären vor allem Länder in Asien und Afrika, Länder also, die nach dem Pariser Klimaabkommen nicht verpflichtet sind, ihren Verbrauch an fossilen Brennstoffen oder Treibhausgasemissionen (THG) zu reduzieren; Länder, die so viele Hunderte oder Tausende von Kohle- und Gaskraftwerken bauen werden, wie nötig sind, um ihre Bevölkerung aus der Armut zu befreien … und welche „grüne Energie“-Technologien herstellen, die sie gerne nach Amerika, Australien, Kanada und Europa verkaufen werden.

Das heißt, selbst wenn die USA fossilen Brennstoffen entsagen würden, würde dies keinen Unterschied bei den globalen Treibhausgasemissionen oder der globalen atmosphärischen Konzentration machen. Und das bedeutet, selbst wenn Kohlendioxid der Hauptfaktor des Klimawandels wäre, würde die Zerstörung der USA und anderer moderner Volkswirtschaften keinen Nutzen für das Klima bringen.

Der unerschütterliche Glaube der EU und Großbritanniens an die vom Menschen verursachten Klimakatastrophen erschüttert bereits jetzt ihre Industrien, Arbeiter und Familien, wie zahlreiche Artikel belegen: hier, hier, hier und hier zum Beispiel.

Glücklicherweise wird jedoch immer deutlicher, dass die Behauptungen zum Klimaarmageddon falsch berechnet, übertrieben oder erfunden wurden. Die globalen Durchschnittstemperaturen steigen weit langsamer als von den Klimamodellen vorhergesagt.

Starke (F4-F5) Tornados in den USA haben in den letzten 35 Jahren (1985-2020) gegenüber den 35 Jahren davor (1950-1984) sogar abgenommen; und 2018 ist nicht ein einziger F5-Tornado in den Vereinigten Staaten registriert worden. Zwölf Jahre lang, von Wilma im Jahr 2005 bis Harvey und Irma im Jahre 2017, traf kein Hurrikan der Kategorie 3 bis 5 auf das Festland der Vereinigten Staaten. Insgesamt gibt es kaum einen Trend bei der Aktivität oder Intensität tropischer Wirbelstürme.

All dies ist nicht überraschend angesichts neuer Forschungsergebnisse von Dr. William Happer und Dr. Willem van Wijngaarden, die stark darauf hinweisen, dass selbst eine Verdoppelung von Kohlendioxid (und anderen Treibhausgasen) in der Erdatmosphäre nur minimale Auswirkungen auf die globalen Temperaturen und das Klima hätte (aber dem Pflanzenwachstum zugute käme).

In der Tat ist es unmöglich, menschliche Einflüsse von natürlichen Faktoren, Schwankungen und Zyklen in Bezug auf Temperaturen, Polareis, Stürme und Dürren zu unterscheiden. Einige Wissenschaftler behaupten sicherlich etwas anderes – und geben im Allgemeinen einfach dem Menschen die Schuld. Aber sie haben wenig oder gar keine tatsächlichen, empirischen Beweise, um ihre Behauptungen, Vorhersagen und Modelle zu untermauern. Sie sagen einfach, die Wissenschaft sei settled, und wir müssten fossile Brennstoffe verbieten, also seien Sie still.

Bei so viel, was für Amerika und die Welt auf dem Spiel steht, ist dies völlig untragbar. Zumindest von denjenigen, die behaupten, wir stünden vor einer Klimakatastrophe, muss von ihnen verlangt werden, dass sie solide empirische Beweise vorlegen, um ihre Behauptungen zu untermauern – und dass sie sich auf robuste, transparente Debatten mit den vom Menschen verursachten Klimaskeptikern einlassen.

Genau das scheint Senator Torquemada verhindern und bestrafen zu wollen, während er „das größte beratende Gremium der Welt“ in ein russisches Politbüro oder einen Chinesischen Nationalen Volkskongress verwandelt – und in einen integralen Bestandteil des Klima-industriellen Komplexes mit einem Volumen von mehreren Billionen Dollar pro Jahr.

Bei diesem Unterfangen würden ihm sicherlich die Mogule von Big Media und Big Tech helfen, die seine Ansichten zum Klimawandel teilen, und Wissenschaftler und Beweise, die dem Katechismus der Klimakatastrophe widersprechen, zum Schweigen bringen sowie „Klimaketzer“ in Regierungs-, Wissenschafts- und Unternehmenskreisen auf die schwarze Liste setzen.

Die Menschen sind darauf konditioniert worden, vor den Lockdown-Verfügungen der Regierung Kotau zu machen, um die Menschheit vor Covid zu retten. Klima-Alarmisten gehen davon aus, dass wir jetzt ausreichend gefügig sein werden, fossile Brennstoffe zu verbieten, um „den Planeten zu retten“, wenn wir versuchen, uns von Covid zu erholen. Oder ihre Torquemadas werden uns gefügig machen.

Es ist an der Zeit, politisierte Schrottwissenschaft zurückzuweisen, eine Debatte zu fordern und uns gegen grüne Klima- und Energieerlasse zu wehren. Vielleicht muss der US-Senat vor allem seine Verantwortung für Beratung und Zustimmung zum Pariser Klimaabkommen geltend machen, dem weitreichendsten internationalen Abkommen denn je, das zu ratifizieren den Amerikanern geboten wurde.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy, environment, climate and human rights issues.

Link: https://www.iceagenow.info/sheldon-whitehouses-climate-inquisition-continues/

Übersetzt von Chris Frey EIKE




Fridays for Future: Wie erreichen wir die Jugend?

Teile der Elternschaft haben sich von der Klimafurcht ihrer Kinder bereits anstecken lassen und schlossen sich in der Bewegung „Parents for Future“ zusammen, um bei den Protesten mitmachen zu können. Die Information über das Ende der Welt erhielten die FFF-ler von klimaaktivistischen Wissenschaftlern. Denen vertrauen sie blind, denn die Rollen in der öffentlichen Klimadebatte sind seit langem klar verteilt: Klimaalarmisten haben immer Recht, wohingegen Kritiker der Klima-Extremsichtweise wahlweise dumm, rechtsextrem oder gekauft sind. Das ist praktisch, denn so muss man sich die Argumente der Kritiker gar nicht anhören.

Den Kindern und Jugendlichen würde eine fachliche Argumentation allerdings sowieso wenig nützen, denn sie besitzen logischerweise noch gar keinen Schulabschluss, haben möglicherweise Physik und Chemie bereits abgewählt. Das Interesse an den Naturwissenschaften ist oft gering. Umso mehr interessieren sich die Freitagsdemonstrierer für den Protest als solchen. Zu allen Zeiten waren junge Leute auf die ältere Generation sauer. Kinder sehen das Tun ihrer Eltern prinzipiell kritisch, die ihrer Meinung nach alles falsch gemacht haben. Vielleicht ist es eine Art Reflex gegen jahrelange Erziehung und Anweisungen: Iss Deine Suppe auf, Du gehst jetzt ins Bett, kein Kino ohne fertige Hausaufgaben… Die Jugend sucht stets nach Ersatzvorbildern. Die scheint sie in Form der Klimaprediger und ihrer jungen Helferinnen Greta, Luisa und Co. gefunden zu haben. Die Klimademonstranten schauen zu ihnen auf wie zu Popstars. Genau wie bei den Musikidolen, rennen die Anhänger in großen Massen zu den freitäglichen „Klima-Konzerten“,die einen Touch von Klima-Gottesdienst haben. Nachbeten ist erlaubt, kritisch mitdenken jedoch verpönt. Wie in der echten Religion. So fordert die Jugend im tausendstimmigen Chor, doch endlich die Energie zu verteuern, Freiheiten einzuschränken und Verzicht zu üben. Das kann wirklich nur in einer Überflussgesellschaft passieren, in der seit Jahrzehnten die gebratenen Tauben in den Mund fliegen. Das ist natürlich langweilig. Revolution und Verzicht sollen offenbar wieder Schwung in die Bude bringen. Volles Risiko aus Langeweile.

So richtig bis zu Ende durchgedacht haben die FFF-ler ihre Forderungen aber sicher nicht. Was würde es bedeuten, wenn die Politik augenblicklich auf die extremen FFF-Forderungen eingehen würde? Strom gibt es nur noch an sonnigen und windigen Tagen. Kein Fleisch, kein Internet, keine Auslandsreisen, keine hippen Klamotten, keine Haustiere, kein Kino, keine Heizung, kein Auto, keine Geschwister… Wenn man sich die totale Dekarbonisierung mal in Ruhe vor Augen führt, sollte jeder vernünftige Mensch eigentlich einen Riesenschreck bekommen und aus seinem naiven Traumdenken aufwachen. Verantwortung zu übernehmen bedeutet auch, dass man die Dinge realistisch sieht. Da tun sich die Freitagsdemonstierer schwer. Denn ihnen wurde von den Vorbetern genau vorgesagt, was sie zu skandieren haben.

Wie könnte man die Jugend erreichen, wenn es mit Sachargumenten und Diskussion augenscheinlich nicht funktioniert? Antwort: Auf der emotionalen Schiene. Genau auf dieser Ebene wurde die Jugend von den Klimaaktivisten geködert, mit Angst gefügig gemacht. Nun sollte den jungen Demonstranten auch die Konsequenzen ihrer Forderungen vor Augen geführt werden. Was wäre, wenn plötzlich alles umgesetzt werden würde?

Eine dreiteilige Youtube-Serie tut genau dies. Im Stile von „Teufels Advokat“ wird den Klimaaktivisten vorgeführt, was auf sie zukommen würde, wenn man auf sie bedingungslos hören würde. Im Laufe der „10 Tipps für den Kampf gegen das CO2“ wird schnell klar, dass die Forderungen der Klimaaktivisten utopisch und nicht zuende gedacht sind. Indem die alarmistische Ideologie ad absurdum geführt wird, merkt vielleicht der eine oder andere, auf was er/sie sich eingelassen hat.

Als Autor der Reihe erhielt ich so einige erschrockene Zuschauer-Emails: Das wäre doch absurd, das könne doch nicht ernst gemeint sein. Die traurige Wahrheit: Die Aktivistenseite meint es bitter ernst. Alle Fakten der Serie sind genauestens recherchiert, alle Emissions-Zahlen sind wahr. Nachzulesen auf einschlägigen Aktivistenseiten und in zahllosen Medienberichten. Was jedoch nie berichtet wird ist, dass die Klimawirkung des CO2 wohl maßlos überschätzt wird, der Weltuntergang also unwahrscheinlich ist. Nachzulesen unter andere in unserem neuen Buch „Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten“. Die Freitagsdemonstrierer wissen davon leider nichts. 99,9% aller Jugendlichen kennen nicht einmal den Begriff „CO2-Klimasensitivität“. Diese Wissenslücke ist nicht zufällig, sondern von den aktivistischen Klimawissenschaflern bewusst geplant. Denn nur schlecht informierte FFF-ler sind gute Multiplikatoren und können vor den Aktivistenkarren gespannt werden. Auch das war schon immer so: Unwissenheit ist bekanntlich die beste Basis, um extreme Ideologien zu befördern.

Der dritte Teil der Serie „10 Tipps für den Kampf gegen das CO2“ ist jetzt verfügbar und umfasst die Tipps 8-10:

8. Halma statt Hollywood

9. Haustiere sind Klimabestien – weg damit

10. Klimakiller Kinder: Hashtag #Birthstrike

HIER KLICKEN

Die Teile 1 und 2 wurden bereits hier auf EIKE vorgestellt. Wer sie noch nicht kennt:

Teil 1

1. Das Auto muss weg

2. Flugscham: Verzichte auf Reisen in ferne Länder

3. Klimasünde Kleidung

HIER KLICKEN

Teil 2

4. Dämme Deine Fleischeslust ein

5. Pullover und Winterjacke statt Heizung

6. Schluss mit dem Sauberkeitswahn

7. Klickscham: Klimakiller Internet

HIER KLICKEN

 In Kürze startet auf dem Youtube-Kanal “Klimawandel Crashkurs“ eine wöchentliche Nachrichtensendung zu den Themen Klima und Energie. Sie können den Kanal kostenlos abonnieren, um nichts zu verpassen.