1

Energiewende, große Transformation, Green Deal, Klimaschutz: Worum geht es da eigentlich?

Die Deutsche Bank (DB), noch nie mit Empathie für normale Zeitgenossen hervorgetreten, dafür aber stets mit ihren an die Mafia erinnernden Finanzgaukeleien beschäftigt, hat das Thema in einem eigenen Artikel behandelt. Er ist der Bezahlschranke wegen nur teilweise im Global Warming Policy Forum (GWPF) des Anthropologen und Sekretärs der GWPF Benny Peiser (hier) wiedergegeben. Der Artikel hat den Titel „EU Green Deal can only succeed with “a certain degree of eco-dictatorship”, kurz, ohne etwas Diktatur geht es nicht.

Der Artikel-Autor, Eric Heymann, ist leitender Ökonom bei der DB, in Neudeutsch „senior economist beim „Deutsche Bank Research“. Die folgende Beschreibung und der Kommentar des Autors beziehen sich auf die von Benny Peiser gekürzte Version. Der voll umfängliche Originaltext ist trotz angegebenem Link nicht erreichbar.

Ganz allgemein kritisiert Heymann die „unehrliche Debatte“, mit der die EU ihren „Green Deal“ verkaufen will. Er warnt vor dem zu erwartenden massiven Wohlstandsverlust der Bevölkerung infolge des „Green Deal“, vor den sich daraus ergebenden politischen Folgen und fragt „sind wir zu einer ehrlichen Diskussion bereit„? Wer mit „wir“ gemeint ist, wird dabei nicht ganz klar. Auf jeden Fall erscheint dieser Artikel für eine Bank untypisch, sind EU-Banken doch auf das Wohlwollen Brüssels angewiesen. Man fragt sich daher bei der Diskussions-Frage Heymanns: ist er etwa auf dem beruflichen Absprung, oder ist dieser, scharf die EU angehende Artikel tatsächlich mit seinem Arbeitgeber abgesprochen? Wir wissen es nicht.

Im ersten Absatz „A certain degree of eco-dictatorship will be necessary” wird geschildert, was die EU mit dem „Green Deal“ vorhat. Im Klartext: Die nochmalige Verteuerung von CO2-Erzeugung auf allen nur denkbaren Ebenen. Eric Heymann spricht es erstaunlich frei aus: Der von der EU in Gang gesetzte „Green Deal“ kann ohne eine gehörige Portion Diktatur nicht funktionieren. Zwar sei von einer neuen Wachstumsstrategie die Rede, aber diese würde der EU-Bevölkerung sehr viel abverlangen und ihren Lebensstandard erheblich verringern. Heymann hat Recht, Wachstum und gleichzeitig sinkender Lebensstandard, wie das denn? Meine Antwort im Kommentar weiter unten.

Im Absatz „Loss of competitivness or restrictions to free trade” geht Heymann dann ans Eingemachte. Niemand könne sich heraushalten, denn jeder für den “Klimaschutz” ausgegebene Euro sei für Bildung, Forschung, Gesundheit usw. verloren, also für uns alle. Heymann fragt schließlich ein wenig naiv „Sind wir willens, dies alles für Klimaschutz auszugeben“? Die Bevölkerungsmehrheit ist es sicher nicht, zumindest dann nicht, wenn man sie korrekt informieren würde.

In „Massive political resistance ahead“ wird Heymann ebenfalls deutlich und spekuliert über die politischen Folgen des „Green Deal“. Er deutet politischen Widerstand und Umbrüche der Parteienlandschaft an, wie wir sie heute bereits mit dem Erscheinen der AfD in Deutschland und ähnlichen Parteien in anderen Europäischen Ländern kennen. Hoffentlich werden seine Spekulationen wahr, werden sich jetzt manche Leser wünschen. Kann man es ihnen angesichts des „Green Deal“ des Wiedergängers der ehemaligen UdSSR als EUdSSR verdenken?

Der Kommentar des Autors zum Artikel von Eric Heymann:

Das durch den „Green Deal“ beschworene Wachstum wird von gleichzeitig sinkendem Lebensstandard begleitet? Was geht da schief? Ohne jetzt gleich Orwellsche Dialektik zu bemühen – Krieg ist Frieden, Schwäche ist Stärke, gut ist ungut usw., Sie kennen das ja sicher – denkt man eher an das erste physikalische Gesetz von Kirchhoff: Was in ein System hineinfließt, muss irgendwo auch wieder herauskommen – falls nichts im System verlorengeht oder verbleibt natürlich.

Mit Sicht auf dieses physikalische Gesetz entsteht die Frage, wo denn nun die Kohle landet, die der „Green Deal“ jedem von uns abknöpft. Ich ahne es schon, die Klugen unter Ihnen haben es wieder erraten. Natürlich bei den Profiteuren des „Green Deal“. Und zu denen gehört insbesondere der unersättliche sozialistische Staat. Zu dieser Art von sozialistischen Staaten sei es erlaubt, heute auch die EU und Merkel-Deutschland zu zählen.

„Unersättlich“, weil Sozialisten zwar wirtschaftlich komplett unfähig, dafür aber besonders begabt sind, das Geld anderer Leute auszugeben. Die entsprechenden Folgen in von Sozialisten regierten Volkswirtschaften kennt jeder, beste Beispiele bieten Kuba, Nordkorea, die DDR und Venezuela. Und natürlich ist zum „Green Deal“ ein wenig Diktatur unabdingbar, wie soll es denn anders anders gehen? Leider wird es bei „ein bisschen“ wohl nicht bleiben. Hier ist Eric Heymann kein Prophet, sondern nüchterner Beobachter. Nun aber zum Grundproblem. Was ist eigentlich passiert?

Die Großfinanz dieser Welt, aber auch die Wirtschaftspolitik westlicher Staaten sind wieder einmal an einem toten Punkt angekommen. Womit kann man noch Geld ohne große Anstrengung verdienen, und woher sollen gerne wiedergewählte Politiker ihre Wahlgeschenke noch hernehmen? Es geht nur mit steigender Produktivität, wobei die asiatischen Tiger gerade dabei sind den Westen zu überholen.

Gute Ideen sind immer schwerer zu finden. Es gibt diese Ideen zwar noch, sie werden aber immer schräger – wie beispielsweise Beispiel die von Elon Musk mit seinem Tesla. Niemand will zwar E-Autos kaufen, denn diese Dinger sind die technische Inkarnation von Nutzlosigkeit (Reichweite, Tankprobleme, woher soll der Strom kommen) und Umweltschädlichkeit (Batterien, Brandgefahr). Wenn man aber geschickt auf politischen Wellen reitet, kann es klappen. Die Aktien von Tesla haben Musk zum reichsten Bewohner unseres Planeten gemacht. Man muss jetzt nicht gleich an Wirecard denken, aber Tesla-Aktienbesitzer sollten vielleicht doch …, Pardon, als Aktien-Nichtversteher nehme ich das wieder zurück.

Nun zur optimalen Lösung des Produktionsproblems. Sie ist nichts Anderes als genial verpackter Betrug an der Bevölkerung, also Betrug an denen, von denen am meisten zu holen ist. Genauer gesagt, sind das Sie. Man vergrößert nicht mehr die Produktivität, weil man die dazu  notwendigen Grundlagen von Ausbildung bis Infrastruktur zugunsten von Wahlgeschenken hat verkommen lassen, sondern man verteilt um und zerstört noch konsequenter als es bisher schon geschah.

Zum Plan der Betrüger: Die Verantwortlichen, im Wesentlichen die Großfinanz und ihr riesiges, nicht sehr sympathisches Gefolge von Politik, Neppern, Schleppern und Bauerfängern haben sich drei einfache geniale Schritte einfallen lassen, die vor aller Augen offen ablaufen:

  1. Man erzeuge ausreichend Angst vor einem nicht existierenden Problem. Dieses ist aktuell der natürliche Klimawandel, den man nach erfolgreichem mittelalterlichen Vorbild (Hexenglaube) der Schuld des Menschen zuschreibt: Inseln versinken, wir werden alle an Überhitzung verbraten, die Meere versauern,… Sie kennen diesen Unsinn ja zur Genüge. Er funktioniert, denn die Natur tobt sich nun einmal oft in für uns Menschen katastrophalen Exzessen aus. Selber kennt die Natur keine Katastrophen. Infolgedessen läßt sich seit Bestehen der Menschheit jeder durch die Natur verursachte Schaden an uns durch unsere eigene Schuld erklären und wird, weil es am einfachsten klingt, gerne geglaubt.
  2. Man biete Erlösung von dieser Schuld an, die völliger Unsinn sein muss. Aktuell sind es CO2-Einsparungen. Warum Unsinn? Weil reale Lösungen gegen die oft schädlichen Folgen des natürlichen Klimawandels, wie beispielsweise höhere Deiche, auf Wirksamkeit und Kosten überprüft werden können. Reale Lösungen sind für den Betrug ungeeignet. Die Wirkung von CO2-Einsparung und der damit verbundenen geringen Erwärmung kennt dagegen niemand, vermutlich ist sie unbedeutend oder sogar positiv, wenn man das verstärkte Pflanzenwachstum bei mehr CO2 berücksichtigt. Etwas Besseres ist also kaum denkbar.
  3. Man überzeuge den maßgebenden Teil der Wähler, dass das Scheinproblem nur mit der angebotenen Unsinnslösung „Klimaschutz“, „Energiewende, „Green Deal“ etc. behoben werden kann und erstelle dann nur noch die Pipelines, welche das der Bevölkerung entwendete Geld in eigene Taschen fließen lässt.

Wer nun meint, so etwas sei angesichts des heutigen Bildungsstandes schwierig umzusetzen, wird schnell eines Besseren belehrt. Mit dem Argument „Naturschutz“ erzielt man die besten Erfolge bei dem Teil der Bevölkerung, der bekanntlich weniger mit gesundem Menschenverstand gesegnet ist. Er ist die Mehrheit. Hier muss nun doch an Dialektik erinnert werden, denn die Grünen, ehemalige Naturschützer, sind heute mit ihren Windrädern und Energiemaisfeldern zu den größten Naturzerstörern überhaupt geworden und zu roten Sozialisten zudem, ohne dass ihnen dies im Geringsten die Wählergunst vermasselt. Chapeau, das muss man erst einmal hinbekommen.

Dialektik funktioniert also! Natürlich will jeder Naturschutz, sicher besonders die Gutwilligen und nur schwer Begreifenden, welched den Betrug nicht erkennen. Der erstaunliche Erfolg der so einfachen Strategie ist also nachvollziehbar. Schwer Begreifende kommen mit produktiver Arbeit schlechter zurecht, weil diese Grips, Kenntnisse und jahrelange Anstrengung erfordert. Ideologische Einflüsterungen bieten leichtere Wege an.

Deutschland bildet dieses hier nur knapp umrissene Szenario mustergültig ab. Seit 1968 hat sich durch geschickte Grünpropaganda, durch aktives stetiges Absenken der Allgemeinbildung (Schulen und Medien) und mit dem Marsch durch die Institutionen ein ausreichender grüner Bodensatz für den „Green Deal“ gebildet. Es könnte nur problematisch werden, wenn dieser heute vermutlich meist öffentlich alimentierte Teil der Bevölkerung seine Bezüge durch den „Green Deal“ schwinden sieht.

Schließlich gilt immer noch gemäß dem schon erwähnten Physiker Kirchhoff – was dem Einem zugute kommt, muss dem Anderen weggenommen werden. Produktives Wachstum, wie von grünsozialistischen Phantasten erwartet, kann es mit dem „Green Deal“ nicht geben. Das ist so unmöglich wie den Berg hinauffließendes Wasser. Pure industrielle Zerstörung als Synonym für „Green Deal“ ist nicht mit steigender Produktivität zu verwechseln. Man wird diesen Trick dialektisch versuchen, aber die Folgen und deren Verständnis holen zuletzt auch die Dümmsten ein – nur ist es dann für alle zu spät.

Es kommt noch etwas dazu: Insbesondere den Gutgläubigen kann man mit Hilfe der staatsfügsamen Medien inzwischen alles erzählen. Die Auffassung, es sei richtig, was in den Zeitungen steht und was die Staatsmedien von sich geben, ist bis zur wieder einmal auftretenden Katastrophe unausrottbar. Es ist eine fatale Kette, die offenbar nicht enden will – Kaiserreich, national Sozialismus, DDR-Kommunismus und nun Ökosozialismus. Da inzwischen auch die Mehrheit der Akademiker zu den Zeitgenossen mit wenig selbständigem Denkvermögen gehören, darf nicht verwundern, dass gerade der akademische Bereich der grünen Verführung sperrangelweit offensteht. Diskutieren Sie doch mal mit einer grün gepolten Gymnasiallehrerin über Klimaschutz und Energiewende! Die immer wieder auftauchenden Plagiate, mit welchen sich Politiker beiden Geschlechts den Dr. -Titel betrügerisch aneignen wollten, sind Fußnoten, welche die hier angesprochene akademische Dekadenz bestätigen. Heute gehört Promotionsbetrug fast schon zum guten Ton auf dem politischen Parkett. Politiker, die dabei erwischt werden, denken nicht mehr daran zurückzutreten.

Es ist ein schwerwiegender Irrtum, Akademikern höhere praktische Intelligenz zuzuschreiben als den vorgeblich einfachen Leuten. Das genaue Gegenteil ist der Fall. Wer sein Brot hart verdient und den „Laden am Laufen hält“, dem braucht man nicht mehr mit dem Quatsch „Klimaschutz“ oder „Energiewende“ zu kommen. Falls davon profitiert wird, wie z.B. von Handwerkern, die Solarunsinn auf Dächer schrauben, geht es um schlichten Lebensunterhalt. Das ist in Ordnung. Man schraubt das Ding ordentlich aufs Dach und hält die Klappe, obschon man es meist besser weiß.

Die mit selbständigem Denkvermögen am miserabelsten versehenen Grün-Verführten sind zweifellos rot-grün gepolte Journalisten, die immer noch an die Verheißungen von Marx und an das Grünparadis ohne Gentechnik und Kernenergie glauben. Sie werden von den in den Radio- und TV-Gremien sitzenden Ideologen an die passenden Stellen lanciert und gehätschelt, solange sie pflichtgemäß den Medienkonsumenten täuschen. Schert einer aus, „hat er beruflich fertig“. Daher steht heute in den Medien die richtige Haltung, aber nicht mehr eine neutral-objektive Berichterstattung in Konjunktur.

Und so schließt sich der Kreis. Alle glauben allmählich den gleichen Ökounsinn, denn Wohlfühlkonsens ist eine Humankonstante. Daher ist es nicht mehr schwer, Fachleuten, die lediglich auf solider wissenschaftlicher Basis die Wahrheit berichten (zum Beispiel Thilo Sarrazin über die Folgen ungebremster Migration) auszugrenzen, Parteimitgliedschaften zu entziehen und schlussendlich als Nazis zu diffamieren. Deutschland ist hier freilich nur Nachahmer. In den USA erwischte es jetzt sogar einen US-Präsidenten, der das Spiel der Großfinanz nicht mitmachte (hier), (hier). Sein Nachfolger geht wieder an der Leine mit  erster Amtsankündigung über die Wiederbelebung des Klimabetrugs.

Es wird wohl noch eine Weile dauern, bis auch der Letzte begriffen hat, dass das, was alle glauben, in aller Regel falsch ist. So schreibt der Diplomat und Schriftsteller Jean Giraudoux (1882-1944): „Einen Irrtum erkennt man daran, dass alle Welt ihn teilt„. Ähnlich urteilt der Philosoph und Lyriker Paul Valery (1871-1945): „Was von allen akzeptiert wird, ist aller Wahrscheinlichkeit nach falsch„. Aber auch der deutsche Reichskanzler Otto von Bismarck (1815-1898) wusste über diese Zusammenhänge bestens Bescheid: „Es ist nichts schwerer als gegen Lügen vorzugehen, die die Leute glauben wollen„.

Zum Abschluss sei noch angemerkt, dass der „Green Deal“ inzwischen weiter fortgeschritten ist, als es sich viele vorstellen. Durch entsprechenden politischen und EU-gesetzlichen Druck sind heute Banken verpflichtet, Kredite vorrangig nur noch an Firmen zu vergeben, die „grün“ produzieren.

Damit kann jetzt nichts mehr schiefgehen – freuen wir uns also auf die „EU Orwell 2021“ und speziell hierzulande auf die wohl unvermeidbare DDR 2.0.




Schaden durch Lockdown mindestens um das Fünffache höher als sein Nutzen – Studienüberblick

Wir sprechen von Ari Joffe, University of Alberta, Kanada:

“Ari Joffe, MD, FRCPC, is a specialist in Pediatric Critical Care and Pediatric Infectious Diseases, practicing at the Stollery Children’s Hospital in Edmonton since 1995. Ari is a Clinical Professor in the Department of Pediatrics and with the John Dossetor Health Ethics Centre, University of Alberta”

Die Arbeit von Ari Joffe liegt uns nicht nur nahe, weil sie so umfassend ist, Joffe beschreibt darin auch seine Entwicklung von einem, der SARS-CoV-2 angesichts der vielen Horrormeldungen und Studien, die sein Auftauchen begleitet haben, die mit nicht vorhandener Immunität, exponentieller Verbreitung und mehreren Millionen Toten geschockt haben, zunächst einmal vorsichtig und mit dem “besser auf der richtigen Seite irren”-Ansatz gegenübergetreten ist, zu einem, der die fast schon mutwillige Zerstörung von Gesellschaften und Wirtschaften durch Politiker, die offenkundig über keinerlei Möglichkeit verfügen, einmal begonnene Irrwege zu verlassen, bekämpft, eine Entwicklung, die der Entwicklung, die wir genommen haben, sehr ähnlich ist.

Gab es im Februar und im März des Jahres 2020 noch triftige Gründe, Non-Pharmaceutical Interventions, Lockdown, soziale Distanz und dergleichen zu unterstützen, so gibt es in der Zwischenzeit eine Vielzahl von Belegen, die zeigen, dass der beschrittene Weg ein Holzweg ist, den man besser gestern verlassen hätte.

Joffe, Ari (2020). COVID_19: Rethinking the Lockdown Groupthink.

Die Horrorgeschichten, die zu Beginn des letzten Jahres verbreitet wurden, sind dieselben, die noch heute verbreitet werden: Davon, dass die Intensivstationen den Ansturm der COVID-19-Erkrankten nicht verkraften, war und ist die Rede, von 7 Millionen Toten, die es ohne einen Lockdown schon im April 2020 gegeben hätte, war die Rede, später dann von 3,5 Millionen Toten, die durch Lockdowns verhindert worden seien:

” A war effort analogy is apt, with the “unquestioning presumption that the cause is right, that the fight will be won, that naysayers and non-combatants [e.g., not wearing a mask] are basically traitors, and that there are technical solutions [e.g., vaccine and drugs] that will quickly overcome any apparent problem or collateral damage.” (3)

Wenn es überhaupt eine Entwicklung bei Polit- und Journalisten-Darstellern gibt, dann die, dass Menschen, die diesen Horrorgeschichten kritisch gegenüberstehen, heute noch heftiger bekämpft werden als noch vor Monaten, eine normale Entwicklung, denn je mehr diejenigen, die Katastrophen an die Wand malen, mit ihren Prognosen daneben liegen, desto heftiger bekämpfen sie diejenigen, die auf diese Diskrepanz hinweisen. Und je mehr sich abzeichnet, dass Lockdowns die Pandemie nicht beeinflussen, bestenfalls in die Länge ziehen, desto mehr wird stur der Weg der Lockdowns beschritten und versucht, zu erzwingen, was gegen die Realität nicht durchzusetzen ist, und zwar ohne Rücksicht auf Verluste.

Schon 2011 haben Bonneux und Van Damme angemerkt, dass die damalige Influenza Pandemie der Jahre 2008/2009 von einer Kultur der Angst beherrscht wurde, in der nur für Worst-Case-Szenarien Platz gewesen sei und in der niemand derjenigen, die für sich in Anspruch nehmen, politische Entscheidungen zu treffen, auch nur auf die Idee gekommen wäre, die Kosten seiner Entscheidungen dem vermeintlichen Nutzen gegenüber zu stellen. Wo eine qausi religiöse Mission ausgeführt wird, da ergibt sich die Effektivität der eigenen Entscheidungen für diese Priester quasi aus der Heiligkeit der eigenen Mission.


Bonneux L & Van Damme W. (2011). Health is more than influenza. Bulleting World Health Organization 89:539-540.


Angesichts dessen, was seit Februar an Wissen über SARS-CoV-2 und die vom Virus ausgelöste Krankheit “COVID-19” bekannt geworden ist, ist eine Kosten-Nutzen-Rechnung, die den Nutzen eines Lockdowns den Kosten durch diesen Lockdown gegenüberstellt, längst überfällig. Joffe leistet sie in seiner Arbeit. Die folgenden Parameter sind für das Verständnis der präsentierten Ergebnisse von Bedeutung.

  • Die Infection Fatality Rate für SARS-CoV-2 ist gering: Von denen, die sich infizieren, sterben rund 0,23%.
  • Die Infection Fatality Rate ist altersgradiert: Unter 70jährige: IFR = 0,05%; Unter 45jährige: IFR = 0,00%; Über 70jährige: IFR = 1%, Personen in Alten- und Pflegeheimen: IFR = 25%. Das höchste Risiko, an COVID-19 zu sterben, haben also Menschen in Alten- und Pflegeheimen.
  • Schätzungen der WHO zufolge, sind weltweit 10% der Bevölkerung mit SARS-CoV-2 infiziert. Das entspricht zum Zeitpunkt der Schätzung einer IFR von 0,15%.
  • Personen in Alten- und Pflegeheimen machen rund 50% der COVID-19 Toten in Europa und den USA aus, rund 80% der COVID-19 Toten in Kanada.
  • Der Median der Überlebensdauer in Alten- und Pflegeheimen liegt unter normalen Umständen bei rund 2,2 Jahren, d.h. die Hälfte der Personen, die in Pflegeheimen lebt, stirbt vor 2,2 Jahren Aufenthalt, die Hälfte danach.
  • Die Sterberaten in Alten- und Pflegeheimen liegen in normalen Jahren bei rund 30%.
  • Alter ist der mit Abstand größte Risikofaktor im Hinblick auf die Sterblichkeit an COVID-19. Ko-Morbiditäten, Immunschwäche, Erkrankungen der Atemwege, Übergewicht, eine kürzliche Erkrankung an Krebs, sie spielen auch eine Rolle, aber eine viel geringere als Alter.
  • Die Grenze für Herdenimmunität, die für einen Reproduktionsfaktor von 2,5 bei 60% liegen soll, geht von homogenen Gesellschaften aus, deren Mitglieder gleichermaßen für SARS-CoV-2 empfänglich sind, gleiche Muster sozialer Kontakte und Begegnungen aufweisen und dergleichen. Eine Annahme, die offenkundig falsch ist. Junge Leute haben mehr Kontakte als alte, sind häufiger unterwegs, wechseln häufiger die Partner uvm. Wird bei Kontakten die Annahme in die Modelle aufgenommen, dass nicht alle Mitglieder der Bevölkerung dieselbe Anzahl sozialer Kontakte und dieselbe Anzahl sozialer Begegnungen haben, dann sinkt die Grenze für Herdenimmunität auf 48%, werden zudem individuelle Unterschiede in der Wahrscheinlichkeit, an COVID-19 zu erkranken, in Rechnung gestellt, dann sinkt die Grenze auf 10% bis 20%.

Dazu:

Aguas R, Corder RM, King JG, Goncalves G, Ferreira MU, Gomes MGM. Herd immunity thresholds for SARS-CoV-2 estimated from unfolding epidemics. medRxiv.

Britton T, Ball F, Trapman P. (2020). A mathematical model reveals the influence of population heterogeneity on herd immunity to SARS-CoV-2. Science 369(6505):846-849.

Gomes MGM, Corder RM, King JG, Langwig KE, Souto-Maior C, Carneiro J, et al. (2020). Individual variation in susceptibility or exposure to SARS-CoV-2 lowers the herd immunity threshold. medRxiv.


Vor dem Hintergrund der natürlichen Grenze zur Herdenimmunität (60%), die Polit-Darsteller zur richtigen und einzig relevanten Größe erklärt haben, stellt sich die Armut dessen, was derzeit als “Strategie” gegen SARS-CoV-2 verbreitet wird, in eklatanter Weise dar:

  • Lockdowns sind kein Mittel, um Herdenimmunität zu erreichen, denn es würde mehrere Jahre dauern, um dieses Ziel zu erreichen, vorausgesetzt Immunität gegen SARS-CoV-2, die mit Lockdowns kontrolliert erreicht werden soll, hält so lange vor;
  • Test-und-Trace-Systeme haben sich als nicht durchführbar erwiesen; Damit Herdenimmunität über Test-and-Trace-Systeme erreicht werden kann, müssten innerhalb eines halben Tages 75% der Kontakte infizierter Personen ermittelt werden.
  • Herdenimmunität ist durch Impfung nur dann zu erreichen, wenn Impfstoffe für eine lang anhaltende Immunität gegen Neuansteckung sorgen. Derzeit gibt es keinerlei Grund anzunehmen, dass die Impfstoffe von Biontech/Pfizer, Moderna oder Oxford/AstraZeneca diese Leistung erbringen.

Kurz: alle derzeit verfolgten Strategien führen nirgendwo hin. Derzeit verkaufen Politik-Darsteller eine Hoffnung, von der manche sicher wissen, dass es eine Täuschung ist, eine bewusste Täuschung, während es wohl auch Naive gibt, die tatsächlich glauben, eine der drei Strategien oder alle zusammen könnten erfolgreich sein (immer bezogen auf die Annahmen für Herdenimmunität der Polit-Darsteller, die sie machen, um den Lockdown zu rechtfertigen. Ginge man von einer geringeren Schwelle zur Herdenimmunität aus, dann wäre ein Lockdown in erster Linie nicht notwendig.).

Vor diesem Hintergrund hat sich Joffe die Frage gestellt, wie das Verhältnis aus Nutzen des Lockdowns zu den Kosten des Lockdowns ist und diese Frage beantwortet.

Bereits eine Auflistung der bisherigen Kollateralschäden ist erschreckend (wir beschränken uns auf Kollateralschäden in westlichen Ländern, wer sich für die Kollateralschäden in Entwicklungsländern interessiert, kann diese bei Joffe nachlesen):

  • Anstieg der Tode infolge von Herzinfarkt, Herz-Kreislauf-Erkrankungen, Krebserkrankungen aufgrund aufgeschobener Behandlung, entfallener Vorsorgeuntersuchungen oder einer Vermeidung, das Krankenhaus aufzusuchen, bei den entsprechenden Patienten;
  • Anstieg psychischer Erkrankungen;
  • Anstieg bei Selbstmorden;
  • Unerklärte Anstiege bei Dementia-Toten und Toten, die an Alzheimer sterben;

In mehreren Studien wird geschätzt, dass zwischen 20% und 50% des Anstiegs der Übersterblichkeit, der derzeit so medial verkauft wird, NICHT auf COVID-19, sondern auf Tote, die man als Kollateralschäden des Lockdowns bezeichnen muss, zurückzuführen sind.


Die entsprechenden Studien:

Docherty K, Butt J, de Boer R, Dewan P, Koeber L, Maggioni A, et al. (2020). Excess deaths during the Covid19 pandemic: an international comparison. medRxiv

Kontis V, Bennett JE, Rashid T, Parks RM, Pearson-Stuttard J, Guillot M, et al.(2020) Magnitude, demographics and dynamics of the effect of the first wave of the COVID-19 pandemic on all-cause mortality in 21 industrialized countries. Nature Medicine. DOI: https://doi.org/10.1038/s41591-010-1112-0.

Postill G, Murray R, Wilton A, Wells RA, Sirbu R, Daley MJ, Rosella LC. (2020). An analysis of mortality in Ontario using cremation data: rise in cremations during the COVID-19 pandemic. medRxiv

Woolf SH, Chapman DA, Sabo RT, Weinberger DM, Hill L, Taylor DDH (2020). Excess deaths from COVID-19 and other causes March-July 2020. Journal of the American Medial Association 325(15):1562-1565.


Joffe (2020).

Wie kann man nun die Kosten und den Nutzen berechnen, die mit dem Lockdown verunden sind? Joffe nutzt Konzepte, die schon seit Jahren in der Ökonomie, vor allem der Wohlfahrtsökonomie genutzt werden, QALY und WELLBY. Ersteres umschreibt den Versuch, die Anzahl der Lebensjahre (für eine Gesellschaft, also als Aggregatdatum) mit dem “gesundheitlichen Wohlbefinden” dieser Jahre (operationalisiert über die Erkrankungshäufigkeit und die Sterbewahrscheinlichkeit für bestimmte gesellschaftliche Gruppen) zu gewichten (= QALY Quality Adjusted Life Years). Letzteres umschreibt den Versuch, den Wert all dessen zu messen, das ein Leben zu einem erfüllten Leben macht, wobei hier ein Sammelmaß, nämlich die Lebenszufriedenheit zum Einsatz kommt: “Wie zufrieden sind Sie mit ihrem Leben”, so lautet die Frage, auf deren Basis die Ergebnisse aus entsprechenden Befragungen für gesellschaftliche Gruppen aggregiert werden. Man kann an dieser Vorgehensweise vieles aussetzen, aber sie hat zwei unschlagbare Vorteile: Zum einen ist es eine standardisierte Vorgehensweise, die die gleiche Messgrundlage für Kosten und Nutzen benutzt, zum anderen resultiert diese Vorgehensweise in quatifizierbaren Größen, die dafür sorgen, dass die Relation zwischen Kosten und Nutzen korrekt abgebildet wird. Gerechnet wird im vorliegenden Fall mit verlorenen Jahren. Eine Person, die im Vereinigten Königreich an COVID-19 verstorben ist, hatte im Durchschnitt noch 3,5 GESUNDE Jahre zu leben, das ergibt 3,5 QALY, aus denen man 18-30 WELLBY, je nach Studie, berechnen kann.

Wer sich für die Berechnung interessiert, sie kann hier nachgelesen werden:

Frijters P. (2020). The Corona Dilemma. Club Troppo.

Miles D, Stedman M, Heald A. (2020) Living with Covid-19: balancing costs against benefits in the face of the virus. National Institute Economic Review 253: R60-R76.


Das Ergebnis dieser Rechnungen bei Joffe ist in der folgenden Tabellen dargestellt:

Joffe (2020).

Durch einen Lockdown werden somit 380 Millionen Jahre weltweit, die Menschen noch gesund verbringen können, gerettet, während 1,8 Milliarden Jahre, die Menschen noch hätten gesund verbringen können, geopfert werden, fünfmal so viele.

In den Worten von Joffe:

“The cost-benefit analysis is shown in Table 6, finding on balance the lockdowns cost a minimum of 5X more WELLBY than they save, and more realistically, cost 50-87X more. Importantly, this cost does not include the collateral damage discussed above [from disrupted healthcare services, disrupted education, famine, social unrest, violence, and suicide] nor the major effect of loneliness and unemployment on lifespan and disease.”

Die Studie von Joffe ist nicht die einzige, die zu dem Ergebnis kommt, dass die Kosten, die sich mit Lockdowns verbinden, weit höher sind als der Nutzen:

Frijters P, Krekel C. (2020). “Chapter 5: Applying wellbeing insights to existing policy evaluations and appraisals”. In: Frijters P, Krekel C, (eds). A handbook for Wellbeing Policy-Making: history, theory, measurement, implementation, and examples. London: Oxford University Press (2020).

Fritjers und Krekel schätzen, dass die IFR, die die Kosten der derzeitigen Lockdowns rechtfertigen würde, 7,8% betragen müsste, und somit das 33fache der derzeitigen IFR.

Foster G. (2020). Cost-benefit analysis executive summary. Presented to Victorian Parliament in Australia.

Foster G. (2020). Early estimates of the impact of COVID-19 disruptions on jobs, wages, and lifetime earnings of schoolchildren in Australia. Australian J Labour Economics (2020) 23(2):129-151.

Foster kommt für Australien zu dem Ergebnis, dass die Kosten des Lockdown dessen Nutzen um das 6,6fache übersteigen.

Miles D, Stedman M, Heald A.(2020). Living with Covid-19: balancing costs against benefits in the face of the virus. National Institute Economic Review 253:R60-R76

Miles, Stedman und Heald schreiben für das Vereinigte Königreich, dass der Nutzen, der davon ausgeht, den Lockdown zu beenden, den Nutzen, der vom Lockdown ausgeht, um das 7,3 bis 14,6fache übersteigt.

Cutler DM, Summer LH. (2020). The COVID-19 pandemic and the $16 Trillion virus.Journal of the American Medical Association 324(15):1495-1496. [Accessed October

Cutler und Summer zeigen für Neuseeland [!sic], dass die Kosten des Lockdowns um das 97,9fache höher waren als der Nutzen.


Alle Ergebnisse gehen in dieselbe Richtung. Alle Ergebnisse zeigen, dass Polit-Darsteller derzeit mutwillig Gesellschaften und Ökonomien zerstören, um einen im Vergleich zu den Kosten minimalen Nutzen zu erreichen, der, wenn man gezielt Alten- und Pflegeheime sowie die besondere gefährdeten Bevölkerungsgruppen schützen würde, viel besser zu erreichen wäre.

Die Kosten für diese Poltiker-Folly werden natürlich, wie gewöhnlich, von allen getragen.

Der Beitrag erschien zuerst bei ScienceFiles hier




Deutsche Bank: Green Deal der EU kann nur mit einem „gewissen Maß Öko-Diktatur erfolgreich sein“

Eine von der Deutschen Bank veröffentlichte Analyse kritisiert scharf die „unehrliche Debatte“, mit der die EU den Menschen in Europa ihren „Green Deal“ verkauft. Die massiven Risiken des Projekts für den Wohlstand, das Wirtschaftssystem und die Demokratie selbst dürften nicht verschwiegen, sondern müssten offen angesprochen werden.

Eric Heymann, leitender Ökonom bei Deutsche Bank Research, warnt, dass mit dem Green Deal und dem Ziel der Klimaneutralität bis 2050 eine europäische Megakrise droht, die zu einem „spürbaren Verlust von Wohlstand und Arbeitsplätzen“ führen wird. Und er warnt: Ohne „ein gewisses Maß an Ökodiktatur“ wird es nicht funktionieren.

Der Analyst bezeichnet es als unseriös, dass der Green Deal flächendeckend als „neue Wachstumsstrategie“ angepriesen wird, die es der EU ermöglichen würde, eine „gerechte und wohlhabende Gesellschaft“ zu werden. Das mag zwar auf dem Papier gut aussehen, schreibt Heymann, doch um bis 2050 klimaneutral zu werden, müssten Europas Wirtschaft sowie das gesamte politische und rechtliche System grundlegend verändert werden.

Vorerst seien die revolutionären Folgen der EU-Klimaagenda für den Alltag „noch relativ abstrakt“ und für die meisten Haushalte „noch akzeptabel.“ Bald aber werde der Weg zur Klimaneutralität drastische Eingriffe in die Wahl der Verkehrsmittel, die Wohnungsgröße, die Heizungsart, den Besitz von elektronischen Konsumgütern sowie Einschränkungen beim Konsum von Fleisch und Südfrüchten erfordern.

Und er warnt, dass diese Einschränkungen und Eingriffe unweigerlich „massiven politischen Widerstand“ auslösen werden.

Einige Parteien werden Argumente gegen eine strikte Klimaschutzpolitik finden, wenn diese zu einer deutlichen Erhöhung der Energiepreise oder zu Einschränkungen der persönlichen Freiheit oder der Eigentumsrechte führt. Und machen wir uns nichts vor: Diese Parteien werden Wählerunterstützung finden. Auf EU-Ebene wird es große Verteilungskonflikte geben, die zu einer (weiteren) Spaltung des Blocks beitragen können. Sind wir bereit, mit dieser Polarisierung umzugehen?

Im Folgenden finden Sie Auszüge aus der Analyse von Eric Heymann (Deutsche Bank Research).

Klima-Neutralität: Sind wir bereit zu einer ehrlichen Diskussion?

(…)

Ein gewisses Maß von Öko-Diktatur wird erforderlich sein!

Die Auswirkungen der aktuellen Klimapolitik auf das Alltagsleben der Menschen sind für viele Haushalte noch recht abstrakt und akzeptabel. Klimapolitik kommt in Form von höheren Steuern und Abgaben auf Energie, die das Heizen und die Mobilität verteuern. Einige Länder haben Mindeststandards für die Energieeffizienz von Gebäuden oder ähnliche Regeln in anderen Bereichen festgelegt. Die Klimapolitik bestimmt aber nicht unser Leben. Wir treffen wichtige Konsumentscheidungen, zum Beispiel ob wir überhaupt reisen, wie viel wir reisen und welche Verkehrsmittel wir nutzen, ob wir in einem großen Haus oder einer kleinen Wohnung leben und wie wir heizen, wie viele elektronische Geräte wir haben und wie intensiv wir sie nutzen oder wie viel Fleisch und exotische Früchte wir essen. Diese Entscheidungen werden in der Regel auf der Basis unseres Einkommens getroffen, nicht auf der Basis von Klimaüberlegungen.

Wenn wir wirklich Klimaneutralität erreichen wollen, müssen wir unser Verhalten in all diesen Lebensbereichen ändern. Das liegt ganz einfach daran, dass es noch keine adäquaten kosteneffizienten Technologien gibt, die es uns ermöglichen, unseren Lebensstandard klimaneutral zu halten. Das bedeutet, dass die Kohlenstoffpreise erheblich steigen müssen, um die Menschen dazu zu bewegen, ihr Verhalten zu ändern. Eine andere (oder vielleicht ergänzende) Möglichkeit ist eine deutliche Verschärfung des Ordnungsrechts. Ich weiß, dass „Ökodiktatur“ ein böses Wort ist. Aber wir müssen uns vielleicht die Frage stellen, ob und inwieweit wir bereit sind, eine Art Ökodiktatur (in Form von Ordnungsrecht) zu akzeptieren, um uns in Richtung Klimaneutralität zu bewegen. Hier ein Beispiel: Was sollen wir tun, wenn Immobilienbesitzer ihre Häuser nicht zu Nullemissionsgebäuden machen wollen; wenn sie nicht die finanziellen Mittel dazu haben; wenn dies aus technischen Gründen nicht möglich ist oder wenn sich die damit verbundenen Investitionen nicht rechnen?

Verlust der Wettbewerbsfähigkeit oder Einschränkungen des freien Handels

Wenn sich die EU deutlich schneller in Richtung Klimaneutralität bewegt als der Rest der Welt, werden auch die Kohlenstoffpreise in der EU schneller steigen. Dies wird die Wettbewerbsfähigkeit energieintensiver Unternehmen in der EU verringern. Sind wir bereit, diesen Preis zu zahlen? Wahrscheinlich nicht – denken Sie daran, niemand soll zurückgelassen werden. Werden wir also diese Unternehmen subventionieren, damit sie teure, aber klimafreundliche Technologie einsetzen können? Diese Option wird auf lange Sicht aufgrund von Budgetbeschränkungen nur schwer umsetzbar sein. Eine ehrliche Diskussion wird sich mit der Wahrheit auseinandersetzen müssen, dass jeder Euro, der für den Klimaschutz ausgegeben wird, nicht mehr für Ausgaben für Bildung, Forschung, öffentliche Gesundheit, digitale Infrastruktur, innere und äußere Sicherheit, Steuersenkungen oder höhere Renten zur Verfügung steht. Um das Wettbewerbsproblem zu lösen, plant die EU-Kommission die Einführung eines CO2-Grenzausgleichs. Glauben wir wirklich, dass dies die betroffenen Länder nicht zu Gegenmaßnahmen veranlassen wird? Sind wir wirklich bereit, die Vorteile des Freihandels zu Gunsten des Klimaschutzes aufzugeben?

Massiver politischer Widerstand wird sich erheben

Niemand soll auf dem Weg zur Klimaneutralität zurückgelassen werden. Diese Aussage des Green Deals läuft wohl auf den Versuch der Quadratur des Kreises hinaus. Eine große Kehrtwende in der Klimapolitik wird mit Sicherheit Verlierer unter den Haushalten und Unternehmen produzieren. Darüber hinaus dürften Wohlstand und Beschäftigung erheblich leiden. Wäre dies nicht der Fall, wäre Klimaschutz ein leichtes Unterfangen. Diese Entwicklungen werden natürlich auch Auswirkungen auf die politische Landschaft haben, sowohl auf nationaler als auch auf EU-Ebene.

Einige Parteien werden Argumente gegen eine strikte Klimaschutzpolitik finden, wenn diese zu einem deutlichen Anstieg der Energiepreise oder zu Einschränkungen der persönlichen Freiheit oder der Eigentumsrechte führt. Und machen wir uns nichts vor: Diese Parteien werden Wählerunterstützung finden. Auf EU-Ebene wird es große Verteilungskonflikte geben, die zu einer (weiteren) Spaltung des Blocks beitragen können. Sind wir bereit, mit dieser Polarisierung umzugehen? Oder werden wir unsere klimapolitischen Ambitionen anpassen, wenn wir feststellen, dass eine (zu) ehrgeizige Klimapolitik von einer Mehrheit der Menschen nicht akzeptiert wird?

Die vollständige Analyse steht hier.

Link: https://www.thegwpf.com/deutsche-bank-eu-green-deal-can-only-succeed-with-a-certain-degree-of-eco-dictatorship/

Übersetzt von Chris Frey EIKE

—————————

Kommentar des Übersetzers hierzu: Der Autor dieser Studie ist Ökonom und weiß daher nicht viel mehr über die Klima-Problematik als andere Laien. Seine Gedanken zur Wirtschaft sind allerdings sehr fundiert. Wenn man sich jetzt noch vor Augen führt, dass dieses ganze Klima-„Problem“ gar nicht existent ist, dann wird der vom Autor beschriebene Wahnsinn noch potenziert. Die Frage ist, ob man Derartiges an relevanter politischer Stelle liest oder nicht, und wenn ja, ob man daraus Konsequenzen zieht. Der Übersetzer fürchtet: Nein! – C. F.




Tausendfacher Vogeltod durch Herbstkälte – Medien machen globale Erwärmung dafür verantwortlich

Im Frühherbst meldeten Menschen in Nebraska, Colorado, Texas, New Mexico und Arizona fast 10.000 Vögel – eine ungewöhnlich hohe Zahl – an die Datenbank der entsprechenden Behörde für Wildtier-Sterblichkeit. Wissenschaftler fanden heraus, dass es sich bei den meisten um Zugvögel handelte, die verhungert waren. Normalerweise ziehen die Vögel später im Jahr nach Süden, aber das frühe kalte Wetter im oberen Mittleren Westen [der USA, südlich und westlich der Großen Seen, Anm. d. Übers.] sowie in Kanada und Alaska veranlasste die Vögel, vor ihrer normalen Wanderung zu ziehen und bevor sie genügend Gewicht und Kraft für die Wanderung aufgebaut hatten.

„Es ist wirklich schwer, direkte Kausalität zuzuschreiben, aber angesichts der engen Korrelation des Wetterereignisses mit dem Tod dieser Vögel denken wir, dass entweder das Wetterereignis diese Vögel gezwungen hat loszufliegen, bevor sie bereit waren. Vielleicht hat dies auch ihren Zugang zu Nahrungsquellen während ihrer Migration beeinflusst,“ sagte Jonathan Sleeman, Direktor des USGS National Wildlife Health Center in Madison, Wisconsin, dem britischen Guardian.

Klimaaktivisten und ihre Verbündeten in den Medien hatten jedoch nichts Eiligeres zu tun als die globale Erwärmung für den kalten Frühherbst verantwortlich zu machen, der zu dem Vogelsterben führte.

„Das ungewöhnlich kalte Wetter in den nördlichen [US-]Staaten zu Beginn des Jahres verschlimmerte das Sterben ebenfalls und verursachte frühere Vogelwanderungen als üblich“, berichtete der NBC-Fernsehsender KPNX in Phoenix.

„Zwei Experten der Arizona State University sehen den Bericht als eine weitere Tragödie in den vielfältigen Problemen des Klimawandels, mit denen der Staat konfrontiert ist“, fügte KPNX hinzu.

Laut dem britischen Guardian wurde das Vogelsterben „durch untypisch kaltes Wetter verschlimmert, das wahrscheinlich mit der Klimakrise zusammenhängt, so die Wissenschaftler.“

Google News bewirbt den Guardian-Artikel unter seinen Top-Suchergebnissen heute unter „Klimawandel“.

Klimaaktivisten haben in der Vergangenheit versucht, sehr kalte Winter auf die globale Erwärmung zu schieben, aber kalte Herbste hatten sie bisher nicht auf dem Schirm ihrer globalen Erwärmung. In der Tat haben Klimaaktivisten zuvor genau das Gegenteil behauptet. Zum Beispiel veröffentlichte Yale Climate Communications im November 2019 einen Artikel mit dem Titel „How is climate change affecting autumn? Da die Temperaturen steigen, verzögert sich die Herbstsaison.“ Als weiteres Beispiel veröffentlichte Climate Communications einen Artikel mit dem Titel: „Autumn Falling Back.“ [Etwa: Herbst kommt immer später]. Das Thema dieser und vieler anderer Artikel ist, dass die globale Erwärmung das Einsetzen des kalten Herbstwetters verzögert, nicht beschleunigt.

Nein, Google News, die globale Erwärmung verursacht nicht den frühen Beginn des kalten Herbstes, auch wenn die niedrigen Temperaturen ein politisch nützliches Vogelsterben verursachen.

Autor: James Taylor is the President of the Heartland Institute. Taylor is also director of Heartland’s Arthur B. Robinson Center for Climate and Environmental Policy. Taylor is the former managing editor (2001-2014) of Environment & Climate News, a national monthly publication devoted to sound science and free-market environmentalism

Link: http://climaterealism.com/2021/01/cold-autumn-kills-thousands-of-birds-media-blame-global-warming/

Übersetzt von Chris Frey EIKE

 




China umarmt Kohle viel mehr als Wind

China nutzt Windkraft ein wenig, aber sie sind klug genug, sich davon nicht beirren zu lassen (im Gegensatz zu uns). Die erneuerbaren Energien treiben unsere Stromkosten in die Höhe, während China klugerweise im billigen Saft schwelgt.

Zur Veranschaulichung: Vor nicht allzu langer Zeit verbrannten die USA etwa eine Milliarde Tonnen Kohle pro Jahr, um Strom zu erzeugen. Wir erzeugten etwa 2.000 Terawattstunden (TWh) Strom aus Kohle, etwa die Hälfte unserer gesamten 4.000 TWh. Der törichte Krieg gegen die Kohle hat diese Menge auf etwa 600 Millionen Tonnen reduziert, wobei weitere Reduktionen geplant sind.

Durch einen seltsamen Zufall hörte genau zu der Zeit, als der Kohleverbrauch vor etwa 12 Jahren von Wachstum auf Schrumpfung umschaltete, auch Amerikas Stromverbrauch auf zuzunehmen. Seitdem ist er bei etwa 4.000 TWh geblieben. Vielleicht wurden neue energieintensive industrielle Entwicklungen alle von Amerika nach China verlagert, in Erwartung der folgenden US-Strompreiserhöhungen.

China hingegen erzeugt jetzt satte 7.500 TWh Strom, also knapp das Doppelte von Amerika. Richtig gelesen: sie produzieren fast doppelt so viel Strom wie wir.

Noch schlimmer ist, dass weniger als 25 % unseres Stroms für industrielle Zwecke verwendet wird, während in China angeblich 70 % des Stroms industriellen Zwecken dient. Das sind etwa 1.000 TWh in Amerika gegenüber 5.000 in China, also fünfmal so viel industrielle Nutzung von Strom. Kein Wunder, dass China die meisten der Produkte herstellt, die wir verwenden (und für die wir bezahlen).

Darüber hinaus wird der Großteil des Stromes in China mittels Kohle erzeugt. Von ihren 7.500 TWh werden etwa 5.000 TWh, also ganze zwei Drittel, mit billiger Kohle betrieben. Zufälligerweise entspricht das ihrem gesamten industriellen Verbrauch. Oder vielleicht ist es kein Zufall, sondern der Grund, warum sie in der Weltwirtschaft so wettbewerbsfähig bleiben.

Auf jeden Fall erzeugt China mehr Strom mit Kohle als Amerika aus allen Quellen zusammen. Das ist eine riesige Menge. Chinas boomende Wirtschaft läuft im Wesentlichen mit Kohle.

Wenn es um Windenergie geht, ist die Geschichte ganz anders. China verfügt über einen gewissen Anteil, nämlich etwa 400 TWH aus Windkraft, das sind etwa 5 % der Gesamterzeugung. Das ist zwar nur eine symbolische Menge, aber sie nimmt zu, wie alle anderen Formen der Stromerzeugung auch.

Am interessantesten ist aber der angegebene „Kapazitätsfaktor“ für Windenergie. Der Kapazitätsfaktor (CF) ist das Verhältnis zwischen der in einem Jahr produzierten Strommenge und der Menge, die produziert werden könnte, wenn die Generatoren die ganze Zeit mit voller Leistung laufen würden. Letzteres wird als Nennleistung bezeichnet, so dass der CF gleich der produzierten Leistung geteilt durch die Nennleistung ist, ausgedrückt in Prozent.

Da Wind intermittierend ist, ist sein CF ziemlich niedrig, typischerweise 30 bis 35% in den USA. Aber China berichtet eine Wind-CF von weniger als 20%! Der Grund dafür ist ein wichtiger Baustein des wirtschaftlichen Erfolgs Chinas. Im Gegensatz zu uns drosseln sie nicht die Kohleverstromung, nur um Platz für Windkraft zu schaffen, wenn der Wind gerade weht.

China nutzt also die Windenergie, wenn sie sie brauchen, aber sonst nicht. Wir hingegen drosseln unsere mit Kohle und Gas befeuerten Kraftwerke, wenn Windstrom da ist, was wirklich dumm ist.

China erzeugt fast doppelt so viel Strom wie Amerika, und zwei Drittel dieses Stroms kommen aus Kohle. Wind ist mit 5 % ein Alibi-Generator und darf der Kohlekraft nicht in die Quere kommen.

Jeder, der glaubt, dass China die Kohle durch Wind ersetzen wird, ist einfach nur ein grüner Träumer. Kohle ist zentral für Chinas Macht.

[Hervorhebung vom Übersetzer]

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting

Übersetzt von Chris Frey EIKE




E-Mails der Päpstlichen Akademie der Wissenschaften dokumentieren die Feindseligkeit des Vatikans gegenüber Skeptikern der Aussagen des IPCC zum Klimawandel

Die an NCR damaligen internen E-Mails der Päpstlichen Akademie zeigen, dass einige hochrangige vatikanische Beamte über diesen [solche?] Teilnehmer, (die der von ihnen vertretenen Wissenschaft des Klimawandels skeptisch gegenüberstehen) sehr alarmiert waren und diesen wieder ausgeladen hatten.

Der Workshop stand unter dem Titel:  Protect the Earth, Dignify Humanity. The Moral Dimensions of Climate Change and Sustainable Humanity (Beschütze die Erde, würdige die Menschheit. Die moralischen Dimensionen des Klimawandels und der nachhaltigen Menschheit)

Nachrichten des National Catholic Register NCR zum Thema:

Pontifical Academy of Science Emails Document Vatican Hostility to Climate Change Skepticism
(E-Mails der Päpstlichen Akademie der Wissenschaften dokumentieren die Feindseligkeit des Vatikans gegenüber Skeptikern (der Aussagen des IPCC) zum Klimawandel)

Vatican Global-Warming Conference Displays Climate of Cooperation
(Die Konferenz des Vatikans zur globalen Erwärmung, zeigt das Klima der Zusammenarbeit)

VATIKANSTADT – Die katholische Kirche könnte zusammen mit anderen Religionen eine „entscheidende Rolle“ bei der Lösung des Problems des Klimawandels spielen, indem sie die öffentliche Meinung mobilisiert, sagten Teilnehmer eines großen vatikanischen Workshops zu diesem Thema.

…. „Religiöse Institutionen können und sollten die Führung übernehmen, um eine so neue Haltung gegenüber der Schöpfung zu erreichen“, sagten sie. Die Kirche könnte dies erreichen, „indem sie die öffentliche Meinung und öffentliche Mittel mobilisiert, um den Energiebedarf der ärmsten 3 Milliarden Menschen auf eine Weise zu decken, die nicht zur globalen Erwärmung beiträgt, sondern es ihnen ermöglicht, sich besser auf die Herausforderungen des unvermeidbaren Klimawandels vorzubereiten.“

[In diesem Beitrag von Edward Pentin, NCR werden immerhin auch Skeptiker des AGW mit ihren Schlüsselpositionen genannt, so : Lord Christopher Monckton of Brenchley [Eike Lesern bekannt], Richard Keen, professor emeritus of climatology at the University of Colorado, Marc Morano of Climate Depot]

 

Mit dem Ziel, einen Konsens zwischen Wissenschaftlern und religiösen Führern über die Wissenschaft des Klimawandels herzustellen, fiel das Treffen im April 2015 sowohl mit  der einen Monat später veröffentlichten Umweltenzyklika von Papst Franziskus  Laudato Si (Über die Sorge um unser gemeinsames Zuhause = Planeten), als auch mit der UN- Agenda „17  Ziele für nachhaltige Entwicklung  (SDGs)“ zusammen.

  1. Keine Armut
  2. Kein Hunger
  3. Gesundheit
  4. Ausbildung
  5. Gleichheit der Geschlechter
  6. Sauberes Wasser
  7. „Clean Energy“
  8. Anständige Arbeit
  9. Industrie, Innovation und Infrastruktur
  10. Reduzierte Ungleichheit (zwischen Arm und Reich)
  11. „nachhaltige Städte und Kommunen“
  12. „Verantwortungsbewusste“ Produktion und Verbrauch
  13. Klima Aktivismus
  14. Meeres-Leben
  15. Land-Leben
  16. Frieden, Justiz und starke Institutionen
  17. Partnerschaften zum Erreichen obiger Ziele

Zu den Hauptrednern gehörten der damalige UN-Generalsekretär Ban Ki-moon, der Chefarchitekt der SDGs, Jeffrey Sachs – Ökonom und Anwalt für Bevölkerungskontrolle der Columbia University und fünf Nobelpreisträger.

Der vorstehend erwähnte Französische Wissenschaftler Phillip De Larminat, schrieb ein Buch, in dem er angab, dieselben Datensätze wie das IPCC zu verwenden, aber er argumentierte, dass Sonnenaktivität anstelle von Treibhausgasen die globale Erwärmung antreibt, was den Schlussfolgerungen des IPCC widerspricht. Berichten zufolge wollte er auf dem Symposium 2015 versuchen, die Meinung des Papstes über diese Wissenschaft zu ändern.

Der damalige Präsident der Päpstlichen Akademie, Werner Arber, ein protestantischer Schweizer Mikrobiologe und Nobelpreisträger, der 2011 von Benedikt XVI. ernannt wurde, zeigte Verständnis für de Larminats Besorgnis und war bezüglich des „Konsens“ zum Klimawandels sehr zurückhaltend.

In einer von Arbers E-Mails vom 23. März, die an den Kanzler der Akademie, Bischof Marcelo Sanchez Sorondo und das Akademiemitglied Veerabhadran Ramanathan geschickt wurden, betonte der Schweizer Wissenschaftler „…dass das Klima einen „hohen Grad an Komplexität“ aufweist und wissenschaftliche Studien von Modellen abhängen, die zu „Unterschiedlichen Schlussfolgerungen“ führen können. Gewöhnlich erzeugen diese „Unsicherheit“ über die Wissenschaft, von denen der Vatikan und der Papst informiert sein sollten“.

Arber plädierte daher dafür, „dem Vorsorgeprinzip“ zu folgen – zu empfehlen, die Menge an CO2 zu senken, die durch menschliche Aktivitäten freigesetzt wird, aber keine „klare Aussage“ über Vorhersagen zum Klimawandel zu machen, die „das Vertrauen in die Wissenschaft ernsthaft beeinträchtigen könnten“. Als  Postskriptum fügte er hinzu, dass de Larminat „bereit sein könnte, am 28. April an unserem Workshop teilzunehmen, falls dies wünschenswert ist“.

Die Entscheidung, de Larminat einzuladen, schien bereits getroffen zu sein, nach einer E-Mail vom 30. März. Darin meinte Kardinal Peter Turkson, der damalige Präsident des Päpstlichen Rates für Gerechtigkeit und Frieden, zu de Larminat: „Wenn Sie [am Gipfel] teilnehmen möchten, würde sich die Akademie sehr freuen. Alles was Sie tun müssen, ist mich zu informieren.

Der französische Wissenschaftler antwortete mit der Frage, ob sein Bruder, Professor  Stanislas de Larminat , ein Experte für christliche Ökologie, ebenfalls teilnehmen könne. Stanislas hatte einmal geschrieben, dass „Ökologismus“ eine „Form der Kultur des Todes ist, die uns dazu bringt, von einer Rückkehr ins verlorene Paradies zu träumen“. Er hatte auch ein Buch verfasst, mit einer Einführung von Kardinal George, der für seine Skepsis gegenüber dem vom Menschen verursachten Klimawandel bekannt war.

Bischof Sanchez wurde erst am 16. April, wenige Tage vor dem Symposium, auf diese Einladung aufmerksam, als Arber ihm per E-Mail mitteilte, dass er die Teilnahme von de Larminat „begrüßen“ würde. Der Beitrag des Wissenschaftlers, schrieb Arber in der E-Mail, würde „einen tieferen Einblick in das komplexe Phänomen der Klimavariationen und in die prädiktive Modellierung unter Verwendung dieses Ansatzes bieten, der sich vom Ansatz des IPCC unterscheidet“.

In einer E-Mail, die am folgenden Tag mit den Worten „Liebe Freunde“ eröffnet wurde und an das Akademiemitglied Veerabhadran Ramanathan gerichtet war (heute als „Klimaforscher“ von Papst Franziskus bekannt), sowie an Peter Raven, ein amerikanischer Botaniker, und Sir Partha Dasgupta, ein indischer Ökonomen, Bischof. Bischof Sanchez drückte seinen Schock aus und nannte Arbers Vorschlag an Kardinal Turkson, de Larminat einzuladen , als „unglaublich“.

Raven [der o.g. Botaniker] antwortete, indem er seine Trauer darüber zum Ausdruck brachte, dass Bischof Sanchez „mitten in diese lächerliche und unglückliche Situation geraten“ sollte, und fügte hinzu, dass „….wenn wir uns von dem unterscheiden, was die wissenschaftliche Welt in diesem Bereich festgestellt hat, werden wir uns lächerlich machen. Eine Kontroverse auf dem Treffen „wird alle Nachrichten beherrschen“. Raven ermutigte Bischof Sanchez, „weiterhin stark zu sein“, und behauptete, Arber „hörte nicht zu“.

Dasgupta [o.g. Inder] forderte den Kanzler auf, sich nicht über die Situation zu ärgern, „weil nichts zu tun ist“, und fügte hinzu, dass selbst wenn sie einen Wissenschaftler hätten, der die abweichende Position zurückweist, „der ganze Punkt ]~Sinn] des Treffens am 28. verloren gehen würde.” Ramanathan glaubte, dass die einzige Möglichkeit darin bestand, den abweichenden Wissenschaftler auszuladen und alles Mögliche zu tun, um „ein unerwünschtes Ergebnis abzuwenden“.

Bischof Sanchez schrieb zurück und sagte ihnen: „Macht Euch keine Sorgen, denn selbst wenn dieser Professor de Larminat kommen sollte, erhält er keine Berechtigung zu sprechen oder irgendeine Art von Intervention zu machen.“

[Auf WUWT schrieb Charles Rotter eine kurze Einleitung, die ich hier weggelassen habe, da es nur die Wiederholung des nachfolgenden Textes war. Der Übersetzer]

https://wattsupwiththat.com/2021/01/07/pontifical-academy-of-science-emails-document-vatican-hostility-to-climate-change-skepticism/

Übersetzt durch Andreas Demmig




Wer rettet die Wissenschaft?

Amateur und Profi

Wissenschaft ist eine anspruchsvolle Sache. Da gibt es zwar populär-wissenschaftliche Literatur, die dem Amateur die Illusion vermittelt, er könne mitreden, aber tatsächlich hat er keinen Schimmer von professioneller Wissenschaft.

Hier ein Beispiel aus anderem Metier: Ich bin in München aufgewachsen, war vom zehnten Lebensjahr an jeden Winter im Gebirge und hielt mich für einen guten Schifahrer. Eines Tages nahm mich der Sohn unseres Gastwirts mit auf die Piste.

Wir standen an einem steilen und eisigen Hang und ich überlegte, ob ich da wohl heil runter käme. Mein Begleiter fuhr schon mal los, senkrecht bergab, mit lässigen Bewegungen und zog sich während der Schussfahrt die Handschuhe an und setzte die Mütze auf; dafür hatte er auch noch Zeit.

Das raubte mir meine Illusionen und zeigte mir den Unterschied zwischen Amateur und Profi. Ein kleiner Trost war, dass der Mann später die „Streif“, das Rennen am Hahnenkamm gewonnen hat.

Werfen wir jetzt einen Blick auf professionelle Wissenschaft, und zwar nicht Soziologie oder Genderkunde, sondern Physik, wo der Unterschied zwischen Amateur und Profi ebenso deutlich ist wie  beim Schifahren.

Kritik und Selbstkritik

Da gibt es zunächst die Unterscheidung zwischen experimenteller und theoretischer Physik. Letztere sucht nach allgemeinen Gesetzmäßigkeiten, welche die Natur beschreiben. Ein krönendes Beispiel, Einsteins Feldgleichung von 1916, ist hier abgebildet: .

Das ist theoretische Physik, und wie Sie sehen ist deren Sprache die Mathematik. Aus dieser Gleichung folgt – wenn auch nicht auf ersten Blick ersichtlich – dass es Gravitationswellen geben muss. Die zu finden ist nun Aufgabe der Experimentalphysik. Der Nachweis gelang dann genau hundert Jahre später.

In gigantischen Anlagen wurde gemessen, wie sich der Raum im Rhythmus besagter Wellen zusammenzog und ausdehnte, und zwar über eine Länge von mehreren Kilometern um weniger als ein Tausendstel des Durchmessers eines Atomkerns. Das ist verdammt wenig und es gibt viele Effekte, die solch eine Messung stören oder das gesuchte Ereignis vortäuschen könnten; etwa eine Harley Davidson, die Gas gibt. So grübeln die Experimentalphysiker Tag und Nacht, wo sie sich irren könnten, wo sie sich vielleicht selbst belügen. Es ist ein Marathon der Selbstkritik, bei dem auch Kritik von außen willkommen ist.

Und was bekommen wir für diese Anstrengungen?

Wissenschaft schafft Wissen, nicht Maschinen oder Reichtum. Dennoch hat es immer wieder zufällige „Spin Offs“ von praktischem Nutzen gegeben, etwa das Internet oder die Mikroelektronik. Aber das ist eine andere Geschichte.

Meister und Gesell

Physik kann man an unseren Hochschulen studieren. Das ist notwendig, denn es ist noch nie ein Meister vom Himmel gefallen. Die erste Phase der Ausbildung führt zum „Diplom“ (heute „Master“), das entspricht bei Handwerkern dem Gesellen. Dazu muss der Kandidat seine Befähigung zu wissenschaftlicher Arbeit beweisen, indem er ein anspruchsvolles „Gesellenstück“, eine Diplomarbeit abliefert.

Nun kann er versuchen, neue Entdeckungen zu machen, und wenn die dann wichtig genug sind gibt es dafür die Doktorwürde. Die genießt auch außerhalb von Akademia ein gewisses Prestige, und so versucht der eine oder andere, die beiden begehrten Buchstaben vor dem eigenen Namen zu erschleichen –  ohne Hang zur Wissenschaft zu haben oder die dafür notwendige intellektuelle Disziplin. Dabei wird mancher allerdings ertappt.

Es sieht so aus, dass solche Kandidaten und Kandidatinnen überproportional im politischen Umfeld zu finden sind. Aber warten Sie, es kommt noch schlimmer.

Der Papst, der sich selbst krönte

Es war einmal ein Mann, der bewarb sich um das höchste Amt der USA, aber er verlor die Wahl gegen George W. Bush. Da beschloss er Gelehrter zu werden. Es war ein kleiner Schritt für den Politiker, aber ein enormer Schaden für die Wissenschaft.

Al Gore machte sich über Nacht zum Papst in Sachen Global Warming – nicht durch fachliche Kompetenz, sondern durch perfekte Propaganda. Sein Film An Inconvenient Truth war ein riesiger Erfolg, sowohl an der Kasse als auch bei der Verbreitung seiner politischen Botschaft.

Ab jetzt war die Klimawissenschaft mit dem Virus der Politik infiziert. Der ist tödlich, denn in der Wissenschaft geht es um Wahrheit, in der Politik aber um Mehrheit. Als Folge davon ist heute eine sachliche Untersuchung der Physik der Erdatmosphäre nicht mehr möglich.

Weltweit entstanden jetzt Institutionen, welche die Unterstützung der Mächtigen genießen und dafür pseudo-wissenschaftliche Rechtfertigungen derer Politik liefern. Solche Arbeit ist nicht von Selbstkritik geprägt, sondern von der Hexenjagd auf externe Kritiker, die ihren Schwindel aufdecken könnten. Aber Selbstkritik wäre hier dringend notwendig, denn die zu messenden Effekte sind so schwach, dass man sich leicht selbst zum Narren halten kann, insbesondere, wenn man neben der Wissenschaft noch eine andere Agenda hat.

Wir folgen der Wissenschaft

Die Politisierung der Wissenschaft hat beim Thema Corona von der ersten Sekunde an logische Entscheidungen verhindert. Die Kanzlerin verteidigt zwar ihren Zickzack-Kurs mit der Aussage „wir folgen der Wissenschaft“ – aber welcher? Da gibt es etwa den Berliner Christian Drosten und den Amerikaner John Ioannidis, deren Erkenntnisse stark divergieren. Welcher Wissenschaft folgt man also?

Die deutschen Politiker ignorieren konsequent den US Experten. Als fachliche Amateure bzw. Laien missbrauchen sie ihre Macht, um zu entscheiden, welcher Wissenschaftler Recht hat! Als Folge davon fehlt seit zehn Monaten eine wirksame Strategie, um der Lage Herr zu werden.

Die selbsterklärten Experten hantieren mit „Fallzahlen“, die eher die Häufigkeit der Tests und deren Fehlerquoten wiedergeben, als die Durchseuchung der Bevölkerung.

Gibt es denn keine Dachorganisation, welche die Wissenschaft vor solch fataler Einmischung schützt?  Gibt es keinen „TÜV“, der hier Ethik und Qualität garantiert? Welcher die Unabhängigkeit von der Politik sicherstellt?

Wo bleibt die Rettung?

Gut, da gibt es die Nationale Akademie der Wissenschaften, genannt Leopoldina, gegründet 1652, die sich folgender Aufgabe verschrieben hat:

(Die Leopoldina) „… bearbeitet unabhängig von wirtschaftlichen oder politischen Interessen wichtige gesellschaftliche Zukunftsthemen aus wissenschaftlicher Sicht, vermittelt die Ergebnisse der Politik und der Öffentlichkeit und vertritt diese Themen national wie international.“ (Fettdruck vom Autor)

Unter den knapp 2000 Mitgliedern gibt es viele ältere, erfahrene Professoren (darunter den Ehemann der Kanzlerin), denen eine gewisse  Dekadenz in Deutschlands Wissenschaft aufgefallen sein müsste. Schon beim Klima, aber insbesondere jetzt bei Corona hätten da die Alarmglocken läuten müssen.

Das aber war nicht der Fall. Statt Merkels Aussage „Wir folgen der Wissenschaft“ öffentlich zu kritisieren, denn de facto folgt sie bestenfalls einem – durchaus umstrittenen – Wissenschaftler, gab die Leopoldina Anfang Dezember folgenden Text heraus:

Um die Kontrolle über das Infektionsgeschehen zurückzuerlangen, empfiehlt die Nationale Akademie der Wissenschaften Leopoldina in der Ad-hoc-Stellungnahme „Coronavirus-Pandemie:

Die Feiertage und den Jahreswechsel für einen harten Lockdown nutzen“ ein zweistufiges Vorgehen. Die Rahmenbedingungen Weihnachtsferien in Bildungseinrichtungen und eingeschränkter Betrieb in vielen Unternehmen und Behörden – bieten die Chance, in der Eindämmung der Pandemie ein großes Stück voranzukommen…“

Der Text hört sich weniger nach sachlich-wissenschaftlicher Analyse an, als nach einem Statement, das der Sprecher des Kanzleramts hätte diktieren können.

Die andere Seuche

Das ist nicht gut so. Es scheint, wir leiden noch unter einer anderen Seuche, weit gefährlicher als Corona. Es ist der grassierende politische und kulturelle Nihilismus, der wie Termitenbefall das Bauwerk unserer westlichen Errungenschaften zerstört. Der Verlauf dieser Krankheit wurde vor hundert Jahren durch Oswald Spengler als „Der Untergang des Abendlandes“ prophezeit, und kürzlich von Douglas Murray in seinem Buch „The Strange Death of Europe“ beschrieben.

Können wir uns denn dagegen nicht wehren? Gibt es denn keinen Impfstoff gegen diese Pandemie?

Eines ist sicher: Die Leopoldina liefert ihn nicht.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Klimaschau 7 – die Tagesschau von Sebastian Lüning

Keine Vorschau zu sehen? HIER KLICKEN!




Hamburger Konferenz „Klima und Entwicklung“ 1988 – der politisch gemachte Klimawandel wird seit langem vorbereitet

Daß der „Klimawandel“ in der Eiszeit-Version seit Anfang 1970 von der (west-)deutschen Presse wie dem Spiegel propagiert wurde, ist unter informierten Klima-Journalisten Legion.

Daß die Massenmedien in den 1980ern radikal umschwenkten und nun von einer beginnenden Heißzeit warnten, ist spätestens seit dem legendären Spiegel-Titel mit dem in der Nordsee bzw. dem Mittelmeer versinkenden Kölner Dom klar.

Unser Referent Dr. Horst Borchert, leider schon 2015 verstorben, war als physikalischer Direktor im Umweltministerium von Rheinland-Pfalz schon in den 1970er Jahren unter Klaus Töpfer damit betraut, ein zentrales Immisions-Meßnetz (ZIMEN) im gesamten Bundesland aufzubauen und zu betreiben. Als quasi-amtlicher Umweltschützer wurde Dr. Borchert gern zu Kongressen und ähnlichen Treffen eingeladen, in denen es seit den 80ern auch um „Klimaschutz“ ging. In seinem wissenschaftlichen Nachlaß finden sich daher die Redebeiträge zur Welt-Konferenz Klima und Entwicklung in Hamburg vom 7. Bis 10. November 1988, die von der Anwesenheit Willy Brandts und der Schirmherrschaft Richard von Weizsäckers geadelt wurde.

Unter den Teilnehmerländern fanden sich damals schon etliche Staaten aus allen Ecken der Welt, ob kapitalistisch, sozialistisch, westlich, islamisch, Industrie- oder Entwicklungsland. Sogar die DDR und die Sowjetunion waren mit an Bord. Und, natürlich ganz wichtig, die damals schon omnipräsenten Akademiker-Arbeitsbeschaffungsmaßnahmen, die Moral-NGOs, vor allem Greenpeace, das die spätere Umweltministerin Monika Griefahn vor Ort hatte. Man sieht – die rührige internationale Klimakonferenz 2018 in Polen, auf der Greta Thunberg inthronisiert wurde, war überhaupt nichts Neues.

Was waren die Themen der Konferenz, wer machte mit? Die große Überschrift lautete: Klimaveränderungen, Klimaschwankungen und ihre sozialen, ökonomischen und technologischen Konsequenzen.

Die Einzelvorträge befaßten sich unter anderem mit Komplexen wie

Politische Wahrnehmung der Klimaveränderung

Landwirtschaftliche Anbaumethoden und Wasser-Management

Klimaveränderung und Gesundheit

Klimaveränderung und soziale Folgen

Politikansätze und Optionen von Entwicklungsländern

Aktionsplan zur Reduktion der Klimagefahr

Landwirtschaftliche Bewältigung von Klimaschäden

Bewußtmachung von Umweltschäden in den Polarregionen

Bedeutung von Energieverbrauch auf globale Veränderungen

Implikationen bei der Auswahl von Energieträgern

Rolle von UNEP, UNESCO und EG

Ambivalente Rolle von NGOs

Langfristige Konzepte zur Reduktion von Trockenschäden in der Landwirtschaft (Dürre!)

UNICEFs Perspektive des Treibhauseffektes

Man ahnt, unser Atomphysiker Dr. Borchert hat sich wahrscheinlich gewundert, was dort besprochen wurde, da die „Klimaphysik“ offenbar schon als in Stein gemeißelt betrachtet wurde und man fast nur über Politik, NGOs, Wirtschaft und übernationale Organisationen sprach. Unterm Strich kann man schließen, daß es auf diesem Kongreß tatsächlich nicht um Wissenschaft ging, sondern um die mentale Verfestigung von „Gründen“ für die Umverteilung von Steuergeldern – das altbekannte Prinzip von Helmut Schelsky („Die Arbeit tun die anderen“, 1974).

Welche deutschen und amerikanischen Akteure waren damals bereits aktiv? Neben den genannten NGO-Schlingeln von Greenpeace findet man noch nicht die Namen Schellnhuber oder Rahmstorf. Das liegt zum einen an Altersgründen, aber wohl auch daran, daß manche heutigen Kardinäle der Church of Global Warming auch durch solche Kongresse darauf kamen, daß man mit Alarmismus viel mehr Ruhm, Macht und Geld herausholen kann als durch Kärrnerarbeit im Labor.

Ansonsten findet man im Programm des Kongresses nur einige wenige bekanntere Namen. Organisiert haben den Kongreß Ingenieur Hans-J. Karpe vom Institut für Umweltschutz der Universität Dortmund, Lutz Baehr von der UNO (UNCSTD), Michael Glantz von Nationalen Zentrum für Atmosphärenforschung der USA (NCAR), und der Kongreßdirektor, Soziologe Dieter Otten vom Deutschen Institut zur Erforschung der Informationsgesellschaft (DII) in Osnabrück. Vor allem Otten repräsentiert die „Sozialpriester“, vor denen Schelsky eindringlich warnte. Wobei Otten schon in den 1970ern auf Technologie-Soziologie setzte, im Gegensatz zur damals eher verbreiteten klassisch marxistischen Thematik der Linksakademiker.

In dem Zusammenhang mag es interessant sein, daß die meisten gedruckten Redemanuskripte der Referenten den Vermerk „Es gilt das gesprochene Wort“ tragen. Ob das juristisch wasserdicht ist, ist fraglich, aber man wollte sich wohl gegen Vorwürfe absichern, daß hier politische Propagandisten auftreten, die faktenwidrig Weltuntergangsmärchen erzählen.

Ebenfalls dabei waren Forschungsminister Heinz Riesenhuber und der spätere Kanzleramtsminister Bernd Schmidbauer, CDU. Letzterer war auch Chef einer Öko-Kommission des Bundestags (s.u.) und Geheimdienstkoordinator unter Kohl.

Kennern des Ökokomplexes ist der Geograf Prof. Wilfrid Bach aus Münster bekannt, der dem Spiegel (S) nach dem Kongreß ein Interview zur Weltuntergangsthematik gab. Ein paar Schlaglichter:

„Die Zeit läuft uns davon“. Professor Wilfrid Bach über Programme zur Verhinderung der drohenden Klimakatastrophe

S: Sie haben geschrieben, die Menschheit verwandele die Atmosphäre mit ihren Abgasen in eine „chemisch-klimatologische Langzeitbombe“. Übertreiben Sie da mit der Angstmacherei nicht ein wenig?

B: Nein, ich glaube, die Zeit läuft uns davon, und es ist nicht mehr gerechtfertigt, nur noch um die Sache herumzureden. Die zu erwartenden Auswirkungen durch die Aufheizung der Atmosphäre sind von so großer Tragweite, daß wir Klartext reden müssen.

S: Das klingt, als sei ein vom Menschen verursachtes Ansteigen der Temperatur in der Atmosphäre schon heute eine bewiesene Tatsache.

B: Nein, das ist es nicht. Aber Tatsache ist, daß die vergangenen vier Jahre im weltweiten Mittel die wärmsten waren, seitdem es kontinuierliche Meßprogramme gibt.

Zum absolut sicheren Treibhauseffekt sagt er:

B: Ja, und das Tragische ist, wenn dieser Effekt dann wirklich unbestreitbar zu messen ist, dann ist es für Gegenmaßnahmen zu spät. (…) Niemand kann präzise sagen, wann und in welchem Ausmaß das Klima sich verändert. Aber wir können Modellrechnungen durchführen, um das Problem abzuschätzen. (…) Dabei muß man von einem oberen Wert der Erwärmung ausgehen, der möglichst nicht überschritten werden sollte. Den haben wir bei ein bis zwei Grad Celsius für das Jahr 2100 angesetzt.

Kernkraft lehnt er kategorisch ab, was bei der damaligen politischen Gemengelage nicht wundert (Klima interessierte niemanden; die Bürger hatten Angst vor dem Atom-GAU):

B: Um wenigstens circa 30 Prozent der fossilen Energie durch Atomenergie zu ersetzen, wäre ein Kostenaufwand von mehreren hundert Milliarden Mark jährlich notwendig. Das geht ökonomisch nicht, und das geht wegen der Sicherheitsfragen nicht. Ein solches Vorhaben wäre absurd. (…)
Daran wird deutlich, daß eine starke Ausweitung der Atomkraftwerkskapazität Hand in Hand geht mit einem weiteren Anstieg des fossilen Brennstoffverbrauchs.

Mehr Kernkraft bedeutet also mehr CO2? Eine irrationale Logik; man sieht, der Professor denkt eher politisch als wissenschaftlich. Von einer Atemgas-Steuer, die ab 1. Januar gerade unser Benzin verteuert, sah Bach noch ab, forderte aber schon Strafsteuern auf Energie:

Wir müssen gleichzeitig die Bundestarifordnung ändern, das heißt: Je mehr Strom verbraucht wird, um so mehr muß das kosten, und nicht umgekehrt, daß Energieverschwender auch noch belohnt werden. Um es kurz zu fassen: Wir müssen unser Energieerzeugungs- und -verbrauchssystem umstrukturieren.

Nebenbei: Geografie ist ja auch das Fach, das Luisa Neubauer von FFF studiert, was sie laut eigener Auskunft (Instagram) bereits an etliche ferne Studienorte wie Kanada führte. Von Insidern wurde mir berichtet, daß die Geografie, da sie sich per definitionem schlicht auf alles auf der Erdoberfläche bezieht, eine sehr, sehr breit gefächerte Thematik besitzt. Man kann sich als Geograf eher geologisch orientieren, aber auch wirtschaftlich oder sozialwissenschaftlich. Da tut es nicht Wunder, daß die Sozial-Geografen sich ähnlich wie Soziologen oder Politikwissenschaftler verhalten, die sich nach dem Schelsky-Prinzip Probleme zurechtdefinieren, die sie dann für ein schönes Gehalt „beforschen“ kann.

Die Klimakonferenz in Hamburg war natürlich kein Startschuß der Entwicklung, sondern sichtbarer Ausdruck eines Prozesses, der im deep state, wie Parteirepublikaner in den USA es formulieren würden, längst etabliert war. Sichtbarer Ausdruck dafür ist eine Enquête-Kommission des Deutschen Bundestags namens „Vorsorge zum Schutz der Erdatmosphäre“, die 1987 unter der Regierung Helmut Kohls eingerichtet wurde.

Solche Untersuchungskommissionen der Parlamente sind überfraktionelle Arbeitsgruppen, die Sachfragen bearbeiten, die von einer Mehrheit der Bürger getragen werden sollen. Theoretisch, denn die Erfahrung zeigt, daß Interessensgruppen mit ihren NGOs über Parteien gern Angst mit Umwelt- und Gesundheitsthemen schüren, was auch rechte Parteien wie die Kohl/Strauss-Union und die FDP damals nicht durchschauten und mitmachten.

Fazit bis hierher: Erst erfinden clevere Wissenschaftler wie James Hansen ein Weltuntergangs-Szenario, das von der Presse dankend angenommen wird, um die Auflage zu steigern. Das Thema wird langsam eingeschlichen wie ein Wirkstoff im Leib des Patienten; und dann wird politisch im Hintergrund – interessanterweise von den meisten oder sogar allen relevanten Parteien- ein Programm zur Umsetzung der mit dem Narrativ begründeten Umverteilung von unten nach oben ausgetüftelt. Das Ganze erfolgt nur scheinbar demokratisch, weil die komplexe und technokratische Gremienarbeit im Bundestag den Wählern weitgehend verborgen bleibt – da sind Kartelleffekte vorprogrammiert.




Die arktische Eisausdehnung zum Jahresende 2020

Das obige Diagramm zeigt den verfügbaren Datensatz des Meereisindex (Sea Ice Index SII) seit 1989, zusammen mit dem vergleichbaren Datensatz von MASIE 2006 bis heute. Es zeigt, dass 2020 um 150k km2 (1 %) niedriger ist als 2019 und 300k km2 über dem Tiefstwert von 2017 liegt. Tatsächlich ist 2020 fast der Durchschnitt für das letzte Jahrzehnt.

Wie bereits in einem früheren Beitrag erwähnt, wurden im Oktober Befürchtungen geäußert, dass die Arktis langsamer als im Durchschnitt wieder zufriert. Diese Befürchtungen wurden erstens durch den Anstieg der Eisausdehnung im November und zweitens durch das schnelle Gefrieren der Arktis im Dezember ausgeräumt. Im November wurden 3,5 Wadhams Meereis im Laufe des Monats hinzugefügt.  (Die Metrik 1 Wadham = 1 Million km² stammt von den Vorhersagen des Professors über eine eisfreie Arktis, was weniger als 1 Million km² Ausdehnung bedeutet). Im Dezember kamen weitere 2,7 Wadhams hinzu. Die letzten beiden Monate haben das Defizit im Oktober mehr als ausgeglichen.

Hintergrund aus früherem Beitrag aktualisiert zum Jahresende

Als ich vor einigen Jahren einen Beitrag über die globale Erwärmung bei WUWT las, fiel mir der Kommentar einer Person auf: „Ich bin Versicherungsmathematiker mit begrenztem Wissen über Klimametriken, aber es scheint mir, wenn man Temperaturänderungen verstehen will, sollte man die Änderungen analysieren, nicht die Temperaturen“. Das ließ bei mir die Alarmglocken läuten, und ich wandte diese Einsicht in einer Reihe von Temperatur-Trend-Analysen von Temperaturaufzeichnungen von Oberflächenstationen an. Diese Beiträge sind unter dieser Überschrift verfügbar: Climate Compilation Part I Temperatures.

In diesem Beitrag wird versucht, die Schwankungen des arktischen Meereises mit einem ähnlichen Ansatz zu verstehen: Der Schwerpunkt liegt auf den Raten der Ausdehnungsänderungen und nicht wie üblich auf der Untersuchung der Eisausdehnung selbst. Glücklicherweise bietet der Sea Ice Index (SII) der NOAA einen geeigneten Datensatz für dieses Projekt. Wie viele wissen, stützt sich der SII auf passive Mikrowellensensoren von Satelliten, um Karten der arktischen Eisausdehnung zu erstellen, die bis ins Jahr 1979 zurückreichen. Die aktuelle Version 3 hat sich stärker an MASIE, der modernen Form der Marine-Eiskartenerstellung zur Unterstützung der arktischen Navigation, angelehnt. Wie man die SII-Daten lesen muss, steht hier.

Es sind statistische Analysen verfügbar, und diejenige, die von Interesse ist (Tabelle unten), heißt Sea Ice Index Rates of Change (hier). Wie der Titel schon andeutet, besteht diese Tabelle nicht aus monatlichen Ausdehnungen, sondern aus Änderungen der Ausdehnungen gegenüber dem Vormonat. Konkret wird ein Monatswert berechnet, indem der Durchschnitt der letzten fünf Tage des Vormonats vom Durchschnitt der letzten fünf Tage dieses Monats subtrahiert wird. Der Wert stellt also die Menge an Eis dar, die während des aktuellen Monats zu- oder abgenommen hat.

Diese monatlichen Änderungsraten wurden zu einer Basislinie für den Zeitraum 1980 bis 2010 zusammengestellt, die die Schwankungen der arktischen Eisausdehnung im Laufe eines Kalenderjahres zeigt. Unten ist ein Diagramm dieser durchschnittlichen monatlichen Veränderungen während des Basiszeitraums zu sehen. Diejenigen, die mit Studien zum arktischen Eis vertraut sind, werden von der Wellenform des Vorzeichens nicht überrascht sein. Ende Dezember ist ein relativ neutraler Punkt im Zyklus auf halbem Weg zwischen dem Minimum im September und dem Maximum im März.

Die Grafik verdeutlicht die sechs Frühjahrs-/Sommermonate mit Schmelzen und die sechs Herbst-/Wintermonate mit Gefrieren. Man beachte, dass Juni-August den Großteil der Verluste produzieren, während Oktober-Dezember den Großteil des Zuwachses zeigen. Auch die Maximum- bzw. Minimum-Monate März und September zeigen von Anfang bis Ende nur sehr geringe Änderungen in der Ausdehnung.

Die Tabelle der monatlichen Daten zeigt die Variabilität der Eisausdehnung während der letzten 4 Jahrzehnte:

Die Werte im Januar zeigen die Veränderungen gegenüber dem Ende des vorangegangenen Dezembers, und durch Summierung von zwölf aufeinanderfolgenden Monaten können wir eine jährliche Veränderungsrate für die Jahre 1979 bis 2019 berechnen:

Wie viele wissen, hat die Eisausdehnung in der Arktis in diesen 40 Jahren abgenommen, im Durchschnitt um 40.000 km² pro Jahr. Aber Jahr für Jahr wechseln die Veränderungen ständig zwischen Schrumpfen und Wachsen.

Außerdem scheint es Zufall zu sein, welche Monate für ein bestimmtes Jahr ausschlaggebend sind. Zum Beispiel wurde viel Aufhebens darüber gemacht, dass die Eisausdehnung im Oktober 2020 langsamer als erwartet zunahm. Wie es in diesem Datensatz der Fall ist, weist der Oktober die höchste Rate der Eiszunahme auf. Die folgende Tabelle zeigt die verschiedenen monatlichen Raten in der Aufzeichnung als Anomalien gegenüber der Basislinie 1980-2010. In dieser Darstellung ist eine rote Zelle eine negative Anomalie (weniger als die Basislinie für diesen Monat) und blau ist positiv (höher als die Basislinie).

Man beachte, dass die +/- Kursanomalien sind über das gesamte Netz verteilt sind, Sequenzen verschiedener Monate in verschiedenen Jahren, wobei sich Gewinne und Verluste gegenseitig ausgleichen. Ja, der Oktober 2020 verzeichnete einen unterdurchschnittlichen Zuwachs, aber einen höheren als 2016. Der Verlust im Juli 2020 war der größte in diesem Jahr wegen des heißen sibirischen Sommers. Außerdem beachte man, dass die Anomalie des Eiszuwachses im November 2020 die Anomalie des Defizits im Oktober um mehr als das Doppelte überstieg. Der Dezember fügte mehr Überschuss hinzu, so dass die Anomalie für das Jahr Null war. Die untere Zeile zeigt die durchschnittlichen Anomalien für jeden Monat über den Zeitraum 1979-2020. Die Raten der Gewinne und Verluste gleichen sich größtenteils aus, und der Durchschnitt aller Monate in der unteren rechten Zelle ist praktisch Null.

Eine letzte Betrachtung: Die Grafik unten zeigt die Jahresend-Eisausdehnung der Arktis für die letzten 30 Jahre.

Hinweis: Die tägliche SII-Eisausdehnungsdatei liefert keine vollständigen Werte vor 1988.

Die Eisausdehnung am Jahresende in der Arktis (die letzten 5 Tage im Dezember) zeigt drei verschiedene Regimes: 1989-1998, 1998-2010, 2010-2019. Die durchschnittliche Ausdehnung am Jahresende 1989-2010 betrug 13,4 Mio. km². In der letzten Dekade lag sie bei 13,0 Mio. k², und zehn Jahre später, 2019, bei 12,8 Mio. km². Bei all den Schwankungen betrug der Nettoverlust also 200k km² oder 1,5%. Das Gerede von einer Todesspirale des arktischen Eises ist Phantasterei.

Diese Daten zeigen ein höchst variables Naturphänomen. Es ist klar, dass unvorhersehbare Faktoren im Spiel sind, vor allem die Wasserstruktur und -zirkulation, atmosphärische Zirkulationen und auch Umwälzungen und Stürme. Und längerfristig gesehen sind die heutigen Ausmaße nicht ungewöhnlich.

Link: https://rclutz.wordpress.com/2021/01/04/arctic-ice-year-end-2020/?mc_cid=3231bff1ad&mc_eid=08ba9a1dfb

Übersetzt von Chris Frey EIKE

 




Wie genau sind unsere Messungen bzgl. Wetter und Klima?

Heute dagegen brauchen wir beispielsweise auf einem Flug von New York nach Los Angeles detailliertere und zuverlässigere Wetterinformationen, wie z. B. ob es bei der Zwischenlandung in St. Louis schneit. Oder der Landwirt in Nebraska, der die Vorhersage für die Frühjahrsweizenproduktion in der Ukraine sehen muss. Er braucht die bestmöglichen Informationen, um besser abschätzen zu können, wie viele Hektar Winterweizen er für die heutigen globalen Märkte anbauen sollte.

Wir brauchen vor allem bessere und zuverlässigere Informationen, um zu entscheiden, welche Maßnahmen wir zur Vorbereitung auf Klimaveränderungen in Betracht ziehen sollten.

Während Wissenschaftler, Ingenieure und Software-Programmierer die Bedeutung und die Notwendigkeit dieser Datengenauigkeit kennen, ist sich die breite Öffentlichkeit nicht bewusst, wie herausfordernd diese Aufgaben sein können.

Wenn wir langfristige Klimadaten betrachten, müssen wir unter Umständen mehrere Proxies (indirekte Messgrößen, von denen wir hoffen, dass sie direkt mit dem Wetter variieren) verwenden, die eine zusätzliche Ebene von Komplexität, Kosten und Fehlerquellen hinzufügen. Einer der am häufigsten verwendeten Proxies sind die alten Temperatur- und CO2-Werte aus Eiskernproben. In den letzten paar hundert Jahren waren auch Baumringdaten eine primäre Quelle für die Jahrestemperaturen. Aber seit dem letzten halben Jahrhundert werden direkte atmosphärische Messwerte verwendet, die sehr genau und zuverlässig sind.

Aus Abbildung 1 geht hervor, dass der CO2-Gehalt ab Mitte der 1950er Jahre dramatisch anstieg. Wir haben aufgehört, Proxies zur Messung des atmosphärischen CO2-Gehalts zu verwenden, und haben begonnen, direkte Messwerte von der Mauna Loa Wetterstation auf Hawaii zu verwenden. Wir müssen uns also fragen, ob dieser dramatische Anstieg des CO2-Gehalts real war, oder ob er durch die Änderung des Messverfahrens teilweise verzerrt wurde. Oder wir haben in den frühen 1960er Jahren aufgehört, Baumringdaten zu verwenden. In der Zeit, als wir sowohl Baumring- als auch Thermometer-Aufzeichnungen hatten, wurden gewisse Diskrepanzen festgestellt. Wir können solche Änderungen in den Messungen nicht vornehmen, ohne Raum für Zweifel zu lassen.

Abbildung 1 zeigt zum Beispiel den CO2-Gehalt der Jahrtausende alten antarktischen Eisschilde. Vor Mitte der 1950er Jahre wurden die CO2-Schätzungen auf der Grundlage des CO2-Gasgehalts der Eisbohrkerne berechnet. Die auf diese Weise gemessenen CO2-Gehalte schienen über einen Zeitraum von mehreren zehntausend Jahren nie viel über 280 ppm zu steigen.

Man beachte nun, dass wir, beginnend vor etwa 6.000 Jahren, einen kleinen, aber stetigen Anstieg sehen, wenn wir von links nach rechts schauen. Und der Anstieg scheint bis Mitte der 1990er Jahre einigermaßen konstant zu sein. Hier ist die klassische Annahme, dass sowohl das CO2 als auch die Temperaturen gestiegen sind.

Kürzlich haben sich Wissenschaftler die abwärts gehende Neigung angesehen, wenn wir in den 1950er Jahren stehen und von rechts nach links schauen. Dabei stellt sich die Frage, ob das CO2 durch das enorme Gewicht der Gletscher herausgedrückt wird, während sie altern, und vielleicht auch in Kombination mit CO2, das chemisch gebunden wird, und in welchen Anteilen. Ab Mitte der 1950er Jahre sehen wir einen sehr deutlichen und schnellen Anstieg der CO2-Werte, und wir sehen die inzwischen bekannten CO2-Hockeyschläger. Ist das CO2 so schnell angestiegen, oder war es Teil der Anomalie, die durch die Änderung der Messmethoden verursacht wurde? Wir denken Letzteres.

Woher soll der Durchschnittsbürger das wissen? Wurde diese dramatische Veränderung jemals genau und verständlich erklärt? Wir wollen das erst einmal allgemeiner als „Datenintegrität“ bezeichnen.

Hier ist ein weiteres einfaches Beispiel. Wenn wir die Temperatur in der Gegend von Boston vor 200 Jahren messen wollten, hätten wir vielleicht zwanzig Thermometer an zwanzig verschiedene Orte gebracht. Wir hätten einige allgemeine Entscheidungen getroffen, einige entlang der Küste und den Rest an verschiedenen Stellen in der Stadt und auf dem Land zu platzieren – vor allem auf Bauernhöfen. Wir hätten vielleicht nur ein oder zwei in den Bergen oder Wäldern aufgestellt, weil diese Stationen bemannt sein und die Daten mehrmals am Tag aufgezeichnet werden mussten. Dann, vielleicht ein- oder zweimal pro Tag oder Woche oder Monat, könnten sie konsolidiert worden sein, um eine durchschnittliche „Boston-Temperatur“ für Oktober 1820 zu erhalten. Wie würde es aussehen, wenn die Boston-Temperatur im Oktober 1920 bzw. 2020 verglichen werden, um zu sehen, ob sie gestiegen ist oder nicht? Nun, das stellt eine ziemliche Herausforderung dar:

In den letzten hundert Jahren könnten einige Bäume um das Thermometer herum gewachsen sein, während die Thermometer im Jahr 1920 vielleicht den ganzen Tag in der vollen Sonne standen. Was nun?

● Einige Instrumente wurden aus irgendeinem Grund verschoben, z. B. wegen einer großen Autobahnbaustelle; wie hat sich das auf die Temperaturmesswerte ausgewirkt?

● Einige Instrumente könnten nach und nach für Monate oder sogar Jahre nicht mehr kalibriert worden sein, bevor sie repariert oder ersetzt wurden. Was machen wir mit den verdächtigen Daten während des fraglichen Zeitraums? Ignorieren?

● Wenn die Instrumente ersetzt wurden, wie wurden sie ersetzt? Einige Variablen sind die gleiche Höhe über dem Boden, der gleiche Schutzkasten, Quecksilber ersetzt durch Alkoholthermometer oder Thermoelemente, usw.

● Eine Wetterstation befand sich in der Nähe einer unbefestigten Straße, bis sie 1926 mit Zement und 1963 mit Asphalt bedeckt wurde? Später wurde sie wieder zu einem Feldweg umgestaltet, als das Gebiet 2004 zu einem Naturpark wurde?

● Wie würden wir diese Temperaturen[iii] mit den Temperaturen bis zum Jahr 2020 vergleichen, kontrastieren und integrieren? Sehr unterschiedlich und sehr herausfordernd:

1) Instrumente, die einst auf einer Weide standen, befinden sich jetzt in der Nähe von Flughafenlandebahnen und Düsenabgasen!

2) Ein anderes war in der Nähe einer schattigen, sandigen Straße, die jetzt ein asphaltierter Parkplatz ist.

3) Thermoelemente haben viele Thermometer ersetzt; wie wurden die Messwerte „zusammengestoppelt“?

4) Andere Wetterstationen wurden einfach wegen der hohen Kosten für ihre Wartung aufgegeben oder durch ein ferngesteuertes Thermoelement oder Telemetrie ersetzt.

5) Wie kann man[i] die Auswirkungen der Umweltverschmutzung der 1960er bis 1990er Jahre mit dem unberührten Himmel der 1800er Jahre in Einklang bringen, wenn Wolken eine so wichtige Rolle spielen?

6) Und die Wolkendecke von 1820 war wahrscheinlich ganz anders als heute, als Folge der zunehmenden Menge an „Aerosolen“, die eine wichtige Rolle bei der Wolkenbildung, dem „Treibhaus“- und dem „Albedo“-Effekt spielen.

In den letzten Jahrzehnten, und vor allem seit der Satelliten-Ära, wurden Hunderte von erdgebundenen Wetterstationen aus verschiedenen Gründen aufgegeben, unter anderem aus Kostengründen und wegen der Zuverlässigkeit der Daten. In den letzten Jahrzehnten haben die NASA und die NOAA versucht, aktuelle und historische Wetteraufzeichnungen an Land und auf dem Meer zu „normalisieren“. Abbildung 2 zeigt zwei Sätze von genau denselben Daten! Die blaue Linie repräsentiert die tatsächlichen landbasierten Temperaturen von 1.218 Stationen in den USA, als die Messwerte aufgenommen wurden. Man vergleiche das mit der roten Linie, die genau die gleichen Temperaturaufzeichnungen darstellt, aber nachdem sie von der NOAA „normalisiert“ wurden*.

*In einem Beitrag bei Real Climate Science wird schon Ende 2016 festgestellt: „Das Problem mit der NOAA-Graphik besteht darin, dass es Fake-Daten sind. Die NOAA erzeugt den Erwärmungstrend künstlich mittels Veränderung der Daten. Die RohDaten der NOAA zeigen im vergangenen Jahrhundert keinerlei Erwärmung“.

„Normalisierung“ hat eine praktische Grundlage. Es ist ein bisschen so, als würde man die Menge des Obstes berechnen, wenn man Äpfel zu Orangen addiert. Allerdings ist der Prozess anfällig für fehlerhafte Annahmen und Ausführung. Der prominente Umweltwissenschaftler Donald Easterbrook behauptet, dass die bisherigen historischen Aufzeichnungen absichtlich manipuliert wurden, wie in Abb. 2 dargestellt. Es wurde der Vorwurf erhoben, dass diese Temperaturen verzerrt wurden, um in das aktuelle Narrativ des CO2-induzierten globalen Klimawandels zu passen. Die historischen Daten der blauen Linie wurden in den letzten Jahrzehnten mindestens viermal verändert, und nun in ihrer endgültigen Form zeigt die rote Linie einen dramatischeren, steileren Temperaturanstieg seit den 1980er Jahren, indem die Temperaturen in den vorangegangenen Jahrzehnten gesenkt wurden! Wenn wir heute aufgefordert werden, Multi-Billionen-Dollar-Entscheidungen zu treffen, die auf unserer Temperaturhistorie des letzten Jahrhunderts basieren, sind sie schwerwiegend und folgenreich geworden.

For more information we recommend our book A Hitchhikers Journey Through Climate Change, coming soon to the CFACT store at CFACT.org.

[i] http://www.clker.com/clipart-thermometer-in-beaker.html

Autoren: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Terigi Ciccone is an Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

Link: https://www.cfact.org/2021/01/05/how-accurate-are-our-weather-and-climate-measurements/

Übersetzt von Chris Frey EIKE

 




Grundgesetz: Professor Ahnungslos vom RKI

Bei Wikipedia kann man nachlesen, dass Brockmann am Robert-Koch-Institut die Projektgruppe P4 „Epidemiologische Modellierung von Infektionskrankheiten“ leitet. Im Ergebnis handelt es sich bei ihm also zweifellos um einen jener Experten am RKI, die von der Bundesregierung bei der Bewältigung der Corona-Pandemie zu Rate gezogen werden. Um so erstaunlicher ist es, welche Erklärungen er in dem Interview von sich gegeben hat, die juristisch betrachtet – gelinde formuliert – unhaltbar sind.

In dem Interview wird Brockmann unter anderem vorgehalten, dass Politiker und Juristen eine Beschränkung von Reisen auf 15 Kilometer als unverhältnismäßig kritisieren und dass es bessere, passgenauere Maßnahmen gebe, beispielsweise das Schließen von Skigebieten. Laut t-online antwortete Brockmann: „Ich lehne das Wort „unverhältnismäßig“ in diesem Zusammenhang ab. Da steckt ‚Verhältnis‘ drin. Das suggeriert, dass man Zahlen zum Zusammenhang zwischen Kontakten und Reisen kennt… Es gibt diese Daten nicht. Bisher wurde der Zusammenhang zwischen Reisen und der Anzahl der Kontakte nur wenig beziehungsweise unzureichend erforscht“.

Diese Aussage ist, wenn man ehrlich bleibt, ein geistiges Armutszeugnis. Es sollte jedem gebildeten Staatsbürger in Deutschland, auch Herrn Brockmann, mittlerweile klar sein, dass der Grundsatz der Verhältnismäßigkeit ein Rechtssatz ist und nicht nur die Beschreibung eines mathematischen Zusammenhangs von Zahlen. Der Grundsatz der Verhältnismäßigkeit hat darüber hinaus – dieses Wissen kann man bei einem Physik-Professor wahrscheinlich nicht erwarten, sondern nur bei einem Juristen – nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts Verfassungsrang!

Der Grundsatz der Verhältnismäßigkeit gilt also immer und in jedem Zusammenhang, auch im Zusammenhang mit Corona. Brockmanns Satz: „Ich lehne das Wort ‚unverhältnismäßig‘ in diesem Zusammenhang ab“ ist folglich absurd und schlicht unvertretbar. Brockmann hat erkennbar von Grundrechten und vom Verhältnismäßigkeitsgrundsatz so viel Ahnung, wie ein Medizinmann aus dem Busch Kenntnis hat von moderner Herzchirurgie: nämlich gar keine. Sein Satz, er lehne das Wort „unverhältnismäßig“ im Zusammenhang mit Corona ab, ist etwa so richtig, wie wenn er gesagt hätte, dass er im Zusammenhang mit Corona die Beachtung von Grundrechten ablehne. Leider gibt das Interview Anlass dafür, genau das zu vermuten.

Im juristischen Sinne völlig unverhältnismäßig

Die Antwort von Brockmann ist auch in einem weiteren Punkt bemerkenswert. Denn aus seiner oben erwähnten Antwort ergibt sich, wenn auch von ihm unbeabsichtigt, dass die Anordnung einer Beschränkung von Reisen auf 15 Kilometer im juristischen Sinne völlig unverhältnismäßig ist.

Für alle juristischen Laien, zu denen erkennbar Brockmann sowie einige Ministerpräsidenten in Deutschland gehören, sei daher an dieser Stelle ein kurze juristische Einführung in den Grundsatz der Verhältnismäßigkeit gegeben: Nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts und aller übrigen obersten Bundesgerichte ist eine staatliche Maßnahme nur dann verhältnismäßig, wenn sie geeignet ist, das beabsichtigte Ziel zu erreichen, wenn sie erforderlich ist, um das beabsichtigte Ziel zu erreichen und wenn sie verhältnismäßig im engeren Sinne ist, also nicht gegen das Übermaßverbot verstößt.

Das beabsichtigte Ziel ist klar definiert: Eine Absenkung der Infektionszahlen zur Eindämmung der Pandemie. Ist eine Beschränkung von Reisen auf 15 Kilometer geeignet, um dieses Ziel zu erreichen?

Klare Antwort: Nein! Sogar Brockmann, ein Experte für „Epidemiologische Modellierung von Infektionskrankheiten“, erklärt selbst in seiner oben zitierten Antwort, dass es keine Daten gibt, die einen Zusammenhang zwischen Reisen und Kontakten belegen und dass diese gesamte Frage bisher nicht erforscht ist! Es fehlt also bereits an einem Nachweis, dass die beabsichtigte staatliche Maßnahme der Beschränkung der Reisen auf 15 Kilometer überhaupt geeignet ist, um das beabsichtigte Ziel zu erreichen. Zumindest die Geeignetheit einer Maßnahme muss aber zweifelsfrei feststehen, wenn sie als Rechtfertigung für einen Eingriff in Grundrechte herhalten soll. Von der Erforderlichkeit der Maßnahme (gibt es nicht tatsächlich weniger einschneidende und mildere Mittel?) und der Verhältnismäßigkeit im engeren Sinne (schießt man hier nicht deutlich übers Ziel hinaus?) braucht gar nicht mehr gesprochen zu werden. Sie liegen beide zweifelsfrei ebenso nicht vor.

Aus der eigenen Antwort eines Experten des Robert-Koch-Instituts ergibt sich also bereits, dass die Beschränkung von Reisen auf 15 Kilometer Entfernung im Rechtssinne völlig unverhältnismäßig ist. Die Bundesregierung bzw. die Landesregierungen haben insoweit auch keinen Beurteilungsspielraum mehr und keine Einschätzungsprärogative. Im Gegensatz zum ersten Lockdown im Früjahr 2020, als man über das Corona-Virus so gut wie nichts wusste, keine Masken und keine Impfungen hatte und man eine Pandemie mit Millionen von Toten allein in Deutschland befürchten musste, wissen wir heute eine ganze Menge über das Virus, haben Masken und Impfmittel und können auch mit Sicherheit sagen, dass keine Millionen von Menschen in Deutschland an Corona sterben werden.

Ein Akt der Willkür und bloßer Aktionismus

Da nach den eigenen Angaben des RKI-Experten Brockmann keinerlei Zahlen und keine Forschung dafür vorliegen, dass ein Zusammenhang zwischen Reisen von mehr als 15 Kilometern Entfernung und vermehrten Kontakten und Infektionen besteht, liegt das generelle Verbot von Reisen von mehr als 15 Kilometern Länge nicht mehr im Beurteilungsspielraum der Regierenden, sondern stellt einen Akt der Willkür bzw. bloßen Aktionismus dar.

Brockmann offenbart in dem Interview, aber auch ansonsten, eine – vorsichtig formuliert – sehr eigenwillige Sichtweise auf die freiheitliche demokratische Grundordnung des Grundgesetzes. So erklärt er u.a.: „Generell gilt: Jede Reise, die nicht unternommen wird, schadet nicht“.

Diese Aussage lässt tief blicken. In der freiheitlichen demokratischen Grundordnung ist nämlich, was Brockmann offenbar nicht weiß, grundsätzlich erst einmal alles erlaubt, was nicht verboten ist. Das ergibt sich aus der allgemeinen Handlungsfreiheit (Art. 2 Abs. 1 GG). Der Staat darf nicht völlig willkürlich und nicht unverhältnismäßig irgendwelche Verbote erlassen. Vielmehr muss der Staat einen vernünftigen Grund vorweisen können, um in die Freiheit seiner Bürger eingreifen zu dürfen.

In einem freiheitlichen Rechtsstaat stellt sich also nicht die Frage, ob eine Reise „nicht“ schadet. Das ist eine Sichtweise, die in Diktaturen gehört. Sondern in einem freiheitlichen System ist die einzige Frage, „ob“ eine Reise schadet. Denn nur dann kann sie verboten werden! Sonst nicht. Die Denkweise, erst einmal prophylaktisch alles zu verbieten, was unter Umständen schaden könnte, gehört, wie bereits erwähnt, in Diktaturen, aber nicht in eine freiheitliche Demokratie.

Wenn es darum ginge, alles zu verbieten, was möglicherweise schaden könnte, müsste man nicht nur Reisen von mehr als 15 Kilometer Entfernung, sondern beinahe sämtliche Errungenschaften der modernen Gesellschaft verbieten. Hier nur einige Beispiele: Man müsste den Autoverkehr komplett verbieten, weil nachweislich durch den Autoverkehr jedes Jahr in Deutschland durchschnittlich mehr als 3.000 Menschen ums Leben kommen. Man müsste sämtliche Demonstrationen und den Zusammentritt des Bundestages verbieten. Überlegen Sie sich mal, welches Infektionsrisiko besteht, wenn sich 709 Abgeordnete des Bundestages bei den Debatten einfinden, dort Stunden lang debattieren und sich teilweise sogar lautstark beschimpfen. Man möchte gar nicht wissen, wie viele Aerosole und wie viele Tröpfchen dort umherschwirren und andere Menschen anstecken könnten. Und man müsste Computer und Internet – zumindest für die Allgemeinheit – verbieten, weil sie Strom benötigen, viel CO2-Ausstoß verursachen und von „schlechten“ Menschen missbraucht werden.

Das Modell der vorbeugenden Inhaftierung

Eine solche Herangehensweise, alles zu verbieten, was möglicherweise gefährlich werden könnte, wäre auch im Strafrecht interessant. Wenn jemand beispielsweise schon viermal rechtskräftig wegen Diebstahls verurteilt wurde, müsste er beim fünften Mal ohne Wenn und Aber – auch ohne komplizierte und mühevolle Gerichtsverhandlung – sofort eingesperrt werden. Denn er könnte ja möglicherweise wieder stehlen gehen. Und eine solche Prognose wäre statistisch nicht einmal von der Hand zu weisen. Denn es ist wissenschaftlich erwiesen, dass jemand, der ein bestimmtes Verhaltensmuster erlernt hat und mehrfach einschlägig zuvor verurteilt wurde, auch in Zukunft mit signifikant höherer Wahrscheinlichkeit wieder eine solche Straftat begehen wird als ein unbescholtener Bürger aus der Durchschnittsbevölkerung.

Das Modell der vorbeugenden Inhaftierung hatten wir übrigens schon einmal in Deutschland zwischen 1933 und 1945. Damals wurden auch missliebige Personen ohne Gerichtsverhandlung in „Schutzhaft“ genommen, weil angeblich die Gefahr bestand, sie könnten weitere Straftaten begehen oder dem System gefährlich werden.

Dieses drastische Beispiel zeigt, wie absurd eine solche Denkweise ist, prophylaktisch alles zu verbieten, was gefährlich werden könnte, und dass diese Denkweise in einer freiheitlich-demokratischen Grundordnung nach dem Grundgesetz nichts zu suchen hat. Die Tatsache, dass Brockmann anscheinend nicht viel von Freiheit hält, wird auch noch an einer anderen Stelle des Interviews deutlich.

Auf das Ansprechen der Ein-Personen-Regel (dass sich also die Angehörigen eines Haushalts nur noch mit einer einzigen haushaltsfremden Person treffen dürfen), antwortet Brockmann:

„Das ist die sinnvollste Regel überhaupt! Es sprengt die Kontaktnetzwerke, zerstückelt sie. Das ist das wichtigste.“

Wenn man die Situation allein und ausschließlich unter dem Blickwinkel der Absenkung der Infektionszahlen betrachtet, hat Brockmann sicherlich recht. Aber mit einem freiheitlichen Staat, der seinen Bürgern Grundrechte, unter anderem das Recht auf Freizügigkeit und Berufsfreiheit garantiert, hat das nicht mehr viel zu tun. Außerdem blendet Brockmann die negativen Folgen solcher Beschränkungen einerseits für die Menschen und ihre Bedürfnisse, andererseits für die Wirtschaft, die unser aller Lebensgrundlage darstellt, völlig aus. Er orientiert sich leider völlig einseitig nur an dem Ziel, die Infektionszahlen zu senken.

Sofern man die Aussage von Brockmann zugrunde legen würde, nämlich um jeden Preis die Kontaktnetzwerke zu „sprengen“ und zu „zerstückeln“, läge die effektivste Bekämpfung der Infektionszahlen zweifellos darin, alle Deutschen, mit Ausnahme der Menschen in systemrelevanten Berufen, einzusperren und zu isolieren, entweder im Gefängnis oder in einem geschlossenen Krankenhaus oder bei sich zu Hause. Man müsste auf jeden Fall verhindern, dass sich noch eine nennenswerte Zahl von Menschen in Deutschland frei auf den Straßen bewegt. Vielmehr wäre es nach Brockmann sinnvoll, eine Friedhofsruhe herzustellen, bei der sich niemand mehr anstecken könnte. Das würde dann aber leider sehr den Verhältnissen in Nordkorea ähneln.

Von unserer Rechts- und Werteordnung keine Ahnung

Auch an einer weiteren Stelle wird Brockmanns problematisches Verständnis von unserer Gesellschaftsordnung nach dem Grundgesetz deutlich.

Er führt u.a. aus: „Wir brauchen einen System-Switch, glaube ich. Die Dauer des Lockdowns würde ich nicht mehr von einem Datum abhängig machen, sondern von der Inzidenz“.

Mit einem solchen Unterfangen hätten wir einen unbefristeten Lockdown (!), und die Bevölkerung dürfte sich in ängstlicher Neugier täglich die Inzidenzzahlen angucken, ob dort eine Besserung in Sicht ist. Auch das erinnert leider fatal an Diktaturen, die wir in Deutschland schon hatten, als beispielsweise während des Zweiten Weltkrieges die Menschen gläubig die Wehrmachtsberichte von den Geschehnissen an der Front hören oder während der Zeit des Arbeiter- und Bauernstaates die Erfolge der sozialistischen Wirtschaft in den Fünfjahresplänen zur Kenntnis nehmen durften. Beide Diktaturen waren nicht sehr menschenfreundlich und auf Dauer nicht erfolgreich. Sie dürften daher kaum als Vorbild für die Bewältigung der heutigen Aufgaben in der Bundesrepublik dienen.

Brockmann und andere „Experten“, zu denen anscheinend auch mancher Ministerpräsident gehört, mögen zwar viel über Corona und die Ausbreitung von Infektionen wissen. Von unserer Rechts- und Werteordnung nach dem Grundgesetz, zu der auch die Abwägung von Belangen und der Verhältnismäßigkeitsgrundsatz gehören, haben sie aber offenbar keine Ahnung. Oder, was ebenso schlimm wäre, sie ignorieren sie, um die eigene Macht und das eigene Prestige zu bewahren.

 

Der Autor ist Richter an einem deutschen Gericht und schreibt hier unter Pseudonym.

Der Beitrag erschien zuerst bei ACHGUT hier




Verlangsamung der CO2-Anreicherung in der Luft – durch COVID oder durch die Natur?

Hier möchte ich jetzt meine Hypothese überprüfen hinsichtlich des Löwenanteils der Ursachen für die CO2-Zunahme, selbst wenn ich sicher bin, dass dieses nur eine geringe Rolle bzgl. des Erdklimas spielt (wenn überhaupt eine).

Hier zunächst ein paar einfache Fakten:

1.Ozeane sind die größte CO2-Senke

2.Je wärmer die Ozeane, umso mehr CO2 wird freigesetzt

3.Die Ozeane sind wärmer geworden.

Beispiel: Man betrachte die Wassertemperatur heute (rechts) mit der vor 35 Jahren:

Meine Hypothese ist, dass sich durch die natürliche zyklische Erwärmung der Ozeane eine kumulative Ansammlung von CO2 entwickelt hat. Dies setzt sich so lange fort, bis ein Gleichgewicht erreicht ist. Der Planet versucht, dem mit immer mehr Laub entgegenzuwirken, was eines der Standbeine meiner „keine Schuld“-Lösung für die auf CO2 basierende und auf Indoktrination fußende AGW-Angst. Pflanzen Sie also genug Bäume, bauen Sie genug Kernkraftwerke und machen Sie Kohlenstoffabscheidung, und wenn Sie CO2 für die Erwärmung verantwortlich machen (was ich im Großen und Ganzen nicht tue), ist das Problem gelöst, egal was Sie glauben. Ich skizziere es in meinem neuen Buch, The Weaponization of Weather in the Phony Climate War. Das ist ein Novum: jemand, der tatsächlich eine fehlerfreie Lösung für ein Problem vorschlägt, das höchstwahrscheinlich gar nicht existiert und das unsere Lebensweise nicht zerstören wird.

Die andere „Lösung“ ist der „Green New Deal“, der als Nebenprodukt wahrscheinlich die wirtschaftliche Lebensader der US-Wirtschaft stören, wenn nicht gar zerstören wird und genau ins Herz des Systems geht, um das uns die Welt beneidet.

Tatsache ist jedoch, dass die Verlangsamung auf Covid zurückgeführt wird, da Covid im Frühjahr eine weltweite Abschaltung der Industrie für mehrere Wochen verursachte. Zu dieser Zeit sah die CO2-Kurve sehr ähnlich aus wie in den Vorjahren zu dieser Zeit. Wir konnten also nichts erkennen. Aber jetzt, später im Jahr, wird die Behauptung hinaus posaunt, dass es die Covid-Abschaltungen waren, die sie gesenkt haben, ohne überhaupt die andere Seite der Debatte zu betrachten. Die Ozeane kühlen sich ab und die Anstiegsrate sollte sich nach meiner Vorstellung etwas verlangsamen.

Um das „Problem“ der Schuldzuweisung weiter zu vergrößern, kann meine Seite der Debatte (diejenigen von uns, die an eine aufgeschlossene Debatte glauben) nicht vor der Tatsache davonlaufen, dass CO2 und Temperatur in den letzten 35 Jahren gestiegen sind. Was bedeutet, dass die andere Seite einen Grund hat, ihren Standpunkt zu vertreten. Das Problem ist, dass sie nicht denken, jemand könne deren Narrativ in Frager stellen. Also, was ist es? Wie in vielen Beiträgen zuvor, ziehe ich SUPER NINOS in Betracht, um die entsprechenden höheren Temperatur-Plateaus zu erklären – es ist weitgehend mehr Wasserdampf, nicht CO2.

Super-Nino’s setzen immense Mengen an Wasserdampf frei, welche die Temperatur beeinflussen, vor allem in den Polarregionen, wo sie niedrigere Temperaturen und Taupunkte viel mehr beeinflussen als dort, wo es warm und feucht ist. Wir haben keine Temperatur/CO2-Korrelationen. Wir haben Korrelationen zwischen Wasserdampf und Temperatur. Ich frage mich, warum? Empfohlene Lektüre in meinem Buch:

Kapitel 6: Die globale Temperatur als Waffe

Hier noch einmal die relevante Keeling-Graphik der letzten zwei Jahre (Quelle):

Hier möchte ich auf zweierlei hinweisen: 1) Es gibt eine Abflachung der Kurve von Januar bis März, die wahrscheinlich auf die maximale Ausdehnung des globalen Meereises zu dieser Zeit zurückzuführen ist, da dies die Ausgasung von CO2 aus dem Ozean verhindert, was wiederum die Bedeutung der Ozeane und des CO2 und nicht die des Menschen zeigt. Wären die Ozeane komplett vereist, dann gäbe es keine CO2-Ausgasung. Es gäbe wahrscheinlich auch keine Menschheit, ein kleiner Punkt. Immerhin hat Prinz Phillip gesagt, dass er als Virus, der die Menschen ausrottet, wieder ins Leben zurückkehren will.

„Wenn ich wiedergeboren werden würde, würde ich mir wünschen, als Killervirus auf die Erde zurückzukehren, um die menschliche Population zu senken.“

2) Seit dem Tiefpunkt in diesem Jahr bei 411,2 ppm am 1. Januar sind wir bei ca. 414,2 ppm, ein Anstieg um 3 ppm seit dem Tiefpunkt (Pflanzen werfen Laub ab, und die Erwärmung nimmt zu, daher der CO2 -Anstieg in der kalten Jahreszeit)

Im letzten Jahr hatten wir einen Tiefpunkt von ca. 408 und einen Anstieg auf 413 am 1. Januar. Grob gesagt, ist das ein Defizit von 2 ppm vom letzten Jahr bis zu diesem Jahr im Anstieg. Die Industrie hat wieder aufgeschlossen. Ich glaube nicht, dass es an Covid liegt, aber ich vermute, dass die Abkühlung des Ozeans etwas damit zu tun hat.

Aber man wird sehen, dass die Covid-Klima-Koalition davon ausgeht, dass die indoktrinierte Öffentlichkeit ihre Prämisse, dass nämlich CO2 ursächlich für die Verlangsamung ist, akzeptieren wird ohne auch nur ansatzweise auf die andere Seite des Problems hinzuweisen. Gewöhnen Sie sich daran: Sie sehen hier eine Generalprobe dessen, wofür hier das Klima instrumentalisiert wird.

Nun die ultimative Ironie: Ich beobachte, wie meine Gegner in dieser Sache meine Vorhersage verifizieren. Das ist irgendwie interessant, oder? Vielleicht sollte ich mich bei ihnen bedanken.

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore. His new book The Weaponization of Weather in the Phony Climate war can be found here. phonyclimatewar.com

Link: https://www.cfact.org/2021/01/03/is-covid-or-nature-slowing-the-increase-in-co2/

————————————

Zu diesem Thema hat sich auch Willis Eschenbach Gedanken gemacht. Einen davon beschreibt er so [Anm. d. Übers.]:

Eine CO2-Besonderheit

Willis Eschenbach

Jüngst kam mir der oben stehende Beitrag vor Augen. Die im Titel gestellte Frage wollte ich mir auch einmal vornehmen. Hier zeigen sich die Mauna Loa-Daten. Oben: Die CO2-Zunahme, unten: die mittlere Änderung des CO2-Gehaltes von Monat zu Monat:

Eines geht daraus ganz klar hervor.

Die Rate der CO2-Zunahme hat sich kein bisschen geändert. Ich biete dafür keine Erklärung an … aber das ist kein gutes Zeichen für all jene, die da behaupten, dass es Lockdowns á la Covid bedarf, um das CO2-Niveau zu senken.

Link: https://wattsupwiththat.com/2021/01/05/a-co2-oddity/

Übersetzt von Chris Frey EIKE

 




Angst macht Macht*

In der perspektivischen Verkürzung des Rückblicks scheint die erste, bahnbrechende und grauenerregende Angst, der, wie man damals annehmen durfte, eine größere nicht würde folgen können, diejenige gewesen zu sein, die vom Baumsterben ausgelöst worden war. Damals, in den 1980ern, war dieses Baumsterben allgegenwärtig und es griff um sich wie ein Steppenbrand. Das Publikum wurde eingedeckt mit Bildern von kranken oder abgestorbenen Bäumen. Dabei spielte es für die Zuschauer keine Rolle, ob es sich dabei um Krüppelkiefern handelte oder aber um eine Fichte an der Baumgrenze, denn derlei Einzelheiten erschließen sich den meisten Menschen nicht.

Diese kleinen, wenn auch unredlichen Tricks, beschleunigten den Steppenbrand außerordentlich, der zudem dadurch befeuert wurde, dass es sich beim Thema Wald um ein deutsches Urgefühl handelt, das anzutasten an die Seinsgründe teutonischen Seelenlebens rührt. Nicht umsonst spricht man davon, man habe einem Unglücklichen die „Axt an die Wurzel“ gelegt.

Mit dem Waldsterben ging es los

Daher spielte es auch keine Rolle, dass bei der ganzen Propaganda nachgeholfen, die Lage maßlos überzeichnet und vor allem verschwiegen wurde, dass der Wald einen lebendigen Organismus darstellt, der einmal ziemlich gesund, dann wieder etwas krank, aber nur in kleinen Teilen eins von beiden zur Gänze ist. Bei den Menschen ist es ja ebenso. Jedenfalls hätte nach den Prognosen, so auch des Club of Rome, um die Jahrhundertwende in Deutschland kein Baum mehr stehen dürfen. „Erst stirbt der Baum, dann stirbt der Mensch“, hieß es damals. Es ist anders gekommen, die Wälder haben an Fülle und Ausdehnung zugelegt, und seither spielt der Waldzustandsbericht eine nachgeordnete Rolle.

Das allerdings schadet dem Gesamtaufkommen an Ängsten keineswegs. Denn seither haben wir eine große Zahl von Schrecknissen erfahren. Eine kleine Aufzählung, welche der Wirtschaftsprofessor Walter Krämer zusammengetragen hat, gibt Aufschluss über die Leidensfähigkeit unserer Gattung. Diese wird gestählt durch Ängste geringerer Art, so diejenige vor Masern, die Verletzungsgefahr von Kindern durch Airbags, Müdigkeit durch Herpes, Brustkrebs durch Flatrate-Trinken, Benzol im Babybrei, Fensterheber ohne Einklemmschutz, US-Dosenfutter, das Haustieren schadet, giftige Pflanzen in Haus und Garten, die Wollhandkrabbe, der Killerasteroid VK 184, der allerdings seine Chance anno 2007 vertan hat, Krebs natürlich an allen Ecken und Enden, Pestizide in Mandarinen und Gift in Babysocken.

Solchen Fährnissen aber folgen schwerere auf dem Fuß:

das Ozonloch, der Rinderwahn, Schweinegrippe, SARS, Feinstaub, Elektrosmog, außer unter Windrädern, da gibt es ihn nicht, Asbest und Dioxin, Fluglärm sowie Nanopartikel verschiedenster Genese.

Doch mit dem Reaktorunglück von Fukushima vor nunmehr zehn Jahren hat sich die Atom-Angst dauerhaft etabliert, an prominentester Stelle, bis vor Kurzem. Dabei sind in Japan wegen des Tsunamis deutlich mehr Menschen zu Schaden gekommen als wegen des Reaktors. Doch ungeachtet dessen hat die Bundesregierung in Deutschland den Vorfall zum Anlass genommen, vom Ziel einer sicheren und bezahlbaren Energieversorgung Abschied zu nehmen.

Übertroffen wird die Atom-Angst aber von dem Schrecken, den das Stichwort „Klima“ auslöst, und derzeit zumindest ebenso von einem kleinen Virus. Man kann Tageszeitungen finden, die es kaum unter ein bis zwei Dutzend „an und mit“-Corona-Artikeln tun. Jeden Tag.

Angst vor staatlichen Maßnahmen

Es hat bereits die Energiewende die enge Verbindung zwischen der Angst und den Möglichkeiten gezeigt, welche eine solche Angst den Politikern in die Hand gibt. Mit ihrer neuen Energiepolitik, angekündigt im Parlament, aber ohne dieses zu befragen, hat Angela Merkel mit einem Satz ein ganzes Geflecht von Gesetzen und Verträgen für null und nichtig erklärt. Nicht anders bei Corona. Grundrechte, die teils auch mit einer Zweidrittelmehrheit des Parlaments nicht eingeschränkt oder gar aufgehoben werden könnten, werden heute durch eine Verwaltungsverordnung außer Kraft gesetzt.

Angst bedeutet für die Regierenden Macht, und leider gilt auch der Umkehrschluss. Wenn eine Regierung ihre Macht übers Maß hinaus erweitern will, führt es zum Ziel, Angst zu streuen. Die mit Fukushima und Corona begründete Politik wäre nicht durchzusetzen, wenn nicht für den Fall ihrer Ablehnung mit Tod und Entsetzen gedroht würde. Wie hieß es doch in den 80ern? „Erst stirbt der Baum, dann der Mensch.“

Man sieht, die Sache mit der Angst und der Macht hat System. Doch während sich die Angst heute noch gegen ein Virus oder das Klima richtet, kommt mehr und mehr die Angst vor staatlichen Maßnahmen dazu. Dafür sorgen nicht zuletzt die drastischen Strafandrohungen bei einer Verletzung von Vorschriften bis hin zur Zerstörung einer beruflichen Existenz, wenn meinetwegen ein Hochschulprofessor in Sachen Klima oder Corona nicht so tut, wie von ihm erwartet wird.

Begleitet wird diese Entwicklung zur Totalität durch eine Gehirnwäsche, ausgerichtet an grüner Dekadenz. Ihr gilt die Angst als eine Tugend, der Selbsthass als ehrenhaft und die Wehleidigkeit als Zeichen von Charakterstärke. Willfährige Medien unterstützen diesen Aufbruch in einen politischen wie kulturellen Niedergang, vor dem man in der Tat Angst haben könnte.

Anm. der PAZ-Redaktion: Der Autor ist ein christsoziales Urgestein und war lange Zeit Redakteur beim „Bayernkurier“.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  8. Januar 2021, S.8; EIKE dankt der PAZ-Redaktion sowie dem Autor  Florian Stumfall   für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/ ; Hervorhebungen im Text: EIKE-Redaktion.

=================================================================




„Madrid kollabiert und erlebt mit dem Schneesturm des Jahrhunderts einen Notfall“

Quelle: metsul.com

In The Day after Tomorrow von unserem „Spielbergle“ Roland Emmerich führt die Erderwärmung zum Abreißen des Golfstromes und anderen Effekten, was die nördlichen USA und Europa in tiefgekühltem Eis erstarren läßt; nur wenige Menschen überleben.

Solche für Kracher-Filme nützlichen Ideen werden in der politischen Klima-Wissenschaft meist nicht laut vertreten; zu schwachsinnig erscheint die Argumentation, wenn Lesch & Co. sonst von Hitze, Dürre und Waldschäden erzählen.

Möglicherweise wird dieses Orwellsche Doppeldenk – alles und sein Gegenteil gilt, gleichzeitig – bald wichtiger, wenn die nach realer Atmosphärenphysik erwartete neue Kühlphase immer deutlicher wird. Nicht nur die Gletscher wachsen weltweit wieder fleißig (berichtet wird nur von denen, die noch schrumpfen), auch das Schneechaos in den Alpen, Japan, NO-USA und nun in Mittelspanien kündigt eine unheilvolle Abkühlung des Weltklimas an.

Der Blizzard in Spaniens Hauptstadt, administrativ die sechstgrößte Europas, läßt sich nicht vertuschen und wird selbst von Tagesschau.de ungeschönt dargestellt. Es liegt ein halber Meter Schnee in den Straßen und auf den Autos, der droht, die Scheiben einzudrücken. Eingeschneite Autofahrer mußten teils 15 Stunden warten, bevor sie von Rettungskräften befreit wurden. Auf sechsspurigen Schnellstraßen rodeln Kinder mit dem Schlitten. Nur die Untergrundbahn fährt noch; Flugzeuge haben Start- und Landeverbot. Es soll schon Tote gegeben haben.

Für die meisten Madrilenen ist ein Schneesturm völlig unbekannt, da der letzte im kalten Jahrzehnt, den 70ern, vor genau 50 Jahren stattfand. In Anbetracht der anstehenden Kaltphase (Minimum etwa um 2100) dürften solche Phänomene aber gehäuft auftreten. Nebenbei: Die meisten Inseln der Malediven sind in den letzten Jahren gewachsen, nur ein paar sind etwas geschrumpft. Möglicherweise wird also Meerwasser abseits der Kameras bereits in großen Mengen als Eis gebunden.

Da fast jede Medaille zwei Seiten hat, kann der Kälteeinbruch auch etwas Gutes haben: Das Corona-Sars2-Virus hat in den heißen Ländern des Südens ja tatsächlich zu erhöhter Übersterblichkeit geführt. Wird die Kälte Spanien nun regelrecht desinfizieren?