1

Wissenschaft­liche Bildung in der Klassenstufe K-12* ist katastro­phal geworden

Barbash blickt zuerst auf die historische Entwicklung und dann darauf, wo wir heute stehen. Die Verankerung der großen grünen Botschaft kam in den 60er und 70er Jahren so richtig in Gang, bis zu dem Punkt, an dem es jetzt in der Lehrerausbildung und in den Lehrbüchern einfach zur Tagesordnung gehört. Kein Wunder, dass Millionen aufmarschieren.

Aber jetzt wird es systematisch noch viel schlimmer. Die sogenannten Next Generation Science Standards (NGSS) betreffen mehr als ein Drittel der K-12-Schüler an öffentlichen Schulen in Amerika, und es werden immer mehr. Die staatlichen Wissenschaftsstandards legen fest, was in den einzelnen Klassenstufen gelehrt werden soll. Die herkömmlichen staatlichen Standards sind relativ neutral, wenn es um grüne Propaganda geht, während die NGSS voll davon sind. Sie kümmern sich auch nicht viel um wissenschaftliche Kenntnisse.

Der Artikel steckt voller großartiger Zitate. Die Historie betreffend lautet ein gutes davon aus dem Jahr 1983:

Zumindest im Moment beherrschen ökologische Weltuntergangs-Propheten das kulturelle Geschehen. Feuer-und-Schwefel-Logik wird in Schulbüchern im ganzen Land mit Angst-und-Weltuntergangs-Psychologie kombiniert. Die Geschichte könnte Zehntausende Male erzählt werden, über Kinder in öffentlichen und privaten Schulen, in Gymnasien und Grundschulen, mit konservativen und mit liberalen Lehrern, in reichen und in armen Vierteln. Eine Flutwelle des Pessimismus ist über das Land geschwappt und hat Trauer, Verzweiflung, Unbeweglichkeit und Lähmung hinterlassen. … Warum sollten unsere Schüler in die Irre geführt werden?

Dieser „Moment“ hält seit fast 30 Jahren an, und die Unkenrufe werden mit dem Einsetzen der Klimawandel-Hysterie nur noch schlimmer.

Hier ist Barbashs knappe Zusammenfassung: „Diese Angst hat die Lehrpläne seit den 1970er Jahren mit einer immer länger werdenden Liste von Alarmen durchsetzt: Pestizide, Smog, Wasser- und Luftverschmutzung, Waldbrände, Artensterben, Überbevölkerung, Hungersnot, Regenwaldzerstörung, Verknappung natürlicher Ressourcen, Ozonabbau, saurer Regen und die große absorbierende Panik unserer Zeit: die globale Erwärmung.

Diese Prämissen bestimmen alles, was mit Umwelterziehung zu tun hat: die Lernstandards, die die Bundesstaaten den Schulbezirken auferlegen; die Stellungnahmen der Verbände der Wissenschaftslehrer; die Kursarbeit und die Texte in den Schulen; die Ausbildung, die Pädagogen während ihrer gesamten Laufbahn erhalten; und die Lehrbücher, Unterrichtspläne, Exkursionen und Hausaufgaben, die in allen Klassenstufen erteilt werden.“

Die NGSS setzen wirklich auf die Klimawandel-Hysterie. Hier ist, wie Barbash es erklärt:

Der Begriff ‚Klimawandel‘ erscheint in dem Dokument als „Kerngedanke‘ für die Mittel- und Oberstufe. Das Phänomen wird als Tatsache dargestellt, ebenso wie seine angeblichen Folgen – Verlust der Artenvielfalt, Aussterben von Arten, veränderte Niederschlagsmuster, Störung der globalen Nahrungsmittelversorgung, Verlust von Gletschereis und Massenmigration aufgrund des steigenden Meeresspiegels. Nirgendwo steht in den Standards, dass sowohl die Natur des Phänomens als auch seine Folgen Gegenstand heftiger Debatten sind oder dass es konkurrierende Theorien zur Erklärung des Klimawandels gibt – und zwar nicht von Flacherde-Anhängern oder ungläubigen Pfaffen, sondern von ernsthaften Wissenschaftlern.“

In den meisten konventionellen staatlichen Standards ist der Klimawandel ein untergeordnetes Thema, das im Erdkundeunterricht der High School unterrichtet wird, einem Wahlfach also, das viele Schüler nicht belegen. Die NGSS machen die Klimaschrecken jedoch zu einem Pflichtthema in der Mittelstufe, wenn die meisten Schüler noch zu jung sind, um sie zu hinterfragen. Bis heute haben 19 Staaten die alarmistischen NGSS angenommen.

Barbash sagt, dass auch die Bundesbehörden sehr aktiv sind, um die grüne Klimapropaganda voranzutreiben:

Mindestens 15 staatliche oder staatlich finanzierte Websites bieten kostenloses Unterrichtsmaterial über den Klimawandel und seine Gefahren an. Zu den Einrichtungen gehören die National Oceanic and Atmospheric Administration NOAA, die National Science Foundation, die National Aeronautics and Space Administration (NASA), die National Institutes of Health, das U.S. Energie-Ministerium und das U.S. Global Change Research Program. Die Websites bieten Tausende von Ressourcen, darunter Unterrichtspläne, Spiele und Videos für alle Klassenstufen. Keine einzige Website, die von der Regierung oder von Universitäten oder K-12-Bildungsgruppen finanziert wird, ist dem Unterricht über die wissenschaftliche Debatte gewidmet.“

Auch wie die NGSS Wissenschaft lehrt wird treffend beleuchtet:

Die Next Generation Science Standards (NGSS)sind so verworren, dass es schwer vorstellbar ist, wie sie irgendjemandem helfen sollen, überhaupt Wissenschaft zu unterrichten, geschweige denn eine sich schnell verändernde, umstrittene Wissenschaft wie die Klimatologie. Viele Konzepte sind zu allgemein gehalten. Hier ist einer für die dritte bis fünfte Klasse: ‚Die Bedürfnisse und Wünsche der Menschen ändern sich mit der Zeit, ebenso wie ihre Anforderungen an neue und verbesserte Technologien.‘ Viele Leistungserwartungen sind unklar. Hier ist einer für Kindergärtner: ‚Analysieren Sie Daten, um festzustellen, ob eine Konstruktionslösung wie beabsichtigt funktioniert, um die Geschwindigkeit oder Richtung eines Objekts durch Drücken oder Ziehen zu ändern.‘ Welche Art von Daten wird ein Fünfjähriger analysieren? Andere Standards packen zu viel Wissenschaft in eine Aussage, oft ohne ausreichende Anleitung aus früheren Klassenstufen. Dieser Standard für die High School würde einen Studenten herausfordern: ‚Analysieren Sie geowissenschaftliche Daten und die Ergebnisse globaler Klimamodelle, um eine evidenzbasierte Vorhersage über die aktuelle Geschwindigkeit des globalen oder regionalen Klimawandels und die damit verbundenen zukünftigen Auswirkungen auf das System Erde zu treffen‘.

Auch ich denke, die NGSS sind ein großer Schritt zurück, wenn es um den Unterricht in den Naturwissenschaften geht. An vielen Stellen ersetzen sie die detaillierten wissenschaftlichen Kenntnisse, die in den staatlichen Standards gefordert werden, durch hoffnungslos vage Konzepte.

Noch schlimmer ist, dass diese vagen Konzepte in eine 3-D-Matrix eingebettet sind. Die NGSS ersetzen nicht nur abstrakte Konzepte anstelle von wissenschaftlichem Wissen, sondern haben auch eine dreidimensionale Struktur. Sie erkennen nicht, dass, wenn jede Dimension nur 20 Konzepte hat, es 8.000 Kombinationen gibt. Bei je 100 Konzepten dann 1.000.000 Kombinationen.

Somit sind die NGSS ein Rezept für Verwirrung. In der Tat denke ich, dass sie Probleme mit den Tests haben. Im Fall der NGSS sollte es nationale oder internationale Testergebnisse geben, die auf staatlicher Ebene verfügbar werden, damit wir sehen können, wie gut oder schlecht der Unterricht unter diesen seltsamen neuen Standards abschneidet.

Kurz gesagt, die grüne Propaganda im K-12-Wissenschaftsunterricht ist schon seit Jahrzehnten ein wachsendes Problem. Aber jetzt, unter den Next Generation Science Standards, wird es schnell noch viel schlimmer. Es gibt viel mehr über diese grüne Welle in Barbashs Artikel, so dass ich ihn sehr empfehlen kann.

Die wissenschaftliche Bildung in Amerika befindet sich im Übergang – und auf einem verheerenden Weg.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2021/02/16/american-k-12-science-education-gone-bad/

Übersetzt von Chris Frey EIKE




Neue Studie: In den 1940er Jahren war es vor Grönland wärmer als heute

Mit Dank an Die kalte Sonne.

Karte des Gebiets Skjoldungen. Die Stelle, an welcher der Kern gezogen worden war, ist durch einen roten Stern gekennzeichnet. Bild: Wangner et al.

Der Kern umfasst die letzten 200 Jahre (1796-2013). Die Wissenschaftler stellen fest, dass der SST-Datensatz gut mit anderen Alkenon-basierten Rekonstruktionen aus SE-Grönland vergleichbar ist und somit eine regionale Schelfwasser-Variabilität aufweist.

Heute behaupten einige Wissenschaftler gerne, dass die Gegenwart wärmer ist als zu jedem anderen Zeitpunkt in den letzten 1000 Jahren und dass die grönländischen Eisschilde schnell schmelzen. Aber die Ergebnisse der Kern-Rekonstruktion zeigen, dass es in der Vergangenheit, vor etwa 80 Jahren, noch wärmer war.

Vor 80 Jahren war es wärmer

Die rekonstruierten SSTs zeigen in der Tat „hohe Amplitudenschwankungen zwischen 5°C und 12°C, insbesondere während des 20. Jahrhunderts“.


Wie die rekonstruierten Meeresoberflächentemperaturen in diesem Gebiet zeigen, war es in den 1940er Jahren genauso warm oder noch wärmer. Die Periode von 1915 – 1950 war auf einem ähnlichen Niveau wie heute, also passiert derzeit nichts Ungewöhnliches.

Die Autoren sagen auch, dass, obwohl die Schmelzwasserproduktion durch das Klima beeinflusst worden sein könnte, die Position des Gletscherrandes und das Kalben von Eisbergen im 20. Jahrhundert relativ konstant blieben.

Modelle bilden Grönland schlecht ab

Die dänischen Wissenschaftler fordern nun, dass die grönländischen Gletscher in den Klimamodellen besser berücksichtigt werden und sagen, dass die ungewöhnliche Wärme des frühen 20. Jahrhunderts mit einer komplexen Interaktion zwischen zwei großen ozeanischen Zyklen zusammenhängt: der AMO und der NAO.

Link: https://wattsupwiththat.com/2021/02/15/southeast-greenland-sea-surface-temperature-1-2c-warmer-in-1940-than-today-new-study-shows/

Übersetzt von Chris Frey EIKE

 




Modelle auf Schrottniveau: Sogar kurzfristig liegen die Klima- und Wetter-Modellierer völlig falsch

Vorhersage von TWC ist ein hoffnungsloser Fall

Es stellt sich heraus, dass sich die Modelle auf dem Niveau einer Müllhalde befinden, wenn es um die Vorhersagegüte geht. Beispielsweise hat The Weather Channel (TWC) vor noch gar nicht so langer Zeit seine Winter-Prognose bis zum März veröffentlicht:

Das Gebiet der USA, das jetzt von einer der schlimmsten Kältewellen der letzten 100 Jahre heimgesucht wird, wurde tatsächlich als „weit über normal“ oder „deutlich über normal“ prognostiziert. Bis jetzt ist genau das Gegenteil passiert. Sie haben es nicht kommen sehen.

Wir müssen uns fragen, was man heutzutage braucht, um eine Lizenz zur Wettervorhersage zu erhalten, und wir müssen Mitleid mit den Unternehmen und Industrien haben, die sich auf diese verpfuschten Vorhersagen verlassen haben.*

[Siehe hierzu die Ergänzung am Ende dieses Beitrags!]

Dennoch sind dies die Art von Vorhersagen, auf die die Politiker bestehen und daher sofortige (kostspielige) Maßnahmen ergreifen müssen und rechtfertigen.

Das El Nino-Debakel des PIK

Ein weiteres Beispiel für kurz- bis mittelfristige Vorhersagen sind die El-Niño-Ereignisse, die globale Auswirkungen haben. Die Fähigkeit, diese Ereignisse genau vorherzusagen, wäre ein sehr wertvolles Werkzeug.

Und vor nicht allzu langer Zeit behauptete das Potsdam-Institut für Klimafolgenforschung (PIK) in Deutschland, ein Modell entwickelt zu haben, das diese Ereignisse mit einer Wahrscheinlichkeit von 80% vorhersagen kann. In einer PIK-Pressemitteilung vom November 2019 rühmte sich das renommierte Forscherteam, ein neues, weitaus besseres Modell entwickelt zu haben, das in der Lage sei, ein El-Niño-Ereignis Ende 2020 ein Jahr im Voraus zu prognostizieren.

Jetzt, im Februar 2021, sind die Ergebnisse da und sie sind vernichtend: Die äquatoriale Pazifikregion 3.4 befindet sich in der Nähe von La-Nina-Bedingungen, also im völligen Widerspruch zu den warmen Prognosen des Potsdam-Instituts. Das „bahnbrechende“ PIK-Modell, das zum Teil von Prof. Hans-Joachim Schellnhuber entwickelt wurde, ist ein kompletter Fehlschlag und völlig falsch:

Die obige ECMWF-Grafik zeigt ENSO-Prognosen für den Zeitraum Juli 2020 bis Januar 2021 (viele dünne rote Linien) im Vergleich zu gemessenen SSTA im Nino-Gebiet 3.4 (blaue gestrichelte Linie).

Die ECMWF-Prognosen waren im Durchschnitt etwa ein Grad Celsius zu warm. Seit August 2020 gibt es La-Niña-Bedingungen mit Messwerten von -0,5°C Abweichung und kälter.

Müll-Modelle

„Das ‚bahnbrechende‘ PIK-Modell produzierte Modellmüll und brachte die deutsche ‚Klimawissenschaft‘ weltweit in Verruf. Zudem sieht es derzeit so aus, als wolle uns die kalte La Niña bis 2022 weiter abkühlen“, berichtet Schneefan hier [in deutscher Sprache]

Link: https://notrickszone.com/2021/02/19/junk-grade-models-even-short-term-climate-and-weather-modelers-get-it-all-wrong/

Übersetzt von Chris Frey EIKE

—————————–

Hier folgen jetzt noch ein paar Anmerkungen zum Thema Wettervorhersage/-prognose von einem Fachmann mit über 40 Jahren Erfahrung in diesem Bereich:

Ergänzung: Allgemeine Bemerkungen zu Vorhersagen und Prognosen

Dipl.-Met. Christian Freuer

Jeder erfahrene Synoptiker kann ohne weiteres allein aufgrund der aktuellen Meldungen (Boden-Wettermeldungen, Satellit, Radar, …) ziemlich exakte Prognosen für den aktuellen und immer noch recht genaue Prognosen für ein bis zwei Tage im Voraus erstellen. Für erwartete Tendenzen sind Modelle jedoch dienlich, wobei der Grenze zwischen „raten“ und „vorhersagen/prognostizieren“ immer mehr verschwimmt, je weiter man in die Zukunft schaut. Wenn man das als geschätztes Verhältnis ausdrückt, kommt man nach 72 Stunden (3 Tage) zu einem Verhältnis von etwa 70 zu 30, das ist schon eine recht große Unsicherheit. Nach 168 Stunden (7 Tage) schätzt der Autor dieses Verhältnis umgekehrt, also etwa auf 30 (Vorhersage) bis 70 (raten). Das variiert jedoch auch stark.

Hier hat der Autor schon ausführlicher zu diesem Problem Stellung genommen. Siehe am Ende jenes Beitrags.

Fazit: nach 7 Tagen (!) bleibt nur noch raten – da kann man sich leicht ausrechnen, wie die Prognosegüte nach 7 Jahren, um nicht zu sagen 70 Jahren aussieht – also bis etwa zum Ende dieses Jahrhunderts.

Außerdem ist es ein großer Unterschied, wie groß das Gebiet ist, für das man eine Prognose erstellen will. Ob es in Mitteleuropa (oder in den USA wie im obigen Beitrag) während der nächsten 7 Tage eine Witterungs-Änderung (nicht Wetter-Änderung!) gibt, ist noch ziemlich gut anhand von Modellsimulationen abzuschätzen (also im „large scale“). Je kleiner jedoch das Gebiet gemacht wird, umso mehr verkürzt sich der Zeitraum für halbwegs zuverlässige Prognosen. Ist das Gebiet sehr kleinräumig (im „meso-/small scale“), ist u. U. schon nach wenigen Stunden keine exakte Prognose mehr möglich. Jeder Prognostiker, der z. B. an einem heißen Sommertag morgens für den Nachmittag teils schwere Gewitter prognostizieren muss, kann davon ein Lied singen. Man weiß, dass es irgendwo in Süddeutschland zu solchen Ereignissen kommen wird, aber wo genau?

Sehr erfahrene Prognostiker können das aber anhand aktueller Meldungen tatsächlich mit einer gewissen Wahrscheinlichkeit über 50% abschätzen (Wahrscheinlichkeit ≤50% = raten). Dabei geht es darum, möglichst genau den Ort des ersten Auftretens einer solchen Entwicklung zu erkennen. Wenn die ersten Gewitter erst einmal entstanden sind, wird die Abschätzung der Verlagerung derselben wieder etwas einfacher.

Nun wird es auch in der numerischen Simulation kleinräumiger Starkniederschläge sicher noch Fortschritte geben. Der Autor ist vor 7 Jahren aus dem operationellen Dienst ausgeschieden und hat Weiterentwicklungen in diesem Bereich seitdem nicht mehr verfolgt.

Aber zurück zum Thema. Jahreszeiten-Prognosen sind derzeit nicht möglich und werden es nach Einschätzung des Autors auch nie sein. Das gilt zumindest für den numerischen Ansatz. Anders sieht es aus, wenn man statistische Verfahren zugrunde legt. Hierzu haben Kämpfe et al. schon viele Beiträge auf diesem Blog veröffentlicht, wobei gar nicht genug gewürdigt werden kann, wie Kämpfe et al. die Abschätzungen im Nachhinein auswerten wie zuletzt bzgl. des Winters 2019/2020 hier. Das werden sie sicher auch nach diesem Winter wieder tun.

Merke: Je kleiner das Gebiet, für das man eine Prognose erstellt, und je länger im Voraus eine solche erstellt wird, umso größer wird die Unsicherheit!

Und: Zumindest für den Kurzfristzeitraum gilt (im wörtlichen und übertragenen Sinne), was man sich heute fast schon abgewöhnt hat: Man sollte auch mal aus dem Fenster schauen! Draußen ist das Wetter, nicht im Bildschirm!

 




Virologin: Klimawandel erzeugt Pandemien – durch Waldzerstörung, statt Waldvermehrung

Die drei erwähnten Forscher vom Potsdam-Institut für Klimaforschungsfolgen PIK, der Uni Cambridge und Hawaii-Monoa meinten, daß der Lebensraum von Fledermäusen und Gürteltieren wegen der Erderwärmung größer geworden sei, und damit auch ihre Vielfalt und Virenlast gestiegen sei.

Sandra Junglen, Virologin aus dem Institut von Christian Drosten an der Berliner Charité, die über Arboviren forscht, meint nun im Interview mit der Zeit, daß die Abnahme von Lebensraum und Artenvielfalt der Grund für erhöhte Virengefahr sei.

Wer Pandemien verhindern will, muß ursprüngliche Ökosysteme wie den Regenwald erhalten, denn die Zerstörung von Ökosystemen und der damit einhergehende Verlust der Artenvielfalt begünstigen neuartige Infektionserkrankungen.

Also genau andersherum wie bei den Kollegen ein paar Tage zuvor. Was stimmt denn nun? Mehr Natur = Pandemie, oder weniger Natur = Pandemie? Man fühlt sich an die Aussagen von Latif, Rahmstorf & Co. erinnert, nach denen so ziemlich jede Wetterlage, superkalt wie sehr heiß, ein glasklares Anzeichen für den menschgemachten Klimawandel sei.

Das Verquicken zweier Mode-Themen in den Wissenschaften ist meist glasklares Anzeichen für Pseudowissenschaft, die sich an die politisch erwünschte Erzählung hängt, um an Forschungsmittel zu kommen. Soziologen nutzen seit langem den sogenannten „Intersektionalismus“ (die Schnittmengenbildung), um neue Forschungsthemen zu generieren.

Die Arboviren von Frau Junglen sind übrigens typisch für Insekten und andere Gliederfüßer (Arthropoden, z.B. Tausendfüßer, Spinnen, Silberfische, Krebse…) und gar nicht einmal unprominent: Gelb-, das West-Nil- und das Dengue- Fieber gehören zu den schweren Erkrankungen, die von Arboviren verursacht werden.

Wie schätzt die Virologin das Risiko einer neuen Pandemie ein?

In exakten Zahlen lässt sich das nicht ausdrücken. Aber natürlich ist es sehr hoch, und es ist in den vergangenen Jahren gestiegen. Über eine Million Tierarten ist vom Aussterben bedroht und das Aussterben einzelner Arten führt wiederum dazu, dass andere Arten als Folge aussterben und sich der Prozeß dadurch noch weiter beschleunigt. Der Klimawandel ist längst spürbar, und auch die durch ihn verursachten Veränderungen der Landschaft können zur Entstehung neuer Pandemien beitragen.

Pikanterweise erwähnt sie sogar die oben genannten Kollegen, thematisiert den Widerspruch aber nicht.




Klima-Versammlungen: Fake-Demokratie

Das bedeutet, dass es kein demokratisches Mandat dafür gibt, jede Regierungsentscheidung unter dem Aspekt des Klimas zu betrachten. Es gibt kein demokratisches Mandat dafür, Klimabelange zum Maßstab zu machen, nach dem alles in der Gesellschaft beurteilt, für mangelhaft befunden und dann zur Einhaltung gezwungen wird.

Gewählte Politiker sollten vermeintlich der Mechanismus sein, durch den die einfachen Menschen Einfluss auf die Regierungspolitik nehmen. Aber in den letzten Jahren haben die Politiker des gesamten politischen Spektrums den Faden verloren.

Die Stimme der menschlichen Wähler zu sein, die um Arbeitsplätze, sichere Wohnungen und gute Schulen kämpfen, ist so passé. Die selbsternannten und selbstbestimmten* Politiker haben beschlossen, dass ihre übergeordnete Verantwortung die Rettung des Planeten ist.

[*Unübersetzbares Wortspiel: Self-appointed and self anointed]

Aber diese Lockvogeltaktik ist nicht in Ordnung. Es ist nichts Bewundernswertes daran, den Wählern zu versprechen, ihr Leben zu verbessern, und sie dann zu verschaukeln, damit die Journalisten Sie als „Klima-Führer“ bezeichnen.

Die riesige Kluft zwischen dem, was die Menschen auf der Straße für wichtig halten, und dem, worüber die politische Klasse reden will, ist real. Sie hat sich über Jahrzehnte entwickelt und wird auch nicht verschwinden. Die Politiker haben daher das Bedürfnis, den Anschein öffentlicher Unterstützung für die drastischen Maßnahmen zu erwecken, auf denen ihre Träume von drastischer Emissionsreduktion beruhen.

In einem neu veröffentlichten Bericht mit dem Titel The UK Climate Assembly: Manufacturing Mandates erklärt Ben Pile, wie das funktioniert. 108 Mitglieder der Öffentlichkeit wurden rekrutiert, um an einem Konsultationsprozess teilzunehmen. Die absurde Prämisse scheint gewesen zu sein, dass in einer Nation mit 67 Millionen Menschen die Unterstützung einer Kerngruppe von 108 Personen ausreicht, um Regierungsmaßnahmen zu rechtfertigen.

Der Konsultationsprozess sollte ursprünglich vier Wochenenden umfassen, wurde aber wegen der Pandemie verlängert. Das ist ein weiteres Warnsignal. Menschen, die in der Lage und bereit sind, vier Wochenenden ihrer Zeit zu opfern, sind ungewöhnlich. Diese 108 Personen waren keineswegs eine Zufallsstichprobe der britischen Bürger.

Außerdem waren alle wichtigen Entscheidungen vorherbestimmt. Es gab keine Debatte darüber, ob der Klimawandel die Agenda der Regierung dominieren sollte. Das wurde einfach als gegeben hingenommen.

Es gab keine Debatte darüber, ob die Pläne der Regierung, „alle Sektoren der Wirtschaft und Gesellschaft“ dazu zu zwingen, bis zum Jahr 2050 Netto-Null-Emissionen zu erreichen, sinnvoll, machbar oder realistisch sind. Auch das wurde als selbstverständlich hingenommen.

Angepriesen als Gelegenheit, mit der Öffentlichkeit zu arbeiten, die Öffentlichkeit einzubeziehen und den Menschen ein Mitspracherecht bei der Gestaltung der Zukunft zu geben, war die Klima-Versammlung das Äquivalent dazu, 108 Menschen zu fragen, auf welchem Farbteller sie ihre Ration Brot und Wasser serviert haben möchten.

Das war vorgetäuschte Demokratie. Es war absoluter Fake.

Download Pile’s important report here

Link: https://nofrakkingconsensus.com/2021/02/08/climate-assemblies-faking-democracy/

Zu diesem Beitrag hat Donna Laframboise noch eine Ergänzung verfasst, die hier im Anschluss folgt:

9% Zustimmung: also machen wir es zur Politik der Regierung

<b>Donna Laframboise</b>
Strippenzieher der Klimaille machten „weniger Fleisch“ zu einem Schlüsselfaktor der Politik – trotz einer nur sehr geringen Zustimmung der Bevölkerung.

Es gibt eine seltsame neue Schöpfung da draußen. Bekannt als UK-Klimaversammlung [Climate Assembly], ist es eine aufwendige Fälschung – ein Prozess, bei dem Politiker, Bürokraten und Aktivisten versuchen, jeden zu überzeugen, dass die Öffentlichkeit drakonische Klimamaßnahmen unterstützt (siehe meinen Beitrag oben).

Ben Pile, der Autor eines Berichts über die jüngste Klimaversammlung in Großbritannien, hat das obige 8-minütige Video produziert. Er erklärt, dass die Klimaversammlung in kleinere Gruppen aufgeteilt wurde, als der Fleischkonsum diskutiert wurde. Nur 35 Personen – und nicht die volle Anzahl von 108 – befassten sich mit diesem Thema.

Diese 35 Personen hörten sich einseitige Präsentationen darüber an, dass rotes Fleisch nicht nur schlecht für die Gesundheit, sondern auch schlecht für den Planeten ist. Bei 2:42 Minuten im Video hören Sie, wie die Wissenschaftlerin Rosie Green, die sich auf „nachhaltige Ernährung“ spezialisiert hat, sie berät:

Wir wissen, dass rotes und verarbeitetes Fleisch mit einer Reihe von Gesundheitszuständen in Verbindung gebracht wird. So ist es mit Herzkrankheiten verbunden, es ist mit Schlaganfällen verbunden, es ist mit bestimmten Arten von Krebs verbunden, wie Darmkrebs, und es ist auch mit Diabetes verbunden.“

Given this tepid level of support it’s astonishing to read, on page 20 of the massive final report, that eating less meat is a Climate Assembly “key recommendation.” It’s astonishing to further read:

Später wurden diese 35 Personen gebeten, vier Ideen (aus einer längeren Liste) auszuwählen, von denen sie dachten, dass die Regierung sie „berücksichtigen“ sollte, wenn sie „Entscheidungen über Lebensmittel, Landwirtschaft und Landnutzung trifft.“ Weniger Fleisch zu essen war keine beliebte Wahl. Nur 29% stimmten dafür. Das bedeutet, dass es nur von 10 dieser 35 Personen unterstützt wurde.

Um es noch einmal zu wiederholen: Die meisten der 108 Mitglieder der Klimaversammlung wurden nicht zum Thema Fleischkonsum befragt. Zwei Drittel derjenigen, die gefragt wurden (25 von 35 Personen), unterstützten eine Reduzierung des Fleischkonsums als Mittel zur Bekämpfung des Klimawandels nicht. Nur 10 Personen taten dies – das sind gerade einmal 9% aller Mitglieder der Klimaversammlung.

[Hervorhebung im Original]

Angesichts dieser lauwarmen Unterstützung ist es erstaunlich, auf Seite 20 des umfangreichen Abschlussberichts zu lesen, dass weniger Fleisch zu essen eine „Schlüsselempfehlung“ der Klimaversammlung ist. Es ist noch erstaunlicher weiter zu lesen:

Die Mitglieder der Versammlung empfahlen…eine Änderung der Ernährung, um den Fleisch- und Milchkonsum um 20 bis 40 % zu reduzieren – die Versammlung betonte die Bedeutung der Bildung und sagte, dass diese Änderungen freiwillig und nicht zwingend sein sollten.

Wie bitte? Wie können 25 Personen, die nicht für weniger Fleisch sind, gegenüber 10 Personen, die dafür sind, zu einer allgemeinen Empfehlung führen, den Milch- und Käsekonsum fast zu halbieren?

Es wird noch schlimmer, denn Verzerrungen haben die Angewohnheit, immer verzerrter zu werden, und Übertreibungen werden immer übertriebener. Bei der 4:45-Minuten-Marke im Video erklärt Mike Thompson, ein Beamter des britischen Ausschusses für Klimawandel, schamlos:

Wow. Just wow. Does climate change render us incapable of distinguishing truth from lies?

Die Klimaversammlung sagte, dass sie mit einer 20- bis 40-prozentigen Reduktion des Fleischkonsums zufrieden wäre. Wir haben uns die Empfehlungen der Klimaversammlung sehr genau angeschaut… Falls man sich die Zeit nimmt, die Leute anzuleiten, ihnen zu erklären, warum die Veränderungen notwendig sind und was alles passieren muss, sind sie wirklich bereit zu handeln. (Fettdruck hinzugefügt)

Wow. Einfach nur wow. Macht uns der Klimawandel unfähig, die Wahrheit von der Lüge zu unterscheiden?

Link: https://nofrakkingconsensus.com/2021/02/10/9-support-lets-make-it-government-policy/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Dies ist sicher nur ein kleiner Teilaspekt, der jedoch zeigt, wie die Klimaille wirklich tickt. Nach Ansicht des Übersetzers kann man das gar nicht oft genug darlegen!

 




Sebastian Lüning im Bundestags-Ausschuß: Debatte zur CO2-Bepreisung

Ausschnitte eines Öffentlichen Fachgespräches zum Thema „CO2-Bepreisung“ aus dem Deutschen Bundestag am 3. April 2019. Der Geowissenschaftler Dr. Sebastian Lüning wirbt in seinem Redebeitrag sowie in den nachfolgenden zwei Fragerunden für mehr Realismus in der Klimadebatte. Zudem erinnert er daran, dass neben der ökologischen auch die soziale und wirtschaftliche Nachhaltigkeit berücksichtigt werden sollten. 

Original-Quelle des Videos: Deutscher Bundestag, https://www.bundestag.de/ausschuesse/… Dr. Lüning ist Mitautor des Buches „Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten“: https://www.amazon.de/gp/product/3784…




Die politische Ökonomie von Massenhysterie und Panik

Das optimale Risikoniveau ist niemals null. Sonst würde morgens niemand aufstehen. Aber selbst im Bett zu bleiben ist riskant (Menschen sterben im Schlaf). Wenn man von zu Hause zur Arbeit fahren, ist das Risiko zu sterben ungleich Null. Wenn man von New York nach Los Angeles fliegt, ist das Risiko zu sterben ungleich Null. Wenn man eine verkehrsreiche Straße überquert, ist das Sterberisiko ungleich Null. Wenn man mit dem Fahrrad fährt, ist das Risiko zu sterben nicht Null.

Warum verhalten sich dann die meisten von uns in solchen Situationen so, als wäre das Risiko tatsächlich gleich Null? Die Antwort ist, weil es so gering ist, dass wir uns praktisch so verhalten können, falls es Null wäre, obwohl wir wissen, dass es das theoretisch nicht ist. Schließlich sterben jeden Tag Menschen bei Autounfällen und als Fußgänger, sie sterben auch, wenn auch viel seltener, bei Flugzeugunfällen, und einige von ihnen (Hunderte) kommen sogar jedes Jahr durch Blitzschlag ums Leben!

In den USA sterben jährlich sieben Menschen an der Beulenpest!

Dennoch haben wir nicht jeden Tag Angst davor, aus dem Haus zu gehen, weil wir von einem Auto oder einem Blitz getroffen werden könnten oder vom Fahrrad fallen und an einer Gehirnerschütterung sterben oder wie die Europäer des 14. Jahrhunderts enden, dezimiert durch die Pest. In den meisten alltäglichen Situationen sind Individuen gut darin, das Risikoniveau ihres eigenen Verhaltens zu managen.

Es ist jedoch viel interessanter zu untersuchen, was passiert, wenn das Risiko unklar ist, wenn die Informationen über relevante Umstände, die das Risikoniveau beeinflussen, höchst unsicher und unvollständig oder zumindest komplizierter einzuschätzen sind. In diesen Situationen neigt die menschliche Gesellschaft, besonders wenn die Politik ins Spiel kommt – und diese Politik ist eine demokratische -, fast wie von selbst dazu, schreckliche und selbstzerstörerische Entscheidungen zu treffen, die allesamt irrationale Panik und übermäßige Risikoaversion erzeugen und aufrechterhalten.

Die Menschen verhalten sich übermäßig ängstlich und tun viele dumme und irrationale Dinge, um die unnötige Angst, die sie empfinden, zu lindern. Es gibt mehrere psychologische und politische Mechanismen, die diese Dynamik erzeugen, die man als „die politische Ökonomie von Hysterie und Panik“ beschreiben könnte. Sie beinhaltet psychologische Mechanismen der Verzerrung durch Informations-Verfügbarkeit, der Handlungsverzerrung, der Broken-Window-Illusion sowie die weit verbreitete ethische Sichtweise des pathologischen Altruismus und die politische Dynamik der demokratischen Kurzsichtigkeit. All diese Faktoren verschwören sich oft auf unheilvolle Weise, um eine hysterische und irrationale Geisteshaltung gegenüber Risiken zu erzeugen, die zu äußerst irrationalen Entscheidungen führt.

[Alle Hervorhebungen im Original]

Beginnen wir mit der Verzerrung durch Informations-Verfügbarkeit. Sie kennen wahrscheinlich die Meinungsumfragen, die besagen, dass sich das Klima schneller verändert als je zuvor in der Geschichte und dass Naturkatastrophen stärker und häufiger werden; dass wir mehr Hurrikane, Dürren, Überschwemmungen und Erdbeben haben. Vielleicht gehören Sie selbst zu den Menschen, die das glauben. Doch es ist nicht wahr. Alle Berichte, die vom UN Intergovernmental Panel on Climate Change (IPCC) und anderen „wissenschaftlichen“ Organisationen zusammengestellt wurden zeigen, dass die meisten Naturkatastrophen nicht stärker werden und teilweise sogar an Intensität abnehmen.

Warum glauben dann allzu viele Menschen genau das Gegenteil? Die Antwort ist, dass die Medien die Geschichten über Katastrophen jeden Tag obsessiv aufblähen und übertreiben. Im Zeitalter von Satellitenfernsehen und Internet gibt es kein globales Unglück oder keine Katastrophe, die nicht sofort für jeden sichtbar gemacht wird, der Zugang zu moderner Technik hat – Hurrikane, Erdbeben, Waldbrand – alles wird sofort gesendet und immer von dramatischen, oft katastrophalen Hiobsbotschaften und Bildern begleitet.

Vor hundert Jahren wäre ein großer Hurrikan in Florida in den Nachrichten auf Seite 2 oder 3 der New York Times zu finden gewesen – das wäre alles gewesen. Die Menschen in der direkt betroffenen Region würden leiden und darüber nachdenken, der Rest des Landes und der Welt würde einfach mit ihrem Leben weitermachen, als ob nichts passiert wäre. Wenn heute ein großer Hurrikan Florida bedroht, verfolgen die Meteorologen im Fernsehen zuerst fünf Tage im Voraus seine Verstärkung, Änderungen in seiner Bahn, Kategorisierungen (Kategorie 5, habt Angst, habt große Angst), alles gefolgt von den beängstigenden (Satelliten-!) Bildern des Auges des Sturms, und tun ihr Bestes, um alle in Angst und Schrecken zu versetzen.

Man kann heutzutage den Fernseher oder sogar soziale Netzwerke nicht einschalten, ohne mit der Angstmacherei über den Hurrikan bombardiert zu werden. Gouverneure und lokale Bürgermeister würden tagelang vor dem Hurrikan zur Freude der Medien alle evakuieren, was die Panik weiter anheizen würde. Die Medien würden eine Woche lang über kaum etwas anderes reden. Wenn der Sturm schließlich zuschlägt, würde Chris Cuomo von CNN im Regen stehen, um zu demonstrieren, wie zäh er ist und auch, wie beängstigend der Sturm ist. Das Gleiche gilt in unterschiedlichem Ausmaß für jede andere Katastrophe in jedem anderen Land: Sie wird sofort zu einer großen Nachricht und bleibt es für eine lange Zeit.

Es sollte also niemenden schockieren, dass die meisten Menschen denken, Katastrophen wie Hurrikane würden viel häufiger vorkommen und schlimmer werden als es tatsächlich der Fall ist. Es ist eine bekannte kognitive Illusion, für die jeder anfällig ist, Dinge, die direkt sichtbar und beobachtbar sind, für häufiger und in gewissem Sinne für realer zu halten als solche, die man weniger oft sieht. […]

Conclusion

Die durch Massenhysterie und Panik gekennzeichneten Situationen des kollektiven Wahnsinns sind in einer demokratischen Gesellschaft kaum vernünftig zu handhaben. Eine positive Rückkopplungsschleife zwischen der medialen „Berichterstattung“ über reale oder eingebildete Katastrophen, dem Gefühl des Schreckens, der Panik und dem Drang der Öffentlichkeit, etwas zu tun, und der Reaktion der Politiker, diese kollektive Forderung nach rituellem Handeln zu befriedigen, machen einen ruhigen und rationalen Umgang mit der Situation nahezu unmöglich.

Die Forderung nach Handeln erzeugt den Druck, nicht als schwach und unentschlossen seitens der Politiker wahrgenommen zu werden, während die Informationsasymmetrie zwischen den sichtbaren, konzentrierten und identifizierbaren Vorteilen des „Handelns“ und den verzögerten, spekulativen und stärker verteilten Kosten des Handelns eine irrationale und ineffektive, aber ritualisierte Politik viel wahrscheinlicher macht. Die Maßnahmen, die zur Bewältigung der Covid-19-Pandemie ergriffen wurden, veranschaulichen diese Wahrheiten sehr schmerzhaft.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/the-political-economy-of-mass-hysteria-panic/

Übersetzt von Chris Frey EIKE

 




„Quarks“: So hängen Kälte und Klimawandel zusammen!

So hängen Kälte und Klimawandel zusammen: Knackige Kälte ist nix Neues. Aber Forschende vermuten, dass uns Ausläufer der polaren Kaltluft durch den Klimawandel häufiger erreichen. Brrrr!Hier ist das Video von Quarks, das die Paradoxie erklärt.

Klingt nicht unvernünftig, aber wird die Arktis wirklich schneller heiß als der Rest?

Klimareporter: Globaler Klimabericht von Nasa und NOAA
19. Januar 2020
Europa erwärmt sich besonders schnell

CleanEnergy Project
Klimawandel
Deutschland erwärmt sich schneller als der Rest der Welt
9. März 2016, Tobias Hartmann

www.daswetter.com, 07 Okt 2020, Studie: Die Nächte erwärmen sich schneller als die Tage!

Welt: Nordsee erwärmt sich doppelt so schnell wie Ozeane
Veröffentlicht am 09.09.2017

Wie heute nicht selten, sind die Kommentare der Leser und Zuseher interessanter als die Desinformation von ARD, ZDF, Spiegel & Co. Ein paar Kostproben:

So ein Mist. Ich hab mich schon echt auf den Klimawandel und die Erderwärmung gefreut. Brauch ich dich dann keine fossilen Brennstoffe mehr , um meine Bude zu heizten. Dss ist doch, es die Grünen Weltretter wollen. Und jetzt wirkt CO2 so schnell? Echter Mist.
Krass! Auch bei diesem Thema genauso viele Experten wie bei Corona! Wo haben die im Studium nur alle neben mir gesessen? Da muss ich mal ganz scharf nachdenken..
Klar ist nun der Klimawandel für die Kälte wieder verantwortlich. Die Forscher wollen uns nun wirklich immer für dumm verkaufen. Ob zu warm oder zu kalt immer ist es der Klimawandel. Ich als 72 Jähriger habe in meiner Jugendzeit schon mehrmals gefrorene Seen und Kälte erlebt aber da hat keine Mensch von einem Klimawandel geredet es war einfach normal. Hört endlich auf mit diesem Blödsinn auf und lasst die Natur machen.
Jo, und der Mensch muss sich anpassen, so oder so. Deswegen kaufen sich ja schon immer mehr schwere Geländewagen, dann ist man auf die kommenden harten Winter besser eingestellt. ? Und bald müssen wir dann auch im Flachland Schneeketten aufziehen.
Wie erklärt Quarks denn 1978/79? Oder ein paar andere ähnliche Wetterverläufe…
Meteorologen erklären das mit ähnlichen Grosswetterlagen…
und Klimaforscher wären gut beraten, da besser zuzuhören…
Alles was von einer menschengemachten Norm abweicht wird dem Klimawandel zugeschoben.
Nun zeigt der Planet dass er in Europa auch mal kalt kann ist den Forschern und den Medien wieder nicht recht.
Ja, ja, der Klimawandel soll jetzt auch noch dafür verantwortlich sein. Das wird doch gerade auch so hingedreht wie es gerade passt. Letztes Jahr war es im Winter viel zu warm -> ganz klar, der Klimawandel. Dieses Jahr wird es wohl mal wieder insgesamt ein bisschen zu kalt -> ganz klar, der Klimawandel. Diese ganzen Theorien zu den Wetterereignissen (!) sind doch nur Vermutungen der Forscher. Nicht falsch verstehen, der Klimawandel ist real, und in den Klimadiagrammen inzwischen auch deutlich sichtbar, aber jedes Wetterphänomen, das alle paar Schaltjahre mal auftaucht damit erklären zu wollen ist Unsinn, denn dazu ist das Wettergeschehen viel zu komplex

Quarks ist nicht unbekannt dafür, die Interessen von mächtigen Lobbygruppen zu promovieren, beziehungsweise deren Kritiker äußerst geschickt zu diffamieren. Gunnar Kaiser hat die Taktik der neuen Moderatorin Mai von Mailab präzise analysiert:

 

 




Ein neues Buch des Analysten Andy May: „Politics & Climate Science – A HISTORY“ – Eine Rezension

William Happer, the Princeton Cyrus Fogg Brackett Professor of Physics, emeritus
„Andy Mays Buch „ Politics and Climate Change, a History“ sollte Pflichtlektüre für jeden nachdenklichen Amerikaner sein, der das Beste für unser Land will. Die neue Biden-Administration hat den Klimawandel-Alarmismus zu einem wichtigen Teil ihrer Agenda gemacht. Dieses wunderbar recherchierte Buch verdeutlicht die schmutzige Realität des Klimawandel-Establishments, mit seinen machtgierigen Politikern, gierigen ‚Non-Profit-Organisationen‘ wie Greenpeace und beklagenswert falsch informierten Horden von wahren Gläubigen. Es gibt auch charmante Skizzen von vielen ehrlichen Wissenschaftlern, von Tyndall bis Revelle, die wichtige Beiträge zu unserem heutigen Verständnis des Klimas geleistet haben. Die Diskussionen über die Klimawissenschaft selbst sind im Allgemeinen genau, gut illustriert und kurz.“

Professor Frank Hansen, emeritus, Copenhagen University, Math and Physics:
„Das Einzige, was kristallklar wird, ist, dass die Wissenschaft nicht settled ist und die Debatte nicht vorbei ist.“

Politics and Climate Change: A History

Hier ist die Geschichte der politischen Korruption der Wissenschaft. Politiker kontrollieren heute die wissenschaftliche Forschung und Forschungsergebnisse. Sie finanzieren Projekte, die nach möglichen Katastrophen suchen. Wissenschaftler haben sich von der Hilfe für die Menschen zu Plots für Katastrophenfilme entwickelt.

Link: https://andymaypetrophysicist.com/

Auf dem Blog der Wissenschaftler-Gruppe um CLINTEL, von der auf diesem Blog auch schon die Rede war, findet sich eine sehr ausführliche Rezension, von der hier aber nur das Abstract übersetzt wird. Autor dieser Rezension ist Patrice Poyet:

Abstract der Rezension:
Dieses Buch ist ein Muss für jeden, der sich für die Geschichte dessen interessiert, was man Klimawissenschaft nennt, und für die Menschen, die dazu beigetragen haben, die vorherrschenden Gedanken unserer Zeit zu formen. Es beschreibt auch, wie die Machtkämpfe der verschiedenen einflussreichen Gruppen bestimmt haben, wo wir heute stehen.

Obwohl sich das Buch auf die Menschen konzentriert, die das bewirkt haben, versäumt es nicht, uns wann immer nötig an die zugrunde liegenden wissenschaftlichen Erkenntnisse und Überlegungen zu erinnern, die bei rationalen Analysen und Entscheidungen in Klimaangelegenheiten vorherrschen – oder vielmehr vorherrschen sollten. Andy May zeigt auch das beträchtliche Maß an Ungewissheit auf, das nach 40 Jahren intensiver Forschung immer noch besteht, und räumt ein, dass einige Schlüsselvariablen für das Verständnis des Klimasystems heute leider nicht besser bekannt sind als vor 40 Jahren.

Die Wissenschaft ist wichtig, aber in der Historie geht es um Menschen, die etwas bewirken, und genau darum geht es in diesem ausgezeichneten Buch. Die Rolle all derer, die wichtige Beiträge leisteten, wird erzählt, die Wissenschaftler natürlich, aber vielleicht noch wichtiger, wie viele andere Akteure ins Spiel kamen. Das Buch endet mit einer Reflexion über die weitsichtige Analyse von Dwight D. Eisenhower, der voraussah, dass die öffentliche Politik zum Gefangenen einer wissenschaftlich-technologischen Elite geworden ist, die von der Finanzierung durch Bürokraten und Politiker kontrolliert wird. Andy May gibt einen faszinierenden Bericht über diesen wichtigen Teil der menschlichen Geschichte, der zweifellos die Zukunft unserer Zivilisationen prägen wird, und das nicht unbedingt zu dem größeren Wohl wie es seitens der Mächtigen kolportiert wird.

Das Buch besteht aus 8 Kapiteln, die in dieser Rezension alle ausführlich zusammen gefasst werden. Sie haben die folgenden Überschriften. Aus Zeitgründen wird hier auf deren Übersetzung verzichtet, aber es lohnt sich, hinein zu schauen. Für des Englischen nicht so mächtige Leser kann eine Übersetzungsmaschine (z. B. Linguee) gute Dienste leisten. – A. d. Übers.

Chapter 1: Politicians and Climate Change
Chapter 2: The News Media and Climate Change
Chapter 3: Non-profits and Climate Change
Chapter 4: Bureaucrats and Climate Change
Chapter 5: Lawsuits and Climate Change
Chapter 6: Facts and Theories
Chapter 7: The Beginning
Chapter 8: How much government involvement in research?
Politics & Climate Science – A HISTORY” by Andy May
Published by American Freedom Publications LLC, First Edition – October 31, 2020, respectively 978-1-63625-261-2
Hardback, 978-1-63625-262-9 Paperback, 978-1-63625-263-6 eBook Version, 342 pp.

Available at Amazon.com & Barnes and Noble

Patrice Poyet, Author of “The Rational Climate e-Book bei: https://patricepoyet.org

Also by Andy May: Climate Catastrophe! Science or Science Fiction?

Link: https://clintel.org/a-review-of-politics-climate-science-a-history-andy-mays-new-book/

Übersetzt und zusammengestellt von Chris Frey EIKE

 




Elektroautos als Gewinnbringer? Elon Musk verdient nur mit CO2-Zertifikaten

Was sind eigentlich CO2-Zertifikate? Es handelt sich um Verschmutzungsrechte, die jemand verkaufen darf, wenn er ohne Kohlendioxid produziert oder mit wenig. So fahren die ICE der Bundesbahn „CO2-frei“, weil sie Zertifikate eines norwegischen Wasserkraftwerks kaufen.

Das Ganze ist zwar Unfug, weil so ein Wasserwerk noch nie emittierte, aber ein prima Mittel, um boden-lose Geschäfte zu machen, wie immer im klimapolitischen Komplex.

Da Elon Musk weniger Autos verkauft als Lada und seine SpaceX-Raketen kein Massenprodukt sind, fragt sich der Bürger, wieso der Mann weit über 100 Milliarden Dollar sein eigen nennen kann. Die Lösung: Tesla besitzt sehr viele CO2-Zertifikate und verkauft diese an General Motors und Fiat Chrysler. Warum kaufen diese Firmen bei Tesla? Nicht aus realwirtschaftlichen Gründen, sondern weil die grüne Politik Nordamerikas und Europas sie dazu zwingt, Stichwort Strafzahlungen.

Da die Zertifikate keinen Festpreis haben, sondern ähnlich wie Aktien gehandelt werden, erntsteht da eine richtig schöne kapitalistische Finanzblase, die denen, die sowieso schon viel mehr Geld haben, als sie und ihre Nachfahren in 30. Generation verpulvern können, noch mehr Reichtum beschafft. Es entsteht nicht nur eine Besitz-, sondern auch eine höchst gefährliche Machtkonzentration, die Johannes Eisleben auf der Achse eindrücklich beschrieben hat. Zitat:

Missbrauch des Gewaltmonopols ist immer an Eigentumskonzentration gebunden. Im extremsten Fall ist das Eigentum nahezu vollständig in den Händen des Herrschers konzentriert, der in traditionellen Gesellschaften dann den Status eines Gottes erhält. In Gesellschaften mit moderater Eigentumskonzentration ist die Tendenz zum Machtmissbrauch schwächer.




Der Flaute-Winter 2021: Wenig Wind – warum?

Alle drei Wintermonate 2020/21 verliefen windschwach

Mangels geeigneter Winddaten (DWD-Flächenmittel gibt es monatsweise leider nur für Lufttemperaturen, Sonnenscheindauer und Niederschlagsmenge) lassen die Ergebnisse der deutschen Stromerzeugung gewisse Rückschlüsse auf die Windstärke zu, denn Deutschland möchte ja am liebsten ganz auf Fossile und Kernenergie verzichten, und hat in den letzten 30 Jahren den Ausbau der Windenergie massiv vorangetrieben – doch wenn der Wind einschläft, zeigt sich das ganze Dilemma der Deutschen Energiewende:

Abbildungen 1a bis c: Das hatte sich die Politik anders vorgestellt – Wind (hell blau-grau) und Sonne (kaum sichtbare, gelbliche Spitzen) sollten doch längst den meisten Strom erzeugen – aber das Wetter spielt nicht mit. Weder im Dezember 2020 (oben, 1a) noch im Januar 2021 (Mitte), noch im Februar 2021 (bis Monatsmitte vorliegend, unten) wehte über längere Zeiträume ausreichend Wind, der meist bloß kümmerliche 1 bis 15% des Stroms lieferte, selten mal deutlich über 20%. Da hätten auch doppelt so viele Windräder nicht geholfen – es fehlte an Wind, der sie antreiben könnte. Nur die verbliebenen Kohle- und Kernkraftwerke sowie neue Gaskraftwerke verhinderten massive Stromausfälle (Blackouts). Bildquellen energy-charts.info, ergänzt.

Die massiven physikalisch-meteorologisch-technisch-logistischen Probleme der Energiewende sollen hier nicht näher erläutert werden; Näheres unter anderem hier. Aber alle drei Abbildungen belegen das Fehlen langer, sehr windiger Phasen, wie es sie beispielsweise im Februar 2020 gegeben hatte. Das vom Autor gebildete Windmittel aus 25 DWD-Stationen in Norddeutschland ist nur bedingt repräsentativ, veranschaulicht aber ebenfalls die geringe Windstärke des endenden Winters 2021 sowie einen eher negativen Trend der winterlichen Windgeschwindigkeit, der sich so ähnlich auch in allen Jahreszeiten und folglich auch im Jahresmittel, zeigt:

Abbildung 2: Der Winter 2021 gehörte zu den windärmsten der letzten Jahrzehnte. Dabei wurde der Februar, dessen Daten noch nicht vorlagen, eher reichlich geschätzt; wahrscheinlich wird er noch windärmer ausfallen. Der Negativ-Trend ist wegen der großen Streuung nicht signifikant; doch der letzte, wirklich fast durchgängig sehr windige Winter liegt mit 2006/07 nun schon weit zurück.

Windschwache Winter der jüngeren Vergangenheit

Wegen des Fehlens verlässlicher Winddaten lassen sich windschwache Winter nur grob aus den NOAA-Datensätzen für den Zonal-und den Meridionalwind im 1000-hPa-Niveau erkennen. Diese sind immerhin seit Winter 1948/49 verfügbar. Für Norddeutschland erwiesen sich folgende Winter als deutlich windschwach: 1951/52, 1959/60, 1962/63, 1963/64, 1976/77, 1978/79, 1981/82, 1984/85, 2005/06, 2009/10, 2010/11 und 2012/13. Zeit- und gebietsweise windschwach waren auch noch die Winter 1995/96 und 1996/97. Hierbei geht es stets um das Wintermittel; einzelne, sehr windige oder gar stürmische Phasen gab es in jenen Wintern dennoch. Schon bei flüchtiger Betrachtung fällt aber auf: Es sind allesamt Winter, die entweder kalt oder normal temperiert waren, sehr milde fehlen. Warum das so ist, werden wir gleich noch sehen.

Windschwache Großwetterlagen

In erster Linie erweisen sich alle Hochdruckwetterlagen als meistens windschwach; besonders das Hochdruckgebiet über Mitteleuropa (HM) und die Hochdruckbrücke über Mitteleuropa (BM). Im Hochzentrum oder unter der Achse einer Hochdruckzone fehlt das für Wind erforderliche Luftdruck-Gefälle (es herrscht ein großer Abstand der Linien gleichen Luftdrucks, die in der Wetterkunde Isobaren genannt werden). Aber während bei sommerlichen Hochdrucklagen die Kraft der Sonne den Wind zumindest tagsüber teils merklich auffrischen lässt („Regionalwinde“ mit nachmittäglichem Maximum als Land-See-, Berg-Tal- oder Flurwind), ist ihre Kraft im Winter zu schwach. Und die bodennahe Kaltluft unter einer winterlichen Inversion kann selbst dann noch zur Flaute führen, wenn sich ein Tief schon genähert hat und der Wind in einigen hundert Metern Höhe längst wieder kräftig weht. Erst an den Rändern der Hochdruckgebiete kann man windigere Verhältnisse erwarten; mitunter kann es hier sogar stürmen. Zwei Wetterkarten-Beispiele verdeutlichen die winterlichen Verhältnisse bei Hochdruckwetter:

Abbildungen 3a und 3b: Schwache Brücke zwischen einem Atlantik- und einem Russland-Hoch am 2. Dezember 2020 19 Uhr mit Windstille über Deutschland; keine Isobaren, so begann der Flaute-Winter 2020/21 (3a, oben). Elf Jahre eher (1. Dezember 2010) begann der Winter gänzlich anders: Am Rande einer Hochdruckzone, welche vom Atlantik über Südskandinavien zum Baltikum reichte, blies bei deutlichen Minusgraden ein kräftiger Ostwind; es kam zu Schneeverwehungen; man erkennt viele Isobaren (unten, 3b). Bildquellen wetter3.de aus dem UKMO-Wetterkartenarchiv; ergänzt.

Aber die „richtige“ großräumige winterliche Sturmwetterlage geht meist mit westlichen Wetterlagen einher; diese hatten im aktuellen Winter Seltenheitswert; daher ein Beispiel aus dem stürmischen Februar 2020:

Abbildung 4: Südweststurm am 16. Februar 2020 (viele Isobaren über Deutschland). Bildquelle wetter3.de aus dem UKMO-Wetterkartenarchiv; ergänzt.

Nun wird auch klar, warum windarme Winter eher zu Kälte tendieren: Erstens fehlen die stürmischen Westlagen, welche die milde Atlantik-Luft nach Deutschland lenken (Warmluft-Advektion). Und zweitens kühlt sich ruhig lagernde Luft im Winter stets mehr oder weniger schnell ab (je nach Bewölkungsverhältnissen – je klarer und wasserdampfärmer die Winterluft, desto schneller deren Abkühlung). Letzteres ist oft bei „Hochdruckwetter“ der Fall. Wie wir gleich noch sehen werden, können jedoch auch winterliche Tiefdruckwetterlagen sehr windschwach verlaufen; das war eines der wesentlichen Merkmale des Winters 2020/21.

Besonderheiten der Winter-Witterung 2020/21

Eine längere, typische, windschwache Hochdruckwetterlage war nur während der Kältewelle um den 10. Februar zu beobachten (von Skandinavien nach Mitteleuropa ziehendes Hochdruckgebiet); auf diese soll hier nicht näher eingegangen werden. Aber warum verliefen auch Dezember und Januar, in welchen Kälte-Hochs fehlten, so windschwach? Die wesentliche Ursache findet sich in kleinen, mit Höhen-Kaltluft gefüllten Rand- und Teiltiefs, welche vom Atlantik und von Großbritannien immer wieder nach West- und Mitteleuropa zogen, sich hier abschwächten oder auflösten und dabei mehr oder weniger intensive Schnee- und Regenfälle auslösten, aber wegen ihrer geringen Stärke kaum noch Wind ermöglichten; zumal sich oft gleich mehrere dieser Tiefs in unserer Nähe befanden (zwischen zwei oder mehr Tiefs liegt ebenfalls eine nahezu windstille Zone). Schon Neujahr begann mit einer solchen Lage:

 

Ab Ende Januar kam dann noch die sich über Mitteleuropa bildende Luftmassengrenze hinzu. Kaltluft aus Nord bis Nordost traf auf sehr milde Süd- bis Südwestluft. Doch an einer solchen Grenzlinie heben sich die Geschwindigkeiten beider Luftmassen auf – es herrscht Flaute:

Abbildung 6: In einer schwachen Tiefdruckrinne treffen Warm- und Kaltluft aufeinander (Luftmassengrenze). Wenig Wind in weiten Teilen Deutschlands; Lage vom 4. Februar, Mittags. Bildquelle wetter3.de aus dem UKMO-Wetterkartenarchiv; ergänzt

Die langfristige Entwicklung der winterlichen Windstärke über Norddeutschland

Gewisse Rückschlüsse lassen die Daten des Amerikanischen Wetterdienstes (NOAA) über die Geschwindigkeiten des Zonalwindes (positive Werte bedeuten West-, negative Ostwind) und des Meridionalwindes (positive Werte Süd- und negative Nordwind) zu, welche seit Winter 1948/49 vorliegen. Addiert man die Beträge des Zonal- und Meridionalwindes, so erhält man eine Summe, welche brauchbare Rückschlüsse über die realen Werte der Windgeschwindigkeiten zulässt (je höher die Werte, desto windiger). Die folgende Grafik zeigt die Verhältnisse für die (bodennahe) 1000-hPa-Fläche über Norddeutschland und gleich eine der wichtigsten Einflussfaktoren auf die Windgeschwindigkeit – die NAO:

Abbildung 7: Nicht nur kurz-, sondern auch langfristig ist der Wind ein wankelmütiger Geselle, seine Stärke schwankt stark. Schwächephasen kurz nach Mitte des 20. Jh. und um 2010 stehen windigere um 1990 und gegenwärtig gegenüber – doch ist der sehr windschwache Winter 2020/21 noch nicht in der Grafik enthalten. Man beachte aber, dass es sich hierbei erstens nicht um reale Windgeschwindigkeiten handelt – die Rechengröße kommt diesen aber relativ nahe. Zweitens wirkt das hier genutzte „endbetonte“ 11-jährige Gleitmittel zeitlich leicht verzerrend – die tatsächlichen, gemittelten Minima und Maxima traten etwas eher ein. Signifikant wurde diese „indirekte“ Windstärke von der NAO beeinflusst, was auch logisch ist: Die NAO als Maß für das Luftdruckgefälle zwischen Portugal und Island im weitesten Sinne beeinflusst die Intensität der Westströmung über dem Ostatlantik, welche oft (nicht immer!) bis nach Mitteleuropa reicht – und damit die Häufigkeit und die Stärke der Westwetterlagen in Mitteleuropa. Bei stark negativen NAO-Werten kann sich gar eine Ostströmung über dem Ostatlantik einstellen – damit ist dann keine Zufuhr milder Atlantikluft nach Deutschland mehr möglich. Original-NAO-Werte nach HURRELL durch Addition (+7) aufgewertet, um sie besser in der Grafik zu platzieren; der Trend wird davon nicht beeinflusst.

Ob nun künftig wieder eine Abnahme der Windgeschwindigkeit erfolgt (oder gar mit dem Winter 2020/21 bereits begonnen hat), hängt also entscheidend von der NAO ab. Diese tendierte seit dem „Klimasprung“ von 1988 zu überwiegend positiven Werten – von einer kurzen Schwächephase um 2010 einmal abgesehen. Doch wird das auch so bleiben? Logischer, aber nicht sicher vorhersehbar, wäre eine Abnahme in nächster Zukunft. Ob auch die AMO gewisse Einflüsse ausübt, soll hier nicht erläutert werden. Zwar ließen sich hier keine statistischen Zusammenhänge zur indirekten Windgeschwindigkeit finden; doch ist bekannt, dass die AMO die Häufigkeit der Süd- und Südwestlagen positiv beeinflusst; Letztere können sich im Winter mitunter zu Sturmlagen entwickeln.

Abbildung 8: Tageswerte der NAO seit Mitte Oktober 2020 bis zum 14. Februar 2021. Aufrecht stehende Balken bedeuten positive, nach unten zeigende negative NAO-Indexwerte. Nach deutlich positiven NAO-Werten im Spätherbst überwogen im Winter ganz eindeutig negative Werte, allerdings nur in moderaten Ausmaßen. Bildquelle: NOAA

Die langfristige Häufigkeitsentwicklung winterlicher Großwetterlagen

Zumindest die Großwetterlagen-Klassifikation nach HESS/BREZOWSKY lässt eine Rückverfolgung der Häufigkeitsverhältnisse bis Winter 1881/82 zu; die Objektive Wetterlagen-Klassifikation des DWD nur bis 1979/80. Freilich lassen sich daraus, wie schon die vorstehenden Wetterkarten-Beispiele zeigen, nur äußerst vage Rückschlüsse auf die Windgeschwindigkeiten ziehen. Aber wie wir schon sahen, ist die NAO hierfür ein guter Indikator; und auch diese lässt sich bis ins 19. Jahrhundert zurückverfolgen:

Abbildung 9: Der langfristige, deutliche winterliche Temperaturanstieg in Deutschland ist größtenteils eine Folge leicht gestiegener NAO-Werte und deutlich gestiegener Westlagen-Häufigkeit, was auch mit mehr Winterwind einherging. Nach einer sehr milden, Westlagen-betonten Phase um 1910 folgte die Depression zur Mitte des 20. Jahrhunderts mit vielen Kaltwintern und ab 1988 („Klimasprung“) das aktuelle Optimum der Wintertemperaturen mit häufigen Stürmen (viele Westlagen). Winter 2020/21 noch nicht enthalten; Umrechnung aller Größen in Index-Werte zur besseren Darstellung in einer Grafik; auch hier „verzerrt“ das endbetonte Gleitmittel leicht.

Ein weiteres Indiz ist die langfristige Häufigkeitsentwicklung der zu Starkwind neigenden zyklonalen West-, Südwest- und Nordwestlagen im Verhältnis zu den (meist) schwachwindigen Hochdrucklagen:

Abbildung 10: Die merkliche, winterliche Häufigkeitsabnahme aller antizyklonalen (oberste Kurve), darunter aller HM- und BM-Lagen (unterste Kurve) gegenüber den zu Sturmlagen neigenden zyklonalen West-, Südwest- und Nordwestlagen (violette Kurve) ist deutlich erkennbar; Winter 2020/21 noch nicht enthalten.

Abschließend schauen wir uns die so genannten Unbestimmten Lagen der Objektiven Wetterlagen-Klassifikation des DWD an. Diese sind stets windarm. Nähere Erläuterungen zu diesen hier. Man erkennt einen nicht signifikanten Häufungstrend (in den übrigen Jahreszeiten und im Jahresmittel ist dieser deutlicher):

Abbildung 11: Bislang nur geringe Häufung unbestimmter (XX) Lagen im Winter. Nahezu alle Winter, die zu kalt oder wenigstens abschnittsweise kalt ausfielen, weisen eine überdurchschnittliche Anzahl dieser stets auch windarmen Lagen auf; einige sind markiert (Jahreszahl des jeweiligen Hochwinters). Im „aktuellen“ Winter 2020/21 waren bis zum 14. Februar schon 23 XX-Lagen zu verzeichnen – mehr als die durchschnittlich 15; ein paar könnten noch hinzukommen.

Fazit: Die winterliche Windstärke schwankt in unseren Breiten in längeren Perioden; sie wird stark von der NAO und der Häufigkeit und dem Charakter bestimmter Wetterlagen beeinflusst. Westwetterlagen begünstigen windiges Wetter, Hochdruck-, Zentraltief- und Grenzwetterlagen neigen zu Flauten, so wie auch im Winter 2020/21. In jüngster Vergangenheit überwog windig-mildes Westwetter, ob mit dem Flaute-Winter 2020/21 eine Trendwende beginnt, bleibt abzuwarten. Der Wind erweist sich sowohl lang- als auch kurzfristig als äußerst volatil, was seine Eignung als Hauptlieferant für Elektroenergie ernsthaft in Frage stellt. Denn seine Energieausbeute unterliegt dem Kubischen Gesetz – sie verachtfacht sich bei Verdoppelung und liefert nur noch ein Achtel an Energie bei Halbierung der Windgeschwindigkeit.

 




Die WHO und der „Klima-Notstand“

Die Schätzungen der WHO sehen so aus:

Wow … das ist schon ein verdammt großer „NOTFALL“. Die Todesursache „alle Naturgewalten“, nicht nur klimabedingte, sondern alle Kräfte, ist geringer als Mord, weit geringer als Selbstmord, und trivial im Vergleich zu Autounfällen. …

Gut zu sehen, dass zumindest bis heute die Weltgesundheitsorganisation nicht auch in die Klima-Posaune stößt …

Warum sind die klimabedingten Todesfälle so niedrig? Nun, weil die Menschen viel besser darin geworden sind, sich vor dem Wetter zu schützen. Hier ist eine Grafik, ursprünglich von Bjorn Lomborg. Da ich ein skeptischer Mensch bin, habe ich mich gefragt, ob sie nicht irgendeinen Fehler enthält. Also ging ich zur EMDAT Global Disaster Database, die Bjorn benutzt hatte … und ich erhielt genau das gleiche Ergebnis wie er. Hier ist meine Version des Diagramms. Informationen zu EMDAT finden Sie hier.

Warum ist die Zahl der klimabedingten Todesfälle so niedrig? Früher, in den schlechten alten Zeiten, starben viele Menschen durch klimabedingte Katastrophen. Aber bessere Kommunikation, verbesserte Warnsysteme, Heizungen für Häuser mit fossilen Brennstoffen, schnellere Transportmittel, verbesserte Getreidesorten, Bewässerung, Klimaanlagen und Ähnliches haben die jährlichen klimabedingten Todesfälle auf nur wenige pro Million Menschen sinken lassen.

Unter dem Strich: Seit vierzig Jahren und mehr hören wir unablässig Trompeten-Fanfaren über den bevorstehenden „KLIMA-NOTFALL!!!“

Man bedenke in diesem Zusammenhang Folgendes:

e·mer·gen·cy

əˈmərjənsē

Substantiv
1. eine ernste, unerwartete und oft gefährliche Situation, die sofortiges Handeln erfordert.
Nennen Sie mich verrückt, aber etwas, das nach vierzig Jahren endloser Warnungen absolut keine Anzeichen von Auftauchen gegeben hat, ist keine „unerwartete Situation, die sofortiges Handeln erfordert“.

Link: https://wattsupwiththat.com/2021/02/15/who-and-the-climate-emergency/

Übersetzt von Chris Frey EIKE

 




Warum Lockdowns nicht so wirken wie gedacht – Fakten, die hierzulande gerne verschwiegen werden

Die erfahrenen Mediziner Thomas Voshaar und Dieter Köhler sowie der Physiker Gerhard Scheuch haben in einem Beitrag auf Focus Online die Lockdown-Politik kritisch hinterfragt. Darin verweisen die drei Autoren auf einen Beitrag in dem Blog von F Zack – dem sie bescheinigen, darin die aktuellen Ungereimtheiten „klug zusammengefasst“ zu haben. Sie schreiben über den Text: „Am Ende findet er jedoch keine plausible Erklärung für die gefundenen Phänomene. Er bietet auch keine ideologisch gefärbten Erklärungsmodelle an, was ihn von vielen anderen Analytikern der Pandemie positiv abhebt.“ Kritische Fragen aufwerfen, auf Widersprüche hinweisen, ohne dem Leser eine Erklärung aufzudrängen – das finde ich gut. Darum habe ich Zack F um die Erlaubnis gebeten, seine hoch interessante Analyse hier zu veröffentlichen. Voilà:


Ein Gastbeitrag von Zack F

COVID19 verläuft regional und in Wellen

Covid19 verläuft regional und in Wellen. Das Auftreten korreliert meistens — aber nicht immer — mit der örtlichen ILI-Saison, also dem Zeitraum, in dem auch andere Influenza-ähnliche Erkrankungen auftreten. Fast immer bilden sich markante Wellen heraus, die sich typischerweise über 6–10 Wochen rasch aufbauen, unter großer Sorge der Bevölkerung und der Politik, um dann wieder erstaunlich rasch abzufallen.

Warum diese Wellen auftreten, ist weitgehend unklar. Das Virus verschwindet offensichtlich, entgegen der verbreiteten SIR-Modelle, noch bevor alle sus­zep­ti­blen (nicht-immunen) Individuen infiziert wurden — Beweis hierfür ist, dass es in teilweise größerer Wucht wiedergekommen ist. Es müssen also eine Menge Sus­zep­ti­bele in der Population verblieben sein.

Diese Wellen sind in ähnlichem Zeitverlauf auch bei den meisten anderen Viren zu beobachten, egal ob endemisch (“alt”) oder pandemisch (“neuartig”).

Sind diese Wellen durch Maßnahmen erklärbar? Die meisten Staaten weltweit haben ähnliche Maßnahmen fast zeitgleich ergriffen. Es ist daher schwierig, die Wirkung der Maßnahmen vom natürlichen Verlauf zu unterscheiden.

Dennoch gibt es einige Ausreißer, die als “Leerprobe” dienen können — Länder und Regionen fast ohne Maßnahmen, die uns einen Blick auf den natürlichen Verlauf der Covid19-Wellen ermöglichen.

Die Daten: Wirken Lockdown und Social Distancing?

Florida vs. USA

Florida hat am 28. September 2020 praktisch alle Restriktionen aufgehoben. Bars, Kinos, Freizeitparks wie Disneyland, ja sogar Stripclubs — alles offen, weitgehend ohne Kapazitätseinschränkungen, mit Beachtung von eher geringen Hygieneregeln. Auch Großveranstaltungen sind dort erlaubt. Weder die Entwicklung der New Cases (Neuinfektionen), noch der Toten oder der Hospitalisationen ist seitdem in dem Bundestaat irgendwie bemerkenswert: Florida liegt bei allen Parametern im US-Mittelfeld. Anschaulich ist hier insbesondere der Vergleich mit dem in Struktur und Klima ähnlichen, aber äußerst strengen Kalifornien.

 

Georgia, Floridas Nachbarstaat, hat ähnlich laxe Maßnahmen und liegt ebenfalls mit allen Zahlen im US-Mittelfeld. Weitere US-Staaten mit sehr geringen Maßnahmen sind Nevada, Alabama, Oklahoma und South Carolina. Etwas Besonderes ist in all diesen Staaten eigentlich nicht passiert, einige liegen unter dem Durchschnitt der Toten pro Million, andere über dem Durchschnitt. Jedenfalls ist überall die prophezeite Katastrophe des ungebremsten “exponentiellen” Wachstums ausgeblieben.

Alleine diese ersten Datenpunkte müssten bezüglich der Wirkung von Social Distancing extrem stutzig machen.

South Dakota vs. North Dakota

Die Dakotas sind zwei kleinere Staaten im mittleren Westen der USA, die günstigerweise in allen geografischen und sozioökonomischen Daten übereinstimmen — und zudem benachbart sind. Ein besseres Experiment wäre kaum aufzubauen.

South Dakota hat eigentlich nie wesentliche Maßnahmen ergriffen; wenn man einmal von Aufrufen zum Händewaschen oder Ähnlichem absieht. Großveranstaltungen ohne Einschränkungen waren stets erlaubt, Unis, Gastronomie, Läden, Schulen immer offen. Und nie eine Maskenpflicht; auch freiwillig werden diese dort eher selten getragen.

North Dakota hat auch einen eher liberalen Ansatz. Jedoch wurde dort ab Anfang November die Gastronomie deutlich beschränkt und eine staatsweite Maskenpflicht verhängt. Ein Unterschied in der Fallentwicklung ist nicht erkennbar — North Dakota hat sogar geringfügig mehr Fälle und Tote als South Dakota. Auch dies ein weiterer Datenpunkt, der sehr stutzig macht.

Schweden und die deutschen Bundesländer

“Der schwedische Weg ist gescheitert!” Dies konnte man in der deutschen Presse nach der ersten Welle in Europa häufig lesen. Tatsächlich war in der ersten Welle vor allem auf Grund von Ausbrüchen in der Metropolregion Stockholm die Zahl an Toten in Schweden hoch, sie befand sich im oberen Drittel der EU-Länder; allerdings weit entfernt von der Tabellenspitze, welche durchweg durch strengere Lockdownländer belegt wurden. In vielen anderen Regionen Schwedens verlief allerdings schon die erste Welle erstaunlich unauffällig — klar entgegen den Prognosen der Lockdownbefürworter ohne “exponentielle Katastrophe”.

Noch stutziger macht eine isolierte Betrachtung der zweiten Welle ab Oktober. Auch während der zweiten Welle gab es in Schweden nur ein Mindestmaß an Maßnahmen (Restaurants mit Restriktionen offen, keine Ladenschließungen, Schulen bis Klasse 7 oder 9 vollständig offen, Sport weiter möglich, Skigebiete geöffnet).

Hier zeigen sich mit der Theorie des Social Distancing kaum noch zu erklärende divergente Entwicklungen:
Das sehr lockdown-begeisterte und immer “schnell reagierende” Österreich liegt etwa gleichauf mit der Schweiz, in der es strenge Lockdowns bis zum 19.1.2021 nur in einzelnen Kantonen gab. Beide übertreffen — wie UK — Schweden deutlich.

Schweden hat in der zweiten Welle etwa gleich viele Tote im Zusammenhang mit Covid wie Deutschland und weniger als im EU-Durchschnitt. In Deutschland sind die Entwicklungen in den einzelnen Bundesländern zudem extrem unterschiedlich, trotz praktisch zeitgleichem Ablauf der Maßnahmen dank der Konferenzen von Kanzlerin Merkel, welche die Bundesländer regelmäßig auf Linie bringt. Sachsen ist unter den gleichen Maßnahmen zu einem europäischen Hotspot geworden, die angeblich dazu beitrugen, Mecklenburg-Vorpommern zu verschonen. Mecklenburg-Vorpommern sah dann aber in den Wochen nach deutlichen Verschärfungen einen Anstieg von Fällen und Intensivpatienten; völlig entgegen jeder Vorhersage. Die wechselnde Benennung der Bundesländer mal als vernünftig und maßnahmentreu, dann als unvernünftig und leichtsinnig ist natürlich ein Post-Hoc Zirkelschluss und völlig unbelegt.

Kroatien: ein Erdbeben führt zu abruptem Ende der Maßnahmen

Am 28.12.2020 ereignete sich im Kroatien ein Erdbeben, Epizentrum Landkreis Sisak-Moslavina. Die Leben von 100.000 Menschen werden stark beeinträchtigt, 7 Tote, Häuser zerstört, Familien werden in Notunterkünften untergebracht.

Die Menschen haben natürlich anderes im Sinn als Masken zu tragen und Social Distancing; die Covid19-Regeln geraten vollständig in den Hintergrund. Tausende Helfer reisen ein, die Grenzbestimmungen werden aufgehoben. Entgegen jeglicher Modellannahme kann man an der epidemiologischen Kurve keinerlei Besonderheit erkennen. Die Zahl der Tests wurde übrigens trotz des Erbebens erhöht, wohl aufgrund der gestiegenen Kontaktfrequenz zu Fremden.

 

“Aber Lockdowns wirken doch — siehe Irland”

Zeitliche Korrelation ist kein Nachweis einer Kausalität; vor allem wenn in Ländern ohne diese Maßnahmen die Kurvenform nicht wesentlich anders aussieht.

Immer wieder werden spontan eingetretene Wenden in der Virusausbreitung als Lockdown-Wirkung fehlgedeutet. Ein gutes Beispiel ist hier der zweite Lockdown in Irland: dramatisch daran ist, dass diese Fehldeutung sogar von unserer Wissenschaftselite, der Leopoldina, geteilt und nicht bemerkt wurde. Sehen wir den “vorbildhaften” irischen Lockdown2 einmal im Detail an:

 

Gipfel der Neuinfektionen war der 18.10.2020. Der nationale Lockdown wurde in Irland am 21.10.2020 um Mitternacht ausgerufen, begann also eigentlich erst am 22.10.. Das Maximum der Fälle nach Meldedatum war 4 Tage vorher. Da noch Inkubationszeit, Zeit bis zum Test, Laborzeit und Meldeverzug eingerechnet werden müssen, war der Gipfel der Ansteckung spätestens um den 11. Oktober erreicht, ganze 11 Tage vor dem Lockdown.

Wir wissen natürlich nicht sicher, wie die Kurve ohne den irischen Lockdown 2 ausgesehen hätte. Sicher ist aber, dass die Wende auch ohne die Maßnahmen vom 22.10. aufgetreten wäre. Ein klassischer Post-Peak Lockdown, wie wir ihn z.B. auch in der zweiten Welle in Österreich gesehen haben, oder in der ersten Welle in Deutschland:

Diese Effekte auf “freiwillige Selbstbeschränkung unmittelbar vorher” zurückzuführen, ist wieder ein klassischer Post-Hoc Zirkelschluss. Spätestens wenn man den zweiten und dritten Lockdown in Israel oder den dritten Lockdown in Irland betrachtet, ist dies völlig inkonsistent (hier waren die Peaks Wochen später). Viel wahrscheinlicher ist eine Fehlattribution der oben beschriebenen unklaren Wellenmuster auf unser Handeln. Wir Menschen neigen zu derartigen Erklärungen, in der Psychologie sind solche Effekte gut bekannt unter dem Namen Kontrollillusion: Die Kontrollillusion (engl. illusion of control) ist die menschliche Tendenz, zu glauben, gewisse Vorgänge kontrollieren zu können, die nachweislich nicht beeinflussbar sind.

Im Experiment wurden Versuchspersonen davon überzeugt, dass sie einen vollständig zufälligen Münzwurf beeinflussen können. Teilnehmer, die eine Serie von Würfen erfolgreich voraussagten, begannen zu glauben, dass sie tatsächlich besonders gute Rater seien und dass ihre Rateerfolge sich bei Ablenkung verschlechtern würden.

Versuch einer Begründung: Warum sind Social Distancing und Lockdowns derart wirkungsschwach?

Die oben geschilderten, sehr vielfältigen Daten machen klar, dass Social Distancing und Lockdowns in der Wirkung um Größenordnungen überschätzt werden. Zu dieser Ansicht kommen übrigens auch mehrere Publikationen von hochrangigen Experten auf dem Gebiet, die keinen wirklichen Zusammenhang zwischen Schwere der Maßnahmen und Infektionsverlauf finden:

“Claimed benefits of lockdown appear grossly exaggerated.”
[Effects of non-pharmaceutical interventions on COVID-19: A Tale of Three Models; Vincent Chin, John P.A. Ioannidis, Martin A. Tanner, Sally Cripps]

“While small benefits cannot be excluded, we do not find significant benefits on case growth of more restrictive NPIs.”
[Assessing Mandatory Stay‐at‐Home and Business Closure Effects on the Spread of COVID‐19; Eran Bendavid, Christopher Oh, Jay Bhattacharya, John P.A. Ioannidis]

Wie kann das sein? “Weniger Kontakte, weniger Virusausbreitung! Das ist doch ein No-Brainer!”

Nur weil Aussagen andauernd wiederholt werden, sind sie noch lange nicht richtig. Es werden im folgenden zwei Thesen aufgestellt, welche die dramatische Wirkungslosigkeit dieser Interventionen erklären könnten.

These 1: Lockdowns wirken fast ausschließlich auf flüchtige Kontakte unter Nicht-Infektiösen. Sie haben daher kaum Wirkung.

Der oft gehörte Satz müsste eigentlich korrekt lauten: “Weniger Kontakte zu Infektiösen, weniger Virusausbreitung!”

Wer ist denn überhaupt infektiös? Die meisten Menschen, auf die der Lockdown wirkt, sind nicht infiziert. Und nur ein gewisser Anteil der Infizierten ist überhaupt ansteckend. Am ehesten sind wohl die Personen ansteckend, die frisch symptomatisch erkrankt sind, mit Husten und Schnupfen. Nicht-Symptomatische sind nach überwiegender Meinung weniger ansteckend — das legt auch die gesunde Lebenserfahrung mit respiratorischen Infekten nahe. Die genaue Bedeutung von prä-/asymptomatischer Übertragung ist für Corona alles andere als geklärt. Nehmen wir als Gedankenspiel an, der R-Wert betrage R=2,5 für symptomatisch Erkrankte mit Husten und Schnupfen (1 Mensch steckt 2,5 weitere an), aber nur 15%, R=0,35 für Asymptomatische und Präsymptomatische.

Eine oft übersehene, aber weltweit angewendete “Non Pharmaceutical Intervention” ist die folgende: Symptomatisch erkrankte Personen werden isoliert, sie bleiben zuhause. Gehen wir weiter davon aus, dass sich auch überwiegend an diese Maßnahmen gehalten wird, mit einer Rate von 10% der Menschen, die sich nicht daran halten.

Dann haben wir — ganz grob vereinfacht und abstrakt — zwei gedanklich getrennte Pandemiegeschehen. Eine Pandemie unter “Prä-/Asymptomatischen/Noncompliance”- Indivduuen mit einem R-Wert von R=0,6, und eine Pandemie unter den wirklich “Kranken” mit R=2,5.
Infektionsketten in Gruppe 1 sind unwahrscheinlich: Die Wahrscheinlichkeit, dass Person A eine andere Person B ansteckt, ist 60%, dass B in dieser Gruppe eine weitere Person C ansteckt, ist nur noch 36%; dass es zu einer Infektionskette von mehr als drei Personen kommt, ist unter 20%.
Gleichzeitig läuft die “Pandemie unter Kranken” aber weiter und treibt mit R=2,5 das Infektionsgeschehen an. Die Ansteckungen in Gruppe 1 sind dagegen vollkommen unbedeutend geworden.

Das Isolieren Erkrankter hat einen riesigen Einfluss auf die Pandemie. Maßnahmen, die sich dann zusätzlich auf die “Pandemie unter Gesunden” auswirken, hätten keine wesentliche Wirkung mehr, denn epidemiologisch sind Einzelfälle oder auslaufende Infektionsketten irrelevant. Lockdowns und andere Restriktionen sind Maßnahmen, die sich in der aktuellen Situation, in der Ansteckende ganz überwiegend isoliert sind, fast ausschließlich auf asymptomatische und präsymptomatische Personen auswirken.

Die Effektivität von Lockdowns steht und fällt also mit der Bedeutsamkeit der Ansteckung unter Nicht-Symptomatischen.
Wie ist hier die Datenlage? Die WHO schreibt auf Ihrer Webseite, stand 21.1.2021, folgendes:

„Early data from China suggested that people without symptoms could infect others. To better understand the role of transmission from infected people without symptoms, it is important to distinguish between transmission from people who are infected who never develop symptoms(asymptomatic transmission) and transmission from people who are infected but have not developed symptoms yet (pre-symptomatic transmission). The extent of truly asymptomatic infection in the community remains unknown.

Multiple studies have shown that people infect others before they themselves became ill, which is supported by available viral shedding data. One study of transmission in Singapore reported that 6.4% of secondary cases resulted from pre-symptomatic transmission. One modelling study, that inferred the date of transmission based on the estimated serial interval and incubation period, estimated that up to 44% (25–69%) of transmission may have occurred just before symptoms appeared.It remains unclear why the magnitude of estimates from modelling studies differs from available empirical data.

Transmission from infected people without symptoms is difficult to study. However, information can be gathered from detailed contact tracing efforts, as well as epidemiologic investigations among cases and contacts. Information from contact tracing efforts reported to WHO by Member States, available transmission studies and a recent pre-print systematic reviews suggests that individuals without symptoms are less likely to transmit the virus than those who develop symptoms. Four individual studies from Brunei, Guangzhou China, Taiwan China and the Republic of Korea found that between 0% and 2.2% of people with asymptomatic infection infected anyone else, compared to 0.8%-15.4% of people with symptoms.“

Zusammengefasst: Nichts Genaues weiß man nicht. Es finden sich – auch in anderen Literaturzusammenfassungen – Raten zwischen 0%, 0,7%, 2,2%, 6%, 44% oder 69% der Infektionen, die durch Asymptomatische oder Personen in der (kurzen!) präsymptomatischen Phase ohne Husten und Schnupfen mit ausreichend Viruslast hervorgerufen werden sein sollen.

Sollte der obere Bereich dieser Abschätzungen zutreffen, könnten Lockdowns eine gewisse Wirkung haben. Sollte die Wahrheit eher im unteren Bereich der Schätzungen liegen und damit asymptomatische Übertragung eher unbedeutend sein, wären die harten Restriktionen praktisch wirkungslos. Sie wären der größte Denkfehler der jüngeren Menschheitsgeschichte. Die oben zusammen getragenen Daten aus verschiedenen Ländern legen leider Letzteres nahe.

These 2: Andere Übertragungswege sind wichtig und wurden übersehen

Wenn Theorie und Wirklichkeit derart schlecht übereinstimmen, ist das häufig ein Hinweis darauf, dass das Modell grundlegende Falschannahmen trifft. Es müssen dann auch einmal radikal andere Theorien angedacht werden. Auch hier gilt: Nur durch die ewige Wiederholung von “Abstand schützt sicher vor Infektion” wird es nicht zwingend wahr.

Eine Möglichkeit, die zumindest die Datenlage erklären könnte wäre, dass die direkte Mensch-zu-Mensch-Übertragung viel weniger relevant ist als gedacht. Es gibt Berichte, die daran Zweifel aufkommen lassen können; insbesondere die immer wieder beschriebenen Virusinfektionen über weite Distanzen. Bekannt ist hier z.B. das “heitere” Beispiel der Toilettenübertragung von Covid über Kanalsysteme in Hochhäusern. Ernsthaft diskutiert werden auch “waterborne pathways” über Leitungswasser; hochspekulative Theorien diskutieren distante Virenübertragung durch Staubteilchen in der Troposphäre.

Auch die Rolle der Schmierinfektion und die Möglichkeit einer fäkal-oralen Übertragung ist alles andere als sicher ausgeschlossen; für andere respiratorische Viren (z.B. Rhinovirus) gilt diese Route als gesichert. Die FH Münster hat in einer Studie das Überleben von anzüchtbaren Viren auf dem porösen Material von FFP2-Masken für mehrere Tage bei Raumtemperatur nachgewiesen. Wenn dies auf FFP2 Masken gelingt, dürfte das auf anderen porösen Materialien im Haushalt auch möglich sein. Auch könnte man sogenannte Super-Spreading-Events durch viele andere Übertragungsrouten gut, vielleicht sogar besser erklären als über Aerosole und Tröpfchen.

Dass die Idee von anderen Übertragungswegen zumindest nicht abwegig ist, legt auch ein Zitat von Coronavirus-Experte Christian Drosten nahe. Dieser war zumindest noch im März von einer möglichen Übertragung über Biergläser ausgegangen:

“Die Biergläser werden, das wissen wir ja, in diesen Kneipen zwar mal durchs Wasser gezogen, aber wie viel Spülmittel da noch drin ist, das möchte man nicht so genau hinterfragen. Über diesen Weg wird mit Sicherheit auch dieses Virus übertragen“ (NDR Info Podcast, 13.3.2020). Auch hier gilt also am ehesten: Nichts Genaues weiß man nicht. Wären diese alternative Transmissionsrouten bedeutsam oder gar dominant, wären Social-Distancing-Maßnahmen mehr oder weniger unsinnig, nur sehr teuer. Die Virusausbreitung würde dann einfach über die anderen Wege weiterlaufen.

Zusammenfassung

Covid19-Wellen und andere Viruswellen kommen und gehen. Der Einfluss von Social Distancing wird stark überschätzt, natürliche, derzeit wohl unerklärbare Einflüsse vollständig unterschätzt.

Warum dies so ist, wäre eine echte Herausforderung an die Wissenschaft. Ein Ansatz wäre die Klärung der wirklichen Bedeutung von nicht-symptomatischer Übertragung, ein anderer die Beachtung alternativer Übertragungswege.

Jedenfalls sollte ernsthafte Forschung aufhören, den einfältigen Kontrollwahn unserer Politiker immer weiter zu nähren, sondern sich stattdessen der Herausforderung der Diskrepanzen zwischen Modell und der Wirklichkeit stellen.
[mehr Statistiken & Diagramme in meiner Twitter timeline]

Der Beitrag erschien bei Reitschuster.de hier

 




Klimaschau 16 – die Tagesschau von Sebastian Lüning




Die Logik versinkt im Treibsand

In unseren Landen breitet sich eine andere Sorte Treibsand aus, die jede Vernunft, jeden logischen Gedanken gnadenlos unter sich begräbt. Es ist ein Treibsand aus Dummheit, Angst und Ideologie, und er wird unsere Zivilisation in mittelalterliche Abgründe ziehen, wenn nicht bald ein rettender Cowboy auf der Bildfläche erscheint.

In den zwölf Monaten Corona hat dieser Treibsand jegliche verbliebene Sachlichkeit und Professionalität aus den Diskussionen verdrängt. Sie dienen nicht mehr dazu Klarheit zu schaffen, sondern Angst zu schüren.  Das wird auch in den Reden der Kanzlerin zunehmend deutlich.

Es ist zu erwarten, dass mit Abklingen der Epidemie die Angst der Bevölkerung nicht genommen wird, sondern dass man sie „umwidmet“, und zwar zurück auf den Komplex Klimawandel, ohne dabei Corona aus dem Auge zu verlieren. Es heißt ja bereits, die neue, besonders bösartige Mutante des Virus sei durch den Klimawandel entstanden. Das ist ein gewagter, aber eleganter Brückenschlag zwischen den beiden Themen; wobei die Frage noch offen ist, wie die verdammten Viren denn in Zeiten vor Global Warming mutiert haben.

Auf jeden Fall soll die Bevölkerung in Angst und Schrecken verharren, wissend, dass sie ohne die gütige Hilfe der Politik verloren ist, auf die aber nur bei bedingungslosem Gehorsam Anspruch besteht.

Fester Halt

Um uns aus Treibsand zu befreien dürfen wir nicht mit Händen und Füßen rudern, sondern wir müssen festen Halt finden.

Ein bewährtes Mittel in dieser Situation sind intelligente Unterscheidungen. Wir strukturieren den Wirrwarr in seine Komponenten und beobachten anschließend die Zusammenhänge zwischen diesen. Das gibt den Gedanken festen Halt.

Das Werkzeug dafür ist das klare Wort, also genau das Gegenteil von dem, was wir täglich zu hören bekommen. Formeln wie „Wir warnen davor….“, „Wir wollen eine Zeichen setzten…“, schaffen nicht Klarheit sondern Treibsand. Erinnern Sie sich: Am Anfang war das Wort – nicht das Geschwafel.

Die sechs Dogmen

Im Folgenden nun eine Demonstration der Methode der -hoffentlich- intelligenten Unterscheidung. Jetzt, wo Klima und Corona in den großen Topf geworfen und umgerührt werden, liegt es nahe, dass wir die Methode auf den Dauerbrenner Klimawandel anwenden. Trainieren Sie den Umgang mit diesem Werkzeug und seien Sie gerüstet, wenn Treibsand in Ihrer Umgebung auftaucht.

Im Konstrukt mit dem Namen Klimawandel können wir zunächst sechs Hypothesen unterscheiden. Damit die zentrale Aussage der Klimajünger stimmt müssen alle sechs Thesen richtig sein.

Verfechter des Klimawandels betrachten diese Thesen als Dogmen, d.h. die Wissenschaft soll nicht herausfinden OB die Thesen richtig sind, sondern beweisen, DASS sie richtig sind. Das Ergebnis der Untersuchung liegt also bereits zu Beginn der Forschung fest.

Lassen Sie uns diese sechs Thesen anschauen und ihre Richtigkeit abschätzen.

These 1: Die Globale Temperatur steigt

Da sagt einer

„Wieso zerbricht man sich den Kopf über Erwärmung um zehntel Grade in 50 Jahren, wenn man nicht einmal weiß, ob es dieses Jahr an Himmelfahrt regnet oder schön ist!“

Nun, das ist so, wie wenn man eine Münze wirft. Da weiß man auch nicht, ob jetzt Kopf oder Zahl fällt, aber wenn man es tausendmal macht, dann kann man recht genau sagen, wie oft jede Seite kommt.

So ist das auch beim Klima: Nimmt man Tausende von Wetterdaten und rechnet den mittleren Wert aus, dann kommt eine Zahl raus, die weniger zufällig ist als der Regen an Himmelfahrt. Genau das tun die Klimaforscher.

Sowohl Wetter wie auch Klima handeln von der Luft, genauer gesagt von deren Feuchtigkeit, Temperatur, Druck und Strömungen. Wetterfrösche beobachten die momentanen Daten und versuchen daraus, das Wetter der nächsten Tage vorherzusagen. Klimafrösche mitteln die Daten über Jahre oder auch Jahrhunderte.

Hier eine Graphik die von Klimafröschen stammt: die Mittelwerte der Erdtemperatur. Sie hat in 120 Jahren um 0,8°C zugenommen, das sind sieben Tausendstel Grad pro Jahr. Es gibt übrigens Personen, die das spüren:

„Ja, ich fühle die Erderwärmung ganz deutlich!“

Wo steht nun das wichtige Thermometer, das die Erdtemperatur misst?

Nehmen wir an, Sie wollten die Temperatur in Ihrem Haus messen, und zwar richtig! Da stellen Sie ein Thermometer im Wohnzimmer auf, eines im Bad und ein drittes in Ihrem Büro. Sie nehmen den Mittelwert und sagen: “Das ist die Temperatur vom Haus“. Das ist zwar willkürlich, aber vernünftig.

Mit der Erde macht man es ebenso. Man nimmt die Mittelwerte einer Unzahl von Messstationen, die über die Erde verteilt sind – allerdings sehr ungleichmäßig, wegen Wasser und Wüsten etc. Auch das ist willkürlich, aber vernünftig. Neuerdings liefern auch Satelliten Daten, die benutzen so etwas wie die modischen kontaktlosen Thermometer, mit denen wir die Infrarotstrahlung der Haut messen, um zu sehen, ob wir Corona haben.

Diese Messungen also sind Grundlage von These 1, deren Glaubwürdigkeit hier nicht diskutiert werden soll.

These 2: Die Konzentration von Kohlendioxid (CO2) in der Atmosphäre wächst

Hier können Sie sehen, dass das Zeug seit 1960 von 320 auf 420 ppm – parts per million/ Teile pro Million – zugenommen hat, anders ausgedrückt von 0,032% auf 0,042%. Ist das nicht fürchterlich wenig? Es ist jedenfalls genug, dass die Pflanzen und daraus unsere vierbeinigen Freunde geschaffen werden konnten, und auch wir selbst. Diese Zahlen sind recht zuverlässig und sie variieren über den Globus nur sehr wenig.

These 3: Diese Zunahme ist vom Menschen verursacht

Kommt das Anwachsen von CO2 durch die Industrialisierung? Nun, man nehme den durchschnittlichen Anstieg von CO2 pro Jahr, etwa 1,5 ppm, multipliziere das mit der Gesamtmenge der Luft in der Atmosphäre und rechne von Volumen CO2 auf Kilogramm Kohlenstoff um. Das vergleicht man mit der Menge an Kohlenstoff in den fossilen Brennstoffen, welche die Menschheit in dem Jahr verbraucht hat.

Man stellt fest, dass beide Mengen von ähnlicher Größenordnung sind. Man kann These 3 also nicht a priori ausschließen, denn irgendwo muss das verbrannte Zeug ja bleiben. Ein Beweis ist diese Feststellung aber noch nicht. Es gibt ja noch viele natürliche Quellen von CO2, die ihren Ausstoß im Laufe der Jahrhunderte ändern können.

These 4: Die Erderwärmung ist durch Zunahme von CO2 verursacht

CO2 in der Atmosphäre wirkt auf die Erde wie ein Mantel, der während der Nacht die Abstrahlung von Wärme in den Weltraum behindert. Das ist der Treibhauseffekt. Es gibt aber noch ein viel potenteres Treibhausgas in der Atmosphäre, nämlich das Wasser, dessen Konzentration in der Luft stark variiert und von der Temperatur abhängt (siehe auch hier).

Das macht den Nachweis der Wirkung von CO2 sehr schwierig, und es gibt Argumente, die dagegensprechen, dass CO2 die Erderwärmung verursacht. So etwa die Tatsache, dass auf der Südhalbkugel und besonders in der Antarktis kaum Erwärmung beobachtet wurde, obwohl es da genau so viel CO2 gibt wie anderswo.

These 4 ist der Knackpunkt von Global Warming. Heerscharen von Klimaforschern arbeiten daran zu beweisen, DASS sie stimmt. Wohlgemerkt: sie untersuchen nicht, OB die These stimmt, wie ein Wissenschaftler es täte.

These 5: Die Erwärmung gefährdet Mensch und Tier

Zu dieser Behauptung ist die Berichterstattung einseitig und teils auch gefälscht. Die Achse des Guten hat hier dazu berichtet. Und wenn ich von „Klimaflüchtlingen“ aus Afrika höre, dann habe ich meine Zweifel, ob die Bewohner der Slums (z.B. in meiner weiteren Nachbarschaft) wirklich wegen ein paar Zehntel Grad Celsius das Land verlassen, oder eher vor der verheerenden Armut und Kriminalität flüchten, hin zu einem Ort, von dem sie sich menschenwürdigere Bedingungen erhoffen.

These 6: Um zu überleben muss CO2 gestoppt werden

Fakt ist, dass in den rund 40 Jahren seit der ersten Klimakonferenz der globale Ausstoß an CO2 sich verdoppelt hat.  Diese gigantische Diskrepanz zwischen den angeblichen globalen Anstrengungen (Klimakonferenzen, CO2-Abgabe, permanente Berieselung der Weltbevölkerung mit dem Thema) und dem totalen Verfehlen des gesteckten Ziels von These 6 sollte selbst im treuesten Anhänger des klimatischen Mainstreams Zweifel wecken.

Wieso sind die Mächtigsten der Welt nicht in der Lage auch nur einen winzigen Erfolg zu erzielen? Zweifeln sie selbst am Wandel des Klimas? Zweifeln sie – so wie viele andere – dass ein paar Grad den Weltuntergang auslösen?  Nehmen sie den ganzen Zirkus selbst nicht ernst und spielen in Wahrheit ein ganz anderes Spiel?

Lassen Sie sich nicht in den Treibsand locken

Die Aufzählung dieser sechs Thesen soll als Denkstruktur zum Thema Klimawandel dienen, der demnächst wieder in Medien und Diskussionen im Vordergrund stehen wird. Und sie soll die Methode der “intelligenten Unterscheidung” an einem konkreten Beispiel zeigen.

Wenn Ihnen beispielsweise jemand erklärt: „Die deutsche Energiewende ist ein zentraler Beitrag zu den Klimazielen!“, dann lassen Sie sich nicht in den Treibsand ziehen.  Sie gehen im Geiste die sechs Punkte durch und fragen: „in welcher Hinsicht?“ „Ja, das CO2 wird doch vermieden:“, „Aber hat das Abschalten der AKWs nicht genau das Gegenteil bewirkt?“

Wie zutreffend diese sechs Thesen nun im Einzelnen sind, darüber müsste man ein ganzes Buch schreiben. Ich habe es getan. Vielleicht interessiert es Sie ja.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.