1

Rekord-Kälte 2021 erinnert uns: Man lasse höchste Vorsicht walten bei Klima-Prognosen und Energie-Prioritäten walten

Japan meldete 13 Todesfälle und Hunderte von Krankenhausaufenthalten in der vergangenen Woche aufgrund der intensiven Schneefälle im Land. In Spanien staunten die Bewohner über den Rekordschneefall auf ihren Straßen. Hier in Indien erlebte Delhi einen der härtesten Winter seit langem mit intensiven Kältewellen.

Ist damit die globale Erwärmung widerlegt? Sicherlich nicht! Allerdings werfen die extremen Kälteereignisse Fragen über das Medien-Narrativ auf, dass der Klimawandel mildere Winter verursacht und die Temperaturen auf gefährliche Werte ansteigen.

Der beunruhigendste Aspekt dabei: diese extremen Kälteereignisse sind eine Erinnerung daran, dass wir in großer Gefahr sein könnten, wenn unsere Regierungen weiterhin eine Klimapolitik verfolgen, die auf fehlerhaften Prognosen und unzuverlässigen erneuerbaren Energien basiert. Hier ist der Grund dafür.

[Hervorhebung vom Übersetzer]

Der Kalt-Winter 2020-2021

Mein Besuch in Delhi in diesem Dezember war ziemlich denkwürdig. Die Stadt befand sich in einer intensiven Kälteperiode. Die Tiesttemperaturen in den Monaten Oktober, November und Dezember brachen viele Rekorde.

Mit nur 2 Grad Celsius erlebte Indiens Hauptstadt am 14. Januar einen der kältesten Wintermorgen. Srinagar in Jammu und Kaschmir verzeichnete einen Tiefstwert von minus 8,4 Grad Celsius, den niedrigsten seit 30 Jahren.

Für die Bewohner war das allerdings keine Überraschung. Der vorherige Winter (Dezember 2019) brach 100-Jahres-Rekorde. Intensive Kälte ist über die letzten Jahren zur Norm geworden.

[Hervorhebung vom Übersetzer]

In den USA wurden in diesem Jahr landesweit Rekordkälte- und -schnee-Ereignisse registriert. In Spanien sanken historisch tiefe Temperaturen auf 20-Jahres-Tiefstwerte. Drüben in Sibirien, Russland und Japan war es nicht anders. Peking verzeichnete den kältesten 7. Januar seit den 1960er Jahren.

Diese Kälteereignisse müssen unter Berücksichtigung der vielfältigen klimatischen Faktoren analysiert werden, die sie beeinflussen können. Die Sonnenaktivität, die Erdrotation, Veränderungen der magnetischen Pole, arktische Kälteeinbrüche und viele andere Faktoren bestimmen regionale und globale Wettermuster mit.

Hysterische Klimatheorien bewahrheiten sich nicht

Während diese Rekordkälte- und Schneefallereignisse die globale Erwärmung nicht widerlegen, informieren sie uns darüber, dass sich Kälteeinbrüche und Schneefälle in der realen Welt sowohl in ihrer Intensität als auch in ihrer Häufigkeit erheblich von der klassischen Erzählung über die globale Erwärmung/Klimawandel unterscheiden.

Al Gore hat zum Beispiel behauptet, dass die Sommer in der Arktis bis 2013 eisfrei werden würden, aber das ist nicht eingetreten. Ebenso sagten Wissenschaftler voraus, dass Schnee eine „Sache der Vergangenheit“ sein würde und dass unsere Kinder nicht wissen werden, was Schnee ist. Aber seit 2017 gab es historische Schneefallereignisse auf der ganzen Welt, einschließlich derer in New York und der jüngsten in Spanien und Japan.

Heiße und kalte Wetterereignisse können jederzeit auftreten. Obwohl es seit dem 18. Jahrhundert einen allmählichen Anstieg der globalen Durchschnittstemperaturen gegeben hat, bedeutet das nicht, dass die Zukunft intensiver heißer sein wird als bisher oder dass unsere Winter milder sein werden. Keines der Computer-Klimamodelle war bisher in der Lage, die Temperaturschwankungen oder das Eintreten von Kälte- oder Wärmeereignissen genau vorherzusagen.

Die Zukunft nie auf Erneuerbare oder die Klimamodelle bauen

Die Entwicklung der Kalt-Wetterereignisse und das Scheitern der Klimaprophezeiungen sollten uns helfen, den zukünftigen Kurs des Energiesektors zu bestimmen. Wind und Sonne erzeugen bei Kälte wenig oder gar keinen Strom. Das bedeutet, dass die Volkswirtschaften immer noch zuverlässige Energie aus Kohle und Öl benötigen werden, egal wie viele Wind- und Solarfabriken wir bauen.

[Hervorhebung vom Übersetzer]

Dies wurde bei den jüngsten extremen Kälteereignissen in China und Europa deutlich, wo die Wind- und Solarnetze keinen Strom erzeugen konnten. Erschwerend kam hinzu, dass die extreme Kälte eine erhebliche Energienachfrage (zum Heizen) mit sich brachte, so dass sich die Energieversorger beeilten, mehr Strom aus wetterunabhängigen Kohlekraftwerken zu erzeugen.

Pekings einziges Kohlekraftwerk nahm im Dezember den Betrieb wieder auf, um den gestiegenen Energiebedarf zu decken. Peking erklärte: „Die (jüngste) historische Spitzenlast kam, als extrem kaltes Wetter die Nachfrage nach strombetriebenen Heizungsanlagen erhöhte, die 48,2 % der Gesamtlast ausmachen.“

Mit einfachen Worten: Die Länder sollten ihre Zukunft nicht auf erneuerbare Energien setzen. Selbst im Sommer sind sowohl Wind als auch Solar unzuverlässig und teuer. Abgesehen davon, dass sie die Strompreise für die Verbraucher unnötig in die Höhe treiben (wie in Deutschland und Kalifornien bewiesen), stellen sie auch eine Belastung für die Netzfunktionalität dar. Trotzdem werden Wind- und Solarenergie auf Kosten der Steuerzahler subventioniert und als die Zukunft der Welt gepriesen.

[Hervorhebung vom Übersetzer]

This article was originally published on Townhall.com.

Link: https://cornwallalliance.org/2021/02/record-cold-of-2021-reminds-us-be-wary-of-climate-predictions-and-energy-priorities/

Übersetzt von Chris Frey EIKE

 




April und Frühling 2021 in Deutsch­land mit Startpro­blemen – wie ist die Kälte einzuordnen?

Aprilkälte 2021, ein Festival der Nordlagen – die meteorologischen Hintergründe

Das Aprilgedicht des Mecklenburger Schriftstellers HEINRICH SEIDEL (1842 bis 1906) zeigt, was schon unsere Vorfahren über den April dachten, und wie sehr doch der 2021er April denen vor etwa 120 Jahren ähnelte. Aus Platzgründen ist hier die dritte Strophe weggelassen:

April! April!
Der weiß nicht, was er will.
Bald lacht der Himmel klar und rein,
Bald schau’n die Wolken düster drein,
Bald Regen und bald Sonnenschein!
Was sind mir das für Sachen,
Mit Weinen und mit Lachen
Ein solch‘ Gesaus‘ zu machen!
April! April!
Der weiß nicht, was er will.

O weh! O weh!
Nun kommt er gar mit Schnee!
Und schneit mir in den Blütenbaum,
In all den Frühlingswiegentraum!
Ganz greulich ist’s, man glaubt es kaum:
Heut‘ Frost und gestern Hitze,
Heut‘ Reif und morgen Blitze;
Das sind so seine Witze.
O weh! O weh!
Nun kommt er gar mit Schnee
!

Warum zeigt sich ausgerechnet der zweite Frühlingsmonat derart wechselhaft? Das hat mehrere Gründe. Über der Arktis ist jetzt nach der winterlichen Polarnacht rund um die Uhr Tag – mit der einsetzenden Eisschmelze vermindert sich aber das Temperaturgefälle zwischen niederen und hohen Breiten; was den oft wintermilden, beständigen Westwetterlagen die Grundlage entzieht – es häufen sich so genannte Meridionale Lagen (Nord- oder Südlagen und der Sonderfall Ostlagen, die allesamt zu Extremen neigen). Und weil sich auch der die Westlagen stabilisierende, kalte Polarwirbel in der Stratosphäre nun aufgelöst hat, erfolgen oft jähe, dramatische Witterungsumbrüche. Außerdem setzt die Erwärmung der riesigen Landmassen Eurasiens ein, während die Meere (Wasser erwärmt sich nur sehr langsam!) noch sehr kalt sind. Letzteres begünstigt aber den Aufbau von Hochdruckgebieten auf dem Nordatlantik, bei Großbritannien und dem Nordmeer, und als „Ausgleich“ strömt Subpolar- oder gar Arktikluft aus Nordwest bis Nord ins sich erwärmende Festland. Die schon kräftige Aprilsonne erwärmt aber diese Luft über dem Land etwas – Konvektion mit Schauern und Gewittern setzt ein; und weil die Luft tagsüber bei solchen nördlichen Lagen meist nur Werte zwischen 0 und +10°C erreicht, können diese mal als Schnee, mal als Regen oder mal als Graupel, fallen. Abends verschwinden Wolken und Schauer, der Wind beruhigt sich, und es treten die gefürchteten Nachtfröste auf. Dieses „klassische“ Aprilwetter schien aber in den letzten Jahrzehnten seltener zu werden – eine mögliche Ursache könnte die aktuelle AMO-Warmphase sein, welche den Nordatlantik erwärmte und den Temperaturkontrast zwischen Ozean und Festland verringerte. Wie wir gleich noch in einem gesonderten Abschnitt sehen werden, wurde der April in Deutschland seit etwa drei Jahrzehnten ganz markant sonniger und wärmer – der kalte, eher trübe 2021er April könnte, muss aber nicht zwangsläufig, ein Vorbote der endenden AMO-Warmphase sein; denn die Intensität und Dauer des „klassischen“ Aprilwetters schwankt auch aus unerklärlichen Gründen von Jahr zu Jahr stark; ob es vielleicht in Zeiten geringer Sonnenaktivität begünstigt wird, bedarf noch genauerer Untersuchungen; der Autor berichtete über die seit 2018 verstärkt auftretenden Zirkulationsstörungen hier. Und im April 2021 waren die sonst gar nicht so seltenen Süd- und HM-Lagen – aus welchen Gründen auch immer – sehr selten, es dominierten nördliche; ein paar Wetterkarten-Beispiele verdeutlichen das:

Abbildungen 1a bis 1d: Kräftiger Kaltluft-Vorstoß aus Nord nach Mitteleuropa am Ostermontag (5. April 2021, oben, 1a) zwischen einem Sturmtief über Skandinavien und hohem Luftdruck über dem Nordatlantik/Grönland. Ein über Mitteleuropa nordwärts ziehendes Tief (Mitte oben, 1b) bescherte nur der Südosthälfte Deutschlands am 11. April „Frühling für einen Tag“, weil an seiner Vorderseite kurzzeitig subtropische Warmluft herangeführt wurde. Die an diesem Tage herrschenden Temperaturkontraste ähnelten denen der Luftmassengrenze vom Februar; während im Süden und Osten 20 bis 22 Grad erreicht wurden, fror man im Emsland bei 5 bis 6 Grad (Mitte, unten, 1c). Nur einen Tag später bibberte man bei launischem Aprilwetter unter dem Einfluss eines Hochs über Westeuropa/Island/Grönland bei kalter Nordwestströmung wieder bundesweit (unten, 1d). Bildquellen wetterzentrale.de

Diese häufigen nördlichen Wetterlagen hatten eine bemerkenswert kalte erste Aprilhälfte zur Folge; ähnlich raue Verhältnisse herrschten in jüngerer Vergangenheit nur 1997 und 2003:

Abbildung 2: Dicke Minuszeichen. Temperaturmittelwerte repräsentativer, deutscher DWD-Stationen für die erste Aprilhälfte 2021. Die farbig hinterlegten Zahlen sind die bis dahin aufgelaufenen Abweichungen zum Klimamittel 1991 bis 2020 in Kelvin (1 Kelvin = 1°C). Das von HUSSING errechnete Gesamtmittel von 4,46°C kommt dem realen DWD-Flächenmittel sehr nahe. Auch wenn das Temperaturdefizit sicherlich in der zweiten Aprilhälfte abnehmen dürfte – dieser April wird merklich zu kalt enden. Bildquelle bernd-hussing.de, ergänzt

An der DWD-Station Erfurt/Weimar gab es in der ersten Aprilhälfte schon 9 Frostnächte; zum Glück waren diese mit bis zu minus 3°C nicht stark genug, um, anders als 2020, bislang wesentliche Vegetationsschäden zu verursachen.

Erwärmte Kohlendioxid (CO2) den April langfristig?

In verschiedensten Einzelbeiträgen hatten KOWATSCH/KÄMPFE das Temperaturverhalten der Monate in Deutschland untersucht. Bei den meisten folgte einer mehr oder weniger langen Erwärmungsphase zwischen dem Aufzeichnungsbeginn (1881) und etwa der Mitte des 20. Jahrhunderts eine Abkühlung; diese wurde durch einen Klimasprung, der, je nach Monat, zwischen Ende 1987 und spätestens 1995 begann, jäh beendet. Während im ersten Jahresviertel und im Dezember die in dieser Zeit markant steigenden NAO-Werte die Ursache waren, kommt für die übrigen Monate die einsetzende AMO-Warmphase in Betracht; im Sommerhalbjahr zusätzlich die deutlich zunehmende Sonnenscheindauer. Das gilt, wie wir gleich noch in einem gesonderten Abschnitt sehen werden, besonders für den April; und die steigenden CO2-Konzentrationen können die um 1970 sehr markante Abkühlungsphase auch beim April nicht erklären:

Abbildung 3: Nach einer im Vergleich zu den meisten anderen Monaten ungewöhnlich langen Erwärmungsphase, die bis 1961 dauerte, fehlten für gut 30 Jahre sehr milde Aprilmonate (solche deutlich über 9°C); erst ab 1993 traten sie plötzlich ungewöhnlich oft auf und gipfelten im Rekord-April von 2018. Aber auch während der Abkühlungsphase um 1970 stieg die CO2-Konzentration schon deutlich an.

Der April als „Sunny Boy“ unter den Monaten – wie lange noch?

Betrachtet man nur die Zeit ab 1988, wurde kein anderer Monat des Sommerhalbjahres sonniger, als der April; was auch einen wesentlichen Teil der seitdem eingetretenen April-Erwärmung erklärt. Er „gewann“ nach dem Lineartrend in diesen 33 Jahren etwa 66 Sonnenstunden dazu (DWD-Flächenmittel); nur Juni (+55) und September (+48) konnten annähernd mithalten. Leider haben Langfrist-Aufzeichnungen der Sonnenscheindauer Seltenheitswert. Ein deutsches Flächenmittel ist erst seit 1951 verfügbar; aber an der Station Potsdam kommt man immerhin bis 1893 zurück:

Abbildung 4: Enge „Verzahnung“ zwischen Sonnenscheindauer und Lufttemperaturen im April (Potsdam); aber auch zur AMO bestehen enge Beziehungen. Zur besseren Visualisierung in einer Grafik mussten Sonnenscheindauer (pro Apriltag) und AMO in Indexwerte umgerechnet werden; das zeitliche Verhalten ändert sich dadurch nicht

.Näheres zu den Hintergründen der stärkeren April-Besonnung hier. Den sehr engen Zusammenhang zwischen Sonnenscheindauer und Temperaturen im April verdeutlicht die folgende Grafik:

Abbildung 5: Mehr als ein Drittel der Gesamtvariabilität der April-Temperaturen Potsdams lässt sich mit der Sonnenscheindauer erklären; in Gesamtdeutschland herrschen ähnliche Verhältnisse.

Weil die offenbar für die zunehmende Sonnenscheindauer wesentlichen Luftreinhaltemaßnahmen nahezu ausgereizt sind, ist von dieser Seit keine weitere Zunahme zu erwarten – doch könnten die sehr sonnigen Aprilmonate schon bald Geschichte sein? Wie Abbildung 4 zeigt, ist es in AMO-Warmphasen sonniger; doch dürfte die aktuelle AMO-Warmphase bald enden. Denn wie ein Blick nach Großbritannien zeigt, ähnelt sich das Verhalten von Sonnenscheindauer und AMO auch dort (Werte seit 1919 vorliegend):

Abbildung 6: Auch im United Kingdom (Vereinigtes Königreich – Großbritannien) ist der April in den AMO-Warmphasen tendenziell sonniger. Zur besseren Visualisierung in einer Grafik mussten Sonnenscheindauer (pro Aprilmonat) und AMO in Indexwerte umgerechnet werden; das zeitliche Verhalten ändert sich dadurch nicht.

Auch wenn solche Prognosen mit Vorsicht zu genießen sind – die sonnigsten Zeiten liegen, zumindest im April, vielleicht schon hinter uns.

Verhaltener, eher kühler Jahresrest nach der Aprilkälte 2021?

Der relativ kalte April 2021 ist zunächst nur ein Einzelfall – eben Wetter. Doch wie sah die Witterung der Folgemonate nach zu kaltem April aus? Generell war der statistische Einfluss der April-Temperaturen auf alle Folgemonate seit 1881 mehr oder weniger schwach positiv (positive Korrelation – je wärmer der April, desto wärmer die Folgemonate), doch nicht signifikant; lediglich beim Juli und August kam der Zusammenhang in die Nähe der Signifikanz-Schwelle. Damit sind keine auch nur halbwegs verlässlichen Prognosen möglich. Und wird der 2021er April zu den extrem kalten gehören – solchen nämlich, deren Temperaturmittel unter der einfachen Standard-Abweichung liegt? Eher nicht. Das DWD-Aprilflächenmittel 1881 bis 2020 beträgt 7,7°C bei einer Standardabweichung von 1,6. Alle Aprilmonate ab 6°C abwärts können also als extrem kalt gelten; das war 1881, 1888, 1891, 1896, 1903, 1905, 1908, 1917, 1919, 1922, 1929, 1931, 1938, 1941, 1954, 1956, 1958, 1970, 1973, 1977 und 1980 – danach nie mehr. Keiner der folgenden Sommer war sehr warm; es gab einige mäßig warme, viele normale bis etwas kühle und viele markant kühle wie die von 1888, 1891, 1903, 1922, 1954, 1956 und 1980. Aller Voraussicht nach wird der 2021er April so zwischen 6 und 7°C liegen – da wären recht warme Sommer wie der von 1976 oder 1982 zumindest noch nicht völlig unwahrscheinlich. Ohnehin scheint etwas anderes die Temperaturen der Folge-Monate stärker zu beeinflussen – die Höhenlage der 500-hPa-Fläche im Januar über Deutschland. Lag diese, so wie auch 2021, deutlich zu niedrig, so folgte meist ein eher kühler Jahresrest (Februar bis Dezember). Auf diesen Umstand hatte der Autor hier und hier schon hingewiesen. Aber wie sieht es aus, wenn ein wenigstens mäßig-kalter oder sehr kalter April einem Januar mit deutlich zu geringer Geopotentialhöhe folgte? In diesen fünf Fällen seit 1948 (erst ab da sind verlässliche Daten über die Geopotentialhöhe verfügbar), nämlich 1954, 1965, 1979, 1984 und 1986, war die Folge-Witterung stets sehr durchwachsen – neben kürzeren Hitzewellen überwogen zwischen Mai und September meist kühle Phasen. Auch wenn nur fünf Fälle für eine sichere Bewertung natürlich nicht ausreichen, deutet sich immer mehr ein höchstens mäßig-warmes Jahr 2021 an. Vielleicht lassen aber die (noch) andauernde AMO-Warmphase sowie die infolge der geringen Sonnenaktivität sehr markanten Zirkulationsstörungen noch etwas Hoffnung auf längere, warme Schönwetterperioden, zumal der Luftdruck des Aprils auffallend hoch war, was aber nur im August und November merkliche, aber nicht signifikant positive Auswirkungen auf deren Temperaturen hatte. Außerdem könnte ein Übergang der QBO in die Ostwind-Phase Extremwetter-Ereignisse im weiteren Jahresverlauf begünstigen.

Langfristig wieder kühlerer April in Deutschland?

Wie wir schon gesehen hatten, unterliegen die hiesigen Apriltemperaturen periodischen Schwankungen, welche überwiegend von der AMO und der Sonnenscheindauer gesteuert werden. Es wäre äußerst fahrlässig, anzunehmen, die steigende CO2-Konzentration könnte diesen Rhythmus außer Kraft setzen. Vielleicht hilft zur realistischen Zukunftsbewertung ein Blick in die Vergangenheit. In Zentralengland liegt ein halbwegs vertrauenswürdiges Flächenmittel der Apriltemperaturen bis 1659 zurück vor; es erfasst damit sowohl die (vermutlich) kälteste Klimaphase der letzten 2.000 Jahre – das „Maunder-Minimum“ um 1690 innerhalb der „Kleinen Eiszeit“ als auch die aktuelle Warmphase:

Abbildung 7: In der aktuellen Warmphase um (2010) gibt es mit 2007 und 2011 nur zwei herausragend warme Aprilmonate, ansonsten unterscheidet sich diese nicht von früheren Warmphasen. Die Langfrist-Erwärmung beträgt seit 1659, also über mehr als 360 Jahre, nur 1 Kelvin – das ist alles andere als beunruhigend. Das mögliche Ende der aktuellen Warmphase deutet sich an; und der auch in England recht kühle 2021er April ist noch gar nicht in der Grafik enthalten.

Diese Erkenntnisse lassen sich im Großen und Ganzen auch auf Deutschland übertragen – in naher Zukunft sind Stagnation oder gar Abkühlung viel wahrscheinlicher, als eine weitere Erwärmung. Einen möglichen Hinweis dafür liefert auch das Häufigkeitsverhalten der Großwetterlagen, welches für Mitteleuropa seit 1881 vorliegt.

Abbildung 8: Seit Aufzeichnungsbeginn (1881) überwogen im April meist Nordwetterlagen (blau), im sehr kalten April 1938 gar an allen 30 Apriltagen. Die Dominanz warmer Südlagen seit dem späten 20. Jahrhundert gipfelte im sehr warmen April 2009 mit 27 Tagen und scheint aktuell zu enden – beide Kurven nähern sich wieder an, und der an Nordwetter reiche April 2021 ist noch gar nicht in der Grafik enthalten.

Kalter, trüber April 2021 – hat er auch gute Seiten?

Eine alte Bauernregel beantwortet diese Frage recht eindeutig: „April, der viel Spektakel macht, bringt Korn und Heu in voller Pracht.“ Selbst wenn solche Regeln immer auch ein bisschen Wunschdenken ausdrücken – ganz falsch sind sie selten; die etwas höheren Niederschlagsmengen im Vergleich zu den Vorjahren kommen der Vegetation zugute. Sollten auch im Mai/Juni ausreichende Niederschläge fallen, was sich aber kaum vorhersagen lässt, so könnte es eine sehr gute Getreideernte 2021 geben.

 




Die Klimaschau von Sebastian Lüning: Keine CO2-Steuer in Großbritannien, Regenmuster in Afrika entschlüsselt




Düngung durch Kohlen­dioxid und Gentechnik-Getreide sind die Schlüssel, um Hunger zu beenden

Tatsache ist, dass das meiste pflanzliche Leben entstand, als der Kohlendioxidgehalt viel höher war als er heute ist. Während der letzten Eiszeit sank der Kohlendioxidgehalt in der Atmosphäre auf gefährlich niedrige Werte: nur 180 Teile pro Million (ppm). Pflanzen beginnen zu sterben, wenn der Kohlendioxidgehalt bei oder unter 150 ppm liegt, weil sie dann nicht mehr in der Lage sind, das Sonnenlicht für die Photosynthese von Nahrung aus Kohlendioxid und Wasser zu nutzen. Nachdem die Erde die letzte Eiszeit hinter sich gelassen hatte, stieg der Kohlendioxidgehalt wieder auf ca. 280 ppm, was immer noch weit unter den Werten lag, die zu Beginn der Besiedlung von Land seitens der Pflanzen.

Die Zugabe von ca. 135 ppm Kohlendioxid in die Atmosphäre hat dazu beigetragen, den Hunger unermesslich zu reduzieren.

Seit der weit verbreiteten Entwicklung und Nutzung fossiler Brennstoffe sind Armut und Hunger in der Welt rapide zurückgegangen. Obwohl seit 1968 3,2 Milliarden Menschen hinzugekommen sind, sind Armut und Hunger schneller zurückgegangen als zu jedem anderen Zeitpunkt in der Geschichte der Menschheit. Obwohl weltweit immer noch 840 Millionen Menschen unterernährt sind, ist die Zahl der Hungernden nach Angaben der Vereinten Nationen seit 1990 um zwei Milliarden zurückgegangen. Untersuchungen zeigen, dass heute 17 Prozent mehr Nahrungsmittel pro Person zur Verfügung stehen als noch vor 30 Jahren – und das alles in der Zeit eines angeblich gefährlichen Klimawandels.

Der Grund ist nicht schwer zu finden. Der Anstieg der atmosphärischen Kohlendioxidkonzentration hat die landwirtschaftliche Produktion pro Einheit Anbaufläche bei C3-Getreide (wie Reis, Weizen, Hafer, Baumwolle und immergrüne Bäume) um 70 Prozent, bei C4-Getreide (wie Sorghum, Mais und verschiedene Gräser) um 28 Prozent, bei Obst und Melonen um 33 Prozent, bei Hülsenfrüchten um 62 Prozent, bei Wurzel- und Knollengewächsen um 67 Prozent und bei Gemüse um 51 Prozent erhöht.

Tausende von Experimenten und die Arbeit von Agronomen, Botanikern, Landwirten und Gewächshaus-Betreibern weltweit zeigen, dass sowohl Nutzpflanzen als auch Nicht-Nutzpflanzen bei höheren Kohlendioxidwerten besser gedeihen.

Fossile Brennstoffe sind ein wesentlicher Bestandteil der groß angelegten Nahrungsmittelproduktion, die sich als entscheidend für die Ernährung der wachsenden Weltbevölkerung erwiesen hat. Benzin- und dieselbetriebene Traktoren werden für das Pflanzen, Düngen und Ernten von Nutzpflanzen sowie für den Transport und die Pflege von Nutztieren eingesetzt. Benzin- und dieselbetriebene Lastwagen liefern die Ernte an Lagerhäuser, Verkaufsregale, Speisekammern und Notunterkünfte. Fossile Brennstoffe treiben Bewässerungssysteme an und sorgen für klimatisierte Lagerräume und Kühlsysteme, damit die Ernte nicht verrottet oder von Schädlingen zerfressen wird. Darüber hinaus sind fossile Brennstoffe die Grundlage für moderne chemische Düngemittel und Pestizide, die das Wachstum der Ernte verbessern und beschleunigen und Verluste durch Unkraut, Insekten und andere Schädlinge verhindern.

Fossile Brennstoffe und die absehbare Menge an Kohlendioxid können jedoch wahrscheinlich nicht allein den Hunger beseitigen und die wachsende Weltbevölkerung mit einer ausreichend nahrhaften Tagesration versorgen. Hier kommen gentechnisch veränderte Nutzpflanzen (genetically modified crops, GMC) ins Spiel.

Um die wachsende Weltbevölkerung zu ernähren, ist eine industrielle Landwirtschaft auf Steroiden erforderlich, wobei große Farmen bis 2050 300 Prozent und bis 2100 500 Prozent mehr Nahrungsmittel produzieren werden. Selbst wenn alles Land gleichermaßen als Ackerland genutzt werden könnte (was nicht der Fall ist) und wir massive neue Süßwasserquellen für die Pflanzenproduktion finden könnten, wäre eine erhebliche Ausweitung der aktiv bewirtschafteten Fläche eine Katastrophe für Wildtiere und einheimische Pflanzen. Der Grund dafür ist, dass die Flächen, die am ehesten für die Landwirtschaft umgewandelt werden, Wälder, Weideland und andere Wildnisgebiete sind.

Die effizienteste, effektivste und umweltfreundlichste Strategie für die Ernährung einer größeren Anzahl von Menschen besteht darin, die derzeit bewirtschafteten Flächen intensiver zu bewirtschaften, indem die besten Technologien eingesetzt werden, einschließlich eines hohen Einsatzes von Pestiziden und Düngemitteln und einer breiteren Verwendung von GVOs.

In den letzten 20 Jahren habe ich ausführlich über die Vorzüge des Einsatzes der Biotechnologie geschrieben, um die Ernteerträge und die Ernährung zu verbessern, die Resistenz gegen Schädlinge zu erhöhen und die Fähigkeit der Pflanzen zu verbessern, zu wachsen und Inputs wie Wasser und Mineralien im Boden angesichts extremer Klima- und Wetterbedingungen effizienter zu nutzen. Diejenigen, die sich gegen die Gentechnik aussprechen, sind entweder falsch informiert – ignorant gegenüber der überwältigenden Menge an Beweisen und der Wissenschaft, die wiederholt gezeigt hat, dass die Technologien sicher sind – oder sie sind Misanthropen, also Menschenfeinde.

In einem kürzlich erschienenen Artikel erörtert der indische Forscher Vijay Jayaraj wortgewandt, wie gentechnisch veränderte Nutzpflanzen, die wohl am gründlichsten geprüften Produkte, die jemals entwickelt wurden, für die Lösung der immer noch bestehenden Hungerkrise unerlässlich sind:

Mit dem Fortschritt der Gentechnologie können Wissenschaftler jetzt noch größere Verbesserungen mit höherer Präzision in kürzerer Zeit [als durch konventionelle Kreuzung] erreichen. Viele [GMCs] sind wissenschaftlich getestet, von den weltbesten medizinischen Agenturen zugelassen und von Hunderten von Nobelpreisträgern für sicher erklärt.

Mehr als 100 unabhängige, US-amerikanische, europäische und internationale wissenschaftliche Gesellschaften haben G.M.-Pflanzen für ihre Sicherheit zugelassen und erkennen an, dass sie kein Risiko für die Umwelt oder die menschliche Gesundheit darstellen.

Laut Wissenschaftlern sind die Vorteile von G.M.-Pflanzen u.a. höhere Erträge, verbesserte Qualität und Anpassungsfähigkeit an bestimmte abiotische und biotische Stressfaktoren wie Trockenheit, Schädlinge und Krankheiten.

Eine Studie, die die Auswirkungen von G.M.-Pflanzen auf die Umwelt weltweit untersuchte ergab, dass durch den Einsatz von G.M.-Pflanzen zwischen 1996 und 2008 352 Millionen Kilogramm weniger Pestizide versprüht wurden.

G.M.-Varianten von Reis, Mais, Weizen, Baumwolle, Raps, Kartoffeln, Auberginen, Kürbis, Sojabohnen, Papaya und Zuckerrüben sind bereits zugelassen und werden weltweit auf mehr als 185 Millionen Hektar kommerziell angebaut.

Menschen und Wildtiere auf der ganzen Welt würden von der weiteren Entwicklung und dem breiteren Einsatz von GMCs profitieren. Darüber hinaus würden die größten Vorteile den Ärmsten der Armen in Afrika, Asien sowie Mittel- und Südamerika zugute kommen, also den Gebieten, in denen noch immer bittere Armut, Hunger und Unterernährung bei einem großen Teil der jeweiligen Bevölkerung herrschen.

Der Klimawandel, was auch immer seine Ursachen und Auswirkungen sein mögen, verursacht heute und in Zukunft nicht annähernd so viel menschliches Leid wie Hunger und Unterernährung und die Übel, die sie mit sich bringen, wie frühzeitige Kindersterblichkeit und verkümmerte körperliche und geistige Entwicklung. Das ist seit dem Ende der letzten Eiszeit so und wird wohl auch bis zur nächsten Eiszeit so bleiben.

[Hervorhebung vom Übersetzer]

Quellen: Cornwall Alliance; National Center for Policy Analysis; Roanoke Times; Nongovernmental International Panel on Climate Change; Climate Realism

Link: https://www.heartland.org/news-opinion/news/carbon-dioxide-fertilization-and-biotech-crops-are-the-keys-to-ending-hunger

Übersetzt von Chris Frey EIKE

 




„Geisterwälder“ durch Meeresspiegelanstieg in Nordamerika?

Das Klimaschutz-Magazin Spektrum.de publizierte vor kurzem erneut einen alarmistischen Bericht über sterbende Wälder. Dabei wird nach üblichem Muster ein Ausschnitt der natürlichen Realität genutzt, um eine menschengemachte Gefahr zu konstruieren. Eine Arbeitsgruppe von der renommierten Duke-Universität habe nach eigenen Angaben herausgefunden, daß rund 11 Prozent des Waldes im Alligator-River-Schutzgebiet durch Versalzung abgestorben seien. Das Salz kommt vom – natürlich – steigenden Meerwasser in der Nähe.

Lustigerweise berichtet Spektrum, daß solche versalzten „Geisterwälder“, die nur noch aus Baumleichen bestehen, im Nordwesten der USA eine altbekannte Landschaftsform seien, da ein schweres Erdbeben im Jahre 1700 (sic!!) die Küste um zwei Meter fallen ließ und so die nahen Wälder vom Meerwasser verschlungen oder zumindest versalzt wurden. Es gibt also natürliche Kastastrophen, geben sie zu, aber heute, ja heute, da ist es der Klimawandel.

Die Argumentation nutzt seit langem fast jeder „Klimachützer“ oder „Klimaforscher“. Unser Referent Peter Ridd aus Australien berichte auf unserer letzten Konferenz zum Beispiel, daß die Korallenbleiche des Großen Barrie-Riffs entgegen den Darstellungen seiner Klima-Kollegen keineswegs Folge menschlicher Eingriffe sei.

Die Duke-Forscher unterstreichen ihre Klimawandel-Argumentation damit, daß „Ausmaß und Geschwindigkeit“ des Baumsterbens zunähmen. Aber nicht nur das Klima direkt sei schuld – sondern auch andere, natürlich menschgemachte Probleme förderten den Landverlust, zum Beispiel alte Entwässerungsgräben der Landwirtschaft.

Was nicht fehlen darf, sind – tata! – „Extremwettererignisse“, die laut IPCC ja eigentlich nicht zunähmen. Trotzdem, ist halt so, Dürre und Waldbrände, plus Sturmflut hätten zB. 2012 5.000 Hektar Geisterwald entstehen lassen.

Was den kritischen Leser von Spektrum wundert, ist, wie die Wissenschaftsredaktion eigentlich in der enormen Menge an Klima-Weltuntergangsliteratur, die weltweit mit Milliarden (oder schon Billionen?) Steuergeldern gefördert wird, solche eher schwachen Themen findet. Oder zeich




Aktuelle Klimamodellsimulationen überschätzen den zukünftigen Anstieg des Meeresspiegels

Danach ist der projizierte Anstieg des Meeresspiegels in 100 Jahren – wenn außerdem der projizierte Anstieg der globalen Temperatur stimmen würde – mindestens 25% niedriger als aus den aktuellen Simulationen erwartet. Diese Ergebnisse wurden heute von Science Advances veröffentlicht.

Die Schätzungen für einen künftigen Anstieg des Meeresspiegels basieren auf einem großen Ensemble von Klima basierten Modellsimulationen. Die Ergebnisse dieser Simulationen sollen helfen, den zukünftigen Klimawandel und seine Auswirkungen auf den Meeresspiegel zu verstehen. Klimaforscher sind ständig bemüht, diese Modelle zu verbessern, indem sie beispielsweise eine viel höhere räumliche Auflösung verwenden, die mehr Details berücksichtigt. „Hochauflösende Simulationen können die Ozeanzirkulation viel genauer bestimmen “, sagt Prof. Henk Dijkstra. Zusammen mit seinem Doktoranden Kandidat René van Westen hat in  den letzten Jahren Meeresströmungen in hochauflösenden Klimamodellsimulationen untersucht.

Ozeanwirbel

Das neue hochauflösende Modell berücksichtigt Wirbelprozesse im Ozean. Ein Wirbel ist ein große (10-200 km) wirbelnde und turbulente Eigenschaft der Ozeanzirkulation, die zum Transport von Wärme und Salz beiträgt. Das Hinzufügen von Ozeanwirbeln zur Simulation führt zu einer realistischeren Darstellung der Meerestemperaturen um die Antarktis. Dieses ist für die Bestimmung des Massenverlusts der Eisdecke der Antarktis von entscheidender Bedeutung.

„Die Eisdecke der Antarktis ist von Eisschelfs umgeben, die den Fluss von Landeis in den Ozean verringern“, erklärt Van Westen. „Höhere Meerestemperaturen in der Antarktis erhöhen das Schmelzen dieser Eisschelfs, was zu einer Beschleunigung des Landeises in den Ozean führt und folglich zu einem stärkeren Anstieg des Meeresspiegels führt.“

Vergleich des neuen hochauflösenden Modells (links) mit dem zuvor verwendeten niedrigauflösenden Modell (rechts). Bildnachweis: Universität Utrecht

Die aktuellen Klimamodell-Simulationen, die Ozeanwirbel nicht berücksichtigen, gehen davon aus, dass die Meerestemperaturen in der Antarktis unter dem Einfluss des Klimawandels steigen. Die neue hochauflösende Simulation zeigt ein ganz anderes Verhalten und einige Regionen in der Nähe der Antarktis kühlen sogar ab.

„Diese Regionen scheinen angesichts des Klimawandels widerstandsfähiger zu sein“, sagt Van Westen. Dijkstra fügt hinzu: „Man erhält aufgrund von Ozeanwirbel – Effekten sehr unterschiedliche Temperaturreaktionen .“

Vollständiger Artikel hier.

https://phys.org/news/2021-04-current-climate-simulations-overestimate-future.html

von der Universität Utrecht, Fakultät für Naturwissenschaften

Autor Charles Rotter

Gefunden auf https://wattsupwiththat.com/2021/04/12/current-climate-model-simulations-overestimate-future-sea-level-rise/

Übersetzt durch Andreas Demmig

***

PS:

Entschuldigung, das muss raus:

Hier wird wieder nur ein Modell mit einem anderen verglichen.

Ob das nun besser ist???

Nicht zu vergessen: Fast 100 Grad minus: Kälterekord in der Antarktis

https://www.zeit.de/news/2018-07/01/fast-100-grad-minus-kaeltester-ort-kaelter-als-gedacht-180701-99-960062?

Der Übersetzer




Es besteht die Chance, dass Frankreich das Pariser Klima-Abkommen im Jahr 2022 verlässt

* update: Der Ausdruck Bobo war mir unbekannt,  durch die im Original beigegebene Erklärung, habe ich auch nicht danach recherchiert.
Von unseren Lesern kam Unterstützung – vielen Dank dafür
Bobo = bourgeois bohémien ~ Zigeuner-Bourgoisie.
Bobo: … ein alternativ eingestellter Wohlstandsbürger, also „Grüner“

Auf Wiki gibt es diese Abkürzung auch:  … Bezeichnung für einen Yuppi oder Hippie

 

In Umfragen steigt die Zustimmung für Marine Le Pen,
französische Wahlen sind im Jahr 2022

Marine Le Pen ist die Vorsitzende als rechts eingeschätzten französische Rassemblement National Partei und baut Ihre Chancen weiter aus, die erste Runde der Präsidentschaftswahlen im nächsten Jahr zu gewinnen – laut einer veröffentlichten-ifop-fiducial Umfrage.

In der ersten Runde würde sie in sechs von zehn Szenarien an erster Stelle stehen, wenn am nächsten Sonntag Wahlen wären. Bislang würde sie dann in der zweiten Runde für die beiden besten Kandidaten geschlagen werden, in einer Stichwahl mit 46% gegenüber 54% für Präsident Emmanuel Macron.

Diese Ergebnisse zeigen sowohl die Schwierigkeiten von Präsident Emmanuel Macron im Zusammenhang mit der Gesundheitskrise, als auch die zunehmende Akzeptanz einer in der bürgerlichen Mitte-rechts angesiedelten Partei. Noch ist es ein Jahr hin bis zur französischen Präsidentschaftswahl, die in zwei Runden stattfinden. Zunächst werden die beiden stärksten Kandidaten ermittelt, die es dann zur zweiten Runde schaffen. Es wird weitere Interviews, Rededuelle geben,  um dann in einer Stichwahl den Sieger zu ermitteln. Gegner von  Marine Le Pen wird mit ziemlicher Sicherheit Macron sein – es könnte allerdings es auch ein anderen Kandidat des Establishments sein.

Marine Le Pen hat sich von ihrem als rechtsextrem bezeichneten Vater losgesagt. Die Partei hat sich von Front National nun in Rassemblement National umbenannt (~ Sammlungsbewegung). Frau Le Pen hält nichts vom Pariser Klimaabkommen.

Selbst Präsident Macron nimmt das Pariser Abkommen nicht ernst – im Februar dieses Jahres entschied  ein französisches Gericht, dass Frankreich seine Zusagen zum Pariser Abkommens nicht erfüllt.

Präsident Macron kämpft darum, die Wähler auf seine Seite zu ziehen. Er ordnete am 3. April eine landesweite Sperrung wegen Corona an, nachdem er diese Entscheidung wochenlang zurückgedrängt hatte. Laut einer Umfrage von Elabe, [Bloomberg, Bezahlsperre], fiel die Zustimmung zu ihm bei den Befragten Anfang April um einen Punkt auf 33%. Elabe sagte, 63% der Befragten haben kein Vertrauen mehr in Macron, 3 Punkte mehr als bei der vorherigen Umfrage.

Zwei weitere potenzielle Rivalen sind der frühere Gesundheitsminister und Präsident der nördlichen Arbeiterklasse von Hauts-de-France, Xavier Bertrand [Link T-online] sowie die Präsidentin der Pariser Region, Valerie Pecresse. Bei den letzten Wahlen gewann sie gegen Le Pen.

Damit werden die Wahlen in Frankreich 2022 sehr spannend sein. Falls Le Pen zur Präsidentin gewählt wird und wenn sie das Pariser Abkommen zerreißt, könnte  US-Vizepräsidentin Harris in der köstlichen Lage sein, sich zu einem Klimaabkommen zu verpflichten, das sogar im Gastland abgelehnt wird.

Gefunden über

https://wattsupwiththat.com/2021/04/12/will-france-leave-the-paris-agreement-in-2022/

Übersetzt durch Andreas Demmig

Korrektur update 16.04.2021

***

  • Um ein erlaubtes Aufmacherbild von Marine Le Pen zu finden, habe ich mit ihrem Namen nach der Webseite ihrer Partei gesucht. Das hat sich dann hingezogen, denn selbst unterschiedliche Suchmaschinen verweisen auf den ersten paar Seiten alle auf Wikipedia [rechtsextreme oder rechtsextremistische Person / Partei o.ä] oder auf gleichlautende Beiträge in den MSM.
  • Ich fand keine Nachrichten, dass Mitglieder oder Anhänger ihrer Partei „Rassemblement National“ an Sachbeschädigungen oder gar Angriffen auf Sachen und Politiker beteiligt waren – nur das Gegenteil, hier durch Antifa. Damit ist diese Partei wohl in einer Reihe mit AfD, FPÖ und SVP zu sehen, die alle als rääächte Schmuddelkinder verleumdet werden.

Hier die Webseite der https://rassemblementnational.fr




„Viele Klimaskeptiker bezweifeln auch die Coronagefahren“: neues Schmäh-Buch aus dem Herder-Verlag

„Intersektionalismus“, zu deutsch etwa „Schnittmengenbildung“, bezeichnet in den politisierten akademischen Fächern die Kombination unzusammenhängender Themen, um angeblich neue Forschungsfelder zu eröffnen. Damit kann man zusätzliche Fördergelder einwerben und strategische Allianzen von Interessensgruppen, die von Transfergeldern leben, begründen.

Insofern wundert es nicht, daß in dem gerade erschienen Buch im ehemals renommierten Herder-Verlag nicht nur „rechte Coronaleugner“, sondern auch „marktradikale Klimaleugner“ in die Pfanne gehauen werden. Die Spiegel-Journalistin Susanne Götze und die Correctiv-„Klimareporterin“ Annika Joeres haben dazu ein paar alte Behauptungen ihrer bisherigen Artikel und ihres Buches Die Klimaschmutzlobby aufgewärmt und sie als Kapitel in „Fehlender Mindestabstand“ zusammengeschrieben; ergänzt durch ein paar coronige Statements.

Gleich zu Beginn tragen die Autorinnen dick auf: Eine „altbekannte Allianz“ aus Klimaleugnern (wir), Marktradikalen (das sind wohl Marktwirtschaftler) und Rechtspopulisten (AfD & WerteUnion) mit „Grundmißtrauen gegen die Wissenschaft“ wetterte gegen das Corona-Regime der Regierung und ihrer treuen Journalisten.

Daß wir Aktiven von EIKE, Historiker, Physiker, Ingenieure, Biologen etc. so derart gegen Wissenschaft seien, ist schon eine interessante Behauptung. Oder meinten sie den Büffelfellträger aus dem Capitol in Washington?

Joeres und Götze behaupten zudem, daß auf den „Hygienedemos“ viele bekannte Klimaleugner zu sehen gewesen seien – ja wer denn?

Zu EIKE konkret meinen die beiden:

Mit dabei: der deutsche Verein EIKE, der sich selbst Europäisches Institut für Klima und Energie nennt. Der Verein befeuert die Skepsis gegenüber der Gefährlichkeit des Covid-19-Virus. Er hat seinen Sitz in Jena und hatte vor der Epidemie das Ziel, Zweifel am menschgemachten Klimawandel zu säen. Derzeit geht es beim Verein darum, wie angeblich „närrisch“ die politische Reaktion auf Corona ausfiel.

Nicht ganz, wir haben auch jetzt durchgehend das Ziel, Zweifel am Klima-Tamtam von Opportunisten zu säen; und nebenbei an allen anderen Panik-Kampagnen, die nur darauf abzielen, die Freiheit der Gesellschaft abzubauen und das Geld der Bürger von unten nach oben umzuverteilen (zum Beispiel in die Taschen von regierungstreuen Journalisten).

Danach wird ein bißchen mit der AfD verglichen, deren Arm EIKE angeblich ist, weil Michael Limburg Mitglied ist und Kontakt zu MdB Karsten Hilse hat. Von Hilse wird erwähnt, daß er zur Wendezeit Volkspolizist war. Schon lustig, daß eine Journalistin aus dem linken Lager, das die DDR mehr oder minder heimlich als das bessere Deutschland ansah, auch mit der DDR-Keule kommt, wenn es gerade nützlich ist. Nebenbei: Der gutaussehende Hilse war auch mal „Mister Brandenburg“. Ist das nicht kapitalistisch, klassistisch und attraktivistisch? Ich gebe zu, den letzten Ausdruck habe ich gerade erfunden. Hoffentlich bauen Joeres und Götze da jetzt keine neue NGO-Theorie drauf auf….

Im weiteren Text kommt etwas zum „Sturm“ auf den Reichstag, mit dem wir nichts zu tun hatten und bei dem es auch gar nicht ums Klima ging. Danach werden erwartungsgemäß Heartland und die Tabakindustrie erwähnt, Professor Werner Müller aus Mainz, Max Otte, Hans-Georg Maaßen und die WerteUnion, Piers Corbyn und Donald Trump. Man sieht, ein buntes Sammelsurium, das wirkt, als hätten die beiden Autorinnen krampfhaft versucht, einen Zusammenhang zwischen Klima- und Coronakritikern herzustellen. Es fehlt nur noch eines dieser hübschen Schaubbilder mit den Vernetzungen der Satanischen – am besten mit EIKE als dicker Spinne im Zentrum des Netzes. Ganz am Schluß schreiben die beiden allerdings etwas, dem wir zustimmen können:

„Ihr Ziel ist dasselbe geblieben wie im Kampf gegen Tabakverbote oder Klimapolitik:

Der Staat soll sich aus der Wirtschaft und dem Leben der Menschen heraushalten.“

Ja, weitgehend zumindest, denn der Staat ist zur Beute von Interessensgruppen geworden, zu denen sämtliche Autoren des vorliegenden Buches gehören.

Viel interessanter als der substanzlose Text von Joeres und Götze ist das Drumherum. Besonders pikant ist die Tatsache, daß das diffamierende und politisch einseitige Buch im katholischen Herder-Verlag erschien – er machte seit den 1980ern seine besten Geschäfte mit Büchern über die Päpste – Johannes Paul II., Benedikt XVI., und aktuell Franz I.

Wie kommt ein derart konservatives Haus dazu, klar linke Traktate zu veröffentlichen? Vielleicht liegt es an den beiden neuen Geschäftsführern, die erstaunlich jung sind, unter 40. Ein gewichtigerer Grund ist aber wohl – wie üblich – das liebe Steuergeld. Veröffentlicht wird das Buch nämlich mit „Unterstützung“ des Zentrum Liberale Moderne, einer jungen Berliner NGO, die weder modern noch liberal ist, sondern grün und ganz, ganz links. Gründer sind Marieluise Beck und Ralf Fücks von B‘90/Grüne. Finanziert wird der Verein – man ahnt es – natürlich auch aus dem Bundeshaushalt.

Man darf also davon ausgehen, daß die beiden jungen Geschäftsführer das Buch hauptsächlich verlegten, weil damit die berühmte „Staatsknete“ (taz) reichlich hereinkommt. Einmalig bringt das vielleicht nicht so viel – da aber die Regierung immer mehr Zeitungen indirekt einkauft, die wegen Linkslastigkeit und weitaus kompetenterer Konkurrenz im Netz pleite zu gehen drohen, ist damit zu rechnen, daß auch brave Verlagshäuser in Zukunft immer mehr sicheres Steuergeld erhalten können. Ob sie ihre Meinungs- – und PR-Bücher überhaupt verkaufen, ist gleichgültig, das Steuergeld kommt auch so herein; ähnlich den abschmierenden geförderten Zeitungen, deren Verkaufszahlen seit Jahren im freien Fall sind.

Daß die Regierung und ihr anschwillender NGO-Apparat auch konservative katholische Verlage schmiert, ist besonders delikat; so kann man vermutlich sicherstellen, daß sich hier keine christlichen Dissidenten sammeln, und zudem „Neutralität“ simulieren.

Daß der konservative Herder-Verlag sagen könnte, man habe nicht gewußt, wessen Bücher man hier verlegt, ist nicht wahrscheinlich, da neben Götze und Joeres die üblichen Verdächtigen der ganz linken NGO- und Zeitungsszene schreiben:

  • Sebastian Leber vom Berliner Tagesspiegel, der mit seinem Artikel „Danke, liebe Antifa“ 2014 einiges an Unverständnis erntete;
  • Herausgeberin Heike Kleffner, die laut Wiki als freie Journalistin über rechte Gewalt, Neonazis und die Situation von Asylanten unter anderem für die taz, Zeit Online, den Tagesspiegel, Jungle World, Jetzt und die Frankfurter Rundschau schrieb;
  • Herausgeber Matthias Meisner, der sich laut Wiki ausführlich mit den Demonstrationen der Pegida und der Diskussion um die Immigrationspolitik befaßt. Zu seiner Berichterstattung über die Themen Immigranten, AfD und Pegida, aber auch zur Rolle der sozialen Medien in der journalistischen Arbeit bezog er in verschiedenen Interviews Stellung, unter anderem für lügenpresse.de und beim Deutschlandfunk. Seit Dezember 2020 ist Meisner einer der Kolumnisten der Dresdner Migrantenorganisation Mission Lifeline.
  • Patrick Gensing, der umstrittene „Faktenchecker“ der Tagesschau
  • Matthias Quent von der Amateu-Antonio-Stiftung
  • Ralf Fücks vom oben erwähnten Zentrum liberale Moderne und B‘90/Grüne

Neben den Autoren sprechen auch die Überschriften der Kapitel und Buchteile Bände. Eine Auswahl:

  • Schlaglichter: von Stuttgart bis Washington DC

Die Wutbürger von der B96, Mit Bier und Sauna gegen Corona, Abstrus aber brandgefährlich (über QAnon)

  • Ideologien: von Rassismus bis Verschwörungsglaube

Der QAnon-Boom, „Corona und Bargeldabschaffung sind zwei Seiten einer Medaille“

  • Akteurinnen und Akteure (sic!) der neuen Allianz

Reichs- und Regenbogenfahnen, Polizisten auf Coronademonstrationen, Hetze die zum >Abschuß< freigibt

  • Die Angegriffenen: Beleidigungen, Hetzkampagnen, Morddrohungen

Sündenböcke der Pandemie, >Die Schimpfwörter werden bleiben< (über anti-asiatischen Rassismus)

 




Monatlicher Kältereport…

In diesem Report nimmt naturgemäß die jüngste Kältewelle in Europa den größten Raum ein. Aber auch anderswo kommt es wie üblich zu besonderen Kalt-Ereignissen. – Ende Einführung

Kein Anzeichen von Frühling in Alaska

3. April: Sogar in Fairbanks selbst ist es kalt für den April, und es ist mehr Schnee vorhergesagt. In anderen Gebieten herrschen Schneesturm-Bedingungen, und Stromausfälle sind aufgrund von Schneebruch möglich. Ein großer Wintersturm wird die Westküste und das Landesinnere bis zum Wochenende treffen.

Link: https://www.iceagenow.info/no-sign-of-spring-in-alaska/https://www.iceagenow.info/cold-invades-western-europe-record-cold-in-scotland/

———————————

Kälte-Einbruch in Westeuropa – Rekord-Kälte in Schottland

6.April: Ab dem 5. April lagen die Länder Westeuropas [das nach amerikanischer Lesart auch noch unser Land umfasst; A. d. Übers.] auf der kalten Rückseite eines mächtigen Tiefdruckwirbels.

In vielen Städten Englands traten Rekord-Minima der Temperatur auf. In Aberdeen sank die Temperatur auf –3,4°C. Damit war ein Rekord aus dem Jahr 1984 mit einer Temperatur von –3,2°C gebrochen worden.

Link: https://www.iceagenow.info/cold-invades-western-europe-record-cold-in-scotland/

———————————

Und nochmals nach Alaska:

Rekord-Schneefälle in Alaska

[Hinweis: Sämtliche Angaben in Inches im Olriginal sind hier gleich in cm umgerechnet]

7. April: Bzgl. Schneefall wurde der bisherige Rekord aus dem Jahr 1948 gebrochen.

In Fairbanks wurden am Montag Schulen geschlossen, musste sich das Gebiet doch aus über 30 cm Neuschnee ausgraben – gebietsweise auch noch viel mehr – der über das Oster-Wochenende gefallen war.

Die mittlere Neuschneemenge im April beträgt für den ganzen Monat ca. 7 cm.

Um 9 Uhr morgens am Montag ergaben inoffizielle Messungen bis zu 50 cm Neuschnee. Die offizielle Messung an der University of Alaska in Fairbanks ergab ca. 30 cm.

Den Messungen des Wetterdienstes zufolge ist das ein neuer Zwei-Tage-Rekord für April in Fairbanks. Der bisherige Rekord stand bei 29 cm im Jahre 1948.

Link: https://www.iceagenow.info/record-snowfall-in-alaska-2/

———————————

Neue Kälte-Rekorde in Frankreich

8. April: Im April 2021 wurde eine ganze Reihe von Kälterekorden gebrochen, die bsi zum Jahre 1938 zurück reichen.

Eine Kältewelle hat Frankreich in der Nacht zum 6. April so stark getroffen, dass eine Reihe von Tiefsttemperaturrekorden aufgestellt wurde. Die Verschlechterung der Wetterbedingungen war vor allem in den nördlichen und zentralen Teilen des Landes spürbar. In einigen Regionen wurde eine Warnung vor einer Welle von Kälte, Schnee und Eis auf den Straßen herausgegeben. In der Region Haute-de-France sank die Lufttemperatur in der Nacht auf -6,9 °C, im Zentrum des Landes und im Loiretal stellenweise auf -6,4 °C.

Link: https://www.iceagenow.info/broken-cold-records-in-france/

———————————

Neue Allzeit-Kälte-Rekorde in Slowenien – teilks unter –20°C

9. April: Zahlreiche, teils fast 100 Jahre zurück liegende Rekorde sind durch extreme Kälte in ganz Europa gebrochen worden.

Viele Gebiete in Slowenien verzeichneten ihren kältesten Aprilmorgen der letzten 100 Jahre! Die offizielle meteorologische Station Nova vas na Blokah (ca. 1350 m ü. NN) erreichte einen Tiefstwert von -20,6 °C und stellte damit einen neuen nationalen Rekord für den Monat April seit Beginn der Aufzeichnungen auf. Der bisherige Rekord an der Station Nova vas lag bei -18,0 °C, aufgestellt am 4. April 1970. Einen weiteren Rekord gab es mit -26,1 °C an einer inoffiziellen Wetterstation im Dorf Retje bei Loški Potok.


[Es folgen diverse Einzelwerte von Stationen aus Slovenien und Kroatien]

Alle diese Gebiete und viele andere liegen in niedrigeren Lagen, so dass im Frühjahr die Begrünung und die Blüte der Bäume bereits begonnen hatte. Die Schäden an der Vegetation variieren daher von erheblich bis vollständig.

Link: https://www.iceagenow.info/slovenia-breaks-all-time-april-record-with-below-20c/

———————————

Frankreich erklärt den „Landwirtschafts-Notstand“ nach Rekord-Kälte – schwerer Schneesturm in Belgien

Der Notstand wurde ausgerufen, nachdem Frost schwere Schäden in der Landwirtschaft angerichtet hatte.

Landwirte in ganz Frankreich erhalten Unterstützung von der Regierung, nachdem der Landwirtschaftsminister den Schaden, den die Kälte an den Kulturen angerichtet hat, anerkannt hat; die Kälte wird im ganzen Land anhalten.

Und in Belgien haben die Bewohner vieler Städte, darunter Brüssel, einen regelrechten Schneesturm erlebt. In einigen Gebieten fielen mehr als 20 cm Schnee.

Inzwischen ist der Winter auf den Balkan zurückgekehrt.

Nachdem die arktische Luft ganz Westeuropa überflutet hatte, breitete sie sich weiter nach Südosten aus. In der Nacht zum 9. April sank die Temperatur in den Bergen Bulgariens und Rumäniens auf -17°C.

[Es folgen diverse Links zu den Angaben]

Link: https://www.iceagenow.info/france-declares-farming-disaster-after-record-cold-blizzard-in-belgium/

———————————

Historischer“ Frost dezimiert die Ernte französischer Weinproduzenten

10. April: Französische Obstbauern und Winzer warnen, dass der Großteil ihrer diesjährigen Ernte („80 bis 90 Prozent“) durch den Frost in dieser Woche verloren gegangen ist.

„Keine Region ist verschont geblieben: Rüben, Raps, Gerste, Weinreben, Obstbäume“, betonte der nationale Verband der Bauerngewerkschaften (FNSEA).

„Es ist historisch wegen der Intensität des Frostes und der Ausdehnung der betroffenen Gebiete: niemand wurde in Saône-et-Loire verschont. Es ist außergewöhnlich“, sagte Thomas Canonier, Weinberater bei Vinipôle Sud-Bourgogne.

Der Präsident des nationalen Verbandes für Äpfel und Birnen warnte auch, dass „Pfirsiche, Nektarinen, Aprikosen in diesem Jahr selten in den Regalen zu finden sein werden“ wegen der jüngsten tiefen Temperaturen.

Link: https://www.iceagenow.info/historic-freezes-decimate-french-winemakers-harvest/

———————————

[Auch die GWPF meldete sich bzgl. der Kälte:]

Von Europa bis nach Alaska: in manchen Gebieten der Welt ist es derzeit außerordentlich kalt

The Washington Post

Eisige, aus der Arktis nach Süden strömende Luft hat Europa und Alaska überflutet. Damit erlitt der Frühling einen herben Rückschlag, und vielfach wurden Langzeit-Rekorde gebrochen.

In Europa ist die Kälte ein Schock, der die Region nur wenige Tage nach einem Ausbruch von frühsommerlicher Wärme erfasst hat. Einige Gebiete, die in der vergangenen Woche das wärmste März-Wetter seit Beginn der Aufzeichnungen erlebten, müssen nun das kälteste April-Wetter ertragen. In der Schweiz und in Slowenien wurden am Mittwoch Rekord-Tiefsttemperaturen für den April gemessen, während Donnerstag früh in Teilen Frankreichs und Italiens zum zweiten Mal in Folge Rekord-Kälte herrschte.

Währenddessen könnte die Temperatur in Alaska in den kommenden Tagen auf bis zu minus 50 Grad sinken und damit den niedrigsten Wert, der dort im April gemessen wurde, brechen.

Extreme Kälte und Schnee in Europa

Nach dem Durchzug einer Kaltfront aus der Arktis stürzten die Temperaturen in vielen Gebieten Europas in den Keller. Mittwoch früh waren an zahlreichen Orten in Mittel- und Westeuropa neue April-Kälterekorde verzeichnet worden.

Es folgt im Original eine längere Liste mit Einzelwerten an bestimmten Orten]

Link: https://www.thegwpf.com/from-europe-to-alaska-parts-of-the-world-are-exceptionally-cold-right-now/

———————————

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE




Wir sollten uns auf die Denkweise von Michael Crichton besinnen

Michael Crichton (1942-2008) schrieb 26 Romane, von denen viele verfilmt wurden, wie Jurassic Park, Andromeda Strain, The Terminal Man, WestWorld und The Great Train Robbery. Mehr Menschen kennen ihn vielleicht als Schöpfer und Produzenten der hochgelobten Fernsehserie ER. Er machte 1969 seinen Abschluss an der Harvard Medical School, praktizierte aber nie als Arzt. Stattdessen nutzte er sein medizinisches und biologisches Wissen, um Geschichten zu erfinden, die viel mit seiner Ausbildung zu tun hatten.

Crichton zeigte schon früh ein Schreibtalent, da er bereits mit 14 Jahren einen Artikel in der New York Times veröffentlichte, so dass es für seine Familie nicht überraschend war, dass er sich für diese Karriere entschied. Während all dem war er ein wahrer Verfechter der ECHTEN Wissenschaft, ungetrübt von der Politik, welche sie heute zu leiten pflegt. Diese Leidenschaft zeigte er in einer Reihe von Vorträgen von 2003 bis 2005 und in seinem 2004 veröffentlichten Buch „State of Fear“, in dem er den Betrug der globalen Erwärmung in einer fesselnden fiktionalen Darstellung herausfordert.

Diese Serie von Artikeln bei CFACT ist aus den folgenden drei Vorträgen entstanden: Aliens Cause Global Warming, gehalten am California Institute of Technology (Cal Tech) am 17. Januar 2003, Environmentalism Is A Religion, gehalten im Commonwealth Club in San Francisco am 15. September 2003 und The Case For Skepticism on Global Warming, gehalten am 25. Januar 2005 im National Press Club in Washington, DC.

Sein Titel an der Cal Tech klang humorvoll, aber er ebnete den Weg zur Beschreibung von Fragen ohne physikalische Beweise. Er glaubte, dass es eine aufkommende Krise zwischen Wissenschaft und Politik gab, die die Wissenschaft, mit der er aufgewachsen war, verzerrte. Diese Wissenschaft verlängerte die Lebensspanne, ernährte die Hungernden, heilte Krankheiten und schrumpfte die Welt mit Düsenflugzeugen und Handys. Er hatte erwartet, dass „die Wissenschaft die Übel des menschlichen Denkens, der Vorurteile und des Aberglaubens verbannen würde“. In diesem Vortrag legte er dar, wie die Wissenschaft „von den älteren Verlockungen der Politik und der Öffentlichkeit verführt wurde“.

Er konzentrierte sich auf die vielen Wege, auf denen die Wissenschaft ihre Ressourcen verschwendet, um Dinge zu untersuchen, für die es keine diese Dinge unterstützenden physikalischen Daten gibt. Als erstes griff er die Täuschung an, die mit der Suche nach außerirdischer Intelligenz verbunden war, bekannt als das SETI-Projekt. Im Jahr 1960 wurde am Nationalen Radio-Observatorium in West Virginia ein Geräusch gehört. Es erwies sich zwar als falsch interpretiert, führte aber dazu, dass man Gleichungen aufstellte, die sich auf die Anzahl der Sterne in der Milchstraße bezogen und wie diese statistisch gesehen auf intelligentes Leben hindeuten könnten, das uns Botschaften sendet. Keiner der Begriffe in den Gleichungen konnte bekannt oder getestet werden, also war es ein Abenteuer der Vermutungen. SETI war nie eine Wissenschaft, sondern wurde für viele zu einer Religion. Der Vergleich zu allem, was im globalen Erwärmungswahn folgte, ist erstaunlich. Und doch ist es für die meisten von Ihnen, die diesen Artikel lesen, längst vergessen, wenn sie sich an den Intellekt von Michael Crichton erinnern.

Was Crichton damals erkannte war, dass die Akzeptanz von SETI bei so vielen Wissenschaftlern in nicht verwandten Gebieten einen Spalt in der Tür öffnete, eine Lockerung der Definition dessen, was legitimes wissenschaftliches Vorgehen ausmacht. Und schon bald begann verderblicher Müll durch die Ritzen zu quetschen.

Dann sprang er ein Jahrzehnt in die 1970er Jahre und nahm sich der falschen, Angst erzeugenden Regierungsberichte über den sogenannten „nuklearen Winter“ an, der aus einem Atomkrieg resultieren könnte. Berichte, die ohne Daten, nur mit Spekulationen geschrieben wurden. Schließlich tauchten Gruppen von Wissenschaftlern mit Gleichungen auf, die wieder einmal nur Begriffe enthielten, die man nur erahnen konnte. Traurigerweise meldete sich der bekannte Astronom Carl Sagan mit Untergangsvorhersagen auf einem Gebiet, von dem er nichts verstand. Dutzende von Auftritten in der Johnny Carson Show schienen sein Wissen über ALLES anschwellen zu lassen. Dies führte dazu, dass Sagan zusammen mit dem berühmtesten Scharlatan Paul Ehrlich in Washington, DC eine Konferenz über die langfristigen Folgen eines Atomkrieges leitete.

Da die Zerstörung der gesamten Landwirtschaft als gegeben angesehen wurde, wies ein Fragesteller darauf hin, dass Wissenschaftler zwar dachten, in Hiroshima und Nagasaki würde 75 Jahre lang nach den Atombomben-Explosionen von 1945 nichts mehr wachsen, aber im nächsten Jahr wurde eine große Melonenernte eingefahren. Ehrlich wischte die Frage beiseite und sagte: „Was wir hier jedoch tun, ist, einen Konsens einer sehr großen Gruppe von Wissenschaftlern zu präsentieren.“

An dieser Stelle in Crichtons Vortrag machte er eine Aussage, die jeder in der heutigen Welt lesen und lernen sollte:

„Ich halte die Konsens-Wissenschaft für eine extrem schädliche Entwicklung, die auf kaltem Wege gestoppt werden sollte. Historisch gesehen ist die Behauptung eines Konsenses die erste Zuflucht von Schurken; es ist ein Weg, eine Debatte zu vermeiden, indem man behauptet, die Sache sei bereits entschieden.“ Klingt vertraut.

Er fuhr fort: „Die Arbeit der Wissenschaft hat überhaupt nichts mit Konsens zu tun. Konsens ist das Geschäft der Politik. In der Wissenschaft hingegen braucht es nur einen Forscher, der zufällig Recht hat, was bedeutet, dass er oder sie die Ergebnisse hat, die durch Bezug auf die reale Welt überprüfbar sind. In der Wissenschaft ist der Konsens irrelevant. In der Tat sind die größten Wissenschaftler in der Geschichte gerade deshalb großartig, weil sie mit dem Konsens gebrochen haben“.

Dies ist bei der Suche nach medizinischen Heilmitteln und auch in der Physik geschehen. Einstein reagierte auf das Buch 100 deutsche Wissenschaftler, die Einsteins Relativitätstheorie widersprechen, mit den Worten „Es hätte nur einen gebraucht, um mir das Gegenteil zu beweisen“.

Ein wichtiger Punkt, den Crichton in dieser Rede ansprach war, dass im zu Ende gehenden 20. Jahrhundert die Verbindung zwischen harten wissenschaftlichen Fakten und der öffentlichen Politik zunehmend schwammig wurde. Der Aufstieg spezialisierter Lobbygruppen war nun wirksam bei der Gestaltung der Politik ohne wissenschaftliche Daten. Dazu beigetragen haben die Selbstgefälligkeit des wissenschaftlichen Berufsstandes und der Mangel an guter wissenschaftlicher Bildung in der Öffentlichkeit. Zusätzlich sagte er, dass der Niedergang der Medien als unabhängige Beurteiler von Fakten bedauerlich sei. Zeitungen mischen nun auf ihren Titelseiten redaktionelle Meinung und faktischen Inhalt.

Crichton stellte die Frage, wann der Begriff „Skeptiker“ zu einem Schimpfwort wurde, das Anführungszeichen um sich herum benötigt. Er sprach von der wachsenden Besessenheit mit Computermodellen im Jahr 2003, die wir alle bei den Vorhersagen des Pandemie-Virus im vergangenen Jahr versagen sahen. Wo Modelle Daten verarbeiten sollten, erzeugen sie jetzt Daten, die verarbeitet werden müssen. Er sagte in dieser Rede, dass „die Arroganz der Modellbauer atemberaubend ist“ und wer könnte da widersprechen.

Er warnte, wenn man an das SETI-Projekt, den nuklearen Winter und weiter an die globale Erwärmung zurückdenke, gebe es eine klare Botschaft: Wir können mehr und mehr ernsthafte Probleme der öffentlichen Politik erwarten, die sich mit Themen befassen, die Menschen auf allen Seiten leidenschaftlich beschäftigen.

Crichton wies auf die schändliche Art und Weise hin, mit der der dänische Statistiker Bjorn Lomborg bei der Veröffentlichung von THE SKEPTICAL ENVIRONMENTALIST empfangen wurde. Es beschwor Gedanken an Galileis Verhaftung herauf, weil er behauptet hatte, die Erde drehe sich um die Sonne, anstatt dass die Kirchen an das Gegenteil glaubten.

Er schloss diesen ersten von drei vorausschauenden Vorträgen zum Thema was aus der Wissenschaft geworden ist. Er zitierte den verstorbenen Philip Handler, ehemaliger Präsident der National Academy of Science, der sagte: „Wissenschaftler dienen der Öffentlichkeit am besten, wenn sie innerhalb der Ethik der Wissenschaft leben, nicht der der Politik. Wenn die wissenschaftliche Gemeinschaft die Scharlatane nicht entlarvt, wird die Öffentlichkeit den Unterschied nicht erkennen – die Wissenschaft und die Nation werden leiden.“

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2021/04/07/we-should-return-to-michael-crichtons-way-of-thinking

Übersetzt von Chris Frey EIKE




Wie wir uns selbst zum Narren machen: Wissenschaft­liche Konsens­bildung

Oder mit den Worten des Politik-Wissenschaftlers Daniel Sarewitz: „Wie ein Magnetfeld, das Eisenspäne in eine Richtung zieht, so richtet eine mächtige kulturelle Überzeugung mehrere Quellen wissenschaftlicher Voreingenommenheit in dieselbe Richtung aus“.

Die Psychologen Richard Simmons et al. stellen fest, dass die Voreingenommenheit von Forschern einen großen Einfluss auf das Ergebnis einer Studie haben kann. Zu solchen „Freiheitsgraden des Forschers“ gehören Entscheidungen darüber, welche Variablen einbezogen werden, welche Daten einbezogen werden, welche Vergleiche angestellt werden und welche Analysemethoden verwendet werden sollen. Jede dieser Entscheidungen mag vernünftig sein, aber zusammengenommen ermöglichen sie es dem Forscher, statistische Signifikanz oder andere aussagekräftige Informationen aus fast jedem Datensatz zu extrahieren. Forscher, die die notwendigen Entscheidungen über die Datenerfassung und -analyse treffen, glauben, dass sie die richtigen oder zumindest vernünftigen Entscheidungen treffen. Aber ihre Voreingenommenheit wird diese Entscheidungen in einer Weise beeinflussen, die den Forschern möglicherweise nicht bewusst ist. Außerdem kann es sein, dass die Forscher einfach die Verfahren verwenden, die funktionieren – was bedeutet, dass sie die vom Forscher gewünschten Ergebnisse liefern.

Das Ziel der wissenschaftlichen Forschung ist es, herauszufinden, was wirklich wahr ist, und nicht nur unsere vorgefassten Meinungen zu bestätigen. Wenn eine Gemeinschaft von Wissenschaftlern eine Vielfalt von Perspektiven und unterschiedlichen Annahmen hat, dann werden die Kontrollen und der Ausgleich im wissenschaftlichen Prozess einschließlich der Begutachtung schließlich den Voreeingenommenheiten von Einzelpersonen entgegenwirken. Manchmal ist dies wahr – aber oft geschieht dies nicht schnell oder reibungslos. Nicht nur schlechte Daten und falsche Ideen können überleben, sondern auch gute Ideen können unterdrückt werden.

Wenn sich jedoch vorgefasste Meinungen, hervor gerufen durch motivierte Argumentation und Karrieredruck, in den Institutionen verfestigen, die die Wissenschaft unterstützen – die Fachgesellschaften, wissenschaftlichen Zeitschriften, Universitäten und Förderorganisationen – dann kann dieser Teilbereich der Wissenschaft für Jahrzehnte in die Irre geführt werden.

Voreingenommenheiten, die durch einen Konsens bildenden Prozess verursacht werden

Der Konsens wird in vielen Diskussionen über die Wissenschaft als Stellvertreter für die Wahrheit angesehen. Ein Konsens, der durch die unabhängigen und freien Überlegungen vieler gebildet wird, ist ein starker Indikator für Wahrheit. Einem Konsens kann jedoch nur in dem Maße vertraut werden, wie es den Einzelnen frei steht, ihm zu widersprechen.

Ein wissenschaftliches Argument kann sich vorzeitig zu einer herrschenden Theorie entwickeln, wenn die kulturellen Kräfte stark genug und in dieselbe Richtung ausgerichtet sind. Verfrühte Theorien, die durch einen expliziten Konsensbildungsprozess erzwungen werden, schaden dem wissenschaftlichen Fortschritt aufgrund der Fragen, die nicht gestellt werden, und der Untersuchungen, die nicht durchgeführt werden. Nuzzio (2015) bezeichnet dies als „Hypothesen-Myopie“.

Wenn das Ziel wissenschaftlicher Forschung darin besteht, die Wahrheit zu finden und Fehler zu vermeiden, wie könnte dann ein Konsensfindungsprozess eine Voreingenommenheit in die Wissenschaft einführen und die Wahrscheinlichkeit von Fehlern erhöhen?

Confirmation bias“ ist ein wohlbekanntes psychologisches Prinzip, das die Suche nach oder die Interpretation von Beweisen auf eine Art und Weise bezeichnet, die teilweise zu bestehenden Überzeugungen, Erwartungen oder einer bestehenden Hypothese passt. „Confirmation bias“ bezieht sich in der Regel auf unbewusste Selektivität bei der Beschaffung und Interpretation von Beweisen.

Der Philosoph Thomas Kelly (2005) gibt folgenden Einblick in Confirmation Bias. Je mehr Gleichgesinnte sich zu einem bestimmten Thema äußern, desto größer wird der Anteil der Gesamtbeweise, der aus psychologischen Beweisen höherer Ordnung dafür besteht, was andere Menschen glauben, und desto kleiner wird der Anteil der Gesamtbeweise, der aus Beweisen erster Ordnung besteht. Kelly kommt zu dem Schluss, dass dieser Prozess der unsichtbaren Hand im Laufe der Zeit dazu neigt, unseren früheren Überzeugungen einen gewissen Wettbewerbsvorteil in Bezug auf Bestätigung und Nicht-Bestätigung zu verleihen.

Allen et al. (2020) zeigen, wie Abhängigkeit, Druck und Polarisierung einen Konsens erzwingen können, was das Vertrauen auf den Konsens als Indikator für die Wahrheit unzuverlässig macht. Infolgedessen kann einem Konsens nur in dem Maße vertraut werden, in dem Individuen frei sind, ihm zu widersprechen, ohne Repression oder Repressalien. Ähnlich verhält es sich, wenn starke Anreize die Bestätigung einer Position begünstigen, dann wird ein Konsens, der diese Position bestätigt, fast unvermeidlich und daher fast bedeutungslos.

Die Kommunikationstheoretikerin Jean Goodwin argumentiert, dass sobald die Konsensbehauptung aufgestellt war, die Wissenschaftler, die am laufenden IPCC-Prozess beteiligt waren, Gründe hatten, nicht nur die wissenschaftlichen Beweise zu berücksichtigen, sondern auch die möglichen Auswirkungen ihrer Aussagen auf ihre Fähigkeit, die Konsensbehauptung zu verteidigen.

Der Konsensbildungsprozess des IPCC fördert wohl das Gruppendenken. ‚Groupthink‘ ist ein Denkmuster, das durch Selbsttäuschung, erzwungene Herstellung von Zustimmung und Konformität mit Gruppenwerten gekennzeichnet ist. Janis (1972) beschreibt acht Symptome des Gruppendenkens:

● Illusion der Unverwundbarkeit

● kollektive Rationalisierung

● Glaube an inhärente Moral

● stereotype Ansichten über Außenseiter-Gruppen

● direkter Druck auf Andersdenkende

● Selbstzensur

● Illusion der Einstimmigkeit

● selbsternannte Gesinnungswächter

Viele Verteidiger des IPCC-Konsenses – sowohl Wissenschaftler als auch Konsens-Unternehmer – zeigen viele, wenn nicht alle dieser Symptome.

Thomas Gold (1989) diskutierte die Gefahren, die das „Herdenverhalten“ für Wissenschaftler darstellt, das möglicherweise zu einem trägheitsbedingten Fortbestehen einer falschen Konsensmeinung innerhalb der Wissenschaften führt. Während der Herdentrieb im soziologischen Verhalten einen Wert hat, ist er in der Wissenschaft eine Katastrophe – in der Wissenschaft wollen wir im Allgemeinen Vielfalt. Wenn die Leute alle den gleichen Weg verfolgen, neigen sie dazu, andere Wege auszuschließen, und die sind nicht immer die richtigen.

Es ist nicht nur der Herdentrieb bei den Einzelnen, der bedenklich ist. Wenn die Unterstützung durch Gleichaltrige und moralische und finanzielle Konsequenzen auf dem Spiel stehen, dann ist das Bleiben bei der Herde die erfolgreiche Politik für das Individuum; es ist jedoch nicht die erfolgreiche Politik für das Streben nach Wissenschaft. Mentales Herdenverhalten, auch wenn es das freie Denken nicht wirklich einschränkt, übt heimtückisch Druck aus, der Mode zu folgen. Die Institutionen, die die Wissenschaft unterstützen – finanzielle Unterstützung, die Zeitschriften, das Urteil der Gutachter, die Einladungen zu Konferenzen, die berufliche Anerkennung – werden alle vom Herdenverhalten beeinflusst.

Der Ökonom William Butos (2015) charakterisiert den IPCC als einen „Big Player“ in der Wissenschaft, da er alle Attribute besitzt, die für Big Player auf Märkten charakteristisch sind: Größe in Bezug auf den Einfluss, Unempfindlichkeit gegenüber den üblichen Einschränkungen und Ermessensspielraum in seiner Fähigkeit, eine bevorzugte Forschungsrichtung zu fördern. Diese Charakterisierung des IPCC als „Big Player“ ähnelt der Charakterisierung des IPCC als Wissensmonopol durch den Ökonomen Richard Tol. Der Einfluss des IPCC in der Klimawissenschaft ist allgegenwärtig und erlaubt es ihm, die üblichen wissenschaftlichen Beschränkungen für die Akzeptanz von Hypothesen weitgehend zu ignorieren. Professioneller Erfolg in der Klimawissenschaft ist mehr mit der Akzeptanz der Verlautbarungen des IPCC verbunden als mit der Erkundung gegenteiliger Möglichkeiten.

Die Existenz des IPCC als „Big Player“ und „Wissensmonopol“ zum Klimawandel kann zu einer vorzeitigen Heiligsprechung der IPCC-Schlussfolgerungen führen. Vorzeitige Heiligsprechung bezieht sich auf den weit verbreiteten wissenschaftlichen Glauben an eine falsche oder unvollständige Schlussfolgerung, was zu einer als Ablehnung getarnten Unterdrückung führt. Unterdrückung tritt auf, wenn die Angst vor sozialen Sanktionen verhindert, dass Gedanken erforscht oder empirische Ergebnisse in wissenschaftlichen oder öffentlichen Foren präsentiert werden. In der Wissenschaft tritt Ablehnung auf, wenn eine Idee erforscht wurde und die Beweise für unzureichend befunden wurden. Ein klassischer, relativ junger Fall von vorzeitiger Heiligsprechung betrifft die wissenschaftliche Identifizierung der Ursachen von Geschwüren.

Was sind also die Auswirkungen dieser Bedenken auf den Konsens des IPCC über den vom Menschen verursachten Klimawandel? Kognitive Verzerrungen im Kontext eines institutionalisierten Konsensbildungsprozesses haben wohl dazu geführt, dass der Konsens in einer sich selbst verstärkenden Weise zunehmend bestätigt und sogar kanonisiert wurde. Eine große Gruppe von Wissenschaftlern leitet ihr Vertrauen in den Konsens aus zweiter Hand von der institutionellen Autorität des IPCC und der nachdrücklichen Art, in der der Konsens dargestellt wird, ab. Diese ‚unsichtbare Hand‘ marginalisiert skeptische Perspektiven. Übermütige Behauptungen der „Big Player“ nehmen Wissenschaftlern die Motivation, den Konsens in Frage zu stellen, insbesondere wenn sie damit rechnen müssen, für ihre Bemühungen als „Leugner“ bezeichnet zu werden und ihre Chancen auf berufliche Anerkennung und Forschungsförderung zu beeinträchtigen.

Der Prozess der Konsensbildung verstärkt persönliche Voreingenommenheiten und marginalisiert abweichende Meinungen entweder von der Mehrheitsmeinung oder der Meinung der lautesten oder motiviertesten Person im Raum. Über das Ausmaß und die Bedeutung der Verzerrungen, die durch den Konsensfindungsprozess des IPCC in die Klimawissenschaft eingebracht wurden, kann man nur spekulieren.

Link: https://wattsupwiththat.com/2021/04/11/how-we-fool-ourselves-part-ii-scientific-consensus-building/

Übersetzt von Chris Frey EIKE

 




Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet

Warnhinweis

Lange hat der Autor überlegt, ob er diesen Artikel überhaupt veröffentlichen kann.
Grund ist, dass die Sichtung über die Durchführung und Fehler der Inzidenzermittlung so katastrophale Mängel aufdeckt, dass man am Verstand vieler Personen welche daraus Lockdownmaßnahmen ableiten, zweifeln müsste (rein persönliche Meinung des Autors, allerdings durch viele „Fachpersonen“ längst widerlegt).

Das (mit dem fehlenden Verstand hochbezahlter „Intelligenz“) kann und darf aber nicht sein, sofern man den Berichten unserer Medien glauben darf, wie es gerade wieder bewiesen wurde: Zeit Online, 8. April 2021: Langzeitstudie: Vertrauen in Medien deutlich gestiegen
Dann bleibt aber die einzige, logische Folgerung: Die in diesem Artikel gebrachten Überlegungen und somit Ableitungen sind hoffnungslos falsch.

Leider hat der Autor jedoch ein dickes „Brett vorm Kopf“ und findet seine Fehler nicht. Notgedrungen stellt er diesen Artikel also doch auf EIKE ein, damit die kompetenteren Leser seine Fehler finden und diese im Blog (dann bitte mit Richtigstellung) aufzeigen.

Den Inzidenzwert kann jedes Schulkind berechnen

Der Inzidenzwert ist mittels einfachem Dreisatz ermittelbar:
[1] Stuttgarter Nachrichten (stark gekürzt und teils ergänzt): Wie berechnet man die 7-Tage-Inzidenz?
Falls Sie die 7-Tage-Inzidenz … brauchen Sie zunächst die folgenden Zahlen:
– Die Summe der Neuinfektionen der letzten 7 Tage
– Die Einwohnerzahl
Und so berechnen Sie den 7-Tages-Wert:
Summe Neuinfektionen der letzten 7 Tage, geteilt durch die Einwohnerzahl Ihres Landkreises … Anschließend multiplizieren Sie das Ergebnis mit 100.000.
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz

Diese Berechnung ist plausibel und ermittelt auch mathematisch bis auf beliebige Nachkommastellen genau (verwendet werden vom RKI zwei Nachkommastellen) den Inzidenzwert.

Anmerkung: Amtlich wird bei einem positiven PCR-Testergebnis automatisch von „Neuinfektionen“ gesprochen und damit immer eine entdeckte „Gefahr“ suggeriert.
Dabei sagt ein Positivergebnis lediglich aus, dass beim Test Reste entsprechender DNA-Sequenzen gefunden wurden.
Ob diese wirklich von einer aktuellen Infektion stammen, (noch) aktiv sind, und wirklich zur Krankheit führen (würden) ist damit nicht ausgesagt (siehe dazu am Schluss die Grafiken der PCR-Positivmeldungen und der in keinem Zusammenhang dazu verlaufenden Mortalität).
Da der Begriff „Neuinfektionen“ amtlicherseits durchgehend verwendet wird, ist er hier wenn im „Amtston“ getextet wurde ebenfalls verwendet und nicht mit einem richtigeren, wie zum Beispiel „ die DNA-Sequenzsuche hat welche, die einen Verdacht auf Kontakt mit Covid-19-Virus nicht ausschließen lassen gemeldet“. Richtige Information klingt oft zu sperrig.

Größenordnungen

An einem Beispiel sei gezeigt, wie viele Personen oder positive Testergebnisse es benötigt, um anhand der Inzidenz Lockdown-Entscheidungen auszulösen:
Eine Beispiel-Stadt mit 100.000 Einwohnern habe in der Einwohnerschaft eine durchgängige (gleich verteilte) Neu-Infektionsrate von 14 Einwohnern täglich (0,014 % der Einwohner), in Summe der 7 Tage somit 98 Personen (ca. 0,1 % aller Einwohner).

Als Folge hat diese Beispiel-Stadt einen Inzidenzwert von 98 und kann Erleichterungen beim Lockdown veranlassen.

Bild 1 Beispielstadt, Neuinfektionen und Inzidenzwert

Beträgt die Summe der Neuinfektionen nun zwei zusätzliche Personen (zusätzlich 0,002 % aller Einwohner) innerhalb der 7 Messtage, in Summe also 100 Personen, berechnet sich ein Inzidenzwert von 100 und laut Politikbeschluss sind gnadenlos Restriktionsmaßnahmen vorzugeben (und werden von den Kommunen auch wirklich buchstabengetreu, pedantisch umgesetzt).

Stellt sich nicht schon da die Frage, ob es wirklich sinnvoll ist, wegen zusätzlich +0,001 .. 0,002 % „Corona-Positivbefall“ – also weder Krankheit, ev. nicht einmal mit Symptomäußerung – innerhalb einer Woche, massivste, zusätzliche Lockdown-Restriktionen durchzusetzen?
Die Antwort kennt jeder: Diese Frage wird nicht gestellt. Wenn einmal doch, dann wird sie konsequent als rääääächts abgebürstet“. Im Deutschland der unfehlbaren Merkel und eines heiligen Söder fragt man nicht, sondern freut sich, wieder Anordnungen umsetzen und damit Staatstreue zeigen zu dürfen … wie es früher bewährte Bürgersitte war:
Es ziemt dem Untertanen, seinem Könige und Landesherrn schuldigen Gehorsam zu leisten und sich bei Befolgung der an ihn ergehenden Befehle mit der Verantwortlichkeit zu beruhigen, welche die von Gott eingesetzte Obrigkeit dafür übernimmt; aber es ziemt ihm nicht, die Handlungen des Staatsoberhauptes an den Maßstab seiner beschränkten Einsicht anzulegen und sich in dünkelhaftem Übermute ein öffentliches Urteil über die Rechtmäßigkeit derselben anzumaßen.
Gustav von Rochow (1792 – 1847), preußischer Innenminister und Staatsminister

Regelungstechnik

Mit Erreichen des Inzidenzwertes 100 treten sofort erhebliche, zusätzliche Lockdown-Verschärfungen in Kraft. Damit soll der Inzidenzwert wieder unter Hundert, besser bis maximal 50 reduziert werden.

Technisch-mathematisch bilden Inzidenzwert und Lockdown eine Regelstrecke.
Da die Lockdown-Maßnahmen mit Erreichen des Inzidenzwertes 100 sofort ohne Stufung(en) (hätte dann eine integrale, also eigendämpfende Regelwirkung zur Folge) erfolgen, handelt es sich um einen Proportionalregler.
Dazu um eine Regelstrecke, welche aufgrund der Verzögerung zwischen Inzidenzwertmeldung und Wirkung der Lockdownmaßnahmen im Wirkungsweg eine recht lange Totzeit beinhaltet.

Jedes Kind Student lernt bereits im Grundlagenfach Regelungstechnik, dass ein Proportionalregler bei zu hoher „Verstärkung“ – und vor allem, wenn dann noch wie in diesem Fall eine Hysterese fehlt – konsequent oszilliert.
Extrem verstärkt und dann viel, viel schwieriger lösbar wird diese Neigung zur Oszillation, wenn in der Strecke zusätzlich Phasenverschiebungen, hier noch schlimmer „Totzeiten“ dazukommen. Dann wird diese einfache Art der Regelung eigentlich unbeherrschbar.

Genau diese Auswirkungen lassen sich bundesweit live erleben:
Stadt Nürnberg: An einem Montag Öffnung von Präsenzunterricht und Kindergärten, am Dienstag wieder alles schließen … , einfach ein „ewiges“ Hin- und Her, was Eltern, Handel und Sonstige zur Verzweiflung treibt.

Nicht, dass dies kommunale „Lenker“ nicht bemerken. Aber bisher wagte nur ein kleines Eckchen von Deutschland, welches sich etwas Obrigkeitsrenitenz bewahrt hat, zumindest informellen „Widerstand“, indem sie es wenigstens meldeten:
Stadt Lößnitz an die Sächsische Staatskanzlei, 15.03.2021: Offener Brief der Bürgermeister des Erzgebirges

Bild 2

Bild 3

Bild 4

Was machen unsere „hohen Politiker“ und deren Berater zur Lösung? Sie orientieren sich nicht an der seit weit über 100 Jahren bewährten und in weltweit Milliarden von Installationen als richtig belegten Regelungstechnik, sondern „vertrauen“ auf Epidemie-Simulationen, welche laufend exponentielle Anstiege vorhersagen, die noch nie und auch aktuell nicht – da epidemiologisch unmöglich – eingetroffen sind (siehe vorletztes Kapitel).

Wo sie doch „eintreffen“ – schließlich „sieht“ den exponentiellen Anstieg auch unsere unfehlbare Kanzlerin – verhält es sich so, wie in der Theologie: Wenn man etwas lange genug „eingebläut“ bekommt – hier: Täglich in der Zeitung liest und von Medien erzählt -, können es psychisch entsprechend eingestellte Personen in besonders „lichten“ Momenten plötzlich „sehen“, so wie „KlimaGreta“ das unsichtbare und geschmacklose CO2, wenn es zum Beispiel aus Kraftwerken „schießt“ . Weitere Beispiele aus der Theologie ließen sich nahezu unendlich fortführen.

Was wäre, wenn die ermittelten Inzidenzwerte gar nicht stimmen würden?

Alles bisher Gesagte geht davon aus, dass der Inzidenzwert stimmt. Vom RKI wird er immer mit zwei Nachkommastellen angegeben. Wer würde es also wagen, daran zu zweifeln, dass nicht alle dieser Stellen auch signifikant sind?

Eine Fundstelle macht jedoch auf scheinbare Probleme aufmerksam. Nicht unbedingt didaktisch gut aufbereitet, für etwas mit Statistik Vertraute aber gut lesbar:
[4] IWIKIPEDIA: Inzidenz (Epidemiologie): Kritik
... Die für den Vergleich und zur Festlegung von Schwellenwerten herangezogene sogenannte 7-Tage-Inzidenz ist nicht gleichzusetzen mit einer epidemiologischen Inzidenz, die auf repräsentativen Stichproben basiert. Die Testprävalenzen werden auf die Gesamtbevölkerung oder Region umgerechnet, ohne die Dunkelziffer in der nicht-getesteten Bevölkerung zu berücksichtigen. Ohne Bezug zu einer bekannten Grundgesamtheit (Nenner) fehlt der Fallzahl die epidemiologische Aussagekraft und damit die Geeignetheit für seuchenpolitische Maßnahmen. Die Reduktion der Lageeinschätzung auf die 7-Tages-Inzidenz sei epidemiologisch nicht begründbar und entspreche nicht dem Stand der verfügbaren wissenschaftlichen Evidenz.
Auch Politik und Justiz sehen allein die Inzidenz zur Begründung von Grundrechtseinschränkungen als unzureichend an …

Eine Folge davon sind Gerichtsentscheide von Richtern, die diesen Sachverhalt umzusetzen wagen:
Tichys Einblick: Gericht kippt Ausgangssperre in Hannover: „Nicht nachprüfbare Behauptungen“ reichen zur Rechtfertigung nicht aus!
Allerdings auch von Politikern, denen jeglicher Sachverstand fehlt, solchen auch gar nicht haben wollen:
Tagesspiegel vom 22.03.2021: NRW Stunden nachdem ein Gericht die Beschränkungen für den Handel für rechtswidrig erklärt hatte, beschließt die Politik noch härtere Regeln

Grundgesamtheit und Stichprobentheorie

Und damit steht eine weitere Fragestellung im Raum, welche weder juristisch und soziologisch, sondern einfach statistisch-mathematisch begründbar ist: Wie genau, besser fehlerhaft, Ist die Ermittlung des Inzidenzwertes?

Dazu nehmen wir die Beispielstadt vom Anfang (Bild 1):
Deren Daten: Von 100.000 Einwohnern mit 0,1 % gut durchgemischten (damit gleichverteilten) Positiven (sind 100 Personen in der Stadt, somit ein Inzidenzwert von 100), werden rein statistisch täglich 14 Bewohner neu infiziert.
Am Ende der 7 Inzidenz-Messtage sind es somit 98 neu hinzugekommene, positive Bewohner und damit wieder ein Inzidenzwert von 98.
Nun versuchen wir, diese Corona-positiven Personen mittels RKI-Coronatestungen und darüber die Inzidenz zu ermitteln.

Beispielstichproben

Leider findet sich nirgendwo eine Angabe, wie viele Testungen wo durchgeführt werden. Deshalb muss man diese Zahl versuchen indirekt abzuleiten.
Laut RKI wurden in der KW13 deutschlandweit 1.149.297 PCR-Testungen durchgeführt. Heruntergerechnet auf unsere Beispielstadt wären das für den Zeitraum der Inzidenz-Ermittlung 1.385 Testungen.

Stichprobe A
Bei 0,1 % Positivanteil in der Grundgesamtheit sind in einer Stichprobe von 1.385 Personen im Mittel 1,385 Personen positiv zu finden. Halbe Personen gibt es nicht, weshalb die Stichprobe entweder 1 oder 2 Personen meldet. Die RKI-Inzidenzberechnung meldet also eine Inzidenz von:
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (2/100.000) x 100.000) =
2 (anstelle des wirklichen Inzidenzwertes von 100), oder
Rechnung: (1/100.000) x 100.000) = 1 (anstelle des wirklichen Inzidenzwertes von 100)

Stichprobe B
Früher war das auch die ungefähre Testungs-Anzahl, da nur PCR-Tests vorgenommen wurden. Inzwischen testen aber zusätzlich Apotheken und bald auch Hausärzte mit Einfachtests, die nur bei positiven Befunden mittels zusätzlichem PCR-Test verifiziert werden müssen. Deshalb wird nun die dreifache Anzahl an Testungen angenommen.
Für die Beispielstadt wären es nun 4.154 Testungen in einer KW.
Bei 0,1 % Positivanteil der Grundgesamtheit sind in einer Stichprobe von 4.154 Personen 4,154 Personen positiv (Mittelwert). Die RKI-Inzidenzberechnung meldet also eine Inzidenz von:
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (4/100.000) x 100.000) =
4 (anstelle des wirklichen Inzidenzwertes von 100)

Stichprobe B
Nun verzehnfachen wir die Anzahl Testungen auf 13.850, also jede Woche 14 % der Einwohner getestet:
Rechnung: (14/100.000) x 100.000) = 14 (anstelle des wirklichen Inzidenzwertes von 100)

Bei diesen Inzidenzmeldungen kommt man fast gezwungenermaßen zu der Erkenntnis:
Die Inzidenz – ermittelt und berechnet nach RKI-Formel – ermittelt irgend etwas, aber niemals auch nur weit, weit entfernt den „Befall“ einer kommunalen Einheit durch das Coronavirus.
Daran ändert auch nicht, dass die Inzidenzwerte vom RKI auf zwei Nachkomastellen angegeben werden (über die feststellbare, mathematische Idiotie von Personen welche vor Rechnern sitzen und Werte, welche zwei Stellen vor dem Komma schon nicht mehr stimmen fein säuberlich mit zwei danach angeben weil es der Rechner so anzeigt, sei hier gnädig hinweggesehen).

Als Fazit bleibt:
Mittels dem in Deutschland seit über einem Jahr ausschließlich angewandtem RKI-Inzidenz-Ermittlungsverfahren wird niemals die wirkliche Inzidenz – und damit Gefahrenlage – der Grundgesamtheit ermittelt.
Eine wichtige Feststellung ist zudem: Der Inzidenzwert ist bei diesen Stichprobengrößen fast linear nur ein Ergebnis des Testumfangs, gibt also diesen und nicht die Anzahl neu Infizierter wieder!

Und warum bemerkt das keiner? Weil in der Berechnungsformel der wichtige Stichprobenumfang fehlt:
RKI: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Was zu der Erkenntnis führt, dass diese Formel und damit die gesamte Methodik zur Ermittlung einer wirklichen Gefahrenlage ganz einfach vollkommen unbrauchbar sind.

Dass es „keiner“ bemerkt, stimmt allerdings nicht ganz. Laut der Professorin V. Priesemann (siehe gegen Ende des Artikels) wurde das zum Beispiel in England erkannt und dort wird deshalb statistisch richtig(er) mit wenigen, dafür aber extrem großen Stichprobenumfängen geprüft.

Der Student

Sein Einwand zur Inzidenz

Ein Student publizierte vor kurzem Einwände zur Inzidenzermittlung.
[2] FOCUS ONLINE, 23.03.2021: Inzidenz bei 18 statt 78? Mathe-Student wirft RKI verzerrte Corona-Zahlen vor – Physikerin kontert
Auch Correktiv schrieb dazu:
[3] Correktiv: Er kritisiert, der Inzidenzwert beziehe die Anzahl der durchgeführten Tests in einer Region nicht mit ein: Bei Landkreisen mit gleich hohem Anteil von Corona-Fällen pro Einwohner hätten angeblich diejenigen eine höhere Inzidenz, die mehr testen würden. Er schlägt daher eine alternative Berechnungsmethode vor ….

Seine Begründung, angelehnt an die Ausführung im „FOCUS“ dargestellt:
[2] Focus: … Er nennt ein Beispiel:
Landkreis A und Landkreis B haben jeweils 50.000 Einwohner und jeweils ein Prozent Infizierte (Zufügung: 1 % Infizierte in der Grundgesamtheit ergeben einen wahren Inzidenzwert dieses Beispiels von 1.000).
– Landkreis A: testet 5000 Einwohner, findet circa 50 Infizierte (Anmerkung: Mittelwert der Stichprobe). Die Inzidenz liegt hier bei 100 (Anmerkung: Anstelle der wahren Inzidenz der Grundgesamtheit von 1.000)
– Landkreis B: testet 2000 Einwohner, findet circa 20 Infizierte (Anmerkung: Mittelwert der Stichprobe). Die Inzidenz liegt hier bei 40 (Anmerkung: Anstelle der wahren Inzidenz der Grundgesamtheit von 1.000)
Die Länder befinden sich also in der gleichen pandemischen Lage, haben aber eine unterschiedliche Inzidenz „Es wird mehr getestet. Es werden mehr positive Fälle entdeckt. Die Inzidenz steigt“, so die Schlussfolgerung des Mathematik-Studenten. „Rückschlüsse auf das Pandemiegeschehen lässt dieser Inzidenzwert also derzeit nicht zu.“

Dieses Beispiel erfreut den Autor. Dieser Student steht nämlich noch mitten im „Lernsaft“, was der Autor, dessen Studium weit über 40 Jahre zurückliegt, von sich nicht behaupten kann. Trotzdem hat er das Problem ähnlich abgeleitet, wie es der Autor im Kapitel „Stichprobentheorie“ beschrieb und ist auch darauf gekommen, dass der Inzidenzwert nicht von der Anzahl Positiver abhängt, sondern vorwiegend vom Stichprobenumfang (Anmerkung: Dieser Artikel wurde vor der Sichtung der „Studentenargumentation“, welche ursprünglich hier gar nicht gebracht werden sollte, getippt).

Sein Vorschlag einer Verbesserung

Nun schlägt der Student etwas vor, was das Stichprobenproblem (ausreichend genaue Rückrechnung, wie viele Positive sich wirklich in der Stadt aufhalten) zwar nicht löst (weil nicht möglich), aber wenigstens für eine ganz grobe, relative Vergleichsfähigkeit zwischen den Stichproben sorgen soll:
[2] Schönherr schlägt demnach vor, das Verhältnis der Tests auf die Gesamtbevölkerung mit in die Inzidenzberechnung einzubeziehen, „also eine Art Testpositivenquote“.
Hierfür wäre es nur nötig, die Zahl der Tests
(Anm.: Gemeint ist der Stichprobenumfang) zu normen und am bundesdeutschen Durchschnitt zu orientieren. Seit November würden durchschnittlich rund 1,5 Prozent der Bevölkerung (Anmerkung: Das ist ungefähr die vom RKI angegebene Anzahl der PCR-Testungen) pro Woche getestet. Damit ließe sich dann anhand der „Testpositivenquote“ eine neue, normierte Inzidenzzahl berechnen.

Dazu rechnet der Student als Beispiel die Inzidenz für das Berchtesgadener Land (Einwohnerzahl 106.000) in der KW9 „neu“ (gekürzt).

Zuerst die Rechnung des RKI:
Getestet wurden in der KW9 83 Menschen positiv, die Einwohnerzahl beträgt 106.000 Personen.
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (83/106.000)*100.000 = 78,3

Nun der Student mit seiner „Testpositivenquote“:
Insgesamt wurden 6817 der 106.000 Einwohner auf Sars-CoV-2 getestet, das entspricht 6,4 Prozent der Bevölkerung (Anmerkungen: Woher „er“ die Anzahl der wirklichen Testungen weiß, bleibt dem Autor ein Rätsel, denn nirgendwo findet der Autor die eigentlich überaus wichtige Anzahl durchgeführter Tests veröffentlicht).
83 Tests davon waren positiv, das bedeutet eine „Testpositivenquote“ von 1,2 Prozent
(Anmerkung: Statistisch bezeichnet das Kunstwort „Testpositivenquote“ ganz banal den Mittelwert Positiver in der Stichprobe).
Die Berechnung zur neuen Inzidenz funktioniert nun wie folgt:
– Normierung: 1,5 Prozent der Einwohner entsprechen 1590. Die „neue“ Fallzahl bei nur 1590 Tests würde demnach bei 19,08 liegen (entspricht 19 positiven Tests).
– Diese positiven Tests werden nun wiederum wie üblich für die Berechnung der Inzidenz genutzt:
19,08 x (100.000 / 106.000) = 18,0
-Die Inzidenz läge also anstatt bei 78, nun bei 18.

Was hätte man mit der „Testpositivenquote“ gewonnen?

Es werden nicht allzu viele sein, welche diesen Vorschlag des Studenten auf Anhieb „begreifen“. Auch dem Autor war das nicht beschieden. Deshalb anbei ein Erklärungsversuch seines Gedankenganges.

Mit seiner „Testpositivenquote“ bringt er den Stichproben-Mittelwert ins Spiel. Im Kern ist das der Versuch, die Inzidenzermittlung wenigstens im Ansatz als Stichprobenverfahren „aufzubauen“.
Nun weiß er (?) dass dies bei diesem Datenmaterial nicht funktionieren kann und versucht in der Not einen Kunstgriff.

Er geht wohl davon aus, dass alle Stichproben die gleiche Fehlerauswirkung haben, diesbezüglich also korrelieren. Und es deshalb möglich wäre, die Stichprobenergebnisse nach einer „Normierung“ – die nichts anderes ist, als das Hochrechnen jedes Stichprobenmittelwertes auf eine einheitliche Stichproben-Normgröße – untereinander wenigstens relativ vergleichen zu können.

Den Mut zu einer solch pauschalen Annahme hätte der Autor nicht. Ob es trotzdem – und mit welcher Ergebnisgenauigkeit – möglich ist, müssten (und könnten) Statistiker allerdings problemlos berechnen.

Wieder etwas über die (Un-)Möglichkeit von Statistik

Nun „spaßeshalber“, um ein Gefühl für die extreme (Un-)Genauigkeit der Inzidenz-Stichproben zu bekommen, ein paar informelle Rückrechnungen.

Nochmals die Basisdaten:
Grundgesamtheit: 106.000 Einwohner; angenommener wahrer Inzidenwert 100 (+0,1 % aller Bewohner, also +106 in der Inzidenz-Messwoche neu positiv).
Stichprobenumfang für die 7-Tage-Inzidenz: 1590 Einwohner
Anmerkung: Die Rückrechnung kann – da niedrige Fallzahl und geringer Stichprobenumfang – mittels Binomial, Hypergeometrischer oder Poissonverteilung erfolgen. Der Autor musste allerdings feststellen, dass das Ergebnis stark vom verwendeten Tool abhängig ist, da nicht alle gleich (rück-)rechnen. Die hier angegebenen, auf die Grundgesamtheit rückgerechneten Werte deshalb nur als Anhaltspunkte für die Größenordnung nehmen.

Beispiel:
Anzahl durch die Stichprobe gefundener Positiver (deren Mittelwert): 1,59 (ergibt einen Positiven-Mittelwert von 1 oder 2)
Daraus errechnet die statistische Rückrechnung für den möglichen Anteil an Infizierten unter den insgesamt 106.000 Einwohnern (Irrtumswahrscheinlichkeit 10 %) einen Bereich:
Bei 2 Positiven in der Stichprobe: Rückgerechnete Anzahl Positiver in der Grundgesamtheit:
22 … 395 (entsprechen einem Inzidenzwert zwischen 21 … 373)
Bei 1 Positiven in der Stichprobe: Rückgerechnete Anzahl Positiver in der Grundgesamtheit:
3 … 298 (entsprechen einem Inzidenzwert zwischen 3 … 281)

Selbst „Statistiker“ sind immer wieder überrascht, welche Grenzen – oder wie wenig Nutzen im Verhältnis zum Aufwand – attributive Prüfungen haben.

Trotzdem gibt es ein weltweit verbreitetes und oft angewandtes, attributives Stichprobenverfahren welches darauf basiert, das AQL-Stichprobensystem. Dieses hat das gleiche Problem (es entdeckt kleine Fehlermengen praktisch nicht). Doch ist es vorbildlich tabelliert und man benötigt zur sturen Anwendung nur 10 Minuten Einweisung.
Entsprechend stur und oft, doch ohne wirklichen Nutzen wird es häufig angewandt (Erfahrungen des Autors).

A: Hochrangige Fachpersonen haben sich mit der Problemstellung bereits beschäftigt

[2] FOCUS ONLINE: … Physikerin Priesemann nimmt Stellung
… Schönherrs Video wurde von vielen geteilt und blieb deutschen Top-Wissenschaftlern nicht verborgen. So nahm etwa Physikerin Viola Priesemann vom Max-Plank-Institut auf Twitter Stellung dazu.
Laut ihr greift das Video „ein wichtiges Thema“ auf. Vermehrtes Testen werde „kurzfristig ‚bestraft‘“, da man dann mehr Infektionsketten entdecke. Langfristig lohne es sich aber, gibt die Physikerin zu bedenken. „Denn es stoppt die Ketten.“
Allerdings kontert Priesemann daraufhin Schönherrs Theorie: „Das Video hört sich logisch an, macht aber eine falsche Annahme. Und also ist die Schlussfolgerung falsch.“
Schönherr gehe in seinem Video davon aus, dass Tests zufällig gemacht würden. „Das ist nicht der Fall“, so die Physikerin. „Menschen werden nicht zufällig getestet, sondern meistens, weil es einen Verdachtsmoment gibt.“ Dazu zählten etwa Symptome, Kontakte oder ein positiver Schnelltest.

Folgeergebnisse nicht zutreffend“
Laut Priesemann müsse man zwischen zwei Kausalitäten unterscheiden:
– Fall A: Es werden mehr Fälle gefunden, weil mehr getestet wird.
– Fall B: Es wird mehr getestet, weil es mehr Verdachtsfälle gibt.
„Am Ende spielen beide Beiträge eine Rolle“, erklärt sie. „Aber im Video wird angenommen, dass wirklich allein und nur A zutrifft.“ Alle weiteren Rechnungen nach dieser Folie bauen auf dieser falschen Annahme auf. Also sind die Folgeergebnisse nicht zutreffend.
„Nach der Rechnung in dem Video könnte man die Inzidenzen im Landkreis ganz einfach drücken“, warnt Priesemann zudem. Man mache für jeden Test auf Verdacht einen Test bei Personen, die sehr wahrscheinlich negativ sind (oder einen Zufallstest). „Schon ist die Inzidenz (fast) halbiert.“

Priesemann macht danach ebenfalls einen Lösungsvorschlag: „Am besten wäre es, wenn wir, genauso wie UK, ein Screening hätten, also rund 100.000 Zufallstests, die jede Woche ein objektives Bild des Ausbruchsgeschehen liefern. – Dann müssten wir hier nicht diskutieren.“

Was hat die Physikerin, Frau Priesemann damit gesagt?

Im Kern redet sie gekonnt (?) „um den heißen Brei“ herum. Sie gibt der Basiskritik nämlich recht!: „Vermehrtes Testen werde „kurzfristig ‚bestraft‘ … “ und am Schluss beschreibt sie sogar die einzige, wirklich richtige Lösung (anstelle der in ganz Deutschland eingesetzten vollkommen unbrauchbaren vielen kleinen Teststichproben, ganz wenige mit wirklich großer Testmenge) und weist auch noch darauf hin, in welchem Land es so richtig gemacht wird:
„Am besten wäre es, wenn wir, genauso wie UK, ein Screening hätten, also rund 100.000 Zufallstests, die jede Woche ein objektives Bild des Ausbruchsgeschehen liefern
Ganz konkret bestätigt Sie, dass sich bei der derzeitigen Testdurchführung durch mehr Tests lediglich die Fallzahlen erhöhen:
Fall A: Es werden mehr Fälle gefunden, weil mehr getestet wird
Weil das aber nicht sein darf, denn diese Physikerin ist erkennbar eine Befürworterin des RKI-Verfahrens und wohl auch der Lockdown-Maßnahmen: „ … Nach der Rechnung in dem Video könnte man die Inzidenzen im Landkreis ganz einfach drücken“, warnt Priesemann zudem …“, (pseudo-)argumentiert sie dagegen mit geradezu hanebüchenen „Argumenten“:
„ … Schönherr gehe in seinem Video davon aus, dass Tests zufällig gemacht würden. „Das ist nicht der Fall“,
Fall B: Es wird mehr getestet, weil es mehr Verdachtsfälle gibt.

Man muss sich die Aussagen überlegen: Das RKI berechnet für Deutschland, jedes Bundesland, jeden Landkreis und jede Gemeinde eine fortlaufende Inzidenzzahl auf zwei Stellen hinter dem Komma, auf deren Basis schlimmste Lockdownmaßnahmen immer eiserner – da angeblich immer notwendiger – beschlossen werden.
Wohl die meisten Bürger denken, diese Inzidenzzahlen würden stimmen und wären vor allem auch untereinander vergleichbar, da entsprechend sachgerecht ermittelt (während sie in Wirklichkeit sicher um mehr als einige Stellen vor dem Komma bereits falsch sind).

Und nun bestätigt eine Frau Priesemann, dass genau das (seien sachgerecht und damit mit der erforderlichen Genauigkeit ermittelt) überhaupt nicht der Fall ist, erzählt aber, das sei ja auch vollkommen unwichtig. Denn es gehe doch gar nicht um den Inzidenzwert. Dieser sei ja nur ein reines Alibi als Begründung der sowieso durchgeführten Maßnahmen: „… Langfristig lohne es sich aber, gibt die Physikerin zu bedenken. „Denn es stoppt die Ketten.

B: Hochrangige Fachpersonen haben sich mit der Problemstellung bereits beschäftigt

Correktiv gibt auch zu Beginn zu, dass die „Basiskritik“ berechtigt ist „Dennoch ist an der Kritik grundsätzlich etwas dran“. Lenkt dann aber gleich ab und verweist auf den strittigen Lösungsvorschlag des Studenten, der keine Lösung wäre: „ … Die alternative Berechnungsmethode, die der Student vorschlägt, ist aber auch nicht besser geeignet. Denn ihr liegt eine falsche Annahme zugrunde“
Gut, das hat der Autor in etwa auch so gesagt. Correktiv hat sich allerdings etwas „vertiefter“ als der FOCUS mit dem Thema beschäftigt, allerdings auch nur, um mitzuteilen, dass alles „wie bisher gemacht“ doch zwar nicht richtig, aber eben das Beste wäre:

[3] Correktiv: … Er kritisiert, der Inzidenzwert beziehe die Anzahl der durchgeführten Tests in einer Region nicht mit ein: Bei Landkreisen mit gleich hohem Anteil von Corona-Fällen pro Einwohner hätten angeblich diejenigen eine höhere Inzidenz, die mehr testen würden. Er schlägt daher eine alternative Berechnungsmethode vor.
Mehrere Medien berichteten darüber … Diese Formulierungen sind nach Recherchen von CORRECTIV.Faktencheck irreführend.
Der Inzidenzwert beinhaltet keinen „Rechenfehler“. Dennoch ist an der Kritik grundsätzlich etwas dran. Denn es gibt bei der Inzidenz ein Problem: die lückenhafte Datengrundlage bei den Testzahlen. Forschende stellen auch schon länger die Frage, ob der Inzidenzwert als einziger Indikator für die Pandemie-Lage in Deutschland herangezogen werden sollte. Die alternative Berechnungsmethode, die der Student vorschlägt, ist aber auch nicht besser geeignet. Denn ihr liegt eine falsche Annahme zugrunde.

Dass der Inzidenzwert „keinen Rechenfehler“ hätte, bezieht sich alleine darauf, dass er auf einer Formel beruht und dessen sture Berechnung auf beliebig viele Nachkommastellen mittels Taschenrechner oder Excel-Sheet fehlerfrei möglich ist.
Dass es sich um eine statistisch hoffnungslos falsch ermittelte Maßzahl mit extremen Fehlern aufgrund des riesigen Vertrauensbereiches handelt, kommt bei Correktiv nicht vor. Und dann wird noch jegliche statistische Betrachtung ignorierend einfach behauptet, die Inzidenzwerte wären vergleichbar, was im Kern schon so etwas wie eine Lüge bei genauerer Betrachtung nicht ausreichend belegbare Information ist:
[3] Correktiv: … Was ist der Inzidenzwert?
Die 7-Tage-Inzidenz .. So lässt sich eine Inzidenz auf 100.000 Einwohner für verschiedene Städte, Landkreise, Bundesländer und auch bundesweit berechnen. Der Wert schafft eine Vergleichbarkeit für Regionen mit unterschiedlich hoher Einwohnerzahl.
Das erforderliche Lob an unsere unfehlbare Kanzlerin darf bei Correktiv natürlich nicht fehlen:
[3] … Den Grund hatte Bundeskanzlerin Angela Merkel am 6. Mai 2020 in einer Pressekonferenz erklärt: Man arbeite mit dem Schwellenwert von 50 neuen Fällen pro 100.000 Einwohnern, weil man glaube, bei dieser Menge die Infektionsketten noch nachverfolgen zu können.
Ein bisschen „Einsicht“ darf dann sein, allerdings nicht am Inzidenzwert selbst, sondern an dessen „Verwendung“:
[3] … Es gibt jedoch immer wieder Kritik an der Fokussierung auf den Inzidenzwert … kritisierten Expertinnen und Experten, dass er als einziger Parameter für die Corona-Maßnahmen herangezogen wird. … Gérard Krause vom Helmholtz-Zentrum für Infektionsforschung, der sagte, man sollte auch auf die Zahl der freien Intensivbetten oder die Altersverteilung der Fälle schauen. Bei den Neuinfektionen handele es sich zudem um Laborbefunde – und deren Häufigkeit sei stark abhängig davon, wer wie getestet werde.
Haben Regionen, die mehr testen, eine höhere Inzidenz?
.. Als „mathematisches Problem“ bezeichnet er, dass die Anzahl der insgesamt an einem Ort durchgeführten Tests bei der Inzidenzberechnung nicht einbezogen wird … Wenn es in zwei Landkreisen gleich viele Infektionen gäbe, dann würden in dem Kreis, in dem mehr getestet wird, mehr positive Fälle entdeckt und die Inzidenz liege höher, behauptet er.
Dann kommt dazu: Nichts. Dieses eigentliche Hauptthema wird nicht beantwortet, wohl weil man weiß, was dann herauskäme.

Und weiter geht es:
[3] … Am Beispiel des Berchtesgadener Lands erklärt er seine alternative Berechnungsmethode. … Er schlägt vor, sich bei der Berechnung der Inzidenz an dem bundesweiten Durchschnitt der durchgeführten Tests zu orientieren, den genannten 1,5 Prozent. So ergebe sich für das Berchtesgadener Land eine Inzidenz von 18 – diese Zahl sei die „korrigierte Inzidenz“, behauptet der Student. Die Inzidenzwerte verschiedener Landkreise seien mit seiner Methode besser vergleichbar, weil die Anzahl der dort jeweils durchgeführten Tests keine Rolle mehr spiele.
Zur Erklärung wird dann auf die Physikerin V. Priesemann verwiesen, welche bereits im Rahmen des FOCUS-Artikels zitiert wurde:
[3] … Laut der Physikerin Viola Priesemann vom Max-Planck-Institut für Dynamik und Selbstorganisation liegt in dem Video aber ein grundlegender Denkfehler vor …

Der Inzidenzwert

Correctiv „erinnert“ in ihrer „Argumentation“ [3] daran, wozu der Inzidenzwert dienen sollte, nämlich einzig als (ursprünglich auf 50 festgelegten) Grenzwert, ab dem die Gesundheitsämter Kontaktpersonen angeblich nicht mehr nachverfolgen können:

Bild 5 Politische Betrachtung zur Inzidenz, zitiert in [3]
Fazit
Nach über einem Jahr „Corona“ werden die Kontakte immer noch wie im digitalen Mittelalter mit Personal händisch anhand von angelieferter „Zettelwirtschaft“ verfolgt (wobei böse Stimmen behaupten, dass das teils gar nicht mehr konsequent gemacht würde).

Unsere Digitalministerin im Bund – und auch die in den Ländern -, welche es modern lösen müsste(n), ist(sind) seit Langem abgetaucht (was bei dieser Fehlbesetzung(en) allerdings auch niemand vermisst).
Und so dient der Inzidenzwert wohl nur noch als Planungsgrundlage zur Stellenaufblähungbesetzung für Personalverantwortliche in zuständigen Referaten der Gesundheitsämter.

Nach der Definition bräuchte jedes Bundesland, Landkreis, Gemeinde, nur ihre Kontaktverfolgung zu optimieren und könnte dann „ihre“ kritischen Inzidenzschwellen anhand der erreichten Nachverfolgungsgeschwindigkeit selbst festsetzen.
Optimal wäre es unter diesem Lösungs-Gesichtspunkt, wenn die bisher wegen der Kontaktverfolgungs-Unfähigkeit mit nur immer neuen, massivsten Corona-Restriktionen gemaßregelten Bürger aufständen, zu den in den Kommunen Verantwortlichen zögen und anstelle ihrer zunehmenden Drangsalierung dort mehr Effizienz verlangten …

(Mehr als) unverständlich findet es deshalb der Autor, was Herr Söder bezüglich des Inzidenzwertes nach wie vor allen Ernstes behauptet: Söder im Bayerischen Landtag: … Söder verteidigt seinen Kurswechsel, erklärt, dass der Inzidenzwert weiter die einzig belastbare Größe sei und dass ihm noch niemand eine tragfähige Alternative genannt hat …
So etwas kommt heraus, wenn man anstelle von Fachpersonen einen Ethikrat unter Vorsitz einer (ehemaligen) Regionalbischöfin errichtet, und darin (Kompetenz-) nicht ausreichend Unterwürfigkeit zeigende Personen sofort entfernt.
Danach hat man wirklich „niemand“, der einen sachkundig informiert.
Wobei man sich auch hier fragt, wozu dann die aufgeblähte, bestens honorierte Ministerialbürokratie dienlich ist.
Alternativ und viel billiger könnte er auch EIKE, Achgut, oder Tichys Einblick lesen, wo darüber genügend fundierte Information geboten wird, aber igittigittigitt, dies sind doch rääääächte Publizierer.

Für den Autor ist damit klar, dass Söder „Corona“ nicht wirklich kann (Achtung, eine rein persönliche Meinung des Autors). Nun soll er aber „Kanzler“ können. Und (auch) das mit Wohlwollen unserer Kanzlerin. Böse Zungen munkeln, da entwickle sich ein gegendertes Double einer von den Laien …

Im Kern bleibt der Inzidenzwert auch vollkommen egal. Für die Gefährdung bietet er keine Aussage und damit keine Handhabe

Dazu immer wieder die Grafiken der Corona-Meldewerte und deren „Auswirkungen“ – die Corona-Mortalität – der Städte Nürnberg und Fürth.
Man sieht:
– die Lockdown-Maßnahmen haben keinen Einfluss auf die Meldewerte
– die Meldewerte (über 7 Tage zusammengefasst die Inzidenz) haben wenig bis keinen Einfluss (mehr) auf die Corona-Mortalität

Bild 6 Stadt Nürnberg, Anzahl Meldefälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 7 Stadt Nürnberg, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 8 Stadt Fürth, Anzahl Meldefälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 9 Stadt Fürth, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Nun die Grafiken für die Stadt Hof, welche mit aktuell 563 den höchsten Inzidenzwert von Bayern ausweist.

Bild 10 Stadt Hof, Anzahl Meldefälle, Zeitraum 01.01. – 11.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Hinweis: Rein statistisch versterben in Hof täglich 1,35 Personen.

Bild 11 Stadt Hof, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 11.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Wie geht unsere politische „Führungsintelligenz“ damit um?

Weiterhin vollkommen ideen- und planlos. Einfach nur: Wir wissen auch nicht warum, aber weiter so. Und auf gar keinen Fall schauen wir, ob es sinnvoll ist und/oder wie es andere machen:

Achgut, 2.04.2021: So werden Inzidenzen aufgeblasen

Achgut, 08.04.2021: Zahlen zum Tage: Wir testen uns zu Tode, wir fürchten uns zu Tode
EIKE. 07.
April 2021: Corona–Vorbild Schweden
Tichys Einblick, 7. April 2021: 40.000 MENSCHEN IN STADIEN Vor einem Monat hob Texas alle Corona-Restriktionen auf: Zahl der Neuinfektionen sinkt auf Rekordtief

Dazu fällt einem ein:

Bild 12

Aber dass bitte kein*e Leser*in auf die Idee kommt, der Autor könnte damit auch nur entfernt unsere „Intelligenz“ meinen. Nein, nein, nein. Wenn überhaupt welche, dann einen Teil des Volkes, welches falsche Parteien wählt und friedlich, aber ohne Maske demonstriert und ganz offensichtlich (ver-)quer denkt. Nur diese dürfen laut unserem Bundespräsidenten von den „Guten“ übelst beschimpft werden.

Mit welch überragenden Kenntnis, ausgesuchter Sorgfalt und hellseherischen Weitsicht unsere „Intelligenz“ dagegen vorgehen kann, hat Minister Spahn kürzlich erneut bewiesen und so umgesetzt, wie es Bundespräsident Steinmeier in seiner Osteransprache sagte: „Du, Staat, tust Deinen Teil, ich Bürger tue meinen“, wobei er wohl meinte: Der Staat entsprechend seinen geistigen Fähigkeiten und der Bürger entsprechend seiner Fähigkeit, immer höhere Steuern zu bezahlen.
In solche Führungskräfte gewinnt man bedingungsloses Vertrauen, dass jeder Lockdown und jeder Einzelpunkt der Lockdown-Maßnahmen sorgfältig überlegt, verifiziert und auf Wirkung „abgeklopft“ wurde und damit sinnvoll sein muss …

Bild 13

Dabei hat Minister Spahn wohl ein Vorbild im Auge gehabt:
The European, Wolfgang Kubicki 29.03.2021: Entweder ist die Kanzlerin verwirrt oder sie will die Bevölkerung auf den Arm nehmen
In ihrer Regierungserklärung im Deutschen Bundestag am 25.März 2021 hat Angela Merkel ausgeführt:
„Ich will an dieser Stelle einmal sagen: Wir sind ein föderaler Staat. Es ist keinem Oberbürgermeister und keinem Landrat verwehrt, das zu tun, was in Tübingen und Rostock getan wird. Alle können das machen, und der Bund wird immer unterstützend tätig sein.“
Bei Anne Will am Sonntag, sagte sie das genaue Gegenteil. Die Infektionszahlen gäben eine Lockerung derzeit nicht her. „Das ist nicht der Zeitpunkt, so etwas ins Auge zu fassen.“ Und weiter: „Ich weiß wirklich nicht, ob Testen und Bummeln, wie es in Berlin heißt, die richtige Antwort auf das ist, was sich gerade abspielt.“

Bild 14

Bild 15

Bild 16

Bild 17

Bild 18

Bild 19 Quelle: Tichys Einblick

Quellen

[1] Stuttgarter Nachrichten: Wie berechnet man die 7-Tage-Inzidenz?

[2] FOCUS ONLINE, 23.03.2021: Inzidenz bei 18 statt 78? Mathe-Student wirft RKI verzerrte Corona-Zahlen vor – Physikerin kontert

[3] Correktiv: HINTERGRUND Der Inzidenzwert wird nicht „falsch“ berechnet, aber es gibt Kritik daran, ihn als einzigen Maßstab zu nutzen

[4] WIKIPEDIA: Inzidenz (Epidemiologie): Kritik

[5] Tichys Einblick, 10.04.2021: ÄNDERUNG DES INFEKTIONSSCHUTZGESETZES Merkels Entwurf für den Bundeslockdown: Ausgangssperren, Schulschließungen, Einzelhandel dicht

 




Die Temperaturen im März und energiepolitische Wirrungen

Die weitere Entwicklung wird maßgeblich davon abhängig sein, ob La Niña ausläuft oder sich in der 2.Hälfte des Jahres verstärkt fortsetzt. Die Chancen stehen laut der US- amerikanischen Wetter- und Ozeanografiebehörde NOAA  60 zu 40, dass der Ost- Pazifik wieder bis Juni zu normalen Temperaturen (graue Balken) zurückkehrt. Danach erwartet die NOAA eher eine zweite La Niña (blaue Balken). Dann sind kühlere Temperaturen wie vor zehn Jahren zu erwarten.

von Prof. Vahrenholt

von Prof. Vahrenholt

Die Wirrungen der Energiewende: die Zerstörung des Schwarzwaldes durch Grün-Schwarz

Die Koalitionsgespräche in Baden-Württemberg zwischen Grünen und CDU haben den ersten Verlierer fest vereinbart den baden-württembergischen Wald. Die erste und offenbar wichtigste Vereinbarung der Sondierungsgespräche ist die Festlegung der „Vermarktung von Staatswald- und Landesflächen für die Windkraftnutzung. So können bis zu 1000 neue Windkraftanlagen entstehen“.
 Die bedeutendste Fläche des Landes ist in der Tat der Staatswald mit 329 000 ha Fläche. Zieht man von dieser Fläche die Nationalparkflächen ab (dort wird man es wohl nicht wagen, Schneisen zu schlagen), bleibt immer noch eine Fläche von 190 000 ha übrig. Davon müsste man eigentlich noch die Vogelschutzgebiete und FFH Gebiete, soweit sie nicht in den Nationalparkflächen enthalten sind, abziehen. Aber selbst wenn man das nicht tut, kommt ein Windrad (Minister Altmaier: Die Kathedralen der Energiewende) auf 190 ha. Das ist eine Fläche von 1,4 mal 1,4 km². Also stehen dann im Abstand von 1,4 km jeweils ein Windrad mit den entsprechenden Zufahrtsstraßen, die die Waldstücke zerschneiden.
Damit die Verbreitung in Windkraftanlagen in naturempfindlichen Gebieten besser vorankommt, hatte ja bereits im November 2020 AGORA Energiewende, der Thinktank, der die Bundesregierung berät, die Lockerung des Tötungsverbots geschützter Arten im Naturschutzrecht verlangt.

Doch selbst 1.000 Windkraftanlagen bieten keine gesicherte Stromversorgung im windschwachen Ländle. Der Wegfall der Kernkraftwerke wie Philippsburg 2 (immerhin 13 % der Stromversorgung), kann nur durch stärkeren Import von Strom aus dem Ausland kompensiert werden, darunter das älteste Kernkraftwerk der Welt, das Kernkraftwerk Beznau, das nur sechs Kilometer südlich der baden-württembergischen Grenze im Kanton Aargau steht. Baden-Württemberg verteufelt die Kernkraft, nimmt aber gerne den Strom aus ausländischen Kernkraftwerken.
Wer mag, kann ja mal 1000 Windkraftwerke in die dunkelgrünen Flächen der untenstehenden Grafik einzeichnen.

Quelle für die Grafik: ForstBW

Die Energiewende vor dem Scheitern 

Aber was für Baden-Württemberg schiefgehen wird, geht auch in ganz Deutschland nicht auf. Der Bundesverband der Energie- und Wasserwirtschaft BDEW rechnet durch den Kernenergieausstieg (-8 GW) und den Kohleausstieg (-10 GW) trotz eines Zubaus von 4 GW Gaskraftwerken bis Ende 2022 mit einer Unterversorgung Deutschlands mit Strom. Dadurch „sinkt bis 2023 die konventionelle Kraftwerkskapazität von heute 90 GW auf 75,3 GW. Die Jahreshöchstlast hingegen wird laut Prognose der Bundesnetzagentur dann etwa 81,8 GW betragen“. Da weder Wind- noch Solarenergie gesicherte Leistung liefern, wird es dann, so der BDEW, „eine Lücke an gesicherter Leistung“ geben.

Das ist mittlerweile auch dem Bundesrechnungshof (BRH) aufgefallen. In seiner Pressemitteilung zum Sonderbericht vom 30.März 2021 titelt der Rechnungshof: „Sichere und bezahlbare Stromversorgung zunehmend in Gefahr“. Es lohnt sich die Langfassung des Berichtes zu lesen. Selten ist ein Bundesministerium so abgewatscht worden, wie das Wirtschaftsministerium unter Peter Altmaier. Der Rechnungshof kommt zum Ergebnis, dass die durch den Kernenergie- und Kohleausstieg entstehenden Netzengpässe bis 2025 nicht beseitigt werden (S.30).
Der Bundesrechnungshof geht weiter davon aus, dass die Letztverbrauchspreise für Strom in den kommenden Jahren weiter steigen werden. Schon heute liegen die Strompreise um 43% über dem Durchschnitt in Europa.
Nach seiner Auffassung wirken sich folgende Faktoren gleichzeitig auf die Strompreise aus:

•Der weitere Zubau nachfrageunabhängig produzierender Erneuerbare-Energien-Anlagen.

•der dadurch in großem Umfang notwendige Netzausbau und

derzeit noch fehlende Speicherkapazitäten für Strom aus erneuerbaren Energien.

Das Fazit ist alarmierend: „Der Bundesrechnungshof sieht die Gefahr, dass die Energiewende in dieser Form den Wirtschaftsstandort Deutschland gefährdet, die finanzielle Tragkraft der letztverbrauchenden Unternehmen und Privathaushalte überfordert und damit letztlich die gesellschaftliche Akzeptanz aufs Spiel setzt. Nach Schätzungen aus dem Jahr 2016 müssen in den Jahren 2000 bis 2025 rund 520 Mrd. Euro (nominal) einschließlich der Netzausbaukosten für die Energiewende im Bereich der Stromerzeugung aufgebracht werden.“
Der Bundesrechnungshof bekräftigt deshalb seine Auffassung, dass es nicht vorrangig Ziel sein kann, die Energiewende „um jeden Preis“ umzusetzen.“(S.48)

Das hätte ich nicht besser formulieren können.
Mehr zu diesen Themen sehen Sie auf der Klimaschau Nr. 26 von Sebastian Lüning.




Klimaschau von Sebastian Lüning: Ökostrom-Anteil gesunken, Reemtsma-Girls bei FfF, gescheiterte Klimaklage




Rolle der Sonne bzgl. Klima erneut bestätigt

Oben: Sechsmonatige geglättete monatliche Sonnenfleckenzahl aus SILSO. Unten: Ozeanischer El Niño Index von NOAA. Rote und blaue Kästen markieren die El Niño- und La Niña-Perioden im sich wiederholenden Muster. Quelle: Climate Etc, September 2019

Wenn Sie die meisten Klimawissenschaftler fragen, werden sie Ihnen sagen, dass die solare Variabilität viel zu gering ist, um das Klima zu beeinflussen. Sie müssen ihre Meinung vielleicht ändern, wenn sich eine neue Forschungslinie bestätigt. Es scheint, dass die Sonnenvariabilität die Klimavariabilität auf der Erde auf dekadischen Zeitskalen beeinflussen kann (die dekadische Klimavariabilität, von der Michael Mann kürzlich „bewiesen“ hat, dass sie nicht existiert). Das ist die Schlussfolgerung einer neuen Studie, die eine Korrelation zwischen dem Ende von Sonnenzyklen und einem Wechsel von El Nino- zu La Nina-Bedingungen im Pazifischen Ozean zeigt. Ein Ergebnis, das die Vorhersagbarkeit der größten El-Nino- und La-Nina-Ereignisse, die mehrere globale Klimaauswirkungen haben, deutlich verbessern könnte.

Die Energie der Sonne ist der Hauptantrieb für unser gesamtes Erdsystem und macht das Leben auf der Erde überhaupt erst möglich“, sagt Scott McIntosh vom National Center for Atmospheric Research, ein Mitautor der Studie.Die wissenschaftliche Gemeinschaft war sich bisher nicht im Klaren darüber, welche Rolle die Sonnenvariabilität bei der Beeinflussung von Wetter- und Klimaereignissen hier auf der Erde spielt. Diese Studie zeigt, dass es Gründe zu der Annahme gibt, dass dies absolut der Fall ist und warum der Zusammenhang in der Vergangenheit übersehen worden sein könnte“.

Der etwa 11-jährige Sonnenzyklus – das Erscheinen (und Verschwinden) von Flecken auf der Sonne – ist seit Hunderten von Jahren bekannt. In dieser neuen Studie verwenden die Forscher eine 22-jährige „Uhr“ für die Sonnenaktivität, die aus dem magnetischen Polaritätszyklus der Sonne abgeleitet wurde und die sie für eine regelmäßigere Alternative zum 11-jährigen Sonnenzyklus halten. Die Ergebnisse dieser Forschung wurde letztes Jahr veröffentlicht.

Zufall ist unwahrscheinlich“

Bei der Anwendung auf Klimastudien fanden die Forscher heraus, dass die fünf Zeitpunkte des Endes eines Sonnenzyklus‘, die zwischen 1960 und 2010-11 auftraten, alle mit einem Umschwung von einem El Nino (wenn die Meeresoberflächen-Temperaturen höher als der Durchschnitt sind) zu einem La Nina (wenn die Meeresoberflächen-Temperaturen niedriger als der Durchschnitt sind) zusammenfielen. Das Ende des jüngsten Sonnenzyklus – der jetzt stattfindet – fällt ebenfalls mit dem Beginn eines La Nina-Ereignisses zusammen. Robert Leamon von der University of Maryland-Baltimore County sagte: „Fünf aufeinanderfolgende Fälle, die mit einem Wechsel in der El-Nino-Oszillation zusammenfallen, sind wahrscheinlich kein Zufall.“

Tatsächlich besteht nur eine Chance von 1 zu 5.000 oder weniger (je nach statistischem Test), dass alle fünf Terminator-Ereignisse, die in der Studie berücksichtigt wurden, zufällig mit dem Umschwung der Meerestemperaturen zusammenfallen. Jetzt, da ein sechstes Terminator-Ereignis – und der entsprechende Beginn eines neuen Sonnenzyklus im Jahr 2020 – ebenfalls mit einem La Nina-Ereignis zusammenfällt, ist die Chance eines zufälligen Auftretens noch geringer.

Die Arbeit geht nicht darauf ein, welche physikalische Verbindung zwischen der Sonne und der Erde für die Korrelation verantwortlich sein könnte, aber die Autoren merken an, dass es mehrere Möglichkeiten gibt, die weitere Untersuchungen rechtfertigen, einschließlich des Einflusses des Magnetfeldes der Sonne auf die Anzahl der kosmischen Strahlen, die in das Sonnensystem entweichen und schließlich die Erde bombardieren. Eine robuste physikalische Verbindung zwischen den Schwankungen der kosmischen Strahlung und dem Klima muss jedoch noch ermittelt werden.

„Wenn weitere Forschungen belegen können, dass es eine physikalische Verbindung gibt und dass Veränderungen auf der Sonne tatsächlich Schwankungen in den Ozeanen verursachen, dann können wir vielleicht unsere Fähigkeit verbessern, El-Nino- und La-Nina-Ereignisse vorherzusagen“, sagte McIntosh.

Link: https://www.thegwpf.com/the-suns-climate-role-confirmed/

Übersetzt von Chris Frey EIKE