1

Für den Präsidenten von Mexiko ist erneuerbare Energie nicht die Zukunft – sondern Kohle

Während sie zugeben, dass Umweltschützer verärgert sind, versuchen die Autoren, ihn nicht nur als einen bösen Leugner hinzustellen.

López Obradors Hingabe an fossile Brennstoffe und seine Ablehnung von sauberer Energie zu einer Zeit, in der die meisten Nationen sich in die entgegengesetzte Richtung bewegen, hat Umweltschützer bestürzt, die davor warnen, dass Mexiko nicht in der Lage sein wird, seine Verpflichtungen zur Emissionsreduzierung im Rahmen des Pariser Klimaabkommens zu erfüllen, ebenso wie Wirtschaftsführer, die davor warnen, dass die Energiekosten steigen werden, weil Kohle und Gas etwa doppelt so viel kosten wie Wind und Sonne.

Experten sagen, dass seine Politik weniger in der Leugnung des Klimawandels als vielmehr in Nationalismus und Nostalgie verwurzelt ist.

Der Populist López Obrador spielt mit der stolzen Geschichte Mexikos als fossilem Energielieferanten.

Er wuchs im ölreichen Bundesstaat Tabasco in den Jahrzehnten auf, nachdem Präsident Lázaro Cárdenas das Vermögen ausländischer Energieunternehmen, die in Mexiko tätig waren, enteignete und die Ölreserven und den Rohstoff-Reichtum des Landes verstaatlichte. Jahrzehntelang war die staatliche Ölgesellschaft, bekannt als Pemex, ein Hauptmotor der mexikanischen Wirtschaft.

Sie blieb Teil der nationalen Tradition, selbst als Missmanagement und eine veraltete Infrastruktur die Position des Landes als Top-Ölproduzent schließlich untergruben.

Man beachte: “Experten sagen“ …

Es sieht so aus, als würde Obrador im Namen des mexikanischen Wohlstands und des Nationalismus handeln. Das können wir nicht durchgehen lassen.

Lisa Viscidi, eine Energieexpertin der US-amerikanischen Denkfabrik Inter-American Dialogue sagte, das Ziel des Präsidenten sei es, „ihre Monopole zurückzugeben“, indem er den Energiesektor unter staatliche Kontrolle bringe – auch wenn das bedeute, schmutzigere fossile Brennstoffe zu fördern und mehr Kohlenstoffemissionen zu verursachen.

All diese Dinge wurden für das Ziel der Energie-Souveränität geopfert“, sagte sie.

Dutzende von Unternehmen aus dem Bereich der erneuerbaren Energien haben Klagen eingereicht, um die Änderungen zu stoppen, von denen sie sagen, dass sie sie unfairerweise verdrängen. Mit vielem seiner Politik in der rechtlichen Schwebe hat López Obrador gesagt, er könnte eine Verfassungsänderung einführen, um seine Ziele zu erreichen.

Mexikos Präsident scheint in der Lage zu sein, Big Green die Stirn zu bieten:

Aber der Präsident scheint seine Rolle als Klimaparia zu genießen. Er hat Bedenken über die Umweltauswirkungen seiner Pläne als „Spitzfindigkeiten“ seiner politischen Gegner und der Elite des Landes abgetan.

Seit wann machen sich die Konservativen Sorgen um die Umwelt?“, sagte er im Januar auf einer seiner täglichen Pressekonferenzen. „Sie haben die Fahne der sauberen Energie genauso gekapert, wie sie die Fahne des Feminismus oder der Menschenrechte gekapert haben.“

Als er im letzten Herbst bei der Reaktivierung eines Kohlekraftwerks im nördlichen Coahuila sprach, wetterte er gegen mehrere Dutzend US-Gesetzgeber ob deren Veröffentlichung eines Briefes, in welchem sie seine Energiepolitik kritisierten, weil sie Mexikos Staatsunternehmen bevorzugten.

„“ch bin sehr glücklich, hier zu sein … um denen, die die neoliberale Politik verteidigen zu sagen, dass wir nicht einen Schritt zurückweichen werden“, sagte er.

Sein Anliegen erhielt im Februar unerwarteten Auftrieb, als ein Wintersturm den Strom in Texas ausschaltete. Der Gouverneur dieses US-Bundesstaates untersagte daraufhin den Export von Erdgas, was dazu führte, dass mehr als 4 Millionen Menschen in Mexiko, das stark auf Erdgas aus den USA angewiesen ist, ohne Strom blieben.

López Obrador sagte, das sei ein klares Signal: „Wir müssen produzieren.“

Full article is here, paywalled. I used a “Private Window and slipped through.

Der ganze Beitrag steht hier hinter einer Zahlschranke. Ich benutzte ein „privates Fenster und schlich mich hindurch“.

Link: https://wattsupwiththat.com/2021/04/13/for-mexicos-president-the-future-isnt-renewable-energy-its-coal/

Übersetzt von Chris Frey EIKE

 




Wir sollten uns auf die Denkweise von Michael Crichton besinnen

Michael Crichton (1942-2008) schrieb 26 Romane, von denen viele verfilmt wurden, wie Jurassic Park, Andromeda Strain, The Terminal Man, WestWorld und The Great Train Robbery. Mehr Menschen kennen ihn vielleicht als Schöpfer und Produzenten der hochgelobten Fernsehserie ER. Er machte 1969 seinen Abschluss an der Harvard Medical School, praktizierte aber nie als Arzt. Stattdessen nutzte er sein medizinisches und biologisches Wissen, um Geschichten zu erfinden, die viel mit seiner Ausbildung zu tun hatten.

Crichton zeigte schon früh ein Schreibtalent, da er bereits mit 14 Jahren einen Artikel in der New York Times veröffentlichte, so dass es für seine Familie nicht überraschend war, dass er sich für diese Karriere entschied. Während all dem war er ein wahrer Verfechter der ECHTEN Wissenschaft, ungetrübt von der Politik, welche sie heute zu leiten pflegt. Diese Leidenschaft zeigte er in einer Reihe von Vorträgen von 2003 bis 2005 und in seinem 2004 veröffentlichten Buch „State of Fear“, in dem er den Betrug der globalen Erwärmung in einer fesselnden fiktionalen Darstellung herausfordert.

Diese Serie von Artikeln bei CFACT ist aus den folgenden drei Vorträgen entstanden: Aliens Cause Global Warming, gehalten am California Institute of Technology (Cal Tech) am 17. Januar 2003, Environmentalism Is A Religion, gehalten im Commonwealth Club in San Francisco am 15. September 2003 und The Case For Skepticism on Global Warming, gehalten am 25. Januar 2005 im National Press Club in Washington, DC.

Sein Titel an der Cal Tech klang humorvoll, aber er ebnete den Weg zur Beschreibung von Fragen ohne physikalische Beweise. Er glaubte, dass es eine aufkommende Krise zwischen Wissenschaft und Politik gab, die die Wissenschaft, mit der er aufgewachsen war, verzerrte. Diese Wissenschaft verlängerte die Lebensspanne, ernährte die Hungernden, heilte Krankheiten und schrumpfte die Welt mit Düsenflugzeugen und Handys. Er hatte erwartet, dass „die Wissenschaft die Übel des menschlichen Denkens, der Vorurteile und des Aberglaubens verbannen würde“. In diesem Vortrag legte er dar, wie die Wissenschaft „von den älteren Verlockungen der Politik und der Öffentlichkeit verführt wurde“.

Er konzentrierte sich auf die vielen Wege, auf denen die Wissenschaft ihre Ressourcen verschwendet, um Dinge zu untersuchen, für die es keine diese Dinge unterstützenden physikalischen Daten gibt. Als erstes griff er die Täuschung an, die mit der Suche nach außerirdischer Intelligenz verbunden war, bekannt als das SETI-Projekt. Im Jahr 1960 wurde am Nationalen Radio-Observatorium in West Virginia ein Geräusch gehört. Es erwies sich zwar als falsch interpretiert, führte aber dazu, dass man Gleichungen aufstellte, die sich auf die Anzahl der Sterne in der Milchstraße bezogen und wie diese statistisch gesehen auf intelligentes Leben hindeuten könnten, das uns Botschaften sendet. Keiner der Begriffe in den Gleichungen konnte bekannt oder getestet werden, also war es ein Abenteuer der Vermutungen. SETI war nie eine Wissenschaft, sondern wurde für viele zu einer Religion. Der Vergleich zu allem, was im globalen Erwärmungswahn folgte, ist erstaunlich. Und doch ist es für die meisten von Ihnen, die diesen Artikel lesen, längst vergessen, wenn sie sich an den Intellekt von Michael Crichton erinnern.

Was Crichton damals erkannte war, dass die Akzeptanz von SETI bei so vielen Wissenschaftlern in nicht verwandten Gebieten einen Spalt in der Tür öffnete, eine Lockerung der Definition dessen, was legitimes wissenschaftliches Vorgehen ausmacht. Und schon bald begann verderblicher Müll durch die Ritzen zu quetschen.

Dann sprang er ein Jahrzehnt in die 1970er Jahre und nahm sich der falschen, Angst erzeugenden Regierungsberichte über den sogenannten „nuklearen Winter“ an, der aus einem Atomkrieg resultieren könnte. Berichte, die ohne Daten, nur mit Spekulationen geschrieben wurden. Schließlich tauchten Gruppen von Wissenschaftlern mit Gleichungen auf, die wieder einmal nur Begriffe enthielten, die man nur erahnen konnte. Traurigerweise meldete sich der bekannte Astronom Carl Sagan mit Untergangsvorhersagen auf einem Gebiet, von dem er nichts verstand. Dutzende von Auftritten in der Johnny Carson Show schienen sein Wissen über ALLES anschwellen zu lassen. Dies führte dazu, dass Sagan zusammen mit dem berühmtesten Scharlatan Paul Ehrlich in Washington, DC eine Konferenz über die langfristigen Folgen eines Atomkrieges leitete.

Da die Zerstörung der gesamten Landwirtschaft als gegeben angesehen wurde, wies ein Fragesteller darauf hin, dass Wissenschaftler zwar dachten, in Hiroshima und Nagasaki würde 75 Jahre lang nach den Atombomben-Explosionen von 1945 nichts mehr wachsen, aber im nächsten Jahr wurde eine große Melonenernte eingefahren. Ehrlich wischte die Frage beiseite und sagte: „Was wir hier jedoch tun, ist, einen Konsens einer sehr großen Gruppe von Wissenschaftlern zu präsentieren.“

An dieser Stelle in Crichtons Vortrag machte er eine Aussage, die jeder in der heutigen Welt lesen und lernen sollte:

„Ich halte die Konsens-Wissenschaft für eine extrem schädliche Entwicklung, die auf kaltem Wege gestoppt werden sollte. Historisch gesehen ist die Behauptung eines Konsenses die erste Zuflucht von Schurken; es ist ein Weg, eine Debatte zu vermeiden, indem man behauptet, die Sache sei bereits entschieden.“ Klingt vertraut.

Er fuhr fort: „Die Arbeit der Wissenschaft hat überhaupt nichts mit Konsens zu tun. Konsens ist das Geschäft der Politik. In der Wissenschaft hingegen braucht es nur einen Forscher, der zufällig Recht hat, was bedeutet, dass er oder sie die Ergebnisse hat, die durch Bezug auf die reale Welt überprüfbar sind. In der Wissenschaft ist der Konsens irrelevant. In der Tat sind die größten Wissenschaftler in der Geschichte gerade deshalb großartig, weil sie mit dem Konsens gebrochen haben“.

Dies ist bei der Suche nach medizinischen Heilmitteln und auch in der Physik geschehen. Einstein reagierte auf das Buch 100 deutsche Wissenschaftler, die Einsteins Relativitätstheorie widersprechen, mit den Worten „Es hätte nur einen gebraucht, um mir das Gegenteil zu beweisen“.

Ein wichtiger Punkt, den Crichton in dieser Rede ansprach war, dass im zu Ende gehenden 20. Jahrhundert die Verbindung zwischen harten wissenschaftlichen Fakten und der öffentlichen Politik zunehmend schwammig wurde. Der Aufstieg spezialisierter Lobbygruppen war nun wirksam bei der Gestaltung der Politik ohne wissenschaftliche Daten. Dazu beigetragen haben die Selbstgefälligkeit des wissenschaftlichen Berufsstandes und der Mangel an guter wissenschaftlicher Bildung in der Öffentlichkeit. Zusätzlich sagte er, dass der Niedergang der Medien als unabhängige Beurteiler von Fakten bedauerlich sei. Zeitungen mischen nun auf ihren Titelseiten redaktionelle Meinung und faktischen Inhalt.

Crichton stellte die Frage, wann der Begriff „Skeptiker“ zu einem Schimpfwort wurde, das Anführungszeichen um sich herum benötigt. Er sprach von der wachsenden Besessenheit mit Computermodellen im Jahr 2003, die wir alle bei den Vorhersagen des Pandemie-Virus im vergangenen Jahr versagen sahen. Wo Modelle Daten verarbeiten sollten, erzeugen sie jetzt Daten, die verarbeitet werden müssen. Er sagte in dieser Rede, dass „die Arroganz der Modellbauer atemberaubend ist“ und wer könnte da widersprechen.

Er warnte, wenn man an das SETI-Projekt, den nuklearen Winter und weiter an die globale Erwärmung zurückdenke, gebe es eine klare Botschaft: Wir können mehr und mehr ernsthafte Probleme der öffentlichen Politik erwarten, die sich mit Themen befassen, die Menschen auf allen Seiten leidenschaftlich beschäftigen.

Crichton wies auf die schändliche Art und Weise hin, mit der der dänische Statistiker Bjorn Lomborg bei der Veröffentlichung von THE SKEPTICAL ENVIRONMENTALIST empfangen wurde. Es beschwor Gedanken an Galileis Verhaftung herauf, weil er behauptet hatte, die Erde drehe sich um die Sonne, anstatt dass die Kirchen an das Gegenteil glaubten.

Er schloss diesen ersten von drei vorausschauenden Vorträgen zum Thema was aus der Wissenschaft geworden ist. Er zitierte den verstorbenen Philip Handler, ehemaliger Präsident der National Academy of Science, der sagte: „Wissenschaftler dienen der Öffentlichkeit am besten, wenn sie innerhalb der Ethik der Wissenschaft leben, nicht der der Politik. Wenn die wissenschaftliche Gemeinschaft die Scharlatane nicht entlarvt, wird die Öffentlichkeit den Unterschied nicht erkennen – die Wissenschaft und die Nation werden leiden.“

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2021/04/07/we-should-return-to-michael-crichtons-way-of-thinking

Übersetzt von Chris Frey EIKE




Appell an die Fossile-Treibstoffe-Industrie: Wacht endlich auf und kämpft!

Wie sind wir hierher gekommen? Wie konnte es passieren, dass fossile Brennstoffe – die technologische Erfindung, die mehr als jede andere das Gedeihen der modernen Gesellschaft ermöglicht hat – gehasst und verachtet wurden? Wie konnte das Nebenprodukt ihrer Verbrennung – CO2, ein geruchloses, farbloses, geschmackloses, unsichtbares Gas, das für das Pflanzenwachstum und damit für das Leben auf der Erde unerlässlich ist – zu einem Paria werden? Laut dem aufgeweckten Mob ist CO2 die Ursache für eine drohende „Klimakrise“.

CO2 in der Atmosphäre wird erst seit den 1970er Jahren offiziell gemessen, und es existiert in so winzigen Mengen, dass es in Teilen pro Million geeicht wird. Wenn ein erdölbasiertes CO2-Molekül in einem 10.000-Molekül-Basketballstadion sitzen würde, wäre es umgeben von 7.900 Molekülen Stickstoff, 2.000 Molekülen Sauerstoff und gerade einmal 4 Molekülen CO2, von denen nur eines (höchstens) aus fossilen Brennstoffen stammen würde. Ein einziges Molekül!

Klimaaktivisten sagen uns, dass eine Art Klima-Armageddon eintreten wird, wenn dieses eine vom Menschen verursachte CO2-Molekül bis zum Jahr 2100 auf insgesamt zwei ansteigen sollte. Ist es nicht seltsam, dass in der 4,5-Milliarden-Jahre-Geschichte der Erde, als ausbrechende Vulkane das atmosphärische CO2 um Tausende von Teilen pro Million auf- und abschwingen ließen, ein ähnliches Armageddon nie stattfand? Erst jetzt, im Jahr 2021 n. Chr., im ersten Jahr der Biden-Regierung, befindet sich die Erde in dieser misslichen Lage.

Die Theorie ist mehr als seltsam und bizarr. Sie ist kompletter Unsinn. Sie ist die große Lüge unserer Zeit.

Die Umweltschutzbehörde der Obama-Regierung erklärte CO2 zu einem „Schadstoff“. Das lasse man sich mal auf der Zunge zergehen: Wenn das wahr ist, dann ist jedes Mitglied der menschlichen Rasse ein Verschmutzer. Jeder von uns atmet jeden Tag 2,5 Pfund CO2 aus. Genauso wie jede der 6.000 Säugetierarten, die 18.000 Vogelarten, jede Fischart, eine Million Billion Zooplankton im Ozean – jedes Lebewesen, das auf dem Planeten Sauerstoff aufnimmt, „emittiert“ CO2 als Abfallprodukt. Die gesamte Biosphäre der Erde ist, laut EPA, ein Verursacher.

All diese sogenannte „Verschmutzung“ durch die Biosphäre der Erde stellt die winzigen Mengen, die durch die menschliche Verbrennung fossiler Brennstoffe emittiert werden, in den Schatten. Jedes Molekül des vom Menschen verursachten CO2 sieht aus und verhält sich chemisch wie jedes andere CO2-Molekül. Wenn wir glauben wollen, dass CO2 aus fossilen Brennstoffen das Klima bestimmt, müssen wir die gesamte Biosphäre der Erde anklagen.

Es gibt keine Wissenschaft, keine Fakten und keine geologische Geschichte, um diese Theorie zu untermauern. Aber es gibt viele Segmente der Gesellschaft, für die diese Theorie – so verrückt und dumm sie auch ist – sich als unglaublich nützlich erwiesen hat, um ihre jeweiligen Agenden voranzutreiben.

Internationale Bürokratien, wie die UN und der IPCC, finden sie wunderbar bequem, um ihre Budgets und ihre Existenz zu rechtfertigen. Westliche Regierungsbürokratien wie die NOAA, die NASA und das Hadley Center, die immer kompliziertere, verwickeltere und absurdere Erklärungen für die Gültigkeit der Theorie fabrizieren, sind ebenfalls von deren Fähigkeit angetan, ihre Budgets und ihren Zweck zu rechtfertigen.

Liberale, Millennials und Prominente strömen ihr zu, um ihre Unterstützung für die „Rettung des Planeten“ zu signalisieren. Akademiker klettern auf den Zug als verzweifelter Versuch, ihre Relevanz zu demonstrieren. Verlorene Seelen, ohne Familie oder einen Grund, klammern sich daran als falscher Gott für eine Religion, die in ihrem Leben fehlt. Intellektuelle sind glühende Verfechter als Demonstration ihres überlegenen Intellekts.

Die Theorie ist absolutes Katzenfutter für Politiker, die ständig versuchen, irgendeine Krise zu fabrizieren, die nur gelöst werden kann, indem man für sie stimmt. Sie ist ein gefundenes Fressen für moralische Narzissten und Eliten der herrschenden Klasse. Sie ist zu einem Geldsegen für Umweltgruppen geworden. China kann sich das Lachen nicht verkneifen, während es weiterhin Hunderte von neuen Kohlekraftwerken baut.

Auch Russland lacht, ebenso wie die vielen anderen Konkurrenten und Feinde unseres Landes, die uns scheitern und zerfallen sehen wollen.

Selten hat eine grundlose Idee den Verstand und die Seelen so vieler unterschiedlicher Gruppen erobert und deren individuellen Agenden gedient.

Aber der Schuldigste von allen, der uns in dieses Dilemma hat schlittern lassen, ist die fossile Brennstoffindustrie selbst nebst den Versorgungsunternehmen und Automobilherstellern, die auf ihre Produkte angewiesen sind.

Das American Petroleum Institute hätte von Anfang an aufstehen und erklären können, wie furchtbar falsch und antiwissenschaftlich diese Theorie eigentlich ist. Es hätte eine Kampagne starten können, um die Öffentlichkeit über die Wissenschaft, die geologische Geschichte und das rationale Denken aufzuklären, das die völlige Absurdität der Definition von CO2 als Schadstoff entlarvt.

Stattdessen zogen sie es vor, die Ideologen und Eiferer zu beschwichtigen, die diese traurige und korrupte Sache unterstützen. Sie zogen es vor, tatsächlich zuzugeben, dass CO2 eine schädliche „Emission“ ist, und zogen sich daher, nachdem sie die Wahrheit und die Oberhand an die Klimaschläger abgetreten hatten, auf die defensive Position zurück, dass Erdgas ein Brennstoff ist, der „hilft, Emissionen zu reduzieren.“

Vielleicht dachten sie, dies sei eine niedliche und clevere Taktik, die ihnen Lob von der New York Times, von der UNO und von all den aufrichtigen Liberalen in ihrem Kundenstamm einbringen würde.

„Schaut, was für nette, gute, fürsorgliche Menschen wir sind. Auch wir wollen den Planeten retten. Wir werden beglückwünscht werden von der fachwelt, von der politischen Klasse und von den klügsten Leuten im Raum. Oder? Die wären doch nicht wirklich so verrückt, die Abschaffung aller fossilen Brennstoffe zu fordern, oder?“

Oh ja, sie würden – und sie haben. Die schlaue und clevere Taktik hat sich in ein Desaster verwandelt. Und jetzt, fossile Brennstoffindustrie, Sie stecken in Dünkirchen, an den Stränden der Normandie, vom Feind umzingelt, mit keinem mehr Boden mehr zum Ausweichen. Die Biden-Regierung hat die Kapitulation gefordert – werfen Sie Ihre Waffen weg und steigen Sie aus dem Transport- und Stromgeschäft aus.

Sie haben jetzt keine andere Wahl. Sie werden sich den Weg nach draußen erkämpfen müssen. Sie werden die Wahrheit sagen müssen – und Sie wissen, dass es die Wahrheit ist – und erklären, warum CO2 kein schädlicher Schadstoff ist: warum es töricht ist, so zu denken; warum diese Vorstellung von der „Rettung des Planeten“ ein Mythos ist; warum fossile Brennstoffe ein wesentlicher Teil des nächsten Kapitels der Menschheitsgeschichte sein werden – die Ausrottung von Armut, Pestilenz und Verschmutzung in der unterentwickelten Welt. Warum reichlich vorhandene fossile Brennstoffe der Schlüssel zur Verhinderung des nächsten Krieges sind; warum fossile Brennstoffe und Kernenergie all unseren Bedarf an reichlich vorhandener, erschwinglicher und zuverlässiger Elektrizität decken können, soweit das Auge reicht.

Vergessen Sie alberne Kompromisse oder geringfügig bessere Bedingungen für die Kapitulation, wie z. B. „Kohlenstoffabscheidung“, Kohlenstoffsteuern oder die Verlängerung des Datums der Ausführung von 2035 auf 2045. Sie haben zwei Möglichkeiten: Stehen Sie zu Ihren Prinzipien – oder kapitulieren Sie. Wenn Sie sich für Letzteres entscheiden, wird die Geschichte hart über Sie urteilen, wie sie es auch tun sollte.

Wollen Sie wirklich so in Erinnerung bleiben?

Sicher, es wird Verluste geben. Einige von Ihnen werden von der aufgehetzten Klima-Menge abgeholt und zerquetscht werden. Einige von Ihnen werden von ernsthaften Liberalen, Politikern, Akademikern und den Medien lächerlich gemacht, geächtet und in Teer und Federn die Hauptstraße hinunter getrieben werden. Einige von Ihnen werden gezwungen sein, sich zurückzuziehen, um „mehr Zeit mit ihren Familien zu verbringen“. Aber wenn Sie sich jetzt nicht erheben, wird die gesamte Branche zerschlagen werden, und der Rest der Welt wird unter Ihrer Feigheit leiden.

Edmund Burke hat es am besten gesagt: „Alles, was notwendig ist, damit das Böse triumphiert, ist, dass gute Menschen nichts tun.“

Es ist böse, wenn Ideologen den Armen die Vorteile der fossilen Brennstoffe vorenthalten. Wenn nicht böse, dann absolut gefühllos und unmenschlich.

Wenn Sie die Kapitulation wählen, dann verdienen Sie, was Sie bekommen, aber es ist die Welt, die die Konsequenzen Ihres Defätismus erleiden wird. Beschwichtigungen funktionieren nie bei Ideologen und Eiferern. Und jetzt, nachdem Sie sich selbst in eine Ecke manövriert haben, können Sie sich nirgendwo anders mehr hinwenden. Die Biden-Regierung hat Ihre bedingungslose Kapitulation gefordert. Sie können entweder um Frieden bitten und die Schmach einer Niederlage erleiden oder sich den Weg freikämpfen.

Die ganze Welt sieht zu.

Autor: Collister Johnson has spent the last four decades working in the public and private sectors in Virginia, primarily in the fields of project finance and maritime transportation. He began his career in public service as Chairman of the Board of the Virginia Port Authority. He was appointed by President George W. Bush, and confirmed by the Senate, as a member of the Overseas Private Investment Corporation, and most recently, as Administrator of the St. Lawrence Seaway Development Corporation. In that capacity, he became knowledgeable in the field of climate and its impact on the Great Lakes. He currently serves on CFACT’s Board of Advisors. Johnson holds a B.A. degree from Yale University, and a J.D. from the University of Virginia

Link: https://www.cfact.org/2021/04/11/memo-to-the-fossil-fuel-industry-wake-up-and-fight/

Übersetzt von Chris Frey EIKE

 




Wie wir uns selbst zum Narren machen: Wissenschaft­liche Konsens­bildung

Oder mit den Worten des Politik-Wissenschaftlers Daniel Sarewitz: „Wie ein Magnetfeld, das Eisenspäne in eine Richtung zieht, so richtet eine mächtige kulturelle Überzeugung mehrere Quellen wissenschaftlicher Voreingenommenheit in dieselbe Richtung aus“.

Die Psychologen Richard Simmons et al. stellen fest, dass die Voreingenommenheit von Forschern einen großen Einfluss auf das Ergebnis einer Studie haben kann. Zu solchen „Freiheitsgraden des Forschers“ gehören Entscheidungen darüber, welche Variablen einbezogen werden, welche Daten einbezogen werden, welche Vergleiche angestellt werden und welche Analysemethoden verwendet werden sollen. Jede dieser Entscheidungen mag vernünftig sein, aber zusammengenommen ermöglichen sie es dem Forscher, statistische Signifikanz oder andere aussagekräftige Informationen aus fast jedem Datensatz zu extrahieren. Forscher, die die notwendigen Entscheidungen über die Datenerfassung und -analyse treffen, glauben, dass sie die richtigen oder zumindest vernünftigen Entscheidungen treffen. Aber ihre Voreingenommenheit wird diese Entscheidungen in einer Weise beeinflussen, die den Forschern möglicherweise nicht bewusst ist. Außerdem kann es sein, dass die Forscher einfach die Verfahren verwenden, die funktionieren – was bedeutet, dass sie die vom Forscher gewünschten Ergebnisse liefern.

Das Ziel der wissenschaftlichen Forschung ist es, herauszufinden, was wirklich wahr ist, und nicht nur unsere vorgefassten Meinungen zu bestätigen. Wenn eine Gemeinschaft von Wissenschaftlern eine Vielfalt von Perspektiven und unterschiedlichen Annahmen hat, dann werden die Kontrollen und der Ausgleich im wissenschaftlichen Prozess einschließlich der Begutachtung schließlich den Voreeingenommenheiten von Einzelpersonen entgegenwirken. Manchmal ist dies wahr – aber oft geschieht dies nicht schnell oder reibungslos. Nicht nur schlechte Daten und falsche Ideen können überleben, sondern auch gute Ideen können unterdrückt werden.

Wenn sich jedoch vorgefasste Meinungen, hervor gerufen durch motivierte Argumentation und Karrieredruck, in den Institutionen verfestigen, die die Wissenschaft unterstützen – die Fachgesellschaften, wissenschaftlichen Zeitschriften, Universitäten und Förderorganisationen – dann kann dieser Teilbereich der Wissenschaft für Jahrzehnte in die Irre geführt werden.

Voreingenommenheiten, die durch einen Konsens bildenden Prozess verursacht werden

Der Konsens wird in vielen Diskussionen über die Wissenschaft als Stellvertreter für die Wahrheit angesehen. Ein Konsens, der durch die unabhängigen und freien Überlegungen vieler gebildet wird, ist ein starker Indikator für Wahrheit. Einem Konsens kann jedoch nur in dem Maße vertraut werden, wie es den Einzelnen frei steht, ihm zu widersprechen.

Ein wissenschaftliches Argument kann sich vorzeitig zu einer herrschenden Theorie entwickeln, wenn die kulturellen Kräfte stark genug und in dieselbe Richtung ausgerichtet sind. Verfrühte Theorien, die durch einen expliziten Konsensbildungsprozess erzwungen werden, schaden dem wissenschaftlichen Fortschritt aufgrund der Fragen, die nicht gestellt werden, und der Untersuchungen, die nicht durchgeführt werden. Nuzzio (2015) bezeichnet dies als „Hypothesen-Myopie“.

Wenn das Ziel wissenschaftlicher Forschung darin besteht, die Wahrheit zu finden und Fehler zu vermeiden, wie könnte dann ein Konsensfindungsprozess eine Voreingenommenheit in die Wissenschaft einführen und die Wahrscheinlichkeit von Fehlern erhöhen?

Confirmation bias“ ist ein wohlbekanntes psychologisches Prinzip, das die Suche nach oder die Interpretation von Beweisen auf eine Art und Weise bezeichnet, die teilweise zu bestehenden Überzeugungen, Erwartungen oder einer bestehenden Hypothese passt. „Confirmation bias“ bezieht sich in der Regel auf unbewusste Selektivität bei der Beschaffung und Interpretation von Beweisen.

Der Philosoph Thomas Kelly (2005) gibt folgenden Einblick in Confirmation Bias. Je mehr Gleichgesinnte sich zu einem bestimmten Thema äußern, desto größer wird der Anteil der Gesamtbeweise, der aus psychologischen Beweisen höherer Ordnung dafür besteht, was andere Menschen glauben, und desto kleiner wird der Anteil der Gesamtbeweise, der aus Beweisen erster Ordnung besteht. Kelly kommt zu dem Schluss, dass dieser Prozess der unsichtbaren Hand im Laufe der Zeit dazu neigt, unseren früheren Überzeugungen einen gewissen Wettbewerbsvorteil in Bezug auf Bestätigung und Nicht-Bestätigung zu verleihen.

Allen et al. (2020) zeigen, wie Abhängigkeit, Druck und Polarisierung einen Konsens erzwingen können, was das Vertrauen auf den Konsens als Indikator für die Wahrheit unzuverlässig macht. Infolgedessen kann einem Konsens nur in dem Maße vertraut werden, in dem Individuen frei sind, ihm zu widersprechen, ohne Repression oder Repressalien. Ähnlich verhält es sich, wenn starke Anreize die Bestätigung einer Position begünstigen, dann wird ein Konsens, der diese Position bestätigt, fast unvermeidlich und daher fast bedeutungslos.

Die Kommunikationstheoretikerin Jean Goodwin argumentiert, dass sobald die Konsensbehauptung aufgestellt war, die Wissenschaftler, die am laufenden IPCC-Prozess beteiligt waren, Gründe hatten, nicht nur die wissenschaftlichen Beweise zu berücksichtigen, sondern auch die möglichen Auswirkungen ihrer Aussagen auf ihre Fähigkeit, die Konsensbehauptung zu verteidigen.

Der Konsensbildungsprozess des IPCC fördert wohl das Gruppendenken. ‚Groupthink‘ ist ein Denkmuster, das durch Selbsttäuschung, erzwungene Herstellung von Zustimmung und Konformität mit Gruppenwerten gekennzeichnet ist. Janis (1972) beschreibt acht Symptome des Gruppendenkens:

● Illusion der Unverwundbarkeit

● kollektive Rationalisierung

● Glaube an inhärente Moral

● stereotype Ansichten über Außenseiter-Gruppen

● direkter Druck auf Andersdenkende

● Selbstzensur

● Illusion der Einstimmigkeit

● selbsternannte Gesinnungswächter

Viele Verteidiger des IPCC-Konsenses – sowohl Wissenschaftler als auch Konsens-Unternehmer – zeigen viele, wenn nicht alle dieser Symptome.

Thomas Gold (1989) diskutierte die Gefahren, die das „Herdenverhalten“ für Wissenschaftler darstellt, das möglicherweise zu einem trägheitsbedingten Fortbestehen einer falschen Konsensmeinung innerhalb der Wissenschaften führt. Während der Herdentrieb im soziologischen Verhalten einen Wert hat, ist er in der Wissenschaft eine Katastrophe – in der Wissenschaft wollen wir im Allgemeinen Vielfalt. Wenn die Leute alle den gleichen Weg verfolgen, neigen sie dazu, andere Wege auszuschließen, und die sind nicht immer die richtigen.

Es ist nicht nur der Herdentrieb bei den Einzelnen, der bedenklich ist. Wenn die Unterstützung durch Gleichaltrige und moralische und finanzielle Konsequenzen auf dem Spiel stehen, dann ist das Bleiben bei der Herde die erfolgreiche Politik für das Individuum; es ist jedoch nicht die erfolgreiche Politik für das Streben nach Wissenschaft. Mentales Herdenverhalten, auch wenn es das freie Denken nicht wirklich einschränkt, übt heimtückisch Druck aus, der Mode zu folgen. Die Institutionen, die die Wissenschaft unterstützen – finanzielle Unterstützung, die Zeitschriften, das Urteil der Gutachter, die Einladungen zu Konferenzen, die berufliche Anerkennung – werden alle vom Herdenverhalten beeinflusst.

Der Ökonom William Butos (2015) charakterisiert den IPCC als einen „Big Player“ in der Wissenschaft, da er alle Attribute besitzt, die für Big Player auf Märkten charakteristisch sind: Größe in Bezug auf den Einfluss, Unempfindlichkeit gegenüber den üblichen Einschränkungen und Ermessensspielraum in seiner Fähigkeit, eine bevorzugte Forschungsrichtung zu fördern. Diese Charakterisierung des IPCC als „Big Player“ ähnelt der Charakterisierung des IPCC als Wissensmonopol durch den Ökonomen Richard Tol. Der Einfluss des IPCC in der Klimawissenschaft ist allgegenwärtig und erlaubt es ihm, die üblichen wissenschaftlichen Beschränkungen für die Akzeptanz von Hypothesen weitgehend zu ignorieren. Professioneller Erfolg in der Klimawissenschaft ist mehr mit der Akzeptanz der Verlautbarungen des IPCC verbunden als mit der Erkundung gegenteiliger Möglichkeiten.

Die Existenz des IPCC als „Big Player“ und „Wissensmonopol“ zum Klimawandel kann zu einer vorzeitigen Heiligsprechung der IPCC-Schlussfolgerungen führen. Vorzeitige Heiligsprechung bezieht sich auf den weit verbreiteten wissenschaftlichen Glauben an eine falsche oder unvollständige Schlussfolgerung, was zu einer als Ablehnung getarnten Unterdrückung führt. Unterdrückung tritt auf, wenn die Angst vor sozialen Sanktionen verhindert, dass Gedanken erforscht oder empirische Ergebnisse in wissenschaftlichen oder öffentlichen Foren präsentiert werden. In der Wissenschaft tritt Ablehnung auf, wenn eine Idee erforscht wurde und die Beweise für unzureichend befunden wurden. Ein klassischer, relativ junger Fall von vorzeitiger Heiligsprechung betrifft die wissenschaftliche Identifizierung der Ursachen von Geschwüren.

Was sind also die Auswirkungen dieser Bedenken auf den Konsens des IPCC über den vom Menschen verursachten Klimawandel? Kognitive Verzerrungen im Kontext eines institutionalisierten Konsensbildungsprozesses haben wohl dazu geführt, dass der Konsens in einer sich selbst verstärkenden Weise zunehmend bestätigt und sogar kanonisiert wurde. Eine große Gruppe von Wissenschaftlern leitet ihr Vertrauen in den Konsens aus zweiter Hand von der institutionellen Autorität des IPCC und der nachdrücklichen Art, in der der Konsens dargestellt wird, ab. Diese ‚unsichtbare Hand‘ marginalisiert skeptische Perspektiven. Übermütige Behauptungen der „Big Player“ nehmen Wissenschaftlern die Motivation, den Konsens in Frage zu stellen, insbesondere wenn sie damit rechnen müssen, für ihre Bemühungen als „Leugner“ bezeichnet zu werden und ihre Chancen auf berufliche Anerkennung und Forschungsförderung zu beeinträchtigen.

Der Prozess der Konsensbildung verstärkt persönliche Voreingenommenheiten und marginalisiert abweichende Meinungen entweder von der Mehrheitsmeinung oder der Meinung der lautesten oder motiviertesten Person im Raum. Über das Ausmaß und die Bedeutung der Verzerrungen, die durch den Konsensfindungsprozess des IPCC in die Klimawissenschaft eingebracht wurden, kann man nur spekulieren.

Link: https://wattsupwiththat.com/2021/04/11/how-we-fool-ourselves-part-ii-scientific-consensus-building/

Übersetzt von Chris Frey EIKE

 




Regierungsamt­liche Phantasterei: Aufladen von Elektro-Fahrzeugen

Die Bundesbehörden bauen große Dinge wie Postämter, Bundesgebäude, Militärbasen, Hochwasserschutzdämme und Grenzmauern. Sie bauen nicht eine halbe Million EV-Ladestationen, im Wettbewerb mit dem privaten Sektor, aber nur mal so wollen wir uns überlegen, wie sie es versuchen könnten.

Der einfachste Weg ist es, es einfach wie ein Postamt zu machen. Die Regierung kauft das Land, baut die Station, und die Betreiber sind Bundesangestellte. Wir schaffen eine neue Behörde, sagen wir die EV Charging Administration (EVCA), wahrscheinlich in der GSA. Sie hat eine Million Vollzeitangestellte, genau wie die Armee. Oh, Moment, die Armee hat nur 800.000.

Die Regierung kauft den Strom, plus Snacks für den integralen Lebensmittelladen. Kein Laden! Wie finanzieren sie sich selbst? Oh, das tun sie nicht, sie bekommen eine jährliche Bewilligung, genau wie der Rest der Regierung. Aber der Strom ist trotzdem sehr teuer.

Vielleicht wollen wir nicht so eine große Behörde, also machen sie es so, wie das Energieministerium die nationalen Labore betreibt. Diese Ladestationen sind im Besitz der Regierung, werden aber von einer Fremdfirma betrieben. Sie wird GOCO genannt, reimt sich auf LOCO. In der Tat denkt ein Großteil der Bundesregierung so. Viele Bundesbehörden sind in Wirklichkeit Zweigstellenleiter, die einen Kader von unterstützenden Auftragnehmern beaufsichtigen.

Aber das ist immer noch ein riesiger, schwerfälliger, laufender Betrieb mit etwa einer Million Angestellten (nur nicht alle vom FBI). Die offensichtliche Alternative ist, die Ladestationen von privaten Unternehmen betreiben zu lassen. Die Bundesregierung würde nur den Bau finanzieren und es dabei bewenden lassen.

Stattdessen haben wir also ein Förderprogramm in Höhe von 178 Milliarden Dollar? Das sind verdammt viele Zuschüsse, so dass wir eine sehr große Organisation benötigen, um alle Anträge zu bearbeiten, alle Gewinner auszuwählen (sorry, Verlierer, ihr verliert) und dann die Zuschüsse zu verwalten, was auch immer das bedeutet. Es könnten Millionen von Anträgen sein, also brauchen wir immer noch eine riesige EVCA.

Wer bekommt diese 178 Milliarden Dollar an Zuschüssen? Eine sehr gute Frage! Wird der Zuschuss bei 100.000 Dollar oder 100.000.000 Dollar oder irgendwo dazwischen liegen? Es macht einen großen Unterschied, wer sich bewerben kann.

Eine Möglichkeit sind die Versorgungsunternehmen, die den Strom verkaufen. Schließlich wird ein großer Teil der Kosten, vielleicht sogar der größte, darin bestehen, die Versorgungsunternehmen dafür zu bezahlen, dass sie ihre Verteilersysteme aufrüsten, damit diese Ladestationen funktionieren können. Dies gilt vor allem für ländliche Gebiete, wie z.B. entlang der 50.000 Meilen Interstate Highways [vergleichbar mit unseren Bundes-Autobahnen, A. d. Übers.] und Hunderttausende von Meilen entlang anderer großer Autobahnen.

Oder wie wäre es, wenn die Benzinfirmen das machen würden? Sie sind bereits flächendeckend mit Tankstellen ausgestattet. In der Tat könnten die Ladestationen an den Tankstellen sein, wo die Autos bereits fahren. Außerdem gäbe es auf diese Weise eine Menge Wettbewerb, im Gegensatz zu den monopolistischen Stromversorgern. Allerdings könnte es den grünen Befürwortern von E-Fahrzeugen schwerfallen, den verhassten Ölkonzernen fast 200 Milliarden Dollar freizur Verfügung zu stellen.

Einige Experten sind jedoch der Meinung, dass die Ladestationen in Supermärkten, großen Geschäften, Fast-Food-Läden und anderen Vergnügungsstätten aufgestellt werden sollten, da das Aufladen sehr lange dauert. Die meisten dieser Orte haben bereits Platz für Autos und einige haben sogar Tankstellen. Allerdings haben sie keine Erfahrung mit dem Pumpen von Strom.

Eine vierte Möglichkeit ist, diese vielen Milliarden an die wenigen bestehenden Unternehmen zu geben, die bereits Ladestationen bauen. Sie wissen, wie man es macht. Wohlgemerkt, sie sind sehr klein und könnten an so viel Geld ersticken.

Das führt zu einer fünften Möglichkeit, nämlich diese Zuschüsse nur an Teams von Unternehmen zu geben. Die Voraussetzung für die Teambildung könnte sein, dass sie das Land, das Know-how und die finanzielle Stärke haben.

Dann ist da noch die lästige Frage, wohin mit all diesen Stationen? Die Zuschüsse sollten so vergeben werden, dass eine angemessene geografische Abdeckung erreicht wird, sonst werden die E-Fahrzeuge nicht funktionieren. Angesichts dieser riesigen Menge an kostenlosem Geld werden sie vielleicht dort gebaut, wo es keinen Bedarf gibt, wie z.B. in nutzlosen Clustern. Große finanzielle Verluste werden folgen und die Nutzung von E-Fahrzeugen wird nicht unterstützt.

Es ist klar, dass der Kongress die Aufgabe haben wird zu entscheiden, wem er diese enorm hohen Summen zukommen lassen will und wie. Und es wird eine große Aufgabe für die EVCA sein, sie in den Ring zu werfen.

Der grundlegende Punkt ist, dass dies von Anfang an eine dumme Idee ist. Wenn EV-Ladestationen Geld einbringen, dann wird der private Sektor sie bauen.

Die Bundesregierung hat in diesem Geschäft nichts zu suchen.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/. Available for confidential research and consulting

Link: https://www.cfact.org/2021/04/10/fed-funding-fantasy-ev-charging/

Übersetzt von Chris Frey EIKE




Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet

Warnhinweis

Lange hat der Autor überlegt, ob er diesen Artikel überhaupt veröffentlichen kann.
Grund ist, dass die Sichtung über die Durchführung und Fehler der Inzidenzermittlung so katastrophale Mängel aufdeckt, dass man am Verstand vieler Personen welche daraus Lockdownmaßnahmen ableiten, zweifeln müsste (rein persönliche Meinung des Autors, allerdings durch viele „Fachpersonen“ längst widerlegt).

Das (mit dem fehlenden Verstand hochbezahlter „Intelligenz“) kann und darf aber nicht sein, sofern man den Berichten unserer Medien glauben darf, wie es gerade wieder bewiesen wurde: Zeit Online, 8. April 2021: Langzeitstudie: Vertrauen in Medien deutlich gestiegen
Dann bleibt aber die einzige, logische Folgerung: Die in diesem Artikel gebrachten Überlegungen und somit Ableitungen sind hoffnungslos falsch.

Leider hat der Autor jedoch ein dickes „Brett vorm Kopf“ und findet seine Fehler nicht. Notgedrungen stellt er diesen Artikel also doch auf EIKE ein, damit die kompetenteren Leser seine Fehler finden und diese im Blog (dann bitte mit Richtigstellung) aufzeigen.

Den Inzidenzwert kann jedes Schulkind berechnen

Der Inzidenzwert ist mittels einfachem Dreisatz ermittelbar:
[1] Stuttgarter Nachrichten (stark gekürzt und teils ergänzt): Wie berechnet man die 7-Tage-Inzidenz?
Falls Sie die 7-Tage-Inzidenz … brauchen Sie zunächst die folgenden Zahlen:
– Die Summe der Neuinfektionen der letzten 7 Tage
– Die Einwohnerzahl
Und so berechnen Sie den 7-Tages-Wert:
Summe Neuinfektionen der letzten 7 Tage, geteilt durch die Einwohnerzahl Ihres Landkreises … Anschließend multiplizieren Sie das Ergebnis mit 100.000.
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz

Diese Berechnung ist plausibel und ermittelt auch mathematisch bis auf beliebige Nachkommastellen genau (verwendet werden vom RKI zwei Nachkommastellen) den Inzidenzwert.

Anmerkung: Amtlich wird bei einem positiven PCR-Testergebnis automatisch von „Neuinfektionen“ gesprochen und damit immer eine entdeckte „Gefahr“ suggeriert.
Dabei sagt ein Positivergebnis lediglich aus, dass beim Test Reste entsprechender DNA-Sequenzen gefunden wurden.
Ob diese wirklich von einer aktuellen Infektion stammen, (noch) aktiv sind, und wirklich zur Krankheit führen (würden) ist damit nicht ausgesagt (siehe dazu am Schluss die Grafiken der PCR-Positivmeldungen und der in keinem Zusammenhang dazu verlaufenden Mortalität).
Da der Begriff „Neuinfektionen“ amtlicherseits durchgehend verwendet wird, ist er hier wenn im „Amtston“ getextet wurde ebenfalls verwendet und nicht mit einem richtigeren, wie zum Beispiel „ die DNA-Sequenzsuche hat welche, die einen Verdacht auf Kontakt mit Covid-19-Virus nicht ausschließen lassen gemeldet“. Richtige Information klingt oft zu sperrig.

Größenordnungen

An einem Beispiel sei gezeigt, wie viele Personen oder positive Testergebnisse es benötigt, um anhand der Inzidenz Lockdown-Entscheidungen auszulösen:
Eine Beispiel-Stadt mit 100.000 Einwohnern habe in der Einwohnerschaft eine durchgängige (gleich verteilte) Neu-Infektionsrate von 14 Einwohnern täglich (0,014 % der Einwohner), in Summe der 7 Tage somit 98 Personen (ca. 0,1 % aller Einwohner).

Als Folge hat diese Beispiel-Stadt einen Inzidenzwert von 98 und kann Erleichterungen beim Lockdown veranlassen.

Bild 1 Beispielstadt, Neuinfektionen und Inzidenzwert

Beträgt die Summe der Neuinfektionen nun zwei zusätzliche Personen (zusätzlich 0,002 % aller Einwohner) innerhalb der 7 Messtage, in Summe also 100 Personen, berechnet sich ein Inzidenzwert von 100 und laut Politikbeschluss sind gnadenlos Restriktionsmaßnahmen vorzugeben (und werden von den Kommunen auch wirklich buchstabengetreu, pedantisch umgesetzt).

Stellt sich nicht schon da die Frage, ob es wirklich sinnvoll ist, wegen zusätzlich +0,001 .. 0,002 % „Corona-Positivbefall“ – also weder Krankheit, ev. nicht einmal mit Symptomäußerung – innerhalb einer Woche, massivste, zusätzliche Lockdown-Restriktionen durchzusetzen?
Die Antwort kennt jeder: Diese Frage wird nicht gestellt. Wenn einmal doch, dann wird sie konsequent als rääääächts abgebürstet“. Im Deutschland der unfehlbaren Merkel und eines heiligen Söder fragt man nicht, sondern freut sich, wieder Anordnungen umsetzen und damit Staatstreue zeigen zu dürfen … wie es früher bewährte Bürgersitte war:
Es ziemt dem Untertanen, seinem Könige und Landesherrn schuldigen Gehorsam zu leisten und sich bei Befolgung der an ihn ergehenden Befehle mit der Verantwortlichkeit zu beruhigen, welche die von Gott eingesetzte Obrigkeit dafür übernimmt; aber es ziemt ihm nicht, die Handlungen des Staatsoberhauptes an den Maßstab seiner beschränkten Einsicht anzulegen und sich in dünkelhaftem Übermute ein öffentliches Urteil über die Rechtmäßigkeit derselben anzumaßen.
Gustav von Rochow (1792 – 1847), preußischer Innenminister und Staatsminister

Regelungstechnik

Mit Erreichen des Inzidenzwertes 100 treten sofort erhebliche, zusätzliche Lockdown-Verschärfungen in Kraft. Damit soll der Inzidenzwert wieder unter Hundert, besser bis maximal 50 reduziert werden.

Technisch-mathematisch bilden Inzidenzwert und Lockdown eine Regelstrecke.
Da die Lockdown-Maßnahmen mit Erreichen des Inzidenzwertes 100 sofort ohne Stufung(en) (hätte dann eine integrale, also eigendämpfende Regelwirkung zur Folge) erfolgen, handelt es sich um einen Proportionalregler.
Dazu um eine Regelstrecke, welche aufgrund der Verzögerung zwischen Inzidenzwertmeldung und Wirkung der Lockdownmaßnahmen im Wirkungsweg eine recht lange Totzeit beinhaltet.

Jedes Kind Student lernt bereits im Grundlagenfach Regelungstechnik, dass ein Proportionalregler bei zu hoher „Verstärkung“ – und vor allem, wenn dann noch wie in diesem Fall eine Hysterese fehlt – konsequent oszilliert.
Extrem verstärkt und dann viel, viel schwieriger lösbar wird diese Neigung zur Oszillation, wenn in der Strecke zusätzlich Phasenverschiebungen, hier noch schlimmer „Totzeiten“ dazukommen. Dann wird diese einfache Art der Regelung eigentlich unbeherrschbar.

Genau diese Auswirkungen lassen sich bundesweit live erleben:
Stadt Nürnberg: An einem Montag Öffnung von Präsenzunterricht und Kindergärten, am Dienstag wieder alles schließen … , einfach ein „ewiges“ Hin- und Her, was Eltern, Handel und Sonstige zur Verzweiflung treibt.

Nicht, dass dies kommunale „Lenker“ nicht bemerken. Aber bisher wagte nur ein kleines Eckchen von Deutschland, welches sich etwas Obrigkeitsrenitenz bewahrt hat, zumindest informellen „Widerstand“, indem sie es wenigstens meldeten:
Stadt Lößnitz an die Sächsische Staatskanzlei, 15.03.2021: Offener Brief der Bürgermeister des Erzgebirges

Bild 2

Bild 3

Bild 4

Was machen unsere „hohen Politiker“ und deren Berater zur Lösung? Sie orientieren sich nicht an der seit weit über 100 Jahren bewährten und in weltweit Milliarden von Installationen als richtig belegten Regelungstechnik, sondern „vertrauen“ auf Epidemie-Simulationen, welche laufend exponentielle Anstiege vorhersagen, die noch nie und auch aktuell nicht – da epidemiologisch unmöglich – eingetroffen sind (siehe vorletztes Kapitel).

Wo sie doch „eintreffen“ – schließlich „sieht“ den exponentiellen Anstieg auch unsere unfehlbare Kanzlerin – verhält es sich so, wie in der Theologie: Wenn man etwas lange genug „eingebläut“ bekommt – hier: Täglich in der Zeitung liest und von Medien erzählt -, können es psychisch entsprechend eingestellte Personen in besonders „lichten“ Momenten plötzlich „sehen“, so wie „KlimaGreta“ das unsichtbare und geschmacklose CO2, wenn es zum Beispiel aus Kraftwerken „schießt“ . Weitere Beispiele aus der Theologie ließen sich nahezu unendlich fortführen.

Was wäre, wenn die ermittelten Inzidenzwerte gar nicht stimmen würden?

Alles bisher Gesagte geht davon aus, dass der Inzidenzwert stimmt. Vom RKI wird er immer mit zwei Nachkommastellen angegeben. Wer würde es also wagen, daran zu zweifeln, dass nicht alle dieser Stellen auch signifikant sind?

Eine Fundstelle macht jedoch auf scheinbare Probleme aufmerksam. Nicht unbedingt didaktisch gut aufbereitet, für etwas mit Statistik Vertraute aber gut lesbar:
[4] IWIKIPEDIA: Inzidenz (Epidemiologie): Kritik
... Die für den Vergleich und zur Festlegung von Schwellenwerten herangezogene sogenannte 7-Tage-Inzidenz ist nicht gleichzusetzen mit einer epidemiologischen Inzidenz, die auf repräsentativen Stichproben basiert. Die Testprävalenzen werden auf die Gesamtbevölkerung oder Region umgerechnet, ohne die Dunkelziffer in der nicht-getesteten Bevölkerung zu berücksichtigen. Ohne Bezug zu einer bekannten Grundgesamtheit (Nenner) fehlt der Fallzahl die epidemiologische Aussagekraft und damit die Geeignetheit für seuchenpolitische Maßnahmen. Die Reduktion der Lageeinschätzung auf die 7-Tages-Inzidenz sei epidemiologisch nicht begründbar und entspreche nicht dem Stand der verfügbaren wissenschaftlichen Evidenz.
Auch Politik und Justiz sehen allein die Inzidenz zur Begründung von Grundrechtseinschränkungen als unzureichend an …

Eine Folge davon sind Gerichtsentscheide von Richtern, die diesen Sachverhalt umzusetzen wagen:
Tichys Einblick: Gericht kippt Ausgangssperre in Hannover: „Nicht nachprüfbare Behauptungen“ reichen zur Rechtfertigung nicht aus!
Allerdings auch von Politikern, denen jeglicher Sachverstand fehlt, solchen auch gar nicht haben wollen:
Tagesspiegel vom 22.03.2021: NRW Stunden nachdem ein Gericht die Beschränkungen für den Handel für rechtswidrig erklärt hatte, beschließt die Politik noch härtere Regeln

Grundgesamtheit und Stichprobentheorie

Und damit steht eine weitere Fragestellung im Raum, welche weder juristisch und soziologisch, sondern einfach statistisch-mathematisch begründbar ist: Wie genau, besser fehlerhaft, Ist die Ermittlung des Inzidenzwertes?

Dazu nehmen wir die Beispielstadt vom Anfang (Bild 1):
Deren Daten: Von 100.000 Einwohnern mit 0,1 % gut durchgemischten (damit gleichverteilten) Positiven (sind 100 Personen in der Stadt, somit ein Inzidenzwert von 100), werden rein statistisch täglich 14 Bewohner neu infiziert.
Am Ende der 7 Inzidenz-Messtage sind es somit 98 neu hinzugekommene, positive Bewohner und damit wieder ein Inzidenzwert von 98.
Nun versuchen wir, diese Corona-positiven Personen mittels RKI-Coronatestungen und darüber die Inzidenz zu ermitteln.

Beispielstichproben

Leider findet sich nirgendwo eine Angabe, wie viele Testungen wo durchgeführt werden. Deshalb muss man diese Zahl versuchen indirekt abzuleiten.
Laut RKI wurden in der KW13 deutschlandweit 1.149.297 PCR-Testungen durchgeführt. Heruntergerechnet auf unsere Beispielstadt wären das für den Zeitraum der Inzidenz-Ermittlung 1.385 Testungen.

Stichprobe A
Bei 0,1 % Positivanteil in der Grundgesamtheit sind in einer Stichprobe von 1.385 Personen im Mittel 1,385 Personen positiv zu finden. Halbe Personen gibt es nicht, weshalb die Stichprobe entweder 1 oder 2 Personen meldet. Die RKI-Inzidenzberechnung meldet also eine Inzidenz von:
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (2/100.000) x 100.000) =
2 (anstelle des wirklichen Inzidenzwertes von 100), oder
Rechnung: (1/100.000) x 100.000) = 1 (anstelle des wirklichen Inzidenzwertes von 100)

Stichprobe B
Früher war das auch die ungefähre Testungs-Anzahl, da nur PCR-Tests vorgenommen wurden. Inzwischen testen aber zusätzlich Apotheken und bald auch Hausärzte mit Einfachtests, die nur bei positiven Befunden mittels zusätzlichem PCR-Test verifiziert werden müssen. Deshalb wird nun die dreifache Anzahl an Testungen angenommen.
Für die Beispielstadt wären es nun 4.154 Testungen in einer KW.
Bei 0,1 % Positivanteil der Grundgesamtheit sind in einer Stichprobe von 4.154 Personen 4,154 Personen positiv (Mittelwert). Die RKI-Inzidenzberechnung meldet also eine Inzidenz von:
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (4/100.000) x 100.000) =
4 (anstelle des wirklichen Inzidenzwertes von 100)

Stichprobe B
Nun verzehnfachen wir die Anzahl Testungen auf 13.850, also jede Woche 14 % der Einwohner getestet:
Rechnung: (14/100.000) x 100.000) = 14 (anstelle des wirklichen Inzidenzwertes von 100)

Bei diesen Inzidenzmeldungen kommt man fast gezwungenermaßen zu der Erkenntnis:
Die Inzidenz – ermittelt und berechnet nach RKI-Formel – ermittelt irgend etwas, aber niemals auch nur weit, weit entfernt den „Befall“ einer kommunalen Einheit durch das Coronavirus.
Daran ändert auch nicht, dass die Inzidenzwerte vom RKI auf zwei Nachkomastellen angegeben werden (über die feststellbare, mathematische Idiotie von Personen welche vor Rechnern sitzen und Werte, welche zwei Stellen vor dem Komma schon nicht mehr stimmen fein säuberlich mit zwei danach angeben weil es der Rechner so anzeigt, sei hier gnädig hinweggesehen).

Als Fazit bleibt:
Mittels dem in Deutschland seit über einem Jahr ausschließlich angewandtem RKI-Inzidenz-Ermittlungsverfahren wird niemals die wirkliche Inzidenz – und damit Gefahrenlage – der Grundgesamtheit ermittelt.
Eine wichtige Feststellung ist zudem: Der Inzidenzwert ist bei diesen Stichprobengrößen fast linear nur ein Ergebnis des Testumfangs, gibt also diesen und nicht die Anzahl neu Infizierter wieder!

Und warum bemerkt das keiner? Weil in der Berechnungsformel der wichtige Stichprobenumfang fehlt:
RKI: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Was zu der Erkenntnis führt, dass diese Formel und damit die gesamte Methodik zur Ermittlung einer wirklichen Gefahrenlage ganz einfach vollkommen unbrauchbar sind.

Dass es „keiner“ bemerkt, stimmt allerdings nicht ganz. Laut der Professorin V. Priesemann (siehe gegen Ende des Artikels) wurde das zum Beispiel in England erkannt und dort wird deshalb statistisch richtig(er) mit wenigen, dafür aber extrem großen Stichprobenumfängen geprüft.

Der Student

Sein Einwand zur Inzidenz

Ein Student publizierte vor kurzem Einwände zur Inzidenzermittlung.
[2] FOCUS ONLINE, 23.03.2021: Inzidenz bei 18 statt 78? Mathe-Student wirft RKI verzerrte Corona-Zahlen vor – Physikerin kontert
Auch Correktiv schrieb dazu:
[3] Correktiv: Er kritisiert, der Inzidenzwert beziehe die Anzahl der durchgeführten Tests in einer Region nicht mit ein: Bei Landkreisen mit gleich hohem Anteil von Corona-Fällen pro Einwohner hätten angeblich diejenigen eine höhere Inzidenz, die mehr testen würden. Er schlägt daher eine alternative Berechnungsmethode vor ….

Seine Begründung, angelehnt an die Ausführung im „FOCUS“ dargestellt:
[2] Focus: … Er nennt ein Beispiel:
Landkreis A und Landkreis B haben jeweils 50.000 Einwohner und jeweils ein Prozent Infizierte (Zufügung: 1 % Infizierte in der Grundgesamtheit ergeben einen wahren Inzidenzwert dieses Beispiels von 1.000).
– Landkreis A: testet 5000 Einwohner, findet circa 50 Infizierte (Anmerkung: Mittelwert der Stichprobe). Die Inzidenz liegt hier bei 100 (Anmerkung: Anstelle der wahren Inzidenz der Grundgesamtheit von 1.000)
– Landkreis B: testet 2000 Einwohner, findet circa 20 Infizierte (Anmerkung: Mittelwert der Stichprobe). Die Inzidenz liegt hier bei 40 (Anmerkung: Anstelle der wahren Inzidenz der Grundgesamtheit von 1.000)
Die Länder befinden sich also in der gleichen pandemischen Lage, haben aber eine unterschiedliche Inzidenz „Es wird mehr getestet. Es werden mehr positive Fälle entdeckt. Die Inzidenz steigt“, so die Schlussfolgerung des Mathematik-Studenten. „Rückschlüsse auf das Pandemiegeschehen lässt dieser Inzidenzwert also derzeit nicht zu.“

Dieses Beispiel erfreut den Autor. Dieser Student steht nämlich noch mitten im „Lernsaft“, was der Autor, dessen Studium weit über 40 Jahre zurückliegt, von sich nicht behaupten kann. Trotzdem hat er das Problem ähnlich abgeleitet, wie es der Autor im Kapitel „Stichprobentheorie“ beschrieb und ist auch darauf gekommen, dass der Inzidenzwert nicht von der Anzahl Positiver abhängt, sondern vorwiegend vom Stichprobenumfang (Anmerkung: Dieser Artikel wurde vor der Sichtung der „Studentenargumentation“, welche ursprünglich hier gar nicht gebracht werden sollte, getippt).

Sein Vorschlag einer Verbesserung

Nun schlägt der Student etwas vor, was das Stichprobenproblem (ausreichend genaue Rückrechnung, wie viele Positive sich wirklich in der Stadt aufhalten) zwar nicht löst (weil nicht möglich), aber wenigstens für eine ganz grobe, relative Vergleichsfähigkeit zwischen den Stichproben sorgen soll:
[2] Schönherr schlägt demnach vor, das Verhältnis der Tests auf die Gesamtbevölkerung mit in die Inzidenzberechnung einzubeziehen, „also eine Art Testpositivenquote“.
Hierfür wäre es nur nötig, die Zahl der Tests
(Anm.: Gemeint ist der Stichprobenumfang) zu normen und am bundesdeutschen Durchschnitt zu orientieren. Seit November würden durchschnittlich rund 1,5 Prozent der Bevölkerung (Anmerkung: Das ist ungefähr die vom RKI angegebene Anzahl der PCR-Testungen) pro Woche getestet. Damit ließe sich dann anhand der „Testpositivenquote“ eine neue, normierte Inzidenzzahl berechnen.

Dazu rechnet der Student als Beispiel die Inzidenz für das Berchtesgadener Land (Einwohnerzahl 106.000) in der KW9 „neu“ (gekürzt).

Zuerst die Rechnung des RKI:
Getestet wurden in der KW9 83 Menschen positiv, die Einwohnerzahl beträgt 106.000 Personen.
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (83/106.000)*100.000 = 78,3

Nun der Student mit seiner „Testpositivenquote“:
Insgesamt wurden 6817 der 106.000 Einwohner auf Sars-CoV-2 getestet, das entspricht 6,4 Prozent der Bevölkerung (Anmerkungen: Woher „er“ die Anzahl der wirklichen Testungen weiß, bleibt dem Autor ein Rätsel, denn nirgendwo findet der Autor die eigentlich überaus wichtige Anzahl durchgeführter Tests veröffentlicht).
83 Tests davon waren positiv, das bedeutet eine „Testpositivenquote“ von 1,2 Prozent
(Anmerkung: Statistisch bezeichnet das Kunstwort „Testpositivenquote“ ganz banal den Mittelwert Positiver in der Stichprobe).
Die Berechnung zur neuen Inzidenz funktioniert nun wie folgt:
– Normierung: 1,5 Prozent der Einwohner entsprechen 1590. Die „neue“ Fallzahl bei nur 1590 Tests würde demnach bei 19,08 liegen (entspricht 19 positiven Tests).
– Diese positiven Tests werden nun wiederum wie üblich für die Berechnung der Inzidenz genutzt:
19,08 x (100.000 / 106.000) = 18,0
-Die Inzidenz läge also anstatt bei 78, nun bei 18.

Was hätte man mit der „Testpositivenquote“ gewonnen?

Es werden nicht allzu viele sein, welche diesen Vorschlag des Studenten auf Anhieb „begreifen“. Auch dem Autor war das nicht beschieden. Deshalb anbei ein Erklärungsversuch seines Gedankenganges.

Mit seiner „Testpositivenquote“ bringt er den Stichproben-Mittelwert ins Spiel. Im Kern ist das der Versuch, die Inzidenzermittlung wenigstens im Ansatz als Stichprobenverfahren „aufzubauen“.
Nun weiß er (?) dass dies bei diesem Datenmaterial nicht funktionieren kann und versucht in der Not einen Kunstgriff.

Er geht wohl davon aus, dass alle Stichproben die gleiche Fehlerauswirkung haben, diesbezüglich also korrelieren. Und es deshalb möglich wäre, die Stichprobenergebnisse nach einer „Normierung“ – die nichts anderes ist, als das Hochrechnen jedes Stichprobenmittelwertes auf eine einheitliche Stichproben-Normgröße – untereinander wenigstens relativ vergleichen zu können.

Den Mut zu einer solch pauschalen Annahme hätte der Autor nicht. Ob es trotzdem – und mit welcher Ergebnisgenauigkeit – möglich ist, müssten (und könnten) Statistiker allerdings problemlos berechnen.

Wieder etwas über die (Un-)Möglichkeit von Statistik

Nun „spaßeshalber“, um ein Gefühl für die extreme (Un-)Genauigkeit der Inzidenz-Stichproben zu bekommen, ein paar informelle Rückrechnungen.

Nochmals die Basisdaten:
Grundgesamtheit: 106.000 Einwohner; angenommener wahrer Inzidenwert 100 (+0,1 % aller Bewohner, also +106 in der Inzidenz-Messwoche neu positiv).
Stichprobenumfang für die 7-Tage-Inzidenz: 1590 Einwohner
Anmerkung: Die Rückrechnung kann – da niedrige Fallzahl und geringer Stichprobenumfang – mittels Binomial, Hypergeometrischer oder Poissonverteilung erfolgen. Der Autor musste allerdings feststellen, dass das Ergebnis stark vom verwendeten Tool abhängig ist, da nicht alle gleich (rück-)rechnen. Die hier angegebenen, auf die Grundgesamtheit rückgerechneten Werte deshalb nur als Anhaltspunkte für die Größenordnung nehmen.

Beispiel:
Anzahl durch die Stichprobe gefundener Positiver (deren Mittelwert): 1,59 (ergibt einen Positiven-Mittelwert von 1 oder 2)
Daraus errechnet die statistische Rückrechnung für den möglichen Anteil an Infizierten unter den insgesamt 106.000 Einwohnern (Irrtumswahrscheinlichkeit 10 %) einen Bereich:
Bei 2 Positiven in der Stichprobe: Rückgerechnete Anzahl Positiver in der Grundgesamtheit:
22 … 395 (entsprechen einem Inzidenzwert zwischen 21 … 373)
Bei 1 Positiven in der Stichprobe: Rückgerechnete Anzahl Positiver in der Grundgesamtheit:
3 … 298 (entsprechen einem Inzidenzwert zwischen 3 … 281)

Selbst „Statistiker“ sind immer wieder überrascht, welche Grenzen – oder wie wenig Nutzen im Verhältnis zum Aufwand – attributive Prüfungen haben.

Trotzdem gibt es ein weltweit verbreitetes und oft angewandtes, attributives Stichprobenverfahren welches darauf basiert, das AQL-Stichprobensystem. Dieses hat das gleiche Problem (es entdeckt kleine Fehlermengen praktisch nicht). Doch ist es vorbildlich tabelliert und man benötigt zur sturen Anwendung nur 10 Minuten Einweisung.
Entsprechend stur und oft, doch ohne wirklichen Nutzen wird es häufig angewandt (Erfahrungen des Autors).

A: Hochrangige Fachpersonen haben sich mit der Problemstellung bereits beschäftigt

[2] FOCUS ONLINE: … Physikerin Priesemann nimmt Stellung
… Schönherrs Video wurde von vielen geteilt und blieb deutschen Top-Wissenschaftlern nicht verborgen. So nahm etwa Physikerin Viola Priesemann vom Max-Plank-Institut auf Twitter Stellung dazu.
Laut ihr greift das Video „ein wichtiges Thema“ auf. Vermehrtes Testen werde „kurzfristig ‚bestraft‘“, da man dann mehr Infektionsketten entdecke. Langfristig lohne es sich aber, gibt die Physikerin zu bedenken. „Denn es stoppt die Ketten.“
Allerdings kontert Priesemann daraufhin Schönherrs Theorie: „Das Video hört sich logisch an, macht aber eine falsche Annahme. Und also ist die Schlussfolgerung falsch.“
Schönherr gehe in seinem Video davon aus, dass Tests zufällig gemacht würden. „Das ist nicht der Fall“, so die Physikerin. „Menschen werden nicht zufällig getestet, sondern meistens, weil es einen Verdachtsmoment gibt.“ Dazu zählten etwa Symptome, Kontakte oder ein positiver Schnelltest.

Folgeergebnisse nicht zutreffend“
Laut Priesemann müsse man zwischen zwei Kausalitäten unterscheiden:
– Fall A: Es werden mehr Fälle gefunden, weil mehr getestet wird.
– Fall B: Es wird mehr getestet, weil es mehr Verdachtsfälle gibt.
„Am Ende spielen beide Beiträge eine Rolle“, erklärt sie. „Aber im Video wird angenommen, dass wirklich allein und nur A zutrifft.“ Alle weiteren Rechnungen nach dieser Folie bauen auf dieser falschen Annahme auf. Also sind die Folgeergebnisse nicht zutreffend.
„Nach der Rechnung in dem Video könnte man die Inzidenzen im Landkreis ganz einfach drücken“, warnt Priesemann zudem. Man mache für jeden Test auf Verdacht einen Test bei Personen, die sehr wahrscheinlich negativ sind (oder einen Zufallstest). „Schon ist die Inzidenz (fast) halbiert.“

Priesemann macht danach ebenfalls einen Lösungsvorschlag: „Am besten wäre es, wenn wir, genauso wie UK, ein Screening hätten, also rund 100.000 Zufallstests, die jede Woche ein objektives Bild des Ausbruchsgeschehen liefern. – Dann müssten wir hier nicht diskutieren.“

Was hat die Physikerin, Frau Priesemann damit gesagt?

Im Kern redet sie gekonnt (?) „um den heißen Brei“ herum. Sie gibt der Basiskritik nämlich recht!: „Vermehrtes Testen werde „kurzfristig ‚bestraft‘ … “ und am Schluss beschreibt sie sogar die einzige, wirklich richtige Lösung (anstelle der in ganz Deutschland eingesetzten vollkommen unbrauchbaren vielen kleinen Teststichproben, ganz wenige mit wirklich großer Testmenge) und weist auch noch darauf hin, in welchem Land es so richtig gemacht wird:
„Am besten wäre es, wenn wir, genauso wie UK, ein Screening hätten, also rund 100.000 Zufallstests, die jede Woche ein objektives Bild des Ausbruchsgeschehen liefern
Ganz konkret bestätigt Sie, dass sich bei der derzeitigen Testdurchführung durch mehr Tests lediglich die Fallzahlen erhöhen:
Fall A: Es werden mehr Fälle gefunden, weil mehr getestet wird
Weil das aber nicht sein darf, denn diese Physikerin ist erkennbar eine Befürworterin des RKI-Verfahrens und wohl auch der Lockdown-Maßnahmen: „ … Nach der Rechnung in dem Video könnte man die Inzidenzen im Landkreis ganz einfach drücken“, warnt Priesemann zudem …“, (pseudo-)argumentiert sie dagegen mit geradezu hanebüchenen „Argumenten“:
„ … Schönherr gehe in seinem Video davon aus, dass Tests zufällig gemacht würden. „Das ist nicht der Fall“,
Fall B: Es wird mehr getestet, weil es mehr Verdachtsfälle gibt.

Man muss sich die Aussagen überlegen: Das RKI berechnet für Deutschland, jedes Bundesland, jeden Landkreis und jede Gemeinde eine fortlaufende Inzidenzzahl auf zwei Stellen hinter dem Komma, auf deren Basis schlimmste Lockdownmaßnahmen immer eiserner – da angeblich immer notwendiger – beschlossen werden.
Wohl die meisten Bürger denken, diese Inzidenzzahlen würden stimmen und wären vor allem auch untereinander vergleichbar, da entsprechend sachgerecht ermittelt (während sie in Wirklichkeit sicher um mehr als einige Stellen vor dem Komma bereits falsch sind).

Und nun bestätigt eine Frau Priesemann, dass genau das (seien sachgerecht und damit mit der erforderlichen Genauigkeit ermittelt) überhaupt nicht der Fall ist, erzählt aber, das sei ja auch vollkommen unwichtig. Denn es gehe doch gar nicht um den Inzidenzwert. Dieser sei ja nur ein reines Alibi als Begründung der sowieso durchgeführten Maßnahmen: „… Langfristig lohne es sich aber, gibt die Physikerin zu bedenken. „Denn es stoppt die Ketten.

B: Hochrangige Fachpersonen haben sich mit der Problemstellung bereits beschäftigt

Correktiv gibt auch zu Beginn zu, dass die „Basiskritik“ berechtigt ist „Dennoch ist an der Kritik grundsätzlich etwas dran“. Lenkt dann aber gleich ab und verweist auf den strittigen Lösungsvorschlag des Studenten, der keine Lösung wäre: „ … Die alternative Berechnungsmethode, die der Student vorschlägt, ist aber auch nicht besser geeignet. Denn ihr liegt eine falsche Annahme zugrunde“
Gut, das hat der Autor in etwa auch so gesagt. Correktiv hat sich allerdings etwas „vertiefter“ als der FOCUS mit dem Thema beschäftigt, allerdings auch nur, um mitzuteilen, dass alles „wie bisher gemacht“ doch zwar nicht richtig, aber eben das Beste wäre:

[3] Correktiv: … Er kritisiert, der Inzidenzwert beziehe die Anzahl der durchgeführten Tests in einer Region nicht mit ein: Bei Landkreisen mit gleich hohem Anteil von Corona-Fällen pro Einwohner hätten angeblich diejenigen eine höhere Inzidenz, die mehr testen würden. Er schlägt daher eine alternative Berechnungsmethode vor.
Mehrere Medien berichteten darüber … Diese Formulierungen sind nach Recherchen von CORRECTIV.Faktencheck irreführend.
Der Inzidenzwert beinhaltet keinen „Rechenfehler“. Dennoch ist an der Kritik grundsätzlich etwas dran. Denn es gibt bei der Inzidenz ein Problem: die lückenhafte Datengrundlage bei den Testzahlen. Forschende stellen auch schon länger die Frage, ob der Inzidenzwert als einziger Indikator für die Pandemie-Lage in Deutschland herangezogen werden sollte. Die alternative Berechnungsmethode, die der Student vorschlägt, ist aber auch nicht besser geeignet. Denn ihr liegt eine falsche Annahme zugrunde.

Dass der Inzidenzwert „keinen Rechenfehler“ hätte, bezieht sich alleine darauf, dass er auf einer Formel beruht und dessen sture Berechnung auf beliebig viele Nachkommastellen mittels Taschenrechner oder Excel-Sheet fehlerfrei möglich ist.
Dass es sich um eine statistisch hoffnungslos falsch ermittelte Maßzahl mit extremen Fehlern aufgrund des riesigen Vertrauensbereiches handelt, kommt bei Correktiv nicht vor. Und dann wird noch jegliche statistische Betrachtung ignorierend einfach behauptet, die Inzidenzwerte wären vergleichbar, was im Kern schon so etwas wie eine Lüge bei genauerer Betrachtung nicht ausreichend belegbare Information ist:
[3] Correktiv: … Was ist der Inzidenzwert?
Die 7-Tage-Inzidenz .. So lässt sich eine Inzidenz auf 100.000 Einwohner für verschiedene Städte, Landkreise, Bundesländer und auch bundesweit berechnen. Der Wert schafft eine Vergleichbarkeit für Regionen mit unterschiedlich hoher Einwohnerzahl.
Das erforderliche Lob an unsere unfehlbare Kanzlerin darf bei Correktiv natürlich nicht fehlen:
[3] … Den Grund hatte Bundeskanzlerin Angela Merkel am 6. Mai 2020 in einer Pressekonferenz erklärt: Man arbeite mit dem Schwellenwert von 50 neuen Fällen pro 100.000 Einwohnern, weil man glaube, bei dieser Menge die Infektionsketten noch nachverfolgen zu können.
Ein bisschen „Einsicht“ darf dann sein, allerdings nicht am Inzidenzwert selbst, sondern an dessen „Verwendung“:
[3] … Es gibt jedoch immer wieder Kritik an der Fokussierung auf den Inzidenzwert … kritisierten Expertinnen und Experten, dass er als einziger Parameter für die Corona-Maßnahmen herangezogen wird. … Gérard Krause vom Helmholtz-Zentrum für Infektionsforschung, der sagte, man sollte auch auf die Zahl der freien Intensivbetten oder die Altersverteilung der Fälle schauen. Bei den Neuinfektionen handele es sich zudem um Laborbefunde – und deren Häufigkeit sei stark abhängig davon, wer wie getestet werde.
Haben Regionen, die mehr testen, eine höhere Inzidenz?
.. Als „mathematisches Problem“ bezeichnet er, dass die Anzahl der insgesamt an einem Ort durchgeführten Tests bei der Inzidenzberechnung nicht einbezogen wird … Wenn es in zwei Landkreisen gleich viele Infektionen gäbe, dann würden in dem Kreis, in dem mehr getestet wird, mehr positive Fälle entdeckt und die Inzidenz liege höher, behauptet er.
Dann kommt dazu: Nichts. Dieses eigentliche Hauptthema wird nicht beantwortet, wohl weil man weiß, was dann herauskäme.

Und weiter geht es:
[3] … Am Beispiel des Berchtesgadener Lands erklärt er seine alternative Berechnungsmethode. … Er schlägt vor, sich bei der Berechnung der Inzidenz an dem bundesweiten Durchschnitt der durchgeführten Tests zu orientieren, den genannten 1,5 Prozent. So ergebe sich für das Berchtesgadener Land eine Inzidenz von 18 – diese Zahl sei die „korrigierte Inzidenz“, behauptet der Student. Die Inzidenzwerte verschiedener Landkreise seien mit seiner Methode besser vergleichbar, weil die Anzahl der dort jeweils durchgeführten Tests keine Rolle mehr spiele.
Zur Erklärung wird dann auf die Physikerin V. Priesemann verwiesen, welche bereits im Rahmen des FOCUS-Artikels zitiert wurde:
[3] … Laut der Physikerin Viola Priesemann vom Max-Planck-Institut für Dynamik und Selbstorganisation liegt in dem Video aber ein grundlegender Denkfehler vor …

Der Inzidenzwert

Correctiv „erinnert“ in ihrer „Argumentation“ [3] daran, wozu der Inzidenzwert dienen sollte, nämlich einzig als (ursprünglich auf 50 festgelegten) Grenzwert, ab dem die Gesundheitsämter Kontaktpersonen angeblich nicht mehr nachverfolgen können:

Bild 5 Politische Betrachtung zur Inzidenz, zitiert in [3]
Fazit
Nach über einem Jahr „Corona“ werden die Kontakte immer noch wie im digitalen Mittelalter mit Personal händisch anhand von angelieferter „Zettelwirtschaft“ verfolgt (wobei böse Stimmen behaupten, dass das teils gar nicht mehr konsequent gemacht würde).

Unsere Digitalministerin im Bund – und auch die in den Ländern -, welche es modern lösen müsste(n), ist(sind) seit Langem abgetaucht (was bei dieser Fehlbesetzung(en) allerdings auch niemand vermisst).
Und so dient der Inzidenzwert wohl nur noch als Planungsgrundlage zur Stellenaufblähungbesetzung für Personalverantwortliche in zuständigen Referaten der Gesundheitsämter.

Nach der Definition bräuchte jedes Bundesland, Landkreis, Gemeinde, nur ihre Kontaktverfolgung zu optimieren und könnte dann „ihre“ kritischen Inzidenzschwellen anhand der erreichten Nachverfolgungsgeschwindigkeit selbst festsetzen.
Optimal wäre es unter diesem Lösungs-Gesichtspunkt, wenn die bisher wegen der Kontaktverfolgungs-Unfähigkeit mit nur immer neuen, massivsten Corona-Restriktionen gemaßregelten Bürger aufständen, zu den in den Kommunen Verantwortlichen zögen und anstelle ihrer zunehmenden Drangsalierung dort mehr Effizienz verlangten …

(Mehr als) unverständlich findet es deshalb der Autor, was Herr Söder bezüglich des Inzidenzwertes nach wie vor allen Ernstes behauptet: Söder im Bayerischen Landtag: … Söder verteidigt seinen Kurswechsel, erklärt, dass der Inzidenzwert weiter die einzig belastbare Größe sei und dass ihm noch niemand eine tragfähige Alternative genannt hat …
So etwas kommt heraus, wenn man anstelle von Fachpersonen einen Ethikrat unter Vorsitz einer (ehemaligen) Regionalbischöfin errichtet, und darin (Kompetenz-) nicht ausreichend Unterwürfigkeit zeigende Personen sofort entfernt.
Danach hat man wirklich „niemand“, der einen sachkundig informiert.
Wobei man sich auch hier fragt, wozu dann die aufgeblähte, bestens honorierte Ministerialbürokratie dienlich ist.
Alternativ und viel billiger könnte er auch EIKE, Achgut, oder Tichys Einblick lesen, wo darüber genügend fundierte Information geboten wird, aber igittigittigitt, dies sind doch rääääächte Publizierer.

Für den Autor ist damit klar, dass Söder „Corona“ nicht wirklich kann (Achtung, eine rein persönliche Meinung des Autors). Nun soll er aber „Kanzler“ können. Und (auch) das mit Wohlwollen unserer Kanzlerin. Böse Zungen munkeln, da entwickle sich ein gegendertes Double einer von den Laien …

Im Kern bleibt der Inzidenzwert auch vollkommen egal. Für die Gefährdung bietet er keine Aussage und damit keine Handhabe

Dazu immer wieder die Grafiken der Corona-Meldewerte und deren „Auswirkungen“ – die Corona-Mortalität – der Städte Nürnberg und Fürth.
Man sieht:
– die Lockdown-Maßnahmen haben keinen Einfluss auf die Meldewerte
– die Meldewerte (über 7 Tage zusammengefasst die Inzidenz) haben wenig bis keinen Einfluss (mehr) auf die Corona-Mortalität

Bild 6 Stadt Nürnberg, Anzahl Meldefälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 7 Stadt Nürnberg, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 8 Stadt Fürth, Anzahl Meldefälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 9 Stadt Fürth, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Nun die Grafiken für die Stadt Hof, welche mit aktuell 563 den höchsten Inzidenzwert von Bayern ausweist.

Bild 10 Stadt Hof, Anzahl Meldefälle, Zeitraum 01.01. – 11.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Hinweis: Rein statistisch versterben in Hof täglich 1,35 Personen.

Bild 11 Stadt Hof, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 11.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Wie geht unsere politische „Führungsintelligenz“ damit um?

Weiterhin vollkommen ideen- und planlos. Einfach nur: Wir wissen auch nicht warum, aber weiter so. Und auf gar keinen Fall schauen wir, ob es sinnvoll ist und/oder wie es andere machen:

Achgut, 2.04.2021: So werden Inzidenzen aufgeblasen

Achgut, 08.04.2021: Zahlen zum Tage: Wir testen uns zu Tode, wir fürchten uns zu Tode
EIKE. 07.
April 2021: Corona–Vorbild Schweden
Tichys Einblick, 7. April 2021: 40.000 MENSCHEN IN STADIEN Vor einem Monat hob Texas alle Corona-Restriktionen auf: Zahl der Neuinfektionen sinkt auf Rekordtief

Dazu fällt einem ein:

Bild 12

Aber dass bitte kein*e Leser*in auf die Idee kommt, der Autor könnte damit auch nur entfernt unsere „Intelligenz“ meinen. Nein, nein, nein. Wenn überhaupt welche, dann einen Teil des Volkes, welches falsche Parteien wählt und friedlich, aber ohne Maske demonstriert und ganz offensichtlich (ver-)quer denkt. Nur diese dürfen laut unserem Bundespräsidenten von den „Guten“ übelst beschimpft werden.

Mit welch überragenden Kenntnis, ausgesuchter Sorgfalt und hellseherischen Weitsicht unsere „Intelligenz“ dagegen vorgehen kann, hat Minister Spahn kürzlich erneut bewiesen und so umgesetzt, wie es Bundespräsident Steinmeier in seiner Osteransprache sagte: „Du, Staat, tust Deinen Teil, ich Bürger tue meinen“, wobei er wohl meinte: Der Staat entsprechend seinen geistigen Fähigkeiten und der Bürger entsprechend seiner Fähigkeit, immer höhere Steuern zu bezahlen.
In solche Führungskräfte gewinnt man bedingungsloses Vertrauen, dass jeder Lockdown und jeder Einzelpunkt der Lockdown-Maßnahmen sorgfältig überlegt, verifiziert und auf Wirkung „abgeklopft“ wurde und damit sinnvoll sein muss …

Bild 13

Dabei hat Minister Spahn wohl ein Vorbild im Auge gehabt:
The European, Wolfgang Kubicki 29.03.2021: Entweder ist die Kanzlerin verwirrt oder sie will die Bevölkerung auf den Arm nehmen
In ihrer Regierungserklärung im Deutschen Bundestag am 25.März 2021 hat Angela Merkel ausgeführt:
„Ich will an dieser Stelle einmal sagen: Wir sind ein föderaler Staat. Es ist keinem Oberbürgermeister und keinem Landrat verwehrt, das zu tun, was in Tübingen und Rostock getan wird. Alle können das machen, und der Bund wird immer unterstützend tätig sein.“
Bei Anne Will am Sonntag, sagte sie das genaue Gegenteil. Die Infektionszahlen gäben eine Lockerung derzeit nicht her. „Das ist nicht der Zeitpunkt, so etwas ins Auge zu fassen.“ Und weiter: „Ich weiß wirklich nicht, ob Testen und Bummeln, wie es in Berlin heißt, die richtige Antwort auf das ist, was sich gerade abspielt.“

Bild 14

Bild 15

Bild 16

Bild 17

Bild 18

Bild 19 Quelle: Tichys Einblick

Quellen

[1] Stuttgarter Nachrichten: Wie berechnet man die 7-Tage-Inzidenz?

[2] FOCUS ONLINE, 23.03.2021: Inzidenz bei 18 statt 78? Mathe-Student wirft RKI verzerrte Corona-Zahlen vor – Physikerin kontert

[3] Correktiv: HINTERGRUND Der Inzidenzwert wird nicht „falsch“ berechnet, aber es gibt Kritik daran, ihn als einzigen Maßstab zu nutzen

[4] WIKIPEDIA: Inzidenz (Epidemiologie): Kritik

[5] Tichys Einblick, 10.04.2021: ÄNDERUNG DES INFEKTIONSSCHUTZGESETZES Merkels Entwurf für den Bundeslockdown: Ausgangssperren, Schulschließungen, Einzelhandel dicht

 




Rolle der Sonne bzgl. Klima erneut bestätigt

Oben: Sechsmonatige geglättete monatliche Sonnenfleckenzahl aus SILSO. Unten: Ozeanischer El Niño Index von NOAA. Rote und blaue Kästen markieren die El Niño- und La Niña-Perioden im sich wiederholenden Muster. Quelle: Climate Etc, September 2019

Wenn Sie die meisten Klimawissenschaftler fragen, werden sie Ihnen sagen, dass die solare Variabilität viel zu gering ist, um das Klima zu beeinflussen. Sie müssen ihre Meinung vielleicht ändern, wenn sich eine neue Forschungslinie bestätigt. Es scheint, dass die Sonnenvariabilität die Klimavariabilität auf der Erde auf dekadischen Zeitskalen beeinflussen kann (die dekadische Klimavariabilität, von der Michael Mann kürzlich „bewiesen“ hat, dass sie nicht existiert). Das ist die Schlussfolgerung einer neuen Studie, die eine Korrelation zwischen dem Ende von Sonnenzyklen und einem Wechsel von El Nino- zu La Nina-Bedingungen im Pazifischen Ozean zeigt. Ein Ergebnis, das die Vorhersagbarkeit der größten El-Nino- und La-Nina-Ereignisse, die mehrere globale Klimaauswirkungen haben, deutlich verbessern könnte.

Die Energie der Sonne ist der Hauptantrieb für unser gesamtes Erdsystem und macht das Leben auf der Erde überhaupt erst möglich“, sagt Scott McIntosh vom National Center for Atmospheric Research, ein Mitautor der Studie.Die wissenschaftliche Gemeinschaft war sich bisher nicht im Klaren darüber, welche Rolle die Sonnenvariabilität bei der Beeinflussung von Wetter- und Klimaereignissen hier auf der Erde spielt. Diese Studie zeigt, dass es Gründe zu der Annahme gibt, dass dies absolut der Fall ist und warum der Zusammenhang in der Vergangenheit übersehen worden sein könnte“.

Der etwa 11-jährige Sonnenzyklus – das Erscheinen (und Verschwinden) von Flecken auf der Sonne – ist seit Hunderten von Jahren bekannt. In dieser neuen Studie verwenden die Forscher eine 22-jährige „Uhr“ für die Sonnenaktivität, die aus dem magnetischen Polaritätszyklus der Sonne abgeleitet wurde und die sie für eine regelmäßigere Alternative zum 11-jährigen Sonnenzyklus halten. Die Ergebnisse dieser Forschung wurde letztes Jahr veröffentlicht.

Zufall ist unwahrscheinlich“

Bei der Anwendung auf Klimastudien fanden die Forscher heraus, dass die fünf Zeitpunkte des Endes eines Sonnenzyklus‘, die zwischen 1960 und 2010-11 auftraten, alle mit einem Umschwung von einem El Nino (wenn die Meeresoberflächen-Temperaturen höher als der Durchschnitt sind) zu einem La Nina (wenn die Meeresoberflächen-Temperaturen niedriger als der Durchschnitt sind) zusammenfielen. Das Ende des jüngsten Sonnenzyklus – der jetzt stattfindet – fällt ebenfalls mit dem Beginn eines La Nina-Ereignisses zusammen. Robert Leamon von der University of Maryland-Baltimore County sagte: „Fünf aufeinanderfolgende Fälle, die mit einem Wechsel in der El-Nino-Oszillation zusammenfallen, sind wahrscheinlich kein Zufall.“

Tatsächlich besteht nur eine Chance von 1 zu 5.000 oder weniger (je nach statistischem Test), dass alle fünf Terminator-Ereignisse, die in der Studie berücksichtigt wurden, zufällig mit dem Umschwung der Meerestemperaturen zusammenfallen. Jetzt, da ein sechstes Terminator-Ereignis – und der entsprechende Beginn eines neuen Sonnenzyklus im Jahr 2020 – ebenfalls mit einem La Nina-Ereignis zusammenfällt, ist die Chance eines zufälligen Auftretens noch geringer.

Die Arbeit geht nicht darauf ein, welche physikalische Verbindung zwischen der Sonne und der Erde für die Korrelation verantwortlich sein könnte, aber die Autoren merken an, dass es mehrere Möglichkeiten gibt, die weitere Untersuchungen rechtfertigen, einschließlich des Einflusses des Magnetfeldes der Sonne auf die Anzahl der kosmischen Strahlen, die in das Sonnensystem entweichen und schließlich die Erde bombardieren. Eine robuste physikalische Verbindung zwischen den Schwankungen der kosmischen Strahlung und dem Klima muss jedoch noch ermittelt werden.

„Wenn weitere Forschungen belegen können, dass es eine physikalische Verbindung gibt und dass Veränderungen auf der Sonne tatsächlich Schwankungen in den Ozeanen verursachen, dann können wir vielleicht unsere Fähigkeit verbessern, El-Nino- und La-Nina-Ereignisse vorherzusagen“, sagte McIntosh.

Link: https://www.thegwpf.com/the-suns-climate-role-confirmed/

Übersetzt von Chris Frey EIKE

 




Umweltakti­vismus als Kohlenstoff-Imperia­lismus: Alptraum für die Armen

Indien befindet sich in einem Wettlauf mit der Zeit, um wirtschaftlichen Fortschritt zu erreichen. In den letzten drei Jahrzehnten ist seine Wirtschaft sprunghaft gewachsen und hat Hunderte von Millionen Menschen aus der Armut befreit. Dennoch hat das Land noch einen weiten Weg vor sich, bevor es wie die Nationen im entwickelten Westen werden kann.

Eine der größten Hürden ist die Versorgung aller Menschen in Indien mit zuverlässiger, erschwinglicher Elektrizität. Unterbrechungsfreier Strom ist immer noch ein Luxus, den nur wenige Inder genießen.

Obwohl Indien überwiegend agrarisch geprägt ist, erlebt es ein massives Wachstum im industriellen und verarbeitenden Sektor. Auch der Dienstleistungssektor und die Informationstechnologie boomen. Der Energiesektor des Landes ist das Rückgrat des Wirtschaftswachstums.

Aber das Land steht vor ständigen Herausforderungen bei seinen Energiezielen. Vor allem Kohlenwasserstoffprojekte werden von gut organisierten und von westlichen Geldgebern unterstützten Umweltaktivisten behindert.

Blockierung fossiler Projekte verzögert Armutsbekämpfung

Eine Reihe von Entwicklungsprojekten in Indien liegt derzeit auf Eis, obwohl das Green Tribunal, das indische Äquivalent zur U.S. Environmental Protection Agency, die Genehmigung erteilt hat.

Ein Beispiel dafür ist das Kohlenwasserstoffprojekt in Neduvasal, das nur wenige hundert Kilometer von meiner Heimatstadt in Tamil Nadu entfernt liegt. Trotz der Genehmigung durch das Green Tribunal gingen die Proteste weiter, und das Projekt ist in der Schwebe.

Mehrere andere wichtige Energieprojekte wurden aufgrund des starken Umweltaktivismus in diesem speziellen Teil Indiens verzögert oder aufgegeben, wodurch die Region des wirtschaftlichen Fortschritts beraubt wurde.

Darunter waren ein Titandioxidprojekt, ein Kernkraftprojekt, ein Teilchenphysik-Forschungsprojekt, ein Kupferherstellungsprojekt und ein Gasexplorationsprojekt. Einige dieser Projekte wurden vom Obersten Gerichtshof Indiens genehmigt und von technischen Experten als sicher eingestuft, dennoch wurden sie verzögert oder bleiben wegen der Proteste auf Eis gelegt.

Es kostet viel Mühe und Zeit, Menschen über die Armutsgrenze zu bringen. Manchmal werden durch entwicklungsfeindliche Proteste – von Umweltgruppen, die von radikalen Elementen im Ausland finanziert werden – die dringend benötigten Entwicklungsprojekte ganz einfach durch Fehlinformationskampagnen an der Basis abgesagt.

Das Traurigste daran ist, dass die Auswirkungen dieser wirtschaftlichen Hürden in den Entwicklungsländern viel bedeutender sind, wo sie die Armen und diejenigen, die sehr nahe an der Armutsgrenze leben, treffen können. Ein paar Monate COVID-19-Sperrung in Indien haben Millionen Menschen in extreme Armut zurückgeschickt, in der sie sich nicht einmal drei Mahlzeiten am Tag leisten können.

Während kleine Umweltgruppen und ihre regionalen Proteste den Fortschritt auf diese Weise behindern, fördern große internationale Gruppen eine Umwelt- und Energiepolitik, die einen viel größeren Einfluss auf die Wirtschaft hat.

Kohlenstoff-Imperialismus

Die internationale Klimapolitik, insbesondere das Pariser Abkommen, hat das Potenzial, die indische Wirtschaft zu stören. Aber die indischen Behörden haben sich immer gegen die Auferlegung einer restriktiven Energiepolitik durch das anti-fossile Establishment im Westen gewehrt

Indiens Vorbehalte diesbezüglich wurden von Indiens ehemaligem Chef-Wirtschaftsberater des Premierministers, Arvind Subramaniam, sehr gut ausgedrückt. In Anerkennung der subtilen Bemühungen der Vereinten Nationen und der westlichen Mächte, die Nutzung fossiler Brennstoffe in Indien zu unterdrücken, nannte Subramaniam ihre kollektiven Bemühungen „Kohlenstoff-Imperialismus“.

Das sind starke Worten von einer Person aus einem Land, das die härteste Form des Kolonialismus erduldet hat. Subramaniam bezeichnete die Auferlegung von Kohlenstoffsteuern als etwas Unrealistisches, vor allem, wenn die westlichen Mächte ihren wirtschaftlichen Erfolg durch die vollständige Nutzung eben jener aus fossilen Brennstoffen gewonnenen Energie erreicht haben, die sie nun verurteilen.

[Hervorhebung vom Übersetzer]

Außerdem können keine Ersatzstoffe die verlorene Energie aus fossilen Brennstoffen ausgleichen. Erneuerbare Energien sind teurer und unzuverlässiger.

Subramaniam warnte das Land: “Erneuerbare Quellen kommen mit versteckten Kosten, die wir in unserer kopflastigen Umarmung mit erneuerbaren Energien nicht übersehen sollten.“ Er fuhr fort: „Kohle wird bleiben und sollte bleiben. Die Zeit ist reif für eine grüne und saubere Kohlekoalition.“

[Hervorhebung vom Übersetzer]

Seine politischen Ansichten wurden im Jahr 2020 erneut bestätigt, als der Wirtschaftsbericht des Landes erneut die Abhängigkeit von fossilen Brennstoffen unterstrich, um sinnvolle Fortschritte zu erzielen. Tatsächlich kündigte Indien kürzlich an, dass es in den nächsten zehn Jahren 55 Milliarden Dollar in saubere Kohleprojekte (Hochtechnologie, reduzierte Emissionen) investieren wird.

Die nationale Regierung hat sich phänomenal gegen den Druck aus dem Westen gewehrt und investiert weiterhin in erschwingliche, reichlich vorhandene und zuverlässige Energiequellen. Aber die Proteste an der Basis müssen angegangen werden, und dafür müssen der radikale Umweltschützer und seine übergreifenden Wurzeln ausgeschaltet werden. Und wie? Indem man die Öffentlichkeit über die Schäden aufklärt, die er mit sich bringt, und ihm so die Unterstützung der Bevölkerung entzieht, ohne die er keinen Erfolg haben kann.

Für die 300 Millionen Armen in Indien sind die Umweltgruppen – die von radikalen Elementen in den USA und Europa finanziert werden – das größte Hindernis auf dem Weg in die Mittelschicht – gesund, wohlhabend und langlebig.

[Hervorhebung vom Übersetzer]

This article was originally published on MasterResource.org.

Photo by Aravind Kumar on Unsplash.

Link: https://cornwallalliance.org/2021/04/environmental-activism-as-carbon-imperialism-nightmare-for-the-poor-2/

Übersetzt von Chris Frey EIKE

 




Man braucht Big Energy als Backup für Little Wind und Solar

Meines Wissens hat diese große Zahl keinen Namen, aber das sollte sie. Nennen wir sie die „Mindestreserveanforderung“ für Wind- und Solarenergie, oder MBR [Minimum Backup Requirement]. Die Mindest-Backup-Anforderung gibt an, wie viel Stromerzeugungskapazität ein System haben muss, um zuverlässig den Strom zu erzeugen, den wir brauchen, wenn Wind und Sonne ausfallen.

Für die meisten Orte ist die Größenordnung der MBR sehr einfach. Sie ist der gesamte Saft, der in den heißesten oder kältesten windschwachen Nächten benötigt wird. Es ist Nacht, also gibt es keine Sonneneinstrahlung. Der anhaltende Wind beträgt weniger als acht Meilen pro Stunde, also gibt es keine Windenergie. Es ist sehr heiß oder sehr kalt, also ist der Bedarf an Strom sehr hoch.

An vielen Orten wird der MBR nahe an der maximalen Leistung liegen, die das System jemals benötigt, denn Hitzewellen und Kälteperioden sind oft auch windarme Ereignisse. Sowohl Hitze- als auch Kälteperioden werden oft durch große Hochdrucksysteme verursacht, die sehr wenig Wind mit sich bringen.

Während Hitzewellen kann es tagsüber etwas heißer sein, aber nicht so sehr. Während Kälteperioden ist es nachts oft am kältesten, wenn die Menschen am meisten Strom brauchen, damit sie nicht im Dunkeln erfrieren. Man denke an Texas.

Die so genannte „Spitzenlast“ ist also ein guter Näherungswert für den maximalen Backup-Bedarf. Mit anderen Worten: Es muss genügend zuverlässige Erzeugungskapazität vorhanden sein, um die gesamte maximale Leistung, die das System jemals benötigt, bereitzustellen. Für jedes öffentliche Stromversorgungssystem ist das eine sehr große Zahl; so groß, wie es nur sein kann, um genau zu sein.

Eigentlich ist sie sogar noch ein bisschen größer, denn es muss auch eine Sicherheitsmarge geben, oder was man „Reservekapazität“ nennt. Diese soll zur Verfügung stehen, wenn etwas nicht so funktioniert, wie und wann es sollte. Fünfzehn Prozent ist eine typische Reserve in amerikanischen Systemen. Das macht die MBR zu etwa 115 % des Spitzenbedarfs.

Uns wird oft gesagt, dass Wind- und Solarenergie billiger sind als Kohle-, Gas- und Kernkraftstrom. Aber das umfasst nicht die MBR für Wind und Solar. Was bei Wind- und Solarenergie relativ günstig ist, sind die Kosten für die Produktion einer Stromeinheit unter optimalen Bedingungen. Dies wird oft als LCOE oder „Levelized Cost of Energy“ bezeichnet.

Worüber wir wirklich reden müssen, ist die Notwendigkeit, zuverlässige Reserveenergie hinzuzufügen, um den Menschen den Strom zu geben, den sie brauchen, wenn sie ihn brauchen. Diese Gesamtkosten machen Wind- und Solarenergie sehr teuer.

Kurz gesagt, die wahren Kosten von Wind und Solar sind LCOE + MBR. Das sind die enormen Kosten, von denen man nie hört. Aber wenn jeder Staat auf Wind- und Solarenergie umsteigt, dann braucht jeder Staat eine MBR für ungefähr seinen gesamten Spitzenbedarf. Das ist eine enorme Menge an Erzeugungskapazität.

Es bedeutet mehr als eine Verdoppelung der normalerweise benötigten Erzeugungskapazität … die Rohstoffe für den Bau dieser doppelten Kapazität … und die realen Kosten für unzureichende, weit verstreute, flächenintensive, wetterabhängige, unzuverlässige Wind- und Solarkraftwerke, plus die minimale Backup-Anforderung. Einfach ausgedrückt: Man braucht viel Energie, um das zu stützen, was oft zu wenig Wind- und Sonnenenergie ist.

Natürlich hängen die Kosten für MBR von der Erzeugungstechnologie ab. Batteriespeicher scheiden aus, da die Kosten für die Milliarden von Halbtonnen-Batteriemodulen, die benötigt würden, um genügend Energie für eine Stadt, einen Staat, eine Region oder ein Land während mehrerer Tage mit wenig Wind und wenig Sonne zu speichern, astronomisch sind.

Gaskraftwerke sind vielleicht am besten, aber sie werden mit fossilen Brennstoffen betrieben, ebenso wie Kohlekraftwerke. Wenn man auf null fossile Brennstoffe besteht, dann ist Kernkraft wahrscheinlich die einzige Option. Kernkraftwerke als intermittierendes Backup zu betreiben ist dumm und teuer, aber keine fossile Energieerzeugung – oder keine Stromerzeugung – ist es auch. Und den Bau neuer Kernkraftwerke fast überall auf dem Planeten Erde durchzusetzen, ist im heutigen politischen Klima so gut wie unmöglich.

Was eindeutig ausgeschlossen ist, sind 100 % erneuerbare Energien, denn dann gäbe es häufig überhaupt keinen Strom. Das heißt, es sei denn, man könnte die Geothermie in einem enormen Ausmaß zum Laufen bringen, was viele Jahrzehnte dauern würde. (Und viele der besten traditionellen geothermischen Standorte befinden sich in oder in der Nähe von Nationalparks und anderen landschaftlich reizvollen oder natürlichen Gebieten wie Yellowstone, was den Widerstand der Umweltschützer zu einer ausgemachten Sache macht).

Es ist klar, dass das Ziel der Biden-Administration, bis 2035 keinen Strom aus fossilen Brennstoffen zu erzeugen (ohne Kernkraft), aufgrund der Mindestanforderungen für die Unterstützung von Wind- und Solarenergie wirtschaftlich unmöglich ist. Man kann vom jetzigen Stand aus nicht dorthin gelangen.

Wir sollten uns nicht wundern, warum wir fast nie etwas über diese offensichtlich enormen Kosten für Wind und Solar hören. Sie an die Öffentlichkeit zu bringen, würde die Argumente für „erschwingliche, saubere, grüne, erneuerbare, nachhaltige“ Energie ernsthaft untergraben. Also vermeiden die Versorgungsunternehmen, die ich mir angesehen habe, dies mit einem cleveren Trick.

Dominion Energy, das den größten Teil des Stroms in Virginia liefert, ist ein gutes Beispiel. Die Legislative von Virginia verabschiedete ein Gesetz (den „2020 Virginia Clean Energy Act“), welches vorscxhreibt, dass die Stromerzeugung von Dominion bis 2045 ohne fossile Brennstoffe erfolgen muss. Dominion entwickelte einen Plan, in dem sie erklärten, wie sie dies angeblich erreichen würden.

Ganz beiläufig, auf Seite 119, sagt das Unternehmen, dass es seine Kapazitäten für den Import von Strom, den es von anderen Energieversorgern bezieht, erweitern wird. Diese Erweiterung entspricht zufällig dem Spitzenbedarf des Unternehmens.

Der Plan ist, den ganzen MBR-Strom von den Nachbarn zu kaufen! Aber wenn alle auf Wind- und Solarenergie setzen, wird niemand mehr Strom zum Verkaufen haben. Tatsächlich werden sie alle versuchen, Strom zu kaufen – was unmöglich funktionieren kann.

Man vergesse nicht, dass Hochdruckgebiete mit ihrem windschwachen Bereich riesig sein können und ein Dutzend oder mehr Staaten abdecken. Sie können tagelang andauern. Im Übrigen hat heute niemand diese Art von überschüssiger Stromerzeugungskapazität, wenn wir immer noch reichlich Kohle, Gas und Kernkraft für die primäre Stromerzeugung und als Backup haben.

Die meisten Energieversorger decken schon jetzt kaum ihren eigenen Bedarf. Sobald jedes Versorgungsunternehmen in jedem Bundesstaat verpflichtet ist, zu 100 % auf fossile Brennstoffe zu verzichten, wird es garantiert zu einem Debakel kommen, immer und immer wieder.

Große Städte wie New York werden sich nicht mehr von wiederholten Stromausfällen freikaufen können.

Zusammenfassend lässt sich sagen, dass es für jeden Energieversorger Zeiten geben wird, in denen es keine Wind- und Solarenergie gibt, auch in Zeiten maximaler Nachfrage. Die Deckung dieses enormen Bedarfs ist die minimale Backup-Anforderung. Die enormen Kosten für die Erfüllung dieser Anforderung sind Teil der Kosten für Wind- und Solarenergie – der Teil, über den niemand reden will, insbesondere Politiker, Umweltschützer und Versorgungsunternehmen nicht. MBR macht Wind- und Solarenergie extrem teuer.

Die einfache Frage, die man der Biden-Regierung, den Bundesstaaten und ihren Energieversorgern stellen muss, ist diese: Wie werden Sie in heißen oder kalten windarmen Nächten Strom bereitstellen?

Wenn Sie diese Frage stellen, bleiben Sie in der Nähe des Mikrofons, damit Sie mehr verlangen können als die Doppelzüngigkeit, die falschen Zusicherungen und die offenen Lügen, die Sie mit Sicherheit bekommen werden, wenn sie zum ersten Mal auf diese lebenswichtige, unbequeme und wachrüttelnde Frage antworten.

[Originally posted on Townhall]

Link: https://www.heartland.org/news-opinion/news/it-takes-big-energy-to-back-up-little-wind-and-solar

Übersetzt von Chris Frey EIKE

 




Alles zusammen

Wenn die Reihe also z. B. (1, 3, 7, 10) lautet, ist die neue Reihe, die die kumulative Summe der alten Reihe ist, (1, 4, 11, 21). Sie wird berechnet als

  • 1
  • 1 + 3 = 4
  • 4 + 7 = 11
  • 11 + 10 = 21

Warum ist eine kumulierte Summe von Interesse? Sie kann zugrunde liegende Trends und Veränderungen in Datensätzen aufzeigen. Man nehme zum Beispiel die „Pazifische Dekadische Oszillation“ PDO. Dies ist eine langsame Veränderung im Pazifik, bei der der nördlichste Teil alternierend kühler und wärmer wird.

Abbildung 1: Die beiden Extreme der Wassertemperatur des Pazifiks bzgl. der PDO.

Und hier eine Graphik des PDO-Index‚, einer Maßzahl für die Phase der PDO:

Abbildung 2. PDO-Index, und das Datum der „Großen Pazifischen Klimaverschiebung“ von 1976-1977.

Und was ist die „Große Pazifische Klimaverschiebung“, wenn sie stattfindet? Es war das Datum der ersten Verschiebung der Pazifischen Dekadischen Oszillation, die von Wissenschaftlern identifiziert wurde. (Als langjähriger kommerzieller Lachsfischer weiß ich die Tatsache sehr zu schätzen, dass die PDO zuerst in Aufzeichnungen von Lachsfängen im pazifischen Nordwesten bemerkt wurde … aber ich schweife ab). Aus dem Journal of Climate Artikel „The Significance of the 1976 Pacific Climate Shift in the Climatology of Alaska“:

Im Jahr 1976 erfuhr die nordpazifische Region, einschließlich Alaska, eine dramatische Verschiebung zu einem Klimaregime, das einen großen Anstieg der Winter- und Frühlingstemperaturen und einen geringeren Anstieg der Sommer- und Herbsttemperaturen im Vergleich zu den vorangegangenen 25 Jahren sah“.

Und was hat die pazifische Klimaverschiebung von 1976 mit den kumulierten Summen zu tun? Es wird deutlich, wenn wir die kumulative Summe des PDO-Index‘ wie unten gezeigt graphisch darstellen:

Abbildung 3. Kumulative Summe des PDO-Index‘, und das Datum der pazifischen Klimaverschiebung von 1977

Wie man sieht, zeigt die kumulative Summe des PDO-Index‘ eindeutig das Datum der Verschiebung des pazifischen Klimas in die warme Phase der PDO.

Was können kumulative Summen noch tun? Sie können uns zeigen, ob zwei Datensätze in Beziehung zueinander stehen. Hier sind die kumulativen Summen von:

zusammen mit der PDO:

Abbildung 4. Kumulative Summe des PDO-Index und das Datum der pazifischen Klimaverschiebung von 1977

Diese vier Indizes des Klimas beruhen auf sehr unterschiedlichen Dingen. Der PDO-Index ist die erste Hauptkomponente der Meeresoberflächentemperaturen nördlich von 20°N. Der Southern Ocean Index basiert auf der Differenz des Luftdrucks zwischen Tahiti und Australien. Der NINO34-Index basiert auf den Meeresoberflächentemperaturen in der Region 5°N-5°S und 170°W-120°W. Und der Nordpazifik-Index basiert auf dem flächengewichteten Meeresspiegeldruck über der Region 30°N-65°N, 160°E-140°W.

Und trotzdem zeigen sie alle deutlich die pazifische Klimaverschiebung von 1976 …

Was können wir noch mit kumulativen Summen machen? Nun, wir können sie auch verwenden, um zu zeigen, welche Datensätze nicht zusammenhängen … hier sind ein paar Beispiele:

Abbildung 5 Kumulative Summen, Pazifischer Dekadischer Oszillationsindex, Nordatlantischer Oszillationsindex und monatliche Sonnenflecken

Es gibt nicht viele Gemeinsamkeiten bei diesen drei. Und das zeigt, dass die Sonnenflecken und die Nordatlantische Oszillation auch nicht eng mit den in Abbildung 4 gezeigten El-Nino-Indizes zusammenhängen … und das war’s mit den kumulativen Summen für den Moment.

Aktualisierung: Ein Kommentator wies mich darauf hin, dass ich die Atlantische Multidekadische Oszillation (AMO) nicht in die Analyse einbezogen hatte. Hier ist die Grafik:

Anmerkung: Kumulative Summen sind sehr empfindlich gegenüber Anfangsbedingungen und Anomalien. Wenn es einen Aufwärtstrend in den Daten gibt, oder wenn der Nullpunkt niedriger ist als die Werte, wird eine kumulative Summe in den Himmel steigen und umgekehrt. Die Anomalie der gleichen Daten wird sich jedoch ganz anders verhalten. Alle obigen kumulativen Summen wurden zunächst als Anomalie um den Mittelwert des jeweiligen Datensatzes ausgedrückt. Für trendlose Indizes macht dies kaum einen Unterschied. Es stellt jedoch sicher, dass sie zu dem Wert zurückkehren, bei dem sie begonnen haben. Nimmt man sie als Anomalien um einen beliebigen anderen Nullpunkt, so ergibt sich je nach gewähltem Punkt ein Gesamttrend. Infolgedessen ist der Trend einer kumulativen Summe im Allgemeinen bedeutungslos, aber wie oben gezeigt, können die Variationen in der kumulativen Summe recht aussagekräftig sein.

Link: https://wattsupwiththat.com/2021/04/09/adding-it-up/

Übersetzt von Chris Frey EIKE

 




Im Gegensatz zum verbreiteten Glauben wächst das Meereis an beiden Polen anstatt zu schrumpfen

Polarluft-Vorstöße in der südlichen Hemisphäre (auch bekannt als schwacher und mäandrierender Jetstream) sind auf dem Vormarsch, genauso wie in seinem nördlichen Gegenstück.

Die neuesten Daten des National Snow and Ice Data Center (NSIDC) zeigen, dass das Meereis am Südpol in dieser Saison auf Hochtouren läuft und etwa 500.000 Quadratkilometer über dem Mittelwert liegt, was alle vier der letzten multidekadischen Durchschnittswerte deutlich übertrifft: 1979 bis 1990, 1991 bis 2000, 2001 bis 2010 und 2011 bis 2020.

Quelle

Die blaue Linie zeigt: Ende März lag die antarktische Meereisausdehnung definitiv über dem Durchschnitt.

Vor vier Jahren, Ende März 2017, betrug die antarktische Meereisausdehnung 3 Millionen km², und jetzt, Ende März 2021, zeigen die Messungen über 5 Millionen km². Dies sollte nach der Theorie der globalen Erwärmung ein Ding der Unmöglichkeit sein, und doch ist es so – eine Zunahme von 2 Mio. km².

Übrigens, das arktische Meereisvolumen (oder die „Dicke“) entwickelt sich in diesem Jahr ebenfalls sehr gut:

Die schwarze Linie in der Grafik zeigt: Ende März war das arktische Meereisvolumen höher als 2017 oder 2018. (Größere Version der Grafik hier.)

Zur Veranschaulichung hier das neueste Satellitenbild der arktischen Meereisausdehnung:

Quelle: NSIDC

Nach mehr als vier Jahrzehnten Propaganda, der zufolge das arktische Eis am Rande eines katastrophalen Kipp-Punktes steht, sind wir nun an diesem Punkt angelangt – die orangefarbene Linie, die die Eisausdehnung zeigt, ist nahe genug am Mittelwert von 1981-2010, um statistisch irrelevant zu sein.

Außerdem gleichen die Zuwächse in der Antarktis das „fehlende“ Eis in und um die Arktis leicht aus.

Die KALTEN ZEITEN kehren zurück, die mittleren Breiten RE-GEFRIEREN im Einklang mit der großen Konjunktion, der historisch niedrigen Sonnenaktivität, der wolkenbildenden kosmischen Strahlung und einem meridionalen Jetstream (neben anderen Einflüssen).

[Hervorhebungen im Original]

Sowohl die NOAA als auch die NASA scheinen sich einig zu sein, wenn man zwischen den Zeilen liest, wobei die NOAA sagt, dass wir Ende der 2020er Jahre in ein „ausgeprägtes“ Grand Solar Minimum eintreten, und die NASA sieht diesen kommenden Sonnenzyklus (25) als „den schwächsten der letzten 200 Jahre“, wobei die Agentur frühere Schwächephasen der Sonnenaktivität mit längeren Perioden globaler Abkühlung korreliert.

Es ist ein Zyklus, es ist ein Zyklus, es ist ein Zyklus, und wir (Menschen) haben absolut keine Kontrolle in dieser Angelegenheit.

Link: https://www.iceagenow.info/contrary-to-popular-belief-sea-ice-at-both-poles-is-growing-not-shrinking/

Übersetzt von Chris Frey EIKE

 




Ein „Orkan-Hoch“ über Grönland – künstlich oder natürlich?

Abbildung 1: Simulation des Bodendrucks (weiße Linien) sowie der 500-hPa-Fläche (farbig) am 5. April 2021 um 00 UTC (02 Uhr MESZ) Quelle

Im 850-hPa-Niveau sah es so aus:

Abbildung 2: Simulation der geopotentiellen Höhe des 850-hPa-Niveaus (weiße Linien) sowie der Temperatur (farbig) Quelle

(Erklärender Hinweis: Die Bezifferung der weißen Linien gibt an, in welcher Höhe über NN der Luftdruck genau 850 hPa beträgt. Angegeben ist diese Höhe in geopotentiellen Dekametern. Die Zahl 160 an der Südspitze von Grönland bedeutet, dass der Luftdruck in einer Höhe von 1600 m genau 850 hPa beträgt. Vor der norwegischen Küste im Zentralbereich des Tiefdruckwirbels ist das bereits in einer Höhe von 1050 m (105) der Fall. – Ende Hinweis) .

Dabei müssen jetzt mehrere Dinge beachtet werden. Zum Einen beträgt die mittlere Seehöhe von der Oberfläche Grönlands rund 3000 m, liegt also viel höher als das 850-hPa-Niveau. Die Höhenangabe dort ist also eine rein Rechnerische.

Gleiches gilt zum Anderen für die Angabe des Bodenluftdrucks. Bekanntlich nimmt ja der Luftdruck mit der Höhe ab. Um aber eine aussagekräftige Bodenwetterkarte zu erhalten, muss der Luftdruck in Stationshöhe auf das Niveau des Meeresspiegels reduziert werden. In diese Reduktion geht einmal die Zustandsgleichung für ideale Gase (hier und hier [unten]) und zum zweiten die barometrische Höhenformel ein.

Nun ist natürlich die Oberfläche im Hochland von Grönland sehr kalt mit einer entsprechend hohen Dichte. Die Reduktion des Drucks einer solchen Extrem-Luftmasse von etwa 3000 m auf NN wird also rechnerisch einen zu hohen Druck ergeben. Mit anderen Worten, würde die kalte Oberfläche auf NN liegen, wäre der Luftdruck vermutlich nicht so hoch wie dort simuliert. Erkennbar wird dies daran, dass der Luftdruck-Gradient über dem Meer westlich des Tiefdruckwirbels vor der grönländischen Küste schon etwas schwächer wird, während er über dem grönlandischen Festland wieder sehr stark wird. Auch auf der anderen, westlichen Seite von Grönland beschränkt sich der starke Gradient direkt auf das grönländische Festland, während er über der Davis-Straße praktisch schon verschwunden ist. Dort wird am Boden ein (reales!) Luftdruckniveau von etwa 1030 bis 1035 hPa gemessen. Da die Davis-Straße aber um diese Jahreszeit weitgehend zugefroren ist, ist die Oberfläche bzgl. der Temperatur- und Dichte-Verhältnisse vergleichbar.

Abbildung 3: Vergleich der Bodenwetterkarten-Analysen: Links: die von Hand überarbeitete Analyse des Instituts für Meteorologie der Freien Universität Berlin (Quelle: Verein Berliner Wetterkarte e. V.). Rechts: Die simulierte Analyse wie in Abbildung 1. Das hinzugefügte „T“ zeigt, dass das in der linken Analyse gefundene Tiefdruckgebiet zutreffend auch rechts in der Simulation auftaucht.

(Anmerkung: Der Luftdruck in Stationshöhe bei über 1000 m hoch gelegenen Bergstationen wird aus diesem Grunde auch nicht auf NN reduziert, sondern auf die nächst gelegene Druckfläche. Der Stationsdruck der Zugspitze in fast 3000 m Höhe wird beispielsweise auf die 700-hPa-Fläche reduziert. – Ende Anmerkung)

Kurz und gut, der simulierte Luftdruck über Grönland zeigt zu hohe Werte. Die (der Realität näher kommende) Analyse links zeigt, dass es sich nicht einmal um ein Rekord-verdächtiges Gebilde handelt. Die Frage in der Überschrift beantwortet sich damit: Es ist ein künstliches Phänomen!

(Anmerkung: Hier handelt es sich auch um ein gutes Beispiel dafür, wie Modelle die Realität abbilden können: nämlich über Grönland überhaupt nicht! Dabei handelt es sich hier bei der GFS-Simulation nicht einmal um eine Vorhersage! – Ende Anmerkung)

Nun sind Synoptiker wie der Autor dieses Beitrags immer hellwach, wenn es um Rekorde geht. Dennoch sollte man, um diesbezüglich fündig zu werden, nicht auf solche Extrem-Gebiete schauen.

Extrem hoher Luftdruck kann aufgrund theoretischer Überlegungen nur bei gleichzeitiger hoher Dichte der Luft auftreten, also niemals über Meeresgebieten. Je größer die Festlandsfläche, umso besser für diesen Zweck. Da kommt die Landfläche Asiens ins Spiel, und tatsächlich kann man dort realistischer erkennen, wie hoch der Luftdruck im Extremfall steigen kann.

Hier werden folgende Angaben diesbezüglich gemacht: Für Stationen tiefer als 750 m ü. NN: Am 31.12.1968 wurde in Agata im nordwestlichen Sibirien ein Luftdruck von 1083,8 hPa gemessen. Diese Station liegt 263 m hoch. Auf der entsprechenden Wetterkarte sah das so aus:

Abbildung 4: Bodenkarte (weiße Linien) und 500-hPa-Fläche (farbig) am 31. Dezember 1968 über Sibirien. (Zur Orientierung: Norden ist in dieser Darstellung links. Im unteren Teil erkennt man Nordskandinavien, darüber die Inseln von Nowaja Semlja) Quelle

Für Stationen über einer Seehöhe von 750 m liegt eine Meldung aus Tosontsengel in der Mongolei mit 1084,8 hPa vom 19. Dezember 2001 vor. Die zugehörige Wetterkarte:

Abbildung 5: Wie Abbildung 4, aber über Innerasien. (Orientierung: Oben erkennt man die koreanische Halbinsel, ganz unten links Nordskandinavien). Quelle

Im Hochland der Inneren Mongolei ist es im Winter genauso extrem kalt wie in Grönland, so dass man auch hier von zu hohen Werten des auf NN reduzierten Luftdrucks ausgehen kann. Real gemessen kann man also wohl den Wert von Sibirien als den höchsten, jemals gemessenen (nicht simulierten!) Luftdruck betrachten.

Folgen der Entwicklung bei Grönland für Mitteleuropa

Wie oben schon erwähnt sorgte der extrem starke Gradient über dem Nordmeer für eine genauso extrem schnelle Advektion arktischer Festlandsluft aus der inneren Arktis nach Süden. Natürlich erwärmt sich die arktische Luftmasse bei ihrem Weg über das offene Meer. Diese Erwärmung von unten her sorgt aber auch für eine erhebliche Labilisierung der Luftmasse mit der Bildung zahlreicher Schauer, wie das Wetterradar-Bild zeigt:

Abbildung 6: Wetter-Radar vom 5. April 2021 um 09.15 Uhr MESZ. Quelle

Zu diesem Zeitpunkt lag die Vordergrenze der Arktikluft noch über Norddeutschland, doch kam sie schon am nächsten Tag bis in das Mittelmeer voran. Die Auswirkungen des Kaltluftvorstoßes in Deutschland dürften anderswo beschrieben sein, weshalb hier nicht näher darauf eingegangen wird. Zwei unterschiedliche Aspekte sollen aber noch erwähnt werden:

Der Autor hat in seinem Beitrag über Luftmassen beschrieben, dass das Ausmaß der Erwärmung einer Kaltluftmasse vor deren Eintreffen in Mitteleuropa von der Länge des Weges und der Dauer des Zurücklegens dieses Weges abhängt. In diesem Falle hier erfolgte der Kaltluftvorstoß auf kürzestem Weg und infolge des starken Gradienten auch innerhalb sehr kurzer Zeit. Die Erwärmung hielt sich also sehr in Grenzen, und verschiedentlich dürfte sich auch im Flachland nochmals eine nasse Schneedecke bilden. Sollte es im Bereich eines nachfolgenden Hochdruckkeils nachts aufklaren, kann man sich durchaus mancherorts neue Kälterekorde vorstellen. Näheres hierzu wird ggf. in den „Kältereports“ des Autors beschrieben werden.

Abbildung 7: IR-Satellitenbild vom 5. April 2021, 00 UTC (02 Uhr MESZ). Quelle

Noch ein letzter Aspekt soll hier erwähnt werden. Das Infrarot-Satellitenbild oben zeigt die Bewölkung über dem Nordmeer. Man erkennt deutlich die Leewirkung von Grönland und auch von Island. Betrachtet man noch einmal Abbildung 2, dann fällt auf, dass die Simulation südlich von Grönland im 850-hPa-Niveau etwas höhere Temperaturen als darum herum zeigt. Die Föhnwirkung von Island wird also abgebildet. Auch in den Simulationen der Vortage tauchte dieses Phänomen schon auf. Diesen Aspekt konnte das GFS-Modell also korrekt abbilden.

Schlussbemerkungen: Die hier beschriebenen Vorgänge haben nichts, aber auch gar nichts mit Klima zu tun. Es handelt sich um ein Einzelereignis. Sollten sich ähnliche Einzelereignisse aber in nächster Zeit häufen, kann das vielleicht ein Anzeichen des Wechsels der NAO in die Kaltphase gedeutet werden, wie es Kämpfe (2021) hier beschrieben hat.

(Redaktionsschluss: 7. April 2021)




Führt Kernkraft zur Kern­spaltung der „grünen“ Bewegung?

Während die Altgrünen vor allem in Deutschland deshalb jubeln und sich für die Wahlen im Herbst auf dem sicheren Weg zum gelobten kernkraft- und CO2-freien Land wähnen, scheint sich für sie langsam, aber sicher Ungemach anzukündigen. Manche Unterstützer der grünen Bewegung haben im Unterschied zu deutschen Politikern noch Restbestände von gesundem Menschenverstand bewahrt. Dort scheint es zu dämmern, dass man mit Wind und Sonne allein die ganzen grünen Wunschträume wie Umstellung von Heizung, Warmwasser, Mobilität, Industrieproduktion usw. auf Elektrizität keinesfalls wird erfüllen können. Wenn keine fossile Energie erlaubt ist, bleibt den Staaten eigentlich nur noch der Rückgriff auf die Kernkraft. Natürlich gibt es überall zahlreiche hämische Forenkommentare über Kosten beim Hinkley-Point-KKW und die angeblich drohende Überalterung der zurzeit aktiven Kernkraftwerke. Dennoch gibt es augenscheinlich rund um die Welt und selbst im grünen Europa immer mehr „Popup“-Vertreter der Kernenergie. Eher leise, aber dafür beharrlich interessieren sich immer mehr Personen, Organisationen und Staaten für die Kernenergie. Russland, China und Korea können daher immer mehr Verträge über die Errichtung von Kernkraftwerken nicht nur in Europa, sondern auf fast allen Kontinenten abschließen. Noch ist der Zuwachs gering, aber ein gewisser Aufwärtstrend ist nicht mehr zu leugnen. Das scheint im Hintergrund am Aktienmarkt einen regelrechten Kapital-Tsunami in Bewegung gesetzt zu haben, obwohl der Uranpreis nach wie vor auf sehr tiefen Werten verharrt. Denn mit den Aktien von Uranminen kann man augenscheinlich sehr viel mehr Geld verdienen als z.B. mit den beliebten ETF-Zertifikaten auf Börsenindices.

Bild 2. Wer am 1.1. 2016 1.000 $ in den Verlauf des DAX investierte, konnte bis Anfang April bis zu ca. 470 $ hinzuverdienen (Grafik: Autor)

Uranpreis: Seit langem in einem Tal der Tränen

Der Uranpreis musste im Lauf der letzten 20 Jahre eine ganze Reihe von Nackenschlägen hinnehmen. Im Jahr 2001 hatte das Energiemetall noch bei Preisen von etwas über 10 US-$/lb gelegen. Der niedrige Preis war u.a. Folge eines Raketen-Verschrottungsprogramms, in dessen Rahmen die USA nach dem Niedergang der UdSSR deren hoch angereichertes (waffenfähiges) Uran abreicherte, so dass es in Kraftwerken als Brennstoff dienen konnte. Dies hatte den Preis des Rohstoffs über viele Jahre gedrückt. Bis 2007 stieg er dann jedoch immer weiter auf bis zu etwa 140 US-$/lb an. In der Folge des Börsencrashs von 2007/2008 kam dann ein tiefer Sturz auf weniger als 40 US-$/lb. Nach einem langsamen Wiederanstieg auf bis zu 77 US-$/lb Anfang 2011 führten die Ereignisse im Kernkraftwerk Daiichi (Fukushima) zu einem erneuten tiefen und sehr lang dauernden Absturz bis auf ca. 18 US-$/lb im Jahre 2016. In dieser Zeit waren viele Kernkraftwerke u.a. in Japan und Deutschland heruntergefahren worden, während kaum neue KKW gebaut wurden.

Bild 3. Wer am 1.1. 2016 1.000 $ in den Verlauf des Nasdaq investierte, konnte bis Anfang April bis zu ca. 1.750 $ hinzuverdienen (Grafik: Autor)

Seitdem hat sich der Kurs langsam wieder nach oben entwickelt. Mittlerweile wurden auch in Japan etliche Reaktoren wieder angefahren. Weltweit sind neue Reaktoren im Bau. „Grüne“ Adepten wie der kapitalstarke Microsoft-Gründer Bill Gates bekennen sich offen zum Nutzen der Kernenergie. Und manche Pro-Kernkraft-Fraktionen der grünen Bewegung wie die „greens for nuclear energy“ propagieren ihre Ziele mit eigenen Internet-Auftritten. Das hat bei vielen ebenso „grünen“ wie finanzkräftigen Glaubensgenossen Interesse geweckt: Die Aussicht auf fette Gewinne.

Bild 4. Wer am 1.1. 2016 1.000 $ in ein breites Portfolio kanadischer Uranaktien investierte, konnte bis Anfang April bis zu ca. 1.830 $ hinzuverdienen (Grafik: Autor)

Die grünen Eliten…

Man darf ja nicht vergessen, dass die „grüne“ Ideologie vom internationalen Großkapital getragen wird. Diese Bewegung der Finanzeliten ging ursprünglich von elitären Zirkeln wie dem „Club of Rome“ aus. Dann kamen immer mehr Stiftungen superreicher US-Bürger wie den Rockefellers, der Familien Hewlett und Packard oder der Gates-Stiftung hinzu. Inzwischen ist nahezu die gesamte Finanzelite der westlichen Welt Klima-aktivistisch unterwegs, darunter die meisten Großbanken, Versicherungen und Hedgefonds sowie Manager von großen Industrieunternehmen. Inzwischen versucht man dort, sich mit Aufrufen zum „Klimaschutz“ gegenseitig zu übertreffen. Das zeigen zahllose Klima-Initiativen der großen Kapitalgesellschaften wie das „Carbon Disclosure Project“ oder die 2-Grad-Initiative, die alles tun, um die Klimahysterie zu fördern. Natürlich nur, um den Planeten vor der Menschheit zu retten. Dass man dabei auch sich selbst Gutes tun kann, ist in diesen Kreisen selbstverständlich. Diese grünen Haie haben begriffen, dass sich ihnen mit dem Klima-Argument eine geradezu einmalige Gelegenheit zu einem unvergleichlichen Raubzug auf die Einkommen und Vermögen der mittleren und unteren Schichten der Bevölkerung bietet. Von allen Kanzeln wird „Verzicht, Verzicht, Verzicht“ gepredigt, Politiker ernten Lobpreis dafür, dass sie dem Volk Fleisch, Autos, Reisen und sogar das eigene Häuschen madig machen wollen. Auch die Gewerkschaften und die „sozialistischen“ Bewegungen, sonst eifrig darauf bedacht, Angriffe auf das Portemonnaie ihrer Anhänger zu bekämpfen, trommeln an vorderster Front für diese Verarmungsoffensive zugunsten der „Rettung des Planeten“. Man vergleiche das mit dem Vermögensanstieg des Sonnenkönigs Asbeck (Gründer und Totengräber von Solarworld) auf geschätzt mehr als 600 Mio. €, während Windmüller Wobben (Enercon) sogar zum Milliardär avancieren konnte.

scheinen Uran als Darling zu entdecken

Nicht wenige dieser Superreichen sind in Wahrheit nüchterne Finanziers, die rechnen können. Viele sind sich darüber im Klaren, dass die Wind- und Solarmasche irgendwann ausgelutscht sein wird. Wenn dies eintritt, muss bereits ein neues Gadget vorbereitet sein, um es dann rechtzeitig aus der Tasche ziehen zu können. Noch attraktiver wird dies natürlich dann, wenn damit an der Börse noch mehr Geld verdient werden kann als mit den klassischen Methoden.

Bild 5. Wer am 1.1.2016 1.000 $ in ausgewählte kanadische Uranaktien mit langzeitiger Performance investierte, konnte bis Anfang April bis zu ca. 3.570 $ hinzuverdienen (Grafik: Autor)

Genau das zeichnet sich derzeit bei den Kursen der Uran-Minengesellschaften ab. Diese sind wegen der seit fast anderthalb Jahrzehnten tief gedrückten Uranpreise massiv unterbewertet. Der Kapitalmangel hat zudem dazu geführt, dass zu wenig neue Minen in Betrieb genommen wurden. In Zukunft könnte eine merkliche Unterversorgung mit Uran drohen, was zu einem Boom im Uran-Minensektor zu führen scheint. Dort ist jetzt weit mehr Geld zu verdienen als beispielsweise mit den klassischen ETF´s auf Börsenindices. Am Beispiel der Wertentwicklung der Indices DAX und Nasdaq sowie der Kurse ausgewählter Kollektive kanadischer Uranbergbau-Unternehmen ist zu erkennen, dass hier die Zuwachsraten und damit die Gewinnmargen seit einiger Zeit teils massiv nach oben gegangen sind. Seit etwa März-April 2020 scheint sich dieser Trend nochmals deutlich zu verstärken. Möglicherweise werden die deutschen und europäischen Altgrünen plötzlich feststellen, dass sie von smarten Geldgrünen beiseitegeschoben werden. Diese Finanzjongleure pfeifen auf jegliche Fukushima-Panik und haben beim Thema Kernkraft nur noch Dollarzeichen in den Augen. Natürlich auch diesmal alles nur, um den Planeten zu retten. Und wer wollte ihnen verwehren, bei diesem löblichen Tun nebenher auch noch reicher zu werden?




Vegetations­beginn und Temperatur

Seit 1988 wird der Vorfrühling bei den 1900 DWD-.Wetterstationen nicht mehr wärmer. Im Gegenteil die Trendlinie ist leicht fallend.

Allerdings stehen diese DWD-Wetterstationen bevorzugt dort, wo die Menschen leben und arbeiten, also in Wärmeinseln. Das sind etwa 20% der Deutschlandfläche. Dort werden kalte Tage und Nächte einfach weggeheizt, somit wird der ermittelte Monatsschnitt wärmer gemacht als er in Wirklichkeit wäre. Folge: extrem kalte Monatsschnitte und extrem kalte Nächte können von den DWD-Wetterstationen nicht mehr gemessen werden.

Wetterstationen bei Forsthäusern am Waldrand, bei isoliert stehenden Großbauernhöfen, bei unbeheizten Klosteranlangen gibt’s nicht mehr. Überhaupt existieren nur noch vereinzelt Wetterstationen in der freien Landschaft. So eine Station wäre Mittenwald, außerhalb des Ortes in den Buckelwiesen.

Seit 1988 wird der Vorfrühling bei den 1900 DWD-.Wetterstationen nicht mehr wärmer. Im Gegenteil die Trendlinie ist leicht fallend.

Wetterstationen außerhalb der Ansiedlungen in der freien Fläche – hier der Standort Buckelwiese – messen die tatsächliche Temperatur wie sie vom Wetter angeboten werden. Die Temperaturen kalter Nächte und Tage werden nicht weggeheizt, weil keine Heizung da ist.

Anmerkung: Der DWD hat diese Wetterstation im Jahre 2010 vom Stadtrand in die Buckelwiese versetzt. Allerdings behauptet der DWD, das wäre unerheblich, weil die Daten homogenisiert wären.

Aus diesem Grunde betrachten wir den Vorfrühling der Wetterstation Amtsberg/Erzgebirge. Die Station steht in einem kleinen Teilort und dort am Ortsrand. Nach Angaben des Stationsleiters hat sich in den letzten 40 Jahren praktisch kaum was verändert, die Einwohnerzahl stagniert und auch zu DDR-Zeiten wurde schon kräftig geheizt.

Erg: Die Abkühlungstrendlinie von Amtsberg ist seit 1988 nahezu identisch mit der von Mittenwald. Wegen des Höhenunterschiedes beider Stationen ist es in Amtsberg natürlich wärmer. Ähnlich verläuft auch die Grafiktrendlinie der Station Zeitz.

Vegetation und Meereshöhe

Es gilt die Faustregel, dass sich je 100 Meter Höhe (etwa 0,6K weniger) die Vegetation um etwa 5 Tage (plus/minus 2 Tage) „verspätet“, bei 1K Temperaturunterschied sind das knappe 10 Tage, bei 1,5K sind das 2 Wochen.

Merkregel: (1K etwa 160 Höhenmeter etwa 10 Tage Vegetationsunterschied). Daneben spielen Exposition (Hangneigung in die Himmelsrichtungen – Südhang viel wärmer als Nordhang; Westhang meist etwas wärmer als Osthang), Bodenart (trockene Sandböden erwärmen sich viel schneller als nasse Moor- oder Tonböden) und trophische Faktoren (Nährstoff-Versorgung der Böden) eine wesentliche Rolle.

Freilich ist es nicht die Temperatur alleine, welche den Laubaustrieb und die Blütezeitpunkte beeinflusst, es spielen auch Tageslänge (Licht!) und vor allem die Wasserversorgung eine wesentliche Rolle (Dürren wie 2011 und 2012 verzögern den Laubaustrieb, weil zur Laubentfaltung und Blüte der Wasserdruck des pflanzlichen Saftstroms benötigt wird). Da in den Mittelgebirgen (meist) mehr Niederschläge fallen, kann es sein, dass speziell in trocken- warmen Frühjahren geringere Vegetationsunterschiede zwischen Tälern und Hochlagen beobachtet werden.

Im Langjährigen Mittel ist es in Thüringen so, dass die Birke in den Hochlagen (800 bis 900m mit Jahresmitteltemperaturen um 4°C) in der zweiten Maihälfte austreibt; im Tiefland (200 bis 300m mit um 8°C Jahresmitteltemperatur) aber schon in der ersten Aprilhälfte und damit 5 bis höchstens 6 Wochen eher als in den Hochlagen.

Außerdem gilt das „Minimum-Wirkungsgesetz“. Der am stärksten im Minimum befindliche Faktor begrenzt das Wachstum (siehe „Ertragsgesetze“). In kalten Jahren ist dies fast immer die Temperatur, so dass dann die Unterschiede zwischen Gipfeln und Tälern deutlicher sind als in warmen Jahren, wo andere Faktoren (Wasser, Nährstoffe und CO2– Gehalt) limitierend wirken.

Anders ausgedrückt: Mit steigenden Temperaturen werden die Unterschiede zwischen Berg- und Tiefland geringer. das ist auch der Grund dafür, warum der Vegetationsrückstand höherer Regionen im Laufe des Sommers teilweise aufgeholt wird (im Norden ist das gleiche zu beobachten). Insgesamt lässt sich sagen,dass 1,5K Temperaturerhöhung zumindest im Tiefland nur ausreichen, um die Vegetation um etwa 2 Wochen zu verfrühen; in Hochlagen sind bei gleicher Temperaturerhöhung durchaus gut 3 Wochen denkbar. Die größten räumlich-zeitlichen Vegetationsunterschiede weisen die phänologischen Phasen Vor- und Erstfrühling auf; weil die Temperaturvariabilität der Wintermonate viel größer ist, als in der warmen Jahreszeit. Am größten sind die Variabilitäts-Unterschiede zwischen Februar und August; was (meist, außer in fast durchgängig zu warmen oder zu kalten Jahren) den weitgehenden Abbau von Verfrühungen oder Verspätungen des Vegetationsverlaufs gewährleistet:

Viel geringere Temperaturvariabilität im August als im Februar (jeweils DWD-Flächenmittel 1988 bis 2020, August-Werte zur besseren Darstellung in einer Grafik um 12 Grad abgesenkt; Schwankungsbreite und Trend ändern sich dadurch nicht).

Dieser „Nivellierungseffekt“ zeigt sich aber schon deutlich im Frühling; denn auch hier nimmt im Verlauf die Standardabweichung von 2,55 im Februar auf 1,78 im März, 1,52 im April und 1,42 im Mai (Jeweils DWD-Mittel 1988 bis 2020) ab. Am Beispiel von Weimar ergeben sich daraus folgende Vegetationsverläufe:

„Glättung“ der Vegetationsverläufe in Weimar: Die von Jahr zu Jahr erheblichen Schwankungen der Eintrittstermine des Erstfrühlings (grün) nivellieren sich im Jahresverlauf; bei Vollfrühling und Frühsommer sind sie deutlich geringer. Die mit dem Frühlingsende (Frühsommerbeginn, blau) erreichte geringe Schwankungsbreite verändert sich dann im weiteren Jahresverlauf nur noch wenig. Enorm variabel (hier nicht gezeigt), ist der Vorfrühling (Beginn der Haselblüte), welcher von 1990 bis 2020 in Weimar eine Streuung von 26,6 aufwies.

In der freien Fläche, weitab von allen Wärmeinseln wie an diesem See auf 460 m Höhe im Ostalbkreis, macht auch weiterhin der Mai die Bäume grün wie schon vor 250 Jahren zu Mozarts Zeiten. (Komm lieber Mai und mache die Bäume wieder grün)

Die Aufnahme ist vom 19.Mai 2012, das Frühjahr 2012 war laut DWD sogar „zu warm“. Daran sieht man, dass die propagierte Klimaerwärmung weitgehend nur in den flächenhaften Wärmeinseln stattgefunden hat, wo heute auch die Messstationen stehen. In Ulm (gleiche Meereshöhe wie der See) machte bereits der April die Bäume grün, also knapp vier Wochen früher. Das entspricht einem maximalen Stadt-Land-Temperaturunterschied (UHI-Effekt) von 2 bis 2,5 Grad.

Ergebnisse:

1.) In den naturbelassenen Gebieten Deutschlands macht nach einer inzwischen über 30 Jahre andauernden Abkühlung der Monate Februar und März wieder der Mai die Bäume grün wie vor 50 Jahren und wie 1881, dem Beginn der deutschen Temperaturaufzeichnungen – und wie vor 250 Jahren als die Maienlieder entstanden sind.

2.) Da die Thermometer in den Messstationen der Wärmeinseln stehen, dort aber der Temperaturrückgang durch Wärmequellen wie Heizungen oder Verkehr verzögert wird und die Menschen alle in diesen Wärmeinseln leben, wird dieser viel stärkere Temperaturrückgang der Vorfrühlingsmonate in der unberührten Natur nicht wahrgenommen. Die Pflanzenentwicklung gibt uns eindeutige Hinweise auf die wärmeren Bedingungen in unseren Städten, denn sie verfrüht sich gegenüber dem Umland gleicher Höhenlage nach Angaben um etwa 2 Wochen. Allerdings ist das Umland auch bereits stadtgeprägt, also nicht vollständig wärmeinselfrei. In der wirklichen freien Fläche kommt dann meist nochmals dieselbe Verzögerung hinzu.

3.) Die nicht informierten und tendenziösen Mainstream-Medien warnen vor einer permanent sich fortsetzenden Klimaerwärmung infolge steigender CO2-Konzentrationen. Sie verkennen, dass der Anstieg der Temperatur-Trendlinie hauptsächlich bei Wetterstationen ermittelt wird, die in den wachsenden Wärmeinseln stehen und den menschenerzeugten Wärmeinseleffekt mitmessen. Nicht CO2 erhöht die Temperaturen der Messstationen, sondern der vom Menschen verursachte WI-Effekt.

4.) Die Natur verursacht starke Vegetationsschwankungen, gleicht diese aber meist wieder mehr oder weniger aus. Auch vor einer Klimaerwärmung müssen wir keine Angst haben, denn die belebte Umwelt (Mikroben, Flora, Pilze und Fauna) passen sich aufgrund ihrer genetischen Variabilität an; reicht das nicht aus, nehmen neue Arten ihre Stelle ein. Klimawandel gibt es, seit die Erde eine Lufthülle hat – ohne ihn gäbe es keine Evolution und keinen Artenreichtum; Riesen-Libellen und Farnwälder (Karbon), Dinosaurier (Erdmittelalter) oder die artenreichen Kältesteppen der Kaltzeiten (Mammuts, Moschusochsen), beweisen die Anpassungs- und Wandlungsfähigkeit des Lebens. Wir Menschen müssen uns ebenfalls dem jeweiligen Klima anpassen – oder eben aussterben, denn außerhalb unserer selbstgeschaffenen Wärmeinseln ist unser Einfluss zu gering, um das Klima nach unseren Wünschen zu verändern.

5.) Es wird Zeit, dass endlich Natur- und Umweltschutz in den Blickpunkt des politischen Handelns gestellt werden und nicht der Phantasiebegriff „Klimaschutz“. Eine CO2-Einsparung ändert nichts oder fast nichts an den Temperaturen. In der freien Fläche außerhalb der Wärmeinseln zeigen die ersten drei Monate eine deutliche Abkühlung seit über 30 Jahren.

 




Corona–Vorbild Schweden

Dem gegenüber liegen in Deutschland die Todeszahlen nach 5 Monaten Lockdown im dreistelligen Bereich. Am 1. April gab es hierzulande im gleitenden Wochenschnitt 162 Todesfälle Drei Tage vorher waren es 171. Damit wies das im Vergleich zu Schweden bei der Bevölkerung 8-mal größere Deutschland 20 mal so viele Sterbefälle auf. Hiermit ist der Beweis erbracht, dass der liberale schwedische „Sonderweg“ dem deutschen ( und europäischen ) Regelmodell einer autoritär-represssiven Corona-Abwehr meilenweit überlegen ist.

Gleichwohl ist der starke und kontinuierliche Abwärtstrend bei den Todeszahlen auch in Deutschland durchaus beeindruckend. Anfang Januar lag die tägliche Todeszahl im gleitenden Wochenschnitt noch bei über 900. Gemessen an den Todeszahlen kann von einer dramatischen Verschärfung des epidemischen Geschehens hierzulande keine Rede sein. Das Gegenteil ist der Fall. Um so unverständlicher sind die Verlängerung und Verschärfung des Lockdowns durch die Ministerpräsidentenkonferenz (MPK) am 22. März. Diese regelmäßig statt findende Konferenz von Merkel und den Länder-MP erweist sich damit ein weiteres Mal als das Treffen der regierungsamtlichen Corona-Dilettanten.

Grob betrachtet sah der Beschluss vom 22. März folgendes vor:

  1. Die schon beschlossenen und die neu beschlossenen Restriktionen gelten bis zum 18. April.

  2. Für die Osterzeit vom 1. – 5. April wird eine bisher nicht da gewesene Verschärfung des Lockdowns angeordnet. Gründonnerstag und Ostersamstag werden zu „Ruhetagen“ erklärt.

3. Die in den Corona-VO der Länder vorgesehene und bei einer Inzidenz von über 100

eingreifende „Notbremse“ ermöglicht die Rücknahme vorhergehender Lockerungen

und neue Restriktionen wie z. B. die Anordnung von Ausgangsbeschränkungen.

In einer spektakulären Aktion sah sich die Kanzlerin zwei Tage später gezwungen, die Regelung für die an Ostern vorgesehenen zwei „Ruhetage“ als undurchführbar zurück zunehmen. Für diesen Fehler entschuldigte sie sich. Derartige Fehler sind freilich Peanuts im Vergleich zu ihren anderen, viel fundamentaleren Fehlern.

Die hierzulande seit Wochen drastisch sinkenden Todeszahlen blieben während der ganzen Zeit gänzlich unerwähnt. So auch während Merkels langem Propaganda-Interview mit der regierungsaffinen Anne Will am 28. März. Vor kurzem noch hatte Merkel in der Haushaltsdebatte ihre Anteilnahme so ausgedrückt: „590 Tote! Das tut mir so leid“. Das jetzige Desinteresse an der günstigen Entwicklung der Todeszahlen erweist ihren damaligen Ausruf als bloße Show-Einlage.

Schlimmer noch: Mehrfach behauptete sie ( auch noch bei Anne Will ), dass die mutierte englische Virusvariante tödlicher sei als das ursprüngliche Virus. Mir ist keine seriöse wissenschaftliche (begutachtete) Studie bekannt, die zu diesem Ergebnis kommt. Bekannt sind mir aber dahin gehende öffentliche Äußerungen von Vertretern der Hardliner-Wissenschaftsfraktion wie Karl Lauterbach, des vor kurzem zum Prof. mutierten SPD-Bundestagsabgeordneten, oder des Hamburger Intensivmediziners Prof. Kluge. Diese Behauptungen stehen in klarem Widerspruch zur Entwicklung der Todeszahlen in Deutschland und Schweden, die dramatisch zurück gegangen sind gerade in den letzten Wochen, in denen die englische Variante sich angeblich massenhaft ausgebreitet hat. Die evidente Tatsache massiv sinkender Todeszahlen dementiert nicht nur die Behauptung eines gefährlicheren Virus, sondern auch das ebenfalls von interessierten Kreisen vorgebrachte Szenario sich bedrohlich füllender Intensivstationen. Wenn die Todeszahlen drastisch zurück gehen, können die Intensivstationen sich nicht füllen.

Im Gegensatz zu den Todeszahlen ergibt sich bei den Zahlen der täglichen „Neuinfektionen“, die im Englischen „Daily New Cases“ genannt werden, ein auf den oberflächlichen Blick anderes, für Deutschland vorteilhafteres Bild. Diese Zahl betrug z.B. am 1. April in Deutschland im gleitenden Wochenschnitt 17430 Fälle und in Schweden 4745 Fälle. Schweden mit einem Achtel der deutschen Bevölkerung erreicht also mehr als ein Viertel der deutschen Fallzahlen .

Die bessere deutsche Performance bei den Fallzahlen ist aber vollkommen unbeachtlich. Beachtlich sind neben den schweren Erkrankungen die Todeszahlen. Die Aussagekraft der Fallzahlen leidet an drei zentralen Schwächen. Erstens zeigen sie nicht die tatsächlichen Neuinfektionen an, sondern allein die positiven Testungen. Wegen der bekannten Unzuverlässigkeit des für die klinische Diagnose nicht zugelassenen PCR-Tests, vor allem wegen der vielen „falsch-positiven“ Testungen, kann die Differenz groß sein.

Zum andern sind die Fallzahlen in systematischer Weise abhängig von der Zahl der Testungen, die in Deutschland in letzter Zeit aufgrund der Inflation der Schnelltests stark angestiegen sind. Laut RKI haben die Testungen von Mitte Februar bis zum 23. März um 30 % zugenommen. Daher sollten sie immer auf 100 000 Testungen ( und nicht auf 100 000 Einwohner wie bei der Feststellung des sog. Inzidenzwerts ) bezogen werden. Geht man so vor, schrumpft das angebliche exponentielle Wachstum der Fallzahlen auf ein ganz moderates Wachstum. Daher hatten wir hierzulande in der Vergangenheit weder eine bedrohliche „erste“ noch eine „zweite“ Welle. Noch haben wir gegenwärtig eine „dritte“ Welle.

Diesen Zusammenhang habe ich in zwei früheren Artikeln unter Übernahme der Kurven der „Corona Initiative Deutscher Mittelstand“ näher dargelegt ( Nahamowitz 2020 a, b ). Durch die Ausweitung der Testungen werden die Dunkelziffer, die ungefähr 10 mal größer sein dürfte als die gemessene Fallzahl, stärker ausgeleuchtet und bisher nicht erkannte Infektionen erfasst. Damit ist aber keine reale Verschärfung des Infektionsgeschehens verbunden. Eine solche erhielte man erst, wenn die absoluten Fallzahlen, auf 100.00 Testungen bezogen, auch zunähmen. Wendet man diese Grundsätze an, zeigt gegenwärtig in Deutschland nur die „Panikkurve“ eine starke Zunahme, viel weniger aber die „Realkurve“ (vgl. Nahamowitz 2020 a, b ).

Entgegen früheren Bekundungen des RKI und auch des Bundesgesundheitsministers weist nun der Vizechef des RKI Schaade einen Zusammenhang zwischen der Zunahme der Tests und dem Anstieg der Fallzahlen zurück: „ Dieser Anstieg der Fallzahlen ist real. Nach unseren Daten lässt er sich nicht damit erklären, dass mehr Schnelltests gemacht werden“( Handelsblatt vom 22. März 2021 ). Das Wissen um den Zusammenhang zwischen dem Anstieg der Tests und dem der Fallzahlen gehört zu den „basics“ der Epidemiologie ( vgl. z.B. Reiss, Bhakdi 2020, 24 ). Erst die Bezugnahme auf 100.000 Tests ( statt auf 100.000 Einwohner ) lässt erkennen, welche Zunahme der Fallzahlen real ist.

In Deutschland hat sich die monomane Fixierung auf die absoluten Fallzahlen gesetzlich nieder geschlagen in Absatz 3 des neu in das InfSchG eingefügten,, ellenlangen § 29 a. Dort sind die Inzidenzwerte 35 und 50 als „Schwellenwerte“ bestimmt, bei deren Überschreiten bestimmte „Schutzmaßnahmen“ zur Eindämmung des Infektionsgeschehens zu ergreifen sind. Es sind zwar bei der Entscheidung auch „soziale, gesellschaftliche und wirtschaftliche Auswirkungen auf den Einzelnen“ zu berücksichtigen, aber nur „ soweit dies mit dem Ziel einer wirksamen Verhinderung der Verbreitung der Coronavirus-Krankheit-2019… vereinbar ist“. Die gesellschaftlichen Auswirkungen haben damit nur nachrangige Bedeutung, immerhin kann die Berufung auf sie gegenwärtig das Offenhalten von Schulen und Kitas rechtfertigen.

Der Dilettantismus des Gesetzgebers zeigt sich daran, dass er die Inzidenzwerte 35 und 50 allein auf 100.00 Einwohner bezieht. Er unterlässt es, als Korrektiv die Bezugnahme auf 100.000 Testungen vorzusehen. Dadurch kann erreicht werden, dass das Anwachsen der Fallzahlen auch wirklich das reale Infektionsgeschehen widerspiegelt und sich nicht als reine Laborpandemie darstellt.

Ich halte die gegenwärtige Fassung des § 29 a für verfassungswidrig, da sie aufgrund irreal überhöhter Fallzahlen eine Erforderlichkeit von Schutzmaßnahmen anzeigt, die real nicht gegeben ist. Das ist relevant bei der Anwendung des Verhältnismäßigkeitsgrundsatzes, der entscheidend für die Bestimmung der Verfassungsmäßigkeit von Freiheitsbeschränkungen ist und dessen wesentliches Element die Erforderlichkeit der Beschränkung ist.

Auch wäre es angebracht gewesen, die Todeszahlen als weiteren Maßstab für das Ergreifen von Schutzmaßnahmen in das Gesetz aufzunehmen. Dadurch könnten widersinnige Situationen vermieden werden, in denen wie aktuell trotz drastisch sinkender Sterbefälle der Ruf nach einem verschärften Lockdown immer lauter wird.

Schließlich erscheinen die Grenzwerte 35 50 auch ganz allgemein als zu streng – gerade angesichts neuerer infektiöserer Virusvarianten.

Die dritte Schwäche der Aussagekraft der Fallzahlen besteht darin, dass sie keine determinierende Wirkung auf die Entwicklung der Todeszahlen haben, Und zwar weder in Schweden, noch in Deutschland.

Man erkennt, dass in Schweden die Kurve der täglichen Fallzahlen ab Anfang Februar wieder deutlich ansteigt, die Kurve der Todeszahlen aber, wie oben gezeigt, im selben Zeitraum ebenso deutlich weiter sinkt.

Dieselbe Entwicklung zeigt sich auch in Deutschland, wenn auch nicht so ausgeprägt.

In Deutschland verdoppeln sich die täglichen Fallzahlen seit Mitte Februar, die täglichen Todeszahlen aber sinken kontinuierlich weiter bis unter 200 Todesfälle (s.o.). Die von Merkel (und anderen) ausgesprochene Warnung: „Die Lage ist sehr, sehr ernst“ ignoriert diese günstige Entwicklung.

Die Beispiele Schweden und Deutschland zeigen, dass der monomane Kampf der Politiker gegen die absoluten Fallzahlen, der sich ja mit Ausnahme Schwedens europaweit abspielt, nicht damit gerechtfertigt werden kann, dass er zur Senkung der Todeszahlen notwendig sei. Die Entwicklung der Todeszahlen hat sich seit Monaten deutlich von den Fallzahlen abgekoppelt.

Diese Evidenz möchte die orthodoxe Hardliner-Fraktion der Virologen um Drosten, Wieler, Meyer-Hermann, Brinkmann Lauterbach u.a. nicht wahrhaben. Unverdrossen behauptete Melanie Brinkmann noch kürzlich (am 1.April bei „Markus Lanz“,), dass steigende Fallzahlen nach 3 – 4 Wochen zu einer immer stärkeren Beanspruchung der Intensivstationen führten. Es widerspricht aber medizinischer Logik, eine solche Entwicklung bei längerfristig drastisch sinkenden Todeszahlen zu unterstellen.

Die quantitativ messbare deutlich bessere Performance Schwedens gegenüber Deutschland bei den Sterbezahlen ist nicht der der einzige Nachteil unseres Landes. Ein eher allgemeiner, aber immer deutlicher werdender Nachteil Deutschlands ist die Unfähigkeit, vom Lockdown-Modus los zu kommen. Das Lockdown-.freie, Schweden kennt naturgemäß diese Zwangslage nicht.

Den deutschen Hoffnungen auf vermehrtes Impfen und – als „Brückenstrategie“ – vermehrtes Testen stehen massive Widerstände entgegen, von denen in der deutschen öffentlichen Diskussion nur unzureichend die Rede ist Auf die kontraproduktiven Folgen vermehrten Testens ist oben hingewiesen worden. Durch die Veranlassung zu vermehrten Testungen erzeugt die Politik selbst die Zunahme der absoluten Fallzahlen, die sie anschließend mit restriktiven Maßnahmen glaubt, bekämpfen zu müssen.

Nachdem damit der Hype um die Losung „Testen, Testen, Testen“ zum Scheitern verurteilt ist, gilt seit Neuestem dasselbe für den noch stärkeren Hype „Impfen, Impfen, Impfen“ . Die Hoffnungen auf ausreichendes Impfen in Deutschland dürften vergeblich sein nach dem Verbot der Anwendung des Impfstoffes AstraZeneka bei unter 60-Jährigen, erfolgt am 30. März. Die deutsche Impfbereitschaft, ohnehin die geringste in Europa, dürfte weiter zurück gehen. Der Schwund wird sich tendenziell auch auf die anderen Impfstoffe ( MRNA ) ausweiten. Dies gilt um so mehr, wenn sich die Warnungen kompetenter Kritiker wie Sucharit Bhakdis auch vor den MRNA-Impfstoffen bewahrheiten. Die für Herden-Immunität erforderliche Durchimpfung von 60 – 70 % der Bevölkerung dürfte in Deutschland nicht erreichbar sein. Damit entfällt die letzte Krücke einer unfähigen deutschen Corona-Schutzpolitik.

Hinzuweisen ist freilich noch auf die Mutationen des Virus als mögliches weiteres Hindernis für die Realisierung der deutschen Blütenträume. „Wir leben in einer neuen Pandemie“ lautete einer der Kernsätze in Merkels Regierungserklärung vom 25. März. Dass daraus die Unwirksamkeit der gerade amtlich zugelassenen Impfstoffe folgen könnte, hat die nahezu durchgängig in Corona-Fragen desorientierte Kanzlerin offensichtlich nicht bedacht. Schon machen im Internet Meldungen die Runde, dass Hunderte mit BioNTech / Pfizer Geimpfte positiv getestet wurden.

Träten die Unwirksamkeit der Impfstoffe bzw. das Verfehlen der Herden-Immunität aufgrund unzureichender Impfbereitschaft der Bevölkerun ein, dürfte sich das Corona-Drama zumindest bis zur Bundestagswahl Ende September hinziehen. Das würde wahrscheinlich zu einer dramatischen Wahlniederlage der Union und zu einer nie da gewesenen Kanzlerinnen-Dämmerung führen.

Die (vorübergehende ) Rettung für die Union und die Kanzlerin könnte dann am ehesten die traditionelle Saisonalität des Corona-Virus ( Reiss, Bhakdi 2020, 68 ) bringen: sein gewöhnlicher Rückzug aus dem Infektionsgeschehen ab dem Monat Mai ( ebd. , 72 ) Dies hätte den überaus angenehmen Effekt, dass die Fallzahlen sehr rasch sänken bzw. ganz verschwänden. den die Union dann auch noch ihrer Politik zu gute schreiben könnte. Kehrt das Virus freilich rechtzeitig vor der Bundestagswahl zurück, wird es nichts aus der Rettung und wird die politische Finsternis sich über die Union und ihre Permanent-Kanzlerin senken.

Ganz abgesehen von den eben aufgeführten Einflussfaktoren könnte möglicherweise die Merkel-Dämmerung bereits eingeleitet werden, wenn es gelänge, den Bannfluch der deutschen Leitmedien über die hervorragende Sterbe-Performance Schwedens als einzigen europäischen Landes ohne Lockdown zu durchbrechen. Dann würde publik werden, wie von Beginn an überflüssig die in jeder Hinsicht ungeheuer teure deutsche Corona-Schutzpolitik war. Meine Versuche, meine Zahlen bei der „NZZ“, der „Welt“und bei „Markus Lanz“ unterzubringen, sind freilich gescheitert.

Nachtrag : Der neue Lockdown in Frankreich

Am 1. April verkündete Präsident Macron für Frankreich einen neuen landesweiten Lockdown für 4 Wochen, nachdem er sich zuvor wochenlang gegen einen derartigen Vorschlag seiner Berater gewehrt hatte. Die orthodoxe Virologengruppe, die in ganz Europa die Politikberatung beherrscht, hat in den meisten epidemiologischen Problemlagen immer nur den Lockdown als Lösung parat.

Das ist schon verwunderlich, ist in der von vier angelsächsischen Hochschullehrern initiierten „Great Barrington Declaration“ doch auf Weltebene bereits im letzten Oktober als alternative Strategie das Konzept der „Focused Protection“ von tausenden Wissenschaftlern, zehntausenden Ärzten und hunderttausenden Bürgern vorgeschlagen worden. Das Konzept beinhaltet kurz gesagt „Freiheit für die große Mehrheit“ bei „verstärktem und gezieltem Schutz für die vulnerablen Gruppen der Bevölkerung“. In Deutschland hat vor kurzem Ähnliches eine Gruppe um den Bonner Virologen Hendrik Streeck gefordert.

In Frankreich sind laut worldometer die Fallzahlen im gleitenden Wochenschnitt von gut 10 000 Anfang Dezember vorigen Jahres auf fast 40 000 Anfang April diesen Jahres gestiegen – ein großer Sprung.

Im genannten Zeitraum zeigen hingegen die Sterbezahlen eine stagnierende bis leicht fallende Tendenz.

Wie in Schweden und Deutschland hat sich auch in Frankreich die Dynamik der Todeszahlen abgekoppelt von den Fallzahlen, und zwar für fünf Monate – ein sehr nachhaltiger Trend. Allerdings ist die Abkopplung nicht so deutlich wie in Schweden und auch Deutschland. Immerhin kann ebenfalls Frankreich die Behauptung der orthodoxen Virologen nicht bestätigen, dass mit einer Verzögerung von 3 – 4 Wochen die Todeszahlen dem Trend der Fallzahlen folgen. Auch die weitere Behauptung dieser Virologengruppe, dass das mutierte Virus gefährlicher sei als das ursprüngliche, kann die Empirie nicht bestätigen.

Den orthodoxen Virologen sei empfohlen, künftig ihre zentralen Thesen nach wissenschaftlichen Standards empirisch abzusichern. Man kann den Eindruck gewinnen, dass ihnen sogar globale Informationskanäle wie worldometer unbekannt sind.

Quellen :

Nahamowitz, Peter 2020 a : Drei prägnante Kurven, die den aktuellen Corona– Alarmismus ad absurdum führen, EIKE–Publikation vom 8. 9.

Nahamowitz, Peter 2020 b : Corona–Panik, die dritte: Zentrale Gründe für die Verfassungswidrigkeit des Teil–Lockdown vom 28. Oktober 2020, EIKE – Publikation vom 25. 11.

Reiss, Karina, Bhakdi, Sucharit 2020 : Corona Fehlalarm ? , Berlin.

Zum Autor :

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz-Universität Hannover. Er ist seit 2007 im Ruhestand.