1

Eingefrorene Windkraftanlagen lösen Stromausfälle in Texas aus

Quellenangabe gemäß Nutzungsbedingungen:  „Laut PowerOutage.us gab es am 15.02.2021 in der Grafik gezeigte Stromausfälle und Reduzierungen.“

(Reuters) – Im US-Bundesstaat Texas wurden am frühen Montag Stromabschaltungen vorgenommen, um die Nachfrage nach dem elektrischen Strom bei eisigen Stürmen zu verringern, teilte der staatliche Netzbetreiber Electric Reliability Council of Texas (ERCOT) in einem Tweet mit.

Der Betreiber gab am Montag einen Energie-Notfallalarm der Stufe drei aus und forderte die Verbraucher auf, den Stromverbrauch zu senken.

„Ampeln und andere Infrastrukturen sind möglicherweise vorübergehend ohne Strom. …Wir fordern die Texaner dringend auf, in dieser Zeit die Sicherheit an erster Stelle zu stellen.“

Eisstürme haben am Sonntag fast die Hälfte der Windkraftkapazität von Texas ausgeknockt, als ein selten tiefe Temperaturen und Eisregen im gesamten Bundesstaat Windkraftanlagen blockierten und gleichzeitig den Strombedarf auf Rekordniveau brachte, berichtete ERCOT am Sonntag.

Laut einer Sprecherin von ERCORT waren von den mehr als 25.000 Megawatt Windkraftkapazität, die in Texas installiert sind, am Sonntagmorgen aufgrund des Sturms rund 12.000 Megawatt außer Betrieb.

Quelle der Meldung in Kdal610 News

 

Eingefrorene Windkraftanlagen behindern die verfügbare Energiekapazität in Texas, sagt der Netzbetreiber. Fast die Hälfte der installierten Windkraftkapazität war in West-Texas offline.

Die Windparks im ganzen Bundesstaat haben zusammen bis zu 25.100 Megawatt an Kapazität. Aber ungewöhnlich feuchte Winterbedingungen in West-Texas, die durch den Eisregen am Wochenende  und die historisch niedrigen Temperaturen verursacht wurden,  haben viele dieser Windkraftanlagen zum Stillstand gebracht.

Ab Sonntagmorgen waren 12.000 Megawatt der in Texas installierten Winderzeugungskapazität nicht verfügbar, obwohl diese West-Texas-Turbinen zu dieser Jahreszeit normalerweise ihre volle Erzeugungskapazität erreichen.

„Dies ist ein einzigartiger Wintersturm,  großflächig und mit viel Feuchtigkeit über West-Texas, wo es oft nicht viel Feuchtigkeit gibt, sagte Dan Woodfin, Senior Director of System Operations beim Electric Reliability Council von Texas. „Es ist sicherlich heftiger als das, was wir normalerweise annehmen würden.“

Quelle der Meldung im Austin American Statesman

Auf der Webseite von Austin Energy gibt es auch Tipps zum Energie sparen

 

https://www.thegwpf.com/dark-future-frozen-wind-turbines-trigger-texas-blackouts/

Übersetzt und zusammengestellt von Andreeas Demmig




Klima-„Wissenschaft“ in der Krise – Die großen Klima-Irrtümer der letzten 50 Jahre

1972  Das Ende der Zivilisation vor dem Jahr 2000

            verkündete der „Club of Rome“ in seinem pseudowissenschaftlichen Bericht „Limits of  Growth“ wegen Erschöpfung der Ressourcen und  Nahrungsmangel

 

1975  Eine neue Eiszeit beginnt

            verkündigten die Medien weil die Globaltemperatur zwischen 1940 und 1975 um 0,3°C  (!!) abgesunken war – und das trotz CO2-Anstieg !  Stattdessen folgte  ein Temperatur-Anstieg ( aus dem sofort eine kommende „Überhitzung“ der Erde gemacht wurde)

 

1981  Der Wald stirbt in Deutschland bis zum Jahr 2000                                        

           Tatsächlich geht es an vielen Orten dem Wald  heute  besser  als  damals,  manchen auch schlechter.  Aber keine  Baumart, kein Wald ist verschwunden, im Gegenteil, es gibt heute in Deutschland mehr Wald als vorher.

 

1983  IPCC-Klimamodelle verkünden globalen Temperaturanstieg bis 2018 um + 0.8°C.

         Der reale Anstieg betrug 0,3°, d.h. die. Modelle zeigen ein um 265 % zu hohes, falsches Ergebnis.

 

1986  Große Hungersnot zu erwarten

Der Wissenschaftsberater von US-Präsident Barack  Obama, John Holdren, sagte 1986 vorher, dass 2020 eine Milliarde Menschen aufgrund von Hungersnöten wegen des Klimawandels sterben  würden. Tatsächlich ging die Zahl hungernder Menschen deutlich zurück, obwohl die Weltbevölkerung sich erheblich vergrößert hat.

 

1987 Starker Temperaturanstieg bis 2007

innerhalb von 15 bis 20 Jahren wird die Erde wärmer sein als in den letzten 100.000 Jahren“, sagte James  Hansen vom NASA-GISS. Laut dem Star- Phoenix prophezeite sein Modell, dass „wir   bis zum Jahr  2020 einen durchschnittlichen Temperaturanstieg  von etwa drei Grad [Celsius] erleben werden“.  (tatsächlich: +0,4°C)

 

1989  Zusammenbruch von Staaten

Ein Direktor des Umweltprogramms der Vereinten Nationen mahnte 1989, „ganze Nationen könnten im Jahr 2000 ausradiert sein durch den Anstieg des Meeresspiegels“. Die Welt hätte „noch ein Fenster von zehn Jahren“, um das Klimaproblem zu lösen. Danach würde es außer Kontrolle geraten.

 

2000  Kein Schnee mehr !

„Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr  geben, sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie…

Immer mehr Schnee? Bild: © Chris Frey

Und Dr.David Viner (CRU) „Unsere Kinder werden nicht mehr wissen, was Schnee ist“

Stattdessen: bis 2020 keine Abnahme der Winter-Niederschläge und der Schneetage in Deutschland.  Aber 2018 Schnee in der Algerischen Sahara,  Jan.2021 Rekordschneefälle in Spanien und Österreich

 

2005 Klimaflüchtlinge

Das UN-Umweltprogramm sagt für 2010  50 Millionen „Klimaflüchtlinge“ voraus. Real 2020: Keine identifizierbare Anzahl.

 

2007  Weltweiter Trinkwasser-Mangel

Bis 2020 würden 75 Millionen bis 250 Millionen Menschen wegen des Klimawandels unter Zugang zu Trinkwasser leiden, sagte der IPCC 2007 in seinem vierten Bericht vorher. Medien hatten die  Warnung sogar auf Deutschland bezogen. „Nach Aussagen der UN wird Deutschland bis 2020 zu den wasserkritischen Regionen der Welt gehören“, zitierte eine ZDF-Sendung von 2007.

Tatsächlich haben immer mehr Menschen Zugang zu Trinkwasser, obwohl sich die Weltbevölkerung rapide vergrößert hat, was zusammen mit dem Klimawandel  Konflikte ums Wasser den Prognosen zufolge eigentlich hätte verschärft haben sollen.

 

2006  Eisbär-Alarm: die Eisbären werden aussterben wegen Eisrückgang in der Arktis

           „Die globalen Eisbärenbestände werden  in den kommenden 35 bis 40 Jahren um mehr als 30 Prozent schrumpfen”, erklärte die IUCN.

Muss der Eisbär bald auf Bananen ausweichen wie diese Zeichentrick-Figur? Ausschnitt aus einem Bild von Dieter Schütz  / pixelio.de

Stattdessen  2020: Die Eisbär-Population erreicht eine  neue  Rekordzahl von 23 000-33 000 Tieren.

(Eisbären haben selbst die wärmsten Episoden der letzten 600.000 oder länger von Jahren überstanden, z.B. Warmzeit (Günz -Mindel) -540 000 – 480 000 , die Warmzeit (Mindel-Riss) -430 000 – 240 000; Warmzeit (Riss-Würm)Warmzeit (Riss-Würm))

2006: Insel-Untergang im Pazifik

Speziell die Malediven und Tuvalu 

Regelmäßig wurde in den Medien über den bevorstehenden Untergang der Pazifik-Inseln durch den Meeresspiegel-Anstieg berichtet.

Kabinettssitzung Unterwasser; Bild presseabteilung regierung der malediven

Der amerikanische Politiker und Klima-Orakel Al Gore verkündete 2006, dass alle Einwohner  von Tuvalu nach Neuseeland evakuiert werden müssten, um ihren Untergang zu verhindern. Tatsächlich zeigt eine Studie der Universität von Auckland von 2018,  dass die Insel um zwischen 1970 bis 2017 um über 700 qm gewachsen ist.,                 

Eine neue Studie zu den Malediven (Duvat 2020) stellt  fest, dass  110 der 186 Inseln  im Zeitraum 2005 bis 2016 rapide an Fläche zugelegt haben. Lediglich fünf Inseln – 2,7% –   sind während dieses Zeitraumes kleiner geworden.

 

2014  Die „Versauerung der Ozeane“ wurde erfunden

basierend auf einer willkürlichen Auswahl von Messdaten. Eine Nachprüfung der Daten zeigte einen konstanten Trend über die letzten 100 Jahre mit ph-Werten zwischen 7,9 und 8,2 (Versauerung beginnt  unterhalb von ph = 7,0)

*)“Es ist nicht zu bestreiten, dass es auch in der Wissenschaft – häufiger als uns Wissenschaftlern lieb ist – Lug und Trug gibt, nicht nur fahrlässige Schlamperei, sondern wirklich absichtsvollen Betrug.“

Dr. Hubert Markl, ehem. Präsident der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.




Bidens Klima-‚Fix‘ kostet Phantastillionen und ist absolut sinnlos

Überall auf der Welt geben sich Politiker die größte Mühe, eine fantastisch teure Klimapolitik zu versprechen. Präsident Biden hat versprochen, Jedes Jahr 500 Milliarden Dollar für das Klima auszugeben – etwa 13 Prozent der gesamten Bundeseinnahmen. Die Europäische Union wird 25 Prozent ihres Budgets für das Klima ausgeben.

Die meisten reichen Länder versprechen nun, bis zur Mitte des Jahrhunderts Kohlenstoff-neutral zu werden. Schockierenderweise hat nur ein Land eine seriöse, unabhängige Schätzung der Kosten vorgenommen: Neuseeland fand heraus, dass es bis dahin optimistischerweise 16 Prozent seines BIP kosten würde, was dem gesamten aktuellen neuseeländischen Haushalt entspricht.

Die entsprechenden Kosten für die USA und die EU würden sich auf mehr als 5 Billionen Dollar belaufen. Und das jedes Jahr! Das ist mehr als der gesamte US-Bundeshaushalt, oder mehr als die EU-Regierungen über alle Budgets für Bildung, Freizeit, Wohnen, Umwelt, Wirtschaft, Polizei, Gerichte, Verteidigung und Gesundheit zusammen ausgeben.

Bezeichnenderweise hat der Vizepräsident der Europäischen Kommission Frans Timmermans kürzlich zugegeben, dass die Klimapolitik so kostspielig wäre, dass es ohne riesige, schützende Grenzsteuern eine „Frage des Überlebens für unsere Industrie“ wäre.

Der Klimawandel ist ein reales, vom Menschen verursachtes Problem [?]. Aber seine Auswirkungen sind viel geringer, als die atemlose Klimaberichterstattung vermuten lässt. Das IPCC kommt zu dem Schluss, dass falls wir nichts unternehmen, die Gesamtauswirkungen des Klimas in den 2070er Jahren einer Einkommensreduzierung von 0,2 bis 2 Prozent entsprechen werden. Da bis dahin jeder Mensch voraussichtlich 363 Prozent so reich sein wird wie heute, bedeutet der Klimawandel, dass wir „nur“ 356 Prozent so reich sein werden. Das ist nicht das Ende der Welt.

Die Klimapolitik könnte am Ende viel mehr schaden, indem sie das Wachstum dramatisch reduziert. Für reiche Länder bedeutet geringeres Wachstum ein höheres Risiko für Proteste und politischen Zusammenbruch. Das ist nicht überraschend. Falls man in einer aufstrebenden Wirtschaft lebt, weiß man, dass es allen in den kommenden Jahren viel besser gehen wird. Daher ist man nachsichtiger gegenüber der Gegenwart.

Falls das Wachstum nahezu ausbleibt, wird die Welt zu einem Nullsummenspiel. Bessere Bedingungen für andere bedeuten wahrscheinlich schlechtere Bedingungen für Sie, was zu einem Verlust des sozialen Zusammenhalts und des Vertrauens in eine lebenswerte Zukunft führt. Die Proteste der „Gelbwesten“ gegen die Ökosteuern, die Frankreich seit 2018 erschüttern, könnten zu einem festen Bestandteil vieler oder der meisten reichen Gesellschaften werden.

Dennoch konzentrieren sich Politiker zwanghaft auf das Klima. Wachstumskillende „Lösungen“ würden ein paar Akademiker auf sicheren Arbeitsplätzen erfreuen, aber sie würden zu tragischen Ergebnissen von Stagnation, Streit und Unfrieden für die einfachen Menschen führen.

Die meisten Wähler sind nicht bereit, für diese extravagante Klimapolitik zu zahlen. Während Biden vorschlägt, das Äquivalent von 1.500 Dollar pro Amerikaner und Jahr auszugeben, zeigte eine aktuelle Umfrage der Washington Post, dass mehr als die Hälfte der Bevölkerung nicht bereit ist, auch nur 24 Dollar zu zahlen.

Und wofür? Falls alle reichen Länder der Welt ihre Kohlenstoffemissionen morgen und für den Rest des Jahrhunderts auf Null reduzieren würden, würde diese Anstrengung bis zum Jahr 2100 zu einer fast unmerklichen Reduktion der Temperaturen führen.

Das liegt daran, dass mehr als drei Viertel der globalen Emissionen im Rest dieses Jahrhunderts aus Asien, Afrika und Lateinamerika kommen werden. Diese Nationen sind entschlossen, ihre Bevölkerungen aus der Armut zu befreien und eine breite Entwicklung zu gewährleisten, indem sie reichlich Energie nutzen, meist aus billigen fossilen Brennstoffen.

Die letzten 30 Jahre Klimapolitik haben hohe Kosten und steigende Emissionen gebracht. Die einzigen verlässlichen Wege, die Emissionen zu senken, waren Rezessionen und die COVID-19-Sperren, die beide nicht vertretbar sind. Von den Nationen zu erwarten, dass sie aufhören, billige Energie zu nutzen, wird nicht erfolgreich sein. Wir brauchen Innovation.

Nehmen wir die schreckliche Luftverschmutzung in Los Angeles in den 1950er Jahren. Sie wurde nicht behoben, indem man die Menschen naiv aufforderte, nicht mehr Auto zu fahren. Stattdessen wurde sie durch Innovation behoben – der Katalysator erlaubte es den Menschen, weiter zu fahren und trotzdem wenig zu verschmutzen. Wir müssen in die Forschung investieren, um grüne Energie viel billiger zu machen: von besseren Solar- und Windenergieanlagen und Batterien bis hin zu billigerer Kernspaltung, Kernfusion und Kohlenstoffabscheidung.

Wir sollten Dutzende von Milliarden ausgeben, um den Preis für grüne Energie unter den von fossilen Brennstoffen zu bringen. Billionen für enorme und verfrühte Emissionssenkungen auszugeben, ist ein unhaltbarer und ineffektiver Erste-Welt-Ansatz.

Link: https://wattsupwiththat.com/2021/02/14/bidens-climate-fix-is-fantastically-expensive-and-perfectly-useless-bjorn-lomborg/

Übersetzt von Chris Frey EIKE

 




Die winterliche Stromversorgung in Zeiten der Energiewende

Die deutschen Technologien zur Rettung des Klimas, die Windradwälder und die Solarparks, versagen unter den Schneemassen bei Tieftemperaturen nun völlig.

Kaum Energie aus Solaranlagen – Kohlekraftwerke unter Volldampf

.., titelt die Mitteldeutsche Zeitung aus Halle/S.

Schnee bremst in Sachsen die Versorgung mit Erneuerbaren Energien EE aus

.., sekundieren die Kollegen aus dem nahem Leipzig. Die Solarpanneele sind vom weißen Naß verdeckt, und die Rotoren der Windräder müssen bei zu viel Eislast abgeschaltet oder von Hubschraubern aus enteist werden. Da die nächsten 80 Jahre aufgrund der solaren Zyklen deutlich kälter werden (und die Sommer kühler), können wir unsere EE-Wälder sowieso abschreiben (nur nicht finanziell -leider). Und da wir bald auch keine KKW mhr haben werden, können wir glücklich sein, wenn die Franzosen und Polen neue bauen und uns mit Strom versorgen. Aber unsere Nachbarn werden uns bald wohl verfluchen, wenn unser labiles Netz auf dem ganzen Kontinent das Licht ausgehen läßt (siehe 8. Januar 21).

Interessanterweise hat auch die Heimat von Greta Thunberg, das Kernkraftland Schweden, Energiesorgen bei der andauernden Kälte.

Eisige Kälte sorgt für Stromknappheit -„Bitte nicht staubsaugen!“

.., meldet sogar die Tagessschau.

Wie kommt das? Trotz Greta, oder besser: trotz Gretas Vater und seinen PR-Kollegen und Zertifikate-Großverdienern betreibt das Land sichere Kernkraftwerke und spargelt das Land nicht mit Windrädern voll. Der Grund ist: Die Schweden heizen kaum mit CO2-trächtigen Öl- und Gasheizungen, sondern elektrisch mit Strom. Die Thunbergs bestimmt auch; in deren schicker Stockholmer Wohnung wird sicher keiner frieren, wenn niemand guckt. Und deswegen wird sogar der Atom-Strom knapp.

Da fällt nicht nur die Sauberkeit im Haushalt flach, sondern auch die Industrie. Wird der Strom zu teuer, muß ein Papierfabrikant die Maschinen abschalten. Da kommt es im Land der Rentiere zu kuriosen Situationen: Die Schweden kaufen mittlerweile Strom aus Polen und – Deutschland! Im Falle polnischer Energie ist es übrigens Braunkohlestrom; und im südlichen Schonen mußten schon ölbefeuerte Notstrom-Kraftwerke eingeschaltet werden, damit das Netz stabil bleibt.

Aber zum Glück überhitzt die Erdatmosphäre ja; da wird das Problem nächstes Jahr nicht mehr auftreten. Oder, Herr Thunberg?




Klimaschau 15 – die Tagesschau von Sebastian Lüning

Thematisch sortiertes Beitrags-Verzeichnis aller Klimaschau-Ausgaben: http://klimaschau.tv




Unsichtbare Katastrophen und Untergangs-Prophezeiungen

Patrick Moore, einer der Gründer von Greenpeace, verließ die Organisation, als sie aufhörte, sich um die Umwelt zu kümmern und nur noch eine weitere profitorientierte, hart-linke Frontgruppe wurde – in seinen Worten „ein Schläger, der mit Junk-Wissenschaft hausieren geht“. Jetzt hat er das beste Buch über den Klimawandel geschrieben, das ich gelesen habe – und ich habe viele gelesen.

Der Titel „Fake invisible catastrophes and threats of doom“ [siehe oben] ist holprig. Aber das Buch selbst ist in Patricks charakteristischem, sanften, leichtfüßigen Stil geschrieben, so dass der nicht-wissenschaftliche Leser es leicht verstehen kann. Das Buch ist bereits vor der Veröffentlichung auf Amazon erhältlich, und Patrick bekommt schon jetzt begeisterte Kritiken von Lesern. Hier ist eine:

Ich habe gerade eine Kindle-Version gekauft. Ich kann es nicht glauben. Ich bin schon im 3. Kapitel. Es klärt selbst für Nicht-Wissenschaftler wie mich in einem so feinen Detail auf. Ich habe meinen Tennispartner angerufen und das Spiel abgesagt. Ich werde mit dem Buch sitzen, bis es fertig ist, und dann werde ich es noch einmal lesen.“

Die zentrale These desselben ist Folgende:

Vor einiger Zeit dämmerte mir, dass die große Mehrheit der Schauergeschichten über den gegenwärtigen und zukünftigen Zustand des Planeten und der Menschheit als Ganzes auf Themen basieren, die entweder unsichtbar, extrem weit entfernt oder beides sind. Daher hat die große Mehrheit der Menschen keine Möglichkeit, den Wahrheitsgehalt dieser Behauptungen, die diese angeblichen Katastrophen und verheerenden Bedrohungen vorhersagen, selbst zu beobachten und zu überprüfen. Stattdessen müssen sie sich auf die Aktivisten, die Medien, die Politiker und die Wissenschaftler verlassen – die allesamt ein sehr großes finanzielles und/oder politisches Interesse an dem Thema haben – um ihnen die Wahrheit zu sagen. Dies lädt geradezu dazu ein, einfach Narrative zu erfinden, wie zum Beispiel die Behauptung, dass „CO2-Emissionen aus der Verbrennung fossiler Brennstoffe einen Klimanotstand verursachen.“

Niemand kann tatsächlich sehen oder in irgendeiner Weise spüren, was CO2 tatsächlich tun könnte, denn es ist unsichtbar, geruchlos, geschmacklos, geräuschlos und kann nicht ertastet werden. Daher ist es schwierig, solche Behauptungen zu widerlegen, weil es nichts gibt, worauf man zeigen und die Falschheit dieser Behauptungen greifbar machen könnte. Man kann nicht einfach auf sichtbares CO2 zeigen und sagen: „Schaut mal, was für schreckliche Dinge das CO2 dort anrichtet.“ CO2 als schädliche, weltvernichtende Emission ist also ein nahezu perfektes Thema, um eine Weltuntergangsgeschichte zu erfinden und zu propagieren, und diese Tatsache ist denjenigen nicht entgangen, die mit unbelegten Behauptungen hausieren gehen. CO2 ist zum Sündenbock für eine ganzen Katalog negativer Effekte geworden, deren Aufzeichnung und tabellarische Auflistung 118 Bücher erfordern würde. Tatsächlich listet die Website www.goodreads.com 118 Bücher zum Thema Klimawandel, und das beschränkt sich auf Bücher aus dem angelsächsischen Sprachraum.

Wenn man diese „Narrative“ über unsichtbare und weit entlegene Umstände studiert, kommt man nicht umhin zu bemerken, dass sich die Verfechter oft dazu herablassen, sich lächerlich zu machen und zu beschämen und auch keine Bereitschaft zeigen, die Behauptungen in einer zivilisierten Weise zu diskutieren. Es ist praktisch unmöglich, sich auf eine Debatte einzulassen, da sie diejenigen, die ihr Narrativ in Frage stellen, gewöhnlich als Skeptiker, Lügner, Leugner oder als unter einer Decke mit „Big Oil“ steckend abtun. Und falls der angebliche Skeptiker eine Anstellung hat, werden diese Erzähler heimtückisch daran arbeiten, diesen von seinem Lebensunterhalt oder seiner Position entfernen zu lassen. Zusammenfassend lässt sich sagen, dass diese Befürworter globaler Umweltkatastrophen definitiv ein skurriler und unehrlicher Haufen sind. Ein gesunder Skeptizismus ist das Herzstück wissenschaftlicher Forschung, und er hat eine wesentliche Rolle bei der Ermittlung der faktischen, wissenschaftlichen Wahrheit gespielt. Es ist die Pflicht der Wissenschaftler, allen neuen Behauptungen gegenüber skeptisch zu sein, besonders wenn es sich um Vorhersagen von Katastrophen handelt, die noch nicht eingetreten sind.

[Hervorhebung vom Übersetzer]

Fake Invisible Catastrophes spricht in einem einzelnen Absatz zahlreiche dieser Pseudo-Katastrophen an: „Afrikas älteste Affenbrotbäume sterben in einem noch nie dagewesenen Tempo, und der Klimawandel könnte daran schuld sein“ [USA Today], „93% des Great Barrier Reefs sind praktisch tot“ [Huffpost], „Das Great Barrier Reef ist jetzt im Endstadium“ [National Geographic], Eisbären in der Arktis, eine Million Arten, die angeblich vom Aussterben bedroht sind, Müll im Pazifik, gentechnisch veränderte Lebensmittel, Angst vor atomarer Strahlung, Waldbrände, Massensterben von Walrossen und die „Versauerung“ der Ozeane – all das bezeichnegt Patrick als „eine komplette Erfindung“.

Die harte Wissenschaft beschränkt sich auf ein einziges, massives Kapitel, Klima der Angst und der Schuld, das Patrick an dritter Stelle im Buch platziert hat, damit die Leser nicht gleich zu Beginn davon abgeschreckt werden. Dennoch ist es ein klares, überzeugendes Kapitel, das sich mit den zahlreichen wissenschaftlichen Fiktionen beschäftigt, mit denen die Profiteure des Untergangs hausieren gehen. Das Kapitel listet einige der tausenden von angeblichen Schäden durch unsere Emissionssünden auf: Höhere Temperaturen, niedrigere Temperaturen, mehr Schnee, weniger Schnee, mehr Dürre, mehr Überschwemmungen, höherer Meeresspiegel, weniger Gletscher, kein Eis am Nordpol, massenhaftes Artensterben, mehr Stürme, stärkere Stürme, brennende Wälder, sterbende Korallenriffe, verschwindende Fische, tödliche Hitzewellen, dünnere Schweine, fettere Pferde, Missernten, Nahrungsmittelknappheit, saure Ozeane, Milliarden von Klimawandel-Flüchtlingen, mehr Krebs, mehr Herzkrankheiten, mehr Lungenkrankheiten, mehr Geisteskrankheiten, weniger französische Weine.

Patrick stellt unverblümt fest: „Tatsache ist, dass es keine stichhaltigen Beweise dafür gibt, dass irgendetwas von diesen Dingen durch vom Menschen verursachte CO2-Emissionen ausgelöst wurde oder wird. Es sind alles Mutmaßungen, die auf der Hypothese beruhen, dass Kohlendioxid die Temperatur steuert, was selbst nie als Tatsache festgestellt wurde. Noch wichtiger ist, dass die meisten dieser Behauptungen Vorhersagen über Dinge sind, die bis heute nicht eingetreten sind und vielleicht nie eintreten werden.“

Das Wissenschaftskapitel weist darauf hin, dass Wissenschaft nicht durch Konsens betrieben wird („kein gültiger wissenschaftlicher Begriff, sondern ein sozialer und politischer Begriff“), und dass viele der größten Wissenschaftler der Welt – Galileo, Mendel, Darwin und Einstein – den zuvor bestehenden Konsens umstürzten.

Einer von Patricks wissenschaftlichen Lieblingspunkten kommt im Wissenschaftskapitel gut zur Geltung: Der große Rückgang des CO2 – warum ist er passiert? „Beginnend vor etwa 150 Millionen Jahren ist Kohlendioxid kontinuierlich auf den niedrigsten bekannten Wert in der Geschichte des Lebens auf der Erde gesunken. Während des letzten glazialen Maximums, vor 20.000 Jahren, fiel der CO2-Gehalt auf etwa 180 ppm, nur 30 ppm über dem Niveau, bei dem Pflanzen beginnen, an CO2-Hunger zu sterben.“ Wären wir nicht gewesen, wäre innerhalb weniger Millionen Jahre genug CO2 aus der Atmosphäre verschwunden, um die meisten Pflanzen und Bäume verhungern zu lassen.

[Hervorhebung vom Übersetzer]

Und hier wird gezeigt, wie die Temperatur der Tiefsee seit etwa 50 Millionen Jahren sinkt:

Sogar Homer nickt. Die folgende Grafik der Temperaturen in Mittelengland im Vergleich zu den globalen CO2-Emissionen in Millionen Tonnen verwendet einen statistischen Trickbetrug der normalerweise von den Klimafanatikern begangen wird:

Die Grafik scheint zu zeigen, dass sich erstere kaum verändert haben, während letztere in die Höhe geschossen sind. Die Wahrheit ist, dass die y-Achse des CO2-Diagramms gestreckt wurde, während die des Temperaturdiagramms gestaucht wurde. Machen wir diese Manipulationen doch einmal rückgängig:

Der Trend beträgt etwas mehr als 1 Grad in 360 Jahren, oder weniger als ein Drittel Grad pro Jahrhundert. Aber fast drei Fünftel dieser Erwärmung fand in den 30 Jahren seit 1990 statt, seither hat sich unsere feuchte Insel [UK] mit einer Rate erwärmt, die 2 Grad pro Jahrhundert entspricht:

Abgesehen von ein paar Kleinigkeiten wie diesem, ist Patricks Buch eine erstklassige Lektüre. Selbst ich, der ich mich seit 15 Jahren für das Klima interessiere, fand darin vieles, was ich nicht wusste. Besonders wertvoll wird das Buch für diejenigen sein, die sich bisher damit begnügt haben, mit der Parteilinie mitzuschwimmen. Für sie wird das Buch eine Offenbarung sein: Die Entheiligung von Attenborough ist besonders befriedigend.

Heutzutage werden die Bestsellerlisten stark von den Verkäufen vor der Veröffentlichung beeinflusst. Falls Sie also jetzt bestellen, sind Sie für die Marketingkampagne von echtem Wert. Und Patrick, der mehr Schläge einstecken musste als die meisten von uns, weil er es wagte, den Profiteuren des Untergangs Fragen zu stellen, verdient unsere volle Unterstützung.

Link: https://wattsupwiththat.com/2021/01/20/fake-invisible-catastrophes-and-threats-of-doom/

Übersetzt von Chris Frey EIKE

 




Rekordkälte 2021 erinnert uns daran: Vorsicht bei Klima-Prophe­zeiungen und Energie-Prioritäten!

Ist damit die globale Erwärmung widerlegt? Sicherlich nicht! Allerdings werfen die extremen Kälteereignisse Fragen hinsichtlich der Medienpropaganda auf, der zufolge der Klimawandel mildere Winter und einen Anstieg der Temperaturen auf gefährliche Werte verursacht.

Der beunruhigendste Aspekt ist, dass diese extremen Kälteereignisse eine Erinnerung daran sind, dass wir in großer Gefahr sein könnten, falls unsere Regierungen weiterhin eine Klimapolitik verfolgen, die auf fehlerhaften Prognosen und unzuverlässigen erneuerbaren Energien basiert – und zwar aus folgenden Gründen:

Der kalte Winter 2020–2021

Mein Besuch in Delhi im Dezember des vorigen Jahres war ziemlich denkwürdig. Die Stadt befand sich in einer intensiven Kälteperiode. Die Tiefsttemperaturen der Monate Oktober, November und Dezember brachen viele Rekorde.

Mit nur 2 Grad Celsius erlebte Indiens Hauptstadt am 14. Januar einen der kältesten Wintermorgen. Srinagar in Jammu und Kaschmir verzeichnete einen Tiefstwert von minus 8,4 Grad Celsius, das ist der tiefste Wert seit 30 Jahren.

Für die Bewohner war es allerdings keine Überraschung. Der vorherige Winter (Dezember 2019) brach 100-jährige Rekorde. Intensive Kälte ist in den letzten Jahren zur Norm geworden.

[Hervorhebung vom Übersetzer]

In den USA wurden in diesem Jahr landesweit Rekordkälte und -schneeereignisse registriert. In Spanien schickten historisch niedrige Temperaturen das Quecksilber auf 20-Jahres-Tiefstwerte. In Sibirien, Russland und Japan war es nicht anders. Peking verzeichnete den kältesten 7. Januar seit den 1960er Jahren.

Diese Kälteereignisse müssen unter Berücksichtigung der vielfältigen klimatischen Faktoren analysiert werden, die sie beeinflussen können. Die Sonnenaktivität, die Erdrotation, Veränderungen der magnetischen Pole, arktische Kälteeinbrüche und viele andere Faktoren bestimmen regionale und globale Wettermuster mit.

Hoch gejubelte Klima-Untergangs-Prophezeiungen wollen einfach nicht eintreten

Während diese Rekordkälte- und Schneefallereignisse die globale Erwärmung nicht widerlegen, machen sie uns aber klar, dass sich Kälteeinbrüche und Schneefälle in der realen Welt sowohl in ihrer Intensität als auch in ihrer Häufigkeit erheblich von der klassischen Erzählung über die globale Erwärmung/Klimawandel unterscheiden.

Al Gore hat zum Beispiel behauptet, dass die Sommer in der Arktis bis 2015 eisfrei werden würden, aber das ist nicht passiert. Ebenso sagten Wissenschaftler voraus, dass Schnee eine „Sache der Vergangenheit“ sein würde und dass unsere Kinder nicht mehr wissen werden, was Schnee ist. Aber seit 2017 gab es historische Schneefallereignisse auf der ganzen Welt, einschließlich derer in New York und der jüngsten in Spanien und Japan.

Heiße und kalte Wetterphasen können jederzeit auftreten. Obwohl es seit dem 18. Jahrhundert einen allmählichen Anstieg der globalen Durchschnittstemperaturen gegeben hat, bedeutet das nicht, dass die Zukunft intensiver heißer sein wird als bisher oder dass unsere Winter milder werden. Keines der Computer-Klimamodelle war bisher in der Lage, die Temperaturschwankungen oder das Eintreten von Kälte- oder Wärmeereignissen genau vorherzusagen.

Verspielen Sie die Zukunft nicht mittels Verlass auf Erneuerbare oder die Klimamodelle

Das Auftreten dieser intensiven Kältewellen und das Scheitern der Klimaprophezeiungen sollten uns helfen, den zukünftigen Kurs des Energiesektors zu bestimmen. Wind und Sonne erzeugen bei Kälte wenig oder gar keinen Strom. Das bedeutet, dass die Volkswirtschaften immer noch zuverlässige Energie aus Kohle und Öl benötigen werden, egal wie viele Wind- und Solarfabriken wir bauen.

Dies wurde bei den jüngsten extremen Kältewellen in China und Europa deutlich, wo die Wind- und Solarnetze keinen Strom erzeugen konnten. Erschwerend kam hinzu, dass die extreme Kälte eine erhebliche Energienachfrage (zum Heizen) verursachte, so dass die Energieversorger sich beeilten, mehr Strom aus wetterfesten Kohlekraftwerken zu erzeugen.

Pekings einziges Kohlekraftwerk nahm im Dezember den Betrieb wieder auf, um den gestiegenen Energiebedarf zu decken. Peking erklärte: „Die (jüngste) historische Spitzenlast kam, als extrem kaltes Wetter die Nachfrage nach strombetriebenen Heizungsanlagen erhöhte, die 48,2 % der Gesamtlast ausmachen.“

Mit einfachen Worten: Die Länder sollten ihre Zukunft nicht auf erneuerbare Energien setzen. Selbst im Sommer sind sowohl Wind als auch Solar unzuverlässig und teuer. Abgesehen davon, dass sie die Strompreise für die Verbraucher unnötig in die Höhe treiben (wie in Deutschland und Kalifornien bewiesen), stellen sie auch eine Belastung für die Netzfunktionalität dar. Trotzdem werden Wind- und Solarenergie auf Kosten der Steuerzahler subventioniert und als die Zukunft der Welt gepriesen.

[Hervorhebung vom Übersetzer]

This article was originally published on Townhall.com.

Link: https://cornwallalliance.org/2021/02/record-cold-of-2021-reminds-us-be-wary-of-climate-predictions-and-energy-priorities/

Übersetzt von Chris Frey EIKE

 




CMIP6 und AR 6 – eine Vorschau

Abbildung 1. Das 13 Member umfassende CMIP6-Modellensemble aus dem KNMI Climate Explorer. Die globale Temperaturanomalie vom Durchschnitt 1981-2010 ist für alle Modellläufe aufgetragen. Alle 13 Modellläufe sind aus dem Ensemble aufgetragen. Man beachte, dass für drei der Modelle zwei Läufe geplottet sind.

Es gibt derzeit zwei Modell-Ensembles auf der Website, eines enthält 68 Modellläufe und das andere enthält 13. Abbildung 1 zeigt alle 13 Läufe für das kleinere Ensemble. Es gibt zwei Läufe in dem Ensemble vom Canadian Centre for Climate Modeling (CanESM5 P1 und P2). Außerdem gibt es zwei für NCAR (CESM2-1 und CESM2-2) und zwei für das Jamstec-Modell (MIROC). Abbildung 1 repräsentiert also insgesamt zehn Modelle. Die Modelle verwenden historische Antriebe vor 2014 und projizierte Antriebe danach.

Alle Kurven sind globale durchschnittliche Temperaturanomalien der Durchschnittstemperatur von 1981-2010. Man beachte, dass die Streuung der Ergebnisse im 19. Jahrhundert über ein K beträgt. Die aktuelle Streuung der Ergebnisse ist nicht viel enger und die Streuung im Jahr 2100 beträgt über zwei K. Alle diese Modellläufe verwenden das Emissionsszenario ssp245, das die CMIP6-Version des RCP 4.5 ist, soweit ich das beurteilen kann. Es ist also das mittlere Szenario.

Zwei der Läufe sind ziemlich erratisch, das hellblaue Modell, das 1960 sehr niedrig und 2100 sehr hoch ist, ist der Modelllauf des Met Office Hadley Centre, UKESM1.0-LL (2018). Der kanadische Modelllauf „CanESM5 P 1“ folgt demselben Pfad, wird aber von UKESM1.0 verdeckt. Die anderen Läufe sind in einem Ein-Grad-Getümmel zusammengefasst.

In Abbildung 2 zeigen wir drei der Modellläufe. Die beiden kanadischen Modellläufe sind in blau und orange dargestellt, zusammen mit einem der NCAR-Modelle in grau. Das Schwarze ist das „Ensemble-Mittel“ aus 13 Modellläufen, wie es vom KNMI Climate Explorer berechnet wurde. Ich habe ein Ensemble auf der Website ausgewählt, welches ich nicht selbst erstellt habe. Ebenso wurde der Ensemble-Mittelwert vom KNMI Climate Explorer bereitgestellt, ich habe ihn nicht berechnet.

Abbildung 2. Drei einzelne Modellläufe werden mit dem 13 Member Ensemble-Mittelwert verglichen. Die vertikale Achse ist die Anomalie vom Mittel 1981-2010 in Grad C.

Es werden historische Antriebe vor 2014 und projizierte Werte danach verwendet. Die blauen und orangen Kurven stammen von zwei Läufen eines einzelnen kanadischen Modells. Die beiden Läufe unterscheiden sich in den Jahren 2010 und 2011 um mehr als 0,2°C, in einigen Monaten sogar um mehr als 0,5°C. Es gibt mehrere Perioden, in denen die Modellläufe über mehrere Jahre hinweg eindeutig phasenverschoben sind, Beispiele sind 2001-2003 und 2014 bis 2017. Der Zeitraum von 2015 bis 2019 ist ein einziges Durcheinander.

Abbildung 3 vergleicht das in Abbildung 2 gezeigte Ensemble-Mittel mit drei Wetter-Reanalyse-Datensätzen, die ebenfalls vom KNMI Climate Explorer heruntergeladen wurden. Diese sind in den schwächeren Linien dargestellt.

Abbildung 3. Drei Wetter-Reanalyse-Datensätze werden mit dem Modell-Ensemblemittel aus Abbildung 2 verglichen.

Die Wetter-Reanalyse wird durchgeführt, nachdem die Wetterdaten aufgezeichnet wurden, aber unter Verwendung eines Wetter-Computermodells. Die Reanalyse hat viele Tausende von Beobachtungen, die sie einbeziehen kann, so dass die Ausgabe im Allgemeinen recht zuverlässig ist, zumindest meiner Meinung nach. Man beac hte, dass alle drei Wetter-Reanalysedatensätze, NOAA, NCEP und EZMW (Europäisches Zentrum für mittelfristige Wettervorhersagen) in Phase sind und sich gegenseitig folgen. Über Zeiträume von bis zu drei Jahren ist der Ensemble-Modell-Mittelwert hoffnungslos phasenverschoben zur Reanalyse. Dies tritt auf, wenn das Modell historische Daten hatte (vor 2014) und danach.

Conclusions

Ich bin unbeeindruckt von den CMIP6-Modellen. Die Gesamterwärmung seit 1900 beträgt weniger als ein Grad, aber die Streuung der Modellergebnisse in Abbildung 1 ist nie weniger als ein Grad. Sie ist oft mehr als das, besonders in den 1960er Jahren. Die Modelle reproduzieren offensichtlich nicht die natürlichen Klimazyklen oder Oszillationen, wie die AMO, PDO und ENSO. Wie in Abbildung 2 zu sehen ist, sind sie oft über Jahre hinweg völlig phasenverschoben, selbst wenn es sich nur um zwei Läufe desselben Modells handelt. Ich habe das kanadische Modell als Beispiel verwendet, aber die beiden NCAR-Modellläufe (CESM2) sind nicht besser. Tatsächlich sind sie im Zeitraum 2010-2011 und im Zeitraum 2015-2019 schlechter, wie man in Abbildung 4 erkennt:

Abbildung 4. Vergleich der beiden Läufe des NCAR CESM2-Modells mit dem Ensemble-Mittelwert und einem kanadischen Modelllauf.

Der AR5-Bericht war eine teure Neuauflage des AR4. Beide gaben jeden Versuch auf, solide Beweise für den menschlichen Einfluss auf das Klima zu finden, und versuchten, Klimamodelle zu verwenden, um zu zeigen, dass der Mensch das Klima irgendwie mit unseren Treibhausgasemissionen kontrolliert. Sie versuchten, solide Beweise in SAR, dem zweiten Bericht, und TAR, dem dritten Bericht, zu verwenden, aber es wurde gezeigt, dass sie in beiden Versuchen falsch lagen. Deren SAR-Demütigung kann man hier nachlasen und über die TAR-„Hockeyschläger“-Demütigung hier.

Vierzig Jahre Arbeit und Milliarden von Dollar ausgegeben und immer noch kein Beweis, dass der Mensch das Klima kontrolliert. Modelle sind alles, was sie haben, und diese Diagramme erwecken kein Vertrauen in die Modelle. Wie wir in unserem vorherigen Beitrag besprochen haben, macht die Mittelwertbildung von Modellen die Ergebnisse nicht besser. Ensembles sind nicht besser als ihre einzelnen Modellläufe und können sogar schlechter sein. Falls die einzelnen Läufe phasenverschoben sind, was bei diesen mit Sicherheit der Fall ist, zerstört man die Daten und die natürlichen Zyklen, wenn man sie mittelt. Siehe die Beweise, die von Wyatt und Curry und Javier präsentiert wurden, hier und hier. Falls sie diesen Beobachter überzeugen wollen, müssen sie es viel besser machen als so. Und ein Wort an die Steuerzahler: Warum zahlen wir diese riesigen Geldsummen, um einfach immer wieder dasselbe zu tun? Unterm Strich, wird der AR6 anders sein als der AR4 oder AR5? Ist irgendeines dieser Dokumente das Papier und die Tinte wert?

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2021/02/11/cmip6-and-ar6-a-preview/

Übersetzt von Chris Frey EIKE

 




Kivalina: Eine Fallstudie darüber, wie Medien & Politik objektive Wissenschaft manipulieren

Ähnlich schrieb die Huffington Post im Jahre 2017: „Es verschwindet. Schnell. Als eines der offensichtlichsten und schockierendsten Beispiele für die Küstenerosion könnte Kivalina bis 2025 unbewohnbar sein, alles dank des Klimawandels.“ The Guardian und Mother Jones schrieben: „31 Gemeinden in Alaska stehen vor einer ‚unmittelbaren‘ existenziellen Bedrohung durch Küstenerosion, Überschwemmungen und andere Folgen der Temperaturen, die in diesem Bundesstaat doppelt so schnell steigen wie im globalen Durchschnitt.“ Traurigerweise ignorierten Medien und Politiker die objektive Wissenschaft, aber deren Wahrheit ist immer noch da draußen.

Das wirkliche Problem für Alaskas Ureinwohner-Gemeinschaften sind die fehlgeleiteten Versuche der vergangenen Regierungen, „Beständigkeit“ in einer sich ständig verändernden Landschaft zu erzwingen. Die „Siedlungen, denen die Zerstörung droht“, sind keine Orte, die die Ureinwohner aus freien Stücken gewählt haben, um sich niederzulassen. Da ihr Überleben auf dem Spiel stand, waren sich die Ureinwohner Alaskas der sich ständig verändernden Umwelt sehr bewusst, lange bevor die Theorie der CO2-induzierten Klimaveränderung aufgestellt wurde. Und so entschieden sie sich, halbnomadisch zu leben. Kivalina war ein gutes saisonales Jagdlager, beherbergte aber nie eine permanente Siedlung. Nichtsdestotrotz machte das Bureau of Indian Affairs (BIA) des US-Innenministeriums den Ort im Jahre 1905 zu einer dauerhaften Siedlung.

REVEAL berichtet, „verbrachten die Inuit den Sommer in Zelten am Strand von Kivalina. Zum Wintereinbruch zogen sie ins Landesinnere, um Karibus zu jagen. Sie waren halbnomadisch, aber 1905 baute die Bundesregierung eine Schule auf der Insel. Den Eltern drohten Gefängnisstrafen oder der Verlust ihrer Kinder, falls sie sie nicht zur Schule schickten.“ Nur 6 Jahre nach der Gründung warnte Kivalinas Lehrer Clinton Replogle 1911 vor Überschwemmungen durch Meeresstürme und empfahl, dass Kivalina umgesiedelt werden sollte.

Man führe sich die Art und Weise vor Augen, wie die meisten Barriereinseln gebildet werden. Die Insel Kivalina entstand aus einer locker verfestigten Sandbank und wurde durch reichlich Sedimente erhalten, die von den lokalen Flüssen geliefert wurden. Ozeanwellen schieben erodierten Sand und Kies zurück zur Küste, wo er sich in flachen Gewässern zu einer Sandbank ansammelt. Auf der landwärtigen Seite der Sandbank erodieren Flussströmungen den Sand, wodurch eine Lagune und die geringe Breite der Inseln erhalten bleiben. Inseln entstehen dann dort, wo kilometerlange Sandbänke von Küstenflüssen zerschnitten werden, die einen Abfluss zum Ozean suchen. Der Singauk-Eingang (siehe unten), wo der Wulik-Fluss an Kivalina vorbei in die Tschuktschen-See fließt, ist ein Beispiel für die instabile Dynamik der Insel. In manchen Jahren ist der Singauk-Eingang durch von Winterstürmen aufgeschütteten Sand blockiert, wird aber später durch Flusserosion wieder geöffnet. Wie Stammesverwalterin Millie Hawley kürzlich sagte, erodierte Kivalina immer. „Wir befinden uns auf einer kleinen Landzunge, die sich im Laufe des letzten Jahrhunderts verkleinert hat.“

Die Bildung von Barriereinseln erfordert auch einen flach abfallenden Meeresboden, der den unwiederbringlichen Verlust von Sand minimiert, der in den tieferen Ozean gespült werden könnte. Allerdings verstärken solche flachen Meeresböden auch die Wellenhöhen von herannahenden Stürmen. Die endgültige Höhe einer Barriereinsel wird durch die Menge an Sedimenten bestimmt, die von den überlaufenden Wellen eines Sturms abgetragen werden. Der höchste Punkt von Kivalina ist nur ca. 4 Meter hoch, und vor Jahrzehnten kam die Hochwassermarke bis auf 0,3 bis 0,6 m an die Stadt heran. Aber die Stürme des Spätsommers und des eisfreien Herbstes können Wellen von 3 Meter oder höher bringen. Kein Wunder, dass Clinton Replogle die Gefahr einer Sturmflut so klar war. Tatsächlich haben geologische Untersuchungen jetzt ergeben, dass es zwischen 1905 und 1990 mindestens zweimal zu Überschwemmungen durch Wellen kam, die Kivalina überflutet hatten.

Der Sand der Insel kann kein Süßwasser aufnehmen. Daher muss der Wassertank der Stadt von einem 3 Meilen langen Feuerwehrschlauch gespeist werden, der vom Wulik River kommt. Das Abwassersystem von Kivalina besteht aus einzelnen „Honigeimern“, die von jedem Bewohner in zwei festgelegte „Bunker“ entleert werden. Schlechte sanitäre Verhältnisse und Überbevölkerung waren schon immer ein Problem, was zu einer extrem hohen Inzidenz von übertragbaren Krankheiten in der Stadt Kivalina geführt hat. Im Jahr 2021 kam es zu einem großen Ausbruch von COVID.

Da die negativen Aspekte überwiegen und die jährliche Gefahr der Zerstörung durch Sturmfluten überwiegt, initiierten die Bewohner der Inupiaq 1994 eine Studie zur Umsiedlung, obwohl es in diesem Jahrzehnt nur wenige große Stürme gab. Anhand von Fotografien, die bis ins Jahr 1952 zurückreichen, fand die Studie überraschenderweise keine schlüssigen Beweise für eine Erosion auf der Meeresseite der Insel. Allerdings zeigte die Studie eine erhebliche Erosion auf der Lagunenseite von Kivalina durch die Flüsse Wulik und Kivalina. Dennoch warnten die Forscher: „Obwohl es nur sehr begrenzte Informationen gibt, sind wir der Meinung, dass es nur eine Frage der Zeit ist, bis die richtige Kombination von Naturereignissen eintritt, die zu einer Überflutung der Stadt führen wird. Wenn dies geschieht, wird die Wellenbewegung zu Schäden an den Strukturen führen, und falls Eis mit der Sturmflut einhergeht, könnten die Folgen katastrophal sein.“

Dennoch wuchs Kivalinas Bevölkerung seit 1970 von 188 auf über 400. Obwohl die Bewohner in den letzten drei Jahrzehnten fünfmal für eine Umsiedlung in die Sicherheit stimmten, blieben eine Flugzeuglandebahn, die benötigte Güter bringt, und eine medizinische Klinik, die von der gemeinnützigen Maniilaq Association betrieben wird, eine Attraktion. Außerdem waren die finanziellen Mittel für die Umsiedlung knapp, da die Wirtschaft hauptsächlich auf der Subsistenzernte von Robben, Walrossen, Walen, Lachsen und Karibus basiert. Außerdem boten die Landes- und Bundesregierungen wenig Unterstützung an. Als Regierungsberichte begannen, die globale Erwärmung dafür verantwortlich zu machen, entschieden sich die Bewohner im Jahr 2011, die großen Ölgesellschaften zu verklagen mit dem Argument, dass „Kivalina aufgrund der globalen Erwärmung umgesiedelt werden muss“, und forderten Gelder, um die geschätzten Kosten von 95 bis 400 Millionen Dollar zu decken. Obwohl ihre Klage scheiterte, wurde Kivalinas „David gegen Goliath“-Klage von Befürwortern des katastrophalen Klimawandels sowie von Gegnern von Big Oil unterstützt und rückte das zuvor wenig beachtete Kivalina als Symbol der „Klimakrise“ ins Rampenlicht.

Ignoriert wurde der Zwang der Inupiaq zu einer dauerhaften Ansiedlung auf einer sich dynamisch verändernden Barriereinsel. Das war das eigentliche Problem. In ähnlicher Weise machte das Bureau of Indian Affairs die saisonal wandernden Yupik zu Bewohnern einer permanenten Gemeinschaft. Schlimmer noch, das BIA wählte einen Standort am Ninglick River im Yukon-Delta, um ihre Schule zu bauen und das permanente Dorf Newtok zu gründen. Aber Flussdeltas sind notorisch instabil (wie New Orleans während seiner 300-jährigen Existenz immer wieder schmerzlich feststellen musste). Die Schule von Newtok wurde 1958 gebaut, aber die Ignoranz der BIA gegenüber der Umwelt wurde schnell wieder aufgedeckt. In den 1980er Jahren gab das US Army Corp of Engineers über eine Million Dollar aus, um zu verhindern, dass die natürliche Erosion des Flusses die Ortschaft Newtok zerstörte. Nur 26 Jahre nach seiner Gründung gaben die Bewohner von Newtok die erste Studie für eine Umsiedlung in Auftrag. Die Kosten für die laufende Umsiedlung von Newtok werden 100 Millionen Dollar übersteigen. Trotzdem bleibt es einfacher, die Schuld auf den Klimawandel zu schieben, ob natürlich oder vom Menschen verursacht, um die schlecht konzipierte „erzwungene Permanenz“ der Regierung zu verschleiern.

Im Jahre 2005 posaunte der Guardian die skandalöse, gescheiterte Vorhersage der Vereinten Nationen, dass es „50 Millionen Umweltflüchtlinge bis zum Ende des Jahrzehnts“ geben würde, und die Notlage von Kivalina war eine Gelegenheit, diesen imaginären „Klimaflüchtlingen“ ein Gesicht zu geben. Falls man eine große Lüge oft genug erzählt, werden die Naiven sie unkritisch glauben. Also gründeten gleichgesinnte Medien „Climate Desk“, um mehr Alarmismus zu verbreiten (Mitgliedsorganisationen sind unten abgebildet). Im Jahr 2019 verstärkte der Guardian erneut den Klimahype und wies seine Journalisten an, Wetterereignisse nicht mehr als globale Erwärmung oder Klimawandel zu bezeichnen. Stattdessen sollten sie raues Wetter als „Klimakrise“ oder „Klimanotstand“ anpreisen. Jetzt wiederholt eine unheilige Allianz (zwischen „if it bleeds it leads“-Medien, Wissenschaftlern aus der „chicken little school of thought“ und Politikern, die jede Krise nutzen, um politische Kontrolle zu erlangen) täglich, dass wir alle von einer „existenziellen Klimakrise“ bedroht sind. Aber für diejenigen von uns, die die tatsächliche Wissenschaft studieren, gibt es eine ganze Armee von objektiven Klimawissenschaftlern, die Beweise liefern, um solche Klima-Angstmacherei ad absurdum zu führen.

Die großen Teilhaber an Climate Desk

Im Jahre 2013 schrieb der Weather Channel von Climate Desk: „Das Meer verschluckt allmählich Städte in Alaska“ und stellte fest: „Die Folgen des Klimawandels werden für die Städte an der Küste Alaskas zur schmerzhaften Realität, da der steigende Meeresspiegel Hektar um Hektar von einst trockenem Land einnimmt. Die Bedrohung scheint in Kivalina unmittelbar zu sein.“ Aber objektive Wissenschaft zeigt etwas anderes. Wie in der von Experten begutachteten Arbeit Arctic Ocean Sea Level Record from the Complete Radar Altimetry Era: 1991-2018 festgestellt wurde, variiert der Meeresspiegel in der Arktis, weil Winde Wasser aus einer Region abtransportieren und in einer anderen auftürmen. Entlang der sibirisch-russischen Küsten und der südlichen Tschuktschensee, die an Kivalina grenzt (grüne Fläche), ist der Meeresspiegel nicht angestiegen, obwohl der Meeresspiegel entlang der Beaufortsee (rot) stark ansteigt.

Aus Rose (2019) Arctic Ocean Sea Level Record from the Complete Radar Altimetry Era: 1991–2018

In einem Dokument der Regierung zur Umsiedlung Kivalinas kolportierte eine Klimakrise und schrieb: „Die Temperaturen in der Arktis steigen mehr als doppelt so schnell wie der globale Durchschnitt, was zu heftigen Meeresstürmen, Überschwemmungen und Erosion unter den Häusern von Kivalina führt – Auswirkungen, die für die Inupiaq-Gemeinschaft der Barriereinsel in Alaska traumatisch sind.“ Aber sie informierten die Öffentlichkeit nicht über die ganze Wissenschaft, die damit verbunden ist. Zum Beispiel sanken viele permanente Häuser, die auf Permafrost gebaut waren, in den Boden ein, weil das Heizen ihrer Häuser auch den darunter liegenden Permafrost auftaute.

Außerdem sind es die Sommerwinde, die wärmeres Pazifikwasser durch die Beringstraße schieben und die Meereisschmelze und die Erwärmung in der gefrorenen Tschuktschensee einleiten. In den letzten Jahrzehnten hat sich die Menge des durch die Beringstraße einströmenden warmen Pazifikwassers fast verdoppelt, wodurch mehr Meereis schmilzt und sich die offenen Gewässer ausweiten. Fast die Hälfte dieser eindringenden Ozeanwärme wird an die Atmosphäre abgegeben und erhöht die Lufttemperatur. Obwohl offenere Gewässer auch die Photosynthese verbessert und das arktische maritime Nahrungsnetz um 30 % vergrößert haben, wird der damit verbundene Temperaturanstieg seltsamerweise als Krise gebrandmarkt. Es ist wahr, dass sich ausdehnende offene Gewässer mehr Sonnenlicht absorbieren und diese Rückkopplung die Temperaturen noch weiter ansteigen lässt, was als „Arktische Verstärkung“ bezeichnet wird. In der Tat sind die Lufttemperaturen in der Arktis doppelt so schnell gestiegen wie in den zusammen hängenden 48 US-Staaten. Aber dieser Anstieg erhöht nicht die globale Durchschnittstemperatur und wurde fälschlicherweise dem CO2 angelastet. Aber die meisten Klimamodelle sind sich jetzt einig, dass es das eindringende warme Pazifikwasser ist, das durch die Beringstraße drängt und die arktische Verstärkung erzwingt.

Studien zeigen, dass der größte Meereisverlust in der Tschuktschen-See mit den drei Hauptwegen des eindringenden warmen Wassers verbunden ist. Der wärmste Weg führt an der Küste Westalaskas entlang und betrifft Kivalina, wie unten von Itoh (2015) dargestellt. Wichtig ist, dass das Volumen des Beringstraßen-Durchflusses das Ausmaß der jährlichen offenen Gewässer bestimmt, und dieses Durchflussvolumen wird durch natürliche Variationen der atmosphärischen Zirkulation moduliert. Mithilfe des allgemeinen Zirkulationsmodells des Massachusetts Institute of Technology MIT stellten die Forscher fest, dass der Zustrom von warmem Wasser durch die Beringstraße in erster Linie durch Winddruck gesteuert wird, wobei wechselnde Winde 90 % oder mehr der Veränderungen erklären. Andere Faktoren (Niederschlag, Strahlungsflüsse [Sonne oder Treibhaus], Wasserdampf und Lufttemperatur) hatten einen vernachlässigbaren Einfluss. Leider hat die zunehmende Ausdünnung und der Verlust des Meereises die Saison der Inupiaq für die Jagd auf Robben und Wale verkürzt und sie gezwungen, woanders zu jagen und zu fischen.

Die drei Hauptpfade und Temperaturen des wärmeren Pazifikwassers, das durch die Beringstraße in die Arktis fließt. Aus Itoh 2015

Die wissenschaftliche Studie „Mechanisms Driving the Interannual Variability of the Bering Strait Throughflow aus dem Jahr 2020 beschreibt detailliert die Ursachen für diese wechselnden Winde. Auf der Seite des Arktischen Ozeans der Beringstraße, wenn das Beaufort-Hochdrucksystem stärker ist, transportieren die Winde Ozeanwasser ablandig und senken den Meeresspiegel entlang der Küste, was einen größeren Durchfluss durch die Beringstraße ermöglicht. Auf der pazifischen Seite der Meerenge, wenn sich das semi-permanente Aleuten-Tiefdrucksystem über dem Aleutenbecken befindet, türmen die Winde das Wasser entlang des östlichen Beringmeer-Schelfs auf. Der daraus resultierende höhere Meeresspiegel drückt mehr warmes Wasser durch die Beringstraße. Umgekehrt, wenn sich das Aleuten-Tief südwärts über den Golf von Alaska verlagert, herrschen nordöstliche Winde vor, die den Meeresspiegel senken und den Durchfluss durch die Beringstraße abschwächen. Bezeichnenderweise wird das Aleutentief von natürlichen El-Nino-Ereignissen und der Pazifischen Dekadischen Oszillation (PDO) beeinflusst. Mehrere Studien haben gezeigt, dass ein Wechsel in die negative PDO-Phase auch das Aleuten-Tief veranlasst, mehr warme Luft aus dem Süden nach Alaska zu pumpen.

Wechselnde Winde und Warmwasserzuflüsse erhöhen die offene Wasserfläche in der Tschuktschen-See auch während kälterer Klimaphasen. Meeresgeologen, die Sedimente aus der Tschuktschensee untersuchen, haben festgestellt, dass in den vergangenen Jahrtausenden eine eisfreie Tschuktschensee unabhängig vom globalen Klima vorkam, wobei eisfreie Bedingungen sogar während der jüngsten Kleinen Eiszeit auftraten. Nach dem heutigen Stand der Wissenschaft lassen sich die wechselnden Bedingungen in der Arktis am besten durch natürlich schwankende Winde und Meeresströmungen erklären.

Im Jahre 2015 schickte die Obama/Biden-Regierung die US-Innenministerin Sally Jewell nach Kivalina, die versprach – ohne sich für die Zwangsansiedlung in Kivalina zu entschuldigen – an Lösungen für das vom Klima bedrohte Dorf zu arbeiten. Mit der Wiederholung des Climate Desk-Märchens bzgl. „Klimaflüchtling“ stellte Jewell ihr Mitgefühl zur Schau: „Hunderte von Dorfbewohnern in Kivalina stehen vor der schrecklichen Aussicht, ihr Land und ihre Häuser durch den steigenden Meeresspiegel und die Küstenerosion zu verlieren, was ihre persönliche Sicherheit bedroht und sie dem Risiko aussetzt, innerhalb eines Jahrzehnts zu Klimaflüchtlingen zu werden“. Aber es war wenig mehr als politisches Getue.

Kivalina und Newtok sind keine Beispiele für Klimakrisen. Vielmehr stehen sie als ikonische Beispiele dafür, wie die Medien und Regierungen die Ungerechtigkeiten, die die Ureinwohner erlitten hatten, ignoriert haben und ihre Probleme nur dann nutzen, wenn es ihre Krisenagenda fördert. Kivalina und Newtok sind klare Beispiele für die Unangemessenheit der Regierung, die einer indigenen Kultur, die an eine sich ständig verändernde natürliche Umgebung angepasst ist, „Beständigkeit“ aufzwingt; in einer Umgebung, in der sich das regionale Klima ständig verändert. Ich schlage vor, der BIA ihre Finanzierung zu entziehen und das dadurch frei werdende 1,9-Milliarden-Dollar-Jahresbudget zu verwenden, um die Menschen von Kivalina, Newtok und anderen sicher an einen Ort ihrer Wahl umzusiedeln.

Jim Steele is Director emeritus of San Francisco State University’s Sierra Nevada Field Campus, authored Landscapes and Cycles: An Environmentalist’s Journey to Climate Skepticism, and a member of the CO2 Coalition

Link: https://wattsupwiththat.com/2021/02/09/kivalina-a-case-study-of-how-media-politics-mangle-objective-climate-science/

Übersetzt von Chris Frey EIKE

 




Kälteeinbruch in der Heißzeit: Berliner Elektrobusse fahren nicht, und Windräder müssen mit Hubschraubern versorgt werden

Der geneigte EIKE-Leser wundert sich nicht: Sinken die Temperaturen, fällt die Kapazität von Lithiumakkumulatoren deutlich ab. Damit sinkt die sowieso schon nicht üppige Reichweite von E-Autos und -Bussen unter ein annehmbares Mindestmaß.

In der Hauptstadt Berlin fallen folgerichtig etliche Busse aus, da die Regierung (SPD, Grüne, Linkspartei) schon vor einiger Zeit Elektromodelle en gros einkaufte. Schon im Sommer machen die Fahrzeuge keine gute Figur, da sie im Gegensatz zu Dieseln nur von 8 bis Mittag fahren und dann stundenlang am Stromnetz hängen, während die bewährten Verbrenner von MAN und Mercedes übernehmen.

Mem von der „Libertären Initiative“

Hatte die für ihre organisatorische Inkompetenz bekannte Berliner Stadtregierung ihre eigenen Wahlkampfmärchen selber geglaubt und gedacht, es gäbe wegen des PIKschen Klimakollaps keinen richtigen Winter mehr? Kollege Mojib Latif, Sohn eines Theologen, hatte ja schon 2.000 behauptet, es würde in Zukunft, also heute, keine Winter mit Schnee und Frost mehr geben. Wenn ja, haben sie leider übersehen, daß das PIK&Co. auch Schneestürme als Folge der Heißzeit-Katastrophe deklarieren, wie gerade geschehen.

Auch die neuen Stromquellen Europas, riesige Windräder, kämpfen mit Schnee und Eis. Wie ein Flugzeug, das gerade starten will, werden in Schweden die gigantischen Rotorblätter mit heißem Wasser (!) vom Eis befreit, damit die Lager durch Unwuchten nicht beschädigt werden. Wegen der Größe der neuen Windräder wird die Enteisung mit Hubschraubern durchgeführt, die meist mit Brennstoff-betriebenen Turbinen ausgestattet sind. Man sieht es wieder: Die „alternativen“ Energiequellen sparen in der Summe überhaupt kein Kohlendioxid ein, sondern sorgen für weitere Freisetzung.




COVID-19 und Kreationismus: Widerlegen Borger et al. die Drosten-PCR?

Sciencefiles-Bericht zur Drosten-PCR

Die unheilige Allianz der Verschwörungstheoretiker

von Prof. Andreas Beyer, Westfälische Hochschule Gelsenkirchen, Bocholt, Recklinghausen. Beyer ist neben Prof. Ulrich Kutschera Autor der Seite AG Evolutionsbiologie im VBIO (Verband Biologie.. e.V.)

Ende Januar 2020 publizierte ein Team von Wissenschaftlern um den Virologen Christian Drosten von der Berliner Charité ein wissenschaftliches Paper, in dem es einen PCR-Test auf das neue SARS-CoV-2-Virus beschrieb (hier als Corman-Drosten-Paper bezeichnet, Corman et al. 2020). Dieser Test wird mittlerweile weltweit angewendet und wurde vielfach weiterentwickelt. Selbstverständlich kamen auch neue Tests hinzu (Stichwort „Schnelltest“ u. a.). Nun hat sich eine Gruppe von 22 Autoren um den Kreationisten Peter Borger von der Wort-und-Wissen-Vereinigung zusammengetan, um im Rahmen eines „Gutachtens“ (Peer Review) zehn „schwere Fehler“ aufzuzeigen. Dieser Text wurde am 27.11.2020 online gestellt; wir bezeichnen ihn im Folgenden als den Borger-Text . Die Autoren des Borger-Textes fahren schwere Geschütze auf: 20 Mal bezichtigen sie Corman-Drosten schwerer Fehler, sprechen zehn Mal von Mängeln („flaws“, „blemishes“, “ inadequacies“), dabei auch von krass-eklatanten Fehlern („blatant errors“) und Unzulänglichkeiten im wissenschaftlichen Design des Tests („severe / scientific design errors“). Das ist schweres Geschütz! Angesichts der Tatsache, dass solche Wortwahl in der wissenschaftlichen Literatur üblicherweise nicht vorkommt, lohnt ein Blick auf die Argumente und Autoren.

Zunächst fällt auf, dass im Autoren-Team des Borger-Textes praktisch ausschließlich fachfremde Personen vertreten sind, vom Allgemeinmediziner über den Radiologen bis hin zum 3D-Künstler! Nicht ein einziger Autor ist, wie wir noch sehen werden, firm auf dem Gebiet der diagnostischen qPCR. Unter den 22 Autoren findet sich nur ein einziger Virologe, der emeritierte Prof. Dr. Ohashi, der jedoch niemals an Corona forschte.

Zweitens führten die Autoren des Borger-Textes nicht einen einzigen Laborversuch durch. Sie argumentieren einzig „auf theoretischer Ebene“. Dies erstaunt, denn das Corman-Drosten-Paper wurde mittlerweile über 2000 Mal (wissenschaftlich!) zitiert. Der darin beschriebene Test wird weltweit vielfach angewendet und weiterentwickelt – unter anderem von einer meiner Absolventinnen (WEIL et al. 2021). Sollten der Fachwelt die behaupteten zehn „schweren Fehler“ etwa entgangen sein, während sie allein ein Team aus 22 Autoren ohne zureichende Expertise sowie ohne experimentelle Überprüfung aufdecken konnte?

Drittens ist festzuhalten, dass der Borger-Text nicht wissenschaftlich publiziert, sondern im Internet verbreitet wird. Nach Angaben des Borger-Teams sei er auch bei Eurosurveillance eingereicht worden. Aufgrund der schweren inhaltlichen Mängel ist dort jedoch nicht mit einer Publikation zu rechnen, genauso wenig wie in jedem anderen wissenschaftlichen Journal. Auch ist nicht damit zu rechnen, dass aufgrund des Borger-Textes das Corman-Drosten-Paper zurückgezogen wird, wie Borger und Koautoren dies verlangen. (Weiteres dazu unten im Text.) Im Borger-Text werden die Kritikpunkte abschießend nochmals aufgezählt, und im Folgenden wollen wir zu den Einwänden Stellung beziehen. Alle Argumente sind ausführlich in der detaillierten Analyse nachzulesen.

1. Gemäß Borger et al. seien die verwendete Primer-Konzentrationen zu hoch, und dies ohne jeden Grund. Die zu hohen Konzentrationen würden zu unspezifischen Primerbindungen und somit PCR-Amplifikaten führen. Dies würde den Test invalidieren.

Hintergrund: In einer PCR werden gezielt bestimmte DNA- (oder in einer Modifikation des Verfahrens auch RNA-) Abschnitte vervielfältigt. Bei einer diagnostischen PCR, wie hier zum Nachweis einer Corona-Infektion, ist die erfolgreiche Vervielfältigung gleichzeitig der Nachweis für das Vorhandensein des Virus. Als wichtige Bestandteile der PCR dienen sogenannte PCR-Primer. Das sind kurze synthetische, einzelsträngige DNA-Stückchen, die auf den zu vervielfältigenden Abschnitt „zielen“, da sie genau dazu passen. Bei einer qPCR kann die Vervielfältigung des Zielfragments durch Freisetzung von Farbstoff aus einer Sonde in Echtzeit verfolgt und gemessen werden (Abb. 1). PCR-Primer und Sonden sind DNA-Stückchen, die zur Ziel-DNA an bestimmten Stellen exakt passen müssen (Abb. 1). Sie werden üblicherweise in Konzentrationen von einigen 100 nM (nanomolar) eingesetzt. Im Corman-Drosten-Paper werden aber teils höhere Konzentrationen empfohlen. Borger et al. behaupten nun, dies mache den Test unspezifisch und somit unbrauchbar.

Abb. 1 Eine TaqMan-qPCR

A: Ausgangs-DNA (doppelsträngig).

B: Durch Hitze wird der DNA-Doppelstrang aufgetrennt. Die DNA liegt nun einzelsträngig vor, so dass …

C: … PCR-Primer (blau) und Sonde (rot) daran binden können. An die Sonde sind zwei Moleküle gekoppelt: Eines ist ein Farbstoffmolekül (grau), das andere ist ein Inaktivator (schwarz), der die Farbe des Farbstoffmoleküls auslöscht und ihn dadurch „maskiert“.

D: Nun findet, ausgehend von den PCR-Primern, DNA-Synthese statt, und zwar durch ein Enzym namens Taq-Polymerase (im Bild nicht gezeigt). Dadurch wird die Sonde abgebaut, wodurch der Farbstoff freigesetzt wird, was ihn aktiviert. Nun kann er – während der laufenden PCR! – gemessen werden.

Die Schritte A bis D bilden einen PCR-Zyklus; in einer qPCR werden diese Zyklenschritte bis zu 35mal wiederholt. Dabei verdoppelt sich in jedem Zyklus die Menge des PCR-Fragments. Somit verdoppelt sich auch die Menge an freigesetztem Farbstoff. Damit diese qPCR zuverlässig funktioniert, bedarf es ganz bestimmter PCR-Primer und Sonden in ganz bestimmten Konzentrationen.

Antwort: Jeder, der schon mal einen PCR-Test (insbesondere einen qPCR-Test wie im Corman-Drosten-Paper) entwarf, weiß: Die Standard-Konzentrationen sind Richtwerte, mit denen man die Etablierung des Tests beginnt. Eine Vorausberechnung der optimalen Konzentrationen ist nicht möglich: Im Rahmen der PCR-Optimierung muss man verschiedene Konzentrationen austesten. Daher liegen die finalen Konzentrationen nur selten beim Standard-Wert. Mit anderen Worten: Es ist schon im Ansatz verquer, einen Wert, der empirisch bestimmt werden muss, theoretisch (das heißt ohne Gegentests) zu kritisieren.

2. In den Sequenzen (der Primer und Sonden) existierten sechs nicht-spezifizierte („Wobbel-„) Positionen. Dadurch käme eine enorme Variabilität für die realen Labortests zustande. Ferner sei dies für die Anwender verwirrend, weswegen sich die PCR aus dem Corman-Drosten-Paper nicht für eine Standard-Diagnostik zur Identifikation des SARS-CoV-2-Virus eigne.

Hintergrund: Die PCR-Primer und Sonden (siehe Punkt 1) müssen spezifisch für ihre Zielregion, also für das zu vervielfältigende Fragment sein. Die Sequenz, also die Basenabfolge von PCR-Primern und Sonden, muss möglichst perfekt zur geplanten Bindestelle passen, sonst wird der Test unspezifisch oder unempfindlich. Nun pflegen Viren jedoch zu mutieren: Ihr Genom verändert sich. Vor allem aus diesem Grund entstehen immer wieder neue Stämme. Daher gibt es jedes Jahr neue Influenza-Epidemien.

Bevor man also eine diagnostische PCR plant, muss man alle verfügbaren Virussequenzen aus der Datenbank berücksichtigen und die PCR-Primer und Sonden an Stellen platzieren, an denen (bislang) keine Variationen aufgetreten sind. Borger et al. stellen nun fest, dass dies im Corman-Drosten-Test nicht der Fall sei: Hier gibt es in PCR-Primern und Sonden Sequenzvariationen (sog. „Wobble-Positionen“, an denen zwei verschiedene DNA-Basen auftreten können). Borger et al. behaupten, dies führe dazu, dass eine Vielzahl an Primer-Sonden-Kombinationen (mit jeweils den betreffenden Varianten) entstünde und der Test dadurch unbrauchbar würde.

Antwort: In dieser Behauptung liegen vier schwere Irrtümer von Borger und Koautoren:

I: Virale Genome mutieren nun einmal, und die sich ansammelnden Mutationen sind ungleich über das Virus-Genom verteilt: Es gibt Bereiche, die funktional besonders wichtig sind. Daher werden von der Selektion hier nur wenige Mutationen „geduldet“; diese Bereiche sind „evolutionär konserviert“. Als Zielposition für die Bindung der PCR-Primer (vgl. Punkt 1) sucht man sich diejenigen Bereiche aus, die einerseits typisch für die nachzuweisende Virengruppe sind, andererseits in eben jener Gruppe konserviert. Diesen Wunsch erfüllt einem die Natur aber leider äußerst selten, wie jeder weiß, der Erfahrung mit Virus-Diagnostik über PCR-Tests hat. Ergo muss man nehmen, was die Natur einem bietet, und das sind in aller Regel Sequenzabschnitte mit solchen „Wobbel-Positionen“. Das ist kein Design-Fehler, sondern eine schlichte Anpassung an die natürlichen Gegebenheiten.

II: Durch diese „Wobbel-Positionen“ kommen mitnichten „enorme Variabilitäten im Test“ zustande. Borger und Koautoren wissen offenbar nicht, dass die betreffenden Oligonukleotide bereits als Gemisch synthetisiert, geliefert und im Test eingesetzt werden.

III: Auch die Behauptung, solche „Wobbel-Positionen“ wären verwirrend für den Anwender, zeigt, dass Borger und Koautoren keinerlei Erfahrung mit qPCR-Systemen haben: So, wie jeder Kfz-Mechaniker weiß, was ein gekröpfter Ringschlüssel ist, kann jeder halbwegs routinierte PCR-Anwender „Wobbel-Positionen“ lesen und verstehen.

IV: Die Annahme, eine PCR mit „Wobbel-Positionen“ würde automatisch unspezifisch, ist falsch. Diese nicht spezifizierten „Wobbel-Positionen“ müssen bei der Etablierung und Validierung des Tests berücksichtigt werden. Für HIV-Tests ist dieses Vorgehen seit Jahrzehnten Standard. Aus diesen Gründen gehören Oligonukleotide mit „Wobbel-Positionen“ zu Standard-Repertoire der PCR-Diagnostik auf Viren, was Borger und Koautoren offenbar nicht wissen.

3. Der Corman-Drosten-Test könne nicht zwischen kompletten und fragmentierten Virusgenomen unterscheiden. Er sei untauglich zur Detektion infektiöser Viren, was ihn als Test auf SARS-CoV-2 entwerte.

Hintergrund: Pathobiologisch aktiv (und somit ansteckend) sind nur Viren mit intaktem Genom. Der Corman-Drosten-Test weist aber nur das Vorhandensein von zwei bestimmten, kurzen Abschnitten des SARS-CoV-19 Genoms nach. Also weist der Test auch fragmentierte und somit inaktive, ungefährliche Genomkopien nach.

Antwort: Dieses Argument ist verfehlt. Zum einen kann kein einziger Test komplette von fragmentierten Virusgenomen unterscheiden. Andererseits ist dies auch nicht nötig: Jedes virale Genom – ob komplett oder fragmentiert, ob intakt oder defekt, ob ursprüngliche Version oder mutiert – entstammt einer infizierten Zelle. Wie der Infektiologe und Virologe weiß, wird jede im Patienten nachgewiesene virale Genomkopie Indikator einer Infektion sein, sobald eine bestimmte Schwelle (also Anzahl nachgewiesener Genomkopien) überschritten ist.

Im Übrigen könnte man mit dem gleichen „Argument“ auch auf Freispruch eines Täters plädieren, wenn am Tatort „nur“ dessen Fingerabdrücke, Blutspuren und Kleidungsstücke, nicht aber die Tat als solche beobachtet wurde. Das ist absurd.

4. Die Autoren behaupten, die PCR-Primer RdRp_SARSr_F und RdRp_SARSr_R hätten um 10°C voneinander abweichende Annealing-Temperaturen. Der PCR-Test zum Nachweis von SARS-CoV-2 sei deshalb untauglich.

Hintergrund: Ein besonders wichtiger Schritt bei der PCR ist das Anbinden, das Andocken (Fachbegriff „Annealing“) der PCR-Primer (vergl. Punkt 1) an ihre Zielabschnitte (hier: im Virusgenom). Dieser Prozessschritt ist temperaturabhängig: Bei zu hoher Temperatur (das heißt, wenn die Annealing-Temperatur zu hoch gewählt wird), können die PCR-Primer nicht binden. Ist sie zu niedrig, binden die PCR-Primer auch unspezifisch, also an Stellen, an denen sie nicht binden sollen. Um hier höchstmögliche Spezifität zu gewährleisten, wird man die beiden PCR-Primer physikochemisch möglichst ähnlich gestalten. Allerdings sei bei einem der Primersysteme, so der Borger-Text, die Differenz zwischen beiden PCR-Primern viel zu hoch.

Antwort: Zunächst verwechseln Borger et al. die Begriffe: Die Annealing-Temperatur ist für beide Primer gleich, das geht auch gar nicht anders! Lediglich die Schmelztemperaturen der beiden Primer unterscheiden sich. In der Tat sollten diese beiden Werte möglichst ähnlich sein. Jeder, der Erfahrung mit PCR-Systemen hat, weiß aber, dass die Gegebenheiten der vorliegenden Sequenzen das Machbare diktieren: Größere Abweichungen von den optimalen Werten sind manchmal unvermeidbar! Auch aus diesem Grunde führt kein Weg am gründlichen Austesten und Optimieren der PCR-Bedingungen vorbei, was Drosten und Koautoren auch getan haben.

5. Ein schwerwiegender Fehler sei, dass versäumt wurde, einen Ct-Wert anzugeben, der zwischen positivem und negativem Testergebnis unterscheide. Auch darum sei der Test ungeeignet, das SARS-CoV-2 Virus nachzuweisen.

Hintergrund: Die Vermehrung betreffender Zielabschnitte des viralen Genoms über PCR (genauer Fachbegriff: TaqMan-qPCR) sorgt dafür, dass im PCR-Prozess ein Fluoreszenzfarbstoff entsteht, der während des laufenden PCR-Prozesses gemessen wird. Anfangs ist noch zu wenig davon vorhanden, so dass der Farbstoff erst später im Verlauf der PCR messbar ist. Also erst, wenn der Farbstoff eine gewisse Menge erreicht, überschreitet das gemessene Signal eine bestimmte Schwelle, und er kann detektiert werden. Den Punkt, an dem diese Überschreitung der Schwelle passiert, nennt man Ct-Wert (Abb. 2). Es sei, so Borger et al., eine grobe Unterlassung, dass im Corman-Drosten-Paper dieser Ct-Wert nicht definiert werde.

Abb.2: qPCR-Amplifikationskurve. Jede Linie entspricht einem individuellen PCR-Ansatz; gezeigt sind die Messwerte (faktisch die Farbstoffentwicklung) über die Zyklen.

grün: Eine Verdünnungsreihe mit bekannten Mengen des zu vervielfältigenden DNA-Stücks. Das ist die Kalibrier- oder Standardreihe. Sie ist gleichzeitig eine Positivkontrolle, denn diese Ansätze müssen ein positives Ergebnis bringen, und zwar mit Kurven in definierten, vorhersehbaren Abständen.

rot: Negativkontrolle, also ein Ansatz ohne DNA – oder mit solcher DNA, die nicht zu den PCR-Primern passt, also nicht vervielfältigt werden kann.

blau: Drei zu messende Ansätze, von denen zwei positiv sind und einer negativ. Bei den positiven Ansätzen ermöglicht der Vergleich mit der Kalibrierreihe die Bestimmung der in den Proben vorhandenen Ziel-DNA.

orange: Schwellenwert („Threshold“). Genau dort, wo die Kurve diese Schwelle überschreitet, wird für diesen Ansatz die Zyklenzahl abgelesen: Das ist dann der Ct-Wert (eingezeichnet für die ersten beiden grünen Kurven).

Der Verlauf der Kurven muss eine typische Gestalt haben: zuerst unregelmäßig bei kleinen Werten (das ist das Hintergrundrauschen, wenn in den ersten Zyklen noch nicht genügend Farbstoff gebildet wurde), dann ansteigend in eine lineare („gerade“) Phase, die dann Richtung Horizontale abknickt. Genau dadurch kann man echte Positivwerte auch von Negativwerten unterscheiden, bei denen die Kurve flach bleibt und nur ganz am Ende ohne den beschriebenen, charakteristischen Verlauf langsam ansteigen.

Antwort: Zunächst einmal verwechseln Borger et al. die Begriffe: Den Ct-Wert kann man gar nicht angeben, denn er wird gemessen. Gemeint ist wohl der Schwellenwert, der anzugeben sei. Aber auch das ist unsinnig, weil diese Schwelle vom Detektionssystem (unter anderem also vom Gerät) abhängt. Borger et al. scheinen nicht zu wissen, wie man eine qPCR durchführt: Parallel zu den Proben lässt man eine Kalibrierreihe „mitlaufen“: Zusammen mit den Proben prozessiert man also eine Verdünnungsreihe, eine Serie von Proben mit bekannter Virus-Menge; erst der Vergleich mit den Ct-Werten dieser Reihe erbringt das Ergebnis.

6. Die PCR-Produkte seien auf molekularer Ebene nicht (durch gelelektrophoretische Analyse) validiert worden. Dadurch sei der Test unbrauchbar.

Hintergrund: Bei einer PCR wird ein Zielfragment aus einer DNA (hier: aus dem SARS-CoV-2 Genom) vervielfältigt (Fachbegriff „amplifiziert“). Standardvorgehen ist, dass ein PCR-Ansatz am Ende auf einem Agarosegel analysiert wird: Dort kann man die Länge der gebildeten Fragmente sichtbar machen.

Antwort: Selbstverständlich wurden die PCR-Fragmente zu Beginn der Entwicklungsarbeiten gelelektrophoretisch analysiert! Das macht man immer so, aber es bedarf hier keiner Erwähnung: Die Spezifität bei einer solchen qPCR ist wegen der drei voneinander unabhängigen Oligonukleotide recht hoch (vgl. Punkt 1). Außerdem beschreibt das Corman-Drosten-Paper die Validierung in aller Ausführlichkeit.

7. Der Corman-Drosten-Test beinhalte weder eine eindeutig benannte Positivkontrolle um die Spezifität für SARS-CoV-2 nachzuweisen, noch eine Negativkontrolle um die Anwesenheit anderer Coronaviren auszuschließen.

Hintergrund: Bei jedem analytischen Test – und erst recht bei diagnostischen Tests – lässt man sogenannte Kontrollen mitlaufen. Positivkontrollen sind standardisierte Ansätze, in denen die nachzuweisende Substanz (hier: das SARS-CoV-2 Genom) in bekannter Menge / Konzentration enthalten ist. Dieser Ansatz muss ein positives Ergebnis erbringen; somit überprüft man in jeden Testdurchlauf das Funktionieren des Tests. Negativkontrollen enthalten keinen (oder „falsche“) Analyten , also keine Kopie des SARS-CoV-2-Genoms. Dieser Ansatz darf kein positives Ergebnis erbringen. So überprüft man, ob es Kontaminationen gegeben hat, ob also sauber gearbeitet wurde.

Antwort: Das Gegenteil ist wahr, das Corman-Drosten-Paper benennt mehrere Positiv- und Negativkontrollen und beschreibt ausführlich die Validierung der Test-Spezifität. Die konkrete Auswahl und „Konfektionierung“ der Kontrollen obliegt dem Anwender bei Etablierung des qPCR-Systems, wenn er eine SOP definiert (vgl. Punkt 8). So ist das übliche Vorgehen.

8. Das Testdesign im Corman-Drosten-Paper sei vage und mangelhaft, so dass es [vom Anwender] dutzendfach unterschiedlich interpretiert werden könne. Nichts sei standardisiert, und es gäbe keine SOP (Standard Operation Procedure = Standard-Protokoll). Damit sei die wissenschaftliche Qualität hochgradig fragwürdig und der Test unbrauchbar zur Identifikation des SARS-CoV-2-Virus.

Hintergrund: Wenn – wie hier im Corma-Drosten-Paper – ein diagnostischer Test publiziert wird, müssen logischerweise alle Angaben vorhanden sein, die es dem Anwender ermöglichen, diesen Test im eigenen Labor zu etablieren und durchzuführen.

Antwort: Die Behauptungen sind zu einer Hälfte unwahr, zur anderen Hälfte gehen sie am Thema vorbei: Tatsächlich benennt das Corman-Drosten-Paper allerelevanten Parameter: Oligonukleotid-Sequenzen und -Konzentrationen, Salzbedingungen, dNTP-Konzentrationen und PCR-Zyklusbedingungen. SOPs sind hingegen auch (und in erheblichem Maße) abhängig von den örtlichen Gegebenheiten. Daher muss jeder diagnostische Test in jedem Labor erneut etabliert werden. Dazu gehört auch die Abfassung einer SOP. Auch hier zeigt sich, dass den Autoren des Borger-Testes jedwede Erfahrung mit diagnostischen Testsystemen fehlt.

9. Das Corman-Drosten-Paper erfuhr keine unabhängige Begutachtung. Auch deshalb sei die Qualität der Arbeit zweifelhaft.

Hintergrund: Wenn bei einem wissenschaftlichen Journal eine Publikation eingereicht wird, so wird sie einer unabhängigen Prüfung durch mehrere Fachleute unterzogen, und zwar anonym (die Autoren erfahren niemals die Namen der Gutachter). Dies dient der Qualitätskontrolle. Da das Manuskript einen Tag nach Einreichen akzeptiert wurde, könne es – so Borger et al. – nicht begutachtet worden sein, sei also unbesehen publiziert worden.

Antwort: In der Tat dauert ein Begutachtungsprozess mehrere Tage oder sogar Wochen. Allerdings ist das Journal Eurosurveillancefür seine Schnelligkeit bekannt. Wenn eine Publikation ansteht, bei der sich Autoren und Journal über die Dringlichkeit einig sind, wird manchmal ein beschleunigtes Verfahren durchgeführt: Entweder, es wird dafür gesorgt, dass die Gutachter an Tag und Stunde der Einreichung bereitstehen. Oder die Begutachtung der Publikation erfolgt in Teilen – es wird laufend alles begutachtet, was eingereicht wird. In diesem Fall ist das in der Publikation vermerkte Datum der Einreichung der Tag, an dem das letzte Dokument eingereicht wurde – etwa Material, das die Gutachter noch nachgefordert haben. In einem solchen Fall kann der vermerkte Tag der Einreichung gleichzeitig der Tag sein, an dem die Publikation akzeptiert wurde. Übrigens: In diesem speziellen Fall stand den Gutachtern das Corman-Drosten-Paper bereits eine Woche vor der offiziellen Einreichung über einen sogenannten Preprint-Server zur Verfügung.

10. Es gäbe Interessenskonflikte. Erstens seien Christian Drosten und Chantal Reusken Mitherausgeber (Editoren) von Eurosurveillance, wo das Corman-Drosten-Paper veröffentlicht wurde. Zweitens wären mehrere Autoren an Biofirmen beteiligt, die (durch Verkauf von Testkits und Reagenzien) wirtschaftliche Vorteile aus dem publizierten Test zögen.

Hintergrund: Es ist wissenschaftsethisch inakzeptabel, wenn man persönliche Vorteile aus einer Publikation oder Tätigkeit zieht, ohne dies offenzulegen und klar zu benennen. Man darf sich keine Vorteile verschaffen, indem man im eigenen Journal publiziert und dabei die eigene „Hausmacht“ nutzt, um z. B. den Begutachtungsprozess zu eigenen Gunsten zu beeinflussen. Es ist auch verwerflich, durch eine Publikation eigene Produkte zu bewerben oder ihnen Marktvorteile zu verschaffen.

Antwort: Es ist nicht verboten und auch nicht wissenschaftlich fragwürdig, dass Wissenschaftler in Journalen publizieren, in denen sie Editoren sind. Die Journale haben hierfür eigene Prozeduren definiert: Die betreffenden Editoren/Autoren werden konsequent vom Begutachtungs- und Publikationsprozess ausgeschlossen. Was die Anschuldigungen in Bezug auf wirtschaftliches Eigeninteresse anbelangt, so ist festzuhalten, dass der Corman-Drosten-qPCR-Test mit besagter Publikation offengelegt wurde. Die Autoren haben den Test weder mit einem Patent noch mit einem Gebrauchsmusterschutz oder ähnlichem belegt. Er ist frei verfügbar, so dass jeder die Primer und Reagenzien beziehen kann, von wem er will. Es ist schwer, hier nicht von böswilliger Verleumdung zu sprechen. Abgesehen davon fragt man sich, was diese Anschuldigungen – unabhängig davon ob sie zuträfen oder nicht – mit der Qualität und Zuverlässigkeit des Tests zu tun haben sollten.

Im Lichte der Analyse des Corman-Drosten-qPCR-Protokolls zum Nachweis von SARS-CoV-2 hätten Borger und Koautoren schwerste Mängel nachgewiesen, aufgrund derer der Test unbrauchbar sei.

Man fragt sich, warum all diese Mängel in der mittlerweile 3/4jährigen Anwendung weltweit keinem Experten aufgefallen sind. Und man fragt sich, wie es 22 weitestgehend bis vollständig fachfremden Autoren gelungen sein soll, schwerste Mängel „festzustellen“, ohne das qPCR-System euch nur ein einziges Mal im Labor getestet zu haben!

Interessanterweise verschweigen Borger et al. (oder sie haben schlicht keine Ahnung), dass systematische (experimentelle!) Vergleiche zwischen verschiedenen PCR-Systemen publiziert wurden (z. B. AFZAL 2020; MATHEEUSSEN et al. 2020; NALLA et al. 2020; VOGELS et al. 2020), in denen keinerlei schwere Mängel festgestellt wurden. Ganz im Gegenteil muss man schwerste Mängel bis hin zu ehrabschneidenden Behauptungen im Borger-Text konstatieren. Dies reicht bis zu Anfänger-Fehlern in der Analyse der Primersequenzen sowie bei der Berechnung der Konzentrationen (Details in der  ausführlichen Widerlegung).

Wie mangelhaft Borgers Expertise im Bereich der Molekularbiologie ist, zeigt sich auch im  W+W-Disk.-Beitr. 3/20 („Covid-19 und mRNA-Impfstoffe – eine kleine Orientierungshilfe“), wo im Abschnitt Der mRNA-Impfstoff mRNA-Impfstoffe und rekombinante Impfviren vermengt und verwechselt werden.

Literatur

AFZAL, A. (2020) Molecular diagnostic technologies for COVID-19: Limitations and challenges. Journal of advanced research 26, S. 149-159. Doi: https://doi.org/10.1016/j.jare.2020.08.002.

BORGER, P.; MALHOTRA, B. R.; Yeadon, M.; CRAIG, C.; McKERNAN, K.; STEGER, K.; McSHEEHY, K.; ANGELOVA, L.; FRANCHI, F.; BINDER, T.; ULLRICH, H.; OHASHI, M.; SCOGLIO, S.; DOESBURG-van-KLEFFENS, M.; GILBERT, D.; KLEMENT, R.; SCHRUEFER, R.; PIEKSMA, B. W.; BONTE, J.; DALLE CARBONARE, B. H.; CORBETT, K. P. & KÄMMERER, U. (2020) External peer review of the RTPCR test to detect SARS-CoV-2 reveals 10 major scientific flaws at the molecular and methodological level: consequences for false positive results. https://cormandrostenreview.com/report/

CORMAN, V. M.; LANDT, O.; KAISER, M.; MOLENKAMP, R.; MEIJER, A.; CHU, D. K.; BLEICKER, T.; BRÜNINK, S.; SCHNEIDER, J.; SCHMIDT, M. L.; MULDERS, D. G.; HAAGMANS, B. L.; van der VEER, B.; van den BRINK, S.; WIJSMAN, L.; GODERSKI, G.; ROMETTE, J. L.; ELLIS, J.; ZAMBON, M.; PEIRIS, M.; GOOSSENS, H.; REUSKEN, C.; KOOPMANS, M. P. & DROSTEN, C. (2020) Detection of 2019 novel coronavirus (2019-nCoV) by real-time RT-PCR. Euro Surveillance 25(3), 2000045. Doi: https://doi.org/10.2807/1560-7917.ES.2020.25.3.2000045.

MATHEEUSSEN, V.; CORMAN, V. M.; DONOSO MANTKE, O.; McCULLOCH, E.; LAMMENS, C.; GOOSSENS, H.; NIEMEYER, D.; WALLACE, P. S.; KLAPPER, P.; NIESTERS, H. G.; DROSTEN, C.; LEVEN, M. & RECOVER project and collaborating networks (2020) International external quality assessment for SARS-CoV-2 molecular detection and survey on clinical laboratory preparedness during the COVID-19 pandemic, April/May 2020. Euro Surveillance 25(27), 2001223. Doi: https://doi.org/10.2807/1560-7917.ES.2020.25.27.2001223.

NALLA, A. K.; CASTO, A. M.; HUANG, M.-L. W.; PERCHETTI, G. A.; SAMPOLEO, R.; SHRESTHA, L. et al. (2020) Comparative performance of SARS-CoV-2 detection assays using seven different primer-probe sets and one assay kit. Journal of Clinical Microbiology 58(6), e00557-20. Doi: https://doi.org/10.1128/JCM.00557-20.

VOGELS, C. B. F.; BRITO, A. F.; […] & GRUBAUGH, N. D.  (2020) Analytical sensitivity and efficiency comparisons of SARS-CoV-2 RT-qPCR primer-probe sets. Nature Microbiology 5(10), S. 1299-1305. Doi: https://doi.org/10.1038/s41564-020-0761-6.

WEIL, P. P. et al (2021) Combined RT-qPCR and Pyrosequencing of a SARS-CoV-2 Spike Glycoprotein Polybasic Cleavage Motif Uncovers Rare Pediatric COVID-19 Spectrum Diseases of Unusual Presentation. Doi: https://doi.org/10.1101/2020.12.19.20243428.

Unser Kommentar zur Kritik von Prof. Beyer (ARG):

Tatsache ist, daß Christian Drosten mit seinen Förder-Millionen schon gute Virologen und Laborwissenschaftler einkaufen kann, die die Reputation seiner Professur/Abteilung erarbeiten. Eine mittlerweile an deutschen Universitäten übliche Situation: Der Gruppenchef ist ein guter Politiker; und seine stillen Doktoren, Doktoranden und T-Assistenten machen die tägliche Laborarbeit und veröffentlichen diese.

Nichtsdestotrotz ist die halb-quantitative RT-PCR und allgemein die qualitative PCR natürlich keine Methode, um eine Infektion oder gar Erkrankung nachzuweisen; bestenfalls ein Hinweis für weitere Methodik. Der „Massenausbruch“ bei Tönnies, wo Corona-haltige Rinder und Pferde zerlegt wurden, zeigt sehr deutlich, daß PCR alle möglichen C-Viren nachweisen kann (und tut). Der Hinweis auf die mangelnde Fachkenntnis der Autoren um Pieter Borger ist unserer Ansicht nach heftig übertrieben, da mehrere Ärzte (auch eine Virologin!) und Biochemiker/ Laborchemiker unter den Autoren sind. Beispiele:

Dr. Pieter Borger (MSc, PhD), Molekulargenetik, W + W Research Associate, Lörrach, Deutschland

Dr. Michael Yeadon BSs (Hons) Biochem Tox U Surrey, PhD Pharmakologie U Surrey. Geschäftsführer, Yeadon Consulting Ltd, ehemaliger Pfizer Chief Scientist, Großbritannien

Dr. Clare Craig MA, BM (Cantab), Bachelor Chemie (Oxon), FRCPath, Vereinigtes Königreich

Kevin McKernan von der BS Emory University, wissenschaftlicher Leiter und Gründer von Medical Genomics, hat die Sequenzierungspipeline am WIBR / MIT für das Humangenomprojekt entwickelt, den SOLiD-Sequenzer erfunden und entwickelt und Patente für PCR, DNA-Isolierung und Sequenzierung in den USA erteilt

Dr. Paul McSheehy (BSc, PhD), Biochemiker und Industriepharmakologe, Loerrach, Deutschland 8) Dr. Lidiya Angelova, MSc in Biologie, PhD in Mikrobiologie, ehemaliger Forscher am Nationalen Institut für Allergie und Infektionskrankheiten (NIAID), Maryland, USA

Prof. Dr. Makoto Ohashi, emeritierter Professor, PhD in Mikrobiologie und Immunologie, Tokushima University, Japan

Dr. Marjolein Doesburg-van Kleffens (MSc, PhD), Facharzt für Labormedizin (klinische Chemie), Maasziekenhuis Pantein, Beugen, Niederlande

Dr. Ruth Schruefer, PhD, Humangenetik / Immunologie, München, Deutschland,

Dr. Bruno H. Dalle Carbonare (Molekularbiologe), IP-Spezialist, BDC Basel, Schweiz

Prof. Dr. Ulrike Kämmerer, Fachärztin für Virologie / Immunologie / Humanbiologie / Zellbiologie, Universitätsklinikum Würzburg

Update der EIKE Redaktion

Ulrike Kämmerer hat hier auf Rubikon zu ähnlicher Kritik schon einmal Stellung genommen. Mit Dank an Leserin Christine Full

 

Gunnar Kaiser hat ein gut verständliches Video zur Drosten-PCR publiziert, das einige der Argumente von Prof. Beyer betrifft.

 




Erstmals seit 60 Jahren hat sich auf der Themse wieder Eis gebildet!

Ursache hierfür war das Sinken der Temperaturen unter 0°C in Teilen von England. In Ravensworth, North Yorkshire, sanken die Temperaturen in der vergangenen Nacht auf -15,3°C, während sich Großbritannien heute auf bis zu fünf Zentimeter Schnee und Stürme mit 80 Kilometer pro Stunde gefasst machen muss. In Newcastle wachten Familien auf, als die Stadt von Schnee bedeckt war. Das winterliche Wetter traf auch Teile von Nordost-Schottland und die Küstenregionen im Nordosten Englands.

Das Met Office hat mehrere Warnungen für Schneeschauer in ganz Schottland herausgegeben, wobei in Angus und Aberdeenshire bis zu 3 cm Schnee vorhergesagt werden.

Für Enten reicht das Eis allemal. Das Foto im Original mit Möwen auf dem Themse-Eis kann hier aus Gründen des Copyrights nicht gezeigt werden. Bild: Bubi / pixelio.de

In der Wetterwarnung hieß es: „Weitere Schneeschauer, am häufigsten in der Nacht zum Freitag in Angus und Aberdeenshire. Am Samstag schwächen sie sich wieder ab. Neuschnee von 1 bis 3 cm wird erwartet, aber lokal sind 5 bis 10 cm in höheren Lagen im Nordosten von Schottland möglich. Darüber hinaus wird sich streckenweise Eisglätte bilden, wenn teilweise geschmolzener Schnee wieder gefriert, besonders in tieferen Lagen.“

Das eisige Wetter kommt, nachdem 15 Wetterstationen in Großbritannien in der Nacht zum Mittwoch ihre niedrigsten Temperaturen für den Februar gemessen haben.

Ausschnitt aus einem Video im Original. Ein Link zu demselben lässt sich nicht angeben.

Der ganze Beitrag nebst Video und vielen Fotos steht hier.

Link: https://wattsupwiththat.com/2021/02/13/uk-cold-weather-river-thames-freezes-over-for-first-time-in-60-years-pictured/

Übersetzt von Chris Frey EIKE

Anmerkung: Der Beitrag datiert vom 13. Februar. Die genannten Daten beziehen sich also auf die Woche vom 8. bis zum 14. Februar. Inzwischen hat in UK massiv Milderung von Westen eingesetzt, die spätestens zur Wochenmitte auch bei uns in Deutschland erwartet wird.

 




Klima-Alarmisten im Ausnahmezustand : Es wird kälter, weil es wärmer wird !?

Abb. 1

Bei Matthias Claudius heißt es dann weiter:

„Wenn Stein und Bein vor Frost zerbricht, und Teich und Seen krachen; das klingt ihm gut, das haßt er nicht, dann will er sich todt lachen….“.

Und tatsächlich, die Kinder in Deutschland lachen, holen Schlittschuhe und Rodel herbei – tollen, jubeln, Winterfreuden wie in alten Zeiten! Demgegenüber: Auf den Straßen des Landes und in den Köpfen der Klima-Alarmisten: Ausnahmezustand ! Wie konnte das geschehen? Die Natur hält sich nicht an die „wissenschaftlichen Vorschriften“? Einige Tage lähmendes Schweigen.

Aber dann :

Die rettende weiße Maus wurde aus dem schwarzen Klima-Zylinder gezaubert; zunächst entdeckt am 7. Februar d.J. vom Klima-Ober-Guru Stefan Rahmstorf (Potsdam-Inst. PIK) – DER POLARWIRBEL [1]:

„Der Effekt des Klimawandels auf die Kaltfront : Achtung, Wetterstörung! … Das Wetter verändert sich durch den Klimawandel auf überraschende Weise: Es wird nicht einfach nur wärmer, sondern zwischendurch auch mal deutlich kälter“ … Schon seit Anfang Januar spielt der Polarwirbel verrückt.“ „Man kann sich die Kaltluft wie eine Pferdeherde vorstellen, die normalerweise eingezäunt ist. Wenn der Zaun kaputt geht, irrt sie in der Gegend herum….“

Wenn man das als Meteorologe liest, dann gewinnt man den Eindruck, daß nicht der Polarwirbel, sondern daß die Alarmisten in der Gegend herum irren, und das formuliert Jörg Kachelmann so [2]:

Wenn nur nicht so sehr gelogen würde. Dem Polarwirbel geht es sehr gut. Weil das aber kaum jemand nachprüfen wird, weil niemand weiss, was das ist und wie das aussehen sollte, wirft @derspiegel die Prinzipien von redaktioneller Kontrolle über Bord und lässt Stuss schreiben.“

… und w.a.a.O. (Kachelmann-Tweet  07.02.21) :

„Man weiss nie, was schrecklicher und skrupelloser ist, alle die Rechtswürstchen, die eine winterliche Wetterlage als Argument gegen die Klimakrise sehen oder der verzweifelt unwissenschaftliche @rahmstorf, der eine gewöhnliche Winter-Wetterlage nun auch dem Klimawandel zuordnet.“

A b e r :

Das Potsdam-Institut PIK hat mit Anders Levermannnoch einen zweiten Frontmann in die „Schlacht“ geschickt, und wo geht das besser als in der Alarmposaune namens BILD [3]  :

„Wissenschaftler erklärt : Globale Erwärmung schuld an Schnee-Chaos“„Schnee in Massen, in einigen Teilen Deutschland geht entweder nichts mehr oder nicht mehr viel. Es wird gebibbert und gefroren – und das alles haben wir der globalen Erwärmung zu verdanken…..“

„Bitte? Wie passen Minustemperaturen und Erwärmung zusammen? Dass das leider kein Widerspruch ist, erklärt Professor Anders Levermann ….“ … „Dadurch, dass der Nordpol sich so viel schneller erwärmt als die Tropen, wird der Jetstream instabiler. Er fängt an zu schlackern und beult öfter aus.“

Zu all diesem märchenhaften PIK-Geplauder schreibt Sebastian Lüning auf KalteSonne [2]:

„Es schneit und es ist kalt! Das PIK weiß warum: Das ist wegen der Klimaerwärmung. Die beiden medialen Frontmänner Levermann und Rahmstorf streuen die Nachricht in Bild und Spiegel, Team-Mitglied Özden Terli multipliziert im ZDF. Ob die Leute merken, dass sie es mit einer Ente zu tun haben? Wenn sowohl warme als auch kalte Winter immer nur auf das eine hinweisen, nämlich den menschen-gemachten Klimawandel, dann wird die Hypothese nicht falsifizierbar, und besitzt stattdessen einen „göttlichen“, unangreifbaren Status. Das ist dann aber nicht mehr Wissenschaft, sondern Religion.“

Auch in anderen Medien wird drüber glossiert, z.B.[4]:

„It’s the Polarwirbel, stupid! … Alle reden vom Wetter. … Arktische Kälte hat fast ganz Deutschland erfasst. Nach mehreren „zu warmen“ Jahren ist es nun gefühlt „zu kalt“, arschkalt, mit Massen von Eis und Schnee. Wie kann das sein? Wir haben doch Klimakatastrophe. Es brauchte nur ein paar Tage Kälte, und schon meldete sich der erste Klimaforscher, der das bedrohliche Geschehen klimatechnisch ins große Ganze einordnete. Klar: Man kann die Menschen mit diesem irritierenden Februarwetter nicht einfach alleine lassen. Die Dinge müssen zurecht gerückt werden, bevor der eine oder die andere womöglich auf dumme Gedanken kommt. Begleitetes Denken ist der Trend unserer Zeit.“

Nach der vorstehend dargelegten aktuellen Debatte mit Behauptungen, allerlei Fragwürdigkeiten und auch Glossen – nun wollen wir versuchen, den meteorologisch-klimatologischen fachlichen Hintergrund der „Polarwirbel-Diskussion“ zu erläutern. Das kann an dieser Stelle selbstverständlich nur kurz und möglichst allgemein-verständlich dargestellt werden.

Der Polarwirbel [5] :

„Die beiden Polarwirbel … über der Arktis und der Antarktis sind großräumige Höhentiefs mit einem Durchmesser von ca. unter 1.000 Kilometern. Beide sind wesentliche Elemente der atmosphärischen Zirkulation und gehören zu den großen Systemen der globalen Telekonnektion; die Basen der beiden Polarwirbel befinden sich in der mittleren und oberen Troposphäre und reichen bis in die Stratosphäre hinauf.“

Mit anderen Worten :

Die Polarwirbel sind Tiefdruck-Gebiete „ohne Wetterfronten“, die insbesondere im Winter stark ausgeprägt sind – und zwar in Höhen von etwa 3 km bis …10…20… km Höhe. Häufig ist der arktische Polarwirbel ein geschlossenes Rotations-System, in dem die arktische Kaltluft mehr oder weniger „gefangen“ ist => Abb.2 :

Abb.2 – Polarwirbel 21.10.2019: 500hPa(ca.5kmHöhe) + Bodendruck [6]

Eine solche (Abb.2) zirkum-polare geschlossene Rotation symmetrisch um den Pol ist in dieser „schönen“ Ausprägung jedoch eher die Ausnahme denn die Regel. Die seit vielen Jahrzehnten archivierten Höhen-Wetterkarten zeigen meist Ausbeulungen, in niedere Breiten hinein reichende Tröge, kleinere und größere Aufspaltungen in Teil-Wirbel.

Eine solche Situation – hin zu einem anderen „Extrem“ – zeigt die Höhenwetterkarte vom 9. Februar d.J. in Abb.3 :

Abb.3 – Polarwirbel 09.02.2021: 500hPa(ca.5kmHöhe) + Bodendruck  [6]

Die Abbildungen 2+3 zeigen also letztlich zwei gegensätzliche Extreme; dazwischen sind die unterschiedlichsten Varianten möglich. Die Meteorologen sagen: Die Atmosphäre hat unendlich viele Freiheitsgrade.

Nun schauen wir uns zu Abb.3 die Boden-Wetterkarte vom gleichen Tage in Abb.4 an :

Abb.4 – Bodenwetter-Karte DWD v. 09.02.2021 (gleiches Datum wie Höhenkarte in Abb.3)

Die Karten in den Abbildungen 3+4 sind also beide vom 09.02.2021 um 12 Uhr GMT, und wir wollen ein wenig die atmosphärischen Wechselwirkungen in den unterschiedlichen Atmosphären-Schichten erörtern. Die Abb.3 zeigt, daß eines der drei polaren Teil-Tiefs über der Barents-See liegt. Auf der Rückseite im Westen strömt nun die eisige polare Kaltluft von Nord nach Süd über das Nordmeer zwischen Grönland und Skandinavien, erst in der Höhe und dann in immer tieferen Luftschichten bis zum Boden. Kalte Luft hat eine größere Dichte als Warmluft, ist also „schwer“, und bildet nun in den bodennahen Luftschichten nach und nach eine riesiges Hochdruckgebiet aus, das (=> Abb.4) von Grönland bis nach Zentral-Rußland reicht. In der Meteorologie spricht man von einer Hochdruck-Brücke. Mehr noch: Von einem „Thermischen Hoch“. Ein solches Hoch liegt wie ein „schwerer Klotz“, und es dauert länger („lange“), bis atlantische Wetterfronten das weg geräumt bekommen, meist dann nochmals und ggf. mehrfach mit Schneefall verbunden.

Die „verschiedenen“ Hochs :

Im Gegensatz zu einem solchen Thermischen Hoch steht der „meteorologische Normalfall“ – das „Dynamische Hoch“, als Folge von Konvergenzen/Konfluenzen im „Jetstream“ (ca. um 5 km Höhe). Mehr kann/soll an dieser Stelle dazu nicht ausgeführt werden.

Nun geht der Prozeß immer weiter: In den bodennahen Luftschichten bildet sich am Rande des Kälte-Hochs eine nordöstliche bis östliche Luftströmung, und es wird die sehr kalte Luft aus Skandinavien und Rußland nach Mitteleuropa geführt. Nach und nach wird so auch ganz Deutschland „überflutet“, so geschehen auch Mitte Februar d.J. bei uns.

Wenn dann von Westen mildere und feuchte atlantische Luft nach Mitteleuropa heran geführt wird (=> Abb.4!), so schiebt sich diese Luft wie auf einer sehr flach geneigten schiefen Ebene über die darunter liegende Kaltluft, es wird nach oben hin wärmer und feuchter, eine Temperatur-Inversion entsteht – die Extrem-Schneefälle sind programmiert. Das ist eine klassische Wintersituation bei uns! Kommt ab und zu mal vor, seit Jahrhunderten – glücklicherweise bei uns eben nicht allzu häufig. Mit irgend einem „mensch-gemachten Klimawandel“  hat das alles nicht das Geringste zu tun – wie wir als „Anschauungs-Unterricht“ aktuell gerade erleben. Da wirken die „Verzweiflungs-Tiraden“ der Klima-Alarmisten geradezu peinlich !

Vielfältige Varianten zu den Abbildungen  2+3 sind also möglich und in den Kartenarchiven zu finden! Alle derartigen Varianten gab und gibt es seit Jahrhunderten … Jahrtausenden, in allen historischen Zeit-Skalen. Schon aus diesem Grunde ist es nahezu lächerlich und wissenschaftlich eigentlich peinlich, daß die beiden PIK-Auguren (s.w.o.) nun plötzlich eine einzelne ausgesuchte Wetterlage dem „mensch-gemachten“ Klimawandel zu schreiben. Wenigstens einen Rest an Glaubwürdigkeit hätten diese Herren dann gehabt…behalten, wenn sie das alles vor einem Jahr oder früher so „vorhergesagt“ hätten.

Bei alledem:

Die naturwissenschaftlichen Zusammenhänge in dem mathematisch-physikalisch chaotischen System namens Atmosphäre sind hoch kompliziert und für Zeiträume von mehr als einer Woche im Detail und im voraus unüberschaubar; darüber sind und werden ganze Bücher voll geschrieben, und so soll hier nur nochmals kurz Sebastian Lüning mit weiter reichenden Quellen-Angaben zitiert sein [2]:

„Für alle, die sich für die wissenschaftlichen Hintergründe der aktuellen Kälte in Deutschland interessieren: Wenn die Nordatlantische Oszillation negativ ist, wird es im deutschen Winter meist kalt. Das ist gängiges Wissen, z.B. beim Met Office oder Lüdecke et al. 2020. Und momentan ist die NAO – dreimal dürfen Sie raten – negativ. Und mit kurzen Unterbrechungen war sie es seit Anfang Januar 2021. Nachzuschlagen z.B. bei der NOAA …“

Schließlich :

Dieser Winter ist eine peinliche Entlarvung für zweierlei „Propheten“:

(1)  Noch im Herbst 2020 hatten die Winter-Wetter-Propheten Derartiges orakelt [7]:

„Und auch die Langfrist-Prognose zum Winter 2020/21 verspricht keine weißen Landschaften. Im Gegenteil: Die letzte Trend-Aktualisierung des amerikanischen Wetterdienstes NOAA dürfte Ski- und Rodelfans eher schockieren. Danach weicht der Dezember mit bis zu drei Grad nach oben deutlich vom langjährigen Temperaturmittel ab. Der klassische Wintermonat Januar könnte sogar komplett ins Wasser fallen: Hier gibt es im Langzeit-Trend jetzt sogar eine Abweichung von vier Grad für den Osten Deutschlands.“ 

Eine ausführliche Übersicht und meteorologische Bewertung zu derlei Unfug in Winterorakel – und keine Ende ?“ [8].

(2)  Für die Klima-Propheten liegen die Dinge ein klein wenig anders: NICHT Kälte und Schnee sind die „Peinlichkeit“, – das hat es auch in historischen Warmphasen gegeben – sondern die groteske Aussage „es wird kälter, weil es wärmer wird“.

F a z i t :

Es gibt den Polarwirbel. Es gibt ihn seit Jahrhunderten und Jahrtausenden. Und in all diesen Zeiträumen hat er Veränderungen erfahren – in allen denkbaren Zeit-scales. Nun aus einer singulären Positionierung des Polarwirbels einen angeblich „mensch-gemachten“ Klimawandel abzuleiten – das ist schon abenteuerlich. DAS wirkt auf besonnene Naturwissenschaftler absurd. Es ist eigentlich nur noch peinlich, wenn Klima-Alarmisten daraus schließen : Es wird kälter, weil es wärmer wird !?

=================================================================

Q u e l l e n :

[1a] 01.04.2000: https://www.spiegel.de/wissenschaft/mensch/winter-ade-nie-wieder-schnee-a-71456.html

[1]  https://www.spiegel.de/wissenschaft/mensch/wetter-der-effekt-des-klimawandels-auf-die-kaltfront-a-8ecdb2cf-d399-45d9-8609-5fe8e2a82388  07.02.2021, Ein Gastbeitrag von Stefan Rahmstorf

[2]  Nachzitiert: https://kaltesonne.de/pik-special-es-wird-kaelter-weil-es-waermer-wird/08.02.2021

[3]   https://www.bild.de/ratgeber/wissenschaft/ratgeber/schnee-chaos-globale-erwaermung-schuld-ist-schuld-erklaert-wissenschaftler-75260762.bild.html  08.02.2021

[4]   https://www.achgut.com/artikel/its_the_polarwirbel_stupid  08.02.2021

[5]  https://de.wikipedia.org/wiki/Polarwirbel

[6]https://www.wetterzentrale.de/de/reanalysis.php?map=2&model=avn&var=1&jaar=2019&maand=10&dag=21&uur=0000&h=0&tr=1440&nmaps=24#mapref

[7] LVZ 02.11.20, S.1

[8]  https://eike.institute/2020/11/11/winter-orakel-und-kein-ende/?sfw=pass161305817111.11.2020

=================================================================

A n m e r k u n g  der EIKE Redaktion:

(1)  Dieser Beitrag ist auch für die Webseite  https://www.weltderfertigung.de/ erstellt und erscheint dort ebenfalls in diesen Tagen;

(2)  Der Autor dankt seinem Kollegen Dipl.-Met. Helmut Klimmek für die fachliche Durchsicht des Aufsatzes.

(3)  Hervorhebungen in den Zitaten v.d. EIKE-Redaktion

(4)  Der vorstehende Aufsatz übersichtlich als PDF:   Puls.Tx.kpl

=================================================================




Bundestagsdebatte über abhanden kommende Wissenschafts­neutralität

Die Spatzen pfeifen es längst von den Dächern. Die Wissenschaftsneutralität, grundgesetzlich sogar als „Freiheit der Wissenschaft“ gesichert, kommt in diesem „besten aller Länder in dem wir gut und gerne  leben“ mehr und mehr unter die Räder. Und das nicht erst sei Corona.

Die „Klimaleugner“ wissen es schon lange. Alles was sich nicht dem Mainstream unterordnet, wird nicht nur verschwiegen, sondern sogar aktiv und mit allen Mitteln bekämpft. Wir erinnern uns an den Fall Jan Veizer, der schon 2003 von einer Gruppe von Wissenschaftlern um Stefan Rahmstorf öffentlich scharf und persönlich wegen seiner abweichenden Meinung angegriffen wurde und daraufhin die Ruhruniversität Bochum und seinen Lehrstuhl entnervt aufgab und nach Kanada ging. Und es ist beileibe kein Einzelfall, wie der Autor dieser Zeilen, durch den illegalen Versuch der Universität Leipzig seine Dissertation zur Bestimmung der globalen Mitteltemperatur, abzuschmettern im Jahre 2010 erfahren musste.

Seitdem ist es nur effektiver und dadurch nur schlimmer geworden, denn Klimawissenschaft, die sich nicht dem Mainstream unterordnet, findet in der deutschen Wissenschaftswelt einfach nicht mehr statt. Und die jüngsten Angriffe auf Nachbargebiete, wie sie Prof. Ulrich Kutschera von der Uni Kassel erleben musste, sind auch nur die Spitze des Eisbergs. Ist doch die Verleumdungs- Verdrängungs- und Unterdrückungsstrategie derjenigen, die sich Besitz der Wahrheit wähnen, schon lange nicht mehr nur auf die Klimawissenschaft beschränkt, sondern hat schon länger auf die Geisteswissenschaften übergegriffen, wovon der Historiker Prof. Baberowski von der Humboldt-Uni sicher ein Lied singen kann.

Und auch die Medizin und ihre naturwissenschaftlichen Schwestern, wie Virologie und Epidemiologie sind spätestens seit  Corona in hohem Maße davon betroffen. Deren gegen den Mainstream argumentierende Vertreter werden nicht nur nicht öffentlich gehört, Facebook und Youtube löschen ihre Kanäle, sondern auch sonst mit den gemeinsten Mitteln zur Strecke gebracht. Namen wie Dr. Wodarg und Prof. Bhagdi stehen dafür, aber auch Finanzwissenchaftler wie Prof. Homburg, werden offiziell zur Schnecke gemacht.

Und ganz aktuell traf es jetzt den Münchner Wirtschaftsethiker Prof. Christoph Lütge, der aus der  „Ethikkommission“, die sich die bayerische Landesregierung gerade erst auf den Leib geschneidert hatte,  auf „einstimmigen Beschluss“ des Ministerrates rausgeschmissen wurde, weil er zur bayerischen Variante des Lockdowns andere als genehme Ansichten hatte. Und dazu noch die Frechheit besaß diese öffentlich zu machen.

Oder der  Münsteraner Medizinprofessor Paul Cullen, Zitat aus dem ACHGUT Artikel ..“dazu Facharzt für Laboratoriumsmedizin und als Leiter des MVZ Labors für die Corona-Testungen in der gesamten Region Münster verantwortlich“. Ihm warf eine „Vereinigung namens Kritische Mediziner*innen in einem gemeinsamen Statement „unwissenschaftliche, antifeministische und antisemitische Äußerungen” vor. Die studentische „Regierung“ fordert eine Untersuchung des Falls und, sollte das öffentliche Auftreten von Prof. Cullen mit den Grundsätzen der Universität Münster in Konflikt stehen, die Aberkennung seiner Professur. …Der Vorgang befindet sich aktuell noch in der Prüfung“, zitiert das Regionalmagazin Wiedertäufer den Dekan der medizinischen Fakultät.“ Zitatende

Die Liste ließe sich beliebig fortsetzen.

Umso fröhlicher feiern sogenannte Genderwissenschaften Erfolge. Mehr als 200 Lehrstühle für diese  Leute wurden bereits hierzulande eingerichtet, und geben gerne ihre abstrusen, rein weltanschaulichen Ideen, als Wissenschaft verbrämt, an schwache aber clevere  Gemüter weiter.

Das und noch viel mehr weiß eigentlich ein jeder, der mit offenen Augen durch die Welt geht. Nur manche wissen es nicht, und dazu gehören, wen wundert’s, weite Teile der deutschen Bundestagsabgeordneten.

Und auf diese Gemengelage, die jeder kennt, traf nun besonders dreister Fall der direkten Einflussnahme. Innenstaatsekretär Markus Kerber hatte die naheliegende Idee, einen besonderen Fall des Greta Thunberg Slogans „Unite behind science“ herbeizuführen und erbat von ausgewählten „Professores“ eine Vorlage, welche die Bundesregierung zur Rechtfertigung „präventiver und repressiver“ Maßnahmen verwenden könne. Und fügte noch hinzu, er erhoffe „maximale Kooperation“. Und die so Gefragten ließen sich nicht lange bitten und lieferten innerhalb von 4 Tagen  das Gewünschte. Das wiederum nutzte die Regierung um den ersten Lockdown zu verhängen.

Geliefert wie bestellt, „wissenschaftlich“ streng abgesichert natürlich und damit so gut wie unangreifbar. Unite behind Science!

Es ist das Verdienst der Anwaltskanzlei Nico Härting in Berlin, diese Ungeheuerlichkeit  aufgedeckt zu haben, in dem sie das RKI zwangen den mehr als 200 Seiten umfassenden E-Mail Verkehr zu veröffentlichen.

Die Welt am Sonntag nahm sich in ihrer Ausgabe vom 6.2.21 der Sache auf fast einer ganzen Seite an, und in Folge  auch noch online (hier). Doch dann passierte …. erstmal so gut wie nichts. Weder berichteten Nachrichtensendungen der ÖR Medien darüber – wohl aber unisono, ein paar Tage später über die Fakestudie, dass Querdenker und AfD Anhänger dank ihrer Anti-Corona-Demos zu Superspreadern mutiert seien, aber mit keinem Wort über diesen echten Skandal. Lediglich bei Maischberger durfte eine der Autorinnen, Frau Dowideit, ein wenig dazu sagen, und von den überregionalen Tageszeitungen nahmen nur FAZ und die FR den Faden lustlos auf. Ansonsten Funkstille und kein Rauschen im Blätterwald

Daher nahm die Schwefelpartei (Klonowski), bzw. deren Bundestagsfraktion den Ball auf und beantragte, und bekam sie bewilligt,  eine aktuelle Stunde zum Thema „Neutralität der Wissenschaft bewahren – Politischen Druck auf Forschungsinstitute verhindern“. Die Webseite des Bundestages berichtete anschließend kühl darüber (hier) :“ Die Debatte war von gegenseitigen Vorwürfen geprägt, der Ton unfreundlich, teilweise feindlich.“

Diese Darstellung hat durchaus Chancen als Untertreibung des Jahres in die Geschichte einzugehen. Denn während sich die AfD Beiträge (Dr. Gottfried Curio und Karsten Hilse) zunächst mit dem auslösenden Sachverhalt beschäftigten und dann ihre eigenen Schlussfolgerungen daraus zogen, nutzten die anderen 5 Parteien die Gelegenheit, um der AfD wieder mal ordentlich eins über den Scheitel zu ziehen, gestreng nach der ewigen Regieanweisung „ wirf´ dem anderen vor, was Du selbst ständig tust“  oder volkstümlicher „haltet den Dieb, schrie der Dieb!“. Was zwar am Thema und damit der Aufgabe völlig vorbeiging, aber für kurzweilige Unterhaltung der jeweiligen eigenen Kollegen sorgte.

Video der BT-Rede Karsten Hilse am 11.2.21 zum Thema Wissenschaftsneutraltität

Besonders hervor taten sich dabei, meiner eigenen unmaßgeblichen Meinung nach, die Abgeordneten, Dr. Petra Sitte (die Linke)

Video der BT-Rede von Dr. Petra Sitte am 11.2.21 zum Thema Wissenschaftsneutralität

Frau Astrid Mannes (CDU) -leider kein Video bei YT verfügbar

Zitat“..(dass) Professor Christoph Schmidt, Präsident des Leibniz- (C) Instituts für Wirtschaftsforschung, erklärt hat, dass keine Empfehlungen für besonders restriktive Coronamaßnahmen auf Bestellung geliefert wurden und dass die Wis- senschaftler der Politik durch ihren Rat in einer Situation gewaltiger Unsicherheit bei der Entscheidungsfindung geholfen haben. Das ist etwas anderes, als sich für poli- tische Zwecke einspannen zu lassen. Nichts deutet derzeit auf eine Abhängigkeit der Wissenschaftler von der Politik oder darauf hin, dass Wissenschaftler sich haben instrumentalisieren lassen. – Entweder man legt Beweise auf den Tisch, oder man unterlässt solche Behauptungen Zitatende.

und Kai Gehring (Grüne).

Video der BT-Rede von Kai Gehring (Grüne) am 11.2.21 zum Thema Wissenschaftsneutralität

Da ich aber nicht alle gehört habe, kann es noch weitere Lowlights geben. Siehe Gesamtvideo am Ende des Beitrages.

Wie das, was der Grüne Kai Gehring ablieferte, der sich besonders für die „Genderwissenschaft“ einsetzt:

Zitat:  Sie fordern (Anmerkung: die AfD) die Abschaffung ganzer Disziplinen, Fakultäten und Institute, weil Ihnen Klimaforschung, Rassismusforschung, Geschichts- und Genderforschung unbequem sind. Gucken Sie sich Ihre eigenen Haushaltsanträge an und Ihr Fehlverhalten gestern im Wissenschaftsausschuss! Schämen sollten Sie sich! „ Zitatende

Als ob das, wenn es denn stimmte,  irgendwas mit der verlorengehenden Neutralität der Wissenschaft zu tun hätte.

Nun mögen sich die Leser ein eigenes Urteil bilden.

Offizielles Video des Deutschen Bundestags aller Beiträge zu dieser Aktuellen Stunde




Energiepolitik: Wer Wahlen gewinnen will, sollte die steigenden Strompreise nicht ignorieren

Die energiehungrigen Unternehmen und Industrien, die Trump wieder ins Land zurück gebracht hat, werden wohl bald einpacken und auf der Suche nach billigerem Strom verschwinden.

In Australien wurde in dieser Hinsicht der Schaden größtenteils schon angerichtet.

Irrsinnige Subventionen für Wind und Sonne haben zuverlässige konventionelle Stromerzeuger in den Seilen gelassen, genauso wie es geplant war. Die Stromversorgung erfolgt nach dem Wetter und nicht nach den Anforderungen der Unternehmen. Große Anwender wie Aluminiumhütten müssen abschalten, wenn der Wind aufhört zu blasen und die Sonne untergeht. Und die Strompreise, unter denen sie leiden, haben sich in einem Jahrzehnt verdoppelt.

Was hier beschrieben ist, wäre für einen der politischen Führer Australiens vor nur 20 Jahren unvorstellbar gewesen. Aber Heute ist das anders.

Weder die fiktiv konservative liberale / nationale Koalition noch die von der Gewerkschaft dominierte linke Labor Party sind in der Lage, eine kohärente und vernünftige Energiepolitik zu entwickeln. Beide setzen sich dafür ein, Kohlendioxid aus allen Bereichen des täglichen Lebens zu entfernen. Und keiner von ihnen hat den Verstand oder die Kühnheit, dann die Kernenergie als den einzigen tragfähigen Ersatz für die Kohlekraftwerke zu bezeichnen. Die Führer beider Parteien behandeln das Thema mit einer Mischung aus politisch motivierter Angst (der Himmel verbietet ihnen, so etwas jemals offen zu unterstützen) oder die gezeigte offene Verachtung, um sicherzustellen, dass sie die grünen Stimmen erhalten, die ihre parlamentarischen Sitze bedroht.

Der Australian Labor Party (ALP), angeführt von dem zwielichtigen Bill Shorten, gelang es, die unverlierbaren Bundestagswahlen 2019 zu verlieren, dank seiner Bemühungen, die Subventionen für Wind und Sonne zu erhöhen und dem Proletariat eine massive „Kohlenstoffsteuer“ aufzuzwingen.

Mit einer weiteren Wahl am Horizont sind die Reihen der Labour-Partei in Unordnung, und einige wollen ihre übertriebene 100% Wind- und Solarpolitik über Bord werfen und sich von den Besessenen für erneuerbare Energien – vertreten durch Mark Butler, distanzieren. Wie Butler seine Energiepolitik betrieb, sahen viele diese Partei als nicht wählbar an und das aus gutem Grund.

Alan Moran wirft einen Blick auf die Rolle der Strompreise in der australischen Einzelhandelspolitik und was Menschen mit politischen Ambitionen passiert, die sie ignorieren.

 

Energiepreise: die neue Bruchlinie in der Politik
Spectator Australia, Alan Moran, 28. Januar 2021

Energie hat sich als klare neue Bruchlinie in der australischen Politik herausgestellt. Wir sehen heute, dass Anthony Albanese seinem Kumpel Mark Butler der Linken Fraktion aus dem Umweltportfolio entfernt, um nicht nur die Wählbarkeit von Labor, sondern auch seine Überlebenschancen zu verbessern. Das Thema ist jedoch nicht nur Sache der ALP.

Die Nationals (National Party of Australia, im Vergleich ~ FDP) –sagen, dass sie in den nächsten 15 Jahren 800.000 neue Arbeitsplätze in der Fertigung sehen wollen. Dies ist weniger ehrgeizig als es auf den ersten Blick aussieht, bedeutet es doch, dass mehr als ein Fünftel der neuen Arbeitsplätze in dem Sektor geschaffen werden sollen, in dem der Anteil der Arbeitsplätze in den letzten 30 Jahren von 15 auf 7 Prozent gesunken ist.

Die Idee ist, die Arbeitsplätze aus unserer an sich kostengünstigen [Kohle] Energie zu nutzen, die Australien die besten Aussichten auf Wohlstand und Wertschöpfung bietet. Es ist bedauerlich, dass die Nationals auch die Notwendigkeit sehen, dieses Ziel mit protektionistischer Politik und einem Ausbau der Bürokratie zur Förderung der Produktion in den Regionen zu untermauern.

Aber kostengünstiger Strom aus Kohle ist ein natürlicher Vorteil, den Australien hat und der zum Vorteil der Wirtschaft durch Produktion sowie mineralische und landwirtschaftliche Verarbeitung noch verstärkt werden könnte.

Diese Gelegenheit zu nutzen, würde eine bemerkenswerte politische Wende erfordern. Seit zwei Jahrzehnten beeinträchtigen Politiker unter dem Druck grüner und subventionssuchender Unternehmen die Wettbewerbsfähigkeit, die unsere Kohle der Nation bietet.

Es wird geschrieben, dass erneuerbare Energien billig und umweltfreundlich sind. Medien berichten der leichtgläubigen Wählerschaft, dass Sie sich keine Gedanken darüber sollen, dass noch nie ein Megawatt Wind und Sonne ohne Subvention gebaut wurde. Die Subvention beträgt derzeit 40 USD pro MWh und ähnelt dem aktuellen, von COVID betroffenen Preis, den nicht subventionierter zuverlässiger Strom erhält und kommt immer noch hinzu.

Diejenigen, die das Trugbild von kostengünstigem Ökostrom verfolgen, sind sich der dadurch verursachten Kosten nicht bewusst. Ein Symptom dafür sind negative Strompreise, gefolgt von hohen Preisen, da die Natur dazu führt, dass erneuerbarer Strom ein- und ausströmt. Diese Nicht-Übereinstimmung von Angebot und Nachfrage untergräbt die Wirtschaftlichkeit von Kohle (und Gas), die immer noch zwei Drittel des Stroms liefern, und zwingt zur Schließung von Kraftwerken und einem anschließenden höheren Preisplateau. Vor fast 20 Jahren fast unbekannt, herrschten im vergangenen Jahr 4 Prozent der Zeit negative Preise vor – für Strom den eigentlich keiner brauchte.

Null- bzw. negative Preise in den australischen Bundesstaaten

Nichts davon wäre denkbar gewesen, ohne dass es durch die Regierungspolitik gefördert worden wäre. Während das Commonwealth [die australische „Bundesregierung“] den Subventionsball ins Rollen brachte, sind alle Landesregierungen auf einem ähnlichen Tripp und verdoppeln die Unterstützung, um den subventionierten Wind und die Sonne zu stützen. Diese Politik hat dazu geführt, dass erneuerbare Energien über 20 Prozent der Stromversorgung ausmachen.

Diejenigen, die das Versagen von Wind und Sonne, sich als wettbewerbsfähig zu erweisen, nicht erkennen, sind in eine technologische Traumwelt gerutscht.

Der Sprecher des West Australian Flügels der Liberalen Partei, Wentworth-Abgeordneter David Sharma, zeigte sich als völlig losgelöst von der Realität und sagte, Australien sollte versuchen, eine „Supermacht für erneuerbare Energien zu werden, um Dinge wie emissionsarmen Stahl, grünes Aluminium und Wasserstoff als Kraftstoff herzustellen“.

Aber viele Politiker – manchmal sogar der Premierminister – bezeichnen Teile dieser Erzählung als Lippenbekenntnisse. Kein Förderer erneuerbarer Energien, würde jedoch jemals die Folge seiner Chimären von kostengünstiger erneuerbarer Energien akzeptieren und sich daher bereit erklären, alle Subventionen einzustellen.

Darüber hinaus wird die Möglichkeit von Gas als „Übergangskraftstoff“ zum Nirwana der erneuerbaren Energien ausgeschlossen, da es fast genauso verunglimpft ist wie Kohle und, wie die jüngste Preisvolatilität gezeigt hat, nicht einmal in der Nähe der Kosten für Kohleenergie an der Ostküste Australiens liegt .

Welche Chance gibt es dann für eine Energiepolitik, die es Australiens kostengünstiger Kohle ermöglicht, die Wirtschaft anzutreiben?

Die Antwort fällt schlechter aus, als vor der Amtseinführung von Biden. Die USA unter Trump waren die entschlossenste Nation, die versuchte, die wirtschaftliche Zerstörung des Wohlstands einer Nation mit Energiesubventionen aufzuheben – und erhielten dadurch einen Bonus, da die daraus resultierenden niedrigen Energiepreise als Magnet für den Ausbau von Arbeitsplätzen in einheimischen Unternehmen fungierten.

Die Biden-Regierung verbündet sich jetzt mit der EU, um Maßnahmen zur Reduzierung der CO2-Emissionen aus fossilen Brennstoffen zu entwickeln und durchzusetzen. Dies wird wahrscheinlich Kohlenstoffzölle beinhalten. Dieser globale Kontext wird es für Australien diplomatisch schwierig machen, die von den Nationals befürwortete Politik zu verfolgen.

Interne australische institutionelle Vereinbarungen sind auch für die meisten Medien und Schulen nicht vielversprechend, wenn es darum geht, „Klimaschutzmaßnahmen“ kakophonisch zu unterstützen. Als teilweises Ergebnis, kann sich jede größere Entwicklung als Anstoß für eine Gruppe von unterbeschäftigten Personen in NGOs erweisen, die durch die Finanzierung interessierter Parteien versorgt werden und gewünschte Demonstrationen durchführen. Darüber hinaus wurden viele Gerichte, insbesondere das Land- und Umweltgericht von NSW, von Justizangestellten dominiert, die tief vom grünen Brunnen getrunken haben und Vorschläge ablehnen, die ihrer Meinung nach die Treibhausgasemissionen erhöhen würden.

Darüber hinaus sind die unter UN-Kontrolle stehenden Finanzinstitute und viele andere, darunter die Bank of England, Geschäftsbanken und wichtige Anlageinstrumente wie BlackRock, motiviert oder eingeschüchtert, um – sich nicht [mehr] zu trauen, in fossile Brennstoffe zu investieren. Chinesische Institutionen gehören zu den wenigen, die sich dem Trend widersetzen – leider gerade zu der Zeit, als die chinesisch-australischen Beziehungen angespannt sind.

Trotzdem wird das Thema Energiepolitik / Klimawandel zunehmend zur Bruchlinie zwischen verschiedenen Strömungen der Politik. Barnaby Joyce und Matt Canavan standen an vorderster Front, und obwohl dies zweifellos ein Faktor in der internen Politik der Nationalen Partei ist, stellt es eine Basis dar, auf die sich die politische Mitte verständigen kann – und einen klaren Unterschied gegenüber Labor macht.

Spectator Australia

 

https://stopthesethings.com/2021/02/06/power-politics-want-to-win-elections-then-dont-ignore-spiralling-electricity-prices/

Übersetzt durch Andreas Demmig