1

Erneuerbare Energieanlagen sind weder „sauber“ noch “umweltfreundlich“

Aber es wird schlimmer; viel schlimmer. Es ist nicht nur nutzlos und kostspielig, sondern bringt auch eine vorher nicht gekannte Bürde mit sich: eine Umweltbelastung, die über Generationen hinweg anhalten wird.

Bryan Fischer fasst das in einer kleinen Analyse zusammen.

 

„Saubere und erneuerbare Energie“ – ist weder noch

Bryan Fischer,  Renew America, 3. März 2020

Ökokrieger sind von dem Mythos besessen, dass Energie sauber und erneuerbar sein kann und sollte. Wer weiter nachdenkt, stellt fest, dass jede „erneuerbare“ Energie massive „Auswirkungen auf unsere Umwelt“ zur Folge hat.

Diese Auswirkungen verbrauchen enorme Mengen an Umweltressourcen , was den leidenschaftlichsten Umweltschützer vor Scham erröten lassen würde, wenn er nur von ihnen wüsste [bzw. wissen wollte]. Die Grünen haben sich so in eine riesige Blase der Unwissenheit verstrickt, dass es zweifelhaft ist, ob nur eine Handvoll weiß, was ich Ihnen sagen werde.

Und wenn diese Handvoll tatsächlich existiert, halten sie das, was sie wissen, für sich als streng gehütetes Geheimnis. Denn wenn die Wahrheit herauskommen würde, wäre dies das Ende der Umweltbewegung.

Die Vision von Umweltschützern ist eine friedliche, harmonische Welt, in der Menschen allein mit Wind- und Sonnenenergie arbeiten, keine Unze fossiler Brennstoffe verbrennen und überhaupt keine menschlichen Spuren in der Umwelt hinterlassen. Es ist ein wunderschönes, ruhiges Bild, das absolut nichts mit der Realität zu tun hat.

In dieser mythischen Welt wird die Energie von Wind und Sonne in Strom umgewandelt und in Batterien gespeichert. Da ist das erste Problem, genau dort. Mark Mills und Alexander Ackley führen dazu in The International Chronicles aus: „Eine einzelne Elektroautobatterie wiegt etwa 1.000 Pfund. [1 lbs ~ 0,4536 kg] Um eine Batterie herzustellen, müssen irgendwo auf dem Planeten mehr als 500.000 Pfund Rohstoffe ausgegraben, bewegt und verarbeitet werden. “ Wenn Sie jedoch Benzin verbrennen, können Sie über die Lebensdauer der Batterie von sieben Jahren bei 1/10 der Gesamttonnage [an Rohstoffen] dieselbe Anzahl von Fahrzeugmeilen liefern.

Die grünen Maschinen müssen irgendwann außer Betrieb genommen werden, wodurch Millionen und Abermillionen Tonnen Abfall entstehen. Bis 2050 rechnet die Internationale Agentur für erneuerbare Energien damit, dass die Entsorgung alter Sonnenkollektoren allein mehr als die doppelte Tonnage aller heutigen globalen Kunststoffabfälle ausmachen wird. Und Abfall ist das Wort. Ein Solar- oder Windpark, der sich ausbreitet soweit das Auge reicht, kann durch eine Handvoll Gasturbinen ersetzt werden, die jeweils etwa die Größe eines Sattelzuges haben.

Sowohl Wind- als auch Sonnenkraftwerke benötigen weit mehr Material und Land als fossile Brennstoffe. Eine einzige Windkraftanlage benötigt 900 Tonnen Stahl, 2500 Tonnen Beton und 45 Tonnen Kunststoff, die nicht recycelt werden können. Windkraftanlagen halten ungefähr 20 Jahre und da es keine Möglichkeit gibt, die Materialien zu recyceln, müssen sie auf Mülldeponien abgeladen werden. Und mit Flügeln, die 36m lang sind, sind sie zu groß, um auch dort bequem entsorgt zu werden. [Inzwischen erreichen Flügel bis zu 65m und mehr]

Ein Windpark in Minnesota lieferte mehr  als 100 dieser Monsterflügel zur Sondermülldeponie Sioux Falls in South Dakota. Aber der Direktor der Abteilung für öffentliche Aufgaben in Sioux Falls sagt, dass die Deponien voll sind. „Wir können nichts mehr annehmen, wenn sie nicht zerkleinert werden, bevor sie zu uns gebracht werden. Wir haben einen sehr großen Aufwand, um sie zu entladen und vor Ort zu bringen, einzubuddeln und ein paar Mal drüber zu fahren um sie in den Boden zu arbeiten.“

Wenn ein Windpark 100 WKAs umfasst, bedeutet dies, dass 500 Millionen Pfund Beton in das ehemalige Ackerland gegossen wurden. Wie wird dieser Beton entsorgt?

Es gibt nicht einmal einen mäßig kostengünstigen Weg, um die Energie, die Windparks erzeugen, in die Städte zu bringen, die sie benötigen. Windräder werden vorzugsweise auf dem Land auf Hügeln gebaut, in der Gegend sind Stromverteilungsanlagen eher selten. Die Städte sind oft weiter weg, brauchen aber am meisten Strom.

Und diese riesigen Vogelshredder sind gesundheitsschädlich. Deutschland, das sich radikal dem Wind verschrieben hat, hat entdeckt, dass diese Windparks so viel Lärm produzieren, dass es laut einer armen, unglücklichen Seele „nachts wahnsinnig macht“. Deutschland zahlt jetzt teilweise Stillhaltegeld an Menschen, die in der Nähe dieser Windlärmer leben. Sie erhalten Druckschriften von der Regierung, um ruhig zu bleiben. Die Windräder dürfen also weiterhin Geräusche machen, die Menschen jedoch nicht.

Um Windkraftanlagen nur zur Deckung der Hälfte des weltweiten Strombedarfs zu bauen [im rechnerischen Durchschnitt, nicht nach erforderlicher Zuverlässigkeit], wären fast zwei Milliarden Tonnen Kohle für die Herstellung von Beton und Stahl und zwei Milliarden Barrel Öl für die Herstellung der Verbundflügel erforderlich. Wir würden immense Mengen an Kohlenwasserstoffen freisetzen, nur um die Freisetzung von Kohlenwasserstoffen zu vermeiden.

Zumindest bleibt Solar eine nachhaltige Energiequelle – für den Abbau von Silber und Indium, dessen Bedarf in den nächsten Jahrzehnten um 250% bzw. 1200% steigen wird. Die Nachfrage nach Seltenerden, die für die Herstellung von Solarmodulen benötigt werden, wird bis 2050 auf Steigerungsraten von 300% bis 1000% geschätzt, um die Ziele des Pariser Abkommens zu erreichen.

Die Produktion von Elektroautos erfordert eine Steigerung der Produktion von Kobalt und Lithium um 2000%. Kobalt und Lithium werden oft in abgelegener Wildnis gefunden, die einen hohen Grad an ungestörter Artenvielfalt  besitzen. Mit dem Ausbau des Bergbaus ist es auch dort damit dann vorbei.

Über etwas  sprechen die Profiteure nicht gerne, nämlich dass Windparks stark mit Steuerzuschüssen ausgestattet werden müssen, weil sonst niemand, der bei klarem Verstand ist, einen bauen würde. Warren Buffet besitzt beispielsweise MidAmerican Energy. Buffett sagte: „Für Windenergie erhalten wir eine Steuergutschrift, wenn wir viele Windparks bauen. Das ist der einzige Grund, sie zu bauen.  Ohne Steuergutschrift machen sie keinen Sinn. “

Ingenieure scherzen über die Entdeckung von „Unobtanium“, einem magischen Energie erzeugenden Element, das „aus dem Nichts erscheint, kein Land benötigt, nichts wiegt und nichts emittiert“.

Fazit: „Saubere, erneuerbare“ Energie ist alles andere als das. Es ist eine Umweltkatastrophe. Fossile Brennstoffe hingegen sind leicht zugänglich, erschwinglich und haben einen viel, viel geringeren ökologischen Fußabdruck als alle erneuerbaren Energien. Meine Herren, starten Sie Ihre Motoren.

Renew America

gefunden auf https://stopthesethings.com/2020/04/11/brutal-reality-check-industrial-wind-power-aint-green-it-certainly-aint-clean/

Übersetzt durch Andreas Demmig




Viel zu trockener Frühling in Deutsch­land – die meteorolo­gischen Hinter­gründe

Trotz des vielen Sonnenscheins und des hohen Luftdrucks zeigte sich der Frühling 2020 bisher eher wechselhaft und extrem trocken. Deutlich wird das am Verhalten der Maximum-Temperaturen in Erfurt:

Abbildung 1: Verlauf der Tagesmaxima (°C) an der DWD-Station Erfurt/Weimar vom 19. März bis zum 16. April 2020. Einige warme Tage konnten trotz des anhaltenden Sonnenscheins bislang keine dauerhaften Frühlingsgefühle wecken – extrem trockene Kaltluft sorgte immer wieder für Temperaturstürze. Bildquelle wetteronline.de, ergänzt.

Zwei Wetterkartenbeispiele veranschaulichen das:

Abbildungen 2a und 2b: Auf der Vorderseite eines Skandinavien-Tiefs hatten am Ostersonntag, dem 12. April, die Höchstwerte in Erfurt noch bei 23Grad gelegen (oben). Auf der Rückseite des Tiefs wurden einen Tag später nur noch 10 Grad erreicht. Quelle beider Wetterkarten wetterzentrale.de.

Zu hoher Luftdruck begünstigt Dürren

Schon im Januar wurde hier über zu hohen Luftdruck berichtet. Nach einer von Tiefdruckgebieten dominierten Phase von Anfang Februar bis Mitte März setzte sich wieder viel zu hoher Luftdruck über Mitteleuropa durch. Dabei waren mitunter enorm hohe, an winterliche Hochdruckgebiete erinnernde Werte zu beobachten; aber auch insgesamt fiel das Barometer seit Mitte März nie unter den Normalwert von etwa 1014 Hektopascal (hPa), wie hier am Beispiel der DWD-Station Erfurt/Weimar zu sehen ist:

Abbildung 3: Luftdruck-Verlauf am Flughafen Erfurt/Weimar vom 16. März bis zum 13. April 2020 (Tagesmittelwerte in hPa, reduziert). Fast stets zu hohe Luftdruckwerte über vier Wochen und mehr sind für unsere Breiten mit ihrem raschen Wechsel von Hoch- und Tiefdruckgebieten besonders im Frühjahr untypisch; am ehesten treten sie über so lange Zeit im Spätherbst und in meist sehr kalten Wintern auf. Bildquelle wetteronline.de, ergänzt.

Schon Ende März hatte ein rekordverdächtig kräftiges Hochdruckgebiet mit einem Kerndruck von etwa 1055 hPa auf dem Nordatlantik unser Wetter bestimmt; typischer war aber die folgende Situation:

Abbildung 4: Wetterkarte vom 8.April 2020, 1 Uhr. Ein sehr kräftiges Frühlingshoch liegt über dem südöstlichen Mitteleuropa – die nächsten Tiefs sind weit über eintausend Kilometer entfernt und nördlich der Azoren, Ostkanada, bei Spitzbergen, über Nordrussland und über dem Nahen Osten zu finden. In der Höhe sind zwei Tröge über dem Atlantik und Osteuropa erkennbar; dazwischen ein bis Südskandinavien reichender Höhenrücken (orange Farbtöne). Derartige Konstellationen regenerieren sich immer wieder, was großflächige Niederschläge verhindert. Bildquelle wetterzentrale.de, ergänzt.

Hoher Luftdruck bedeutet jedoch tendenziell absinkende Luft, was zur Austrocknung der Luft und damit zur Wolkenauflösung führt – das begünstigt im Frühjahr zwar teilweise schon warme, sonnige Tage, aber eisige Nächte, so, wie auch 2020. Den negativen statistischen Zusammenhang zwischen der Höhe des Luftdrucks und der Niederschlagsmenge im April illustriert die folgende Abbildung am Beispiel Potsdam:

Abbildung 5: In Potsdam, wo seit 1893 auf dem Telegrafenberg gemessen wird, beeinflusste der Luftdruck die Variabilität der Aprilniederschläge zu fast einem Viertel, das ist wegen des hohen Stichprobenumfangs signifikant. Einige herausragend nasse und dürre Aprilmonate sind markiert. Freilich haben auch andere Faktoren, wie die Luftfeuchte und Vorgänge in höheren Luftschichten, Einfluss auf die Niederschlagsmenge.

Ob vielleicht der massive Ausbau der Windenergie in den letzten drei Jahrzehnten zum steigenden Luftdruck über Mitteleuropa beitrug? Luftdruckwerte lagen nur für Potsdam vor; es zeigt sich folgender Zusammenhang:

Abbildung 6: Mit dem dekadenweisen Ausbau der Windenergie stiegen auch die Luftdruckwerte im April merklich. Der Luftdruck musste zur besseren Darstellung beider Größen in einer Grafik in Indexwerte umgerechnet werden; die wahren, in Potsdam nicht auf NN reduzierten Werte siehe in den grünen Säulen.

Bisher sehr ähnliche Jahreswitterung 2007 und 2020

Beiden Jahren ist ein extrem milder, zeit- und gebietsweise feuchter, stürmischer Winter gemein; es folgten ein nur etwas zu milder März mit einem markanten Kälterückfall im letzten Monatsdrittel und ein extrem dürrer, sonnenscheinreicher April. 2007 fehlte jedoch der sehr hohe Luftdruck und die Trockenheit im Januar; dafür gab es Ende Januar einen kurzen Wintereinbruch. Und anders als 2020, war damals der Februar etwas kälter als Dezember und Januar. Sollten sich diese Ähnlichkeiten im weiteren Jahresverlauf fortsetzen, bestünde noch etwas Hoffnung für Landwirte und Gärtner, denn damals setzten ab Mai intensivere Regenfälle ein; bis Ende September dominierte feuchtes, nur im Mai/Juni noch zu warmes, dann verhalten temperiertes Wetter. Man kann das für 2020 vermuten, aber nicht sicher vorhersagen, doch waren beide Winter und Frühjahre die jeweils sechsten nach dem Sonnenflecken-Maximum des SCHWABE-Zyklus. Aber schon im Sommer gibt es diese Übereinstimmung nicht mehr – er war 2007 noch der sechste und wird 2020 der siebente nach diesem Zyklus-Maximum sein. Damit deuten sich normale bis leicht überdurchschnittliche Sommerniederschläge 2020 vage an:

Abbildung 7: Mittelwerte des Niederschlages (mm) der gleichrangigen Zyklus-Sommer nach dem Sonnenfleckenmaximum. Sichere Vorhersagen erlaubt diese Methode nicht, doch könnte der Sommer 2020 feuchter und weniger warm als in den beiden Vorjahren verlaufen.

Beeinflusst die Sonnenaktivität die Zirkulationsverhältnisse?

Dass die Sonnenaktivität die Frühjahresniederschläge beeinflusst, deutet sich an. Nimmt man als „Startpunkt“ das jeweilige Maximum der Sonnenaktivität im etwa 11-jährigen SCHWABE-Zyklus und ordnet die darauf jeweils folgenden Frühjahre oder Monate von 1 bis 11 („1“ direkt nach dem Maximum, das immer vor der betrachteten Jahreszeit liegen muss!), so zeigt sich folgendes Bild:

Abbildung 8: Mittelwerte des Niederschlages (mm) der gleichrangigen Zyklus-Frühjahre nach dem Sonnenfleckenmaximum. Die Ergebnisse sind nicht signifikant und demzufolge auch für Vorhersagen unsicher; für den April alleine zeigen sich ähnliche Verhältnisse. Der sechste Frühling und besonders der sechste April, den wir mit dem Dürre-April 2007 hatten und auch 2020 wieder haben, fielen aber merklich zu trocken aus.

Auch wenn die Zusammenhänge nur schwach ausfallen, so scheint doch die Sonnenaktivität die Häufigkeit bestimmter Großwetterlagen zu beeinflussen:

Abbildung 9: Tendenziell treten in Zeiten mit geringerer Sonnenaktivität mehr Wetterlagen mit Nordanteil (hier nach HESS/BREZOWSKY klassifiziert) auf. Dies gilt im Frühling, noch mehr aber im gesamten Jahr. Die aktuelle Häufigkeitszunahme der nördlichen Lagen wird somit erklärbar; möglicherweise hat auch die AMO, eine weitere Einflussgröße, ihr Maximum nun erreicht oder schon überschritten. Nördliche Lagen bringen aber meist polare Luftmassen mit, welche im Frühling relativ kalt sind und nur wenig Wasserdampf enthalten. Zur besseren Veranschaulichung in einer Grafik wurden Index-Werte verwendet.

Die Nordatlantische Oszillation (NAO)

Die NAO ist ein Indexwert für das Luftdruckgefälle zwischen Südwesteuropa und Island. Positive NAO-Werte begünstigen Westlagen und sollten damit tendenziell auch feuchtere, eher kühle Frühjahre verursachen; doch seit 1881 zeigt sich fast kein Zusammenhang zwischen NAO und der Niederschlagsmenge im Frühling. Und gerade im März ergab sich ein hoch signifikanter, positiver Zusammenhang zwischen NAO-Index und Märztemperatur, der noch an den Winter erinnert, im April aber nur noch schwach, im Mai kaum noch vorhanden ist. Möglicherweise wird auch die NAO von der Sonnenaktivität begünstigt, was aber noch weiterer Untersuchungen bedarf.

Geringe Fläche des Meereises in der Arktis – mögliche Auswirkungen

Seit Jahren ist die schrumpfende, von Meereis bedeckte Fläche Gegenstand der Diskussion. Allerdings liegen hierfür genauere Daten erst seit Aufnahme der satellitengestützten Überwachung 1979 vor – damals hatte gerade eine Abkühlungsphase, das so genannte „Seventies Cooling“ ihren Höhepunkt. Möglicherweise ist der momentane, dramatische anmutende Eisschwund nicht außergewöhnlich, denn wie konnten sonst die Wikinger in ihren kleinen Booten um das Jahr 1000 ungestört nach Grönland oder Nordamerika segeln? Vermutlich war der Arktische Ozean auf dem Höhepunkt unserer Warmzeit, vor etwa 7000 Jahren, im Sommer sogar oft völlig eisfrei; Näheres hier. Lediglich im April zeigen sich mäßige Zusammenhänge zwischen der Meereisbedeckung und den Niederschlägen in Deutschland, und zwar am deutlichsten, wenn man eine zweimonatige Verzögerung (Eisbedeckung Februar zu Aprilniederschlag) in Relation setzt:

Abbildung 10: Tendenziell feuchterer April in Deutschland bei größerer Meereis-Bedeckung im vorausgehenden Februar. Dieser zeigt sich auch zwischen Februar-Eis und den Frühlingsniederschlägen insgesamt, aber etwas undeutlicher. In den meisten übrigen Monaten und den übrigen Jahreszeiten bestehen nur minimale oder gar keine Zusammenhänge

Man erkennt die recht synchrone Abnahme der Meereis-Bedeckung und der Aprilniederschläge seit 1980:

Abbildung 11: Synchrone Abnahme der eisbedeckten Meeresfläche in der Arktis und der Aprilniederschläge.

Erklärbar wird dieser Zusammenhang, weil auch die Häufigkeit bestimmter, sehr feuchter April-Wetterlagen von der Eisbedeckung beeinflusst werden könnte:

Abbildung 12: Tendenziell weniger in der Höhe zyklonale Wetterlagen über Deutschland im April, wenn die Arktis-Meereisbedeckung im Februar geringer war. Objektive Wetterlagen-Klassifikation des DWD, Näheres dazu hier

Aber was könnte den massiven Schwund des Arktis-Meereises ausgelöst haben? Es ist die schon in der Abbildung 5 erkennbare AMO, ein Index für die Meeresoberflächentemperatur des zentralen Nordatlantiks:

Abbildung 13: In AMO-Warmphasen, wie seit etwa 1990, wird mehr Wärme in das Eismeer eingetragen – das Eis geht zurück. Solche Warmphasen dauern aber vermutlich selten länger, als 25 bis 40 Jahre. Der beste, negativste Zusammenhang zeigte sich zwischen der AMO im Winter und der Eisbedeckung des Frühlings. Auch bei den einzelnen Frühlingsmonaten ist der Zusammenhang recht gut erkennbar, besonders bei März und April.

Weitere Telekonnektionen (Fernwirkungen)

Die Verhältnisse in der Stratosphäre beeinflussen die Zirkulationsverhältnisse ebenfalls; auch wenn die Zusammenhänge oft nur schwach erkennbar sind. Im Winter 2019/20 fielen die niedrigen Stratosphären-Temperaturen über der Arktis (kalter, kräftiger Polarwirbel) auf, welche den feuchten Westlagen-Mildwinter begünstigt haben. Obwohl sich der Polarwirbel im Frühling mehr oder weniger schnell auflöst, scheint er Nachwirkungen auf die Frühlingsniederschläge in Deutschland zu haben, sie fallen tendenziell geringer nach kalten Polarwirbeln im Winter aus:

Abbildung 14: Auf Winter mit einem sehr kalten, kräftigen Polarwirbel, hier anhand der 50 hPa-Stratosphärentemperaturen (Nordpol) dargestellt, folgen eher trockene Frühjahre in Deutschland. Trotz der fehlenden Signifikanz zeigten sich in den Jahren 1990 und 2007 ähnliche Verhältnisse.

Ähnliche, andeutungsweise Beziehungen zeigen sich zur Häufigkeit der antizyklonalen (und damit meist trockenen) Großwetterlagen nach HESS/BREZOWSKY im Frühling – sie sind nach Wintern mit kalten Polarwirbeln häufiger zu verzeichnen. Und die polaren Stratosphärentemperaturen des Frühjahres selbst beeinflussen die Häufigkeit der oft dürren Ostwetterlagen über Deutschland sogar deutlicher:

Abbildung 15: Grenzwertig signifikanter, positiver Zusammenhang zwischen der Stratosphärentemperatur (Nordpol) und der Häufigkeit der Ostwetterlagen nach HESS/BREZOWSKY über Mitteleuropa im Frühling. Eine vergleichsweise „warme“ Stratosphäre über der Arktis scheint Ostlagen zu begünstigen.

Ähnlich könnte sich auch die stratosphärische QBO auswirken. Diese quasi-zweijährige Schwingung (kurz: QBO vom englischen „quasi-biennial oscillation“), auch quasi-biennale Oszillation, ist eine quasi-periodische atmosphärische Welle des zonalen Windes in der äquatorialen Stratosphäre der Erde. Tendenziell treten in negativen QBO-Phasen („Ostwindphasen“) kältere Winter und mehr Extremwetter auf, so etwa im Frühjahr 2018. Daten sind ab 1953 für mehrere Druckniveaus verfügbar; und wie die meisten Telekonnektionen, wirkt sie eher zeitverzögert. Die meisten Zusammenhänge zu den Großwetterlagenhäufigkeiten über Mitteleuropa sind nur schwach; ein etwas deutlicherer fand sich zwischen der QBO in 40 hPa im Januar und der Häufigkeit des Großwettertyps Süd nach HESS/BREZOWSKY im Frühling (diese fallen meist warm aus):

Abbildung 16: Grenzwertig signifikanter, positiver Zusammenhang zwischen der QBO im 40 hPa-Niveau im Januar und der Häufigkeit des Großwettertyps Süd im Frühling über Mitteleuropa. In Westwind-Phasen der QBO treten mehr Südlagen auf; ganz markant war das 1983 zu beobachten.

Es deuten sich auch vage Beziehungen zwischen QBO und den Niederschlagsmengen an, die aber weit unterhalb der Signifikanz liegen. Bemerkenswert ist jedoch die langfristige Entwicklung des stratosphärischen Zonalwindes seit Vorliegen der Reihe (1953). Diese zeigte besonders von Mai bis Juli einen stark negativen Trend, was mehr und kräftigeren Ostwind bedeutet. Ähnliches zeigte sich in abgeschwächter Form auch im April, August und September; und nur im Winter war eine leichte Tendenz zu positiveren Werten (Westwind) erkennbar. Das ist eine mögliche Erklärung für die in den letzten Jahrzehnten gehäuft auftretenden Westwind-Mildwinter und die trocken-warmen Frühjahre und Sommer in Mitteleuropa. Die QBO wird mit hoher Wahrscheinlichkeit auch von der Sonnenaktivität beeinflusst, was noch näherer Untersuchungen bedarf.

Abbildung 17: Trend zu negativen QBO-Werten im Mai – das bedeutet mehr Ostwind und könnte mehr Extremwetter in Mitteleuropa auslösen.

Abschließend sei noch kurz auf die ENSO (El Nino Southern Oscillation) hingewiesen, grob gesagt, beschreiben El Niño und die Southern Oscillation (ENSO) ein komplex gekoppeltes Zirkulationssystem von Erdatmosphäre und Meeresströmung im äquatorialen Pazifik. El Niño steht dabei eher für die ozeanischen Zusammenhänge, während die Südliche Oszillation bzw. Southern Oscillation für die atmosphärischen Zusammenhänge steht. Die Indexwerte dafür sind beim NOAA verfügbar. Auch hier bleiben signifikante Zusammenhänge zum Niederschlagsverhalten in Deutschland weit unter der Signifikanzschwelle; doch deutet sich an, dass bei positiven ENSO-Indexwerten tendenziell feuchtere Aprilmonate auftreten können. Weil die ENSO-Werte seit 1979 leicht gesunken sind, könnten sie somit zumindest einen kleinen Beitrag zu den abnehmenden Niederschlagsmengen im April geleistet haben.




Klimaschutz ohne Ziel! Der Bundesregierung ist auch die optimale globale Mitteltemperatur unbekannt.

Auf diesem Blog wurde schon viel über die enorme Bedeutung einer allgemein anerkannten, stimmigen, globalen Mitteltemperatur geschrieben. (z.B. hier und hier und hier). Der Grund liegt nicht darin, dass es sich bei ihr um eine künstliche, rein statistische Größe handelt, die in der Realität niemals anzutreffen ist (wenn eine solche Mittel-Temperatur, aus lokalen Messdaten bestimmt, irgendwo bekanntgegeben wird, z.B. in Rom, dann handelt es sich dabei im physikalischen Sinne nicht um eine Temperatur, auch nicht um eine globale Mitteltemperatur, sondern allein um eine statistische lokale Größe, die der Kennzeichnung bestimmter lokaler Klimazustände dient), der Grund liegt darin, dass die Klimaforschung, im Bemühen das chaotische System Klima auf wenige einfache physikalische Prozessgrößen zurückzuführen , von denen die wichtigste, in diesem Zusammenhang, die Energiebilanz der Erde bei ihrem Energieaustausch mit Sonne und Weltall ist, diese Temperatur als Ausweis des energetischen Gleichgewichtes der Erde benötigt. Denn es gilt in aller Einfachheit, die Annahme von der Notwendigkeit des energetischen Gleichgewichtes. d.h. es wird zunächst nur der Fall untersucht, für den beide Seiten der Bilanzgleichung gleich groß sind, ihre Differenz also zu Null wird. Dann ist diese Energie-Bilanz Gleichung eindeutig bestimmt, und man kann aus ihr die Komponente Temperatur der Erde, welche die abgestrahlte Energiemenge, unter bestimmten sehr vereinfachten Annahmen physikalisch sauber bestimmt, berechnen. (Dabei wird, mit einiger Berechtigung, die innere Energie der Erde, durch ihren heißen Kern erzeugt, außen vorgelassen.) Änderungen der Einstrahlungsenergie oder Änderungen der Abstrahlungsenergie bewirkten dann entsprechende Klimaänderungen, deren Hauptmerkmal die mittlere Temperatur ist, die sich daraus einstellen würde. Soweit so einfach.

 

Eine ausgeglichene Energiebilanz verlangt eine globale Mitteltemperatur von – 18 °C

Doch nun ergibt sich ein dickes Problem, denn die mit hoher Genauigkeit bestimmbare Sonnenleistung pro Quadratmeter, die unsere Erde auf die Erdscheibe projiziert empfängt,  vereinfacht gekennzeichnet durch die sog. Solarkonstante (rd. 1367 W/m2) und die ebenfalls, wenn auch etwas weniger genau bestimmbare abgestrahlte Leistung, passen einfach nicht zueinander. Es gibt ein deftiges Defizit zuungunsten der globalen Mitteltemperatur. Nach gängiger Treibhaushypothese kann die „gemessene“ abgestrahlte Leistung nur von einer Temperatur (immer als Mitteltemperatur betrachtet) von -18 °C, korrekter von 255 Kelvin erzeugt worden sein.

Nun ist zwar die Bestimmung der „wirklichen“ globalen Mitteltemperatur ausgesprochen schwierig, ja, wie wir im Folgenden sehen werden, schlicht unmöglich, aber dass die Erde im Mittel nur eine Temperatur von – 18 ° C aufweist, wird durch alle Beobachtungen widerlegt. Das wäre zutiefst lebensfeindlich, die Welt wäre fast durchgehend ein Eisblock. Da sie das durchgehend – auch nicht zu Eiszeiten – und für alle sichtbar, nicht ist und nie war, muss etwas passieren, was die reale vielfach angenehme, lebensfreundliche Temperatur erklärt.

Die gängige Hypothese dafür bemüht den Treibhauseffekt, den wollen wir mal hier so stehen lassen, obwohl es wesentlich einfachere, ohne viel Aufwand auch überprüfbare Erklärungsmodelle gibt (z.B hier und. hier). Und eine goldene Regel aller Wissenschaften, aufgestellt vom mittelalterlichen Philosophen William von Ockham, heißt, dass wenn es für ein Phänomen verschiedene Erklärungen gibt, man der einfachsten den Vorzug geben sollte, denn die ist fast immer richtig. Ockhams Rasierer wie diese praktische Entscheidungshilfe heißt, wird jedoch in der offiziellen Klimawissenschaft außen vor gelassen.

Warum die schwer bestimmbare absolute Temperatur so wichtig ist.

Aber auch das soll jetzt nicht unser Thema sein, wer will kann sich unter den angegebenen links einlesen, sondern unser Thema soll die Bedeutung der „richtigen“ oder „optimalen“ globalen Mitteltemperatur sein, auch unter Hinnahme, der, aus meiner Sicht, merkwürdigen Treibhaushypothese (wer will kann sich die Begründung meiner Zweifel hieranschauen). Denn die absolute Temperatur – ceteris paribus- bestimmt sämtliche energetischen Prozesse in dieser Welt, der unbelebten wie der belebten. Wird Eis von – 1°C um 2 ° erwärmt, verwandelt es sich in Wasser von +1 °C, bei einer Ursprungstemperatur von – 3 °C bleibt es Eis, auch wenn dieses dann – 1° „warm“ ist. Hat ein Mensch eine Körpertemperatur von 35 °C dann ist er unterkühlt und muss schleunigst um 2 ° erwärmt werden, damit seine Körpertemperatur wieder auf 37 °C steigt, er also wieder gesund wird, erwärmt man ihn um weitere 2 °C dann wird er wieder krank. Mit 39 °C hat er hohes Fieber. Anhand dieser wenigen Beispielen kann man schon erkennen, dass die absolute Temperatur alle energetischen Prozesse – immer – bestimmt und damit auch das Klima.

 

H.J. Schellnhuber Video „Die Welt hat Fieber“

Aber es gibt noch einen anderen wichtigen Grund und der liegt in den Grundrechenarten, also der einfachsten Mathematik. Will man eine Differenz errechnen, benötigt man dazu mindesten 2 Summanden, will man eine Temperaturdifferenz benötigt man dazu als Grundlage wieder 2 Summanden, nämlich die aktuelle Temperatur und eine Referenztemperatur. Die Logik und die Regeln der Mathematik erlauben zwar, unter Beachtung gestrenger Regeln z.B. bei der Betrachtung von Zeitreihen, die logische Weiterverarbeitung auch von Differenzen – dann sind es einfach nur Zahlen- aber die Physik erlaubt das nicht. Dort muss letztendlich immer wieder auf die absoluten Werte Bezug genommen werden. Und genau das tut die offizielle Klimaforschung nicht (mehr). Seit einigen 20 – 30 Jahren wurde der Politik eingeredet, es genüge sich nur um Temperaturdifferenzen zu kümmern, denn die absoluten Temperaturwerte wären unzuverlässig, schwer zu erheben und würden überdies sehr stark schwanken. Damit machte man zwar aus der Not eine Tugend, allerdings um den Preis der Unbestimmtheit. Das ist in den Naturwissenschaften ein dicker Fehler und eigentlich unentschuldbar, aber in der Politik besonders gern willkommen.

 

Die Bundesregierung kennt keine absoluten Temperaturen mehr, sie glaubt Anomalien (Differenzen) seien genauer und täten es auch

Und dass das offenbar immer noch so ist zeigen einmal mehr die ebenso irreführenden wie in der Sache bestenfalls nichtssagenden, des Öfteren auch einfach falschen Antworten der Bundesregierung auf zwei einfache kleine Anfragen der AfD Fraktion.

Schaut man sie sich an , wird offensichtlich, Mark Twain hat mal wieder recht. Nachdem die Bundesregierung auch in Beantwortung der zweiten kleinen (AfD)-Anfrage zu absoluten globalen Mitteltemperauren zugeben musste, weder die der Pariser Klimaübereinkunft zugrunde liegende Referenztemperatur zu kennen, noch die von ihr als optimal anzusehende globale Mitteltemperatur, muss jedem klar werden, dass die Bundesregierung mit ihrer Klimaschutzpolitik nicht nur einen Blindflug durchführt, sondern sie auch noch nicht mal ein Ziel hat. Sie fliegt das Land sozusagen in einem Blindflug mit unbekanntem Ziel.

Dafür aber verdoppelt sie ihre Anstrengungen. Und wie!

Dabei hilft ihr, welch Zufall, die EU. Denn aufbauend auf Ihrem eigenem „Klimaschutzplan 2050“, und dem Klimaschutzprogramm 2030  soll das nun bestens ergänzt werden durch den „Green Deal“„unser Mann im Mond“,wie Spötter sagen-  der EU, der ihr – über den Umweg Brüssel- schwierige Entscheidungen abnehmend, diese per EU-Verordnung einfach vorgeben will.

Um zu verstehen wie widersinnig und auch vielfach falsch, die gesamte, mit viel wissenschaftlichem Brimborium versehene Klima-Diskussion ist, müsste man sich die entsprechenden kleinen Anfragen in Gänze ansehen. Dazu dürften aber vielen Lesern nicht nur Lust, sondern auch die Zeit fehlen.  Daher wage ich hier mal eine Zusammenfassung.

 

Kurzanalyse der Antwort der Bundesregierung auf zwei kleine Anfragen zur absoluten globalen Mitteltemperatur.

Zunächst gibt Frau Staatsekretärin Schwarzelühr-Sutter in ihren Vorbemerkungen eine Fülle von Hinweisen und Belehrungen, die in keinem einzigen Fall den eigentlichen Fragen entsprechen. Allein diese erstrecken sich über vier DIN A4 Seiten. Und sie sind fast durchgängig per „copy und paste“ identischen Texten aus der Antwort der Bundesregierung BDr.Nr. 19/6899 vom 03.01.2019  auf die kleine Anfrage der AfD Fraktion BDr.Nr. 19/6019 vom 26.11.18 entnommen. Schon daraus muss geschlossen werden, dass die Bundesregierung durch wissenschaftliche anmutende „Vorbemerkungen“ ausweichen will, weil sie die gestellten Fragen nicht beantworten will bzw. kann.

Überdies sind ihre „Vorbemerkungen“ vielfach sachlich falsch, jedenfalls dann, wenn man die üblichen Regeln wissenschaftlichen Arbeitens – z.B. den millionenfach bestätigten Regeln der Fehlertheorie und -Statistik- anwendet. Ihre Behauptungen lassen sich zusammenfassen in der Auffassung, dass es wissenschaftlich möglich sei, trotz vielfach bestätigter mangelhafter Abdeckung der Erdoberfläche -Kontinente ebenso wie Ozeane-  mit meteorologischen Messstationen und der daraus resultierende extrem spärlichen wie ungenügenden Datenzahl wie -Qualität, belastbare Kenntnisse über die absolute Temperaturhöhe zumindest ab dem Zeitraum von 1850 bis 1900 zu gewinnen.

Die Bundesregierung glaubt der offiziellen Klimaforschung man könne aus schlechten und wenigen Daten gute und hoch präzise Ergebnisse errechnen.

Das aber ist Wunschdenken, weil niemand, und mit keiner noch so ausgefeilten statistischen Methode, aus schlechten und wenigen Daten, gute und für, in diesem Falle Klimazwecke, nach Zahl und Qualität, ausreichende Daten machen kann. Die wenigen heute verfügbaren historischen Rohdaten sind nun mal so selten und schlecht wie sie sind.  Es hilft auch nicht, auf die vielen Institutionen wie Zitat (S 7)„ WMO, NASA, NOAA, ECMWF und Hadley-Centre und vielen weiteren“ zu verweisen, und damit eine große Zahl unabhängiger Datenerhebungs- und Auswertungsstellen vorzugaukeln, wenn allgemein gesichert bekannt ist, dass alle diese Institutionen auf dieselben seltenen und qualitativ schlechten Rohdaten zugreifen (müssen). Die Ergebnisse dieser Institutionen unterscheiden sich daher nur durch die unterschiedliche Behandlung der Rohdaten.

Daher muss eindeutig festgestellt werden, dass weder der Bundesregierung noch den beteiligten Wissenschaftlern die absolute Mitteltemperatur vorindustrieller Zeit bekannt ist. Erschwert wird deren Bestimmung noch durch die simple Tatsache, dass es keinen Weg gibt ihre jeweils aus Modellen und wenigen, dazu noch höchst unsicheren, Daten ermittelten Größe an der Wirklichkeit zu überprüfen. Die Vergangenheit ist vergangen, bessere Daten sind nicht verfügbar.

Ebenso ist es Wunschdenken, wenn auch weit in der Klimatologie verbreitet, dass die Bildung von Temperaturdifferenzen (Anomalien), auch bei langen Zeitreihen, die Fehlergröße massiv absenken würde. (hier und hier) Diese Gesetzmäßigkeit gilt zwar begrenzt für echte zufällige, also wirklich gleichverteilte Fehler, aber nicht und in keinem Fall für die vielfältigen systematischen Fehler. Die addieren sich mit der Quadrat-Wurzel aus der Summe ihrer Quadrate. Erschwerend kommt hinzu, dass, weil die Anomalien so klein sind, das Gewicht der Fehler, welche sie unweigerlich begleiten, um zwei bis drei Größenordnungen größer ist, als wenn sie auf die Absolutwerte bezogen würden. Ein Fehler von ± 0,5 °C auf 15 ° C bezogen hat nun mal eine bedeutend geringere Auswirkung auf die Referenzzahl als wenn der gleiche Fehler auf  0,5 °C bezogen wird. Im ersten Fall spielt er nicht wirklich eine Rolle und verändert die Bedeutung der Referenzzahl kaum, im zweiten Fall verschwindet die Referenzzahl völlig im Rauschen der Unsicherheit.

 

Was nicht ermittelt werden kann, wird einfach als unnötig erklärt

Daher entschließt sich die Bundesregierung zur Flucht nach vorn und behauptet eine absolute Mitteltemperatur interessiere gar nicht, man würde diese auch gar nicht benötigen, weil sie viel bessere und genauere Anomalien gewinnen könne, die eine Überprüfung der Maßnahmen nach der Pariser Klimaübereinkunft erlauben würde. Das ist jedoch ein Ding der Unmöglichkeit und damit falsch.

Und weil das so ist drehte sich die Fragestellung darum, welche globale Mitteltemperatur die Bundesregierung als optimal ansieht. Und der Beantwortung auch dieser einfachen Frage ist sie – wie anders – ausgewichen. Alles in ihrer Antwort ist nur ablenkendes Beiwerk.

Sie verfällt deshalb in den üblichen Modus aus der Unmöglichkeit eine globale Mitteltemperatur genau genug bestimmen zu können, diese für nicht erforderlich und auch nicht für wichtig zu erklären, weil man ja Anomalien und die viel besser, auch so bestimmen könne. Dass das falsch ist, weil unwissenschaftlich und jeder Logik und Fehlerrechnung widersprechend, müssten die Bundesregierung bzw. die ihr zuarbeitenden Wissenschaftler eigentlich wissen, denn es ist – außerhalb der Klimawissenschaft- millionen- und milliardenfach täglich geprobtes Standardwissen.

 

Die Antwort hätte daher so aussehen müssen.

Daher hätte die Bundesregierung wahrheitsgemäß erklären müssen: „Ja, wir halten die aus der Treibhaushypothese (der „natürliche Treibhauseffekt“ (THE) brächte eine Erwärmung von 33 Kelvin) sich errechnenden 15 ° C für optimal“. Aber dann hätten sie keinen Grund mehr gehabt „Klimaschutz“ zu betreiben, weil die aktuelle „globale Mitteltemperatur“ mit 14,83 ° C immer noch darunter liegt.

Oder sie hätte erklären müssen: „Die Klimaforscher haben sich leider, leider vor 25 Jahren um ein sattes Grad C, oder Kelvin, verrechnet, der natürliche THE schafft nur 32 K – was aber leider vom Strahlungsenergiefluss nicht bestätigt wird- und damit läge diese ideale „globale Mitteltemperatur“ bei nur 14 ° C. Und weil sie „real“ nun in der Spitze bei 14,83 ° C liegt, ist das höchst gefährlich und dazu noch Schuld des Menschen“. All das hat sie aber nicht, stattdessen wich sie auf Nebenkriegsschauplätze mit viel wiss. anmutenden Brimborium aus. Und verfolgt im Blindflug ein schwebendes unbestimmtes 2° Ziel.

 

 




Was wird zuerst verschwinden – das Coronavirus-Fieber oder das Klimawandel-Fieber?

Regierungen in aller Welt haben drakonische Maßnahmen verordnet, um individuelle Freiheiten aller Art zu beschneiden, wie etwa Versammlungen und Bewegungsfreiheit, Meinungen Ausdruck verleihen und mehr. All das im Namen des Kampfes gegen das COVID-19-Virus.

Universitäten sind geschlossen, viele für das gesamte Semester. Desgleichen die meisten Schulen, um Konzertsäle, Theater und andere öffentliche Ereignisse nicht zu erwähnen, wo der geforderte 2-Meter-Abstand „sozialer“ oder „physischer“ Art nicht gewährleistet ist.

Diese Vorschriften ruinieren die Lebensweise vieler Menschen sowie Fortschritte hinsichtlich Wissen und Verständnis unter der jüngeren Generation. Das wird langfristig nachteilige Auswirkungen haben, nicht nur für sie selbst, sondern für die gesamte Gesellschaft.

Im landwirtschaftlichen Sektor haben sich viele Landwirte auf die Hilfe erfahrener Saisonarbeiter als Erntehelfer verlassen, doch ist es diesen derzeit nicht gestattet, zu ihren angestammten Arbeitsplätzen zu reisen. Selbst lokale Helfer, die für die Anfahrt nur ein paar Kilometer zurücklegen müssten, können das nicht tun, ohne gleich Gesetze zu brechen.

Hinzu kommen jetzt starke Fröste in weiten Gebieten Ost- und Mitteleuropas, was die diesjährigen Ernteaussichten hinsichtlich von Baumfrüchten erheblich hat schwinden lassen.

Der neue Marschbefehl scheint zu lauten:

Wir sitzen alle in einem Boot – wirklich?

Für einen unabhängigen Beobachter sieht es eher aus wie „jeder für sich oder so gut wie man kann!“

Gute Befreiung vom Gedanken einer „globalen Familie“ von Gutmenschen. Wenn es hart auf hart kommt, wie es derzeit en vogue ist, gibt es „keine Grenzen“.

Eines der ersten Opfer dieses neuen Standpunktes ist – was man überall beobachten kann – eine wahrheitsgemäße Berichterstattung in den Mainstream-Medien (MSM) zu welchem Thema auch immer. Das Problem beginnt schon bei der für manche Ereignisse verwendeten Terminologie, zum Beispiel der Terminus „Fälle“.

Die „Fälle“

Im allgemeinen Sprachgebrauch hat dieser Terminus „Fälle“ Bedeutungen, die von „kaum wahrnehmbar“ bis „fast tödlich“ reichen. Und als wäre jener Terminus noch nicht verwirrend genug, kommt jetzt ein anderes Wortungetüm daher, nämlich „Coronavirus-Todesfälle“. Der Terminus „Fälle“ taucht häufig in den Medien auf, zusammen mit der jüngsten „Todesrate“, aufgelistet von Institutionen wie der Johns-Hopkins University in den USA und dem Robert Koch Institut in Deutschland.

Was fehlt ist eine eindeutige Definition der Termini „Fälle“ und „aktive Fälle“. In einigen MSM-Berichten scheinen sie sich auf Menschen zu beziehen, die als infiziert gefunden wurden, in anderen auf alle getesteten Personen und in wieder anderen auf jene mit Coronavirus-Symptomen.

Natürlich sind „Fälle“ von Infektionen nicht das Gleiche wie „Todesfälle“. Tatsächlich verläuft nur ein Bruchteil der „bestätigten Fälle von Infektionen“ tödlich. In den meisten Ländern beträgt dieser Bruchteil weniger als 3%. Ja, das ist immer noch eine hohe Prozentzahl, aber sie muss auch „normalisiert“ werden mit der verbleibenden „Lebenserwartung“ der betroffenen Menschen – und mit allen anderen (potentiell wahren) Ursachen für Sterben.

Nachrichten aus Island

Neue Daten beispielsweise aus Island zeigen, dass die „Corona-Pandemie“ von Experten und Nicht-Experten gleichermaßen rasch als lediglich eine andere „Grippe“ betrachtet wird. Im Gegensatz zu den meisten anderen Erhebungen testete man in Island auf Zufallsbasis etwa 3,5% der Gesamtbevölkerung und kam zu dem Ergebnis, dass nur die Hälfte all derjenigen, die positiv getestet worden waren, Symptome zeigte. Falls dieses Verhältnis in anderen Ländern ähnlich ist, würde das auch bedeuten, dass die tatsächlichen Todesfälle durch das Virus nur halb so hoch ist wie die, welche man aus den „bestätigten Fällen“ erreicht hat.

Die in den MSM genannten Todesfälle erwähnen kaum einmal andere gesundheitliche Beeinträchtigungen. Noch wichtiger ist, diese Zahl in Beziehung zu setzen zu den Todesfällen aus allen anderen Gründen.

Todesfälle aus allen Gründen

Die Todesrate in vielen westlichen Gesellschaften beträgt in etwa 1(±0,2)% der Gesamtbevölkerung pro Jahr, und damit kann man leicht die Berechnungen anstellen. In den USA beispielsweise mit rund 340 Millionen Einwohnern bedeutet das eine Todesrate von 3,4 Millionen pro Jahr oder größenordnungsmäßig 300.000 pro Monat. In Kanada mit einer Bevölkerung etwa ein Zehntel so groß wie in den USA sind es 30.000 Todesfälle pro Monat aus allen Gründen.

Tatsächlich sind die meisten „COVID-19“-Todesfälle in Italien einer Lungenentzündung als Hauptursache gefolgt.

In Europa mit einer Gesamtbevölkerung von ~500 Millionen Einwohnern errechnet sich die Todesrate aus allen Gründen auf über 400.000 Todesfälle pro Monat.

Todesfälle durch COVID-19

Nun vergleiche man dies mit Todesraten durch das COVID-19-Virus: Bisher wurden dem in Kanada 503 Todesopfer zugeordnet. Das im Vergleich zu über 50.000 Todesfällen aus allen Gründen im Verlauf von nur zwei Monaten.

Betrachtet man diese Zahlen auf der Basis der Gesamtbevölkerung, so unterscheiden sie sich kaum zwischen den größeren staatlichen Einheiten, selbst für Europa. Einschließlich der von COVID-19 betroffenen Gebiete in Norditalien, Spanien und Frankreich beträgt die Zahl der Todesopfer, die dem Virus zugeschrieben werden, heute etwa 2% der Gesamtbevölkerung.

Allerdings bedeutet auch diese Zahl nicht, dass jeder registrierte Todesfall als solcher dem COVID-19-Virus geschuldet ist – bei Weitem nicht.

Todesfälle durch – im Gegensatz mit – Infektion

Todesfälle durch im Gegensatz zu jenen mit Infektionen sind nicht das Gleiche. Tatsächlich hatte bereits eine große Zahl von Menschen, deren Tod dem COVID-19-Virus zugeschrieben wird, andere gesundheitliche Probleme, viele davon sogar mehr als ein anderes. In vielen Fällen wird es dadurch schwierig, die wahren oder sogar die vorwiegenden Ursachen aufzufinden. Allerdings erscheint es gegenwärtig als allgemein üblich, jedweden Todesfall der jüngsten Beobachtung zuzuschreiben.

In „normalen“ Zeiten würden sich etwaige Fehlverknüpfungen wahrscheinlich bis nahe an die tatsächlichen und wahren Ursachen ausgleichen. Im Augenblick ist das nicht der Fall. Es scheint einen „echten Nutzen“ für solche „aus CV-19“-Todesfall-Zuweisungen zu geben.*

[Dieser Absatz ist vom Linguee-Translator übersetzt]

In diesem Zusammenhang kann es auch interessant sein, den jüngsten Beitrag von M. Vadum vom PSI zu lesen mit dem Titel „The CDC Confesses To Lying About COVID-19 Death Numbers“.

Der COVID-19-„Vorteil“

In einem kürzlich erschienenen Report geht es um höchst bedenkliche (finanzielle) Anreize, unbegründete Behauptungen zu verbreiten. Jim Hoft vom PSI berichtet hier: „Dr. Jensen enthüllte auch, dass Krankenhäuser mehr Geld erhalten, falls sie Patienten mit einer COVID-19-Diagnose listen. Und sie bekommen DREI MAL SO VIEL, falls der Patient dann an ein Beatmungsgerät angeschlossen wird“.

Wenn das kein Anreiz zum Hyper-Ventilieren ist, dann weiß ich nicht, was es sonst sein soll. Eindeutig ist die sachliche Berichterstattung über die tatsächliche Ursache mehr als wahrscheinlich falsch.

Und seit Neuestem werden auch Verbindungen konstruiert zwischen dem COVID-19-Virus und „Klimawandel“. Falls es dafür überhaupt irgendeine Grundlage gibt, kann es nur so sein, dass die massiven Fehlleistungen einiger westlicher Länder zur „Rettung des Klimas“ eher die Ursache als eine Erklärung für die Todesfälle durch Viruskrankheiten sind.

Das (traurige) Fazit

Die massiv verschwendeten Mittel für „Klimawandel“ und „Dekarbonisierungs“-Pläne vieler westlicher Gesellschaften – alle auf der Grundlage des falschen Glaubens, dass Kohlendioxid ein Treiber des „Klimas“ ist – hätten viel besser in nutzbringende soziale Projekte fließen sollen anstatt in die Ökonomie zerstörende Programme.

Die am stärksten von den Vorschriften bzgl. COVID-19 betroffenen Menschen sind nicht die Älteren (welche zugegebenermaßen die meisten Todesfälle verzeichnen), sondern die jüngere Generation, welche schon jetzt stark eingeschränkt ist, was ihre Fähigkeit betrifft, Familien in der Hoffnung auf ein besseres Leben in der Zukunft zu gründen.

Diese Beobachtung hinterlässt mich mit einer entscheidenden Frage:

Cui bono – wer profitiert von diesem globalistischen Schema?

Dr. Klaus L.E. Kaiser is author of CONVENIENT MYTHS, the green revolution – perceptions, politics, and facts Convenient Myths

PRINCIPIA SCIENTIFIC INTERNATIONAL (PSI), legally registered in the UK as a company incorporated for charitable purposes. Head Office: 27 Old Gloucester Street, London WC1N 3AX.

Link: https://principia-scientific.org/which-will-die-first-corona-virus-fever-or-climate-change/

Übersetzt von Chris Frey EIKE




Erneute Frühjahrs­dürre in Deutsch­land – eine Ursachen­forschung

Eiskalte Frühlingsnächte 2020 und die CO2-Erwärmung – das passt nicht zusammen

Langschläfer nahmen seit Mitte März nur den herrlichsten Sonnenschein bei teilweiser Wärme im Windschatten wahr, sie bemerkten die oft bitterkalten Frühlingsnächte nicht. Wieder einmal erweist sich die Praxis als Kriterium der Wahrheit, denn auch die stark gestiegene CO2-Konzentration unserer Luft konnte diese Kälte nicht verhindern. Das verdeutlichen die Tiefstwerte der nicht im Kälteloch stehenden DWD-Station Erfurt/Weimar:

Abbildung 1: Temperatur-Minima am Flughafen Erfurt/Weimar vom 15.März bis zum 12.April 2020. Nach mäßigen Nachtfrösten in der letzten Märzdekade und zum Monatswechsel blieben auch die Aprilnächte empfindlich kühl mit Bodenfrösten. Bildquelle wetteronline.de, ergänzt.

In der glasklaren, knochentrockenen Subpolar- und Arktikluft fehlten Wasserdampf und Wolken als „Kälteschutz“. Aber was hat diese Kälte nun mit der Frühjahresdürre zu tun? Die schon recht trockenen Böden begünstigten eine starke Tageserwärmung; trotz der Nachtkälte wurden nicht selten 15 bis 22°C erreicht, was die relative Luftfeuchte auf teilweise wüstenhafte Werte von unter 30% sinken ließ; aufgehängte Wäsche trocknete in kaum 3 Stunden, und es wurde sogar vor Stromschlägen durch elektrostatische Aufladung gewarnt, was extrem trockene, saubere Luft erfordert; Näheres hier. Kälte und Dürre verzögerten auch die Vegetationsentwicklung: Betrug der phänologische Vorsprung wegen des milden Winters um den 20. März noch gute drei Wochen, so waren es um den 10. April nur noch wenige Tage; Forsythien und Osterglocken blühten rekordverdächtige 4 bis 6 Wochen lang!

Die langfristige Entwicklung der Frühjahresniederschläge

Die Daten für das deutsche Flächenmittel liegen seit 1881 vor. Sie bieten eine Überraschung, denn bis in die 1980er Jahre, und da war die CO2-Konzentration schon seit etwa einhundert Jahren gestiegen, wurden die Frühjahre (hier immer die Summe der Monate März bis Mai) merklich feuchter; eine Abnahme zeigt sich erst seit etwa 1990 – sie konnte den Langfristtrend bisher aber nicht umkehren:

Abbildung 2: Deutliche Zunahme der Frühlingsniederschläge in Deutschland seit 1881.

Betrachtet man die Einzelmonate langfristig, so wurden März und Mai feuchter, der April aber geringfügig trockener:

Abbildung 3: Der April wird schon seit den späten 1930er Jahren trockener, wobei die beiden trockensten Monate mit je 4mm 1883 und 2007 beobachtet wurden; auch der April 2020 wird extrem dürr ausfallen. In Relation zur Sonnenaktivität (Anzahl der Sonnenflecken) fehlt ein statistischer Zusammenhang, doch könnte die seit den 2000er Jahren stark nachlassende Sonnenaktivität die Aprildürre verstärkt haben. Sonnenaktivität vom Februar, weil diese meist zeitverzögert wirkt.

Dass die Sonnenaktivität die Frühjahresniederschläge beeinflusst, ist zwar plausibel, aber schwierig zu beweisen. Nimmt man jedoch als „Startpunkt“ das jeweilige Maximum der Sonnenaktivität im etwa 11-jährigen SCHWABE-Zyklus und ordnet die darauf jeweils folgenden Frühjahre oder Monate von 1 bis 11 („1“ direkt nach dem Maximum, das immer vor der betrachteten Jahreszeit liegen muss!), so zeigt sich folgendes Bild:

Abbildungen 4a und 4b: Mittelwerte des Niederschlages (mm) der gleichrangigen Zyklus-Frühjahre (oben, 4a) und des Aprils (unten, 4b) nach dem Sonnenfleckenmaximum. Die Ergebnisse sind nicht signifikant und demzufolge auch für Vorhersagen unsicher; der sechste Frühling und besonders der sechste April, den wir mit dem Dürre-April 2007 hatten und auch 2020 wieder haben, fielen aber merklich zu trocken aus.

Weil Dürren auch durch zu hohe Temperaturen begünstigt werden, lohnt sich auch ein Blick auf die Frühlingstemperaturen:

Abbildung 5: Der sechste und der zehnte Frühling nach dem Sonnenflecken-Maximum fielen deutlich zu warm aus.

Es deuten sich also Einflüsse der Sonnenaktivität auf die Frühjahreswitterung an – weil schon in der Vergangenheit die sechsten Frühjahre nach dem Maximum des SCHWABE-Zyklus zu warm und zu trocken waren, wird nun auch die aktuelle Frühjahreswitterung 2020 erklärbar.

Verstärkt die menschliche Tätigkeit die Frühjahresdürre?

Seit dem späten 19. Jahrhundert veränderte sich die Landnutzung massiv, und dieser Prozess dauert bis heute an. Durch Meliorationen, Bebauung und Versiegelungen gingen einst intakte Feuchtgebiete, Böden und Vegetationsflächen als Feuchtespeicher verloren – Wasser, das einst verdunsten und damit zur Wolken- und Niederschlagsbildung beitragen konnte, wird heuer viel schneller über die Kanalisation abgeleitet; zudem heizen sich Beton und Asphalt stark auf. Dabei ist der „UHI-Effekt“ (vom englischen „Urban Heat Island Effect“) nur ein punktuelles Indiz in Ballungszentren für die menschengemachte Erwärmung:

Abb. 6: Vergleich der in einem Ballungsraum liegenden Station Frankfurt/Main Flughafen mit dem ländlichen Gießen. Die viel schnellere Erwärmung des Ballungsraumes wird deutlich.

Straßen, Bahnstrecken, Stromtrassen, Entwässerungsmaßnahmen und weitere Nutzungsänderungen „tragen“ die siedlungsbedingte Erwärmung aber auch in die freie Landschaft; und neuerdings rückt der massive Ausbau der Wind- und Solaranlagen in den Blickpunkt. Besonders Windenergieanlagen (im Folgenden WEA genannt) erlebten in den vergangenen Jahrzehnten einen regelrechten Ausbau-Boom. Standen 1988 kaum 150 Windräder in Deutschland, so waren es Ende 2019 fast 31.000 WEA! Mit Höhen zwischen 50 und 200 Metern und ihren enormen Flügelspannweiten wirkt dieser neu erwachsene künstliche Wald wie ein riesiges Hindernis für den aus Nordwesten wehenden, feuchten, Regen bringenden Wind mit Lee-Effekten; außerdem werden zusätzliche Turbulenzen erzeugt, was die Nebelbildung und die nächtliche Abkühlung vermindern und die Wolkenbildung beeinflussen kann. Hinzu kommt der massive Zubau von WEA in den Nachbarländern Holland und Dänemark. Die folgende Übersichtskarte zeigt die massive Häufung der WEA in Deutschland:

Abbildung 7: Standorte wichtiger Windenergieanlagen (WEA) 2019 On- und Offshore. Der Bau erster, noch gigantischerer Anlagen auf See („Off-Shore“) begann 2008/09. Man erkennt die enorme Häufung in NW-Deutschland; der Süden war weniger betroffen. Bildquelle

Ein erster Hinweis zu möglichen klimatischen Auswirkungen des Windkraftausbaus ergab sich aus Untersuchungen des Autors zur Entwicklung der Windgeschwindigkeiten in Norddeutschland. Sie zeigen tendenzielle Abnahmen; Näheres dazu, auch über die meteorologischen Hintergründe, hier. Für den April ergibt sich folgendes Bild:

Abbildung 8: Tendenziell sinkende Windgeschwindigkeiten im April seit 1992. Mittel aus 25 DWD-Stationen; ein DWD-Flächenmittel gibt es leider nicht, und statt konkreter Geschwindigkeitsangaben liegen diese Stationswerte nur in Beaufort vor.

Setzt man nun die Ausbau-Entwicklung der WEA (Beginn: 1988) in Relation zum Flächenmittel des Aprilniederschlages in Deutschland, so zeigt sich folgendes Bild:

Abbildung 9: Mit dem kontinuierlichen Ausbau der Windenergie (hier in Tausend vorhandene Anlagen pro Jahr) sanken tendenziell die Aprilniederschläge in Deutschland. Weil die WEA-Anzahl statistisch meist viel später als im April des jeweiligen Jahres erfasst wird, wurde deren Vorjahresanzahl mit dem jeweils zugehörigen Aprilniederschlag des Folgejahres in Relation gesetzt; es ergab sich für die Wertepaare 1988/1989 bis 2018/2019 ein im Grenzbereich der Signifikanz liegender Korrelationskoeffizient von -0,368.

Noch deutlicher wird ein möglicher Zusammenhang bei dekadenweiser Betrachtung:

Abbildung 10: Mit dem dekadenweisen Ausbau der Windenergie sanken die Aprilniederschläge in Deutschland merklich.

Die Vorläufigkeit dieser Untersuchungsergebnisse muss betont werden, und Korrelationen beweisen noch keine kausalen Zusammenhänge. Auch zeigen sich nicht in allen Monaten derart deutliche Zusammenhänge – aus der Reihe tanzt der Mai mit positiver Korrelation, was aber möglicherweise mit der „Vorliebe“ dieses Monats für Ostwetterlagen erklärt werden kann. Diese neigten auch schon vor Einführung der Windenergie zu Trockenheit, und in unseren östlichen Nachbarländern wurden außerdem weitaus weniger Windräder aufgestellt. Allerdings korreliert der WEA-Ausbau auch mit den steigenden Lufttemperaturen in Deutschland, und zwar schwach negativ im Winter, deutlich positiv in den übrigen Jahreszeiten, besonders markant positiv im Juni, was ein ernster Hinweis ist, dass die angeblich so klimafreundliche Windenergie merklich zur Klimaerwärmung beiträgt.

WI-Effekte und Luftreinhaltemaßnahmen ließen die Sonnenscheindauer im Frühling stark ansteigen – das wirkte stark erwärmend und austrocknend

Weil heuer mehr verdunstungswirksames Wasser in der Kanalisation verschwindet, es weniger Vegetationsflächen gibt und die Luft Dank der peniblen EU-Luftreinhaltemaßnahmen viel klarer wurde (weniger Staub, Dunst, Nebel und tiefe Wolken), scheint die Frühlingssonne nun viel länger und kräftiger. Eine dritte wesentliche Ursache, geänderte Häufigkeitsverhältnisse der Großwetterlagen, soll ebenfalls erwähnt werden und Thema eines gesonderten Beitrages werden. Abschließend sei hier die Entwicklung der Sonnenscheindauer aller drei Frühlingsmonate im DWD- Flächenmittel für Deutschland gezeigt; diese liegen leider erst seit 1951 vor:

Abbildungen 11a bis 11c: Langfristige Zunahme der Sonnenscheindauer in allen drei Frühlingsmonaten über Deutschland, besonders im April. Aber erst ab April wirkt diese stark erwärmend. Auch der Frühling 2020 wird sehr sonnenscheinreich ausfallen, der März hat sein Soll schon übererfüllt, nun deutet sich ein sehr sonniger April an. Wegen der sehr unterschiedlichen Größen musste die Sonnenscheindauer in Indexwerte umgerechnet werden, um sie gemeinsam mit der Lufttemperatur darstellen zu können.

In einem späteren Beitrag werden die meteorologischen Ursachen der aktuellen Frühjahrstrockenheit erörtert.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




WerteUnion fordert: Diesel-Fahrverbote aufheben

Ingo Gondro, stellvertretender Bundesvorsitzender der WerteUnion, im Wortlaut:

„Die Diesel-Debatte muss von Grund auf neu bewertet werden. Die Daten, die wir aktuell von den Meßstationen während des Lockdowns erhalten, legen zumindest Zweifel nahe, daß Dieselautos allein für den Stickoxid-Ausstoß verantwortlich sind. Aus unserer Sicht hat die sogenannte Deutsche Umwelthilfe nicht die Gesundheit der Menschen im Blick, sondern führt einen ideologischen Kampf gegen den Individualverkehr. In Zeiten von Corona ist dies noch schädlicher als sonst. Denn es ist besser im eigenen Auto zur Arbeit zu fahren als im überfüllten öffentlichen Nahverkehr, wo die Ansteckungsgefahr sehr hoch ist.“

Quellen: gleichbleibende Stickstoffdioxid-Konzentrationen trotz geringerem Verkehr

 

 




Woher kommt der Strom? ein weiterer Problemkreis

Hier wackelt Deutschlands Traum von der schnellen Energiewende.

Hinzu kommt, dass die Ungleichbehandlung von Braun- und Steinkohlekraftwerken in Sachen Entschädigungszahlungen von den Betreibern der Steinkohlekraftwerke nicht ohne Weiteres hingenommen werden wird. Während die Stilllegung von Braunkohlekraftwerken großzügig entschädigt wird, müssen sich die Besitzer von Steinkohlekraftwerken einem Auktionsverfahren unterwerfen. Ab 2026 könnten solche Kraftwerke sogar ohne Entschädigung stillgelegt werden. Dieses Verfahren gefährdet im Übrigen womöglich auch noch die Wärmeversorgung, welche zum Teil auch durch Steinkohlekraftwerke gesichert wird. Es sieht so aus, dass die Umsetzung der Reste des Kohlekompromisses – komplett übernommen und umgesetzt werden soll er ohnehin nicht – noch Jahre dauern kann.

In unserer 14. Analysewoche importiert Deutschland sehr viel Strom. Frankreich und die Schweiz sind die Hauptlieferanten, die Strom günstig von Deutschland kaufen, um dann – wenn benötigt – wieder an Deutschland zu verkaufen. Bedarfsspitzen werden vor allem durch Pumpspeicherstrom gedeckt. Sehr schön veranschaulicht dieser Chart den Zusammenhang von Stromerzeugung durch erneuerbare Energieträger, Bedarf und Preis.

Die Tabelle mit den Werten der Energy-Charts liefert die Detailzahlen, die in diesem Chart veranschaulicht werden. Der Import ist in dieser Woche besonders hoch, wie diese Grafik zeigt. Den Strom Im- und Export des Jahres 2020 finden Sie hier grafisch aufbereitet.

In dieser Woche verlässt sich Deutschland sehr stark auf den im benachbarten Ausland erzeugten Strom. Ob es sinnvoll ist, hier in Deutschland Kernkraftwerke abzuschalten, um dann Strom aus Kernkraftwerken anderer Länder (Schweiz, Frankreich) zu importieren, steht auf einem anderen Blatt. Bigott ist es schon.

Die Tagesanalysen

Sonntag, 29.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 47,87%, davon Windstrom 34,57%, Sonnenstrom 4,79%, Strom Biomasse/Wasserkraft 8,51%. Die Agora-Chartmatrix: Hier klicken.

Sonntag: Wenig Bedarf, aber viel Strom, vor allem aus Windkraftwerken. Der Höchstpreis, der erzielt werden kann, liegt bei 20,59 €/MWh der niedrigste Preis bei -15,80 €/MWh. Frankreich, die Schweiz und Österreich importieren günstig, zum Teil mit Bonuszahlungen für den abgenommenen Strom.

Montag, 30.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,40%, davon Windstrom 25,60%, Sonnenstrom 14,40%, Strom Biomasse/Wasserkraft 14,40%. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung lässt nach. Nur von 9:00 bis 16:00 Uhr reicht der in Deutschland produzierte Strom, um den Bedarf zu decken. Ansonsten wird importiert. Die konventionelle Stromerzeugung wird zwar hochgefahren. Doch um den Bedarf zu decken, reicht es nicht.

Dienstag, 31.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 44,92%, davon Windstrom 12,71%, Sonnenstrom 16,95%, Strom Biomasse/Wasserkraft 15,25%. Die Agora-Chartmatrix: Hier klicken.

Heute fast das gleiche Bild wie am Montag. Strom-Hauptimporteure nach Deutschland sind wieder Frankreich und die Schweiz. Die konventionellen Stromerzeuger wollen den Bedarf nicht decken. Es steht ein Anstieg der Windstromerzeugung an.

Mittwoch, 1.4.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,14%, davon Windstrom 23,31%, Sonnenstrom 18,05%, Strom Biomasse/Wasserkraft 12,78%. Die Agora-Chartmatrix: Hier klicken.

Der Strom aus Windkraftwerken steigt an, die Sonnenkraftwerke produzieren reichlich, wie bereits die ganze Woche. Dennoch reicht das alles nicht, um den Bedarf komplett zu decken. Auch heute wird wieder Strom importiert. Relativ teuer. Im Gegensatz zum Export über Tag. Da fallen die Preise.

Donnerstag, 2.4.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 61,15%, davon Windstrom 33,81%, Sonnenstrom 15,11%, Strom Biomasse/Wasserkraft 12,23%. Die Agora-ChartmatrixHier klicken.

Der Donnerstag stellt sich im Prinzip wie die Vortage dar: Heute ansteigende Windstromerzeugung  bei starker Sonnenstromerzeugung. Morgens und abends werden höhere Preise aufgerufen als über den sonnenstromstarken Tag. Das Mantra gilt: Je mehr erneuerbar erzeugter Strom im Markt ist, desto geringer werden die Preise.

Freitag, 3.4.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 59,40%, davon Windstrom 35,34%, Sonnenstrom 11,28% Strom Biomasse/Wasserkraft 12,78%. Die Agora-Chartmatrix: Hier klicken.

Um 0:00 Uhr erreicht die Windstromerzeugung den Peak. In der Nacht zum Samstag werden nur noch knapp 5 GW onshore erzeugt. 24 Stunden vorher waren es noch über 23 GW. Die Strompreise schwanken wie gehabt.

Samstag, 4.4.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 52,83%, davon Windstrom 15,09% Sonnenstrom 21,70%, Strom Biomasse/Wasserkraft 16,04%. Die Agora-Chartmatrix: Hier klicken.

Heute, zum Wochenend-Samstag, noch weniger Bedarf als sonst. Die Corona-Krise zeigt Auswirkungen. „Zum Glück“ wird heute kaum Windstrom erzeugt. Dass sich das zum Sonntag ändert, deutet sich ab 20:00 Uhr an. Die Sonne scheint heute wieder sehr stark. Das Preisbild der Woche gilt auch heute. Dass auch heute der meiste fehlende Strom auf Frankreich und der Schweiz importiert wird, sei hier noch mal erwähnt.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen?

Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Zuerst erschienen bei der Achse des Guten; mit freundlicher Genehmigung.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog  www.mediagnose.de




Alternative Energie aus Süd-Korea

Diese Zulassung gilt international als der „Goldstandard“. Nahezu ein Muss, wenn man ein Kernkraftwerk auf dem Weltmarkt an Länder mit ausreichend harten Devisen verkaufen will – und nur das verspricht langfristig Gewinn. China versucht über eine Kooperation mit EDF, ihren HUALONG-Reaktor wenigstens in GB zugelassen zu bekommen.

Russland lernt gerade in Finnland und der Türkei, wie umfangreich und inhaltsschwer ein Genehmigungsverfahren in „westlichen Kulturen“ ist. Die sprichwörtliche Geheimniskrämerei und Arroganz gegenüber „kleinen Nationen“ ist dabei wenig hilfreich, eher hinderlich. So ist das mit viel Selbstbewusstsein gestartete Projekt Hanhikivi 1 in Finnland seit Jahren im Genehmigungsverfahren stecken geblieben. Man wollte schon 2018 mit dem Bau begonnen haben und hofft nun wenigstens auf eine Genehmigung bis 2021. Die resultierenden Kosten (Festspreisangebot) bei jetzt schon absehbarer Verzögerung um mindestens 10 Jahre könnten noch eine harte Nuss für Putin werden, stammen die Mittel doch aus dem russischen Pensionsfond. So viel vorweg, um die Leistung der koreanischen Industrie und den Startvorteil auf dem Weltmarkt richtig einzuordnen.

Ein weiterer Vorteil ist, dass mit Shin Kori 3 (seit 2016) und Shin Kori 4 (seit 2019) bereits zwei Reaktoren erfolgreich am Netz sind. Shin Kori 5 ist seit 2017 und Shin Kori 6 seit 2018 in Bau, ebenso Shin Hanul 1 und Shin Hanul 2. Vier weitere Reaktoren stehen vor der Fertigstellung in Barakah in den Vereinigten Emiraten. Was aber fast noch wichtiger in der heutigen Zeit ist, der Bau von Barakah 1 begann 2012 und die fristgerechte Fertigstellung erfolgte 2018 – in einem entfernten Land, mitten in der Wüste, fast ohne vorhandene kerntechnische Infrastruktur. Parallel musste die gesamte zugehörige Betriebsmannschaft erst ausgebildet werden, was zu einiger Verzögerung bei der Inbetriebnahme führt. Besonders attraktiv ist jedoch der Preis mit rund 3.600 US-Dollar pro Kilowatt. Wohlgemerkt für eine Energiequelle mit 90-prozentiger Verfügbarkeit gemäß Bedarf. Damit kann keine Sonnenenergie – auch nicht am Golf – konkurrieren, denn auch dort ist es des Nachts dunkel, und oft genug ist der Himmel am Tage bedeckt (jährliche Arbeitsausnutzung). Wie konnte Süd-Korea dies gelingen?

Die koreanische Geschichte der Kernkraftwerke

Korea unterteilt seine kerntechnische Geschichte selbst in vier Phasen. In der ersten Phase (1970er Jahre) wurden Kernkraftwerke vollständig importiert. In der zweiten Phase (1980er Jahre) wurden immer mehr nukleare Komponenten im eigenen Land hergestellt. Hierfür wurden enge Kooperationen – einschließlich Wissenstransfer – mit den einschlägigen Zulieferern im Ausland abgeschlossen. Hierdurch gelang es sehr schnell, eine eigene kerntechnische Industrie aufzubauen. Das Ziel der dritten Phase (1990er Jahre) war die Entwicklung eines möglichst unabhängigen (im Sinne von Lizenzbedingungen) eigenen Reaktors. Ausländische Zulieferer konnten nur noch als Subunternehmer einheimischer Zulieferer tätig werden. Es entstand der Reaktor OPR1000. Von ihm wurden im Zeitraum von 1989 bis 2015 zehn Reaktoren in Korea gebaut und in Betrieb genommen. Parallel wurde die komplette kerntechnische Infrastruktur von Forschung, Entwicklung, Schulung, Genehmigungsverfahren und so weiter installiert. Aus Korea wurde eine international respektierte Kernenergienation. Ausdrücklich ohne jedes militärische Interesse. Ganz im Gegensatz zum Glaubensbekenntnis tumber „Atomkraftgegner“, dass Kernenergie immer einen militärischen Hintergrund hat. Im rohstoffarmen Südkorea ging es vielmehr um eine gesicherte Eigenversorgung mit Energie und hochwertige Exportgüter. Bis hierher, eine Menge Parallelen zu Deutschland …

Nach dem Reaktorunfall in Harrisburg USA und Tschernobyl in der Sowjetunion setzte weltweit ein Run auf die Entwicklung noch sicherer Reaktoren der sogenannten „III. Generation“ ein. Eine (teilweise) Kernschmelze wie in Harrisburg sollte noch unwahrscheinlicher werden, und selbst über die bisherigen Auslegungskriterien hinausgehende Unfälle sollten in ihre Wirkung auf das Betriebsgelände beschränkt werden. Aus diesen Überlegungen entstand in Südkorea seit Anfang des Jahrhunderts der Typ APR1400. Man orientierte sich wieder an den USA (Modell 80+ von Combustion Engineering), achtete aber auf eine Unabhängigkeit über Lizenzerwerb und konsequente Entwicklung eigener Berechnungs- und Konstruktionsverfahren. Heute kann man ein komplettes Kernkraftwerk der Generation III, einschließlich (digitaler) Steuerung und Regelung und aller nuklearen Komponenten bauen. Ein Zustand, den China gerade erst erreicht und Russland immer noch nicht erreicht hat (Regelung, Turbine etc.).

Wie sich durch Projekte in Flamanville (EPR in Frankreich) oder Vogtle (AP1000 in USA) zeigt, ist aber die nahezu wichtigste Voraussetzung für die Einhaltung geplanter Bauzeiten eine geübte Mannschaft an qualifizierten Fachleuten. Südkorea hat dies durch den kontinuierlichen Ausbau erreicht. Eine jahrzehntelange Unterbrechung hingegen bedeutet faktisch einen Neuanfang in der Kerntechnik. Wissen und Übung geht schlichtweg verloren. Ferner ist für die Kosten auch eine möglichst einfache Konstruktion erforderlich. Jeder Kubikmeter umbauter Raum treibt die Kosten vielfach, jede Schweißnaht auf der Baustelle ist eine potenzielle Fehlerquelle und so weiter.

Kein ideologischer Aktionismus wie in Deutschland

Der APR1400 ist, wie oben bereits gesagt, eine konsequente evolutionäre Weiterentwicklung vorhandener Druckwasserreaktoren. In jedes Bauteil sind die Betriebs- und Montageerfahrungen der vorausgegangenen 10 OPR 1000 eingeflossen. Eine schrittweise Entwicklung, wie man sie zum Beispiel auch aus der Automobilindustrie (vom Golf x, über den Golf y zum Golf z) kennt. Entwicklungssprünge und Verfahrenswechsel hingegen (zum Beispiel vom Käfer mit luftgekühltem Benzinmotor auf den Golf Diesel) sind immer mit Risiko und Kinderkrankheiten verbunden. Mit anderen Worten, man hat gar nicht versucht, den „Superreaktor“ zu bauen, sondern vielmehr eine solide Arbeitsmaschine, die dafür aber kostengünstig ist.

Bei den Sicherheitsanforderungen eines Reaktors der sogenannten „dritten Generation“ hat man sich konsequent an den Forschungs- und Entwicklungsarbeiten in den USA (CE80+ von Combustion Engineering/Westinghouse) orientiert. Die dort entwickelten Rechenprogramme und Versuche an Modellen und in Kraftwerken haben die Zulassung enorm beschleunigt. Dies betrifft ganz besonders auch die Werkstoffe, denn anders als zum Beispiel in der „Klimafolgenforschung“ muss jedes Rechenprogramm seine Aussagefähigkeit durch Nachrechnung von Versuchen unter Beweis stellen. Eine höchst kosten- und zeitintensive Angelegenheit.

Bei der Konstruktion und Zulassung hat man gleich ein „Plant Life“ von 60 Jahren angesetzt. Es scheint leider immer wieder notwendig, darauf hinzuweisen, dass es bei einem Kernkraftwerk keine technische Lebensdauer gibt, sondern lediglich eine wirtschaftliche. So ist zum Beispiel die Betriebserlaubnis für vier Kraftwerke in den USA (Peach Bottom 2,3 und Turkey Point 3,4) bereits auf 80 Jahre verdoppelt worden. Alles hängt nur von den Wartungs- und Modernisierungskosten ab. So gibt es andererseits zum Beispiel in Japan Kraftwerke jüngeren Datums, die wegen erforderlicher Anpassung an heutige Sicherheitsanforderungen (Tsunami) nicht mehr zu vertretbaren Kosten nachrüstbar sind. Von ideologischem Aktionismus wie in Deutschland gar nicht zu reden.

Südkorea kann eine Eigenentwicklung anbieten

Eine Orientierung bietet immer der Verschleiß (Neutronenbeschuss) des Reaktordruckgefäßes. Heute besitzt man spezielle Werkstoffe und ein besseres Verständnis der Zusammenhänge als noch vor 50 Jahren. So kann man einen rechnerischen Nachweis für mindestens 60 Jahre erbringen. Entsprechend der später tatsächlich aufgezeichneten Belastungen kann die „Lebensdauer“ weiter angepasst werden.

Ähnlich sieht es mit den Dampferzeugern aus. Einerseits hat sich die Qualität, die Wasserchemie, die Werkstoffe (Inconel 690) und so weiter bedeutend verbessert, andererseits kann man schlicht durch eine Überdimensionierung eine Reserve schaffen. So besitzt jeder der zwei Dampferzeuger 13.102 Rohre, von denen bis zu 10 Prozent ohne Leistungseinbuße verschlossen werden können.

Der Brennstoff ist für Wechselintervalle von mindestens 18 Monaten ausgelegt. Dies erlaubt eine Arbeitsverfügbarkeit von deutlich über 90 Prozent. Die Instrumentierung und Steuerung ist voll digital. Südkorea kann eine Eigenentwicklung anbieten. Es handelt sich um eine offene Architektur, die ebenfalls eine Nutzungsdauer von zig Jahrzehnten auch bei Hardware-Veränderungen erlaubt. Die Steuerung ist so konzipiert, dass der Reaktor voll automatisch Laständerungen folgen kann.

Anders als zum Beispiel bei dem französischen EPR wurde auf sicherheitstechnischen Schnickschnack wie eine doppelte Betonhülle (gegen fiktive Flugzeugabstürze und Terror) und einen „Core Catcher“ (gegen Hollywoods China Syndrom) verzichtet. Beides Kostentreiber. Trotzdem wurde die Wahrscheinlichkeit für eine Beschädigung des Kerns (Unfall in Harrisburg) auf unter ein Ereignis in 100.000 Reaktorbetriebsjahren und ein Containment-Versagen (Fukushima) mit Freisetzung von Radioaktivität auf weniger als einmal in 1 Million Reaktorbetriebsjahren gedrückt.

Reaktorkern

Ein Reaktorkern muss stets ausreichend gekühlt werden (Nachzerfallswärme nach Abschaltung). Wenn Kühlmittel verloren geht (zum Beispiel Bruch einer Rohrleitung) muss dies sofort ersetzt werden. Der APR1400 besitzt hierfür einen ausreichend großen Tank innerhalb des Sicherheitsbehälters (IRWST, in-containment refueling water storage tank). Einem Wasserverlust und damit Druckverlust im Primärkreislauf wird passiv durch einen Druckspeicher entgegengewirkt. Es ist ein Druckbehälter mit Stickstoffpolster, der ab einem Systemdruck von 40 bar etwa 51 m3 nachspeisen kann. Es ist ein passives Sicherheitssystem (keine Fremdenergie nötig), das automatisch auslöst. Zusätzlich gibt es vier völlig voneinander getrennte Noteinspeisungen, die mit elektrischen Pumpen oder Dampfturbinen betrieben werden. Sie speisen direkt über eigene Anschlüsse in den Druckbehälter – oder, wenn noch möglich – in die Dampferzeuger ein.

Bei Störfällen, die über die Auslegung hinausgehen, wird zusätzlich die Grube, in der sich der Reaktordruckbehälter befindet, mit Wasser gefüllt. So wird der Druckbehälter auch dann dauerhaft gekühlt, wenn bereits eine Kernschmelze eingetreten ist (Fukushima). In den ersten 30 Minuten laufen alle Maßnahmen ohne jeden Eingriff des Betriebspersonals ab. Man will damit Fehlbedienungen (Harrisburg) verhindern, bis das Personal sich einen detaillierten Überblick verschafft hat und wieder etwas Ruhe eingekehrt ist. Die weitere Notkühlung ist für einen automatischen Betrieb über acht Stunden ausgelegt. Genug Zeit, um auch Hilfe von außen heranführen zu können.

Das Containment besteht aus einem zylindrischen Spannbetonbehälter. Er übernimmt den Schutz gegen Einwirkungen von außen (Flugzeugabsturz, Terror und so weiter). Gleichzeitig verhindert er die Freisetzung von radioaktiven Stoffen auch bei schwersten Störfällen mit zerstörtem Kern. Gegen Wasserstoffexplosionen (Fukushima) gibt es 30 Katalysatoren und 10 Zündeinrichtungen, die gefährliche Konzentrationen verhindern. In dem Sicherheitsbehälter befinden sich Sprinkler, die radioaktive Stoffe (zum Beispiel Jod) aus der Atmosphäre im Containment auswaschen können, bevor sie über die Filteranlagen und den Kamin in die Umwelt gelangen (Tschernobyl, Fukushima). Zusätzlichen Schutz gegen Einwirkungen von außen bietet die Architektur: Alle Hilfs- und Nebengebäude sind schützend um das Containment angeordnet. Dabei wird das Prinzip vierfacher Sicherheit beibehalten. Es gibt vier hermetisch voneinander getrennte Gebäudeteile. Sie sind durch Brandmauern und Flutschutz (Fukushima) vollständig getrennt.

Bauweise

Durch den konsequenten Einsatz von 3-D-Simulationen und Baustellenmanagement konnte die Bauzeit schon bei Shin-Kori 3&4 auf 55 Monate (vom ersten Beton der Grundplatte bis zur Übergabe) beschränkt werden. Bei einem „Bau in Serie“ geht man von 48 Monaten Bauzeit aus. Dies wird auch durch eine Sektionsbauweise mit vorgefertigten Modulen, Einsatz von Schweißrobotern, Einbringung von Dampferzeugern und Druckgefäß von oben mittels Schwerlastkran und so weiter erreicht. Wichtig ist die kontinuierliche Auslieferung von Kernkraftwerken im In- und Ausland. Nur so kann auf allen Teilgebieten mit geübten Fachkräften gearbeitet werden und Erfahrungen geteilt werden. Reißt die Pipeline für viele Jahre ab – wie in USA und Frankreich geschehen – fängt man quasi wieder von vorne an. Kraftwerksbau wird zum unkalkulierbaren wirtschaftlichen Risiko (gemacht).

Südkorea und China beweisen, dass Kernenergie immer noch die kostengünstigste und zuverlässigste (vom Wetter unabhängig) Methode ist, elektrischen Strom zu erzeugen. Selbst in Ländern, in denen fossile Energieträger (USA, China, Indien, arabischer Raum) reichlich vorhanden sind. Man muss es nur richtig machen!

Druck- und Siedewasserreaktoren sind noch lange nicht an ihrem technologischen Ende angekommen. Genauso wenig, wie Heizkessel durch Wärmepumpen und „Mao-Diesel“ verdrängt worden sind, obwohl das schon vor fast 50 Jahren in den Ölkrisen 1973 und 1976 prophezeit wurde. Es gilt auch weiterhin die Kostendegression durch Anlagengröße. Reaktorgrößen zwischen 1.000 und 1.500 MWel werden deshalb weiterhin gebaut werden. Industriell gefertigte Kleinreaktoren (SMR) werden noch für lange Zeit ein Nischenprodukt bleiben. Betrachtet man die Gesamtkosten (Personal, Bewachung, Wiederholungsprüfungen und so weiter), werden sie noch unter Beweis stellen müssen, dass die Stromkosten tatsächlich geringer sind.

Vergleicht man Deutschland und Südkorea, stellt man eine Menge Parallelen fest. Nicht nur die Rohstoffarmut und das Wiedererstehen nach schrecklichen Kriegen. Wenn Deutschland nicht von öko-sozialistischen Irrlehren heimgesucht worden wäre und es in der Energiewirtschaft Unternehmer (ein Unternehmer unternimmt etwas) an der Stelle von Kombinatsleitern (sich selbst als ausführender Arm der Politik verstehend, nur auf staatliche Subventionen schielend) geben würde, wäre Deutschland noch heute ein hoch geschätzter Lieferant von Kraftwerken auf dem Weltmarkt. Wohlstand durch Exporterfolge wäre garantiert und als Bonbon zusätzlich „billige Strompreise“ im Inland und nicht Zwangsabschaltungen von „Kleinverdienern und Rentnern“. Wie ging noch mal das Märchen von „Hans im Glück“?

Dieser Beitrag erschien zuerst auf Klaus-Dieter Humpichs Blog NukeKlaus.




Eine Waggonladung Untergang von Daten-Flutwelle hinweg gespült

Demetris Koutsoyiannis, ein Hydrologe an der National Technical University von Athen, wollte die wissenschaftlichen Daten hierzu einer General-Inspektion unterziehen, um zu sehen, ob sich in der Praxis irgendetwas den Behauptungen des IPCC Entsprechendes zeigt. Seine Ergebnisse, die er kürzlich bei dem Journal Hydrology and Earth System Sciences [i] zur Begutachtung eingereicht hatte, dürften für das IPCC und dessen Trittbrettfahrer der Untergangs-Prophezeiungen eine sehr unbequeme Lektüre sein.

So sieht es beispielsweise so aus, dass obwohl die Relative Feuchtigkeit bei globaler Erwärmung konstant sein soll [je wärmer die Luft, umso mehr Wasserdampf kann sie aufnehmen, Anm. d. Übers.], sie in Wirklichkeit abnimmt. Taupunkte sollen vermeintlich steigen, meistens tun sie das aber nicht. Insbesondere in äquatorialen Regionen scheint es kaum oder gar keine Änderung zu geben, obwohl in dieser Region die höchsten Verdunstungsraten aus den Ozeanen auftreten. Sehen wir dort keine Änderung, dann sind zunehmende Überschwemmungen von der Agenda verschwunden.

Und Koutsoyiannis kommt zu dem Ergebnis, dass der Wasserdampfgehalt der Luft nur um etwa ein Drittel der vom IPCC prophezeiten Raten zunimmt. Falls diese Zunahme wirklich so gering sein sollte, dann werden wir zum Zeitpunkt der berüchtigten Zwei-Grad-Marke nur eine Zunahme um 4% verzeichnen, was laut Koutsoyiannis vernachlässigbar ist angesichts der normalen Variabilität hydrologischer Zyklen. Woher sollen die Fluten und Überschwemmungen also kommen?

Da hört es aber noch nicht auf. Es gibt viele andere Möglichkeiten, wie sich eine Intensivierung des hydrologischen Zyklus‘ manifestieren kann. Man kann den Gehalt an Wasserdampf in Säulen der Atmosphäre messen. Auch dieser sollte mit zunehmender Erwärmung zunehmen, oder? Koutsoyiannis findet aber keinen Trend. Die mittlere Regenmenge auf dem gesamten Planeten sollte ebenfalls zunehmen – und zwar dem IPCC zufolge um 1% bis 3% pro Grad globaler Erwärmung. Das Problem mit dieser Behauptung besteht darin, dass diese Zunahme innerhalb des „Rauschens“ der normalen Variabilität liegt – kein Wunder, dass Koutsoyiannis keinen Trend finden kann. Die begrenzten Daten hinsichtlich Verdunstung gehen in die gleiche Richtung.

Was ist mit Extrem-Regenereignissen? Koutsoyiannis betrachtet verschiedene Maßzahlen: Änderungen der täglichen Maxima, Tage mit Regen im Vergleich zu irgendwelchen Mittelwerten, und so weiter. Er untersucht dies auf dem Festland und über den Ozeanen. Und überall findet er nur die Leere Menge.

Koutosoyiannis ist nicht nur ein hervorragender Wissenschaftler, sondern hat auch ein tiefes Interesse an der wissenschaftlichen Erkenntnis und Praxis der Antike. Dies hat seinen Standpunkt bzgl. der Klima-Angsterzeugung geprägt. In seinen Schlussfolgerungen sagt er, dass über die kleinen Änderungen, welche Klimawissenschaftler heute so in Extase versetzen, historische Ingenieure gar nicht erst geredet hätten. Sie hätten derartig geringe Änderungen lediglich als Rauschen in den sich ständig ändernden hydrologischen Zyklen eingestuft. Außerdem weist er darauf hin, dass diese geringen Änderungen für Entscheidungsträger bzgl. Flutschutz und Wasserspeicherung völlig uninteressant sind. Und er fragt sich, ob es angesichts der die Prophezeiungen der Klimatologen so eindeutig widerlegenden Daten nicht endlich an der Zeit ist, dass sich die Hydrologen von ihren Untergangs-Phantastereien verabschieden und sich wieder realen Beiträgen zur Verbesserung des Lebens der Menschen zuwenden.

Man sieht, was er meint.

Link: https://www.thegwpf.com/bandwagon-of-doom-washed-away-by-tidal-wave-of-data/

Übersetzt von Chris Frey EIKE




CO2-Messungen am Mauna Loa: Bisher keine signifi­kante Auswir­kung des globalen wirtschaft­lichen Abschwungs

Vorigen Monat habe ich ein einfaches Verfahren beschrieben, um den großen Jahreszeiten-Zyklus aus den CO2-Daten des Mauna Loa zu entfernen, ebenso wie diejenigen aus den durchschnittlichen Auswirkungen von El Nino und La Nina (die Entfernung ist mit viel Rauschen behaftet und nicht perfekt). Damit wollte ich versuchen, den diesen Zyklen überlagerten Trend des CO2 zu bestimmen und damit eine Grundlage, die Messungen mit denen von vor ein paar Monaten zu vergleichen.

Was wir suchen sind Hinweise auf einen Rückgang des atmosphärischen CO2-Gehaltes, der groß genug wäre, um dem wirtschaftlichen Abschwung zugeschrieben werden zu können. Wie man sieht, zeigen die jüngsten CO2-Daten zwar einen leichten Abwärtstrend, der aber im Vergleich zu den Änderungen von Monat zu Monat noch nicht aus dem Rahmen fällt:

Ich persönlich bezweifle, dass wir einen eindeutigen COVID-19-Effekt bzgl. CO2 während der kommenden Monate sehen werden, aber es wäre schön, wenn sich diese meine Ansicht als falsch herausstellt. Wie vor einem Monat schon erwähnt, werden all jene, welche den ökonomischen Abschwung als eine Gelegenheit sehen, den atmosphärischen CO2-Gehalt zu reduzieren, viele Jahre warten müssen – wenn nicht sogar Jahrzehnte – bevor man irgendwelche Auswirkungen eines großen wirtschaftlichen Abschwungs auf die globalen Temperaturen sehen würde – welcher die Menschheit sehr teuer zu stehen kommen dürfte, insbesondere den armen Menschen.

Link: https://wattsupwiththat.com/2020/04/08/march-2020-co2-levels-at-mauna-loa-show-no-obvious-effect-from-global-economic-downturn/

Übersetzt von Chris Frey EIKE




Der Frost hört nicht auf in Italien, Region Emilia Romagna

Die Welle der Nachtfröste, die einen Großteil Italiens betrifft, geht weiter. Im Norden hat die Situation ein beispielloses Niveau erreicht, mit 8 Stunden unter Null in der Nacht des 2. April und minimalen Spitzenwerten von -6 ° C. Sogar die Frostschutzsysteme haben Probleme, da der Schutz eines Obstgartens mit 5 ° C unter Null nicht einfach ist.

Nach drei schlaflosen Nächten, in denen er sich um Frostschutzsystem gekümmert hat, ist Davide Vernocchi, Präsident von Apo Conerpo entmutigt:

Mit diesen Temperaturen kommt der Frostschutz  an seine Grenzen. Wir sprechen in einigen Gebieten von 5, 6 Grad unter Null, wie in der Provinz Ravenna. Aprikosen, Pfirsiche, Pflaumen, Kiwis sind betroffen: In einigen Fällen beträgt der Schaden 100%. Es wird weniger Arbeit für alle geben. Die Natur hat eines unserer großen Probleme grausam gelöst: den Mangel an Arbeitskräften. Paradoxerweise haben müssen mehrere Landwirte in den nächsten Monaten woanders nach Arbeit suchen. „

Apo Conerpo

6.000 Produzenten sind in 50 Genossenschaften organisiert, die in den am besten geeigneten Obst- und Gemüseregionen Italiens verteilt sind: Dies ist das Herzstück der Apo Conerpo Producer Organization, die mit über 1.000.000 Tonnen Obst und Gemüse pro Jahr 91 Verarbeitungsbetriebe vermarktet. Täglich sind 190 Techniker beschäftigt, die Verbesserungen, Unterstützung und Qualitätskontrollen an Produkten und Verarbeitungssystemen durchführen. Wir sind in Europa führend im Bereich frisches Obst und Gemüse.

 

Ein schrecklicher Frost, der völlig außerhalb der Saison liegt und alle Obst- und Gemüseproduktionen zum schlimmsten Zeitpunkt traf. Der plötzliche Temperaturabfall, der am 23.03., Montagabend bereits gegen 20 Uhr unter den Gefrierpunkt fiel und bis morgens 7 Uhr anhielt, traf die Pflanzen mitten in der Fruchtansatzphase, dem heiklen Moment nach der Blüte, in der die Entwicklung der Früchte beginnt:

Bei Steinobst ist der Schaden beeindruckend: Fast die gesamte Aprikosenproduktion ist beeinträchtigt so Vernocchi weiter und der Schaden an Nektarinen- und Pflaumenpfirsichen sowie am empfindlichen Anbau von gelben Kiwis ist sehr bedeutend. Die Auswirkungen auf Kernobst müssen noch bewertet werden, insbesondere bei Birnen, deren Entwicklung rückständiger war als die anderer Früchte. „

„Letztes Jahr – so Vernocchi weiter – musste sich die Agrarwelt verschiedenen Notfällen stellen: vom klimatischen anomalen Niederschlägen im Mai bis zum trockenen Sommer. Notfälle mit der Explosion verschiedener Fruchtkrankheiten, zusätzlich zu den bekannten und weit verbreiteten Schäden, die durch den asiatischen Käfer verursacht werden. Dieser Frost betrifft einen Sektor, der bereits intensiv getestet wurde und der trotz der Schwierigkeiten und trotz der anhaltenden Epidemie und aller damit verbundenen kritischen Probleme maximale Anstrengungen unternimmt, um den Bedarf an frischem Obst und Gemüse zu decken. Wir stehen vor einem 100% igen Schaden für einige Unternehmen.

Auch an der oberen Fruchtfront gibt es große Bedenken. Albano Bergami von OI Pear erklärt, dass

„in der Region Ferrara die schwerwiegendsten Schäden an frühen Sorten wie Santa Maria, Carmen und William verzeichnet wurden. Was die Abate-Fetel-Birne betrifft, so hängt dies von den Gebieten, von den erreichten Temperaturen und der Verfügbarkeit oder Nichtverfügbarkeit der Frostschutzsysteme und auch des Wassers ab„.

Bei den Äpfeln verzeichnete die Sorte Fuji die größten Schäden. In vielen Fällen ist ein Verlust von mehr als 50% zu verzeichnen. Aber auch Gala und Pink Lady haben gelitten.

„Leider müssen wir uns zusätzlich zu den unmittelbaren Schäden – sagt Bergami – mit dem Mangel an Fruchtansatz und zukünftigen Fruchtsäften auseinandersetzen. Derzeit ist es nicht möglich, eine genaue Schätzung der Gesamtverluste vorzunehmen.“

https://www.freshplaza.com/article/9205823/the-frosts-will-not-stop/

Davide Vernocchi, Präsident von Apo Conerpo

Übersetzt und zusammengestellt von Andreas Demmig




Ein Plädoyer für die Industriegesellschaft

Die Länder Asiens, die in den letzten Jahrzehnten eine gewaltige industrielle Entwicklung hingelegt haben, sind wesentlich erfolgreicher ans Werk gegangen. Wer sich nicht auf China beziehen möchte, nehme sich andere asiatische Länder zur Anschauung wie z.B. Südkorea: vorbereitet, modern, schnell, effektiv und insgesamt ziemlich beispielhaft.

Der Westen hat die Warnungen der letzten 18 Jahre, das nämlich immer wieder auftretende Phänomen neuer virulenter Erreger, einfach nicht zur Kenntnis genommen. Und dies, obwohl es auch hier von weitsichtigen Personen wie dem Lungenarzt Prof. Köhler schon im Jahr 2005 einen sehr brauchbaren Pandemieplan gegeben hat. Auch danach gab es genügend Anzeichen und Warnungen, dass so etwas jeder Zeit auf uns zu kommen könnte.

Stattdessen schürte man hier das Phantom einer bevorstehenden Klimakatastrophe und bereitete Schritt für Schritt den Ausstieg aus der Industriegesellschaft vor. Inzwischen liegt der ganze Plan dazu bei der Europäischen Union in Form des „New Green Deal“ auf dem Tisch, und Angela Merkel stellte das als große Errungenschaft in Davos persönlich vor, mit der Ankündigung, man müsse nun alles ablegen, woran wir uns im Industriezeitalter gewöhnt hätten.

Sie hatte damals in Davos aber vor lauter Klimawahn übersehen, dass die Liste des bereits Abgelegten schon gefährlich lang ist: moderne makellose Straßen und funktionierende Bahnverbindungen, einsturzfeste Brücken, moderne Telekommunikation, preiswerte und sichere Energieversorgung, Beatmungsgeräte, ausreichendes Pflegepersonal, Schutzkleidung, Masken, Tests und was sonst noch alles dazu gehört.

Die Industriegesellschaft aufgeben zu wollen, ist vergleichbar nur mit den wahnsinnigsten Modellen von „Kulturrevolution“, die wie Mahnmale in die Geschichte eingegangen sind.

Haben wir vergessen, dass viele Generationen vor uns dafür gekämpft haben, dass die erfolgreiche und stetige Anwendung unzähliger Erfindungen und Verbesserungen die Grundlage unseres Wohlstands und unserer gesellschaftlichen Freiheit sind? Freiheit ist keine nur individuelle und auch keine nur akademische Frage. Schön, wenn Frau von der Leyen ein Video über die richtige Methode des Händewaschens macht und dazu aus Beethovens Neunter etwas summt, aber in manchen Regionen Afrikas gibt es nicht einmal die Freiheit, sich die Hände waschen zu können und an vielen anderen Orten auch nicht. Und hier, wollen wir es etwa Freiheit nennen zu entscheiden, wer behandelt wird und wer nicht, nur weil die Krankenhaus-Kapazitäten wegrationalisiert wurden? Wollen wir demnächst entscheiden, wer wann etwas Strom abbekommt und wer wieviel Rohstoffe verarbeiten darf ? Ist es Freiheit, Spekulationsgewinne aus dieser Krise zu ziehen und sich damit zu brüsten, diese einzigartige Corona- Gewinn- Chance geschickt genutzt zu haben? Unbequeme Fragen, die sich aufdrängen.

Industrie wurde zu unseren besten Zeiten verstanden als eine Kraft, gesellschaftliche Werte zu schaffen, die der Freiheit aller dienten. Dazu gehörte neben vielen anderen Errungenschaften eine wetterunabhängige Energieversorgung, moderne Verkehrstechnik, eine leistungsfähige Produktion und ein hervorragendes Bildungs-und Gesundheitssystem.

Seit dem Geschwätz von den Grenzen des Wachstums und der Forderung nach System-Veränderung ist dieser Freiheitsbegriff nicht nur ins Wanken geraten, sondern sogar systematisch uminterpretiert und verdreht worden und das seit nun 50 Jahren.

Diejenigen, die schon 1972 im letzten Kapitel der „Grenzen des Wachstums“ die grundlegende Veränderung unserer Wertmaßstäbe und die Änderung der Gesamtstruktur unserer Gesellschaft forderten oder beklatschten, zielten von Anfang an auf den Ausstieg aus der Industriegesellschaft. Sie meinten dabei nicht irgendwelche Länder, sondern vorzugsweise Deutschland, das in den Jahren 1955 bis 1972 eine erstaunlich schnelle Aufbauarbeit nicht nur in Sachen Kerntechnik geleistet hatte. Viele, die ihnen sozialistische Motive, kommunistische Unterwanderung oder sogar ehrliche Umweltschutzgründe unterstellten, hatten nie wirklich begriffen, dass die Bewegung von Anfang an und mit aller Konsequent gegen die Fortschrittstradition gerichtet war.

Einer dieser schon damals fanatischen Systemveränderer war Prof. Dr. Amory Lovins, der über Jahrzehnte hinweg zusammen mit Ernst Ulrich von Weizäcker in diese Richtung wirkte. Bei einem hochrangigen Expertengespräch in Bonn im Jahr 1977 mit dem Thema: „Schnelle Brüter -Pro und Contra“ kam er ausführlich auf den systemrelevanten Unterschied zwischen sogenannter „harter Energie“ und „weicher Energie“ zu sprechen. Dabei sagte er: „ Kurz gesagt wird beim „softpath“-Ansatz die Energie nicht als Selbstzweck betrachtet, sondern als Mittel zur Erreichung gesellschaftlicher Ziele und diese Ziele sollen erreicht werden, indem Energie eingespart….. und andere Ressourcen sparsam verwendet werden“ [1]. Aus seiner Zusammenarbeit mit Häfele beim Internationalen Institut für angewandte Systemanalyse (IIAS) in Laxenburg ist bekannt, dass Lovins schon damals der Ansicht war, dass eine unbegrenzte Energieversorgung dem Systemwechsel im Wege stehe und dass deshalb die Zerschlagung zentral organisierter Strukturen wesentlich sei.

Die Energieumwandlung sollte deshalb in kleinen, dezentralisierten Einheiten, beruhend auf regenerativen Energiequellen erfolgen [2]. Amory Lovins gründete 1982 das Rocky Mountain-Institut. Gemeinsam mit seinem Gesinnungsgenossen Ernst Ulrich von Weizäcker , der das berüchtigte Wuppertal-Institut mitgründete, arbeiten sie jetzt schon 50 Jahre an der sogenannten großen Transformation, dem Ausstieg aus der Industriegesellschaft. Über das 1995 gemeinsam publizierte Buch mit dem Titel „Faktor 4 — doppelter Wohlstand- halbierter Naturverbrauch“ heißt es in der kürzlich erschienen neuen Schrift von Prof.Schneidewind (Wuppertal-Institut) mit dem Titel „Die große Transformation– Eine Einführung in die Kunst gesellschaftlichen Wandels“, dass die Einschätzung ganz falsch gewesen sei. Nachhaltigkeit sei nicht alleine mit mehr Effizienz möglich. Nun müsse demnächst alles begrenzt und zugeteilt und der Primärenergieverbrauch in Deutschland müsse bis 2050 halbiert werden. Es wird dann nicht nur an Masken fehlen……

Die These des Club of Rome von den begrenzten Ressourcen ist längst widerlegt. Dennoch werden schamlos neue Thesen in die Welt gesetzt, deren Gültigkeit man abermals widerruft, andere aufstellt und das ganze als die „Kunst des gesellschaftlichen Wandels“ vermarktet. Was wollen wir mit diesen Leuten, die sich nie auf die Realität beziehen? Man kann ja nur hoffen, dass die gegenwärtige Krise früher oder später zu einer Zäsur wird, dass die Realität stärker wirkt als die Ideologie und dass wir uns rechtzeitig an die eigentliche Tradition Europas erinnern. Hier ist ein schönes Zitat von Alexander von Humboldt aus dem Kosmos:

Wissen und Erkennen sind die Freude und die Berechtigung der Menschheit… Diejenigen Völker, welche an der allgemeinen industriellen Tätigkeit, in Anwendung der Mechanik und technischen Chemie, in sorgfältiger Auswahl und Bearbeitung natürlicher Stoffe zurückstehen, bei denen die Achtung einer solchen Tätigkeit nicht alle Klassen durchdringt, werden unausbleiblich von ihrem Wohlstand herabsinken. Sie werden es umso mehr, wenn benachbarte Staaten, in denen Wissenschaft und industrielle Künste in regem Wechselverkehr miteinander stehen, wie in erneuerter Jugendkraft vorwärts schreiten“ [3].

Die politischen Systeme waren zu Humboldts Zeiten andere. Das, was über Fortschritt und Wohlstand und Zukunft entscheidet, ist gleich geblieben.

Quellennachweise

[1] Hans Matthöfer (Hrsg.), Argumente in der Energiediskussion Band 1 – Schnelle Brüter Pro und Contra. Protokoll des Expertengesprächs vom 19.5.77 S.19, im Bundesministerium für Forschung und Technologie, 1977, Verlag: Villingen, Neckar-Verlag.

[2] Peter Penczynski, 1978, Welche Energiestrategie können wir wählen?, Siemens-Aktiengesellschaft (Abt. Verlag).

[3] Alexander v.Humboldt, 1978, KOSMOS, Hanno Beck, Brockhaus Stuttgart, S.25.

 

 

 

 

 

 




Offenbar erste Corona-Mutation bei den Grünen aufgetreten!

Dass die Grünen jede sich bietende Gelegenheit ergreifen, sie für ihre politische Agenda zu nutzen, ist keine Neuigkeit. Nun schlägt man den Bogen vom tödlichen Virus zur tödlichen Atomkraft.

Frau Kotting-Uhl, Grünen-MdB, dort dem linken Flügel (!) zugehörig, Vorsitzende des Bundestagsauschusses für Umwelt, Natur und nukleare Sicherheit, verfasste einen

Brief an den niedersächsischen und den bayrischen Umweltminister und forderte die Aussetzung der geplanten Revisionen in den Kernkraftwerken Grohnde, Emsland und Grundremmingen sowie deren Abschaltung. Die Kraftwerke wären ein „Hotspot“ für Infektionen während der Reparaturarbeiten, zum Beispiel beim Brennelementewechsel.

Es liegt die Vermutung nahe, dass die Frau noch nie ein Kernkraftwerk von innen sah. Wer ist sie überhaupt? Eine Abgeordnete ohne abgeschlossene Ausbildung und nach ihrer Tätigkeitsvita nicht im Ansatz geeignet für den genannten Ausschussvorsitz. Sie studierte etwas Germanistik, Anglistik und Kunstgeschichte, versuchte sich dann als Dramaturgin an der badischen Landesbühne, bevor sie Expertin für alternatives Leben im Kraichgau wurde. Engagements bei BUND, WWF, Greenpeace, im Institut solidarische Moderne und anderswo sind verzeichnet.  Ihr Hobby ist der Kampf gegen die Atomenergie. Durch ein Bundestagsmandat ist die Ernährungsgrundlage seit 2005 glücklicherweise gesichert.

Hätte sie schon ein Kernkraftwerk aus der Nähe betrachtet, würde sie wissen, dass die Arbeitenden Abstände einhalten können und dass die im aktiven Bereich Tätigen zum Beispiel beim Brennelementewechsel ohnehin Schutzkleidung tragen. Zur Erklärung für die Grünen: Das sind meist weiße oder grüne Ganzkörper-Schutzanzüge inclusive Helm, ähnlich denen der Raumfahrer. Zudem sind die Reaktorgebäude nach grüner Weltsicht so verstrahlt, dass jedes Virus ohnehin sofort tot von der Wand fallen würde.

Als Begründung für die Abschaltung führt Frau Kotting-Uhl an, der gegenwärtige Stromverbrauch sei auch ohne die Kernkraftwerke gesichert. In der Tat wäre der Betrieb dieser Kernkraftwerke zur Zeit nicht zwingend notwendig, aber wegfallender Atomstrom würde durch fossilen Strom ersetzt, denn die Erneuerbaren speisen auf Grund ihres Einspeisevorrangs ohnehin alles ein, was sie dargebotsabhängig können. Die Umsetzung ihres Vorschlags würde die CO2-Emissionen wieder steigern, über dessen Sinkflug sich gegenwärtig so viele freuen.

Wenn es ihr ernst gewesen wäre mit dem Schutz der Beschäftigten während er Reparaturarbeiten, hätte sie auch eine Verschiebung der Revisionszeiträume fordern können (was die Unternehmen vermutlich ohnehin prüfen), aber warum die Kraftwerke deswegen außer Betrieb gehen sollen, bleibt ihr Geheimnis.

Obwohl sie stets in unermüdlichem Kampf gegen den Atomtod steht, ist ihr Brief psychisch auffällig. Erklärbar nur durch eine Corona-Mutation oder eine andere Folge des Virus,  die schwere psychische Störungen auslöst, möglicherweise sogar Enzephalopathie. Inzwischen wird diese These durch Beobachtungen gestützt.

Herr Spahn, handeln Sie! Diesmal rechtzeitig.

 

 

 

 

 

 




Die Kurve abflachen

[Hinweis: Die folgende Übersetzung ist an einigen Stellen leicht gekürzt worden. Anm. d. Übers.]

Das IHME-Modell ist hier, und man kann ruhig mal einen Blick darauf werfen, obwohl es sehr viel Vertrauens nicht würdig ist – war es doch zu oft völlig falsch. Zu ihrer Ehrenrettung muss man aber sagen, dass sie ihre Ergebnisse hier online gestellt haben.

Ein weiteres Problem damit besteht darin, dass die Präsentation der Daten so gut ist. Sie ist so gut, dass man nur schwer daran vorbei kommt, sie als realistisch anzusehen.

Historisch hat das Modell jedenfalls Zahlen ausgegeben, die zu hoch waren.

Trotz der viel zu hohen Schätzungen der absoluten Zahlen kam ich bald zu der Überzeugung, dass die Gestalt der Ergebnisse wahrscheinlich weitgehend realistisch ist. Also nahm ich mir die projizierten Zahlen der täglichen Todesfälle vor. Ich wollte diesen Gedanken der „Abflachung der Kurve“ untersuchen.

Was heißt „Abflachung der Kurve“? Es basiert auf der Hoffnung, dass unsere Eingriffe in das allgemeine Leben das Voranschreiten der Krankheit verlangsamen. Damit würden wir an irgendeinem gegebenen Tag weniger Todesfälle bekommen als zuvor. Und dies bedeutet weniger Stress für das medizinische System.

Man sollte ich klar machen, dass es sich hier lediglich um eine Verzögerungstaktik handelt. Es wird lediglich die gleiche Anzahl über einen längeren Zeitraum verteilt. Diese Verzögerungen reduzieren aber nicht die Reichweite der Infektion. Solange das Gesundheitssystem nicht so überlastet ist, dass die Menschen nur deswegen zu Tode kommen, sind die schlussendlichen Zahlen die Gleichen.

Das Modell listet nun drei Arten von Eingriffen:

Die Anordnung, zu Hause zu bleiben

Schließung von Bildungseinrichtungen

Schließung nicht notwendiger Dienstleistungen

Würde die Umsetzung dieser Restriktionen einen Unterschied hinsichtlich des Verlaufs der Kurve machen? Um das zu tun, musste ich natürlich eine Variable finden, welche die „Flachheit“ der Kurve repräsentiert. Nach einigen Versuchen nahm ich die Anzahl der täglichen Todesfälle als Prozentsatz der Gesamtzahl von Todesfällen. Der Einfachheit halber habe ich diesen Faktor mal den „peak factor“ genannt, und je größer dieser ist, umso spitzer ist die Kurve.

Beginnen wir also hier mit ein paar [US-]Staaten mit sehr unterschiedlichen Peak Factors von zwei Enden der Skala. Die Graphik zeigt die Kurvenverläufe, aber nicht die tatsächlichen Größenordnungen der täglichen Todeszahlen in den beiden Staaten.

Abbildung 1: Kurvenverlauf der täglichen Todesfälle für West Virginia und Missouri. Beide sind auf das Mittel Null und eine Standardabweichung von 1 skaliert und dann an Null ausgerichtet. Beide Datensätze sind leicht geglättet (Gauss-Filter über 3 Tage). Um das Abflachen der Kurve besser illustrieren zu können, habe ich sie so adjustiert, dass die Anzahl der Todesfälle in beiden Staaten gleich ist.

Man beachte, dass die Fläche außerhalb der blauen, aber immer noch unter der gelben Linie (unten Mitte) gleich ist der Fläche des Höhepunktes über der gelben Linie. Es ist die gleiche Gesamtzahl, lediglich mit einer größeren zeitlichen Ausdehnung.

Nun, das sieht so aus, als würden die Eingriffe funktionieren … mit Ausnahme eines Details. In West Virginia wurden alle drei Restriktionen eingeführt, in Missouri nur zwei davon. Und auch diese beiden wurden in Missouri später eingeführt als in West Virginia.

Diese Paarung sagt nicht viel aus hinsichtlich der Effektivität der Beschränkungen. Warum sind sie so unterschiedlich? Das weiß man nicht, aber wahrscheinlich liegt es daran, dass Dinge wie Dichte und Verteilung der Bevölkerung mit eingehen.

So also sollten die Auswirkungen der Eingriffe aussehen. Damit sollte eine Kurve mit einer scharfen Spitze transformiert und über einen längeren Zeitraum ausgedehnt werden mit einer geringeren Spitze. Weitere Restriktionen sollten die Kurve noch weiter abflachen.

Fasziniert von all dem wandte ich mich jetzt wieder dem IHME-Modell zu. Eine interessante Entdeckung war der Umstand, dass die Anzahl der Todesfälle vor der Spitze in allen Staaten sehr nahe der Anzahl der Todesfälle nach der Spitze liegt. Das gilt allgemein für Staaten mit einem hohen Spitzenwert ebenso wie für die Staaten mit geringerem Spitzenwert. Dies sollte es gestatten, die Anzahl der Gesamt-Todesfälle über den Daumen zu peilen, wenn der Spitzenwert erst einmal durchlaufen worden ist.

Man beachte, dass diese Daumenregel stimmt, egal wann die Lockdowns zurück genommen werden – alles, was passiert ist, dass sich das Datum der Todesfälle ändert, nicht aber die Gesamtzahl ermittelt nach der Daumenregel.

Nehmen wir das Beispiel Italien und einen Blick auf das Worldometer … nun ja, der Spitzenwert war am 28. März aufgetreten mit etwa 10.000 Todesfällen. Das führt mich zu der Annahme einer insgesamten Anzahl von Todesfällen in Italien in der Größenordnung von 20.000.

Um diese Prognose zu überprüfen, betrachtete ich jetzt zum ersten Mal die IHME-Modellseite für Italien. Bis zu dieser jüngsten Aktualisierung haben sie keine anderen Länder abgedeckt, nur die USA. Nun ja, das IHME-Modell ergibt für Italien 20.300 Todesfälle. Meine Daumenregel scheint also ganz gut zu sein. Das möchte ich jetzt am Beispiel Spanien testen. Zunächst zum Worldometer. Ihm zufolge gab es 9400 Todesfälle pro Tag bis zum Zeitpunkt der Spitze der Gesamtzahl aller Todesfälle. Der Daumenregel zufolge sollte sich die Gesamtzahl schließlich um 18.800 einpendeln. Die IHME-Modell-Site für Spanien gibt 19.200 Todesfälle an. Zumindest dem Modell zufolge scheint also die Daumenregel ganz gut zu sein. Ob das auch in der realen Welt so ist, bleibt abzuwarten.

Als Nächstes betrachtete ich den Spitzen-Faktor aller Staaten im Vergleich zur Anzahl der verordneten Restriktionen, um herauszufinden, ob die Eingriffe dazu neigten, die Spitzen niedriger und die Kurve flacher zu machen. Abbildung 2 zeigt das Ergebnis:

Abbildung 2: Scatterplot, „Peak Factor“, der zeigt, wie groß die Spitze der Kurve ist im Vergleich zu den verordneten Eingriffen für die Bevölkerung. Die roten Striche zeigen die 1-Sigma-Unsicherheit des Medians. Da in nur zwei Staaten Null Eingriffe verordnet worden sind, konnte keine Berechnung der Unsicherheit durchgeführt werden.

Wie man sieht, ergibt sich aus der Gesamtzahl der Eingriffe kein statistisch signifikanter Unterschied hinsichtlich des Abflachens der Kurve.

Also interessierten mich jetzt die Zeitpunkte der drei Arten von Eingriffen – bleibt zu Hause, schließt Schulen und Geschäftszweige. Vielleicht gibt es da eine Relation. Zunächst folgen hier die Peak Factors der verschiedenen Staaten im Vergleich zum Timing ihrer Verordnung „bleibt zu Hause“. Mit der Zeit sollte diese Intervention zu niedrigeren Peak Factors führen, wobei der Vorteil sich umso eher ergibt, je früher die Verordnung erlassen worden ist. Das Ergebnis sieht so aus:

Abbildung 3: Scatterplot, Peak Factors der Staaten im Vergleich zum Zeitpunkt der Verordnung „bleibt zu Hause!“ Die gelbe Linie markiert einen „robusten“ Trend, welcher jedwede Ausreißer marginalisiert. Der Trend ist nicht statistisch signifikant.

Das Ergebnis ist das genaue Gegenteil dessen, was wir erwartet hatten – in diesem Falle ist es so, dass je später die Verordnung erlassen worden ist, umso flacher der Kurvenverlauf. Das sollte eigentlich umgekehrt sein.

Als Nächstes betrachtete ich Gleiches hinsichtlich der Schließung nicht notwendiger Dienstleistungen. Hier das Ergebnis:

Abbildung 4: Scatterplot, Peak Factors im Vergleich zum Zeitpunkt der Schließung aller unwichtigen Dienstleistungen. Wieder repräsentiert die gelbe Linie einen „robusten“ Trend. In diesem Falle ist der Trend statistisch signifikant (p-Wert = 0,028).

Trotz der statistischen Signifikanz der Trendlinie jedoch läuft sie in die falsche Richtung. Je früher die Einführung, umso weniger ausgeprägt sollte die Spitze sein, nicht umgekehrt. Und hier noch die gleichen Erkenntnisse bzgl. der Schließung von Schulen:

Abbildung 5: Scatterplot, Peak Factors im Vergleich zum Zeitpunkt der Schließung aller Schulen. Der Trend ist statistisch nicht signifikant.

Und wieder geht die Neigung in die falsche Richtung, aber als ich die Graphik sah, dachte ich ,Moment … dieser eine Datenpunkt beeinflusst den gesamten Rest‘. Also entfernte ich jenen Punkt, der zufällig der US-Staat Iowa war, und sah erneut hin:

Abbildung 6: Scatterplot, Peak Factor im Vergleich zum Zeitpunkt der Schließung aller Schulen. Der Trend ist statistisch nicht signifikant.

Wenigstens verläuft diese Kurve in die richtige Richtung, obwohl der Trend immer noch nicht statistisch signifikant ist. Dieses Fahlen eines eindeutigen Ergebnisses könnte die Folge der Stumpfheit des Instrumentes sein sowie der geringen Größe der Daten-Stichprobe.

Trotz der fehlenden Signifikanz vermute ich, dass alle in der westlichen Welt ergriffenen Maßnahmen zur Verlangsamung der Ausbreitung der Krankheit die Schließung der Schulen die einzige Maßnahme ist, die einen messbaren Effekt zeitigt.

Ich glaube, dass die Schließung von Schulen diesen Effekt zeitigt, weil Schulen und hier besonders Grundschulen im Sinne der Ausbreitung einer Infektion ideal konzipiert sind. Man hat die Kinder nicht nur fünf Tage pro Woche in Räumen eng beieinander sitzend eingepfercht. Schlimmer noch ist, dass es jeden Tag die gleichen Kinder sind, so dass die Chancen, sich gegenseitig anzustecken vielfältig sind. Noch schlimmer, diese gleichen Kinder kommen nach Hause und können dann ihre Familie infizieren. Und schließlich toben, spielen und raufen sie zusammen, sie husten und niesen … es ist die perfekte Petrischale.

Falls man also eine Infektion verlangsamen will, ist die Schließung von Schulen zumindest logisch.

Andererseits, Verordnungen, zu Hause zu bleiben, wobei die Menschen aber immer noch einkaufen gehen oder „wichtigen“ Arbeiten nachgehen, kommen mir wie ein Witz vor. Das Virus ist hinterhältig. Der Paketbote hat soeben ein paar Pakete geliefert … es sind immer noch viele Menschen unterwegs. Ja doch, wenn man sich der vollen Überwachung hingibt, wie Südkorea es vorgemacht hat, das wird funktionieren. Aber zu diesem Zweck muss man der Regierung seine GPS-Daten zur Verfügung stellen. Keine Chance, dass Amerikaner oder die meisten Bewohner westlicher Länder allgemein das tun würden.

Die westliche Art der Quarantäne wie eine Anhörung im Senat hinter verschlossenen Türen lässt das Virus durchsickern wie geheime Informationen, danach wird es überall hin transportiert. Es gab nicht wirklich Versuche, die Spur zurück zu verfolgen. Ich denke auch, dass dies zum jetzigen Zeitpunkt vergeblich wäre.

Alles in allem? Ich sehe kaum Belege dafür, dass die umfangreichen Maßnahmen der westlichen Nationen wesentliche Auswirkungen gehabt hätten. Und mit Ausnahme der Schließung von Schulen sehe ich das auch weiterhin nicht angesichts dessen, wie lax der Lockdown gehandhabt wird, sowie die vage Natur der „wesentlichen Geschäfte“.

Und schließlich möchte ich noch über das Banalste überhaupt sprechen, nämlich die bescheidene Kosten/Nutzen-Analyse. Man ziehe eine senkrechte Linie auf einem Blatt Papier und trage auf der einen Seite „Kosten“, auf der anderen Seite „Nutzen“ ein. Dann schreibe man alles auf die jeweilige Seite und addiere. In variierter Form haben wir das alle schon gemacht, wenngleich erst einmal auch nur mental.

Unglücklicherweise scheint es so, als ob Dr. Fauci derartige Analysen nicht durchführt. Es sieht so aus, als betrachte er ausschließlich den Nutzen. Er nannte es „unglücklich“, dass viele Menschen ihre Arbeit verloren haben … unglücklich? Das sind gewaltige Kosten, an die er gar nicht denken will. Er wird seinen Job nicht verlieren, seine Freunde auch nicht. Zur gleichen Zeit, zu der er „unglücklich“ sagt, klingeln die Hotlines für psychische Gesundheit und bzgl. Selbstmorde um die Wette. Menschen fallen durch das Netz. Notrufe wegen häuslicher Gewalt sprengen jedes Maß, und das ist verständlich, bringen doch Hausarrest und fehlendes Einkommen viel Stress.

Das bringt mich nach Kalifornien, wo ich lebe. Wäre Kalifornien ein eigener Staat, wäre es die fünftgrößte Ökonomie der Welt. Das jährliche BIP beträgt gerundet drei Billionen pro Jahr. Es gibt keine harten Zahlen, aber ich wäre nicht überrascht, wenn das Jahr 2020 nur etwa 70% davon erreichen würde – nicht wegen des Virus‘, sondern weil die Regierung die Wirtschaft zum Entgleisen bringt. Das macht einen Verlust von 900 Milliarden Dollar. Das ist mehr als das BIP der meisten anderen Länder – einfach verbrannt.

Und es sind ja nicht nur diese Kosten. Zuerst bringt die Regierung die Wirtschaft zum Entgleisen. Und jetzt pumpen sie die Dollars der Steuerzahler wie Wasser in ebendiese Ökonomie, um den Schaden zu mindern, den sie selbst eben angerichtet haben. Es wird aus unseren Taschen gesogen. Und es gibt noch zahlreiche andere, damit verbundene Kostenfaktoren, Einkommensverluste und so weiter auf einer langen Liste.

Unter dem Strich gab es hier in Kalifornien Werteverluste in Höhe von Billionen Dollar. Millionen verloren ihre Arbeit, zehntausende Gewerbebetriebe wurden für immer geschlossen, Zwietracht und Entsetzen im Überfluss … und für was das alles? Für was?

Nun, für Folgendes. Hier folgt die Projektion des IHME-Modells bzgl. Todesfälle durch das Coronavirus in der fünftgrößten Ökonomie der Welt:

Abbildung 7: Projizierte Todesfälle durch das Coronavirus in Kalifornien.

Das ist alles? 1800 Todesfälle? Das sind weniger Menschen als in Kalifornien ermordet werden. Es ist etwa ein Drittel unserer Drogentoten.

Wie verhält sich das zu den Billionen Dollar Verlusten infolge der von der Regierung erzwungenen Schließung von Gewerbebetrieben?

Es würde keinen einzigen jener 1783 Menschen retten. Keinen einzigen.

Es wird deren Ableben höchstens um ein oder zwei Wochen verschieben.

Verluste von Billionen stehen auf der Kosten-Seite einer Kosten/Nutzen-Analyse. Und alles,was wir auf der Nutzen-Seite haben, ist eine Verzögerung von 1800 unvermeidbaren Todesfällen um zwei Wochen. Und all das bekommt man heutzutage für eine Billion Dollar?

Aber, so könnte man fragen, mehr Menschen könnten sterben, falls das medizinische System überstrapaziert wird. Gibt es genug Betten und Ventilatoren?

Gute Frage. Hier sind die Zahlen, erneut dem IHME-Modell zufolge. Leider haben, wie bei der Zahl der Todesfälle, alle früheren Versionen des Modells den Bedarf an Krankenhausressourcen überschätzt … aber mit dieser Schwäche sind hier die Zahlen für Kalifornien:

Keine Verknappung von Betten. Und einige Ventilatoren haben wir jüngst nach New York geliefert. In etwa einer Woche sollte der Höhepunkt erreicht werden.

Und während wir auf den Höhepunkt warten, haben wir einfach mal so eine Billion Dollar ausgegeben, um 1783 Todesfälle um ein paar Wochen zu verzögern. Nicht um jemandes‘ Leben zu retten – ich sage es immer wieder. Sondern um ein paar tausend unvermeidbare Todesfälle um ein paar Wochen zu verzögern. Falls es dem Gewissen hilft, könnte man der Familie einer jeden Person, die hätte gerettet werden können, eine Million Dollar übergeben, das wären lediglich 0,2% unserer Billion Dollar, und die Ökonomie könnte wieder brummen.

Aber die Rettung von 1800 Leben ist es einfach nicht wert, das Leben von 30 Millionen Kaliforniern zu zerstören. Das ist verrückt und ein schrecklicher Deal.

Ich war von Anfang an dagegen. Ich mache keine einseitige „Nutzen“-Analyse wie Dr. Fauci. Ich führe eine KOSTEN/Nutzen-Analyse durch, und die habe ich gerade vorgestellt. Die Schlussfolgerung jener Analyse ist eindeutig:

Selbst wenn das Gesundheitssystem überstrapaziert wird, selbst wenn noch mehr Menschen sterben werden – investiert die Billionen Dollar, um das medizinische System zum stärksten und widerstandsfähigsten zu machen, das man sich vorstellen kann. Investiert das Geld in Feldlazarette und in Vorräte von Einwegartikeln, kauft Ventilatoren, baut Krankenhäuser und fördert die medizinische Bildung, kauft Betten und Kittel, das wird Leben retten. Was immer ihr tut …

SCHLIESST NICHT DIE ÖKONOMIE, IHR DUMMKÖPFE! Die Kosten sind viel, viel zu hoch!

Schon allein die menschlichen Kosten sprengen jeden Rahmen. Leben werden zerstört, Selbstmorde steigen, endlose Sorgen und Bedenken machen sich breit, das Geld, um die Kinder zu ernähren, wird knapp, es gibt kein Ende. Man liegt nachts im Bett und fragt sich unablässig, wann man aus dem Gefängnis entlassen wird.

Und das alles steht sogar noch vor den ökonomischen Kosten, den Verlusten der produktiven Kapazität, den gekündigten Verträgen, den Kosten für Rechtsanwälte und schließlich dem erforderlichen Anfangskapital. Die Betriebe werden anderswohin gegangen sein, und es steht vor der Notwendigkeit, die Menschen neu einzustellen oder zu ersetzen sowie abgeschaltete Maschinen wieder hochzufahren usw. usf. wenn diese Dummheit einmal vorüber ist.

Dies ist also ein dringender Appell an euch Frauen und Männer da oben, an euch, die entscheiden, wann die Verrücktheit ein Ende hat. Ich flehe euch an – erhebt euch aus euren Bürosesseln, schaut euch um, geht in eine kleine Stadt und unterhaltet euch mit irgendeiner arbeitslosen Geschäftsfrau, deren lokales Unternehmen jetzt am Boden liegt, versteht, was der Verlust dieses kleinen Unternehmens für die kleine Stadt bedeutet, und BRINGT AMERIKA WIEDER AN DIE ARBEIT! Nicht morgen. Heute! Jeder Tag mehr bedeutet endlose Pein und Sorgen für viel zu viele.

Hier noch einmal deutlicher, wie idiotisch dieser Lockdown ist. Hallo, ihr Entscheidungsträger für Kalifornien! Ihr kostet uns Billionen Dollar, und ihr tötet buchstäblich Menschen via Selbstmorde und Depressionen und häuslicher Gewalt – und das alles im Namen der Verzögerung von ein paar tausend Todesfällen. Nicht zur Verhinderung dieser Todesfälle. Zu deren Verzögerung.

Menschen töten, um Todesfälle zu verzögern, das klingt wie ein bestechender Plan der Azteken – er kommt vollständig mit realen Menschenopfern …

Das ist doch keine Müll-Wissenschaft! Weitere Verzögerungen zu diesem Zeitpunkt werden nicht helfen. Beendet den amerikanischen Lockdown heute. Lasst die Schulen geschlossen, ansonsten aber zurück in die Wirtschaft.

Und natürlich möchte ich alle üblichen Maßnahmen und Empfehlungen aussprechen – die Risikogruppen, vor allem die Älteren, sollten Menschenansammlungen vermeiden. Und natürlich sollte man weiterhin den üblichen Vorsichtsmaßnahmen folgen – Hände waschen, eine Gesichtsmaske nicht nur bei Banküberfällen, sondern allgemein tragen usw. usf. Die Wirklichkeit ist, dass wir alle früher oder später mit dem Coronavirus in Kontakt kommen. Und genau wie bei der Spanischen Grippe und anderen Krankheiten davor und danach wird das Coronavirus nach ein paar Jahren kein neues Virus mehr sein. Es wird einfach mit den anderen, schon immer im Hintergrund lauernden Krankheiten verschmelzen.

Meine Grüße und vor allem mein tief empfundener Dank gehen an all die medizinischen Einheiten, welche an vorderster Front dieses Krieges stehen. Die Welle ist in den USA dabei zu brechen, die Aufhellung zeichnet sich ab, in einem Monat wird es vorbei sein. Und hoffentlich lange davor werden diese geisteskranken Vorschriften in die Tonne getreten werden und Amerika den Weg zurück in die Normalität finden.

Link: https://wattsupwiththat.com/2020/04/08/flattening-the-curve/

Übersetzt von Chris Frey EIKE




Massachusetts gegen EPA: Nach 13 Jahren ist es Zeit für eine Überprüfung der Grundlagen der Klimapolitik

[Übersetzung der einleitenden Worte der Urteilsbegründung Massachusetts vs. EPA

MASSACHUSETTS ET AL. v. UMWELTSCHUTZAGENTUR ET AL. CERTIORARI AN DAS GERICHT DER VEREINIGTEN STAATEN FÜR DEN DISTRIKT COLUMBIA

Nr. 05–1120. Argumentiert am 29. November 2006 – Beschlossen am 2. April 2007

Basierend auf einer anerkannten wissenschaftlichen Meinung, dass ein gut dokumentierter Anstieg globaler Temperaturen und damit verbundenen klimatologischen und ökologischen Änderungen auf einen signifikanten Anstieg der Konzentration von „Treibhausgasen“ in der Atmosphäre zurückzuführen sind. Eine Gruppe privater Organisationen beantragte bei der Environmental Protection Agency (EPA) die Regulierung der Emissionen von vier solcher Gase, einschließlich Kohlendioxid, gemäß §202 (a) (1) des Clean Air Act, der verlangt, dass die EPA vorschreibt: “Durch Verordnung. . . Normen für die Emission von Luftschadstoffen aus jeder Klasse . . . von neuen Kraftfahrzeugen . . . die nach Einschätzung des EPA-Administrators Luftverschmutzung verursachen oder dazu beitragen . . . vernünftig . . . voraussichtlich öffentliche Gesundheit oder Wohlfahrt … zu gefährden “, 42 U. S. C. §7521 (a) (1).] ….]

Im Jahr 2009 veröffentlichte die EPA unter Verwendung der vom Obersten Gerichtshof bestätigten rechtlichen Autoritäten ihre Endangerment Finding („EF“) [~Feststellung der Gefährdung durch Treibhaus und andere (KFZ) Abgase, in Bezug auf das Gesetz zur Luftreinhaltung – Clean air act] , die die sachliche und wissenschaftliche Grundlage darstellt, und damit zahlreiche Vorschriften für [gegen] Automobile, Öl und Gas, Industrie und Kraftwerke rechtfertigte.

Während die Vorschriften gerichtlich verhandelt wurden, wurden die EF selbst nicht direkt verhandelt [~ die EF wurde als nicht strittig angesehen].

Die politische Debatte über den Klimawandel ist heute möglicherweise heftiger als je zuvor. Die demokratischen Präsidentschaftskandidaten behaupten, “ Wissenschaftler sagen uns „, dass wir nur noch ungefähr ein Jahrzehnt Zeit haben, um zu handeln, bevor dem Planeten „irreparabler Schaden“ zugefügt wird. Demokraten schlagen vor, Billionen von Dollar auszugeben, um den Planeten zu retten, unter anderem durch den Green New Deal (GND) und der Beseitigung fossiler Brennstoffe.

Präsident Trump und andere Skeptiker stellen die zugrunde liegende Wissenschaft in Frage . Sie stellen fest, dass die Kosten und die Vorschriften des GND die Wirtschaft zerstören werden. Darüber hinaus hat der Präsident offensiv gehandelt und die USA vom Pariser Klimaabkommen zurückgezogen. Auch bewertet die Trump-Regierung viele Regulierungen der Obama-Ära auf ihren Nutzen und Auswirkungen.

Während der Kampf auf der politischen Bühne stattfindet, geht es im Hintergrund um die Gültigkeit der Modelle, die Schäden für den Planeten vorhersagen. Beide Seiten [der politischen Parteien] glauben, dass ihre Positionen absolut richtig sind. Bisher haben beide Seiten ihr Getöse ausgestaltet. Die Mehrheit der Demokraten im Repräsentantenhaus konnte es bislang vermeiden, dass ihre Schlussfolgerungen direkt durch unabhängige Analyse oder Streitgespräch überprüft werden [Vorschlag durch den – von Trump eingesetzten,  Leiter der EPA Scott Pruitt: rotes Team – blaues Team]

 

Diese Pattsituation kann sich ändern. Am 9. März reichte das Zentrum für die Untersuchung von Kohlendioxid und globalem Wandel („das Zentrum“) eine Petition ein, in der die EPA aufgefordert wurde, ihre Gefährdungsfeststellung von 2009 aufzuheben. Diese Petition bietet der EPA die Möglichkeit, ihre Modelle nach 13 Jahren Erfahrung in der Praxis neu zu bewerten.

Die Petition des Zentrums stellt fest:

  1. Es gibt keine Debatte darüber, dass atmosphärisches Kohlendioxid („CO2“) ein Treibhausgas ist.
  2. Es gibt auch keine Debatte darüber, dass die Konzentration von atmosphärischem CO2 in den letzten zwei Jahrhunderten gestiegen ist. und
  3. Es gibt keine Debatte darüber, dass die globalen Temperaturen heute wärmer sind als vor 50, 100 oder sogar 200 Jahren.

Das Zentrum stellt fest, dass die eigentliche Frage ist, ob ein Anstieg des atmosphärischen CO2 überhaupt eine globale Erwärmung verursacht, die dann auch so gefährliche sein könnte, dass sie das Leben auf der ganzen Welt bedroht.

Das Zentrum stellt weiterhin fest, dass die modellbasierten Temperaturprojektionen der EPA die Erwärmung künstlich um den Faktor drei erhöhen. Beobachtungen zeigen, dass behauptete nachteilige Wirkungen von Treibhausgasen nicht auftreten und die Modelle ungültig sin, hinsichtlich der mit der Treibhausgas-induzierten Erwärmung verbundenen Behauptungen.

Der unglücklichste Teil der Debatte über den Klimawandel ist, dass die Beweisgrundlage für die EF zwar informellen öffentlichen Kommentaren unterworfen war, die Modelle und die Wissenschaft durch die EPA jedoch keiner unabhängigen Expertenanalyse unterzogen oder in einem Versuch nachgewiesen wurde. Die Schlüssigkeit der [offiziellen] Wissenschaft wurde durch kein strenges Kreuzverhörverfahren getestet.

 

Die Annahme der Petition des Zentrums würde der EPA die Möglichkeit geben, ihre ursprünglichen Feststellungen zu bestätigen oder den Kurs zu ändern, wenn die Wissenschaft ihre EF nicht unterstützt.

EPA hat mehrere Möglichkeiten. Es kann die Petition ablehnen. In diesem Fall wird das Zentrum wahrscheinlich klagen. Wenn die EPA das Gericht nicht davon überzeugen kann, die Klage abzuweisen, wird es wahrscheinlich einen Prozess gegen die [hier zugrunde liegende] Wissenschaft des Klimawandels geben.

EPA kann die Petition annehmen und öffentliche Stellungnahmen in einer informellen Anhörung bekommen. . In diesem Fall wird das Zentrum wahrscheinlich klagen. Wenn die EPA das Gericht nicht davon überzeugen kann, die Klage abzuweisen, wird es wahrscheinlich einen Prozess gegen die Wissenschaft des Klimawandels geben.

Eine letzte, aber selten genutzte Option wäre, dass die EPA eine „formelle Regelfestsetzung“ durchführt, bei der die Agentur einen Verwaltungsrichter ernennt, der Beweise annimmt, Zeugenaussagen hört und ein Kreuzverhör zur Prüfung der Beweise zulässt.

Ein solcher Prozess würde es den Parteien ermöglichen, die wissenschaftliche Gültigkeit der klimapolitischen Modelle zu testen. Zum ersten Mal würden die Annahmen und Vorhersagen der Modelle anhand realer Fakten getestet, indem die Richtigkeit der Annahmen, die Reproduzierbarkeit der Modelle und die Genauigkeit der Vorhersagen geprüft würden. [an dieser Stelle erinnere ich mich an den Vortrag von Prof. Scafetta, Zuverlässigkeit von Klima-Modellierungen und Zyklen der Einflussgrößen auf das Klima, der Übersetzer]

Mit 13 Jahren zusätzlicher Daten hat die EPA die Möglichkeit, ihre Gefährdungsergebnisse auf der Grundlage realer Daten entweder zu bestätigen, zu ändern oder aufzuheben. Bevor diese Nation Billionen von Dollar ausgibt, muss sie nicht vorher das Leben in den USA radikal verändern. Für verantwortungsvolle Entscheidungen muss die EPA die hochwertigsten verfügbaren Daten verwenden. Das schuldet es der Nation.

William L. Kovacs, Autor von “Reform the Kakistocracy: Rule by the Least Able or Least Principled Citizens [kurz: die Herrschaft der Unfähigsten]und ehemaliger Senior Vice President der US-Handelskammer. Der Autor hat kein Lobbying oder finanzielles Interesse an dem besprochenen Thema

DIE ANSICHTEN DER MITWIRKENDEN AUTOREN SIND IHRE EIGENEN UND NICHT DIE ANSICHT VON THE HILL

https://thehill.com/opinion/energy-environment/490813-mass-v-epa-after-13-years-its-time-for-climate-policy-review

Übersetzt durch Andreas Demmig

Als Service für unsere Leser: Hier die Suchanfrage zur Umweltbehörde EPA und dessen anfänglichen Leiter Scott Pruit

Oben gezeigtes Aufmacherbild sahen Sie im Mai 2017 schon mal: Neue Studie benennt die Einstufung der EPA bezüglich CO2 als Giftstoff -„Total falsch“