1

Präsident Biden wird des „Kriegs gegen die Energie“ beschuldigt, seiner ehrgeizigen Dekrete zur Bekämpfung des Klimawandels wegen

Eine Woche nach dem Wiedereintritt in das Pariser Klimaabkommen und der Annullierung der Keystone XL-Pipeline unterzeichnete der Demokrat Dekrete, um die Nation auf einen „irreversiblen Weg“ zu einer Wirtschaft mit erneuerbaren Energien zu bringen. Er verwies auf die Risiken von Waldbränden, Überschwemmungen, Dürren und Stürmen und sagte, diese würden durch den Klimawandel verschlimmert.

„Wir können nicht länger warten“, sagte Biden im Weißen Haus. „Wir sehen es mit eigenen Augen. Wir fühlen es. Wir wissen es in unseren Knochen. Es ist eine existenzielle Bedrohung. Es gibt eine Klimakrise. Wir wissen, was zu tun ist; wir müssen es einfach tun. „

Die Exekutiv Aktionen des Präsidenten forderten auch Regierungsbehörden auf, Wissenschaftler vor „politischer Einmischung“ zu schützen; Subventionen für fossile Brennstoffe beseitigen; Schaffung einer „Zivilen Klima Initiative“ und Konservierung von 30% der US-amerikanischen Gebiete und Ozeane bis 2030, um die „Klimakrise“ zu bekämpfen.

Die Western Energy Alliance verschwendete keine Zeit damit, mit einer Bundesklage zurückzuschlagen. Sie argumentierte, dass das Leasingmoratorium von Herrn Biden seine Autorität überschritten und gegen eine Vielzahl von Bundesgesetzen verstoßen habe, einschließlich des National Environmental Policy Act.

 „Das Gesetz ist klar. Präsidenten sind nicht befugt, das Leasing auf öffentlichen Grundstücken zu verbieten. Alle Amerikaner besitzen das Öl und Erdgas unter öffentlichen Grundstücken und der Kongress ist angewiesen, in ihrem Namen verantwortungsbewusst entwickelt zu werden “, sagte Kathleen Sgamma, die Präsidentin der Allianz.

Während die Industrie für fossile Brennstoffe von seinen Maßnahmen schwer betroffen ist, wandte Herr Biden ein, dass er das vorhandene Fracking nicht beseitigt.

„Lassen Sie mich klar sagen, ich weiß, dass diese Frage immer auftaucht – wir werden Fracking nicht verbieten“, sagte der Präsident, „obwohl der Klimawandel das Zentrum unserer nationalen Sicherheit und Außenpolitik sein wird.“

Die Republikaner erklärten, die Regierung habe ihren „Krieg gegen die Energie“ begonnen, obwohl die Coronavirus-Pandemie bereits die Wirtschaft heimgesucht hatte. Sie sagten voraus, dass die Politik des Präsidenten die Energiekosten in die Höhe treiben, amerikanische Arbeitsplätze nach Übersee vertreiben und die Nation zwingen wird, sich wieder auf ausländische Importe zu verlassen , nachdem Energieunabhängigkeit zum ersten Mal seit 1957 während der Trump-Administration erreicht wurde.

„Ich bin dafür, auf sauberere Energieformen umzusteigen, aber wir müssen uns zum Beispiel mit der Realität auseinandersetzen, dass auf unseren Straßen 280 Millionen Autos mit Verbrennungsmotoren fahren“, sagte Texas Senator John Cornyn, Republikaner. „Wie kommen Familien zur Arbeit, ihre Kinder zur Schule oder können ihr Leben leben, wenn plötzlich die sehr natürliche Ressource, auf die sie für ihre Autos angewiesen sind, nicht mehr verfügbar ist?“

Das American Petroleum Institute API [ist der größte Interessenverband der Öl- und Gasindustrie einschließlich der petrochemischen Industrie in den USA] zitierte eine Analyse, aus der hervorgeht, dass ein Bundesleasing- und Explorationsverbot bis 2022 fast eine Million US-Arbeitsplätze kosten und Staatseinnahmen in Höhe von 9 Milliarden US-Dollar für Staaten wie New Mexico gefährden würde, in denen ein Drittel der Bildungsfinanzierung durch Öl -und-Gas-Lizenzgebühren aus Bundesländern unterstützt wird.

„Mit einem Federstrich verschiebt die Regierung Amerikas glänzende Energiezukunft in die entgegengesetzte Richtung und versetzt uns auf einen Weg zu einer stärkeren Abhängigkeit von ausländischer Energie, die mit niedrigeren Umweltstandards erzeugt wird“, sagte Mike Sommers, President und CEO von API.

Die USA ist seit 2000 weltweit führend bei der Reduzierung der CO2-Emissionen, was zum großen Teil darauf zurückzuführen ist, dass Kohlekraftwerke durch mit Erdgas betriebene ersetzt wurden. In China sind im gleichen Zeitraum die Emissionen gestiegen.

Die Bundesregierung besitzt fast 50% des Landes im westlichen Teil der unteren 48 Bundesstaaten. Im Jahr 2019 erreichten diese Bundesländer laut API 22% der gesamten US-Ölproduktion und 12% der Erdgasproduktion aus.

Der Sonderbeauftragte für das Klima, John F. Kerry [ehemaliger Außenminister und Trump Gegner] sagte, dass die Maßnahmen von Herrn Biden dringend erforderlich sind, um die von ihm als schädlich bezeichnete Politik des ehemaligen Präsidenten Donald Trump auszugleichen, der die US-Öl- und Gasförderung zu einer Position globaler Dominanz gemacht hat.

Herr Kerry bezog sich eindeutig auf Herrn Trump und sagte, dass die Maßnahmen der Biden-Regierung in Bezug auf Klima und saubere Energie so umfassend und mit den ausländischen Hauptstädten koordiniert sein werden, dass

„…in Zukunft niemand mehr in der Lage sein wird, das, was den Planeten angeht, rückgängig zu machen. Dieses wird in den nächsten Monaten und Jahren organisiert. Dies ist der Beginn von etwas Neuem, Dies ist ein Problem, bei dem ein Aussetzen buchstäblich keine Option ist. 2021 wird das Jahr sein, das die verlorene Zeit der letzten vier Jahre wirklich wettmacht.

Herr Kerry und die Klimaberaterin des Präsidenten, Gina McCarthy [Expertin für Umweltgesundheit und Luftverschmutzung] behaupteten wiederholt, dass ein schnellerer Übergang zur Produktion sauberer Energie und weg von fossilen Brennstoffen „gut bezahlte Gewerkschaftsarbeitsplätze“ schaffen werde.

„Die Lebensqualität wird besser, wenn Gina ihr Team zusammengestellt hat, das uns gesündere Möglichkeiten, weniger Krebs und sauberere Luft bietet“, sagte Kerry.

Die Republikaner verurteilten die Agenda der Regierung und warnten, dass das ultimative Ziel der Regierung „ein umfassendes Verbot fossiler Brennstoffe“ sei, sagte Senatorin Shelley Moore Capito, Republikanerin aus West Virginia und Mitglied des Senatsausschusses für Umweltfragen und öffentliche Arbeiten.

„Die Regierung von Biden signalisiert mit diesen Dekreten, dass Amerika von der Energieunabhängigkeit zur Abhängigkeit von ausländischen Quellen zurückkehrt„, sagte Frau Capito. „Dies ist eine wirtschaftliche, energetische und nationale Sicherheitskatastrophe in einem.

Umweltverbände begrüßten die Schritte des Präsidenten

„Wir werden den Fortgang der Klimakrise nicht verlangsamen, bis wir uns mit dem Rassismus der Systeme befassen, die es ermöglichen, einkommensschwache Gemeinschaften und farbige Kommunen als Mülldeponien zu betrachten“, sagte Ramon Cruz, Beamter des Sierra Clubs. „Diese Anweisungen von Präsident Biden werden beginnen, einen Teil des von unserer Rohstoffwirtschaft verursachten Schadens zu reparieren und sicherzustellen, dass die von Umweltverschmutzung betroffenen Gemeinden eine Stimme bei der Reparatur dieses Schadens haben.“

Zwischen den Stühlen sitzt Senator Joe Manchin, Demokrat aus West Virginia, dessen Staat ein führender Kohleproduzent ist. Er betonte, dass die Ausführungsverordnung „keine Auswirkungen auf Energieaktivitäten wie Bohren oder Genehmigen bestehender Verträge haben wird“.

Herr Kerry räumte ein, dass US-Maßnahmen zur Reduzierung schädlicher Emissionen allein den Klimawandel nicht beeinflussen werden, es sei denn, die USA überzeugen Nationen wie China und Indien, diesem Beispiel zu folgen und stellte fest, dass China für etwa 30% der globalen Treibhausgasemissionen verantwortlich ist, während die USA macht weniger als die Hälfte davon produziert.

„Wir könnten morgen mit Null Emissionen vorangehen, und das Problem [Klimawandel] ist nicht gelöst„, sagte Kerry.

Durch die Schritte des Präsidenten werden der Bundesbürokratie mehr Schichten hinzugefügt, wodurch eine interagierende Task Force des Weißen Hauses zur Überprüfung der Klimapolitik sowie ein neuer Beirat geschaffen werden.

Der Sprecher des Weißen Hauses sagte „.. Die Anweisung von Herrn Biden legt klar, dass Klimaüberlegungen ein wesentliches Element der US-Außenpolitik und der nationalen Sicherheit sind.“

Seine Order weist den Innenminister an, neue Öl- und Erdgaspachtverträge auf öffentlichen Grundstücken oder vor der Küste einzustellen, eine „strenge Überprüfung“ bestehender Pachtverträge und Genehmigungen für die Produktion fossiler Brennstoffe einzuleiten und das Ziel zu setzen, die Erzeugung erneuerbarer Energien aus Offshore-Wind bis 2030 zu verdoppeln.

Berichten zufolge plant die Regierung auch, der Federal Emergency Management Agency FEMA [~ Bundesnotfallagentur] die Umleitung von COVID-Notgeldern in Höhe von bis zu 10 Milliarden US-Dollar für Projekte zum Klimawandel zu ermöglichen.

Der frühere Stabschef des Weißen Hauses unter der Regierung Trump, Mark Meadows, sagte, der Plan sei ein Beweis dafür, dass „die radikale Linke ihre Prioritäten vorbringt“.

„Ob es nun unsere Grenzpolitik oder eine der anderen von ihm erlassenen Exekutivverordnungen ist, es wird eine echt abschreckende Wirkung auf die Arbeitsplätze haben“, sagte er bei „Fox & Friends“.

Herr Meadows stellte insbesondere die Umleitung der COVID-19-Hilfe in Frage.

„Es ist eine unerträgliche Situation, wenn man sich die entscheidende Rolle der FEMA bei der Sicherstellung ansieht, dass Impfstoffe das amerikanische Volk erreichen„, sagte Meadows am Mittwoch. „Die Agentur hat eine sehr wichtige Rolle dabei gespielt, sicherzustellen, dass diese Gelder auf gerechte Weise verteilt werden. Und doch werden wir 10 Milliarden US-Dollar für den Klimawandel bereitstellen?
…die meisten Amerikaner betrachten den Klimawandel nicht als „ihre Priorität Nr. 1“, für diese ist es wahrscheinlich das Virus. Wir müssen die Priorität dort behalten, wo sie ist “.

https://www.washingtontimes.com/news/2021/jan/27/biden-hit-same-day-lawsuit-over-ban-oil-and-gas-le/

Übersetzt durch Andreas Demmig




Kernkraft ist Wind und Solar weit überlegen

Sie drücken es so aus:

Der optimale Energiemix der verschiedenen Länder wird unterschiedlich sein, aber alle haben gemeinsam, dass die Beiträge von Sonnenkollektoren und Windturbinen zum Energiemix marginal bleiben werden. Die Abhängigkeit von den Wetterbedingungen und das Fehlen einer geeigneten Energiespeicherung verursachen grundlegende Engpässe. Die Entscheidungsträger müssen aufhören, auf diese lahmen Pferde zu setzen.

CLINTELs grundlegender Punkt ist, dass WENN es einen Übergang weg von fossilen Brennstoffen geben soll, DANN muss es zu Kernenergie sein. Man beachte, dass CLINTEL nicht zu einem solchen Übergang aufruft, aber sie erkennen an, dass viele Regierungen dies tun. Ob dies sinnvoll ist, ist nicht das Thema dieses Artikels.

Wind ist besonders ungeeignet. „Windkraftanlagen werden immer größer und ihre Auswirkungen auf die Qualität der Wohnumgebung werden immer intensiver. Sie verursachen ernsthafte Belästigungen in Form von Infraschall, bewegtem Schlagschatten und Landschaftsverschandelung. Windkraftanlagen sind für dicht besiedelte Länder und Regionen völlig ungeeignet“, sagt der emeritierte Professor Guus Berkhout, Mitbegründer von CLINTEL, und fügt hinzu: „Thermodynamisch gesehen sind Windkraftanlagen unberechenbare Apparate, die niemals an ein nationales Stromnetz angeschlossen werden sollten.“

[Hervorhebung vom Übersetzer]

Anders als die vorherrschenden internationalen Gebote ist die CLINTEL Energiepolitik sehr flexibel. Hier ist ihre Grundaussage:

Es ist eine harte Tatsache, dass die Wirtschaft und das Wohlstandsniveau eines Landes in erster Linie auf der Zuverlässigkeit und Erschwinglichkeit der nationalen Energieversorgung beruhen. Deshalb sollte die erste Anforderung an jeden Energiewendeplan sein, die Zuverlässigkeit und Bezahlbarkeit zu verbessern und einen Rückgang zu verhindern.

 Deshalb sollten wir auf keinen Fall ein Risiko mit unserem Energiesystem eingehen. Falls die Energieversorgung ausfallen würde, wären Organisationen in den meisten Sektoren gezwungen, ihre gesamte Tätigkeit praktisch auf Eis zu legen (Industrie, Verkehr, Sicherheit, Gesundheitswesen, Trinkwasserversorgung usw.).

Eine gut durchdachte Energiewende muss daher innovativ sein und von echten Experten auf dem Gebiet der Energieversorgung geführt werden. Ideologische Agenden und subventionsgetriebene Geschäftsmodelle sind buchstäblich lebensbedrohlich.

Der Rat von CLINTEL lautet, auf Erdgas als hervorragenden Übergangskraftstoff zu setzen. In der Zwischenzeit sagen sie, wir sollten uns mit aller Kraft auf das Zeitalter der Atomenergie vorbereiten. Zukünftige Kernkraftwerke sind noch effizienter, sicherer und sauberer als die heutigen. Die gelieferte elektrische Energie (und Restwärme) ist eine kostengünstige Sicherheit, 24 Stunden am Tag, 365 Tage im Jahr. CLINTEL geht davon aus, dass, falls wir mit Bedacht von der Ära der fossilen Brennstoffe in die Ära der Kernenergie wechseln, dies „Wohlstand für alle“ verspricht.

Abschließend wZur Websitearnt Professor Berkhout, dass China äußerst erfreut sein wird, falls die westliche Welt weiterhin an Windturbinen und Solarzellen herumpfuschen würde. Es wird dessen Position als globaler Wirtschaftsführer beschleunigen. Mit Blick auf die Energiepläne des neuen amerikanischen Präsidenten kommt er zu dem Schluss, dass „Joe Bidens Klimapläne die USA China zu Füßen legen“.

Allgemeiner ausgedrückt denkt er, dass die wirkliche Herausforderung für verantwortungsvolle, gut durchdachte Ansichten nun die ist, gehört zu werden. Er formuliert es so: „Bisher sind Regierungen, Universitäten, wissenschaftliche und ingenieurtechnische Gesellschaften, Großindustrien und Milliardärsclubs alle in politischer Korrektheit gefangen und verweigern jede Diskussion. Eigentlich halten sie alle abweichende Meinungen aus den Medien heraus. Das bedeutet, dass es bei CLINTELs Kampf nicht nur um Klima und Energie geht. Vor allem verteidigt CLINTEL die grundlegende Freiheit der Rede und der wissenschaftlichen Untersuchung.“

CFACT ist hier, um zu helfen, diese wohlüberlegten Ansichten an die denkende Öffentlichkeit zu bringen. [ebenso wie das EIKE! Hinzugefügt vom Übersetzer]

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting

Link: https://www.cfact.org/2021/01/23/go-nuclear-not-wind-and-solar/

Übersetzt von Chris Frey EIKE




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 2

Welche Auswirkungen hat die Unterbrechung der Elektroenergieversorgung mit dem Ausfall Kritischer Infrastrukturen auf unser Leben? Wer sich bei dieser Frage die Zeit für eine überaus eindrückliche belletristische Antwort nehmen möchte, sollte den Bestseller „Blackout. Morgen ist es zu spät.“ des österreichischen Schriftstellers Marc Elsberg lesen. Hier kann nur eine Auswahl der wichtigsten Phänomene wiedergegeben werden.

Sofort:

● Es erlöschen alle Verkehrsampeln und Leiteinrichtungen mit der Folge von massenhaften Verkehrsunfällen;

● Tausende Menschen stecken in Fahrstühlen fest;

● Fernzüge stoppen auf freier Strecke und in Tunnels,

● ebenso wie U-Bahnen und Straßenbahnen;

● elektrische Beleuchtung erlischt – Straßen und Gebäude sind nachts stockdunkel;

● Fernseher und Radios verstummen.

Zur Funktion der Kommunikationsnetze sagt die Broschüre „Stromausfall“ /2/ des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe:

Im Fall eines Stromausfalls wird mit einigen Stunden Verzögerung das

Telefon-Festnetz nicht mehr zur Verfügung stehen. Mit dem technischen Umstieg der Telefonnetzbetreiber auf eine Voice over IP-Übertragung bis zum Wohnungsanschluss wird in den nächsten Jahren auch diese Frist nach und nach entfallen.

Die Mobilfunknetze sind zum Teil nicht notstromversorgt.“

Insgesamt dürfte die Situation der Kommunikationsnetze, deren funktionierende Reste nach dem Stromausfall übrigens hoffnungslos überlastet sind, hier zutreffend beschrieben sein.

● Mit dem Ausfall der Telekommunikation bricht auch das Internet zusammen – die Batteriereserve eines Laptop ist damit nutzlos.

● Weder mit dem Elektroherd noch mit der Mikrowelle lassen sich Speisen erwärmen;

● die Umwälzpumpen der Heizungen haben ihren Dienst eingestellt – in den Wohnungen wird es kalt;

● Tankstellen können keinen Kraftstoff mehr abgeben und ● ein Aufladen des Elektroautos ist unmöglich;

● in den Supermärkten und vielen anderen Geschäften muss der Verkauf eingestellt werden, weil Scanner und Registrierkassen außer Funktion sind;

● an Geldautomaten kann man kein Geld bekommen;

● in den industrialisierten Landwirtschaftsbetrieben fällt die automatisierte Versorgung der Tiere mit Futter, Wasser und Frischluft genauso wie die Melkautomaten aus und lässt sich nicht durch Handarbeit ersetzen;

● man kann wegen des Ausfalls der Telekommunikation keine Rettungsdienste anrufen.

Nach zwei bis drei Tagen:

● ÖPNV und Individualverkehr sind zum Erliegen gekommen;

● in vielen Orten kommt kein Trinkwasser aus der Leitung und

● die Toilettenspülung geht nicht, wie auch der Geschirrspüler;

● Krankenhäuser können wegen des Ausfalls der Trinkwasserversorgung ihren Betrieb nicht aufrecht erhalten und dies auch, weil ihnen der Kraftstoff für die Notstromaggregate ausgegangen ist, künstlich beatmete Patienten sterben;

● eine Aufbewahrung der Verstorbenen in Kühlräumen ist ausgeschlossen.

● Die 4.800 Trinkwassernotbrunnen in Deutschland sind mit der Versorgung von im Durchschnitt jeweils mehr als 10.000 Menschen hoffnungslos überfordert, außerdem müssten sich die Bürger das Wasser mit Schubkarre oder Handwagen holen und schließlich werden ihre Standorte ja geheim gehalten (s. Punkt 6.1),.

● Fast alle Banken haben geschlossen – in den wenigen geöffneten wird der überstarke Andrang durch bewaffnete Kräfte in Schach gehalten;

● in Kühlschränken herrscht bereits Zimmertemperatur,

● Gefriergut in den privaten Tiefkühltruhen beginnt ebenso wie in den großen Kühllagern zu verderben;

● die Entsorgung von Abwasser und Fäkalien funktioniert vielerorts nicht mehr – die Menschen verrichten ihre Notdurft bereits im öffentlichen Raum.

● Supermärkte mussten ihre gesamten Vorräte an gewaltbereite Kunden abgeben, Nachschub kommt praktisch nicht;

● die an 150 geheimgehaltenen Standorten gelagerten Bestände der „Zivilen Notfallreserve“ werden freigegeben, können aber nicht verteilt werde ,

● zudem wären die meisten Empfänger außerstande, den zu der Reserve gehörenden Reis, sowie die Erbsen und Linsen zu kochen.

● Fast alle Arztpraxen und Apotheken sind ohne Strom nicht arbeitsfähig und haben geschlossen;

● das gleiche trifft für Dialysezentren zu – ein Todesurteil für ihre Patienten;

● in den großen Ställen der industrialisierten Landwirtschaft stirbt das Nutzvieh, hunderttausende von Tierkadavern können nicht entsorgt werden;

● Justizvollzugsanstalten ohne ausreichende Notstromkapazität müssen Häftlinge freilassen, die nun marodierend durch das Land ziehen;

● Anordnungen der Behörden durch Lautsprecherwagen der Polizei erreichen nur Teile der Bevölkerung,

● noch nicht einmal die Zahl der infolge des Blackout schon ums Leben gekommenen Menschen lässt sich erfassen, sie dürfte bereits in die Tausende gehen;

● der vom Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung befürchtete Kollaps der gesamten Gesellschaft ist nicht mehr aufzuhalten.

Wann endet dann endlich dieser extreme Ausnahmezustand der Zivilisation? Das hängt sehr stark von der Ursache des Blackouts und von der Anzahl der betroffenen Versorgungsgebiete im Verbundnetz sowie von der Schwarzstartfähigkeit (s. auch Punkt 4.8) der darin befindlichen Energieerzeuger ab. Bei einem europaweiten Ausfall der Stromversorgung könnte deren Wiederherstellung nach Expertenmeinung durchaus sieben bis zehn Tage in Anspruch nehmen /3/. Bereits nach einem solchen Zeitraum ohne elektrischen Strom wäre Deutschland zweifellos ein anderes Land. Doch es ist auch ein Blackout möglich, der den praktisch völligen Verlust unserer Zivilisation und den Untergang des größten Teils der Menschheit bewirken kann. Seine Ursache: ein Sonnensturm – mehr dazu unter 4.1.

4. Gefahren für die Stabilität unseres Stromnetzes

Die Systemstabilität unseres Stromnetzes ist durch eine ganze Palette von Phänomenen bedroht, von denen die wichtigsten nachstehend aufgeführt sind. Auf die Eintrittswahrscheinlichkeit der Ereignisse von 1, 2 und 3 hat der Mensch keinen Einfluss; die übrigen sechs möglichen Ursachen eines Ausfalls unserer Stromversorgung sind durch menschliches Handeln beeinflussbar. Im Folgenden sollen die wichtigsten Phänomene und ihre mögliche Auswirkungen erläutert werden.

Natürlich können noch weitere Ursachen mit geringerer Eintrittswahrscheinlichkeit plötzlich eine Rolle spielen. In einer Veröffentlichung des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe (BBK) „Stromausfall – Grundlagen und Methoden zur Reduzierung des Ausfallrisikos der Stromversorgung“ von 1919 /12/ (nicht identisch mit der Broschüre /2/) heißt es auf S. 55: „Eine Pandemie zum Beispiel, die als Gefahr für die Stromversorgung genannt wird, wirkt nicht direkt auf eine in den Stromfluss eingebundene technische/physikalische Struktur ein. Gleichwohl kann eine Pandemie in einer Gefahrenkette, die zu einem Stromausfall führt, eine bedeutende Rolle spielen“ (Hervorhebung durch den Autor). Jetzt, im November des Jahres 2020, ist während der Auseinandersetzung mit Corona der Gedanke nicht mehr fernliegend, dass eine Pandemie auch noch Auswirkungen auf die Stromversorgung entfalten könnte – beispielsweise beim krankheitsbedingten Ausfall wichtiger Spezialisten im System der Kraftwerksregelung.

4.1 Sonnenstürme (Carrington-Ereignis)

Kurz vor der Morgendämmerung des 2. September 1859 waren auf der Nordhalbkugel bis in in die Tropen plötzlich Polarlichter von einer Helligkeit zu sehen, bei der man Zeitung lesen konnte. Außerdem gab es weltweit schwere Störungen in den damals neuen und recht einfachen Telegrafensystemen: Telegrafisten bekamen heftige Stromschläge, und durch Funkenentladungen geriet sogar Telegrafenpapier in Brand. Ursache dieses nach dem englischen Astronomen Richard Carrington benannten Ereignisses war ein durch koronalen Massenausstoß ausgelöster geomagnetischer Sonnensturm von außergewöhnlicher Stärke. Seine mit etwa 1.000 km/s auf die Erde zujagenden elektrischen Ladungen hatten deren schützendes Magnetfeld „zerdrückt“ und waren auf die Erdoberfläche aufgetroffen, wo der Ladungsstrom in den Telegrafenleitungen hohe Spannungen induzierte.

Es war in diesem September des Jahres 1859 ein großes Glück für die Menschheit, noch nicht über ein Netz zur Versorgung mit Elektroenergie zu verfügen. Was wäre geschehen, wenn es die heutige elektrische und elektronische Infrastruktur damals schon gegeben hätte? Zuerst wären sämtliche Satelliten durch den solaren Ladungsstrom zerstört worden, Sekundenbruchteile später folgte ein weltumspannender Blackout mit umfassenden Zerstörungen von Netzen und Elektronik. Besonders folgenschwer: der Verlust tausender Transformatoren an Schlüsselpositionen durch im Hochspannungsnetz induzierte, überstarke Ströme; ihr Neubau hätte mehrere Jahre gedauert.

Am 21. Oktober 2020 strahlte der Fernsehsender ntv eine WELT- Doku mit dem Titel aus: „Countdown zum Weltuntergang – der Sonnensturm“ (im Netz abrufbar), in welcher die Folgen eines Sonnensturms von der Stärke des Carrington-Ereignisses auf unsere heutige Welt dargestellt werden. Die Beschreibung geht zeitlich über den relativ bald erfolgenden Eintritt des Kollapses der Gesellschaft hinaus. Es werden z. B. auch die Folgen der unabwendbaren Explosion sämtlicher Kernreaktoren geschildert, nachdem deren Kraftstoff-Notvorräte und Batterien für Kühlung erschöpft sind. Eine erschreckende Aussage der Dokumentation lautet: Ein Jahr nach dem Ereignis sind 90 Prozent der Weltbevölkerung umgekommen. Aber wie groß ist die Eintrittswahrscheinlichkeit für eine solche Apokalypse? Das Forschungsunternehmen Predictive Science im kalifornischen San Diego schätzt die Wahrscheinlichkeit, dass die Erde in den nächsten zehn Jahren von einem Sturm dieser Kategorie heimgesucht wird, auf stattliche zehn Prozent /4/. Dies legt die Frage nahe, was die Sonne der Erde in dem Zeitraum zwischen 1859 und heute angetan hat. Sonnenstürme sind Teilchenstrahlen von begrenztem Durchmesser. Am 23. Juli 2012 verfehlte der heftigste bekannte Sonnensturm seit dem Carrington-Ereignis, „Impactor“ genannt, die Erde auf ihrer Umlaufbahn nur um eine Woche. Schwächere Stürme trafen dagegen schon mehrfach. So fiel deswegen am 13.03.1989 in der kanadischen Provinz Quebec die Stromversorgung von sechs Millionen Menschen für Stunden aus. Ein anderes Ereignis setzte am 23. Mai 1967 die Radaranlagen des US-Atomraketen-Frühwarnsystems außer Funktion. Die US-Militärs vermuteten einen gezielten Störangriff der Sowjetunion und lösten daraufhin beinahe den Dritten Weltkrieg aus.

4.1.1 Ist ein Schutz vor extremen Sonnenstürmen möglich?

Zunächst: Ein Sonnensturm schädigt den menschlichen Organismus nicht ernsthaft. Seine ionisierende Strahlung ist nur von begrenzter Dauer. Der Strom geladener Teilchen induziert zwar auch im Körper elektrische Spannungen; wegen der vergleichsweise geringen räumlichen Ausdehnung dieses Körpers können aber keine gefährlichen Stromflüsse entstehen.

Dagegen beschäftigen sich seit einigen Jahren weltweit die Militärs mit der Frage des Schutzes elektrischer Anlagen vor induzierten Strömen – wenn auch aus einem anderen Grund. Es gibt eine moderne Waffe, deren Wirkung der von Sonnenstürmen gleicht: die EMP-Bombe /37/. In großer Höhe gezündet, erzeugt sie einen ElektroMagnetischen Puls, der großflächig elektrische Systeme und Bauteile zerstören kann und damit ebenfalls einen Blackout hervorriefe. Die Angst vor einem solchen – vielleicht ohne jede Vorwarnung eintretenden – Angriff hat Militärs dazu bewogen, besonders wichtige Anlagen durch „Härtung“ zu schützen. Wesentliche Komponente dieser „Härtung“ ist eine massive, elektrisch leitende Abschirmung; sie wirkt als Faradayscher Käfig.

Im Vergleich zur EMP-Bombe gibt es für den Sonnensturm eine etwas längere Vorwarnzeit. Die Entstehung des Sonnensturms kann von spezialisierten Observatorien sofort beobachtet werden. Bis der koronare Auswurf dann die Erde erreicht, vergehen ungefähr 17 Stunden. Während dieser Frist könnte man Maßnahmen treffen, welche die Auswirkungen auf das Stromnetz ein wenig verringern. Dazu wäre es komplett abzuschalten und sämtliche vorhandenen Trennstellen (Trennschalter) wären zu öffnen. Aber auch trotz solcher (bislang nicht in Betracht gezogenen) Aktionen ist mit einem Ausfall der Versorgung mit Elektroenergie für einen unabsehbaren Zeitraum zu rechnen. Um dies und die damit verbundene Menschheitskatastrophe sicher zu verhindern, wäre eine vollständige „Härtung“ des Netzes und seiner Anlagen erforderlich. Die weltweiten Kosten dafür könnten Billionenhöhe erreichen. Wären sie gerechtfertigt?

Derartige Summen werden derzeit für Strategien zu einer fragwürdigen Verhinderung des Klimawandels verplant /5/; der Zeithorizont beträgt dabei 100 Jahre. Wenn die Prognosen von /4/ zumindest ungefähr zutreffen, liegt die Wahrscheinlichkeit dafür, dass die Erde in den nächsten hundert Jahren von einem verheerenden Sonnensturm heimgesucht wird, dessen Folgen die Menschheit auf einen Bruchteil dezimieren, bei mehr als 50 Prozent. Das Risiko eines solchen Ereignisses dürfte die Risiken des Klimawandels um Größenordnungen übersteigen. Die Abschätzung von Schadenshöhe und Eintrittswahrscheinlichkeit eines Sonnensturms von der Stärke des Carrington-Ereignisses legt den Schluss nahe, dass ein solches Ereignis sogar das größte Risiko aller denkbaren Menschheitsbedrohungen in den nächsten hundert Jahren beinhaltet. Wird die Menschheit sich gegen diese Gefahr „härten“? Erhebliche Zweifel sind angebracht; mehr dazu im Kapitel „Schwarze Schwäne und die Truthahnillusion“.Kann der einzelne Bürger irgend etwas gegen die Einwirkung eines starken Sonnensturmes tun?

Empfehlung: Wenn Radio, Fernsehen oder das Internet vor einem solchen Ereignis warnen, sollte man seine Wohnung oder sein Haus vom Stromnetz trennen, indem man die Eingangssicherungen deaktiviert. Außerdem ist es ratsam, sämtliche Unterverteilungen abzustellen und alle Netzstecker zu ziehen. Auch eine eventuell vorhandene PV-Anlage wäre abzuschalten und eine Sat-Anlage außer Betrieb zu nehmen. Damit kann die Tauglichkeit der Elektrogeräte für später oder für einen eventuellen Notstrombetrieb bewahrt werden. Diese Maßnahme dürfte für mehrere Stunden, vielleicht auch für mehr als einen Tag erforderlich sein.

4.2 Umpolung des Magnetfeldes der Erde

Die Erde besitzt ein durch Strömungen in ihrem Inneren erzeugtes magnetisches Feld. Seine Pole – dies sind die Punkte, in denen die magnetischen Feldlinien genau senkrecht in die Erdoberfläche einmünden – befinden sich in der Nähe der geografischen Pole. Für den nördlichen Magnetpol wird die Bezeichnung „magnetischer Nordpol“ benutzt, obwohl er physikalisch betrachtet ein Südpol ist. Und dieses Feld schützt die Erde weitgehend vor dem Sonnenwind, einem von der Sonne ständig in alle Richtungen des Raumes emittierten Strom geladener Teilchen (hauptsächlich Protonen und Elektronen) in einer Weise, die Bild 4 prinzipiell zeigt. Unter der Einwirkung des Sonnenwindes erhält das Erdmagnetfeld lediglich eine Asymmetrie; dagegen deformieren die unter Punkt 4 behandelten, durch gerichtete Korona-Auswürfe verursachten Sonnenstürme dieses Feld bis zur Unkenntlichkeit.

Bild 4: Ablenkung des Sonnenwindes durch das Magnetfeld der Erde.

Die Magnetpole der Erde sind nicht besonders standorttreu; vor allem der Nordpol wandert – und zwar mit derzeit wachsender Geschwindigkeit. Betrug die Wanderungsgeschwindigkeit zu Beginn des letzten Jahrhunderts noch rund 15 Kilometer pro Jahr, driftet der Pol heute mit mehr als 50 Kilometern jährlich in Richtung Nord-Nord-West auf Sibirien zu /6/. Bild 8 zeigt die letzten 120 Jahre seiner Route. Außerdem ist die Stärke des Magnetfeldes in den letzten 150 Jahren um etwa 10 Prozent gesunken.

Bild 5: Wanderung des magnetischen Nordpols seit 1900 (Quelle: Nature, World Data Center for Geomagnetism)

Verschiedene Autoren sehen in der beschleunigten Polwanderung und dem Abfall der magnetischen Feldstärke Anzeichen für eine bevorstehende Umkehr des Erdmagnetfeldes, wie sie in den letzten 20 Millionen Jahren sich etwa alle 200.000 bis 300.000 Jahre ereignete. Der magnetische Nordpol wird dabei zum Südpol und umgekehrt. Weil die letzte Polumkehr sich bereits vor 780.000 Jahren ereignete, ist ein solcher Polsprung mehr als überfällig. Denkbar ist aber auch, dass keine Polumkehr stattfindet und der Pol nur eine „Exkursion“ unternimmt, wie sie vor etwas mehr als 41.000 Jahren stattfand und etwa 1.000 Jahre dauerte. Während der Zeit der Polumkehr (oder der Exkursion) reduziert sich die Feldstärke um mindestens 90 Prozent; die Erde ist dann praktisch ohne ihr schützendes Magnetfeld dem Sonnenwind „nackt“ ausgesetzt. Das Stromnetz wäre in diesem Fall nicht nur bei „Sturmstärken“ des Stromes geladener Teilchen gefährdet, sondern bereits bei geringeren Intensitäten des Sonnenwindes – und zwar über die gesamte Zeit der Ereignisse. Wie lang ist diese? In der Literatur findet man Angaben, die von 140 bis zu 4.000 Jahren reichen. Das Stromnetz für einen so großen Zeitraum unverwundbar zu machen, dürfte einen Aufwand in Billionenhöhe erfordern (s. Punkt 4.1.1). Doch diese Herausforderung kommt unabweisbar auf die Menschheit zu. Sie hätte wohl noch genügend Zeit, sich darauf vorzubereiten.

<Folge 3 kommt demnächst>. Teil 1 steht hier.

———————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 1

1. Das Anliegen dieser Broschüre

Im Jahre 2008 wurde das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) beauftragt, die Folgen eines großflächigen und langandauernden Stromausfalls systematisch zu analysieren. Zwei Jahre später lag sein Bericht vor, dessen Fazit in der Drucksache 17/5672 des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung /1/ folgendermaßen lautet:

Aufgrund der nahezu vollständigen Durchdringung der Lebens- und Arbeitswelt mit elektrisch betriebenen Geräten würden sich die Folgen eines langandauernden und großflächigen Stromausfalls zu einer Schadenslage von besonderer Qualität summieren. Betroffen wären alle Kritischen Infrastrukturen, und ein Kollaps der gesamten Gesellschaft wäre kaum zu verhindern. Trotz dieses Gefahren- und Katastrophenpotenzials ist ein diesbezügliches gesellschaftliches Risikobewusstsein nur in Ansätzen vorhanden.“

Was bedeutet aber Risiko überhaupt? Seine gängige mathematische Definition ist das Produkt:

Risiko = Schadenshöhe x Eintrittswahrscheinlichkeit

Die Schadenshöhe eines Ereignisses bemisst sich üblicherweise in der Zähleinheit unseres Geldes (Euro), und Wahrscheinlichkeiten sind immer dimensionslose Zahlen. Die Produktgröße Risiko lässt sich dann also insgesamt in Euro ausdrücken. Der materielle Schaden eines langandauernden großflächigen Stromausfalls (Blackout) kann durchaus in die Billionen gehen, doch weil ein solches Ereignis zwangsläufig auch mit dem Verlust von Menschenleben verbunden ist, wird die Bestimmung der Schadenshöhe problematisch: Welchen Wert hat das einzelne Menschenleben? Die Antworten auf diese Frage fallen recht unterschiedlich aus. Die Weltgesundheitsorganisation WHO nennt eine Summe von 8,5 Millonen Euro, das General-Direktorat der Europäischen Kommission setzt 1 Million Euro an, und für den Weltklimarat IPCC ist ein Menschenleben mit 850.000 Euro vergleichsweise preiswert. Man sollte wohl dem Begriff der Schadenshöhe eine nicht quantifizierbare ethische Komponente zuordnen, die dann wenigstens für einen Vergleich unterschiedlicher Katastrophenszenarien hilfreich wäre.

Bei der Betrachtung der Eintrittswahrscheinlichkeit für einen Blackout ist zu bedenken, dass einzelne unterschiedliche Ursachen einen langandauernden und großflächigen Stromausfall zur Folge haben (s. Punkt 4). Diese Ursachen treten auch mit unterschiedlichen Wahrscheinlichkeiten ein. Die resultierende Eintrittswahrscheinlichkeit dafür, dass ein Blackout überhaupt eintritt, kann dann mit dem Additionssatz der Wahrscheinlichkeitsrechnung berechnet werden. Sie ist zwar grundsätzlich kleiner als die einfache Summe der Einzelwahrscheinlichkeiten, jedoch deutlich größer als jede einzelne Wahrscheinlichkeit.

Es ist unbestreitbar, dass in den zehn Jahren vom Bericht des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung /1/ bis heute unsere Abhängigkeit von elektrischem Strom durch zunehmende Elektrifizierung und Digitalisierung noch einmal erheblich zunahm. Damit hat sich die zu erwartende Schadenshöhe signifikant vergrößert. Aber auch bestimmte Gefahren für die Stabilität des Stromnetzes, wie Cyberkriminalität, defizitäre Stromversorgung, Anteil stochastischer Energien im Netz, oder der Einfluss inkompetenter Politiker werden im Laufe der Zeit größer, womit die resultierende Eintrittswahrscheinlichkeit zunimmt. Mit dem gleichzeitigen Wachstum der beiden Faktoren Schadenshöhe und Eintrittswahrscheinlichkeit wächst das Risiko eines Blackout entsprechend stark.

Es wäre die Aufgabe der Bundesregierung, dieser Entwicklung – die einen katastrophalen Ausgang nehmen kann – zu wehren. Doch deren bisherige Leistungen auf dem Gebiet der Gefahrenabwehr sind alles andere als ermutigend, wie der Umgang mit dem Virus Covid 2 beweist. Deshalb ist die Frage angebracht, wie viel Vertrauen eine regierungsamtlich vorbeugende Gefahrenabwehr gegen den Blackout verdient. Immerhin hat sich die Regierung in jüngster Zeit zu ein paar Maßnahmen des vorbeugenden Zivilschutzes entschlossen. Zum ersten Mal seit dem Ende des Kalten Krieges forderte sie 2016 die Bevölkerung auf, einen Vorrat von Lebensmitteln für 10 Tage und Trinkwasser für fünf Tage vorzuhalten. Leider wurde dieses Regierungshandeln durch Negativberichterstattung in den Leitmedien über sogenannte „Prepper“ konterkariert, die (wie auch bei WIKIPEDIA) in Zusammenhang mit „Reichsbürgern, rechten Gruppierungen und Veschwörungstheoretikern“ gebracht werden.

Beim Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK) ist als wesentlichste Information der Bevölkerung eine Broschüre unter dem Titel „Stromausfall – Vorsorge und Selbsthilfe/2/ erhältlich. Ihr in großen Lettern gedruckter Text enhält bemerkenswerte Empfehlungen von hohem Grad der Allgemeingültigkeit, wie:

Das Licht von Kerzen, Taschen- oder Campinglampen (mit den erforderlichen Batterien und Gaskartuschen) ist nicht nur romantisch, sondern kann in Ernstfall dafür sorgen, dass Sie sich zu Hause, auch nach Einbruch der Dunkelheit noch sicher orientieren können.“

Bild 1: An inhaltlicher Dürftigkeit nicht mehr zu übertreffen – die Informationsbroschüre des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe

Bei der Verlegung der Verlängerungskabel (eines Stromerzeugers) ist daran zu denken, dass Sie für die Kabel eine Gebäudeöffnung benötigen. Für die Kabelführung offen gehaltene Türen und Fenster begünstigen jedoch das Auskühlen der Wohnung und Erschweren den Einbruchschutz.“

Und höchst vorsorglich wird auch vor einer Lärmbelästigung der Nachbarn im Katastrophenfall gewarnt:

Gerade in dicht besiedelten Gebieten oder in Mehrfamilienhäusern können sich Nachbarn durch die Geräuschemissionen belästigt fühlen. Bei der Auswahl eines Stromerzeugers sollte deshalb ein leises Model (Schreibweise wie im Original) gewählt werden.“

Auf weitere inhaltliche Defizite dieser Veröffentlichung wird später noch eingegangen. Die von der Universität der Bundeswehr kreierte Gestaltung des Werkes bietet übrigens acht Abbildungen von sehr fragwürdigem Informationsgehalt: die nächtliche Ansicht eines Einfamilienhauses mit beleuchteten Fenstern, einen Feuerlöscher, eine Kurbeltaschenlampe, eine überschwemmte Fassade, zwei Hochspannungsmasten und zwei unterschiedliche Darstellungen eines Schukosteckers.

Dem Bundesamt scheinen die Schwächen seiner Bürgerinformationsschrift bewusst zu sein, denn nach SPIEGEL Panorama vom 14.02.2020 plant es als Ergänzung ein „Notfallkochbuch“ mit „nahrhaften Mahlzeiten“ für den Krisenfall, also etwa bei einem längeren Stromausfall. Elektrische Küchengeräte sollen für die Zubereitung ebenso wenig benötigt werden wie Leitungswasser.

Noch ist dieses Kochbuch nicht erhältlich, doch in einer späteren Auflage unserer Broschüre wollen wir gern daraus zitieren.

2. Was sollte man zum besseren Verständnis der Broschüre über unser Stromnetz wissen?

Unser Stromnetz ist eine der bedeutendsten ingenieurtechnischen Leistungen überhaupt. Das deutsche Netz ist in vier Regelzonen mit den Betreibern Amprion, 50Hertz, TenneT und Transnet BW unterteilt (Bild 2) und stellt einen Teil des Europäischen Verbundnetzes dar. Dieses versorgt Millionen von Verbrauchern in den 26 teilnehmenden Ländern mit sinusförmigem Wechselstrom, der seine Flussrichtung in jeder Sekunde hundert Mal ändert und damit eine Frequenz von 50 Hertz (50Hz) aufweist (Bilds 3)

Bild 2: Die vier Regelzonen des deutschen Stromnetzes

Bild 3: Der zeitliche Verlauf des Netzwechselstromes; eine Periode dauert 1/50 Sekunde

Die Richtungswechsel finden an allen Stellen des Verbundnetzes vollkommen gleichzeitig statt. Wenn ein zusätzlicher Energieerzeuger in das System einspeisen soll, reicht es nicht aus, dass seine Frequenz 50Hz beträgt – er muss auch „phasengleich“ mit dem Netz sein, d. h. die Richtungswechsel seines Stromes müssen vollkommen netzsynchron erfolgen. Anderenfalls könnte beim Einschalten die Leistung des Netzes ihn zerstören.

Außerdem werden alle Verbraucher und Erzeuger von Elektroenergie in einer ganz erstaunlichen Weise aufeinander abgestimmt: In jedem Moment wird im Verbundnetz genauso viel Elektroenergie erzeugt, wie alle Verbraucher gerade benötigen. Als Führungsgröße dieses hochkomplizierten Regelvorgangs dient dabei die Frequenz des Wechselstroms, die mit einer Genauigkeit von 0,4% konstant zu halten ist. Wird mehr Leistung als nötig in das Netz eingespeist, schwingt der Wechselstrom „schneller“ – seine Frequenz erhöht sich; bei Untereinspeisung verlangsamt sich die Frequenz. Wählt man diese Internetadresse, so kann man den Zusammenhang zwischen Frequenz und Einspeisung von Regelleistung in das Netz eindrücklich in Echtzeit beobachten; eine Momentaufnahme zeigt Bild 2. Angezeigt wird darin mit der roten Linie im Sekundentakt die notwendige Regelleistung zur Rückführung der Frequenz auf den Normalwert.

Bild 4: Dieses Bild wurde mit Screenshot vom Bildschirm aufgenommen. Zum aktuellen Zeitpunkt (ganz rechts) liefern die Stromerzeuger im Netz zu wenig Leistung. Um die Normfrequenz von 50 Hz wieder zu erreichen, müssen 269 Megawatt zusätzlich eingespeist werden.

Die vier Regelzonen Deutschlands sind wiederum in 100 bis 200 Bilanzkreise mit den darin befindlichen Verbrauchern eingeteilt. Für jeden Bilanzkreis erstellt ein Bilanzkreisverantwortlicher in 15 Minuten-Intervallen eine Abschätzung des kommenden Verbrauchs anhand der Lastentwicklung. Aus den gewonnenen Daten werden

viertelstündliche Kraftwerksfahrpläne erstellt. Kommt es zu einer Abweichung des tatsächlichen Verbrauchs vom geplanten Verbrauch, greifen die Übertragungsnetzbetreiber auf die in Bild 4 dargestellte Regelleistung zurück.

Sozusagen an vorderster Front der Regelung wirkt innerhalb von Millisekunden die sogenannte Momentanreserve. Sie ist ausschließlich als kinetische Rotationsenergie in großen Schwungmassen in den Generatoren der Kraftwerke gespeichert (s. Bild 3 und Punkt 4.6) und wandelt sich automatisch bei deren Abbremsung infolge größerer Verbraucherlasten in zusätzliche elektrische Energie um.

Bild 5: Die gewaltigen, mit 3.000 Umdrehungen pro Minute rotierenden Schwungmassen der Generatoren können innerhalb von Millisekunden einen Teil ihrer Rotationsenergie als elektrische Energie in das Netz einspeisen.

Bei Leistungsüberschuss im Netz wird die Momentanreserve wieder aufgefüllt. Zeigt bei einer Unterversorgung die Freisetzung der Momentanreserve nicht genug Wirkung, stellen ausgewählte, dafür präqualifizierte Kraftwerke innerhalb der ersten 30 Sekunden die Primärreserve zur Verfügung, wofür im gesamten Verbundnetz eine Leistung von 3.000 Megawatt vorgehalten wird. Ist auch damit das Defizit nicht zu beherrschen, stehen als weitere Verteidigungslinien die Sekundärreserve (für 5 Minuten) und für die folgenden 55 Minuten die Minutenreserve zur Verfügung.

Sinkt die Frequenz weiter, drohen ab 49,8 Hz Lastabwürfe, d. h. die Abschaltung industrieller oder auch privater Verbraucher (Brownout). Ein Beispiel zeigt Bild 4. Schließlich trennen sich bei 47,5 Hz die Kraftwerke zu ihrem eigenen Schutz automatisch vom Netz, welches dann flächendeckend stromlos ist – der Blackout ist da.

Bild 6: Am 10. Januar 2019 kam es im europäischen Verbundnetz aus Ursachen, die immer noch nicht vollständig geklärt sind, zu einem plötzlichen Abfall der Frequenz. Daraufhin wurden in Frankreich industrielle Verbraucher mit einer Leistung von 1,5 Gigawatt „abgeworfen“. Wäre dies nicht erfolgreich gewesen, hätte es eine weitere Kaskade von Abwürfen gegeben. (Quelle: www.netzfrequenzmessung.de)

Wenn dagegen bei Überversorgung der „Strom zu schnell schwingt“, kommt zunächst negative Regelenergie der Kraftwerke zum Einsatz. Bei 50,5 Hz müssen Erzeuger heruntergefahren oder abgeschaltet werden; als dies am 28. März 2012 in Deutschland nur unvollständig gelang, stand das Verbundnetz vor dem Blackout (Näheres s. Punkt 4.3).

Wichtig für das Verständnis des Stromnetzes ist auch die Tatsache, dass es darin vier verschiedene Spannungsebenen gibt:

Die Existenz der höheren Spannungsebenen ist dadurch begründet, dass sich elektrische Leistungen bei höherer Spannung verlustärmer durch die Leitungen transportieren lassen. Leistung P ist das Produkt aus Strom I und Spannung U. Weil die Übertragungsverluste in den (sich durch ihren Ohmschen Widerstand erwärmenden) Leitungen mit dem Quadrat der Stromstärke anwachsen, wird die Spannung möglichst hoch gewählt und damit der Strom entsprechend niedrig eingestellt.

Es sei noch erwähnt, dass die Leitungen dem fließenden Wechselstrom auch kapazitive und induktive Widerstände entgegensetzen, was eine Phasenverschiebung der Verläufe von Strom und Spannung zur Folge hat. Diesem unerwünschten Effekt wird mit der Zuführung von sogenannter Blindleistung begegnet.

Die Fortleitung von hoch gespannter Elektroenergie geschieht zumeist in Freileitungen mit mindestens drei Leiterseilen für dreiphasigen Wechselstrom. Erdkabel für Höchstspannungen befinden sich in Planung. Sie sind vermutlich um den Faktor 3 teurer als Freileitungen und müssen außerdem aus physikalischen Gründen mit Gleichstrom betrieben werden, was zusätzliche Kosten für Gleich- und Wechselrichter bedingt.

Konzipiert wurde das Stromnetz für Energieflüsse von den höheren zu den niedrigeren Spannungsebenen. Doch mit dem Aufkommen der Energien aus Wind, Biogas und Sonne wird sogar bevorrechtigt auf unteren Spannungsebenen eingespeist; was zur Folge hat, dass der Strom im Netz teilweise „rückwärts“ fließt – mit Konsequenzen, auf die noch eingegangen wird.

<Folge 2 kommt demnächst>

—————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout (PDF)




Polen plant den Bau von Kernkraftwerken – Strahlungsgefahr sehen sie gelassen

„Bis zu 1,8 Millionen Menschen in Deutschland müssten im schlimmsten Fall für ein Jahr aus ihren Wohnorten evakuiert werden, wenn es am geplanten Standort in Polen zu einem schweren AKW-Unfall kommen würde.

Der nach dem Super-GAU im japanischen Fukushima angewendete Grenzwert für längerfristige Evakuierungen, 20 Millisievert pro Jahr, würde im schlimmsten – unwahrscheinlichen – Fall vor allem die südliche und westliche Umgebung von Berlin sowie den Nordosten von Hamburg erreichen.“

Leider vermitteln uns die Massenmedien kein zutreffendes Bild unserer Welt. Das Wort „Super-GAU“ soll erschrecken. Tatsächlich gab es in Fukushima einen schweren Industrieunfall, aber ohne Personenschaden. Aus den Medien erfährt man das nicht, aber im Internet ist zu finden, was WHO (World Health Organization), UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) und andere seriöse Institutionen dazu sagen: Es gab nur einen, recht zweifelhaften, Todesfall. Eine allgemeine Verschlechterung des Gesundheitszustandes der betroffenen Bevölkerung ist nicht zu erkennen.

Evakuiert wurde nicht aus der Sorge um die Gesundheit der Menschen, sondern wegen der Sorge, dass Grenzwerte nicht eingehalten werden können.

Was bedeuten die Grenzwerte für unsere Gesundheit? Wenig. Sie beruhen auf einer falschen Auffassung über Strahlenwirkungen. Trotzdem sind sie in der Kerntechnik von Nutzen. Da geht es nur um geringe Strahlendosen, wie sie an manchen Orten auf der Welt von Natur aus vorkommen. Es gibt aber nun einmal den Glauben, noch so kleine Strahlenintensitäten könnten krank machen und töten, und da brauchen die Betreiber kerntechnischer Anlagen Rechtssicherheit.

Viele Menschen sterben an Krebs. Im Jahr 2012 war Krebs bei Männern zu 28,8 % die Todesursache. Trifft es einen Mitarbeiter einer kerntechnischen Anlage, dann kann niemand beweisen, dass der Tod nicht durch die Strahlenexposition bei seiner Tätigkeit verursacht wurde. Aber durch eine lückenlose Dokumentation kann bewiesen werden: Der bedauernswerte Mitarbeiter war niemals Strahlenexpositionen über den gesetzlichen Grenzwerten ausgesetzt.

Es geht nicht um Gesundheitsschäden, die im Bereich der Grenzwerte ganz unwahrscheinlich sind. Im Gegenteil: Immer mehr wissenschaftliche Arbeiten zeigen, dass kleine Strahlenwirkungen eher gut für die Gesundheit sind. Die Ärzte in Radon-Heilbädern haben das schon immer gesagt.

Der Sinn der Grenzwerte ist, Betriebsleitung und Strahlschutzbeauftragte vor Rechtsfolgen zu schützen. Grenzwerte sollen so niedrig sein wie möglich, aber so hoch, dass dabei noch die jeweilige Arbeit ausgeführt werden kann.

Die Mitarbeiter werden in Kategorien eingeteilt. Für Leute in der Kategorie B beträgt die pro Jahr zulässige Strahlendosis 6 Millisievert (mSv), das ist das Dreifache der natürlichen Strahlenexposition im Flachland. Wer härter ran muss, kommt in die Kategorie A mit 20 mSv pro Jahr. Zehnmal höher sind die Grenzwerte für Astronauten, weil es nicht anders geht. Im Kraftwerk gilt: Abschirmen, Abstand halten, Arbeitszeit begrenzen. Das lässt sich in einer Weltraumstation nicht machen. Von einer Häufung strahlenbedingter Krankheiten der Astronauten ist nichts bekannt.

Den Grenzwerten liegt eine primitive Vorstellung zugrunde: Auch kleinste Intensitäten haben berechenbare negative Wirkungen. Der Fachausdruck ist LNT (Linear No Threshold). Kleinste Wirkungen sind nicht mehr zu erkennen, insofern lässt sich die LNT-Hypothese nicht experimentell beweisen. Biologische Zellen sind u.a. Steuerungssysteme, weit komplexer als die modernsten technischen Regelsysteme. Kleine Einwirkungen reparieren sie ständig. Aber die Zellen werden in der LNT-Hypothese wie Lotterielose oder Würfel behandelt.

Es ist einigermaßen sicher, dass bei akuten Strahlendosen von 1000 mSv, d.h. einem Sievert (Sv), für tödlichen Krebs ein Risikofaktor von 0,05 gilt. Das heißt, werden 100 Personen dieser Dosis ausgesetzt, dann sind 100 ∙ 0,05 = 5 Krebsfälle zu erwarten. So weit ist das akzeptabel. Aber nun kommt die lineare Vorstellung von LNT: Man rechnet bei 20 mSv, also der Jahresdosis, ab der bei Fukushima evakuiert wurde so, als wäre es egal, ob die Dosis in kurzer Zeit oder über ein Jahr verteilt einwirkt. Beim Würfeln ist das tatsächlich so: Die Wahrscheinlichkeit, eine Sechs zu bekommen, hängt nicht davon ab, ob man kurz hintereinander würfelt, oder nur einmal am Tag oder einmal pro Woche. Aber ist diese Vorstellung auf biologische Systeme anwendbar? Ist es egal, ob ich jede Minute ein Schnapsglas austrinke oder eins pro Woche?

Nach LNT wird das angenommen. Daher folgende Rechnung mit 20 mSv = 0,02 Sv für 1000 Personen:

Personen ∙ Dosis ∙ Risikofaktor = Tote

1000 ∙ 0,02 ∙ 0,05 = 1 Toter

 

Gibt es den wirklich? Das kann niemand sagen, denn gleichzeitig hat man einige 100 Krebstote sowieso. Was würde es für den Einzelnen bedeuten? Der Risikofaktor bei 20 mSv ist = 0,02 ∙ 0,05 = 0,001 = 0,1 %. Bei Würfelspiel entspricht das dem Fall, dass jemand 37mal würfelt, ohne eine einzige Sechs zu bekommen. Spieler sagen: So etwas haben wir noch nie erlebt, das gibt es praktisch nicht. Für die Wahrscheinlichkeit an Krebs zu sterben, bedeutet es: Statt des „normalen“ Risikos von 28,8 % hätte man ein Risiko von 28,9 %. Wer verlässt deswegen oder auch für etwas mehr sein Haus? In Fukushima hat der Strahlenaberglaube das erforderlich und die Polizei es möglich gemacht.

Diese minimale Erhöhung des Krebsrisikos beruht nur auf der unwahrscheinlichen LNT-Hypothese, sehr wahrscheinlich gibt es gar keine Wirkung.

Wünschen wir den Polen viel Erfolg beim Bau ihrer Kernkraftwerke! Tsunamis von der Ostsee sind wohl nicht zu befürchten, also wird nichts passieren. Wenn doch, gibt es nur dann schlimme Folgen, wenn die Strahlenhysterie bis dahin nicht abgeklungen ist.

 




Die Lüge hat in Deutsch­land eine lange Tradition – Teil 2: Die Lüge in Zeiten von Corona

Abb.3, Quelle, zeigt die Corona-Häufigkeit der PCR-positiv getesteten, fälschlich „Neuninfektionen“ genannt, in den europäischen Ländern bezogen auf die Einwohnerzahl, Stand Anfang Januar 2021.

Die Liste der Maßnahmen ist lang und wird immer länger. Bereits in seinem Artikel vom 24.12.2020 zeigte der Autor, dass der Gesinnungsumschwung in der Bundesregierung von Lockerung (noch Anfang Dezember 2020 die Rede) bis hin zum Lockdown anhand der Fallzahlen nicht zu erklären ist. Auch nicht die jetzige Begründung von angeblich infektiöseren Virenmutationen von COVID-19, wie der Autor zeigen wird.

Abb.4, Quelle siehe Graphik, zeigt die PCR-positiv getesteten, in Deutschland bis zum 20.01.2021.

Was ist eigentlich Corona oder COVID-19? COVID-19 ist keine Virus-Bezeichnung, sondern eine Krankheitsbezeichnung und ist die Abkürzung von „coronavirus disease 2019“. Die richtige Virenbezeichnung lautet: SARS-CoV-2. SARS-CoV-2 gehört zu den Beta-Coronaviren. Coronaviren sind unter Säugetieren und Vögeln weit verbreitet. Studien legen nahe, dass SARS-CoV-2 aus dem Virenpool von Fledermäusen stammt und über Zwischenwirte bei Säugetieren auf den Menschen übersprang. Im Jahr 2002 trat in China zum ersten Mal ein neues Coronavirus auf, dass in der Lage war, den Menschen zu befallen. Die Wissenschaft gab ihm den Namen: SARS-CoV (SARS: „severe acute respiratory syndrome“).

SARS-CoV-2 befällt vor allem menschliche Zellen mit dem sog. ACE-2-Rezeptor. Eine hohe ACE-2-Dichte besteht z.B. im Atemwegstrakt, im Darm, neuronale Zellen, in der Niere, in Gefäßzellen, und im Herzmuskel. Anmerkung: Alle Zellen haben verschiedene Rezeptoren, die z.B. für die Kommunikation untereinander oder für die Versorgung der Zelle mit Stoffen dienen. Diese Rezeptoren werden von Antigenen (hier Viren) genutzt, an die Zelle anzudocken und sie dann zu entern bzw. zu „überlisten“, um in die Zelle zu gelangen. Viren brauchen nämlich die Zellenzyme, um sich vermehren zu können. Auch Immunzellen, wie dendritische Zellen, Makrophagen und T-Zellen werden vom Virus befallen und hemmen damit die Aktivität des Immunsystems.

Entgegen zu „bisherigen“ Influenza-Viren (Grippeviren) der H1N1-Stämme, die auf die Spanische Grippe zurückgehen und bei denen das Oberflächenprotein Hämagglutinin (H) ausschlaggebend für das Andocken an menschliche Zellen ist, ist dies bei SARS-CoV-2 das sog. S-Protein. Das Virus kann nur dann in die menschliche Zelle gelangen, wenn das S-Protein (S für Spike) durch sog. zelluläre Proteasen funktional gespalten wird. Der Autor reißt diesen hochkomplexen Prozess kurz an, damit der Leser sieht, welch komplexe Kommunikationen und Vorgänge auf molekularer Ebene notwendig sind, damit das Virus in menschliche Zellen gelangen kann. Dies dient zur späteren Beantwortung der Frage: Können geimpfte nicht geimpfte anstecken?

Da Coronaviren hoch variable RNA-Viren sind, bilden sie mithilfe des Nukleotidaustausches und der Rekombination sehr schnell neue Varianten, die aus mehreren Mutationen bestehen. Eine solche Variante ist das erstmals in Großbritannien im August 2020 aufgetretene SARS-CoV-2 der Linie B.1.1.7, welchem eine höhere Ansteckung zugesagt wird und dass sich laut RKI seit September 2020 in Großbritannien ausbreitet. Ebenso das aus Süd-Afrika stammende SARS-CoV-2 der Linie B.1.351, über das erstmals im Dezember 2020 in Deutschland berichtet wurde. Das „Süd-Afrika-Virus“ hat z.B. im S-Protein 8 Aminosäurebausteine ausgetausht. Das aus England 17.

Über die Aminosäuren modelliert das Virus sozusagen seinen Andockschlüssel (S-Protein) an menschliche Zellen, wodurch dann bildhaft der Schlüssel besser passt (siehe Abb.5) und das Virus schneller/effektiver in die Zelle eindringen kann. Daher auch eine höhere Ansteckung, sofern das vorgenannte für die genannten Varianten zutrifft, was wissenschaftlich alles andere als bestätigt ist.

 

Abb.5, Quelle Stevens et al., Science Bd.303, S. 1866-1870, AAAS, zeigt beispielhaft die Bindungsstelle (jeweils in der Mitte) von drei Influenca-Virenarten und deren Hämagglutinin, mit dem es an die menschlichen Zellen andockt. Mit einer breiten Vertiefung in der Mitte erkennt sozusagen das H3-Virus (links) ein Molekül im Atemtrakt des Menschen und dockt dort an. Bei der spanischen Grippe (rechts) war die zentrale Vertiefung durch eine Mutation weiter ausgebildet, was ausreichte, so viele Menschen zu befallen. Bildhaft gesprochen sind dies die „Schlüsselzähne“, die durch Aminosäure-Austausch optimiert werden sollen. Allerdings kann das Virus nicht planvoll vorgehen, sondern ist auf Zufallsmutationen angewiesen.

Beim Corona-Virus (wie auch bei anderen Viren) sind Mutationen keine Besonderheit und kommen nicht nur zweimal, sondern bis jetzt über 300.000-mal beim Corona-Virus vor! (Quelle) Ohne das irgendjemand davon Notiz nimmt/nahm. Also warum gerade beim „England-Virus“ oder beim „Südafrika-Virus“? Zur Beantwortung der Frage kommen wir noch.

Die oben kurz angerissenen drakonischen Maßnahmen zur Einschränkung unserer Grundrechte und zur Schließung einer Vielzahl von Geschäften/Unternehmen wurden von der Politik mit folgenden Argumenten erlassen:

1. Bevorstehende Überlastung der Intensivbetten und damit Gefahr der medizinischen Versorgung der Patienten (Argumentation Anfang Dezember 2020)

2. Hohe Ansteckung durch die beiden genannten neuen Virenlinien (aktuell, so z.B. von der Kanzlerin).

Schauen wir zuerst auf die Argumentation unter Punkt 1.

Laut statistischem Bundesamt besitzt Deutschland eine im Vergleich hohe Anzahl von Intensivbetten, nämlich pro 100.000 Einwohner 33,9 (Abb.6).

Abb.6, Quelle: Statistisches Bundesamt, zeigt die Anzahl der Intensivbetten in Deutschland pro 100.000 Einwohner und anderen europäischen Ländern mit hohem medizinischem Stand.

Bezogen auf die Einwohnerzahl in Deutschland von 83,2 Mil. Einwohner sind dies etwa 28.200 Intensivbetten.

Nun zur Auslastung der Intensivbetten (Abb.7).

Abb.7, Quelle siehe Chart (DIVI ist die Deutsche Interdisziplinäre Vereinigung für Intensiv- und Notfallmedizin), gibt für November 2020 (November ist die Datenbasis, die der Politik für Ihre Argumentation unter Punkt 1 vorlag) die Anzahl der belegten Intensivbetten mit 3.742 an. Und die der freien Intensivbetten mit 6.600.

3.742 belegte Intensivbetten sind sicherlich für das Gesundheitswesen eine hohe Belastung, weil natürlich auch mit hohen Kosten verbunden. Die große Anzahl freier Intensivbetten (in Bezug auf Corona-Patienten knapp doppelte Reserve) bietet jedoch wenig Spielraum für die Argumentation der Politik von einer bevorstehenden Überbelegung der Intensivbetten in Deutschland. Und schon gar nicht kann sie als Argumentation dienen, Grundrechte massiv einzuschränken und ganze Branchen, wie den Einzelhandel, Friseure, Gaststätten, etc. in den Ruin zu treiben.

Nun zur Argumentation unter Punkt 2, dem Schutz der Bevölkerung vor einer hoch ansteckenden Virusvariante.

Laut RKI breitet sich die vermeintlich hoch ansteckende Virusvariante seit September 2020 in Großbritannien aus und wurde in mehreren europäischen Ländern bereits nachgewiesen. Nach einer Untersuchung durch die Medizinische Hochschule Hannover in Deutschland (mindestens) seit November 2020. Die Variante konnte bei einer Patientin im Nachhinein nachgewiesen werden. Da Großbritannien ein Land ist, dass vglw. oft von Deutschen besucht wird, ist von einer hohen Dunkelziffer und auch von einem noch früheren Auftreten in Deutschland auszugehen. Aber wir bleiben bei dem bisher bestätigten Fall vom November 2020.

Angesichts der hohen Sterblichkeitsrate bei der Vogelgrippe H5N1 (Sterblichkeit von über 50% gegenüber 3% bei Corona; zum Glück konnte H5N1 nur sehr schwer auf den Menschen „überspringen“) und dem in 2002 erstmals beim Menschen nachgewiesenen neuen Virus COV-SARS in China hat die Weltgesundheitsorganisation WHO bereits im Dezember 2004 Studien in Auftrag gegeben, die untersuchen sollen, was passiert, wird die Menschheit von einer Pandemie wie der Spanischen Grippe getroffen wird und ob die Staaten dagegen gewappnet sind. Eine solche Studie zeigt Abb.8 für die USA.

Abb.8, Quelle: Los Alamos National Laboratories, Models of Infectious Disease Agent Study, Timothy Germann et al. zeigt ausgehend von 40 Infektionen, wie sich das Inflluenca-Virus ausbreitet, wenn keine Impfstoffe zur Verfügung stehen. Bereits 60 Tage später ist das Verbreitungsmaximum erreicht.Wie war das nochmal? In Deutschland ist die Variante erstmals im November 2020 nachgewiesen, mit einer hohen Dunkelziffer. Also, wäre die Variante wirklich so gefährlich, dann hätten wir in Deutschland längst dessen Ausbreitungsmaximum erreicht! Die 60 Tage sind bereits vorbei. Irgendwas stimmt mit der Argumentation nicht.

Wer jetzt anführt, bei der Studie handelt es sich um Untersuchungen zum „normalen“ Influenza-Virus, nicht um SARS-CoV-2, der schaue sich bitte Abb.9 an, die die Ausbreitung von SARS-CoV-2 für Deutschland zeigt.

 

Abb.9, Quelle siehe Chart, zeigt die Corona-PCR-positiv getesteten, in Deutschland bis zum 22.01.2021.

Anmerkung: Von dem Mitstreiter Herrn Hartmut Huene wurde der Autor darauf hingewiesen, dass der PCR-Test, der auf Basis des Ct-Wertes beruht, auf dem die obigen Fallzahlen erhoben sind, laut UN falsch ist. Herr Huene:

„Kurz 1 Std. nach der Vereidigung des Präsidenten Biden und der Zusage, wieder in die WHO einzutreten (in der Corporation D.C. 1871) am 20.01 2021 um 11:43, wurde von der WHO die Bewertung des Ct-Wertes angezweifelt und man reduziert den Wert von 40-45 auf nun ca. 30 Zyklen (besser noch wären 20 bis 25). Verschiedene Virologen gehen davon aus, dass das einen Rückgang von ca. 90% der angeblichen positiven Infekte bedeutet.“ (hier).

Eine Analyse ist aus heutiger Sicht noch zu früh, sicher sollte die weitere Entwicklung hinsichtlich des Tests und der daraus resultierenden Zahlen beobachtet werden, ob diese anzupassen wären. Zurück zum eigentlichen Thema.

Die 1. Welle hatte ihren Höhepunkt um den 31.03.2020. Laut RKI traten die Erstinfektionen in Deutschland in Bayern Ende Januar 2020 auf. Ende Januar 2020 bis zum 31.03.2020 sind ebenfalls 60 Tage. Nach 60 Tagen wurde das Ausbreitungsmaximum der 1. Corona-Welle in Deutschland erreicht.

Vor diesem Hintergrund sind die Argumente unter Punkt 2 des nochmals verschärften Lockdowns, von der Kanzlerin oder anderen Personen, wie diversen Ministerpräsidenten oder von der Presse, wie z.B. Frau Anne Will vorgebracht, die Mutationen seien auf dem Vormarsch, als Unsinn zu bewerten, der auf Unwissenheit oder anderes, wie Propaganda zurückzuführen ist. Mutationen sind seit dem ersten Auftreten des Virus „auf dem Vormarsch“, bis jetzt an die 300.000. Als hoch variables RNA-Virus hat es nun mal diese Grundeigenschaft. Journalisten, die dies willfährig nachdrucken, missachten einmal mehr ihr journalistisches Ethos.

In Zeiten von Corona glauben offensichtlich nicht wenige Politiker, sich immer wieder mit Wortmeldungen in Erinnerung zu bringen, die nicht von ausreichender Sachkenntnis zeugen. Dazu gehört auch die Forderung nach einer Freizügigkeit für geimpfte Personen, die den Sachverhalt fehlenden Wissens belegt. Begründung:

Eine Impfung stärkt nicht das angeborene Immunsystem*, sondern das adaptive Immunsystem, welches die sog. Gedächtniszellen ausbilden, die uns bei einer erlittenen Krankheit, im Idealfall ein Leben lang gegen dieselbe Krankheit immun machen – die Krankheit bricht nicht mehr aus.

*Der Mensch besitzt mehrere Immunsysteme, die sowohl in sich selbst, als auch untereinander in hoch komplexer Form kommunizieren, Abgleiche vornehmen, etc. Dies sind:

– Das angeborene Immunsystem mit z.B. Dendriten, Makrophagen, etc., welches erkannte Fremdgehe sofort attackiert

– Das adaptive Immunsystem mit seinen T- und B-Zellen, dass, wie der Name dies schon sagt, sich durch Adaption an ein (neues) erkanntes Fremdgen herantastet und dann die geeigneten Waffen zu dessen Bekämpfung produziert

– Das zelleigene Immunsystem mit seinen Lysosomen

– Das genetische Immunsystem

Bei letzterem spricht die Wissenschaft nicht von einem Immunsystem, sondern von Reparaturprozessen. Ist das genetische Immunsystem gestört, so treten schwerwiegende Krankheiten wie Krebs auf. „Klassisches“ Beispiel, der Brustkrebs bei Frauen, der oftmals durch defekte Gene wie BRCA1 und BRCA2, die die Reparatur von Doppelstrangbrüchen in der DNA-Helix steuern, verursacht wird.

Eine Grippe-Impfung wirkt wie folgt:

Das deaktivierte Virus („Todvirus“) wird injiziert. Die Fresszellen (Makrophagen) und dendritische Zellen des angeborenen Immunsystems erkennen über molekulare Wächter (TLRs = Toll-artige Rezeptoren) Antigene und transportieren die Antigene des Eindringlings zu den Lymphknoten. In den Lymphknoten erkennen B-Lymphocyten mit passendem Sensor die Antigene auf der Virushülle. Gleichzeitig heften sich T-Helfer-Lymphocyten an Teile viraler Antigene, die von Makrophagen präsentiert werden. Sie geben daraufhin Cytokine (Signalmoleküle) ab, mit deren Hilfe die aktivierten B-Zellen Gene in ihrem Zellkern anschalten, um freie Antikörper (Immunglobuline – davon gibt es fünf Oberarten, die sich untereinander austauschen, sowie regulieren) zu produzieren**. Diese docken an die jeweiligen Antigene des Virus an und markieren diese als Angriffsziel für T-Killerzellen. Die Antikörper auf den Viruspartikeln wirken weiter als Signal für Fresszellen. Eine Makrophage schließt den Fremdling ein und produziert Giftstoffe, um ihn abzutöten, oder Enzyme, um ihn zu verdauen. Das inaktivierte Virus der Impfung hat damit seinen Zweck erfüllt. Die trainierten B- und T-Zellen des adaptierten Immunsystems („Gedächtniszellen“) werden bei einer echten Infektion schnell reagieren und gemeinsam die weitere Antikörperproduktion ankurbeln. Siehe Abb.10.

Abb.10 links, Quelle, zeigt das Grobschema eines Antikörpers aus der Oberart IgG mit seiner Hauptkette (Stamm) und seinen beiden dynamischen (adaptionsfähigen) Seitenketten. Das Immunsystem des Menschen besteht aus mehreren ineinander greifenden Arten. Die eine ist die angeborene Immunität (links), die andere bildet das adaptive/erlernte. Unmittelbar an den Einfalltoren des Körpers agiert das angeborene Immunsystem. Wenn dieses den Eindringling nicht erfolgreich bekämpfen kann, startet das lernfähige adaptive System einen späteren, dafür hochgradig angepassten Angriff gegen den jeweiligen Erreger. Das adaptive Immunsystem (erlernt) bildet dann die sog. B- und T-Gedächtniszellen. Die Induktion einer T-Zell-basierten und einer (fachlich) humoralen, das Virus neutralisierenden Antwort ist also von zentraler Bedeutung.

Die Adaption der Antikörper, ihre exakte Anpassung der Seitenkette (bildhaft gesehen = Zange) an das jeweilige Virus kann bis zu 10 Tagen dauern. Mitunter zu lange, so dass wir erkranken. Durch die Impfung entfällt die Adaption und damit diese Zeitspanne und die Gedächtniszellen attackieren/erkennen den Eindringling schneller. Zur Bekämpfung wandelt sich eine B-Zelle in eine sog. Plasmazelle (die Umwandlung ist ebenfalls mit einem komplexen Kommunikations- und Prüfprozess versehen, da ansonsten Autoimmunerkrankungen entstehen könnten) und beginnt dann mit der Massenproduktion der entsprechenden „Waffen“. Ebenso starten die T-Zellen. Das Immunsystem kann deutlich schneller starten und bekämpft erfolgreich den Eindringling, noch bevor wir krank werden. Krank bedeutet, dass z.B. das Virus eine solche Vermehrung im Körper erreicht und Zellen befallen hat, dass wir dies sozusagen mitbekommen.

Die Kommunikationsprozesse zu Beginn einer Infektion zwischen angeborenem und adaptiven Immunsystem, sowie die Umwandlung in Plasmazellen, sowie die Massenherstellung des zu dem Erreger passenden „Waffenarsenals“ dauert bis zu 2 Tage, und mindestens in dieser Zeitspanne ist eine geimpfte Person voll ansteckend. Denn ansteckend ist man, sobald man das Virus in sich trägt. Nicht mal ihre Virenlast ist geringer, als die bei einer ungeimpften Person, zumindest nicht nennenswert. Daher ist es für den Autor auch nicht verwunderlich, dass Israel, trotz der dortigen bereits hohen Impfrate (38% zu 1,67% zu Deutschland) weiter hohe Raten bei Neuinfektionen verzeichnet.

Insofern sind Aussagen wie Sonderrechte für geimpfte Personen in keiner Weise gerechtfertigt und inhaltlich zu begründen. Impfpässe, die zur Freizügigkeit beim Reisen zur Anwendung kommen sollen, sind denn einzig dazu geeignet, die Menschen zur Impfung zu bewegen, was aus Sicht des Autors gar nicht notwendig ist. Er kann seinen Lesern nur nahelegen und empfehlen, sich zum eigenen Schutz impfen zu lassen, so wie wir dies auch für eine „normale“ Grippe tun oder wenn wir in Länder reisen, die eine gesonderte Impfung notwendig werden lassen.

Ob eine geimpfte Person darüber hinaus ansteckend ist, ist anhand von Untersuchungen nicht geklärt, aber laut RKI nicht auszuschließen, wie Untersuchungen bei unseren nächsten Verwandten, den Affen, zeigen.

Die weit verbreitete Unwissenheit in Zeiten von Corona ist, wie gesehen, schon erstaunlich. So auch das von der Politik vorgebrachte Argument, sich impfen zu lassen, um die Ausbreitung des Virus zu stoppen, Stichwort „Herdenimmunität“.

Wenn Firmen ihre Beschäftigten im Frühherbst auffordern, sich impfen zu lassen, so machen sie dies nicht wegen einer Herdenimmunität, sondern um Kosten zu sparen (Kranken- und Krankheitsausfallkosten). Wenn wir uns impfen lassen, weil wir in Länder fliegen, die einen gesonderten Impfschutz notwendig machen, so tun wir dies nicht für die Stewardess – obwohl dies sicherlich ein aparter Gedanke ist – sondern zu unserem eigenen Schutz. Eine Impfung ist also immer auf eine Person bezogen., und der Autor möchte seine Leser nochmals anregen, sich zum eigenen Schutz impfen zu lassen. An den Sozialismus angelehnte Gedanken (weil sie die Möglichkeit eines Zwangs beinhalten, um dieses zu erreichen), wie eine „Herdenimmunität“, sollten in der Wissenschaft nicht Einzug halten.

Allerdings hört man in Zeiten von Corona auch Ungewohntes. Hat doch der Vorstandsvorsitzende von AUDI beim jetzigen Lockdown öffentlich die Aussage gemacht, dass die Automobilindustrie keine Corona-Hilfen benötigt und diese besser den Branchen zukommen sollten, die stärker davon betroffen sind. Ist man bei den Vorstandsvorsitzenden der Automobilindustrie, was die Politik anbelangt, wirklich aufgewacht und hat erkannt, dass die Milliarden an Subventionen, die die Politik vergibt und die natürlich eine gewisse Abhängigkeit beinhalten, auch nicht annähernd die Milliarden an Verluste ausgleicht, die bei der Umsetzung von deren Politik anfallen? Von der Vernichtung zehntausender von Arbeitsplätzen ganz zu schweigen. Und sollte hier wirklich ein erster Widerstand erkennbar sein, wo man dort doch all die Jahre „unterm Sofa“ lag.

Warum also hat die Politik den jetzigen Lockdown ausgerufen und ein weiteres Mal unsere Bürgerrechte noch weiter eingeschränkt? Die Antwort kann nur analytisch betrachtet werden.

In seinem letzten Artikel, „Das-Geschäft mit der Angst – die unendliche Geschichte, oder lernen wir Deutsche gar nichts aus der Geschichte, Teil-2, Die Corona Maßnahmen“ stellte Herr Frank Grabitz die folgende Frage:

„Übrigens : die Variation b.1.1.7 (eine von bisher 9650) die jetzt für so viel Aufregung sorgt, ist seit dem 20. Sept. in der englischen Datenbank vom COG erfasst und wurde bereits beim ersten infizierten Ägypter im April festgestellt. Ebenso noch vorher 2x in England und sogar in Frankreich. So viel nur zur Hysterieverbreitung (nachzulesen auf science files)….“

Der Autor erwiderte darauf:

„Ich kann mir sehr gut vorstellen, dass unter Führung (oder gar Initiative) Frankreichs Herrn Johnson mal gezeigt werden sollte, was Großbritannien bevorsteht, wenn es zu einem ungeregelten Brexit kommt. Hat ja auch seine Wirkung nicht verfehlt.“

Was an dieser plausiblen Antwort mit einem Fragezeichen zu versehen ist: warum gab Großbritannien selbst der EU sozusagen die Vorlage, die Grenzen zu schließen und den Luftverkehr einzustellen? Dass Großbritannien die Zahlen veröffentlichen konnte, liegt daran, dass dort auf Mutationen untersucht wird und zwar schon seit vielen Monaten, im Gegensatz zu Deutschland. Warum aber im Dezember, als gerade die entscheidenden Gespräche mit der EU zu einem Handelsabkommen liefen? Handel und geschlossene Grenzen nebst kilometerlange Lkw-Staus passen nun gar nicht zusammen.

Nein, sollte die Argumentation des Autors im Kern zutreffen, so lag hier eine konzertierte, also abgestimmte Aktion zwischen Premier Johnson und der EU (sicherlich nicht mit der ganzen EU, welche Länder dies sind, ließe sich daran ermitteln, welche jetzt die verschärften Maßnahmen ergreifen) vor, und das Ziel war nicht Herr Johnson, sondern der britische Wähler, dessen Zustimmung man für ein Abkommen brauchte (man will die Wähler ja behalten), der bekanntlich mehrheitlich für den Brexit stimmte.

Winston Churchill hat kurz nach dem 2. Weltkrieg gesagt. „Angst habe er nur vor den deutschen U-Booten gehabt.“ Diese Angst geht auf das Jahr 1942 zurück, als die deutschen U-Boote mehr Schiffstonnage versenkten, als die USA in der Lage waren, nachzubauen. Das Jahr, in dem solche gigantischen Projekte (das größte jemals gebaute Flugzeug), wie das Riesenflugboot (nach einer Anforderung der US-Regierung) Hercules, auch bekannt unter dem Namen Spruce goose, entstanden. Die US-Regierung versprach sich dadurch, der U-Boot-Gefahr sozusagen davonfliegen zu können. Großbritannien, dass sich weder selbst ernähren noch versorgen kann, hätte ohne Güterversorgung kapitulieren müssen. Wohl jeder Brite weiß, was es bedeutet, bleibt die Versorgung aus, weil die Ware am Zoll oder in kilometerlangen Lkw-Staus steckt und wird daher auch ein für die „einfachen“ Briten weniger gutes Abkommen mit der EU akzeptieren.

Wie erste Berichte zeigen, hat Premier Johnson für Britannien, zumindest für das Wahlvolk, ein schlechtes Abkommen ausgehandelt. Da ist von Lkw-Demonstrationen in London zu hören, weil die Fische schlecht werden und in langen Lkw-Staus an der Grenze stehen (Abb.11), von leeren Regalen… Sie erinnern sich, an der Fischerei-Frage wäre das Abkommen beinahe gescheitert.

Abb.11, Quelle: ARD-Tagesschau 20.02.2021.

So sehr für viele Briten ein Austritt aus der politischen Union notwendig war, zumindest hatten sie so abgestimmt, so wenig wollten sie, zumindest die Regierung, einen Austritt aus der wirtschaftlichen. Denn freier Warenverkehr schließt auch einen freien Banken- und Finanzverkehr mit ein. Und da ist Großbritannien mit seinem Finanzplatz London nach wie vor eine Großmacht, die ganz vorne in der 1. Liga mitspielt. Und die Argumente, von Premier Johnson, aufgrund der o.g. Demonstrationen vorgebracht, dies wären Anfangsschwierigkeiten und ggf. auf die Bürokratie zurück zu führen, gilt für Finanzgeschäfte nicht. Die laufen nahtlos und ungehindert weiter. Siehe hierzu auch die aktuellen Informationen der Entwicklungsorganisation Oxfam „Corona-Krise: Reiche werden reicher, Arme werden ärmer“ und auch den 1. Bericht des Autors zu den Gewinnern wie Amazon.

Nicht zu vergessen auch, dass das Corona-Thema der Regierung sehr gute Umfragewerte bescherte, zumindest für die CDU, nicht jedoch für die SPD*. Und 2021 sind Wahlen, da muss ein für die Regierung gut laufendes Thema weiter am Laufen gehalten werden. Wie auch immer, dies sind Analysen, keine Belege. Der Autor kommt jedoch für sich immer mehr zu dem Ergebnis, dass seit den Zeiten der SED in der deutschen Politik nicht mehr so viel Propaganda im Spiel war wie heute. Mit dem Unterschied, dass in einem totalitären Staat die Bevölkerung weiß, dass Staatsmedien einzig und allein die Aufgabe haben, Regierungspolitik zu verbreiten (siehe obiges Beispiel von Frau Anne Will).

*Dass die SPD, entgegen der CDU, durch ihre Corona-Politik beim Wähler nicht punkten konnte, überrascht den Autor nicht, braucht er sich nur die Personen anzusehen, die die Partei führen und eine besonders große Weltfremdheit an den Tag legen. Gleiches gilt für die, die das Umweltministerium führt.

Länder, die anders bei Corona handeln als man selbst und die just zu dem Zeitpunkt, als man selbst die Corona-Maßnahmen nochmals verschärft, diese lockert, z.B. Luxemburg (siehe Abb.12), werden abgekanzelt und als „verantwortungslos“ hingestellt. In diesem Sinne äußerte sich der saarländische Ministerpräsident am 06.Januar. Die Antwort des luxemburgischen Premiers Bettel auf diese Zurechtweisung kam prompt, Luxemburg sei ein souveräner Staat….

 

Abb.12 ist ein Ausschnitt aus Abb.3 und zeigt die Corona-PCR-positiv getesteten, der letzten 7 Tage, Stand 04.01.2021. Aus seiner Sicht verständlich, dass der saarländische Ministerpräsident gegenüber dem Großherzogtum Luxemburg so barsch reagierte. Luxemburg hat mehr Corona-Fälle und lockert seine Corona-Maßnahmen, wogegen das Saarland seine bei niedrigeren Zahlen verschärft.

Der saarländische Ministerpräsident kann vor diesem Hintergrund natürlich „seinen“ Saarländern nur schwer vermitteln, dass im Saarland die Bürgerrechte weiter eingeschränkt werden, der Einzelhandel, Friseure, Gaststätten,… in den Ruin treibt, während das Großherzogtum seine Maßnahmen lockert.

Die letzten, die sich in Deutschland von offizieller Seite so gegenüber dem Großherzogtum Luxemburg positionierten wie der saarländische Ministerpräsident, war die Wehrmacht.

Wie der Autor bereits in seinem ersten Artikel zu Corona Ende 2020 schrieb, trägt er bei Corona vieles mit, was von der Politik kommt, nicht jedoch Unwisssenheit und Propaganda.

 




FREQUENZEINBRUCH AM 8. JANUAR

Vor einigen Tagen wären im nördlichen Teil Europas beinahe die Lichter ausgegangen. Die Ursache scheint nun gefunden. Sie war klein, aber die Wirkung groß. Entsprechende Meldungen dürften sich demnächst mehren.

TE berichtete als eines der ersten deutschen Medien überhaupt vom Frequenzeinbruch im nördlichen Teil des europäischen Stromnetzes am 8. Januar 2021. Nun gibt es ein erstes Untersuchungsergebnis: Relativ kleine Ursache – große Wirkung.

Der europäische Koordinator des Stromnetzbetriebes, ENTSO-E, veröffentlichte ein erstes Untersuchungsergebnis. Demnach hatte eine Störung an einer 400-Kilovolt-Sammelschienen-Kupplung im Umspannwerk Ernestinovo im Norden Kroatiens das Ereignis verursacht. Dadurch wurden die Stromflüsse über dieses Umspannwerk gestoppt und der Strom über benachbarte Leitungen geführt. Dort kam es dann zu Überlastungen. Die Leitung zwischen den serbischen Städten Subotica und Novi Sad fiel durch eine Überstromauslösung aus, es folgten im Dominoeffekt weitere 13 Leitungen. Die für solche Fälle vorgesehenen Regelungen der ENTSO-E funktionierten wie vorgesehen, so dass keine wirklich gravierenden oder dauerhaften Folgen auftraten.

Die größte mediale Beunruhigung trat im nahen Österreich auf. Der Netzbetreiber Austrian Power Grid (APG) forderte umgehend mehr Flexibilitätsoptionen sowie zusätzliche Netz- und Speicher-Optionen, auch „um die Volatilitäten der Erneuerbaren“ auszugleichen. Diese waren zwar am Ereignis unbeteiligt, deren weiterer Ausbau verschärft jedoch die Schwankungen im Netz.
Der österreichische Krisenexperte Herbert Saurugg rechnet mit einem Blackout innerhalb der nächsten fünf Jahre. Unterdessen soll Polen Deutschland aufgefordert haben, seine Kernkraftwerke (KKW) wieder in Betrieb zu nehmen.

Die Liste der am Ereignistag außer Betrieb befindlichen Kraftwerke ist lang: Beide Blöcke in Fessenheim fehlen (maßgeblich dem deutschen Druck geschuldet), das Kraftwerk Hamburg-Moorburg erkaltet seit dem 18. Dezember, im sächsischen Braunkohlekraftwerk Boxberg wie auch im tschechischen KKW Dukovany waren Blöcke in Reparatur, die KKW Philippsburg und Mühleberg in der Schweiz sind schon seit Ende vorigen Jahres dauerhaft außer Betrieb. Das Steinkohlekraftwerk in Heyden, „Gewinner“ der Ausschreibung zur Stilllegung und am Strommarkt nicht mehr zugelassen, war schon vor dem Ereignis auf Weisung des Netzbetreibers wieder in Betrieb gegangen. In Frankreich standen mehrere Kernkraftwerke in pandemiebedingt länger währenden Revisionen.

Diese Aufzählung ist nicht abschließend. Nach deutschen Atom- und Kohleausstiegsgesetzen werden in diesem Jahr noch 4 Gigawatt (GW) KKW- und über 3 GW Kohlekraftwerksleistung dauerhaft vom Netz gehen.

Das Echo in Deutschland zum Ereignis am 8. Januar war sehr gedämpft. In einer Fragestunde im Deutschen Bundestag am 14. Januar äußerte sich Staatssekretärin Winkelmann-Becker dahingehend, dass langfristig Energieimporte nötig seien, also Wasserstoff aus Afrika und Chile, ein smart-Grid sei nötig und wir müssten uns „etwas einfallen lassen“. Beim Thema Wasserstoff müsse man forschen und vorankommen. Wer sich ihre Ausführungen im Original anhören möchte, kann das hier (vor allem von Minute 6:10 bis 10:30) tun.

Aber mit Sprüchen allein läßt sich kein Strom erzeugen.


Quellen:

https://www.entsoe.eu/news/2021/01/26/system-separation-in-the-continental-europe-synchronous-area-on-8-january-2021-2nd-update/

https://futurezone.at/digital-life/kettenreaktion-war-ursache-fuer-beinahe-blackout-in-europa/401169037

https://www.news.at/a/krise-herbert-saurugg-blackout-11551032

Der Beitrag erschien zuerst bei TE hier




Nach europäischem Fast-Blackout im Januar: „Die Stromversorgung ist massiv gefährdet“

Mehrere Medien berichteten über den Fast-GAU der europäischen Stromversorgung am 8. Januar 2021. Telepolis/heise.de nahm das Ereignis zum Anlaß für ein bemerkenswertes Interview, publiziert am 21. Januar. 

von Marcus Klöckner

Wie sicher ist eigentlich die Stromversorgung in Deutschland und Europa? Immer wieder sind Meldungen zu vernehmen, wonach es zu einem großflächigen und auch länger andauerndem Stromausfall kommen könne. Erst vor kurzem wurde laut Medienberichten ein größerer Stromausfall in Europa gerade noch verhindert (Europa ist am Blackout vorbeigeschrammt).

Telepolis nahm die Meldungen zum Anlass, ein Interview mit Henrik Paulitz zu führen. Der Leiter der Akademie Bergstraße für Ressourcen-, Demokratie- und Friedensforschung, der sich seit Jahrzehnten mit der Energiepolitik befasst, legt im Interview dar, was die Hintergründe der Warnungen vor einem „Blackout“ sind. Einen Zusammenbruch der Stromversorgung hält Paulitz für alles andere als realitätsfern – die Folgen wären weitreichend, warnt Paulitz.

„Die seit Jahrzehnten versprochenen Langzeitstromspeicher gibt es nicht“

Marcus Klöckner: Herr Paulitz, Deutschland ist ein hochentwickeltes Land. Die ausreichende Versorgung mit Strom ist elementar. Aber seit geraumer Zeit mehren sich Meldungen, wonach es in Deutschland zu einem weitflächigen, länger anhaltenden Zusammenbruch des Stromnetzes kommen könnte. Was ist an diesen Meldungen dran? Worum genau geht es?
Henrik Paulitz: Wenn die aktuellen energiepolitischen Beschlusslagen zum Abschmelzen von Kraftwerkskapazitäten umgesetzt werden, wird es in Deutschland schon in Kürze keine zuverlässige Stromversorgung mehr geben. Die Bevölkerung ist sich weithin völlig im Unklaren darüber, dass nicht nur „ungeplante Blackouts“ drohen, bei denen es laut eines Berichts von 2011 des „Büros für Technikfolgenabschätzung beim Deutschen Bundestag“ zu zahllosen Todesopfern kommen kann.
Etwa wenn Menschen in Bahnen und Fahrstühlen dehydrieren, es zu einer deutlich erhöhten Zahl von schweren Verkehrsunfällen kommt, die Wasserinfrastruktur nicht mehr funktioniert, das Risiko von Bränden in Wohn- und Gewerbegebäuden steigt, die Kühlung von lebenswichtigen Medikamenten und Lebensmitteln nicht mehr funktionieren, die Versorgung in Krankenhäusern und Pflegeheimen zusammenbricht, Gewaltkriminalität zunimmt und so weiter und so fort.
Strukturell sehr viel zerstörerischer dürften „geplante Brownouts“ wirken, wenn also die Netzbetreiber Industriebetrieben und Privathaushalten regelmäßig den Strom abschalten müssen, weil die Solar- und Windenergieanlagen nachts und bei Windflaute nur wenig Strom erzeugen. Einen Gesetzentwurf für eine solche Strom-Mangelverwaltung hat das Bundeswirtschaftsministerium unlängst vorgelegt, dann aber wieder zurückgezogen, um ihn zu überarbeiten.
Marcus Klöckner: Sie sagen, dass Kraftwerkskapazitäten abgeschmolzen werden. Aber es sollte doch dann einen Ausgleich geben, so dass die Stromversorgung nicht in Gefahr ist.
Henrik Paulitz: Ja, das sollte man meinen. Der Atomausstieg allein wäre nicht das Problem gewesen. Dieser war immer abgesichert, weil bei Bedarf stets Kohle-, Wasser-, Öl-, Biomasse- und Gaskraftwerke die Stromversorgung sichergestellt haben.
Inzwischen befinden wir uns in akuter Gefahr: Die seit Jahrzehnten versprochenen Langzeitstromspeicher gibt es nicht, unter anderem wegen den großen Wirkungsgradverlusten, also aus technisch-ökonomischen Gründen. Kurzzeitspeicher wie Batterien sind unterm Strich zur Lösung des Problems nicht geeignet. Sonne und Wind benötigen daher einen absolut zuverlässigen konventionellen Backup-Kraftwerkspark. Der aber geht uns nun mit dem Atom- und Kohleausstieg in den nächsten Monaten und Jahren verloren.
Marcus Klöckner: Um welche Größenordnungen geht es eigentlich?
Henrik Paulitz: Deutschland braucht heute mehr als 80 Gigawatt absolut zuverlässige Stromerzeugungsinstallation. Wind und Sonne liefern aber häufig weniger als 10 Gigawatt, gelegentlich sogar nur rund 1 Gigawatt.
Marcus Klöckner: Selbst bei einer angenommenen Verdreifachung der Wind- und Solarkapazitäten bliebe das Problem bestehen.
Henrik Paulitz: Einem Bedarf von 80 Gigawatt stünden auch dann zeitweise weniger als 5 Gigawatt gesicherte Wind- und Solarleistung gegenüber. Und es kommt sogar noch schlimmer.
Marcus Klöckner: Wegen der Elektroautos?
Henrik Paulitz: Ja, denn Millionen Elektroautos sollen weiteren Strom beziehen. Hinzu kommen Ölheizungen, die durch Elektrowärmepumpen ersetzt werden sollen. Dadurch könnte der Leistungsbedarf in den kommenden zehn Jahren auf 120 Gigawatt ansteigen. Zusammen mit Wasser- und Biomassekraftwerken kämen die erneuerbaren Energien insgesamt aber nur auf eine Größenordnung von 17 Gigawatt gesicherte Leistung.
Marcus Klöckner:Das hört sich aber nach einer extremen Unterversorgung an.
Henrik Paulitz: Absolut. Die Stromversorgung ist massiv gefährdet.
Marcus Klöckner: Wären Gaskraftwerke eine Lösung?
Henrik Paulitz: Das war die Empfehlung der Kohlekommission! Nach Angaben der Deutschen Energie-Agentur bräuchte man allerdings bei einem Atom- und Kohleausstieg bis 2030 rund 75 Gigawatt Gaskraftwerkskapazität, weit mehr als 100 Gaskraftwerksblöcke.
Marcus Klöckner: Es werden doch aber kaum Gaskraftwerke gebaut?
Henrik Paulitz: Richtig. Das Gegenteil ist sogar der Fall. Durch die EU-Umweltgesetzgebung geraten die bestehenden Gaskraftwerke mit einer Gesamtkapazität von rund 30 Gigawatt unter Druck, so dass ihnen die Stilllegung droht.
Marcus Klöckner: Wenn es jetzt noch nicht genügend Gaskraftwerke gibt, dürfte es aufgrund der langen Genehmigungszeiten auch nicht so schnell gehen, neue zu bauen.

Henrik Paulitz: Es sind sowohl die Planungs-, Genehmigungs- als auch die Bauzeiten, die Zeit benötigen. Wir reden von vier bis sieben Jahren. Der kritische Jahreswechsel ist aber 2022/2023. Dieser Zug ist also längst abgefahren. Kurzfristig bieten auch Gaskraftwerke keine Lösung.

„Stromlücken“

Marcus Klöckner: Nochmal: Wie real ist es, dass es zu einem Zusammenbruch des Stromnetzes kommen kann?
Henrik Paulitz: Zahlreiche mit der Thematik befasste Institutionen und Fachleute, beispielsweise auch die der Leopoldina, weisen unmissverständlich darauf hin, dass Deutschland wegen der nicht verfügbaren Langzeitspeicher auch weiterhin ein absolut zuverlässiges, konventionelles Backup-Kraftwerkssystem wie im heutigen Umfang benötigt. Selbst der Bundesverband der Solarwirtschaft teilte unlängst mit, dass schon in den kommenden rund zwei Jahren eine Stromlücke von bis zu 30 Gigawatt Leistung droht, was rein rechnerisch der Leistung von mehr als 20 großen Atomkraftwerken oder rund 40 Kohlekraftwerksblöcken entspricht.
2022 gäbe es bereits eine „aufreißende Stromlücke“. Schon 2023 werde der europäische Stromverbund die Stromlücke nicht mehr schließen können. Die Laufzeitverlängerung von Kohlekraftwerken werde dann unausweichlich, heißt es in einer Pressemitteilung des Bundesverbands Solarwirtschaft. Wir werden es also vermutlich schon innerhalb der nächsten drei Jahre deutlich zu spüren bekommen, wie sich eine „StromMangelWirtschaft“ anfühlt, in der nicht mehr genügend Strom erzeugt bzw. importiert werden kann.
Marcus Klöckner: Gab es denn schon mal einen Fall, bei dem es eng wurde?
Henrik Paulitz: Ja. Obwohl wir unlängst noch einen theoretisch „absolut“ zuverlässigen Backup-Kraftwerkspark hatten, wurde es wiederholt schon ziemlich eng. Im Januar 2017 fehlte es sowohl in Frankreich als auch in Süddeutschland an Stromerzeugungskapazitäten, nachdem mehrere Kraftwerksblöcke nicht zur Verfügung standen und die Windenergieanlagen nur wenig Strom erzeugten. Es musste auf Kraftwerke in Nordrhein-Westfalen zurückgegriffen werden.

Dennoch kam es am 18. Januar 2017 in Deutschland zum stundenlangen Verlust der geforderten Netzsicherheit. Der französische Übertragungsnetzbetreiber musste mit mehreren Sondermaßnahmen reagieren, u.a. wurde die Bevölkerung zum Stromsparen aufgerufen.

„Nicht nur ein deutsches Problem“

Marcus Klöckner: Was war im Juni 2019?
Henrik Paulitz: Da gab es drei sehr kritische Tage, das waren der 6., der 12. und der 25. Juni 2019. Das Problem waren extrem wechselhafte Wetterlagen mit Windverhältnissen, die nur schwer prognostizierbar waren. Es kam zu Winden, die plötzlich abflauten. Deshalb standen weniger Stromerzeugungskapazitäten zur Verfügung, als gebraucht wurden.
Am letzten Tag kamen erschwerend möglicherweise noch Spekulationen hinzu. Um das Stromnetz zu stabilisieren, mussten alle Register gezogen werden. Am Ende konnten nur noch gewaltige Stromimporte die Situation retten, sonst wäre es möglicherweise zum Zusammenbruch des europäischen Stromnetzes gekommen.
Marcus Klöckner: Es geht hier also nicht nur um ein deutsches Problem?
Henrik Paulitz: Nein. Am 9. August 2019 waren weite Teile Großbritanniens von einem Stromausfall betroffen. Deutsche Nachrichtenmagazin-Leser erfuhren nur etwas von zwei fehlerhaften Stromgeneratoren. Bei Bloomberg News war zu erfahren, dass eine Gasturbine gleichzeitig mit einem großen Offshore-Windenergiepark ausgefallen war.
Marcus Klöckner: Wie sieht es denn mit der Bundesnetzagentur aus? Was sagt sie?
Henrik Paulitz: Offiziell dementiert das zuständige Bundeswirtschaftsministerium, dass es ein ganz massives und stetig wachsendes Problem mit der Versorgungssicherheit gibt. Gleichzeitig aber muss die dem Wirtschaftsministerium unterstehende Bundesnetzagentur heute schon regelmäßig geplante Kraftwerks-Stilllegungen untersagen, weil auf die Kraftwerke nicht verzichtet werden kann.
Da man nach den nun sehr unmittelbar bevorstehenden Stilllegungen nicht mehr genügend Strom auf zuverlässige Weise erzeugen kann, sollen die Stromkunden auf Strom verzichten: Das Bundeswirtschaftsministerium hatte unlängst den Entwurf für ein „Steuerbare-Verbrauchseinrichtungen-Gesetz“ vorgelegt, welches kurz auch als „Schlechtes-Strom-Gesetz“ bezeichnet werden könnte, mit dem die Grundarchitektur für eine „StromMangelWirtschaft“ mit ständigen Stromabschaltungen gelegt werden sollte.
Nach Protesten musste das Gesetz vorläufig zurückgezogen werden: Es war öffentlich kaum zu vermitteln, dass die Bürger Elektroautos kaufen sollen, denen dann aber per Gesetz jederzeit der Strom abgeschaltet werden kann.
Wir dürfen auf den neuen Regelungsvorschlag gespannt sein, mit dem der Strom künftig rationiert werden soll. Es könnte auf so genannte marktbasierte Lösungen hinauslaufen, wonach sich dann nur noch Reiche den Strom fürs Elektroautos leisten können. Vermutlich verschiebt man das Problem jetzt bis nach der Bundestagswahl, um keine Wähler zu verschrecken. Es zeichnet sich jetzt schon ab: In der künftigen „StromMangelWirtschaft“ wird es ein Hauen und Stechen um jede Kilowattstunde geben.
Marcus Klöckner: Das heißt: Wir müssen uns in Zukunft demnach auf regelmäßige Stromunterbrechungen einstellen? Eigentlich ein Kennzeichen von Entwicklungsländern.
Henrik Paulitz: Ja, und das soll nun, wie gerade dargelegt, in Deutschland ganz offiziell eingeführt werden.
Marcus Klöckner: Was wäre denn nun, wenn es zu einer Unterdeckung der gesicherten Stromleistung kommt? Was bedeutet das für die Bürger?
Henrik Paulitz: Die Folgen für die Bürger wären desaströs. Großflächige und lang andauernde Stromausfälle kämen einer nicht beherrschbaren nationalen Katastrophe gleich, wie einer Studie des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag zu entnehmen ist.
Eine „StromMangelWirtschaft“ mit ständigen Stromunterbrechungen für Privathaushalte, Gewerbe und Industrie, mit einer Wirtschaft im dauerhaften Stop-and-Go-Modus, also im regelmäßigen Teil-Lockdown, würde den wirtschaftlichen Niedergang und die schon längst eingesetzte schleichende Deindustrialisierung Deutschlands beschleunigen. Welcher Industriebetrieb würde noch in Deutschland investieren?
Das hätte möglicherweise sehr weitreichende Folgen für Wohlstand und Arbeitsplätze, für die Finanzierbarkeit der sozialen Sicherungssysteme und für die Möglichkeit, die Milliardenschulden, die jetzt aufgetürmt werden, zurückzuzahlen.

„Die Energiepolitik bedarf dringend der Korrektur“

Marcus Klöckner: Wie könnten sich Mobilität und Wärmemarkt entwickeln?
Henrik Paulitz: Wenn in den Städten Kohle-Heizkraftwerke stillgelegt werden oder – wegen politischer Widerstände – eine Umstellung der Anlagen auf Erdgas misslingen würde, dann wären Millionen Haushalte ohne Fernwärme, sie wären ohne Raumwärme und Warmwasserversorgung. Wenn Öl- und Gasheizungen verboten werden würden, wie es zum Teil schon beschlossen und zum Teil gefordert wird, dann wären die Bürger gezwungen, auf Elektroheizungen und Elektrowärmepumpen umzusteigen, ohne dass der dafür benötigte Strom zuverlässig bereitgestellt werden kann.
Die Bürger wären vielfach ohne Heizung und Warmwasserversorgung. Wenn wie gefordert Verbrennungsmotoren verboten werden würden und für die propagierten Elektroautos nicht genügend zuverlässiger Strom bereitgestellt werden kann, was der Fall ist, dann steht das teure und hoch-subventionierte Elektroauto die meiste Zeit fahruntüchtig herum und wartet vornehmlich darauf, dass wieder etwas Strom fließt, der dann unter Umständen sehr teuer bezahlt werden muss.
Anders formuliert: Ein motorisierter Individualverkehr wäre dann nur noch in geringfügigem Umfang realisierbar. Er wäre wohl nur noch für Reiche erschwinglich. Wenn dann in der Konsequenz auch noch Bahnen und Busse völlig überfüllt und unzuverlässig wären, weil sie zum Teil von der Stromversorgung abhängig sind, hätte auch das massive Folgen für diese Volkswirtschaft und die von ihr lebende Bevölkerung.
Marcus Klöckner: Sie zeichnen ein düsteres Bild!
Henrik Paulitz: Ja, leider. Ich beschreibe aber eigentlich nur die aktuelle Politik, die uns im Fernsehen mehr und mehr auch von Philosophen angepriesen wird, die uns auf eine solche Mangelwirtschaft einschwören wollen. Dabei habe ich bei diesen Sendungen den Eindruck, dass nicht wirklich zum Mitdenken und zum eigenständigen Reflektieren angeregt werden soll. Vielmehr bekommen wir Ideologie- und Polit-Häppchen serviert, die vielleicht gut klingen, aber wir wissen meist gar nicht, was das in der Wirklichkeit bedeuten würde.
Marcus Klöckner: Können Sie das vielleicht mal konkret machen?
Henrik Paulitz: Es ist aktuell sehr beliebt, über SUVs zu lästern, Plastik und die Industrie zu verteufeln, und leichtfüßig dem Verzicht das Wort zu reden. Wie aber fühlt es sich wohl an, wenn wir kein funktionierendes Verkehrssystem, ständige Stromausfälle und immer weniger Industrie und Arbeitsplätze haben und wenn wir im Winter in der eiskalten Wohnung sitzen?
Marcus Klöckner: Sie befürchten weitreichende volkswirtschaftliche Schäden?
Henrik Paulitz: Insgesamt zeigt sich, dass viele der längst eingeleiteten Maßnahmen dieses Land massiv verändern und den Wohlstand wohl substanziell verringern würden. Und zwar schon morgen. Letztlich steht das ökonomische Überleben Deutschlands und Europas auf dem Spiel.
Nach Einschätzung des Verbands der Familienunternehmer ist die Versorgungssicherheit, also die zuverlässige Versorgung mit Strom und anderer Energie, vermutlich der letzte große Vorteil des europäischen und deutschen Wirtschaftsstandortes gegenüber den globalen Wettbewerbern.
Das bedeutet: Wenn in Deutschland und Teilen Europas in den kommenden Jahren die Versorgungssicherheit nicht mehr gewährleistet ist, dann wird das massive wirtschaftliche Folgen für Deutschland und für Europa haben.
Marcus Klöckner: Sie haben es schon angesprochen. Die Folgen für unser gesellschaftliches Gefüge wären weitreichend.
Henrik Paulitz: Mit der Mobilität, der Raumwärmeversorgung und vielen Stromanwendungen stünde auf sehr umfassende Weise die Befriedigung von Grundbedürfnissen in Frage. Eine solche Ökonomie des Verzichts wäre auf demokratische Weise auf Dauer nicht durchsetzbar, weil die Menschen das nicht wollen, sobald sie spüren, was das in der Realität bedeutet.
Das heißt: Es müsste zu repressiven, totalitären staatlichen Strukturen kommen, die mit unserer freiheitlich-demokratischen Grundordnung unvereinbar sind. Die Deutsche Bank Research spricht bereits von Öko-Diktatur. Nicht zuletzt wäre auch die innere und äußere Sicherheit massiv gefährdet. Eine solche Entwicklung kann sich eigentlich niemand wünschen.
Marcus Klöckner: Wie erklären Sie sich, dass wir in dieser Situation sind? Was genau hat die Politik falsch gemacht?
Henrik Paulitz: Man hat sich in Deutschland zu lange darauf verlassen, dass die seit Jahrzehnten angekündigten Langzeitspeicher nicht nur versprochen, sondern auch geliefert werden. Heute sehen wir, dass das nicht der Fall ist und dass sich das auf absehbare Zeit technisch wie auch ökonomisch als äußerst schwierig darstellt.
Die Konzeption der Energiewende, wie sie in den vergangenen zehn bis zwanzig Jahren propagiert wurde, ist daher nicht realisierbar. Die Energiepolitik bedarf dringend der Korrektur, und zwar sehr kurzfristig, weil sich zeigt, dass ein Verlust des konventionellen Kraftwerksparks nicht zu verantworten wäre.
Marcus Klöckner: Rechnen Sie mit einer Korrektur der Energiepolitik?
Henrik Paulitz: Das ist schwer zu beurteilen. Die Probleme bestehen darin, dass sich viele Akteure ideologisch sehr festgelegt haben, dass eine kritische Rationalität bei der Beurteilung von technischen und ökonomischen Fragen mehr und mehr blinden Glaubensbekenntnissen gewichen ist und dass jährlich auch sehr viele Milliarden in diesem Bereich fließen, was Strukturen zementiert, so dass ein Umsteuern schwierig werden dürfte.
Andererseits nimmt der Realitätsdruck mit den anstehenden Kraftwerks-Stilllegungen ganz drastisch zu. Das Problem ist einfach nicht mehr wegzudiskutieren. Die Versorgungssicherheit wird daher vermutlich bald schon zu einem, wenn nicht zu dem beherrschenden Thema der Politik.
Marcus Klöckner: Was müsste aus Ihrer Sicht nun getan werden?
Henrik Paulitz: Bei nüchterner Betrachtung gibt es praktisch keine ernsthaft vertretbaren Handlungs-Alternativen mehr, da selbst die Erneuerbare-Energien-Branche sich in den vergangenen Jahren nicht für den Erhalt bzw. für die Gestaltung eines Backup-Kraftwerksparks eingesetzt hat, den sie aber doch so dringend benötigt, sondern stets nur meinte, mit immer mehr Wind- und Solarenergieanlagen alles lösen zu können.
So wurden zuletzt auch die Empfehlungen der so genannten Kohlekommission sträflich missachtet, wonach bei einem Atom- und Kohleausstieg – als einzig mögliche Lösung – sehr schnell Gaskraftwerke in großer Zahl hätten gebaut werden müssen. Die bittere Realität ist nun, wenn man zunächst nur die kommenden Monate und Jahre in den Blick nimmt: Entweder lässt man bestehende Kraftwerke weiter am Netz oder dieses Land versinkt im Chaos einer „StromMangelWirtschaft“.



Corona: Einige Zahlen zu 2020

Sterbefälle in Deutschland: Betrachtet werden die Sterbefälle von 1950 bis 2020. Ab 2006 ist ein ansteigender Trend zu erkennen. Häufigste Todesursache in Deutschland ist eine Erkrankung des Kreislaufsystems, gefolgt von Neubildungen und Atemwegserkrankungen [1].

Abschätzung für 2020 mit den Vorjahreswerten

Um eine Abschätzung für 2020 zu errechnen wird das Verfahren angewandt, das von Prof. Dr. Thomas Rießinger in einem Artikel am 29.12.2020 publiziert wurde [2].

Sollte sich der lineare Trend ab 2006 fortsetzen, so ist mit 957006 Sterbefällen zu rechnen. Die Vorjahre weisen eine mittlere Abweichung von 9467 Fällen zum linearen Trend auf. Daraus ergibt sich eine Abschätzung für 2020, die im Bereich zwischen 947539 und 966473 liegt. Die prozentuale Abweichung zum Trend beträgt 1,06%. Wird dies in die Abweichung mit einbezogen, so ergibt sich für das Jahr 2020 eine Abweichung von 10144, womit der obere Wert 967150 erreicht wird.

Die größten und extremen Abweichungen von diesem Trend sind die Jahre 2014 mit -3,22% und 2015 mit + 1,97%. Im Jahr 2020 konnte eine Abweichung von +1,58% ermittelt werden.

In folgender Grafik werden die errechnete Abschätzung, extreme Abweichungen sowie die tatsächliche Anzahl an Sterbefällen dargestellt. Die Sterbefälle in 2020 lagen knapp über der errechneten Abschätzung, aber innerhalb der größten Abweichungen der letzten Jahre.

Die letzten fünf Jahre im Detail

Um die Sterbefälle mit den Vorjahren besser vergleichen zu können, sollen die letzten fünf Jahre im Detail betrachtet werden.

Die Grippewelle 2017/18 war außergewöhnlich stark. Nach Schätzungen hat diese rund 25.100 Menschen in Deutschland das Leben gekostet [3].

Die letzten fünf Jahre werden kalenderwochenweise miteinander verglichen. Die beiden höchsten Mittelwerte sind schwarz (2018)und rot (2020) dargestellt.

Um diese Grafik besser vergleichen zu können, werden die beiden stärksten Jahre separat dargestellt. Zusätzlich sind die gemäß RKI an Corona Verstorbenen mit eingetragen. Es wird bei den Zahlen der an Corona Verstorbenen vom RKI nicht unterschieden, ob diese mit oder an Corona verstorben sind.

Influenza 2016 -2020

2020 wurden extrem wenige Influenza Fälle an das RKI gemeldet. Die in folgender Grafik abgebildeten Fallzahlen beinhalten die laborbestätigten Fälle, die dem RKI über ein Netz von Sentinelpraxen gemeldet werden [4].

„Das Robert Koch-Institut (RKI) geht laut aktuellem Wochenbericht aktuell davon aus, dass in Deutschland extrem wenig Influenzaviren zirkulieren. Insgesamt wurden dem RKI seit der 40. Kalenderwoche 2020 weniger als 300 laborbestätigte Influenzafälle gemeldet. Wer aktuell unter einer akuten Atemwegserkrankung leidet hat sich wahrscheinlich entweder SARS-CoV-2 oder ein Rhinovirus eingefangen. Das Phänomen betrifft nicht nur Deutschland. „Weltweit berichten Länder über eine niedrige Influenza-Aktivität, die deutlich unter den Ergebnissen im vergleichbaren Zeitraum der Vorjahre liegt.“ Eine konkrete Begründung liefert das RKI nicht. Aber es ist denkbar, dass die aktuellen Maßnahmen zur Eindämmung der Corona-Pandemie auch die Verbreitung der Influenzaviren bremsen“ [4]:

 

Situation in den Krankenhäusern

Eine Analyse der Initiative Qualitätsmedizin e.V. mit 421 fachübergreifenden Krankenhäusern aus Deutschland und der Schweiz vergleicht 2019 mit 2020. „Die hier dargestellte Analyse umfasst die 284 IQM Kliniken, die ihre Abrechnungsdaten bis Ende November 2020 geliefert haben.

In den ersten 11 Monaten des Jahres 2020 wurden insgesamt weniger Patienten im Krankenhaus behandelt als im Vergleichszeitraum 2019. Auch die Gesamtzahl der SARI-Fälle, Intensivfälle und Beatmungsfälle war im Untersuchungszeitraum nicht höher als 2019. Vor dem Hintergrund steigender Infektionszahlen wird hier die Analyse der Dezemberdaten von besonderem Interesse sein“ [5].

Die hier vorgestellten Grafiken stellen die Daten näherungsweise dar. Auf der Internetseite des Vereins Initiative Qualitätsmedizin e.V. werden weiter Informationen sowie die exakten Daten zur Verfügung gestellt.

https://www.initiative-qualitaetsmedizin.de/covid-19-pandemie

Der PCR – Coronatest

Zur Erfassung der SARS-CoV-2-Testzahlen werden deutschlandweit Daten von Universitätskliniken, Forschungs-einrichtungen sowie klinischen und ambulanten Laboren wöchentlich am RKI zusammengeführt.

 

Ist der PCR-Coronatest ein Virusnachweis?

„Nein, der Test weist lediglich Virusbruchstücke (Fragmente) nach und sagt weder über eine Infektion noch über Ansteckungsfähigkeit oder Krankheit etwas aus. Er ist in Bezug auf das SARS-CoV-2 unspezifisch, und gibt teilweise auch bei älteren Viren, die noch im Umlauf sind, und deren Nachfahren positive Befunde. Positiv getestete Personen sind selten (seit Juni 2020 unter 1%), davon die allermeisten symptomlos. Und bei einer großen Vielzahl von ihnen dürfte ein falsch positives Testergebnis vorliegen. Ausweislich der Ergebnisse des Ringversuchs der Deutschen Akkreditierungsstelle liegt die falsch-positive Rate bei einer Leerprobe bei 1,4% bei einer mit einem harmlosen Corona-Virus versetzten Probe bei 7,6%. Die positiven Ergebnisse im Sommer 2020 dürften daher weit überwiegend das Grundrauschen des Tests selbst wiedergeben“ [6,7].

 

Wie gefährlich ist SARS-CoV-2?

„Befürchtungen, dass SARS-CoV-2 deutlich gefährlicher im Hinblick auf Übertragbarkeit, Krankheitslast und Mortalität sein könnte als eine Influenza, haben sich als unzutreffend erwiesen. Die Infektion verläuft in den allermeisten Fällen symptomlos oder mit leichten Grippesymptomen. Alte, geschwächte Menschen mit Vorerkrankungen laufen ein höheres Risiko, an Covid-19 zu erkranken. Viele der sehr schweren Verläufe, gerade zu Beginn der Erkrankungswelle im März 2020, sind allerdings auf der Panik geschuldete Behandlungsfehler zurückzuführen (Intubieren etc.). Spätfolgen sind bislang nicht belegt. Eine Auswertung von insgesamt 23 weltweit durchgeführten Studien hat gezeigt, dass die Corona-Infektions-Todes-Rate (IFR) für Personen über 70 Jahren bei ca. 0,12 % liegt, bei Personen unter 70 Jahren lediglich bei 0,04 %“ [6].

Quellen

Um eine Vergleichbarkeit zu gewährleisen wird in dieser Arbeit ein Kalenderjahr auf 52 Wochen begrenzt. Die Daten des Statistischen Bundesamts sind Vorläufig (Stand 22.01.2021).

Daten für Grafiken:

https://www-genesis.destatis.de/genesis/online?sequenz=tabelleErgebnis&selectionname=12613-0007#abreadcrumb

https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/Sterbefaelle-Lebenserwartung/Tabellen/sonderauswertung-sterbefaelle.html

https://www.destatis.de/DE/Themen/Querschnitt/Corona/_Grafik/_Interaktiv/woechentliche-sterbefallzahlen-jahre.html

https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Testzahl.html

[1] https://de.statista.com/statistik/daten/studie/158441/umfrage/anzahl-der-todesfaelle-nach-todesursachen/

[2] https://reitschuster.de/post/ist-die-amtlich-verordnete-panik-uebertrieben/

[3] https://www.aerzteblatt.de/nachrichten/106375/Grippewelle-war-toedlichste-in-30-Jahren

[4] Zitat, Grafik: https://de.statista.com/infografik/23740/anzahl-der-pro-kalenderwoche-an-das-rki-gemeldeten-influenza-faelle/

[5] Zitat, Approximierte Daten für die Grafik: https://www.initiative-qualitaetsmedizin.de/covid-19-pandemie

[6] Zitate: https://corona-ausschuss.de/faq/

[7] Original: https://cormandrostenreview.com/ Deutsch: https://www.docdroid.net/8YUYaw9/corman-drosten-review-report-pdf

 

 

 




In Deutschland mit langer Tradition – Teil 1: Die Behauptung einer auf Treibhausgasen basierten Erderwärmung

Über die obige Cabaret-Einlage des „Clima-Clowns“ Latif – er selbst wird sich wohl Klimaforscher nennen, obwohl es diesen Lehrzweig in der Wissenschaft gar nicht gibt, was nur logisch ist, denn Klima ist nichts anderes als der statistische Mittelwert des Wetters und was soll dass sein, Mittelwertforscher oder gar Mittelwertschutz – können die Spanier oder die Süddeutschen, Österreicher, etc. ganz sicher nicht lachen. Sind sie doch in den letzten Tagen und Wochen förmlich im Schnee(Chaos) versunken. Allerdings erschien der Artikel mit obigem Zitat am 1. April (!) 2000. Er wurde allerdings nicht als Aprilscherz ausgewiesen, weder vom Spiegel noch von den Staatssendern von ARD und ZDF, die dies natürlich ebenfalls meldeten.

Wie der Autor unter anderem in seinem jüngsten Bericht auf EIKE zeigte, bestimmt die Sonne und nur diese unser Wetter und damit dessen Mittelwert, das Klima. Die ausgewiesenen, vermeintlich immer weiter steigenden Temperaturen bis in die heutige Zeit sind auf Messwerttricksereien, wie der Autor es nennt, bei der Erfassung zurückzuführen, bitte nicht mit Messwertfälschungen gleichsetzen, die entstehen durch sich ändernde

  • Messwertzeiten,
  • Messorte (Wärmeinseleffekt = WI, jeder von uns weiß, dass die Temperaturen in Städten, besonders im Sommer, z.T. deutlich höher als auf dem Land liegen, dazu braucht man nur auf die Außentemperaturanzeige seines Fahrzeugs zu achten),
  • Auswahl/Gewichtung der Messorte,
  • sowie dem zu früher unterschiedlichem Messequipment

um nur die wichtigsten zu nennen. Schlicht und ergreifend, werden bei Temperaturvergleichen zu früher „Äpfel mit Birnen“ verglichen und somit jeder Temperaturvergleich der Wertlosigkeit übergeben. Von Herrn Josef Kowatsch stammt die folgende Untersuchung, die sich in Abb.1 spiegelt:

 

Abb.1, Quelle: Josef Kowatsch, nach Daten des Deutschen Wetterdienstes, zeigt am Beispiel der Temperaturmessstation von Freiburg, wie allein dadurch die Temperaturen durch den WI steigen, wird die Lage der Station verändert. Herr Kowatsch schreibt dazu „Bei Freiburg – blauer Graph in der Grafik – sieht man den WI-Effekt sehr deutlich. Im Jahre 2007 hat der DWD seine Innenstadtwetterstation in einen Außenbezirk versetzt. Nun hat der DWD die Station wieder zurückgesetzt in die Innenstadt. Und schon ist das Jahr 2020 das wärmste, jedenfalls wieder so warm wie 2000 und deutlich wärmer als 2018.

Bereits vor 10 Jahren hat der Autor anhand von Vergleichen der DWD-Referenzstation Hohenpeißenberg mit den DWD-Deutschlandtemperaturen errechnet (auf Basis der Strahlungsgesetze nach Planck und dem Abkühlungsgesetz nach Newton), dass der WI in den ausgewiesenen Deutschlandtemperaturen des DWD bis zu +1,1°C beträgt. Anhand der mathematischen Ermittlung hat Herr Kowatsch die Berechnungen des Autors auf Heute aktualisiert, Abb.2:

Abb.2., Quelle: Josef Kowatsch, zeigt die nach der Berechnungsmethode des Autors um den Wärmeinseleffekt bereinigte Temperaturkurve von Deutschland. Streng genommen gelten die Daten nur bis 2010, denn solche „Tricksereien“, wie in Abb.1 vorgenommen von der Behörde DWD* in 2019, sind in der Berechnungsmethode noch gar nicht enthalten, so dass im Jahre 2020 gegenüber dem Jahre 2010 der WI wohl höher als die genannten 1,1°C ist und der Temperaturanstieg ab 2010 flacher verläuft.

* Der Deutsche Wetterdienst ist nicht etwa unabhängig, sondern eine Anstalt des öffentlichen Rechts im Geschäftsbereich des Bundesministeriums für Verkehr und digitale Infrastruktur und ist diesem unterstellt. Die Politik ist also weisungsbefugt gegenüber dem DWD. Mit anderen Worten, der DWD muss das tun, was die Politik ihm vorgibt.

Auf der Internetplattform seines befreundeten Autors Chris Frey hat der Autor seine Überlegungen dargelegt, die versuchen, die Frage zu beantworten, warum gerade die (ehemalige) Wirtschaftspartei CDU/CSU die deutsche Wirtschaft mit immer schärferen „Klimaauflagen“ in den Ruin treibt. Der Autor möchte darauf hinweisen, dass es sich dabei nur um seine Überlegungen handelt, die den Kern innehaben, dass bei den 2+4-Verhandlungen eine neue „Nachkriegsordnung“, basierend auf der CO2-Lüge (Anmerkung: Angst), beschlossen wurde, die über die Institutionen wie z.B. die UN weltweit durchgesetzt werden soll.

Zu Beginn hatten wir einen kleinen Exkurs in die Märchenstunde der deutschen Qualitätsmedien. Die Staatssender von ZDF und ARD haben in den letzten Wochen eine große Vielzahl von Märchen gesendet, die als Märchen deklariert waren, wie „Hans im Glück“ (RBB), „Vom Fischer und seiner Frau“ (NDR), „Hans Röckle und der Teufel“ (MDR), „Schneewitschen und der Zauber der Zwerge“ (ZDF), „Rumpelstilzchen“ (WDR), „Baron Münchhausen“ (SWR), um nur eine kleine Auswahl zu nennen.

Wie wir gesehen haben, hat die Märchenstunde bei den Staatssendern eine lange Tradition, deshalb schlägt der Autor den dortigen Programmmachern vor, auch die anderen Ausstrahlungen der Staatssender, wie die um Klima, Energie und Corona, als Märchenstunde auszuweisen. Der Zuschauer weiß dann sofort, woran er ist, ohne sich aufwendig in unabhängigen Instituten zu informieren, dass er mal wieder von den Staatssendern eine Märchenstunde präsentiert bekam.

 




Woher kommt der Strom? Eine zweigeteilte Woche

2. Woche 2021

Abbildung, bitte unbedingt anklicken. Es öffnen sich alle Abbildungen & Mehr

Abbildung 1

Dahinter steckt eine Meisterleistung der Ingenieure und Techniker, der Kraftwerksmeister, die das auf und ab der Windstromerzeugung nahezu perfekt nachbilden können. Nur einmal ist zu viel Strom im Markt; der Preis fällt in der Nacht von Sonntag auf Montag auf gut 15€/MWh. Zu Beginn des Mittwochs beträgt die regenerative Stromerzeugung noch über 40 GW. Um 12 Uhr mittags sind es nur noch gut 15 GW, die regenerativ erzeugt werden. Dass sich mit diesem gewaltigen Absturz der erneuerbaren Stromproduktion eine Strom-Versorgungslücke ergibt, ist fast selbstverständlich. Das Hochfahren der konventionellen Produktion braucht seine Zeit. Deshalb fallen für den Importstrom Preise bis zu über 100€/MWh (17:00 Uhr) an. Am Donnerstag fallen nochmals so hohe Preise an. Diesmal profitiert Deutschland. Der Saldo Im-, Export ist manchmal gerade noch positiv. So wird Gewinn eingefahren.

Ab Mittwochmittag verbleibt die regenerative Stromerzeugung für den Rest der Woche auf niedrigem Niveau. Den Beitrag, den die Steinkohleverstromung zur Deckung des Bedarfs liefert, liegt zum Beispiel am Donnerstag um 9:00 Uhr bei knapp 12 GW. Gasstrom liefert knapp 20 GW. Das sind übliche Werte. Es hat den Anschein, dass Moorburg und die weiteren stillgelegten Steinkohlekraftwerke durch die Aktivierung anderer Steinkohlekraftwerke ersetzt wurden (Abbildung 2). Abbildung 3 liefert detaillierte Aussagen zum Strom-Im- und Export der zweiten Woche.

Die Tabelle mit den Werten der Energy-Charts finden Sie unter Abbildung 4. Dort liegt auch der aus dieser Tabelle generierte Chart der zweiten Woche 2021 ab.

Bei der angenommenen Verdoppelung der Wind- und Solarstromerzeugung fällt auf, dass diese lediglich an 2 Tagen der bisher analysierten 17 Tage ausgereicht hätte, um den Strombedarf Deutschlands zumindest im Tagesdurchschnitt zu decken (Abbildung 5). Gut 10 TWh zusätzlich benötigter Strom stehen 0,34 TWh überschüssiger Strom gegenüber. Für 17 Tage. Ein erschütterndes Ergebnis für die angenommene Verdoppelung. Erst bei einer angenommenen Verfünffachung reicht der Strom an zehn Tagen. An diesen 10 Tagen würde eine erhebliche Überproduktion von insgesamt mehr als 12 TWh anfallen. Der stünden nur gut 3 TWh zusätzlich benötigter Strom für die restlichen sieben Tage gegenüber. Diese 3 TWh würden ziemlich genau übrigbleiben, wenn die 12 TWh Überschuss in Wasserstoff gespeichert und per Brennstoffzelle wieder in Strom gewandelt würden. Zur Erinnerung. Damit das auch so funktioniert müsste die fünffache Menge Strom mittels Wind- und Solarenergie gewonnen werden. Was mindestens fünfmal so viel installierte Leistung in diesen Bereichen nötig machen würde wie heute. Plus Elektrolyseanlagen, plus Wasserstoffspeicher, plus Brennstoffzellen in erheblichem Umfang. Ein weiterer Netzausbau, der der nun komplett dezentralisierten Stromerzeugung gerecht wird, ist ebenso notwendig wie die Digitalisierung des Stromnetzes inkl. Smartmeter für jeden Stromkunden, ein digitales Stromnetz, welches über Wechselrichter die Netzstabilität gewährleisten soll. Dass es dabei zu großflächigen Strom-Abschaltungen/Stromzuteilungen kommen kann, ist Bestandteil der Energiewende in der Endphase. Große Schwungmassen in Großkraftwerken, welche die Netzfrequenz konstant bei 50 Hertz halten, gibt es nicht mehr.

Mit dem Energierechner unter Abbildung 6 können Sie den Weg zur Endphase der Energiewende nachzeichnen. Die Auswirkungen des (Teil-) Wegfalls diverser konventioneller Energieträger in den nächsten Jahren, und die deshalb notwendigen Maßnahmen können Sie mit dem Rechner durchspielen.

Brandaktuell

Die Seite mit den Strom-Analysetools http://www.stromdaten.info ist ab sofort online.

Die Tagesanalysen

Montag, 11.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,28 Prozent, davon Windstrom 38,51 Prozent, Solarstrom 1,15 Prozent, Strom Biomasse/Wasserkraft 8,62 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung zieht über den Montag kontinuierlich an. Solarstrom wird erzeugt, spielt aber für die Gesamtstromerzeugung kaum eine Rolle. Die konventionelle Stromerzeugung führt gut nach. Spitzenbedarf kann von Pumpspeicherstrom = konventioneller Strom gedeckt werden. Die Preise für den Exportstrom sind insgesamt auskömmlich und werden von diesen Nachbarn bezahlt. Schweden, Dänemark und Polen exportieren Strom nach Deutschland. Tschechin verkauft am Morgen den Strom günstig, um ihn über Tag teuer zurückzukaufen. Verkalkuliert, oder?

Dienstag, 12.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 50,86 Prozentdavon Windstrom 41,71 Prozent, Solarstrom 0,57 Prozent, Strom Biomasse/Wasserkraft 8,57 Prozent. Die Agora-Chartmatrix: Hier klicken.

In der Nacht zum Dienstag erreicht die Windstromerzeugung ihren Peak. Sie sinkt dann leicht ab, um auf dann auf dem Niveau um die 40% der Gesamtstromerzeugung zu verbleiben. Die konventionelle Stromerzeugung wird der regenerativen wieder gut angepasst, so dass über Tag erquickliche Exportpreise von Deutschland erzielt werden. Die Nachbarn kaufen/verkaufen Strom.

Mittwoch, 13.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 56,59 Prozentdavon Windstrom 46,70 Prozent, Solarstrom 1,65 Prozent, Strom Biomasse/Wasserkraft 8,24 Prozent. Die Agora-Chartmatrix: Hier klicken.

Noch ein recht starker Windtag. Konventionell wird wieder gut nachgeführt. Die Preise liegen von 6:00 bis 22:00 fast ausnahmslos (Ausnahme 14:00 Uhr) über 40€/MWh. In der Spitze um 8:00 Uhr sogar über 56€/MWh. Über Mittag lassen die Preise dann etwas nach. Das liegt an Sonnenstromerzeugung, die wohl unerwartet hoch ist und etwas Überangebot im Markt verursacht. Der Stromhandel sieht so aus.

Donnerstag, 14.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 32,30 Prozent, davon Windstrom 21,74 Prozent, Solarstrom 0,62 Prozent, Strom Biomasse/Wasserkraft 9,94 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der massive Rückgang der Windstromerzeugung führt heute ab etwa 11:00 Uhr zu einer Strom-Versorgungslücke. Die konventionellen Kraftwerke bullern kräftig. Der zur Deckung der erwarteten Lücke bereitgestellte Pumpspeicherstrom reicht dann allerdings nicht aus, um die Lücke zu schließen. Der notwendige Importstrom liegt in der Spitze mit um die 100€/MWh im hochpreisigen Bereich. Diese Nachbarn profitieren.

Freitag, 15.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 22,78 Prozent, davon Windstrom 10,76 Prozent, Solarstrom 1,90 Prozent, Strom Biomasse/Wasserkraft 10,13 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ein feiner Freitag für den Stromexport. Deutschland produziert nahezu passgenau den konventionellen Strom mit teilweise über 60 GW fast in Rekordmengen. Dementsprechend hoch sind die Preise, die den ganzen Tag erzielt werden. Sie lieg den ganzen Tag immer über 46€/MWh. In der Spitze sogar bei 99,5€/MWh. Diese Nachbarn zahlen/verdienen trotzdem.

Samstag, 16.1.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 24,31 Prozent, davon Windstrom 11,81 Prozent, Sonnenstrom 1,39 Prozent, Strom Biomasse/Wasserkraft 11,11 Prozent. Die Agora-ChartmatrixHier klicken.

Das Preisniveau ist auch am heutigen Samstag hoch. Die Konventionellen führen so gut nach, dass es kaum zu einem Überangebot im Markt kommt. Da ab 10:00 Uhr die regenerative Stromerzeugung etwas – und nicht nur wegen der Solarenergie – anzieht, kommt es von 11:00 bis 16.00 Uhr zu einem Preisrückgang auf hohem Niveau. Wird diese Volatilität zu Preisdifferenzgeschäften genutzt? Ja, von Dänemark.

Sonntag, 17.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 23,85 Prozent, davon Windstrom 10,77 Prozent, Sonnenstrom 1,54 Prozent, Strom Biomasse/Wasserkraft 11,54 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wochenende. Wenig Bedarf. Deshalb reicht konventionelle Stromerzeugung von um die 50 GW aus. Die erneuerbaren Energieträger Wind- und Solarkraft bleiben den ganzen Tag über schwach. Sie liefern nur etwa 12 Prozent des Gesamtstrombedarfs. Deutschland exportiert  per Saldo den ganzen Tag überschüssigen Strom zu diesen Preisen an diese Nachbarn.

Peter Hager aus Lauf in Franken liefert eine feine Analyse zur E-Mobilität des Jahres 2020:

Die Zahlen des Kraftfahrtbundesamtes (KBA) für 2020 (VJ-Zeitraum in Klammern).

Gesamtzulassungen 1-12/2020: 2.917.678 (3.607.258): – 20%

Anmerkungen zum Jahr 2020:

Die Einschätzung von KBA-Präsident Damm „Die E-Mobilität ist in der Mitte der mobilen Gesellschaft angekommen. Positive Nutzererfahrungen, verlässliche Technologien und ein wachsendes Angebot erleichtern den Umstieg in die E-Mobilität.“ kann ich nur bedingt teilen.

Es sind vor allem die massiven Subventionen plus nochmalige Erhöhung der Kaufprämie durch den Bund (z.B. bei E-PKW: 6.000 statt 3.000 €)

plus

  • zehnjährige Kfz-Steuerbefreiung
  • geringerer geldwerter Vorteil bei Dienstwagen
  • Bezuschussung von privaten Ladestationen
  • individuelle Zuschüsse von Bundesländern, Kommunen oder Energieversorgungsunternehmen

die besonders stimulierend auf den Absatz wirkten.

Weitere Wachstumsfaktoren waren die deutlich erweiterte Modellpalette der Hersteller sowie die befristete Reduzierung der Mehrwertsteuer auf 16% im zweiten Halbjahr.

Hybrid-PKW sind vornehmlich Fahrzeuge ab Mittelklasse bei diesen Marken der deutschen Premiumhersteller:

  • Audi (1 unverändert),
  • Mercedes (von 3 auf 2)
  • BMW (von 4 auf 3)

liegen jetzt vorne.

  • Verlierer ist Toyota (von 2 auf 4)
  • Ford und VW mit sehr hohen Zuwächsen

Elektro-PKW

Neuzulassungen bei reinen Elektro-PKW sind überwiegend Klein- und Mittelklassewagen, zunehmend auch kleine SUV, nennenswerte Ausnahme ist Audi mit dem E-Tron

Bei diesen Marken:

  • VW ist der große Gewinner (von 4 auf 1),
  • gefolgt von Renault (Platz 2 wie bisher) und Tesla (von 1 auf 3)
  • Großer Verlierer ist der deutsche E-Autopionier BMW (von 3 auf 6)
  • Opel, Škoda und Peugeot mit sehr hohen Zuwächsen

Hybrid-PKW: 527.864 (239.250): + 220%

  • Audi: 20,1% (37%)
  • Mercedes: 15,3% (15,3%)
  • BMW: 12% (5,8%)
  • Toyota: 8,6% (19,9%)
  • Ford: 6,3% (0,8%)

Elektro-PKW: 194.163 (63.281): + 307%

  • VW: 23,8% (13%), mit 5 Modellen
  • Renault: 16,2% (14,9%), mit 2 Modellen
  • Tesla: 8,6% (16,9%), mit 3 Modellen
  • Smart: 8,3% (12,1%), mit 2 Modellen
  • Hyundai: 8,2% (8%), mit 2 Modellen

Die beliebtesten zehn E-Modelle in 12/2020 (Gesamt: 43.671)

  • VW ID3: 7.144
  • Renault ZOE: 5.349
  • Tesla Model 3: 3.293
  • Hyundai Kona: 2.995
  • VW ID4: 2.306
  • VW Up: 2.196
  • Smart FourTwo: 2.120
  • VW Golf: 1.652
  • Mazda MX-30: 1.509
  • Opel Corsa: 1.299

Meine Einschätzung für 2021:

Auch 2021 dürfte das prozentual starke Wachstum bei Hybrid- und Elektro-PKW anhalten. Gründe:

  • viele Subventionen (u.a. erhöhte Kaufprämie bis 2025, Kfz-Steuerbefreiung) laufen weiter
  • + Betrieb von PKW mit Verbrennungsmotoren wird teurer: Erhöhung der Kfz-Steuer ab 115 g CO2 / km
  • Einführung der CO2-Abgabe auf Benzin (+ 7 Ct / l) und Diesel (+ 8 Ct / l) mit jährlicher Erhöhung
  • weiter verschärfte Abgaswerte von 95 g CO2 / km für Neuwagen in der EU: um Strafzahlungen möglichst zu vermeiden bieten immer mehr Hersteller Modelle mit E-Antrieb an, z. T. mit sehr attraktiven Konditionen

Bei den E-PKW dürfte Tesla – der große Liebling der E-Mobilisten – weiter an Marktanteilen verlieren, da immer mehr Anbieter Modelle im Kleinwagenbereich und bei kleinen SUV anbieten (in beiden Segmenten hat Tesla kein Modell)

Bei Tichys Einblick gibt es einen sehr guten Artikel von Helmut Becker, der den Hype ums „Steckdosenauto“ geraderückt:

Lesen Sie unter Abbildung 7 auch die Ausführungen von Peter Hager zur E-Mobilität in Norwegen.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

 




Sowjetunion Reloaded: Deutschlands Windflaute- und Solardürre führt zu Stromrationierung nach sowjetischem Vorbild

Und auch die rund 30.000 Windkraftanlagen stehen nutzlos still. Bei bitterkalten, absolut ruhigen Wetterlagen im ganzen Land wurde die Windkraftleistung auf ein gelegentliches Rinnsal reduziert.

Die Stromrationierung ist das einzige, was einen völligen Zusammenbruch des deutschen Stromnetzes verhindert. In der ersten Januarwoche wurden damit weit verbreitete Stromausfälle nach dem völligen Zusammenbruch der Wind- und Sonnenleistung verhindert..

Aber wenn Sie Ingenieure in den Status wohlmeinender Idioten versetzen und sie durch grüne Ideologen mit genderspezifischen Abschlüssen ersetzen, dann sollten Sie bereit für das folgende Chaos sein. Genau so weit befindet sich jetzt das durch „grüne“ Energie überwältigte Deutschland.

Lesen Sie auf NoTricksZone, um zu erfahren, wie ein „unvermeidlicher“ Übergang zu Wind und Sonne wirklich aussieht.

 

Letzte Anstrengung: Deutschlands Grüne nehmen Zuflucht zu Stromrationierungen, um das jetzt instabile Stromnetz nicht kollabieren zu lassen

Pierre Gosselin, No Tricks Zone 19. Januar 2021

Vor den Tagen des Klimaalarmismus und der Hysterie war die Entscheidung über die beste Stromerzeugung den Ingenieuren und Experten der Stromerzeugung überlassen – Menschen, die dies tatsächlich verstanden haben. Das Ergebnis: Deutschland hatte eines der stabilsten und zuverlässigsten Stromnetze weltweit.

Grüne Energien destabilisierten das deutsche Stromnetz

In den neunziger Jahren beschlossen Umweltaktivisten, Politiker, Klimaalarmisten und Pseudoexperten, dass sie die Stromerzeugung in Deutschland besser auf ihre Ideologie umstellen könnten und verabschiedeten schließlich das ausgefallene EEG-Gesetz und die Vorrangregelung für die Einspeisung grüner Energie. Sie versteiften sich darauf, dass stark schwankende, intermittierende Stromversorgungen ohne Probleme und zu geringen Kosten genutzt werden könnten.

Blackouts drohen

Schneller Vorlauf bis heute: Das Ergebnis aller Einmischungen der Regierung wird deutlich: Das Land befindet sich aufgrund von Netzinstabilität am Rande von Stromausfällen, hat die höchsten Strompreise der Welt, ist mehr auf Importe angewiesen denn je vorher und ist nicht einmal nah dran an der Erreichung seiner Emissionsziele. Das klapprige und launische deutsche Stromnetz bedroht jetzt die gesamte Stabilität des europäischen Stromnetzes, wie wir kürzlich gesehen haben.

Die Notwendigkeit, die Nachfrage zu „glätten“, ist am höchsten

Welche Lösung favorisiert Berlin heute? Sie haben es erraten: mehr Einmischung und Beeinträchtigung, mehr haarsträubende bürokratische Vorschriften. Dazu gehören die Stilllegung der verbleibenden Grundlast-Kohle- und Kernkraftwerke und die noch stärkere Abhängigkeit von den Stromquellen, die das Land überhaupt in sein derzeitiges Chaos gebracht haben.

Und neu sind die Regelungen, wann Verbraucher und Industrie Strom überhaupt verbrauchen dürfen: Energierationierung und gezielte Stromausfälle!

No Tricks Zone

https://stopthesethings.com/2021/01/24/russia-revisited-germanys-winter-wind-solar-drought-results-in-soviet-style-power-rationing/

Übersetzt durch Andreas Demmig




Verursachung des Klimawandels und das wissenschaftliche Verfahren

Die These, die wir ansprechen, ist diejenige, die uns ständig eingehämmert wird. Sie lautet in etwa: „Das Klima verändert sich, und wir sind die Ursache“. OK, niemand bestreitet, dass sich das Klima ändert; aber was ist mit dem Teil „wir sind die Ursache“? Welche Beweise gibt es dafür?

Lassen Sie uns die wissenschaftliche Methodik anwenden. Wir beginnen mit der grundlegenden Maxime, dass „Korrelation keine Kausalität beweist“. Stattdessen wird die Kausalität durch Widerlegung aller relevanten alternativen („Null“-) Hypothesen nachgewiesen.

Wie das funktioniert, weiß jeder von Medikamententests. Wir können nicht beweisen, dass Medikament A Krankheit X heilt, indem wir Medikament A tausendmal verabreichen und beobachten, dass Krankheit X fast immer verschwindet. Die Krankheit X könnte aus anderen Gründen oder von selbst verschwunden sein. Selbst falls wir das Medikament A eine Million Mal verabreichen und Krankheit X fast immer verschwindet, haben wir nur die Korrelation bewiesen, nicht die Kausalität. Um die Kausalität zu beweisen, müssen wir die Nullhypothese widerlegen, indem wir das Medikament A gegen ein Placebo testen. Das Placebo repräsentiert die Nullhypothese, dass etwas anderes (nennen wir es „natürliche Faktoren“) die Krankheit X heilt. Wenn Medikament A bei der Heilung von Krankheit X signifikant wirksamer ist als das Placebo, dann haben wir die Nullhypothese widerlegt und die Wirksamkeit von Medikament A zumindest vorläufig nachgewiesen.

Zurück zum Klimawandel. Die Hypothese lautet: „Der Mensch verursacht einen signifikanten Klimawandel.“ Eine geeignete Nullhypothese wäre „Der beobachtete Klimawandel kann vollständig durch eine Kombination natürlicher Faktoren erklärt werden.“ Wie könnte man dies testen?

Der naheliegendste Test wäre, zu fragen, ob es in der jüngeren Erdgeschichte wärmer war als heute – wobei die Gegenwart Gegenstand signifikanter menschlicher Treibhausgasemissionen ist. Falls Perioden in der jüngeren Vergangenheit vor den menschlichen Emissionen wärmer waren als die Gegenwart, dann ist ganz offensichtlich eine Kombination von „natürlichen Faktoren“ ausreichend, um Temperaturen zu erzeugen, die so hoch oder höher liegen als wir es heute erleben.

[Hervorhebung vom Übersetzer]

Und es spielt keine Rolle, ob wir wissen, was die alternativen „natürlichen Faktoren“ sein könnten, genauso wenig wie es bei der fehlgeschlagenen Medikamentenstudie eine Rolle spielt, ob wir wissen, warum das Placebo das experimentelle Medikament geschlagen hat oder nicht. In der fehlgeschlagenen Medikamentenstudie könnte es das menschliche Immunsystem gewesen sein, oder es könnten Darmbakterien gewesen sein, oder es könnte das Wetter gewesen sein, oder irgendetwas anderes. Tatsache ist, dass die „natürlichen Faktoren“, welche auch immer das sein mögen, das experimentelle Medikament übertrafen.

Als Test für die Klimahypothese dient ein Blogbeitrag des pensionierten Physikers Ralph Alexander vom 28. Dezember mit dem Titel [übersetzt] „Neue Beweise, dass das antike Klima wärmer war als das heutige“. Alexander fasst die Ergebnisse von zwei aktuellen Studien zusammen:

● Eine Arbeit vom Juni 2020 aus Nature mit dem Titel [übersetzt] „Anhaltend warmes Meerwasser im Mittelmeer während der Römerzeit“ von einer Gruppe italienischer und spanischer Autoren unter der Leitung von G. Margaritelli.

● Ein Artikel aus dem New Scientist vom November 2020 mit dem Titel [übersetzt] „Der Klimawandel hat in Norwegen eine große Menge alter Pfeile freigelegt“ von C. Baraniuk.

Die Arbeit von Margaritelli et al. analysiert Proxy-Daten von „versteinerten Amöben-Skeletten, die in Sedimenten des Meeresbodens gefunden wurden“, um die Temperaturen des Mittelmeers in den letzten 2000 Jahren zu rekonstruieren. „Das Verhältnis von Magnesium zu Kalzium in den Skeletten ist ein Maß für die Temperatur des Meerwassers zu der Zeit, als das Sediment abgelagert wurde; eine Zeitlinie kann durch Radiokarbondatierung erstellt werden.“

Fazit: Mit Ausnahme der Daten aus der Ägäis zeigen alle Ergebnisse eine deutliche Erwärmung während der römischen Periode von 0 bis 500 n. Chr., als die Temperaturen etwa 2 Grad Celsius höher lagen als der Durchschnitt für Sizilien sowie der westlichen Mittelmeerregionen in späteren Jahrhunderten, und sie lag viel höher als die heutigen Temperaturen in Sizilien.

Die Baraniuk-Studie aus Norwegen analysiert große neue Funde von antiken Artefakten, darunter Pfeile, Pfeilspitzen und Kleidung, die durch den jüngsten Rückzug der Gletscher in diesem Land freigelegt wurden. Das Vorhandensein der Artefakte in diesen Gebieten impliziert natürlich, dass die Gebiete zu der Zeit, als die Artefakte abgelagert wurden, nicht mit Eis bedeckt waren:

Die Tatsache, dass die Artefakte aus mehreren verschiedenen Perioden stammen, die durch Hunderte oder Tausende von Jahren voneinander getrennt sind, impliziert, dass sich das Eis und der Schnee in der Region in den letzten 6.000 Jahren mehrmals ausgedehnt und zurückgezogen haben muss. Während des holozänen Thermischen Maximums, das vor etwa 10.000 bis 6.000 Jahren stattfand und dem Zeitraum der erstaunlichen norwegischen Funde vorausging, waren die globalen Temperaturen noch höher. In den höheren Breiten, wo die zuverlässigsten Proxies zu finden sind, war es schätzungsweise 2-3 Grad Celsius wärmer als heute.

Ob vor 2000 Jahren (Römische Warmzeit) oder vor 6000 Jahren (Holozänes Thermisches Maximum) – diese Perioden lagen eindeutig lange vor jeglichen signifikanten menschlichen Treibhausgas-Emissionen aus der Verbrennung fossiler Brennstoffe. Offensichtlich reicht also eine Kombination von „natürlichen Faktoren“, was immer sie auch sein mögen, aus, um die Erdtemperaturen auf ein Niveau steigen zu lassen, das so hoch oder höher ist als das, was wir heute, in der Ära der menschlichen Nutzung fossiler Brennstoffe, erleben.

Ich sollte erwähnen, dass die beiden von Alexander besprochenen Arbeiten nur die jüngsten von vielen Dutzenden von Studien sind, die Beweise für die Behauptung liefern, dass Zeiten in der jüngeren geologischen Vergangenheit – entweder die mittelalterliche Warmzeit oder die römische Warmzeit oder das holozäne thermische Maximum – wärmer waren als heute. Eine Sammlung vieler Arbeiten, die sich hauptsächlich auf die mittelalterliche Warmzeit konzentrieren, finden Sie auf Craig Idsos CO2 Science Website.

Man sollte meinen, dass die Mainstream-Klima-„Wissenschaft“ sich wie ein Laserstrahl auf den Versuch konzentrieren würde, diesen frühen Perioden zu untersuchen, die wärmer waren als heute. Aber stattdessen haben diese Leute fast vollständig einen anderen Ansatz gewählt. Sie nennen ihren Ansatz „detection and attribution“ [etwa: Edrkennen und zuordnen]. Von den vielen Beispielen ist hier eine wichtige Studie aus dem Jahr 2018, das vom Weltklimarat der Vereinten Nationen gefördert wurde, mit dem Titel [übersetzt] „Erkennen des Klimawandels und Zuordung der Ursachen desselben“ Die Autoren sind ein „Who is Who“ des offiziellen Klima-Establishments, darunter solche wie Phil Jones, Michael Mann, Gerald North, Gabriele Hegerl und Ben Santer.

Anstatt zu prüfen, ob die verfügbaren Daten entweder ihre Haupthypothese (menschliche Ursachen) oder die Nullhypothese (natürliche Faktoren) widerlegen, verfolgen diese Leute einen anderen Ansatz, den ich als „wir können uns nichts anderes als menschliche Treibhausgasemissionen vorstellen, die dies verursachen könnten, also sind es menschliche Emissionen“ beschreiben würde. Sie erstellen sogenannte Modelle darüber, was ihrer Meinung nach natürliche Faktoren für die Erwärmung verursachen könnten, und testen diese dann anhand der Daten. Seit wann beweist das irgendetwas? Der Artikel ist sehr lang und gespickt mit fast undurchdringlichem Jargon, der es fast unmöglich macht, ein gutes Zitat zu bekommen, aber hier sind ein paar der besten:

In Zuordnungs-Studien wurden Multi-Signal-Techniken angewandt, um festzustellen, ob die Größe der beobachteten Reaktion auf einen bestimmten Einflussfaktor mit der modellierten Reaktion übereinstimmt und vom Einfluss anderer Einflussfaktoren getrennt werden kann. Die Einbeziehung von zeitabhängigen Signalen hat geholfen, zwischen natürlichen und anthropogenen Einflussfaktoren zu unterscheiden. Je mehr Antwortmuster einbezogen werden, desto mehr stellt sich zwangsläufig das Problem der Entartung (verschiedene Kombinationen von Mustern, die nahezu identische Anpassungen an die Beobachtungen ergeben). Nichtsdestotrotz bleibt auch bei Einbeziehung der Antworten auf alle wichtigen Antriebsfaktoren in die Analyse ein deutliches Treibhausgassignal nachweisbar. Insgesamt zeigt sich, dass die Größe der modellsimulierten Temperaturreaktion auf Treibhausgase mit der beobachteten Treibhausgasreaktion auf den betrachteten Skalen konsistent ist.

Und noch einer:

Um die Reaktion auf anthropogene oder natürliche Klimaantriebe in Beobachtungen zu erkennen, benötigen wir Schätzungen des erwarteten Raum-Zeit-Musters der Reaktion. Die Einflüsse des natürlichen und des anthropogenen Antriebs auf das beobachtete Klima können nur getrennt werden, falls die räumliche und zeitliche Variation jeder Komponente bekannt ist. Diese Muster können nicht aus der beobachteten Aufzeichnung bestimmt werden, da sich die Variationen aufgrund verschiedener externer Einflüsse gegenseitig und die internen Klimavariationen überlagern. Daher werden in der Regel Klimamodelle verwendet, um den Beitrag der einzelnen Faktoren abzuschätzen.

Offensichtlich ist diese Art von Hokuspokus gut genug, um so ziemlich die gesamte akademische Welt und die meisten Journalisten zu täuschen, ganz zu schweigen von einer Schar von Milliardären. Aber was ist mit der mittelalterlichen bzw. der römischen Warmzeit? Widerlegen die nicht die ganze Sache?

Link: https://www.manhattancontrarian.com/blog/2021-1-2-causation-of-climate-change-and-the-scientific-method via http://icecap.us/index.php/go/new-and-cool

Übersetzt von Chris Frey EIKE




Ein weiterer Blick auf den städtischen Wärmeinsel-Effekt

Nicola Scafetta hat gerade eine neue Arbeit in Climate Dynamics veröffentlicht, in der ser den Nachweis des städtischen Wärmeinseleffekts (UHI) untersucht (Scafetta, 2021). Die Arbeit ist nicht kostenpflichtig und kann hier heruntergeladen werden. Zusammengefasst zeigt Scafetta, dass ein Teil der jüngsten Erwärmung, die in der globalen HadCRUT 4 Temperaturaufzeichnung gezeigt wird, auf den UHI-Effekt zurückzuführen sein könnte. Er verwendet eine Analyse der täglichen Maximal- (Tmax) und Minimaltemperaturen (Tmin), Klimamodellausgaben und einen Vergleich der Meeresoberflächentemperaturen (SST) mit den Landtemperaturen, um den möglichen Einfluss auf den HadCRUT 4 Datensatz abzuschätzen.

Die verschiedenen Aufzeichnungen der Festlands-Temperatur werden nicht speziell bzgl. des UHI-Effektes korrigiert, sondern die NOAA und das Hadley Climatic Research Centre verlassen sich auf Homogenitäts-Algorithmen, um Anomalien zu glätten. Die NOAA nennt ihren Homogenisierungsprozess „PHA“, und der Algorithmus des Hadley Centre ist ähnlich, siehe diesen Beitrag oder den Artikel von Menne und Williams aus dem Jahr 2009 (Menne & Williams, 2009a) für eine Diskussion der Temperaturhomogenisierung. Während diese Algorithmen die Temperatur in den Städten senken, erhöhen sie auch die Temperaturen in den ländlichen Gebieten in der Umgebung der Städte. Erschwerend kommt hinzu, dass die letzten 70 Jahre eine Periode schnellen Bevölkerungswachstums und zunehmender Urbanisierung waren. Die Weltbevölkerung ist von 2,5 Milliarden Menschen im Jahr 1950 auf 7,5 Milliarden im Jahr 2020 gewachsen. Der UHI in London wurde auf bis zu 2,8°C in den Sommern zwischen 1990 und 2006 geschätzt.

UHI bewirkt, dass Tmin und Tmax im Vergleich zur Umgebung höher liegen, wobei jedoch die Differenz bei Tmin größer ist*. Dies bedeutet, dass der Tagesgang der Temperatur mit der Zeit abnimmt. Scafetta verwendet die Hadley Climatic Research Unit Temperaturaufzeichnungen (HadCRUT) und die Daten des Coupled Model Intercomparison Project 5 (CMIP5), um dieses Problem zu untersuchen. Er vergleicht ein Ensemble-Mittel der CMIP5 Tmax und Tmin Daten mit den HadCRUT Daten und untersucht die Unterschiede zwischen ihnen.

[*Im Stadtgebiet von Berlin wurden nach heißen Sommertagen bei Windstille und wolkenlosem Himmel gleichzeitigeTemperaturunterschiede bis 10 K zwischen Innenstadt und den Waldgebieten am Stadtrand gemessen! Anm. d. Übers.]

Die CMIP5-Modelle wurden auf die globalen und regionalen HadCRUT-Anomalien abgestimmt, so dass lokale Anomalien, wie z.B. UHI, in den Karten der Unterschiede zwischen den beiden Datensätzen sichtbar sind. Die CMIP5-Modelle parametrisieren keine Städte, so dass Unterschiede über Städten und umliegenden Gebieten auf einen verbleibenden UHI-Einfluss im HadCRUT-Datensatz hinweisen könnten.

Abbildung 1. Dies sind die globalen Tmax (rot)- und Tmin (blau)-Anomalien aus HadCRUT (A) und CMIP5 (B). Die Unterschiede sind in C und D dargestellt. Quelle: (Scafetta, 2021).

Abbildung 1 vergleicht die globalen Tmin- (blau) und Tmax- (rot) Anomalie-Aufzeichnungen von HadCRUT4 mit den CMIP5-Ensemblemittelwerten, die Scafetta in seiner Studie verwendet hat. Die Aufzeichnungen sind Anomalien von 1945-1954. Vergleicht man die Dekaden 1945-1954 und 2005-2014, so ist die Tmin-Tmax (DTR)-Differenz unterschiedlich. Der DTR bei HadCRUT4 beträgt 0,25 und der CMIP5 DTR 0,1. In beiden Fällen war die Differenz bei Tmin größer als bei Tmax.

Abbildung 2 zeigt, wie die Tmin-Tmax-Anomalieunterschiede im HadCRUT4-Datensatz verteilt sind:

Abbildung 2. Globale Verteilung der HadCRUT Tmin-Tmax Anomalien (DTR). Orange, lila und rot bedeuten, dass Tmin stärker vom UHI beeinflusst wird als Tmax. Weiße Gebiete, einschließlich der Ozeane, haben keine Tmin- und Tmax-Daten. (Scafetta, 2021).

Wie man in Abbildung 2 sieht, zeigen die meisten Landgebiete einen positiven Wert, was bedeutet, dass Tmin stärker vom UHI beeinflusst wird als Tmax. Die in Abbildung 2 dargestellten HadCRUT-Daten zeigen, dass in großen Gebieten in Nordamerika und Asien Tmin viel schneller ansteigt als Tmax. Am deutlichsten ist dies im schnell urbanisierenden China und in den Wachstumsgebieten der USA und Kanadas.

In Abbildung 3 sehen wir, wie die Tmin-Tmax-Anomalien (DTR) des CMIP5-Ensembles verteilt sind. Die modellierten Tmin-Tmax-Anomalien sind viel gedämpfter und liegen näher an Null als die gemessenen und homogenisierten Werte.

Abbildung 3. Globale Verteilung der CMIP5 Tmin-Tmax-Anomalien (DTR). An den Polen, im hohen Norden und in Teilen Asiens und Zentralafrikas erwärmt sich Tmin etwas schneller als Tmax. Der größte Teil des Rests der Welt liegt nahe Null, einschließlich der Ozeane. (Scafetta, 2021).

Nur in der Nähe der Pole zeigen die Modelle einen größeren Anstieg von Tmin-Tmax, zusammen mit verstreuten Gebieten in Asien und Afrika. Grönland ist eine große Insel mit sehr geringer Bevölkerung, ~56.000 Menschen, und dort zeigt sich nur ein kleiner Unterschied zwischen den modellierten und den gemessenen Werten. Die tatsächlichen Werte variieren von -0,2 bis 0,2 und die modellierten Werte liegen zwischen 0 und 0,2.

Scafetta zeigt anhand zahlreicher Beispiele, „dass die Landklima-Aufzeichnungen von signifikanten, nicht klimatischen Verzerrungen betroffen sind.“ Tmin und Tmax gibt es nicht in den SST-Aufzeichnungen (Meeresoberflächentemperatur), aber wir können die SST-Aufzeichnungen mit den HadCRUT-Landaufzeichnungen über das CMIP5-Modellensemble vergleichen. Dabei stellte Scafetta fest, dass nach Berücksichtigung der thermodynamischen Unterschiede zwischen Land und Ozean die CMIP5-Simulationen mit den wärmeren Landaufzeichnungen übereinstimmen, aber die SST deutlich überbewerten. Eine Land-Simulation der Temperaturdifferenz zwischen dem Mittelwert von 1940 bis 1960 und dem Mittelwert von 2000-2020 zeigte eine Differenz zwischen Modell und HadCRUT von nur 0,06°C. Ein Vergleich zwischen CMIP5 (+0,69°C) und HadSST (+0,41°C) über den Ozeanen ergab eine Erwärmung von 0,28°C, was fünfmal höher ist.

Die Erwärmung der Landtemperatur nach HadCRUT beträgt etwa ein Grad von der Periode 1940-1960 bis zur Periode 2000-2020. Falls die CMIP5-Modelle und die HadSST-Aufzeichnungen genau sind, dann haben die Landaufzeichnungen eine Abweichung von +0,36°C. Dies ist ein Fehler von fast 60 %. Wir haben den großen Einfluss von Korrekturen auf die Temperaturaufzeichnungen schon früher diskutiert, siehe diesen Beitrag für mehr zu diesem Thema [in deutscher Übersetzung beim EIKE hier].

Diskussion

Scafettas Studie zeigt eine mögliche systemische Verzerrung in den HadCRUT-Aufzeichnungen. Der größte Teil der Verzerrung, wie in Abbildung 2 gezeigt, befindet sich in Gebieten mit schneller städtischer Entwicklung über den Untersuchungszeitraum von 1940 bis 2020. Es gibt weitere Anomalien, die bemerkenswerte in Bolivien könnte auf die schnelle Abholzung in diesem Gebiet zurückzuführen sein. Die Anomalien in den trockenen Teilen Nordafrikas könnten auf einen umgekehrten urbanen Effekt zurückzuführen sein, da in diesen Gebieten die Urbanisierung ein kühleres Gebiet im Vergleich zu den umliegenden ländlichen Gebieten schafft.

Alle in der Studie verwendeten Daten sind fehlerhaft. Endgültige Schlussfolgerungen können nicht gezogen werden. Aber es scheint, dass der Landteil des HadCRUT 4 Datensatzes wärmer ist als er sein sollte, relativ zur SST. Es ist auch wahrscheinlich, dass dieser warme Bias in die CMIP5-Modelle durchgesickert ist. Die jüngsten DTR-Werte (Tmax-Tmin) sind stärker gesunken, als die CMIP5-Modelle vorhergesagt haben. Dies könnte ein Problem mit den Modellen in städtischen Gebieten sein, oder es könnte an den Homogenisierungs-Algorithmen liegen, die vom Hadley Climatic Research Centre verwendet werden und welche die Erwärmung der städtischen Wärmeinsel über große Gebiete verschmieren. So oder so hat Scafetta gezeigt, dass diese Datensätze nicht konsistent sind und einer oder mehrere von ihnen eine erhebliche systemische Verzerrung enthalten können.

Ein letzter Punkt. Wenn die Daten um die oben beschriebene offensichtliche Verzerrung korrigiert und mit der unabhängigen globalen Mitteltemperatur der unteren Troposphäre (hier) von UAH (Spencer, et al., 2017) verglichen werden, sehen wir, dass der korrigierte HadCRUT-Datensatz näher an diesem liegt als das Original, das in Abbildung 4B schwarz dargestellt ist. Dieser Vergleich zeigt, dass die offensichtliche Verzerrung, die von Scafettas Studie entdeckt wurde, eine gewisse empirische Unterstützung hat.

Abbildung 4A vergleicht den originalen HadCRUT 4.6 Datensatz (schwarz) mit Scafettas korrigiertem Datensatz in rot. Der CMIP5-Modell-Ensemble-Mittelwert (gelb) ist zusammen mit 106 unabhängigen Modellläufen in grün dargestellt. Die Abbildungen 14A und 14B verwenden die gleichen Farben. Abbildung 14B fügt die globale UAH-Durchschnittstemperatur der unteren Troposphäre in blau hinzu. Alle Kurven sind Anomalien zum Zeitraum 1940-1960.

Relativ zu 1940 bis 1960 zeigt die ursprüngliche HadCRUT-Kurve 0,59°C Erwärmung und 0,48°C mit Scafettas Korrekturen. Die UAH-Aufzeichnung zeigt 0,44°C. Die CMIP5-Klimamodelle zeigen eine Erwärmung von 0,78°C.

Nach Scafettas Korrektur ist es möglich, dass nicht-klimatische Verzerrungen ein Fünftel der berichteten globalen Erwärmung der HadCRUT seit 1940-1960 beigetragen haben. Es ist auch möglich, dass die CMIP5-Klimamodelle die Erwärmung um ein Drittel überbewerten. Dies sind signifikante Probleme.

Abbildung 4. Grafik A zeigt die einzelnen Modellläufe in grün, den CMIP-5-Mittelwert in gelb, den unkorrigierten HadCRUT-Rekord in schwarz und den korrigierten HadCRUT-Rekord in rot. B zeigt den gleichen HadCRUT korrigierten Datensatz in rot, den UAH Datensatz der unteren Troposphäre in blau und den ursprünglichen HadCRUT Datensatz in schwarz. Die roten und schwarzen Linien in A & B sind die gleichen.

Literatur:

Menne, M., & Williams, C. (2009a). Homogenization of Temperature Series via Pairwise Comparisons. Journal of Climate, 22(7), 1700-1717. Retrieved from https://journals.ametsoc.org/jcli/article/22/7/1700/32422

Scafetta, N. (2021, January 17). Climate Dynamics. Retrieved from https://doi.org/10.1007/s00382-021-05626-x

Spencer, R., Christy, J., Braswell, W. (2017), UAH Version 6 global Satellite Temperature Products: Methodology and Results, Asia-Pac J Atmos Sci 53:121-130.

Link: https://wattsupwiththat.com/2021/01/22/a-new-look-at-the-urban-heat-island-effect/

Übersetzt von Chris Frey EIKE

 




Klimaschau 11 – die Tagesschau von Sebastian Lüning

Nichts zu sehen? HIER KLICKEN!