1

Nachruf Dr. Heinrich Röck

Heinrich Röck wurde am 15. Juli 1928 in Gladenbach/Hessen geboren. Er studierte Chemie in Darmstadt und promovierte 1955 in Göttingen zu einem Thema aus der Physikalischen Chemie. 1957 und 1960 erschienen zwei Bücher aus sei­ner Feder: „Ausgewählte moderne Trennungsverfahren zur Reinigung organischer Stoffe“ und „Destillation im Laboratorium, extraktive und azeotrope Destillation“. Von 1956 bis 1989 war er bei der SKW Trostberg AG als Mitarbeiter in der Forschung und Entwicklung, als Werkleiter und seit 1966 als Mit­glied des Vorstandes tätig.

Im Ruhestand danach beschäftigte er sich intensiv mit Umweltproblemen und speziell mit dem Thema Klima. Er war stets bemüht, seine daraus resultierenden Erkenntnisse einem möglichst großen Kreis interessierter Fachleute und Mitbürger zu vermitteln. Dabei entstanden Zeitungsbeiträge, Bücher und Vorträge. Besonders bemerkenswert sind mehrere Broschüren, die er im Eigenverlag herausgab, so beispielsweise „Klima und Politik“ (2001), „Extremes Wetter als Folge anthropogenen Klimawandels?“ (2003) oder „Wissenschaft, Klima, Politik – Wohin ändert sich das Klima?“ (2010). Diese Schriften ließ er in hohen Auflagen drucken und verteilte sie kostenlos. Sie waren durchgehend von hoher fachlicher Qualität – allein schon die Vielzahl der benutzten Quellen bezeugt das – und wurden so Anlass für Menschen aller Altersgruppen, sich über die Klimaproblematik zu informieren und mit diesem wissenschaftlichen Fachgebiet intensiver zu beschäftigen. Ein großer Freundes- und Bekanntenkreis unterstützte ihn bei der Verbreitung seines umfangreichen und tiefgründigen Wissens.

Mehr und mehr beschäftigte sich Heinrich Röck in den letzten Jahren mit den Konsequenzen der Klimapolitik, wie sie in Deutschland mit der verhängnisvollen „Energiewende“-Politik praktiziert wird. In einer letzten Arbeit, datiert vom September 2020, macht er noch einmal deutlich, dass mit Sonne und Wind allein keine gesicherte Stromversorgung möglich ist.

Heinrich Röck war nicht nur ein exzellenter Naturwissenschaftler sondern zugleich ein Mensch mit außerordentlich hohem Allgemeinwissen, der bestrebt war, seinen Wissenshorizont ständig auszuweiten. Seine intensive Lektüre, von der Fachliteratur bis zur Tagespresse, erweiterte seinen Wissensschatz und ermöglichte ihm treffsichere Urteile zu aktuellen wissenschaftlichen, ökonomischen und gesellschaftlichen Fragen. Er wird unvergessen bleiben!

Dietmar Ufer, 27. Januar 2021

Veröffentlichungen (Auswahl)

2003: Extremes Wetter als Folge des anthropogenen Klimawandels?

2004: Wohin ändert sich das Klima?

2010: Wissenschaft – Klima – Politik: Wohin ändert sich das Klima? (Als Beitrag beim EIKE hier)




Kernkraft ist Wind und Solar weit überlegen

Sie drücken es so aus:

Der optimale Energiemix der verschiedenen Länder wird unterschiedlich sein, aber alle haben gemeinsam, dass die Beiträge von Sonnenkollektoren und Windturbinen zum Energiemix marginal bleiben werden. Die Abhängigkeit von den Wetterbedingungen und das Fehlen einer geeigneten Energiespeicherung verursachen grundlegende Engpässe. Die Entscheidungsträger müssen aufhören, auf diese lahmen Pferde zu setzen.

CLINTELs grundlegender Punkt ist, dass WENN es einen Übergang weg von fossilen Brennstoffen geben soll, DANN muss es zu Kernenergie sein. Man beachte, dass CLINTEL nicht zu einem solchen Übergang aufruft, aber sie erkennen an, dass viele Regierungen dies tun. Ob dies sinnvoll ist, ist nicht das Thema dieses Artikels.

Wind ist besonders ungeeignet. „Windkraftanlagen werden immer größer und ihre Auswirkungen auf die Qualität der Wohnumgebung werden immer intensiver. Sie verursachen ernsthafte Belästigungen in Form von Infraschall, bewegtem Schlagschatten und Landschaftsverschandelung. Windkraftanlagen sind für dicht besiedelte Länder und Regionen völlig ungeeignet“, sagt der emeritierte Professor Guus Berkhout, Mitbegründer von CLINTEL, und fügt hinzu: „Thermodynamisch gesehen sind Windkraftanlagen unberechenbare Apparate, die niemals an ein nationales Stromnetz angeschlossen werden sollten.“

[Hervorhebung vom Übersetzer]

Anders als die vorherrschenden internationalen Gebote ist die CLINTEL Energiepolitik sehr flexibel. Hier ist ihre Grundaussage:

Es ist eine harte Tatsache, dass die Wirtschaft und das Wohlstandsniveau eines Landes in erster Linie auf der Zuverlässigkeit und Erschwinglichkeit der nationalen Energieversorgung beruhen. Deshalb sollte die erste Anforderung an jeden Energiewendeplan sein, die Zuverlässigkeit und Bezahlbarkeit zu verbessern und einen Rückgang zu verhindern.

 Deshalb sollten wir auf keinen Fall ein Risiko mit unserem Energiesystem eingehen. Falls die Energieversorgung ausfallen würde, wären Organisationen in den meisten Sektoren gezwungen, ihre gesamte Tätigkeit praktisch auf Eis zu legen (Industrie, Verkehr, Sicherheit, Gesundheitswesen, Trinkwasserversorgung usw.).

Eine gut durchdachte Energiewende muss daher innovativ sein und von echten Experten auf dem Gebiet der Energieversorgung geführt werden. Ideologische Agenden und subventionsgetriebene Geschäftsmodelle sind buchstäblich lebensbedrohlich.

Der Rat von CLINTEL lautet, auf Erdgas als hervorragenden Übergangskraftstoff zu setzen. In der Zwischenzeit sagen sie, wir sollten uns mit aller Kraft auf das Zeitalter der Atomenergie vorbereiten. Zukünftige Kernkraftwerke sind noch effizienter, sicherer und sauberer als die heutigen. Die gelieferte elektrische Energie (und Restwärme) ist eine kostengünstige Sicherheit, 24 Stunden am Tag, 365 Tage im Jahr. CLINTEL geht davon aus, dass, falls wir mit Bedacht von der Ära der fossilen Brennstoffe in die Ära der Kernenergie wechseln, dies „Wohlstand für alle“ verspricht.

Abschließend wZur Websitearnt Professor Berkhout, dass China äußerst erfreut sein wird, falls die westliche Welt weiterhin an Windturbinen und Solarzellen herumpfuschen würde. Es wird dessen Position als globaler Wirtschaftsführer beschleunigen. Mit Blick auf die Energiepläne des neuen amerikanischen Präsidenten kommt er zu dem Schluss, dass „Joe Bidens Klimapläne die USA China zu Füßen legen“.

Allgemeiner ausgedrückt denkt er, dass die wirkliche Herausforderung für verantwortungsvolle, gut durchdachte Ansichten nun die ist, gehört zu werden. Er formuliert es so: „Bisher sind Regierungen, Universitäten, wissenschaftliche und ingenieurtechnische Gesellschaften, Großindustrien und Milliardärsclubs alle in politischer Korrektheit gefangen und verweigern jede Diskussion. Eigentlich halten sie alle abweichende Meinungen aus den Medien heraus. Das bedeutet, dass es bei CLINTELs Kampf nicht nur um Klima und Energie geht. Vor allem verteidigt CLINTEL die grundlegende Freiheit der Rede und der wissenschaftlichen Untersuchung.“

CFACT ist hier, um zu helfen, diese wohlüberlegten Ansichten an die denkende Öffentlichkeit zu bringen. [ebenso wie das EIKE! Hinzugefügt vom Übersetzer]

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting

Link: https://www.cfact.org/2021/01/23/go-nuclear-not-wind-and-solar/

Übersetzt von Chris Frey EIKE




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 2

Welche Auswirkungen hat die Unterbrechung der Elektroenergieversorgung mit dem Ausfall Kritischer Infrastrukturen auf unser Leben? Wer sich bei dieser Frage die Zeit für eine überaus eindrückliche belletristische Antwort nehmen möchte, sollte den Bestseller „Blackout. Morgen ist es zu spät.“ des österreichischen Schriftstellers Marc Elsberg lesen. Hier kann nur eine Auswahl der wichtigsten Phänomene wiedergegeben werden.

Sofort:

● Es erlöschen alle Verkehrsampeln und Leiteinrichtungen mit der Folge von massenhaften Verkehrsunfällen;

● Tausende Menschen stecken in Fahrstühlen fest;

● Fernzüge stoppen auf freier Strecke und in Tunnels,

● ebenso wie U-Bahnen und Straßenbahnen;

● elektrische Beleuchtung erlischt – Straßen und Gebäude sind nachts stockdunkel;

● Fernseher und Radios verstummen.

Zur Funktion der Kommunikationsnetze sagt die Broschüre „Stromausfall“ /2/ des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe:

Im Fall eines Stromausfalls wird mit einigen Stunden Verzögerung das

Telefon-Festnetz nicht mehr zur Verfügung stehen. Mit dem technischen Umstieg der Telefonnetzbetreiber auf eine Voice over IP-Übertragung bis zum Wohnungsanschluss wird in den nächsten Jahren auch diese Frist nach und nach entfallen.

Die Mobilfunknetze sind zum Teil nicht notstromversorgt.“

Insgesamt dürfte die Situation der Kommunikationsnetze, deren funktionierende Reste nach dem Stromausfall übrigens hoffnungslos überlastet sind, hier zutreffend beschrieben sein.

● Mit dem Ausfall der Telekommunikation bricht auch das Internet zusammen – die Batteriereserve eines Laptop ist damit nutzlos.

● Weder mit dem Elektroherd noch mit der Mikrowelle lassen sich Speisen erwärmen;

● die Umwälzpumpen der Heizungen haben ihren Dienst eingestellt – in den Wohnungen wird es kalt;

● Tankstellen können keinen Kraftstoff mehr abgeben und ● ein Aufladen des Elektroautos ist unmöglich;

● in den Supermärkten und vielen anderen Geschäften muss der Verkauf eingestellt werden, weil Scanner und Registrierkassen außer Funktion sind;

● an Geldautomaten kann man kein Geld bekommen;

● in den industrialisierten Landwirtschaftsbetrieben fällt die automatisierte Versorgung der Tiere mit Futter, Wasser und Frischluft genauso wie die Melkautomaten aus und lässt sich nicht durch Handarbeit ersetzen;

● man kann wegen des Ausfalls der Telekommunikation keine Rettungsdienste anrufen.

Nach zwei bis drei Tagen:

● ÖPNV und Individualverkehr sind zum Erliegen gekommen;

● in vielen Orten kommt kein Trinkwasser aus der Leitung und

● die Toilettenspülung geht nicht, wie auch der Geschirrspüler;

● Krankenhäuser können wegen des Ausfalls der Trinkwasserversorgung ihren Betrieb nicht aufrecht erhalten und dies auch, weil ihnen der Kraftstoff für die Notstromaggregate ausgegangen ist, künstlich beatmete Patienten sterben;

● eine Aufbewahrung der Verstorbenen in Kühlräumen ist ausgeschlossen.

● Die 4.800 Trinkwassernotbrunnen in Deutschland sind mit der Versorgung von im Durchschnitt jeweils mehr als 10.000 Menschen hoffnungslos überfordert, außerdem müssten sich die Bürger das Wasser mit Schubkarre oder Handwagen holen und schließlich werden ihre Standorte ja geheim gehalten (s. Punkt 6.1),.

● Fast alle Banken haben geschlossen – in den wenigen geöffneten wird der überstarke Andrang durch bewaffnete Kräfte in Schach gehalten;

● in Kühlschränken herrscht bereits Zimmertemperatur,

● Gefriergut in den privaten Tiefkühltruhen beginnt ebenso wie in den großen Kühllagern zu verderben;

● die Entsorgung von Abwasser und Fäkalien funktioniert vielerorts nicht mehr – die Menschen verrichten ihre Notdurft bereits im öffentlichen Raum.

● Supermärkte mussten ihre gesamten Vorräte an gewaltbereite Kunden abgeben, Nachschub kommt praktisch nicht;

● die an 150 geheimgehaltenen Standorten gelagerten Bestände der „Zivilen Notfallreserve“ werden freigegeben, können aber nicht verteilt werde ,

● zudem wären die meisten Empfänger außerstande, den zu der Reserve gehörenden Reis, sowie die Erbsen und Linsen zu kochen.

● Fast alle Arztpraxen und Apotheken sind ohne Strom nicht arbeitsfähig und haben geschlossen;

● das gleiche trifft für Dialysezentren zu – ein Todesurteil für ihre Patienten;

● in den großen Ställen der industrialisierten Landwirtschaft stirbt das Nutzvieh, hunderttausende von Tierkadavern können nicht entsorgt werden;

● Justizvollzugsanstalten ohne ausreichende Notstromkapazität müssen Häftlinge freilassen, die nun marodierend durch das Land ziehen;

● Anordnungen der Behörden durch Lautsprecherwagen der Polizei erreichen nur Teile der Bevölkerung,

● noch nicht einmal die Zahl der infolge des Blackout schon ums Leben gekommenen Menschen lässt sich erfassen, sie dürfte bereits in die Tausende gehen;

● der vom Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung befürchtete Kollaps der gesamten Gesellschaft ist nicht mehr aufzuhalten.

Wann endet dann endlich dieser extreme Ausnahmezustand der Zivilisation? Das hängt sehr stark von der Ursache des Blackouts und von der Anzahl der betroffenen Versorgungsgebiete im Verbundnetz sowie von der Schwarzstartfähigkeit (s. auch Punkt 4.8) der darin befindlichen Energieerzeuger ab. Bei einem europaweiten Ausfall der Stromversorgung könnte deren Wiederherstellung nach Expertenmeinung durchaus sieben bis zehn Tage in Anspruch nehmen /3/. Bereits nach einem solchen Zeitraum ohne elektrischen Strom wäre Deutschland zweifellos ein anderes Land. Doch es ist auch ein Blackout möglich, der den praktisch völligen Verlust unserer Zivilisation und den Untergang des größten Teils der Menschheit bewirken kann. Seine Ursache: ein Sonnensturm – mehr dazu unter 4.1.

4. Gefahren für die Stabilität unseres Stromnetzes

Die Systemstabilität unseres Stromnetzes ist durch eine ganze Palette von Phänomenen bedroht, von denen die wichtigsten nachstehend aufgeführt sind. Auf die Eintrittswahrscheinlichkeit der Ereignisse von 1, 2 und 3 hat der Mensch keinen Einfluss; die übrigen sechs möglichen Ursachen eines Ausfalls unserer Stromversorgung sind durch menschliches Handeln beeinflussbar. Im Folgenden sollen die wichtigsten Phänomene und ihre mögliche Auswirkungen erläutert werden.

Natürlich können noch weitere Ursachen mit geringerer Eintrittswahrscheinlichkeit plötzlich eine Rolle spielen. In einer Veröffentlichung des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe (BBK) „Stromausfall – Grundlagen und Methoden zur Reduzierung des Ausfallrisikos der Stromversorgung“ von 1919 /12/ (nicht identisch mit der Broschüre /2/) heißt es auf S. 55: „Eine Pandemie zum Beispiel, die als Gefahr für die Stromversorgung genannt wird, wirkt nicht direkt auf eine in den Stromfluss eingebundene technische/physikalische Struktur ein. Gleichwohl kann eine Pandemie in einer Gefahrenkette, die zu einem Stromausfall führt, eine bedeutende Rolle spielen“ (Hervorhebung durch den Autor). Jetzt, im November des Jahres 2020, ist während der Auseinandersetzung mit Corona der Gedanke nicht mehr fernliegend, dass eine Pandemie auch noch Auswirkungen auf die Stromversorgung entfalten könnte – beispielsweise beim krankheitsbedingten Ausfall wichtiger Spezialisten im System der Kraftwerksregelung.

4.1 Sonnenstürme (Carrington-Ereignis)

Kurz vor der Morgendämmerung des 2. September 1859 waren auf der Nordhalbkugel bis in in die Tropen plötzlich Polarlichter von einer Helligkeit zu sehen, bei der man Zeitung lesen konnte. Außerdem gab es weltweit schwere Störungen in den damals neuen und recht einfachen Telegrafensystemen: Telegrafisten bekamen heftige Stromschläge, und durch Funkenentladungen geriet sogar Telegrafenpapier in Brand. Ursache dieses nach dem englischen Astronomen Richard Carrington benannten Ereignisses war ein durch koronalen Massenausstoß ausgelöster geomagnetischer Sonnensturm von außergewöhnlicher Stärke. Seine mit etwa 1.000 km/s auf die Erde zujagenden elektrischen Ladungen hatten deren schützendes Magnetfeld „zerdrückt“ und waren auf die Erdoberfläche aufgetroffen, wo der Ladungsstrom in den Telegrafenleitungen hohe Spannungen induzierte.

Es war in diesem September des Jahres 1859 ein großes Glück für die Menschheit, noch nicht über ein Netz zur Versorgung mit Elektroenergie zu verfügen. Was wäre geschehen, wenn es die heutige elektrische und elektronische Infrastruktur damals schon gegeben hätte? Zuerst wären sämtliche Satelliten durch den solaren Ladungsstrom zerstört worden, Sekundenbruchteile später folgte ein weltumspannender Blackout mit umfassenden Zerstörungen von Netzen und Elektronik. Besonders folgenschwer: der Verlust tausender Transformatoren an Schlüsselpositionen durch im Hochspannungsnetz induzierte, überstarke Ströme; ihr Neubau hätte mehrere Jahre gedauert.

Am 21. Oktober 2020 strahlte der Fernsehsender ntv eine WELT- Doku mit dem Titel aus: „Countdown zum Weltuntergang – der Sonnensturm“ (im Netz abrufbar), in welcher die Folgen eines Sonnensturms von der Stärke des Carrington-Ereignisses auf unsere heutige Welt dargestellt werden. Die Beschreibung geht zeitlich über den relativ bald erfolgenden Eintritt des Kollapses der Gesellschaft hinaus. Es werden z. B. auch die Folgen der unabwendbaren Explosion sämtlicher Kernreaktoren geschildert, nachdem deren Kraftstoff-Notvorräte und Batterien für Kühlung erschöpft sind. Eine erschreckende Aussage der Dokumentation lautet: Ein Jahr nach dem Ereignis sind 90 Prozent der Weltbevölkerung umgekommen. Aber wie groß ist die Eintrittswahrscheinlichkeit für eine solche Apokalypse? Das Forschungsunternehmen Predictive Science im kalifornischen San Diego schätzt die Wahrscheinlichkeit, dass die Erde in den nächsten zehn Jahren von einem Sturm dieser Kategorie heimgesucht wird, auf stattliche zehn Prozent /4/. Dies legt die Frage nahe, was die Sonne der Erde in dem Zeitraum zwischen 1859 und heute angetan hat. Sonnenstürme sind Teilchenstrahlen von begrenztem Durchmesser. Am 23. Juli 2012 verfehlte der heftigste bekannte Sonnensturm seit dem Carrington-Ereignis, „Impactor“ genannt, die Erde auf ihrer Umlaufbahn nur um eine Woche. Schwächere Stürme trafen dagegen schon mehrfach. So fiel deswegen am 13.03.1989 in der kanadischen Provinz Quebec die Stromversorgung von sechs Millionen Menschen für Stunden aus. Ein anderes Ereignis setzte am 23. Mai 1967 die Radaranlagen des US-Atomraketen-Frühwarnsystems außer Funktion. Die US-Militärs vermuteten einen gezielten Störangriff der Sowjetunion und lösten daraufhin beinahe den Dritten Weltkrieg aus.

4.1.1 Ist ein Schutz vor extremen Sonnenstürmen möglich?

Zunächst: Ein Sonnensturm schädigt den menschlichen Organismus nicht ernsthaft. Seine ionisierende Strahlung ist nur von begrenzter Dauer. Der Strom geladener Teilchen induziert zwar auch im Körper elektrische Spannungen; wegen der vergleichsweise geringen räumlichen Ausdehnung dieses Körpers können aber keine gefährlichen Stromflüsse entstehen.

Dagegen beschäftigen sich seit einigen Jahren weltweit die Militärs mit der Frage des Schutzes elektrischer Anlagen vor induzierten Strömen – wenn auch aus einem anderen Grund. Es gibt eine moderne Waffe, deren Wirkung der von Sonnenstürmen gleicht: die EMP-Bombe /37/. In großer Höhe gezündet, erzeugt sie einen ElektroMagnetischen Puls, der großflächig elektrische Systeme und Bauteile zerstören kann und damit ebenfalls einen Blackout hervorriefe. Die Angst vor einem solchen – vielleicht ohne jede Vorwarnung eintretenden – Angriff hat Militärs dazu bewogen, besonders wichtige Anlagen durch „Härtung“ zu schützen. Wesentliche Komponente dieser „Härtung“ ist eine massive, elektrisch leitende Abschirmung; sie wirkt als Faradayscher Käfig.

Im Vergleich zur EMP-Bombe gibt es für den Sonnensturm eine etwas längere Vorwarnzeit. Die Entstehung des Sonnensturms kann von spezialisierten Observatorien sofort beobachtet werden. Bis der koronare Auswurf dann die Erde erreicht, vergehen ungefähr 17 Stunden. Während dieser Frist könnte man Maßnahmen treffen, welche die Auswirkungen auf das Stromnetz ein wenig verringern. Dazu wäre es komplett abzuschalten und sämtliche vorhandenen Trennstellen (Trennschalter) wären zu öffnen. Aber auch trotz solcher (bislang nicht in Betracht gezogenen) Aktionen ist mit einem Ausfall der Versorgung mit Elektroenergie für einen unabsehbaren Zeitraum zu rechnen. Um dies und die damit verbundene Menschheitskatastrophe sicher zu verhindern, wäre eine vollständige „Härtung“ des Netzes und seiner Anlagen erforderlich. Die weltweiten Kosten dafür könnten Billionenhöhe erreichen. Wären sie gerechtfertigt?

Derartige Summen werden derzeit für Strategien zu einer fragwürdigen Verhinderung des Klimawandels verplant /5/; der Zeithorizont beträgt dabei 100 Jahre. Wenn die Prognosen von /4/ zumindest ungefähr zutreffen, liegt die Wahrscheinlichkeit dafür, dass die Erde in den nächsten hundert Jahren von einem verheerenden Sonnensturm heimgesucht wird, dessen Folgen die Menschheit auf einen Bruchteil dezimieren, bei mehr als 50 Prozent. Das Risiko eines solchen Ereignisses dürfte die Risiken des Klimawandels um Größenordnungen übersteigen. Die Abschätzung von Schadenshöhe und Eintrittswahrscheinlichkeit eines Sonnensturms von der Stärke des Carrington-Ereignisses legt den Schluss nahe, dass ein solches Ereignis sogar das größte Risiko aller denkbaren Menschheitsbedrohungen in den nächsten hundert Jahren beinhaltet. Wird die Menschheit sich gegen diese Gefahr „härten“? Erhebliche Zweifel sind angebracht; mehr dazu im Kapitel „Schwarze Schwäne und die Truthahnillusion“.Kann der einzelne Bürger irgend etwas gegen die Einwirkung eines starken Sonnensturmes tun?

Empfehlung: Wenn Radio, Fernsehen oder das Internet vor einem solchen Ereignis warnen, sollte man seine Wohnung oder sein Haus vom Stromnetz trennen, indem man die Eingangssicherungen deaktiviert. Außerdem ist es ratsam, sämtliche Unterverteilungen abzustellen und alle Netzstecker zu ziehen. Auch eine eventuell vorhandene PV-Anlage wäre abzuschalten und eine Sat-Anlage außer Betrieb zu nehmen. Damit kann die Tauglichkeit der Elektrogeräte für später oder für einen eventuellen Notstrombetrieb bewahrt werden. Diese Maßnahme dürfte für mehrere Stunden, vielleicht auch für mehr als einen Tag erforderlich sein.

4.2 Umpolung des Magnetfeldes der Erde

Die Erde besitzt ein durch Strömungen in ihrem Inneren erzeugtes magnetisches Feld. Seine Pole – dies sind die Punkte, in denen die magnetischen Feldlinien genau senkrecht in die Erdoberfläche einmünden – befinden sich in der Nähe der geografischen Pole. Für den nördlichen Magnetpol wird die Bezeichnung „magnetischer Nordpol“ benutzt, obwohl er physikalisch betrachtet ein Südpol ist. Und dieses Feld schützt die Erde weitgehend vor dem Sonnenwind, einem von der Sonne ständig in alle Richtungen des Raumes emittierten Strom geladener Teilchen (hauptsächlich Protonen und Elektronen) in einer Weise, die Bild 4 prinzipiell zeigt. Unter der Einwirkung des Sonnenwindes erhält das Erdmagnetfeld lediglich eine Asymmetrie; dagegen deformieren die unter Punkt 4 behandelten, durch gerichtete Korona-Auswürfe verursachten Sonnenstürme dieses Feld bis zur Unkenntlichkeit.

Bild 4: Ablenkung des Sonnenwindes durch das Magnetfeld der Erde.

Die Magnetpole der Erde sind nicht besonders standorttreu; vor allem der Nordpol wandert – und zwar mit derzeit wachsender Geschwindigkeit. Betrug die Wanderungsgeschwindigkeit zu Beginn des letzten Jahrhunderts noch rund 15 Kilometer pro Jahr, driftet der Pol heute mit mehr als 50 Kilometern jährlich in Richtung Nord-Nord-West auf Sibirien zu /6/. Bild 8 zeigt die letzten 120 Jahre seiner Route. Außerdem ist die Stärke des Magnetfeldes in den letzten 150 Jahren um etwa 10 Prozent gesunken.

Bild 5: Wanderung des magnetischen Nordpols seit 1900 (Quelle: Nature, World Data Center for Geomagnetism)

Verschiedene Autoren sehen in der beschleunigten Polwanderung und dem Abfall der magnetischen Feldstärke Anzeichen für eine bevorstehende Umkehr des Erdmagnetfeldes, wie sie in den letzten 20 Millionen Jahren sich etwa alle 200.000 bis 300.000 Jahre ereignete. Der magnetische Nordpol wird dabei zum Südpol und umgekehrt. Weil die letzte Polumkehr sich bereits vor 780.000 Jahren ereignete, ist ein solcher Polsprung mehr als überfällig. Denkbar ist aber auch, dass keine Polumkehr stattfindet und der Pol nur eine „Exkursion“ unternimmt, wie sie vor etwas mehr als 41.000 Jahren stattfand und etwa 1.000 Jahre dauerte. Während der Zeit der Polumkehr (oder der Exkursion) reduziert sich die Feldstärke um mindestens 90 Prozent; die Erde ist dann praktisch ohne ihr schützendes Magnetfeld dem Sonnenwind „nackt“ ausgesetzt. Das Stromnetz wäre in diesem Fall nicht nur bei „Sturmstärken“ des Stromes geladener Teilchen gefährdet, sondern bereits bei geringeren Intensitäten des Sonnenwindes – und zwar über die gesamte Zeit der Ereignisse. Wie lang ist diese? In der Literatur findet man Angaben, die von 140 bis zu 4.000 Jahren reichen. Das Stromnetz für einen so großen Zeitraum unverwundbar zu machen, dürfte einen Aufwand in Billionenhöhe erfordern (s. Punkt 4.1.1). Doch diese Herausforderung kommt unabweisbar auf die Menschheit zu. Sie hätte wohl noch genügend Zeit, sich darauf vorzubereiten.

<Folge 3 kommt demnächst>. Teil 1 steht hier.

———————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 1

1. Das Anliegen dieser Broschüre

Im Jahre 2008 wurde das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) beauftragt, die Folgen eines großflächigen und langandauernden Stromausfalls systematisch zu analysieren. Zwei Jahre später lag sein Bericht vor, dessen Fazit in der Drucksache 17/5672 des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung /1/ folgendermaßen lautet:

Aufgrund der nahezu vollständigen Durchdringung der Lebens- und Arbeitswelt mit elektrisch betriebenen Geräten würden sich die Folgen eines langandauernden und großflächigen Stromausfalls zu einer Schadenslage von besonderer Qualität summieren. Betroffen wären alle Kritischen Infrastrukturen, und ein Kollaps der gesamten Gesellschaft wäre kaum zu verhindern. Trotz dieses Gefahren- und Katastrophenpotenzials ist ein diesbezügliches gesellschaftliches Risikobewusstsein nur in Ansätzen vorhanden.“

Was bedeutet aber Risiko überhaupt? Seine gängige mathematische Definition ist das Produkt:

Risiko = Schadenshöhe x Eintrittswahrscheinlichkeit

Die Schadenshöhe eines Ereignisses bemisst sich üblicherweise in der Zähleinheit unseres Geldes (Euro), und Wahrscheinlichkeiten sind immer dimensionslose Zahlen. Die Produktgröße Risiko lässt sich dann also insgesamt in Euro ausdrücken. Der materielle Schaden eines langandauernden großflächigen Stromausfalls (Blackout) kann durchaus in die Billionen gehen, doch weil ein solches Ereignis zwangsläufig auch mit dem Verlust von Menschenleben verbunden ist, wird die Bestimmung der Schadenshöhe problematisch: Welchen Wert hat das einzelne Menschenleben? Die Antworten auf diese Frage fallen recht unterschiedlich aus. Die Weltgesundheitsorganisation WHO nennt eine Summe von 8,5 Millonen Euro, das General-Direktorat der Europäischen Kommission setzt 1 Million Euro an, und für den Weltklimarat IPCC ist ein Menschenleben mit 850.000 Euro vergleichsweise preiswert. Man sollte wohl dem Begriff der Schadenshöhe eine nicht quantifizierbare ethische Komponente zuordnen, die dann wenigstens für einen Vergleich unterschiedlicher Katastrophenszenarien hilfreich wäre.

Bei der Betrachtung der Eintrittswahrscheinlichkeit für einen Blackout ist zu bedenken, dass einzelne unterschiedliche Ursachen einen langandauernden und großflächigen Stromausfall zur Folge haben (s. Punkt 4). Diese Ursachen treten auch mit unterschiedlichen Wahrscheinlichkeiten ein. Die resultierende Eintrittswahrscheinlichkeit dafür, dass ein Blackout überhaupt eintritt, kann dann mit dem Additionssatz der Wahrscheinlichkeitsrechnung berechnet werden. Sie ist zwar grundsätzlich kleiner als die einfache Summe der Einzelwahrscheinlichkeiten, jedoch deutlich größer als jede einzelne Wahrscheinlichkeit.

Es ist unbestreitbar, dass in den zehn Jahren vom Bericht des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung /1/ bis heute unsere Abhängigkeit von elektrischem Strom durch zunehmende Elektrifizierung und Digitalisierung noch einmal erheblich zunahm. Damit hat sich die zu erwartende Schadenshöhe signifikant vergrößert. Aber auch bestimmte Gefahren für die Stabilität des Stromnetzes, wie Cyberkriminalität, defizitäre Stromversorgung, Anteil stochastischer Energien im Netz, oder der Einfluss inkompetenter Politiker werden im Laufe der Zeit größer, womit die resultierende Eintrittswahrscheinlichkeit zunimmt. Mit dem gleichzeitigen Wachstum der beiden Faktoren Schadenshöhe und Eintrittswahrscheinlichkeit wächst das Risiko eines Blackout entsprechend stark.

Es wäre die Aufgabe der Bundesregierung, dieser Entwicklung – die einen katastrophalen Ausgang nehmen kann – zu wehren. Doch deren bisherige Leistungen auf dem Gebiet der Gefahrenabwehr sind alles andere als ermutigend, wie der Umgang mit dem Virus Covid 2 beweist. Deshalb ist die Frage angebracht, wie viel Vertrauen eine regierungsamtlich vorbeugende Gefahrenabwehr gegen den Blackout verdient. Immerhin hat sich die Regierung in jüngster Zeit zu ein paar Maßnahmen des vorbeugenden Zivilschutzes entschlossen. Zum ersten Mal seit dem Ende des Kalten Krieges forderte sie 2016 die Bevölkerung auf, einen Vorrat von Lebensmitteln für 10 Tage und Trinkwasser für fünf Tage vorzuhalten. Leider wurde dieses Regierungshandeln durch Negativberichterstattung in den Leitmedien über sogenannte „Prepper“ konterkariert, die (wie auch bei WIKIPEDIA) in Zusammenhang mit „Reichsbürgern, rechten Gruppierungen und Veschwörungstheoretikern“ gebracht werden.

Beim Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK) ist als wesentlichste Information der Bevölkerung eine Broschüre unter dem Titel „Stromausfall – Vorsorge und Selbsthilfe/2/ erhältlich. Ihr in großen Lettern gedruckter Text enhält bemerkenswerte Empfehlungen von hohem Grad der Allgemeingültigkeit, wie:

Das Licht von Kerzen, Taschen- oder Campinglampen (mit den erforderlichen Batterien und Gaskartuschen) ist nicht nur romantisch, sondern kann in Ernstfall dafür sorgen, dass Sie sich zu Hause, auch nach Einbruch der Dunkelheit noch sicher orientieren können.“

Bild 1: An inhaltlicher Dürftigkeit nicht mehr zu übertreffen – die Informationsbroschüre des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe

Bei der Verlegung der Verlängerungskabel (eines Stromerzeugers) ist daran zu denken, dass Sie für die Kabel eine Gebäudeöffnung benötigen. Für die Kabelführung offen gehaltene Türen und Fenster begünstigen jedoch das Auskühlen der Wohnung und Erschweren den Einbruchschutz.“

Und höchst vorsorglich wird auch vor einer Lärmbelästigung der Nachbarn im Katastrophenfall gewarnt:

Gerade in dicht besiedelten Gebieten oder in Mehrfamilienhäusern können sich Nachbarn durch die Geräuschemissionen belästigt fühlen. Bei der Auswahl eines Stromerzeugers sollte deshalb ein leises Model (Schreibweise wie im Original) gewählt werden.“

Auf weitere inhaltliche Defizite dieser Veröffentlichung wird später noch eingegangen. Die von der Universität der Bundeswehr kreierte Gestaltung des Werkes bietet übrigens acht Abbildungen von sehr fragwürdigem Informationsgehalt: die nächtliche Ansicht eines Einfamilienhauses mit beleuchteten Fenstern, einen Feuerlöscher, eine Kurbeltaschenlampe, eine überschwemmte Fassade, zwei Hochspannungsmasten und zwei unterschiedliche Darstellungen eines Schukosteckers.

Dem Bundesamt scheinen die Schwächen seiner Bürgerinformationsschrift bewusst zu sein, denn nach SPIEGEL Panorama vom 14.02.2020 plant es als Ergänzung ein „Notfallkochbuch“ mit „nahrhaften Mahlzeiten“ für den Krisenfall, also etwa bei einem längeren Stromausfall. Elektrische Küchengeräte sollen für die Zubereitung ebenso wenig benötigt werden wie Leitungswasser.

Noch ist dieses Kochbuch nicht erhältlich, doch in einer späteren Auflage unserer Broschüre wollen wir gern daraus zitieren.

2. Was sollte man zum besseren Verständnis der Broschüre über unser Stromnetz wissen?

Unser Stromnetz ist eine der bedeutendsten ingenieurtechnischen Leistungen überhaupt. Das deutsche Netz ist in vier Regelzonen mit den Betreibern Amprion, 50Hertz, TenneT und Transnet BW unterteilt (Bild 2) und stellt einen Teil des Europäischen Verbundnetzes dar. Dieses versorgt Millionen von Verbrauchern in den 26 teilnehmenden Ländern mit sinusförmigem Wechselstrom, der seine Flussrichtung in jeder Sekunde hundert Mal ändert und damit eine Frequenz von 50 Hertz (50Hz) aufweist (Bilds 3)

Bild 2: Die vier Regelzonen des deutschen Stromnetzes

Bild 3: Der zeitliche Verlauf des Netzwechselstromes; eine Periode dauert 1/50 Sekunde

Die Richtungswechsel finden an allen Stellen des Verbundnetzes vollkommen gleichzeitig statt. Wenn ein zusätzlicher Energieerzeuger in das System einspeisen soll, reicht es nicht aus, dass seine Frequenz 50Hz beträgt – er muss auch „phasengleich“ mit dem Netz sein, d. h. die Richtungswechsel seines Stromes müssen vollkommen netzsynchron erfolgen. Anderenfalls könnte beim Einschalten die Leistung des Netzes ihn zerstören.

Außerdem werden alle Verbraucher und Erzeuger von Elektroenergie in einer ganz erstaunlichen Weise aufeinander abgestimmt: In jedem Moment wird im Verbundnetz genauso viel Elektroenergie erzeugt, wie alle Verbraucher gerade benötigen. Als Führungsgröße dieses hochkomplizierten Regelvorgangs dient dabei die Frequenz des Wechselstroms, die mit einer Genauigkeit von 0,4% konstant zu halten ist. Wird mehr Leistung als nötig in das Netz eingespeist, schwingt der Wechselstrom „schneller“ – seine Frequenz erhöht sich; bei Untereinspeisung verlangsamt sich die Frequenz. Wählt man diese Internetadresse, so kann man den Zusammenhang zwischen Frequenz und Einspeisung von Regelleistung in das Netz eindrücklich in Echtzeit beobachten; eine Momentaufnahme zeigt Bild 2. Angezeigt wird darin mit der roten Linie im Sekundentakt die notwendige Regelleistung zur Rückführung der Frequenz auf den Normalwert.

Bild 4: Dieses Bild wurde mit Screenshot vom Bildschirm aufgenommen. Zum aktuellen Zeitpunkt (ganz rechts) liefern die Stromerzeuger im Netz zu wenig Leistung. Um die Normfrequenz von 50 Hz wieder zu erreichen, müssen 269 Megawatt zusätzlich eingespeist werden.

Die vier Regelzonen Deutschlands sind wiederum in 100 bis 200 Bilanzkreise mit den darin befindlichen Verbrauchern eingeteilt. Für jeden Bilanzkreis erstellt ein Bilanzkreisverantwortlicher in 15 Minuten-Intervallen eine Abschätzung des kommenden Verbrauchs anhand der Lastentwicklung. Aus den gewonnenen Daten werden

viertelstündliche Kraftwerksfahrpläne erstellt. Kommt es zu einer Abweichung des tatsächlichen Verbrauchs vom geplanten Verbrauch, greifen die Übertragungsnetzbetreiber auf die in Bild 4 dargestellte Regelleistung zurück.

Sozusagen an vorderster Front der Regelung wirkt innerhalb von Millisekunden die sogenannte Momentanreserve. Sie ist ausschließlich als kinetische Rotationsenergie in großen Schwungmassen in den Generatoren der Kraftwerke gespeichert (s. Bild 3 und Punkt 4.6) und wandelt sich automatisch bei deren Abbremsung infolge größerer Verbraucherlasten in zusätzliche elektrische Energie um.

Bild 5: Die gewaltigen, mit 3.000 Umdrehungen pro Minute rotierenden Schwungmassen der Generatoren können innerhalb von Millisekunden einen Teil ihrer Rotationsenergie als elektrische Energie in das Netz einspeisen.

Bei Leistungsüberschuss im Netz wird die Momentanreserve wieder aufgefüllt. Zeigt bei einer Unterversorgung die Freisetzung der Momentanreserve nicht genug Wirkung, stellen ausgewählte, dafür präqualifizierte Kraftwerke innerhalb der ersten 30 Sekunden die Primärreserve zur Verfügung, wofür im gesamten Verbundnetz eine Leistung von 3.000 Megawatt vorgehalten wird. Ist auch damit das Defizit nicht zu beherrschen, stehen als weitere Verteidigungslinien die Sekundärreserve (für 5 Minuten) und für die folgenden 55 Minuten die Minutenreserve zur Verfügung.

Sinkt die Frequenz weiter, drohen ab 49,8 Hz Lastabwürfe, d. h. die Abschaltung industrieller oder auch privater Verbraucher (Brownout). Ein Beispiel zeigt Bild 4. Schließlich trennen sich bei 47,5 Hz die Kraftwerke zu ihrem eigenen Schutz automatisch vom Netz, welches dann flächendeckend stromlos ist – der Blackout ist da.

Bild 6: Am 10. Januar 2019 kam es im europäischen Verbundnetz aus Ursachen, die immer noch nicht vollständig geklärt sind, zu einem plötzlichen Abfall der Frequenz. Daraufhin wurden in Frankreich industrielle Verbraucher mit einer Leistung von 1,5 Gigawatt „abgeworfen“. Wäre dies nicht erfolgreich gewesen, hätte es eine weitere Kaskade von Abwürfen gegeben. (Quelle: www.netzfrequenzmessung.de)

Wenn dagegen bei Überversorgung der „Strom zu schnell schwingt“, kommt zunächst negative Regelenergie der Kraftwerke zum Einsatz. Bei 50,5 Hz müssen Erzeuger heruntergefahren oder abgeschaltet werden; als dies am 28. März 2012 in Deutschland nur unvollständig gelang, stand das Verbundnetz vor dem Blackout (Näheres s. Punkt 4.3).

Wichtig für das Verständnis des Stromnetzes ist auch die Tatsache, dass es darin vier verschiedene Spannungsebenen gibt:

Die Existenz der höheren Spannungsebenen ist dadurch begründet, dass sich elektrische Leistungen bei höherer Spannung verlustärmer durch die Leitungen transportieren lassen. Leistung P ist das Produkt aus Strom I und Spannung U. Weil die Übertragungsverluste in den (sich durch ihren Ohmschen Widerstand erwärmenden) Leitungen mit dem Quadrat der Stromstärke anwachsen, wird die Spannung möglichst hoch gewählt und damit der Strom entsprechend niedrig eingestellt.

Es sei noch erwähnt, dass die Leitungen dem fließenden Wechselstrom auch kapazitive und induktive Widerstände entgegensetzen, was eine Phasenverschiebung der Verläufe von Strom und Spannung zur Folge hat. Diesem unerwünschten Effekt wird mit der Zuführung von sogenannter Blindleistung begegnet.

Die Fortleitung von hoch gespannter Elektroenergie geschieht zumeist in Freileitungen mit mindestens drei Leiterseilen für dreiphasigen Wechselstrom. Erdkabel für Höchstspannungen befinden sich in Planung. Sie sind vermutlich um den Faktor 3 teurer als Freileitungen und müssen außerdem aus physikalischen Gründen mit Gleichstrom betrieben werden, was zusätzliche Kosten für Gleich- und Wechselrichter bedingt.

Konzipiert wurde das Stromnetz für Energieflüsse von den höheren zu den niedrigeren Spannungsebenen. Doch mit dem Aufkommen der Energien aus Wind, Biogas und Sonne wird sogar bevorrechtigt auf unteren Spannungsebenen eingespeist; was zur Folge hat, dass der Strom im Netz teilweise „rückwärts“ fließt – mit Konsequenzen, auf die noch eingegangen wird.

<Folge 2 kommt demnächst>

—————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout (PDF)




Die Lüge hat in Deutsch­land eine lange Tradition – Teil 2: Die Lüge in Zeiten von Corona

Abb.3, Quelle, zeigt die Corona-Häufigkeit der PCR-positiv getesteten, fälschlich „Neuninfektionen“ genannt, in den europäischen Ländern bezogen auf die Einwohnerzahl, Stand Anfang Januar 2021.

Die Liste der Maßnahmen ist lang und wird immer länger. Bereits in seinem Artikel vom 24.12.2020 zeigte der Autor, dass der Gesinnungsumschwung in der Bundesregierung von Lockerung (noch Anfang Dezember 2020 die Rede) bis hin zum Lockdown anhand der Fallzahlen nicht zu erklären ist. Auch nicht die jetzige Begründung von angeblich infektiöseren Virenmutationen von COVID-19, wie der Autor zeigen wird.

Abb.4, Quelle siehe Graphik, zeigt die PCR-positiv getesteten, in Deutschland bis zum 20.01.2021.

Was ist eigentlich Corona oder COVID-19? COVID-19 ist keine Virus-Bezeichnung, sondern eine Krankheitsbezeichnung und ist die Abkürzung von „coronavirus disease 2019“. Die richtige Virenbezeichnung lautet: SARS-CoV-2. SARS-CoV-2 gehört zu den Beta-Coronaviren. Coronaviren sind unter Säugetieren und Vögeln weit verbreitet. Studien legen nahe, dass SARS-CoV-2 aus dem Virenpool von Fledermäusen stammt und über Zwischenwirte bei Säugetieren auf den Menschen übersprang. Im Jahr 2002 trat in China zum ersten Mal ein neues Coronavirus auf, dass in der Lage war, den Menschen zu befallen. Die Wissenschaft gab ihm den Namen: SARS-CoV (SARS: „severe acute respiratory syndrome“).

SARS-CoV-2 befällt vor allem menschliche Zellen mit dem sog. ACE-2-Rezeptor. Eine hohe ACE-2-Dichte besteht z.B. im Atemwegstrakt, im Darm, neuronale Zellen, in der Niere, in Gefäßzellen, und im Herzmuskel. Anmerkung: Alle Zellen haben verschiedene Rezeptoren, die z.B. für die Kommunikation untereinander oder für die Versorgung der Zelle mit Stoffen dienen. Diese Rezeptoren werden von Antigenen (hier Viren) genutzt, an die Zelle anzudocken und sie dann zu entern bzw. zu „überlisten“, um in die Zelle zu gelangen. Viren brauchen nämlich die Zellenzyme, um sich vermehren zu können. Auch Immunzellen, wie dendritische Zellen, Makrophagen und T-Zellen werden vom Virus befallen und hemmen damit die Aktivität des Immunsystems.

Entgegen zu „bisherigen“ Influenza-Viren (Grippeviren) der H1N1-Stämme, die auf die Spanische Grippe zurückgehen und bei denen das Oberflächenprotein Hämagglutinin (H) ausschlaggebend für das Andocken an menschliche Zellen ist, ist dies bei SARS-CoV-2 das sog. S-Protein. Das Virus kann nur dann in die menschliche Zelle gelangen, wenn das S-Protein (S für Spike) durch sog. zelluläre Proteasen funktional gespalten wird. Der Autor reißt diesen hochkomplexen Prozess kurz an, damit der Leser sieht, welch komplexe Kommunikationen und Vorgänge auf molekularer Ebene notwendig sind, damit das Virus in menschliche Zellen gelangen kann. Dies dient zur späteren Beantwortung der Frage: Können geimpfte nicht geimpfte anstecken?

Da Coronaviren hoch variable RNA-Viren sind, bilden sie mithilfe des Nukleotidaustausches und der Rekombination sehr schnell neue Varianten, die aus mehreren Mutationen bestehen. Eine solche Variante ist das erstmals in Großbritannien im August 2020 aufgetretene SARS-CoV-2 der Linie B.1.1.7, welchem eine höhere Ansteckung zugesagt wird und dass sich laut RKI seit September 2020 in Großbritannien ausbreitet. Ebenso das aus Süd-Afrika stammende SARS-CoV-2 der Linie B.1.351, über das erstmals im Dezember 2020 in Deutschland berichtet wurde. Das „Süd-Afrika-Virus“ hat z.B. im S-Protein 8 Aminosäurebausteine ausgetausht. Das aus England 17.

Über die Aminosäuren modelliert das Virus sozusagen seinen Andockschlüssel (S-Protein) an menschliche Zellen, wodurch dann bildhaft der Schlüssel besser passt (siehe Abb.5) und das Virus schneller/effektiver in die Zelle eindringen kann. Daher auch eine höhere Ansteckung, sofern das vorgenannte für die genannten Varianten zutrifft, was wissenschaftlich alles andere als bestätigt ist.

 

Abb.5, Quelle Stevens et al., Science Bd.303, S. 1866-1870, AAAS, zeigt beispielhaft die Bindungsstelle (jeweils in der Mitte) von drei Influenca-Virenarten und deren Hämagglutinin, mit dem es an die menschlichen Zellen andockt. Mit einer breiten Vertiefung in der Mitte erkennt sozusagen das H3-Virus (links) ein Molekül im Atemtrakt des Menschen und dockt dort an. Bei der spanischen Grippe (rechts) war die zentrale Vertiefung durch eine Mutation weiter ausgebildet, was ausreichte, so viele Menschen zu befallen. Bildhaft gesprochen sind dies die „Schlüsselzähne“, die durch Aminosäure-Austausch optimiert werden sollen. Allerdings kann das Virus nicht planvoll vorgehen, sondern ist auf Zufallsmutationen angewiesen.

Beim Corona-Virus (wie auch bei anderen Viren) sind Mutationen keine Besonderheit und kommen nicht nur zweimal, sondern bis jetzt über 300.000-mal beim Corona-Virus vor! (Quelle) Ohne das irgendjemand davon Notiz nimmt/nahm. Also warum gerade beim „England-Virus“ oder beim „Südafrika-Virus“? Zur Beantwortung der Frage kommen wir noch.

Die oben kurz angerissenen drakonischen Maßnahmen zur Einschränkung unserer Grundrechte und zur Schließung einer Vielzahl von Geschäften/Unternehmen wurden von der Politik mit folgenden Argumenten erlassen:

1. Bevorstehende Überlastung der Intensivbetten und damit Gefahr der medizinischen Versorgung der Patienten (Argumentation Anfang Dezember 2020)

2. Hohe Ansteckung durch die beiden genannten neuen Virenlinien (aktuell, so z.B. von der Kanzlerin).

Schauen wir zuerst auf die Argumentation unter Punkt 1.

Laut statistischem Bundesamt besitzt Deutschland eine im Vergleich hohe Anzahl von Intensivbetten, nämlich pro 100.000 Einwohner 33,9 (Abb.6).

Abb.6, Quelle: Statistisches Bundesamt, zeigt die Anzahl der Intensivbetten in Deutschland pro 100.000 Einwohner und anderen europäischen Ländern mit hohem medizinischem Stand.

Bezogen auf die Einwohnerzahl in Deutschland von 83,2 Mil. Einwohner sind dies etwa 28.200 Intensivbetten.

Nun zur Auslastung der Intensivbetten (Abb.7).

Abb.7, Quelle siehe Chart (DIVI ist die Deutsche Interdisziplinäre Vereinigung für Intensiv- und Notfallmedizin), gibt für November 2020 (November ist die Datenbasis, die der Politik für Ihre Argumentation unter Punkt 1 vorlag) die Anzahl der belegten Intensivbetten mit 3.742 an. Und die der freien Intensivbetten mit 6.600.

3.742 belegte Intensivbetten sind sicherlich für das Gesundheitswesen eine hohe Belastung, weil natürlich auch mit hohen Kosten verbunden. Die große Anzahl freier Intensivbetten (in Bezug auf Corona-Patienten knapp doppelte Reserve) bietet jedoch wenig Spielraum für die Argumentation der Politik von einer bevorstehenden Überbelegung der Intensivbetten in Deutschland. Und schon gar nicht kann sie als Argumentation dienen, Grundrechte massiv einzuschränken und ganze Branchen, wie den Einzelhandel, Friseure, Gaststätten, etc. in den Ruin zu treiben.

Nun zur Argumentation unter Punkt 2, dem Schutz der Bevölkerung vor einer hoch ansteckenden Virusvariante.

Laut RKI breitet sich die vermeintlich hoch ansteckende Virusvariante seit September 2020 in Großbritannien aus und wurde in mehreren europäischen Ländern bereits nachgewiesen. Nach einer Untersuchung durch die Medizinische Hochschule Hannover in Deutschland (mindestens) seit November 2020. Die Variante konnte bei einer Patientin im Nachhinein nachgewiesen werden. Da Großbritannien ein Land ist, dass vglw. oft von Deutschen besucht wird, ist von einer hohen Dunkelziffer und auch von einem noch früheren Auftreten in Deutschland auszugehen. Aber wir bleiben bei dem bisher bestätigten Fall vom November 2020.

Angesichts der hohen Sterblichkeitsrate bei der Vogelgrippe H5N1 (Sterblichkeit von über 50% gegenüber 3% bei Corona; zum Glück konnte H5N1 nur sehr schwer auf den Menschen „überspringen“) und dem in 2002 erstmals beim Menschen nachgewiesenen neuen Virus COV-SARS in China hat die Weltgesundheitsorganisation WHO bereits im Dezember 2004 Studien in Auftrag gegeben, die untersuchen sollen, was passiert, wird die Menschheit von einer Pandemie wie der Spanischen Grippe getroffen wird und ob die Staaten dagegen gewappnet sind. Eine solche Studie zeigt Abb.8 für die USA.

Abb.8, Quelle: Los Alamos National Laboratories, Models of Infectious Disease Agent Study, Timothy Germann et al. zeigt ausgehend von 40 Infektionen, wie sich das Inflluenca-Virus ausbreitet, wenn keine Impfstoffe zur Verfügung stehen. Bereits 60 Tage später ist das Verbreitungsmaximum erreicht.Wie war das nochmal? In Deutschland ist die Variante erstmals im November 2020 nachgewiesen, mit einer hohen Dunkelziffer. Also, wäre die Variante wirklich so gefährlich, dann hätten wir in Deutschland längst dessen Ausbreitungsmaximum erreicht! Die 60 Tage sind bereits vorbei. Irgendwas stimmt mit der Argumentation nicht.

Wer jetzt anführt, bei der Studie handelt es sich um Untersuchungen zum „normalen“ Influenza-Virus, nicht um SARS-CoV-2, der schaue sich bitte Abb.9 an, die die Ausbreitung von SARS-CoV-2 für Deutschland zeigt.

 

Abb.9, Quelle siehe Chart, zeigt die Corona-PCR-positiv getesteten, in Deutschland bis zum 22.01.2021.

Anmerkung: Von dem Mitstreiter Herrn Hartmut Huene wurde der Autor darauf hingewiesen, dass der PCR-Test, der auf Basis des Ct-Wertes beruht, auf dem die obigen Fallzahlen erhoben sind, laut UN falsch ist. Herr Huene:

„Kurz 1 Std. nach der Vereidigung des Präsidenten Biden und der Zusage, wieder in die WHO einzutreten (in der Corporation D.C. 1871) am 20.01 2021 um 11:43, wurde von der WHO die Bewertung des Ct-Wertes angezweifelt und man reduziert den Wert von 40-45 auf nun ca. 30 Zyklen (besser noch wären 20 bis 25). Verschiedene Virologen gehen davon aus, dass das einen Rückgang von ca. 90% der angeblichen positiven Infekte bedeutet.“ (hier).

Eine Analyse ist aus heutiger Sicht noch zu früh, sicher sollte die weitere Entwicklung hinsichtlich des Tests und der daraus resultierenden Zahlen beobachtet werden, ob diese anzupassen wären. Zurück zum eigentlichen Thema.

Die 1. Welle hatte ihren Höhepunkt um den 31.03.2020. Laut RKI traten die Erstinfektionen in Deutschland in Bayern Ende Januar 2020 auf. Ende Januar 2020 bis zum 31.03.2020 sind ebenfalls 60 Tage. Nach 60 Tagen wurde das Ausbreitungsmaximum der 1. Corona-Welle in Deutschland erreicht.

Vor diesem Hintergrund sind die Argumente unter Punkt 2 des nochmals verschärften Lockdowns, von der Kanzlerin oder anderen Personen, wie diversen Ministerpräsidenten oder von der Presse, wie z.B. Frau Anne Will vorgebracht, die Mutationen seien auf dem Vormarsch, als Unsinn zu bewerten, der auf Unwissenheit oder anderes, wie Propaganda zurückzuführen ist. Mutationen sind seit dem ersten Auftreten des Virus „auf dem Vormarsch“, bis jetzt an die 300.000. Als hoch variables RNA-Virus hat es nun mal diese Grundeigenschaft. Journalisten, die dies willfährig nachdrucken, missachten einmal mehr ihr journalistisches Ethos.

In Zeiten von Corona glauben offensichtlich nicht wenige Politiker, sich immer wieder mit Wortmeldungen in Erinnerung zu bringen, die nicht von ausreichender Sachkenntnis zeugen. Dazu gehört auch die Forderung nach einer Freizügigkeit für geimpfte Personen, die den Sachverhalt fehlenden Wissens belegt. Begründung:

Eine Impfung stärkt nicht das angeborene Immunsystem*, sondern das adaptive Immunsystem, welches die sog. Gedächtniszellen ausbilden, die uns bei einer erlittenen Krankheit, im Idealfall ein Leben lang gegen dieselbe Krankheit immun machen – die Krankheit bricht nicht mehr aus.

*Der Mensch besitzt mehrere Immunsysteme, die sowohl in sich selbst, als auch untereinander in hoch komplexer Form kommunizieren, Abgleiche vornehmen, etc. Dies sind:

– Das angeborene Immunsystem mit z.B. Dendriten, Makrophagen, etc., welches erkannte Fremdgehe sofort attackiert

– Das adaptive Immunsystem mit seinen T- und B-Zellen, dass, wie der Name dies schon sagt, sich durch Adaption an ein (neues) erkanntes Fremdgen herantastet und dann die geeigneten Waffen zu dessen Bekämpfung produziert

– Das zelleigene Immunsystem mit seinen Lysosomen

– Das genetische Immunsystem

Bei letzterem spricht die Wissenschaft nicht von einem Immunsystem, sondern von Reparaturprozessen. Ist das genetische Immunsystem gestört, so treten schwerwiegende Krankheiten wie Krebs auf. „Klassisches“ Beispiel, der Brustkrebs bei Frauen, der oftmals durch defekte Gene wie BRCA1 und BRCA2, die die Reparatur von Doppelstrangbrüchen in der DNA-Helix steuern, verursacht wird.

Eine Grippe-Impfung wirkt wie folgt:

Das deaktivierte Virus („Todvirus“) wird injiziert. Die Fresszellen (Makrophagen) und dendritische Zellen des angeborenen Immunsystems erkennen über molekulare Wächter (TLRs = Toll-artige Rezeptoren) Antigene und transportieren die Antigene des Eindringlings zu den Lymphknoten. In den Lymphknoten erkennen B-Lymphocyten mit passendem Sensor die Antigene auf der Virushülle. Gleichzeitig heften sich T-Helfer-Lymphocyten an Teile viraler Antigene, die von Makrophagen präsentiert werden. Sie geben daraufhin Cytokine (Signalmoleküle) ab, mit deren Hilfe die aktivierten B-Zellen Gene in ihrem Zellkern anschalten, um freie Antikörper (Immunglobuline – davon gibt es fünf Oberarten, die sich untereinander austauschen, sowie regulieren) zu produzieren**. Diese docken an die jeweiligen Antigene des Virus an und markieren diese als Angriffsziel für T-Killerzellen. Die Antikörper auf den Viruspartikeln wirken weiter als Signal für Fresszellen. Eine Makrophage schließt den Fremdling ein und produziert Giftstoffe, um ihn abzutöten, oder Enzyme, um ihn zu verdauen. Das inaktivierte Virus der Impfung hat damit seinen Zweck erfüllt. Die trainierten B- und T-Zellen des adaptierten Immunsystems („Gedächtniszellen“) werden bei einer echten Infektion schnell reagieren und gemeinsam die weitere Antikörperproduktion ankurbeln. Siehe Abb.10.

Abb.10 links, Quelle, zeigt das Grobschema eines Antikörpers aus der Oberart IgG mit seiner Hauptkette (Stamm) und seinen beiden dynamischen (adaptionsfähigen) Seitenketten. Das Immunsystem des Menschen besteht aus mehreren ineinander greifenden Arten. Die eine ist die angeborene Immunität (links), die andere bildet das adaptive/erlernte. Unmittelbar an den Einfalltoren des Körpers agiert das angeborene Immunsystem. Wenn dieses den Eindringling nicht erfolgreich bekämpfen kann, startet das lernfähige adaptive System einen späteren, dafür hochgradig angepassten Angriff gegen den jeweiligen Erreger. Das adaptive Immunsystem (erlernt) bildet dann die sog. B- und T-Gedächtniszellen. Die Induktion einer T-Zell-basierten und einer (fachlich) humoralen, das Virus neutralisierenden Antwort ist also von zentraler Bedeutung.

Die Adaption der Antikörper, ihre exakte Anpassung der Seitenkette (bildhaft gesehen = Zange) an das jeweilige Virus kann bis zu 10 Tagen dauern. Mitunter zu lange, so dass wir erkranken. Durch die Impfung entfällt die Adaption und damit diese Zeitspanne und die Gedächtniszellen attackieren/erkennen den Eindringling schneller. Zur Bekämpfung wandelt sich eine B-Zelle in eine sog. Plasmazelle (die Umwandlung ist ebenfalls mit einem komplexen Kommunikations- und Prüfprozess versehen, da ansonsten Autoimmunerkrankungen entstehen könnten) und beginnt dann mit der Massenproduktion der entsprechenden „Waffen“. Ebenso starten die T-Zellen. Das Immunsystem kann deutlich schneller starten und bekämpft erfolgreich den Eindringling, noch bevor wir krank werden. Krank bedeutet, dass z.B. das Virus eine solche Vermehrung im Körper erreicht und Zellen befallen hat, dass wir dies sozusagen mitbekommen.

Die Kommunikationsprozesse zu Beginn einer Infektion zwischen angeborenem und adaptiven Immunsystem, sowie die Umwandlung in Plasmazellen, sowie die Massenherstellung des zu dem Erreger passenden „Waffenarsenals“ dauert bis zu 2 Tage, und mindestens in dieser Zeitspanne ist eine geimpfte Person voll ansteckend. Denn ansteckend ist man, sobald man das Virus in sich trägt. Nicht mal ihre Virenlast ist geringer, als die bei einer ungeimpften Person, zumindest nicht nennenswert. Daher ist es für den Autor auch nicht verwunderlich, dass Israel, trotz der dortigen bereits hohen Impfrate (38% zu 1,67% zu Deutschland) weiter hohe Raten bei Neuinfektionen verzeichnet.

Insofern sind Aussagen wie Sonderrechte für geimpfte Personen in keiner Weise gerechtfertigt und inhaltlich zu begründen. Impfpässe, die zur Freizügigkeit beim Reisen zur Anwendung kommen sollen, sind denn einzig dazu geeignet, die Menschen zur Impfung zu bewegen, was aus Sicht des Autors gar nicht notwendig ist. Er kann seinen Lesern nur nahelegen und empfehlen, sich zum eigenen Schutz impfen zu lassen, so wie wir dies auch für eine „normale“ Grippe tun oder wenn wir in Länder reisen, die eine gesonderte Impfung notwendig werden lassen.

Ob eine geimpfte Person darüber hinaus ansteckend ist, ist anhand von Untersuchungen nicht geklärt, aber laut RKI nicht auszuschließen, wie Untersuchungen bei unseren nächsten Verwandten, den Affen, zeigen.

Die weit verbreitete Unwissenheit in Zeiten von Corona ist, wie gesehen, schon erstaunlich. So auch das von der Politik vorgebrachte Argument, sich impfen zu lassen, um die Ausbreitung des Virus zu stoppen, Stichwort „Herdenimmunität“.

Wenn Firmen ihre Beschäftigten im Frühherbst auffordern, sich impfen zu lassen, so machen sie dies nicht wegen einer Herdenimmunität, sondern um Kosten zu sparen (Kranken- und Krankheitsausfallkosten). Wenn wir uns impfen lassen, weil wir in Länder fliegen, die einen gesonderten Impfschutz notwendig machen, so tun wir dies nicht für die Stewardess – obwohl dies sicherlich ein aparter Gedanke ist – sondern zu unserem eigenen Schutz. Eine Impfung ist also immer auf eine Person bezogen., und der Autor möchte seine Leser nochmals anregen, sich zum eigenen Schutz impfen zu lassen. An den Sozialismus angelehnte Gedanken (weil sie die Möglichkeit eines Zwangs beinhalten, um dieses zu erreichen), wie eine „Herdenimmunität“, sollten in der Wissenschaft nicht Einzug halten.

Allerdings hört man in Zeiten von Corona auch Ungewohntes. Hat doch der Vorstandsvorsitzende von AUDI beim jetzigen Lockdown öffentlich die Aussage gemacht, dass die Automobilindustrie keine Corona-Hilfen benötigt und diese besser den Branchen zukommen sollten, die stärker davon betroffen sind. Ist man bei den Vorstandsvorsitzenden der Automobilindustrie, was die Politik anbelangt, wirklich aufgewacht und hat erkannt, dass die Milliarden an Subventionen, die die Politik vergibt und die natürlich eine gewisse Abhängigkeit beinhalten, auch nicht annähernd die Milliarden an Verluste ausgleicht, die bei der Umsetzung von deren Politik anfallen? Von der Vernichtung zehntausender von Arbeitsplätzen ganz zu schweigen. Und sollte hier wirklich ein erster Widerstand erkennbar sein, wo man dort doch all die Jahre „unterm Sofa“ lag.

Warum also hat die Politik den jetzigen Lockdown ausgerufen und ein weiteres Mal unsere Bürgerrechte noch weiter eingeschränkt? Die Antwort kann nur analytisch betrachtet werden.

In seinem letzten Artikel, „Das-Geschäft mit der Angst – die unendliche Geschichte, oder lernen wir Deutsche gar nichts aus der Geschichte, Teil-2, Die Corona Maßnahmen“ stellte Herr Frank Grabitz die folgende Frage:

„Übrigens : die Variation b.1.1.7 (eine von bisher 9650) die jetzt für so viel Aufregung sorgt, ist seit dem 20. Sept. in der englischen Datenbank vom COG erfasst und wurde bereits beim ersten infizierten Ägypter im April festgestellt. Ebenso noch vorher 2x in England und sogar in Frankreich. So viel nur zur Hysterieverbreitung (nachzulesen auf science files)….“

Der Autor erwiderte darauf:

„Ich kann mir sehr gut vorstellen, dass unter Führung (oder gar Initiative) Frankreichs Herrn Johnson mal gezeigt werden sollte, was Großbritannien bevorsteht, wenn es zu einem ungeregelten Brexit kommt. Hat ja auch seine Wirkung nicht verfehlt.“

Was an dieser plausiblen Antwort mit einem Fragezeichen zu versehen ist: warum gab Großbritannien selbst der EU sozusagen die Vorlage, die Grenzen zu schließen und den Luftverkehr einzustellen? Dass Großbritannien die Zahlen veröffentlichen konnte, liegt daran, dass dort auf Mutationen untersucht wird und zwar schon seit vielen Monaten, im Gegensatz zu Deutschland. Warum aber im Dezember, als gerade die entscheidenden Gespräche mit der EU zu einem Handelsabkommen liefen? Handel und geschlossene Grenzen nebst kilometerlange Lkw-Staus passen nun gar nicht zusammen.

Nein, sollte die Argumentation des Autors im Kern zutreffen, so lag hier eine konzertierte, also abgestimmte Aktion zwischen Premier Johnson und der EU (sicherlich nicht mit der ganzen EU, welche Länder dies sind, ließe sich daran ermitteln, welche jetzt die verschärften Maßnahmen ergreifen) vor, und das Ziel war nicht Herr Johnson, sondern der britische Wähler, dessen Zustimmung man für ein Abkommen brauchte (man will die Wähler ja behalten), der bekanntlich mehrheitlich für den Brexit stimmte.

Winston Churchill hat kurz nach dem 2. Weltkrieg gesagt. „Angst habe er nur vor den deutschen U-Booten gehabt.“ Diese Angst geht auf das Jahr 1942 zurück, als die deutschen U-Boote mehr Schiffstonnage versenkten, als die USA in der Lage waren, nachzubauen. Das Jahr, in dem solche gigantischen Projekte (das größte jemals gebaute Flugzeug), wie das Riesenflugboot (nach einer Anforderung der US-Regierung) Hercules, auch bekannt unter dem Namen Spruce goose, entstanden. Die US-Regierung versprach sich dadurch, der U-Boot-Gefahr sozusagen davonfliegen zu können. Großbritannien, dass sich weder selbst ernähren noch versorgen kann, hätte ohne Güterversorgung kapitulieren müssen. Wohl jeder Brite weiß, was es bedeutet, bleibt die Versorgung aus, weil die Ware am Zoll oder in kilometerlangen Lkw-Staus steckt und wird daher auch ein für die „einfachen“ Briten weniger gutes Abkommen mit der EU akzeptieren.

Wie erste Berichte zeigen, hat Premier Johnson für Britannien, zumindest für das Wahlvolk, ein schlechtes Abkommen ausgehandelt. Da ist von Lkw-Demonstrationen in London zu hören, weil die Fische schlecht werden und in langen Lkw-Staus an der Grenze stehen (Abb.11), von leeren Regalen… Sie erinnern sich, an der Fischerei-Frage wäre das Abkommen beinahe gescheitert.

Abb.11, Quelle: ARD-Tagesschau 20.02.2021.

So sehr für viele Briten ein Austritt aus der politischen Union notwendig war, zumindest hatten sie so abgestimmt, so wenig wollten sie, zumindest die Regierung, einen Austritt aus der wirtschaftlichen. Denn freier Warenverkehr schließt auch einen freien Banken- und Finanzverkehr mit ein. Und da ist Großbritannien mit seinem Finanzplatz London nach wie vor eine Großmacht, die ganz vorne in der 1. Liga mitspielt. Und die Argumente, von Premier Johnson, aufgrund der o.g. Demonstrationen vorgebracht, dies wären Anfangsschwierigkeiten und ggf. auf die Bürokratie zurück zu führen, gilt für Finanzgeschäfte nicht. Die laufen nahtlos und ungehindert weiter. Siehe hierzu auch die aktuellen Informationen der Entwicklungsorganisation Oxfam „Corona-Krise: Reiche werden reicher, Arme werden ärmer“ und auch den 1. Bericht des Autors zu den Gewinnern wie Amazon.

Nicht zu vergessen auch, dass das Corona-Thema der Regierung sehr gute Umfragewerte bescherte, zumindest für die CDU, nicht jedoch für die SPD*. Und 2021 sind Wahlen, da muss ein für die Regierung gut laufendes Thema weiter am Laufen gehalten werden. Wie auch immer, dies sind Analysen, keine Belege. Der Autor kommt jedoch für sich immer mehr zu dem Ergebnis, dass seit den Zeiten der SED in der deutschen Politik nicht mehr so viel Propaganda im Spiel war wie heute. Mit dem Unterschied, dass in einem totalitären Staat die Bevölkerung weiß, dass Staatsmedien einzig und allein die Aufgabe haben, Regierungspolitik zu verbreiten (siehe obiges Beispiel von Frau Anne Will).

*Dass die SPD, entgegen der CDU, durch ihre Corona-Politik beim Wähler nicht punkten konnte, überrascht den Autor nicht, braucht er sich nur die Personen anzusehen, die die Partei führen und eine besonders große Weltfremdheit an den Tag legen. Gleiches gilt für die, die das Umweltministerium führt.

Länder, die anders bei Corona handeln als man selbst und die just zu dem Zeitpunkt, als man selbst die Corona-Maßnahmen nochmals verschärft, diese lockert, z.B. Luxemburg (siehe Abb.12), werden abgekanzelt und als „verantwortungslos“ hingestellt. In diesem Sinne äußerte sich der saarländische Ministerpräsident am 06.Januar. Die Antwort des luxemburgischen Premiers Bettel auf diese Zurechtweisung kam prompt, Luxemburg sei ein souveräner Staat….

 

Abb.12 ist ein Ausschnitt aus Abb.3 und zeigt die Corona-PCR-positiv getesteten, der letzten 7 Tage, Stand 04.01.2021. Aus seiner Sicht verständlich, dass der saarländische Ministerpräsident gegenüber dem Großherzogtum Luxemburg so barsch reagierte. Luxemburg hat mehr Corona-Fälle und lockert seine Corona-Maßnahmen, wogegen das Saarland seine bei niedrigeren Zahlen verschärft.

Der saarländische Ministerpräsident kann vor diesem Hintergrund natürlich „seinen“ Saarländern nur schwer vermitteln, dass im Saarland die Bürgerrechte weiter eingeschränkt werden, der Einzelhandel, Friseure, Gaststätten,… in den Ruin treibt, während das Großherzogtum seine Maßnahmen lockert.

Die letzten, die sich in Deutschland von offizieller Seite so gegenüber dem Großherzogtum Luxemburg positionierten wie der saarländische Ministerpräsident, war die Wehrmacht.

Wie der Autor bereits in seinem ersten Artikel zu Corona Ende 2020 schrieb, trägt er bei Corona vieles mit, was von der Politik kommt, nicht jedoch Unwisssenheit und Propaganda.

 




In Deutschland mit langer Tradition – Teil 1: Die Behauptung einer auf Treibhausgasen basierten Erderwärmung

Über die obige Cabaret-Einlage des „Clima-Clowns“ Latif – er selbst wird sich wohl Klimaforscher nennen, obwohl es diesen Lehrzweig in der Wissenschaft gar nicht gibt, was nur logisch ist, denn Klima ist nichts anderes als der statistische Mittelwert des Wetters und was soll dass sein, Mittelwertforscher oder gar Mittelwertschutz – können die Spanier oder die Süddeutschen, Österreicher, etc. ganz sicher nicht lachen. Sind sie doch in den letzten Tagen und Wochen förmlich im Schnee(Chaos) versunken. Allerdings erschien der Artikel mit obigem Zitat am 1. April (!) 2000. Er wurde allerdings nicht als Aprilscherz ausgewiesen, weder vom Spiegel noch von den Staatssendern von ARD und ZDF, die dies natürlich ebenfalls meldeten.

Wie der Autor unter anderem in seinem jüngsten Bericht auf EIKE zeigte, bestimmt die Sonne und nur diese unser Wetter und damit dessen Mittelwert, das Klima. Die ausgewiesenen, vermeintlich immer weiter steigenden Temperaturen bis in die heutige Zeit sind auf Messwerttricksereien, wie der Autor es nennt, bei der Erfassung zurückzuführen, bitte nicht mit Messwertfälschungen gleichsetzen, die entstehen durch sich ändernde

  • Messwertzeiten,
  • Messorte (Wärmeinseleffekt = WI, jeder von uns weiß, dass die Temperaturen in Städten, besonders im Sommer, z.T. deutlich höher als auf dem Land liegen, dazu braucht man nur auf die Außentemperaturanzeige seines Fahrzeugs zu achten),
  • Auswahl/Gewichtung der Messorte,
  • sowie dem zu früher unterschiedlichem Messequipment

um nur die wichtigsten zu nennen. Schlicht und ergreifend, werden bei Temperaturvergleichen zu früher „Äpfel mit Birnen“ verglichen und somit jeder Temperaturvergleich der Wertlosigkeit übergeben. Von Herrn Josef Kowatsch stammt die folgende Untersuchung, die sich in Abb.1 spiegelt:

 

Abb.1, Quelle: Josef Kowatsch, nach Daten des Deutschen Wetterdienstes, zeigt am Beispiel der Temperaturmessstation von Freiburg, wie allein dadurch die Temperaturen durch den WI steigen, wird die Lage der Station verändert. Herr Kowatsch schreibt dazu „Bei Freiburg – blauer Graph in der Grafik – sieht man den WI-Effekt sehr deutlich. Im Jahre 2007 hat der DWD seine Innenstadtwetterstation in einen Außenbezirk versetzt. Nun hat der DWD die Station wieder zurückgesetzt in die Innenstadt. Und schon ist das Jahr 2020 das wärmste, jedenfalls wieder so warm wie 2000 und deutlich wärmer als 2018.

Bereits vor 10 Jahren hat der Autor anhand von Vergleichen der DWD-Referenzstation Hohenpeißenberg mit den DWD-Deutschlandtemperaturen errechnet (auf Basis der Strahlungsgesetze nach Planck und dem Abkühlungsgesetz nach Newton), dass der WI in den ausgewiesenen Deutschlandtemperaturen des DWD bis zu +1,1°C beträgt. Anhand der mathematischen Ermittlung hat Herr Kowatsch die Berechnungen des Autors auf Heute aktualisiert, Abb.2:

Abb.2., Quelle: Josef Kowatsch, zeigt die nach der Berechnungsmethode des Autors um den Wärmeinseleffekt bereinigte Temperaturkurve von Deutschland. Streng genommen gelten die Daten nur bis 2010, denn solche „Tricksereien“, wie in Abb.1 vorgenommen von der Behörde DWD* in 2019, sind in der Berechnungsmethode noch gar nicht enthalten, so dass im Jahre 2020 gegenüber dem Jahre 2010 der WI wohl höher als die genannten 1,1°C ist und der Temperaturanstieg ab 2010 flacher verläuft.

* Der Deutsche Wetterdienst ist nicht etwa unabhängig, sondern eine Anstalt des öffentlichen Rechts im Geschäftsbereich des Bundesministeriums für Verkehr und digitale Infrastruktur und ist diesem unterstellt. Die Politik ist also weisungsbefugt gegenüber dem DWD. Mit anderen Worten, der DWD muss das tun, was die Politik ihm vorgibt.

Auf der Internetplattform seines befreundeten Autors Chris Frey hat der Autor seine Überlegungen dargelegt, die versuchen, die Frage zu beantworten, warum gerade die (ehemalige) Wirtschaftspartei CDU/CSU die deutsche Wirtschaft mit immer schärferen „Klimaauflagen“ in den Ruin treibt. Der Autor möchte darauf hinweisen, dass es sich dabei nur um seine Überlegungen handelt, die den Kern innehaben, dass bei den 2+4-Verhandlungen eine neue „Nachkriegsordnung“, basierend auf der CO2-Lüge (Anmerkung: Angst), beschlossen wurde, die über die Institutionen wie z.B. die UN weltweit durchgesetzt werden soll.

Zu Beginn hatten wir einen kleinen Exkurs in die Märchenstunde der deutschen Qualitätsmedien. Die Staatssender von ZDF und ARD haben in den letzten Wochen eine große Vielzahl von Märchen gesendet, die als Märchen deklariert waren, wie „Hans im Glück“ (RBB), „Vom Fischer und seiner Frau“ (NDR), „Hans Röckle und der Teufel“ (MDR), „Schneewitschen und der Zauber der Zwerge“ (ZDF), „Rumpelstilzchen“ (WDR), „Baron Münchhausen“ (SWR), um nur eine kleine Auswahl zu nennen.

Wie wir gesehen haben, hat die Märchenstunde bei den Staatssendern eine lange Tradition, deshalb schlägt der Autor den dortigen Programmmachern vor, auch die anderen Ausstrahlungen der Staatssender, wie die um Klima, Energie und Corona, als Märchenstunde auszuweisen. Der Zuschauer weiß dann sofort, woran er ist, ohne sich aufwendig in unabhängigen Instituten zu informieren, dass er mal wieder von den Staatssendern eine Märchenstunde präsentiert bekam.

 




Verursachung des Klimawandels und das wissenschaftliche Verfahren

Die These, die wir ansprechen, ist diejenige, die uns ständig eingehämmert wird. Sie lautet in etwa: „Das Klima verändert sich, und wir sind die Ursache“. OK, niemand bestreitet, dass sich das Klima ändert; aber was ist mit dem Teil „wir sind die Ursache“? Welche Beweise gibt es dafür?

Lassen Sie uns die wissenschaftliche Methodik anwenden. Wir beginnen mit der grundlegenden Maxime, dass „Korrelation keine Kausalität beweist“. Stattdessen wird die Kausalität durch Widerlegung aller relevanten alternativen („Null“-) Hypothesen nachgewiesen.

Wie das funktioniert, weiß jeder von Medikamententests. Wir können nicht beweisen, dass Medikament A Krankheit X heilt, indem wir Medikament A tausendmal verabreichen und beobachten, dass Krankheit X fast immer verschwindet. Die Krankheit X könnte aus anderen Gründen oder von selbst verschwunden sein. Selbst falls wir das Medikament A eine Million Mal verabreichen und Krankheit X fast immer verschwindet, haben wir nur die Korrelation bewiesen, nicht die Kausalität. Um die Kausalität zu beweisen, müssen wir die Nullhypothese widerlegen, indem wir das Medikament A gegen ein Placebo testen. Das Placebo repräsentiert die Nullhypothese, dass etwas anderes (nennen wir es „natürliche Faktoren“) die Krankheit X heilt. Wenn Medikament A bei der Heilung von Krankheit X signifikant wirksamer ist als das Placebo, dann haben wir die Nullhypothese widerlegt und die Wirksamkeit von Medikament A zumindest vorläufig nachgewiesen.

Zurück zum Klimawandel. Die Hypothese lautet: „Der Mensch verursacht einen signifikanten Klimawandel.“ Eine geeignete Nullhypothese wäre „Der beobachtete Klimawandel kann vollständig durch eine Kombination natürlicher Faktoren erklärt werden.“ Wie könnte man dies testen?

Der naheliegendste Test wäre, zu fragen, ob es in der jüngeren Erdgeschichte wärmer war als heute – wobei die Gegenwart Gegenstand signifikanter menschlicher Treibhausgasemissionen ist. Falls Perioden in der jüngeren Vergangenheit vor den menschlichen Emissionen wärmer waren als die Gegenwart, dann ist ganz offensichtlich eine Kombination von „natürlichen Faktoren“ ausreichend, um Temperaturen zu erzeugen, die so hoch oder höher liegen als wir es heute erleben.

[Hervorhebung vom Übersetzer]

Und es spielt keine Rolle, ob wir wissen, was die alternativen „natürlichen Faktoren“ sein könnten, genauso wenig wie es bei der fehlgeschlagenen Medikamentenstudie eine Rolle spielt, ob wir wissen, warum das Placebo das experimentelle Medikament geschlagen hat oder nicht. In der fehlgeschlagenen Medikamentenstudie könnte es das menschliche Immunsystem gewesen sein, oder es könnten Darmbakterien gewesen sein, oder es könnte das Wetter gewesen sein, oder irgendetwas anderes. Tatsache ist, dass die „natürlichen Faktoren“, welche auch immer das sein mögen, das experimentelle Medikament übertrafen.

Als Test für die Klimahypothese dient ein Blogbeitrag des pensionierten Physikers Ralph Alexander vom 28. Dezember mit dem Titel [übersetzt] „Neue Beweise, dass das antike Klima wärmer war als das heutige“. Alexander fasst die Ergebnisse von zwei aktuellen Studien zusammen:

● Eine Arbeit vom Juni 2020 aus Nature mit dem Titel [übersetzt] „Anhaltend warmes Meerwasser im Mittelmeer während der Römerzeit“ von einer Gruppe italienischer und spanischer Autoren unter der Leitung von G. Margaritelli.

● Ein Artikel aus dem New Scientist vom November 2020 mit dem Titel [übersetzt] „Der Klimawandel hat in Norwegen eine große Menge alter Pfeile freigelegt“ von C. Baraniuk.

Die Arbeit von Margaritelli et al. analysiert Proxy-Daten von „versteinerten Amöben-Skeletten, die in Sedimenten des Meeresbodens gefunden wurden“, um die Temperaturen des Mittelmeers in den letzten 2000 Jahren zu rekonstruieren. „Das Verhältnis von Magnesium zu Kalzium in den Skeletten ist ein Maß für die Temperatur des Meerwassers zu der Zeit, als das Sediment abgelagert wurde; eine Zeitlinie kann durch Radiokarbondatierung erstellt werden.“

Fazit: Mit Ausnahme der Daten aus der Ägäis zeigen alle Ergebnisse eine deutliche Erwärmung während der römischen Periode von 0 bis 500 n. Chr., als die Temperaturen etwa 2 Grad Celsius höher lagen als der Durchschnitt für Sizilien sowie der westlichen Mittelmeerregionen in späteren Jahrhunderten, und sie lag viel höher als die heutigen Temperaturen in Sizilien.

Die Baraniuk-Studie aus Norwegen analysiert große neue Funde von antiken Artefakten, darunter Pfeile, Pfeilspitzen und Kleidung, die durch den jüngsten Rückzug der Gletscher in diesem Land freigelegt wurden. Das Vorhandensein der Artefakte in diesen Gebieten impliziert natürlich, dass die Gebiete zu der Zeit, als die Artefakte abgelagert wurden, nicht mit Eis bedeckt waren:

Die Tatsache, dass die Artefakte aus mehreren verschiedenen Perioden stammen, die durch Hunderte oder Tausende von Jahren voneinander getrennt sind, impliziert, dass sich das Eis und der Schnee in der Region in den letzten 6.000 Jahren mehrmals ausgedehnt und zurückgezogen haben muss. Während des holozänen Thermischen Maximums, das vor etwa 10.000 bis 6.000 Jahren stattfand und dem Zeitraum der erstaunlichen norwegischen Funde vorausging, waren die globalen Temperaturen noch höher. In den höheren Breiten, wo die zuverlässigsten Proxies zu finden sind, war es schätzungsweise 2-3 Grad Celsius wärmer als heute.

Ob vor 2000 Jahren (Römische Warmzeit) oder vor 6000 Jahren (Holozänes Thermisches Maximum) – diese Perioden lagen eindeutig lange vor jeglichen signifikanten menschlichen Treibhausgas-Emissionen aus der Verbrennung fossiler Brennstoffe. Offensichtlich reicht also eine Kombination von „natürlichen Faktoren“, was immer sie auch sein mögen, aus, um die Erdtemperaturen auf ein Niveau steigen zu lassen, das so hoch oder höher ist als das, was wir heute, in der Ära der menschlichen Nutzung fossiler Brennstoffe, erleben.

Ich sollte erwähnen, dass die beiden von Alexander besprochenen Arbeiten nur die jüngsten von vielen Dutzenden von Studien sind, die Beweise für die Behauptung liefern, dass Zeiten in der jüngeren geologischen Vergangenheit – entweder die mittelalterliche Warmzeit oder die römische Warmzeit oder das holozäne thermische Maximum – wärmer waren als heute. Eine Sammlung vieler Arbeiten, die sich hauptsächlich auf die mittelalterliche Warmzeit konzentrieren, finden Sie auf Craig Idsos CO2 Science Website.

Man sollte meinen, dass die Mainstream-Klima-„Wissenschaft“ sich wie ein Laserstrahl auf den Versuch konzentrieren würde, diesen frühen Perioden zu untersuchen, die wärmer waren als heute. Aber stattdessen haben diese Leute fast vollständig einen anderen Ansatz gewählt. Sie nennen ihren Ansatz „detection and attribution“ [etwa: Edrkennen und zuordnen]. Von den vielen Beispielen ist hier eine wichtige Studie aus dem Jahr 2018, das vom Weltklimarat der Vereinten Nationen gefördert wurde, mit dem Titel [übersetzt] „Erkennen des Klimawandels und Zuordung der Ursachen desselben“ Die Autoren sind ein „Who is Who“ des offiziellen Klima-Establishments, darunter solche wie Phil Jones, Michael Mann, Gerald North, Gabriele Hegerl und Ben Santer.

Anstatt zu prüfen, ob die verfügbaren Daten entweder ihre Haupthypothese (menschliche Ursachen) oder die Nullhypothese (natürliche Faktoren) widerlegen, verfolgen diese Leute einen anderen Ansatz, den ich als „wir können uns nichts anderes als menschliche Treibhausgasemissionen vorstellen, die dies verursachen könnten, also sind es menschliche Emissionen“ beschreiben würde. Sie erstellen sogenannte Modelle darüber, was ihrer Meinung nach natürliche Faktoren für die Erwärmung verursachen könnten, und testen diese dann anhand der Daten. Seit wann beweist das irgendetwas? Der Artikel ist sehr lang und gespickt mit fast undurchdringlichem Jargon, der es fast unmöglich macht, ein gutes Zitat zu bekommen, aber hier sind ein paar der besten:

In Zuordnungs-Studien wurden Multi-Signal-Techniken angewandt, um festzustellen, ob die Größe der beobachteten Reaktion auf einen bestimmten Einflussfaktor mit der modellierten Reaktion übereinstimmt und vom Einfluss anderer Einflussfaktoren getrennt werden kann. Die Einbeziehung von zeitabhängigen Signalen hat geholfen, zwischen natürlichen und anthropogenen Einflussfaktoren zu unterscheiden. Je mehr Antwortmuster einbezogen werden, desto mehr stellt sich zwangsläufig das Problem der Entartung (verschiedene Kombinationen von Mustern, die nahezu identische Anpassungen an die Beobachtungen ergeben). Nichtsdestotrotz bleibt auch bei Einbeziehung der Antworten auf alle wichtigen Antriebsfaktoren in die Analyse ein deutliches Treibhausgassignal nachweisbar. Insgesamt zeigt sich, dass die Größe der modellsimulierten Temperaturreaktion auf Treibhausgase mit der beobachteten Treibhausgasreaktion auf den betrachteten Skalen konsistent ist.

Und noch einer:

Um die Reaktion auf anthropogene oder natürliche Klimaantriebe in Beobachtungen zu erkennen, benötigen wir Schätzungen des erwarteten Raum-Zeit-Musters der Reaktion. Die Einflüsse des natürlichen und des anthropogenen Antriebs auf das beobachtete Klima können nur getrennt werden, falls die räumliche und zeitliche Variation jeder Komponente bekannt ist. Diese Muster können nicht aus der beobachteten Aufzeichnung bestimmt werden, da sich die Variationen aufgrund verschiedener externer Einflüsse gegenseitig und die internen Klimavariationen überlagern. Daher werden in der Regel Klimamodelle verwendet, um den Beitrag der einzelnen Faktoren abzuschätzen.

Offensichtlich ist diese Art von Hokuspokus gut genug, um so ziemlich die gesamte akademische Welt und die meisten Journalisten zu täuschen, ganz zu schweigen von einer Schar von Milliardären. Aber was ist mit der mittelalterlichen bzw. der römischen Warmzeit? Widerlegen die nicht die ganze Sache?

Link: https://www.manhattancontrarian.com/blog/2021-1-2-causation-of-climate-change-and-the-scientific-method via http://icecap.us/index.php/go/new-and-cool

Übersetzt von Chris Frey EIKE




Ein weiterer Blick auf den städtischen Wärmeinsel-Effekt

Nicola Scafetta hat gerade eine neue Arbeit in Climate Dynamics veröffentlicht, in der ser den Nachweis des städtischen Wärmeinseleffekts (UHI) untersucht (Scafetta, 2021). Die Arbeit ist nicht kostenpflichtig und kann hier heruntergeladen werden. Zusammengefasst zeigt Scafetta, dass ein Teil der jüngsten Erwärmung, die in der globalen HadCRUT 4 Temperaturaufzeichnung gezeigt wird, auf den UHI-Effekt zurückzuführen sein könnte. Er verwendet eine Analyse der täglichen Maximal- (Tmax) und Minimaltemperaturen (Tmin), Klimamodellausgaben und einen Vergleich der Meeresoberflächentemperaturen (SST) mit den Landtemperaturen, um den möglichen Einfluss auf den HadCRUT 4 Datensatz abzuschätzen.

Die verschiedenen Aufzeichnungen der Festlands-Temperatur werden nicht speziell bzgl. des UHI-Effektes korrigiert, sondern die NOAA und das Hadley Climatic Research Centre verlassen sich auf Homogenitäts-Algorithmen, um Anomalien zu glätten. Die NOAA nennt ihren Homogenisierungsprozess „PHA“, und der Algorithmus des Hadley Centre ist ähnlich, siehe diesen Beitrag oder den Artikel von Menne und Williams aus dem Jahr 2009 (Menne & Williams, 2009a) für eine Diskussion der Temperaturhomogenisierung. Während diese Algorithmen die Temperatur in den Städten senken, erhöhen sie auch die Temperaturen in den ländlichen Gebieten in der Umgebung der Städte. Erschwerend kommt hinzu, dass die letzten 70 Jahre eine Periode schnellen Bevölkerungswachstums und zunehmender Urbanisierung waren. Die Weltbevölkerung ist von 2,5 Milliarden Menschen im Jahr 1950 auf 7,5 Milliarden im Jahr 2020 gewachsen. Der UHI in London wurde auf bis zu 2,8°C in den Sommern zwischen 1990 und 2006 geschätzt.

UHI bewirkt, dass Tmin und Tmax im Vergleich zur Umgebung höher liegen, wobei jedoch die Differenz bei Tmin größer ist*. Dies bedeutet, dass der Tagesgang der Temperatur mit der Zeit abnimmt. Scafetta verwendet die Hadley Climatic Research Unit Temperaturaufzeichnungen (HadCRUT) und die Daten des Coupled Model Intercomparison Project 5 (CMIP5), um dieses Problem zu untersuchen. Er vergleicht ein Ensemble-Mittel der CMIP5 Tmax und Tmin Daten mit den HadCRUT Daten und untersucht die Unterschiede zwischen ihnen.

[*Im Stadtgebiet von Berlin wurden nach heißen Sommertagen bei Windstille und wolkenlosem Himmel gleichzeitigeTemperaturunterschiede bis 10 K zwischen Innenstadt und den Waldgebieten am Stadtrand gemessen! Anm. d. Übers.]

Die CMIP5-Modelle wurden auf die globalen und regionalen HadCRUT-Anomalien abgestimmt, so dass lokale Anomalien, wie z.B. UHI, in den Karten der Unterschiede zwischen den beiden Datensätzen sichtbar sind. Die CMIP5-Modelle parametrisieren keine Städte, so dass Unterschiede über Städten und umliegenden Gebieten auf einen verbleibenden UHI-Einfluss im HadCRUT-Datensatz hinweisen könnten.

Abbildung 1. Dies sind die globalen Tmax (rot)- und Tmin (blau)-Anomalien aus HadCRUT (A) und CMIP5 (B). Die Unterschiede sind in C und D dargestellt. Quelle: (Scafetta, 2021).

Abbildung 1 vergleicht die globalen Tmin- (blau) und Tmax- (rot) Anomalie-Aufzeichnungen von HadCRUT4 mit den CMIP5-Ensemblemittelwerten, die Scafetta in seiner Studie verwendet hat. Die Aufzeichnungen sind Anomalien von 1945-1954. Vergleicht man die Dekaden 1945-1954 und 2005-2014, so ist die Tmin-Tmax (DTR)-Differenz unterschiedlich. Der DTR bei HadCRUT4 beträgt 0,25 und der CMIP5 DTR 0,1. In beiden Fällen war die Differenz bei Tmin größer als bei Tmax.

Abbildung 2 zeigt, wie die Tmin-Tmax-Anomalieunterschiede im HadCRUT4-Datensatz verteilt sind:

Abbildung 2. Globale Verteilung der HadCRUT Tmin-Tmax Anomalien (DTR). Orange, lila und rot bedeuten, dass Tmin stärker vom UHI beeinflusst wird als Tmax. Weiße Gebiete, einschließlich der Ozeane, haben keine Tmin- und Tmax-Daten. (Scafetta, 2021).

Wie man in Abbildung 2 sieht, zeigen die meisten Landgebiete einen positiven Wert, was bedeutet, dass Tmin stärker vom UHI beeinflusst wird als Tmax. Die in Abbildung 2 dargestellten HadCRUT-Daten zeigen, dass in großen Gebieten in Nordamerika und Asien Tmin viel schneller ansteigt als Tmax. Am deutlichsten ist dies im schnell urbanisierenden China und in den Wachstumsgebieten der USA und Kanadas.

In Abbildung 3 sehen wir, wie die Tmin-Tmax-Anomalien (DTR) des CMIP5-Ensembles verteilt sind. Die modellierten Tmin-Tmax-Anomalien sind viel gedämpfter und liegen näher an Null als die gemessenen und homogenisierten Werte.

Abbildung 3. Globale Verteilung der CMIP5 Tmin-Tmax-Anomalien (DTR). An den Polen, im hohen Norden und in Teilen Asiens und Zentralafrikas erwärmt sich Tmin etwas schneller als Tmax. Der größte Teil des Rests der Welt liegt nahe Null, einschließlich der Ozeane. (Scafetta, 2021).

Nur in der Nähe der Pole zeigen die Modelle einen größeren Anstieg von Tmin-Tmax, zusammen mit verstreuten Gebieten in Asien und Afrika. Grönland ist eine große Insel mit sehr geringer Bevölkerung, ~56.000 Menschen, und dort zeigt sich nur ein kleiner Unterschied zwischen den modellierten und den gemessenen Werten. Die tatsächlichen Werte variieren von -0,2 bis 0,2 und die modellierten Werte liegen zwischen 0 und 0,2.

Scafetta zeigt anhand zahlreicher Beispiele, „dass die Landklima-Aufzeichnungen von signifikanten, nicht klimatischen Verzerrungen betroffen sind.“ Tmin und Tmax gibt es nicht in den SST-Aufzeichnungen (Meeresoberflächentemperatur), aber wir können die SST-Aufzeichnungen mit den HadCRUT-Landaufzeichnungen über das CMIP5-Modellensemble vergleichen. Dabei stellte Scafetta fest, dass nach Berücksichtigung der thermodynamischen Unterschiede zwischen Land und Ozean die CMIP5-Simulationen mit den wärmeren Landaufzeichnungen übereinstimmen, aber die SST deutlich überbewerten. Eine Land-Simulation der Temperaturdifferenz zwischen dem Mittelwert von 1940 bis 1960 und dem Mittelwert von 2000-2020 zeigte eine Differenz zwischen Modell und HadCRUT von nur 0,06°C. Ein Vergleich zwischen CMIP5 (+0,69°C) und HadSST (+0,41°C) über den Ozeanen ergab eine Erwärmung von 0,28°C, was fünfmal höher ist.

Die Erwärmung der Landtemperatur nach HadCRUT beträgt etwa ein Grad von der Periode 1940-1960 bis zur Periode 2000-2020. Falls die CMIP5-Modelle und die HadSST-Aufzeichnungen genau sind, dann haben die Landaufzeichnungen eine Abweichung von +0,36°C. Dies ist ein Fehler von fast 60 %. Wir haben den großen Einfluss von Korrekturen auf die Temperaturaufzeichnungen schon früher diskutiert, siehe diesen Beitrag für mehr zu diesem Thema [in deutscher Übersetzung beim EIKE hier].

Diskussion

Scafettas Studie zeigt eine mögliche systemische Verzerrung in den HadCRUT-Aufzeichnungen. Der größte Teil der Verzerrung, wie in Abbildung 2 gezeigt, befindet sich in Gebieten mit schneller städtischer Entwicklung über den Untersuchungszeitraum von 1940 bis 2020. Es gibt weitere Anomalien, die bemerkenswerte in Bolivien könnte auf die schnelle Abholzung in diesem Gebiet zurückzuführen sein. Die Anomalien in den trockenen Teilen Nordafrikas könnten auf einen umgekehrten urbanen Effekt zurückzuführen sein, da in diesen Gebieten die Urbanisierung ein kühleres Gebiet im Vergleich zu den umliegenden ländlichen Gebieten schafft.

Alle in der Studie verwendeten Daten sind fehlerhaft. Endgültige Schlussfolgerungen können nicht gezogen werden. Aber es scheint, dass der Landteil des HadCRUT 4 Datensatzes wärmer ist als er sein sollte, relativ zur SST. Es ist auch wahrscheinlich, dass dieser warme Bias in die CMIP5-Modelle durchgesickert ist. Die jüngsten DTR-Werte (Tmax-Tmin) sind stärker gesunken, als die CMIP5-Modelle vorhergesagt haben. Dies könnte ein Problem mit den Modellen in städtischen Gebieten sein, oder es könnte an den Homogenisierungs-Algorithmen liegen, die vom Hadley Climatic Research Centre verwendet werden und welche die Erwärmung der städtischen Wärmeinsel über große Gebiete verschmieren. So oder so hat Scafetta gezeigt, dass diese Datensätze nicht konsistent sind und einer oder mehrere von ihnen eine erhebliche systemische Verzerrung enthalten können.

Ein letzter Punkt. Wenn die Daten um die oben beschriebene offensichtliche Verzerrung korrigiert und mit der unabhängigen globalen Mitteltemperatur der unteren Troposphäre (hier) von UAH (Spencer, et al., 2017) verglichen werden, sehen wir, dass der korrigierte HadCRUT-Datensatz näher an diesem liegt als das Original, das in Abbildung 4B schwarz dargestellt ist. Dieser Vergleich zeigt, dass die offensichtliche Verzerrung, die von Scafettas Studie entdeckt wurde, eine gewisse empirische Unterstützung hat.

Abbildung 4A vergleicht den originalen HadCRUT 4.6 Datensatz (schwarz) mit Scafettas korrigiertem Datensatz in rot. Der CMIP5-Modell-Ensemble-Mittelwert (gelb) ist zusammen mit 106 unabhängigen Modellläufen in grün dargestellt. Die Abbildungen 14A und 14B verwenden die gleichen Farben. Abbildung 14B fügt die globale UAH-Durchschnittstemperatur der unteren Troposphäre in blau hinzu. Alle Kurven sind Anomalien zum Zeitraum 1940-1960.

Relativ zu 1940 bis 1960 zeigt die ursprüngliche HadCRUT-Kurve 0,59°C Erwärmung und 0,48°C mit Scafettas Korrekturen. Die UAH-Aufzeichnung zeigt 0,44°C. Die CMIP5-Klimamodelle zeigen eine Erwärmung von 0,78°C.

Nach Scafettas Korrektur ist es möglich, dass nicht-klimatische Verzerrungen ein Fünftel der berichteten globalen Erwärmung der HadCRUT seit 1940-1960 beigetragen haben. Es ist auch möglich, dass die CMIP5-Klimamodelle die Erwärmung um ein Drittel überbewerten. Dies sind signifikante Probleme.

Abbildung 4. Grafik A zeigt die einzelnen Modellläufe in grün, den CMIP-5-Mittelwert in gelb, den unkorrigierten HadCRUT-Rekord in schwarz und den korrigierten HadCRUT-Rekord in rot. B zeigt den gleichen HadCRUT korrigierten Datensatz in rot, den UAH Datensatz der unteren Troposphäre in blau und den ursprünglichen HadCRUT Datensatz in schwarz. Die roten und schwarzen Linien in A & B sind die gleichen.

Literatur:

Menne, M., & Williams, C. (2009a). Homogenization of Temperature Series via Pairwise Comparisons. Journal of Climate, 22(7), 1700-1717. Retrieved from https://journals.ametsoc.org/jcli/article/22/7/1700/32422

Scafetta, N. (2021, January 17). Climate Dynamics. Retrieved from https://doi.org/10.1007/s00382-021-05626-x

Spencer, R., Christy, J., Braswell, W. (2017), UAH Version 6 global Satellite Temperature Products: Methodology and Results, Asia-Pac J Atmos Sci 53:121-130.

Link: https://wattsupwiththat.com/2021/01/22/a-new-look-at-the-urban-heat-island-effect/

Übersetzt von Chris Frey EIKE

 




Anthropo­gener Treibhaus­effekt: nach wie vor zu schwach für die Klima­katastrophe!

Der Verfasser stellt dort eine einfache Energiebilanz an der Erdoberfläche auf und umgeht damit die komplizierten und großenteils unverstandenen Vorgänge in der Atmosphäre und in den Ozeanen. Dabei ist hervorzuheben, dass sich das irdische Leben in einer extrem dünnen Grenzschicht an der Erdoberfläche abspielt, während die Atmosphäre mit der Höhe rasch lebensfeindlicher, dünner und kälter wird. Gleichzeitig hat die Erdoberfläche eine deutlich größere Wärmespeicherkapazität als die umgebende Atmosphäre. Wobei sich die Atmosphäre in der Grenzschicht im ständigen Wärmeaustausch und Temperaturausgleich mit der Erdoberfläche befindet. Ein Ansatz, dem hier in etwas geänderter und verallgemeinerter Form gefolgt wird.

Das nachfolgende Strahlungsdiagramm nach Trenberth-Kiehl beinhaltet zwar ein physikalisch merkwürdiges Phänomen, nämlich die Generierung einer starken Gegenstrahlung in der Atmosphäre, die ausschließlich nach unten strahlt. Doch findet man in der Grafik recht detaillierte Zahlenangaben:

Gemäß obiger Grafik besteht an der Erdoberfläche ein Gleichgewicht aus eingestrahlter Sonnenenergie (So) und wieder abgegebener Energie in Form von Verdunstung (Evap), Infrarotstrahlung (Erad) und Konvektion (Kon).

Dieses Gleichgewicht wird um einen zunächst unbekannten Antrieb („forcing“) X erweitert:

So + Evap + Erad + Konv + X = 0

Der Antrieb X kann dabei unterschiedliche Ursachen haben – am geläufigsten ist der zusätzliche Strahlenantrieb durch vermehrtes CO2. Der Sonnenanteil So bleibt in dieser Bilanz konstant – Änderungen bei der Einstrahlung, z.B. durch veränderte globale Bewölkung, sind im Antrieb X enthalten. Ist der Antrieb X von Null verschieden und die Kühlterme Erad, Evap und Konv ändern sich monoton mit der Temperatur, dann stellen sich Gleichgewicht und Temperatur neu ein. Aus der neuen Gleichgewichtsbilanz erhält man dann die Temperaturänderung ΔT = T – T0, abhängig vom Antrieb X. To ist dabei die global gemittelte Ausgangstemperatur mit 15 ºC bzw. 288 K. Für den Startwert T = T0 gilt X = 0.

Zu der Erwärmung der Erdoberfläche tragen bei:

Sonne:

Gemäß obiger Grafik beträgt die an der Erdoberfläche im Mittel absorbierte Sonneneinstrahlung (So), abzüglich 0,9 Watt/m2 Nettoabsorption:

So = 160 Watt/m2

Zusätzlicher Antrieb X:

Wenn man den Antrieb X ausschließlich einem CO2-Anstieg zuschreibt, dann gilt:

X = 5,35 ⋅ ln (C/Co) [Watt/m²] mit der atmosphärischen CO2-Dichte C

Dieser „Strahlungsantrieb“ entsteht der Theorie zufolge durch spektroskopische Absorption und Emission bei den Resonanzlinien des Spurengases CO2, was in diesem Wellenlängenbereich den Energietransport verlangsamt und was vorwiegend in der dichteren, unteren Atmosphäre geschieht. Die logarithmische Abhängigkeit in der Formelbeziehung für X ist Folge der spektroskopischen Sättigung des CO2 in der Atmosphäre. Der Strahlungsantrieb wächst dabei mit zunehmendem CO2 immer langsamer. Wobei die Verdoppelung der CO2-Dichte C einen zusätzlichen Strahlungsantrieb von X= 3,7 Watt/m2 generiert. Was einer Temperaturerhöhung von 1,1 Grad (einige Autoren nennen etwas höhere Werte) entspricht und als CO2-Klimasensitivität definiert ist.

Zusätzlich gibt es positive Rückkopplung oder Verstärkung, z.B. durch vermehrten Wasserdampf, das bedeutendste Klimagas. Aber auch negative Rückkopplung oder Abschwächung des Strahlungsantriebs, z.B. durch Überdeckung der Absorptionsfenster von CO2 und Wasserdampf, Abkühlung durch vermehrte Wolkenbildung und Aerosole sowie weitere Wechselwirkungseffekte in einer komplizierten, großenteils unverstandenen Atmosphäre spielen eine Rolle.

Man kann sich den Temperaturanstieg der letzten 150 Jahre auch mit natürlicher (Rück-)Erwärmung seit der Kleinen Eiszeit erklären, wie es schon bei früheren Kalt- und Warmzeiten der Fall war – ganz ohne anthropogenes CO2. Wobei allerdings die Ursachen für die damaligen Temperaturänderungen nicht bekannt sind. Auch urbane Wärmeinseleffekte, Landnutzungsänderungen, Energiefreisetzung durch die Menschen, wahrscheinlich auch der Flugverkehr und natürliche periodische Einflüsse (z.B. ozeanische Oszillationen und variierende Sonneneinstrahlung, verstärkt durch den Svensmark-Effekt) tragen bei.

Die Behauptung von Alarmforschern ist falsch, man könne sich den neuzeitlichen Temperaturanstieg nur mit anthropogenem CO2 erklären.

Die Bezeichnung „X“ wird deshalb gewählt, weil der Antrieb X einer black box ähnelt, deren Inhalte man nicht genau kennt.

Wasserdampf-Rückkopplung:

Die Rückkopplung durch zusätzlichen Wasserdampf wird in der Bezugsveröffentlichung aus nachfolgender Grafik für die spektroskopische Transmission in der Atmosphäre ermittelt:

Folgt man der zitierten Arbeit, trägt der Wasserdampf etwa 8 Watt/m2 zum Strahlungsantrieb bei – offensichtlich geschätzt anhand des atmosphärischen Fensters und der Reduktion der durchgehenden Strahlung (nach Trenberth-Kiel 40, in der Bezugsarbeit 45 Watt/m²) durch Wasserdampfabsorption und -streuung. Aufgrund von 7,5 Prozent mehr Wasserdampf pro 1 Grad Temperaturerhöhung wird demnach das Infrarot-Fenster um jeweils 0,6 Watt/m² weiter verkleinert. Was in diesem Modell der (positiven) Wasserdampf-Rückkopplung ΔR entspricht:

ΔR = 8 . (1,075 ΔT – 1) Watt/m2 mit ΔT = T – T0

Die Genauigkeit des Ansatzes soll hier nicht weiter hinterfragt werden. Von der Größenordnung her gehört ΔR zu den kleineren Beiträgen der Oberflächenbilanz. Außerdem ist die positive Wasserdampfrückkopplung ΔR ein Antrieb und in der eingangs aufgestellten Bilanz im Antrieb X mit enthalten. In den üblichen Klimamodellen verstärkt ΔR den Infrarot-Strahlungsantrieb der Klimagase und trägt dort zur Erhöhung der Klimasensitivität bei.

Kühlung der Erdoberfläche:

Verdampfung/Verdunstung:

Die in dem Strahlungsdiagramm (ganz oben) aufgeführte, relativ große Verdunstungswärme von 80 Watt/m2 lässt sich aus Niederschlagsmenge und spezifischer Verdunstungswärme offenbar recht gut ermitteln – weil sämtlicher Wasserdampf als Niederschlag und Tau zur Erde zurückkehrt.

Die Verdunstung von Wasser entzieht der Erdoberfläche Energie und transportiert diese in die höheren Atmosphärenschichten. Dort wird die Energie durch Kondensation (Wolkenbildung) wieder abgegeben und ins Weltall abgestrahlt. Durch das Abregnen der Wolken wird der Wasserkreislauf geschlossen. Für die Stabilität des Klimas ist von großer Bedeutung, dass die Verdunstungswärme stark abhängig von der Oberflächen-Temperatur der Erde ist. Diese Tatsache lässt sich an den Niederschlägen ablesen. Wir wissen, dass die Niederschläge dort am höchsten sind, wo die meiste Wärme von der Erdoberfläche abgeführt werden muss – am Äquator. Wir wissen auch, dass die Niederschläge auf der Erde mit der Erwärmung der letzten 100 Jahre zugenommen haben. Mit durchschnittlich 80 Watt/m² liefert die Verdunstung etwa 50 Prozent des Wärmetransports von der Erdoberfläche Richtung äußere Atmosphäre. Eine höhere Oberflächentemperatur führt zwangsläufig zu einer stärkeren Verdunstung weil Dampfdruck und Aufnahmefähigkeit der Luft für Wasserdampf ansteigen. Bereits ein Grad Erwärmung erhöht die Verdunstung und damit den Wärmetransport um 7,5 %. Bezogen auf den gesamten Wärmetransport von 80 Watt/m² sind das immerhin 6,0 Watt/m² zusätzlicher Kühleffekt an der Erdoberfläche. Die Verdunstung stellt also ein starkes Dämpfungsglied gegen Änderungen des Klimas dar.

Der Wärmetransport durch Verdunstung und dessen Zunahme mit der Temperatur bestimmen das Ergebnis maßgeblich. Für den Dampfdruck von Wasser lässt sich die Zunahme von etwa 7,5 % bei einem Grad Erwärmung verifizieren – z.B. hier. Bei der engl. Wikipedia heißt es: The rate of evaporation in an open system is related to the vapor pressure found in a closed system.“ Aber was bedeutet „related to“? Lassen sich die Angaben in der Bezugsveröffentlichung bestätigen?

Hilfreiche Zahlen bietet nachfolgende Pool-Tabelle, vermutlich durch Messungen ermittelt. Man sieht dort gut, wie die verdunsteten Wassermengen mit der Temperatur zunehmen, in der Regel sogar um etwas mehr als 7,5%. Dabei ist RH die Relative Luftfeuchtigkeit und DEW PT der Taupunkt, Temperaturen in Fahrenheit.

Die Temperaturschritte von 2 ºF entsprechen jeweils 1,112 ºC. 68 ºF entsprechen 20 ºC und 86 ºF 30 ºC.

Dabei ist zu beachten, dass in den Tropen und in den Regenwäldern das meiste Wasser verdunstet. Auch steigt durch Wellengang und Wind die Verdunstung deutlich an – nach folgender Tabelle bis zu einem Faktor zwei.

Hingegen dürfte über den 29% Landfläche die Verdunstung niedriger sein, regional abhängig von Bodenfeuchte und Bewaldung. Eine mittlere Zunahme von Verdunstung und Wärmetransport um 7,5% je 1 ºC Temperaturerhöhung, wie in der Bezugsarbeit angenommenen, scheinen realistisch.

Als Formelbeziehung erhält man damit:

Evap = 80 ⋅ 1,075 ΔT Watt/m2

Evap ist dabei die Verdunstungswärme, ΔT = T – T0.

In der Bezugsveröffentlichung wird der Spezialfall ΔT = 1ºC behandelt.

Strahlung:

Folgt man der Strahlungsbilanz in der ersten Grafik oben, dann werden netto 63 Watt/m2 vom Boden abgestrahlt und davon etwa 40 Watt/m2 direkt in den Weltraum (in der Bezugsarbeit 45 Watt/m2). Die restlichen 23 Watt/m2 nehmen den „Umweg“ über die Atmosphäre. Entscheidend ist aber für die Betrachtung hier, wie viel Strahlung die Erdoberfläche verlässt.

Durch einen veränderten Antrieb X ändert sich die Temperatur T = T0 + ΔT und somit auch die Wärmeabstrahlung Erad mit der 4. Potenz von T:

Erad = 63 · (T/T0)4 Watt/m²

Konvektion:

Konvektion ist der Transport thermischer Energie durch fühlbare Wärme der Luftmassen. Der Antrieb sind Dichteunterschiede. Wird die Erdoberfläche wärmer, verstärkt sich die Thermik und transportiert mehr Energie in Richtung höhere Atmosphäre. Der Anteil der Konvektion am Wärmetransport ist mit knapp 11 Prozent (gemäß TK-Grafik) gering und dürfte gemäß folgender Beziehung mit der Temperatur zunehmen:

Konv = 17 · (1 + ΔT/T0) Watt/m2 mit ΔT = T – T0 und T0 = 288 K

Naheliegend wäre jetzt, in die Oberflächenbilanz die oben aufgeführten Formelbeziehungen einzusetzen, um so die Beziehung zwischen X und ΔT auszurechnen. Einfacher und anschaulicher geht es, wenn man in nachfolgender Tabelle zeilenweise die Änderungen von X und ΔT vergleicht.

Bilanz

Eine Änderung des Antriebs X führt zu einer Temperaturänderung ΔT = T – T0 in der ersten Spalte. Mit der sich ändernden Temperatur T ändern sich auch die Kühleffekte. Es stellt sich ein neues Gleichgewicht ein, die Bilanz ist wieder ausgeglichen. Dabei kommen für den Antrieb X neben Klimagasen auch andere, z.T. natürliche Erwärmungsursachen in Betracht. Berechnet wird X aus der (negativen) Summe von So, Evap, Erad und Konv in der jeweiligen Tabellenzeile. Grundsätzlich sind auch negative Antriebe X möglich mit Temperaturrückgängen wie in der ersten Tabellenzeile, wie sie z.B. infolge bevorstehender solarer Minima eintreten könnten.

In der Bezugsarbeit wurde eine niedrige Klimasensitivität von 0,58 ºC ermittelt.

Was folgt daraus?

1) Man sieht in der Tabelle, dass der Antrieb X um ca. 7 Watt/m2 wächst für jeweils 1 Grad Temperaturerhöhung. Dabei erkennt man: Mit steigender Temperatur T = T0 + ΔT wachsen die verursachenden Antriebe X schneller als die zugehörigen Temperaturanstiege. Ein runaway-Effekt bei den Temperaturen ist deshalb nicht zu befürchten.

Bei spektroskopischer Erwärmung nur durch CO2 beträgt bei CO2-Verdoppelung der CO2-Antrieb 3,7 Watt/m2. Was in den bisherigen Klimamodellen einer Temperaturerhöhung bzw. CO2-Klimasensitivität von 1,1 Grad entspricht. Im Oberflächenmodell steigen bei einem gleichgroßen Antrieb die Temperaturen nur um 0,53 Grad – hauptsächlich als Folge der Verdunstungskühlung.

Was recht gut mit der Bezugsarbeit übereinstimmt. Berücksichtigt man ferner, dass X alle natürlichen und anthropogenen Antriebe mit enthält, dann ist eine Klimasensitivität von 0,53ºC sehr niedrig und zu vernachlässigen. Umgekehrt gilt genauso: Eine (utopische) Dekarbonisierung wird die Temperaturen kaum beeinflussen. In der Bezugsarbeit wird auf weitere Arbeiten verwiesen, die ähnlich niedrige Ergebnisse für die Klimasensitivität ermitteln.

Zur Erinnerung: Der IPCC gibt für die CO2-Klimasensitivität eine Spanne von 1,6 bis 5,6 Grad C an, aber nur mit einer Wahrscheinlichkeit von 66%. Was um eine Größenordnung höher ist.

In den letzten 150 Jahren sind die globalen Temperaturen offenbar um 1 Grad gestiegen. Das CO2 in der Atmosphäre dabei um knapp 50%, was einem CO2-Antrieb von 2,17 Watt/m2 entspräche. Dazu eine Vergleichstabelle für diesen Antrieb und den Auswirkungen auf die Temperaturen:

Bei der Rechnung gemäß Oberflächenbilanz ist noch viel Raum für weitere Antriebe wie z.B. Wasserdampf-Rückkopplung oder andere, nicht-anthropogene Antriebe. Das anthropogene CO2 alleine reicht für 1 Grad Temperaturerhöhung hier bei weitem nicht. Während der IPCC mit positiver Wasserdampf-Rückkopplung rechnet und diesen Wasserdampf-Zusatzantrieb der CO2-Klimasensitivität zuschlägt – nur das anthropogene CO2 ist alleiniger Übeltäter! Und mit seinen Computer-Klimamodellen viel zu hohe Temperaturen errechnet. Halbwegs passend wird es nur, wenn der IPCC die niedrigeren Klima-Sensitivitäten am unteren Rand seines Unsicherheitsbereichs verwendet. Auch gibt es kaum Platz für natürliche Antriebe, deren Existenz der IPCC im Wesentlichen bestreitet.

So spricht für das Oberflächenmodell unter anderem, dass die Temperaturprognosen des IPCC meist zu hoch liegen. Auch die höheren Landtemperaturen stimmen mit dem Oberflächenmodell überein, weil es an Land meist weniger Verdunstung gibt. Allerdings tragen dazu auch Wärmeinseleffekte, Landnutzungsänderungen und die Temperaturträgheit der Ozeane bei. Für das Oberflächenmodell spricht ferner, dass alle beteiligten Größen gut verstanden sind – im Gegensatz zu den Klimamodellen des IPCC.

2) Die Wasserdampf-Rückkopplung ΔR wurde in der Bezugsarbeit näherungsweise aus der Grafik oben für die spektrale Transmission in der Atmosphäre abgeleitet. Interessant ist die Größenordnung: Als Effekt zweiter Ordnung ist die (zusätzliche) Wasserdampf-Rückkopplung deutlich kleiner als der auslösende Antrieb – was plausibel ist.

3) Ein weiterer Aspekt ist bemerkenswert: Es wird der große Einfluss der Verdunstungswärme auf das Temperaturgeschehen deutlich. Mehr Verdunstung, wie es bei höherer Bodenfeuchte der Fall ist, wirkt kühlend, senkt dadurch die Temperaturen und umgekehrt.

Wenn die Herren Kowatsch und Kämpfe in Deutschland eine zunehmende Trockenheit aufgrund menschlicher Eingriffe in den Wasserhaushalt aufzeigen, dann führt die verringerte Verdunstungskühlung zu zusätzlicher Erwärmung.

Autor: Dr. Roland Ullrich ist Physiker und promovierte an der TU München über Plasmaphysik.Sein Berufsweg führte ihn von der Plasmaphysik, einem kurzen Ausflug in die Welt der Metallhydridspeicher zu einer überwiegend gutachterlichen Tätigkeit in der technisch-wissenschaftlichen Analyseabteilung einer Bundesbehörde.




Amerikaner haben vermutlich soeben ausschließlich für Elektro­fahrzeuge gestimmt

Der designierte Präsident Biden hat versprochen, dass sein 2-Billionen-Dollar-Plan zum Klimawandel „rigorose neue Kraftstoffverbrauchsstandards beinhalten wird, die sicherstellen sollen, dass 100 % der Neuverkäufe von leichten und mittelschweren Nutzfahrzeugen emissionsfreie Fahrzeuge (ZEVs) sein werden.“ Die designierte Vizepräsidentin Harris hat dazu aufgerufen, dieses Verbot bereit im Jahre 2035 in Kraft zu setzen, vielleicht sogar früher, falls sie ihren Schwung für die grundlegende Umgestaltung Amerikas beibehalten können.

Sobald der Verkauf neuer Fahrzeuge mit Benzinmotor verboten ist, stellt sich nur noch die Frage, wie lange es dauert, bis auch das Fahren solcher Fahrzeuge verboten ist. Harris hat versprochen, dass wir nach „meinem Plan bis 2045 praktisch nur noch emissionsfreie Fahrzeuge haben werden. 100% bis 2045.“

Das bedeutet natürlich null Emissionen in den USA, vorausgesetzt, dass die gesamte Stromerzeugung zum Laden der Batterien ebenfalls emissionsfrei ist – trotz enormer Emissionssteigerungen an den Orten, an denen die Batteriemineralien abgebaut und verarbeitet und die Batterien hergestellt werden (was wahrscheinlich nicht in Amerika sein wird).

Um die staatlich verordnete Transformation von 99,5% der US-Fahrzeuge, die noch nicht ZEVs sind, zu beschleunigen, plant Bidens Verbündeter Senator Chuck Schumer eine Gesetzgebung einzuführen, die Anreize oder Rabatte in Höhe von 454 Milliarden Dollar für [vom Steuerzahler aufzubringende] „Abwrackprämien“ genehmigt, um die Menschen dazu zu bewegen, benzinbetriebene Fahrzeuge durch super-teure vollelektrische Fahrzeuge (EVs) zu ersetzen. Schumers Plan beinhaltet auch den Bau einer halben Million neuer EV-Ladestationen und den Ersatz der gesamten US-Regierungsfahrzeugflotte durch EVs.

Das ist fast ein Viertel von Bidens 2-Billionen-Dollar-Klimaplan. Der Rest des massiven Green New Deal (GND) wird wahrscheinlich mindestens Bernie Sanders‘ 16-Billionen-Dollar-Plan kosten, wenn nicht noch weit mehr.

Seit Henry Ford 1913 das Fließband für sein Modell T einführte stand Amerika nicht mehr vor einem solchen Wandel im Transportwesen. Der große Umstieg auf eine reine E-Flotte wird ebenso massive Veränderungen in der amerikanischen Gesellschaft bewirken, neue Gewinner und neue Verlierer hervorbringen, den Besitz eines Fahrzeugs für arme und sogar Mittelklasse-Familien fast unmöglich machen und das Gleichgewicht der Weltmacht von Ländern, welche die „Versorgung mit Öl zu Marktpreisen“ sicherstellen, zu denen verschieben, die GND-Mineralien abbauen (hauptsächlich China und Russland).

Der Big Switch ist schon seit Jahren in Arbeit. Bereits 2017 hatten viele Länder Termine für das Verbot von Verbrennungsmotoren angekündigt. Norwegen sagte, das Datum 2025 sei nur ein „Vorschlag“, aber Deutschland, Frankreich und das Vereinigte Königreich setzten „feste“ Daten und planten das Jahr 2040, während die Niederlande die Beerdigung auf 2030 verschoben. Österreich, Dänemark, Irland, Japan, Portugal, Südkorea und Spanien legten ebenfalls Termine fest, ebenso wie Indien – und mehrere amerikanische Bundesstaaten wie (natürlich) Kalifornien.

Große Autohersteller versprachen auch, die Produktion von ICE-Fahrzeugen bald zu beenden, obwohl Umfragen aus dem Jahr 2017 zeigen, dass nur 30 % von Personen in mittlerem Alter (und ein viel geringerer Prozentsatz der älteren Fahrer) bereit waren, in ein Elektrofahrzeug zu „investieren“. Und das, obwohl Studien des Ökonomen Tilak Doshi und anderer zeigen, dass ein typisches Elektroauto selbst nach 50.000 Kilometern auf der Straße effektiv etwa 76 % so viel Kohlendioxid ausgestoßen hat wie ein benzinbetriebenes Fahrzeug.

Das liegt daran, wie der Ökonom Bjorn Lomborg erklärt, dass die Batterien von Elektroautos das Produkt von emissionsintensiven Bergbau-, Mineralienverarbeitungs- und Herstellungsprozessen sind, und dass der Strom zum Aufladen der Batterien oft zusätzliche CO2-Emissionen mit sich bringt.

Der Begriff „Null-Emissions-Fahrzeuge“ ist offensichtlich eine absichtlich falsche Bezeichnung [in deutscher Übersetzung beim EIKE hier], da die Emissionen lediglich von den reichen westlichen Ländern in andere Nationen verlagert werden, wo sie stetig steigen.

Der Big Switch wird in einigen Sektoren Arbeitsplätze schaffen. Aber er wird auch zu einem erheblichen Rückgang von Arbeitsplätzen in der Öl- und Gasindustrie führen, zu sinkenden Umsätzen für Convenience Stores, die vom Benzinverkauf profitieren, und zu erheblichen Kostensteigerungen bei der Herstellung von Petrochemikalien, Pkw- und Lkw-Reifen, Dachschindeln, Kunststoffen, Arzneimitteln und einer Vielzahl anderer Konsumgüter, die auf Öl und Gas als Rohstoffe angewiesen sind.

All das bedeutet auch enorme Einbußen bei Pachtprämien, Mieten, Lizenzgebühren und Steuereinnahmen für die Staaten, die fossile Brennstoffe fördern.

Vorschriften für Elektrofahrzeuge werden auch der Autoreparatur- und Versicherungsbranche schaden. Ein EV-Antrieb hat etwa 20 bewegliche Teile, verglichen mit bis zu 2.000 bei Benzin-Fahrzeugen. Allerdings sind diese Teile tendenziell teurer und (zumindest in naher Zukunft) weniger leicht verfügbar. Das bedeutet, dass E-Fahrzeuge, die repariert werden müssen oder neue Teile benötigen, länger in den Werkstätten stehen werden. Werden die Versicherer diese zusätzlichen Kosten übernehmen?

Der „Big Switch“ wird auch große Veränderungen in der Steuerpolitik für die lokalen und staatlichen Regierungen sowie die [US-]Bundesregierung bedeuten, die alle stark auf die Benzinsteuern angewiesen sind, um die Instandhaltung und Reparatur der Autobahnen zu finanzieren. Die Steuer in Höhe von 18,4 Cent pro Gallone fließt in den Highway Trust Fund, der einen großen Teil davon bezahlt (mit einer separaten kleinen Steuer, die die Sanierung von undichten unterirdischen Kraftstofftanks abdeckt).

Wird Washington einen Weg finden, diese entgangenen Einnahmen zu ersetzen, wenn die Benzinverkäufe weiter zurückgehen?

(Verwandte Fragen: Wie werden fahrerlose Fahrzeuge mit all den wuchernden, sich ausbreitenden und tiefer werdenden Schlaglöchern umgehen? Und was wird mit Familien-Urlaubern in Autos passieren, die für jede halbe Stunde Fahrt stundenlang aufgeladen werden müssen? Was bedeutet das für unsere Tourismus- und Gastgewerbebranche sowie unsere Grundfreiheiten?).

Autobahnen, die von staatlichen und lokalen Benzinsteuern unterhalten werden, sind bereits von sinkenden Einnahmen bedroht – dank EVs, Hybriden und ICE-Fahrzeugen mit höherer Kilometerleistung – und dank der Pandemie 2020, die das Fahren auf Autobahnen im April 2020 um 64 % und auch danach deutlich reduziert hat. Einige Staaten erhöhen die Zulassungsgebühren für Elektrofahrzeuge: In Alabama beträgt sie nun 200 Dollar für EVs und 100 Dollar für Plug-in-Hybride (ein Viertel davon wird für die Finanzierung von EV-Ladestationen verwendet), während Kalifornien im vergangenen Juli eine jährliche EV-Gebühr von 100 Dollar eingeführt hat.

Das ist noch nicht alles. Heutzutage kann man ein älteres benzinbetriebenes Fahrzeug, das die Inspektion besteht, für weit unter 2.000 Dollar kaufen. Batterien für diese Fahrzeuge kosten unter 200 Dollar, und viele wirklich ältere Fahrzeuge können von Amateurmechanikern repariert werden. Im Gegensatz dazu kann der Austausch einer EV-Batterie bis zu 6.000 Dollar (oder viel mehr) kosten, was selbst gebrauchte Elektrofahrzeuge für Millionen von Amerikanern unerschwinglich macht, in einer Nation, in der die Hälfte aller Fahrzeuge älter als zehn Jahre ist.

In der Zwischenzeit bauen China, Indien und Dutzende anderer Länder Tausende von neuen Kohle- und Gaskraftwerken – und bringen Millionen neuer Benzin- und Diesel-Fahrzeuge auf ihre Straßen. Es wird also keine Reduktion der globalen Emissionen geben, was bedeutet, dass all diese Belastungen und Störungen in den USA absolut keinen Nutzen bringen werden, selbst falls CO2 den Klimawandel antreibt.

Noch im Jahr 2017 sagten Branchenexperten, dass der Anteil der E-Fahrzeuge bis 2050 weltweit nur 25 % betragen wird. Die Menschen in anderen Ländern wollen und können sie sich auch nicht leisten.

Ebenso bedeutsam ist, dass der Biden-Harris-Plan auch einen vollständigen Ausstieg aus fossilen Brennstoffen für die Stromerzeugung vorsieht – zusammen mit dem erheblichen Anstieg des Stromverbrauchs, der benötigt wird, um E-Fahrzeuge in Bewegung zu halten. Selbst falls Biden, Harris, Demokraten und Grüne die Kernenergie als „erneuerbaren“ (oder zumindest emissionsfreien) Brennstoff akzeptieren, wird es Jahrzehnte dauern, genügend neue Kernkraftwerke zu bauen.

Aber wann haben Moskau oder Peking jemals alle, die meisten oder auch nur einige Ziele ihrer Fünf-Jahres-Pläne erfüllt? Glaubt wirklich jemand, dass eine zentralisierte staatliche Planung hier besser funktionieren wird? Noch entscheidender:

Werden wir, das Volk, in der Lage sein, diese Themen in öffentlichen Foren anzusprechen und zu diskutieren? Werden die republikanischen Mitglieder des Kongresses irgendeine sinnvolle Möglichkeit haben, dies während der Anhörungen im Ausschuss oder in den Debatten im Plenum zu tun?

Oder werden wir alle nur abgewürgt, zensiert, zum Schweigen gebracht und in die Unterwerfung in den neu progressiven, intoleranten und geteilten Staaten von Amerika getrieben – inmitten von mehr verlogenen Rufen nach Einigkeit und Mitgefühl?

[Originally posted on Townhall]

Link: https://www.heartland.org/news-opinion/news/americans-supposedly-just-voted-for-only-electric-vehicles

Übersetzt von Chris Frey EIKE

 




Die Gefährdung durch fossile Treibstoffe

Die mächtigen Vorteile fossiler Brennstoffe wurden in den letzten vier Jahrzehnten weitgehend ignoriert, da der Fokus der Öffentlichkeit so sehr auf Ihrem Kohlenstoff-Fußabdruck lag. Dieser ist definiert als die Menge an Energie aus fossilen Brennstoffen, die pro Person verbraucht wird. Es ist eine völlig betrügerische Panikmache in Bezug auf die Ressource, die Amerikas herausragenden Lebensstandard ermöglicht hat. Die Verbrennung von Erdöl eines Autos verbraucht weniger Energie, belastet weniger Land und stößt weniger Kohlendioxid aus als die Verbrennung eines Biokraftstoffs wie Mais-Äthanol. Aber wir sollten keinesfalls eine Aussage über Kohlendioxid machen, die es als gefährliches Gas darstellt. Das ist es nicht.

Die EPA hat den Supreme Court belogen, um ihn davon zu überzeugen, dass Kohlendioxid ein Schadstoff ist. Ist es aber nicht. Es ist der Atem des Lebens, der es uns allen ermöglicht, das Leben auf dem Planeten Erde zu genießen. Wir können noch einen Schritt weiter gehen und sagen, dass unser Kohlendioxid-Fußabdruck tatsächlich unseren physischen Fußabdruck auf der Erde verkleinert.

Das Ersetzen der auf fossilen Brennstoffen basierenden Stromerzeugung durch Wind- und Solarenergie würde massive Mengen an Land und die Zerstörung natürlicher Lebensräume im Gegenzug für weniger Energieeffizienz erfordern. Dies ist leider das, was unsere neue Regierung fordert – und sie wird es wahrscheinlich für die Dauer ihrer Amtszeit fordern.

Während die Uninformierten, falsch Informierten und diejenigen, die wissentlich lügen, Wind und Solar für sauber halten, ist dies natürlich nicht der Fall. In ihrem Buch Fueling Freedom geben die Autoren Steve Moore und Kathleen Hartnett White an, dass ein durchschnittlicher Windpark 460 Tonnen Stahl und 870 Kubikmeter Beton für jedes Megawatt verbraucht, das er produziert. Im Gegensatz dazu verbrauchen Erdgas-Kombikraftwerke etwa 3 Tonnen Stahl und 27 Kubikmeter Beton.

Deutschlands Energiewende hin zu Wind und Sonne hat nun dazu geführt, dass Dutzende neuer Kohlekraftwerke gebaut werden müssen*, um den Kapazitätsbedarf der Bevölkerung aufzufangen. Aufgrund der unsteten Wind- und Sonnenenergie haben sich die Stromkosten dort verdreifacht.

[*Das steht so im Original. Aber werden denn bei uns wirklich neue Kohlekraftwerke gebaut? Oder hat der Autor die Aussage im Konjunktiv gemeint? Anm. d. Übers.]

Jede Diskussion über Energie und Umwelt kommt früher oder später auf die Environmental Protection Agency (EPA) zu sprechen, die durch Präsident Nixons Dekret* im Jahr 1970 gegründet wurde. Heute ist sie eine der mächtigsten, ungezügelten und politisierten Behörden der Bundesregierung. Der Autor dieses Beitrags diente ihr in den 1970er Jahren als Berater, als ein ausgezeichnetes Sicherheitsnetz von Umweltschutzmaßnahmen geschaffen wurde. Alles änderte sich 1980, als 40 Jahre lang immer mehr radikale Aufrührer begannen, die nun 10.000 Mitarbeiter starke Behörde zu besetzen. Obamas Regierung verabschiedete Dutzende von wirtschaftlich erstickenden Regeln, die keinerlei Nutzen für die öffentliche Gesundheit oder die Umwelt hatten.

[*Executive Order, kann ohne es dem Parlament vorzulegen vom Präsidenten angeordnet werden. Biden scheint in dieser Hinsicht Weltmeister werden zu wollen. Anm. d. Übers.]

Während Trump sich über viele Einschränkungen hinwegsetzte, hielt der tiefe Staat an allem fest, was mit dem Klimawandel oder Energie zu tun hatte. Dr. Will Happer, ein renommierter Wissenschaftler, der sich jetzt auf unser Klima konzentriert, verbrachte ein Jahr im Whitehouse und beriet Trump. Er trat zurück, nachdem er die Macht der radikalen Mitarbeiter des tiefen Staates erkannt hatte, um vernünftige Revisionen der Klimapolitik zu vereiteln. Sie haben technische Realitäten, solide Wissenschaft und menschliche Belange verachtet.

Die Macht der EPA kann unter der neuen Regierung, die sich damit brüstet, dass der Klimawandel eine existenzielle Bedrohung für die Welt ist, um eine Größenordnung wachsen. In der Tat ist das eine existenzielle Bedrohung, nicht wegen der Temperatur der Erde, sondern wegen des Versuchs der Regierung, die Bürger zu kontrollieren, wenn nicht gar zu versklaven, indem sie die ihnen zur Verfügung stehende Energie begrenzt. Dies wird letztendlich eine Energierationierung erfordern.

[Hervorhebung vom Übersetzer]

Kohlendioxid als Schadstoff zu bezeichnen, ist eine der absurdesten Unterstellungen der Klimawandel-Lobby. Tatsächlich war der Gedanke, dass das Hinzufügen von Kohlendioxid zu unserer Atmosphäre das Leben gefährdet, vom ersten Tag an lächerlich. Geld, Macht und die Kontrolle der Medien über den Dialog haben das Unmögliche für eine wissenschaftlich eingeschränkte Öffentlichkeit möglich erscheinen lassen. Als jemand, der über 6 Jahrzehnte damit verbracht hat, sich mit unseren Energieressourcen zu beschäftigen, glaube ich, dass der vom Menschen verursachte Klimawandel-Betrug nicht weniger unbegründet ist, als wenn die Linke darauf bestanden hätte, dass wir aufhören, die Mineralien der Erde abzubauen, aus Angst, dass wir die Masse der Erde so reduzieren würden, dass ihre Anziehungskraft abnehmen und wir alle davon schweben würden.

[Hervorhebung vom Übersetzer]

Die EPA hat einen langen Weg zurückgelegt, um den Traum von Al Gore zu verwirklichen, die Umwelt zum „Organisationsprinzip der Gesellschaft“ zu machen. Ein Plan, den Herr Gorbatschow nach seinem Ausscheiden aus der Führung der Sowjetunion übernommen hat.

Unter der Obama-Regierung erfand die EPA eine riesige Masse von Gesundheitsrisiken, um strengere Regulierungen zu rechtfertigen. Der Klimawandel ist die Mutter von ihnen allen.

Viele Menschen glauben immer noch, dass Wirtschaftswachstum zu einer Verschlechterung der Umwelt führt, obwohl das Gegenteil schon immer der Fall war. Die Verbesserung der Umweltbedingungen und das Wirtschaftswachstum in den USA gingen im letzten halben Jahrhundert Hand in Hand, da mehr Geld zur Verfügung stand, um unsere Luft, unser Wasser und unseren Boden qualitativzu verbessern. Eine Geschichte, die in den Mainstream-Medien nicht erzählt wird. Ein Zeitraum, in dem sich der Verbrauch fossiler Brennstoffe verdoppelt hat.

Erschwingliche Elektrizität hat das menschliche Wohlergehen im 20. Jahrhundert stärker verbessert als jede andere Technologie. Dennoch hat weit über eine Milliarde Menschen auf der Welt noch nie einen elektrischen Lichtschalter gesehen. Die Politik, die jetzt von der Weltbank, dem Internationalen Währungsfonds und unserer eigenen Regierung durchgesetzt wird, begrenzt oder verbietet die Finanzierung von erschwinglicher, mit fossilen Brennstoffen betriebener Stromerzeugung in Entwicklungsländern.

Diese elitäre grüne Perspektive verweigert den ärmsten Familien der Welt auf grausame Weise die Grundversorgung mit Licht, Wärme und Kühlung, von der Gesundheit und Wohlbefinden abhängen.

Hinweis: Teile dieses Artikels wurden mit Genehmigung der Autoren Steven Moore und Kathleen Hartnett White aus dem Buch FUELING FREEDOM entnommen. Es ist nach Meinung der Autoren die beste Informationsquelle über die Energieressourcen unserer Nation.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2021/01/19/the-endangerment-of-fossil-fuels/

Übersetzt von Chris Frey EIKE




Grönländi­sche Eisdecke schmilzt aufgrund geother­mischer Aktivitäten von unten her

Der Gakkelrücken [2] ist eine gigantische Kette von Unterwasservulkanen, die sich 1.800 Kilometer unterhalb des arktischen Ozeans von der Nordspitze Grönlands bis nach Sibirien zieht. Mit seinen tiefen Tälern und seinen Gipfeln (5.000 Metern über dem Meeresboden) ist er mächtiger als die Alpen.

Ins Deutsche übersetzt schreibt Kamis [1]: „Klimaforscher, die die Theorie der vom Menschen verursachten globalen Erwärmung befürworten, behaupten seit vielen Jahren, dass die beschleunigte Schmelzrate des arktischen Meereises im Zeitraum 1999-2007 ausschließlich auf vom Menschen verursachte CO2-Emissionen zurückzuführen ist, die die Atmosphäre schnell erwärmten. Dieses ungewöhnliche Schmelzen der Arktis war größer als die Schmelzrate, die mit der anhaltenden und sehr normalen Schmelzrate der Erde nach der Eiszeit von 11.500 Jahren verbunden ist. Viele Klimaforscher haben sich widerwillig an diese vom Menschen verursachte Erwärmung der Atmosphäre gehalten, obwohl verschiedene und überzeugende Datenmengen diese Hypothese jetzt ernsthaft in Frage stellen.

Den meisten Wissenschaftlern ist klar, dass nicht-atmosphärische Naturkräfte die dominierende Rolle bei der Ausdehnung und Dicke des Meereises spielen, wie bekannte Variationen der astronomischen Umlaufbahnmuster der Erde, langfristige zyklische Änderungen der Strömungsmuster der Tiefsee und vor allem Variationen in geologisch induzierter Wärme und chemisch verursachtem Flüssigkeitsstrom aus Tiefseefeldern und Vulkanen.

Das kleine geologisch induzierte Wärme- und Flüssigkeitsströmungsereignis in der Tiefsee vom 12. Oktober zeigt auf überzeugende Weise, dass geologische Kräfte immer noch aktiv sind und die Energie haben, das arktische Klima zu verändern und Meereis zu schmelzen.

Denken Sie daran, dass dieses jüngste Ereignis vom 12. Oktober nicht mit Erdbeben und Vulkanausbrüchen verbunden war, wie dies während des Ereignisses von 1999 bis 2007 der Fall war. Dieses frühere Ereignis war gewaltig, aber für diejenigen, die seine wahre Natur nicht verstanden hatten, nicht maßgeblich. Obwohl es mit einer Folge ausgedehnter Erdbeben geringer Intensität, einer enormen Methanfreisetzung und einer bedeutenden Reihe von Vulkanausbrüchen entlang des Gakkelrückens verbunden war, wurde und wird es von den meisten Klimaforschern, die die Theorie der vom Menschen verursachten Erderwärmung befürworten, als unbedeutend für die Erwärmung abgetan.

Viele andere Wissenschaftler erkennen jedoch jetzt, dass das Gakkel Ridge-Ereignis von 1999 bis 2007 und der chemisch verursachte Flüssigkeitsstrom die Hauptursache für die Beschleunigung der Schmelzrate des arktischen Meereises waren. Diese Erkenntnis passt gut zur Theorie der Plattenklimatologie, dass geologische Kräfte das Klima stark beeinflussen.“ (Ende des Zitats)

Eine am 7. Dezember 2020 veröffentlichte Studie der Tohoku Universität [3] kommt ebenso zu dem Ergebnis, dass das Grönländische Eisschild von unten her durch geothermische Aktivitäten geschmolzen wird. Im Bericht ist die Rede von einer heißen „Mantel-Wolke“ (mantle plume).

Im Lexikon der Geowissenschaften wird mit Mantelwolke das diapirartige Aufdringen von heißem Material durch den Erdmantel. Eine Wolke hat seinen Ursprung an der Grenze zwischen dem Erdkern und Erdmantel. Hot spots werden als vulkanischer Ausdrucks dieser schlauchartig den Erdmantel durchsetzenden Strömungskörper angesehen. Aus der seismologischen Tomographie zeigt sich, dass sie im Erdmantel im allgemeinen eine Breite von 100-200 km haben. Während des Aufstiegs verstärkt sich insbesondere der positive Temperaturkontrast zum umgebenden Mantelgestein. Soweit zur Aufklärung der Mantel-Wolke.

„Das Wissen über die grönländische Wolke wird unser Verständnis der vulkanischen Aktivitäten in diesen Regionen und die Frage des globalen Anstiegs des Meeresspiegels, der durch das Schmelzen der grönländischen Eisdecke verursacht wird, verbessern “, sagte Dr. Genti Toyokuni, Mitautor der Studien.

Eine Kartenansicht der P-Wellengeschwindigkeitstomographie in 5 km Tiefe unter Grönland und den umliegenden Regionen (links). Blaue und rote Farben bezeichnen Störungen mit hoher bzw. niedriger Geschwindigkeit, deren Maßstab (in%) neben der Karte angezeigt wird. Die weiß gepunkteten Linien sind die Wärmespuren der Island- und Jan Mayen-Federn, die von der grönländischen Wolke betroffen sind. In dem von den schwarz gepunkteten Linien umgebenen Bereich befindet sich die Strömung, die durch Schmelzen am Boden der Eisdecke verursacht wird (Nordostgrönland-Eisstrom). Die Wasserquelle befindet sich am Schnittpunkt der beiden Wärmespuren. Ein vertikaler Querschnitt der Ganzmanteltomographie durch Zentralgrönland und Jan Mayen (rechts). Wir können sehen, dass die grönländische Wolke die Wärmequelle für den Jan Mayen-Vulkan ist. Bildnachweis: Tohoku University

Die Nordatlantikregion ist voller geothermischer Aktivitäten. Island und Jan Mayen enthalten aktive Vulkane mit eigenen Mantelwolken, während Spitzbergen – ein norwegischer Archipel im Arktischen Ozean – ein geothermisches Gebiet ist. Der Ursprung dieser Aktivitäten und ihre Vernetzung sind jedoch weitgehend unerforscht.

Das Forscherteam entdeckte, dass die grönländische Wolke von der Kern-Mantel-Grenze zur Mantelübergangszone unter Grönland aufstieg. Die Wolke hat auch zwei Zweige im unteren Mantel, die in anderen „Zweigen“ der Region münden und die aktiven Regionen in Island und Jan Mayen sowie das geothermische Gebiet in Spitzbergen mit Wärme versorgen.

Ein schematisches Diagramm, das die wichtigsten tektonischen Merkmale und Mantelwolken unter Grönland und den umliegenden Regionen zeigt. Vp = P Wellengeschwindigkeit; MAR = der mittelatlantische Rücken; MTZ = Mantelübergangszone (410-660 km Tiefe); CMB = die Kern-Mantel-Grenze in 2889 km Tiefe. Bildnachweis: Tohoku University

Die Ergebnisse basieren auf Messungen der seismischen 3D-Geschwindigkeitsstruktur der Kruste und des gesamten Mantels unter diesen Regionen. Um die Messungen zu erhalten, verwendeten sie eine seismische Topographie. Zahlreiche Ankunftszeiten seismischer Wellen wurden invertiert, um 3DBilder der unterirdischen Struktur zu erhalten. Die Methode funktioniert ähnlich wie ein CT-Scan des menschlichen Körpers, heißt es im Bericht.

Das 2009 ins Leben gerufene Projekt sieht die Zusammenarbeit von Forschern aus 11 Ländern vor. Das gemeinsame Team zwischen den USA und Japan ist hauptsächlich für den Bau und die Wartung der drei seismischen Stationen auf dem Eisschild verantwortlich

  1. Kamis, James Edward, „Heat from deep ocean fault punches hole in arctic ice sheet”, Plate Climatology, 6.

Nov. 2015 http://www.plateclimatology.com/heatfromdeepoceanfaultpunchesholeinarcticicesheet/

  1. https://de.wikipedia.org/wiki/Gakkelrücken

[3] http://www.tohoku.ac.jp/en/press/greenland_plume_drive_thermal_activities.html?mc_cid= fb29760038&mc_eid=2560bc397b

Link: http://www.ageu-die-realisten.com/

 




Wie das Wettrennen um ,Erneuerbare‘ die europäischen Wälder niederbrennt

Eine Umstellung auf die Verbrennung von Holz in Form von Pellets scheint eine einfache und theoretisch kohlenstoffneutrale Alternative zu Kohlekraftwerken zu sein, denn Bäume nehmen beim Wachstum Kohlendioxid aus der Luft auf. Solange die verbrannten Bäume durch Neupflanzungen ersetzt werden, kommt es zu keinem Nettozuwachs des Kohlenstoffbestands in der Atmosphäre.

Dieser Prozess der Kohlenstoffaufnahme kann jedoch viele Jahrzehnte dauern. Und im Ofen setzt die Verbrennung von Holz mehr Kohlendioxid pro Energieeinheit frei als die Verbrennung von Gas, Öl oder sogar Kohle. Durch die kurzfristige Beschleunigung der Kohlendioxid-Emissionen könnte die Verbrennung von Holz zur Stromerzeugung fatal für die Fähigkeit der Staaten sein, das Ziel des Pariser Abkommens zu erreichen, die globale Erwärmung bis 2050 auf deutlich unter 2C zu halten.

Die Nachfrage nach holzartiger Biomasse oder Energie aus Holz als Alternative zu Kohle in Kraftwerken nahm ab 2009 Fahrt auf, als die erste EU-Richtlinie für erneuerbare Energien die Mitgliedsstaaten verpflichtete, bis 2020 20 % der Energie aus erneuerbaren Quellen zu beziehen und Biomasse-Energie als Kohlenstoff-neutral einstufte.

Ein Fehler in der Gesetzgebung bedeutete, dass holzige Biomasse vollständig als erneuerbar kategorisiert wurde, selbst falls sie nicht nur aus Holzresten oder Abfällen, sondern von ganzen Bäumen stammte. Dies bedeutete, dass Unternehmen im Namen einer nachhaltigen Waldbewirtschaftung direkt Wälder für Pellets abholzen konnten – anstatt Pellets aus den Nebenprodukten von für andere Zwecke geschlagenem Holz herzustellen.

Als die EU im Jahr 2018 den Einsatz von erneuerbaren Energien bis 2030 verdoppeln wollte, warnten Wissenschaftler das Europäische Parlament, dass dieses Schlupfloch in den Nachhaltigkeitskriterien der überarbeiteten EU-Gesetzgebung die Klimakrise beschleunigen und alte Wälder zerstören würde. Doch gegen die konkurrierenden Interessen der milliardenschweren Biomasse-Lobby wurde das Gesetz nicht geändert.

In fast allen europäischen Ländern ist ein Anstieg des Holzeinschlags für Energie zu verzeichnen. Fast ein Viertel der in der EU geernteten Bäume wurde 2019 für Energiezwecke gefällt, im Jahr 2000 waren es noch 17 %.

Biomasse, von der Holz aus Wäldern die Hauptquelle ist, macht jetzt fast 60% der erneuerbaren Energieversorgung der EU aus, mehr als Solar- und Windenergie zusammen, und eine riesige grenzüberschreitende Industrie ist entstanden, um diese Nachfrage zu decken.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/how-the-race-for-renewables-is-burning-europes-forests/

Übersetzt von Chris Frey EIKE




Bidens erster destruktiver Tag

Marc Morano von CFACT reagierte schnell und trat heute Morgen bei Fox and Friends auf, um die Fakten zu drei der schlimmsten zu erläutern:

Wiedereintritt in das UN-Klimaabkommen von Paris

● Blockieren der Ölförderung in Alaskas ANWR

● Annullierung der Genehmigung für die Keystone XL-Pipeline

„Das wird Mittelamerika in den Ruin treiben“, sagte Marc, „und es wird das Klima nicht ein bisschen ändern. Wir sind also wieder da, wo wir unter Präsident Obama waren, mit noch mehr Klimatrickserei. Die Energiekosten werden steigen… Amerika ist unter Präsident Trump, der eine sehr aggressive Pro-Inlands-Energiepolitik verfolgte, nicht nur Energie-unabhängig geworden, wovon die Politiker seit Jahrzehnten reden, sondern Energie-dominant. Zum ersten Mal, seit Harry S. Truman Präsident war, hatten wir mehr Energieexporte als Importe.“

Sehen Sie Marcs vollständiges Interview bei Climate Depot. Statt sein Land zu einen sorgte er für weitere Spaltung.

Bidens Anti-Energie-Anordnungen werden allen Amerikanern unnötig schaden. Sie sind auch ein schwerer Schlag ins Gesicht von Leuten, von denen man denken würde, dass Biden sie als Verbündete haben möchte. Die Gewerkschaften und Kanadas linker, klimafreundlicher Premierminister Justin Trudeau zählten auf den Fluss von kanadischem Öl über Keystone XL, um Tausende von dringend benötigten, gut bezahlten Arbeitsplätzen in einer Zeit der Krise zu schaffen.

China erhielt ein ungerechtfertigtes Geschenk eines industriellen und militärischen Vorteils.  Amerikas ernsthaftester Konkurrent kann sich nun darauf freuen, dass Kanadas Öl auf Tankern über den Pazifik fließt, anstatt über die sicherere, sauberere und effizientere Pipeline nach Süden in die USA.

Traurigerweise wird dieser Angriff auf Amerikas Energieversorgung keinen nennenswerten Nutzen für das Klima oder die Umwelt haben.

Das ist der Weg, um Amerika sowie unsere engsten Freunde in die Niederlage zu treiben, Joe – mit dem Schwingen eines Stiftes

————————————

Im Original folgt jetzt eine lange Liste der Verordnungen und Dekrete, die Biden gleich an seinem ersten Arbeitstag unterzeichnet hat.

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president.

Link: https://www.cfact.org/2021/01/21/bidens-destructive-first-day/

Übersetzt von Chris Frey EIKE




Wanderndes Wasser

Zufälligerweise hatte ich gerade die Ergebnisse der ECMWF-Reanalyse für das sogenannte „TPW“ heruntergeladen, das gesamte niederschlagbaren Wasser in der Atmosphäre. Dieser Parameter beschreibt, wie viele Kilo Wasser sich in der Luftsäule über jedem Quadratmeter der Oberfläche befinden. Die Ergebnisse umfassen den Zeitraum von 1979 bis Mitte 2019.

Hier also zunächst einmal der vieljährige Durchschnitt des niederschlagbaren Wassers in der Atmosphäre.

Sieht einfach aus, oder? Man kann den tropischen Regengürtel oberhalb des Äquators sehen. Wie man sich vielleicht vorstellen kann, ist dort die Gesamtmenge des niederschlagbaren Wassers am höchsten, denn ohne niederschlagbares Wasser gibt es keinen Niederschlag. Wir müssen also nur messen, wie weit sich dieser Regengürtel bewegt …

Aber wie stabil ist der tropische Regengürtel? Nun … nicht sehr. Hier ist ein Film über die monatlichen Durchschnittswerte der Regenmuster:

Wie man sieht ist der Regengürtel ziemlich mobil, und dabei sind das hier nur monatliche Durchschnittswerte. Es sieht immer noch so aus, als ob es irgendwie vorhersehbar wäre … aber das sind immer noch Durchschnittswerte.

Die einzelnen Monate sind jedoch sehr unterschiedlich. Hier sind ein paar Jahre mit individuellen monatlichen Änderungen:

Also trotz der Tatsache, dass sie 27 Klimamodelle verwendet haben, und trotz der Tatsache, dass jedes einzelne der Modelle „das Neueste vom Neuen“ war, trotz der Tatsache, dass es keine „durchschnittlichen“ oder „guten“ Modelle gab, trotz der Tatsache, dass nicht einmal eines der Modelle die Technologie von gestern verwendet hat, geschweige denn die von vorgestern, und trotz der Tatsache, dass alle 27 Klimamodelle alles einbezogen haben und alle zu einer Schlussfolgerung kamen … Ich fürchte, ich werde null Vertrauen in ihre Ergebnisse setzen. Es tut mir leid, aber das ist ein ernsthaft chaotisches System, und die Idee, dass wir es bis zum Jahr 2100 projizieren können, ist ein Witz.

Nun, ich habe die TPW-Daten eigentlich für einen anderen Zweck bekommen, also werde ich das hier lassen. Ich konnte die lächerlichen Behauptungen der UCI-Forscher einfach nicht unwidersprochen stehen lassen. Ich glaube nicht, dass man solch chaotische Systeme wie die globale Niederschlagsverteilung achtzig Jahre in die Zukunft modellieren kann. Wir können uns an der glorreichen Macht der Gewitter erfreuen, wir können staunen über die Komplexität dieser monumentalen Wärmekraftmaschine, die wir „Klima“ nennen … aber die Details bis zum Jahr 2100 vorhersagen?
Das Wort, das mir für die Idee in den Sinn kommt, dass wir die Zukunft des Regengürtels im Jahr 2100 vorhersagen können, ist nicht „Wissenschaft“ … es ist „Hybris“.
PS – Einige mögen sagen: „Das ist das gesamte niederschlagbare Wasser, nicht der Niederschlag“. Und das ist wahr. Allerdings gibt es keinen Niederschlag ohne niederschlagbares Wasser, so dass ihre Verteilungen eng miteinander korreliert sind … und ich habe keinen globalen Niederschlagsdatensatz. Ich habe jedoch einen Film, den ich vom Niederschlag gemacht habe, so dass Sie den Regen und das niederschlagbare Wasser selbst vergleichen können. Er ist von der Tropical Rainfall Measurement Mission, deckt also nur die Tropen plus ein bisschen ab. Hier ist er:

Was für ein Planet! …

Link: https://wattsupwiththat.com/2021/01/19/wandering-water/

Übersetzt von Chris Frey EIKE

Hinweis: Die Abbildungen 3 bis 5 sind animierte Graphiken. Falls das hier nicht sichtbar wird, bitte im Original schauen. Anm. d. Übers.]

Anmerkung von Dipl.-Met. Christian Freuer: Der Parameter „Precipitable Water“ oder PPW wird auch bei uns in der Wettervorhersage genutzt. Er dient dazu, die Stärke potentieller Gewitter abzuschätzen. Hohe PPW-Werte geben aber keinen Aufschluss darüber, ob sich tatsächlich auch Gewitter bilden, sondern nur, wie viel Regen ggf. in wie kurzer Zeit fallen kann, was dann in die entsprechenden Warnungen einfließt.