1

Gibt es genug Platz für die Energiewende in Deutschland??

Gemäß dem Koalitionsvertrag wollen wir in Deutschland bis 2050 unseren Energieverbrauch im Vergleich zum Jahr 2017 halbieren und unsere Energie also nur in der Form eines CO2-frei hergestellten Stroms beziehen. Wer den Rechenweg nachvollziehen möchte, lese bitte hier weiter:
https://sway.office.com/vrjxC4G0fhC1ACi6?ref=Link

Berücksichtigt wurde für diese Berechnung, der bereits vorhandene Bestand an den sog. Erneuerbaren bzw. deren Stromproduktion im Jahr 2018.

Wir rechnen nicht mit dem Primärenergieverbrauch, sondern mit nennen wir sie mal „Nettoenergie“. Wir gehen von keinen Umwandlungsverlusten aus.

Bei dieser Berechnung geht es uns nicht darum ganz genau zu sein, sondern ein plastisches Bild zu vermitteln. Es wird immer nur von MW / MWh oder GW / GWh geschrieben, von Gigatonnen CO2 etc. ohne, dass man sich vorstellen kann. Wie viele Anlagen egal welcher Art sich hinter diesen Zahlen verbergen.

Ich erlaube mir vorzuschlagen, dass sich jeder einen kleinen Spickzettel macht, auf dem einige Schlüsselzahlen notiert sind, um in Diskussionen stets gewappnet zu sein.

Zum Schluss noch ein Vorschlag. Letztes Jahr habe ich auch eine kleine Abhandlung zum folgenden Thema verfasst „Strategische Aspekte der Erneuerbaren“, weil ich bisher keinen einzigen Beitrag zu dieser Thematik gefunden habe.
https://sway.office.com/uCV5DZudNuCwe7MB?ref=Link

 

Photovoltaik

Photovoltaik-Anlagen à 1 MW installierter Leistung, Jahresproduktion pro Anlage 1.100.000 kWh, Flächenbedarf 3 ha. Anzahl der Anlagen 585.075; Flächenbedarf 17.552 km2; Investitionsvolumen 643.582.500.000,- Euro; eine sehr grenzwertige Lösung. Keine Versorgungssicherheit.

 

Windkraft offshore:

Wir rechnen mit folgenden Parametern:

Offshore:

Anlagenbestand per Ende 2019 betrug 1.465 WKAs

Installierte Leistung 6.382 MW

Stromproduktion 24,3 TWh

Durchschnittliche installierte Leistung pro Anlage 4,356 MW

Durchschnittliche Stromproduktion pro Anlage 16,587 MWh

Durchschnittliche Produktion pro installierte MW beträgt 3.807 MWh

Die 2019 zugebauten WKAs offshore hatten im Durchschnitt eine installierte Leistung von 6.941 MW. Der Zubau betrug 160 Anlagen mit zusammen 1.110,7 MW

Offshore WKAs mit 5 MW Leistung, durchschnittliche Jahresleistung 2019 betrug pro Anlage 16.587.000 kWh, Investition pro 1 MW beträgt 4 Mill. Euro. (634.583.841.000 kWh: 16.587.000 kWh = 38.258 WKAs)

Anzahl Anlagen zu bauen 38.258; Wir rechnen hier nur mit WKAs mit einer installierten Leistung von 5 MW und einem Kostenpunkt von 4 Mio. Euro pro MW; Investitionssumme 765.160.000.000,- Euro.

Politisch wahrscheinlich die einzig mögliche Lösung. Wir hätten dann 196.672 MW etwa die gleiche Produktionskapazität offshore installiert, wie sie bis 2018 in Deutschland insgesamt bestand – alle Stromerzeugungs-Kapazitäten , nämlich 206.84 GW.

Der Zubau von 38.258 Anlagen à 5 MW würde einer Kapazität von 190.290 MW entsprechen. Unter dem Gesichtspunkt der Versorgungssicherheit ein „No Go“.

So viele WKAs würden nicht in die deutsche Wirtschaftszone bzw. die ausgewiesenen bzw. zugewiesenen Küstengewässer passen. D.h. es stehen maximal 11.550 km2 für die Windkraft zur Verfügung. Zusammen mit dem jetzigen 1.465 off-shore Anlagen müssten in der Deutschen Nordsee 39.723 WKAs stehen. D.h. in der Nordsee gäbe es ein Gedränge von 3,45 Anlagen pro km²

Wir vernachlässigen bewusst die Kapazität der Ostsee, weil diese sehr klein ist. Zumal es dort viele Anrainer, viel Schiffsverkehr und teilweise große Wassertiefen gibt.

Bei einer solchen Lösung müsste mindestens die 20-fache Strommenge über Stromautobahnen in Deutschland verteilt werden!

 

Windkraft onshore

Onshore WKAs mit den folgenden Parametern:

Bestand WKAs onshore per Ende 2019: 29.491 WKAs insgesamt installierte Leistung 53.867 MW;

Erzeugte Strommenge 103,7 TWh

Wir rechnen mit Werten auf der Grundlage der Leistungsdaten des Jahres 2019.

Dies ergibt eine durchschnittlich installierte Leistung pro WKA onshore: 1,826 MW

Durchschnittliche Produktion pro WKA 3,516 MWh

Durchschnittliche Produktion pro installierte MWh beträgt 1.925

Der Zubau onshore betrug 2019 folgende Zahlen: 278 Anlagen mit insgesamt 936,4 MW installierter Leistung. Es handelt sich um den Bruttozubau, d.h. es werden noch Anlagen stillgelegt werden bzw. aus der Statistik verschwinden.

Immerhin beträgt die durchschnittliche Leistung der neuen WKAs onshore 3,368 MW.

Wir haben uns entschlossen mit einem Durchschnittswert zu rechnen, da es eine zu große Vielfalt an Anlagen gibt und zudem liefert jeder Standort ohnehin andere Strommenge.

Wir rechnen mit aktuellen Leistungsdaten per Ende 2019. Die Daten wurden der Webseite vom BDEW e.V. entnommen.

Anzahl Anlagen zu bauen 180.485; Wir nehmen weiter an, dass man nur noch WKAs mit 3 MW installierter Leistung errichten würde, Kosten pro 1 MW liegen bei etwa 1,5 Mio. Euro Investitionssumme 812.182.000,- Euro; politisch nicht umsetzbare Lösung, 1 Anlage pro 1,6 km2 der Fläche Deutschlands! Auch hier wäre keine Versorgungssicherheit gegeben. Politisch ist eine solche Lösung nicht gangbar. Zumal man maximal 2% der Landfläche für Windkraft auszuweisen bereit ist. Zu einer ähnlichen Lösung hat man sich jetzt im Odenwald durchgerungen. Odenwald

Addiert man zu den 180.485 zu bauenden Anlagen den heutigen Bestand von 29.491 Anlagen, so müssten wir im Jahr 2050 mit 209.976 Anlagen in unsere Landschaft leben. D.h. eine Anlage pro 1,67 km².

Hierbei dürfen wir nicht vergessen, dass WKAs eine Betriebsdauer von etwa 15 bis 20 Jahren haben. D.h. der gesamte Bestand wird bis zum Jahr 2050 mindestens einmal erneuert.

 

Biogas:

Biogas-Anlagen mit einer installierten Leistung von 1 MW und Jahresproduktion pro Anlage von 9.000.000 Mill. kWh; Platzbedarf nur für die Maisproduktion pro Anlage 500 ha (5 km2).

Anzahl Anlagen zu bauen 70.509, Platzbedarf 352.546 km2; um 5.000 km2 weniger als die Fläche Deutschlands, diese Lösung ist nicht machbar.

Die oben aufgezählten Anlagen müssten selbstverständlich zum jetzigen Bestand noch dazu gebaut werden. Denn diese sind bereits mit ihrer Leistung in den 1773 PJ erfasst.

 

Wir machen darauf aufmerksam, dass es sich um eine Stromversorgung handeln würde, die überhaupt nicht grundlastfähig wäre und vollkommen von Wind, Sonne und Wetter abhängig wäre.

 

 




Deutsche Energiewende: Planwirtschaft ohne Plan

Alle drei Jahre veröffentlicht die Bundesregierung anstelle des jährlichen Monitoring-Berichts einen ausführlicheren Fortschrittsbericht. Der zweite (auf der Basis des Berichtsjahres 2017) wurde im Juni 2019 veröffentlicht. Darin erscheint der Integrierte Nationale Energie- und Klimaplan (NECP) als Teil eines europaweit koordinierten Projekts. Alles auf dem besten Weg also?

Zu den Zielen des im vergangenen Jahr von der Bundesregierung beschlossenen „Klimapakets“ zählt auch die „Reduktion des Bruttostromverbrauchs“ um zunächst 10 Prozent. Dabei rechnen die Betreiber örtlicher Stromverteilernetze schon jetzt damit, dass der Strombedarf für das Laden der Li-Ion-Batterien der e-Autos schon bald zu einer Überlastung der Ortsnetze im ländlichen Raum führen wird, so dass der Ladestrom schon ab 2021 rationiert werden muss. Die Regierungskampagnen für das Stromsparen und für den Ersatz von Fahrzeugen mit Verbrennungsmotor durch Elektro-Fahrzeuge passen offenbar schlecht zusammen.

Im Unterschied zum letzten Monitoring-Bericht beschäftigen sich der auf Daten von 2017 beruhende 2. Fortschrittsbericht und das im Herbst 2019 verabschiedete Klimaschutzprogramm 2030 der Bundesregierung auch mit dem Planungszeiträumen bis 2030 und 2050. Daraus geht unter anderem hervor, dass Deutschland, das zurzeit im Jahresmittel mehr Strom exportiert als importiert, zum reinem Stromimportland werden soll. Zu diesem Zweck soll die Kapazität der der Kupplungen mit ausländischen Stromnetzen auf insgesamt 38 Gigawatt erhöht werden. Das ist mehr als die Hälfte der derzeit im Durchschnitt benötigten Gesamtleistung. Die Bundesregierung vertraut offenbar darauf, jederzeit genügend Elektrizität importieren zu können. Da zumindest die westlichen Nachbarn Niederlande und Frankreich ähnliche Ziele verfolgen wie die Berliner Regierung, bleibt es aber fraglich, wieweit diese Hoffnung begründet ist. Aktuell folgt zum Beispiel der Ende 2019 erfolgten Stilllegung des Kernreaktors Philippsburg 2 bei Karlsruhe die Stilllegung des französischen Kernkraftwerks Fessenheim im Elsass, die schon am 22. Februar 2020 mit der Abschaltung des ersten Reaktors beginnt. Dadurch die ohnehin schon angespannte Stromversorgungslage in Südwestdeutschland kritisch zu werden. Im Endeffekt wird der Strom im europäischen Verbundnetz immer weitere Strecken zurücklegen müssen, was die Übertragungsverluste erhöht und grünen Lippenbekenntnissen zur Dezentralisierung Hohn spricht.

Um den von der Kommission Wachstum, Strukturwandel und Beschäftigung zur Reduktion der Kohleverstromung (Kohlekommission) erzielten Kompromiss zum Kohle-Ausstieg umzusetzen und dennoch die Versorgungssicherheit zu gewährleisten, favorisiert die Bundesregierung offenbar den Bau zahlreicher Gaskraftwerke mittlerer Leistung. Da Erdgas der teuerste Energieträger ist, sind dadurch weitere Steigerungen der Verbraucherpreise programmiert. Schon jetzt zahlen die deutschen Privathaushalte die höchsten Strompreise in Europa. Aber schon fordern deutsche Grüne, nach dem Kohle-Ausstieg auch noch die Verstromung von Erdgas zu beenden…

Das deutet an, dass die deutsche Energiepolitik vielleicht gar nicht so planmäßig konzipiert ist, sondern vielmehr von ideologischen Vorurteilen und wahltaktischen Überlegungen bestimmt wird. Diese werden von der Politik nachträglich für planmäßig erklärt. Als Bundeskanzlerin Angela Merkel die von einem Tsunami ausgelöste Reaktor-Katastrophe von Fukushima zum Anlass nahm, den mit der Energiewirtschaft geschlossenen Kompromiss über eine beschränkte Laufzeitverlängerung der Kernkraftwerke aufzukündigen und die gestaffelte Abschaltung aller Kernkraftwerke bis 2022 zu verfügen, war die Abschaltung von Kohle-Kraftwerken noch kein Thema, weil so gut wie allen Beteiligten klar war, dass Deutschland sich nicht gleichzeitig von der Kernkraft und der Kohle verabschieden kann. Es ging vordergründig lediglich darum, angesichts nahender Regionalwahlen den Grünen Wind aus den Segeln zu nehmen. Dann bauten grüne NGOs mithilfe ihnen gewogener Massenmedien Druck auf, um unter Berufung auf das Pariser Klima-Abkommen von 2015 die Kohle als Standbein der deutschen Energiewirtschaft in Frage zu stellen. Das ist ihnen gelungen. Gerade hat die Bundesregierung das Kohleausstiegsgesetz verabschiedet. Sollten nach den Kohlekraftwerken auch noch die Gaskraftwerke abgeschaltet werden, dann hätte Angela Merkel mit dem von ihr verfügten unbedachten Atomausstieg den Abschied von allen zuverlässigen Energiequellen eingeleitet.

 




Kühe können nicht für den menschengemachten Klimawandel verantwortlich sein.

Dass Kühe nicht am Klimawandel schuld sein können, zeigt sich an drei separaten empirischen Hinweisen:

  1. Zwischen 2002 und 2012 hat ein Satellit der ESA erstmals die Methankonzentrationen der Erdatmosphäre erfasst. Die gemessenen Werte sind nicht mit den bekannten Standorten der großen Rinderherden korreliert.
  2. Methanemittierende Huftiere und andere Großfauna hat es bereits vor der industriellen Revolution gegeben. Zum Beispiel die Bisonherden und Elche in Nordamerika, und nicht weniger als 26 Millionen Elefanten alleine nur in Afrika. Diese inzwischen stark dezimierten Bestände, die vermutlich ähnlich groß waren wie die heutige Rinderherde, haben damals die Erdatmosphäre mit ihren Methanemissionen nicht überhitzt, und daher können es die aktuellen domestizierten Bestände auch nicht.
  3. Die bekannten Einträge von Methan in die Erdatmosphäre sind um ein Vielfaches größer als die vermuteten Methansenken, sodass die Methankonzentrationen ebenfalls um ein Vielfaches größer sein müssten als gemessen wird. Da die Messungen stimmen, müssen folglich die Modelle grundsätzlich falsch sein.

 

Der aktuelle Stand der Wissenschaft:

Es herrscht eine erhebliche Konfusion über die mögliche Treibhausgaspotenz von Methan. Meist wird behauptet – auch in wissenschaftlichen Publikationen – dass Methan ein 23 bis 26-fach wirksameres Treibhausgas als Kohlendioxid ist, und dass es für 12 Jahre in der Atmosphäre verbleibt. Das sind aber derart drastische Vereinfachungen des Sachverhaltes, die diese beiden Zahlen faktisch falsch werden lassen.

Methan ist kein stabiler Bestandteil der Atmosphäre. Es reagiert mit einem anderen chemischen Molekül, dem Hydroxyl OH, und löst sich damit zu CO2 auf. Andererseits, verbleiben rund ein Drittel aller CO2 Emissionen auf ewig in der Atmosphäre (jedenfalls für Millionen von Jahren, was nach menschlichen Maßstäben unendlich ist). Daher ist die Wirkung einer Methanemission in der Atmosphäre eine vollständig andere als die einer Kohlendioxidemission.

Nach einer kurzen Zeit, nämlich nach der Reaktion mit dem OH, ist die CH4 Methanemission verschwunden, und kann daher nicht mehr das Klima beeinflussen. Andererseits, eine mögliche Klimabeeinflussung durch eine CO2 Emission verbleibt für immer. Das bedeutet, aus zwingend mathematischen Gründen, dass nur ein Anstieg der Methankonzentration in der Luft zu einer Klimaerwärmung führen kann. Stabile Methankonzentrationen sind nicht in der Lage das Klima weiter zu erwärmen. Daher, zum Beispiel, falls die globale Rindviehherde etwa denselben Platz eingenommen hat, wie die vorherigen mittlerweile stark reduzierten Wildtierherden, dann sind auch die Mengen der Methanemissionen dieselben, und dann können sich daraus unmöglich menschengemachte Klimaerwärmungseffekte ergeben haben. Aus anderen Gründen mag die Reduktion der Wildtierherden eine Tragödie sein, aber an dieser Stelle geht es um das Klima.

Das sind nicht die einzigen Konfusionen und Missverständnisse. Als das UNFCCC Kyoto Protokoll 1997 unterschrieben wurde, wollte man sich zu spezifischen Reduktionszielen von Treibhausgasen verpflichten. Damit nicht jeder Staat spezielle Ziele für jedes einzelne der sechs wesentlichen Gase erstellen müsste, erfand man eine künstliche Einheit, die „GWP 100 CO2 Äquivalenz“, in die alle Gase umgerechnet würden. Über Sinn und Zweck dieser Einheit streiten sich die Klimawissenschaftler seitdem fortlaufend.

Weil der Zeithorizont eines möglichen Klimaeinflusses für CO2 und CH4 so unterschiedlich sind, vergleicht die Berechnung die Größe des Klimaerwärmungspotentials (global warming potential = GWP) innerhalb von 100 Jahren. Das ergibt für GWP 100, dass 1 Kilogramm Methan genauso viel Potential hat wie 23 Kilogramm Kohlendioxid. Für diese Berechnung wurde davon ausgegangen, dass Methan für 12 Jahre in der Atmosphäre verbleibt. Am Anfang dieser 12 Jahre wäre es 120-mal klimaschädlicher, was dann schnell abnimmt da die Methanmenge graduell kleiner wird. Über einen Zeitraum von 100 Jahren gerechnet, ergibt das dann einen Wert von 23-fach (oder auch 26-fach oder 32-fach, je nach Quelle). Der 100 Jahre Zeitraum wurde für das UNFCCC Kyoto Protokoll recht willkürlich gewählt – für einen 20-jährigen Zeitraum wäre es der Faktor 87, für einen 500-jährigen Zeitraum wäre es Faktor 11.

Selbst diese Zahlen sind stark vereinfacht. Zunächst, niemand weiß wie lange Methan wirklich in der Atmosphäre verbleibt – der chemische Reaktionsprozess kann nicht direkt beobachtet werden. Also hat man sich auf die Annahme geeinigt, dass die insgesamte Menge an Methan in der Atmosphäre, geteilt durch die jährliche Senkenstärke, die Verweildauer ergibt. (Mathematisch würde das bedeuten, dass die durchschnittliche Verweildauer eines Methanmoleküls nicht 12 Jahre ist, sondern 6 Jahre.) Für das Jahr 1998, waren diese beiden Werte respektive 4850 Tg CH4 in der Atmosphäre (entsprechend 1745 parts per billiion ppb), geteilt durch eine Senkenstärke von 576 Tg pro Jahr, sodass es 8.4 Jahre benötigen würde bis alles in 1998 existierende Methan aus der Atmosphäre verschwunden ist. Da es aber noch vermutete Rückkopplungseffekte gibt, wurden diese 8.4 Jahre etwas arbiträr auf 12 Jahre Wirkungsdauer aufgerundet.

Hinzu kommt, dass es unter Klimawissenschaftlern keineswegs Konsens gibt ob Methan überhaupt einen Klimaeinfluss haben kann, unabhängig davon wie lange es in der Atmosphäre verweilt. Denn die Infrarot Wellenlänge, bei der Methan die Erdwärmestrahlen absorbiert, sind deckungsgleich mit Wasserdampf. Selbst in der trockensten Atmosphäre bei -40 Grad C, gibt es noch 1300 mal mehr Wasserdampf als Methan – im globalen Durchschnitt sind es etwas 15000 mal mehr Wassermoleküle als Methan. Dieser Wasserdampf würde daher die mögliche Infrarotstrahlen bereits in den unteren Atmosphäreschichten absorbieren, sodass für das Methan gar nichts mehr übrig bleibt. In diesem Fall wären die Methanauswirkungen auf das Klima erheblich reduziert oder sogar Null.

Unabhängig davon was man über die Wärmestrahlenwirkung des Methans annimmt, wird die Zahl 12 Jahre Verweildauer fast immer falsch verwendet, selbst in wissenschaftlichen Publikationen. Zunächst ist es eben nicht die Verweildauer, sondern die Zeit die es benötigen würde alles bestehende Methan in der Atmosphäre bei gleichbleibender Senkenstärke des OH-Reservoirs aufzulösen. Das bedeutet, die 12 Jahre sind nicht ein Halbwertszeit mit dem man üblicherweise solche Prozesse beschreibt. Zweitens, die 12 Jahre sind nur eine großzügig aufgerundete Annahme über die Wirkungsdauer, die eigentliche Kalkulation ergibt nur 8.4 Jahre. Drittens, im Jahr 2018 haben sich die Werte bereits verändert. Mittlerweile gibt es 5140 Tg Methan in der Atmosphäre, und die Senkenstärke wird jetzt auf nur noch 548 Tg geschätzt, sodass sich die neue Gesamtverweildauer jetzt auf 9.4 Jahre berechnen würde. Dementsprechend müsste man jetzt die Wirkungsdauer und den GWP100 Wert nach oben anpassen.

Allerdings ist die Senkenstärke des OH Reservoirs nicht bekannt und lediglich eine rückgerechnete Annahme. Sie ist, vereinfacht gesagt, lediglich die Differenz aus dem recht gut bekannten jährlichen Anstieg an Methankonzentration in der Atmosphäre, und den nur ungenau bekannten jährlichen Methanemissionen in die Atmosphäre. Die Senkenstärke ist demnach ebenfalls nur ungenau bekannt. Vor allem ist aber nicht bekannt was die Stärke der Senke beeinflusst.

Hier sagt eine weit beachtete wissenschaftliche Autorität Dr Kirschke in 2013 dasselbe, nur auf wissenschaftlich:

«The photochemical sink of CH4 is large and difficult to quantify, given the very short lifetime of OH (~1 sec) and its control by a myriad of precursor species. Direct measurements of atmospheric OH radicals do not have the required accuracy and coverage to derive global OH concentrations and consequently the magnitude of the CH4 sink. We estimated CH4 loss due to OH from the output of nine numerical CCMs, which are categorized here as an atmospheric bottom-up approach.»

Es gäbe auch eine andere Theorie, die die ansteigenden Methanwerte erklären könnte. Nämlich dass diese wenig oder gar nichts mit der Menge des ausgestossenen Methans zu tun hat, sondern das Ergebnis eines laufend verändernden atmosphärischen Äquilibriums ist, dessen Einflussfaktoren noch nicht verstanden sind. Dieser Theorie zufolge, würde eine Reduktion der Methanemissionen per Logik nichts bewirken können.

Tatsächlich ist zu wenig darüber bekannt wie stark die Senkenstärke für Methan ist, was die faktische Wärmestrahlenwirkung von Methan ist, wie diese Faktoren alle zusammenspielen, wie sie sich ersetzen und ergänzen. Niemand kann ehrlichen Gewissens mit Gewissheit behaupten welche Nettoklimawirkung das Methan in einer echten Atmosphäre hat – alle Aussagen dazu basieren bislang lediglich auf unzureichenden, noch äußerst unscharfen mathematischen Modellen oder unter Laborbedingungen.

 




30 Jahre IPCC-Zustands­berichte: wie gut haben sie sich geschlagen?

Während der letzten 30 Jahre wurden 5 IPCC-Zustandsberichte bzgl. Klimawandel veröffentlicht. Ich wollte einmal jede jeweilige Erwärmungs-Prognose vergleichen, die zum Zeitpunkt des Erscheinens der jeweiligen Berichte abgegeben worden waren – vergleichen mit den nachfolgend gemessenen Temperaturen. Damit verfolgte ich zwei Ziele. Einmal wollte ich wissen, wie gut die Prognosen mit der Zeit waren. Zum Zweiten wollte ich der Frage nachgehen, ob und wenn ja was wir Neues über den Klimawandel erfahren haben während der letzten 30 Jahre.

1. Zustandsbericht FAR

Der erste Zustandsbericht wurde im Jahre 1990 veröffentlicht. Das war wahrscheinlich der erste öffentlich erhobene Alarmruf, dass sich die Welt aufgrund von CO2-Emissionen erwärmt. Es gab auch als Auszug ein sehr gutes Buch vom FAR-Chef John Houghton mit dem Titel „global Warming – the Complete Briefing“. Hier der Vergleich des „Modells“ mit den resultierenden Temperaturen:

Abbildung 1: Die erste Prognose globaler Erwärmung aus dem Jahr 1990. Die Daten sind meine eigene 3D-Version von HadCRUT4.6

Der Temperaturtrend ist zwar bestätigt, aber Ende 2019 war das Ausmaß der Erwärmung geringer als nach der Prognose im Jahre 1990. Die Emissionen sind zwar in Wirklichkeit der Trajektorie Business as Usual gefolgt, doch stellte sich die Erwärmung als 0,3°C geringer als vorhergesagt heraus.

2. Zustandsbericht SAR

Der zweite Zustandsbericht stammt aus dem Jahr 1995. Hier folgt der SAR-Vergleich meiner 3D-HadCRUT4-Ergebnisse (rot) mit denen des UKMO-Modells:

Abbildung 2: Meine 3D-Ergebnisse für HadCRUT4.6 sind rot dargestellt. Die Ergebnisse sind die Gleichen wie bei Cowtan & Way.

Man sieht, dass das Modell, welches den CO2-Effekt reduziert mittels Einbeziehung von Aerosolen ziemlich gut zu den Daten passt. Allerdings ist das Ergebnis nicht so gut, wie es aussieht, weil die Aerosole seit dem Jahr 1995 signifikant gesunken sind. Ich möchte dies mal als einen mittelmäßigen Erfolg für den SAR bezeichnen, aber nur unter der Annahme eines CO2-Antriebs ohne Rückkopplungen. Und wie sieht es nun beim 3. Zustandsbericht aus?

3. Zustandsbericht TAR

Der dritte Zustandsbericht wurde im Jahre 2001 veröffentlicht. Die TAR-Prognosen bzgl. Temperatur lagen tatsächlich sowohl unter denen des FAR als auch unter denen des SAR, was vielleicht die Reaktion auf eine Rückgang der gemessenen Temperaturen ist. HadCRUT4 hat nämlich bis damals einen definitiven Stillstand der globalen Erwärmung gezeigt nach dem Super El Nino des Jahres 1998. Nach 2001 wurden als Konsequenz viele weitere Stationen hinzugefügt (und einige auch ausgesondert), und zwar dergestalt, dass der Stillstand bis heute im Wesentlichen verschwunden ist. Hier folgt nun aber der Vergleich der TAR-,Projektionen‘ im Vergleich zu den gegenwärtigen Temperaturdaten (2019). Diese sind erneut eine eigene 3D-Version der HadCRUT4.6-Messungen.

Abbildung 3: Die blauen Punkte repräsentieren mittels Spherical Triangulation berechnete HadCRUT4.6-Werte.

Die Übereinstimmung zwischen Modellen und Daten sieht viel besser aus. Man beachte jedoch, dass die Änderung der absoluten Temperatur sich nur auf diejenige von 1990 bezieht, dem Jahr der Veröffentlichung des FAR. Aber auch hier ist mein Eindruck, dass der Verlauf höchstwahrscheinlich ihrer blauen B2-Ensemble-Kurve folgt.

4. Zustandsbericht AR4

Der vierte Zustandsbericht wurde im Jahre 2005 veröffentlicht und enthielt ein kurzfristigeres Prognose-Programm im Vergleich zu den damals verfügbaren HadCRUT4-Daten. Die aktualisierte Graphik unten zeigt den aktualisierten Vergleich bis Januar 2020. Die schwarzen Quadrate repräsentieren die jüngsten HadCRUT4.6-Daten, heruntergeladen von der Hadley-Site. Die kleinen schwarzen Kreise sind die alten H14-Datenpunkte (wie im Jahre 2005 verfügbar) aus dem Originalreport. Sie unterscheiden sich von den derzeitigen H4-Ergebnissen, weil die CRU in der Zwischenzeit alle ihre Stationsdaten aktualisiert hat. In diesem Zusammenhang beachte man, wie die Temperatur 1998 ein wenig niedriger liegt, während der Wert 2005 ausreichend genug gestiegen ist, um den Stillstand verschwinden zu lassen.

Abbildung 4: AR4-Modellvergleich mit den HadCRUT4.6-Daten, aktualisiert für 2019

Die schließliche Übereinstimmung ist nicht so schlecht, aber die Daten liegen nichtsdestotrotz immer noch unter dem Modell-Mittel bei allen vernünftigen SRES-Szenarien.

5. Zustandsbericht AR5

Dies bringt uns schließlich zum fünften Zustandsbericht bzw. dessen Vergleich. Als der AR5 im Jahre 2013 veröffentlicht worden war, zeigte sich der Stillstand immer noch eindeutig in allen Temperaturreihen, wodurch als Konsequenz alle Modelle im Vergleich viel zu hohe Temperaturen zeigten. Allerdings wurden bis dahin viele neue Stationen in der Arktis hinzugefügt, und der große El Nino 2016 hat den Stillstand inzwischen verpuffen lassen. Aber trotz all dem – wie machen sich die Modelle im Vergleich zu den gemessenen Temperaturdaten bis Januar 2020?

Hier ist der aktuelle Vergleich der Graphik 11.25a mit den Daten:

Abbildung 5: Abbildung 11.25a aus dem AR5 des IPCC, aktualisiert bis 2019. Der grüne Trend markiert HADCRUT4.6, der hellblaue Trend die 3D-Version. Die Daten schrammen am unteren Rand der Sensitivitäts-Bandbreite aller 45 CMIP5-Modelle entlang.

Eindeutig liegt der Erwärmungstrend am unteren Ende des CMIP5-Ensembles. Nur Modelle mit geringerer Sensitivität können die Temperaturdaten angemessen abbilden.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/30-years-of-ipcc-reports-how-well-have-they-done/

Übersetzt von Chris Frey EIKE




Die große Transformation: Potsdamer Forscher werden konkret

Es ist was faul im Staate Dänemark: John Schellnhuber beschrieb bereits 2011 in einer Schrift mit dem Titel Welt im Wandel – Gesellschaftsvertrag für eine Große Transformation, wie er und seine Mitstreiter unter dem Deckmantel des „Klimaschutzes“ das Land und seine Ressourcen unter die Kontrolle einer schein-technokratischen Elite bekommen wollen. Angela Merkel griff das Schlagwort ihres „Lyssenko“ (Zitat Michael Klonovsky) in Davos erstaunlich offen auf und verkündete unter Applaus anwesender Elitenvertreter, daß unsere Gesellschaften umgebaut werden müssten. Man merkt, die planen was. Etwas konkreter wird eine Arbeitsgruppe des Potsdam-Instituts für Klimafolgenforschung PIK in Proceedings of the National Academy of Science, PNAS, einem renommierten Wissenschaftsmagazin.

Ihre Große Transformation nennen sie hier sicherheitshalber aber „soziale Kippintervention“, angelehnt an die berühmten „Kipp-Punkte“ (tipping points), die seit 1988 immer mal wieder mit Frist von etwa zehn Jahren ausgerufen, aber dann vergessen werden (aktuell ist Gretas Kipp-Punkt in zwölf oder 13 Jahren).

Die PIKler definieren sechs Maßnahmen für die westliche Welt (Asien wird wie bisher nichts davon beachten).

  1. Energie-Erzeugung: Die Staaten sollten weg von zentralen Fossilkraftwerken und stattdessen dezentrale Wind-Solar-Anlagen weit verteilt errichten. Nun, dazu muß man dem geneigten EIKE-Leser wohl nichts weiter sagen. Es sei nur auf Prof. Lüdeckes Vortrag zur katastrophal niedrigen Leistungsdichte der Windräder und PV-Paneele hingewiesen.
  2. Kohlenstoffneutrale Städte: 20 % der weltweiten CO2-Emissionen sollen von den Gebäuden der Städte kommen, weswegen klimaneutral gebaut werden solle, zum Beispiel aus laminiertem Holz. Eine großartige Idee – die Rotorflügel unserer rund 40.000 Windräder in Deutschland bestehen nämlich auch aus mit Harz verklebten Holz- und Kohlefaserwerkstoffen, für die es bis heute kein überzeugendes Entsorgungskonzept gibt. Also verbrennen – schön, denn da entstehen jede Menge Giftstoffe und natürlich CO2.Hinzu kommt, daß die Thermo-Isolation von Gebäuden derart viel Energiekosten und CO2-Emissionen verursacht, daß sich die Einsparung bei den Heizkosten gar nicht mehr lohnt.
  1. Finanzsystem: Durch politischen Druck (?) und Strafgebühren wie die CO2-Steuer sollen Investoren dazu gebracht werden, angeblich klimafeindliche Industrien zu meiden. Aktuelles Beispiel ist die Siemens-Affäre um Joseph Käser und Luisa Neubauer. Die Konzernleitung hält ihre Verträge mit dem indischen Partner zwar ein, und Luisas Demo vor der Siemens-Zentrale in München war ein Reinfall. Aber wie lange noch? Die Medien versuchen, deutsche Konzerne sturmreif zu schießen und protegieren Neubauer & Co. Neben Käser sind auch die Chefs von Deutscher Bahn und Volkswagen schon auf dem Klima-Trip. Wie viele werden folgen? Hier zeigt sich die größte Gefahr der Klimahysterie: Die wertschöpfenden Industrien werden im Rahmen einer Zuteilungs- oder Planwirtschaft geschrumpft und abgewickelt, sofern sie nicht ins Ausland fliehen. Typisches Beispiel ist der VW-Konzern, der in zehn Jahren nur noch Elektro-Trabis („ID.3“) herstellen will. Daß das ein Fiasko werden wird, dürfte klar sein. Kaum jemand kauft ohne Not ein reichweitenschwaches Auto, für dessen Aufladung weder genug Strom noch genug Ladestationen vorhanden sind oder sein werden. Die Umstellung von Verbrenner auf Lithium-Akku/Elektromotor wird nur durch Steuerfinanzierung möglich sein.
  1. und 5. Normen und Werte; und Bildungssystem: Die Nutzung fossiler Brennstoffe sei laut PIK-Autoren „wohl unmoralisch“. Da müsse man dafür sorgen, daß der Klimaschutz als soziale Norm anerkannt werde. Insofern folgerichtig, daß die Autoren in der Schule eine „umwelt- und klimabewußte Lebensweise“ gelehrt sehen wollen. Nun, das nennt man Diffamierung Andersdenkender via Moralkeule, Propaganda und totalitäre Umgestaltung des kulturellen Überbaus. Läuft vor allem in den Massenmedien und in Gymnasien bereits auf Hochtouren; soll aber offenbar auf alle Bereiche der bürgerlichen Existenz ausgeweitet werden. Orwell läßt grüßen.
  2. Verbraucherinformation: Hängt mit 4./5. zusammen und bedeutet, ähnlich den Todesdrohungen und Krebsbildern auf Zigarettenschachteln „Hinweise“ zum CO2-Ausstoß bei der Produktion des Gekauften auf die Verpackung zu drucken.

Ein Kasseler Professor für Umweltsystemanalyse und -Psychologie, man könnte auch sagen: ein beamteter Klimahysteriker, findet die Transformationsideen seiner Potsdamer Mitstreiter „elegant“. Finde ich nicht; die vorgeschlagenen Maßnahmen sind antidemokratisch und wirken desindustrialisierend, wie wir es jetzt schon erleben. Aber man sieht, die Profiteure und Trommler der Transformierer aus Potsdam sitzen schon überall an den Schaltstellen der Gesellschaft.

 




CO2-Konzen­trationen bis zu 95.000 ppm entgasen aus dem Ozeanboden

Die Schlagzeile bei Science Alert lautet: „Taucher entdecken eine magische Unterwasser-Blasenquelle am Grund des Ozeans“.

Wirklich? Eine magische Unterwasser-Blasenquelle? Ich weiß nicht viel über Science Alert, so dass ich nicht beurteilen kann, ob die Entdeckung herunter gespielt wird oder nicht. Allerdings trägt eine Presseerklärung der University of Texas eine viel ehrlichere Schlagzeile: „Taucher entdecken am Ozeanboden einen brodelnden CO2-Hotspot“.

Die erstaunliche Entdeckung, welche der Geowissenschaftler Bayani Cardenas in einem Video festgehalten hat, ist kein Klimawandel-Alptraum. Sie hängt zusammen mit einem nahe gelegenen Vulkan, aus dessen Rissen am Ozeangrund an seiner Flanke die Gase austreten, und das war vermutlich schon seit Jahrzehnten oder sogar Jahrtausenden im Gange.

Als Cardenas von der University of Texas vor der Küste der Calumpan-Halbinsel in den Philippinen tauchte, fanden er und seine Mitautoren einen Ozeanboden vor, aus dem es wie aus einer Champagner-Flache sprudelte. Dabei handelte es sich um riesige Mengen Kohlendioxid.

Sie tauchten etwa 60 Meter tief an der Stelle „Soda Springs“, einem großen CO2-Hotspot, wo sie CO2-Konzentrationen von 60.000 bis 95.000 ppm maßen, also eine über 200 mal höhere Konzentration als des menschlichen CO2 in der Atmosphäre. Die Wissenschaftler konnten die CO2-Ausgasungen bis zu Rissen im Ozeanboden zurück verfolgen und als austretende Gase in Verbindung mit einem Unterwasser-Vulkan identifizieren.

Mit zunehmender Entfernung von den Rissen nahm das CO2-Niveau rasch ab, verteilte sich doch das Gas im Ozean. Aber es erzeugt dennoch eine erhöhte CO2-Umgebung entlang der restlichen Küstenlinie der Calumpan-Halbinsel mit einem Niveau in der Bandbreite zwischen 400 und 600 ppm.

Und diese hoch mit CO2 angereicherte Umgebung befindet sich sehr nahe blühender Riffe, sagt Cardenas, und fragt: „Wie kann das sein?“

Lassen Sie es mich wiederholen: Eine über 200 mal so hohe CO2-Konzentration als in der Atmosphäre … und da sorgen wir uns um die winzigen, vom Menschen emittierten Mengen?

Und man beachte, dass es über 3 Millionen Unterwasser-Vulkane gibt, die vermutlich allesamt ähnliche Mengen an CO2 ausgasen … nun, ich denke, mein Punkt ist klar.

Presseerklärung der University of Texas vom 22. Januar 2020:
https://news.utexas.edu/2020/01/22/deep-diving-scientists-discover-bubbling-co2-hotspot/

Science Alert-Artikel:
https://www.sciencealert.com/a-magical-bubbling-underwater-spring-is-carbon-dioxide-seeping-through-the-ocean-floor

Link: https://www.iceagenow.info/co2-concentrations-up-to-95000-ppm-bubbling-out-of-the-ocean-floor/

Übersetzt von Chris Frey EIKE




Januar: Die „heimliche“ Abkühlung über uns

Bergstationen über 1.000 Meter Höhe – verhalten sie sich anders?

Im DWD-Mittel erwärmte sich der Januar bis zum Ende der 1980er Jahre; danach stagnierte seine Temperatur – wie auch die des ganzen Winters – auf hohem Niveau. Bei der Durchsicht der DWD-Stationen fiel jedoch ein merklich fallender Januar-Temperaturtrend nur an sehr hoch gelegenen Stationen seit dieser Zeit auf, was dazu animierte, einmal ein Mittel aus insgesamt neun Berg-Stationen über 1.000 Meter Höhenlage mit verlässlichen Daten, in Deutschland und nahe benachbart in der Schweiz und in Österreich gelegen, zu bilden und mit Stations- und Gebietsmitteln zu vergleichen:

Abbildungen 1a bis 1c: Vergleich der Januar-Temperaturverläufe 1988 bis 2019. Oben (1a) Bergmittel aus neun hochgelegenen Stationen versus München-Stadt, Mitte (1b) Bergmittel versus Flächenmittel Bayern, unten (1c) Bergmittel versus DWD-Flächenmittel Deutschland. Der Abkühlungstrend des Bergmittels (jeweils grün) ist signifikant; die übrigen Trends sind es nicht. Man beachte, dass München-Stadt stark Wärmeinsel-beeinflusst ist!

Zunächst war zu klären, wie repräsentativ das Bergmittel ist. Hierzu wurde es mit den 500-hPa-Januartemperaturen (entspricht etwa 5.500 Metern Höhenlage) am Gitterpunkt 50°N und 10°E verglichen; das entspricht fast der Mitte Deutschlands. Die Daten liegen seit 1949 vor, so dass eine längerfristige Betrachtung und eine ab 1988 möglich waren:

Abbildungen 2a und 2b: Januar-Temperaturverläufe seit 1949 (oben, mit 5-jähr. Gleitmittel) und seit 1988 (unten) im DWD-Deutschlandmittel (violett, um 4K abgesenkt), Bergmittel aus neun Stationen (reale Werte, grün) und 500-hPa-Fläche (blaugrün, um 15 K erhöht). Die Absenkungen beim DWD-Mittel und die Erhöhungen beim 500-hPa-Mittel erfolgten zwecks besserer Darstellung; die Trends entsprechen den Realtemperaturen. Man erkennt eine fast perfekte Übereinstimmung zwischen Bergmittel und 500-hPa-Temperaturen (r=0,909), während das DWD-Mittel leicht abweicht, aber trotzdem signifikant beeinflusst wird (r=0,594).

Damit erwies sich das Bergmittel als repräsentativ, und auch der Verdacht einer signifikanten Januar-Abkühlung seit 1988 in größeren Höhen bestätigte sich.

Kälterer Januar in der Höhe seit gut 30 Jahren – warum?

Bei einem Test der übrigen Monate zeigte sich ein schwächerer Abkühlungstrend des Bergmittels seit 1988 nur noch im Februar und ein minimaler im Mai, denen eine teils deutliche Erwärmung in den übrigen Monaten, am stärksten im April, Juni und November, gegenüberstand. Es lag der Verdacht einer merklichen Beeinflussung der Januar-Abkühlung durch eine Häufigkeitsänderung bestimmter Großwetterlagen nahe, und zwar der Lagen mit Nordanteil nach HESS/BREZOWSKY und der in 500 hPa zyklonalen Lagen sowie aller F-Lagen nach der Objektiven Wetterlagenklassifikation des DWD. Nur letztere wirken, je häufiger sie sind, im Januar erwärmend, während nördliche und in der Höhe zyklonale Lagen negativ mit den Januar-Temperaturen korrelieren:

Abbildungen 3a bis 3c: Die merkliche Häufigkeitszunahme der Tage mit Nordwetter (oben, 3a), der mit in der Höhe zyklonalen Wetterlagen (Mitte) sowie die Häufigkeitsabnahme der Tage mit feuchter Atmosphäre (3c, unten) führte besonders in der Höhe zur Januar-Abkühlung. Auch hier mussten zwecks besserer Darstellung die Werte angepasst werden; beim DWD-Mittel wie in Abb. 2a und 2b, bei den Wetterlagen durch Indexbildung (zur Orientierung sind die reellen Tageszahlen herausragender Januare eingetragen).

Diese in größeren Höhen signifikante Januar-Abkühlung widerspricht der Theorie einer CO2-bedingten Klima-Erwärmung – im Untersuchungszeitraum stieg die CO2-Konzentration der Luft von etwa 350 auf über 410 ppm. Besonders die Häufigkeitsabnahme der Tage mit feuchter Atmosphäre (F-Lagen) wirkte stark kühlend, was die Frage aufwirft, ob es sich hierbei um eine negative Rückkopplung handelt. Möglicherweise ist die Klimaerwärmung in Deutschland im Januar schon seit gut 30 Jahren ausgereizt und eine weitere Erwärmung nicht mehr möglich.

Warum änderten sich die Häufigkeitsverhältnisse der Großwetterlagen?

Diese Frage kann nicht eindeutig geklärt werden. Als mögliche Ursachen kommen jedoch die AMO, die NAO und die Sonnenaktivität in Betracht (bei geringer Sonnenaktivität treten tendenziell etwas mehr Nordlagen auf). Die folgende Abbildung lässt einen leicht positiven Einfluss hoher AMO-Werte auf die Häufigkeit der Lagen mit Nordanteil erahnen:

Abbildung 4: Tendenziell mehr Januar-Tage mit Nordwetter bei positiven AMO-Werten; dieser Effekt scheint den leicht negativen Effekt der NAO, welche ohnehin mehr Einfluss auf die Häufigkeit der Westlagen hat, mehr als auszugleichen.

Weil die Nordatlantische Oszillation (NAO) die Häufigkeitsverhältnisse der Lagen mit zyklonalem Westanteil und damit die Januar-Temperaturverhältnisse besonders in den unteren Luftschichten stark beeinflusst, soll auch dieser Zusammenhang abschließend einmal langfristig dargestellt werden:

Abbildung 4: Tendenziell mehr Januar-Tage mit Nordwetter bei positiven AMO-Werten; dieser Effekt scheint den leicht negativen Effekt der NAO, welche ohnehin mehr Einfluss auf die Häufigkeit der Westlagen hat, mehr als auszugleichen.

Abschließende Betrachtungen

Abweichend von den meisten übrigen Monaten und den Verhältnissen am Boden, zeigte der Januar zwischen 1988 und 2019 einen signifikanten Abkühlungstrend von etwa 2 bis 3 Kelvin in größeren Höhen über Mitteleuropa. Dieses Verhalten lässt sich zumindest teilweise mit den geänderten Häufigkeitsverhältnissen der Großwetterlagen, besonders von solchen mit nördlicher Anströmrichtung und weniger feuchten, erklären. Diese führen oft nur in der Höhe trocken-kalte Luftmassen nach Mitteleuropa, während die Luftschichten unter der Peplopause durch die im Winter relativ warmen Randmeere Nordmeer, Nord- und Ostsee angewärmt werden. Auch Wärmeinseleffekte können einen gewissen Erwärmungseffekt bewirkt und so eine deutlichere Januar-Abkühlung in Bodennähe verhindert haben. Der gefundene Abkühlungseffekt darf zwar nicht in die Zukunft extrapoliert werden und ist auch kein sicheres Anzeichen einer möglichen Klima-Abkühlung; doch erhärtet er die Zweifel an einer Erwärmungswirkung der wachsenden CO2-Konzentration, weil diese auch im Januar deutlich zunahm.

Mein besonderer Dank gilt Herrn Josef Kowatsch, als EIKE-Autor wohlbekannt. Er machte mich auf die merkliche Januar-Abkühlung an der Station Mittenwald aufmerksam, was mich dann zu diesen genaueren Untersuchungen veranlasste.




Klima-Spinner verlieren erneut vor Gericht

Diese Entscheidung fiel nur einen Monat, nachdem Bundesrichter Barry Ostrager am Obersten Bundesgericht des Staates New York ein Verfahren abgelehnt hatte, das von der General-Staatsanwältin Letitia James gegen ExxonMobil angestrengt worden war. Darin verklagte sie das Unternehmen, weil es angeblich Investoren belogen hatte hinsichtlich industrieller Projekte im Lichte der möglichen Kosten, die durch regierungsamtliche Vorschriften bzgl. des Kampfes gegen den Klimawandel entstehen.

„Das Büro des General-Staatsanwaltes konnte nicht belegen, dass ExxonMobil irgendwelche materielle Falschangaben gemacht oder Investoren nicht vollständig informiert hatte hinsichtlich der geplanten Verfahren, welche jeden vernünftigen Investor irregeleitet hätte“ schrieb Ostranger in der Urteilsbegründung.

Ostragers Urteil zufolge kann der Fall auf der gleichen Beweisgrundlage noch einmal in New York vor Gericht gebracht werden.

Im Fall vor dem Berufungsgericht, welches das Verfahren am 17.Januar verwarf, standen sich Kelsey Cascadia Rose Juliana et al.und The United States of America et al. gegenüber, 21 Kinder und Jugendliche im Alter von 10 bis 21 Jahren. Diese hatten schon an einem Bundesgerichtshof in Oregon geklagt und argumentiert, dass die Regierung ihre verfassungsmäßigen Rechte bzgl. Leben, Freiheit und Eigentum verletze, indem sie den Verbrauch fossiler Treibstoffe fördert, welche Treibhausgase erzeugen, die nach Ansicht der Kläger das Klimasystem zerstören.

Als der Fall zum ersten Mal im Jahre 2015 eingebracht worden war, hat die Regierung Obama versucht, die Klage zu Fall zu bringen, was der Bundesrichter jedoch ablehnte.

Die Trump-Regierung erbte die Entscheidung des Gerichts, die dann zur Verhandlung vor dem Neunten Bezirksgericht im Jahre 2017 anstand. Dieser Gerichtshof gestattete ein vorübergehendes Aussetzen des Verfahrens, um es der neu ins Amt gekommenen Trump-Regierung zu ermöglichen, eine eigene Antwort zu entwerfen.

Die Trump-Regierung argumentierte dann wie zuvor die Obama-Regierung, dass es den Jugendlichen nicht zukomme, die [US-]Bundesregierung zu verklagen wegen irgendwelcher angeblicher Schäden durch Klimawandel, da jedwede Schäden, die eventuell verursacht werden könnten, nicht eindeutig dem Klimawandel zugeordnet werden können, was aber ein Kriterium zur Aufrechterhaltung der Klage ist.

Die Trump-Regierung nannte die Klage eine „direkte Attacke auf die Gewaltenteilung“, und zwar mit der Begründung, dass selbst wenn die Klage der Jugendlichen Bestand hätte, die Legislative und die Exekutive die richtigen Ansprechpartner der Regierung seien und nicht die Judikative, wenn es um die Bestimmung der Energiepolitik und der Reaktionen auf den Klimawandel geht.

In einer zwei-zu-eins-Entscheidung folgte das Gremium der drei Richter beiden Punkten.

Die Jugendlichen hätten kein Recht, die Bundesregierung zu verklagen, schrieb Richter Andrew Hurwitz, und das Gericht hatte nicht die Befugnis, die Klimapolitik zu diktieren, schrieb der der Obama-Regierung berufene Richter in seiner Mehrheitsbegründung.

Die Kläger hatten gar kein Recht darauf zu klagen, schrieb Hurwitz, weil sie nicht zeigen können, in welcher Form die Politik sie direkt geschädigt hat. Ihre Verletzungen waren nicht „konkret und spezifiziert“. Und weiter:

„Das zentrale Thema, mit dem wir es hier zu tun haben, ist das Wetter, selbst wenn man annimmt, dass es ein solches breit gefasstes Recht gibt, kann ein Gerichtshof den Klägern nicht die Abhilfe verschaffen, nach denen sie trachten – eine Anordnung, wonach die Regierung einen Plan zu entwickeln habe, um ,Emissionen fossiler Treibstoffe zu eliminieren und überschüssiges atmosphärisches CO2 aus dieser zu entfernen‘. Widerwillig folgern wir daraus, dass ein solches Vorgehen jenseits unserer verfassungsgemäßen Macht liegt.

Vielmehr muss die beeindruckende Klage auf Abhilfe den politischen Zweigen der Regierung vorgelegt werden. Jeder effektive Plan würde notwendigerweise eine Fülle komplexer politischer Entscheidungen erzwingen, zum Besseren oder Schlechteren, je nach Wissen und Gewissen der Legislative und der Exekutive“.

Das Gericht verwies den Fall an die niederen Instanzen zur Ablehnung zurück.

Selbst der am weitesten links stehende Gerichtshof der Nation [= der USA] könnte das Gesetz nicht weit genug ausdehnen, um zuzulassen, dass diese gescheiterte Klage weitergeht, sagte mein Kollege James F. Taylor vom Heartland Institute in einer Presseerklärung.

„Es ist schwierig, sich eine noch gründlichere Rüge vorzustellen bzgl. dieses Unsinns eines Klima-Gerichtsverfahrens als sie von diesem Urteil gegen derartige Klagen ausgesprochen worden ist. Diese jungen Marionetten eines üppig finanzierten Klima-Alarmismus-Establishments haben keine Basis für ihre Behauptungen und keine Wissenschaft, welche dieselben stützt. Sogar die am weitesten links stehenden Richter der Nation haben das heute klargestellt“, sagte Taylor.

Der Meteorologe Anthony Watts, leitendes Mitglied am Heartland Institute, sagte, dass die beiden Fälle getrieben worden seien durch Klima-Sonderinteressen, wobei jeder einzelne Fall sich auf eine falsche Darstellung des Klimazustandes stützt.

„Genau wie der jüngst ebenfalls zurückgewiesene Fall gegen ExxonMobil in New York war auch dieser Fall von ,Kindern, die wegen des Klimas besorgt sind‘, veranlasst und voran gepeitscht durch Interessen von Klima-Aktivisten“, sagte Watts. „In beiden Fällen wurden riesige Summen Geldes, viel Zeit und gesetzliche Expertise aufgewendet ob dieser Behauptungen – in einem Versuch, gerichtlich feststellen zu lassen, dass Klimawandel schädlich ist. Beide Fälle wurden zurückgewiesen.

Es ist schwer zu begründen, wie eine Erwärmung um etwa 1 Grad Celsius der Menschheit abträglich sein soll“, sagte Watts.

In Juliana folgerte das Gericht richtig, dass es jenseits der konstitutionellen Macht der Judikative liegt, eine landesweite Klimapolitik anzuordnen, sagte Sam Kazman vom Competitive Enterprise Institute. Und weiter:

„Das Gericht hat richtig erkannt, dass ein Verfahren, das dazu führen soll, einen nationalen Plan zur Eliminierung der Emissionen fossiler Treibstoffe und der Reduktion des atmosphärischen Kohlendioxid-Gehaltes zu entwickeln, weit über die verfassungsmäßige Zuständigkeit des Gerichts hinausgehen würde“, sagte Kazman. „Es würde von dem Gericht verlangen, sein Urteil in beispiellosem Umfang an die Stelle von Entscheidungen des Kongresses und der Regierung zu setzen“.

Mit Sicherheit kann man die Millionen Dollar aus öffentlichen und privaten Quellen besser verwenden, ebenso wie die tausende von Stunden von Bemühungen seitens Anwälten, Beamten und Wissenschaftlern, die allesamt in diese gescheiterten Gerichtsverfahren geflossen sind, welche die Gerichte immer wieder beschäftigt haben.

Seien es nun falsch unterrichtete Kinder, die manipuliert durch radikale Umweltaktivisten gegen angebliche zukünftige Klimaschäden klagen, oder seien es Städte und Staaten, die gegen Ölunternehmen klagen in der Hoffnung auf den großen Zahltag – es ist an der Zeit für lokale und nationale Gerichte zu sagen ,genug ist genug‘ und sämtliche derartigen Verfahren abzulehnen. Wie der Gerichtshof hier richtig erkannte, ist es Sache der gewählten Regierungsbereiche und nicht der Judikative, über die nationale Klima- und Energiepolitik zu befinden.

Quellen: The Heartland Institute; Law.com; Environment & Climate News

Link: https://www.heartland.org/news-opinion/news/climate-crackpots-lose-in-court-again

[Einschub des Übersetzers: Zum gleichen Fall gibt es bei der GWPF einen weiteren Kommentar, der hier ebenfalls übersetzt wird:

Ende Einschub]

Gericht weist Klage von Klima-Kindern zurück

Peter Murphy

Die Bürgerschaft und die Ökonomie der USA sind gerade einem Beschuss aus dem Weg gegangen, als ein groß angelegtes Klimawandel-Gerichtsverfahren gegen die [US-]Bundesregierung von einem Bundesgericht mit einem dünnen 2-zu-1-Urteil zurückgewiesen worden ist.

Im Fall von Juliana et al. gegen die Vereinigten Staaten hat das US-Berufungsgericht „widerwillig“ geurteilt, dass nach Artikel III der Verfassung, die Judikative betreffend, die Gerichte nicht die Macht haben, einen abhelfenden Plan oder Anordnung vorzunehmen, um den Behauptungen der Kläger bzgl. Klimawandel Rechnung zu tragen.

Die Kläger, darunter fast zwei Dutzend Kinder, wurden gestützt durch Our Children’s Trust, einer Klima-aktivistischen Organisation, sowie durch den Chef-Alarmisten James Hansen, der ganz unbescheiden behauptete, als „Hüter der Kläger … und zukünftiger Generationen“ zu fungieren. Die Klage war erstmals im Jahre 2015 anhängig vor einem Gericht in Oregon in der Hoffnung, dass die Richter der Nation einen umfassenden Plan zur Klima-Abschwächung auferlegen, Kohlenstoff-Emissionen zu reduzieren.

Untere Instanzen ließen es zu, dass das Verfahren zu höheren Instanzen durchgereicht wurde, trotz der Bemühungen der Regierung, das Verfahren zu Fall zu bringen. Bundesrichterin Ann Aiken urteilte zugunsten der Kläger mit der Erklärung, dass „ein das menschliche Leben erhaltendes Klimasystem“ ein „Grundrecht“ sei. Die Bundesregierung verwies den Fall an das Berufungsgericht, über die Legitimität dieses Verfahrens zu befinden einschließlich des Rechtsstatus‘ der Kläger.

Die Mehrheit des Berufungsgerichts konnte sich nicht dazu durchringen, dem Wunsch der Kläger nach einer Gerichtsverhandlung nachzukommen, geschweige denn einen „Abhilfe-Plan“ bzgl. Klimawandel zu implementieren, würde dieser doch fossile Treibstoffe verbieten und die heutige US-Ökonomie zerstören.

Wer kann es dem Berufungsgericht verdenken, so geurteilt zu haben? Es stellt sich heraus, dass nicht alle aktivistischen Richter es wagen, der Ökonomie zu verordnen, Kohlenstoff-Emissionen zu reduzieren aufgrund der fadenscheinigen Behauptung, dass dies den gewünschten Effekt der Kühlung und Heilung des Planeten hätte.

Während dieses Gericht von dieser Schwelle zurücktrat, gibt es andere Richter, die willens sind, diese Farce von einem Verfahren weiterzuführen. Die Richterin mit der von der Mehrheit abweichenden Ansicht Josephine Staton war ganz mit den Klägern einschließlich ihres Glaubens, dass Gerichte und nicht die gewählten Repräsentanten im Kongress erzwingen sollen, den Klimawandel zu stoppen.

In ihrer abweichenden Meinung verwies Richterin Staton auf die Experten der Kläger, deren Behauptungen sich wie der Inhalt eines schlechten Katastrophen-Films aus den 1970er Jahren lesen: Ungebremster Klimawandel wird begleitet sein „von steigendem Meeresspiegel, dem Versinken küstennaher Städte, Massenmigration, Kriegen um Ressourcen, Hungersnöte, Hitzewellen“ und so weiter. Die Richterin hätte besser daran getan, sich einmal die endlose Liste gescheiterter Klimakatastrophen-Prophezeiungen vorzunehmen.

Das ist nicht einfach nur Klima-Alarmismus: es ist Hysterie, und sie wurde ernsthaft durch das Gerichtssystem betrachtet. Der Fall hätte niemals so weit kommen dürfen, durchlief er doch drei Instanzen in einem eklatanten Versuch, den demokratischen Prozess zum Halten zu bringen, in welchem es auf nationaler Ebene bisher keine Mehrheit dafür gab, diese extreme, unerwünschte Klima-Agenda zu übernehmen.

Der Green New Deal beispielsweise ist voriges Jahr im Senat durchgefallen ohne auch nur ein einziges Votum der Zustimmung, auch nicht von den Senatoren, welche den Entwurf gesponsert hatten. Das Repräsentantenhaus hat niemals über diesen GND abgestimmt, da dessen Führerschaft wusste, dass er keine Chance hatte.

Der Fall Juliana et al. gegen die Vereinigten Staaten war ein beispielloser Versuch, es nicht gewählten Richtern und Bürokraten, die niemandem verantwortlich sind, zu überlassen, ökonomische und industrielle Änderungen anzuordnen in dem Versuch, Kohlenstoff-Emissionen zu reduzieren. Beinahe wäre es zu einem vollständigen Verfahren gekommen. Vor dem Hintergrund des Wissens um die Klima-alarmistischen Sympathien der Bundesrichter in Oregon hätte ein Verfahren dieser Art vermutlich die Behauptungen bzgl. globaler Erwärmung und einen „Abhilfe“-Plan voran gebracht, was Jahre lange weitere Klagen nach sich gezogen hätte.

Dieser Sieg des gesunden Menschenverstandes vor Gericht angesichts eines Verfahrens auf der Grundlage von Junk Science und Klimahysterie ist nur vorübergehend. Es wird weitergehen. Man sei gewarnt: Klima-Gerichtsverfahren werden nicht aufhören, werden doch Alarmistenbanden weiterhin die Gerichte bemühen, um ihre Politik durchzusetzen – eine Politik, die vor sorgfältiger wissenschaftlicher Begutachtung keinerlei bestand haben kann.

Link: https://www.cfact.org/2020/01/24/court-dismisses-climate-kids-lawsuit/

Übersetzt von Chris Frey EIKE




Die Ökoenergie Speicher-Lösung ist so einfach. Es muss sie nur jemand bezahlen

Europas größter Akkuspeicher steht kurz vor der Fertigstellung

Wer (wieder) sehen will, in welche monetären Desaster unsere Politik Deutschland manövriert, kann es am Speicherproblem ahnen.
In der Lausitz steht Deutschlands größter Akkuspeicher kurz vor der Fertigstellung. Anlass in Medien, dieses große Zukunftswerk zu loben [1]. Wer es bezahlen muss, kann darüber auch anderer Ansicht sein.

Speicherkosten dieser Akkulösung

Die Daten dieses größten Akkuspeichers Europas:
– Speichervolumen: 53 Megawattstunden
– Investkosten: 25 Millionen EUR
Das klingt nicht schlimm. Bis man auf den wirklichen Speicherbedarf hochrechnet:

Die täglich beanspruchte Leistung betrug 70 GW, daraus resultiert eine Strommenge von 1.680.000 MWh. Somit kostet dieser Akkuspeicher mit der Größe, um einen Tagesbedarf von Deutschland zu speichern netto:
792.453 Mio EUR (792 Milliarden EUR)

Nun weiß man nie, wann eine Flaute kommt und die Sonne nicht pflichtgemäß scheint. Der Speicher könnte leer sein, wenn er gerade gebraucht wird. Man benötigt also ganz grob mindestens die doppelte Speichermenge.
Dann kostet ein Tag Speicherinvest: 1.584.906 Mio EUR (1.585 Milliarden EUR, 1,585 Billionen EUR)
Leider sind die Akkus als chemische Elemente spätestens nach ungefähr 8 … 10 Jahren verbraucht und müssen getauscht werden. Es kommen demnach alle 10 Jahre um die (sehr freundlich geschätzt) 70 % Reinvest dazu.
Der Bruttopreis für solch einen „hoch innovativen“ Akkuspeicher neuester Akkutechnologie, der den Strombedarf Deutschlands für einen Tag speichern kann, beträgt nun ca. 2.694.340 Mio EUR (2.694 Milliarden EUR, 2,7 Billionen EUR) für die ersten zehn Jahre incl. Reinvest zum Weiterbetrieb.

Ein Tag Stromreserve reicht leider hinten und vorne nicht aus. Für den Winter schätzt man, dass mindestens 14 Tage erforderlich sind. So lange können „Dunkelflauten“, also Wetterlagen mit Hochnebel und gleichzeitig kein Wind, zu dieser Jahreszeit oft werden. Die „Sprüche“ sogenannter Energie-„Fachpersonen“, dank offshore-Windkraft gäbe es bei Ökoenergie eine gesicherte Grundlast, kann man vergessen, denn sie sind durch die realen Messwerte über viele Jahre längst widerlegt.
Um den Strombedarf für solche 14 Tage „Dunkelflaute“ einigermaßen verlässlich speichern zu können, kostet alleine die Infrastruktur zur Akkuspeicherung über die ersten 10 Jahre (einschließlich dem ersten Austauschzyklus-Invest) mindestens 37.720.755 Mio EUR (37.721 Milliarden EUR; 38 Billionen EUR).

Dazu kommen hier noch nicht berücksichtigte Kosten für die Transfer- und Speicherverluste, sonstigen Betriebskosten, wahrscheinliche Zusatzkosten, weil das derzeitige System keinen Dauerbetrieb über mehrere Tage aushält. Und wenn nicht alle auf kostenlos bereitgestelltem, öffentlichem Grund gebaut werden können, auch noch die Grundstücks-, oder Pachtkosten und bei diesem Bedarf an Lithium werden dessen Kosten rasant steigen … und und und …

Man wird nicht arg daneben liegen, wenn bei einer Realisierung in einem solchen Großmaßstab zum Schluss Gesamt-Kosten im Bereich 40 … 60 Billionen EUR erreicht (würden).

E. Musk kann es bestimmt billiger

Aber von E. Musk, dem Visionär aus USA mit seiner bisherigen Verlustfirma Tesla, die mehr Börsenwert hat als VW, wurde doch ein ganz großer, ganz billiger und deshalb damals hochgelobter Akkuspeicher in Australien gebaut!
[10] EIKE 30. Juli 2017: Der Visionär E. Musk (Tesla) rettet Südostaustralien für 32 Sekunden vor dem Blackout

Herrn Musk`s visionärer-Akkuspeicher bietet 130 MWh und kostete 90 Mio US$, zuzüglich ca. 4 Mio US$ jährliche Betriebskosten.
Daraus errechnen sich 0,63 Mio EUR/MWh (ohne die hohen, jährlichen Betriebskosten).
Der Akkuspeicher in der Lausitz kostet 0,472 Mio EUR/MWh (ebenfalls die reinen Gestehungskosten der Ersterrichtung).

Es mag verblüffen, aber der „billige“ Speicher von Herr Musk kostete mehr, als der neue in der Lausitz. Vielleicht, weil auch Visionäre an ihren Geldbeutel denken (Anm.: Es könnte nur noch sein, dass Herr Musk Grundstückskosten bezahlen musste, die in der Lausitz nicht anfielen).

Vergleichend zeigt es, dass auch als „billig“ titulierte Akkuspeicher genialer Visionäre ihren Preis haben.

Es bleibt dabei: Das „Wegwerfen“ von Ökostrom war schon immer viel, viel billiger, als der Versuch einer Speicherung

Was kostet nun diese Speichermöglichkeit für 10 Jahre pro kWh Strom?
Dazu die Umrechnung der 40 … 60 Billionen EUR auf den Energiebedarf von 10 Jahren:
1.680 GWh/Tag ergeben in 10 Jahren eine Summe von 6.122.000.000.000 kWh
Die Kosten für die ersten 10 Jahre betrugen 37.720.755 Mio. EUR
Somit kostet der Speicher-Investaufschlag für jede Kilowattstunde 6 … 9,8 EUR, wenn Excel richtig rechnet.

Beachten: Das sind die fiktiven Durchschnittskosten jeder erzeugten KWh. Bei der wirklichen Minderauslastung beaufschlagt sich jede wirklich gespeicherte kWh mit einem Vielfachen davon.
Ein Grund, warum solche Speicher im Großmaßstab derzeit ausschließlich als Regelenergiespeicher verwendet werden. Dafür lohnen sich diese Kosten (die inzwischen dafür auszugebenden, viele Millionen EUR im Jahr bezahlt ja auch der Stromkunde).

Jeder! der 82 Millionen hier lebenden Bürger würde nur für solch ein Speicher-Invest (also nicht für den Strom selbst, der kommt noch dazu) in den ersten Zehn Jahren 460.000 EUR bezahlen. Erscheint viel, verteilt sich aber doch auch auf viele Jahre. Da ist die Belastung ja gar nicht so hoch, sagen die Verantwortlichen … und haben bis dahin ihren Pensionsanspruch mit zugesichertem Inflationsausgleich erworben.

Nun wird manchem klar werden, warum so viele bestrebt sind, alle billige Energie schnellstmöglich zu verbieten (damit man nicht mehr damit vergleichen kann) und der CO2-Preis ganz schnell eine schwindelerregende Höhe erreichen muss (damit konventionelle Energiereste ebenfalls schwindelerregend viel kosten und der Preisabstand nicht ganz so exorbitant erscheint). Und warum daran partizipierende „Kreise“ geradezu gierig nach solchen Lösungen sind.

Unterstützt werden diese dabei von „Kreisen“, welche an Dummheit kaum mehr überboten werden können, und (wohl gerade deshalb) dafür von vielen Bürgern gewählt werden:
[6] Anmerkung: In der darin rezensierten Talkrunde verkündete A. Baerbock, dass das Speicherproblem Deutschlands bereits durch Akkuspeicher gelöst sei … (und leibhaftig dazu, dass jeder Bundesbürger jährlich 9.000.000.000 t CO2 (anstelle der richtigen, 9 Tonnen) emittiert.

Flächenbedarf

Zur Umsetzung für den Bedarf von Deutschland werden vom bisher größten Akkuspeicher Europas 443.774 Stück benötigt.
Der aktuell gebaute Akkuspeicher hat einen Platzbedarf von 5.830 m². Für 14 Tage Speichervolumen werden das netto ca. 2.587 km².
Nimmt man die Flächen von Hamburg, Berlin, Frankfurt a. M. und München zusammen, fehlen immer noch 382 km². Einfacher: das Saarland beansprucht 2.571 km² Fläche. Es wäre damit überdeckt.

Dies soll nur die Größenordnungen an Kosten und Flächenbedarfe weiterer „Bausteine“ der „innovativen, neuen Energien“ aufzeigen.

Jeder noch leidlich Vernünftige erkennt daran, warum sich weltweit für Deutschlands neue Ökotechnologie fast nur dann Nachahmer finden, sofern Deutschland einen erheblichen Teil bezahlt.
Und Deutschland macht das gerne. Schließlich ist es (laut unserer sogenannten „Intelligenz“) die alles entscheidende Maßnahme. Nur begreifen das nicht alle so gut wie unser besonders klimawissender Entwicklungsminister … :
Entwicklungsminister G. Müller: [4] … Teil des Green Deals der EU muss daher ein ambitioniertes Investitionspaket für den Ausbau erneuerbarer Energien in Afrika sein. Sonst erreichen wir das 1,5 Grad Ziel nie … Daher entscheidet sich die Überlebensfrage Klima in den Entwicklungs- und Schwellenländern. Wenn wir das nicht begreifen, dann hat unser Planet keine Zukunft … „
Wobei Minister Müller ja nur die Worte seiner Vorbeterin, Frau Merkel wiedergibt, die es in Davos ebenfalls gerade betont hat.

Und es zeigt auch auf, warum in hellster Verzweiflung bis in die hintersten Winkel nach „noch innovativeren“ Speichern geforscht wird und unsere Politik dafür alle denkbaren Förderschleusen öffnet. Entsprechend loben und forcieren deutsche „Öko-Energieforscher“ wie Volker Quaschning diesen Weg.

Auch zeigt es, warum sich „niemand“ über von der Leyens 1 … 4 Billionen EUR EU-C02-Neutralitätskosten „aufregt“. Im Vergleich zu den anderen, noch kommenden Kosten bleiben das wirklich nur Peanuts. Mit deren Nennung lässt sich jedoch die „Leidensfähigkeit“ der deutschen Bürger testen (die der Bürger im EU-Ausland weniger, denn diese wissen, wer es vorwiegend bezahlen wird).

Und in Deutschland funktioniert es: Die Freitagshüpfer und nun verstärkt „Instinktion Rebellion“ fordern noch viel höhere Abgaben (für ihre Eltern). Feuerwerk gibt es wegen den „statistischen, vorgezogenen Feinstaubtoten“ bald nicht mehr. dafür haben wir Fasching mit auf den Straßen hüpfende oder in Kostümen herumlaufende Narren nun das ganze Jahr.

Die Exportzukunft Deutschlands ist die Ökoenergie?

Kommt diese Technologie wenigstens aus Deutschland, welches sich mit seiner Vorreiterrolle bei der Ökotechnologie „ein industrielles Zukunftsmodell“ aufbaut?
So, wie inzwischen die G5 Infrastruktur und die moderne Rüstungstechnologie für unsere Bundeswehr (deren neue Zerstörer die Niederlande bauen), kommt auch diese Technologie wieder aus einem anderen Land. Nicht einmal die Errichtung erfolgt durch eine deutsche Firma:
[3] ... Werden mit der Big-Battery neue Arbeitsplätze geschaffen, wo kommen die Batterien her und sind Firmen der Region einbezogen? … ohne Umschweife: … Batterien dieser Dimension würden bislang nur in Südkorea produziert, und das Hauptlos des Auftrages sei an das tschechische Energieunternehmen Egem mit Sitz in Budweis (Südböhmen) gegangen.

Das ganze Geld (der deutschen Stromkunden, die es bezahlen müssen) „ernährt“ fast ausschließlich andere Nationen. Man kann sich dagegen natürlich „schützen“, wie es bei Solarmodulen (erfolglos) gemacht wird und Einfuhrzölle erheben. Wahl-werbewirksam ist so etwas bei vielen ohne Frage. Welcher Wähler denkt schon so weit, um zu verstehen, wer den Zoll bezahlen muss?

Lösung? (Langstrecken-)Luisa mit den Freitagshüpfern und unsere „bekannten“, weltrettenden NGOs kämpfen gegen Siemens und die (noch verbliebenen) deutschen Konzerne. Hoffentlich findet sie schnell genug eine Festanstellung im öffentlichen Dienst, bevor andere (brauchbar bezahlte) Arbeitsplätze ganz wegfallen.

Es bleibt jedoch ein Lichtblick: Es wird nicht (ganz) so weit kommen, da es wohl nicht so schnell genügend bezahlbares Lithium gibt.

Jede Zukunft hat einmal mit Visionen angefangen

Vielleicht werden die GRÜNEN doch noch mittels einer von ihnen beauftragten Studie die speichernden Netze von Frau Baerbock finden, oder die Gigabit-Speicher von Herrn Özdemir, wo ganze Bedarfe auf eine Festplatte passen, die ja wirklich immer billiger werden. Annalenas „Kobolde“ nicht zu vergessen, wobei nicht ganz klar ist, wie weit diese zu einer Lösung betragen könnten.
Oder ein ganz innovativer StartUp löst, wie sich Strom ebenso einfach wie CO2 mittels Zertifikaten über das Internet hin- und her transferieren und dabei beliebig zwischenspeichern lässt. Strom ist in Feststoffen ja auch nichts anderes als sich bewegendes „Elektronengas“ und in Luft schwebt Strom wie CO2 geruchslos und unsichtbar von Antenne zu Antenne.

Eine bahnbrechende Entdeckung hat dazu gerade die ausnehmend gut vernetzte „Exzellenz-Fachkraft“ und Regierungsberaterin für Klima und Energie, Frau Professor C. Kemfert gemacht. Sie hat endlich die wahre oder vielleicht auch parallele Struktur des Stromes in speziellen Ökostrom-Festkörpern, sofern diese Netzform haben, herausgefunden: Strom wandert in Stromnetzen bei bestimmten Bedingungen wohl auch als Molekül und nicht wie seit 1897 angenommen, ausschließlich als Elektron: Frau Prof. Kemfert: [9] Irgendwann wird es deshalb wie im beengten Verkehr eine Art Molekülstau im Netz geben
So etwas ist in der Physik nicht unmöglich. Man denke an den Teilchen/Welle-Dualismus des Lichts. Also bitte nicht mit einem „Hormonstau“ verwechseln.

Wenn aber der Strom auch als Molekül auftritt, erscheint auch ein Gascharakter nicht unmöglich. Und Gas lässt sich bekanntlich in Flaschen und Kavernen sammeln … oder wie mittels CO2-Zertifikaten transportieren …

Was lernt man daraus: Viele Jahre nach dem Beginn der Deutschen Energiewende herrscht an richtungsweisenden Ideen und Entdeckungen, wirklich kein Mangel. Nun müssen diese nur noch serienreif geforscht und als Großtechnologie gefertigt werden … Alle Institute deutscher Schulen und Hochschulen stehen bereit und warten nur noch auf den Eingang der Fördermittel. Die Fachpersonen holen sie dann aus dem Ausland (die eigenen hüpfen doch jeden Freitag und verweigern das Lernen, weil die Welt mit Sicherheit untergeht, bevor Lernen Sinn macht).

Derzeit neigt man eher zu einer pragmatischen Lösung

Eine Idee soll nicht unerwähnt bleiben, da sie als eine der wenigen schnell umsetzbaren, wirklichen Lösungscharakter hat: Keinen Energieverbrauch mehr haben.
Diese Lösung ist so genial einfach und unbezweifelbar richtig, dass sie inzwischen allseits als die Beste von allen betrachtet und deshalb besonders aktiv angegangen wird.
Also Luisa, Freitagshüpfer und NGOs: bekämpft die verbliebene, Deutsche Industrie, damit auch der letzte Rest unser Land verlässt. Das Geld zum Leben drucken wird dann einfach selbst– die EU macht es ja vor (und Venezuela, wie es endet: Inflationsrate 2018: 80.000 %) -. Nicht vergessen: Deutschland hat doch schon mehrfach gezeigt, dass ihre „Elite“ weiß, wie man das Geld der Bürger vernichtet.

Auch wenn die Speicherentwicklung „stottert“, Geschäftsmodelle sind bereits entwickelt

Es gibt nichts, was nicht für irgendjemanden Vorteile bietet. So auch das Akku-Speichermodell. Bei den erforderlichen Summen für den teuersten, möglichen Stromspeicher sind die Versorger freudige Unterstützer des Versorgungsmodells „lokale Stromgewinnung“, wie es auch die Freien Wähler in Bayern präferieren [5]. Der größte, Bayerische Versorger N.ergie ist jedenfalls Feuer und Flamme, denn er betreibt parallel eine Firma für Akkuspeicher. Wenn sich ein Teil seiner Kunden den Strom künftig nicht mehr leisten kann, verdient er mehrfach an den reicheren, die sich Akkus leisten können (beziehungsweise müssen, um in den kommenden Strom-Ausfallzeiten doch Strom zu haben).

Bild 1 Screenshot von der Homepage der N.ergie (Angebotsteil für Kommunen)

Eine wichtige Maßnahme wird von der N.ergie ebenfalls öffentlich unterstützt: Verhindern neuer Überlandtrassen.
Wo käme man hin, wenn es seinen Kunden möglich bliebe, den Strom dann von anderen Anbietern eventuell billiger zu beziehen. Besser, man verhindert frühzeitig, dass die zur „Fremdeinspeisung“ erforderlichen Trassen gebaut werden.
Dabei liegt man sogar im sicheren Trend der öffentlichen Meinung und der Bayerischen Landesregierung.

Alles eben nur eine Frage der richtigen Public Relation. Siemens zeigt gerade, wie viel man dabei auch falsch machen kann, und einem dann jeder „Freitagshüpfer“ auf der Nase herumtanzt.

Anstrengungen sofort verstärken, die Probleme werden später bestimmt gelöst

In der Politik muss man nichts können, das aber in vielen Sprachen … (laut WIKIPEDIA beherrscht Herr Altmaier vier, Martin Schulz fünf).

MSN-Nachrichten, Dienstag, 21. Januar 2020: Berlin (Reuters) : – Bundeswirtschaftsminister Peter Altmaier hält eine Abschaltung des letzten Braunkohlekraftwerks in Deutschland bereits 2035 für möglich.
Man könne schon vor dem Jahr 2038 aussteigen, wenn die Versorgungssicherheit und die Bezahlbarkeit des Stroms gesichert sei, sagte er am Dienstag bei einer Energietagung in Berlin …

Von der Leyen weiß immer eine Lösung

Altmaier zeigt in jeder Situation genau das Niveau an Intelligenz, welches seine Chefin (zum Nachplappern ihrer Vorgaben) für richtig hält. Von der Leyen hat immer die Gleiche (Hinweis: Das ist keine Wertung, sondern reine, persönliche Meinung des Autors).
Im Gegensatz zu Herrn Altmaier weiß sie allerdings, dass der Rückbau in die Steinzeit Geld viel kosten wird und sich dadurch Preise erhöhen werden. Und sie hätte ihren neuen Posten nie bekommen, wenn ihr nicht immer geniale Lösungen einfielen:
godmode trader 23.01.2020: [7] Von der Leyen hat eine gigantische Schnapsidee
Die EU-Kommissionspräsidentin hat einen waghalsigen Plan vorgelegt: Sie will im Kampf gegen den Klimawandel gewaltige Zollschranken um Europa und ein neues Bürokratiemonster errichten. Die Zeche dürften erneut die Verbraucher zahlen …
Der Plan sieht ungefähr so aus: Weil die europäische Wirtschaft bald mit rasant steigenden Energiepreisen und Abgaben im Zuge des Kampfs gegen den Klimawandel konfrontiert werden soll und dadurch noch mehr den Anschluss an den Rest der Welt verlieren dürfte, soll für sie eine Art Schutzzaun errichtet werden:
Auf Waren, die von außerhalb der EU nach Europa eingeführt werden, soll eine Art „Klimazoll“ erhoben werden, wenn die Ware im Herkunftsland weniger klimafreundlich produziert wurde als in der EU oder wenn der Transport klimaschädlich ist.
Die Höhe des Klimazolls soll den CO
2-Preisen in der EU entsprechen. Die EU will also künftig nicht nur in Europa produzierte Waren mit einer CO2-Abgabe belasten, sondern alle Waren, die in Europa verkauft werden sollen.

Zudem ist Frau v.d. Leyen argumentativ sehr gut abgesichert. Gleich 27 Nobelpreisträger sollen diese Idee gut finden [7]. Bekanntermaßen kann Intelligenz nicht irren und wenn es gleich so viel auf einmal ist, schon gar nicht.

Irgendwie meint man sich zu erinnern, so was Ähnliches sagte (und macht) ein Herr Trump. Hieß es da aber nicht, das wäre die Idee eines Verrückten, weil der Tod des Handels und EUROPA – vorneweg Deutschland – ist deshalb ganz, ganz strikt dagegen?
Gut, Trump macht es ja nicht wegen CO2, sondern nur für seine Bürger:
Auszüge aus seiner vor kurzem gehaltenen Rede in Davos [Achgut]: Trump: … Jede Entscheidung, die wir in den Bereichen Steuern, Handelsregulierung, Energie, Einwanderung, Bildung und vieles mehr treffen, ist darauf ausgerichtet, das Leben der Amerikaner im Alltag zu verbessern. Wir sind entschlossen, den höchsten Lebensstandard zu schaffen, den man sich vorstellen kann, und genau das tun wir jetzt für unsere Arbeiter: den höchsten der Welt. Und wir sind entschlossen, dafür zu sorgen, dass die Arbeiter- und Mittelschicht die größten Gewinne einfährt. Die höchste Pflicht einer Nation ist den eigenen Bürgern gegenüber. Diese Wahrheit zu ehren, ist der einzige Weg, um Vertrauen in das Marktsystem aufzubauen.

Nur wenn die Regierungen ihre eigenen Bürger an die erste Stelle setzen, werden die Menschen vollständig in ihre nationale Zukunft investiert sein. In den Vereinigten Staaten bauen wir eine Wirtschaft auf, die für alle funktioniert, und stellen die Bande der Liebe und Loyalität wieder her, die die Bürger vereinen und die Nationen mit Macht ausstatten. Heute halte ich das amerikanische Modell als Beispiel für ein funktionierendes System der freien Wirtschaft fest, das den meisten Menschen im 21. Jahrhundert und darüber hinaus den größten Nutzen bringen wird. Eine arbeitnehmer-, bürger- und familienfreundliche Agenda zeigt, wie eine Nation gedeihen kann, wenn ihre Gemeinschaften, ihre Unternehmen, ihre Regierung und ihr Volk zum Wohle der ganzen Nation zusammenarbeiten. Als Teil dieser neuen Vision haben wir das größte Paket von Steuersenkungen und Reformen in der amerikanischen Geschichte verabschiedet …
Wir haben unsere Unternehmenssteuer von der höchsten in der entwickelten Welt auf eine Steuer gesenkt, die nicht nur wettbewerbsfähig ist, sondern auch zu den niedrigeren Steuern gehört. Wir haben fast 9.000 Chancen-Zonen in notleidenden Gemeinden geschaffen, in denen Kapitalgewinne oder langfristige Investitionen jetzt mit Null besteuert werden. Und ein enormer Reichtum strömten in Gebiete, die vierhundert Jahre lang nichts gesehen haben …
Wir haben auch die ehrgeizigste Kampagne in der Geschichte gestartet, um Job-vernichtende Vorschriften zu reduzieren. Für jede neue Verordnung, die wir verabschieden, entfernen wir acht alte Vorschriften, wodurch durchschnittlich 3.100 Dollar pro Jahr für amerikanische Haushalte eingespart werden. Es sollten „für jede, die wir machen, zwei“ sein – aber wir konnten das auf acht anheben, und wir denken, dass das noch viel höher gehen wird. Wir haben noch einen weiten Weg vor uns. Heute fordere ich andere Nationen auf, unserem Beispiel zu folgen und Ihre Bürger von der drückenden Last der Bürokratie zu befreien … Wir stellen auch die verfassungsmäßige Rechtsstaatlichkeit in Amerika wieder her, die für unsere Wirtschaft, unsere Freiheit und unsere Zukunft unerlässlich ist … Bevor ich gewählt wurde, untergruben Chinas räuberische Praktiken den Handel für alle. Aber niemand hat etwas dagegen unternommen, außer zuzulassen, dass es immer schlimmer und schlimmer und schlimmer wird. Unter meiner Führung hat Amerika das Problem frontal angepackt. Im Rahmen unseres neuen Abkommens der Phase 1 – Phase 2 beginnt in Kürze mit den Verhandlungen – hat sich China bereit erklärt, im Wesentlichen Dinge zu tun, die es nicht getan hätte: Maßnahmen zum Schutz des geistigen Eigentums, Beendigung des erzwungenen Technologietransfers ..

Undenkbar, so etwas in einer Rede von einem etablierten Politiker*in in Deutschland oder der EU zu hören. Diese argumentieren umgekehrt, dass „ihr“ Land eine „große Emissionsschuld“ habe und „ihre“ Bürger deshalb mit ihrem Geld die ganze Welt retten müssen. Dazu gratulieren welche mit stolzem Edelmut dem Iran zum Jahrestag seiner Unterdrückungsrevolution, oder bezeichnen einen Teil ihrer Bürger als „Pack“.
Wie abscheulich es ist, wenn ein Politiker an die eigenen Bürger denkt, gar etwas für sie macht, ganz, ganz schlimm: Wahlversprechen einhält, sagte R. Habeck gleich hinterher: „Das war die schlechteste Rede, die ich in meinem Leben gehört habe“ …
Habeck als promovierter Märchenerzähler ist autorisiert, so etwas bewerten zu können. Als bereits das „Staatstragen“ übender Politiker erkennt er auch die Gefahr, die solche Reden bergen, wenn sie in Deutschland bekannter würden und Politiker dazu Antworten geben müssten.
Habeck: „Er ist der Gegner, er steht für alle Probleme, die wir haben“ …
Es gibt viele Kommentare darüber. Anbei nur einer:
[8] “Stellen Sie sich bitte vor, dieser monothematische, grünfundamentalistische, arrogante, undiplomatische, selbstverliebte, laienhafte, seine Klientel versorgende Schnösel würde 2021 Bundeskanzler der viertgrößten Volkswirtschaft der Erde. Na servus!”
Hilft aber nichts. Das deutsche Wahrheitsinstitut, die dpa, befand Habecks Analyse und Erwiderung staatsmännisch hervorragend und so wurde es dann auch von vielen Zeitungen (die ja fast alle ihre Artikel von der dpa kaufen) berichtet.

Quellen

[1] LR Online, 09. Januar 2020: Big Battery in Schwarze Pumpe wächst

[2] 18.01.2020, J. Trittin: Treibhausgase Bei der FDP ist Markt nur Gesinnung, nicht aber Gestaltungsauftrag

[3] LR Online 19. März 2019: Neuer Stromspeicher Die Big-Battery Lausitz nimmt Gestalt an

[4] Nordbayerische Nachrichten, Lokalausgabe vom 17. Januar 2020: Interview mit Entwicklungsminister G. Müller

[5] Agentur für erneuerbare Energien 30. Januar 2019: Freie Wähler für regionale Energie

[6] EIKE 18. Dezember 2018: Annalena Baerbock: In Deutschland emittiert jeder Bürger 9 Gigatonnen CO2

[7] godmode trader 23.01.2020: Von der Leyen hat eine gigantische Schnapsidee

[8] TheEuropean 22.o1.2020: Habeck ist wirklich der einzige, der das Konzept von Davos nicht verstanden hat

[9] Zeit Online, C. Kemfert, 14. August 2019: Netzausbau: Falsch verkabelt

[10] EIKE 30. Juli 2017: Der Visionär E. Musk (Tesla) rettet Südostaustralien für 32 Sekunden vor dem Blackout




Wohlstand für alle dank Energiewende

Dabei soll in einer ersten diesbezügliche Überschlagsrechnung davon ausgegangen werden, dass lediglich die bisherige gesamte Stromerzeugung in Deutschland und der motorisierte Individualverkehr (MIV) durch alternative Energiequellen gedeckt wird. Fossile Energieträger für Raum- und Prozesswärme sowie andere Verkehrsträger (Luftfahrt, Straßengüterverkehr, Schifffahrt u. a.) sowie die Landwirtschaft, die immerhin noch mehr als 50% der CO2-Emissionen verursachen, werden wie bisher genutzt.

Es gelten folgende Voraussetzungen:

  • Die gesamte derzeitige Stromerzeugung von jährlich 649 TWh[1] bleibt auf dem bisherigen Niveau und erfolgt durch erneuerbare Energiequellen.
  • Der motorisierte Individualverkehr erfolgt durch Elektrofahrzeuge.
  • Das fluktuierende Angebot von Wind und Sonne wird durch noch zu entwickelnde Energiespeicher mit einem Wirkungsgrad von 100%[2]
  • Die Stromerzeugung aus Photovoltaik, Wasser und biogene Brennstoffe lässt sich um 20% erhöhen.
  • Keine Nutzung von Kernenergie

In 2018 betrug die Bruttostromerzeugung in Deutschland gem. Bundesumweltamt 649 TWh, davon aus erneuerbaren Energiequellen rd. 225 TWh. Diese setzten sich zusammen aus

Windenergie             110,0 TWh

Photovoltaik                45,8 TWh

Wasserkraft                18,0 TWh

Biogene Brennstoffe  50,8 TWh

224,6 TWh → 34,6 % der Bruttostromerzeugung

Ende 2018 waren 30.518 WKA (davon 1.305 Offshore) in Betrieb. Die mittlere jährliche Stromerzeugung je WKA der jetzigen Leistungsklasse beträgt somit

Voraussetzungsgemäß wird die Stromerzeugung aus Photovoltaik, Wasser und biogene Brennstoffe um 20% gesteigert. Das sind

                        1,2*(45,8 + 18,0 + 50.8) TWh = 137,5 TWh.

Damit ergibt sich folgende Bilanz, wonach noch 401,5 TWh durch WKA abzudecken sind:

aus Photovoltaik, Wasser biogene Brennstoffe            137,5 TWh

aus existierenden WKA                                                        110,0 TWh

aus noch zu errichtenden WKA                                         401,5 TWh

649,0 TWh.

Um diese 401,5 TWh zu erzeugen, sind noch

 

erforderlich. Mit den bereits existierenden WKA sind somit allein zur Deckung des bisherigen Strombedarfs zusammen

111.500 + 30.518 = 142.018 bzw. rd. 142.000 WKA

erforderlich.

Der MIV ist mit einem Endenergieverbrauch (Benzin, Diesel, Gas) von 400 TWh der größte Energieverbraucher im Verkehrssektor (750 TWh). Im Fahrzeug wird Endenergie in Nutzenergie umgewandelt. Bei einem durchschnittlichen Wirkungsgrad über alle Fahrzeugtypen und Leistungsstufen von 30% folgen daraus 120 TWh als Nutzenergie. Diese muss als Strom durch WKA bereitgestellt und bis zum E-Motor des Fahrzeuges geleitet werden. Die Wirkungsgrade dieser Übertragung sollen für Stromtransport und Umspannung 90%, Batterie 90% und E-Motor 85% betragen,
d. h. 0,9 * 0,9 * 0,85 = 0,69 bzw. 69%. Daraus folgt ein Strombedarf von 120/0,69 = 174 TWh. Dieser Strom reicht allerdings nicht aus, um den bisher üblichen Fahrkomfort zu gewährleisten. Es ist die Heizung, die bei Otto- und Dieselmotoren durch Abwärme erzeugt wird. Diese Fahrzeugheizung muss nunmehr durch Strom erfolgen, der ebenfalls durch eine WKA bereitzustellen ist. Es wird im Folgenden angenommen, dass die Fahrzeugheizung ca. 25% der Nutzenergie, d. h. 30 TWh ausmacht. Der effektive Strombedarf für den MIV würde somit 174 + 30 = 204 TWh betragen. Dafür sind

erforderlich. Damit ergibt sich ein Gesamtbedarf an WKA für

bisherigen Strombedarf                 142.000 WKA

motorisierten Individualverkehr      57.000 WKA

199.000 WKA.

Diese sind auf dem Territorium[3] von Deutschland, das ca. 390.000 km² beträgt, unterzubringen.

Nun gibt es viele Gebiete, die als Standorte für Windkraftanlagen völlig tabu sind, so z. B. Natur- und Landschaftsschutzgebiete, Parkanlagen, historische Stadtkerne, dicht besiedelte Gebiete, Flugplätze, Kraftwerke, Bundeswehrgelände oder auch die US-Atomwaffenlager in der Eifel. Werden in erster Näherung zunächst nur die Naturschutzgebiete (gem. WIKIPEDIA 4,5%) und Landschaftsschutzgebiete (gem. WIKIPEDIA 28,5%) als mögliche Standorte abgezogen, verringert sich die verfügbare Fläche zur Aufstellung von WKA auf

(1 – 0,045 – 0,285) * 390.000 km² = 261.300 km².

Daraus folgt eine WKA-Dichte von

Bei einer gleichmäßigen Verteilung dieser 199.000 WKA über die verfügbare Gesamtfläche Deutschlands[4]würde somit auf einer quadratischen Grundfläche mit einer Seitenlänge von 1.150 m je eine WKA stehen. Der Abstand von jedem beliebigen Standort in Deutschland zur nächsten WKA wäre folglich weniger als 580 m. Auf dem Territorium von Potsdam (187,86 km²) müssten somit 143 und von Cottbus (165,15 km²) 125 WKA aufgestellt werden.

Fazit: Wenn der gesamte jetzige und der für die Elektrifizierung des motorisierten Individualverkehrs zusätzlich erforderliche Strom ausschließlich durch alternative Energiequellen und insbesondere Windräder (WKA) erzeugt werden soll, sind mindestens 199.000 WKA der jetzigen Leistungsklasse erforderlich (bisher gibt es ca. 31.000 WKA). Dies setzt allerdings voraus, dass hinreichend große Stromspeicher mit einem phantastischen Wirkungsgrad von 100% existieren. Würden diese 199.000 WKA gleichmäßig auf dem Territorium von Deutschland (ausschließlich Natur- und Landschaftsschutzgebiete und einschließlich der Küstenzonen) verteilt, so kommen auf einer quadratischen Grundfläche von 2 km Seitenlänge je 3 Windräder zu stehen.

Reicht diese Entfernung aus, sodass jeder Bürger in den Genuss von Windbürgergeld kommt?

 

[1] Alle hier verwendeten Energiewerte TWh, GWh beziehen sich auf ein Jahr

[2] Ein geringerer Wirkungsgrad würde einen höheren Strombedarf zur Folge haben. Zum Vergleich: Pumpspeicherkraftwerke haben einen Wirkungsgrad von ca. 70%, Power-to-Gas-Anlagen von 30%.

[3] Es setzt sich gem. WIKIPEDIA zusammen aus Staatsgebiet (einschl. Flüsse, Seen, Naturschutzgebiete u. a.) mit 357.376 km² und Küstenzone (Ausschließliche Wirtschaftszone) mit 32.832 km².

[4] einschl. Städte und Gemeinden, Flüsse und Seen, Flugplätze und Bundeswehrgelände, Parks und Gärten




Die 4-Zehntel-Grad-Lüge des James Hansen im Jahr 1988

Dieses Runtersetzen der Globaltemperatur durch die „Erderwärmungs-Alarmisten“auf nur noch 14°C ist vergleichbar mit Pharma-Lobbyisten, die Grenzwerte für Erkrankungen immer weiter heruntersetzen, damit sie mehr Medikamente gegen diese behaupteten Erkrankungen verkaufen können. Der Blogtext* incl. Video wird nachweisen, wie insbesondere der US-Klimaforscher James Hansen, aber auch der Weltklimarat IPCC diesen wichtigen Normwert von 15°C um 1°C nach unten auf 14°C manipuliert hatten, als sie gemerkt haben, dass sie mit der bestehenden 15°C-Argumentation keine gefährliche Erderwärmung mehr ausweisen konnten.

Zusätzlich wurden diese Recherchen in diesem Blog auch in einem umfangreichen 90-minütigen Video dokumentiert:

 

Falls das Video bei Youtube gesperrt werden sollte, ist das Video parallel bei US.TV und bei BITCHUTE gesichert !!

Den konkreten Grund, warum das Video – von Youtube weg – „ausgelagert“ wurde, erfahren Sie in diesem 40-sekündigen Trailer !!

Video und Blogtext* ergänzen sich gegenseitig. Es ist als sinnvoll, sowohl das Video zu schauen, als auch den folgenden Blogtext* zu lesen und darin zu recherchieren, weil in diesem Blogtext auch die wichtigen Belegnachweise verlinkt sind.

Laut den Anführern des Weltuntergangskults der globalen Erwärmung beträgt die durchschnittliche Oberflächentemperatur der Erde 14 Grad Celsius, aber dies ist ein neuer Wert, der den ursprünglichen Durchschnitt von 15 Grad Celsius stillschweigend ersetzt hat. Aber viele „Mainstream-Institutionen“ haben diesen „Temperaturwert-Austausch“ von 15°C auf 14°C vor über 20 Jahren bis heute nicht bemerkt, wodurch der Schwindel nun mehr und mehr auffliegt, weil immer mehr Menschen den von der Klima(folgen)forschung selbstverursachten Widerspruch begreifen:

Am 29.03.1988, also ein paar Monate bevor der NASA-Klimaforscher James Hansen vor dem US-Kongress/US-Senat behauptete, dass die globale Erderwärmung im Gange sei, zitierte ihn die New York Times mit 59 Grad Fahrenheit [15° Celsius] als globale Durchschnittstemperatur zur Berechnung der Temperaturschwankungen.

One of the scientists, Dr. James E. Hansen of the National Aeronautics and Space Administration’s Institute for Space Studies in Manhattan, said he used the 30-year period 1950-1980, when the average global temperature was 59 degrees Fahrenheit, as a base to determine temperature variations.

Einer der Wissenschaftler, Dr. James E. Hansen vom Institut für Weltraumstudien der National Aeronautics and Space Administration in Manhattan [NASA-GISS], sagte, er habe den Zeitraum von 30 Jahren 1950 bis 1980, als die durchschnittliche globale Temperatur 59 Grad Fahrenheit [= 15°C] betrug, als Basis verwendet um Temperaturschwankungen zu bestimmen.

Unmittelbar nach Hansens bekannten Auftritt vor dem US-Kongress veröffentlichte die New York Times am 24.06.1988 auf der 1. Seite einen weiteren Artikel, der ebenfalls eine Grafik mit einem aktuellen globalen Temperaturwert für das Jahr 1988 von 59,7°F (=15,4°C) ausgewiesen hatte. Der deutsche „SPIEGEL“ übernahm in der Ausgabe 28/1988 vom 11.07.1988 auf Seite 185 diese Grafik.

Am 05. Juli 1988 stand ein Bericht in der in Connecticut ansässigen Zeitung The Day im Einklang mit dieser Behauptung. Im Bericht von „The DAY“ über Hansens Kongresszeugnis konnte man lesen:

Dr. Hansen informed the lawmakers that the first five months of 1988 were the hottest five-month period on record, averaging four-tenths of a degree above a 30-year (1950-1980) norm of 59 degrees Fahrenheit.

Dr. Hansen teilte dem Gesetzgeber mit, dass die ersten fünf Monate des Jahres 1988 mit durchschnittlich vier Zehnteln eines Grades über einer 30-Jahres-Norm (1950-1980) von 59 Grad Fahrenheit der heißeste Fünf-Monats-Zeitraum waren, der jemals verzeichnet wurde.

Interessant auch: alle Publikationen weisen den gleichen Detail-Fehler auf, denn die Jahre „1950-1980“ sind keine „30-Jahres-Norm“, sondern genau-genommen eine „31-Jahres-Norm“. Auch das „Vorwort“ (PREFACE) des schriftlichen Statements von James Hansen vom 23.06.1988 weist bereits widersprüchlich sowohl den Zeitraum „1950-1980″, als auch „1951-1980″ aus.

Obwohl die damals jüngsten Veröffentlichungen von Hansen seine Version der Unterschiede zur Basistemperatur für verschiedene Jahre enthalten, ist er vorsichtig genug gewesen, um weder die beobachteten Absolut-Temperaturen noch den Wert der Basistemperatur anzugeben. Das hatte Hansen dann dann doch lieber den Medien, wie z.B. der NewYorkTimes oder dem „SPIEGEL“ überlassen.

Trotzdem: Hansen offenbarte jedoch einmal seinen Grundwert in einer wissenschaftlichen Publikation. Das PapierClimate Impact of Increasing Atmospheric Carbon Dioxide“ erschien im August 1981 in Science und besagt:

The mean surface temperature is Ts ~ 288 K.

Die mittlere Oberflächentemperatur beträgt Ts ~ 288 K.

288 K oder 288 Kelvin entsprechen 15 Grad Celsius. Es ist wichtig an dieser Stelle zu verstehen, dass James Hansen diesen Wert von 15°C mit dem „Treibhauseffect“ (= „Greenhouse Effect“) und dem Stefan-Boltzmann-Gesetz hergeleitet und begründet hatte, was diese Hansen-Publikation aus dem Jahr 1981 eindeutig belegt. Diese Hansen-Herleitung der „15°C“ aus 1981 basierte also nicht auf einer statistisch-ermittelten globalen Mitteltemperatur auf Basis zig-Tausender Wetterstationen. Diese Differenzierung ist an dieser Stelle sehr, sehr wichtig und wird auch im oben verlinkten 90-minütigen Video sehr ausführlich thematisiert.

Aus einem Bericht vom 12.01.1992 im Schenectady Daily Gazette geht hervor, dass Hansen und seine Kollegin Helene Wilson diesen Wert von „15°C“ (59°F) mindestens auch 1992 verwendet haben. Daher verwendete Hansen über mehrere Jahre hinweg konstant 15 Grad Celsius als Basisdurchschnitt. [Klimamanifest-Quelle-Nachweis-Link]

James Hansen war nicht die einzige Person, die diesen Wert von „15°C plus X“ nutzte. Als das Intergovernmental Panel on Climate Change (IPCC), das kurz nach Hansens Aussage von 1988 vor dem Kongress eingerichtet wurde, 1990 seinen ersten Beurteilungsbericht vorlegte, listete eine Tabelle auf Seite xxxvii des Berichts auf, die eine „beobachtete Oberflächentemperatur“ auf der Erde von 15 Grad Celsius auswies.

Auch der 2. IPCC-Bericht aus dem Jahr 1995 erwähnt auf der Seite 57 (pdf-Seite 71) einen globalen Temperaturwert von „15°C“, wobei auch mit der Kiehl/Trenberth-Grafik auf der nachfolgenden Seite 58 mit den ausgewiesenen „390 W/m²“ als Bodenabstrahlung ebenfalls ein weiteres Äquivalent für die „15°C“ zu finden ist [Klimamanifest-Quelle-Nachweis-Link]. Die Kiehl/Trenberth-Energiebilanz Grafik existierte im 1. IPCC-Bericht 1990 noch nicht.

Eine weitere Person, die „15 Grad Celsius“ als globale Durchschnittstemperatur verwendete, war Anthony J. McMichael, ein Aktivistenprofessor, dessen E-Mail, die versprach, die Fäden in der australischen Regierung zu ziehen, im Klima-Skandal auftauchte. Laut McMichaels 1993 erschienenem BuchPlanetary Overload: Global Environmental Change and the Health of the Human Species“ hiess es auf einer Grafik auf der Seite 84 des Buches [Klimamanifest-Quelle-Nachweis-Link]:

Average temperature over past 10,000 years = 15°C

Durchschnittstemperatur in den letzten 10.000 Jahren = 15 ° C

[ 23-seitige Liste vom Klimamanifest mit weiteren 22 Puplikationen mit 15 Grad-Werten]

Es stellte sich aber ab ca. 1995 heraus, dass die Durchschnittstemperatur von 15 Grad Celsius ein ungünstiger Wert war, der die Behauptungen der globalen Erwärmung nicht stützte.

1996 hat Michael Mann (der während des Climategate-Skandals als Schöpfer von “ Mikes Naturtrick „, „den Niedergang zu verbergen“, zu Ruhm geführt) einen Artikel mit dem Titel „Greenhouse warming and changes in the seasonal cycle of temperature: Model versus observations“ veröffentlicht. Das Papier wies darauf hin, dass die von Klimamodellen gemachten Vorhersagen nicht mit den beobachteten Daten und der Variabilität der Temperatur übereinstimmten, die wahrscheinlich auf natürlichen Phänomenen beruhte:

… the signature of greenhouse warming is scarcely evident in the observational data[.] … It is possible that observed trends in phase, largely influenced by mid-latitude continental interiors, do not arise from greenhouse warming, but rather from natural variability. Such a notion is reinforced by the fact that marginally-significant trends are found in the control GFDL annual cycle, presumably due to organized century-scale internal variability.

… in den Beobachtungsdaten ist die Signatur der Treibhaus-Erwärmung kaum zu erkennen [.] … Es ist möglich, dass die beobachteten Phasentrends, die weitgehend von den kontinentalen Innenräumen des mittleren Breitengrads beeinflusst werden, nicht von der Treibhauserwärmung herrühren, sondern von der natürlichen Variabilität. Dies wird durch die Tatsache untermauert, dass im GFDL-Kontrolljahreszyklus geringfügig signifikante Trends zu finden sind, was vermutlich auf die organisierte interne Variabilität im Jahrhundertmaßstab zurückzuführen ist.

weiter…

If, on the other hand, the observed variation in the seasonal cycle truly represents a „fingerprint“ of greenhouse warming, the GFDL and CCM1 models do not appear capable of capturing the detailed responses of the seasonal cycle to greenhouse forcing.

Wenn andererseits die beobachtete Variation im saisonalen Zyklus tatsächlich einen „Fingerabdruck“ der Treibhaus-Erwärmung darstellt, scheinen die Modelle GFDL und CCM1 nicht in der Lage zu sein, die detaillierten Reaktionen des saisonalen Zyklus auf den Treibhauseffekt zu erfassen.

Discrepancies between the observed and model-predicted trends must be resolved before a compelling connection can be drawn between 20th century changes in the behavior of the annual cycle in temperature, and anthropogenic forcing of the climate.

Unstimmigkeiten zwischen den beobachteten und den vom Modell vorhergesagten Trends müssen gelöst werden, bevor ein zwingender Zusammenhang zwischen Änderungen des Verhaltens des jährlichen Temperaturzyklus im 20. Jahrhundert und dem anthropogenen Einfluss des Klimas hergestellt werden kann.

Bezeichnenderweise verwendete Michael Mann die „15 Grad Celsius“ als Grundtemperatur, während er die Parameter des jährlichen Temperaturzyklus berechnete, siehe „Figure 2„, „Figure 3“ und „Figure 4in seiner Arbeit. Obwohl er jeden Wert im Zyklus hätte auswählen können, hat er aber „15 Grad Celsius“ ausgewählt, und es ist vernünftig anzunehmen, dass er dies tat, weil es die akzeptierte langfristige globale Durchschnittstemperatur war.

Kurz nach der Veröffentlichung von Manns Artikel veröffentlichte das Worldwatch Institute, eine Organisation mit Sitz in Washington, DC, die jährliche Ausgabe von Vital Signs (1997) [KLIMAMANIFEST-NACHWEIS-LINK] . Die Publikation hatte auf Seite 62/63 ein Kapitel mit dem Titel „Global Temperature Down Slightly“ , der Globaltemperaturen bis zum Jahr 1996 ausweist und wo die Globaltemperatur für das Jahr 1996 bei 15,32°C unter auf der Seite 63 ausgewiesen wurden.

In der Literatur, die nach dem Bericht des Worldwatch Institute von 1997 veröffentlicht wurde, scheinen die „Führer der globalen Erwärmungsbewegung“ begonnen zu haben, 14 Grad Celsius für die globale Durchschnittstemperatur zu verwenden. Am 14.12.2002 zitierte der Sydney Morning Herald James Hansen, der diesen neuen Durchschnitt von „14 °C“ erwähnte. [Klimamanifest-Quelle-Nachweis-Link]

This year the Earth’s average temperature was 14.64 °C, compared with the long-term average of 14°C, said James Hansen, of NASA’s Goddard Institute for Space Studies, who analyses the data collected from thousands of weather stations around the world.

In diesem Jahr lag die Durchschnittstemperatur der Erde bei 14,64°C, verglichen mit dem langjährigen Durchschnitt von 14°C, sagte James Hansen vom Goddard Institute for Space Studies der NASA, der die von Tausenden Wetterstationen auf der ganzen Welt gesammelten Daten analysiert.

Auch das IPCC verwendete jetzt ebenfalls „14 Grad Celsius“ als Basistemperatur, wie aus einer Grafik hervorgeht, die Teil des IPCC-Berichts von 2007 ist. Auch die „Summary for Policymakers“ (SPM) 2007 (deutsch) zeigte in einer Grafik sehr deutlich eine Globaltemperatur unterhalb von 15°C, mit einer Null-Linie bei „14°C“. (Übrigens gewann das IPCC 2007 den Friedensnobelpreis. Das IPCC hatte zweifellos einen Nobelpreis verdient, aber es hätte für die Literatur gedacht sein müssen, da sich die Organisation beim Schreiben von Fantasien hervorgetan hatte.)

In einem im Jahr 2011 veröffentlichten Bericht 11-71 des Government Accountability Office (GAO) wird auf Seite 10 (pdf-Seite 24) James Hansen und seinen Kollegen eine geschätzte durchschnittliche Oberflächenlufttemperatur von 287 K oder 14 Grad Celsius zugeschrieben:

But Hansen and colleagues have estimated that Earth’s actual average surface air temperature between 1951 and 1980 was approximately 287 K (14 degrees Celsius) (Hansen et al. 2010).

Nach Schätzungen von Hansen und Kollegen lag die tatsächliche durchschnittliche Lufttemperatur auf der Erde zwischen 1951 und 1980 bei etwa 287 K (14 Grad Celsius) (Hansen et al. 2010).

Diese Seite 10 des GAO-Bericht 11-71 verknüpft die eigentliche Herleitung des Treibhauseffektes auf Basis des Stefan-Boltzmann-Gesetzes, Solarkonstante und Albedo in verfälschender Weise mit der Herleitung einer globalen Durchschnittstemperatur auf Grundlage weltweiter Wettermessstationen. Es wird dadurch fälschlich suggeriert, die globale 30-Jahre-Durchschnittstemperatur wäre die hergeleitete Basistemperatur des Treibhauseffektes, was in Wahrheit aber garnicht stimmt. Ein Irrtum, der sich seit Jahren als Irrtum in Politik, Medien und im deutschsprachigen WIKIPEDIA-Lexikon befindet.

Es ist schwierig, das genaue Datum zu bestimmen, an dem die Änderung von 15 auf 14 Grad eingeführt wurde. Es geschah höchstwahrscheinlich irgendwann im Jahr 1997 und definitiv nicht später als im Januar 1998.

In der Jahresausgabe „Vital signs 1998“ des Worldwatch Institute [KLIMAMANIFEST-NACHWEIS-LINK] werden 14 Grad Celsius als globale Durchschnittstemperatur verwendet, und es wird detailliert beschrieben, wie es über die Änderung von 15 Grad Celsius informiert wurde: In einer „Fußnote 1“ unter der Tabelle auf Seite 69 des Berichts sind die globalen Durchschnittstemperaturen für mehrere Jahre aufgeführt und unterhalb der Auflistung findet sich folgender Satz:

Base number is 1 degree Celsius lower than in earlier Vital Signs.

Die Basiszahl ist 1 Grad Celsius niedriger als bei früheren Vital Signs .

Auf der vorherigen Seite 68 findet sich oben im Text eine „Fussnote 2“, dessen Erläuterung man auf Seite 174 des gleichen Berichts findet und dort findet sich auch die „Erklärung“ für die Änderung:


In earlier versions of Vital Signs, Worldwatch added the temperature change reported by the Goddard Institute to an estimated global temperature of 15 degrees Celsius, but the institute has since informed Worldwatch that a better base number would be 14 degrees Celsius. James Hansen, Goddard Institute for Space Studies, New York, email to author, 18 January 1998.

In früheren Versionen von Vital Signs hat Worldwatch die vom Goddard Institute gemeldete Temperaturänderung zu einer geschätzten globalen Temperatur von 15 Grad Celsius hinzugefügt, aber das Institut hat Worldwatch seitdem informiert, dass eine bessere Basiszahl 14 Grad Celsius betragen würde. James Hansen, Goddard-Institut für Weltraumforschung, New York, E-Mail an den Autor, 18. Januar 1998.

 

Mit anderen Worten, James Hansen sandte das Wort, dass 14 die neuen 15 sind.

Und wie gesagt: Das obige 90-minütige Video erklärt die Zusammenhänge noch intensiver und erwähnt und erklärt auch das perfide Motiv, welches James Hansen im Jahr 1988 bis heute für seinen gesamten CO2-Treibhauseffekt-Schwindel hat.

Wer Fragen oder Anmerkungen zu obigen Blogtext mit Video hat, kann diese gerne per Mail stellen.

*
Dieser Blogtext ist ein ins deutsche übersetzter und mit zusätzlichen und aktualisierten Informationen ergänzter Blogtext des ursprünglichen Blogtextes von Arvind Kumar aus dem Jahr 2012.

Dieser Blogtext wurde am 26./28.01.2020 zuerst veröffentlicht auf www.klimamanifest.ch

 




Sternstunden der Wahrheit in den Öffentlich-Rechtlichen – es war einmal…..

(AR Göhring)

Bis etwa 2.000 galt in den ARD/ZDF/ORF/SRF-Sendern der menschgemachte Klimawandel nicht als dogmatische Wahrheit, sondern wurde dialektisch diskutiert. Von 2.000 bis 2010 dann gab es nur noch vereinzelte Stimmen, denen erlaubt wurde, an mehr oder weniger versteckten Sendeplätzen Tacheles zu reden. Ab 2010 war auch das fast völlig vorbei; der erste Klimahype von 2006/07 mit Nobelpreis für das IPCC und Oscar für TV-Prediger Al Gore hatte seine Wirkung getan.

Hier eine wunderbare Zusammenstellung (meist) aus Zeiten vor 2010, als der Deutsche Fernsehfunk noch Fakten brachte. Mit Michael Limburg, Horst-Joachim Lüdecke, Günter Ederer, Fred Singer, Nigel Calder, Vince Ebert, Hans von Storch, Thomas Globig, Norbert Bolz, Hans-Joachim Zillmer, Wolfgang Thüne, Steffen Biersack, Harald Lesch, Hans Mathias Kepplinger, Dieter Hanitzsch, …und sogar Stefan Rahmstorf vom PIK!

Ausschnitte von Report-München, Phoenix-Runde, Fakt ist…!, extra (ARD), 3SatFestival, hart aber fair, Wetter für drei (MDR), mdr um 12, Dellings Woche (WDR), Aeschbacher (SRF1), alpha-Centauri (BR), SF Rundschau (3SAT), Der Sonntags-Stammtisch (BR).


>
 




Turnschuhe aus Spinnenseide- satirische Gedanken zur grünen Bioökonomiestrategie

Der MDR vermeldet: „Bundesforschungsministerin Anja Karliczek (CDU) und Agrarministerin Julia Klöckner (CDU) wollen in den kommenden vier Jahren 3,6 Milliarden Euro in die Förderung der Bioökonomie investieren. „

Agrar heute dazu: „In der „Nationalen Bioökonomiestrategie“ geht es konkret um die verstärkte Erforschung und Nutzung nachwachsender Rohstoffe. Auch die Sicherstellung der Ernährung vor dem Hintergrund von Klimawandel und Bevölkerungswachstum stehe im Fokus. „Biobasierte Materialien stehen den Eigenschaften erdölbasierter Kunststoffe in kaum noch etwas nach“, sagte Karliczek.

Auf unseren Äckern wächst, was wir sonst importieren müssten“, sagte Klöckner.

Es ist die Rede von Turnschuhen aus Spinnenseide und Autoreifen aus Mais (MDR) oder Löwenzahn (agrar heute).

Ich überprüfe, ob es sich wirklich um eine Nachrichtenmeldung handelt oder ob ich in eine Satiresendung geschaltet habe. Eine versteckte Kamera ist auch nicht im Auto, also mein dümmlich drein blickendes Gesicht wird nicht im TV erscheinen. Die meinen das ernst!

Ich kann mich an eine Dokumentation erinnern, da ging es um Bioplastik. Ein deutscher Herr Gerritsen, Geschäftsführer der deutsch-holländischen Firma Bio4Pack, beschäftigt sich seit 18 Jahren mit Bioverpackungen und ist da schon fleißig dabei. Seine kompostierbaren Lebensmittelverpackungen findet man in den Supermarktketten der Niederlande, die Ihre Filialen auch in Deutschland haben wie Aldi und Lidl. Im supergrünen Deutschland findet man sie nicht, hier die Gründe:

Bioplastik: Der Begriff ist nicht klar definiert… nicht alles, wo Bio draufsteht, ist auch verträglich für die Umwelt, und Bioplastik heißt nicht automatisch, dass es biologisch abbaubar ist… „ schreibt das Süddeutsche Zeitung Magazin. Und weiter: „Die deutsche Verpackungsverordnung lässt Bioplastik nicht in die Biotonne.“ Es müsste in industriellen Kompostieranlagen zwölf Wochen kompostiert werden. Das geht in Deutschland wohl nicht, in Holland aber offensichtlich schon. Neuste Entwicklungen auf diesem Gebiet sind Bioplastik Produkte, die auf alle Fälle in drei Jahren verschwunden sind, sollten sie in der Natur landen. Wenn Sie nun sagen: „Toll, das müsste man doch fördern und wie viel kostet das den Verbraucher mehr?“. Förderung ist gleich Null, manche Verpackungen kosten nicht mehr, andere zwischen 3-4 Cent, wohlgemerkt pro Verpackung, auf die Erdbeere umgerechnet, ist das nicht viel.

Nun die Damen Bundesministerinnen: Hier muss man vielleicht gar nichts fördern, sondern einfach nur zulassen und die Kompostierung organisieren, im Land der angeblichen Recyclingweltmeister? Ich glaube, das steht in Ihrer Aufgabenbeschreibung. Man spricht von der Hälfte an CO2-Freisetzung bei der Herstellung von Bioplastik im Vergleich zu Petrolplastik. Oder schlagen hier die Lobbyisten der Petrolchemie zu, die sie so gerne bei den „Klimaleugnern“ verorten?

Es ist noch nicht so lange her, im Jahre 2004 in der Kölschen Rundschau:

Bauern könnten die „Ölscheichs von morgen“ werden, wenn das Potenzial nachwachsender Rohstoffe in Deutschland stärker genutzt würde, sagte Künast (Die Grünen) bei Vorlage des Ernteberichts. Trotz des feuchten Frühsommers hat Künast der bevorstehenden Ernte insgesamt „Spitzenerträge“ bescheinigt.“ Hört, hört: feuchter Frühsommer war nicht gut, heute ist es die Dürre. Geerntet haben wir trotzdem immer mehr. Klingt wie die Ministerinnen von heute. Haben die nur abgeschrieben und statt dem Biosprit die Autoreifen eingesetzt? Heute will man den Biosprit nicht mehr so richtig. Er könnte ja von den regenwaldvernichtenden Palmölplantagen kommen. Man will die sauberen E-Autos! E10 ist gerade teurer geworden, angeblich wegen der gestiegenen Nachfrage. Die Erzeuger sagen, das wäre nicht der Grund …

Palmöl in zahlreichen Kosmetika, Lebensmitteln und Industriestoffen ist dagegen in Ordnung. Es ist also ein Unterschied, wofür der Orang-Utan stirbt! Für den Treibstoff eines SUV ist es abzulehnen, für die Tafel Schokolade eines E-Auto Fahrers ist es „Bio“. Verlogene grüne Welt!

Übrigens Regenwald: Würde man alle Staudammprojekte im Amazonas Regenwald umsetzen, für grünen Strom natürlich (Strom hat heutzutage Farben), sterben laut Experten 1.000 Fischarten aus. Das sind 10% aller Süßwasserfischarten weltweit. Tausende Hektar Regenwald werden überschwemmt. Ein bereits angelegter Stausee produziert durch faulenden, überschwemmten Regenwald 20x mehr „Treibhausgase“, als ein Kohlekraftwerk gleicher Leistung. In der Türkei wird ein Staudamm den Tigris aufstauen und flussabwärts ein riesiges Sumpfgebiet in Wüste verwandeln. Grün ist dann nur noch der Strom. Schade das Strom nicht stinken kann.

Und da gibt es ja noch Biogas. Ursprünglich entwickelt, um aus Gülle oder Festmist Methan zu erzeugen. Später kamen dann organische Stoffe wie Biomüll oder Abfälle aus Schlachtereien, der Gastronomie oder der Lebensmittelindustrie hinzu. Die ganz großen Anlagen benötigen dazu noch Mais oder anderes Getreide. Als Heilsbringer deklariert, der Bauer wurde nun der Gasbaron. Oder doch nicht? Eine Studie des Umweltbundesamtes:

Seit 2005 sind mindestens 17 Menschen bei Unfällen in Biogasanlagen getötet und 74 verletzt worden

im Jahr 2017 wurden 32 Unfälle in Biogasanlagen registriert, bei denen rund 5,5 Millionen Liter Jauche, Gülle und Silagesickersäfte sowie Gärsubstrate (JGS) freigesetzt worden

in den Jahren 2017 und 2018 insgesamt 56 Biogasunfälle, bei denen 38 Mal Gewässer betroffen waren

Dreiviertel, der von Sachverständigen geprüften Biogasanlagen, weisen erhebliche sicherheitstechnische Mängel auf

5 Prozent des in Biogasanlagen produzierten Methans entweicht unkontrolliert in die Atmosphäre 

Damit können Biogasanlagen in der Gesamtbetrachtung sogar mehr Emissionen an klimaschädlichen Gasen verursachen als einsparen

Fazit: „Biogasanlagen sind eine Gefahr für Mensch, Klima und Umwelt“

Zudem werden jetzt die Gärreste zum Dung, der auf den Feldern landet, hinzugerechnet und erschweren die Einhaltung der Düngeverordnung.

In Deutschland laufen derzeit über 9.000 dieser Anlagen, im Glauben an die Bundesminister*innen errichtet. So wird man ein Ungläubiger!

Meldung des MDR: „Bauern demonstrieren vor dem Landtag in Thüringen“

Hintergrund ist die Düngemittelverordnung, die den Einsatz von künstlichem und organischem Dünger erheblich einschränken soll, da sonst zu viel Nitrat in das Grundwasser gelangt. Die Bauern zweifeln die Messmethoden und Ergebnisse zu Recht an. Daraufhin erwidert Thüringens Umweltministerin Anja Siegesmund laut Radio: Sie wolle den unterschiedlichen Messergebnisse der Nitratbelastung des Grundwassers nachgehen.

Ein satirischer Gedanke kriecht in mir hoch: Sollte man das nicht vorher machen oder ist „nachgehen“ wörtlich gemeint? Mit den Nitratgrenzwerten ist es ähnlich wie mit den Stickoxiden. Die Werte sind auf sehr niedrigem Niveau. Das Dreifache stört niemanden, selbst mit dem Siebenfachen können Erwachsene leben, wenn sie denn im Trinkwasser wären, wo sie nie waren, da Trinkwasser aus verschiedenen Grundwasser Quellen gemischt wird. Und: ist der Nitratwert an einigen Messstellen zu hoch, lief bei Industrie, Abwasserwirtschaft UND Bauern etwas schief, aber nicht bei allen und überall!

So und jetzt nochmal von Anfang: Nach Ölscheich und Gasbaron soll jetzt der Bauer zum Autoreifenhersteller werden, aber bitte mit Traktoren ohne Diesel oder E-Fuel und mit wenig Düngung. Wissen unsere Bundesvorturner, dass Mais ein Humuszehrer ist und viel Düngung benötigt. Und was ist mit den veränderten Klimabedingungen? Ach so, man will trocken-resistente Pflanzen züchten. Was ist dann mit den feuchten Frühsommern? Übrigens wäre der Nitratgehalt nicht eine Frage des Düngens sondern eine des Konsums, so Umwelttoxikologin Prof. Heidi Foth von der Universität Halle-Wittenberg. Sie möchte über die Tierproduktion nachdenken. Können wir, habe ich studiert. Die Ställe, die ich bauen würde , bekämen keine Genehmigung, würden das Tierwohl aber viel mehr berücksichtigen. Auf dem Lande darf es nicht mehr nach Tierhaltung riechen, darf kein Hahn krähen und kein Hund bellen. Der neue, der Urbanität entflohene Naturbursche benötigt seinen Schönheitsschlaf. Mit neuester Technik ausgestattet, bekämpft er das wuchernde Ungetüm namens Rasen. Bienen? Ja, Bienen sind gut.

So nun mach was draus, du dummer Bauer!

Die Tierproduktion trägt nicht mal 1% zur deutschen „Treibhaus“-Emission bei. Eine Kuh kann nur einen Teil des durch Photosynthese gebundenen Kohlenstoffs in Methan umwandeln. Vom Rest lebt sie und schenkt uns essentielle Amino- und Fettsäuren und wichtige fettlösliche Vitamine. Wenn ich jetzt noch dagegen rechne, wie viel in tatsächlichen Treibhäusern und Produktion von Fleischersatzprodukten dazu kommt, wird kein Unterschied messbar sein. Der Bio-Ackerbauer muss die doppelte Fläche bewirtschaften bei gleichem Ertrag! Wie macht er das wohl? Verbrauchte er dann nicht mehr „fossile Brennstoffe“?

Soja beurteilen wir ähnlich wie Palmöl. Als Tofu und Sojamilch (für die Laktoseintoleranten) topp, als Tierfutter der Regenwaldvernichter. Vielleicht schädigen die Veganer sogar das Klima mehr als die Karnivoren unter uns, um in deren Sprech zu bleiben? Kaut Bio-Möhren und ihr rettet das Klima oder auch nicht! Das entscheiden die Umweltverbände und Experten, die vorgeschobene Regierung Deutschlands. Wer regiert eigentlich Deutschland?

Wie die Halbwertzeiten der Versprechungen und Förderprogramme aussehen, merkt man jetzt. Die „tausenden Generationen“ der Svenja Schulze gelten hier wohl nicht, es sei denn, sie hat von Feldmäusen gesprochen. Kann man nie wissen. Sie sieht auch das Klima, welches nicht mehr nur Wetter ist, bei ihren Spaziergängen in der Eifel. Manche können CO2 sehen. Bei ihr ist der Klimawandel auch belegt. Sie hat wohl „menschengemacht“ davor vergessen. Kann passieren. Menschen werden oft vergessen. „Belegt“ ist wahrscheinlich nur das Brötchen in der Bundestagskantine. Vielleicht mit norwegischem Lachs, aber halt, Svenja isst vegetarisch. Na dann gibt es Kartoffeln aus Ägypten, Tomaten aus Holland und Gurken aus Spanien. Frau ALB mag vielleicht argentinisches Rinderfilet. Na ja, wenn unsere Bauern aber auch so alte Umweltsäue sind. Da müssen Leitplanken geschmiedet werden.

Übrigens nutzen wir die gleichen Ackerböden schon seit einigen hundert Jahren, trotz steigender Bevölkerungszahl. Wir mussten keine Wälder zusätzlich roden. Das geht nur durch die Aufrechterhaltung der Bodenfruchtbarkeit. Die Ackerfläche ist begrenzt, wollen wir Wald, Wiesen und verbliebene Sumpfgebiete erhalten. Gibt es irgendwo mehr Nachhaltigkeit? Sind Bauern doch nicht so dumm?

Auf Fritz FM, einem Berliner Radiosender, diskutiert man, ob es gut ist, dass jeder Bundesbürger ein Organspender wird. Man könne ja ablehnen und müsse auch keine Angst haben, da man vorher für hirntot erklärt werden muss. Wieder durchzuckt ein böser zur Satire neigender Gedanke mein Verschwörerhirn: Da müssen sich einige Protagonisten unserer Zeit jetzt schon Gedanken machen! Wenn man deren Hirnschale öffnet, klingt es in etwa so wie beim Öffnen eines Gurkenglases. Das Vakuum füllt sich hörbar!

Weiter vermeldet der* Radiosprecher*in, dass man die wirklichen Folgen des Klimawandels im Hainich-Wald erforschen wird, der ja ohne den Eingriff des Menschen wachsen darf. Man will die Obstplantagen der Fahner Höhen an eine Wasserleitung anschließen. Machen übrigens die Weinbauern schon lange und hatten in den deklarierten Dürrejahren sehr gute Jahrgänge. Hört sich gut an!

Die nächste Radiomeldung vom MDR Thüringen: „In Thüringen könnten tausende Arbeitsplätze in der Automobil- und Zulieferindustrie verloren gehen. Der Grund ist der zu langsame Umstieg auf die E-Auto Produktion. Die Hersteller fordern… die Kanzlerin lädt zum Gipfel…“

Die ETH Zürich hat mit einer experimentellen Parabolantenne, die das Sonnenlicht bündelt, im Kopf der Antenne Syngas (H2 + CO) erzeugt. Genutzt wird hier die von der Sonneneinstrahlung erzeugte Hitze von über 1000°C. Aus dem Syngas können synthetische Kraftstoffe erzeugt werden. Erste Spin-Off Firmen versuchen, das Ganze weiter zu entwickeln und zur Marktreife zu bringen. Tim Böltken baut mit seiner Firma Ineratec in Karlsruhe Anlagen, die ebenfalls synthetische Kraftstoffe herstellen können. Aber nun haben die Umweltverbände (wer sonst) etwas dagegen:

Ökos wettern gegen E-Fuels: Umweltschützer und Grüne wettern sogar gegen künstliche Kraftstoffe. „E-Fuels sind derzeit unbezahlbar teuer und ineffizient“, sagt etwa der Grünen-Bundestagsabgeordnete Oliver Krischer. Ein wichtiges Argument der Gegner: der niedrige Wirkungsgrad. Anstatt Autos direkt mit Ökostrom anzutreiben, wird dieser erst eingesetzt, um Wasserstoff und dann den Treibstoff herzustellen.“ (Rhein-Neckar-Zeitung)

Das klang aber neulich noch ganz anderes, da war Wasserstoff der neue Hoffnungsträger. Power-to-Gas heißt der neue Anglizismus! Entweder wollte man das Gas direkt einsetzen oder in Methan umgewandelt, in unterirdischen Kavernen lagern. Damit will man Kraftwerke betreiben als Back-Up des volatilen Wind- u. PV-Stroms, der dann u.a. die E-Autos lädt. Haben Techniker wie Frau Nestle (Die Grünen) alles durchgerechnet. Die Erkenntnisse der ETH werden ignoriert. Mag sein, dass es noch nicht effektiv ist, aber Nachdenken u. Ausprobieren, sollten erlaubt sein. Von Förderung keine Spur … Turnschuhe aus Spinnenseide … Wie ist es mit der Förderung des Dual-Fluid-Reaktors?

Merken Sie was?

Autos mit Biosprit, E-Fuels u.a. synthetischen Treibstoffen will man nicht, da so der Kolbenmotor am Leben bleiben würde, denke ich einen satirischen Gedanken. Ist bestimmt nur eine wilde Verschwörungstheorie!

Aha, die Autoindustrie ist selber schuld.

Weitere Klagen vor dem Bundesverfassungsgericht… die DUH klagt im Namen von Bangladesch und Nepal, … Umweltverbände wollen die Verschärfung des Klimapaketes und den beschleunigten Ausbau der erneuerbaren Energien…“, so der MDR. Der Name Luisa Neubauer fällt. „Experten warnen…, der Klimawandel gehört zu den größten Risiken für unsere Erde in den nächsten zehn Jahren…“

Hm, Klimawandel, zehn Jahre denke ich und Gefahr für die Erde, ein wenig kleiner hatten sie´s wohl nicht. Die Erde ist dann eigentlich in permanenter Gefahr. Das ist mir zu …, jedenfalls will sich dazu kein weiterer Gedanke entwickeln. Zu den Ausbau der Erneuerbaren schon eher. Es fallen mir einige Vorträge auf YouTube dazu ein. Den von Prof. Lüdecke kennen wir alle. Ich nehme mal den von Prof. Christian Holler, der nicht im Verdacht steht, der Skeptiker Fraktion anzugehören: „Erneuerbare Energien und die Unbestechlichkeit der Physik“

Er legt 120 kWh als Primärenergiebedarf pro Kopf und Tag eines Bundesbürgers zu Grunde (90-120 kWh).

Um das anschaulich zu machen, hat er für die Luisas dieser Welt ausgerechnet, was es bedeutet, diese durch Erneuerbare darzustellen.

50% aller Dächer werden mit PV-Anlagen bedeckt und 3.600 km² auf anderen Flächen. Die 3.600 km² entsprechen etwa der Fläche Berlins und des Saarlands, etwa 1% der Fläche Deutschlands. Die sprechen sowieso komisch, also …

Über 100.000 WKA müssten on shore gebaut werden und ein 20km tiefer Streifen an der gesamten Ost- und Nordseeküste muss mit off Shore WKA verschönert werden. An Land sind das im Schnitt alle 2km eine WKA. Blöd für die, die Flügel haben! Vielleicht fördert das die Evolution der Laufvögel? Blöd auch für Pflanzen, die von Fluginsekten bestäubt werden müssen. Vielleicht sollten die sich das mit der Wasserleitung zu den Obstplantagen noch einmal überlegen? Wovon ernähren sich dann die Spinnen? Die Spinner ernähren sich von uns, das wissen wir.

Wenn wir die Wasserkraft überall wo möglich einsetzten, kommen nur 1,5 kWh pro Kopf u. Tag hinzu. Bei Trockenheit käme weiter unten kaum noch Wasser an, siehe Australien. Schuld ist dann … Besser wäre das geschickte Anlegen von Wasserreservoirs, um niederschlagsarme Zeiten zu überbrücken.

Nutzt man Biomasse soweit wie es geht, benötigen wir 33% unserer Ackerfläche, 50% des Ertrages unserer Wälder, alle organischen Abfälle. 11,9 Mio. ha haben wir als Ackerfläche zur Verfügung. Wir brauchen aber ca. 15 Mio. ha für unsere Nahrungsmittelproduktion. Also müssen wir jetzt schon Nahrungsmittel für die Bundestagskantine importieren. So langsam dämmert es einem, warum wir kein Fleisch mehr essen sollen! Denn da wo jetzt Futterpflanzen wachsen, müssen Pflanzen für Energie, Autoreifen und Diverses wachsen. Nahrungsmittel importieren wir zukünftig noch mehr. Von „nicht-industrieller“ Landwirtschaft keine Rede mehr. Mal abgesehen davon, dass die organischen Düngungen schwierig würde.

Wie war das: „Auf unseren Äckern wächst, was wir sonst importieren müssten!“ Nun bin ich verwirrt! Sie auch?

Der Professor zählt auch noch Geothermie dazu. Die tiefe Geothermie setzt Tiefenbohrungen voraus, bringt ca. 4 kWh. Die oberflächliche Geothermie, die berühmte Wärmepumpe, erbringt bei 50qm pro Person nochmal 5 kWh. Schauen Sie sich nochmal ihren Vorgarten an, der wird demnächst um gebaggert.

Also das soll der radikale Ausbau der Erneuerbaren sein? Dagegen würde ich klagen, liebe Luisa. Das raubt Zukunft und Landschaft. Es sein denn, man fliegt woanders hin. Kennst Du ja.

Was haben wir vergessen? Die Reserve-Kraftwerke, die wenn kein Wind und so … ach ja, die jetzt nicht mehr so ineffizienten Power-to-Gas Anlagen … Und die vielen Kupferleitungen, Wege und Straßen zu den WKA und PVA, die oft beim Flächenverbrauch weggelassen werden. Den Energieverbrauch für Erstellung und Transport … Jetzt können sich gerne alle wieder streiten, auf ein Windrad, eine PVA oder eine kWh mehr oder weniger, kommt es nicht an … das ist einfach nur Wahnsinn!

Die Lösung: Wir sparen 50% der Energie ein.

Wirtschaftsredakteurin der taz Ulrike Herrmann: „Es gibt keine Alternative zum Ökostrom, aber dieser wird immer knapp und kostbar bleiben. (…) Wenn die Menschheit überleben soll, müssen die Industrieländer ihren Verbrauch schrumpfen.“ Mit „schrumpfen“ meint sie Folgendes: „Es gibt bereits ein historisches Schrumpfungsmodell, an dem man sich orientieren könnte: die britische Kriegswirtschaft zwischen 1940 und 1945.“

Na dann! Und der zukünftige Krieg ist dann der gegen den „Klimawandel“ nach Ausrufung des „Klimanotstandes“? Der Vergleich hinkt gewaltig, die britische Wirtschaft war auf kriegswichtige Dinge ausgerichtet. Sie lief auf Hochtouren zur Abwehr der Okkupation.

In den letzten 30 Jahren haben wir, trotz aller gestiegenen Effizienz, nichts eingespart. Die Wirtschaft hat sie genutzt, um zu wachsen. Unser Wohlstand wuchs mit. Also muss man den Begriff Wohlstand laut Habeck neu definieren, sollten wir ein chinesisches Regierungsmodell einführen, müssen Kontrollen und Verbote her! Eine Gesellschaft in Energiearmut hat sich nie weiter entwickelt. Eigentlich müssten das die Scharen von Geschichts-, Politik- und Sozialwissenschaftler in den Politikerkreisen wissen. Das tun sie auch, denken aber, wir wissen es nicht. Was wäre die größere „Katastrophe“: veränderte Wetterbedingungen infolge einer Klimavariation oder sinkender Wohlstand unter einer Öko-Kontroll-Regierung, an der nur der Name „Öko“ wäre, will man Diktatur nicht verwenden?

Mir fällt gerade ein DDR-Witz ein. Hier in Abwandlung:

Frau Merkel, Frau Esken und Luisa Neubauer (tolle Frauenquote, oder?) fliehen im Urwald vor einem Stamm Kannibalen. Frau Merkel wird nach hinten geschickt, um Verhandlungen aufzunehmen. Sie kommt zurück und die wilde Flucht geht weiter. „Was hast Du denn angeboten?“, wird sie gefragt. „Ich habe ihnen Wirtschaftshilfe in Höhe von 1 Mio. € angeboten! Die wollten sie aber nicht!“ Dann schickt man Frau Esken nach hinten. Auch danach müssen alle weiter rennen. Das Angebot einer bedingungslosen Grundrente und ein paar zähe Nazis als Knabbergebäck, konnten die Wilden nicht überzeugen. Dann ist Luisa dran. Sie kommt schlendernd zurück. Alles ist geklärt. „Wie hast Du das gemacht?“ „Ich habe allen CEO der Kannibalen gedroht, wenn wir so weiter rennen, sind wir bald in Deutschland! Da haben sie sofort kehrt gemacht!“

Dann erzählt man im Hörfunk noch vom Unwort des Jahres. Toll gemacht, ich bin voll im Rahmen (Frame). Erinnern Sie sich noch an Dalli, Dalli mit Hans Rosenthal? Da gab es Dalli-Klick oder so ähnlich, da musste man immer Wortverbindungen finden.

Weltkriege, Klimakatastrophen, Artensterben, Waldbrände … die tägliche Apokalypse gib uns heute. Man wiederholt die Meldungen alle halbe Stunde. Würde man dem Glauben schenken, man müsste den nächsten Parkplatz aufsuchen und laut losheulen. Doch ich sehe keine weinenden Menschen, manche lachen sogar. Begreifen die nicht, in welcher Gefahr wir schweben, offensichtlich nicht. Solange wie heute, gab es lange keinen Frieden auf deutschem Boden, das Klima kennt keine Katastrophen, wir hatten in moderner Zeit noch nie so viele Wildtiere in Deutschland, der Wald war auch seit dem 30jährigen Krieg nicht mehr so groß u. wenn wir ihn besser bewirtschaften würden (keine Monokulturen) würde er weniger brennen. Die Apokalypse gibt es nur in unseren Köpfen, weil es so gewollt ist.

Unsere Zukunft soll schrecklich sein! Damit DIE vorgeben können, uns davor mit allen Mitteln zu schützen. Lückenpresse mit erfundenen, Katastrophenprophezeiungen. Sagt man ihnen das, sind sie beleidigt. Broders Spiegel nennt sie: „Die Möchtegern-Frontberichterstatter!“

Nur, wer beleidigt hier eigentlich wen? Ich muss mir schließlich seit drei Stunden diesen Informationsbrei aus Fakten, Quasi-Fakten, fehlenden Fakten und politischen Meinungen anhören! Gott sei Dank kommt zwischendurch Musik. „Hier erhalten Sie die Informationen, von denen wir wollen, dass Sie sie glauben!“ Wann hat das angefangen?

Da halte ich es mit Dieter Nuhr: „Wenn Dir einer die Zukunft in 30 Jahren voraussagen will, weißt Du, genauso wird sie nicht!“ Die hochdeutsche Übersetzung von: „Et hätt noch immer jot jejange!“

Auf die nächste Autofahrt nehme ich mir ein Hörbuch mit, vielleicht Ken Follett: „Die Pfeiler der Macht.“

Satire aus!




Windkraft : Wenn „Klimaschutz“ zum Klimakiller wird*

Schattenwurf, Infraschall sowie Vogel-, Fledermaus- und Insektenschlag sind die bekanntesten Argumente gegen Windkraftanlagen. Kaum bekannt hingegen ist der Dürre-Effekt der Windräder. Er entsteht infolge der atmosphärischen Verwirbelung durch die Turbinenblätter.

Die Verwirbelung hinter den Windrädern selbst wird als Nachlauf oder wie im Englischen als Wake-Effekt bezeichnet. Je nach Ausbaustufe der Windenergie in einer Region oder einem Land sorgt die Rotation der Turbinen für Niederschlagsverluste und vergleichsweise höhere Temperaturen (Anm.d.EIKE-Red: in Lee der Windparks, „Föhn-Effekt“). Dazu liefern mehrere neue Studien einschlägige Daten und Fakten, die geeignet sind, erhebliches Aufsehen zu erregen. Tatsächlich aber werden sämtliche Forschungsergebnisse zum Dürre-Effekt der Windenergie seit Jahren ignoriert, da der politische Wille in eine andere Richtung zielt. Unterdessen sind die meteorologischen Auswirkungen der Windparks hierzulande nicht nur deutlich merkbar, sondern auch messbar.

Offshore-Windturbinen quetschen Regen bringende Tiefdruckgebiete regelrecht aus, sagt die profilierte US-amerikanische Geo-Ingenieurin Cristina L. Archer. Erstmalig hat die Professorin der Universität Delaware den Wake-Effekt von Offshore-Windturbinen mit Hilfe von Computersimulationen nachgestellt und untersucht. Die Studie wurde im Juli 2018 veröffentlicht.

Obwohl die Oberflächenbeschaffenheit von Onshore-Standorten eine andere ist und stark variiert, haben Windräder auf dem Festland im Prinzip dieselben meteorologischen Auswirkungen. An jedem Windfeld wird der Atmosphäre beständig Feuchtigkeit entzogen, im Sommer stärker als im Winter. Hinzu kommt eine nicht unerhebliche Erwärmung des Bodens und der Atmosphäre. Bestätigt hat dies zuletzt eine im April 2019 veröffentlichte Untersuchung an der niederländischen Universität Wageningen, bezogen auf die Wetterverhältnisse in den Niederlanden. Möglicherweise sorgt man sich dort insgeheim im Hinblick auf erhebliche Klimafolgen aufgrund der geplanten weiteren, riesigen Offshore-Windparks in der Nordsee.

Der Luft wird Feuchtigkeit entzogen

Mit seiner installierten Windkraftleistung von 53,31 Gigawatt (Stand 2018) hat Deutschland im Verhältnis zur Landesfläche die meisten und am dichtesten platzierten Windparks weltweit. Seit 2008 (23,90 GW) hat sich dieser Wert mehr als verdoppelt. Wir hatten es in etwa innerhalb dieses Zeitrahmens mit immer länger anhaltenden Dürren im Sommerhalbjahr zu tun sowie bis jetzt mit einem auffällig veränderten Niederschlagsmuster: trotz Ankündigung oftmals ausbleibende Niederschläge, häufig nur Nieselregen und kurze Schauer.

Der herbeigesehnte ergiebige Landregen bleibt seit Jahren nahezu aus. Zumeist wird diese Entwicklung allein dem Klimawandel zugeschrieben. Weitere, unmittelbar menschengemachte Ursachen werden an den Schaltstellen von Politik, Wissenschaft und Medien offenbar nicht in Betracht gezogen, jedenfalls nicht öffentlich. Die Vorstellung, dass Windkraftanlagen, die Lieferanten von „grünem“ Strom, die Folgen des Klimawandels insbesondere für Deutschland erheblich verschärft haben könnten, ist insofern für die meisten Bundesbürger völlig abwegig.

Bezeichnenderweise informierte jedoch kürzlich das Anlegerportal „goldseiten.de“ Geldanleger über den nachgewiesenen Dürre-Effekt der Windkraft, indem ein einschlägiger Artikel aus „Vertrauliche Nachrichten für Politik und Wirtschaft“ verbreitet wurde. Für das Wissenschaftsportal „scinexx.de“ hatten deutsche Wissenschaftler errechnet, dass die 1300 auf See und 29 200 (Stand 2018) an Land installierten Windenergieanlagen in Deutschland bereits einen zusätzlichen Temperaturanstieg von 0,27 Grad Celsius innerhalb der vergangenen fünf Jahre bewirkt haben. Grundlage der Berechnungen ist die neue Studie des kanadischen Wissenschaftlers David W. Keith. Damit werden die Windturbinen als Mitverursacher der langen Dürre von 2018/19 ins Blickfeld gerückt.

Seit mehr als 15 Jahren forscht der Geo-Ingenieur und Harvard-Professor Keith über Aspekte der Windenergie, so auch über die damit verbundenen Folgen für Klima und Umwelt. Wie Archer ist auch Keith Windkraft-Lobbyist. Im Dezember 2018 zog er in der Zeitschrift „Joule“ in einem Beitrag mit seinem Kollegen Lee M. Miller ein bemerkenswertes Fazit hinsichtlich der Erneuerbaren Energien. Danach sind die klimatischen Auswirkungen der Windenergie pro erzeugter Energieeinheit etwa zehnmal höher zu veranschlagen als diejenigen von Photovoltaik.

Erklärung für die Dürre 2018/19

Das ist ein unerwartet großer Unterschied und lässt aufhorchen. Erstmals konnten die beiden Wissenschaftler nachweisen, dass Windturbinen die atmosphärischen Strömungen auch in großer Höhe verändern. Dementsprechend werden die klimatischen Auswirkungen zunehmen, je mehr Anlagen installiert werden, so die Prognose.

Zudem bringen die Forscher einen zeitlichen Faktor ins Spiel. Der Temperaturanstieg durch die Windenergie erfolge sofort, während die Vorteile der reduzierten Emissionen sich nur langsam steigerten: „Wenn die Perspektive die nächsten zehn Jahre ist, hat die Windenergie in mancher Hinsicht einen größeren Einfluss auf das Klima als der Verbrauch von Kohle oder Gas“, so Keith. Erst sehr langfristig verkehre sich dies ins Gegenteil. Wenn die Energieerzeugung dekarbonisiert werden solle, müssten die Umweltfolgen der Erneuerbaren Energien berücksichtigt werden. Im Interview bat Keith die Regierungschefs in aller Welt, die Bürger ihres Landes entsprechend zu informieren. Hierzulande kann davon jedoch keine Rede sein.

Standen Windparks schon seit Jahrzehnten im Verdacht, einen störenden Einfluss auf das Wettergeschehen auszuüben, so wurde jüngst durch die Pionierarbeit von Archer auf dem komplexen Forschungsfeld der Turbulenzforschung der Nachweis erbracht. Archer ist als Professorin auch stellvertretende Leiterin der Abteilung für Windkraft am Center for Carbon-free Power Integration (CCPI, Zentrum für die Integration kohlenstofffreier Energie).

Mit ihren Forschungen wolle sie helfen, Geld zu sparen und Menschenleben zu retten, sagt Archer stets, so auch bei einem 2017 gehaltenen Vortrag an der US-Universität Princeton über eine Computermodellierung des Wirbelsturms „Katrina“. Der Vortrag ist auf „Youtube“ abrufbar. Sie erklärt den Wake-Effekt, der entsteht, wenn die Luftströmungen vor den Windrädern gebremst und dahinter verwirbelt werden, so dass eine lange Wirbelschleppe entsteht. Diese turbulenten Nachläufe reichen auf See teilweise über 50 Kilometer weit. Die Leistung von Windparks auf der Leeseite vorangehender Parks wird dadurch erheblich gemindert.

Zusammen mit zwei Forscherkollegen gelang es Archer, anhand der Messdaten des Hurrikans „Harvey“ virtuell nachzuvollziehen, wie ein Tropensturm der Kategorie 4 durch gestaffelte Reihen von Offshore-Windturbinen erheblich zusammenschrumpft, bevor er die Küste erreicht. Das gewaltige, rotierende System wird schwächer und die mitgeführten Niederschlagsmengen werden stark reduziert. Ende August 2017 verwüstete Harvey große Gebiete in den Bundesstaaten Texas und Louisiana.

Je höher die Turbinentürme und je größer die Rotordurchmesser, desto stärker sei ihre niederschlagsreduzierende Wirkung, wird Archer in einem Online-Artikel des „Renewable Energy Magazine“ vom 18. März 2019 zitiert. Anschaulich erläutert sie, auf welche Weise die Windparks den Regen aus den Tiefdruckgebieten „herausquetschen“. Vor den Windturbinen entsteht Konvergenz durch Bremswirkung: „Denken Sie an den Verkehr auf einer Schnellstraße, wo jeder mit hohem Tempo unterwegs ist. Plötzlich gibt es einen Unfall, und alle werden langsamer. Damit haben Sie eine Konvergenz von Autos, die sich nach hinten fortsetzt, weil jeder langsamer fährt. Das ist die vorgeschaltete Konvergenz von Offshore-Windparks. Im Ergebnis führt das zu vermehrtem Niederschlag vor Ort, da dem heranströmenden Wind kein Raum zum Ausweichen bleibt außer nach oben. So befördert diese vertikale Bewegung mehr Feuchtigkeit in die Atmosphäre.“

Effekt wie im Verkehrsstau

Hinter den Windturbinen entsteht Divergenz: „Divergenz ist der gegenteilige Effekt. Er verursacht eine Abwärtsbewegung, indem er trockenere Luft von oben herunterzieht und somit Niederschläge dämpft. Wenn die Luft das Festland erreicht, ist ein großer Anteil der Feuchtigkeit herausgepresst. Wir haben eine 30-prozentige Reduzierung der Niederschläge mit den Harvey-Simulationen erzielt.“

Indirekt beinhaltet die Harvey-Studie die Empfehlung, vor der amerikanischen Golfküste großflächig Anordnungen von Offshore-Windparks zu installieren, um die Wucht zukünftiger Hurrikane abzumildern und deren gewaltige Regenmengen zu verringern. Die Ergebnisse der Studie kommen der Offshore-Windbranche der USA „wie gerufen“. Offshore ging hier erst 2016 östlich von New York der erste Windpark mit fünf Turbinen ans Netz. Das Ausbaupotenzial ist also gewaltig. Was aber könnte geschehen, wenn die Öffentlichkeit auf die nachgewiesene Klimaschädlichkeit von Windparks aufmerksam wird? Zunächst einmal dürfte der Widerstand der Anwohner vor Ort gegen den Neubau von Windrädern noch erheblich zunehmen – in Deutschland und vielen anderen Ländern ein Albtraumszenario für die Regierungen.

Mit 210,73 Gigawatt ist China das Land mit der größten installierten Windenergieleistung weltweit (Stand 2018). Es folgen die USA mit 96,52 und Deutschland. Bereits vor zehn Jahren meldeten chinesische Physiker und Meteorologen Forschungsbedarf zur Windenergie an. Am 12. November 2010 publizierte die „South China Morning Post“ (Hongkong) einen denkwürdigen Artikel. „12 Kilometer nördlich der Huitengliang-Windfarm in Xilinhot, Innere Mongolei, beobachtete der Hirte Siqinbateer ein seltsames Phänomen auf seiner Weide, das selbst Meteorologen verwirrt. ‚Der Erdboden erwärmt sich schnell wie ein Ofen, und nicht ein Tropfen Regen fällt‘, sagte er während der Regensaison. Seine Behauptung deckt sich mit den Statistiken der Regierung. Li Qinghai, Ingenieur beim Wasserstatistischen Büro in Xilingol League, erklärte, die Niederschlagsdaten seines Büros würden seit 2005 einen deutlichen Rückgang der jährlichen Niederschläge in der Nähe großer Windparks anzeigen, in manchen Gegenden bis zu

80 Prozent. Daher würde er diese Problematik gern genauer erforschen, doch er fand keine Unterstützung für das Vorhaben.“ Wissenschaftler, die an Forschungen zu der Thematik beteiligt waren, seien zur Auffassung gekommen, dass Windkraft das lokale und globale Klima beeinflussen könne, heißt es weiter.

„Wir wünschen keine Hindernisse“

Die Forscher hätten die Regierungen in aller Welt dazu aufgerufen, sich ernsthaft um diese Thematik zu kümmern. Bevor die Windkraft weiter ausgebaut werde, müsse der Klima-Effekt der Windräder auf regionale und globale Klimasysteme genau verstanden werden: „Ansonsten könnte diese Entwicklung zu einer unerwarteten Katastrophe führen.“ Von der chinesischen Regierung kam jedoch eine Absage. Man habe noch nie von dieser Thematik gehört und würde keine Forschungen finanzieren. „Jeder möchte eine schnelle Entwicklung der Windenergie“, erklärte ein hoher Staatsbeamter, „wir wünschen keine Hindernisse auf diesem Weg“.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; 24. Januar 2020, S.12; EIKE dankt der PAZ-Redaktion sowie der Autorin  Dagmar Jestrzemski für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

PDF: Windm.+Wetter+K.PAZ.200124

=================================================================




Wird die „heilige GRETA“ ausgetauscht?

Und nun hat es den Schlag getan: GRETA wurde „getauscht“

Die Geschichte ist voll davon. Irgendwo auf einem fernen Kontinent fällt ein Sack Reis um, und zuerst unbemerkt aber zielstrebig, ändert sich der Lauf der Welt. Und nur so lässt sich ein Ereignis in Davos einordnen, auch wenn dies nicht in einem fernen, sondern vielleicht eher während einer weltfremden Veranstaltung geschah.
WELT: [1] Bei ihrem ersten Auftritt beim Weltwirtschaftsforum blieb Klimaaktivistin Greta Thunberg hinter den selbst geweckten Erwartungen zurück.

Die heilige GRETA schwächelte (krankheitsbedingt) und so kam ihre große Rede: WELT: [1] „Dies ist erst der Anfang“ … „Wenn wir dies nicht als Krise behandeln, können wir es nicht lösen.“ Zugleich rief sie dazu auf, wissenschaftliche Erkenntnisse zu beachten und eine „holistische Betrachtungsweise“ (Anm.: ganzheitliche) anzunehmen …
wohl nicht so ganz wie gewohnt an.

Vielleicht zeigt sich bei den hochbezahlten Staats- und Konzernlenkern inzwischen auch eine gewisse Ermüdungserscheinung gegen das andauernde Beschimpfen, für welches dann noch erwartet wird, aufzustehen und im Standing-Ovation-Takt zu klatschen. Die Meisten werden es zuhause wohl eher anders herum kennen.

Aber kein verrückter Platz in der Weltgeschichte bleibt leer. Und so stand genau in diesem Moment der Zeitgeschichte die Person parat, welche die entstandene Lücke füllen sollte.
WELT: [1] … Doch während der Podiumsdiskussion war es dann ausgerechnet die 18-jährige Natasha Mwansa aus Sambia, die Greta die Show stahl, als sie wortgewaltig, lautstark und wohlgelaunt den Generationenkonflikt thematisierte.
„Gut, die alte Generation hat Erfahrung. Aber wir haben Ideen, wir haben die Energie und wir haben die Lösungen für die Probleme von heute und auch die zukünftigen“, ließ sie die Zuschauer wissen und erntete dafür Lacher und spontanen, begeisterten Applaus. „Entweder ihr tut euch mit uns zusammen, oder wir müssen es allein machen. Wir haben genug Macht“, warnte Mwansa.

Gleiches „Gelaber“, aber wenigstens nicht schulschwänzend …

Die Neue ist mit ihren 18 Jahren nicht wirklich viel älter. Aber sie wurde bereits mit drei Jahren für die Schule eingeschrieben [4] und begann im Alter von 12 Jahren, sich um juristische Themen zu kümmern und richtig groß in die Politik einzusteigen. Bezüglich Bildungsanspruch ist sie das reine Gegenteil und damit künftig sicher ein heftiges Argumentationsproblem für die Freitagshüpfer. Die inzwischen obligatorischen (oder üblichen) Standing Ovations bekam sie auch schon von drei großen Staatenlenkern. Aktuell ist sie wohl Studentin der University of ZAMBIA, zumindest dort eingeschrieben [3].

Für die „Großen dieser Welt“ wird sich kurzfristig trotzdem erst einmal wenig ändern. Ihre obligatorischen „Prügel“ bekommen sie nun nicht mehr von „Weiß“, sondern globaler, aber nicht weniger (g)eifernd und (ein)gebildeter. Und so haben sie sich für „the same procedure as last year“ auch wieder mit „spontanen, begeisterten Applaus“ bedankt. Man weiß ja nie, wer gerade zu einem hinschaut oder gar filmt. Kostet zudem nicht mehr als etwas Überwindung. Und wer von dieser „Intelligenz“ hat schon den Mut, als erster zu sagen, wie ihm das „auf den Keks“ geht. Wer weiß, wohin diese Dame aus Sambia noch aufsteigt und gefährlich wird. Feinde haben die meisten schon genug.

Wäre man dabei gewesen, hätte man vielleicht in die Podiumsdiskussion fragen können, welche genialen Lösungen für die aktuellen Probleme dieser Welt eine 18-jährige Aktivistin aus Sambia vorzeigen kann, die ca. 3.000 hochrangige Teilnehmer nicht haben. Keiner der Anwesenden stellte diese naheliegende Frage. Würde diese Aktivistin verunglücken – was der liebe Gott verhindern möge – würde die Welt diese Lösungen neu erfinden müssen … Deshalb sagt die Amtskirche auch zu Recht: Die Welt liegt alleine in Gottes Hand.

Nur der böse Trump hat keinen „spontanen, begeisterten Applaus“ gespendet. Wieder ist er ausgebüchst, indem er einfach in einem anderen Raum war. Es wäre kaum aufgefallen, wenn er dabei nicht eine Rede gehalten hätte, welche die Inhalte vom allgemeingültigen Parteiprogramm unserer GRÜNEN missachtet.
Dass das überhaupt nicht geht, hat unser Habeck im Interview Trump dann aber ganz konsequent und deutlich gezeigt. Nun, eigentlich hat Habeck gezeigt, dass er wohl nicht genug Englisch versteht, um Redeinhalte zu erfassen, mit seinem Nichtwissen dann aber wie gewohnt postwendend zeigen will, welch brillanter Staatenlenker in ihm (noch)verborgen ist [5]. Als solcher kann er jetzt schon wie ein in der großen Politik Erfahrener analysieren, überzeugende Schlüsse ziehen und zeigen, dass er ein (schon bereitstehender) besonders guter (wäre), während Trump eben ein unverbesserlich, grottenschlechter Staatslenker ist:
[5] Habeck: „Das war die schlechteste Rede, die ich in meinem Leben gehört habe“ … „Er ist der Gegner, er steht für alle Probleme, die wir haben“ …

Jetzt weiß endlich ganze Welt, dass jede Rede auf GRÜNEN Parteitagen und im Deutschen Parlament Reden von Herrn Trump an Qualität übertrifft, zumindest, seitdem der große Staatslenker Habeck hören kann. Aber so nebenbei ist die neue Kenntnis des großen Staatslenkers Habeck noch viel zukunftsträchtiger: Nicht mehr CO2 ist das alleinige Übel dieser Welt, nein, es ist der US-Präsident.
Somit kann die Welt endlich in ihrer Mühsal aufatmen. Trump darf nur noch einmal wiedergewählt werden. Danach ist die Welt dank Habecks Wissen automatisch von allen Problemen befreit. Sozusagen eine neue Welterlösung durch das US-Wahlgesetz. Leider ist in Deutschland diese Art der Erlösung nicht gesetzlich vorbestimmt.
Stellt sich nur noch die Frage, warum es dann eine „neue“ Greta braucht, wenn die Erlösung schon so nah ist. Parallelitäten zwischen der Ökokirche und der Amtskirche lassen die Zukunft ahnen:
Jesus war sich sicher, dass das Himmelreich auf Erden (eines im Himmel kennen die Juden nicht) zu seinen Lebzeiten kommt. Wie man heute ziemlich sicher weiß, kam es nicht. Jemand muss den Vorgang aber schließlich verwalten. Nachdem es gelang, die Gebühren dafür dauerhaft einzutreiben, besteht diese Verwaltung heute immer noch.

Joe hat gelernt

Nicht was man vielleicht denken könnte: Sich verbitten, von einer jungen Studentin ohne Erfahrung und Wissen als hochbezahlter Siemens-CEO wie ein Schulkind öffentlich gemaßregelt zu werden …

Nein, wie Herr Zetsche ist er Feuer und Flamme, dass andere bestimmen, wie und welches Geschäft er noch führen darf. Er hat die Lektion verstanden – und legt nun fest, dass seine Vorstände künftig mit am CO2-Ausstoß gemessen werden:
Stern: [2] Siemens will Vorstandsgehälter von CO2-Ausstoß abhängig machen

Die Begründung ist natürlich eine böswillige Unterstellung des Autors. In Wirklichkeit versucht Joe das nachzumachen, was die große Politik vorlebt.
Wie es Herr Schäuble argumentierte: Wenn wir Politiker in Deutschland das viele Geld der Bürger nicht zur CO2-Reduktion selbst zum Fenster (und für uns Politiker) hinausschmeißen, müssen wir es als Strafzahlung an Brüssel überweisen und die machen es dort dann alleine für sich. Eine solch einleuchtende Argumentation versteht auch Herr Joe Kaeser.

Bald wird die Tonne CO2 eine Größenordnung von 100 … 180 EUR kosten (Forderung unseres UBA und der Freitagshüpfer). Das träfe den Konzern hart. Leider ist dieses viele Geld dann zwar vorschriftsgemäß, aber eben sinnlos hinausgeschmissen.
Da sagt sich Joe: Besser, wir machen daraus ein Inzentiv für uns Vorstände. Etwas CO2 reduzieren gelingt jedem Vorstand und so bietet sich allen (Vorständen) damit die Gelegenheit einer üppigen Einkommenserhöhung.
Gleich zwei Probleme lassen sich so elegant lösen: Die Vorstände bekommen eine Einkommenserhöhung, die sich sonst schwer argumentieren ließe, und gleichzeitig kann man problemlos über die schlimmen Folgen des CO2-Preises für den Konzern jammern und die Mitarbeiter über leider nötige Konsequenzen für sie informieren.

Auf jeden Fall ist mit diesen Maßnahmen sichergestellt, dass Joe weiterhin an diesem Gipfel teilnehmen darf und sich nicht neben den teilnehmenden 119 Milliardären um ihn herum schämen muss.

Quellen

[1] WELT, 21.01.2020: Diese junge Frau stahl Greta Thunberg zunächst die Show

[2] Stern: Siemens will Vorstandsgehälter von CO2-Ausstoß abhängig machen

[3] University of ZAMBIA, 2019 06: UNZA 1st Year Student Breaks World Record

[4] Zambia Daily Mail Limited: Natasha: UN youth ambassador

[5] Tichys Einblick. 22. Januar 2020 : Habeck-Festspiele in deutschen Medien Donald Trumps Rede in Davos und der „Gigant“ Habeck