1

Vermögens-Verwalter prophe­zeien den Rückgang des Ölver­brauchs, aber das haben wir schon öfter gehört

Im vorigen Monat veröffentlichte die UK Sustainable Investment and Finance Association seine zweite „Nicht-mehr-lange“-Übersicht, worin es heißt, dass „der Bereich des Fonds-Management sich einig ist, dass internationale Ölunternehmen innerhalb der nächsten paar Jahre negativ neu bewertet werden wegen der mit dem Klimawandel verbundenen Risiken“. Dreißig Vermögensverwalter haben auf die Umfrage geantwortet, welche einen Wertebestand [assets] von über 13 Billionen Pfund (17,8 Billionen Dollar) haben, darunter globale Giganten wie Blackrock, Deutsche Asset Management, Fidelity International, BNY Mellon und HSBC Global Asset Management.*

[*Ich bin nicht sicher, wie man den englischen Terminus „fonds manager“ richtig übersetzt. Im LEO wird „Vermögensverwalter“ angeboten, aber gibt es nicht eine treffendere Bezeichnung? Anm. d. Übers.]

Der Übersicht zufolge wird ein Verfall der Wertebestände prophezeit auf der Grundlage der Rufschädigung der Unternehmen, Einnahmeverluste und Vorschriften bzgl. einer Beschneidung der „Verschmutzung durch fossile Treibstoffe“. Eine Mehrheit der auf die Umfrage antwortenden Manager erwarten auch innerhalb der nächsten zehn Jahre die Spitze der Nachfrage nach Öl und Gas, was die Aktienwerte beeinflusst.

So etwas haben wir schon viele Male zuvor gehört. In seiner Rede an die Nation vom 18. April 1977 stellte Präsident Jimmy Carter fest: „…Wir könnten alle nachgewiesenen Öl-Reserven der Welt bis zum Ende des nächsten Jahrzehnts aufgebraucht haben“. Aber während der Druck der Regierung und der öffentlichen Meinung die Ölpreise drücken könnte, gibt es weder Beweise dafür, dass uns das Öl ausgeht, noch für eine sinkende Nachfrage am Markt für Treibstoffe auf Kohlenwasserstoffbasis – Kohle, Öl und Gas.

Während der letzten 30 Jahre haben die weltweiten Bemühungen, die vom Menschen verursachte globale Erwärmung zum Halten zu bringen, die Energiepolitik in den entwickelten Ländern dominiert. Im Jahre 1988 riefen die UN das IPCC ins Leben und starteten die globale Mission des Kampfes gegen die vom Menschen verursachte Erwärmung. Auf dem Earth Summit in Rio im Jahre 1992 unterzeichneten 41 Nationen und die EU einen Vertrag, in dem sie versprachen, Treibhausgas-Emissionen zu reduzieren. Bis 2016 waren weltweit über 300.000 Windturbinen in Betrieb.

Die Welt investierte von 2004 bis 2017 fast 3 Billionen Dollar in erneuerbare Energie. Aber der International Energy Agency IEA zufolge decken Kohle, Öl und Gas nach wie vor 82 Prozent des Weltenergiebedarfs, das ist der gleiche Anteil wie 1985.

Die Energienachfrage zeigt auch keineswegs einen Rückgang. Der Energieverbrauch hat sich seit 1965 mehr als verdreifacht. Jeden Tag verbraucht die Welt das Energie-Äquivalent des Öls, welches von 182 Öltankern transportiert wird, jeweils mit einer Kapazität von 200.000 Tonnen.

Von 1996 bis 2016 stiegt der Ölverbrauch der Welt um 31 Prozent, Erdgas um 59 Prozent und Kohle um 62 Prozent. In jedem Jahr fügt die Welt eine Energienachfrage wie in UK hinzu, die meiste erzeugt von Kohlenwasserstoffen. Erneuerbare können nicht einmal das jährliche Wachstum der Energienachfrage decken, geschweige denn die traditionellen Kohlenwasserstoff-Treibstoffe ersetzen.

Zusätzlich zum historischen Wachstum des Verbrauches von Kohlenwasserstoffen stützen auch andere Trends den Umstand, dass Kohle, Öl und Gas uns noch viele weitere Jahrzehnte lang begleiten werden. Besonders die Nachfrage nach Öl zeigt nicht die Spur einer Abschwächung.

Biotreibstoffe haben bei Weitem nicht erreicht, Öl als Treibstoff für Fahrzeuge, Flugzeuge und Schiffe zu ersetzen. Nach zwei Jahrzehnten der Subventionen und Vorschriften machen Biotreibstoffe nur etwa 8,5 Prozent des in den USA verbrauchten Treibstoffes für Personen- und Lastwagen aus, wofür 40 Prozent der Maisernte der Nation verbraucht wird. Aber Wissenschaftler habe jüngst festgestellt, dass wenn man Änderungen des Landverbrauches mit einbezieht, Biotreibstoffe nicht Kohlendioxid-Emissionen reduzieren im Vergleich zu Benzin oder Diesel. Regierungen und Umweltgruppen gleichermaßen stellen inzwischen die Politik hinter dem großmaßstäblichen Verbrauch von Biotreibstoffen in Frage.

Stattdessen werden jetzt Elektroautos als die neue Lösung zur Beendigung des Ölverbrauchs gepriesen. Angestachelt durch Anreize und Vorschriften der Regierung haben führende Autohersteller angekündigt, über 100 Modelle von Elektroautos zu entwickeln.

Aber die Nachfrage nach Elektrofahrzeugen ist enttäuschend gering. Der Forschungsfirma JATO Dynamics zufolge machten Elektroautos bei den verkauften Neuwagen nur 0,8 Prozent der im Jahre 2017 weltweit verkauften Fahrzeuge aus. Benzin- und Diesel-getriebene Fahrzeuge dominieren jetzt die Weltnachfrage nach Autos. Im Jahre 2017 machten diese Verkäufe 34 Prozent aller Verkäufe aus. SUVs dominieren nicht nur den Markt in Nordamerika, sondern zunehmend auch in Europa und boomen in China.

Vermögensverwalter vertrauen der Theorie einer vom Menschen verursachten Erwärmung, aber die Weltmärkte scheinen ihnen das nicht abzunehmen. Die Abnahme der Ölnachfrage und der Verfall der Aktien von Ölunternehmen liegen unverändert in weiter Ferne.

striche

Originally published in the Washington Examiner, republished here at the request of the author.

Steve Goreham is a speaker on the environment, business, and public policy and author of the book Outside the Green Box: Rethinking Sustainable Development.

Link: https://wattsupwiththat.com/2018/05/09/fund-managers-predict-the-decline-of-oil-but-weve-heard-this-before/

Übersetzt von Chris Frey EIKE




Twitter macht es möglich, Unsinn in kürzester Zeit zu multiplizieren.

Am 1. Mai mussten die Privatkunden wieder für „weggeworfenen“ Strom bezahlen

Was immer häufiger wird: Die katastrophale Vorrangeinspeisung führt zu einem Strom-Überangebot und damit zu negativen Strompreisen [3], geschah wieder am Tag der Arbeit:
EIKE: 1. Mai! Strompreis über 18 Stunden negativ!


Bild 1 Verlauf: EEG-Einspeise-Ganglinien, Verbrauch, Börsen-Strompreis am 30.04. und 01.05.2018 Quelle: Agora-Viewer

Ein inzwischen typisches Ereignis, welches bei „Alten Herren“, welche noch das Ohmsche Gesetz gelernt haben und es nicht nur tanzen können, zu vermehrtem Stirnrunzeln führt.
Der Grund: Damit zeigt das Netz, wie kurz es sich vor dem Kollaps befindet und, dass niemand eine Lösung dagegen hat.
EIKE 10.04.2018: Der Unsinn des EEG wird immer offensichtlicher
EIKE 20. März 2018: Der DWD ist überzeugt: 10 % Strom über zwei Tage, dabei nicht zuverlässiger als Wettervorhersagen, reicht

Und es belegt die immer größer werdenden, zusätzlich auftretenden Kosten. Im Berliner Politikzirkus und seinen vorbehaltlosen Unterstützern, wird das mit beliebigen Märchenerzählungen schöngeredet:
[11] Negative Strompreise sind Werbekosten für die Energiewende
Doch weiterhin kommen die negativen Strompreise beim privaten Stromkunden nicht positiv an, sondern er hat die Differenz des „Negativ“ bis zur (positiven), festen EEG-Einspeisevergütung vollständig an die „Energieernter“ zu bezahlen. AM 1. Mai waren es ca. 12 Millionen EUR.

Das „Allroundgenie“ von Frau Merkel findet das großartig

In Berlin gibt es (zu) viele „Speichellecker“ der großen, alleinherrschenden Vorsitzenden. Ein Herausragender davon dürfte P. Altmaier sein. Er twitterte dazu:


Bild 2 Tweet von P. Altmaier zur EEG-Übereinspeisung am 1. Mai 2018

Es ist dem Autor nicht bekannt, was sich Herr Altmaier bei diesem Tweet gedacht hat. Was an dem Ereignis großartig sein soll, entzieht sich allerdings ebenfalls seiner Kenntnis.

Was nutzen Leitungen, wenn niemand den Strom benötigt?

Herr Altmaier scheint im Tweet vermitteln zu wollen, dass 100 % Ökostrom und viele Leitungen „großartig“ sind.
Damit legt er sich mit dem „Bürgerwillen“ und sogar der CSU an, welche einen weiteren Fern-Leitungsausbau für überflüssig halten. Zudem auch mit großen, lokalen Versorgern, also „Fachpersonen“ – wie dem Vorstand der N-ergie, welcher für lokale Netze (zum Nachteil seiner Kunden) plädiert [4], wofür er regelmäßig in den nordbayerischen Nachrichten als erfolgreicher Manager „gelobt“ wird.
Doch zurück zu Herrn Altmaier.
Negative Strompreise zeigen eines an: Es gibt zu viel Strom im Netz, den niemand benötigt. Zu klären wäre, ob fertige, zusätzliche Nord-Süd-Trassen das Problem im Sinne von Herrn Altmaier wirklich gelöst hätten. Denn der Feiertag galt deutschlandweit. Große Industrieverbraucher, welche spontan zusätzlichen Strom abgenommen hätten, waren also sicher auch im Süden Deutschlands eher rar. Zudem war Wind offshore praktisch nicht beteiligt. Die hohe Einspeisung von Landwind und Solar wäre also auch im Süden auf eine hohe Einspeisung von Solar und Wind getroffen. Ein „Ausgleich“ über Leitungen hätte am Problem somit wenig geändert.
Und wenige Stunden nach dem „glücklichen Ereignis“ zeigten die Ökostrom-Einspeiser wieder, wie unzuverlässig sie sind: Es begann eklatanter Strommangel (Bild 3). Es war also wie bereits am Neujahrstag [12]: Sprichwörtliches Glück und keinesfalls Planung, am Feiertag kurz nach der Mittagszeit – wenn der Strombedarf seinem Minimum zugeht -, zufällig so viel Ökostrom verfügbar zu haben.

Das Einzige, was dem Autor dazu einfällt ist die Frage, warum der überflüssige Strom nicht gleich bei den Ökoerzeugern abgeregelt wurde. Das hätte den privaten Stromkunden zumindest die zusätzlichen, negativen Kosten erspart. Wahrscheinlich darf man das aus politischen Gründen jedoch nicht im erforderlichen Umfang. Denn was könnte ein Herr Altmaier dann noch tweeten?
Vielleicht Informationen wie: Was ich schon vor einigen Jahren in einem kurzen Moment eigenständigen Denkens gesagt hatte „die Energiewende kann eine Billionen EUR kosten[5], wird immer wahrer.


Bild 3 Ökostrom Einspeiseganglinien vom 25. April – 02. Mai. Quelle: Agora-Viewer. Vom Autor ergänzt

100 %Erneuerbare Energien „immer und überall“

Claudia Kemfert, von den Medien verwöhnte Ikone des wahr gewordenen Energiewende-Wahnsinns twittert ebenfalls.


Bild 4 Antwort-Tweets von C. Kemfert

Frau Professor C. Kemfert kann wohl nur polarisiert betrachtet werden. Die Einen halten sie für einen besonderen Genius, wie zum Beispiel (nicht nur) die Zeitschrift „Brigitte“:
Klima-Expertin Claudia Kemfert: Wie lebt die Frau, die alles weiß?
Klima-Expertin Claudia Kemfert kennt alle Zahlen zum Klimawandel, alle Fakten. Fährt sie noch Auto? Hat sie es gern schön warm? Und: Wieso ist sie eigentlich so optimistisch?

Andere dagegen einfach nur für die sprichwörtliche Inkarnation – seit der Me Too Bewegung nicht mehr zulässiger – Haarfarben-Witze [6].

Dass 100% Erneuerbare erreichbar sind, sofern sie weiter massiv subventioniert (und die konventionellen verboten) werden, ist nicht neu. Und dass Frau Kemfert eine glühende Vertreterin dieser Option ist, weiß „man“. Schließlich basiert darauf im Wesentlichen ihre „Reputation“. Ob ihre technisch teils abenteuerlich abstrusen EEG-Ideen umsetzbar, oder bezahlbar sind, interessiert diese Frau nicht. Bei ihrem Gehalt – und späterer Pension – ist es für sie sicher auch kein wichtiges Thema.
Doch nun macht sie scheinbar offiziell und ungeniert auch Werbung für Firmen. Anders kann man ihre Ergänzung „im hohen Norden gibts bald noch mehr Speicher“ nicht interpretieren.

Ist Frau Kemfert wirklich so naiv?

Wo man hinsieht, explodieren so langsam die vom EEG erzeugten, technischen Probleme [1]. Die Stromkunden bemerken diese vor allem durch ständig steigende Stromkosten (inzwischen die höchsten in Europa), von deren Steigen kein Ende abzusehen ist:
Achgut: Rettet den Strompreis!
Aber Probleme sind ein Lösungsfeld für Glücksritter. Und darunter kann man die von Frau Kemfert mit der Ergänzung „Energiewende der Zukunft“ versehene EWE AG einstufen.


Bild 5 Screenshot von der Homepage der EWE AG

Es fällt auf (Bild 5), dass diese Firma das E.ON-Abzockmodell „virtuelle Speicher“ anbietet:
EIKE 14.04.2018: [7] Die wundersame Speicherung des EEG-Zappelstroms

Und wie E.ON natürlich auch Akkuspeicher für Haushalte, die teuerste Art, Strom zu speichern:
[9] EIKE 3. Mai 2018: eine technische Analyse hinsichtlich der Stromversorgung und der CO2-Minderung
EIKE 18.05.2017: [8] Rechnerisch lohnt sich die solare Eigenversorgung nicht

Von der notwendigen „Intelligenzausrüstung“ des modernen – deshalb unstabilen – Versorgungsnetzes profitiert die Firma selbstverständlich ebenfalls. Ob das Netz Strom liefert, oder zusammengebrochen ist, die EWE AG ist „immer dabei“ – und profitiert davon.


Bild 6 Screenshot von der Homepage der EWE AG

Nur eines bietet diese Firma mit Sicherheit nicht: Eine Lösung des EEG-Speicherproblems. Denn diese ist mit Akkuspeichern aus Kostengründen schlichtweg unrealistisch, außer Deutschland möchte seine privaten Stromkunden konsequent und vollständig in den Ruin treiben.

Es stellt sich bei solchen Tweets somit eher die Frage, ob der Schwachsinn über, oder nicht eher weit vor dem Großen Teich tweetet.

Wer die „verstopften Leitungen“ erfunden hat, war ein Propagandagenie

GRÜN – für das Toppen von Unsinn eine der zuverlässigsten Quellen – kam ebenfalls nicht umhin, Herrn Altmaier zu followern.


Bild 7 Tweet von J. Verlinden – GRÜNE

Wer wirklich keine Ahnung von Energie hat, kann sich mit diesem Tweet bestätigt finden.

Nun ist Frau Verlinden energietechnisch promoviert [10]. Und zwar an der Fakultät Kulturwissenschaften im Fachbereich Philosophie mit dem Dissertationstitel: Energieeffizienzpolitik als Beitrag zum Klimaschutz. Analyse der Umsetzung der EU-Gebäude-Richtlinie in Deutschland (Bereich Wohngebäude)
Schaut man in diese Dissertation, stellt man fest, dass es sich um eine Listung und Fleißarbeit handelt, wie man es von Bachelor-Arbeiten gewohnt ist. Bestimmt verbunden mit viel Zeitaufwand und natürlich mit einem viel größerem Seitenumfang, was in der Kulturwissenschaft anscheinend als ausreichendes, „akademisches (Zusatz-)Gewicht“ zur Promotion ausreicht.
Zur Energie und zum Klimaschutz kommt darin allerdings nichts vor, was „der Wissenschaft“ auch nur im Ansatz ein Quentchen „neue Erkenntnis“ bieten könnte (rein persönliche Meinung des Autors).
Als promotionsfähigen Beitrag zur Begründung des Klimaschutzes verweist sie lediglich auf zwei Fundstellen:
Dissertation: [10] IPCC 2007: Vierter Sachstandsbericht. Klimawandel 2007: Synthesebericht. Zusammenfassung für politische Entscheidungsträger, sowie UBA 2007a
Zum Strom und seinen Eigenschaften findet sich ebenfalls nichts, außer dem Wort selbst. Der wichtige Begriff im Energiesystem und ein Kernproblem des EEG: „Grundlast“, kommt beispielsweise gar nicht vor, das ebenfalls wichtige Problem „Speicher“ wird in der gesamten Dissertation wie folgt abgehandelt:
Dissertation: [10] Geleitwort Die Steigerung der Energieeffizienz ist eine der zentralen Herausforderungen der Energiewende – neben dem Ausstieg aus der Atomenergie, dem Ausbau erneuerbarer Energien und der Stromnetze sowie der Forschung und Entwicklung, z.B. im Bereich Elektromobilität und Energiespeicher.
Da wundert es auch nicht mehr, dass sich in der Dissertation auch nicht eine einzige, wenigstens winzige, Formel findet. Wer würde so etwas „Störendes“ bei einer Dissertation zum Thema „Energieeffizienz“ auch erwarten?
Aufgrund der vollständig fehlenden Mathematik war es Frau Verlinden auch nicht „möglich“, in ihrer Dissertation irgendwo Kosten/Nutzen-Betrachtungen – die immerhin einen Dreisatz erfordert hätten – anzustellen.

Um sich als Energiefachperson zu bezeichnen: „Sprecherin für Energiepolitik“, reicht das in Deutschland (inzwischen) jedoch aus. Zumindest (und nicht nur) bei den GRÜNEN. Bei denen spielen Kostenbetrachtungen prinzipbedingt keine Rolle, außer sie dienen als Strafkosten zur Gängelung der Untertanen.
Nun fordert diese „Energiefachperson ohne Energiekenntnisse“ im Tweet: „Vorfahrt für Erneuerbare in Leitungen“.
Diese Forderung muss niemand stellen, denn sie ist durch den gesetzlichen Einspeisevorrang längst erfüllt. Sie meinte deshalb wohl: Wenn Ökostrom eingespeist wird, muss der „dreckige“, konventionelle Strom sofort heruntergeregelt werden.
Frau Verlinden könnte durch einfaches Googeln wissen, dass das nicht möglich ist, weil die Ökostromeinspeisung viel zu schnell und stark schwankt (Bild 3). Hätte jemand die „Anweisung“ von Frau Verlinden wie gefordert bereits blind umgesetzt, würde die Energieversorgung praktisch jeden Tag zusammenbrechen. Sie scheint jedoch fest davon überzeugt zu sein, dass die Elektrophysik sich nach ihren Wünschen ausrichten wird, oder dies mit hohen Kosten (die die Stromkunden zu zahlen haben) erzwungen werden kann.


Bild 8 Tweet von Frau Verlinden

Nun erlaubt Twitter nur Kurz-Mitteilungen. Um tiefergehendes zu erfahren, muss man wieder nach längeren Informationen suchen, wozu sich bei Politiker*innen deren Homepage anbietet. Die dortige Suchfunktion liefert zum Thema „Kohle“ 69 Treffer, zum Thema „Grundlast“ einen (der allerdings mit Grundlast im EEG-Netz nichts zu tun hat):


Bild 9 Ergebnis der Suche „Kohle“ auf der Homepage von Frau Verlinden

Frau Verlinden kennt also nur ein Ziel: Kohle muss weg. Darüber, woher die dann fehlende Grundlast kommen soll, finden sich von ihr anstelle tiefer gehenden Gedanken Wünsche (Bild 8: Power to Gas), die derzeit im erforderlichen, großen Maßstab nicht im Ansatz umgesetzt sind und falls doch einmal, dann hohe Kosten verursachen:
EIKE 11. September 2017: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen
EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

Auch dadurch ist erkennbar, dass Frau Verlinden sich nicht für technisches Wissen und die effiziente Umsetzung eines funktionierenden Energiesystems interessiert, sondern ausschließlich GRÜNE Propaganda vermitteln möchte.
Unter Frau Merkel bestimmen solche „Fachpersonen“ über unser Energiesystem und dessen (unstabile und teure) Zukunft.

Wer zu diesem Vorgang tiefer gehende und auch andere Beurteilungsgesichtspunkte erfahren möchte, sollte weiterlesen:
TICHYS EINBLICK 2. Mai 2018: [1] Windrad statt Kreuz Deutschland 2018 100 Prozent Erneuerbar
Davon hat der Autor seine Anregung zum Artikel „entnommen“.

Quellen

[1] TICHYS EINBLICK 2. Mai 2018: Windrad statt Kreuz Deutschland 2018 100 Prozent Erneuerbar

[2] EIKE: Es ist ja so, dass Strom künftig kostenlos zur Verfügung stehen wird

[3] EIKE 31.12.2016: Die Zahltage des EEG beginnen ihren vorhergesagten Lauf

[4] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

[5] Handelsblatt, 20.02.2013: Peter Altmaier Energiewende kann eine Billion Euro kosten

[6] EIKE 20.05.2017: Das fossile Imperium schlägt zurück – oder: Wie eine Wissenschaftlerin ihre Reputation vernichtet

[7] EIKE 14.04.2018: Die wundersame Speicherung des EEG-Zappelstroms, oder: Die nächste Abzocke privater Stromkunden durch die EEG-Energieernter

[8] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

[9] EIKE 3. Mai 2018: Der beschleunigte Zwang zur Elektromobilisierung – nur wie soll es funktionieren: eine technische Analyse hinsichtlich der Stromversorgung und der CO2-Minderung

[10] Energieeffizienzpolitik als Beitrag zum Klimaschutz Analyse der Umsetzung der EU-Gebäude-Richtlinie in Deutschland (Bereich Wohngebäude) Der Fakultät Kulturwissenschaften der Leuphana Universität Lüneburg zur Erlangung des Grades Doktorin der Philosophie – Dr. phil. – vorgelegte Dissertation von Julia Verlinden

[11] EIKE 02.03.2018: Negative Strompreise sind Werbekosten für die Energiewende

[12] EIKE 14.01.2018: Am Neujahrsmorgen hat sich Deutschland zum ersten Mal in der Geschichte komplett mit Ökostrom versorgt




Feuer in Batterie des „Model S“ von Tesla tötet zwei Teenager

Bundesagentur untersucht den Tesla-Unfall, welcher zwei jungen Studenten das Leben gekostet hat

Linda Trischitta, David Lyons, Tonya Alanez, Wayne K. Roustanafter

Zwei Freunde sollten eigentlich das College besuchen. Stattdessen klagen ihre Eltern und Klassenkameraden nach einem Unfall eines Elektroautos auf einer kurvenreichen Straße in Fort Lauderdale Beach in Florida.

Fahrer Barrett Riley aus Fort Lauderdale und sein Beifahrer Edgar Monserratt Martinez aus Aventura, beide 18 Jahre alt und Studenten an der Pine Crest School, waren in dem brennenden Wrack eingeklemmt und starben, heißt es im Polizeibericht. Ein weiterer Mitfahrer, ebenfalls 18 Jahre alt, wurde ins Krankenhaus eingeliefert.

Das Trio war in einem Tesla Model S auf dem Seabreeze Boulevard unterwegs, bevor es gegen eine Betonwand prallte.

Die Tesla-Fahrzeuge fahren nicht mit einer von Benzin angetriebenen Maschine, sondern mit einer Batterie. Das National Transportation Safety Board NTSB sagte, es würde ein Team nach Fort Lauderdale schicken für eine Untersuchung, welche sich „primär auf das Notfall-Verhalten hinsichtlich des Batteriebrandes in dem Elektrofahrzeug konzentrieren soll, einschließlich des Verhaltens der Feuerwehr und des Abschleppens“.

Das NTSB sagte, es habe bereits Erfahrung mit der Untersuchung sich neu entwickelnder Technologien, um deren Auswirkung auf Verkehrsunfälle zu verstehen.

Der auf dem Rücksitz sitzende Mitfahrer Alexander Berry aus Fort Lauderdale wurde aus dem Auto hinaus geschleudert. Die Feuerwehr brachte ihn ins Krankenhaus, wo sich sein Zustand stabilisierte.

Die Chemikalien in den Batteriezellen können korrosiv und leicht entflammbar sein, sagte Karl Brauer, ein Sachverständiger. „Elektrofahrzeuge sind nicht stärker in Gefahr, in Brand zu geraten, aber Batteriebrände sind heißere Feuer und schwieriger zu löschen“, sagte er. „Ist die Batterie erst einmal in Brand geraten und das Gehäuse geschmolzen, treten die Chemikalien aus und können sich sogar ohne jeden Funken selbst entzünden“.

Mehr: http://www.sun-sentinel.com/local/broward/fort-lauderdale/fl-sb-engulfed-flames-car-crash-20180508-story.html

Unfallursache scheint nicht angepasste Fahrweise gewesen zu sein, aber nach den Worten des aus dem Auto geschleuderten Mitfahrers scheint es wahrscheinlich, dass die beiden Todesopfer ebenfalls überlebt hätten, falls die Batterien nicht in Brand geraten wären. Auch Benzinfahrzeuge können bei Unfällen in Brand geraten, aber der Umstand, dass Batteriefeuer heißer und schwieriger zu löschen sind als Benzinfeuer, gibt Anlass zu Bedenken.

Link: https://wattsupwiththat.com/2018/05/10/tesla-model-s-battery-fire-kills-teenagers/




Brennstäbe unterm Bett

Als Lilli drei Jahre alt war, bat sie mich jeden Abend, nachzusehen, ob unter ihrem Bett auch wirklich kein Krokodil sitzt. Was wir nicht sehen können, ist halt immer am unheimlichsten, besonders, wenn wir uns sicher sind, dass „es“ da ist. Alle Kinder durchlaufen eine Phase magischen Denkens. Sie meinen dann zum Beispiel, dass ihr Denken oder Tun Einfluss auf unzusammenhängende Ereignisse hat. Erwachsene sind auch nicht frei davon. Manche stecken Nadeln in Puppen, um den in Wolle nachempfundenen Unglückswurm nach Voodoo-Art zu verwünschen, andere konzentrieren sich auf Löffel und Gabeln, um sie zur Unbrauchbarkeit zu verbiegen und aufgeschlossene Innenarchitekten stimmen die Geister der Luft und des Wassers mit Hilfe von Feng Shui gewogen.

Magie gibt es auch als religiöse Wunder-Edition: Jesus hatte seinerzeit Wasser in Wein verwandelt, während Mohammed bekanntlich auf seinem geflügelten Pferd Buraq gen Himmel geflogen ist. Auch der Alltag von uns aufgeklärten Weltbürgern ist nicht frei von Magie. Allerorten lauert die unsichtbare Gefahr. Mir zum Beispiel ist unser Mikrowellenofen nicht geheuer. Andere fürchten sich vor Handystrahlen. Und dann ist da noch der eine Zauber, der uns alle bange macht [Soundeffekt: „Psycho“-Geigen unter der Dusche]: das Atom!

Magie und Strahlung

Man kann es nicht sehen, hören, tasten, schmecken oder riechen, es ist sinnlich schlichtweg nicht zu erfassen. Der britische Science-Fiction-Autor Arthur C. Clarke formulierte drei Gesetze, von denen das letzte lautet: „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“ Weil sie sich unseren Sinnen entzieht, ist die Atomenergie ein solches Hexenwerk. Kein Wunder, dass sie uns genauso ängstigt wie die kleine Lilli ihr Krokodil unter dem Bett.

„Die lachende Atomkraft-Nein-Danke-Sonne auf dem VW-Bus erfüllt einen ähnlichen Zweck wie der Knoblauch gegen Vampire.“


1917 teilte Ernest Rutherford in Manchester das „Atom“ (altgriechisch für unteilbar) zum ersten Mal. Fortan legte es eine steile Kariere hin und nach 28 Jahren war aus einem obskuren Winzling die denkbar schrecklichste Waffe geworden. Nach dem Schock von Hiroshima und Nagasaki rückte die zivile Nutzung der Irrsinns-Energie in den Vordergrund. In der Euphorie der Nachkriegsjahre fand die Zaubertechnik zunächst einmal Bewunderer. 1946 wurde gar ein neuartiges, zweiteiliges Badekostüm nach jenem Atoll benannt, in dem versuchsweise Atombomben gezündet wurden (Slogan: „Der Bikini, die erste an-atomische Bombe“).

Landauf, landab wurden fortan Kernkraftwerke gebaut und lieferten Unmengen an Strom. Dass sie dabei kein CO2 oder sonstige Abgase freisetzen, spielte in den Sechzigern noch keine Rolle, umso mehr jedoch, dass sie aus natürlichem Uran waffenfähiges Plutonium erbrüteten. Im Kalten Krieg war das nicht nur ein schöner Zusatznutzen, sondern der Kern des Pudels. Ein weiterentwickelter Reaktortyp, der Thorium-Flüssigsalzreaktor, wurde deshalb schnell wieder eingemottet. Er war zwar in mehrerlei Hinsicht sicherer, aber leider nicht geeignet zur Herstellung von Bombenrohstoff. In den 1980er-Jahren hat dann Deutschland die Idee weiterentwickelt. In Hamm-Uentrop stand ein Thorium-Testreaktor mit silbernem Designer-Kühlturm. Nach Tschernobyl wurde er gleich wieder stillgelegt. Wir hätten Vorreiter sein können.

Es kam anders, weil in unseren Köpfen hängengeblieben ist, dass alles, was „Atom“ im Namen trägt, nicht nur der Gesundheit abträglich ist, sondern grundsätzlich finstere Ziele verfolgt. Atomenergie, Atommüll, Atomwaffen – alles eine Soße. Kein Wunder, dass die ganze Begriffswelt unwiderruflich verstrahlt ist: Reaktor, Störfall, Kernspaltung, Wiederaufbereitung, Schneller Brüter – bei der bloßen Erwähnung solcher Unworte schüttelt’s einen. Dazu kommen die Bilder: Das gelb-schwarze Strahlungswarndreieck, die betongrauen Riesenkühltürme, die hochgerüstete Staatsmacht. Im Angesicht dieser magischen Superpower geht es nicht mehr um bloßes Für und Wider, sondern um Leben und Tod. Die lachende Atomkraft-Nein-Danke-Sonne auf dem VW-Bus erfüllt einen ähnlichen Zweck wie der Knoblauch gegen Vampire (neben dem Virtue Signalling).

„Die Castoren enthalten nutzbare Energie für hunderte von Jahren.“


Flucht- und Angriffsreflexe in potenziellen Gefahrensituationen sind uns allen mitgegebene Überlebensmechanismen. Ob das jeweilige Angstszenario durch Erfahrung begründet ist, ein Produkt unserer magischen Intuitionen ist oder einfach nur durch vielfachen Vortrag ausgeformt wurde, spielt in Demokratien keine Rolle. Jede Stimme zählt und die Politik hat das zu berücksichtigen. Überhaupt, vage Bauchgefühle bilden die Zukunft im Zweifel nicht schlechter ab als handverlesene Statistiken und wir alle haben noch klar vor Augen, wie ein Atompilz aussieht und was er anrichtet. Im Übrigen hat die angeblich so sichere Reaktortechnik nicht nur einmal versagt. Doch wie schlimm war’s wirklich? Und gilt das immer noch für die zivil genutzte Kernenergie der nächsten Generation?

Thorium-Flüssigsalzreaktor

Jede Technik, die irgendetwas bewirkt, kommt mit Nebenwirkungen. Die regenerativen Energien sind da keine Ausnahme. Anders als zum Beispiel Windräder, ein Konzept aus dem 14. Jahrhundert, ist Kernkraft eine junge Technik mit viel Spielraum zur Optimierung. Und wer hätte es gedacht, unbemerkt von uns germanischen Umweltfreunden tut sich hier gerade wieder eine ganze Menge. Zumindest in den Industriestaaten gibt es kein Interesse mehr an weiterem Plutonium. Im Gegenteil, das Zeug muss weg, am besten gleich zusammen mit dem restlichen Atommüll. Und so wenden sich alle Augen jetzt wieder dem Thorium-Flüssigsalzreaktor zu, denn der vereint geradezu magisch viele Eigenschaften der guten Sorte:

  • GAUs, also Kernschmelzen verbunden mit austretender radioaktiver Strahlung, sind konstruktionsbedingt unmöglich.
  • Der Brennstoff wird bis zu 99 Prozent genutzt, es bleibt kaum Restmüll übrig. Bisher lag die Energieausnutzung unter 5 Prozent. Carlo Rubbia, Nobelpreisträger in Physik, sagt, mit einem Kilo Thorium können wir so viel Energie produzieren wie mit 200 Kilo Uran.
  • Es entstehen rund tausendmal weniger radioaktive Abfälle als bei den üblichen Leichtwasserreaktoren. Fünf Sechstel davon sind schon nach 10 Jahren stabil, der Rest nach 300 Jahren.
  • Unsere radioaktiven Müllberge einschließlich Plutonium können Stück für Stück mitverbrannt werden, statt hunderttausende Jahre im Endlager zu verrotten. Die Castoren enthalten nutzbare Energie für hunderte von Jahren.
  • Es ist nicht möglich, im Betrieb Uran oder Plutonium für den Bau von Atombomben abzuzweigen.
  • Thorium ist günstiger und kommt viermal häufiger vor als Uran. Thorium-Strom ist kostengünstiger als der billigste Strom aus Kohlekraftwerken.
  • Flüssigsalzkraftwerke können sehr viel kleiner gebaut werden als herkömmliche KKWs. Sie sind in Modulbauweise in Serie herzustellen und dezentral einsetzbar.
  • Es ist denkbar, die Reaktoren unterirdisch zu bauen. Das erschwert Terroranschläge.
  • Sie sind schnell an- und abschaltbar und können so die systembedingte Sprunghaftigkeit erneuerbarer Energiequellen perfekt ausgleichen.
  • Wie alle anderen Kernkraftwerktypen stoßen auch Flüssigsalzreaktoren kein CO2 aus.

Die ersten neuen Thorium-Flüssigsalzreaktoren laufen gerade an, der Betrieb in großem Maßstab ist allerdings noch Jahre entfernt. Wenn wir am Ball bleiben, lösen wir mit ihrer Hilfe eine ganze Reihe der Probleme im Zusammenhang mit unserem Energiebedarf und der alten Kernenergie. Das sehen weltweit auch immer mehr Umweltexperten so. Deutsche Ökos, die starrsinnigsten aller Pessimisten, erkennen darin nichts weiter als böse Gaukelei der „internationalen Atomlobby“. (Wenn es darum geht, den armen Mitbürgern zum Zweck der Profitmaximierung Schaden zuzufügen, werden leider selbst die reaktionärsten Industriellen grundsätzlich zu Internationalisten.)

„Erneuerbare Energien liefern bei Weitem nicht die benötigten Strommengen, grundlasttauglich sind sie ohnehin nicht.“


Auf unserer Wohlstandsinsel haben wir nicht im Blick, was die Entwicklungsländer wirklich brauchen. Wir hier in der schönen ersten Welt haben zwar hohe Energiepreise, aber alles in allem gut lachen. Für drei Milliarden Menschen in der dritten Welt hingegen ist das größte Problem ein fehlendes Stromnetz. Keine verlässliche Energieversorgung zu haben, heißt, dass nichts von dem, was wir als selbstverständlich voraussetzen, funktioniert. Gekühlte Medikamente im Landkrankenhaus? Nur, wenn das Licht ausbleibt, denn Strom für beides gibt die eine Solarzelle auf dem Dach nicht her. Nachts wird es erst recht schwierig. Der Weg aus der Armut ist ein grundlastfähiges Stromnetz für eigene Industrien und Infrastrukturen. Für uns ist Strom eine Selbstverständlichkeit, in Afrika brächte er mit dem dadurch wachsenden Wohlstand Nahrung, Gesundheit und Frieden. Kohle- und Gaskraftwerke und Sprit schluckende Autos soll Afrika nicht haben dürfen, weil der Weltklimarat das CO2 fürchtet. Erneuerbare Energien liefern bei Weitem nicht die benötigten Strommengen, grundlasttauglich sind sie ohnehin nicht. Da bleibt nur eine Technik übrig – die gute alte Kernkraft, die aber weltweit abnimmt. Doch wie ist das mit den Risiken der Nukleartechnik? Thorium hin oder her, was ist bisher geschehen? Hier kommen Daten:

  • Ist jede kleine Strahlendosis schädlich?

Gemäß der „Linear No Threshold“-Hypothese (LNT) steigt das Krebsrisiko mit jeder jemals erhaltenen Dosis linear an. „Je weniger Strahlung, desto besser“ ist die übliche Sprachregelung, auf der die Risikohochrechnungen beruhen. Manche Institute sind anderer Ansicht, nämlich, dass der Körper mit geringer Strahlung gut klarkommt und dass sich die Wirkung von Strahlung nicht lebenslänglich im Körper kumuliert.

  • Wie hoch ist die Strahlenbelastung, wenn man eine Banane isst?

0,001 Millisievert.

  • Wie hoch ist die Höchstdosis der Bevölkerung Deutschlands durch laufende Kernkraftwerke?

Zehn Bananen – 0,01 Millisievert pro Jahr – bei großzügiger Berechnung. Tatsächlich ist es meist weniger. Ein Flug nach Japan liegt zehnfach höher, eine Computertomografie hundert- bis dreihundertfach.

  • Wie hoch war die durchschnittliche Strahlenbelastung innerhalb eines 16-km-Radius bei der Three-Mile-Island-Kernschmelze (bei Harrisburg, 1979)?

80 Bananen oder 0,08 Millisievert.

  • Gibt es eine natürliche Strahlung auf der Erde?

Die durchschnittliche Jahresdosis durch Hintergrundstrahlung beträgt 2,4 mSv (Millisievert), das 240-Fache der maximalen Belastung durch KKWs in Deutschland. Hierzulande liegt sie im Schnitt bei 2,1 mSV, mancherortsvielfach höher. Die Stadt Ramsar im Iran bestrahlt ihre Bewohner an jedem einzelnen Tag mit dem Äquivalent von zwölf Röntgenbildern, ohne dass dort die Sterblichkeit ansteigt, ganz im Gegenteil, die Leute werden bei guter Gesundheit uralt.

  • Ist eine geringe Menge an Radioaktivität womöglich sogar gesund?

Es wäre unmoralisch, das zu testen, indem man Menschen im Großversuch bestrahlt. Doch genau das ist in Taiwan passiert. Was war da los in Taipeh? Um 1982 herum wurde versehentlich ein Container mit strahlendem Kobalt-60 zusammen mit regulären Stahlresten verschmolzen und zu Stahlträgern verarbeitet. Diese wurden in 180 Neubauten eingesetzt. Etwa zehntausend Menschen zogen für 9 bis 20 Jahre ein. Erst 1992 begann man, die harte Gammastrahlung der Häuser zu bemerken. 2003 betrug die kumulierte Kobalt-Strahlendosis der Bewohner 600 mSv, bei manchen bis zu 4000 mSv, das ist 1600 Mal höher als die durchschnittliche Hintergrundstrahlung der Erde.

„Studien zeigen, dass geringe und mittlere Dosen von Strahlung gesundheitsfördernd sein könnten.“


In diesen 20 Jahren hätte man statistisch 232 Krebstote durch natürliche Ursachen, also ohne das Kobalt-60 in der Wand, erwarten können. Gemäß den LNT-Datenmodellen müssten weitere 70 durch die erhöhte Strahlung hinzukommen, zusammen 302. Tatsächlich starben aber nur sieben Menschen an Krebs. Die Bewohner dieser kontaminierten Gebäude hatten ein um beispiellose 97 Prozent gemindertes Krebsrisiko. Zufall? Oder eine Nebenwirkung der Kobalt-60-Radioaktivität? Ohne die eingebaute Strahlungsquelle wären 46 Neugeborene mit einer Form von genetischer Missbildung wie Down-Syndrom oder Kinderlähmung zu erwarten gewesen. Doch es kamen nur drei solche Babys zur Welt (alle drei mit Herzfehlern, die später verheilten), das ist eine Verringerung von Gendefekten bei Neugeborenen um 93 Prozent. Die Bewohner waren im Schnitt jünger als die Gesamtbevölkerung, das erklärt einen Teil der geringeren Krebshäufigkeit. Spätere Untersuchungen konnten auch noch weitere Störeinflüsse berücksichtigen, etwa die lange Zeitspanne von der Entstehung einer Krebskrankheit bis zur Diagnose und die variierende Wirkung der Kobaltstrahlung auf unterschiedliches Gewebe. Übrig bleibt eine um 40 Prozent niedrigere Krebsrate. All dies deutet auf eine positive Wirkung von Strahlung in geringer und mittlerer Höhe hin, man nennt das Hormesis.

  • Was ist Hormesis?

Seit Jahrmillionen sind Lebewesen radioaktiver Strahlung ausgesetzt, in der Frühzeit stärker als heute. Durch Adaption entstanden Mechanismen, die molekulare Strahlungsschäden umgehend reparieren – und zwar so übereffizient, dass nicht nur akute, sondern auch bereits vorhandene Zellschäden gleich mit repariert werden. Studien zeigen, dass geringe und mittlere Dosen von Strahlung (aber auch anderer Stressfaktoren wie Gifte), durch diesen Trainingseffekt gesundheitsfördernd sein könnten – selbst noch in einer Höhe, die der maximal erlaubten Dosis für Kernkraftwerksarbeiter entspricht. In Gegenden mit höherer Hintergrundstrahlung gibt es weniger Krebsfälle. Britischen Radiologen wurde eine überdurchschnittliche Lebenserwartung attestiert. In amerikanischen Bundesstaaten, in denen Atomtests stattfanden, ist die Lungenkrebsrate deutlich niedriger als in den anderen.

  • Löst Strahlung Genmutationen aus, die weitervererbt werden?

Ionisierende Strahlung kann zu Mutationen im Zellkern führen. Dass es in der Folge zu Gendefekten bei den Nachkommen kommt, ist aber offenbar höchst selten. Die Radiation Effects Research Foundation, eine japanisch-amerikanische Organisation, die seit Ende der 1940er-Jahre gesundheitliche, genetische und umweltbezogene Langzeiteffekte der radioaktiven Strahlung der Atombombenopfer von Hiroshima und Nagasaki untersucht, findet keinen Anstieg von Gendefekten bei den Kindern der Betroffenen, selbst wenn ihre Eltern extrem hohen Dosen ausgesetzt waren.

  • Wie viele Menschen hat die zivile Nukleartechnik bisher insgesamt auf dem Gewissen?

Unumstritten sind insgesamt und weltweit 209 Tote seit 1945. Bei einem Unfall in Kyshtym 1957 schwanken die Schätzungen zwischen 49 und 8015 Toten als Spätfolgen. Damit kollidieren sie jedoch mit der bis zu 39 Prozent niedrigeren Krebsrate gegenüber einer nicht kontaminierten Vergleichsgruppe aus der Gegend.

  • Und Tschernobyl?

Neben den 45 Mitarbeitern, die bereits oben eingerechnet sind, kursieren unterschiedliche Schätzungen zu den Langzeitfolgen von Tschernobyl, gemäß UN sind bislang 58 weitere Strahlenopfer zu beklagen. Die Spätfolgen beziffert die Weltgesundheitsorganisation auf bis zu weitere 4000 Krebstote. Greenpeace behauptet, es werden 200.000 oder mehr werden. Das International Journal of Cancer wiederum schreibt in einer Studie, es sei unwahrscheinlich, dass die Folgen des bislang größten Strahlungsunfalls in den Krebsstatistiken Europas überhaupt erkennbar werden und auch bislang gebe es in Europa keinen daraus resultierenden Anstieg.

  • Fukushima?

Null Tote durch den (größten anzunehmenden) Reaktorunfall. Was 18.000 Menschenleben kostete, war eines der schwersten jemals gemessenen Erdbeben und der darauffolgende Tsunami, nicht aber die dreifache Kernschmelze. Gemäß UN-Report waren die Arbeiter im havarierten Kernkraftwerk im Schnitt nur 140 mSv ausgesetzt, daher besteht für sie kein erhöhtes Krebsrisiko. Ein zweiwöchiger Aufenthalt innerhalb der Sperrzone bedeutete typischerweise 1 mSv, das ist wenig (vgl. Taipeh). Für die Bevölkerung war das größere Gesundheitsrisiko die Überreaktion der Behörden, ausnahmslos alle zu evakuieren.

  • Welche Energiequelle ist die tödlichste?

Kohle. Wenn man mal CO2 außen vor lässt, liegt die Sterblichkeit im weltweiten Schnitt bei 100.000 pro Billiarde Kilowattstunden. Öl: 36.000, Biomasse: 24.000, Solarzellen: 440, Windräder: 150 (Vögel nicht mitgezählt). Kernkraft schneidet mit weitem Abstand am besten ab: 90.

„Was außerhalb unseres Einflusses liegt, macht uns panisch.“


Um all dem Geraune von Mutationen, Strahlung und Toten noch zwei weitere Kennziffern hinzuzufügen: Jährlich sterben 3.000.000 Menschen durch Luftverschmutzung und weitere 4.300.000, weil sie mangels Strom in ihren vier Wänden Holz und Dung (in den weltweiten Statistiken subsumiert unter „Erneuerbare Energien“) zum Kochen und Heizen verbrennen. Das bekommen wir nur nicht so mit.

Was wir mitbekommen und was wir uns merken, ist das Spektakuläre, das Visuelle und das, worüber die Medien berichten und unsere Freunde reden: Schweinegrippe, kalbende Eisberge, Flugzeugabstürze. Und natürlich Hiroshima, Fukushima, Tschernobyl. Zerstörung läuft plötzlich ab, Aufbau nur langsam. Langsam hat keinen Nachrichtenwert, deshalb besteht die mediale Ausgabe der Welt zu großen Teilen aus Kurseinbrüchen, Superstürmen und Unfällen aller Art. Dazu kommt, dass wir Risiken, die wir nicht selbst beeinflussen können, maßlos überschätzen. Hausgemachte Gefahren hingegen ereilen gefühlt immer nur die anderen, zum Beispiel der ganz gewöhnliche Tabakgenuss, welcher für Raucher das mit Abstand größte Lebensrisiko darstellt. Was wir vermeintlich selbst kontrollieren könnten, lässt uns kalt (gähn, Reiseverkehr …). Was außerhalb unseres Einflusses liegt, macht uns panisch (OMG, Turbulenzen!).

Als kleiner Junge konnte ich eine Weile lang nicht einschlafen. Ich war überzeugt, die RAF würde mich holen kommen. Sie kam nicht. Und was das Atom betrifft: Vielleicht wäre es mal an der Zeit, nachzusehen, ob da wirklich ein Krokodil unter dem Bett lauert.

Der Beitrag erschien zuerst bei NOVO Argumente




Symmetrie und Gleichgewicht

Fangen wir also am Anfang an, nämlich an der Obergrenze der Atmosphäre TOA. Die von der TOA nach unten strahlende Solarenergie für die nördliche und die südliche Hemisphäre sieht so aus:

Abbildung 1: Von der TOA nach unten strahlende Sonnenenergie, gemittelt über 24 Stunden an 7 Tagen der Woche [24/7] über die gesamte Erdoberfläche.
Allerdings kommt diese Energie nicht vollständig unten an. Vieles davon wird ins Weltall zurück reflektiert. Also nahm ich mir die CERES-Solardaten vor und subtrahierte die reflektierte Solarstrahlung. Die nach oben strahlende Solarenergie an der TOA wird reflektiert von Wolken, Aerosolen, Erde, Pflanzen, Eis und Ozeanen. Die von der TOA nach unten minus der von unten zur TOA reflektierten Solarenergie ist die zur Erwärmung des Planeten zur Verfügung stehende Energiemenge. Die Menge verfügbarer Solarenergie rund um die Welt sieht so aus:

Abbildung 2: Karte der globalen Verteilung der verfügbaren Solarenergie. Hierbei handelt es sich um verbleibende Solarenergie nach Abzug der Albedo-Reflektion des einfallenden Sonnenlichtes zurück ins Weltall.

Hatte ich erst einmal die verfügbare Energie, entfernte ich die jahreszeitlichen Variationen. Dabei handelt es sich um die Änderungen, welche sich Jahr für Jahr wiederholen. Die Eliminierung dieser wiederkehrenden Signale hinterlässt lediglich die geringen Variationen, die unregelmäßigen Änderung der reflektierten Strahlungsmenge geschuldet sind. (Es gibt auch eine sehr geringe, auf Sonnenflecken bezogene Variation der einfallenden Solarstrahlung von etwa einem Viertel eines W/m² auf der 24/7-Grundlage. Sie geht in die folgenden Berechnungen mit ein, macht aber praktisch keinen Unterschied).

Hier also ein erster Blick auf die Menge der verfügbaren Energie, welche die große planetenweite Wärmemaschine am Laufen hält, die wir Klima nennen, unterteilt für die beiden Hemisphären:

Abbildung 3: Solarenergie an der TOA und verfügbare Solarenergie nach [Entfernung der] Albedo-Reflektionen. Die Solarenergie macht etwa 340 W/m2 aus, wovon etwa 100 W/m2 wieder in den Weltraum reflektiert werden.
Dabei darf man nicht vergessen, dass die in das Klimasystem eintretende Energiemenge nach Albedo-Reflektionen eine Funktion hoch variabler Eis-, Schnee- und Wolkenverhältnisse ist … und trotzdem gibt es nur sehr geringe Variationen, sowohl räumlich als auch zeitlich. Jahr für Jahr gleichen sich Wolken, Eis und Schnee praktisch aus, auf beiden Hemisphären … warum?

Wie man oben erkennt, liegt die auf beiden Hemisphären verfügbare Solarenergie so nahe beieinander, dass ich die die Südhemisphäre repräsentierende Linie dünner zeichnen musste als die für die Nordhemisphäre, damit man beide erkennt. Um die beiden separat zu betrachten, müssen wir uns hinein zoomen, das Ergebnis davon zeigt Abbildung 4:

Abbildung 4: Verfügbare Solarenergie an der TOA ohne Albedo-Reflektionen, nördliche und südliche Hemisphäre.

Augenblicklich bemerkte ich einige Merkwürdigkeiten in dieser Graphik. Eine davon ist, dass trotz der großen Unterschiede zwischen der Nordhemisphäre (mehr Landfläche, viel Eis und Schnee in mittleren und hohen Breiten) und der Südhemisphäre (mehr Ozeanfläche, kaum Festland oder Eis/Schnee in mittleren Breiten) die Menge der mittleren einfallenden Energie innerhalb ½ W/m² liegt (NH = 240,6 W/m²; SH = 241,1 W/m², schwarze und rote gestrichelte horizontale Linie.

Zweitens, die Verhältnisse auf beiden Hemisphären sind allgemein parallel. Sie nahmen zu von 2003 bis 2004, blieben auf einem Niveau von 2013 bis 2014 und nahm dann wieder zu.

Drittens, es zeigt sich eine offensichtliche zeitliche Verschiebung zwischen den beiden Hemisphären. Zuerst dachte ich an die entgegen gesetzten Jahreszeiten … aber dann fiel mir ein, dass es in den Daten keine jährlichen Signale mehr gibt. Und ich vergewisserte mich, dass es auch kein Sechs-Monate-Signal mehr in den Daten gab. Nicht nur das, sondern auch – bis etwa 2011 lief die Südhemisphäre der Nordhemisphäre voran, aber danach lieft die Nordhemisphäre wieder voran. Warum?

Ich liebe die Freuden einer settled Wissenschaft …

In jedem Falle wollte ich jetzt die Variationen der verfügbaren Energie vergleichen mit den Variationen der Temperatur an der Erdoberfläche. Nun enthalten die CERES-Daten keine Oberflächen-Temperaturen. Allerdings gibt es darin einen Datensatz der von der Oberfläche nach oben gehenden Strahlung, welche manchmal „Strahlungstemperatur“ genannt wird, weil sie zur vierten Potenz der Temperatur variiert. Abbildung 5 zeigt die monatlichen Änderungen der von der TOA nach unten gehenden Solarstrahlung im Vergleich mit der von der Oberfläche nach oben gehenden Strahlung:

Abbildung 5: Scatterplot, Oberflächen-Strahlungstemperaturen (ausgehende langwellige Strahlung) im Vergleich mit der mittleren, an der TOA verfügbaren Solarenergie. Jeder Punkt steht für die Situation in einem 1° mal 1°-Gitternetz, welches den gesamten Planeten überspannt. Es befinden sich also 64.800 Punkte in der Graphik.

Was sagt uns dieser Scatterplot nun? Offensichtlich hängt das, was vor sich geht, von der Temperatur ab … und vielleicht weiteren Parametern. Um das verständlicher zu machen, möchte ich die gleichen Daten zeigen, aber getrennt nach Hemisphäre und getrennt zwischen Festland und Ozean. Hier zeige ich die vermutlich erhellendste Graphik bzgl. des Festlandes auf der Südhemisphäre:

Abbildung 6: Scatterplot, Strahlungstemperaturen der Südhemisphäre, nur Festland vs. mittlere verfügbare Solarenergie an der TOA

Rechts erkennt man die südlichen Gebiete von Afrika und Südamerika … und links die Antarktis. Man kann eindeutig die unterschiedlichen Reaktionen ausmachen, die auftreten bei Temperaturen im Minus-Bereich und im Plus-Bereich.

Als Nächstes kommt hier die gleiche Darstellung für die Nordhemisphäre:

Abbildung 7: Scatterplot, Strahlungstemperaturen der Nordhemisphäre, nur Festland vs. mittlere verfügbare Solarenergie an der TOA

Nirgendwo auf der Nordhemisphäre kühlt sich das Festland so stark ab wie in der Antarktis. Teilweise liegt das daran, dass sich der Südpol auf dem Festland und dort auf einem hoch gelegenen Plateau, der Nordpol dagegen in einem Meer befindet.

All dies zeigt, dass die Reaktion der Planetenoberfläche auf zunehmende Sonneneinstrahlung teilweise eine Funktion der Temperatur ist. Je niedriger die mittlere Temperatur, umso mehr reagiert das System auf zunehmende Sonneneinstrahlung.

Damit im Hinterkopf zog ich noch einmal Abbildung 5 heran und berechnete die Neigung in dem Teil der Welt, der im Mittel nicht gefroren ist. Das Ergebnis dieser Berechnung zeigt Abbildung 8:

Abbildung 8: Wie in Abbildung 5 einschließlich des Trends der nicht gefrorenen Gebiete des Globus‘.

Diese Graphik fand ich nun höchst eigenartig, und zwar aus folgendem Grund: Der Treibhauseffekt ist der Grund, dass die Oberfläche des Planeten wärmer ist als man aus der einfachen Berechnung auf der Grundlage der Menge Sonnenstrahlung, welche die Erde trifft, erwarten würde. Grund hierfür ist die Absorption der ausgehenden langwelligen Strahlung, und wenn sie strahlen, geht etwa die Hälfte der Strahlung in den Weltraum, die andere Hälfte zurück zur Erde. Als Folge davon ist die Erde wärmer als sie es anderenfalls wäre.

Falls der „Treibhauseffekt“ – eine schlechte Etikettierung – zu 100% perfekt wäre für jedes zusätzliche, in das System einfallende W/m² Sonnenlicht, würde die Oberfläche zwei W/m² abstrahlen – ein W/m² des Sonnenlichtes und ein W/m² der Einstrahlung aus der Atmosphäre. Auf der Grundlage des Verhältnisses der einfallenden Strahlung und der Strahlung von der Oberfläche können wir sagen, dass der Gesamt-Multiplikations-Faktor des perfekten Treibhauses 1,0 wäre (hier habe ich mehr dazu geschrieben).

Natürlich ist der Multiplikations-Faktor in der realen Welt geringer. Wir kennen den langzeitlichen mittleren Multiplikations-Faktor des Planeten. Wir können ihn berechnen, indem wir die mittlere ausgehende langwellige Strahlung von der Oberfläche durch die mittlere verfügbare Solarenergie dividieren. Die mittlere ausgehende langwelligen Strahlung macht 398 W/m² aus und die mittlere verfügbare Sonnenenergie 240 W/m². Daraus ergibt sich ein Treibhaus-Multiplikations-Faktor von 398/240 = 1,66.

Und da haben wir die Merkwürdigkeit: der mittlere Multiplikations-Faktor in Abbildung 8 beträgt 0,72, also deutlich weniger als 1,0. Weil dieser Multiplikator kleiner als eins ist, würde dies implizieren, dass es auf der Erde viel kälter ist als es in Wirklichkeit der Fall ist…

Wie können wir diesen offensichtlichen Widerspruch erklären? Für mich ist es ein Beweis für etwas, das ich schon viele Jahre lang gesagt habe, nämlich: Die Sensitivität der Temperatur an der Erdoberfläche auf die Menge der einfallenden Strahlung ist keine Konstante, wie es von Mainstream-Klimawissenschaftlern vertreten wird. Stattdessen ist es eine Funktion der Temperatur. Bei Temperaturen über dem Gefrierpunkt nimmt die ausgehende Strahlung um etwa drei Viertel eines W/m² zu für jedes zusätzlich einfallende W/m² der Sonnenstrahlung.

Aber wenn es ziemlich kalt ist, wie es in der Antarktis der Fall ist, reagiert die Oberflächen-Temperatur viel stärker auf Änderungen der einfallenden Strahlung. Die Situation in der Antarktis ist Folgende:

Abbildung 9: Wie in Abbildung 8, aber für die Verhältnisse in der Antarktis

Man beachte, dass diese Sensitivität nicht eine Folge des Abschmelzens von Festlands-Eis in der Antarktis und sich die damit ändernde Albedo ist. Fast die gesamte Antarktis ist das ganze Jahr über gefroren.

Wir können aber noch auf eine andere Art und Weise auf diese Situation schauen. Die Abbildungen 5 bis 9 zeigen die langfristigen Verhältnisse, im Grunde eine Steady-State-Situation, belegt durch die 68.400 Gitterzellen von 1° mal 1°, welche die Oberfläche des Planeten ausmachen. Anstatt dieses langfristige Mittel zu betrachten, können wir aber auch betrachten, wie sich die Dinge mit der Zeit ändern. Abbildung 10 zeigt die zeitliche Änderung der Temperaturanomalie über den Zeitraum der CERES-Satelliten-Beobachtungen im Vergleich zur Anomalie der mittleren Sonnenenergie an der TOA:

Abbildung 10: Monatliche langwellige Strahlung von der Oberfläche und mittlere Sonneneinstrahlung an der TOA.

Man erkennt, dass es abgesehen von Sprüngen der Oberflächenstrahlung während der warmen El Nino-Jahre von 2009/10 und 2016/17 eine enge Relation gibt mit dem verfügbaren Sonnenschein. Eine Kreuz-Korrelations-Analyse (hier nicht abgebildet) verifiziert, dass es keine zeitliche Verzögerung gibt zwischen Änderungen des solaren Eingangssignals und der Reaktion der Oberfläche.

Wir können auch die Natur der kurzfristigen Relation zwischen diesen beiden Variablen bestimmen mittels eines Scatterplots wie hier in Abbildung 11:

Abbildung 11: Scatterplot, monatliche Mittelwerte der an der TOA verfügbaren Sonnenstrahlung und der ausgehenden langwelligen Strahlung von der Oberfläche.

Wie zu erwarten war, ist der Trend in den monatlichen Änderungen der kurzfristigen Daten kleiner als das längerfristige Gitterzellen-Mittel in Abbildung 8 (0,58 vs. 0,72 W/m² Oberflächen-Änderung pro W/m²-Änderung der solaren Einstrahlung).

Schlussfolgerungen:

Alles in allem besteht die Reaktion der nicht gefrorenen Oberfläche auf zunehmende solare Einstrahlung in einer mittleren Zunahme der ausgehenden langwelligen Strahlung von etwa 0,7W/m² für jede Zunahme der verfügbaren Solarenergie um 1 W/m².

Unterhalb des Gefrierpunktes nimmt diese Reaktion mit abnehmender Temperatur zu, bis die Reaktion bei den typischen Antarktis-Temperaturen zwischen -20°C und -60°C etwa 5 W/m² für jede Zunahme der Solarenergie um 1 W/m² beträgt.

Mittels der Stefan-Boltzmann-Gleichung ergibt sich eine Änderung der Temperatur an der Oberfläche bei einer Änderung der langwelligen Ausstrahlung um 1 W/m² von etwa 0,2°C pro W/m² bei 0°C bis 0,16°C pro W/m² bei etwa 30°C.

Bei einer gegebenen Änderung der einfallenden Solarstrahlung von 0,7 W/m² würde dies zu einer Temperaturänderung im nicht gefrorenen Teil des Planeten von 0,11°C pro zusätzlichem W/m² bei 30°C und einer Erwärmung von 0,4°C bis 0,6°C pro zusätzlichem W/m² bei 0°C führen.

Die geschätzte Rückstrahlung bei einer Verdoppelung des CO2-Gehaltes beträgt 3,7 W/m². Dies würde zu einer Erwärmung von 0,4°C bis 0,6°C führen, falls die Sonneneinstrahlung um 3,7 W/m² zunehmen würde, abhängig von der Temperatur an der Oberfläche.

Und schließlich als Randbemerkung: die mittlere Änderung der von der TOA nach unten gehenden totalen Sonneneinstrahlung TSI infolge einer Änderung der Sonnenflecken-Aktivität ist von einer Größenordnung von 0,26 W/m² von Spitze zu Spitze. Allerdings stehen nur etwa 240/340 = 70% davon zur Verfügung, der Rest wird zurück ins Weltall reflektiert. Setzt man die Relation von 0,72 W/m² Änderung an der Oberfläche pro jedem zusätzlichen W/m² der an der TOA verfügbaren Sonnenenergie an sowie eine maximale Temperaturänderung pro Watt von 0,16°C pro W/m², würde dies eine maximale Auswirkung von 0,26 X 240/340 X 0,72 X 0,16 = 0,02°C aus jener Änderung der TOA-Strahlung ausmachen…

——————————————

DATA: This is all done with the CERES satellite TOA and Surface datasets, which are available here under the heading:

Energy Balanced and Filled (EBAF)

Climate Data Record (CDR) of monthly TOA fluxes and consistent computed surface fluxes and clouds suitable for analysis of variability at the intra-seasonal, inter-annual, and longer time scales.

Link: https://wattsupwiththat.com/2018/05/05/symmetry-and-balance/

Übersetzt von Chris Frey EIKE




1. Mai! Strompreis über 18 Stunden negativ!

Wegen der hohen Solareinspeisung konnte die ungewollte und von niemandem bestellte aber trotzdem erzeugte Stromerzeugung am 1. Mai nicht weiter abgesenkt werden, so dass der überschüssige Strom an diesem Tag zu negativen Preisen in Ausland verklappt werden musste.

Die Stromerlöse nach Entsoe am 1. Mai. Insgesamt wurde ein negativer Preis über 18 Stunden erlöst mit Zuzahlungs-Kosten in Höhe von 11.877.560 €.

Tabelle und Grafik Rolf Schuster. Daten Entsoe-e

Verlauf der Erzeugung vom 25.4.18 bis 1.5.18 aus verschiedenen Quellen. Trotz der bereits verfügbaren Einspeiseleistung mittels Wind + Solarstromerzeugern von > 100 GW, blieb deren gelieferte Leitung weit unter dem Bedarf. Der Rest musste konventionell erzeugt werden.




Es ist ja so, dass Strom künftig kostenlos zur Verfügung stehen wird …

Wer (Öko-)Sozialismus kennt, weiß jedoch aus allen Beispielen der jüngeren Geschichte: Auf dem Weg zum sozialistischen Paradies muss das Volk immer zuerst einen Leidenspfad durchschreiten. Und wann dieser endet, hat bisher noch niemand herausfinden können, da sich bisher fast alle – sich diesem Weg verschrieben habenden – Länder vor dem Erreichen dieses Paradieses notgedrungen auflösten und die wenigen verbliebenen, sich immer noch auf dem mit Mühsal beladenen Weg dorthin befinden.

Ökostrom wird zur Universalwährung

Erfolge muss man feiern – und vor allem endlos wiederholen – auch wenn sie eher das Gegenteil belegen:
SZ: [2] … Und doch war der Neujahrstag eine kleine Sensation. Es war der erste Tag, an dem in Deutschland 95 % des Stromes aus erneuerbaren Energien kam
Man kann dieses denkwürdige Ereignis von wenigen Stunden auch anders interpretieren:
EIKE 14.01.2018: Am Neujahrsmorgen hat sich Deutschland zum ersten Mal in der Geschichte komplett mit Ökostrom versorgt
Doch muss ja nicht jeder die gleiche Meinung haben. Es sei aber erwähnt, dass der Redakteur diese Neujahrgeschichte im weiteren Verlauf relativiert – und darauf hinweist, dass der Ökostrom eben weiter ausgebaut werden muss.
Die Begründung ist immer die Gleiche: … angesichts der Klimaziele der Bundesregierung, nach denen sich die Treibhausgasemissionen in Deutschland bis zum Jahr 2050 um 80 bis 95 % verringern sollen.

Wenn man ein Ziel aus den Augen verloren hat, wird eben mit doppelter Geschwindigkeit darauf zugegangen. Die Notwendigkeit belegen viele Experten. Und davon gibt es seit der ausufernden Akademikerschwemme ausreichend.
Das neue Zauberwort heißt „Sektorkopplung“. Was beim EEG schon nicht funktioniert, muss auf alle Sektoren ausgeweitet werden. Der Vorteil: Dann fehlt der Vergleich mit funktionierenden Systemen und die Probleme des EEG werden als normal empfunden.

Jedenfalls wissen es so die Experten: … demnach muss Ökostrom künftig zur universellen Energiewährung werden … Benutzt man Strom bislang fast ausschließlich für die Beleuchtung und für Elektrogeräte, so wird er künftig zwei weitere Sektoren versorgen: Den Verkehr und die Wärmeerzeugung ...
Der Fachredakteur hat dabei nur übersehen, dass der Strom auch bisher schon Sektor-übergreifend genutzt wurde. Nämlich überall dort, wo es sinnvoll war. Nur darf das eben in Zukunft nicht mehr der Nutzer entscheiden, sondern es wird ihm von den viel besser wissenden „Experten“ – in Wirklichkeit von der Politik – vorgeschrieben.

Das alte Stromnetz passt nicht in die moderne Zeit …

lässt die SZ weiter fabulieren. Während man früher alle paar Generationen das Heimatland durch vom Zaun gebrochene Kriege verwüsten ließ, darf eine neue Generation es endlich einmal selber vollbringen. Und es macht Spaß:
SZ: … Letztlich passt das alte Stromnetz, das sich in mehr als 100 Jahren (Zufügung: so positiv und zuverlässig) entwickelt hat, nicht in die neue Zeit
Denn so, wie sich Ärzte endlich auch um den Klimawandel „kümmern“ wollen [4], erschließt das moderne, intelligente Netz ebenfalls ganz neue Betätigungsfelder:
SZ: … Es kommt also mehr Bewegung denn je ins Netzt – durch Haushalte, die Strom einspeisen oder durch Elektrofahrzeuge, die plötzlich den Verbrauch in die Höhe schrauben
Dazu fehlt noch die Ergänzung: Und nicht vorhersehbare Zeiten völlig fehlenden Stromangebotes infolge von Flauten.

Moderne Lösungen sind nicht da, aber in Sicht: … Herrmann de Meer, Professor für Informatik an der Universität Passau: Für ihn gibt es deshalb nur eine Lösung: Im Verteilnetz müssen künftig Sensoren das Stromnetz aus der Ferne überwachen und steuern. Wie das geht, untersucht de Meer mit seinen Partnern im EU-Projekt Electrific …
Was interessiert einen IT-Fachmann der Strom. Der kommt doch schon jetzt übers Internet per Zertifikat, so wie Geld aufs Konto. Unstabilitäten sind im kein Gräuel, sondern tägliche Routine. Künftig unstabiler Ökostrom ist ihm also schon aus dem Arbeitsumfeld geläufig.

Der Preis könne auch von der Versorgungssicherheit abhängen

Ein Stefan Tenbohlen, Direktor des Instituts für Energieübertragung und Hochspannungstechnik an der Universität Stuttgart hat sich ebenfalls erkennbar mit den neuen Gegebenheiten arrangiert. Er ist voller Enthusiasmus und trägt Lösungen bei:
SZ: … Tenbohlen ist sich sicher, dass künftig ganz neue Geschäftsmodelle möglich werden, wenn man das Verteilen (Anmerkung: des kontingentierten Stromes) intelligent macht. „Es ist ja so, dass Strom künftig kostenlos zur Verfügung stehen wird – weil Windräder und Solaranlagen umsonst Strom liefern, sobald sie abgeschrieben sind“

Damit zeigt dieser Direktor, dass er keine Ahnung von den Sach-Zwängen einer Reduzierung des CO2-Budgets über das Versorgungsnetz hat. Dieses erfordert einen vollkommenen Umbau – im Neusprech: Repowering – aller derzeit installierten Ökoerzeuger zu weit größeren Systemen.
[6] … Die Studie (IWES 2013) fand heraus, dass, um eine 80 % EEG-Versorgung überhaupt zu „ermöglichen“, euphorische (und für die Bürger teure) Maßnahmen durchgeführt werden müssen.
Konkret: Der Energieverbrauch muss drastisch gesenkt werden (um ca. 40 %) und alle Windkraftanlagen sind von derzeit ca. 128 m Nabenhöhe auf ca. 200 m Nabenhöhe zu erhöhen …

Bild 1 Öko-Industrieland Deutschland. Screenshot BDI-Vortragsvideo [1] [5]
Und beide (Professor und „Fach“-Redakteur) zeigen, dass sie weder kaufmännisch rechnen können, noch aus der jüngeren Geschichte irgend etwas gelernt haben. Nach 20 Jahren ist ein Windrad zwar abgeschrieben, aber auch so kaputt, dass die Wartungs- und Reparaturkosten den Betreibern noch „graue Haare“ wachsen lassen werden. Und auf die teils enormen Pachtzahlungen werden die Grundstückseigentümer auch kaum plötzlich verzichten. Vor allem, wenn sie daran denken, dass das Entsorgen der riesigen Betonfundamente vielleicht einmal an ihnen hängen bleibt.
Es gab einen Staat, der hat das Prinzip „abgeschriebene Anlagen“ perfekt betrieben: Die untergegangene DDR. Es stimmt, dass dort im Vergleich zum Westen, alles spottbillig war. Der Autor war zu dieser Zeit vor der „Wende“ nur wenige Male „im Osten“. Es gab dort fast nichts, was sich selbst für dieses „spottbillig“ mit Westgeld zu kaufen gelohnt hätte. Synonym gilt dies auch für den „abgeschriebenen“ Zappelstrom.

Der Professor für Informatik weiß aber eine weitere Lösung: „Der Preis könnte auch von der Versorgungssicherheit abhängen, ergänzt de Meer. „Heutzutage soll jeder Kunde, jede Maschine gleichberechtigt und gleich sicher mit Strom versorgt werden.“ Das sei aber im Grunde übertrieben Warum solle eine Glühbirne im Schuppen genau so sicher versorgt sein wie ein Dialysegerät in der Klinik …
Es ist eben nur eine Frage der Definition, was in Zukunft als „Schuppen“ bezeichnet wird. Es wird wohl jedes Gebäude werden, welches auf einen Haushaltsstromanschluss angewiesen bleibt. Doch liegt der Professor damit im modernen Meinungstrend, wonach der normale Untertan sowieso keinen Anspruch auf eine gesicherte Stromversorgung hat [7]. Dass diese bisher sicher war, war reiner Zufall, weil die „Politikstudierten“ den „Technikstudierten“ früher weniger ins Handwerk pfuschten.

Bis der schwierige Pfad zum Ökoparadies durchschritten ist, gibt es noch viel zu lösen …

Im Artikel werden dann die vielen Probleme des EEG und seines weiteren Ausbaus gelistet. Meistens ergänzt um die Aussage irgend einer Fachperson, die dafür zwar keine Lösung hat, aber von zukünftigen schon einmal etwas gehört hat: … „Natürlich könne man den Ökostrom auch an Ort und Stelle speichern, sagt Fischedick (Anm.: Vizepräsident des Wuppertal-Instituts). Da gebe es derzeit bundesweit eine ganze Fülle an Prototypen – Zum Beispiel sogenannte Redox-Flow-Batterien, deren Tanks ganze Hallen füllen. Auch könne man den mit Strom per Elektrolyse Wasserstoff gewinnen … Über eine Brennstoffzelle kann man daraus bei Bedarf wieder Strom erzeugen. „Bei vielen solchen Speicherprozessen geht aber viel Energie durch die Wandlung verloren“ … Mehr, als wenn man den Strom direkt nutzt ...

… doch da bricht der Artikel ab

SZ: … Der Umbau des Stromnetzes sei eine Generationsaufgabe. „Ein Windpark ist in zwei Jahren errichtet. Für das Stromnetz aber braucht man Jahrzehnte …“
Das hat einen großen Vorteil: Bis dahin sind die ausgestorben, welche noch wussten, wie zuverlässig und billig Strom sein kann, sofern man die richtigen Technologien verwendet.

Nun bietet eine Doppelseite in der SZ leider nicht mehr Platz (ca. zwei Drittel der Doppelseite nimmt das Headerbild ein) und so endet der Artikel da, wo es interessant würde.
Wie der Artikel in einer seriösen Zeitung weitergehen könnte, lässt sich aber nachlesen:
Novo Argumente 27.04.2018: Der Strompreis steigt und steigt

Quellen

[1] Video: BDI Klimapfade für Deutschland – Chancen und Herausforderungen aus Sicht der Industrie. Link

[2] SZ Printausgabe vom 28./29.04.2018: Energie!

[3] SZ Homepage: 27. April 2018 Hochspannend

[4] EIKE 24. April 2018: Klimaretter – Lebensretter. Ärzte sollen Fossil-Ausstieg fordern

[5] EIKE: Die deutsche Industrie vereint sich im Endkampf gegen den Klimawandel mit unserer Regierung. Einzige Bedingung: Dieser „Waffengang“ darf die Industrie auf keinen Fall selbst etwas kosten.

[6] EIKE 27.12.2017: Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde ohne Windstromerzeugung

[7] EIKE 07. 02.2018: In Zukunft sorgt die EU für die Sicherheit von Deutschlands Stromversorgung




Perverse, kollidierende ethische Werte

Die Nazis kontrollierten in ihrer intensiven Gegnerschaft zum Kapitalismus alle Industrien und malten sich große Windturbinen-Projekte aus, welche „riesige Mengen billiger Energie“ erzeugen und Millionen Arbeitsplätze in Deutschland schaffen würde.

Aber Göring war auch Kommandeur der Luftwaffe, der im Jahre 1939 den Terror-Bombenangriff auf Warschau und die finale Vernichtung des jüdischen Ghettos in der Stadt plante und durchführte. Tausende wurden umgebracht, und Überlebende wurden in das KZ Treblinka gesteckt – alles unter dem Begriff „Endlösung“, welche zu lenken er mitgeholfen hat – um Millionen Juden, Slawen, Zigeuner, „geistig minderbemittelte“ und andere „Untermenschen“ in Öfen und Massengräbern umzubringen.

Noch das Harmloseste, was man über die Ethik der Nazis sagen kann ist, dass sie pervers schizophren waren. Die Menschen rangierten in ihrer „moralischen und ethischen“ Hierarchie eindeutig weiter unten als Tiere.

Traurigerweise trifft diese Einschätzung auch auf die fanatischsten Elemente des modernen Umweltaktivismus‘ zu. Ironischerweise fordern radikale Grüne ebenfalls Maßnahmen, welche ultimativ genau jene Habitate und Naturschutzgebiete zerstören würden, die zu erhalten sie sich auf die Fahnen geschrieben haben – im Namen des Narrativs „Lasst die Fossilen im Boden“, um den Planeten zu retten“ vor einem „gefährlichen, vom Menschen verursachten Klimawandel“ und anderen imaginären Kalamitäten. Ihre eigenen Worte unterstreichen ihre Haltung:

[Es folgen in geschweifte Klammern {} gesetzt mehrere Zitate dieser Herrschaften, die zu übersetzen ich mich wegen ihres Gleichklangs mit Nazi-Parolen weigere. Dafür bitte ich um Verständnis und Nachsicht. Die Urheber der Zitate habe ich fett hervorgehoben. Anm. d. Übers.]

{“If we don’t overthrow capitalism, we don’t have a chance of saving the world ecologically.” (Earth First! activist Judy Bari) “Loggers losing their jobs because of spotted owl legislation is no different than people being out of work after the furnaces of Dachau shut down.” (Friends of the Earth founder David Brower)

People have become “a cancer … a plague upon ourselves and upon the Earth. Until such time as Homo sapiens should decide to rejoin nature, some of us can only hope for the right virus to come along.” (National Park Service scientist David Graber) “In the event that I am reincarnated, I would like to return as a deadly virus, to contribute something to solving overpopulation.” (Prince Philip of England)

“Even if animal research produced a cure for AIDS, we’d be against it.” (People for the Ethical Treatment of Animals president Ingrid Newkirk) “Six million people died in concentration camps, but six billion broiler chickens will die this year in slaughterhouses.” (Newkirk again)

Banning DDT in Sri Lanka might well unleash a malaria epidemic, but “so what? People are the cause of all the problems. We have too many of them. We need to get rid of some of them, and this is as good a way as any.” Besides, in the United States, DDT substitutes “only kill farm workers, and most of them are Mexicans and Negroes.” (Environmental Defense Fund scientist Charles Wurster)

“Giving society cheap, abundant energy would be the equivalent of giving an idiot child a machine gun.” (Paul Ehrlich, who in 1968 predicted mass starvation and a collapse of civilization by the 1980s)

“It’s much cheaper for everybody in Africa to have electricity where they need it,” from little solar panels “on their huts.” (Actor Ed Begley, Jr.) People in developing countries “simply cannot expect to have the material lifestyle of the average American.” (Friends of the Earth president Brent Blackwelder)}

Diese Haltung, Politik und Forderungen sind heute vorherrschend. Radikale Grüne treiben immer noch die gleiche irrationalen, intoleranten Ansichten hinsichtlich Pestiziden vor sich her, um durch Insekten übertragene Krankheiten zu kontrollieren; um genetisch veränderte Ackerpflanzen zu verhindern, welche mehr Menschen mit weniger Landverbrauch und weniger Wasser ernähren könnten; und um moderne, industrialisierte Gesellschaften in Afrika, Asien und anderen weniger entwickelten Regionen zu verhindern, welche auf ausreichende, zuverlässige und bezahlbare Energie angewiesen sind.

Die ärmsten Familien der Welt leben immer noch völlig unnötigerweise armselig, krank, unterernährt und elend. Milliarden haben immer noch keinen Strom, sauberes Wasser, Glühbirnen oder einen kleinen Kühlschrank.

Es ist schlimm genug, dass diese Menschen an diesen Orten in diese Bedingungen hinein geboren wurden und dann korrupte, kleptokratische Diktatoren ertragen müssen. Es ist inakzeptabel, dass ihre Hoffnungen und Träume ebenso von nicht gewählten und unverantwortlichen, öko-imperialistischen Aktivisten und Bürokraten zerschlagen werden, welche sich aufplustern, angeben und ihre Verpflichtung gegenüber „marginalisierten“ Menschen bekennen – sich aber nur dann wirklich um sie kümmern, falls sie „bedroht“ werden durch Kapitalismus oder Klimawandel. Es ist keine Überraschung, dass sie ihre eigene gefühllose Rolle bei dieser Ungerechtigkeit dreist und schamlos ignorieren.

Die dunkelhäutigen Menschen der Welt verbleiben an unterster Stelle der ethischen Hierarchie der Umweltaktivisten – wobei Viele jedes Jahr an vermeidbaren Krankheiten sterben, verursacht durch Armut, welche durch gefühllose Umweltaktivisten am Leben gehalten wird. Landarbeiter, Bergleute, Fabrikarbeiter, Landwirte, Pensionäre und arme Minderheiten in entwickelten Ländern stehen nicht sehr viel höher in ihrer Rangfolge; Landwirten gewährt man lediglich eine Galgenfrist, bis sie Mais, Sojabohnen oder Raps für Biotreibstoffe anbauen.

Die Schlacht um fossile Treibstoffe ist jüngst in eine weitere gefährliche Phase getreten, treten doch „Protestierer“ Kampagnen los, welche an Radikale erinnern, die Nägel in Bäume schlugen, damit die Sägeblätter von Motorsägen zerspringen und Arbeiter verletzen – während ihre Kameraden Gen-Saatgut und Testlabore für Tiere, aber auch Fleisch verarbeitende Industrien und sogar Häuser bombardieren.

Ihre Ziele sind jetzt Öl- und Gas-Transportsysteme – als Vorspiel zu noch weiter gehender Zerstörung – assistieren und finanzieren doch Putin-Gehilfen und Gesinnungsgenossen andere Gruppen, die versuchen, die Energieerzeugung in den USA zu blockieren.

Ein neuer Kader von Anarchisten der Earth Liberation Front hat begonnen, die Ventile von Pipelines zu schließen – Sabotageakte, die dazu führen können, dass Pipelines bersten, es zu Ölpest, Explosionen, Verletzungen und Todesopfern kommt. In einem Fall haben die „Ventil-Hasardeure“ das Operationszentrum der Keystone Pipeline angerufen – nur Minuten, bevor sie das Ventil schlossen. Das Ventil-Rad und der Boden unter den Füßen der Saboteure begannen zu beben. Das hätte zu einer Katastrophe führen können.

Falls sie gefasst, inhaftiert und verurteilt werden, reklamieren diese Extremisten die „Notwehr“ für sich – wobei sie so tun, als ob sie verpflichtet wären, Gesetze zu brechen, um noch größere Schäden zu verhindern: den vom Menschen verursachten Klima-Kataklysmus.

Die Öko-Terrorbanden haben ein Manifest mit dem Titel „Decisive Ecological Warfare“ herausgegeben, in welchem gleichgesinnte kriminelle Elemente gedrängt werden, ähnliche Sabotageakte gegen Pipelines, Fernleitungen, Öltanker und Raffinerien durchzuführen. Wie in der Vergangenheit wollen die Militanten „moderatere Umweltgruppen“ dazu bewegen, die „Notwehr“-Erfordernis, Sabotageakte und Anwendung von Öko-Terrorismus zu unterstützen, um die „industrielle Zivilisation zu stören und aufzulösen“ sowie um „die Fähigkeit der Mächtigen zu erodieren, die Marginalisierten auszubeuten und den Planeten zu zerstören“.

Sie wollen mehr „Mainstream“-Gruppen dazu bewegen, der Ansicht Vorschub zu listen, dass Sabotage akzeptabel und normal ist, wenn es um die Zukunft der Erde geht. Umweltaktivisten haben bereits Institutionen des Westens überredet, keine Pestizide mehr zu verwenden, keine fossil betriebenen Kraftwerke und andere moderne Technologien in armen, von Krankheit und Energiemangel gebeutelten Ländern zu errichten – vielleicht ist dieser Wahnsinn gar nicht mehr so weit hergeholt.

Viele Staaten haben Gesetze zum „Schutz entscheidender Infrastruktur“ erlassen, wonach Terroristen und Organisationen juristisch belangt werden können, welche konspirieren, um sich Zugang zu grundlegenden Infrastrukturen zu verschaffen oder diese beschädigen. Die Gesetze holen auch Parteien in die Verantwortung für jedwede resultierende Schäden von Eigentum oder Personen; ebenso sollte man Stiftungen und andere Finanzierer von Öko-Terror bestrafen. Alle 50 US-Staaten und der Kongress sollten ähnliche Gesetze in Kraft setzen.

Die kolportierten Rechtfertigungen, welche für perverse, sich widersprechende Ethiken der Umweltaktivisten ins Feld geführt werden, basieren auf Ideologien, Vermutungen und Computermodellen, welche die Menschen, den Kapitalismus und moderne Technologien als existentielle Bedrohung unseres Planeten etikettieren. Sie haben einen Klima-industriellen Komplex im Wert von 1,5 Billionen Dollar pro Jahr entstehen lassen. Dieser ist dazu ausersehen, sein Einkommen immer weiter zu vergrößern, das Leben der Menschen zu kontrollieren, ebenso wie Lebensweise und Lebensstandard – während Reichtum umverteilt wird zumeist an all jene, welche an der Macht sind, und an jene, welche dafür sorgen, dass sie an der Macht bleiben. Für die ärmsten Familien der Welt bleiben ein paar Brosamen übrig, womit sie ihren Lebensstandard geringfügig verbessern können.

Ironischerweise werden in diesem Prozess Öko-Aktivisten umweltlichen Werten drastisch mehr Schaden zufügen als die Technologien, die sie verdammen. Ihre „Lösungen“ für vermeintliche ökologischen „Probleme“ wird Milliarden Acres Ackerland in Wind- und Solarparks umwandeln, in Biotreibstoff-Plantagen, Wasserkraft-Projekte und in Minen zum Abbau der Rohmaterialien, die für Windturbinen, Solarpaneele, Batterien und andere „saubere, grüne, erneuerbare“ Energie-Alternativen benötigt werden.

Das 20. Jahrhundert hat gezeigt, wie dünn der Schleier der Menschlichkeit, Zivilisation und Ethik sein kann, wenn Propaganda, das Schüren von Angst, Hass und Emotionen die Oberhand gewinnen. Wir müssen genügend Wissenschaft, Intellektualismus und Redefreiheit zusammenbringen, um weitere Todesfälle im Namen von „Umweltgerechtigkeit“ zu verhindern.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy and environmental policy.

Link: https://www.iceagenow.info/perverse-conflicted-ethical-systems/




Die Rückkehr des Monopols

Eine kurze Geschichte der deutschen Stromwirtschaft

In rascher Folge entstanden nach dem 1. Weltkrieg in den anderen deutschen Landen weitere regionale Monopolisten wie das Badenwerk, das Bayernwerk, die PreußenElektra u.s.w. Fortan gab es bis zu neun große länderbezogene Stromkonzerne, welche (erstaunlicherweise) fast 80 Jahre lang den deutschen Strommarkt beherrschten und unter sich aufteilten. Um das Jahr 2000 wurde durch Großfusionen aus den neun Gebietsmonopolisten ein Oligopol von vier mächtigen Stromerzeugern, denen auch die Transportnetze gehörten. RWE, E.ON, EnBW und Vattenfall waren geboren, welche man – mit einem Hauch an Ironie – auch die „Quadriga“ nannte.

Der erste Schritt in Richtung „mehr Wettbewerb“ gelang mit der sogenannten Liberalisierung des Strommarktes durch die Europäische Kommission. Die Elektrizitätsverbraucher durften sich ab 1998 ihren Stromlieferanten selbst aussuchen. Der zweite Schritt war die „Entflechtung der Stromnetze“. Ab dem Jahr 2007 gehörten die Transportnetze nicht mehr den genannten vier Oligopolisten, sondern Amprion, Transnet, Tennet und 50Hertz.

Den nächsten Schritt in Richtung Wettbewerb – bis hin zur Anarchie – brachte die sogenannte Energiewende im Nachgang zu den Störfällen von Fukushima. Am 30. Juni 2011 beschloss der Deutsche Bundestag (mit einer Mehrheit von 85,5 Prozent der Stimmen!), die sofortige bzw. kurzfristige Abschaltung der 17 deutschen Kernkraftwerke und die bevorzugte Einspeisung des Wind- und Sonnenstroms zu festgelegten Subventionspreisen.

Bald darauf verließ das schwedischen Unternehmen Vattenfall den deutschen Markt und bei EnBW war nach dem Rückkauf der EdF-Aktien das Land Baden-Württemberg praktisch 90-prozentiger Anteilseigner geworden, sodass sich das weitere EVU-Firmengeschehen (bis heute) zwischen RWE und E.on abspielt. Es wird im Folgenden kurz beschrieben.

Aus 2 mach 4:  Eon/Uniper  und RWE/Innogy

Die staatlich verordnete „Energiewende“ beendete das Monopolgeschehen in Deutschland und führte zu einem chaotischen Wettbewerb. Tausende Eigentümer von Sonnenkollektoren und Windrädern agierten plötzlich als „Betreiber von Kleinkraftwerken“ und verlangten von den großen Stromversorgern, ihren „Zappelstrom“ zu jeder Tages- und Nachtzeit zum Festpreis in das Stromnetz einzuspeisen. RWE und Eon hatten alle Hände voll zu tun, die Stabilität des Netzes zu sichern, standen dabei aber selbst nahe am wirtschaftlichen Abgrund. Die milliardenschweren Abschreibungen für die Atom- und Kohlekraftwerke rissen den Aktienkurs in die Tiefe und brachte die Konzerne an die Grenzen ihrer wirtschaftlichen Existenz.

Kein Wunder, um aus diesem Dilemma herauszukommen, wurden allerlei kommerzielle Varianten ausprobiert. Zuerst war E.on an der Reihe. Dort spaltete man im Jahr 2016 die kommerziellen Energieerzeugungssparten  Wasser, Kohle und Gas ab und fasste sie in der der neuen Firma „Uniper“ zusammen. Dabei ist Uniper ein Kunstwort, das sich aus „unique“ und „performance“ zusammensetzt. Mit der Leitung der 15.000-Mann-Firma wurde Klaus Schäfer, ehemals Finanzvorstand bei E.on (unter Chef Johannes Teyssen) beauftragt.

RWE stand solchen Abspaltungen zunächst skeptisch gegenüber, zog aber bald mit der Gründung des Unternehmens „Innogy“ nach, das ebenfalls ein Kofferwort aus „innovation“ und „energy“ ist. Innogy vereinigte die Sparten Erneuerbare, Netze und Vertrieb, hatte zeitweise 38.600 Mitarbeiter und wurde von dem ehemaligen RWE-Chef Peter Terium geleitet. Das Unternehmen war nicht nur in Deutschland aktiv, sondern auch in Großbritannien und weiteren europäischen Ländern. Im Jahr 2017 gründete Innogy sogar eine Tochtergesellschaft für Elektromobilität in den USA.

Der Mega-Deal:  Zwei riesige Monopole im Entstehen

Der 11. März 2018 wird in die Geschichte der deutschen Stromwirtschaft eingehen. In einem Überraschungscoup gaben die beiden Essener Unternehmen RWE und E.on bekannt, dass sie ihre Geschäfte neu aufteilen werden. RWE soll zukünftig für die Stromerzeugung bei den Kraftwerken zuständig sein, , während E.on die Stromnetze übernehmen soll sowie das Kundengeschäft.

Im Grunde läuft da eine gigantische „Wette“. Der RWE-Chef Rolf Martin Schmitz glaubt offenbar mit seinen konventionellen Kraftwerken und einigen Offshore-Windparks genügend Geld verdienen zu können, um die Gehälter, Pensionslasten und Dividenden seines Konzerns samt der Kosten für den Rückbau der Braunkohletagebaus schultern zu können. Sein E.on-Kompagnon Johannes Teyssen setzt auf die Stromnetze und den Vertrieb. Er ist sich sicher, mit dem An- und Verkauf von Strom – vor allem aber mit den garantierten Renditen beim Betrieb der Energienetze – Umsätze in zweistelliger Milliardenhöhe bei entsprechenden Gewinnen einzufahren.

Die erst vor wenigen Jahren gegründeten Tochtergesellschaften Uniper und Innogy standen bei der Neuorganisation der Muttergesellschaften nur im Wege. In einem ziemlich robusten Managementmanöver entledigten sich RWE und E.on dieser „Altlasten“. Uniper, bislang im MDAX gelistet, wurde von E.on „entkonsolidiert“, indem die Gesellschaft an das finnische EVU Fortum verkauft wurde. Schwieriger war die Situation bei Innogy, dem Unternehmen, das nach einem fulminanten Start und kurzem Höhenflug vorübergehend zum wertvollsten deutschen Energiekonzern avancierte. Aber bald kam es zum Rückschlag durch allerlei Managementfehler und mangelnde Investitionsmittel. Als der Chef Peter Terium – vor Jahresfrist noch mächtiger Vorstandsvorsitzender bei RWE – im Dezember 2017 eine Gewinnwarnung herausgeben musste, hatte auch Teriums Stunde geschlagen und er wurde von seinem früheren Underling Schmitz in die vorzeitige Rente geschickt. RWE verkaufte seinen 77-Prozent-Anteil bei Innogy an E.on und Innogy verblich zur Geschichte.

Risiken am Horizont

Der Fusionsdeal zwischen den beiden Giganten RWE und E.on ist trotz aller medialer Bekundungen noch keineswegs in trocknen Tüchern. Schon hat sich dieMonopolkommission zu Wort gemeldet; sie will untersuchen, ob hier nicht ein Vertrag zu Lasten Dritter – nämlich der Stromkunden – abgeschlossen wurde. Und auch der Chef der noch „gefährlicheren“ Kartellbehörde , ihr Präsident Andreas Mundt, will sich die Wettbewerbssituation im Strombereich „zu gegebener Zeit ansehen“. Wortreich verteidigen sich RWE und E.on, dass – neben ihnen – noch 150 bis 200 Stromerzeuger und -händler tätig seien. Womit sie formal nicht unrecht haben, aber den Deutschen fehlt zumeist einfach der Mut zum Wechsel des Stromlieferanten. Obwohl das kinderleicht ist.

Erhebliche Unruhe gibt es bereits bei den Beschäftigten der früheren TochterInnogy. Die übernehmende Gesellschaft E.on will dort nämlich bis zu 5.000 Planstellen streichen und streitet sich darum, ob der Verzicht auf „betriebsbedingte Kündigung“ aufrechterhalten werden kann. Nur gut, dass der Kurzzeitchef Peter Terium eine Abfindung von rd. 12 Millionen Euro kassieren durfte. Damit hat der Niederländer (in altruistischer Weise) sogar noch auf 5,5 Millionen verzichtet.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Der größte Betrug beim Betrug der vom Menschen verursachten globalen Erwärmung

Ein Grund für die Fortdauer des Betrugs ist der Umstand, dass die Skeptiker es nicht vermögen, der Öffentlichkeit die wissenschaftlichen Probleme hinter der AGW-Behauptung auf eine Art und Weise zu erklären, welche die Menschen verstehen können. Ich habe früher schon einmal erwähnt, dass die meisten Menschen, das sind die 85% ohne wissenschaftliches Hintergrundwissen, die wissenschaftlichen Argumente der meisten Skeptiker zu obskur empfinden.

Allerdings gibt es auf beiden Seiten der Debatte Probleme, welche die Möglichkeiten eindeutigen Verständnisses und Erklärungen verhindern oder zumindest ernsthaft begrenzen. Da sind einmal fehlende Daten. Es gibt so viel Spekulation ohne jedwede Fakten, dass es an der Zeit ist, einmal zu schauen, wie man anderswo mit Problemen umgeht. Ein gutes Beispiel hierfür liefert Sir Arthur Conan Doyle mittels seines Detektivs Sherlock Holmes.

Es ist ein kapitaler Fehler zu theoretisieren, bevor man Daten hat. Unmerklich beginnt man, Fakten umzudeuten, damit sie zu den Theorien passen, anstatt die Theorien so umzuformulieren, dass sie zu den Daten passen“

Es ist wichtig, eine fiktive Quelle für diese Erinnerung heranzuziehen, weil in der realen Welt Fakten und Daten keine Voraussetzungen mehr sind. Es gibt praktisch keine realen Wetter- oder Klimadaten, aber dennoch entwickeln Menschen auf beiden Seiten der Debatte Computermodelle oder spekulieren endlos. Sie kommen genau zu dem Punkt, den Holmes vorhergesagt hat. Es ist beängstigend, wie viele Menschen, die so überzeugt sind von AGW, praktisch nichts wissen.

Ein anderes Beispiel von Holmes verdeutlicht zwei weitere Probleme durch fehlende Daten und Spekulation. Das erste Problem ist es, Variable zu ignorieren.

Gregory (Detektiv von Scotland Yard): „Gibt es noch einen weiteren Punkt, auf den Sie meine Aufmerksamkeit lenken wollen?“

Sherlock Holmes: „Ja, und zwar auf den komischen Vorfall mit dem Hund in der Nacht“.

Gregory: „Der Hund hat doch in der Nacht gar nichts gemacht“.

Holmes: „Eben! Das war der komische Vorfall“.

Warum ignorieren das IPCC und AGW-Befürworter wesentliche Variablen oder blenden diese aus, welche in der Komplexität von Wetter und Klima enthalten sind? Wie können sie die Validität ihrer Prophezeiungen so laut hinaus posaunen, wenn praktisch alles ausgelassen wird?

Das zweite Problem ist, dass man von der Komplexität so eingefangen ist, dass man das Offensichtliche ignoriert. Für dieses Beispiel ist nicht Conan Doyle der Urheber, doch wird ein Verfahren beschrieben, um ruhig zu bleiben und nicht den Überblick zu verlieren.

Sherlock Holmes und Dr. Watson sind auf einer Camping-Tour. Nach einer guten Mahlzeit und einer Flasche Wein ziehen sie sich zur Nachtruhe zurück. Einige Stunden später wacht Holmes auf und stieß seinen treuen Freund an. „Watson, wach auf, schau an den Himmel und sage mir, was du siehst!“

Ich sehe Abermillionen Sterne, Holmes“, erwidert Watson.

Und was schließt du daraus?“

Watson überlegt einen Moment. „Nun, astronomisch sagt es mir, dass es Millionen Galaxien und potentiell Milliarden Planeten gibt. Astrologisch sehe ich, dass sich Saturn im Sternbild Löwe befindet. Chronologisch sehe ich, dass es etwa Viertel nach drei Uhr ist. Meteorologisch denke ich, dass morgen ein wunderbarer Tag wird. Theologisch sehe ich die Allmacht Gottes und dass wir ein kleiner und unbedeutender Teil des Universums sind.

Was schließt du daraus, Holmes?“

Holmes antwortet nicht gleich. Dann: „Watson, du Idiot! Jemand hat unser Zelt gestohlen!“

Es gibt eine Vielfalt von Variablen, die übersehen oder ignoriert werden. Fast alle sind nicht oder kaum gemessen. Es gibt so viele synthetische, von Modellen erzeugte Daten, die dann als reale Daten in ein anderes Modell eingehen. Die Ergebnisse der Modelle zeigen die Inzucht. Betrachtet man selbst die extremsten Behauptungen bzgl. des Effektes der globalen Erwärmung durch menschliches CO2, liegen selbst diese noch innerhalb der Fehlerbandbreite fast jeder einzelnen Variablen. Das Niveau der Reflektivität (Albedo) variiert mehr von Jahr zu Jahr und erzeugt damit eine Energie-Variation, die wahrscheinlich über den geschätzten Einfluss von menschlichem CO2 hinausgeht. Man betrachte die Arbeit von Kukla und Kukla, die hierauf schon früh aufmerksam machten. Die Arbeit ging weiter mit der natürlichen Variabilität der Albedo durch Schneebedeckung. Jüngst haben wir erfahren:

Wegen seiner großen jahreszeitlichen Variabilität und seiner ausgeprägten physikalischen Eigenschaften spielt Schnee eine Hauptrolle im Klimasystem mittels starker positiver Rückkopplungen mit Bezug zur Albedo und anderen, schwächeren Rückkopplungen aufgrund der Speicherung von Feuchtigkeit, latenter Wärme und Isolierung der Erdoberfläche unter dem Schnee.

Das IPCC beschreibt diese Abschätzung der Lage in seinem AR 5 (S. 359):

Zusätzlich zur Reduktion der Schneebedeckung, welche die mittlere Reflektivität bestimmter Regionen reduziert, kann sich die Reflektivität des Schnees selbst ebenfalls ändern als Reaktion auf menschliche Aktivitäten.

Woher weiß das IPCC das? Es ist reine Spekulation. Dann liefern sie eine sehr konfuse Erklärung:

Allerdings zeigen räumlich ausgedehnte Beobachtungen von Fremdstoffen im Schnee der Arktis zum Ende des vorigen Jahrzehnts und Mitte der achtziger Jahre, dass der Gehalt an Fremdstoffen zwischen diesen beiden Perioden abgenommen hat, so dass Änderungen der Albedo möglicherweise keinen bedeutenden Beitrag zur jüngsten Abnahme von Schnee und Eis in der Arktis geleistet haben.

Die Ausgewogenheit des Eintrags diskutiert allgemeine Bedingungen unter dem Titel [übersetzt] „Wechselwirkungen von Schnee innerhalb der Cryosphäre“. Im Kapitel Klimamodelle schreibt man dazu:

Es gibt in den Modellen auf der Nordhemisphäre eine starke lineare Korrelation zwischen der Ausdehnung der Schneedecke im Frühjahr und der jährlichen mittleren Lufttemperatur. Das ist konsistent mit den verfügbaren Beobachtungen. Der jüngst negative Trend der Frühjahrs-Schneebedeckung wird von den CMIP5- (und CMIP3)-Modellen unterschätzt, was assoziiert ist mit einer Unterschätzung der Erwärmung borealer Landgebiete.

Sie wissen es nicht, und was sie heranziehen unterschätzt die Realität, welche sie ebenfalls nicht kennen. Das hindert sie aber nicht daran, im AR5 festzustellen:

Es gibt sehr hohes Vertrauen darin, dass die Ausdehnung der nordhemisphärischen Schneebedeckung seit Mitte des 20. Jahrhunderts während der Monate März und April um 1,6 (0,8 bis 2,4)% pro Jahrzehnt abgenommen hat sowie um 11,7% im Juni; alles im Zeitraum 1967 bis 2012.

Sie sagen uns nicht, wie viel dieser Abnahme der vom Menschen verursachten Erwärmung geschuldet ist. Das können sie auch nicht, weil sie die natürliche Variabilität nicht kennen aus der Zeit vor den Satellitendaten, aber sogar auch danach nicht, weil – wie sie selbst einräumen – die vollständigen und genauen Daten nicht verfügbar sind. Man vergesse nicht, hierbei handelt es sich nur um eine aus der Myriade aller Variablen.

Ich werde mich hier auf den Wasserdampf konzentrieren, weil diese Variable die am wenigsten vermessene und am wenigsten verstandene ist. Und doch ist sie entscheidend für die gesamte Grundlage der Erwärmung aufgrund menschlicher Interferenz in die Treibhausgas-Theorie. Das IPCC hat es fertig gebracht, den Wasserdampf als Erwärmungsquelle vollständig zu ignorieren, und zwar mittels Definition des Klimawandels, welche ausschließlich menschliche Einflüsse umfasst. Ironischerweise verwenden und manipulieren sie aber den Wasserdampf, um ihren Betrug abzustützen.

Seitens der Politik wurde die Ziele erzwungen, CO2 aus menschlichen Quellen als Ursache der globalen Erwärmung zu isolieren und zu dämonisieren. Primär wurde dies erreicht mittels der kontrollierten Gruppe unzähliger Menschen, hauptsächlich Bürokraten, die ausschließlich menschliche Ursachen des Klimawandels zu untersuchen hatten. Das eliminiert die Sonne, weil es Dinge gibt, die kein Mensch kontrollieren kann, und sei er auch noch so mächtig.

Aber trotzdem bezog das IPCC eine Kategorie „Sonne“ in ihre Liste mit „antreibenden“ Variablen ein. Warum? Menschen beeinflussen nicht die solare Einstrahlung und können das auch gar nicht. Das IPCC kann einzig argumentieren, dass Menschen der Atmosphäre Partikel beifügen, welche die Einstrahlung filtern. Das Problem dabei ist, dass wir keine Ahnung haben, wie groß die Masse an Partikeln in der Atmosphäre ist oder wie die Partikel räumlich und zeitlich variieren. Ein diesbezügliches Beispiel zeigte sich, als die AGW-Befürworter behaupteten, die Abkühlung von 1940 bis 1980 gehe auf das Konto eines gestiegenen Sulfat-Niveaus, verursacht durch die Menschen. Woher wissen sie das? Sie haben einfach genügend den Modellen hinzugefügt, bis diese die Abkühlung approximieren. Das Problem hierbei war jedoch, dass nach 1980 Erwärmung einsetzte, ohne dass sich das Sulfat-Niveau verändert hat.

Alles war noch schwieriger hinsichtlich der Treibhausgase (GHG), weil die Menschen diese in variierender Menge erzeugen. Noch schlimmer war, dass das GHG, welches sie dämonisieren wollten, zu Beginn in den achtziger Jahren nur 4% aller GHG ausmachte. Der Wasserdampf- Anteil betrug 95%, und Menschen haben ihn der Atmosphäre beigefügt. Das IPCC räumte die menschliche Erzeugung ein, beeilte sich aber dann zu sagen, dass die Menge relativ zum Gesamtvolumen so gering war, dass sie es bei ihren Berechnungen nicht berücksichtigt haben. Sie machten das, was frühere Computermodelle mit der Verdunstung aus den Ozeanen gemacht haben. Es gab keine Messungen, also hypothetisierten sie etwas, dass man Sumpf-Annäherung bezeichnete, dass also die Verdunstung durchweg 100% ausmachte.

Hinsichtlich des CO2 schätzten sie, dass es gleichmäßig in der Atmosphäre verteilt sei – was sich später durch Daten des Satelliten OCO2 als falsch erwies. Wasserdampf variiert hinsichtlich Volumen und Verteilung in der gesamten Atmosphäre viel mehr als jedes andere Gas. Darum hat man in der Meteorologie vier verschiedene Maßzahlen entwickelt, nämlich Mischungsverhältnis, spezifische Feuchtigkeit, absolute und relative Feuchtigkeit, um die Rolle des Wasserdampfes in der Atmosphäre besser zu verstehen. Letztere ist die am besten bekannte Größe, aber aus wissenschaftlicher Sicht auch die bedeutungsloseste. Die Menge an Wasserdampf in der Luft kann variieren von fast Null bis etwa 4%. Damit erhebt sich die Frage, wie viel Wasser sich in der Atmosphäre befindet und wie dieses mit der Zeit variiert.

Der United States Geological Survey (USGS) hat eine Water Science School. Darin heißt es:

Eine Schätzung des Wasservolumens in der Luft zu irgendeiner Zeit beläuft sich auf 12.900 km³. Das klingt viel, aber es sind nur 0,0001 Prozent des gesamten Wasservolumens der Erde von etwa 1.385.000.000 km³. Falls der gesamte Wasservorrat in der Luft auf einen Schlag ausregnen würde, würde dieses Wasser den Globus nur mit einem Wasserfilm mit einer Dicke von 2,5 cm bedecken.

Man beachte, wie sie die atmosphärische Bedeutung des Wasserdampfes herunterspielen, indem sie ihn mit der Gesamt-Wassermenge auf dem Planeten vergleichen. Sie sprechen über Wasser in der flüssigen Phase, aber Wasserdampf ist als Gas bedeutend und aus Perspektive des Wetters ein zentraler Faktor. Welche Prozentanteile des Wassers befindet sich gerade in einem der drei Aggregatzustände, und wie variiert dieses Verhältnis mit der Zeit? Antwort: das weiß niemand, und es gibt nicht einmal eine grobe Schätzung, wie das Scheitern der Modelle bei der Simulation von Wolken nebst deren Auswirkungen belegt. Nicht nur das, sondern Änderungen des Aggregatzustandes können in großem Umfang innerhalb weniger Sekunden erfolgen.

Das IPCC ließ Wasserdampf außen vor als eine GHG-Variable, weil man annahm, dass er konstant war. Sie mussten das tun, weil sie nicht wussten, wie sehr er mit der Zeit variiert. Sie haben sich auf CO2 konzentriert, aber schon bald entdeckt, dass es bzgl. einer CO2-Zunahme eine obere Grenze der Erwärmung gibt. Ich nenne das das ,Schwarze-Farbe-Problem‘. Falls man durch das Fenster fallende Licht abschirmen will, streiche man das Fenster mit einer Farbschicht. Der größte Teil des Lichtes wird dann blockiert. Ein zweiter Anstrich reduziert das Licht nur noch zu einem Bruchteil. Das gegenwärtige CO2-Niveau entspricht einem Anstrich. Eine Verdoppelung hätte nur den Bruchteil einer Auswirkung. Eine Maßzahl dafür, wie wenig dieser Effekt verstanden ist, wird reflektiert durch verschiedene Schätzungen dieses Effektes (Abbildung 1). Das Problem besteht weiter, wie der fortgesetzt immer niedriger geschätzte Wert der CO2-Klimasensitivität belegt.

Abbildung 1

Die Reaktion auf dieses Problem war die Erzeugung einer positiven Rückkopplung. Darunter versteht man die Behauptung, dass eine CO2-Zunahme eine Temperaturzunahme verursacht, welche wiederum die Verdunstung steigert und mehr Wasserdampf in die Atmosphäre bringt. Dies lässt die Temperatur weiter steigen, über die Fähigkeit von CO2 hinaus. Ich akzeptiere das Argument, weil es theoretisch begründet scheint, aber es gibt dafür keine empirischen Beweise. Es berücksichtigt nicht eine negative Rückkopplung, weil sich beispielsweise auch mehr Wolken bilden, was wiederum die Albedo verändert. Wie auch immer, es gibt keine empirischen Daten, und die einzigen Daten, die sie haben, stammen aus einem Computermodell. Das Ergebnis wird bestimmt durch die verwendeten Daten, um das Modell zu konstruieren, aber es gibt keine bedeutsamen Daten oder auch nur gute Schätzungen. Daten werden also mittels Modellen erzeugt, für die es keine realen Daten gibt, und die Ergebnisse gehen dann in andere Modelle ein, für die es ebenfalls keine realen Daten gibt. Die Stärke der Wasserdampf-Zunahme wird in ihrem Narrativ plötzlich wichtig. Aber wie viel gesteigerte Verdunstung ist erforderlich, um eine positive Rückkopplung zu erhalten? Wie können sie diese Menge bestimmen, wenn man das ursprüngliche Volumen gar nicht kennt oder wie dieses sich mit der Zeit ändert? Ich möchte mit einer Zahl zu meiner einleitenden Behauptung aufwarten. Es ist möglich, dass selbst eine Variation um 1% des atmosphärischen Wasserdampfes alle Auswirkungen von menschlich erzeugtem CO2 ausgleicht oder übertrifft.

Holmes und Watson haben also nicht nur ihr Zelt verloren, sondern sie sind jetzt auch den Niederschlägen ausgesetzt. Unglücklicherweise wissen das IPCC und dessen Modelle nicht, welches Ausmaß das annimmt. Holmes würde wissen warum. Es liegt daran, dass sie keine Daten haben und nur theoretisieren und spekulieren.

Link: https://wattsupwiththat.com/2018/05/05/the-biggest-deception-in-the-human-caused-global-warming-deception/

Übersetzt von Chris Frey EIKE




CO2-Zertifi­katekosten: Wirkungs­loser kann Klima­k(r)ampf nicht betrie­ben werden, doch alle Altpar­teien plädieren dafür

Die Rede im Bundestag

Für die folgende Argumentation bot es sich an, auf die Rede der AfD im Bundestag anlässlich der Tagesordnung: [15] Bundestag: Zusatztagesordnungspunkt 2: Aktuelle Stunde auf Verlangen der Fraktion BÜNDNIS 90/DIE GRÜNEN: Klimaschutz umsetzen – Haltung der Bundesregierung zu einer CO2-Abgabe, aufzusetzen.
Sie bietet einen Gegensatz zur geschlossenen Darstellung unserer Altparteien, welche sich einig sind, dass der angebliche, „menschengemachte Klimawandel“ in Deutschland als festgefügtes Dogma zu gelten hat und auf gar keinen Fall diskutiert oder gar in Frage gestellt werden darf [11]. Unsere neue Umweltministerin besetzt dabei nahtlos den Platz ihrer Vorgängerin mit vergleichbarer, fachlicher Inkompetenz und führt deren vorwiegend hysterisch begründete „Klimapolitik“ im gewohnten Stil weiter.
Nur diese eine Partei im Bundestag wagt es, diese politische „Einvernehmlichkeit“ des Hohen Hauses in Berlin zu ignorieren.

Ist CO2 nun ein Pflanzendünger?

Laut Tagesordnung geht es um die CO2-Abgabe. Herr Karsten Hilse (AfD) „erdreistete“ sich dazu – entgegen den bisherigen Gepflogenheiten – über Begründungen zu diskutieren, was erkennbaren Unmut der Altparteien zur Folge hatte. So fing er bei seiner Rede an, über den Nutzen von CO2 zu referieren:
Herr Karsten Hilse: [1] … Nebenbei: CO ist gleichzeitig der Pflanzendünger schlechthin …
Eine Fachperson der „Altparteien“ erwiderte darauf sofort mittels Zwischenruf: Dr. Kirsten Tackmann [DIE LINKE]: Nur für C4-Pflanzen!
Dieser Einwurf verwundert und leider hat sich Frau Dr. Tackmann dabei eindeutig vertan. CO2 ist sehr wohl – wie Herr Karsten Hilse richtig sagte – Dünger für C3-Pflanzen.
WIKIPEDIA: … Das in der natürlichen Umgebungsluft enthaltene CO2 liegt mit einem Anteil von derzeit ca. 400 Teile pro Million (Parts per Million = ppm) unterhalb des für C3-Pflanzen wie Weizen, Roggen oder Reis zum Wachstum optimalen Anteils von ca. 800 bis 1000 ppm. Wird den Pflanzen zusätzliches Kohlenstoffdioxid zur Verfügung gestellt, können die Pflanzen besser beziehungsweise schneller wachsen. Bei den C4-Pflanzen, zu denen unter anderem Mais, Zuckerrohr und Hirse gehören, liegt die Sättigungsgrenze knapp oberhalb von 400 ppm, sodass eine CO2-Düngung bei diesen Pflanzenarten nicht erforderlich ist.

So etwas muss man nachsehen. Herr Karsten Hilse konnte seine Rede vorbereiten, die Fachperson wollte spontan im Hohen Haus ihre größere Kompetenz kundtun. Da können Verwechslungen passieren.
Nicht ganz verständlich bleibt allerdings, warum die Fachperson dann noch nachlegen musste, um sich erneut zu blamieren.
Herr Karsten Hilse sagte weiter: [1] … Die gesamte Biomasse der Erde besteht aus dem „C“ des CO2. Das ist auch die einzig reale, echt nachgewiesene Wirkung dieses sonst so harmlosen Stoffes. In Gewächshäusern werden die CO2-Konzentrationen erhöht. Je nach Sorte und Jahreszeit werden da Konzentrationen zwischen 0,06 und 0,12 Prozent, also ein Vielfaches des natürlichen Wertes, als ideal angesehen.
Worauf die Fachperson wieder mittels Zwischenruf erwiderte: Dr . Kirsten Tackmann [DIE LINKE]: So ist das mit dem Halbwissen!)

Wieder verwundert dieser Einwurf. Wer der „Eigner“ des Halbwissens ist, sei kurz dargestellt.
Die folgende Grafik (Bild 1) zeigt die Düngewirkung des CO2 auf die zwei Pflanzen-Haupttypen der Erde.
Eine CO2-Konzentration von 0,06 … 0,12 % hat demnach eine fast lineare Auswirkung auf die C3-Pflanzen.

Bild 1 CO2-Düngewirkung bei C3 und C4-Pflanzen. Grafik vom Autor ergänzt. Quelle: WIKIPEDIA Kohlenstoffdioxid-Düngung

Bei HORTIPENDIUM, immerhin gefördert durch das Bundesministerium für Verbraucherschutz und Landwirtschaft, kann man nachlesen, wie in Gewächshäusern mit CO2 gedüngt werden soll: CO2-Düngung
… Der normale CO2-Gehalt der Luft von 320 bis 360 vpm CO2 stellt für viele Pflanzen keinen optimalen Wert für die Photosynthese dar. Als für die Pflanzen optimale Werte werden CO2-Konzentrationen zwischen 600 bis 1600 vpm CO2 angegeben … Zu hohe CO2-Konzentrationen hingegen rufen Pflanzenschäden hervor, so dass bei der Einspeisung von CO2 darauf zu achten ist, dass keine zu hohen Konzentrationen erreicht werden. Begrenzt wird die maximal einstellbare CO2-Konzentration auch durch die maximale Konzentration am Arbeitsplatz, die zum Schutz der Arbeitskräfte eingehalten werden muss. Diese liegt bei 5000 vpm CO2
Ergänzend die Information, welchen Anteil die vom CO2 profitierenden C3-Pflanzen auf dem Globus haben:

Bildungsserver Hamburg: Bei C3-Pflanzen, zu denen 90 % der Landpflanzen der Erde gehören …

Fazit

Der Autor kann keinerlei Fehler in den Ausführungen von Herrn Karsten Hilse zur CO2-Düngung finden. Er sieht deshalb das „Halbwissen“ eindeutig bei Frau Dr. Tackmann.

Wer dazu meint, die Düngewirkung des CO2 wäre längst gut erforscht, liegt falsch. Einmal ist sie noch gar nicht so lange bekannt und die Datenangaben dazu schwanken sehr stark.
Zum Beispiel messen manche Forscher auch für C4-Pflanzen (Mais, Hirse) eine zu weit höheren Konzentrationen (550 – 700 ppm) als in Bild 1 dargestellt, reichende Düngewirkung. Es würde den Nutzen des CO2 damit noch weiter verstärken.

Bild 2 [3] Zusammenstellung von Ergebnisbeispielen zu relativen Änderungen im Kornertrag wichtiger Kulturpflanzen unter erhöhten CO2-Konzentrationen (ca. 550-700 ppm) im Vergleich zum Ertrag bei heutigen CO2-Konzentrationen (370-385 ppm) ermittelt unter verschiedenen Versuchsbedingungen.

Der Versuch, mit CO2-Reduzierung die Erdtemperatur verringern zu wollen …

…ist wohl der größte Unsinn, welcher der Menschheit je als eine Lösung einfiel. Beziehungsweise es ist nicht wirkungsvoller, als gegen eine Flut an der Nordsee, die Kirchtürme in Rom höher zu bauen (was im übertragenen Sinn nicht selten durchgeführt wurde).

Als Beispiel eine Sichtung und Bewertung der Klimaschutzmaßnahmen von Nordrhein-Westfalen [4], dem Bundesland, in dem unsere Umweltministerin ihre „Umweltlehre“ gemacht hat.
NRW hat im Jahr 2012 ein Äquivalent von 300 Mio t CO2 emittiert ([5], Abbildung 3). Bis zum Jahr 2050 soll diese Emission weiter von (aktuell ca. 80 %) auf 20 % reduziert werden.

Bild 3 NRW Planung zur CO2-Reduzierung bis zum Jahr 2050. Quelle: [5] NRW Klimaschutzplan
Wie sich diese Maßnahme des Bundeslandes NRW auf das Klima auswirkt, zeigt die folgende Tabelle. Die Temperaturdifferenz ist der jährliche Reduktionswert ab dem Jahr 2050:

Bild 4 Wirkung und Kosten der NRW-CO2-Reduktionsmaßnahmen auf die Welttemperatur ab dem Jahr 2050. Tabelle vom Autor erstellt

Das Bundesland hat mit seiner Emissionsminderung keinerlei auch nur im Entferntesten messbaren, oder gar spürbaren Einfluss auf das Klima, wie es im NRW Klimaschutzplan jedoch behauptet wird. Dort wird wirklich suggeriert, diese homöopathische Temperaturverringerung hätte Einfluss auf „Stürme, Starkregen, oder extreme Hitzewellen“:
NRW Klimaschutzplan: [5] … Neben den Strategien und Maßnahmen zum Klimaschutz zeigt der Klimaschutzplan auf, wie sich Nordrhein-Westfalen vorausschauend auf Folgen des nicht mehr abwendbaren Klimawandels vorbereiten kann …
Expertinnen und Experten gehen davon aus, dass Extremwetterereignisse wie Stürme, Starkregen oder extreme Hitzewellen durch den Klimawandel in ihrer Häufigkeit und Intensität weiter zunehmen werden ... Entsprechend ist die im NRW-Klimaschutzplan vorgegebene CO2-Reduzierung zu betrachten ...

Sofern NRW die Reduzierung allerdings nicht wie erhofft „schafft“, müsste es alternativ in Zukunft 9 Milliarden EUR, nach Wunsch der GRÜNEN 18 Milliarden EUR an „CO2-Straf-Gebühren“ bezahlen.
Trotzdem ist sich die Politik einig, dass es diesen „Wert“ hat, wenn dadurch die Temperatur in NRW um eventuelle 0,0001 °C jährlich ab dem Jahr 2050 verringert werden kann.
Die GRÜNEN, nie darum verlegen, jeden Unsinn zu toppen, sind überzeugt, dass diese 0,0001 °C das Doppelte, also 18 Milliarden EUR Klimaschaden „wert“ wären. Denn sie fordern 80 EUR/t Abgabe [15].
Ganz reicht das noch nicht. Diese Reduzierung ist regelmäßig zu wiederholen, denn CO2 hat nur eine begrenzte Verweildauer in der Atmosphäre. Leider weiß man nicht, wie lange diese ist und so schwanken die Angaben zwischen sage und schreibe:
[6]: 1000 Jahren (IPCC), 120 Jahre (Umweltbundesamt), 100 Jahre (Mojib Latif), 4 Jahre (H. Harde, Uni Hamburg).
Wissen stellt man sich wohl anders vor, vor allem wenn für dieses Nichtwissen so viel Geld ausgegeben wird.

CO2 Verringerung gesamt-Deutschland

Deutschland hat mit seiner gesamten! CO2-Emission einen realistischen Temperatureinfluss von 0,000516 °C/pa

Was es Deutschland äquivalent kostet, diese Temperaturerhöhung zu „verhindern“, oder zu reduzieren, zeigen die folgenden Tabellen. Dabei wieder beachten: Diese Kosten entstehen jedes Jahr neu!

Bild 5 Wirkung und Zertifikatekosten für Deutschland. Tabelle vom Autor erstellt

Bild 6 Wirkung und Zertifikatekosten von Deutschlands Kohlekraftwerken. Tabelle vom Autor erstellt

Nehme man an, Deutschland müsste die Temperatur sofort um 1°C verringern, oder die CO1-Strafgebühr für eine solche Erhöhung bezahlen, kämen die folgenden Summen zusammen:

Bild 7 Kosten der CO2-Emission, um die „Welttemperatur“ um ein Grad Celsius zu verringern. Grafik vom Autor erstellt

Irgendjemand bekommt diese Zertifikategelder. Bei den Summen ist sofort erklärt, warum weltweit alle Politiker und Gremien (auch die Banken, welche es verwalten dürfen) geradezu gierig auf eine schnelle Umsetzung (vor allem in Deutschland als Nettozahler) sind.

Ein wirkliches Problem ist nicht eine Klimaerwärmung, sondern wäre der Wärmeinseleffekt

Falls eine höhere Temperatur in Deutschland ein Problem darstellen würde – was es definitiv in keinem messbaren Fall ist -, müsste zuerst der städtische Wärmeinseleffekt angegangen werden.
Während die leichte Temperaturerhöhung Deutschlands seit der vergangenen Kaltzeit in der Natur ausschließlich positive Effekte erzeugte [4] – und nicht einen nachweisbar negativen (wenn man von der Verringerung von Schnee und weniger Gletscher für die Touristen absieht), blieben nur die angeblich schlimmen durch Wärme für Personen übrig. Doch der wirkliche – dafür das Klima um Dimensionen übertreffende – Treiber ist der urbane Wärmeinseleffekt. Und der ist gewaltig.

Seit dem Jahr 1880 hat sich die Temperatur in NRW um 1,4 K erhöht [12] und zeigt angeblich schlimme Auswirkungen:
[12] … Das hat Folgen: … und insbesondere in den Städten und Ballungsräumen steigt im Sommer die Hitzebelastung für die Bevölkerung …
Während über +1,4 °C – startend von einer schlimmen Kaltzeit – während der letzten 140 Jahre (laut IPCC davon nur die Hälfte vom Menschen verursacht) der „Klimauntergang“ ausgerufen wird, scheint es problemlos zu sein, wenn Städte + 4 … + 10 °C Wärmeinseleffekt erreichen. Das gilt nicht nur für NRW, für Nürnberg werden zum Beispiel ebenfalls 7 … 8 Grad genannt, für München auch bis zu 10 Grad.

Bild 8 [12] Quantifizierte Wärmeinseleffekte von Großstädten in NRW. Bild vom Autor ergänzt
Auch der Unterschied in den Auswirkungen ist gewaltig:
-Während am Stadtrand von Köln 2012 nur fünf heiße Tage auftraten, waren es in der Innenstadt drei Mal so viel,
-die Anzahl Tropennächte war 2012 im Umland Null und in Köln Neun:
[12] … Darüber hinaus lässt sich nachweisen, dass nicht nur die höheren mittleren Temperaturen, sondern auch die Anzahl der warmen Temperaturkenntage von den dicht bebauten, versiegelten Innenstadtbereichen hin zu den unversiegelten Flächen im Umland abnehmen. Die Messungen in Köln haben für 2012 ergeben, dass an drei Innenstadtstationen bis zu 16 Heiße Tage erreicht wurden, wohingegen an einer Peripherie-Station lediglich fünf Heiße Tage auftraten (Abbildung 33). Die Tropennächte zeigen ein ähnliches Bild: Während 2012 im Umland keine Tropennacht zu verzeichnen war, wurden bis zu neun Tropennächte in der Innenstadt registriert (Abbildung 34).
[19] .. Durch Hitzestau sind die dicht besiedelten Metropolen heftiger betroffen als das Land. „In den Städten kühlt es nachts deutlich weniger ab“, sagt Guido Halbig, Leiter der beim Deutschen Wetterdienst (DWD) in Essen. „Am Ende einer Tropennacht ist es in den Innenstädten schon heute bis zu zehn Grad wärmer als im Umland.“ Städte werden Hitze-Inseln.

Das PIK hat für NRW bis zum Jahr 2100 eine Temperaturerhöhung um ca. 3,5 Grad simuliert (Bild 13). Damit hat Köln heute zeitweise bereits eine Temperatur, welche deutlich über der vom PIK simulierten des Jahres 2.200 liegt. Beginnen mit den Kleinstädten ab 30.000 Einwohnern haben alle schon das simulierte Temperaturniveau des Jahres 2.100 erreicht.

Durch CO2-Reduzierung ist es vollkommen unmöglich, auch nur einen Stadtbewohner*in vor der „Selbstverbrennung“ zu retten

Hätten die Verantwortlichen von NRW auch nur ein minimales Interesse daran, ihre Bürger wirklich vor Temperaturerhöhungen zu retten, müssten sie dort beginnen, wo wirkliche Gefahr herrschen könnte. Wenn auf den Klimagipfeln um weitere 0,5 Grad Erhöhung in 100 Jahren gefeilscht wird, sind die 4 – 10 Grad Wärmeinseleffekt in NRW Städten bereits als tödlich zu betrachten und müssten sofort verringert werden.
Eine ganz grobe Abschätzung ergibt, dass von den 17,84 Millionen Einwohnern NRW 5,6 Millionen in Städten leben ([16] WIKIPEDIA). Es sind also über 30 % der Einwohner direkt von „tödlichen“ Wärmeinseleffekten betroffen.

Nur ist eine wirksame Stadtklima-Verbesserung über CO2 Reduzierung niemals möglich – und wäre monetär auch der Untergang für Staat und Kommunen:
-Einmal rein mathematisch: Wenn eine Reduzierung auf 20 % (von ehemals Hundert) die Temperatur um 0,0001 °C/pa verringert, bringen die restlichen 20 % auch nichts mehr. Man kann nun natürlich negatives Budget andenken – wie es eifrige Forscher für viel, viel Geld auch demonstrieren [14] -, doch muss man dieses Geld auf das zur Verringerung bezahlte noch oben drauf packen.
-Und auch nicht monetär: Wenn NRW sein CO2 Minderungsbudget übererfüllen würde und nur noch 0 emittiert, hat es dafür 12 Milliarden EUR CO2-Preisäquivalent ausgegeben. Mit dem Erfolg einer Reduzierung um 0,00012 °C/pa.

Nun nähme man an, alle Staaten der Welt finden sich zusammen und versuchen, die Welttemperatur in einer gemeinsamen Aktion mittels CO2-Zertifikaten um 1 °C zu reduzieren. Dazu müssten sie die in Tabelle 7 gelisteten, 125.000 Milliarden EUR (250.000 Milliarden EUR) ausgeben.
Damit hätten diese die Temperatur in NRW um das besagte, eine Grad Celsius reduziert. Doch bereits eine Urbanisation mit 30.000 Einwohnern erwärmt sich um vier Grad. Selbst für diese Summe ist also nicht einmal eine Kleinstadt „gerettet“. Mann müsste sie dazu Vervierfachen. An große Städte darf man dabei gar nicht denken. Und das dürfte weltweit gelten.

Nun geht es nicht nur um die Stadtbewohner. wie äußert sich die „Klimarettung auf dem Land?
Die Temperaturdifferenz der Tagesmaximas eines Datums beträgt in Deutschland typisch 30 °C. Zum Beispiel betrug die Temperatur am 1. Mai um Nürnberg schon einmal maximal 26,9 °C und Minimal -2 °C. Eine Änderung von 0,0034 °C bis zum Jahr 2050 würde auch auf dem Land bestimmt niemand, und auch die Natur nicht, fühlen können.

Der einzige Effekt wäre die Wiederkehr der früheren, katastrophalen Ernteergebnisse

Falls es doch – was extrem unwahrscheinlich ist – gelänge, die Temperatur durch CO2-Zertifikatekosten wieder auf die „vorindustrielle Wunschtemperatur“ zu reduzieren, wäre der einzige Effekt: Die Ernteerträge würden auf das Niveau der desaströsen Missernten der letzten Kaltzeit sinken und die medial hochgehypten Biobauern müssten reihenweise aufgeben:
EIKE: [17] Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
Und trotzdem hätten die Stadtbewohner noch nicht im Ansatz die Temperaturverhältnisse wie heute im Umland.
Es stellt sich somit sehr wohl die Frage, ob mit einem Bruchteil von dem vielen Geld konkrete Maßnahmen zur Reduzierung von lokalen Überhitzungserscheinungen nicht weit mehr Wirkung und Effektivität bringen würden.

Es bleibt damit die Frage, wer mit seiner Aussage „richtiger“ liegen könnte:
Herr Karsten Hilse: [1] … Sie vernichtet Arbeitsplätze und hilft dem Klima kein bisschen. Vielen Dank für Ihre Aufmerksamkeit.
(Beifall bei der AfD – Harald Ebner [BÜNDNIS 90/DIE GRÜNEN]: Zum Fremdschämen! – Dr. Kirsten Tackmann [DIE LINKE]: Und im Übrigen ist die Erde eine Scheibe!)
Jeder Leser*in möge es selbst entscheiden und überlegen, was der Einwand von „Fachpersonen“ der GRÜNEN und LINKEN dazu beiträgt. Vielleicht: Es ist wirklich zum Fremdschämen (mit den Altparteine).

Man sollte „Klimabetroffene“ einmal fragen

Eine (illusorische) Vorstellung: In den Städten von NRW dürfen die Einwohner über Klimaschutzmaßnahmen abstimmen und würden dazu vorab informiert (und nicht indoktriniert).
Die Fragestellungen lauten:
Die fürsorgliche Landesregierung hat beschlossen, Klimaschutzmaßnahmen für die Stadtbevölkerung durchzuführen, nachdem erkannt wurde, wie stark sich die urbanisierten Flächen aufheizen. Dir Stadtbürger dürfen dazu aus zwei Vorschlägen auswählen:

Vorschlag A:
NRW gibt 18 Milliarden EUR (Wunschbudget der GRÜNEN), das sind ca. 3.200 EUR pro Stadtbürger*in jährlich für CO2-Zertifikate aus. Damit sollte es gelingen, die bei Sommerhitze zwischen 4 … 10 °C erhöhte Temperatur unserer Städte jedes Jahr um ca. 0,0001 °C zu verringern. Bis zum Planjahr 2050 summieren sich diese Ausgaben auf 105.600 EUR/Stadtbürger. Diese Ausgaben erwirken eine weltweit vorbildliche Reduzierung der Globaltemperatur um insgesamt vielleicht 0,0034 °C/pa ab dem Jahr 2050, nach den veralteten Sensitivitätswerten des IPCC sollen es 0,01 °C sein.
Dieser Vorschlag wird von der NRW-Landesregierung und von allen Altparteien in Berlin präferiert, denn er setzt den Klimavertrag um. Im GroKo Koalitionsvertrag ist es in Übereinstimmung mit allen Altparteien, deshalb bereits so festgelegt.

Vorschlag B:
NRW gibt 18 Milliarden EUR (Wunschbudget der GRÜNEN), das sind ca. 3.200 EUR pro Stadtbürger*in jährlich zur direkten Unterstützung von Urbanisations- und Baumaßnahmen, auch für den Einbau kleiner Klimaanlagen in sich stark aufheizenden Wohnungen und Altenheimen aus, um die Belastung durch den hohen Wärmeinseleffekt im Sommer erträglicher zu machen. Bis zum Planjahr 2050 summieren sich diese Ausgaben auf 105.600 EUR/Stadtbürger. Mit dieser Summe sollte es möglich sein, für jeden wirklich betroffenen Bürger auch in Zukunft während Hitzetagen erträgliche Umgebungsverhältnisse zu schaffen.
Jedoch: Dieser Vorschlag wird von der NRW Landesregierung und den Altparteien in Berlin nicht unterstützt, im Gegenteil, sehr kritisch betrachtet. Es ist zu erwarten, dass die EU (welche ihren geplanten, 20 %-Anteil an den Zertifikateeinnahmen zum weiteren Ausbau und Über-Versorgung ihrer Beamten benötigt) und die Bezugsländer der Klima-Reparationszahlungen (diese haben in den internationalen Gremien die Mehrheiten) dagegen klagen werden.
Begründung: Eine solche Lösung widerspricht eindeutig dem Klimavertrag. Umweltverbände und Greenpeace haben dagegen ebenfalls vorsorglich Klage angedroht. Begründung: Wenn dies seitens Regierungen erlaubt würde, bedrohe es ihr nationales und internationales Geschäftsmodell. Kleine Altparteien haben aus ähnlichen Grüden ebenfalls mitteilen lassen, sich diesen Verbänden dann anschließen.
Die Bundesregierung hat beschieden, sich jedem Urteilsspruch widerspruchslos zu unterwerfen. Außenpolitisch sei ihr eine vorbildhafte Verlässlichkeit im Einhalten von Verträgen und Transferzusagen wichtig. Nationale Belange – auch wenn man manche der Begründungen nicht von vornherein als vollkommen unsinnig bezeichnen möchte – lassen sich dabei leider nicht berücksichtigen. Sie geht davon aus, dass ihre Untertanen dies verstehen werden. Erforderlichenfalls wird sie mit Mentoren unterstützen.
Es wäre interessant, wie in diesem „Wahlkampf“ argumentier und welcher Vorschlag gewählt würde.

Doch, dieser Wahlkampf fand nicht mehr statt.
Die Klimaschutzmanager der Kommunen beschwerten sich in einer Petition, dass sie von Bürgern auf den Sinn ihrer Maßnahmen angesprochen würden. Es gab sogar welche, die mehr als lediglich alarmistische Pressemitteilungen des PIK zur Begründung erwarteten. Welche legten radikale EIKE-Artikel vor und verlangen einen Gegenbeleg. Dies behindert die bisher von der Öffentlichkeit immer positiv aufgenommene Arbeit [18]. Bei nicht wenigen führt es zu Ausfällen aufgrund psychischer Probleme.
Die Altparteien im Bundestag ließen über den psychologischen Dienst klären, dass es den Abgeordneten nicht zugemutet werden kann, über ihre Meinungsabgaben den Untertanen Rechenschaft abzulegen. Sie werden inzwischen mit Anfragen von Bürgern konfrontiert, welche ihre Aussagen im Bundestag nachlesen und wagen, dazu kritische Fragen zu stellen. Das hat es bisher nie gegeben und verhindert, dass in Bundestagsreden weiterhin reine Fabulierungen als Begründungen erzählt werden können. Mit diesem Prinzip ist man aber seit der Vorsitzenden, Frau Merkel , immer gut zurechtgekommen. Müsste man in Zukunft vor einer Rede über deren Inhalt nachdenken – gar Belege zitieren können -, erschwert es die Abgeordnetenarbeit weit über Gebühr.
Auch große Lenker der deutschen Industrie legten Beschwerde ein. Man habe sich inzwischen einvernehmlich arrangiert und wirklich alle Maßnahmen bedenkenlos unterstützt, sogar mit dem peinlichen Kotau eines CEO auf einem GRÜNEN Parteitag. Dafür habe die Kanzlerin der Industrie langfristige Kostenfreiheit und steigende Subventionen zugesichert. Es könne wohl nicht sein, dass diese Hörigkeit nun nutzlos gewesen sein soll.
Ausschlaggeben war zum Schluss jedoch, dass die Bundesregierung – nach bewährtem Muster am Parlament vorbei -, über Brüssel bereits die nationalen Möglichkeiten aushebelte und Fakten schuf. Denn der Europarat ist bereits an der Arbeit, ein EU-Klimagesetz auf den Weg zu bringen:
Klimaretter 01. Mai 2018 (Bericht der GRÜNEN): Zeit für ein europäisches Klimagesetz
… Zu den wichtigsten Forderungen des Parlaments gehören langfristige Strategien der EU und der Mitgliedsstaaten. So sollen bis spätestens 2050 die Netto-Emissionen von Treibhausgasen auf null reduziert und danach negative Netto-Emissionswerte erreicht werden … Ein Klimagesetz würde die EU-Staaten zu größeren Anstrengungen für den Klimaschutz und die Energiewende ermutigen und eine ehrgeizige Richtung für die gesamte Europäische Union vorgeben. Ein solches Gesetz könnte auch einige der Lücken schließen, die sich auftun zwischen den zugesagten Beiträgen der Staaten und dem, was aus wissenschaftlicher Sicht zur Erfüllung des Paris-Abkommens notwendig ist. Dazu brauchen wir außerdem rechtsverbindliche CO2-Kontingente sowie Emissionsziele für einzelne Zeitabschnitte und auch ein deutlich wirksameres Kontrollsystem …
Damit hatte sich die denkbare Wahlmöglichkeit der Bürger für den Vorschlag B erübrigt. Denn EU-Recht wird nach dem Koalitionsvertrag am Parlament vorbei immer 1:1 umgesetzt und bricht Bundes- und Landesrecht. Das Grundgesetz wurde – im Einvernehmen mit allen Altparteien – längst außer Kraft gesetzt, außer es bringt den Parlamentariern Vorteile beim Umsetzen von monetären Ansprüchen, wie automatische Diätenerhöhungen und zusätzliche Pensionsansprüche, oder für verdiente Parteimitglieder mehr Abgeordnetenmandate.

Die Abstimmung wurde bevor sie stattfand, abgesagt – Ironie Ende.

Was wird geschehen: Weiter wie bisher, aber mit zusätzlichem Tempo
Zu viele „Seelen“ und demnächst alle sich „klimageschunden“ erklärenden Staaten rund um die Welt leben bequem und gut von diesem Geldsegen und viel zu viele Reputationen sind damit verbunden. Auch wäre es dann viel schwerer, zum Beispiel im Bundestag oder auf internationalen Bühnen „Klimakompetenz“ und damit eine Lösung für praktisch alle Weltprobleme zu zeigen, wofür heute das Aussprechen des einfachen Wörtchens CO2!, ergänzt um: muss reduziert werden, vollkommen „ausreicht“.

Bild 9

Weiterhin fehlt der abschließende Beweis für den AGW-Klimawandel

Nachdem Herr Karsten Hilse auch die weiterhin fehlende Beweisführung zum AGW Klimawandel ansprach, ebenfalls ein wenig Information dazu.
Herr Karsten Hilse: [1] …Der anthropogene Klimawandel – das wissen Sie – wird nur in Computerklimamodellen nachgewiesen, die nicht einmal das Klima der Vergangenheit richtig berechnen können.
(Dr . Kirsten Tackmann [DIE LINKE]: Oh Mann!)
Fra Dr. Tackmann will sich wohl wirklich vor aller Öffentlichkeit abschließend als „Klimadilettant“ beweisen. Dieses „Wissen“ pfeifen inzwischen wirklich alle Spatzen von den Dächern:

kaltesonne, 22. Juni 2017: ... Fakt ist aber auch, dass die heutigen Klimamodelle die Warmphasen der letzten 10.000 Jahre nicht korrekt nachvollziehen können. Steht übrigens schwarz auf weiß im letzten IPCC-Bericht.
Wer es in vielen Grafiken sehen möchte, schaue sich den DWD Klimaatlas und darin die häufig vollkommen hilflose Zukunftsvermutungen zeichnenden Klimaprojektionen an.

Herr Karsten Hilse: [1] … Ansonsten gibt es nichts – keinen Beweis, kein Experiment, keine Beobachtung –, was diese Behauptung belegt … Man findet sie auch nicht in einem der bisher fünf IPCC-Berichte – nichts, nada, niente. Liebe Ministerin, deswegen: Hände weg von einer CO-Abgabe!
(Dr. Franziska Brantner [BÜNDNIS 90/DIE GRÜNEN] (Politikwissenschaften): Ein Wissenschaftsfeind sind Sie!)
Beim Nachlesen der Protokolle überrascht immer neu das im Bundestag herrschende Kasperletheater mittels Zwischenrufen. Zu diesem wieder eine Nachschau, wer ein „Wissenschaftsfeind“ sein könnte, oder wo (Halb-)Wissen vorliegt.
Das Umweltbundesamt –eine sehr klimaalarmistisch agierende Behörde -, weiß ebenfalls nichts von einem Beleg beim IPCC. Es formuliert, ganz gegen seine sonstigen Art, deshalb sehr vorsichtig:
Umweltbundesamt: [7] … Offenbar ist es gegenwärtig aufgrund verbleibender Unsicherheiten nicht möglich, den beobachteten Anstieg der mittleren globalen Temperatur über die vergangenen Jahrzehnte mit 100%iger Sicherheit auf die Zunahme der Treibhausgase in der Atmosphäre zurückzuführen. Allerdings hat sich die Erkenntnis, dass der Mensch einen Teil dieses Temperaturanstiegs verursacht hat, mit der Zeit immer mehr erhärtet. Denn im 3. Sachstandsbericht des IPCC von 2001 formulierten die Wissenschaftlerinnen und Wissenschaftler den damals aktuellen Kenntnisstand noch folgendermaßen: „Unter Berücksichtigung der verbleibenden Unsicherheiten ist der Großteil der beobachteten Erwärmung im Verlaufe der letzten 50 Jahre wahrscheinlich auf die steigenden Treibhausgaskonzentrationen zurückzuführen.”
„Wahrscheinlich“ bedeutet in einem IPCC-Bericht: [8] 66–100 %, und ist eine relativ schwache Aussage, da sie das Ergebnis eines Münzwurfes geringfügig überschreitet!

Beim IPCC selbst: [8] IPCC Klimaänderungen 2014, Synthesebericht, findet der Autor keinen physikalischen Beleg, oder ein dazu führendes Experiment. Es werden lediglich aufgrund von Korrelationen viele „Vermutungen“ für den AGW-Einfluss gelistet. Einen wichtigen Teil der als „Belege“ angeführten Korrelationen kann auch ein Laie nach aktuellem Sachstand als überholt erkennen: Es ist die Annahme, dass die die Temperatur die letzten Jahrtausende fast nicht geschwankt hätte. Dass die bisherigen Proxianalysen dahingehend – ob bewusst (wie beim Hockeystick), oder unbewusst – falsch lagen, setzt sich als Erkenntnis auch bei (vom IPCC nicht so abhängigen) Wissenschaftlern immer mehr durch [9] [4] [10].

Nicht einmal – beziehungsweise immer weniger – herrscht Klarheit über das Forcing

Ein wichtiges Thema ist dazu allerdings auch die Frage, wie hoch das CO2-Forcing anzusetzen ist. Im Kern ist es vollkommen unwichtig, ob es einen, oder keinen Beleg, für eine AGW-Klimaerhöhung gibt. Wichtig ist alleine, welche Temperaturerhöhung er bewirkt. Und ausgerechnet diese – wichtigste – Fragestellung ist immer noch, besser: immer mehr, höchst umstritten.

Das IPCC gibt immer noch 3 K (pro CO2-Verdopplung) als Forcingwert an. Inzwischen wird eher ein Wert von unter, bis maxima 1 … 1,5 K angenommen [13]. Die Auswirkungen sind gravierend: Bei einem Forcingwert um 1 Kelvin entfallen plötzlich alle der simulierten CO2-Bedrohungszenarien.

Bild 10 [13] Abnahme der Klimasensitivität über die Zeit in der Fachliteratur (aus dem paper von F. Gervais, Anthropogenic CO2 warming challenged by 60-year cycle, Earth-Science Reviews 155, 129-135, 2016). Die beiden Arten der Klimasensitivität TCR und ECS unterscheiden sich nur in der Betrachtung der spezifischen Zeitdauer der CO2-Änderungseinwirkung, was hier unwesentlich ist. Man erkennt, dass der Wert für beide Typen auf unter 1 °C absinkt (was nicht bedeutet, dass er zu Null werden muss).
Man muss man sich das vor Augen halten: Wenn der CO2-Forcingwert nur die aktuell als wahrscheinlich angesehenen 1 K beträgt, sind alle! CO2-Notmaßnahmen mit einem Schlag nicht mehr erforderlich. Alle damit verbundenen Zahlungen und Maßnahmen können sofort eingestellt werden.
Natürlich führt diese Diskussion zur Verunsicherung unserer Medien:
SPON 28.09.2017: CO2-Budget der Menschheit Leben am Limit
… Wem soll man nun glauben, wenn man Ziele von Paris noch erreichen will? Die einen empfehlen 600 Gigatonnen für 1,5 Grad, die anderen 800 für 1,5 Grad, der Wert könnte jedoch auch bei 150 oder 1050 liegen!

Wenn weder das Forcing „stimmt“, noch die Klimazyklen richtig bekannt sind, braucht sich niemand zu wundern, dass die Klimasimulationen so hoffnungslos daneben liegen.
Auch das ist denen – die es wissen wollen – bekannt.
kaltesonne 26. September 2017: Start des neuen CESM2-Klimamodells in letzter Minute abgeblasen: Realität und Simulation wichen zu stark voneinander ab,
Inzwischen finden sogar echte Klimaforscher dazu harte Worte. Und sie sagen auch warum:
Die Klimaarchive der Vergangenheit sind zu ungenau (wie weiter oben bereits erwähnt) und um Klimasimulationen überhaupt kalibrieren zu können, muss man erst einmal ausreichend genaue Daten gewinnen:
AWI: [10]…Die Leistung von Erstautorin Kira Rehfeld und ihren Kollegen besteht darin, dass sie erstmals Daten aus verschiedenen Klimaarchiven und von insgesamt 99 unterschiedlichen Orten zusammengebracht und verglichen haben
Als zukünftige Aufgabe formulieren die AWI-Forscher: „Wir wollen die Veränderungen der kurzfristigen Schwankungen in der Vergangenheit und deren Zusammenhang mit langfristigen Klimaänderungen detailliert untersuchen. Dazu brauchen wir zuverlässige Klimaarchive und ein detaillierteres Verständnis darüber, wie diese zu interpretieren sind.“

Es wäre nicht unvorstellbar, dass sich Bundestagsabgeordnete der Altparteien einmal für ihre „Einwürfe“ schämen, die ihre Enkel in Protokollen „für immer und ewig“ nachlesen können. Da das Niveau keinen Einfluss auf die üppigen Pensionsansprüche hat, wird es sie allerdings wohl wenig interessieren.

Wieder fragt kein Abgeordneter* der Altparteien nach dem Sinn

Was der Autor beim Lesen der Protokolle feststellen konnte: Die „Versammlung der Altparteien“ argumentiert oft wie ein Kardinalskollegium unter Vorsitz ihres „unfehlbaren“ Vordenkers. Es wird über Dies und Das gesprochen, jede Betrachtung zu theoretischen Hintergründen des „angedrohten Übels“ jedoch mit großer Sorgfalt vermieden. Schließlich will man sich ja keinesfalls Ärger einhandeln.
[11] EIKE 31. März 2018: Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist – zur Bundestagsdebatte Umwelt

Und so tragen die Redebeiträge die Begründungen vor, welche man bereits im Kindergarten darüber lernt und täglich in den Medien lesen kann“:
Dr. Nina Scheer (SPD, Juristin): … wie mit den massiven und immer stärker werdenden Klimafolgeschäden – Ernteausfälle, Hochwasserschäden; man könnte eine ganze Reihe an Schäden aufzählen, die auf uns zukommen werden und die teilweise, auch bei uns, schon eingesetzt haben
Und damit hat es sich auch schon. Um Billiarden-Beträge der Bürger in die weite Welt hinaus zu schmeissen, vielleicht doch etwas zu wenig?

Anmerkung: Die hanebüchene – aber mainstreamgerechte – „Argumentation“ von Frau Scheer wird hier nicht mehr „rezensiert“, das ist schon zu oft auf EIKE erfolgt, ganz aktuell für das „so schwer getroffene“ NRW [4].

Es ist nicht uninteressant, das gesamte Protokoll aller Redebeiträge zu überfliegen: [15] Bundestagsprotokoll vom 25.04.2018,(ab Seite 42) Zusatztagesordnungspunkt 2: Aktuelle Stunde auf Verlangen der Fraktion BÜNDNIS 90/DIE GRÜNEN: Klimaschutz umsetzen – Haltung der Bundesregierung zu einer CO2-Abgabe
Es zeigt, dass zumindest bei diesem Thema noch so etwas wie differierende Meinungen vorkommen. Nicht bei den GRÜNEN und LINKEN, auch nicht bei der FDP, welche es nicht (mehr) überwinden kann, nicht an den Regierungspfründen beteiligt zu sein und sich immer kleiner macht, um irgendwann doch noch in den „zukunftsträchtigen Hintern“ kriechen zu können:

Dr. Lukas Köhler (FDP): … Sehr geehrte Frau Präsidentin! Sehr geehrte Damen und Herren! Liebe Kolleginnen und Kollegen! Liebe Frau Ministerin, vielen lieben Dank, dass Sie uns nach diesem kleinen Ausflug in die rosarote Traumwelt der AfD wieder in die Realität zurückgeholt haben . … Liebe Kolleginnen und Kollegen, wenn wir die Emissionen senken wollen, ist die CO2-Bepreisung in allen Sektoren genau der richtige Weg ….
Doch bei der CDU/CSU gibt es vorsichtige Ansätze von Vernunft (welche natürlich auch in der eigenen Partei) sofort „kompensiert“ werden). Zum Schluss wird darüber wohl Frau Merkel – wenn sie die Zeit dafür für gekommen hält (eigenmächtig) entscheiden.

Quellen

[1] EIKE 27. April 2018: AfD MdB Karsten Hilse: Nein zur geplanten CO2 Abgabe

[2] EIKE 09.05.2016: Die Europäische Kommission hat festgestellt, dass CO2 ein Pflanzengift ist – allerdings erst ab 5.000 ppm Konzentration

[3] G RAHMANN & U SCHUMACHER (Hrsg.) Neues aus dem Ökologischen Landbau 2011

[4] EIKE 03.05.2018: Klima, wir handeln! Leider weiter ohne Sinn und Verstand. Oder: Klimaschutz (nicht nur) in NRW gibt Rätsel auf

[5] NRW Klimaschutzplan

[6] kaltesonne, 26. März 2017: Wird die CO2-Verweildauer in der Atmosphäre überschätzt?

[7] Umweltbundesamt: Klima-Skeptiker

[8] IPCC Klimaänderungen 2014, Synthesebericht

[9] Nicholas P. McKay at al.: An extended Arctic proxy temperature database for the past 2,000 years

[10] AWI 05.02.2018: Klimaschwankungen in Vergangenheit und Zukunft

[11] EIKE 31. März 2018: Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist – zur Bundestagsdebatte Umwelt

[12] Klimawandel und Klimafolgen in Nordrhein-Westfalen Ergebnisse aus den Monitoringprogrammen 2016, LANUV-Fachbericht 74

[13] EIKE 3. Oktober 2017: Harald Lesch, PIK und deutsche Politik: Was nun mit dem menschgemachten CO2?

[14] Klimaretter.Info Montag, 30. April 2018: CO₂-Preis sorgt für negative Emissionen

[15] Bundestagsprotokoll vom 25.04.2018

[16] WIKIPEDIA: Gemeinde (Deutschland)

[17] EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
EIKE 27.07.2016: Biobauern darben ohne Klimawandel (und extremen Subventionen) Bei der normalen Landwirtschaft hängt es von der Veranstaltung ab

[18] EIKE 26.03.2018: Wer bei der nächsten Wahl ans Klima denkt und an Demonstrationen teilnimmt, bekommt CO2-Kompensation gutgeschrieben

[19] NRZ 17.03.2017: Klima Städte müssen sich auf den Klimawandel vorbereiten




Warnung von Behörden: Erneuer­bare Energie treibt Kalifornien in eine neue Energie­krise

Behörden in Kalifornien haben jüngst davor gewarnt, dass eine zunehmende Zahl von Kaliforniern, welche Versorgungsunternehmen drängen, sich alternativen Energieerzeugungsmöglichkeiten umzusehen, den Staat in eine zweite Energiekrise treibt.

Kalifornien geriert sich selbst stolz als führend, wenn es um alternative Energieerzeugung und die Verteilung geht. Der Staat implementiert eine breite Palette „umweltfreundlicher“ Programme für Stromverbraucher. Diese Programme haben sich als sehr attraktiv für den Wunsch der breiten Masse erwiesen, den Investoren der Versorgungsunternehmen auf die Finger zu klopfen. Es wird erwartet, dass mit den Programmen dieses Jahr etwa 25 Prozent der Stromlast übernommen wird und bis Mitte der zwanziger Jahre 85 Prozent.

Allerdings ziehen derartig rasche Änderungen Konsequenzen nach sich.

Stromversorger, die nicht mehr wissen, wie viele Kunden sie in Zukunft noch haben werden, zögern immer stärker, langfristige Verträge mit Energieerzeugern abzuschließen. Sogar die Erdgas-Produzenten – welche während der letzten Jahre in den USA stark zugenommen haben – haben Mühe, im volatilen kalifornischen Markt noch Profite zu erzielen.

Der Präsident der Kommission öffentlicher Versorger Michael Picker warnt davor, dass der Staat jetzt am Rande einer Energiekrise steht. Verbraucher könnten bald mit in den Himmel schießenden Strompreisen konfrontiert sein, mit Stromausfällen und anderen Problemen – wenn der Staat nicht gegensteuert. Das Büro von Picker veröffentlichte vor einigen Tagen einen Report, in dem detailliert aufgelistet wird, wie die Regierung den Strommarkt reformieren und eine Energieverknappung vermeiden kann.

„Wir haben ein Mischmasch unterschiedlichster Anbieter“, stellte Picker in einem Interview mit Bloomberg klar. „Wenn wir nicht vorsichtig agieren, könnten wir zurück in die Art Energiekrise rutschen, mit welcher wir während der Jahre 2000 und 2001 konfrontiert waren“.

Picker bezog sich auf die beispiellose Energiekrise in Kalifornien vor fast zwei Jahrzehnten. Im Anschluss an Marktöffnungen, Preis-Obergrenzen und fortgesetzten Verzögerungen bei der Genehmigung neuer Kraftwerke war es zu weit verbreiteten Stromausfällen gekommen. Hunderttausende Wohnungen fielen zwischen 2000 und 2001 plötzlich in Dunkelheit. Der politische Fallout fegte den damaligen Gouverneur Gray Davis aus dem Amt, der aber später der zweite Gouverneur in der US-Historie war, der erfolgreich erneut gewählt wurde.

Link: https://www.thegwpf.com/renewable-energy-is-pushing-california-onto-new-energy-crisis/

Anmerkung: Im Original steht wie bei GWPF üblich der Terminus „Full Story“, der aber aus irgendwelchen Gründen nicht mit dem entsprechenden Link hinterlegt ist. Darum erscheint er hier nicht. – Anm. d. Übers.




Der Sonntagsfahrer: Die Rache der Ingenieure

„Dem Ingenieur, ist nichts zu schwör“ pflegte Daniel Düsentrieb das Wesen des Erfinders in kurzen Worten zusammenzufassen. Angrenzende Fachgebiete kommen oft nicht so gut weg, jedenfalls wird auf technischen Hochschulen gerne gelästert: „Dem Philosoph ist nichts zu doph“. Wobei der eigentliche Gegenspieler des Ingenieurs sicherlich nicht der Philosoph ist. Im Gegenteil: In einem guten Ingenieur steckt stets auch ein Philosoph, schließlich geht es auch dem Ingenieur darum, richtige Fragen zu stellen, oder – noch besser – alles in Frage zu stellen. Zur Veranschaulichung mag der folgende kleine Scherz aus dem technischen Gewerbe dienen. Der Optimist: „Das Glas ist halb voll“. Der Pessimist: „Das Glas ist halb leer“. Der Ingenieur: „Das Glas ist doppelt so groß, wie es sein müsste“.

Das kleine Beispiel veranschaulicht auch, warum Ingenieure und Techniker so selten in Talkshows anzutreffen sind. Da geht es immer nur um halb voll oder halb leer, um plus oder minus, um gut oder schlecht. Mehr als die ritualisierte Auseinandersetzung um das Grundsätzliche glaubt man dort dem Publikum nicht zumuten zu können. Ingenieure sind für solche Hahnenkämpfe denkbar ungeeignet, da sie ja stets nach einer Lösung suchen. Deshalb sind sie der natürliche Feind des Ideologen, der ja ganz im Gegenteil ein möglichst großes Problem braucht. Lösungen sind für den Ideologen im übrigen nur als Verwirklichung gesellschaftlicher Visionen denkbar.

Das ist beispielsweise der Grund dafür, dass es in Deutschland noch immer kein atomares Endlager gibt. Technisch wäre das keine besonders anspruchsvolle Aufgabe. Politisch ist eine Lösung aber überhaupt nicht erwünscht, da man den Bürger weiterhin mit dem atomaren Beelzebub einschüchtern will. Die Ingenieurs-Wissenschaften, ja überhaupt die Naturwissenschaften, sind in hohem Maße politisch unkorrekt. Deshalb fallen die Ideologen auch so wütend über ihre Vertreter her, wenn sich dann doch mal ein Physiker oder Chemiker in eine Talkshow verirrt. Alleine das kühle Abwägen verschiedener Risiken gegeneinander gilt bei den Maischbergers und Plasbergs als zynisch und amoralisch. Aktuelles Beispiel dafür ist die vollkommen aus dem Lot geratene Diesel-Debatte.

Wer rettete die Wale? Greenpeace? Nein, Rockefeller!

Merke: Technische Lösungen für gesellschaftliche Aufgabenstellungen kommen meist früher, als es die Ideologen gebrauchen können. Wer rettete die Wale? Greenpeace? Nein, das war Rockefeller, der mit der Technik der Erdölförderung die Nutzung der fast ausgerotteten Meeressäuger als Rohstoffquelle überflüssig machte. Wer rettete den Wald in Mitteleuropa? Der BUND? Nein, das war die Erfindung der Dampfmaschine, der die Förderung von Kohle aus großen Tiefen möglich machte. Die Waldzerstörung und die Übernutzung der Landschaft hatten in Mitteleuropa vor 200 Jahren jedes vernünftige Maß überschritten. Eine völlige Verkarstung Englands, das vor 200 Jahren schon nahezu entwaldet war, konnte so gerade noch abgewendet werden. Auch die Waldfläche Deutschlands verdoppelte sich im 19. Jahrhundert.

Ein den meisten bekanntes Beispiel ist die Warnung des Club of Rome von 1973 vor dem Ende des Erdöls, das man auf das Jahr 2000 terminierte. Die Ideologen hätten gerne sofort mit der Ausgabe von Rationierungs-Gutscheinen begonnen. Aber die Ingenieure versauten Ihnen das Geschäft, weil sie immer bessere Fördermethoden entwickelten und immer mehr Ölvorräte entdeckten. Und so wird das auch weitergehen, vorausgesetzt, man lässt die Ingenieure machen.

Kein Wunder, dass man mit allen Mitteln daran arbeitet, sie abzuschaffen. Ohne Not haben Politiker das bildungsmäßiges Alleinstellungsmerkmal, das weltweit hochangesehene deutsche Ingenieurs-Diplom der Unis und Fachhochschulen, zu Lasten eines Bachelor und Master Studiengangs aufgegeben. Viele Länder haben uns in der Vergangenheit um unser Ausbildungsprogramm beneidet. Es wurde für ein oberflächliches und universell austauschbares Studienprogramm geopfert.

Damit besteht zunächst auf dem Papier kein Unterschied zwischen einem Studienabgänger von Taka-Tuka-Land und einem einer technischen Hochschule in Deutschland. „Politisch korrekt, doch wo sind unsere Vorteile, wo ist unser Excellence Cluster, welches Alleinstellungsmerkmal soll unsere Ausbildung haben?“, fragte Wilfried Krokowski in diesem Achgut-Beitrag. Aber lassen wir das mal beiseite, es sind ganz offensichtlich noch ein paar muntere Ingenieure übrig, sie müssen ja auch nicht unbedingt aus Deutschland sein.

Echtes Unheil kündigt sich beispielsweise für die sogenannte „Deutsche Umwelthilfe“ und ihre Groupies in Regierung und Behörden an, die dem Auto und insbesondere dem Diesel den Auspuff endgültig abdrehen wollen. So trafen sich vergangene Woche mehr als tausend Motor-Entwickler zum „Wiener Motorensymposium“, der wichtigsten Fachveranstaltung zum Verbrennungsmotor. Und wie es aussieht, werden die Herren Ingenieure den Herren Ideologen schon wieder die Tour vermasseln.

Johannes Winterhagen schreibt dazu in der FAZ: „Der Ingenieur ist ein kritischer Geist. Das Wort ‚Wunder‘ löst in ihm bestenfalls den Willen aus, den Dingen genauer auf den Grund zu gehen. Denn er hat gelernt: Man muss nur lange genug schrauben und nachdenken, dann entpuppt sich jedes vermeintliche technische Mirakel als Apparatur, die allein den Gesetzen der Physik gehorcht“. Um den Stand der Dinge zusammenzufassen: Innerhalb der nächsten 5 Jahre wird man die Stickoxid-Emission der gesamten Fahrzeugflotte auf 20 Milligramm je Kilometer senken können (Beispiel Daimler), und zwar in den EU-Straßentests und nicht auf irgendwelchen wirklichkeitsfremden Prüfstand-Zyklen. Damit unterschreitet man die gesetzlichen Vorschriften um Größenordnungen. Nach derzeitigem Stand liegt der Grenzwert zu diesem Zeitpunkt bei 80 Milligramm je Kilometer.

Warum nicht gleich so?

Das Stickoxid-Problem des Diesels scheint also in relativ kurzer Zeit technisch lösbar – ob die Kunden das noch einmal glauben, ist eine ganz andere Frage. Man fragt sich natürlich auch: Warum nicht gleich so? Man hätte der Umwelt eine Menge Stickoxide und einer Reihe Mitarbeiter gesiebte Luft ersparen können. Ich vermute mal, hier kommt der zweite natürliche Feind des Ingenieurs ins Spiel: der Betriebswirt. Northcote Parkinson, der Urheber der berühmten Parkinsonschen Gesetze, behauptete einmal, Betriebswirte hätten „ungefähr so­viel Moral wie ein Beagle am Fressnapf“. Er meinte damit natürlich nicht das Individuum, sondern das mitunter suboptimale Wirken der Spezies als solche. Es ist ja durchaus gang und gäbe, dass hierzulande entwickelte neue Technologien erst einmal kaputtgerechnet werden, woraufhin sie dann im Ausland Karriere machen. Ideologen und Betriebswirte gehen im übrigen in Deutschland  durchaus arbeitsteilig vor: Ideologen vertreiben die Atomkraft, das Auto, die Chemie und die grüne Gentechnik, die Betriebswirte übernehmen den Rest, denn sie killen die gute Laune, die man zum Erfinden braucht.

Und jetzt wird es ganz bitter für die deutsche Weltuntergangs-Fraktion: Auch die Atomkraft feiert eine fröhliche Renaissance außerhalb des deutschen Windrad-Biotops. Ausgerechnet die Russen, die auf diesem Gebiet ja deutlich schlechter beleumundet sind als etwa deutsche Kernphysiker, bauen jetzt kleine AKW’s und schippern sie auf Flößen durch die Welt, schließlich haben sie mit atomgetriebenen U-Booten und Eisbrechern reichlich Erfahrung. Der Prototyp einer neuen Flotte von schwimmenden AKW’s machte sich dieser Tage via Ostsee zum Polarkreis in Ostsibirien auf, als „nördlichste Nuklear-Installation der Welt“ eine Kleinstadt mit Strom zu versorgen. Rosatom will so „neue Kundenkreise erschließen“, erklärte die Welt-Atompolizei von Greenpeace und zeigte sich entsetzt über die mangelnde Solidarität von China, Algerien, Indonesien, Malaysia und Argentinien. Die haben nämlich Interesse an den schwimmenden Meilern gezeigt. Und, liebe Freunde von Greenpeace, ich wage jetzt mal eine visionäre Prognose: Wenn es mit unserer erfolgreichen Energiewende so weiter geht, dann wird so ein Floß womöglich bald den Rhein hinauf schippern und im Stuttgarter Neckarhafen vor Anker gehen, als Notstromaggregat für Daimler.

Ja, dem Russ‘ ist alles zuzutrauen, sogar eine relativ intelligente Argumentation. Rosatom reagierte auf die Greenpeace-Proteste mit folgendem Hinweis, der ebenso gemein wie niederträchtig formuliert ist: „Wer von angeblich 100 Prozent erneuerbaren Energien träumt, realisiert nicht, dass in einer langen Polarnacht bei minus 60 Grad Celsius weder Wind- noch Solarkraft zur Verfügung stehen“, heißt es, „es ist dann entweder Kohle- oder Atomstrom.“ Kohleverstromung habe „erhebliche negative Auswirkungen auf die arktische Umwelt durch giftige Emissionen, die für den Klimawandel, vorzeitige Todesfälle und das Artensterben verantwortlich sind“. Demgegenüber vermeide Atomkraft „zehntausende Tonnen Kohlendioxid“ und versorge die Menschen „mit sicherer, sauberer und verlässlicher Energie“.

Ground-Control an Wolfsburg, Stuttgart, München

Während die Russen mit ihren AKW’s durch die Weltmeere pflügen, entwickeln die Amis aus ähnlichen Gründen jetzt Baby-Reaktoren für den Weltraum. Denn auch dort kann die Nacht schon mal was länger dauern. Der im Rahmen des Projekts „Kilopower“ entwickelte Reaktor ist demnach in der Lage, kontinuierlich für mindestens 10 Jahre bis zu 10 Kilowatt elektrische Leistung zu liefern. Grundlage ist ein Reaktorkern aus Uran 235 von der Größe einer Küchenpapierrolle. Das wird früher oder später auch die Generation Silicon-Valley auf den Plan rufen. Der Reaktor kann Raumschiffe und Raumsonden unabhängig von der Sonne mit Energie versorgen. Und was noch? Ja was denn wohl? Ich trau mich’s ja kaum zu sagen: Könnte man mit einem solchen Ding, ähm, nicht auch ein Auto antreiben? „Da Autos die meiste Zeit ohnehin nur herumstehen, würden die 10 Kilowatt Dauerleistung in Verbindung mit einem Puffer-Akku locker reichen – man müsste nie tanken und könnte das Auto mit einer ‚Atom-Küchenrolle‘ 10 Jahre lang betreiben“, schreibt ein Leser zu dem oben verlinkten Bericht.

Leute, da bin ich dabei! Ground-Control an Wolfsburg, Stuttgart, München: Übernehmen Sie, bevor es Elon Musk tut. Das Atomauto wäre jedenfalls die ultimative Rache des deutschen Ingenieurs an seinen Peinigern und die späte Erfüllung eines Traums aus den 60er-Jahren des vorigen Jahrhunderts. Ich spendiere dann ein fliegendes Taxi für Dorothee Bär, powered by AKW. Auf Achgut.com wurde die Sache übrigens im vergangenen Sommer in einem „Sonntagsfahrer“ mit dem Titel „Rache an VW & Co.“ vorweg genommen. Da hieß es über den äußerst eigenwilligen aber längst verschiedenen Renault Vel Satis:

Gestartet wird er mit einem großen roten Knopf. Als Antrieb hatte ich deshalb eigentlich ein hübsches kleines Atomkraftwerk erwartet. Statt zur Inspektion führe ich dann einmal im Jahr zur Wiederaufbereitungsanlage nach La Hague, die Brennstäbe erneuern. Aber das hat sich Renault nun doch nicht getraut. Kann aber noch kommen. Für Elektroautos, die in Frankreich eine Steckdose aufsuchen, trifft der Slogan „Powered by Uranium“ ja heute schon zu.

 

Nachwort der EIKE-Redaktion

Die Vorgänge um Greenpeace sollten eigentlich in jedem demokratischen Land die Staatsanwaltschaft oder die Polizei auf den Plan rufen. Man kann den Russen nur für Ihre Konsequenz diesem fragwürdigen Verein gegenüber gratulieren. In Deutschland hat Greenpeace freilich Bestandsschutz und wird zumindest in unseren Lückenmedien gefühlt fast schon als Regierungsorganisation gehandelt. Ein Erlebnis des Verfassers mit dieser Organisation war erhellend, zumindest für ihn. Vor mehreren Jahren saß er zufällig anlässlich einer Podiumsveranstaltung mit einer Greenpeace-Funktionärin gemeinsam am Mittagstisch. Seine etwas naive Bemerkung, dass ihm der Schutz der Waale seitens Greepeace stets Sympathie und Respekt eingeflößt habe, erzeugte nur ein mildes, mitleidiges Lächeln bei der Dame. Ihre Entgegnung: Damit hätte Greepeace kaum noch etwas zu tun, man kämpfe nun gegen den Klimawandel und Kernkraftwerke. Wie heißt es so schön, um diese Bemerkung zutreffend einordnen zu können? Man folge dem Gelde.

Prof. Dr. Horst-Joachim Lüdecke, EIKE-Pressesprecher




Meteorologe wurde offenbar von US-NWS-Direktor Uccellini ange­griffen

Der Direktor hatte offenbar als Warnung seine Hand auf die Brust des Meteorologen gelegt und diesen an die Wand geschubst. Der Whistleblower, welcher mit CFACT unter der Bedingung sprach, anonym zu bleiben, beschrieb eine Kultur der Angst und Ausgrenzung beim NWS und auch bei der NOAA gegen alle, die vom Narrativ der „globalen Erwärmung“ abweichen.

Der Meteorologe hat Dutzende von Artikeln begutachtet und selbst viele begutachtete Artikel geschrieben. Er hat über 40 Jahre Erfahrung im Bereich Meteorologie.

„Ich hielt vor NWS-Mitgliedern einen Vortrag über den Fluss des Jet Streams in der oberen Atmosphäre. Dieser zeigte Wellen mit großer Amplitude auf beiden Hemisphären. Ich erklärte, dass diese große Amplitude nur auftreten kann, wenn sich die Atmosphäre tatsächlich abkühlt“.

Direktor Uccellini ließ CFACT durch seine Sprecherin Susan Buchanan mitteilen, dass „dieser vermeintliche Vorfall niemals stattgefunden hat“ und dass er „niemals irgendjemanden während seiner 40 Jahre langen Laufbahn physisch angegriffen habe. In diesem speziellen Fall muss es sowohl zu Abkühlung als auch zu Erwärmung kommen, damit sich der Jet intensiviert, nicht einer gegen den anderen. Aus wissenschaftlicher Perspektive macht also eine vermeintliche Unstimmigkeit keinen Sinn“.

Allerdings konnte der altgediente Meteorologe zur Stützung seines Vorwurfs mit Details aufwarten. „Genau als ich in einer Pause auf der Toilette war, packte Direktor Uccellini seine Hand auf meine Brust und schubste mich gegen die Wand. Dabei sagte er ,Erwähnen Sie nie wieder das Wort Abkühlung!‘ Er meinte es nicht als Witz. Er verletzte absolut meine Person, und es war ihm todernst. Dies ereignete sich im Jahre 2014“.

Sprecherin Buchanan stellte dazu fest: „Uccellini ermutigt jede offene Diskussion zu allen wissenschaftlichen Themen und Perspektiven. Er hat sich immer für eine Kultur der robusten wissenschaftlichen Diskussion ausgesprochen“.

Jedoch sieht der betroffene Meteorologe dies ziemlich anders. Er beschreibt eine Kultur der Furcht innerhalb der Agentur, in welcher Experten mittels Einschüchterung ruhig gestellt werden. Der Meteorologe machte klar, dass sein Fall kein Einzelfall war.

„Ein Mitarbeiter, der Skeptiker ist, und ich selbst müssen sehr vorsichtig sein hinsichtlich dessen, über was wir an unseren Schreibtischen oder im Pausenraum reden“, erklärte der NWS-Mitarbeiter. „Wir dürfen einfach nicht sagen, dass wir uns das ganze Narrativ ,das Klima erwärmt sich‘ nicht zu eigen machen“.

Der Meteorologe beschrieb außerdem, dass Klimadaten beim NWS und bei der NOAA für politische Zwecke geändert werden: „Es ist eine unglaublich gut geölte Propaganda-Maschine. Ich lese die ausgegebenen Berichte – sie enthalten entweder keine Wissenschaft, oder sie sind vollständig falsch.

Nehmen wir als Beispiel die Arbeit zu den Wassertemperaturen der Meeresoberfläche. Diese wurden falsifiziert. Vor einigen Jahren erschien ein Artikel des Inhalts, dass NOAA und NWS die Temperaturmessungen von über die ganze Welt verteilten Bojen re-kalibrieren müssen, um sie an die Werte der Werte der Wassertemperatur anzupassen, die im in Schiffsmotoren einströmenden Kühlwasser gemessen werden.

Jeder weiß, dass Bojenmessungen der Wassertemperatur viel genauer sind als das Kühlwasser von Schiffen, sind letztere doch immer ein paar Gran wärmer einfach weil sie neben Schiffsmotoren ermittelt werden! Ich finde diesen Artikel nicht mehr, anscheinend hat man ihn entfernt“.

Dann lieferte der Whistleblower weitere Details zu inhärenten Betrügereien bei der Computer-Modellierung des Klimas:

„Computer-Modellierung oder Klima-Modellierung ist abstruses Zeug, einfach weil wir schon wissen, dass grundlegende Wettervorhersage-Modelle nicht wirklich über zwei Wochen hinaus vorhersagen können, wie sich das Wetter entwickeln wird. Keines der von ihnen betriebenen Klimamodelle wurde jemals getestet, ob sie gemessene Temperatur- und Niederschlagswerte seit den siebziger Jahren bis heute richtig simulieren können“.

Dem Meteorologen zufolge verfügen NOAA und NWS tatsächlich über CO2-Daten der letzten paar Jahrzehnte, mit welchen man evaluieren könnte, welchen Einfluss CO2 auf Temperaturvorhersagen in Klimamodellen hat. Man hat dies jedoch abgelehnt.

Nach den Gründen für die Ablehnung gefragt, gingen dem Meteorologen die Worte aus. „Offen gesagt, das weiß ich nicht! Vielleicht, weil nach einem solchen Test jeder sehen könnte, dass der Kaiser keine Kleider anhat“.

Mit anderen Worten, aus den Erklärungen des Meteorologen geht hervor, dass die Daten einen weitaus geringeren CO2-Einfluss auf die Temperatur haben als in Computer-Simulationen projiziert.

Falls sie nicht einmal in der Lage sind, grundlegende Phänomene in Atmosphäre und Ozean zu simulieren wie etwa El Nino oder La Nina, welche erhebliche Auswirkungen auf das Klima haben – wie kann man dann das Klima vorhersagen? Die Modelle weichen dann immer stärker von der Realität ab und gleiten nach zwei Wochen in etwas ab, das ich mal ,Klimamodell-Nirwana‘ nennen möchte, weil dann nichts mehr gezeigt wird, was auch nur noch annähernd der Realität entspricht“.

„Mein Hauptfachgebiet ist die Wettervorhersage, aber wir sagen für die ganze Welt vorher; wir haben alle Wetter-, Satelliten-, Bojen-, Schiffs- und Modelldaten, die ich mir anschaue, und wir sagen auch die Zirkulation in der Atmosphäre vorher. Man erkennt Trends mit den Jahren – oder das Fehlen derselben“.

Die Quelle von CFACT endete mit einer die Augen öffnenden Beschreibung des Zustandes der Klimadebatte in wissenschaftlichen Kreisen an Colleges und Universitäten.

„Als ich noch Student war, kam eines Tages Ende der siebziger Jahre ein Professor zu mir und sagte: ,Falls Sie sich einen Namen machen wollen in diesem Bereich und berühmt werden wollen, dann ist CO2 genau der Ort, wo man hingehen muss‘. Man könne dort sehr viel Geld verdienen sowie Autorität und Kontrolle über das Leben der Mitmenschen bekommen.

Das kam mir sehr seltsam vor, weil ich zwar wusste, dass der CO2-Gehalt zunimmt, aber auch wusste, dass dieser Vorgang kaum irgendwelche Auswirkungen auf die Temperatur haben würde. Wasserdampf ist das bedeutendste Treibhausgas.

Aber falls ich das erwähnen würde, oder auch, dass solare Minima und andere Klima-Phänomene tatsächlich Wissenschaft sind, würden meine jüngeren Kollegen keine Ahnung haben, über was ich überhaupt rede, lernen sie doch nichts darüber in der Schule. Auch an Colleges und Universitäten wird es kaum gelehrt“.

Fühlen regierungsamtliche Forscher, die es während der Obama-Regierung nicht wagten, offen über globale Erwärmung zu sprechen, ein neues Klima der Offenheit? Das wissenschaftliche Verfahren verlangt transparente, furchtlose und robuste Diskussionen und Fragestellungen. Forscher müssen frei über ihre wissenschaftlichen Zweifel und Beobachtungen reden dürfen, ohne Angst vor Repressionen.

NWS/NOAA policy on scientific integrity.

Link: http://www.cfact.org/2018/05/02/meteorologist-allegedly-assaulted-by-nws-director-uccellini/

 

Anmerkung des Übersetzers: Nach dem, was man hier so hört – ist es vielleicht bei unserem DWD genauso?




Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an

Das Gleichheitszeichen im S-B Gesetz stellt nun aber die physikalische Bedingung „gleichzeitig in einem thermischen Gleichgewicht“ dar und keineswegs eine mathematische Rechenanweisung, Zitat aus dem Handbook of Chemistry and Physics [1], 55thEdition 1974-1975, CRC Press 1974, Seite F-110:

Stefan-Boltzmann law of radiation – The energy radiated in unit time by a black body is given by, E=K(T4-T04), where T is the absolute temperature of the body, T0the absolute temperature of the surroundings, and K is a constant.

Das Stefan-Boltzmann-Gesetz bezieht sich also auf die Betrachtung eines einzelnen Schwarzen Körpers mit einer definierten Temperatur, aus der sich unmittelbar zum Betrachtungszeitpunkt dessen aktuelle Strahlungsleistung gegenüber der Umgebung ableitet. Das Stefan-Boltzmann-Gesetz ist also keine mathematische Rechenanweisung zur Umrechnung von räumlich und zeitlich beliebig ermittelter durchschnittlicher Temperaturwerte in durchschnittliche Strahlungswerte oder umgekehrt. Vielmehr verbindet es ausschließlich gleichzeitige Individualwerte von Strahlung und Temperatur eines ganz konkreten einheitlichen Schwarzen Körpers. Das Stefan-Boltzmann-Gesetz bildet also eine unmittelbar zeitgleiche physikalische Beziehung ab und darf mithin keinesfalls zur mathematischen Umrechnung von irgendwelchen zeitlich und/oder räumlich zusammengefassten Durchschnittswerten benutzt werden – wie das leider trotzdem immer wieder geschieht.

Wenn wir auf unserer Erde über Temperaturentwicklungen reden, dann beziehen wir uns aber gemeinhin genau auf solche Durchschnittswerte. Für die Zeit vor den ersten Thermometermessungen stehen uns nämlich nur sogenannte Temperaturproxys zur Verfügung, um die Paläotemperaturen unserer Erde für frühere Zeiträume abzuschätzen. Unter dem Begriff Temperaturproxy werden natürliche Abfolgen zusammengefasst, die über ihren jahreszyklischen Aufbau Informationen über diejenige Temperatur enthalten, bei der sie entstanden sind. Das bekannteste Beispiel sind Baumringe, es können aber auch Tropfsteine, Korallen, Sedimentabfolgen oder Eisbohrkerne sein.  All diesen Temperaturproxys ist gemeinsam, dass sich daraus meist nur durchschnittliche Jahreswerte ableiten lassen, die üblicherweise auch noch eine jahreszeitlich oder regional begrenzte Aussagekraft besitzen. Und es gibt Klimaphänomene, die sich dort ebenfalls abbilden, mit der Temperatur aber gar nichts zu tun haben und daher zu fehlerhaften Aussagen führen können, beispielsweise wirkt Trockenheit auf Baumringe ähnlich wie niedrige Temperatur.

Dem Paläoklima unserer Erde können wir uns also bestenfalls über Durchschnittswerte der Temperatur nähern, weil es für die geologische Vergangenheit eben nichts anderes gibt. Daher erhält auch die ominöse „gemessene“ globale Durchschnittstemperatur ein gewisses Gewicht. Diese Durchschnittstemperatur wird zwar an vielen Stellen erwähnt, aber wenn man dann versucht in die Tiefe zu gehen, werden üblicherweise irgendwelche Scheinbezüge hergestellt. Selbst wenn dort konkret zugrunde liegende Datensätze genannt werden, fehlt der eindeutige Hinweis auf das statistische „Kochrezept“, das auf diesen Datensatz angewendet worden sein soll, um zu dem genannten Ergebnis zu kommen. Die „gemessene“ globale Durchschnittstemperatur erweist sich damit als höchst spekulativ und wissenschaftlich nicht nachvollziehbar. Der Deutsche Wetterdienstbeschreibt die globale Durchschnittstemperatur folgendermaßen, Zitat:

Unter der globalen Durchschnittstemperatur versteht man die über die gesamte Erdoberfläche (Land/Wasser) gemittelte Temperatur in einem bestimmten Zeitraum. Da klimatologische Messungen über längere Zeiträume nur punktuell vorliegen, lassen sich Zeitreihen der globalen Mitteltemperatur nur annähernd bestimmen…

Die Angabe einer globalen Durchschnittstemperatur ist allerdings mit noch größeren Unsicherheiten behaftet als die Angabe von Abweichungen, da eigentlich kleinräumige Besonderheiten berücksichtigt werden müssten, während die Abweichungen räumlich einheitlicher sind. Daher werden bei den Zeitreihen meist nur die Abweichungen und nicht deren Absolutwerte angegeben.“

Diese Beschreibung geht nun also noch einen Schritt weiter, indem sie den Absolutbetrag der „gemessenen“ globalen Durchschnittstemperatur entwertet und irgendwelchen rechnerischen Differenzen eine geringere Unsicherheit zumisst. Das allerdings ist ganz große Zauberei, denn jede berechnete Differenz zu einem ungenauen Durchschnittswert ist natürlich vollautomatisch mit dessen Ungenauigkeit behaftet. Selbst bei der Beschränkung auf regionale Durchschnittswerte würde  bei kleinen Differenzen die relative Unsicherheit der Aussage ansteigen, beispielsweise ergibt sich allein bei einer Ungenauigkeit eines absoluten Messwertes von +/-0,5°C bereits eine Unsicherheit von +/-50% für einen auf dessen Basis ermittelten Differenzwert von 1,0°C.

Aber wie dem auch sei, es könnte tatsächlich eine gemessene globale Durchschnittstemperatur geben, wenn es ein ausreichendes globales Netz von ortsfesten primären Meßstationen geben würde, wenn von allen diesen Stationen eine ausreichend lange Zeitreihe vorliegen würde, wenn es ein wissenschaftlich abgestimmtes „Kochrezept“ für die statistische Berechnung gäbe, und wenn… wenn… wenn… Die Problematik solcher Temperaturmessreihen wird hierausführlich untersucht.

Und jetzt nehmen wir einfach einmal an, es gäbe eine solche gemessene globale Durchschnittstemperatur wirklich. Und daher lassen wir hier einfach einmal den vorgeblichen Wert von 14,8 °C für die gemessene globale Durchschnittstemperatur (NST) stehen, denn dieser Zahlenwert selbst hat auf die nachfolgende Betrachtung keinerlei Einfluss.

Schauen wir uns jetzt einmal an, was wir tatsächlich über den Klimamotor unserer Erde wissen:

  • Die Einstrahlung der Sonne erfolgt mit durchschnittlich 940 W/m² temperaturwirksamer Strahlung auf einer Kreisfläche mit dem Erdradius und beleuchtet die Tagseite der Erde.
  • Die Abstrahlung der Erdeerfolgt mit durchschnittlich 235 W/m² über ihre Gesamtfläche.
  • Die „gemessene Durchschnittstemperatur der Erde“(NST) soll im langjährigen Mittel 14,8 °C betragen.
  • Das Stefan-Boltzmann-Gesetzverknüpft Strahlung und Temperatur eines Schwarzen Strahlers im thermischen Gleichgewicht:
  • P / A = s*T4    mit  der Stefan-Boltzmann-Konstante  s= 5,670 10 -8[W m-2K-4]
  • und P = Strahlung [W], A = Fläche [m²], T = Temperatur [°K]

Anmerkung:Die hier dargestellte S-B Fassung repräsentiert den vereinfachten Fall (T0=0°K) des unter [1] beschriebenen vollständigen S-B Gesetzes, das in seiner ausführlichen Form auch als S-B Umgebungsgleichung bezeichnet wird.             

Und was fangen wir jetzt mit diesen Aussagen an?

Wir können die oben genannten Strahlungs-/ Temperaturwerte direkt miteinander in Beziehung setzen oder versuchen, ihnen mit dem Stefan-Boltzmann-Gesetz ihre jeweiligen S-B Äquivalente zuweisen:

  1. 940 W/m² @ Kreisfläche =  235 W/m² @ Kugelfläche      Globale Energiebilanz
  2. 235 W/m²~  -18 °C                          vorgeblich „natürliche“ S-B Temperatur der Erde (*)
  3. (940/2=)470 W/m² ~ +28,6 °C     rechnerische S-B Temperatur der Tagseite (*)
  4. 14,8 °C  ~  390 W/m²                       S-B Strahlungsäquivalent der Durchschnittstemperatur (*) 

Ergebnis: Alle mit (*) gekennzeichneten Aussagen verletzen das Stefan-Boltzmann-Gesetz!
Das S-B Gesetz beschreibt nämlich eine physikalisch eindeutige Verknüpfung von gleichzeitigen Werten von Strahlung und Temperatur für einen konkreten Schwarzen Körper. Wegen der diesem S-B Gesetz zugrunde liegenden T4-Beziehung lässt es keine mathematische Umrechnung von irgendwelchen durchschnittlichen Strahlungs- oder Temperaturwerten auf ein entsprechendes S-B Durchschnittsäquivalent zu. Daher muss beispielsweise eine Durchschnittstemperatur aus der Summe der beteiligten individuellen Ortstemperaturen ermittelt werden und nicht etwa aus dem Durchschnitt der individuellen örtlichen Strahlungswerte.

 (1) RICHTIG:Das wäre, unter der Voraussetzung einer langjährig konstanten gemessenen Durchschnittstemperatur, die durchschnittliche Energiebilanz unserer Erde. Der tatsächliche Ausgleich zwischen Ein- und Abstrahlung findet dabei über den gespeicherten Wärmeinhalt von Atmosphäre und Ozeanen statt. Dadurch ergibt sich bei der Abstrahlung eine permanente Zeitverzögerung über den Tages- und Jahresverlauf. Die aktuelle Sonneneinstrahlung wird also durch die Abstrahlung von Wärmeinhalten ausgeglichen, die teilweise schon längere Zeit von den globalen Zirkulationen verfrachtet worden waren. Aber insgesamt ist diese langjährige durchschnittliche Energiebilanz korrekt, solange die gemessene Durchschnittstemperatur tatsächlich konstant bleibt.

(2) FALSCH:Diese Berechnung ist falsch, weil sie die Gleichgewichtsbedingung des S-B Gesetzes missachtet und über eine Durchschnittsbildung mit der Nachseite der Erde die temperaturwirksame Sonneneinstrahlung willkürlich halbiert. Es wird üblicherweise versucht, diesen Ansatz dadurch zu retten, dass man dessen Differenz zur gemessenen Durchschnittstemperatur durch einen „natürlichen“ atmosphärischen Treibhauseffekt von 155 W/m² zu erklären sucht, für den es aber keinerlei wissenschaftlichen Nachweis gibt.

(3) FALSCH:Eine hemisphärische Betrachtung der globalen Temperaturgenese wäre eigentlich der richtige Ansatz. In dieser stark vereinfachten Form mit einer hemisphärischen Durchschnittsbildung widerspricht er jedoch dem Stefan-Boltzmann-Gesetz. Wenn man’s aber korrekt zu Ende denkt, landet man schließlich bei meinem hemisphärischen S-B Ansatz ohne Treibhauseffekt…

(4) FALSCH:Es gibt gar keine mittlere globale Abstrahlung von 390 W/m². Nur eine individuell gemessene Ortstemperatur von 14,8 °C hätte nach dem S-B Gesetz ein Strahlungsäquivalent von 390 W/m². Da sich die NST von 14,8 °C  aber aus der statistischen Bearbeitung von individuell gemessenen Ortstemperaturen zusammensetzt, müsste hier eine ebensolche statistische Mittelung über die jeweiligen örtlichen S-B Strahlungsäquivalente erfolgen. In der nachstehende Abbildung wird die globale Durchschnittstemperatur als ein Mittel aus +14,8°C +/- 35 °C betrachtet. Dabei stellen wir fest, dass sich die zugehörigen S-B Strahlungsäquivalente nicht proportional zu den Temperaturänderungen verhalten:

Wie bei einem T4-Gesetz zu erwarten ist, erhöht sich das individuelle S-B Strahlungsäquivalent mit ansteigenden Temperaturen überproportional. Wir erhalten für die ausgewählten Temperaturen damit folgende S-B Strahlungsäquivalente:

Eine beliebige symmetrische Temperaturverteilung um einen globalen Mittelwert von 14,8°C kann also niemals ein S-B Strahlungsäquivalent von 390 W/m² ergeben. Daher kann aus einem solchen falsch berechneten S-B Strahlungsäquivalent übrigens auch kein „natürlicher“ atmosphärischer Treibhauseffekt von 155 W/m² abgeleitet werden. Die hier vorgestellte einfache lineare Abschätzung aus 3 Einzelwerten liefert vielmehr rechnerisch einen „natürlichen“ Treibhauseffekt von

(413W/m²-235W/m²=) 178 W/m² anstelle der üblicherweise behaupteten 155 W/m²

und führt schon damit zu einem Widerspruch. Der „natürliche“ atmosphärische Treibhauseffekt resultiert also aus einer mangelhaften Kenntnis des Stefan-Boltzmann-Gesetzes, Zitat aus [1] zum ganz langsamen Mitdenken: „…energy radiated in unit time by a black bodywhere T is the absolute temperature of the body“. Das Stefan-Boltzmann-Gesetz ist demnach nur unmittelbar „just in time“ gültig, es dürfen damit also weder zeitlich noch räumlich zusammenfassende Durchschnittswerte verknüpft werden.
ABER:Die NST selbst stellt eine langjährige globale Durchschnittstemperatur dar, bei der im Idealfall alle Energieflüsse (IN and OUT) über den Tag- und Nachtverlauf sowie die Breitenverteilung und der Jahresverlauf aller benutzten Meßstationen bereits korrekt herausgemittelt worden sein sollten. Dieser quasi-konstante NST-Wert ist damit um die langjährige Ein-und Abstrahlung bereinigt worden und hat überhaupt nichts mehr mit der globalen Strahlungsbilanz zu tun.Ihr tatsächlicher Wert spielt bei dieser Betrachtung also keine Rolle, und sein S-B Strahlungsäquivalent ist irrelevant.

Für den Fall, dass wir alle wetterabhängigen sowie tages- und jahreszeitlich variablen Prozesse auf unserer Erde in einer langjährigen Betrachtung als durchschnittlich ausgeglichen voraussetzen können, wie das bei einer konstanten NST ja der Fall sein sollte, lässt sich aus der richtigen Beziehung (1) und dem „ABER“-Kommentar zu (4) schließlich eine konkrete Aussage herleiten.

Die Gleichung für die globale Energiebilanz unserer Erde heißt damit:

(IN =940 W/m² *pR2)  =  (OUT = 235 W/m² *4 pR2)  @  NST (= 14,8 °C)

Wir haben hier auf unserer Erde also eine ausgeglichene globale Strahlungsbilanz bei einer konstanten global gemessenen Durchschnittstemperatur, wie immer diese auch ermittelt worden sein mag oder vielleicht erst viel später einmal korrekt ermittelt werden wird. Diese global gemessene Durchschnittstemperatur repräsentiert damit den durchschnittlichen globalen Netto-Wärmeinhalt von Atmosphäre und Ozeanen auf unserer Erde, um den herum permanent die hemisphärische Einstrahlung und die globale Abstrahlung erfolgen.