1

Rettet den Strompreis!

Elektrischer Strom ist den Deutschen lieb – und vor allem teuer. Gerade hat der Haushaltspreis für eine Kilowattstunde die 30-Cent-Marke geknackt. Genau 30,8 Cent pro Kilowattstunde muss, laut McKinseys „Energie Index“ für das 2. Halbjahr 2017, der deutsche Bürger inzwischen zahlen, damit er kochen, seine Wohnung beleuchten, telefonieren, im Internet surfen oder Kühlschrank, Waschmaschine und zahlreiche andere Haushaltsgeräte betreiben kann. Das ist doppelt so viel wie Haushaltsstrom in Frankreich oder im Hochpreisland Schweiz kostet. Damit hat sich Deutschland eine Spitzenposition erarbeitet; nur die Dänen zahlen geringfügig mehr.

Vor zwei Jahrzehnten sah das noch anders aus. 1998 – der Strom kostete damals umgerechnet 14 Cent pro Kilowattstunde – liberalisierte die Bundesregierung den Strommarkt. Verbraucher konnten den Stromlieferanten frei wählen, Stromerzeuger durften überregional ihre Leistungen anbieten. Zunächst fiel der Strompreis. Ein Drei-Personen-Haushalt zahlte 1998 pro Monat durchschnittlich 50 Euro, im Jahr 2000 nur noch 40 Euro.

Das war’s dann aber auch. Im neuen Jahrtausend ging es mit dem Preis wieder kräftig aufwärts. 1999 brachte die rot-grüne Regierung unter Gerhard Schröder eine „ökologische Steuerreform“ ein. Dazu gehört eine Stromsteuer, die den Strom um knapp über zwei Cent pro Kilowattstunde verteuert und dem Bund jährlich etwa sieben Milliarden Euro bringt. Ein Jahr später folgte das Erneuerbare-Energien-Gesetz (EEG), das dem Ökostrom eine komfortable Vorzugsbehandlung garantiert: Unabhängig vom Bedarf muss er vorrangig ins Netz eingespeist werden. Vergütet wird er in einer Höhe, die deutlich über den Gestehungskosten von Strom aus konventionellen Quellen liegt. Diese Vergütung, ein Festpreis, wird für die Dauer von zwanzig Jahren garantiert und vom Verbraucher bezahlt.

„Das EEG ermächtigte die Ökoindustrie, allen Bürgern zwangsweise das Geld aus der Tasche zu ziehen.“


Das EEG war, aus grüner Sicht, ein geniales Konstrukt. Es ermächtigte die Ökoindustrie, allen Bürgern mit einem alltäglichen, lebensnotwendigen Produkt zwangsweise das Geld aus der Tasche zu ziehen, und zwar an Marktgesetzen und demokratischer Kontrolle vorbei. Anstatt neue Energieformen aus dem Bundeshaushalt zu fördern, so kritisierte der Ökonom Prof. Carl Christian von Weizsäcker schon vor zehn Jahren 1, nehme „der Staat dem Bürger am Haushalt vorbei Geld ab“. Das sei „nicht verfassungsgemäß“.

Aber erfolgreich. Mit Hilfe dieses Gesetzes hat die Ökoindustrie inzwischen reichlich Kasse gemacht und Hunderte von Milliarden kassiert. 2 Kritiker des EEG wurden damals beruhigt: Subventionieren wolle man Windräder und Photovoltaik nur bis zur „technisch-industriellen Reife“ (diese ist schon lange erreicht, aber gefördert wird noch immer). Legendär die Aussage des Grünen Jürgen Trittin, damals deutscher Umweltminister: Die Förderung erneuerbarer Energien, so verkündete er 2004, werde einen Haushalt nur einen Euro im Monat kosten – „so viel wie eine Kugel Eis“.

Zwei Jahre nach dem EEG folgte die KWK-Umlage. Damit fördert der Verbraucher Strom aus Anlagen mit Kraft-Wärme-Kopplung. Das macht etwa zwei Cent pro Kilowattstunde. Die Offshore-Haftungsumlage für Windparks in Nord- und Ostsee kam 2013. Sie soll Schadensersatzkosten decken, die durch verspäteten Anschluss der Anlagen an das Landstromnetz oder durch Netzunterbrechungen entstehen. Diesen Dilettantismus zahlt auch der Verbraucher, ebenso wie die 2014 eingeführte AbLa-Umlage. Damit werden Industriebetriebe für (freiwillige) Lastabwürfe zur Stabilisierung des Netzes entschädigt.

Abbildung 1: Zusammensetzung des durchschnittlichen Strompreises für Haushaltskunden (3500 kWh Jahresverbrauch) in Deutschland 2017 (Quelle: strom-report.de).

Abgaben und Umlagen machen bei Haushaltskunden inzwischen 55 Prozent des Strompreises aus (siehe Abbildung 1). Seit der Liberalisierung 1998 hat sich dieser Kostenblock mehr als verdoppelt. Stromerzeugung und Vertrieb – das eigentliche Produkt – machen hingegen nur noch ein Fünftel des Gesamtpreises aus.

Steigende Netzkosten

Geliefert wird Strom über ein Übertragungs- und Verteilnetz mit einer Länge von 1,8 Millionen Kilometern. Vier große Betreiber (Amprion, 50 Hertz, TransnetBW und Tennet) sind für die Hochspannungsübertragung zuständig, eine größere Zahl von Firmen verteilt den Strom in der Fläche. Für die Nutzung des Netzes, für Errichtung, Instandhaltung und Betrieb, zahlt der Kunde ein Entgelt. Am wenigsten zahlen Großabnehmer, die ans Hochspannungsnetz angeschlossen sind. Am teuersten ist das Niederspannungsnetz für die Verteilung vor Ort, zumal diese Leitungen überwiegend unter der Erde verlegt sind. Netzentgelte sind inzwischen größter Bestandteil des Strompreises. Kostentreiber sind vor allem Windräder und Photovoltaik-Anlagen. Zwar erzeugen sie Strom mittlerweile deutlich preiswerter als zuvor, aber jede neu ans Netz gehende Anlage erhöht die Netzkosten. Tausende Kilometer an neuen Leitungen müssen gelegt, alte ertüchtigt werden. Und neue, kostenträchtige Probleme ergeben sich aufgrund der Volatilität von Wind- und Photovoltaik-Strom.

„Die unstete Leistungseinspeisung durch Windräder und Solaranlagen macht das Netz instabil.“


Die konventionelle Elektrizitätsversorgung, wie sie bis zur Jahrhundertwende vorherrschte, war robust. Stromausfälle waren extrem selten, verursacht zumeist von äußeren Einflüssen, von Stürmen, Gewittern, von Schnee und starkem Frost, welche die Stromleitungen unterbrachen. Heute sitzt der Feind im Inneren des Netzes: Die unstete Leistungseinspeisung durch Windräder und Solaranlagen macht das Netz instabil. Netzbetreiber haben täglich alle Hände voll zu tun, um das Netz aufrecht zu erhalten.

So müssen sie immer häufiger die Leistung von Grundlastkraftwerken anpassen. Bei diesem sogenannten „Redispatch“ werden konventionelle Kraftwerke bei Stromüberschuss gedrosselt und bei Mangel an Wind und Sonnenschein hochgefahren. Außerdem halten die Übertragungsnetzbetreiber inzwischen einige Gigawatt an Reservekraftwerken vor, die bei hohem Strombedarf und gleichzeitigem Ausbleiben von Wind- und Solarstrom gestartet werden – wie etwa bei der Dunkelflaute vom Januar 2017. Das alles bringt erhebliche Kosten mit sich, die natürlich der Verbraucher zahlt.

Dazu kommen noch Zahlungen für nicht geleistete Arbeit. Wenn zu viel Ökostrom zur Unzeit ins Netz drängt, müssen vor allem Windräder zeitweise heruntergeregelt werden. Diese „Ausfallarbeit“ ist von etwa 100 Gigawattstunden im Jahr 2010 auf 4700 Gigawattstunden im Jahr 2015 angestiegen. Dafür wurden die Erzeuger mit 315 Millionen Euro „entschädigt“.

Beim Betreiber Tennet, so der Chef Urban Keussen, trieben vor allem die „netzstabilisierenden Notmaßnahmen“ die Kosten in die Höhe. „Nur fünf Prozent sind durch den Netzausbau begründet.“ Für 2017 rechnet Keussen mit einem Anstieg der Netzkosten um etwa 80 Prozent. Bei TransnetBW in Baden-Württemberg werde der Anstieg bei rund fünf Prozent liegen. Der Grund liegt auf der Hand: Im Ländle gibt es nur wenige Windräder und Photovoltaik-Anlagen, während Tennets Netz mit einem hohen Anteil volatiler Stromerzeuger gesegnet ist.

„In den vergangenen Jahren sind die Kosten für die Netzstabilisierung stetig angestiegen.“


In den vergangenen Jahren sind die Kosten für die Netzstabilisierung stetig angestiegen (siehe Abbildung 2). Sie werden weiter steigen, wenn, wie geplant, die Zahl von Windrädern und Photovoltaik-Anlagen weiterhin wächst. Dazu kommen weitere Ausgaben, um die Gebrechen volatiler Stromquellen abzufangen: neue Überlandleitungen, Smart Grids, Speicher … all das kostet.

2011 2012 2013 2014 2015
Kosten für die Abregelung nicht verwendbaren Stroms aus erneuerbaren Energien (Einspeisemanagement) 33,5 33,1 43,8 183,0 478,0
Kosten für die regionale Verlagerung von Kraftwerkseinsätzen (Redispatch) 41,6 164,8 113,3 185,4 402,5
Netzreserve für den Fall, dass in Deutschlands Süden zu wenig fossile Kraftwerke am Netz sind 16,8 25,7 56,3 66,8 168,0
Insgesamt 91,8 223,6 213,3 435,2 1.048,5

Abbildung 2: Kosten für die Netzstabilisierung 2011-2015 (Quelle: Institut der deutschen Wirtschaft Köln, 04.12.2016).

Im schon erwähnten „Energie-Index“ von McKinsey werden für 2020 Netzkosten von 27 Milliarden Euro angesetzt (davon 3 Milliarden für Netzeingriffe), für 2025 sind es 31 Milliarden Euro, inklusive 4 Milliarden Euro für Netzeingriffe. Ob es dabei bleibt, ist fraglich. Die Diplomingenieure Herbert Niederhausen und Andreas Burkert sehen weitaus höhere Aufwendungen für das Netz voraus, will man die Energiewende umsetzen. Die Politiker, so schreiben sie in ihrem Buch3, müssten endlich sagen, dass es nicht mit „dem Bau von zusätzlich 1000 Kilometern oder 3600 Kilometern Freileitungsstrecke“ getan sei. Die Autoren schätzen vielmehr, dass es etliche zehntausend Kilometer an Übertragungsleitungen und, je nach Ausbau von Windkraft und Photovoltaik, mehrere hunderttausend Kilometer Leitungen im Verteilnetz erfordern würde. Kostenschätzung: bis zu zwei Billionen Euro!

Derart hohe Beträge scheinen sehr unwahrscheinlich zu sein. Allerdings zeigen Erfahrungen mit der Energiewende, dass ihre Befürworter stets nach dem Prinzip vorgehen „Was interessiert mich mein Geschwätz von gestern“. Aufwendungen für die Energiewende werden erst einmal kleingeredet. Stillschweigend werden dann später die vielfach höheren Kosten übernommen. Den Finanzminister freut es in jedem Fall. Er „verdient“ kräftig mit, jährlich über zehn Milliarden Euro. Auf die Stromlieferung einschließlich aller Umlagen und Abgaben kommt die Umsatzsteuer von 19 Prozent. Selbst die Stromsteuer wird versteuert.

Subventioniertes Ökostromdumping

Warum zahlen die Haushalte so hohe Strompreise obwohl Solar- und Windstrom an der Leipziger Strombörse Tiefstpreise erzielt? Ganz einfach, so erzählen die Ökos, die großen Stromkonzerne geben diese nicht an die Verbraucher weiter. Das ist Unsinn. Tatsächlich ist die Preisgestaltung eine vertrackte Geschichte, bei der es nur einen Gewinner gibt: die Betreiber von Ökostromanlagen.

Der Vorgang ist Folgender: Die vier Übertragungsnetzbetreiber stehen immer wieder vor der Frage, wie sie große Mengen an erneuerbarem Strom loswerden. Ablehnen können sie ihn nicht, da er per Gesetz mit Vorrang eingespeist wird. Die Autoren Niederhausen und Burkert sehen das deutsche Stromnetz deshalb nicht mehr als Versorgungs-, sondern als Entsorgungsnetz an. Entsorgen lässt sich der grüne Überschussstrom nur durch den Verkauf zu Mindestpreisen an der Leipziger Strombörse. Und je mehr grüner Strom erzeugt wird, desto niedriger liegt der Verkaufspreis. 2016 betrug er im Jahresschnitt rund drei Cent pro Kilowattstunde. In den Wintermonaten liegt er höher; da scheint die Sonne nur kurz und bei ruhigem Winterwetter pausieren auch die Windräder manchmal tagelang. Dafür fällt der Preis in den Sommermonaten, da dann kurzzeitig große Mengen an Ökostrom ins Netz drängen.

„40 Millionen Euro mussten die Netzbetreiber zahlen, damit Kunden den zur Unzeit gelieferten Strom überhaupt abnahmen.“


Selbst negative Preise sind möglich. Der Netzbetreiber zahlt Großkunden Geld, wenn diese ihm Strom abnehmen. So geschehen am Sonntag, dem 30. April dieses Jahres, als über 40 Gigawatt Ökostrom auf einen niedrigen Feiertagsverbrauch trafen. Der Verkaufspreis sank zeitweise auf minus 10 Cent pro Kilowattstunde. 40 Millionen Euro mussten da die Netzbetreiber zahlen, damit Kunden den zur Unzeit gelieferten Strom überhaupt abnahmen. All diese Beträge landen letztlich auf der Stromrechnung der Haushalte.

Für drei Cent pro Kilowattstunde wird der Strom an der Börse verramscht, dank des zeitweise reichlich vorhandenen Ökostroms. Der Verbraucher aber zahlt weiterhin das Zehnfache. Wo ist der Pferdefuß? Dass daran die Stromkonzerne schuld seien, ist die größte Lüge der Ökolobby. Richtig ist, dass Strom aus Wind und Sonne einfach nicht mehr wert ist, da er dem Netz nicht bedarfsgerecht aufgedrängt wird. Richtig ist aber auch, dass die grünen Erzeuger davon keinen Nachteil haben. Sie erhalten stets die gesetzlich festgelegte Einspeisevergütung, die praktisch immer über dem Verkaufspreis liegt. Die Differenz zwischen Vergütung und Marktpreis (die EEG-Umlage) zahlt der Verbraucher.

Das ist Dumping. Man verkauft weit unter dem Herstellungspreis, um die Konkurrenten aus dem Feld zu schlagen. Wenn eine Firma so etwas macht, braucht sie viel Geld in der Hinterhand, denn auch sie macht Verluste. Einfacher geht es mit dem „subventionierten Dumping“ der Ökostromproduzenten. Sie greifen auf das Geld des Millionenheers von privaten und gewerblichen Stromverbrauchern zu, das inzwischen jährlich über 20 Milliarden Euro an EEG-Umlage zahlt. Am meisten profitieren Besitzer von Photovoltaikanlagen, deren Zahl ab 2008 dramatisch zugenommen hat. Damals lagen die Vergütungen des Solarstroms noch zwischen 30 und 45 Cent pro Kilowattstunde – garantiert für 20 Jahre. Der Erzeuger kann also beruhigt seinen Strom für drei Cent pro Kilowattstunde verkaufen, denn er weiß: 27 Cent pro Kilowattstunde erhält er später dazu.

„Das fossil-nukleare Elektrizitätssystem kommt problemlos ohne die Ökostrom-Trittbrettfahrer aus. Umgekehrt aber gilt dies nicht.“

Dieses Dumping mit Öko-Label schädigt nicht nur Stromkunden, sondern das gesamte konventionelle Elektrizitätssystem. Kern- und Braunkohlenkraftwerke, welche die Grundlast liefern, haben Stromgestehungskosten von drei bis vier Cent pro Kilowattstunde. Börsenpreise um drei Cent pro Kilowattstunde führen dazu, dass Betreiber diese „auf Verschleiß“ fahren. Und neu gebaute Kraftwerke benötigen für einen wirtschaftlichen Betrieb Stromverkaufspreise zwischen fünf und acht Cent pro Kilowattstunde und lassen sich unter diesen Bedingungen nicht mehr wirtschaftlich betreiben.

Bei Verfechtern der Energiewende dürfte diese Entwicklung mehr als nur „klammheimliche Freude“ auslösen. Allerdings übersehen sie, dass ohne die stabile Grundlage durch konventionelle Kraftwerke die volatile Einspeisung des Ökostroms das Netz sofort zusammenbrechen lassen würde. Das fossil-nukleare Elektrizitätssystem kommt problemlos ohne die Ökostrom-Trittbrettfahrer aus. Umgekehrt aber gilt dies nicht.

Hält man trotzdem an der Energiewende fest, sind weitere Strompreistreiber vorprogrammiert. Dann müssen konventionelle Kraftwerke subventioniert werden, damit sie Windräder und Photovoltaik-Anlagen am Leben erhalten. So macht die Energiewende das, was sie am besten kann: neue Subventionen erzeugen. Und damit den Strompreis nach oben treiben.

Dieser Artikel ist zuerst bei Novo erschienen.




Sonnen­flecken ver­schwinden rascher als erwartet

Die Tatsache, dass die Sonnenflecken verschwinden, kommt nicht überraschend. Prognostiker haben schon seit Jahren gesagt, dass dies beim gegenwärtigen Sonnenzyklus (Nr. 24) der Fall sein wird. Überraschend ist jedoch, wie schnell die Flecken verschwinden.

„Der Sonnenzyklus 24 klingt rascher ab als erwartet“, verkündete das Space Weather Prediction Center der NASA am 26. April. Die folgende Graphik zeigt die beobachteten Sonnenfleckenzahlen in blau im Vergleich zur offiziellen Prognose in rot:

NOAA: „Die geglättete prophezeite Sonnenfleckenzahl für April-Mai liegt bei etwa 15. Allerdings lagen die tatsächlichen monatlichen Werte deutlich darunter“.

„Offizielle“ Vorhersagen des Sonnenzyklus‘ kommen vom Solar Cycle Prediction Panel der NOAA. Dabei handelt es sich um eine Expertengruppe von NOAA, NASA, der US-Luftwaffe, von Universitäten und anderen Forschungsorganisationen. Sie sind in unregelmäßigen Abständen seit 1989 immer wieder zusammen gekommen, um Timing und Intensität des solaren Maximums vorherzusagen. Auf dem jüngsten Treffen des Gremiums von 2006 bis 2008 wurden 54 verschiedene Verfahren verglichen, nämlich von empirischen Extrapolationen historischer Daten bis hin zu Berechnungen des magnetischen Dynamos der Sonne mittels hypermoderner Supercomputer-Modelle. Kein Verfahren kann in Gänze beschreiben, was derzeit vor sich geht.

Es ist wichtig nicht zu vergessen, dass ein solares Minimum ein normaler Bestandteil des Sonnenzyklus‘ ist. Sonnenflecken sind etwa alle ~11 Jahre oder so verschwunden (oder fast verschwunden) seit 1843, als der deutsche Astronom Samuel Heinrich Schwabe die periodische Natur der Sonnenaktivität entdeckte. Manchmal verschwinden die Flecken Jahrzehnte lang wie z. B. während des Maunder-Minimums des 17. Jahrhunderts. Alles ist schon mal da gewesen. Oder doch nicht…?

Forscher verfolgen jetzt sehr aufmerksam die Vorgänge auf der Sonne vor dem Hintergrund dessen, was passiert war, als die Sonnenflecken das letzte Mal verschwunden waren. Das solare Minimum der Jahre 2008-2009 war ungewöhnlich tief. Es traten Rekordwerte niedriger Sonnenfleckenzahlen bzgl. des Space Age auf, aber auch für schwachen Sonnenwind und schwächere solare Einstrahlung. Als die Sonne einige Jahre später schließlich wieder erwachte, schien sie einen „solaren Minimum-Überrest“ [solar minimum hangover] zu haben. Das solare Maximum der Jahre 2012 – 2015 schließlich war das schwächste solare Maximum des Space Age. Dies führte dazu, dass Einige sich fragen, ob die Sonnenaktivität in eine Phase nachhaltiger Ruhe eintritt. Die schneller als erwartet beobachtete Abnahme des Sonnenfleckenzyklus‘ kann diesen Gedanken stützen.

Neulinge in dem Bereich sind oft überrascht zu erfahren, dass während eines solaren Minimums eine ganze Menge passiert: Die Sonne scheint schwächer, wenn auch nur wenig. Die NASA hat jüngst einen neuen Sensor (TSIS-1) auf der ISS installiert, um diesen Effekt zu überwachen. Lässt die UV-Strahlung der Sonne nach, schrumpft die obere Atmosphäre und kühlt sich ab. Damit kann sich Weltraumschrott in einem niedrigen Erdorbit akkumulieren.

Abbildung: Eine Neutronen-Blasenkammer in einem Flugzeug 35.000 Fuß [ca. 10,6 km] über Grönland. Spaceweather.com und die Studenten des Earth to Sky Calculus betreiben diese Sensoren, um die Strahlung bzgl. der Luftfahrt während solarer Minima zu messen (mehr dazu hier).

Die bedeutendste Konsequenz dürfte aber die Zunahme der kosmischen Strahlung sein. Der schwache Sonnenwind zu Zeiten solarer Minima erlaubt es kosmischer Strahlung aus den Tiefen des Weltalls, bis in das innere Sonnensystem vorzudringen. Derzeit messen Wetterballone und NASA-Raumschiffe einen Sprung nach oben dieser Strahlung infolge dieses Effektes. Kosmische Strahlen können die chemische Zusammensetzung der oberen Erdatmosphäre verändern, Blitze auslösen und Wolken entstehen lassen.

Auch Flugreisende sind betroffen. Man weiß, dass kosmische Strahlen Flugzeuge durchdringen. Passagiere auf einem einzelnen Langstreckenflug empfangen eine Strahlendosis, die vergleichbar ist mit ähnlichen dentalen Röntgenstrahlen. Piloten werden von der International Commission on Radiological Protection (ICRP) als Strahlung ausgesetzte Arbeiter klassifiziert. Fortgesetzte Messungen zeigen, dass die Strahlendosis in der üblichen Reiseflughöhe von 35.000 Fuß etwa 40 mal höher ist als am Erdboden darunter. Diese Werte können mit der weiteren Abschwächung des Sonnenzyklus‘ sogar noch weiter steigen.

Das solare Minimum hat gerade erst begonnen. Wir bleiben dran!

Link: https://spaceweatherarchive.com/2018/05/01/sunspots-vanishing-faster-than-expected/

Übersetzt von Chris Frey EIKE




Neuer Report: ,Grüne‘ Politik bedroht arme Nationen

Dem von dem bedeutenden Epidemiologen Mikko Paunio verfassten Report zufolge versuchen internationale Agenturen und NGOs, arme Länder davon abzuhalten, ihren Verbrauch konventioneller Treibstoffe zu steigern. Sie haben die so genannte „Energie-Leiter“ verworfen, also die allmähliche Hinwendung zu saubereren Treibstoffarten, welche die Luftqualität in industrialisierten Nationen verbessert haben.

Dr. Paunio erklärt, warum dies verheerende Konsequenzen haben wird:

Die Luftverschmutzung in den Behausungen wegen offener Feuer in Innenräumen tötet jedes Jahr Millionen. Aber anstatt den armen Menschen zu helfen, auf der Energie-Leiter hoch zu klettern und die Luft in ihren Gemeinden sauberer zu machen, gibt man den ärmsten Menschen Mätzchen wie Kochherde, welche hinsichtlich der Luftgüte kaum einen Unterschied machen, und Solarpaneele, die kaum mehr als ein Witz sind“.

Aber noch schlimmer ist, dass die Grünen innerhalb und außerhalb der Entwicklungs-Gemeinschaft für die Luftverschmutzung Kraftwerke, Industrie und Autos verantwortlich machen. Sie sehen darin einen Weg unter Vielen, die industrielle Energieerzeugung zu verhindern. Dr. Paunio stellt klar, dass die stärkste Luftverschmutzung in Wirklichkeit der Verbrennung von Biotreibstoffen und Kohle minderer Qualität in heimischen Öfen geschuldet ist:

Der Versuch, Kraftwerke für die Luftverschmutzung in Innenräumen verantwortlich zu machen, mag den Grünen ein Gefühl der Rettung des Planeten vermitteln, aber in Wirklichkeit lassen sie zu, dass weiterhin Millionen Menschen an Luftverschmutzung in Innenräumen sterben. Die Zahl der Todesfälle wird demnächst in etwa die Größenordnung erreichen, welche totalitären Regimes des 20. Jahrhunderts geschuldet ist.

Executive Summary: 200 Millionen in Gefahr

Die heimische Verbrennung fester (Bio-)Treibstoffe ist mit großem Abstand die Nummer eins des globalen Verschmutzungs-Problems. 4,3 Millionen Todesfälle jährlich gehen direkt auf das Konto der Luftverschmutzung in Innenräumen (IAP), sagt die Weltgesundheits-Organisation WHO. Die häusliche Verbrennung fester Biotreibstoffe tötet fast sechs Millionen Menschen in jedem Jahr, wenn deren Auswirkungen auf die Güte der Umgebungsluft mit einbezogen werden.

Die so genannte ,Energie-Leiter‘ ist als eine Möglichkeit eingeführt worden zu verstehen, wie Todesfälle durch IAP verhindert werden könnten. Mit der Energie-Leiter sollen die Erfahrungen reicher Länder reproduziert werden, wo die Haushalte keine Biotreibstoffe mehr verbrennen und immer mehr an Stromnetze oder Fernheizung angeschlossen worden sind, womit sich das IAP-Problem erledigt hatte.

Allerdings hat der ständig zunehmende Widerstand der Umweltbewegung diese vorteilhafte Entwicklung von der Entwicklungs-Agenda getilgt. Umweltaktivisten fürchten, dass arme Länder wohlhabender werden, wenn sie auf der Energie-Leiter nach oben steigen und sich von schmutzigen Treibstoffen wie Kuhdung oder Ernteabfällen lösen, und sich dem Strom zuwenden. Damit würde sich jedoch ihr Energieverbrauch erhöhen und damit auch ihre Kohlenstoff-Intensität. Sie haben es tatsächlich fertig gebracht, alle bedeutenden, multilateralen Entwicklungs-Institutionen und die WHO davon zu überzeugen, die Energie-Leiter komplett fallen zu lassen. Stattdessen nötigen sie jetzt die ärmsten Länder, eine utopische Energiepolitik auf der Grundlage von Erneuerbaren zu übernehmen. Die Folge davon ist, dass der Kampf gegen IAP beispielsweise in Afrika südlich der Sahara unmöglich wird.

Aggressive Dekarbonisierung steht jetzt ganz oben auf der politischen Agenda. Im Gegensatz zu den weithin hinaus posaunten Behauptungen bedeutender globaler Akteure wird dies das IAP-Problem jedoch nicht lösen. Im Gegenteil, sie wird die Ausdehnung von Stromnetzen behindern, welche ein entscheidendes Mittel sind, eine angemessene Wasserversorgung sicherzustellen. Ohne diese Netze wird es unmöglich sein, das Wunder der öffentlichen Gesundheit in den reichen Ländern zu reproduzieren.

Diese ,ambitionierte‘ Politik zur globalen Klima-Abschwächung lässt die umweltlichen Gesundheitsprobleme unter den Armen außen vor und wird bis zum Jahr 2050 den Tod von 200 Millionen Menschen zur Folge haben. Genauso unwahrscheinlich ist es – sogar theoretisch –, dass diese Politik die 250.000 jährlichen Todesfälle verhindern kann, welche Spekulationen der WHO zufolge auf das Konto des Klimawandels von 2030 bis 2050 gehen können: Hoch qualifizierte Forschungen in Verbindung mit dem IPCC haben jüngst gezeigt, dass die Verbrennung fester Biomasse die CO2-Emissionen tatsächlich im Vergleich zur Verbrennung fossiler Treibstoffe steigen lässt, zumindest während der nächsten 100 Jahre.

Die ganze Studie (pdf) steht hier.

Link: https://www.thegwpf.com/new-report-green-policies-threaten-poor-nations/

Übersetzt von Chris Frey EIKE




Klimawandel macht nichts, aber kaltes Wetter kann sehr tödlich sein

In Großbritannien und anderswo war das Gegenmittel bisher bezahlbare Energie. Allerdings hat die Besessenheit an massiv subventionierter, wetterabhängiger Windenergie genau das außerhalb der Reichweite von allzu vielen mit geringem Einkommen entfernt; besonders alte Menschen.

In den letzten Sommermonaten haben die Australier beobachtet, dass ältere Menschen leiden und zugrunde gehen. Sie konnten es sich nicht leisten, Klimaanlagen bei heißem Wetter zu betreiben. Das heißt natürlich, wenn Strom gerade überhaupt verfügbar war.

Trotz der oft beschworenen Klimaerwärmung, sind Temperaturen unter Null viel tödlicher, wie James Delingpole berichtet.

Einleitung auf StopTheseThings vom 01.05.2018

https://stopthesethings.com/2018/05/01/deaths-icy-grip-climate-change-wont-kill-granny-but-climate-change-policies-do/

 

48.000 Briten starben in diesem Winter an Kälte; Die Britische Regierung lobt ihre Klimapolitik, die ihnen dabei geholfen hat

Breitbart; James Delingpole, 9. April 2018

Großbritannien durchlitt gerade seine schlimmste Wintersterblichkeit seit 42 Jahren.

Es wird geschätzt, dass zwischen Dezember und März 2018, 20.275 Briten mehr als im Durschnitt der letzten Jahre durch Erfrieren starben.

Aufgrund der kalten Bedingungen werden allein zwischen dem 23. und 31. März weitere 2000 Todesfälle angenommen, wie die durchschnittlichen Sterberaten dieses Winters anzeigen.

Bürgerrechtler haben die Todesfälle als eine „nationale Tragödie“ bezeichnet, da Opfer von zu kaltem Wetter, vor allem bei älteren Menschen, hätten verhindert werden können.

Nach Angaben des Statistischen Bundesamtes (Office of National Statistics) sind jeweils einer von 10 Kaltwetter-Todesfällen sowohl bei den unter 65-Jährigen wie auch bei den 65-75-Jährigen zu beklagen, aber bei acht von 10 Todesfällen bei den über 75-Jährigen.

Das Gesundheitsministerium erklärte auch, dass kalte Bedingungen Erkrankungen wie Grippe, Lungenentzündungen, Herzinfarkt, Schlaganfall und Demenz verschlimmern.

Zusammengezählt bedeutet das, dass dieser Winter aufgrund des kalten Wetters mindestens 48.000 Todesfälle haben wird – was sich auf durchschnittlich einen Todesfall alle dreieinhalb Minuten errechnet.

Aber was noch schockierender ist, die britische Regierung – die sich als konservativ bezeichnet – prahlt tatsächlich noch mit der katastrophalen Politik, die geholfen hat, arme Menschen zu töten.

Hier ist das, was Energieministerin Claire Perry zum zehnten Jahrestag des Klimaschutzgesetzes von 2008 sagte – der ruinösesten und sinnlosesten Gesetzgebung in der jüngsten britischen Parlamentsgeschichte – die weitgehend dafür verantwortlich ist, Energie so teuer zu machen, dass die Armen und Schwachen es nicht können leisten, ihre Häuser zu heizen.

Die Dynamik des Klimaschutzes nimmt im Vereinigten Königreich an Fahrt auf. Der Klimawandel ist nicht mehr nur eine Phrase von ideologischen Umweltschützern und Wissenschaftlern, er ist Teil der alltäglichen Propaganda. Dies ist nicht nur der Moment für globale Bemühungen, unseren CO2-Ausstoß zu reduzieren, sondern auch für das Wachstum grüner Industrien und für die internationale Zusammenarbeit im Klimabereich.

Der Klimawandel überschreitet parteipolitische Grenzen und respektiert keine Landesgrenzen. Diese parteiübergreifende Unterstützung für den Klimaschutz und die Führungsrolle des Vereinigten Königreichs wurde 2008 mit der Einführung des historischen Climate Change Act [Klimaschutzgesetzes] demonstriert, das ein ehrgeiziges rechtsverbindliches Ziel zur Reduzierung der Treibhausgasemissionen auf 80% des Niveaus von 1990 bis 2050 vorsieht.

Obwohl das Klimaschutzgesetz unter einer Labour-Regierung verabschiedet wurde, wurde es von fast der gesamten konservativen Opposition unterstützt, angeführt von David Cameron – der später als Premierminister fortfuhr, sich zu rühmen, die „grünste Regierung aller Zeiten“ anzuführen.

Das Klimaschutzgesetz wurde vor einem ganzen Jahrzehnt verabschiedet. Seitdem hatten die Konservativen mehr als genug Zeit, um die Beweise zu prüfen und eine Kosten-Nutzen-Analyse durchzuführen. Nach der Schätzung des Department of Energy (Energieministerium –Schätzung ist vermutlich jetzt veraltet) wird das Gesetz, wie von Großbritannien verlangt, seine Wirtschaft um unmögliche 80 Prozent dekarbonisieren und den Steuerzahler bis 2050 insgesamt 734 Milliarden Pfund gekostet haben.

Was genau erhalten die Britten als Gegenleistung für all das ausgegebene Geld?

Nun, wenn Sie der erwähnten „konservativen“ Ministerin Claire Perry glauben, ist eines der Dinge die sie erhalten, die moralische Überlegenheit.

10 Jahre später und im Jahr 2015 war das Vereinigte Königreich maßgeblich an der Umsetzung des Pariser Abkommens beteiligt und verpflichtete über 175 Länder, die Welt vor einer katastrophalen Erwärmung zu schützen.

Vor drei Jahren haben das Vereinigte Königreich und andere Industrieländer in Paris einen gemeinsamen Beitrag von 100 Milliarden US-Dollar zur Unterstützung der ärmsten und am meisten gefährdeten Menschen in der Welt beschlossen, um dem zunehmenden Risiko von Dürren und Überschwemmungen und dem Zugang zu sauberer Energie zu begegnen. Wir sollten stolz sein, dass das Vereinigte Königreich für seine Klimaschutzmaßnahmen sowohl in Übersee als auch zu Hause so hoch angesehen ist.

Allerdings, wie wir wissen, ist das Flickschusterei. Den wirklich großen Kohlendioxid-Emittenten – wie China und Indien – ist es gleichgültig, ob Großbritannien einseitig wünscht, seine Wirtschaft im Namen der „Rettung des Planeten“ zu dekarbonisieren. Der Beitrag Großbritanniens zur globalen Dekarbonisierung, sei es in Bezug auf die Führungsposition oder insgesamt gesehen, ist daher vernachlässigbar.

Wie Christopher Booker im Sunday Telegraph anmerkt:

Das Vereinigte Königreich wird Billionen ausgeben, um die C02-Emissionen zu reduzieren, während die größten Emittenten wenig tun.

Es gibt kein besseres Beispiel dafür, wie gleichgeschaltetes Denken immer weiter die gewünschte Realitätsverdrängung vorantreibt, als ein Statement von Claire Perry, unserer neuen Staatsministerin für Energie.

Hat Frau Perry jemals die Zahlen betrachtet, um zu sehen, wie weit der Rest der Welt tatsächlich in unsere Fußstapfen getreten ist? Es stimmt, dass das Vereinigte Königreich im letzten Jahrzehnt laut dem letzten BP Statistical Review of World Energy seine Emissionen um 28 Prozent reduziert hat, vor allem durch die Schließung der Kohlekraftwerke, die bis 2015 noch 30 Prozent unserer Elektrizität lieferten, so tragen wir jetzt noch kaum ein Prozent zur globalen Summe der CO2 Emissionen bei.

Aber China, der größte CO2-Emittent der Welt, der 27 Prozent der Gesamtmenge beisteuerte, hat im gleichen Zeitraum seine Emissionen um 24 Prozent erhöht und plant bis 2030, diese Emissionen zu verdoppeln. Indien, der drittgrößte Emittent, hat sie um 54 Prozent erhöht und will sie verdreifachen. Deshalb ist unsere Energieministerin der Meinung, dass wir der Welt weiterhin ein Beispiel geben sollten, indem wir „Billionen“ dafür ausgeben, ein Ziel zu erreichen, das nur durch die Schließung praktisch unserer gesamten Wirtschaft erreicht werden kann, während der Rest der Welt nicht die geringste Notiz davon nimmt.

Also, wenn nicht nur die moralische Überlegenheit, was hat Großbritannien im Gegenzug noch für diese 734 Milliarden Pfund an Ausgaben bekommen?

Abgesehen von den verschiedenen Fledermaus und Vogel schreddernden Öko-Kruzifixen, die die Landschaft zerstören und den Solarzellen, die Ackerland in etwas aus schlechten 70er Jahre Filme verwandeln, ist das einzig greifbare, was mir einfällt, all die extra Toten in Leichensäcken.

Im Gegensatz zu den meisten Dingen, um die sich Klimaaktivisten sorgen, sind diese toten Menschen keine theoretischen Projektionen, die von zweifelhaften Computermodellen abgeleitet sind. Das sind echte Menschen – Brüder, Schwestern, Großeltern, Urgroßeltern -, die vielleicht noch ein paar Jahre länger gelebt hätten, wenn die Kosten für die Beheizung ihrer Häuser nicht künstlich durch die Regierungspolitik erhöht worden wären.

Kälte ist für Menschen ein viel größerer Killer als Hitze.

 

Wie Harry Wilkinson bei Conservative Woman feststellt :

Die Energiepreise müssen sinken, um kältebedingte Todesfälle zu senken

Dies entsprach nicht dem Drehbuch in der Ära von Klimahype und -Alarm; Uns wurde gesagt, dass in England nie wieder schneereiche Winter erwartet werden und dass sogar alpine Skigebiete schneefrei werden können. Als die Realität der natürlichen klimatischen Variation offensichtlich wurde, änderte sich die Melodie. Jetzt wird uns gesagt: „Der Schnee draußen zeigt, wie die globale Erwärmung aussieht“. Für Guardianistas (Leser des Guardians, eine Zeitung ähnlich wie die SZ oder NN) ist Wetter jeglicher Art, immer ein weiterer Beweis für einen alarmierenden Klimawandel.

Im Science Daily wird eine Studie angesprochen, die eindeutig Kälte als die tödlicheren Umstände feststellt:

Kaltes Wetter tötet mehr Menschen als heiße Tage

Weltweit sterben zwanzig Mal mehr Menschen an der Kälte als an der Hitze, wie eine Studie feststellt, in der 74 Millionen Todesfälle an 384 Orten in 13 Ländern analysiert wurden. Die Ergebnisse zeigen auch, dass Todesfälle aufgrund von mäßig heißem oder kaltem Wetter wesentlich über denen von extremen Hitzewellen oder Kälteperioden liegen.. Dies ist genau der Fall in Großbritannien, wo die kältebedingte Sterblichkeit 61 Todesfälle pro 100.000 ausmacht, eine der höchsten Raten in Europa. Dies steht im Vergleich zu nur drei Todesfällen pro 100.000 für die wärmebedingte Sterblichkeit.

Menschen mögen die Kälte einfach nicht und wir sind bereit zu zahlen, um sie zu vermeiden. Für die Vereinigten Staaten ergab eine Stanford-Studie von 1996, dass 2,5 Grad Celsius mehr, Erwärmung die Zahl der Todesfälle pro Jahr um 40 000 senken würde und dass die Arbeitnehmer bereit wären, zwischen 30 bis 100 Milliarden Dollar ihres Einkommen auszugeben, für einen Temperaturanstieg von 2,5 ° C.

Hier in Großbritannien gingen die kältebedingten Todesfälle im letzten Jahrhundert zurück, aber in den letzten zehn Jahren sind diese Fortschritte ins Stocken geraten. Der Trend könnte sogar umgekehrt werden, wenn die Stromkosten weiter steigen, um unzuverlässige erneuerbare Technologien zu unterstützen.

Die Temperatur von zentral beheizten Wohnungen ist ebenfalls gesunken, was darauf hindeutet, dass die steigenden Energiekosten die Menschen davon abhalten, ihre Häuser angemessen zu heizen. Dies ist umso überraschender, als Verbesserungen bei der Isolierung zu wärmeren, nicht kälteren Häusern führen sollten.

Sie irren wenn Sie meinen, dass die Politik der britischen Regierung ein nationaler Skandal wäre und die Zeitungen voll davon. Auch regen sich diese eifrigen konservativen Hinterbänkler nicht über die entsetzliche Zerstörung von Leben auf. Offenbar ist das Gewissen der Regierung nicht befleckt und die Konservativen kommen ihrem früherem Ruf als die Partei der Anständigkeit und des gesunden Menschenverstandes nicht mehr nach. Und die Opposition der Labour Party [~Arbeiter Partei] sieht keine Veranlassung sich energisch gegen die unverschämten Kosten zu stemmen, die den Energieabrechnungen der Verbraucher durch grüne Abgaben hinzugefügt werden.

Stattdessen lässt das grüne gleichgeschalteten Denken es zu, dass die Regierung einfach so davon kommt: Im Namen der Rettung der Umwelt werden ihre eigenen Leute getötet.

Und fast niemand macht irgendetwas, um das aufzuhalten.

Übernommen von Breitbart vom 09.04.2018

* * *

Alles übersetzt durch Andreas Demmig




Rundbrief des Heartland Institutes: Antarktis kälter als bisher; Medien ignorieren Abkühlung des Klimas

Antarktis: derzeit kälter als in der Vergangenheit

Berichte von über die gesamte Antarktis verteilten internationalen Forschungsstationen zeigen, dass sich der allergrößte Teil des Kontinents während der letzten Jahrzehnte abgekühlt hat. Mittlerweile ist es dort im Mittel kälter als zu der Zeit, als Amundsen als Erster im Jahre 1911 den Südpol erreichte. Das war lange, bevor die Industrialisierung größere Mengen Kohlendioxid in die Atmosphäre freisetzte. Den Klimamodellen zufolge sollte dies zur Erwärmung der Antarktis und der ganzen Welt führen.

Die Showa Station, ein meteorologischer Außenposten von Japan in der Antarktis, verzeichnet von 1985 bis 2017 einen leichten Abkühlungstrend. Am australischen Außenposten Davis Station konnte während der letzten sechs Jahrzehnte kein Erwärmungstrend gefunden werden.

Vom Royal Dutch Meteorological Institute DMI gesammelte Daten aus allen 13, über die Antarktis verteilten Forschungsstationen zeigen, dass an zehn Stationen kein Erwärmungstrend festgestellt werden kann, wobei einige davon eine leichte Abkühlung zeigen. Nur drei Stationen, die alle auf der Antarktischen Halbinsel liegen, zeigen einen leichten Erwärmungstrend.

Zwei Studien aus dem Jahr 2016 – eine vom British Antarctic Survey (BAS) und eine zweite von Wissenschaftlern aus den USA – konnten ausschließlich natürliche Ursachen für die Temperatur-Variabilität in der Antarktis finden. Keine der beiden fand irgendeinen menschlichen Einfluss. Die in Nature veröffentlichte BAS-Studie kam zu dem Ergebnis, dass Änderungen der Luft- und Ozean-Zirkulation der primäre Grund sind für sich ändernde, variable Temperaturen in der Antarktis. Die Autoren schreiben: „Die Temperatur ist gesunken als eine Folge einer größeren Häufigkeit von kalten östlichen bis südöstlichen Winden. Diese wiederum sind die Folge verstärkter Zyklonenaktivität in der Nördlichen Weddell-See in Verbindung mit einem verstärkten Jet Stream in Mittleren Breiten“.

Die Forscher Ryan Fogt und Megan Jones von der Ohio University berichten, dass die Temperatur in der Antarktis während der Expeditionen von Amundsen und Scott 1911 und 1912 allgemein höher lag als heute. In einem Journal der American Meteorological Society stellen sie fest: „Amundsen und seine Mannschaft trafen am 6. Dezember 1911 Temperaturen an, die maximal höher lagen als minus 16°C auf dem Polar-Plateau lagen, was für dieses Gebiet extrem mild ist … Auch Scott traf ungewöhnlich milde Bedingungen zu jener Zeit an“. Im Gegensatz dazu liegt die mittlere Temperatur im Sommer auf dem Polar-Plateau des Südpols derzeit im Mittel bei minus 28,2°C.

Quellen: DC Statesman  Climate Trends

—————————————————————-

Medien ignorieren das sich abkühlende Klima

Aaron Brown berichtet für Real Clear Markets von Daten des NASA GISS, denen zufolge die globale mittlere Temperatur von Februar 2016 bis Februar 2018 um 0,56°C gefallen ist. Das ist ein stärkerer Rückgang innerhalb von zwei Jahren als im gesamten vorigen Jahrhundert.

Brown sagte, dass die Klimaalarmisten nicht argumentieren können, dass der jüngste starke Temperaturrückgang ein Beweis dafür sei, dass das Klima volatiler werde infolge des anthropogenen Klimawandels. Die monatliche Volatilität der „globalen mittleren Temperatur seit dem Jahr 2000 macht nämlich nur etwa zwei Drittel des längeren Zeitraumes von 1880 bis 1999 aus“.

Die jüngste Abkühlung ist genauso wenig ein Gegenbeweis dafür, dass der anthropogene Klimawandel nicht stattfindet wie die Rekord-Temperaturen der zwei Jahr zuvor ein Beweis dafür sind. Brown nennt beide zeitliche Perioden „statistisches Rauschen im Vergleich mit dem langzeitlichen Trend“. Browns Ergebnisse sind jedoch ein Beleg dafür, dass eine verzerrte Berichterstattung eine viel stetigere Erwärmung vorgaukelt als tatsächlich im Gange ist.

Statistische Ausreißer zur kalten Seite erregen keinerlei Aufmerksamkeit in den Medien. Die monatlichen mittleren globalen Temperaturwerte erscheinen monatlich. Falls sie erneut ein wärmstes Jahr jemals zeigen, ist das eine große Story. Falls sie eine starke Zunahme gegenüber dem Vormonat zeigen oder gegenüber dem gleichen Monat im Vorjahr wird das an die große Glocke gehängt … Zeigen sie jedoch Abkühlung in irgendeiner Art und Weise – und es gab mehr Monate mit Abkühlung als mit Erwärmung seit Beginn der vermeintlichen anthropogenen Erwärmung – herrscht dröhnendes Schweigen.

Quelle: Real Clear Markets

Übersetzt von Chris Frey EIKE

news_28




EX-VW Chef Winterkorn angeklagt-Dieselgate holt früheren VW-Chef Winterkorn ein

Das ist schon sehr heftig. Jetzt wurde der ehemalige VW-Chef Martin Winterkorn in den USA wegen Verschwörung gegen die USA, Betrug und Behinderung der US-Ermittlungen angeklagt. Ihm drohen neben einer Geldstraße von 275.000 Dollar bis zu 25 Jahren Haft. Das zuständige US-Gericht in Michigan veröffentlichte die Anklageschrift am Donnerstag dieser Woche. Die Klageschrift selbst wurde bereits im März eingereicht.

Die US-Behörden glauben, dass Winterkorn eineinhalb Jahr vor Dieselgate über den Betrug informiert wurde und bewußt entschieden habe, die Manipulationen fortzusetzen. Geschockt seien sie, dass das »kriminelle Vorgehen bei Volkswagen von oberster Stelle abgesegnet wurde«.

Mit angeklagt wurden sechs weitere hohe VW-Manager. Sie alle sollen sich wie Winterkorn in Deutschland aufhalten. Eine Auslieferung droht ihnen wohl nicht.
»Wer versucht«, so wird US-Justizminister Jeff Sessions zitiert, »die Vereinigten Staaten zu täuschen, zahlt dafür einen hohen Preis.«

Die Vereinigten Staaten bleiben also bis auf Weiteres kein gutes Reisepflaster mehr für Manager aus der deutschen Automobilindustrie, insbesondere für VW-Leute nicht. Der ehemalige VW-Manager Oliver Schmidt war schlecht beraten, seinen Urlaub in Florida zu verbringen. Vor seinem Rückflug nach Deutschland wurde er in Miami verhaftet und im Dezember vergangenen Jahres zu sieben Jahren Haft verurteilt. 40 Monate sitzt der ehemalige VW-Ingenieur James Liang.

Jetzt fällt auch der Spitze des Herstellers auf die Füße, dass mit Hilfe von Software-Tricks die Abgaswerte für bestimmte Situationen »geschönt« wurden.

»Das ist eine Bestrafung eines Managers, der Betrug zu verantworten hat«, bewertet der Bundestagsabgeordnete und Daimler-Ingenieur Dirk Spaniel (AfD) den Vorgang, betont allerdings auch: »Der Höhe der Strafe ist jedoch völlig unverhältnismäßig. GM wurde in einem Entwicklungsskandal mit klaren Todesfolgen wesentlich nachsichtiger behandelt. Es ist Sache der Bundesregierung, deutsche Unternehmen vor dieser Art der Ungleichbehandlung zu schützen.«

Die VW-Konstrukteure versuchten damit, das Problem der seinerzeit drastisch verschärften Grenzwertvorgaben für Dieselmo-toren zu lösen. Die waren von keinem Auto-Hersteller auf der Welt erreichbar. Die Technik gab es nicht, ob sie zu einem vertretbaren Preis entwickelt werden könnte und auch funktionieren würde, war offen.

Höhere Führungskräfte hätten automatisch »Nein!« sagen müssen, als es darum ging, irgendwie die strengeren Abgasvorschriften zu erreichen. Spätestens in den Chefetagen hätte man sagen müssen: So gehts nicht! Keine Frage: Der VW-Konzern hat ein Führungsproblem.

Nun muß man immer mit berücksichtigen, dass VW politisch dominiert wurde, und dass die Gewerkschaft eine den Ausschlag gebende Rolle bei Entscheidungen spielt. Kaum zu glauben, dass der mächtige Betriebsratschef Bernd Osterloh überhaupt nichts wußte und auch nicht einschritt.

Jetzt soll alles besser werden, versprach der neue VW-Chef Herbert Diess auf der VW-Hauptversammlung an diesem Donnerstag. Er beschrieb Dieselgate als »schmerzhaften Einschnitt« und sagte, VW müsse »ehrlicher, offener, wahrhaftiger, kurz: anständiger werden«. Wenns denn nichts weiter ist.

Diess will die Konzernstruktur so verändern, dass nicht mehr alle Macht im Vorstand konzentriert ist, sondern die Markenebenen mehr Autonomie erhalten und selbst mehr Entscheidungen als bisher treffen können.

Ein wenig sanfter als der bisherige Vorstandschef Müller äußerte sich Diess zum Aufbau einer eigenen Batteriefertigung. Müller lehnte die kategorisch ab, Diess könne sie sich vorstellen, wenn die Politik entsprechende Rahmenbedingungen schaffe, sprich die nötigen Milliarden bereitstellt. Diess gibt dem grünen Affen ein wenig Zucker, sicher wissend, dass sich eine solche Fertigung in Deutschland nicht rechnet. Bosch hat nicht umsonst seine entsprechenden Pläne über den Haufen geworfen. Politik und Gewerksschaften fordern dies immer wieder, angeblich um Know how im Lande zu halten. Das Know how aber ist bereits völlig verschwunden, die Forschung wurde abgewürgt, der asiatische Vorsprung ist nicht mehr einzuholen. Außerdem rechnet sich eine Batteriefertigung auch aufgrund der hohen Energiekosten hierzulande nicht.

Man kann Dieselgate auch als selbstverschuldetes Spektakel ansehen. Jetzt fällt den Automanagern auf die Füße, dass sie sich nicht früher gegen unerfüllbare Forderungen gewehrt haben. Als die EU neue verschärfte Grenzwerte einführte, hat sich niemand in der Autoindustrie gewehrt. Im Gegenteil: VW-Manager wie Winterkorn betonten immer wieder laut: »Wir schaffen das!« Die Chefetagen ignorierten die Warnungen aus ihren technischen Abteilungen und betonten, Autos könnten noch sauberer gemacht werden. Das sei kein Problem. Das war zu jener Zeit, als NGO-Trupps wie Greenpeace im Kampf gegen das böse Auto VW in Wolfsburg auf die Dächer stieg, sich von Schornsteinen abseilte und die willfährigen grünen Medien dankbar solche Bilder sendeten.

Man muß auch an einen wesentlichen Grund erinnern: Es liegt am beschämenswerten Opportunismus vieler Manager und Unternehmen selbst. Systematisch haben sie selbst Technikängste und Wissenschaftsabneigung gefördert und bezahlt. Nicht direkt selbst, sondern meistens über ihre großen Stiftungen, die sie gegründet haben, um sich ein umweltfreundliches Mäntelchen umzuhängen. Sie haben Kreide gefressen, um den bösen Wolf gut zustimmen.

Die Sache mit Dieselgate ins Rolle brachte die undurchsichtige Nichtregierungsorganisation ICCT: Die wird aus dem Nachlass des Gründers des Computerkonzerns HP bezahlt. Dahinter steht auch die ClimateWorks Foundation, in der andere Stiftungen organisiert sind, die »etwas mit Klimawandel« machen.

Vielleicht nicht ganz unpassend unterstützt die Ford Foundation wiederum ClimateWorks und konnte so – absichtlich oder nicht – dem Konkurrenten kräftig vors Schienbein treten. Vermögensverwaltungen spendeten beträchtliche Mittel. Somit bekommt die Angelegenheit schon eher den Dreh eines handfesten Wirtschaftskrimis.

Doch unvorhersehbar war das VW-Desaster nicht. In Amerika gefallen sich Umweltbewegte im Autobashing, natürlich weniger bei eigenen Produkten. Die EPA, die amerikanische Umweltbehörde, versuchte sich unter dem ehemaligen US-Präsidenten Obama auf Kosten der deutschen Automobilindustrie zu profilieren. Obama wollte in einem seiner letzten Amtsstreiche die USA auf den Klimawandel vorbereiten, den Kohlendioxid-Ausstoß in den USA drastisch verringern und eine Führungsrolle im Klimaschutz einnehmen. Der neue Präsident Trump beendete sehr schnell dieses Spiel und ersetzte rasch das Führungspersonal in der Umweltbehörde EPA.

Obama – daran sollte man auch erinnern – wolle der »Wissenschaft ihre rechtmäßigen Platz zurückgeben« und berief in seiner Amtszeit mit John Holden ausgerechnet einen der führenden Panikmacher zu seinem wissenschaftlichen Chefberater. Holden ist ein bizarrer Physiker, der alles tun wollte, damit »Treibhausgase« reduziert werden, der auch schon mal Zwangssterilisation befürwortet und vor einem überbevölkerten Planeten warnte.

Es ist immer das gleiche Spiel: die bösen Abgase, das böse CO2. »Der Mensch«, der alles versaut. Wären da nicht die »Guten«, die alles retten wollen und dafür Spendengelder brauchen und »Staatsknete« für Umweltprojekte. Und nein, es sind nicht nur umweltbewegte Gruppen und NGOs, die durch ihre unseligen Aktivitäten die Automobilindustrie zerstören wollen. Die Autoindustrie zerstört sich selbst.
VW selbst hat einen bedeutenden Anteil daran, dass solche dubiosen Institutionen wie ein »Club of Rome« in bester Mittelaltermanier ausrufen konnte: Das Ende ist nahe – wenn, ja, wenn ihr nicht bezahlt. Die Idee des Ablasses kam wieder auf. Diesmal für die Umwelt.

So hatte VW seinerzeit eine Stiftung auf die Beine gestellt, mit 2,9 Milliarden an Kapital ausgestattet, um »Gutes« zu tun. Die Volkswagenstiftung ist heute zur größten privaten Wissenschaftsförderin in Deutschland geworden. 1961 gegründet, ist sie eine »eigenständige, gemeinnützige Stiftung privaten Rechts mit Sitz in Hannover.« Sie ist allerdings keine Unternehmensstiftung, wie sie betont.

Eine ihrer frühen »Großtaten« war die Finanzierung der »Grenzen des Wachstums«. Ältere erinnern sich: Das war jener unselige Bericht des »Club of Rome«, der den Untergang der Welt an die Wand malte, wenn, ja, wenn »wir« nicht mit Bevölkerungswachstum, Industrialisierung, Ausbeutung von Rohstoffreserven, Unterernährung und Zerstörung von Lebensraum aufhörten.

Es sind also nicht nur NGOs und Umweltbehörden, die der Autoindustrie den Garaus machen wollen. Sie tut es zu einem Teil selbst. Ihre Manager geben sich nach außen hin grüner als die Grünen selbst. In teuren Werbespots fahren leise blinkende Karossen durch blühende Landschaften, kein Lüftlein stört die Idylle, kein Hauch eines Abgases. Dabei funktioniert Verbrennung ohne Abgase nicht.
Wo aber sind die Manager mit »Hintern in der Hose«, die deutlich dem grünen Unsinn die Grenzen aufzeigen? Wo sind die Manager, die zu immer weitergehenden Abgasvorschriften laut »So nicht!« sagen? Wo sind die Manager, die deutlich auf die zentrale wirtschaftliche Rolle der Automobilindustrie hinweisen und darauf, wie sauber die Autos tatsächlich gemacht geworden sind und dass geringfügig weniger Abgase neben einem unverhältnismäßig hohen Aufwand sehr hohe Kosten für die Autofahrer mit sich bringen? Um Fragen der Gesundheit geht es dabei schon lange nicht mehr.

Niemandem scheint jetzt die Tragweite so recht klar zu sein: Wenn sich bei VW als einem der größten und wichtigsten deutschen Konzerne die Autos auf dem Hof stauen, weil sie keiner mehr kauft, bekommt nicht nur VW ein Problem, mindestens Niedersachsen, wenn nicht ganz Deutschland. Autos stehen auf Halde bei  mittlerweile fast jedem Händler. Auch denen und ihren Mitarbeitern kann es wirtschaftlich an den Kragen gehen; verschärft wird dies durch die Krise bei Banken und Leasing-Unternehmen: Die zurückkommenden Diesel-Autos sind nicht zu den ursprünglich kalkulierten Preisen weiterzuverkaufen.

Was droht dem Ministerpräsidenten Niedersachsens, der immerhin im VW-Vorstand sitzt und auch über das Desaster informiert sein mußte? Was sagt er seinen Wählern, wenn die ersten Werke geschlossen werden müßten, weil niemand mehr die Autos kauft? Im Augenblick fährt VW Rekorde ein, weil vor allem das Geschäft in China brummt.

Eine Veranstaltung der Volkswagenstiftung bezog sich einmal auf den »Burnout, Angst am Arbeitsplatz«. Es sollte besser heißen: »um den Arbeitsplatz«.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Die Probleme der Versorgung auf Tarawa.(Kiribati)

Wir hören von den kiribatischen Inseln recht wenig hier in Deutschland, deshalb möchte ich das Thema mal ein wenig erhellen. Wer die Zeitschrift MARE liest, hat vielleicht schon von der Matrosenberufsschule MTC (Marine Training Center) etwas gehört, dort war ich 1997 bis 1999 als Ausbilder tätig.

Am 16. November 2012 verzapften klimabewegte Journalisten in der ZEIT und dem Tagesspiegel, ich nenne hier nur Christiane Oelrich stellvertetend, völlig synchron Beiträge über Kiribati. Darin wird der Eindruck erweckt, daß die Inseln von Kiribati bald untergehen würden. Am 11.September 2016 legt der Tagesspiegel nochmal nach, für alle Nachzügler und solche die es schon wieder vergessen haben, diesmal von Dagmar Dehmer.

Irgendwelche Typen vom PIK haben das Gerücht in die Welt gesetzt, die Insel Bikeman wäre aufgrund des Klimawandels schon untergegangen. Das hat mir einen Lachanfall beschert und klar gemacht, wie wenig man der Presse noch trauen kann. Diese Story ist nichts weiter als eine Ente, die aber den Alarmisten gut in den Kram passt. Sie glauben, niemand in Deutschland kann das beurteilen, aber nun haben sie mich geärgert, und ich stelle das mal richtig. Also klären wir jetzt mal schnell, was Bikeman ist, und was dort passiert ist. (Die Wirklichkeit ist sogar mehrfach interessanter als die PIK – Ente.)

Das Atoll von Tarawa hat eine dreieckige Form. Es besteht aus einigen ca. 500m breiten Inseln, die aus weißem Korallengestein bestehen, und sich ca. 29 km in Ost-West-Richtung erstrecken. An der Ostecke ist das Atoll am höchsten und am massivsten, dort befindet sich im Boden auch der Rest des Vulkankegels, erkennbar an der schwarzen Färbung. Weitere schmale bewohnte Inseln erstrecken sich von dort aus in etwa gerader Linie etwa 36 km nach Nord-Nordwest. Jeder kann sich das heute auf Google Earth ansehen.

Die Westseite der Lagune wird nur durch Korallenriffe gebildet, dort gibt es kein Land. Im Riff sind jedoch Lücken, durch die auch größere Schiffe in die Lagune fahren können.

Bikeman ist als Name doppelt vergeben, ein kleines Dorf auf der Lagunenseite der zweiten Insel der Ost-West Kette von Tarawa heißt so, dessen kleiner Hafen zeigt zur Nordseite in die Lagune und liegt auf 1°20‘30“ N und 173°01‘35“ O. Ein Korallenriff in der Lagune, das dem Dorf gegenüber liegt, heißt auch ähnlich: Bikerman.

Früher gab es keine durchgehende Straße auf der Ost-West Kette, und man musste einige Zwischenräume mit Fähren überbrücken. Das war aufwendig. Schließlich wurden Dämme in das Watt geschüttet und eine durchgehende Straße gebaut, die von Betio im Westen bis zum Flugplatz in Bairiki an der Ostecke reicht. Das änderte die Strömungen in der Lagune, und die Insel Bikerman wurde ca. 1980 durch Erosion ihres Bodens beraubt und verlor ihre Vegetation, heute sieht man bei Ebbe die nackten Korallen. Wer das genauer wissen möchte, aber mindestens Dagmar Dehmer und Christiane Oelrich, soll sich das Video von Simon Donner anschauen: „The Lesson of Bikeman“. Dort werden auch geologische Grundkenntnisse zu den Atollen anwendungsreif vermittelt.

Um die Dörfer auf dem nach Nordosten gelegenen Schenkel des Atolls zu besuchen, muss man auch heute noch auf Ebbe warten und kann dann an den Durchlässen zwischen den Inseln durch das Watt laufen.

Der gesamte Ost-West Inselverkehr wird auf der Straße abgewickelt. Für den Personentransport fahren zwischen Betio und Bairiki ständig 10-20 Kleinbusse hin und her, die dort halten wo jemand den Daumen hebt oder aussteigen möchte. Die Verteilung der Personen quer zur Straße erfolgt zu Fuß, das ist auch nicht sonderlich anstrengend bei maximal 500 m Weg. Die Insel kauft Gebrauchtwagen aus Japan oder Australien, und benutzt sie, bis sie auseinanderfallen. Leider hat man dadurch sehr viele verschiedene Typen am Laufen, und die Ersatzteilbeschaffung und Unterhaltung der Fahrzeuge ist ein großes Problem. Davon zeugt der riesige Autofriedhof, wo die Karossen hinter einem Zaun vierstöckig liegen und langsam zusammenrosten.

Die Ost-West Kette hat auch ein Stromnetz und eine Wasserleitung, die einigermaßen funktionieren. Zur Stromerzeugung dient ein kleines Kraftwerk mit Dieselmotoren in Betio, Wasser wird aus flachen Brunnen gewonnen und per Hauptleitung verteilt. Die Wassergewinnung ist ein Engpass, weil man die Brunnen nicht tiefer als 2-3 m bohren kann, dann kommt man vom versickerten Regenwasser in das Salzwasser.

Die gesamte Zufuhr von Energie zum Atoll erfolgt mit einem kleinen Tanker, der dort alle 14 Tage Dieselöl und Benzin anlandet, welches in einem Tanklager in Betio gespeichert wird. Da der Strom mit teurem Dieselöl erzeugt werden muss, sind die Stromrechnungen für die Einheimischen ziemlich happig. Die Dörfer auf dem Nordflügel des Atolls sind nicht an das Stromnetz angeschlossen, und arbeiten dezentral mit Solarzellen und Akkus. In den Tropen ist ja immer pünktlich 18 Uhr Sonnentergang, mit ihren Akkus hatten die Bewohner im Jahre 1999 am Abend noch etwa bis 21 Uhr Licht.

Man muß zugeben, daß der Transport auf dem Atoll ziemlich teuer ist, denn der Gebrauchtwagenpark macht viele Scherereien und hat große Ausfallzeiten, und das Benzin muss über See herangeschippert werden. Mit meinen damaligen Lehrerkollegen gab es auch oft Diskussionen darüber, doch deren Unzufriedenheit hielt sich erstaunlich in Grenzen. Das hatte zwei Gründe: erstens hatten Sie keinen Vergleich, was die Kosten woanders anbelangt, und zweitens machte ihnen das Autofahren Spaß.

Aus reiner Freude am Fabulieren hatten wir damals schon mal eine Platte „Nachhaltigkeit“ aufgelegt, und uns folgendes Konzept ausgedacht: Parallel zur Straße wird eine schmalspuriges Gleis gebaut, und es werden elektrische Züge eingesetzt. Um die Oberleitung zu sparen, werden Akkus benutzt, die an den Endhaltestellen getauscht werden. Die Aufladung erfolgt mit Solarzellen, denn nichts scheint zuverlässiger als die Sonne auf Kiribati, exakt von 6 Uhr morgens bis 18 abends das ganze Jahr, denn Winter gibt es am Äquator nur im Kalender. Durch die Nutzung von Eisenbahntechnik und die fehlenden Steigungen auf dem flachen Atoll kann man mit sehr kleinen Motorleistungen auskommen, verglichen mit den Kleinbussen. Die Bedingungen auf Tarawa sind die besten auf der Welt, um einen öffentlichen Personenverkehr mit Solarantrieb aufzubauen. Falls der Strom an den wenigen Regentagen mal nicht reicht, muss man eben ein wenig Strom vom Dieselkraftwerk abnehmen. Wenn das Konzept hier nicht geht, dann geht es nirgendwo auf der Welt.

Weil der damalige Verkehrsminister im Haus neben mir wohnte, konnte ich die Idee mal bei einem Bier äußern. Aber das Autofahren als Hauptvergnügen war den Kiribatis so wichtig, daß meine Idee glatt verworfen wurde. Verständlich, denn außer ein paar lokalen Fußballspielen und zwei Videotheken war nicht viel los. Am Wochenende fuhr man mit Lastwagen quer über die Insel, auf der Ladefläche sitzend, singend, und grillte schließlich an einem Strand, der weit weg vom eigenen Haus gelegen war, damit die Autofahrt nicht zu kurz geriet und man sich im Fahrtwind abkühlen konnte. Mit einer elektrischen Eisenbahn wäre das vielleicht nur halb so schön. Ich denke, solange hier der Spaß noch im Vordergrund steht, sollte man nicht versuchen, den Kiribatis vorzuschreiben, wie sie ihre Transporte organisieren sollen.

Wenn man den Beitrag von Simon Donner aufmerksam angeschaut hat, weiß man nun: die Inseln können weder durch ihr eigenes Absinken noch durch aktuelle Anstiege des Pegels untergehen, weil Korallen 15 mm pro Jahr in die Höhe mitwachsen.

Alle wirklichen Probleme, also der teure Strom und Transport und das knappe Wasser, resultieren nur aus der Überbevölkerung des Hauptstadt-Atolls, wegen der Konzentrierung der kiribatischen Bevölkerung auf Tarawa. Das hat einen sozialen Hintergrund: Die jungen Leute nutzen jeden noch so seichten Grund, von anderen Inseln nach Tarawa zu reisen, und so lange wie möglich dort zu bleiben, um ihren Häuptlingen zuhause zu entkommen. Auf den sogenannten „Outer Islands“ herrscht nämlich ein strengeres Regime.

#




Betrüge­rische, politi­sierte Daten kontami­nieren Wissen­schaft

Wood und Randall betonen die Gefahr für die Öffentlichkeit, die aufkommt, wenn Politiker wissentlich oder unwissentlich Rosinenpickerei mit nicht validierten Forschungsergebnissen betreiben, die zu ihren speziellen Agenden passen. Sie ordnen diese Nicht-Reproduzierbarkeit Wissenschaftlern zu, welche künstlich eine statistische Signifikanz aus verrauschten Daten fabrizieren, die schlechte Entscheidungen treffen hinsichtlich geeigneter Forschungsverfahren und die empfänglich sind für Druck und Versprechungen, welche ihre Schlussfolgerungen verzerren.

Im Besonderen merken die Autoren an: „Die gesamte Disziplin der Klimawissenschaft ist ein Mischmasch unzuverlässiger Statistiken, willkürlichen Forschungsverfahren und politisiertem gleichgeschaltetem Denken“. Ich selbst möchte hier etwas hinzufügen, was noch schlimmer ist: Die Regierung ist der oberste Sponsor, Hauptverursacher und Verbraucher dieses pseudo-wissenschaftlichen Morastes.

Beispiel hierfür: im Februar vorigen Jahres berichtete ich darüber, dass der ehemalige NOAA-Wissenschaftler Dr. John Bates aktenkundig gemacht hatte, dass die NOAA wissentlich „nicht verifizierte“ Temperaturdaten bzgl. globaler Erwärmung veröffentlicht hatte zum Zwecke der Beeinflussung politischer Agenden, welche von der Obama-Regierung dann bei der Klimakonferenz in Paris hervorgehoben worden waren.

Ziel war es, einen globalen Vertrag auf den Weg zu bringen, dem zufolge fortgeschrittene Nationen sich verpflichten, ihren Verbrauch fossiler Treibstoffe zu reduzieren, flankiert von gewaltigen Ausgaben für Hilfsprojekte mit Klimabezug.

Der Whistleblower Bates warf seinem ehemaligen Chef Thomas Karl vor, „auf Entscheidungen und wissenschaftlichen Machenschaften zu bestehen, welche Erwärmung maximieren und ordentliche Dokumentation minimieren … in dem Bemühen, das Vorhandensein eines Stillstands der globalen Erwärmung zu diskreditieren, so dass er Veröffentlichungen zeitlich so abstimmen konnte, dass nationale und internationale Überlegungen bzgl. Klimapolitik beeinflusst werden können“.

Der betrügerische Report von Karl widersprach sämtlichen Messungen via Satelliten und Instrumenten flach verlaufender Temperaturen zwischen 1998 und 2013. Er gipfelte in der Behauptung, dass ein „Stillstand“ oder eine „Verlangsamung“ der globalen Temperaturen niemals existierte und dass die Temperaturen weltweit sogar stärker steigen als erwartet. Bates präzisierte seinen Vorwurf dahingehend, dass die Modelle zur Abschätzung der Festlands-Temperaturen wohlbekannt waren für verheerende Software-Fehler.

Die NOAA hat sich ähnlicher Tricksereien bedient, um alarmistische Projektionen des Meeresspiegel-Anstiegs zu verbreiten. In Wirklichkeit ist der Meeresspiegel ohne Beschleunigung mit einer Rate von etwa sieben Inches [ca. 18 cm] pro Jahrhundert gestiegen, bevor im Zuge der industriellen Revolution Rauchfilter und SUVs eingeführt worden sind.

Inzwischen hat die Organisation unerschütterlich Forderungen abgeblockt nach erhärtenden Forschungen, Beweisen und damit im Zusammenhang stehende Kommunikationen … sogar gegenüber dem Kongress.

Der damalige Leiter des Science, Space and Technology-Komitees im Weißen Haus Lamar Smith (Republikaner) sagte: „Es war sehr unbequem für die Obama-Regierung, dass die Klimadaten eindeutig keine Erwärmung während der letzten zwei Jahrzehnte gezeigt haben. Das amerikanische Volk hat alles Recht der Welt Verdacht zu schöpfen, wenn die NOAA Daten manipuliert, um politisch korrekte Ergebnisse zu erhalten, und wenn sie es danach ablehnt zu erklären, wie und warum diese Entscheidungen getroffen worden sind“.

Zusammen mit der NOAA hat das Goddard Institute for Space Studies (GISS) der NASA, eine kleine, politisch geschützte Klimamodellierungs-Agentur in einem Bürogebäude in Manhattan, ebenfalls eine zweifelhafte Historie statistisch unhaltbaren globalen warmongering* an den Tag gelegt.

[*Warmongering {war-mongering} bedeutet laut LEO ,Kriegshetze‘. Vermutlich ist hier aber ein unübersetzbares Wortspiel gemeint wie etwa ,warm-ongering‘. Anm. d. Übers.]

Das GISS ist weithin bekannt für alarmistische Schlagzeilen, welche für die Medien so interessant sind. Darunter sind Behauptungen wie „NASA warnt vor heißestem Tag, Monat oder Jahr“ auf der Grundlage manipulierter Temperaturdaten und künstlich geschaffener Zeitintervalle, um die Vergangenheit kälter darzustellen als sie war, um die derzeitigen Temperaturen wärmer erscheinen zu lassen als sie sind.

In der Realität zeigen Radiosonden-Messungen der Erdatmosphäre trotz gestiegener atmosphärischer CO2-Niveaus seit Ende der fünfziger Jahre keine signifikante Erwärmung. Der einzige alarmistische Trend findet sich in einer politischen Wissenschaft bzgl. Klima … eine, in der vom Menschen verursachte Änderungen dringend überfällig sind.

Jetzt endlich zeigt sich aber diesbezüglich ein erster Silberstreifen am Horizont. Im vorigen Monat hat der neue Chef der EPA Scott Pruitt versprochen, der von dieser Institution betriebenen „geheimen Wissenschaft“ möglichst rasch ein Ende zu bereiten und kostspielige und kontraproduktive Umwelt- und Energievorschriften abzuschaffen. Er sagte der Daily Caller News Foundation: „Wir müssen sicherstellen, dass die Daten [der Institution] sowie deren Verfahren veröffentlicht werden. Anderenfalls gibt es keine Transparenz. Es wurde nicht objektiv gemessen, und das ist der Punkt“.

Prof. Emeritus der Meteorologie Richard Lindzen vom MIT unterstreicht die Dringlichkeit, die Politik aus der Wissenschaft zu vertreiben. Anderenfalls, so fürchtet er, „werden sich die Historiker einst definitiv fragen, wie tief betrügerische Logik, verschleiert durch eine verdrehte und unerbittliche Propaganda, es einer Koalition mächtiger Spezialinteressen ermöglicht hat, nahezu alle Menschen weltweit davon zu überzeugen, dass CO2 aus der menschlichen Industrie ein gefährliches, den Planeten zerstörendes Gift sei. Es wird als der größte Massenwahn der Historie der Welt in die Annalen eingehen – dass CO2, die Lebensgrundlage der Pflanzen, eine ganze Weile für ein tödliches Gift gehalten wurde“.

Die politische Vergiftung der Wissenschaft andererseits gibt zu echten Sorgen Anlass.

Wir schulden der gegenwärtigen und zukünftigen Generationen viel erhabenere Standards.

Link: http://www.cfact.org/2018/04/30/feds-flawed-politicized-data-pollutes-science/

Übersetzt von Chris Frey EIKE




Der April stagniert auf einem hohen Temperaturniveau.

Wir wollen diesen April ganz nüchtern in eine längere Zeitreihe einordnen und daraus Rückschlüsse ziehen über eine mögliche Zukunftstemperaturentwicklung dieses Monats.

Zunächst einmal fragen wir uns wie sich die ersten vier Monate des Jahres in den letzten 30 Jahren entwickelt haben. Das zeigt uns die erste Grafik.

Grafik 1: Temperaturentwicklung der ersten vier Monate über die letzten 30 Jahre. Erstaunlich: Eine leicht fallende Trendlinie aber kein signifikanter Trend. Vor 31 Jahren, also 1988 war der Schnitt der vier Monate gleich wie 2018. Der warme April 2018 war also lediglich ein Ausgleich auf die Kälte der beiden Vormonate.

Halten wir fest: Der diesjährige warme April gleicht lediglich die Kälte der Vormonate aus.

Dieser Artikel jedoch will den Monat April beschreiben, der heuer zu Monatsanfang schon bald sommerlich war, und die Aprilblüher der Reihe nach vorzeitig zum Blühen erweckte. Wir fragen uns: Wo ordnet sich der April in einer Langzeitreihe ein, ist er tatsächlich „zu warm“ gewesen, wie der Deutsche Wetterdienst (DWD) regelmäßig behauptet? Steht ein erneuter Hitzerekord noch bevor oder haben wir mit 2018 den Wärmehöhepunkt der Schwingung erreicht? Die nächste Grafik soll uns diese Frage anhand einer 228-jährigen Langzeitreihe des Hohenpeißenberges beantworten: Der HPB im Voralpenland ist ein Vorzeigeberg des DWD und die Wetterstation, anfangs noch bei einem Kloster an höchster Stelle situiert, ab 1934 wurde der Standort der Wetterstation allerdings durch bauliche Maßnahmen in ein DWD-Zentrum verlegt und wärmend verändert, so dass die Werte der letzten Jahrzehnte aufgrund der Standortveränderung geringfügig höher sind im Vergleich mit dem früheren kälteren Standort. Trotzdem ist die Grafik erstaunlich.

Grafik 2: Wo ist die stets behauptete Klimaerwärmung, vor der wir uns in Acht nehmen müssten? Bereits zu Goethes Zeiten im Jahre 1800 war der April ähnlich warm wie 2018. Die letzten 35 Jahre lagen lediglich über dem Schnitt. Auffallend ist ab 1982 einen deutlicher Temperatursprung. Vor allem gibt es seitdem keine kalten Aprilmonate mehr.

Wie es zukünftig weitergeht mit den Apriltemperaturen, weiß niemand, da CO2 in den letzten 200 Jahren beim Apriltemperaturverlauf auf dem HPB keinerlei wärmende Wirkung zeigte. Es handelt sich um einen Temperaturschwingungsverlauf, deren vielerlei Ursachen die Klimawissenschaft noch klären muss. Die Abkühlung der ersten 140 Jahre des Betrachtungszeitraumes ist schon gar nicht erklärbar durch Kohlendioxid. Noch in keinem einzigen Versuch konnte diese angebliche CO2-Erwärmungswirkung in dem fraglichen Konzentrationsbereich gezeigt werden. Eine quantitative Bestimmung der CO2-Klimasensitivität gibt es nicht. Schon der Begründer des CO2-Erwärmungsglaubens, Svante Arrhenius hatte deshalb entnervt seine Hypothesen aufgegeben. Doch falsche Glaubenseinstellungen halten sich auch in der Wissenschaft hartnäckig, vor allem, wenn sie zu einem Geschäftsmodell und damit Selbstbedienungsladen für deren Anhänger geworden sind.

Aprilbetrachtung kürzerer Zeiträume: die letzten 76 Jahre

Der April hat eine ausgeprägte Temperaturschwingung. Das wird uns die nächste Grafik nach den Daten des Deutschen Wetterdienstes für den Deutschlandschnitt zeigen:

Grafik 3: Auch die Temperaturkurve des Monates April verläuft nach dem Krieg nicht gleichmäßig, sondern in Form einer Wellenlinie. Während des Krieges war der Monat wärmer, dann ging er in eine allmähliche Abkühlung über bis 1981. Nach einer erneuten Erwärmung mittels eines Temperatursprunges ab 1981 erreichte der Monat dann 2009 und 2018 Temperaturhöhepunkte. Doch wie wird es weitergehen?

Der April macht also keinesfalls was er will, sondern er folgt genauso wie die anderen Monate einem vorgegebenen Schwingungsverlauf. Er hatte erst 1975 seine Kältedepression und nicht um die Jahrhundertmitte wie die meisten anderen Monate. Seitdem wurde er deutlich wärmer. Momentan sind wir auf einem Temperaturberg.

Wie aus dem Temperaturverlauf der Deutschlandgrafik 3 leicht ersichtlich ist, zeigt der Frühlingsmonat deshalb über die letzten 30 Jahre immer eine deutlich steigende Tendenz, da die gegenwärtigen Aprilmonate noch deutlich über der Kaltphase um 1975 liegen und angenehm wärmer sind. Ein Hinweis sei uns gestattet: Der DWD-Vergleichszeitraum von 1961 bis 1990 füllt genau diese Kaltphase aus. Ironischerweise wird dieses Kälteloch dann als „Normaltemperatur“ in den DWD-Veröffentlichungen bezeichnet. Fast jeder April kann uns somit amtlicherseits als „zu warm“ und als Fortsetzung der Klimaerwärmung verkündet werden. Ein Kälteloch als Normalzustand! Welcher Irrsinn.

Das neuzeitliche Wärmeplateau besteht seit 16 Jahren

Grafik 4: Seit 16 Jahren zeigt der April laut den DWD-Daten einen ausgeglichenen Temperaturverlauf in Deutschland. Anzumerken ist, dass der Schnitt mit 9,3°C deutlich über dem kalten DWD-Vergleichsschnitt von 1961 bis 1990 liegt. Wir befinden uns derzeit auf einem relativ warmen April-Temperaturplateau. Es gab schon Maimonate die kälter waren als der Schnitt der letzten 16 Jahre.

Wärmeinseleffekt – im April besonders hoch?

Die Temperaturaufzeichnungen des Deutschen Wetterdienstes sind jedoch nicht wärmeinselbereinigt. Aufgrund der ständigen Bebauung und der sich fortsetzenden weiteren Urbanisierung in die Natur hinein steigt der Temperaturunterschied zwischen Stadt und Land weiter an, was jedermann leicht mit dem Autothermometer überprüfen kann. In früheren Artikeln haben wir gezeigt, dass diese Stadt-Land Temperaturunterschiede in den Monaten April bis Juni wegen des Sonnenstandes auch besonders hoch sind:

Grafik 5: In der CLINO- Normalperiode von 1981 bis 2010 gefundene UHI- Differenzen in Kelvin, gebildet aus den Mitteln dreier urbaner Stationen in Berlin und dreier ländlicher Stationen in Brandenburg. Hohen, verstädterungsbedingten Differenzen von über 0,8 K im April stehen geringere im Spätsommer/Frühherbst gegenüber. Die jahreszeitlich bedingten UHI- Effekte sind in Berlin eng mit geänderten Sonnenscheinverhältnissen und Großwetterlagenhäufigkeiten verknüpft.

Der April 2018 zeichnete sich durch viele sonnenscheinreiche und windschwache Hochdruckwetterlagen aus, was ideal für deutliche WI-Effekte ist. Allerdings dürfen die Resultate aus Berlin weder auf andere Großstädte noch zeitlich in die Zukunft projiziert werden. In Thüringen deutet sich aber ebenfalls eine stärkere Erwärmung in den Städten an:

Grafik 6: Stärkere April- Erwärmung an der Innenstadt-Station Jena-Sternwarte im Vergleich zum ländlichen, etwa 50 Km entfernten Dachwig. Beide Stationen haben fast die gleiche Höhenlage; die 2018er Werte lagen noch nicht vor. Dachwig-Werte leider erst seit 1991 verfügbar.

Wärmeinseleffekte dürfen nicht losgelöst von der Sonnenscheindauer betrachtet werden; beide bedingen einander. Einerseits treten WI-Effekte überhaupt nur bei sonniger Witterung markant in Erscheinung; andererseits vermindern Versiegelung, Entwässerung und fehlende Vegetation die kühlende und für Wolken- und Nebelbildung erforderliche Verdunstung. Der April wurde im DWD- Mittel vor allem deshalb wärmer, weil die Sonnenscheindauer merklich zunahm:

Grafik 7a: Mehr Aprilsonne bedeutet auch mehr Aprilwärme – mit wenigen Ausnahmen.

Die Sonnenscheindauer erklärt in diesem Betrachtungszeitraum (DWD-Mittel leider erst seit 1951 verfügbar) immerhin etwa 30% der Variabilität der Apriltemperaturen; ein weiterer Faktor, der auch WI-Effekte verstärken könnte, sind geänderte Großwetterlagenhäufigkeiten:

Grafik 7b: Seit 1980 liegen die Daten der Objektiven Wetterlagenklassifikation des DWD vor. Besonders stark kühlend wirken die in der Höhe zyklonalen Wetterlagen, welche seit 1980 deutlich seltener auftraten. Damit lassen sich 50% der Variabilität der Apriltemperaturen erklären.

Ausführliches zu den weiteren Ursachen der April- Erwärmung finden Sie bei https://eike.institute/2018/04/28/der-sehr-milde-april-2018-und-die-angebliche-klimaerwaermung-kein-traumpaar/

Um deshalb einen wirklichkeitsnäheren Klimaverlauf des Monates April über einen längeren Zeitraum besprechen zu können, müssen wir die DWD-Temperaturreihen entweder um einen Wärmeinselfaktor korrigieren, die Sonnenscheindauer und Wetterlageneinflüsse eliminieren oder auf ländliche Stationen zurückgreifen, deren weite Umgebung sich weniger verändert hat als der Gesamtschnitt Deutschlands. Eine solche Station wäre Dittersdorf bei Amtsberg im Erzgebirge in Sachsen. Der Stationsleiter hat uns gegenüber betont, dass außer dem Straßenneubau in dem kleinen Teilort wenig an erwärmenden baulichen Veränderungen dazugekommen wäre. Wir vergleichen die Apriltemperaturen der Gegenwart, also den Temperaturwellenberg, auf dem wir uns befinden.

Grafik 8: Wärmeinselarme Stationen wie Amtsberg im Erzgebirge, dessen Umgebung sich in dem Betrachtungszeitraum kaum verändert hat, zeigen bereits seit 20 Jahren wieder eine leichte April-Abkühlung. Auch in diesem kleinen Ort war wie im Deutschlandschnitt 2018 der wärmste April.

Ergebnis: Wärmeinselarme ländliche Stationen haben den Temperaturhöhepunkt bereits überschritten, obwohl 2018 auch dort der wärmste gemessene April war.

Ein Blick in die USA: Deutschland ist nicht die Welt. Der Aprilverlauf in der ältesten Wetterstation in Virginia/USA zeigt diesen gänzlich anderen Verlauf. Es fehlt das ausgeprägte Schwingungsverhalten der Apriltemperaturen Deutschlands. Und im Gegensatz zu Deutschland war der April 2018 im Osten der USA ziemlich kalt, besser gesagt, bei dieser Station der neunt kälteste seit 139 Jahren.

Grafik 9: An der Ostküste der USA in Virginia verläuft der Monat April in der ländlichen Gegend in geordneten Bahnen. Es handelt sich um die älteste Klimastation Virginias. Außer den 2 Ausreißern vor über 100 Jahren haben sich die Temperaturen stabilisiert. Wo ist die Klimaerwärmung des Monates April auf dem Lande in Amerika? Der Verlauf von Washington-City sieht freilich anders aus.

Seit 1981 liegen die Aprilwerte des WI- belasteten Washington vor, so dass sie mit dem ländlichen Dale Enterprise verglichen werden können:

Grafik 10: Ähnlich wie in Deutschland erwärmte sich das WI-belastete Washington; das ländliche Dale Enterprise kühlte minimal ab. Der kalte April 2018 fehlt noch in der Grafik.

Im Gegensatz zu Deutschland war der April 2018 in vielen Staaten der USA der kälteste seit Aufzeichnungsbeginn. Siehe hier:

https://wattsupwiththat.com/2018/04/26/likely-coldest-april-since-1895-u-s-farmers-delay-planting-crops/

Nebenbei: Wie macht das CO2 das nur? Hier in Mitteleuropa wärmt es, in den USA kühlt es. Ein echter Tausendsassa?

Abschließend noch ein Blick nach Zentralengland, wo der April gleichfalls um 1975 tendenziell kühler war. Dort fiel der 2018-er April zwar auch zu mild aus, doch weit entfernt von neuen Rekorden. Seit 1940 erwärmte sich dort der April im Gegensatz zu Deutschland kaum:

Grafik 11: Fast keine April- Erwärmung in England (orange) seit 1940. Der 2018er April blieb dort deutlich hinter den wärmsten Monaten der 1940er und der späten 1980er bis der frühen 2010er Jahre zurück.

Kampf der Klimaerwärmung: Welche Erwärmung?

Der Leser möge sich gerne die Frage stellen, wie warm die aktuell gemessenen Temperaturen tatsächlich wären, wenn Deutschland sich seit über 130 Jahren überhaupt nicht verändert hätte, also die gleiche Bevölkerungszahl wie im Kaiserreich, eine dünn besiedelte Landschaft, die gleiche primitive Lebensweise, sowie kalte Häuser mit einer Ein-Zimmerheizung in viel kleineren Städten, und wenn die Messstationen am gleichen kalten Ort wie früher stünden: Neben fast unbeheizten Klöstern, bei den Fischteichen in den kühlenden Feuchtwiesen rund um die Städte oder bei Förstern am Waldrand. Letztere stehen heute auf Flugplätzen an den Landebahnen der heißen Abgase, bei Einkaufszentren an den warmen Parkplätzen oder in den entstandenen Siedlungen der Vorstädte und werden oft sogar noch unter demselben Namen geführt. Der größte Teil der Erwärmung seit 130 Jahren ist zwar menschengemacht, aber nicht CO2 bedingt, sondern eine zunehmende Wärmeinselwärme. Und die wollen wir nicht bekämpfen. Der Wohlstand muss vielmehr gehalten werden.

Fazit:

  1. Der April zeigt einen ausgeprägten Temperaturschwingungsverlauf mit einer Kaltphase vor 50 Jahren. Seitdem wurde der Monat wärmer.
  2. Momentan hat er seinen oberen Wendepunkt erreicht. Seit 16 Jahren stagnieren die Temperaturen auf einem angenehmen warmen Niveau, das bereits Maiqualität hat.
  3. Der April hat allerdings außerhalb der Wärmeinseln seit fast 25 Jahren einen auf hohem Temperaturniveau stagnierenden Verlauf in Deutschland.
  4. Wegen des hohen Temperaturniveaus starten die April-Blüher früher wie noch vor 50 Jahren in der Kaltphase. Der April ist momentan zum eigentlichen Blütenmonat geworden, da sich auch die Märzen-Blüher noch fast alle zeigen.

Kein warmer Ausblick für den Monat April?

Aus den Temperaturdiagrammen, insbesondere der Grafik 3 ist ersichtlich, dass der Monat April der einzige der ersten vier Monate ist, der in den letzten 30 Jahren noch immer eine steigende Trendlinie hat, er wurde wärmer, aber seit 16 Jahren stagniert die Trendlinie auf einem hohen Niveau. Doch was gilt für die Zukunft? Wir wünschen uns alle einen schönen Frühling, der wie Balsam auf unsere Seelen wirkt. Doch leider deutet wenig darauf hin. Die Jahrzehnte angenehm steigender Apriltemperaturen ab 1975 könnten bald ein Ende finden, wenn man die AMO und die nachlassenden Sonnenflecken als Indikator heranzieht.

Die Atlantische Multidekaden-Oszillation (Abkürzung AMO; engl. atlantic multidecadal oscillation) ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird.

Grafik 12: Das Diagramm des Klimaforschers Stefan Kämpfe zeigt: Mit dem Ende der aktuellen AMO-Warmphase, dessen genauer Eintritt freilich nicht exakt vorhergesagt werden kann, könnte auch für den Monat April ein Temperaturrückgang einsetzen, und der deutet sich (möglicherweise) schon an. Auch wegen des Wärmeinseleffektes sind die Apriltemperaturen der letzten 20 Jahre noch auf einem hohen Niveau. Die AMO-Werte für April 2018 liegen noch nicht vor.

Ergebnis: Bereits seit 30 Jahren haben die ersten vier Monate des Jahres laut DWD-Daten eine leichte, allerdings nicht signifikante Tendenz zur Abkühlung. Doch diese Daten des DWD sind nicht wärmeinselbereinigt. Außerhalb der Städte, insbesondere in der freien Natur ist die Abkühlungstendenz bereits deutlich.

Kohlendioxid kann deshalb entweder gar keine und kaum eine erwärmende Funktion haben. Andere Faktoren bestimmen das Klima. Diese herauszufinden und vor allem das ständige Wechselspiel zu begreifen ist eine Aufgabe der seriösen Klimawissenschaft, zu der wir uns bekennen.

Es wird Zeit, dass endlich wieder der Natur- und Umweltschutz in den Mittelpunkt des Handelns gestellt werden. Saubere Luft, gesundes Wasser und eine Landschaftsvielfalt wären ein erstrebenswertes weltweites Ziel.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Zum deutschen Misanthropen-Tag

„Ressourcen für 2018 bereits verbraucht“, berichtete die Tagesschau gestern, „Deutschland hat laut Klimaschützern einen zu großen ökologischen Fußabdruck. Demnach haben wir die natürlichen Ressourcen, die uns für 2018 zur Verfügung stehen, bereits verbraucht – und leben ab morgen „auf Kredit“ künftiger Generationen“.Dieser Quatsch wird mit bemerkenswerter Unbelehrbarkeit und wissenschaftlicher Tarnung jedes Jahr wieder verkündet.

Dahinter steckt ein ebenso einfacher wie falscher Gedanke. Ich habe es hier schon mehrmals geschrieben, aber man muss es wohl aus pädagogischen Gründen öfter wiederholen. Also the same procedure as every year:

Der „ökologische Fußabdruck“ ist laut seiner ideologischen Konzeption umso größer, je mehr Ressourcen ein Land pro Kopf seiner Bewohner verbraucht. Wenn man beispielsweise den Energiekonsum betrachtet, haben die Amerikaner die größten Füße, Europäer und Japaner liegen im Mittelfeld. Die kleinsten Füße haben die Bewohner der Entwicklungsländer.

Doch nach Ansicht der Klimaschützer sollen künftig alle gleich große Füße haben. Hans Joachim Schellnhuber vom Potsdam-Institut für Klimafolgenforschung  sagt beispielsweise: „Jeder Erdenbürger und jede Erdenbürgerin hat exakt den gleichen Anspruch auf die Belastung der Atmosphäre.“

Die Waren- und Energieströme einer globalisierten Welt entziehen sich aber einfachen Aufrechnungen. Die Ressourcen, die da in den reichen Nationen verbraucht werden, sind ja oft Rohstoffe, auf deren Export die Entwicklungsländer dringend angewiesen sind. Bananen werden nicht zu uns gezaubert, sondern mit Schiffen und Lastwagen transportiert.

Verzichten die Europäer zugunsten des heimischen Apfels, bleiben Südamerika oder Afrika auf ihren Bananen sitzen. Umgekehrt mag ein europäischer Pharmaforscher mit seiner Arbeit einen großen „ökologischen Fußabdruck“ hinterlassen, das Ergebnis – etwa ein neues Medikament – kommt aber Menschen in aller Welt zugute.

Die Armen noch ärmer machen!

Auch das Ende des Ferntourismus wäre für viele arme Länder eine Katastrophe. Genau wie die vagabundierenden Kapitalströme gibt es auch immer mehr vagabundierende Energie, die sich nicht so ohne weiteres einem Land zuordnen lässt. Das beste Beispiel ist der Flugverkehr. Nach dem Konzept des „ökologischen Fußabdruckes“ schädigt ein indischer Geschäftsmann, der nach Deutschland fliegt, die Umwelt erheblich weniger, als ein deutscher Geschäftsmann, der nach Indien fliegt. Das ist auf den ersten Blick absurd – und auf den zweiten auch.

Keine Fernflüge mehr! Keine billigen Konsumgegenstände aus Asien! Keine exotischen Früchte! Wenn die Reichen von heute darauf zugunsten künftiger Generationen verzichten, so werden die Armen von heute noch ärmer, weil sie uns noch nicht einmal mehr ihre Rohstoffe, landwirtschaftlichen Produkte, Naturschönheiten oder billige Arbeitskraft verkaufen können. Ist es wirklich ein Zeichen höherer Moral, das Elend lebender Generationen in Kauf zu nehmen, um künftige Generationen zu schützen?

Der Pfarrer und Ökonom Thomas Malthus legte vor über zwei Jahrhunderten die Grundlagendieses  Denkens, das den Menschen zur Plage des Planeten erklärt hat. Bis heute können sich viele Gutmeinende von diesem Denken nicht befreien. Sie erkennen leider nicht den antihumanen Hintergrund dieser Denkfigur.

Und jetzt noch ein ganz anderer Gedanke. Wenn Deutschland bis gestern alle ihm zustehenden Ressourcen verbraucht hat, dann geht dies ausschließlich auf das Konto des Staates. Wie das? Nun, der Steuerzahhler-Gedenktag ist erst im Sommer. Bis dahin arbeiten Deutschlands Werktätige ausschließlich für den Staat.

Nach Berechnungen des Bundes der Steuerzahler arbeiten die Bürger und Betriebe beispielsweise im vergangenen Jahr erst ab dem 1.Juli Uhr wieder für ihr eigenes Portemonnaie. Das gesamte Einkommen, das die Steuer- und Beitragszahler vor diesem Datum erwirtschaftet haben, wurde rein rechnerisch an den Staat abgeführt.

Der Beitrag erschien zuerst bei ACHGUT hier




Heute ist der Tag der Pressefreiheit!

Zum heutigen Tag der Pressefreiheit wird die Praxis dazu an vielen Orten dieser Welt mit Recht beklagt. Diese Art der Einschränkung von freier Meinungsäußerung, und in Folge davon versuchte und manchmal erfolgte Meinungsbildung kenne ich (84) noch aus dem Hitlerismus und Sowjet-Zonen-Kommunismus. Aber diese Praxis ist von gestern. Es geschah damals  hier in Deutschland während verhältnismäßig kurzer Zeitepochen. Heute bedient man sich anderer Methoden, die viel mehr Zeit erfordern und auf Gestapo und Stasi verzichten können, und: sie sind „nachhaltig“, wobei diese Leervokabel in diesem Zusammenhang erst- und einmalig ihren Sinn erfüllt.

 

Heute gibt es stattdessen den virtuellen, rhetorischen, medialen Pranger, der mit unzähligen, jahrelangen Wiederholungen von (demagogischen) Wortkombinationen, entsprechendem Framing und euphemistischen Redewendungen daherkommt, aber auch sehr oft nur mit simplen Weglassungen, es entstehen dadurch beim Publikum Wissenslücken, was wegen des phonetischen Wortklanges den Begriff „Lügenpresse“ hat entstehen lassen.

 

Gewiß: diese Reaktionen passieren erst dann, wenn vorher Kritisches gesagt wurde. Gewiß: das darf man sagen. Aber was ist die Reaktion?

Ein Dauer-bashing in allen Kanälen wird losgetreten oder entsteht. Pamphlet übertrifft Pamphlet – eine Inflation leerer Worthülsen: Populist, Rechtsextremist, ewig Gestriger, nicht weltoffen, bunt statt braun, Menschenverachter, Nazi, Hetzer, Rassist, Klimaleugner und-und-und.

Heute heißt die Methode „Perfidie“ (in Bayern würde man sagen „hinterfotzig“) in allen Schattierungen. „Lächerlich-machung“ gehört auch dazu.

 

Das Thema „Klima“ ist ein gutes Beispiel: Dauerwiederholungen: „klima-schädliches CO2“; 2°-Ziel,  Klimakatastrophe usw… alles physikalisch unhaltbare Aussagen, die aber gewaltige Kosten für den Bürger nach sich ziehen. Zum Fenster raus. Und: die Pressefreiheit, dann die Freiheit insgesamt sind in Gefahr.

Kurz: es wird die Karriere oder der Ruf von wirklichen Experten und/oder Multiplikatoren ruiniert; nicht mehr Leib und Leben zwar; aber in einer Wohlstandsgesellschaft ist das hoch wirksam.

 

Oder: ich kenne einen Fall, über den auch der renommierte Journalist Günter Ederer berichtete, in dem eine Person in einem Nachbarstaat Asyl bekam, weil in Deutschland ein Prozesse lief, in dem diese Person eine Werbeaussage über Solarthermie als Schwindel entlarvte – und daraufhin juristisch so beschossen wurde, daß dieser Person keine andere Wahl blieb als die Flucht. Hierüber wäre eine bundesweite, lang anhaltende Berichtertattung Pflicht. War aber nicht.

 

Oder: eine Promotion zum Thema „Problematik zur Feststellbarkeit/Messgenauigkeit einer mittleren Erdtemperatur“. Diese fertige Promotion wurde unter fadenscheinigsten und unanständigsten Gründen verhindert. Man informiere sich hierzu bei „Europäisches Institut für Klima und Energie“. Auch dieser Skandal gehört ausführlich berichtet und beleuchtet – ist aber nicht.

 

Oder: ich selbst wurde auf einer Veranstaltung der Uni Dortmund zum Thema „Fakes in der Wissenschaft“ rüde daran gehindert, einen Diskussionsbeitrag zu geben, sofort in dem Moment, als ich öffentlich das Wort „Klima“ ausgesprochen hatte. Mir wurde quasi das Mikrophon aus der Hand gerissen.

 

Oder recherchieren Sie, was z.B. der Medienwissenschaftler Prof. Bolz, oder die Journalisten Herr Tichy, Herr Herles, Peter Hahne, die Moderatorin E. Hermann mit ihrer geradezu unglaublichen Geschichte, V. Lengsfeld und viele, viele andere Experten mehr, zur Pressefreiheit zu sagen haben. Machen Sie sowas imer wieder fair zum Thema, denn genau das fehlt!

Sie als Journalisten könnten sich für die Pressefreiheit verdient machen.

 

Was nochmal das leidliche Thema „Klima“ angeht: lesen Sie bitte nachfolgenden Link eingehend und machen daraus eine Serie, wenn Ihnen wirklich was an der Wahrheit gelegen sein sollte.

Verschweigen ist keine Wahrheit.

 

 

https://eike.institute/2018/05/02/aktuelle-warmzeit-klimavariabilitaet-oder-klimawandel/#comment-194675

 

freundliche Grüße

Jürgen Roesicke, Dipl-Ing.

Mikrobiologische Verfahrenstechnik

Industrielle Mikrobiologie

Tönnisweg 19

44359 Dortmund

Fon: 0231 350098




Öko-Imperia­lismus in Nord­amerika und der Welt

Der Lunch wurde von Amy Ridenour, damals Präsidentin des National Center for Public Policy Research ausgerichtet. Viele dieser Leute, die zu sehr einflussreichen Sprechern gegen den AGW-Betrug wurden, traf ich zum ersten Mal. Marc Morano steckte mitten in Arbeiten für Senator James Inhofe, einen der wenigen Politiker, die sich nicht dem Betrug angeschlossen hatten. Seit Beginn seiner Arbeit für Senator Inhofe rief er seine sehr erfolgreiche Website Climate Depot ins Leben. Eine weitere Persönlichkeit, Paul Driessen, stellte sich mir vor und übergab mir eine Ausgabe seines damals gerade erschienen Buches Eco-Imperialism.

Die Scheinheiligkeit, dass die entwickelten Nationen fossile Treibstoffe verbrauche, um Länge und Qualität des Lebens ihrer Bürger zu verbessern, während sie anderen Nationen diese Gelegenheit verwehren, ist ungeheuerlich. Es wird aber noch schlimmer, weil wir genau wissen, dass die Entwicklung, gegen welche die Umweltaktivisten so schwer zu Felde ziehen, der beste Weg ist, den Bevölkerungszuwachs zu stoppen nebst der drückenden Probleme desselben. Ich habe zum demographic transition genannten Thema etwas geschrieben. Diese Scheinheiligkeit zieht sich durch sämtliche Maßnahmen seitens der Umweltaktivisten, erfreuen sie sich doch höchster Lebensstandards, während sie anderen predigen, in Armut zu leben.

Dies stand auch im Mittelpunkt beim Verbot von FCKWs. Unsere Nahrungsmittel waren mittels Kühlung viel länger haltbar. Jetzt dürfen wir FCKWs nicht mehr verwenden, weil wir beschlossen haben, dass sie die Umwelt schädigen. Indien und China steigerten diese Scheinheiligkeit in Opposition zum Montreal-Protokoll, einem Vorläufer des Kyoto-Protokolls, welches jüngst durch das Paris-Abkommen ersetzt worden ist. Premierminister Modi war einer der ersten Führer in der Welt, der eine Bresche in diese von den Umweltaktivisten praktizierte Scheinheiligkeit trieb. Er wies darauf hin, dass in seinem Lande Menschen verhungern, welche anderweitig gerettet werden könnten. Die Wahrheit ist, dass Kohle Milliarden Menschen vor dem Hungertod und Unterernährung errettet hat, während sich ihre Lebensqualität in jeder Hinsicht deutlich verbesserte. In jedem Land leben die Menschen heute länger und sind gesünder als jemals zuvor. Wie man so schön kryptisch sagt, als Mozart in meinem Alter war, war er bereits 44 Jahre tot.

Alles hiervon und auch die Absicht dieses Beitrags wurde ausgelöst durch einen Artikel, welcher in Kanada erschienen war. Darin ging es um die Klage einiger Ureinwohner. Diese sagten, sie seien von einer Umwelt- und Ökologie-Politik betroffen, ohne dass man sie konsultiert habe, was sie dazu dachten und was zu ihren kulturellen Belangen passte. Viele wollten Ressourcen auf ihrem Land entwickeln, aber die meisten Landgebiete der Ureinwohner sind unter Kontrolle der kanadischen Regierung. Sie sind Opfer genau des Öko-Imperialismus‘, den Driessen so treffend beschrieben hat. Aber natürlich kommt das nicht überraschend, sind die Ureinwohner doch die ,Verlierer‘ des Imperialismus‘. Tatsächlich geht es ihnen schlechter denn je, weil sie weiterhin unter kolonialem Imperialismus leben mussten, während man anderen Ländern ihre Freiheit gegeben hat.

Eine Klage seitens der Ureinwohner wurde in Manitoba gegen Manitoba Hydro eingereicht, ein Erfüllungsgehilfe der Regierungs-Organisation, welche die gesamte Energieerzeugung und -verteilung in der Provinz kontrolliert. Fast die gesamte Energie vor allem in den zentralen Gebieten der Provinz wird durch Wasserkraft erzeugt. Der Abfluss erfolgt nordwärts in die Hudson Bay. Die Ureinwohner machten geltend, dass ihre traditionelle Kultur durch die Entwicklung der Wasserkraft in der gesamten Provinz zerstört werde. Ihr Zorn wurde größtenteils durch das Buch As Long as The Rivers Run ausgelöst, in welchem definiert wird, was darin „Wasserkraft-Gemeinden“ [Hydro communities] genannt wird. In dem Buch wurde beschrieben, dass es in diesen Gemeinden Vergewaltigungen, Alkoholismus, Drogenprobleme und hohe Kriminalität gebe und dass das Schulsystem gescheitert ist. Hydro stimmte einer Untersuchung zu, und die Ureinwohner baten mich, den Vorsitz bei dieser Untersuchung zu übernehmen.

Ich rief ein Komitee ins Leben mit einem Historiker, einem Ökonom und einem Rechtsanwalt. Ich stimmte dem Ansinnen zu unter der Bedingung, dass nicht die Auswirkung auf ihren traditionellen Lebensstiel Gegenstand der Untersuchung ist, sondern wie sich ihr historischer Lebensstiel mit der Zeit geändert hat. Tradition kann das sein, was man gestern gemacht hat, und was wir wissen müssen ist, wie sich die Ureinwohner an all diese Änderungen angepasst haben und mit ihnen umgegangen sind.

Als Erstes rekonstruierte ich die Klima- und Umweltveränderungen vom Jahr 900 bis zur Gegenwart. Dieses Datum wurde mit Bedacht gewählt, markiert es doch den Beginn der Mittelalterlichen Warmzeit (MWP) und der Einwanderung der ersten Stämme der Ureinwohner (Cree, Ojibwyan und Chipewyan) in das Gebiet. Danach erkundeten und maßen wir die Auswirkungen aller großen kulturellen Änderungen, welche beispielsweise die Ankunft der Europäer, der Pelzhandel sowie politische und juristische Änderungen mit sich brachten. Sie konnten mit all diesen Änderungen mehr oder weniger erfolgreich umgehen – mit einer Ausnahme.

Im Jahre 1870 wurde der Staat Kanada gegründet, und das britische Nordamerika-Gesetz [the British North America (BNA) Act] löste alle zuvor bestehenden Einrichtungen ab einschließlich der riesigen Besitzungen und der Kontrolle der Hudson Bay Company HBC darüber. Teil des BNA war The Indian Act, und das allein machte die Gebiete der Ureinwohner zu Kolonien innerhalb von Kanada. Man steckte alle Ureinwohner in Reservate. Die Regierung versprach, alle grundlegenden Dienstleistungen zur Verfügung zu stellen einschließlich Bildung und Gesundheitsvorsorge. Falls man sich von den Auswirkungen der 148 Jahre Regierungs-Fürsorge überzeugen möchte, besuche man ein Reservat der Ureinwohner.

In unseren Studien konnten wir keinerlei anthropologische Standard-Termini finden, welche zum Verhalten dieser Menschen passten. Zentraler Punkt für ihr Überleben war ihre Fähigkeit zu wandern. Das war in keiner Weise eine normale Migration. Sie blieben in einem Gebiet, solange sie sich dort ernähren konnten, dann zogen sie weiter in ein Gebiet, das sie nach Informationen und Wissen erkundet hatten. Es war nichts vorbestimmt, außer die Anpassung an die natürlichen Zyklen. Während sie vordergründig an ihrer traditionellen Lebensweise festhielten, war es ein psychologischer Tiefschlag, ihnen zwangsweise das Recht der Wanderungen zu nehmen, den sie nicht überleben konnten.

Die Behauptung hinsichtlich „Hydro-Gemeinden“ war das, was wir eine point-of-impact-Studie nannten. Nachdem sie die Probleme erkannt hatten, machten sie geltend, dass diese die Folge der Hydro-Entwicklung waren. Wir schauten in die Historie und stellten fest, das alle Probleme bereits bestanden, bevor die Wasserkraft Einzug hielt. Der Gedanke, dass die Ureinwohner nicht für Entwicklung und Innovationen offen waren, ist falsch, wie schon Olive Dickason in ihrem Buch Canada’s First Nation erklärte. Sie hatten Kontrolle über die ersten 100 Jahre des Pelzhandels.

Vor einigen Jahren trug ich auf einer Konferenz von Pelzhändlern in Sun Peaks in British Columbia vor. Hauptredner war ein Mitglied der Ureinwohner aus Manitoba, welcher als Minister für Northern Affairs nominiert war. Er sprach über seine kürzliche Reise nach Europa, wo er die europäische Scheinheiligkeit beklagte. Er erklärte ihnen, dass sie zunächst den Pelzhandel und die Waldwirtschaft schufen und alles jetzt zum Stillstand bringen, nur weil sie von Umweltaktivisten drangsaliert wurden, welche keinerlei Beweise als Stütze für ihre Forderungen erbrachten. Interessant bei dieser Geschichte war, dass all dies in den Bereich der Regierung fallen sollte, aber die haben ihre Bevölkerung nicht geschützt. Das bedeutet, dass die Ureinwohner Opfer des Öko-Imperialismus‘ sind.

Denkt man über all dies im Zusammenhang mit jüngsten Klagen der Ureinwohner über Öko-Imperialismus und Anti-Entwicklung nach, erkannte ich, dass wir uns in negativer Weise fortschrittlich entwickelt hatten. Inzwischen ist die gesamte weltweite Mittelklasse zum Opfer des Öko-Imperialismus‘ geworden, weil die Anwendung der Begriffe Umweltaktivismus und Klimawandel dazu verwendet wurde, Macht und Kontrolle über das Leben der meisten Menschen zu erlangen seitens einer Minderheiten-Machtelite.

Imperialismus und jede andere Form von Macht und Kontrolle fußen auf dem Glauben, dass wir wissen, was gut für euch ist, also werden wir das als Rechtfertigung heranziehen, um euch unseren Willen und unsere Art aufzuzwingen. Schon vor Jahrzehnten sagte H. L. Mencken:

Der Drang, die Menschheit zu retten, ist fast immer nichts weiter als eine Verschleierung des Drangs, die Menschheit zu steuern. Es ist die Macht, nach welcher alle Messias‘ wirklich trachten – nicht die Gelegenheit zu dienen. Das gilt sogar für die Pius-Bruderschaft, welche ihre Prinzipien offensiv nach außen trägt.

Es ist immer eine nicht vorhandene Bedrohung, die kolportiert wird, um die Ausübung von Macht und Kontrolle zu rechtfertigen. Globale Erwärmung war eine Grenzen durchdringende Bedrohung, welche zu managen es jeder Einzelnation unmöglich machte. Nach fünf Tagen mit Maurice Strong von den UN, wo er die Bedrohung erzeugte und gleich auch die Lösung anbot, fasste Elaine Dewar seine Absichten so zusammen:

Strong nutzte die UN als Plattform, um eine globale Umweltkrise loszutreten, zusammen mit der Agenda der Weltregierung.

Er war damit so erfolgreich, dass die Mittelklasse seitdem fortwährend unter der Fuchtel des Öko-Imperialismus‘ stand. Im Falle des originalen, aus Europa stammenden Imperialismus‘ vor allem des Britischen Empires, wurde er gestützt durch Wachstum und die Presse. Die einzige Information für die britischen Bürger wurde von einer Zeitung vermittelt, der Times. Schon Edmund Burke (1729 bis 1797) erkannte die Macht der Presse, als er sagte:

Es gibt drei Teile im Parlament, aber auf der Reporter-Tribüne dort drüben sitzt der vierte Teil, der bedeutender ist als alle drei anderen zusammen (sic).

Die heutige Presse hat nichts darüber berichtet, dass die Menschen, die in jenen Reservaten gegen Pipelines und Entwicklung demonstrieren, organisiert sind und von der Tides Foundation für ihren Protest bezahlt werden (hier):

Tides zahlte insgesamt 35 Millionen US-Dollar im Zeitraum 2009 bis 2015 an fast 100 Anti-Pipeline-Gruppen. Ohne all dieses Geld von Tide gäbe es keine gut organisierten Proteste gegen Pipeline-Projekte.

In der Toronto Sun liest man:

Eine linksradikale Lobbygruppe in San Francisco überwies 55.000 Dollar auf das Bankkonto eines Indianerhäuptlings im nördlichen Alberta als Gegenleistung für seine Proteste gegen die Erschließung von Ölsanden.

Die Tides Foundation ist eine Schöpfung des Milliardärs George Soros, welcher sein Geld mit der Zerstörung nationaler Ökonomien macht. Er ist Mitglied im Club of Rome CoR, welcher auf dem Anwesen von David Rockefeller in Italien im Jahre 1968 ins Leben gerufen worden war, zusammen mit einem Vorläufer in Gestalt eines anderen Mitglieds, Maurice Strong vom IPCC. Man beachte die Ironie dahinter: Diese Herrschaften machen ihr Geld mit Kapitalismus und verwenden dieses Geld dann dazu, mittels des Betruges der globalen Erwärmung die Mittelklasse zu versklaven.

Die UN-Foundation wurde gegründet durch das Prominente CoR-Mitglied Ted Turner. Er zahlte eine Milliarde Dollar, um die Umweltaktivitäten der UN zu unterstützen. Ein bedeutender Anteil dieses Geldes war vorgesehen für „speziell den Klimawandel ansprechende Programme“ sowie zur Finanzierung des IPCC.

Die UN-Foundation rief dann die Global Leadership for Climate Action ins Leben, welche so beschrieben wird:

Global Leadership for Climate Action GLCA ist eine gemeinsame Initiative der UN-Foundation und des Club of Madrid. Dessen Ziel ist es, „ein Rahmenwerk zu entwerfen für ein neues erzwingbares internationales Abkommen bzgl. Klimawandel“. Die GLCA hat das Recht, Berichte und Zustandsbeschreibungen des IPCC zu editieren und stellt „technische Expertise zu den Implikationen und zur Kommunikation innerhalb der Klimawandel-Wissenschaft“ zur Verfügung. Mehr als zwei Drittel der GLCA-Mitglieder sind auch Mitglied im CoR, darunter: George Soros, Ted Turner, Timothy Wirth, Gro Harlem Brundtland, Mary Robinson, Sir Crispin Tickle, Kim Campbell, Wangari Maathai, Petra Roman und Richard Lagos. Und nun frage ich mich, durch was George Soros und Ted Turner qualifiziert sind, um technische Ratschläge bzgl. der Klimawissenschaft zu erteilen!

Die meisten dieser Namen waren den Personen bekannt, die ich im Monocle traf. Es müssen noch mehr Menschen auf sie aufmerksam werden und auf das, was sie der Mehrheit der Mittelklasse in jeder einzelnen Nation im Namen des Öko-Imperialismus‘ antaten.

Link: https://wattsupwiththat.com/2018/04/26/eco-imperialism-in-north-america-and-the-world/

Übersetzt von Chris Frey EIKE




Der beschleunigte Zwang zur Elektromobilisierung – nur wie soll es funktionieren: eine technische Analyse hinsichtlich der Stromversorgung und der CO2-Minderung

Der folgende Bericht ist eine Zusammenfassung der anhängenden PDF-Datei.

Im beschlossenen Koalitionsvertrag der neuen Bundesregierung wird die „ambitionierte Umsetzung des Pariser Abkommens“ gefordert. Dazu zählen u.a.:
1. Treibhausgasminderung  über 55% in 2030 bezogen auf 1990 bis hin zur vollständigen Dekarbonisierung im Rahmen des „Klimaschutzplanes 2050“  für alle Sektoren: Stromversorgung, Verkehr, Industrie, Gebäude, Landwirtschaft.
2. Senkung des Stromverbrauches bis 2020 gegenüber 2008 um 10%, bis 2030 um rd. 15% und bis 2050 um 25%.
3. Umrüstung zunächst von 6 Mio. Elektrofahrzeuge  bis 2030.
4. Die EU-Forderung zur CO2-Emission für PKW ist von z.Z. etwa 130 g CO2/km zunächst bis 2020/21 auf 95 g CO2/km (mittlerer Flottenverbrauch ) und nun nach dem EU-Dokument Ratsdokument 14217/17 auf weitere 30% gegenüber 2020/21 abgesenkt worden. In 2050 strebt die EU Nullemissionsmobilität an.
Verbrennungsmotoren können diese Emissionsvorgaben nicht erreichen, womit der unmittelbare Zwang zur Elektromobilisierung zur Erreichung der CO2-Ziele vorgegeben ist.
All diese Maßnahmen entspringen dem übergeordneten Ziel des sog. Klimaschutzes durch Absenkung des CO2-Ausstoßes zur Weltrettung.
Für Deutschland ist die Forderung der Elektrifizierung der Autoflotte eng mit dem Gelingen der hehren Ziele der vollständigen Dekarbonisierung verknüpft („Klimaschutzplan 2050“), d. h., die Elektrifizierung macht nur Sinn bei Gelingen der Dekarbonisierung, so dass die Diskussion des „Klimaschutzplanes 2050“ vorgeschaltet werden muß, auch wenn ihre Nichtfunktionalität bereits in früheren Arbeiten herausgestellt wurde.
Es soll hier nicht auf all die Nachteile des Elektrofahrzeuges wie Lebensdauer, Preis und Gewicht der Batterien, ihre Reichweite, CO2-Anfall bei der Batterieherstellung, das zeitaufwändige Aufladen, die Beschaffung von Rohstoffen wie z.B. Lithium, Kobalt, die Umstellung des Stromnetzes, etc. eingegangen werden, sondern ausschließlich der Frage nach der Stromversorgung und einer möglichen CO2-Minderung bis hin zur kompletten Elektromobilisierung unter den Zielen der Dekarbonisierung im Rahmen des „Klimaschutzplanes 2050“ nachgegangen werden. 

Das Problem der Umsetzung des „Klimaschutzplanes 2050“

1Die fluktuierende Stromerzeugung über Wind und Sonne
Über Wind und Sonne kann keine definierte Stromleistung eingestellt werden – es ergibt sich vielmehr ein stochastischer Mittelwert, je nach zufälliger Windstärke und Sonneneinstrahlung. Die vom Verbraucher geforderte schwankende Stromleistung muß über konventionelle Stromerzeuger oder Stromspeicher gezielt eingestellt werden.
Um den stochastischen Mittelwert einzustellen, muß jeweils die über dem Mittelwert anfallende Leistung gespeichert und in Zeiten der Stromerzeugung unter dem Mittelwert wieder eingespeist werden.
Die Wind- und Solarleistungen wurden von 2011 – 2016 von etwa 45 Gigawatt (GW) in 2011 auf etwa 90 GW in 2016 angehoben mit einer jährlichen, auf die Nennleistung bezogenen
mittleren Nutzung von 13,09 – 15,98% (Durchschnitt 14,4%).
1.2 Ausschließliche Stromerzeugung über Wind und Sonne bis 2050 auf der Basis einer ausreichenden Speicherkapazität
Im Jahre 2016 mit einem Strombedarf von 648 TWh/a (74 GWeff.) setzt sich die Stromerzeugung wie folgt zusammen: konventionelle Stromerzeuger (Kern, Kohle, Gas) 52,2 GWeff., „Sonstige“ (Biomasse, Wasser, etc.) 8,3 GWeff. und Wind+Sonne 13,5 GWeff..
Nun soll bis 2050 ausschließlich Strom über Biomasse, Wasser („Sonstige“) als praktisch fixe Größe und Wind + Sonne als varriable Größen dargestellt werden.
Davon ausgehend errechnen sich für das Jahr 2050 bei gleichbleibender Stromerzeugung und gleichbleibendem Verhältnis von Wind- zu Sonnenstrom und einem mittleren Nutzungsgrad von 14,4% etwa folgende Leistungszahlen: konventionelle Stromerzeuger 0 GW, „Sonstige“ 8,3 GWeff., Wind+Sonne 65,7 GWeff.. Für Wind+Sonne müssen dann bei dem gegebenen Nutzungsgrad bis 2050 456 GW installiert werden, eine Verfünffachung der Nennleistung gegenüber 2016.                                 
Dabei muß der oberhalb von 74 GW anfallende Strom gespeichert werden, um ihn bei anfallendem Werten unterhalb von 74 GW wieder einzuspeisen, nämlich in 2050
65,7/2= 32,9 GW im Mittel oder 1576/2 = 784 GWh/Tag.
Das größte deutsche Pumpspeicherwerk Goldisthal hat eine Leistung von 8,4 GWh/Tag, d.h. es wären im Mittel täglich etwa 93 Pumpspeicherwerke dieser Größenordnung erforderlich.
Um eine 14-tägige Windflaute im Winter überbrücken zu können, müßten etwa
14 x 1576 GWh/Tag = 22 064 GWh mit etwa 2627 Speichern der Goldisthalgröße zur Verfügung stehen.
 Andere Speicher wie z.B. Power-to-Gas oder Batterien sind für solche Strommengen weder geeignet noch bezahlbar.
Bereits in 2030 ist unterhalb von 74 GW eine Leistung über Wind+Sonne von
74 – 40 (Kohle, Gas, „Sonstige“) = 34 GW oder 816 GWh/Tag zu bewältigen – etwa gemessen an heute eine Verdopplung der Stromerzeugung über Wind+Sonne – , wofür eine Speicherkapazität für 408 GWh/Tag erforderlich wäre, was etwa 49 Pumpspeichern der Goldisthalgröße entspräche, immerhin fast 25% der täglichen Stromerzeugung.
Niemand weiß, wie das funktioniren soll, stattdessen wird ein Kohleausstiegs-Team aus 4 Bundesministern gegründet zur Festlegung des Termins zum Ausstieg aus der Kohle noch in 2018 – eine unglaubliche Faktenignoranz.
1.3 Betrachtung der Möglichkeiten der Energiewende bis 2050 ohne ausreichende Speicherkapazität
Da eine ausreichende Stromspeicherung zum Gelingen der Energiewende nicht möglich sein wird, verbliebe nur noch die Möglichkeit, die oberhalb von 74 GW anfallende Leistung von
     – 408 GWh/Tag (34/2 GW)  in 2030     oder  784 GWh/Tag (65,7/2 GW)  in 2050
ins Ausland abzuschieben.
Aber einige Nachbarländer haben sich schon jetzt durch technische Maßnahmen vom deutschen Überschußstrom abgeschottet, da ihre Netze für die Stromspitzen nicht ausgelegt sind.
Wenn der gesamte oberhalb von 74 GW aus Wind+Sonne anfallende Strom ins Ausland abgegeben werden könnte, dann könnte er auch nicht mehr bei einem anfallenden Wind-+Sonnenstrom unterhalb von 74 GW über Speicher angeboten werden, d.h. dieser fehlende Strom müßte wiederum durch Kern (bis 2022), Kohle, Gas ersetzt werden,
womit der CO2-Ausstoß bis 2050 nicht auf null zurückgefahren werden könnte.
Die Verminderung des CO2-Ausstoßes über die dann notwendigen konventionellen Kraftwerke wäre dann marginal, d.h. über die Elektromobilität wäre dann kaum noch eine Verminderung des CO2-Ausstoßes möglich. 

2.Ausschließliche Stromerzeugung über Wind+Sonne bis 2050 einschließlich eines für eine komplette Elektromobilisierung erforderlichen Stromverbrauches
2.1 Daten zu Elektroautos

Auf Deutschlands Straßen werden z.Z. etwa 45 Mio. PKW bewegt sowie diverse Nutzfahrzeuge (2,9 Mio.) und Busse (0,7 Mio.), deren Elektrifizierung nun den vorgegebenen Richtlinien folgend vorgenommen werden muß. Im Jahre 2030 sollen 6 Mio. Fahrzeuge umgerüstet sein, im Sinne der EU-Nullemissionsmobilität bis 2050 der Rest.
Der für die Elektrifizierung notwendige Strom läßt sich wie folgt abschätzen:
der durchschnittliche Stromverbrauch für die 45 Mio. PKW liegt bei 25,5 KWh/100 km. Bei einer jährlicher mittlerer Leistung von etwa 15 000 km/a ergibt sich damit eine aufzubringende Leistung von 172 TWh/a. Die Ladungs- sowie Leitungsverluste lassen sich mit 59 TWh/a abschätzen. Die Umstellung aller LKW und Busse kann mit 106 TWh/a angesetzt werden, woraus sich ein Gesamtbetrag von 337 TWh/a ergibt.                                                                                                                                                                                                                                                                                    
2.2 Ausschließliche Stromerzeugung über Wind+Sonne bis 2050 bei gleichzeitiger Elektrifizierung aller Verbrennungsmotoren im Sinne der EU-Nullemissionsmobilität
Ausgehend von dem genannten Stromverbrauch über die Elektrifizierung müßte nun ausgehend von einer erforderlichen Stromleistung von zunächst 74 GW bis 2030  in 2030 die Leistung auf 78 GW (einschließlich der Elektifizierung von 6 Mio. Fahrzeugen) angehoben werden bis zu einer Leistung von 113 GW in 2050 einschließlich einer kompletten Elektromobilisierung.

Das würde bedeuten, dass bis 2050 nicht mehr 456 GW sondern 456+271 = 727 GW über Wind+Sonne installiert werden müßten.
In 2050 müßten dann Stromspeicher mit einer Leistung von (113-8,3)/2 = 52 GW oder 1248 GWh/Tag bereit stehen.
In 2030 – also in 12 Jahren – wäre bereits eine Speicherkapazität von (78-40)/2 = 19 GW oder 456 GWh/a erforderlich – ein hoffnungsloses Vorhaben. (vgl. Kapitel 1,2)Würden die Fahrzeuge z.B. nur nachts aufgeladen, so müßte die Leistungsbereitschaft für die Elektrofahrzeuge von 271 auf 542 GW verdoppelt werden, was hier nicht weiter vertieft werden soll.
Ist eine ausreichende Speicherkapazität nicht vorhanden, kann die oberhalb der mittleren erforderlichen Leistung aus Wind+Sonne anfallende Leistung nicht mehr unterhalb des Mittelwertes zur Verfügung gestellt werden (vgl. Kapitel 1.2), so dass dieser Leistungsentfall über konventionelle Stromerzeuger ausgeglichen werden müßte.
Das bedeutet, dass nach 2030 eine Verminderung des CO2- Ausstoßes nicht mehr stattfinden kann, d.h. ohne die ausgewiesene zur Verfügung zu stellende Stromspeicherkapazität wird die Elektrifizierung aller Verbrennungsmotoren zu einem Anstieg des CO2-Ausstoßes führen.

  1. Schlußbemerkung
    3.1 CO2-Hysterie
    Basierend u.a. auf einer nicht korrekten Anwendung des Planck´schen Strahlungsgesetzes (Mißachtung des Gleichgewichtzustandes) wurde dem Gas CO2 ein überhöhter „Treibhauseffekt“ zugesprochen, der die Temperatur der Erde von -18°C ohne Atmosphäre auf +15°C anheben soll.

    Aber wie soll das funktionieren? Der CO2-Gehalt der Atmosphäre liegt bei nur etwa 0,040% und wird durch eine Reihe von Einflußgrößen bestimmt: Ausgasung Meere (40,4%), Atmung Pflanzen (23,8%), Atmung Bodenorganismen und Zersetzung (23,7%), Menschen und Tiere (6,5%), Entwaldung (2,6%), Verbrennung fossiler Brennstoffe (3,0%).
    Die Verbrennung der fossilen Brennstoffe – um deren Verminderung es in Paris ging und in Deutschland permanent geht -ist also weltweit nur mit einem Anteil am Gesamt-CO2-Gehalt von 3% beteiligt entsprechend 0,0012% (12 ppm), der Anteil Deutschlands wiederum nur mit 2,7% von diesen 3% oder 0,000 032% (0,32 ppm).
    Nun soll ein CO2-Gehalt in der Atmosphäre von 0,040% in der Lage sein, 324 W/m2 im Sinne des Treibhauseffektes (IPCC) aus der Atmosphäre zurück zur Erde zu bewegen (obwohl angeregtes CO2 nach allen Seiten strahlt und der Himmel nun wirklich nicht wolkenfrei ist), d.h.
             – etwa 4 Moleküle sollen bezogen auf 10 000 Moleküle oder richtiger
             – etwa 0,12 Moleküle aus der Verbrennung sollen bezogen auf 10 000 Moleküle
    einen solchen Wärmetransport vornehmen können (und auch noch gegen den 2.Hauptsatz der Thermodynamik) – ein wärmebilanzmäßiges Perpetuum Mobile.
    Im Falle des lachhaft niedrigen Beitrages Deutschlands am CO2-Gehalt der Atmosphäre aus Verbrennung von 0,000 032% stünden – sollte der „Klimaschutzplan 2050“ gelingen –
                             –  etwa 0,0032 Moleküle              10 000 Moleküle
    gegenüber – und mit dieser „Energiewende“ will Deutschland eine weltweite Vorreiterrolle übernehmen – das Ausland lacht.
    Für diesen nicht meßbaren deutschen Anteil bringt Deutschland im Rahmen einer unsinnigen emotionalen Planwirtschaft, genannt „Klimaschutzplan 2050“, 2 000 Mrd € auf  oder aufsummiert bisher 150 Mrd. €, nach Altmeier 1 000 Mrd. € bis 2050.
    Gegen diese Fakten führte die einmal in die Welt gesetzte überhöhte Klimaerwärmung durch CO2 bis hin zum Verglühen der Erde zu einer nicht vergleichbaren Klimahysterie bis hin zum Kirchenläuten, obwohl die Erde in ihrer Vergangenheit um Zehnerpotenzen höhere CO2 Gehalte in der Atmosphäre bestens verkraftet hat.
    Hinzu kommt erwartungsgemäß, dass die Klimamodelle, in denen dem CO2 eine weit überhöhte Klimasensitivität zugesprochen wurde, kläglich an der Wirklichkeit scheitern.  Die NOx-Hysterie
    Nun ist eine weitere deutsche Hysterie ein willkommenes Argument für die Abschaffung des Verbrennungsmotors zu gunsten der Elektrifizierung: die NOx-Hysterie.
    Zunächst ein paar Zahlen, um die Unsinnigkeit dieser Hysterie begreiflich zu machen:
    – Grenzwerte Straßen: 40 Mikrogramm/m3 Luft
    – Grenzwerte Büroräume: 60                     „
    – Grenzwerte Arbeitstätten (MAK): 950    „
    – Grenzwerte Straßen USA:  100                 „
    – Die NOx-Messungen auf deutschen Straßen werden häufig nicht analog zu den EU-Richtlinie vorgenommen, es werden sogar gezielte Veränderungen an den Meßstellen vorgenommen, um höhere NOx-Werte vorzutäuschen.
    – Gesundheitliche Schäden sind in diesen o.g. Grenzwert- Konzentrationen nicht nachweisbar. Es exsistieren nur epidemiologische Untersuchungen, in denen neben NOx weitere für die Gesundheit maßgebliche Stoffe wirken, ohne die  ausschließliche Wirkung von NOx isolieren zu können.
    Da sollen die NOx-Werte auf der Straße niedriger liegen als die im Büro und an der Arbeitsstätte. Wie irrational will unser Land eigentlich noch werden?
    Für Deutschland stellt sich eigentlich nur noch die Frage, wie lange es sich eine derartige Folge von irrationalen Entscheidungen durch Politik- und Genderwissenschaftler, befreit von jedem technischen Verstand, noch leisten kann (so meinte die Vorsitzende der Grünen: „Wir müssen auch in die Kantine der Stahlarbeiter gehen und mit denen gemeinsam überlegen, wie wir den Hochofen klimaresistent kriegen“). Folgerichtig fing es schon am Anfang der Energiewende mit dem irrationalen Versprechen an, dass die Energiewende für eine Kugel Eis zu haben sei.

Der komplette Bericht einschließlich der Bilder und Quellen ist in der anhängenden PDF-Datei enthalten.Elektrofahrzeugumstellung.rtf m

 
           

                                           

 

 




Klima, wir handeln! Leider weiter ohne Sinn und Verstand. Oder: Klima­schutz (nicht nur) in NRW gibt Rätsel auf

Der Klimawandel ist Realität und deutlich spürbar …

lautet in Deutschland ein Standardsatz, welcher sich zig-tausendfach kopiert als ständige Wiederholung in fast jeder öffentlichen (und Öffentlich-Rechtlichen) Verlautbarung findet.
Das muss so sein, denn alle Fachpersonen seien sich einig, dass es so ist und diese wissen, welche Gefahr sich dahinter für die Menschheit und vor allem Deutschland als hoch gefährdet eingestuftem Land verbirgt. Unsere Landesregierungen haben diese Gefahr aufgenommen und sorgen dafür, solche von den Bürgern – so weit das mit ihren Finanzmitteln (und neu zu generierenden, wie den CO2-Zertifikaten) irgend möglich ist -, abzuwenden.
Mehr durch Zufall ist der Autor auf die umfangreiche Dokumentation der NRW-Landesregierung zum Klimawandel gestoßen. Nachdem die neue Umweltministerin genau dort ihre Lehrzeit verbrachte, ist es natürlich besonders interessant, welche Wirkung sie dort in diesem Fach entfalten konnte, oder – da sie dort ja nicht Umweltministerin war – welche Besonderheiten sie von dort mitbringen kann.

Bild 1 Logo [2]
Dr. Thomas Delschen (Präsident des Landesamtes für Natur, Umwelt und Verbraucherschutz, NRW):
[1] … wir alle wissen es: Der anthropogene Klimawandel ist Realität und seine Auswirkungen sind auch in Nordrhein-Westfalen deutlich zu spüren. Langjährige Messungen zeigen, dass die Temperaturen ansteigen, bei den Niederschlägen ändern sich die Intensität und die Verteilung. Das hat Folgen: … und insbesondere in den Städten und Ballungsräumen steigt im Sommer die Hitzebelastung für die Bevölkerung …
[13] NRW ist Vorreiter mit Monitoring zum Klimawandel
… Nicht zuletzt deshalb hat NRW 2011 als erstes Bundesland ein Monitoring zum Klimawandel und seinen Folgen gestartet. In den Städten leiden die Menschen unter Hitze, die Forstwirtschaft muss mit den Folgen von Sturmschäden umgehen, und in der Landwirtschaft führen Trockenheit und Starkregen zu Ernteausfällen …

Klimawandel und das sich ständig wandelnde Klima

Das Klima wandelte sich schon immer. Die aktuellen Änderungen sollen aber im historischen Kontext sowohl in der Geschwindigkeit, als auch der Spanne, einzigartig und noch nie dagewesen sein. Um das zu zeigen, wird das folgende Bild der unaufhaltsamen – laut einhelliger Meinung der Fachpersonen menschengemachten – Erwärmung für NRW gezeigt [1]:

Bild 1 [1] Abbildung 1: Jahresmittel der Lufttemperaturen in NRW im Zeitraum 1881–2015. Zusätzlich sind der langjährige Mittelwert, die dekadisch gleitenden Mittel sowie lineare Trends dargestellt (Datenquelle: DWD).
Nun gibt es zum Gebiet von NRW eine (der auch in Deutschland seltenen) Temperaturrekonstruktion.

Bild 2 Temperaturrekonstruktionen Dürres Maar (Eifel) und Zentraleuropa seit AD. [5] Moschen et al. 2011: Temperature variability at Dürres Maar. Vom Autor ergänzt
Ergänzt man den Verlauf der historischen Klimarekonstruktion von Bild 2 mit den Daten seit Beginn des Klimawandels bis zum Jahr 2017 (Bild 1), ergibt sich das folgende Bild 3. Obwohl es natürlich grenzwertig ist, einen Temperaturproxi mit einer Bundesland-Mitteltemperatur zu vergleichen, kann das Bild die Temperaturvariabilitätsverhältnisse veranschaulichen. Zudem haben die Klimawissenschaftler auch keine Hemmungen, einzelne Eiskernproxies mit Welttemperaturverläufen gleichzusetzen.

Bild 3 Bilder 1 (rot) und 2 maßstabsgerecht übereinander kopiert. Ergänzend den aktuellen Temperaturverlauf seit 1880 (rot) mehrmals in den Verlauf der mittelalterlichen Warmzeit kopiert. Grafik vom Autor erstellt

Am zusammengesetzten Verlauf vom Bild 3 erkennt man:
-In NRW erreicht die aktuelle Temperatur noch lange nicht die Werte der mittelalterlichen Warmzeit,
-vergleichbare Temperaturänderungen wie seit 1880 in NRW, geschahen im Raum NRW während der mittelalterlichen Warmzeit häufiger und viel extremer (der rote Verlauf ist das 30jährige Mittel, der blaue Rekonstruktionsverlauf das viel trägere, 60jährige Mittel).
Komischer Weise (eher bewusst) wurde dieser zusätzliche Vergleich in der NRW-Information nicht gezeigt, was schon „kaltesonne“ [9] bei seiner Kolumne auffiel.
Jedoch kann mit ruhigem Gewissen angenommen werden, dass der moderne NRW-Bewohner das aktuelle Klima-Änderungsgeschehen problemlos – wie seine Altvorderen zur vorhergehenden Jahrtausendwende – überstehen kann. Wer immer noch nicht ruhig schläft – weil er an den laut Klimasimulationen unverhinderbaren Klima-Kipppunkt denken muss – kann sich auch beruhigen: Dieser trat die letzten eine Millionen Jahre trotz häufig deutlich höherer Temperaturen (Bild 4) nicht ein.

Dazu die Anmerkung, dass es inzwischen immer offensichtlicher wird, wie falsch die bisherigen Klimarekonstruktionen der Vergangenheit sind. Die gravierenden Mängel, welche der Autor als Laie durch einfache Nachschau der teils katastrophalen Proxis feststellen konnte:
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k
Was keinen „Klimafachmann“ störte – finden nun auch professionelle Forscher heraus:
Nicholas P. McKay at al.: An extended Arctic proxy temperature database for the past 2,000 years
Auf einmal war es früher doch weit wärmer als bisher „bekannt“ und die Variabilitäten ebenfalls größer. Damit verschwindet allerdings die „Einzigartigkeit“ des aktuellen Anstiegs in der natürlichen Klimaspanne.

Bis diese Kenntnis bekannt (gemacht) wird, werden aber noch viele Jahre – wahrscheinlich eine Forschergeneration -vergehen. Denn zu groß wird die Blamage der zig-Tausend „99% Konsensforscher“ mit ihren gut laufenden Fördermitteln. An die daraus finanzielles und ideologisches Kapital ziehenden Politiker und NGOs rund um die Welt gar nicht zu denken.

Es bleibt noch viel „Luft“ nach oben, aber vor allem nach „unten“

Wo sich die Menschheit derzeit „befindet“ zeigt ein Bild mit dem Temperaturverlauf der jüngeren Eiszeiten.
Es wäre danach sehr natürlich, falls es noch etwas wärmer würde und es wäre ebenfalls natürlich, falls die bereits überfällige Kaltzeit bald beginnt:
EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

Bild 4 Die letzten Eiszeiten mit Temperaturanomalie. Aktuelle Temperatur: Roter Pfeil. Bild vom Autor ergänzt

Die Stadterwärmung, nicht der Klimawandel, katapultierte die Kölner Stadtbewohner bereits in das Klimajahr 2200

Seit dem Jahr 1880 hat sich die Temperatur in NRW um 1,4 K erhöht [1] und zeigt angeblich schlimme Auswirkungen:
[1] … Das hat Folgen: … und insbesondere in den Städten und Ballungsräumen steigt im Sommer die Hitzebelastung für die Bevölkerung …
Wenn über die Temperatur in den Städten gesprochen wird und dabei Mittelwerte angezogen werden, will jemand etwas verschleiern. Und das ist der Wärmeinsel-Effekt der städtischen Urbanisationen. Während über +1,4 °C während der letzten 140 Jahre der „Klimauntergang“ ausgerufen wird, scheint es problemlos zu sein, wenn Städte + 4 … + 10 °C Wärmeinseleffekt erreichen. Das gilt nicht nur für NRW, für Nürnberg werden zum Beispiel ebenfalls 7 … 8 Grad genannt [11]. Für München auch bis zu 10 Grad. Diese zeigen damit auch das Verhalten wie in der NRW-Regressionsgrafik, die somit orientierend wohl generell für Urbanisationen gelten könnte.

Bild 5 [1] Quantifizierte Wärmeinseleffekte von Großstädten in NRW. Bild vom Autor ergänzt
Der Unterschied in den Auswirkungen ist gewaltig. Während am Stadtrand von Köln nur fünf Heiße Tage auftraten, waren es in der Innenstadt drei Mal so viel, die Anzahl Tropennächte war 2012 im Umland Null und in Köln Neun:
[1] … Darüber hinaus lässt sich nachweisen, dass nicht nur die höheren mittleren Temperaturen, sondern auch die Anzahl der warmen Temperaturkenntage von den dicht bebauten, versiegelten Innenstadtbereichen hin zu den unversiegelten Flächen im Umland abnehmen. Die Messungen in Köln haben für 2012 ergeben, dass an drei Innenstadtstationen bis zu 16 Heiße Tage erreicht wurden, wohingegen an einer Peripherie-Station lediglich fünf Heiße Tage auftraten (Abbildung 33). Die Tropennächte zeigen ein ähnliches Bild: Während 2012 im Umland keine Tropennacht zu verzeichnen war, wurden bis zu neun Tropennächte in der Innenstadt registriert (Abbildung 34).

Das PIK hat für NRW bis zum Jahr 2100 eine Temperaturerhöhung um ca. 3,5 Grad simuliert (Bild 13). Damit hat Köln heute zeitweise bereits eine Temperatur, welche deutlich über der simulierten des Jahres 2.200 liegt. Beginnen mit den Kleinstädten ab 30.000 Einwohnern haben alle schon das Temperaturniveau des Jahres 2.100 erreicht.

CO2-Vermeidung ist eine absolut nutzlose, aber symbolisch extrem teure Geste

NRW hat im Jahr 2012 ein Äquivalent von 300 Mio t CO2 emittiert ([7], Abbildung 3). Bis zum Jahr 2050 soll diese Emission von (aktuell ca. 80 %) auf 20 % reduziert werden (Bild 6). Diese Maßnahme „reduziert“ ab dem Jahr 2050 die durch NRW bedingte „Erhöhung“ der Welttemperatur um:
0,000225 °C/pa (IPCC-Forcing),
0,000075 °C/pa bei realistischem Forcing

Das Bundesland hat mit seiner Emissionsminderung somit keinerlei auch nur im Entferntesten messbaren, oder spürbaren Einfluss auf das Klima, wie es im NRW Klimaschutzplan jedoch behauptet wird:
[7] … Eine vorausschauende Anpassung hilft, die Kosten des Klimawandels für künftige Generationen zu mindern und Entwicklungschancen offen zu halten. Nichtstun ist keine Alternative, weder aus unternehmerischer noch aus volkswirtschaftlicher Sicht und schon gar nicht aus gesamtgesellschaftlicher Verantwortung …
… Neben den Strategien und Maßnahmen zum Klimaschutz zeigt der Klimaschutzplan auf, wie sich Nordrhein-Westfalen vorausschauend auf Folgen des nicht mehr abwendbaren Klimawandels vorbereiten kann. Denn auch in Nordrhein-Westfalen ist der Klimawandel längst Realität. Das zeigen Starkregenereignisse wie 2015 in Münster oder die Sturmkatastrophe an Pfigsten 2014. Auch mit Blick auf die in vielen NRW-Städten aufgrund einer Sturmwarnung 2016 abgesagten Rosenmontagsumzüge, wird deutlich, dass solche Ereignisse künftig häufiger eintreten werden.
NRW Klimaschutzplan: [7] … Expertinnen und Experten gehen davon aus, dass Extremwetterereignisse wie Stürme, Starkregen oder extreme Hitzewellen durch den Klimawandel in ihrer Häufigkeit und Intensität weiter zunehmen werden ...
Entsprechend ist die im NRW-Klimaschutzplan vorgegebene CO2-Reduzierung zu betrachten.

Bild 6 NRW Planung zur CO2-Reduzierung bis zum Jahr 2050. Quelle: [7] NRW Klimaschutzplan

Milliardenausgaben für nichts werden für Sinnvolles bald fehlen

Und deshalb zwingt die EU (mit tatkräftiger Unterstützung Deutschlands und deren nationalen und internationalen NGOs) bald NRW, für diese Emission ca. 12 Milliarden EUR/pa zu bezahlen (bei geplantem, 40 EUR/t Zertifikatepreis).

Betrachtet man Klimamaßnahmen unter dem Gesichtspunkt der möglichen Temperaturbeeinflussung, zeigen die Bilder 5 und 14 exemplarisch den absoluten Schwachsinn der CO2-Vermeidung.

Während sich schon heute selbst kleine Städte in NRW um 3 … 10 Grad erwärmen, muss das Land an CO2-Zertifikatekosten bald die 12 Milliarden EUR/pa an die EU bezahlen, weil es die Welttemperatur irgendwo zwischen 0,000075 … 0,000225 °C im Jahr „erhöht“.

Wohl wenigen wird nicht einleuchten, dass es da viel effizienter wäre, diese Milliarden in direkte Maßnahmen zur Verringerung des massiven und messbaren Wärmeinseleffektes einzusetzen. Das würde jedoch Überlegen und eigene Maßnahmen erfordern. Solche lassen sich aber nicht einfach monetär – als „Erfolg“ für jedes Kilo CO2-Reduzierung, die man im Internet „berechnen“ kann – ausweisen. Kein Politiker lässt sich deshalb auf solch Sinnvolles, aber eben Mühsames Vorgehen ein.

Dabei ist nirgens eine Gefährdung durch das Klima in Sicht

Nachdem gezeigt wurde, dass:
-Die bisherige Erwärmung in NRW weder einzigartig, noch unnatürlich schnell, noch im historischen Kontext hoch ist,
-der Wärmeinseleffekt schon aktuell einen drei – bis sieben Mal größeren Einfluss auf Stadttemperaturen hat, als die letzten 140 Jahre der angeblichen anthropogenen Klimaerwärmung,
anbei noch eine Betrachtung der anderen, für NRW gelistet Klimagefahren.

Wärmebelastung

Es heißt, die Tage mit starker Wärmebelastung werden ein großes Problem:
[1] … und insbesondere in den Städten und Ballungsräumen steigt im Sommer die Hitzebelastung für die Bevölkerung …
Leider weist die Grafik dazu aus (Bild 7):
Obwohl die Wärmeinseleffekte stark zunehmen, wird die Wärmebelastung insgesamt eher niedriger. Außerhalb der Städte ist praktisch gar nichts davon zu spüren: … Während 2012 im Umland keine Tropennacht zu verzeichnen war, wurden bis zu neun Tropennächte in der Innenstadt registriert

Bild 7 [1] Tage mit starker Wärmebelastung 1971-2015 in Düsseldorf und Bonn

Trockenheit und Extremwetter

Auch Trockenheit und Extremwetter seien ein zunehmendes Problem:
[7] … Durch den Klimawandel ist mit einem gehäuften Auftreten von Extremwetterereignissen mit hohen Niederschlagsmengen innerhalb kurzer Zeiträume zu rechnen … Gleichzeitig kann es im Sommer zu länger anhaltenden Trockenperioden kommen …

Und wieder zeigen die Messdaten etwas anderes. Die Veränderungen in den wichtigen Jahreszeiten Winter bis Sommer sind zu vernachlässigen. Lediglich im Herbst erfolgte bisher eine (für Niederschläge) geringfügige Reduzierung.

Bild 8 [1] Mittlere Anzahl trockene Tage nach Jahreszeiten und Zeiträumen

Starkniederschläge

Bei den Starkniederschlägen ein ähnliches Bild. Das „gehäufte Auftreten“ [7] ist in den Messwerten (Bild 9) nicht zu finden. Seit spätestens 1980 … 85 hat sich bei keiner Niederschlagsgruppe irgend etwas verändert. Auch war bei allen Gruppen der Stand zum Jahr 2015 so wie zu Beginn der Reihen im Jahr 1950.
Macht aber nichts, behaupten kann man es trotzdem:
[1] … Die Anzahl der Starkniederschlagstage (NS > 10, 20 oder 30 mm) hat sich im Vergleich der Zeiträume 1951 bis 1980 und 1981 bis 2010 tendenziell erhöht.

Das Starkniederschlagsverhalten in NRW bestätigt damit das Ergebnis der jüngsten Analyse des Autors zu Süddeutschland:
[10] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu (T2)
Was auch neuere Simulationen des AWI bestätigen:
EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher
Sogar die Münchner Rückversicherung kam jüngst zur gleichen Erkenntnis: [11] … Insgesamt nehmen die Schäden durch wetterbedingte Ereignisse in Deutschland aber nicht zu. Das berichtet Eberhard Faust, Forschungsleiter für Klimarisiken und Naturgefahren bei dem Rückversicherer Munich Re. Die extremen Wetterlagen führt er auf meteorologische Veränderungen zurück ….

Bild 8.1 [1] Anzahl der Tage mit Starkniederschlägen. Grafik vom Autor ergänzt

Die Kartoffel leidet

Wenn man negative Klimawandel-Einflüsse über reale Messwerte nicht finden kann, lässt man sie sich halt von einem „kompetenten Einheimischen“ erzählen:
WDR Reportage: [13] ... Für Landwirt Heiner Wening aus dem Münsterland steht außer Frage, dass seine bescheidenen Kartoffelernten aus diesem und dem vergangenen Jahr Folgen des Klimawandels sind: „Wir kriegen immer längere trockenere Phasen, und wenn es dann mal regnet, dann regnet es in größeren Mengen. Das hat es vor 30, 40 Jahren nicht gegeben, dass es in 24 Stunden 300 Millimeter Wasser gibt.“

Die Antwort – und dass man sie in eine Reportage übernommen hat – zeigt überdeutlich, dass alle Beteiligten keine Ahnung von Starkregenereignissen (und den historischen Kartoffelerträgen) haben. Denn die Erzählung zum Ertrag ist sonderbar.

Einzig informativ sind immer Verlaufsbilder. Der Autor hat eines aus Tabellierungen erstellt.

Bild 9 Hektarerträge Kartoffeln für Rheinland-Pfalz [17] (blau) 1950-2015, NRW [17] 1991-2017 (grün). Rheinland-Pfalz, jährliche Differenz (blau). Der Wert von 1903 entstammt einer anderen Quelle [17] und gilt für Gesamt-Deutschland. Grafik vom Autor aus den Tabellendaten erstellt
Der WDR-Report stammt von 10.2017. Im Jahr 2017 hieß es über die Kartoffelernte in NRW:
proplanta 01.12.2017: Kartoffelernte in NRW nah an Rekordergebnis
Düsseldorf – Die nordrhein-westfälischen Landwirte erzielten bei der diesjährigen Kartoffelernte mit 52,3 Tonnen je Hektar den dritthöchsten Flächenertrag aller Zeiten

Und diesen Ertrag und vor allem Verlauf seit 1900 kommentiert der Bauer mit „ … dass seine bescheidenen Kartoffelernten aus diesem und dem vergangenen Jahr Folgen des Klimawandels sind“.
Dabei hat NRW wohl eine der höchsten Erträge. Waren es auch die zwei Jahre davor geringfügig weniger, sind sie im Vergleich sehr hoch. Man wäre eher geneigt zu erwidern: Dieser Bauer kann wirklich nicht genug bekommen und kennt nur Eines: jammern. Vielleicht sind seine Äcker für den Kartoffelanbau auch einfach nicht geeignet. Und der aufnehmende Redakteur*in wollte nur dies hören. Wirkliche Daten interessierten ihn nicht.
Im Bild sieht man natürlich auch, dass die Ertragsdifferenzen seit der kleinen Kaltzeit um 1970 wieder drastisch abnehmen. Die Begründung des Bauern: „ … Das hat es vor 30, 40 Jahren nicht gegeben … „ entpuppt sich auch hier wieder als reine Fabulierung.
Jedenfalls hat (nicht nur) der „schlimme Klimawandel“ bewirkt, dass sich die Erträge seit Anfang 1900 mindestens vervierfacht haben! Das bringt die Reportage aber nicht.

Das Wetter, und damit die Kartoffelernten müssen in der vorindustriellen Zeit paradiesisch gewesen sein, doch auch dazu:
WIKIPEDIA (ausgehendes Mittelalter): …
Wenn die Kartoffelernte gering war, stiegen die Getreide- und Brotpreise und die Menschen mussten hungern. Dies geschah lokal häufiger, meist als Folge von Schlechtwetterperioden, wegen Trockenheit oder zu viel Regen.
H.P.Stamp: Kulturgeschichte der Kartoffel
Beispielsweise bei der Revolution von 1848, die im Kern eine soziale Revolution war und auf eine schlechte Kartoffelernte zurückging
Die schlimmen AGW-Klimawandel-Geschichten könnte man genau so gut in die Zeit vor der Industrialisierung datieren, es würde keinem Historiker auffallen.

Das hat es vor 30, 40 Jahren nicht gegeben, dass es in 24 Stunden 300 Millimeter Wasser gibt

Das folgende Bild des DWD zeigt, dass es vor 30, 40 Jahren weit trockenere Sommer und in anderen Jahren weit mehr Niederschlag gab. Extrem nasse Sommer scheinen eher abzunehmen. Der langjährige Mittelwert Gesamtniederschlag Sommer hat genau die Höhe vom Beginn der Messreihe im Jahr 1881.

Bild 9.1 NRW Niederschlag Sommer 1881 – 2017Quelle: DWD Klimaatlas. Grafik vom Autor ergänzt

Bild 9.2 NRW Niederschlag Winter 1881 – 2018. Quelle: DWD Klimaatlas

Dass 30 … 40 Jahre „Erlebnis“ für Aussagen zu Starkniederschlägen nicht im Ansatz ausreichen, ist inzwischen hinlänglich bekannt. In den Artikeln des Autors ist der Grund (die extreme Variabilität und chaotisches Verhalten von Niederschlag) in vielen Langzeit-Verlaufsgrafiken gezeigt:
EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)
Anbei eine Grafik daraus:

Bild 9.3 Tagesniederschlag Magdeburg1881-2017 (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt

EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels
Das gilt nicht nur für NRW und für Deutschland, sondern für Europa und weltweit:
EIKE 18.06.2016:
Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss
Was man im folgenden Bild zusätzlich noch sieht, ist die Reduzierung der Messstationen (blaue Linie). Das fällt auch in Deutschland auf. Beim DWD brechen viele Langzeitreihen ab. Man hat den Eindruck, es wird gar kein Wert darauf gelegt, lange, unveränderte Messreihen zu erhalten.

Bild 9.4 [14] Europa 1700 – 2013, relative Niederschlagsveränderung
Neuere Forschungen, hier sogar beim renommierten AWI, zeigen, dass Extreme mit zunehmender Erwärmung abnehmen sollen.
EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher
AWI: [15] … „Wenn wir dieser Idee weiter folgen, kommen wir zu dem Schluss, dass die Schwankungen langfristig mit der Erderwärmung weiter abnehmen“, sagt Rehfeld – einfach deshalb, weil der Temperaturunterschied zwischen dem sich erwärmenden Norden und den Tropen geringer wird …
Warum man das bisher nicht erkannt hat? Man hat bisher einfach nicht so richtig danach gesucht:
AWI: [15]…Die Leistung von Erstautorin Kira Rehfeld und ihren Kollegen besteht darin, dass sie erstmals Daten aus verschiedenen Klimaarchiven und von insgesamt 99 unterschiedlichen Orten zusammengebracht und verglichen haben
Aber nun kann man endlich damit beginnen. Indem man sich um „zuverlässige Klimaarchive“ kümmert und ein „detailliertes Verständnis“ schafft, „wie diese zu interpretieren sind.
AWI: [15] … Als zukünftige Aufgabe formulieren die AWI-Forscher: „Wir wollen die Veränderungen der kurzfristigen Schwankungen in der Vergangenheit und deren Zusammenhang mit langfristigen Klimaänderungen detailliert untersuchen. Dazu brauchen wir zuverlässige Klimaarchive und ein detaillierteres Verständnis darüber, wie diese zu interpretieren sind.“ Die Trennschärfe so zu erhöhen, dass damit zukünftig auch Extremereignisse in Paläo-Archiven abgebildet werden können, wie wir sie heute erleben, sei eine der großen Herausforderungen für die kommenden Jahre.

Manche mögen jetzt denken: Wenn die Jungforscher vom AWI nur ein kleines bisschen Recht haben, was hat die Klimaforschung die letzten 40 Jahr dann eigentlich gemacht? Vor allem nicht beim Gedanken, was auf solche „versprochenen Sicherheiten“ hin seit über 20 Jahren weltweit an Geld zum Fenster hinausgeworfen und Gängelungsmaßnahmen eingeführt wurden (und werden).

Waldbrandgefahr

Es ist interessant, in einem der Berichte eine Grafik mit abnehmendem Verlauf von Waldbränden zu sehen (Bild 10). Denn auch diese sollen zunehmen:
AFZ-Der Wald 3/2017 Forstpolitik II Klimaschutz: … Wald und Klimawandel in Nordrhein-Westfalen wird sich aller Voraussicht nach, in Kombination mit heißeren Sommern und Trockenperioden, auch die Gefahr von Waldbränden in Zukunft erhöhen …

Bild 10 [6] Jährliche Anzahl an Waldbränden in NRW

Stürme

Beim Klimawandel ist es üblich, dass alle voneinander abschreiben. Dieses „Multiplizieren von Wissen“ wird dann als Beleg „verkauft“. Leider stört sich niemand daran, solange das Ergebnis die gängige, alarmistische Meinung unterstützt:
EIKE 31. März 2018: [12] Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist
Dieses Vorgehen wird auch in amtlichen Dokumenten weitergeführt, wie im NRW Klimaschutzplan.
NRW Klimaschutzplan: [7] … Denn auch in Nordrhein-Westfalen ist der Klimawandel längst Realität …. Auch mit Blick auf die in vielen NRW-Städten aufgrund einer Sturmwarnung 2016 abgesagten Rosenmontagsumzüge, wird deutlich, dass solche Ereignisse künftig häufiger eintreten werden.
Expertinnen und Experten gehen davon aus, dass Extremwetterereignisse wie Stürme … durch den Klimawandel in ihrer Häufigkeit und Intensität weiter zunehmen werden ..

Diese „Begründung“ ist ein Affront an den Menschenverstand. Wer sich noch an dieses Jahr erinnert, weiß, dass im Jahr 2016 die „angedrohte Sturmgefahr“ lediglich als willkommener Anlass diente, die Umzüge absagen zu können, ohne den wahren Grund – die latente Terrorgefahr – publizieren zu müssen. Die Stürme kamen dann auch nicht.
Doch auch sonst wäre es kein Beleg. Stürme schwanken ähnlich stark wie Starkregenereignisse und damit ist selbst über lange Zeitreihen kein Trend belegbar. Sofern man trotzdem einen ableiten wollte: Sie nehmen eher ab als zu.
SPON 29.10.2011: Forscher erklären Jahrhundert-Orkane zum Normalfall
Anhand von Versicherungsdaten und Wetterstatistik haben deutsche Forscher um Markus Donat, der an der University of New South Wales in Australien arbeitet, den Rhythmus der heftigsten Orkane der vergangenen Jahrzehnte in Deutschland ermittelt. Die Forscher haben die 34 stärksten Stürme von 1997 bis 2007 und deren Schäden mit Stürmen der vergangenen 60 Jahren verglichen. Daraus ermittelten sie, wie häufig sich die Wetterlagen mit entsprechenden Schäden wiederholen.

Der Klimawandel bleibt in der Studie außen vor; bislang zeigt die Statistik keine Zunahme von Stürmen in Nordeuropa, und Prognosen gelten als unsicher. Allein die nun ausgewertete Statistik aber zeigt, dass selbst der zerstörerischste Sturm seit Beginn der systematischen Aufzeichnungen im Jahre 1901 demnach kein Jahrhundertereignis ist: Orkane wie „Capella“, der Anfang Januar 1976 vor allem in Norddeutschland Milliardenschäden anrichtete, wiederholten sich im Durchschnitt alle 29 bis 45 Jahre, berichten Donat und seine Kollegen nun im Fachmagazin „Natural Hazards and Earth System Sciences“.

shz.de 07.10.2014: Orkan „Christian“ war kein Kind des Klimawandels
... Gemeinsam mit Kollegen des Deutschen Wetterdienstes und des dänischen Meteorologischen Instituts haben die Geesthachter Küstenforscher die Daten von „Christian“ und anderer Orkane ausgewertet. Von Storch erlebte den Ausnahme-Sturm am 28. Oktober 2013 hautnah: Beim Versuch, seine Heimatinsel Föhr zu besuchen, strandete er in Dagebüll. Er und seine Kollegen stießen bei ihrer Untersuchung auf  Schwankungen der Sturmintensität über viele Jahrzehnte. „Erkennbar ist eine Verringerung der Sturmaktivität seit den 1880ern bis Mitte der 1960er Jahre und ein darauf folgender Anstieg bis Mitte der 1990er Jahre“, sagt von Storch. Seit Mitte der 1990er Jahre verringere sich die Aktivität wiederum. „Anders als bei Hitzewellen können diese Schwankungen allein auf natürliche Variabilität zurückgeführt werden“, erklärt der Wissenschaftler …

Um es zu zeigen anbei eine Grafik mit den täglichen Windspitzen bei Essen von 1963-2017. Deutlich sieht man vor ca. 1990 kontinuierlicher hohe Spitzengeschwindigkeiten und danach eine Abnahme der Windspitzen.

Bild 11 NRW Essen tägliche Windspitzen 1963-2017. Quelle: DWD Station 1303. Grafik vom Autor erstellt

Beim Verlauf des Tagesmittels wird man dann geradezu überrascht, und fragt sich, wer die Angaben in einem Klimaschutzplan testet und warum solch eklatante – und ganz leicht widerlegbare – Falschaussagen niemandem auffallen.

Bild 12 NRW Essen Tagesmittel Windgeschwindigkeit 1963-2017. Quelle: DWD Station 1303. Grafik vom Autor erstellt

Fazit

Beim Sichten der vielen Dokumente der Landesregierung von Nordrhein-Westfahlen zum Klimawandel stellt der Autor wieder fest:
-Die von politischen Personen in den Vorwörtern gelisteten Gefahren finden sich beim Nachsehen der Daten oft nicht. Man hat den Eindruck, der Inhalt wurde gar nicht gelesen, sondern ein gewünschter dazu fabuliert.
-geringfügige Veränderungen werden oft zu „Gefahren“ aufgebauscht,
-Probleme werden teils einfach fabuliert, obwohl Belege fehlen, oder die Daten sogar widersprechen.
-Es werden viel zu kurze Zeiträume betrachtet. Variabilitäten des normalen Wetters werden fälschlich dem Klima(wandel) zugeschrieben,
-Einzelereignisse werden aufgebauscht, die erforderliche Betrachtung im größeren Kontext unterbleibt.

Und so stellt sich nun wieder die Frage: Wo kommen dann die „Klimakatastrophen“ her?
Und mancher Leser wird es ahnen. Für Klimakatastrophen gibt es ein berüchtigtes Institut in Deutschland. Diesem gelingt in Simulationen wirklich alles.

Macht aber nichts: Dass es anders sein muss, weiß doch „jedes Kind“. Deshalb konnte die UN-Klimachefin Patricia Espinosa (Juristin und ehemalige Diplomatin) vor 4000 „Klimawandel-Fachpersonen“ auf der gerade wieder stattfindenden Klimakonferenz in Bonn zurufen: „Wir müssen unsere Ambitionen dramatisch verstärken … Unser Zeitfenster schließt sich sehr schnell“ … Die vielen Wetterkatastrophen des vergangenen Jahres hätten dies noch einmal deutlich gemacht.
Dabei war sie an einer Stelle ehrlich: Wetter- und nicht Klimakatastrophen sind Ursache vieler Probleme. Nur ist das seit Jahrtausenden schon so.

Die „Klimakatastrophen“ kommen als Simulationen – vom PIK

Zur Einleitung dieses Kapitels der Verlauf der Temperatur in NRW nach den Simulationen des PIK:

Bild 13 [6] PIK-Simulation der Temperaturanomalien NRW. Grafik vom Autor ergänzt
Eingetragen in den Verlauf von Bild 3 ergibt sich der folgende Verlauf vom Jahr 0 bis zum Jahr 2100 (Bild 12).

Bild 14 Temperaturverlauf NRW historisch, aktuell und mit PIK-Simulation bis zum Jahr 2100, vom Autor erweitert bis 2200 und mit den aktuellen Wärmeinseldaten von Köln und Nürnberg

Daran sieht man, dass die „Klimakatastrophe“ nur in Simulationen stattfindet, vor allem auch, wohin aktuelle Wärmeinseleffekte die Städte „klimawandlerisch“ katapultiert haben.
Ähnlich die Simulation zum Niederschlag im Folgebild.

Bild 15 [6] PIK-Simulation der Niederschlagsanomalien NRW
Dabei hat sich seit 1960 … 1970 der Niederschlag nicht mehr erhöht. Aktuell hat er den Stand vom Jahr 1880, dem Beginn der Messreihe (Bild 16).
Diese Verläufe sind immer „sonderbar“. Die CO2-Konzentration wird stetig höher, die „schlimmen Klimawandel-Einflüsse“ nehmen jedoch fast überall ab, auf keinen Fall werden sie schlimmer.

Bild 16 Niederschlagsverlauf 1880 – 2017 und Simulation bis zum Jahr 2100. Quelle: DWD Klimaatlas

Spätfröste haben den Obstbauern letztes Jahr extrem zugesetzt. Da soll sich bald ändern. Spätfröste nehmen in der Simulation spontan ab und können im Rheintal dann ganz wegfallen.

Bild 17 [6] PIK-Simulation der Spät- und Frühfröste. Vom Autor um Begrenzungslinien für „Rheintal und Kölner Bucht“ ergänzt
Im PIK-Dokument [6] selbst kann man anhand der vielen Variantengrafiken gut verfolgen, wie ungenau die Simulationen wirklich sind. Welche Variante am besten passt, weiß man nicht vorher, sondern wird durch Probieren nachträglich ermittelt. Man hofft dann einfach weiter, dass dieses „gerade so Passende“ auch für die Zukunft „ausreichend passende“ Ergebnisse liefern wird.
kaltesone 24. April 2018: Klimawissenschaften können Politik nicht zuverlässig beraten, wenn Modellunsicherheiten nicht endlich reduziert werden
Zum Angst erzeugen werden diese teils fürchterlich ungenauen Simulationen aber nach wie vor verwendet – und von unseren Politikern, welche danach das viele Geld ausgeben, auch unbesehen geglaubt. Natürlich nicht nur in NRW, sondern vor allem auch dort, wo wirklich viel Geld fließt:
EIKE 31. März 2018: Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist – zur Bundestagsdebatte Umwelt

Wer nun etwa anfängt, am schlimmen (simulierten) Klimawandel zu zweifeln, hat sich bei „politisch zertifizierten“ Portalen über die „richtige“ Meinung informieren

Diese Rezension sollte nur wieder zeigen, dass (verblüffend) oft selbst die offiziell in Berichten hinterlegten Daten den „schlimmen Klimawandel“ nicht entfernt „hergeben“, trotzdem jedoch anhand deren konsequent das Gegenteil daraus erzählt wird. Dies zieht sich durch viele Rezensionen:
EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)
EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

Doch wie es unser neuer Bundespräsident verkündete: Alternative Fakten können nur Unwahrheiten sein. Nur was Berlin „freigibt“, vermittelt die (zugelassene) Wahrheit:
Westfalenpost 21.03.2018: Steinmeier warnt: Lügen im Netz spalten die Gesellschaft
Das gilt auch für unsere Bundestags-Abgeordneten, welche „gehalten“ sind, ausschließlich aus „seriösen“ Quellen, also den gleichen – „freigegebenen“ -, zu zitieren:
EIKE 31. März 2018: Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist – zur Bundestagsdebatte Umwelt

Daran halten sich inzwischen nicht (mehr) geschlossen alle Parteien. Wie es trotzdem gelingen soll, weiterhin sicherzustellen, dass aus gegenteiligen Daten immer das vorgegebene Ergebnis „herausgelesen“ wird, lässt sich mit schöner Regelmäßigkeit in einem (Des-)Informationsblog nachlesen.

Bild 18 KLIMARETTER.DE Screenshot von der Homepage

Ein Mitherausgeber dieser Seite (neben C. Kemfert) ist auch Prof. em. Graßl, ein ausgewiesener Atomkraftgegner und Klimaalarmist, auch Vorsitzender der Gesellschafterversammlung des Potsdam-Institutes für Klimafolgenforschung (PIK), Mitglied im Stiftungsrat der Münchner Rück, Mitglied im Beirat für Klimaschutzfragen des Senats der Freien und Hansestadt Hamburg, Vorsitzender des Klimarates der bayerischen Staatsregierung.

Seine Kolumne auf Klimaretter

Diese „investigative“ Seite hat keine Hemmungen, Agitation – wenn sie in die „richtige“ Richtung weist -, hemmungslos zu befürworten:
EIKE 12. Juli 2017: Wenn für das Klima protestiert wird, muss man Gesetze und Anordnungen nicht so genau beachten, erzählt die „Infoplattform“ der Berliner Klimaberaterin
EIKE 11.10.2016: C. Kemfert, Professorin und Politik-Beraterin für Umwelt und Energie, bekommt Ehrenpreise für Agitation
und Studien als vorbildlich zu listen, in denen Mängel der Tidenpegel bewusst zu alarmistischen Falschdarstellungen aufgebauscht wurden.
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)

Nicht nur das. Diese Pegelstudie wurde von Correctiv in zwei Versionen erstellt: Eine ohne Alarmismus, und eine mit.
Die mit Alarmismus wird bei Klimaretter vorgestellt und besprochen.

Bild 19 Correctiv-Studie mit bewusst alarmistischer Uminterpretation schlechter Pegeldaten. Screenshot von der Homepage Klimaretter.Info

Wer es dennoch wagt, daran etwas in Frage zu stellen, wird von solchen „seriösen“ Portalen der Lüge bezichtigt. Zu einer solchen (von Klimaretter unterstützten Seite) weist der Link:

Bild 20 Screenshot(Auszug) von der Homepage

Dieser Lügendetektor nimmt es mit der Wissenschaft ganz genau und belegt „unbezweifelbar“, einfach durch Verweis auf ein Interview, was noch niemandem gelang:
Lügendetektor
29. Januar 2017: Die AfD: Alternative Fakten verbreiten
… Darin sagte der (AfD) Landtagsabgeordnete aus Stralsund:

Bild 21 Lügendetektor, Screenshot

Dazu weiß der Lügendetektor die einzige, richtige Antwort: Ist absolut richtig. Wenn man an der richtigen Stelle das kleine Wörtchen nicht einfügt: „In Wirklichkeit gibt es keine einzige wissenschaftliche und begutachtete Studie, die nicht den Nachweis erbracht hat, dass es einen signifikanten Zusammenhang zwischen Klimaerwärmung und Zunahme anthropogener CO2‐Emissionen gibt.“ …
Der „wirkliche Beleg“ dazu: Ein Link auf ein Interview eines PIK-Mitarbeiters im Deutschlandfunk:
Lügendetektor: … Dass es diesen signifikanten Zusammenhang gibt, können wir – O-Ton Professor Anders Levermann – „ungefähr so klar sagen, wie wir sagen können, dass wir von der Gravitation auf der Erde gehalten werden“. Formuliert hat das der Experte vom Potsdam-Institut für Klimafolgenforschung am vergangenen Donnerstag im Deutschlandfunk.
Deutschlandfunk, A. Levermann: Klimawandel“ Da gibt es einfach keine Zweifel“
Der Mensch ist verantwortlich für den Klimawandel auf der Erde, sagt der Klimaforscher Anders Levermann vom Potsdam-Institut für Klimafolgenforschung.
Redakteurin: … Wie klar kann die Wissenschaft sagen, dass wir etwas gegen die Klimaerwärmung tun müssen?
Anders Levermann: … Wir können es ungefähr so klar sagen wie wir sagen können, dass wir von der Gravitation auf der Erde gehalten werden. Das ist wirklich Grundlagenphysik und das ist erstes Semester, und wenn Sie woanders studiert haben, dann vielleicht mal drittes Semester. Aber wir wissen das schon seit über 100 Jahren, dass der CO2-Ausstoß die Temperatur des Planeten erhöht, und das ist das, was wir beobachten, was wir verstehen. Da gibt es einfach keine Zweifel.

Wer in Blogs verfolgt, wie Experten um diese „Grundlagenphysik vielleicht mal drittes Semester“ mit schnell 100 Einträgen streiten und zu wirklich keiner einvernehmlichen Lösung kommen, weiß genau so sicher, dass Herr Levermann hier lediglich seine Meinung und nicht ein universelles Wissen verkündet.
Nach wie vor gibt es außer einer abschnittsweisen Korrelation zwischen der (geringfügigen) Erwärmung seit der mittelalterlichen Kaltzeit und einer Erhöhung der CO2-Konzentration keinen Beleg für einen erheblichen, anthropogenen Anteil daran. Daraus eine Aussage zu formulieren: „In Wirklichkeit gibt es keine einzige wissenschaftliche und begutachtete Studie, die nicht den Nachweis erbracht hat, dass es einen signifikanten Zusammenhang zwischen Klimaerwärmung und Zunahme anthropogener CO2‐Emissionen gibt.“ .. ,
ist mehr als unverfroren.

Man kann auch auf unsere Medien zurückgreifen. Die EU plant, unseren „Qualitätsmedien“ zu helfen, weil deren Verkäufe immer mehr zurückgehen und das nur daran liegen kann, das das Volk deren Qualität nicht begreifen will:
Tichys Einblick: Steuersubventionen für Auflagen-schwächelnde Presse? Staatszertifikate für „Qualitätsmedien“?
Unsere Medien haben es längst begriffen, wer sie in Zukunft ernähren wird und nehmen keine Rücksicht mehr auf ihre Leser, sondern nur noch auf die von den künftigen Geldgebern gewünschte „Datenvermittlung“. Deshalb ist deren (indoktrinations-)Programm auch auf die Jüngsten ausgeweitet.
Zu diesem (Des-)Informationsblatt lese man:
Novo Argumente: Eis Eis Bärli

Bild 22 Spiegel für Kinder, Beispiel

Oder man lese etwas regelmäßiger die SZ und verfolge, wie subtil in fast jeder Ausgabe ein schon zur Römerzeit beliebtes, psychologisches Beeinflussungsspiel Im Übrigen bin ich der Meinung, dass Karthago zerstört werden muss„ synonym betrieben wird:
Süddeutsche Zeitung, Wochenendausgabe 28./29. April 2018: Naturgewalt Mensch
… 12000 Jahre lang konnte sich der Mensch im Holozän einrichten. Weit über seine jeweilige Gegenwart hinaus eröffnete sich ein zeitlicher Raum, den er zu nutzen lernte, um seine Zukunft zu planen. Mit dieser Vorhersehbarkeit der Natur ist es nun vorbei. Der Klimawandel bedeutet ja mehr als nur ein Ansteigen der Temperatur.
Er bringt ein lebendiges, aber stabiles und dem Menschen seit Jahrtausenden bekanntes System aus dem Lot. Die Folge sind neue Dynamiken von Wetterextremen bis hin zum möglichen Kippen des Golfstroms. Der Mensch ist mit Phänomenen konfrontiert, die ihm völlig neu sind …

Etwas Falscheres, als für die letzten Jahrtausende ein „stabiles System“ zu postulieren, ist kaum möglich. Um die Beschäftigung mit Fakten zu vermeiden, weist der Artikel dann auch darauf, wer die Diskussion weiterführen wird: In einem weiteren Beitrag wird sich der Soziologe … mit den sozialen Folgen des Klimawandels beschäftigen
Leider ist es inzwischen weltweit „gängiger Konsens“:
EIKE: Klima: Umarbeitung, Entschädigungen und Wiederherstellung

Womit ein „dem Bürger genehmes Wetter“ bald auch in Deutschland einklagbar sein wird (sobald das von der GroKo geplante Klimaschutzgesetz in Kraft tritt). Das Wetter wird es so wenig verändern, wie die vielen, im Mittelalter über mehrere Jahrhunderte (auch) wegen Wetterfrevel verurteilten Hexen. Hoffen wir nur nicht, dass die Erkenntnis darüber wieder so lange dauert.

Quellen

[1] Klimawandel und Klimafolgen in Nordrhein-Westfalen Ergebnisse aus den Monitoringprogrammen 2016, LANUV-Fachbericht 74

[2] Ministerium für Umwelt und Naturschutz NRW: Anpassung an den Klimawandel Eine Strategie für Nordrhein-Westfalen

[3] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[4] kaltesonne 17. April 2018: Klimawandel in Nordrhein-Westfalen

[5] Moschen et al. 2011: Temperature variability at Dürres Maar, Germany during the Migration Period and at High Medieval Times, inferred from stable carbon isotopes of Sphagnum cellulose

[6] PIK 2009: Klimawandel in Nordrhein-Westfalen Regionale Abschätzung der Anfälligkeit ausgewählter Sektoren

[7] NRW Klimaschutzplan

[8] KlimaKonzept.NRW: Klimaschutz und Klimaanpassung in öffentlichen Einrichtungen

[9] kaltesonne 17. April 2018: Klimawandel in Nordrhein-Westfalen

[10] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[11] Nordbayerische Nachrichten vom 5. März 2018, Print-Lokalausgabe

[12] EIKE 31. März 2018: Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist – zur Bundestagsdebatte Umwelt

[13] WDR 27.10.2017: NRW bekommt das Weltklima „übergestülpt“

[14] Journal of Hydrology 531(2015), W.A. van Wijngaarden at al, 2015: Changes in annual precipitation over the Earth’s land mass excluding Antarctica from the 18th century to 2013

[15] AWI 05.02.2018: Klimaschwankungen in Vergangenheit und Zukunft

[16] Rheinland Pfalz: STATISTISCHE BÄNDE Die Landwirtschaft 2012

[17] unika, Union der Deutschen Kartoffelwirtschaft




Aktuelle Warmzeit – Klimavariabilität oder Klimawandel?

Einführung

Mitte des 20. Jahrhunderts waren viele Wissenschaftler davon überzeugt, dass sich die Erde abkühlt. Jetzt prophezeien die Wissenschaftler globale Erwärmung. Tatsächlich zeigen instrumentelle Messungen, dass die Temperatur während der letzten 165 Jahre um etwa 1°C gestiegen ist. Mit Erwärmungsraten zwischen 0,5°C und über 1,3°C pro Jahrhundert war dies für Viele Auslöser von Alarm. Allgemein wird diese jüngste Erwärmung steigenden Treibhausgasen zugeordnet, primär CO2.

In diesem Beitrag geht es um natürliche Trends des Paläoklimas sowie einfache Charakteristiken von Klimazyklen in Vergangenheit und Gegenwart über verschiedene Zeitmaßstäbe. Die Daten zeigen deutliche Unterschiede zwischen kurzzeitiger Klimavariabilität und längerzeitlichem Klimawandel. Das ist wichtig, weil die kurzfristige Klimavariabilität fehlinterpretiert werden kann als ein zugrunde liegender Klimawandel, was zu schlechter Wissenschaft und potentiell noch schlechteren politischen Maßnahmen führt. In diesem Beitrag werden moderne instrumentelle Trends verglichen mit paläoklimatischen Trends. Bei diesem Vergleich zeigt sich, dass die moderne Warmzeit viel eher Charakteristika einer natürlichen kurzzeitigen Klimavariabilität zeigt und nicht eines langzeitlichen Klimawandels.

Der Vergleich moderner instrumenteller Messungen mit langzeitlichen paläoklimatischen Daten ist keine einfache Aufgabe. Es sind sehr verschiedene Arten von Datensätzen. Paläoklimatische Isotopendaten aus Eisbohrkernen zeigen indirekt Temperatur-Proxies über Millionen von Jahren an. Instrumentelle Aufzeichnungen dagegen weisen eine hohe Auflösung auf von Stunden, Tagen oder Jahrzehnten. Allerdings dürfen paläoklimatische Daten nicht ignoriert oder außen vor gelassen werden, wenn man Temperaturtrends der heutigen Zeit verstehen will. Paläoklimatische Charakteristiken und Trends bieten den überbrückenden Rahmen und die Klimahistorie, um Temperatur-Fluktuationen über Jahrhunderte und potentielle zukünftige Temperatur-tipping points zu erkennen. Die natürliche Grundlage des historischen Klimas muss vor jedem anderen Versuch stehen, potentielle menschliche Einflüsse zu erkennen.

Wöchentliche oder tägliche Wetterabläufe sagen einem nichts über längerfristigen Klimawandel (und das gilt auch für warme Tage). Klima ist definiert als statistische Eigenschaften der Atmosphäre: Mittelwerte, Extrema, Häufigkeit des Auftretens, Abweichung vom Normalen und so weiter. Shepherd.

Unterscheidung von Klimavariabilität und zugrunde liegendem Klimawandel

Das IPCC verwendet folgende Definitionen von Klimavariabilität und Klimawandel: „Klimavariabilität bezieht sich auf Variationen des mittleren Zustandes und andere Statistiken (wie etwa Standardabweichungen, das Auftreten von Extrema usw.) des Klimas in allen räumlichen und zeitlichen Größenordnungen jenseits individueller Wetterereignisse.

Klimawandel bezieht sich auf eine Änderung des Klima-Zustandes (z. B. feststellbar mittels statistischer Tests) durch Änderungen der Mittelwerte und/oder der Variabilität von dessen Eigenschaften über einen längeren Zeitraum, typischerweise Jahrzehnte oder länger.“.

Obwohl diese Definitionen qualitativer Natur sind, kann man Klimawandel von Klimavariabilität unterscheiden. Da in Zukunft immer mehr Daten zu Ereignissen im Zeitmaßstab von Jahrhunderten verfügbar sein werden, lässt sich die Bandbreite eingrenzen. Derzeit ist es so, dass Erwärmungs- und Abkühlungstrends über weniger als ±500 Jahre eine große Varianz der Änderungsraten aufweisen. Allerdings weisen Erwärmungs- und Abkühlungstrends über ±700 Jahre, was zugrunde liegende langzeitliche Trends sind, Raten von weniger als etwa 0,25°C pro Jahrhundert auf, basierend auf Daten aus der Antarktis. Das sind echte Klimawandel-Ereignisse. Klimavariabilität beschreibt am besten die kürzeren Trends über wenige Jahrhunderte, welche lediglich als interne Oszillationen dem längerzeitlichem Klimawandel überlagert sind.

Gegenwärtig sind instrumentelle Temperatur-Charakteristiken konsistent mit der natürlichen Klimavariabilität kurzfristiger Ereignisse und steilen Erwärmungs-Trendlinien.

Den Klimawandel untersuchende Wissenschaftler sollten sich multipler Arbeitshypothesen bedienen. Wir alle kennen den CO2-Hockeyschläger mit stetig weiter zunehmenden Temperaturprojektionen in das 21. Jahrhundert hinein. Natürliche Klima-Charakteristiken der Vergangenheit offenbaren eine andere Hypothese. Eine, in der die Moderne Globale Erwärmung Teil eines natürlichen Abschnitts von Erwärmung ist im Rahmen der Multi-Jahrhunderte-Klimavariabilität und in der der Einfluss von CO2 überschätzt wird. Die derzeitigen modernen Änderungsraten liegen mit Sicherheit auf einer Linie mit natürlichen kurzzeitigen Ereignissen während der Vergangenheit. Und in ein paar Jahrhunderten kann es zu einer raschen Wende kommen, wonach ein Multi-Jahrhunderte-Abschnitt mit Abkühlung einsetzen wird.

Alle paar Jahrhunderte wird die Erde Schauplatz dieser falschen Alarme von hohen Raten der Temperaturänderung sein, sowohl positiv als auch negativ. Die Erkennung kurzfristiger Zyklen und daraus resultierender Anpassungs-Strategien sollte anderer Natur sein als die für längerfristigen Klimawandel. Diese Multi-Jahrhunderte-Zyklen der Klimavariabilität werden sich auch in den kommenden Jahrtausenden fortsetzen – bis das zugrunde liegende Interglazial des Holozäns in eine langfristige Abkühlung und damit in die nächste Vereisung übergehen wird.

Schlussfolgerungen

Charakteristiken in den paläoklimatischen Daten vor der industriellen Revolution können per definitionem nicht anthropogenen Antrieben zugeordnet werden. Paläoklimatische Daten können eine natürliche Grundlage sei für lang-, mittel- und kurzfristige Klimazyklen sein. Die Plateaus des Holozäns und vergangener Interglaziale sind charakterisiert durch eine häufig auftretende Jahrhunderte lange Klimavariabilität, welche andere Charakteristiken aufweist als der zugrunde liegende längerfristige Klimawandel über Jahrtausende.

Klimawandel-tipping points und der zugrunde liegende Rahmen sind das Einsetzen des Interglazials, des Plateaus und eventuell Abkühlung. Diese Zyklen zeigen dramatische Temperaturänderungen bis zu 12°C. Der nächste natürliche langfristige tipping point für die Erde wird eine Abkühlung am Ende des Holozän-Interglazials sein. Es wird tausende Jahre dauern, dass die Erde in diese Phase eintritt und sie durchläuft, was der Erde zusammen mit ihren Ökosystemen und ihren Bewohnern genügend Zeit für notwendige Anpassungen gewährleistet.

Klimavariabilität tritt sehr häufig auf. Sie ist charakterisiert durch kurzzeitiges Auftreten von weniger als 500 Jahren sowie Erwärmungs- und Abkühlungsraten über 0,25°C pro Jahrhundert. Gegenwärtig zeigen instrumentelle und Satelliten-Temperaturdaten Raten von0,5°C bis 1,8°C pro Jahrhundert. Diese liegen mitten im Bereich natürlicher Ereignisse im Maßstab von Jahrhunderten. Daher ist die gegenwärtige moderne Erwärmung wahrscheinlich ein Abschnitt einer Multi-Jahrhunderte-Erwärmung, wobei es schon bald zu einer Temperatur-Trendumkehr kommen wird.

In diesem Beitrag wurden moderne instrumentelle Trends mit paläoklimatischen Trends verglichen. Der Vergleich enthüllt, dass die gegenwärtige Erwärmung nicht konsistent ist mit Temperatur-Änderungsraten über langzeitlichen Klimawandel. Die Rate der gegenwärtigen modernen Erwärmung ist viel mehr konsistent mit Klimavariabilität.

Link: https://wattsupwiththat.com/2018/03/28/modern-warming-climate-variablity-or-climate-change/

Übersetzt von Chris Frey EIKE