1

Neue Studien bestätigen, dass die Kosten für Naturkatastrophen kein Beweis für eine Globale Erwärmung sind

Nach Angaben von Munich Re  werden die Versicherer 135 Milliarden Dollar für Naturkatastrophen auszahlen. Der größte Teil der monetären Schäden kam von den Hurrikanen Harvey, Irma und Maria, die im Herbst die US- und die Karibikinseln trafen. Insgesamt verursachten die Hurrikane Schäden in Höhe von 215 Milliarden Dollar.

Die nominalen Kosten von Naturkatastrophen – einschließlich Hurrikane, Brände und Erdbeben – haben im Laufe der Zeit zugenommen – zieht man die Inflation und das Wirtschaftswachstum in Betracht, sind die bereinigten Kosten für Katastrophen seit 1990 rückläufig.

Dieses entspricht den Untersuchungen von Roger Pielke, Jr. von der Universität von Colorado, der jahrelang studiert hat, warum die Ausgaben für Naturkatastrophen gestiegen sind, obwohl bei extremen Wetterbedingungen keine Trends erkennbar sind.

Pielke hat die Behauptungen von Politikern und Aktivisten zurückgewiesen, dass die Erderwärmung Naturkatastrophen verstärkt und damit die Kosten für Katastrophen erhöht. Pielkes Arbeit – und die Arbeit anderer – zeigt jedoch, dass dies nicht der Fall ist.

Die Weltwirtschaft ist seit den 1990er Jahren gewachsen. Hurrikan Harvey zum Beispiel war die teuerste Naturkatastrophe des Jahres 2017 und verursachte Ende August 85 Milliarden Dollar an Schaden. Harvey ließ mehrere Tage lang Rekordregenfälle über dem Großraum Houston fallen.

Aber Harvey’s Kosten für den Wiederaufbau wären wesentlich kleiner gewesen, wenn er zum Beispiel 1960 zugeschlagen hätte, als Houstons Bevölkerung 60 Prozent weniger war als heute. Weniger Gebäude, Straßen und Infrastruktur bedeuten, dass der gleiche Sturm weniger Schaden anrichten kann.

Aber das ist noch nicht alles, Pielke hat festgestellt, dass die Inflationsrate auch ohne Entwicklung dazu führt, dass heutige Katastrophen eine Milliarde US-Dollar mehr kosten, als in den vergangenen Jahrzehnten.

Heutzutage können wir auch besser extreme Wetterbedingungen erkennen, unter anderem durch den Einsatz von Satelliten.

Aktivisten argumentieren oft, dass erhöhte Katastrophenkosten und Katastrophenerklärungen zeigen, wie extremes Wetter aufgrund der vom Menschen verursachten globalen Erwärmung häufiger und intensiver wird. Klimastudien ergeben jedoch keine Anzeichen für zunehmende Trends an Extremsituationen.

Der vorstehend angeführte Link:

Lassen Sie sich nicht durch das Lieblingsvideo des Internets über das „Quadrupeln“ des extremen Wetters irreführen

… Die Einschätzung, dass die Häufigkeit von extremen Wetter sich erhöht hätte, basiert auf einem Economist-Artikel , der am 29. August 2017 veröffentlicht wurde und erklärte: „Wetterbedingte Katastrophen nehmen zu“, unter Berufung auf Daten der Vereinten Nationen und der Rückversicherungsindustrie.

… Es ist interessant, dass der Economist einen Trend feststellen konnte, den Hunderte von wissenschaftlichen Experten des IPCC nicht in Peer-Review-Daten finden konnten.

Die neueste Bewertung des IPCC fand „begrenzte Beweise für Änderungen in Extremwerten, die mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts in Verbindung stehen“.

Das wurde weitgehend von Umweltschützern ignoriert, die das Video des Economist im Gefolge von zwei Hurrikanen, die seit Ende August in den USA landeten, gerne twitterten.

 

„Der wichtigste Vorbehalt: Benutzen Sie keine Katastrophen, um über Trends im Klima zu streiten„, schrieb Pielke in einem Blogbeitrag , in dem neue Katastrophen-Daten der Munich Re enthalten waren. „Trends in der Häufigkeit von extremem Wetter helfen, diese Grafik zu erklären, da die Welt eine lange Strecke des Glücks erlebt hat“.

Erschienen auf The Daily Caller am 05.01.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/01/05/new-data-confirms-that-natural-disaster-costs-are-not-proof-of-global-warming/




JENSEITS VON KÜSTE UND REALITÄT – WINDLOBBY SPINNT SEEMANNSGARN

Focus online

Spiegel online

ZDF

Ähnlich wie zu Beginn, wird zum Ende des Jahres eine vermeintliche Erfolgsgeschichte erzählt. Held der Story: Die Windenergie auf hoher See (Offshore).

Konkret berichtet die dpa über eine Studie der Leser(inn)en unserer Seite bereits bekannten Gesinnungsforschungseinrichtung IWES in Kassel, die von der Stiftung Offshore Windenergie in Auftrag gegeben wurde. Die Vorsitzende dieser Stiftung zeigt sich von Freude und Stolz erfüllt:

 “Die Offshore-Windenergie trägt erheblich zur Versorgungssicherheit bei“, sagt Ursula Prall, Vorstandsvorsitzende der Stiftung Offshore-Windenergie. Durch ein höheres Ausbauvolumen seien auch weitere Kostensenkungen möglich. In der IWES-Studie wird für das Jahr 2050 sogar eine Leistung von 57 Gigawatt als energiewirtschaftlich optimal empfohlen.

Alle uns zur Kenntnis gelangten Medienberichte, die dieser “Studie” ungerechtfertigterweise Aufmerksamkeit schenkten, wiesen darauf hin, dass die Windenergie auf hoher See bessere Erträge liefere, als bisher angenommen worden sei. Die entsprechende Passage der dpa-Meldung, die in fast allen Berichten weitergetragen wurde, lautet:

Windkraftwerke auf dem Meer erzeugen nach einer Studie des Instituts Fraunhofer IWES mehr und zuverlässiger Strom als bislang angenommen. Die Windkraftanlagen in Nord- und Ostsee produzieren an 363 Tagen des Jahres Energie, teilte die Stiftung Offshore Windenergie als Auftraggeberin der Studie mit. Bei der Vorgängerstudie hatte dieser Wert noch bei 340 Tagen gelegen.

Unisono wurde dabei übersehen, dass die erstaunlichen Erkenntnisse nicht etwa auf realen Ertragsdaten, sondern auf Simulationen und das Jahr 2050 betreffenden Annahmen beruhen.

Die vergangenheitsbezogene Schlussfolgerung, wonach “die Anlagen somit relativ konstant Strom lieferten“, zu welcher die Windkraft-Lobby die dpa verlockte, ist weder durch die Ergebnisse der Simulanten aus Kassel noch durch reale Leistungsverläufe in irgendeiner Weise gedeckt!

Mit Hilfe der wissenschaftlichen “Methode des genauen Hinsehens” (Prof. J. Weimann) offenbart sich selbst dem unvoreingenommenen Laien der ebenso dreiste wie offensichtliche Betrug, den wir bedauerlicherweise von einschlägigen Lobby-Institutionen und insbesondere vom Kasseler Fraunhofer IWES inzwischen gewohnt sind.

Wir haben uns daher die Mühe gemacht, die tatsächliche Stromproduktion auf See zu recherchieren und entsprechenden Aussagen der selbsternannten Fraunhofer- Wissenschaftler gegenüber zu stellen:

Abbildung 1: Offshore-Windstrom an Nord- und Ostsee.

Zu der tatsächlichen Windstromerzeugung entlang der Nord- und Ostseeküste kann man in der IWES Studie lesen:

Die verhältnismäßig hohe Gleichmäßigkeit der Offshore-Windenergieeinspeisung bewirkt auch, dass sich die Stromerträge aus Offshore-Windenergie gut vorhersagenlassen.

Mit dieser Aussage bewegen sich die Fraunhofer-Beschäftigten knapp unter Jugend-forscht-Niveau: Bezeichnete ein Student im Anfangssemester den Leistungsverlauf in Abb. 1 als „gleichmäßig“, so würde ihm mit Fug und Recht die Studierfähigkeit abgesprochen.

Eine genauere Analyse bringt zu Tage, dass die Schwankungen der Offshore-Stromerzeugung größer sind als die Schwankungen der Augenzahlen beim Würfeln. Wenn Fachleute hier obendrein noch von „guter Vorhersagbarkeit“ sprechen, ist das ein vorsätzlicher und dreister Betrug. Weiter liest man in besagter Studie:

Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig im Mittel auf über 4660 h ansteigen.

Per heute liegt die Volllaststundenzahl erwiesenermaßen deutlich unter 3750h.

Abbildung 2: Volllaststunden Offshore.

Als reine Rechengröße für den erzielbaren Jahresertrag hängt die Vollaststundenzahl vor allem vom Verhältnis der Rotorfläche zur installierten Generatorleistung ab. Wie diese Zahl angesichts der tatsächlichen Daten um 30% gesteigert werde soll, bleibt das Geheimnis der IWES-Simulanten. Diese schreiben ferner:

Weiterhin verringern die geringen Gradienten den Bedarf an Regelleistung und die Anforderungen an Ausgleichskraftwerke (z. B. Speicher).

Wie in Abb. 1 erkennbar, kann die Offshore Windleistung binnen einiger Stunden auf den Maximalwert ansteigen, wobei unmittelbar klar ist, dass dieser zeitliche Anstieg durch die Marschgeschwindigkeit der Tiefdruckgebiete bestimmt ist. Jeder Zubau an Produktionskapazitäten erhöht diese sogenannten Gradienten und verschärft die Anforderungen an die verbleibenden Ausgleichskraftwerke, die diese Schwankungen ausgleichen müssen.

Aufgrund der vorliegenden Ist-Daten sind bei dem vom IWES genannten Ausbauziel von 54 GW zeitliche Schwankungen (Gradienten) von bis zu 14000 MW pro Stunde zu erwarten. Diese Schwankungen sind so groß wie die größten heute vorkommenden Schwankungen im Stromnetz. Die IWES-Einlassungen entpuppen sich als glatte Täuschung.

Wir betrachten nun die Windstromproduktion auf der Ostsee im Jahr 2016.

Abbildung 3: Verlauf der Offshore-Windleistung Ostsee in 80 Tagen des Jahres 2016.

Die Studie befindet:

Offshore- Windenergieanlagen (…) kommen damit auf über 8700 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund 363 Tagen im Jahr. Zugleich schwankt ihre Produktion eher geringfügig.

Angesichts eines Zeitverlaufs wie in Abb. 3 von einer geringfügigen Schwankung zu reden, erweist sich als dreiste und mutwillige Täuschung, schließlich sind die zeitlichen Verläufe bei einschlägigen universitären Einrichtungen bekannt.

Wie oft welche Leistung vorkommt wird üblicherweise in einem Säulendiagramm dargestellt:

Abbildung 4: Histogramm der Windstromerzeugung Ostsee

Offensichtlich kommen kleine Leistungen sehr häufig vor: Für eine Dauer von 14% eines Jahres, also für 1226h (entsprechend 51 Tagen) liegt die Leistung unter 10 MW (entsprechend 3% der installierten Leistung). Knappe zwei Monate im Jahr stehen die Anlagen also still oder trudeln gemütlich, ohne nennenswerte Stromproduktion, vor sich hin. Es mag sein, dass die Anlagen dennoch an 363 Tagen Strom produzieren, bedauerlicherweise ist die Stromproduktion aber für 49 Tage davon nicht nennenswert und damit eine technisch vernachlässigbare Größe.

Weiter schreibt man am IWES:

Die aktualisierte Studie geht auf die neuesten Erkenntnisse und die Entwicklungen der letzten Jahre hinsichtlich der Offshore-Technologie und ihrer Rolle im Energiesystem ein.

Offensichtlich fügt sich die Arbeit von Linnemann und Vallanda  aus 2017 nicht in das IWES- Weltbild, denn allein die Zeitverläufe zeigen eindeutig, dass Leistungslücken und –spitzen sowohl in Deutschland als auch über Nord- und Ostsee (Abb. 1) gleichzeitig auftreten.

Abbildung 5: Windprodukton Onshore und Offshore (Linnemann/Vallanda, 2017).

Am IWES wertet man das so:

Ein Nordsee- Offshore-Netz erleichtert die Integration großer Offshore-Windenergie-Kapazitäten, denn es lassen sich großräumige Ausgleichseffekte nutzen, was insbesondere der Offshore-Windenergieerzeugung zu Gute kommt.

Immerhin scheint man die Arbeit von VERNUNFTKRAFT. inzwischen auch am IWES zu bemerken. So kann man in der Studie lesen:

Da die Flächenpotenziale von Photovoltaik und Onshore-Windenergie begrenzt sind, kommt es beim Ausbau der Windenergie an Land zunehmend zu Auseinandersetzungen aufgrund von Nutzungskonkurrenzen oder durch Bedenken hinsichtlich des Naturschutzes. Akzeptanzprobleme sind eine Folge davon.

Viel schwerwiegender sind nicht die Akzeptanzprobleme, sondern die Dreistigkeit, mit der staatlich finanzierte Forschungseinrichtungen die Öffentlichkeit täuschen. Immerhin hat man IWES wohl doch begriffen, dass die vor einigen Jahren noch propagierten Konzepte zur hundertprozentigen Energieversorgung nicht aufgehen:

Die vorliegende Studie zeigt, dass die Potenziale innerhalb Deutschlands zur vollständigen Deckung des Strom-, Wärme- und Mobilitätsbedarfs nicht ausreichen. Es wird daher ein zweites Energiesystemszenario für 2050 betrachtet, in dem die flüssigen Kraftstoffe für Deutschland an besser geeigneten Standorten im Auslanderzeugt werden.

Glaubt man am IWES tatsächlich daran, dass unsere ausländischen Nachbarn ihre Landschaften zur Genesung am deutschen Wesen hergeben?

Auf welchem Niveau inzwischen bei der Fraunhofer-Gesellschaft gearbeitet wird, mögen die folgenden Zitate aus den Offshore Studien des Jahres 2013 und 2017 verdeutlichen. So heißt es in der Studie aus 2013:

Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig auf über 4.800 ansteigen. Sie kommen damit auf deutlich über 8.000 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund 340 Tagen im Jahr. Zugleich schwankt ihre Produktion eher geringfügig. In 70 Prozent aller Jahresstunden variiert ihre Leistung von einer Stunde auf die nächste um höchstens 10 Prozent der installierten Kapazität. Entsprechend lässt sich der Stromertrag eines Offshore-Windparks besser vorhersagen als der eines Onshore-Windparks. Prognosefehler sind seltener und die Abweichungen deutlich kleiner. Die geringen Gradienten verringern weiter den Bedarf an Regelleistung und die Anforderungen an Ausgleichskraftwerke (z. B. Speicher).

Der gleiche Absatz lautet vier Jahre später:

Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig im Mittel auf über 4660 h ansteigen. Sie kommen damit auf über 8700 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund 363 Tagen im Jahr. Zugleich schwankt ihre Produktion eher geringfügig. In über 90 Prozent aller Jahresstunden variiert ihre Leistung von einer Stunde auf die nächste um höchstens 10 Prozent der installierten Kapazität. Entsprechend lässt sich der Stromertrag eines Offshore-Windparks besser vorhersagen als der eines Onshore-Windparks. Prognosefehler sind seltener und die Abweichungen deutlich kleiner. Weiterhin verringern die geringen Gradienten den Bedarf an Regelleistung und die Anforderungen an Ausgleichskraftwerke (z. B. Speicher).

Neueste Erkenntnisse scheinen hier durch Abschreiben zu entstehen!

Die Autoren der IWES-Studie, die Herren

  • Dr. Kaspar Knorr
  • Daniel Horst
  • Dr. Stefan Bofinger
  • Dr. Patrick Hochloff

reihen sich ein in die unrühmliche und inzwischen lange Reihe der Flughafen- und Bahnhofsbauer, der Tunnelbohrer und ICE-Radreifenkonstrukteure, der Diesel-Software-Schreiber und anderer Betrüger und Fälscher. Der Initiator der neuen deutschen Physik, der Nobelpreisträger Philipp Lenard, hätte an seinen ergrünten Schülern des 21. Jahrhunderts seine helle Freude gehabt.

Genau diese Art von Ideologie, als „Wissenschaft“ verkleidet, ist für die ganze Serie an spezifisch deutschen Debakeln verantwortlich.

Gewissermaßen zur Ehrenrettung der Wissenschaft hat unser Fachbereich Technologie ein Papier in Arbeit, welches das medial gut aufgegriffene Simulantentum aus Kassel, die Zeitungs– Entenjagd auf hoher See,

Bild Demmig, Ente auf hoher See – im Dezember 2017 dutzendfach in den Zeitungen.

um eine wasser- und winddichte Analyse ergänzen wird. Dieser Abhandlung möchten wir an dieser Stelle nicht zu stark vorgreifen. Daher nur so viel:  Unsere statistischen Betrachtungen unterstreichen, dass die auf hoher See gebauten Windkraftanlagen ihren Artgenossen an Land energiewirtschaftlich kaum überlegen sind. Die Aussage der Frau Prall, dass Offshore-Windenergie erheblich zur Versorgungssicherheit beitrage, bewegt sich seemeilenweit von der Wirklichkeit: im Off Reality – Bereich.

Mit gleicher Faktendeckung ließe sich saisonal inspiriert behaupten, dass echte Weihnachtskerzen an den Bäumen erheblich zur Reduzierung der häuslichen Brandgefahr beitragen. Die duftenden Wachsgebilde schaffen allerdings eine gemütliche, stimmungsvolle Wohlfühlatmosphäre. Den Stahlkolossen auf hoher See kann dies nicht attestiert werden – bedrohte Meeressäuger, (Zug-)Vögel und Fische würden zurecht protestieren.

Der Beitrag wurde übernommen von Vernunftkraft hier




Klimaskeptiker haben sehr gute Gründe, die vom Menschen verur­sachte Erwär­mung in Frage zu stellen.

Dabei gibt es viele gute Gründe, die Theorie auf den Prüfstand zu stellen, der zufolge der Mensch für Klimawandel verantwortlich ist. Um zu demonstrieren, warum diese Angelegenheit alles andere als klar ist, stellen wir hier eine grundlegende Klimafrage zum Nachdenken: Wenn der CO2-Gehalt der Atmosphäre steigt, nimmt dann dessen Aufnahmefähigkeit für Wärme zu oder ab oder bleibt sie gleich?

[Angesichts der Propaganda] werden viele Menschen vermuten, dass die Antwort „zunehmen“ lautet. Schließlich ist CO2 ein „Treibhaus“-Gas. Fügt man der Atmosphäre mehr dieses Spurengases hinzu, sollte das bedeuten, dass mehr Wärme „eingefangen“ wird.

Die korrekte Antwort lautet jedoch abnehmen!

Woher wissen wir das? Weil das UN-eigene und Al-Gore-freundliche IPCC höchstselbst in seinen Berichten eingeräumt hat, dass CO2 seine Fähigkeit zur Wärme-Absorption mit steigender Konzentration verliert. Das IPCC erklärt, dass CO2 einer „logarithmischen Abhängigkeit“ folgt. Das bedeutet dass sich der CO2-Anteil jeweils verdoppeln muss, um die gleiche Menge Wärme in der Atmosphäre zu absorbieren [It takes ever-doubling amounts of CO2 to keep adding the same amount of heat absorption in the atmosphere]. Tatsächlich absorbiert CO2 nur ein bestimmtes enges Spektrum der Infrarotstrahlung, und das IPCC stellt fest, dass die Mitte dieses Fensters bereits „gesättigt“ ist.

Menschen, die sich über die vom Menschen verursachte Erwärmung aufregen, dürften es schwer fallen zu glauben, dass CO2 seine Fähigkeit zum „Einfangen“ von Wärme tatsächlich verliert. Aber sie sollten wissen, dass selbst das ach so Klima-besorgte IPCC derartige Limits einräumt. Sie argumentieren dann jedoch immer noch, dass wir die vom Menschen verursachte Erwärmung fürchten müssen. Und sie geben dafür den einfachen Grund an, dass ihrem Glauben nach jede zusätzlich von CO absorbierte Wärme erheblich verstärkt wird durch Wasserdampf-Rückkopplung.

Das wirft die Frage auf … haben sie recht? Die Antwort lautet „Nein!“.

Wasserdampf ist das primäre Treibhausgas in der Atmosphäre – und verantwortlich für den größten Teil der Erwärmung, der die Erde bewohnbar macht. Um aber seinen Standpunkt zu untermauern, theoretisiert das IPCC, dass jedwede zusätzliche Erwärmung durch CO2 mehr Wasserdampf in die Atmosphäre bringt. Und dieser Wasserdampf wird mehr Wärme einfangen, was die Temperaturen weiter steigen lässt. Es ist dieser „Rückkopplungs-Loop“, welcher zur Rechtfertigung der Prophezeiungen einer katastrophalen zukünftigen Erwärmung herangezogen wird.

Das ist zwar ein interessantes Konzept, das jedoch ein inhärentes Problem enthält. Der Atmosphäre hinzugefügter Wasserdampf führt unvermeidlich zur Wolkenbildung. Und Cumulus-Wolken reflektieren nicht nur Solarstrahlung zurück in den Weltraum, sondern erzeugen auch Regen. Und Regen kühlt nicht nur die Luft an der Erdoberfläche, sondern wäscht auch CO2 aus der Atmosphäre. Aus diesen Gründen wird die Wasserdampf-Rückkopplung in der wissenschaftlichen Gemeinschaft heftig diskutiert, und sogar das IPCC gibt zu, dass „große Unsicherheit erwächst aus unserem begrenzten Wissen über Wolken und deren Wechselwirkung mit Strahlung“.

Eines jedoch findet unsere allgemeine Zustimmung, nämlich dass sich die Erde während der letzten 150 Jahre erwärmt hat, und zwar um etwa 0,85°C. Aber diese Erwärmung kann sehr gut auch der signifikanten Zunahme der Sonnenaktivität während dieses Zeitraumes geschuldet sein. Im Jahre 2016 berichteten die norwegischen Wissenschaftler Harald Yndestad and Jan-Erik Solheim, dass der solare Output im 20. Jahrhundert sein höchstes Niveau seit 4000 Jahren erreicht hatte. Ebenfalls im Jahre 2016 waren mindestens 132 begutachtete Studien veröffentlicht worden, welche einen solaren Einfluss auf das Klima nachwiesen.

Das IPCC weist jedoch Behauptungen bzgl. der solaren Variabilität zurück, und zwar mit dem Argument, dass Änderungen der solaren „Strahlung“ [irradiance] relativ gering sind. Aber neue Forschungsergebnisse des dänischen Physikers Henrik Svensmark zeigen, dass Variationen des solaren Outputs auch das solare Magnetfeld und den Sonnenwind beeinflussen – was direkt die Ionisierung in der Troposphäre und damit die Wolkenbildung beeinflusst.

Und bereits in seinem ersten Zustandsbericht 1990 hat das IPCC festgestellt, dass das globale Klima der letzten Jahrtausende „um bis zu 2°C fluktuierte im Zeitmaßstab von Jahrhunderten oder mehr“. Es ist sehr gut möglich, dass die gesteigerte Sonnenaktivität des vergangenen Jahrhunderts die jüngste globale Erwärmung ausgelöst hat. Daher gibt es sehr stichhaltige Gründe, die Theorie des vom Menschen verursachten Klimawandels zu hinterfragen und auf noch stärkere Forschung in diesem Bereich zu pochen.

Dieses Op Ed von CFACT erschien in den oben genannten Zeitungen und noch weiteren Organen.

Link: http://www.cfact.org/2018/01/12/climate-skeptics-have-valid-reasons-to-question-manmade-warming/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Was mir an diesem Beitrag unabhängig vom Inhalt auffällt ist der sehr sachliche und konstruktive Ton. Davon sind Alarmisten in ihren Beiträgen und auf ihren Websites Lichtjahre entfernt!




Sogar die New York Times verreißt den Bürgermeister für seine heuchlerische Kampagne gegen Ölfirmen

De Blasio beschuldigt fünf große Ölkonzerne, darunter ExxonMobil, für Schäden, die Hurrikan Sandy 2012 in New York City verursacht hat. Der Bürgermeister will, dass die Unternehmen für die Schäden und für zukünftige Projekte aufkommen, die die Stadt widerstandsfähiger gegen Überschwemmungen und Sturmfluten machen. [Einleitung M. Bastasch]

Die New York Times und andere Medien jedoch, fragen den Bürgermeister, welcher der demokratischen Partei zugehört, warum er seinen Lebensstil nicht ändert, um seiner neu gefundenen Anti-Öl-Position zu entsprechen. Sie kritisieren de Blasio auch dafür, dass er keine konkreteren Maßnahmen gegen den Klimawandel ergriffen hat.

„Durch göttliches Recht des Bürgermeisteramtes, oder so etwas ähnlichem, warteten 13 Fahrzeuge am Randstein im eingeschränkten Halteverbot mit laufendem Motor, bis de Blasio sein Frühstücksgebet beendet hat, kurz nach seiner Ankündigung, die Anteile der Stadt an Aktien von Ölfirmen zu veräußern“ schrieb der Journalist der New York Times, Jim Dwyer in einem Editorial,

„Die Motoren dieser großen Autos liefen, während der Bürgermeister für etwa zwei Stunden weg war, „, bemerkte Dwyer und fügte hinzu, dass de Blasio häufig Positionen in der Umwelt vertritt, die nicht immer mit der Art und Weise, wie er sein Leben lebt, einhergehen. Andere Medien gehen in ihrer Kritik noch einen Schritt weiter.

The New York Observer zum Beispiel betitelte ihn als „kaiserlichen Scheinheiligen“, weil er mit einer SUV-Karawane einen 20 Kilometer von seinem Haus entfernten YMCA ansteuerte, (christlicher Verein Junger Männer) obwohl sich mindestens 13 weitere YMCA näher ran an seine Villa befinden.

Andy Revkin, ein ehemaliger NYT-Reporter und jetzt Autor von ProPublica, [durch Stiftungen finanzierter US-amerikanischer Non-Profit-Nachrichtenagentur für investigativen Journalismus] warf sich ebenfalls in den Kampf, indem er de Blasio für seine Angriffe auf  ExxonMobil und andere in einem Tweet [~ bei Twitter] heftig kritisierte. „Diese Firmen, die das Öl produzieren, was die New Yorker Bevölkerung unbedingt benötigt“.

Er wandte sich insbesondere gegen die Opposition des Bürgermeisters gegen ein sogenanntes „Congestion Pricing“ [Strafzettel für Verkehrsbehinderung], eine Maßnahme, die darauf abzielt, Fahrern ein Bußgeld aufzubrummen, die mit laufendem Motor zu lange halten.

„Entschuldigung, aber die Klagen über die Kosten des Klimawandels durch @sfgov, @oakland & besonders @nycmayor scheinen mehr posierend als substanziell zu sein“, schrieb Revkin auf Twitter, als Antwort auf einen Tweet des Umweltschützers Bill McKibben. „Wer hat denn von all dem Öl profitiert? Und besonders di Blasio, wie kann er das tun, während er sich gegen #congestionpricing stellt? „

De Blasio bedrängt auch den Pensionsfonds der Stadt, sich von Aktien von Ölfirmen zu trennen, was die öffentlich Angestellten $ 2,8 Milliarden über zwei Jahrzehnte kosten könnte, laut der Industrie-Handelsgruppe National Association of Manufacturers (NAM).

„Desinvestitionen werden nichts zur Senkung der Treibhausgasemissionen beitragen. Alles, was es bewirkt ist, dass Aktien von einem Aktionär an einen anderen übergehen „, sagte NAM Vizepräsident Chris Netram in einer Pressekonferenz mit Reportern Mittwoch.

Letztendlich sind die Pensionskassen für eine Entscheidung, ob sie veräußern oder nicht, selbst verantwortlich Der städtische Rechnungsprüfer, Scott Stringer unterstützt de Blasio bei seinem Aufruf zur Veräußerung. Jedoch hat sich der staatliche Finanzkontrolleur Tom DiNapoli in der Vergangenheit dafür ausgesprochen, dass die Pensionsfonds weiterhin in Unternehmen mit fossilen Brennstoffen investieren, berichtet Politico.

Erschienen auf The Daily Caller am 12.01.2018

Übersetzt durch Andreas Demmig

 

http://dailycaller.com/2018/01/12/nyt-thrashes-mayor-de-blasio-for-hypocritical-campaign-against-oil-companies/

http://dailycaller.com/2018/01/12/hypocrite-de-blasio-got-savaged-by-the-media-for-suing-oil-companies-over-global-warming/




Deutschland wird zum neuen Aushänge­schild für Klima­wandel-Heuchelei

Es ist für mich keine Überraschung, dass Deutschland, an vorderster Front der Kritiker stehend, welche die US-Entscheidung zum Rückzug aus dem Paris-Abkommen bejammern, sich darauf vorbereitet, seine Klimaziele 2020 aufzugeben (auch hier).

Starkes Wirtschaftswachstum ist ein entscheidender Grund, warum Deutschland sein Ziel höchstwahrscheinlich verfehlen wird. Das Land hat einen aggressiven Plan, seine Treibhausgas-Emissionen bis zum Jahr 2020 um 40 Prozent unter das Niveau des Jahres 1990 zu drücken. Im November vorigen Jahres sickerte ein Dokument des Umweltministeriums an die Öffentlichkeit des Inhalts, dass das Land diese Marke ohne zusätzliche Maßnahmen um 8 Prozent verfehlen werde.

Mit anderen Worten, selbst mit den großzügigen Subventionen für erneuerbare Energie würden die Deutschen irgendeine eine die Wirtschaft behindernde Politik ergreifen müssen, um die Emissionen zu kürzen. So viel zum Mantra „werde grün und lasse die Wirtschaft wachsen“.

Der Umweltminister sagte, dass ein Scheitern „eine Katastrophe für Deutschlands Ruf als Klima-Führer wäre“. Normale Menschen würden denken, dass eine stärkere Wirtschaft ein Grund zum Feiern wäre, und nicht ein Grund für Dämonisierung.

Deutschlands aufgegebene 2020-Ziele sind der jüngste Dominostein der internationalen Klimapolitik, der fällt. Viele Befürworter von Maßnahmen argumentieren, dass selbst obwohl das Paris-Abkommen nicht bindend ist dieses doch ein wichtiger erster Schritt ist, ohne dass Ländern, die ihre nationalen Ziele nicht erreichen, daraus Nachteile erwachsen.

Die Unterzeichner des Paris-Abkommens legen eine merkwürdige Weise an den Tag zu zeigen, dass sie sich dem verpflichtet fühlen. Trotz der Verurteilung der Entscheidung der Trump-Regierung, sich aus dem Paris-Abkommen zurückzuziehen, sind alle industriellen Länder drauf und dran, ihre jeweiligen Ziele nicht zu erreichen.

Deutschland steht in der Europäischen Union also nicht allein. In einem von Nature.com im vorigen Sommer veröffentlichten Artikel heißt es, dass die EU „vor einer gewaltigen Kluft steht zwischen Worten und Taten“.

Selbst wenn die USA und die übrige entwickelte Welt ihre geplanten Ziele erreichen würden, hätte dies keinen bedeutsamen Einfluss auf die globalen Temperaturen. CO2-Reduktionen der Entwicklungsländer, in denen viele Menschen immer noch mit einer unzuverlässigen Energieversorgung auskommen müssen, sind erforderlich, um die Klima-Nadel in Bewegung zu bringen.

Allerdings haben die Entwicklungsländer ihre Ziele so lax gesetzt, dass sie ihr Verhalten gar nicht ändern müssen. Paris-Befürworter können noch so sehr damit prahlen, dass China die Führung bzgl. Solarenergie übernimmt. Dabei sind sie blind gegenüber der massiven Neuerrichtung von Kohlekraftwerken in China, Indien und den übrigen Entwicklungsländern – und manchmal auch in entwickelten Ländern.

In der Financial Times war jüngst zu lesen: „Zwischen Januar 2014 und September 2017 vergaben internationale Banken 630 Milliarden Dollar an die 120 größten Unternehmen, welche den Bau neuer Kohlekraftwerke auf der ganzen Welt planen. Dies geht aus Forschungen von Kampagnen-Gruppen hervor, darunter das Rainforest Action Network, BankTrack und Friends of the Earth.”

Und doch, diejenigen, die eine stringente Klima-Abschwächung wollen sagen, dass die Paris-Ziele nur etwa ein Drittel dessen ausmachen, was erforderlich ist, um die globale Erwärmung vermeintlich unter Kontrolle zu halten.

Die Aufmerksamkeit auf das zu richten, was man als positive Maßnahmen bzgl. Klima ansieht (z. B. Paris, Subvention von Erneuerbaren), während man gleichzeitig die Realitäten neuer Kohlekraftwerke, den Rückbau von Kernkraftwerken und das wirtschaftliche Wachstum auf der ganzen Welt ignoriert, ist eine merkwürdige Strategie.

„Tut, was ich sage, aber achtet nicht darauf, was ich tue“ ist das Markenzeichen der Klimawandel-Politik. Die Trump-Regierung machte es anders und nannte Paris das, was es ist: eine ebenso kostspielige wie bedeutungslose Nicht-Lösung.

Full Post

Link: https://www.thegwpf.com/germany-becomes-the-new-poster-child-for-climate-change-hypocrisy/




Elektrifi­zierung – der Weg zu höheren Energie­preisen

Befürworter von Elektrifizierung beabsichtigen, das Transportwesen sowie Heizungs- und Kühlsysteme mit Strom zu betreiben und den Verbrauch von Kohlenwasserstoff-Treibstoff zu eliminieren. Elektrische Autos, elektrische Öfen und Warmwasserbereiter sowie Wärmepumpen müssen Benzin-Fahrzeuge und andere, mit Gas betriebene Einrichtungen ersetzen. Außerdem müssen Wind- und Solarsysteme den Strom liefern, nicht Kohle- oder Gaskraftwerke, um Treibhausgas-Emissionen zu reduzieren.

Der Klimawandel-Aktionsplan von Kalifornien aus dem Jahr 2017 fordert bis zum Jahr 2030 eine Reduktion von Treibhausgasen um 40% und bis 2050 um 80%. Die Ziele belaufen sich auf 4,2 Millionen Elektro- und Hybridautos auf Kaliforniens Straßen bis zum Jahr 2030; heute sind es etwa 300.000.

Utility Southern California Edison (SCE) verlangt ein sogar noch aggressiveres Vorgehen. Der „Clean Power and Electrification Pathway”-Plan fordert bis zum Jahr 2030 7 Millionen E-Fahrzeuge auf Kaliforniens Straßen und dass ein Drittel der Einwohner des US-Staates ihre Gasöfen und andere, mit Gas betriebene Geräte ersetzen.

Neun andere US-Staaten fördern E-Autos als Teil eines breit angelegten Elektrifizierungs-Programms. Die Neu-England-Staaten [im Nordosten der USA, Anm. d. Übers.] erkunden eine „strategische Elektrifizierung“, um strengen Zielen der Reduktion von Emissionen zu genügen. Bei fast allen diesen Bemühungen wird kaum über die Kosten für die Verbraucher gesprochen.

Elektrifizierung ist zu einem globalen Kreuzzug geworden. Die Niederlande, Deutschland, Norwegen und UK fördern einen Verkaufsstopp von Fahrzeugen mit Verbrennungsmotor bis zum Jahr 2040. Die niederländische Regierung fördert die Eliminierung von Gas als Heiz- und Kochquelle in allen Wohnungen bis zum Jahr 2050. Die Städte Amsterdam, Rotterdam und Utrecht bekundeten ihre Intentionen, zu einer „gasfreien Landschaft“ zu werden.

Elektrifizierung wird teuer werden. Die meisten Amerikaner wollen keine E-Autos haben. Erhebliche Subventionen seitens des Steuerzahlers sowie Vorschriften für Autobauer und Verbraucher werden erforderlich sein, um den Kauf jener Fahrzeuge zu beschleunigen. Öfen und andere Geräte, betrieben durch Wärmepumpen, Solar und Strom sind fast immer deutlich teurer als der Gebrauch von Erdgas- oder Propan-Geräten.

Eine Studie der New York State Energy Research and Development Authority kam im Jahr 2017 zu dem Ergebnis, dass nur vier Prozent der Öfen, Ventilations- und Air Conditioner kosteneffektiv auf Wärmepumpen umgerüstet werden können. Die Studie verlangt nach Vorschriften, Geschäfte und Verbraucher zu verpflichten, „einen gewissen Anteil des Stromes für Heizung und Kühlung aus erneuerbaren Quellen zu beziehen“.

Den Befürwortern der Elektrifizierung zufolge muss der Strom von Erneuerbaren stammen, um Treibhausgas-Emissionen zu reduzieren. Daher fördern alle Elektrifizierungs-Programme Wind- und Solarerzeugung, gestützt durch Batterie-Speicherung.

Die USA sind derzeit mit sehr niedrigen Strompreisen gesegnet. Im Jahre 2016 betrug der Strompreis, also der an die Erzeugungs-Unternehmen gezahlte Preis zwischen 2,3 Cent pro kWh im Nordwesten bis 3,6 Cent pro kWh in den Neuengland-Staaten. Kohle, Erdgas, Kern- und Wasserkraft, unsere traditionellen Energiequellen, lieferten über 90% dieses preisgünstigen Stromes. Nur 6,4 Prozent des Stromes kamen im Jahr 2016 von Wind und Solar.

Die tatsächlichen Kosten von Wind- und Solarsystemen werden der Öffentlichkeit zumeist vorenthalten, können aber abscheulich hoch sein. Die kalifornische Sonnen-Farm, welche in der Mojave-Wüste nördlich von Los Angeles im Jahre 2014 in Betrieb ging, liefert Strom zu Preisen über 15 bis 18 Cent pro kWh, also mehr als das Vierfache des Marktpreises. Die Erweiterung von Solar in Massachusetts im Jahre 2013 war die Folge einer Subvention in Höhe von 25 Cent pro kWh für kommerzielle Solar-Generatoren, was den Gesamtpreis für Solar auf fast 30 Cent pro kWh trieb.

Aber das Deepwater Wind Block Island-Projekt von Rhode Island nimmt den ersten Platz ein hinsichtlich skandalöser Kosten für erneuerbare Energie. Das aus fünf Turbinen bestehende Offshore-System ging 2016 in Betrieb zu einem vertraglich vereinbarten Preis von 23,6 Cent pro kWh mit einer jährlichen Steigerung um 3,5 Cent. Damit ergibt sich zukünftig ein Preis von über 40 Cent pro kWh. Wer möchte einen Preis bezahlen, der zehn Mal so hoch ist wie der Marktpreis?

Der Energy Information Administration EIA zufolge sind die Strompreise in den USA während der acht Jahre von 2008 bis 2016 um weniger als 5 Prozent gestiegen. Aber im gleichen Zeitraum haben die Preise in neun der zwölf Top-Wind-Staaten um 13 bis 37 Prozent angezogen, also bedeutend stärker als im nationalen Mittel. Kommerzielle Wind- und Solarsysteme werden in der Regel weit von Städten entfernt errichtet, was neue Übertragungsleitungen erfordert, deren Kosten ebenfalls den Stromverbrauchern aufgebürdet werden. Falls Elektrifizierung dieser Art in den gesamten USA eingeführt wird, erwarte man explodierende Strompreise.

Elektrifizierung macht eine massive gesellschaftliche Transformation erforderlich von Benzin- zu Elektrofahrzeugen, von traditionellen Kraftwerken zu Wind- und Solar-Generatoren und von Heizen mit Gas zu Heizen mit Strom und Wärmepumpen-Systemen. Es gibt keinen Beweis dafür, dass diese Transition irgendeine messbare Auswirkung auf die globalen Temperaturen hat. Aber die Elektrifizierung wird garantiert zu erheblich höheren Energiepreisen führen.

[Originally Published at Master Resource]

Link: https://www.heartland.org/news-opinion/news/electrificationthe-road-to-higher-energy-prices

Übersetzt von Chris Frey EIKE




Warum eine niedrige Sonnen­flecken-Aktivität auf eine längere Klima-Kaltphase hinweist

[In Deutschland muss man auf dieses Medien-Wunder wohl noch warten. Anm. d. Übers.]

Kendra Pierre-Louis schrieb herablassend in der New York Times: „Tatsächlich wird es an der Ostküste in manchen Gebieten rekord-tiefe Temperaturen geben. Für New York sind die kältesten Neujahrs-Temperaturen seit den sechziger Jahren vorhergesagt. Aber Mr. Trumps Tweet enthielt den allgemein begangenen Fehler, lokale Wettervorgänge zu betrachten und daraus Erkenntnisse für das globale Klima abzuleiten“.

Ja, Kendra hat wie auch die NYT jedes Mal lauthals Alarm geschrien, wenn irgendein bestimmtes Jahr, ein Monat oder ein Tag nahezu überall „der/das Wärmste war seit …“ Und dann belehrt uns Kendra nachdenklich: „Klima bezeichnet das Verhalten der Atmosphäre über einen langen Zeitraum, während man mit Wetter alles bezeichnet, was im Kurzfrist-Zeitraum passiert. In gewisser Weise ist Klima die Summe langer Wetterperioden“.

Wie wahr! Da sind beispielsweise die letzten zwei Jahrzehnte, in welchen Satelliten einen völlig flach verlaufenen Temperaturgang gemessen haben. Das ist zwar noch kein voller Klimazyklus, aber noch ein Jahrzehnt, und der Vorgang ist qualifiziert für diese ziemlich willkürliche Unterscheidung.

Vielleicht erinnert sich mach einer noch daran, dass vor der jüngsten Erwärmung die gleiche New York Times das Hereinbrechen der nächsten Eiszeit hinausposaunt hat nach drei Jahrzehnten der Abkühlung seit Mitte der vierziger Jahre.

Andererseits – was ist, wenn jene gute alte globale Erwärmung, zu der es kurzzeitig von Ende der siebziger bis zu den neunziger Jahren gekommen war, nicht wieder einsetzt und weitere zwei, drei Jahrzehnte dauert? Sie glauben, das kann nicht passieren? Eine beobachtete Sonnenaktivität so schwach wie seit 200 Jahren nicht mehr weist jedenfalls zusammen mit neuen, intensiven Forschungen in die andere Richtung.

Wichtige Relationen zwischen Sonnenaktivität, Wolkenbedeckung und Temperaturen werden erklärt in einem jüngst von Nature Communications veröffentlichten Report. Leitautor Henrik Svensmark von der Technical University of Denmark stellt fest, dass Klimamodelle diese natürlichen Einflüsse drastisch unterschätzt haben, während sie die Bedeutung des atmosphärischen CO2 genauso drastisch überschätzt haben.

Sonnenflecken zeigen magnetische Änderungen auf der Sonnenoberfläche an, welche die Stärke des Sonnenwindes beeinflussen. Dieser wehrt kosmische Strahlung ab – hoch energetische Partikel von Supernovae, welche in der gesamten Galaxis diffundieren. In Perioden geringer Sonnenfleckenzahl (also schwachem Sonnenwind) erreicht mehr dieser kosmischen Strahlung den inneren Bereich unseres Sonnensystems.

Kosmische Strahlen, die es bis zum Auftreffen auf die Erdatmosphäre schaffen, schlagen aus den Luftmolekülen Elektronen heraus und erzeugen Ionen (elektrisch positive und negative Moleküle). Diese Ionen wiederum helfen Aerosolen (Clustern zumeist aus Schwefelsäure- und Wassermolekülen), mittels eines Kernbildung [nucleation] genannten Prozesses bei der Wolkenbildung.

Kurz gesagt: weniger Sonnenflecken (schwächerer Sonnenwind) lässt mehr kosmische Strahlung die Erdatmosphäre erreichen, welche die Aerosol-Moleküle ionisiert, die dann wiederum zu Kondensationskernen für Wolken anwachsen, die Abkühlung verursachen. Mehr Sonnenflecken haben den gegenteiligen Effekt – weniger Wolken – höhere Temperaturen.

Henrik Svensmark und sein Kollege Nir Shaviv berichten, dass die Ergebnisse ihrer neuen Studie allen in der Öffentlichkeit viel zu stark akzeptierten theoretischen und numerischen Modellprojektionen diametral widersprechen, dass nämlich kleine Aerosole wieder verschwinden, bevor sie groß genug werden, um als Kondensationskerne zu fungieren. Der Nachweis in einer Wolkenkammer zeigt: „Wechselwirkungen zwischen Ionen und Aerosolen können das Wachstum beschleunigen, indem sie Material den kleinen Aerosolen hinzugefügt wird, die damit groß genug für die Wolkenbildung werden“.

Einer weiteren Studie von Valentia Zharkova aus dem Jahr 2015 zufolge kann durchaus erwartet werden, dass eine weitere multi-dekadische „Kleine Eiszeit“ auf dem Zeitplan der Natur steht. Sie prognostiziert, dass sich das Aktivitätsniveau des derzeitigen Zyklus‘ Nr. 24, welches ohnehin schon das schwächste Niveau seit dem Sonnenzyklus von vor 6200 Jahren aufweist, noch weiter abschwächt bis zu einem „Maunder Minimum“ (lange Perioden mit Minima der Sonnenflecken), welche zuletzt vor 370 Jahren aufgetreten waren.

Zharkovas Modell geht von Dynamo-Effekten in zwei Schichten der Sonne aus – eine dicht unter der Oberfläche und die andere tief innerhalb der Konvektionszone. Beide haben eine Frequenz von etwa 11 Jahren, zeigen jedoch einen geringen Unterschied und sind auch zeitlich verschoben. Ihr Modell prognostiziert, dass das Wellenpaar während des Zyklus‘ Nr. 25, welcher im Jahre 2022 seinen Höhepunkt erreicht, zunehmend zeitverschoben auftritt.

Während des Sonnenzyklus‘ Nr. 26, also in der Dekade von 2030 bis 2040, werden die Wellen exakt asynchron werden und zu einer sogar noch stärkeren Reduktion der Sonnenaktivität führen. Im Sonnenzyklus 26 werden die Wellen genau spiegelbildlich zueinander daherkommen – mit ihrem Maximum gleichzeitig, aber auf den gegenüber liegenden Hemisphären der Sonne.

Wie auch immer dem sei, ob sich die gegenwärtige Abkühlung fortsetzt oder nicht – gibt es irgendeinen Grund für Panik? Nein, und im gleichen Atemzug: wenn jene gute alte globale Erwärmung wieder einsetzt – was zweifellos irgendwann der Fall sein wird – wollen wir die jetzigen Bedingungen doppelt dankbar begrüßen.

Link: http://www.cfact.org/2018/01/08/why-low-sunspot-activity-portends-prolonged-climate-chill/

Übersetzt von Chris Frey EIKE




Was hat die globale Erwärmung mit ESP* zu tun?

(Graphik übernommen vom o. g. Link)

Diese Sensitivität wird gemessen als „kurzlebige Klima-Reaktion“ [transient climate response TCS], was die kurzfristigen Auswirkungen berücksichtigt, oder die „Gleichgewichts-Klimasensitivität“ [equilibrium climate sensitivity ECS], welche die langfristigen Auswirkungen berücksichtigt; beides unter der Annahme, dass das CO2 aufhört zuzunehmen. Je höher diese beiden Zahlen jeweils sind, umso mehr Sorgen müssen wir uns machen.

Jede Schätzung ist einer begutachteten Studie entnommen. Die erste aus dem Jahr 2001 stammt von den Autoren Andronova und Schlesinger mit einer Schätzung von 3°C. Die höchste Schätzung (in dieser Graphik) beträgt 6°C von Gregory.

Nicht alle Witze sind witzig

Nach dem Jahr 2002 passiert Komisches: Frame gab im Jahre 2005 eine Schätzung von 2,8°C, Skeje eine solche von 2,8°C im Jahre 2014. Nicht berücksichtigt ist eine Studie aus dem Jahr 2015, an der ich als Ko-Autor mitgewirkt habe und in der wir eine Schätzung von 1,0°C abgaben. (Diese Studie löste eine Hexenjagd und hysterische Vorwürfe der „Klima-Leugnung“ aus).

Die jüngste Schätzung stammt von Reinhart 2017 und beträgt 0,2°C.

Aus dieser Graphik können wir mindestens drei Phänomene ablesen. Erstens, die Debatte über globale Erwärmung war und ist weder im Jahre 2000 noch 2001 noch derzeit vorbei. Anderenfalls hätte sich die Klimasensitivität nicht verändert. Zweitens, die gute Nachricht lautet, dass wir uns eindeutig viel weniger Sorgen machen müssen als ursprünglich gedacht. Das kann man doch feiern, oder?

Drittens haben wir diese gleiche Graphik schon zuvor gesehen, nicht einmal, sondern sehr oft.

Man kann nicht meine Gedanken lesen

Das Bild sieht exakt genauso aus wie die Graphik der Größenordnung von übersinnlicher Wahrnehmung ESP mit der Zeit. (Zu diesem Thema habe ich ein Buch geschrieben, frei verfügbar hier).

In den dreißiger Jahren zeigte J. B. Rhine einigen Personen die Rückseite von Spielkarten und forderte sie auf, ihr ESP zu nutzen, um die „Vorderseite“ der Karten zu erkennen. Rhine nahm für sich in Anspruch, parapsychologische Fähigkeiten nachgewiesen zu haben. Gleiches machten Charles Honorton und Sharon Harper Mitte der siebziger Jahre mittels des so genannten ganzfeld [?]. Die siebziger Jahre waren allgemein eine Hoch-Zeit der ESP-Forschung, wobei aus allen Richtungen außerordentliche Behauptungen auftauchten.

Aber dann kamen die achtziger und neunziger Jahre, als Forscher von Zauberern und ihren eigenen Fehlern lernten, wie man angemessen Tests durchführt. (Einige der Tests habe ich selbst ersonnen). Die Größenordnung des Effektes ging Jahr für Jahr zurück. Schließlich landete er im statistischen Rauschen, wo er bis auf den heutigen Tag liegt – trotz der Bemühungen einiger Starrköpfe, die Goldenen Tage wiederauferstehen zu lassen.

Es ist kälter als man denkt

Die Graphik der Klimasensitivität sieht auch aus wie die Größe exzessiver Wärme in Experimenten der kalten Fusion. Stanley Pons and Martin Fleischmann behaupteten im Jahre 1989, dass die „kalte Fusion“ stattfinden und Wärme freisetzen würde, wenn man einige Spuren von Metallen in eine bestimmte Art Wasser halten würde. Diese Wärme könnte der Theorie zufolge zur Erzeugung sauberen Stromes genutzt werden.

Es gab sofort Skepsis seitens vieler Physiker hinsichtlich dieser Behauptung, doch reichte diese nicht aus zu verhindern, dass sehr viel Geld in die Forschung bzgl. kalter Fusion gesteckt worden ist. Einige Gruppen behaupteten, die Fusion zu reproduzieren, aber wie es aussieht, fielen selbst die optimistischsten Wärme-Schätzungen in sich zusammen.

Schritte bis zum Scheitern

Die Klimagraphik gleicht außerdem vielen begeisternden Auswirkungen neuer medizinischer Behandlungen mit der Zeit. Wer erinnert sich noch an Interferon? Und Ross Pomeroy bei Real Clear Science zufolge sieht die Graphik nicht viel anders aus als viele wissenschaftliche Behauptungen.

Von Pomeroy stammt der Beitrag „The Six Stages of a Failed Psychological Theory“ [etwa: Die 6 Stadien einer gescheiterten psychologischen Theorie]. Wir beginnen mit „dem auffälligen Ergebnis“ [The Flashy Finding] (hohe initiale Schätzungen der Größenordnung der Auswirkungen), gehen über „die kriecherischen Replikationen“ [The Fawning Replications] (hohe, aber etwas niedrigere Schätzungen) und landen bei „Proper Replications Pour In” (Schätzungen von Null oder nahe Null).

Stadium 6 ist „die Theorie lebt als Zombie weiter“. Es wird immer wahre Gläubige geben [zumal wenn man mit diesem Glauben noch Millionen scheffeln kann! Anm. d. Übers.]

Das Ende ist nahe herbeigekommen

Pomeroy plapperte den berüchtigten Physiker Irving Langmuir nach, welcher fünf Symptome „pathologischer Wissenschaft“ identifiziert hat.

Eines dieser Symptome ist, dass die behauptete „Auswirkung von einer Größenordnung ist, die nahe dem Limit der Erkennbarkeit verharrt“. Je genauer man hinschaut, umso mehr schwindet der Effekt.

Das deutlichste Symptom ist politischer Natur. „Das Verhältnis zwischen Unterstützern und Kritikern steigt bis um die 50% und fällt dann graduell der Vergessenheit anheim“.

Nur Wenige erinnern sich noch an die Kalte Fusion, und nur Spezialisten können noch erklären, eine wie große Sache parapsychologische Forschung im 20.Jahrhundert war. Es folgt dem gleichen Ablauf: je verheerender die Prophezeiungen der globalen Erwärmung, umso schneller werden sie zu nichts weiter als einer schlimmen Erinnerung.

Link: https://stream.org/similarities-between-esp-cold-fusion-global-warming/

Übersetzt von Chris Frey EIKE




Der ,97%-Klima­konsens‘ beginnt zu zerfallen – mit 485 neuen Studien allein 2017, welche ihn in Frage stellen

Autor Kenneth Richard fand heraus, dass im Laufe des Jahres 2017 mindestens 485 Studien veröffentlicht worden sind, die auf die eine oder andere Weise den vermeintlichen Konsens in Frage stellen bzgl. der Gefahren menschlicher CO2-Emissionen oder Fähigkeit der Klimamodelle, die Zukunft zu prophezeien.

Richards Analyse zufolge unterstreichen die 485 neuen Studien die „bedeutenden Beschränkungen und Unsicherheiten hinsichtlich unseres Verständnisses von Klima und Klimawandel“. Dies wiederum zeigt, dass die Klimawissenschaft nicht einmal ansatzweise so settled ist wie uns Medien und einige Politiker glauben machen wollen.

Richards unterteilte die skeptischen Positionen in vier Haupt-Kategorien, wobei jede der individuellen Studien mindestens eine dieser Positionen zur Sprache bringt, manchmal auch mehr.

N(1) Natürliche Prozesse spielen eine erheblich größere Rolle und können nicht vernachlässigt werden (im Gegensatz zur Behauptung des IPCC) hinsichtlich der Änderungen im Klimasystem, darunter Temperatur-Variationen, Niederschlag, Wetterereignisse usw., und der Einfluss gestiegener CO2-Konzentrationen auf Klimaänderungen ist weit weniger stark ausgeprägt als man sich vorstellt.

N(2) Erwärmung, Meeresspiegel, Schrumpfung von Meereis und Gletschern, Intensität und Häufigkeit von Hurrikanen und Dürren… Alle derartigen Ereignisse während der heutigen Zeit sind weder beispiellos noch bemerkenswert und liegen auch in keinem Fall außerhalb der Bandbreite der natürlichen Variabilität, wie eindeutig aus den ersten 150 Graphiken (2017) auf dieser Liste hervorgeht.

N(3) Die Computer-Klimamodelle sind weder zuverlässig noch konstant genau, und Projektionen zukünftiger Zustände des Klimas sind kaum mehr als Spekulationen, sind doch die Unsicherheiten und Fehler-Bandbreiten in einem nicht linearen Klimasystem erheblich.

N(4) Die gegenwärtige Politik bzgl. Abschwächung von Emissionen, vor allem im Hinblick auf die Förderung Erneuerbarer, sind oftmals ineffektiv und sogar schädlich für die Umwelt, wohingegen ein gestiegener CO2-Gehalt und ein wärmeres Klima unangekündigte Vorteile für die Biosphäre mit sich bringt (z. B. ein grünerer Planet und gesteigerte Ernteerträge).

Hier folgen nun zwei Links zu den 485 Studien ebenso wie eine Anleitung zur Kategorisierung auf der Liste:

Skeptic Papers 2017 (1)

Skeptic Papers 2017 (2)

Teil 1: natürliche Prozesse bzgl. Wetter und Klimawandel:

Solarer Einfluss auf das Klima (111)

Klimaeinfluss von ENSO, NAO, AMO, PDO (44)

gegenwärtiges Klima in Phase mit der natürlichen Variabilität (13)

Einfluss von Wolken und Aerosolen (9)

Klimaeinfluss durch Vulkanismus und Tektonik (6)

Der CO2-Treibhauseffekt – wirklich ein Klimatreiber? (14)

Teil 2: Unsettled Wissenschaft, gescheiterte Klimamodellierungen:

Unzuverlässigkeit der Klimamodelle, Verzerrungen, Fehler und der Stillstand (28)

Scheitern der erneuerbaren Energie und der Klimapolitik (12)

Die Umwelt und die Biosphäre erheblich schädigende Windenergie (8)

Ein gestiegenes CO2-Niveau lässt den Planeten ergrünen und bringt höhere Ernteerträge (13)

Erwärmung ist vorteilhaft für Mensch und Natur und schädigt diese nicht (5)

Erwärmung und Versauerung schädigen nicht die ozeanische Biosphäre (17)

Abnahme von Extremwetter bei Erwärmung (3)

Städtische Wärmeinseln: künstlich fabrizierter Temperaturanstieg (5)

Kein zunehmender Trend bei starken Hurrikanen (4)

Keine Zunahme der Häufigkeit und Intensität von Dürren und Überschwemmungen (3)

Natürliche CO2- und Methan-Ausgasungen sind um ein Vielfaches höher als die Quelle Mensch (4)

Zunehmende Schneebedeckung seit den fünfziger Jahren

Verschiedene (7)

Teil 3: Rekonstruktion und Beobachtung des natürlichen Klimawandels:

Fehlen eines anthropogenen/CO2-Signals bzgl. Anstieg des Meeresspiegels (38)

Keine Erwärmung insgesamt während des 20. (21.) Jahrhunderts (12)

Eine wärmere Vergangenheit: Nicht-Hockeyschläger-Rekonstruktionen (60)

Abrupte natürliche globale Erwärmung um mehrere Grad pro Jahrzehnt (7)

Ein den Modellen diametral widersprechendes Verhalten der Cryosphäre einschließlich des Polareises (32)

Antarktische Eisschmelze in gebieten mit hohem geothermischen Wärmefluss (4)

Abkühlung in jüngster Zeit im Nordatlantik und den Südlichen Ozeanen (10).

Link: https://wattsupwiththat.com/2018/01/10/the-97-climate-consensusstarts-to-crumble-with-485-new-papers-in-2017-that-question-it/

Übersetzt von Chris Frey EIKE




Diesel: Die Lückenmedien im Glashaus (10)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im siebten Teil wird anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten nachgewiesen, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen. Anschließend wurde im achten Teil nachgewiesen, dass die Grenzwertüberschreitungen der Luft punktuell extrem beschränkt sind und der Anteil der betroffenen Bewohner selbst an den Brennpunkten im Zehntel-Promille-Bereich liegt. Der neunte Teil zeigte, wie gering die Beaufschlagung der Anwohner einer Straße mit über dem Grenzwert liegenden NO2-Konzentrationen in Wirklichkeit ist. Im vorliegenden zehnten Teil wird nachgewiesen, dass die NO2-Beaufschlagung im eigenen Wohnbereich teilweise sehr viel höher liegt als selbst an den am stärksten befrachteten Brennpunkten des Autoverkehrs.

 

Die heilste Welt ist auf der Straße…

Wie wir im vorigen Teil dieser Artikelserie gesehen haben, spielen die kurzen Aufenthalte auf Straßen mit nennenswert über dem Immissionsgrenzwert von 40 µg/m3 liegenden NO2-Gehalten für das tatsächliche Langzeit-Expositionsbudget der dort wohnenden Bevölkerung de facto keine Rolle. Im Bereich niedriger Gehalte unterhalb der Alarmschwelle von 200 µg/m3 gehen die NO2-Alarmisten der DUH und ihre ideologischen Einflüsterer von der US-amerikanischen Umweltschutzbehörde EPA sowie der Weltgesundheitsbehörde WHO von einer linearen kumulativen Gefährdung aus. Anders ausgedrückt. Es kommt nicht auf den Spitzenwert an, sondern auf den Mittelwert aus abwechselnd höheren und tieferen Gehalten, Bild 2.

Bild 2. Angenommener Expositionsverlauf eines werktätigen Anwohners des Straßenbereichs „Am Neckartor“ in Stuttgart. Nachts Schlafzimmer, Morgens 8 Uhr Straßenluft, Tagsüber Büro, 17 Uhr Straßenluft + Tee, 20 Uhr Dinner bei Kerzenschein im Lokal. Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

In diesem Mittelwert sehen die Behörden das entscheidende Kriterium für die Beurteilung einer gesundheitlichen Gefährdung. Liegt dieser oberhalb von 40 µg/m3, so halten sie drastischste Maßnahmen, die auf eine Enteignung von Millionen Besitzern von Diesel-PKW sowie die faktische Zerstörung wesentlicher Teile unserer wichtigsten Exportindustrie hinauslaufen, für gerechtfertigt. Wird auf der Straße jedoch besagter Jahresmittelwert von 40 µg/m3 eingehalten, so ist für sie die Welt in Ordnung. Was zu Hause oder in der Firma los ist, scheint aus ihrer Sicht keine Rolle zu spielen. Trotz wortreicher Gegenbeteuerungen geht es ihnen im Kern nur um ein Ziel: Das Auto als Symbol unserer technischen Zivilisation anzugreifen und zu verteufeln.

 

…doch Zuhause…

Diese Haltung ist an Heuchelei nicht zu überbieten. Denn in Innenräumen, zu denen neben Büros auch das eigene Heim, Krankenhäuser und Gaststätten zählen, verbringen wir rund 90 % unserer gesamten Lebenszeit. Und in diesen Räumen ist selbst für diejenigen, die keine Berufe wie Schweißer oder Chemietechniker ausüben, sowohl beruflich als auch zuhause eine Konzentrationen von 60 µg/m3 zulässig [HIST, AIR]. Das sind 50 % mehr als das, was auf den Straßen angeblich niemals überschritten werden dürfte, wenn man nicht die Schuld an zigtausendfachem Tod auf sich laden möchte [RBBA]. Ginge es dem UBA oder der DUH wirklich um die Volksgesundheit, so müsste letztere in flammendem Protest gegen diese um 50 % höheren zulässigen Konzentrationen in Innenräumen auf die Straße gehen, statt sich ausschließlich auf den Dieselfahrer zu stürzen. Von den insgesamt 519 offiziellen Messtellen des Umweltbundesamtes gab es 2016 in ganz Deutschland nur ganze sieben, an denen überhaupt ein Jahresmittelwert von mehr als 60 µg/m3 gemessen wurde, also dem Wert, den man in unseren Wohn-, Schlaf- und Kinderzimmern als normal und zulässig einstuft [MESS]. Dabei hält sich auf diesen wenigen hoch beaufschlagten Straßenabschnitten schon aufgrund des hohen Verkehrsaufkommens niemand länger auf als unbedingt notwendig.

 

…gelten andere Regeln…

Die Pharisäer von der DUH machen sich die Tatsache zunutze, dass so gut wie niemand in der allgemeinen Bevölkerung weiß, dass die NO2-Konzentration gerade im privaten Bereich oft deutlich höher liegt als alles, was der heutige Verkehr überhaupt verursachen kann. Das ist deswegen viel gravierender, weil der Bürger dort im Normalfall gute 13,5 Stunden des Tages verbringt, weit mehr als die 8 Stunden, die er sich am Arbeitsplatz aufhält oder die vielleicht 20 Minuten Verweilzeit auf stärker beaufschlagten Straßenabschnitten. Und in Gebäuden kommen die NO2-Gehalte beileibe nicht nur von der Straße, selbst wenn dort zufälligerweise einer der relativ seltenen „Hotspots“ mit Werten oberhalb des zulässigen Limits von 40 µg/m3 liegen sollte [HIST, DIMI].

In der Realität verhält es sich genau andersherum: In vielen Innenräumen – sowohl im privaten Bereich als auch in öffentlich zugänglichen Räumen wie z.B. Gaststätten – liegen die NO2-Gehalte der Luft teils sogar erheblich über beiden Grenzwerten (40 µg/m3 für draußen, 60 µg/m3 für drinnen). Das ist den Dieselgegnern sehr unangenehm, da es ihrer Ideologie widerspricht. Sie behaupten ja, dass rund 75 % des „NO2-Übels“ in unseren Städten von den Diesel-PKW auf den Straßen kommt [LOHS, FAKT]. Deshalb versuchen sie so zu tun, als stammten auch erhöhte NO2-Gehalte in Wohnungen im Wesentlichen von den Dieselabgasen der Straße. Zuzugeben, dass dem nicht so ist, würde insbesondere die Hauptlinie der Argumentation unzähliger epidemiologischer Studien infrage stellen. Deren Ansatz stützt sich nämlich sehr häufig vor allem auf den Abstand der Wohnung der untersuchten Personengruppe zu stark befahrenen Straßen.

Diejenigen NO2-Anteile der Außenluft, die in Innenräume gelangen, werden dort nämlich durch Selbstreinigungsprozesse in erheblichem Umfang abgebaut. Deshalb weist die Luft in Wohnungen und sonstigen Innenräumen selbst an sehr stark befahrenen Straßen im Vergleich zur Außenluft in der Regel erheblich niedrigere NO2-Gehalte auf. Es sei denn, es kommen andere NO2-Quellen ins Spiel, die sich im Inneren des Gebäudes befinden und mit dem Verkehr gar nichts zu tun haben. Diese Tatsache ist den diversen „aktivistischen“ Epidemiologen, die unsere Medien mit Panikmeldungen über angebliche Gefahren des NO2 füttern, natürlich bestens bekannt. Entsprechende Kenntnisse sollte man auch von Professorin Annette Peters, Direktorin des Instituts für Epidemiologie am Helmholtz Zentrum München, erwarten dürfen. Umso verwunderlicher der Text eines Artikels in der FAZ über die „Gefahren“ des NO2 in der Luft unserer Städte, der auf einem Gespräch mit Prof. Peters beruht. Sinngemäß steht dort, es sei noch nicht erforscht, in welchem Umfang die Stickoxide durch die Fenster in die Innenräume der Wohnungen dringen [PEHO].

Sollte der Journalist der FAZ Prof. Peters richtig wiedergegeben haben, so wäre diese Stellungnahme dem Ruf der Dame ebenso wie dem ihrer beiden Institute in höchstem Maße abträglich. Denn schon 1998 stellte der Ausschuss für Innenraumrichtwerte in seiner bis heute gültigen Stellungnahme zu NO2 in Innenräumen [AIR] [AIR] folgendes fest: „In Innenräumen liegen die gemessenen NO2-Konzentrationen meist unter den Außenluftkonzentrationen, da NO2 sich an Oberflächen abbaut….Im Rahmen einer internationalen Untersuchung mit Passivsammlern, die im Winter 1996 in 13 Ländern in insgesamt 17 Städten durchgeführt wurde, wurden in Erfurt und Berlin als Innenraumkonzentrationen 17 bzw. 23 µg/m3, in der Außenluft 28 bzw. 70 µg/m3….als NO2-Mittelwerte gemessen“.

Einem Institut, dessen Leiterin derartige Unkenntnis grundlegender Fakten ihres Forschungsgebiets offenbaren würde, dürfte man eigentlich weder Aufträge des Umweltbundesamtes noch Berufungen in beratender Funktion z.B. für Bundestagsausschüsse zukommen lassen.

 

…denn dort lauern regelrechte NO2-Bomben

In Wirklichkeit sollen derartige Statements vor allem von einer Tatsache ablenken, die für die Dieselgegner sehr unangenehm ist: Die wirklich hohen NO2-Expositionen lauern nicht auf der Straße, und sie kommen nicht aus dem Auspuff der Diesel-PKW, sondern sie kommen aus den Wohnungen selbst. Und sie liegen bis zu mehr als dem Hundertfachen (!) über dem Straßen-Grenzwert, ab dem man bei uns das halbe Land zum Stillstand bringen will. Schauen wir solche Quellen einmal näher an, Bild 3.

Bild 3. Das Kerzenlicht eines Adventskranzes vermittelt ein starkes Gefühl von Heimeligkeit und familiärer Geborgenheit

 

Adventsstimmung, Wärme – und Stickoxide in rauen Mengen

Es gibt so gut wie keinen Haushalt, in dem keine Kerzen verwendet werden. Kerzen verbreiten anheimelnde Stimmung, spenden ein besonderes, lebendig wirkendes Licht und werden auch gerne zum Warmhalten von Getränken oder Speisen eingesetzt. Manche bevorzugen auch spezielle Duftkerzen. Wer weiß denn schon, dass in einer Kerze im Prinzip ähnliche Vorgänge ablaufen wie in einem Dieselmotor, d.h. eine Verbrennung mit einem vergleichsweise hohen Luftüberschuss. Von Grömping et al. durchgeführte Untersuchungen der NO2-Konzentration im Abgas einer Kerze [GROEM] ergaben Werte zwischen 205 und 235 µg/m3, Bild 4.

Bild 4. Bei mehrfachen Untersuchungen des Abgases einer Kerze fanden Grömping et al. NO2-Konzentrationen zwischen 205 und 235 µg/m3 (Daten: [GROEM]) Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

Im Rahmen einer anderen Untersuchung ermittelten Bartolomei et al. [BART] für Kerzen Stickoxidemissionen zwischen 3,4-5,0 mg/h für NO und 1,8-3,4 mg/h für NO2. Rechnet man die NO2-Emissionswerte auf ein Wohnzimmer mit einer Fläche von 50 m2 und einem Volumen von 125 m3 um, so ergibt sich ein stündlicher direkter NO2-Eintrag von bis zu 27 µg/m3, der sich im ungünstigsten Fall ca. verdoppeln kann, wenn man berücksichtigt, dass auch das emittierte NO durch die Reaktion mit Ozon (O3) in NO2 umgewandelt wird. Natürlich reduziert sich dies durch Abbauprozesse sowie den Luftwechsel, doch ist es durchaus realistisch anzunehmen, dass schon vier längerfristig brennende Kerzen ausreichen können, die NO2-Konzentration der Raumluft weit über die zulässige Grenze (bis auf mehr als 250 µg/m3) anzuheben. Bestätigt wird dies durch Simulationen, die in der Arbeitsgruppe Physikalische & Theoretische Chemie der Fakultät für Mathematik und Naturwissenschaften der Universität Wuppertal erstellt wurde. Dabei werden auch die Reaktion des von den Kerzen zusätzlich emittierten NO mit von außen eindringendem Ozon sowie die Abbaureaktion des NO2 mit den Raumwänden berücksichtigt. Die Ergebnisse für verschiedene Kerzenanzahlen zeigt Bild 5.

Bild 5. Simulation der NO2-Konzentration in einem 50-qm-Wohnzimmer beim Abbrennen von Kerzen (Grafik: Uni Wuppertal/ Kleffmann) Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

Die wirklichen Gesundheitsgefahren lauern bei Kerzen allerdings in den zahlreichen anderen Emissionen, welche sie produzieren. So weist der US-Mediziner Michael Segal darauf hin, dass Kerzen auf gleich drei verschiedene Arten Asthma auslösen können: Durch flüchtige Paraffinbestandteile, durch Rauch (=Feinstaub, FFM) sowie durch die vor allem in Duftkerzen enthaltenen Parfums [KERZ]. Gefahren gehen darüber hinaus auch von Streichhölzern sowie von allen Arten von Räucherwerk aus, die ebenfalls Feinstaub und NO2 erzeugen [RAUCH].

 

Zigaretten: Genuss, Entspannung – und Stickoxide bis weit oberhalb des MAK-Werts

Eine ganz massive NO2-Quelle in Innenräumen sind Zigaretten. Während ihre gesundheitsschädlichen Wirkungen allgemein bekannt und bestens dokumentiert sind, dürfte die Tatsache, dass ihr Rauch auch erkleckliche Mengen an NO2 enthält, nur den wenigsten bekannt sein. Von den gesundheitlichen Auswirkungen her spielt das NO2 in diesem Giftcocktail im Prinzip keine wirkliche Rolle, aber angesichts der geradezu hysterischen Angstmache, die derzeit zu diesem Thema in den Medien betrieben wird, soll eben auch dieser Aspekt hier entsprechend gewürdigt werden. Hierfür wurden die Untersuchungsergebnisse von zwei Forschergruppen herangezogen und in einem Diagramm zusammengefasst, Bild 6.

Bild 6. Sowohl Grömping et al. (Nr. 1-3) [GROEM] als auch Shen Yi et al. (Nr. 4-5) [ZIGA] untersuchten die Konzentration von NO2 in Zigarettenrauch. Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert, Rot: Bereich bis MAK-Wert, Braun: Werte oberhalb der zulässigen Maximalen Arbeitsplatzkonzentration. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

Aus Bild 6 geht hervor, dass Zigarettenrauch NO2-Gehalte aufweist, die weit über den üblichen Limits liegen und in einem Fall sogar deutlich über die maximale Arbeitsplatzkonzentration (MAK-Wert) von 950 µg/m3 hinausgehen.

 

Kochen – die Küche als NO2-Gaskammer

Als Top-Gefährder entpuppt sich bei solchen Untersuchungen allerdings ein Raum, an dem sich viele Menschen täglich bis zu einer Stunde oder noch länger aufhalten: Die Küche mit dem vielfach gerühmten heimischen Herd, vielfach sogar der Mittelpunkt des sozialen Geschehens im Haushalt. Vor allem dann, wenn dieser Herd mit Gas betrieben wird. Das ist in Deutschland zwar nicht allzu verbreitet, trifft jedoch in anderen westlichen Ländern wie z.B. Großbritannien oder den USA auf bis zu 50 % aller Haushalte zu. Jedem ist bewusst, dass ein Gasherd um ein Vielfaches mehr an Wärme erzeugt als eine Kerze. Dies betrifft natürlich auch den Ausstoß an Stickstoffdioxid. Hinzu kommt die Tatsache, dass eine solche Kochstelle je nach Art der Speisen und ihrer Zubereitung auch erhebliche Mengen Feinstaub mit z.T. hohem krebserzeugendem Potenzial in die Luft wirbelt. Hierzu gibt es eine ganze Reihe von Untersuchungen, wobei die Ergebnisse stark davon abhängen, ob und mit welcher Intensität eine Dunstabzugshaube zum Einsatz kommt. Da es Fälle gibt, wo eine Abzugshaube entweder nicht vorhanden ist oder nicht eingesetzt wird, wird hier eine entsprechende Untersuchung aufgeführt, Bild 7.

Bild 7. Langzeitverlauf der NO2-Konzentration in einer Küche, deren vierflammiger Gasherd für zwei Stunden auf volle Leistung gestellt wurde (Ursprung der modifizierten Grafik: [DENN])  

 

Die Spitzenwerte, die bei diesen Tests gefunden wurden, sind erschreckend und liegen nach heutigen Maßstäben extrem hoch im gesundheitsgefährlichen Bereich. Im Versuch überschritt die Konzentration über Stunden mehr als das Hundertfache dessen, was nach Ansicht der betreffenden Ministerialbehörden den Grenzwert darstellt, ab dem es gerechtfertigt erscheint, wesentliche Teile der deutschen Industrie zum wirtschaftlichen Untergang zu verurteilen. Jeder Gewerbebetrieb, der seine Mitarbeiter solchen atmosphärischen Bedingungen aussetzen würde, müsste normalerweise mit sofortigen Maßnahmen der Gewerbeaufsicht rechnen. Wenn das UBA sowie das Umweltministerium tatsächlich auch nur einen Funken Interesse an der Gesundheit der Bevölkerung hätten, würde man auf der UBA-Webseite zum Thema Kochen nicht folgende Empfehlung finden: „Gas oder Strom? Kochen mit Gas ist energieeffizienter, denn die Stromerzeugung in Großkraftwerken ist mit hohen Umwandlungsverlusten verbunden. Die Umwandlungsverluste für Gas sind nur halb so hoch wie bei Strom. Auf der anderen Seite erfordert die offene Gasflamme auch häufigeres Lüften“ [UBAGA].

Allerdings verkneift sich das UBA jegliche Warnung vor dem ansonsten doch so erbittert bekämpften NO2. Es wird noch nicht einmal ein Hinweis gegeben, warum man denn „häufigeres Lüften“ empfiehlt. Eine klassische Selbstentlarvung einer Behörde, der es bei der Anti-Diesel-Kampagne offensichtlich nicht um vorgebliche Gesundheitsgefahren, sondern um den „Rückbau“ der verhassten freien Individualmobilität des Bürgers geht.

 

Die Realität in unseren Wohnungen

Das, was hier beispielhaft für drei häufig anzutreffende Emissionsquellen für Stickstoffdioxid aufgezeigt wurde, trifft natürlich auch für zahlreiche andere und ebenso alltägliche Einsatzfälle zu. Hierzu gehören beispielsweise brennstoffbetriebene Heizgeräte, insbesondere mobile Gas- oder Kerosinheizgeräte ohne Lüftungseinrichtung, wie sie vor allem in Wohnungen der ärmeren Bevölkerungsschichten selbst in Schlafzimmern oder zum Trocknen von Kleidung häufig zum Einsatz kommen. Es betrifft aber genauso auch gängige Events aller anderen Bevölkerungsschichten vom Dinner bei Kerzenschein über den Genuss von Fondue oder von Speisezubereitungen „auf dem heißen Stein“ bis hin zum Grillen, das gerade als Indoor-Variante groß in Mode zu kommen scheint. Das hat Konsequenzen: Während das UBA samt ihren Hetzhunden von der DUH und den Medien auf den Straßen den Verkehr mit der dicken Keule zur Räson bringen wollen, werden die Vorgänge im Privatleben offenbar völlig ausgeklammert. Dabei offenbart sich bei Untersuchungen in Wohnungen ein Stickoxid-Abgrund, der sehr gut und umfassend dokumentiert ist. Nachfolgend nur einige Stichproben.

In Großbritannien fand man bei der Untersuchung von Küchen mit Gasherd durchschnittliche NO2-Konzentrationen von 71 µg/m3, in zwei Wohnzimmern mit kerosinbetriebenen Heizgeräten Werte von 72 bzw. 92 µg/m3. In einem Schlafzimmer mit dem gleichen Heizsystem wurden sogar 126 µg/m3 gemessen [GBARM]. Bei der Besprechung der Befunde hoben die Autoren noch hervor, dass die Werte aufgrund des milden Winterwetters niedriger als erwartet ausfielen.

In den USA ist das Heizen mit sogenannten Kerosinheizern weit verbreitet. Erwähnt werden Verkaufszahlen von 10 Mio. Stück für das Jahr 1985. Bei einer Untersuchung in drei Haushalten, in denen solche Geräte genutzt wurden, fand man NO2-Konzentrationen bis zu 224 µg/m3 [INDO]. Auch die Weltgesundheitsorganisation WHO stellt fest, dass der weitverbreitete Einsatz von Heiz- und Kochgeräten ohne Abzug dazu führt, dass die NO2-Konzentrationen in Wohnungen fallweise recht erheblich über den Werten liegen, die im Freien gemessen werden. In solchen Wohnungen könne die mittlere NO2-Konzentration auch über mehrere Tage hinweg oberhalb von 200 μg/m3 liegen, auch wenn die Mittelwerte tiefer lägen. Beim Kochen könnten über Zeiträume von Minuten bis einer Stunde Konzentrationen zwischen 230 bis 2.055 μg/m3 auftreten, der höchste 15-Minuten-Wert erreichte 2.716 μg/m3 [WHO2].

Ungelöste Probleme in Innenräumen sieht auch der Wissenschaftler Brett Singer vom Lawrence Berkeley National Laboratory (LBNL). Allein in Kalifornien seien schätzungsweise zwölf Millionen Menschen überhöhten NO2-Expositionen ausgesetzt. Zwar behaupte das EPA, dass man in Kalifornien keine Probleme mit NO2 habe, weil die mittleren Konzentrationen im Freien deutlich unterhalb des nationalen Sicherheitsgrenzwerts von ca. 60 (Kalifornien) bis 100 mg/m3 (Rest USA) lägen. Das Problem gebe es dennoch, nur betreffe es eben die Innenraumwerte und nicht die im Freien. Wäre letzteres der Fall, würde das EPA sich an die Beseitigung machen. Für Innenräume gebe es dagegen keinerlei Vorschriften, die irgendjemanden zur Abhilfe verpflichten [COOK].

 

Restaurants und Bratereien: Gefahr beim Tête a Tête

Besonders hohen NO2-Expositionen sind sowohl die Gäste als auch das Personal übrigens in Restaurants und Bratereien ausgesetzt, insbesondere dann, wenn die Zubereitung der Speisen im gleichen Raum erfolgt. Viele Gaststätten legen Wert auf romantische Atmosphäre, wozu fast stets Kerzenschein gehört, und das Warmhalten der Speisen erfolgt in zahlreichen Etablissements auf kerzenbeheizten Stövchen. Entsprechend hoch sind die Werte, die in solchen Räumen gemessen werden können, Bild 8.

Bild 8. In verschiedenen Restaurants gemessene NO2-Konzentrationen (Daten: [GROEM]). Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert, Rot: Bereich bis MAK-Wert, Braun: Werte oberhalb der zulässigen Maximalen Arbeitsplatzkonzentration. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

Die Datenerhebungen zu Bild 8 erfolgten zu einer Zeit, als das heute nahezu flächendeckende Rauchverbot in Gaststätten noch nicht in Kraft war. Dennoch dürfte sich das Niveau auch heutzutage weit oberhalb des Innenraum-Grenzwerts von 60 µg/m3 bewegen. Dies gilt insbesondere für Lokalitäten, wo z.B. Speisen am Tisch flambiert werden oder wo WOK-Zubereitungen über der Gasflamme erfolgen. Noch schlimmer dürfte die Lage in den heute so beliebten Shisha-Lokalen sein, vom Shishagebrauch im privaten Umfeld gar nicht zu reden.

 

Aufforderung zum Handeln

Politik, Medien und NGO’s sind dabei, mit ihren Schreckensszenarien über Dieselabgase ein Fass aufzumachen, das sie besser geschlossen halten würden. Alles, was unsere Autos und Industrieprozesse an NO2-Exposition auf der Straße erzeugen, ist ein armseliger Klacks im Vergleich zu den hier aufgezeigten NO2-Quellen und vor allem zu den Konzentrationen, denen die Bevölkerung in Innenräumen über teils sehr lange Zeiträume ausgesetzt ist. Nähme man die Horrorgeschichten, welche DUH und deutsche Medien von ARD und ZDF über RBB und SWR bis hin zum Spiegel verbreiten, für bare Münze, so vollzöge sich in unseren Wohnungen und Gaststätten fast schon ein organisierter Völkermord. Schließlich muss man hierbei ja noch berücksichtigen, dass sich der Durchschnittsbürger eher selten und wenn, dann höchstens viertelstundenweise in stark mit NO2 beaufschlagten Straßenabschnitten aufhält, dagegen zu 90 % seiner Zeit in Innenräumen.

Angesichts der Millionen vom Staat durch willkürliche Festsetzung viel zu niedriger Emissionswerte geschädigter Dieselfahrer dürfte es nicht schwerfallen, einen schlagkräftigen Verein auf die Beine zu stellen, der sich einmal die Situation in Wohnungen und Gaststätten mit Messgeräten näher ansieht und als Gegenwehrmaßnahme die Wohnungswirtschaft (Vermieter) sowie das Gaststättengewerbe ebenso an die Wand fährt, wie man dies aktuell mit der Automobilindustrie und den Dieselbesitzern macht.

Bild 9. Künftig ein Grund, die Polizei wegen schwerer Körperverletzung zu rufen? Beim Grillen entstehen erhebliche Mengen NO2 und ziehen hochkonzentriert zu den Nachbarn, insbesondere die auf dem Balkon darüber. Das gilt auch für die geruchsärmeren Gasgrills

Ein künftiges Dorado für Anwälte

Einen interessanten juristischen Ansatzpunkt hierfür könnte man in der aktuellen Gesetzgebung zur Innenraumluft finden. Der aktuell geltende NO2-Grenzwert für die Innenraumluft von 60 µg/m3 ist ein sogenannter Richtwert II L, d.h. ein Langzeitrichtwert. Nach Definition ist dies „ein wirkungsbezogener Wert, der sich auf die gegenwärtigen toxikologischen und epidemiologischen Kenntnisse zur Wirkungsschwelle eines Stoffes unter Einführung von Unsicherheitsfaktoren stützt. Er stellt die Konzentration eines Stoffes dar, bei deren Erreichen beziehungsweise Überschreiten unverzüglich zu handeln ist. Diese höhere Konzentration kann, besonders für empfindliche Personen bei Daueraufenthalt in den Räumen, eine gesundheitliche Gefährdung sein….Aus Gründen der Vorsorge sollte auch im Konzentrationsbereich zwischen Richtwert I (den es aus praktischen Erwägungen beim NO2 nicht gibt) und Richtwert II gehandelt werden, sei es durch technische und bauliche Maßnahmen am Gebäude (handeln muss in diesem Fall der Gebäudebetreiber) oder durch verändertes Nutzerverhalten“ [AIR]. Diese Regelung liefert einen hervorragenden Ansatz für Juristen, um den Rest Deutschlands im Gegenzug auch noch lahmzulegen, sollte die Bundesregierung nicht imstande sein, gesetzliche Änderungen – vorzugsweise Anpassungen der NO2-Grenzwertvorgaben – auf den Weg zu bringen, welche die DUH endlich stoppen. Es muss endlich Schluss sein mit der unerträglichen Situation, dass eine unserer wichtigsten Schlüsselindustrien zerstört wird. Und das nur, weil politische Eitelkeiten der Revision einer Fehlentscheidung im Wege stehen, während man andere, nach den gleichen Maßstäben um ein Vielfaches gesundheitsschädlichere Emissionen einfach achselzuckend zur Kenntnis nimmt.

 

Stromsperren – ein Beinahe-Todesurteil?

Im gleichen Zusammenhang ist auch darauf hinzuweisen, dass die bisher übliche Praxis des „Abdrehens“ der Stromzufuhr bei Zahlungsrückständen aus humanitären Gründen nicht mehr hingenommen werden kann. Die Politik hat uns durch das EEG die zweithöchsten Strompreise in Europa beschert. Da immer mehr Familien aus einkommensschwachen Schichten ihre Stromrechnungen nicht mehr bezahlen können, kommt es jährlich zu rund 300.000 solcher Stromsperren, von denen teils ganze Familien samt Kindern und Kranken betroffen wurden. Ohne Strom haben diese Bewohner keine Heizung, kein Warmwasser und kein Licht mehr. Sie müssen daher zwangsweise auf Kerzen und (Flaschen)-Gas ausweichen. Zusätzlich versagen bei ihnen aufgrund der Stromsperre auch noch die eventuell vorhandenen Ablufteinrichtungen. Dies hat zwangsläufig extrem hohe NO2-Gehalte in der Atemluft zur Folge, vor allem in der kalten Jahreszeit. Man sollte diese Umstände aggressiv an Kirchen, Wohlfahrtsverbände und soziale wie karitative Organisationen herantragen und sie auffordern, schnellstmöglich Schritte einzuleiten, wie man diesen Personen helfen kann, ohne sie und ihre Kinder solch unerträglichen Lebensbedingungen auszusetzen. Die gleichen Überlegungen treffen auch auf Behelfs- und Flüchtlingsunterkünfte zu, wo sich die Bewohner in ihrer Not ebenfalls häufig mit gas- oder spiritusbetriebenen Heiz- und Kocheinrichtungen behelfen.

 

Fakten und „Faktenfinder“

Die hier dargelegten Probleme wurden bisher von den Medien ignoriert. Stattdessen hat man sich dort einen regelrechten Wettbewerb in der Frage geliefert, wer am tollsten auf den Dieselmotor und die Individualmobilität eindreschen konnte. Bisher hat man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Belastung des Bürgers beschäftigt. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden ignoriert. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die sich jetzt abzeichnende „GroKo“ – egal ob sie als echte oder als wilde (Duldungs-) Ehe zustande kommen sollte – ist für Deutschland ein sehr schlechtes Omen.

Fred F. Mueller

 

Demnächst folgt Teil 11

 

Quellen

[AIR] https://www.umweltbundesamt.de/themen/gesundheit/kommissionen-arbeitsgruppen/ausschuss-fuer-innenraumrichtwerte-vormals-ad-hoc#textpart-1

[BART] Bartolomei, et al, Combustion Processes as a Source of High Levels of Indoor Hydroxyl Radicals through the Photolysis of Nitrous Acid. Environ. Sci. Technol. 2015, 49, 6599−6607, DOI: 10.1021/acs.est.5b01905

[BELA] https://www.ncbi.nlm.nih.gov/pubmed/16254270?dopt=Citation

[BLFU] Bayerisches Landesamt für Umwelt: Untersuchung der räumlichen Verteilung der NOX-Belastung im Umfeld von vorhandenen, hochbelasteten Luftmessstationen. Abschlussbericht. September 2015.

[COOK] https://ehp.niehs.nih.gov/122-a154/

[DENN] Dennekamp et al, Ultrafine particles and nitrogen oxides generated by gas and electric cooking. Occup Environ Med 2001;58:511–516

[DIMI] Dimitroulopoulou C, Ashmore MR, Byrne MA, et al. Modelling of indoor exposure to nitrogen dioxide in the UK. Atmosphere and Environment 2001;35:269–79.

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[FFMD8] http://ruhrkultour.de/diesel-lueckenmedien-im-glashaus-8/

[GBARM] http://www.sciencedirect.com/science/article/pii/095712729090023N

[GODI] Godish.: Indoor Environmental Quality

[GROEM] Grömping, H.-J.; Cammann, K.: Field evaluation and automation of a method for the simultaneous determination of nitrogen oxides, aldehydes and ketones in air. Journal of Automatic Chemistry, Vol. 18, No. 3 (May-June 1996), pp. 121-126

[HIST] Bundesgesundheitsbl. 1/98, Richtwerte für die Innenraumluft: Stickstoffdioxid, S. 9-12.

[INDO] http://enhs.umn.edu/current/5103/air/combustion.html

[JURUBA] https://www.umweltbundesamt.de/themen/gesundheit/kommissionen-arbeitsgruppen/ausschuss-fuer-innenraumrichtwerte-vormals-ad-hoc

[KERZ] http://www.segal.org/asthma/

[LOHS] https://eike.institute/2017/09/06/diesel-verteufelung-krieg-gegen-das-eigene-volk-diesel-wie-die-politik-das-volk-irrefuehrt/

[MESS] https://www.umweltbundesamt.de/sites/default/files/medien/358/dokumente/no2_2016.pdf

[NOPRO] Office of Air and Radiation (6301A) EPA-456/F-11-003 www.airnow.gov February 2011, updated June 23, 2016.

[PEHO] http://www.faz.net/aktuell/wissen/leben-gene/fakten-zur-dieseldebatte-wie-ungesund-sind-stickoxide-15138424-p3.html

[RAUCH] https://www.researchgate.net/publication/272911848

[RBBA] https://www.rbb24.de/politik/thema/2017/abgasalarm/beitraege/abgasalarm-Stickoxid-Werte-in-Berlin-flaechendeckend-zu-hoch.html#top

[UBAGA] https://www.umweltbundesamt.de/umwelttipps-fuer-den-alltag/elektrogeraete/herd-kochfelder#textpart-2

[WHO2] http://www.euro.who.int/__data/assets/pdf_file/0017/123083/AQG2ndEd_7_1nitrogendioxide.pdf

[ZDF] ZDF Heute – Sendung vom 2.9.2017, Sendeminuten 03:55 bis 04:11

[ZIGA] Shen Yi, et al, Measurement of NO2 in Cigarette Main Smoke by Differential Optical Absorption Spectroscopy. Acta Optica Sinica. 28. 1934-1937. 10.3788/AOS20082810.1934.

 




Der Gouverneur des Bundesstaates Washington warnt: Es bleiben nur noch 59 Tage, um unsere Kinder vor der globalen Erwärmung zu retten

Aufmacherbild: Inspiriert durch die Meldung

Berliner Kurier, 05.01.2018

Kältewelle in den USA: Haie erfrieren im Meer

Inslee unternahm eine langwierige Twitter-Kampagne, um die Gesetzgeber des Bundes zu überzeugen, Gesetze zur Besteuerung von Kohlendioxidemissionen zu verabschieden. Die Einwohner Washingtons haben den letzten CO2-Steuerplan von Inslee 2016 mit weitem Abstand abgelehnt.

Die Legislaturperiode des Bundesstaates Washington endet am 8. März in 59 Tagen. Die Demokraten haben in beiden Kammern des Landtages eine knappe Mehrheit.

Google Maps_Bundesstaat Washington

Inslee will, dass die Abgeordneten eine Steuer auf Kohlendioxidemissionen von Kraftwerken und Industrieanlagen erheben.

Der Plan von Inslee würde die CO2 Emissionen im Jahr 2019 mit 20 US-Dollar pro Tonne besteuern, die dann jedes Jahr um 3,5 Prozent über der Inflation steigen sollen. Inslee’s Büro schätzt, dass es in den nächsten vier Jahren 3,3 Milliarden Dollar einbringen wird.

Etwa 950 Millionen Dollar würden in Bildungsprogramme fließen. Der Rest würde in Richtung grüner Energieprogramme und Forschung, Wasserinfrastruktur, Waldbrand-bekämpfung gehen. Etwas Geld würde mit Steuern verrechnet werden oder zu armen Familien gehen.

Der Plan würde die Haushaltsstrompreise um fünf Prozent und die Gaspreise nach offiziellen Schätzungen um etwa zehn Prozent erhöhen.

Inslee’s erster CO2-Steuerplan scheiterte 2016, nachdem liberale Gruppen sich nicht einigen konnten, wie sie die erwarteten Einnahmen ausgeben sollten. Inslee schlug auch ein Emissionshandel Programm vor, welches 2015 sowohl von Demokraten und als auch von Republikanern abgelehnt wurde.

Wenn die CO2 Steuer beschlossen werden würde, hatte dies keine messbaren Auswirkungen auf die projizierte zukünftige globale Erwärmung. Selbst wenn die USA insgesamt aufhören würden, CO2 zu emittieren, wären die Auswirkungen auf der Grundlage von Klimamodellen der Regierung extrem gering .

Erschienen auf The Daily Caller am 09.01.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/01/09/washington-governor-claims-just-59-days-to-save-children-from-global-warming/




Behauptung: Ohne das Pariser Abkommen, wird die Erde zu einer Wüste werden

Mehr als 25 Prozent der Weltbevölkerung werden in einer Dürre und wachsenden Desertifikation leben, wenn die globalen Temperaturen bis 2050 um 2 Grad Celsius steigen, heißt es in einem am Montag in dem Journal Nature Climate Change veröffentlichten Bericht.

„Unsere Forschung sagt voraus, dass die Desertifikation [~Wüstenbildung, Verschlechterung des Bodens in rel. trockenen Gebieten] sich über 20-30 Prozent der Landoberfläche der Erde ausbreitet, wenn die globale Durchschnittstemperatur sich um 2 ° C erhöht„, sagte Manoj Joshi, ein führender Forscher der Universität von East Anglia im Vereinigten Königreich in seiner Stellungnahme, seiner Ergebnisse.

Neuere Forschungen haben solche und ähnliche Behauptungen jedoch verworfen. Ein Bericht der 2016 vom Massachusetts Institute of Technology (MIT) veröffentlicht wurde , weist eindeutig aus, dass mehr Kohlendioxid – nicht weniger – das Pflanzenwachstum erhöht und die Auswirkungen der Temperaturen auf den Klimawandel begrenzt.

Frühere  Studien  schätzen, dass durch die globale Erwärmung etwa die Hälfte der Landmasse der Erde eine „signifikante Ökologisierung“ ausweist [also mehr Grün] und dass nur in 4 Prozent der Welt eine Abnahme des Pflanzenlebens beobachtet werden konnte. Die erhöhte Vegetation, die vermutlich durch wärmere Temperaturen ermöglicht wird, verlangsamt die globale Erwärmung, da mehr Bäume und Pflanzen das CO2 speichern.

Auch andere Behauptungen von Wissenschaftlern der Universität von East Anglia sind nicht erfüllt worden. Ein Forscher sagte im Jahr 2000 voraus, dass Kinder ohne Schnee aufwachsen würden; Es ist nun fast 18 Jahre her, dass britische Klimaforscher an der Universität argumentierten, dass die globale Erwärmung den Schneefall zu einem „sehr seltenen und aufregenden Ereignis“ machen würde.

„Kinder werden einfach nicht wissen, was Schnee ist„, sagte Dr. David Viner, ein Wissenschaftler der Abteilung für Klimaforschung an der Universität von East Anglia,  gegenüber dem UK Independent im Jahr 2000 . UK Independent nahm schließlich den Bericht zurück, nachdem der Kommentar in den konservativen Medien traurige Berühmtheit erlangte.

Eine Welle von Schneestürmen und kalten Temperaturen erlebte Ende Dezember der Nordosten und der Mittlere Westen. Pennsylvania Counties, zum Beispiel, wurden mit mehr als 150cm   Schnee in den zwei Tagen nach Weihnachten bedeckt – der Sturm brach alle Rekorde und erforderte es, dass die Nationalgarde  die Straßen räumten, damit die Bewohner sicher ankamen.

Fundstück: Wie viel Schnee gibt ein Glas Wasser? https://www.linkedin.com/pulse/we-need-moisture-david-entwistle

Am Tag von Heiligabend fielen mehr als 85 cm Schnee, ein Rekord für einen Tag Schneefall in Erie. Wir haben noch nie solche „astronomischen Schneemengen in den letzten 48 Stunden gesehen“, sagte NWS Cleveland Meteorologe Zach Sefcovic.

Auch in Texas fiel Schnee in Rekordhöhen,  … das dritte Mal seit 1895…

Das Pariser Klimaabkommen sieht vor, dass Länder die Treibhausgase aus dem Verbrauch fossiler Brennstoffe reduzieren, um zu vermeiden, dass die Erderwärmung um 2 Grad Celsius ansteigt. Viele Klimawissenschaftler beschuldigen die durch Verbrennung fossiler Brennstoffe entstehender Treibhausgase für den von Menschen verursachten Klimawandel.

Immer noch herrscht jedoch Uneinigkeit darüber, ob die Ziele des Abkommens überhaupt durchführbar sind. Die mit dem Erreichen des Ziels verbundenen Kosten schießen in ungeahnte Höhen.

Ein aktueller Bericht von Bloomberg New Energy Finance (BNEF)  prognostizierte, dass globale Erwärmung bis zum Ende des Jahrhunderts unter 2 Grad Celsius liegen könnte und mehr als 12,7 Billionen US-Dollar kosten würde. BNEF schätzt außerdem, dass bis 2040 7,4 Billionen US-Dollar in neue grüne Energiekapazitäten investiert werden und dass die globalen Kohlendioxidemissionen dann um 4 Prozent niedriger sein könnten als 2016.

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/01/01/report-makes-lofty-claim-that-earth-will-become-a-desert-without-paris-deal/

 

 

* * *

Pressefundstücke – immer wieder schön

 

BBC News 26.04.2002

Schnee, auch 2002 noch eine Sache der Vergangenheit

 

N-TV 29.09.2005

 

T-Online News, 11.01.2009

Berliner Kurier, 05.01.2018

Kältewelle in den USA: Haie erfrieren im Meer

…  Am Donnerstag wurde bereits der vierte erfrorene Hai vermeldet, an der Küste von Cape Cod, einer Halbinsel im Südosten von Massachusetts. Der Fuchshai wurde in einem Packen Eis entdeckt, berichtet die Organisation  „Atlantic White Shark Conservancy“.  Wegen des rauen Wetters hatten die Wissenschaftler es nicht geschafft, ihn an Land zu ziehen.

… Entlang der US-Ostküste sorgen Eiseskälte und anhaltender Schneefall weiter für Chaos. Sogar im Sonnenstaat Florida  fiel Schnee  – erstmals seit 29 Jahren.

 

TZ München, 09.01.2018

Von Schnee und Frost ist hierzulande derzeit nichts zu sehen. Wetterexperten machen wenig Hoffnung, dass sich das schnell ändert. 

„Das könnte einer der wärmsten Januar-Monate seit Jahren werden. Nach den ersten 8 Tagen ist der Monat bisher rund 5,3 Grad wärmer als im langjährigen Durchschnitt“, sagt Diplom-Meteorologe Dominik Jung vom Wetterportal wetter.net

….

Deutschland-Wetter: Wie sind die Winter-Aussichten?

In den nächsten Tagen passiert wettertechnisch in Deutschland nicht wirklich viel, berichtet Meteorologe Dominik Jung. „Ein Meteorologe würde die anstehende Wetterlage sicherlich als „langweilig“ bezeichnen“ ist in seiner aktuellen Wettermitteilung zu lesen und bringt es auf den Punkt: Kein Wintereinbruch in Sicht, keine neue Sturmentwicklung und keine Starkregenereignisse. 

 

 

T-Online, 09.01.2018

 

 

WEB.DE 01.01.2018

 

WEB.DE  10.01.2018

 

 

Zum Abschluss, der

Eisbericht der Arktis

Orange Linie: Durchschnitt 1981 – 2010




Am Neujahrs­morgen hat sich Deutsch­land zum ersten Mal in der Geschichte komplett mit Öko­strom versorgt

Dazu als Ausführung: Ein Ereignis, zwei Interpretationen.

Neujahr 2018, sechs Uhr früh: Ein EEG-Märchen wurde „wahr“, weil die offiziellen Verbrauchsangaben um 22 % differieren

Süddeutsche Zeitung 4. Januar 2018: [1] … Als es endlich soweit ist, liegt fast ganz Deutschland friedlich in den Federn. Es merkt auch keiner nach dem Aufstehen. Kein Wecker blinkt, weil zwischenzeitlich der Strom ausgefallen ist. Dabei hat sich Deutschland gerade zum ersten Mal in der Geschichte komplett mit Ökostrom versorgt: am Neujahrsmorgen um sechs Uhr.
Das jedenfalls belegen die offiziellen Zahlen der Bundesnetzagentur, die auf der Plattform Smard für jede Stunde Angebot und Nachfrage im deutschen Stromnetz abbildet. Naturgemäß ist die Nachfrage an einem Neujahrsmorgen schwach, der Verbrauch liegt bei knapp
41 000 Megawattstunden. Das ist etwas mehr als die Hälfte dessen, was an einem normalen Werktag verbraucht wird. Allerdings weht in den frühen Morgenstunden des neuen Jahres auch ein ordentlicher Wind: Allein er stillt 85 Prozent der Stromnachfrage. Wasserkraft und Biomasse besorgen den Rest. Die Sonne ist noch nicht aufgegangen, sie sorgt erst mittags für zusätzlichen Ökostrom. „Niemand hat erwartet, dass wir die 100 Prozent ausgerechnet an einem Wintertag früh morgens erreichen“, sagt Rainer Baake, zuständiger Staatssekretär im Bundeswirtschaftsministerium …
Die GRÜNEN legten nach und meldeten: [14] Deutschland kann 100 Prozent Ökostrom.

Wie sich das EEG-Märchen vom Neujahrstag im Netz selbst darstellte, ist anbei anhand der Darstellung aus dem Agora-Viewer gezeigt:

Nach den Daten von Agora war es selbst in diesen wenigen Stunden nicht so euphorisch, wie es die SZ und der Staatssekretär, Herr Baake meldeten.

Agora-Daten am 01.01.2018, 06 h:
– Verbrauch: 49,948 GW
– Regenerative Erzeugung gesamt: 42,898 GW
– Anteil EEG-Versorgung damit: 86 %
Bezüglich der Daten gibt es allerdings unterschiedliche Angaben. Bei der Entso-e wurden für diese Stunde wohl nur ca. 42.000 MW Verbrauch angegeben [3], wonach die 100 % „EEG-Energieerfüllung“ stimmen würde. Anmerkung: Im SZ-Artikel sind es 41,09 MWh.
Auf die Nachfrage bei Agora nach der Diskrepanz zwischen den beiden Portalangaben kam eine vorbildlich schnelle und freundliche, leider etwas kryptische Antwort:
Antwort von Agora: … Während das Agorameter die gleiche Datenquelle (über EEX) nutzt, werden hier die Daten mit bestimmten Korrekturfaktoren verrechnet (sehen Sie hierzu die Dokumentation … Dies geschieht, da die Daten von ENTSO-E nicht die gesamte Produktion abdecken. Aufgrund dieser Verrechnung kommt das Agorameter auf eine abweichende Produktion, somit auch Nachfrage und letztendlich auch Erneuerbaren-Anteil an der Nachfrage ...
Der Autor leitet daraus ab, dass Agora überzeugt ist, die genauere Darstellung zu geben (Bild 1). Was sind auch schon ca. 15 % Datendifferenz, wenn man EEG-Strom sowieso im Überfluss hat [4]. Kleinlichkeit schadet da nur, mögen sich SZ und Staatssekretär gedacht haben. Und wer weiß schon, wann eine solche Stunde wieder kommt.

Vollkommen unabhängig vom Autor fiel dies auch „Vernunftkraft“ auf und diese Seite kam mit genau der gleichen Überlegung (Und Nachfrage) zum gleichen Ergebnis wie der Autor:

Bild 1.1 Screenshot aus dem Artikel bei „Vernunftkraft“

Basieren die politischen „Zerschlagungseuphorien“ zu unserem Energiesystem auf Datenfehlern?

Beim Betrachten des enormen Datenunterschiedes beim Verbrauch kommt man ins Grübeln. Der Gesamtanteil Braunkohle am Energiemix beträgt ca. 23 %. Der Datenunterschied beträgt ca. 22 %. Basiert die Euphorie hochrangiger Politiker*innen und bestimmter Parteien, zum Beispiel die Braunkohlekraftwerke problemlos abschalten zu können, ganz einfach auf Datenfehlern? Wundern würde man sich darüber nicht (mehr).
Es wäre für die AfD eine gute Gelegenheit, über eine Anfrage an den Datendienst des Bundestages diese eklatante Diskrepanz zwischen den Infoportalen (er)klären zu lassen.

Experten sehen in dem Rekord einen Impuls, die Energiewende entscheidend voranzutreiben

In Deutschland findet sich inzwischen wohl zu jedem Thema ein Überangebot an Experten und so fand auch die SZ wohl welche, die aus dem Ereignis das Positive herausschälen konnten:
Süddeutsche Zeitung: [1] Experten sehen in dem Rekord einen Impuls, die Energiewende entscheidend voranzutreiben.

Fachpersonen empfehlen eher, mit dem EEG-Wahnsinn aufzuhören

Im Folgenden eine Darstellung, warum man aus diesem „geschichtlichen“ Ereignis alternativ auch weniger einen Erfolg, sondern das Desaster des EEG herauslesen kann. Das wurde vom Autor (und anderen) zwar in vielen Artikeln schon publiziert, bei einem solchen, ganz Deutschland betreffendem Thema, kann man es jedoch nicht oft genug wiederholen.

Das folgende Bild erweitert den kurzen Zeitraum des Neujahrsmorgens auf einen Monat.

Bild 2 Stromversorgungsdaten Dezember 2017 mit diversen Zufügungen durch den Autor. quelle: Agora Viewer

Sofort sieht man, dass den (vielleicht – eher jedoch nicht) wenigen Stunden „EEG-Planerfüllung“, ausschließlich Zeiten gegenüberstehen, in welchen – so man sich auf das EEG verlassen müsste – eklatanter Energiemangel herrscht, welcher bis zur praktisch vollständigen Energiedunkelheit über eine ganze Woche reicht (A: 15. … 23. Dezember).

Wie es das folgende Bild 3 zeigt, gilt dies auch für Wind offshore, der angeblich Grundlastfähigkeiten besitzen soll, wie es „Experten“ – die ja keine Fachpersonen sein müssen – regelmäßig versichern:
EIKE 11.01.2017: Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlastfähigkeit
Münchner Stadtwerke: Christian Vogt, Leiter des Beteiligungsmanagements der Stadtwerke München:
… Bis 2025 wollen wir so viel Ökostrom erzeugen, wie ganz München verbraucht. Eine ganz wesentliche Bedeutung bei der Umsetzung hat die Windkraft, insbesondere Offshore.
Sie hat das größte Potenzial und ist sogar grundlastfähig.

Bild 3 Einspeisung Wind offshore vom 01.04.2016 bis 07.01.2016. Quelle: Agora Datensatz (daraus vom Autor erstellt und ergänzt)

Außer, dass eine reine EEG-Versorgung wegen der nicht-Planbarkeit und dem fast vollständigen Fehlern ausreichend großer Speicher ein Desaster wäre, kann man eigentlich nichts anderes herauslesen.

„Experten“, wie der beamtete Aktivist, Herr Baake (GRÜNER und ehemals mit-Bundesgeschäftsführer der Deutschen Umwelthilfe) verkünden jedoch dazu:
[1] … Das Geschehen zeigt, dass wir noch mehr Flexibilität brauchen“, sagt Baake, „inflexible Großkraftwerke behindern die Energiewende“ …

Wer behindert wen?

Das mit der Flexibilität mag stimmen. Nachdem der EEG-Flatterstrom im Stundentakt gewaltige (unplanbare) Sprünge macht, wäre für das parallel immer erforderliche Backup-Versorgungssystem die gleiche – aber nun planbare – Sprunghaftigkeit nicht schlecht. Allerdings ist erwiesen, dass es stattdessen viel billiger und einfacher ist, den EEG-Überschuss einfach wegzuwerfen – heißt abzuregeln (wird i einem späteren Kapitel noch ausgeführt). Würde man gar die bedingungslose EEG-Vorrangeinspeisung beenden, wäre das Problem sowieso ganz schnell durch den Markt bereinigt.
„Experten“ sprechen zwar davon:
[1]… Das sehen Experten ähnlich. „Wir treten damit in eine neue Phase“, sagt Felix Matthes, Energie-Experte beim Öko-Institut. „Die Erneuerbaren sind damit endgültig aus der Nische heraus.“ Nun schlage die Stunde des Marktes.
Doch meinen diese mit „Markt“ etwas ganz anderes, nämlich dessen vollständige Zerschlagung:
WIKIPEDIA:… Unter Baakes Leitung half die Deutsche Umwelthilfe daher Bürgerinitiativen, Kommunalpolitikern und Landesregierungen in Auseinandersetzungen gegen neue Kohlekraftwerke ...

Solche Aussagen – teils beamteter Personen an entscheidungsrelevanten Positionen – sind insofern erschütternd, weil im Bild 2 (und nicht nur dort [4]) erkennbar ist, dass die verbliebenen, konventionellen Kraftwerke das EEG nicht behindern, sondern dessen einzige Rettung sind. Man hat auch bei diesem Staatssekretär den Eindruck, dass als Hauptaufgabe vorrangig die Zerschlagung des Stromsystems gesehen wird und die negativen Folgen bewusst in Kauf genommen werden [5] [7], wie es allerdings auch seine Partei und Frau Hendricks [4] fordern.

Die Rettungsgasse und die Sankas sind die „Freie Fahrt“ Blockierer

Bei jeder Nachschau im EEG-System stellt man fest, dass das EEG alleine durch die (zum Glück noch) vorhandenen, konventionellen Kraftwerke vor dem Infarkt gerettet wird [4] [6]. Wer dennoch behauptet, diese würden die Netze verstopfen (zum Beispiel auch die „Expertin“, Frau C. Kemfert), hat entweder keine Ahnung, oder ideologische Scheuklappen. Wobei „keine Ahnung“ eher bei Personen in höchsten, politischen Ämtern zu vermuten ist. Um nicht immer nur die unselige Frau Hendricks zu zitieren, anbei andere Beispiele:
WELT N24, 31.05.2016: Kohlekraftwerke „verstopfen“ Stromnetze
… Der Kieler Energieminister Robert Habeck (Grüne) sagte der Deutschen Presse-Agentur: «Wir haben ja nicht zu viel Erneuerbaren Strom, sondern Kohle- und Atomkraftwerke, die das Netz verstopfen. Wenn die aus den Netzen verschwinden würden, hätten wir ordentlich Platz.»
Bündnis 90 Die Grünen, 05.01.2018: [14] Deutschland kann 100 Prozent Ökostrom
… Der erste Schritt ist, dass die alten, unflexiblen Kraftwerke vom Netz gehen. Die Atommeiler werden bis 2022 abgeschaltet. Doch sehr schnell müssen jetzt auch die alten Kohlekraftwerke raus aus der Produktion. Das schützt nicht nur das Klima, sondern bringt auch den Strommarkt wieder in Ordnung. Die Dinosaurier aus der alten Energiewelt müssen wir dann durch Erneuerbare sowie flexible und umweltfreundliche Kraftwerke oder Speicher ersetzen. So sieht die Stromwelt der Zukunft aus.
Jedenfalls erinnert es an Autofahrer, welche im Stau stehen und sich über die Rettungsgasse und Feuerwehrautos beschweren, welche die Autobahn „verstopfen“ und die freie Fahrt behindern. Bei den GRÜNEN kommt noch dazu, dass sie Wünsche als bereits gelöste Probleme „verkaufen“.

Wie im Sozialismus: Mangel ist doch ein Segen – und irgendjemand profitiert schon davon

Die SZ als bezahlpflichtige, „GRÜNE Parteizeitung“, kann nicht anders, als überall Erfolge zu sehen. Parallel mit der C. Kemfert ist auch die SZ überzeugt, dass negative Börsenstrompreise „allen nutzt“. Gut, mit der Einschränkung: „ die Strom flexibel nachfragen können“, womit Privatverbraucher leider weitgehend ausgeschlossen sind. Das bringt nach SZ-Lesart jedoch kaum einen Nachteil, denn an den horrenden Differenz-Kosten sind sie dafür immer beteiligt.
Süddeutsche Zeitung: [1] … Auch am Strommarkt geht das Ereignis nicht spurlos vorbei. An der Börse fällt der Strompreis am frühen Neujahrsmorgen auf minus 76 Euro pro Megawattstunde. Wer Strom erzeugt, muss in den ersten Stunden des neuen Jahres also Geld drauflegen, um ihn loszuwerden. Der Grund: Während Ökostrom erstmals mehr als genug Strom produziert, laufen konventionelle Kraftwerke weiter, vor allem Export. Doch sie erzeugen mehr, als gebraucht wird

Bild 4 Neujahrstag mit Verlauf der negativen Stromkosten (blaue Linie) von ca. 00 …. 14 h an der Strombörse

Süddeutsche Zeitung: [1]… Das sehen Experten ähnlich …
(Felix Matthes, Energie-Experte beim Öko-Institut:) …Denn wenn die Preise stark schwanken, dann nutzt das all jenen, die ihren Strom flexibel nachfragen können. Batterien und andere Speicher lassen sich aufladen, Kühlhäuser herunterkühlen. Bei negativen Preisen lässt sich damit sogar Geld verdienen. Wird Strom knapp, lässt sich die gespeicherte Energie teurer verkaufen.

Am besagten Neujahrstag bekamen also beispielhaft „Kühlhausbesitzer“ für die Abnahme von einer MWh Strom noch 76 EUR – also 7,6 Cent/kWh – Zuzahlung. Schade für die Besitzer, welche es vorher nicht wussten und ihr Kühlhaus vorschriftsmäßig bereits kalt hatten. Jedenfalls: Diese Gelegenheit zu einer Zeit, da man sowieso nichts Besseres zu tun hatte, werden sicher alle klugen Privatkunden in Deutschland spontan genutzt haben.

Die es konnten, wurden in den wenigen Stunden mit 28,4 Millionen EUR (zusätzlich zum Strom) belohnt [3]. Etwas konsequenter und mit dem doppelten Effekt soll Österreich dieses Geschäftsmodell nutzen: Es nimmt gegen Zuzahlung deutschen Überschussstrom ab und leert seine Pumpspeicher-Kraftwerke, wenn Deutschland wieder dabei ist, im EEG-Strommangel zu versinken.
Um keinen Neid aufkommen zu lassen, möge jeder seinen Nachbarn befragen, wie (viel) er am Neujahrsmorgen von diesem grandiosen Vorteil des EEG partizipiert konnte. Konnte er nicht, war wenigstens auch er an den Kosten beteiligt.
Letztes Jahr waren dies (zusätzlich zu den EEG-Zwangs-Einspeisekosten): [3]
-Ca. 1 Milliarde EUR für Redespatchmaßnahmen und
-ca. 0,9 Milliarden EUR für Abregelungkosten (Zwangsvergütung an „Energieernter“ für nicht eingespeisten EEG-Strom)
Und diese „Erfolge“ werden immer größer werden.
Epoch Times 1. January 2018: Stromnetz unter Druck – Tennet meldet Rekordkosten für Noteingriffe (dpa)
Fast eine Milliarde Euro musste der Netzbetreiber Tennet 2017 für sogenannte Noteingriffe ins Netz zahlen. Ursache ist der Ausbau der erneuerbaren Energie … … Der Präsident der Bundesnetzagentur, Jochen Homann, sieht Milliardenkosten auf die Verbraucher zukommen.

Die GRÜNEN haben wenigstens „erkannt“, dass negative Börsenpreise irgendwie doch „etwas Schlechtes“ sind. Wie bei dieser Partei üblich, treibt man den Teufel dann bedenkenlos mit dem Belzebub aus und Kosten spielen bei dieser Partei – wo Wünsche als Tatsachen „verkauft“ werden – sowieso keine Rolle:
Bündnis 90 Die Grünen: [14] … Es kann nicht sein, dass an jedem Feiertag, wenn der Wind auffrischt und die Sonne aufgeht negative Preise drohen. Dieser Irrsinn muss aufhören …
… Flexibilität ist also das neue Zauberwort der Energiewende, doch sie zu erreichen ist keine Hexerei. Der erste Schritt ist, dass die alten, unflexiblen Kraftwerke vom Netz gehen. Die Atommeiler werden bis 2022 abgeschaltet. Doch sehr schnell müssen jetzt auch die alten Kohlekraftwerke raus aus der Produktion …Die Dinosaurier aus der alten Energiewelt müssen wir dann durch Erneuerbare sowie flexible und umweltfreundliche Kraftwerke oder Speicher ersetzen. So sieht die Stromwelt der Zukunft aus.

Den (durch den bedingungslosen EEG-Einspeisevorrang) erzeugten Stromüberfluss wegwerfen, ist immer noch die billigste Rettung

Man erinnere sich:
-Der negative Strompreis während dieser „erfolgreichen, wegweisenden Ökostunden“ betrug 7,6 Cent/KWh,
-die mittlere EEG-Einspeisevergütung beträgt derzeit ca. 15,78 Cent/kWh [15].
Die Differenz von 23.5 Cent/kWh! bezahlt fast alleine der private Stromkunde.
-Wirklich wert ist der Strom aber lediglich die typischen 3 … 4 Cent/kWh (Bild 4 ab ca. 18h).
Alleine diese Gegenüberstellung zeigt den reinen Wahnsinn, welchen dieses Subventionssystem generiert hat und wie man es nur noch aus den schlimmsten Zeiten der EU-Agrarsubventionierungen kennt, als Butter in Kühlschiffen auf dem Meer „zwischengelagert“ wurde und in Griechenland hochsubventionierte – aber nicht absetzbare – Ernten vom Baum direkt auf die Müllkippe kamen.
Im deutschen EEG-System hat man dieses Verfahren zur neuen Blüte weiter-entwickelt, ein Ende ist nicht abzusehen.

GRÜNE: Deutschland kann 100 Prozent Ökostrom

Bei manchen Politker*innen ahnt man, dass ihre Aussagen (hier zur Energie) auf reiner Dummheit beruhen. Frau Hendricks [4] und Cem Özdemir 16] sind dafür eklatante Beispiele.
Wenn aber eine ganze Partei Fakten verdreht und die Bürger damit bewusst in die Irre führen will, sollte man es eigentlich nicht mehr tolerieren. Der Autor sieht einen solchen Vorgang mit der Meldung der GRÜNEN: [14] Deutschland kann 100 Prozent Ökostrom.
In den frühen Morgenstunden des Neujahrstages 2018 vollzog sich, von der Öffentlichkeit fast unbemerkt, etwas für viele Überraschendes. Wind, Wasser und Biomasse lieferten ausreichend Strom, um erstmals den gesamten Bedarf in Deutschland abzudecken. In diesem Moment hätte die Stromversorgung also erstmalig klimaneutral sein können. War sie aber in der Realität nicht. Denn allen Ökostroms zum Trotz liefen auch die Atom- und Kohlekraftwerke weiter – und erzeugten überflüssigen Strom, der in die Nachbarländer exportiert werden musste.
Wir haben in Deutschland bei der Energiewende viel erreicht ..
Dank dieses Engagements kann Deutschland jetzt die Stromversorgung mit 100 Prozent Ökostrom gewährleisten.
Aber jetzt müssen dringend die nächsten Schritte folgen. Es kann nicht sein, dass an jedem Feiertag, wenn der Wind auffrischt und die Sonne aufgeht negative Preise drohen. Dieser Irrsinn muss aufhören, und das Rezept ist längst bekannt: Die Flexibilität in der Stromversorgung erhöhen. So kann auch in einer Welt stark schwankender Wind- und Solarstromerzeugung die Versorgung jederzeit kostengünstig, sicher und klimaverträglich gewährleistet werden. …Flexibilität ist also das neue Zauberwort der Energiewende, doch sie zu erreichen ist keine Hexerei. Der erste Schritt ist, dass die alten, unflexiblen Kraftwerke vom Netz gehen. Die Atommeiler werden bis 2022 abgeschaltet. Doch sehr schnell müssen jetzt auch die alten Kohlekraftwerke raus aus der Produktion. Das schützt nicht nur das Klima, sondern bringt auch den Strommarkt wieder in Ordnung. Die Dinosaurier aus der alten Energiewelt müssen wir dann durch Erneuerbare sowie flexible und umweltfreundliche Kraftwerke oder Speicher ersetzen. So sieht die Stromwelt der Zukunft aus.

Ist es nicht eine Unverschämtheit (das dort stehen sollende Wort wurde wegen der Maas-Netzwerkregeln nicht eingesetzt):
Da liefert GREEN-Strom in ganz wenigen – nicht vorhersehbaren – Stunden im Jahr ungefähr der Hälfte des typisch benötigten Strombedarfes,
und daraus erdichtet eine Partei: Deutschland könne jetzt die Stromversorgung mit 100 Prozent Ökostrom gewährleisten.
Wer zu einem so wichtigen Thema, wie der Energieversorgung Deutschlands so bewusst und eklatant falsch informiert, hat doch jegliche Glaubwürdigkeit verspielt. Anstelle es dieser Partei jedoch „um die Ohren zu hauen“, findet sich nirgendwo ein Protest oder eine Rüge (zumindest hat der Autor nichts gefunden).
Der Wahlslogan dieser Partei sollte vielleicht umgetextet werden:

Bild 5 Screenshot vom Wahlflyer 2017 der GRÜNEN. Vom Autor ergänzt

Die GRÜNEN haben seit Längerem zwar kein Regierungsmandat, doch ihre „Maulwürfe“ überall

Der ehemalige Umweltminister Tritti(h)n war ein genialer Stratege. Während seiner Minister-Amtszeit sorgte er konsequent dafür, alle wichtigen Positionen mit Gesinnungsgenossen zu besetzen. Und die SPD machte mit der Besetzung solcher Schlüsselpositionen durch GRÜNE Aktivisten einfach weiter.
Sarkastisch formuliert: Eine Frau Hendricks und eine Maria Krautsberger (Leitung Umweltbundesamt) lassen sich wohl auch in der SPD nur schwer doppeln. Weitere Personen, welche so konsequent ihre Hysterie über den Verstand siegen lassen [8] [9], holt man sich deshalb besser gleich bei der dafür prädestinierten Partei. (Mit) Ein Grund, warum Parteien wechseln können, die Gesinnung in den Ministerien aber nicht.

Achgut.com 08.01.2018: [7] Mein Name ist Baake mit B wie Blackout
Auf Herrn Baake ist Verlass … Wenn man sich nach Fukushima beim angekündigten Totschlag der deutschen Energiewirtschaft auf einen Mann verlassen konnte, dann war das der Herr Baake, der folgerichtig auch ohne jede grüne Regierungsbeteiligung als grüngraue Eminenz an beziehungsweise nahe der Macht bleiben durfte, zuletzt als Staatssekretär im Bundeswirtschaftsministerium, zuständig für Energiefragen.
Dort konnte er dem Bundesrechnungshof vor einem Jahr nicht so genau sagen, wo all das Energiewendegeld seines Hauses hingeflossen ist
u
nd was genau es bewirkt, weswegen der BRH ziemlich not amused war. Baakes damaliger Chef, Sigmar Gabriel, der sinngemäß mal die Energiewende als Biotop für Bekloppte bezeichnet hat, auch wenn er dieses Diktum geschickt unseren Nachbarländern vom Maul abgeschaut zu haben vorgab, ist längst weg.
Wer blieb, ist Baake, und wir können davon ausgehen, dass er auch die nächsten Regierungswechsel (oder -restaurationen) unbeschadet überstehen wird. Denn er wird ja gebraucht. Für die Energiewende. Und nun gehört ihm das ganze Zappelstromer Ländchen von Flensburg bis Passau, und, ja, wenn der Staatssekretär erzählt …
Weiterlesen bitte im Original.

Wenn Deutschland seine Visionen hat, schickt man es nicht zum Arzt, sondern die „Intelligenz“ visioniert mit

Wenn Deutschland Visionen hat, soll daran auch immer die Welt teilhaben, besser: Genesen. Ein Grundsatz, der unerbittlich und wohl von jeder Generation beherzigt wird. Ausführende Personen in hohen, politischen Positionen finden sich immer und aus irgendwelchen Gründen gelingt es welchen an der politischen Spitze auch immer wieder, jegliche Opposition dagegen kaltzustellen. Diesmal sogar, sie zustimmend gleich ganz „verschwinden“ zu lassen. Ist das gelungen, macht auch die „gesellschaftliche Intelligenz“ begeistert mit:
manager magazin 07.11.2017: … Mehr als 50 Unternehmen fordern raschen Kohleausstieg
Und wenn alle mitmachen, steht auch die Kirche nie im Abseits: [10] „Ökologische Schuld“ der Industriestaaten
… Als Lösung nennt der Papst explizit den schnellen Ausbau erneuerbarer Energien und den Ausstieg aus fossilen Kraftstoffen. Eine Absage erteilt er dem Handel mit Emissionszertifikaten, der bloß von nötigen radikaleren Lösungen ablenke …
Das muss er (der Papst). Denn nach der Kirchenlehre entscheidet der Papst nicht einfach so, sondern wartet auf „Zeichen der Zeit“. Hat er ein solches erkannt, „weiß“ er Gottes Willen dahinter (auch wenn es wie in diesem Fall der Enzyklika, im Wesentlichen der von Herrn Schellnhuber ist).
EIKE 18.04.2016: [12] Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur
… Warum ist der Klimawandel ein Thema der Kirche geworden
… Zur Begründung als christliche Offenbarung muss ein gesellschaftliches Thema als „ein Zeichen der Zeit“ festgestellt werden. Dies erfolgt mittels dem „discretio spirituum“ (Unterscheidung der Geister) einer normativen Überprüfung von göttlicher Begnadung. Die Bischöfe sind sich sicher, dass der Klimawandel dem discretio spirituum genügt und damit ein Zeichen der Zeit sei, welches den Glauben an Gott als Schöpfer und Erlöser nicht unberührt lässt …
Dieses „Verfahren“ erklärt schlüssig, warum die Kirche immer erst hinterher „erkennt“, wenn sie in einer Beurteilung falsch lag, Gott aber nie daran schuld ist. Das „Fußpersonal“ darf und kann sich beim „ discretio spirituum“ ja irren.

Warum diese Ausführung? Weil Deutschland dabei ist, die EU in dieses EEG-Desaster zu zwingen.

Er hoffte, und es kam schlimmer: Die EU soll Deutschlands (nicht funktionierendes) EEG-System übernehmen

(Anmerkung: Dieser Artikel erschien auch auf EIKE, trotzdem anbei ein Auszug daraus)
TICHYS EINBLICK 6. Januar 2018: [5] Augen zu und durch EU – Energierat hat beschlossen: Planwirtschaft
Immer wenn Akteure aus dem Berliner Politbetrieb wie Rainer Baake lauthals etwas von »Erfolg« verkünden, ist besonders hohe Vorsicht angebracht. »Das vom Energierat beschlossene Paket »Saubere Energie für alle Europäer« ist ein Meilenstein. Es gestaltet fast den gesamten europäischen Energierahmen neu.«, verkündete Baake Anfang dieser Woche.
Baake ist einer der Hauptideologen der Energiewende, war früher Staatssekretär in Hessen, als Joschka Fischer Umweltminister in Wiesbaden war. Beide wollten das Kernkraftwerk Biblis sofort dichtmachen, der damalige Bundesumweltminister Töpfer verhinderte dies. Für alle Außenstehenden unverständlich machte der damalige Wirtschaftsminister Gabriel den Grünen zum Staatssekretär. Seine Nachfolgerin Zypris hat nichts daran geändert. Baake war auch einmal Bundesgeschäftsführer der äußerst dubiosen Deutschen Umwelthilfe und will das Energiesystem umbauen. Bisher allerdings trägt er die wesentliche Mitschuld an dem Energiedesaster, an extrem hohen Strompreisen und dem Ruin der alten Energieerzeuger. Der gelernte Volkswirt ist mit verantwortlich für die Vernichtung von Werten in Milliardenhöhe.
Rainer Baake vertritt Deutschland bei den Brüsseler Energieverhandlungen. Jetzt will er nichts Geringeres als den europäischen Energiemarkt mal eben neu ordnen. Was in Deutschland schon nicht funktioniert, soll nun Europa aufgezwängt werden. »Saubere Energie für alle Europäer« soll ein Vorzeigeprojekt der EU sein. Sie basteln an einer »Energieunion«, sind sich aber darüber im Klaren, wie schwierig es werden würde, ein entsprechendes Gesetzpaket auf nationaler Ebene umzusetzen. Die EU-Kommission möchte 30 Prozent Energieeinsparung bis zum Jahr 2030 erreichen. Beachtlich hochfliegende Pläne, die Bürger Europas können sich lediglich glücklich schätzen, dass die meisten Gesetzesvorschläge als zahnloser Bettvorleger enden.
Bisher zeigen die meisten europäischen Staaten – das abschreckende Beispiel Deutschlands vor Augen – wenig Neigung auf einen gemeinsamen Nenner zu kommen. Vor einem Jahr hat die EU ein »Winterpaket« (nennt sie tatsächlich so) vorgestellt, ein Paket an Gesetzesvorschlägen für eben »Saubere Energie für alle Europäer«.

Mit der Parole: »keine Diskriminierung einer Stromart«

TICHYS EINBLICK: [5] Im Wesentlichen handelt es sich um eine Verbreitung der deutschen Energievorstellungen über Europa. Unter anderem mit den Parolen »keine Diskriminierung einer Stromart«, alle Verbraucher sollen das Recht haben, Strom zu erzeugen und der Leerformel »Mehr Energieeffizienz«.
In dieser Woche verkündet Baake lauthals, dass die »28 EU-Energieminister Weichen auf europäische Energiewende gestellt hätten«
. …
Im Klartext: Den europäischen Ländern sollen Kohlekraftwerke verboten werden, nicht direkt, sondern über den Umweg, dass sie »an diesen Kapazitätsmärkten … nicht mehr teilnehmen (dürfen).« Klingt nicht direkt nach drastischem Verbot, ist aber im Effekt das Gleiche. Der Kohleausstieg für alle EU-Länder soll also durch die Hintertür eingeführt werden. Die Kommission hatte bereits vorgeschlagen, die Kohleverstromung in Europa zu reduzieren ….
… Die Gefahr größerer Blackouts, vor der die Fachleute schon seit langem warnen, wird damit nicht nur Deutschland treffen, sondern auch andere EU-Länder. Auch eine Art Solidarität: Warum soll nur Deutschland allein den Untergang seiner industriellen Basis zu tragen haben?

Weiterlesen bitte im Original: Energierat hat beschlossen: Planwirtschaft

Hauptsache, Deutschland wird geschwächt

Drei Mal darf man raten, wer es einmal bezahlen wird, wenn in der gesamten EU ein EEG-ähnliches „Zappelstromsystem“ errichtet ist und flautenzyklisch in sich zusammen fällt. Länder, welche ihre bewährten, konventionellen Kraftwerke vorsichtshalber jedoch nicht zurückbauen (im Gegensatz zu Deutschland, das alles Bewährte begeistert auf den Schrott wirft), werden dann Sieger. Vielleicht ein Grund, warum andere Länder daran teilnehmen.

Nein, weil zur CO2-Verhinderung wirklich nichts auf der Welt zu aufwendig und zu teuer sein darf

Mit dieser Aussage wird Alles und Jedes gerechtfertigt. In (vom Autor geschätzt) 99 % aller Informationen und Maßnahmeninfos zum EEG wird unisono erklärt, dass sie wegen der notwendigen (eigentlich: vorgegebenen) CO2-Minderung erfolgen.
WELT N24, 13.12.2017: Wie Macron zeigen will, dass Klimaschutz cool ist
Macron … Inzwischen inszeniert er sich als grüner Weltretter und Ökologe der ersten Stunde und preist erneuerbare Energien als Wachstumsfaktor an … Macron stellte darauf ein Video ins Netz. „Make our planet great again“ lautete dessen zentrale Botschaft
… weil nach dem angekündigten Ausstieg der USA vor allem eins fehlt: das Geld, um die Energiewende zu finanzieren. 100 Milliarden Dollar pro Jahr sind den Entwicklungsländern ab 2020 in Paris versprochen worden. Auf insgesamt 90 Billionen Dollar schätzt (Weltbankchefin) Georgiewa die Summe, die im nächsten Jahrzehnt aufgebracht werden muss.

Diese Prämisse wird nie in Frage gestellt. So lange das so ist, wird passieren, was viele religiösen Eiferer im Lauf der Geschichte schon gemacht haben: Die Bevölkerung zur Durchsetzung ihrer (klima-)religiösen Ziele (bis) zum eigenen Untergang zu zwingen.

Quellen

[1] Süddeutsche Zeitung 4. Januar 2018, online: Ökostrom An Neujahr versorgte sich Deutschland erstmals nur mit Ökostrom

[2] Süddeutsche Zeitung, Printausgabe Nr. 4, 2018: Saubere Premiere

[3] VERNUNFTKRAFT Landesverband Hessen e.V., R. Schuster: EEG-Dateninfo „Weihnachten Neujahr“

[4] EIKE 07. Januar 2018: Ministerin Hendricks: Wir haben im Gegenteil sogar gigantische Stromüberschüsse

[5] TICHYS EINBLICK 6. Januar 2018: Augen zu und durch EU – Energierat hat beschlossen: Planwirtschaft

[6] EIKE 27.12.2017: Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde ohne Windstromerzeugung

[7] Achgut.com 08.01.2018: Mein Name ist Baake mit B wie Blackout

[8] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“

[9] WELT N24 05.11.2017: Krautzberger: Autofahren muss im Kampf gegen Klimawandel reduziert werden

[10] Neue Energie 18.06.15: Umwelt-Enzyklika Papst bezieht deutlich Stellung zum Klimawandel

[11] EIKE 22.07.2016: Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?

[12] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

[13] EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt

[14] Bündnis 90 Die Grünen, 05.01.2018: Deutschland kann 100 Prozent Ökostrom

[15] BMWI: EEG in Zahlen: Vergütungen, Differenzkosten und EEG-Umlage 2000 bis 2018 (Stand: 16. Oktober 2017)

[16] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie




Erwärmung in Deutsch­land und in den USA- nur bei den Mess­stationen in den Wärme­inseln

Seit 1850 wurde es wärmer, darüber besteht Konsens. Das Archiv des Deutschen Wetterdienstes (DWD) geht bis 1881 zurück, bis dahin seien die Werte über Wetterstation quer durch Deutschland verteilt, zuverlässig erhoben, begründet der DWD. Und die in einem Diagramm aneinandergereihten Jahresmittel ergeben auch die behauptete Erwärmung von gut 1,5 Grad.

Grafik 1: seit 1881 wurde es in Deutschland wärmer, das zeigt die lineare Trendlinie zu den Jahresmitteln des Deutschen Wetterdienstes.

Seit 30 Jahren hat sich in den Medien und der Politik, angetrieben durch das IPPC, die vorherrschende Meinung gebildet, diese Erwärmung sei auf die Industrialisierung zurückzuführen, die nach 1850 verstärkt begonnen hat. Und mit der Industrialisierung verbunden wäre die vermehrte anthropogene Kohlendioxidfreisetzung. Nur deshalb sei der C02– Gehalt in der Atmosphäre von damals 0,028% auf jetzt über 0,04% gestiegen. Andere Möglichkeiten dieses Konzentrationsanstieges werden erst gar nicht untersucht. Die Treibhaustheorie besagt, dass ausschließlich die zunehmende und menschenversurachte C02 Konzentration diese Erwärmung von etwa 1,5 K seit gut 150 Jahren bewirkt habe. Da diese CO2-Treibhaustheorie bis zum heutigen Tag keinem wissenschaftlich durchgeführten Versuchsbeweis standhält, handelt es sich streng genommen um einen Glauben, aus dem inzwischen eine Erwärmungsreligion entstanden ist, die lautet: Mehr CO2 bringt mehr Hitze.

Frage: Sind die Temperaturen nun tatsächlich auf der gesamten Fläche Deutschlands gestiegen, so wie es die Grafik 1 zeigt?

Die richtige Antwort wäre: Die Trendlinien steigen, weil die Temperaturen bei den Stationen zugenommen haben. Und die stehen bekanntlich an viel wärmeren Plätzen als noch 1881. Jedoch die Schlussfolgerung, wir hätten in der ganzen Fläche Deutschlands eine Erwärmung von gut 1,5 Grad, ist naturwissenschaftlich nicht gerechtfertigt, und somit falsch. Das soll im Folgenden untersucht werden:
Jeder Student im Anfangsstudium eines naturwissenschaftlichen Faches lernt, dass er bei Langzeitversuchen seine Versuchsbedingungen nicht ändern darf, sonst sind die Ergebnisse nicht vergleichbar. Und genau das ist bei den Messstationen Deutschlands der Fall. Vor über 150 Jahren standen diese an ganz anderen, viel kälteren Orten, oder die Orte wurden selbst wärmer durch menschliche Eingriffe in der Umgebung einer Wetterstation. All dies haben wir bereits ausführlich in vielen Artikeln beschrieben. siehe Kowatsch/Kämpfe/Leistenschneider unter „Wärmeinseleffekte bei den Messstationen“.http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

oder http://www.eike-klima-energie.eu/news-cache/die-zunahme-der-waermeinseln-brachte-den-grossteil-des-temperaturanstieges-der-letzten-125-jahre/

Grafik 2: Europa bei Nacht vom Weltall aus. Die Karte vermittelt einen Eindruck über die Verteilung der Wärmeinseln in Mitteleuropa. Wie hätte so eine Aufnahme vor 150 Jahren ausgesehen? Die Lichtflecke dokumentieren die entstandenen Wärmeinseln in diesem Zeitraum.

Im Grunde wären die Temperaturwerte nur direkt vergleichbar, wenn Deutschland und die Welt genauso geblieben wären, wie sie damals 1881 war, und wenn sich nichts, aber auch gar nichts seitdem verändert hätte. Und natürlich die Wetterstationen noch an denselben kalten Plätzen wie damals stehen würden. Nur dann hätten wir identische Vergleichsbedingungen bei den Messstationen. Dass dies nicht so ist, dafür ist der DWD nicht verantwortlich. Deshalb ist die steigende Trendlinie der Grafik 1 nur mit Einschränkungen aussagekräftig.

Richtig wäre lediglich die Aussage: Es wurde bei den Messstationen auch aufgrund der veränderten Mess- und Umgebungsbedingungen wärmer. Die Trendlinie der Grafik 1 spiegelt aber auch die veränderten Messmethoden sowie die geänderten Besonnungsverhältnisse und die Häufigkeitszunahme südlicher Großwetterlagen wieder.

Wie vergleicht man richtig?

Für einen aussagekräftigen Temperaturvergleich mit früher bräuchte man einen Temperatur- Korrekturfaktor, der die wärmende bebauende Veränderung bei den Messstationen berücksichtigt. Diesen Faktor nennen wir Wärmeinseleffekt. (WI- Effekt). Kowatsch/Kämpfe/ Leistenschneider haben diesen Korrekturfaktor bereits 2010 ermittelt und eine WI-Bereinigung (Wärme-Inselbereinigung) in die DWD-Jahres-Diagramme eingefügt.

Grafik 3: Beim grünen Temperaturverlauf wurden die WI- Effekte der Stationen herausgerechnet, damit die Jahreswerte vergleichbar wurden. Schön erkennbar ist das Kälteloch zu Beginn der 2. Hälfte des letzten Jahrhunderts, welches man beim DWD und international gerne als Vergleichsraum zu heute nimmt und als „Normal“ bezeichnet.

Die hier dargestellte WI- Bereinigung (statistische Berechnung: R. LEISTENSCHNEIDER) entspricht sicher nicht völlig der (leider schwer zu fassenden) Realität, weil für große Teile Deutschlands (Wald, größere Gewässer, leider auch weite Teile des Offenlandes fernab der Siedlungen) keine seriösen, langjährigen Messreihen vorliegen. Der DWD unterzieht seine Messungen (rote Linien in der Grafik) keiner WI-Korrektur, was er allerdings auch zugibt.

Die WI-bereinigte (grüne) Deutschlandkurve

Nehmen wir nun an, dass Deutschland und die Welt sich seit 150 Jahren überhaupt nicht verändert hätten, und die Messstationen auch noch an denselben kalten Orten wie früher ständen, dann würde uns der Deutsche Wetterdienst diese Grafik seit 1881 vorlegen müssen:

Grafik 4: Die wärmeinselbereinigten Deutschlandtemperaturen aus Grafik 2 – hier mit linearer Trendlinie – zeigen einen nicht signifikanten leichten Temperatur- Anstieg seit 1881.

Die WI-Datenbereinigung nach R. Leistenschneider geht von 1,3 K (plus/-0,3K) seit 1881 aus, wobei ab 1980 bis heute die größte WI-Spreizung erfolgte. Man sieht deutlich, dass der größte Teil der Erwärmung in Grafik 1 auf den schleichend steigenden Wärmeinseleffekt vor allem der letzten vier Jahrzehnte zurückzuführen ist und nicht auf eine C02-Erwärmung. Das wärmste Jahr wäre deswegen 1934 gewesen und nicht 2014. Immerhin war das abgelaufene Jahr 2017 auch WI-bereinigt wärmer als der Gesamtschnitt und deutlich wärmer als 1881 und den kälteren Folgejahren.

Erkenntnis: Wäre Deutschland genauso geblieben wie 1881, mit derselben Einwohnerzahl, demselben Energieverbrauch, Lebensstandard und der noch viel geringeren Urbanisierung der Fläche und würden alle Messstationen noch an denselben kälteren Plätzen stehen wie damals, (einsame Klöster, Forsthäuser am Waldrand, usw.) dann würde die Temperaturtrendlinie nur einen minimalen Temperaturanstieg anzeigen: Die Erwärmung Deutschlands ist ganz wesentlich durch den stetig wachsenden Wärmeinseleffekt bei den Messstationen hervorgerufen worden und nicht durch die behauptete CO2-Treibhauserwärmung.

Fragwürdiger Aufzeichnungs-Beginn 1881.

Nun gibt es in Deutschland einzelne Messstationen, die noch länger zurückreichen. Z.B. Berlin-Tempelhof. Zuverlässige Messreihen liegen in Tempelhof seit 1756 vor. Allerdings hatte der kleine Gutshof vor den damaligen Toren Berlins wohl nur um die 200 Einwohner und der Ort ist mit dem heutigen Stadtteil nicht vergleichbar, alles hat sich seitdem verändert. Und die Messstation hat natürlich einen wärmeren Platz bekommen. Trotzdem ist die Aufzeichnungskurve interessant.

Grafik 5: Zu Beginn der Aufzeichnungen, also zu Beginn des Siebenjährigen Krieges unter dem Preußenkönig Friedrich II lagen die Temperaturen in Tempelhof ähnlich hoch wie heute. Die Temperaturverläufe haben sich über die 260 Jahre ständig verändert. Und, ab 1930 sind die Temperaturen Tempelhofs insbesondere aufgrund der wärmenden Stadtentwicklung Berlins auch konstant gestiegen.

Aufzeichnungsbeginn 1881: Die heutigen DWD-Messreihen beginnen also in einer Kaltphase, damals 8,3° C in Tempelhof, noch krasser tritt der BaWü-Umweltminister Untersteller auf, er lässt seine Vergleiche immer 1931 beginnen, um die Leute in diesem inzwischen grünem Bundesland mit einer fragwürdigen Erwärmung aufgrund eines kalten Startjahres zu ängstigen.

Ergebnis 1: Aufgrund von kalten Startjahren bei den Temperaturbetrachtungen und aufgrund der ständig zunehmenden Wärmeinseleffekte bei den Messstationen ergeben sich steigende Trendlinien vom jeweiligen Startjahr aus bis heute.

Ergebnis 2: Richtig wäre die Behauptung, bei den Standorten der heutigen Messstationen ist es wärmer als bei den Standorten der Messstationen im Jahre 1881.

Messstation ohne wärmende Umgebungsveränderung:

Glücklicherweise gibt es eine Temperatur-Messstation, bei der sich in diesem langen Zeitraum nur wenig in der weiten Umgebung verändert hat, leider nicht bei uns, sondern in den USA. In der nächsten Grafik sind die Temperaturdaten der sehr ländlichen Dale-Enterprise-Virginia Wetter-Station eingezeichnet, deren Umgebung in den letzten 140 Jahren nahezu gleich blieb, sieht man vom Bau breitspuriger amerikanischer Straßen ab. Dale Enterprise liegt etwa 160 Km westsüdwestlich von Washington und westlich der Kleinstadt Harrisonburg an der breiten US- Straße 33, die es natürlich 1881 noch nicht gab. (geringer WI-effekt). Auch die Tagesmittelwerte wurden seit drei Generationen in der Familie immer nach demselben Muster bestimmt und so die Jahreswerte ermittelt. Googeln: Dale Enterprise Virginia Weather-Station. Leider breitet sich der einst kleine Ort Harrisonburg jährlich immer weiter in die Ebene hinein aus und die Außenbezirke reichen bereits auf eine Meile an die Farm heran.

Auch wenn in Virginia ein gänzlich anderes Klima herrscht als bei uns in Mitteleuropa, wollen wir den Temperaturverlauf seit 1881 gerne zeigen, denn eine globale CO2-Erwärmung müsste natürlich auch an einem fast WI-freien Standort in den USA und überall auf der Welt zu einer Erwärmung geführt haben.

Die Überraschung ist groß. Eine gleichmäßige durch CO2 hervorgerufene Erwärmung gibt es nicht. CO2 hat nichts bewirkt. Die Trendlinie dieser Station in den USA bestätigt eher unsere grüne WI-bereinigte Deutschland-Trendlinie der Grafik 4.

Grafik 6: Die Temperaturen der fast WI-freien Dale-Enterprise Station braucht man nicht WI- bereinigen, man kann die Temperaturen aufgrund der geringen Standortveränderungen direkt vergleichen. Die Trendlinie ist grob ähnlich der WI-bereinigten DWD-Trendlinie (Grafik 4), vielleicht bedingt durch kältere Großwetterlagen wie auch im aktuellen Winter 2017/18, aber ganz leicht fallend. Ein Temperaturanstieg seit 1881 ist nicht erkennbar.

Kritiker könnten nun einwenden, es handele sich bei Dale Enterprise um einen Einzelfall. Leider ist, besonders in langfristiger Hinsicht, die Datenlage in Nordamerika nicht so gut wie in Deutschland. Doch kurzfristige Vergleiche deuten auf merkliche WI- Effekte auch andernorts im Nordosten der USA hin, wie das folgende Beispiel der städtischen Station Scranton (41°N, 44°W) mit dem ländlichen Harvard Forest (42,5°N, 72°W) nahelegt (leider liegen die Harvard- Forest- Werte erst seit 2002 komplett vor):

Grafik 7: Das verstädterte Scranton erwärmte sich seit 2002 im Jahresmittel deutlich stärker als das ländliche Harvard/Forest. Wegen des geringen Zeitraums sind die Trends und deren Unterschiede nicht signifikant; dennoch deuten sie auf sich aktuell verstärkende WI- Effekte an der US- Ostküste hin.

Starke Wärmeinselbildung in den letzten 40 Jahren.

Vor allem in den letzten vier Jahrzehnten hat sich die Bevölkerung vermehrt und die Städte und Ansiedlungen wurden in die freie Landschaft hinein wärmend urbanisiert. Auch die freie Landschaft selbst wurde durch diverse Eingriffe wie den Straßenbau und durch zusätzliche Stromleitungen wärmer. Beide Baumaßnahmen sind zusätzliche Wärmebänder in der freien Landschaft

Spannend war für uns die Frage, ob es, ähnlich wie in Deutschland (Frankfurt/Main- Flughafen) oder Berlin auch im Nordosten der USA vielleicht Wetterstationen gibt, die sich durch eine besonders starke Erwärmung in den letzten 3 bis 4 Jahrzehnten auszeichnen. Leider reichen die Werte der meisten, offiziellen CDC- Klimastationen der USA nur bis 1986 zurück; oder davor weisen sie zu große Lücken auf. Zufällig stießen wir auf einen kritischen Beitrag über die Station am Flughafen der Bundeshauptstadt Washington, welche fast auf gleicher Breite und nur etwa einen Längengrad östlicher als Dale Enterprise liegt, wenngleich in viel geringerer Höhe über dem Meeresspiegel. Sie finden diesen Beitrag (englisch) unter http://thevane.gawker.com/exploring-the-urban-heat-island-washingtons-infamous-1539669759 . Daraufhin sahen wir uns den Trendverlauf beider Stationen für die letzten 37 Jahre an (die Daten für Washington, Stations- ID 72405, sind bis 1981 nahezu lückenlos) und erlebten eine große Überraschung:

Grafik 8: Während es in Washington seit 1981 deutlich wärmer wurde, fielen die Temperaturen an der ländlichen Station Dale Enterprise, 160 Km westsüdwestlich von Washington in den Appalachen unweit der Stadt Harrisonburg gelegen, deutlich. Ohne WI- Effekte lässt sich dieses gegensätzliche Verhalten der nicht sehr weit voneinander entfernten Stationen kaum erklären, auch wenn vielleicht geänderte Wetterlagenhäufigkeiten, Lee- Effekte der Appalachen und geänderte Besonnungsverhältnisse ebenfalls eine Rolle spielen könnten.

Weil die Daten monatsweise vorliegen, verglichen wir den monatsweisen Gang der Differenzen beider Stationen seit 1981. Auf eine Höhenbereinigung verzichteten wir (Dale Enterprise liegt etwa 400 Meter höher als Washington), so dass die sehr großen Temperaturdifferenzen größtenteils der Höhendifferenz anzulasten sind. Der WI- Effekt zeigt sich jedoch deutlich an den viel größeren Differenzen während der Sommermonate, in welchen sich die dicht bebaute Stadt meist besonders stark aufheizt:

Grafik 9: Die Differenzen der Monatsmittelwerte beider Stationen sind im Sommer viel größer, als im Spätherbst und Winter. Sie wurden nicht höhenbereinigt, weil der Unterschied beider Stationen mit etwa 400 Metern sehr groß ist. Trotzdem weisen sie auf WI- Effekte hin. Das völlig andere Klima dieser Gegend, welche etwa auf der Breite Südspaniens liegt, erklärt vermutlich, warum sich die Differenzen etwas anders verhalten, als bei unseren Untersuchungen zum Berliner Umland (dort waren besonders zwischen April und Juni, teils aber auch im Januar, die höchsten Stadt- Umlanddifferenzen zu beobachten).

Zu dieser spannenden Thematik wird es weitere Untersuchungen mit mehr Stationsdaten geben müssen.

Ergebnis 3: Eine CO2-Erwärmung aufgrund der auch in Virginia seit 1880 gestiegenen CO2-Konzentration von 280 auf 400 ppm ist aus den Daten der fast WI-freien Station Dale Enterprise Virginia nicht erkennbar, und schon gar keine Erwärmungskatastrophe. Daraus kann man nur den Schluss ziehen, dass der behauptete CO2-Erwärmungseffekt nicht existiert oder fast keine Wirkung hat.

Ergebnis 4: Teure Maßnahmen zur CO2-Einsparung haben keinerlei Wirkung auf die Temperaturen.

Kürzere Zeiträume: Zwar schreitet der wärmende Eingriff des Menschen in die Landschaft weiter voran, täglich werden in Deutschland 0,7 km² freie Fläche in die Natur hinein urbanisiert und damit weiter erwärmt, innerhalb der bebauten Ansiedlungen gehen Grundstücke mit großen Gärten durch den Trend zur Häuservergrößerung verloren, was nicht durch die Statistik der täglichen 0,7 Quadratkilometer erfasst wird, und in der freien Fläche werden durch Windräder der kühlende Wind und damit die natürliche Abkühlung zusätzlich vermindert und über Strom letztlich erneut Wärme hergestellt. Jedoch sind diese durch Menschenhand erzeugten wärmenden Effekte innerhalb der letzten 20 Jahre relativ klein im Vergleich zum Gesamtzeitraum bis 1881 und bisweilen bei ländlichen Stationen wohl auch vernachlässigbar. Doch muss man sich im Klaren sein, direkt vergleichbar sind beim DWD immer nur die Folgejahre. In 365 Tagen machen sich die zunehmenden wärmeerzeugenden Zusatzeffekte im Gesamtschnitt Deutschlands mit 2000 Klimastationen noch nicht bemerkbar.

Anders verhält es sich bei Einzelstationen, hier können durch Stationsverlegung oder durch ein neues Gewerbegebiet oder Vergrößerungsbau eines Flughafens enorme Zusatzwärmemengen entstanden sein, schließlich kann sich der dunkle Asphaltbelag im Sommer bis auf 50 C aufheizen, und bei ungünstiger Stationslage wärmen dann auch noch die Abgase der Fahr- und Flugzeuge. Autobahnen und Straßen sind Wärmebänder in der Landschaft, genauso wie die im Zuge der bisher äußerst umweltschädlichen und teuren „Energiewende“ zusätzlich gebauten Hochtemperatur-Stromleitungen, die bei guten alternativen Bedingungen einen plötzlich entstehenden Überschussstrom in die Landschaft verheizen oder als Erdleitung die Böden aufwärmen werden.

Im Folgenden betrachten wir kürzere Zeiträume, nämlich die letzten 30 Jahre, weil 30 Jahre als kleinste Klimaeinheit definiert ist. Wir vergleichen die Wetterstation am Frankfurter Großflughafen (rot) mit der fast WI-freien ländlichen Station Amtsberg-Dittersdorf (blau), dessen Stationsumgebung in den letzten 30 Jahren relativ unverändert blieb. Dazu in brauner Farbe der DWD-Deutschlandwert.

Grafik 10a: Aufgrund des zunehmenden Flugverkehrs und des ständig weiteren Ausbaus des Frankfurter Flughafens zeigt die dortige Wetterstation an den Landebahnen im Strahle der 700° C heißen Flugzeug-Abgase auch die größte Erwärmung. In Amtsberg und in der Freifläche wurde es überhaupt nicht wärmer, dazwischen die braune DWD-Temperaturreihe als Schnitt aller deutschen Wetterstationen.

Und als vergleichende Ergänzung die Grafik 10b von Berlin/Tempelhof:

Grafik 10b: Merkliche Erwärmung an der WI-beeinflussten Station Berlin-Tempelhof.

Ergebnis: Frankfurt und Berlin/Tempelhof zeigen wie erwartet den größten Trendlinienanstieg, in der Umgebung beider Messstandorte wurde es eindeutig wärmer. ( gleiche Trendlinienanstiegsformel). Die fast WI-freie sehr ländliche Station Amtsberg zeigt seit 30 Jahren keine Erwärmung mehr, obwohl an allen drei Standorten, Frankfurt, Berlin und Amtsberg die CO2-Konzentrationen der Atmosphäre gleichmäßig auf jetzt über 0,04% angestiegen sind.

Wir fragen: Warum wirkt derselbe CO2-Anstieg in Amtsberg nicht erwärmend?

Antwort: Der CO2-Konzentrationsanstieg wirkt auch in Frankfurt und Berlin nicht erwärmend. Die Thermometer der Wetterstationen zeigen vielmehr die Zunahme des Flugverkehrs, den Ausbau des Flughafens und in Berlin die zunehmende wärmende Bebauung zur neuen Hauptstand an.

Die Leser mögen hier nochmals einen Blick auf die Grafik 7 richten. Bei der noch WI-ärmeren Virginiastation – noch WI-ärmer als Amtsberg – ist die Trendlinie sogar fallend in den letzten 30 Jahren.

Fazit: Unsere Behauptung war, die 140-jährige Erwärmung Deutschlands gibt es nur im Umfeld der DWD-Wetterstationen im Vergleich zu den einst kälteren Standorten der damaligen Wetterstationen. Die Stationen stehen heute dort, wo die Menschen wohnen und arbeiten, wo die einst freie Fläche immer weiter wärmend urbanisiert wird.

Zusammenfassung: Die Erwärmung der letzten 140 Jahre fand fast nur in den Wärmeinseln statt. In Deutschland sind inzwischen nahezu 15% der Gesamtfläche wärmend urbanisiert worden. Das heißt aber auch, dass es in 85% der restlichen freien Fläche fast keine Erwärmung gegeben hat.

Nicht die Konzentrationszunahme von CO2 hat die gemessene Erwärmung der letzten 140 Jahre bewirkt, sondern hauptsächlich die immer noch anhaltende Ausbreitung der Wärmeinseln in Deutschland und überall auf der Welt und die vielen wärmenden Standortveränderungen der Klimastationen. Die Sonne und die vielen anderen Wetterbedingungen sind für das stets wiederkehrende Auf und Ab in den Temperaturreihen verantwortlich.

WI-arme ländliche Klima-Stationen zeigen in Deutschland einen Temperaturstillstand seit 30 Jahren.

Es wird Zeit, dass endlich wieder Natur- und Umweltschutz in den Mittelpunkt des menschlichen Handelns gestellt werden und nicht das Geschäftsmodell Klimaschutz. Eine teure Einsparung von CO2 hat keinerlei Einfluss auf die Temperaturen. CO2 ist vielmehr ein lebensnotwendiges Gas, genauso wie Sauerstoff und Wasser. Für das Wachstum der Pflanzen braucht die Erde mehr CO2 und nicht weniger. Ohne CO2, vor allem aber ohne Wasserdampf und Wolken, wäre die Erde kahl wie der Mond.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimawissenschaftler

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Meeres­spiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt

Wie kommt man zu einem Anstieg des Meeresspiegel durch nichts?

Schauen wir mal, wie R. Steven Nerem von der CU Sea Level Research Group es fertig bringt, diesen Trick durchzuführen. In einem Report bei Nature.com heißt es:

Steve Nerem präsentierte eine bis jetzt unveröffentlichte Analyse auf einer Konferenz in New York City am 13. Juli, gesponsert vom World Climate Research Programme und der International Oceanographic Commission. … Nerems Team berechnete, dass die Rate des Meeresspiegel-Anstiegs von 1,8 mm pro Jahr im Jahre 1993 auf etwa 3,9 mm pro Jahr heute gestiegen ist als eine Folge der globalen Erwärmung.

Hmmm … schauen wir mal, was die NOAA dazu sagt, Stand: Januar 2018:

Nun, das ist seltsam. Das NOAA NESDIS-Star  (National Environmental Satellite, Data, and Information Service; Center for Satellite Applications and Research) zeigt nicht einmal ansatzweise eine plötzliche Beschleunigung von 1993 (3,0 ± 0,4 mm pro Jahr) bis heute – vielmehr zeigt sich exakt die gleiche Trendlinie, die gleiche Zahl wie im Titel genannt.

Also, Erstes zuerst – wer ist R. Steven Nerem?

Steve Nerem ist ein Alarm-Evangelist* des Meeresspiegel-Anstiegs – es gibt keine andere angemessene Beschreibung. Ich zweifle nicht daran, dass er wirklich an seine Causa glaubt, ist er doch im vorigen Jahr durch die Welt gereist mit immer dem gleichen Vortrag – immer mit identischem Abstract – in San Francisco (Dec 2016), Bologna (Feb 2017), New York  (July 2017),  Miami (Oct 2017) und New Orleans (Dec 2017). Nerem ist einer der Ko-Autoren des infamen Kommentars im Journal Global and Planetary Change, worin er versucht die Studie aus dem Jahr 2004 von Nils-Axel Mörner im gleichen Journal zu widerlegen. Im 3. Teil von SEA LEVEL: Rise and Fall schrieb ich über den Austausch Mörner/Nerem/Mörner.

[*Man merkt, dass sich der Autor in theologischen Dingen nicht auskennt. Das griechische Wort „Evangelium“ übersetzt sich mit „Frohe Botschaft“. Ein Evangelist ist {kirchlicherseits!} ein „Verkünder der Frohen Botschaft“. Das hat Autor Kip Hansen aber sicher nicht im Sinn gehabt. Nur mal so! Anm. d. Übers.]

Steve Nerem war auch Ko-Autor des schreiend alarmistischen Artikels in der Washington Post im Mai 2016 mit dem Titel „10 things you should know about sea level rise and how bad it could be”, in welchem gesagt wird dass „Wissenschaftler schätzen, dass wenn sich die Welt um 4 bis 5°C erwärmt, was für das Ende des Jahrhunderts projiziert wird, wenn wir keine Maßnahmen gegen den Klimawandel ergreifen, alles Eis wahrscheinlich schmelzen wird. Das würde einen Meeresspiegel-Anstieg um 70 Meter bewirken“.

Dr. Nerems Reise-Theater wird in Nature.com in einem Artikel im Juli 2017 beschrieben mit dem Titel „Satellite snafu masked true sea-level rise for decades” [etwa: Satelliten-Chaos maskierte seit Jahrzehnten den wahren Meeresspiegel-Anstieg]. Im Artikel finden sich dann Details aus Nerems oft zitierter Präsentation, darunter:

Das Schmelzen des grönländischen Eisschildes stützt den Anstieg des Meeresspiegels der Welt.

Die Zahlen spielten jedoch nicht mit. Selbst mit dem wärmer werden der Erde sowie dem Schmelzen von Gletschern und Eisschilden schienen Dekaden mit Satellitendaten zu zeigen, dass die Rate des Meeresspiegel-Anstiegs gleich blieb – oder sogar rückläufig war.

Inzwischen haben Wissenschaftler, nachdem sie sich Jahre lang mit dieser Diskrepanz befasst hatten, die Ursache derselben ausgemacht: Ein Problem mit einem Sensor auf dem ersten von vielen ins All geschossenen Satelliten, welcher die Höhe der Meeresoberfläche mittels Radar messen sollte. Adjustiert man die Daten unter Berücksichtigung dieses Fehlers zeigt sich, dass der Meeresspiegel tatsächlich jedes Jahr schneller steigt.

Nerems Team berechnete, dass die Rate des Anstiegs von etwa 1,8 mm pro Jahr 1993 auf etwa 3,9 mm pro Jahr heutzutage zugenommen hat als eine Folge der globalen Erwärmung. Zusätzlich zum Kalibrierungs-Fehler der Satelliten berücksichtigt seine Analyse auch andere Faktoren, die den Anstieg während der letzten Jahrzehnte beeinflusst haben könnten, als da wären der Ausbruch des Pinatubo 1991 und das jüngste El Nino-Ereignis.

Falls sich der Meeresspiegel-Anstieg mit der gegenwärtigen Rate weiter beschleunigt, sagt Nerem, würden die Ozeane der Welt im Laufe dieses Jahrhunderts um etwa 75 cm steigen. Das liegt auf einer Linie mit den Projektionen des IPCC aus dem Jahr 2013.

Falls dies stark danach klingt, was Nils-Axel Mörner die ganze Zeit gesagt hat, dass nämlich der SLR-Alarm seinen Ursprung in den ad hoc-Adjustierungen und ,Korrekturen‘ – nach den Messungen – hat, ist das wohl richtig.

Hier folgt die Graphik von der Nerem’schen CIRES faculty page:

Auf der Site heißt es: „Wir müssen auch sehr sorgfältig die Messfehler abschätzen sowie den Einfluss der dekadischen Variabilität in einer relativ kurzen Zeitreihe von 25 Jahren. Während wir daran immer noch arbeiten, scheint es so, als ob sich der langfristige SLR von etwa 2 mm pro Jahr Mitte der neunziger Jahre auf 4 mm pro Jahr 2017 beschleunigt hat“. Natürlich ist dieses Statement etwas ungenau ausgedrückt – scheint es doch so auszusehen, als ob der Trend im ersten Teil dieser Graphik etwa 2 mm pro Jahr beträgt. In Wirklichkeit meint er aber den langfristigen Trend des 20. Jahrhunderts auf der Grundlage von Tidenmessungen, welcher zu Beginn etwa 1,8 bis 2,0 mm pro Jahr beträgt und „etwa 3,9 mm pro Jahr“ in seiner unveröffentlichten Re-Analyse. Man beachte, dass die Trendlinie hier als ein gekrümmter Beschleunigungstrend daherkommt und nicht als die normale gerade Linie von 1993 bis heute.

Den allgemein akzeptierte Standpunkt dieser beiden Abbildungen zeigt dieses Bild:

Erst vor zwei Jahren fungierte Nerem als Ko-Autor einer Studie mit dem Titel „Is the detection of accelerated sea level rise imminent?“ (veröffentlicht im August 2016, gerade vier Monate vor seinem Vortrags-Kreuzzug). Das Abstract schließt mit den Worten „…eine erkennbare Beschleunigung wird sich wahrscheinlich im kommenden Jahrzehnt aus dem Rauschen herausschälen“ und weiter „Während der 23 Jahre langen Reihe zeigt sich, dass der globale mittlere Meeresspiegel um 3,3 ± 0,4 mm pro Jahr gestiegen ist, jedoch mit einer deutlichen Variabilität von Jahrzehnt zu Jahrzehnt. Unser gegenwärtiges best estimate der Raten im ersten (1993 bis 2002) und zweiten (2003 bis 2012) Jahrzehnt der Altimeter-Ära beträgt 3,5 und 2,7 mm pro Jahr. Es gibt viele Theorien zur Erklärung dieser Variabilität, aber hier präsentieren wir eine zusätzliche Erklärung mit bedeutenden Implikationen für die erwartete Beschleunigung in naher Zukunft“.

Sie waren wirklich fleißig und fanden jene Beschleunigung dem Report in Nature.com zufolge im Dezember 2016.

Wie haben sie das gemacht?

Offenbar ganz einfach. Im jüngsten Zeitraum der Meeresspiegel-Aufzeichnungen via Satelliten gibt es einfach keinen Spielraum mehr für größere Änderungen – es ist schwierig, die Daten zu ändern oder zu adjustieren – das Adjustierungs-Budget ist bereits ausgeschöpft. Bringt man trotzdem welche an, geht das einfach schief – also (nicht lachen!) haben sie erneut die Vergangenheit adjustiert.

Ich werde die Bilder der NOAA heranziehen, um zu zeigen, wie sie es gemacht haben:

Diese Wechselgraphik zeigt die üblicherweise betrachtete NOAA-NESDIS-STAR satellite SLR record graph bis Ende 2017, farbig dargestellt für die vier Satelliten-Missionen, welche die Daten gesammelt haben. Das zweite, darüber gelegte Bild [in der Einzeldarstellung rechts, Anm. d. Übers.] zeigt die jüngsten Daten des NASA JPL, welche die „Aktualisierungen“ enthält, von denen Nerem spricht. Wir sehen hier, dass er mittels einer Reihe von Adjustierungen das linke Ende der Graphik, die TOPEX Altimeter A-Daten, um etwa 3 bis 5 mm angehoben und die Altimeter-B-Daten geringfügig verändert hat. Das Anheben des linken Endes der Graphik – also im Zeitraum 1993 bis 1999 – gestattet es ihm, die Trendlinie mit einer Steigung von 3,0 mm pro Jahr auf eine solche mit 3,8 mm pro Jahr zu ändern.

Nachdem Nerem diese Art der Adjustierung durchgeführt hatte, benutzte er die gleichen adjustierten Daten, um einen gekrümmten Beschleunigungstrend zu zeichnen, welcher seiner Behauptung nach 3,9 mm pro Jahr zeigt.

Fünf Millimeter der maximalen Änderung jedweden Datenpunktes in der Aktualisierung! Die schreckliche, zu befürchtende Beschleunigung des Meeresspiegel-Anstiegs (SLR) ergibt sich ausschließlich aus zweifelhaften Korrekturen allein der TOPEX Altimeter A-Daten – ganze 5 mm bei sechs Jahren „schlechter Daten“ von 1993 bis 1999. Falls diese Daten wirklich schlecht sind, hätte man sie aussondern müssen, anstatt sie so zu frisieren, dass sie zu einem vorbestimmten Narrativ passen.

Keine wie auch immer gearteten Änderungen gibt es in den zuverlässigeren Daten von 1999 bis Januar 2018. Der NOAA zufolge wurde dies 19-jährige Reihe gar nicht verändert und zeigt immer noch genau den gleichen Trend, den sie immer gezeigt hat – etwa 3,0 ± 0,4 mm pro Jahr. Und nichts ändert die Tatsache, dass die jüngsten Altimeter-Daten des neuen, verbesserten JASON-3-Satelliten seit nunmehr über 2 Jahren überhaupt keinen SLR mehr zeigen – NULL. Wir werden abwarten müssen, was die Enthusiasten tun, um diesen Tatbestand passend für ihr Narrativ zu machen.

Sie haben eine Beschleunigung aus nichts erzeugt.

Anmerkung: Ich denke, ich sollte diese Ausführungen mit dem Jüngsten der NOAA beenden:

WTWT [?]:

Leider muss ich die Leserschaft darüber informieren, dass es schlimmer ist, als wir gedacht haben. Alle obigen Daten und Graphiken zur Bestimmung eines auf Satelliten basierenden SLR zeigen nicht wirklich einen Meeresspiegel-Anstieg. Das heißt, sie repräsentieren nicht (und haben das auch nie) einen tatsächlichen Anstiegs des Niveaus der Meeresoberfläche über das Geoid. Ein wirklicher Meeresspiegel-Anstieg wird reflektiert in der Global Mean Sea Surface Height. Aber ein globaler mittlerer SLR, wie er berechnet ist von der Sea Level Group in Colorado, der NOAA und anderen SLR-Gruppen ist ein Konzept – nicht eine Messung. Ich habe einmal den Terminus „imaginary number“ verwendet, um diese Art einer nicht-physikalischen Messgröße zu beschreiben – eine Zahl, von der man sagt, dass sie irgendetwas in der realen Welt repräsentiert, aber aktuell etwas vollkommen Anderes ist. Mehr dazu schreibe ich in einem Beitrag mit dem Titel „What Are They Really Counting“. SLR Satellitendaten enthalten auch Dinge wie eine „GIA-Adjustierung“ – also die Größe des SLR, welche es gegeben hätte falls das Ozeanbecken nicht an Volumen zugelegt hätte, und durch andere Hinzufügungen und Adjustierungen, die sich nicht manifestieren in jedweder Änderung der physikalischen Meeresoberfläche. Aber das ist eine andere Geschichte.

Unter dem Strich:

1. Alles in allem ist der Meeresspiegel seit dem Ende der letzten Eiszeit gestiegen, langsam und unaufhaltsam, mit einigen Sprüngen dazwischen. Im Allgemeinen wird das in absehbarer Zukunft auch so weitergehen – mit irgendwo zwischen 10 und 30 cm pro Jahrhundert. Diese Rate ist eine unmittelbare Bedrohung für besiedelte Gebiete, welche sich nominell auf der Höhe des heute existierenden Meeresspiegels befinden.

2. Es spricht nichts dafür, dass der Meeresspiegel gefährlich oder rapide steigt. Auch beschleunigt sich der Anstieg im globalen Maßstab nicht – wobei unsere Fähigkeit, globale Änderungen in diesen sehr kleinen Größenordnungen (millimeterweise) zu messen sehr fragwürdig ist.

3. Falls Mörner (und seine 101 Kollegen in der INQUA-Kommission) recht haben, gab es während der letzten 25 Jahre kaum einen tatsächlichen SLR (das ist die Altimeter-Satelliten-Ära).

4. Alles oben Gesagte könnte bedeuten, dass das konstante Trommelfeuer der Untergangs-Szenarien hinsichtlich eines steigenden Meeresspiegels auf der gleichen Art Computer-Hybris beruht, die uns eine „mittlere globale Temperatur-Anomalie“ beschert hat anstelle einer globalen mittleren Temperatur.

5. Die hinaus posaunte „Beschleunigung“ des SLR ist ein alarmistischer Punkt, hervorgebracht aus der Abkopplung zwischen Tidenmessungen, die nicht adjustiert sind hinsichtlich vertikaler Bewegungen der Landmassen an den Messpunkten und den Satelliten-Altimeter-Daten – ein Datensatz, der fast hoffnungslos vermengt ist durch Messungen und physikalische Elemente, welche um Größenordnungen größer sind als das gesuchte Signal selbst.

Schlussbemerkung des Autors:

Der Anstieg des Meeresspiegels ist eine wissenschaftliche Kontroverse, die immer noch im Gange ist. Dies bedeutet, dass man äußerste Sorgfalt walten lassen muss beim Betrachten und Interpretieren der Daten der Vergangenheit, bei neuen Studien und insbesondere der Berichterstattung in den Medien zu diesem Thema (einschließlich dieses Beitrags!). Bias und Verfechten sind zügellos, opponierende Kräfte werden immer wieder in der Presse angegriffen (in diesem Beitrag geht es um die jüngste Salve von Steve Nerem). Der Konsens könnte einfach nichts anderes sein als „eine genaue Maßzahl des vorherrschenden Bias‘ in diesem Bereich“ (h/t John Ioannidis).

Der SLR wird unverhohlen als Taktik der Panikmache herangezogen seitens der Propagandisten einer Katastrophalen Anthropogenen Globalen Erwärmung/Klimawandels. Der Anstieg des Meeresspiegels – von dem die allgemeine Öffentlichkeit inzwischen weiß, dass er weniger als 30 cm pro Jahrhundert beträgt – ist als Diskussionspunkt inzwischen verdrängt worden durch eine gefährliche SLR-Beschleunigung.

Link: https://wattsupwiththat.com/2018/01/09/sea-level-rise-and-fall-part-4-getting-a-rise-out-of-nothing/

Übersetzt von Chris Frey EIKE