1

Rundbriefe der GWPF vom 18. bzw. 21. Januar 2017

Neuer Klima-Konsens der Trump-Regierung: ,Die Wissenschaft ist nicht settled

Die Menschen beeinflussen den Klimawandel, aber in welchem Ausmaß, ist immer noch „offen“, sagte der Repräsentant Ryan Zinke kürzlich dem Energy and Natural Resources Committee des US-Senats während der Anhörung zu seiner Nominierung als neuer Innenminister. „Der Mensch hatte einen Einfluss“, sagte Zinke aus, „ich denke, dass dies unstrittig ist. Das Klima ändert sich, der Mensch hat einen Einfluss. Ich bin sicher, die Debatte darüber, wie groß dieser Einfluss ist und was man dagegen tun kann, ist noch lange nicht vorüber“. – Alan Neuhauser,  U.S. News, 17. Januar 2017

Pruitt über Klimawandel und Klimapolitik

Der von Präsident als Administrator der EPA benannte Generalstaatsanwalt von Oklahoma Scott Pruitt hat eine lange Historie des Kampfes gegen Vorschriften bzgl. Verschmutzung der [bisherigen] US-Regierung. Falls seine Berufung bestätigt wird, erwartet man, dass er die Agentur drastisch verändern wird, mittels der Präsident Obama einige seiner aggressivsten Gesetze implementiert hatte – und welche Konservative erboste, die die Regierung der dramatischen Überreaktion verklagten, welche die Rechte der US-Staaten mit Füßen getreten habe. – Alex Guillén, Annie Snider and Eric Wolff, Politico, 18. Januar 2017

Eine ernsthafte Debatte ist das Lebenselixier der amerikanischen Demokratie, und die globale Erwärmung hat eine der großen politischen Debatten unserer Zeit ausgelöst. Diese Debatte ist alles andere als settled. Wissenschaftler sind sich nach wie vor uneinig hinsichtlich des Ausmaßes der globalen Erwärmung und deren Verbindung zu Maßnahmen der Menschheit. Diese Debatte sollte am Leben gehalten werden – in Klassenräumen, öffentlichen Foren und im US-Kongress. Man sollte sie nicht mit der Androhung von Verfolgung abwürgen. Abweichlertum ist kein Verbrechen! – Scott Pruitt, Generalstaatsanwalt von Oklahoma, und Luther Strange, sein Amtskollege von Alabama, National Review, 17. Mai 2016

Asche gegen Geld: Skandal um grüne Energie bringt die Regierung Nordirlands in Bedrängnis

In Nordirland werden Neuwahlen ausgerufen, nachdem die Regierung durch den Fallout eines völlig verkorksten Programms zu erneuerbarer Energie kollabiert ist. Martin McGuiness trat als stellvertretender Erster Minister zurück, und seine Partei hat es im übergangenen Parlament abgelehnt, einen Ersatz für ihn zu benennen. Der Zusammenbruch der Regierung folgte der Kontroverse um ein skandalträchtiges politisches Programm mit der Bezeichnung Renewable Heat Incentive [etwa: Anreiz zu erneuerbarer Wärme]. Damit sollten die Wirtschaft dazu gebracht werden, erneuerbare Wärmequellen zu nutzen, aber stattdessen bezahlte man die Industrien dafür, Treibstoff zu verbrennen. Dies könnte den Steuerzahler mit einer halben Milliarde Pfund zu stehen kommen in einem Durcheinander, das unter der Bezeichnung „Ash for Cash“ bekannt ist. – Brendan Cole, International Business Times, 16. Januar 2017

Trumps Kandidat für die EPA: Wir werden die EPA umkrempeln, so dass sie nicht länger den Kongress ignorieren kann

Der von US-Präsident Trump berufene Kandidat, der die EPA führen soll, gelobt, die Agentur zu ändern und sie von einer Agentur, deren starke Arme Staaten und den Kongress ignorieren, in eine solche umzuwandeln, die mehr der Gemeinschaft verpflichtet ist und auf Gesetzgeber hört. Dies geht aus einer Ausgabe vorbereiteter Bemerkungen hervor, die vor seiner Anhörung im Senat veröffentlicht wurden. „Falls man mir die Gelegenheit gibt, als Administrator zu fungieren, werde ich sicherstellen, dass die EPA zu eine kooperative und gemeinschaftliche Beziehung zum Kongress findet, dessen Absichten zu verwirklichen“, wird Pruitt bei der Anhörung sagen. Die Bemerkungen zeichnen das Bild einer EPA unter der Obama-Regierung, die sich von den ursprünglichen Absichten des Kongresses weit entfernt hatte. Er benannte es als sein Ziel, die Agentur an ihre richtige Stelle zu rücken und dem Gesetz zu unterwerfen. – John Siciliano, Washington Examiner, 18. Januar 2017

Das Große Erwachen von US-Schiefer: Trumps Trumpfkarte

Die OPEC und deren Freunde haben jüngst einige sehr unbequeme Nachrichten gehört. Die Produktion von Schieferöl in den USA beginnt erneut einen Höhenflug. Die jüngsten Vorhersagen der US Energy Information Administration IEA zeigen, dass der OPEC Vereinbarungen, die Preise zu erhöhen, die Ölversorgung neu auszutarieren und die Nachfrage durch Drosselung der Förderung zu steigern, die US-Schieferindustrie schneller aus ihrem Winterschlaf erwachen lasen könnte als der OPEC lieb ist. Die EIA geht jetzt davon aus, dass die US-Produktion bis zum Dezember auf 9,22 Millionen Barrel pro Tag steigen wird, das wäre eine Zunahme von 320.000 Barrel über das Jahr. Aber dies könnte sich schnell als zurückhaltende Vorhersage erweisen. Es könnte sich herausstellen, dass der neue US-Präsident und der Kongress der Ölausbeutung viel unterstützender gegenüberstehen als die alte Regierung, hatte doch Donald Trump im September verlauten lassen, dass er „die Restriktionen bzgl. Energie in Amerika aufheben und den daraus resultierenden Wohlstand den Gemeinden zuführen wird“. Dies könnte dem Schiefersektor weiteren Auftrieb verleihen. – Julian Lee, Bloomberg, 15. Januar 2017

Trump-Ära beginnt mit dem Schwur, Obamas Climate Action Plan zu eliminieren

Auf seiner Antrittsrede am Freitag präsentierte sein Stab eine Vielfalt von Vorschlägen, von der „Außenpolitik Amerika zuerst“ bis zur Zerschlagung von Obamas Climate Action Plan – was weitgehend den Aussagen seiner Kampagnen-Website entspricht. „Viel zu lange wurden wir aufgehalten durch belastende Vorschriften für unsere Energieindustrie. Präsident Trump hat sich der Eliminierung schädlicher und unnötiger politischer Maßnahmen verschrieben wie etwa dem Climate Action Plan und der Verwässerung von US-Regeln“, heißt es ganz oben auf der Website des Weißen Hauses des neuen Präsidenten. „Neue Maßnahmen werden erwartet schon bald nach der Amtsübernahme des 45. Präsidenten der USA“. –David Jackson and Gregory Korte, USA Today, 20. Januar 2017

Trump-Team bereitet eine Liste mit ersten grundlegenden Änderungen der Klima- und Energiepolitik vor

Die Berater von Donald Trump haben eine kurze Liste mit Änderungen der Politik bzgl. Klima und Energie vorbereitet, die er umsetzen kann, sowie er als neuer Präsident vereidigt worden ist. Darunter sind Schritte, die Rolle zu begrenzen, die der Klimawandel bei Entscheidungen der Regierung gespielt hat sowie die positive Begutachtung grenzüberschreitender Pipelines. – Jennifer A Dlouhy, Bloomberg, 20. Januar 2017

In einem „America First Plan“, der auf der Website des Weißen Hauses gepostet wurde während der Amtsübernahme von Donald Trump, wird versprochen, dass „die Schiefer-Industrie und die Benzin-Revolution“ begrüßt werde. „Wir müssen die Vorteile ausschöpfen, welche uns die bisher nicht angetasteten Schiefer-, Öl- und Erdgasreserven verschaffen, deren Wert auf 50 Billionen Dollar geschätzt wird. Das gilt vor allem auf Ländereien, die nicht in Privatbesitz sind“, heißt es in dem Statement des Weißen Hauses. „Wir werden die Einkünfte aus der Energieerzeugung dazu nutzen, unsere Straßen, Schulen, Brücken und die allgemeine Infrastruktur allgemein zu verbessern. Billigere Energie wird außerdem der amerikanischen Landwirtschaft einen großen Schub verleihen“. Platts, 21. Januar 2017

Schnelle Verfügungen, die Trump bzgl. Energie- und Klimapolitik erlassen kann

Der 2015 endgültig in Kraft gesetzte Clean Power Plan steht im Mittelpunkt von Obamas breit angelegter Klimawandel-Strategie. Ein von der Obama-Regierung benutztes und wenig bekanntes Werkzeug zur Stützung seiner Vorschriften zur Kürzung von Kohlenstoff-Emissionen sind die „sozialen Kosten von Kohlenstoff“, eine Berechnung, die von einem Gremium von Technik-Experten durchgeführt worden ist, um den Schaden für die Öffentlichkeit durch Kohlendioxid-Emissionen zu beziffern. Die Berechnung wird herangezogen in der Kosten/Nutzen-Analyse als Grundlage der Vorschrift. Die gegenwärtig von dem Gremium genannten Kosten liegen bei 36 Dollar pro Tonne, was sich bis 2030 auf 50 Dollar pro Tonne erhöhen wird. Die American Energy Alliance glaubt, dass Trump sofort Agenturen der Regierung anweisen kann, die Sozialen Kosten von Kohlenstoff ad acta zu legen. Dies könnte eine Anzahl weiterer Anti-Kohlenstoff-Vorschriften von Obama enthüllen. – Valerie Volcovici, Reuters, 20. Januar 2017

Übersetzt von Chris Frey EIKE




Welche Öko-Sau wird als nächstes durchs Dorf getrieben?

Eine Krisenerzählung gibt es, die hinter allen dieser Kästchen tickt –

die steigende Bedrohung durch unkontrollierte künstliche Intelligenz – kurz KI.

Hollywood ist bereits gut unterwegs mit der KI-Krise. Das folgende ist eine Liste der Hollywood-Filme seit dem Jahr 2000 bezogen auf künstliche Intelligenz (Quelle Wikipedia);

 

Jahr Anzahl Filmtitel
2001 1 A.I. Artificial Intelligence
2002 1 S1M0NE
2003 3 The Matrix ReloadedTerminator 3: Rise of the MachinesThe Matrix Revolutions
2004 1 I, Robot
2005 1 The Hitchhiker’s Guide to the Galaxy
2007 1 Transformers
2008 3 Eagle EyeIron ManWALL-E
2009 3 Terminator SalvationMoonTransformers: Revenge of the Fallen
2011 2 Real SteelTransformers: Dark of the Moon
2012 3 PrometheusRobot & FrankTotal Recall
2013 4 HerIron Man 3The MachinePacific Rim
2014 7 AutomataBig Hero 6InterstellarRobocop (2014 film)TranscendenceTransformers: Age of ExtinctionX-Men: Days of Future Past
2015 8 Ex MachinaChappieTomorrowlandAvengers: Age of UltronTerminator Genisys, aka Terminator 5Star Wars: The Force AwakensUncannyPsycho-pass: The Movie
2016 3 Max SteelMorganRogue One: A Star Wars Story
2017 2 (bislang) Ghost in the Shell (2017 film)Transformers: The Last Knight

 

Es ist schwierig, das allgemeine Interesse an KI zu beurteilen. Aus dem folgendem Diagramm ist die Anzahl der Personen, die zwei KI-bezogene Suchbegriffe eingeben, wesentlich niedriger als der Höchststand im Jahr 2004, der aber auch wieder ansteigen kann (2004 ist der früheste Zeitpunkt, den Google für gesuchte Ausdrücke „search term data“ zur Verfügung stellt) [Es können natürlich auch andere Suchmaschinen genutzt werden.]

 

KI Suchbegriffe – rot ist “deep learning”, blau ist “künstliche Intelligenz”. Quelle Google

 [Deep Learning, auf Deutsch etwa tiefgehendes Lernen, bezeichnet eine Klasse von Optimierungsmethoden von künstlichen neuronalen Netzen, welche zahlreiche Zwischenlagen (engl. hidden layers) zwischen Eingabeschicht und Ausgabeschicht haben und dadurch eine umfangreiche innere Struktur aufweisen. – Quelle Wikipedia.

Und http://www.spektrum.de/news/maschinenlernen-deep-learning-macht-kuenstliche-intelligenz-praxistauglich/1220451]

Im letzten Monat oder so schien es ein großes Interesse der Presse an KI zu geben. – Ich habe vor kurzem eine Menge Nachrichtenartikel gesehen, die das Potenzial für künstliche Intelligenz diskutieren, wie diese sich auf das Leben der einfachen Menschen auswirken.

 

Beispiele (nur aus den letzten Tagen);

 

  • Es gibt viele Spekulationen, dass künstliche Intelligenz Präsident Trump daran hindern könnte, den Wohlstand der Mittelschicht wiederherzustellen.

Kommentar: Der Umstieg auf Automatisierung kann verhindern, dass Trump seine Versprechen auf mehr Arbeitsplätze halten kann

Als die Wahlergebnisse in der letzten Nacht anrollten, wurde es immer deutlicher, dass Amerika – und die Welt – niemals mehr dieselbe sein würde. Das amerikanische Volk übersah alle Fehler des republikanischen Kandidaten Donald Trump und wählte ihn in das Weiße Haus, in dem Glauben, dass er die tiefsitzenden Probleme der Nation von Ungleichheit und Ungerechtigkeit beheben werde. Und sie rebellierten gegen die Geschäftsinteressen und die Korruption, die Hillary Clinton repräsentiert.

Trumps Sieg wurde durch Technologie ermöglicht – alles von seinem Gebrauch der sozialen Medien über Clintons Email Skandale bis hin zu russischen Häckern [noch kein Beweis dafür]. Aber Fortschritte in der Technologie und wie sie unsere Wirtschaft umgestalten, mag ihn auch davon abhalten, einige der großen Versprechen liefern zu können, die ihn im Wahlkampf so beliebt machten.

Screen shot des Videos auf: http://www.chicagotribune.com/business/ct-trump-biz-tech-automation-robots-jobs-20161109-story.html

 

Ist künstliche Intelligenz wirklich eine Bedrohung für Sicherheit und Wohlstand?

Die Schönheit des Spekulierens über solch ein unbekanntes Feld ist, dass niemand wirklich etwas darüber weiß. KI angetriebene Waffen könnten das menschliche Gewissen vom Schlachtfeld entfernen. Außer Kontrolle geratene KI könnten ihre Softwarebeschränkungen überwinden, könnten Chaos anrichten, Umweltkatastrophen verursachen und vielleicht sogar die Welt völlig zerstören. Künstliche Intelligenz droht Arbeitsplätze dauerhaft zu beseitigen, indem sie ihre Fähigkeiten ins Unermessliche steigert und damit die Arbeitnehmer und die Mittelschicht in die staatliche Abhängigkeit und finanziellen Ruin treibt. Aber ähnliche Dinge wurden schon immer über fast alle wichtigen historischen technologischen Fortschritte behauptet – und haben sich immer als Hype erwiesen.

 

Künstliche Intelligenz hat ein gutes Potenzial, erschreckte Politiker in die Finanzierung vieler teurer, aber unklarer Studien zu treiben.

Da selbstlernende und intelligente KI noch nicht existiert, sind alle Meinungen über die Zukunft der künstlichen Intelligenz hochspekulativ – deshalb denke ich an Künstliche Intelligenz als den nächsten Öko-Schrecken, das wahre Erbe der gescheiterten CO2-Angst.

Erschienen auf WUWT am 21.01.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/01/21/the-next-eco-scare-story/

####

 

Persönliche Ergänzung:

In D sehe ich derzeit zwei bzw. drei andere „Schreckgespenster“:

  1. zum einen „Wir müssen Wasser sparen“, vor allem auch nicht soviel Fleisch essen und auch die Entwicklungsländer nicht ermutigen Dinge anzubauen, die viel Wasser brauchen (Von was leben die den dann?)
  2. zum anderen die Angst vor einem terroristischen Angriff mit Chemie. Auf unser Trinkwasser, auf unsere Lebensmittel.
  3. Beim Strommangel oder – überschusskollaps (Blackout) haben wir das kuriose Bild, das unsere Offiziellen davon nichts wissen wollen und das Thema noch nicht einmal erklären (können). Unsere EEG Profiteure einschließlich aller Netzbetreiber achten sehr darauf, dass ihre Interessen zu möglichst 150% berücksichtigt werden.

A. Demmig




Schöne neue Öko-Energiewelt: Licht aus, Pullover an, Treppe statt Lift

Öko-Rotkäppchen und der böse Dunkelflaute-Wolf

Den Ernst der Lage verdeutlicht eine Meldung des Manager-Magazins vom 19. Jan. 2017 [MaMa]. Unter der Überschrift „Blackout-Gefahr – Atomkraftwerke schwächeln – In Frankreich gehen die Lichter aus“ wird gemeldet, dass die Stadtverwaltung von Paris wegen der extremen Stromknappheit an etwa 330 öffentlichen Gebäuden die Außenbeleuchtung ausschalten ließ. Weitere von der französischen Regierung im Rahmen einer groß angelegten Kampagne angeregte Stromsparmaßnahmen: Franzosen sollen mehr Treppen steigen statt den Fahrstuhl zu benutzen, und auf große E-Mail-Anhänge verzichten, um Serverleistung zu sparen. Wohnräume sollen nur auf 19 Grad geheizt werden, Bewohner dickere Pullover tragen und häufiger die Lichter ausmachen. Selbst großen Industriebetrieben wie der Aluminiumschmelze von Rio Tinto Alcan in Dünkirchen will man notfalls die Stromzufuhr kappen. Normalerweise sollte man solche Vorschläge angesichts der Erfordernisse moderner Industrienationen für einen schlechten Witz halten. Doch leider ist dies kein Scherz, sondern bitterer Ernst. Ohne die Unterstützung der Nachbarländer über das europäische Verbundnetz wären in der „Grande Nation“ vermutlich bereits im November 2016 die Lichter ausgegangen. Wie kam es dazu?
Bild 1 rechts. Stromerzeugungsanteile in Frankreich (Bild: Commons.Wikimedia, Theanphibian [Thea])

 

Sorgen bei der Kernkraft

Eigentlich hatte Frankreich bereits vor Jahrzehnten voll auf die Kernenergie gesetzt und mit aktuell 58 Kraftwerken den mit Abstand größten Bestand in Europa. Sie decken den Strombedarf des Landes zu über 70 %, Bild 1. Damit hätte das Land bei konsequenter Fortführung bis heute ein stromsorgenfreies Dasein. Diverse politisch bedingte Fehlplanungen führten jedoch zu Überkapazitäten, außerdem wurde die französische Kernenergiepolitik von Nachbarländern aus heftig befehdet. Dies führte dazu, dass Neubau bzw. Ersatz von KKW bisheriger Bauart auf die lange Bank geschoben wurden und man wegen der in Europa vorherrschenden Sicherheitsbedenken mit dem EPR einen neuen Reaktortyp entwickelte, der wegen der übertriebenen Berücksichtigung von Einwänden und Vorbehalten weitaus komplexer und teurer ausfiel als seine Vorgängermodelle. Von diesem sind bisher jedoch erst zwei Exemplare im Bau, wobei es sowohl in Olkiluoto (Finnland) als auch in Flamanville (Frankreich) zu massiven Problemen mit Termin- und Kostenüberschreitungen kam. Hinzu kam, dass 2016 bei der Überprüfung der vorhandenen Reaktoren technische Mängel aufgrund der Verwendung möglicherweise fehlerhafter Stahllegierungen festgestellt wurden. Deshalb wurde im Oktober 2016 beschlossen, zahlreiche Kernkraftwerke im rollierenden Verfahren zur Durchführung der erforderlichen Kontrollen für jeweils mehrere Wochen abzuschalten. Dadurch kam es bereits im November 2016 zu massiven Stromengpässen. An der französischen Strombörse EPEX schnellte der Preis im Day-Ahead-Handel fallweise auf bis zu 850 €/ Mwh hoch. Das entspricht dem 20- bis 40fachen des sonst üblichen Niveaus von um die 20-40 €/MWh [EPEX].

 

Kollapsbefürchtungen im Januar

Um einen befürchteten Kollaps in der stärksten Kälteperiode, die üblicherweise im Januar auftritt, zu vermeiden, legte Frankreich zusammen mit Nachbarländern Notfallpläne auf Kiel. Den Beteiligten war klar, dass Frankreich aus seinen Nachbarländern – Schweiz, Belgien, Großbritannien, Spanien und vor allem aus Deutschland – erhebliche Mengen Strom importieren musste. Deshalb erhöhten beispielsweise die deutschen Netzbetreiber kurzfristig die Übertragungsfähigkeit von Stromtrassen nach Frankreich, zudem wurden geplante Wartungsarbeiten an Stromleitungen außerplanmäßig verschoben [WIFR]. Dass dies nachteilige Auswirkungen auf die Versorgungssicherheit in Deutschland haben könnte, sei hier nur am Rande vermerkt.

 

Terminanpassungen bei Wartungsabschaltungen

Eine noch wichtigere Rolle dürfte jedoch spielen, dass die Genehmigungsstellen in Frankreich ihre Terminvorgaben an die Notfallsituation angepasst haben. So meldete die „World Nuclear News“ am 16. Januar, dass die zuständige Aufsicht bereits am 12. Januar die Genehmigung zur Wiederinbetriebnahme von neun Reaktoren – Bugey 4, Dampierre 3, Fessenheim 1, Gravelines 2 und 4, Saint-Laurent B1 sowie Tricastin 1, 3 und 4 – erteilt habe [NUNE]. Zugleich wurde der fällige Inspektionstermin von Tricastin 2 mit ausdrücklichem Bezug auf den Stromengpass um zwei Wochen nach hinten verschoben. Ohne dieses Timing, das immerhin rund 10 GW an Reaktorleistung rechtzeitig zum vermuteten Höhepunkt der Kältewelle verfügbar machte, hätte Frankreich möglicherweise sehr massive Probleme mit der Stromversorgung mit der Gefahr eines Blackouts bekommen. Verglichen mit diesen notfallmäßig verfügbar gemachten Kapazitäten ist die Abschaltung von ein paar Fassadenbeleuchtungen kaum der Rede wert.


Bild 2. Schein und Sein: Ungeachtet der riesigen Erzeugungskapazität von mehr als 90.000 MW (blaue Linie) lieferte die Prognose für die EE-Stromerzeugung am 21. Januar 2017 lediglich Werte zwischen 2.100 und 8.500 MW (Daten: [ENTS])

 

Kein Verlass auf deutschen EE-Strom

Wie steht es jedoch um die Fähigkeit Deutschlands zur Hilfestellung in Form von Stromlieferungen? Während grünlinke Klimarettungsapostel ständig Jubelmeldungen über die zunehmende Erzeugung von Strom aus „erneuerbarer“ Energie verbreiten, zeigt die Realität am besonders kritischen Wochenende vom 20-22 Januar, wie verlassen sowohl Deutschland als auch Frankreich gewesen wären, wenn Deutschland nicht noch immer über einen kompletten Kraftwerkspark verfügen würde, der einspringt, wenn Wind und Sonne wegen „Dunkelflaute“ mal wieder keine Lust haben, nennenswerte Mengen an Strom zu produzieren. Bild 2 zeigt, dass die insgesamt über 90.000 MW an installierter Solar- und Winderzeugungskapazität laut Prognose am 21. Januar lediglich zwischen 2.100 und maximal 8.500 MW ins Netz liefern würden. Das reicht fallweise nur für etwas mehr als die Straßenbeleuchtung in beiden Ländern. Grund hierfür ist der geradezu lächerliche Nutzungsgrad der EE-Stromerzeuger Wind und Sonne bei „Dunkelflaute“, Bild 3.


Bild 3. Nutzungsgrad der gesamten über Deutschland sowie der deutschen Nord- und Ostsee verteilten Wind- und Solarkapazitäten am 21.Januar 2017 (Daten: [ENTS])

Selbst zusammengenommen erreichte am 21. Jan. der Nutzungsgrad nur in der Mittagszeit kurzfristig etwas mehr als 9 %, während der Minimalwert nur bei rund 2,4 % liegt. Der Blick auf den Verlauf zeigt sofort, dass es vor allem die Winderzeugung war, die eine geradezu lächerlich schlechte Leistung ablieferte. Damit werden gleich zwei Mythen der Windlobby auf einmal widerlegt. Selbst deutschlandweit weht der Wind nicht immer irgendwo. Die Hoch- und Tiefdruckgebiete, die den Wind antreiben, sind so großflächig, dass Mangel oder Überproduktion meist in ganz Deutschland gleichzeitig auftreten. Gleichzeitig beweist der Kurvenverlauf auch, dass dies auch für den angeblich „grundlastfähigen“ Offshore-Wind gilt, denn die Produktion der großen Windparks in Nord- und Ostsee ist in den Zahlen mit enthalten. Und dies war beileibe keine Ausnahme: Vergleichbare Bedingungen mit deutlich bis dramatisch unterdurchschnittlicher Produktion von Strom aus Sonne und Wind herrschten in Deutschland während gut der Hälfte des Zeitraums vom 1. bis zum 22. Januar.

 

Konsequenzen für den Strompreis

Eine Vorstellung davon, welche Auswirkungen eine überwiegend auf Wind und Sonne ausgerichtete Stromerzeugung nicht nur auf die Verfügbarkeit, sondern auch auf den Preis von Strom habe dürfte, vermittelt Bild 4. Dieses zeigt die an der Strombörse EPEX im Verlauf des 20. Januar erzielten Preise für elektrische Energie im Vergleich zum Preisniveau zur problemlosen Situation am 15. Juli 2016.


Bild 4. Im Verlauf des 20. Januar an der Strombörse EPEX erzielte Day-Ahead-Preise im Vergleich zu einer „Normalsituation“ am 15. Juli 2016 (Daten: [EPEX])

 

Trotz aller ergriffenen Nothilfemaßnahmen war die Versorgungslage wegen der unzureichenden Produktion von deutschem „EE-Strom“ teilweise recht kritisch. Die hektische „Fieberkurve“ der EPEX-Preise vom 20. Januar ist ein deutliches Indiz der angespannten Versorgungslage. Das Preisniveau lag in der Spitze um bis zu rund 700 % über dem üblichen Level. Damit entspricht der Börseneinkaufspreis schon nahezu dem Strompreis von rund 16 ct., den französische Endverbraucher 2015 zahlten. Man muss sich als Verbraucher klar machen, dass solche Situationen bei häufigerem Auftreten in erheblichem Maße auch auf die Endverbraucherpreise durchschlagen würden. Noch deutlicher wird diese Warnung, wenn man berücksichtigt, dass am 7., 8. und 14. November 2016 in der Spitze sogar Preise von bis zu 850,- € pro MWh gezahlt wurden. Das entspricht einem Börseneinkaufpreis von sage und schreibe 85 ct. Das waren zwar nur sehr kurzfristige steile Spitzen, doch vermitteln sie eine Vorstellung davon, welche preislichen Auswirkungen eine derart angespannte Situation bei der Stromverfügbarkeit haben kann, wenn die Stromproduktion bei immer weiter gehender Stilllegung zuverlässiger Kern- und Kohlekraftwerke ernsthaft und für mehr als nur ein paar Stunden den Bedarf unterschreitet.

 

Frankreichs Sozialisten im Dilemma

Interessanter Nebenaspekt der beschriebenen Ereignisse dürften die Auswirkungen auf die energiepolitischen Positionen der französischen Sozialisten sein. Die für Energie zuständige Ministerin Ségolène Royal zeichnete ebenso wie ihr ehemaliger Lebensgefährte Hollande verantwortlich für die 2011 erhobene Forderung nach Stilllegung von 24 der 2011 noch verbliebenen 58 französischen Kernkraftwerke bis spätestens 2025. Das KKW Fessenheim sollte sogar sofort abgeschaltet werden. Vermutlich hat sie in den letzten Wochen jeden Abend auf Knien Dankgebete dafür gesprochen, dass ihre Regierung dieses Vorhaben bisher nicht umgesetzt hat. Mehrheitsfähig dürfte eine solche Politik nach den jetzigen Ereignissen so schnell nicht mehr werden.

Fred F. Mueller

 

Quellen

[ENTS] https://transparency.entsoe.eu

[EPEX] https://www.epexspot.com/

[MaMa] http://www.manager-magazin.de/unternehmen/energie/frankreich-kaeltewelle-bringt-atomkraftwerke-an-grenzen-a-1130754.html

[NUNE] http://www.world-nuclear-news.org/RS-EDF-gets-approval-to-restart-nine-units-16011702.html

[WIFR] https://de.wikipedia.org/wiki/Kernenergie_in_Frankreich

[Thea] https://commons.wikimedia.org/wiki/File:Electricity_in_France_de.svg

 




Der WBGU und die Bewältigung der globalen Klimakrise

Zu Beginn der deutschen Präsidentschaft über die Gruppe der zwanzig wichtigsten Industrie- und Schwellenländer (G20) publizierte der 1992 in Verbindung mit dem „Erdgipfel“ von Rio de Janeiro/Brasilien gegründete Wissenschaftliche Beirat Globale Umweltveränderungen (WBGU) ein Sondergutachten: „Entwicklung und Gerechtigkeit durch Transformation: Die vier großen I“. Dessen Vorsitzender Hans Joachim Schellnhuber umriss den Inhalt in den Fränkischen Nachrichten vom 13. Januar 2017 kurz wie folgt:

„Wir müssen bis 2050 die Welt weitgehend dekarbonisieren. Der Ausstieg aus der Kohleverstromung muss bis 2030 erfolgen, und der Verbrennungsmotor muss endlich auf den Müllhaufen der Geschichte landen. Wir müssen uns auch weitgehend vom Zement als Baustoff verabschieden. Es ist eine Transformation, die nur mit der Industriellen Revolution zu vergleichen ist.“

Zu unserer Rolle meinte er: „Deutschland ist immer noch Antreiber.“

Beanspruchte Deutschland 1992 in Rio nur die Rolle des „Vorreiters“, so ist nun zu fragen, woher die Anmaßung „Antreiber“ herrührt. Ist es ideologische Besessenheit, ist es Größenwahn oder muss wieder einmal die Welt am „deutschen Wesen“ genesen, aufgrund eines grenzenlosen Idealismus gepaart mit Realitätsblindheit? Darüber schweigt der WBUG. Er spielt die Rolle des Erfüllungsgehilfen, der dem „historischen Doppelerfolg für die Nachhaltigkeits- und Klimapolitik“ von 2015 zum Durchbruch verhelfen will. Er bezieht sich auf die bei der „UN in New York vereinbarte Agenda 2030“ und auf das „UN Übereinkommen von Paris zum Klimaschutz“. Mit seiner Forderung nach „vollständiger Dekarbonisierung der Weltwirtschaft bis spätestens 2070“ strebt er eine globale „Große Transformation“ an, um für alle Zeiten für Gerechtigkeit und Frieden durch „Inklusion innerhalb der Gesellschaften“ zu sorgen. Mit der Inklusion will er den „Aufstieg eines autoritären, völkischen Nationalismus“ ausbremsen. Gleichzeitig fördert er das „Leitbild eines gestaltenden Staates“, der das Steuerruder in die Hand nimmt und die „Große Transformation“ vorantreibt.

In diesem Sinne, so heißt es im WBGU-Gutachten, sollten sich die G20-Regierungen als „Pioniere des Wandels“ verstehen, schnell „Dekarbonisierungsstrategien“ entwickeln und sich „an den dekadischen Schritten des Klimaschutzfahrplans orientieren, in dem bis 2050 die weltweiten Emissionen auf Null gesenkt werden“. Hierzu müsse eine „inklusive Kommunikation“ geführt werden: „Zur Entwicklung einer grundlegenden „transfomative literacy“ gilt es einerseits, die kollektiven und individuellen Fähigkeiten zum produktiven und kreativen Umgang mit Herausforderungen zu fördern, und dadurch zugleich Unsicherheiten und Ängste abzubauen, die mit der Konfrontation mit komplexen und ungewohnten Aufgaben einhergehen. Wichtig ist dabei, Risikoinformationen immer mit kollektiven und individuellen Handlungsoptionen zu verknüpfen.“

Ist nun alles klar? Haben Sie das verstanden? Wissen Sie nun, wo die Ursachen und Folgen des Klimawandels liegen? Ich weiß nur, dass die Ursachen des Klimawandels im Wetterwandel liegen. Dessen Ursachen sind unverändert ein „Buch mit sieben Siegeln“ und die Folgen sind erst recht unbekannt, weil uns ein Blick in die Wetterzukunft des Jahres 2050 verschlossen ist. Daran ändert auch eine „umgestaltete Lesefähigkeit“ oder neudeutsch „transformative literacy“ nichts.

 

Zum Auftrag und globalen Sendungsbewusstsein des WBGU 

Der Wissenschaftliche Beirat Globale Umweltveränderungen wurde im Jahre 1992 von der Bundesregierung in Verbindung mit der Konferenz der Vereinten Nationen über Umwelt und Entwicklung, dem „Erdgipfel“ in Rio de Janeiro, unter der Regentschaft von Bundeskanzler Helmut Kohl ins Leben gerufen. Zuständiger Umweltminister war Klaus Töpfer. Der WBGU sollte im Sinne eines „Frühwarnsystems“ auf neue Problemfelder hinweisen und durch Presse- und Öffentlichkeitsarbeit das Bewusstsein für Probleme des globalen Wandels fördern. Er bediente sich dabei geschickt der literarischen Form der Erzählung, des Narrativs, einer populären Geschichte. Damit umging man geschickt unbequemen Fragen nach irgendwelchen ideologischen Hintergründen.

Der WBGU gab von Beginn an vor, sich nur und ausschließlich der „Weltrettung“ wie der Heilung der „Klimakrise“ aus „Zukunftsverantwortung“ im Sinne der „Nachhaltigkeit“ zu widmen, natürlich aus rein ethischen, moralischen wie altruistischen Beweggründen. Im Grunde genommen ist der Auftrag der Bundesregierung, ein deutscher Beirat möge der „Welt“ als Staatengemeinschaft politische Verhaltensregeln vorgeben, eine Anmaßung, eine Art „Selbstermächtigung“. In keinem anderen Volk der Erde hat es etwas Analoges gegeben wie 1986 die „Warnung vor der globalen Klimakatastrophe“ von der Deutschen Physikalischen Gesellschaft e. V. Die Warnung, bildhaft untermalt mit der „Sintflut“ und „Hölle“, hat eine derart kollektive Angstpsychose erzeugt, die in Verbindung mit dem „Waldsterben“ wie dem „Ozonloch“ zu dem Synonym von der typischen „German Angst“ als ostentativ vorgetragenen „Leiden an der Welt“, geführt hat.

Der WBGU, hat zahlreiche Gutachten präsentiert, die der „Klimapolitik“ Orientierung geben und als Stütze dienen sollen. Das Klima eignet sich bestens als Erzählstoff für alle möglichen Klimamärchen. Es einet sich auch sehr gut, um gezielt transformatorische Verhaltenstipps zu geben, um die Gesellschaftsveränderung in die politisch korrekten Bahnen zu leiten. Der WBGU erfüllt seinen Auftrag wunschgemäß und ist fleißig. Bisher hat er speziell zum „Klimaschutz“ folgende Gutachten publiziert:

1997: „Ziele für den Klimaschutz“

2002: „Entgelte für die Nutzung globaler Gemeinschaftsgüter“

2007: „Welt im Wandel – Sicherheitsrisiko Klimawandel“

2011: „Welt im Wandel – Gesellschaftsvertrag für die Große Transformation“

2013: Als Anleitung erschien hierzu ein Märchenbuch in Form eines Comicheftes „Noch

             schnell die Welt retten“ unter Mitwirkung des Paläontologen Reinhold Leinfelder

             (FU Berlin) mit der Aufforderung „Wir brauchen eine Revolution“!

2014: „Klimaschutz als Weltbürgerbewegung“

Die Wege des WBGU sind klar strukturiert und vorgezeichnet. Seine Sprache ist bewusst diffus, um die revolutionäre Absicht zu verbergen und den Bürger nicht frühzeitig aus dem Schlaf zu wecken. Anhand von Reizworten wie „Suffizienzrevolution“ wird von Zeit zu Zeit die Reaktion getestet und, bei massiven Protesten, verbal abgerüstet auf „Öko-Suffizienz“. Die Frage nach dem rechten Maß ist nicht anrüchig und ein Leben, das dem übermäßigen Verbrauch von Gütern durchaus verständlich wie die Forderungen nach Askese, Entschleunigung und Konsumverzicht. Suffizienzrevolution lässt sich elegant durch Effizienzrevolution umschreiben. Wer möchte nicht die „ökologischen Grenzen“ respektieren und Energie wie Stoffe effizienter nutzen?

 

WBGU fordert Weltrettung durch „einzigartigen Kraftakt der Weltgemeinschaft“

Um Akzeptanz für seine Vorschläge zu erzielen, werden „gefährliche Spannungen“ aufgezeigt wie Bürgerkriege und Kriege, Massenflucht und Terrorismus, wachsende Ungleichheit sowie die Gefahr des „Aufstiegs eines autoritären, völkischen Nationalismus“. Die Staaten der G20 werden in die „Führungsrolle“ gedrängt, zumal sie „für 82% der CO2-Emissionen aus fossilen Energieträgern verantwortlich“ sind. Sie sollen die „rapide Dekarbonisierung“ vorantreiben, den Energieverbrauch effektiv begrenzen und bis 2030 die Zulassung von Fahrzeugen mit Verbrennungsmotoren stoppen. Ihre Mittel seien „die vier großen I“: Innovationen, Infrastrukturen, Investitionen, Inklusion. Die Inklusion ist im Singular, weil ein Einwegakt, aus dem es kein Zurück gibt. Ist das Globalziel Inklusion als einer „Gesellschaftstransformation zur Nachhaltigkeit“ erreicht, dann hat die Welt den „gestaltenden Staat“, der als „Weltregierung“ Ungleichheiten bekämpft, seine „soziale Kohäsion“ stärkt und zu einem „Friedensprojekt“ wird. Die „Inklusion auf globaler Ebene“ wird alle „Ressourcen- und Verteilungskonflikte“ entschärfen und somit „Bürgerkriegen sowie Massenflucht“ entgegenwirken.

Diese Idealvision der einen Welt mit dem einen Menschen in der einen Gesellschaft und dem einen Klima „globaler Klimagerechtigkeit“ wird eine friedliche Welt sein, in der nicht nur alle Menschen gleich sind, sondern auch in einem „ökologischen Gleichgewicht“ mit der Natur leben. Doch dieses „Gleichgewicht“ ist eine utopische Illusion! Man muss nur an das „Alles Fließt“ von Heraklit denken. Marxismus und Ökologismus werden unausgesprochen in der Vorstellungswelt des WBGU zu einer quasireligiösen Ideologie, dem globalen „Ökosozialismus“ als geistigem „Überbau“ für alle individuellen wie kollektiven „Ichs“ dieser Erde, verschmolzen.

Alle bisherigen „Krisendynamiken“ sind den sehr „zögerlichen Umweltregulierungen“ geschuldet. Das „herkömmliche Modell der Weltwirtschaft“ greift nicht mehr, so dass die Devise lautet: „Transformation, nicht Reparatur“. Der Rahmen muss im „Dienste des Gemeinwohls“ neu gesteckt werden. Der Auftrag lautet: „Transformation zu einer nachhaltigen Weltgesellschaft und Weltherrschaft“! Dass dieses operative Konzept zum „Multilateralismus“ , diese „ehrgeizige Vision“, dieser „historisch einzigartiger Kraftakt einer solidarischen, evidenzbasierten Modernisierung“ ausgerechnet aus Deutschland kommt, ist erstaunlich und bedenklich zugleich. Wir stehen vor einer einzigartigen „hochdimensionalen Herausforderung“: „Doch nach Auffassung des WBGU ist die Bewältigung der Klimakrise die conditio sine qua non für die Weltgesellschaft im 21. Jahrhundert“. Die Weichen entsprechend zu stellen, dafür „bietet die deutsche G20-Präsidentschaft im Jahr 2017 eine exzellente Gelegenheit, die notwendige Nachhaltigkeitstransformation nicht isoliert von, sondern in Verbindung mit den anderen „Großbaustellen der Weltpolitik“ anzugehen.“

Dafür ist das „Leitbild des gestaltenden Staates“ Voraussetzung, um den Übergang zur Nachhaltigkeit als „globales Modernisierungsprojekt“ voranzubringen. Als Vorbild wird auf die „US-amerikanische Politik des New Deal“ verwiesen. WBGU: „In der heutigen Globalisierungskrise ist ein neuer „Deal“, ein (globaler) Gesellschaftsvertrag zur Nachhaltigkeit und Inklusion erforderlich, der die Grenzen der Nationalstaaten übersteigt und die Überwindung des gegenwärtigen Stagnationszustands der Weltwirtschaft mit dem Projekt der Wiederherstellung des Friedens zwischen Zivilisation und Natur verbindet.“

Nach Auffassung des WBGU steht der „Großen Transformation zur Nachhaltigkeit“ (2011) eine „autoritäre, neonationalistische Gegentransformation gegenüber, die die Zukunftsfähigkeit unserer Gesellschaften, Rechtsstaatlichkeit und Demokratie bedroht“. Im Klartext stehen sich hier zwei Gesellschaftsmodelle gegenüber.

  1. Das traditionelle Modell der in den Vereinten Nationen zusammengefassten 196 souveränen Staaten, die das Paris Abkommen unterzeichnet haben.
  2. Das Modell eines globalen Einheitsstaates, in dem alle Staaten unter Aufgabe ihrer demokratischen Legitimationsprinzipien ihr Selbstbestimmungsrecht aufgehen.

Die „hochrelevante Frage der Begrenzung gesellschaftlicher Disparitäten“, die Frage der globalen Inklusion der Nationalstaaten und damit die Frage nach der Struktur und Legitimation einer wie auch immer aussehenden „Weltregierung“ bleiben offen. Der WBGU belässt es bei der Andeutung, dass er „zwei neuartige Politikelemente ins Spiel bringen“ möchte, nämlich die Idee vom „dekadischen Klimaschutzfahrplan“ und dem „transformativen Staatsfonds“. Mit beiden Maßnahmen soll sich die „Weltregierung“ die notwendigen finanziellen Mittel beschaffen, um das „Leitbild des gestaltenden Staates“ zu verwirklichen.

Wer diesen „Weltstaat“ regiert, wird nicht gesagt. Die Herrschaft wird wohl auf allein auf erfundenen „Sachzwängen“ aufbauen. Der WBGU ist weiter der Meinung, dass sich das „Nachkriegsmodell der globalisierten Wertschöpfung“ festgefahren habe und dass sich mit der nachhaltigen Umgestaltung dieses Modells „eine doppelte Dividende erzielen“ ließe. „Zugespitzt formuliert spricht vieles dafür, dass „nicht die Weltwirtschaft transformiert werden muss, um das Klima zu retten, sondern dass die für die Bewahrung der natürlichen Lebensgrundlagen erforderlichen Innovationen die Weltwirtschaft retten werden!“ Doch was könnte das Wetter verändern, um das Klima zu retten? Der WBGU gibt ganz unumwunden zu: „die umrissene Dekarbonisierung ist nichts weniger als eine industrielle Revolution im Erdmaßstab“!

Das ist die einzige Stelle in dem ganzen Sondergutachten, wo nicht verniedlichend von „Transformation“ gesprochen wird, sondern im Klartext gesagt wird, dass es sich um eine „Revolution im Erdmaßstab“ handelt. Die „Dekarbonisierung“ ist nicht nur eine Abkehr von der Nutzung fossiler Rohstoffe, sie ist eine Deindustrialisierung. Sie ist auch kein Rückschritt hinter die „neolithische Revolution“, sie ist eine Rückabwicklung des dritten Tages der Schöpfung. An diesem Tag wurden nämlich die „grünen Pflanzen“ geschaffen, die „Primärproduzenten“ als Basis für alles höhere Leben auf Erden. Ohne „grüne Pflanzen“ gäbe es keine Nahrung für die Tiere und den Menschen. Ohne die Photosynthese gäbe es auch keinen Sauerstoff, um die Nahrung zu verbrennen und aus ihr Energie und Nährstoffe für alles Leben freizusetzen.

WBGU will die Klimakrise überwinden durch Vernichtung allen Lebens auf Erden 

In dem mit 143 Literaturstellen verzierten Sondergutachten taucht nur einmal das Wort „Revolution“ auf. Es taucht auch nur einmal das Wort „Wetter“ auf, in dem Kapitel „Erwärmung begrenzen und Klimaextreme vermeiden“. Es beginnt: „Seit der 15. Vertragsstaatenkonferenz 2009 in Kopenhagen ist die Begrenzung der globalen Erwärmung auf 2°C gegenüber der Zeit vor der Industriellen Revolution in den internationalen Verhandlungen präsent.“ Präsent scheint es nicht der politischen „Weltelite“ zu sein, dass es „vor“ der Zeit der Industriellen Revolution nicht nur das Klimapessimum der „Kleinen Eiszeit“, sondern auch zwei Klimaoptima zur „Römerzeit“ und im „Hochmittelalter“ gab, deren Zustandekommen bisher kein „Weltklimarat“ hat erklären können. Beide warmen Epochen sind weder den Autofahrern noch den Kraftwerkebetreibern anzulasten. Warum bestehen also die Staatenlenker starrsinnig darauf, dass die momentane im historischen Rhythmus der vergangenen Jahrtausende liegende Erwärmung plötzlich „menschengemacht“ sein soll? Schwingt da nicht eine Art Größen- und Machbarkeitswahn mit?

Es wird aber noch bizarrer, „postfaktischer“! Der WBGU argumentiert weiter: „Die Klimafolgenforschung zeigt, dass bei einem Überschreiten dieser planetarischen Leitplanke gefährliche anthropogene Einflüsse auf das Wetter und Klima (z. B. vermehrte Extremwetterereignisse, Dürren, Überschwemmungen, Verschwinden von Gebirgsgletschern, irreversibles Schmelzen des grönländischen Eisschildes, starker Meeresspiegelanstieg) wahrscheinlicher werden;…“ Könnte das Wetter nicht einfach nur „normaler“ werden? Fakt ist, die „Klimafolgenforschung“ kann gar nichts zeigen und noch weniger beweisen, weil man nur die Folgen von faktischen Wetterereignissen feststellen und bewerten kann. Der Blick in die „Klimazukunft“ wird hermetisch verstellt durch das Wetter. Und die „Wetterzukunft“ ist uns völlig unbekannt, wie alljährlich die nur wenige Monate betreffenden Prognoseversuche des Winter- und Sommerwetters zeigen.

Was gäbe der Mensch für die Fähigkeit, das Wetter längerfristig vorhersagen und seinen Verlauf nach seinem Geschmack manipulieren zu können. Versuche der Beeinflussung des Wetters hat es zahlreiche gegeben. Der indirekt größte Versuch war der 2. Weltkrieg von 1939 bis 1945. Er war gekennzeichnet durch einen gigantischen Ausstoß an „Treibhausgasen“. War die Abkühlungsphase von 1940 bis 1975, die zu Befürchtungen führte, es könnte eine „neue Eiszeit“ kommen, eine Folge? Jedenfalls gab der „National Security Council“ der USA am 2. Mai 1972 ein vertrauliches Memorandum zum Thema „International Aspects of Weather Modification“ mit der Unterschrift von Henry A. Kissinger an die US-Regierung heraus, dessen Vertraulichkeit am 6. September 2002 ob der Aussichtslosigkeit des Vorhabens aufgehoben wurde. Darin heißt es: „The United States shall continue research oaring on climate modification, but no climate modification operation (civilian or military) shall be conducted until its total impact can be predicted with great assurance and without the specific approval of the President“.

Sodann ist in dem Memorandum vermerkt: „The President has decided not to propose at this time legislation for the licensing and regulation of weather modification activities.“ Sehr wahrscheinlich war man sich schon damals der Aussichtslosigkeit der Versuche bewusst, lenkend und steuernd in das Wettergeschehen eingreifen zu können. Und was das Klima betrifft, so ist es einzig abhängig vom Wetter, wie allein die 1935 in Warschau von den Wetterdiensten verabschiedete Klimadefinition offenbart. Der Klimaschutz ist von Beginn an Unfug! Das Klima ist ein Konstrukt, das statistisch vom Wetter abgeleitet ist. Das Klima ist kein Naturvorgang wie das Wetter und hat damit kein Eigenleben. Beschlüsse über „Klimafolgen“ zu treffen, sind hohle Phrasen, die dem Dreschen von leerem Stroh gleichen. Unter diesem Aspekt sei die Frage „in den Raum gestellt“, was die Staatsmänner dieser Erde in Paris sich dabei gedacht haben, eine „Begrenzung der globalen Erwärmung“ festzusetzen?                                                                                    Glaubt der WBGU wirklich ernsthaft, dass sich durch die „Dekarbonisierung“ etwas an der Temperaturverteilung auf der Erde ändert?

In der Photosynthesegleichung sind die drei Elemente zu finden, auf denen die „grünen Pflanzen“ und alles „höhere Leben“ auf Erden aufbauen. Es sind dies die Elemente Wasserstoff H, Sauerstoff O und Kohlenstoff C. Eliminiert man eines dieser Elemente, dann bricht die Existenzgrundlage für Pflanze, Tier und Mensch weg! Das weiß auch der WBGU, denn er schreibt, dass „seit Beginn der Industrialisierung“ eine „verstärkte Photosynthese und damit vermehrtes Wachstum von Pflanzen zu verzeichnen“ ist. Kurz darauf folgt der unsinnige Satz: „Die terrestrische CO2-Senke unterliegt starken zwischenjährlichen Schwankungen und verschwindet in einzelnen Jahren ganz.“ Wachsen „in einzelnen Jahren“ etwa keine Maiglöckchen und Bäume, keine Reben und Rüben, kein Getreide, kein Mais und Reis? Apropos „zwischenjährlich“, es sollte wohl jahreszeitlich heißen!

An dieser Stelle möchte ich die rhetorische Frage stellen, ob die verantwortliche Umweltministerin Dr. Barbara Hendricks und die für die Richtlinien der Gesamtpolitik verantwortliche Bundekanzlerin Dr. Angela Merkel überhaupt das Sondergutachten gelesen und durchgearbeitet, und nicht nur oberflächlich überflogen und die ihnen vorgelegte Presseerklärung „unterzeichnet“ haben. Stimmt dies, dann ist es keineswegs verwunderlich, wenn im denkenden Bürgertum mehr und mehr das Vertrauen in „die Politik“ schwindet.

 

Globale soziale Inklusion zwecks Gesellschaftstransformation zur Nachhaltigkeit

Die Sprache des Sondergutachtens verschleiert mehr als sie offenlegt, doch um dieses zu erkennen, dazu bedarf es eines sorgsamen Studiums. Unter Termin- und Zeitdruck stehende Politiker begnügen sich daher mit kurzen Zusammenfassungen und sind dann erschrocken, wenn sie erfahren, was sie alles beschlossen und unterschrieben haben. In der Regel ist es dann zu spät, um die Weichen anders zu stellen. Eine Forderung des WBGU ist die nach einer Stärkung des „gestaltenden Staates“. Dieser habe die Aufgabe, „soziale Innovation zu fördern und eine inklusive Entwicklung unter den Bedingungen der Globalisierung sicherzustellen“. Dies geht aber nur, wenn alle Staaten ihre Grenzen und ihre Souveränität aufgeben, mithin als „nationalstaatliche Demokratien“ abdanken zugunsten eines „Welteinheitsstaates“.

Dieser soll aus zwei Einnahmequellen schöpfen. Erstens soll CO2 intensiver besteuert werden, indem pro Dekade die CO2-Abgabe verdoppelt wird. Von 30 US-$ pro t CO2 soll bis 2060 die Abgabe auf 240 US-$ steigen, um den „Klimaschutzfahrplan“ einzuhalten. Dann soll ein „Zukunftsfonds“ für „neue staatliche Handlungsspielräume“ aufgebaut werden. Die Idee baut auf folgender „Logik“ auf: Da die individuellen Vermögen wesentlich „in Verbindung zur Nutzung fossiler Energie“ stehen, wird den G20-Staaten die Einführung einer „Generationenkomponente auf individuelle Vermögen in Form einer progressiven Erbschaftssteuer auf Nachlassvermögen (Nachlasssteuer) angeraten. Der WBGU „plädiert dafür, dass 10-20% des nationalen Erbschafts- und Schenkungsvolumens für die Finanzierung des Zukunftsfonds zur Verfügung stehen.“

Zudem soll die Reichweite von Innovationen ausgeweitet werden hin zu „disruptiv-transformativen soziotechnischen Innovationen“. „Umfassende Systemtransformation“ ist das Ziel. Natürlich darf die „Ernährungsgerechtigkeit und die Nachhaltigkeit globaler Ernährungsmuster“ nicht fehlen. Und angesichts des „globalen Urbanisierungsschubs muss über die Art und Weise, wie Städte gebaut werden, völlig neu nachgedacht werden“. Das bedeutet: „Im Bausektor sollten „Materialien wie Beton und Stahl durch klimafreundliche Substanzen wie Holz, Ton und Stein ersetzt werden.“ Haben sich Beton und Stahl durch eine „Wetterfeindlichkeit“ negativ ausgezeichnet oder nicht genügend Schutz vor den Wetterunbilden geboten? Die geforderten Mittel für eine „internationale Klimakooperation“ sollten lieber in eine „Wetterkooperation“ investiert werden, um die Analyse, die Diagnose und Prognose des Wetters international zu verbessern.

 

Professor Dr. Hans Joachim Schellnhuber CBE, der Chef von WBGU und PIK

Verantwortlich als Vorsitzender des WBGU ist Prof. Dr. Dr. h.c. Hans Joachim Schellnhuber CBE, zugleich Direktor des Potsdam-Instituts für Klimafolgenforschung; Professor für Theoretische Physik an der Universität Potsdam; External Professor am Santa Fe Institute. Schellnhuber war ab 1989 Professor für Theoretische Physik am Institut für Chemie und Biologie des Meeres an der Universität Oldenburg. Am 1. Januar 1992 übernahm er als Gründungsdirektor die Leitung des PIK. 1993 wurde er regulärer Direktor und erhielt den Lehrstuhl an der Universität Potsdam. Schellnhuber schreibt selbst in seinem Buch „Selbstverbrennung“, wie er zu dieser „Ehre“ kam. „Ich selbst wurde ab 1990 eher zufällig in dieses intellektuelle Abenteuer (die Klimawirkungs-Forschung) hineingezogen, wobei ein welthistorisches Ereignis die Hauptrolle spielte: der Fall der Berliner Mauer am 9. November 1989.“ Der damalige Ministerialdirigent Werner Menden im Bundesumweltministerium Werner Menden habe ihn auf seine „Mission Impossible“ vorbereitet.

Warum er als Physiker, der zumindest theoretisch mit den physikalischen Vorgängen in der Atmosphäre vertraut sein muss, diesen „unmöglichen Auftrag“, ohne Ahnung von den komplizierten Strömungsvorgängen bei der Allgemeinen Zirkulation über die „Klimafolgewirkungen“ zu forschen, annahm, ist mir unerklärlich. Offensichtlich war das mehr ein gesellschaftspolitischer Auftrag, wie der Bezug zum „Fall der Berliner Mauer“ andeutet, zusammen mit einem Aktionsprogramm „Ökologischer Aufbau Ost“. All dies fand statt unter der „Oberaufsicht“ von Bundesumweltminister Prof. Dr. Klaus Töpfer. Es ging unter dem Gesamtaspekt „Ökologisches Gleichgewicht“ um eine Neujustierung der Weltpolitik nach Wegfall des „Kommunismus“. Da keine Weltmacht sich offen zum „Lenker der Welt“ aufschwingen wollte und jedwede Ideologie politisch verpönt war, verfiel man auf den Begriff „Narrativ“. Der Begriff kommt aus den Sozialwissenschaften. Ein Narrativ ist nichts als eine sinngebende Erzählung, mit der Emotion transportiert, Orientierung gegeben und Zuversicht vermittelt werden soll.

Nach dem damaligen Stand der Nachhaltigkeits- und Transformationsforschung lassen Narrative sich am besten in Krisenzeiten durchsetzen, auch wenn sie wie die Klimakrise nur eingebildet sind. Eine Transformation ist eine „gewaltfreie“ gesellschaftliche Umformung und Verwandlung, die auf lange Sicht eine ähnliche Wirkung erzielen kann wie ein gewaltsamer Umsturz, eine Revolution. Es wird behauptet, dass Transformation das Resultat rational handelnder Akteure ist. Doch exakt das Gegenteil ist bei der „Klimapolitik“, ob auf nationaler oder internationaler Ebene, der Fall. „Klimaschutz“ ist der Gipfel der Irrationalität. Kein amerikanischer, australischer, brasilianischer, chinesischer, indischer, japanischer, südafrikanischer oder anderer der G20-Präsidenten ist so vermessen zu behaupten, er könne das Wetter seines Landes schützen, extreme Wetterereignisse verhindern. Alle diesbezüglichen Klimaschutzversprechungen sind Schall und Rauch, sind Spökenkiekerei, sind primitive Modell-Wahrsagerei.

Der WBGU glaubt selbst nicht an seine Versprechungen, denn warum sonst würde zum Schutz vor dem Wetter Anpassungsmaßnahmen wie „Überschwemmungsschutz“ und „Wirbelsturmschutzräume“ empfehlen. Die ersten Schutzräume vor dem Wetter, die der Mensch aufsuchte, waren Höhlen. Frankreich ist ein Eldorado für Höhlen und Grotten, aber auch in Baden-Württemberg kann man „Höhlen der letzten Eiszeitkunst“ besichtigen und die „Venusfigur“ mit einem Alter von etwa 40000 Jahren zu bewundern.

Was der WBGU unter des Kaiser’s neuem Kleid „Klimaschutz“ wirklich verbirgt, das sagt er nicht konkret. Es könnte sein, dass David Rockefeller 1999 in Newsweek einen Hinweis gegeben haben könnte: „Irgendetwas muss die Regierungen ersetzen, und mir scheint, dass die private Macht die geeignete Identität dafür ist.“ Wenn Weltherrschaft das Ziel ist, dann sind die nationalstaatlich verfassten Demokratien Hindernisse auf diesem Weg privater Mächte, die weggeräumt werden müssen. Der WBGU-Warnruf vor dem Aufstieg „eines autoritären, völkischen Nationalismus“ ist ein Ablenkungsmanöver. In allen Demokratien der Erde sollten die Alarmglocken läuten. Es geht um ihre Existenz. Es geht um die freiheitliche demokratische Grundordnung der Vereinten Nationen. Soll das Motto „Geld regiert die Welt!“ die Zukunft sein?

 

Bürgervertrauen in die Politik setzt voraus, dass sie mit offenen Karten spielt 

Das WBGU-Sondergutachten ist ein Musterbeispiel, wie man politisch brisante Ziele verklausuliert und unkenntlich macht, bis sie die parlamentarischen Hürden genommen haben. Wenn sie erst „Volksmeinung“ und in „Gesetze“ geschmiedet sind, dann setzen die Sachzwänge ein, dann gibt es kein Zurück. Dieser Weg hat sich bewährt, denn nur die allerwenigsten Volksvertreter lesen vorher, was ihnen zu beschließen empfohlen wird.

Kein Wunder, dass im Bürgertum das Vertrauen in die Politik rapide abnimmt, weil sie nicht den Mut hat, den Bürgern „klaren Wein“ einzuschenken und die Wahrheit zu sagen, die sie von den Bürgern fordert. Wann sehen die Politiker der Welt ein, dass der „Klimaschutz“ per se ein postfaktisches und daher unmögliches Unterfangen ist. Faktum ist das Wetter. Ist es vorbei, und „Klima“ umschreibt die Wettervergangenheit, ist ein Schutz illusorisch. Wenn ein Blitz eingeschlagen hat, ist diese Tatsache unmöglich mehr rückgängig zu machen!

Oppenheim, den 25. Januar 2017                       Dipl.-Meteorologe Dr. phil. Wolfgang Thüne

 

 

 

 

 

 

 

 

 

 

 




Trump kann Obamas Energiepolitik unverzüglich zurückdrehen

Trump plant, die Beschränkungen der US-Energieerzeugung zu beseitigen, vor allem durch den Abbau des Klimaprogramms von Präsident Obama und der „Wasser der U.S.“ -Regulierung. Das Weiße Haus sagt, dass die Aufhebung dieser Regeln die Löhne [der Arbeiter] erhöhen wird, um „mehr als 30 Milliarden Dollar in den nächsten 7 Jahren.“

Aber das ist erst der Anfang. Trump wird wahrscheinlich noch mehr Executive Maßnahmen [Dekrete] erlassen, um die Umweltpolitik der Obama-Ära zurückzunehmen.

 

Wesentliche Executive Anordnungen die von Trump erwartet werden

Aufhebung der EPA-Vorschriften

Trump versprach, Obamas „Klimaplan und die Gewässerregulierung der US-Regierung“ zu beseitigen, sowie er im Amt ist. Er wird wahrscheinlich den Kongress brauchen, oder die Gerichte, um Obamas Agenda völlig aufzuheben, aber er kann Dekrete erlassen, um die Schlüsselpolitiken effektiv aufzuheben.

Der so genannte Clean Power Plan (CPP) der Environmental Protection Agency (EPA) ist der Eckpfeiler der globalen Erwärmungspolitik von Obama und soll die Kohleindustrie weiter lahmlegen. Kohlekraftwerke, die nicht den strengen CO2-Grenzwerten entsprechen, werden im Rahmen des CPP stillgelegt und neue Kohlekraftwerke dürfen nicht gebaut werden, solange sie keine CO2-Abscheidungstechnologie verwenden.

Verfassungsrechtliche Anwälte und CPP-Gegner wie David Rivkin und Andrew Grossman argumentierten, Trump kann „eine neue Energiepolitik einführen, die die Rolle der Bundesstaaten bei der Regulierung der Energiemärkte respektiert und die Elektrizität erschwinglich und zuverlässig macht. Dieses Dekret solle das EPA anweisen, alle Bemühungen zu beenden, um den Clean Power Plan durchzusetzen und umzusetzen“, schrieben Rivkin und Grossman in einem Meinungskommentar im November. „Die Agentur würde dann alle Fristen der Verordnung verlängern und ein Regulierungsverfahren einzuleiten, um die vorherige Verfügung zu annullieren.“

Trump könnte etwas Ähnliches für die EPA „Wasser der U.S.-Regel“ (WOTUS) anstoßen, die wie die CPP von Dutzenden von Bundesstaaten vor dem Bundesgericht angefochten wird, die sich wegen der Erweiterung der föderalen Kontrolle über Bundesstaaten und Privateigentum sorgen.

 

Rückzug aus dem Pariser Abkommen

Obama hat offiziell ein Abkommen zur Vereinbarung der Vereinten Nationen über die Verringerung der Treibhausgasemissionen im vergangenen Jahr unterzeichnet, das so genannte Pariser Abkommen. Der ehemalige Präsident versprach, die U.S. würden die [CO2] Emissionen bis 2025 um 26 bis 28 Prozent reduzieren.

Obama brachte die Pariser Abkommen niemals vor den Kongress zur Abstimmung, und stattdessen nannte es seine Verwaltung eine nicht rechtsverbindliche Exekutivvereinbarung. Das heißt, Trump kann die Vereinbarung alleine zerreißen.

Im Wahlkampf versprach Trump aus dem Abkommen auszuscheiden, später erweiterte er sein Versprechen, die „Milliardenzahlungen für die globale Erwärmung an die Vereinten Nationen zu beseitigen“ und dieses Geld stattdessen in den USA auszugeben.

Obwohl nicht in vollem Einklang, scheint Trumps Administration seine Ansichten über die Pariser Abkommen zu teilen. Der ehemalige ExxonMobil-Chef Rex Tillerson, Trump’s Wahl als Staatssekretär, sagte, die USA sollten einen Platz am Tisch in Paris behalten. Aber es bleibt abzuwarten, falls es bestätigt wird, wird er diese Ansicht zusammen mit Trump vorbringen.

 

Nutzung der föderalen Grundstücke

Trump wird auch wahrscheinlich die einseitigen Obama-Verwaltungsanweisungen rückgängig machen, die ausgedehnte Bereiche von föderalen Ländereien als Sperrbezirke für Bergbau und Bohrungen ausweisen.

Von Trump wird erwartet, dass er das Innenministerium einbestellt, um ein Moratorium gegen neue Kohlegruben aufzuheben, die unter Obama im vergangenen Jahr eingeleitet wurden, laut Bloomberg. Die Obama-Regierung verbot vorübergehend neue Kohlebergwerke, um Möglichkeiten zur Erhöhung der Förderkosten auf föderalen Grundstücken zu prüfen.

Die ehemalige Regierung sagte, das war gemacht worden, um den Steuerpflichtigen eine gerechte Rendite für Minen auf öffentlichen Grundstücken zu geben. [Wer sollte das Geld bekommen, wenn Bergbau sich nicht lohnt und Arbeitsplätze verlorengehen? – der Übersetzer]

Trump könnte auch die Blockade von Bohrungen im Arktischen und Atlantischen Ozean aus dem aktuellen Fünf-Jahres-Offshore-Bohrplan zurückführen, sowie eine Obama-Anweisung „dauerhaft“ machen und diese Meeres-Sperrgebiete zu proportionieren.

 

Ausweisung von Naturschutzgebieten zurücknehmen

Republikanische Gesetzgeber haben Trump auch gedrängt, nationale Naturschutzgebiete zurückzuziehen, die durch Obama durch Dekret geschaffen wurden.

Obama benutzte das Denkmal Gesetz von 1906, um mehr als 550 Millionen Hektar Bundesländer und Gewässer als nationale Naturschutzgebiete zu bestimmen. Eine solche Bezeichnung macht es viel schwieriger, auf Bundesländern Landwirtschaft zu betreiben, zu bauen oder zu bohren. Einheimische opponierten oft gegen die Ausweisung neuer Denkmälern, da sie die Wirtschaftstätigkeit schwer beschränken.

[Wahrscheinlich dürften dort nur Windkraftanlagen aufgestellt werden – der Übersetzer]

Kein Präsident hat jemals eine Vorgänger-Denkmal-Ausweisung umgekehrt, so dass es eine gewisse Rechtsunsicherheit gibt – obwohl Präsidenten frühere Bezeichnungen modifiziert haben.

Obama, zum Beispiel, erweiterte Naturschutzgebiete, die von Präsident George W. Bush ausgewiesen wurden [Präsident Barack Obama wird die Größe der föderal kontrollierten Ozean und Landflächen nordwestlich des Bundesstaates Hawaii vervierfachen und verbietet alle kommerzielle Fischerei und Mineralgewinnung aus der Region, die fast die Größe von Alaska hat – The Daily Caller 08.2016]

 

Aktualisierung der Gefahren durch Treibhausgase

Obamas „Klimaplan“ wird von einem EPA-Bericht von 2009 unterstützt, in dem die Treibhausgase die öffentliche Gesundheit bedrohen, indem sie die Erde erwärmen. Diese „Gefährdungsfindung“ hat einschneidende Vorschriften für Fahrzeuge und Kraftwerke zur Folge.

Trump EPA könnte die Gefährdungssuche von 2009 aktualisieren, um neuere wissenschaftliche Arbeiten zu integrieren und eine skeptischere Sicht auf die globale Erwärmung zu bekommen.

Jüngste Anzeichen deuten darauf hin, dass Klimamodelle die vorhergesagte globale Erwärmung für die letzten sechs Jahrzehnte übertreiben und dass es nur geringe Zusammenhänge zwischen Erwärmung und einer langfristigen Zunahme von extremen Wetters gab.

 

Soziale Vorteile von Kohlenstoff?

Von Trump wird erwartet, das Weiße Haus „Office of Management und Budget“ anweist, die so genannte „Social Cost of Carbon“ (SCC) Schätzung auszusetzen. Die Obama-Regierung schuf die SCC, um einen geldwerten Anteil der Emissionskosten von CO2 anzusetzen.

Das SCC ist der Dreh- und Angelpunkt von Obamas Klimaprogramm, das von Regulierungsbehörden genutzt wird, um massive finanzielle Vorteile durch die Regulierung von Treibhausgasemissionen aus Kraftwerken, Autos, Geräten und sogar Ölquellen zu erreichen. [Zur Thematik SCC brachte Eike einen Bericht]

 

Umstrukturierung NEPA

Trump kann auch ein White House Council über Leitlinien der Umweltqualität 2016 widerrufen, eine Anleitung wie Bundesbehörden die globale Erwärmung bei der Überprüfung von Projekten im Rahmen des National Environmental Policy Act (NEPA) zu berücksichtigen haben

Republikaner argumentierten, diese Anleitung macht es für jede Art von Entwicklung nur schwieriger und öffnet Umweltschützern einen weiteren Weg, um Bundesbehörden zu verklagen, um Projekte, die sie nicht mögen zur Strecke zu bringen.

 

Pipelines genehmigen

Trump möchte ein Dekret von 1968 aufheben, das dem Department of State Authority [Außenministerium] erlaubt, Pipelines zu genehmigen, die eine internationale Grenze überschreiten. Grundsätzlich ist dies eine Möglichkeit, die Keystone XL-Pipeline zu genehmigen.

Obama lehnte die notwendige Genehmigung für TransCanada ab, die Keystone XL Pipeline im Jahr 2015 fertigzustellen. Obama und Außenminister John Kerry stimmten zu, das die Genehmigung der Fertigstellung des Projektes, das Bild der USA als Kämpfer gegen die globale Erwärmung schädigen würde.

Trump könnte auch das US Armee Korps von Ingenieuren nutzen, um die umstrittene Dakota Access Pipeline zu genehmigen.

Erst im Sommer 2016 genehmigte das Korps die Ölpipeline, verweigerte dann aber die Zustimmung zur Absicht, die Überquerung eines föderalen Sees zu planen, nachdem Umweltschützer und amerikanische Indianer monatelang protestierten.

Trump sagte Fox News im Dezember, er würde er das „sehr schnell gelöst“ haben, sobald im Amt ist.

Erschienen auf The Daily Caller am 22.01.2017

Übersetzt durch Andreas Demmig

Trump Can Immediately Repeal These Obama Energy Policies




Eine Messstation fast ohne Wärmeinseleffekt (WI): Schwierigkeiten bei Temperaturvergleichen

Welche Auswirkungen haben diese neu geschaffenen Wärmeinseln auf die Wetterstationen, die eben genau dort sind, wo die Menschen leben und arbeiten?

Glücklicherweise gibt es eine Temperatur-Messstation, bei der sich nur wenig in der weiten Umgebung verändert hat, also ein dunkler Fleck auf dieser Karte. Leider nicht bei uns, sondern in den USA: Die Dale-Enterprise-Weather-Station in Virginia. Die kleine weit verstreute Ansiedlung liegt vier Meilen von der nächsten Kleinstadt Harrisonburg entfernt.

Abb. 2: Dale-Enterprise ist eine Ansammlung von Gehöften, Farmen und Einzelhäusern entlang des US-Highway 33 in Virginia/USA. (latitude 38°27’19N and longitude 078°56’07W)

Aber auch ohne menschlichen Eingriff bleibt nichts so wie es war, Natur und Klima verändern sich immer, und Menschen gestalten mit, vergrößern ihre Anwesen, steigern den Energieverbrauch und breiten sich in die Fläche aus. Resultate sind breitspurige Straßen in der unmittelbaren Umgebung, asphaltierte örtliche Zugangswege zu größeren und besser beheizten Räumen mit steigendem Energieverbrauch. 1880 soll Dale Enterprise noch eine Wetterstation bei einer einsamen Farm gewesen sein, weit weg von der damals kleinen Ansiedlung Harrisonburg. Inzwischen hat sich auch diese Kleinstadt in die Fläche erweitert, der ausufernde Ortsrand ist nur noch eine Meile von Dale Enterprise entfernt. Wir gehen jedoch davon aus, dass Dale Enterprise selbst immer noch eine relativ wärmeinselarme Ansiedlung geblieben ist.

Auch die Tagesmittelwerte wurden immer nach demselben Muster von inzwischen drei Ahnen der Familie Heatwole seit 1880 bestimmt und so die Jahreswerte ermittelt. Dale Enterprise ist die älteste anerkannte Wetterstation in Virginia.

Anmerkung zu den umfangreichen Temperaturdaten: Bei einigen Jahren fehlten Monatsergebnisse. Wir haben deshalb den fehlenden Monat mit dem Durchschnittswert der restlichen über 130 Monatsmittel ergänzt, um für das betreffende Jahr ein vergleichbares Jahresmittel zu erhalten. Es fehlten insgesamt deutlich weniger als 1 Prozent der Monatswerte, so dass diese Vorgehensweise das Gesamtergebnis fast nicht beeinflusst hat.

Die folgende Abbildung 3 zeigt den Temperaturverlauf dieser Station aus den einzelnen Jahresmitteln. In den USA ist die Maßeinheit Fahrenheit (F) für Temperaturen gebräuchlich und nicht Celsius, wobei 32 F Null Grad Celsius entspricht. Und 50 F entspräche 10 C.

Abb. 3: Auf der x-Achse sind die Temperaturen in der in den USA üblichen Fahrenheitskala aufgetragen. Die Trendlinie ist leicht fallend seit 1880

Die Überraschung ist groß, es gibt keine Erwärmung bei dieser Station seit 1880 bis 2016.

Wir können die letzten 140 Jahre grob in vier Teile unterteilen:

  1. Temperaturrückgang 20 Jahre lang von 1880 bis 1900
  2. Ein erneuter 20-jähriger Anstieg bis 1920
  3. Etwa auf gleichem Niveau von 1920 bis 1990
  4. Erneuter Rückgang ab 1990 bis heute, d.h. eine Abkühlung in der Gegenwart

Ergebnis 1: Obwohl diese Station auch nicht ganz wärmeinselfrei ist, zeigt sie einen (unbedeutenden) Temperaturrückgang, auf alle Fälle keine Erwärmung in den letzten 137 Jahren. Das heißt aber auch, dass es im unbebauten 10 km Umkreis der Station noch ein klein wenig mehr kälter wurde.

Ergebnis 2: In der jüngeren Gegenwart, in diesem Falle ab 1990 sind die Temperaturen gefallen und nicht gestiegen. Fallende Temperaturen, wenn auch nur in Virginia, sind das genaue Gegenteil einer Erwärmungskatastrophe.

Daraus lassen sich vorsichtigerweise auch Rückschlüsse für Deutschland ableiten. Laut Deutschem Wetterdienst sind die Temperaturen seit dem Jahre 2000 bis heute gleich geblieben, gemessen in den mehr oder weniger stark mit Zusatzwärme beeinflussten deutschen Stationen. Allgemein wirkt der Wärmeinseleffekt (WI) der Städte und Gemeinden, in welchen die meisten Messstationen sich befinden, einer Abkühlung entgegen. Und die deutschen Daten sind nicht wärmeinselbereinigt. (WI)

Wir haben den WI-Korrekurfaktor für Deutschland seit 1891 ermittelt. Er beträgt für die letzten 130 Jahre ungefähr 1,2 Grad mit einer Genauigkeit, die wir mit +/-0,3C angeben. Siehe: http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/ und WI ist der hauptsächliche Temperaturtreiber

http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

Die WI-bereinigte Deutschlandkurve seit 1891 sähe dann so aus:

Grafik 4: WI-bereinigte Deutschlandtemperaturen. So wäre der Temperaturverlauf, wenn Deutschland genauso geblieben wäre, wie es 1891 war und die Messstationen auch noch an denselben viel kälteren Orten von damals stehen würden.

Dieser (grüne) Temperaturverlauf gilt weitgehend für die freie Fläche Deutschlands außerhalb der Ansiedlungen, – das sind etwa 85% Deutschlands -die Natur richtet sich außerhalb der Städte nach den WI-bereinigten Temperaturen. Deswegen macht der Mai immer noch die Bäume grün, bzw wieder die Bäume grün, denn vor über 25 Jahren war die Erstblüte in der freien Fläche früher. (Eigenbeobachtungen)

Auch viele anderen Indizien und Beobachtungen sprechen für die Richtigkeit dieser 1,2 Grad Wärmeinselanteil seit 1891 für Deutschland. Hier sollen einige genannt werden:

Temperaturen in der freien Fläche, weitab der Wärmeinseln

Abb. 5: Dieses Bild entstand in einem FFH-Schutzgebiet im Frankenbachtal im Ostalbkreis in der freien Fläche, weitab von allen Ansiedlungen und Wärmeinseln. Die Maiaufnahme zeigt den kümmerlichen Blattaustrieb verschiedener Sträucher am 19.05.2012. Die Vegetation der Bäume nimmt die tatsächlichen Maitemperaturen wahr und die sind in Deutschland nach einer 20jährigen Mai-Abkühlungsphase wieder so tief wie vor mindestens 55 Jahren, als der Betrachter erstmalig hier war. Man betrachte auch den Entwicklungsstand bei der Bodenflora. An Eisheiligen lag in diesem Tal auf 440mNN sogar kurzzeitig Schnee. In der freien Fläche Deutschlands macht immer noch der Mai die Bäume grün wie in dem schönen 240 Jahre alten Liedchen von Mozart beschrieben wird.

Ich möchte betonen: Die vom Deutschen Wetterdienst=DWD veröffentlichten Temperaturreihen sind richtig ermittelt. Sie gelten aber nur für die vom Menschen großflächig geschaffenen Zivilisationsflächen, also für die hellen Punkte der Nachtaufnahme bei Grafik 1. Und dort gibt es die Erwärmung seit 1850 bzw. seit 1891 tatsächlich. Beim Temperaturvergleich mit früheren Jahrzehnten braucht man einen Korrekturfaktor, um zu wissen, welcher Anteil der Temperaturen als Zusatzwärme vom Menschen kommt und welcher vom Klima. Täglich nehmen diese vom Menschen geschaffenen Wärmeflächen zu, in Deutschland derzeit um 70 ha täglich

Betrachten wir nochmals die Grafik 4, die WI-bereinigten Deutschlandtemperaturen: Das Jahr 2010 war sogar das drittkälteste Jahr seit den Temperaturaufzeichnungen. Die Flora/Fauna in der freien Fläche empfand die 6,7 Grad und richtete sich entsprechend ein. Eigene Beobachtungen im Frankenbachtal zwischen Ellwangen und Aalen in Süddeutschland ergaben: Anfang Mai: Knospen, kaum Blätter der Bäume, Mitte Mai: Blattaustrieb. Ende Mai: Blätter der Bäume wachsen, erst Anfang Juni voller Blattaustrieb. Froschablaiche Anfang Mai und nicht Ende März/April, Frühblüher im April anstatt im März. Im März 2010 waren der Boden und die Laichtümpel der Frösche und Kröten noch zugefroren. Wegen der verkürzten Vegetation wurde das Obst 2010 im Ostalkreis nicht reif und erfror teilweise im November auf den Bäumen als der erste Schnee fiel.

Genauere Beschreibung, siehe hier

http://www.wahrheiten.org/blog/2011/01/27/waermeinseleffekt-taeuscht-klimaerwaermung-vor/

Für den Temperatur-Vergleich mit den Jahren von 1890 bis 1900 darf man für das Jahr 2010 nicht die ermittelten 7,8 Grad des DWD nehmen, sondern man muss davon den WI von 1,2C subtrahieren, damit man Äpfel mit Äpfeln vergleicht. Die Natur außerhalb der Ansiedlungen richtet sich nach den 6,6 C

Der Wärmeinseleffekt ist eine menschengemachte Zusatzwärme bei den Messstationen, aber diese anthropogene Zusatzwärme bezieht sich nicht bloß auf Städte und Siedlungen, sondern großräumig wurden auch Flächen und ganze Regionen wärmer gemacht. In BaWü wäre dies der gesamte Oberrheingraben, der Mittlere Neckarraum und der Bodenseeraum mit Oberschwaben. Auch die Abholzung von 50 km2 Regenwald täglich und die weitere Urbanisierung von 70 ha täglich in die Freifläche Deutschlands hinein haben auf die Dauer Auswirkungen auf eine größere Gesamtfläche.

Unser WI ist ein historisch sich auf die Messstationen auswirkender Zivilisations-Wärmeeffekt und geht von folgenden Fakten aus, beschreibt und vergleicht:

1) Das reine Stadt-Landgefälle =UHI in heutiger Zeit

2) Die Station von heute mit derselben Stationsumgebung von früher und

3) Die Zusatzwärme, die in der einströmenden Luft aus den Nachbarländern bereits enthalten ist.

Fazit: Seit dem Ende der kleinen Eiszeit um 1850 ist es in Deutschland und weltweit wärmer geworden. Diese Erwärmung wurde jedoch nicht durch einen C02-Treibhauseffekt bedingt, denn dieser Ideologie fehlt der wissenschaftliche Versuchsnachweis. Richtig ist, der Mensch ist mitverantwortlich durch zivilisatorische Veränderungen, bedingt durch die Bevölkerungszunahme von weniger als einer Milliarde auf nun über 7 Milliarden Menschen. (für die Wiedererwärmung nach 1850 gibt es natürlich auch noch andere Ursachen). Der dadurch hervorgerufene großflächige Wärmeinseleffekt ist somit der primäre Temperaturtreiber in Deutschland und weltweit, vor allem, wenn man bedenkt, dass in diesen großflächig geschaffenen Wärmeinseln – siehe Grafik 1- nun auch die Messstationen stehen, während diese in früheren Zeiten oft bei unbeheizten Klöstern, bei Gutshöfen, bei Forsthäusern oder Köhlereien am Waldrand oder bei wissenschaftlichen Instituten am Stadtrand standen. Das sind alles Orte, die von der Urbanisierung heute längst eingeholt sind.

Die allgemeine Panikmache wegen einer C02-Klimaerwärmung bis zum vorhergesagten Hitzetod der Erde im Jahre 2100 ist wissenschaftlich nicht begründbar und somit ein Märchen, ein fanatischer Glaube, ohne jeden Versuchs- und Anwendungsbeweis. Er beruht auf einer (bewussten) Fehlinterpretation der Messdaten. Ein Glaube, der sich hartnäckig hält, weil bereits zu viele gut daran verdienen. Mit Umwelt- und Naturschutz hat diese C02-Pseudoreligion gar nichts zu tun, sie schadet auf Dauer sogar dieser wichtigen Grundeinstellung der Menschen. Aber nicht nur der wissenschaftliche Versuchsbeweis und technischen Anwendungen dieses Erwärmungsglaubens fehlen, auch die CO2-Erwärmungshypothese wurde mehrmals widerlegt, zuletzt durch die Physiker und Strahlungsexperten Tscheuschner, Kramm, Gerlich, Dlugi, ein Beispiel dafür hier:

http://www.schmanck.de/0707.1161v4.pdf

Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Natur- und Umweltschutz wäre deshalb ein konsensfähiges Ziel aller Völker.

Wie ideologisch vermessen muss man sein, um der Natur ein „2-Grad-Ziel“ vorzugeben. Wir sind doch alle froh, dass die Temperaturen aus der kleinen Eiszeit herausgefunden haben. Wenn schon ein Ziel, dann wäre das warme Mittelalter – wie in der nächsten Grafik ersichtlich – erstrebenswert. Doch davon sind wir weit entfernt. Wie bereits auf dieser 1000-jährigen Grafik des IPCC ersichtlich, setzt bereits wieder eine Abkühlung ein.

Abb. 6: Der Temperaturverlauf Europas in den letzten 1100 Jahren. Von einer mittelalterlichen Warmzeit, als die Alpen weitgehend gletscherfrei waren, sind wir noch lange entfernt. Am rechten Ende sieht man ab 1850 die Beendigung der kleinen Eiszeit, 1900 erreichen wir wieder die 1100-jährige Durchschnittslinie. Seit 1998 ist der fallende Trend erkennbar. Die letzten 120 Jahre müssten allerdings noch WI-bereinigt werden, siehe unsere Abb. 4.

Doch erneut ein warmes Mittelalter – wohl unser sehnlichster Wunsch – haben wir nicht in der Hand. Der dominierende solare Einfluss auf unser Klima, der Einfluss der kosmischen Strahlung und die pulsierend in größeren Zeiträumen schwankenden Erdumlaufbahnen in Verbindung mit dem thermischen Gedächtnis des Ozeans wird sich auch dann nicht ändern, wenn sich der Mensch bzw. Politiker als Zauberlehrlinge versuchen.

Es wird endlich Zeit, dass wir aufhören, Kohlendioxid zu verteufeln. C02 ist für die Erde ein lebensnotwendiges Gas. Alles irdische Leben ist auf Kohlenstoff aufgebaut. Ohne C02 wäre die Erde kahl wie der Mond. C02-Einsparung ist trotzdem wichtig, einmal wegen der Ressourcenschonung und, weil bei jedem Verbrennungsprozess nicht allein sauberes Kohlendioxid frei gesetzt wird, sondern auch jede Menge giftige, umweltschädliche Gase wie Kohlenmonoxid, Feinstaub, Ruß und krebserregende Kohlenwasserstoffe.

Josef Kowatsch, Naturschützer und unabhängiger Klimaforscher.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Frits Bolkestein: Intellektuelle und Klima-Alarmismus

Dem Club of Rome Report zufolge befand sich die Welt in einem Durcheinander infolge Umweltbelastungen, exzessiver Bürokratisierung, grenzenloser Urbanisierung, weit verbreiteter Arbeitslosigkeit, Entfremdung von der Jugend, Inflation und Zerfall von Wertesystemen. Ausgeprägte Korrekturen mussten vorgenommen werden bevor es zu spät war.

Der Report befasste sich mit den Wechselwirkungen zwischen fünf kritischen Faktoren: Bevölkerungswachstum, exzessive Bürokratisierung, Ausbeutung natürlicher Ressourcen, Industrialisierung und Verschmutzung. Die Schlussfolgerung lautete, dass die Menschheit auf eine Periode großer Leiden zusteuere infolge Mangel an Nahrungsmitteln, Mangel an Rohstoffen und zu starker Verschmutzung.

In den Niederlanden folgte auf diesen Bericht im Februar 1972 eine Studie der Mansholt-Kommission, benannt nach deren Präsidenten Sicco Mansholt (1908 bis 1955). Sie bestand aus Mitgliedern ,progressiver‘ Parteien: PvdA (Labour Party), D66 (Democrats 1966) und PPR (Radical Christians). Das Komitee befasste sich mit drei zentralen Krisen: Atomkrieg, der Kluft zwischen dem reichen Norden und dem armen Süden, sowie mit der begrenzten Natur der Erde und den Grenzen des Wachstums. Die Hälfte der Mitglieder des Komitees wurden später Mitglied der Regierung Den Uyl (1973 bis 1977).

Die Mansholt-Kommission wünschte eine Neubewertung der Konzepte von Wohlstand und Wachstum. Die Niederlande sollten ein Beispiel setzen und lernen, innerhalb der Grenzen zu leben, die angesichts der endlichen Natur unseres Planeten inhärent waren. Natürlich würde dies eine Abnahme unseres Lebensstandards bedeuten. Aber man glaubte, dass dies unvermeidlich sei.

Was ist seitdem geschehen? Der „Report des Club of Rome“ prophezeite die unmittelbar bevorstehende Erschöpfung nicht erneuerbarer Ressourcen. Kupfer würde in 36 Jahren ausgehen, Gold in 11 Jahren, Blei in 26 Jahren, Quecksilber in 13 Jahren, Zinn und Zink jeweils in 17 bzw. 23 Jahren. Allerdings ist dies nicht eingetreten. Auch Öl, welches dem Bericht zufolge in nur 31 Jahren alle sein sollte, wird immer noch erzeugt. Fazit: Der Report hat offensichtlich das Potential der Technologie erheblich unterschätzt. Aber die Medien waren ihm verfallen. Die niederländische Qualitätszeitung NRC Handelsblad beispielsweise berichtete über den Report unter der Schlagzeile „Katastrophen bedrohen die Welt“ (31. August 1971).

Der Bericht der Mansholt-Kommission hatte gleichermaßen wenig Auswirkungen, weil am Eröffnungstag der Sitzung des niederländischen Parlaments im Jahre 1974 der Finanzminister Wim Duisenberg (PvdA) die Bevölkerung aufgerufen hatte, mehr zu kaufen, um die Wirtschaft zu erhalten. Und die „neue internationale Wirtschaftsordnung“, das „Baby“ seines Parteigenossen Jan Pronk, Minister für Entwicklungshilfe, ging unrühmlich den Bach hinunter und musste der „neuen nationalen wirtschaftlichen Unordnung“ Platz machen.

Ein Jahrzehnt später wurden wir in Alarm versetzt, weil der Boden unter den sterbenden Wäldern in Deutschland schwer versauert sei. Man glaubte, dass dies auch in anderen Gebieten von Europa geschehen würde. Diese Furcht wurde befeuert durch die emotionale Bindung der Deutschen mit ihren Wäldern. „Das große Waldsterben“ führte zu Panik, welche auch die Niederlande erreichte. Die RIVM (National Agency for Public Health and Environment) und das Umweltministerium behaupteten, dass große Waldgebiete schon nicht mehr zu retten waren. Aber zu einem „ökologischen Hiroshima“ war es nie gekommen. Wir wissen heute, dass die Wälder im Erzgebirge extrem hohen SO2-Konzentrationen ausgesetzt waren. Die Bäume schienen jedoch kaum durch die Versauerung gelitten zu haben. Wie auch immer, derzeit sind sie in einem besseren Zustand denn je.

Viele Untergangsszenarien waren im Umlauf und wurden nachdrücklich von den Medien propagiert. Ein paar davon möchte ich erwähnen. (1) Eine globale Hungersnot war unvermeidlich. (2) Eine Krebs-Epidemie infolge von Pestiziden würde unser Leben verkürzen. (3) Wüsten würden sich mit 2 Meilen pro Jahr ausdehnen. (4) Computer-Netzwerke würden zusammenbrechen wegen des Jahrtausendwechsel-Effektes. (5) Der Rinderwahnsinn würde hunderttausende Menschen töten. (6) Die Nanotechnologie würde außer Kontrolle geraten. (7) Die Gletscher würden verschwinden (obwohl über die Hälfte ihres Rückzugs bereits vor dem Jahr 1950 stattgefunden hatte). All dies ist nicht eingetreten.

Das UNEP (United Nations Environment Programme) prophezeite im Jahre 2003, dass es bis zum Jahr 2010 50 Millionen Klimaflüchtlinge geben werde. Im Jahre 2010 nahm diese Organisation diese Prophezeiung zurück. Vor zehn Jahren prophezeite Al Gore in dem Film „An Inconvenient Truth“, dass wir innerhalb von zehn Jahren einen ,Point of no return‘ erreicht haben würden. Aber die von der großen Mehrheit der Modelle projizierte globale Erwärmung ging weit über den tatsächlich gemessenen Temperaturanstieg hinaus.

Warum haben so viele Intellektuelle Freude an der Prophezeiung von Katastrophen? Hinsichtlich der Wissenschaftler ist der Grund eindeutig: Wer von ihnen eine Katastrophe prophezeit, wird Forschungsgelder erhalten für Forschungen, wie man eine solche Katastrophe vermeiden kann. Der International Energy Agency IEA zufolge werden wir während der nächsten 25 Jahre 2,3 Billionen Euro ausgeben, um die globale Temperatur um weniger als 0,02°C sinken zu lassen.

Außerdem gibt es bedeutende industrielle Interessen, wollen die Industrien doch Investitionen in Dinge tätigen, die vermeintlich die globale Erwärmung bekämpfen sollen. 2000 Jahre Christentum haben in der Psyche der Menschen des Westens einen Sinn für Schuld und Sühne hinterlassen. Wir sind schuldig, also verdienen wir die Katastrophen, denen wir ausgesetzt sind. Solange wir nicht bereuen und den Instruktionen der Untergangspropheten folgen.

Während der siebziger und achtziger Jahre machten sich sehr viele Menschen, vor allem im Westen, Sorgen über alle Arten negativer Entwicklungen. Jetzt, 35 Jahre später, ist dies nicht mehr in diesem Ausmaß der Fall. Armut, Mangelernährung, Analphabetentum, Kinderarbeit und Kindersterblichkeit nehmen schneller ab als jemals zuvor. Außerhalb des Nahen Ostens gibt es kaum Kriege. Guerilla-Bewegungen suchen Frieden. Das drängendste Problem heutzutage sind Wanderbewegungen [die sicher nicht Klimawandel zur Ursache haben! Anm. d. Übers.]

Und was ist mit der globalen Erwärmung? Während der ersten Hälfte des 20. Jahrhunderts ist die Temperatur um ein halbes Grad Celsius gestiegen. Seit 1950 erwärmt sich die Atmosphäre mit einer Rate von 0,13 Grad pro Jahrzehnt. Aber zwischen 1998 und 2013 stieg die Temperatur nur noch mit einer Rate von 0,04 Grad. Und im vergangenen Jahrzehnt ist die Temperatur praktisch gar nicht mehr gestiegen. Das IPCC nennt dies eine Erwärmungspause oder einen Stillstand – ein Stillstand, der von keinem einzigen Klimamodell prophezeit oder projiziert worden war. In jedem Falle befinden wir uns nicht am Abgrund zu Katastrophen, wie oftmals behauptet wird.

Gibt es also keine Probleme? Riesige Mengen anthropogener Treibhausgase werden jährlich in die Atmosphäre freigesetzt. CO2 ist eines dieser Treibhausgase, allerdings nicht so stark wirkend wie Wasserdampf. Zufälligerweise ist das „Treibhaus“ von Gott gesandt. Würde es nicht existieren, läge die Temperatur auf der Erde bei 18 Grad unter Null. Außerdem ist CO2 der Urstoff allen Lebens schlechthin. Ohne CO2 gibt es keine Pflanzen, keine Tiere, keine Menschen.

Die Analyse von Satellitendaten hat gezeigt, dass die Erde während der letzten 30 Jahre grüner geworden ist – die Vegetation auf der Erde hat um 14% zugenommen. Die Hälfte davon geht auf die Zunahme der CO2-Konzentration in der Atmosphäre zurück.

Falls jemand CO2-Emissionen reduzieren möchte, sollte der Verbrauch fossiler Treibstoffe beendet und ersetzt werden durch Erneuerbare. Windturbinen können erneuerbare Energie erzeugen. Aber da gibt es einen Haken: Das Europäische Zertifikate-Handelssystem ETS gestattet einer Seite Einsparungen bei CO2-Emissionen, welche von anderen Seiten genutzt werden können. Die Gesamt-CO2-Emissionen bleiben dabei gleich. Das nennt man den „Wasserbett-Effekt“.

Und was ist mit den Kosten? Das National Energy Agreement der Niederlande wurde im September zwischen vielen interessierten Gruppen beschlossen – außer mit Ingenieuren mit Know-How der zur Verfügung stehenden technischen Optionen sowie Repräsentanten der Energieverbraucher und Steuerzahler, die die Rechnung zu schultern hatten. Die Kosten werden abgeschätzt auf 72 Milliarden Euro, wovon 31 Milliarden Euro auf die Windenergie entfallen.

Andere Experten sind zu noch viel höheren Schätzungen gekommen. Soweit es Windenergie betrifft, sollte man auch die Kosten für neue Infrastruktur und Back-Up ins Kalkül ziehen. Falls der Wind nicht weht oder auch bei zu starkem Wind erfordert die Versorgungssicherheit Back-Up-Kapazitäten auf der Grundlage fossiler Treibstoffe. Dem „Green Court of Auditors” der Niederlande zufolge liefern die Turbinen auf See außerdem während 60% der Zeit keinen Strom. Auf dem Land sind es 75%. Wie auch immer, es ist das Große Geld. Wird es effektiv verwendet?

In einem Brief an das Parlament (File 32813, Nr. 121 vom 9. April 2016) hat die stellvertretende Minsiterin für Umwelt und Klima Sharon Dijksma (PvdA) eingeräumt, dass die in die Klimapolitik investierten Milliarden keine messbare Auswirkung haben werden. Dies stellte sie fest in ihrer Antwort auf eine Anfrage der Klimalobby ,Urgenda‘ vor dem Gerichtshof in The Hague, um die Regierung zu einer stärkeren Reduktion von CO2 zu verpflichten als ursprünglich geplant. Das Gericht gab dieser Forderung nach. Unabhängig von der Tatsache, dass dies eine verfassungsmäßige Monstrosität ist – was wäre die Auswirkung? Der Regierung zufolge würde es zu einer zusätzlichen Abschwächung der globalen Erwärmung um 0,000045°C bis zum Jahr 2100 kommen. Diese Differenz ist viel zu gering, um gemessen werden zu können.

Die Milliarden, die zur Realisierung der Regierungspläne hinsichtlich Windenergie erforderlich sind, tauchen im nationalen Haushalt nicht auf. Energieverbraucher müssen dafür aufkommen via ihrer Stromrechnungen. Heute zahlen Verbraucher im Schnitt 40 Euro pro Monat. Dieser Beitrag wird sich fortwährend erhöhen bis auf 63 Euro pro Monat im Jahre 2020. Außerdem wurde den Bürgern durch das Energie-Abkommen ein Beitrag von 36 Euro pro Monat auferlegt. Zusammen macht das 100 Euro pro Monat. Dies bedeutet, dass die Brauchbarkeit und Notwendigkeit dieser Maßnahmen nicht Gegenstand von Beratungen im Parlament waren.

Der Klimagipfel von Paris im Dezember 2015 sollte „den Planeten retten“. Aber er wird die selbst gesteckten Ziele längst nicht erreichen. Falls alle teilnehmenden Länder das tun würden, was sie versprochen haben, würde die Temperatur im Jahre 2100 um lediglich 0,17 Grad reduziert sein. Werden teilnehmende Länder ihre Versprechungen halten? Die traurige Erfahrung mit dem Kyoto-Protokoll lehrt uns, dass dies keineswegs so sein muss.

Die Klimadiskussion ist sehr politisiert. Ein französisches Sprichwort sagt „ Du choc des opinions jaillit la vérité“ (Die Wahrheit ergibt sich aus dem Zusammenprall von Meinungen). Bisher waren die Befürworter der AGW-Hypothese nicht willens, in eine offene und freie Diskussion einzutreten. Zum Beispiel behauptete das IPCC im Jahre 2007, dass die Gletscher des Himalaya wegen der Erwärmung bis zum Jahr 2035 verschwunden sein könnten. Dies stellte sich als ein alarmistischer Druckfehler heraus. Einen solchen typographischen Fehler könnte man als ein Kavaliersdelikt ansehen. Allerdings hat der Vorsitzende des IPCC Rajandra Pachauri derartige Kritik an der Himalaya-Prophezeiung als „arrogant“ und „Voodoo-Wissenschaft“ diffamiert.

Die frühere norwegische Premierministerin und Sonderbotschafterin der UN bzgl. Klimawandel sagte im Jahre 2007: „Es ist unverantwortlich, rücksichtslos und zutiefst unmoralisch, den Ernst der Lage in Frage zu stellen. Die Zeit der Diagnose ist vorbei. Jetzt muss gehandelt werden“. Im Grunde sagt sie damit: „Ich habe nachgedacht, und jetzt stören Sie mich nicht mit den Tatsachen!“

Viele Wissenschaftler und Nicht-Wissenschaftler würden nur zu gerne eine Diskussion zum Thema Klima unterdrücken. Der IPCC-Vorsitzende Pachauri ist nur einer von ihnen. Einige Wissenschaftler haben ihre finanzielle Forschungsgrundlage und sogar ihren Arbeitsplatz verloren wegen ihres Klimaskeptizismus‘. Andere Wissenschaftler haben Angst sich ,aus der Deckung zu wagen‘. Die Zensur im Bereich Klimatologie ist groß und umfassend, was einer ausgewogenen Entscheidungsfindung sehr abträglich ist. Dies ist sogar noch wesentlich schädlicher, weil so viel Geld involviert ist.

Aber die Änderung ist imminent. Die Netherlands Physical Society (NVV) hat im Oktober 2015 im Wetteramt der Niederlande KNMI in De Bilt eine Tagung abgehalten mit der Absicht, eine allgemeine Erklärung zu verabschieden. Was ist bei diesem Treffen herausgekommen? Der Vorsitzende Jan van Ruitenbeek entschied, keine einzige öffentliche Verlautbarung auszugeben wegen der großen Meinungsunterschiede bei der Formulierung einer allgemeinen Position. Das Ergebnis wäre ein nichtssagender Kompromiss gewesen. Tatsächlich ist die Etablierung wissenschaftlicher Fakten durch Handzeichen absurd. Sogar das IPCC höchstselbst räumt ein, dass es eine Vielfalt möglicher Folgen gibt.

Thomas Henry Huxley, ein Wissenschaftler im 19. Jahrhundert, sagte: „Der mehr Wissen über die Natur Schaffende lehnt absolut jede Obrigkeit als solche ab. Für ihn ist Skeptizismus die oberste Pflicht; blinder Gehorsam ist DIE unverzeihliche Sünde“.

Die Errichtung und Installation von Windturbinen kostet ein Vermögen. Es ist offensichtlich, dass Lobbyisten versuchen, das Ergebnis des politischen Entscheidungsprozesses zu beeinflussen. Der Fernsehsender ARD in Deutschland hat den beispiellosen politischen Einfluss der Windenergie-Lobby kritisiert, den diese auf die Politik der Regierung ausübt. Der ARD zufolge geraten Menschen, die der Installation von Windturbinen Widerstand leisten, unter starken Druck, ihre Opposition aufzugeben.

Alles in Allem gleicht diese ganze Diskussion einem religiösen Disput zwischen Klima-Alarmisten als Gläubige und Skeptikern als Häretiker. Warum haben so viele Intellektuelle Freude daran, Katastrophen zu prophezeien? Ist es, weil sie sich in der Aufmerksamkeit der Medien sonnen? Oder hat es irgendetwas zu tun mit christlichen Schuldgefühlen?

Frits Bolkestein.

[Frits Bolkestein is former leader of the Netherlands (classical) Liberal Party, former Minister of Defence and former Eurocommissioner.]

Source:

http://www.elsevier.nl/kennis/blog/2017/01/waarom-intellectuelen-zo-graag-wereldrampen-voorspellen-436737/

[Dieser Brief steht in Englisch auch http://www.thegwpf.com/frits-bolkestein-intellectuals-and-climate-alarmism/ bei der GWPF – falls jemand meine Übersetzung kontrollieren will! – C. F.]

Übersetzt von Chris Frey EIKE




Jahrtausend­hochwasser am 01.06.2016 in Simbach – so entstehen Mene­tekel des Klima­wandels

Eigentlich ist das nichts aufregendes, doch dieses Mal waren sich einige „Wahrheitsinstitute“ sicher, im vergangenen Jahr erstmals ein 1000-jähriges Klimawandel-bedingtes Ereignis dingfest gemacht zu haben.
[1] Süddeutsche Zeitung, 30. Dezember 2016: Das zerstörerische Hochwasser hat die Seelen überflutet
… Hochwasser. Ein Wort, das zum Grundwortschatz der Niederbayern gehört. Weil in Niederbayern jedes Jahr irgendwo die Flüsse überlaufen. Doch was am 1. Juni 2016 über das Rottal hereinbrach, war keines dieser Hochwasser, die man kannte. Es war eine
Flut, wie sie laut Statistik alle 1000 Jahre vorkommt. Ein Wetterphänomen, das selbst Experten in Bayern für unmöglich hielten.
dpa, 30. Dezember 2016 (Lokalausgabe der nordbayerischen Nachrichten): In Deutschland war Bayern der Kältepol – Bundesweit war es aber dennoch um 1,4 Grad zu warm
… Folge enormer Niederschläge: In Westmittelfranken und in Oberbayern kam es zu katastrophalen Überflutungen.
Simbach am Inn versank in einem Jahrtausendhochwasser.

Man muss hinzufügen, dass In beiden Publizierungen kein direkter Hinweis auf eine Verbindung zum Klimawandel steht. Doch die Art der Darstellung zeigt, dass man es vermuten soll. Und eine Quelle für diese „Vermutung“ findet sich direkt in einer Publizierung des Deutschen Klimakonsortiums und dem DWD:
Deutschlandfunk 12.09.2016: [11] Klimawandel Deutsches Klimakonsortium warnt vor Starkregen in Deutschland
Der Klimawandel ist laut Deutschem Klimakonsortium unbestreitbar. Zu den Folgen zählt auch die Gefahr von Starkregen.
Der Klimawandel werde dazu führen, das Starkregen in Deutschland öfter auftreten wird, intensiver sein wird, also länger anhalten wird, so der Vize des Deutschen Wetterdienstes. Sein Fazit mit Blick auf die tödlichen Fluten in Braunsbach:
„Die Message ist: So eine Niederschlagsmenge ist theoretisch in Deutschland nahezu an jedem Ort möglich. Im Sommer. Betonung: Im Sommer.“

In der nun folgenden Analyse wird nur auf das Ereignis Simbach Bezug genommen, welches in den zwei Zeitungsmeldungen als ein nur alle 1000 Jahre vorkommendes Ereignis indirekt als ein Beleg des schon beginnenden – negativen – Klimawandel-Einflusses dargestellt wird.

Das Ereignis am 1. Juni in Simbach am Inn

Zum Nachlesen wurde es bereits detailliert in zwei Artikeln auf EIKE dargestellt. Anbei deshalb nur kurze Auszüge:
EIKE 09.06.2016: [4] An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen
EIKE 06.07.2016: [2] Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag:
Das damals kurz nach dem Ereignis Geschriebene gilt immer noch. Lediglich die Niederschlagsangaben müssen zwischenzeitlich korrigiert werden, denn die Daten des DWD sind (immer noch) unvollständig, was damals nicht richtig erkannt wurde. Doch die damals aufgrund der Recherche mutig getroffene Feststellung, dass die Ursache der extremen Fluthöhe (Normalhöhe: ca. 50 cm, Fluthöhe: Ca. 5 m) ein Dammbruch war, wurde von anderen Stellen bestätigt.
[5] FOCUS ONLINE 03.06.2016: Simbach am Inn Verstopftes Rohr löste offenbar Flutwelle aus
… und Schuld daran war offenbar ein verstopftes Rohr. Als sich darin Bäume und Sträucher verfingen, nahm die Katastrophe ihren Lauf – jetzt will die Stadt reagieren.
… Es soll sich um ein Wellstahlrohr handeln, das häufig an Bächen als Straßenunterführung verbaut ist – so auch beim Simbach. Durch Sträucher und Bäume sei das Rohr verstopft gewesen. Dadurch habe sich ein Stausee gebildet. Als der Straßendamm brach, sei der See als Flutwelle durch den Ort geströmt.

Süddeutsche Zeitung, 9. Juni 2016: Hochwasserkatastrophe Rohr löste offenbar Flutwelle in Simbach aus
Die Ursache der tödlichen Flutkatastrophe in Simbach am Inn war offenbar ein verstopftes Rohr. Weil eine Unterführung des Simbachs durch Bäume und Sträucher verstopft war, hatte sich vor einem Straßendamm im Norden der Stadt ein gigantischer Stausee gebildet. Als dieser Damm brach, ergoss sich am Nachmittag des 1. Juni eine riesige Flutwelle über die Stadt.

Wer „erfand“ das 1000-Jahre Ereignis?

Eine Nachfrage dazu an die dpa, welche Fundstelle zur Einstufung als 1000-Jahre-Ereignis angezogen wurde, sowie an den DWD, wie dort das Ereignis bewertet wird, wurden bisher nicht beantwortet. Somit lässt sich die Quelle nur vermuten. Aufgrund der Recherchen kommt der Autor zu dem Schluss, dass es die Darstellung eines Münchner Professors für den Bayerischen Landtag sein könnte (in [2] beschrieben)). Dieser Professor informierte damals in einer Stellungnahme:
WELT N24, 16.06.2016: [3] Die Analyse der Simbacher Sturzflut ist beunruhigend

Zwei Wochen nach der Flutkatastrophe von Niederbayern verheißt die erste vorsichtige wissenschaftliche Bewertung nichts Gutes für die Zukunft: Eine vergleichbare Wetterlage wie Ende Mai und Anfang Juni hat es nach Einschätzung eines Experten noch nie gegeben – und technische Schutzmaßnahmen gegen so genannte tausendjährige Hochwasser gebe es in keinem Staat der Welt. Das sagte Martin Grambow am Donnerstag im Landtag, er ist Leiter der bayerischen Wasserwirtschaft und Professor an der Technischen Universität München.

Phänomen neuer Ausprägung“

Tausendjähriges Hochwasser – im Fachjargon als „HQ 1000“ bekannt – bedeutet, dass ein Gewässer auf einen Rekordpegel anschwillt, der im statistischen Schnitt nur alle tausend Jahre einmal erreicht wird.
In
Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu.
Nach historischen Aufzeichnungen könnte es im Jahr 1766 einmal eine ähnliche Wetterlage gegeben haben, doch genau klären lässt sich das nach Grambows Angaben nicht.
… Und technische Hochwasserschutzmaßnahmen gegen derartige Katastrophen sind nach Grambows Einschätzung allein aus Kostengründen quasi ausgeschlossen: „Es gibt keinen Staat der Welt, der auch nur annähernd versuchen würde, HQ1000-Ereignisse mit technischen Möglichkeiten zu bewältigen.“

Dieser Professor erzählt praktisch ununterbrochen von etwas „Tausendjährigem“. Ob er damit nur die Fluthöhe in Simbach oder das Niederschlagsereignis, oder beides meinte, lässt sich nicht genau ableiten. Es dürfte aber ziemlich sicher sein, dass sich die dpa und SZ auf diese Darstellungen beziehen.

Die Niederschlagsdaten in Simbach am besagten 1. Juni 2016

Es überrascht, aber im Datensatz des DWD mit Stundenauflösung fehlen an diesem wichtigen Tag die Messwerte von vier vollen Stunden. Anscheinend ist diese Messstelle den ganzen Vormittag vor dem Dammbruch (am Nachmittag) ausgefallen. Im Datensatz mit Tagesauflösung ist der Tag (inzwischen) mit -999 als fehlerhaft gekennzeichnet.
Im Bild 1 dazu die Daten der Messstelle Simbach und zusätzlich die von drei nahe gelegenen Messstationen

Bild 1 Niederschlags-Stundenwerte von Simbach und dreier Nachbarstationen vom 31.05. – 01.06.2016

Die fehlenden Daten der vier Vormittagsstunden am 01.06. der Messstelle Simbach lassen sich nicht aus den Nachbarstations-Messwerten rekonstruieren. Diese zeigen nur, wie extrem lokal begrenzt dieser hohe Niederschlag bei Simbach stattgefunden hat.

Aufgrund dieser „Datennot“ wurden die Werte deshalb anhand der Angaben aus einem DWD-Foliensatz [6] ergänzt. Darin ist für Simbach anhand von Radardaten ein Niederschlag für die zwei Tage (31.5. – 1.6.) von 180 mm angegeben. Obwohl Radardaten und Stationsmesswerte nicht direkt vergleichbar sind, wurde dieser Radar-Messwert zur Ergänzung des fehlenden Tageswertes am 1.6. verwendet:
Simbach 31.05.: Niederschlag 74,6 mm (DWD-Wert)

Simbach 01.06.: Niederschlag 106 mm (Ermittlung: lt. DWD 180 mm für zwei Tage, 180 mm – 74,6 mm = aufgerundet 106 mm)

Damit sehen die Niederschlagsgrafiken wie folgt aus: Bild 2 zeigt die Tageswerte seit dem Jahr 1952. Der Tageswert am 1.6.2016 ist hoch, erscheint aber bei Weitem nicht 1000-jährig selten zu sein.

Bild 2 Niederschläge Simbach Tageswerte 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt

Erst wenn man die Niederschlagssumme zweier Tage zusammen (Bild 3) als Maßstab nimmt, wird das Bild am 1.6. extremer und die zwei Tage ragen etwas weiter heraus. Jetzt muss man nur noch glauben, dass alle Niederschlagsspitzen der Vergangenheit genauer als die am 1.6. gemessen wurden und örtlich gleich verteilt erfolgten.

Wahrscheinlich liegt man mit der Aussage nicht weit daneben, dass seit 1954 ca. drei Mal ein vergleichbares Niederschlagsereignis stattgefunden hat. Und wenn man die Auszüge der Stadtchronik liest [4], gab es in der Vergangenheit regelmäßig schlimme Unwetter- und Flutereignisse von beiden Seiten, den umliegenden Bächen und vom Inn selbst, teilweise auch gemeinsam auftretend (was am 1.6. nicht der Fall war).

Bild 3 Niederschläge Simbach, 2-Tageswerte gleitend summiert, 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt

Nun zu umliegenden Messstellen mit längeren Niederschlags-Mess-Zeitreihen (Bilder 5-7).

Die Messwerte dieser umliegenden Stationen zeigen, dass Starkregen-Mengen der Vergangenheit öfters deutlich höher als die aktuellen waren und sie bestätigen die kleinräumige Verteilung des Ereignisses von Simbach.

Bild 4 Lage von Messstationen dieser Gegend mit weiter zurückreichenden Tageswerten

Bild 5 Niederschläge Pfarrkirchen, Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt

Bild 6 Niederschläge Simbach Zeilarm Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt

Bild 7 Niederschläge Rotthalmünster, Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt

Dazu eine noch längere Zeitreihe, natürlich aus einer anderen Gegend, aber relativ typisch für das Voralpenland.

An der Station Hohenpeißenberg sieht man ebenfalls die extreme Variabilität von Tagesniederschlägen – und dass das Jahr 2016 (welches vollständig im Datensatz enthalten ist) keine herausragende „Stellung“ einnahm. Niederschläge wie in Simbach gibt es auch dort.
Anhand der 2-Tages-Summen (Bild 9) sieht man, dass dies für 2-Tages-Ereignisse wie in Simbach sogar verstärkt gilt. Nebenbei zeigt dieses Bild, dass die Daten vor 1880 zu viele Lücken aufweisen, um mit den historischen Anfangsdaten (bis 1880) Aussagen zum Niederschlag durchzuführen.

Bild 8 Niederschlag Hohenpeißenberg seit 1801 – 2016. Grafik vom Autor anhand der DWD-FTP-Daten erstellt

Bild 9 Niederschlag Hohenpeißenberg seit 1801 – 2016, 2-Tages-Summen. Grafik vom Autor anhand der DWD-FTP-Daten erstellt

Was sagt der Deutsche Wetterdienst

Dieser hat nach den Ereignissen vom letzten Jahr zwei Schriften herausgegeben, welche sich etwas mit der Einstufung auseinandersetzen. Anbei Zitierungen daraus:
DWD: [9] Während die stündlichen Niederschlagsmengen der meisten Gewitter Wiederkehrzeiten unter zehn Jahren aufwiesen, lagen die Wiederkehrzeiten für die extremsten Stundensummen, abgeleitet aus den Radarmessungen, über 100 Jahre.

Das ist schon einmal ein Anhaltspunkt, unabhängig davon, wie der DWD die Vergleichs-Daten der letzten 100 Jahre ermittelt haben will, wenn selbst modernste Messstationen bei solchen aktuellen Ereignissen keine liefern und in der Not auf Radardaten zurück gegriffen werden muss.
Beim Versuch einer Trendermittlung zeigen sich dann Vermutungen, aber so richtig liegt kein belegbarer Trend vor.
DWD [10] Für den Sommer (meteorologisch sowie hydrologisch) lassen sich dagegen praktisch keine Trends identifizieren. Hier dominieren kurz- und längerfristige zyklische Variabilitäten. Zudem verlief die Starkniederschlagsentwicklung seit 1951 in den einzelnen Regionen sehr unterschiedlich, wodurch das indifferente Gesamtbild zu dieser Jahreszeit noch weiter verstärkt
wird. Lediglich für den hydrologischen Sommer und den höchsten ausgewerteten Schwellenwert ist für die Südhälfte Deutschlands eine leichte Zunahme erkennbar. Obgleich aufgrund des geringen Anstiegs nicht gesichert, ist dieses Ergebnis insofern beachtenswert, dass hier gerade der deutlich extremste Schwellenwert etwas heraussticht
… untermauern die charakteristisch hohe Niederschlagsvariabilität im Sommer, wo sowohl Zu, als auch Abnahmen des Starkniederschlages selbst an benachbarten Stationen auftreten können,
Andauern unterhalb von 24 Stunden
Für kürzere Dauerstufen von weniger als 24 Stunden liegen konkret für das Gebiet von Deutschland bislang noch recht wenige Erkenntnisse zum Trendverhalten von Starkniederschlägen vor. Zwar deuten Analysen von flächendeckenden Radardaten daraufhin, dass es in den vergangenen 15 Jahren zumindest regional eine Zunahme auch von Starkniederschlägen kurzer Dauer gegeben hat, jedoch sind diese Aussagen aufgrund der geringen Länge der Zeitreihen nicht sonderlich aussagekräftig.

Und es könnte mit Trends auch umgekehrt sein:
DWD [10] Gemäß erster Ergebnisse einer aktuellen Untersuchung dieser Daten weisen die hohen Niederschlagsschwellen der Dauerstufe 60 Minuten während der Monate Mai bis September in den meisten Regionen Deutschlands im Zeitraum 1965 bis 2015 häufiger einen negativen als einen positiven Trend auf.

Das beliebte Spiel, fehlende Daten mittels Simulationen zu erzeugen, klappt hier ganz und gar nicht:
DWD [10] Vergleich mit Klimaprojektionsergebnissen
Für den Sommer lassen sich auf Basis des im Rahmen dieser Untersuchung verwendeten Ensembles kaum Aussagen treffen, da die vier betrachteten Modelle die Änderung der Auftrittshäufigkeit von Starkniederschlägen widersprüchlich projizieren. Die Projektionen stimmen lediglich in der Aussage überein, dass der Anteil der Starkniederschläge am Gesamtniederschlag zukünftig steigen wird. Dabei bleibt aber offen, wie sich dieser Anstieg auf die Zunahmen von Häufigkeit und Intensität der Starkniederschläge verteilt.

Zum Schluss wird der DWD ganz „genau“ und sagt, dass derzeit nichts bekannt, aber alles möglich erscheint:
[10] Zum einen simulieren die Klimamodelle – wenn überhaupt – erst ab etwa 2020 eine leichte Zunahme. Zum anderen existieren zumindest für den süddeutschen Raum Anzeichen für einen geringfügigen Anstieg in den vergangenen rund 50 Jahren.
[6] Der Zeitraum ist aber (noch) zu kurz um „klimafeste“ Aussagen über die Verteilung des Starkregenrisikos oder gar über Trends abzuleiten.

Fazit

Nach den Angaben des DWD:
– könnte der Niederschlag bei Simbach ein 100-Jahre-Ereignis gewesen sein, obwohl in [6] steht: „Die Niederschlagssummen in Simbach liegen noch weit unter historischen Rekorden!“ und die Datenqualität für Starkniederschlag miserabel ist,
– ist es nicht möglich, einen Klimawandel-Bezug herzustellen, man kann ihn höchstens vermuten,
– ist über das Hochwasser, welches mitten durch die Stadt Simbach flutete nichts ausgesagt.

Verschlimmernd kommt hinzu, dass das Unwetter nicht – wie es die Klimatheorie verlangt – nach Hitzetagen erfolgte, sondern nach eher kühlem Wetter.

Der Simbach – kein Bach mit „immer nur 50 cm Wassertiefe“

Wenn „Fachleute“ sich etwas „nicht vorstellen können“ und von „nie gekannter Größe“ faseln, ist immer Vorsicht geboten. Oft ist das nur Ausdruck fehlenden Wissens.
Wer aufgrund der Schilderungen des Professors meint, der Simbach sei ein ruhig und gemütlich durch den Ort plätschernder Stadtbach und hätte noch nie Probleme bereitet, muss nur in die Stadtchronik schauen. Anbei ein Auszug daraus:
[4] Wieder nur 18 Jahre später kam die nächste Flutkatastrophe auf den Ort zu. Diesmal war der Simbach der Auslöser, der im Juli 1938 nach einem Gewitterregen derart anschwoll, dass er aus seinem Bett heraustrat und weite Teile Simbachs überschwemmte.
Und noch einmal nur 16 Jahre später, im Juli
1954, wurde Simbach von der nächsten Flutkatastrophe heimgesucht; diesmal aus einer Kombination von Simbach- und Inn-Hochwasser. Nach wochenlangem Regen trat zunächst am 8. Juli der Simbach über die Ufer und überschwemmte kurzzeitig von der Bach- über die Inn- und Gartenstraße den gesamten Ortskern. Das Wasser floss schnell wieder ab, doch nun wurde die Lage am Inn immer brenzliger. Am 9. Juli wurde dort die Hochwassermarke von 1899 überschritten. Immerhin gab es nun einen funktionstüchtigen Damm, doch auch dieser drohte jetzt, dem Wasser nicht mehr standhalten zu können.
Wie unberechenbar die Simbacher Gewässer bleiben, zeigt auch eine Einschätzung von Rudolf Vierlinger zur Hochwassergefahr durch den Simbach. Nach den Erfahrungen von 1954 wurde auch dieser aufwändig ausgebaut, um zu verhindern, dass er noch einmal über die Ufer tritt. Über die Baumaßnahmen, die 1958 abgeschlossen wurden, schreibt Vierlinger 1986: Was Jahrhunderte hindurch von vielen Generationen sehnlichst erwünscht wurde, ging endlich in Erfüllung. Die Bewohner der Stadt Simbach haben nun von dieser Seite her keine Gefahr mehr zu befürchten.
Doch nur fünf Jahre, nachdem diese Zeilen geschrieben wurden, zeigte der Simbach, dass er noch immer unberechenbar war. Nach heftigen Regenfällen schwoll er binnen kürzester Zeit so stark an, dass er am Abend des 31. Juli
1991 auch sein nun ausgebautes Bett verließ und sich als Wasserwalze durch die Straßen von Simbach schob. Wieder wurden weite Teile der Stadt überschwemmt, von den direkt am Bach gelegenen Straßen, über die Inn- bis weit hinein in die Gartenstraße.

Verbauung des Simbach

In [4] wurde es mit Details beschrieben, daraus ein paar Auszüge zur Information:
[4] Diplomarbeit 2007:

… Beim Simbach kann man davon ausgehen, dass Laufverkürzungen auf Grund von Begradigungen im Umfang von bis zu 50% vorliegen. Die ursprüngliche Länge betrug 13-15 km, wobei es heute nur noch etwa 10 km sind. Als absolutes Hauptproblem ist die Beeinträchtigung durch Begradigung des Flusslaufes zu sehen. Diese zog eine Eintiefung des Gewässerbettes nach sich und damit sind natürliche Ausuferungen kaum noch möglich. Es besteht kaum noch Raum für eine Retention der Hochwasserwelle und die Uferstreifen- und Rückhaltefunktion ist gestört, bzw. nicht vorhanden. Dazu kommt der fehlende oder untypische Uferbewuchs.
… Durch Sohl- und Uferverbau wird dem Gewässer sein Verlagerungspotential, seine Breiten- und Tiefenvariabilität sowie seine Strukturausstattung genommen (Abbildung 3.15)
… Weiterhin ist im Hochwasserfall eine geringe Retention (Abflachung der Hochwasserwelle) zu beobachten.

Beispiel eines damaligen Blogeintrags:
[4] … ich lebe seit mehr als 50 Jahren in Simbach. Ich weiß noch wie es hier Stück für Stück mehr und mehr zugebaut wurde. Bis zum letzten cm wird an die Bäche rangeackert. An jeden Hang werden Häuser gebaut und Bäume abgeholzt. So rutscht bei jedem Starkregen, und da müssen es nicht unbedingt 150l sein, immer mehr Dreck in die Bäche. Die Bäche werden immer mehr in kleine Backbette mit „Durchlässen“ gezwängt. Wasser sucht sich seine Bahn.
Ich habe in den letzten 30 Jahren dreimal erlebt das der Simbach die Dämme überflutet hat, aber so wie dieses mal war es noch nie. Noch nie wurde soviel Holz und Unrat mitgeführt und hat letztendlich alles platt gewalzt.

Ausserdem ist in Simbach ein Damm am Bach gebrochen der gerade saniert wurde, heißt, der war noch nicht mal richtig fertig. Da hatte das Wasser dann „leichtes Spiel“

Fazit
Die Gegend im Einzugsbereich des Simbach und auch der Bach selbst, sind mit dem historischen Zustand nicht mehr auch nur entfernt vergleichbar. Somit sind Vergleiche mit früheren Flutereignissen praktisch nicht mehr durchführbar.

Die Einschätzungen des Professors

Wie man bei einer solch konfusen (Niederschlags-)Datenlage und zwischenzeitlich erfolgten Verbauungen sowie Flächen-Nutzungsveränderungen herausbekommen will, dass das Ereignis Simbach Klimawandel-bedingt wäre und dazu noch ein Tausend-jähriges Ereignis darstellt, entzieht sich jeglicher rationalen Belegung. Zumindest die Daten, zu denen ein Privatbürger Zugang hat, geben es nicht im Ansatz her und auch vom DWD wird es nicht berichtet.

Dem Professor gelingt es jedoch, hemmungslos schlimmste Szenarien zu fabulieren.
[7] Prof. Grambow spricht von Megazellen, Extremhochwasser, nie gekannter Größe, Zerstörung, Überlastung und er sagt zugleich: „Unsere Befürchtung ist, dass solche Ereignisse in Zukunft wesentlich häufiger auftreten werden.“ „Handelt es sich denn dabei um ein Klima- oder ein Wetterphänomen?“ fragt Hans Ritt (CSU). Das sei unter Experten umstritten, sagt Grambow – wobei die Allermeisten der Ansicht seien, man habe es hier mit den Boten des Klimawandels zu tun. „Wenn es den Klimawandel gibt, dann schaut er genauso aus.“ Also Starkregen, Sturzfluten, Überschwemmungen, milliardenschwere Schäden und schlimmstenfalls Tote – darauf werden wir uns einstellen müssen.

Auch seine Aussage zum angeblich unvermeidlichen Dammbruch erscheint mehr als höchst fragwürdig, eigentlich gegen besseres Wissen. Denn es ist belegt [2], dass der gebrochene Damm überhaupt nicht als solcher gebaut wurde, sondern ein Planungsfehler der 70er Jahre war.
[2] SZ:Wer neue Katastrophen verhindern will, muss die alten analysieren. Damit haben die Simbacher nun begonnen. Das Verhängnis hat seinen Ursprung in den frühen Siebzigerjahren. Damals wurde im Simbacher Stadtnorden das Schulzentrum errichtet und mit ihm der Straßendamm für eine Verbindungsstraße zur Stadt – mit dem Rohr für den Bach darunter.

Seine Aussage „für hundertjährige Hochwasser ausgelegt“ trifft für diese gebrochene Talquerung damit auf gar keinen Fall zu.
[3] In Simbach waren mehrere Dämme gebrochen – doch das war nach dem Bericht des Wissenschaftlers bei einer Sturzflut dieses Ausmaßes auch unvermeidlich. Die Dämme in Simbach seien für hundertjährige Hochwasser ausgelegt und hätten solchen Belastungen auch schon standgehalten.
Schlussendlich dürfte aber nur die folgende Aussage im Landtag wichtig (und von ihm erwartet) gewesen sein. Denn wo käme man da hin, wenn betroffene Bürger Ansprüche anmelden könnten:
[7] … Obwohl der Experte Prof. Grambow nochmal betont, dass bei der Katastrophe in Simbach keine menschliche bzw. behördliche Versäumnis beteiligt war
Die weiteren Aussagen, wie:
[3] In Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu,
kann nach allen bisherigen – seitens eines Amateurs recherchierbaren Informationen – eigentlich nur noch als Schwachsinn bezeichnet werden. Denn seit wann ist der Bruch einer falsch gebauten Talquerung aufgrund von Überlastung – unter anderem, weil der Durchfluss verstopfte – mit folgender Flutwelle „ein Phänomen einer neuen Ausprägung“?
Solche „Phänomene“ gibt es rund um die Welt. Ungewöhnlicher ist, dass es diese auch in Deutschland immer wieder gibt.

Hierzu könnte man sich allerdings vorstellen, dass dieser Professor damit etwas ganz anderes ausdrücken wollte und menschliches Versagen und Dilettantismus bei solchen Infrastrukturmaßnahmen speziell für den bayerischen Landtag so umschrieben hat. Denn sonst hätte er dieses hohe Haus damit konfrontieren müssen, dass ihre vielen und teuren Maßnahmen zur CO2-Vermeidug (wie es Simbach so erfolgreich gemacht hat, dass es dafür einen Preis gewann) nichts nutzen, aber sinnvolle Maßnahmen in der Infrastruktur blockieren.

Leider ist diese Auslegung unwahrscheinlich. Der Herr Professor ist im Beirat und Mitglied in der Steuerungsgruppe der „Internationalen Expertengruppe zur Bewahrung des Erdsystems“ (IESP). Diese Expertengruppe ist (lt. WIKIPEDIA) mit Prof. Schellnhuber „verbandelt“ und firmiert unter anderem mit folgender Aussage:
ISPE-Faltblatt: Krisen bewältigen, die geographische Grenzen überschreiten Beispiel: Erderwärmung

Damit hat der Professor auch kein Problem damit, gemeinsam mit Professor Harald Lesch (auf EIKE kürzlich mehrfach kritisch rezensiert und auf kaltesonne) während einer Podiumsdiskussion die gesamte, gängige Klimaapokalypse „herunterzubeten“ und dabei noch zu behaupten, aus einer Beobachtungszeit seit 2007 signifikante Klimawandel-Zusammenhänge ableiten zu können.
TZ, 21.11.2016: [12] Dauerregen und Sturzfluten Folgen des Klimawandels
[12] H. Lesch: Auch für Bayern habe die Erwärmung Folgen. „Seit 1960 hat sich die mittlere Temperatur in Bayern um 1,6 Grad erhöht.“ Mehr Wärme bedeutet mehr Verdunstung. Und mehr Verdunstung bedeutet mehr Niederschlag. „Wasser in der Atmosphäre ist ein Terrorist“, sagte Lesch plakativ und meint damit die Energie, die bei der Kondensation frei wird. „Da oben ist der Teufel los.“ Die Menschen in Bayern müssten deshalb vermehrt mit heftigen Gewittern, Starkregen und Platzregen rechnen.
Prof. Grambow: [12] Wie neu diese extremen Regenfälle sind, erklärte Martin Grambow, Leiter der Abteilung Wasserwirtschaft im Umweltministerium und Professor an der TU München. „Wir verfolgen diese Extremereignisse seit 2007.“ Damals hatte eine Sturzflut das mittelfränkische Baiersdorf verwüstet. Starker Regen an sich sei noch nichts Neues. Aber dass sich diese mit Wasser aufgeladenen Tiefs schlagartig, „wie ein Eimer Wasser“, abregnen und das auch noch, ohne sich zu bewegen, sei in Baiersdorf oder in Simbach das Besondere gewesen. „Das haben wir früher in unseren Breiten nicht beobachtet“, sagte Grambow.

Wie weit Herr Lesch mit seiner Darstellung „… Und mehr Verdunstung bedeutet mehr Niederschlag“ daneben liegt, ist in [14] dargestellt. Daraus die relevanten Jahreszeit-Daten für Bayern. Seit dem Beginn der Messreihen hat sich am Niederschlag wirklich überhaupt nichts verändert. Herrn Lesch dürfte dies bekannt sein. Seine Aussagen dazu sind damit sehr vorsichtig formuliert „rational nicht erklärbar“. Dabei ist ein Standardsatz von H. Lesch in seinen Vorträgen: „Jeder hat das Recht auf eine eigene Meinung. Aber nicht auf eigene Fakten.

Bild 9.1 Frühling: Verlauf Temperatur (Bayern und Baden-Württemberg) und Niederschlag (Bayern) 1881 – 2016. Vom Autor aus den DWD-Daten erstellt

Bild 9.2 Sommer: Verlauf Temperatur (Bayern und Baden-Württemberg) und Niederschlag (Bayern) 1881 – 2016. Vom Autor aus den DWD-Daten erstellt

Erwärmung gleich mehr Niederschlag?

Es ist physikalisch richtig, dass wärmere Luft mehr Feuchte speichern kann. Nicht richtig ist die Ableitung daraus, damit würde es bei zunehmender Erwärmung immer mehr und stärker regnen (siehe die Bilder 9.1 und 9.2).
Erst kürzlich erschien ein Artikel, der über dieses Thema aufklärte:
EIKE: Über den Unterschied zwischen Energie, Arbeit und Leistung – und warum das für die Klima-Prophezeiungen eine Rolle spielt
Beispiele sind:
Die Sahara, sie war zur römischen Warmzeit feuchter als heute,
die Kalmengürtel, welche rund um die Welt trotz der Lage in heißen Zonen immer trocken sind,
der Sahel, der dank der Erwärmung feuchter wird (weil der Monsun nun wieder hinein gelangt).
Und die genannten Unwetter sind ein Beispiel: Sie erfolgten nicht nach Hitzetagen. Sie waren (lokal) trotzdem so extrem, weil kein Wind blies, der die Wolkengebirge weiter bewegte; wenig Wind, das das Gegenteil von dem, was zunehmen sollte.
Prof. Lesch hat das in seiner Ausführung geflissentlich „übersehen“. Er hat auch „übersehen“, dass seine Aussagen zum Niederschlag in Bayern langfristiger betrachtet nicht stimmen. Belegbar ist, dass der Niederschlag in Bayern sich seit 1880 in keiner Jahreszeit verändert hat, wie es in einer ganz aktuellen, umfangreichen Rezension anhand der Daten gezeigt ist:
EIKE: Der Klimamonitoringbericht 2016 für Süddeutschland,
EIKE: Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss
was auch international Gültigkeit hat:
kaltesonne: eine weitere seriöse Studie aus dem Dezember 2015 im Journal of Hydrology von van Wijngaarden und Syed konnte in den letzten mehr als 150 Jahren keine signifikanten Aufälligkeiten in den Niederschlägen entdecken, trotz des enormen klimatischen Wechsels von der Kleinen Eiszeit hin zur Modernen Wärmeperiode. Hier der Abstract:
Changes in annual precipitation over the Earth’s land mass excluding Antarctica from the 18th century to 2013

Der DWD stellt es deshalb auch wesentlich vorsichtiger und differenzierter dar:
[12] … Allerdings spielen bei der Niederschlagsbildung eine ganze Reihe weiterer Faktoren und Prozesse … eine wesentliche Rolle. Dementsprechend ist zumindest mit regionalen Unterschieden zu rechnen. Nicht überall werden die Niederschläge im gleichen Maße zunehmen, in manchen Gebieten könnte es durchaus auch trockener werden.
Was der DWD hier verklausuliert sagt, ist die Tatsache, dass die Simulationen beim Niederschlag grandios versagen:
EIKE: Klimamodelle rekonstruieren Niederschlagsentwicklungen nur mit gröbsten Fehlern

Zu Prof. Grambows Bemerkung lässt sich nur ergänzen: Wie wollte man so extrem lokal begrenzte Starkniederschläge früher beobachten, wenn es erst heute mittels Wetter-Radar im Ansatz gelingt?

War das „Ereignis Simbach“ damit ein 1000-Jahre Klimamenetekel

Nach Überzeugung des Autors auf gar keinen Fall. Nicht einmal, dass es ein 100-jähriges gewesen sein könnte, wie man aus der DWD-Schrift vielleicht ableiten könnte, ist wahrscheinlich, zumindest ebenfalls nicht belegbar.

Begründungen:
-Die Daten seit 1951 (länger zurückreichend aus der Gegend fand der Autor nur einen Datensatz bis zum Jahr 1931) geben es nicht her.
-Die Stadtchronik gibt es nicht her (sie berichtet von schlimmsten Fluten in der Vergangenheit)
-Die in jüngerer Zeit erfolgten Verbauungen des Bach-Oberlaufs und massiven, landwirtschaftlichen Veränderungen der Flächen (welche schon vorher von Personen als Hochwasser-Gefahr beschrieben wurden [4]) geben es nicht her
-und die gebrochene Talquerung, welche nie als Damm gedacht war, schon gar nicht.
-Daten vor ca. 1890 sind – wie das Beispiel Hohenpeißenberg zeigt – beim Niederschlag sehr lückenhaft und lassen keine wirkliche Analyse zu.
Daten über 1000 Jahre, welche zur Belegung eines solch kleinflächigen, nur mittels moderner (selbst aktuell noch mit Schwächen behafteten) Radartechnik rekonstruierbaren Ereignisses dienen könnten, erscheinen dem Autor nicht möglich. Dem DWD liegen solche wohl auch nicht vor – sonst hätte er es in seinen Publizierungen erwähnt.

Trotzdem wird es wohl so kommen, dass die „Tausend-Jahre“ Darstellung des Professors bald auf WIKIPEDIA und in Schulbüchern auftaucht.
Nachdem ein deutsches Gericht festgestellt hat, dass die Meldung einer Presseagentur als „wahr“ angenommen werden darf und nicht mehr überprüft werden muss, begeht damit auch niemand eine Falschaussage, oder wird seiner Verantwortung, solche zu vermeiden nicht gerecht.
Die SZ zeigte, wie es funktioniert und warum man diese Zeitung in Foren häufig als „Alpenprawda“ bezeichnet: Obwohl sie selbst vom Dammbruch berichtete, wurde dieses Wissen danach „vergessen“ und von der Flut, welche „ … alle 1000 Jahre vorkommt“ [1], fabuliert.

Es kann natürlich sein, dass es wieder 1000 Jahre dauert, bis in Simbach vor dem Ort ein Damm bricht und nochmals eine
5 m hohe Flut durch den Ort rast. Vorher konnte es nicht vorkommen, da diese Talquerung erst in den siebziger Jahren gebaut wurde. Mit der nötigen Phantasie lassen sich für das 5 m Flutereignis somit jedoch beliebige „Statistikwerte“ fabulieren, nur hat keiner davon etwas mit einem Klimawandel zu tun.

Der Katastrophenalarm

Es erschüttert zudem, dass im Hochtechnologieland Deutschland es nach Tausend Jahren noch nicht möglich ist, vor einem Starkregenereignis zu warnen. Man kann es zwar schon so langsam erkennen, doch dann kann eine Behörde noch lange nicht informieren. Zwar gibt es überall Sirenen und inzwischen auch andere Kommunikationsmittel, doch aus irgend einem Grund wird zwar ununterbrochen vor der Temperatur im Jahr 2100 gewarnt, vor einem aktuellen Starkregen rechtzeitig zu warnen ist aber anscheinend nicht zulässig, weil die Zuständigkeiten ungeklärt sind.
Wie lief der Katastrophenalarm am 01.06.2016 ab?
Eine kleine Recherche zeigt exemplarisch, wie damit in einer Gegend, welche seit Menschengedenken ständig von Fluten bedroht ist, umgegangen wird. Man erinnere sich daran, dass die Starkregenfälle in Bayern und Württemberg bereits einen Tag zuvor begannen und jedem Sachkundigen klar war, dass die Unwetterlagen mangels Wind lokal abregnen würden.
Der Tag davor:
inFranken.de, Meldung vom 31.05.2015: Schwere Unwetter in Bayern – Verwüstungen in Region Ansbach
Feuerwehrfahrzeige stehen am 29.05.2016 in Ansbach (Bayern) an einer überfluteten Straße vor einem Haus. Schwere Regenfälle hatten zu Überschwemmungen geführt.

Am 01.06.2016 bei Simbach.
tz: [12] … Nein, vorbereitet sei er auf dieses Ausmaß natürlich nicht gewesen, sagt Hans Prex, Kreisbrandrat im Landkreis Rottal-Inn. Der Morgen des 1. Juni begann für den Feuerwehrmann mit einem scheinbar banalen Einsatz. Im Gemeindegebiet von Ering war eine Herde Schafe vom Wasser eingeschlossen. „Erst nach und nach haben wir gemerkt: Das hört ja gar nicht mehr auf zu regnen.“ Rinnsale, die im Juni normalerweise ausgetrocknet sind, hatten auf einmal einen Wasserstand von einem Meter. „Um 12 Uhr mittags habe ich den Landrat angerufen“, sagt Prex, „und ihn gebeten, den Katastrophenalarm auszulösen.
Ausgelöst wurde der Katastrophenalarm dann ca. 2 1/2 Stunden später. Da war die Talquerung vor Simbach aber schon gebrochen.
[15] Passauer Neue Presse: Um 14.30 Uhr hat das Landratsamt Rottal-Inn den Katastrophenfall ausgerufen.

Dabei ist das Thema unzureichender Warnungen und Maßnahmen längst bekannt. Herr Kachelmann hat ein Jahr zuvor mangelnde Unwetterinformation bereits massiv bemängelt:
12Jun 14: Das Unwetter, Kachelmann, der WDR — und der Fluch der Routine

… Der WDR will künftig bei drohenden Unwettern seine Zuschauer mit Einblendungen im laufenden TV-Programm warnen. Das ist eine Lehre, die der Sender aus den Abläufen am Pfingstmontag gezogen hat. Mehrere Menschen in Nordrhein-Westfalen waren an diesem Tag bei außerordentlich heftigen Unwettern ums Leben gekommen; Kritiker wie Jörg Kachelmann hatten dem WDR vorgeworfen, dafür eine Mitverantwortung zu tragen, weil er in seinen Programmen nicht angemessen gewarnt habe.
In einer größeren Kolumne ist das ganze Informationsdrama ausführlich dargestellt:
TYCHIS EINBLICK, 31. Mai 2016: Wetterwarnung kann der ÖR nicht, nur Klimawandel Sturzbäche und das Fernsehen.

Wie oft, haben Fachpolitik-Kräfte höherer Hierarchien aber äußerst sachkundige und hilfreiche Lösungsvorschläge parat:
[4] Frau Hendricks: … aber für Überschwemmungsgefahren durch Bäche und kleine Flüsse seien die Landesbehörden zuständig. In Zukunft müsse dort der Katastrophenschutz angepasst werden. So müsse beispielsweise innerhalb einer Stunde gewarnt werden. „Darauf sind wir noch nicht eingestellt“, sagte Hendricks. Dafür sollten die lokalen Behörden etwa auch Lautsprecherwagen durch die betroffenen Gebiete schicken.

Da will die bayerische Umweltministerin nicht nachstehen. Sie umschreibt bisheriges Versagen und Unvermögen allerdings wesentlich eleganter und vor allem zeit(geist-)gemäßer. Vor allem weiß sie sehr genau, wie man sich von Verantwortung entlastet und elegant delegiert.
[16] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz, PRESSEMITTEILUNG:
Auf Initiative von Umweltministerin Scharf hat das Kabinett im Sommer eine weitere Stärkung des Hochwasserschutzes in den Regionen beschlossen: Neben 30 neuen Stellen für die Wasserwirtschaftsverwaltung wird eine zusätzliche Komponente „Sturzfluten“ in das Hochwasserschutz-Aktionsprogramm 2020plus aufgenommen. An zusätzlich 20.000 Kilometern Gewässer Dritter Ordnung, für die die Gemeinden zuständig sind, werden darüber hinaus neue Hochwassergefahrenkarten erstellt. Insgesamt stehen in den kommenden beiden Jahren zusätzlich 12 Millionen Euro zur Verfügung. Der Umgang mit Sturzfluten erfordert das erfolgreiche Zusammenspiel verschiedener Bereiche wie Wasser- und Baurecht, Landwirtschaft und Katastrophenschutz. Deshalb hat das Bayerische Umweltministerium heute das interdisziplinäre Symposium „Herausforderung Starkregen im Zeichen des Klimawandels“ in der Residenz in München organisiert. Scharf: „Der Mensch steht im Mittelpunkt unseres Handelns. Der intensive Dialog ist ein wichtiger Schritt zu mehr Sicherheit für unsere Bürger. Wir brauchen das Erfahrungswissen vor Ort genauso wie den engen Schulterschluss zwischen Klimaforschung und Entscheidern.“ Rund 300 Betroffene, Experten und Vertreter der Politik haben gemeinsam auf die Ereignisse im Sommer 2016 zurückgeblickt, zukünftige Auswirkungen und Herausforderungen des Klimawandels beleuchtet und Handlungsmöglichkeiten zur Vorsorge diskutiert.

1000 Jahre können auch genau anders herum enden: Es hängt nicht vom Klima, nicht vom CO2, sondern alleine von denkenden Menschen ab

Das Beispiel der Flutereignisse in Nürnberg (Bild 10) zeigt, wie solche „Tausend-jährige“ Ereignisse auch genau anders herum verlaufen können. Seit Beginn des „schlimmen Klimawandels“ gab es nicht einmal mehr mittlere Hochwasser (enden 1958), obwohl statistisch längst ein katastrophales und mehrere große hätten erscheinen müssen. Kennt Nürnberg damit keinen Klimawandel?
Selbstverständlich hat es „einen“, zumindest der Klimaschutzmanager der Stadt ist sich da ganz sicher und weiß viel Rat und Tat dazu:
Stadt Nürnberg, Homepage: Wir machen das Klima
Das Referat für Umwelt und Gesundheit engagiert sich seit langem für den Schutz unseres Klimas und seit 2009 auch für die Anpassung an den nicht mehr zu vermeidenden Klimawandel.
Dafür sind auch gewaltige, „sicher“ klimawirksame Maßnahmen in Umsetzung:
Stadt Nürnberg, Homepage: An morgen denken: Nürnbergs Strategie zum Klimaschutz
Die Stadt Nürnberg hat die künftige Entwicklung des Strom- und Wärmeverbrauchs untersucht und darauf aufbauend Maßnahmen bestimmt, um auch in Zukunft die Lebensqualität der Bürgerinnen und Bürger zu sichern
Klimaschutzfahrplan 2010 – 2020
Der Klimaschutzfahrplan 2010-2020 hat das Ziel, bis 2020 die CO2-Emissionen um 40 % gegenüber 1990 zu verringern.

Ohne der Stadt Nürnberg irgendwie nahe treten zu wollen, dürfte jedoch der einzige, wahre Grund für die „Klimaruhe“ sein, dass bereits Anfang 1900 (nach einem katastrophalen Hochwasser) mit der Planung eines Flutüberleiters begonnen wurde, der endlich 1958 fertig gestellt war. Und ein Wunder (oder Vorhersehbares) geschah: Seitdem gibt es dort keine Hochwasser-bedingten Überflutungen mehr.

Die Nürnberger können damit nur ihren Altvorderen danken, dass diese damals noch nicht auf deutsche Klima(hysterie-)professoren, UmweltministerInnen und KlimaschutmanagerInnen gehört haben und nicht zuerst mit der CO2-Vermeidung begannen (wie es Simbach in jüngerer Zeit vor-gemacht hat).

Bild 10 [4] Stadt Nürnberg Hochwasserereignisse von 1350 bis 2016. Daten vom Autor als Ereignisgraphik umgesetzt
Es ist nun (fast) etwas gemein, die Info zu wiederholen. Aber die Stadt Würzburg zeigte einmal exemplarisch, dass Schildbürger niemals aussterben.

Bild11 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013. Grafik vom Autor anhand der Datentabelle der Stadt Würzburg erstellt.

Trotz der bekannten und wirklich eindeutigen Hochwasser-Pegelstände des Main (Bild 11), legte man das Afrikafestival 2013 in die Hochwasserzone und wunderte sich dann, dass ein wirklich nur ganz kleines wie zu erwarten war, auch kam. Selbstverständlich war daran dann „der Klimawandel“ schuld.

DIE WELT, 05.12.14: Würzburg (dpa/lby): Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte Festivalleiter … am Freitag in Würzburg.
Gegen den Klimawandel helfen eben leider keine Fakten, weshalb man auch schon lange keine Fachleute mehr fragt:
Aussage des Wasser-Wirtschaftsamtes Würzburg: [13] „Die Hochwasser jüngeren Datums nach 1909 sind historisch unbedeutend (20-Jahre Ereignisse)

Wenn es den Klimawandel gibt, dann schaut er genauso aus

Zurück zum Ursprungs-Thema. Im Fabulieren von Klimaapokalypsen ist der Professor offensichtlich geübt:
[7] man habe es hier mit den Boten des Klimawandels zu tun. „Wenn es den Klimawandel gibt, dann schaut er genauso aus.

Im Bayerischen Landtag kann man die Wirkung solcher Sprüche problemlos testen, denn versehentlich vorhandene Kenntnis zum Thema ist dort eher nicht zu erwarten [2] und sollten doch Reste „herumsitzen“, würden diese sich nicht gegen die Parteidoktrin „outen“.
Anmerkung: Da die CSU-Umweltministerin (wohl mangels Kenntnissen) und alle anderen Oppositionsparteien (mangels einer eigenen Meinung) beim Klimawandel in aller Regel die Überzeugung der GRÜNEN pflegen, eher noch versuchen, diese zu übertrumpfen, reicht es, deren Aussage als Beispiel zu nennen. Nach einem sinnvoll erscheinenden Vorspann enden diese, wie nicht anders zu erwarten war:
[8] Bündnis 90 DIE Grünen: Lehren aus der Flutkatastrophe 2016
… Langfristig muss natürlich die Ursache dieser Starkregenereignisse benannt und bekämpft werden: der menschengemachte Klimawandel. Wir setzen uns dafür ein, die erarbeiteten Ziele der Klimakonferenz endlich in Nationales Recht zu gießen und umzusetzen.

Nachdem der Professor bis auf das Jahr 1766 zur Belegung zurückging, anbei eine informelle Listung, wie das angeblich „vorindustrielle, natürliche Ideal-Klima“, welches aktuell auch vom „Bayerischen Landtag“ herbeigesehnt wird, damals erlebt und der Nachwelt übermittelt wurde.

Quelle: Die inzwischen geschlossene Seite: www.wetterklimafakten.eu
1651: wohl extremst feuchtes Jahr in ganz Europa, Hungersnot. 26.2. „Petriflut“ Nordsee, Tausende Tote, Juist und Langeoog zerrissen ,Landverluste
1657/58: sehr kalter Winter
1658: Folge des kalten Winters: viele Überschwemmungen, Feb: großes Rhein-Hochwasser, Köln 12,07 m Pegel
1661: 22.9. : Überschwemmungen in Spanien. In Malaga 3.000 eingestürzte Häuser, Tausende Tote
1665: sehr heißer Sommer
1666: wieder sehr heißer Sommer, Hitze und Dürre, ausgetrocknete Flüsse, verdorrte Felder (wohl der heißeste des sonst kalten Jahrhunderts)
1669: 16.4.: Heftiger Regen löst Bergsturz in Salzburg aus, 300 Tote (seitdem gibt es den Beruf des „Bergputzers“)
1675: 4./5.11.: Sturmflut Holland, Tausende Tote, viele Zerstörungen
1682: wohl sehr feuchtes Jahr, viele Überschwemmungen überall, Donauhochwasser im Sommer
1687: Sommer: gewaltige Regenfälle Westeuropa, Überschwemmungen
1693: 24.6.: 24-stündiges Gewitter zerstört große Teile Kölns
1703: 26.11.: schwerster Sturm der englischen Geschichte, 8.000 Tote, 14.000 Obdachlose
1708/09: sehr kalter Winter Westeuropa, bis zu 100.000 Tote. Einer der kältesten Winter überhaupt. 10 Wochen alles gefroren
1717: Weihnachtsflut Nordsee, 20.000 Tote
1719: Sommer: Dürre und Hitze Europa: Ausgetrocknete Flüsse
1720: Katastrophales Lawinenjahr in den Alpen, viele Tote
1735: Gewaltige Überschwemmungen in Russland. Tausende Tote, ganze Dörfer und Städte weggeschwemmt. (Vielleicht die schlimmste Flutkatastrophe dort überhaupt)
1742: 5.6. großes Donauhochwasser
1768: Indien: Extrem-Monsun, riesige Überschwemmungen. Danach bleibt der Monsun 2 Jahre lang aus.
Erste genauere Wettermeldungen aus den USA setzen ein: Die lange Reihe von Hurrikan-Meldungen beginnt, jährlicher Wechsel der Häufigkeit, kein Unterschied zu heute.

Quellen

[1] Süddeutsche Zeitung, 30. Dezember 2016: Das zerstörerische Hochwasser hat die Seelen überflutet

[2] EIKE 06.07.2016: Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag

[3] WELT N24, 16.06.2016 : Die Analyse der Simbacher Sturzflut ist beunruhigend

[4] EIKE 09.06.2016: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen

[5] FOCUS ONLINE 03.06.2016: Simbach am Inn Verstopftes Rohr löste offenbar Flutwelle aus

[6] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[7] Bayerischer Landtag, Donnerstag, 16. Juni 2016: Hochwasser in Simbach und Maßnahmen gegen weitere Katastrophen

[8] Bündnis 90 DIE Grünen: Lehren aus der Flutkatastrophe 2016
[9] DWD Schrift, Dr. Markus Ziese at al., Stand: 03.06.2016: Andauernde Großwetterlage Tief Mitteleuropa entfaltet Ihr Unwetterpotential mit starken Gewittern und massiven Schadensgeschehen in Deutschland
[10] DWD Schrift, Paul Becker at al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung
[11] Deutschlandfunk 12.09.2016: Klimawandel Deutsches Klimakonsortium warnt vor Starkregen in Deutschland
http://www.deutschlandfunk.de/klimawandel-deutsches-klimakonsortium-warnt-vor-starkregen.697.de.html?dram:article_id=365651

[12] TZ, 21.11.2016: Dauerregen und Sturzfluten Folgen des Klimawandels: Wie gut ist München geschützt?
https://www.tz.de/muenchen/stadt/folgen-klimawandels-da-oben-ist-teufel-los-7001100.html

[13] Umweltamt der Stadt Würzburg – Wasserwirtschaftsamt, Publikation: Historische Hochwasser am Main
http://www.wuerzburg.de/2007/m_10317

[14] EIKE 16.01.2016: Der Klimamonitoringbericht 2016 für Süddeutschland

[15] Passauer Neue Presse, 01.06.2016: Hochwasser: Simbach „Land unter“ – Katastrophenfall ausgerufen
http://www.pnp.de/region_und_lokal/landkreis_rottal_inn/pfarrkirchen/2093679_Hochwasser-Simbach-Land-unter.html

[16] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz, 21.11.2016 PRESSEMITTEILUNG Nr. 215/16




Über einen vergeblichen Versuch, unsere Welt vor der Dekarbonisierung zu retten

Ein Warnhinweis vorweg: Wenn Sie Anhänger der „Klimareligion“ sein sollten, könnte der nachfolgende Artikel bei Ihnen zu schweren Beeinträchtigungen bis hin zur Schnappatmung führen.

Jede wissenschaftliche Theorie und jedes wissenschaftliche Theorem kann durch einen einzigen schlüssigen Gegenbeweis widerlegt werden. Und jetzt stellen Sie sich einmal vor, sie hätten einen ganz eklatanten Widerspruch in einer wichtigen physikalischen Berechnung entdeckt, der die Welt, so wie sie uns erklärt wird, nachhaltig verändern würde – oder besser ausgedrückt, Sie glauben entdeckt zu haben, dass es gar nicht notwendig wäre, unsere Welt durch eine Dekarbonisierung bis zum Jahre 2100 vor einer menschengemachten Klimakatastrophe zu retten.

Denn der langfristige Blick in unsere Zukunft wird überschattet von der im Pariser Klimaabkommen vereinbarten Großen Transformation durch eine globale planwirtschaftliche Dekarbonisierung der Welt bis zum Jahre 2100. Mit einer solchen globalen „Energiewende“ hin zu „erneuerbaren Energien“ will die Weltgemeinschaft einer befürchteten „Selbstverbrennung“ unserer Erde entgegenwirken.

Aber ganz so einfach ist das nun auch wieder nicht mit der Weltrettung, denn dazu müsste man ja nicht nur eine sehr mutige wissenschaftliche Vereinigung finden, die ein solches Papier überhaupt zur Diskussion stellt, sondern diese Erkenntnis auch noch einer interessierten Öffentlichkeit zugänglich machen. Man müsste also kritische Meinungsmultiplikatoren davon überzeugen, diese Erkenntnis einer öffentlichen Diskussion zuzuführen. Aber das ist in einer Zeit von „Fake-News“ natürlich immens schwierig, wenn man keine zitierfähigen wissenschaftlich überprüften Ergebnisse zur Stützung dieser neuen Erkenntnis vorweisen kann. Naja, vielleicht können die’s dort ja einfach nicht glauben, nachdem sie jahrzehntelang gegen den Klimaalarm angekämpft haben. Der Autor selbst muss sich ja auch immer wieder mal davon überzeugen, dass er seine Argumentationskette wirklich korrekt hergeleitet hat. Offenbar ist es für uns Menschen sehr schwierig einfach loszulassen, wenn wir irgendetwas erst einmal richtig verstanden zu haben glauben …

VON NIX KOMMT NIX

Der politische Einfluss des WBGU: Die gefährlichen Weissagungen des Papstflüsterers

Über Einsteins Relativitätstheorie sagt man ja, es habe einstmals bei ihrer Veröffentlichung weltweit keine Handvoll Physiker gegeben, die sie spontan verstanden hätten. Da wäre also ein sogenanntes Peer-Review zur Überprüfung dieser Theorie völlig sinnlos oder als Voraussetzung für eine Veröffentlichung sogar kontraproduktiv gewesen. Bei der oben erwähnten Entdeckung ist es dagegen sehr viel einfacher, weil es eben nicht um ganz neue Physik geht, sondern lediglich um die korrekte Anwendung eines bereits bekannten und allgemein anerkannten physikalischen Gesetzes. Und deshalb müsste es weltweit auch einige Hunderttausende mit universitärer Ausbildung in Physik geben, die eine solche Fehlanwendung des Stefan-Boltzmann Gesetzes Kraft ihrer eigenen physikalischen Kenntnisse beurteilen können müssten – also schaunmermal, ob die nachfolgende Argumentation am Ende vielleicht doch noch irgendjemanden überzeugen kann:

 

Der angebliche Treibhauseffekt unserer Atmosphäre ist das Ergebnis einer unzulässigen Verknüpfung eines Durchschnittswertes aus der globalen Energiebilanz mit dem Stefan-Boltzmann Gesetz aus der Physik, das aber wiederum für die Berechnung der sogenannten Schwarzkörpertemperatur zwingend einen stabilen thermischen Gleichgewichtszustand fordert.

Die vorgeblich vom Menschen verursachte „Globale Erwärmung“ basiert auf einer Verstärkung des atmosphärischen Treibhauseffektes durch den vom Menschen verursachten CO2-Ausstoß, Zitat zum Treibhauseffekt aus Wikipedia, dort unter „Energiebilanz“, mit eigenen Hervorhebungen:

… Sogenannte Energiebilanzen werden mit einem Mittelwert der Einstrahlung auf die Erdoberfläche gerechnet: Die Erde erhält Solarstrahlung auf der Fläche des Erdquerschnitts πR 2 und hat eine Oberfläche von 4πR2. Diese beiden Flächen haben ein Verhältnis von 1:4. Das heißt, wenn 1365,2 W/m² auf die Erde einstrahlen und in Erd-Oberflächentemperatur umgesetzt würden, könnte die Erdoberfläche durchschnittlich 341,3 W/m² auch wieder abstrahlen.
…Würde der Erdboden nur von einer Strahlung in Höhe von 239 W/m² bestrahlt, so würde die Erdoberfläche im Mittel eine Temperatur von etwa -18 °C annehmen, wenn sich die Wärme gleichmäßig über die Erde verteilen würde.

Aber es gibt eine weitere Bestrahlung durch die aufgeheizten Treibhausgase mit 333 W/m², die so genannte atmosphärische Gegenstrahlung. Damit absorbiert die Erdoberfläche insgesamt 161 W/m²+333 W/m²=494 W/m² – und die werden bei der tatsächlichen mittleren Erdoberflächentemperatur von +14 °C auf mehreren Wegen abgegeben…“

Ein „atmosphärischer Treibhauseffekt“ als ein Prozess zusätzlicher thermischer Aufheizung unserer Erde um etwa 33 Grad aus sich selbst heraus durch eine vorgebliche „atmosphärische Gegenstrahlung“ steht aber in völligem Widerspruch zu den Gesetzen der Thermodynamik, nach denen jegliche Art von Energieerzeugung aus dem Nichts (Perpetuum Mobile) unmöglich ist.

Dazu ein erklärendes Beispiel: Stellen Sie sich einmal vor, Sie hätten in Ihrem Haus zwei Räume und würden in einem dieser Räume einen Ofen mit einer festen Heizleistung aufstellen, die Tür zwischen beiden Räumen wäre offen. Dann würden Sie berechnen, wie stark dieser Ofen beide Räume gemeinsam – ohne die trennende Wand – erwärmen könnte und in dem erwärmten Raum nachmessen. Die Differenz zwischen der im geheizten Raum gemessenen höheren Temperatur und der niedrigeren theoretischen Temperatur für beide Räume würden Sie dann als „Treibraumeffekt“ bezeichnen und Ihrem Ofen eine zusätzliche Heizleistung zusprechen.

In ganz ähnlicher Weise wird der „natürliche Treibhauseffekt“ unserer Erde berechnet. Bei der konventionellen Herleitung des Treibhauseffektes aus dem Stefan-Boltzmann Gesetz werden nämlich gleich zwei gravierende Fehler gemacht, wie im Vergleich mit dem obigen Zitat aus Wikipedia zur Erklärung des Treibhauseffektes sofort deutlich wird:

  • Erstens wird die einfallende Sonneneinstrahlung im Stefan-Boltzmann Gesetz rechnerisch auf eine doppelt so große Fläche verteilt (gesamte Erdoberfläche = 4πR2), als die tatsächliche aktive Fläche beträgt, auf der die Sonne temperaturwirksam ist (Tagseite der Erde = 2πR2). Dadurch wird dann die Schwarzkörpertemperatur der Erde nur aus der halben spezifischen Energieeinstrahlung (also aus ¼ anstelle von tatsächlich ½ der Solarkonstanten) berechnet, woraus sich dann zwangsläufig eine viel zu niedrige Schwarzkörpertemperatur ergibt.
  • Zweitens wird bei diesem Ansatz der im Stefan-Boltzmann Gesetz zwingend geforderte thermische Gleichgewichtszustand zwischen Einstrahlung und Abstrahlung durch die Einbeziehung der sich ständig abkühlenden Nachtseite der Erde vernachlässigt. Man rechnet dort nämlich einfach mit dem Mittelwert aus der oben zitierten Energiebilanz für die ganze Erde.

Dieser konventionelle Ansatz für die Schwarzkörperberechnung unserer Erde unter Einschluss der Nachtseite wäre aber nur dann richtig, wenn es zwei Sonnen mit der halben Strahlungsleistung unserer Sonne gäbe, die jeweils eine Hälfte der Erde beleuchten würden – allerdings wüssten wir dann wiederum nicht, wie hoch in diesem Fall die tatsächlich gemessene Durchschnittstemperatur der Erde wäre.

Anmerkung: Hier stellt sich übrigens spontan die Frage, wie denn eigentlich die Sonneneinstrahlung in den aktuellen Klimamodellen behandelt wird, lediglich als ein globaler Durchschnittswert oder mit dem tatsächlichen Wechsel von Tag und Nacht?

Bei unserer halbseitig von der Sonne erwärmten Erde kann man nun aber im Gegenteil nicht ernsthaft behaupten, dass an jedem beliebigen Ort ein einheitliches Temperatur-Gleichgewicht herrscht, denn die Nachtseite der Erde kühlt sich ja ständig ab. Wir können also an jedem beliebigen Ort der Erde unterschiedliche Tag- und Nachttemperaturen messen. Damit stellt sich die Frage, welche gemessene Temperatur wir dann als Vergleich zur berechneten Schwarzkörpertemperatur heranziehen sollen, die Tag- oder die Nachttemperatur oder eine willkürliche Kombination aus beiden – und wenn ja, welche? Auf diese Frage gibt das Stefan-Boltzmann Gesetz aber gar keine Antwort.

Bei einem halbseitig beleuchteten Körper wie der Erde darf man vielmehr wegen des im Stefan-Boltzmann Gesetz zwingend vorgegebenen thermischen Gleichgewichts die unbeleuchtete Nachtseite gar nicht in die Berechnung der theoretischen Schwarzkörpertemperatur einbeziehen. Denn die Randbedingungen dieses Gesetzes schreiben ausdrücklich einen stabilen Gleichgewichtszustand zwischen eingestrahlter und abgestrahlter Energiemenge vor. Oder anders ausgedrückt, das Stefan-Boltzmann Gesetz ist trotz seiner mathematischen Formulierung eben keine beliebige Gleichung, sondern ein physikalisches Gesetz, das einen strengen Gleichgewichtszustand beschreibt. Man darf es also nicht als platte Rechenanweisung verstehen, um aus jeder beliebig gemittelten Strahlungsmenge irgendeine Temperatur oder umgekehrt aus jeder beliebig gemittelten Temperatur irgendeine Strahlungsmenge zu errechnen.

Vielmehr steht das Gleichheitszeichen im S-B Gesetz als zwingende Bedingung für ein ganz bestimmtes Verhältnis von Strahlung und Temperatur, nämlich für ein stabiles thermisches Gleichgewicht. Man muss dieses Gleichheitszeichen im Stefan-Boltzmann Gesetz also so verstehen, dass sich erst in einem solchen thermischen Gleichgewichtsfall die dort in Form einer Gleichung vorgegebene Relation zwischen Strahlungsmenge und Temperatur einstellt.

Anmerkung: Wenn Sie diese Aussage nicht glauben wollen, dann suchen Sie im Internet doch bitte einmal nach einer „Stefan-Boltzmann Gleichung“. Sie werden dann in ungefähr 0,22 Sekunden 11.600 Ergebnisse ausschließlich für das Stefan-Boltzmann-Gesetz erhalten; denn eine „Stefan-Boltzmann Gleichung“ gibt es nicht…

Wenn also die Schwarzkörpertemperatur unserer Erde bisher tatsächlich falsch berechnet worden sein sollte und damit der atmosphärische Treibhauseffekt lediglich auf einen Rechenfehler zurückzuführen wäre (hier ab Seite 19), dann hätte das natürlich ganz unmittelbare Konsequenzen für den globalen Klimaalarm:

  • Kohlenstoffdioxid (CO2) wäre plötzlich gar nicht mehr der böse Klimakiller, zu dem es in den vergangenen Jahrzehnten panikheischend aufgebaut worden ist, sondern würde wieder zur Quelle alles Lebens auf unserer Erde.
  • Der Plan für die „Dekarbonisierung“ unserer Welt bis zum Jahre 2100 um jeden Preis wäre hinfällig geworden. Und somit bräche die gesamte Klimareligion zusammen und damit auch die Sinnfälligkeit für Ablasszahlungen nach dem „Erneuerbare Energien Gesetz“ (EEG).
  • Die sogenannte „Energiewende“ mit zwei voneinander unabhängigen Erzeugungssystemen für elektrischen Strom, nämlich konventionelle und „erneuerbare“ Stromerzeugung parallel nebeneinander, würde als das entlarvt, was sie tatsächlich ist, nämlich vom Standpunkt der Wirtschaftlichkeit, Nachhaltigkeit und Ressourcenschonung ein völliger Irrwitz.

Ohne einen atmosphärischen Treibhauseffekt stünden also plötzlich all die politischen, wissenschaftlichen und wirtschaftlichen Profiteure der vorgeblich vom Menschen verursachten Klimakatastrophe vor dem argumentativen Nichts, das EEG wäre eine völlig unnütze Verschwendung von wertvollen Ressourcen  und eine Dekarbonisierung der Welt wäre absolut unnötig geworden.

Uli Weber ist Geophysiker und Publizist.

Übernommen von Tichys Einblick hier

Auf „Die kalte Sonne“ finden Sie eine ausführlichere Begründung der hier geschilderten Hypothese.

 




Die sich selbst rechtfertigenden Kosten von Kohlenstoff

„Dieser Wert ist die beste Einschätzung der Regierung, wie viel die Gesellschaft auf längere Sicht gewinnt, wenn man jede Tonne der Hitze fangenden Kohlendioxydemissionen reduziert, die Wissenschaftler mit der globalen Erwärmung verbunden haben.

Bei derzeit $ 36 pro Tonne Kohlendioxid, wird diese Metrik mit einem komplexen und umstrittenen Satz von Modellen, zur Schätzung einer Vielzahl von künftigen Kosten für die Gesellschaft genutzt, im Zusammenhang mit steigenden Temperaturen und Meeresspiegel und dann mit einem Abzinsungssatz als langjähriges, wirtschaftlichen Werkzeug, um zu beurteilen, wie viel es heute wert ist, Kohlendioxid zu beschränken, das Generationen schädigt. (Für den Kontext, die Vereinigten Staaten emittierten etwa 5,1 Milliarden Tonnen CO2 im Jahr 2015, von insgesamt 36 Milliarden weltweit.)“

 Nun, das mag alles sehr wissenschaftlich klingen, aber lassen Sie uns diese Behauptung: „schadet Generationen“ klären.

 Die Social Cost of Carbon (SCC) sind eine Vermutung über die unbekannten zukünftigen ökonomischen Effekte, die aus unbekannten zukünftigen Temperaturveränderungen resultieren könnten oder auch nicht, die aus unbekannten zukünftigen CO2-Emissionsveränderungen resultieren könnten oder auch nicht, über die nächsten 100 Jahre.

Nun, warum ist das wichtig? Auch hier behandelt Revkin, dass:

„Der Streitpunkt entsteht, weil die sozialen Kosten von Kohlenstoff die Rechtfertigungen für die Politik untermauern, alles zu besteuern, von Kraftwerken zum Verbrauch der Autos bis hin zum Wirkungsgrad des Kühlschranks. Die Bewertung der Folgekosten von Kohlenstoff hat bereits dazu beigetragen, 79 Vorschriften zu formulieren.

Das stärkste Zeichen für eine bevorstehende Anzweifelung der sozialen Kostenrechnung ist die Berufung von Thomas Pyle, damals Präsident der industriefinanzierten American Energy Alliance und des Instituts für Energieforschung, in das Trump-Übergangsteam für die Abteilung Energie. In einer Notiz, sagt er das Ende der Nutzung der „sozialen Kosten von Kohlenstoff“ für gesetzgeberische Regularien voraus.“

Ich stimme mit Thomas Pyle völlig überein. Das SCC ist eine fatale fehlerhafte Maßnahme, die wenig Ähnlichkeit mit einer herkömmlichen Kosten-Nutzen-Analyse hat. Ich hoffe, seine Verwendung ist vollständig beendet. Es ist eine Chimäre, eine wissenschaftliche Fata Morgana.

Revkin weist darauf hin:

„Die vollständige Beseitigung einer solchen Berechnung ist nach Aussagen einer Reihe von Experten höchst unwahrscheinlich. Die Praxis der Schätzung von ökonomischen Kosten und Nutzen der meisten Regierungsverordnungen begann 1981 unter einer Anordnung von Präsident Ronald Reagan. Klimabezogene Regelungen sind nicht anders. Mehrere Gerichtsentscheidungen haben den Prozess bestätigt.“

Allerdings denke ich, dass es einfacher geworden ist, es wieder loszuwerden. Das Verfahren scheint einfach, und glücklicherweise hat Revkin gezeigt, wie es getan werden kann. Es ist aufgelebt durch einen Federstrich und durch ein Telefonat, es stirbt durch einen Federstrich und ein Telefonat, … es wurde durch eine Executive Order erstellt und könnte auf die gleiche Weise verschwinden.

[Eine Executive Order ist ein Dekret durch den Präsidenten der Vereinigten Staaten oder einen Gouverneur eines US-Bundesstaates. Präsidenten haben Executive Orders seit 1789 erlassen. Weder die Verfassung noch Bundesgesetze enthalten Bestimmungen zu Executive Orders., Quelle Wikipedia.org]

Revkin fährt fort:

„Aber das Ziel der Trump-Administration, die operative „Zahl“ zu senken, möglicherweise um eine Menge, ist fast sicher. Im Jahr 2013, sagte ein Wirtschaftswissenschaftler aus Pyle’s Energieinstitut in einer Senatsanhörung, dass bei einer richtigen Berechnung, die sozialen Kosten von Kohlenstoff „wahrscheinlich nahe Null oder sogar negativ sein würden.“

In der Tat, aus Gründen, die ich unten besprochen habe, könnte fast jede Zahl als die „wahren“ SCC gerechtfertigt werden, weil die Unsicherheiten enorm sind.

Revkin fährt fort:

„Ein tiefer Einschnitt wäre sowohl gefährlich als auch ungerechtfertigt, angesichts der Grundlagen der Klimaforschung und der Ökonomie, sagte Gernot Wagner, ein Harvard-Ökonom für Klimarisiko und Politik. In einem Telefoninterview am Dienstag sagte er, dass die Arbeitsgruppe, die vom Weißen Haus im Jahr 2009 initiiert wurde, um die Messung der sozialen Kosten auszuarbeiten, „eine verdammt beeindruckende Übung bei der Zusammenstellung von so viel Überzeugungskraft war und in einer Weise getan wurde, die etwa so unpolitisch war, wie Dinge in Washington gehen können.“

Ich liebe dieses Zitat. Eine Person, die denkt, das die SCC gebraucht werden und (zufälligerweise bin ich sicher) ihr Leben mit dem Studium des SCC verbracht hat, sagt, – joah – sicher brauchen wir die SCC, es ist verdammt beeindruckend….

Das bringt mich auf eine meiner Faustregeln:

Fragen Sie nie die Frösche, wenn Sie einen See trockenlegen wollen

Revkin fährt fort, eine neue Ausarbeitung der nationalen Akademie der Wissenschaften zu erörtern: Bewertung der Klimaänderungen: Aktualisierung der Schätzung der sozialen Kosten von Kohlendioxid (2017)

Wie Sie sich vorstellen können, ist es ein Plädoyer, die imaginären Kosten von Kohlenstoff so hoch zu halten wie möglich.

Also … was stimmt nicht mit den „Social Cost of Carbon“ (SCC)? Lassen Sie mich meine langjährigen Einwände gegen dieses unwissenschaftliche Konstrukt erneuern. Hier sind meine Gründe:

  • Wie der Titel „Social Cost of Carbon“ impliziert, wird davon ausgegangen, dass die Kosten den Nutzen übersteigen. Ich habe keine Beweise dafür gesehen, dass dieses bekannt ist oder sogar erkennbar. Als Beispiel für diese Mutmaßung, es erscheint der Begriff „Kosten“ etwa siebzig Mal in dem Dokument,… der Begriff „Nutzen“ nur sieben Mal. Das neigt die Waage wohin?
  • Sobald Sie nicht monetäre Kosten und Nutzen beginnen zu „monetarisieren“, gibt es keine eindeutige wissenschaftliche Orientierung darüber, was Sie berücksichtigen, wieviel Wert Sie darauf legen, wer als betrachtet wird, ob unterschiedliche Anspruchsberechtigte Präferenzen erhalten und eine Vielzahl anderer Entscheidungen. Dies bedeutet, jedes Ergebnis das Sie bekommen, hat sehr große Unsicherheiten.
  • Noch schlimmer ist es, wenn wir, wie in diesem Fall, eine Kosten-Nutzen-Analyse durchführen, die sowohl aktuelle als auch zukünftige Kosten und Nutzen vergleicht. Dies führt zu einer ganzen Reihe von Unsicherheiten – wie und wann und ob sich die Dinge auf der Eingangsseite ändern (Emissionen), wie und wann und sogar ob sich die Dinge auf der Ausgangsseite ändern (Temperaturen). Ob dieser Diskontsatz im Laufe der Zeit variiert und wie sich diese möglichen zukünftigen körperlichen Veränderungen sowohl auf die realen als auch auf die monetarisierten zukünftigen Kosten und Nutzen auswirken werden. An diesem Punkt sind unsere Unsicherheiten unermesslich, sie überschwemmen die Daten.
  • Es ist viel, viel schlimmer, wenn, wie in diesem Fall, die imaginären künftigen Veränderungen auf einem unbewiesenen wissenschaftlichen Theorem basieren, der bis heute nur eine unendliche Folge von fehlgeschlagenen Prognosen hervorgebracht hat. Wo sollen die Korallen-Atolle angeblich im Widerspruch zu Charles Darwin gesunken sein? Wo sind die 50 Millionen Klimaflüchtlinge bis 2010 geblieben? Wo ist die seit dreißig Jahren versprochene massive drohende Beschleunigung des Meeresspiegelanstiegs? Angesichts der Tatsache, wie falsch die Klimamodelle bis heute sind, werden sie bis 2050 total daneben sein. Dadurch werden die bisherigen SCC-Ungenauigkeiten bis zur Tropopause aufgestiegen sein. Das Signal-Rausch-Verhältnis ist lächerlich. Richard Tol befasste sich mit diesem Feld und fand Werte von negativ (Netto-Nutzen) durch Null bis $ 1500 / pro Tonne Kohlenstoff … auf meinem Planeten, das ist nicht Wissenschaft, das ist Streichhölzchen ziehen.
  • Bis heute können wir echte, beobachtbare, messbare VORTEILE der CO2-Steigerung zeigen. Zum Beispiel können wir klare Vorteile von CO2 durch satellitengestützte „Ökologisierung“ des Planeten sehen und messen. Darüber hinaus können wir zeigen, dass dies die atmosphärische Transpiration von Wasser durch Pflanzen reduziert hat, was die Ausbeute an Bewässerungswasser erhöht. (Und als Nebenfrage … wie viel ist das wert?) Sehen Sie das Problem mit “ Monetarisierung“?).

Aber auf der anderen Seite der Buchhaltung, haben wir keine wirklichen, beobachtbaren, messbaren KOSTEN mit zunehmendem CO2, auch wenn wir die unwahrscheinliche Annahme der dem CO2-beschworenen-Temperatur machen.

Wo liegen zum Beispiel die Klimakosten des ~ 2 ° C Anstiegs der Landtemperaturen (Berkeley Earth Data) in den letzten 200 Jahren? Wo sind die Klima-Tragödien? Wo ist der Ernteverlust durch diese Erwärmung? Wo sind die Todesfälle und die Klimakatastrophen? Zum Kuckuck, auch Richard Tol stellt diesen vergangenen Temperaturanstieg in die Netto-Nutzen Spalte. Als Ergebnis vergleichen wir reale, bekannte, gemessene gegenwärtige Vorteile mit imaginären, unbekannten zukünftigen Kosten, die auf einer unbewiesenen Theorie basieren.

  • Nirgendwo in irgendeiner dieser Aufstellungen finde ich eine der größten und wichtigsten Kosten. Wie viel es hat uns bisher gekostet, um CO2 zu bekämpfen? Unzählige Milliarden und Milliarden Dollar wurden für Solyndras verschwendet und all den Rest des Geldes und der menschlichen Ressourcen wurde nutzlos für Studien und „Social Cost of Carbon“ Zeitverschwendungen der Regierung verschwendet. Ich sage verschwendet, weil bis jetzt sehe ich keinen einzigen Vorteil von irgendetwas davon.

[Solyndra, ein start-up von 2005 für die Herstellung von Solarzellen, erhielt eine US-Darlehensgarantie von 535 Millionen US-Dollar, der erste Empfänger einer Darlehensgarantie unter dem Konjunkturprogramm von Präsident Barack Obama, dem amerikanischen Wiederaufbau- und Wiederanlagegesetz von 2009. [16] Bis 2014 hatte das Darlehensprogramm seine Verluste ausgelöscht, darunter einen Verlust von $ 528 Millionen von Solyndra, und arbeitete damit in „schwarzen Zahlen“. [17] Darüber hinaus erhielt Solyndra eine Steuerermäßigung von $ 25,1 Millionen von der kalifornischen Alternative Energy und Advanced Transportation Finanzierungsbehörde. [18]

Am 31. August 2011 gab Solyndra bekannt, dass es einen Insolvenzschutz nach §11 Insolvenzschutz beantragt, 1.100 Beschäftigte entlasse und sämtliche Operationen und die Fertigung beende. [22] Quelle Wiki..org]

Grüne Energie ist immer noch nicht konkurrenzfähig, es ist ein konstanter Geldabfluss. Keines der teuren Klimamodelle war in der Lage, besser als „Phil das Murmeltier“ [Kinofreunden unter „Täglich grüßt das Murmeltier“ bekannt] bei der Vorhersage der zukünftigen Entwicklung des Klimas zu sein. Wo sind die Kosten der endlosen IPCC-Quasselkonferenzen? Wo gehen diese Milliarden und Milliarden verschwendeter Dollar in diese irrwitzigen „Social Cost of Carbon“ ein? Bisher erzeugte die Bekämpfung der phantasierten Bosheiten von Kohlenstoff alle Kosten und keine messbaren Vorteile … können wir eine Abrechnung davon bekommen?

Aus all diesen Gründen und mehr, finde ich, dass dieses gesamte Unternehmen: „Soziale Kosten von Kohlenstoff“ eine völlig unwissenschaftliche Bemühung ist, so zu tun, als könnten wir die unbekannten Ergebnisse einer unbekannten nebelhaften Zukunft genau monetarisieren.

Ich bitte Andrew Revkin und alle, die an dieser wissenschaftlichen Monstrosität beteiligt sind, inständig, das zu stoppen und zu überlegen, was sie eigentlich tun. Die Unsicherheiten sind immens, wie erwähnt, sie reichen bis in die Tropopause [im Original eine Höhenangabe, für irrwitzig viel]. Der SCC ist eine sichtbare Rechtfertigung, nur um Steuerzahler noch mehr auszunehmen. Und unabhängig davon, welchen Wert die SCC für sie [~die] haben oder haben sollten, sie fügen das Prestige Ihres Namens und ihre Reputation in einem pseudowissenschaftlichen Versuch hinzu, um die Einführung neuer Gesetze, Einschränkungen, Subventionen, Handel-mit-Emissionsrechten, Kohlenstoff-Steuern, erneuerbare Mandate und andere Möglichkeiten, um die Energiekosten zu erhöhen.

Und die Erhöhung der Kosten der Energie, egal wie es getan wird, belastet die Armen mehr als jeder andere. Die Erhöhung der Energiekosten ist eine der regressivsten denkbaren Steuern und es gibt keinen optionalen Ausstieg an der unteren Stufe der wirtschaftlichen Leiter. Steigende Energiepreise schlagen die Ärmsten der Armen härter als jeder andere.

Vielleicht sind einige Leute bereit den „Social Cost of Carbon“ Beschiss zu unterstützen, als Teil der laufenden Bemühungen, arme Leute im Namen einer möglichen fernen imaginären idyllischen grünen Zukunft in fünfzig Jahren oder so zu schröpfen.

Ich… nicht so sehr …

Ich lade Sie ein, meine vorherigen Beiträge zu diesem Thema zu lesen. Der erste ist von vor drei Jahren

Monetizing the Effects of Carbon  2013-01-11

Monetarisieren der Auswirkungen von CO2

 The Bogus Cost Of Carbon 2016-12-15

Der Schwindel mit den Kosten von CO2

 Monetizing Apples And Oranges  2016-12-25

Monetarisieren von Äpfeln und Orangen

 

Kurz gesagt, die SCC sind keine Wissenschaft. Sie vergleicht imaginäre Zukunftswerte bis zu einem Jahrhundert auf der Grundlage einer unbestätigten Theorie auf der einen Seite mit gemessenen beobachteten tatsächlichen gegenwärtigen Vorteilen auf der anderen Seite. Das ist wissenschaftlicher und rechnerischer Quatsch.

Ich sage es, um es loszuwerden. Niemand hat jemals nur im Wert von einem Dollar nachweisen können, was tatsächliche messbare Schäden durch Erhöhungen des atmosphärischen CO2 entstanden sind. Angesichts der Tatsache, dass wir nicht auf aktuelle Schäden hinweisen können, sind wir Lichtjahre davon entfernt, aus dieser unbewiesenen Theorie eine realistische Zahl auf den möglichen zukünftigen Schaden zu setzen. Das ist ein fauler Witz.

==========

Mittlerweile haben wir hier an der nordkalifornischen Küste den “Pineapple Express”, über zehn Zoll (250 mm) Niederschlag in den letzten drei Tagen. Das ist der Regen, den wir nie wieder sehen sollten, weil „Klimawandel“.

[Der Pineapple Express, auch Kona-Sturm genannt, ist eine kräftige Höhenströmung (Jetstream), die auf ihrem Weg von Hawaii zur Küste Kaliforniens feucht-warme Luft mit sich führt. Dabei treten an der Küste meistens heftige Regengüsse in Verbindung mit bis zu 4,50 m hohen Wellen auf. Ursache dieser Extremereignisse ist ein so genanntes Polarfront-Splitting in der mittleren Troposphäre, was besonders gehäuft zwischen Oktober und April auftritt. Dabei strömen tropische Warmluftmassen aus Hawaii gegen polare bzw. arktische Luftmassen aus Kanada. Unter Umständen macht dies dann die Hälfte der jährlichen Niederschlagsmengen in der Region aus. – Quelle Wikipedia]

Ein großer Baum unten an der Straße, wo ich lebe, ist umgekippt und es brach der Strommast. Also läuft bei uns das Notstromaggregat und wir steigen über Bündel von Verlängerungskabeln. Hey, das Leben ist gut … wir sitzen nicht im Dunkeln und obwohl heute meine wunderschöne Ex-Verlobte eine Viertelmeile (einen halben Kilometer) zu Fuß nach Hause gehen musste, im Regen, weil der Baum immer noch die Straße blockiert, ist sie hier und wir sind glücklich.

Ihnen alles Gute

BITTE, wenn Sie mit etwas nicht einverstanden sind, beziehen Sie sich auf den genauen Wortlaut und die Wörter, die Ihnen nicht passen, damit wir alle verstehen können, was genau Sie meinen

Erschienen auf WUWT am 11.01.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/01/11/the-recursive-cost-of-carbon/




Der CO2 Zyklus der Erde und seine Zukunft

Zusammenfassung

Das Carbon Dioxide Information Analysis Center (CDIAC) stellt Messdaten des CO2 Zyklus zur Verfügung, die mit dem Jahre 1959 beginnen und eingeschränkt bis 1850 zurückreichen.  Die geringen Mengen von anthropogenem CO2 um das Jahr 1750, welche durch erste Anfänge der Industrialisierung und stärkere Holzverbrennung erzeugt wurden, gelangten noch vollständig in die Atmosphäre. Die heute emittierten CO2 Mengen, die inzwischen den CO2 Gehalt der Luft um 100 ppm erhöht haben, gehen aber nur noch zur Hälfte in die Atmosphäre. Die andere Hälfte wird etwa zu gleichen Teilen vom Ozean und der Biosphäre aufgenommen. Diese Verschiebung wird bei starken anthropogenen CO2 Emissionen der weiteren Zukunft in einen Zustand übergehen, bei dem alles anthropogene CO2 nur noch vom Ozean aufgenommen wird und damit der CO2 Anstieg in der Atmosphäre zum Stillstand kommt.

Unser Modell gibt den globalen CO2 Zyklus in guter Übereinstimmung mit den CDIAC Messungen über mehr als 160 Jahre wieder. Es handelt sich um die CO2 Konzentration der Atmosphäre und die jährlichen CO2 Flüsse in die Atmosphäre, den Ozean und die Biosphäre. Gleiches leisten die bisher veröffentlichten Modelle trotz größerer Komplexität nicht. Unsere Modellvorhersage für die nächsten 100 Jahre lässt auf Grund dieser langfristigen Übereinstimmung mit den Messungen Verlässlichkeit auch für die Zukunft erwarten. Als wesentliches Ergebnis wird die ansteigende CO2 Konzentration in der Atmosphäre zum Stillstand kommen und unter keinen Umständen ca. 800 ppm übersteigen. Dies ergibt auch eine Grenze für einen durch CO2 bewirkten Anstieg der Erdtemperatur. Da in den Arbeiten der Literatur der letzten Jahre die Klimasensitivität (Anstieg der Temperatur bei Verdopplung der CO2 Konzentration) auf unter 1 °C beziffert wird (hier), kann die Erdtemperatur selbst bei beliebig großen anthropogenen CO2 Emissionen nur um weniger als 1 °C ansteigen. Eine gefährliche Erderwärmung durch CO2, wie beispielsweise vom „Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen“ (WBGU) aktuell behauptet, stellt sich hiermit erneut – wie in vielen schon existierenden Arbeiten – als falsche Hypothese heraus.

Der CO2 Zyklus und seine Messung

Seit 1850 liegen Schätzungen der anthropogenen CO2 Emissionen vor, die auf den weltweit verbrannten Mengen an Kohle und Holz beruhen. Ferner ist die CO2 Konzentration der Luft aus Eisbohrkernanalysen bekannt. Ab 1959, dem Beginn der berühmten CO2 Messkurve von C.D. Keeling auf dem Mauna Loa (Hawaii), wurden dann erhebliche Anstrengungen zur Vermessung des globalen CO2 Zyklus unternommen. Zu den Messungen des CO2 in der Luft kamen Messungen des CO2 Austauschs zwischen Atmosphäre, Ozean und Biosphäre hinzu. Das  Carbon Doixide Information Analysis Center (CDIAC) veröffentlicht diese Messungen seit vielen Jahren regelmäßig in Rahmen seines Carbon Budget Projekts [4] (die in eckigen Klammern angegebenen Zitate sind hier generell die Zitate der Originalarbeit), die hierzu gehörende jüngste Fachveröffentlichung von Le Quéré (hier). Gleichzeitig erfuhr auch die Modellierung des CO2 Zyklus einen Aufschwung. Erstaunlicherweise wurde aber in der Fachliteratur bis heute kein Versuch unternommen, die von CDIAC zur Verfügung gestellten Messungen der Komponenten des CO2 Zyklus durch ein Modell zu beschreiben. Dies erfolgte (begutachtet) erstmalig mit der hier besprochenen Arbeit der Autoren. Das Journal der Veröffentlichung verfolgt die „Open“-Linie, d.h. die Publikation ist frei verteilbar.

Grundlegendes zum CO2 Zyklus

In der Fachliteratur wird Kohlenstoff (C)  an Stelle von CO2 verwendet. Die  Äquivalenz ist wie folgt: 1 ppm CO2 in der Luft entspricht 2,12 Gigatonnen Kohlenstoff (GtC) [2]. So ist z.B. die aktuelle atmosphärische CO2 Konzentration von 400 ppm dem Wert von 848 GtC in der Atmosphäre äquivalent. Hier wird im Folgenden sowohl CO2 als auch C verwendet. CO2 ist zwar schwerer als Luft, aber nur ein Spurengas, so dass es sich nicht am Boden anreichert sondern bis etwa 15 km Höhe homogen verteilt ist. Nur tausendfach höhere CO2 Konzentrationen reichern sich am Boden an und können z.B. bei Vulkanausbrüchen gefährlich werden.

Der Kohlenstoffgehalt der Weltmeere beträgt 37000 GtC [3], also mehr als das Vierzigfache der Luft mit ihren aktuell 848 GtC. Zwischen Luft, Ozean und Biosphäre findet ein ununterbrochener  starker CO2 Austausch statt (CO2 Bruttoflüsse). Dieser verschob aber vor 1750, abgesehen von kleineren Schwankungen, nicht das natürliche Gleichgewicht. So flossen und fließen nach wie vor jährlich etwa 80 GtC zwischen Ozean und Luft sowie 120 GtC zwischen Biosphäre und Luft hin- und her, ohne dass dies vor 1850 wesentlich veränderte Kohlenstoffinhalte von Ozean, Luft oder Biosphäre verursachte. Ein informative Abbildung aller beteiligten Kohlenstoff-Flüsse zeigt die Grafik von Bild 1, die noch zum Jahr 2012 gehört. In dieser Grafik sind die natürlichen Flüsse schwarz, die anthropogenen rot. Alle anderen Flüsse sind dagegen vernachlässigbar, insbesondere auch der Vulkanismus von nur 0,1 GtC pro Jahr, der immer wieder von Laien irrtümlich als entscheidender „Zyklus-Joker“ ins Spiel gebracht wird.

Bild 1: Jährliche Kohlenstoffbrutto-Flüsse in GtC/a, Quelle IPCC, WG1AR5, Chapter 06 final, S. 471

Der industrialisierte Mensch begann ab etwa 1750 zum erstenmal in das natürliche CO2 Gleichgewicht einzugreifen, ab 1850 wurde dieser Eingriff dann spürbar. So emittiert der Mensch aktuell (2015) rund 11 GtC pro Jahr, wovon, wie schon erwähnt, grob die Hälfte in die Atmosphäre geht und die andere Hälfte zu etwa gleichen Teilen vom Ozean und der Biosphäre aufgenommen wird.  Der hierdurch bewirkte stärkere Pflanzenwuchs der Erde, der die Welternährungslage signifikant verbesserte, ist inzwischen gut bekannt [14, 15, 16]. Es ist klar, dass die anthropogenen CO2 Mengen als Nettoflüsse das natürliche Gleichgewicht des globalen CO2 Zyklus verändern. Der steigende CO2 Gehalt der Luft zeigt es.

Unser Modell des anthropogen geprägten CO2 Zyklus

Die entscheidende Eigenschaft unseres Modells, mit der es sich von den bisher bekannten Modellen unterscheidet, besteht darin, dass es nur die Netto-Flüsse von CO2 betrachtet. Nur diese verändern das Gleichgewicht des CO2 Zyklus. Diese Beschränkung hat den entscheidenden Vorteil, ohne Daten der Ozeanchemie oder Messungen des Brutto-CO2-Austauschs auszukommen.

Das Modell ist einfach und bringt dennoch die maßgebenden Zyklusbestandteile in beste Übereinstimmung mit den Messungen. Sogar die spärlichen und weniger genauen Messwerte der Periode von 1850 bis 1959 werden noch befriedigend wiedergegeben. Somit liegt nunmehr eine erstaunlich gute Übereinstimmung über mehr als 160 Jahre vor. Unser Modell ist kein empirischer Fit sondern aus physikalischen Gesetzmäßigkeiten hergeleitet. Man darf aus diesem Grunde sowie wegen der guten Wiedergabe der Messungen erwarten, dass das Modell auch noch die nächsten 100 Jahre seine Gültigkeit beibehält. Unter dieser Prämisse und mit allen Kaveats ergeben sich mit unserem Modell Obergrenzen des CO2 in der Atmosphäre, die in keinem Fall – auch bei Verbrennen aller verfügbaren Kohlereserven der Menschheit – überschritten werden. Das Modell erlaubt ferner die Aussage, wie lange es dauert, bis eine Störung des natürlichen CO2 Zyklus, wie sie aktuell durch anthropogenen CO2 Emissionen entsteht, von der Natur wieder ausgeglichen wird.

Die erste physikalische Gesetzmäßigkeit des Modells entspricht dem Massenwirkungsgesetz der Chemie. Ihr liegt die Näherung zugrunde, dass sich durch menschgemachte CO2 Emissionen zwar der CO2 Partialdruck der Atmosphäre ändert, praktisch nicht aber der des Ozeans – was am sehr viel höheren CO2 Inhalt des Ozean liegt. Der in den Ozean hineingedrückte Kohlenstoff-Nettofluss ist proportional zur Partialdruckdifferenz von Luft und Ozean und wird durch die lineare Gleichung (2.1) ausgedrückt. „Tau“ in (2.1) ist ein Modellparameter, der unabhängig von den CDIAC Daten bereits von anderer Seite grob bekannt ist [13]. Die zweite Grundannahme fordert einen CO2 Nettofluss in die Biosphäre, proportional zum entsprechenden Nettofluss in die Atmosphäre. Diese Annahme ist sinnvoll, weil höhere CO2 Konzentrationen der Luft in linearer Näherung höheres Pflanzenwachstum bewirken. Die Annahme wird durch zahlreiche Veröffentlichungen gestützt wie z.B. [14, 15, 16] und ist in Gleichung (2.2) mit „b“ als zweitem Modellparameter formuliert. Über „b“ kann ohne weiteres allenfalls nur eine extrem grobe Schätzung abgegeben werden. Zu (2.1) und (2.2) kommt schließlich noch das Gesetz der Massenerhaltung der  Gleichungen (2.3) und (2.4) hinzu.

Aus den Gleichungen (2.1)-(2.4) folgt durch einfache Umformung die Differentialgleichung (2.7) (DGL). Der in (2.7)  versuchsweise noch zusätzlich eingeführte Term der Meerestemperatur S_a(t) hat später praktisch keinen Einfluss auf die Ergebnisse und kann daher entfallen. Die Ableitung der integrierten Größe N_a(t) in (2.7) ist der jährliche Netto-Kohlenstoff-Fluss in die Atmosphäre. Die numerische Lösung ist in den Abschnitten 4. und 5. der Arbeit beschrieben.

Das Modell benötigt als einzige Eingangsgröße die anthropogenen jährlichen Kohlenstoffemissionen. Ferner ist zur Lösung der Modell-DGL (2.7) ein Anfangswert der atmosphärischen CO2 Konzentration erforderlich. Für die Lösung der DGL werden als Zeitschritte Jahre verwendet. Die Lösung liefert als Ergebnisse den jährlichen Netto-Kohlenstoffeintrag in die Atmosphäre, den Ozean und die Biosphäre. Diese Werte integriert liefern die CO2 Mengen, die in die genannten Senken über viele Jahre gehen. Von den integrierten Größen ist insbesondere der CO2 Gehalt der Atmosphäre interessant.

Die Werte der zwei Modellparameter werden in unserer Arbeit mit der nichtlinearen SIMPLEX-Methode nach dem Kriterium der besten Anpassung an die CDIAC Messwerte berechnet. Wir betonen, dass die Parameter nur aus den Messwerten des Zeitraums 1959 bis 2013 ermittelt werden und dennoch das Modell auch den Zeitraum von 1850 bis 1959 gut wiedergibt. Dies zeigt, dass eine Einbeziehung der vielen möglichen Detailprozesse unnötig ist und zur Beschreibung und Voraussagbarkeit nichts beitragen kann.

Ergebnisse für den CO2 Zyklus von 1850 bis heute

Sie finden sich in Fig. 1 und Fig. 2 der Arbeit (die Messwerte stets in rot). In Fig. 1 oben stellt die schwarze Line den berechneten CO2 Gehalt der Atmosphäre dar, die grüne Kurve die jährlichen anthropogenen Kohlenstoff-Emissionen. Da die optimalen Parameter aus dem Vergleich mit den Messwerten über den Zeitbereich 1959- 2013 ermittelt wurden, sind die Ergebnisse der frühen Periode 1850 – 1959 nicht ganz so gut wie für 1959 – 2013. Fig. 1 unten zeigt die Airborne Fraction (AF) als den Bruchteil der anthropogenen Kohlenstoff- Emissionen, der in die Atmosphäre geht. Da es sich bei der AF nicht um eine integrierte Größe handelt, ist insbesondere die Schwankung ihrer Messwerte beträchtlich. Dennoch sind auch über 160 Jahre keine längerfristigen Änderungen der AF zu erkennen.

Fig. 2 zeigt die Ergebnisse der integrierten Größen, für den Kohlenstoffgehalt der Luft N_a, für den CO2 Gehalt des Ozeans N_s und für den der BiosphäreN_b. Da für N_s und N_b keine Anfangswerte bekannt sind, wurden diese beliebig festgelegt. Es kommt nur auf den Zeitverlauf dieser Größen an. Die anderen Teilbilder zeigen die jährlichen CO2 Netto-Zuwächse, die heftig schwanken. Diese Schwankungen sind vermutlich von jahreszeitlich bedingtem unterschiedlichen Pflanzenwuchs und weiteren Faktoren verursacht. Die integrierten Größen werden dagegen praktisch perfekt wiedergegeben.

Ergebnisse für den zukünftigen Zyklus bis 2100

In der Literatur sind Emissionsszenarien bis zum Jahre 2100 veröffentlicht. Wir verwendeten die in [20] zur Verfügung gestellten sechs Szenarien. Um das Modell zu testen, verlängerten wir sie bis zum Jahre 2150 mit der etwas willkürlichen Annahme einer linearen Abnahme auf den jeweils halben Wert des Jahres 2100. Die Szenarien und ihre zugehörigen Modellergebnisse sind in Fig. 3. gezeigt. Interessant ist dabei, dass das ungünstigste Szenario A1Fi schon weit mehr Kohlenstoffverbrennung erfordert als es alle Kohlenstoffreserven der Erde zusammen. Dennoch erreicht der CO2 Gehalt der Luft nur im Jahre nur einen Maximalwert von weniger als 800 ppm. Der Grund dafür wird im rechten unteren Teilbild der Airborne Fraction AF deutlich. Die AF beginnt abzunehmen und wird irgendwann Null – danach sogar negativ, wenn die anthropogene CO2 Zufuhr schwächer wird. Mit anderen Worten: es kommt ein Zeitpunkt, an dem die Partialdruckdifferenz zwischen Atmosphäre und Ozean so groß geworden ist, dass kein menschgemachtes CO2 mehr in die Luft sondern in Ozean und Biosphäre geht.

Vergleich mit Teilergebnissen anderer Modelle

In der Literatur findet sich ein Vergleich für ein numerisch-theoretisches „Experiment“ [7]. In diesem wird im Jahre 2010 ein Impuls von 100 GtC den anthropogenen Emissionen hinzuzugefügt und danach die anthropogenen Emissionen konstant auf 10 GtC pro Jahr festgehalten. In Fig. 4, oberes Teilbild, gibt die graue Zone den Ergebnisbereich der in [7] verwendeten 15 Modelle an. Die blaue Kurve ist das Ergebnis unseres Modells. Das untere Teilbild von Fig. 3 zeigt den Modellvergleich bis zum Jahre 3000.

Die Diskrepanz zwischen unserem Modell und den 15 anderen Modellen rührt im Wesentlichen von unserer Nichtberücksichtigung des Revelle-Effekts (hier) her. Dieser Effekt wird mit Ozeanchemie begründet und fordert eine verminderte CO2 Aufnahmefähigkeit bei steigender CO2 Konzentration der Luft. Der Revelle-Effekt zeigt sich aber bisher nicht in den Messungen (s. Fig. 1 unteres Teilbild). Dieser Mangel wird auch in einer weiteren Arbeit betont [13]. Solange der Revelle-Effekt in der globalen Natur nicht gemessen wird, ist er hypothetisch. Mögliche Gründe, warum er sich nicht zeigt, werden in unserer Publikation erwähnt.

Die Modelle in [7] und unsere Arbeit zeigen gleichermaßen ein recht langes Abklingen des 100 GtC – Impulses. Die Halbwertszeit dieses Abklingens AT beträgt in unserem Modell etwa 100 Jahre und wird von einem eigenen weiteren numerischen „Experiment“ bestätigt (Fig. 3 unteres linkes Teilbild, rote Kurve). AT ist die Anpassungs-Halbzeit, die die Natur benötigt, um eine Störung des natürlichen Kohlenstoffzyklus zur Hälfte zu beseitigen. Davon zu unterscheiden ist die Verweilzeit RT eines CO2 Moleküls in der Atmosphäre, die nur etwa 5 Jahre beträgt [8]. Der Grund für den extrem kleinen Wert der RT verglichen mit dem sehr großen Wert der AT ist der bereits beschriebene, um mehr als eine Größenordnung höhere Bruttoaustausch von CO2 zwischen Atmosphäre, Ozean und Biosphäre verglichen mit den CO2 Netto-Flüssen.

Die Historie unserer Arbeit

Die Grundzüge des Modells hat Prof. Werner Weber von der theoretischen Physik an der Universität Dortmund anlässlich eines gemeinsamen Kolloquiums des Potsdamer Instituts für Klimafolgenforschung (PIK) und EIKE in Potsdam im Oktober 2010 vorgetragen. Weil W. Weber sein Modell nicht weiterverfolgte, kontaktierte ich (Lüdecke) ihn und schlug eine Zusammenarbeit vor. Diese zog sich mit langen Unterbrechungen über mehrere Jahre hin und hatte als schönstes Resultat das Entstehen einer intensiven persönlichen Freundschaft. Wir telefonierten nicht selten oft mehrere Stunden wöchentlich – nicht nur über Physik. In den letzten Monaten dieser Zeit schloss sich Prof. Carl Otto Weiss unserem Team an. Während des Entwurfs einer gemeinsamen Veröffentlichung im Jahre 2014 verstarb Weber unerwartet. Eine erste Version der Arbeit erschien in „Earth System Dynamics Discussion“ (ESDD) (hier), wurde aber für ESD nicht angenommen. Die hier vorgestellte Publikation ist eine verbesserte Version der abgelehnten Einreichung.




Trump erste Anweisung zur Wirtschaftsordnung – Annulliert den Klimaschutzplan und die Gewässerregulierung

„Zu lange wurden wir durch belastende Regelungen für unsere Energiewirtschaft zurückgehalten. Präsident Trump verpflichtet sich, schädliche und unnötige Politiken wie den Klimaschutzplan und die US -Gewässer Regulierungen zu beseitigen“ so die Top-Schlagzeile auf der Website des neuen Präsidenten im Weißen Haus.

Neue Exekutivaktionen werden später erwartet, wenn der 45. Präsident der Nation mit seinem Amt beginnt.

Am Mittag, als Trump den offiziellen Amtseid schwor, wechselte die Regierung die Website des Weißen Hauses von Obama zu Trump. (Obama’s ist jetzt archiviert von der National Archives and Records Administration nach dem Presidential Records Act.)

Der neue Präsident hat bereits eine weitere Weißes Haus Verpflichtung aufgenommen, das Samstagmorgen Radio-Informationsgespräch, das morgen früh  ausgestrahlt wird.

Nach seiner Antrittsrede, in der er sagte, dass „die vergessenen Männer und Frauen nicht mehr vergessen werden“, wurde Trump von der Eröffnungsparade ins Weiße Haus geführt und ging mit Mitgliedern des Kongresses zu Mittag.

Lesen Sie hier: https://www.whitehouse.gov/america-first-energy


Erschienen auf WUWT am 20.01.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/01/20/trump-posts-first-order-of-business-kill-the-climate-action-plan-and-waters-of-the-u-s-rule/

#########

die deutschen Nachrichten bringen so Schlagzeilen wie:

Europa in Sorge vor Trump

Gabriel: „Wir müssen uns warm anziehen“

Einzig der frühere EU-Parlamentspräsident Martin Schulz (SPD) rief zu einer unaufgeregten Zusammenarbeit auf. „Seit Freitag haben wir mit Donald Trump einen neuen US-Präsidenten und eine neue Regierung, mit der wir gut, professionell und unaufgeregt zusammenarbeiten werden“

http://www.t-online.de/nachrichten/ausland/usa/id_80139496/sigmar-gabriel-nach-vereidigung-von-donald-trump-muessen-uns-warm-anziehen-.html

 

Der Herausgeber vom Handelsblatt, Herr Steingart ist in den USA um der Zeremonie beizuwohnen.

Heute früh kam sein Briefing mit der Schlagzeile:

Die Dämonen sind los

Die Einführungsrede von Trump nennt er „… eine Kampfansage, ..,Abrechnung mit dem politischen Establishment und lieferte dabei nichts Geringeres als ein populistisches Manifest.

Danach meint er, das seine Gegner auch noch dran kommen. Er sieht im Besonderen “ …drei Herausforderer, die ihn noch vor dem nächsten Wahltag zu Fall bringen könnten.“

  1. anti-Trump Demonstranten (siehe hier)
    die aber bereits in New York und Washington am Freitag Autos angezündet und Schaufenster eingeschlagen haben.
  2. Die Medien
  3. Die abgehängten Politiker, die um ihre Pfründe bangen 

 




Wegen der Pressekonferenz von GISS und NOAA über die globalen Oberflächentemperaturen 2016

EINFÜHRUNG

Die Ozeane decken etwa 70% der Erdoberfläche ab, doch Klimamodelle sind in den vergangenen drei Jahrzehnten weit davon entfernt, die Oberflächentemperaturen dieser Ozeane auf globalen, hemisphärischen und individuellen Ozeanbeckenbasen zu simulieren. In den vergangenen jährlichen Modelldatenvergleichen haben wir das multimodale Mittel aller im CMIP5-Archiv gespeicherten Klimamodelle verwendet, für diesen Beitrag jedoch nur den Mittelwert der Outputs der drei CMIP5-archivierten Klima-Modell-Simulationen des Goddard Institute of Space Studies (GISS) [NASA] mit dem Ozeanmodell „Russell“. In den vergangenen Modelldatenvergleichen nutzen wir den ursprünglichen satellitengestützten Reynolds OI.v2 Seeoberflächen-Temperatur-Datensatz. In diesen Fall verwenden wir jedoch die „Extended Reconstructed Sea Surface Temperature Version 4“ [Erweiterte Rekonstruierte Seeoberflächen Temperatur] (ERSST.v4) von NOAA [National Oceanic and Atmospheric Administration  – Wetter- und Ozeanografiebehörde der Vereinigten Staaten]

Warum sind die Modellierungen und Daten unterschiedlich?

Sowohl NASA GISS als auch die NOAA NCEI verwenden NOAA’s ERSST.v4 „Pause Buster“ [~Beseitigung der Erwärmungspause…] -Daten für die Ozean-Oberflächentemperaturkomponenten ihrer kombinierten Land-Ozean-Oberflächentemperatur-Datensätze und heute halten beide Agenturen eine multiaktive Pressekonferenz, um ihre „in 2016 jemals Wärmsten überhaupt“ globalen Oberflächentemperaturentdeckungen. (Pressekonferenz startet um 11 Uhr Eastern – in deutschen Medien wurde davon berichtet) Und wir nutzen die GISS-Klimamodell-Outputs, weil GISS Teil dieser Pressekonferenz ist und ich vermute, dass GISS nicht aufzeigen wird, wie sehr daneben ihre Klimamodelle diese kritische globale Erwärmung simulieren.

 

Einführende Information

Der Meeresoberflächentemperatur-Datensatz, der in diesem Beitrag verwendet wird, ist das erweiterte Rekonstruierte Sea Surface Temperature-Datenblatt der NOAA, Version 4 (ERSST.v4), a.k.a. ihre „Pause-Buster“ -Daten. Wie oben erwähnt, bilden die ERSST.v4 Daten den Ozeananteil der NOAA und GISS globalen Land + Ozean Oberflächentemperatur. Die in diesem Beitrag präsentierten Daten stammen vom KNMI Climate Explorer, [Holländischer Think Tank] wo sie bei den „Monatsbeobachtungen“ unter der Überschrift „SST“ zu finden sind.

Die präsentierten GISS Klimamodelle sind diejenigen, die im Coupled Model Intercomparison Project, Phase 5 (CMIP5) Archiv gespeichert sind. Sie sind eine der jüngsten Generationen von Klimamodellen von GISS und wurden vom IPCC für ihren 5. Evaluierungsbericht (AR5) verwendet. Die GISS-Klimamodelle von Meeresoberflächentemperaturen sind über den KNMI Climate Explorer verfügbar und zwar über ihre monatliche CMIP5-Szenario-Webseite unter der Überschrift Ocean, ice und upper air variables. Die Meeresoberflächentemperatur wird als „TOS“ (Temperatur-Ocean-Surface ; – Meeresoberfläche) bezeichnet. Ich präsentiere den GISS-E2-R p1, GISS-E2-R p2 und GISS-E2-R p3, wobei das „R“ für Russell Ozean steht. (Ich präsentiere die GISS Modelle mit HYCOM Ozean Modell in einem bevorstehenden Post.) Die Historic / RCP8.5 Szenarien werden verwendet. Das RCP8.5-Szenario ist das Worst-Case-Szenario, das der IPCC für seinen 5. Evaluierungsbericht verwendet. Und wieder verwenden wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle darstellt; Das heißt, wenn die von den Klimamodellen verwendeten Forcierungen die Oberflächen der Ozeane zum Erwärmen veranlassten, stellt das Modell am besten dar, wie sich die Ozeanoberflächen durch diese Forcings erwärmen würden. Eine weitere Diskussion finden Sie im Beitrag über die Verwendung des Multi-Modells, das ein Zitat von Dr. Gavin Schmidt von GISS zu dem Modellmittel enthält.

Die Modell-Daten-Vergleiche sind absolut, keine Anomalien, so dass jährliche Daten präsentiert werden. Und die Modelle und Daten reichen zurück in der Zeit für die letzten 30 Jahre, 1987 bis 2016.

Die linearen Trends in den Grafiken sind berechnet mit EXCEL.

 

WARUM ABSOLUTE MEERES OBERFLÄCHENTEMPERATUREN ANSTATT VON ANOMALIEN?

Die Klima-Wissenschaftsgemeinde neigt dazu, ihre Modell-Daten-Vergleiche mit Temperatur-Anomalien [Abweichungen] und nicht in absoluten Temperaturen zu präsentieren. Warum?

Wie Dr. Gavin Schmidt von GISS erklärt: „… keine bestimmte absolute globale Temperatur stellt ein Risiko für die Gesellschaft dar, es ist die Veränderung der Temperatur im Vergleich zu dem, was wir bisher gewöhnt waren“. (Siehe: den interessanten Post bei RealClimate über modellierte absolute globale Oberflächentemperaturen.)

Aber wie Sie entdecken werden, sind die GISS Klimamodellsimulationen der Meeresoberflächentemperaturen zu warm. Betrachten wir nun, dass die Ozeanoberflächen die primären Quellen von atmosphärischem Wasserdampf sind, dem am meisten verbreiteten natürlichen Treibhausgas. Wenn die Modelle die Beziehung zwischen Meeresoberflächentemperaturen und atmosphärischem Wasserdampf richtig simulieren, haben die Modelle zu viel Wasserdampf (natürliches Treibhausgas) in ihren Atmosphären. Das kann helfen, zu erklären, warum die GISS-Modelle zu viel Erwärmung in den letzten 3 Jahrzehnten simulieren.

WARUM DIE VERGANGENEN DREI DEKADEN?

Die klassische Definition des Klimas durch die Weltmeteorologische Organisation (WMO) ist das gemittelte Wetter über einen Zeitraum von 30 Jahren. Auf der Homepage der WMO: Häufig gefragt:

Was ist das Klima?

Das Klima, das manchmal als das „durchschnittliche Wetter“ verstanden wird, ist definiert als die Messung des Mittelwerts und der Variabilität der relevanten Größen bestimmter Variablen (wie Temperatur, Niederschlag oder Wind) über einen Zeitraum von Monaten bis zu Tausenden oder Millionen Jahre. Die klassische Periode ist 30 Jahre, wie von der WMO definiert. Das Klima im weiteren Sinne (is the state)] [m.e. gemeint: die jeweilige Klimazone, der Übersetzer], einschließlich einer statistischen Beschreibung des Klimasystems.

Durch die Präsentation von Modellen und Daten für die letzten 3 Jahrzehnte, kann niemand behaupten, ich habe den Zeitrahmen „cherry-picked“. Wir vergleichen Modelle und Daten über die jüngste klimarelevante Periode.

HINWEIS ZU DEN ABSOLUTEN WERTEN DER NOAA ERSST.v4 DATEN

Die Revisionen der NOAA-Langzeit-Oberflächentemperatur-Datensätze wurden in Karl et al. (2015) Ausarbeitung veröffentlich: Mögliche Artefakte von Daten-Bias in der jüngsten globalen Oberfläche Erwärmungspause. Dort stellten Tom Karl und andere fest:

Erstens haben mehrere Studien die Unterschiede zwischen boje- und schiffbasierten Daten untersucht, wobei festgestellt wurde, dass die Schiffsdaten systematisch wärmer sind als die Bojendaten (15-17). Dies ist besonders wichtig, da ein Großteil der Meeresoberfläche nun von beiden Beobachtungssystemen erfasst wird und oberflächentreibende und verankerte Bojen die globale Abdeckung um bis zu 15% (Ergänzungsdaten) erhöht haben. Diese Änderungen führten zu einem zeitabhängigen Bias im globalen SST-Datensatz und verschiedene Korrekturen wurden entwickelt, um die Vorausrichtung (18) zu berücksichtigen. Vor kurzem wurde eine neue Korrektur (13) entwickelt und im ERSST Datensatz Version 4, den wir in unserer Analyse verwendet haben, angewendet. Im Wesentlichen beinhaltet die Bias-Korrektur die Berechnung der durchschnittlichen Differenz zwischen den kollokierten Bojen und Schiff SSTs [~nebeneinanderliegenden Datensätze]. Die durchschnittliche Differenz war -0,12 ° C, eine Korrektur, die auf die Bojen-SSTs in jeder Rasterzelle in ERSST Version 4 angewendet wird.

Für Modell-Daten-Vergleiche, bei denen Anomalien präsentiert werden, ist die Verlagerung [~Anpassung] der genaueren boje basierten Daten um 0,12°C auf die schiffsbasierten Daten gleichgültig. Diese Vereinfachung war eine Frage der Bequemlichkeit für NOAA, da es für mehr Jahre Schiffsdaten als bojen basierte Daten gibt. Allerdings, wenn Modelle und Daten auf einer absoluten Basis verglichen werden, verschieben die genaueren bojen basierten Daten die Schiff-basierten Daten um 0,12 °C und machen daher einen Unterschied beim Vergleich. Da die Modell-simulierten Oberflächentemperaturen weltweit zu warm sind, hilft diese Verknüpfung, die Daten besser an die Modelle anzupassen. Und das klingt typisch für die Klimawissenschaft bei der NOAA.

Mit anderen Worten, die Unterschiede zwischen Modellen und Daten sind wahrscheinlich größer als in allen Beispielen in diesem Beitrag gezeigt, wobei die modellierten Meeresoberflächentemperaturen wärmer als beobachtet sind … und umgekehrt, wenn die Modelle zu cool sind.

Genug der Einführung …

GLOBALE ZEITREIHE

Abbildung 1 zeigt zwei Modelldatenvergleiche für globale Meeresoberflächentemperaturen, nicht Anomalien, für die letzten 30 Jahre. Ich habe einen Vergleich für die globalen Ozeane (90S-90N) in der oberen Grafik und einen Vergleich für die globalen Ozeane, mit Ausnahme der polaren Ozeane (60S-60N), in der unteren Grafik. Ein Ausschluss der polaren Ozeane scheint keinen signifikanten Unterschied zu machen. Es ist offensichtlich, dass globale Meeresoberflächen, die durch das GISS-Klimamodell simuliert wurden, wärmer waren als beobachtet und dass die GISS-Modell-Erwärmungsrate in den letzten 3 Jahrzehnten zu hoch war. Der Unterschied zwischen modellierten und beobachteten Erwärmungsraten liegt bei etwa 0,07 bis 0,08 °C / Jahrzehnt, mehr als 60% höher als die beobachtete Geschwindigkeit. Und in beiden Fällen ist die von den GISS-Modellen simulierte 30-jährige durchschnittliche Meeresoberflächentemperatur um etwa 0,6 °C zu hoch.

 

Abbildung 1 – Globale Ozeane

 

ZEITREIHE – TROPISCHE UND EXTRATROPISCHE MEERESOBERFLÄCHEN TEMPERATUREN

Im Juni 2013 präsentierte Roy Spencer Modell-Daten Vergleiche der Erwärmung der tropischen Mittel-Troposphäre, vorbereitet von John Christy. Siehe Roy’s Beiträge EPIC FAIL: 73 Klimamodelle vs. Beobachtungen für tropische troposphärische Temperaturen und STILL Epic Fail: 73 Klimamodelle vs Messungen, 5-Jahres-Mittel. Die Modelle haben die Erwärmungsraten der Mittel-Troposphäre in den Tropen stark überschätzt. Ich dachte, es wäre sinnvoll, da die tropischen Ozeane (24S-24N) 76% der Tropen und etwa 46% der Weltmeere abdecken, um zu bestätigen, dass die Modelle auch die Erwärmung der Meeresoberflächentemperaturen der tropischen Ozeane stark überschätzen .

Es sollte nicht überraschen, dass die Modelle in den vergangenen 30 Jahren die Erwärmung der Meeresoberflächentemperaturen der tropischen Ozeane überschätzten. Siehe Abbildung 2. Tatsächlich überschätzen die Modelle die Erwärmung mit einer großen Bandbreite. Die Daten zeigen die Meeresoberflächentemperaturen der tropischen Ozeane an, die mit einer nicht sehr alarmierenden Rate von 0,11° C / Jahrzehnt erwärmt wurden, während die Modelle zeigen, dass, wenn die Oberflächen der tropischen Ozeane durch menschliche Treibhausgase erwärmt würden, sollten sich auf fast das zweifache dieser Rate mit 0,22 °C / Jahrzehnt erwärmen. Für 46% der Oberfläche der globalen Ozeane (ca. 33% der Oberfläche des Planeten) verdoppelten die Modelle die beobachtete Erwärmungsrate.

Abbildung 2 – Tropische Ozeane

Und natürlich sind für die tropischen Ozeane die Modell-simulierten Meeresoberflächentemperaturen um etwa 0,9 ° C zu warm.

Für die außertropischen Ozeane der südlichen Hemisphäre (90S-24S), Abbildung 3, ist die beobachtete Erwärmungsrate ebenfalls extrem niedrig bei 0,06 °C / Jahrzehnt. Andererseits deuten die Klimamodelle darauf hin, dass die Ozeane sich mit einer Rate von 0,14 °C / Jahrzehnt erwärmt hätten, wenn menschliche Treibhausgase für die Erwärmung der Meeresoberflächentemperaturen in dieser Region verantwortlich wären, was die beobachtete Tendenz mehr als verdoppeln würde. Die außertropischen Ozeane der südlichen Hemisphäre decken etwa 33% der Oberfläche der globalen Ozeane (ca. 23% der Oberfläche des Planeten) und die Modelle verdoppeln die Geschwindigkeit der Erwärmung.

Abbildung 3 – Extratropische südliche Hemisphäre

Die Modelle sind in den außertropischen Ozeanen der südlichen Hemisphäre zu warm, um etwa 0,6 ° C.

Und die Klimamodelle scheinen die Erwärmungsrate der Meeresoberflächentemperaturen genau für den kleinsten Teil der globalen Ozeane, der extratropischen Nordhalbkugel (24N-90N) zu treffen. Siehe Abbildung 4. Die außertropischen Ozeane der Nordhalbkugel bedecken nur etwa 21% der Oberfläche der globalen Ozeane (ca. 15% der Erdoberfläche).

Abbildung 4 – Extratropische Nordhemisphäre

Seltsamerweise sind die modell-simulierten Oberflächentemperaturen in den außertropischen Ozeanen der nördlichen Hemisphäre zu kühl. Das wird bei den Simulationen von Meereis nicht helfen.

ZEITREIHE – OZEAN BECKEN

Die Abbildungen 5 bis 11 zeigen Vergleiche von modellierten und beobachteten Meeresoberflächentemperaturen für die einzelnen Ozeanbecken … ohne Kommentar. Ich würde die Vergleiche der arktischen und südlichen Ozeane (Figuren 10 und 11) mit etwas Skepsis betrachten … weil die Modelle und Daten das Meereis unterschiedlich rechnen.

Abbildung 5 – Nord Atlantik

# # #

Abbildung 6 – Süd Atlantik

# # #

Abbildung 7 – Nord Pazifik

# # #

Abbildung 8 – Süd Pazifik

# # #

Abbildung 9 – Indischer Ozean

# # #

Abbildung 10 – Arktis

# # #

Abbildung 11 – Südlicher Ozean

 

Schlusssatz

Es wäre schön zu wissen, welchen Planeten die Klimamodelle von GISS simulieren. Es ist sicher nicht die Erde.

Wir leben auf einem mit Ozean bedeckten Planeten, doch irgendwie scheinen das Wann, das Wo und die Ausdehnung der Erwärmung der Oberflächen unserer Ozeane, den Klimamodellierern bei GISS entgangen zu sein. In diesem Beitrag haben wir für die vergangenen drei Jahrzehnte Meeroberflächentemperaturen und keine Anomalien vorgestellt und dies hat auch auf andere Klimamodellversagen hingewiesen, die darauf hindeuten, dass Simulationen der grundlegenden Ozeanzirkulationsprozesse in den Modellen fehlerhaft sind.

Je nach Ozeanbecken gibt es große Unterschiede zwischen den modellierten und beobachteten Oberflächentemperaturen. Die tatsächlichen Meeresoberflächen-temperaturen bestimmen zusammen mit zahlreichen anderen Faktoren, wieviel Feuchtigkeit von den Ozeanoberflächen verdampft wird und wie viel Feuchtigkeit in der Atmosphäre vorhanden ist … was die vorhandene Feuchtigkeit (1) für die Niederschlagsbelastung (2) beeinflusst ), für den wasserdampfbedingten Treibhauseffekt und (3) für die negativen Rückkopplungen aus der Wolkendecke. Mit anderen Worten, die fehlerhafte Simulation der Meeresoberflächentemperaturen beeinflusst die atmosphärische Komponente der tödlich fehlerhaften gekoppelten Ozeanatmosphärenmodelle von GISS.

Erschienen auf WUWT am 18.01.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/01/18/because-of-the-giss-and-noaa-press-conference-about-2016-global-surface-temperatures/




Trump und inter­nationale Energie-Armut: Fünf Schritte

Man betrachte die Bemühungen der Obama-Regierung, fossil befeuerte Klimakatastrophen zu vermeiden. Trotz gut gemeinter Absichten haben diese Bemühungen, industrielle Emissionen von Kohlendioxid und anderen „Treibhausgasen“ zu reduzieren, insgesamt sehr großen Schaden angerichtet in ehemals kolonisierten Ländern in Afrika, Asien und Latein-Amerika. Und wirklich, Obamas Politik erinnert an die Versuche der Kolonisten, diese Regionen zu Erzeugern von Rohstoffen zu machen anstatt zu industriellen Mitbewerbern. Obamas Klima-Alarmisten entmutigten arme Länder, Kraftwerke und moderne Übertragungsnetze zu errichten. Stattdessen bot man diesen Ländern Hilfe an, nicht ans Netz zu gehen mittels kleinmaßstäblicher Wind- und Solarprojekte. Die Regierung trieb auch die Preise für Nahrungsmittel in armen Ländern in die Höhe, indem sie Ernten so umleitete, dass sie „grünen“ Treibstoff-Quoten genügten. Außerdem standen sie untätig dabei, als die Europäische Union diese Länder bestrafte für den Export „kohlenstoff-intensiver“ Erzeugnisse. Die Moral lautet hier, dass die Kosten der prophezeiten Klimakatastrophen hypothetisch und dürftig sind sowie erst in ferner Zukunft anfallen, während die gesundheitlichen und wirtschaftlichen Vorteile des auf fossilen Treibstoffen beruhenden Wachstums armer Länder real und erheblich sowie sofort verfügbar sind.

Hinsichtlich Gesundheit brauchen die Menschen zuverlässige Energie in ihren Wohnungen, Fabriken und Büros. Falls sie diesen Energiebedarf nicht mit Strom decken können, werden sie die Energie durch Verbrennung von Holz, Dung und Holzkohle erzeugen oder ihre eigenen Dieselgeneratoren anwerfen. In Afrika, wo nur 25 Prozent aller Wohnungen zuverlässig über Strom verfügen und die meisten Fabriken und Büros unter häufigen Stromausfällen zu leiden haben, stellen die durch diese ineffizienten Energiequellen emittierten Partikel eine ständige Krise dar für Atemwegs-Erkrankungen. Hinsichtlich wirtschaftlichen Wachstums und der daraus resultierenden steigenden Lebenserwartung können wir einfach feststellen, dass China, seit es sich mit aller Macht dem fossil befeuerten Kapitalismus verschrieben hatte, seine 20-Jahre-Lücke zur Lebenserwartung von 80 Jahren in entwickelten Ländern fast geschlossen hat, während Afrika noch mit 59 Jahren hinterher hinkt.

Hier folgen als Vorschlag fünf Schritte, die Präsident Trump gehen könnte, um uns davon abzuhalten, Schaden anzurichten, und wir vielleicht sogar Gutes anrichten können hinsichtlich des Strebens von Entwicklungsländern nach einem besseren und längeren Leben, welches zuverlässiger elektrischer Strom mit sich bringen kann.

Energieerzeugung: Er sollte US-Repräsentanten bei der Weltbank und regionalen Banken ebenso wie Funktionäre der Agency for International Development (the State Department’s foreign aid office) anweisen, Kredite und Garantien für Kohle-, Gas- oder Ölkraftwerke zu unterstützen anstatt diese, wie wir es derzeit tun, zu verhindern. Mit der Hilfe für Länder, moderne, effiziente Kraftwerke zu bauen, ausgerüstet mit „Filtern“, können wir Emissionen von Schwefeldioxid und andere Partikel dramatisch reduzieren. Anders als Kohlendioxid, welches ein vorteilhaftes Spurengas ist, das Ernteerträge steigern lässt, sind dies reale Verschmutzer, die kontrolliert werden müssen.

Netzausbau: Die Versorgt-Afrika-mit-Energie-Kampagne der Obama-Regierung ist verzerrt hin zu „Ohne-Netz-Lösungen“ wie etwa kleinmaßstäbliche, lokale Wind- und Solarparks. Dies ist Kolonialismus pur in einem Kontinent, der immer noch „unterentwickelt“ ist, indem er Rohstoffe an seine ehemaligen Beherrscher exportiert und im Gegenzug fertig hergestellte Produkte erhält. Afrika braucht konsistent Energie für Fabriken und Büros, oder es wird niemals in der Lage sein, im Wettbewerb der globalen Ökonomie mitzuhalten. Der einzige Weg, konsistent Energie zur Verfügung zu haben, ist ein modernes Netz. Punkt. Das Netz kann sich langsam entwickeln, so dass es gewartet werden kann, aber langfristig kommt man ohne ein solches nicht voran, wie das Beispiel Chinas zeigt.

Hilfe nur für nachhaltige Infrastruktur-Projekte: Entwicklungsländer vor allem in Afrika sind übersät mit aufgegebenen „weißen Elefanten“ – Hochtechnologie-Fabriken, Dämme, Aufbereitungsanlagen, Brunnen und Traktoren, die von es gut meinenden auswärtigen Helfern und Spendern zur Verfügung gestellt worden waren. Sie fielen in die Nutzlosigkeit, weil Empfänger-Regierungen nicht den politischen Willen und die ökonomische Umgebung zur Verfügung stellen wollten, die zum Erhalt dieser Einrichtungen erforderlich wären.

Die Einführung einer Technologie aus einem anderen Land, welche sich in einem anderen Stadium der ökonomischen Entwicklung befindet, ist im besten Falle verzwickt. Es ist Zeit- und Geldverschwendung, falls die Empfänger-Regierung undemokratisch, korrupt oder repressiv ist. Amerikanische Diplomaten und Funktionäre der Auslandshilfe müssen belohnt anstatt bestraft werden, wenn sie sich unvermeidlich im Spiel der Auslandshilfe befinden, weil sie die Wahrscheinlichkeit der Nachhaltigkeit abschätzen und Projekte auch mal absagen. Die größte wirtschaftliche Entwicklung gibt es, wenn die Bedingungen vor Ort dies zulassen. Auslandshilfe kann wenig ausrichten, wenn Diktatur und Korruption vorherrschen, wie es in den meisten afrikanischen Ländern der Fall ist.

Stopp der Vorschriften bzgl. Biotreibstoffen: „Biotreibstoff-Hungersnot“ nennen es die Afrikaner, wenn Unternehmen aus entwickelten Ländern landwirtschaftliche Flächen der Dörfer übernehmen, so dass sie Profite erzielen können mittels der Erfüllung von Vorschriften bzgl. „grüner“ Treibstoffe. Die Trump-Regierung sollte unsere eigenen Äthanol-Minima fallen lassen, und sie sollte es zu einem prinzipiellen Handels-Eckpunkt und zum Gegenstand in Verhandlungen mit europäischen Ländern machen, diese Vorschriften ebenfalls fallen zu lassen.

Gegen „kohlenstoff-lastige“ Vorschriften: In ihrem niemals endenden Kreuzzug, verlogene „Kohlenstoff-Offsets“ zu finden, welche es ihnen gestatten, Reduktionen von Kohlenstoff-Emissionen geltend zu machen ohne eigene Kraftwerke zu schließen, haben europäische Länder ein Durcheinander aus dem einfachen Akt gemacht, Güter aus Entwicklungsländern zu importieren. Blumen aus Kenia beispielsweise zahlen eine Kohlenstoff-Steuer, weil sie mit Flugzeugen transportiert werden, welche pro Blume mehr Treibstoff verbrauchen als ein langsameres Schiff. Als Teil eines internationalen Konsortiums des Luftverkehrs können die USA solche Vorschriften verhindern und umkehren, was zu mehr Handel und Arbeitsplätzen in entwickelten Ländern führt. Im Jahre 2011 setzte der Kongress ein Gesetz in Kraft, welches das Programm des Konsortiums blockierte, eine Kohlenstoff-Steuer auf den gesamten Luftverkehr einzuführen. Als Schutz unserer Reiserechte sollten wir auch nach jenen der Exporteure in Entwicklungsländern Ausschau halten.

Um diese Änderungen zu erreichen und dauerhaft zu machen, sollte Trump klarstellen, dass das Paradigma einer von fossilen Treibstoffen verursachten Klimakatastrophe abgelehnt wird. Unter Obama erzeugte praktisch jedes Ministerium der Regierung Verwaltungsapparate, deren primäres Ziel es gewesen zu sein scheint, Steuergelder für die Dämonisierung von Treibhausgasen auszugeben. Zwar ist es leicht, es einfach zu ignorieren, wie es viele Länder scheinheilig getan haben, doch sollte Trump vom Pariser Abkommen 2015 und seinen freiwilligen „absoluten Zielen der Reduktion von Emissionen“ sowie vom UN-Rahmenabkommen 1992 seinen Rückzug daraus ankündigen als einen Weg, unsere heimische Bürokratie schockartig dazu zu bringen, weniger Schaden anzurichten.

Präsidenten haben die Macht, von Abkommen und Verträgen zurückzutreten, wie es Carter mit unserem Vertrag mit Taiwan gemacht hat, um die Beziehungen zu China zu verbessern; oder wie Reagan, der sich aus der zwangsweisen Rechtsprechung des Weltgerichts zurückzog, um in der Causa unseres Nicaragua-Krieges nicht zu verlieren; oder wie George W. Bush, der sich aus dem Vertrag über die Begrenzung von Raketenabwehrsystemen zurückzog. Der technische Rückzug wird ein paar Jahre dauern wegen der Termini jener Abkommen, aber die Ankündigung selbst würde das Absahnen durch die „Klima-Finanzierung“ und „Klima-Reparationen“ beenden, welches Milliarden Dollar Auslandshilfe verschlingt.

Ich werde oft gefragt, warum ich angesichts der Behauptungen über eine Klimakatastrophe so ruhig bleibe. Nun, während des letzten Jahrzehnts habe ich es als Professor der Statistik und der Mathematik zu meinem beruflichen Aufgabenfeld gemacht, die innere Funktionsweise der Klimamodelle zu analysieren, welche die Waffe der UN-Klimapropaganda sind, und die für die Behauptung herangezogen werden, dass der größte Teil der Erwärmung um ein halbes Grad von 1980 bis 2010 industriellen Emissionen von Treibhausgasen geschuldet ist. Diese Modelle, von denen Obama glaubt, dass sie ihn zum Herr über die Thermostate machen, sind zwar hoch komplex, jedoch kindisch und fast eine Totgeburt angesichts des Agierens der chaotischen Atmosphäre und der mysteriösen Ozeane, die zu repräsentieren sie versuchen. Lustigerweise nehmen die gleichen IPCC-Modelle an, dass natürliche Variationen und nicht industrielle Emissionen für einen ähnlichen Anstieg von 1910 bis 1940 ursächlich sind, als die Emissionen noch zu gering waren, um theoretisch Auswirkungen zu zeitigen.

Aber es liegt in der Natur der Sache der geringen Erwärmung, verursacht durch was auch immer, dass Obama fast wahnhaft besessen davon geworden ist. Während des vorigen Jahrzehnts habe ich es meinen Studenten zur Aufgabe gemacht, die aktuellen wissenschaftlichen Studien zu analysieren, aufgrund derer das IPCC seine wiederholten Behauptungen aufstellt, dass Klimakatastrophen jetzt passieren und nach 100 Jahren ähnlicher Erwärmung eskalieren werden. Zu ihrem Erschrecken fanden meine Studenten heraus, dass in jeder einzelnen Studie Ergebnisse zu Stürmen, Dürren, Meeresspiegel, Waldbränden, Malaria und anderen imaginären Leiden nichts als suggestiv waren. Die Auswirkungen der einzelnen Variable Temperatur aus den Tausenden anderer bekannter und unbekannter Variablen, Trends und Zufallsereignisse zu entflechten, welche Klimawandel treiben, ist extrem schwierig, wenn man lediglich die paar Jahre mit global gemessenen Temperaturdaten heranzieht, die wir verfügbar haben.

Ich zweifle nicht daran, dass Treibhausgase auch weiterhin eine gewisse Erwärmung bringen werden, jedoch weitaus weniger als die Alarmisten behaupten. Und ich zweifle nicht daran, dass sich das Klima auch weiterhin ändern wird, mit oder ohne industrielle Emissionen. Wie in der Vergangenheit auch wird die Menschheit mit diesen Änderungen fertig werden – und das viel effektiver als damals dank moderner Technologie und einer wohlhabenderen Bevölkerung. Aber nach 35 Jahren intensiver Studien haben wir keinen Anlass, Präsident Obamas Prophezeiungen von den Planeten bedrohenden Konsequenzen durch mehr Kohlendioxid zu glauben. Darum bin ich so sicher, dass Behauptungen einer wahrscheinlichen Klimakatastrophe unbegründet sind und verblassen gegenüber den Vorteilen billiger fossiler Treibstoffe für arme Länder.

——————————

Caleb Stewart Rossiter, Adjunct Professorial Lecturer, School of International Service and Department of Mathematics and Statistics, American University.

Link: https://wattsupwiththat.com/2017/01/17/trump-and-international-energy-poverty-five-steps/

Übersetzt von Chris Frey EIKE




Interview mit Prof. William Happer

TheBestSchools

Prof. Happer: Vielen Dank, dass Sie sich für dieses Interview bereit erklärt haben und an einer Diskussion mit dem australischen Physiker David Karoly teilnehmen. Die Kontroverse um die globale Erwärmung ist sowohl außerordentlich kompliziert und hoch emotional aufgeladen. In diesem Interview werden wir das Ganze aus verschiedenen Blickwinkeln betrachten, die sowohl wissenschaftlicher als auch politischer Natur sind.

Im Folgenden beschreibt Happer, Jahrgang 1939, seinen Lebenslauf, der ihn nach dem 2. Weltkrieg in die JASON-Gruppe führte, eine Gruppe von Wissenschaftlern, die für die US-Regierung geheime und nicht geheime Studien durchführte. Dabei wurde er auch ins Energieministerium berufen. Hier wurde er später konfrontiert mit der regierungsamtlichen Propaganda bzgl. Klimawandel, der er zunächst folgte, bis ihn die schrillen Dissonanzen in der Argumentation störten. So kam es, dass er von seinem vieljährigen Posten am Energieministerium gefeuert wurde nach Amtsantritt der Bill Clinton/Al Gore-Regierung, weil er die Al Gore-Behauptungen zu hinterfragen gewagt hatte. Seitdem wurde er zu einem Vertreter der Klimaskeptiker, und als solcher wurde er auch interviewt.

————————————–

Gleich bei der ersten Frage des Interviews beschreibt Happer, wie die Destruktiv-Organisation Greenpeace gegen ihn vorgegangen war. Weil dies beispielhaft stehen kann für das, was viele ehrliche und der wirklichen Wissenschaft verpflichteten Forscher widerfahren kann, wird Happers Antwort hier in ganzer Länge übersetzt:

TheBestSchool

Wir haben erfahren, dass Sie jüngst Opfer einer von Greenpeace organisierten „verdeckten“ Operation geworden sind. Verleumderische Behauptungen darüber, wie sie da herausgekommen sind, gibt es im Internet zuhauf, selbst in Ihrem Wikipedia-Beitrag. Würden Sie uns vielleicht kurz Ihre Seite der Story erzählen?

William Happer

Greenpeace ist eine der vielen Organisationen, die mit dem Alarmismus hinsichtlich einer vermeintlichen Bedrohung durch globale Erwärmung sehr gut leben kann. Sie sind nicht in der Lage, die auf extrem schwachen Füßen stehende Wissenschaft zu verteidigen. Darum dämonisieren sie nicht nur den vermeintlichen „Verschmutzer“, also das atmosphärische CO2, sondern auch sämtliche Wissenschaftler, die ihre Propaganda effektiv widerlegen.

Ich glaube, ich sollte mich geschmeichelt fühlen, eines ihrer Opfer zu sein: je mehr Feinde, je mehr Ehre [das steht so im Original, gefolgt von einer sinngemäßen Übersetzung ins Englische! Anm. d. Übers.], wie es in einem alten Sprichwort aus Deutschland heißt. Aber meine Erfahrungen in dieser Hinsicht verblassen doch sehr im Vergleich zu dem, was man Wissenschaftlern wie Willie Soon, Patrick Michaels und anderen angetan hat, welche nicht nur verunglimpft, sondern gleich von ihren Arbeitsstellen vertrieben wurden.

Die Schmierenkampagne begann im Jahre 2015, als ich eine E-Mail von einem Greenpeace-Agenten erhielt, der sich als ein Repräsentant eines „Kunden“ in Nahost ausgab. Er wollte, dass ich etwas über die Vorteile von CO2 schreibe. Wie ich weiter unten ausführen werde, habe ich schon sehr lange die Ansicht vertreten, dass mehr CO2 vorteilhaft für die Erde ist, hauptsächlich weil die Pflanzen damit effektiver gedeihen und ihre Widerstandskraft gegen Dürren stärken, und weil die Erwärmung durch mehr CO2, wie es von den Modellen des Establishments prophezeit wird, um einen Faktor drei oder mehr übertrieben wird.

Seit Jahren habe ich jeden nur denkbaren Weg benutzt, um die guten Nachrichten über die Vorteile von CO2 zu verbreiten. Daher rannte man bei mir offene Türen ein, ein Op-Ed oder einen Beitrag zu diesem Thema für den Kunden zu schreiben. So weit es mich betraf, benutzte ich den Kunden, nicht vice versa. Ich empfehle jedem geneigten Leser mit Interesse an dieser Episode, den vollständigen E-Mail-Austausch zwischen mir und dem Greenpeace-Agenten zu lesen. Er ist im Internet einsehbar.

In einer der ersten E-Mails mit Datum 3. 11. 2015 stellte ich fest:

Ich würde sehr gerne helfen, falls meine Standpunkte, umrissen in den Anhängen, auf einer Linie liegen mit denen Ihres Kunden.

Der Satz macht klar, dass ich lediglich daran interessiert war, dem „Kunden“ zu helfen, meine schon lange gehegten Ansichten zu publizieren und nicht hausieren zu gehen damit, was auch immer der „Kunde“ im Sinn hatte.

Man beachte auch die Bemerkungen in meiner E-Mail-Antwort vom 5. 11. 2015:

Um sicherzustellen, dass Ihr Kunde durch meine Ansichten nicht in die Irre geführt wird, stelle ich klar, dass es sehr wohl reale Verschmutzer im Zusammenhang mit der Verbrennung fossiler Treibstoffe gibt, als da wären Oxide von Schwefel und Stickstoff, fliegende Asche und Schwermetalle bei Kohle, volatile organische Stoffe bei Benzin, usw. Ich stehe voll hinter Vorschriften für die kosteneffektive Kontrolle dieser realen Verschmutzer. Aber die Klimagespräche in Paris basieren auf der Prämisse, dass CO2 selbst ein Verschmutzer ist. Das ist komplett falsch. Mehr CO2 wird der Welt zum Vorteil gereichen. Der einzige Weg, CO2 zu limitieren, wäre es, keine fossilen Treibstoffe mehr zu verwenden. Das jedoch, so glaube ich, wäre eine ausgesprochen unmoralische und irrationale Politik.

Der Schlussabschnitt meiner Mail vom 5. 11. 2015 lautet:

Meine Aktivitäten, den Klima-Extremismus zurückzudrängen, führe ich als ein Herzensanliegen meinerseits durch, um die in Ehren gehaltenen Ideale der Wissenschaft zu verteidigen, die so stark korrumpiert sind durch den Klimawandel-Kult. Falls Ihr Kunde überlegt, mich zu entlohnen, falls ich etwas schreibe, würde ich fordern, dass eine wie auch immer geartete Entlohnung direkt an die CO2-Koalition geht. Dies war das Arrangement, welches ich mit den Anwälten vereinbart hatte, die die Peabody Coal Company bei den Anhörungen in Minnesota vertraten. Die Entlohnung, die ich erhalten hätte, wurde nicht an mich gezahlt, sondern an die CO2-Koalition, einer von Steuern befreiten, uneigennützigen Bildungsorganisation. Die CO2-Koalition deckt mitunter Reisekosten von mir ab, zahlt mir aber darüber hinaus keinerlei Gehalt.

Ich habe niemals auch nur einen Penny für irgendeine meiner Aktivitäten zur Aufklärung der Öffentlichkeit bzgl. der Vorteile von CO2 für die Welt genommen.

Daran kann man erkennen, dass ich etwas gratis schreiben würde als eine „Arbeit des Herzens“, solange nur gewährleistet war, dass meine Botschaft (nicht die Botschaft des „Kunden“) noch mehr Menschen erreicht. Die erwähnte CO2-Koalition ist eine neue, von Steuern befreite nichtkommerzielle Organisation, welche meine Freunde zusammen mit mir ins Leben gerufen hatten, um die guten Nachrichten über CO2 noch weiter zu verbreiten. Ich denke, man könnte es eine „Anti-CO2-Diffamierungs-Liga“ bezeichnen. Die Koalition führt eine Von-Der-Hand-In-Den-Mund-Existenz, mit einem Jahresbudget unter 200.000 Dollar pro Jahr. Selbst ein paar tausend Dollar von dem „Kunden“ würden helfen, die Lichter nicht ausgehen zu lassen. Als ich es zum letzten Mal gecheckt hatte, verfügt Greenpeace über ein Jahresbudget von 350 Millionen Dollar, das ist über 300 mal so viel wie das Budget der Koalition.

Noch einmal, ich habe niemals auch nur einen Penny genommen für meine Aktionen, der Öffentlichkeit nahezubringen, dass mehr CO2 der Welt zum Vorteil gereicht. Ich habe sogar Tausende Dollar meines mäßigen Universitäts-Gehaltes für diesen Zweck geopfert. Falls irgendein Leser dieses Interviews der Koalition helfen möchte, kann er weitere Informationen und wie man spenden kann auf der Website der CO2-Koalition finden.

Unter den Folgen der Greenpeace-Schmähkampagne waren viele böse, obszöne Telefonanrufe und E-Mails, in denen ich, meine Familie und sogar meine Enkelkinder bedroht wurden*. George Orwell hat diese Taktiken in seinem Roman 1984 beschrieben, in dem er die täglichen obligatorischen „Zwei Minuten Hass“ auf Emmanuel Goldstein (Leo Trotzky) und seine Agenten beschrieb, die die Feinde von Big Brother (Stalin) und seinen Schergen waren.

[*Hervorhebung vom Übersetzer!]

Greenpeace und weitere, sogar noch fanatischere Elemente der Globale-Erwärmung-Bewegung stehen in vollem Umfang hinter der historischen Lüge, dass ihr ideologisches Ziel – die Eliminierung fossiler Treibstoffe – jedwede Mittel rechtfertigt, einschließlich der Verfälschung wissenschaftlicher Daten und Rufmord ihrer Gegner.

Aber Kipling hat recht: wir werden siegen:

If you can bear to hear the truth you’ve spoken
Twisted by knaves to make a trap for fools,
Or watch the things you gave your life to, broken,
And stoop and build ’em up with worn-out tools.

[Die nächste Frage von TheBestSchools befasst sich mit dem allgemeinen CO2-Narrativ, welches in Politik und Medien auf und ab kolportiert wird. Happer sagt dazu:]

William Happer

Lassen Sie mich zunächst auf die Stichworte eingehen, die Sie genannt haben. Ja, das CO2-Niveau ist gestiegen, und zwar um etwa zwei ppm pro Jahr während der letzten Jahre. Ja, CO2 ist ein „Treibhausgas“. Das heißt, es ist teilweise undurchlässig für die thermische Infrarotstrahlung der Erdoberfläche, aber transparent für das meiste Sonnenlicht. Die weitaus größten Anteile der Atmosphäre, Stickstoff und Sauerstoff, sind sowohl bzgl. Sonnenlicht als auch thermische Strahlung durchlässig und daher keine Treibhausgase.

Die Aussage „wegen des gestiegenen CO2-Gehaltes muss die Erdatmosphäre wärmer werden“, ist nicht gut formuliert. Wie man weiß hat die Atmosphäre keinen einzelnen Temperaturwert. Das approximierte vertikale Temperaturprofil der Atmosphäre sieht so aus:

Abbildung 1: Vertikales Temperaturprofil der Erdatmosphäre. Man geht davon aus, dass mehr CO2 die Stratosphäre abkühlt und die Troposphäre erwärmt. Der Betrag der Erwärmung an der Erdoberfläche wird wahrscheinlich um 1°C liegen bei einer Verdoppelung der CO2-Konzentration in der Atmosphäre. Quelle: Astrobites.

Obwohl es bedeutende Ausnahmen gibt, ist die Atmosphäre normalerweise nahe der Oberfläche am wärmsten und kühlt sich mit zunehmender Höhe ab. Eine repräsentative Abkühlungsrate über die ersten 10 km oder so ist etwa 6,5°C pro km. Darum suchen die Menschen im Sommer die Berge auf, um der Hitze zu entkommen. Ich besuchte die Hochschule in der kleinen Stadt Lenoir in North Carolina auf einer Seehöhe von etwa 400 m, wo es üblicherweise um etwa 8°C wärmer war als im beliebten Erholungsort Blowing Rock auf einer Seehöhe von etwa 1100 m, etwa 20 Meilen [ca. 32 km] entfernt von der Gipfelkette der Blue Ridge Mountains.

[Es folgt eine Erklärung der Vorgänge in Troposphäre und Stratosphäre. Darauf aufbauend führt Happer weiter aus:]

Mit jedem weiteren Jahr, das vorübergeht, gibt es aus Beobachtungen weniger Unterstützung für diese „positive Rückkopplung“ der direkten Erwärmung durch CO2.

Die Troposphäre, also die unteren 11 km der Luft – unterscheidet sich deutlich von der Stratosphäre. Nahe der Erdoberfläche erfolgt der weitaus größte Beitrag zum Wärmeaustausch durch Konvektion feuchter Luft und nicht durch Strahlung. Nur bei dieser könnte CO2 jedoch einen direkten Unterschied ausmachen. Mehr CO2 kann möglicherweise die Troposphäre und die Erdoberfläche erwärmen. Aber hinsichtlich die Größenordnung dieser Erwärmung weiß man kaum etwas. Mein Schätzung lautet, dass sich die Erdoberfläche bei einer Verdoppelung der CO2-Konzentration um etwa 1°C erwärmen wird und in der mittleren Troposphäre vielleicht um 1,2°C. Diese Zahlen lassen sich aus den direkten Auswirkungen von mehr CO2 berechnen. Die vom IPCC genannte wesentlich höhere „Gleichgewichts-Klimasensitivität“, etwa 3°C pro Verdoppelung der Konzentration, stammt aus der Annahme, dass die relativ geringe direkte Temperaturzunahme durch mehr CO2 erheblich verstärkt wird durch Änderungen er Eigenschaften von Wasserdampf und Wolken. Mit jedem weiteren Jahr, das vorübergeht, gibt es immer weniger Stützung durch Beobachtungen für diese „positive Rückkopplung“ der direkten Erwärmung durch CO2.

Lassen Sie mich jetzt zu den vier offiziellen IPCC-Positionen Stellung nehmen, die Sie erwähnt hatten:

Globale Erwärmung ist eine fundierte Tatsache. Diese Feststellung ist nur zur Hälfte richtig. Ein korrekteres Statement wäre „globale Erwärmung und globale Abkühlung sind beides fundierte Tatsachen“. Die Erde ist ständig Schauplatz von Erwärmung und Abkühlung. Seit dem Jahr 1800 hat sich die Erde um etwa 1°C erwärmt, wobei der größte Teil dieser Erwärmung vor einer stärkeren Zunahme des atmosphärischen CO2 stattgefunden hat. Es gab eine ziemlich substantielle Abkühlung von 1940 bis 1975. Es gab praktisch keine Erwärmung während der letzten 20 Jahre, obwohl das CO2-Niveau schneller denn je zugenommen hat. Dieser Wechsel zwischen Erwärmung und Abkühlung war während der gesamten geologischen Historie ein Charakteristikum des Erdklimas.

Die Erwärmung ist anthropogen. Nein! Der größte Teil der Erwärmung ist natürlichen Ursachen geschuldet. Aber vieles der CO2-Zunahme von etwa 280 ppm im Jahr 1800 auf etwa 400 ppm im Jahre 2015 ist möglicherweise anthropogenen Ursprungs, obwohl Ozeane und Festland durch die Erwärmung etwas CO2 freigesetzt haben. Die Erwärmung der Städte korrelierte sehr gut mit dem zunehmenden CO2-Gehalt. Dies ist dem gut erforschten Städtischen Wärmeinseleffekt sich ausbreitender Städte geschuldet. Aber nicht der zunehmende CO2-Gehalt ist Ursache der Erwärmung in den Städten, sondern das Verschwinden von Grünland und Wäldern mit ihrer Verdunstungs-Abkühlung sowie der Ausbau von Straßen und Gebäuden, die keinen Wasserdampf verdunsten. Natürlich hat auch das CO2-Niveau gleichlaufend mit der städtischen Erwärmung zugenommen, aber das zusätzliche CO2 ist nicht Ursache der Erwärmung in Verbindung mit Verstädterung. Korrelation heißt nicht Kausalität! Die Sonne geht morgens nicht deswegen auf, weil der Hahn kräht. Außerhalb städtischer Gebiete der Erde ist die Korrelation zwischen CO2-Niveau und Temperatur praktisch nicht erkennbar.

Unter den mächtigen natürlichen Einflüssen auf das Klima sind relativ kurzzeitige periodische Phänomene der Änderungen von Meeresströmen wie El Nino und längerzeitliche periodische Änderungen wie die PDO oder die NAO. Von großen Vulkanausbrüchen weiß man, dass sie das Klima ein paar Jahre lang abkühlen. Es gibt immer mehr Beweise, dass Änderungen der Sonnenaktivität irgendwie das Klima beeinflussen, und vermutlich gibt es noch viele andere Einflüsse, die wir noch gar nicht entdeckt haben.

Ein geringer Anteil der Erwärmung von 1°C während der letzten beiden Jahrhunderte muss dem gestiegenen CO2-Gehalt geschuldet sein, welches in der Tat ein Treibhausgas ist. Im Gleichgewicht sollte die Temperaturzunahme ΔT=S log2 (400 ppm/280 ppm) betragen haben, wobei S die Gleichgewichts-Klimasensitivität ist. Ohne Rückkopplung kann die theoretische Sensitivität berechnet werden mit nahe S = 1°C, und der Logarithmus zur Basis 2 ist log2 (400/280) = 0,51. Also hätte die rückkopplungs-freie Erwärmung ΔT = 0,51° C betragen sollen, also etwa halb so groß wie die beobachtete Erwärmung sein müssen. Die andere Hälfte der Erwärmung wäre dann natürlichen Ursachen geschuldet, vielleicht wegen der Erholung der Erde aus der „Kleinen Eiszeit“, über die wir weiter unten noch sprechen werden.

Die vom IPCC genannte Gleichgewichts-Sensitivität beträgt S = 3°C, also etwa drei mal so viel wie der rückkopplungsfreie Wert von S = 1°C. Folglich hätte die CO2-induzierte Erwärmung den IPCC-Modellen zufolge drei mal größer sein müssen, also ΔT = 1,54° C, was substantiell mehr ist als beobachtet. Um diese blamable Überschätzung zu rechtfertigen, nehmen die Modelle des Establishments an, dass ein großer Teil dieser Erwärmung durch Abkühlung durch Aerosole aufgefangen worden ist – beispielsweise durch kleine Schwefelpartikel aus der Verbrennung stark schwefelhaltiger Kohle und Öl. Tatsächlich weiß man, dass bei großen Vulkanausbrüchen freigesetzte Schwefelpartikel wie beim Ausbruch des indonesischen Vulkans Tambora im Jahre 1815 mehrere Jahre lang zu einer weltweiten Abkühlung geführt hatten. Aber der Teufel steckt im Detail, und viele Wissenschaftler, die sorgfältig die Physik dahinter untersucht hatten, betrachten die Aerosol-Korrekturen größten teils als einen Schummel-Faktor, ins Spiel gebracht seitens des Globale-Erwärmung-Establishments, um zu vermeiden zugeben zu müssen, dass der Gleichgewichts-Temperaturanstieg durch eine Verdoppelung des CO2-Gehaltes viel weniger als S = 3°C beträgt.

Aus all dem folgt, dass mehr CO2 für die Menschheit erheblich von Vorteil ist.

Es ist ein großes Problem für die Menschheit. Falsch, das genaue Gegenteil ist der Fall: Mehr CO2 wird ein Vorteil für die Menschheit sein. Die prophezeite Erwärmung durch CO2 ist erheblich übertrieben. Die Gleichgewichts-Erwärmung durch eine CO2-Verdoppelung beträgt nicht 3°C, was man marginal vielleicht als Problem ansehen könnte, sondern eher etwa 1°C, was vorteilhaft wäre. Man sollte nicht vergessen, dass „globale Erwärmung“ ein Mittelwert ist. In den Tropen wird es kaum Erwärmung geben, ebenso über Mittag. Irgendeine Erwärmung wird es hauptsächlich in gemäßigten und polaren Gebieten geben sowie nachts. Dies wird die landwirtschaftliche Saison in vielen Ländern wie Kanada, Skandinavien und Russland verlängern. Außerdem verstärkt mehr CO2 die Effizienz der Photosynthese der Pflanzen und macht diese dürreresistenter. Fazit: Alles in allem wird mehr CO2 für die Menschheit ein großer Vorteil sein.

Eine gemeinsame globale Anstrengung ist erforderlich, um die Erwärmung zu bekämpfen. Angesichts der Kommentare oben ist dies blanker Unsinn. Maßnahmen der Regierung, um das gar nicht existierende Problem zu bekämpfen, haben die Landschaft mit Windparks und Solarfarmen verschandelt. Sie haben den Strompreis stark steigen lassen, was unverhältnismäßig die Ärmsten der Gesellschaft getroffen hat. Maßnahmen der Regierung haben die Wissenschaft korrumpiert, sie wurde mit Geld überflutet, damit sie zu politisch korrekten Ergebnissen kommt. Es ist endlich an der Zeit für Regierungen, die Wahrheit über globale Erwärmung zuzugeben. Erwärmung ist nicht das Problem. Die Maßnahmen der Regierung sind das Problem.

[Es folgt eine längere Passage zu Klimamodellen. Dann folgen längere Passagen zu den Themen Satellitenbeobachtrungen und Datenmanipulation. All dies ist ebenfalls schon in verschiedenen Beiträgen auf dieser Website zur Sprache gekommen.]

[Hier folgt im Interview eine ausführliche Beschreibung und Diskussion zu allen Aspekten bzgl. globale Erwärmung, als da wären die fabrizierte „Nichtexistenz“ des Stillstands, der Hockeyschläger, Datenmanipulationen usw. Das war alles wiederholt und seit Längerem Thema von Beiträgen auf diesem Blog, so dass dieser teil übersprungen wird. Dann aber geht es darum, ob wirklich Grund zum Alarm besteht, wobei die Ausführungen Happers sehr interessant sind. Im letzten Teil geht es dann noch um den sog. „Konsens“, zu dem Happer ebenfalls treffende Bemerkungen abgibt:]

TheBestSchools

Lassen Sie uns jetzt zum nächsten Punkt kommen, nämlich: Selbst unter der Annahme, dass die globale Erwärmung eine etablierte Tatsache und durch menschliche Aktivitäten verursacht ist (im Besonderen durch Verbrennung fossiler Treibstoffe), beharren Kritiker immer noch darauf, dass man mit Fug und Recht hinterfragen kann, ob es irgendwelche Gründe für Alarm angesichts dieser Fakten gibt. Oftmals werden Gründe angeführt, warum globale Erwärmung so schlecht nicht ist, darunter:

Die Mittelalterliche Warmzeit zeigt, dass eine globale Erwärmung um ein paar Grad keine Katastrophe ist.

Die mögliche Existenz verschiedener negativer Rückkopplungseffekte zeigt, dass sich die Erwärmung sehr gut selbst begrenzen könnte. Unter diesen negativen Rückkopplungen sind:

verstärkte Wolkenbildung, welche mehr Sonnenenergie reflektieren

Zunehmende Vegetation, welche mehr CO2 absorbiert

Unterstützer des Konsens‘ würden sagen, dass die Größenordnung des gegenwärtigen anthropogenen Antriebs zu Erwärmungen führen muss, welche jene aus früheren historischen Epochen marginalisiert.

Was meinen Sie dazu?

William Happer

Ich bin davon überzeugt, dass der größte Teil der Erwärmung natürlichen Gründen geschuldet ist, auf welche die Regierungen keinerlei Einfluss haben.

Wie ich oben erläutert habe, stelle ich nicht in Frage, dass sich die Erde nach dem Ende der Kleinen Eiszeit erwärmt hat, aber ich bin überzeugt, dass der größte Teil der Erwärmung natürliche Ursachen hat. Schon jetzt sehen wir mehr Vegetation auf der Erde, die mehr CO2 absorbiert. Aber wie ich in der Antwort auf Ihre nächste Frage ausführen werde denke ich, dass mehr CO2 gut für die Welt ist, dass diese seit Zehner-Millionen Jahren in einer CO2-Armut gesteckt hat und dass 1000 oder 2000 ppm ideal wären für die Biosphäre. Ich bin perplex angesichts der hysterischen Versuche, das CO2-Niveau unter 350 ppm zu drücken, ein Wert, den man aus einem Blick in die Glaskugel gefunden hat, der aber in keiner Weise auf Wissenschaft beruht.

TheBestSchools

Jetzt gehen Sie weiter als viele andere Kritiker des Konsens-Standpunktes, wenn Sie nicht nur betonen, dass gesteigerte atmosphärische CO2-Konzentrationen und globale Erwärmung keine Katastrophe seien, sondern dass sie sogar in großem Umfang vorteilhaft für die Menschheit seien.

Können Sie das bitte näher ausführen?

William Happer

Wir verdanken unsere Existenz grünen Pflanzen, die Kohlendioxid-Moleküle (CO2) und Wasser-Moleküle (H2O) mit Hilfe des Sonnenlichts in Kohlehydrate umwandeln. Ein Sauerstoff-Molekül (O2) wird für jedes CO2-Molekül freigesetzt, welches zu einem Kohlehydrat wird. Viel Sauerstoff ist ein Lebenselixier für die meisten Tiere. Aber wegen des derzeit sehr geringen CO2-Nivaus setzt Sauerstoff der photosynthetischen Effizienz von C3-Pflanzen ernsthafte Grenzen. Dies betrifft alle Bäume und viele landwirtschaftlich genutzte Pflanzen.

Pflanzen an Land bekommen den benötigten Kohlenstoff aus dem CO2 in der Luft. Die meisten Pflanzen ziehen andere Nährstoffe – Wasser, Stickstoff, Phosphor, Kalium – aus dem Boden. Genau wie Pflanzen besser wachsen auf gedüngten und gut bewässerten Böden, wachsen sie auch besser in der Luft mit CO2-Konzentrationen, die viele Male höher liegen als gegenwärtig.

[Es folgen ein paar Absätze, in denen er oben gesagtes näher erläutert und wie der geringe CO2-Gehalt das Pflanzenwachstum beeinträchtigt. Alle Absätze, die hier in der wörtlichen Übersetzung übersprungen werden, listet er am Ende konzentriert auf. Als nächstes jedenfalls geht es um den „Konsens“. Das folgt hier wieder in der direkten Übersetzung:]

TheBestSchools

Als nächstens wollen wir uns dem so genannten „Konsens“ zuwenden, von dem es heißt, dass er unter den Wissenschaftlern weltweit bzgl. globaler Erwärmung existiert.

Wir haben diesen Terminus der Bequemlichkeit halber verwendet, und es sieht mit Sicherheit so aus, als ob die Mehrheit der Wissenschaftler, die sich zu diesem Thema zumindest öffentlich äußern, dazu neigen, die offizielle IPCC-Position zu stützen. Andererseits wird die Behauptung, dass der Konsens „überwältigend“ ist (häufig wird die Zahl „97 Prozent“ genannt) von deren Befürwortern herangezogen, um Diskussionen und abweichende Meinungen abzuwürgen. Aus diesem Grund war die Behauptung der Kritik einiger Konsens-Kritiker ausgesetzt.

Beispiel: In ihrem Buch Taken by Storm (Key Porter Books, rev. ed. 2007) behaupten Christopher Essex und Ross McKitrick, dass ein solcher „Konsens“ nur wegen etwas besteht – falls das überhaupt so ist – was sie einen „perfekten Sturm“ nennen, in welchem übertriebene Behauptungen durch NGO-Propagandisten (wie Greenpeace) aufgenommen und von den Medien noch weiter aufgebauscht werden, was den Politikern (die normalerweise kein wissenschaftliches Hintergrundwissen haben) das Gefühl vermittelt, dass sie etwas tun müssen, was man bemerkt. All dies, behaupten sie, hat einen dämpfenden Effekt auf Wissenschaftler, die nicht den Konsens-Standpunkt teilen, die dies jedoch nicht offen sagen, weil sie Nachteile für ihre Laufbahn befürchten. In diesem Sinne wird der „Konsens“ zu einer sich selbst erfüllenden Prophezeiung.

Wie sehen Sie das? Gibt es einen Konsens bzgl. globaler Erwärmung? Ist er überwältigend? Falls ja, sind die Gründe dafür das, was Essex und McKitrick anführen, oder andere?

William Happer

Essex und McKitrick sind zur Zielscheibe geworden in ihrem Buch Taken by Storm. Es ist verblüffend, dass viele Skeptiker wie ich selbst im Ruhestand sind. Abgesehen von Rufmord gibt es nicht viel, was uns die Angriffshunde des Klimakonsens‘ tun können, zumindest bisher. Aber junge Akademiker wissen genau, dass sie ihre Karriere aufs Spiel setzen, wenn sie irgendwelche Zweifel an der Parteilinie bzgl. globaler Erwärmung verlauten lassen.

Was den Konsens in der Wissenschaft betrifft, kann niemand eloquenter sein als Michael Crichton in seinem Vortrag „Aliens Cause Global Warming“ (PDF) am California Institute of Technology im Jahre 2003:

[Es folgt ein Ausschnitt aus diesem Vortrag, der in der berühmten Aussage kulminiert:]

In der Wissenschaft ist ein Konsens irrelevant. Relevant sind ausschließlich reproduzierbare Ergebnisse. Die größten Wissenschaftler in der Geschichte sind genau aus dem Grunde die größten, weil sie mit dem Konsens gebrochen haben.

Es gibt so etwas wie Konsens in der Wissenschaft nicht. Falls es Konsens ist, ist es keine Wissenschaft. Falls es Wissenschaft ist, ist es kein Konsens. Punkt!“ Soweit Crichton.

TheBestSchools

Hier klangen schon schwierige moralische, gesellschaftliche und politische Dinge an, zusätzlich zu den rein wissenschaftlichen Dingen. Darum wollen wir jetzt in den Teil des Interviews einsteigen, in dem wir direkt einige der gesellschaftlichen Dinge ansprechen, die für die öffentliche Diskussion über globale Erwärmung relevant sind.

Im Einzelnen möchten wir Ihnen vier spezielle Fragen stellen:

Sind konzertierte Maßnahmen der Regierung auf globaler Ebene wünschenswert?

Falls ja, welchem Prinzip der Fairness sollte bei jenen Maßnahmen Rechnung getragen werden?

Wenn die Hürden sehr hoch sind und es einen breiten wissenschaftlichen Konsens gibt, sollten Kritiker der Mainstream-Standpunkte nichtsdestotrotz aufgefordert werden, ihre Standpunkte frei benennen zu können?

Ist politisches Eintreten durch Wissenschaftler überhaupt etwas Gutes?

[Die Frage wird dann noch näher ausgeführt und alle wesentlichen Punkte angesprochen, die auch hier in vielen Beiträgen auf diesem Blog schon angeklungen waren. Daher folgt hier gleich Happers Antwort:]

William Happer

Lassen Sie mich beginnen mit ihren oben aufgelisteten Fragen:

Sind konzertierte Maßnahmen der Regierung auf globaler Ebene wünschenswert? Nein! Mehr CO2 ist gut für die Welt, nicht schlecht. Konzertierte regierungsamtliche Maßnahmen können trotzdem ergriffen werden, wie schon so oft in der traurigen Historie menschlicher Dummheit. Ein Beispiel sind die Kreuzzüge, als die Anführer des „Westlichen Christentums“ sich zusammengeschlossen haben, um die Völker des östlichen Mittelmeergebietes zu bestrafen. Die Ära der Prohibition in den USA ist ein lokaleres Beispiel eines idiotischen Kreuzzuges, der sich als verheerend herausgestellt hatte. Einige wenige Opportunisten werden erheblich profitieren, falls konzertierte Maßnahmen bzgl. Klima ergriffen werden, aber die meisten Menschen und auch die Umwelt werden leiden.

Werden unsere allmächtigen Regierungen die Zunahme oder die Abnahme der Sonnenaktivität bekämpfen? Wo ist Owen Glendower (Bild 31 links), wenn wir ihn brauchen, um die „Geister aus der dunklen Tiefe“ zu beschwören, oder King Canute, um die Gezeiten zu stoppen? Ich bin nicht erpicht darauf, mich wahnwitzigen, von der Regierung gesponserten Geoengineering-Programmen eines flüchtigen Dr. Strangelove zu unterwerfen. Auch ist die Reduktion der menschlichen Population von derzeit sieben Milliarden Menschen auf nicht mehr als 1 Milliarde nicht sehr anziehend für mich, obwohl dies durch einflussreiche Klimaberater von Politikern und sogar des Papstes befürwortet wird. Sind wir gezwungen, Strohhalme zu ziehen, um zu entscheiden, welche sechs der sieben Menschen vom Angesicht der Erde verschwinden müssen?

Bzgl. CO2 sollten keinerlei Maßnahmen ergriffen werden. Aber ich stehe enthusiastisch hinter Maßnahmen gegen die wirkliche Verschmutzung von Luft, Boden oder Wasser durch Flugasche, Oxide oder Schwefel sowie Stickstoff aus der schlampigen Verbrennung von Kohle, oder Wasserverschmutzung durch sorglosen Umgang mit Düngern und Pestiziden, oder auch Plastikmüll in den Ozeanen infolge menschlicher Schlampigkeit.

Falls ja, welchem Prinzip der Fairness sollte bei jenen Maßnahmen Rechnung getragen werden? Ich betrachte den Krieg gegen den verantwortungsvollen Umgang mit Kohle und anderen fossilen Treibstoffen als zutiefst unmoralisch. Er wird die meisten Menschen verarmen lassen infolge steigender Energiekosten. Er wird kumpelhaft Kapitalisten bereichern, die den Rückhalt der Regierung haben, wenn sie die Menschen zwingen, ihre ineffiziente, kostspielige und unzuverlässige Energie aus Windmühlen und Solarparks zu kaufen. Es ist wie die französische Adlige, die als man ihr sagte, dass die Diner kein Brot mehr hätten geantwortet hatte: „Dann lasst sie Kuchen essen!“. Bei verantwortungsvoller Verwendung setzen fossile Treibstoffe nur vernachlässigbare Mengen an Verschmutzern frei wie Flugasche, Schwefel- und Stickoxide usw. Das so stark dämonisierte CO2, das zusammen mit H2O freigesetzt werden muss, ist tatsächlich ein Vorteil für die Erde, und nicht ein Verschmutzer.

Wenn die Hürden sehr hoch sind und es einen breiten wissenschaftlichen Konsens gibt, sollten Kritiker der Mainstream-Standpunkte nichtsdestotrotz aufgefordert werden, ihre Standpunkte frei benennen zu können? Jawohl! Dies ist die unveräußerbare Antwort für eine freie Gesellschaft, für welche ich und viele andere kämpfen, genau wie unsere Vorfahren es getan haben.

Ist politisches Eintreten durch Wissenschaftler überhaupt etwas Gutes? Jawohl! Wissenschaftler sollten sich auf jeder Seite eines kontroversen Themas äußern dürfen. Beispiel: Andrei Sacharov, einer meiner Helden, war ein leidenschaftlicher Verfechter eines Teststopps von Kernwaffen in der Atmosphäre. Er war davon überzeugt, dass der radioaktive Fallout der Bevölkerung der ganzen Welt große Schäden zufügen würde. Mein Onkel Karl Morgan, Gründer des Bereiches Gesundheits-Physik war ein leidenschaftlicher politischer Gegner, die Bevölkerung sorglos Strahlung auszusetzen.

[Als Nächstes führt Happer aus, dass er von Jugend auf für die Demokraten in den USA aktiv war. Es war zutiefst schmerzhaft für ihn zu sehen, wie sehr die Demokraten „sich genauso massiv der globalen Erwärmung verschrieben haben wie früher die Puritaner in Massachussetts den Hexen“.

Bei der nächsten Frage geht es darum, wie man am besten CO2-Emissionen reduzieren könnte. Dafür sieht Happer keinerlei Notwendigkeit, vielmehr würden solche Maßnahmen große Belastungen und keinerlei Vorteile bringen („All pain – no gain“). Weiter geht es dann mit „Freedom of Speech“, also der Redefreiheit. Dazu führt Happer aus:]

William Happer:

In der Wissenschaft kann es ohne Kontroversen keinerlei Fortschritt geben!

Fortschritte in der Wissenschaft sind ohne Kontroversen nicht möglich. Beispielsweise gab es Jahrzehnte Lang hitzige Debatten um die Theorie von Alfred Wegener bzgl. der Kontinentalverschiebung. Stanley Prusiner musste erbitterten Widerstand hinnehmen bzgl. seiner Theorie von Prionen und Rinderwahnsinn, weil diese Theorie gegen das Dogma stand, dass DNA oder RNA Auslöser von Infektionskrankheiten sein müssen, und nicht ein Protein.

Der Unterschied zur Kontroverse um die globale Erwärmung ist diesmal die direkte Involvierung von Regierungen auf einer Seite. Wie Sie sagen, Forderungen des Kongresses, denen zufolge Klimaskeptiker dunkler Machenschaften angeklagt werden sollten, sind in den USA beispiellos, obwohl es einen ominösen Präzedenzfall gibt in Gestalt des Lysenkoismus, über den wir vorhin gesprochen haben.

Bernie Sanders sagt, er wird „Klimaleugner vor Gericht bringen“, falls er zum Präsidenten der USA gewählt werden würde. Was hätten Menschen wie ich von einem Präsidenten Sanders zu erwarten? Ein Konzentrationslager? Das Erschießungskommando?

Und was geschah mit dem Ersten Artikel der US-Verfassung?

Es gibt viele ehrliche Wissenschaftler, die mit dem Thema Klima der Regierung zuarbeiten. … Ich bewundere diese Wissenschaftler und mache sie nicht verantwortlich für die aggressiven Wenigen, die mich und andere diffamieren als vermeintliche Prostituierte der Industrie fossiler Treibstoffe.

Während des Großen Terrors unter Stalin waren die Äquivalente zu bösen fossilen Treibstoffen Leon Trotzki und seine Anhänger. Sie waren eine direkte Bedrohung für Stalins Kontrolle über die weltweite kommunistische Bewegung, genau wie heute Klimaskeptiker angesehen werden als eine existentielle Bedrohung des Globale-Erwärmung-Establishments.

Ich wäre überrascht, wenn die Förderung von Klimaskeptikern insgesamt über 2 oder 3 Millionen Dollar pro Jahr hinausgehen würde, und selbst diese Schätzung könnte noch viel zu hoch sein. Dagegen beliefen sich während der letzten Jahre die Ausgaben der US-Regierung für die Klimaforschung (PDF) etwa 20 Milliarden Dollar pro Jahr – über 1000 mal mehr als die Förderung von Skeptikern. Aber selbst dieser gewaltige finanzielle Vorteil ist nicht ausreichend, um den beklagenswert schwachen wissenschaftlichen Fall zu stützen, dass die Welt durch mehr CO2 in Gefahr ist.

TheBestSchools:

Dann gibt es da noch die Frage, ob sich Wissenschaftler in die Politik einbringen sollten, und zwar bis zu dem Grad, den wir bei der Episode globale Erwärmung erlebt haben. Argumentiert wird mit zwei Gründen:

a) Politiker könnten faul werden und ihre Verantwortung, sich zu informieren, von sich wegzuschieben, selbst besser das Thema zu verstehen.

b) Wissenschaftler könnten die Integrität wissenschaftlicher Forschung selbst kompromittieren bis zu einem Grad, in dem sie sich selbst schädigt, wenn es in Zukunft erneut kontroverse Themen geben sollte.

William Happer:

Viele diesbezügliche Dinge haben wir schon angesprochen. Ich denke, dass der Wissenschaft allgemein bereits sehr großer Schaden zugefügt worden ist durch den Wahnsinn um die globale Erwärmung während der letzten Jahrzehnte. Vor zwanzig Jahren haben vermeintliche Experten-Wissenschaftler feierlich erklärt, dass unsere Kinder und Enkel nicht mehr wissen werden, was Schnee ist. Vor ein paar Wochen musste sich Washington D.C. mühsam aus 3 Fuß Schnee [ca. 90 cm] herauswühlen – vielerorts ein neuer Rekord.

Bei der Entgegennahme seines Friedensnobelpreises (der auch Yassir Arafat verliehen worden war), sagte Al Gore, dass die Arktis bis 2013 sommers eisfrei sein könnte infolge der CO2-Emissionen. Ich ersuche jeden Leser, sich auf der entsprechenden Daten-Site umzusehen. Nur wenige Minuten der Betrachtung des Links zum „Meereis“ dürften ausreichen zu erkennen, dass sich seit dem Jahr 2007 das Meereis kaum verändert hat.Mit allem Respekt gegenüber Al Gore, es gab sehr viel Sommereis im Jahre 2013.

Ich hoffe, wenn der Globale-Erwärmung-Skandal einmal hinter uns liegt, dass man der Wissenschaft dann vergibt, dass sie sich so lange diesem Vorgang verschrieben hat. Die Biologie der Sowjetunion brauchte Jahrzehnte, um sich von dem durch den Lysenkoismus angerichteten Schaden zu erholen.

TheBestSchools:

Zum Schluss möchten wir Sie bitten – im Telegrammstil, wenn Sie mögen – uns die fünf stärksten Argumente gegen den Konsens-Standpunkt zu nennen, ebenso wie die fünf schwächsten Argumente, die die Befürworter allgemein pro dieses Konsens-Standpunktes anführen.

William Happer:

Klimamodelle haben weit mehr Erwärmung prophezeit als den Beobachtungen zufolge tatsächlich eingetreten ist. Dies ist ein ganz starker Beweis dafür, dass die aus einer Verdoppelung des CO2-Gehaltes resultierende Gleichgewichts-Temperatur nicht 3°C bis 3,5°C beträgt, wie es den meisten Klimamodellen zufolge der Fall sein soll, sondern viel weniger, möglicherweise nahe 1°C.

Der Konsens hat weitgehend die enormen positiven Auswirkungen von mehr CO2 in der Luft ignoriert.

Zu den starken Temperaturänderungen der Mittelalterlichen Warmzeit und der Kleinen Eiszeit war es lange vor dem großmaßstäblichen Verbrauch fossiler Treibstoffe nach der Industriellen Revolution gekommen.

Es gibt eine starke Korrelation zwischen Temperatur und Sonnenaktivität.

Rasende persönliche Angriffe auf glaubwürdige Gegner zeigen, dass Unterstützer des Konsens‘ eine sehr schwache wissenschaftliche Grundlage haben. Man braucht keine potentiell kontraproduktiven persönlichen Angriffe, wenn man starke wissenschaftliche Argumente auf seiner Seite hat.

Schwächste Argumente pro Konsens-Standpunkt:

97 Prozent aller Wissenschaftler stimmen dem Konsens zu.

Die Temperatur ist während des vorigen Jahrhunderts gestiegen, das CO2-Niveau auch. Darum wurde der Temperaturanstieg durch CO2 verursacht.

zunehmendes CO2.

Von der Regierung finanzierte, den Konsens unterstützende Forscher befinden sich nicht in einem Interessenkonflikt.

Wissenschaftliche Opponenten des Konsens‘ sind Prostituierte der bösen Fossile-Treibstoffe-Industrie.

TheBestSchools

Vielen Dank, Prof. Happer, für dieses Interview!

William Happer ist Cyrus Fogg Brackett Professor der Physik, Emeritus, im Fachbereich Physik der Princeton University. Als langzeitliches Mitglied von JASON, einer Gruppe von Wissenschaftlern, die der US-Regierung als unabhängige Berater zur Verfügung stehen für die Bereiche, Wissenschaft, technik und nationale Sicherheit, war Happer Direktor des Office of Science im Energieministerium von 1991 bis 1993.

Am ehesten ist er der Öffentlichkeit bekannt als Stimme der Kritik des UN-IPCC-Konsens‘ bzgl. der globalen Erwärmung. Er wurde häufig gerufen, um als Experte auszusagen vor verschiedenen Komitees des US-Kongresses zum Thema globale Erwärmung (Klimawandel). Im Jahre 2015 fand er sich im Zentrum einer Kontroverse, bei der eine so genannte „verdeckte“ Operation involviert war, die Greenpeace organisiert hatte.

Eine Liste mit einigen Forschungsergebnissen von Prof. Happer findet sich hier.

Link: http://www.thebestschools.org/special/karoly-happer-dialogue-global-warming/william-happer-interview/

—————————————————

So weit Ausschnitte aus diesem Interview. Inzwischen geht es aber weiter! Der Washington Post zufolge wird sich Prof. Happer mit dem gewählten Präsidenten Trump zu einem Gespräch treffen. Im jüngsten Rundbrief der GWPF vom 16.1.2017 wird folgendermaßen darauf hingewiesen:

Trump trifft den Priceton-Physiker der sagt, dass CO2 gut für uns ist

Ja, Donald Trump hat sich mit Al Gore getroffen. Aber vor ein paar Tagen traf sich dem Transitions-Team von Trump zufolge der gewählte Präsident auch mit William Happer, einem Professor der Physik an der Princeton University, welcher eine prominente Stimme war beim Hinterfragen, ob wir uns wegen des vom Menschen verursachten Klimawandels Sorgen machen müssten. Bei einer Anhörung vor dem Senat im Jahre 2015 argumentierte Happer, dass „die Vorteile von mehr Kohlendioxid in der Luft die Nachteile weit überwiegen, beispielsweise durch eine Steigerung landwirtschaftlicher Erträge“. Happer ist ein hervorragender Physiker (und Mitglied des Beratungsgremiums der GWPF), der prominente Stellungen im Energieministerium bekleidet hatte, ebenso wie an seiner Universität, und der auf 200 wissenschaftliche Veröffentlichungen mit seinem Namen zurückblicken kann. – Chris Mooney, The Washington Post, 13 January 2017

——————————————–

Die Aussagen Happers bzgl. Treibhausgase werden in dem Rundbrief ebenfalls angesprochen:

William Happer: Die Wahrheit über Treibhausgase

Thema des Autors war es, die bemerkenswertesten Beispiele jener Moral-Epidemien zu sammeln, welche mal aus dem einen, dann aus einem anderen Grund so begeistert kolportiert worden sind. Außerdem sollte er damit zeigen, wie einfach sich die Massen haben in die Irre führen lassen, und wie nachahmend und gesellig Menschen sind, sogar noch hinsichtlich ihrer Verblendung“, schrieb Chalres Mackay im Vorwort der ersten Ausgabe seiner Extraordinary Popular Delusions and the Madness of Crowds [etwa: Außerordentlich populäre Wahnvorstellungen und die Verrücktheit der Massen]. Ich möchte über eine zeitgemäße Moral-Epidemie sprechen, nämlich über das Narrativ, dass eine zunehmende atmosphärische Konzentration von Treibhausgasen, insbesondere Kohlendioxid, katastrophale Folgen für die Menschheit und den Planeten haben wird. Dieser moderne „Klima-Kreuzzug“ hat viel gemein mit den Kreuzzügen des Mittelalters, die Mackay beschreibt, gibt es doch auch hier wahre Gläubige, Opportunisten, Zyniker, geldhungrige Regierungen, Manipulateure aller Art und sogar Kinder-Kreuzzüge. – William Happer: The Truth about Greenhouse Gases, Global Warming Policy Foundation (PDF)

Alles übersetzt und aufbereitet von Chris Frey EIKE