1

Speichern kann so leicht sein, wenn alle einfach mitmachen

      Speicher für die Energiewende

Die berühmte Homepage für (Des-)Information zu Klima und Energie brachte jüngst den Hinweis auf diesen Fachmann, welcher in einem Video (und vielen weiteren Publizierungen) erklärt, dass alle Speicherprobleme des EEG gelöst sind, und nur noch ein paar Kleinigkeiten getan werden müssen, um das EEG zum abschließenden Erfolg zu führen.

Klimaretter.Info: Quaschnings Videokolumne Speicher für die Energiewende

In diesem Video wird es vom Professor erklärt (siehe auch Bild oben!)

Der Autor hat sich die Mühe gemacht, Passagen des Vortrags „abzutippen“ und mit eigenen Erklärungen zu ergänzen. Etwas erleichtert wurde dies durch die angenehme Vortragsweise, welche sich von den Videos des bekannten Professors H. Lesch wohltuend absetzt. Wie es jedoch um die ökonomische und vor allem vollständige Darstellung steht, soll jeder Leser selbst entscheiden.

Wir können auf dutzende Speicherlösungen zurückgreifen

So viel Speicher benötigt die Energiewende

Video: [6] … und dann wird der Speicherbedarf im Gegensatz zu dem heute verfügbaren Speicher mal etwa um den Faktor Tausend steigen … wir müssen uns Gedanken machen, welche Speicherlösungen wir einsetzen können und da können wir auf ein ganzes Portfolio. auf Dutzende von verschiedenen Speicherlösungen zurückgreifen. Es gibt aber im Wesentlichen drei Technologien die am Vielversprechendsten sind und diese wollen wir in diesem Video anschauen.

Diskussion
In der Einleitung fällt so fast nebenbei die Info „ … wird der Speicherbedarf … mal etwa um den Faktor Tausend steigen“.
Weiter wird dies nicht ausgeführt, denn in einem kurzen Video ist schließlich nicht für alles Zeit verfügbar.
Dabei ist diese Feststellung eine Basisdarstellung des Problems: Alle bisher in Deutschland verfügbaren Speichermengen müssen nochmals mit 1000 multipliziert werden. Nachdem alle billigen Speichermöglichkeiten in Deutschland nicht mehr erweitert werden können (Pumpspeicher, Stauseen), bleiben dafür jedoch ausschließlich die bisher bewusst nicht angewandten, weil teuren, bis sehr teuren Speicherlösungen übrig.

So einfach ist das Speichern des EEG-Stromes

Video: [6] Wir haben also die Überschüsse aus Solar und Windstrom. Die werden dann erst mal in dezentralen Batterien zwischenspeichern…. Die Batterien werden nicht sehr groß sein … möglich z.B. auch Elektroautos gezielt zu laden …
Es gibt aber dann auch Zeiten, wo wir größere Überschüsse haben. Diese werden dann zu Power to Gas Anlagen geleitet … dann bei Bedarf … wieder nutzen. Dann in entsprechenden kleinen Kraftwerken und Brennstoffzellen wieder zu Strom umwandeln. Und wenn dann wirklich keine Sonne und kein Wind da ist, dann kriegen wir über den Gaspfad ausreichend Strom … um unsere Versorgung sicher zu stellen. … mit allen (Gas-)Speichern in Deutschland könnten wir über weit einen Monat die komplette Stromversorgung sicherstellen. Das heißt, eine Speicherproblematik, wenn wir hier den Power to Gas Pfad angucken, die haben wir nicht mehr.

Diskussion
Die Dutzend Speicherlösungen werden auf zwei Varianten reduziert: Akkuspeicher und Power to Gas mit Rückverstromung. Im Schaubild (im Video kommt dieses etwas später) sieht das herrlich einfach aus.

Bild 1 Vollständige EEG-Versorgung mit Speichersystemen. Quelle: Screenshot aus dem Vortragsvideo [6]

Wermutstropfen: Der schlechte Wirkungsgrad – macht aber nichts

Video: [6] Das Problem, das kritisieren viele, ist der schlechte Wirkungsgrad … Gesamtwirkungsgrad (Anm.: P2P): 35 … 50 %. … (wegen des schlechten Wirkungsgrades) … deswegen werden wir diese Technologie vor allen Dingen für die saisonale Speicherung einsetzen. Das heißt, für die Speicherung, wo wir ein, zwei, drei Mal im Jahr diesen Speicher nutzen, also relativ selten. Und dann fallen auch diese entsprechenden Verluste nicht mehr so stark ins Gewicht.

Diskussion

Die Angaben zum Wirkungsgrad von P2P-Speicherung erscheinen geschönt. Während der Professor für P2P einen Gesamtwirkungsgrad zwischen 35 … 50 % angibt, listen Studien den Wirkungsgrad zwischen:
-Hartmann et al.: Zukunft 45 %
-Niedersachsen-Studie 2014: [3] … Der Wirkungsgrad mit Methanisierung (P2P) ist mit aktuell 21,3 %, in der Zukunft 36 % angegeben.
Nach Angabe des Professors stört das nicht, denn nach ihm benötigt man die Langzeitspeicher ja kaum: „ wo wir ein, zwei, drei Mal im Jahr diesen Speicher nutzen … da fallen die Verluste wenig ins Gewicht.
Man muss dazu nur auf Agora die Ganglinie ansehen, um zu wissen: was der Professor über die Nutzung sagt, hat mit der Wirklichkeit rein gar nichts zu tun. Die Lang- bis Mittelzeitraum-Zwischenspeicherung wird mehrmals jeden Monat, eher jede Woche benötigt. Denn Akkuspeicher reichen (auch nach Aussage des Professors) maximal über eine Nacht (sonst explodieren geradezu deren schon sonst sehr hohen Kosten).

Bild 2 Einspeiseganglinien Solar und Windkraft vom 16.10.2016 – 22.01.2017. Quelle: Agora Viewer

Dann sollte man aber wohl doch über die Kosten sprechen

Warum dieser Professor – wahrscheinlich bewusst – die Häufigkeit der P2P Zwischenspeicherung kleinredet, zeigt ein Blick auf die Kosten dieses Verfahrens. In einer umfangreichen Artikelreihe wurden auf EIKE nicht nur die Speicherverfahren, sondern auch deren Kosten untersucht.

EIKE 18.06.2015: [2] Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
Und darin kann man nachlesen:
Seriöse Studien ermittelten die Kosten der rückverstromten kWh auf
[3]
29 €ct/kWh mit Strombezugskosten von 4,8 €ct/kWh
Schnurbein 2012*: [4]
… Das „System SNG“ als Langzeitspeicher für überschüssigen EE-Strom würde bei einer Kapazität von 44 GW und einem Stromoutput zwischen 12,3 und 31,7 TWh – das wären 2-5 % des deutschen Strombedarfs – jährliche Mehrkosten zwischen 25,1 und 28,1 Mrd. € verursachen. Auf die Kilowattstunde SNG-Strom gerechnet ergäben sich für den Verbraucher Mehrkosten zwischen 79 und 228 ct/kWh – zuzüglich Steuern. Somit wäre SNG-Strom um den Faktor 10-20 teurer als Strom aus Erdgas.
*Hinweis.: In diesen Kostenangaben sind Strom-Bezugskosten von ca. 12 c / kWh eingerechnet.

Diese Studien zeigen, wie wenig man die wirklichen Kosten im Großverfahren kennt. Hintergrund ist, dass das Verfahren zwar schon in kleinerem Maßstab durchgeführt wird, eine großtechnische Umsetzung aber noch in weiter Ferne schwebt. Was solch lokale, kleine Anlagen zeigen, ist zwar in den Augen unserer Medien und der Betreiber „enthusiastisch“, für den Kunden aber ein Desaster, wie im Artikel:
EIKE 30.11.2016: [5] Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle,
gezeigt wurde.

Es wird noch teurer, denn wir brauchen auch eine Unmenge von Akkuspeichern

Video: [6] … Wenn wir dann häufiger den Speicher benutzen, kürzere Speicherzeiten haben, … dafür kommen dann die anderen Speicher in Betrieb und das wären dann die Batterien.
Ja, das Schöne an den Batterien ist, das wir diese dezentral aufstellen können … können wir optimal mit Photovoltaikanlagen koppeln. .., den Überschußstrom, den wir zu Hause nicht verwenden können, der wird im Batteriespeicher zwischengespeichert und kann zum Beispiel nachts herausgeholt werden.
Der Vorteil ist, wir brauchen dann keine Leitungen mehr, beziehungsweise die Leitungen auch nicht mehr weiter auszubauen. Das heißt der Solarstrom wird vor Ort genutzt und belastet hier immer weniger die Netze…. Was wir auch noch mache können ist, das Elektroauto zu verwenden und auch gesteuert vor Ort zu laden. … Und die Potenziale sind durchaus groß. Wenn wir hier in jeden zweiten Haushalt einen Batteriespeicher einbauen, dann können wir hier mehr Energie speichern, als wir derzeit insgesamt an den großen, zentralen Pumpspeicherkraftwerken haben …
(gezeigt wird nun ein 8,1 kWh Batteriespeicher für Haushalte)

Diskussion

Diese Idee: Jeder Bürger, welcher sicheren Strom benötigt, soll ihn gefälligst selbst erzeugen und speichern, wird immer salonfähiger. Für die Versorger gilt sie als das Zukunftsgeschäft:
EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
Unsere Medien haben auch überhaupt nichts dagegen, dass die Bürger so geschröpft werden. Zumindest darf beispielsweise der N-Ergie Vorstand inzwischen schon regelmäßig in den nordbayerischen Nachrichten über den Segen „seiner“ Haushalts-Akkuspeicher und deren viele Vorteile berichten.

Die neue Geschäftsidee lautet: Errichte ein lokales Energienetz. Sorge dafür, darüber „Alleinherrscher“ zu werden, indem die Außenverbindungen so schwach bleiben, dass keine Strom-Zuliefer-Konkurrenz von extern darüber möglich ist. Verkaufe dies dann der Politik und den Medien als Innovation, Einsparung von Netzen, dazu noch als Klimarettung und niemand wird einen Versorger-Vorstand daran hindern, es durchzuführen.
Um diese Geschäfts-Idee „fachlich“ abzusichern, präsentiert man eine geeignete Expertise (die man selbst beauftragt hat), wie es der N-Ergie Vorstand mit einer Studie der Prognos AG, unterstützt von der Erlanger Friedrich Alexander Universität, vorführte:
Studie: [2] Dezentralität und zellulare Optimierung – Auswirkungen auf den Netzausbaubedarf
Dazu die N-Ergie Pressemitteilung (Auszüge): Energiewende mit weniger HGÜ-Trassen möglich
Aus volkswirtschaftlicher Gesamtperspektive ist die regionale Ansiedlung von EE-Anlagen mit einem hohen Wohlfahrtsgewinn von 1,7 Mrd. Euro pro Jahr verbunden, wenn man sie kombiniert mit der Einführung eines wohlfahrtsoptimierten Einspeisemanagements, dem Redispatch, der kostenoptimalen räumlichen Ansiedlung von KWK und Power to X (Gas/Heat).
Die Studie zeigt zudem, dass keine Notwendigkeit besteht, den Ausbau erneuerbarer Energien zu dämpfen. Im Gegenteil: Bei Einsatz der vorgeschlagenen Maßnahmen lässt sich dieselbe erneuerbare Erzeugung mit wesentlich weniger Netzausbau realisieren.
Hasler plädiert deshalb für einen zellularen Ansatz, in dem Energie entsprechend dem Subsidiaritätsprinzip soweit möglich auf der lokalen und regionalen Ebene erzeugt, gespeichert und verbraucht wird.

Kosten

Selbstverständlich kostet das ein bisschen. Aber wie sagte der N-Ergie-Vorstand dem gläubigen Redakteur der Zeitung: „ …. das ist doch immer besser, als den Strom wegzuwerfen“.
Auf Solaranlagen-Portal.de wurden die Kosten des im eigenen Akku gespeicherten Stromes abgeschätzt: Solar-Akku: Preise, Kosten und Wirtschaftlichkeit. Die Speicherkosten liegen mit KfW Förderung des Speichers bei 41 cent / kWh, sofern keine Wartungskosten angesetzt werden, der Akku 20 Jahre hält, die KfW Förderung weiter gezahlt wird und und und.
Wenn überhaupt, lohnt sich diese Speicherung nur für den Eigenverbrauch aus der eigenen Solaranlage, weil die Bezugskosten von Haushaltsstrom politisch gewollt weiter in exorbitante Höhen getrieben werden.

Für den Professor ist es aber „selbstverständlich“, dass jeder zweite Haushalt sich einen solchen Speicher – und die notwendige Solaranlage – einbaut.

Nicht besser steht es mit dem Zwischenspeicher Elektroauto. Eine unsinnige Idee, welche aber regelmäßig in den Himmel gehoben wird, einfach, weil es so schön klingt:
EIKE 03.08.2016: Vernichtendes Studienergebnis: Elektroautos sind als Regelenergie-Speicher zu teuer

Man muss sich das vorstellen:
Die durchschnittliche EEG-Vergütung liegt 2017 bei 11,5 ct / kWh (WIKIPEDIA). Der Strom kostet mit allen Zuschlägen dem Privatverbraucher ca. 33 ct / kWh. Die Speicher „erzeugen“ einen Strom, der in der Rückspeisung netto im günstigsten Fall zwischen 30 …41 ct / kWh kostet, also durch die Zwischenspeicherung mit den erforderlichen Umwandlungen mindestens 3 … 4 Mal teurer wird.
Solche einfachen Kosten-Abschätzungen machen klar, wie zynisch die Aussagen dieser „Fachpersonen“ in Wahrheit sind:
Professor Quaschning zu den Kosten: „ … macht nichts“ und der N-Ergie Vorstand „ … Wegwerfen wäre doch schade“.

Jeder ist doch gerne bereit, sein (Zwangs-)Scherflein dazu beizutragen

Video: [6] Wir sehen: Wir kennen die Lösungen, die wir für die Energiewende brauchen. Und jetzt müssen wir schauen, dass wir diese Lösungen schnell irgendwie umsetzen und schnell an den Markt bringen. Denn wir wollen die erneuerbaren Energien, wir wollen die Photovoltaik, die Windenergie zügig ausbauen und dafür brauchen wir die Speicher …

Diskussion

Im Jahr 2004 gab Minister Trittin die EEG Kosen für den privaten Haushalt mit einer Kugel Eis pro Monat an. Im Jahr 2016 war die Kugel auf einen Jahres-Familien-Portionspreis von 370 EUR gestiegen und so wird es weiter gehen. Der Fachprofessor hat trotzdem keine Hemmungen (Bild 3), Herrn Trittins Fehlkalkulation zu wiederholen und lediglich ein bisschen Inflationsrate zuzufügen.

Bild 3 [8] Kostenangaben des Professor Quaschning
Bild 4 Aktuelle Strompreise in der EU [7]

Denn Deutschland rettet die Welt vor dem Klimatod

Ob der Professor von der CO2- Klimarettungsnot wirklich überzeugt ist, lässt sich nicht nachprüfen. Seine Publizierungen tragen die Information darüber jedoch bedingungs – und bedenkenlos – in die Welt.
Es scheint auch ein lukrativer Job zu sein, wie es seine vielen Studien, auch für gängige NGOs (Energiestudien für Greenpeace [7]) und Vortrags-Publizierungen ausweisen.

Bild 5 [8] Darstellung in einem Foliensatz von Prof. Quaschning

Bild 6 Quelle: Studie Prof. Quaschning: SEKTORKOPPLUNG DURCH DIE ENERGIEWENDE

Dem Professor ist es deshalb vollkommen egal, was seine Ideen den privaten Stromkunden kosten. Nach ihm sind sie eben alternativlos – und ausschließlich dafür macht er, gemeinsam mit NGOs, Werbung.

Ein Artikel dazu auf Novo Argument: Energiewendeillusionen über die jüngste Greenpeace-Studie des Professors – [7] ist informativ.

Wenn Sie ein Familienhaus haben, dann kümmern Sie sich mal um einen Speicher

Video: [6] … und insofern können Sie auch was für die Energiewende tun. Wenn Sie ein Familienhaus haben, dann kümmern Sie sich mal um einen Speicher und wenn nicht, dann fragen Sie ihren Energieversorger oder ihre Politiker und ihren Abgeordneten was sie denn tun, damit wir endlich die nötigen Speicher die wir für die Energiewende brauchen auch ans Netz bekommen.

Diskussion

Es ist erschütternd, mit welcher Dreistigkeit dieser Professor, laut Solaranlagen-Portal.de DER Experte auf dem Gebiet: Professor Volker Quaschning ist einer der bekanntesten Experten auf dem Gebiet der regenerativen Energien und der Photovoltaik ….,
auf Kosten des Bürgers auf Ideologie basierende, angebliche Forschungsergebnisse verkündet und natürlich auch, wie unsere Medien diese Dreistigkeiten hochjubeln und es dazu toll finden, wenn z.B. Greenpeace Deutschland (von dieser „Intelligenz“ und Teilen der Politik unterstütz) vorschreiben will, wie es seine Energieversorgung auszurichten habe:
EIKE 21.04.2016: Der Mensch verliert durch Kohlekraftwerke statistisch insgesamt 3 Stunden an Lebenszeit , nachdem er vorher damit 40 Jahre Lebenszeit gewann, deshalb muss er Greenpeace zufolge auf billigen Kohlestrom verzichten
EIKE 02.03.2016: Paris COP21 Verpflichtung : Greenpeace und Hendricks wollen Deutschland über das 1,5 ° Ziel so arm wie Bhutan, Gambia oder Äthopien machen
EIKE, 28.09.2015: Greenpeace eNERGIE und IWES Fraunhofer fordern die vollständige Dekarbonisierung Deutschlands bis zum Jahr 2050 – die Politik macht angefeuert durch die Medien begeistert mit.

Geschichte ist eben doch ein Hamsterrad. In der ehemaligen DDR bewiesen die Wissenschaftler unisono die Unbesiegbarkeit des Wissenschaftlichen Sozialismus. In der BRD wird nach dem gleichen Motto von einem Teil der „technischen Intelligenz“ die Unbesiegbarkeit des von unserer Politik ausgerufenen EEG-Paradieses bewiesen.

Den Bürgern im Mittelalter muss es genau so vorgekommen sein, als die Städte auf Geheiß der damals allmächtigen Kirche anfingen, ihre Kathedralen und Münster mit mehr Platz als Einwohner zu bauen, bis für wirklich nichts – auch nicht mehr für die vielen Kirchenbauten – Geld übrige war: WKIPEDIA, Ulmer Münster: 1543 kam es – aufgrund von innenpolitischen Spannungen, aber auch der Reformation sowie schlicht durch Geldknappheit – zum Baustillstand des fast fertigen Gebäudes. Von 1543 an ruhte der Bau für über 300 Jahre.

Quellen

[1] EIKE 03.08.2016: Vernichtendes Studienergebnis: Elektroautos sind als Regelenergie-Speicher zu teuer
http://www.eike-klima-energie.eu/news-cache/vernichtendes-studienergebnis-elektroautos-sind-als-regelenergie-speicher-zu-teuer/

[2] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
http://www.eike-klima-energie.eu/energie-anzeige/elektro-energiespeicherung-notwendigkeit-status-und-kosten-teil-3-abschluss/

[3] Niedersachsen-Studie 2014. Innovationszentrum Niedersachsen GmbH, Juli 2014. Studie 7983P01/FICHT-12919463-v19:“Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen“

[4] Schnurbein 2012. Vladimir von Schnurbein: „Die Speicherung überschüssigen EE-Stroms durch synthetisches Methan.“
ENERGIEWIRTSCHAFTLICHE TAGESFRAGEN 62. Jg. (2012) Heft 9

[5] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
http://www.eike-klima-energie.eu/news-cache/oekostrom-verschieben-zur-loesung-der-eeg-blockade-ein-lokaler-versorger-ist-innovativ-und-loest-das-speicherproblem-koste-es-was-es-wolle/

[6] Professor Quaschning, Vortragsvideo, YouTube: Speicher für die Energiewende

[7] Novo Argument: Energiewendeillusionen

[8] 1. Energieforum Berlin Buch 15. November 2012, Prof. Volker Quaschning, Foliensatz: Wege zur Energiewende: Eine vollständige dezentrale regenerative Stromversorgung ist möglich




Trump unter­zeichnet ,Executive Orders‘, welche die US-Betei­ligung am Paris-Abkommen elimi­nieren

Trump wird zwei Dokumente unterzeichnen, mit denen jedwede finanzielle Beteiligung an irgendwelchen UN-Agenturen eliminiert wird, verliehen doch diese den Terrororganisationen die volle Mitgliedschaft oder unterstützten Programme zur Finanzierung von Abtreibungen. Die Dokumente würden auch Komitees direkt anweisen, eine „insgesamte Kürzung von mindestens 40%“ durchzuführen von allen Förderungen internationaler Organisationen sowie die kritische Überwachung jedweder weiterer Verträge.

Trump, der den Rückzug aus dem Paris-Abkommen zu einem seiner zentralen Punkte seiner Kampagne gemacht hatte, hat nicht die Absicht, das Abkommen direkt anzugehen, sondern er will stattdessen die Beitragszahlungen an die UN kürzen, wie die New York Times hier berichtet.

Jüngsten Berichten zufolge haben 200 Länder Versprechungen bekräftigt, entsprechend dem Deal von Paris zu handeln, mit welchem die so genannte globale Erwärmung unter 2 Grad Celsius gehalten werden soll.

„Nach allem, was wir wissen, geht es in der Executive Order nicht direkt um das Paris-Abkommen, sondern darum, es noch einmal standardmäßig zu bewerten, so wie alle anderen multilateralen Verträge neu bewertet werden sollen“, sagte Rhys Gerholdt, ein Sprecher der Umwelt-Denkfabrik World Resources Institute kurz nach Erscheinen des Beitrags in der NYT.

David Waskow, Programmdirektor des World Resources Institute, stellte in Frage, ob Trump überhaupt die Finanzierung irgendwelcher UN-Programme rückwirkend einstellen kann, da ein solcher Vorgang die Genehmigung des Kongresses erfordert.

„Es ist schwierig zu sagen, welche Auswirkungen dies hat“, sagte Waskow. „Eine der Fragen, die sich mir stellt ist, nach welcher Befugnis der Exekutive man dabei vorgeht angesichts des Umstandes, dass Bereitstellungen allgemein jene Entscheidungen steuern kann“.

Die Dokumente stehen auf einer Linie mit Kommentaren von der UN-Botschafterin Trumps, der Gouverneurin von South Carolina Nikki Haley, welche den Senatoren bei der Anhörung zu ihrer Amtseinführung sagte, dass sie auf die International Agency einwirken werde, dass jedwede Lösung der globalen Erwärmung nicht auf Kosten der Industrie in den USA gehen dürfe. Die Republikanerin sagte auch, dass sie dem Pariser Klimaabkommen nicht zustimmen werde, falls dessen Ergebnisse zu drakonischen Vorschriften führt, welche die amerikanischen Arbeiter schädigen.

Trump sagte einmal, dass Klimawandel „ein von China lancierter Betrug“ sei, um die US-Wirtschaft zu stören und Amerikanische Industrien zu schädigen. Seitdem ist er im Ton moderater geworden, hat er doch im Dezember vor Reportern gesagt, dass er hinsichtlich der globalen Erwärmung „offen“ sei und dass er glaubt, dass der Klimawandel wohl ein natürlich auftretendes Phänomen ist.

Er versprach außerdem, „Milliardenzahlungen bzgl. globaler Erwärmung an die UN zu streichen“ (hier) und diese Gelder umzuleiten in US-Umweltprogramme. Effektiv streicht er damit die 3 Milliarden Dollar, die Präsident Obama vor dem Green Climate Fund der UN versprochen hatte zu überweisen. Dieser Fund hatte die Aufgabe, Entwicklungsländern die Reduktion von Kohlenstoff-Emissionen auszugleichen.

Link: http://dailycaller.com/2017/01/26/trump-set-to-sign-executive-orders-broadly-eliminating-us-involvement-in-paris-agreement/#ixzz4Wu0EEHU1

Übersetzt von Chris Frey EIKE




Apokalypse abgesagt – tut uns leid, keine Rück­erstattung des Preises

Abstract

Klimaprojektionen basieren auf Emissions-Szenarien. Die vom IPCC und den Mainstream-Klimawissenschaftlern herangezogenen Emissions-Szenarien werden hauptsächlich aus der prophezeiten Nachfrage für fossile Treibstoffe abgeleitet und berücksichtigen unserer Ansicht nach nur unzureichend die Beschränkungen der Emissionen, zu denen es wahrscheinlich kommen wird infolge der Erschöpfung dieser Treibstoffe. Im Gegensatz dazu befasst sich diese Studie mit der Angebots-Seite von CO2-Emissionen. Sie erzeugt zwei vom Angebot getriebene Emissions-Szenarien auf der Grundlage einer umfassenden Untersuchung der wahrscheinlichen langzeitlichen Entwicklung der Erzeugung fossiler Treibstoffe, abgelesen aus der seit dem Jahr 2000 veröffentlichten begutachteten Literatur. Die potentielle rapide Zunahme nicht-konventioneller fossiler Treibstoffe wird ebenfalls untersucht. In dieser Studie berechnete Klimaprojektionen zeigen, dass die zukünftige atmosphärische CO2-Konzentration in diesem Jahrhundert nicht über 610 ppm hinausgehen wird.

Der offensichtliche Vorteil von vom Angebot getriebenen Projektionen ist klar – sie repräsentieren unsere Best Estimate dessen, was physikalisch möglich ist, auf der Grundlage unserer Best Estimate, wie viel fossile Treibstoffe wir im Laufe dieses Jahrhunderts tatsächlich erzeugen können.

Hier folgt ihre Beschreibung, wie sie ihre Best Estimate der zukünftigen Ölerzeugung zusammenstellen:

Wir stellten 116 langfristige Vorhersagen der globalen Erzeugung fossiler Treibstoffe zusammen (Öl, Gas*, Kohle) aufgrund der seit dem Jahr 2000 veröffentlichten begutachteten Literatur sowie Berichten aus jüngerer Zeit von den Mainstream-Energievorhersage-Agenturen. Diese enthalten 36 Vorhersagen für konventionelles Öl, 18 für konventionelles Gas, 29 für nicht-konventionell erzeugtes Öl und 15 für nicht-konventionell erzeugtes Gas. Wir gingen davon aus, dass die Vorhersagen gleich wahrscheinlich sind, und haben die Bandbreite möglicher Kombinationen untersucht, um Median- und probabilistische Werte der Erzeugung fossiler Treibstoffe insgesamt zu erhalten.

[*Es bleibt unklar, ob hier mit ,gas‘ tatsächlich Gas/Erdgas gemeint ist oder Benzin {in den USA steht ,gas‘ als Kurzform für ,gasoline‘ = Benzin}. Vermutlich ist hier aber wirklich Gas gemeint. Anm. d. Übers.]

Das klingt so, wie ich es auch machen würde. Abbildung 1 zeigt ihre Schätzung der zukünftigen Erzeugung konventioneller und nicht-konventioneller fossiler Treibstoffe:

Abbildung 1: Original-Bildunterschrift: Mittlerer Wert des erwarteten zukünftigen Angebots globaler Ressourcen fossiler Treibstoffe auf der Grundlage begutachteter Literatur und Vorhersagen der Mainstream-Energie-Institute. Man beachte, dass die Erzeugung von Kohle allein konventionell behandelt wird, während es bei der Öl- und Gaserzeugung sowohl konventionelle als auch nicht-konventionelle Komponenten gibt.

Ich fand diese Graphik höchst interessant. Ich erkenne, dass ich mental die Auswirkung unkonventionellen Öls und Gases auf die Gesamtmenge fossiler Treibstoffe überschätzt habe, welche über das 21. Jahrhundert verfügbar sein wird.

Von dieser Schätzung der zukünftigen Erzeugung leiteten sie zwei Schätzungen der Spitzenwerte im 21. Jahrhundert ab. Betrachtet man konventionelle fossile Treibstoffe allein, schätzen sie einen Spitzenwert des atmosphärischen CO2 im 21. Jahrhundert mit 550 ppmv. Fügt man „unkonventionelle“ fossile Treibstoffe hinzu (Öl und Gas aus Fracking), kommen sie auf einen Spitzenwert von 610 ppmv.

Das an sich war schon interessant, aber noch interessanter war, dass sie ihre Ergebnisse verglichen mit 14 anderen, vom Angebot getriebenen CO2-Schätzungen, die seit dem Jahr 2008 vorgenommen worden waren. Dieser Vergleich sieht so aus:

Abbildung 2: Original-Bildunterschrift: Vergleich der atmosphärischen CO2-Komzentration unter vom Angebot getriebenen Szenarien mit jenen aus einer Vielfalt der gegenwärtigen Literatur, in welcher ,Angebots-getriebene‘ Emissions-Szenarien fossiler Treibstoffe untersucht werden.

Aufgrund dieser Graphik digitalisierte ich die Spitzenwerte von dem einzelnen der 16 Szenarien. Dies ergibt die Verteilung der Best Estimates, wie hoch das atmosphärische CO2-Niveau im 21. Jahrhundert tatsächlich steigen wird.

Schließlich konvertierte ich jene Spitzen-CO-Werte in die korrespondierende Temperaturänderung, zu der es kommen würde, FALLS das gegenwärtige zentrale Klima-Paradigma stimmen würde. Dieses Paradigma ist die Behauptung, dass die Temperatur variiert, da irgendein konstantes „lambda“ die Variation des Antriebs multipliziert (einfallende Strahlung). Ich denke nicht, dass dieses Paradigma eine akkurate Beschreibung der Realität darstellt, aber das ist eine andere Frage. Ihr konstantes „lambda“ wird auch als „Gleichgewichts-Klimasensitivität ECS“ bezeichnet.

Der Wert der ECS-Konstanten ist Gegenstand großer Debatten und Unsicherheiten. Seit Jahren benennt das IPCC eine Bandbreite von 3 ±1,5 °C Erwärmung pro Verdoppelung des CO2-Gehaltes. Im jüngsten IPCC-Bericht war sogar alles noch unsicherer, und ein zentraler Wert wurde nicht genannt.

Nun bezieht sich das ECS auf die eventuell projizierte Temperaturänderung, wie sie gemessen wird hunderte von Jahren nach einer augenblicklichen Verdoppelung des CO2-Gehaltes. Es gibt auch eine Konstante für die Reaktion auf eine graduelle Zunahme des CO2-Gehaltes. Dies nennt man die Transiente Klima-Reaktion TCR. Hier folgt eine Definition derselben aus Implications for climate sensitivity from the response to individual forcings von Kate Marvel, Gavin Schmidt et al.:

Die Klimasensitivität aufgrund eines verdoppelten CO2-Gehaltes ist die weithin gebräuchliche Metrik einer Reaktion auf externe Antriebe im großen Maßstab. Klimamodelle prophezeien eine große Bandbreite bei zwei allgemein herangezogenen Definitionen: Die TCR: Erwärmung nach 70 Jahren einer Zunahme der CO2-Konzentration um 1% pro Jahr, und der ECS: die Gleichgewichts-Temperaturänderung nach einer Verdoppelung der CO2-Konzentrationen).

Falls wir sehen wollen, welche Temperaturänderung wir theoretisch während des 21.Jahrhunderts aufgrund der möglichen, in Abbildung 2 gezeigten atmosphärischen CO2-Szenarien erwarten können, ist der zu verwendende Wert offensichtlich die TCR. Allerdings ist auch der TCR-Wert genau wie der ECS-Wert Gegenstand großer Debatten und Unsicherheiten.

In der Studie von Marvel et al., aus der ich eben zitiert habe, geben sie vor, ECS und TCR aus drei Datensätzen mit Beobachtungen zu berechnen. Mittels der traditionellen Verfahren finden sie einen TCR-Mittelwert von 1,3°C pro CO2-Verdoppelung (ECS = 1,9 °C/2xCO2). Unzufrieden mit diesem Ergebnis haben sie das Ergebnis dann adjustiert, indem sie sagen, dass ein Watt pro Quadratmeter des CO2-Antriebs eine andere Auswirkung auf die Temperatur hat als ein Watt pro Quadratmeter des solaren Antriebs, und so weiter. Ist ihre Adjustierung in Ordnung? Es gibt keine Möglichkeit, das herauszufinden.

Man wird jedoch kaum überrascht darüber sein, dass nach dieser Adjustierung alles Worse Than We Feared™ war, als die TCR jetzt neu abgeschätzt worden ist mit 1,8°C pro CO2-Verdoppelung (die ECS nimmt zu auf 3,1 °C/2xCO2). In der folgenden Analyse habe ich sowohl die niedrige als auch die hohe TCR-Schätzung herangezogen.

Man beachte, dass ich ihr Paradigma zugrunde lege (die Temperatur folgt dem Antrieb) sowie deren TCR-Werte. Ich möchte betonen, dass ich nicht glaube, dass das zentrale Paradigma beschreibt, wie das Klima funktioniert. Ich folge einfach nur ihrer eigenen Logik mittels Verwendung ihrer eigenen Daten.

Abbildung 3 zeigt ein „Boxplot“ der 16 verschiedenen Schätzungen des Spitzenwertes der CO2-Konzentration im 21. Jahrhundert. Links von dem Boxplot findet man die Werte der Extreme, die Quartile und den Median der 16 atmosphärischen CO2-Schätzungen. Rechts des Boxplots zeige ich die verschiedenen Schätzungen der Temperaturänderungen im Vergleich zur Gegenwart, FALLS das Paradigma „die Temperatur folgt sklavisch dem Antrieb“ wahr ist. Und schließlich zeigen die blauen Punkte die eigentlichen Schätzungen der CO2-Spitzenwerte im 21. Jahrhundert. Sie sind „verwaschen“, was bedeutet, dass sie etwas nach links und rechts bewegt worden sind, so dass sie sich nicht überlappen und gegenseitig auslöschen.

Abbildung 3: Boxplot von 16 Schätzungen der CO2-Spitzenwerte im 21. Jahrhundert, zusammen mit der projizierten Erwärmung ausgehend von der derzeitigen Temperatur. Die grüne Fläche zeigt die „inter-quartile Bendbreite“, also das Gebiet, das die Hälfte der Daten enthält.

Jetzt wollen wir uns daran erinnern, dass wir Schätzungen der CO2-Spitzenwerte während des Jahrhunderts betrachten. Als Folge davon sind die rechts in Abbildung 3 gezeigten Temperaturen der maximal projizierte Temperaturanstieg unter der Annahme der zukünftigen Verfügbarkeit fossiler Treibstoffe.

All dies zusammengefasst bedeutet:

Der höchste mögliche Temperaturanstieg infolge der Verbrennung fossiler Treibstoffe über den Rest des 21. Jahrhunderts liegt in der Größenordnung von einem dreiviertel Grad Celsius.

Der mittlere projizierte Temperaturanstieg liegt in der Größenordnung von einem halben Grad Celsius. Müsste jemand aufgrund dieser Ergebnisse wetten, wäre dies die beste Wette.

Der niedrigste projizierte Temperaturanstieg liegt in der Größenordnung von einem oder zwei Zehntel Grad Celsius.

—————————————

Und das ist die Erkenntnis, die wir nach Hause mitnehmen können: Verwendet man die extremsten der 16 Schätzungen des zukünftigen CO2-Niveaus zusammen mit dem höheren der beiden TCR-Werte, schaut man mit anderen Worten auf das Worst-Case-Szenario, werden wir IMMER NOCH NICHT ein lumpiges Grad Erwärmung bis zum Jahr 2100 bekommen.

Noch deutlicher: Die beste Option angesichts aller Daten, die wir haben, ist, dass es lediglich ein halbes Grad Celsius wärmer wird während des 21. Jahrhunderts.

Können wir die Apokalypse jetzt vielleicht mal absagen?

Link: https://wattsupwiththat.com/2017/01/24/apocalypse-cancelled-sorry-no-ticket-refunds/

Übersetzt von Chris Frey EIKE




Neue Website bietet die Realität bzgl. Anstieg des Meeres­spiegels bzw. der Rate desselben

[*Falls jemand eine treffende Übersetzung für das Multifunktionswort „Tools“ hat, bitte ich um Vorschläge. Mir selbst fällt keine ein. Anm. d. Übers.]

Zunächst aber ein paar Anmerkungen:

Anmerkung 1: Diese Arbeit ist noch nicht abgeschlossen. Ich habe zwar bereits eine abzuarbeitende Liste („to-do list“), aber Vorschläge und Korrekturen sind nichtsdestotrotz willkommen.

Anmerkung 2: Diese Tools stelle ich der Gemeinschaft frei zur Verfügung. Es werden keine Gebühren wegen deren Nutzung erhoben.

Anmerkung 3: Diese Tools sind ideologisch neutral.

Einer der Anlässe zur Einrichtung dieser Site war der berühmte Blog WoodForTrees von Paul Clark, welcher einige ähnliche Tools für Temperaturdaten bietet. Paul ist lebenslang ein „grüner“ Aktivist, aber zu seinen Gunsten muss man sagen, dass die Brauchbarkeit seiner Site unabhängig ist von seiner Ideologie.

Die Daten zeigen, was die Daten zeigen, unabhängig von meiner Meinung, von Pauls oder irgendjemandes anderen Meinung. Ich hoffe, dass diese Tools nützlich sind für jeden, der bzgl. des Meeresspiegels forscht, unabhängig von deren Ansichten zu Klimathemen.

Nichtsdestotrotz betrachte ich selbst mich der Vollständigkeit halber als ein „lukewarmer“. Ich bin Unterzeichner der Global Warming Petition. Meiner Ansicht nach zeigt die Wichtung der Beweise, dass anthropogene globale Erwärmung real, moderat und gutartig ist, und dass anthropogene CO2-Emissionen vorteilhaft sowohl für die Landwirtschaft als auch natürliche Ökosysteme sind.

Übersicht über die Site

Wenn man die Website SeaLevel.info aufruft, wird man mit einem Bild von Kitesurfern auf Maui und ein Menü links begrüßt [siehe Bild oben!]

1. Auf der „Homepage” kann man nach unten scrollen, um die jüngsten Verlautbarungen zu lesen, zumeist über die Site selbst. Es gibt auch Links zu den üblichen „About“- und „Contact“-Seiten

2. Die Seite „Resources” ist eine große Zusammenstellung klimabezogener Ressourcen mit Betonung auf Meeresspiegel. Darunter sind Suchmaschinen, Glossare, ein Spickzettel mit Klima-Konversions-Faktoren sowie Links zu anderen Websites (z. B. WoodForTrees). Es gibt (natürlich) sehr viele den Meeresspiegel betreffende Informationen, aber auch über Meereis, Überschwemmungen, Klimaberichte, Klimazyklen, Temperaturen, Treibhausgase, Energie und weiteres.

3. Die Seite „Blogs etc.” ist eine Liste mit Top-Klimablogs plus einigen anderen nützlichen Klimasites sowie ein wenig auch so eine Art Knittelvers. Ich habe Blogs von beiden Seiten der Klimadebatte gelistet, jedoch unter Ausschluss einiger prominenter, die so stark zensiert sind, um Abweichlertum zu vermeiden, dass ich sie als nutzlos beurteile (oder schlimmer).

4. Die Seite „Papers” [Studien] listet etwa 120 Studien und Beiträge, unterteilt in vier Kategorien: Beschleunigung des Meeresspiegel-Anstiegs, wie lang eine Aufzeichnungsreihe sein sollte, bevor eine langzeitliche Trendanalyse möglich ist, „Wissenschaft (ist ein Durcheinander)“ und „Andere“.

5. Die Seite über „Feedbacks” [Rückkopplungen] enthält Informationen über Rückkopplungs-Systeme allgemein und Klima-Rückkopplungen im Besonderen. Damit ist beabsichtigt, eine vollständige Liste aller bedeutenden klimabezogenen Rückkopplungs-Mechanismen zu erstellen, seien sie nun bekannt oder hypothetisch. Ich habe einen Grad in Systemwissenschaft von vor langer Zeit. Diese Disziplin untersucht derartige Dinge, und ich kann mich immer noch an Einiges erinnern.

6. Die Seite „Data” ist Thema des restlichen Teils dieses Artikels.

Die Data-Seite

Bei SeaLevel.info gibt es Messungen des Mittleren Meeresspiegels (MSL) von über 1200 Messpunkten. (Gegenwärtig stammen alle Daten von PSMSL und NOAA). Auf der Daten-Seite kann man:

1. Nach einer Tiden-Messstation suchen

2. Mit Excel kompatible Tabellen ansehen oder herunterladen.

3. Übersichts-Seiten anschauen, die mit den Tabellen korrespondieren.

Alles fängt an mit ein paar Links:

1.Suche. Nach einem Tiden-Messpunkt kann man suchen mittels der PSMSL-Stationsnummer, der NOAA-Stationsnummer oder mittels des Standortes (z. B. „Honolulu“). Gegenwärtig wird nur ein Messpunkt gefunden; ich plane, die Fähigkeit hinzuzufügen, eine Liste mit allen Stationen zu finden (z. B. die Suche nach „NC, USA“ und die darauf folgende Auflistung aller Messpunkte in North Carolina).

2(a). Tabellen Falls man auf „Spreadsheets & thumbnails” klickt (oder ein wenig herunterscrollt), kommt man in den Bereich, wo man eine Tabelle mit Messdaten des Meeresspiegels von verschiedenen Messpunkten findet, die mit Microsoft Excel kompatibel ist, oder eine „thumbnail“-Seite mit kleinen Versionen der MSL-Graphiken für die zugehörigen Messpunkte:

Obwohl alle Tabellenblätter normale Websites sind, gibt es eingebettet Informationen, und zwar im excel-kompatiblen HTML-Format einschließlich Formularen zum Berechnen von Mittelwerten o. Ä. sowie ungerundete Zahlen. Die Tabellenblätter sind kompatibel mit Excel 2003 und höher.

Der einfachste Weg, ein Tabellenblatt herunterzuladen und es mit Excel zu bearbeiten ist es, in das Feld „Open“ die URL des Tabellenblattes anstelle des Filenamens setzen. Hier folgt ein Screenshot von einem der Tabellenblätter, wie es im Internet (nicht in Excel) erscheint. Diese Tabellenblätter sind ziemlich groß, deshalb ist dieser Screenshot stark gestutzt, sowohl der Länge als auch der Breite nach:

Dieser Auszug zeigt die ersten 11 Spalten des Tabellenblattes mit Werten von 13 Tidenmesspunkten in Nordeuropa (Gesamtzahl der Messpunkte in diesem einen Blatt 375).

Man muss zum Ende jedes Blattes scrollen, um zusammenfassende Informationen zu erhalten (Mittelwerte und Mediane).

Klickt man auf die Überschrift der Spalte, erscheint nur diese. Klickt man auf einen Link in der Spalte „Location“, wird man zur Analyse-Seite von sealevel.info von jenem Messpunkt geführt. Klickt man auf einen Link in der Spalte „NOAA stn“, kommt man zur NOAA-Seite für jenen Messpunkt. Der Klick auf einen Link in der Spalte PSMSL stn“, führt einen zur PSMSL-Seite jenes Messpunktes.

In den Spalten „Trend“ und „±95% CI (trend)” sieht man das Ergebnis einer linearen Regression (d. h. Anpassung einer Linie an die Daten) für diese 13 Messpunkte. An vier dieser Messpunkte sinkt der Meeresspiegel, an sieben Punkten steigt er, und an den anderen beiden zeigt sich kein signifikanter Trend (d. h. das 95%-Vertrauensintervall ist größer als der lineare Trend).

In den Spalten „Accel“ und „±95% CI (accel)” sieht man das Ergebnis einer quadratischen Regression (womit man Beschleunigung oder Verlangsamung erkennen kann) An zwei dieser 11 Messpunkte hat sich der Anstieg des Meeresspiegels geringfügig beschleunigt, an einem weiteren geringfügig verlangsamt. An den anderen 10 Messpunkten zeigte sich keine statistisch signifikante Beschleunigung oder Verlangsamung.

Unten auf dem Tabellenblatt sind die berechneten Mittelwerte und Mediane für das gesamte Blatt gelistet.

Lädt man das Tabellenblatt herunter, kann man mit Excel interessante Tests durchführen. Man könnte zum Beispiel Messpunkte löschen, die Daten aus weniger als 50 Jahren enthalten (wird doch in der Literatur erwähnt, dass mindestens 50 bis 60 Jahre mit Daten erforderlich sind, um einen handfesten Meeresspiegel-Trend an einem einzelnen Messpunkt zu erhalten). Die Zellen mit Mittelwerten und Medianen werden durch Excel-Formeln bestimmt, so dass sie automatisch angepasst werden, wenn man solche Änderungen vornimmt.

2(b): Thumbnails: Korrespondierend mit den Tabellenblättern gibt es Seiten mit „Miniaturbildern“ mit kleinen Versionen der Graphiken für alle in der Tabelle gelisteten Tidenmesspunkte. Beispiel:

In diesem Screenshot erkennt man, dass der Cursor auf das ersten Miniaturbild springt mit Angabe der Stationsnummer und dem Namen des Messpunktes. Klickt man auf eines der Miniaturbilder, kommt man zur Analyse-Seite für jenen Messpunkt.

Die Analyse-Seiten der jeweiligen individuellen Messpunkte

Für jeden Messpunkt, den man auf die eine oder andere oben beschriebene Weise anklickt, kommt man zur Analyse-Seite für eben jenen Messpunkt. Hier folgt als Beispiel Honolulu, dargestellt mit Standardoptionen:

Es gibt viele verfügbare Optionen. Man kann:

a) eine Graphik der Messungen des Meeresspiegels an jener Stelle erstellen (natürlich). Das ist die blaue Kurve.

b) Den Links zu den NOAA- bzw. PSMSL-Seiten für jenen Messpunkt folgen.

c) Den Links zu folgen zum „nächsten“ oder „vorherigen“ Messpunkt.

d) Lineare und quadratische Regressionen berechnen.

e) Graphische Präsentationen der linearen und/oder quadratischen Regressionen betrachten.

f) Vertrauens- und/oder Vorhersage-Intervalle für die Regressionen betrachten.

g) Einen überlagerten Graphen der CO2-Messungen ein- oder ausblenden, um zu sehen, welche Auswirkungen CO2 auf Steigen oder Fallen des Meeresspiegels an jener Stelle hat.

h) Glättungen an den Graphen des Meeresspiegels vornehmen.

i) Das Aussehen der Graphik adjustieren (Farbwahl, Liniendicke usw.)

j) Die Daten-Bandbreite adjustieren, die in den Regressions-Berechnungen verwendet wurden.

k) Die Datenquelle wählen (PSMSL und/oder NOAA)

l) Die verwendete Graphik kennzeichnen.

Man beachte die Ergebnisse der Regression (d):

Wie man sieht, werden Neigung und Beschleunigung berechnet zu:

Neigung = 1,434 ±0,211 mm pro Jahr

Beschleunigung = -0,01004 ±0,01454 mm pro Jahr².

Aus der Neigung kann man ablesen, dass der Meeresspiegel über die 110 Jahre lange Historie jenes Messpunktes mit einer mittleren Rate von 1,434 ±0,211 mm pro Jahr gestiegen ist (was übrigens ein sehr normaler Wert ist).

Das Minus-Zeichen vor der „Beschleunigung“ zeigt, dass sich die Rate des Meeresspiegel-Anstiegs auf Honolulu verlangsamt hat, aber 0,01 mm pro Jahr² ist eine sehr kleine Zahl (welche, falls sie über das Jahrhundert erhalten bleibt, zu einer Rate des Anstiegs um nur 1 mm pro Jahr führen würde), und dass das Vertrauensintervall größer ist als die Rate der Verlangsamung. Darum sollte man von jenem Messpunkt korrekt als „keine statistisch signifikante Beschleunigung oder Verlangsamung aufweisend“ berichten (was ebenfalls typisch ist).

Die verschiedenen Optionen, die man auswählt, werden alle Teil der URL für die Website. Zum Beispiel, falls man die Option „Liniendicke“ wählt, wird dies der URL hinzugefügt. Daher ist dies der Link zum gleichen Graphen, aber mit dickeren Linien:

http://www.sealevel.info/MSL_graph.php?id=1612340&thick

Hier folgt der Graph ohne den eingeblendeten CO2-Graphen (das „&co2=0” am Ende unterdrückt diesen):

http://www.sealevel.info/MSL_graph.php?id=1612340&thick&co2=0

Hier folgt er in Schwarz-Weiß mit dicken Linien (Viele andere Farbgebungen lassen sich auch anbringen):

http://www.sealevel.info/MSL_graph.php?id=1612340&thick&colors=2

Schwarz-Weiß ist nützlich, um die Graphen zum Ausdrucken auf Schwarz-Weiß-Druckern aufzubereiten. Das sieht so aus:

Hier folgt fast das Gleiche, aber mit einer 3-Monate-Glättung. Die Glättung beeinflusst nicht die Regressionsanalysen (außer bei den Vorhersage-Intervallen), aber der Graph sieht dann hübscher aus:

http://www.sealevel.info/MSL_graph.php?id=Honolulu&colors=2&thick&boxcar=1&boxwidth=3

Man beachte, dass wir in dieser URL den Stationsnamen („id = Honolulu“) anstelle der Stationsnummer (“id=1612340”) genannt haben. Man kann auch die PSMSL-Stationsnummer (“id=155”) oder den früheren Stationscode (“id=760-031”) eingeben. Alle erzeugen den gleichen Graphen:

Hier folgt er mit einer quadratischen anstatt einer linearen Regression. Außerdem habe ich den Graphen mit Daten erst ab dem Jahr 1930 erstellt und mit bis zum Jahr 2100 ausgedehnten Regressionskurven versehen, mit einem anderen Farbschema und mit minimaler Glättung:

http://www.sealevel.info/MSL_graph.php?id=Honolulu&quadratic=1&thick&co2=0&linear=0&lin_ci=0&quad_pi=0&quad_ci=1&colors=3&g_date=1900/1:2099/12&c_date=1930/1:2019/12&boxcar=1&boxwidth=2

Das sieht so aus:

Man beachte, dass ich in jenem Screenshot mit dem Cursor auf einen Punkt auf dem Graphen gegangen bin, um den genauen Wert zu erkennen (in diesem Falle das obere Ende des 95%-Vertrauens-Intervalls für 2100).

Man beachte weiter, dass der lineare Trend etwas unterschiedlich ist (weil wir Daten vor 1930 ausgeschlossen haben). Die aus den Berechnungen ausgeschlossenen Daten werden mit einer helleren blauen Schattierung dargestellt, und eine rote Fußnote wird der Seite hinzugefügt:

‡Hellblaue Daten sind in den Regressionsberechnungen nicht enthalten.

Diese Version ist fast die gleiche, aber mit hinzugefügtem CO2-Graphen in grün, und die Vertrauensintervalle wurden ersetzt durch Vorhersageintervalle (gepunktet orange):

http://www.sealevel.info/MSL_graph.php?id=Honolulu&quadratic=1&thick&linear=0&lin_ci=0&g_date=1900/1:2099/12&c_date=1930/1:2019/12&boxcar=1&boxwidth=2&quad_pi=1&quad_ci=0&colors=3

Anmerkung: auf der rechten Seite der Site befindet sich ein Link zu einem kurzen Video von Dr. Gerard Verschuuren, in welchem der Unterschied erklärt wird zwischen „Vertrauensintervall“ und Vorhersageintervall“.

Achtung:

Diese Tools können Regressionen und Graphen erzeugen für über 1200 Messpunkte, aber auf viele Einzelgraphen habe ich gar nicht geschaut. Die Durchführung von Regressionsberechnungen und die Erzeugung von Graphiken ohne händische „Nachprüfungen“ enthält Fallstricke.

Zum Beispiel wurden einige MSL-Daten an manchen Messpunkten von PSMSL und/oder NOAA als von fragwürdiger Genauigkeit identifiziert, und diese Tools tragen dem nicht Rechnung.

Auch Erdbeben können manchmal extreme Verzerrungen in den Trend bringen. Man betrachte das Beispiel von Seward, Alaska:

Am 27. März 1964 war es zum Großen Alaska-Erdbeben gekommen (Magnitude 9,2!). In Seward stieg der Meeresspiegel ruckartig um einen ganzen Meter. Wenn man also den MSL-Trend für Seward berechnet, sollte man mit den Daten nach diesem Ereignis beginnen, etwa so:

http://www.sealevel.info/MSL_graph.php?id=9455090&c_date=1964/5:2019/12&co2=0&thick:

Man beachte, dass die NOAA dies für ihre Website für Seward gemacht hat:

Wenn man also diese Tools für die Analyse von MSL-Daten heranzieht, rate ich, auch auf die Links zu NOAA und PSMSL zu klicken, um deren Seiten bzgl. der interessierenden Messpunkte zu betrachten. Vor allem rate ich, im besonderen auf Warnungen vor fragwürdigen Daten zu achten, auf offensichtliche Änderungen der Messzeitpunkte und auf Erdbeben.

Zukunft

Es gibt viele weitere Ecken und Kanten bei diesen Tools. Meine Liste notwendiger Vorarbeiten wird immer länger, und vielleicht tragen ja noch Leser zu dieser Liste bei.

Fakten sind unendlich stur: Welche Wünsche oder Neigungen man auch immer hat, oder welche Leidenschaften in uns stecken – all dies kann Fakten und Beweise nicht verändern, geschweige denn aus der Welt schaffen. – John Adams

Trugschlüsse hören nicht auf, Trugschlüsse zu sein, nur weil sie in Mode kommen. – G. K. Chesterton

Herr, errette mich von den Lügenmäulern, von den falschen Zungen! – Psalm 120, Vers 2 [direkt aus der Luther-Bibel. Keine Übersetzung!]

www.sealevel.info

Link: https://wattsupwiththat.com/2017/01/21/new-website-gives-you-the-real-deal-on-sea-level-rise-and-rates/

Übersetzt von Chris Frey EIKE




Eiskalt erwischt: Der Januar 2017 straft die Theorie der „Klima­erwärmung“ Lügen

1. Wird der Januar immer milder?

Ein einzelner, kalter Januar sagt freilich wenig über die langfristige Januar-Temperaturentwicklung. Seit der „Kleinen Eiszeit“ hat sich dieser zweifellos etwas erwärmt. Folgende Beispiele aus verschiedenen Regionen der Nordhalbkugel zeigen aber, dass diese Erwärmung schon seit mehreren Jahrzehnten einer Stagnation oder gar einer leichten Abkühlung gewichen ist:

Den geringen (nicht signifikanten) Temperaturanstieg erkennt man in Erfurt- Weimar kaum, wohl aber die enorme Streuung der Januar- Monatsmittel zwischen eisigen fast minus 8 Grad (1987) und frühlingshaften mehr als plus 4 Grad 1975 und 2007. Diese enorme Streuung (im Mittel 1973 bis 2017 fast 3 Grad) raubt dem Trend jegliche Signifikanz- im Großen und Ganzen blieb der Januar so kalt wie vor 4 Jahrzehnten. Zumindest im ersten Monat des Jahres fiel also der „CO2- bedingte Klimawandel“ bislang aus, denn die Erfurter Werte sind nicht wärmeinselbereinigt (am Flughafen Erfurt- Weimar nahmen Verkehr und bebaute Flächen seit den 1970er Jahren zu, was zumindest gering erwärmend wirkte). In Zentralengland erwärmte sich der Januar seit dem Höhepunkt der „Kleinen Eiszeit“ (um 1680), recht deutlich und auch noch bis in die Gegenwart. Aber seit mindestens 105 Jahren ist die dortige „Erwärmung“ unerheblich (nicht signifikant, enorm hohe Streuung). Und die wärmsten Januare liegen dort mit 1916 (+7,5 °C) und 1921 (+7,3°C) schon etwa ein Jahrhundert zurück. Die grünen Balken markieren den Korridor der einfachen Streuung. Man erkennt, dass sich die Trendlinie nur innerhalb dieses Korridors bewegt, der Trend also unerheblich ist:

Schon in dieser obigen Grafik zeigt sich bei genauerer Betrachtung eine Abkühlungsphase kurz nach der Mitte des 20. Jahrhunderts, obwohl doch schon zu dieser Zeit die CO2- Konzentrationen deutlich über dem vorindustriellen Niveau lagen. Dieses rhythmische Verhalten wird noch deutlicher, wenn man den Betrachtungszeitraum bis fast zur Mitte des 19. Jahrhunderts ausdehnt, dem frühesten Erfassungsjahr der AMO, und sich die 21ig-jährigen Gleitmittel der Januartemperaturen in England (CET), in Deutschland sowie der AMO anschaut:

Anders als in den Sommer- und Herbstmonaten, in welchen hohe AMO- Werte tendenziell zu hohen Lufttemperaturen führen, zeigt sich im Wintermonat Januar ein spiegelbildliches Verhalten. In den 2000er Jahren erreichten die Januartemperaturen in Deutschland und England ein mittleres absolutes Maximum; ab den 2010er Jahren deutet sich ein Rückgang an. Doch jenseits des Atlantiks finden sich gar Stationen, welche sich schon seit 1881 minimal (nicht signifikant) abkühlten; ein Beispiel von der US- Ostküste möge das belegen:

Selbst am kältesten, dauerhaft bewohnten Ort der Welt, Oimjakon/Ostsibirien, stagnieren seit 40 Jahren die Januarmittelwerte:

2. Beginnende Abkühlungsphase – bald wieder mehr Nebel, Kälte und mehr Hochdrucklagen über Mitteleuropa im Januar?

Daten zur Anzahl der Nebeltage je Monat liegen über längere Zeiträume nur für ganz wenige Stationen vor. Bei Frost bleiben die winzigen Nebeltröpfchen selbst bei zweistelligen Minusgraden flüssig und lagern sich als „Raueis“ an Zweigen und Gegenständen ab – von Laien und von den „Qualitätsmedien“ oft fälschlich als „Raureif“ bezeichnet (Reif entsteht durch Sublimation). Raueis sieht aus wie Raureif, weil bei seiner Ablagerung viel Luft eingeschlossen wird, die es schneeweiß aussehen lässt:

Die folgende Grafik zeigt das 21ig- jährige Gleitmittel der Zahl der Nebeltage in Potsdam für den Januar sowie den Gang des Januar- Mittels der Lufttemperatur. Beide Größen verhalten sich spiegelbildlich- in milderen Phasen gab es weniger und kälteren Phasen mehr Nebeltage, wobei aber der Grad der Luftverschmutzung, welcher in Ostdeutschland zwischen den 1950er und den 1980er Jahren besonders hoch war, das augenfällige Nebel- Maximum nach der Mitte des 20. Jahrhunderts hauptsächlich verursacht hat. Tendenziell scheint die Nebelhäufigkeit seit den späten 2000er Jahren wieder leicht zuzunehmen, obwohl die Luftreinhaltemaßnahmen immer strenger werden. Auch die winterlichen Lufttemperaturen scheinen seitdem wieder leicht zu sinken; in der Grafik verschleiert das Gleitmittel diese Entwicklungen noch:

Für den aktuellen Januar liegen noch keine Nebel- Daten vor; doch gab es in Erfurt schon wieder mehrfach gefrierenden Nebel (Schlüsselzeichen ww49). Dieser war am 22. Januar so dicht, dass das Freundschaftsspiel zwischen Rot-Weiss Erfurt und Borussia Dortmund ausfiel, weil der Flieger der Borussia nicht auf dem Erfurter Flughafen landen konnte. Möglicherweise deutet sich auch eine Zunahme der Hochdruckwetterlagen im Januar an; hierzu bedarf es noch weiterer Untersuchungen.

3. Weniger Schnee im Januar? Mitnichten!

Die folgende Grafik zeigt die mittlere Schneebedeckung in Millionen Quadratkilometern auf dem Riesenkontinent Eurasien im Januar seit Einführung der satellitengestützten Überwachung. Sie spricht Bände; jeglicher Kommentar erübrigt sich:

4. Besonderheiten der Januar- Witterung in Deutschland- nicht überall war es deutlich zu kalt

Bis zur Monatsmitte dominierten nördliche Großwetterlagen mit arktischer Meeresluft und engräumig sehr unterschiedlichen Schneefällen im ganzen Land. So wurden in Weimar nie mehr als 1 bis 3cm Schneehöhe beobachtet; im kaum 50 Kilometer entfernten Thüringer Wald aber 30 bis 80cm. Bei Zwischenhocheinfluss wurden in einzelnen Nächten verbreitet Tiefstwerte zwischen minus 15 und minus 25°C gemessen; in Bad Kühnhaide- Marienberg am Erzgebirge gar sibirische minus 31°C. Aber danach stellte sich die schon vom Dezember gewohnte Hochdrucklage über Mitteleuropa ein; wobei es in Mittel- und Süddeutschland bei teils klarer Witterung weiter abkühlte, während vom Niederrhein bis nach Nordsachsen meist trübes, mildes Wetter dominierte. Das riesige Kälte- Hoch über Mitteleuropa erklärt auch die zeitweise kalte, schneereiche Witterung vom Mittelmeerraum bis zum Nahen Osten (Bodenwetterkarte vom 17. Januar 2017, Quelle: DWD):

Es entstand ein Temperaturgefälle von zeitweise mehr als 15 Kelvin zwischen dem etwas zu milden Norddeutschland (grünliche Farbtöne) und dem eiskalten Süddeutschland (dunkelblau, violett):

Während der Januar 2017 in Süddeutschland zu den kältesten der letzten 30 Jahre zählt, war er an den deutschen Küsten fast temperaturnormal, stellenweise gar etwas zu mild.

5. Kalter Januar- milder Restwinter 2017?

Aufgrund der Persistenz (Beharrungsvermögen der Witterung) hat der Witterungscharakter um die Monatswende Januar/Februar einen gewissen Einfluss, wie die kommenden Wochen ausfallen werden. Der bisher über Mitteleuropa befindliche hohe Luftdruck verlagert sich zögernd nach Ost- und Südosteuropa; doch ob der Weg für milde Südwestwinde frei wird, wie oft fälschlich von den Computermodellen berechnet, bleibt fraglich. Weil sich der Winter im Nord- und Ostseeraum aber nicht festsetzen konnte (dort blieben die Wassertemperaturen für die Jahreszeit etwas zu hoch), fehlt ein umfangreiches Kältereservoir, welches der nun immer länger und kräftiger scheinenden Sonne trotzen könnte. In der „Berliner Wetterkarte“ wurde vor einigen Jahren eine Formel veröffentlicht, welche eine grobe Abschätzung der Februar- Temperaturen Berlins erlaubt:

TF(°C) = -61,478+0,136a-0,0255b+0,086c+2,028d

Dabei bedeutet TF die zu berechnende Februartemperatur (Mittelwert) in °C, -61,478 ist eine Konstante, a die mittlere, gemessene Lufttemperatur am jeweiligen 31.01. und 01.02. in Berlin (°C), b der Mittelwert des Luftdrucks (hPa) im abgelaufenen Januar auf 65° Nord und 20°W (Island), c der Mittelwert des Luftdrucks (hPa) im abgelaufenen Januar auf 40° Nord und 10°E (Sardinien), d die Abweichung der Wassertemperatur der Nordsee vor Dänemark vom Langjährigen Mittel in Kelvin am jeweiligen Monatswechsel Januar/Februar. Alle Größen sind um die Monatswende diesmal eher so beschaffen, dass eine normale bis deutlich übernormale Februartemperatur zwar nicht sicher vorhersagbar, aber doch zumindest im Norddeutschen Tiefland deutlich wahrscheinlicher wird, als eine unternormale.

Die Ensemble- Vorhersagekarte des NOAA (USA- Wetterdienst) vom 22.01. für den 05.02.2017 zeigte eine Hochdruckzone über Südosteuropa und tiefen Luftdruck westlich von Island, was besonders in Norddeutschland mildes Wetter zur Folge hätte; besonders in Süd- und Ostdeutschland könnte sich die Kälte in abgeschwächter Form noch eine ganze Weile halten (sehr unsicher; Quelle NOAA):

Auch das CFSv2- Modell des NOAA kündigt seit Wochen einen milden Februar an; verlässlich sind dessen Prognosen aber nicht:

Die Unsicherheit bleibt also groß, doch deutet sich wohl ein Februar an, der zumindest über Norddeutschland mehr oder weniger zu mild verlaufen könnte, so dass dann der gesamte meteorologische Winter trotz des kalten Januars insgesamt etwas zu mild ausfällt, was auch den bisher getroffenen Prognosen entspricht.

6. Januar kalt und weiß – Sommer heiß?

Bei flüchtiger Betrachtung folgen kalten Januaren kalte oder warme Sommer fast gleich häufig; eine signifikante Korrelation besteht nicht. Betrachtet man jedoch nur die Januare, bei denen sich die Kälte nicht entscheidend im Nord-/Ostseeraum festsetzten konnte, sondern sich mehr auf den Alpenraum konzentrierte, so gibt es zumindest vage Hinweise auf einen warmen Sommer und auch auf einen eher milden Frühling. Ernsthafte Prognosen verbieten sich schon wegen des großen zeitlichen Abstands und der großen Variabilität der mitteleuropäischen Witterung; doch hat dieser Januar die Wahrscheinlichkeit für eine warme Frühjahrs- und Sommerwitterung zumindest nicht verringert.

Fazit: Eine eindeutige Januar- Erwärmung blieb seit Jahrzehnten trotz stark steigender CO2- Konzentrationen aus. Im Januar 2017 wiederholte sich über längere Zeiträume die Witterung des Dezembers 2016 mit hohem Luftdruck über Mitteleuropa, was zu anhaltenden, teils heftigen Kältewellen südlich des 52. Breitengrades führte; während es in Norddeutschland schon kurz nach der Monatsmitte deutlich milder wurde. Auch mehren sich die Anzeichen für einen eher normalen, stellenweise vielleicht gar milden Februar in Deutschland.

Zusammengestellt von Stefan Kämpfe, Diplomagraringenieur, unabhängiger Klimaforscher, am 23.01.2017




Rundbriefe der GWPF vom 18. bzw. 21. Januar 2017

Neuer Klima-Konsens der Trump-Regierung: ,Die Wissenschaft ist nicht settled

Die Menschen beeinflussen den Klimawandel, aber in welchem Ausmaß, ist immer noch „offen“, sagte der Repräsentant Ryan Zinke kürzlich dem Energy and Natural Resources Committee des US-Senats während der Anhörung zu seiner Nominierung als neuer Innenminister. „Der Mensch hatte einen Einfluss“, sagte Zinke aus, „ich denke, dass dies unstrittig ist. Das Klima ändert sich, der Mensch hat einen Einfluss. Ich bin sicher, die Debatte darüber, wie groß dieser Einfluss ist und was man dagegen tun kann, ist noch lange nicht vorüber“. – Alan Neuhauser,  U.S. News, 17. Januar 2017

Pruitt über Klimawandel und Klimapolitik

Der von Präsident als Administrator der EPA benannte Generalstaatsanwalt von Oklahoma Scott Pruitt hat eine lange Historie des Kampfes gegen Vorschriften bzgl. Verschmutzung der [bisherigen] US-Regierung. Falls seine Berufung bestätigt wird, erwartet man, dass er die Agentur drastisch verändern wird, mittels der Präsident Obama einige seiner aggressivsten Gesetze implementiert hatte – und welche Konservative erboste, die die Regierung der dramatischen Überreaktion verklagten, welche die Rechte der US-Staaten mit Füßen getreten habe. – Alex Guillén, Annie Snider and Eric Wolff, Politico, 18. Januar 2017

Eine ernsthafte Debatte ist das Lebenselixier der amerikanischen Demokratie, und die globale Erwärmung hat eine der großen politischen Debatten unserer Zeit ausgelöst. Diese Debatte ist alles andere als settled. Wissenschaftler sind sich nach wie vor uneinig hinsichtlich des Ausmaßes der globalen Erwärmung und deren Verbindung zu Maßnahmen der Menschheit. Diese Debatte sollte am Leben gehalten werden – in Klassenräumen, öffentlichen Foren und im US-Kongress. Man sollte sie nicht mit der Androhung von Verfolgung abwürgen. Abweichlertum ist kein Verbrechen! – Scott Pruitt, Generalstaatsanwalt von Oklahoma, und Luther Strange, sein Amtskollege von Alabama, National Review, 17. Mai 2016

Asche gegen Geld: Skandal um grüne Energie bringt die Regierung Nordirlands in Bedrängnis

In Nordirland werden Neuwahlen ausgerufen, nachdem die Regierung durch den Fallout eines völlig verkorksten Programms zu erneuerbarer Energie kollabiert ist. Martin McGuiness trat als stellvertretender Erster Minister zurück, und seine Partei hat es im übergangenen Parlament abgelehnt, einen Ersatz für ihn zu benennen. Der Zusammenbruch der Regierung folgte der Kontroverse um ein skandalträchtiges politisches Programm mit der Bezeichnung Renewable Heat Incentive [etwa: Anreiz zu erneuerbarer Wärme]. Damit sollten die Wirtschaft dazu gebracht werden, erneuerbare Wärmequellen zu nutzen, aber stattdessen bezahlte man die Industrien dafür, Treibstoff zu verbrennen. Dies könnte den Steuerzahler mit einer halben Milliarde Pfund zu stehen kommen in einem Durcheinander, das unter der Bezeichnung „Ash for Cash“ bekannt ist. – Brendan Cole, International Business Times, 16. Januar 2017

Trumps Kandidat für die EPA: Wir werden die EPA umkrempeln, so dass sie nicht länger den Kongress ignorieren kann

Der von US-Präsident Trump berufene Kandidat, der die EPA führen soll, gelobt, die Agentur zu ändern und sie von einer Agentur, deren starke Arme Staaten und den Kongress ignorieren, in eine solche umzuwandeln, die mehr der Gemeinschaft verpflichtet ist und auf Gesetzgeber hört. Dies geht aus einer Ausgabe vorbereiteter Bemerkungen hervor, die vor seiner Anhörung im Senat veröffentlicht wurden. „Falls man mir die Gelegenheit gibt, als Administrator zu fungieren, werde ich sicherstellen, dass die EPA zu eine kooperative und gemeinschaftliche Beziehung zum Kongress findet, dessen Absichten zu verwirklichen“, wird Pruitt bei der Anhörung sagen. Die Bemerkungen zeichnen das Bild einer EPA unter der Obama-Regierung, die sich von den ursprünglichen Absichten des Kongresses weit entfernt hatte. Er benannte es als sein Ziel, die Agentur an ihre richtige Stelle zu rücken und dem Gesetz zu unterwerfen. – John Siciliano, Washington Examiner, 18. Januar 2017

Das Große Erwachen von US-Schiefer: Trumps Trumpfkarte

Die OPEC und deren Freunde haben jüngst einige sehr unbequeme Nachrichten gehört. Die Produktion von Schieferöl in den USA beginnt erneut einen Höhenflug. Die jüngsten Vorhersagen der US Energy Information Administration IEA zeigen, dass der OPEC Vereinbarungen, die Preise zu erhöhen, die Ölversorgung neu auszutarieren und die Nachfrage durch Drosselung der Förderung zu steigern, die US-Schieferindustrie schneller aus ihrem Winterschlaf erwachen lasen könnte als der OPEC lieb ist. Die EIA geht jetzt davon aus, dass die US-Produktion bis zum Dezember auf 9,22 Millionen Barrel pro Tag steigen wird, das wäre eine Zunahme von 320.000 Barrel über das Jahr. Aber dies könnte sich schnell als zurückhaltende Vorhersage erweisen. Es könnte sich herausstellen, dass der neue US-Präsident und der Kongress der Ölausbeutung viel unterstützender gegenüberstehen als die alte Regierung, hatte doch Donald Trump im September verlauten lassen, dass er „die Restriktionen bzgl. Energie in Amerika aufheben und den daraus resultierenden Wohlstand den Gemeinden zuführen wird“. Dies könnte dem Schiefersektor weiteren Auftrieb verleihen. – Julian Lee, Bloomberg, 15. Januar 2017

Trump-Ära beginnt mit dem Schwur, Obamas Climate Action Plan zu eliminieren

Auf seiner Antrittsrede am Freitag präsentierte sein Stab eine Vielfalt von Vorschlägen, von der „Außenpolitik Amerika zuerst“ bis zur Zerschlagung von Obamas Climate Action Plan – was weitgehend den Aussagen seiner Kampagnen-Website entspricht. „Viel zu lange wurden wir aufgehalten durch belastende Vorschriften für unsere Energieindustrie. Präsident Trump hat sich der Eliminierung schädlicher und unnötiger politischer Maßnahmen verschrieben wie etwa dem Climate Action Plan und der Verwässerung von US-Regeln“, heißt es ganz oben auf der Website des Weißen Hauses des neuen Präsidenten. „Neue Maßnahmen werden erwartet schon bald nach der Amtsübernahme des 45. Präsidenten der USA“. –David Jackson and Gregory Korte, USA Today, 20. Januar 2017

Trump-Team bereitet eine Liste mit ersten grundlegenden Änderungen der Klima- und Energiepolitik vor

Die Berater von Donald Trump haben eine kurze Liste mit Änderungen der Politik bzgl. Klima und Energie vorbereitet, die er umsetzen kann, sowie er als neuer Präsident vereidigt worden ist. Darunter sind Schritte, die Rolle zu begrenzen, die der Klimawandel bei Entscheidungen der Regierung gespielt hat sowie die positive Begutachtung grenzüberschreitender Pipelines. – Jennifer A Dlouhy, Bloomberg, 20. Januar 2017

In einem „America First Plan“, der auf der Website des Weißen Hauses gepostet wurde während der Amtsübernahme von Donald Trump, wird versprochen, dass „die Schiefer-Industrie und die Benzin-Revolution“ begrüßt werde. „Wir müssen die Vorteile ausschöpfen, welche uns die bisher nicht angetasteten Schiefer-, Öl- und Erdgasreserven verschaffen, deren Wert auf 50 Billionen Dollar geschätzt wird. Das gilt vor allem auf Ländereien, die nicht in Privatbesitz sind“, heißt es in dem Statement des Weißen Hauses. „Wir werden die Einkünfte aus der Energieerzeugung dazu nutzen, unsere Straßen, Schulen, Brücken und die allgemeine Infrastruktur allgemein zu verbessern. Billigere Energie wird außerdem der amerikanischen Landwirtschaft einen großen Schub verleihen“. Platts, 21. Januar 2017

Schnelle Verfügungen, die Trump bzgl. Energie- und Klimapolitik erlassen kann

Der 2015 endgültig in Kraft gesetzte Clean Power Plan steht im Mittelpunkt von Obamas breit angelegter Klimawandel-Strategie. Ein von der Obama-Regierung benutztes und wenig bekanntes Werkzeug zur Stützung seiner Vorschriften zur Kürzung von Kohlenstoff-Emissionen sind die „sozialen Kosten von Kohlenstoff“, eine Berechnung, die von einem Gremium von Technik-Experten durchgeführt worden ist, um den Schaden für die Öffentlichkeit durch Kohlendioxid-Emissionen zu beziffern. Die Berechnung wird herangezogen in der Kosten/Nutzen-Analyse als Grundlage der Vorschrift. Die gegenwärtig von dem Gremium genannten Kosten liegen bei 36 Dollar pro Tonne, was sich bis 2030 auf 50 Dollar pro Tonne erhöhen wird. Die American Energy Alliance glaubt, dass Trump sofort Agenturen der Regierung anweisen kann, die Sozialen Kosten von Kohlenstoff ad acta zu legen. Dies könnte eine Anzahl weiterer Anti-Kohlenstoff-Vorschriften von Obama enthüllen. – Valerie Volcovici, Reuters, 20. Januar 2017

Übersetzt von Chris Frey EIKE




Eine Messstation fast ohne Wärmeinseleffekt (WI): Schwierigkeiten bei Temperaturvergleichen

Welche Auswirkungen haben diese neu geschaffenen Wärmeinseln auf die Wetterstationen, die eben genau dort sind, wo die Menschen leben und arbeiten?

Glücklicherweise gibt es eine Temperatur-Messstation, bei der sich nur wenig in der weiten Umgebung verändert hat, also ein dunkler Fleck auf dieser Karte. Leider nicht bei uns, sondern in den USA: Die Dale-Enterprise-Weather-Station in Virginia. Die kleine weit verstreute Ansiedlung liegt vier Meilen von der nächsten Kleinstadt Harrisonburg entfernt.

Abb. 2: Dale-Enterprise ist eine Ansammlung von Gehöften, Farmen und Einzelhäusern entlang des US-Highway 33 in Virginia/USA. (latitude 38°27’19N and longitude 078°56’07W)

Aber auch ohne menschlichen Eingriff bleibt nichts so wie es war, Natur und Klima verändern sich immer, und Menschen gestalten mit, vergrößern ihre Anwesen, steigern den Energieverbrauch und breiten sich in die Fläche aus. Resultate sind breitspurige Straßen in der unmittelbaren Umgebung, asphaltierte örtliche Zugangswege zu größeren und besser beheizten Räumen mit steigendem Energieverbrauch. 1880 soll Dale Enterprise noch eine Wetterstation bei einer einsamen Farm gewesen sein, weit weg von der damals kleinen Ansiedlung Harrisonburg. Inzwischen hat sich auch diese Kleinstadt in die Fläche erweitert, der ausufernde Ortsrand ist nur noch eine Meile von Dale Enterprise entfernt. Wir gehen jedoch davon aus, dass Dale Enterprise selbst immer noch eine relativ wärmeinselarme Ansiedlung geblieben ist.

Auch die Tagesmittelwerte wurden immer nach demselben Muster von inzwischen drei Ahnen der Familie Heatwole seit 1880 bestimmt und so die Jahreswerte ermittelt. Dale Enterprise ist die älteste anerkannte Wetterstation in Virginia.

Anmerkung zu den umfangreichen Temperaturdaten: Bei einigen Jahren fehlten Monatsergebnisse. Wir haben deshalb den fehlenden Monat mit dem Durchschnittswert der restlichen über 130 Monatsmittel ergänzt, um für das betreffende Jahr ein vergleichbares Jahresmittel zu erhalten. Es fehlten insgesamt deutlich weniger als 1 Prozent der Monatswerte, so dass diese Vorgehensweise das Gesamtergebnis fast nicht beeinflusst hat.

Die folgende Abbildung 3 zeigt den Temperaturverlauf dieser Station aus den einzelnen Jahresmitteln. In den USA ist die Maßeinheit Fahrenheit (F) für Temperaturen gebräuchlich und nicht Celsius, wobei 32 F Null Grad Celsius entspricht. Und 50 F entspräche 10 C.

Abb. 3: Auf der x-Achse sind die Temperaturen in der in den USA üblichen Fahrenheitskala aufgetragen. Die Trendlinie ist leicht fallend seit 1880

Die Überraschung ist groß, es gibt keine Erwärmung bei dieser Station seit 1880 bis 2016.

Wir können die letzten 140 Jahre grob in vier Teile unterteilen:

  1. Temperaturrückgang 20 Jahre lang von 1880 bis 1900
  2. Ein erneuter 20-jähriger Anstieg bis 1920
  3. Etwa auf gleichem Niveau von 1920 bis 1990
  4. Erneuter Rückgang ab 1990 bis heute, d.h. eine Abkühlung in der Gegenwart

Ergebnis 1: Obwohl diese Station auch nicht ganz wärmeinselfrei ist, zeigt sie einen (unbedeutenden) Temperaturrückgang, auf alle Fälle keine Erwärmung in den letzten 137 Jahren. Das heißt aber auch, dass es im unbebauten 10 km Umkreis der Station noch ein klein wenig mehr kälter wurde.

Ergebnis 2: In der jüngeren Gegenwart, in diesem Falle ab 1990 sind die Temperaturen gefallen und nicht gestiegen. Fallende Temperaturen, wenn auch nur in Virginia, sind das genaue Gegenteil einer Erwärmungskatastrophe.

Daraus lassen sich vorsichtigerweise auch Rückschlüsse für Deutschland ableiten. Laut Deutschem Wetterdienst sind die Temperaturen seit dem Jahre 2000 bis heute gleich geblieben, gemessen in den mehr oder weniger stark mit Zusatzwärme beeinflussten deutschen Stationen. Allgemein wirkt der Wärmeinseleffekt (WI) der Städte und Gemeinden, in welchen die meisten Messstationen sich befinden, einer Abkühlung entgegen. Und die deutschen Daten sind nicht wärmeinselbereinigt. (WI)

Wir haben den WI-Korrekurfaktor für Deutschland seit 1891 ermittelt. Er beträgt für die letzten 130 Jahre ungefähr 1,2 Grad mit einer Genauigkeit, die wir mit +/-0,3C angeben. Siehe: http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/ und WI ist der hauptsächliche Temperaturtreiber

http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

Die WI-bereinigte Deutschlandkurve seit 1891 sähe dann so aus:

Grafik 4: WI-bereinigte Deutschlandtemperaturen. So wäre der Temperaturverlauf, wenn Deutschland genauso geblieben wäre, wie es 1891 war und die Messstationen auch noch an denselben viel kälteren Orten von damals stehen würden.

Dieser (grüne) Temperaturverlauf gilt weitgehend für die freie Fläche Deutschlands außerhalb der Ansiedlungen, – das sind etwa 85% Deutschlands -die Natur richtet sich außerhalb der Städte nach den WI-bereinigten Temperaturen. Deswegen macht der Mai immer noch die Bäume grün, bzw wieder die Bäume grün, denn vor über 25 Jahren war die Erstblüte in der freien Fläche früher. (Eigenbeobachtungen)

Auch viele anderen Indizien und Beobachtungen sprechen für die Richtigkeit dieser 1,2 Grad Wärmeinselanteil seit 1891 für Deutschland. Hier sollen einige genannt werden:

Temperaturen in der freien Fläche, weitab der Wärmeinseln

Abb. 5: Dieses Bild entstand in einem FFH-Schutzgebiet im Frankenbachtal im Ostalbkreis in der freien Fläche, weitab von allen Ansiedlungen und Wärmeinseln. Die Maiaufnahme zeigt den kümmerlichen Blattaustrieb verschiedener Sträucher am 19.05.2012. Die Vegetation der Bäume nimmt die tatsächlichen Maitemperaturen wahr und die sind in Deutschland nach einer 20jährigen Mai-Abkühlungsphase wieder so tief wie vor mindestens 55 Jahren, als der Betrachter erstmalig hier war. Man betrachte auch den Entwicklungsstand bei der Bodenflora. An Eisheiligen lag in diesem Tal auf 440mNN sogar kurzzeitig Schnee. In der freien Fläche Deutschlands macht immer noch der Mai die Bäume grün wie in dem schönen 240 Jahre alten Liedchen von Mozart beschrieben wird.

Ich möchte betonen: Die vom Deutschen Wetterdienst=DWD veröffentlichten Temperaturreihen sind richtig ermittelt. Sie gelten aber nur für die vom Menschen großflächig geschaffenen Zivilisationsflächen, also für die hellen Punkte der Nachtaufnahme bei Grafik 1. Und dort gibt es die Erwärmung seit 1850 bzw. seit 1891 tatsächlich. Beim Temperaturvergleich mit früheren Jahrzehnten braucht man einen Korrekturfaktor, um zu wissen, welcher Anteil der Temperaturen als Zusatzwärme vom Menschen kommt und welcher vom Klima. Täglich nehmen diese vom Menschen geschaffenen Wärmeflächen zu, in Deutschland derzeit um 70 ha täglich

Betrachten wir nochmals die Grafik 4, die WI-bereinigten Deutschlandtemperaturen: Das Jahr 2010 war sogar das drittkälteste Jahr seit den Temperaturaufzeichnungen. Die Flora/Fauna in der freien Fläche empfand die 6,7 Grad und richtete sich entsprechend ein. Eigene Beobachtungen im Frankenbachtal zwischen Ellwangen und Aalen in Süddeutschland ergaben: Anfang Mai: Knospen, kaum Blätter der Bäume, Mitte Mai: Blattaustrieb. Ende Mai: Blätter der Bäume wachsen, erst Anfang Juni voller Blattaustrieb. Froschablaiche Anfang Mai und nicht Ende März/April, Frühblüher im April anstatt im März. Im März 2010 waren der Boden und die Laichtümpel der Frösche und Kröten noch zugefroren. Wegen der verkürzten Vegetation wurde das Obst 2010 im Ostalkreis nicht reif und erfror teilweise im November auf den Bäumen als der erste Schnee fiel.

Genauere Beschreibung, siehe hier

http://www.wahrheiten.org/blog/2011/01/27/waermeinseleffekt-taeuscht-klimaerwaermung-vor/

Für den Temperatur-Vergleich mit den Jahren von 1890 bis 1900 darf man für das Jahr 2010 nicht die ermittelten 7,8 Grad des DWD nehmen, sondern man muss davon den WI von 1,2C subtrahieren, damit man Äpfel mit Äpfeln vergleicht. Die Natur außerhalb der Ansiedlungen richtet sich nach den 6,6 C

Der Wärmeinseleffekt ist eine menschengemachte Zusatzwärme bei den Messstationen, aber diese anthropogene Zusatzwärme bezieht sich nicht bloß auf Städte und Siedlungen, sondern großräumig wurden auch Flächen und ganze Regionen wärmer gemacht. In BaWü wäre dies der gesamte Oberrheingraben, der Mittlere Neckarraum und der Bodenseeraum mit Oberschwaben. Auch die Abholzung von 50 km2 Regenwald täglich und die weitere Urbanisierung von 70 ha täglich in die Freifläche Deutschlands hinein haben auf die Dauer Auswirkungen auf eine größere Gesamtfläche.

Unser WI ist ein historisch sich auf die Messstationen auswirkender Zivilisations-Wärmeeffekt und geht von folgenden Fakten aus, beschreibt und vergleicht:

1) Das reine Stadt-Landgefälle =UHI in heutiger Zeit

2) Die Station von heute mit derselben Stationsumgebung von früher und

3) Die Zusatzwärme, die in der einströmenden Luft aus den Nachbarländern bereits enthalten ist.

Fazit: Seit dem Ende der kleinen Eiszeit um 1850 ist es in Deutschland und weltweit wärmer geworden. Diese Erwärmung wurde jedoch nicht durch einen C02-Treibhauseffekt bedingt, denn dieser Ideologie fehlt der wissenschaftliche Versuchsnachweis. Richtig ist, der Mensch ist mitverantwortlich durch zivilisatorische Veränderungen, bedingt durch die Bevölkerungszunahme von weniger als einer Milliarde auf nun über 7 Milliarden Menschen. (für die Wiedererwärmung nach 1850 gibt es natürlich auch noch andere Ursachen). Der dadurch hervorgerufene großflächige Wärmeinseleffekt ist somit der primäre Temperaturtreiber in Deutschland und weltweit, vor allem, wenn man bedenkt, dass in diesen großflächig geschaffenen Wärmeinseln – siehe Grafik 1- nun auch die Messstationen stehen, während diese in früheren Zeiten oft bei unbeheizten Klöstern, bei Gutshöfen, bei Forsthäusern oder Köhlereien am Waldrand oder bei wissenschaftlichen Instituten am Stadtrand standen. Das sind alles Orte, die von der Urbanisierung heute längst eingeholt sind.

Die allgemeine Panikmache wegen einer C02-Klimaerwärmung bis zum vorhergesagten Hitzetod der Erde im Jahre 2100 ist wissenschaftlich nicht begründbar und somit ein Märchen, ein fanatischer Glaube, ohne jeden Versuchs- und Anwendungsbeweis. Er beruht auf einer (bewussten) Fehlinterpretation der Messdaten. Ein Glaube, der sich hartnäckig hält, weil bereits zu viele gut daran verdienen. Mit Umwelt- und Naturschutz hat diese C02-Pseudoreligion gar nichts zu tun, sie schadet auf Dauer sogar dieser wichtigen Grundeinstellung der Menschen. Aber nicht nur der wissenschaftliche Versuchsbeweis und technischen Anwendungen dieses Erwärmungsglaubens fehlen, auch die CO2-Erwärmungshypothese wurde mehrmals widerlegt, zuletzt durch die Physiker und Strahlungsexperten Tscheuschner, Kramm, Gerlich, Dlugi, ein Beispiel dafür hier:

http://www.schmanck.de/0707.1161v4.pdf

Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Natur- und Umweltschutz wäre deshalb ein konsensfähiges Ziel aller Völker.

Wie ideologisch vermessen muss man sein, um der Natur ein „2-Grad-Ziel“ vorzugeben. Wir sind doch alle froh, dass die Temperaturen aus der kleinen Eiszeit herausgefunden haben. Wenn schon ein Ziel, dann wäre das warme Mittelalter – wie in der nächsten Grafik ersichtlich – erstrebenswert. Doch davon sind wir weit entfernt. Wie bereits auf dieser 1000-jährigen Grafik des IPCC ersichtlich, setzt bereits wieder eine Abkühlung ein.

Abb. 6: Der Temperaturverlauf Europas in den letzten 1100 Jahren. Von einer mittelalterlichen Warmzeit, als die Alpen weitgehend gletscherfrei waren, sind wir noch lange entfernt. Am rechten Ende sieht man ab 1850 die Beendigung der kleinen Eiszeit, 1900 erreichen wir wieder die 1100-jährige Durchschnittslinie. Seit 1998 ist der fallende Trend erkennbar. Die letzten 120 Jahre müssten allerdings noch WI-bereinigt werden, siehe unsere Abb. 4.

Doch erneut ein warmes Mittelalter – wohl unser sehnlichster Wunsch – haben wir nicht in der Hand. Der dominierende solare Einfluss auf unser Klima, der Einfluss der kosmischen Strahlung und die pulsierend in größeren Zeiträumen schwankenden Erdumlaufbahnen in Verbindung mit dem thermischen Gedächtnis des Ozeans wird sich auch dann nicht ändern, wenn sich der Mensch bzw. Politiker als Zauberlehrlinge versuchen.

Es wird endlich Zeit, dass wir aufhören, Kohlendioxid zu verteufeln. C02 ist für die Erde ein lebensnotwendiges Gas. Alles irdische Leben ist auf Kohlenstoff aufgebaut. Ohne C02 wäre die Erde kahl wie der Mond. C02-Einsparung ist trotzdem wichtig, einmal wegen der Ressourcenschonung und, weil bei jedem Verbrennungsprozess nicht allein sauberes Kohlendioxid frei gesetzt wird, sondern auch jede Menge giftige, umweltschädliche Gase wie Kohlenmonoxid, Feinstaub, Ruß und krebserregende Kohlenwasserstoffe.

Josef Kowatsch, Naturschützer und unabhängiger Klimaforscher.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Frits Bolkestein: Intellektuelle und Klima-Alarmismus

Dem Club of Rome Report zufolge befand sich die Welt in einem Durcheinander infolge Umweltbelastungen, exzessiver Bürokratisierung, grenzenloser Urbanisierung, weit verbreiteter Arbeitslosigkeit, Entfremdung von der Jugend, Inflation und Zerfall von Wertesystemen. Ausgeprägte Korrekturen mussten vorgenommen werden bevor es zu spät war.

Der Report befasste sich mit den Wechselwirkungen zwischen fünf kritischen Faktoren: Bevölkerungswachstum, exzessive Bürokratisierung, Ausbeutung natürlicher Ressourcen, Industrialisierung und Verschmutzung. Die Schlussfolgerung lautete, dass die Menschheit auf eine Periode großer Leiden zusteuere infolge Mangel an Nahrungsmitteln, Mangel an Rohstoffen und zu starker Verschmutzung.

In den Niederlanden folgte auf diesen Bericht im Februar 1972 eine Studie der Mansholt-Kommission, benannt nach deren Präsidenten Sicco Mansholt (1908 bis 1955). Sie bestand aus Mitgliedern ,progressiver‘ Parteien: PvdA (Labour Party), D66 (Democrats 1966) und PPR (Radical Christians). Das Komitee befasste sich mit drei zentralen Krisen: Atomkrieg, der Kluft zwischen dem reichen Norden und dem armen Süden, sowie mit der begrenzten Natur der Erde und den Grenzen des Wachstums. Die Hälfte der Mitglieder des Komitees wurden später Mitglied der Regierung Den Uyl (1973 bis 1977).

Die Mansholt-Kommission wünschte eine Neubewertung der Konzepte von Wohlstand und Wachstum. Die Niederlande sollten ein Beispiel setzen und lernen, innerhalb der Grenzen zu leben, die angesichts der endlichen Natur unseres Planeten inhärent waren. Natürlich würde dies eine Abnahme unseres Lebensstandards bedeuten. Aber man glaubte, dass dies unvermeidlich sei.

Was ist seitdem geschehen? Der „Report des Club of Rome“ prophezeite die unmittelbar bevorstehende Erschöpfung nicht erneuerbarer Ressourcen. Kupfer würde in 36 Jahren ausgehen, Gold in 11 Jahren, Blei in 26 Jahren, Quecksilber in 13 Jahren, Zinn und Zink jeweils in 17 bzw. 23 Jahren. Allerdings ist dies nicht eingetreten. Auch Öl, welches dem Bericht zufolge in nur 31 Jahren alle sein sollte, wird immer noch erzeugt. Fazit: Der Report hat offensichtlich das Potential der Technologie erheblich unterschätzt. Aber die Medien waren ihm verfallen. Die niederländische Qualitätszeitung NRC Handelsblad beispielsweise berichtete über den Report unter der Schlagzeile „Katastrophen bedrohen die Welt“ (31. August 1971).

Der Bericht der Mansholt-Kommission hatte gleichermaßen wenig Auswirkungen, weil am Eröffnungstag der Sitzung des niederländischen Parlaments im Jahre 1974 der Finanzminister Wim Duisenberg (PvdA) die Bevölkerung aufgerufen hatte, mehr zu kaufen, um die Wirtschaft zu erhalten. Und die „neue internationale Wirtschaftsordnung“, das „Baby“ seines Parteigenossen Jan Pronk, Minister für Entwicklungshilfe, ging unrühmlich den Bach hinunter und musste der „neuen nationalen wirtschaftlichen Unordnung“ Platz machen.

Ein Jahrzehnt später wurden wir in Alarm versetzt, weil der Boden unter den sterbenden Wäldern in Deutschland schwer versauert sei. Man glaubte, dass dies auch in anderen Gebieten von Europa geschehen würde. Diese Furcht wurde befeuert durch die emotionale Bindung der Deutschen mit ihren Wäldern. „Das große Waldsterben“ führte zu Panik, welche auch die Niederlande erreichte. Die RIVM (National Agency for Public Health and Environment) und das Umweltministerium behaupteten, dass große Waldgebiete schon nicht mehr zu retten waren. Aber zu einem „ökologischen Hiroshima“ war es nie gekommen. Wir wissen heute, dass die Wälder im Erzgebirge extrem hohen SO2-Konzentrationen ausgesetzt waren. Die Bäume schienen jedoch kaum durch die Versauerung gelitten zu haben. Wie auch immer, derzeit sind sie in einem besseren Zustand denn je.

Viele Untergangsszenarien waren im Umlauf und wurden nachdrücklich von den Medien propagiert. Ein paar davon möchte ich erwähnen. (1) Eine globale Hungersnot war unvermeidlich. (2) Eine Krebs-Epidemie infolge von Pestiziden würde unser Leben verkürzen. (3) Wüsten würden sich mit 2 Meilen pro Jahr ausdehnen. (4) Computer-Netzwerke würden zusammenbrechen wegen des Jahrtausendwechsel-Effektes. (5) Der Rinderwahnsinn würde hunderttausende Menschen töten. (6) Die Nanotechnologie würde außer Kontrolle geraten. (7) Die Gletscher würden verschwinden (obwohl über die Hälfte ihres Rückzugs bereits vor dem Jahr 1950 stattgefunden hatte). All dies ist nicht eingetreten.

Das UNEP (United Nations Environment Programme) prophezeite im Jahre 2003, dass es bis zum Jahr 2010 50 Millionen Klimaflüchtlinge geben werde. Im Jahre 2010 nahm diese Organisation diese Prophezeiung zurück. Vor zehn Jahren prophezeite Al Gore in dem Film „An Inconvenient Truth“, dass wir innerhalb von zehn Jahren einen ,Point of no return‘ erreicht haben würden. Aber die von der großen Mehrheit der Modelle projizierte globale Erwärmung ging weit über den tatsächlich gemessenen Temperaturanstieg hinaus.

Warum haben so viele Intellektuelle Freude an der Prophezeiung von Katastrophen? Hinsichtlich der Wissenschaftler ist der Grund eindeutig: Wer von ihnen eine Katastrophe prophezeit, wird Forschungsgelder erhalten für Forschungen, wie man eine solche Katastrophe vermeiden kann. Der International Energy Agency IEA zufolge werden wir während der nächsten 25 Jahre 2,3 Billionen Euro ausgeben, um die globale Temperatur um weniger als 0,02°C sinken zu lassen.

Außerdem gibt es bedeutende industrielle Interessen, wollen die Industrien doch Investitionen in Dinge tätigen, die vermeintlich die globale Erwärmung bekämpfen sollen. 2000 Jahre Christentum haben in der Psyche der Menschen des Westens einen Sinn für Schuld und Sühne hinterlassen. Wir sind schuldig, also verdienen wir die Katastrophen, denen wir ausgesetzt sind. Solange wir nicht bereuen und den Instruktionen der Untergangspropheten folgen.

Während der siebziger und achtziger Jahre machten sich sehr viele Menschen, vor allem im Westen, Sorgen über alle Arten negativer Entwicklungen. Jetzt, 35 Jahre später, ist dies nicht mehr in diesem Ausmaß der Fall. Armut, Mangelernährung, Analphabetentum, Kinderarbeit und Kindersterblichkeit nehmen schneller ab als jemals zuvor. Außerhalb des Nahen Ostens gibt es kaum Kriege. Guerilla-Bewegungen suchen Frieden. Das drängendste Problem heutzutage sind Wanderbewegungen [die sicher nicht Klimawandel zur Ursache haben! Anm. d. Übers.]

Und was ist mit der globalen Erwärmung? Während der ersten Hälfte des 20. Jahrhunderts ist die Temperatur um ein halbes Grad Celsius gestiegen. Seit 1950 erwärmt sich die Atmosphäre mit einer Rate von 0,13 Grad pro Jahrzehnt. Aber zwischen 1998 und 2013 stieg die Temperatur nur noch mit einer Rate von 0,04 Grad. Und im vergangenen Jahrzehnt ist die Temperatur praktisch gar nicht mehr gestiegen. Das IPCC nennt dies eine Erwärmungspause oder einen Stillstand – ein Stillstand, der von keinem einzigen Klimamodell prophezeit oder projiziert worden war. In jedem Falle befinden wir uns nicht am Abgrund zu Katastrophen, wie oftmals behauptet wird.

Gibt es also keine Probleme? Riesige Mengen anthropogener Treibhausgase werden jährlich in die Atmosphäre freigesetzt. CO2 ist eines dieser Treibhausgase, allerdings nicht so stark wirkend wie Wasserdampf. Zufälligerweise ist das „Treibhaus“ von Gott gesandt. Würde es nicht existieren, läge die Temperatur auf der Erde bei 18 Grad unter Null. Außerdem ist CO2 der Urstoff allen Lebens schlechthin. Ohne CO2 gibt es keine Pflanzen, keine Tiere, keine Menschen.

Die Analyse von Satellitendaten hat gezeigt, dass die Erde während der letzten 30 Jahre grüner geworden ist – die Vegetation auf der Erde hat um 14% zugenommen. Die Hälfte davon geht auf die Zunahme der CO2-Konzentration in der Atmosphäre zurück.

Falls jemand CO2-Emissionen reduzieren möchte, sollte der Verbrauch fossiler Treibstoffe beendet und ersetzt werden durch Erneuerbare. Windturbinen können erneuerbare Energie erzeugen. Aber da gibt es einen Haken: Das Europäische Zertifikate-Handelssystem ETS gestattet einer Seite Einsparungen bei CO2-Emissionen, welche von anderen Seiten genutzt werden können. Die Gesamt-CO2-Emissionen bleiben dabei gleich. Das nennt man den „Wasserbett-Effekt“.

Und was ist mit den Kosten? Das National Energy Agreement der Niederlande wurde im September zwischen vielen interessierten Gruppen beschlossen – außer mit Ingenieuren mit Know-How der zur Verfügung stehenden technischen Optionen sowie Repräsentanten der Energieverbraucher und Steuerzahler, die die Rechnung zu schultern hatten. Die Kosten werden abgeschätzt auf 72 Milliarden Euro, wovon 31 Milliarden Euro auf die Windenergie entfallen.

Andere Experten sind zu noch viel höheren Schätzungen gekommen. Soweit es Windenergie betrifft, sollte man auch die Kosten für neue Infrastruktur und Back-Up ins Kalkül ziehen. Falls der Wind nicht weht oder auch bei zu starkem Wind erfordert die Versorgungssicherheit Back-Up-Kapazitäten auf der Grundlage fossiler Treibstoffe. Dem „Green Court of Auditors” der Niederlande zufolge liefern die Turbinen auf See außerdem während 60% der Zeit keinen Strom. Auf dem Land sind es 75%. Wie auch immer, es ist das Große Geld. Wird es effektiv verwendet?

In einem Brief an das Parlament (File 32813, Nr. 121 vom 9. April 2016) hat die stellvertretende Minsiterin für Umwelt und Klima Sharon Dijksma (PvdA) eingeräumt, dass die in die Klimapolitik investierten Milliarden keine messbare Auswirkung haben werden. Dies stellte sie fest in ihrer Antwort auf eine Anfrage der Klimalobby ,Urgenda‘ vor dem Gerichtshof in The Hague, um die Regierung zu einer stärkeren Reduktion von CO2 zu verpflichten als ursprünglich geplant. Das Gericht gab dieser Forderung nach. Unabhängig von der Tatsache, dass dies eine verfassungsmäßige Monstrosität ist – was wäre die Auswirkung? Der Regierung zufolge würde es zu einer zusätzlichen Abschwächung der globalen Erwärmung um 0,000045°C bis zum Jahr 2100 kommen. Diese Differenz ist viel zu gering, um gemessen werden zu können.

Die Milliarden, die zur Realisierung der Regierungspläne hinsichtlich Windenergie erforderlich sind, tauchen im nationalen Haushalt nicht auf. Energieverbraucher müssen dafür aufkommen via ihrer Stromrechnungen. Heute zahlen Verbraucher im Schnitt 40 Euro pro Monat. Dieser Beitrag wird sich fortwährend erhöhen bis auf 63 Euro pro Monat im Jahre 2020. Außerdem wurde den Bürgern durch das Energie-Abkommen ein Beitrag von 36 Euro pro Monat auferlegt. Zusammen macht das 100 Euro pro Monat. Dies bedeutet, dass die Brauchbarkeit und Notwendigkeit dieser Maßnahmen nicht Gegenstand von Beratungen im Parlament waren.

Der Klimagipfel von Paris im Dezember 2015 sollte „den Planeten retten“. Aber er wird die selbst gesteckten Ziele längst nicht erreichen. Falls alle teilnehmenden Länder das tun würden, was sie versprochen haben, würde die Temperatur im Jahre 2100 um lediglich 0,17 Grad reduziert sein. Werden teilnehmende Länder ihre Versprechungen halten? Die traurige Erfahrung mit dem Kyoto-Protokoll lehrt uns, dass dies keineswegs so sein muss.

Die Klimadiskussion ist sehr politisiert. Ein französisches Sprichwort sagt „ Du choc des opinions jaillit la vérité“ (Die Wahrheit ergibt sich aus dem Zusammenprall von Meinungen). Bisher waren die Befürworter der AGW-Hypothese nicht willens, in eine offene und freie Diskussion einzutreten. Zum Beispiel behauptete das IPCC im Jahre 2007, dass die Gletscher des Himalaya wegen der Erwärmung bis zum Jahr 2035 verschwunden sein könnten. Dies stellte sich als ein alarmistischer Druckfehler heraus. Einen solchen typographischen Fehler könnte man als ein Kavaliersdelikt ansehen. Allerdings hat der Vorsitzende des IPCC Rajandra Pachauri derartige Kritik an der Himalaya-Prophezeiung als „arrogant“ und „Voodoo-Wissenschaft“ diffamiert.

Die frühere norwegische Premierministerin und Sonderbotschafterin der UN bzgl. Klimawandel sagte im Jahre 2007: „Es ist unverantwortlich, rücksichtslos und zutiefst unmoralisch, den Ernst der Lage in Frage zu stellen. Die Zeit der Diagnose ist vorbei. Jetzt muss gehandelt werden“. Im Grunde sagt sie damit: „Ich habe nachgedacht, und jetzt stören Sie mich nicht mit den Tatsachen!“

Viele Wissenschaftler und Nicht-Wissenschaftler würden nur zu gerne eine Diskussion zum Thema Klima unterdrücken. Der IPCC-Vorsitzende Pachauri ist nur einer von ihnen. Einige Wissenschaftler haben ihre finanzielle Forschungsgrundlage und sogar ihren Arbeitsplatz verloren wegen ihres Klimaskeptizismus‘. Andere Wissenschaftler haben Angst sich ,aus der Deckung zu wagen‘. Die Zensur im Bereich Klimatologie ist groß und umfassend, was einer ausgewogenen Entscheidungsfindung sehr abträglich ist. Dies ist sogar noch wesentlich schädlicher, weil so viel Geld involviert ist.

Aber die Änderung ist imminent. Die Netherlands Physical Society (NVV) hat im Oktober 2015 im Wetteramt der Niederlande KNMI in De Bilt eine Tagung abgehalten mit der Absicht, eine allgemeine Erklärung zu verabschieden. Was ist bei diesem Treffen herausgekommen? Der Vorsitzende Jan van Ruitenbeek entschied, keine einzige öffentliche Verlautbarung auszugeben wegen der großen Meinungsunterschiede bei der Formulierung einer allgemeinen Position. Das Ergebnis wäre ein nichtssagender Kompromiss gewesen. Tatsächlich ist die Etablierung wissenschaftlicher Fakten durch Handzeichen absurd. Sogar das IPCC höchstselbst räumt ein, dass es eine Vielfalt möglicher Folgen gibt.

Thomas Henry Huxley, ein Wissenschaftler im 19. Jahrhundert, sagte: „Der mehr Wissen über die Natur Schaffende lehnt absolut jede Obrigkeit als solche ab. Für ihn ist Skeptizismus die oberste Pflicht; blinder Gehorsam ist DIE unverzeihliche Sünde“.

Die Errichtung und Installation von Windturbinen kostet ein Vermögen. Es ist offensichtlich, dass Lobbyisten versuchen, das Ergebnis des politischen Entscheidungsprozesses zu beeinflussen. Der Fernsehsender ARD in Deutschland hat den beispiellosen politischen Einfluss der Windenergie-Lobby kritisiert, den diese auf die Politik der Regierung ausübt. Der ARD zufolge geraten Menschen, die der Installation von Windturbinen Widerstand leisten, unter starken Druck, ihre Opposition aufzugeben.

Alles in Allem gleicht diese ganze Diskussion einem religiösen Disput zwischen Klima-Alarmisten als Gläubige und Skeptikern als Häretiker. Warum haben so viele Intellektuelle Freude daran, Katastrophen zu prophezeien? Ist es, weil sie sich in der Aufmerksamkeit der Medien sonnen? Oder hat es irgendetwas zu tun mit christlichen Schuldgefühlen?

Frits Bolkestein.

[Frits Bolkestein is former leader of the Netherlands (classical) Liberal Party, former Minister of Defence and former Eurocommissioner.]

Source:

http://www.elsevier.nl/kennis/blog/2017/01/waarom-intellectuelen-zo-graag-wereldrampen-voorspellen-436737/

[Dieser Brief steht in Englisch auch http://www.thegwpf.com/frits-bolkestein-intellectuals-and-climate-alarmism/ bei der GWPF – falls jemand meine Übersetzung kontrollieren will! – C. F.]

Übersetzt von Chris Frey EIKE




Jahrtausend­hochwasser am 01.06.2016 in Simbach – so entstehen Mene­tekel des Klima­wandels

Eigentlich ist das nichts aufregendes, doch dieses Mal waren sich einige „Wahrheitsinstitute“ sicher, im vergangenen Jahr erstmals ein 1000-jähriges Klimawandel-bedingtes Ereignis dingfest gemacht zu haben.
[1] Süddeutsche Zeitung, 30. Dezember 2016: Das zerstörerische Hochwasser hat die Seelen überflutet
… Hochwasser. Ein Wort, das zum Grundwortschatz der Niederbayern gehört. Weil in Niederbayern jedes Jahr irgendwo die Flüsse überlaufen. Doch was am 1. Juni 2016 über das Rottal hereinbrach, war keines dieser Hochwasser, die man kannte. Es war eine
Flut, wie sie laut Statistik alle 1000 Jahre vorkommt. Ein Wetterphänomen, das selbst Experten in Bayern für unmöglich hielten.
dpa, 30. Dezember 2016 (Lokalausgabe der nordbayerischen Nachrichten): In Deutschland war Bayern der Kältepol – Bundesweit war es aber dennoch um 1,4 Grad zu warm
… Folge enormer Niederschläge: In Westmittelfranken und in Oberbayern kam es zu katastrophalen Überflutungen.
Simbach am Inn versank in einem Jahrtausendhochwasser.

Man muss hinzufügen, dass In beiden Publizierungen kein direkter Hinweis auf eine Verbindung zum Klimawandel steht. Doch die Art der Darstellung zeigt, dass man es vermuten soll. Und eine Quelle für diese „Vermutung“ findet sich direkt in einer Publizierung des Deutschen Klimakonsortiums und dem DWD:
Deutschlandfunk 12.09.2016: [11] Klimawandel Deutsches Klimakonsortium warnt vor Starkregen in Deutschland
Der Klimawandel ist laut Deutschem Klimakonsortium unbestreitbar. Zu den Folgen zählt auch die Gefahr von Starkregen.
Der Klimawandel werde dazu führen, das Starkregen in Deutschland öfter auftreten wird, intensiver sein wird, also länger anhalten wird, so der Vize des Deutschen Wetterdienstes. Sein Fazit mit Blick auf die tödlichen Fluten in Braunsbach:
„Die Message ist: So eine Niederschlagsmenge ist theoretisch in Deutschland nahezu an jedem Ort möglich. Im Sommer. Betonung: Im Sommer.“

In der nun folgenden Analyse wird nur auf das Ereignis Simbach Bezug genommen, welches in den zwei Zeitungsmeldungen als ein nur alle 1000 Jahre vorkommendes Ereignis indirekt als ein Beleg des schon beginnenden – negativen – Klimawandel-Einflusses dargestellt wird.

Das Ereignis am 1. Juni in Simbach am Inn

Zum Nachlesen wurde es bereits detailliert in zwei Artikeln auf EIKE dargestellt. Anbei deshalb nur kurze Auszüge:
EIKE 09.06.2016: [4] An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen
EIKE 06.07.2016: [2] Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag:
Das damals kurz nach dem Ereignis Geschriebene gilt immer noch. Lediglich die Niederschlagsangaben müssen zwischenzeitlich korrigiert werden, denn die Daten des DWD sind (immer noch) unvollständig, was damals nicht richtig erkannt wurde. Doch die damals aufgrund der Recherche mutig getroffene Feststellung, dass die Ursache der extremen Fluthöhe (Normalhöhe: ca. 50 cm, Fluthöhe: Ca. 5 m) ein Dammbruch war, wurde von anderen Stellen bestätigt.
[5] FOCUS ONLINE 03.06.2016: Simbach am Inn Verstopftes Rohr löste offenbar Flutwelle aus
… und Schuld daran war offenbar ein verstopftes Rohr. Als sich darin Bäume und Sträucher verfingen, nahm die Katastrophe ihren Lauf – jetzt will die Stadt reagieren.
… Es soll sich um ein Wellstahlrohr handeln, das häufig an Bächen als Straßenunterführung verbaut ist – so auch beim Simbach. Durch Sträucher und Bäume sei das Rohr verstopft gewesen. Dadurch habe sich ein Stausee gebildet. Als der Straßendamm brach, sei der See als Flutwelle durch den Ort geströmt.

Süddeutsche Zeitung, 9. Juni 2016: Hochwasserkatastrophe Rohr löste offenbar Flutwelle in Simbach aus
Die Ursache der tödlichen Flutkatastrophe in Simbach am Inn war offenbar ein verstopftes Rohr. Weil eine Unterführung des Simbachs durch Bäume und Sträucher verstopft war, hatte sich vor einem Straßendamm im Norden der Stadt ein gigantischer Stausee gebildet. Als dieser Damm brach, ergoss sich am Nachmittag des 1. Juni eine riesige Flutwelle über die Stadt.

Wer „erfand“ das 1000-Jahre Ereignis?

Eine Nachfrage dazu an die dpa, welche Fundstelle zur Einstufung als 1000-Jahre-Ereignis angezogen wurde, sowie an den DWD, wie dort das Ereignis bewertet wird, wurden bisher nicht beantwortet. Somit lässt sich die Quelle nur vermuten. Aufgrund der Recherchen kommt der Autor zu dem Schluss, dass es die Darstellung eines Münchner Professors für den Bayerischen Landtag sein könnte (in [2] beschrieben)). Dieser Professor informierte damals in einer Stellungnahme:
WELT N24, 16.06.2016: [3] Die Analyse der Simbacher Sturzflut ist beunruhigend

Zwei Wochen nach der Flutkatastrophe von Niederbayern verheißt die erste vorsichtige wissenschaftliche Bewertung nichts Gutes für die Zukunft: Eine vergleichbare Wetterlage wie Ende Mai und Anfang Juni hat es nach Einschätzung eines Experten noch nie gegeben – und technische Schutzmaßnahmen gegen so genannte tausendjährige Hochwasser gebe es in keinem Staat der Welt. Das sagte Martin Grambow am Donnerstag im Landtag, er ist Leiter der bayerischen Wasserwirtschaft und Professor an der Technischen Universität München.

Phänomen neuer Ausprägung“

Tausendjähriges Hochwasser – im Fachjargon als „HQ 1000“ bekannt – bedeutet, dass ein Gewässer auf einen Rekordpegel anschwillt, der im statistischen Schnitt nur alle tausend Jahre einmal erreicht wird.
In
Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu.
Nach historischen Aufzeichnungen könnte es im Jahr 1766 einmal eine ähnliche Wetterlage gegeben haben, doch genau klären lässt sich das nach Grambows Angaben nicht.
… Und technische Hochwasserschutzmaßnahmen gegen derartige Katastrophen sind nach Grambows Einschätzung allein aus Kostengründen quasi ausgeschlossen: „Es gibt keinen Staat der Welt, der auch nur annähernd versuchen würde, HQ1000-Ereignisse mit technischen Möglichkeiten zu bewältigen.“

Dieser Professor erzählt praktisch ununterbrochen von etwas „Tausendjährigem“. Ob er damit nur die Fluthöhe in Simbach oder das Niederschlagsereignis, oder beides meinte, lässt sich nicht genau ableiten. Es dürfte aber ziemlich sicher sein, dass sich die dpa und SZ auf diese Darstellungen beziehen.

Die Niederschlagsdaten in Simbach am besagten 1. Juni 2016

Es überrascht, aber im Datensatz des DWD mit Stundenauflösung fehlen an diesem wichtigen Tag die Messwerte von vier vollen Stunden. Anscheinend ist diese Messstelle den ganzen Vormittag vor dem Dammbruch (am Nachmittag) ausgefallen. Im Datensatz mit Tagesauflösung ist der Tag (inzwischen) mit -999 als fehlerhaft gekennzeichnet.
Im Bild 1 dazu die Daten der Messstelle Simbach und zusätzlich die von drei nahe gelegenen Messstationen

Bild 1 Niederschlags-Stundenwerte von Simbach und dreier Nachbarstationen vom 31.05. – 01.06.2016

Die fehlenden Daten der vier Vormittagsstunden am 01.06. der Messstelle Simbach lassen sich nicht aus den Nachbarstations-Messwerten rekonstruieren. Diese zeigen nur, wie extrem lokal begrenzt dieser hohe Niederschlag bei Simbach stattgefunden hat.

Aufgrund dieser „Datennot“ wurden die Werte deshalb anhand der Angaben aus einem DWD-Foliensatz [6] ergänzt. Darin ist für Simbach anhand von Radardaten ein Niederschlag für die zwei Tage (31.5. – 1.6.) von 180 mm angegeben. Obwohl Radardaten und Stationsmesswerte nicht direkt vergleichbar sind, wurde dieser Radar-Messwert zur Ergänzung des fehlenden Tageswertes am 1.6. verwendet:
Simbach 31.05.: Niederschlag 74,6 mm (DWD-Wert)

Simbach 01.06.: Niederschlag 106 mm (Ermittlung: lt. DWD 180 mm für zwei Tage, 180 mm – 74,6 mm = aufgerundet 106 mm)

Damit sehen die Niederschlagsgrafiken wie folgt aus: Bild 2 zeigt die Tageswerte seit dem Jahr 1952. Der Tageswert am 1.6.2016 ist hoch, erscheint aber bei Weitem nicht 1000-jährig selten zu sein.

Bild 2 Niederschläge Simbach Tageswerte 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt

Erst wenn man die Niederschlagssumme zweier Tage zusammen (Bild 3) als Maßstab nimmt, wird das Bild am 1.6. extremer und die zwei Tage ragen etwas weiter heraus. Jetzt muss man nur noch glauben, dass alle Niederschlagsspitzen der Vergangenheit genauer als die am 1.6. gemessen wurden und örtlich gleich verteilt erfolgten.

Wahrscheinlich liegt man mit der Aussage nicht weit daneben, dass seit 1954 ca. drei Mal ein vergleichbares Niederschlagsereignis stattgefunden hat. Und wenn man die Auszüge der Stadtchronik liest [4], gab es in der Vergangenheit regelmäßig schlimme Unwetter- und Flutereignisse von beiden Seiten, den umliegenden Bächen und vom Inn selbst, teilweise auch gemeinsam auftretend (was am 1.6. nicht der Fall war).

Bild 3 Niederschläge Simbach, 2-Tageswerte gleitend summiert, 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt

Nun zu umliegenden Messstellen mit längeren Niederschlags-Mess-Zeitreihen (Bilder 5-7).

Die Messwerte dieser umliegenden Stationen zeigen, dass Starkregen-Mengen der Vergangenheit öfters deutlich höher als die aktuellen waren und sie bestätigen die kleinräumige Verteilung des Ereignisses von Simbach.

Bild 4 Lage von Messstationen dieser Gegend mit weiter zurückreichenden Tageswerten

Bild 5 Niederschläge Pfarrkirchen, Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt

Bild 6 Niederschläge Simbach Zeilarm Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt

Bild 7 Niederschläge Rotthalmünster, Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt

Dazu eine noch längere Zeitreihe, natürlich aus einer anderen Gegend, aber relativ typisch für das Voralpenland.

An der Station Hohenpeißenberg sieht man ebenfalls die extreme Variabilität von Tagesniederschlägen – und dass das Jahr 2016 (welches vollständig im Datensatz enthalten ist) keine herausragende „Stellung“ einnahm. Niederschläge wie in Simbach gibt es auch dort.
Anhand der 2-Tages-Summen (Bild 9) sieht man, dass dies für 2-Tages-Ereignisse wie in Simbach sogar verstärkt gilt. Nebenbei zeigt dieses Bild, dass die Daten vor 1880 zu viele Lücken aufweisen, um mit den historischen Anfangsdaten (bis 1880) Aussagen zum Niederschlag durchzuführen.

Bild 8 Niederschlag Hohenpeißenberg seit 1801 – 2016. Grafik vom Autor anhand der DWD-FTP-Daten erstellt

Bild 9 Niederschlag Hohenpeißenberg seit 1801 – 2016, 2-Tages-Summen. Grafik vom Autor anhand der DWD-FTP-Daten erstellt

Was sagt der Deutsche Wetterdienst

Dieser hat nach den Ereignissen vom letzten Jahr zwei Schriften herausgegeben, welche sich etwas mit der Einstufung auseinandersetzen. Anbei Zitierungen daraus:
DWD: [9] Während die stündlichen Niederschlagsmengen der meisten Gewitter Wiederkehrzeiten unter zehn Jahren aufwiesen, lagen die Wiederkehrzeiten für die extremsten Stundensummen, abgeleitet aus den Radarmessungen, über 100 Jahre.

Das ist schon einmal ein Anhaltspunkt, unabhängig davon, wie der DWD die Vergleichs-Daten der letzten 100 Jahre ermittelt haben will, wenn selbst modernste Messstationen bei solchen aktuellen Ereignissen keine liefern und in der Not auf Radardaten zurück gegriffen werden muss.
Beim Versuch einer Trendermittlung zeigen sich dann Vermutungen, aber so richtig liegt kein belegbarer Trend vor.
DWD [10] Für den Sommer (meteorologisch sowie hydrologisch) lassen sich dagegen praktisch keine Trends identifizieren. Hier dominieren kurz- und längerfristige zyklische Variabilitäten. Zudem verlief die Starkniederschlagsentwicklung seit 1951 in den einzelnen Regionen sehr unterschiedlich, wodurch das indifferente Gesamtbild zu dieser Jahreszeit noch weiter verstärkt
wird. Lediglich für den hydrologischen Sommer und den höchsten ausgewerteten Schwellenwert ist für die Südhälfte Deutschlands eine leichte Zunahme erkennbar. Obgleich aufgrund des geringen Anstiegs nicht gesichert, ist dieses Ergebnis insofern beachtenswert, dass hier gerade der deutlich extremste Schwellenwert etwas heraussticht
… untermauern die charakteristisch hohe Niederschlagsvariabilität im Sommer, wo sowohl Zu, als auch Abnahmen des Starkniederschlages selbst an benachbarten Stationen auftreten können,
Andauern unterhalb von 24 Stunden
Für kürzere Dauerstufen von weniger als 24 Stunden liegen konkret für das Gebiet von Deutschland bislang noch recht wenige Erkenntnisse zum Trendverhalten von Starkniederschlägen vor. Zwar deuten Analysen von flächendeckenden Radardaten daraufhin, dass es in den vergangenen 15 Jahren zumindest regional eine Zunahme auch von Starkniederschlägen kurzer Dauer gegeben hat, jedoch sind diese Aussagen aufgrund der geringen Länge der Zeitreihen nicht sonderlich aussagekräftig.

Und es könnte mit Trends auch umgekehrt sein:
DWD [10] Gemäß erster Ergebnisse einer aktuellen Untersuchung dieser Daten weisen die hohen Niederschlagsschwellen der Dauerstufe 60 Minuten während der Monate Mai bis September in den meisten Regionen Deutschlands im Zeitraum 1965 bis 2015 häufiger einen negativen als einen positiven Trend auf.

Das beliebte Spiel, fehlende Daten mittels Simulationen zu erzeugen, klappt hier ganz und gar nicht:
DWD [10] Vergleich mit Klimaprojektionsergebnissen
Für den Sommer lassen sich auf Basis des im Rahmen dieser Untersuchung verwendeten Ensembles kaum Aussagen treffen, da die vier betrachteten Modelle die Änderung der Auftrittshäufigkeit von Starkniederschlägen widersprüchlich projizieren. Die Projektionen stimmen lediglich in der Aussage überein, dass der Anteil der Starkniederschläge am Gesamtniederschlag zukünftig steigen wird. Dabei bleibt aber offen, wie sich dieser Anstieg auf die Zunahmen von Häufigkeit und Intensität der Starkniederschläge verteilt.

Zum Schluss wird der DWD ganz „genau“ und sagt, dass derzeit nichts bekannt, aber alles möglich erscheint:
[10] Zum einen simulieren die Klimamodelle – wenn überhaupt – erst ab etwa 2020 eine leichte Zunahme. Zum anderen existieren zumindest für den süddeutschen Raum Anzeichen für einen geringfügigen Anstieg in den vergangenen rund 50 Jahren.
[6] Der Zeitraum ist aber (noch) zu kurz um „klimafeste“ Aussagen über die Verteilung des Starkregenrisikos oder gar über Trends abzuleiten.

Fazit

Nach den Angaben des DWD:
– könnte der Niederschlag bei Simbach ein 100-Jahre-Ereignis gewesen sein, obwohl in [6] steht: „Die Niederschlagssummen in Simbach liegen noch weit unter historischen Rekorden!“ und die Datenqualität für Starkniederschlag miserabel ist,
– ist es nicht möglich, einen Klimawandel-Bezug herzustellen, man kann ihn höchstens vermuten,
– ist über das Hochwasser, welches mitten durch die Stadt Simbach flutete nichts ausgesagt.

Verschlimmernd kommt hinzu, dass das Unwetter nicht – wie es die Klimatheorie verlangt – nach Hitzetagen erfolgte, sondern nach eher kühlem Wetter.

Der Simbach – kein Bach mit „immer nur 50 cm Wassertiefe“

Wenn „Fachleute“ sich etwas „nicht vorstellen können“ und von „nie gekannter Größe“ faseln, ist immer Vorsicht geboten. Oft ist das nur Ausdruck fehlenden Wissens.
Wer aufgrund der Schilderungen des Professors meint, der Simbach sei ein ruhig und gemütlich durch den Ort plätschernder Stadtbach und hätte noch nie Probleme bereitet, muss nur in die Stadtchronik schauen. Anbei ein Auszug daraus:
[4] Wieder nur 18 Jahre später kam die nächste Flutkatastrophe auf den Ort zu. Diesmal war der Simbach der Auslöser, der im Juli 1938 nach einem Gewitterregen derart anschwoll, dass er aus seinem Bett heraustrat und weite Teile Simbachs überschwemmte.
Und noch einmal nur 16 Jahre später, im Juli
1954, wurde Simbach von der nächsten Flutkatastrophe heimgesucht; diesmal aus einer Kombination von Simbach- und Inn-Hochwasser. Nach wochenlangem Regen trat zunächst am 8. Juli der Simbach über die Ufer und überschwemmte kurzzeitig von der Bach- über die Inn- und Gartenstraße den gesamten Ortskern. Das Wasser floss schnell wieder ab, doch nun wurde die Lage am Inn immer brenzliger. Am 9. Juli wurde dort die Hochwassermarke von 1899 überschritten. Immerhin gab es nun einen funktionstüchtigen Damm, doch auch dieser drohte jetzt, dem Wasser nicht mehr standhalten zu können.
Wie unberechenbar die Simbacher Gewässer bleiben, zeigt auch eine Einschätzung von Rudolf Vierlinger zur Hochwassergefahr durch den Simbach. Nach den Erfahrungen von 1954 wurde auch dieser aufwändig ausgebaut, um zu verhindern, dass er noch einmal über die Ufer tritt. Über die Baumaßnahmen, die 1958 abgeschlossen wurden, schreibt Vierlinger 1986: Was Jahrhunderte hindurch von vielen Generationen sehnlichst erwünscht wurde, ging endlich in Erfüllung. Die Bewohner der Stadt Simbach haben nun von dieser Seite her keine Gefahr mehr zu befürchten.
Doch nur fünf Jahre, nachdem diese Zeilen geschrieben wurden, zeigte der Simbach, dass er noch immer unberechenbar war. Nach heftigen Regenfällen schwoll er binnen kürzester Zeit so stark an, dass er am Abend des 31. Juli
1991 auch sein nun ausgebautes Bett verließ und sich als Wasserwalze durch die Straßen von Simbach schob. Wieder wurden weite Teile der Stadt überschwemmt, von den direkt am Bach gelegenen Straßen, über die Inn- bis weit hinein in die Gartenstraße.

Verbauung des Simbach

In [4] wurde es mit Details beschrieben, daraus ein paar Auszüge zur Information:
[4] Diplomarbeit 2007:

… Beim Simbach kann man davon ausgehen, dass Laufverkürzungen auf Grund von Begradigungen im Umfang von bis zu 50% vorliegen. Die ursprüngliche Länge betrug 13-15 km, wobei es heute nur noch etwa 10 km sind. Als absolutes Hauptproblem ist die Beeinträchtigung durch Begradigung des Flusslaufes zu sehen. Diese zog eine Eintiefung des Gewässerbettes nach sich und damit sind natürliche Ausuferungen kaum noch möglich. Es besteht kaum noch Raum für eine Retention der Hochwasserwelle und die Uferstreifen- und Rückhaltefunktion ist gestört, bzw. nicht vorhanden. Dazu kommt der fehlende oder untypische Uferbewuchs.
… Durch Sohl- und Uferverbau wird dem Gewässer sein Verlagerungspotential, seine Breiten- und Tiefenvariabilität sowie seine Strukturausstattung genommen (Abbildung 3.15)
… Weiterhin ist im Hochwasserfall eine geringe Retention (Abflachung der Hochwasserwelle) zu beobachten.

Beispiel eines damaligen Blogeintrags:
[4] … ich lebe seit mehr als 50 Jahren in Simbach. Ich weiß noch wie es hier Stück für Stück mehr und mehr zugebaut wurde. Bis zum letzten cm wird an die Bäche rangeackert. An jeden Hang werden Häuser gebaut und Bäume abgeholzt. So rutscht bei jedem Starkregen, und da müssen es nicht unbedingt 150l sein, immer mehr Dreck in die Bäche. Die Bäche werden immer mehr in kleine Backbette mit „Durchlässen“ gezwängt. Wasser sucht sich seine Bahn.
Ich habe in den letzten 30 Jahren dreimal erlebt das der Simbach die Dämme überflutet hat, aber so wie dieses mal war es noch nie. Noch nie wurde soviel Holz und Unrat mitgeführt und hat letztendlich alles platt gewalzt.

Ausserdem ist in Simbach ein Damm am Bach gebrochen der gerade saniert wurde, heißt, der war noch nicht mal richtig fertig. Da hatte das Wasser dann „leichtes Spiel“

Fazit
Die Gegend im Einzugsbereich des Simbach und auch der Bach selbst, sind mit dem historischen Zustand nicht mehr auch nur entfernt vergleichbar. Somit sind Vergleiche mit früheren Flutereignissen praktisch nicht mehr durchführbar.

Die Einschätzungen des Professors

Wie man bei einer solch konfusen (Niederschlags-)Datenlage und zwischenzeitlich erfolgten Verbauungen sowie Flächen-Nutzungsveränderungen herausbekommen will, dass das Ereignis Simbach Klimawandel-bedingt wäre und dazu noch ein Tausend-jähriges Ereignis darstellt, entzieht sich jeglicher rationalen Belegung. Zumindest die Daten, zu denen ein Privatbürger Zugang hat, geben es nicht im Ansatz her und auch vom DWD wird es nicht berichtet.

Dem Professor gelingt es jedoch, hemmungslos schlimmste Szenarien zu fabulieren.
[7] Prof. Grambow spricht von Megazellen, Extremhochwasser, nie gekannter Größe, Zerstörung, Überlastung und er sagt zugleich: „Unsere Befürchtung ist, dass solche Ereignisse in Zukunft wesentlich häufiger auftreten werden.“ „Handelt es sich denn dabei um ein Klima- oder ein Wetterphänomen?“ fragt Hans Ritt (CSU). Das sei unter Experten umstritten, sagt Grambow – wobei die Allermeisten der Ansicht seien, man habe es hier mit den Boten des Klimawandels zu tun. „Wenn es den Klimawandel gibt, dann schaut er genauso aus.“ Also Starkregen, Sturzfluten, Überschwemmungen, milliardenschwere Schäden und schlimmstenfalls Tote – darauf werden wir uns einstellen müssen.

Auch seine Aussage zum angeblich unvermeidlichen Dammbruch erscheint mehr als höchst fragwürdig, eigentlich gegen besseres Wissen. Denn es ist belegt [2], dass der gebrochene Damm überhaupt nicht als solcher gebaut wurde, sondern ein Planungsfehler der 70er Jahre war.
[2] SZ:Wer neue Katastrophen verhindern will, muss die alten analysieren. Damit haben die Simbacher nun begonnen. Das Verhängnis hat seinen Ursprung in den frühen Siebzigerjahren. Damals wurde im Simbacher Stadtnorden das Schulzentrum errichtet und mit ihm der Straßendamm für eine Verbindungsstraße zur Stadt – mit dem Rohr für den Bach darunter.

Seine Aussage „für hundertjährige Hochwasser ausgelegt“ trifft für diese gebrochene Talquerung damit auf gar keinen Fall zu.
[3] In Simbach waren mehrere Dämme gebrochen – doch das war nach dem Bericht des Wissenschaftlers bei einer Sturzflut dieses Ausmaßes auch unvermeidlich. Die Dämme in Simbach seien für hundertjährige Hochwasser ausgelegt und hätten solchen Belastungen auch schon standgehalten.
Schlussendlich dürfte aber nur die folgende Aussage im Landtag wichtig (und von ihm erwartet) gewesen sein. Denn wo käme man da hin, wenn betroffene Bürger Ansprüche anmelden könnten:
[7] … Obwohl der Experte Prof. Grambow nochmal betont, dass bei der Katastrophe in Simbach keine menschliche bzw. behördliche Versäumnis beteiligt war
Die weiteren Aussagen, wie:
[3] In Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu,
kann nach allen bisherigen – seitens eines Amateurs recherchierbaren Informationen – eigentlich nur noch als Schwachsinn bezeichnet werden. Denn seit wann ist der Bruch einer falsch gebauten Talquerung aufgrund von Überlastung – unter anderem, weil der Durchfluss verstopfte – mit folgender Flutwelle „ein Phänomen einer neuen Ausprägung“?
Solche „Phänomene“ gibt es rund um die Welt. Ungewöhnlicher ist, dass es diese auch in Deutschland immer wieder gibt.

Hierzu könnte man sich allerdings vorstellen, dass dieser Professor damit etwas ganz anderes ausdrücken wollte und menschliches Versagen und Dilettantismus bei solchen Infrastrukturmaßnahmen speziell für den bayerischen Landtag so umschrieben hat. Denn sonst hätte er dieses hohe Haus damit konfrontieren müssen, dass ihre vielen und teuren Maßnahmen zur CO2-Vermeidug (wie es Simbach so erfolgreich gemacht hat, dass es dafür einen Preis gewann) nichts nutzen, aber sinnvolle Maßnahmen in der Infrastruktur blockieren.

Leider ist diese Auslegung unwahrscheinlich. Der Herr Professor ist im Beirat und Mitglied in der Steuerungsgruppe der „Internationalen Expertengruppe zur Bewahrung des Erdsystems“ (IESP). Diese Expertengruppe ist (lt. WIKIPEDIA) mit Prof. Schellnhuber „verbandelt“ und firmiert unter anderem mit folgender Aussage:
ISPE-Faltblatt: Krisen bewältigen, die geographische Grenzen überschreiten Beispiel: Erderwärmung

Damit hat der Professor auch kein Problem damit, gemeinsam mit Professor Harald Lesch (auf EIKE kürzlich mehrfach kritisch rezensiert und auf kaltesonne) während einer Podiumsdiskussion die gesamte, gängige Klimaapokalypse „herunterzubeten“ und dabei noch zu behaupten, aus einer Beobachtungszeit seit 2007 signifikante Klimawandel-Zusammenhänge ableiten zu können.
TZ, 21.11.2016: [12] Dauerregen und Sturzfluten Folgen des Klimawandels
[12] H. Lesch: Auch für Bayern habe die Erwärmung Folgen. „Seit 1960 hat sich die mittlere Temperatur in Bayern um 1,6 Grad erhöht.“ Mehr Wärme bedeutet mehr Verdunstung. Und mehr Verdunstung bedeutet mehr Niederschlag. „Wasser in der Atmosphäre ist ein Terrorist“, sagte Lesch plakativ und meint damit die Energie, die bei der Kondensation frei wird. „Da oben ist der Teufel los.“ Die Menschen in Bayern müssten deshalb vermehrt mit heftigen Gewittern, Starkregen und Platzregen rechnen.
Prof. Grambow: [12] Wie neu diese extremen Regenfälle sind, erklärte Martin Grambow, Leiter der Abteilung Wasserwirtschaft im Umweltministerium und Professor an der TU München. „Wir verfolgen diese Extremereignisse seit 2007.“ Damals hatte eine Sturzflut das mittelfränkische Baiersdorf verwüstet. Starker Regen an sich sei noch nichts Neues. Aber dass sich diese mit Wasser aufgeladenen Tiefs schlagartig, „wie ein Eimer Wasser“, abregnen und das auch noch, ohne sich zu bewegen, sei in Baiersdorf oder in Simbach das Besondere gewesen. „Das haben wir früher in unseren Breiten nicht beobachtet“, sagte Grambow.

Wie weit Herr Lesch mit seiner Darstellung „… Und mehr Verdunstung bedeutet mehr Niederschlag“ daneben liegt, ist in [14] dargestellt. Daraus die relevanten Jahreszeit-Daten für Bayern. Seit dem Beginn der Messreihen hat sich am Niederschlag wirklich überhaupt nichts verändert. Herrn Lesch dürfte dies bekannt sein. Seine Aussagen dazu sind damit sehr vorsichtig formuliert „rational nicht erklärbar“. Dabei ist ein Standardsatz von H. Lesch in seinen Vorträgen: „Jeder hat das Recht auf eine eigene Meinung. Aber nicht auf eigene Fakten.

Bild 9.1 Frühling: Verlauf Temperatur (Bayern und Baden-Württemberg) und Niederschlag (Bayern) 1881 – 2016. Vom Autor aus den DWD-Daten erstellt

Bild 9.2 Sommer: Verlauf Temperatur (Bayern und Baden-Württemberg) und Niederschlag (Bayern) 1881 – 2016. Vom Autor aus den DWD-Daten erstellt

Erwärmung gleich mehr Niederschlag?

Es ist physikalisch richtig, dass wärmere Luft mehr Feuchte speichern kann. Nicht richtig ist die Ableitung daraus, damit würde es bei zunehmender Erwärmung immer mehr und stärker regnen (siehe die Bilder 9.1 und 9.2).
Erst kürzlich erschien ein Artikel, der über dieses Thema aufklärte:
EIKE: Über den Unterschied zwischen Energie, Arbeit und Leistung – und warum das für die Klima-Prophezeiungen eine Rolle spielt
Beispiele sind:
Die Sahara, sie war zur römischen Warmzeit feuchter als heute,
die Kalmengürtel, welche rund um die Welt trotz der Lage in heißen Zonen immer trocken sind,
der Sahel, der dank der Erwärmung feuchter wird (weil der Monsun nun wieder hinein gelangt).
Und die genannten Unwetter sind ein Beispiel: Sie erfolgten nicht nach Hitzetagen. Sie waren (lokal) trotzdem so extrem, weil kein Wind blies, der die Wolkengebirge weiter bewegte; wenig Wind, das das Gegenteil von dem, was zunehmen sollte.
Prof. Lesch hat das in seiner Ausführung geflissentlich „übersehen“. Er hat auch „übersehen“, dass seine Aussagen zum Niederschlag in Bayern langfristiger betrachtet nicht stimmen. Belegbar ist, dass der Niederschlag in Bayern sich seit 1880 in keiner Jahreszeit verändert hat, wie es in einer ganz aktuellen, umfangreichen Rezension anhand der Daten gezeigt ist:
EIKE: Der Klimamonitoringbericht 2016 für Süddeutschland,
EIKE: Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss
was auch international Gültigkeit hat:
kaltesonne: eine weitere seriöse Studie aus dem Dezember 2015 im Journal of Hydrology von van Wijngaarden und Syed konnte in den letzten mehr als 150 Jahren keine signifikanten Aufälligkeiten in den Niederschlägen entdecken, trotz des enormen klimatischen Wechsels von der Kleinen Eiszeit hin zur Modernen Wärmeperiode. Hier der Abstract:
Changes in annual precipitation over the Earth’s land mass excluding Antarctica from the 18th century to 2013

Der DWD stellt es deshalb auch wesentlich vorsichtiger und differenzierter dar:
[12] … Allerdings spielen bei der Niederschlagsbildung eine ganze Reihe weiterer Faktoren und Prozesse … eine wesentliche Rolle. Dementsprechend ist zumindest mit regionalen Unterschieden zu rechnen. Nicht überall werden die Niederschläge im gleichen Maße zunehmen, in manchen Gebieten könnte es durchaus auch trockener werden.
Was der DWD hier verklausuliert sagt, ist die Tatsache, dass die Simulationen beim Niederschlag grandios versagen:
EIKE: Klimamodelle rekonstruieren Niederschlagsentwicklungen nur mit gröbsten Fehlern

Zu Prof. Grambows Bemerkung lässt sich nur ergänzen: Wie wollte man so extrem lokal begrenzte Starkniederschläge früher beobachten, wenn es erst heute mittels Wetter-Radar im Ansatz gelingt?

War das „Ereignis Simbach“ damit ein 1000-Jahre Klimamenetekel

Nach Überzeugung des Autors auf gar keinen Fall. Nicht einmal, dass es ein 100-jähriges gewesen sein könnte, wie man aus der DWD-Schrift vielleicht ableiten könnte, ist wahrscheinlich, zumindest ebenfalls nicht belegbar.

Begründungen:
-Die Daten seit 1951 (länger zurückreichend aus der Gegend fand der Autor nur einen Datensatz bis zum Jahr 1931) geben es nicht her.
-Die Stadtchronik gibt es nicht her (sie berichtet von schlimmsten Fluten in der Vergangenheit)
-Die in jüngerer Zeit erfolgten Verbauungen des Bach-Oberlaufs und massiven, landwirtschaftlichen Veränderungen der Flächen (welche schon vorher von Personen als Hochwasser-Gefahr beschrieben wurden [4]) geben es nicht her
-und die gebrochene Talquerung, welche nie als Damm gedacht war, schon gar nicht.
-Daten vor ca. 1890 sind – wie das Beispiel Hohenpeißenberg zeigt – beim Niederschlag sehr lückenhaft und lassen keine wirkliche Analyse zu.
Daten über 1000 Jahre, welche zur Belegung eines solch kleinflächigen, nur mittels moderner (selbst aktuell noch mit Schwächen behafteten) Radartechnik rekonstruierbaren Ereignisses dienen könnten, erscheinen dem Autor nicht möglich. Dem DWD liegen solche wohl auch nicht vor – sonst hätte er es in seinen Publizierungen erwähnt.

Trotzdem wird es wohl so kommen, dass die „Tausend-Jahre“ Darstellung des Professors bald auf WIKIPEDIA und in Schulbüchern auftaucht.
Nachdem ein deutsches Gericht festgestellt hat, dass die Meldung einer Presseagentur als „wahr“ angenommen werden darf und nicht mehr überprüft werden muss, begeht damit auch niemand eine Falschaussage, oder wird seiner Verantwortung, solche zu vermeiden nicht gerecht.
Die SZ zeigte, wie es funktioniert und warum man diese Zeitung in Foren häufig als „Alpenprawda“ bezeichnet: Obwohl sie selbst vom Dammbruch berichtete, wurde dieses Wissen danach „vergessen“ und von der Flut, welche „ … alle 1000 Jahre vorkommt“ [1], fabuliert.

Es kann natürlich sein, dass es wieder 1000 Jahre dauert, bis in Simbach vor dem Ort ein Damm bricht und nochmals eine
5 m hohe Flut durch den Ort rast. Vorher konnte es nicht vorkommen, da diese Talquerung erst in den siebziger Jahren gebaut wurde. Mit der nötigen Phantasie lassen sich für das 5 m Flutereignis somit jedoch beliebige „Statistikwerte“ fabulieren, nur hat keiner davon etwas mit einem Klimawandel zu tun.

Der Katastrophenalarm

Es erschüttert zudem, dass im Hochtechnologieland Deutschland es nach Tausend Jahren noch nicht möglich ist, vor einem Starkregenereignis zu warnen. Man kann es zwar schon so langsam erkennen, doch dann kann eine Behörde noch lange nicht informieren. Zwar gibt es überall Sirenen und inzwischen auch andere Kommunikationsmittel, doch aus irgend einem Grund wird zwar ununterbrochen vor der Temperatur im Jahr 2100 gewarnt, vor einem aktuellen Starkregen rechtzeitig zu warnen ist aber anscheinend nicht zulässig, weil die Zuständigkeiten ungeklärt sind.
Wie lief der Katastrophenalarm am 01.06.2016 ab?
Eine kleine Recherche zeigt exemplarisch, wie damit in einer Gegend, welche seit Menschengedenken ständig von Fluten bedroht ist, umgegangen wird. Man erinnere sich daran, dass die Starkregenfälle in Bayern und Württemberg bereits einen Tag zuvor begannen und jedem Sachkundigen klar war, dass die Unwetterlagen mangels Wind lokal abregnen würden.
Der Tag davor:
inFranken.de, Meldung vom 31.05.2015: Schwere Unwetter in Bayern – Verwüstungen in Region Ansbach
Feuerwehrfahrzeige stehen am 29.05.2016 in Ansbach (Bayern) an einer überfluteten Straße vor einem Haus. Schwere Regenfälle hatten zu Überschwemmungen geführt.

Am 01.06.2016 bei Simbach.
tz: [12] … Nein, vorbereitet sei er auf dieses Ausmaß natürlich nicht gewesen, sagt Hans Prex, Kreisbrandrat im Landkreis Rottal-Inn. Der Morgen des 1. Juni begann für den Feuerwehrmann mit einem scheinbar banalen Einsatz. Im Gemeindegebiet von Ering war eine Herde Schafe vom Wasser eingeschlossen. „Erst nach und nach haben wir gemerkt: Das hört ja gar nicht mehr auf zu regnen.“ Rinnsale, die im Juni normalerweise ausgetrocknet sind, hatten auf einmal einen Wasserstand von einem Meter. „Um 12 Uhr mittags habe ich den Landrat angerufen“, sagt Prex, „und ihn gebeten, den Katastrophenalarm auszulösen.
Ausgelöst wurde der Katastrophenalarm dann ca. 2 1/2 Stunden später. Da war die Talquerung vor Simbach aber schon gebrochen.
[15] Passauer Neue Presse: Um 14.30 Uhr hat das Landratsamt Rottal-Inn den Katastrophenfall ausgerufen.

Dabei ist das Thema unzureichender Warnungen und Maßnahmen längst bekannt. Herr Kachelmann hat ein Jahr zuvor mangelnde Unwetterinformation bereits massiv bemängelt:
12Jun 14: Das Unwetter, Kachelmann, der WDR — und der Fluch der Routine

… Der WDR will künftig bei drohenden Unwettern seine Zuschauer mit Einblendungen im laufenden TV-Programm warnen. Das ist eine Lehre, die der Sender aus den Abläufen am Pfingstmontag gezogen hat. Mehrere Menschen in Nordrhein-Westfalen waren an diesem Tag bei außerordentlich heftigen Unwettern ums Leben gekommen; Kritiker wie Jörg Kachelmann hatten dem WDR vorgeworfen, dafür eine Mitverantwortung zu tragen, weil er in seinen Programmen nicht angemessen gewarnt habe.
In einer größeren Kolumne ist das ganze Informationsdrama ausführlich dargestellt:
TYCHIS EINBLICK, 31. Mai 2016: Wetterwarnung kann der ÖR nicht, nur Klimawandel Sturzbäche und das Fernsehen.

Wie oft, haben Fachpolitik-Kräfte höherer Hierarchien aber äußerst sachkundige und hilfreiche Lösungsvorschläge parat:
[4] Frau Hendricks: … aber für Überschwemmungsgefahren durch Bäche und kleine Flüsse seien die Landesbehörden zuständig. In Zukunft müsse dort der Katastrophenschutz angepasst werden. So müsse beispielsweise innerhalb einer Stunde gewarnt werden. „Darauf sind wir noch nicht eingestellt“, sagte Hendricks. Dafür sollten die lokalen Behörden etwa auch Lautsprecherwagen durch die betroffenen Gebiete schicken.

Da will die bayerische Umweltministerin nicht nachstehen. Sie umschreibt bisheriges Versagen und Unvermögen allerdings wesentlich eleganter und vor allem zeit(geist-)gemäßer. Vor allem weiß sie sehr genau, wie man sich von Verantwortung entlastet und elegant delegiert.
[16] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz, PRESSEMITTEILUNG:
Auf Initiative von Umweltministerin Scharf hat das Kabinett im Sommer eine weitere Stärkung des Hochwasserschutzes in den Regionen beschlossen: Neben 30 neuen Stellen für die Wasserwirtschaftsverwaltung wird eine zusätzliche Komponente „Sturzfluten“ in das Hochwasserschutz-Aktionsprogramm 2020plus aufgenommen. An zusätzlich 20.000 Kilometern Gewässer Dritter Ordnung, für die die Gemeinden zuständig sind, werden darüber hinaus neue Hochwassergefahrenkarten erstellt. Insgesamt stehen in den kommenden beiden Jahren zusätzlich 12 Millionen Euro zur Verfügung. Der Umgang mit Sturzfluten erfordert das erfolgreiche Zusammenspiel verschiedener Bereiche wie Wasser- und Baurecht, Landwirtschaft und Katastrophenschutz. Deshalb hat das Bayerische Umweltministerium heute das interdisziplinäre Symposium „Herausforderung Starkregen im Zeichen des Klimawandels“ in der Residenz in München organisiert. Scharf: „Der Mensch steht im Mittelpunkt unseres Handelns. Der intensive Dialog ist ein wichtiger Schritt zu mehr Sicherheit für unsere Bürger. Wir brauchen das Erfahrungswissen vor Ort genauso wie den engen Schulterschluss zwischen Klimaforschung und Entscheidern.“ Rund 300 Betroffene, Experten und Vertreter der Politik haben gemeinsam auf die Ereignisse im Sommer 2016 zurückgeblickt, zukünftige Auswirkungen und Herausforderungen des Klimawandels beleuchtet und Handlungsmöglichkeiten zur Vorsorge diskutiert.

1000 Jahre können auch genau anders herum enden: Es hängt nicht vom Klima, nicht vom CO2, sondern alleine von denkenden Menschen ab

Das Beispiel der Flutereignisse in Nürnberg (Bild 10) zeigt, wie solche „Tausend-jährige“ Ereignisse auch genau anders herum verlaufen können. Seit Beginn des „schlimmen Klimawandels“ gab es nicht einmal mehr mittlere Hochwasser (enden 1958), obwohl statistisch längst ein katastrophales und mehrere große hätten erscheinen müssen. Kennt Nürnberg damit keinen Klimawandel?
Selbstverständlich hat es „einen“, zumindest der Klimaschutzmanager der Stadt ist sich da ganz sicher und weiß viel Rat und Tat dazu:
Stadt Nürnberg, Homepage: Wir machen das Klima
Das Referat für Umwelt und Gesundheit engagiert sich seit langem für den Schutz unseres Klimas und seit 2009 auch für die Anpassung an den nicht mehr zu vermeidenden Klimawandel.
Dafür sind auch gewaltige, „sicher“ klimawirksame Maßnahmen in Umsetzung:
Stadt Nürnberg, Homepage: An morgen denken: Nürnbergs Strategie zum Klimaschutz
Die Stadt Nürnberg hat die künftige Entwicklung des Strom- und Wärmeverbrauchs untersucht und darauf aufbauend Maßnahmen bestimmt, um auch in Zukunft die Lebensqualität der Bürgerinnen und Bürger zu sichern
Klimaschutzfahrplan 2010 – 2020
Der Klimaschutzfahrplan 2010-2020 hat das Ziel, bis 2020 die CO2-Emissionen um 40 % gegenüber 1990 zu verringern.

Ohne der Stadt Nürnberg irgendwie nahe treten zu wollen, dürfte jedoch der einzige, wahre Grund für die „Klimaruhe“ sein, dass bereits Anfang 1900 (nach einem katastrophalen Hochwasser) mit der Planung eines Flutüberleiters begonnen wurde, der endlich 1958 fertig gestellt war. Und ein Wunder (oder Vorhersehbares) geschah: Seitdem gibt es dort keine Hochwasser-bedingten Überflutungen mehr.

Die Nürnberger können damit nur ihren Altvorderen danken, dass diese damals noch nicht auf deutsche Klima(hysterie-)professoren, UmweltministerInnen und KlimaschutmanagerInnen gehört haben und nicht zuerst mit der CO2-Vermeidung begannen (wie es Simbach in jüngerer Zeit vor-gemacht hat).

Bild 10 [4] Stadt Nürnberg Hochwasserereignisse von 1350 bis 2016. Daten vom Autor als Ereignisgraphik umgesetzt
Es ist nun (fast) etwas gemein, die Info zu wiederholen. Aber die Stadt Würzburg zeigte einmal exemplarisch, dass Schildbürger niemals aussterben.

Bild11 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013. Grafik vom Autor anhand der Datentabelle der Stadt Würzburg erstellt.

Trotz der bekannten und wirklich eindeutigen Hochwasser-Pegelstände des Main (Bild 11), legte man das Afrikafestival 2013 in die Hochwasserzone und wunderte sich dann, dass ein wirklich nur ganz kleines wie zu erwarten war, auch kam. Selbstverständlich war daran dann „der Klimawandel“ schuld.

DIE WELT, 05.12.14: Würzburg (dpa/lby): Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte Festivalleiter … am Freitag in Würzburg.
Gegen den Klimawandel helfen eben leider keine Fakten, weshalb man auch schon lange keine Fachleute mehr fragt:
Aussage des Wasser-Wirtschaftsamtes Würzburg: [13] „Die Hochwasser jüngeren Datums nach 1909 sind historisch unbedeutend (20-Jahre Ereignisse)

Wenn es den Klimawandel gibt, dann schaut er genauso aus

Zurück zum Ursprungs-Thema. Im Fabulieren von Klimaapokalypsen ist der Professor offensichtlich geübt:
[7] man habe es hier mit den Boten des Klimawandels zu tun. „Wenn es den Klimawandel gibt, dann schaut er genauso aus.

Im Bayerischen Landtag kann man die Wirkung solcher Sprüche problemlos testen, denn versehentlich vorhandene Kenntnis zum Thema ist dort eher nicht zu erwarten [2] und sollten doch Reste „herumsitzen“, würden diese sich nicht gegen die Parteidoktrin „outen“.
Anmerkung: Da die CSU-Umweltministerin (wohl mangels Kenntnissen) und alle anderen Oppositionsparteien (mangels einer eigenen Meinung) beim Klimawandel in aller Regel die Überzeugung der GRÜNEN pflegen, eher noch versuchen, diese zu übertrumpfen, reicht es, deren Aussage als Beispiel zu nennen. Nach einem sinnvoll erscheinenden Vorspann enden diese, wie nicht anders zu erwarten war:
[8] Bündnis 90 DIE Grünen: Lehren aus der Flutkatastrophe 2016
… Langfristig muss natürlich die Ursache dieser Starkregenereignisse benannt und bekämpft werden: der menschengemachte Klimawandel. Wir setzen uns dafür ein, die erarbeiteten Ziele der Klimakonferenz endlich in Nationales Recht zu gießen und umzusetzen.

Nachdem der Professor bis auf das Jahr 1766 zur Belegung zurückging, anbei eine informelle Listung, wie das angeblich „vorindustrielle, natürliche Ideal-Klima“, welches aktuell auch vom „Bayerischen Landtag“ herbeigesehnt wird, damals erlebt und der Nachwelt übermittelt wurde.

Quelle: Die inzwischen geschlossene Seite: www.wetterklimafakten.eu
1651: wohl extremst feuchtes Jahr in ganz Europa, Hungersnot. 26.2. „Petriflut“ Nordsee, Tausende Tote, Juist und Langeoog zerrissen ,Landverluste
1657/58: sehr kalter Winter
1658: Folge des kalten Winters: viele Überschwemmungen, Feb: großes Rhein-Hochwasser, Köln 12,07 m Pegel
1661: 22.9. : Überschwemmungen in Spanien. In Malaga 3.000 eingestürzte Häuser, Tausende Tote
1665: sehr heißer Sommer
1666: wieder sehr heißer Sommer, Hitze und Dürre, ausgetrocknete Flüsse, verdorrte Felder (wohl der heißeste des sonst kalten Jahrhunderts)
1669: 16.4.: Heftiger Regen löst Bergsturz in Salzburg aus, 300 Tote (seitdem gibt es den Beruf des „Bergputzers“)
1675: 4./5.11.: Sturmflut Holland, Tausende Tote, viele Zerstörungen
1682: wohl sehr feuchtes Jahr, viele Überschwemmungen überall, Donauhochwasser im Sommer
1687: Sommer: gewaltige Regenfälle Westeuropa, Überschwemmungen
1693: 24.6.: 24-stündiges Gewitter zerstört große Teile Kölns
1703: 26.11.: schwerster Sturm der englischen Geschichte, 8.000 Tote, 14.000 Obdachlose
1708/09: sehr kalter Winter Westeuropa, bis zu 100.000 Tote. Einer der kältesten Winter überhaupt. 10 Wochen alles gefroren
1717: Weihnachtsflut Nordsee, 20.000 Tote
1719: Sommer: Dürre und Hitze Europa: Ausgetrocknete Flüsse
1720: Katastrophales Lawinenjahr in den Alpen, viele Tote
1735: Gewaltige Überschwemmungen in Russland. Tausende Tote, ganze Dörfer und Städte weggeschwemmt. (Vielleicht die schlimmste Flutkatastrophe dort überhaupt)
1742: 5.6. großes Donauhochwasser
1768: Indien: Extrem-Monsun, riesige Überschwemmungen. Danach bleibt der Monsun 2 Jahre lang aus.
Erste genauere Wettermeldungen aus den USA setzen ein: Die lange Reihe von Hurrikan-Meldungen beginnt, jährlicher Wechsel der Häufigkeit, kein Unterschied zu heute.

Quellen

[1] Süddeutsche Zeitung, 30. Dezember 2016: Das zerstörerische Hochwasser hat die Seelen überflutet

[2] EIKE 06.07.2016: Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag

[3] WELT N24, 16.06.2016 : Die Analyse der Simbacher Sturzflut ist beunruhigend

[4] EIKE 09.06.2016: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen

[5] FOCUS ONLINE 03.06.2016: Simbach am Inn Verstopftes Rohr löste offenbar Flutwelle aus

[6] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[7] Bayerischer Landtag, Donnerstag, 16. Juni 2016: Hochwasser in Simbach und Maßnahmen gegen weitere Katastrophen

[8] Bündnis 90 DIE Grünen: Lehren aus der Flutkatastrophe 2016
[9] DWD Schrift, Dr. Markus Ziese at al., Stand: 03.06.2016: Andauernde Großwetterlage Tief Mitteleuropa entfaltet Ihr Unwetterpotential mit starken Gewittern und massiven Schadensgeschehen in Deutschland
[10] DWD Schrift, Paul Becker at al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung
[11] Deutschlandfunk 12.09.2016: Klimawandel Deutsches Klimakonsortium warnt vor Starkregen in Deutschland
http://www.deutschlandfunk.de/klimawandel-deutsches-klimakonsortium-warnt-vor-starkregen.697.de.html?dram:article_id=365651

[12] TZ, 21.11.2016: Dauerregen und Sturzfluten Folgen des Klimawandels: Wie gut ist München geschützt?
https://www.tz.de/muenchen/stadt/folgen-klimawandels-da-oben-ist-teufel-los-7001100.html

[13] Umweltamt der Stadt Würzburg – Wasserwirtschaftsamt, Publikation: Historische Hochwasser am Main
http://www.wuerzburg.de/2007/m_10317

[14] EIKE 16.01.2016: Der Klimamonitoringbericht 2016 für Süddeutschland

[15] Passauer Neue Presse, 01.06.2016: Hochwasser: Simbach „Land unter“ – Katastrophenfall ausgerufen
http://www.pnp.de/region_und_lokal/landkreis_rottal_inn/pfarrkirchen/2093679_Hochwasser-Simbach-Land-unter.html

[16] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz, 21.11.2016 PRESSEMITTEILUNG Nr. 215/16




Trump und inter­nationale Energie-Armut: Fünf Schritte

Man betrachte die Bemühungen der Obama-Regierung, fossil befeuerte Klimakatastrophen zu vermeiden. Trotz gut gemeinter Absichten haben diese Bemühungen, industrielle Emissionen von Kohlendioxid und anderen „Treibhausgasen“ zu reduzieren, insgesamt sehr großen Schaden angerichtet in ehemals kolonisierten Ländern in Afrika, Asien und Latein-Amerika. Und wirklich, Obamas Politik erinnert an die Versuche der Kolonisten, diese Regionen zu Erzeugern von Rohstoffen zu machen anstatt zu industriellen Mitbewerbern. Obamas Klima-Alarmisten entmutigten arme Länder, Kraftwerke und moderne Übertragungsnetze zu errichten. Stattdessen bot man diesen Ländern Hilfe an, nicht ans Netz zu gehen mittels kleinmaßstäblicher Wind- und Solarprojekte. Die Regierung trieb auch die Preise für Nahrungsmittel in armen Ländern in die Höhe, indem sie Ernten so umleitete, dass sie „grünen“ Treibstoff-Quoten genügten. Außerdem standen sie untätig dabei, als die Europäische Union diese Länder bestrafte für den Export „kohlenstoff-intensiver“ Erzeugnisse. Die Moral lautet hier, dass die Kosten der prophezeiten Klimakatastrophen hypothetisch und dürftig sind sowie erst in ferner Zukunft anfallen, während die gesundheitlichen und wirtschaftlichen Vorteile des auf fossilen Treibstoffen beruhenden Wachstums armer Länder real und erheblich sowie sofort verfügbar sind.

Hinsichtlich Gesundheit brauchen die Menschen zuverlässige Energie in ihren Wohnungen, Fabriken und Büros. Falls sie diesen Energiebedarf nicht mit Strom decken können, werden sie die Energie durch Verbrennung von Holz, Dung und Holzkohle erzeugen oder ihre eigenen Dieselgeneratoren anwerfen. In Afrika, wo nur 25 Prozent aller Wohnungen zuverlässig über Strom verfügen und die meisten Fabriken und Büros unter häufigen Stromausfällen zu leiden haben, stellen die durch diese ineffizienten Energiequellen emittierten Partikel eine ständige Krise dar für Atemwegs-Erkrankungen. Hinsichtlich wirtschaftlichen Wachstums und der daraus resultierenden steigenden Lebenserwartung können wir einfach feststellen, dass China, seit es sich mit aller Macht dem fossil befeuerten Kapitalismus verschrieben hatte, seine 20-Jahre-Lücke zur Lebenserwartung von 80 Jahren in entwickelten Ländern fast geschlossen hat, während Afrika noch mit 59 Jahren hinterher hinkt.

Hier folgen als Vorschlag fünf Schritte, die Präsident Trump gehen könnte, um uns davon abzuhalten, Schaden anzurichten, und wir vielleicht sogar Gutes anrichten können hinsichtlich des Strebens von Entwicklungsländern nach einem besseren und längeren Leben, welches zuverlässiger elektrischer Strom mit sich bringen kann.

Energieerzeugung: Er sollte US-Repräsentanten bei der Weltbank und regionalen Banken ebenso wie Funktionäre der Agency for International Development (the State Department’s foreign aid office) anweisen, Kredite und Garantien für Kohle-, Gas- oder Ölkraftwerke zu unterstützen anstatt diese, wie wir es derzeit tun, zu verhindern. Mit der Hilfe für Länder, moderne, effiziente Kraftwerke zu bauen, ausgerüstet mit „Filtern“, können wir Emissionen von Schwefeldioxid und andere Partikel dramatisch reduzieren. Anders als Kohlendioxid, welches ein vorteilhaftes Spurengas ist, das Ernteerträge steigern lässt, sind dies reale Verschmutzer, die kontrolliert werden müssen.

Netzausbau: Die Versorgt-Afrika-mit-Energie-Kampagne der Obama-Regierung ist verzerrt hin zu „Ohne-Netz-Lösungen“ wie etwa kleinmaßstäbliche, lokale Wind- und Solarparks. Dies ist Kolonialismus pur in einem Kontinent, der immer noch „unterentwickelt“ ist, indem er Rohstoffe an seine ehemaligen Beherrscher exportiert und im Gegenzug fertig hergestellte Produkte erhält. Afrika braucht konsistent Energie für Fabriken und Büros, oder es wird niemals in der Lage sein, im Wettbewerb der globalen Ökonomie mitzuhalten. Der einzige Weg, konsistent Energie zur Verfügung zu haben, ist ein modernes Netz. Punkt. Das Netz kann sich langsam entwickeln, so dass es gewartet werden kann, aber langfristig kommt man ohne ein solches nicht voran, wie das Beispiel Chinas zeigt.

Hilfe nur für nachhaltige Infrastruktur-Projekte: Entwicklungsländer vor allem in Afrika sind übersät mit aufgegebenen „weißen Elefanten“ – Hochtechnologie-Fabriken, Dämme, Aufbereitungsanlagen, Brunnen und Traktoren, die von es gut meinenden auswärtigen Helfern und Spendern zur Verfügung gestellt worden waren. Sie fielen in die Nutzlosigkeit, weil Empfänger-Regierungen nicht den politischen Willen und die ökonomische Umgebung zur Verfügung stellen wollten, die zum Erhalt dieser Einrichtungen erforderlich wären.

Die Einführung einer Technologie aus einem anderen Land, welche sich in einem anderen Stadium der ökonomischen Entwicklung befindet, ist im besten Falle verzwickt. Es ist Zeit- und Geldverschwendung, falls die Empfänger-Regierung undemokratisch, korrupt oder repressiv ist. Amerikanische Diplomaten und Funktionäre der Auslandshilfe müssen belohnt anstatt bestraft werden, wenn sie sich unvermeidlich im Spiel der Auslandshilfe befinden, weil sie die Wahrscheinlichkeit der Nachhaltigkeit abschätzen und Projekte auch mal absagen. Die größte wirtschaftliche Entwicklung gibt es, wenn die Bedingungen vor Ort dies zulassen. Auslandshilfe kann wenig ausrichten, wenn Diktatur und Korruption vorherrschen, wie es in den meisten afrikanischen Ländern der Fall ist.

Stopp der Vorschriften bzgl. Biotreibstoffen: „Biotreibstoff-Hungersnot“ nennen es die Afrikaner, wenn Unternehmen aus entwickelten Ländern landwirtschaftliche Flächen der Dörfer übernehmen, so dass sie Profite erzielen können mittels der Erfüllung von Vorschriften bzgl. „grüner“ Treibstoffe. Die Trump-Regierung sollte unsere eigenen Äthanol-Minima fallen lassen, und sie sollte es zu einem prinzipiellen Handels-Eckpunkt und zum Gegenstand in Verhandlungen mit europäischen Ländern machen, diese Vorschriften ebenfalls fallen zu lassen.

Gegen „kohlenstoff-lastige“ Vorschriften: In ihrem niemals endenden Kreuzzug, verlogene „Kohlenstoff-Offsets“ zu finden, welche es ihnen gestatten, Reduktionen von Kohlenstoff-Emissionen geltend zu machen ohne eigene Kraftwerke zu schließen, haben europäische Länder ein Durcheinander aus dem einfachen Akt gemacht, Güter aus Entwicklungsländern zu importieren. Blumen aus Kenia beispielsweise zahlen eine Kohlenstoff-Steuer, weil sie mit Flugzeugen transportiert werden, welche pro Blume mehr Treibstoff verbrauchen als ein langsameres Schiff. Als Teil eines internationalen Konsortiums des Luftverkehrs können die USA solche Vorschriften verhindern und umkehren, was zu mehr Handel und Arbeitsplätzen in entwickelten Ländern führt. Im Jahre 2011 setzte der Kongress ein Gesetz in Kraft, welches das Programm des Konsortiums blockierte, eine Kohlenstoff-Steuer auf den gesamten Luftverkehr einzuführen. Als Schutz unserer Reiserechte sollten wir auch nach jenen der Exporteure in Entwicklungsländern Ausschau halten.

Um diese Änderungen zu erreichen und dauerhaft zu machen, sollte Trump klarstellen, dass das Paradigma einer von fossilen Treibstoffen verursachten Klimakatastrophe abgelehnt wird. Unter Obama erzeugte praktisch jedes Ministerium der Regierung Verwaltungsapparate, deren primäres Ziel es gewesen zu sein scheint, Steuergelder für die Dämonisierung von Treibhausgasen auszugeben. Zwar ist es leicht, es einfach zu ignorieren, wie es viele Länder scheinheilig getan haben, doch sollte Trump vom Pariser Abkommen 2015 und seinen freiwilligen „absoluten Zielen der Reduktion von Emissionen“ sowie vom UN-Rahmenabkommen 1992 seinen Rückzug daraus ankündigen als einen Weg, unsere heimische Bürokratie schockartig dazu zu bringen, weniger Schaden anzurichten.

Präsidenten haben die Macht, von Abkommen und Verträgen zurückzutreten, wie es Carter mit unserem Vertrag mit Taiwan gemacht hat, um die Beziehungen zu China zu verbessern; oder wie Reagan, der sich aus der zwangsweisen Rechtsprechung des Weltgerichts zurückzog, um in der Causa unseres Nicaragua-Krieges nicht zu verlieren; oder wie George W. Bush, der sich aus dem Vertrag über die Begrenzung von Raketenabwehrsystemen zurückzog. Der technische Rückzug wird ein paar Jahre dauern wegen der Termini jener Abkommen, aber die Ankündigung selbst würde das Absahnen durch die „Klima-Finanzierung“ und „Klima-Reparationen“ beenden, welches Milliarden Dollar Auslandshilfe verschlingt.

Ich werde oft gefragt, warum ich angesichts der Behauptungen über eine Klimakatastrophe so ruhig bleibe. Nun, während des letzten Jahrzehnts habe ich es als Professor der Statistik und der Mathematik zu meinem beruflichen Aufgabenfeld gemacht, die innere Funktionsweise der Klimamodelle zu analysieren, welche die Waffe der UN-Klimapropaganda sind, und die für die Behauptung herangezogen werden, dass der größte Teil der Erwärmung um ein halbes Grad von 1980 bis 2010 industriellen Emissionen von Treibhausgasen geschuldet ist. Diese Modelle, von denen Obama glaubt, dass sie ihn zum Herr über die Thermostate machen, sind zwar hoch komplex, jedoch kindisch und fast eine Totgeburt angesichts des Agierens der chaotischen Atmosphäre und der mysteriösen Ozeane, die zu repräsentieren sie versuchen. Lustigerweise nehmen die gleichen IPCC-Modelle an, dass natürliche Variationen und nicht industrielle Emissionen für einen ähnlichen Anstieg von 1910 bis 1940 ursächlich sind, als die Emissionen noch zu gering waren, um theoretisch Auswirkungen zu zeitigen.

Aber es liegt in der Natur der Sache der geringen Erwärmung, verursacht durch was auch immer, dass Obama fast wahnhaft besessen davon geworden ist. Während des vorigen Jahrzehnts habe ich es meinen Studenten zur Aufgabe gemacht, die aktuellen wissenschaftlichen Studien zu analysieren, aufgrund derer das IPCC seine wiederholten Behauptungen aufstellt, dass Klimakatastrophen jetzt passieren und nach 100 Jahren ähnlicher Erwärmung eskalieren werden. Zu ihrem Erschrecken fanden meine Studenten heraus, dass in jeder einzelnen Studie Ergebnisse zu Stürmen, Dürren, Meeresspiegel, Waldbränden, Malaria und anderen imaginären Leiden nichts als suggestiv waren. Die Auswirkungen der einzelnen Variable Temperatur aus den Tausenden anderer bekannter und unbekannter Variablen, Trends und Zufallsereignisse zu entflechten, welche Klimawandel treiben, ist extrem schwierig, wenn man lediglich die paar Jahre mit global gemessenen Temperaturdaten heranzieht, die wir verfügbar haben.

Ich zweifle nicht daran, dass Treibhausgase auch weiterhin eine gewisse Erwärmung bringen werden, jedoch weitaus weniger als die Alarmisten behaupten. Und ich zweifle nicht daran, dass sich das Klima auch weiterhin ändern wird, mit oder ohne industrielle Emissionen. Wie in der Vergangenheit auch wird die Menschheit mit diesen Änderungen fertig werden – und das viel effektiver als damals dank moderner Technologie und einer wohlhabenderen Bevölkerung. Aber nach 35 Jahren intensiver Studien haben wir keinen Anlass, Präsident Obamas Prophezeiungen von den Planeten bedrohenden Konsequenzen durch mehr Kohlendioxid zu glauben. Darum bin ich so sicher, dass Behauptungen einer wahrscheinlichen Klimakatastrophe unbegründet sind und verblassen gegenüber den Vorteilen billiger fossiler Treibstoffe für arme Länder.

——————————

Caleb Stewart Rossiter, Adjunct Professorial Lecturer, School of International Service and Department of Mathematics and Statistics, American University.

Link: https://wattsupwiththat.com/2017/01/17/trump-and-international-energy-poverty-five-steps/

Übersetzt von Chris Frey EIKE




Interview mit Prof. William Happer

TheBestSchools

Prof. Happer: Vielen Dank, dass Sie sich für dieses Interview bereit erklärt haben und an einer Diskussion mit dem australischen Physiker David Karoly teilnehmen. Die Kontroverse um die globale Erwärmung ist sowohl außerordentlich kompliziert und hoch emotional aufgeladen. In diesem Interview werden wir das Ganze aus verschiedenen Blickwinkeln betrachten, die sowohl wissenschaftlicher als auch politischer Natur sind.

Im Folgenden beschreibt Happer, Jahrgang 1939, seinen Lebenslauf, der ihn nach dem 2. Weltkrieg in die JASON-Gruppe führte, eine Gruppe von Wissenschaftlern, die für die US-Regierung geheime und nicht geheime Studien durchführte. Dabei wurde er auch ins Energieministerium berufen. Hier wurde er später konfrontiert mit der regierungsamtlichen Propaganda bzgl. Klimawandel, der er zunächst folgte, bis ihn die schrillen Dissonanzen in der Argumentation störten. So kam es, dass er von seinem vieljährigen Posten am Energieministerium gefeuert wurde nach Amtsantritt der Bill Clinton/Al Gore-Regierung, weil er die Al Gore-Behauptungen zu hinterfragen gewagt hatte. Seitdem wurde er zu einem Vertreter der Klimaskeptiker, und als solcher wurde er auch interviewt.

————————————–

Gleich bei der ersten Frage des Interviews beschreibt Happer, wie die Destruktiv-Organisation Greenpeace gegen ihn vorgegangen war. Weil dies beispielhaft stehen kann für das, was viele ehrliche und der wirklichen Wissenschaft verpflichteten Forscher widerfahren kann, wird Happers Antwort hier in ganzer Länge übersetzt:

TheBestSchool

Wir haben erfahren, dass Sie jüngst Opfer einer von Greenpeace organisierten „verdeckten“ Operation geworden sind. Verleumderische Behauptungen darüber, wie sie da herausgekommen sind, gibt es im Internet zuhauf, selbst in Ihrem Wikipedia-Beitrag. Würden Sie uns vielleicht kurz Ihre Seite der Story erzählen?

William Happer

Greenpeace ist eine der vielen Organisationen, die mit dem Alarmismus hinsichtlich einer vermeintlichen Bedrohung durch globale Erwärmung sehr gut leben kann. Sie sind nicht in der Lage, die auf extrem schwachen Füßen stehende Wissenschaft zu verteidigen. Darum dämonisieren sie nicht nur den vermeintlichen „Verschmutzer“, also das atmosphärische CO2, sondern auch sämtliche Wissenschaftler, die ihre Propaganda effektiv widerlegen.

Ich glaube, ich sollte mich geschmeichelt fühlen, eines ihrer Opfer zu sein: je mehr Feinde, je mehr Ehre [das steht so im Original, gefolgt von einer sinngemäßen Übersetzung ins Englische! Anm. d. Übers.], wie es in einem alten Sprichwort aus Deutschland heißt. Aber meine Erfahrungen in dieser Hinsicht verblassen doch sehr im Vergleich zu dem, was man Wissenschaftlern wie Willie Soon, Patrick Michaels und anderen angetan hat, welche nicht nur verunglimpft, sondern gleich von ihren Arbeitsstellen vertrieben wurden.

Die Schmierenkampagne begann im Jahre 2015, als ich eine E-Mail von einem Greenpeace-Agenten erhielt, der sich als ein Repräsentant eines „Kunden“ in Nahost ausgab. Er wollte, dass ich etwas über die Vorteile von CO2 schreibe. Wie ich weiter unten ausführen werde, habe ich schon sehr lange die Ansicht vertreten, dass mehr CO2 vorteilhaft für die Erde ist, hauptsächlich weil die Pflanzen damit effektiver gedeihen und ihre Widerstandskraft gegen Dürren stärken, und weil die Erwärmung durch mehr CO2, wie es von den Modellen des Establishments prophezeit wird, um einen Faktor drei oder mehr übertrieben wird.

Seit Jahren habe ich jeden nur denkbaren Weg benutzt, um die guten Nachrichten über die Vorteile von CO2 zu verbreiten. Daher rannte man bei mir offene Türen ein, ein Op-Ed oder einen Beitrag zu diesem Thema für den Kunden zu schreiben. So weit es mich betraf, benutzte ich den Kunden, nicht vice versa. Ich empfehle jedem geneigten Leser mit Interesse an dieser Episode, den vollständigen E-Mail-Austausch zwischen mir und dem Greenpeace-Agenten zu lesen. Er ist im Internet einsehbar.

In einer der ersten E-Mails mit Datum 3. 11. 2015 stellte ich fest:

Ich würde sehr gerne helfen, falls meine Standpunkte, umrissen in den Anhängen, auf einer Linie liegen mit denen Ihres Kunden.

Der Satz macht klar, dass ich lediglich daran interessiert war, dem „Kunden“ zu helfen, meine schon lange gehegten Ansichten zu publizieren und nicht hausieren zu gehen damit, was auch immer der „Kunde“ im Sinn hatte.

Man beachte auch die Bemerkungen in meiner E-Mail-Antwort vom 5. 11. 2015:

Um sicherzustellen, dass Ihr Kunde durch meine Ansichten nicht in die Irre geführt wird, stelle ich klar, dass es sehr wohl reale Verschmutzer im Zusammenhang mit der Verbrennung fossiler Treibstoffe gibt, als da wären Oxide von Schwefel und Stickstoff, fliegende Asche und Schwermetalle bei Kohle, volatile organische Stoffe bei Benzin, usw. Ich stehe voll hinter Vorschriften für die kosteneffektive Kontrolle dieser realen Verschmutzer. Aber die Klimagespräche in Paris basieren auf der Prämisse, dass CO2 selbst ein Verschmutzer ist. Das ist komplett falsch. Mehr CO2 wird der Welt zum Vorteil gereichen. Der einzige Weg, CO2 zu limitieren, wäre es, keine fossilen Treibstoffe mehr zu verwenden. Das jedoch, so glaube ich, wäre eine ausgesprochen unmoralische und irrationale Politik.

Der Schlussabschnitt meiner Mail vom 5. 11. 2015 lautet:

Meine Aktivitäten, den Klima-Extremismus zurückzudrängen, führe ich als ein Herzensanliegen meinerseits durch, um die in Ehren gehaltenen Ideale der Wissenschaft zu verteidigen, die so stark korrumpiert sind durch den Klimawandel-Kult. Falls Ihr Kunde überlegt, mich zu entlohnen, falls ich etwas schreibe, würde ich fordern, dass eine wie auch immer geartete Entlohnung direkt an die CO2-Koalition geht. Dies war das Arrangement, welches ich mit den Anwälten vereinbart hatte, die die Peabody Coal Company bei den Anhörungen in Minnesota vertraten. Die Entlohnung, die ich erhalten hätte, wurde nicht an mich gezahlt, sondern an die CO2-Koalition, einer von Steuern befreiten, uneigennützigen Bildungsorganisation. Die CO2-Koalition deckt mitunter Reisekosten von mir ab, zahlt mir aber darüber hinaus keinerlei Gehalt.

Ich habe niemals auch nur einen Penny für irgendeine meiner Aktivitäten zur Aufklärung der Öffentlichkeit bzgl. der Vorteile von CO2 für die Welt genommen.

Daran kann man erkennen, dass ich etwas gratis schreiben würde als eine „Arbeit des Herzens“, solange nur gewährleistet war, dass meine Botschaft (nicht die Botschaft des „Kunden“) noch mehr Menschen erreicht. Die erwähnte CO2-Koalition ist eine neue, von Steuern befreite nichtkommerzielle Organisation, welche meine Freunde zusammen mit mir ins Leben gerufen hatten, um die guten Nachrichten über CO2 noch weiter zu verbreiten. Ich denke, man könnte es eine „Anti-CO2-Diffamierungs-Liga“ bezeichnen. Die Koalition führt eine Von-Der-Hand-In-Den-Mund-Existenz, mit einem Jahresbudget unter 200.000 Dollar pro Jahr. Selbst ein paar tausend Dollar von dem „Kunden“ würden helfen, die Lichter nicht ausgehen zu lassen. Als ich es zum letzten Mal gecheckt hatte, verfügt Greenpeace über ein Jahresbudget von 350 Millionen Dollar, das ist über 300 mal so viel wie das Budget der Koalition.

Noch einmal, ich habe niemals auch nur einen Penny genommen für meine Aktionen, der Öffentlichkeit nahezubringen, dass mehr CO2 der Welt zum Vorteil gereicht. Ich habe sogar Tausende Dollar meines mäßigen Universitäts-Gehaltes für diesen Zweck geopfert. Falls irgendein Leser dieses Interviews der Koalition helfen möchte, kann er weitere Informationen und wie man spenden kann auf der Website der CO2-Koalition finden.

Unter den Folgen der Greenpeace-Schmähkampagne waren viele böse, obszöne Telefonanrufe und E-Mails, in denen ich, meine Familie und sogar meine Enkelkinder bedroht wurden*. George Orwell hat diese Taktiken in seinem Roman 1984 beschrieben, in dem er die täglichen obligatorischen „Zwei Minuten Hass“ auf Emmanuel Goldstein (Leo Trotzky) und seine Agenten beschrieb, die die Feinde von Big Brother (Stalin) und seinen Schergen waren.

[*Hervorhebung vom Übersetzer!]

Greenpeace und weitere, sogar noch fanatischere Elemente der Globale-Erwärmung-Bewegung stehen in vollem Umfang hinter der historischen Lüge, dass ihr ideologisches Ziel – die Eliminierung fossiler Treibstoffe – jedwede Mittel rechtfertigt, einschließlich der Verfälschung wissenschaftlicher Daten und Rufmord ihrer Gegner.

Aber Kipling hat recht: wir werden siegen:

If you can bear to hear the truth you’ve spoken
Twisted by knaves to make a trap for fools,
Or watch the things you gave your life to, broken,
And stoop and build ’em up with worn-out tools.

[Die nächste Frage von TheBestSchools befasst sich mit dem allgemeinen CO2-Narrativ, welches in Politik und Medien auf und ab kolportiert wird. Happer sagt dazu:]

William Happer

Lassen Sie mich zunächst auf die Stichworte eingehen, die Sie genannt haben. Ja, das CO2-Niveau ist gestiegen, und zwar um etwa zwei ppm pro Jahr während der letzten Jahre. Ja, CO2 ist ein „Treibhausgas“. Das heißt, es ist teilweise undurchlässig für die thermische Infrarotstrahlung der Erdoberfläche, aber transparent für das meiste Sonnenlicht. Die weitaus größten Anteile der Atmosphäre, Stickstoff und Sauerstoff, sind sowohl bzgl. Sonnenlicht als auch thermische Strahlung durchlässig und daher keine Treibhausgase.

Die Aussage „wegen des gestiegenen CO2-Gehaltes muss die Erdatmosphäre wärmer werden“, ist nicht gut formuliert. Wie man weiß hat die Atmosphäre keinen einzelnen Temperaturwert. Das approximierte vertikale Temperaturprofil der Atmosphäre sieht so aus:

Abbildung 1: Vertikales Temperaturprofil der Erdatmosphäre. Man geht davon aus, dass mehr CO2 die Stratosphäre abkühlt und die Troposphäre erwärmt. Der Betrag der Erwärmung an der Erdoberfläche wird wahrscheinlich um 1°C liegen bei einer Verdoppelung der CO2-Konzentration in der Atmosphäre. Quelle: Astrobites.

Obwohl es bedeutende Ausnahmen gibt, ist die Atmosphäre normalerweise nahe der Oberfläche am wärmsten und kühlt sich mit zunehmender Höhe ab. Eine repräsentative Abkühlungsrate über die ersten 10 km oder so ist etwa 6,5°C pro km. Darum suchen die Menschen im Sommer die Berge auf, um der Hitze zu entkommen. Ich besuchte die Hochschule in der kleinen Stadt Lenoir in North Carolina auf einer Seehöhe von etwa 400 m, wo es üblicherweise um etwa 8°C wärmer war als im beliebten Erholungsort Blowing Rock auf einer Seehöhe von etwa 1100 m, etwa 20 Meilen [ca. 32 km] entfernt von der Gipfelkette der Blue Ridge Mountains.

[Es folgt eine Erklärung der Vorgänge in Troposphäre und Stratosphäre. Darauf aufbauend führt Happer weiter aus:]

Mit jedem weiteren Jahr, das vorübergeht, gibt es aus Beobachtungen weniger Unterstützung für diese „positive Rückkopplung“ der direkten Erwärmung durch CO2.

Die Troposphäre, also die unteren 11 km der Luft – unterscheidet sich deutlich von der Stratosphäre. Nahe der Erdoberfläche erfolgt der weitaus größte Beitrag zum Wärmeaustausch durch Konvektion feuchter Luft und nicht durch Strahlung. Nur bei dieser könnte CO2 jedoch einen direkten Unterschied ausmachen. Mehr CO2 kann möglicherweise die Troposphäre und die Erdoberfläche erwärmen. Aber hinsichtlich die Größenordnung dieser Erwärmung weiß man kaum etwas. Mein Schätzung lautet, dass sich die Erdoberfläche bei einer Verdoppelung der CO2-Konzentration um etwa 1°C erwärmen wird und in der mittleren Troposphäre vielleicht um 1,2°C. Diese Zahlen lassen sich aus den direkten Auswirkungen von mehr CO2 berechnen. Die vom IPCC genannte wesentlich höhere „Gleichgewichts-Klimasensitivität“, etwa 3°C pro Verdoppelung der Konzentration, stammt aus der Annahme, dass die relativ geringe direkte Temperaturzunahme durch mehr CO2 erheblich verstärkt wird durch Änderungen er Eigenschaften von Wasserdampf und Wolken. Mit jedem weiteren Jahr, das vorübergeht, gibt es immer weniger Stützung durch Beobachtungen für diese „positive Rückkopplung“ der direkten Erwärmung durch CO2.

Lassen Sie mich jetzt zu den vier offiziellen IPCC-Positionen Stellung nehmen, die Sie erwähnt hatten:

Globale Erwärmung ist eine fundierte Tatsache. Diese Feststellung ist nur zur Hälfte richtig. Ein korrekteres Statement wäre „globale Erwärmung und globale Abkühlung sind beides fundierte Tatsachen“. Die Erde ist ständig Schauplatz von Erwärmung und Abkühlung. Seit dem Jahr 1800 hat sich die Erde um etwa 1°C erwärmt, wobei der größte Teil dieser Erwärmung vor einer stärkeren Zunahme des atmosphärischen CO2 stattgefunden hat. Es gab eine ziemlich substantielle Abkühlung von 1940 bis 1975. Es gab praktisch keine Erwärmung während der letzten 20 Jahre, obwohl das CO2-Niveau schneller denn je zugenommen hat. Dieser Wechsel zwischen Erwärmung und Abkühlung war während der gesamten geologischen Historie ein Charakteristikum des Erdklimas.

Die Erwärmung ist anthropogen. Nein! Der größte Teil der Erwärmung ist natürlichen Ursachen geschuldet. Aber vieles der CO2-Zunahme von etwa 280 ppm im Jahr 1800 auf etwa 400 ppm im Jahre 2015 ist möglicherweise anthropogenen Ursprungs, obwohl Ozeane und Festland durch die Erwärmung etwas CO2 freigesetzt haben. Die Erwärmung der Städte korrelierte sehr gut mit dem zunehmenden CO2-Gehalt. Dies ist dem gut erforschten Städtischen Wärmeinseleffekt sich ausbreitender Städte geschuldet. Aber nicht der zunehmende CO2-Gehalt ist Ursache der Erwärmung in den Städten, sondern das Verschwinden von Grünland und Wäldern mit ihrer Verdunstungs-Abkühlung sowie der Ausbau von Straßen und Gebäuden, die keinen Wasserdampf verdunsten. Natürlich hat auch das CO2-Niveau gleichlaufend mit der städtischen Erwärmung zugenommen, aber das zusätzliche CO2 ist nicht Ursache der Erwärmung in Verbindung mit Verstädterung. Korrelation heißt nicht Kausalität! Die Sonne geht morgens nicht deswegen auf, weil der Hahn kräht. Außerhalb städtischer Gebiete der Erde ist die Korrelation zwischen CO2-Niveau und Temperatur praktisch nicht erkennbar.

Unter den mächtigen natürlichen Einflüssen auf das Klima sind relativ kurzzeitige periodische Phänomene der Änderungen von Meeresströmen wie El Nino und längerzeitliche periodische Änderungen wie die PDO oder die NAO. Von großen Vulkanausbrüchen weiß man, dass sie das Klima ein paar Jahre lang abkühlen. Es gibt immer mehr Beweise, dass Änderungen der Sonnenaktivität irgendwie das Klima beeinflussen, und vermutlich gibt es noch viele andere Einflüsse, die wir noch gar nicht entdeckt haben.

Ein geringer Anteil der Erwärmung von 1°C während der letzten beiden Jahrhunderte muss dem gestiegenen CO2-Gehalt geschuldet sein, welches in der Tat ein Treibhausgas ist. Im Gleichgewicht sollte die Temperaturzunahme ΔT=S log2 (400 ppm/280 ppm) betragen haben, wobei S die Gleichgewichts-Klimasensitivität ist. Ohne Rückkopplung kann die theoretische Sensitivität berechnet werden mit nahe S = 1°C, und der Logarithmus zur Basis 2 ist log2 (400/280) = 0,51. Also hätte die rückkopplungs-freie Erwärmung ΔT = 0,51° C betragen sollen, also etwa halb so groß wie die beobachtete Erwärmung sein müssen. Die andere Hälfte der Erwärmung wäre dann natürlichen Ursachen geschuldet, vielleicht wegen der Erholung der Erde aus der „Kleinen Eiszeit“, über die wir weiter unten noch sprechen werden.

Die vom IPCC genannte Gleichgewichts-Sensitivität beträgt S = 3°C, also etwa drei mal so viel wie der rückkopplungsfreie Wert von S = 1°C. Folglich hätte die CO2-induzierte Erwärmung den IPCC-Modellen zufolge drei mal größer sein müssen, also ΔT = 1,54° C, was substantiell mehr ist als beobachtet. Um diese blamable Überschätzung zu rechtfertigen, nehmen die Modelle des Establishments an, dass ein großer Teil dieser Erwärmung durch Abkühlung durch Aerosole aufgefangen worden ist – beispielsweise durch kleine Schwefelpartikel aus der Verbrennung stark schwefelhaltiger Kohle und Öl. Tatsächlich weiß man, dass bei großen Vulkanausbrüchen freigesetzte Schwefelpartikel wie beim Ausbruch des indonesischen Vulkans Tambora im Jahre 1815 mehrere Jahre lang zu einer weltweiten Abkühlung geführt hatten. Aber der Teufel steckt im Detail, und viele Wissenschaftler, die sorgfältig die Physik dahinter untersucht hatten, betrachten die Aerosol-Korrekturen größten teils als einen Schummel-Faktor, ins Spiel gebracht seitens des Globale-Erwärmung-Establishments, um zu vermeiden zugeben zu müssen, dass der Gleichgewichts-Temperaturanstieg durch eine Verdoppelung des CO2-Gehaltes viel weniger als S = 3°C beträgt.

Aus all dem folgt, dass mehr CO2 für die Menschheit erheblich von Vorteil ist.

Es ist ein großes Problem für die Menschheit. Falsch, das genaue Gegenteil ist der Fall: Mehr CO2 wird ein Vorteil für die Menschheit sein. Die prophezeite Erwärmung durch CO2 ist erheblich übertrieben. Die Gleichgewichts-Erwärmung durch eine CO2-Verdoppelung beträgt nicht 3°C, was man marginal vielleicht als Problem ansehen könnte, sondern eher etwa 1°C, was vorteilhaft wäre. Man sollte nicht vergessen, dass „globale Erwärmung“ ein Mittelwert ist. In den Tropen wird es kaum Erwärmung geben, ebenso über Mittag. Irgendeine Erwärmung wird es hauptsächlich in gemäßigten und polaren Gebieten geben sowie nachts. Dies wird die landwirtschaftliche Saison in vielen Ländern wie Kanada, Skandinavien und Russland verlängern. Außerdem verstärkt mehr CO2 die Effizienz der Photosynthese der Pflanzen und macht diese dürreresistenter. Fazit: Alles in allem wird mehr CO2 für die Menschheit ein großer Vorteil sein.

Eine gemeinsame globale Anstrengung ist erforderlich, um die Erwärmung zu bekämpfen. Angesichts der Kommentare oben ist dies blanker Unsinn. Maßnahmen der Regierung, um das gar nicht existierende Problem zu bekämpfen, haben die Landschaft mit Windparks und Solarfarmen verschandelt. Sie haben den Strompreis stark steigen lassen, was unverhältnismäßig die Ärmsten der Gesellschaft getroffen hat. Maßnahmen der Regierung haben die Wissenschaft korrumpiert, sie wurde mit Geld überflutet, damit sie zu politisch korrekten Ergebnissen kommt. Es ist endlich an der Zeit für Regierungen, die Wahrheit über globale Erwärmung zuzugeben. Erwärmung ist nicht das Problem. Die Maßnahmen der Regierung sind das Problem.

[Es folgt eine längere Passage zu Klimamodellen. Dann folgen längere Passagen zu den Themen Satellitenbeobachtrungen und Datenmanipulation. All dies ist ebenfalls schon in verschiedenen Beiträgen auf dieser Website zur Sprache gekommen.]

[Hier folgt im Interview eine ausführliche Beschreibung und Diskussion zu allen Aspekten bzgl. globale Erwärmung, als da wären die fabrizierte „Nichtexistenz“ des Stillstands, der Hockeyschläger, Datenmanipulationen usw. Das war alles wiederholt und seit Längerem Thema von Beiträgen auf diesem Blog, so dass dieser teil übersprungen wird. Dann aber geht es darum, ob wirklich Grund zum Alarm besteht, wobei die Ausführungen Happers sehr interessant sind. Im letzten Teil geht es dann noch um den sog. „Konsens“, zu dem Happer ebenfalls treffende Bemerkungen abgibt:]

TheBestSchools

Lassen Sie uns jetzt zum nächsten Punkt kommen, nämlich: Selbst unter der Annahme, dass die globale Erwärmung eine etablierte Tatsache und durch menschliche Aktivitäten verursacht ist (im Besonderen durch Verbrennung fossiler Treibstoffe), beharren Kritiker immer noch darauf, dass man mit Fug und Recht hinterfragen kann, ob es irgendwelche Gründe für Alarm angesichts dieser Fakten gibt. Oftmals werden Gründe angeführt, warum globale Erwärmung so schlecht nicht ist, darunter:

Die Mittelalterliche Warmzeit zeigt, dass eine globale Erwärmung um ein paar Grad keine Katastrophe ist.

Die mögliche Existenz verschiedener negativer Rückkopplungseffekte zeigt, dass sich die Erwärmung sehr gut selbst begrenzen könnte. Unter diesen negativen Rückkopplungen sind:

verstärkte Wolkenbildung, welche mehr Sonnenenergie reflektieren

Zunehmende Vegetation, welche mehr CO2 absorbiert

Unterstützer des Konsens‘ würden sagen, dass die Größenordnung des gegenwärtigen anthropogenen Antriebs zu Erwärmungen führen muss, welche jene aus früheren historischen Epochen marginalisiert.

Was meinen Sie dazu?

William Happer

Ich bin davon überzeugt, dass der größte Teil der Erwärmung natürlichen Gründen geschuldet ist, auf welche die Regierungen keinerlei Einfluss haben.

Wie ich oben erläutert habe, stelle ich nicht in Frage, dass sich die Erde nach dem Ende der Kleinen Eiszeit erwärmt hat, aber ich bin überzeugt, dass der größte Teil der Erwärmung natürliche Ursachen hat. Schon jetzt sehen wir mehr Vegetation auf der Erde, die mehr CO2 absorbiert. Aber wie ich in der Antwort auf Ihre nächste Frage ausführen werde denke ich, dass mehr CO2 gut für die Welt ist, dass diese seit Zehner-Millionen Jahren in einer CO2-Armut gesteckt hat und dass 1000 oder 2000 ppm ideal wären für die Biosphäre. Ich bin perplex angesichts der hysterischen Versuche, das CO2-Niveau unter 350 ppm zu drücken, ein Wert, den man aus einem Blick in die Glaskugel gefunden hat, der aber in keiner Weise auf Wissenschaft beruht.

TheBestSchools

Jetzt gehen Sie weiter als viele andere Kritiker des Konsens-Standpunktes, wenn Sie nicht nur betonen, dass gesteigerte atmosphärische CO2-Konzentrationen und globale Erwärmung keine Katastrophe seien, sondern dass sie sogar in großem Umfang vorteilhaft für die Menschheit seien.

Können Sie das bitte näher ausführen?

William Happer

Wir verdanken unsere Existenz grünen Pflanzen, die Kohlendioxid-Moleküle (CO2) und Wasser-Moleküle (H2O) mit Hilfe des Sonnenlichts in Kohlehydrate umwandeln. Ein Sauerstoff-Molekül (O2) wird für jedes CO2-Molekül freigesetzt, welches zu einem Kohlehydrat wird. Viel Sauerstoff ist ein Lebenselixier für die meisten Tiere. Aber wegen des derzeit sehr geringen CO2-Nivaus setzt Sauerstoff der photosynthetischen Effizienz von C3-Pflanzen ernsthafte Grenzen. Dies betrifft alle Bäume und viele landwirtschaftlich genutzte Pflanzen.

Pflanzen an Land bekommen den benötigten Kohlenstoff aus dem CO2 in der Luft. Die meisten Pflanzen ziehen andere Nährstoffe – Wasser, Stickstoff, Phosphor, Kalium – aus dem Boden. Genau wie Pflanzen besser wachsen auf gedüngten und gut bewässerten Böden, wachsen sie auch besser in der Luft mit CO2-Konzentrationen, die viele Male höher liegen als gegenwärtig.

[Es folgen ein paar Absätze, in denen er oben gesagtes näher erläutert und wie der geringe CO2-Gehalt das Pflanzenwachstum beeinträchtigt. Alle Absätze, die hier in der wörtlichen Übersetzung übersprungen werden, listet er am Ende konzentriert auf. Als nächstes jedenfalls geht es um den „Konsens“. Das folgt hier wieder in der direkten Übersetzung:]

TheBestSchools

Als nächstens wollen wir uns dem so genannten „Konsens“ zuwenden, von dem es heißt, dass er unter den Wissenschaftlern weltweit bzgl. globaler Erwärmung existiert.

Wir haben diesen Terminus der Bequemlichkeit halber verwendet, und es sieht mit Sicherheit so aus, als ob die Mehrheit der Wissenschaftler, die sich zu diesem Thema zumindest öffentlich äußern, dazu neigen, die offizielle IPCC-Position zu stützen. Andererseits wird die Behauptung, dass der Konsens „überwältigend“ ist (häufig wird die Zahl „97 Prozent“ genannt) von deren Befürwortern herangezogen, um Diskussionen und abweichende Meinungen abzuwürgen. Aus diesem Grund war die Behauptung der Kritik einiger Konsens-Kritiker ausgesetzt.

Beispiel: In ihrem Buch Taken by Storm (Key Porter Books, rev. ed. 2007) behaupten Christopher Essex und Ross McKitrick, dass ein solcher „Konsens“ nur wegen etwas besteht – falls das überhaupt so ist – was sie einen „perfekten Sturm“ nennen, in welchem übertriebene Behauptungen durch NGO-Propagandisten (wie Greenpeace) aufgenommen und von den Medien noch weiter aufgebauscht werden, was den Politikern (die normalerweise kein wissenschaftliches Hintergrundwissen haben) das Gefühl vermittelt, dass sie etwas tun müssen, was man bemerkt. All dies, behaupten sie, hat einen dämpfenden Effekt auf Wissenschaftler, die nicht den Konsens-Standpunkt teilen, die dies jedoch nicht offen sagen, weil sie Nachteile für ihre Laufbahn befürchten. In diesem Sinne wird der „Konsens“ zu einer sich selbst erfüllenden Prophezeiung.

Wie sehen Sie das? Gibt es einen Konsens bzgl. globaler Erwärmung? Ist er überwältigend? Falls ja, sind die Gründe dafür das, was Essex und McKitrick anführen, oder andere?

William Happer

Essex und McKitrick sind zur Zielscheibe geworden in ihrem Buch Taken by Storm. Es ist verblüffend, dass viele Skeptiker wie ich selbst im Ruhestand sind. Abgesehen von Rufmord gibt es nicht viel, was uns die Angriffshunde des Klimakonsens‘ tun können, zumindest bisher. Aber junge Akademiker wissen genau, dass sie ihre Karriere aufs Spiel setzen, wenn sie irgendwelche Zweifel an der Parteilinie bzgl. globaler Erwärmung verlauten lassen.

Was den Konsens in der Wissenschaft betrifft, kann niemand eloquenter sein als Michael Crichton in seinem Vortrag „Aliens Cause Global Warming“ (PDF) am California Institute of Technology im Jahre 2003:

[Es folgt ein Ausschnitt aus diesem Vortrag, der in der berühmten Aussage kulminiert:]

In der Wissenschaft ist ein Konsens irrelevant. Relevant sind ausschließlich reproduzierbare Ergebnisse. Die größten Wissenschaftler in der Geschichte sind genau aus dem Grunde die größten, weil sie mit dem Konsens gebrochen haben.

Es gibt so etwas wie Konsens in der Wissenschaft nicht. Falls es Konsens ist, ist es keine Wissenschaft. Falls es Wissenschaft ist, ist es kein Konsens. Punkt!“ Soweit Crichton.

TheBestSchools

Hier klangen schon schwierige moralische, gesellschaftliche und politische Dinge an, zusätzlich zu den rein wissenschaftlichen Dingen. Darum wollen wir jetzt in den Teil des Interviews einsteigen, in dem wir direkt einige der gesellschaftlichen Dinge ansprechen, die für die öffentliche Diskussion über globale Erwärmung relevant sind.

Im Einzelnen möchten wir Ihnen vier spezielle Fragen stellen:

Sind konzertierte Maßnahmen der Regierung auf globaler Ebene wünschenswert?

Falls ja, welchem Prinzip der Fairness sollte bei jenen Maßnahmen Rechnung getragen werden?

Wenn die Hürden sehr hoch sind und es einen breiten wissenschaftlichen Konsens gibt, sollten Kritiker der Mainstream-Standpunkte nichtsdestotrotz aufgefordert werden, ihre Standpunkte frei benennen zu können?

Ist politisches Eintreten durch Wissenschaftler überhaupt etwas Gutes?

[Die Frage wird dann noch näher ausgeführt und alle wesentlichen Punkte angesprochen, die auch hier in vielen Beiträgen auf diesem Blog schon angeklungen waren. Daher folgt hier gleich Happers Antwort:]

William Happer

Lassen Sie mich beginnen mit ihren oben aufgelisteten Fragen:

Sind konzertierte Maßnahmen der Regierung auf globaler Ebene wünschenswert? Nein! Mehr CO2 ist gut für die Welt, nicht schlecht. Konzertierte regierungsamtliche Maßnahmen können trotzdem ergriffen werden, wie schon so oft in der traurigen Historie menschlicher Dummheit. Ein Beispiel sind die Kreuzzüge, als die Anführer des „Westlichen Christentums“ sich zusammengeschlossen haben, um die Völker des östlichen Mittelmeergebietes zu bestrafen. Die Ära der Prohibition in den USA ist ein lokaleres Beispiel eines idiotischen Kreuzzuges, der sich als verheerend herausgestellt hatte. Einige wenige Opportunisten werden erheblich profitieren, falls konzertierte Maßnahmen bzgl. Klima ergriffen werden, aber die meisten Menschen und auch die Umwelt werden leiden.

Werden unsere allmächtigen Regierungen die Zunahme oder die Abnahme der Sonnenaktivität bekämpfen? Wo ist Owen Glendower (Bild 31 links), wenn wir ihn brauchen, um die „Geister aus der dunklen Tiefe“ zu beschwören, oder King Canute, um die Gezeiten zu stoppen? Ich bin nicht erpicht darauf, mich wahnwitzigen, von der Regierung gesponserten Geoengineering-Programmen eines flüchtigen Dr. Strangelove zu unterwerfen. Auch ist die Reduktion der menschlichen Population von derzeit sieben Milliarden Menschen auf nicht mehr als 1 Milliarde nicht sehr anziehend für mich, obwohl dies durch einflussreiche Klimaberater von Politikern und sogar des Papstes befürwortet wird. Sind wir gezwungen, Strohhalme zu ziehen, um zu entscheiden, welche sechs der sieben Menschen vom Angesicht der Erde verschwinden müssen?

Bzgl. CO2 sollten keinerlei Maßnahmen ergriffen werden. Aber ich stehe enthusiastisch hinter Maßnahmen gegen die wirkliche Verschmutzung von Luft, Boden oder Wasser durch Flugasche, Oxide oder Schwefel sowie Stickstoff aus der schlampigen Verbrennung von Kohle, oder Wasserverschmutzung durch sorglosen Umgang mit Düngern und Pestiziden, oder auch Plastikmüll in den Ozeanen infolge menschlicher Schlampigkeit.

Falls ja, welchem Prinzip der Fairness sollte bei jenen Maßnahmen Rechnung getragen werden? Ich betrachte den Krieg gegen den verantwortungsvollen Umgang mit Kohle und anderen fossilen Treibstoffen als zutiefst unmoralisch. Er wird die meisten Menschen verarmen lassen infolge steigender Energiekosten. Er wird kumpelhaft Kapitalisten bereichern, die den Rückhalt der Regierung haben, wenn sie die Menschen zwingen, ihre ineffiziente, kostspielige und unzuverlässige Energie aus Windmühlen und Solarparks zu kaufen. Es ist wie die französische Adlige, die als man ihr sagte, dass die Diner kein Brot mehr hätten geantwortet hatte: „Dann lasst sie Kuchen essen!“. Bei verantwortungsvoller Verwendung setzen fossile Treibstoffe nur vernachlässigbare Mengen an Verschmutzern frei wie Flugasche, Schwefel- und Stickoxide usw. Das so stark dämonisierte CO2, das zusammen mit H2O freigesetzt werden muss, ist tatsächlich ein Vorteil für die Erde, und nicht ein Verschmutzer.

Wenn die Hürden sehr hoch sind und es einen breiten wissenschaftlichen Konsens gibt, sollten Kritiker der Mainstream-Standpunkte nichtsdestotrotz aufgefordert werden, ihre Standpunkte frei benennen zu können? Jawohl! Dies ist die unveräußerbare Antwort für eine freie Gesellschaft, für welche ich und viele andere kämpfen, genau wie unsere Vorfahren es getan haben.

Ist politisches Eintreten durch Wissenschaftler überhaupt etwas Gutes? Jawohl! Wissenschaftler sollten sich auf jeder Seite eines kontroversen Themas äußern dürfen. Beispiel: Andrei Sacharov, einer meiner Helden, war ein leidenschaftlicher Verfechter eines Teststopps von Kernwaffen in der Atmosphäre. Er war davon überzeugt, dass der radioaktive Fallout der Bevölkerung der ganzen Welt große Schäden zufügen würde. Mein Onkel Karl Morgan, Gründer des Bereiches Gesundheits-Physik war ein leidenschaftlicher politischer Gegner, die Bevölkerung sorglos Strahlung auszusetzen.

[Als Nächstes führt Happer aus, dass er von Jugend auf für die Demokraten in den USA aktiv war. Es war zutiefst schmerzhaft für ihn zu sehen, wie sehr die Demokraten „sich genauso massiv der globalen Erwärmung verschrieben haben wie früher die Puritaner in Massachussetts den Hexen“.

Bei der nächsten Frage geht es darum, wie man am besten CO2-Emissionen reduzieren könnte. Dafür sieht Happer keinerlei Notwendigkeit, vielmehr würden solche Maßnahmen große Belastungen und keinerlei Vorteile bringen („All pain – no gain“). Weiter geht es dann mit „Freedom of Speech“, also der Redefreiheit. Dazu führt Happer aus:]

William Happer:

In der Wissenschaft kann es ohne Kontroversen keinerlei Fortschritt geben!

Fortschritte in der Wissenschaft sind ohne Kontroversen nicht möglich. Beispielsweise gab es Jahrzehnte Lang hitzige Debatten um die Theorie von Alfred Wegener bzgl. der Kontinentalverschiebung. Stanley Prusiner musste erbitterten Widerstand hinnehmen bzgl. seiner Theorie von Prionen und Rinderwahnsinn, weil diese Theorie gegen das Dogma stand, dass DNA oder RNA Auslöser von Infektionskrankheiten sein müssen, und nicht ein Protein.

Der Unterschied zur Kontroverse um die globale Erwärmung ist diesmal die direkte Involvierung von Regierungen auf einer Seite. Wie Sie sagen, Forderungen des Kongresses, denen zufolge Klimaskeptiker dunkler Machenschaften angeklagt werden sollten, sind in den USA beispiellos, obwohl es einen ominösen Präzedenzfall gibt in Gestalt des Lysenkoismus, über den wir vorhin gesprochen haben.

Bernie Sanders sagt, er wird „Klimaleugner vor Gericht bringen“, falls er zum Präsidenten der USA gewählt werden würde. Was hätten Menschen wie ich von einem Präsidenten Sanders zu erwarten? Ein Konzentrationslager? Das Erschießungskommando?

Und was geschah mit dem Ersten Artikel der US-Verfassung?

Es gibt viele ehrliche Wissenschaftler, die mit dem Thema Klima der Regierung zuarbeiten. … Ich bewundere diese Wissenschaftler und mache sie nicht verantwortlich für die aggressiven Wenigen, die mich und andere diffamieren als vermeintliche Prostituierte der Industrie fossiler Treibstoffe.

Während des Großen Terrors unter Stalin waren die Äquivalente zu bösen fossilen Treibstoffen Leon Trotzki und seine Anhänger. Sie waren eine direkte Bedrohung für Stalins Kontrolle über die weltweite kommunistische Bewegung, genau wie heute Klimaskeptiker angesehen werden als eine existentielle Bedrohung des Globale-Erwärmung-Establishments.

Ich wäre überrascht, wenn die Förderung von Klimaskeptikern insgesamt über 2 oder 3 Millionen Dollar pro Jahr hinausgehen würde, und selbst diese Schätzung könnte noch viel zu hoch sein. Dagegen beliefen sich während der letzten Jahre die Ausgaben der US-Regierung für die Klimaforschung (PDF) etwa 20 Milliarden Dollar pro Jahr – über 1000 mal mehr als die Förderung von Skeptikern. Aber selbst dieser gewaltige finanzielle Vorteil ist nicht ausreichend, um den beklagenswert schwachen wissenschaftlichen Fall zu stützen, dass die Welt durch mehr CO2 in Gefahr ist.

TheBestSchools:

Dann gibt es da noch die Frage, ob sich Wissenschaftler in die Politik einbringen sollten, und zwar bis zu dem Grad, den wir bei der Episode globale Erwärmung erlebt haben. Argumentiert wird mit zwei Gründen:

a) Politiker könnten faul werden und ihre Verantwortung, sich zu informieren, von sich wegzuschieben, selbst besser das Thema zu verstehen.

b) Wissenschaftler könnten die Integrität wissenschaftlicher Forschung selbst kompromittieren bis zu einem Grad, in dem sie sich selbst schädigt, wenn es in Zukunft erneut kontroverse Themen geben sollte.

William Happer:

Viele diesbezügliche Dinge haben wir schon angesprochen. Ich denke, dass der Wissenschaft allgemein bereits sehr großer Schaden zugefügt worden ist durch den Wahnsinn um die globale Erwärmung während der letzten Jahrzehnte. Vor zwanzig Jahren haben vermeintliche Experten-Wissenschaftler feierlich erklärt, dass unsere Kinder und Enkel nicht mehr wissen werden, was Schnee ist. Vor ein paar Wochen musste sich Washington D.C. mühsam aus 3 Fuß Schnee [ca. 90 cm] herauswühlen – vielerorts ein neuer Rekord.

Bei der Entgegennahme seines Friedensnobelpreises (der auch Yassir Arafat verliehen worden war), sagte Al Gore, dass die Arktis bis 2013 sommers eisfrei sein könnte infolge der CO2-Emissionen. Ich ersuche jeden Leser, sich auf der entsprechenden Daten-Site umzusehen. Nur wenige Minuten der Betrachtung des Links zum „Meereis“ dürften ausreichen zu erkennen, dass sich seit dem Jahr 2007 das Meereis kaum verändert hat.Mit allem Respekt gegenüber Al Gore, es gab sehr viel Sommereis im Jahre 2013.

Ich hoffe, wenn der Globale-Erwärmung-Skandal einmal hinter uns liegt, dass man der Wissenschaft dann vergibt, dass sie sich so lange diesem Vorgang verschrieben hat. Die Biologie der Sowjetunion brauchte Jahrzehnte, um sich von dem durch den Lysenkoismus angerichteten Schaden zu erholen.

TheBestSchools:

Zum Schluss möchten wir Sie bitten – im Telegrammstil, wenn Sie mögen – uns die fünf stärksten Argumente gegen den Konsens-Standpunkt zu nennen, ebenso wie die fünf schwächsten Argumente, die die Befürworter allgemein pro dieses Konsens-Standpunktes anführen.

William Happer:

Klimamodelle haben weit mehr Erwärmung prophezeit als den Beobachtungen zufolge tatsächlich eingetreten ist. Dies ist ein ganz starker Beweis dafür, dass die aus einer Verdoppelung des CO2-Gehaltes resultierende Gleichgewichts-Temperatur nicht 3°C bis 3,5°C beträgt, wie es den meisten Klimamodellen zufolge der Fall sein soll, sondern viel weniger, möglicherweise nahe 1°C.

Der Konsens hat weitgehend die enormen positiven Auswirkungen von mehr CO2 in der Luft ignoriert.

Zu den starken Temperaturänderungen der Mittelalterlichen Warmzeit und der Kleinen Eiszeit war es lange vor dem großmaßstäblichen Verbrauch fossiler Treibstoffe nach der Industriellen Revolution gekommen.

Es gibt eine starke Korrelation zwischen Temperatur und Sonnenaktivität.

Rasende persönliche Angriffe auf glaubwürdige Gegner zeigen, dass Unterstützer des Konsens‘ eine sehr schwache wissenschaftliche Grundlage haben. Man braucht keine potentiell kontraproduktiven persönlichen Angriffe, wenn man starke wissenschaftliche Argumente auf seiner Seite hat.

Schwächste Argumente pro Konsens-Standpunkt:

97 Prozent aller Wissenschaftler stimmen dem Konsens zu.

Die Temperatur ist während des vorigen Jahrhunderts gestiegen, das CO2-Niveau auch. Darum wurde der Temperaturanstieg durch CO2 verursacht.

zunehmendes CO2.

Von der Regierung finanzierte, den Konsens unterstützende Forscher befinden sich nicht in einem Interessenkonflikt.

Wissenschaftliche Opponenten des Konsens‘ sind Prostituierte der bösen Fossile-Treibstoffe-Industrie.

TheBestSchools

Vielen Dank, Prof. Happer, für dieses Interview!

William Happer ist Cyrus Fogg Brackett Professor der Physik, Emeritus, im Fachbereich Physik der Princeton University. Als langzeitliches Mitglied von JASON, einer Gruppe von Wissenschaftlern, die der US-Regierung als unabhängige Berater zur Verfügung stehen für die Bereiche, Wissenschaft, technik und nationale Sicherheit, war Happer Direktor des Office of Science im Energieministerium von 1991 bis 1993.

Am ehesten ist er der Öffentlichkeit bekannt als Stimme der Kritik des UN-IPCC-Konsens‘ bzgl. der globalen Erwärmung. Er wurde häufig gerufen, um als Experte auszusagen vor verschiedenen Komitees des US-Kongresses zum Thema globale Erwärmung (Klimawandel). Im Jahre 2015 fand er sich im Zentrum einer Kontroverse, bei der eine so genannte „verdeckte“ Operation involviert war, die Greenpeace organisiert hatte.

Eine Liste mit einigen Forschungsergebnissen von Prof. Happer findet sich hier.

Link: http://www.thebestschools.org/special/karoly-happer-dialogue-global-warming/william-happer-interview/

—————————————————

So weit Ausschnitte aus diesem Interview. Inzwischen geht es aber weiter! Der Washington Post zufolge wird sich Prof. Happer mit dem gewählten Präsidenten Trump zu einem Gespräch treffen. Im jüngsten Rundbrief der GWPF vom 16.1.2017 wird folgendermaßen darauf hingewiesen:

Trump trifft den Priceton-Physiker der sagt, dass CO2 gut für uns ist

Ja, Donald Trump hat sich mit Al Gore getroffen. Aber vor ein paar Tagen traf sich dem Transitions-Team von Trump zufolge der gewählte Präsident auch mit William Happer, einem Professor der Physik an der Princeton University, welcher eine prominente Stimme war beim Hinterfragen, ob wir uns wegen des vom Menschen verursachten Klimawandels Sorgen machen müssten. Bei einer Anhörung vor dem Senat im Jahre 2015 argumentierte Happer, dass „die Vorteile von mehr Kohlendioxid in der Luft die Nachteile weit überwiegen, beispielsweise durch eine Steigerung landwirtschaftlicher Erträge“. Happer ist ein hervorragender Physiker (und Mitglied des Beratungsgremiums der GWPF), der prominente Stellungen im Energieministerium bekleidet hatte, ebenso wie an seiner Universität, und der auf 200 wissenschaftliche Veröffentlichungen mit seinem Namen zurückblicken kann. – Chris Mooney, The Washington Post, 13 January 2017

——————————————–

Die Aussagen Happers bzgl. Treibhausgase werden in dem Rundbrief ebenfalls angesprochen:

William Happer: Die Wahrheit über Treibhausgase

Thema des Autors war es, die bemerkenswertesten Beispiele jener Moral-Epidemien zu sammeln, welche mal aus dem einen, dann aus einem anderen Grund so begeistert kolportiert worden sind. Außerdem sollte er damit zeigen, wie einfach sich die Massen haben in die Irre führen lassen, und wie nachahmend und gesellig Menschen sind, sogar noch hinsichtlich ihrer Verblendung“, schrieb Chalres Mackay im Vorwort der ersten Ausgabe seiner Extraordinary Popular Delusions and the Madness of Crowds [etwa: Außerordentlich populäre Wahnvorstellungen und die Verrücktheit der Massen]. Ich möchte über eine zeitgemäße Moral-Epidemie sprechen, nämlich über das Narrativ, dass eine zunehmende atmosphärische Konzentration von Treibhausgasen, insbesondere Kohlendioxid, katastrophale Folgen für die Menschheit und den Planeten haben wird. Dieser moderne „Klima-Kreuzzug“ hat viel gemein mit den Kreuzzügen des Mittelalters, die Mackay beschreibt, gibt es doch auch hier wahre Gläubige, Opportunisten, Zyniker, geldhungrige Regierungen, Manipulateure aller Art und sogar Kinder-Kreuzzüge. – William Happer: The Truth about Greenhouse Gases, Global Warming Policy Foundation (PDF)

Alles übersetzt und aufbereitet von Chris Frey EIKE




Klima-Alarmisten drücken den Panik-Knopf

Diese Alarmisten, die immer behaupten, der wissenschaftlichen Methode verpflichtet zu sein, Beweisen zu folgen, behaupten, dass Trump dabei ist, einen Krieg gegen die Wissenschaft anzuzetteln. Teil seines Schlachtplanes sei es, Computer und Dateien mit Daten und Forschungen von Agenturen der Regierung zu konfiszieren, die die Theorie stützen, dass Menschen eine katastrophale globale Erwärmung verursachen. Am 13. Dezember veröffentlichte die Washington Post ein Op Ed mit dem Titel [übersetzt] „warum ich versuche, öffentliche Klimadaten zu konservieren, bevor Trump das Amt übernimmt“, sowie einen Artikel mit der Schlagzeile [übersetzt] „Wissenschaftler versuchen verzweifelt, US-Klimadaten zu kopieren in der Furcht, diese könnten unter Trump verschwinden“. In Letzterem wird beschrieben, wie Wissenschaftler sich abmühen, Daten der Regierung und Forschung außerhalb von Computern der Regierung zu kopieren und zu speichern, bevor Trump sein Amt antritt. Warum? Weil, wie der Autor des Op Ed schrieb:

Trump ist es ernst, offen der Wissenschaft den Krieg zu erklären … Es ist eine Inquisition. Es ist eine Bücherverbrennung im 21. Jahrhundert. Die kommende Regierung steht dem wissenschaftlichen Prozess bewusst feindlich gegenüber, mit weit reichenden Implikationen.

Eine der konkretesten Konsequenzen scharfer Kürzungen bei der Finanzierung der Klimawissenschaft ist der potentielle Verlust kritischer Daten – sei es durch Vernachlässigung oder aus bösem Willen – die globalen Bemühungen zugrunde liegen, unser Klimasystem zu verstehen. Nach Allem, was man hört, ist es genau das, was Trump und sein Team wollen: Ignoranz gegenüber der Art und Weise, wie menschliche Maßnahmen unseren Planeten betreffen, macht es einfacher, den Status Quo zu erhalten.

[Puh! Warum fällt mir bei sowas immer die Verdrehung der Tatsachen à la „Neues Deutschland“ zu DDR-Zeiten ein? Anm. d. Übers.]

Dies ist eine paranoide Hasstirade ohne jeden Beweis als Beleg. Aber noch scheinen, wie detaillierter im Artikel der Post ausgeführt wird, viele Wissenschaftler und Klima-Alarmisten diesen paranoiden Wahn zu teilen:

Alarmiert durch die Gefahr, dass Jahrzehnte lange kritische Klima-Messungen unter einer feindlich gesinnten Trump-Regierung verschwinden könnten, haben Wissenschaftler fieberhaft damit begonnen, unzählige Daten der Regierung auf unabhängige Server zu kopieren in der Hoffnung, sie vor jedweder politischer Einmischung in Sicherheit zu bringen.

Wer braucht Beweise, wenn man unbegründete Ängste und Verdacht schürt? Um fair zu sein: Trump hat versprochen, Budgets zu kürzen und die Forschungsbemühungen der Regierung neu auszurichten, und da viele der Forscher, die jetzt fieberhaft Dateien kopieren, wahrscheinlich seit Jahren keinerlei Forschungsbeiträge geleistet haben bzgl. Gesundheit, Wissen oder Wohlstand, könnten sie zu Recht um ihre Arbeitsplätze fürchten. Selbst dann gibt es aber noch keinerlei Beweise, dass ihre bisher erbrachten Leistungen in Gefahr sind, beseitigt zu werden.

Worin die Ironie dabei liegt, führt Breitbart aus:

Niemand hat den ,Klimadaten‘ während der letzten drei Jahrzehnte mehr Schäden zugefügt als die korrupten, politisierten Aktivisten-Wissenschaftler, die jetzt befürchten, neutralisiert oder aus dem Amt gejagt zu werden durch die neue Regierung.

Eine der vielen schockierenden Enthüllungen der Klimagate-E-Mails 2009 war, dass in einigen Fällen Rohdaten der Temperatur von Wissenschaftlern gelöscht oder ihnen verloren gegangen sind, deren Job es doch eigentlich war, diese Daten zu erhalten. Phil Jones von der HadCRUT gab zu, dass sie die „originalen Rohdaten“ aus Gründen des „Speicherplatzes“ nicht erhalten haben.

Es ist der Esel, der den anderen als Langohr beschimpft! Genau die Leute, die befürchten, dass Trump Beweise für den menschlichen Klimawandel verschwinden lässt, haben mehr zum Aufhalten von Fortschritten beim wissenschaftlichen Verständnis im Bereich planetarische Physik getan seit die katholische Kirche Galileo zum Widerruf gezwungen hat.

In die EPA eingebettete Alarmisten haben den politischen Prozess ebenfalls korrumpiert. Die EPA ist überführt, die Öffentlichkeit illegalerweise dazu zu bringen, für EPA-Vorschriften Lobbyarbeit zu leisten, indem sie mit Umweltgruppen zusammen umweltliche Gängelungen voranbringen, um die Macht der Agentur über die Wirtschaft unter dem Deckmantel des Kampfes gegen die globale Erwärmung auszuweiten.

Klima-Alarmismus hat die Klimaforschung und die Klimapolitik korrumpiert. Das ist keine Verschwörungstheorie, sondern das ist ein Faktum!

Mehr hierzu auf der Website des Heartland Institutes www.geartland.org!

Übersetzt von Chris Frey EIKE




Der Klimamonitoring­bericht 2016 für Süddeutsch­land:…

Auf der Seite des Umweltbundesamtes ist nachzulesen, was alleine in Bayern an Monitoring- und Berichtsaufwand von vielen Instituten dazu „erwirtschaftet“ wird [5] und vor allem, dass mit jeder Expertise neue Fragen auftauchen, die weiterer, tiefstgründiger – mit viel, viel Forschungsaufwand verbundenen – Klärungen bedürfen.

Beispiel:
Das Thema „Die klimawandelgerechte Straße – Was müssen wir tun?“ stand im Mittelpunkt der zehnten Klimatagung, gleichzeitig die vierte nationale Tagung zum Global Framework for Climate Services (GFCS), die der Deutsche Wetterdienst (DWD) zusammen mit der Bundesanstalt für Straßenwesen (BASt) am 3. November ausrichtete.
Der Klimawandel ist eine der Herausforderungen für die Straßenverkehrsinfrastruktur im 21. Jahrhundert. Er verändert die Klima- und Witterungsbedingungen, denen Straßen und Straßenbauwerke ausgesetzt sind. Die Bewertung der Vulnerabilität (Verwundbarkeit) der Straßenverkehrsinfrastruktur in Bezug auf den Klimawandel und die Entwicklung geeigneter Anpassungsmaßnahmen benötigt nutzergerecht aufbereitete Klimadienstleistungen.

Um dem Bürger, der das alles zu bezahlen hat, die „Einsicht“ in die Notwendigkeit zu vermitteln, werden von UmweltministerInnen regelmäßig „Klimaberichte fürs Volk“ präsentiert und kommentiert. Der letzte solche Vorgang war die Präsentation des Klimamonitoringberichtes 2016 für Süddeutschland durch das Württembergische und das Bayerische Umweltministerium [3][4].
Obwohl „kaltesonne“ kürzlich bereits darüber berichtete
[2], soll dies für EIKE-Leser, darauf basierend, aber ergänzt mit Zusatzinformation, wiederholt werden.

Der Klimawandel muss doch irgendwo zu finden sein

Zwar lässt sich zumindest in Bayern und auch in Deutschland nirgens – sofern man ausreichend lange Zeiträume betrachtet – ein Klimawandel feststellen [6][8][9], aber weil sich das Wetter immer wieder kurzfristig ändert (vor langer, langer Zeit haben in Ägypten 7 Jahre ausgereicht, um einen Pharao vollständig zu zermürben) und seine Kapriolen fabriziert, ist der moderne Mensch angeblich tief verunsichert und sucht informelle Zuflucht bei den verantwortlichen, öffentlichen Personen. Und diese müssen leider eine schlimme Klimazukunft bestätigen:
[3] Umweltminister Franz Untersteller: „Der Klimamonitoring-Bericht 2016 belegt, dass wir in Süddeutschland künftig mit zunehmend extremeren Wetterereignissen rechnen müssen.“
[4] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz, Pressemitteilung 11.11.2016 Nr. 206/16: Scharf: Klimawandel ist Fakt
Der Klimawandel wird auch in Süddeutschland immer deutlicher spürbar. Die extremen Wettereignisse der vergangenen Jahre passen dabei in das erwartete Bild zukünftig häufiger auftretender Extremereignisse. Das betonten die Bayerische Umweltministerin Ulrike Scharf, der Baden-Württembergische Umweltminister Franz Untersteller, die Rheinland-Pfälzische Umweltministerin Ulrike Höfken sowie der Vizepräsident des Deutschen Wetterdienstes Dr. Paul Becker heute anlässlich der Veröffentlichung des aktuellen Monitoringberichts zur Klimaforschung in den drei Ländern. Scharf: „Der Klimawandel stellt uns vor neue Herausforderungen. Die extremen Wetterereignisse werden immer gegensätzlicher: das Jahrhunderthochwasser 2013 mit großflächigen Überflutungen, der extreme Trockensommer 2015 und zuletzt die Sturzfluten 2016 mit massiven regionalen Schäden. Auf diese neuen Herausforderungen müssen wir lokal, national und international reagieren. Die gemeinsame Forschung spielt dabei eine entscheidende Rolle. Und eines zeigt der neue Bericht deutlich: Der Klimawandel ist Fakt.“

Wenn es das IPCC nicht sagt, sagt es eben der DWD

Das IPCC gibt diese Aussagen nicht her und hat im letzten Sachstandsbericht alle! Aussagen zu Extremereignissen als nicht belegbar deklarieren müssen (auf EIKE zum Beispiel in [7] als Anlage gelistet). Auch die immer wieder als Klimawandel-Menetekel genannte Sturzflut am 01.06.2016 durch Simbach am Inn hatte als Ursache erkennbar menschliches Versagen.
Doch wofür hat man den Deutschen Wetterdienst und viele Institute. Wie die „Öffentlich Rechtlichen“ sich aufgrund des „Rundfunk-Staatsvertrag-Unterhaltungsauftrags“ dynamisch immer weiter aufblähen müssen, ist der Klimawandel deren Zukunfts-Geschäftsfeld. Und dafür erstellen sie rund um die Uhr jede Menge Berichte und Simulationen – wie eben auch den besagten Klimabericht 2016 für Süddeutschland.

[6] Der KLIWA-Monitoringbericht 2016 ist ein Ergebnis der Kooperation „Klimaveränderung und Konsequenzen für die Wasserwirtschaft (KLIWA)“ der Länder Baden-Württemberg, Bayern und Rheinland-Pfalz sowie des Deutschen Wetterdienstes (DWD). Er bewertet und dokumentiert Veränderungen des Klimas und des Wasserhaushalts in Baden-Württemberg, Bayern und Rheinland-Pfalz seit 1931 bis zum Jahr 2015. … Diese Auswertungen werden in mehrjährigen Abständen fortgeschrieben …
[1] Zusätzlich werden erstmals außergewöhnliche und extreme Ereignisse des Zeitraums 2011–2015 … dargestellt.

Warum das Wetter oder Klima ausgerechnet mit dem Jahr 1931 beginnt und seitdem speziell für Süddeutschland seit der letzten Eiszeit der Maßstab sein soll, müsste man (er)klären, aber vielleicht gibt es einen Klimawürfel zum Ermitteln immer neuer Jahreszahlen. Es kann natürlich auch sein, dass erst ab dann (und teilweise noch viel später) ausreichend Daten vorliegen. Auch eine Darstellung von „außergewöhnlichen“ Ereignissen über 4 Jahre scheint mehr einer Effekthascherei, als seriöser Klimadarstellung zu entspringen. Jedenfalls erscheint vieles in diesem Bericht mehr als nebulös.

Der Klimawandel in Süddeutschland

Lufttemperatur

[1] Monitoring-Bericht 2016: Klimawandel in Süddeutschland: Lufttemperatur
… Für den Zeitraum 1931 bis 2015 ist eine Zunahme des Gesamttrends auf durchschnittlich ca. +1,3 °C sowie eine Verstärkung der Trendsignifikanz festzustellen…. Im Vergleich zwischen Winter- und Sommerhalbjahr setzt sich das schon in den letzten Monitoringberichten beschriebene Verhalten weiter fort: Die Erwärmungszunahme fällt in den letzten ca. 15 Jahren im Sommer- stärker aus als im Winterhalbjahr. Dennoch ist der Gesamttrend seit 1931 (Beginn der Auswertung) im Winterhalbjahr bisher immer noch stärker ausgeprägt als im Sommerhalbjahr (Winterhalbjahr: +1,3 bis +1,6 °C/85 Jahre; Sommerhalbjahr: +0,8 bis +1,2 °C/85 Jahre). Für fast alle Monate zeigen sich Zunahmen der mittleren Lufttemperatur. Die stärksten positiven Trends im Jahresverlauf sind für den Zeitraum 1931-2015 und dabei in den Monaten Dezember, Januar, März und August zu finden. Nur im Monat September sind über den Gesamtzeitraum teilweise leicht negative Trends zu beobachten, die aber nicht signifikant sind …

Wie solche „Erwärmungszunahmen“ im langfristigen Vergleich auf kümmerliche Reste zusammenschrumpfen und kaum sichtbar werden, zeigen die folgenden Bilder 1 bis 4 für Bayern.
Zum Beispiel betrachte man den Sommer: „Die Erwärmungszunahme fällt in den letzten ca. 15 Jahren im Sommer stärker aus als im Winterhalbjahr“. Der Sommer 2016 hatte die Temperatur des Sommers vom Jahr 1905, der Herbst von 1884, der Frühling von 1894 und nur der Winter lag um 0,5 Grad höher als der vom Jahr 1915.

Bild 1 Temperaturverlauf Winter: Baden-Württemberg und Bayern (braun), Niederschlag Bayern (blau) von 1880 – 2016. Vom Autor anhand der DWD-(FTP)Daten erstellt

Bild 2 Temperaturverlauf Frühling: Baden-Württemberg und Bayern (braun), Niederschlag Bayern (blau) von 1880 – 2016. Vom Autor anhand der DWD-(FTP)Daten erstellt

Bild 3 Temperaturverlauf Sommer: Baden-Württemberg und Bayern (braun), Niederschlag Bayern (blau) von 1880 – 2016. Vom Autor anhand der DWD-(FTP)Daten erstellt

Bild 4 Temperaturverlauf Herbst: Baden-Württemberg und Bayern (braun), Niederschlag Bayern (blau) von 1880 – 2016. Vom Autor anhand der DWD-(FTP)Daten erstellt

Wie „kaltesonne“ schon hinweist, fällt der „schlimme Klimawandel“ in Süddeutschland vollkommen in sich zusammen, sobald man noch etwas weiter in der Klimageschichte zurück geht.

Dazu der Temperaturverlauf vom Hohenpeißenberg (Bild 5). Nach einer zwischenzeitlichen, leichten Abkühlung ist gerade wieder die Temperatur beim Übergang vom 18. ins 19. Jahrhundert erreicht. Geht man noch weiter zurück (Bild 6), zeigt eine Rekonstruktion über-deutlich, dass sich die „Oberstdorfer“ derzeit in einer recht kühlen Phase der aktuellen Zwischenwarmzeit befinden. Es ist noch einige Luft nach oben, bis die vergangenen Temperaturen der letzten, wärmeren Zeiten erreicht werden. Jedoch: Von einer Überhitzung keine Spur. Bestätigt wird es durch Bild 7, einer Rekonstruktion aus der nahen Schweiz.
Anhand des Verlaufs vom Hohenpeissenberg sieht man deutlich, warum „der Klimawandel“ um 1880 „begann“, nach der kleinen Kaltzeit wurde es ab da (zum Glück) wieder wärmer.

Bild 5 Temperaturreihe Jahreswerte ab 1781 vom Hohenpeissenberg Bayern. Vom Autor ergänzt

Bild 6 Relativer Temperaturverlauf bei Oberstdorf seit ca. 11.000 Jahren. Teilbild, vom Autor zusammengestellt und ergänzt. Quelle: Wurth et al. 2004: The Younger Dryas and Holocene climate record of a stalagmite from Hölloch Cave (Bavarian Alps, Germany)

Bild 7 Temperaturrekonstruktion der Julitemperaturen der letzten 16.000 Jahre am Egelsee, Kanton Zug. Teilbild aus kaltesonne [2]. Originalquelle: Larocque-Tobler, I., Heiri, O. & Wehrli, M. J Paleolimnol (2010) 43: 649. doi:10.1007/s10933-009-9358-z
Und genau mit diesem Jahr 1880 fangen die Darstellungen des DWD an! Und die Simulationen sollen anhand dieser „Kalibrierung“ die Zukunft „wissen“. Bild 7 zeigt, wie grottenschlecht die Simulationen bereits aktuell liegen (doch trotzdem veröffentlicht werden). Aber unsere Umweltminister(innen) sind fest davon überzeugt, dass diese „Computer-Prophezeiungen“ stimmen (schließlich simulieren sie pflichtgemäß nach oben) und man es sogar spüren kann.4

Bild 8 Lufttemperatur Bayern seit 1881 mit Simulationen bis 2100. Vom Autor ergänzt. Quelle: DWD Klimaatlas Deutschland

Der Temperaturverlauf des Dezember in Bayern seit 1881 im folgenden Bild zeigt wieder die enormen Spannen – hier ca. 10 Grad – eines Monats. Es zeigt auch, wie schnell sich vermeintlich sichere Klima-Trends relativieren, und wieder, wie grottenschlecht die Klimasimulationen „vorhersagen“.

Bild 8.1 Lufttemperatur Bayern, Dezember 1881 – 2016 mit Simulationen bis 2100. Vom Autor ergänzt. Quelle: DWD Klimaatlas Deutschland

Niederschlag

[1] Monitoring-Bericht 2016: Klimawandel in Süddeutschland: Niederschlag
… Die Trends (1931–2015) der mittleren Gebietsniederschlagshöhe sind insgesamt schwächer und weniger signifikant als im letzten ausgewerteten Zeitraum (1931 bis 2010), wobei es generell positive Trends im Winterhalbjahr (+2 % bis +22 %) und keine eindeutige Entwicklung im Sommerhalbjahr (–13 % bis +4 %) gibt. In den letzten 15 Jahren sind eine Zunahme der positiven Trends im Sommerhalbjahr und eine Abschwächung der negativen Trends im Winterhalbjahr zu beobachten.
Die Trends im Starkniederschlag (Dauer=24h) sind uneinheitlicher als im Gebietsniederschlag. Hier gibt es weiterhin regional klare positive Trends im Winterhalbjahr (bis +33 %), eine Voraussetzung für eine Zunahme der winterlichen Hochwasserlagen. Im Sommerhalbjahr sind die Trends regional uneinheitlich ohne eindeutige Entwicklung, aber häufig stärker ausgeprägt als beim Gebietsniederschlag. Aussagen über Kurzzeitereignisse (< 1 Tag) konnten mit dieser Studie wegen der zu kurzen Messreihen und dem weniger dichten Messnetz mit hoher zeitlicher Auflösung nicht getroffen werden.
Hochwasserabflüsse
Neben einer Vielzahl an kleinen Hochwasserereignissen ist das Hochwasserereignis im Mai/Juni 2013 besonders markant. Zum Ende des Monats Mai setzte großräumig Starkniederschlag ein, der zu extremen Hochwasserabflüssen und Überschwemmungen führte. Insbesondere im Zeitraum vom 30. Mai bis 5. Juni erreichten die Wasserstände vielerorts neue Rekordstände.
Für den gesamten betrachteten Zeitraum 1932 bis 2015 ergeben sich im KLIWAUntersuchungsgebiet überwiegend Trends zu steigenden Hochwasserabflüssen im Gesamtjahr bei ca. 69 % der Pegel. Dies gilt in gleicher Weise auch für das hydrologische Winterhalbjahr (ca. 71 % der Pegel) und in abgeschwächter Form im Sommerhalbjahr (ca. 58 % der Pegel). Von den ermittelten Zunahmen sind allerdings nur 40 bis 50 % der Trends signifikant.

Zum Niederschlag ist viel geschrieben; man könnte fast sagen: Nur damit etwas dazu gesagt ist. Denn gerade dieser ist überhaupt kein Beispiel für einen Klimawandel, sondern das extreme Gegenteil davon.
Das zeigt Bild 9, bei dem nicht einmal die Simulationen bis zum Jahr 2100 einen Unterschied finden, und es zeigen überdeutlich die Bilder 1 – 4, in denen seit Beginn der Datenreihen im Jahr 1881 zu keiner Jahreszeit ein Unterschied festgestellt werden kann.

Bild 9 Niederschlag Bayern seit 1881 mit Simulationen bis 2100. Vom Autor ergänzt. Quelle: DWD Klimaatlas Deutschland

Ein weiterer Rückblick zeigt, dass in Süddeutschland an Überflutungsereignissen schon immer eine extreme Spanne besteht.

Bild 10 [2] Überflutungsereignisse am Ammersee über die letzten 5500 Jahre.
Wer wissen will, wie real und katastrophal sich dies in der Vergangenheit äußerte, ist mit historischen Hochwasserpegeln gut „bedient“. Alleine daran lässt sich ablesen, was an den Flüssen passieren würde, sofern man das vorindustrielle, „Idealwetter“ wieder zurück bekäme. Genau das stellen sich unsere Fachminister(innen) jedoch als Wunschbild vor. Leider reicht dieses ideologie-geprägte Trugbild durchgängig von GRÜN bis CSU.

Bild 11 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013. (Grafik vom Autor erstellt)

Bild 11 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013. (Grafik vom Autor erstellt)

Damit Aussagen entstehen, wird völlig „verschwurbelt“ mit Daten und Statistik jongliert um zum Schluss zu informieren, dass die Daten eigentlich keine Aussage erlauben:

[1] … Die Ergebnisse der Trenduntersuchungen sind für alle 115 Pegel in Tabelle 3 zusammengefasst aufgeführt. Die durchgeführte Trendanalyse der Hochwasserabflüsse 1932 bis 2015 zeigt für den überwiegenden Teil (79 Pegel) der 115 Pegel bezogen auf das Gesamtjahr einen ansteigenden Trend (ca. 69 %), 36 Pegel (ca. 31 %) weisen eine Abnahme auf. Bei der Bewertung der Ergebnisse muss jedoch berücksichtigt werden, dass die an den Pegeln ermittelten, zunehmenden Trends nur zu einem guten Drittel signifikant sind (Signifikanzniveau von α ≥ 80 %), an den Pegeln mit abnehmendem Trend sind lediglich 6 Pegel (17 %) signifikant. Da die Ergebnisse bisher eine starke räumliche Variabilität zeigten und deshalb belastbare regionale Muster des Trendverhaltens und der Trendstärke nicht erkennbar waren, wurde auf eine räumliche Auswertung verzichtet.

[1] … Selbst geringfügigste, vollkommen unsignifikante Wahrnehmungen werden dargestellt, als hätten diese eine Aussagekraft:
Die zurückliegende Periode von 2011 bis 2015 zeigt in allen vier Ganglinien im Vergleich zum vieljährigen Monatsmittel vergleichsweise niedrige Grundwasserstände bzw. Quellschüttungen. Im Bereich der Münchener Schotterebene (Abb. 22a) bewegte sich der Grundwasserspiegel zunächst auf etwas überdurchschnittlichem Niveau und ging in den beiden letzten Jahren in den defizitären Bereich.

Dabei zeigt das Bild 13 über-deutlich, dass sich das Grundwasser dort am „Idealzustand“ (Mittelwert) befindet und die früheren, starken Schwankungen deutlich weniger wurden. Gerade von den Niedrigständen früherer Trockenperioden ist man aktuell weit entfernt.

Bild 13 [1] (Auszug a) Abb. 22: Exemplarische Grundwasserstandsganglinien (a und b)
Dass der Niederschlag allen Untergangs-Prophezeiungen zum Trotz weltweit signifikant weder zu, noch abnimmt, wurde in einem Bericht bereits gezeigt:

EIKE 18.06.2016: [11] Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss
was auch für Deutschland gilt, wie die Bilder aus dem Klimaatlas zeigen.

Bild 14 Niederschlag Deutschland Winter 1881 – 2016. Quelle: DWD Klimaatlas

Bild 15 Niederschlag Deutschland Sommer 1881 – 2016. Quelle: DWD Klimaatlas

Daten weltweit

Die (gegenüber den Stationswerten) glaubhafteren Satellitendaten zeigen Erschreckendes: Die Temperatur der Nordhalbkugel (ohne die Arktis über 82,5 Grad Nord) hat den Stand von 1980 erreicht.
Dazu siehe den Artikel EIKE:
Wann wird der,Stillstand‘ der globalen Temperatur wieder eintreten?

Bild 16 GISS Satellitendaten bodennahe Schichten (TLT), Nordhemnisphere (0 … 82,5 N) 1979 – 12.2016

Schlussbemerkung

In der Rezension von „kaltesonne“ steht zum Schluss:
[2] … Und genau das ist das Problem: Der langfristige klimahistorische Kontext wird einfach ausgeblendet, so dass die natürliche Schwankungsbreite ignoriert wird. Wenn dann eine Zeitreihe von 85 Jahren vorliegt, werden Veränderungen ohne zu zögern dem Menschen als anthropogene Leistung zugeordnet, ein geistiger Kurzschluss.

Dem kann man nur beipflichten. Wenn in einem Bericht schon Zeiträume von 2 … 4 Jahren als „klimarelevant“ gelistet und einer „Analyse“ unterzogen werden, zeigt es nur, dass nichts Klimawandel-bestätigendes gefunden wurde, aber unbedingt Aussagen zu generieren waren. Man gewinnt den Eindruck, dass der DWD dem Wetter inzwischen mit Maßzahlen „vorschreibt“, wie es sich zu verhalten hat, um als „Klima-gesund“ zu gelten. Ein bewährtes, von den Medizinern übernommenes Verfahren, um sich einen dauerhaften „Klimapatienten“ zu halten.
Mit einer auch nur im Ansatz seriösen Darstellung hat das nichts zu tun – was unsere UmweltministerInnen aber nicht störte und sie wieder als reine Sprechpuppen von Parteienideologie und vorgeschriebener Meinung entlarvte.

Man stelle sich vor, eine UmweltministerIn würde auf einen solch mangelhaften Bericht antworten, dass er ihr unglaubwürdig erscheint und endlich seriöse Belege erwartet werden, andernfalls würde man die immensen Gelder dafür und für die vielen theoretischen Klimamaßnahmen streichen. Leider ist das bei unserer derzeitigen Parteienlandschaft nicht vorstellbar.

Quellen
[1] Monitoring-Bericht 2016: Klimawandel in Süddeutschland

[2] kaltesonne: Monitoringbericht “Klimawandel in Süddeutschland”: Temperaturen steigen seit 2000 kaum noch an

[3] Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg: Bericht zu Auswirkungen des Klimawandels in Süddeutschland veröffentlicht
[4] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz, Pressemitteilung 11.11.2016 Nr. 206/16: Scharf: Klimawandel ist Fakt, Neuer Bericht von Ländern und DWD belegt Klimaänderungen in Bayern

[5] Umweltbundesamt: Bundesland Bayern Klimafolgen Länderspezifische Klimaänderungen

[6] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[7] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[8] EIKE 29.10.2015: Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis

[9] EIKE 19.08.2016: Teil II: Vom Wissenschaftlichen Dienst veröffentlichte Klimainformation für Abgeordnete Rezension: Teil 2

[10] Klima-Report Bayern 2015 Klimawandel, Auswirkungen, Anpassungs- und Forschungsaktivitäten

[11] EIKE 18.06.2016: Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss
http://www.eike-klima-energie.eu/news-cache/die-niederschlagsentwicklung-in-deutschland-und-weltweit-zeigt-keinen-klimawandel-einfluss/

[12] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?




Über den Unter­schied zwischen Energie, Arbeit und Leistung – und warum das für die Klima-Prophe­zeiungen eine Rolle spielt

Man betrachte eine Taschenlampen-Batterie. Eine Batterie enthält Energie, aber diese Energie macht gar nichts – die Batterie kann Monate im Schrank liegen, bereit zum Einschub in die Taschenlampe. Aber wenn man das dann tut, die Taschenlampe danach anknipst und nicht wieder ausschaltet, wird die Batterie innerhalb von Stunden leer sein – alle enthaltene Energie ist verbraucht.

Ähnlich ist es mit einer Batterie für einen Motor, deren Energie ebenfalls verbraucht wird.

Graphik 1: Von einer Batterie getriebener Motor.

Steckt man die Batterie in die Taschenlampe oder in einen Motor und schaltet diese an, macht sich die Energie an die Arbeit. Eventuell versagt die Batterie, nachdem all ihre gespeicherte chemische Energie in elektrische Leistung umgewandelt worden war.

In welcher Beziehung steht dieses Beispiel eines batteriebetriebenen Motors zum Klimawandel?

Rein physikalisch ist auch das Klima der Erde eine Maschine. Anstelle einer Batterie wird das Klima mit Solarenergie angetrieben – Sonnenlicht erreicht tagsüber die Erde, wird in Wärme umgewandelt und dann wieder in den Weltraum abgestrahlt. Dies bedeutet: Der Transport jener Energie von wärmeren Regionen zu kälteren Regionen, bevor sie in den Weltraum abgestrahlt wird, ist die Summe aller weltweiten Klima-Phänomene – Wind, Regen, Meeresströme sind alle Teil der globalen Klima-Maschine, welche von unserer Sonne mit Energie versorgt wird.

Graphik 2: Von der Sonne mit Energie versorgtes Erdklima

Wie wirken sich nun globale Erwärmung oder globale Abkühlung auf diese Klima-Maschine aus?

Was man im Hinterkopf behalten muss: Die Energie des Sonnenlichtes wird der Erdoberfläche mit konstanter Rate zugeführt, weil der solare Output mehr oder weniger stetig ist und sich die Größe der Erde nicht ändert. Die Leistung des Klimasystems, die Rate, mit der die Arbeit durch das Klimasystem durchgeführt werden kann, ist konstant.

Globale Erwärmung – Akkumulation von Energie in Gestalt von Wärme in der Erdatmosphäre – beeinflusst nicht die Energiemenge, die für die Energieversorgung des Erdklimas zur Verfügung steht. Falls die akkumulierte Energie das Klima beeinflussen würde mittels Beiträgen zu wilderem Wetter, würde sie aufgebraucht, genau wie die gespeicherte chemische Energie aufgebraucht wird, wenn sie eine Taschenlampe oder einen Motor betreibt.

Die Art und Weise, mit der Energie vom Klima der Erde verbraucht wird, könnte sich ändern, wenn sich die Welt erwärmt. Ein Beispiel sind die Milankovitch-Zyklen – die langsam vonstatten gehenden Änderungen der Verteilung des Sonnenlichtes durch Schwankungen des Erdorbits – haben wahrscheinlich einen tiefgreifenden Effekt auf das globale Klima; es lässt Eiszeiten aufkommen und abklingen. Aber die durch die Milankovitch-Zyklen beschriebenen orbitalen Schwankungen haben keinen Einfluss darauf, wie viel Sonnenlicht insgesamt auf die Erde trifft. Das Einzige, was dadurch beeinflusst wird, ist das Verhältnis des Gesamt-Sonnenlicht-Budgets, welches die Nord- bzw. Südhemisphäre zu verschiedenen Jahreszeiten empfangen.

Die Implikationen eines Gesamt-Erdklima-Energiebudgets sind tiefgreifend. In einer wärmeren Welt könnte es tatsächlich mehr regnen. Aber es muss einen Ausgleich geben. Die Verdunstung von Wasser zur Bildung von Regenwolken erfordert enorme Energiemengen. Falls Energie aus dem globalen Klima-Budget in die Erzeugung von mehr Regen fließt, steht weniger Energie für Wind und Meeresströme zur Verfügung.

Es gibt für geringe Änderungen Bewegungsfreiheit. Eine Menge des Sonnenlichtes, welches auf die Erde trifft, wird direkt zurück in den Weltraum geworfen, mit minimalem Einfluss auf das Klima. Falls die Albedo, also die Reflektivität der Erde substantiell zurückgehen würde, könnte mehr Sonnenlicht absorbiert werden, was mehr Energie zur Verfügung stellt für Wind, Regen und Meeresströme. Aber es gibt keine Garantie dafür, dass eine wärmere Welt eine signifikant geringere Albedo haben würde. Etwas Albedo könnte verloren gehen, falls Polareis schmilzt, aber Polareis empfängt nicht so viel Sonnenlicht verglichen mit dem in tropischen Gebieten auftreffenden Sonnenlicht. Jedweder Rückgang der Albedo infolge schmelzenden Polareises würde wahrscheinlich durch eine zunehmende Wolkenbedeckung in den Tropen mehr als kompensiert.

Während der letzten paar Jahre hat die Aufmerksamkeit in der Klima-Gemeinde für diese thermodynamische Begrenzung zugenommen. Viele Klimawissenschaftler haben ängstigende Prophezeiungen extremerer Wetterereignisse eingeschränkt, indem sie sagen, dass Stürme stärker werden, aber seltener auftreten. Aber wie ich zu Beginn erwähnt habe, geht viel zu oft die Qualifikation verloren. Viele Menschen glauben, dass das Wetter einfach ohne Hindernisse extremer wird, wenn sich die Welt erwärmt, weil sie nicht die harten Grenzen verstehen, die durch das Gesamt-Klimaenergie-Budget der Erde gesetzt werden.

Wärmere Klimabedingungen, welche mehr zur Bildung von Gewitter neigen, könnten zu häufigeren, aber schwächeren Stürmen führen, mit weniger Schäden anrichtenden Winden. Aber eine derartig langweilige Prophezeiung würde nicht zum Narrativ der Klimawissenschaft passen, dass durch die globale Erwärmung alles schlimmer wird.

Die folgende wissenschaftliche Studie erklärt die Grenzen des Energiebudgets des Erdklimas noch detaillierter:

Erzwungene Arbeitsleistung der feucht-atmosphärischen Wärmemaschine bei einem sich erwärmenden Klima:

Einfallende und ausgehende Sonnenstrahlung sorgen für den Wärmeausgleich an der Erdoberfläche, wobei Wettervorgänge angetrieben werden, die Wärme und Feuchtigkeit um die ganze Welt verteilen, was eine atmosphärische Wärmemaschine erzeugt. Hier untersuchen wir den Output der Arbeit dieser Maschine mittels thermodynamischer Diagramme, die berechnet sind aus re-analysierten Beobachtungen und aus einer Klimamodell-Simulation mit anthropogenem Antrieb. Wir zeigen, dass der Arbeits-Output immer geringer ist als der von einem äquivalenten Carnot-Zyklus [?] und dass er begrenzt wird durch die Energie, die zur Aufrechterhaltung des hydrologischen Zyklus‘ erforderlich ist. Bei der Klimasimulation verstärkt sich der hydrologische Zyklus schneller als der äquivalente Carnot-Zyklus. Wir folgern daraus, dass die Intensivierung des hydrologischen Zyklus‘ in wärmeren Klimaten die Fähigkeit der Wärmemaschine limitieren könnte, Arbeit zu erzeugen.

Mehr hier (paywalled)

Aktualisierung: Willis Eschenbach weist darauf hin, dass die Aussage „…Energie durch Sonnenlicht trifft mit konstanter Rate auf der Erdoberfläche, weil der solare Output mehr oder weniger stetig ist…“ falsch und irreführend ist. Wolken reflektieren Sonnenlicht zurück in das Weltall, bevor es die Erdoberfläche erreicht. Da Wolken eine Funktion der Temperatur sind und höhere Temperaturen mehr Wolken erzeugen, reduzieren höhere Temperaturen die Energiemenge, die in das Klimasystem eintritt.

Link: https://wattsupwiththat.com/2017/01/10/the-difference-between-energy-work-and-power-and-why-it-matters-to-climate-prediction/

Übersetzt von Chris Frey EIKE




Erwärmung in Deutschland und in den USA – eine der Hauptursachen dafür näher beleuchtet

Grafik 1: seit 1881 wurde es in Deutschland wärmer, das zeigt die lineare Trendlinie zu den Jahresmitteln des Deutschen Wetterdienstes

Seit 30 Jahren hat sich in den Medien und der Politik, angetrieben durch das IPPC, die vorherrschende Meinung gebildet, diese Erwärmung sei auf die Industrialisierung zurückzuführen, die nach 1850 begonnen hat. Und mit der Industrialisierung verbunden ist die vermehrte Kohlendioxidfreisetzung. Deshalb ist wohl der C02– Gehalt in der Atmosphäre von damals 0,028% auf jetzt über 0,04% gestiegen. Die Treibhaustheorie besagt, dass ausschließlich das zunehmende C02 diese Erwärmung von etwa 1,5 bis 2 K seit gut 150 Jahren bewirkt habe. Da diese CO2-Treibhaustheorie keinen Versuchsbeweis und keine technische Anwendung vorlegen kann, handelt es sich streng genommen um einen Glauben, aus dem inzwischen eine Erwärmungsreligion entstanden ist, die lautet: Mehr CO2 bringt mehr Hitze.

Sind die Temperaturen nun tatsächlich gestiegen in Deutschland, so wie es die Grafik 1 zeigt? Die richtige Antwort wäre: Die Trendlinien steigen, weil die Temperaturen bei den Stationen zugenommen haben. Jedoch die Schlussfolgerung, wir hätten in der ganzen Fläche Deutschlands eine Erwärmung von gut 1,5 Grad, ist naturwissenschaftlich nicht gerechtfertigt, und somit falsch. Das soll im Folgenden erläutert werden:
Jeder Student im Anfangsstudium eines naturwissenschaftlichen Faches lernt, dass er bei Langzeitversuchen seine Versuchsbedingungen nicht ändern darf, sonst sind die Ergebnisse nicht vergleichbar. Und genau das ist bei den Messstationen Deutschlands der Fall. Vor über 130 Jahren standen diese an ganz anderen, viel kälteren Orten, oder die Orte wurden selbst wärmer durch menschliche Eingriffe in der Umgebung einer Wetterstation. All dies haben wir bereits ausführlich in vielen Artikeln beschrieben. siehe Kowatsch/Kämpfe/Leistenschneider unter „Wärmeinseleffekte bei den Messstationen“.http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

oder http://www.eike-klima-energie.eu/news-cache/die-zunahme-der-waermeinseln-brachte-den-grossteil-des-temperaturanstieges-der-letzten-125-jahre/

Grafik 2: Europa bei Nacht vom Weltall aus. Die Karte vermittelt einen Eindruck über die Verteilung der Wärmeinseln in Mitteleuropa. Wie hätte so eine Aufnahme vor 130 Jahren ausgesehen? Allerdings muss angemerkt sein, dass wegen der Lichtstreuung die hellen Flecken flächenmäßig zu groß erscheinen.

Im Grunde wären die Temperaturwerte nur direkt vergleichbar, wenn Deutschland und die Welt genauso geblieben wären, wie sie damals 1881 war und wenn sich nichts, aber auch gar nichts seitdem verändert hätte. Nur dann hätten wir identische Vergleichsbedingungen bei den Messstationen. Dass dies nicht so ist, dafür ist der DWD nicht verantwortlich. Nur muss man das wissen, und jeder naturwissenschaftliche Student begreift sofort, dass diese steigende Trendlinie der Grafik 1 nur mit Einschränkungen aussagekräftig ist. Richtig wäre lediglich die Aussage: Es wurde bei den Messstationen auch aufgrund der veränderten Mess- und Umgebungsbedingungen wärmer. Die Trendlinie könnte aber auch die veränderten Messmethoden sowie die geänderten Besonnungsverhältnisse und die Häufigkeitszunahme südlicher Großwetterlagen widerspiegeln.

Wie vergleicht man richtig?

Für einen aussagekräftigen Temperaturvergleich bräuchte man einen Temperatur- Korrekturfaktor, der die wärmende Veränderung bei den Messstationen rausstreicht. Diesen Faktor nennen wir Wärmeinseleffekt. (WI- Effekt). Kowatsch/Kämpfe/ Leistenschneider haben diesen Korrekturfaktor bereits 2010 ermittelt und eine WI-Bereinigung (Wärme-Inselbereinigung) in die DWD-Jahres-Diagramme eingefügt.

Grafik 3: Beim grünen Temperaturverlauf wurden die WI- Effekte der Stationen herausgerechnet, damit die Jahreswerte vergleichbar wurden. Schön erkennbar ist das Kälteloch zu Beginn der 2. Hälfte des letzten Jahrhunderts, welches man beim DWD und international gerne als Vergleichsraum zu heute nimmt und als „Normal“ bezeichnet.

Die hier dargestellte WI- Bereinigung (statistische Berechnung: R. LEISTENSCHNEIDER) entspricht sicher nicht völlig der (leider schwer zu fassenden) Realität, weil für große Teile Deutschlands (Wald, größere Gewässer, leider auch weite Teile des Offenlandes fernab der Siedlungen) keine seriösen, langjährigen Messreihen vorliegen. Der DWD unterzieht seine Messungen (rote Linien) keiner WI-Korrektur, was er allerdings auch zugibt.

Die WI-bereinigte (grüne) Deutschlandkurve

Nehmen wir nun an, dass Deutschland und die Welt sich seit 130 Jahren überhaupt nicht verändert hätten, dann würde uns der Deutsche Wetterdienst diese Grafik vorlegen:

Grafik 4: Die wärmeinselbereinigten Deutschlandtemperaturen aus Grafik 2 – hier mit linearer Trendlinie – zeigen einen nicht signifikanten leichten Temperaturanstieg seit 1891.

Die WI-Datenbereinigung nach Leistenschneider geht von gut 1,2 K (plus/-0,3K) seit 1891 aus, wobei ab 1980 bis heute die größte WI-Spreizung erfolgte. Man sieht deutlich, dass der größte Teil der Erwärmung in Grafik 1 auf den schleichend steigenden Wärmeinseleffekt vor allem der letzten vier Jahrzehnte zurückzuführen ist und nicht auf eine C02-Erwärmung. Das wärmste Jahr wäre deswegen 1934 gewesen und nicht 2014. Immerhin war das Jahr 2016 auch WI-bereinigt wärmer als der Gesamtschnitt und deutlich wärmer als 1891 und den kälteren Folgejahren.

Wir wagen die Aussage: Wäre Deutschland genauso geblieben wie 1891, mit derselben Einwohnerzahl, demselben Energieverbrauch, Lebensstandard und der noch viel geringeren Urbanisierung der Fläche und würden alle Messstationen noch am selben Ort stehen wie damals, dann würde die Temperaturtrendlinie nur einen sehr geringen Temperaturanstieg anzeigen: Die Erwärmung Deutschlands ist ganz wesentlich durch den stetig wachsenden Wärmeinseleffekt bei den Messstationen hervorgerufen worden und nicht durch die behauptete CO2-Treibhauserwärmung.

Glücklicherweise gibt es eine Temperatur-Messstation, bei der sich in diesem langen Zeitraum nur wenig in der weiten Umgebung verändert hat, leider nicht bei uns, sondern in den USA. In der nächsten Grafik sind die Temperaturdaten der sehr ländlichen Dale-Enterprise-Virginia Wetter-Station eingezeichnet, deren Umgebung in den letzten 130 Jahren nahezu gleich blieb, sieht man vom Bau breitspuriger amerikanischer Straßen ab. Dale Enterprise liegt etwa 160 Km westsüdwestlich von Washington und westlich der Kleinstadt Harrisonburg an der breiten US- Straße 33, die es natürlich 1881 noch nicht gab. (geringer WI-effekt). Auch die Tagesmittelwerte wurden seit drei Generationen in der Familie immer nach demselben Muster bestimmt und so die Jahreswerte ermittelt. Googeln: Dale Enterprise Virginia Weather-Station.

Auch wenn in Virginia ein gänzlich anderes Klima herrscht als bei uns in Mitteleuropa, wollen wir den Temperaturverlauf seit 1891 gerne zeigen, denn eine globale CO2-Erwärmung müsste natürlich auch an einem fast WI-freien Standort in den USA und überall auf der Welt zu einer Erwärmung geführt haben.

Die Überraschung ist groß. Eine gleichmäßige durch CO2 hervorgerufene Erwärmung gibt es nicht. CO2 hat nichts bewirkt. Die Trendlinie dieser Station in den USA bestätigt eher unsere grüne WI-bereinigte Deutschland-Trendlinie der Grafik 4.

Grafik 5: Die Temperaturen der fast WI-freien Dale-Enterprise Station braucht man nicht WI bereinigen, man kann die Temperaturen direkt vergleichen. Die Trendlinie ist ähnlich der WI-bereinigten (grünen) DWD-Trendlinie und hat nur einen sehr geringen Temperaturanstieg von 0,4F über die letzten 126 Jahre.

Spannend war für uns die Frage, ob es, ähnlich wie in Deutschland (Frankfurt/Main- Flughafen) auch im Nordosten der USA vielleicht Wetterstationen gibt, die sich durch eine besonders starke Erwärmung in den letzten 3 bis 4 Jahrzehnten auszeichnen. Leider reichen die Werte der meisten, offiziellen CDC- Klimastationen der USA nur bis 1986 zurück; oder davor weisen sie zu große Lücken auf. Zufällig stießen wir auf einen kritischen Beitrag über die Station am Flughafen der Bundeshauptstadt Washington, welche fast auf gleicher Breite und nur etwa einen Längengrad östlicher als Dale Enterprise liegt, wenngleich in viel geringerer Höhe über dem Meeresspiegel. Sie finden diesen Beitrag (englisch) unter http://thevane.gawker.com/exploring-the-urban-heat-island-washingtons-infamous-1539669759 . Daraufhin sahen wir uns den Trendverlauf beider Stationen für die letzten 35 Jahre an (die Daten für Washington, Stations- ID 72405, sind bis 1981 nahezu lückenlos) und erlebten eine große Überraschung:

Grafik 6: Während es in Washington seit 1981 deutlich wärmer wurde, fielen die Temperaturen an der ländlichen Station Dale Enterprise, 160 Km westsüdwestlich von Washington in den Appalachen unweit der Stadt Harrisonburg gelegen, deutlich. Ohne WI- Effekte lässt sich dieses gegensätzliche Verhalten der nicht sehr weit voneinander entfernten Stationen kaum erklären, auch wenn vielleicht geänderte Wetterlagenhäufigkeiten, Lee- Effekte der Appalachen und geänderte Besonnungsverhältnisse ebenfalls eine Rolle spielen könnten.

Weil die Daten monatsweise vorliegen, verglichen wir den monatsweisen Gang der Differenzen beider Stationen seit 1981. Auf eine Höhenbereinigung verzichteten wir (Dale Enterprise liegt etwa 400 Meter höher als Washington), so dass die sehr großen Temperaturdifferenzen größtenteils der Höhendifferenz anzulasten sind. Der WI- Effekt zeigt sich jedoch deutlich an den viel größeren Differenzen während der Sommermonate, in welchen sich die dicht bebaute Stadt meist besonders stark aufheizt:

Grafik 7: Die Differenzen der Monatsmittelwerte beider Stationen sind im Sommer viel größer, als im Spätherbst und Winter. Sie wurden nicht höhenbereinigt, weil der Unterschied beider Stationen mit etwa 400 Metern sehr groß ist. Trotzdem weisen sie auf WI- Effekte hin. Das völlig andere Klima dieser Gegend, welche etwa auf der Breite Südspaniens liegt, erklärt vermutlich, warum sich die Differenzen etwas anders verhalten, als bei unseren Untersuchungen zum Berliner Umland (dort waren besonders zwischen April und Juni, teils aber auch im Januar, die höchsten Stadt- Umlanddifferenzen zu beobachten).

Zu dieser spannenden Thematik wird es weitere Untersuchungen mit mehr Stationsdaten geben müssen.

Ergebnis: Eine CO2-Erwärmung aufgrund der auch in Virginia gestiegenen CO2-Konzentration von 280 auf 400 ppm ist aus den Daten der fast WI-freien Station Dale Enterprise Virginia nicht erkennbar, und schon gar keine Erwärmungskatastrophe. Daraus kann man nur den Schluss ziehen, dass der behauptete CO2-Erwärmungseffekt nicht existiert oder fast keine Wirkung hat.

Kürzere Zeiträume: Zwar schreitet der wärmende Eingriff des Menschen in die Landschaft weiter voran, täglich werden in Deutschland 0,7 km² freie Fläche in die Natur hinein urbanisiert und damit weiter erwärmt, innerhalb der bebauten Ansiedlungen gehen Grundstücke mit großen Gärten durch den Trend zur Häuservergrößerung verloren, was nicht durch die Statistik der täglichen 0,7 Quadratkilometer erfasst wird, und in der freien Fläche werden durch Windräder der kühlende Wind und damit die natürliche Abkühlung zusätzlich vermindert und über Strom letztlich erneut Wärme hergestellt. Jedoch sind diese durch Menschenhand erzeugten wärmenden Effekte innerhalb der letzten 15 bis 20 Jahre relativ klein im Vergleich zum Gesamtzeitraum bis 1881 und bisweilen wohl auch vernachlässigbar. Doch muss man sich im Klaren sein, direkt vergleichbar sind beim DWD immer nur die Folgejahre. In 365 Tagen machen sich die zunehmenden wärmeerzeugenden Zusatzeffekte im Gesamtschnitt Deutschlands noch nicht wesentlich bemerkbar.

Anders verhält es sich bei Einzelstationen, hier können durch Stationsverlegung oder durch ein neues Gewerbegebiet oder Vergrößerungsbau eines Flughafens enorme Zusatzwärmemengen entstanden sein, schließlich kann sich der dunkle Asphaltbelag im Sommer bis auf 50 C aufheizen, und bei ungünstiger Stationslage wärmen dann auch noch die Abgase der Fahr- und Flugzeuge. Autobahnen und Straßen sind Wärmebänder in der Landschaft, genauso wie die im Zuge der bisher äußerst umweltschädlichen und teuren „Energiewende“ zusätzlich gebauten Hochtemperatur-Stromleitungen, die bei guten alternativen Bedingungen einen plötzlich entstehenden Überschussstrom in die Landschaft verheizen oder als Erdleitung die Böden aufwärmen werden.

Im Folgenden betrachten wir kürzere Zeiträume, nämlich die letzten 30 Jahre, weil 30 Jahre eine Klimaeinheit darstellt. Wir vergleichen die Wetterstation am Frankfurter Großflughafen (rot) mit der fast WI-freien ländlichen Station Amtsberg-Dittersdorf (blau), dessen Stationsumgebung in den letzten 30 Jahren relativ unverändert blieb.

Grafik 8: Aufgrund des zunehmenden Flugverkehrs und des ständig weiteren Ausbaus des Frankfurter Flughafens zeigt die dortige Wetterstation an den Landebahnen im Strahle der 700 C heißen Flugzeug-Abgase auch die größte Erwärmung. In Amtsberg und in der Freifläche wurde es überhaupt nicht wärmer, dazwischen die DWD-Temperaturen als Schnitt aller deutschen Wetterstationen.

Ergebnis: Frankfurt zeigt wie erwartet den größten Trendlinienanstieg, am Frankfurter Flughafen wurde es eindeutig wärmer. Die fast WI-freie sehr ländliche Station Amtsberg zeigt seit 30 Jahren keine Erwärmung mehr, obwohl an beiden Standorten, Frankfurt und Amtsberg die CO2-Konzentrationen der Atmosphäre gleichmäßig auf jetzt über 0,04% angestiegen sind. Warum wirkt derselbe CO2-Anstieg in Amtsberg nicht erwärmend?

Antwort: Der CO2-Konzentrationsanstieg wirkt auch in Frankfurt nicht erwärmend. Die Thermometer der Wetterstation zeigen vielmehr die Zunahme des Flugverkehrs und des Ausbau des Flughafens an.

Die Leser möge hier nochmals einen Blick auf die Grafik 6 richten. Bei der noch WI-ärmeren Virginiastation – noch WI-ärmer als Amtsberg – ist die Trendlinie sogar fallend.

Im Nordosten der USA gibt es auch an anderen Orten ähnliche Ergebnisse. Leider sind die Werte der nahezu WI- freien Harvard Forest Station erst seit 2002 lückenlos verfügbar, so dass die Trends des folgenden Vergleichs mit 2 städtischen Stationen dieser Region nicht signifikant sind; doch deutet sich eine geringere Erwärmung der Forststation an:

Grafik 9: Geringere Erwärmung der Forststation (unten, grün) seit 2002 (Trends und Unterschiede nicht signifikant). Die sich besonders stark erwärmende Station Wilkes-Barre/Scranton (Mitte) liegt an einem Flughafen.

Anmerkung: Auch die Dale-Enterprise Station zeigt ab 2002 einen leichten Trendlinienanstieg, was hauptsächlich durch das warme Jahr 2012 in Virginia bewirkt wird.

Unsere Behauptung war: Die 130-jährige Erwärmung Deutschlands gibt es nur im Umfeld der DWD-Wetterstationen. Das ist dort, wo die Menschen wohnen und arbeiten, wo die einst freie Fläche immer weiter wärmend urbanisiert wurde. In der freien Fläche Deutschlands und an WI-armen Standorten sind die Temperaturen zumindest in den letzten 30 Jahren gleich geblieben.

Ergebnisse:

Die Erwärmung der letzten 130 Jahre fand also viel stärker in den Wärmeinseln statt.

Nicht die Zunahme von CO2 hat die Erwärmung der letzten 130 Jahre bewirkt, sondern hauptsächlich die immer noch anhaltende Ausbreitung der Wärmeinseln in Deutschland und überall auf der Welt. Die Sonne und die vielen anderen Wetterbedingungen sind für das wiederkehrende Auf und Ab in den Temperaturreihen verantwortlich.

WI-bereinigt haben wir in Deutschland einen Temperaturstillstand seit 30 Jahren.

In den WI-armen Standorten und in der freien Fläche hat die Abkühlung bereits seit 20 Jahren eingesetzt, das zeigen auch unsere WI-bereinigten Deutschlanddaten.

Grafik 10: Unsere nach der Methode von R. Leistenschneider WI-bereinigten Deutschlanddaten (grün) zeigen seit 20 Jahren einen leichten Temperaturrückgang. Übrigens genauso wie die gemessenen Daten der WI-armen Station Amtsberg im Erzgebirge.

———————————————-

Aktualisierung vom 7. Januar 2017: Die ländliche Kachelmann-Station Marienberg-Kühnhaide (Erzgebirge, eher WI-arm) meldete an diesem Morgen minus 31,4°C. Erwärmung durch CO2- mitnichten.!!!

Josef Kowatsch, Naturbeobachter und unabhängiger Klimawissenschaftler

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher