1

Akzeptanz der Windenergie in Brandenburg steigern?

Zur Anhörung LT Brandenburg am 18.4.8  

von Michael Limburg VP EIKE

Im Antrag wird die Frage gestellt: „Wie könnte die Akzeptanz der Windenergie erhöht werden?“.. das bedeutet ganz klar- auch die fast hilflos zu nennenden Vorschläge meiner Vorredner, lassen diese Deutung zu, dass

..die Akzeptanz der Windenergie in Brandenburg offensichtlich an ihrem Ende angekommen ist.

Denn anders lässt sich dieser Antrag der Grünen nicht erklären.

Die Gründe dafür liegen auf der Hand. Sie sind jedoch keinesfalls darin zu suchen, dass die betroffenen Bürger nicht ausreichend informiert wurden, oder dass bei den vorausgehenden Planungen zu wenig „Transparenz“ herrschte,

..oder dass die Bürger  nicht darüber Bescheid wüssten, wer die Profiteure –Sie nennen Sie „Akteure“- sein werden, und wie sie ggf. selber in den Genuss solcher Profite kommen können.

…Oder, dass zu wenig Werbung für die Windkraft gemacht wurde.

Die hier geladenen Experten der Windkraftindustrie belegen just das Gegenteil, denn sie tun – Tag für Tag für Tag– nichts anderes als das.

Nein!  Die Gründe liegen allein darin,

  • ..dass die Nutzung der Windenergie unermesslichen Schaden über die betroffenen Bürger gebracht hat.
  • …Schaden, der sich in großflächiger Landschaftszerstörung äußert,
  • ..Schaden am Eigentum der Bürger, deren Immobilien in der Nähe solcher Anlagen dramatisch an Wert verloren haben,
  • ..Schaden an der Gesundheit der betroffenen Bürger, die durch den ständigen Infraschall, erzeugt durch diese Industriegiganten, oft dauerhaft beeinträchtigt wird. Und letztendlich direkter..(hinzugefügt: Details dazu hier ; mit Dank an Infraschallexperten Sven Johannsen von GusZ)
  • ..Schaden am Geldbeutel aller Bürger, der durch die extrem hohen Stromkosten – Deutschland hat inzwischen die höchsten in Europa und Brandenburg steht ganz vorne auf der Liste- per Zwangsumlagen und Steuern verursacht wird.

Das sind die wahren Gründe für die mangelnde Akzeptanz.

Und alle die hier sitzen wissen das, oder müssten es wissen.

Insofern ist der Antrag der Grünen eigentlich an Zynismus nicht zu überbieten. Da sollen mit unwahren Behauptungen -ich werde im zweiten Teil meiner Rede darauf ausführlicher eingehen- mit Steuergeldern alimentierte Planstellen geschaffen werden, deren einzige Aufgabe darin besteht, die gebeutelten Bürger zu spalten

  • zu spalten in
  • Profiteure
  • und Opfer-
  • um dann über die Profiteure noch mehr von diesen, in jeder Hinsicht, unsinnigen unnützen und teuren, Anlagen aufzustellen.
  • und die Opfer dieser Politik sollen das auch noch von ihren Steuergeldern bezahlen.

Ein wahrhaft zynischer Plan!

Lassen Sie mich nun zu Begründung des Antrages der Grünen vom 5.12.17 kommen, dazu muss ich etwas grundsätzlicher werden…

Darin heißt es dazu ganz am Anfang:

Der weitere Ausbau der Windenergie auf 2 % der Landesfläche in Brandenburg ist zur Umsetzungder Pariser Klimaschutzzielenotwendig.

Diese Begründung könnte falscher nicht sein. Zunächst einmal deswegen, weil es bisher – trotz vieler milliardenschwerer Forschung – koordiniert durch den sog. Weltklimarat IPCC – keinerlei Hinweise, schon gar keine Beweise, dafür gibt, dass das menschgemachte CO2, auf irgendeine mysteriöse Weise die Temperatur der Atmosphäre dieses Planeten erwärmt.  Es gibt nur Klimamodelle, die weder die Klimavergangenheit, noch die bereits vergangene Klimazukunft korrekt berechnen können.

Auch wenn viele -als Beweisersatz- behaupten, – dass 97 % aller Wissenschaftler der Überzeugung wären, dass der moderne Mensch mit seinen CO2 Emissionen daran schuld sei, ändert das nichts an den genannten Fakten.

Denn erstens ist dem nicht so:

Es gibt unzählige Studien, die zu genau gegenteiligen Erkenntnissen kommen und

zweitens

zählen demokratische Mehrheiten in der Wissenschaft nicht die Bohne.

Weder dreht sich die Sonne um die Erde, trotzdem die Mehrheit der Wissenschaftler über tausende von Jahren dieser Ansicht waren,

..noch sind beispielsweise die Kontinente fest auf der Oberfläche des Globus verankert.  Auch das war mal eine Mehrheitsmeinung der Wissenschaftler!  Sogar von hundert Prozent von ihnen.

Im Gegenteil…sie driften. Wenn auch sehr langsam.

Erst Alfred Wegener klärte Anfang des 20. Jahrhunderts diesen fundamentalen Irrtum auf und wurde dafür ausgelacht.

Und diese Aufzählung ließe sich beliebig verlängern.

Aber auch dann, wenn man an die Irrlehre vom menschgemachten Klimawandel glaubt, und die Delegierten in Paris taten so, als ob sie es glaubten,

….objektiv sind Windkraftanlagen weder für den „Klimaschutz“

…noch für die Einsparung von „Ressourcen“,

….noch für Versorgung eines Industrielandes mit elektrischer Energie tauglich.

Das ist naturgesetzlich bedingt und könnte nur umgangen werden, – bei weiterer riesengroßer Kostenerhöhung-

…wenn es ausreichend Speicher für die so erzeugte Elektroenergie im großtechnischen Maßstab gäbe.

Die gibt es aber nicht und sie sind auch nirgendwo, auch nur ansatzweise, in Sicht.

Deshalb kann die geforderte Erhöhung der „Akzeptanz“ also nur dem Zweck dienen, die Bürger über die wahren Sachverhalte und unter Einsatz von Steuermitteln weiter grob zu täuschen.

Aber es gibt noch andere, schwerwiegende Gründe, die dagegen sprechen:

Zu ihnen gehört, dass es keinen Mangel an billigen, konventionellen Energieträgern gibt! Im Gegenteil, sie sind im Überfluss vorhanden.

Gerade wieder meldet Bahrein[1], die Entdeckung eines der größten Öl- und Gasfeldes der Welt. Es enthält eine Menge an fossilen Energieträgern (> 80 Mrd. Barrel) die gleich groß ist, wie die Vorräte der gesamtem russischen Föderation.

Selbst Deutschland könnte seine, im Vergleich zu anderen Ländern, knappen fossilen Energieträger u.a. mittels Fracking und dem Weiterlaufen, voll betriebsfähiger – mit Abstand sichersten-  Kernkraftwerke der Welt- nutzen, um das Land voll mit sicherer, billiger, stets verfügbarer elektrischer Energie zu versorgen.

Aber damit nicht genug. Auch die zusätzliche Installation eines zweiten, – aus unserer Sicht- völlig überflüssigen, aber sehr teuren Stromerzeugungssystem aus „Erneuerbaren“ ist in jeder Hinsicht inakzeptabel. Denn der Markt wird dadurch ja nicht größer!

Nur das Angebot wird es.

Allein deswegen muss ja der so erzeugte Strom per Zwang über die Vorrangeinspeisung in die vorhandenen Leitung gepresst werden.

Und deshalb ist es nutzlos, viel zu teuer, gefährlich für die Bürger, mit allen negativen Folgen und zerstörerisch für unsere Landschaft und deren Flora und Fauna.

Eine Akzeptanzerhöhung wäre daher nur kontraproduktiv.

Auch die Antrags-Begründung gemäß dem Pariser Abkommen ist falsch:  Richtig falsch! Warum?

Brandenburgs CO2Emissionen  betrugen 2017 rd. 59 Mio t  CO2p.a.[2]. 2006 – also 11 Jahre zuvor- waren es 60,2 Mio t. Sie bleiben also defacto unverändert. In dieser Zeit hat sich aber installierte Leistung der WKA von 3.128 MW auf 6.776 MWmehr als verdoppelt [3].

Eine Wirkung auf die CO2Emissionen ist demnach nicht eingetreten. Die blieben praktisch konstant. Damit gab und gibt es auch keinen Beitrag zur Erreichung der Pariser Klimaziele. Dafür sind die Kosten explodiert.

Im Bund sieht es nicht anders aus. Die Emissionen blieben ebenso stabil wie 10 Jahre zuvor. Also hat Brandenburg auch nicht anteilig geholfen die Bundesemissionen zu senken. Nichts, nada, niente, zero, null!

Trotzdem zahlten die Verbraucher in 2017  rd. 30 Mrd. € über die Netzbeitreiber an die Erzeuger dieses Stroms

Und wg. der hohen Netzkosten werden die Verbraucher Brandenburgs noch mal zusätzlich zur Kasse gebeten. Denn der Wind wird ja nicht dort erzeugt, wo er gebraucht wird, sondern ganz woanders.

 

Und es gibt noch einen Grund, den niemand wegdiskutieren kann. Brandenburgs Anteil am Weltklimageschehen ist kleiner als mikroskopisch. Denn selbst dann, wenn man die CO2Emissionen hierzulande auf nahe oder ganz Null senken könnte, und, das wäre die einzige Folge – bei Inkaufnahme der völligen Verarmung der Bevölkerung- würde der Anteil Brandenburgs an der durchschnittlichen Temperaturabsenkung des „Weltklimas“ lediglich [4]0,000042 K betragen.

Das sind vier Nullen nach dem Komma und dann erst die Zahl!

Nochmals winzige:

4, 2 hunderttausendstel ° C (K)!!.

Daher mein Fazit: Die Grünen wollen mit ihrem Antrag die Profite der Windkraft Profiteure erhöhen und das zu Lasten der Bevölkerung. Und diese auch noch über ihre Steuern (per Landesmittel) zur Kasse bitten. Das ist nutzlos aber teuer und nur als zynisch und unlauter zu bewerten und daher abzulehnen.

[1]Quelle  Shale Revolution 3.0: Bahrain Hits (Black) Gold With Biggest Shale Discovery In World
The Times, 5 April 2018

[2]Quelle http://www.lfu.brandenburg.de/cms/detail.php/bb1.c.296595.de

[3]Quelle: https://www.foederal-erneuerbar.de/landesinfo/bundesland/BB/kategorie/wind/auswahl/180-installierte_leistun/versatz/0/#goto_180)

[4]nach der Formel 3,0 x ln(Calt/Cneu)/ln2 = Dabei ist der Faktor 3,0, der sog. ECS Wert, Caltdie CO2 Konzentration vor der Absenkung, Cneudie CO2 Konzentration nach der Absenkung. Von dieser Menge verbleibt max. die Hälfte in der Atmosphäre. Und ln das Kurzzeichen für den natürlichen Logarithmus. Die Formel unterstellt eine Erhöhung von 3 K bei Verdopplung. (ECS Wert). Die Forschung geht inzwischen aber von 0,3 bis 1,1 K aus. CO2in der Atmosphäre (Calt) rd. 3000 Gt, das sind 3.000.000 Mio. t, Brandenburg emittiert 2017 59 Mio. t. Davon verbleibt max. die Hälfte in der Atmosphäre. D.h. nach Absenkung enthält die Atmosphäre rd. 3.000.000 Mio. t minus 29,5 Mio. t = 2.999.970,5 Mio t.

Diese Rede kann auch hier unter Anhörung LT Brandenburg Wirkung V4-5 und hier Anhörung 18.4.18 EE Einspeisung & CO2 V1 heruntergeladen werden. Ein link zu den Vorträgen der andern Experten wird – unmittelbar nach Vorlage- nachgereicht.




Opportunitätskosten der deutschen Energiewende

Hans-Lothar Fischer

In der deutschen Nationalökonomie hat man lange der Energie für die Entstehung von Wohlstand nur eine untergeordnete Rolle zuwiesen. Dabei sind Menschen sind die einzige Spezies, die mit der Lösung von Energie-problemen ihr Leben auf diesem >Planeten der Knappheit< gestaltet haben. Technischer Fortschritt, das Wissen um erfolgreiche Nutzung der Energiepotentiale und die dauerhafte Regelung der kollektiven Konflikte um Energie haben unsere Geschichte geprägt.

Public Choice und Wirtschaftsgeschichte

„Public Choice“-Ökonomen, wie Usher, Olson und Ostrom haben sich mit den Problemen der Lösung zwischenmenschlicher Konflikte befasst. Gegen vagabundierende Banditen setzt Olson Stadtmauern und Militär ein, gegen stationäre Banditen hilft nur ein starker Rechtsstaat  Andere Ökonomen befassten sich mit Innovationen der Energienutzung in der Geschichte.

Klima, Niederschläge und Breitengrade

Je nach klimatischen Bedingungen auf diesem Planeten ergeben sich un-terschiedliche Vegetationsformen. Sie bestimmen die Lebensräume der Menschen. Wrigley wies nach, wie die Besiedlung Australiens durch Straf-täter (convicts) beinahe infolge einer politischen Fehlentscheidung zu scheitern drohte. Historiker zeigen uns wie z. B. Preußen die Konflikte um die Waldnutzung einer Stadt gelöst haben und der eine oder andere hat noch erlebt, wie nach 1945 britische Besatzungstruppen der Unterernäh-rung der Menschen (Lebensmittelrationierung und Treibjagden  im Stadt-wald) und den Problemen des Winters durch massiven  Holzeinschlag be-gegnet sind.

Untergang der DDR-Wirtschaft

Vor knap 30 Jahren waren wir Zeugen des Untergangs der DDR. Bilder von der katastrophalen Verwahrlosung der Städte wurden per Bildschirm in westdeutsche Wohnzimmer geliefert. Im Film „Ist Leipzig noch zu retten?“ sah man das Ausmaß der Zerstörung  und die Hilflosigkeit der DDR-Regierung. Wessies haben sich bei Besuchen dort über die Masse der in Garagen und Kellern gehorteten Kfz-Ersatzteile gewundert.

Opportunitätskosten

Ökonomen in marktwirtschaftlichen Ordnungen sprechen von Opportuni-tätskosten, wenn sie vom Nutzen oder dem ökonomischen Wert vorent-haltener oder entgangener Nutzungsmöglichkeiten sprechen. Wenn Haus-eigentümern per Gesetz verboten wird, von Mietern kostendeckende Mie-ten zu fordern, kommt es wegen mangelnder Wartung und unterlassener Instandsetzung zu gravierenden Substanzverlusten. Letztlich haben die Eigentümer die Immobilien der Stadt übertragen.

Die sozialistische >Sektorkopplung< forderte von den einzelnen Betrieben und Kombinaten die bedingungslose Akzeptanz und Erfüllung der Zentral-pläne. Die >Muckefuck<-Ökonomen in der DDR konnten sich also nicht fachgerecht auf Stillstandsrisiken in betrieblichen Abläufen einstellen. Wenn ein Fließband in der Trabi-Herstellung aus irgendeinem Grund für eine bestimmte Zeit zum Stillstand kam – man nannte das >Havarie< – liefen in dieser Zeit eben keine Trabis vom Band. Westökonomen sehen die entgangenen Erlöse  als Opportunitätskosten. Diese wären nicht ent-standen, wenn das Band weiter gelaufen wäre. Man kann diese Opportu-nitätskosten senken, wenn man alle notwendigen Vorkehrungen für einen kontinuierlichen Betriebsablauf (Wartung) herstellt. Das war in der DDR aber alles ganz anders. Ergebnis: Gebrauchte Trabis wechselten zu deut-lich überhöhten Preisen die Besitzer. Der höhere Preis wurde gegen die 10-Jahre-Lieferzeit abgewogen. Für Trabiersatzteile gab es unterschied-liche – auch illegale – Quellen.

In Marktwirtschaften muss jeder, der in irgendeiner Form Verantwortung in der Wirtschaft übernimmt, den Umgang mit den oben knapp skizzierten Problemen gelernt haben. Schaffen Ökonomen, Kaufleute, und Ingenieure dies nicht, dann ist es um ihre beruflichen Chancen schlecht bestellt. Hier gelten die Regeln des ökonomischen Wettbewerbs. Bei Politikern und Bü-rokraten sollte man das eigentlich auch erwarten.

Kosten der Energieversorgung

Die Versorgung einer Volkswirtschaft mit Energie erzeugt ganz allgemein Kosten der Gewinnung und Bereitstellung der Energieinputs (Kohle, Gas, Kernbrennstoffe etc.), bei der Verarbeitung der Inputs entstehen Kosten, dann entstehen bei der Verteilung der Energie an die Verbraucher und eben auch Kosten der Instandhaltung der Systemkomponenten.

Bei Einführung neuer Energietechnologien ist zu prüfen, ob diese die tra-ditionelle Energieerzeugung und -verwendung vollwertig ersetzen oder ob sie zusätzlich geschaffen werden. Wenn die neuen Technologien die voll-ständige Substitution nicht mit absoluter Sicherheit garantieren können, sondern auf das weitere Funktionieren der traditionellen Technologien angewiesen sein, dann entstehen volkswirtschaftliche Zusatzkosten durch Parallelproduktion. Entschließt sich der Gesetzgeber dann sogar noch zu einer „Vorrangeinspeisung“ für die alternativen Energien (Wind/Sonne), müssen diese Kosten als Opportunitätskosten abgerechnet werden.

Speicherung von Energie

Die Versorgung einer hochkomplexen Volkswirtschaft mit alternativen En-ergieformen (Wind bzw. Solar) ist probmatisch, da hier eine verlustlose  Speicherung wie bei Kohle, Öl, Gas und Kernbrennstoffen – vor der Verwertung versteht sich – nicht möglich ist. Bei alternativen Energieträgern kann man allerdings die erzeugte Energie in Batterien/Pumpspeichern in umgewandelter Form unterbringen. Beim Füllen und Entleeren dieser Zwischenspeicher entstehen Verluste. Ende der 20erJahre entstanden in Deutschland zwei Pumpspeicherkraftwerke (Herdecke und Niederwartha). In Zeiten niedriger Strompreise – also nachts, wenn Haushalte und Gewerbe nur wenig Strom nachfragten – wurden die Speicher über Turbinen mit Wasser gefüllt. In Zeiten hoher Stromnachfrage – in der Regel 12 Stunden später, also bei nachfragebedingt hohen Preisen für die Kilowattstunde – entleerte man die Speicher und gewann über Turbinen Strom.

Die Launenhaftigkeit (oder: Volatilität) der alternativen Energie ist unstreitig. Die Speicherung dieser Energie – wie in den oben diskutierten Fällen – ist nicht  möglich, denn es gibt keine Preisänderungen: die Netzbetreiber müssen diese Energie unter allen Umständen jederzeit aufnehmen. Ein Modellprojekt – Gewinnung von Windenergie und Speicherung in einem Pumpspeicher auf einem erloschenen Vulkan – auf einer Insel im Atlantik (El Hierro) ist gescheitert. Die Insel wird nun wieder von Dieselaggregaten mit Strom versorgt.

Talsperren sichern die Wasserversorgung

In deutschen Mittelgebirgen gibt es eine Reihe von Talsperren. In den Einzugsbereichen von Ruhr, Lenne, Wupper wird Wasser in niederschlagsreichen Zeiten gespeichert, um das stark besiedelte, industrialisierte NRW mit dem lebenswichtigen Rohstoff zu versorgen. Wasserknappheit im Sommer führt zu Trinkwassermangel, Seuchengefahren und anderen gesundheitlichen Risiken, Hochwasser im Frühjahr führen zu Flutschäden. Möhne, Bigge, Henne und Sorpe geben in Trockenperioden bis zu 17.100 Liter Wasser pro Sekunde ab, obwohl in dieser Phase nur 2200 Liter pro Sekunde zufließen. Ohne diese Stabilisierung fiele die Ruhr streckenweise trocken und bei Duisburg würden nur knapp 6000 Liter pro Sekunde an den Rhein abgegegebn. Der Duisburger Hafen könnte damit nur schwer umgehen. Ohne die Eder fiele der Mittellandkanal im Sommer trocken.

Politische Interventionen in den Energiemarkt

Gewaltige Opportunitätskostenrisiken entstehen durch die von der Politik angestrebte Umstellung des Verkehrssystems von fossilen Treibstoffen auf Elektroantrieb. Einzelne Modellversuche (E-Transporter bei der Post) kom-men eigentlich über das Niveau von >Jugend forscht<-Initiativen nicht hinaus. Bei eingeschalteten Fahrzeugheizungen traten starke Reichweiteneinbußen auf. Weitere Interventionen sind im Transportwesen geplant: wird die E-Mobilisierung auf dem Gütertransportsektor verbindlich, stellt sich die Frage, wie man ausländische Transportunternehmen behandelt. Gibt es für sie Ausnahmen, dann verlegen alle deutschen Transportunternehmen ihren Sitz ins Ausland. E-Mobilisierung bei privaten Kraftfahrzeugen schafft unkalkulierbare Wirkungen auf kommunalen Flächenmärkten.

Die gravierendste Folge für die weitere Existenz der Volkswirtschaft geht von der Stilllegung der Kernkraftwerke und der Verdrängung der Kohlekraftwerke aus. Das trifft nicht nur die reine Stromversorgung, sondern bedeutet auch den kompletten Verlust von Fernwärmeoptionen, denn Sonne und Wind liefern keine Wärme.

Stabilitätsrisiken der Energienetze

Riesige Opportunitätskostenrisiken entstehen natürlich auch durch die von der Energiewende intendierte Neuorientierung des Verteilernetzes. Aus einem Verteilernetz wird ein bifunktionales Sammler- und Verteilernetz  Das Risiko von Blackouts steigt. Das führt nach Analysen des Wissenschaftlichen Dienstes im Deutschen Bundestag zu hohen Schadensrisiken durch Plünderung, Ausfall von Kliniken, Rechenzentren, Tankstellen etc. Das sind  für eine Gesellschaft auch volkswirtschaftlich relevante Kostenrisiken.

Opportunitätskosten des deutschen Politikbetriebes

48-Monate-Legislaturperioden in Bund und Ländern führen zwangsläufig zu mehr oder weniger bedeutsamen Wahlen im Abstand von 3 Monaten. Das führt zu instabilen Mehrheitsverhältnissen. Vor 1990 gab es über eintausend Bund-Länder-Kooperationsgremien, hier bestimmten Bürokraten die Agenden in Bundes- und Landtagen sowie im Vermittlungsausschuss. Seit der deutschen Einigung ist alles noch komplizierter geworden. Verbreitete kollektive Dummheit senkt die politischen Überzeugungskosten und erhöht die Opportunitätskosten – Olson`s stationäre Banditen finden reichlich Nahrung.

Den gesamten Aufsatz finden Sie als pdf hier AA Energiewende Opportunitätskosten 01042018

 




Fracking, Brexit und eine Öl- und Gas-Goldgrube

Das britische Erkundungs- und Produktions-Unternehmen Cuadrilla und andere haben lange dafür gekämpft, ernsthaft mit dem Abbau von Schieferöl und -gas in UK beginnen zu können. Die britischen Schiefer-Reserven sind massiv, und in vielen Gebieten der Nation sind reiche Öl- und Gasvorkommen in Sedimenten gebunden, vor allem in Lancashire und Yorkshire. Das British Geological Survey schätzt, dass das Bowland-Becken 1300 Billionen Kubikfuß Gas enthält. Fast 70 Bohrungen haben bereits begonnen. Die Reserven sind riesig.

Selbst falls wir nur ein Zehntel extrahieren können – und Fracking-Unternehmen in den USA erzielen bessere Ergebnisse – würde der Bedarf an Gas in UK ein halbes Jahrhundert lang gedeckt werden können“, schreibt Ambrose Evans-Prithard im Telegraph. Im gleichen Artikel wird der geschäftsführende Direktor von Cuadrilla mit den Worten zitiert: „Wir haben gerade das Gestein durchbohrt, und tatsächlich geht das Ergebnis noch über unsere Erwartungen hinaus. Es ist eine gewaltige Ressource. Das könnte bis mindestens zum Jahr 2050 reichen“.

UK war einst ein Energie-Exporteur bis zum Jahr 2003. Danach wurde das Land zum Importeur, und zwar durch die Politik der Regierung von Tony Blair und gestützt durch die Opposition der Grünen.

Diese Unfähigkeit, mit der britischen Energieversorgung umzugehen, hat bis vor Kurzem zu einer kostspieligen und bedrohlichen Energie-Versorgungslage geführt, bis die UK-Regierung grünes Licht für den Beginn von Bohrungen gegeben hat. Die Energieindustrie hat Ende der achtziger Jahre noch 10% des BIP ausgemacht, heute sind es gerade noch 2%. In der Zwischenzeit ist UK zum Energie-Importeur geworden und musste die auf dem internationalen Markt üblichen Energiepreise bezahlen.


Seit diesem Rückgang befand sich die Energieversorgung in UK sowie der Handel im Ungleichgewicht. UK begann mit Energieimporten zu einer Zeit, als die Vorräte abnahmen und die Preise hoch waren. Detailliert wird dies alles in diesem Report [pdf] aus dem Jahr 2017 beschrieben.

Die Behinderungen der Energieversorgung waren aber auch eine Folge des politischen Diktats der EU. UK wurde bei der Erschließung seiner großen Fracking-Reserven behindert, und zwar durch die Politik der EU ebenso wie durch die der Grünen. Die EU-Politik hat inzwischen dazu geführt, dass die EU gefährlich abhängig ist von Lieferungen aus Russland. Die EU hat erst vor Kurzem begonnen, seine Versorgung zu diversifizieren. Im Zuge dieser Diversifizierung wurde die Errichtung von Import-Terminals in Litauen und anderswo genehmigt, um LNG [Flüssiggas] nach Europa zu importieren. Nicht enthalten sind jedoch Genehmigungen für Fracking.

[Quelle: FRACK-OFF.ORG.UK]
Ein Vorteil des Austritts von UK aus der EU wird die Erschließung von Energie-Ressourcen durch Fracking sein, welche auf den Markt geworfen werden, sowie die immensen kollateralen Vorteile einer heimischen Energieversorgung zu bezahlbaren Preisen. Darin eingeschlossen ist die Schaffung von Arbeitsplätzen für Bohrungen, Transport und Speicherung von Öl und Gas ebenso wie die Erzeugung eines aufkeimenden Marktes für Stahl-Pipelines, Speichertanks, chemische Verarbeitung der Rohstoffe Öl und Gas sowie eine Export-Industrie in die EU – neben vielem Anderen.

Eine neue Generation von Tankschiffen muss gebaut werden, um das Flüssiggas zu verschiffen, zusammen mit Speicherkapazitäten, wenn die Schiffe Häfen in Europa und UK erreichen. Kohlekraftwerke können ihren Betrieb schrittweise einstellen und umgebaut werden zu Gasspeichern. Studien aus jüngerer Zeit haben gezeigt, dass der Umstieg von Kohle auf Gas die Emissionen um zwei Drittel senken kann.

Der Trend zum Gasverbrauch als Energiequelle hat bereits den europäischen Energiemarkt verändert; allerdings zum größten Teil durch importierte Energie.

[OECDMIX (IEA)]
In UK gibt es derzeit ein großes heimisches Pipeline-System, welches über 21.000 Meilen lang ist. Damit wäre es ein Leichtes, das durch Fracking gewonnene Gas im gesamten Land zu verteilen. Große internationale Pipelines gestatten den Transfer von Gas in die EU, ohne dass man zu Flüssiggas übergehen muss. Damit wäre man auch wettbewerbsfähig gegenüber Gas aus Russland und den USA.

Brexit und Fracking
In den USA hat sich gezeigt, dass der glückliche Zufall der Entdeckung von Fracking viele Arbeitsplätze in Geschäften und Einzelhandel vor Ort geschaffen hat. Große Investitionen in Fabriken und Raffinerien wurden dezentralisiert im Bereich der Energieerzeugung, und selbst die Verlegung von Glasfaserkabeln zusammen mit den neuen Pipelines haben ein umfangreiches Netzwerk ländlicher Internet-Verbindungen geschaffen.

Die UK-Regierung hat ein Programm entwickelt, um lokale Gemeinden zu belohnen, in denen Bohrungen erfolgen, sowie einen Entwurf für einen Shale Wealth Fund um sicherzustellen, dass lokale Gemeinden direkt durch das Fracking in ihrer Nachbarschaft profitieren können. Eine Fracking-Goldgrube kann zu erheblichem Nutzen für alle Bürger und lokalen Gemeinden in UK führen.

UK steht mittlerweile am Rande einer industriellen Entwicklung, welche das Schicksal des Landes außerhalb der EU dramatisch beleben kann. Zum Zeitpunkt des Austritts von UK aus der EU und der „Implementierungs“-Phase der Fracking-Industrie wird es bereits realen Nutzen für das Land geben. Die EU könnte zu der Erkenntnis kommen, dass die EU UK viel mehr braucht als UK die EU.

Im Zuge der Versuche, sich aus der Abhängigkeit von Öl und Gas aus Russland zu befreien, kann die Energieversorgung in UK einen großen politischen Faktor darstellen hinsichtlich der Verfügbarkeit einer zuverlässigen alternativen Energiequelle.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/fracking-brexit-and-an-oil-and-shale-gas-bonanza/

Übersetzt von Chris Frey EIKE




Aufmerk­samkeit der Öffent­lichkeit auf globale Erwär­mung lenken: die finale Heraus­forderung

Die Öffentlichkeit verharrt im Abwarte-Zustand. Sie weiß, dass irgendetwas nicht stimmt, kann aber zu keiner endgültigen Schlussfolgerung kommen. Dafür sind verschiedene Gründe maßgeblich, darunter:

Die Informationen stammen von der Regierung, und das ist immer irgendwie verdächtig, obwohl die Menge von Land zu Land unterschiedlich ist. So misstrauen z. B. ihrer Regierung mehr als Kanadier.

Die Regierung informiert auf zwei Wegen, nämlich via Bürokraten und Politiker. Das öffentliche Misstrauen gegenüber Bürokraten besteht, weil die meisten Menschen schon mal mit ihnen zu tun hatten und zu der sprichwörtlichen Erkenntnis gelangt waren, dass man Wahrheit nicht erzwingen kann. Zusätzlich stützen jüngste Enthüllungen der Vorgänge im IRS [die oberste US-Steuerbehörde], DOJ [die US-Justizbehörde], dem FBI und der EPA das Misstrauen immer wieder neu.

Das Misstrauen gegenüber Politikern ist auf einem Allzeit-Hoch, besonders in den USA.

Etwa 80% der Menschen verstehen die Wissenschaft nicht und sagen folglich nichts.

Die meisten der 20%, welche mit Wissenschaft ein wenig vertraut sind, verstehen die Klimawissenschaft nicht und schweigen ebenfalls.

Eine Mehrheit der Meinungen Äußernden tut dies lautstark und definitiv; sie bestätigen die Beobachtung von Mark Twain, dass es klüger ist, den Mund zu halten und die Menschen glauben lassen, dass man dumm sei als dass man etwas sagt und ihnen recht gibt.

Viele wissen, dass der Übergang vom Terminus ,Globale Erwärmung‘ zu ,Klimawandel‘ einen Grund hatte, den sie aber nicht kennen. Nichtsdestotrotz erregt das weiteren Verdacht.

Viele wissen, dass die Aussage von Al Gore vor dem Kongress, dass die Wissenschaft settled und die Debatte vorüber ist, falsch war.

Viele der düsteren Untergangs-Prophezeiungen sind nicht eingetroffen.

Sie sind betäubt durch den Extremismus der Medien. Selbst FOX-News redet von ,Extremwetter‘ anstatt einfach nur Wetter. Die Achtung der Öffentlichkeit vor den Medien befindet sich auf einem Allzeit-Tief.

Die Behauptungen, wonach die Öffentlichkeit negativ und heftig auf den Rückzug von Präsident Trump aus dem Paris-Abkommen reagieren werde, haben sich als falsch herausgestellt.

Das Misstrauen in die Wissenschaft allgemein und die Klimawissenschaft im Besonderen steigt immer weiter. Belegt wird dies durch das Zitat in einem Report des Pew Centers*: „Alles in allem hegen viele Menschen skeptische Ansichten gegenüber Klimawissenschaftlern; ein größerer Anteil erklärt Vertrauen in Medizin-Wissenschaftler. Aber überall drücken Viele es ,weich‘ aus anstatt eine stark positive Meinung zu äußern“.

Dieses letzte Zitat erklärt zum Teil die abwartende Haltung der Öffentlichkeit. Die Menschen wissen nicht, wem man noch trauen kann. Also umgehen sie das Thema, indem sie es beiseite schieben. In anderen großen Umfragen wird dies unterschiedlich quantifiziert.

Abbildung 1 zeigt eine Umfrage des Pew Centers bzgl. der Prioritäten der Öffentlichkeit, dass das Thema „Klimawandel“ an 18. von 19 Stellen liegt:

[*Wer etwas zum Pew-Center wissen will, klicke hier! Anm. d. Übers.]

Abbildung 1

Abbildung 2 zeigt aussagekräftiger die abwartende Haltung von fast 10 Millionen Menschen. Klimawandel liegt an 16. und letzter Stelle:

Abbildung 2

Politiker, welche behaupten, sich nach den Ergebnissen von Umfragen zu richten, ziehen eindeutig diese Umfragen nicht in Betracht oder ignorieren sie absichtlich. Anders als Trump ergehen sich nach wie vor die meisten Politiker mit dröhnenden Behauptungen über die Notwendigkeit von Maßnahmen. Man führe sich die Ignoranz vor Augen, welche von der kanadischen Umweltministerin Catherine McKenna an den Tag gelegt wird. Mir wird auf schmerzhafte und nur zu deutliche Weise bewusst, wie wenig Ahnung Anwälte von Klimawissenschaft haben. Allerdings ist mir auch bewusst, dass McKenna als Anwältin besser als die meisten Anderen wissen sollte, dass es zu jedem Thema zwei Seiten gibt.

Die Frage ist: Warum verharrt die Öffentlichkeit in einer Abwarte-Haltung? Sie hört fortwährend von Skeptikern, dass CO2 nicht ursächlich ist für die globale Erwärmung oder, wie es jetzt heißt, den Klimawandel ist. Das Problem der Skeptiker ist, dass sie normalerweise nicht mit einer alternativen Erklärung der Änderung aufwarten können, selbst wenn sie sich noch so viel Mühe geben. Dies wird offensichtlich in den Reaktionen auf Beiträge bei WUWT über den Zusammenhang von Sonne und Temperatur. Natürlich würde es die große Mehrheit der Öffentlichkeit selbst dann nicht verstehen, wenn eine prägnante wissenschaftliche Erklärung angeboten werden würde.

Glücklicherweise verstehen die meisten Menschen aber auch, dass sie niemals die ganze Komplexität der Wissenschaft erfassen können. Ich sage glücklicherweise, weil das bedeutet, dass sie irgendetwas anderes zögern lässt. Was sie hören ist, dass es über den normalen wissenschaftlichen Diskurs hinaus Behauptungen von Gesetzesbrüchen gibt. Man betrachte dies im Zusammenhang mit Diskussionen über juristische Maßnahmen. Die Gerichtshöfe argumentieren, dass es bei einem wissenschaftlicher Disput um „deine Studie“ und „meine Studie“ geht, und sie sind nicht qualifiziert zu urteilen. Das ist für sich schon eine traurige Zustandsbeschreibung des Rechtssystems. Wissenschaft war und ist seit mindestens 200 Jahren wesentlicher Bestandteil der Gesellschaft mit enormem Einfluss auf dieselbe, und doch hat das Rechtssystem dem immer noch nicht Rechnung getragen.

Das war der Fall bei der jüngsten deplatzierten Begeisterung über die Anforderung von Richter William Alsup an beide Seiten. Er lud alle Beteiligten ein, spezifische Fragen zu beantworten, was dann als Grundlage für eine „Anhörung“ dienen sollte. Das Heartland Institute und die Autoren des Berater-Dokumentes haben die Gelegenheit ergriffen und ausgezeichnete Arbeit geleistet hinsichtlich der Fragen des Richters. Die Schwierigkeit ist aber, dass sie nur wissenschaftliche Antworten geben konnten. Diese beleuchten die grundlegenden Differenzen zwischen ihrer „Studie“ und der „Studie“ des IPCC. Der Beraterbrief zeigte, dass eine wissenschaftliche Differenz verbleibt und dass…

„…es keinen ,Konsens‘ unter den Wissenschaftlern gibt, dass die jüngste globale Erwärmung hauptsächlich anthropogenen Ursprungs war, geschweige denn dass eine unverminderte anthropogene Erwärmung gefährlich oder katastrophal war oder sein wird“.

Das reicht nicht, und es erklärt, warum die Öffentlichkeit auf Nebenschauplätze ausweicht.

Vorige Woche wurde ich von acht verschiedenen Radiostationen aus den gesamten USA interviewt. Jeder Interviewer dachte, dass die Differenz mehr als wissenschaftlich war. Sie wussten alle Bescheid hinsichtlich einiger der Vergehen, die so effektiv von Anthony Watts und den vielen Beiträgen auf seinem Blog verbreitet worden sind. Ich weiß: wenn die Menschen merken, dass der Unterschied mehr als wissenschaftlich ist, erhebt sich automatisch eine ganz bestimmte Frage. Jeder Interviewer stellte sie in der einen oder anderen Form: Welche Motive gibt es dafür?

Die Eröffnungsbemerkung des Richters bei meinem jüngsten Prozess lautete, dass sein Gerichtshof nicht dazu da sei, die Debatte um globale Erwärmung beizulegen. Dann gab er einige Bemerkungen ab über den Artikel im Mittelpunkt des Falles, welche zeigten, dass er kaum etwas wusste. Er schien nicht zu erkennen, dass es in diesem Fall um „meine Studie“ gegen „eure korrupte Studie“ ging. Mir ging es um das Motiv, um den Missbrauch von Wissenschaft für eine politische Agenda. Der Anwalt der Kläger wusste um die Gefahren für seine Mandanten, wenn dieses Argument etabliert würde.

Er machte das, was in fast jedem Interview oder jeder Debatte über AGW passiert, wenn die Leute bemerken, dass sie nicht gegen Argumente ankommen und nicht darauf vorbereitet sind, die Argumente einzuräumen. Er trat einen persönlichen Angriff los. Es war kein Frontalangriff, aber ein Versuch zu zeigen, dass meine Denkweise und meine Standpunkte so weit außerhalb des Mainstreams liegen, dass ihnen jede Glaubwürdigkeit fehlt. Er meinte, dass ich an eine Verschwörungstheorie glaube. Ich sei ein „Verschwörungs-Theoretiker“. Die Evolution und Anwendung dieses zur Waffe gewordenen Terminus‘ wurde von einem der Autoren wie folgt erklärt:

Verschwörungstheorie“ ist ein Terminus, der augenblicklich Furcht und Ängstlichkeit in den Herzen fast jeder Person in der Öffentlichkeit erweckt, vor allem bei Journalisten und Akademikern. Seit den sechziger Jahren wurde dieses Etikett zu einem disziplinarischen Mittel, welches außerordentlich effektiv war bei der Festlegung bestimmter Ereignisse, die immun sind gegen Untersuchungen oder Diskussionen.

AGW-Befürworter leisten ausgezeichnete Arbeit bei der Marginalisierung von Gegnern als Mitglieder von Randgruppen wie etwa Skeptiker der globalen Erwärmung oder Klimawandel-Leugner. Falls sie damit scheitern, ziehen sie sich auf den Vorwurf zurück, dass man ein Verschwörungs-Theoretiker sei. Dies ist sehr effektiv, weil der größte Teil der Öffentlichkeit nicht in Verbindung gebracht werden will mit Extremisten oder Verlierern. Natürlich ist es Realität, dass es immer zu Verschwörungen kommt, sonst würde die Welt nicht existieren. In meinem Prozess erklärte ich, dass es keine Rolle spielt, ob es eine Verschwörung gibt oder nicht – die Realität ist, dass Wissenschaft für eine politische Agenda missbraucht wird, und das darf niemals geschehen.

Falls man das Argument einer Konspiration akzeptiert, glaubt man normalerweise, dass eine kleine Gruppe dahinter steckt. Dies bestärkt die Öffentlichkeit in der irrigen Ansicht, dass eine kleine Gruppe nicht die ganze Welt zum Narren halten kann. Dies ist eine Erweiterung der Behauptung von Abraham Lincoln, dass man nicht alle Menschen für alle Zeiten hintergehen kann. Allerdings hat die Anthropologin Margaret Mead beobachtet:

Man zweifle niemals daran, dass eine kleine Gruppe nachdenklicher, überzeugter Bürger die Welt verändern kann. Tatsächlich ist das das Einzige, was eine solche Änderung bewirkt hat“.

Langfristig mag die Aussage von Lincoln stimmen, aber kurzfristig kann man das, vor allem, falls man diejenigen marginalisiert, die sich dagegen wehren. Genau das widerfuhr den Wenigen, die es wagten nachzufragen oder herauszufordern. Teil des Problems ist, dass die Öffentlichkeit glaubt, zu einer Verschwörung bedarf es einer großen Gruppe Menschen, aber eine Definition zerschlägt diesen Mythos:

Eine Übereinkunft zwischen zwei oder mehr Personen, einen kriminellen Akt zu begehen oder ein legales Ziel zu verfolgen mittels illegaler Maßnahmen“.

Es gibt Gründe, warum ich so offen angegriffen worden bin, und alle bezogen sich auf die Bedrohung, die ich darstelle. Sie können nicht sagen, ich sei nicht qualifiziert. Ich stellte die Pseudowissenschaft der globalen Erwärmung in Frage, weil das gleiche geschah beim „Konsens“ über eine globale Abkühlung in den sechziger Jahren. Ich entwickelte eine natürliche Fähigkeit zu lehren und komplexe Dinge der Öffentlichkeit verständlich zu erklären. Am Wichtigsten war für mich dabei die Rekonstruktion von Klimaten in der Vergangenheit sowie deren Auswirkung auf die menschliche Kondition. Daher gab ich auch eine Vorlesung zum Thema Geopolitik. Zentrales Thema hierbei war, dass Geographie und Klima die Bühne und Historie das auf dieser Bühne stattfindende Theaterstück sind, welches durch jene Bühne beeinflusst wird. Ich machte, was die meisten Wissenschaftler absichtlich vermeiden: ich studierte Politik und verstand von Anfang an, welche Wissenschaft wie herangezogen wurde. Ich erklärte Motive und Verfahren. Viele Beiträge und öffentliche Vorträge über die gesamte Geschichte kulminierten in der Veröffentlichung einer detaillierten und dokumentierten Erklärung in dem 2014 erschienenen Buch The Deliberate Corruption of Climate Science. Allerdings war ich schon lange vorher Ziel von Angriffen, ziehen sich doch die Gerichtsverfahren diesbezüglich bereits in das 7. Jahr.

Die „Abwartehaltung“ wird sich so lange fortsetzen, bis wir der Öffentlichkeit die Motive hinter den AGW-Behauptungen und -Aktivitäten erklären können. Solange nicht noch mehr Menschen, vor allem Skeptiker, die Motive verstehen und sich äußern, kann es weitere 28 Jahre dauern. Vor mir liegen noch mindestens ein weiteres Dutzend Interviews, so dass vielleicht die Flüster-Propaganda des Internets die Zahl derjenigen exponentiell steigen lässt, die sich aus der Abwartehaltung lösen, weil sie um die Motive wissen. Wir sollten uns beeilen, weil offensichtlich ist, was Obamas Netz-Neutralität und die Anhörungen von Zuckerberg belegen, dass jene, die nach Kontrolle über alles trachten, sich zunehmend des Internets bemächtigen.

Oh, Verzeihung, oder ist das jetzt noch eine Verschwörungstheorie?

Link: https://wattsupwiththat.com/2018/04/15/getting-the-publics-attention-on-global-warming-the-final-challenge/

Übersetzt von Chris Frey EIKE




Im Holozän war der Meeresspiegel um 2 Meter höher – heutige Änderungen gehen im Rauschen unter

Holocene-CO2-10500-Years-Ago-to-1800-AD

Vor dem Beginn der industriellen Revolution im späten 18. und frühen 19. Jahrhundert schwankten die Konzentrationen von Kohlendioxid (CO2) zwischen 260 und 280 ppm.

Innerhalb des letzten Jahrhunderts sind die atmosphärischen CO2-Konzentrationen erheblich angestiegen. Kürzlich haben sie 400 ppm übertroffen.

Wissenschaftler wie Dr. James Hansen sind zu dem Schluss gekommen, dass die vorindustriellen CO2-Werte klimatisch ideal waren. Obwohl weniger optimal, wurden atmosphärische CO2-Konzentrationen bis zu 350 ppm als klimatisch „sicher“ charakterisiert. Es wird jedoch angenommen, dass CO2-Konzentrationen über 350 ppm für das Erdsystem gefährlich sind und dass solche „hohen“ Konzentrationen zu einer raschen Erwärmung, Gletscher- und Eisschichtschmelze und zu einem erschütternden Meeresspiegelanstieg von 3 Meter innerhalb von 50 Jahren führen könnten.

Um diese katastrophalen Ausmaße (3 Meter innerhalb von 50 Jahren) zu erreichen, die von Befürwortern des Meeresspiegelanstiegs vorhergesagt werden, muss die derzeitige „anthropogene“ Änderungsrate von +1,4 Millimeters pro Jahr (seit 1958) sofort auf +61 Millimeter pro Jahr explodieren. Die Wahrscheinlichkeit, dass dies geschieht, ist gering, insbesondere wenn man bedenkt, dass Grönland und die Antarktis zusammen seit 1958 insgesamt 1,54 cm beigetragen haben (Frederiske et al., 2018).

 

 

Steigt der aktuelle Meeresspiegel mit einer beispiellosen „anthropogenen“ Rate? –  Nein.

Trotz des Anstiegs der CO2-Konzentrationen seit 1900 ist der Weltklimarat (IPCC) der Vereinten Nationen zu dem Schluss gekommen, dass der globale Meeresspiegel im gesamten Zeitraum 1901-2010 nur um durchschnittlich 1,7 mm / Jahr gestiegen ist, was 17cm pro Jahrhundert entspricht.

Während der Periode von 1958 bis 2014, bei ansteigenden CO2-Emissionen, ergab eine kürzlich durchgeführte Analyse, dass sich der Anstieg des Meeresspiegels auf 1,3 mm / Jahr bis 1,5 mm / Jahr oder nur 14 cm pro Jahrhundert verlangsamte.

 

Frederiske et al., 2018 „Anthropogene“ globale Meeresspiegelanstiegsrate (1958-2014): liegt bei +14 cm pro Jahrhundert

„Zum ersten Mal wird gezeigt, dass für die meisten Wassereinzugsgebiete der rekonstruierte Meeresspiegeltrend und die Beschleunigung durch die Summe der Faktoren sowie einen großen Teil der dekadischen Variabilität erklärt werden kann. Die Rekonstruktion des globalen, mittleren Meeresspiegels zeigt einen Trend von 1,5 ± 0,2 mm/Jahr im Zeitraum 1958-2014 (1σ), verglichen mit 1,3 ± 0,1 mm/Jahr für die Summe der Faktoren.“

In den letzten paar tausend Jahren hingegen stieg und fiel der Meeresspiegel in einigen Regionen mit Raten von + oder – 0,5 bis 1,1 Metern pro Jahrhundert, das ist 4 bis 7 mal so hoch wie seit 1958.

[[Hinweis: Im Original Bericht und vor allem bei den Kurzfassungen vieler Studien, sind viele Grafiken über „Höhe des Meeresspiegels“ eingeklinkt.
Der Übersicht halber, habe ich nur wenige übernommen. Bitte nutzen Sie die angegebenen Links für mehr Details.
Achten Sie bitte auf die Zeitskala: Jetzt (oder NULL) kann mal ganz rechts oder auch ganz links sein. Der Übersetzer]]

 

Holocene-Cooling-Sea-Level-Africa-Mozambique-Miguel-2018

alle Grafikquellen im Original: Bracco et al., 2014   Whitfield et al., 2017    Strachan et al., 2014 

 Hein et al., 2014    Miguel et al., 2018

 

Hansen et al., 2016

„Kontinuierliche Aufzeichnung der Veränderungen des holozänen Meeresspiegels (von vor 4900 Jahre bis heute). …. Die Kurve zeigt acht hundertjährige Schwankungen des Meeresspiegels von 0,5-1,1 m, die dem allgemeinen Trend der RSL-Kurve (relativer Meeresspiegel) überlagert sind.“

Auch andere Regionen haben in den letzten tausend Jahren starke Schwankungen des Meeresspiegels erfahren, die weit über die heutigen Veränderungen hinausgehen.

Holocene-Cooling-Sea-Level-Denmark-Hansen-16

Das dänische Meer verändert sich innerhalb der natürlichen Variabilität.
Bildquelle:  Hansen et al., 2016

  

Vor ~15,000 – 11,000 Jahren, stieg der Meeresspiegel um plus 4 bis plus 6 Meter pro Jahrhundert

Veränderungen in aktueller Zeit sind auf den Diagrammen der langfristigen Meeresspiegeltrends nicht einmal zu erkennen.

 

  

Holocene-Cooling-Sea-Level-China-Bradley-16

Holocene-Cooling-Sea-Level-Thailand-Scheffers-2012

alle Grafikquellen im Original: Dura et al., 2016 ; Bradley et al., 2016 ; Scheffers et al., 2012  Kane et al., 2017

 

Cronin et al., 2017  

 „Raten und Verlauf des globalen Meeresspiegelanstiegs (SLR) nach dem letzten glazialen Maximum (LGM) sind aus radiometrischen Zeitaltern an Korallenriffen von Barbados, Tahiti, Neuguinea und dem Indischen Ozean sowie Sedimentdaten vom Sunda-Schelf und anderen Orten bekannt.

 Lambeck et al. (2014) schätzen die mittleren globalen Raten während der Hauptphase der Enteisung vor 16,5 bis 8,2 Tausend Jahren bei 12 mm/Jahr [+1,2 Meter pro Jahrhundert] mit schnelleren SLR [Meeresspiegelanstiegs] Raten ( ~ 40 mm/Jahr) [+4 Meter pro Jahrhundert]  während des Schmelzwasserimpulses 1A vor etwa 14.500 bis 14.000 Jahren“.

[englisch: … während des „meltwater pulse“]

Abdul et al., 2017   Anstieg des globalen Meeresspiegels:  +4 Meter pro Jahrhundert (vor 11.450 bis 11.100 Jahren)

 „Wir stellen fest, dass der Meeresspiegel den Klimaschwankungen bemerkenswert gut folgt. Der Anstieg des Meeresspiegels war im frühen Allerød (25 mm/Jahr) schnell, fiel aber sanft in den Jüngeren Dryas (7 mm/Jahr) zurück, bis die Rate auf <4 mm/Jahr ‚plateaued‘, dort als „slow stand“ [~ langsamer Pegelstand] bezeichnet“.

 Es wurden keine Beweise gefunden, die auf einen Sprung des Meeresspiegels zu Beginn des Jüngeren Dryas hinweisen, wie von einigen Forschern vorgeschlagen. Nach dem „Slow-Stand“ beschleunigte sich der Anstieg des Meeresspiegels schnell und erzeugte den 14 ± 2 m hohen Meeresspiegelsprung, bekannt als MWP-1B; dieser trat auf vor 11,45 und 11,1 Tausend Jahren, mit einem Anstieg des Meeresspiegels auf 40 mm/Jahr [+4 Meter pro Jahrhundert]. „

  

Ivanovic et al., 2017   Meeresspiegelanstieg auf der Nordhalbkugel: +3,5 bis +6,5 Meter pro Jahrhundert (vor ca. 14.500 Jahren)

„Während des letzten glazialen Maximums vor 26-19.000 Jahren, erstreckte sich eine riesige Eisdecke über Nordamerika [Clark et al., 2009]. In den folgenden Jahrtausenden, als das Klima sich erwärmte und diese Eisdecke zerfiel, strömten große Mengen Schmelzwasser in die Ozeane [Tarasov und Peltier, 2006; Wickert, 2016].

 Diese Periode, die als „letzte Enteisung“ bekannt ist, umfasste Episoden abrupten Klimawandels, wie die Bölling-Erwärmung [vor ~ 14.7-14.5 Tausend Jahren], als die Temperaturen der nördlichen Hemisphäre innerhalb weniger Jahrzehnte um 4° bis 5 ° C anstieg [Lea et al., 2003; Buizert et al., 2014]. Das fiel zusammen mit einem Anstieg des Meeresspiegels um 12-22 m in weniger als 340 Jahren [3,5 bis 6,5 Meter pro Jahrhundert] (Melt water Pulse 1a (MWP1a)) [Deschamps et al., 2012]. „

 

  Zecchin et al., 2015    Anstieg des regionalen Meeresspiegels: +6 Meter pro Jahrhundert (vor 14.500-11.500 Jahren)

 Schmelzwasser-Impulse haben den postglazialen relativen Meeresspiegelanstieg mit Raten von bis zu 60 mm/Jahr [6 Meter pro Jahrhundert] für ein paar Jahrhunderte unterbrochen.

 

Es ist immer offensichtlicher geworden, dass der Meeresspiegel ohne offensichtlichen Zusammenhang mit CO2-Konzentrationen steigt und fällt. Und wenn ein anthropogenes Signal nicht auffallend deutlich mit dem Meeresspiegelanstieg in Verbindung gebracht werden kann (wie Wissenschaftler festgestellt haben), dann wird die größte wahrgenommene existenzielle Bedrohung, die von Befürwortern einer gefährlichen anthropogenen globalen Erwärmung verkündet wird, nicht mehr in Betracht gezogen werden können.

Erschienen auf No Tricks Zone am 12.04.2018

Übersetzt durch Andreas Demmig

http://notrickszone.com/2018/04/12/70-papers-holocene-sea-levels-2-meters-higher-todays-sea-level-change-indistinguishable-from-noise/

Link zur Übersicht über viele der angesprochenen Studien)

70+ Studien: Meeresspiegel 2+Meter höher vor 9.000 – 4.000 Jahren, während die CO2-Werte mit 265ppm „sicher“ waren




Luftmess­stationen: Aktivisten entlarven Tricksereien

Vorab sei noch kurz angemerkt, dass das Umweltbundesamt (UBA) im Rahmen seiner neuesten Veröffentlichung über angeblich 6.000 NO2-Tote und über 400.000 angebliche Diabetesfälle durch NO2 im Jahre 2014 so freundlich war, eine Grafik zu veröffentlichen, die seine eigene ständige Panikmache als Fake-News entlarvt, Bild 2.

Bild 2. Diese Grafik beweist, dass die erdrückende Mehrheit der Bevölkerung an ihren Wohnorten nur geringen NO2-Immissionen ausgesetzt ist (Grafik: UBA)

Diese vom UBA selbst in Auftrag gegebene Untersuchung dokumentiert, dass nur ein verschwindend kleiner Teil der deutschen Bevölkerung überhaupt an Orten wohnt, wo die Immissionsmesswerte den Jahresgrenzwert von 40 µg/m3 überschreiten. Schon seit 2010 gibt es selbst in der Kategorie zwischen 35 und 40 µg/m3 gar keinen Farbbalken mehr, und die Kategorie über 40 µg/m3 wird gar nicht mehr aufgeführt.

Wie das UBA aus Mücken Elefanten macht

Die in den Medien immer wieder kursierenden Behauptungen des UBA über die viel zu hohen NO2-Wert2 in Städten beruht auf einem recht simplem, aber sehr wirksamem Trick: Man platziert seit vielen Jahren einen erheblichen Teil der Messstationen nicht etwa da, wo sie für den größten Teil des Stadtgebiets repräsentativ wären, sondern gezielt dort, wo man in eng begrenzten „Hot-Spot-Bereichen“ die höchsten überhaupt aufzufindenden Messwerte finden kann. So findet sich in einer Pressemeldung des Landesumweltamtes Baden-Württemberg der Hinweis, dass schon 2006 alle Gemeinden in Baden-Württemberg gebeten wurden, sogenannte straßennahe Belastungsschwerpunkte zu melden, an denen dann sogenannte Spotmessstellen eingerichtet wurden [SPOT]. Hiervon gibt es allein in Stuttgart vier Stück, das sind 50 % aller städtischen Messstellen. Die „Belastung“ der Stuttgarter Bürger wird demnach zu einem geradezu grotesk überproportionalen Anteil aus Daten hergeleitet, die an vier räumlich eng begrenzen „Hot-Spots erfasst werden. Zudem wurden diese Messstationen immer mal wieder anders platziert: Wenn die Belastungssituation an einer Messstelle unter den Grenzwert gefallen war, wurde ein anderer Ort gesucht und gefunden, wo man noch die gewünscht hohen NO2-Werte auftreiben konnte. Vor diesem Hintergrund bekommen die jeweiligen oberen Kurven in den Teilbildern von Bild 3 und Bild 4 eine ganz neue Bedeutung.

Bild 3. So manipuliert das UBA die Öffentlichkeit mit „kreativ“ neu selektierten Informationen seiner eigenen Messstationen. Das untere Bild wurde zwischenzeitlich von der Webseite entfernt (Grafik oben: [UBAHGP], Grafik unten [UBANO2])
Das Bild 3 dokumentiert eine gleich doppelte Manipulation durch das UBA. Einerseits sind im Prinzip nur die grünen und gelben Kurven der beiden Teilbilder maßgeblich für die tatsächliche Luftqualität für vermutlich mehr als 99,98 % der deutschen Bevölkerung. Die obersten Kurven gelten nur für die „Hot-Spot“-Messstellen, die nur für einen verschwindend kleinen Bruchteil der Bevölkerung relevant sind. Obwohl beide Bilder aus dem gleichen Kalenderjahr stammen, unterscheiden sich die jeweils oberen Kurven drastisch. Grund hierfür ist die Tatsache, dass man 2016 eine „Hintergrund“-Broschüre mit dem Titel „Luftqualität 2015 Vorläufige Auswertung“ [UBAHGP] herausbrachte, deren Stoßrichtung betont alarmistisch war. Die Botschaft im Kapitel über NO2 war: „Stickstoffdioxid: Kaum Besserung gegenüber dem Vorjahr“. Da den Autoren die vorhandenen Daten wohl nicht dramatisch genug waren, wurden die Daten sowohl der mittleren als auch der oberen Kurve durch kreative Auswahl der Datensätze nach oben frisiert, damit sie besser zur Botschaft passten (man beachte hierbei auch die Farbwahl der oberen Kurve). Das untere Bild wurde mittlerweile von der UBA-Webseite entfernt, es ist jedoch nahezu deckungsgleich mit einer Fassung aus dem Jahr 2017.

Abgesehen von den oben dokumentierten Manipulationen wird insbesondere bei den „Hot-Spot“-Messstationen auch durch diverse Tricks dafür gesorgt, dass diese höhere Messwerte liefern als nach EU-Richtlinien eigentlich vorgesehen, wie von unseren ehrenamtlichen Helfern nachfolgend dokumentiert wird.

Messtationen in absteigender Reihenfolge

Die jetzt vorgestellten Meldungen wurden nach der Höhe des im Jahre 2017 ermittelten NO2-Jahresmittelwerts in absteigender Reihenfolge ausgewählt. Da einige besonders fleißige Helfer uns gleich mehrere Stationen gemeldet hatten, werden diese dementsprechend öfter genannt.

DEHH068, Hamburg-Habichtstrasse, 58 µg NO2/m3, Rangfolge 6, gemeldet von Uli W., Hamburg

Bild 4. Die Messtation in Hamburg-Habichtstrasse (Bild: Institut für Hygiene und Umwelt)

Die Habichtstrasse ist eine Hauptverkehrsader und befindet sich östlich des Hafens. Bei den vorherrschenden südwestlichen Winden wird die Gegend durch die Emissionen der Schiffe beaufschlagt. Wie bei vielen anderen Hot-Spot-Stationen mit überhöhten Werten ist die Messanlage direkt unter Alleebäumen aufgestellt, was die Durchlüftung erschwert und den Abtransport von Abgasen behindert. Zudem ist sie direkt am Straßenrand aufgestellt, wo die Abgase noch ziemlich konzentriert sind.

DEBW117 Ludwigsburg Friedrichstraße, 51 µg NO2/m3, Rangfolge 13, gemeldet von Martin S, Ludwigsburg

Bilder 5 und 6. Die Messstation Ludwigsburg-Friedrichstrasse (Bilder: Martin S.)

Die Messstelle ist in eine Nische gequetscht, weder der Freiwinkel von 270° noch der erforderliche Gebäudeabstand von mehreren Metern wurden eingehalten. Noch im letzten Jahr lag der städtische NO2-Hintergrund bei 26 μg/m³, dem Verkehr bleiben als nur 16 μg/m³. Ergänzend ist noch anzumerken, dass man bei der Messstelle auch hinterfragen kann, ob sie für 100 m Straße repräsentativ ist, denn sie liegt in einer Steigung nahe einer „Mulde“. Nimmt man an, dass NO2 eher absinkt, dann ist der Messort auch diesbezüglich ungünstig.

DEHE112 Wiesbaden Schiersteiner Straße, 50 µg NO2/m3, Rangfolge 14, gemeldet von Franz N. M.

Bild 7. Die Messstation Wiesbaden Schiersteiner Straße (Bild: Hessisches Landesamt für Umwelt und Geologie)

Angaben der HLNUG: „Die Luftmessstation Wiesbaden-Schiersteiner-Straße ist eine „Verkehrsbezogene Messstelle“. Diese Messstellen zeichnen sich durch ihre Nähe zu Straßen mit hohem Verkehrsaufkommen sowie durch ihre Platzierung in Straßenschluchten aus, wodurch die Verteilung von Schadstoffen eingeschränkt ist und in der Regel hohe Konzentrationen erreicht werden“.

Ergänzend schreibt uns Franz N. M.: „Die Messstation steht direkt an der sechsspurigen Schiersteiner Str. Hier wird die 270 Grad Regel der EU verletzt. Außerdem ist die Messstation mit ihrem Fahrbahnabstand von 20 cm nicht repräsentativ für einen größeren Luftbereich“.

DEBE064 Berlin Neukölln Karl-Marx-Str. 49 µg NO2/m3, Rangfolge 17, gemeldet von Christian F.

Bilder 8 und 9. Die Messstation Karl-Marx-Str. in Berlin-Neukölln (Bilder: Christian F.)

Die Messstation befindet sich in unmittelbarer Nähe der Einmündung Karl-Marx-Str./ Flughafenstr. Beide Straßen sind sehr stark befahren.

Zusätzliche Recherchen zeigten, dass die Station direkt am Fahrbahnrand steht und vermutlich auch nicht 25 m von der Kreuzung entfernt stehen dürfte.

DEHE037 Wiesbaden Ringkirche, 49 µg NO2/m3, Rangfolge 17, gemeldet von Franz N.M.

Bild 10. Die Messstation Wiesbaden Ringkirche (Bild: Hessisches Landesamt für Umwelt und Geologie)

Angaben der HLNUG: „Die Luftmessstation Wiesbaden-Ringkirche ist eine „Verkehrsbezogene Messstelle“. Diese Messstellen zeichnen sich durch ihre Nähe zu Straßen mit hohem Verkehrsaufkommen sowie durch ihre Platzierung in Straßenschluchten aus, wodurch die Verteilung von Schadstoffen eingeschränkt ist und in der Regel hohe Konzentrationen erreicht werden“.

Franz N. M. schreibt uns: „Die Messstation steht direkt an der Kreuzung von der fünfspurigen Rheinstraße und dem 6 spurigen Kaiser-Friedrich-Ring. Abstand zum Kaiser-Friedrich-Ring 20 Zentimeter. Sie verstößt eindeutig gegen die 25 m EU-Abstandsregelung zu Kreuzungen“.

Wie man auf dem Bild außerdem sieht, steht die Station auf dem Mittelstreifen einer Allee mit einer Doppelreihe von großen alten Bäumen mit dichten Kronen, die vor allem im Sommer den Luftaustausch sehr stark behindern. Auch bei der kreuzenden Straße handelt es sich um eine Allee mit einer Doppelreihe großer, dicht belaubter Bäume.

DENW189 Wuppertal Gathe, 49 µg NO2/m3, Rangfolge 21, gemeldet von Arnd B.

Bilder 11 und 12. Die Messstation in Wuppertal-Gathe. Während vorne gerade ein Bus abfährt, kommt hinten schon der nächste (Bilder: Google Maps mit eingefügten Markierungen)

Zur Beschreibung verweist Arnd B. auf eine Dokumentation der Messstelle durch die Deutsche Autofahrerhilfe bei Facebook: „Die Messstation befindet sich neben einer Busspur und in unmittelbarere Nähe einer Haltestelle; sie ist so positioniert, dass sie quasi im “Abgasstrahl” der dort haltenden Busse liegt. Die Bus-Frequenz ist offenbar so hoch, dass das bei Google Maps verfügbare Bildmaterial gleich 2 ankommende bzw. abfahrende Busse zeigt….In der 39. BImSchV sind u.a. folgende Kriterien für Messstationen definiert: Der Messeinlass darf nicht in nächster Nähe von Emissionsquellen angebracht werden, um die unmittelbare Einleitung von Emissionen, die nicht mit der Umgebungsluft vermischt sind, zu vermeiden. Der Ort von Probenahmestellen ist im Allgemeinen so zu wählen, dass die Messung von Umweltzuständen, die einen sehr kleinen Raum in ihrer unmittelbaren Nähe betreffen, vermieden wird. Für die gemessene Verschmutzung sollte nicht eine einzelne Quelle vorherrschend sein, es sei denn, dies ist für eine größere städtische Fläche typisch. Die Probenahmestellen müssen grundsätzlich für eine Fläche von mehreren Quadratkilometern repräsentativ sein. Die Messstation Wuppertal Gathe (VWEL) verstößt gegen diese Kriterien [der 39. BImSchgV], denn sie ist unmittelbar neben einer bedeutenden NOx-Quelle positioniert – nämlich an einer Bushaltestelle, an der im Stand (Ein- und Aussteigen der Passagiere) sowie unter Last (Wiederanfahren/ Beschleunigen der Busse) laufende schwere Dieselmotoren für erhebliche Verschmutzungen sorgen. Die dortige Überschreitung der Grenzwerte ist also ein konstruiertes Ergebnis“ [DEAFH].

DEBE063 Berlin Neukölln, Silbersteinstraße, 48 µg NO2/m3, Rangfolge 23, gemeldet von Christian F.

Bilder 13 und 14. Die Messstation Silbersteinstrasse in Berlin Neukölln (Fotos: Christian F.)

Zur Messstelle gibt Christian F. folgende Hinweise: „Die Messstation befindet sich etwa 50 cm von der Fahrbahn entfernt. Die Silbersteinstr ist eine sehr stark befahrene Straße. Die Messstation befindet sich fast an der Kreuzung Silbersteinstr./ Karl-Marx-Str. Auch die Karl-Marx-Str. ist eine sehr stark befahrene Straße“.

Auch wurde der 25-m-Abstand zur Kreuzung augenscheinlich nicht eingehalten, dafür steht die Station in einem Bereich, wo Balkone den vertikalen Luftaustausch beeinträchtigen.

Berichterstattung wird fortgesetzt

Noch nicht aufgeführte Stationen werden noch in weiteren Folgen vorgestellt, wobei die Reihenfolge vom Jahresmittelwert für 2017 abhängt.

Allen Unterstützern und Helfern sei hiermit an dieser Stelle nochmals ausdrücklich gedankt.

Fred F. Mueller

Quellen

[DEAFH] https://www.facebook.com/notes/deutsche-autofahrerhilfe/wie-überschreitungen-des-nox-grenzwertes-durch-positionierung-der-messstationen-/234007083828775/

[SPOT] https://www.lubw.baden-wuerttemberg.de/presseservice/faq

[UBAHGP] https://www.umweltbundesamt.de/publikationen/luftqualitaet-2015

[UBANO2] https://www.umweltbundesamt.de/daten/luft/stickstoffdioxid-belastung#textpart-1

[UBASTU] https://www.umweltbundesamt.de/publikationen/quantifizierung-von-umweltbedingten




Schweden baut Straßen mit Stromschiene für Autos, kostet rund 1 Mio € per km – um die globale Erwärmung zu bekämpfen

Die knapp 2 km der elektrifizierten Straße kosteten laut Berichten rund 2,5 Millionen Dollar. Schweden baut die Straßen als Teil seines Ziels zur Reduzierung der globalen Erwärmung, die Emissionen im Verkehrssektor sollen bis 2030 um 70 Prozent reduziert werden.

Mit rund 500.000 km Straßen in Schweden, einschließlich 20.000 km Autobahn, wäre die Elektrifizierung aller Straßen eine unglaublich kostspielige Angelegenheit. Es ist billiger als 500.000 km öffentlicher Nahverkehr zu bauen, aber auch in den Folgekosten extrem teuer.

Was auch nicht berichtet wird, sind die Kosten für die Instandhaltung und Elektrifizierung der Straßen, die von Elektroautos genutzt werden können, um sich beim Drüberfahren aufzuladen. Das Konsortium, das hinter dem Projekt steht, sagte, dass auch traditionelle Fahrzeuge mit Gasantrieb auch in der Lage sein könnten, die Straße zu nutzen, um ihre Batterien aufzuladen, so die Firmengruppe, die die Straße gebaut hat.

Pressebild E-roads, nedläggning av elskena, Arlanda

„An der Oberfläche gibt es keinen Strom“, erzählt Hans Säll, CEO von eRoadArlanda (ein schwedisches Straßenbauunternehmen) dem The Guardian. „Es gibt zwei Fahrspuren, gerade so wie eine Steckdose in der Wand.Die Energie ist fünf oder sechs Zentimeter weiter unten. Aber wenn die Straße mit Salzwasser überflutet wird, haben wir festgestellt, dass die Spannung an der Oberfläche nur ein Volt beträgt. Da könnten Sie barfuß darauf laufen.“

Ganz offensichtlich würden Hybrid- und Elektrofahrzeuge von Straßen zum wiederaufladbaren  der Antriebsbatterie am meisten profitieren, obwohl sie nur einen kleinen Teil der schwedischen Fahrzeugflotte ausmachen. Die Schweden haben seit 2011 mehr als 50.000 leichte Hybrid- und Elektrofahrzeuge gekauft.

Allerdings machten Hybrid- und Elektrofahrzeuge in 2017 nur 5,2 Prozent der Pkw-Neuzulassungen aus. Und das mit großzügigen Zuschüssen für Elektrofahrzeuge.

Erschienen auf The Daily Caller am 13.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/13/worlds-first-electrified-road/

 

* * *

Technische Zusatzinformation

Andreas Demmig

Wie oben beschriebene eRoad funktioniert, wird u.a. hier beschrieben.

Ein Stromabnehmer am Fahrzeug, erkennt beim Drüberfahren, dass eine Stromschiene in der Fahrbahn eingebaut ist.  Die Position soll dann selbsttätig gefunden werden, Der Stromabnehmer senkt sich ab – schiebt den Schleifkontakt nach unten bis zur Stromschiene.

Das Schienensystem erkennt wo ein Fahrzeug sich darüber befindet und schaltet nur ein Stück Stromschiene ein. Wie lang dieses aktive Stück ist, habe ich nicht gefunden, offenbar ist das Stück aktivierte Stromschiene länger als ein LKW. Es müssen also in jeder der Sektionen Sensoren sein und Leistungsschütze die Stromzuführung schalten.

Bei Ausweich- oder Überholmanövern, soll sich der Stromabnehmer wieder automatisch lösen und anheben. (schnell genug?) Es versteht sich dann von selbst, dass der Fahrer längere Zeit auf der Spur bleibt. Arlanda schreibt: Damit ist das Reichweitenproblem der E-Autos gelöst, denn die Batterien brauchen nur die nächste elektrifizierte Straße zu erreichen.

 

Schütze (Kontakte) für die Stromführenden Abschnitte deshalb, damit die Spannung sicher abgeschaltet ist. Leistungshalbleiter, z.B. IGBTs wären verschleißärmer, schalten aber nicht galvanisch ab – also keine sichere Trennung. Es muss verhindert werden, dass z.b. kein Lebensmüder mit einem Eisendraht an die Stromschiene kommt.

Ähnliches gibt es bei Straßenbahnen schon vor seit längerer Zeit. Aus ästhetischen Gründen soll  in der Fußgängerzone keine Oberleitung gespannt werden. Bordeaux und Dubai haben solche Systeme. Allerdings keine Schlitze in der Oberfläche, sondern flache und glatte Strombahnen in der Mitte der Schienen (gab es schon bei Werner-von-Siemens  erster elektrischer Bahn in Berlin, 1879, mit dritter Schiene 150 V, Prinzip „Märklin“)

Demmig, Straßenbahn in Dubai mit Stromband in der Mitte der Schiene

Kontaktbehaftete Schlitzzuführungen in Straßen wurden bei Straßenbahnen schon vor langer Zeit in verschiedenen Städten der Welt getestet, haben sich wegen sehr hoher Bau- und Wartungskosten, sowie hohe Störanfälligkeit (Schmutz, Steine, Salzwasser) nicht durchgesetzt. Bei der eRoad ist mir nicht klar, wo das Wasser hin abläuft – und so gut, dass es Schmutzteile, kleinere oder größere Gegenstände und Holzstöckchen mit nimmt, vielleicht wird täglich gereinigt?

Dubai erscheint mir noch am besten geeignet (Kosten nicht betrachtet), denn dort regnet es maximal eine Woche im Jahr, und Schnee ist nur bei kommender Eiszeit zu befürchten.

Demmig, Straßenbahn in Dubai, Stromband mit Isolierstellen an Übergängen

Ergänzung:

U-Bahnen und Metros nutzen oft eine Stromschiene neben der Schiene auf eigenem Gleiskörper. Vorteil: Höhere Leistungabnahme und niedrigere Tunnel.

Bombardier hat mit berührungsloser Übertragung experimentiert. Die Übertragunsverluste sind jedoch enorm (Energie macht rund ein Drittel der Kosten für einen Straßenbahn oder Metrobetrieb aus)




Beeinflus­sungen durch Starkregen nehmen in Deutsch­land nicht zu. Mit schlecht ange­wandter Statistik lässt sich aber das Gegen­teil „zeigen“ (Teil 2)

Niederschlag Irland

Kürzlich wurde eine Niederschlagsreihe von Irland veröffentlich [7]. Diese beginnt mit dem Jahr 1711 und dürfte damit die längste, verfügbare Langzeitreihe sein. Anbei eine Sichtung, ob man darin einen Klimawandel-Einfluss mit Erhöhung der Niederschlagsgefährdung und Extremen erkennen kann.

Bild 20 zeigt die Niederschlags-Jahreswerte.
Bis auf zwei Spitzen ganz am Ende (deren Entstehung etwas rätselhaft ist), haben die Maximalwerte und der gleitende Mittelwert nicht zugenommen. Ein Einfluss des Klimawandels müsste sich spätestens seit 1880 und verstärkt nach 1950 (Beginn des „ganz schlimmen Klimawandels) am Mittelwert deutlich erkennbar zeigen, ist aber nicht entfernt zu sehen.

Bild 20 [7] Irland, Monatswerte Niederschlag 1711 – 2016. Gleitender Mittelwert 54 Monate. Grafik vom Autor aus den Daten erstellt
Mit dem Klimawandel sollen die Extreme zunehmen. Das müsste man an zunehmenden Pegeldifferenzen sehen. Im Bild 21, welches diese für die Monatsdaten darstellt (leider löst die Reihe nicht höher auf), sieht man langfristig aber eher eine Abnahme, als Zunahme. Die Jahresdifferenzen im Folgebild verlaufen vollkommen horizontal.

Bild 21 [7] Irland, Differenz der Niederschlags-Monatswerte zum Vormonat 1711 – 2016 und gleitender Mittelwert 24 Monate. Grafik vom Autor aus den Daten erstellt
Bild 22 [7] Irland, Differenz der Niederschlags-Jahreswerte zum Vorjahr 1711 – 2016 und gleitender Mittelwert 36 Jahre. Grafik vom Autor aus den Daten erstellt
Fazit

Selbst in dieser „endlosen“ Langzeitreihe ist kein negativer Einfluss eines Klimawandels auf den Niederschlag, seine Extreme. oder Erhöhung durch größere Differenzen erkennbar.

Für den Autor ist damit belegt, dass der DWD und das Bayerische Landesamt anhand ihrer umfassenden Datensammlung gezeigt haben, dass Starkregenereignisse und vor allem die dadurch hervorgerufene Vulnerabilität in ganz Süddeutschland – und übertragen damit auch in ganz Deutschland – nicht zugenommen haben, eher sogar im Abklingen begriffen sind.
Leider haben es die beteiligten Wissenschaftler und Fachpersonen unterlassen, selbst verfeinerte Analysemethoden anzuwenden, so dass man nicht ausschließen kann – es sogar eher wahrscheinlich ist -, dass diese deshalb im Bericht zu einem falschen Ergebnis gelangten.
Solche traurigen Fälle von Mängeln in wissenschaftlichen Arbeiten finden sich beim Klimawandel leider immer öfter (rein persönliche Meinung des Autors).

Die Unwetter werden immer schlimmer: Je weiter man in die Vergangenheit zurückblickt

Simbach am Inn und Braunsbach

Beginnen wir mit dem Jahr 2016. Damals geschahen in Simbach und Braunsbach zwei extreme Starkregenereignisse. Beide wurden von Fachpersonen dem Klimawandel zugewiesen. Das von Simbach wurde von einem Professor gar als ein „1000-Jahre Ereignis“ erklärt:
[8]ist auch genau das eingetreten, was der Autor „prophezeit“ hatte: Dass das offensichtliche, menschliche Versagen bei den Flut-Ereignissen Braunsbach und Simbach im Jahr 2016 dem Klimawandel zugeschrieben (werden) wird:
Potsdamer neueste Nachrichten: .
.. Dennoch: „Auch in den Niederschlagsdaten kann man eine Zunahme von Extremniederschlägen nachweisen“, so Rahmstorf, der auf Studien des PIK zu dem Thema verweist. Auch der Deutsche Wetterdienst habe festgestellt, dass sich die Zeit verringert hat, in der sich extreme Gewitterregen wie 2016 in Süddeutschland – unter anderem die Flut von Braunsbach – wiederholen …
[9] dpa, 30. Dezember 2016 (Lokalausgabe der nordbayerischen Nachrichten):
In Deutschland war Bayern der Kältepol – Bundesweit war es aber dennoch um 1,4 Grad zu warm … Folge enormer Niederschläge: In Westmittelfranken und in Oberbayern kam es zu katastrophalen Überflutungen. Simbach am Inn versank in einem Jahrtausendhochwasser.

Dabei wird von sogenannten Experten ein Unsinn vermittelt, der nur noch (sehr freundlich formuliert) als hanebüchen bezeichnet werden kann. Obwohl der gerade besprochene Bericht zu Starkregenereignissen eindeutig zeigt, dass die Starkniederschläge im Sommer mit Sicherheit abnehmen, wird das Gegenteil behauptet:
[9] Deutschlandfunk 12.09.2016: Klimawandel Deutsches Klimakonsortium warnt vor Starkregen in Deutschland
Der Klimawandel ist laut Deutschem Klimakonsortium unbestreitbar. Zu den Folgen zählt auch die Gefahr von Starkregen.
Der Klimawandel werde dazu führen, das Starkregen in Deutschland öfter auftreten wird, intensiver sein wird, also länger anhalten wird, so der Vize des Deutschen Wetterdienstes. Sein Fazit mit Blick auf die tödlichen Fluten in Braunsbach:
„Die Message ist: So eine Niederschlagsmenge ist theoretisch in Deutschland nahezu an jedem Ort möglich.
Im Sommer. Betonung: Im Sommer.

Dabei ist längst belegt, dass in beiden Fällen (Simbach und Braunsbach) die enormen Fluten und damit Schäden im Wesentlichen auf menschlichem Versagen beruhen:
Der Autor [9] und andere haben es schon mehrmals beschrieben ;
EIKE 6. Juni 2016: Hintergründe der Unwetter in Süddeutschland. Vergleich von Braunsbach und Niederalfingen
Der plötzliche Starkregen hat nun die drei kleinen Bächlein vor Braunsbach, insbesondere die Orlach, stark anschwellen lassen, die mitgerissenen Steine vom Abhang und die Holzstämme haben den Eingang zur Dole zugeschüttet und der Braunsbach nahm seinen alten Weg durch den Ort, wie er vor der Verdohlung geflossen ist, nur stehen da heute eben Häuser, Straßen und Autos. Der einstige Bachverlauf mit Überschwemmungszone ist bebaut, aber die Wassermassen finden wegen der erhalten gebliebenen Geländeform natürlich den alten Weg zum einstigen Bachbett hin.
Bei Braunsbach kam nun noch dazu, dass das Hochwasser nicht langsam angestiegen ist im Ort, sondern plötzlich donnernd daherkam, was auf den Bruch eines im Oberlauf gebrochenen Erddammes oder mehrerer kleiner Rückhaltedämme hinweist …
Und sogar der Süddeutschen Zeitung – sonst bedingungs- und bedenkenlos klimawandelgläubig – ist es aufgefallen:
Süddeutsche Zeitung, 9. Juni 2016: Hochwasserkatastrophe Rohr löste offenbar Flutwelle in Simbach aus
… Die Ursache der tödlichen Flutkatastrophe in Simbach am Inn war offenbar ein verstopftes Rohr. Weil eine Unterführung des Simbachs durch Bäume und Sträucher verstopft war, hatte sich vor einem Straßendamm im Norden der Stadt ein gigantischer Stausee gebildet. Als dieser Damm brach, ergoss sich am Nachmittag des 1. Juni eine riesige Flutwelle über die Stadt.
Das einzig „tausendjährig“ sich Wiederholende daran ist das Unvermögen von Behörden, in bekannt sehr gefährdeten Bereichen für eine sichere Infrastruktur zu sorgen. Wenn über mehrere Jahrzehnte nichts (mehr) passiert ist, wird einfach jede „Vorsicht“ vergessen und die Behörden wenden sich „wichtigeren“ Dingen zu: Die Gemeinde Simbach zum Beispiel der CO2-Verringerng, um einen Preis zu gewinnen.
Damit niemand der Geschädigten deswegen Regressansprüche erheben kann, findet sich jedoch immer eine „Fachstelle“, welche die Behörden von der Verantwortung entlastet und diese dem Klimawandel zuweist – wie bei Simbach leibhaftig geschehen.
WELT N24, 16.06.2016: [3] Die Analyse der Simbacher Sturzflut ist beunruhigend
Zwei Wochen nach der Flutkatastrophe von Niederbayern verheißt die erste vorsichtige wissenschaftliche Bewertung nichts Gutes für die Zukunft: Eine vergleichbare Wetterlage wie Ende Mai und Anfang Juni hat es nach Einschätzung eines Experten noch nie gegeben – und technische Schutzmaßnahmen gegen so genannte tausendjährige Hochwasser gebe es in keinem Staat der Welt. Das sagte Martin Grambow am Donnerstag im Landtag, er ist Leiter der bayerischen Wasserwirtschaft und Professor an der Technischen Universität München.
Phänomen neuer Ausprägung“
Tausendjähriges Hochwasser
– im Fachjargon als „HQ 1000“ bekannt – bedeutet, dass ein Gewässer auf einen Rekordpegel anschwillt, der im statistischen Schnitt nur alle tausend Jahre einmal erreicht wird.
In
Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu.

Um die Ungeheuerlichkeit zu verstehen, muss man sich den Tages-Niederschlagsverlauf nur seit 1951 ansehen. Der rote Pfeil kennzeichnet das „Jahrtausendereignis“, welches nach dem Professor nur einmal alle Tausend Jahre vorkommen soll.
Dem Bayerischen Landtag hat in der Aussprache zum Unglück die Aussage des Professors jedoch genügt. Keine Partei wollte wohl ein „anderes“ Ergebnis sehen. Und um selbst die (jedem zugänglichen) Daten nachzusehen, sind die für Klimafragen zuständigen Minister*innen und Fachpersonen der Parteien wohl nicht ausreichend bezahlt (und motiviert).

Bild 23 [9] Niederschläge Simbach Tageswerte 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt
Während viele, wie zum Beispiel die Bayerische Umweltministerin (inzwischen nicht mehr im Amt), sehr freundlich ausgedrückt, überwiegend nur vollkommene Unkenntnis zeigen, weiß eine Partei zu allem immer (die) eine Lösung:
Bündnis 90 DIE Grünen: Lehren aus der Flutkatastrophe 2016
… Langfristig muss natürlich die Ursache dieser Starkregenereignisse benannt und bekämpft werden: der menschengemachte Klimawandel. Wir setzen uns dafür ein, die erarbeiteten Ziele der Klimakonferenz endlich in Nationales Recht zu gießen und umzusetzen.

Das Afrikafestival vom Jahr 2013 in Würzburg

Im Jahr 2013 wurde das Festival durch den Main überschwemmt und musste abgebrochen werden. Ursache soll der Klimawandel gewesen sein.
DIE WELT, 05.12.14: Würzburg (dpa/lby): Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte der Festivalleiter …
Gegen den Klimawandel helfen eben leider keine Fakten, weshalb man auch schon lange keine Fachleute mehr fragt:
Aussage des Wasser-Wirtschaftsamtes Würzburg: [13]
„Die Hochwasser jüngeren Datums nach 1909 sind historisch unbedeutend (20-Jahre Ereignisse)

Anhand dem Pegelverlauf von Bild 24 wagt der Autor die Aussage, dass auch dafür etwas anderes als der Klimawandel die wirkliche Schadensursache war [9]. Irgend eine Behörde hat der Veranstaltung ja wohl die Fläche zugewiesen.

Bild 24 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013. Grafik vom Autor anhand der Datentabelle der Stadt Würzburg erstellt.

Im Jahr 1926 war „der Stärkste Regen seit Menschengedenken“

Die in der Zeitungsmeldung für Magdeburg angegebenen, 100 mm Regen von Nachmittag (die sich in den DWD-Daten von Magedeburg nicht in dieser Höhe zeigen) bis zum nächsten Morgen sind so viel, wie in der dafür „berüchtigten“ Zone bei Simbach zum „Jahrtausendereignis“ im Jahr 2016. Für Madgeburg also geradezu ein Extremwert, vor allem, da es recht großflächig passiert sein soll (in Simbach war diese Zone sehr eng begrenzt).

Bild 25 Zeitungsausschnitt von 1926

Da es natürlich interessant ist, eine solche Meldung anhand von Messdaten zu verifizieren, anbei die Daten der DWD-Messstation Magdeburg. Das Ereignis von 1926 ist sofort erkennbar. Und auch, dass sowohl beim 1-tägigen Starkregen, als auch beim 2-tägigen wieder keine Erhöhung durch einen Klimawandel zu sehen ist.
Für die damaligen Einwohner muss es aber wie eine Zäsur vorgekommen sein. Seit Beginn der Aufzeichnung im Jahr 1881 geschahen 45 Jahre nur moderate Eintages-Niederschläge. Und dann urplötzlich die doppelte Menge. Und es dauert nun über 90 Jahre an, dass das Klima dieses neue Verhalten langsam wieder „abbaut“. Ob und wlcher Zyklus sich dabei ergeben könnte, wird man vielleicht in weiteren 100 Jahren erkennen, oder ahnen können.
Aber auch dazu die Vorstellung, heutzutage träte solch eine Niederschlagsereignis wie 1926 wieder auf: Der wie vorhergesagt eingetretene Weltuntergang durch den Klimawandel würde unisono ausgerufen.

Bild 26 Tagesniederschlag Magdeburg (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt

Bild 27 Zwei-Tagesniederschlag Magdeburg (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt

Das bisher schlimmste, bekannte Niederschlagsereignis in Deutschland geschah im Jahr 1342

Im Hochwasser-Pegelbild des Mains (Bild 24) und am folgenden Tor mit Pegelständen ist der höchste Pegel ganz am Anfang und kennzeichnet das Jahr 1342. Zu dieser deutlich vor-industriellen Zeit, als angeblich Temperatur und CO2 „im Einklang“ waren, geschah ein heute unvorstellbares Starkregenereignis, dessen Folgen teilweise noch heute sichtbar sind:
Das Magdalenenhochwasser.
Die weiteren Pegelstände zeigen (wie bei Würzburg und der Lahn bei Limburg) ebenfalls sehr demonstrativ, in welchen (meist vor-industriellen) Jahrhunderten es wirklich sintflutartig geregnet hat. Man kann richtig sehen, wie über die Jahrhunderte die Starkregenmengen (dazu bei unversiegelten Flächen) abgenommen haben müssen.

Bild 28 Links WIKIPEDIA: Magdalenenhochwasser, Hochwassermarken am Packhof zu den Hochwassern in Hann, Münden am Zusammenfluss von Werra und Fulda zur Weser. Die oberste Markierung zum 24. Juli 1342 ist der Pegelstand des Magdalenenhochwassers. Rechtes Bild: Historische Hochwassermarken der Lahn bei Limburg. Quelle: Regierungspräsidium Gießen Hochwasserrisikomanagementplan 2014

WIKIPEDIA: Das Magdalenenhochwasser war eine verheerende Überschwemmungskatastrophe, die im Juli 1342 das Umland zahlreicher Flüsse Mitteleuropas heimsuchte. Die Bezeichnung geht auf die damals übliche Benennung der Tage nach dem Heiligenkalender zurück, hier auf den St.-Magdalenentag am 22. Juli. Bei diesem Ereignis wurden an vielen Flüssen die höchsten jemals registrierten Wasserstände erreicht. Möglicherweise handelt es sich um das schlimmste Hochwasser des gesamten 2. Jahrtausends im mitteleuropäischen Binnenland.
… Betroffen waren unter anderem
Rhein, Main, Donau, Mosel, Moldau, Elbe, Weser, Werra und Unstrut. Allein in der Donauregion starben über 6000 Menschen. Das Hochwasser wird in den Chroniken zahlreicher Städte erwähnt, so in Würzburg, Frankfurt am Main, Mainz, Köln, Regensburg, Passau und Wien. Fast alle Brücken wurden damals zerstört, Flussläufe änderten sich. In Bamberg riss die Regnitz eine „Brücke mit Turm“ ein. Im Solling wurde das Dorf Winnefeld zerstört. Die Stadt Duisburg entwickelte sich aufgrund der durch das Hochwasser hervorgerufenen Verlandung des Altrheinarms von einer blühenden Handelsstadt zu einer unscheinbaren Ackerbürgerstadt. Die topographischen Konsequenzen des Hochwassers können heute noch nachgewiesen werden. Die Masse des erodierten Bodenmaterials betrug ca. 13 Milliarden Tonnen.[2] Das entspricht etwa der Menge, die bei normalen Wetterbedingungen in 2000 Jahren verloren geht.
… In den Jahren nach dem Magdalenenhochwasser folgten kalte und nasse Sommer, die in Verbindung mit dem erodierten Boden zu
Ernteeinbußen führten. In deren Folge kam es zu massiven Hungersnöten, welche die Auswirkungen der in den Jahren 1347 bis 1353 grassierenden großen europäischen Pestepidemie zusätzlich verschlimmerten

Korrelieren Überschwemmungen und Temperaturverlauf in Deutschland?

Dazu nochmals der Pegelverlauf bei Würzburg, der gut mit den Pegelbildern anderer Flüsse (Bild 28) übereinstimmt, diesmal in eine Temperaturrekonstruktion kopiert.
Wie man überdeutlich sieht, gibt es gute Korrelationen, allerdings abhängig von den Zeiträumen in zwei entgegengesetzten Richtungen. Und ausgerechnet die allgemein verkündete: Mehr Klimawandel = mehr Überschwemmungen, zeigt sich überdeutlich als falsch.

Bild 29 Globaler Temperaturverlauf seit dem Jahr 1000 (Quelle: Wikiwand: Kleine Eiszeit) und Hochwassermarken des Mains bei Würzburg vom Autor übereinander kopiert

Extremniederschläge in der Wüste Namib

In historischer Zeit gab es auch anderswo exemplarisch extremste Niederschlagsereignisse, welche heute unvorstellbar sind, zum Beispiel in der Namib-Wüste (Südafrika). Die Datierung ist ungenau, die Extremereignisse müssen aber zwischen 1450 … 200 Jahren vor heute [13] – also ebenfalls während der kleinen Eiszeit geschehen sein.

[13] … Eine deutsche Forschertruppe wunderte sich, dass in der Namib-Wüste riesige Felsen wie von großen Flüssen angeschwemmt herumliegen (Bild 3). Bei der Analyse dieses Phänomens kamen sie dahinter, dass es vor nicht allzu langer Zeit dort so feucht gewesen ist, dass sich hinter den Stranddünen riesige Seen bildeten, welche beim Überlaufen die Felsbrocken mitrissen und versetzten – und das über mehrere Klimaperioden und auch in geschichtlicher Zeit

Bild 30 [12] Teils mehrere Meter messende Blöcke im Bereich der Uniab-Mündung (Skelettküsten-Wüste, zu deren Transport hoch-energetische Flutwellen erforderlich waren. Beim Endringen von Wassermassen in den Erg brachen Dünen zusammen und wurden schluffreiche Sedimente (Suspensions-Ablagerungen) ausgebreitet. Canyon-artige Erosionsrinnen entstanden beim Ausbruch eines „Dünen-Stausees“. Foto: Blümel 2001.
Quellen

[1] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[2] FOCUS ONLINE 07.03.2018: Hochwasser, Trockenheit und WirbelstürmeWetterextreme in der Bundesrepublik: DWD empfiehlt Deutschen sich schon jetzt zu wappnen

Beispiel für Wetterextreme nannte der DWD-Fachmann die länger andauernde Trockenheit im vergangenen Frühjahr und das „anhaltend trübe Wetter“ von September 2017 bis Januar 2018.

[3] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[4] Westfalenpost 21.03.2018: Steinmeier warnt: Lügen im Netz spalten die Gesellschaft

[5] Murphy, C et al. (2017): A 305-year continuous monthly rainfall series for the Island of Ireland (1711-2016)

[6] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[7] Murphy at al. 2018: Island of Ireland monthly rainfall series 1711-2016 (IoI_1711)

[8] EIKE 31.01.2018: Endlosschleife Klimaangst

[9] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
[10] DWD Schrift, Paul Becker at al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung

[11] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[12] Nova Acta Leopoldina NF 108, Nr. 373, 125-149 (2009): Holozäner Klima- und Landschaftswandel in der Namib?

[13] EIKE 14.10.2015: Der Klimawandel bedroht die Wüste Namib – glaubt Deutschlandradio Kultur

[14] Swedish Meteorological and Hydrological Institute, 601 76 Norrköping, B. Arheimer and G. Lindström, 04 Feb 2015: Climate impact on floods: changes in high flows in Sweden in the past and the future (1911–2100)




Beeinflus­sungen durch Starkregen nehmen in Deutsch­land nicht zu. Mit schlecht ange­wandter Statistik lässt sich aber das Gegen­teil „zeigen“ (Teil 1)

Doch warum Herr Steinmeier so ungern vor der eigenen Türe kehrt und seine Untertanen auf Netzwerke – wie zum Beispiel EIKE – angewiesen sind, um Wahrheiten zu erfahren, sei anbei anhand einer kürzlich erfolgten Meldung zu Wetterextremen gezeigt.

Anhaltend trübes Wetter“ ist ein Beispiel für Extreme durch den Klimawandel

Für den DWD ist der „Klimawandel“ ein lukratives Geschäftsfeld geworden. Alle Städte und Gemeinden Deutschlands sind mit Vulnerabilitätsexpertisen für ihre (aktuell ca. 600) Klimamanager*innen zu versorgen, die schlimme Wetterzukunft ist in 25 km-Quadraten aufgelöst bis zum Jahr 2100 zu berechnen, flächendeckende Messnetze sind aufzubauen, zu versorgen, zu betreuen, auszuwerten und und und. Diese viel Geld und Personal einbringende „Maschinerie“ hat jedoch nur eine Zukunft, wenn diese möglichst klimadüster ausgemalt wird. Und das macht der DWD gemeinsam mit unseren Medien inzwischen konsequent und regelmäßig:
FOCUS ONLINE 07.03.2018: [2] Hochwasser, Trockenheit und Wirbelstürme. Wetterextreme in der Bundesrepublik: DWD empfiehlt Deutschen sich schon jetzt zu wappnen
… Der Deutsche Wetterdienst rechnet für die Zukunft mit mehr Stürmen, extremen Regenfällen und Hitzewellen aufgrund der Klimaerwärmung. Zwar sei es schwierig, eine Zunahme solcher Extremwetter-Ereignisse statistisch nachzuweisen, sagte DWD-Experte Thomas Deutschländer am Dienstag in Berlin.
… Es scheine aber dennoch „sinnvoll, sich schon heute auf eine Zukunft mit mehr Wetter- und Klimaextremen auch in Deutschland einzustellen“. Auch im Jahr 2017 habe sich der Klimawandel in Deutschland und global deutlich bemerkbar gemacht, sagte Deutschländer. Weltweit war es eines der drei wärmsten Jahre seit Beginn der Aufzeichnungen 1881. Als Beispiel für Wetterextreme nannte der DWD-Fachmann die länger andauernde Trockenheit im vergangenen Frühjahr und das „anhaltend trübe Wetter“ von September 2017 bis Januar 2018.

In der Darstellung des DWD-Experten beachte man, dass außer einer (geringen) Erhöhung der Temperatur seit der letzten, schlimmen Kaltzeit, eigentlich nichts Konkretes berichtet wird und dieser zugibt, dass ein Nachweis für Klimawandel-bedingte Extremereignisse nicht möglich ist. Aber „sinnvoll“ ist es halt immer, Angst zu haben und sich für die Zukunft auf Extreme einzustellen.

Extremereignisse

Zur Wiederholung: Das IPCC gibt in seinem letzten Sachstandsbericht AR5 zu, dass sich weltweit eine Zunahme von Extremereignissen nicht belegen lässt [6].
Aktuelle Studien kommen zu dem Ergebnis, dass sich an der damaligen, (ehrlichen) IPCC-Aussage seitdem nichts geändert hat.
Kelly MJ, 2016: [5] Trends in Extreme Weather Events since 1900 – An Enduring Conundrum for Wise Policy Advice
Abstract
It is widely promulgated and believed that human-caused global warming comes with increases in both the intensity and frequency of extreme weather events. A survey of official weather sites and the scientific literature provides strong evidence that the first half of the 20th century had more extreme weather than the second half, when anthropogenic global warming is claimed to have been mainly responsible for observed climate change. The disconnect between real-world historical data on the 100 years’ time scale and the current predictions provides a real conundrum when any engineer tries to make a professional assessment of the real future value of any infrastructure project which aims to mitigate or adapt to climate change. What is the appropriate basis on which to make judgements when theory and data are in such disagreement?

Grobe Übersetzung:
Es ist weit verbreitet und wird geglaubt, dass die vom Menschen verursachte globale Erwärmung mit einer Zunahme sowohl der Intensität als auch der Häufigkeit extremer Wetterereignisse einhergeht. Eine Untersuchung der offiziellen Wetterlagen und der wissenschaftlichen Literatur liefert starke Beweise dafür, dass in der ersten Hälfte des 20. Jahrhunderts extremere Wetterlagen herrschten als in der zweiten Hälfte, als die anthropogene globale Erwärmung hauptsächlich für den beobachteten Klimawandel verantwortlich war. Die Diskrepanz zwischen realen historischen Daten auf der 100-Jahres-Skala und den aktuellen Vorhersagen stellt ein echtes Problem dar, wenn ein Ingenieur (Anmerkung: In Deutschland sind das zum Beispiel die 600 kommunalen Klimamanager*innen) versucht, den tatsächlichen zukünftigen Wert eines Infrastrukturprojekts, das den Klimawandel abmildern oder anpassen soll, professionell zu bewerten . Was ist die geeignete Grundlage, um Urteile fällen zu können, wenn Theorie und Daten nicht übereinstimmen?

Niederschlag Deutschland

Eines kann man schon vorab festhalten: Simulationen zum Niederschlag sind die mit den schlechtesten Ergebnissen überhaupt. Simulationen zu Starkregenereignissen dürften den Wahrheitsgehalt einer Glaskugel (vor der ein Mensch und kein Computer sitzt) kaum erreichen (rein persönliche Meinung des Autors, der aber Fachleute – natürlich nicht so „hart“ formuliert, im Wesentlichen zustimmen).
DWD Schrift, Paul Becker at al., 07.2016: [10] Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung
Vergleich mit Klimaprojektionsergebnissen
Für den Sommer lassen sich auf Basis des im Rahmen dieser Untersuchung verwendeten Ensembles kaum Aussagen treffen, da die vier betrachteten Modelle die Änderung der Auftrittshäufigkeit von Starkniederschlägen widersprüchlich projizieren. Die Projektionen stimmen lediglich in der Aussage überein, dass der Anteil der Starkniederschläge am Gesamtniederschlag zukünftig steigen wird. Dabei bleibt aber offen, wie sich dieser Anstieg auf die Zunahmen von Häufigkeit und Intensität der Starkniederschläge verteilt.
Zum Schluss wird der DWD ganz „genau“ und sagt, dass derzeit nichts bekannt, aber alles möglich erscheint:
[10] …
Zum einen simulieren die Klimamodelle – wenn überhaupt – erst ab etwa 2020 eine leichte Zunahme. Zum anderen existieren zumindest für den süddeutschen Raum Anzeichen für einen geringfügigen Anstieg in den vergangenen rund 50 Jahren.
[11] Der Zeitraum ist aber zu kurz, um „klimafeste“ Aussagen über die Verteilung des Starkregenrisikos oder gar über Trends abzuleiten.
Macht aber nichts. Seit der Digitalisierung bestimmten Computer(Programme) wie die Welt wirklich aussieht.

Dazu vorab die globalen Niederschlagsdaten des DWD für Deutschland:
-Jahresniederschlag: Seit 1881 hat sich der Mittelwert um ca. 6,25 % erhöht. Diese Änderung liegt ziemlich sicher unter der Messgenauigkeit (der älteren Stationsabdeckung Deutschlands). Seit 1940, spätestens 1960 (eine kalte Wetterperiode) hat sich am Mittelwert nichts mehr verändert.
-Sommerniederschlag: Der Mittelwert lag im Jahr 2017 auf genau dem Wert vom Jahr 1881. Dabei soll durch die Erwärmung der Sommerniederschlag doch stark zunehmen (warme Luft nimmt mehr Feuchte auf).

Bild 1 Jahres-Niederschlag Deutschland von 1881 – 2017, Simulation bis 2100. Quelle: DWD Klimaatlas. Grafik vom Autor ergänzt

Bild 2 Sommer-Niederschlag Deutschland von 1881 – 2017, Simulation bis 2100. Quelle: DWD Klimaatlas. Grafik vom Autor ergänzt

Fazit

Daraus lässt sich nur ableiten, dass bisher in der wahren Natur keine Anzeichen bestehen, der Niederschlag würde sich mit einem Klimawandel signifikant verändern. Schon gar nicht, dass es im Sommer wegen der Wärme mehr regnen würde, was die Physik doch vorschreibt. Nach dieser (Anwendung der) Physik müsste die Sahara die regenreichste Gegend der Welt sein – wenn nicht das Klima – und der Zusatz in der Physik: Niederschlag gibt es nur bei Temperaturdifferenzen – dazwischenfunken würde.

Starkregen-Ereignisse in Deutschland

Zu Starkregen hat der Autor schon einiges für EIKE geschrieben. Eine Darstellung mit vielen Langzeit-Starkregenverläufen findet sich zum Beispiel im Artikel:
EIKE 12.08.2017: [3] Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

Aus den darin gezeigten Starkregen-Verläufen lässt sich entnehmen, dass selbst 100 Jahre lange Zeitreihen beim Niederschlag für eine sichere Trendaussage nicht ausreichen.
Der Grund: Die Variabilität von Starkregenereignissen ist zu hoch und die Messgenauigkeit selbst in Deutschland, aufgrund der nicht ausreichenden Mess-Abdeckung, zu gering.
Natürlich lassen sich in solchen Verläufen viele Trends erkennen. Doch bei ehrlicher Betrachtung sieht man anhand ausreichend langer Messreihen von über 100 Jahren, dass diese alles, aber nicht stabil bleiben, weil unterlagerte Zyklen oder auch Einzel-Wetterlagen eine zu starke, übergeordnete Rolle spielen.
Man kann sicher sein, dass es bisher keinem Programmierer gelungen ist, die Ursachen dieser Variabilitäten auch nur im Ansatz formelmäßig zu erfassen und in Simulationsprogrammen richtig abzubilden. Das nächst Problem: Nach welchen Verläufen soll man die Parametrierungen dann kalibrieren, ist ebenfalls (nach Ansicht des Autors) vollkommen ungelöst.

Eines sieht man aber: Eine Zunahme durch einen wie auch immer gearteten „Klimawandel“ findet nicht statt!

Bild 3 [3] Annaburg, Sachsen-Anhalt, Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170
Bild 4 [3] Annaburg, Sachsen-Anhalt, 2-Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170

Starkregen-Ereignisse in Süddeutschland

Nun sind Betrachtungen von Amateuren nicht ausschlaggebend. Wozu hat man zum Beispiel den DWD mit seinen Fachleuten, die bestimmt wirklich fundierte(re) Aussagen geben können?

Und solche Fachleute haben ihre Aussagen vor einiger Zeit zusammen mit dem zuständigen, Bayerischen Landesamt in Dokumentationen zusammengefasst [1]. Anhand einer solchen soll anbei der Frage nachgegangen werden, ob Starkregenereignisse in Deutschland zugenommen haben.
Leider ist in dieser Dokumentation nur Süddeutschland betrachtet, doch für einen Überblick sollten die Aussagen auch auf ganz Deutschland übertragbar sein, vor allem, da Süddeutschland – konkret Bayern -, besonders hart – sozusagen als ein „Hotspot“ – vom Klimawandel betroffen scheint:
Bayernkurier – Bayerische Klimapolitik für das 21. Jahrhundert
Sintflutartige Regenfälle, extreme Dürreperioden oder frühlingshafte Temperaturen im Winter: Der anhaltende Klimawandel macht sich zunehmend auch in Bayern bemerkbar. Es ist höchste Zeit zu handeln – diese Auffassung teilt auch Umweltministerin Ulrike Scharf … Die Beispiele zeigen: Auch in Bayern ist der Klimawandel mit den Händen zu greifen.

Der Monitoringbericht 2016 zum Niederschlag in Süddeutschland

Im Sommerhalbjahr nehmen die Starkregenereignisse flächenübergreifend ab!

Bayerisches Landesamt für Umwelt: [1] Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete
Dieser Ergänzungsbericht untersuchte die Extremniederschläge als Ein-Tages-Ereignisse von Bayern und Württemberg seit 1931 und ist sicher repräsentativ. Am Anfang steht:
[1] … Die Trends im Starkniederschlag (Dauer=24h) sind uneinheitlicher als im Gebietsniederschlag. Hier gibt es weiterhin regional klare positive Trends im Winterhalbjahr (bis +33 %), eine Voraussetzung für eine Zunahme der winterlichen Hochwasserlagen. Im Sommerhalbjahr sind die Trends regional uneinheitlich ohne eindeutige Entwicklung, aber häufig stärker ausgeprägt als beim Gebietsniederschlag …
„Übersetzt“ ist damit ausgesagt: Das Rechercheteam der Wissenschaftler (und das sind eine ganze Reihe), konnte im Sommer für ganz Süddeutschland „keine eindeutige Entwicklung“ der Starkregenereignisse feststellen: Es gibt im Sommerhalbjahr nämlich keine „Klimawandel-bedingte“ Zunahme!, im Winter gibt es „regional klare, positive Trends“, also höflich umschrieben, ebenfalls keine flächenübergreifende Verstärkung.

Als Bild (Bild 5) sieht das wie folgt aus: Im Sommer flächenübergreifend abnehmende Starkregenereignisse, unterbrochen von wenigen, gering positiven Gegenden:

Bild 5 [1] Abb. 3: Entwicklung der Gebietsniederschlagshöhe im hydrologischen Sommerhalbjahr, relativer Trend (Änderung in Prozent vom Mittelwert 1931 bis 2015). Vom Autor ergänzt
Die im Bild angegebenen Änderungswerte sind die linearen Regressionen seit 1931. Das ist (auch über Werkstudent*innen) bequem auszuwerten, liefert aber keine wirkliche Vulnerabilitätsaussage. Wegen der unterlagerten Zyklen nicht einmal einen „handhabbaren“ Trend.
Am Beispiel der „besonders stark betroffenen“ Gebiete R7 und Mo4 (+4,1 % nach über 90 Jahren sind beim Niederschlag weniger als Rauschen), kann man es gut sehen:
Die Bilder 6.x zeigen dazu die Niederschlagsverläufe. Die Regressionsgerade (durchgezogene, schwarze Linie) zeigt zwar die leichte Erhöhung an, aber man sieht:
Gebiet R7: Seit 1970 keine Erhöhung erkennbar. Der Mittelwert (rote Linie) hat den Stand von 1931
Gebiet Mo4: 1935 war der höchste Tagesniederschlag. Der Mittelwert (rote Linie) liegt deutlich unter dem Stand von 1931.
Insgesamt bleibt als Fazit: Obwohl die sture Anwendung der linearen Regression einen leichten Anstieg ergibt, hat die wirkliche Gefährdung abgenommen und ein Gefahrenanstieg durch einen Klimawandel ist definitiv nicht erkennbar – nur eine sehr große Variabilität.
Berechnet man den Mittelwert über ganz Süddeutschland anhand von Bild 5, kommt man auf -2,1 % seit 1931.

Bild 6.1 [1] Gebiet R7, Verlauf Starkregenereignisse Sommerhalbjahr von 1931 – 2015. Hilfslinien vom Autor ergänzt
Bild 6.2 [1] Gebiet Mo4, Verlauf Starkregenereignisse Sommerhalbjahr von 1931 – 2015. Hilfslinien vom Autor ergänzt
Macht aber nichts. Was interessieren Daten, wenn das Volk im Sinne unseres Bundespräsidenten „richtig“ zu informieren ist, weil es sich im Internet sonst mit „Lügen“ versorgt:

Bayerischer Rundfunk, Homepage Stand 03.03.2017: Hintergrund Klimawandel
Mehr Wärme – mehr Extremniederschläge
… Höhere Temperaturen bedeuten aber nicht schöneres Wetter, im Gegenteil: Durch erhöhte Lufttemperaturen verdunstet mehr Wasser. Mancherorts häufen sich dadurch Dürreperioden, wie sie der Norden Bayerns immer häufiger erlebt. Zugleich kann eine wärmere Atmosphäre auch immer mehr Wasserdampf aufnehmen: Mit jedem Grad Erwärmung kann die Atmosphäre sieben Prozent mehr Wasser speichern – und als Niederschlag wieder abgeben. Zugleich vergrößern höhere Lufttemperaturen auch das Gewitterrisiko.

Dürreperioden

Weil es aufgrund der BR-Information als Ergänzung passt. Der Autor hat für den Norden Bayerns, welcher „Dürreperioden … immer häufiger erlebt“ die Dürreperioden für das in Nordbayern liegende Nürnberg als Grafik erstellt (Bild 6).
Wieder sieht man deutliche Zyklen (welche eine Aussage durch lineare Regression sinnlos machen).
In Summe haben die langen Perioden ohne Regen jedoch abgenommen. Der Jahres-Mittelwert zeigt ebenfalls keinerlei Anstieg, sondern eine leichte Verringerung. Die Jahressumme der Tage ohne Niederschlag zeigt ebenfalls keinen Anstieg.

Bild 7 Flughafen Nürnberg 1955 – 2017. Anzahl zusammenhängender Tage ohne Niederschlag. Quelle: DWD-Station 3668. Grafik vom Autor erstellt.

Bild 8 Flughafen Nürnberg 1955 – 2017. Anzahl zusammenhängender Tage ohne Niederschlag, gleitende Jahresmittelwerte. Quelle: DWD-Station 3668. Grafik vom Autor erstellt.

Bild 9 Flughafen Nürnberg 1955 – 2017. Jahressumme Tage ohne Niederschlag. Quelle: DWD-Station 3668. Grafik vom Autor erstellt.

Fazit

Die BR-Information: „ … häufen sich dadurch Dürreperioden, wie sie der Norden Bayerns immer häufiger erlebt …“ lässt sich bei der Betrachtung über einen längeren Zeitraum nicht wirklich nachvollziehen. Man wagt sogar, daran zu zweifeln. Vielleicht hängt das Ergebnis auch von der Definition „Dürreperiode“ ab.

Auch die „Überhitzung“ Nordbayerns hält sich in Grenzen. In den letzten 33 Jahren ist die Maximaltemperatur in Franken (gleichzeitig die höchste Temperatur Deutschlands) um (nicht messbare) 0,1 Grad „gestiegen“. Und selbst das ist nicht sicher:
EIKE 24.09.2016: Die heißeste Temperatur Deutschlands war nur ein Wärmeinseleffekt: Ein Klimaprofessor plaudert aus seinem „Nähkästchen für Temperatur“

Im Winterhalbjahr nehmen Starkregenereignisse zu. Aber nur bei stur angewandter, linearer Regression

Im Winterhalbjahr lässt sich laut [1] der Extremniederschlag genauer ermitteln:
[1]
Insgesamt muss man festhalten, dass der maximale Sommerniederschlag damit weniger genau erfasst werden kann, als der winterliche Niederschlag. Entsprechend sind Trendaussagen im speziellen beim Starkniederschlag für das Sommerhalbjahr ungenauer als für winterliche, meist flächige Niederschläge ...
Wie die Ergebnisse im Winterhalbjahr in Süddeutschland anhand linearer Regressionen ermittelt seit 1931 aussehen, zeigt Bild 10.

Bild 10 [1] Abb. 4: Entwicklung der max. 1-tägigen Gebietsniederschlagshöhen im hydrologischen Winterhalbjahr, relativer Trend (Änderung in Prozent vom Mittelwert 1931 bis 2015). Vom Autor ergänzt
Im Gegensatz zum Sommerhalbjahr gibt es überwiegend positiv tendierende Zonen und deren Änderungen sind erheblich größer.

Zonen mit +26,5 … 32,5 % werden einen steilen Anstieg ausweisen …

Würde man bei diesen Zahlen annehmen. Jedenfalls scheint ein sicherer Beleg für den schlimmen Einfluss des AGW-Klimawandels offensichtlich.
Die Fragestellung ist aber auch hier: Führt die lineare Regression zu sinnvollen Aussagen?

Dazu hat sich der Autor den Bereich mit den höchsten, positiven Änderungswerten vorgenommen (M1, D8, M2, D1).

Bild 11 [1] Gebiet M1 (+31,4 % Winterhalbjahr). Verlauf Winterhalbjahr, Sommerhalbjahr Starkregenereignisse
Bild 12 [1] Gebiet D8 (+32,5 % Winterhalbjahr). Verlauf Winterhalbjahr, Sommerhalbjahr Starkregenereignisse
Bild 13 [1] Gebiet M2 (+30,2 % Winterhalbjahr). Verlauf Winterhalbjahr, Sommerhalbjahr Starkregenereignisse
Bild 14 [1] Gebiet E1 (+26,5 % Winterhalbjahr). Verlauf Winterhalbjahr, Sommerhalbjahr Starkregenereignisse
Alle Gebiete in dieser Zone zeigen im Sommerhalbjahr eine abnehmende, maximal seit 1931 gleichlaufende Tendenz.
Im Winterhalbjahr werden die Verläufe komplexer.
– Einmal sind die Starkniederschläge im Winterhalbjahr generell mit (teils erheblich) geringerem Volumen als im Sommer. Damit dürften diese gar keine zusätzliche Gefährdung bedeuten.
– Bei keinem Winterniederschlag steigen die Maximalpegel signifikant an.
– Bei keinem Verlauf lässt sich schlüssig folgern, dass die Starkniederschlags-Spitzen durch einen „Klimawandel“ erkennbar zunehmen würden.

Fazit

Die Angabe: „+30 % relativer Trend bei Starkregenereignissen“ hat mit der wirklichen Gefährdung nichts zu tun. Die wirklichen Gefährdungen durch Starkregenereignisse haben selbst in den nach diesen Auswertungen von starken Zunahmen betroffenen Gebieten eher abgenommen. Auf keinen Fall nehmen sie weiterhin signifikant zu:
-In allen! dieser vier als hoch signifikant mit hohem Zuwachs ausgewiesenen Gebieten haben die Starkregen-Spitzen nach 1990 (nur in einer Fläche erst kurz danach) abgenommen..
Die sture (weil bequeme) Anwendung der linearen Regression führt zu falschen Aussagen.

Bei höherer Auflösung nehmen auch die Winterereignisse eher ab

Dass die sture Verwendung der linearen Regression über die Jahreswerte zu falschen Aussagen führt, lässt sich mit den Tageswerten zeigen.

Im folgenden Bild 15 sind die Niederschlags-Tageswerte von drei Messstellen im stark positiven Gebiet E1 übereinander gelegt.
-Alle drei Messstellen zeigen seit ca. 1980 eine Abnahme der höchsten Starkregen-Spitzenwerte. Der letzte Verlauf zeigt zusätzlich, dass selbst Betrachtungen seit 1931 (wie im Kliwa-Bericht) zu falschen Aussagen führen: Wenige Jahre vorher war der höchste Tages-Starkregenpegel seit über hundert Jahren. Seitdem hat der Maximalwert stetig abgenommen!

Bild 15 Tagesniederschlag (Gesamtjahr) Stationen Marktredwitz 3191, Rehau 4109, Marktleuthen 3188 (1901 – 2017)

Detailansicht Marktleuthen

Auch die noch detailliertere Sichtung bestätigt, dass die Starkregen nicht durch einen „Klimawandel“ zunehmen.

Dazu nochmals die Langzeitreihe von Marktleuthen. Bild 16 zeigt wieder den Jahresverlauf aus Bild 15.

Bild 16 E1 Marktleuthen Tagesniederschlag (Gesamtjahr) 1901 – 2017. Quelle: DWD. Grafik vom Autor anhand der Daten erstellt

Dazu nun der gleitende Jahresmittelwert (Bild 17). Seit 1967 ist er abnehmend, die Spitzenwerte(Bild 16) sind es seit 1924.

Bild 17 E1 Marktleuthen Tagesniederschlag (Gesamtjahr) 1901 – 2017, Jahresmittelwerte. Quelle: DWD. Grafik vom Autor anhand der Daten erstellt

Im Sommerhalbjahr ist die Abnahme der Spitzenwerte seit 1924 stetig,

Bild 18 E1 Marktleuthen Tagesniederschlag Sommerhalbjahr 1901 – 2017. Quelle: DWD. Grafik vom Autor anhand der Daten erstellt

Im Winterhalbjahr nehmen sie seit 1960 stetig ab (Bild 19) und der (die Bedrohung bestimmende) Absolutpegel ist dabei immer niedriger als im Sommerhalbjahr.

Bild 19.1 E1 Marktleuthen Tagesniederschlag Winterhalbjahr 1901 – 2017. Quelle: DWD. Grafik vom Autor anhand der Daten erstellt

Fazit

Auch die Detailanalysen zeigen, dass die Gefährdung durch Starkniederschläge selbst in den mit + 26,5 … 32,5 % als am stärksten zunehmend ausgewiesenen Zonen in Wirklichkeit seit 1924, spätestens 1960 abnimmt. In keinen Fall lässt sich eine Zunahme durch einen AGW-Klimawandel ableiten.
Dass dies auch für Norddeutschland gilt, zeigen die Verläufe in den Bildern 26 und 27 von Marburg im Teil 2, sowie alle bisherigen Analysen:
EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch
EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?
[3] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels
[8] EIKE 31.01.2018: Endlosschleife Klimaangst
[9] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
Für den Autor bedeutet dies:
Die Wissenschaftler des DWD (waren maßgeblich an der Untersuchung beteiligt) und die anderen Beteiligten, haben durch ihre (aus Bequemlichkeit?) zu schematischen Analyse eine falsche – mindestens tiefergehend zu diskutierende – Aussage abgeleitet.
Klar, dass diese „Belege“ nun überall zitiert werden und seitdem unsere (nicht mehr im Amt befindliche), bayerische Umweltministerin in ihrer völligen Unkenntnis zu Klimathemen [6] verschreckt in einen Alptraum fiel, den Klimawandel „mit Händen greifen“ zu können.

Händen greifen zu können“.
Es ist auch bei diesem Thema genau so wie beim (übernatürlichen) Meerespegelanstieg: Beides findet ausschließlich in Computersimulationen statt.

Nachtrag

Dass Extrem-Niederschlagsereignisse eher ein chaotisches, als ein trendiges, geschweige, vorhersagbares Verhalten zeigen, haben die bisherigen Verlaufsbilder wohl hinreichend belegt. Wenn es so ist, muss es sich auch in Hochwassern äußern. Und das machen solche auch ganz demonstrativ.
Das folgende Bild zeigt rekonstruierte Fließmengen der Elbe in der Nähe von Dresden:
Vor der „Industrialisierung“ mit dem Beginn des „Klimawandels“ war ein Hoch, dann ganz kurz nach dem Beginn des „Klimawandels“ im 1880. Dann gingen die Spitzenwerte kontinuierlich über 100 Jahre zurück. und urplötzlich im Jahr 2002 gab es ohne jegliche Vorwarnung eine erneute Spitze mit den vor-industriellen Werten.
Anmerkung: Bei jüngeren Werten ist zu beachten, dass eine Pegelerhöhung durch (bei Überlaufgefährdung) zusätzlich abgelassenen Rückhaltebecken und Stauseen in Oberläufen vorhanden sein kann. Es kann also sein, dass der („bereinigte“) Pegel vom Jahr 2002 unter den früheren lag.

Bild 19.2 Elbe, Fließmengen seit 1850. Wert der Flut 2002 von 4.700 m3 nach vom Autor nach den Angaben in der Studie ergänzt. Quelle: MUDELSEE ET AL.: EXTREME FLOODS IN CENTRAL EUROPE

Das ist nicht nur in und um Deutschland herum so, sondern zum Beispiel auch in Schweden:
[14] … The results show that the changes in annual maximum daily flows in Sweden oscillate between dry and wet periods but exhibit no significant trend over the past 100 years.

Bei einem solchen chaotischen Verhalten lässt sich ganz einfach kein Trend bestimmen. Und schon gar nicht eine Verschlimmerung durch einen Klimawandel.

Wie unser Staatsfunk BR in Bayern, lässt sich aber auch die Süddeutsche Zeitung nicht „lumpen“. Sie ist (wie praktisch alle deutschen Medien) der grundlegenden Überzeugung, dass ständiges Wiederholen Unwahrheiten wahr werden lässt:
SZ, Ausgabe Nr. 86 vom 14./15. April 2018: BUCH ZWEI (eine mehrseitige Darstellung eines Aktivisten): … Die wärmer werdende Erde lässt die Ozeane anschwellen – … die steigenden Meeresspiegel bedrohen ausgerechnet … Noch wächst diese Bedrohung im Zentimeterbereich, aber was, wenn die Eispanzer in Grönland und in der Antarktis abtauen?
Nachweislich aus dem Gleichgewicht geraten ist bereits das Wetter. Dürren und extreme Niederschläge nehmen zu. Die Zahl der in Deutschland von Flutwasser bedrohten Menschen wird sich in den kommenden Jahrzehnten Vervielfachen ..
.
Es ist, als möchten diese Medien zeigen, wie überflüssig der Posten einer Bundespräsidenten-Nachsprechpuppe ist.

Damit endet der erste Teil. Im zweiten Teil werden ergänzend historische Daten betrachtet. Diese zeigen, dass die Bedrohung durch Starkregenereignisse bereits seit vielen Jahrhunderten abnimmt.

Quellen

[1] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[2] FOCUS ONLINE 07.03.2018: Hochwasser, Trockenheit und WirbelstürmeWetterextreme in der Bundesrepublik: DWD empfiehlt Deutschen sich schon jetzt zu wappnen

Beispiel für Wetterextreme nannte der DWD-Fachmann die länger andauernde Trockenheit im vergangenen Frühjahr und das „anhaltend trübe Wetter“ von September 2017 bis Januar 2018.

[3] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[4] Westfalenpost 21.03.2018: Steinmeier warnt: Lügen im Netz spalten die Gesellschaft

[5] Murphy, C et al. (2017): A 305-year continuous monthly rainfall series for the Island of Ireland (1711-2016)

[6] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[7] Murphy at al. 2018: Island of Ireland monthly rainfall series 1711-2016 (IoI_1711)

[8] EIKE 31.01.2018: Endlosschleife Klimaangst

[9] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
[10] DWD Schrift, Paul Becker et al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung

[11] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[12] Nova Acta Leopoldina NF 108, Nr. 373, 125-149 (2009): Holozäner Klima- und Landschaftswandel in der Namib?

[13] EIKE 14.10.2015: Der Klimawandel bedroht die Wüste Namib – glaubt Deutschlandradio Kultur

glaubt Deutschlandradio Kultur

[14] Swedish Meteorological and Hydrological Institute, 601 76 Norrköping, B. Arheimer and G. Lindström, 04 Feb 2015: Climate impact on floods: changes in high flows in Sweden in the past and the future (1911–2100)




Keine Klima­leugner, weil unbe­stechlich: Die Früh­blüher in Nord­deutschland lassen sich neuer­dings etwas mehr Zeit

Natürlich könnte der Forsythie- Strauch inmitten Hamburgs eine Ausnahme sein, deshalb stellen wir einen anderen Beobachtungsort vor, Herr Georg v. Petersdorff-Campen hat Aufzeichnungen seit über 30 Jahren von seiner Forsythie in Seesen/Kirchdorff. Seesen ist eine selbständige Gemeinde im Landkreis Goslar am nordwestlichen Harzrand zwischen Göttingen und Hannover im Südosten von Niedersachsen.

Im Vergleich zur großen Wärmeinsel Hamburg blüht die Forsythie in Seesen natürlich etwas später, was auch nicht anders zu erwarten war. Wir betrachten zunächst die Termine der Erstblüte in den letzten 30 Jahren. (1989 bis 2018 sind 30 Jahre) Auf der senkrechten y-Achse sind die Blühtermine ab Neujahr eingetragen.

Grafik 1: Ähnlich wie der Frosythienstrauch in Hamburg verspätet sich seit 30 Jahren auch der Forsythienstrauch in Seesen. Steigende Trendlinie bedeutet Verspätung. In der Grafik sind als Blühtermin die Tage ab Neujahr angegeben.

Der Grund der Verspätung ist derselbe wie in Hamburg. Neben vielen Faktoren ist vor allem die Temperatur der beiden Monate vor der Blüte, hier Februar und März entscheidend. Man bezeichnet den Schnitt der beiden Monate als Vorfrühling. Und dieser Gesamtschnitt des Vorfrühlings ist laut Temperaturerhebungen des DWD sinkend. Die Trendlinie zeigt nach unten. Seit 30 Jahren wird es kälter in Deutschland und damit sind auch die Märzblüher immer später dran.

Grafik 2: Vorfrühling ist der Schnitt der Monate Februar/März. Die Trendlinie zeigt nach unten. Seit 30 Jahren wird der Vorfrühling kälter in Deutschland und damit sind auch die Märzblüher immer später dran.

Erg: Ebenso wie in Hamburg, leugnet die Forsythie in Seesen/Kirchdorf den Klimawandel. Die Märzblüher kommen alle später und nicht früher. Die Behauptung der Medien, dass in Deutschland der Frühling immer früher käme ist eine glatte Lüge der Medien. Allerdings plappern die Redakteure nur das nach, was ihnen im großen Stile und mit System vorgelogen wird.

Die Forsythie ist ein Klimawandelleugner. Wir fragen uns: Wird Sie vielleicht bald vor Gericht gestellt mit dem Ergebnis, dass sie aus allen Vorgärten Deutschlands verschwinden muss?

Wie würde nun ein Artikel über die Forsythie und andere Frühblüher in den Medien aussehen?

In aller Regel wird nur behauptet, dass es aufgrund der steigenden CO2-Konzentration immer wärmer würde. Dann wird den Lesern oder Zuschauern eine Grafik der global steigenden CO2-Konzentration gezeigt. Und im gleichen Atemzug erfolgt dann die Falschaussage, dass deshalb die Winter immer wärmer würden und deshalb käme auch der Frühling früher. Zu diesen beiden Falschaussagen wird natürlich keine Grafik gezeigt. Da die Deutschen und insbesondere auch die Medienvetreter zu einem Volk von Stubenhockern hinter der warmen Heizung degeneriert sind, zweifelt niemand die Falschaussagen an. Es gibt somit keine Klimawandelleugner, sondern nur Klimalügner.

Dass aber der Frühling immer später kommt seit 30 Jahren zeigt auch die Salweidenbeobachtung desselben Phänologen Georg von Petersdorff-Campen in Seesen/Kirchdorf

Grafik 3: Auch die Salweidenblüte verspätet sich, das zeigt die steigende Trendlinie. Der Blühtermin war diesmal der 4.April, das ist am 94.ten Tag im Neuen Jahr 2018. Muss der Palmsonntag in Deutschland bald verlegt werden?

Die Salweide als Pioniergehölz mäßig trockener bis sehr trockener, eher nährstoffarmer Standorte reagiert auch auf den steigenden Nitratgehalt des Regenwassers. Dieser hat in den letzten 30 Jahren zugenommen. Düngemittel sind manchmal ein Faktor für eine Verfrühung, ebenso wie der steigende CO2- Gehalt der Luft. Das Resultat vieler Einflussgrößen ist in der Endbetrachtung trotzdem eine leichte Verspätung der Salweidenblüte in den letzten 30 Jahren.

Ein anderer, im zeitigen Frühjahr recht auffälliger Strauch ist die Kornelkirsche (Titelfoto), ein beliebtes Zier- und altes Obstgehölz, welche als wärmeliebender Strauch in der freien Landschaft ab dem südlichen Niedersachsen auch wild vorkommt. Die DWD- Daten für Braunschweig sind momentan leider nur bis 2016 verfügbar; doch in diesen knapp 30 Jahren zeigt sich auch bei der Kornelkirsche eine leichte Verspätung des Blühtermins:

Grafik 4: Leichte (nicht signifikante) Blühverspätung der Kornelkirsche an der DWD- Station 662 (Braunschweig) in den 29 Jahren von 1988 bis 2016.

Der Zusammenhang zwischen Vorfrühlingstemperatur und dem Beginn der Kornelkirschblüte ist deutlich, wenngleich weniger eng als bei der Forsythie:

Grafik 5: Ein kälterer Vorfrühling zieht tendenziell eine längere Dauer bis zum Beginn der Kornelkirschblüte nach sich (negative Korrelation). Man beachte aber, dass außer der Lufttemperatur auch die Sonnenscheindauer, die Bodentemperatur, die Bodenfeuchte und die gestiegene CO2-Konzentration der Atmosphäre einen wesentlichen Einfluss auf den Zeitpunkt des Erblühens haben!

Nur nebenbei bemerkt: Klima wandelt sich immer. Momentan werden der Winter und insbesondere die beiden Monate Februar und März kälter und nicht wärmer. Unzählige Faktoren bestimmen den Temperaturverlauf und die abkühlenden Faktoren waren in den letzten 30 Jahren stärker. Das kann sich auch wieder ändern. Richtig ist, dass der Mensch durch seinen Wohlstand und die zunehmende Bebauung Wärme in die Landschaft reinträgt. Wir sind also mit einem Faktor mitbeteiligt an den Temperaturen, und zwar erwärmend. Die Behauptung, dass Kohlendioxid allein die Temperaturen der Erde bestimmt ist falsch. Bisher konnte noch durch keinen einzigen Versuch die Klimasensitivität von CO2 festgelegt werden.

Merke: Die Klimasensitiviät von Kohlendioxid ist Null oder zumindest nicht nachweisbar klein. Das zeigen alle auf wissenschaftlichem Niveau durchgeführten Versuche.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




… und jährlich ändert sich der Golfstrom – Alarmisten bemühen das “The Day After Tomorrow” Szenario – es wird kalt, weil es wärmer wird

Es ist das gleiche Szenario, das im Katastrophenfilm „The Day After Tomorrow“ in Hollywood Manier dargestellt wurde, wo eine Verlangsamung des Golfstroms Nordamerika in ein gefrorenes Ödland verwandelte. Ein katastrophales Szenario, das Jahrzehnte entfernt sein könnte, sagen einige Wissenschaftler.

„Wir wissen, dass es irgendwo einen Wendepunkt gibt, an dem das derzeitige System zusammenbrechen könnte„, warnte der Potsdamer Klimaforscher Prof. Stefan Rahmstorf, einer der Mitautoren der Studie von Leit-Autorin Levke Caesar, ebenfalls PIK. „Wir wissen jedoch nicht, wie entfernt oder nahe wir an diesem Wendepunkt sind, das ist Neuland.“

Diese Studie war eine von zweien, die alarmierende Schlagzeilen in den Medien hervorriefen, aber Experten sind skeptisch wegen der wenigen beobachtbaren Beweise. (Andere) Wissenschaftler machen seit etwas mehr als einem Jahrzehnt nur direkte Messungen des Golfstroms.

„Rekonstruktionen über programmierte Klimamodells sind nicht dasselbe wie beobachtete Daten oder Beweise“, sagte der Atmosphärenwissenschaftler des Libertären Cato Instituts, Dr. Ryan Maue, dem Daily Caller. „Wir sollten die bombastischen Darstellungen im „The Day After Tomorrow“ nur sehr misstrauisch betrachten, direkte Messungen sind sehr begrenzt“.

Der Golfstrom, auch Atlantic Meridional Overturning Circulation (AMOC), bringt warmes Wasser aus dem Golf von Mexiko in den Nordatlantik und kaltes Nordwasser strömt wiederum nach Süden.

Polare Eisschmelze und verstärkte Niederschläge bringen immer mehr kaltes, frisches Wasser in den Nordatlantik und verringern den Salzgehalt, sagen einige Wissenschaftler. Salzärmeres Wasser ist leichter und sinkt nicht so schnell nach unten, der Golfstrom wird geschwächt.

[Der letzte Satz lautet im Original: ‘Less saline has a harder time sinking, throwing off the AMOC’]

Klimamodelle zeigen im Allgemeinen eine schwächere AMOC als Folge der Erwärmung, aber die Beobachtungsdaten sind gering. Anomale Abkühlung südlich von Grönland ist ein Beweis für eine geschwächte AMOC, sagen einige Wissenschaftler.

„Die schwache AMOC ist explizit verbunden mit „steigenden atmosphärischen Kohlendioxidkonzentrationen“ und „Temperaturtrends, die seit dem späten neunzehnten Jahrhundert beobachtet wurden“, so Prof. Rahmstorf.

Jedoch die „Labrador Sea Deep Convection“ [Der Labradorstrom ist eine kalte, nach Süden gerichtete Meeresströmung in einem Arm des atlantischen Ozeanes zwischen Grönlandund der Ostküste Nordamerikas.] und die AMOC waren in den vergangenen 150 Jahren ungewöhnlich schwach … verglichen mit den vorangegangenen 1.500 Jahren „, heißt es in einer zweiten Studie, die im gleichen Journal veröffentlicht wurde.

Mit anderen Worten, die AMOC begann zu schwächen, bevor menschliche Aktivitäten eine Rolle spielen konnten.

„Das spezifische Trendmuster, das wir in den Messungen gefunden haben, gleicht genau dem, was Computersimulationen als Folge einer Verlangsamung des Golfstromsystems vorhersagen, und ich sehe keine andere plausible Erklärung dafür„, sagte Rahmstorf, dessen Studie sich auf Proxy-Daten stützte aus Meeressediment und Kalkschalen

Aber noch mal, es gibt nur begrenzte Beobachtungen. Auch andere Wissenschaftler außer Maue stehen der Studie skeptisch gegenüber.

„Rahmstorfs Behauptungen über die Schwächung sind denkbar, aber nicht durch irgendwelche Daten gestützt„, sagte Carl Wunsch vom Massachusetts Institute of Technology gegenüber Associated Press.

Kevin Trenberth vom National Center for Atmospheric Research sagte, dass seine jüngsten Arbeiten ergeben haben, dass regelmäßige Zyklen in der Atmosphäre mehr stören als der Ozean. „Die Studie erklärt nicht die Variabilität von Jahr zu Jahr, während atmosphärische Zyklen dies tun“.

Die Schlüsse, die Sie aus den Ergebnissen ziehen, hängen im wesentlichen davon ab, inwieweit Sie den verwendeten Modellen Glauben schenken und wie gut die gewählten Proxies  die AMOC über die Zeitskalen repräsentieren„, sagte Meric Srokosz , ein Meereskundler des Ozeanografiezentrums, gegenüber der Washington Post.

Erschienen auf The Daily Caller am 11.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/11/day-after-tomorrow-global-warming/

 

* * *

Durch die nachfolgenden Recherchen, sieht man, der Golfstrom kommt alle Jahre wieder ins Gerede. Hier eine kleine Auswahl in aufsteigendem Datum:

Sept. 2005

Erwärmung des Tiefenwassers verlangsamt

… Die erste Auswertung der Rohdaten zeigt ein interessantes Ergebnis: Die seit über sechs Jahren anhaltende Erwärmung der zentralen Labradorsee ist kaum noch zu spüren. Ob dies die ersten Vorboten einer erneuten Abkühlung sind, bleibt jedoch abzuwarten. ..

Jan. 2011

Gefürchtete Atlantikströmung schwächelt

 … Das kalte Wasser des Labradorstroms raubt dem Golfstrom einen Großteil seiner Wärme. Auch in Europa ist es deshalb kühler. …

März 2012

Golfstrom im Visier der Klima-Alarmisten!

So ließ jüngst das MPI Hamburg zu (1) verlauten [12] :

„Doch was die Forscher noch gar nicht so lange wissen: Die Zirkulation schwankt. Sie variiert mit den Jahren und kann mal schwächer, dann wieder stärker ausfallen.“

Okt. 2012

Die Debatte ums Versiegen des Golfstroms – Rahmstorf durch Messdaten widerlegt!

Prof. Rahmstorf erklärt: …. …Nach aktuellem Stand erscheint das Risiko eher größer, als wir es vor zehn oder fünfzehn Jahren gesehen haben.”

April 2014

Neue Golfstrom-Publikation des PIK fällt in der Fachwelt glatt durch

… versucht Stefan Rahmstorf mühsam zu retten, was nicht zu retten ist. Lang und breit erklärt er in diesem Beitrag, warum sowohl er recht hat, als auch die Forscherkollegen, die das glatte Gegenteil, des von ihm postulierten Zusammenbrechens des Golfstromes gemessen haben.

März 2015

Entwarnung: 20-jährige Studie zeigt Golfstrom ist stabil

 …Es heißt, dass der Golfstrom an Stärke verliert aufgrund steigenden Meeresspiegels entlang der Ostküste. Allerdings ist in keiner der Studien auf irgendwelche direkte Messungen der Strömung Bezug genommen worden, um über einen längeren Zeitraum die Behauptungen zu belegen.

März 2015

Michael Mann und Stefan Rahmstorf behaupten: Golfstrom schwächt sich ab wegen Eisschmelze in Grönland – außer dass die Realität etwas ganz anderes sagt

… Das ADCP misst Strömungen mit sehr hoher Genauigkeit. Folglich erhalten wir durch wiederholte Messungen, die wir Jahr für Jahr durchführen, ein aussagekräftiges Tool, mit dem wir die Stärke der Strömung überwachen können. Es gibt Variationen der Strömungsgeschwindigkeit mit der Zeit, die natürlichen Ursprungs sind – und ja doch, diese müssen wir noch besser verstehen – aber wir finden absolut keine Beweise, die zeigen, dass sich der Golfstrom verlangsamt“.

Dez. 2017

Aussterben von Spezies und Abbruch des Golfstromes

… wir nehmen uns die Behauptung vor, dass der vom Menschen verursachte Klimawandel einen starken Zufluss von Süßwasser aus den schmelzenden Gletschern in Grönland in Gang setzen wird. Dies soll zum Zusammenbruch der thermohalinen Zirkulation und/oder des Golfstromes im Nordatlantik führen. Das wiederum soll eine starke Abkühlung mit sich bringen ähnlich der wie vor 818 bis 8340 Jahren, als ein Eisdamm in Kanada brach und gewaltige Mengen Süßwasser in den Atlantik strömten.

März 2018

Studie zeigt, dass die globale Erwärmung den Jetstream nicht verändern wird

… Nein, CO2 beeinflusst den Jetstream nicht. Lupo und Jensen untersuchten die Ergebnisse von Klimamodellen und fanden bis zu 35 Jetstream-Strömungsänderungen pro Jahr, ähnlich dem heutigen Klima.




Fossile Treibstoffe unter Feuer

Ölunternehmen stehen jetzt vor einer Fülle von Gerichtsverfahren – diese reichen von Klagen seitens Kindern (finanziert radikalen, anti-fossilen Umweltgruppen) bis zur kommunalen Ebene. Die Vorwürfe laufen darauf hinaus, dass Öl-, Gas- und Kohleunternehmen seit Jahrzehnten wussten, dass sie den Klimawandel verursachen (und vermutlich den Kindern ihre Zukunft rauben), aber konspiriert haben, um die Beweise zu verschleiern oder zu leugnen.

Alsup forderte von Klägern und Beklagten Briefings zum Thema Klimawandel an und konzentrierte sich auf acht Fragen, welche er beiden Seiten vorlegte. Er räumte beiden Teams 60 Minuten ein, eine historische Studie des Klimawandels zu präsentieren, und eine weitere Stunde, um die beste verfügbare Wissenschaft zu Klimawandel zu diskutieren, zu schmelzendem Eis, Meeresspiegelanstieg und Überflutung küstennaher Gebiete.

Von den beklagten Ölunternehmen nahm nur Chevron an der Anhörung teil. Sehr zum Missfallen der in dem Prozess beteiligten Städte und Umweltaktivisten bekräftigte Chevron die Ergebnisse des IPCC. Den Protokollen zufolge rasten die Kläger vor Wut und verdammten die IPCC-Berichte, welche sie doch zuvor als den goldenen Standard der Klimaforschung gepriesen hatten.

Chevron hat die gesamten Forschungen des IPCC durchgearbeitet, nicht nur die von Aktivisten, Autoren und Politikern zusammengestellten Schlagworte in der „Summary for Policymakers“. Darin wurden die Zweifel heruntergespielt und die Möglichkeit einer Klimakatastrophe auf den Schild gehoben. Klimarealisten haben schon lange darauf hingewiesen, dass die IPCC-Berichte grundlegende Forschung enthielten. Und obwohl die Berichte nicht umfassend sind, sind sie doch weitaus weniger apokalyptisch als die so oft zitierten Summaries.

Joe Bast, ehemaliger Präsident des Heartland Institutes hebt viele positive Aspekte der Teilnahme von Chevron an der Anhörung hervor.

Wir haben schon lange gesagt, dass die vollständigen IPCC-Berichte viele Hinweise auf Unsicherheiten und Zweifel enthalten (siehe z. B. Seite 39 im Kapitel Why Scientists Disagree About Global Warming). Die „Summaries for Policymakers“ dagegen sind politische Dokumente, in welchen sämtliche Zweifel ausgeschlossen und die von Umweltaktivisten und Politikern editiert worden sind, um politischen Zwecken zu dienen. Chevron nahm die tatsächlichen Studien genau unter die Lupe und dokumentierte die Passagen bzgl. Unsicherheiten während der Zeit, in der sie der Anklage zufolge einen wissenschaftlichen Konsens verschleiert hätten. Das ist ein gutes und sicheres Argument.

Chevron wies außerdem nachdrücklich darauf hin, dass die Kläger und die daran Beteiligten (Städte samt deren Industrien und Bewohnern) – aber nicht die Ölunternehmen – mit den fossilen Treibstoffen die meisten Treibhausgase in die Atmosphäre freisetzen. Bast weiter: „Chevron forderte das Gericht auf zu unterscheiden zwischen den Aktivitäten der Beklagten – die Extraktion fossiler Treibstoffe aus dem Boden – und der Aktivität, welche Klimawandel verursachen kann – die Verbrennung fossiler Treibstoffe“.

Chevron wies auch nach, dass die IPCC-Berichte ausdrücklich auf den fehlenden Konsens bzgl. Anstieg des Meeresspiegels hinwiesen, welcher vermeintlich vom anthropogen verursachten Klimawandel ausgelöst werden soll – ebenso wie bzgl. wie stark und wann Kalifornien davon betroffen sein soll. Dies ist konsistent mit den Veröffentlichungen des Heartlands Institutes und jenen des NIPCC. Außerdem betonte Chevron „die eigenen Worte der Kläger, enthalten in städtischen Angeboten, mit denen eingeräumt wurde, dass der künftige Anstieg des Meeresspiegels nicht vorhergesagt werden kann“.

Kommentatoren wiesen auf die Ironie hin, dass Chevron die IPCC-Berichte hervorhebt, während die Klima-Aktivisten das, was sie zuvor als beste verfügbare Klimaforschung priesen, jetzt leugnen. Prof. Roger Pielke Jr. von der University of Colorado stellte fest: „Dieser Tweet zeigt, wie sehr sich die Klimadebatte verändert hat. Ein Ölunternehmen hebt den IPCC-Konsens hervor, während deren Opponenten, also Umweltaktivisten (einschließlich einiger Klimawissenschaftler) den IPCC-Konsens leugnen. Bizarre Welt!“

Zwei Briefings von „Freunden des Gerichtshofes“, geschrieben von verschiedenen Klimaforschungsgruppen, stützten und erweiterten die Präsentation von Chevron für Alsup. Diese Briefings stellten die Myriaden Unsicherheiten dar, ebenso wie die Tatsache, wie sehr Klimamodelle unzuverlässige Temperaturprognosen erzeugten und Klimadaten falsch anwenden. In einem dieser Briefings heißt es:

Die Gutachten werden zeigen, dass es eben keinen ,Konsens‘ unter den Wissenschaftlern gibt, dem zufolge die jüngste globale Erwärmung hauptsächlich anthropogenen Ursprungs war, geschweige denn dass eine nicht abgeschwächte anthropogene Erwärmung gefährlich oder katastrophal war oder sein wird. Unter dem Terminus ,Konsens‘ versteht das IPCC nichts weiter als das der größte Teil der beobachteten globalen Erwärmung seit 1950 den Menschen geschuldet ist. Darin nicht enthalten ist die Schlussfolgerung, dass die globale Erwärmung insgesamt schädlich war oder sein wird“.

Diese beiden Briefings stellen eine solide Grundlage für Skeptizismus hinsichtlich der vermeintlichen Gefahren des Klimawandels dar.

Bast argumentiert, dass die Befürworter fossiler Treibstoffe in die Offensive gehen sollten und die vielfache Forschung bekannt machen, welche das Narrativ des gefährlichen anthropogenen Klimawandels unterminieren:

Chevron mag nur so viele Argumente hervorgebracht haben, wie das Unternehmen glaubt nötig waren, um diesen Prozess zu gewinnen, und ich denke, dass das genau das ist, was gute Anwälte tun. Das Unternehmen hat gute Argumente vorgebracht, und vielleicht können sie sogar einen linken Richter davon überzeugen, ein belangloses Verfahren einzustellen. Aber Chevron stellte vor Gericht viele falsche und irreführende Behauptungen auf – Behauptungen, welche die öffentliche Debatte um den Klimawandel kontaminieren können und die Industrie fossiler Treibstoffe verfolgen. Sie können unsere Energie-Freiheit bedrohen, bis man sich ihnen stellt und sie widerlegt“.

Angesichts der Reaktionen seitens Journalisten und Aktivisten vor Gericht kann Chevron eines seiner Hauptziele erreicht haben: nämlich die Auffassung zu zerstreuen, dass Ölunternehmen konspiriert haben, um die Klimawissenschaft zu unterdrücken.

Alsup verwirft den Gedanken, dass es eine irgendwie geartete Konspiration der Unternehmen fossiler Treibstoffe gibt, um Klima-Informationen zu unterdrücken“, twitterte Amy Westervelt von Climate Liability News.

Der Richter rügte die Anwälte der kalifornischen Städte und sagte, dass diese das Gericht in die Irre geführt hätten – und dass das von den Klägern vorgebrachte Dokument, welches die ,Konspiration zeigt‘, tatsächlich nichts dergleichen zeigt“, twitterte der Dokumentarfilmer Phelim Mcaleer.

Es gibt keine Konspiration unter den Unternehmen fossiler Treibstoffe, um Informationen bzgl. Klimawissenschaft zu unterdrücken“, twitterte Amy Johl, eine sich selbst als „Klima-Organisatorin“ bezeichnende Dame.

Es ist zu hoffen, dass dies das Ende dieser Gerichts-Farce ist – nicht nur in diesem Fall, sondern auch in ähnlich gelagerten Fällen im ganzen Land. Falls das so sein sollte, können Öl- und Gasunternehmen aufhören, kostbare Zeit zu verschwenden, um belanglosen Behauptungen vor Gericht entgegenzutreten, und sich statt dessen auf das konzentrieren können, was sie am Besten können: zuverlässige und preiswerte Energie zur Verfügung zu stellen, welche die Menschen brauchen und wünschen.

H. Sterling Burnett

SOURCES: The Heartland Institute, The Daily Caller, CO2 Coalition, Watts Up With That,  McClatchy, Energy In Depth

Übersetzt von Chris Frey EIKE

Anmerkung: Auch hier wird anstelle eines festen Links zu Prüfzwecken das Original als DOC beigefügt:

fossil




Klima-Skepsis am Ägeri-See

Alex Reichmuth*

Der Ägerisee im Kanton Zug ist eingebettet in eine liebliche Landschaft. Hier liegt der Morgarten, wo die Eidgenossen vor vielen Jahrhunderten er­folgreich Widerstand gegen die Habsburger leisteten. Um eine andere Art von Widerstand geht es bei einer For­schungseinrichtung, die seit kurzer Zeit ihren Sitz am Ägerisee hat:

Das Institut für Hydrographie, Geoökologie und Klimawissenschaften will zeigen, dass COnicht zwingend der Haupttreiber hinter der Erderwärmung ist, und wi­dersetzt sich damit einem angeblich weiten Konsens unter Forschern.

Hans-Joachim Dammschneider em­pfängt die Basler Zeitung in seinem Büro in Oberägeri, wo das Institut seine Adresse hat. Der Naturwissenschaftler und gebürtige Deutsche leitet die Institution, die Anfang 2017 gegründet wur­de. «Im Gegensatz zu vielen anderen, die sich zum Thema Erderwärmung zu Wort melden, bin ich tatsächlich Klima­tologe», sagt Dammschneider.

Wer beim Institut mitmacht, tut das – zumindest bisher – ehrenamtlich. Denn über wesentliche finanzielle Mittel verfügt dieses noch nicht. Dank mo­derner Kommunikation ist es für die Beteiligten auch nicht nötig, sich physisch am Ägerisee aufzuhalten.

Das Institut ist eine Art Netzwerk gleichge­sinnter Forscher.

«Ruhe, Vernunft und Anstand»

Entscheidend für die Gründung war eine Begegnung von Hans-Joachim Dammschneider mit dem deutschen Geologen Sebastian Lüning vor zwei Jahren. Lüning war zusammen mit Fritz Vahrenholt Autor des Buches «Die kalte Sonne» und betreibt eine klimaskep­tische Internetseite mit dem gleichen Titel. «Lüning und ich kamen zum Schluss, dass es eigene Forschungsaktivitäten braucht, um aufzuzeigen, wie sehr sich die tonangebenden Klimawissenschaftler in Behauptungen verrannt haben», so Dammschneider. Denn nur, wer selber eine wissenschaftliche Leistung bringe, habe die Chance, ernst genommen zu werden.

Mit «Ruhe, Vernunft und Verstand» wolle sich das Institut in die Diskussion um die Erderwärmung einbringen. Dammschneider selber bezeichnet sich als «Klimarealisten», der es absurd findet, CO2als Schadstoff zu bezeichnen und der Substanz die Hauptschuld am Klimawandel zu geben.

Nachdem Dammschneider in Hamburg Geografie (mit Schwerpunkt Kli­maforschung), Ozeanografie und Geologie studiert hatte, spezialisierte er sich während vieler Jahr auf Hydrologie. Im Anschluss an seine Doktorarbeit auf diesem Gebiet arbeitete er lange als selbstständiger Gutachter und half unter anderem mit, die Versandungs- und Verschlickungsprobleme an der Unterelbe zu lösen.

Ständiger Wechsel

Vor 15 Jahren zog er zusammen mit seiner Frau in die Schweiz, wo die Hy­drologie eine Zeit lang nicht mehr im Mittelpunkt seiner beruflichen Tätigkeit stand. Darum freut er sich, jetzt für das Institut wieder verstärkt wissenschaftlich tätig zu sein.

Für das Institut hat er bereits mehrere wissenschaftliche Arbeiten in der hauseigenen Schriftenreihe publiziert. Dammschneiders Spezialgebiet sind periodische Temperaturveränderungen der Meere. Solche Ozeanzyklen mit einer Dauer von rund sechzig Jahren würden auch die Verhältnisse in der Atmosphäre prägen, leitet er aus seinen Resultaten ab. «Die Lufttemperaturen korrespondieren tendenziell mit den Oszillations-Trends in den Meeren und unterliegen einem vergleichbaren Muster.» Wichtig ist ihm aufzuzeigen, dass ständige Wechsel beim Klima normal sind und nicht erst existieren, seit der Mensch fossile Brennstoffe nutzt.

Diesen Schluss legen auch andere Studien nahe, die im Namen des Instituts in wissenschaftlich begutachteten Zeitschriften publiziert worden sind: Unter der Leitung von Sebastian Lüning untersuchte ein Forscherteam die Temperatur- und Niederschlagtrends in Afrika während des Hochmittelalters. Während den Jahren 1000 bis 1200 war es auf der Nordhalbkugel ähnlich warm wie heute. Die Arbeiten von Lüning und seinem Team legen nahe, dass in dieser Zeit auch in Afrika sehr günstige Klimaverhältnisse herrschten. Auch das deutet darauf hin, dass die heutige Warmzeit nicht einzigartig ist.

Aufmerksamkeit und Geld

Es ist dennoch kaum zu erwarten, dass die arrivierte Wissenschaft wegen dieser Publikationen auf den klimaskeptischen oder eben «klimarealis­tischen» Kurs des neuen Instituts einschwenkt. Hans-Joachim Dammschnei­der ist sich bewusst, dass ein langer, beschwerlicher Weg bevorsteht. «Auch in der Wissenschaft existiert der Her­dentrieb», gibt er zu Bedenken. Gerade junge Klimaforscher könnten es sich in der Regel nicht leisten, angebliche Wahrheiten in Frage zu stellen, wenn sie nicht ihre Karriere gefährden wollten. Von daher setze das Institut stark auf den Support von freien Wissenschaftlern und emeritierten Professoren. «Diese können sich erlauben, offen zu sprechen», so Dammschneider.

Noch ringt das neue Institut um Aufmerksamkeit. Um es grösser und be­kannter zu machen, braucht es vor allem Geld. Die Suche nach Sponsoren aus der Wirtschaft sei vielversprechend, versichert Dammschneider. Er erwartet, dass das Institut irgendwann eigene Mitarbeiter anstellen kann. Überstür­zen wolle man aber nichts: «Wir gehen es Schritt für Schritt an.»

Sicher ist sich der Naturwissenschaftler, dass der Alarmismus um den angeblich menschengesteuerten Klimawandel nicht ewig anhält:

«Früher oder später wird man die bisherigen Positionen relativieren müssen.»

Bis es so weit ist, wollen er und seine Mitstreiter sich weiter in die Wissenschaft vertiefen – «nüchtern und unideologisch», wie Dammschneider versichert.

(Basler Zeitung)

=====================================================

)* Dieser Artikel erschien zuerst in der BASLER ZEITUNG (ol.) am 13.04.2018

https://bazonline.ch/wissen/Klimaskepsis-am-Aegerisee/story/14557957

EIKE dankt der Redaktion der BasZ sowie dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

======================================================




TE Große Leseraktion: Wie manipulieren Messstationen die Umweltbelastung in Ihrer Stadt? – Teil 7

Die rote Rita nun wieder. Ausgerechnet ins Umweltministerium hat es sie, die aus der »Anti-Atombewegung kommt« verschlagen. »Es ist ein Märchen, dass die Messstationen nicht sachgerecht aufgestellt sind«, sagte die Staatssekretärin Rita Schwarzelühr-Sutter. Dann das umwerfende Argument: „Die Luft wird nicht besser, wenn man sie anders misst. Das ist Augenwischerei und unseriös.“

Äh, wie bitte? Wie anders messen? Sie wird nicht anders gemessen, sondern die entscheidende und heftig umstrittene Frage ist die nach den Standorten, wo die Luft gemessen wird. Denn, zumindest das hätte ihr doch vor ihrer Einlassung jemand flüstern sollen, eine der ganz entscheidenden Fragen in der Messanalytik ist: Wo wird gemessen? Genau darüber wurden in unzähligen EU-Sitzungen gestritten, wo und unter welchen Bedingungen die Anlagen zu stehen haben. Übrigens: Gemäß 39. Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes, Anhang III A.2.a) sind Messstellen nicht zulässig an Orten, an denen keine festen Wohnungen sind. An Deutschlands berühmtester Messstelle Neckartor sind keine Wohnungen. Sind die Vorschriften vollkommen gleichgültig?

Mit Standorten entscheidet man über Messwerte. Also: TE lesen! Haben wir ausführlich erläutert. Gut, sie kommt aus der Betriebswirtschaft. Dort mittelt man gern Werte, zum Beispiel Einkommen (der Deutsche verdient durchschnittlich … ). Das verleitet zur Erkenntnis: Der Deutsche ist reich! Auf die Luftqualität übertragen würde das bedeuten: Gemittelt über die Messstellen der Städte Hamburg Max-Brauer-Allee, Stuttgart Neckartor, München Landshuter Allee und Lüneburger Heide, Schwarzwald, Bayerischer Wald ist die Luftqualität in Deutschland herausragend. Ich bin mir ziemlich sicher, dass ein solches Ergebnis herauskommen würde. Also: Das machen wir noch mal!

Wir haben uns bisher immer mit den Standorten der Messstellen befasst, die häufig so aufgestellt wurden, dass sie höhere Werte produzieren. Nicht minder wichtig ist aber der Blick hinter die Kulissen. Die Frage muss gestellt werden, wie ordentlich die überaus empfindliche Messtechnik arbeitet und wie seriös die Messwerte sind, die Technik liefert. Das kennen wir von der alten mechanischen Waage. Wir haben uns besonders gern gewogen, wenn der Zeiger weit links von der Null war. Korrekt aber ist, die Waage vorher auf Null zu stellen. Kalibrieren nennt man das. Genau das muss auch mit der Messtechnik der Messstationen geschehen. Nicht unkompliziert. Die Messgeräte in den Messstellen messen Luftdruck und Außentemperatur. Dazu wird Luft angesaugt; durch einen Katalysator werden die verschiedenen Stickoxide NOx in NO umgewandelt. Denn nur Stickstoffmonoxid ist überhaupt messbar. Durch Ozon wird eine Lumineszenz ähnlich wie beim Glühwürmchen erzeugt. Die Intensität dieses Lichts wird gemessen und in den NO-Gehalt der untersuchten Luft umgerechnet. Mit in die Rechnung einbezogen werden müssen natürlich Luftdruck und Temperatur. Dafür korrigiert die Software auf die Referenzwerte für Luftdruck (101,3 kPa) und Temperatur (293K = ca. 20°C).Natürlich kann man eine solche Station nicht einfach hinstellen. Es ist wie bei unserer Waage. Genau dasselbe muss mit der sehr empfindlichen Messtechnik gemacht werden. Dafür wird eigens ein spezielles Gas hergestellt, dessen Zusammensetzung genau bekannt ist und in die Anlage eingeführt. Dann erst weiß man, ob das, was herauskommt, auch das ist, was vorn reinkommt.Ob eine solche Kalibrierung auch in den vorgeschriebenen Abständen korrekt erfolgt, kann man von außen nicht so ohne weiteres beurteilen.

 
Notwendig wäre dazu ein ausführliches Audit, wie das in der Industrie geschieht. Die Frage, wer das bezahlt. Wobei angesichts des mutmaßlichen Schwindels, der mit diesen Werten getrieben wird und angesichts der gewaltigen wirtschaftlichen Auswirkungen mit Milliardenverlusten im Dieselfahrzeugbereich wäre ein solches Audit jedenfalls bei den wichtigsten Stationen angebracht.Ein erfahrener Chemiker jedoch, den ich nach seinem ersten Eindruck von den Stationen ohne endgültige qualifizierte Bewertung befragte, sagte ziemlich eindeutig: »Aufgrund der allgemeinen Missachtung der relevanten Forderungen für die Schadstoffmessung und des verwahrlosten Aussehens der Messstationen kann ich mir aber nicht vorstellen, dass hier alles korrekt durchgeführt wird.« Dazu könnte die Station in Oldenburg passen. Sie macht von außen einen ziemlich verwahrlosten Eindruck. Nicht richtig dazu passen will, dass im Inneren sehr empfindliche Messgeräte arbeiten, die auch regelmäßig überprüft und kalibriert werden.

Oldenburg 

Die Messstelle DENI143, so der Code dieser Station, in Oldenburg am heiligen Geist mal liefert Jahresmittelwerte von Stickstoffdioxid von 49 µg/Kubikmeter. Ulrich Heinemann, der uns diese Fotos schickte, schreibt dazu: »An den rot markierten Kreisen befinden sich Ampeln, der Pfeil zeigt die Fahrtrichtung der Busse, die auf dem Innenstadtring fahren. Manchmal auch drei hintereinander (cf. eins der Bilder). Die andere Spur ist für Autofahrer in die Gegenrichtung. Blickrichtung bei Bild 2163 ist Richtung Westen, der Abstand zur Hauswand soll ca. 5 m betragen.«

Köln

Leser Michael G. schickt Bilder der oft erwähnten Messstation in Köln-Mülheim am Clevischen Ring 3. »Direkt in einer Parkbucht an der vielbefahrenen 6-8 spurigen Bundestraße kurz vor der Auffahrt zur Mülheimer Brücke über den Rhein. D.h. zwei Spuren biegen ab auf die Brücke, zwei laufen weiter geradeaus, zwei kommen von der Brücke Richtung Messstation auf der Gegenseite, werden zu drei und zwei weitere Spuren dienen gegenüber zum abbiegen Richtug Osten. Alles mit Ampeln totgeschaltet. Es gibt Phasen, da ist überall rot, in jeder Richtung. Der Abstand zur langen Häuserfront beträgt ca. 3,5 m, Luftzirkulation wird zusätzlich durch Bäume eingeschränkt.«

Leipzig 

Wunderlicherweise steigen in Leipzig immer wieder im Winter vor allem Feinstaubwerte an. Das wirkt sich auf die Ergebnisse der Luftmessstationen aus. Michael Körner schickt Bilder von der Messstation Lützner Straße 36 in 04177 Leipzig. Sie steht an sehr exponierter Stelle. »Das ist die schmutzigste Straße Deutschlands«, schrieb einst die Mitteldeutsche Zeitung, nicht wissend, dass auch das Neckartor Stuttgart hart im Konkurrenzkampf liegt.

»Die Lützner Straße in Leipzig ist eine vielbefahrene Ausfallstraße in Richtung Westen (B87). Die Station befindet sich neben dem nördlichen Fahrbahnrand, ca. 1 m vom Bordstein entfernt. Zwischen Bordstein und Fahrspur verläuft ein etwa 1,5 m breiter Fahrradstreifen. Die Straße ist beidseits von je einer durchgehenden Häuserzeile bestanden. Die Station befindet sich im schmalsten Bereich.«

Nürnberg

Aus Nürnberg schickt uns TE-Leser Siegfried R. Bilder der Messstation in der von der Tannstraße. »In Nürnberg gibt es nur eine Messstation, welche die Grenzwerte ein paarmal im Jahr überschreitet. Aber der Standort ist anscheinend Absicht, um die Überschreitung überhaupt zu erreichen. Die Messung findet in der Von der Tannstrasse statt. In einer engen Häuserschlucht die in Nord- Südrichtung verläuft. Die Strasse hat 4 Fahrspuren.Genau am Ende der Bushaltestelle blasen die Busse, es handelt sich um zwei Linien, fast direkt in die Messstation. Die Messung wurde in einer Entfernung von nur 90cm vom Fahrbahnrand montiert. Da dies anscheinend nicht reicht, ist die Ampelschaltung so ausgelegt, dass zwischen diesen Häuserzeilen ein Dauerstau provoziert wird. Die Fahrbahn Richtung Süden ist frei aber der Verkehr wird durch die Ampel am Abfließen gehindert. Dasselbe in nördlicher Richtung. Anscheinend wird überall ein bisschen nachgeholfen.«

Anwalt Manfred. M schickt: »In Kassel gibt es zwei Luftmessstationen, von denen die eine tatsächlich regelkonform (Standort: Hinter der Komödie) ist. Die Bilder zeigen die zweite Luftmessstation, die an der Kreuzung Fünffensterstraße/Obere Königsstraße steht. Die Schlechtpositionierung dieser Luftmessstation scheint mir rekordverdächtig. Wie auf den Bildern zu sehen ist, steht sie unmittelbar vor einem (für Kasseler Verhältnisse) Hochhaus im Kreuzungsbereich, wo sich der Verkehr ständig staut. Diagonal gegenüberliegend befindet sich das Kasseler Rathaus.«

Essen

»Schadstoffwerte« in der Luft zu hoch? Kein Problem, die Stadt Essen weiß guten Rat: Häuser einfach abreissen. So überlegt die Stadt jetzt, Häuser abzureissen, um die Durchlüftung zu verbessern. Der Messstation in Essen in der Gladbecker Straße 242 liegt direkt in einer Häuserschlucht und an der engsten Stelle der B224. Leser Steffen S. und Sven R. schicken uns die Bilder der B 224. Die Meinungen über Abriss gehen auseinander. Anwohner der Gladbecker Straße wehren sich gegen die Abrisspläne, Leser Steffen F. meint: »Ein Abriss wäre auch sinnvoll. In den Schrottimmobilien wohnen jetzt wieder viele Migranten. Es gab lange Leerstände. Werte würden entstehen, würden man die Häuser an den Ausfallstraßen abreissen und daraus wertvolle Gewerbegrundstücke entwickeln, auf denen Supermärkte, Tankstellen usw. gebaut werden könnten. Das würde Essen interessanter machen, als das Image der Stadt der Armen zu kultivieren und vorzuzeigen. Stau gibt es hier hauptsächlich nur im Berufsverkehr. Die Fotos zeigen den Verkehr um 11.00 Uhr an einen Dienstagvormittag.«In der nächsten Folge werden wir uns mit der albernen Messaktion befassen, die die Deutsche Umwelthilfe DUH mit Hunderten von Messröhrchen für jedermann veranstaltet und uns damit wahre Horrorszenarien auftischen will.


Schicken Sie uns bitte aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen

Hier geht es zu Teil 3 – Messstationen in Hamburg, Wiesbaden, Cottbus, Dortmund und München

Hier geht es zu Teil 4 – Messstationen in Berlin, Hannover, Halle an der Saale, Wuppertal und Göttingen 

Hier geht es zu Teil 5 – Messstationen in Darmstadt, Leonberg, Kiel und Gelsenkirchen

Hier geht es zu Teil 6 – Messstationen in München, Plauen/Vogtland, Osnabrück und Norderstedt

Der Beitrag wurde übernommen von TICHYS Einblick hier




Pruitts Unterstützer warnen Präsident Trump: Ohne ihn kommt die Agenda zum Erliegen

Demokraten und Umweltaktivisten fordern zunehmend Pruitts Entfernung, wegen zunehmender ethischer Bedenken, [zur Zeit] vor allem wegen seines Mietverhältnisses eines Zimmers in der kurzen Zeit in Washington, aber auch der Gehaltserhöhung von Mitarbeitern, an der Mitsprache des Weißen Hauses vorbei. [Bericht übersetzt auf Eike].

Präsident Trump und EPA Administrator Pruitt haben eine enge Arbeitsbeziehung. Trump rief Pruitt an Ostermontag an, um ihm zu sagen, „wir stützen Dich“, aber kurz danach kam das Weiße Haus mit der Indiskretion, dass Trump „nicht“ einverstanden wäre, dass Pruitt die o.g. kurzfristige Miete mit der Frau eines DC-Lobbyisten abgeschlossen hatte.

„Wir überprüfen die Situation. Wenn wir die Gelegenheit hatten, einen tieferen Einblick in das Thema zu bekommen, werden wir Sie über die Folgen davon informieren „, sagte die Pressesprecherin Sarah Huckabee Sanders den Reportern.

Axios berichtet, dass Trump auf die öffentliche Meinung dazu achtet.

Pruitts Verbündete stemmen sich dagegen:

… Lass die Pruitt nicht links liegen. Hier geht es wirklich um Ideologie und Leute auf der Linken, die seine aggressiven Handlungen bei der Regulierung von Umweltvorschriften nicht mögen.

Die Entlassung von Pruitt würde endlose Probleme bringen. … die Linke – und sie setzen die Mainstream-Presse für dieses Thema ein – wird nicht zufrieden sein, wenn Pruitt geht. Sie werden sich einfach das nächste Kabinettsmitglied vornehmen.

„Das würde wirklich passieren, wenn Pruitt gebeten würde zu gehen“, sagte Tom Pyle, Präsident der American Energy Alliance, gegenüber dem Daily Caller. Pyle leitete 2016 das Transformationsteam von Trump für die Energieabteilung.

„Es würde Monate dauern, bis der Senat jemanden bestätigen würde und wen immer sie bestätigen würden, es würde eher Christine Todd Whitman als Pruitt sein“, sagte Pyle und bezog sich dabei auf den ehemaligen New Jersey Gouverneur und EPA Administrator unter Präsident George W. Bush. „Es wäre so, als würde man mitten in dem Spiel seinen Star „wide receiver“ [ im am. Football , ~vergleichbar der Rechts- und Linksaußen Stürmer]. Es würde den Prozess verlangsamen und es der Verwaltung erschweren, ihre Ziele zu erreichen„.

Im ersten Berichtsjahr der EPA unter Präsident Trump und Administrator Pruitt, wurde fast eine Milliarde an Regulierungskosten aufgehoben.

Auch konservative Experten äußern sich zu Pruitts Verteidigung, und wiesen darauf hin, dass der Administrator die Vorschriften erfolgreich zurückdrehte und die Wissenschaftspolitik der EPA reformierte, was ihn wegen letzterem zu einem Hauptziel der Demokraten machte.

„Scott Pruitt und sein Team leisten hervorragende Arbeit bei der Umsetzung der ambitionierten Agenda von Präsident Trump, die darauf abzielt, robustes Wachstum für Rohstoff- und energieintensive Industrien wiederherzustellen, die in den letzten zehn Jahren stagnierten„, sagte Myron Ebell, Direktor der Politik für Energie und globale Erwärmung im Competitive Enterprise Institute.

Sollte Pruitt entlassen werden, gibt es keinen von Trump ernannten Nachfolger. Andrew Wheeler, der Kandidat für Pruitts Nummer zwei, wartet noch immer auf die Billigung durch den Senat, und der bei Wheeler agierende Assistent wird ebenfalls bald in Rente gehen.

„Sie würden einen Hausmeister bekommen, der nur wenig Mut hätte, die Klimamacht des vorherigen Präsidenten aufzuheben“, sagte Pyle.

Ebell sagte, Pruitts Abgang würde „definitiv den Umgestaltung bremsen“, bei den Klima- und Energieregulierungen der Obama-Ära. „Deshalb glaube ich nicht, dass Scott Pruitt woanders hin befördert wird „, sagte Ebell gegenüber dem Daily Caller. Ebell leitete in 2016 das EPA-Übergangsteam von Trump.

Die Mainstream Medien berichten jedoch, dass negativere Schlagzeilen Trumps Meinung über Pruitt ändern könnten. Pruitts Gegner im Weißen Haus und die Bürokratie bemühen sich, dass mehr negative Geschichten gefunden werden.

Die Kampagne „Entlasst Pruitt“ der Aktivisten, wohlwollend begleitet durch Demokraten, beginnen gerade erst. Sie werden weitere Unterlagen einreichen und [ehemalige] EPA-Mitarbeiter einbinden, um negative Nachrichten über den ehemaligen Generalstaatsanwalt von Oklahoma zu verbreiten.

„Die Umweltbewegung setzt sich insgesamt für die Entfernung von Scott Pruitt ein“, sagte Lukas Ross, ein Aktivist bei Friends of the Earth, gegenüber Bloomberg. „Ich denke, Sie werden in den nächsten Tagen einen eskalierenden Druck sehen, besonders auf der Seite des Senats, um dessen Mitglieder dazu zu bewegen, öffentlich zu erklären, dass Pruitt gefeuert werden sollte.“

Bloomberg berichtet, dass die Umweltschützer Pruitts Immobilientransaktionen, Aufzeichnungen aus seiner Zeit als Generalstaatsanwalt von Oklahoma und Dokumentationen seiner Reisen, nach irgendwelchen verlockenden Details durchfilzen.

„Was offensichtlich stattfindet, ist eine Verleumdungskampagne der linken und teilweise der Mainstream-Medien“ erklärt Pyle.

Erschienen auf The Daily Caller am 05.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/05/pruitt-allies-warn-trump-firing-him/