1

Billionen werden verschwendet werden bzgl. Klima­wandel-,group­think‘*

Christopher Booker zeigt in seinem neuen Report Global Warming: A Case Study in Groupthink, wie die Wissenschaft und die Politik bzgl. Klimawandel fast lupenreines, klassisches groupthink ist.

Booker beruft sich auf die Arbeiten des amerikanischen Psychologen Prof. Irving Janis. Er identifiziert aus Janis‘ Arbeit die drei Grundmerkmale von groupthink, welche eine psychologische und wissenschaftliche Kennzeichnung darstellen, die weit über eine bloße Nicht-Übereinstimmung mit einer Gruppe von Menschen hinausgehen, deren Meinung man nicht zustimmt.

Das erste dieser Grundmerkmale ist, dass Menschen dazu kommen, ein Glaubenssystem zu teilen, welches auf bestimmte Weise nicht wirklich in der Realität wurzelt. Wenn es um Klimawandel geht, wird dies mustergültig dadurch belegt, wie man die so genannten ,Klimamodelle‘ ausgebeutet hat. Trotz unterschiedlicher Trends in den gemessenen Daten wird ausgeklügelten Prophezeiungen ein unangemessener Status verliehen. Sie werden beschrieben als Vorhersage einer globalen Katastrophe.

Fragt man die Menschen über Klimawandel, zeichnen diese oft sehr düstere Szenarien, die noch weit über die Prophezeiungen der Konsens-Wissenschaft hinausgehen. Letztere sind weit weniger ängstigend als man die Menschen glauben gemacht hat.

Es ist, als ob es einen Wettbewerb gibt, selbst noch mehr verängstigt zu sein als der Nachbar, und man nach noch härteren Strafen für jene ruft, die vermeintlich den Planeten schädigen. Alternative Strategien der Dekarbonisierung sind nicht durchdacht, weil dieser Notwendigkeit der Bestrafung nicht genügen.

Falls all dies zu sehr nach einer Verschwörungstheorie klingt – jeder frage sich selbst, ob sie/er den folgenden Behauptungen Glauben schenkt: im globalen Maßstab sind Überschwemmungen mit der steigenden Temperatur nicht schlimmer geworden, tropische Zyklone haben nicht an Häufigkeit zugenommen, und es gab keine zuverlässig beobachteten Trends hinsichtlich Dürre oder Trockenheit.

Zu allen diesen Ergebnissen (neben anderen) ist der jüngste IPCC-Report gekommen, und sie repräsentieren den wissenschaftlichen Konsens bzgl. Klimawandel. Falls man bis jetzt besonders bzgl. Klimawandel verängstigt ist, können diese Ergebnisse eine Überraschung sein. Das fehlende Bewusstsein bzgl. dieser Erkenntnisse kann nur der Tatsache geschuldet sein, dass sie nicht zum doom and gloom-Narrativ passen, welches uns Tag für Tag eingetrichtert wird.

Die zweite Grundlage von groupthink ist, dass genau weil der gemeinsame Standpunkt nicht externen Beweisen genügt, dieser Standpunkt bekräftigt werden muss, indem man ihn zu einem „Konsens“ aufwertet. Appelle an die Autorität sind zum primären rhetorischen Werkzeug geworden, um Konformität sicherzustellen und ziemlich außergewöhnliche politische Entscheidungen zu rechtfertigen.

Die Agenda der „Dekarbonisierung“, welche inhärent im Pariser Klima-Abkommen enthalten ist, wird häufig in dieser Weise verteidigt. Aber selbst wenn man das allerschlimmste Szenario für bare Münze nimmt, folgt daraus nicht zwangsläufig, dass die Reduktion von Emissionen die vernünftigste Lösung ist. Man überlege, wie viele der Konsequenzen des Klimawandels durch unsere Emissionen bisher eingetreten sind. Selbst wenn wir tatsächlich schon 2040 anstatt 2080 den Höhepunkt der globalen Emissionen überschreiten, würde der Meeresspiegel bis zum Ende dieses Jahrhunderts höchstens um 1 cm steigen und die Temperatur um gerade mal 0,4°C. Auch diese Zahlen stammen vom IPCC.

Es wird nicht erwartet, dass die in Paris eingegangenen Verpflichtungen auch nur diese dürftige Objektive erreichen. Also taumeln wir wie im Tiefschlaf in die Verschwendung von Billionen Dollar jährlich, um keine wahrnehmbare Änderung des Klimas zu erreichen. Die Kosten für die Menschen infolge des daraus resultierenden Wachstums-Rückgangs sind atemberaubend, und man wird dadurch immer weniger in die Lage versetzt, sich an Klimawandel anpassen zu können. Dies hat jedoch Präsident Obama nicht davon abgehalten, den Rückzug der USA aus dem Klima-Abkommen als „Zurückweisung der Zukunft“ zu bezeichnen.

Eine Debatte über diese Politik ist überfällig. Aber sie wurde an den Rand gedrängt, weil die Politiker so furchtbare Angst davor haben, einen mächtigen Konsens in Frage zu stellen.

Der ganze Beitrag steht hier.

——————————————

[Bemerkung des Übersetzers, besonders zum letzten Satz: Warum werde ich durch so etwas immer an Vorgänge in der ersten Hälfte des vorigen Jahrhunderts erinnert? – C. F.]

Link: https://www.thegwpf.com/harry-wilkinson-trillions-going-to-waste-on-climate-change-groupthink/




Der Himmel ist kein Müllplatz, wohl aber die ADAC Motorwelt vom 4/2018

Um dem Kollegen Dr. Feulner nicht Unrecht anzutun: er muss vermutlich sachlichen Unfug in der ADAC Motorwelt verzapfen, um seinen Arbeitsplatz beim PIK zu erhalten. Es ist der übliche Klimakatastrophenklamauk, der in ebenso üblicher Weise ohne wissenschaftliche Belege den diesmal ohnehin schon genug gestressten deutschen Autofahrern ins Hirn geblasen wird. Dass die Autofahrer endlich aufwachen, oder sogar anfangen sich zu wehren, ist freilich unwahrscheinlich. Es gibt nämlich zur Zeit noch weit wichtigere Themen, und hier scheint der deutsche Michel tatsächlich langsam, sehr langsam aus seinem obrigkeitshörigen Tiefschlaf zu erwachen. Gegen diese Themen ist die staatliche Enteignung seiner Dieselinvestitionen geradezu eine Petitesse. Und menschgemachter Klimawandel? Da gähnen die meisten nicht einmal mehr. Wen interessiert der Klima-Unsinn eigentlich noch?

Was schreibt nun also Herr Feulner? Man mag es kaum noch kommentieren, so langweilig und putzig falsch ist es in seiner permanenten Wiederholung. Die kleine Kolummne von 1/3 DIN A4 in der ADAC Motorwelt teilt sich in

1) eine kurze Beschreibung des sog. Treibhauseffekts, verursacht durch Treibhausgase (kann man belassen, ist ok)

2) den Abschnitt „leider stoßen wir zuviel CO2 aus“ und

3) Den Schlussabschnitt „Machen wir weiter wie bisher …

In Abschnitt 2) stehen gleich zwei so dicke sachliche Unwahrheiten, dass es einem den Atem verschlägt: erstens hätten wir (die Menschheit) die globale Mitteltemperatur bereits heute um ein Grad gegenüber dem vorindustriellen Zeitalter erhöht. Zweitens würden dadurch weltweit Wetterextreme wie Starkregen oder Hitzewellen zunehmen. Nachfolgend die Fakten:

Erdtemperaturen

Die Erde hat schon wesentlich wärmere, aber auch kältere Zeiten als heute erlebte, insbesondere bis zu 17 Male höhere CO2 Konzentrationen in der Luft (hier, hier). Eine ursächliche Korrelation von CO2 und Erdtemperaturen ist für keine Erdepoche bekannt, einschließlich der jüngsten. Davon ausgenommen ist der relativ schwache physikalische Effekt einer Ausgasung von CO2 bei höheren Meereswassertemperaturen bzw. einer Bindung bei tieferen Wassertemperaturen. Hierbei folgt das CO2 der Temperatur, nicht umgekehrt (hier). Flora und Fauna kamen auch bei höchsten CO2 Konzentrationen in der Klimavergangenheit nicht zu Schaden. Insbesondere bei hohen CO2 Werten boomte das Leben. Von Meeresversauerung in solchen Zeiten ist nichts bekannt, auch Korallen gedeihen schon seit über 400 Millionen Jahren (hier).

Die letzten 1 Million Jahre bewegte sich die Erde zyklisch durch Warm- und Eiszeiten (hier). Rund 90% der letzten 1 Million Jahre waren sehr viel kälter als heute. Wir leben seit 9000 Jahren wieder in einer Warmzeit. Warmzeiten waren stets wesentlich kürzer als Eiszeiten, so dass gemäß dem o.g. Zyklus die nächste Eiszeit in vielleicht 1000 bis 3000 Jahren zu erwarten ist. Noch vor 20.000 Jahren reichten in der letzten Eiszeit die skandinavischen Gletscher bis nach Norddeutschland. Durch das gefrorene Meereis lag der globale Meeresspiegel 120 m tiefer als heute. Das Doggerland zwischen England und Kontinentaleuropa, heute Nordsee, war trocken und wurde von steinzeitlichen Jägern und Sammlern bis noch vor 10.000 Jahren besiedelt (hier).

In unserer Warmzeit über 9000 Jahre waren die Alpengletscher überwiegend kleiner als gegenwärtig (hier, hier) Mitte des 19. Jahrhunderts (nach Ende der kleinen Eiszeit, die mit Unterbrechungen von Mitte des 15. bis Mitte des 19. Jahrhunderts dauerte) begannen die Alpengletscher wieder zu schmelzen, obwohl es damals noch kein anthropogenes CO2 gab. Schmelzende Gletscherzungen lassen heute immer wieder uralte (hier) Baumstümpfe frei, welche ehemalig höhere Baumgrenzen und wärmere Zeiten anschaulich belegen. In den zwei langgezogenen Klimaoptima des Holozän – vor 6500 Jahren über knapp 2000 Jahre Dauer, sowie vor 4500 Jahren über 1500 Jahre Dauer – war es deutlich wärmer als heute. Zwei kürzere Optima, das stärkere römische und das etwas schwächere mittelalterliche, entsprachen etwa den gegenwärtigen Temperaturoptimum (hier) (s. Abb. 1).

Dr. Kehl, TU Berlin

Warmzeiten bedeuteten stets kulturelle Blütezeiten, Kaltzeiten dagegen Völkerwanderungen, Hunger und Seuchen. In der starken Warmzeit 6500 vor heute wurden in Mesopotamien der Pflug, das Rad, Bewässerungssysteme und die Schrift erfunden. Die tiefen Temperaturen und die Not der Menschen in der kleinen Eiszeit zeigen die berühmten Winterbilder zeitgenössischer holländischer Meister.

Im 20-ten Jahrhundert erwärmte es sich bis in die 1930-er Jahre auf etwa heutige Temperaturen, um sich danach, bis etwa 1975, wieder auffällig abzukühlen. Diese Abkühlung veranlasste den US Science Report von 1972, vor einer neuen Eiszeit zu warnen (hier), sogar das US Time Magazine berichtete darüber in seiner Ausgabe vom 3. Dez. 1973 (hier). Die Eiszeitwarnung war ein Fehlalarm, ähnlich wie das uns zeitlich näher gelegene Waldsterben (hier). Ab 1975 bis 1998 ging es mit der globalen Mitteltemperatur wieder nach oben. Die 20 Jahre danach bis heute verblieb dann die Erdtemperatur auf etwa gleichem Niveau (hier), abgesehen von kurzen Schwankungen, die im Wesentlichen von El Niños verursacht wurden. Der letzte, nicht einmal 30-jährige Temperaturanstieg von 1975 bis 1998 gab zur Vermutung einer anthropogenen Erwärmung Anlass. Etwa drei Viertel aller anthropogenen CO2 Emissionen bis heute fielen nämlich in die Jahre ab 1950 bis heute.

Dieser Vermutung widersprechen zumindest die oben geschilderten, oft höheren Vergangenheitstemperaturen ohne menschgemachtes CO2. Aber auch die Geschwindigkeit des jüngsten Temperaturanstiegs liegt weit im natürlichen Bereich (hier). Eine inzwischen recht lang gewordene Reihe von Fachpublikationen vermag zumindest die globale Temperaturentwicklung der letzten 2000 Jahre, inklusive der jüngsten Erwärmung, auf natürliche Zyklen zurückzuführen, deren Ursprung als solar vermutet wird (hier und die dort zitierten Arbeiten). Gemäß dem Grundparadigma der modernen Naturwissenschaft, dem „Rasiermesser“ von William Ockham (hier), war der jüngste Temperaturanstieg vorwiegend natürlich, falls nicht zwingende Argumente widersprechen. Die gibt es aber nicht.

Extremwetter

Für jedes Extremwetter, wo auch immer es auf der Welt auftritt, machen heute die Medien den anthropogenen Klimawandel verantwortlich. Die Fakten sehen anders aus. Über Extremwetterzunahmen seit 1950 gibt das IPCC im Sachstandsbericht  AR5, Kapitel 2.6 von 2013 für alle denkbaren Extremwetterkategorien ausführlich und detailliert Auskunft (hier), angefangen von Stürmen, Tornados, über Hagel, Starkregen, bis hin zu Dürren und Überschwemmungen. Erst etwa seit 1950 liegen hierzu nämlich ausreichend umfangreichen Messungen und Statistiken vor. Ergebnis: Das IPCC  konnte keine allgemeine Zunahme solcher Ereignisse finden, weder an Anzahl, noch an Stärke. Damit bestätigt es im Grunde nur die meteorologische Fachliteratur, die gleiches aussagt (hier). Alle heutigen Extremwetter gab es auch schon in der Vergangenheit ohne menschgemachtes CO2, oft sogar stärker (hier). Besonders einfach gestaltet sich der Nachweis für Überschwemmungen an Hand historischer Flusspegel (hier).

Machen wir einfach weiter wie bisher ….

Hier redet Feulner auch noch von „Klima stabilisieren“. Sancta simplicitas, man fasst es nicht mehr! Kein Klima irgendwo auf der Welt, ob tropisch, gemäßigt oder polar kann stabilisiert werden, allenfalls vielleicht das Klima in der Gartenlaube von Herrn Feulner. Neben den gruseligen Verlautbarungen aus dem PIK gibt es glücklicherweise auch noch seriöse Aussagen, so die von Prof. Heinz Miller, ehemaligem Vizedirektor des Alfred-Wegener-Instituts, der feststellte (hier)

Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie “Klimakollaps“ oder „Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen“.

Und wenn Klimastabilisierung nicht schon genug an hirnverbranntem Blödsinn ist, auch den Meeresspiegelanstieg sollen wir gemäß Dr. Feulner noch begrenzen. Donnerwetter, da hat sich das PIK was vorgenommen. Durch Schmelzen der Eismassen nach der letzten Eiszeit hat sich, wie schon erwähnt, der globale Meeresspiegel um 120 m erhöht – mit stetig abnehmender Geschwindigkeit (hier). Der aktuell nur noch unbedeutende Restanstieg wird seit vielen Jahrzehnten von Tausenden weltweit verteilten Pegelmessstationen akribisch überwacht und dokumentiert. Eine gemeinsame Fachstudie und Auswertung dieser Messungen von zwei US-Universitäten zusammen mit einer israelischen Universität vom Jahre 2015 hat einen gemittelten Meeresspiegelanstieg von 0,4 bis 1 mm/Jahr ermittelt (hier).

Obwohl diese Fakten aus der Fachliteratur auch Journalisten leicht zugänglich sind, wird das Überschwemmen und damit Versinken von paradiesischen Südsee-Inseln als bevorzugtes Narrativ der Medien mit Sicherheit noch unsere Enkel und Urenkel ängstigen. Bis zum Jahre 2100 bedeutet der gegenwärtige Anstieg im Maximalfall(!) 8 cm mehr. Eine Beschleunigung des Anstiegs zeigen die Pegelmessungen nicht. Die vergleichsweise fehleranfälligen Satellitenmessungen liefern etwa doppelt so hohe Werte wie die Pegelmessungen und werden daher von Fachexperten bereits als fragwürdig angesehen (hier). Aber auch die Satellitendaten zeigen keine Beschleunigung des Meeresspiegelanstiegs.

Fazit

Der Himmel ist kein Müllplatz, hier ist Dr. Feulner uneingeschränkt zuzustimmen. Allerdings ist jetzt die ADAC Motorwelt 4/2018 zum Müllplatz verkommen, nämlich dem sachlichen Müll eines Dr. Feulner vom PIK.

Eine Ehrenrettung des ADAC

Immerhin findet sich im gleichen Heft der ADAC Motorwelt ein Vergleich der CO2 Bilanzen von Autoantrieben, aus dem hervorgeht, dass das politisch so propagierte E-Auto nicht unbedingt besser abschneidet als Benziner oder Dieselfahrzeuge. Aber anstatt diesen Bericht auf den Kern zu bschränken, darf natürlich ein Seitenhieb auf D. Trump nicht fehlen, der völlig sachgerecht und nachvollziehbar die im Pariser Klimavertrag vorgesehenen Zahlungen verweigert.

Und da wir schon beim CO2 sind: Wie ist das eigentlich mit dem CO2 beim Auto, verglichen mit der menschlichen Ausatmung? Wie maßgebend das CO2 aus dem Autoverkehr ist, zeigt folgende Grobabschätzung: Ein Auto erzeugt 0,15 kg CO2 pro km, bei 10.000 km sind das im Jahr 1,5 t. Weltweit gibt es 1 Milliarde Autos. Alle Autos erzeugen daher 1,5 Milliarden t CO2 im Jahr. Ein Erwachsener erzeugt 0,4 t CO2 im Jahr durch seine Ausatmung. 7 Milliarden Men­schen auf der Erde erzeugen somit pro Jahr durch Ausatmung 0,4·7 = 2,8 Milliarden t CO2. Das CO2 aus der Ausatmung der Menschheit übersteigt daher deutlich das aus dem Autoverkehr. Wäre doch mal eine Thematisierung in der ADAC Motorwelt wert, oder nicht?

Glücklicherweise kennen den ADAC die meisten in Gestalt seiner „gelben Engel“, die stets zur Stelle sind, wenn mit dem liebsten Mitglied in deutschen Familien, dem Auto, etwas schief gelaufen ist. Auch der Autor (als konsequenter Fahrer alter solider Gebrauchtwagen) möchte sich bei diesen Helfern bedanken, die stets freundlich, fachkundig und oft als unterhaltsame Fachplauderer dem Schadensopfer auch noch wichtige Tips verraten. In diesem Sinne sei der PIK-Artikel dem ADAC verziehen. Solch ein Verein muss mit der Politik kungeln. Er sollte bei seinem Kungeln aber die Kirche im Dorf lassen.

 




San Franciscos Klimaklage stützt sich auf unwahrscheinliche Vorhersagen des Meeresspiegelanstiegs

San Francisco zum Beispiel, klagt darauf, dass der zukünftige Meeresspiegelanstieg Milliarden von Dollar an Zerstörung kosten wird.

In den Anklageschriften der Prozessanwälte, wird mindestens neun Mal auf „Rising Seas in California“ Bezug genommen, in dem ein Anstieg des Meeresspiegels bei San Francisco um 3 Meter bis 2100 prognostiziert wird, ein Erwärmungsszenario das weit über „worst case“ des IPCC zum Klimawandel hinausgeht.

„Ein rapider Verlust des Eisschildes in der Antarktis aufgrund der globalen Erwärmung, könnte einen Anstieg des Meeresspiegels in Kalifornien von drei Meter bis 2100 bedeuten“, heißt es in San Franciscos Anklageschrift.“Das wäre katastrophal für San Francisco„. Der Bericht wurde von der California Ocean Protection Council (OPC), eine staatliche Behörde, zusammengestellt. Jetzt wird er verwendet, um Ölgesellschaften wegen der globalen Erwärmung zu verklagen.

San Francisco ist eine von neun Städten, die von Energieunternehmen verlangt, Milliarden für [zukünftige!] Schäden zu zahlen, die angeblich mit menschen-verursachter Erwärmung zusammenhängen. Drei auf solche Klagen spezialisierte Anwaltbüros haben den Fall / die Fälle übernommen und arbeiten für einen großen Anteil an den verhängten Geldstrafen [auf eigenes Risiko und ohne Anzahlung]. Sie hoffen auf Einnahmen in Milliardenhöhe.

Allerdings haben zwei australische Forscher in ihrer jüngsten Studie die Validität der Schätzungen zum Meeresspiegelanstieg in Frage gestellt, die in o.g. Bericht zitiert werden. Oakland Klageschrift zitiert ebenfalls daraus. Beide Städte werden durch Hagens Berman Sobol Shapiro vertreten.

Anklageschrift Oakland

[PS. Auf deren Webseite rühmt man sich auch mit: Sammelklage deckt neue Abgas-Betrugsansprüche bei BMW X5 und 335d Modelldieseln auf, vom 27.03.18]

Die Szenarien zum Meeresspiegelanstieg der kalifornischen Studie „beruhen auf reinen Spekulationen, die auf unbewiesenen Annahmen und bieten keine geeignete Grundlage für die Planung oder Politikgestaltung“, stellten die Forscher Albert Parker und Clifford Ollier fest.

Parker und Ollier stellten auch die Schätzungen des IPCC in Frage. „Die extremen Szenarien des IPCC, basierten auf der Inspiration durch Hunderte von Studien lokaler Gremien, die voneinander abschrieben und sich mit immer alarmierender Botschaften übertrumpften“.

Solche Studien, einschließlich der kalifornischen, sind „rein theoretische Abhandlungen, die auf Meeresspiegel-Vorhersagen von nicht-validierten Modellen beruhen“, stellten die australischen Forscher fest. Ihre Studie beinhaltete empirische Beobachtungen, die einen Anstieg des Meeresspiegels zwischen 10cm bis 20cm bis 2100 nahelegen.

Daher überrascht es nicht, wenn die Forscher auch das so genannte „H ++“ -Szenario in Kalifornien in Frage stellen, da sie das RCC 8.5-Szenario des IPCC als „außergewöhnlich unwahrscheinlich“ bezeichneten.

Zwei Wissenschaftler der University of British Columbia haben im Dezember 2017 eine Studie veröffentlicht, die feststellte, dass das RCP 8.5 – ein Politikszenario, eine Zukunft modellierte, in der der weltweite Kohleverbrauch unrealistische Werte erreicht.

“Dies zeigt darauf hin, dass RCP 8.5 und andere“ Business-as-usual-Szenarien“, die einem hohen CO2-Ausstoß aus einer gewaltigen zukünftigen Kohleverbrennung annehmen, äußerst unwahrscheinlich sind“.

Highlights der o.g. Studie

  • Die Meta-Analyse der fossilen Energieausblicke für Klimaszenarien identifiziert eine Rückkehr zur Kohle-Hypothese.
  • Diese Prognosen gehen davon aus, dass die globale Energienachfrage die historischen Trends verändern wird, was einen erhöhten Kohleverbrauch pro Kopf erfordert.
  • Die Plausibilität der Rückkehr zu Kohle-Szenarien beruht auf einer Theorie der „zeitlosen“ idealisierten Energiequellen-Angebotskurven.
  • Diese Theorie führt IAMs dazu, multi-Dekade Energiereferenzfälle zu erzeugen, die künstlich durch Kohle dominiert werden.
  • Die Berücksichtigung dieser Verzerrung deutet darauf hin, dass RCP8.5 für zukünftige wissenschaftliche Forschung keine Priorität haben sollte.

Der mögliche Anstieg des Meeresspiegels für San Francisco ist der kalifornischen Studie zufolge, etwa doppelt so hoch wie der von IPCC RCP 8.5 prognostizierte Anstieg bis zum Jahr 2100. Allerdings räumt sogar der kalifornische Bericht ein,   dass die Wahrscheinlichkeit von „H ++“ „unbekannt“ ist.

Hier aus dem kalifornischem Bericht: Seite 4, Punkt 5:

These projections may underestimate the likelihood of extreme sea-level rise, particularly under high emissions scenarios, so this report also includes an extreme scenario called the H++ scenario.

The probability of this scenario is currently unknown, but its consideration is important, particularly for high-stakes, long-term decisions.

  • Diese Projektionen können die Wahrscheinlichkeit eines extremen Anstiegs des Meeresspiegels, insbesondere bei hohen Szenarien, unterschätzen, daher enthält dieser Bericht auch ein Extremszenario namens H ++ – Szenario.
  • Die Wahrscheinlichkeit dieses Szenarios ist derzeit unbekannt, aber seine Berücksichtigung ist wichtig, insbesondere für langfristige Entscheidungen mit hohem Einsatz.

* * *

Erschienen auf The Daily Caller am 03.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/03/san-francisco-climate-lawsuit-sea-level-rise/

 




Monats­rückschau März 2018 Wir wollen doch sibi­rische Tempera­turen!

Wem der März etwas kalt erschien, bis 4 Grad weniger sind wohl ideal

Erst beim Ansehen von Langzeitreihen fällt der Irrsinn unserer heutigen AGW-Klimasimulanten erst richtig auf. In der angeblich „natürlichen“ Klimazeit vor 1880 war der März teilweise 3 … 6 Grad kälter. Was das für die Frühjahrsaussaat und spätere, magere Ernten bedeutete, kann sich ein GRÜNER kaum vorstellen.
Jedenfalls war der gerade Vergangene nicht einmal besonders kalt, hatte er doch die Temperatur, welche auch in vorindustrieller Zeit im Mittel herrschte und diente so ideal zum „Einleben“ in das von unseren Politikern geforderte, kalte Klima.

Bild 1 Langzeit-Temperaturreihe Deutschland 1750 – 2018, März. Quelle: WIKIPEDIA (DWD)

Noch unspektakulärer war der Februar. In der Reihe seit 1750 gehört er eher zu den Kühlen.

Bild 2 Langzeit-Temperaturreihe Deutschland 1750 – 2018, Februar. Quelle: WIKIPEDIA (DWD)

Beim Betrachten der Verläufe käme wohl niemand auf die Idee einer beginnenden „Selbstverbrennung“, wie sie der Klimapharisäer J. Schellnhuber mit seinen Simulationen erzeugt und daraus Menetekel konstruiert:
J. Schellnhuber, Buch Selbstverbrennung: [2]
… Der moderne Mensch zeigt sich dafür jedoch nicht dankbar, denn er ist einen historischen Pakt mit dem Kohlenstoff eingegangen, der sich gegen das Klima richtet: Wie ein freigesetzter Flaschengeist erfüllt C dem Homo sapiens jeden Energiewunsch und lässt die Überflussgesellschaft entstehen. Doch gleichzeitig erhitzt der rasend aufsteigende Luftkohlenstoff den Globus über alle zuträglichen Maße und wendet sich damit gegen seine Befreier. Ergo geht unsere Zivilisation den Weg in die Selbstverbrennung – aus Gier, aus Dummheit und vor allem aus Versehen.
So verhängnisvoll könnte sich jedenfalls diese schicksalhafte Dreiecksbeziehung entwickeln, deren faszinierendsten Aspekte ich schildern werde. Der Ausgang der Geschichte ist allerdings offen: Immer noch kann sich der Mensch von der fossilen Verführung lossagen und vor dem selbst errichteten Scheiterhaufen kehrtmachen. Wenn Wissen und Wollen umgehend zusammenfinden. Und wenn wir deutlich mehr Glück als Verstand haben …

Man sollte sich freuen, dass die Normaltemperatur noch eine Weile anhält

Auf NoTricksZone erschien kürzlich eine aktuelle Betrachtung zum Stand der rekonstruierbaren (wahrscheinlichsten) Globaltemperatur, erweitert um eine Vorschau [3] [6]. Darin ist nichts von Herrn Schellnhubers (mit vielen Preisen und Ehrungen überhäuften), apokalyptischen Betrachtungen zu sehen.

Vielen scheint dagegen immer noch nicht bewusst zu sein, dass sich die Erde am Ende einer der im Eiszeit-Zyklusverhältnis sehr kurzen Warmzeiten befindet, deren Umkehr zur dann katastrophalen Vereisung sich zum Glück hinauszögert [4]. Bisher weiß noch niemand wirklich, warum das Klima seit ca. einer Millionen Jahren diese regelmäßigen Eiszeit-Zyklen erzeugt. Man weiß nur, dass sie bisher immer kamen. Trotz diesem eklatanten, fehlenden Ursachenwissen schaffen es (vom Menschen programmierte) Klimasimulationen, ein Ende dieser Zyklen vorherzusagen ([7] Fällt die nächste Eiszeit aus?).

Bild 3 [4] Temperaturverlauf der letzten 450.000 Jahre. Quelle: www.climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt
Zum Glück zeigt eine aktuelle Rekonstruktion mit Vorschau (Bild 4), dass es bis dahin (zum überfälligen, nächsten Eiszeit-Zyklus) noch einige Jahre dauern könnte. Natürlich nur, wenn wir „so weitermachen wie bisher“.
Sollte das mit dem hohen CO2-Forcing wirklich stimmen (was immer unwahrscheinlicher wird) und es gelänge der Menschheit, durch erhebliche CO2-Minderung die Temperatur wirklich zu verringern, könnte man den Abstieg zur Vereisung beschleunigen. Nicht selten, dass Völker in der Geschichte „über gesichertes Wissen verfügenden Führungsfiguren“ in den eigenen Untergang gefolgt sind. Warum sollte so etwas nicht wieder geschehen.

Nochmals: Der Temperaturanstieg begann weit vor der Industrialisierung

So wie das „Monats-Rückschauduo“ immer auf die Fehler der Temperaturerfassung durch nicht berücksichtigte Wärmeinseleffekte hinweist, macht es der Autor mit dem ominösen Beginn des AGW-Klimawandels.
Die Temperaturerhöhung begann weit davor und ist sicherlich Teil eines natürlichen Zyklus, vielleicht zum Schluss geringfügig durch anthropogenes CO2 verstärkt.
Es ist bestimmt kein Zufall, dass im Weltklimavertrag nach vielen, vielen Verhandlungsjahren mit regelmäßig über 20.000 teilnehmenden „Experten“ überhaupt nichts über den genauen AGW-Beginn und die Start-Temperatur steht (nur die Verwaltung und Verteilung der Klima-Schutzgelder ist detailliert ausgeführt).
EIKE 04.10.2016: [5] Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung
Man hätte sich dann nämlich damit beschäftigen müssen und das wäre peinlich – und bestimmt sehr störend – geworden. Vielleicht hätte eine solche Diskussion ihn gar verhindert. Das wollte niemand der Beteiligten riskieren.

Bild 4 Neue Langzeitrekonstruktion der Globaltemperatur vom Jahr 0 bis 2400 [3]. Vom Autor mit dem Jahr 2400 ergänzt
Im Bild 4 ist es nicht so deutlich sichtbar, in einem Bild (Bild 5) aus dem letzten IPCC-Bericht sieht man es aber genau: Die „AGW“-Erwärmung begann bereits weit vor der Industrialisierung, irgendwann um 1600, nicht erst ab 1880 (wie man es angeblich im Welt-Klimavertrag annimmt, obwohl dort keine Zahl erscheint).

Bild 5 Historischer Klimaverlauf seit dem Jahr 1000. Quelle: AR5, Figure 5.7. Grafik vom Autor durch Kommentare ergänzt

Quellen

[1] EIKE: März in Deutschland: Seit 30 Jahren winterlicher und rauer statt lieblicher und wärmer

[2] Hans Joachim Schellnhuber Buch: Selbstverbrennung Die fatale Dreiecksbeziehung zwischen Klima, Mensch und Kohlenstoff

[3] NoTricksZone By Kenneth Richard, 29. March 2018: A Deconstruction Of The PAGES 2k ‘Hockey Stick’

[4] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

[5] EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung. Die DDR Volkskammer lässt grüßen
[6] EIKE 04.04.2018: Nächste Pleite: ,Globale‘ Rekonstruktion PAGES 2K kann den ,Hockeyschläger‘ nicht bestätigen

[7] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!




Gegner von Trump attackieren nun die Leute um Trump herum

Pruitt geriet Anfang dieses Jahres unter Beschuss, weil er mehr als 100.000 US-Dollar für Flugreisen erster Klasse ausgegeben hatte, was nach Angaben der EPA auf Sicherheitsbedenken zurückzuführen war. Die Reise nach Italien zum G7-Gipfel kostete $ 120.000-für die rund 10 köpfige Gruppe, aber das war erst der Anfang der Medienprüfung.

Washington Post:

… „Die Sicherheitsdetails von Administrator Pruitt für das G-7-Umwelttreffen in Italien sind die gleichen, die auf bei den Reisen der vorherigen EPA-Administratoren Stephen Johnson, Lisa Jackson und Gina McCarthy nach Italien verwendet wurde“, sagte EPA-Sprecher Jahan Wilcox in einer E-Mail. „Die Sicherheitsverfahren der EPA sind in den letzten 14 Jahren nicht geändert worden.“

Das Weiße Haus untersucht bereits Pruitts Übernachtungsarrangements, nachdem eine Reihe von Medienberichten darauf hinwiesen, dass der ehemalige Generalstaatsanwalt von Oklahoma für 50 Dollar pro Nacht ein Zimmer von einer Ehefrau in DC gemietet hatte, deren Mann für die Energiebranche tätig ist. Es gibt bereits Berichte, dass der Stabschef des Weißen Hauses, John Kelly, Pruitt von seinen Pflichten entbinden wollte.

Ein Nebenschauplatz kam mit der Enthüllung des The Atlantik, dass Pruitt eine Regelung des Safe Drinking Water Act verwendet hatte, um die Gehälter zweier Mitarbeiter zu erhöhen, ohne die Zustimmung des Weißen Hauses einholen zu müssen. Die Gehaltserhöhung war Berichten zufolge, vorher von Offiziellen des Weißen Hauses zurückgewiesen worden. Obwohl nicht illegal, erregte Pruitts Handlung den Unmut von EPA-Mitarbeitern und Beamten des Weißen Hauses.

Pruitts angemietete zwei-Zimmer Wohnung in Capitol Hill gehört teilweise der Frau von J. Steven Hart von der Firma Williams & Jensen. Pruitt bezahlte nur für die Nächte, in denen er das Zimmer tatsächlich nutzte, er zahlte insgesamt $ 6.100 für die ungefähr sechs Monate, in denen er dort wohnte, berichtete Bloomberg.

Justina Fugh, Leiterin der Rechtsabteilung bei der EPA, sagte gegenüber Bloomberg: „Die Mietvereinbarung war kein ethisches Problem, weil Pruitt Miete gezahlt hat“. Die EPA veröffentlichte eine Notiz des leitenden Ethik-Beauftragten der Behörde über den Mietvertrag.

„Wie die Beamten der EPA Rechtsabteilung erklärten, war die Unterbringung von Administrator Pruitt für sich und die Familie kein Geschenk und der Mietvertrag entsprach den compliance Vorschriften für Beamte der Regierungsbehörde“, sagte der Sprecher der EPA, Jahan Wilcox.

Die „Environmental Integrity Project Gruppe“, [eine aktivistische Umweltbewegung, NGO] die sich um die Aufdeckung von Pruitt Reisen bemüht, argumentierte, dass der Betrag von [nur] 50 US-Dollar je Nacht ein Annahmeverbot von Geschenken für Bundesangestellte verletzen könnte, das bei 20 US-Dollar beginnt.

Die Gruppe Public Citizen bat das Büro des Generalinspekteurs der EPA, dies zu untersuchen [PC ist eine linke progressive Interessenvertretung für Verbraucherrechte, Ihre Methoden sind Lobbying, Rechtsstreitigkeiten und Appelle, Medienaufmerksamkeit, Aufrufe].

Paul Krugman, Kolumnist der New York Times, ging so weit zu argumentieren, dass Pruitt Bezahlung für einen Schlafplatz eine Bestechung darstellt.

Krugman stellt jedoch wahrscheinlich das Extrem in diesem Fall. Es ist nicht wirklich klar, wie man daraus eine Bestechung konstruieren kann, wenn Pruitt eine Miete für ein Zimmer zahlt, die für diese Gegend von DC im üblichen Bereich liegt.

„Er hat einen fairen Preis bezahlt, für die gelegentliche Nutzung eines Zimmers“, sagte Fugh zu Bloomberg. „Ich glaube nicht einmal, dass die Tatsache, dass das Haus einer Person gehört, deren Job es ist, ein Lobbyist zu sein, uns Sorge bereitet.“

Die New York Times berichtete am Montag [den 02.04.2018], dass Pruitt die Wohnung von Harts Frau gemietet hatte, während die EPA über die Umweltgenehmigung für ein Pipeline-Projekt von Enbridge [Unternehmen für Pipelines] entschied. Enbridge hatte die Beratungsagentur Williams & Jensen engagiert. [Ehemann J. Steven Hart ist Vorsitzender von Williams & Jensen, eine Agentur für große Umwelt- und Energiekonzerne]

Wiederum argumentierten die Pruitt-Kritiker, dass „wenn schon keine spezifischen Gefälligkeiten verlangt oder gewährt werden, kann es den Anschein eines Konflikts schaffen. Der Eintritt in diese Vereinbarung veranlasst eine vernünftige Person, die Integrität der EPA-Entscheidung in Frage zu stellen“, sagte Don Fox, ehemaliger Leiter der Rechtsabteilung unter Obama und Bush gegenüber NYT.

Die Lobbying-Offenlegungen, die von der NYT präsentiert werden, zeigen jedoch nicht, dass Williams & Jensen sich tatsächlich bei der EPA im Auftrag für ihre Kunden einsetzte (~ lobbying). Die Agentur interveniert nicht bei der Umweltbehörde für ihre Kunden.

Erschienen auf The Daily Caller am 03.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/03/scott-pruitt-negative-press-coverage/




Klimachaos-Behaup­tungen lösen weiter­hin Betroffen­heit aus

Die Vorwürfe lesen sich phasenweise, als ob sie von einem Monty Python Comedy Team und ein paar Jurastudenten im ersten Semester geschrieben worden sind. Die beklagten Unternehmen sollen „konspiriert“ haben, um gefährliche Treibstoffe herzustellen, heißt es in der Klageschrift, und sie sollen dabei „dem Drehbuch von Big Tobacco“ gefolgt sein, während sie „Leugner-Gruppen“ finanzieren, damit diese die „etablierte“ Klimawissenschaft in Frage stellen, die „beispiellosen“ Risiken der vom Menschen verursachten globalen Erwärmung „herunterspielen“ sowie „unbegründete Angriffe gegen die Integrität“ führender „Konsens“-Wissenschaftler führen.

Und weiter: „Farbige Personen“ und andere „sozial verwundbare“ Individuen werden am stärksten betroffen sein. (Dabei dürften diese Personen viel mehr durch die Klimapolitik geschädigt werden, treibt diese doch die Preise von Energie und Nahrungsmitteln hoch).

Die Anwälte von Oakland greifen scharf den Astrophysiker Wei Hock „Willie“ Soon an, weil er die unverzeihliche Sünde begangen hat zu fragen, ob nicht die Sonne irgendetwas mit Klimawandel zu tun hat. Sie bekamen nicht einmal seinen Ph.D. richtig hin. Sie nennen ihn „Raumfahrt-Ingenieur“ und behaupteten, dass er persönlich der Empfänger von 1,2 Millionen Dollar sei, die in Wirklichkeit an die Harvard University geflossen sind (dies geht eindeutig aus vielen, leicht zugänglichen Dokumenten hervor).

Sie erwähnen nicht einmal ansatzweise die Milliarden Dollars der Steuerzahler, welche Jahr für Jahr unter Forscher und Aktivisten aufgeteilt worden sind, welche die alarmistischen Standpunkte bzgl. globale Erwärmung und erneuerbare Energie vorantreiben.

Oakland und seine Mitstreiter erwarten, dass der Gerichtshof ihre Behauptungen eins zu eins akzeptiert als „etablierte“ Wissenschaft. Es bestehe ihnen zufolge kein Bedarf, Beweise aus der realen Welt als Stützung dieser Behauptungen zu präsentieren. Sie betonen allen Ernstes besonders, dass steigende Meeresspiegel und die daraus folgende „unmittelbare Bedrohung durch katastrophale Flutwellen“, welche von Computermodellen „projiziert“ werden, jetzt via fossile Treibstoffe der primäre oder alleinige Treiber des Klimawandels sind, welche die Sonne, kosmische Strahlen, Meeresströme und andere mächtige Naturkräfte ersetzt haben, welche „zuvor“ für Klimawandel verantwortlich waren.

In ihrer Klage gegen fünf große Ölunternehmen ignorieren sie die Tatsache, dass die Unternehmen nur sehr wenig des Treibstoffes verbrennen, den sie erzeugen. Es sind die Stadtregierungen der Kläger und deren Wähler, welche nur zu glücklich waren, seit über einem Jahrhundert Öl und Erdgas zu verbrennen, um ihre Autos zu fahren, um zu heizen, kühlen, beleuchten sowie ihre Büros und Wohnungen zu erleuchten und zu elektrifizieren – und überhaupt erst ihre Industrie, ihre Kommunikation, Gesundheit und Lebensstandards ermöglichten.

In dem Prozess sind sie es, die das Pflanzen düngende CO2 erzeugt haben, welches vermeintlich die Ursache der beispiellosen globalen Erwärmung sein soll, die Ursache schmelzender Eiskappen und steigender Meeresspiegel. Kohlenwasserstoffe befeuern auch die unabdingbaren Stromgeneratoren der Wind- und Solareinrichtungen in Kalifornien – und liefern Rohmaterialien für Stoffe, Plastik, Gemälde, Pharmaprodukte und zahlreiche andere Erzeugnisse, welche die Kläger jeden Tag nutzen.

Genauso problematisch für die Kläger ist, dass die „etablierte Konsens“-Wissenschaft, die sich wie ein roter Faden durch die gesamte Klageschrift und die Aussagen vor Gericht zieht, immer unsicherer und immer hitziger debattiert wird. Der Wissenschaftler am Heartland Institute Joe Bast weist darauf hin, dass selbst das IPCC höchstselbst inzwischen zahlreiche Zweifel und Unsicherheiten einräumt hinsichtlich der Rate des Meeresspiegel-Anstiegs, der Rolle von CO2, den Ursachen und der Dauer des „Stillstands“ der globalen Erwärmung, welcher inzwischen schon 23 Jahre andauert. Tatsächlich ist die Temperaturspitze des starken El Nino 2015/16 weitgehend wieder verschwunden, und Ozean und Atmosphäre kühlen sich wieder fortgesetzt ab.

Die Ölunternehmen haben sich entschlossen, gar nicht so viel Klimawissenschaft in dem Verfahren heranzuziehen. Allerdings haben Lord Christopher Monckton, Will Happer, Richard Lindzen und deren Kollegen Fragen angesprochen über Gleichgewichts-Klimasensitivität [auf Deutsch beim EIKE hier] und damit zusammenhängende Dinge, und zwar in Sachverständigen-Gutachten für das Gericht.

Die Behauptung von Oakland, der zufolge die Ölunternehmen „konspirierten“, um „die Wissenschaft“ zu globaler Erwärmung und Klimawandel zu verstecken und falsch darzustellen, steht auf sehr dünnem Eis. In einigen Berichten heißt es, dass Richter Alsup diese Behauptungen zurückwies oder urteilte, dass die Kläger keinen Beweis dafür erbringen konnten, dass es eine Konspiration gab. In jedem Falle wird es eine Entscheidung zu all dem geben, die verlierende Partei wird Revision einlegen, und der ganze Fall wird wahrscheinlich vor dem obersten US-Gerichtshof landen.

Inzwischen verursachen Klimachaos-Behauptungen in einigen Kreisen weiterhin Betroffenheit. Zu viel Geld, Macht, Prestige, Kontrolle und Wohlstands-Umverteilung steht auf dem Spiel, so dass kaum ein anderer Weg denkbar ist.

Tatsächlich nutzen Viele in dem Klima-industriellen Komplex im Wert von 1,5 Billionen Dollar pro Jahr diesen Fall (und gleichermaßen dehnbare Mantras von „Nachhaltigkeit“), um den Kapitalismus freier Märkte durch eine totalitäre Eine-Welt-Regierung zu ersetzen; fossile Energie und Kernkraft (welche zur Zeit 85% der verbrauchten Energie in den USA und global ausmachen) durch teure, Land fressende Wind-, Solar- und Bioenergie zu ersetzen sowie die Hoffnungen und Träume armer Menschen auf der ganzen Welt durch eine Politik zu zerschlagen, die es nur in sehr geringem Umfang gestattet, dass sich deren Lebensstandard verbessert.

Tatsächlich versteigen sich die Klimawandel-Chaoten dazu, nicht nur Kohlendioxid und Methan für eine runaway-globale Erwärmung verantwortlich zu machen, sondern auch Asthma-Inhalatoren und Fleischdiäten. Die Folgen hiervon sind nicht nur steigender Meeresspiegel, wärmeres und kälteres Wetter, nassere und trockenere Zeiten, Waldbrände, nicht existierendes Massenaussterben und anderen oftmals erwähnte Pseudo-Kataklysmen. Auch kleiner werdende Tiere, eine immer schlimmere Drogenkrise sind enthalten, ebenso wie die endlose Litanei oftmals erheiternder Beschwerden und Katastrophen, gelistet in The Warmlist und deren video counterpart.

Die „Lösung“ besteht nicht darin, die fossile Treibstoffe einfach im Boden zu lassen. Sie besteht auch in der Akzeptanz ausgeprägter Änderungen des Lebensstils sowie des Verzehrs klimafreundlicher Insekten (gilt nicht für die herrschenden Eliten, sondern nur für uns Normalverbraucher).

Und die wirklichen Auswirkungen der Furcht vor dem Klima-Kataklysmus sind nicht nur immer höhere Preise für immer weniger, unzuverlässigeren, das Netz destabilisierenden „grünen“ Strom. Darunter sind auch die Notwendigkeit Abenteurer zu retten, welche versuchen, über das vermeintlich schmelzende Eis in Arktis und Antarktis zu segeln, mit Motorschlitten zu fahren oder zu wandern – nur um dann gerettet werden zu müssen, weil sie gestrandet sind, Frostbeulen davontragen und ihre Schiffe in rapide gefrierendem Eis festsitzen.

Was also sollen die strammen Statthalter der Klimakatastrophe tun, wenn Temperaturen und Meeresspiegel es ablehnen, den Reden Al Gores sowie „Projektionen“ von Computermodellen und „Szenarien“ zu folgen? Oder wenn Vorhersagen über immer mehr Hurrikane eine rekordlange Zeit von 12 Jahren folgt, ohne dass irgendein Sturm der Kategorie 3 bis 5 auf das US-Festland übergreift?

Eine Strategie besteht darin, Diskussionen mit allen abzulehnen, welche die düsteren Hypothesen, Daten oder Schlussfolgerungen hinterfragen. Eine andere Strategie ist es, Originaldaten zu „homogenisieren“, zu „korrigieren“ und zu manipulieren, damit die Temperaturen der Dust Bowl-Ära [= die dreißiger Jahre im vorigen Jahrhundert in den USA, Anm. d. Übers.] nicht so warm daherkommen – und damit die langen und bitterkalten Winter der letzten Jahre nicht so kalt erscheinen. Zu diesem Zweck wurden Aufzeichnungen lokaler Temperatur-Messpunkte um bis zu 1,7 Grad Celsius adjustiert (hier).

Was die zahlreichen Artikel und Studien betrifft, welche bei WattsUpWithThat.com, DrRoySpencer.com, ClimateDepot.com, ClimateChangeReconsidered.org und anderen Sites veröffentlicht werden, welche sich auf Klimastudien und Forschungen auf der Grundlage von beweisen konzentrieren und welche Behauptungen wie jene in Frage stellen, auf welche sich die Klage von Oakland stützt – die immer häufiger ergriffene Strategie besteht darin, Algorithmen und andere Taktiken anzuwenden, um entsprechende Arbeiten ganz an das Ende von Suchmaschinen-Anfragen zu stellen. Lange Listen alarmistischer Behauptungen, Artikel und Perspektiven erscheinen zuerst, es sei denn, ein Student oder ein anderer Forscher gibt sehr spezifische Suchbegriffe ein. Selbst die großen Schwachpunkte von Windenergie [auf Deutsch beim EIKE hier] sind schwer zu finden, wenn man nicht ganz genau weiß, wonach man sucht.

Google, Facebook, You Tube und andere Such- und Sozialmedien scheinen sich zu Schiedsrichtern aufgeschwungen zu haben, zu welchen Fakten und Realitäten wir Zugang haben dürfen, was unsere Kinder lernen sollen. Sie helfen dabei, Wissenschaftler zu stigmatisieren und zu schikanieren, deren Forschungen oder Standpunkte nicht zu akzeptierten linken Perspektiven passen. Sie haben sogar professionelle Werbeträger engagiert, um die Reden politischer Gegner zu kontrollieren.

Und all das seitens der Champions der freien Rede, von Toleranz, Diversität und Inklusion. Nicht vergessen:

Es geht nicht darum, ob sich unser Planet erwärmt oder ob sich Wetter und Klima ändern. Es geht darum, welche Ursachen diese Fluktuationen haben, wie viel davon auf fossile Treibstoffe und wie viel auf natürliche Kräfte zurückgeht, und darum, ob irgendwelche kommenden Änderungen genauso katastrophal sind, wie es durch natürliche Kräfte in der Vergangenheit schon oft vorgekommen ist (man stelle sich einmal vor, wie es unseren Städten, Bauernhöfen und der Menschheit gehen würde, falls es zu einer weiteren Pleistozän-Eiszeit kommen sollte).

All dies unterstreicht wieder einmal, warum Amerika und die ganze Klimawissenschaft ein „Red Teams“ braucht, mehr Klima-Bildung auf der Grundlage von Beweisen und eine Umkehr der willkürlichen, von Obamas EPA in den Raum gestellten Behauptung, wonach Kohlendioxid-Emissionen irgendwie das menschliche Wohlergehen und den Wohlstand gefährden.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy and environmental policy.

Link: https://www.iceagenow.info/climate-chaos-claims-continue-causing-consternation/

Übersetzt von Chris Frey EIKE




Signalanalyse – Randbedingungen für die Klimaforschung

Obere Grenzfrequenz

Die obere Grenzfrequenz – auch Nyquist-Frequenz genannt – ist in der Messtechnik wohlbekannt und besagt, dass ein analoges Signal mit der höchsten enthaltenen Frequenz fmax nur dann digital rekonstruiert werden kann, wenn es mit einer Frequenz größer als 2*fmaxabgetastet wurde.
Ein Sinussignal der Frequenz 50 Hz kann also nur dann nachgewiesen werden, wenn es mit mehr als 100 Hz abgetastet wird.

Umgekehrt gilt: Ein Signal der (Perioden-)Dauer x kann nur dann nachgewiesen werden, wenn die Messreihe eine zeitliche Auflösung von besser als x/2 hat. Für den Nachweis eines Sinussignals der Frequenz 50 Hz (d.h. der Periodendauer 0,02 s) muss die Abtastschrittweite kürzer als 0,01 s sein. Angewendet auf Zeiträume, die für die Klimaforschung wichtig sind: Um eine Variation von Größen wie Temperatur oder Meeresspiegel über einen Zeitraum von beispielsweise 30 Jahren zu erfassen, müssen Messreihen eine zeitliche Auflösung von weniger als 15 Jahren aufweisen.

Ist die zeitliche Auflösung (also die Abtastschrittweite) einer Messreihe schlechter als die halbe Dauer eines Ereignisses, so ist dieses Ereignis in der digitalen Aufzeichnung prinzipiell nicht rekonstruierbar. Beispiel: Sinussignal der Periodendauer 100 (Einheit beliebig, z.B. Millisekunde, Sekunde oder Jahrzent).
Periode=100; Dauer=600; Abtastintervall=1:

 

Bei einer Abtastschrittweite von einem Viertel der Periodendauer ist das Signal gut rekonstruierbar:
Periode=100; Dauer=600; Abtastintervall=25:

 

Auch mit einer Abtastschrittweite von einem Drittel der Periodendauer ist die Periodizität gut nachweisbar:
Periode=100; Dauer=600; Abtastintervall=33:

Bei einer Abtastschrittweite minimal kürzer als die Hälfte der Periodendauer sind zwar die Amplituden stark verfälscht, ein Nachweis der Periodendauer gelingt dennoch.
Periode=100; Dauer=600; Abtastintervall=49:

Bei einer gröberen Abtastung ist die Periodendauer nicht mehr nachweisbar. In dem abgetasteten Signal können sogar Schein-Frequenzen auftreten. Bei einer Abtastschrittweite von 2/3 der Periodendauer wird eine doppelt so große Periode (also halbe Frequenz) wie im ursprünglichen Signal „nachgewiesen“:
Periode=100; Dauer=600; Abtastintervall=67:

 

Bei einer Abtastung mit der Schrittweite von ¾ der Signalperiode entsteht eine Schein-Periode der 3-fachen Dauer:
Periode=100; Dauer=600; Abtastintervall=75:

 

Dieser Effekt wird „Aliasing“ genannt.

Fassen wir zusammen:
Phänomene (d.h. Signale) einer bestimmten Dauer bzw. Periodizität können nur dann nachgewiesen werden, wenn deren Messung mit einer zeitlichen Auflösung von weniger als der halben Dauer erfolgt.

Paradebeispiele für die Verletzung dieses Prinzips sind die Publikation „A Reconstruction of Regional and Global Temperature for the Past 11,300 Years“ von Marcott et al. und deren Diskussion im Blog von Prof. Rahmstorf.

In der Arbeit wurde der regionale und globale Temperaturverlauf während des Holozäns untersucht. Dieser wurde anhand von Sedimentschichtungen bestimmt. Der Leitautor Marcott bemerkte hierzu:

„We showed that no temperature variability is preserved in our reconstruction at cycles shorter than 300 years, 50% is preserved at 1000-year time scales, and nearly all is preserved at 2000-year periods and longer“

Daraus ist zu schließen, dass die Abtastrate gröber als 150 Jahre war, in 50% der Fälle sogar zwischen als 500 und 1000 Jahren lag. Dies ist bemerkenswert, vergleichen die Autoren diesen rekonstruierten Temperaturverlauf doch mit dem Temperaturverlauf einiger Jahrzehnte des 20. Jahrhunderts, dessen zeitliche Auflösung typischerweise bei einem Monat liegt. Dazu schreibt Prof. Rahmstorf:

Entscheidend ist vielmehr, dass der rasche Anstieg im 20. Jahrhundert im ganzen Holozän einmalig ist.

Diese Behauptung ist wissenschaftlich nicht haltbar, da aufgrund der geringen zeitlichen Auflösung der Sedimentdaten ein potentieller abrupter Temperaturanstieg analog zum 20. Jahrhundert prinzipiell nicht nachweisbar ist. Sedimentdaten sind für eine solche Analyse ungeeignet.

Eine Grafik wie in Abb. 1 von Rahmstorfs Diskussion stellt wegen massiv unterschiedlicher zeitlicher Auflösung keinen seriösen Vergleich zweier Messreihen dar und dient eigentlich nur zur Stimmungsmache.

 

Merke:

Immer dann, wenn behauptet wird, dass augenblickliche Veränderungen oder Trends einmalig in der Geschichte seien, sollte man sehr genau hinschauen, mit welchen historischen Aufzeichnungen verglichen wird und ob ein solcher Vergleich überhaupt statthaft ist. Nicht immer werden Publikationen bzw. deren Schlussfolgerungen wissenschaftlichen Standards gerecht.

 

Untere Grenzfrequenz

Die untere Grenzfrequenz basiert auf der Gesamtdauer einer Messreihe. Eine solche Messreihe der Dauer T kann prinzipiell keine periodischen Vorgänge (bzw. Oszillationen) erfassen, deren Periodendauer größer ist als T. Dies bedeutet, dass zumindest eine volle Periode eines zyklischen Vorgangs in der Messreihe enthalten sein muss, um diesen zu erfassen. Wird eine Analyse über einen kürzeren Zeitraum durchgeführt, so wird diese Periode nicht zu erkennen sein. Beispiel: Sinussignal der Periodendauer 100 (Einheit beliebig, z.B. Millisekunde, Sekunde oder Jahrzehnt). Wird ein Signal der Periodendauer T hinreichend lange gemessen, d.h. die Messdauer beträgt mindestens T, so lässt sich die Periode nachweisen:

 

Ist die gesamte Messdauer kürzer, so lässt sich die Periodizität nicht rekonstruieren. Bei zu kurzer Messdauer können aus periodischen Vorgängen Schein-Trends ermittelt werden, die zu absurden Schlussfolgerungen führen. Erfolgt die Messung entlang des absteigenden Astes eines solchen Sinussignals, so ergibt sich – rein zufällig –  ein negativer Trend:

 

Bei einer Messung entlang des aufsteigenden Astes, wird – bei identischem Signal – ein positiver Trend ermittelt:

 

Es ist unschwer zu erkennen, dass die Ermittlung von Langzeittrends aus zu kurzen Messkampagnen zu unsinnigen Ergebnissen führt. Seit Ende der Kleinen Eiszeit ist ein Anstieg der globalen Temperatur zu verzeichnen. Dieser ist überlagert durch multidekadische Oszillationen mit Periodendauern von 50-70 Jahren (u.a. die Atlantische Multidekaden-Oszillation = AMO):

 

Quelle: http://woodfortrees.org/plot/best/mean:12/plot/esrl-amo/mean:12

Übertragen auf unser fiktives Beispiel erhalten wir folgende Grafik:

 

Erfasst die Messkampagne nur den absteigenden Ast der Oszillation (rote Teilkurve), so wird fälschlicherweise ein – wenn auch abgeschwächter – negativer Trend des gesamten Signals ermittelt. Bei Messung über den ansteigenden Ast (grüne Teilkurve) hinweg wird ein viel zu großer positiver Trend ermittelt.

Die Satellitenaufzeichnungen begannen 1979 bzw. 1980, dauern also bisher ca. 38 Jahre an. Dies ist etwa die halbe Periodendauer der Atlantischen Multidekaden-Oszillation. Zufälligerweise umfasst die Messdauer den ansteigenden Ast von AMO. Der seit Ende der Kleinen Eiszeit andauernde globale Temperaturanstieg wird in diesem Zeitraum durch diese ansteigende Phase verstärkt. Den daraus resultierenden Trend beispielsweise auf das Jahr 2100 zu extrapolieren, ist offensichtlich absurd. Aus der Analyse der Satellitendaten können multidekadische Oszillationen, deren Periode größer ist als 38 Jahre, prinzipiell nicht nachgewiesen und damit für Trendrechnungen auch nicht berücksichtigt werden.

Dass solche Analysen dennoch – entgegen der Prinzipien der Signalanalyse – durchgeführt werden, sieht man beispielsweise an der Publikation „Climate-change–driven accelerated sea-level rise detected in the altimeter era“ von Nerem et al.

Die Autoren unternehmen genau diese diskutierte Analyse für den Anstieg des Meeresspiegels, dessen Trend durch die ansteigende AMO-Phase verstärkt wurde. Dabei analysierten sie Satellitendaten, die bis 1993 zurückreichen, also über einen Zeitraum von lediglich 25 Jahren. Die daraus abgeleitete Prognose zum Meeresspiegelanstieg für das Jahr 2100 hält daher wissenschaftlichen Standards nicht stand. Ein anderes Beispiel für eine ungenügend lange Messdauer sind die Satellitenaufzeichnungen des arktischen Meereises, die ebenfalls seit 1979 stattfinden. Während der bisher 38-jährigen Analyse zeigte sich durchaus ein signifikanter Rückgang der eisbedeckten Fläche. Eine Extrapolation dieses negativen Trends in die Zukunft verbietet sich aber aus dem gleichen Grund.

Der Beitrag erschien zuerst bei Die Kalte Sonne hier




Wetter, Witterung, Klima: Das Hemd sitzt näher als der Rock

Dr. Dirk Beckerhoff

==============

Die Erkenntnis wächst, dass Durchschnittswerte zur weltweit gemessenen Temperatur der bodennahen Luft, zum weltweiten Auftreten von Extremwettern oder zu globalen Niederschlagsmengen nicht zur Ableitung und Begründung praktischer Politik geeignet sind.

Der Glaube an eine vom Menschen via CO2 verursachte und umfassend schädliche „Globale Erderwärmung“ kollidiert mehr und mehr mit den von Durchschnitten zwar verschleierten aber praktisch entscheidenden tatsächlichen Befunden.

In der Klima- (besser: Wetter-/Witterungs-) Wirklichkeit gibt es keine vieljährigen und weltweiten Durchschnitte, die für irgend ein Klima und dessen Trend repräsentativ sein können. Hier regieren ausschließlich Tatsachen:

Tatsächliche Temperatur, tatsächliche Großwetterereignisse, tatsächliche Luftqualität.

Und im Verein mit diesen Tatsachen gewinnen die lokalen Interessens- und Bewußtseinslagen die Oberhand. Sie lassen die durchschnitts-basierten und daher abgehobenen Weltrettungs-Orientierungen verblassen. Das Hemd sitzt näher als der Rock.

Die Diesel-Misere führt es vor Augen:

Je nach „Stimmungslage“ werden die Feindbilder gewechselt.

Das noch gestern bis zum Exzeß verteufelte anthropogene CO2 ist plötzlich „unmodern“.

Nun gelten alle Aufmerksamkeit und aller Kampf dem neuen „Unheilsbringer“, dem Stickstoffdioxyd (NO2). Zwar ist NO2 in den tatsächlichen Konzentrationen für den Menschen ebenso harmlos wie das anthropogene CO2 für das „Klima“  (vgl. dazu: [3] ).

Aber die Manipulation der Diesel-Messwerte fordert Rache. Der neue Feind heißt NO2.

Ähnliche Bewußtseins-Verschiebungen haben die kalten Spätwintermonate hervorgebracht:

Inzwischen kann man in unseren Breiten ungestraft in aller Öffentlichkeit fordern: „Bitte etwas mehr Erderwärmung!“ – und erhält herzlichen Zuspruch.

Schließlich sprechen sich auch die z. T. höchst fragwürdigen und als ungerecht empfundenen Inhalte des Pariser-Klimaschutz-Abkommen herum. Zum Beispiel ist es China im „Abkommen“ erlaubt worden, bis 2030 mehr als 300 neue Kohlekraftwerke in Betrieb zu nehmen [4] ! Und in Deutschland stehen gerade mal 20 Kohlekraftwerke auf der Abschaltliste.

F a z i t :

Meteorologie und Klimaforschung nehmen im Zusammenspiel von Wissenschaft und Politik keine Sonderstellung ein. Auch hier korrigieren ideologisch getriebene Übertreiber und quasi-religiöse Phantasten ihren Kurs wieder und wieder nach den „Realitäten“auf den aktuellen Stimmungs- und Interessens-Märkten.

Q u e l l e n :

[1]  https://eike.institute/2018/04/01/wetter-witterung-klima-verwirrung-fuer-alle-zeiten/

[2]  (a) https://eike.institute/2015/08/18/abkehr-vom-klima-zurueck-zum-wetter/

      (b) https://eike.institute/2013/12/04/klima-konkurs-der-modelle/

[3]  https://www.sat1.de/tv/fruehstuecksfernsehen/video/ist-die-diesel-debatte-sinnlos-clip

[4]  http://www.achgut.com/artikel/heute_bei_g20_die_substanzlose_klimashow

 




Das Märzen­veilchen blüht dieses Jahr erst im April – Wo ist die Klima­erwärmung?

Somit habe ich einen guten Erinnerungsvergleich. Eine Klimaerwärmung – gäbe es sie überhaupt – hätte zwangsläufig zu einer Verfrühung der Josefsveilchenblüte der letzten 60 Jahre führen müssen. Stellen wir uns die Frage: Wann haben diese auch Duftveilchen genannten blauen Frühlingsboten 2018 geblüht?

Als Vergleich wähle ich in meinem Heimatort jedes Jahr zwei Standorte, in meinem Garten am Ortsrand, und knapp außerhalb des Ortsrandes an einem stark geneigten Südhang.

(siehe Abbildung oben!)

Ergebnis: Am 30.März, also am Karfreitag erschienen blaue Knospen und vereinzelte Blüten, es kann somit keinesfalls in den letzten 60 Jahren wärmer geworden sein, denn auch letztes Jahr, im angeblich wärmsten März aller Zeiten in Deutschland, war die Blüte dieses Strauches auch erst am 24. März und nicht am 19. März.

Zur Geschichte: Dieses blaue Frühlings-Anzeige-Blümlein heißt seit 300 Jahren so, weil es seit 300 Jahren den März kennzeichnet. März ist, wenn die Märzenveilchen blühen. Wäre es vor 300 Jahren kälter gewesen als momentan, dann hätten es unsere Vorfahren Aprilveilchen oder Osterveilchen getauft. Das ist aber nicht so. Es blüht seit 300 Jahren, wenn der März kommt, mal früher oder später und deshalb wird es im Volksmund so genannt.

Und dieses Jahr 2018: Dieses Jahr ist es eindeutig ein Aprilveilchen. Nicht einmal Osterveilchen wäre gerechtfertigt. Denn außerhalb meines Gartens in der freien Landschaft blüht das blaue Veilchen noch später.

Was bestimmt den Blütenbeginn dieses und anderer Frühjahrsanzeiger ?

Nicht nur der Monat März allein ist entscheidend, sondern auch die Temperaturen des Februars wirken mit. Der Februar entscheidet, wie tief der Boden gefroren ist und die Erstblüher wie das Märzveilchen beziehen ihre Nahrungsgrundlage aus dem Wurzelstock.

Wir werfen einen Blick auf die Summe beider Monate und nennen Februar und März zusammen die Vorfrühlingsmonate, sie bestimmen in der Hauptsache den Blütentermin des Märzenveilchens.

Grafik 2: Der zusammengefasste Temperaturverlauf der beiden Vorfrühlingsmonate Februar/März zeigt noch vor der Jahrhundertmitte eine deutliche Abkühlung. Erst zwischen 1982 und 1988 wurde durch einen Temperatursprung das heutige Niveau erreicht. Derzeit befinden wir uns wieder auf dem Niveau wie zur Kaiserzeit des deutschen Reiches. Doch die Messstationen standen damals an ganz anderen, noch kälteren Stationen.

Ein etwas zeitigeres Anzeichen für den Erstfrühling ist der Laubaustrieb der Wilden Stachelbeere, welcher in Weimar seit 1990 am selben, unverändert gebliebenen Standort beobachtet wird. Da er im Mittel schon in den ersten Märztagen erfolgt, sind für ihn die Temperaturverhältnisse der Hochwintermonate Januar und Februar maßgebend:

Grafik 3: Auch der Laubaustrieb der Wilden Stachelbeere hat sich an einem unverändert gebliebenen Standort im Weimarer Schlosspark leicht verspätet, weil der Hochwinter (Januar und Februar) etwas abkühlte.

Wegen der Wärmeinseleffekte betrachten wir die letzten 30 Jahre, auch in diesem kürzeren Zeitraum wurde viel in Deutschland gebaut und der Mensch trägt mit nahezu allen seinen Maßnahmen zusätzlich Wärme in die Landschaft ein. Das gilt auch für Windkraftanlagen und Solarkollektoren. Eine Wärmeinselwärme, die sich stetig fortsetzt und sich in die freie Fläche wärmend reinfrisst. Umso erstaunlicher ist die Grafik für Deutschland.

Vorfrühling in den letzten 30 Jahren: Deutliche Abkühlung in Deutschland.

Grafik 4: Die beiden Vorfrühlingsmonate Februar und März wurden in den letzten 30 Jahren kälter, dabei stehen die Messstationen des Deutschen Wetterdienstes vielfach in ausgesprochenen Wärmeinseln. In der freien Fläche ist die Abkühlung noch stärker als die Trendlinie vorgibt. Deshalb beginnt der Frühling in den Wohnorten später wie 1988 – siehe Trendlinie – auf den Wiesen außerhalb der Städte deutlich später.

Vorfrühlingsverlauf auf dem Lande in den letzten 30 Jahren

Die Wetterstationen des Deutschen Wetterdienstes sind zwar gleichmäßig über Deutschland verteilt, sie stehen aber vorwiegend dort, wo der Mensch lebt und arbeitet, wo also zusätzlich Wärme erzeugt wird. Und kalte Tage im Vorfrühling werden einfach rausgeheizt, die Zeit des Frierens und das Warten auf wärmere Tage gehört aufgrund unseres Wohlstandes der Vergangenheit an.

Auf dem Lande und in der freien Landschaft ist es somit nicht nur kälter, sondern die Trendlinienschere geht immer weiter auseinander. Für Deutschland als Ganzes beträgt die Abkühlung der beiden Vorfühlingsmonate laut Trendlinie der Grafik 3 deutlich über ein Grad in den letzten 30 Jahren. Für das Land, wir wählen die Wetterstation in Neugersdorf in der Oberlausitz ist die Abkühlung der beiden Vorfrühlingsmonate deutlich stärker. Die armen Leute in der Oberlausitz. Ihr Frühling kommt immer später.

Grafik 5: Die beiden Vorfrühlingsmonate Februar/März zeigen in der Oberlausitz eine sehr deutliche Abkühlung. Laut Trendlinie 2 Grad. Logischerweise verspäten sich in Sachsen östlich der Elbe seit 30 Jahren alle Frühlingsblüher.

Ein vorsichtiger Ausblick Richtung April – bessert sich dieser bislang zu kalte Frühling noch?

Wer in Mecklenburg-Vorpommern wohnte, hatte bislang wenig Freude an diesem unterkühlten, schneereichen Frühling 2018. Näheres zum österlichen Schneechaos unter https://www.wetteronline.de/fotostrecken/2018-04-01-sm?part=single . Aber auch im übrigen Deutschland verlief der Lenz bislang zu kalt. Das hatte eine fast dreimonatige Blüte von Winterlingen und Schneeglöckchen zur Folge; beim Haselstrauch gar fast dreieinhalb Monate. Momentan überwiegen die Anzeichen für einen eher milden April, der möglicherweise auch gebietsweise relativ viel Sonnenschein bringt. Das Umfeld der Ost- und Nordsee scheint wegen der niedrigen Wassertemperaturen aber benachteiligt zu sein, denn gehäuft dürften Hochdruckgebiete über Skandinavien auftreten, bei denen dann die Luft von den kalten Meeresflächen landeinwärts weht. Einzelne Kälterückfälle oder Spätfröste sind nicht auszuschließen. Es wird jedoch mit einer merklichen Verringerung des aktuell je nach Region eine bis gut drei Wochen betragenden Vegetationsrückstandes gerechnet. Die Apfelblüte in Weimar dürfte also frühestens um den 25. April 2018 und damit um etwa 5 Tage verspätet beginnen; diese Schätzung ist aber noch sehr unsicher:

Grafik 6: Wegen des tendenziell wärmeren (und sonnenscheinreicheren) Aprils hat sich der Vollfrühlingsbeginn im Gegensatz zum Erstfrühlingsbeginn leicht beschleunigt; der Erstfrühling wurde also etwas kürzer. Die Prognose für den Einzug des Erstfrühlings (Beginn der Apfelblüte) in Weimar am 25. April 2018, das wäre ein mittelspäter Beginn, ist noch sehr unsicher und setzt einen zu warmen April voraus.

Fazit: Dieser Frühling 2018 ist in der freien Fläche stark verspätet im Vergleich zu den letzten 300 Jahren, denn das Märzenveilchen blüht diesmal im April. Entscheidend für das Blühverhalten der Bodenblüher und Gehölze sind die Temperaturen der Monate Februar und März. Wir nennen sie Vorfrühling. Das Märzenveilchen immer am gleichen Standort beobachtet, zeigt die Wahrheit und nicht die aufgewärmten Computerszenarien der Treibhausanhänger.

Zusammenfassung

1) Das Frühjahr 2018 ist vor allem in der freien Fläche stark verspätet. Viele Märzenblüher blühen erst im April.

2) Seit 300 Jahren ist der Frühlingsbeginn etwa gleich geblieben. Das Märzenveilchen blüht wie vor 300 Jahren – das war die kleine Eiszeit – entweder Ende März oder Anfang April wie dieses Jahr.

3) Nur in den Wärmeinseln der menschlichen Ansiedlungen wurde es weniger kälter. Da die Menschen dort wohnen und arbeiten, an kalten Tagen die Heizung aufdrehen, bekommen sie die tatsächliche Klimaabkühlung der beiden Vorfrühlingsmonate nicht mit.

Gesamtergebnis: Eine CO2-gemachte Klimaerwärmung gibt es nicht oder sie ist so unbedeutend, dass die Abkühlungsfaktoren bei weitem überwiegen. Das zeigen nicht nur die Grafiken des Artikels, sondern auch die eigentlichen Märzenblüher. Außer Märzenveilchen sind das noch Huflattiche, Anemonen, Scharbockskraut und Forsythien. Ihre Blütezeit rückt immer mehr in den April. Auch die Krötenwanderung findet inzwischen im April statt. Vor 30 Jahren war diese noch drei Wochen früher.

Es wird Zeit, dass endlich wieder Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht die 10 oder noch mehr Gebote der Klimakirche mit bestens verdienenden Klimapäpsten und ihren computererzeugten Lügengeschichten.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Oh je – Analyse von GHCN-Klima­stationen zeigt, dass es keine statis­tische Erwärmung – oder Abkühlung – gibt

Man muss diese Studie buchstäblich als eine Begutachtung der Daten auf statistischer Grundlage verstehen. Ich habe eine Statistik entwickelt, um die Daten zu quantifizieren, einzuordnen und zu kategorisieren. Meine Statistik enthält keine Ecken und Kanten, sondern ist einfach die Gesamtänderung der Temperatur zwischen den ersten und den letzten 10 Jahren des Zeitraumes 1900 bis 2011 für jede Station.

Hier folgt zunächst eine Auflistung der Länder, welche die geringste bzw. die stärkste Gesamtänderung zeigen sowie die Anzahl der Stationen pro Land:

Dies ist ein altmodisches Histogramm, welches die Stationen in der Reihenfolge hinsichtlich der Gesamt-Temperatur listet. Diese zeigt die Daten in einer Glockenkurve. Die zugrunde liegende Verteilung ist sehr ähnlich einer Normalverteilung. Das bedeutet, dass die Anwendung normaler Verfahren sehr vernünftige Abschätzungen ergeben wird. Für einen Statistiker ist dies bedeutsam. Allerdings braucht man kein Hintergrundwissen in Statistik, um das Folgende zu verstehen.

Der Wert der Mittellinie liegt zwischen -0,5° und +0,5°. Die Anzahl der insgesamt eine Abkühlung zeigenden Stationen macht 40% aus. Etwas weniger als 60% zeigen eine Erwärmung. Die absolute Änderung ist an 74,6% aller Stationen statistisch nicht signifikant.

Die folgende Graphik zeigt eine normalisierte Darstellung jeder Kategorie: Keine signifikante Änderung, signifikante Erwärmung und signifikante Abkühlung. Der Graph zeigt gleitende Mittel über 10 Jahre. Jeder Plot ist so normalisiert worden, dass das Mittel des Zeitraumes 1900 bis 1910 Null beträgt.

Obwohl die Steigung jedes Plots signifikant unterschiedlich ist, ist der Verlauf der Kurven nahezu identisch. Eine Zufallssammlung individueller Stationsdaten zeigt, dass die Bedingungen für jede Station innerhalb der Bandbreite wahr bleiben. Zum Beispiel zeigt die dänische Grönland-Station, dass das Mittel der Jahre 1990 bis 2000 gleich ist dem Mittel von 1930 bis 1940.

Kurzfristige Änderungen wie etwa die Erwärmung bis in die dreißiger Jahre, sind bei einer Mehrheit der Stationen eindeutig erkennbar. Andere Beispiele hiervon sind der Temperatursprung der vierziger Jahre, die Abkühlung nach 1950 und der Temperatursprung zum Ende der neunziger Jahre.

Langfristige Änderungen variieren signifikant.

Aus dieser Analyse lässt sich eine ganze Reihe von Schlussfolgerungen ablesen:

Es gibt keinen statistisch signifikanten Unterschied zwischen Nordamerika und Europa. Die eine signifikante Abkühlung zeigenden Stationen machen nur 8% der Gesamtzahl aus. Bei dieser Statistik wäre die erwartete Anzahl von 17 eine Abkühlung zeigenden Stationen nur eine. Die Anzahl der eine signifikante Erwärmung zeigenden Stationen wäre 3. Vom Standpunkt der Stichprobenmenge aus sind 17 keine ausreichend große Stichprobe, um genaue Schätzungen zu erhalten.

Kurzfristige Änderungen, welche Stationen von Kanada über die USA bis Europa erkennbar sind, sind möglicherweise hemisphärische Änderungen. Allerdings gibt es keinen Hinweis darauf, dass diese Änderungen global sind, gibt es doch keine Anzeichen ähnlicher Änderungen in Australien. Tatsächlich unterscheidet sich die Gesamtverteilung in Australien offensichtlich von dem, was wir hier sehen.

Die Beweise zeigen eindeutig, dass die große Variation an den Gesamt-Temperaturtrends entweder regionalen oder lokalen Faktoren geschuldet ist. Wie in der Datentabelle oben gezeigt stammen alle Extreme dieser Variation aus den USA. Wie schon erwähnt reicht die Stichprobenmenge aus Europa einfach nicht aus, um genaue Schätzungen von Bedingungen mit kleiner Prozentzahl zu erhalten.

Weiter zeigt sich eindeutig, dass die meisten Differenzen der Gesamt-Temperaturänderung lokalen Faktoren geschuldet sind. In den USA erkennt man, dass extreme Erwärmung allgemein auf Gebiete mit starker Zunahme der Bevölkerung, Wachstum oder hohem Entwicklungsniveau beschränkt sind. Große Städte wie San Diego, Washington DC und Phoenix folgen dem verlauf signifikanter Änderung. Das gilt auch für Flughäfen. Allerdings folgen Städte wie New Orleans, St. Louis, El Paso und Charleston der Verteilung ohne signifikante Änderung.

Schlussfolgerung: Der Fall globale Erwärmung auf der Grundlage der verfügbaren langzeitlichen Daten ist sehr schwach. Es gibt Hinweise, dass eine hemisphärische Verteilung existiert. Weitere Beweise zeigen, dass es sich um eine zyklische Verteilung handelt, die in lokalisierten Temperaturspitzen während der dreißiger und der neunziger Jahre zum Ausdruck kommt. Allerdings scheinen Veränderungen der lokalen Umstände an den Stationen infolge menschlicher Entwicklungen der wichtigste Faktor zu sein, welcher die Gesamt-Temperaturänderungen beeinflusst. Extreme Erwärmungstrends sind fast mit Sicherheit auf vom Menschen vorgenommene lokale Änderungen zurückzuführen.

Unklar bis zu diesem Punkt ist die Bedeutung geringerer, vom Menschen induzierter Änderungen. Um dies abzuschätzen, bedarf es der Untersuchung individueller Stationsorte, um eine signifikante Stichprobe von Stationen zu erhalten, die keine Änderung zeigen. Unglücklicherweise hat man sich in den USA, in Kanada und Europa nicht einmal ansatzweise dieser Art von Informationen verschrieben wie in Australien. Ich muss zugeben, dass die Australier exzellente Arbeit geleistet haben, um Stationsinformationen verfügbar zu machen. Mit den aktuellen Koordinaten der tatsächlichen Teststationen war dies einfach. Ich schaute einfach bei Google Maps und war in der Lage, den Aufstellort und die Umgebung zu begutachten.

Mark Fife holds a BS in mathematics and has worked as a Quality Engineer in manufacturing for the past 30 years.

Link: https://wattsupwiththat.com/2018/04/01/uh-oh-analysis-of-ghcn-climate-stations-shows-there-is-no-statistically-significant-warming-or-cooling/

Übersetzt von Chris Frey EIKE




Chevron punktet weiter gegen die Klimaaktivisten

Auf Eike lasen Sie hier den Stand vom 21. März 2018

Chevron drehte den Spieß um und beschuldigte die Kläger, die in ihrem täglichen Leben fossile Brennstoffe verbrennen, die wahren Schuldigen sind, die für die Erhöhung der Emissionswerte verantwortlich sind. San Francisco gehört zu einer Handvoll kalifornischer Städte, die die Ölgesellschaft wegen angeblichen Beitrags zum Klimawandel verklagt haben.

„Es ist unbestritten, dass die Beklagten die fossilen Brennstoffe zu dem Zeitpunkt, als sie angeblich den Ärger verursachten – dh. als sie verbrannt wurden – nicht unter ihrer Kontrolle hatten. Daher können die Hersteller dafür nicht haftbar gemacht werden“,

erklärte Chevron in einem Memorandum vom 23. März, in dem das Gericht aufgefordert wurde, die Klage der Stadt abzuweisen. Das viel beschworene Klima-Tutorial, mit dem Chevron und die anderen Prozessparteien über die Wissenschaft hinter der globalen Erwärmung befragt wurden, überschattete das Memo.

„Die Behauptungen der Kläger hängen von einer schwächer werdenden Kausalkette ab, die Milliarden Dritte einschließt – dh. alle Nutzer von fossilen Brennstoffen wie die Kläger selbst“, hieß es in dem Memo des Unternehmens, ergänzt durch die Feststellung, dass die Regierung Chevron eine Lizenz zur Produktion von Erdöl und Erdgas erteilt hatte.

„Zahlreiche Bundesgesetze erlauben, fördern und fordern manchmal sogar die Produktion fossiler Brennstoffe. Das kalifornische Gesetz ermächtigt und ermutigt das Verhalten der Beklagten [Ölproduzenten]„, erklärte Chevron. Der Rechtsstreit hat seit seiner ersten Einreichung im März mehrere Hindernisse erfahren – ein Rechtsanwalt erklärte, San Franciscos-Beamte hätten in Bezug auf das Thema Klimawandel uneinheitlich gehandelt.

Da diese Politiker von San Francisco in der Klage gegen Energiekonzerne, aber nicht in den eigenen Anlageangeboten drastische Vorhersagen zum Klimawandel machten, wissen sie, dass sie feststecken, meinte der New Yorker Juraprofessor Richard Epstein in einem Interview mit Legal Newsline am 21. Februar

„Ich schätze, sie wissen, dass sie diese Klagen verlieren werden“, sagte Epstein gegenüber Legal Newsline. (Richard A. Epstein ist der Direktor des Klassischen Liberalen Instituts und Professor für Rechtswissenschaften an der NYU School of Law.) „Ich bin sicher, dass sie verlieren werden. Wenn San Francisco und Oakland beschließen, sich nicht aus den Klagen zurückzuziehen und stattdessen vorwärts gehen, wird das Kreuzverhör brutal sein.“

Seine Einschätzung beruht auf den inkonsistenten Positionen der Städte zum Klimawandel. San Franciscos Klage beruht darauf, dass die Stadt „unmittelbar drohenden katastrophalen Sturmfluten ausgesetzt“ sei – doch ein Angebot mit allgemeinverbindlichen Anleihen von 2017 behauptete, dass die Beamten „nicht vorhersagen können, ob ein Anstieg des Meeresspiegels oder andere Auswirkungen des Klimawandels eintreten werden.“

Anwälte, die die Städte vertreten, können einen großen Zahltag erwarten, wenn ihr Rechtsstreit erfolgreich ist. Die Firma für Sammelklagen Hagens Berman Sobol Shapiro LLP bearbeitet die Prozesse in San Francisco, Oakland und New York City. Die Städte zahlen den Anwaltskanzleien keinerlei Vorschüsse, dafür im Austausch einen guten Prozentsatz aller Gewinne oder Abrechnungen.

Hagens Berman wird Millionen, möglicherweise Milliarden von Dollar an Haftungsgeldern verdienen, abhängig von den Gesamtgewinnen, sollten San Francisco, Oakland oder New York City ihre globalen Klimaangriffe gegen Ölkonzerne gewinnen. Alles in allem fordern diese drei Städte viele Milliarden Dollar von den Ölfirmen.

Aber die Dinge könnten für Kalifornien heikel werden, egal wie die Klagen ausgehen. Fast 40 Prozent des Rohöls werden im Golden State gefördert – eine reale Einbuße an Steuereinnahmen, die zuschlagen könnte, wenn Exxon, Chevron und andere Beklagte sich entscheiden, aus Kalifornien abzuziehen. Die Ölindustrie trägt mit 66 Milliarden Dollar, gleich 2,7% zu den Steuereinnahmen des Landes bei.

Erschienen auf The Daily Caller vom 27.03.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/03/27/california-lawsuits-against-chevron-snags/




Milder April nach kaltem März 2018?

Es gibt außerdem einen besseren Hinweis auf die Apriltemperaturen – die Ausdehnung des Arktischen Meereises, in Millionen Km² vom Satelliten aus gemessen (Werte liegen seit 1979 vor). Zunächst fällt die sehr geringe Eisfläche von Januar bis März 2018 auf:

Die blaue Linie verläuft deutlich unter der des Mittelwertes von 1981 bis 2010 (grau). Was hat nun das Arktiseis mit den Apriltemperaturen in Deutschland zu tun? Hat das Eis eine große Ausdehnung, so schrumpft es auch im April nicht so schnell und generiert dann ein großes Kältereservoir, welches im April für Kälteeinbrüche aus Norden Richtung Deutschland zur Verfügung steht. Der Zusammenhang ist folglich negativ- eine große Eisfläche in den Vormonaten bedingt (meist) einen kälteren, eine kleine Eisfläche (wie 2018) eher einen milderen April. Das folgende Streudiagramm illustriert die signifikante Beziehung, welche freilich keine sichere Prognose der Apriltemperaturen ermöglicht:

Trotz dieser erfreulichen Nachricht bleibt ein Wermutstropfen, speziell für Norddeutschland, die aktuell unternormalen Wassertemperaturen in Nord- und Ostsee, erkennbar an der blauen Farbe:

Bei den Windrichtungen NW, N und NE wirken diese negativen Meeresoberflächentemperaturen kühlend, was man auch sehr gut an den prognostizierten Temperaturen für den Mittag des Ostermontags erkennen kann:

Während über Mittel- und Süddeutschland milde 10 bis 14 Grad herrschen, muss man im Norden bei kalten Null bis 4 Grad frieren. Sollte es, was im April nicht selten ist, Skandinavien- Hochs geben, so wäre wegen der niedrigen Wassertemperaturen die Nordhälfte Deutschlands vermutlich benachteiligt.

Höhere AMO- Werte- milderer April in Deutschland?

Der April ist der erste Monat im Jahresverlauf mit einem andeutungsweise vorhandenen, positiven Zusammenhang zwischen AMO und Deutschland- Temperaturen; allerdings ohne Signifikanz (diese besteht für die Monate von Juni bis November sowie für das Jahr insgesamt):

Im Einzelfall, so auch 2017, kann also trotz hoher AMO- Werte auch ein zu kalter April folgen; häufiger folgt aber ein eher milder.

Was prophezeien die Modelle?

Das CFSv2 sagt einen zu warmen April für Süddeutschland und einen zu kalten für Teile Skandinaviens vorher (Bezugszeitraum Aprilmittel 1981 bis 2010):

Die Ensemble- Modelle sagen für die erste Aprildekade häufige Süd- und Südostströmungen vorher, was eher warmes Wetter bedeuten würde. Am 10.04. soll eine Hochdruckzone von Skandinavien nach Osteuropa reichen:

Auch danach soll eher hoher Luftdruck dominieren; andere Modelle, hier stellvertretend das ENS für den 15. April, sehen das ähnlich:

Fazit: Momentan überwiegen die Anzeichen für einen eher milden April, der möglicherweise auch relativ viel Sonnenschein bringt. Das Umfeld der Ost- und Nordsee scheint wegen der niedrigen Wassertemperaturen benachteiligt zu sein. Einzelne Kälterückfälle oder Spätfröste sind dennoch nicht auszuschließen. Alle Gärtner und Landwirte dürfte es weniger freuen, dass zumindest eine leicht erhöhte Wahrscheinlichkeit für zu wenig Regen besteht, denn „ein trockener April, ist nicht des Bauern Will‘ “. Aber eventuell verhindern erste Gewitterschauer Schlimmeres.

Zusammengestellt von Stefan Kämpfe ohne Aprilscherz am 01. 04.2018.




Musterbei­spiel für Vertuschung: „Selbstfahren­des“ Uber-Auto: Tod durch Geldgier

Erst zwei Tage später wurde dann in Deutschland eine Videoaufzeichnung des Unfallhergangs öffentlich zugänglich gemacht [SPIE]. Im Zusammenhang mit dem kommentierenden Text ist diese hochinteressante Kreation der Deutschen Presseagentur (dpa) ein Lehrstück dafür, wie man seitens der Behörden und in den Medien „Tatsachen“ in manipulativer Absicht so darstellen kann, dass der gewünschte Eindruck – in diesem Fall im Sinne von Uber und den ganzen Vertretern des Hypes vom „selbstfahrenden Auto“ – entsteht. Schaut man nämlich genau hin, so geht selbst aus den kurzen verfügbaren Abschnitten des Videos eindeutig hervor, dass das „selbstfahrende“ Auto an diesem Unfall in erheblichem Umfang Schuld trug. Von „investigativen Journalisten“ hätte man eigentlich entsprechende Hinweise erwarten dürfen. Doch weit gefehlt: Es gab wieder einen hochpeinlichen Beweis dafür, wie sich sogenannte Spitzenmedien als willige Handlanger behördlich verbreiteter Tatsachenverfälschungen zugunsten dubioser Geschäftemacher hergeben, sofern diese nur der „richtigen“ Ideologie zuzuordnen sind.

Bild 2. Kommentar zum Film (siehe Bild 1 oben) im begleitenden Artikel [SPIE]
Medien und Behörden: Verharmlosung im Schulterschluss

Schon beim ersten Bericht über den Vorfall hatte der Spiegel-Redakteur Michael Kröger getitelt: „Unfall mit Uber-Roboterauto Der Computer ist trotzdem der bessere Fahrer“ [KROE]. Dieses Vor-Urteil zog sich als roter Faden durch seinen Beitrag.

  • „der Fall ist kein Beleg dafür, dass die Technologie ihre Versprechungen nicht erfüllen kann“
  • „Denn in diesem Punkt sind sich Ingenieure, Unfallforscher und Versicherungsmathematiker einig: Sensoren oder Software eines Roboterautos mögen bisweilen versagen, doch die Zahl der Fälle, in denen ein menschlicher Fahrer für einen Unfall verantwortlich ist, liegt dramatisch höher“
  • „Die Experten gehen davon aus, dass sich die Zahl der Unfälle um neunzig Prozent reduzieren ließe, wenn nur noch Computer die Autos steuerten“
  • „Der Computer-Pilot ist einem menschlichen Counterpart dermaßen überlegen, dass man eigentlich nicht fragen sollte, ob Computer Autos steuern sollten, sondern warum sie es immer noch nicht tun“, (Bild 3)

Bild 3. In Treue fest: Schon beim ersten SPON-Artikel stand das Fazit des Journalisten Michael Kröger fest [KROE]

  • „Auf dem Überwachungsvideo des Uber-Wagens ist die Frau offenbar erst in allerletzter Sekunde zu erkennen. Polizeichefin Sylvia Moir sagte dem „San Francisco Chronicle“, das Video zeige, dass die Frau „direkt aus dem Schatten auf die Fahrbahn getreten“ sei. „Es ist klar, dass dieser Zusammenstoß in jedem Modus, ob autonom oder manuell, schwer zu verhindern gewesen wäre““

Das „Beweis“-Video

Auf dem zwei Tage später bei „Spiegelonline“ [SPIE] veröffentlichten Video von der Bordkamera sieht man eine extrem dunkle Straße mit breiten Fahrspuren, einem ziemlich breiten Bürgersteig und einem ebenfalls sehr breiten Radweg. Lichter im Hintergrund lassen Gebäude und eine Kreuzung erahnen. Die Straße ist durch beidseits aufgestellte Laternen gut ausgeleuchtet. Die Kamera scheint jedoch so lichtschwach zu sein, dass nur die jeweils zwei oder drei nächstgelegenen Teilstreifen der unterbrochenen Mittellinie zu erkennen sind. Alles, was weiter hinten gelegen ist, wird von Schwärze verschluckt. Erst etwa anderthalb Sekunden vor dem Zusammenprall taucht „urplötzlich“ eine Gestalt auf, die von der anderen Straßenseite kommend mit ihrem unbeleuchteten Fahrrad die Straße überquert, Bild 4, Bild 5, Bild 6 und Bild 7.

Bild 4. Bei der Zeitmarke 3 s tauchen von links her schemenhaft die Schuhe der Fußgängerin im Scheinwerferlicht in einer Entfernung vermutlich ca. 25 m auf. Screenshots aus dem von der Polizei freigegebenen Video

Bild 5. Kommentar zum Film im begleitenden Artikel [SPIE]
Bild 6. Nur rund eine Sekunde später befindet sich die Fußgängerin lediglich noch etwa 10 m vor dem Auto. Screenshots aus dem von der Polizei freigegebenen Video [VIDE]
Den eigentlichen Zusammenprall zeigt das Video nicht, stattdessen wird die Szene davor nochmals wiederholt, wohl auch um den Eindruck der Plötzlichkeit zu unterstreichen. Dazu kommen folgende erklärende Texte im Video selbst:

  • „Laut Polizei hätte die Fahrerin das Unglück wohl nicht verhindern können“
  • „Die Frau taucht sehr spät im Lichtkegel des Fahrzeugs auf“
  • „Dennoch: Das Sensorsystem des Autos soll eigentlich weit entfernte Objekte erkennen können“
  • „Derzeit hat das Lidarsystem allerdings noch Probleme bei Dunkelheit“

Bild 7. Schon beim dritten Bild nach der Zeitmarke 4 s hat das Fahrzeug das Opfer fast erreicht. Screenshots aus dem von der Polizei freigegebenen Video

Bild 8. Die lächerliche Aussage der Polizeichefin Sylvia Moir [SPIE]
Aus dem Abstand der Zeitmarken im Video und der bekannten Geschwindigkeit des Fahrzeugs von ca. 17,8 m/s lässt sich berechnen, dass die Fußgängerin auf dem Video erst in einer Entfernung von rund 25 m vor dem Auto sichtbar wird. Dies ist angesichts der Mindest-Leuchtweite der Fahrzeugscheinwerfer von 90 m ein klarer Hinweis auf massive Manipulationen am Video.

Im Text des zum Film gehörenden Artikels finden sich ergänzend noch folgende Kommentare:

  • „Die Außenaufnahmen der Kamera auf dem Armaturenbrett zeigen, wie das Auto eine schlecht ausgeleuchtete Straße entlangfährt. Im Scheinwerferlicht des Fahrzeugs taucht unvermittelt von links eine Fußgängerin auf, die ihr Fahrrad über die Straße schiebt. Die 49-jährige war aus einem unbeleuchteten Bereich auf die Fahrbahn getreten. Zuerst sind nur die Füße der Passantin zu sehen, die Sekunden später vom Fahrzeug erfasst wird“
  • Ebenfalls findet sich dort folgendes Zitat der Polizeichefin Sylvia Moir: „Es ist klar, dass dieser Zusammenstoß in jedem Modus, ob autonom oder manuell, schwer zu verhindern gewesen wäre

Eine plumpe Vertuschung…

Diese Kommentierung ist so naiv, dass man sich wirklich fragen muss, wie man als Journalist ein solch offensichtlich getürktes Video so kritiklos durchgehen lassen kann. Jedem, der schon einmal nachts auf innerstädtischen Straßen unterwegs war, muss doch sofort auffallen, dass diese vorgeblich „miserablen Sichtverhältnisse“ nie und nimmer der Realität entsprechen können. Auf einer solchen beleuchteten innerstädtischen Straße liegt die Sichtweite bei Nacht und ohne Regen oder Nebel bei mehreren 100 Metern. Das wissen sogar Fußgänger oder Radfahrer, warum fällt Journalisten das nicht auf?

Zunächst hätte man sich die Frage stellen müssen, wieso der Lichtkegel der Scheinwerfer auf einer Stadtstraße mit vorhandener Straßenbeleuchtung anscheinend lediglich eine Strecke von vielleicht 20-25 m ausleuchten konnte. Diese Entfernung lässt sich leicht abschätzen, weil auf dem Film in der Regel nur zwei, selten drei Striche der unterbrochenen Mittellinie zu sehen sind. In Deutschland ist deren Abstand innerorts 9 m, bei 2,5 Strichen also 23 m [MARK]. Auch in den USA dürften diese Maße nicht um ganze Größenordnungen unterschiedlich ausfallen.

Zweifel an der Leuchtkraft der Scheinwerfer des Volvo XC 90 sind nicht angebracht. In Schweden gehören nächtliche Elchunfälle zum Alptraum jedes Autofahrers. Volvo legt seine Fahrzeuge deshalb so aus, dass man einen dunklen Elch in einer dunklen Landschaft auch im besonders dunklen arktischen Winter noch rechtzeitig genug erkennen kann, um einen Crash zu vermeiden. Der Blick in das Datenblatt des Fahrzeugs bestätigt dies. Die superhellen LED-Scheinwerfer heißen sicherlich nicht ohne Grund „Thors Hammer“. Selbst ihr Abblendlicht reicht rund 90 m weit, außerdem kann man das Fernlicht die ganze Zeit anlassen, da der Wagen die Leuchtweite bei Gegenverkehr automatisch anpasst, um Blendungen zu vermeiden [VOLVO]. Da auf dem Film keinerlei Gegenverkehr zu sehen ist, hätte die effektive Leuchtweite also mindestens 120 m statt der mickrigen 25 m auf dem Video betragen müssen. Dies lässt den Schluss zu, dass hier an einem primären Beweismittel für ein Verfahren wegen eines tödlichen Unfalls in erheblichem Umfang manipuliert worden ist. In den USA, wo man dem Vernehmen nach als Autofahrer bei Unfällen mit Todesopfern von Glück sagen kann, wenn man nicht im Knast landet, ist das ein sehr schwerwiegendes Vergehen.

Die Aussage der Polizeichefin Sylvia Moir: „Es ist klar, dass dieser Zusammenstoß in jedem Modus, ob autonom oder manuell, schwer zu verhindern gewesen wäre“, kann man demnach als Indiz für ihre Komplizenschaft bei der Manipulation zur Vertuschung der Angelegenheit auffassen. Dies zeigt, mit welcher Konsequenz die Behörden in den USA die Interessen ihrer eigenen Industrien schützen.

und die Realität

Dieses seltsame Video ist natürlich verschiedensten Leuten auch vor Ort aufgefallen. Im Internet sind inzwischen Bilder von Dashcam-Videos zu sehen, die am gleichen Ort und zu vergleichbaren Zeiten aufgenommen wurden, und dem „Beweisvideo“ gegenübergestellt worden, Bild 9.

Bild 9. Gegenüberstellung des von der Polizei veröffentlichten Videos mit einer Dashcam-Aufnahme aus dem Internet [VERGL]
Die im unteren Teilbild gezeigten Sichtverhältnisse können als realistisch gewertet werden und lassen erkennen, wie stark die „offizielle“ Aufnahme offensichtlich manipuliert wurde. Es ist kaum vorstellbar, dass bei einem derartigen Milliardenprojekt – allein der in Stückzahlen von mehr als 10.000 vorgesehene Volvo XC90 hat einen Basispreis von knapp 60.000,- € – derartig miserable Dashcams zum Einsatz gekommen sein sollten. Die unglaublich schlechten Lichtverhältnisse kann man fast nur so interpretieren, dass der Film mit geeigneter Software sehr kräftig nachbearbeitet wurde, um die von der Polizei verbreitete Version zu stützen. Ob dies von Uber selbst vorgenommen wurde oder ob die Polizei mitgetrickst hat, sei hier dahingestellt. Glaubhaft ist das Ergebnis jedenfalls in keinster Weise.

Eine klare Antwort sollte in jedem Fall auf die Frage gefordert werden, wo denn die sonstigen vom Uber-System aufgezeichneten Daten abgeblieben sind, wozu neben den Lidar- auch Videodaten gehören dürften, und zwar solche von höchster Qualität. Warum werden diese Daten und die entsprechenden Systeme nicht erwähnt, und warum hat anscheinend kein Journalist danach gefragt, ob darin nicht eventuell Antworten auf die drängenden Fragen zu finden sein könnten, die sich nach Vorlage dies dubiosen Dashcam-Videos geradezu aufdrängen. Eigentlich hätte die Polizei den Wagen beschlagnahmen und sicherstellen müssen. Wenn Uber nicht zu verbergen hat und, wie behauptet, mit den Behörden kooperiert, dann hätte man der Polizei unverzüglich unverfälschte Originaldaten zur Verfügung stellen müssen. Wo sind diese, und was lässt sich darauf erkennen?

Für die Redaktion von SpiegelOnline, die sich bei der Hetzjagd auf deutsche Autohersteller in enger Zusammenarbeit mit der US-gesponsorten Deutschen Umwelthilfe DUH mehrfach durch außergewöhnlichen „investigativen Eifer“ hervorgetan hat, ist das hier dokumentierte unkritische Nachplappern plumper Lügen und Vertuschungsversuche in jedem Fall ein ganz besonderes Armutszeugnis.

Ein Fall für den Staatsanwalt

Rund um den Fall ergeben sich jedenfalls etliche drängende Fragen, was die Sicherheit der getesteten Technologie und die offenkundig systematischen Gesetzesverstöße im vorliegenden Fall angeht. Dazu gehören neben den Fragen, welche die Manipulation des Films aufwirft, vor allem folgende Punkte:

  • Wer trägt die Verantwortung für die überhöhte Geschwindigkeit? Zum Zeitpunkt des Unfalls war das Fahrzeug nach Angaben der Polizei mit einer Geschwindigkeit von 64 Kilometern pro Stunde unterwegs (erlaubt waren 56 km/h (35 Mph), real 64,4 (40 Mph). Diese Überschreitung muss programmiert worden sein. Es ist davon auszugehen, dass dies nicht von einem subalternen Programmierer auf eigene Kappe gemacht wurde, sondern auf Anordnung des Managements erfolgte.
  • Warum gab es keine Warnung aufgrund des offensichtlichen Ausfalls der Kollisionswarnsysteme? Bei einem solchen Fahrzeug sollten mindestens zwei, besser drei derartiger Systeme parallel in Betrieb sein, da immer mit einem Ausfall zu rechnen ist. Sobald eines davon ausfällt, muss das Fahrzeug sofort und automatisch zu einem sicheren Stillstand gebracht werden. Dazu gehören z.B. Anhalten am Straßenrand, Warnblinkanlage, automatischer Notruf an die Firmenzentrale und ggf. an die Polizei.
  • Wer hat veranlasst, dass der Volvo-eigene Notbremsassistent ausgeschaltet wurde? Dieser bremst bei erkannten Hindernissen selbstständig ab [VOSI] und hätte dazu beitragen können, den Unfall zu vermeiden oder zumindest seine Folgen zu mindern.
  • Wieso durften Uber-Fahrzeuge überhaupt bei Nacht verkehren, wenn laut dem SpiegelOnline-Artikel das Lidarsystem bereits früher Probleme bei Dunkelheit hatte? Wer trägt die Verantwortung dafür, dass ein offensichtlich bereits früher als fehleranfällig aufgefallenes System nicht sofort und dauerhaft von der Straße genommen wurde, bis es mit dem erforderlichen Mindestmaß an Zuverlässigkeit funktioniert? Menschen dürfen nicht als Versuchskarnickel für unsichere Technologie missbraucht werden. Kein Pharmakonzern darf ein Medikament verkaufen, das nicht umfassende und extrem strenge Versuchsreihen erfolgreich absolviert hat. Das Gleiche sollte auch für Google und Uber gelten.

Angesichts dieser Gesamtumstände kann man die sonstigen Ablenkungsmanöver der Polizei, die das Opfer als „vermutlich obdachlos“ bezeichnete und sich zu der Behauptung verstieg, dass weniger passieren würde, wenn man die Zebrastreifen benutzen würde, nur als zynisch bezeichnen.

Die Gier nach dem ganz großen Profit…

Um die Hintergründe des Vorfalls zu verstehen, muss man wissen, dass sich große IT-Konzerne – wie Alphabet/Google mit Uber und Waymo, NVidia oder Qualcomm – sowie diverse Autohersteller derzeit ein wildes Match um den erhofften künftigen Markt der selbstfahrenden Autos liefern. Sie haben gesehen, wie mit der Idee der „Klimarettung“ gigantische Summen – die Billionengrenze ist inzwischen weit überschritten – in bestimmte Märkte gelenkt werden können. Ähnliches erhofft man sich von den sogenannten „selbstfahrenden“ Autos. Die Politik ermuntert dies nach Kräften, wie das Beispiel Deutschlands beweist. Schließlich ist dessen politische Führung bereit, sogar die eigene Autoindustrie zu zerstören, siehe die aktuelle Anti-Diesel-Kampagne. Ziel ist es, die Hersteller vom Verbrenner abzubringen und zur bedingungslosen Unterwerfung unter die Kanzlerinnenvision vom selbstfahrenden Auto zu „motivieren“, Bild 10.

Bild 10. Aus einem Bericht der „Welt“ über einen Vortrag von Bundeskanzlerin Merkel vor deutschen Studenten in Argentinien [WEME]
Nachrichtenfetzen in zahlreichen Börsenzeitschriften und Blogs lassen erkennen, was sich im Markt der künftigen „selbstfahrenden“ Autos derzeit abspielt. Beflügelt von den aktuellen politischen Signalen liefern sich insgesamt rund 20 „Elefanten“ ein erbittertes Wettrennen um die Führungsposition. Software- und Chiphersteller wetteifern mit allen Mitteln darum, wer sich als Technologieführer durchsetzen kann. Der Gewinner kann mit sagenhaften Gewinnen rechnen, den Verlierern droht der Absturz in die Bedeutungslosigkeit. Die Nase vorn hat derjenige, der am schnellsten den Markt mit seinen Ergebnissen überzeugen kann. Wichtig sind Kennziffern wie die Zahl der fahrerlos zurückgelegten Kilometer, (geringe) Anzahl der Unfälle und niedrige Quote der Zahl der erforderlichen Eingriffe durch Sicherheitsfahrer. Der Mitteleinsatz ist enorm: Firmen wie Uber oder Waymo kaufen teure Limousinen von z.B. Volvo oder Jaguar in Paketen a 10.000 oder 20.000. Mit hohen Summen für Niederlassungen und Errichtung von Fabriken lockt man auch jene US-Bundesstaaten, die bei der Zulassung solcher Fahrzeuge Sicherheitsbedenken „ein wenig“ weiter zurückstellen als andere.

Dies bildet auch den Hintergrund für den Vorfall in Arizona. Man hat bei Uber offensichtlich versucht, schnellstmöglich möglichst viele „ereignisfreie“ Kilometer abzuspulen. Als geeignet erschienen Nachtfahrten mit überhöhter Geschwindigkeit auf leeren Straßen, auf denen kein anderer Verkehr stört. Auf den Biorhythmus der Fahrer, die um halb vier Uhr morgens am Tiefpunkt ihrer Fähigkeiten angekommen sind, wurde dabei keine Rücksicht genommen. Ebensowenig auch auf Fußgänger wie die Ehefrau und Mutter einer Tochter Elaine Herzberg. Übermüdete Menschen verhalten sich um derartige Uhrzeiten manchmal äußerst unlogisch. Viele Sicherheitsbeauftragte in einem großen dreischichtig arbeitenden Industriebetrieb haben ein abendfüllendes Repertoire an Anekdoten, was zwischen Mitternacht und fünf Uhr morgens in ihren Unternehmen schon so alles an haarsträubenden Dingen vorgefallen ist und wie oft pures Glück Schlimmeres verhindert hat.

dürfte noch weitere Menschenleben fordern

Eine lesenswerte Analyse der Situation hat Raul Rojas, Informatikprofessor an der FU Berlin, in einem Interview mit SpiegelOnline am 23.03.2018 geliefert [ROJA]. Er zieht aus dem Vorfall unter anderem folgende Schlüsse:

  • „Aus dem Video, das die Polizei von Tempe veröffentlicht hat, wird klar, dass das Auto die Fußgängerin gar nicht erkannt hat. Der Wagen fährt ungebremst weiter, auch als die Frau im Bild erscheint“
  • „Selbst wenn das Lidar ausgefallen war, hätte der Computer allein aufgrund der Daten aus dem Videosystem bremsen müssen, und das ist nicht passiert. Ich gehe davon aus, dass das System zusammengebrochen war. Die Eingangsdaten waren zwar vorhanden, wurden aber vom Computer nicht ausgewertet“
  • „Die Programmierung hat versagt. Ich nehme an, dass die Sensoren alle aktiv waren, aber die Software die Daten nicht verarbeitet hat und das Auto deshalb nicht einmal versucht, abzubremsen“
  • „Es müssen Redundanzketten wie in der Luftfahrt eingebaut werden, das heißt, es muss immer ein System geben, das im Notfall übernehmen kann. In der Luftfahrt ist das Standard, bei autonomen Autos ist das entscheidend, um die Sicherheit zu garantieren, die Leute sind ja irgendwann nur noch Passagiere“

Prof. Rojas sieht die Schuld eindeutig bei Fa. Uber, die er als „Disruptionsfirma“ charakterisiert, Bild 11.

Bild 11. Aus Sicht von Prof. Rojas liegt die Schuld am Vorfall eindeutig bei der Firma Uber [ROJA]
Allerdings wären zusätzlich noch drei weitere Tatbeteiligte zu nennen. Das sind zum einen die Regierungen von US-Bundesstaaten wie Arizona, die bereit sind, ihre Bürger als Versuchskaninchen für derartige Windhunde zur Verfügung zu stellen. Dann die mit ihnen offenkundig kooperierenden Polizeibehörden. Jedem US-Sheriff, der heute standardmäßig mit Dashcams und ihren Bildern vertraut ist, hätte die unterirdische Qualität des Uber-Materials sofort ins Auge springen müssen. Die Polizeichefin Sylvia Moir gehörte von Rechts wegen eigentlich vor einen Untersuchungsausschuss. Allerdings ist man in solchen Dingen von US-Polizeibehörden ja schon einiges gewohnt. Und last but not least tragen die Verantwortung auch gewisse Politiker, die durch ihre realitätsfernen Visionen überhaupt erst das Goldfieber hervorgerufen haben, das solche Geschäftemacher wie Uber auf den Plan gerufen hat.

Ausblick

Die Visionen vom emissionsfreien (batterieelektrischen) Verkehr und die vom autonomen Fahren stammen aus dem gleichen politischen Umfeld wie die Klimahysterie und die „Dekarbonisierung der Volkswirtschaft“ nebst der Vorstellung, moderne Industrienationen mit Sonne und Windenergie betreiben zu können. Sie haben es geschafft, in ungeheurem Umfang Ressourcen für ihre Vorstellungen zu mobilisieren. Das hat entsprechende Goldgräber auf den Plan gerufen. Manche Firmen versprechen den Einstieg ins autonome Fahren bereits im laufenden Jahr, andere erwarten dies erst in den 2030er Jahren. Das, was bisher gezeigt wurde, entspricht zumeist Wunschdenken, und es wird vermutlich noch etliche Tote geben, wenn diese unausgereiften Systeme auf die Straßen losgelassen werden. Wann soll ein solches System beispielsweise imstande sein, Haltsignale eines nicht uniformierten Passanten richtig zu interpretieren, der vor einer abgerutschten Böschung hinter einer Biegung warnen will? Die zureichende Bewältigung der Mobilitätsanforderungen einer modernen Gesellschaft oder gar unseres Warenwirtschaftsverkehrs scheint im Moment – falls überhaupt jemals realisierbar – noch in weiter Ferne zu liegen.

Vordringlich sollte man darauf dringen, jeglichen Missbrauch der Bevölkerung als Versuchskaninchen für völlig unausgereifte Konzepte zu verhindern. Einige Leute in den USA gehören sicherlich vor den Kadi, und die Strafen sollten sich vom Mindestmaß her an dem orientieren, was man dort für den „kleinen Fisch“ der VW-Affäre, den deutschen VW-Mitarbeiter Oliver Schmidt, für angemessen hielt.

Fred F. Mueller

Quellen

[KROE] http://www.spiegel.de/auto/aktuell/uber-unfall-mit-roboterauto-computer-sind-trotzdem-die-besseren-fahrer-a-1199025.html

[MARK] https://www.dvr.de/publikationen/schriftenreihe/17-leitfaden-fahrbahnmarkierung/

[ROJA] http://www.spiegel.de/auto/aktuell/uber-unfall-die-software-war-laut-fu-berlin-professor-schuld-a-1199607.html

[SPIE] http://www.spiegel.de/auto/aktuell/toedlicher-uber-unfall-polizei-veroeffentlicht-unfallvideo-a-1199373.html

[VIDE] www.Topsvid.com

[VERGL] https://img1.picload.org/image/dacpdoll/screenshot386.png

[VOLVO] http://ipaper.ipapercms.dk/Volvocars/CH/XC90CHde/?page=22

[VOSI] http://www.spiegel.de/auto/aktuell/uber-standardsoftware-des-volvo-haette-fussgaengerin-entdeckt-a-1200349.html




Deutsche Umwelthilfe will gegen weitere Städte vor Gericht ziehen

Die Deutsche Umwelthilfe (DUH) macht weiter. Der Abmahnverein hat in der vergangenen Woche elf weitere Städte wegen nicht eingehaltener EU-Grenzwerte für saubere Luft verklagt. Dieser will laut DUH-Pressemeldung »saubere Luft« in den deutschen Städten mit angeblich besonders hoch belasteter Luft durchsetzen. Jetzt klagt der Verein also gegen Dortmund, Bochum, Düren, Paderborn, Offenbach, Heilbronn, Ludwigsburg, Backnang, Esslingen, Marbach und Reutlingen.

Damit erhöht sich die Gesamtzahl der DUH-Klagen wegen der angeblich zu hohen Belastung der Luft auf 28. Die DUH begründet diese neue Klagewelle mit purer Polemik: »Die Einhaltung der Grenzwerte ist nur möglich durch eine rasche Umsetzung kurzfristig wirksamer Maßnahmen wie Fahrverbote für schmutzige Diesel-Fahrzeuge. Die schmutzigen Diesel-Pkw tragen wesentlich zu mehr als 800.000 jährlichen Neuerkrankungen an Diabetes und Asthma sowie knapp 13.000 vorzeitigen Todesfällen bei, verursacht durch die anhaltende Belastung der Atemluft mit dem Dieselgift NO2.«

Formale Grundlagen sind die extrem niedrigen Luft-Grenzwerte, die die EU festgelegt hat. Die sind jedoch durch keine wissenschaftlichen Belege begründet, sondern frei ausgehandelt worden, mit dem »Dartpfeil« ausgeworfen, wie ein Teilnehmer dieser entscheidenden Sitzungen berichtete. Über das Zustandekommen berichteten wir schon mehrfach.Einen entscheidenden Satz hatte das Bundesverwaltungsgericht in Leipzig Ende Februar hinzugefügt. Das hatte bekanntlich gesagt, dass Diesel-Fahrverbote als letztes Mittel und mit bestimmten Einschränkungen zulässig seien. Doch müsse die Verhältnismäßigkeit gewahrt bleiben. Ein Satz mit Interpretationsspielraum.

Die Deutsche Umwelthilfe verkündet jetzt ziemlich lautstark und selbstherrlich, dass Behörden und Politik auch nach dem Leipziger Urteil die notwendigen Maßnahmen verweigerten. Anfang März habe die DUH insgesamt 40 Städte angeschrieben. Deren Antworten zeigten, dass immer noch nahezu alle die notwendigen Schritte scheuten. Deshalb habe sich die Deutsche Umwelthilfe zu den neuerlichen Klagen entschieden.

Ob das die Bürger so wollen, hat Jürgen Resch nicht gefragt. Würde die DUH ihre vielen Fahrten einstellen, würde der Umwelt viel CO2 und NO2 erspart.

Die DUH kehrt noch einmal die alten Sprüche zusammen und lässt fast nichts an Spruchblasen aus: »Schlechte Luftqualität erhöht das Risiko für Herz-Kreislauf- und Atemwegserkrankungen sowie Krebs. Diese gesundheitlichen Schäden verursachen volkswirtschaftliche kosten zwischen 330 und 940 Milliarden Euro.« Wie die Zahlen zusammenkommen, spielt da keine Rolle mehr. Hauptsache laut.Es klingt auch nach verzweifelten Kämpfen der DUH, die Spendeneinbrüche verkraften zu müssen scheint. Außerdem kosten die massiven Klagewellen erst einmal Geld; Autohersteller haben Streitwerte in verschiedenen Unterlassungsklagen schon mal auf eine Million Euro angesetzt, hohe Summen im Falle des Prozessverlustes für den Abmahnverein. Für die einzelnen Unternehmen geht es um viel, aber auch für Autobesitzer geht es um Milliardensummen. Das zieht auch international tätige Anwälte an.

Aufhorchen lässt ein kleiner Nebensatz in der Presseerklärung der DUH, die übrigens seit 2010 von der ClimateWorks Foundation (dahinter wiederum stehen mehrere amerikanische Milliardäre und die Ford Foundation) mit vier Millionen Dollar mitfinanziert werden:

»Fünf dieser Klagen (von elf gegen deutsche Städte, Anm. Red.) werden von der internationalen Nichtregierungsorganisation ClientEarth unterstützt.«

ClientEarth – das ist eine jener international aktiven NGOs, die unter der Fahne des Umweltschutzes schon mal in ambitioniertem Ton BP und Glencore davor warnen, dass Investoren Klimaklagen gegen die Unternehmen anzetteln könnten. Nicht gerade dezent verkünden sie:

»Die Anwältinnen und Anwälte der Organisation ClientEarth haben an BP und Glencore geschrieben und werfen den fossilen Giganten vor, ihre Investoren mit viel zu optimistischen Vorhersagen zur zukünftigen Nachfrage nach Erdöl und Kohle hinter’s Licht zu führen. Beide Konzerne haben nachweislich Studien veröffentlicht, deren Szenarien für die zukünfige Nachfrage nach fossilen Brennstoffen weit über das hinausgeht, was allgemein von Expertinnen und Experten angenommen wird. Und sie liegen auch weit über den Annahmen, die ihre Konkurrenten veröffentlichen.«

Sie setzen derzeit auch Großbritanniens Premierministerin Theresa May zu. Thornton fordert unverblümt von May und ihrem Kabinett, den Umweltschutz in den Mittelpunkt ihrer Politik zu stellen. Das müsse auch bedeuten, den Handel mit Ländern einzustellen, die sich nicht angemessen an internationale Vereinbarungen beteiligen. Er will auch Klagerechte großer Unternehmen gegen Regierungen aufgrund zum Beispiel zu scharfer Umweltregelungen einschränken. Im Interesse der guten Sache natürlich und des Überlebens der Menschheit.Thornton sieht sich in der Rolle des Wachhundes (»genug Bellen und genug Biss haben«) und meint, dass ein Dieselverbot der Automobilindustrie ein klares Signal geben würde, so schnell wie möglich auf saubere Verkehrsmittel umzusteigen.
Worte, wie sie auch DUH Chef Resch nacherzählt. Der wird mit Sicherheit auch unter heftigen Druck gesetzt, auch in Deutschland mehr Randale zu machen. Die Investitionen der ClimateWorks Foundation und ihrer Hintermänner und -Frauen müssen sich schließlich lohnen.

James Thornton selbst ist ein ehemaliger Anwalt der Wall Street in Yale. Mit Dollarzeichen in den Augen und Sendungsbewusstsein hat er »sich entschieden, einen juristischen Aktivismus nach amerikanischem Vorbild nach Europa zu bringen.« Der New Statesman bezeichnete den demokratisch durch nichts legitimierten radikalen Anwalt und NGO-CEO als »einen von zehn Menschen, die die Welt ändern könnten«.

Thornton, der 2009 in Los Angeles zum Zen-Priester geweiht wurde und von einer »grünen Vision der buddhistischen Gebote« beseelt ist, hat außerdem ein Buch über einen Anwalt geschrieben, der Menschen verteidigt, die von gentechnisch verändertem Mais schizophren werden.

Sein erklärtes Ziel: Die europäische Lobbylandschaft aufzumischen und mit Hilfe von öffentlichen Protesten auch Regierungswechsel zu erzwingen.
Thornton: »Als ich nach Europa kam, dachte ich, ich werde Umweltrecht in einer der großen NGOs praktizieren.«Denn das ist für einen echten New Yorker Anwalt alles zu lahm und schwach. Da ist mehr Musik drin.Thornton gründete ClientEarth 2007. Verschiedene Unterstützer stellten im Jahr 2015 6,6 Millionen Pfund zur Verfügung, darunter von der McIntosh Foundation in den USA, der niederländischen Adessium Foundation und der European Climate Foundation sowie einer Gruppe von 13 weiteren undurchsichtigen Stiftungen mit verborgenen wirtschaftlichen Interessen.

Etwa 60 Anwälte von ClientEarth in London, Brüssel und Warschau attackieren europäische Regierungen aufgrund ihrer angeblich zu miesen Ergebnisse in Sachen Luftverschmutzung, Chemikalienvorschriften und Transparenz. Erwerbsarbeit geht ihnen nicht aus: »Wir werden noch Jahre mit illegaler Luftqualität konfrontiert sein«, sagte James Thornton.

ClientEarth und eine Gruppe weiterer NGOs steckten auch dahinter, als der Europäische Gerichtshof 2016 entschied, dass sensible Studien im Zusammenhang mit der Zulassung von Glyphosat und anderen Pestiziden veröffentlicht werden müssen. Für die chemische Industrie Grund zur Panik, weil dabei ein Teil ihrer Geschäftsgeheimnisse öffentlich wurde. So können Konkurrenten munter auf deren Daten zugreifen.

Umwelt-NGOs in Europa hätten »viel mehr Macht, die ihnen zur Verfügung stünde«, über die sie bisher noch nicht verfügt hätten. »Mit einer besseren Strategie in der Anwendung der Gesetze könnten sie das tun.«

Klimaklagen – das ist der Kampfbegriff der modernen Gesellschaft, um andere wirtschaftliche Ziele durchzusetzen. Das Unsinnswort von der »Klimagerechtigkeit« verunstaltet den öffentlichen Raum. Mittlerweile ist das Schreckgespenst »Klimakatastrophe« offenbar hinreichend hochgepuscht, sind Grenzwerte in den Gesetzgebungen entsprechend etabliert, dass mit ihnen Machtpolitik gemacht werden kann und Geld, viel Geld.Und, nein, Fragen der Gesundheit spielen keine Rolle. Da winken fette Geschäfte. Verkäufer von Elektro-Vehikeln stehen schon Gewehr bei Fuß, malen die Diesel-Zukunft so schwarz wie möglich und preisen neue Geschäftsmöglichkeiten an.

»While the decision in Germany is focussed on local air quality and the fact that diesel engines produce relatively high levels of nitrogen oxides, they also produce relatively low levels of the greenhouse gas carbon dioxide. Controlling one environmen-tal concern, therefore, may have actually ended up undermining ef-forts to combat another. It could also provide a boost for electric vehicles (EVs), which produce low or zero direct emissi-ons of both nitrogen oxides and carbon dioxide.

This is a trend that we see continuing, and Osborne Clarke is currently advising a number of businesses in relation to the deployment of EVs and associated infrastructure, from an environ-mental, charging and utilities point of view. If you would like to speak to us about EVs, please contact Simon Spooner or your usual Osborne Clarke contact.«

»Investieren Sie hier! Hier liegen Sie für die Zukunft richtig! Wir finden neue Lösungen für eine sich ändernde Welt!«

Deutschland ist im Würgegriff der NGOs gefangen, die offensichtlich auch von Interessensgruppen und Konkurrenten bezahlt werden, mit der DUH als Einfallstor für internationale Organisationen, die niemand kontrolliert.

Wir kommen immer mehr jenem Horrorgemälde näher, das Michael Crichton in »Welt in Angst« so genau recherchiert gezeichnet hat.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Nächste Pleite: ,Globale‘ Rekon­struktion PAGES 2K kann den ,Hockey­schläger‘ nicht bestätigen

Die Befürworter erachteten das willkürliche Zusammenfügen von Proxy-Temperaturdaten aus 7 Landgebieten als wissenschaftliche Bestätigung der berüchtigten Temperatur-Rekonstruktion nach Art eines Hockeyschlägers, welche mit viel Tamtam von Michael Mann und dem IPCC (im 3. Zustandsbericht) Anfang dieses Jahrtausends verkündet wurde.

Bild übernommen aus PAGES 2k, 2015

Die New York Times brachte seit der Veröffentlichung ein Interview nach dem anderen mit den Leitautoren der Studie. Während dabei unablässig das Besondere der modernen Warmzeit hervorgehoben wurde, räumten die Autoren ein, dass „die Temperaturen in einigen Gebieten in der Vergangenheit höher lagen als am Ende des 20. Jahrhunderts“.

In Europa wurden etwas höhere Temperaturen während der Jahre 741 bis 770 verzeichnet, und das Intervall der Jahre von 21 bis 80 n. Chr. war substantiell wärmer als der Zeitraum von 1971 bis 2000“.

In der Antarktis war es möglicherweise noch im Zeitraum 1671 bis 1700 wärmer als von 1971 bis 2000, und während der gesamten Periode von 141 bis 1250 war es wärmer als von 1971 bis 2000“.

Nach der Korrektur „mehrerer Fehler“ (mehr dazu weiter unten) in der Rekonstruktion der Arktis wurden die Jahrzehnte von 1971 bis 2000 nur als die drittwärmsten in den Aufzeichnungen erachtet, während die drei Jahrzehnte um das Jahr 400 die wärmsten waren.

Nach diesen Korrekturen stellte sich der Zeitraum von 1941 bis 1970 als die zweitwärmste 30-Jahre-Periode in der Aufzeichnung aus der Arktis heraus, und der 30-Jahre-Zeitraum von 1971 bis 2000 steht an dritter Stelle anstatt an erster und zweiter Stelle, wie es noch in der Originalversion hieß. Die Rangordnung der Best Estimates der Temperatur zeigt, dass sich der wärmste 30-Jahre-Zeitraum um das Jahr 395 konzentriert“ (PAGES 2k, 2015).

Betrachtet man die ergänzenden Daten und vergleicht man die PAGES 2K-Rekonstruktionen mit anderen grundlegenden Zusammenstellungen, scheint es keineswegs eine ganze Reihe von ungewöhnlichen oder außerordentlichen Charakteristiken hinsichtlich der Temperaturen im 20. Jahrhundert gegeben zu haben, jedenfalls nicht relativ zum Beginn des 2. Jahrtausends und früher (zumindest in den wenigen Aufzeichnungen, die so weit zurück reichen).

Graphiken: PAGES 2k Consortium, Supplementary

Ist dies wirklich eine globale 2000-Jahre-Rekonstruktion?

In die PAGES 2K-Temperaturrekonstruktion gehen Proxydaten aus 7 Landgebieten ein, jedoch ist der gesamte Kontinent Afrika nicht vertreten (ebensowenig wie die 71% der Erdoberfläche bedeckenden Ozeane Eingang in diese „globale“ Aufzeichnung fanden).

Obwohl der Anspruch des globalen Maßstabs stark kritisiert wurde, analysierte die 2000-Jahre-Rekonstruktion nur zwei der 7 Regionen, nämlich die Arktis und Europa, über die gesamte Periode vom Jahre 0 bis zum Jahr 2000.

Die Antarktis wird erst ab dem Jahr 167 repräsentiert, Asien ab dem Jahr 800, Südamerika ab dem Jahr 857. Die Proxydaten aus Nordamerika beginnen im Jahre 1204 und enden im Jahre 1974 (Baumringe) sowie vom Jahr 480 bis 1950 (Pollen). Australien und Asien sind ab dem Jahr 1001 vertreten.

Steve McIntyre entdeckt ,zahlreiche Fehler‘, welche die Arktis 2K korrumpieren; einige davon wurden im Jahre 2014 korrigiert.

Steve McIntyre, bekannt für seine vernichtende Kritik der fragwürdigen Verfahren der Datensammlung bei der Konstruktion der „Hockeyschläger“-Graphik, identifizierte auch jetzt wieder zahlreiche verdächtige „Fehler“ im Datensatz der Arktis. Er nahm dazu auf seinem Blog hier Stellung:

Kaufmans Proxys sind mit zahlreichen Fehlern befrachtet. Kaufman hat bereits eingeräumt, dass eine seiner Super-Aufzeichnungen (Igaliku) durch moderne Landwirtschaft kontaminiert und dass eine andere Aufzeichnung (Hvitarvatn) verkehrt herum dargestellt worden war.

Viele Reihen, von denen man dachte, dass sie Temperaturproxies noch bis zum Jahr 2013 seien, wurden im August 2014 entfernt als keine ‚Temperaturproxies‘ mehr. Aus unbekannten Gründen eliminierte Kaufman nicht die gesamte Kontaminierung aus der Igaliku-Reihe, und seine Inversion der Hvitarvatn-Reihe weist zahlreiche Inkonsistenzen mit anderen Reihen auf“.

Die Autoren von PAGES 2K berichteten, dass diese „vielen Fehler“ in der nachfolgenden Publikation „entdeckt“ worden waren. Eine Liste von 5 dieser Fehler wurde in einer „Korrektur“-Studie erwähnt.

Hier präsentieren wir eine regionale Temperaturrekonstruktion für das Gebiet der Arktis, welche eine Überarbeitung der jüngst durch das PAGES 2K-Konsortium erstellten Rekonstruktion darstellt. Die Revision enthält aktualisierte Aufzeichnungen unter Einbeziehung veröffentlichter Studien aus jüngerer Zeit von drei Stellen, sowie die Korrektur zahlreicher Fehler, welche in der folgenden Publikation des Artikels des PAGES 2K-Konsortiums entdeckt worden waren. … 1) Drei Aufzeichnungen wurden gelöscht wegen unzureichender Beweise, dass sie sensitiv gegenüber der Temperatur sind. 2) Abschnitte von fünf Aufzeichnungen, welche als das von den Autoren aufgestellte Kriterium 5 verletzend interpretiert wurden, wurden gelöscht. 3) Die interpretierte Temperatur-Relation der Hvitarvatn-Reihe wurde von positiv nach negativ korrigiert (von Erwärmung zu Abkühlung). 4) Ein 50 Jahre langer Zeitraum in der Reihe vom Lone Spruce Pond wurde korrigiert. 5) die Koordinaten der Baumring-Rekonstruktion vom Copper River wurden korrigiert (McKay and Kaufman, 2014).

Komischerweise scheinen die korrumpierten und von Fehlern durchsetzten Daten im 2K-Datensatz aus der Arktis in nur eine und eine einzige Richtung gehen: Sie machten die Vergangenheit kälter und die Gegenwart wärmer.

Die Wahrscheinlichkeit einer langen Reihe ungezwungener Fehler, die konsistent nur ein Vorzeichen für eine Periode aufweisen (das 1. Jahrtausend) und genauso konsequent das entgegen gesetzte Vorzeichen (Erwärmung) für eine andere Periode (das 2. Jahrtausend), ist extrem gering. Und doch war es dazu gekommen.

Graphik aus McKay and Kaufman, 2014

Nach Korrekturen an der ursprünglich fehlerhaften und korrumpierten PAGES 2K-Rekonstruktion stellte sich ein großer Teil des gesamten 1. Jahrtausends als genauso warm (wenn nicht in einigen Jahrzehnten noch wärmer) als das 20. Jahrhundert heraus. Die korrigierte arktische Rekonstruktion (rot) sah im Jahre 2014 so aus, wobei die korrumpierten (schwarzen) Daten entfernt worden waren:

Man beachte, dass die gesamte oder fast die gesamte Erwärmung der Arktis von Ende des 19. Jahrhunderts bis in die vierziger Jahre des vorigen Jahrhunderts erfolgte ohne jede Gesamt-Änderung (sogar Abkühlung) seit den vierziger Jahren bis zum Jahr 2000. Dies ist konsistent mit den instrumentellen Aufzeichnungen (Hanhijarvi et al., 2013; HadCRUT4 via  Climate4You).

Berichtigungen werden veröffentlicht, jedoch erst 2½ Jahre später

Es zog sich bis Ende des Jahres 2015 hin, bis die PAGES 2K-Autoren endlich eine Liste mit Berichtigungen ihrer mit Fehlern durchsetzten, im Jahre 2013 veröffentlichten Graphik der „globalen“ Rekonstruktion aufwarteten. Dr. Steve McIntyre wurde als derjenige genannt, der die „vielen Fehler entdeckt“ hatte.

In der den Hockeyschläger favorisierenden Blogosphäre wurde die korrigierte Version der „globalen“ Temperatur in den Berichtigungen allgemein ignoriert. Man bevorzugte die fehlerhafte Graphik aus dem Jahr 2013, welche während der letzten Jahrzehnte mehr Erwärmung und während des ersten Jahrtausends weniger Erwärmung zeigte.

Wie zuvor wurde das obligatorische Blatt des „Hockeyschlägers“ zum Ende des 20. Jahrhunderts tendenziös der Aufzeichnung hinzugefügt, um dieses als außerordentlich erscheinen zu lassen.

Bild: PAGES 2k, 2015

Sichtbare Paradigma-Verschiebung: Die Abkühlung ist anomal – die Warmzeit der Moderne eine Rückkehr zu normal

Wie schon erwähnt war der Grund, das Blatt des „Hockeyschlägers“ der partiell korrigierten „globalen“ PAGES 2K-Aufzeichnung hinzuzufügen, den Betrachter visuell davon zu überzeugen, dass die Moderne anomal und ungewöhnlich ist.

Aber wenn wir die in PAGES 2K gezeigten Daten aus allen 7 Regionen aus einem anderen Blickwinkel betrachten, ergibt sich ein anderes Bild. In diesem erscheinen die Temperaturen der Moderne als die Norm, während die Kaltperiode von Mitte des 14. bis Anfang des 20. Jahrhunderts als die Ausnahme auftreten. Die Wärme des 20. Jahrhunderts ist lediglich die Rückkehr zu den Normaltemperaturen, welche das Holozän kennzeichnen.

Bild aus PAGES 2k, 2015

Die anomal kalten Jahre können als noch ungewöhnlicher dargestellt werden, wenn die simulierten Temperaturen der Aufzeichnungen nach dem Jahr 2000 hinzugefügt werden.

Diese gleiche Darstellung kann auch in den regionalen Rekonstruktionen identifiziert werden. Der abrupte Erwärmungstrend in der Arktis von 1880 bis 1940 (und die nachfolgende Nicht-Erwärmung) erreichten Amplituden, die vergleichbar sind mit Holozän-Perioden der Vergangenheit.

Unter dem Strich: klimatisch hat sich nichts Ungewöhnliches während der letzten 150 Jahre ereignet, jedenfalls im Vergleich der letzten beiden Jahrtausende.

Die Normal-Temperaturen zum Ende des Holozäns haben sich glücklicherweise wieder eingestellt.

Link: http://notrickszone.com/2018/03/29/another-bust-pages-2k-global-reconstruction-fails-to-confirm-the-hockey-stick/#sthash.GEFk1Ty2.dpbs