1

Hitzefrei?

Es  ist Hochsommer und die Hundstage machen ihrem Namen alle Ehre. Es wird auch in Zukunft sehr heiße Sommer wie auch sehr kalte Winter geben. Manche sagen, öfter als heute. Aber computergestützte Prognosen sind keine mathematisch geführten Beweise. Die Aussage eines führenden Klimawissenschaftlers aus dem  Jahr 2000, Winter mit viel Schnee und starkem Frost werde es in Mitteleuropa nicht mehr geben, erwies sich jedenfalls als nicht belastbar.

Grundsätzlich gibt es zwei Varianten, mit steigenden Temperaturen umzugehen. Man kann der These des menschengemachten Klimawandels folgen und Emissionen senken. Gelänge es, alle 800 Millionen Tonnen deutscher anthropogener CO2-Emissionen kurzfristig zu vermeiden, wäre diese Menge nach zwei Jahren durch den Emissionsanstieg Chinas überkompensiert. Eine Verringerung des Treibhauseffekts mit folgender Begrenzung des globalen Temperaturanstiegs ist so nicht zu erreichen, stellt aber derzeit deutsche Staatsraison dar.

Ein zweiter Weg wäre, sich auf den Klimawandel einzustellen und sein Energiesystem wetterfest zu machen. Hier geht Deutschland den entgegengesetzten Weg und macht das System durch immer mehr Naturenergie wetterabhängiger.

In diesen heißen Tagen nehmen unsere Windkraftanlagen, vorgeblich die „Säule“ der Energiewende, auf Grund niedriger Luftdruckunterschiede etwas Hitzefrei:

Zwischen dem 23. Und 26. Juli schwankte die Windeinspeisung zwischen etwa 500 und 5.800 Megawatt (0,9 und 10,2 Prozent der installierten Leistung). Die Solarenergie schob gut rein (bis zu 28.000 Megawatt, 63 Prozent der installierten Leistung) und nachts wurden bis zu 5.000 Megawatt importiert.

Die Steinkohlekraftwerke müssen inzwischen auch der Wärme Tribut zollen. Das Steag-Kraftwerk Bergkamen, wie auch das in Wilhelmshaven (Uniper) und das Rheinhafen-Dampfkraftwerk (EnBW) müssen Leistung einsenken, da ihr Kühlwasser die Flüsse unzulässig aufheizt. Das Großkraftwerk Mannheim erwägt die Beantragung einer diesbezüglichen Ausnahmegenehmigung, es ist an diesem Netzknoten von besonderer Bedeutung. Ab 28 Grad Celsius wird allerdings ein gewässerökologisch kritischer Punkt erreicht und noch ist nicht bekannt, ob die genehmigende Behörde tote Fische anders wertet als tote Greifvögel und Fledermäuse.

Das RWE-Kraftwerk in Hamm wiederum wird eingeschränkt durch den niedrigen Wasserstand der Lippe. Die Kernkraftwerke sind derzeit noch nicht betroffen, aber für Brokdorf an der Elbe sind Einschränkungen absehbar.

Was tun die verpönten Braunkohlekraftwerke? Die fahren einfach durch und regeln wie immer, denn ihr Kühlwasser stammt aus der Grundwasserhaltung der Tagebaue und wird über Kühltürme rückgekühlt. Sie sind die Säule des Energiesystems und wir brauchen uns heute über Minderungsziele 2030, 40 oder 50 nicht zerstreiten, sondern sollten in Richtung 2023 denken, wenn alle Kernkraftwerke ihr teuflisches Werk beendet und weitere Braunkohlekraftwerke ihr Feuer gelöscht haben.

Was bis dahin passieren wird, lässt sich an der Strompreisentwicklung der letzten Wochen erahnen:

 

Die Zeiten permanenter Überkapazitäten, an die sich alle gewöhnt haben und die im Großhandel die Preise niedrig hielten, gehen dem Ende entgegen. Hoher Bedarf bei weniger Angebot lässt die Preise steigen. Das trifft vor allem große Unternehmen, die bisher bei niedrigem Börsenpreis bei gleichzeitiger Befreiung von der EEG-Umlage gut leben konnten. Wer als Erzeuger künftig zum richtigen Zeitpunkt liefern kann, wird am Markt überleben. Wer nur zufällig liefern kann, wird nicht gut verdienen, egal wie niedrig die Gestehungskosten sind.

Die entscheidenden Fragen der näheren Zukunft sind nicht die nach überstrichenen Rotorflächen, flexiblen Solarpaneelen oder der 33. Pilotanlage „Power-to-gas“, sondern wie zu jedem Zeitpunkt der Energiebedarf gedeckt werden kann.

Wer Visionen hat, muss nicht zum Arzt, sollte aber vorher schlicht die heutigen Realitäten zur Kenntnis nehmen. Heiße Sommer kommen immer wieder.

 

 

 

 

 

 

 

 

 

 

 

 




Schocker: National Geographic gibt zu, bzgl. eines Videos über einen „verhun­gernden Eisbären“ unrecht gehabt zu haben

National Geographic ist beim Zeichnen eines definitiven Zusammenhangs zwischen Klimawandel und einem einzelnen verhungernden Eisbär zu weit gegangen, und zwar in der Anfangs-Sektion unseres Videos über das Tier. Wir sagten damals „so sieht der Klimawandel aus“. Während die Wissenschaft festgestellt hat, dass es einen starken Zusammenhang gibt zwischen schmelzendem Polareis und Eisbären-Schwund, gibt es keine Möglichkeit, mit Sicherheit zu ergründen, warum dieser Bär dem Tode nah ist. Wir bringen eine aktualisierte Version des Videos.

Dr. Susan Crockford sagt in einem Beitrag:

Erinnert man sich noch an das Video eines ausgemergelten Eisbären auf Baffin Island (hier), welches im Dezember vorigen Jahres um die Welt ging? In einem unerwarteten Folgebeitrag („Starving-Polar-Bear Photographer Recalls What Went Wrong“; Ausgabe August 2018 in National Geographic) äußert die Photographin Cristina Mittermeier einige erstaunliche Eingeständnisse, welche einen krank machen können.

Es stellt sich heraus, dass sie dem sterbenden Bär nicht an dem Tag begegnet waren, an welchem sie ihn gefilmt haben. Er war vielmehr mindestens zwei Tage zuvor bereits entdeckt worden, und zwar von Paul Nicklen. Er musste ein Satelliten-Handy dabei gehabt haben, als er den Bären entdeckte, aber der einzige Anruf, den er tätigte, war einer an sein Filmteam – er machte keinen Versuch, einen Beamten des Naturparks zu finden, der den Bär hätte einschläfern können. Dabei wäre das das Richtige gewesen.

Der ausgemergelte, dem Tode nahe Zustand des Bären* war einfach zu verlockend, um ihn links liegen zu lassen (ein Video muss ,Action‘ zeigen: ein ausgemergelter toter Bär wäre nicht annähernd so effektiv gewesen). Mittermeier behauptet, dass sie beim Filmen schon wussten, dass der Bär krank oder verwundet war, aber Nicklen stellte ihn nichtsdestotrotz als ein Opfer des Klimawandels dar. Mittermeier sagt jetzt, dass National Geographic einfach „zu weit gegangen war“ mit dieser Video-Betitelung („So sieht Klimawandel aus!“) und dass sie und Nicklen „die Kontrolle des Narrativs verloren hätten“.

Was sie wirklich verloren hatten, war ihre Menschlichkeit.

* Wie ich in meinem Eisbären-Zustandsbericht (hier; Crockford 2018) beschrieben habe, kann Krebs genau die Art von Muskelschwund hervorrufen, dem dieser Eisbär zum Opfer gefallen war. Muskelschwund ist mehr als nur einfach nicht genug zu essen zu haben: vielmehr verbraucht sich der Körper selbst. Er zieht sämtliche Energiereserven heran, um die Krankheit zu bekämpfen zu versuchen.

Hier folgen einige Auszüge (Hervorhebungen von mir {Watts}):

Der Photograf Paul Nicklen und ich folgten einer Mission, um Bilder zu erhaschen, welche die Dringlichkeit des Klimawandels belegen. Die Dokumentation von dessen Auswirkungen auf Flora und Fauna war nicht einfach. Mit diesem Bild dachten wir einen Weg gefunden zu haben, den Menschen eine Vorstellung davon nahe zu bringen, wie die Zukunft des Klimawandels aussehen könnte. Vielleicht waren wir naiv. Das Bild ging um die Welt – und die Leute nahmen es als absolute Wahrheit.

Paul entdeckte den Bären vor einem Jahr auf einer Erkundungsreise zu einer isolierten kleinen Bucht auf Somerset Island in der kanadischen Arktis (August 2017). Er forderte mich sofort auf, unser SeaLegacy SeaSwat Team zusammen zu rufen. Die Organisation SeaLegacy, welche wir im Jahre 2014 ins Leben riefen, verwendet Fotos, um die Botschaft der Erhaltung der Ozeane zu verbreiten. Das SeaSweat-Team ist eine einsetzbare Einheit von Geschichtenerzählern, welche sich über dringende Angelegenheiten auslassen. Am Tag nach seinem Anruf flog unser Team zu einem Dorf der Inuit an der Resolute Bay. Wir wussten nicht sicher, ob wir den Bären dort finden würden oder ob er noch am Leben war.

Erst als er seinen Kopf hob, konnten wir ihn am Boden liegend entdecken. Er lag da wie ein ausrangierter Teppich, nahezu leblos. Seiner Körperform nach musste es sich um ein großes männliches Tier handeln.

Wir mussten näher heran. Dazu stiegen wir in ein Motorboot und fuhren hin. Starke Winde und Gerüche umwaberten uns. Aus dem Schutz von einem der leerstehenden Gebäude heraus beobachteten wir den Bären. Fast eine Stunde lang bewegte er sich nicht. Als er endlich aufstand, musste ich den Atem anhalten. Paul hatte mich bezüglich des Zustandes des Bären gewarnt, aber nichts hätte mich auf das vorbereiten können, was ich sah. Das einst weiße Fell des Bären war gemausert und schmutzig. Seine einst respektable Gestalt bestand nur noch aus Haut und Knochen. Jeder seiner Schritte war langsam und von Schmerzen gezeichnet. Wir merkten, dass er krank oder verwundet war und dass er hungerte. Wir konnten sehen, dass er vermutlich seine letzten Tage erlebte.

Ich machte die Fotos, und Paul drehte das Video.

Als Paul das Video auf Instagram postete, schrieb er: „So sieht Verhungern aus“. Er verwies auf den Verdacht von Wissenschaftlern, dass Eisbären im nächsten Jahrhundert aussterben würden und fragte sich, ob die globale Population von 25.000 Eisbären auf die gleiche Art und Weise zugrunde gehen würde wie dieser Bär hier…

National Geographic übernahm das Video und fügte Untertitel hinzu. Es wurde zum meistgesehenen Video auf der Website von National Geographic – jemals. … Die Mission war ein Erfolg, aber es ergab sich ein Problem: Wir hatten die Kontrolle über das Narrativ verloren. In der ersten Zeile des Videos hatte National Geographic geschrieben: „So sieht Klimawandel aus“, wobei der Terminus „Klimawandel“ im grellen Gelb des Journals erschien. Rückschauend ist National Geographic hiermit zu weit gegangen.

Vielleicht haben wir einen Fehler gemacht, als wir nicht die ganze Story erzählten – dass wir nach einem Bild suchten, welches in die Zukunft weisen würde.

Wir hatten ein herzzerreißendes Bild in die Welt gesetzt. Wir hätten vielleicht nicht überrascht sein sollen, dass die Menschen nicht die Nuancen erkannt haben, welche wir damit aussenden wollten. Dennoch waren wir über die Reaktion geschockt.

Der Rest steht hier.

Was sind das für Menschen, die tagelang herumsitzen in dem Wissen, dass ein Tier einem qualvollen, langsamen Tod entgegen geht, und nichts anderes zu tun haben als zu planen, wie man dieses leidende Tier ausschlachten könne, um Geld zu machen? Es sind gefühllose und arrogante Menschen.

Nicht nur, dass Nicklen und Mittermeier kaltblütig ein hilfloses, leidendes Tier ausbeuteten, ohne einen Gedanken zu verschwenden, wie man dessen Leiden beenden könnte, sondern auch, dass sie immer noch glauben, dass ihr Tun nobel und aufopferungsvoll war (sie befanden sich „auf einer Mission“). Sie glauben offenbar, dass ihr Eintreten für Klimawandel sie von ihrer Verantwortung befreite, menschlich zu sein.

Sie verstehen einfach immer noch nicht, dass viele Menschen durch ihre Gefühllosigkeit genauso angewidert sind wie durch den Film selbst. Die Menschen waren auch erbost, weil Nicklen und Mittermeier die Lage falsch darstellten: ihrem eigenen Eingeständnis zufolge wussten sie, dass der Bär krank war, aber dennoch suggerierten sie ihre Bilder als eine Klimawandel-Tragödie.

Ihre Reaktion auf die öffentlichen Proteste („National Geographic ist zu weit gegangen“) war einfach nur lächerlich. Sie begreifen es einfach nicht: Ihr Tun fügte ihrer Causa echte Schäden zu.

Unter dem Strich: Ein Eisbär starb einen langsamen, elenden Tod, weil herzlose Klimawandel-Propagandisten nichts besseres zu tun hatten als es auszuschlachten, und es machte die Menschen wütend.

REFERENCES

Crockford, S.J. 2018. State of the Polar Bear Report 2017. Global Warming Policy Foundation Report #29. London. pdf here.

——————————–

Dr. Crockford hat auch in einem sehr lesenswerten Beitrag zusammengefasst, warum sterbende Eisbären zumeist Fake News sind: Cooling the polar bear spin

Link: https://wattsupwiththat.com/2018/07/26/shocker-national-geographic-admits-they-were-wrong-about-starving-polar-bear-video/

Übersetzt von Chris Frey EIKE




Grünen Chefin Frau Annalena Baerbock, erschafft nach Stromspeicherung im Netz auch neue Klimatatbestände

Frau Annalena Baerbock ist eine sehr kluge Frau, denn sie ist immerhin die Chefin der Grünen. Und sie sagt oft kluge Sachen. Sachen die jeder verstehen kann und die auch jeder einsehen muss. Beispielsweise sagte sie vor kurzem, dass Stromnetze die Fähigkeit hätten Strom zu speichern. Diese Erkenntnis ist so neu, dass bisher niemand sie kannte. Bisher war die Fachwelt davon ausgegangen, dass sich Strom in nennenswerten Mengen nicht speichern lässt. Jetzt wissen wir dank Frau Baerbock, dass „die Strom-Netze“ diese Fähigkeit haben. Dafür gebührt ihr ein Wissenschaftspreis, evtl. sogar der Nobelpreis für Physik. Vielleicht tut´s auch einer für Vodoo Physik.

Nun hatte Frau Baerbock eine neue ebenso kluge Erkenntnis. Sie kann in der Hitzewelle der letzten Wochen „die Vorboten der Klimakrise“ erkennen, und fordert  ihnen mit einen neuen „Klimarealismus“ begegnen, der durch jede Menge Verbote und Steuern realisiert werden sollte. Dazu gehörte – so Frau Baerbock

„ein ambitioniertes Klimaschutzgesetz, einen CO2-Preis, den Abschied vom fossilen Verbrennungsmotor und die verordnete Abschaltung von alten Kohleblöcken“.

Und damit nicht genug, deshalb fordert sie einen

„..Klimaanpassungsfonds, der eine Entschädigungskomponente für diejenigen enthalte, die von extremen Ereignissen besonders hart betroffen seien. Gespeist werden solle dieser unter anderem „aus einer vernünftigen CO2-Bepreisung im Sinne des Verursacherprinzips“.

Den hatte allerdings zuvor schon die AfD gefordert in ihrem jüngsten Klimaschutz-Stopp Antrag, dort allerdings aus anderen Gründen. Pikant dabei, dass die Grünen anfangen bei der AfD abzukupfern. Sind die doch lernfähig? Wohl eher nicht, denn weil es nach Frau Baerbock mal wieder höchst dringlich ist, sagt sie..

„Wenn wir jetzt nicht anfangen, massiv CO2 zu reduzieren, und uns zugleich auf die bereits erfolgten Auswirkungen der Erderwärmung einstellen und vorbeugen, dann sind wir in ein paar Jahren gezwungen, disruptive Schritte zu gehen – mit massiven gesamtgesellschaftlichen Kosten“. Je später wir handeln, desto teurer wird’s“

Bevor nun doch der Vodoo-Nobelpreis für Klimawissenschaft gestiftet wird, und er Frau Baerbock evtl. als erster zugesprochen würde, sollten wir daran erinnern, dass die konventionelle Klimawissensschaft den Begriff Klima erst erfunden und dann definiert hat. Man wusste zwar, dass sich das Wetter – insbesondere mit den Jahreszeiten – wandelt, aber wollte auch sehr langfristige Änderungen – weit über ein Menschenleben hinaus- erkennen um ggf. daraus Erkenntnisse zu gewinnen. Deswegen schuf man den statistischen Begriff „Klima“, um regionale Klimazonen, in denen das Wetter auf lange Zeit ähnlich verlief, klassifizieren zu können. Und definierte diesen Begriff weltweit als das langjährige Mittel über mindestens 30 Jahre von lokalen Wetterdaten wie z.B.Temperatur, Wind, Niederschlag.

Alles kürzere beschreibt Wetter oder wenn es länger andauert: Witterung.

Von Vorboten ist in dieser Definition, die schon in den 30er Jahren des vorigen Jahrhunderts von der Weltorganisation für Meteorologie (WMO) verabschiedet wurde, nichts enthalten.

Es bedurfte der Klugheit, ja der Weisheit der Grünen-Chefin Baerbaum, diese bisher unbekannten Abkömmlinge des Klimas dingfest zu machen.  Auch dafür gebührte ihr ein Vodoo-Physik-Preis.

Wir weniger Klugen und wissenschaftlich nicht so gebildeten Mitmenschen hatten bisher geglaubt, dass das, was wir erfreulicherweise die letzten Wochen miterleben durften, nämlich einen schönen warmen Sommer, sei einfach schönes Wetter. Denn mindestens 30 Jahre lang hatten wir dieses schöne Wetter ja noch nicht, das vorige Jahr war eher kalt und verregnet und international gesehen, war es auch nicht so. Also das Weltklima betreffend, und so! Denn nur gegen das sollen wir ja mit unserem CO2 Emissionsverzicht vorgehen. Was aber auch nur – bei vollem Erfolg und falls das bisschen CO2 wirklich den starken Einfluss -dank vermuteter Verdreifachung durch Rückkopplung- hat, dem ihn manche zuschreiben- eine Reduktion des Anstiegs der globalen Mitteltemperatur von ganzen 0,000653 °C zur Folge hätte.

Vielleicht sollte das mal jemand Frau Baerbock  mitteilen, bevor man sich Gedanken macht ihre neuesten Erkenntnisse mit Preisen zu ehren.

 

 

 




Klimawandel vor Gericht: Alarmisten auf breiter Front gescheitert

Gerichte: ,Hockeyschläger‘-E-Mails müssen veröffentlicht und die Verfahrenskosten übernommen werden

H. Sterling Burnett

Das Energy and Environment Legal Institute (E&E Legal) und die Free Market Environmental Law Clinic (FMELC) verurteilten jüngst Angriffe der Regierung im Griff von Klimaalarm-Verrückten in zwei Gerichtsverfahren. Im ersten Fall gab das Appellationsgericht von Arizona eine knappe, sieben Wörter umfassende Entscheidung bekannt: „motion for Stay Pending Appeal is DENIED“ [etwa: Aufschub des Urteils ist ABGELEHNT!]. In dem Fall hatte Ende 2017 Richter James Marner vom Kammergericht Arizona die University von Arizona (UA) dazu verurteilt, die E-Mails der Forscher zu veröffentlichen, welche mit dem Klimagate-E-Mail-Skandal in Verbindung stehen. Die bislang veröffentlichten Klimagate-E-Mails zeigen, wie Forscher an Universitäten auf der ganzen Welt darüber sprachen, wie man am besten Daten zurückhalten könne, was Fragen aufwarf hinsichtlich der Beweise zur Stützung der Behauptung, dass die Menschen Klimawandel verursachen, und wie man wissenschaftliche Journale zwingen könnte, keine Artikel von Klimarealisten zu veröffentlichen.

E&E legal kämpfte schon lange vor Gericht gegen das Board of Regents der UA, weil dieses die E-Mails von verschiedenen UA-Professoren seit sechs Jahren nicht bekannt machen wollte.

Auf Geheiß der beteiligten Professoren lehnte es die UA ab, diese E-Mails zu veröffentlichen. Aber E&E konnte vor Gericht erfolgreich argumentieren, dass die UA illegal gehandelt hatte, dem Geheiß der Professoren stattzugeben. Da alle angeforderten E-Mails in Bezug zu den Arbeiten der Professoren standen, welche aus Steuergeldern finanziert worden sind, urteilte das Gericht, dass alle E-Mails veröffentlicht werden müssen. Die UA forderte das Kammergericht auf, das Urteil vorerst nicht zu vollstrecken, während die Entscheidung angefochten wird. Die UA argumentierte, dass wenn die Dokumente erst einmal veröffentlicht seien, „der Geist nicht zurück in die Flasche könnte“, falls das Urteil des Gerichts aufgehoben werden würde. Das Kammergericht lehnte diesen Antrag ab, und nach über sechs Jahren juristischen Streits und der Verschwendung von Millionen Dollar öffentlicher Gelder wird der Öffentlichkeit endlich gestattet, die Klima-Dokumente einzusehen, wozu sie von Anfang an das recht hatte.

Im zweiten Fall ordnete die Richterin am Kammergericht Vermont Mary Miles Teachout an, dass das Büro des General-Staatsanwaltes (AG) 66.000 Dollar Anwaltskosten an E&E Legal und FMELC zu zahlen habe für Kosten, die sie für ein Gerichtsverfahren aufbringen mussten, um das Büro dazu zu zwingen, der Öffentlichkeit dem Gesetz zufolge Dokumente zugänglich zu machen, in welchen es um den Umgang von Vermont mit dem diskreditierten ehemaligen General-Staatsanwalt von New York Eric Schneiderman ging bei dessen Klage gegen verschiedene Ölunternehmen. In dem betreffenden Verfahren war es darum gegangen, große Ölunternehmen zu zwingen, sich an den Kosten des Staates bzgl. des angeblichen Klimawandels zu beteiligen. E&E Legal und FMELC hatten die Veröffentlichung der Dokumente unter dem Informationsfreiheits-Gesetz von Vermont verlangt, aber der AG lehnte dies ab.

Bei Liberty Headlines liest sich das so: „Die Wurzel des Streits sind Bemühungen mehrerer US-Staaten vor vielen Jahren, bei denen AGs der Demokraten sowie deren Alliierte mit tiefen Taschen, ExxonMobil anzugreifen, weil das Unternehmen vermeintlich um den Klimawandel gewusst und diesen geleugnet hatte“

Nachdem man ihnen Einsicht in die Dokumente verwehrt hatte, haben E&E legal und FMELC jetzt nach einem für sie erfolgreichen Verfahren Zugang zu ihnen erhalten.

Historisch durften Gerichte in Vermont Bußgelder und Gerichtskosten Klägern auferlegen, welche erfolgreich den Staat verklagt hatten wegen des Zurückhaltens öffentlicher Dokumente. Die Gerichte waren dazu aber nicht verpflichtet. Das bedeutete, dass die Kläger die Rechnung zahlen mussten für Klagen, um der Öffentlichkeit Zugang zu Dokumenten zu gewähren, wozu sie berechtigt war. Dies wurde durch eine Gesetzesänderung im Jahre 2011 geändert.

Wegen der ablehnenden Haltung von AG Sorrell, öffentliche Dokumente auszuhändigen, wozu er laut Gesetz verpflichtet war, war E&E Legal gezwungen, vor die Gerichte in Vermont zu ziehen“, sagte Craig Richardson, Präsident von E&E Legal. „Wir haben an allen Fronten gewonnen, was sich manifestiert hat durch die jüngsten Urteile der Gerichte, uns Kosten und Abgaben zu ersetzen, haben wir doch in vielen Fällen ,substantiell gesiegt’“.

Quellen: Watts Up With That Liberty Headlines

—————————————–

Klima-Alarmisten vor Gericht erneut gescheitert – es ist an der Zeit, das gesetzliche Affentheater zu beenden

H. Sterling Burnett

Bundesrichter John F. Keenan am US-Bezirksgericht für den Südlichen Distrikt von New York verwarf die Klage von New York City (NYC) gegen fünf große Ölunternehmen. Mit der Klage wollte NYC die Unternehmen zwingen, sich an den angeblichen Kosten bei dem Umgang mit dem Klimawandel zu beteiligen.

Keenans Urteil markiert die zweite große Schlappe innerhalb nur eines Monats für kommunale Regierungen, welche die Judikative einspannen wollte, um Probleme anzugehen, deren vermeintliche Ursache der Klimawandel ist. Die erste Schlappe mussten sie in San Francisco hinnehmen, als Richter William H. Alsup vom Bundesgericht in San Francisco eine ähnliche Klage, eingereicht von den Städten Oakland und San Francisco gegen die gleichen fünf Unternehmen – BP, Chevron, ConocoPhillips, ExxonMobil und Royal Dutch Shell – bereits verworfen hatte.

In seiner 23 Seiten starken Urteilsbegründung zur Abweisung der Klage von NYC schrieb Keenan, dass dem Klimawandel seitens der Exekutive und des Kongresses begegnet werden muss und nicht seitens von Gerichten.

Obwohl der Klimawandel „eine Lebenstatsache“ ist, wie Keenan schrieb, „ist es nicht Sache von Gerichten, die dadurch verursachten ernsten Probleme zu lösen. Globale Erwärmung und diese betreffende Lösungen müssen durch die beiden anderen Bereiche der Regierung angegangen werden“.

Keenan urteilte, dass die Behauptungen von New York State nicht zulässig sind unter dem Clean Air Act. Er sagte, dass es „unlogisch“ sei und gegen Präzedenz-Urteile des Obersten Gerichtshofes der USA verstoßen würde, wenn die Klage zugelassen worden wäre – vor dem Hintergrund, dass „Gerichte zu dem Ergebnis gekommen sind, dass dies Angelegenheiten der [US-]Bundesregierung seien, die an die Exekutive delegiert worden sind, obwohl sie eine einheitliche nationale Lösung erfordern … und der Clean Air Act ist nicht der richtige Ort, um Ausgleichszahlungen für heimische Treibhausgas-Emissionen in Vergangenheit und Zukunft zu verlangen“.

Zusätzlich urteilte Keenan, dass die Klage von NYC ungerechtfertigt sei, weil die Stadt selbst Kohlendioxid-Emissionen verzeichnet und von den Vorteilen des Verbrauchs fossiler Treibstoffe profitiert habe.

„Man kann nicht sagen, dass die Erzeugung fossiler Treibstoffe seitens der Beklagten und die daraus resultierenden Emissionen eine ,ungesetzliche Invasion‘ in NYC gewesen sind, profitiert doch die Stadt selbst vom verbrauch fossiler Treibstoffe und beteiligt sich daran, und das schon seit vielen Jahrzehnten“, schrieb Keenan.

Trotz der Eindeutigkeit der Gesetzeslage ist Klimapolitik allein eine Angelegenheit der Legislative und der Exekutive der Regierung. Das haben zwei Bundesrichter, der eine von Reagan, der andere von Clinton ernannt, umfangreich in ihren schriftlichen Urteilen dargelegt. Andere Staaten und Städte scheinen die Absicht zu haben, sich ihre Köpfe an dieser gesetzlichen Steinmauer einzuschlagen. Am 2. Juli, gerade mal eine Woche, nachdem Bundesgerichte eine Klimaklage der Städte Oakland und San Francisco verworfen hatten, reichte Rhode Island eine Klage gegen Ölunternehmen ein, um Kosten durch die Schäden des Klimawandels zurückzubekommen. Am 20. Juli, gerade mal einen Tag, nachdem Keenan die Klage von NYC verworfen hatte, verklagte die Stadt Baltimore Ölunternehmen auf Erstattung von Klimawandel-Kosten vor dem Gericht von Maryland. Zusätzlich haben NYC, Oakland und San Francisco jeweils angedeutet, gegen das Urteil in ihren Fällen in Berufung zu gehen.

Diese Städte und Staaten haben entweder keine ernsten Probleme, für die sie tatsächlich die Verantwortung tragen – wie Kriminalität, Wohnraum und Bildung – für welche die für diese Verfahren erforderlichen finanziellen Ressourcen viel besser angelegt wären, oder deren Führern ist es egal, ob sie Steuergelder verschwenden für sinnlose Gerichtsverfahren, einfach weil es nicht ihr Privatvermögen ist, das hier verbrannt wird. Oder, was auch sein kann, all jene, die diese Verfahren anstrengen, sind so gefangen im Griff der Klima-Verrücktheit, dass sie es einfach nicht lassen können, Gesetze hin oder her.

Vielleicht sind all diese Verfahren in Wirklichkeit ein Versuch, eine Industrie mit tiefen Taschen zu erpressen, wobei die Städte hoffen, dass die Unternehmen ultimativ Gerichtsverfahren vermeiden wollen und der Zahlung von Milliarden Dollar an die Städte zustimmen, wenn diese im Gegenzug versprechen, in Zukunft nicht mehr gerichtlich gegen sie vorzugehen, und ihre Investitionen nicht mehr in fossile Treibstoffe, sondern in politisch erwünschte grüne Energiequellen leiten. Ölunternehmen waren jedoch bislang nicht willens, sich so zu verhalten, und mit ihrer fortgesetzten Profitabilität und tatsächlich ihrer bloßen Existenz, die auf dem Spiel steht, (und mit zwei gewonnenen Gerichtsverfahren im Hintergrund) scheint es doch sehr unwahrscheinlich, dass die Unternehmen den Forderungen der Städte Folge leisten werden.

Es ist längst überfällig, dieses Spiel legaler Unsinnigkeiten zu beenden. Falls Keenan und Alsup die Städte dazu verurteilen, die Verfahrens- und Anwaltskosten sowie andere Ausgaben zu übernehmen, sollten lokale und staatliche Kläger, die nach dem großen Klima-Zahltag trachten, ihre Klagen zurückziehen und zu ihrem gesetzlichen Auftrag zurückzukehren, ihrer Bevölkerung ein besseres Leben zu ermöglichen innerhalb ihrer legalen Zuständigkeiten.

Quellen: The New York Times NYC Climate Decision

Übersetzt von Chris Frey EIKE

Zur Überprüfung der Übersetzung:

courts




Deutsche Umwelthilfe (DUH) will private Autos vorerst reduzieren

Über seine Haus- und Hofagentur dpa verkündet er: »Diesel-Fahrverbote bieten die Chance, jetzt die kollektiven Verkehre auszubauen und zu stärken.« Er selbst fährt weiterhin zwar individuell und fliegt rastlos Tausende von Kilometern im Jahr herunter. Die amerikanischen Anwälte mit ihren NGOs wie ClientEarth, die auch hinter der DUH stehen, machen offenbar gehörig Druck und wollen wohl mehr Kohle sehen. Also schwingt Jürgen Resch das große Wort und will nicht nur den Diesel, sondern gleich Autos verbieten.

Die Luft in den Städten ist zwar gut geworden, wie Daten des Umweltbundesamtes ausweisen, aber dennoch redet er von »Abgasgiften«, die Bürger reihenweise umbringen. Wenn die Grenzwerte praktisch kaum noch überschritten werden, halbiert er sie kurzerhand aus Dramagründen und meint, es dürften nur noch 20 µg NOx pro Kubikmeter Luft enthalten sein und nicht wie zur Zeit festgelegt 40 µg. Also müssten noch mehr Fahrverbote her.

»Wir brauchen mehr Busse, Bahnen und Straßenbahnen, bessere Fahrrad-Infrastruktur und Fußwege«, fordert er und will wohl auch Ältere und Gebrechlichere zum Zweirad verdonnern oder sie gleich zum Daheimbleiben bewegen.

Den Hit der Woche landete Greenpeace mit der Forderung nach weniger privatem Autobesitz. Dieser Verein muss erst einmal mindestens 14.000 Euro für die Reinigung der Fahrbahn rund um die Berliner Siegessäule bezahlen und fordert eifrig Spendengelder. Greenpeace hatte vor kurzem in einer mißlungenen Aktion den Asphalt mit umweltkritischer gelber Farbe verschmutzt. Als PR-Klamauk erhebt der Verein die Forderung, dass nur noch jeder Fünfte ein Auto besitzen darf und hofft auf reichlich Spenden.

FEIND AUTO
Bänder stehen still

Der Fall zeigt: Demokratisch nicht legitimierte NGOs versuchen, das Kommando ganz zu übernehmen und kräftig daran zu verdienen, die individuelle Mobilität der Mehrheit zu beschränken. Folgen für Autobesitzer: Es gibt keine Rechtssicherheit mehr. Wer heute etwas nach geltenden Regeln kauft, kann nicht sicher sein, dass er das morgen noch benutzen darf, wenn Grüne die Regeln ändern wollen. Auf den Schrottplätzen zeigt sich der gesamte Wahnsinn: Drei, vier Jahre alte Autos werden aus irrwitzigen Gründen verschrottet, eine gigantische Vernichtung von Kapital und natürlich selbst Umweltbelastung.Autofahrer-Protest-Kolonnen nach gutem alten Bauern-Vorbild bleiben aus. Die machten mit ihren Traktoren seinerzeit immer wieder so viel Dampf, dass die Politik bald einknickte.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Alle 60 Jahre mehr Regen im Hochsommer

================================================

Dr. Ludger Laurenz  )*

Besonders in der nördlichen Hälfte von Deutschland klagen die Landwirte seit einigen Jahren über regenreiche Hochsommer mit Problemen bei der Mähdruschernte von Getreide und Raps, übernässten Böden und Schwierigkeiten bei der Herbstbestellung. In den neuen Bundesländern wundern sich viele Landwirte darüber, dass die zu DDR-Zeiten immer wieder auftretenden Dürresommer in den letzten Jahren ausgeblieben sind und freuen sich über die heute unerwartet guten Erträge. Fragt man ältere Landwirte, ob sie sich an eine solche Häufung von regenreichen Hochsommern erinnern, wird schnell die Zeit um 1960 genannte, wo es ähnlich nass gewesen sein soll.

An den historischen Klimadaten der Wetterstation Münster und dem Flächenmittel mehrerer Bundesländer lässt sich nachweisen, dass sich die heutige Phase mit vermehrt nassem Hochsommer schon früher im Abstand von 60 Jahren mehrfach wiederholt hat. Die Klimadaten sind in Archiven des Deutschen Wetterdienstes (DWD) über das Internet frei verfügbar.

Wetterstation Münster mit Daten seit 1853

Für die Wetterstation Münster liegen Niederschlagsdaten seit 1853 vor, eine außergewöhnlich lange Periode. Zur Darstellung der Niederschlagszyklen im Sommer wurden die Niederschlagssumme von Juli und August gewählt. Aus der Literatur ist bekannt, dass  sich die zyklischen Schwankungen der Sommerniederschläge über Jahrzehnte am besten in diesen beiden Monaten offenbaren. Der Langzeit-Trend  der Niederschlagssumme dieser beiden Monate wurde in der folgenden Abbildung als gleitendes 11-jähriges Mittel dargestellt. Das ist in der Klimawissenschaft durchaus üblich, um Schwankungen und Trends über längere Zeiträume anschaulicher zu machen, auch um Einzeljahresextreme zu „glätten“. Mit dieser wissenschaftlich üblichen Methode werden die 5 vor und 5 hinter jedem Einzeljahr liegenden Niederschlagssummen übergreifend gemittelt.

Abb.1 (Quelle: ludger.laurenz@gmx.de)

Das Ergebnis in Abb.1 zeigt: Bei den Niederschlagssummen von Juli und August in Münster gibt es seit 1853 mehreren Zyklen mit ca. 60 Jahren Abstand. Regenreiche Phasen mit fast 200 mm Niederschlagssumme im Juli und August wechseln mit „Trockenphasen“ zwischen 110 und 150 mm ab. Der wesentliche Einflussfaktor auf die Hochsommerniederschläge geht ganz offensichtlich und sehr wahrscheinlich von der Atlantische Multidekadische Oszillation AMO aus. Dazu gibt es unzählige wissenschaftliche Publikationen. Die AMO ist ein Index der nordatlantischen Meeresoberflächentemperatur. Der AMO-Index ist mit den Niederschlägen und Lufttemperaturen in weiten Teilen der nördlichen Hemisphäre korreliert. In Phasen mit positivem AMO-Index  sind die Hochsommerniederschläge in weiten Teilen von Europa, der Sahelzone und Indiens deutlich höher als in Phasen mit negativem Index. In Phasen mit positivem AMO-Index ist das Risiko von Dürre im Mittleren Westen und Südwesten der USA  sowie das Risiko von schweren atlantischen Wirbelstürmen erhöht.

Klimadaten des Mittels der Bundesländer seit 1881

Der Einfluss der AMO auf die Hochsommerniederschläge nimmt in Deutschland von Nord nach Süd ab. Das ergibt die Auswertung historischer Klimadaten des Flächenmittels einzelner Bundesländer. Die Klimadaten dazu sind beim DWD für den Zeitraum ab 1881 abrufbar. Beispielhaft für verschieden Klimazonen in Deutschland wurde die Daten von den Bundesländern Schleswig-Holstein, Brandenburg, Nordrhein-Westfalen und Bayern gewählt. Der Trend der Niederschlagssumme von Juli und August wurde wie schon am Beispiel der Wetterstation Münster berechnet und in der folgenden Abbildung (Abb. 2) dargestellt.

Abb.2  (Quelle: Ludger.Laurenz@gmx.de)

Grundsätzlich unterscheiden sich die Bundesländer in der Höhe der Niederschlagssummen von Juli und August. In Mittel von Bayern regnet es im Hochsommer fast doppelt so viel wie in Brandenburg. In Bayern wirkt sich die AMO praktisch nicht aus. Der Einfluss scheint auf die nördliche Hälfte von Deutschland beschränkt zu sein.

Die Schwankungen zwischen Minimum und Maximum der Niederschlagssummen sind besonders ab 1950 beachtlich. In den letzten 15 Jahren ist die Niederschlagssumme im eigentlich dürregeplagten Brandenburg höher als in den 70er und 80iger Jahren in Schleswig-Holstein oder Nordrhein-Westfalen. Im Phasenabschnitt seit 1950 ist der Unterschied der Niederschlagssumme zwischen positiver AMO-Phase und negativer AMO-Phase deutlich größer als im Phasenbereich vor 1950.  Um 1920 herum sind die Sommerniederschläge trotz negativer AMO kaum zurückgegangen, weil der negative kühle AMO-Trend vom positiven Trend der Nordatlantischen Oszillation NAO überlagert wurde.

Grundsätzlich werden die Klimaschwankungen auf den verschieden Kontinenten von mehreren Taktgebern beeinflusst. Das sind vor allen AMO, PDO (60-jährige Pazifische Dekadische Oszillation) und für unseren Klimabereich die Schwankung der Nord-Atlantischen Oszillation (NAO). Diese ist – im Gegensatz zu den maritimen Oszillationen AMO und PDO – eine zyklische Schwankung der Atmosphären-Strömung („Wind“) mit wechselnder Phasenlänge.  Je nachdem, ob sich diese zeitlich versetzten Taktgeber gegenseitig verstärken oder kompensieren, entstehen Phasen mit starkem oder schwachem Trend.

Im Gegensatz zu den verstärkten Hochsommerniederschlägen haben sich in den letzten 10 bis 15 Jahren die Frühjahrsniederschläge im März und April auffällig verringert. Auch diese Häufung dürfte im Zusammenhang mit der AMO-Phase stehen. So waren auch in der letzten positiven AMO-Phase um 1960 die Frühjahrsniederschläge vorrübergehend niedriger.

Auswirkungen auf die Pflanzenproduktion

Unterschiedliche Niederschlagsmengen im Juli und August wirken sich direkt auf die Erntebedingungen der Mähdruschfrüchte aus. In Phasen mit positiver AMO wie um 1960 oder um 2010ist die Ernte wesentlich problematischer als in Phasen mit negativem AMO-Index. Ein regenreicher Hochsommer wirkt sich häufig auch auf die Bestellbedingungen im Herbst aus. Zum einen erzeugen die Erntearbeiten auf wassergesättigten Böden Fahrspurverdichtungen. Zum andern trocknen die Böden im September und Oktober eventuell nicht mehr ausreichend ab, mit erneuten Spurschäden durch die Bestellung. Folgen mehrere Jahre mit nassem Hochsommer und eher feuchtem Herbst, leidet die Bodenstruktur von Jahr zu Jahr mehr.

Die Niederschlagshöhe im Juli und August bestimmt die Ertragshöhe der Fruchtarten gegensätzlich. Im Juli werden bei Getreide und Raps die Körner gefüllt.  Je mehr es in dieser Zeit regnet, umso weniger scheint die Sonne, umso schwächer ist die Einstrahlung und Photosynthese, umso kleiner bleiben die Körner. Der Effekt verstärkt sich, wenn die Hochsommerniederschlagsphase schon Ende Juni beginnt. Je mehr und häufiger es regnet, umso mehr leidet der Ertrag auch unter Schadpilzen.

Profiteure positiver AMO-Phasen mit mehr Hochsommerniederschlägen sind die Sommerfrüchte wie Mais, Rüben und Kartoffeln. Bundesweit haben die Erträge der Sommerfrüchte in den letzten 20 stark zugelegt, während die Erträge von Getreide und Raps stagnieren oder sogar rückläufig sind. Der Ertragszuwachs bei Mais und Rüben wird immer wieder auf die großen züchterischen Erfolge zurückgeführt, dürfte aber auch nach dieser Analyse von der positiven AMO-Phase beeinflusst worden sein.

Auf die Sommerfrüchte wirken sich positive AMO-Phasen nicht nur über vermehrte Sommerniederschläge aus, sondern auch über höhere Temperaturen. Dazu gibt es mehrere wissenschaftlich begutachtete Studien.  In Phasen mit positivem AMO-Index sind die Temperaturen in Mitteleuropa ca. 1 °C höher als in Phasen mit negativem AMO-Index.

Fazit und Ausblick

Das Wetter kann von Jahr zu Jahr extrem unterschiedlich sein. Selbst in Zyklusphasen mit stark erhöhten Sommerniederschlägen kann es Einzeljahre mit extremer Dürre geben. Die sind aber in diesen Phasen seltener. Aus Klimatrends lässt sichnichtauf den Wettercharakter des nächsten Jahres  oder einzelner Jahre schließen. Niemand kann in einem chaotischen Wettersystem die Zukunft vorhersagen.

Wir können aber wissenschaftlich belegte Klimazyklen der Vergangenheit mit aller Vorsicht auf die Zukunft übertragen. Es ist wahrscheinlich, dass die Monate Juli und August in den nächsten 10 Jahren allmählich wieder trockener werden, wenn wir wieder in eine negative AMO-Phase eintauchen. Dann dürfte es bei uns auch wieder ein bisschen kühler werden.

Sorgen hinsichtlich einer leichten Abkühlung in den nächsten Jahrzehnten werden auch von allgemein stark abnehmender Sonnenfleckenaktivität genährt. Hunderte von weltweit durchgeführten wissenschaftlichen Untersuchungen der letzten  Jahre über den Zusammenhang zwischen Sonnenfleckenaktivität und Klima zeigen eindeutige Korrelationen, auch an der Wetterstation Münster. Global sind Phasen mit niedriger Sonnenfleckenaktivität überwiegend mit Abkühlung korreliert. Wir dürfen uns deshalb nicht wundern,  wenn der Temperaturtrend in den nächsten Jahrzehnten durch die Abkühlung des Nordatlantik und stark abfallender Sonnenfleckenaktivität  weiter stagniert, eventuell sogar sinkt und die Vegetationszeit wieder kürzer wird.

Nachtrag vom 26.07.2018 mit Kommentar zum Dürresommer 2018

Das Wetter kann von Jahr zu Jahr extrem unterschiedlich sein. Selbst in Zyklusphasen mit stark erhöhten Sommerniederschlägen kann es Einzeljahre mit extremer Dürre geben.

Eventuell befinden wir uns aktuell aber auch in einer Umstellungsphase bei der AMO. Bisher war das Wasser des Nordatlantiks über ca. 20 Jahre überdurchschnittlich warm. Seit Anfang 2018 ist im Nordatlantik vermehrt kaltes Tiefenwasser an die Oberfläche gekommen, wie die Temperatur-Anomalie vom 14.06.2018 in der folgenden Abbildung zeigt.

Abb.3  (https://www.ospo.noaa.gov/data/sst/anomaly/2018/anomnight.6.14.2018.gif)

Der Umschwung von Warmphase zur Kaltphase erfolgt historisch betrachtet in der Regel innerhalb kurzer Zeit, im Extrem auch schon innerhalb eines Jahres.

Die derzeitige Temperaturanomalie des Nordatlantikwassers entspricht der Anomalie in negativen AMO-Phasen. Damit schließt sich der Kreis zum Dürresommer 2018. Vom unterkühlten Nordatlantikwasser dampft deutlich weniger Wasserdampf in die Atmosphäre als von wärmerem Wasser, mit geringerer Niederschlagsaktivität im nördlichen Mitteleuropa, wie in den beiden Abbildungen weiter oben für längere Zeiträume beschrieben wurde.

Gleichzeitig befinden wir uns 2018 in einem Tal des 11-jährigen Sonnenfleckenzyklus. In Zyklusphasen mit geringer Sonnenfleckenaktivität ist ebenfalls mit geringerer Niederschlagssumme von April bis Juli zu rechnen.

=========================================================

)* Ludger Laurenz  ist freier Berater für Pflanzenproduktion und Umwelt,

 Erstveröffentlichung dieses Beitrages bei TOPAGRAR (2017), LV-Verlag Münster; EIKE dankt TOPAGRAR für die frndl. Nachdruck-Genehmigung.

=========================================================




2018- bislang ein Jahr mit ungewöhn­lichen Großwetter­lagenhäu­figkeiten

Bislang wenige Südwestlagen 2018 – endet das aktuelle Zeitalter der Südwestlagen?

Südwestlagen (SWA und SWZ nach der von HESS/BREZOWSKY erarbeiteten Klassifikation der Großwetterlagen) gehörten ursprünglich nicht zu den besonders häufigen Lagen im Jahresverlauf. Im Mittel 1881 bis 2017 traten sie an lediglich 19 Tagen im Jahr auf; doch ab der Mitte des 20. Jahrhunderts nahm deren Häufigkeit merklich zu; außerdem zeigt sich ein Gleichklang mit dem Verlauf der AMO (AMO = Atlantische Mehrzehnjährige Oszillation, ein Index für die gemittelten Meeresoberflächentemperaturen im zentralen Nordatlantik):

Abbildung 1: Seit 1881, dem Beginn der Erstellung halbwegs verlässlicher Wetterkarten, hat sich die Häufigkeit der in Deutschland stark erwärmend wirkenden Südwestlagen merklich erhöht. Außerdem erwärmte sich der Nordatlantik, wobei es eine schwächere Warmphase um 1900, eine stärkere um 1945 und eine aktuelle gibt. Die Kurvenverläufe der gleitenden Mittelwerte (fette Kurven) ähneln sich; wobei die AMO fast 20% der Häufigkeitsvariabilität der SW- Lagen erklärt. Fast alle Jahre ganz ohne SW- Lagen traten vor 1950 auf; danach war nur 1991 frei von SW- Lagen.

Im Jahr 2018 gibt es hinsichtlich der Großwetterlagenhäufigkeiten also eine erste Besonderheit- Südwestlagen waren bislang, im Einklang mit etwas niedrigeren AMO- Werten als in den Vorjahren, sehr selten. Ob das schon das Ende der aktuellen AMO- Warmphase und damit vermutlich auch das Ende der besonders warmen Jahre in Deutschland ist, kann nicht mit Sicherheit vorhergesagt werden.

Ungewöhnlich rascher Temperaturanstieg im Frühjahr 2018- warum?

Zwischen März und April sind die Lufttemperaturen, hier dargestellt am Beispiel der täglichen Maximum-Werte für den Flughafen Erfurt/Weimar, ungewöhnlich rasch gestiegen – um mehr als 30 Grad in etwa 4 Wochen:

Abb. 2: Rasche Frühlingserwärmung ist in unserem subkontinentalen Klima nicht selten; aber um gut 30 Grad in nur 4 Wochen- das gibt es nur selten und erinnert sehr stark an die klimatischen Verhältnisse in Russland. Quelle: www.wetteronline.de

Die Großwetterlagenhäufigkeiten wirken mit Ausnahme der fast stets erwärmenden Südwestlagen im Jahresverlauf sehr unterschiedlich auf das Temperaturverhalten. Für die enorme Kälte im Spätwinter und die große Hitze und Trockenheit ab Mitte April sind nämlich ganz ähnliche Wetterlagen verantwortlich – so genannte Ostwetterlagen, die sich oft durch ein markantes Hochdruckgebiet über Nordeuropa auszeichnen und die ab Ende Februar 2018 sehr häufig aufgetreten sind. Zwei Wetterkartenbeispiele mögen das verdeutlichen:

Abb. 3a und 3b: Vom tiefsten Winter in den Frühsommer in nur 3 Wochen. Beide Wetterkarten zeigen ein in seiner Lage fast identisches Hoch über Nordeuropa. Aber während am 17. März auch tagsüber mäßiger Dauerfrost herrschte, konnte man am 10. April bei fast 20 Grad schon das T-Shirt anziehen, und danach ging der Temperaturanstieg noch weiter. Kartengrundlage Met.Office (UKMO), nachträglich ergänzte Ausschnitte.

Im Folgenden soll einmal der von den Witterungsanomalien betroffene Zeitabschnitt (ab Februar) näher betrachtet werden, soweit die Daten vorliegen. Langfristig zeigt sich da die auch im Gesamtjahr und zu allen Jahreszeiten eingetretene Deutschland- Erwärmung; aber wie sah es in den letzten 30 Jahren aus?

Abbildung 4: Nur leichte Deutschland-Erwärmung im Zeitraum von Februar bis Juni seit 1989. Im Jahr 2018 lag dieser Zeitraum mit nur 9,3°C lediglich im oberen Mittelfeld; weit entfernt von den wärmsten Werten.

Aber so richtig spannend wird es erst, wenn man diesen Zeitraum splittet – in einen Zeitraum für den Vorfrühling (Februar und März) und in einen für den Frühling/Frühsommer (April bis Juni):

Abbildungen 5a und 5b: Gegensätzliche Temperaturverläufe in Deutschland seit 1989. Im Vorfrühling (5a, oben) merkliche Abkühlung; 2018 war der drittkälteste Vorfrühling. Im Frühling/Frühsommer merkliche Erwärmung; 2018 war nicht nur der wärmste seit 30 Jahren, sondern auch seit Aufzeichnungsbeginn 1881.

Der erstaunte Leser mag sich nun fragen, ob CO2 mal abkühlend oder mal erwärmend wirkt – naheliegender ist eine Betrachtung der Häufigkeitsverhältnisse der Großwetterlagen. Im Februar/März wirken Westlagen noch stark erwärmend, alle meridionalen Lagen, besonders die mit nördlichem und östlichem Strömungsanteil, aber stark kühlend. Ihre langfristige Häufigkeitsentwicklung zeigt die nächste Grafik:

Abbildung 6: Um 1990 herum erreichten Lagen mit Westanteil (violett) ein markantes Häufigkeitsmaximum seit Aufzeichnungsbeginn (das „endbetonte“ Gleitmittel wirkt verzögernd). In dieser Zeit war es extrem mild; die kühlenden Großwetterlagen mit nördlichem und /oder östlichem Strömungsanteil traten selten auf. Doch danach näherten sich deren Häufigkeiten wieder denen der Westlagen, was die 30ig-jährige Abkühlung erklärt. Im Spätwinter erklären die Häufigkeitsverhältnisse der Lagen mit Westanteil gute 34% der Temperaturvariabilität (DWD- Mittel); die der Nord- und Ostlagen gar fast 40%.

Im Zeitraum mit starker Erwärmung (April bis Juni) wurden langfristig alle Großwetterlagen mit südlichem Strömungsanteil und Zentralhochlagen markant häufiger, welche stark erwärmend wirken; für die letzten 30 Jahre bietet sich ein Blick auf die Objektive Wetterlagenklassifikation des DWD an:

Abbildung 7: Die besonders erwärmend wirkenden, in der Höhe antizyklonalen Lagen wurden tendenziell über Deutschland von April bis Juni seit 1989 häufiger. Ihre Häufigkeit erklärt beachtliche 51% der Temperaturvariabilität des DWD- Mittels in diesem Zeitraum. Die enorme Wärme 2018 vermögen sie allein mit nur leicht überdurchschnittlichen 59 Tagen jedoch nicht zu erklären; dies gelingt, wenn man die im Frühling/Frühsommer enorm hohe Sonnenscheindauer in die Betrachtungen einbezieht.

Der Mai 2018 erzielte mit 25 Tagen des Großwettertyps Ost einen neuen Häufigkeitsrekord; die „alten“ Rekordhalter 1911 und 1936 mit je 23 Tagen wurden abgelöst; mit 13,2 und 12,4°C waren jene aber viel kühler, als der 2018er Mai mit 16°C. Damals „fehlte“ der südliche Strömungsanteil völlig (1911), während er 1936 an nur 5 Tagen vertreten war, trat er 2018 an 12 Tagen auf; darunter an 9 Tagen mit sehr warmem Südostwetter. Außerdem war der Mai 2018 sehr sonnenscheinreich. Im Juli 2018 setzte sich die sehr warme Witterung fort; auch hier nahm die Häufigkeit südlicher und zentraler Hochdruckwetterlagen im Einklang mit der Sonnenscheindauer sowohl kurz- als auch langfristig stark zu. Im Juli 2018 fällt außerdem die sehr geringe Zahl der Westlagen insgesamt und besonders der mit zyklonalem Anteil auf; diese korreliert aber sehr stark mit den Juli-Temperaturen in Deutschland; was den recht warmen Juli 2018 erklärt:

Abbildung 8: In Julimonaten mit wenigen zyklonalen Westlagen nach der Objektiven Wetterlagenklassifikation des DWD ist es tendenziell wärmer; der Zusammenhang ist eng (signifikant).

Beeinflusst die Sonnenaktivität die Großwetterlagen-Häufigkeiten?

Leider stehen für langfristige Analysen nur die beobachteten Anzahlen der Sonnenflecken zur Verfügung, welche die Sonnenaktivität nur sehr grob abbilden. Damit lassen sich die Schwankungen der Häufigkeitsverhältnisse der Großwetterlagen nur in wenigen Fällen signifikant erklären; zum Beispiel treten im Jahresmittel tendenziell mehr Großwetterlagen mit nördlichem Strömungsanteil in Phasen mit geringerer Sonnenaktivität auf:

Abbildung 9: Langfristig treten in Mitteleuropa mehr nördliche Großwetterlagen auf, wenn die Sonnenfleckenanzahl geringer ist – so auch gegenwärtig. Aber nur im Frühling und Herbst sind fast alle diese Lagen zu kalt; im Winter sind sie bis auf die zu kalten HN- und NE- Lagen eher normal temperiert, NW eher zu mild, und im Sommer können die antizyklonalen Varianten, so wie auch 2018, mehr oder weniger deutlich zu warm ausfallen, das gilt besonders für HN-, HB- und NE-Lagen.

Für die ungewöhnliche Häufung der Ostwetterlagen zwischen Februar und Juni 2018 bedarf es einer anderen Erklärung. Hierfür bietet sich der Zonalwind in der mittleren Troposphäre (Höhe der 500hPa- Druckfläche) an. Der Zonalwind ist der breitenkreisparallele Teil des Windvektors, meist in m/s angegeben, wobei positive Werte für West- und negative für Ostwind stehen. Die Werte sind seit 1948 monatsweise verfügbar und lassen wichtige Rückschlüsse auf die Intensität der in unseren Breiten dominierenden Westströmung zu; je höher positiv sie sind, desto intensiver ist die Westströmung. Auf den Westlagen- dominierten Januar 2018 traf das noch zu, doch seit Februar sind sie markant unterdurchschnittlich; im Mai waren sie gar negativ, was seit Aufzeichnungsbeginn nur noch 1980 beobachtet wurde; auch der damalige Mai wies überdurchschnittlich viele Ostwetterlagen auf. Doch während damals zum Sommer ein rascher Umschwung auf West mit deutlicher Geschwindigkeitszunahme erfolgte, blieben die Werte in diesem Jahr auch in den Folgemonaten unterdurchschnittlich. Betrachtet man das Zonalwindmittel seit 1948 für den Zeitraum Februar bis Juni, so zeigt sich eine recht gute Übereinstimmung mit dem Verlauf der Sonnenfleckenhäufigkeiten, bedingt auch mit der AMO:

Abbildung 10: Sonnenfleckenmittel (Index, dunkelgelb), Zonalwindmittel in m/s in der mittleren Troposphäre (rot) und AMO- Index (grün) für den Zeitraum Februar bis Juni 1948 bis 2018 am Gitterpunkt 50°N und 10°E, was etwa der Mitte Deutschlands entspricht.

Während der letzten dreißig Jahre nahm das Zonalwindmittel deutlich ab:

Abbildung 11: Seit 30 Jahren wird der Zonalwind schwächer und erreichte in diesem Betrachtungszeitraum seinen niedrigsten Wert im Extremwetterjahr 2018.

Auch im Juli 2018 änderte sich an diesen zu schwachen Zonalwinden nichts; und die schwächelnde Westströmung ließ Mittel- und Nordeuropa weiter unter Hitze und Dürre stöhnen.

Weitere mögliche Ursachen der bisherigen Witterungsanomalien 2018

Die Meeresoberflächentemperaturen beeinflussen die Zirkulationsverhältnisse über Europa in vielfältiger Weise; die AMO fand schon Erwähnung. Recht ungewöhnlich war die Wassertemperaturverteilung im Nordatlantik ab Mai; stellvertretend für einen längeren Zeitraum, sei hier die Situation von Mitte Mai gezeigt:

Abbildung 12: Ausschnitt der Anomalie- Karte der Meeresoberflächentemperaturen für Mitte Mai (Quelle: NOAA). Blau bedeutet, gemessen am Langjährigen Mittelwert, zu kalte, gelb-rot zunehmend zu warme Wassertemperaturen. Bezugszeitraum ist die CLINO-Periode 1981 bis 2010. Ein riesiges, zu kaltes Seegebiet erstreckte sich bogenförmig vom nordäquatorialen Atlantik nach Westafrika, weiter nach Südwesteuropa und bis kurz vor Ostkanada/Grönland. Eine solche Anomalieverteilung ist selten und scheint die Westwind-Zirkulation zu schwächen, weil sie das Temperaturgefälle zwischen Südwest und Nordost vermindert. Diese Situation hielt sich auch im Juli noch, wobei aber der „kalte Bogen“ westlich von Spanien/GB verschwunden war.

Als weitere Ursache kommt die QBO in Betracht. Die quasi-zweijährige Schwingung (kurz: QBO vom englischen „quasi-biennial oscillation“), auch quasi-biennale Oszillation, ist eine quasi-periodische atmosphärische Welle des zonalen Windes in der äquatorialen Stratosphäre der Erde. Näheres dazu hier bei Wikipedia. Die aktuelle, diesmal besonders stark ausgeprägte Ostwind-Phase der QBO könnte bis in tiefere Atmosphärenschichten wirken, für den frühzeitigen Zusammenbruch des Polarwirbels mitverantwortlich sein und die Zonalzirkulation in der mittleren Troposphäre schwächen. Eindeutige, statistische Zusammenhänge zwischen QBO und den Wetterlagenhäufigkeiten fehlen jedoch; lediglich zur Häufigkeit der XX-Lagen zeigt sich eine schwache, negative Korrelation; in Negativphasen der QBO scheinen diese unbestimmten Wetterlagen häufiger aufzutreten, so, wie auch 2018 (folgende Grafik):

Abbildung 13: Die QBO ist der Zonalwind der Stratosphäre der Tropen; hier sind die Verhältnisse in der 40 hPa- Druckfläche dargestellt. Die Windstärke wird in 1/10 m/s angegeben. Weil die QBO verzögert wirken kann, sind hier die QBO- Mittelwerte des Monats Januar zu den Häufigkeiten der Wetterlagen mit unbestimmter Anströmrichtung (XX- Lagen) im Folgezeitraum Februar bis Juni in Relation gesetzt.

Und schließlich muss noch ein Blick auf die momentan geringe Ausdehnung des Arktis- Meereises geworfen werden. Dieses ist, entgegen den alarmistischen Prognosen mancher „Klimaforscher“ jedoch nicht im Sommer verschwunden und macht auch 2018 keine Anstalten, dies zu tun. Aber seine Ausdehnung beeinflusst die Stärke des Temperaturgefälles zwischen niederen und hohen Breiten und damit die Zirkulationsverhältnisse. Nennenswerte Zusammenhänge fanden sich in der ersten Jahreshälfte allerdings nur für den April:

Abbildung 14: Tendenziell gibt es in Aprilmonaten mit geringer Ausdehnung des Arktischen Meereises weniger meist kalte, höhenzyklonale Großwetterlagen nach der Objektiven Großwetterlagen- Klassifikation in Deutschland.

Etwas deutlichere Zusammenhänge zeigten sich für den Herbst, besonders hinsichtlich der Schwächung der Westlagen. Dies gilt sowohl für die Häufigkeit der Westwetterlagen nach der Objektiven, besonders aber für die von HESS/BREZOWSKY verwendeten subjektiven Großwetterlagenklassifikation:

Abbildung 15: War die Arktische Meereis- Ausdehnung im Sommer gering, so wie auch 2018, dann gab es im Herbst tendenziell weniger Westwetterlagen (GWT West, bestehend aus WA, WZ, WS und WW nach der HESS/BREZOWSKY- Klassifikation).

Deutet sich also ein zu Extremwetter neigender, an Westlagen armer Herbst 2018 an? Für sichere Prognosen ist der gefundene Zusammenhang leider zu unsicher.

Zusammenfassung: Zwischen dem Spätwinter und dem Sommer 2018 kam es zu schweren, so nur selten auftretenden Zirkulationsstörungen über Europa. Diese äußerten sich in einem kalten Spätwinter, einem sehr warmen Frühling/Sommer und einer anhaltenden Dürre in Teilen Deutschlands, einhergehend mit einer stark überdurchschnittlichen Sonnenscheindauer. Herausragend war der fast nur von Ostwetterlagen dominierte Mai; doch auch in allen anderen Monaten waren die zyklonalen Westwetterlagen seltener als normal. Als Ursachen deuten sich die abklingende AMO- Warmphase, die sehr geringe Sonnenaktivität, eine Anomalie der Wassertemperaturverteilung im Nordatlantik und die geringe Ausdehnung des Arktischen Meereises an. Wie lange diese Zirkulationsstörungen noch anhalten, ist nicht sicher vorhersagbar; doch sind sie im Zuge der weiterhin geringen Sonnenaktivität in naher Zukunft wohl häufiger zu erwarten.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Seminarankündigung: Die deutsche Energiewende – Zukunftsprojekt oder zum Scheitern verurteilt?

vom: 3.-6.September 2018 ; Tagungsort: Arbeitnehmer-Zentrum Königswinter: Sem.-Nr.: 18.6.513.5AK

 

Sehr geehrte Damen und Herren,

der Industrie- und Technologiestandort Deutschland braucht eine kontinuierliche Energieversorgung, die bezahlbar für Industrie und Verbraucher sein muss. Durch den Ausstieg aus der Kernenergie und in Zukunft auch aus der Kohleverstromung sollen alternative Energieerzeugungsverfahren diese ersetzen.

In diesem Seminar soll diskutiert werden, ob eine Energiewende einen Ausstieg aus der Kernener-gie und der fossilen Energiewirtschaft ermöglicht und Kosten- sowie Versorgungssicherheit gewähr- leistet bleiben.

Ist die Energiewende im Plan?

Wir laden ein zu einem aktuellen energiepolitischen Seminar.

Zielgruppe:

Lehrer, Journalisten, Kommunalpolitiker, Mitarbeiter aus Industrie und insbesondere Energieversorgungsunternehmen, politisch interessierte Bürger.

Hier das Programm mit Anmeldedetails als flyer Programm 18_513_Energiewende

 




Graphik der Woche: USA mit Abstand führend bei Reduktion von CO2-Emissionen

1. Die globalen Emissionen von CO2 aus der Energieerzeugung stiegen im Jahr 2017 um 1,6% (bzw. 426,4 Millionen Tonnen, siehe die Daten hier). Während der Jahre 2014 bis 2016 stagnierten die Zahlen. 2017 ging der Anstieg noch über das 10-Jahre-Mittel einer Steigerung von 1,3% hinaus.

2. Bei der Abnahme der CO2-Emissionen im Jahre 2017 waren die USA mit Abstand führend (-0,5%, siehe Graphik oben). Dies ist das neunte Mal in diesem Jahrhundert, dass in den USA der stärkste Rückgang der Emissionen weltweit registriert worden ist. Es war auch das dritte Jahr in Folge mit einer Abnahme der US-Emissionen, obwohl die Abnahme diesmal die geringste der letzten drei Jahre war.

3. Kohlenstoff-Emissionen durch den Energieverbrauch in den USA sind die niedrigsten seit 1992, also seit dem Jahr, an dem das United Nations Framework Convention on Climate Change (UNFCCC) aus der Taufe gehoben worden ist. Die zweitgrößte Abnahme verzeichnete die Ukraine (-10,1% bzw. 28,1 Tonnen).

4. Die stärkste Zunahme der Kohlenstoff-Emission im Jahre 2017 verzeichnete China (1,6% bzw. 119 Tonnen). Das ist eine Umkehrung der Verhältnisse der letzten drei Jahre, als Indien die stärkste Zunahme von Emissionen verzeichnete. Die Emissionen Chinas waren 2017 um 0,3% höher als beim Spitzenwert zuvor aus dem Jahr 2014. In China waren die größten Zunahmen von Kohlenstoff-Emissionen in jedem Jahr dieses Jahrhunderts aufgetreten, mit Ausnahme der Jahre 2000 sowie 2014 bis 2016. Die zweitstärkste Zunahme gab es in Indien, wo die Emissionen um 4,4% bzw. 93,2 Millionen Tonnen gestiegen waren (Graphik oben), lagen damit jedoch unter dem 10-Jahre-Mittel des Landes (6% pro Jahr).

5. Zusammen waren China und Indien zusammen verantwortlich für fast die Hälfte der Zunahme der globalen Kohlenstoff-Emissionen verantwortlich (212,2 Millionen Tonnen bzw. 426,4 Millionen Tonnen). Die Emissionen der EU waren ebenfalls gestiegen, und zwar um 1,5% oder 42,4 Millionen Tonnen (Graphik oben). Spanien hatte daran den Löwenanteil mit 44% der Zunahme der EU-Emissionen. Unter den anderen EU-Ländern verzeichneten UK und Dänemark die geringsten Kohlestoff-Emissionen in ihrer Geschichte.

MP: Für diese eindrucksvolle „Ergrünung“ von Amerika können wir den Erdgas-Ozeanen im Untergrund unter den USA danken. Diese sind jetzt zugänglich infolge der revolutionären Verfahren der Bohrung und der Extraktion mittels hydraulischem Brechen und horizontalen Bohrungen. Dieses Erdgas ersetzt zunehmend die Kohle bei der Stromerzeugung für die Nation.

Link: https://wattsupwiththat.com/2018/07/16/chart-of-the-week-the-us-is-a-leader-in-co2-reduction/

Übersetzt von Chris Frey EIKE




Hat die Deutsche Umwelthilfe (DUH) das ZDF über­nommen? Teil 2: Das ZDF und seine Nachrichten­sprecher/-innen

Da gibt es so Tage, die man so schnell nicht vergisst. Der 14. Juli diesen Jahres ist so ein Tag. Da verlautbart ein ZDF-Wetterfrosch Absonderliches (hier), dass sich der Eindruck erweckt, in Tolkins Traumwelten versunken zu sein. Nicht anderes vorher, bei Frau Gerster und „Ihren“ Heute-Nachrichten im ZDF zur besten Sendezeit um 19:00 Uhr.

Nachrichtensprecher, welche Qualifikation braucht man eigentlich dafür? Nun, eine klare und verständliche Aussprache, ‚ordentliches‘ Erscheinungsbild, mit dem sich der sog. Durchschnittsbürger identifizieren kann und damit bei den vielen Menschen auf der anderen Seite des Bildschirms Vertrauen erweckt wird. Intelligenz muss nicht unbedingt vorhanden sein. Liest doch der Nachrichtensprecher / die Nachrichtensprecherin ausschließlich vom Blatt ab, was vorher andere, in Abstimmung mit diversen Stellen, geschrieben haben. Heute ist dies kein Blatt mehr, sondern ein Laptop / Teleprompter (Abb.2).

Abb.2, Quelle: Screenshot aus ZDF-Heute-Nachrichten (19:00 Uhr). Petra Gerster am 14.07.18 beim Ablesen der Nachrichten (aufgeklappter Laptop im Vordergrund) zu einem vermeintlich weiteren Betrugsfall beim Diesel. Diesmal soll Opel uns Autofahrer betrogen haben. Zumindest soll dieser Eindruck entstehen: „Verdacht der Abgasmanipulation“ ist da zu lesen. Also schon wieder. Diese „böse“ Autoindustrie. Wer wirklich „böse“ ist, sehen wir gleich!

Man beachte den „bösen“, vorwurfsvollen Blick bei Frau Gerster (Mund und Augen beachten) in Abb.2, als Sie vorliest: „Jetzt geht das Kraftfahrtbundesamt Hinweisen nach,…es droht massiver Ärger.“ Schon das Wording eine unzulässige Vorverurteilung und Manipulation des Zuschauers. Da ist von „droht“ und „massiver Ärger“ zu hören. Das ist Stammtisch-Vokabular aber nicht Vokabular einer seriösen Sendung. Hinzu kommt der böse Blick von Frau Gerber, mit der der Zuschauer „belehrt“ werden soll. An Frau Gerber ist doch eine (schlechte) Lehrerin verloren gegangen (siehe auch Abb.3 und Abb.4).

Abb.3, Quelle wie Abb.2

Abb.4, Quelle wie Abb.2

Man sieht förmlich, wie Frau Gerster beim Vorlesen der Meldung über angebliche Diesel-Abgasmanipulationen bei Opel aufblüht und in vorverurteilender Gestik versucht, den Zuschauer in ihren Bann zu ziehen, ihn mit manipulierender Gestik versucht einzufangen. In Anbetracht der (schlechten) Mimik: Soll der Autor Frau Gerster nun „Gesten-Petra“ oder besser gleich „Clown-Petra“ nennen – in Anbetracht des Comedy-Charakters der Sendung. Aber was hat es denn mit der vermeintlichen Meldung auf sich?

„Jetzt geht das Kraftfahrtbundesamt Hinweisen nach,…“ Na, also schon wieder, jetzt Opel. Die böse Autoindustrie, die direkt und indirekt mehreren Millionen Menschen in unserem Land Arbeit gibt, damit ihren Familien einen sicheren Platz in der Gesellschaft bietet, deren Kindern eine Kindheit ermöglicht, an den Errungenschaften der Moderne (Smartphone, Wunschkleidung, Schul-und Studium – bekanntlich nicht ganz billig u.v.m.) teilzuhaben, den jährlichen Urlaub in schöne Welten (sich diesen leisten zu können), unserem Land seine Spitzenposition in der Welt schafft, technologisch, wie wirtschaftlich… Also diese böse Autoindustrie.

Da ist von Hinweisen die Rede. Wer kann denn diese Hinweise geben? Na, jeder. Aha, also auch solche, die damit versuchen für sich und deren politische Strömungen Vorteile zu erhaschen, zu Lasten von Millionen Menschen in unserem Land und zum Schaden unseres Landes. Doch dazu später mehr. Zuerst die Meldung selbst.

Von Opel wurde in der Heute-Meldung eingeblendet: „Opel liegt kein Bescheid des Kraftfahrtbundesamtes vor. Offene Verfahren, die vor mehr als zwei Jahren begonnen haben, können wir nicht kommentieren.“ Donnerwetter, die Story ist gar keine Story, ist ein alter Hut, wird indes von ZDF-Heute als aktuelle Sensationsmeldung verkauft: „Jetzt geht“… So ist bei Fokus zu lesen: „Im Kern geht es bei dem Verfahren um die Frage, wie wirksam die Abgasreinigung bei bestimmten Fahrzeugen ist, in welchen Bereichen diese voll zum Einsatz kommt“. Und daraus bauscht ZDF-Heute eine Meldung auf und Frau Gerster untermalt diese mit Ihrer „Böse-Mimik“.

Schlimmer noch, denn im Netzt ist weiter zu lesen (hier oder beim Spiegel hier): „Staatsanwaltschaft stellte Ermittlungen gegen Opel ein“ und der Hessische Rundfunk berichtet, „die Ermittler hätten mehrere Monate lang Dokumente ausgewertet, unter anderem Akten des Abgas-Untersuchungsausschusses des Deutschen Bundestags. Daraus hätten sich keine Hinweise auf Straftaten wie Betrug oder Verstöße gegen das Umweltstrafrecht ergeben. Die Staatsanwaltschaft hatte ihre Ermittlungen nach einer Strafanzeige der Deutschen Umwelthilfe aufgenommen.

Ach sieh mal einer an, die dubiose „Deutsche Umwelthilfe“, die, stimmen die Angaben des NABU, ungefähr so viel mit Umwelthilfe zu tun hat, der Autor möchte dies so ausdrücken: Wer glaubt, dass die deutsche Umwelthilfe der Umwelt hilft, der glaubt auch, dass Zitronenfalter Zitronen falten. Siehe hier, hier oder hier.

Und welch Wunder, hatte doch Jürgen Resch, Geschäftsführer oder kurz Chef der Deutschen Umwelthilfe nach „Clown-Petra“ und ihrer Mimik seinen großen Auftritt und was für einen. Zuerst schwenkte die Kamera auf ein vermeintlich schlichtes Gebäude (Abb.5).

Abb.5, Quelle wie Abb.2, zeigt das Domizil der Deutschen Umwelthilfe und von Jürgen Resch in Radolfzell am Bodensee. Die Kameraeinstellung ist bewusst so gewählt, zeigt sie doch ein schlichtes Gebäude mit Barackencharakter.

Die Wirklichkeit soll damit offensichtlich verschwiegen werden, denn die sieht ganz anders aus (Abb.6).

Abb.6, Quelle, zeigt einen Teil der Vorderansicht der Anlage aus Abb.5. Baracke? Weit gefehlt! Sieht schon eher wie eine Schlossanlage oder zumindest eine Kuranlage aus.

Da wird es doch sofort verständlich, dass Herr Resch die Bürde auf sich nehmen muss und mit vielen „klimaschädlichen“ Abgasen zwischen seinem Hauptsitz am schönen Bodensee und seinem Hauptstadt-„Büro“ für unser „Gemeinwohl“ zu pendeln. Wer möchte schon freiwillig solch eine Art Schlossanlage aufgeben? Die Süddeutsche hierzu „Und so pendeln Resch und seine Kämpen beständig zwischen dem DUH-Hauptsitz in Radolfzell am Bodensee, Berlin und Brüssel, um im Sinne der Umwelt und der Verbraucher Einfluss auf die große Politik zu nehmen.“ Anmerkung: Der Autor sucht nach einem Taschentuch. Und mal ehrlich, wer möchte denn nicht in einem Urlaubsparadies „arbeiten“ (Abb.7).

Abb.7 Quelle: Wikipedia, Peter Stein, CC BY-SA 3.0, zeigt den Kur-und Ausflugsort Radolfzell. Mal ehrlich, wer möchte dort nicht zu Hause sein oder zumindest eine Heimstätte haben? Sicherlich eine große Bürde für Herrn Resch und seine „Mannen“ dort zu „arbeiten“ und sich für unser „Gemeinwohl“ einzusetzen.

Abb.8, Quelle: Google Earth, zeigt das Hauptstadtdomizil von Herrn Resch und seiner Deutschen Umwelthilfe. Nun, ein luxuriöses Anwesen in einer erstklassigen Berliner Gegend. Man lässt es sich offenbar recht gutgehen, bei der Deutschen Umwelthilfe. Davon können die Malocher in unserem Land, bei den heutigen Mietpreisen, deren Arbeitsplätze vernichtet werden sollen, nur von träumen.

Nach dem kurzen Schwenk in Abb.5 dann das Eigentliche. Eine Schmierenkomödie könnte nicht anders sein (Abb.9).

Abb.9, Quelle wie Abb.2, zeigt einen überaus seriösen Herrn Resch, natürlich stehend, wie er gerade ein wichtiges Gespräch, natürlich für unser Gemeinwohl, zum Schutze der Umwelt und unserer Gesundheit, führt.

Merkwürdig nur, dass der Schreibtisch vor ihm so leer ist. Nicht mal ein Laptop zu sehen. Das Standartwerkzeug eines jeden Büroangestellten, wie Managers, der etwas (Sinnvolles) tut. Aber es kommt noch besser (Abb.10).

Abb.10, Quelle wie Abb.2, Wouwww, Staatspräsidenten lassen sich so vor ihrer Flagge abbilden. Ein Psychologe hätte seine wahre Freude an diesem Auftreten, zeigt es doch aus Sicht des Autors die Hybris von Herrn Resch, sein Verhalten, das an Größenwahn zu grenzen scheint.

Apropos „Größenwahn“. Ist unseren Lesern etwas in Abb.9 aufgefallen? Nicht? Dann möchte der Autor die Frage beantworten (Abb.11).

Abb.11.a. Wieder Herr Resch in seinem Arbeitszimmer und was hat er als persönliches dort an der Wand hängen? Keine Löwen, auch kein Löwenrudel, für dessen Schutz man sich stark machen könnte, nein, das Großporträt eines Löwenpaschas.

So sieht sich offenbar Herr Resch. Als Alphatier, als Führer (hatten wir doch schon mal), als König – der Pascha gilt im Tierreich als König der Löwen! Nein, dies ist offensichtlich kein Thema für die ZDF-Heute Nachrichten, an einem Samstag, zur besten Sendezeit um 19:00 Uhr, sondern ein Thema für einen Psychiater. So schreibt die FAZ über Herrn Resch: „Ein Missionar gegen Vieles“ (hier). In diesem Zusammenhang betrachte man auch das Bild von Herrn Resch im FAZ-Artikel.

Ebenso beachte man die weit aufgerissenen Augen in Abb.11.a. Vergrößerung in Abb.11.b.

 

Abb.11.b: Weit angerissene Augen beim gestellten Telefonat.

Aber eines muss man Herrn Resch lassen, Geschmack hat er. Ein wirklich schöner Anzug mit Krawatte und ein schickes Büro mit Naturholzschreibtisch. Der Arbeitsplatz vom Karle oder der Katja vom Band, deren Arbeitsplätze mit Hilfe des ZDF vernichtet werden sollen, ist dagegen schlichter gehalten (Abbildungen 12 und 13).

Abb.12, Quelle. Keine schmucke Arbeitskleidung à la Jürgen Resch, auch kein Naturholzschreibtisch, geschweige denn ein Paschabild an der Wand.

Da ist gar keine Zeit dazu, das Bild zu betrachten und sich beim Anblick des Bildes in Träume zu versetzen….

Abb.13, Quelle. Beim Artikel zu diesem Bild ist im Netz vermerkt „VW-Betriebsrat erwartet Arbeitsplatz-Verlust“.

Und die nächste „Sau“ hat bereits Panorama (auch ein öffentlich, rechtlicher Sender!) im Koffer. Und wieder dieselbe Masche: Angstmache mit Scheinmeldungen und angeblichen Toten und Gesundheitsgefahren, die einer näheren Betrachtung nicht standhalten. Diesmal sind es, passend zum Sommerloch, die Ausdünstungen im Auto.

Panorama: „Giftige Abgase: Die Gefahr im Auto.“ Auch hier soll diffamiert werden, in der Hoffnung, irgendwas wird schon hängen bleiben. Da ist zu hören: „Die Luft in Großstädten ist bekanntermaßen mit Stickstoffdioxid verpestet.“ „Verpestet“, da sollte jedem klar ein, was erreicht werden soll und welchen Wahrheitsgehalt die Sendung hat. Ist das Wort doch mit Tod und Verderben behaftet, was die Luft bekanntlich in keiner Stadt ist. Auch nicht in Hamburg. Auch hier bei den öffentlich, rechtlichen bei Panorama: Tendenziöse Berichterstattung, mit dem Ziel der Manipulation und Angstmache.

Da ist z.B. zu lesen „Bei Testfahrten im Stadtverkehr zwischen Düsseldorf und Köln lag die durchschnittliche Stickstoffdioxid-Belastung bei 84,7 Mikrogramm pro Kubikmeter Luft.“ Donnerwetter, was für eine Meldung. Beim Grillen mit Holzkohle ist der Griller einer Belastung ausgesetzt, die bis zu 5.000-mal so hoch ist, ohne jegliche Gesundheitsgefährdung! Siehe den Artikel des Autors hier. Und der Autor hat noch keinen Griller gesehen, der beim Grillen tot umgefallen wäre. Nichts als Angst- und Panikmache also. Den Machern von Panorama empfiehlt der Autor diesen Link.

Abb.14, Text und Collage: R. Leistenschneider, stammt aus dem EIKE-Artikel des Autors: „Das Kartell der Dummheit – Irrenhaus Deutschland„. Das Kartell der Dummheit wird in den Medien immer größer.

Nach diesem kleinen Exkurs zurück zu Herrn Resch. Nicht genug mit seinem Auftrittes am 14.07. zur besten Sendezeit in ZDF-Heute, hatte der „Hoffnungsträger der Nation“ oder doch besser „Retter der Nation“ am Dienstag den 17. Juli 2018 wieder einen Auftritt zur besten Sendezeit in den ZDF-Heute-Nachrichten um 19:00 Uhr (Abb.14).

Abb.15, Quelle: Screenshots aus ZDF-Heute-Nachrichten (19:00 Uhr) am 17.07.18 (auch hier: Weit aufgerissene Augen).

Diesmal ging es nicht um die bösen Autobauer, sondern um die bösen Landwirte, die angeblich unser Trinkwasser vergiften. Auch hier kommt Hilfe in „letzter Sekunde“, nach der Inszenierung des ZDF, von der Deutschen Umwelthilfe und dessen Alpha-Tier, nein, dessen Geschäftsführer, Herrn Resch, wie er selbst im Beitrag von sich gibt: „Wir versuchen nun auf dem gerichtlichen Wege…ähnlich wie wir dies bis jetzt erfolgreich mit …“

Der Autor geht jetzt nicht davon aus, dass Herr Resch deswegen so viel nach Brüssel und Berlin unterwegs ist, um sich als Lobbyist für niedrige Grenzwerte stark zu machen und diese mit Hilfe von NGOs und deren politischen Parteien durchsetzt, um anschließend klagen zu können und sich und „seine“ politischen Parteien als Retter in Szene zu setzen. Dies alles dann zu Lasten von Millionen von Dieselfahrern, deren Diesel weniger Wert werden und zig hunderttausenden von Arbeitsplätzen.

Angstmache in der Bevölkerung

Also schon wieder Grenzwerte. Diesmal beim Nitrat. Zuerst zur Begriffserklärung. Da existieren die EU-Grundwasserrichtlinie, die in die deutsche Grundwasserverordnung überging, sowie die EU-Trinkwasserrichtlinie, die in die deutsche Trinkwasserverordnung überging. Auch wenn beide denselben Grenzwert von 50 mg/l haben, beschreiben beide vollkommen andere Dinge, die voneinander völlig unabhängig sind, d.h. das eine hat mit dem anderen rein gar nichts zu tun. Im ZDF-Heute-Beitrag ging es um die EU-Grundwasserrichtlinie.

Nun trinken wir unser Wasser bekanntlich nicht aus Pfützen oder Sulen, sondern Wasser aus den Wasserleitungen. Sollten die Nitratwerte im Grundwasser zu hoch sein, werden diese durch die Wasserversorger reduziert, so dass wir einwandfreies Wasser trinken. Der Beitrag vermittelte indes den Eindruck (da wurden gleich mehrere Güllesprinkler gezeigt und denen viel Sendezeit eingeräumt, ein Schelm, der Böses dabei denkt), die Landwirte würden sich als Brunnenvergifter an unserer Gesundheit vergehen, was vollkommener Unsinn ist. Einzig der Wasserpreis kann geringfügig steigen, müssen zu hohe Nitratwerte aus dem Grundwasser reduziert werden. Unsere Gesundheit ist nicht betroffen.

Um was geht es Herrn Resch? Dazu lassen wir ihn selbst zu Wort kommen: „Wir haben in Deutschland im europäischen Vergleich die niedrigsten Lebensmittelpreise. Und das hat eine Auswirkung natürlich auf die Landschaft. Denn wir produzieren viel zu intensiv. Und einer der Leidtragenden ist eben das Grundwasser, das bei uns einfach rekordmäßig vergiftet ist.“ (Quelle). Auch hier scheint man den Unterschied zwischen Grund- und Trinkwasser nicht zu kennen.

So, so, dem „Retter der Nation“ sind also unsere Lebensmittelpreise zu niedrig und sollen teurer werden. Die Deutsche Umwelthilfe wird doch wohl nicht auch mit Spenden vom Einzelhandel bedient, wie mit Spenden von Toyota, die bekanntlich keine Diesel bauen?

Ihm und seinen Grünen geht es aber wohl noch um etwas anderes. Im Netz ist hier zu vernehmen:

„Vor allem Franken und Niederbayern belastet“. Aha, beide Gebiete sind in Bayern und in Bayern sind im Herbst Landtagswahlen. Sollen etwa mit der Angstmache in der Bevölkerung den Grünen wieder einmal Wählerstimmen zugetrieben werden? Was sind eigentlich Nitrate und von wo stammen sie?

Nitrate sind Teil des Stickstoffkreislaufs der Erde. Dieser Kreislauf hat seine Hauptursache im dem Austausch des atmosphärischen Stickstoffs mit dem Boden. 99% des Stickstoffs, der zur Nitratbildung notwendig ist, stammen aus der Atmosphäre. Dazu die Uni Bayreuth (Abb.15).

Abb.16, Quelle. „Der Gesamtstickstoffgehalt der Erde beläuft sich auf 1015 Tonnen und findet sich zu 99% in der Atmosphäre (78% der Luft). Weniger als 1% kommt, vor allem als Salpeter bzw. Chilesalpeter, gebunden in der Lithosphäre vor, der Rest verteilt sich auf Hydrosphäre und Biosphäre. Stickstoff ist Bestandteil der Aminosäuren, der DNS sowie Vitaminen und daher unverzichtbar für alle Lebewesen!“

Herr Resch ist bekanntlich als Vielflieger bekannt. Die Umweltbelastung schert ihn dabei wenig*, ist er doch zur Rettung der Menschheit und für unser Gemeinwohl unterwegs und nimmt all die Pein, die damit verbunden ist auf sich.

* Im Netz ist zu vernehmen: Herr Resch ist Mitglied des sog. HON Circles bei der Lufthansa. Diesen höchsten Vielfliegerstatus erhält derjenige, der innerhalb von zwei Jahren 600.000 Meilen fliegt. Dies sind ca. 28,5 Erdumrundungen. Damit gehört Jürgen Resch zu einem kleinen und erlauchten Kreis von knapp 3.000 Lufthansa-Vielfliegern. Wer die begehrte schwarze Karte besitzt, wird vor und nach dem Flug in exklusiven Topkunden-Lounges verwöhnt und auf Wunsch sogar in einem Porsche-Cayenne direkt zum Flugzeug gebracht. Was für Unannehmlichkeiten.

600.000 Meilen, sind 924.000km. Pro Flugkilometer und Passagier (bei vollausgelasteten Flugzeugen) beträgt der CO2-Ausstoß 0,3 kg/km (die Daten schwanken zwischen 211 und 380 g). Dies ergibt die Menge von:

Allein durch seine Vielfliegerei belastet Herr Resch unsere Umwelt mit 924.000 x 0,3kg CO2 = 277.200 kg CO2. Wohl bemerkt: Mindestens!

Abb.17 zeigt Herrn Resch und seine politischen Wegbereiter. Jürgen Resch, der Geschäftsführer der Deutschen Umwelthilfe, auf dem Parteitag der Grünen, mit donnerndem Applaus und Standing Ovation. Quelle, Collage: R. Leistenschneider.

Siehe hierzu auch hier.

ZDF-Heute, Gülle, Jürgen Resch und seine Deutsche Umwelthilfe?? Passt doch irgendwie zusammen! Natürlich passt das zusammen, sonst wäre es doch nicht zusammen gesendet worden. Was hat es mit „der Sau“ auf sich, die diesmal „durchs Dorf gejagt“ wird, hat der Autor gerade dargelegt.

Schon eigenartig, wie ZDF-Heute die Deutsche Umwelthilfe als die Institution zur Rettung unserer Nation hochspielt. Ist sie doch für viele andere (siehe die diversen Links im Artikel) bestenfalls ein Abmahnverein, schlimmstenfalls ein Lobbyisten-Verein für ihren Großspender Toyota. Das ZDF:

  • Hat das seinen Sitz in Mainz? Ja!
  • Ist Mainz nicht die Hauptstatt von Rheinland-Pfalz? Ja!
  • Ist dort nicht die Partei mit in der Regierung und hat über den Fernstehrat, bzw. den Verwaltungsrat unmittelbaren, bzw. mittelbaren Einfluss, was beim ZDF gesendet und wer dort eingestellt wird, denen jedes Mittel recht zu sein scheint, Wählerstimmen zu erhaschen? Nein.

Da sind doch die Grünen mit in der Regierungsverantwortung und die Grünen sind doch die Gutmenschen. Ach so. Und überhaupt, sind der Fernsehrat und ganz besonders der Verwaltungsrat des ZDF politisch unabhängige Einrichtungen. So, so. Dem Verwaltungsrat sitzt doch die Rheinland-Pfälzische Ministerpräsidentin vor. Schauen wir doch mal rein.

Fernsehrat des ZDF

Der ZDF-Fernsehrat hat 60 Mitglieder und besteht aus einer „bunten“ Mischung von Parteimitgliedern der CDU, SPD, Die Linke und Grünen, Vertreter aus Religionsgemeinschaften, sowie aus Vertretern diverser Gesellschaftsgruppen, u.a. vom BUND (Bund für Umwelt und Naturschutz) und NABU (Naturschutzbund Deutschland). U.a. berät der Fernsehrat den Intendanten im Hinblick auf die Programmgestaltung. Er ist das oberste Gremium in der Programmkontrolle und wählt die Vertreter des Verwaltungsrates.

Der NABU ist doch die Vereinigung, die sich auf ihrer Web-Seite so über die Zuwendungen der Deutschen Umwelthilfe von 250.000€ jährlich für Natur-und Umweltschutzprojekte freut. EIKE berichtete darüber hier: „1975 wurde die Deutsche Umwelthilfe (DUH) gegründet. Die DUH gibt im Schnitt über 250.000 Euro im Jahr für die Förderung einer Vielzahl von kleinen und mittleren Natur- und Umweltschutzprojekten aus.“ Wird jetzt dieser Link hier betätigt, der letztes Jahr, vor der Veröffentlichung in EIKE, zu der NABU-Aussage führte, wird heute die Seite nicht mehr gefunden.

Von besonderem „Interesse“ über die Zusammensetzung des ZDF-Fernsehrates ist deren Vorsitzende, Frau Marlehn Thieme. Neben Ihrer Tätigkeit als Vorsitzende des ZDF-Fernsehrates ist sie Vorsitzende des Rates für Nachhaltige Entwicklung. Der Rat wurde 2001 unter Gerhard Schröder (damals waren die Grünen mit in der Regierung) gegründet und berät die Bundesregierung in Fragen der Nachhaltigkeit. Weitere Aufgabe des Rates ist, in der Bevölkerung die Politik der Nachhaltigkeit zu verankern.

Abb. 18 wegen Unklarheit bzgl. Copyright hier nicht gezeigt

Abb.18, siehe Quelle, zeigt die Vorsitzende des ZDF-Fernsehrates und die Vorsitzende des Rates für Nachhaltige Entwicklung.

Nun ist Nachhaltigkeit nichts schlechtes, ganz im Gegenteil. Jeder Landwirt, der seine Felder bestellt, betreibt damit nachhaltiges Wirtschaften. Und wer will ernsthaft behaupten, die Landwirte sind nicht eine tragende Säule unseres Landes. Verlässt man indes die praktische Ebene und begibt sich in die politische, sieht das Ganze leider nicht mehr schön aus.

Unter den 15 Mitgliedern des Rates gehören die Präsidenten, bzw. Vorsitzende des NABU und des BUND. Hoppla, NABU und BUND, die sind doch auch im ZDF-Fernsehrat. Wie klein doch die Welt ist und wie „schön“ sich der Kreis schließt. Da braucht sich jetzt niemand mehr zu wundern, warum das ZDF in seinen Heute-Nachrichten tendenziöse Meldungen verbreitet, seltsamen Personen eine Plattform zur Selbstdarstellung bietet, die Autoindustrie kaputt machen will, dem Karle vom Band seinen Job wegnehmen will, die Landwirte als Kriminelle versucht hinzustellen,… und mit seiner tendenziösen Berichterstattung weite Teile der Bevölkerung manipuliert.

Fazit

  • Das ZDF verbreitet in seinen Heute-Nachrichten tendenziöse Meldungen, die nichts mit den Realitäten zu tun haben.
  • Im ZDF wird der Zuschauer über Bilder, Texte und Mimik der Nachrichtensprecher/in manipuliert. Eine objektive Berichterstattung ist nicht erkennbar.
  • Die Geschehnisse beim ZDF-Heute vom 14.07.2018 sind ein Thema für den ZDF-Fernsehrat. Anmerkung: Bei der Vorsitzenden und der „Vetterles Wirtschaft“ indes ein Witz, dies dort untersuchen zu lassen. Ungefähr so, als würden die Windkraftbetreiber gefragt, ob die Windräder stillgelegt werden sollen.
  • Das ZDF betreibt offensichtlich unerlaubte Wahlwerbung für die Partei der Grünen.

Da ist auf der einen Seite die deutsche Autoindustrie, mit fast 2 Millionen Beschäftigten (direkt und indirekt). Gut 6 Millionen Menschen (Familie einberechnet). Die Wirtschaftswoche schreibt hier:

„Der deutschen Autoindustrie ist etwas Seltenes gelungen: Seit dem Startschuss Ende des 19. Jahrhunderts, als Carl Benz in Mannheim das Automobil erfand, fährt sie ununterbrochen vorne mit, beim Absatz wie bei der Leistungsfähigkeit der Autos. Heute hat die Autoindustrie in keiner anderen Volkswirtschaft der Welt einen so großen Anteil an der heimischen Wertschöpfung wie in Deutschland.“

Weiter auf dieser Seite, die deutsche Landwirtschaft (unsere Bauern) mit fast 1,3 Millionen Beschäftigen – mehr als 3 Millionen Menschen (Familie eingerechnet) – die dafür sorgen, dass wir täglich unsere Lebensmittel, in der von uns erwarteten Qualität, erhalten.

Weiter auf dieser Seite, über 80 Millionen Verbraucher, also Menschen, denen ihr Geld aus der Tasche gezogen werden soll.

Auf der anderen Seite, ein Verein, der sich Deutsche Umwelthilfe nennt, stimmen die Angaben des NABU, mit Umwelt ungefähr so viel zu tun hat, wie ein Schneeschauer in Berlin im Juli:

  • Dem unsere Lebensmittelpreise zu niedrig sind. Wir also alle mehr zahlen sollen oder nicht mehr das essen dürfen, was uns schmeckt.
  • Dessen Geschäftsführer sich keinen feuchten Kehricht um die Umweltbelastung schert, die er durch seine Vielfliegerei verursacht.
  • Ein Verein, der offensichtlich als Lobbyisten Verein unterwegs ist (Stichwort Toyota).
  • Ein Geschäftsführer, der hoffentlich nicht seine vielfältigen Reisen nach Brüssel dafür nutzt, um unsinnig niedrige Grenzwerte zu schaffen, damit er sich und „seine“ Grünen als vermeintlichen Retter in Szene setzen kann.
  • Dessen Geschäftsführer womöglich irre ist.
  • Der lediglich das Mandat für 243 Mitglieder (Stand 2016) hat, das sind weniger als 0,0003% der Bevölkerung

Ebenfalls auf der anderen Seite gibt es einen öffentlich, rechtlichen Sender, der mit Hilfe tendenziöser und manipulierender Berichterstattung ein Klima schaffen will, um mit falschen Propheten politische Richtungen, zum Schaden unseres Landes und seiner Menschen, durchsetzen will.

Ebenfalls auf der anderen Seite gibt es eine Partei, die mit Hilfe von Angst-und Panikmache Wählerstimmen zu gewinnen sucht.

Abb.19: Der falsche Heilige. Collage: R. Leistenschneider, In Anlehnung an Hossein Kazem, Quelle.

Und auch auf der anderen Seite, eine Clique von Großverdienern, bei der Umweltbehörde in Brüssel, die nie etwas rechtes gearbeitet hat, aber dem Karle vom Band mit unsinnigen Grenzwerten seinen Job nehmen will und Millionen ihr Geld aus der Tasche ziehen wollen. Was es mit deren Umweltverständnis auf sich hat, soll eine kleine Rechnung zeigen.

Die veranstalten doch immer mal wieder sog. Umweltkonferenzen zum Schutz unseres Planeten. Die letzte in unserem Land fand in Bonn statt.

Die Klima-Konferenzteilnehmer kamen aus der ganzen Welt. Demnach beträgt die mittlere Flugstrecke 10.000 km, nur hin, hin und zurück also 20.000 km. Bei 25.000 Teilnehmern also 500.000.000 Passagierkilometer. Pro Flugkilometer und Passagier (bei vollausgelasteten Flugzeugen) beträgt der CO2-Ausstoß 0,3 kg/km. Dies ergibt die Menge von 150.000.000 kg.

Der EU-CO2-Grenzwert liegt derzeit für ein Fahrzeug bei 95g/km. Damit rechnen wir. Die durchschnittliche Fahrstrecke liegt bei ca. 10.000km/Jahr. Die Klimakonferenz dauerte ca. 2 Wochen. In dieser Zeit fährt also ein Durchschnittsfahrer 10.000km/26 = 384,6 km.

Auf dieser Strecke werden 384,6 km x 0,095 kg/km = 36,5 kg CO2 ausgestoßen.

Mit dem oben errechneten Wert von 150.000.000 kg CO2-Ausstoß der 25.000 Teilnehmer in 2 Wochen, könnten demnach 150.000.000 kg / 36,5 kg = 4.109.589 Fahrzeuge fahren. Oder in der Sprache der Konferenzteilnehmer ausgedrückt:

Die Klimakonferenz entspricht dem CO2-Äquivalent von über 4,1 Millionen Fahrzeugen. Sieht bei Stickoxiden ähnlich aus.

Aber den Diesel wollen die kaputt machen und anschließend kommt der Benziner dran….

Der Autor überlässt es unseren Lesern, wo die Good Guys zu finden sind und wo die Bad Guys?

Raimund Leistenschneider – EIKE




Kohlenstoff-Kolonia­lismus zurück­weisen!

Mit einer glänzenden Zurschaustellung von Menschlichkeit und gesundem Menschenverstand hat jetzt die African Development Bank (AfDB) seine Beziehungen zur Weltbank und deren den Kohlenstoff-Kolonialismus unterstützenden Gesinnungsgenossen abgebrochen. Die AfDB hat angekündigt, dass sie wieder Projekte zur Energieerzeugung auf der Grundlage von Kohle und Gas fördern wird. Der Präsident der AfDB Akinwumi Adesina drückt es so aus: „Afrika muss seinen Energiesektor mit dem entwickeln, was es hat!“

Adesina weiter: „Die entscheidende Voraussetzung für Afrika ist die Energieerzeugung. Der Kontinent weist die geringste Elektrifizierungsrate der Welt auf. Der Energieverbrauch pro Kopf in Afrika beträgt geschätzt 613 kWh pro Jahr. Man vergleiche dies mit dem Energieverbrauch in Europa mit 6500 kWh und in den USA mit 13.000 kWh. Energie ist mit großem Abstand oberste Priorität in Afrika.

Ja, die Investitionen sind teuer, aber die langfristigen Ergebnisse werden diesen Preis weit übertreffen. Um den allgemeinen Zugang zu Strom zu beschleunigen, investiert die Bank 12 Milliarden US-Dollar in den Energiesektor und bemüht sich um Mobilisierung von 45 bis 50 Milliarden Dollar von anderen Partnern“.

Nur 1 Stunde am Tag Strom

Überträgt man dies in verständliche Alltagszahlen, dann bedeuten diese Zahlen, dass der Strom, welcher überhaupt erst einen modernen Lebensstil ermöglicht ebenso wie Arbeitsplätze, Produktivität, Lebensstandards, Gesundheit, Kommunikation, Computer, Unterhaltung und Lebensspannen, den Afrikanern nur in erbärmlichen 4,7% von dem zur Verfügung steht, auf was sich die Amerikaner stützen. Man stelle sich einfach mal vor, Strom nur 1 Stunde am Tag zur Verfügung zu haben … 8 Stunden pro Woche … 411 Stunden pro Jahr – zu total unvorhersagbaren Zeiten, für wenige Minuten, Stunden oder ein paar Tage am Stück. Und das zu einem Preis, der dreimal so hoch ist wie der, den Amerikaner zahlen müssen.

Man versuche mal, auf diese Weise zu leben – oder mit Wind- und Solarsystemen, welche einfach nur sporadisch und unzuverlässig Strom erzeugen – und vielleicht den Pro-Kopf-Strom auf 10 bis 15% des US-Niveaus steigen lässt.

In Botswana, Mosambik, Südafrika, Zimbabwe und vielen anderen afrikanischen Ländern südlich der Sahara gibt es riesige Kohlevorkommen. Der staatliche Stromversorger in Südafrika Eskom schätzt, dass die 53 Milliarden Tonnen an Kohlereserven noch für 200 Jahre den Bedarf decken können! In vielen Ländern gibt es auch enorme Erdgas-Ressourcen.

Diese fossilen Treibstoffe dürfen nicht ignoriert und „im Boden gelassen werden“, um es den Öko-Imperialisten recht zu machen.

Die AfDB wird von der Trump-Regierung unterstützt, welche hinter dieser neuen Politik steht. Die USAID von Trump hat jetzt das Energie-Afrika 2.0-Programm aufgelegt, eine bedeutende Aktualisierung des Programms aus der Obama-Ära, welches erneuerbare Energie fördern und die Verwendung bezahlbarer fossiler Treibstoffe verhindern sollte.

USAID sagt, dass Energie Afrika 2.0 „eines der größten öffentlich-privaten Partnerschaften“ ist in der Historie der Entwicklungshilfe ist, mit Verpflichtungen von über 54 Milliarden Dollar von seinen über 150 Partnern im öffentlichen und privaten Sektor“.

Das Obama-Programm hatte es fertig gebracht, Finanzmittel für gerade mal 7300 MW Stromerzeugungs-Kapazität bereitzustellen (15% dessen, was Deutschland im Jahre 2016 mit Kohle erzeugt hat!) – und das meiste davon bestand in teuren und unzuverlässigen Wind- und Solar-Einheiten. Sogar Bloomberg sagte, dass die „Signatur-Initiative für Afrika“ von Präsident Obama „weit hinter deren Zielen zurückgeblieben war“ (hier) und weniger als 5% des versprochenen Stromes erzeugt hat. Außerdem war fast dieser gesamte Strom nur sporadisch verfügbar und teurer Wind- und Solarstrom – was hunderte Millionen Afrikaner „im Dunklen“ beließ.

Der einzige fossile Treibstoff, der potentiell unter Obamas Programm noch erlaubt war, war Erdgas. Aber selbst diesbezüglich hat es die Overseas Private Investment Corporation abgelehnt, den Bau eines 130-MW-Kraftwerkes in Ghana zu unterstützen, welches sauberes Erdgas verbrannt hätte, das sonst „abgefackelt“ und verschwendet worden wäre.

Der USAID-Administrator Mark Green sagte, das neue Ziel von Power Afrika seien 20.000 MW bis zum Jahr 2020, und zwar mittels „bezahlbarer, zuverlässiger Energie“, womit in den meisten Fällen Kohle gemeint ist. In größerem Rahmen hat die Trump-Regierung eine „global fossil fuel alliance“ auf den Weg gebracht. Energieminister Rick Perry nennt dies oft einen „neuen Energie-Realismus“ bei der Entwicklung des globalen Energiebedarfs und sagt, dass fossile Treibstoffe absolut unabdingbar seien für Entwicklungsländer, vor allem in denjenigen, in denen die Menschen immer noch keinen Strom haben.

Sogar in Südafrika, dem am meisten elektrifizierten und fortschrittlichsten Land im Afrika südlich der Sahara, bedeutet eine unzureichende Stromversorgung zu häufig Stromverknappung, welche die Produktivität von Firmen und Bergbau beeinträchtigt sowie Krankenhäuser und Schulen weit unterhalb optimaler Niveaus arbeiten lässt. Die Raten der Müttersterblichkeit sind 35 mal höher als in den USA, die Tuberkulose-Raten 230 mal höher, und Tausende sterben immer noch jedes Jahr an Lungen- und Darmkrankheiten.

Aber die Kohlenstoff-Kolonialisten der Weltbank haben trotzdem Südafrika brüskiert, als das Land einen Kredit zur Fertigstellung des Kohlekraftwerkes Medupi beantragte – trotz fortschrittlicher Verfahren zur Verschmutzungskontrolle. Mit der Behauptung, dass das Projekt Klima- und Nachhaltigkeits-Ziele verletzt, haben der Sierra Club und andere Agitatoren die Bank gedrängt, den Antrag abzulehnen. Die Obama-Regierung stimmte ultimativ „present“ [?] und der Kredit wurde nur durch eine Mehrheit anderer Mitgliedsländer bei der Weltbank genehmigt.

16% der Weltbevölkerung – und 53% ohne Strom

Lässt man Südafrika einmal außen vor, „erfreuen“ sich die Nationen südlich der Sahara an einem minimalen Stromverbrauch von 181 kWh pro Kopf und Jahr, das sind 1,4% des Stromverbrauchs eines normalen Amerikaners! Tatsächlich leben in Afrika 16% der Weltbevölkerung – und 53% der Weltbevölkerung ohne Stromanschluss! Da ist es kein Wunder, dass Botswana, Kenia, Tansania und andere Länder ihr Schicksal in die eigene Hand nehmen und Dutzende Kohlekraftwerke errichten.

Prof. Rosemary Falcon weist darauf hin, dass saubere Kohle nicht nur praktikabel, sondern auch die billigste Art ist, Strom zu erzeugen auf einem Kontinent, wo doppelt so viele Menschen wie die USA Einwohner haben ohne Strom leben müssen. Ihre „Forschungsgruppe nachhaltige Kohle“ entwickelte ein Verfahren, mit welchem Kohle minderer Qualität von Kohle besserer Qualität unterschieden werden kann. Die Kohle minderer Qualität wird gebrochen und alle Komponenten entfernt, die nicht gut brennen. Diese dann in fortschrittlichen Kohlekraftwerken zu verbrennen erzeugt mehr Strom mit „weniger Asche, weniger Rauch, mehr Wärme und längerer Brenndauer“. Das ist saubere Kohle.

Jedes Land könnte so verfahren, falls nur der „politische Wille“ dafür vorhanden wäre, sagt der Nigerianer Sam Bada, Mitglied in Falcons Team. „Ich bin es leid, von Menschen in reichen Ländern belehrt zu werden, welche niemals auch nur einen Tag ohne Strom leben mussten. Vielleicht sollten sie einfach nach hause gehen und ihre Kühlschränke, Heißwasserbereiter, Laptops und Lichter ausschalten. Dann sollten sie monatelang so leben und uns sagen, die wir Jahre lang unter diesen Umständen gelitten haben, keine Kohle zu verbrennen“.

All dies hilft zu erklären, warum die AfDB das macht, was alle MDBs tun sollten. Sie hat 12 Milliarden Dollar für ein Programm bereitgestellt mit der Bezeichnung „New Deal on Energy for Africa”. Mr. Adesina sagt dazu: „Afrika hat viel Energiepotential, aber das Potential allein erzeugt gar nichts. Wir können nicht damit fortfahren, Afrika als den ,dunklen Kontinent‘ zu begreifen. Wir müssen unsere Pläne beschleunigen, um Afrika mit Licht und Energie zu versorgen“.

Technologien „grüner“ Energie existieren nicht … außer in Klassenräumen, Computermodellen, IPCC-Berichten, Al Gore-Lektionen und befürwortender Literatur.

Es hilft zu erklären, warum Afrika, China, Indien, Indonesien und andere es ablehnen, den Verbrauch von Kohle und Gas einzuschränken – und es gleichermaßen ablehnen, sich auf „grüne“ Energie-Technologien zu verlassen, die nicht existieren … außer in Klassenräumen, Computermodellen, IPCC-Berichten, Al Gore-Lektionen und der Literatur von Unternehmen erneuerbarer Energie.

Behauptungen der Art, dass 97% aller Wissenschaftler darin übereinstimmen, dass wir vor einem „Kipp-Punkt“ des vom Menschen verursachten Klimawandels stehen, sind nur dann richtig, wenn man über Bürokraten, Aktivisten und Klimatologen spricht, die üppige Gelder der Steuerzahler einsacken und die Menschen für ein vermeintliches Klima-Chaos verantwortlich machen. Jenseits des Tellerrandes, über den sie nie schauen, gibt es zuhauf rationale wissenschaftliche Diskussionen über globale Erwärmung und Abkühlung, die Segnungen von Kohlendioxid und eine ganze Palette damit zusammenhängender Themen: hier, hier, hier, hier, hier und hier, um nur einige zu nennen.

Und wie kann irgendjemand vermeintliche Klimaprobleme vergleichen mit den sehr realen, unmittelbaren und tödlichen Problemen der Dritten Welt, verursacht und verewigt, indem die Menschen dort gezwungen werden, sich weiterhin auf Holz, Holzkohle und Dung zu verlassen – also die Treibstoffe, die zu Armut, Elend, Krankheit und frühen Tod führen? Die Menschen in diesen Ländern sind keine entbehrlichen Versuchstiere, mit denen man Programme erneuerbarer Energie ausprobieren kann. Sie dürfen nicht länger so behandelt werden.

Viele Länder unterzeichneten das Paris-Abkommen, weil man ihnen zahllose Milliarden Geld für Abschwächung, Anpassung und Kompensation versprochen hatte. Der Green Climate Fund [auf Deutsch beim EIKE hier] ist inzwischen praktisch außer Betrieb. Dessen Direktor ist zurückgetreten, und nahezu niemand bedauert das. Eigentlich sollte das ein weiterer lauter globaler Weckruf sein.

Entwicklungsländer erkennen immer mehr, dass sie weitgehend auf sich gestellt sind. Andere Nationen sollten ihnen folgen und diese tragische Faszination für das Zauberpulver ,grüne Energie‘ ablegen. Die Welt braucht nach wie vor Öl, Gas, Kohle, Kern- und Wasserkraft – also die Treibstoffe, welche moderne Lebensstandards, Wohlstand, Gesundheit und gutes Leben überhaupt erst möglich machen.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow and author of books and articles on energy, climate change and economic development. David Wojick is an independent analyst specializing in science and logic in public policy.

Link: https://www.iceagenow.info/rejecting-carbon-colonialism/




Das Klimaziel

Wenn man davon ausgeht, dass „Klima“ eine Gesamtheit meteorologischer Vorgänge über einen längeren Zeitraum beschreibt, so lässt einen das fusionierte Substantiv „Klimaziel“ einigermaßen ratlos zurück. Der Begriff ist ein Paradebeispiel neudeutscher Sprachpanscherei.

Nehmen wir es wörtlich und stellen uns vor, wie der Beschluss eines Bundeskabinetts zu einem Klimaziel aussehen müsste. Da Deutschland hinreichend groß ist, um differenzierte Klimata aufzuweisen, würden die Ziele in einer Anlage genannt und nach Regionen aufgeschlüsselt, so wie es zum Beispiel die Wärmeversorger und Heizungsprojektanten tun. Diese setzen vier Klimazonen in Deutschland an, die aber für konkrete Klimaziele zu grob gefasst wären. Folgende Formulierung ist denkbar:

Die Bundesregierung legt die in der Anlage genannten Klimaziele für das Jahr 2030 für die einzelnen Klimazonen fest.“

Anlage: Zone Breisgau, Bodenseeregion, Schwäbische Alb:

Sommermaximum <= xx Grad

Winterminimum >= – xx Grad

Jahresmittel = xx Grad

Relatives Luftfeuchtemittel = xx %

Niederschlagsmittel = xxxx mm

Durchschnittliche Sonnenscheindauer = xxxx Stunden

Windmittel = x,x m/s

Hauptwindrichtung: XX“

Dies wäre ein beschlossenes Klimaziel, das auf dem langfristigen regionalen Wetter beruht, welches zur Erreichung von Zielen irgendwie beeinflusst werden müsste.

Gemeint ist natürlich anderes. Es ist gängige Praxis, allen Vorgängen, die irgendwie mit Treibhausgasemissionen zu tun haben, den Begriff „Klima“ anzupappen. Eigentlich gehört jeder dieser Begriffe in Anführungszeichen gesetzt, aus Gründen der Lesbarkeit verzichte ich darauf.

Unpräzise Sprache verrät unpräzises Denken und öffnet den Weg zum Klimapopulismus. Komplizierte Sachverhalte zu simplifizieren und einfache Lösungen anzubieten („Abschalten“) sind Kennzeichen des Populismus und helfen in der Realität nicht weiter. Die Basis bildet der durch Computersimulationen gestützte Gedanke, dass höhere Treibhausgasemissionen zwangsläufig zu höheren Temperaturen von Erde, Luft und Wasser führen. Damit ist zu den weiteren Klimaparametern nichts gesagt. Auch die Frage, welche Temperatur maßgebend ist, bleibt offen, denn eine messbare Globaltemperatur gibt es nicht. Nehmen wir an, am Nordpol steigt in wenigen Jahren die Temperatur um drei Grad, in der Wüste Gobi sinkt sie um drei Grad, so wäre die Globaltemperatur zwar konstant, aber regional mit gravierenden Auswirkungen verbunden.

Die schlichte Annahme, nach zu viel „Gas geben“ könne man durch „Gas wegnehmen“ die Geschwindigkeit eines Temperaturanstiegs regeln wie die eines Autos, wird dem komplizierten Gesamtsystem Atmosphäre mit ihren vielen Einflussfaktoren nicht gerecht. Der erbittert geführte und emotionalisierte Streit um das nicht mehr erfüllbare Ziel 2020 lässt sich nur damit erklären, dass dieser simplifizierte Wirkungsmechanismus derart naiv angenommen wird. Nehmen wir aber an, es wäre tatsächlich so einfach und betrachten die deutschen Klimaschutzbemühungen. Nun streiten sich Klimaschutzparteien und andere Beteiligte um eine aus etwa 70 Millionen Tonnen CO2 zu erwartende Differenz. Das sind zirka 0,17 Prozent der globalen jährlichen anthropogenen Emissionsmenge. Dass dieser Anteil eine Atmosphärenreaktion hinsichtlich der Temperatur hervorruft, ist sehr, sehr unwahrscheinlich. Eher erscheint vor dem Bundestag ein pinkfarbenes Einhorn auf einem Fahrrad.

Klimazeichensetzung

In Gesprächen geben unsere Klimabewegten durchaus zu, dass derart geringe Anteile keine Wirkung haben werden. Der wichtigste Antrieb für ihren Kampf besteht darin, „Zeichen setzen“ zu wollen, damit sich Deutschland als internationaler Vorreiter präsentieren kann. Sie geben hinter vorgehaltener Hand zu, dass eine fulminante Wirtschaftskrise die wirksamste Klimaschutzmaßnahme wäre. Dies wirft ein ehrliches Licht auf die vorgebliche Harmonie der vom Klimaschutz okkupierten Ökologie und der Ökonomie.

Die Abkehr von pragmatischer ergebnisorientierter Politik hin zur „Zeichensetzung“ erleben wir auch auf anderen politischen Feldern wie den Auslandseinsätzen der Bundeswehr oder der Entwicklungshilfe. Vernunftgeleitete Politik würde auf realistische Ziele ausgerichtet sein, was auf dem Energiesektor eher schlecht für die Raum greifende semistaatliche Subventionswirtschaft wäre.

In ihrer Zielfestlegung hat sich unsere Regierung grandios verschätzt und schlampig gearbeitet und das wird wie bei der Brennelementesteuer und den Reststrommengen teuer. Das neue Milliardenrisiko besteht nun darin, dass EU-Emissionsvorgaben für Verkehr und Gebäude deutlich verfehlt werden. Berechnungen zeigen, dass selbst bei moderaten Klimaschutzerfolgen bis zu 30 Milliarden Euro an Zahlungen an die EU drohen. Dafür sind Emissionsmengen von anderen Mitgliedsländern zu erwerben. Die Annahmen unserer Regierung zu möglichen Emissionsminderungen in den Bereichen, die nicht dem Emissionshandel unterliegen, waren unrealistisch.

Der einfachere Weg, den Energiesektor weiter par ordre du mufti durch Abschaltungen von Kraftwerken zu Emissionssenkungen zu bewegen (obwohl diese bisher fast ausschließlich aus diesem Sektor kamen) birgt wiederum die Gefahr von Schadenersatz an die Konzerne. Zeichensetzen kann teuer werden.

Auch die Klimaziele des Pariser Vertrags 2015 scheinen schon veraltet. Neue energiehungrige Technologien wie die Kryptowährungen sind nicht berücksichtigt. Der Bitcoin klettert derzeit auf einen Kurs von mehr als 7.500 Dollar, der zu seiner Erstellung nötige Strombedarf ist erheblich und wächst anscheinend ungebremst. Für 2018 schätzt man den Aufwand weltweit auf etwa 140 Terawattstunden, was dem Jahresbedarf Argentiniens entspricht oder 0,6 Prozent des weltweiten Stromverbrauchs. Das klingt zunächst nicht viel, aber der Gradient ist erheblich.

42.000 Kilowattstunden sind gegenwärtig nötig, um einen einzigen Bitcoin zu „schürfen“. Zum Vergleich: Ein Dreipersonenhaushalt braucht etwa 3.500 Kilowattstunden – pro Jahr. Auch die steigende Weltbevölkerung, 11 Milliarden im Jahr 2050, scheint im Pariser Vertrag nicht dezidiert abgebildet. Es handelt sich bei ihm um eine Zusammenstellung von Absichtserklärungen der einzelnen Staaten.

Was Deutschlands nicht erreichte Ziele angeht, ist die beschriebene Emissionslücke nicht einsam. Auch eine Million E-Fahrzeuge werden wir 2020 nicht auf unseren Straßen sehen. Die Senkung der Verkehrsemissionen beträgt ziemlich genau Null, auch hier eine erhebliche Zielabweichung. Das Kanzlerinnenziel von 2011, die EEG-Umlage bei 3,5 Cent pro Kilowattstunde zu halten, wurde ebenso nicht erfüllt.

Erfolgserlebnisse sind organisierbar. Wenn politische Ziele in Serie nicht erreicht werden, könnte man sich mit einem Beschluss zu den Uhrzeiten der Sonnenauf- und -untergänge Mut machen. Er würde vermutlich erfolgreich umgesetzt – wenn man sich an den Kalender hält.




Scharlatane der Arktis … Lach­nummer eisfreie-Arktis-Prophe­zeiungen … Fake-Wissen­schaft vom Feinsten

Und die Alarmisten der globalen Erwärmung sind mittlerweile sehr still geworden bzgl. des Themas Klimawandel angesichts der Tatsache, dass die globalen Temperaturen gesunken sind und sich das arktische und grönländische Eis erholt haben.

Darüber sehr verlegen wollen sie nicht an all die absurden Prophezeiungen erinnert werden, die sie so inbrünstig vor zehn Jahren ausgestoßen haben; einige dieser Prophezeiungen sind nicht einmal älter als fünf Jahre.

Die Welt“ 2007: „Eisfrei“ bis 2013

Beispielsweise hat die Online-Ausgabe der Tageszeitung „Die Welt“ im Jahre 2007 gemeldet, dass „ein Team internationaler Klimawissenschaftler und Forscher bei der NASA behauptet hatten, dass die Arktis bereits im Sommer 2013 eisfrei sein werde.

„Der Welt“ zufolge stellte der „Klimaexperte“ Wieslaw Maslowski von der NASA die Behauptung auf bei einem Treffen der American Geophysical Union.

Al Gore warnte in den Jahren 2007, 2008 und 2009

Etwa zur gleichen Zeit predigte der Klima-Kreuzzügler Al Gore einen unmittelbar bevorstehenden arktischen ,Tag des Jüngsten Gerichts‘ [doomsday]. Der New American schrieb dazu:

In den Jahren 2007, 2008 und 2009 warnte Gore öffentlich und sehr hysterisch davor, dass der Nordpol um das Jahr 2013 ,eisfrei‘ sein werde infolge der vermeintlichen, ,vom Menschen verursachten globalen Erwärmung‘. Unter Verweis auf ,Klima-Experten‘ hat die vom Steuerzahler finanzierte BBC die Massenhysterie ungeheuer aufgebauscht, und zwar in Gestalt eines heute blamablen Artikels mit der Schlagzeile Arctic summers ice-free ,by 2013’. Andere etablierte Medien stießen in das gleiche Horn.

Sereeze bei CNN Fake News: „50-50-Chance“ einer eisfreien Arktis

Nicht nur fanatische Aktivisten oder hysterisch durchgedrehte NASA-Wissenschaftler sahen Visionen eines Endes der Arktis, sondern auch ein führender Wissenschaftler am National Snow and Ice Data Center (NSIDC). Mark Sereeze verkündete im Juni 2008 bei CNN, dass es eine Wahrscheinlichkeit 50 zu 50 einer eisfreien Arktis zum Ende des Sommers gebe.

Nun, zumindest sollte man anerkennen, dass Sereeze eine gewisse Unsicherheit einräumt.

Hansen: Arktis spätestens 2018 eisfrei

Vor nicht allzu langer Zeit hat Tony Heller bei Real Science hier berichtet, dass James Hansen am 23. Juni 2008 gesagt hat: „Wir werden geröstet werden, wenn wir nicht einen gänzlich anderen Weg einschlagen“, und dass Hansen und seine Mit-Wissenschaftler einen ,Kipp-Punkt‘ direkt vor ihren Augen entstehen sehen, und dass die Arktis genau so dahin schmolz wie sie es vorhergesehen hatten.

Hansen fügte noch hinzu, dass die Arktis in 5 bis 10 Jahren eisfrei sein werde. Nichts dergleichen ist jemals eingetreten.

,Der Spiegel‘: Segelbotte in einer eisfreien Arktis im Jahre 2008

Am 27. Juni 2008 verwies ,Der Spiegel‘ auf Wissenschaftler, als er berichtete, dass die Arktis „mit brutaler Geschwindigkeit abschmilzt“.

Das Wochenmagazin zitierte auch den Forscher Olav Orheim vom Norwegian Research Council: „Bereits im vorigen Oktober prophezeite ich, dass die Arktis in diesem Sommer eisfrei werden könnte“ und dass „im August oder September Menschen in Segelbooten dort kreuzen werden“.

Seth Borenstein: Planet hat „einen ominösen Kipp-Punkt durchlaufen“

Am 12. Dezember 2007 berichtete Seth Borenstein von AP im National Geographic, dass der Planet Wissenschaftlern zufolge einen „ominösen Kipp-Punkt durchlaufen habe“ und dass die Arktis „schrie“, als ob sie in ihren Todeswehen liegen würde.

Jay Zwally, NASA: Nahezu eisfrei am Ende des Sommers 2012

Der NASA-Klimawissenschaftler Jay Zwally wurde ebenfalls im National Geographic erwähnt, und zwar mit seinen Worten: „Nach der Begutachtung seiner eigenen neuen Daten sage ich, dass die Arktis mit dieser Rate zum Ende des Sommers 2012 nahezu eisfrei sein könnte, also viel schneller als nach Prophezeiungen zuvor“.

John Kerry: Eisfrei bereits 2013, nicht erst 2050

Am 16. Oktober 2009 nannte Senator John Kerry hier bei der Huffington Post den Klimawandel „eine Bedrohung der nationalen Sicherheit“. Weiter schrieb er:

Er ist bereits über uns gekommen, und seine Auswirkungen sind weltweit zu spüren, jetzt und hier. Wissenschaftler projizieren, dass die Arktis bereits im Sommer 2013 eisfrei sein wird. Nicht erst 2050, sondern schon in vier Jahren.

Sierra Club Kanada 2013: „Eisfrei in diesem Jahr“

Der Sierra Club Kanada meldete im Jahre 2013, dass die Arktis noch in jenem Jahr eisfrei sein werde (hier).

Wer den Link anklickt, wird jedoch sehen, dass er nicht mehr funktioniert. Vielleicht wurde das Ganze einfach zu peinlich, weshalb man den Link entfernte.

Das Wadhams-Debakel

Und schließlich war da noch Peter Wadhams, Professor für Ozean-Physik und Leiter der Polar Ocean Physics Group im Fachbereich Applied Mathematics and Theoretical Physics an der University of Cambridge. Er sagte im Jahre 2007, dass das arktische Meereis im Jahre 2013 vollständig verschwunden sein werde. Man vergesse nicht: Wadhams war ein anerkannter Experte.

Sechs Jahre später, also 2013, hatte das Meereis stattdessen um satte 25% zugenommen! Im Jahre 2012 änderte Prof. Wadhams seine Prophezeiung auf das Jahr 2016. Natürlich ist auch das niemals eingetreten.

Die Realität: Heute weist die Arktis das dritthöchste Meereis-Volumen seit 16 Jahren auf.

Heute zeigt das arktische Meereis nicht die geringsten Anzeichen des Abschmelzens, und in Wirklichkeit wurde ein paar Tage lang das dritthöchste Eisvolumen seit 2003 verzeichnet. Der japanische Klimablogger Kirye zeigte auf Twitter diese Graphik:

Link: http://notrickszone.com/2018/07/21/charlatans-of-the-arctic-laughing-stock-ice-free-arctic-predictions-fake-science-at-its-best/

Übersetzt von Chris Frey EIKE




Eimer-Liste: Historische Temperatur­daten der globalen Ozeane – deren Bestim­mung ist ein einziger Witz von Fehlern

Erkunden wir also, wie die globalen Ozean-Temperaturen gemessen worden sind. Zunächst dazu eine Referenz für die weitere Diskussion:

Bei Wikipedia findet sich unter der Quellenangabe NASA Goddard eine illustrative Graphik der globalen Temperatur mit einer darüber gelegten Glättung über fünf Jahre. Konzentrieren wir uns auf die Abkühlungsperiode von Mitte der vierziger bis Mitte der siebziger Jahre. Man kann das rapide Einsetzen der Abkühlung erkennen mit etwa 0,3°C im Jahre 1945 sowie die Umkehrung danach.

Abbildung 1: Temperaturindex Land ↔ Ozean von 1880 bis heute mit der Referenzperiode 1951 bis 1980. Die durchgezogene schwarze Linie stellt das globale jährliche Mittel dar, und die rote Linie ist eine Fünf-Jahre-Glättung, d. h. eine nicht parametrische Regressions-Analyse auf der Grundlage eines k-nearest-neighbor-Modells [?]. Die Funktion ist evaluiert mittels eines Bruchteils der Daten, die mit einem Zehn-Jahre-Fenster der Daten korrespondieren. Das ergibt eine effektive Glättung über etwa fünf Jahre. Die blauen Unsicherheits-Balken (95% Vertrauenslimit) berücksichtigen nur die unvollständige räumliche Datensammlung. Grundlagen sind die Abbildung 1A in Hansen et al. (2006) und Abbildung 9a in Hansen et al. (2010). Quelle

Die Studie von Thompson et al. (2008) in Nature erregte meine Aufmerksamkeit. Gavin Schmidt von RealClimate und auch New Scientist gaben Kommentare dazu ab. Thompson behauptet, den Grund dafür gefunden zu haben, warum die Abkühlung während der vierziger Jahre mit einer so drastischen Umkehrung des Erwärmungstrends zuvor begann. Dieser Umstand machte den Wissenschaftlern schon lange Kopfzerbrechen. Der Grund für diese Umkehr wurde angegeben als ein Wechsel bei den Verfahren der Messung von Ozean-Temperaturen. Das heißt, als man das Verfahren der Messung der Wassertemperatur aus mit Eimern geschöpften Wasser änderte und die Temperaturen einströmenden Kühlwassers maß.

Diese Abkühlungsperiode wollen wir einmal näher unter die Lupe nehmen.

Vor und nach dem 2. Weltkrieg wandte die britische Flotte das ,Eimer-Verfahren‘ an, um Ozeanwasser für dessen Temperaturmessung abzuschöpfen. Das heißt, ein Eimer Wasser wurde mit einem Flüssigkeits-Thermometer gemessen. Das andere oft angewendete Verfahren war die Messung der Temperatur von in Motoren einströmendem Kühlwasser.

Diese beiden Messverfahren werden im Jahre 2008 in einem Brief an Nature erklärt, wobei Thompson et al. sich der folgenden Wortwahl bedienten (SST = Wassertemperatur):

Die bemerkenswerteste Änderung im SST-Archiv nach Dezember 1941 erfolgte im August 1945. Zwischen Januar 1942 und August 1945 stammen etwa 80% der Messungen von US-Schiffen und ~5% von UK-Schiffen. Zwischen Ende 1945 und 1949 stammen dagegen nur ~30% der Messungen von US-Schiffen und ~50% von UK-Schiffen. Diese Änderung im August 1945 ist aus zwei Gründen bedeutsam: Erstens, im August 1945 erfolgten die Messungen auf US-Schiffen in Kühlwasser, während die UK-Messungen mittels des Eimer-Verfahrens durchgeführt wurden. Zweitens, das in Motoren einströmende Kühlwasser war allgemein zum Wärmeren hin verzerrt im Vergleich zu den nicht isolierten Eimermessungen.

Klimabeobachter hatten eine Delle bemerkt im Delta zwischen der Wassertemperatur und der nächtlichen Lufttemperatur (NMAT). Daher glaubte man die Ursache für den unerwarteten Wechsel der Temperatur um 0,3°C um das Jahr 1945 gefunden zu haben. Darauf verzerrte und modifizierte man die Aufzeichnungen. Die angebrachten Bias-Korrekturen könnten Thompson zufolge „die Jahrhunderte langen Trends der Wassertemperaturen aus jüngster Zeit um bis zu ~0,1°C zunehmen lassen“.

Vermutlich wurde diese Bias-Korrektur an prominenter Stelle in der Sumary for Policymakers des IPCC-Berichtes 2007 hervorgehoben. Dabei erhoben sich jedoch folgende Fragen: Wie ist die Korrektur von 0,1°C von Thompson angebracht worden – einheitlich? Über welchen Zeitraum? Ist die Zahl 0,1°C geraten oder willkürlich herausgepickt? Werden dabei irgendwelche Messfehler berücksichtigt, wie sie weiter unten in diesem Beitrag besprochen werden?

Ein fundamentale Frage erhebt sich: wie authentisch ist unsere Temperaturaufzeichnung? Mit wie viel Vertrauen können wir Trendlinien und zukünftige Szenarien abschätzen? Es ist offensichtlich, dass wir die Zahlen kennen müssen innerhalb der 0,1°C-Genauigkeit, um eine vernünftige Interpretation der Aufzeichnungen vornehmen und um glaubwürdig zukünftige globale Temperaturen projizieren zu können.

Wir werden die Messverfahren der Ozean-Wassertemperaturen detailliert untersuchen und dabei erkennen, dass die Datenaufzeichnung sehr grob ist, oftmals um mehr als eine Größenordnung!

Zunächst ist es erforderlich, die Grundlagen zu beschreiben, um allgemeines Verständnis zu erlangen.

2. Die Grundlagen

Ich denke, man kann allgemein zustimmen, dass für die Ableitung definitiver Trends aus globalen Temperaturdaten diese eine Auflösung mindestens innerhalb ± 0,1°C aufweisen müssen. Eine alte Daumenregel für jedwedes Instrument besagt, dass die Messung dreimal so genau sein muss wie die avisierte Auflösung. In unserem Falle sind das 0,03°C.

Thermische Instrumenten-Charakteristika definieren Fehler in Prozent über die gesamte Bandbreite. Read-out resolution is another error, as is read-out error. Beispiel: Nehmen wir an, ein Thermometer hat eine Bandbreite von 200 Grad. 2% Genauigkeit sind dann 4 Grad, Auflösung ist 2 Grad. Die Ablese-Genauigkeit möge 0,5 Grad betragen, das ist die Abstufung, die man noch unterscheiden kann, falls man ,angemessen blinzeln‘ kann.

Wenden wir uns jetzt den Instrumenten selbst zu.

Die Temperatur wird direkt gemessen mittels normaler Thermometer mit Flüssigkeits-Kapillare. Es gibt aber auch Bimetall-Thermometer und mit Hilfe von Elektronik auch Thermistoren sowie noch ein paar andere Verfahren. Via Satellit gemessene Temperaturen auf der Erde werden indirekt aus der Reflektion infraroter Strahlung gemessen.

Wir alle kennen das normale Flüssigkeits-Thermometer, mit dem wir es täglich zu tun haben. Diese sowie die Bimetall-Thermometer haben eine typische Genauigkeit von ± 1 bis 2 Prozent und sind nicht genauer als bis zu 0,5°C. Die Thermistoren können bei präziser Kalibrierung höchst genau messen.

Die Temperaturmessungen in der Natur konzentrieren sich nicht nur auf das Messinstrument selbst. Es handelt sich immer um ein System, welches bis zu verschiedenen Ausmaßen das Datengewinnungs-Verfahren umfasst, die die kurzzeitige Datenspeicherung, Daten-Konversion und Übertragung, Manipulation usw. Man füge noch die zeitlichen Variationen hinzu, das Umfeld des Messpunktes, der Aufzeichnung, des Sensor-Abtriebs und -Verschleiß, Variationen des zu messenden Mediums, verschiedene Beobachter und Interpreten usw. All dies leistet einen Beitrag zum Systemfehler. Die individuellen Fehlerkomponenten werden unterteilt in die festen bekannten Fehler – Fehler und Streuung – und variable Fehler. Außerdem müssen wir auf die ,signifikanten Zahlen‘ achten, da sich eine falsche Genauigkeit einschleichen kann, wenn man den Gesamtfehler berechnet.

Zusammenstellung der Fehler:

Alle als Zufallsfehler erkannten Fehler werden kombiniert mittels der Quadratwurzel der Summe der Quadratzahlen (RSS). Systematischen Fehlern wird durch algebraische Summierung Rechnung getragen. Die Gesamt-Ungenauigkeit ist die algebraische Summe des Gesamt-Zufallsfehlers und des Gesamt-Systemfehlers.

3. Vorherrschende Messverfahren der Ozean-Wassertemperatur

a. Satellitenbeobachtungen

Die Datenerfassung der Wassertemperatur mittels Infrarot-Sensoren an Bord von NOAA-Satelliten erfolgte mit hoch auflösenden Radiometern [high-resolution radiometers].

Die Messungen sind indirekter Natur und müssen die mit anderen Parametern assoziierten Unsicherheiten berücksichtigen, die nur grob geschätzt werden können. Nur die oberste Wasserschicht kann gemessen werden, welche einen starken Tagesgang-Fehler aufweisen kann. Satellitenmessungen begannen in den siebziger Jahren, so dass es keine Korrelation mit früheren Messungen gibt. Da es sich allerdings um indirekte Verfahren der Wassertemperatur-Messung handelt und es viele Schichten von Korrekturen und Interpretationen mit einheitlichen Fehleraspekten gibt, werden diese hier nicht weiter behandelt. Ein derartiges Unterfangen würde eine gesamte neue detaillierte Abschätzung erfordern.

b. Direkte Messungen der Wassertemperatur – historisch

Bevor man verstanden hatte, dass die thermischen Gradienten in tieferen Wasserschichten der Ozeane von Bedeutung waren, war es üblich, die Wassertemperatur in mit Eimern geschöpftem Ozeanwasser zu messen. Ersteres wurde überlebenswichtig für den U-Boot-Krieg vor und während des 2. Weltkrieges. Zuvor brauchte man die Wassertemperatur lediglich für die Wettervorhersage.

Das ,Eimer-Verfahren‘:

Üblicherweise wurde ein Holzeimer von einem fahrenden Schiff über Bord geworfen und danach ein Thermometer in die so gewonnene Wasserprobe gehalten. Nach den Holzeimern kamen Eimer aus Segeltuch in Gebrauch.

Abbildung 2: (a) Holzeimer, (b) Eimer aus Segeltuch, (c) German scoop (moderne Version). Mehr

Mit der steigenden Berücksichtigung der Genauigkeit von Messungen kamen Eimer aus Segeltuch in Gebrauch. Zusätzlich zu der typischen Thermometer-Genauigkeit von 0,5 bis 1,0°C gab es viele Quellen von Zufallsfehlern, als da wären:

Tiefe des Eintauchens des Eimers

Durchmischung der Wasseroberfläche durch variable Wellenhöhen und Wolkenbedeckung

Aufwühlen der Wasseroberfläche durch die Schiffsschrauben

variable Unterschiede zwischen Luft- und Wassertemperatur

Relativbewegung der Schiffsroute zur Windrichtung

Größenordnung von Wind- und Schiffsgeschwindigkeit kombiniert

Zeitspanne zwischen Schöpfen des Wassers und der tatsächlichen Thermometermessung

Zeitspanne, bis sich das Thermometer auf die Wassertemperatur eingestellt hat

Ausmaß der Thermometer-Bewegung (falls vorhanden)

Ablesung am Rand oder in der Mitte des Eimers

Abkühlung des Thermometer-Messfühlers während der Ablesung

Sehschärfe und Verhalten des Ablesenden

Effektivität der Eimer-Isolation und Verdunstungs-Abkühlungseffekte durch leckende Eimer

thermische Wechselwirkungen zwischen Eimer und Schiffsdeck

Hier folgt eine Infrarot-Sequenz, die zeigt, wie sich Wasser in einem Stoffeimer abkühlt:

Abbildung 3 (a) bis (d). Thermische Bilder in 5-Minuten-Intervallen in einem Stoffeimer des Met.Office, der mit warmem Wasser gefüllt ist und vor einem Ventilator rechts in diesen Bildern montiert ist. Der Eimer wird nicht bewegt und der Deckel ist geschlossen.

Diese Bilder stammen aus folgender Studie:

Messungen und Modellierungen der Temperaturänderung von Wasserproben in Eimern zur Messung der Ozean-Wassertemperatur

Grazielle Carella und Alexis R.Morris

Man nimmt an, dass Unsicherheiten bei der Berücksichtigung von Bias-Adjustierungen historischer Messungen der Wassertemperatur mittels Eimern den größten Beitrag zu Unsicherheiten bei globalen Temperaturtrends leisten. Die Ergebnisse zeigen, dass die Modelle nur sehr grob imstande sind, die Abhängigkeit der Temperaturänderung des Wassers mit der Zeit über thermischen Antrieb und Eimer-Charakteristika zu erfassen: Volumen und Form, Struktur und Material. Sowohl die Modelle als auch die Beobachtungen zeigen, dass der bedeutendste Umweltparameter, der Temperatur-Verzerrungen in historischen Eimer-Messungen beeinflusst, der Unterschied ist zwischen dem Wasser und Flüssigkeits-Thermometern. Vermutungen, die inhärent in der Interpretation der Modelle vorhanden sind, beeinträchtigen wahrscheinlich deren Anwendbarkeit. Wir beobachteten, dass die Wasserprobe kräftig umgerührt werden musste, um mit den Modellergebnissen überein zu stimmen. Dies lässt gute Durchmischung annehmen. Es gab Inkonsistenzen zwischen den Modellergebnisse und früheren Messungen in einem Windkanal im Jahre 1951. Das Modell nimmt ein nicht turbulentes Anströmen an und prophezeit konsequent eine in etwa quadratische Abhängigkeit von der Windgeschwindigkeit. Bei Turbulenz wird der Wärmetransport mit der Intensität der Turbulenz zunehmen. Für Schiffsmessungen gilt, dass die Strömung wahrscheinlich turbulent ist und die Intensität der Turbulenz immer unbekannt ist. Fasst man alles zusammen, wird erwartet, dass Unsicherheiten aufgrund der Auswirkungen von Turbulenz und der Annahme gut durchmischter Wasserproben substantiell sind und einen limitierenden Faktor darstellen können für die direkte Anwendung dieser Modelle, um historische Wassertemperatur-Messungen zu adjustieren.

Temperaturmessung in einströmendem Kühlwasser:

Der Dieselmotor eines Schiffes enthält einen separaten Kühl-Kreislauf, um das Metall von der korrosiven Wirkung von Meerwasser zu isolieren. Die Rohmessung der Temperatur des einströmenden Wassers erfolgt fast immer mit Messzylindern (typischerweise mit einer Genauigkeit von 1°C und niemals kalibriert). Dieser ist installiert zwischen der Einströmungs-Pumpe und dem Wärmetauscher. Es gibt keinen Grund, Thermometer direkt am Schiffskörper zu installieren, ohne dass Daten durch die Aufheizung durch die Maschinen verzerrt werden. Anderenfalls wäre diese Aufstellung geeigneter für Forschungszwecke.

Folgende Zufalls-Einflüsse müssen bei der Messung berücksichtigt werden:

Tiefe des einströmenden Wassers

Ausmaß der Durchmischung der Oberflächenschicht durch Wind und Sonne

Aufwühlen des Wassers durch das Schiff, auch abhängig von dessen Geschwindigkeit

Differenz zwischen der Temperatur des Wassers und im Maschinenraum

variable Temperatur im Maschinenraum

Außerdem gibt es langzeitliche, zeitvariable Systemfehler, die berücksichtigt werden müssen:

zusätzliche thermische Energie durch die Ansaugpumpe

Abnahme der Röhren-Isolierung und durch innere Ablagerungen

c. Einsatz von XBT-Sonden (Expendable Bathythermograph)

Die Sonar-Messungen und die Notwendigkeit, U-Boote vor der Entdeckung in thermischen Inversionsschichten zu bewahren, befeuerten die Entwicklung und den Einsatz von XBT-Stichproben. Die Sonden werden von Schiffen an der Wasseroberfläche und von U-Booten ausgesetzt. Temperaturdaten werden an das Schiff übermittelt mittels eines dünnen Kupferdrahtes von der Sonde, während sie langsam in die Tiefe sinkt. Die Temperaturmessung erfolgt mit einem Thermistor, Nachbehandlung und Aufzeichnung der Daten erfolgt auf dem Schiff. Die Tiefe wird errechnet aus der vergangenen Zeit und auf der Grundlage einer speziellen, vom Hersteller entwickelten Formel. Thermistoren-Messungen werden aufgezeichnet via Änderungen der Stromspannung des Signals.

Mögliche Randwert-Fehler:

Thermische Verzögerungs-Effekte gegenüber der initialen Eintauch-Temperatur durch Lagerung der Stichprobe an Bord des Schiffes

Eine von der Lagerzeit induzierte Kalibrierungs-Verschiebung

Dynamischer Stress plus Effekte der sich ändernden Temperatur mit der Tiefe in Gestalt der Änderung der el. Widerstandsfähigkeit des Drahtes mit zunehmender Tiefe

Variable thermische Verzögerungs-Effekte des Thermistors während des Versinkens

Variabilität der Oberflächentemperatur vs. Stabilität tieferer Wasserschichten

Durch Instrumente und Messverfahren induzierte Variabilität

d. Schwimmende ARGO-Bojen

Das Konzept dieser Tauchbojen ist ein cleveres Verfahren, um fast 4000 derartige Instrumente weltweit zu haben, die automatisch Wasserdaten aufzeichnen, während sie in verschiedenen Tiefen des Ozeans treiben. Periodisch tauchen sie auf und übermitteln die gespeicherten Daten, Tiefe, Salzgehalt und Temperatur-Historie via Satelliten an Bodenstationen zur Auswertung. Das oberste Ziel des ARGO-Programms ist es, fast simultane Temperaturmessungen der Flotte vorzunehmen bis zu einer Tiefe von 2500 Metern. Damit will man ein umfassendes Bild des Wärmegehaltes der Ozeane zeichnen.

Überraschenderweise sind die einzigen von den Herstellern der Bojen gelieferten Daten die hohe Präzision von 0,001°C ihres kalibrierten Thermistors. Rückfragen bei den Verantwortlichen des ARGO-Programms enthüllten, dass sie nichts von einem Systemfehler wussten, obwohl man ein Bewusstsein gegenüber einem solchen von einem so weit entwickelten wissenschaftlichen Experiment erwarten sollte. Fragen hinsichtlich verschiedener Fehlerquellen an den vorherrschenden Hersteller der ARGO-Bojen blieben unbeantwortet.

Dabei müssen folgende Randwert-Fehler evaluiert werden:

Valide zeitliche Simultanität hinsichtlich der Tiefe der Temperaturmessungen, treiben doch die Bojen mit unterschiedlicher Geschwindigkeit. Außerdem können sie zwischen unterschiedlichen Zirkulationsmustern wechseln, sowohl vertikal als auch horizontal.

Thermische Verzögerungs-Effekte

Ungültige Messungen nahe der Oberfläche werden eliminiert, unbekanntes Ausmaß der Stärke des Fehlers

Fehler bei der Übertragung von Datenpaketen an den Satelliten infolge der Bewegung der Sendeantenne durch den Wellengang

Wellen- und Gischt-Interferenz mit der hohen Frequenz 20/30 GHz IRIDIUM der Transmission von Satellitendaten

Schwächen bei der Aufzeichnung und Fehlinterpretationen der Daten

Außerdem gibt es unbekannte Fehler bzgl. Auflösung, Bearbeitung und der Aufzeichnungs-Instrumente wie etwa Rauigkeit bei der Konversion analog/digital, Auswirkungen alternder Batterien in den Bojen usw. Außerdem gibt es subtile Charakteristika zwischen verschiedenen Formen der Bojen, die vermutlich ohne detaillierte Forschungen niemals erkannt werden.

e. Fest installierte Bojen

Langfristig fest installierte Bojen weisen Schwächen auf bzgl. ihrer vertikalen Reichweite. Diese ist limitiert durch die Notwendigkeit der Verankerung und der Zeitlosigkeit von Ablesung und Aufzeichnung. Außerdem sind sie Gegenstand von Ablagerungen und Unterbrechungen der Sensor-Funktionsfähigkeit durch treibende maritime Flora. Deren Verteilung hängt von der küstennahen Verankerung ab. Dies verleiht ihnen nur begrenzten Wert für eine allgemeine Überwachung der Ozean-Temperatur.

f. Leitfähigkeit, Temperatur, Tiefen-Sonden (CTD)

Diese Sonden ermöglichen das genaueste Verfahren zur Messung der Wassertemperatur in verschiedenen Tiefen. Sie messen typischerweise Leitfähigkeit, Temperatur (meist auch Salzgehalt) und Tiefe zusammen. Sie werden von stationären Forschungsschiffen ausgesetzt, welche mit einem Bordkran ausgerüstet sind, um die Sonden zu versenken und zu bergen. Präzise thermische Thermistoren-Messungen in bekannten Tiefen werden in Echtzeit via Kabel an die Schiffe übertragen. Diese Sondenmessungen werden oftmals herangezogen, um andere Instrumente zu kalibrieren, wie etwa XBT und ARGO. Aber die hohen operationellen Kosten und die Feinheit [sophistication] als Forschungsinstrument verhindern deren Gebrauch auf breiter Front.

4. Signifikante Auswirkungen von Fehlern bei den verschiedenen Verfahren zu Temperaturmessungen in den Ozeanen

Hier versuchen wir, typische operationelle Fehler instrumenteller Verzerrungen in historischen Aufzeichnungen der Ozean-Wassertemperatur abzuschätzen.

a. Das Eimer-Verfahren

In der Studie Corrections of instrumental biases in historical sea surface temperature data’ Q.J.R. Metereol. Soc. 121 (1995) haben Folland et al. versucht, den Bias bei dem Eimer-Verfahren zu quantifizieren. In der Studie geht es um historische Temperatur-Aufzeichnungen und Variationen der verschiedenen Eimertypen. Außerdem ist es von Bedeutung, dass kein maritimes Unterfangen jemals irgendeiner Art von Protokoll gefolgt ist bei der Ermittlung derartiger Daten. Die Autoren dieses Reports führen eine sehr detaillierte Wärmetransfer-Analyse durch und vergleichen die Ergebnisse mit denen einiger Tests in Windkanälen (nicht isolierte Eimer kühlen sich um 0,41°C bis 0,46°C ab). Bei der Datenverarbeitung waren viele globale Variablen im Spiel ebenso wie einige Messungen in einströmendem Kühlwasser. Die Korrekturen von Folland betragen + 0,58°C bis 0,67°C bei nicht isolierten Eimern sowie + 0,1°C bis 0,15°C bei Holzeimern.

Des Weiteren stellen Folland et al. (1995) fest: „Die resultierenden Temperatur-Korrekturen der global und jahreszeitlich gemittelten Wassertemperatur nehmen zu von 0,11°C im Jahre 1856 auf 0,42°C im Jahre 1940“.

Es ist unklar, warum die Korrekturen im 19.Jahrhundert substantiell geringer sein sollen als im 20. Jahrhundert. Jedoch könnte dies eine Folge davon sein, dass früher vorherrschend Holzeimer zur Messung verwendet wurden (die viel besser isoliert sind). Es ist auch verwirrend, wie diese Zahlen korrelieren mit der allgemeinen Feststellung von Thompson, dass jüngste SSTs korrigiert werden sollten mit „bis zu ~0,1°C“. Was ist mit der Hinzunahme der Zahl 0,42 Grad?

Bei Berücksichtigung eines Systemfehlers – siehe Abschnitt 3b – sind die variablen Faktoren der vorherrschenden Größenordnung täglicher und jahreszeitlicher Natur sowie abhängig von Sonnenschein, Luftkühlung, dem Verhältnis der Temperatur von Sprühwasser und der Luft sowie einem festen Fehler der Thermometer-Genauigkeit von ±0,5°C, im besten Falle. Bedeutsam ist auch, dass die Eimerfüllung aus Wasser besteht, das nicht tiefer als einen halben Meter unter der Wasseroberfläche geschöpft worden ist, so dass folglich diese Wasserschicht erheblich mit dem Tagesgang der Temperatur variiert.

Tabatha (1978) sagt über Messungen auf einem kanadischen Forschungsschiff: „Temperaturen im mit Eimern geschöpften Wasser stellten sich um 0,1°C zum Warmen hin verzerrt heraus. Die Wassertemperatur in einströmendem Kühlwasser war um eine Größenordnung mehr gestreut als bei anderen Verfahren und um 0,3°C zum Warmen hin verzerrt“. Folglich ergibt sich aus beiden Verfahren ein gemessener Warm-Bias, d. h. Korrekturfaktoren müssten negativ sein, sogar beim Eimer-Verfahren, was das Gegenteil der Folland-Zahlen ist.

Wo beginnt man mit der Abschätzung der Randwert-Fehler? Es scheint fast unmöglich, ein valides Mittelungs-Szenario zu simulieren. Zur Illustration wollen wir eine Fehlerberechnung durchführen, und zwar bzgl. einer spezifischen Temperatur der Wasseroberfläche mit einem nicht isolierten Eimer.

Luftkühlung 0,5 Grad (zufällig)

Transfer an Bord 0,05 Grad (zufällig)

Thermometer-Genauigkeit 1,0 Grad (fest)

Ablesen und Parallaxe 0,2 Grad (zufällig)

Fehler e = 1,0 + (0,52 + 0,052 + 0,22)½ = 1,54 Grad oder 51 mal die gewünschte Genauigkeit von 0,03 Grad (siehe auch Abschnitt 2.0)

b. Messungen in einströmendem Kühlwasser

Saur 1963 kommt zu dem Ergebnis: „Der mittlere Bias der gemessenen Meerwasser-Temperaturen im Vergleich zu Meeresoberflächen-Temperaturen wird mit einem Vertrauensintervall von 95% geschätzt mit 0,67°C ±0,3°C auf der Grundlage einer Stichprobe von 12 Schiffen. Die Standardabweichung wird geschätzt zu 0,9°C … Der Schiffs-Bias (der mittlere Bias der Injektions-Temperatur eines bestimmten Schiffes) bewegt sich zwischen -0,3°C und 1,7°C unter 12 Schiffen“.

Fehler der SST einströmenden Kühlwassers hängen stark ab von den Betriebsbedingungen im Maschinenraum (Tauber 1969).

James and Fox (1972) weisen nach, dass Einströmen in einer Tiefe von 7 Metern oder weniger einen Bias von 0,2°C zeigte. Einströmen in größeren Tiefen zeitigte einen Bias von 0,6°C.

Walden (1966) fasst Aufzeichnungen von vielen Schiffen als um 0,3°C zu warm zusammen. Allerdings ist zweifelhaft, dass eine akkurate Instrumentierung verwendet wurde, um die Ablesungen zu kalibrieren. Daher ist seine Zahl von 0,3°C möglicherweise grob abgeleitet mit einem shipboard standard ½ oder mit auf 1 Grad genauen Thermometern.

Hier folgt eine Fehlerberechnung einer spezifischen Wassertemperatur am Einströmpunkt des Schiffsrumpfes:

Thermometer-Genauigkeit 1,0 Grad (fest)

Umgebender Maschinenraum Delta 0,5 Grad (zufällig)

Input der Pump-Energie 0,1 Grad (fest)

Gesamtfehler 1,6°C oder 53 mal die gewünschte Genauigkeit von 0,03 Grad.

Es gibt einen wesentlichen Unterschied zwischen der Messung in einströmendem Kühlwasser und Eimermessungen, der auch zu einer großen Differenz führt, nämlich die Messung viel tiefer im Wasser, in der Regel mehrere Meter unter der Oberfläche. Dieses Verfahren sorgt für kühlere und viel stabilere Temperaturverhältnisse als die Eimermessungen mit dem Oberflächenwasser. Allerdings übt auch die Temperatur des Maschinenraums einen starken Einfluss aus. Viele Messungen werden nur in ganzen Grad angegeben, der üblichen Thermometer-Auflösung.

Aber noch einmal: der einzige fest gegebene Fehler ist die Thermometer-Genauigkeit von einem Grad, ebenso wie der Wärmeunterschied um die Pumpe. Die variablen Fehler können auf größeren Schiffen von höherer Größenordnung sein und sind schwierig zu verallgemeinern.

Diese große Bandbreite von Variationen macht die Messung in einströmendem Kühlwasser fast unmöglich zu validieren. Außerdem erfolgte die Messung zu einer Zeit, als die auf Forschungen beruhende Kalibrierung noch kaum praktisch durchgeführt worden war.

c. XBT-Sonden

Lockheed-Martin (Sippican) stellt verschiedene Versionen her, und man wirbt mit einer Temperatur-Genauigkeit von ±0,1°C und einer System-Genauigkeit von ±0,2°C. Aiken (1998) berechnete einen Fehler von +0,5°C, und im Jahre 2007 stellte Gouretski einen mittleren Bias von +0,2°C bis +0,4°C fest. Die Forschungsgemeinschaft impliziert auch Variationen der Genauigkeit mit unterschiedlicher Daten-Herkunft und Aufzeichnungs-Instrumenten, und sie fordert Kalibrierungen mittels paralleler CTD-Sonden. Es gibt eine signifikante Varianz bei der Korrelation Tiefe ↔ Temperatur, über welche die Forscher immer noch Workshops abhalten, um diese Korrelation näher zu erfassen.

Wir können hinsichtlich des Gesamtfehlers nur grobe Abschätzungen vornehmen. Angesichts des vom Hersteller angegebenen Systemfehlers von 0,2 Grad und der oben beschriebenen Bandbreite von Fehlerquellen können wir einen Fehler von, sagen wir mal, 0,4°C ermitteln, was das Dreizehnfache der gewünschten Fehlerquote von 0,03 Grad ist.

d.ARGO-Treibbojen

Der hauptsächliche, in den USA ansässige Hersteller von APEX Teledyne reklamiert eine Genauigkeit von ±0,001°C, welche im Labor kalibriert worden ist (auf 0,002°C herabgestuft mit der Drift). Sie haben diese Zahl bestätigt, nachdem sie einige Stichproben nach vielen Betriebsjahren gezogen haben. Allerdings wird keine System-Genauigkeit angegeben, und der Hersteller gibt auf diesbezügliche Nachfragen keine Antwort. Die Kommunikation des Autors mit dem Büro des ARGO-Programms enthüllte, dass sie die System-Genauigkeit gar nicht kennen. Dies bedeutet, dass sie um die Genauigkeit der Thermistoren wissen, aber sonst nichts weiter. Der Seabird Scientific SBE Temperatur/Salzgehalt-Sensor kam in fast allen Stichproben zur Anwendung, aber das Unternehmen gibt den Fehlerbeitrag auch auf schriftliche Nachfragen via E-Mail nicht an. Nichts ist bekannt hinsichtlich der Fehler bei der Übertragung zu Satelliten oder der Genauigkeit bei der Aufbereitung der Daten an Land.

Hadfield (2007) berichtet von der Querung eines Forschungsschiffes auf dem 36. Breitengrad mit CTD-Messungen. Diese Daten hat man verglichen mit Temperaturdaten der ARGO-Bojen beiderseits der Schiffsroute, und sie sind innerhalb von 30 Tagen und manchmal auch mehr registriert worden. Allgemein stimmen die Daten überein auf 0,6°C RMS und einem Differential von 0,4°C östlich und 2,0°C westlich. Diese Messungen beziehen sich nicht auf die Genauigkeit der Bojen selbst, sondern auf die begrenzte Brauchbarkeit der ARGO-Daten, d. h. der Zeitgleichheit und geographischen Stelle der Temperaturmessungen im gesamten Ozean. Diese Unsicherheit deutet auf signifikante Grenzen bei der Berechnung des ozeanischen Wärmegehaltes, was doch der eigentliche Grund für das ARGO-Programm war.

Das ARGO-Qualitäts-Manual für die CTD-Daten und diejenigen auf der Schiffsroute ebnen den Weg für möglicherweise schlechte Daten. Die Temperatur-Verschiebung zwischen zwei mittleren Werten beträgt maximal 0,3 Grad als Kriterium, das Mittel 0,02 Grad und das Minimum 0,001 Grad.

Nimmt man einen Fehlergehalt der ARGO-Messungen an, bedeutet das mit Sicherheit einen viel höheren Wert als den vom Hersteller reklamierte Wert von 0,002 Grad.

Versuchen wir es also einmal:

Zugeordneter Systemfehler 0,01 Grad (vermutlich fest)

Fehler des Datenloggers und granularity [?] 0,01 (fest)

Datenübertragung 0,05 (zufällig)

Ground based data granularity 0,05 (fest)

Gesamtfehler 0,12 Grad, also das Vierfache der gewünschten Genauigkeit von 0,03 Grad.

Allerdings variiert die Hadfield-Korrelation zu CTD-Messungen entlang einer Schiffsroute bis zu 2 Grad, was der zeitlichen und geographischen Ausdehnung geschuldet ist. Aber auch Meeresströme und jahreszeitliche thermale Änderungen zusätzlich zu den inhärenten Bojen-Fehlern spielen eine Rolle.

Die NASA Willis 2003/05-Abkühlungsperiode

Dieses Thema wird im Abschnitt 5 ,Zusammenfassung‘ näher beleuchtet.

Im Jahre 2006 veröffentlichte Willis eine Studie, welche eine kurze Abkühlungsperiode zeigte, und zwar auf der Grundlage von Profilen der ARGO-Bojen:

Forscher fanden heraus, dass die mittlere Temperatur der oberen Ozeanschichten von 1993 bis 2003 um 0,09°C gestiegen und dann von 2003 bis 2005 wieder um 0,03°C gesunken ist. Der jüngste Rückgang ist in etwa gleich einem Fünftel der Wärmezunahme durch den Ozean im Zeitraum 1955 bis 2003.

Die Korrektur der Studie von 2007 stellt diesen offensichtlichen globalen Abkühlungstrend der Jahre 2003/2004 in Frage, indem die spezifisch falsch programmierten (vom Druck abhängigen) ARGO-Bojen ausgesondert und mit früheren, zum Warmen verzerrten XBT-Daten korreliert wurden. Damit, so hieß es, war die Größenordnung dieses Abkühlungs-Ereignisses substantiell verringert.

Im Mittelpunkt von Willis‘ Arbeit standen die Messung des ozeanischen Wärmegehaltes und die Einflüsse auf den Meeresspiegel. Hier folgen einige Auszüge aus dieser Studie, zunächst ohne und dann mit den angebrachten Korrekturen.

Vor der Korrektur:

Die mittlere Unsicherheit wird angegeben mit etwa 0,01°C in einer gegebenen Tiefe. Das Abkühlungs-Signal verteilt sich über die gesamte Wassersäule, wobei in den meisten Tiefen Abkühlung festgestellt wurde. Eine geringe Abkühlung wurde an der Oberfläche beobachtet, viel weniger als die Abkühlung in größerer Tiefe. Diese Abkühlung der Oberfläche von 2003 bis 2005 ist konsistent mit den globalen SST-Messungen (z. B. hier). Die stärkste Abkühlung ereignete sich in einer Tiefe von 400 m, aber auch in einer Tiefe von 750 m wurde noch substantielle Abkühlung beobachtet. Diese Verteilung reflektiert die komplizierte Überlagerung regionaler Erwärmungs- und Abkühlungs-Verteilungen mit unterschiedlicher Tiefen-Abhängigkeit ebenso wie den Einfluss von Änderungen der ozeanischen Zirkulation und den damit verbundenen Änderungen der Thermokline.

Das Abkühlungssignal ist in 750 m immer noch ausgeprägt und scheint sich in noch größere Tiefen zu erstrecken (Abbildung 4). Tatsächlich ergeben sich aus vorläufigen Schätzungen auf der Grundlage der ARGO-Daten eine zusätzliche Abkühlung in Tiefen zwischen 750 und 1400 m.

Nach der Korrektur:

eine Schwäche, welche dazu führte, dass Temperatur- und Salzgehalts-Werte in Verbindung standen mit unrichtigen Werten des Drucks. Die Größe der Druckabweichung war abhängig vom Bojen-Typ und variierte von Profil zu Profil über eine Bandbreite von 2 bis 5 db nahe der Oberfläche bis zu 10 bis 50 db in Tiefen unterhalb etwa 400 m. Fast alle der WHOI FSI-Bojen (287 Instrumente) waren von Fehlern dieser Art betroffen. Die Hauptmasse dieser Bojen wurde im Atlantik platziert, wo die unechte Abkühlung entdeckt worden war. Der Kalt-Bias ist im Mittel über das betroffene Gebiet größer als -0,5°C in Tiefen zwischen 400 und 700 m.

Der hier präsentierte 2%-Fehler bzgl. der Tiefe steht in guter Übereinstimmung mit ihren Ergebnisse für den Zeitraum. Der Grund für die offensichtliche Abkühlung in der Schätzung, welche XBT- und ARGO-Daten kombiniert (Abbildung 4, dicke gestrichelte Linie) ist das zunehmende Verhältnis zwischen ARGO- und XBT-Messungen zwischen 2003 und 2006. Das sich ändernde Verhältnis verursacht die Abkühlung in der Schätzung, sowie sie sich von den warm-verzerrten XBT-Daten entfernt und sich den neutralere ARGO-Werten nähert.

Systematische Druck-Fehler wurden hinsichtlich der Echtzeit-Temperatur und des Salzgehaltes entdeckt bei einer geringen Anzahl von ARGO-Bojen. Diese Fehler hatten ihre Ursache in Problemen bei der Bearbeitung der ARGO-Daten, und korrigierte Versionen vieler der betroffenen Profile wurden vom Hersteller der Bojen geliefert.

Hier werden Fehler in den fall-rate-Gleichungen als primäre Ursache für den Warm-Bias der XBT-Daten angesehen. Im untersuchten Zeitraum stellte sich heraus, dass die XBT-Stichproben und die Zuordnung der Temperatur zu den jeweiligen Tiefen um etwa 2% zum zu Tiefen verschoben waren.

Man beachte, dass Willis und seine Mitautoren den Wärmegehalt der oberen 750 Meter abschätzten. In dieser Zone befinden sich etwa 20% des globalen Ozeanwassers.

Des Weiteren zeigt die Abbildung 2 in Willis‘ Studie, dass eine der eliminierten ARGO-Bojen das thermische Tiefen-Profil den Vergleich zeigt zwischen korrekt und fehlerhaft.

Abbildung 4: Links: Temperatur-Anomalie im Vergleich zur Tiefe relativ zu den WGHC für WHOI-Bojen mit unrichtigen Druckwerten (blaue Linie) und Nicht-WHOI-Bojen aus dem gleichen Gebiet (rote Linie). Die Daten beschränken sich auf den Atlantik zwischen 50°N und 50°S bzw. den Zeitraum vom 1. Januar 2003 bis zum 30. Juni 2007. Rechts: Auswirkung der Korrektur einer einzelnen WHOI FSI-Boje im Südatlantik. Aus Willis 2007.

Mittelt man den Fehler in spezifischen Tiefen, erhält man ein Differential von 0,15 Grad in einer Tiefe zwischen etwa 350 und 1100 m. Diese Zahl differiert von dem Kalt-Bias um -0,5°C, wie oben festgestellt, obwohl dieser nur zwischen 400 und 700 m Tiefe definiert war.

All diese Erklärungen von Willis sind sehr verworren und lassen kaum Vertrauen aufkommen hinsichtlich der Genauigkeit aller thermischen ARGO-Messungen.

5. Beobachtungen und Zusammenfassung

5.1 Ozean-Temperaturaufzeichnungen vor 1960/70

Versucht man, die Aufzeichnung der Ozean-Erwärmung und die Trendlinien während der Zeiten mit Eimermessungen und früheren Messungen in einströmendem Kühlwasser zu extrahieren, scheint das ein aussichtsloses Unterfangen zu sein wegen der großen systematischen und zufälligen Datenfehler.

Die Eimermessungen wurden für meteorologische Zwecke durchgeführt, und:

a. ohne Qualitäts-Protokolle und mit möglicherweise nur marginaler persönlicher Qualifikation,

b. durch viele Nationen mit vielen Kriegs- und Zivilschiffen,

c. auf separaten Ozeanen und oftmals in geschlossenen Handelsrouten

d. aufgenommenem Wasser nur von einer dünnen Oberflächenschicht

e. mit einer Instrumentierung, die viel gröber war als die gewünschte Qualität

f. Gegenstand erheblicher physikalischer Stichproben-Variationen und umweltlicher Störungen.

Die Temperaturdaten in einströmendem Kühlwasser waren genauso grob, und zwar weil

a. sie aus einer anderen Tiefe stammen,

b. sie stabiler waren als die vom Tagesgang beeinflussten Messungen in der obersten Wasserschicht.

Beobachtung Nr. 1:

Während des Wechsels der primären Verfahren zur Messung der Ozean-Temperaturen scheint es logisch, eine Überraschung in den Temperaturaufzeichnungen während des 2. Weltkrieges zu finden infolge von Änderungen der Temperatur-Datengewinnung. Allerdings sieht das Auffinden eines spezifischen Korrekturfaktors der Daten mehr wie Spekulation aus, weil die beiden historischen Messverfahren zu unterschiedlich sind hinsichtlich ihrer Charakteristika und hinsichtlich dessen, was sie messen. Allerdings muss die Tatsache des Einsetzens einer rapiden Abkühlung 1945/46 nach wie vor eingeräumt werden, weil es während der Folgejahre kühl blieb. Dann begann Mitte der siebziger Jahre wieder eine abrupte Erwärmung, wie die Graphik in Abschnitt 1 so ausgeprägt zeigt.

5.2 Weitere XBT- und ARGO-Messungen in jüngerer Zeit:

Obwohl die XBT-Aufzeichnung nur von begrenzter Genauigkeit ist, wie es die vom Hersteller genannte Systemgenauigkeit von ±0,2 Grad spiegelt, müssen deren Vor- und Nachteile berücksichtigt werden, vor allem hinsichtlich der ARGO-Aufzeichnungen.

XBT-Daten:

a. Sie reichen zurück bis in die sechziger Jahre mit umfangreichen Aufzeichnungen

b. Eine fortgesetzte Kalibrierung mit CBT-Messungen ist erforderlich, weil die Tiefenformeln zur Berechnung nicht konsistent genau sind.

c. XBT-Daten stehen fest hinsichtlich Gleichzeitigkeit und geographischem Ursprung, was statistische Vergleiche ermöglicht

d. Erkannter Bias der Tiefen-Messungen, welcher der Temperaturmessung zugeordnet werden kann

ARGO-Daten:

a. brauchbare Quantität und Verteilung von Bojen gibt es erst seit etwa seit dem Jahr 2003

b. Die Datengenauigkeit wird als extrem hoch angegeben, jedoch ohne bekannte System-Genauigkeit

c. Die Datensammlung kann nur zu Zeitpunkten der Transmission via Satellit erfolgen. Die dazwischen liegende Richtung der Meeresströme und die thermische Durchmischung während der Bojen-Messzyklen vergrößern die Unsicherheiten.

d. Die Kalibrierung mittels CTD-Messungen wird behindert durch die geographische und zeitliche Trennung. Das hat zu Temperatur-Diskrepanzen von drei Größenordnungen geführt, also 2,0 Grad (Hadfield 2007) bzw. 0,002 Grad (Hersteller-Angaben).

e. Programmierfehler haben historisch zu falschen Tiefen-Korrelationen geführt.

f. Unbekannte Datenfehler bei der Transmission zu Satelliten, möglicherweise mit dem 20/30 GHz-Häufigkeitssignal durch Wellengang, Gischt und starkem Regen.

Beobachtung Nr. 2:

Die ARGO-Daten müssen innerhalb ihrer Limitierungen betrachtet werden, trotz der ursprünglichen Absicht, eine präzise Karte des ozeanischen Wärmegehaltes zu erstellen. Die ARGO-Gemeinschaft weiß nichts über den Systemfehler bei der Messung der Temperatur durch die Bojen.

Die Forschungen von Willis (NASA) 2003/04 bzgl. der Ozean-Abkühlung lassen viele Fragen offen:

a. Ist es zulässig, die Validität der von ARGO gemessenen Abkühlung zu erweitern allein durch einen Teil des Atlantiks als Datenbasis der gesamten globalen Ozeane?

b. Ist der Schluss zulässig, dass die Korrektur eines kleinen Anteils irriger Tiefen-Temperaturprofile über eine geringe vertikale Erstreckung einen ausreichenden thermischen Einfluss auf die Masse aller Ozeane ausübt, um etwa eine globale Abkühlung zu propagieren oder nicht?

c. Willis argumentiert, dass das Aufkommen präziser ARGO-Messungen um das Jahr 2003 in Bezug auf die frühere Aufzeichnung der warm-verzerrten XBT-Daten das offensichtliche Einsetzen der Abkühlung ausgelöst hat. Allerdings war dieser XBT-Warm-Bias zu jener Zeit gut bekannt. Hätte er diesen Bias nicht berücksichtigen können, wenn er Vergleiche zwischen der Vor-ARGO-Zeit und der Nach-ARGO-Zeit durchführte?

d. Warum unterscheidet sich der von Willis gegebene Bias von -0,5°C so signifikant von dem 0,15 Grad-Differential, den man in seiner Graphik erkennt?

Beobachtung Nr. 3:

Das Forschungsobjekt von Willis et al. scheint ein Beispiel zu sein für eine unangemessene Verquickung von zwei unterschiedlichen generischen Arten von Daten (XBT und ARGO). Er kommt zu überraschenden Schlussfolgerungen:

a. Die Aufzeichnung vor 2003 sollte bzgl. des offensichtlichen Einsetzens von Abkühlung vorsichtig bewertet werden, und

b. diese Aufzeichnung vor 2003 sollte immer noch eine valide Aufzeichnung sein zur Berechnung von Trendlinien des ozeanischen Wärmegehaltes.

Willis: „… die Abkühlung von 2003 bis 2005 ist konsistent mit den globalen SST-Produkten“. Diese Feststellung widerspricht der späteren Schlussfolgerung, dass die Abkühlung durch die Ergebnisse der Korrekturen 2007 hinfällig war.

Außerdem ist Willis‘ Manipulation der Bojen-Metadaten zusammen mit den XBT-Daten verwirrend genug, um seine Schlussfolgerung in der Korrektur-Studie 2007 als fraglich erscheinen zu lassen.

Zusammenfassung der Beobachtungen:

Es scheint, als ob die historischen Aufzeichnungen der Messungen mit ,Eimern‘ und in ,einströmendem Kühlwasser‘ als anekdotisch betrachtet werden müssen, als historisch und insgesamt grob, anstatt als wissenschaftliche Grundlage zu dienen für Trends der Erwärmung der Ozeane. Mit dem Aufkommen von XBT- und ARGO-Stichproben erscheinen die Trendlinien genauer, aber sie sind oftmals versteckt hinter Systemfehlern der Instrumente.

Ein Versuch, den Ozean-Temperaturtrend zu ermitteln, muss die Größenordnung von Zufallsfehlern berücksichtigen im Verhältnis zu bekannten Systemfehlern. Falls man versucht, eine Trendlinie in einem Umfeld mit vielen Zufallsfehlern zu finden, kann sich der Mittelwert selbst am Rande der Fehlerbandbreite befinden und nicht in der Mitte.

Die Ozeantemperatur sollte bis auf 0,03°C genau ermittelt werden. Allerdings gehen die Systemfehler oft über diese Präzision hinaus, und zwar bis zu drei Größenordnungen!

Falls die Forschung von Willis symptomatisch ist für die Gemeinschaft der Meeresforscher insgesamt, kann der vermeintlichen wissenschaftlichen erforderlichen Sorgfalt nicht vertraut werden

Mit der intensiven Konzentration auf statistische Manipulation der Metadaten und dem, was auch nur auf den Computer-Bildschirmen erscheint, scheinen es viele Wissenschaftler zu vermeiden, gebührende Umsicht walten zu lassen hinsichtlich der Datenquellen bzgl. Genauigkeit und Relevanz. Oftmals gibt es einfach nicht genügend Hintergrundwissen hinsichtlich der Genauigkeit der Rohdaten, um realistische Fehlerabschätzungen vornehmen zu können, und auch nicht, um irgendwelche Schlüsse zu ziehen, ob die Daten für das, was man machen will, überhaupt geeignet sind.

Und außerdem: Die Grundlage statistischer Mittelbildung bedeutet die Mittelung ein und derselben Sache. Die Mittelung von Ozean-Temperaturdaten über die Zeit kann nicht mit Mittelwerten durchgeführt werden, welche aus breit gestreuten Datenquellen, Instrumenten und Verfahren hervorgehen. Deren individuelle Herkunft muss bekannt sein und berücksichtigt werden!

Zum Schluss noch ein Vorschlag:

Als er den Temperatursprung während des 2. Weltkrieges zwischen Eimermessungen und solchen in einströmendem Kühlwasser identifizierte, hat Thompson diese korreliert mit den NMAT-Daten, d. h. mit nächtlichen Temperaturen bei jedem der beiden Messverfahren. NMAT kann eine Möglichkeit sein – vielleicht bis zu einem bestimmten Grad – die verschiedenen Aufzeichnungen seit dem 19. Jahrhundert zu validieren und in einen Zusammenhang zu bringen mit zukünftiger Satelliten-Überwachung.

Dies kann erreicht werden, indem man Forschungsschiffe in kalte, gemäßigte und warme Ozeangebiete entsendet, wo sie gleichzeitig repräsentative Eimermessungen und in einströmendem Kühlwasser durchführen sowie eine Handvoll XBT- und ARGO-Sonden einsetzen, während CBT-Tests gleichzeitig erfolgen. Und alle diese Prozesse müssen korreliert werden unter ähnlichen nächtlichen Bedingungen und mit lokalisierten Satellitenmessungen. Mit dieser Kreuz-Kalibrierung könnte man die historischen Aufzeichnungen zurück verfolgen und die Temperaturdifferenzen berechnen zu ihren nächtlichen Verhältnissen, wo ein solches Zusammenpassen gefunden werden kann. Auf diese Weise können NMATs dazu führen, alte, derzeitige und zukünftige Ozean-Aufzeichnungen zu validieren. Damit können Trends der Vergangenheit und der Zukunft genauer abgeschätzt werden. Die Finanzierung eines solchen Projektes sollte leicht möglich sein, weil es die Validität vieler Ozean-Aufzeichnungen korrelieren und zementieren würde, in Vergangenheit und Zukunft.

Link: https://wattsupwiththat.com/2018/07/11/bucket-list-historic-global-ocean-temperature-data-the-missing-pedigree-is-a-comedy-of-errors/

Übersetzt von Chris Frey EIKE




Stromknappheit in Kalifornien aufgrund hoher Belastung durch Klimaanlagen erwartet

Die nordamerikanische Electric Reliability Corporation (NERC) warnte im Mai davor, dass Kalifornien „einem erheblichen Risiko ausgesetzt sei, Bedingungen zu erleben, die zu einem Mangel an Betriebsreserven führen könnten“.

Der erwartete Strombedarf wird in Kalifornien die verfügbare Erzeugungskapazität am kommenden Dienstag um etwa 5.000 Megawatt übertreffen, so der California Independent System Operator (CAISO) [Netzbetreiber].

Quelle: California Independent System Operator

Warum der Mangel an Energiekapazität? CAISO geht davon aus, dass die Nachfrage nach Klimaanlagen während der Hitzewelle das Angebot aufgrund „reduzierter Stromimporte, knapper Erdgaslieferungen“ und hohen Flächenbrandrisiken überfordern wird.

Der Netzbetreiber hat am Montag eine flexible Warnung an die Kunden ausgegeben und damit begonnen, alle verfügbaren Erzeugungskapazitäten zu mobilisieren. Aber das ist nicht genug, und CAISO fordert Bewohner und Unternehmen auf, ihren Stromverbrauch zu reduzieren, um „sich ausbreitende Stromausfälle“ zu verhindern.

Genau davor warnte NERC, basierend auf der eigenen Einschätzung von CAISO Anfang dieses Jahres. NERC fand ein erhöhtes Risiko von Stromausfällen als „Folge niedrigerer Wasserstände in den Wasserkraftwerken und der Stilllegung von 789 MW abrufbarer Energie aus Erdgaskraftwerken, die in früheren Sommern verfügbar gewesen war, um Hochlastbedingungen zu erfüllen.“

„Beschränkungen von Erdgas und Pipeline-Ausfälle könnten diese Bedingungen verschlimmern„, stellte NERC fest.

(RELATED: New Study Claims Global Warming Will Cause Thousands More To Commit Suicide)

[Neue Studie behauptet, dass die globale Erwärmung Tausende mehr dazu bringen wird, Selbstmord zu begehen –
Kurzfassung:  … wie viel Selbstmorde (!) in „normalen“ Monaten , zum Vergleich., wie viel in heißen Monaten, dann Hochrechnung mit der Temperaturdifferenz – ergibt xx Todesfälle (je plus 1° um + 0,7% in USA; 2,1% in Mex.  Es gab aber auch Gegenden, wo die Anzahl der Selbstmorde zurückging, der Übersetzer]

Zehntausende von Kaliforniern bekamen keine Energie, als eine Hitzewelle Anfang Juli die Temperaturen in die Höhe trieb und neue Rekorde in der Gegend von Los Angeles aufzeichnete. Der Einsatz von Klimaanlagen belastet das Stromnetz zu stark und überlastet die Stromverteilung.

CAISO forderte die Kunden auf, „vor allem am späten Nachmittag und Abend Strom zu sparen, wenn die Klimaanlagen in der Regel am stärksten genutzt werden“ , das gilt für Dienstag und Mittwoch, wenn die Temperaturen in Südkalifornien voraussichtlich dreistellig sind. [Bilder mit Link]

View image on Twitter
View image on Twitter

Quelle @Ryan Maue ; weathermodels.com; Link : Nutzung auf nicht-kommerziellen Webseiten erlaubt

 Am Dienstag wird in Palm Springs, Kalifornien, eine Temperatur von 50° C erwartet  – ein Ort, an dem die extremsten Temperaturen in den Südwesten der USA unter dem #heatdome beobachtet werden können. Die Höchststände in der Region liegen zwischen 5° – 7° höher als normal  für Mitte Juli und werden Tageshöchststände setzen oder erreichen – einschließlich Phoenix bei 46°C

Diesen Thread anzeigen

Stattdessen reagieren Medien reflexartig als Echo von Aktivisten, die sagen, jedes Feuer sei ein Beweis für den globalen Klimawandel. Das ist große Propaganda, aber es ist keine Wissenschaft. Es ist falsch. Erklären Sie einfach genau, was vor sich geht … Menschen werden Wissenschaftlern / Medien mehr vertrauen, wenn diese ehrlich sind.

Erschienen auf The Daily Caller am 24.07.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/07/24/california-heat-wave-electricity-use/