1

Trump sollte sein Versprechen halten und die USA aus dem Pariser Abkommen zurück ziehen

Zuallererst, kein vernünftiger Verhandlungspartner sollte für die Legitimität der Akzeptanz von Paris in letzter Minute gewürdigt werden. Präsident Obama ging voran mit dem Abkommen trotz eines beispiellosen Appells des Obersten Gerichtshofes, sich beim Clean Power Plan an die Regeln zu halten, welcher das prinzipielle Mittel der Zustimmung der USA sein sollte. Wie allen Parteien bewusst war, zeigte das Verfahren von West Virginia et al. gegen die EPA, dass die Vorschriften aller Voraussicht nach wegen Ungesetzlichkeit verworfen werden würden.

Unter anderen gegen die Legitimität des Paris-Abkommens sprechenden Faktoren ist das ausdrückliche Ziel von dessen Befürwortern, absichtlich den Kongress zu umgehen mit der einfachen Behauptung, dass es sich nicht um einen Vertrag handelt. Und das trotz der Tatsache, dass allen Parteien bekannt war, dass der Artikel II der Verfassung, Abschnitt 2, Klausel 2 sagt, dass unter die Vorschrift von „Beratung und Zustimmung“ [advise and consent] alle internationalen Verpflichtungen fallen, die bestimmten Überprüfungen genügen müssen, die über zwei Jahrhunderte Praxis und Anwendung entwickelt worden sind. Das Paris-Abkommen ist eindeutig ein Vertrag nach jeder vernünftigen Definition und wurde als solcher von den meisten Parteien ratifiziert. Das Weiße Haus ist sogar so weit gegangen, ihn „das ambitionierteste Klimawandel-Abkommen der Geschichte“ zu nennen. Mit Sicherheit kann man ein Abkommen, dass ambitionierter als jeder Klimavertrag zuvor ist (z. B. das Kyoto Protocol), selbst als Vertrag betrachten.

Erlaubt man der Exekutive, die gemeinsame Rolle des Senats in unserem verfassungsmäßigen Vertragsprozess im Falle von Verträgen, die nicht überleben werden, zu umgehen, setzt dieses Vorgehen ein gefährliches Beispiel. Dass jedweder derartige Deal nicht unseren Ratifizierungsprozess passieren kann, ist kein Argument, diesen Prozess zu ignorieren, wie es Obamas Außenminister getan hat, sondern ihn aufmerksam zu schützen.

Man addiere hierzu noch die Kosten des enormen Transfers von Wohlstand und die ökonomischen Kosten der Einführung weniger effizienter und teurerer Energie, dann wird klar, warum die Obama-Regierung und deren Verhandlungspartner beschlossen haben, die gewählten Repräsentanten des Volkes außen vor zu lassen. Das heißt nicht, dass diese nicht berechtigt sind, das letzte Wort haben.

Initiativen des Weißen Hauses, die mit einer einseitigen „pen-and-phone”-Strategie vorangetrieben werden, sind Gegenstand der Rücknahme durch einen nachfolgenden Präsidenten mittels der gleichen Strategie. Folglich ist die einzige wirkliche Option für Präsident Trump, die USA aus der Implementierung des Paris-Vertragens herauszuziehen, der Rücktritt der USA als Partei aus dem UN-Rahmenwerk UNFCCC des Jahres 1992.

Diese Rahmen-Konvention ist ein freiwilliges Abkommen, dass ausdrücklich lediglich Emissionen bis zum Ende der neunziger Jahre erfassen sollte. Das Paris-Abkommen trachtet jetzt – nicht plausibel – danach, jene Erwartungen mittels verordneter Versprechen um noch stringentere Kürzungen alle fünf Jahre zu erweitern, wobei nicht eine davon die Zustimmung des Senats erfordert.

Dieses dreiste Vorgehen trotzt den ausdrücklichen Instruktionen des Senats, als dieser das UNFCCC ratifiziert hatte, und der Deal brachte Präsident George H. W. Bush dazu beizutreten. Beides sollte sicherstellen, dass die Rahmenwerk-Konvention nicht zu einem Blankoscheck wurde zur Vermeidung der politischen Unterstützung, die sie inzwischen erhalten hat. Angesichts der Parteien, die sich inzwischen aus dem UNFCCC zurückgezogen haben, müssen auch die USA dem folgen und sich zurückziehen.

Link: https://wattsupwiththat.com/2017/03/07/trump-should-keep-promise-withdraw-u-s-from-paris-climate-treaty/

Übersetzt von Chris Frey EIKE

————————————

Hierzu möchte ich selbst Folgendes anmerken:

Erst Realpolitik, dann das Plakative

Kommentar von Chris Frey

Es ist nicht bekannt, ob der Autor dieses Beitrags Christopher C. Horner damit auf andere Meldungen aus dem Internet reagiert, denen zufolge Tochter und Schwiegersohn von Präsident Trump diesem nahe gelegt haben sollen, mit dem Zurückziehen der Unterschrift aus dem Pariser Vertrag/Abkommen noch zu warten. Aus dem Beitrag geht das nicht hervor. Da außerdem bekannt ist, dass die beiden zu den wenigen Personen gehören, denen Trump sein Ohr leiht, könnte dies in der Tat Anlass zu Besorgnis sein, die ich vorübergehend auch hatte.

Inzwischen aber nicht mehr. Zum Einen dürfte es sehr unwahrscheinlich sein, dass Tochter Ivanka und ihr Mann dem Betrug um CO2 und Klima auch nur ansatzweise glauben. Beide sind Wirtschaftsexperten, die mit dem Nachbeten von Wolkenkuckucksheim sicher nicht so erfolgreich wären. Die Demarche der beiden muss also andere Gründe haben. Darüber lässt sich nun trefflich spekulieren in der Art, wie es Michael Crichton schon vor Jahren so exzellent beschrieben hat (auf Deutsch beim EIKE hier).

Zum Anderen ist eine Unterschrift per se nur eine kleine Kritzelei auf Papier (hat irgendwer schon mal eine leserliche Unterschrift von Größen gesehen?). Die Politik von Trump bzgl. Klima und Energie folgt jedenfalls stramm ohne Abweichung weiter der Linie, die er schon in seiner Wahlkampagne vorgegeben hat. Und daher besteht m. E. auch kein Anlass zur Sorge, der neue Präsident könnte „umfallen“. Die Rücknahme einer Unterschrift, die noch dazu nach dem Verfahren von Obama in den USA keinerlei Rechtswirksamkeit besitzt, ist darum vielleicht zweitrangig. Ich prophezeie (spekuliere!) mal, dass das kommen wird.

Vielleicht hatten das auch Trumps Kinder im Sinn. Es wäre „putting last things first“, also das Unwichtige zuerst zu tun.

Das Widerrufen der Unterschrift der USA wäre sicher ein sehr plakativer Vorgang, der so viel Staub aufwirbeln könnte, das Trump größere Schwierigkeiten für seine Realpolitik bekommen würde. Also erst die Realpolitik, dann das Plakative.

Wollen wir hoffen, dass diese meine Spekulation nicht zu weit an der Realität vorbeigeht.

© Chris Frey




Ist Ihre Bank ein Klimakiller? Dann soll sie durch Klimafasten bestraft werden…

So in etwa stellt sich die evangelische Kirche den modernen Gläubigen vor, der gemeinsam mit seiner Kirche für Klimaschutz und Klimagerechtigkeit bis Ostern fastet [2]. Wobei nicht unerwähnt soll bleiben, dass die evangelische Kirche die Ausgaben für die Zusammenstellung der vielen Ratschläge zum allerchristlichsten Klimafasten nicht alleine tragen wollte, sondern es sich vom Bundesministerium für Umwelt, Naturschutz Bau und Reaktorsicherheit fördern ließ. Spenden zum Klima werden ja bereits mit anderen Aktionen geholt: Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia.

Kirchenmitglieder können sich nun überlegen, ob sie ihren bisherigen Kirchsteuer-Obulus nicht gleich bei grünen NGOs oder Parteien „anlegen“ wollen, denn bisherige Unterschiede zwischen Amtskirche und politisch geförderter Ökokirche verwischen zusehends. Eine Parteibroschüre über die Notwendigkeit und den Segen von Ökoverboten und Energiearmut hätte nicht besser geschrieben werden können.

Etwas Familienbildendes bewirkt das Klimafasten: Im klimachristlichen Haushalt ist nicht mehr die Frau alleine für die Waschmaschine zuständig (zumindest, wenn es um deren Kauf geht). Wobei das dargestellte Rollenverhalten einem recht bekannt vorkommt. Daran scheint die Klimaangst zumindest nichts zu verändern.

Bild Screenshot-Auszug eines Logos [2] Text: Eine Woche Zeit zum Leben mit weniger Energie
Weiteres dazu kann man bei der BZ in einer Kolumne lesen: [1] Die Kirche möchte, dass wir gegen den Klimawandel fasten. Was soll das?, oder direkt in der kirchlichen Broschüre: [2]: So viel du brauchst

Anmerkung: Dank an kaltesonne für den Hinweis.

Quellen

[1] BZ: Die Kirche möchte, dass wir gegen den Klimawandel fasten. Was soll das?

[2] Evangelisch-Lutherische Kirche, Institut für Kirche und Gesellschaft der EKvW Klimaschutzagentur, Broschüre: So viel du brauchst

[3] EIKE 07.01.2017: Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia




Die „Grünen Männchen“ von heute oder was der Feinstaub­alarm in Stuttgart wert ist

Nein, hinter der Fassade sind nicht die „Gut-Menschen“, sondern die „Bös-Menschen“ zu finden. Die dem „Karle vom Band“ seinen Job und damit seine Existenz nehmen wollen.

Der Artikel wird zeigen, dass:

  • Der Grenzwert für Feinstaub willkürlich und damit beliebig falsch ist
  • Nicht ein einziger Mensch in Deutschland aufgrund (vermeintlich) zu hoher Feinstaubbelastung vorzeitig stirbt
  • Die deutschen Automobile und insbesondere der Diesel zu den umweltverträglichsten Fahrzeugen überhaupt gehören
  • Das Stuttgarter Dieselfahrverbot, sowie die Feinstaubalarme im Wahljahr 2017 aus rein wahltaktischen Gründen verordnet werden

CO2 eignet sich immer weniger als Schreckgespenst, da das Wetter und sein statistisches Mittel, das Klima, sich einfach nicht so verhalten wollen, wie die Prognosen projizieren und hatten nicht die „grünen Männchen“ dieses Schreckgespenst einer industriell verursachten Erwärmung, mit einer ideologisch verteufeltem Industrie, immer gierig aufgegriffen. Es will einfach nicht wärmer werden. Auch dreiste Manipulationen, wie vor dem Klimagipfelin Paris, können dies nicht mehr kaschieren. Da muss schnell ein besseres Feindbild her: Feinstaub und Stickoxide. Man will schließlich nicht seine Pfründe verlieren und von denen lebt sich gut zu Lasten der Allgemeinheit. In der Medizin gibt es einen treffenden Ausdruck für eine solche Spezies.

Feinstaubgrenzwerte basieren auf hypothetischen Annahmen, wie dem „vorzeitigen Todesfall“. Schon daher ein künstliches und damit willkürliches Konstrukt, da niemand sein eigenes Todesdatum kennt und somit auch niemand ableiten kann, was denn nun das vorzeitiges Todesdatum sein sollte. Geschweige denn, wann denn nun das vorzeitige Todesdatum einer Gruppe / Land sein sollte. Aber Angst lässt sich damit natürlich trefflich schüren: Wer will schon vor seiner Zeit, die allein Gott-bestimmt ist oder für weniger Gläubige, dem Schicksal, abtreten?

So sollen in Deutschland allein 34.000 Menschen, in Europa 430.000 Menschen vorzeitig durch Feinstaub sterben (http://www.sueddeutsche.de/news/gesundheit/gesundheit-eu-bericht-430-000-europaeer-sterben-jaehrlich-an-feinstaub-dpa.urn-newsml-dpa-com-20090101-150303-99-08941). Werte Leser, nicht ein einziger Mensch in Deutschland oder Europa stirbt vorzeitig an Feinstaub. Wie kommen solche willkürlichen, statistischen Werte zustande?

Die vorgenannten Werte basieren auf sog. „Kohortenstudien“. In Wikipedia ist zu lesen „Eine Kohortenstudie ist ein beobachtendes Studiendesign der Epidemiologie mit dem Ziel, einen Zusammenhang zwischen einer oder mehreren Expositionen und dem Auftreten einer Krankheit aufzudecken.“ Dies ist nett und zugleich treffend formuliert.

Studiendesign“ bedeutet denn auch nichts anderes, als eine auf Annahmen konstruierte (engl.: Design) Studie. Wobei die Annahme, also die Auswahl, die jeweilige Gruppe festlegt, die für eine solche Studie bezahlt wird, wodurch ein rein willkürliches Konstrukt entsteht. Dies wird anhand der Zahlen der WHO zu angeblichen Feinstaubtoten ersichtlich, die Peter Heller in seinem hervorragenden Artikel „Der vorzeitige Todesfall als Herrschaftsinstrument unserer Zeit“ nannte:

  • 2.975.400 Menschen weltweit
  • 26.160 Menschen in Deutschland

Das Max Planck Institut gibt wiederum diese Zahlen an und schreibt:

Auch in der EU führt die Belastung mit Feinstaub und Ozon jährlich zu 180.000 Todesfällen, davon 35.000 in Deutschland.“ https://www.mpg.de/9404032/sterberate-luftverschmutzung-todesfaelle

Da wird der Betrachter mit unterschiedlichsten Zahlen überschüttet, die aufgrund ihrer starken Abweichungen zueinander bereits zeigen, dass sie willkürlich sind und nichts mit Realität zu tun haben. Wie kommt z.B. das Max Planck Institut auf 180.000 Tote in Europa, wo wir doch eingangs hörten, dass dies 430.000 Tote sind und die WHO mit ihren 26.160 Toten in Deutschland (alle etwa durchgezählt?), wo dies doch 35.000 Tote sind. Oder darf’s noch etwas mehr sein?

Was von solchen Berechnungen, insbesondere die von der WHO, zu halten ist, wusste bereits Carl Friedrich Gauß. So erkannte er treffend „Der Mangel an mathematischer Bildung gibt sich durch nichts so auffallend zu erkennen wie durch maßlose Schärfe im Zahlenrechnen.“

Die (Un)Toten (Neudeutsch: Zombies) wurden von Untoten, anhand willkürlicher Vergleiche mit vermeintlich unbelasteten Bevölkerungsgruppen verglichen und von Untoten in der Presse wieder einmal, kritiklos verbreitet. Von investigativem Journalismus bei diesen Zombies, keine Spur. In Anbetracht der Schreckensszenarien fühlt man sich an die Zombies aus Hollywood erinnert. Waren ja auch ein paar Kassenschlager darunter. WHO, Max Planck Institut,… konkurrieren offenbar in ihren „Kassenschlagern“.

Abb.2, Foto:dpa-infografik GmbH, zeigt die Lebenserwartung in Deutschland in den letzten gut 100 Jahren. So betrug diese 2016 etwas mehr als 78 Jahre (für Männer). Vor 15 Jahren waren es noch 75 Jahre. D.h. wer heute mit 77 Jahren stirbt, der gehört zu der Gruppe der vorzeitig verstorbenen, was auf dann ggf. auf Feinstaub zurück zu führen ist. Kein normaler Mensch käme auf diese Idee, die „grünen Männchen“ landein, landaus sehr wohl. Und wer vor 15 Jahren mit 77 Jahren verstorben ist, der lebte über seine Zeit hinaus, lebte länger. Vermutlich auch wegen dem Feinstaub, denn der war seinerzeit deutlich höher (vgl. Abb.10).

Gehen wir noch weiter zurück: In das Jahr 1900. Die Lebenserwartung betrug nur knapp45 Jahre. Oder noch weiter, bei „Kohorten(studie)“ bietet sich die Zeit der Römer und der Germanen an. Bei den Germanen lag die Lebenserwartung bei nur 30 Jahren. Ganz ohne Feinstaub und vorbildhafter, naturnaher Ernährung. Irgendwie stimmt da was nicht mit der Argumentationskette der „grünen Männchen“. Warum werden wir heute nur so alt? Wollen die „grünen Männchen“ daran etwa was ändern, indem sie unsere Lebensgrundlage, unseren Wohlstand zerstören?

Aber bleiben wir in der Gegenwart. Da gibt es in Norditalien das Dorf „Campodimele“. Auch bekannt als Dorf der Hundertjährigen. Ohne das die Wissenschaft weiß warum, werden die Menschen dort 30 Jahre älter als der Durchschnitt der Bevölkerung. Womöglich aufgrund genetischer Ursachen. Vergleiche der Stuttgarter Bevölkerung (angeblich besonders feinstaubbelastet) mit der von Campodimele, ergeben denn als Ergebnis, dass 99% der Stuttgarter aufgrund Feinstaub frühzeitig sterben. So sind denn die vorgenannten Vergleiche mit willkürlich ausgewählten Vergleichsgruppen und die daraus abgeleiteten Zahlen unsinnig, beliebig falsch und der Manipulation ist dabei Tür und Tor geöffnet.

Aber die deutschen Städte und ihre „Lenker“ (ob da auch Denker zu finden sind, sicherlich wohl, wenn man nur lange genug sucht) sind getrieben von der Furcht aus Brüssel, mit Strafauflagen und Strafzahlungen belegt zu werden und wer möchte schon gern Strafe zahlen. Aber in Brüssel soll es ja auch „grüne Männchen“ (Anmerkung: „Grüne Frauchen“ gibt es natürlich auch, der Autor möchte niemanden diskriminieren) geben. Ob diese indes vom Mars kommen – auch wenn deren Vorstellungen und „Berechnungen“ dies zuweilen vermuten lassen (der Mond dafür einfach zu nahe ist) – kann der Autor nicht zu 100% beantworten.

Geht es nach deren Vorstellungen, sollen wir alle nur noch Tretauto fahren oder Fahrrad. Nun, Fahrradfahren kommt sicherlich der Gesundheit zu Gute, nur, wer täglich so 50km pendelt, der wird anschließend vor Vitalität nicht mehr laufen können. Auch lassen sich auf einem Fahrrad die Getränkekisten und der Einkauf so schlecht verstauen. Ganz zu schweigen, den Skiern, Surfbrettern, u.v. mehr, wenn es mit der Family ab in den Urlaub geht. Oder soll es den Urlaub etwa in Zukunft nicht mehr geben*, weil die Kosten anderweitig explodieren? Wie war das nochmal mit den explodierenden Stromkosten, aufgrund einer völlig überzogenen und volkswirtschaftlich unsinnigen Energiewende…

Nein, deren Vorstellungen sind entschieden zu bekämpfen, weil vollkommen unsinnig und aus der Welt. Eine der tragenden Säulen unserer Gesellschaft, unserer Kultur, unseres Wohlstandes, dem Glück vieler Millionen Menschen, die damit direkt oder indirekt verbunden sind, ist deren Mobilität und dafür steht, wie kein Zweites, das Automobil und das deutsche Automobil steht für die Spitze der technologischen Entwicklung in der Welt. Dessen Grundfeste, ob Verbrauch, Ressourcenschonung, Effizienz, Umweltverträglichkeit ist der Diesel. Siehe hierzu auch den Bericht der Kfz-Prüfstelle „KÜS“ (Kraftfahrzeug-Überwachungsorganisation freiberuflicher Kfz-Sachverständiger) „Sauberer Diesel“ (https://www.kues.de/newsdetail.aspx?ID=15858). Wer all dies leichtfertig oder gar vorsätzlich zerstört, der zerstört auch all das, was für den Wohlstand unserer Gesellschaft steht. Wer den Kampf dagegen nicht aufnimmt, der nimmt auch den Kampf gegen anderweitige Unterdrückung nicht auf.

* Bitte dies jetzt nicht einfach weg wischen, so haben die Stuttgarter „grünen Männchen“ „Betriebsbeschränkungen für kleine Feuerungsanlagen“ verordnet. Danach werden sogenannte Komfortkamine bei Feinstaubalarm verboten. Und entstehen bei Urlaubsreisen und dann auch noch mit dem Flieger, nicht Unmengen von Feinstaub!

Doch wie sieht es denn nun mit dem Feinstaub aus, dem so Bösen, dem es gilt, den Gar aus zu machen und mit ihm unser Leben, unsere Lebensqualität gleich mit?

Stuttgart, Feinstaubalarm, ist dort eigentlich immer, seitdem die „grünen Männchen“ damit eine Wahl, die Landtagswahl im Ländle gewonnen haben. Erfolgskonzepte will man doch nicht aus der Hand geben! Die sollen im Wahljahr 2017 erneut fruchten.

Die entsprechende Stuttgarter Messstation für Feinstaub (Abb.3) liegt an der B 14, der meist befahrensten Straße in Stuttgart. Dies ist ungefähr so, als wolle man auf dem Mount Everest die jährliche UV-Belastung der Bevölkerung messen und daraus Maßnahmen ableiten. Sie ahnen es bereits, stünde die Messstation nur eine Häuserlänge anders, die Feinstaubalarme würden aufhören. Alles wäre gut, nur nicht für jene, die Hameln in die Gegenwart holen.

Abb.3, Quelle: (http://www.stuttgarter-nachrichten.de/) zeigt die Stuttgarter Messstation für Feinstaub am Neckartor. Wen wundert´s, dass dort im Vergleich zu Deutschland solche überhöhen, unbrauchbaren Messwerte herauskommen (Abb.4).

Abb.4 zeigt die Feinstabkare von Deutschland mit den unsinnigen Messwerten der ausgesuchten Stuttgarter Messstation am Neckartor.

Weiter haben die „grünen Männchen“ an der B14, in unmittelbarer Nähe der Messstation, vor ein paar Jahren, drei stationäre Blitzanlagen eingerichtet und den Verkehr auf 50km/h gedrosselt (dort hat es keine Fußgängerüberwege oder sonst was, was dies plötzlich rechtfertigt). Also muss mehr gebremst werden. Schon allein deshalb, weil man als Autofahrer unsicher ist (wie schnell fahr ich denn jetzt wirklich), nicht geblitzt werden möchte und dann prophylaktisch auf die Bremse tritt. Also wurde „künstlich“ die Feinstaubbelastung direkt neben der Messstation erhöht. Bleiben wir bei unserem Beispiel des Mount Everest: Ungefähr so, als platziere man dort oben noch ein Solarium. Ein Schelm, der Böses dabei denkt.

Dieselfahrverbote und als Messkriterium Euro Abgasnormen suggerieren, dass der definierte Feinstaub (ja, Sie haben richtig gelesen, auch, was Feinstaub ist, als solcher betrachtet wird, wurde willkürlich festgelegt) vorrangig aus Fahrzeugen und dort vom Motor kommt. Dies ist gleich doppelt falsch, wie zum einen Abb.5 zeigt.

Abb.5, Quelle UBA, zeigt die Feinstaubquellen. Fahrzeuge liegen demnach erst auf Platz 4. Die in Abb.3 gezeigteMessstation sieht dies natürlich ganz anders, die sieht dort unten im Stuttgarter-Kessel fast ausschließlich den Autoverkehr!! Der Großanteil des Feinstaubes kommt indes aus anderen Quellen. Jetzt bitte nicht unken, dass es nach dem Diesel auch die Stuttgarter Bürger kalt erwischt und diese im Winter bald kalt dasitzen müssen (siehe obige Verordnung).

Beim Fahrzeug selbst stammt der überwiegende Teil des Feinstaubes nicht vom Motor, sondern entsteht durch Bremsenabrieb. Also bei sämtlichen Fortbewegungsmitteln. Die Zeithatte jüngst geschrieben: „Die Motoren sind nicht das Problem“ und weiter „Neueste Messresultate der Landesanstalt für Umwelt, Messungen und Naturschutz Baden-Württemberg (LUBW) zeigen nämlich: Nicht die Dieselabgase sind der Hauptverursacher der hohen Feinstaubbelastung. Stattdessen hat die LUBW „Aufwirbelungen und Abriebprozesse“ ausgemacht, die „eine wesentliche Rolle“ spielen.“ Sogar Daten liegen vor. So stammen bei Fahrzeugen:

  • 15% des Feinstaubes aus Verbrennungsprozessen des Motors und
  • 85% durch Reifen-, Bremsen- und Straßenabrieb sowie durch die Aufwirbelung der Staubschicht auf den Fahrbahnen

Früher ließen die Stadtverwaltungen mit Wassersprengwagen die Straßen abspritzen. Das wirkte Wunder. Staub, Feinstaub, Abrieb von Bremsen und Reifen sowie Rußniederschläge aus Heizungen wurden in die Kanalisation gespült. Könnte auch heute als Maßnahme vorgenommen werden. Tut oder will man nicht. Man will ja aus dem ganzen „Rummel“ Profit ziehen und 2017 ist ein wichtiges Wahljahr. Mit der Hamelner Methode will man Wählerstimmen fangen. Dass dadurch eine der tragenden Säulen unserer Gesellschaft, unserer technologischen Entwicklung, schlicht unseresLebensstandards diskreditiert und kaputt geredet wird, stört die „grünen Männchen“ und ihre Helfer nicht. Wen wundert’s, diese sind ja auch nicht davon betroffen. So fordert etwa die dubiose Deutsche Umwelthilfe Fahrverbote, jedoch nicht für ihren Chef, den Vielfahrer und Vielflieger Jürgen Resch. Der soll für den Schutz der Umwelt unbegrenzt fahren und fliegen dürfen. Wie war das doch noch gleich bei Georges Orwells „Animals Farm“: „Alle sind gleich, nur einige sind gleicher“ und wie hatte schon Ulrich Rosky in den 1970ern so trefflich gesungen „Der dumme ist immer der kleine Mann“. Das eigentlichskandalöse ist, dass solch L… (der Autor hätte sich fast vergessen), dass solche Organisationen mit deutschen Steuergeldern auch noch staatlich gefördert werden.

Dass es nicht um Feinstaub und die Gesundheit der Stuttgarter Bürger geht, zeigt Abb.6.

Abb.6 zeigt die Stuttgarter Feinstaubmessstation in Stuttgart Schwabenmitte. Dort werden in der Luft die folgenden Parameter gemessen, Quelle: (https://www.stadtklima-stuttgart.de/index.php?klima_messdaten_station_sz)

  • Stickoxide
  • Ozon
  • Feinstaub PM10

Deutlich zu sehen, dass der Messaufnehmer nicht direkt neben den Auspuffanlagen der Fahrzeuge, sondern in der Höhe angebracht ist. Wie Abb.7 zeigt, liegt in Stuttgart „normal“ keine Erhöhung von Feinstaubbelastungen mit dem (willkürlichen) Grenzwert vor.

Abb.7, Quelle: (https://www.youtube.com/watch?v=tSjEWBD6WmA), „Beispielszenario Feinstaubanalyse“ zeigt die Feinstaubdatenreihe (Zahl der überschrittenen Tageshöchstwerte) Stuttgart-Mitte von 1987 bis 2016. Deutlich hat sich die Luftqualität in Stuttgart verbessert. Die Zahl der sog. Feinstaubalarme ist verschwindend gering. Kein Anlass für irgendwelche Maßnahmen, wie Fahrverbote. Gleiches Bild zeigt Abb.8.

Abb.8, Quelle: (http://www.iaf.hdm-stuttgart.de/iaf/iaf/redaktionzukunft/beitrag.html?beitrag_ID=1480 ) zeigt den Vergleich der dubiosen Messstation am Schwabentor (an der meist befahrenen Straße in Stuttgart) in unmittelbarer Nähe der Autoabgase, im Vergleich zu der Messstation in Bad Cannstatt, einem Stadtteil von Stuttgart. Während die ausgesuchte Messstation am Schwabentor kontinuierlich den willkürlich festgelegten Grenzwert überschreitet, auch in Stuttgart Bad Cannstatt, keine Überschreitungen. Die beiden gezeigten Vergleichsstationen zeigen, dass kein Spielraum für Feinstaubalarme in Stuttgart, geschweige denn willkürliche Fahrverbote für Dieselfahrzeuge besteht. Abb.9 verdeutlicht die Aussage.

Abb.9 zeigt die Abgas-Euro-Normen für Diesel Pkw im Vergleich. Das von den Stuttgarter „grünen Männchen“ ausgesprochene Fahrverbot gilt für alle „älteren“ Diesel. Nur solche mit Euro 6 dürfen fahren. Man beachte: Bei den Partikelemissionen, also Feinstaub, sind Euro 6 und Euro 5 identisch. Ein Beleg, dass es den Stuttgarter „grünen Männchen“ nicht um den Schutz der Stuttgarter Bürger, sondern nur um politische Effekthascherei geht und um taktische Winkelzüge, die Wähler mittels Falschinformationen Hameln-gleich zu beeinflussen. Wohl dahingehend, den „grünen Männchen“ im Wahljahr ihre Stimme zu geben.

Wie die Feinstaubentwicklung in Deutschland aussieht, zeigt Abb.10.

Abb.10 zeig eindrucksvoll, dass die Luftqualität rundum in Deutschland deutlich besser geworden ist und kein Spielraum für Panikmache besteht.

Wie Abb. 2 zeigt: Nie lebten wir so lange und so gesund wie heute. Aber auch wohl noch nie gab es so viele „Hamelner“ wie heute. Wie sang doch noch gleich Hannes Wader in „Rattenfänger“: „Aber die Hamelner Kinder sind nicht tot, verstreut in alle Welt, haben auch sie wieder Kinder gezeugt,…“ Die „grünen Männchen“ scheinen diese zu sein. Nur noch unredlicher, wie das geschichtliche Vorbild, Abb.11.

Noch ein weiterer Hinweis aus der Menschheitsgeschichte. Die Steinzeit ging nicht etwa deswegen zu Ende, weil es keine Steine mehr gab. Nein, wirklich nicht – einfach draußen in der Natur mal nachsehen. Die Steinzeit ging deswegen zu Ende, weil die Menschen was Besseres fanden: Kupfer. Und die Kupferzeit ging auch nicht deswegen zu Ende, weil es kein Kupfer mehr gab. Die Menschheit fand etwas Besseres: Bronze. Und auch die Bronze-Zeit ging nicht etwa deswegen zu Ende, weil es keine Bronze mehr gab, sondern, man glaubt es kaum, die Menschen fanden wieder etwas Besseres: Eisen. Das 19 Jahrhundert war das Zeitalter der Kohle. Auch die Kohlezeit ging nicht deswegen zu Ende, weil es keine Kohle mehr gibt.….Und auch das Ölzeitalter, im speziellen, der Verbrennungsmotor, wird nicht deswegen zu Ende gehen, na, Sie ahnen es schon, er wird dann abgelöst, wenn die Menschheit etwas Besseres findet. Wenn der/die Kunden sich anders entscheiden. Sprich, etwas Besseres haben.

Der Mensch, der Primat, ist nicht nur der Primat der Politik, sondern auch der Primat in einer freien Marktwirtschaft. Ihm allein gebührt die Entscheidung, die er, mit Blick auf die Menschheitsgeschichte, auch wahrnehmen wird, wann die nächste Umstellung stattfinden wird. Der Autor fragt sich, warum die „grünen Männchen“ solche Angst davor haben, ihm die Entscheidung zu überlassen. Die Wahl hat er jetzt schon. Dass er sie noch nicht wahrgenommen hat, sollte all den Fantasten in unserem Land zu denken geben (wir erinnern uns „Land der Dichter und Denker“). Dem Autor ist nicht Bange, ihm allein die Entscheidung zu überlassen. Aber der Autor kommt ja auch nicht vom Mars. Also weit hinterm Mond und will auch nicht „Hameln“ in die Gegenwart holen.

Abb.11, Quelle (http://www.umweltbrief.de/neu/html/Umweltbrief_spezial_Feinstaub.html) erinnert den Autor an totalitäre Regime, die die schwächsten einer Gesellschaft, die Kinder, für ihre eigenen Zwecke missbrauchen. Dem Missbrauch von Kindern hängen die „grünen Männchen“, zumindest diese, offensichtlich immer noch an.

Krebs ist eine Chromosomenkrankheit, die grundsätzlich durch dortige Instabilitäten entsteht, was als Auswirkung zu Zellmissbildung und entarteten Zellen führt. Chromosomen befinden sich im Zellkern. Feinstaub hat nicht die geringste Chance, in den Zellkern zu gelangen und sich dort an Chromosomen anzuheften und diese zu Instabilitäten anzuregen. Widerlicher kann ein Plakat wohl nicht sein. Es zeigt das Wesen derer, die sich dafür verantwortlich zeichnen. Für diese „grünen Männchen“ trifft dann wohl eher Abb.12 zu.

Abb.12: ©Mucosolvan

Der Autor ist sich noch nicht im Klaren, wie er dbzgl. die Stuttgarter „grünen Männchen“ einordnen muss. Aber die haben aktuell etwas ganz Tolles entdeckt, um sich als Retter der Stuttgarter Bürger auszugeben und als kreative neudeutsche „Hornberger“ (Abb.13). Eine Mooswand soll jetzt den Feinstaub mindern (https://www.merkur.de/welt/mooswand-soll-stuttgarter-feinstaub-schlucken-zr-7554489.html).

Abb.13 zeigt den letzten grünen Schrei. Wieso ist man da nicht schon früher drauf gekommen, wo doch jeder weiß: Ohne Moos nichts los! Das „Moos“, um dieses grüne Moos zu bezahlen, kommt wohl nicht von den „grünen Männchen“. Für diesen erneuten Unsinn, muss der Steuerzahler wieder herhalten. Straßen hin und wieder abspritzen wäre kostengünstiger und auf Anhieb effektiver. Aber mit solch banalen Maßnahmen können die „grünen Männchen“ natürlich nicht bei ihren potentiellen Wählern punkten. Der historische Hamelner würde vor solch Einfallsreichtum vor Neid erblassen. Das dumme nur, Ulrich Rosky hat mit seinem oben zitierten Lied wieder einmal Recht. Noch einfacher wäre es da, die Messstation zu versetzen oder noch besser, die unsinnigen Grenzwerte abzuschaffen.

Fazit:

  • Der Grenzwert für Feinstaub ist willkürlich und damit beliebig falsch.
  • Nicht ein einziger Mensch in Deutschland stirbt aufgrund (vermeintlich) zu hoher Feinstaubbelastung vorzeitig. Wer etwas anderes behauptet, der solle den Beweis erbringen.
  • Die deutschen Automobile und insbesondere der Diesel gehören zu den umweltverträglichsten Fahrzeugen überhaupt.
  • Das Stuttgarter Dieselfahrverbot, sowie die Feinstaubalarme im Wahljahr 2017 werden aus rein wahltaktischen Gründen verordnet.

Wir brauchen uns von niemandem, auch nicht der „grünen Männchen“, unsere Erfolge schlecht reden zu lassen. Der Mensch ist das Erfolgskonzept der Evolution und die deutschen Automobile sind in jeder Hinsicht die Spitze, sowohl der technologischen Entwicklung, als auch in ihrer Umweltverträglichkeit. Beides schließt sich nicht aus, sondern geht Hand in Hand*. Daran können auch die vermeintlichen „Nachfahren“ des Rattenfängers nichts ändern.

* Die vormals zitierte Die Zeit schreibt „Diesen besonders winzigen Feinstaub (Anmerkung: Gemeint ist die Partikelgröße 2,5 µm) misst die LUBW an 22 Messstationen in Baden-Württemberg, sie hat dort aber laut Pressesprecherin Tatjana Erkert „seit Jahren keine Überschreitungen der Werte“ registriert. Die Benzin- und Dieselmotoren sind also in puncto Feinstaub offenbar umweltfreundlicher als ihr Ruf.“

Dem hat der Autor nichts hinzu zu fügen, als dem, die Rattenfänger erneut aus unserem Land zu vertreiben. Die Hamelner Bürger haben es vorgemacht.

Raimund Leistenschneider – EIKE




Rückschau zum Winter 2016-17

          Verlauf der vier Jahreszeiten in Deutschland seit dem Jahr 1750

In den folgenden Grafiken sind zur Übersicht die Temperaturverläufe der vier Jahreszeiten in Deutschland seit 1750 gezeigt.

Bild 1 Frühling Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Bild 2 Sommer Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Bild 3 Herbst Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Bild 4 Winter Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Bild 4 Winter Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Aus den Grafiken sieht man sofort: Sofern es überhaupt einen Klimawandel gibt, begann die Erwärmung in Deutschland bereits weit vor dem Beginn der Industrialisierung und spätestens mit Beginn der Aufzeichnungsreihe. Und ausgerechnet der Sommer, der wohl am meisten vom „Treibhauseffekt“ beeinflusst sein müsste, zeigt davon am wenigsten.

Für den Autor bestätigt sich damit, was (nicht nur) er immer „behauptet“[2]: Die (geringfügige) Erwärmung begann nicht durch anthropogenes CO2, sondern ist Teil eines weit vorher begonnenen, natürlichen Klimavorganges. Das zeigen die Verlaufsbilder aus dem IPCC AR5 (inclusive neuerer Proxirekonstruktionen) in Bild 5, sowie eben erst publizierte Rekonstruktionen norwegischer Gletscher über die letzten 4000 Jahre (Bild 6). Diese Gletscherrekonstruktionen zeigen zudem wieder, dass die Gletschervolumen mindestens um Christi Geburt (Römische Warmzeit) geringer waren als aktuell und in historischen Zeiten davor ein Teil der Gletscher von Norwegen zeitweise sogar ganz verschwand. Sowieso stellt sich die Frage, warum der Mensch heute ein „Anrecht“ auf Gletscher erhebt, wo er diese über viele Jahrhunderte ausschließlich als reine, tödliche Bedrohung erlebte und empfand und deren Schmelzen sehnlichst von Gott erflehte (siehe EIKE: Fakten zu Gletscherschwund und Co.“)

Die Jahreszeiten-Grafiken zeigen auch, dass in Deutschland keinesfalls von einer „Erwärmungsbeschleunigung“ durch CO2 gesprochen werden kann. Die vielen AGW-Darstelllungen mit der Aussage: „aber noch nie in der Vergangenheit geschahen die Änderungen so schnell wie aktuell“, erweisen sich bei langfristigen Betrachtungen als haltlos.

Bild 5 Vergleich der neuen Klimarekonstruktionen (LOC 2k und LOC 500y) mit anderen Rekonstruktionen aus dem IPCC AR5

Bild 6 Eisvolumen-Verlauf norwegischer Gletscher seit 4000 Jahren. Quelle [3]

Deutschlands Winter

Der vom DWD gepflegte Deutsche Klimaatlas sieht den Verlauf des Winters wie folgt (Bild 7). Drastisch erkennbar sind in den Simulationsverläufen die bereits aktuell vorhandenen Fehler mit einer Spanne von bereits über 2 °C, so viel wie die gesamte Mittelwertvariabilität seit Beginn der Messreihe . Das Einzige, worin sich die Simulationen „einig“ sind, ist, dass es immer weiter wärmer werden muss, weil sie es aus dem kurzen Anstiegs-Vorlauf so „gelernt“ haben. Von Klimazyklen scheinen diese Simulationen erkennbar nichts zu wissen.

Bild 7 Verlauf des Winters seit 1881 mit Simulation bis 2100. Quelle: Deutscher Klimaatlas

Mit wieviel Vorsicht man diese Simulationen betrachten sollte, sei am Verlauf des Januar gezeigt. Wenn schon Deutschland trotz recht genauer, historischer Daten zur Kalibrierung nur höchst fehlerbehaftet (eigentlich vollkommen unbrauchbar) simuliert werden kann, wie ungenau müssen dann erst die Simulationen der Welttemperatur ausfallen.

Bild 8 Temperatur-Verlauf des Januar seit 1750 mit darüber kopierter Januar-Grafik aus dem Deutschen Klimaatlas.

Interessant wird es, wenn man den Temperaturverlauf der drei Wintermonate in Deutschland auf den Endwert 0 normiert und übereinander legt (Bild 9). Dadurch zeigt sich, dass die Wintermonate im Grunde seit dem Jahr 1750 gar keine wirklich signifikanten Veränderungen bilden und alles dazwischen einfach natürliche Klima-Schwankungen sein können.

Bild 9 Übereinander gelegte Temperaturverläufe der drei Wintermonate seit dem Jahr 1750, mit Normierung auf den Endwert 0. Grafik vom Autor anhand der DWD-Daten erstellt

Satellitendaten

Satellitendaten haben den Vorteil, nicht so leicht (wie Stations-Messdaten) manipulierbar zu sein und zudem decken sie wirklich die Fläche ab. Als Folge zeigen sie auch interessante Ergebnisse.

Bild 10 zeigt ein Summenbild aller RSS-Satelliten-Daten mit Normierung auf den gleichen Endwert.

Bild 10 RSS Satellitendaten. Temperaturverläufe aller abgedeckten Breitengrad-Regionen auf den Endwert 0 normiert und übereinander gelegt. Grafik vom Autor aus den RSS-Daten erstellt.

Was man im Bild 10 schon sieht, wird beim „Aufdröseln“ noch deutlicher: Seit 1979 (Beginn der Satellitenaufzeichnungen) hat sich ausschließlich die Gegend um den Nordpol (roter Verlauf) wirklich erwärmt, der große Rest der Welt aber nicht. Bild 11 zeigt dazu die Temperaturverläufe vom „Rest der Welt“ ohne „North Polar“. Nicht nur dies eine Erscheinung, welche eklatant der CO2-Theorie und der überall publizierten „Überhitzung“ des Planeten durch unseren CO2-Ausstoß widerspricht.

Bild 11 RSS Satellitendaten. Temperaturverläufe der abgedeckten Breitengrade ohne North Polar (in Bild 10 roter Verlauf). Die Breitengrad-Regionen sind auf den Endwert 0 normiert und übereinander gelegt. Grafik vom Autor aus den RSS-Daten erstellt.

Jeder darf eine eigene Meinung haben

Um auf das Statement von Prof. Harald Lesch zurückzukommen. (Nicht nur) H. Lesch ist anscheinend fest davon überzeugt (zumindest publiziert er es mit fast manischer Leidenschaft), dass die Temperatur der Zukunft wie im Bild 12 gezeigt verlaufen wird und vor allem, dass die AGW-Klimawissenschaft und ihre CO2-Forcingsimulationen recht haben.
Der Autor ist alleine durch Betrachten der gleichen Daten dagegen weiterhin davon überzeugt, dass zum Beispiel im Bild 12 weder die Vergangenheit und noch weniger die Zukunft richtig dargestellt sind und somit jeder zur CO2-Minderung ausgegebene Cent nur die Taschen irgendwelcher geldgieriger Eliten und NGOs füllt, aber an den wirklichen Zukunftsproblemen der Welt nichts ändern kann.

Bild 12 Simulierte Temperaturverläufe der nahen Zukunft nach AGW-Theorie. Quelle: United Nation Environment Programm

Quellen

[1] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[2] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

[3] Henning Åkesson at al., 17.01.2017: Simulating the evolution of Hardangerjøkulen ice cap in southern Norway since the mid-Holocene and its sensitivity to climate change

[4] OVB Online: „Da oben ist der Teufel los“ https://www.ovb-online.de/bayern/oben-teufel-los-7001926.html




In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

Beide Themen haben eine Information gemeinsam: Mag etwas auch noch so deutlich vor Problemen stehen und auch der Anlass weiterhin fragwürdig sein, unsere politische Führung denkt nicht über ein Thema neu nach, sondern verstärkt ausschließlich konsequent ihre „Kampfanstrengungen“. Entsprechend verbreitet sie dazu Durchhalteparolen und „frohe Botschaften zur Motivation“.

Zu diesem Thema kam jüngst bereits eine Darstellung über den Altbundespräsidenten, Horst Köhler und seiner Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin:
EIKE: Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden

Dieser Artikel mit der Rede von Umweltministerin Hendricks ergänzt den Zyklus an Statements von Berliner Politikern zum Klima und EEG. Es sind wieder stark gekürzte Auszüge. Zum tieferen Verständnis bitte die vollständige Rede lesen.

[1] Rede von Dr. Barbara Hendricks bei der Handelsblatt-Jahrestagung zur Energiewirtschaft

Ich muss nichts korrigieren, im Gegenteil

B. Hendricks [1]: … vor gut einem Jahr habe ich Ihnen vom Zustandekommen des Pariser Abkommens berichtet. Die Erinnerung an diese sehr emotionale und aufwühlende Situation war noch sehr frisch, wir sind alle sehr euphorisch aus Paris zurückgekehrt. … Muss ich heute Einschätzungen korrigieren? Vielleicht sogar etwas zurücknehmen von dem, was ich Ihnen gesagt habe?

Die Antwort ist: Nein. Im Gegenteil: Der Klimaschutz hat 2016 weltweit betrachtet eine weitere Dynamik bekommen, die zu Jahresbeginn noch nicht abzusehen war.

Die treibhausgasneutrale Weltwirtschaft bleibt unser Ziel, egal mit welchen Partnern

B. Hendricks [1]: … wir packen die globale Umkehr hin zu einer treibhausgasneutralen Weltwirtschaft entschlossen an.
falls die Vereinigten Staaten unter der neuen Administration auf internationaler Ebene beim Klimaschutz keine Vorreiterrolle mehr einnehmen wollen, sollte Europa zusammen mit China und anderen Industrie- und Schwellenländern weiter nach vorn gehen.

Uns Verzagten gibt das Mut, denn wir sind der Vorreiter

B. Hendricks [1]: … In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht das Paris-Abkommen Mut.

… Es war ein hartes Stück Arbeit – und macht mich deshalb auch ein wenig stolz – dass wir vergangenen November unseren Klimaschutzplan 2050 vorlegen konnten. Wir haben damit als eines der ersten Länder eine derartige Langfriststrategie vorgestellt.
Wir wollen bis zum Jahr 2050 ein weitgehend treibhausgasneutrales Deutschland erreichen. … Ich bin davon überzeugt, dass die Wettbewerbsfähigkeit einer Volkswirtschaft künftig davon abhängen wird, wie schnell und effizient sie sich dekarbonisieren kann.

Moderner EEG-Strom kostet nicht mehr als konventioneller

B. Hendricks [1]: … Rund ein Drittel des Stroms, der heute in Deutschland verbraucht wird, kommt aus Wind, Sonne und Biomasse. Das ist für sich genommen bereits ein Riesenerfolg. … Die Stromgestehungskosten neuer Photovoltaik- und Windenergieanlagen an Land liegen in Deutschland heute auf dem gleichen Niveau wie die Stromerzeugungskosten neuer Steinkohle- und Erdgas-Kraftwerke.

Den Beleg haben wir gemeinsam mit Dänemark erbracht

B. Hendricks [1]: Ein praktisches Beispiel: Gemeinsam mit Dänemark haben wir im vergangenen Jahr bei einer grenzüberschreitenden Auktion den niedrigsten europäischen Preis für Solarenergie von fünfeinhalb Cent die Kilowattstunde erzielt. Und die Internationale Agentur für Erneuerbare Energien IRENA berichtet sogar von Solarparks, die für rund 3 Cent pro Kilowattstunde produzieren. Aber, das muss an dieser Stelle sein, es geht auf der anderen Seite auch wesentlich teurer. Sie wissen, dass die britische Regierung den Betreibern der geplanten neuesten Atomreaktoren eine Vergütung von knapp 11 Cent pro Kilowattstunde garantiert. Das ist ein wirklich teurer Sonderweg, der am Ende niemandem nützt!

Stromspeicher werden dramatisch billiger

B. Hendricks [1]: Die Investitionen, die in Deutschland durch das EEG ausgelöst worden sind, zahlen sich dagegen jetzt aus: IRENA rechnet beispielsweise mit weiter rasant fallenden Preisen für Solarstrom und einer noch dramatischeren Entwicklung bei Stromspeichern.

Klimaschutz schafft Arbeit…

B. Hendricks [1]: … Denn Klimaschutz macht nicht nur Arbeit, er schafft auch Arbeit: Deutsche Unternehmen profitieren im internationalen Wettbewerb massiv von einer Vorreiterrolle bei Energieeffizienz und Erneuerbaren. Bereits heute stehen Erneuerbare Energien und energieeffiziente Technologien für 700.000 bis 800.000 Arbeitsplätze in Deutschland. Wir können getrost davon ausgehen, dass Deutschland mit seinen exportstarken Unternehmen und als Vorreiter bei der Energiewende von der Umsetzung des Pariser Abkommens besonders profitieren wird.

…und davon können andere Branchen nur träumen

B. Hendricks [1]: … Das ist – alles in allem – eine Situation, von der andere Branchen nur träumen können und ich kann nur dringend dazu raten, sich dieses Vorteils sehr bewusst zu sein und ihn nicht leichtfertig aufs Spiel zu setzen. Deshalb plädiere ich für eine offene und ehrliche Debatte.

Die Atomausstiegskommission war eine gute Erfahrung

B. Hendricks [1]: … Wir haben mit Kommissionen im Energie-Bereich gute Erfahrungen gemacht, etwa beim zweiten Atomausstieg oder zuletzt, als es um dessen Finanzierung ging. Deshalb denke ich, dass die beschlossene Kommission „Wachstum, Strukturwandel und Regionalentwicklung“ ein erfolgversprechender Ansatz ist.

Weil alles bisher so erfolgreich war, muss es weiter ausgebaut werden

B. Hendricks [1]: Künftig müssen Erneuerbare Energien auch im Bereich der Mobilität und der Wärme- und Kälteversorgung die wichtigste Primärquelle werden. Elektromobilität beispielsweise kann nicht auf Kohlestrom basieren, sie muss und wird auf Strom aus Sonne und Wind beruhen.

Wer auch nur entfernt die nackten Tatsachen – auf EIKE im Archiv zu jedem einzelnen von Frau Hendricks angesprochenen „Erfolgsstatement“ nachlesbar – kennt, merkt, wie weit entfernt von der Wirklichkeit unsere Politikkaste inzwischen agiert. Es erinnert fatal an die Engstirnigkeit und Erfolgsparolen der ehemaligen DDR-Führung bis zur Wende. Wichtig ist und bleibt ausschließlich die Umsetzung der Ideologie. Dieser Prämisse hat sich die Wirklichkeit anzupassen.

Bild Energielandschaft. Quelle: BMWIde © iStock.com/nullplus

Und als ob es bestellt worden wäre, erschien eben ein Artikel auf Achgut, der die Aussage von Frau Hendricks über den EEG-Erfolg ad absurdum führt:

Achgut.com: Energiepreise: Deutschland endlich mal wieder Spitze!
… Mit ca. 30 Cent pro Kilowattstunde hat Deutschland den zweithöchsten Strompreis Europas und gute Chancen, Dänemark in diesem Jahr zu überholen und damit auf dem wohlverdienten ersten Platz zu landen. Strompreismässig weit abgeschlagen sind dagegen solche zurückgebliebenen Agrarländer wie Frankreich oder Finnland mit einem Strompreis von 16 Cent pro Kilowattstunde. Aber die betreiben ja auch viele der bösen Atomreaktoren …

Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben

In einer kürzlich auf EIKE erschienen Buch-Rezension von W. Thüne: Mit Deindustrialisierung und Dekarbonisierung zum Klimaschutz?
wird am Ende zitiert, was im Buch von Prof. H. Lesch als Abschlussstatement ein Professor Ernst-Peter Fischer von der Universität Heidelberg (Wissenschaftsgeschichte) als Wunsch und zukunftsfördernd betrachtet:
Es gäbe bisher noch „keine Erziehung zum Irrationalen, zum Ästhetischen, zum Träumerischen, zum Fantasievollen“. Unsere Instinkte, unsere Emotionalität sind daher unterentwickelt.
Er fordert: „
Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.

So stellen uns unsere Eliten inzwischen die moderne, transformierte Demokratie vor.
Warum wählen wir dann nicht gleich den Papst zum nächsten Bundeskanzler auf Lebenszeit und ermächtigen seine Glaubenskongregation (früher Inquisitionsbehörde), denen, die nicht bereit sind, das alles zu glauben, wieder mit „allerchristlichsten Mitteln“ zu „überzeugen“.

Achgut.com: Intellektuelle als Bodyguards der Konsens-Republik
Novo Argumente: Sanfter Paternalismus statt harter Überzeugungsarbeit

Die Bundesregierung

Demokratie erklärt in leichter Sprache (oder wie Politiker sich darstellen)
Damit jeder mit-entscheiden kann:
Die Menschen in Deutschland wählen
Politiker.
Politiker arbeiten in der
Bundes-Regierung.
Von Deutschland.
Sie
entscheiden zusammen wichtige Sachen.
Für die Menschen in Deutschland.
Zum Beispiel
Gesetze.
Oder Sachen mit
Geld.

Deutschland sagt:
Jeder Mensch soll
bei der Demokratie
mit-machen.
Die
Bundes-Regierung von Deutschland
macht darum
Programme.
Sie können bei den Programmen
mit-machen.
In der Schule.
Bei der Arbeit.
Oder mit Ihren Freunden.
Die Programme helfen.
Damit es mehr Demokratie in Deutschland gibt.

Das gleiche Thema in schwerem Deutsch (oder wie Bürger die Politik sehen):
TYCHIS EINBLICK: Gewaltenteilung verwirklichen

Quellen

[1] BMUB, 25.01.2017: Rede von Dr. Barbara Hendricks bei der Handelsblatt-Jahrestagung zur Energiewirtschaft




Greenpeace Mitbegründer Dr. Patrick Moore hatte recht: @Greenpeace STECKT voller Sch…

Dr. Patrick Moore, einer der Mitbegründer von Greenpeace, welchen die Organisation von ihrer Website zu entfernen versucht hatte, hat sich aus der Organisation zurückgezogen, weil:

Die von mir mitgegründete Organisation ist zu einem Monster geworden. Als ich während der Anfänge Mitglied in deren Zentralkomitee war, traten wir Kampagnen los gegen wahre Umweltbedrohungen wie Kernwaffentests in der Atmosphäre, Walfang und Robbenschlachten.

Als Greenpeace dann antiwissenschaftlich wurde mit ihrer Kampagne gegen Chlor (man rekapituliere die schiere Dummheit, eine Kampagne gegen ein Element im Periodensystem zu reiten!), kam ich zu dem Schluss, dass Greenpeace seinen Zweck aus den Augen verloren und sich nach Erreichen der ursprünglichen Ziele dem Extremismus zugewandt hatte, um seine weiter bestehende Existenz zu rechtfertigen.

Inzwischen hat sich Greenpeace mit voller Absicht selbst zu einem eingeschworenen Feind allen Lebens auf der Erde gemacht. [Da steht sie nicht allein! Politik und Medien hierzulande, allen voran wieder einmal die „Süddeutsche Zeitung“ ist ihr längst beigesprungen. Anm. d. Übers.] Sie steht gegen das eine Wirtschaftssystem, dass hinsichtlich Schutz und Erhalt der Umwelt am erfolgreichsten war.

Quelle: https://wattsupwiththat.com/2015/12/08/breaking-greenpeace-co-founder-reports-greenpeace-to-the-fbi-under-rico-and-wire-fraud-statutes/

Man lese und staune:

Greenpeace beansprucht Immunität gegen Gerichtsverfahren, weil deren Behauptungen ,Übertreibungen‘ sind

von Kathie Brown, PhD

Es gab eine interessante Wendung der Greenpeace involvierenden Ereignisse, eine der großen Vereine, die die scheiternde #ExxonKnew-Kampagne trieben: Sie wurde von der kanadischen Holzverarbeitungsfirma Resolute verklagt wegen Verleumdung und falscher Behauptungen bzgl. der Aktivitäten des Unternehmens.

Aber als Greenpeace vor Gericht Rede und Antwort stehen musste für deren Aktivitäten, war sich der Verein nicht sicher, ob er seine Behauptungen würde verteidigen können. Tatsächlich hat man zugegeben, dass jene Behauptungen keinen Sinn hatten. In einem kürzlich erschienenen Op-Ed erklärte der Präsident und Geschäftsführende Direktor Richard Garneau von Resolut:

Etwas Lustiges geschah, als Greenpeace und deren Verbündete gezwungen worden waren, zu ihren Behauptungen vor Gericht Stellung zu nehmen. Sie begannen mit dem Herbeten ihrer Litanei. Ihre Verdammung unserer Waldarbeiten „sind nicht strikt buchstäblich oder mit wissenschaftlicher Präzision zu nehmen“, wie sie in ihren jüngsten legalen Eingaben einräumen. Ihre Vorwürfe gegen Resolute waren stattdessen „Übertreibungen“ und „nicht verifizierbare Statements subjektiver Meinungen“, welche man nicht „wörtlich“ nehmen oder ihnen irgendeine legale Verbindlichkeit verleihen sollte. Das sind schlichte Erkenntnisse nach Jahren unverantwortlicher Angriffe (Hervorhebung hinzugefügt).

Kein „Waldverlust“ war von Resolute verursacht worden, räumte der Verein ein – jetzt, da man sie zur Rechenschaft zieht.

Auch die Financial Post berichtete darüber:

Aber jetzt sagt Greenpeace, dass sie niemals im Sinn hatten, dass die Leute ihre Aussagen über die Holzwirtschaft von Resolute als buchstäbliche Wahrheit auffassten.

In den Veröffentlichungen tauchte beispielsweise das Wort ,Wald-Zerstörer‘ auf, welches offensichtlich rhetorischer Natur ist“, schreibt Greenpeace in seinen Bemühungen, die Klage von Resolute abzuwehren. „Resolute hat nicht im Sinne des Wortes einen ganzen Wald zerstört. Es lässt sich natürlich darüber streiten, dass Resolute Teile der kanadischen borealen Wälder zerstört hat, ohne den Vorschriften und Praktiken zu folgen, die von der kanadischen Regierung und dem Forest Stewardship Council etabliert worden waren, aber das ist der Punkt: Die ,Wald-Zerstörer‘-Behauptung kann nicht bewiesen oder widerlegt werden, es ist lediglich eine Meinung“.

Mit anderen Worten, Greenpeace gibt zu, dass man sich auf „nicht verifizierbare Aussagen subjektiver Meinung“ stützt, und weil deren Behauptungen nicht faktisch gemeint waren, glaubt der Verein, nicht vor Gericht gezerrt werden zu können für das, was er sagt.

Bemerkenswerterweise hat Greenpeace aktiv an juristischen Klagen gegen ExxonMobil mitgewirkt. Man hat dem Unternehmen vorgeworfen, dass es während der siebziger und achtziger Jahre über den Klimawandel Bescheid „wusste“, bevor die führenden Wissenschaftler der Welt zu irgendwelchen soliden Schlussfolgerungen gekommen waren. Als die von Rockefeller finanzierte InsideClimate News and Columbia School of Journalism ihre #ExxonKnew-Schlagworte erfand, forderte Greenpeace sofort das Justizministerium auf, ein Ermittlungsverfahren gegen ExxonMobil einzuleiten, und zwar mit der Begründung:

Das Justizministerium sollte sofort ein Ermittlungsverfahren einleiten und das Unternehmen gerichtlich wegen Irreführung der Öffentlichkeit, von Gesetzgebern und Investoren hinsichtlich der Auswirkungen des Klimawandels zur Rechenschaft zu ziehen. Eine Untersuchung des Ministeriums sollte umfassend sein und auch die Rolle anderer Fossile-Treibstoffe-Unternehmen beleuchten, ebenso wie Handelsgesellschaften und Denkfabriken, welche Zweifel säen hinsichtlich der Risiken des Klimawandels. (Hervorhebung hinzugefügt).

Greenpeace behauptet, man kann nicht verklagt werden, weil deren irreführende Behauptungen nicht faktisch gemeint waren, aber danach behauptet der Verein, dass das US-Justizministerium gegen ein Energieunternehmen ermitteln muss wegen etwas, dass man „Irreführung der Öffentlichkeit“ nennt.

Es wird keine Überraschung sein, dass Greenpeace auch vom Rockefeller Brothers Fund und Rockefeller Family Fund finanziert worden ist, den gleichen Institutionen also, die auch jedem Schritt der #ExxonKnew-Kampagne den Weg gebahnt hatten.

Repräsentanten von Greenpeace waren zugegen bei einem geheimen Strategie-Treffen im Januar 2016, welches in den Büros des Rockefeller Family Funds in New York stattfand. Dort hatten sich die Aktivisten getroffen, um auszutüfteln, wie man „die Meinung der Öffentlichkeit dazu bringen kann, im Gedächtnis zu verankern, dass Exxon eine korrupte Institution ist“ und „das Unternehmen als einen politisch Handelnden zu delegitimieren“ und „Funktionäre zwingen, sich von Exxon loszusagen“.

Ein ehemaliges Mitglied des Direktoriums von Greenpeace, Kenny Bruno, twitterte im vorigen Jahr:

Ich möchte Exxon nicht aus der Welt schaffen.Ich möchte das Unternehmen einfach auf die Größe reduzieren, mit der ich es in das Badezimmer bringen und in der Badewanne ertränken kann“.

Falls es nicht ohnehin schon überaus offensichtlich gewesen wäre – diese jüngsten Entwicklungen zeigen einfach, wie leichtgläubig Greenpeace ist.

Quelle: https://energyindepth.org/national/greenpeace-claims-immunity-from-lawsuits-because-its-claims-are-hyperbole/

Ich hoffe, dass Resolute diese Öko-Clowns mit jedem Penny, den sie haben, zum Schweigen bringt. Wie in dem Fall, als Gawker wegen einer Verleumdung zu einer hohen Geldstrafe verurteilt worden war. Greenpeace verdient Gleiches in jeder Hinsicht.

Link: https://wattsupwiththat.com/2017/03/03/dr-patrick-moore-was-right-greenpeace-is-full-of-shit/

Übersetzt von Chris Frey EIKE




Wie die NOAA und schlechte Model­lierung eine „Ozean-Versauerung“ erfunden haben: Teil 2 – schlechte Modelle

    Versauern die oberen Schichten der Ozeane wirklich?

Im Teil 1 ordnete ein Herr Bednarsek von der NOAA den Zerfall von Schalen der Flügelschnecken [Thecosomata; mehr dazu hier bei Wikipedia. Anm. d. Übers.] anthropogenem CO2 zu, obwohl die Beweise eindeutig sind, dass aufwallendes Tiefenwasser mit geringeren pH-Werten dafür verantwortlich war. Auf der Grundlage von Modellen, die Mitarbeiter der NOAA herangezogen hatten, behauptete Bednarsek, dass die oberen Ozeanschichten saurer werden und weniger geeignet sind als Habitat für Thecosomata im Vergleich zu vorindustriellen Zeiten. Allerdings ist das Auffinden des Ortes und der Tiefe, in der sich anthropogenes CO2 derzeit befindet, eine sehr, sehr schwierige Sache. Weil der Ozean ein großes Reservoir anorganischen Kohlenstoffes enthält, 50 mal größer als das atmosphärische Reservoir, ist der anthropogene Beitrag ziemlich gering. Außerdem umfasst anthropogener Kohlenstoff weniger als 2% der CO2-Menge, die jedes Jahr kombiniert von Ozean aufgenommen und wieder ausgegast wird. Folglich gibt es nur ein sehr schwaches Signal im Verhältnis zu Rauschen, was eine genaue Erkennung von anthropogenem CO2 verhindert. Trotz zugegebenermaßen großer Unsicherheiten versuchen die Modellierer stur zu folgern, welche Schichten des Ozeans versauern.

(To clarifying terminology, an organic carbon molecule is a molecule that is joined to one or more other carbons, such as carbohydrates and hydrocarbons. CO2 with a lone carbon is considered inorganic, and when dissolved can take 3 forms (or “species”) collectively referred to as Dissolved Inorganic Carbon (henceforth DIC): 1) Carbonic acid (H2CO3), 2) Bicarbonate ion (HCO3) after losing one H+ 3) Carbonate ion (CO3-2) after losing a second H+ )

[Diesen Absatz lasse ich mangels Fachkenntnis in Chemie lieber unübersetzt, bevor ich falsche deutsche Begriffe verwende. Anm. d. Übers.]

Die Modellergebnisse basieren jedoch auf drei sehr dubiosen Annahmen:

1) Die Modelle nehmen an, dass die Oberflächenschichten anthropogenes CO2 absorbieren, indem sie ein Gleichgewicht mit der atmosphärischen Konzentration erreichen. Mit kleineren Adjustierungen berechnen die Modelle einfach, wie viel anorganischer Kohlenstoff (DIC) dem Ozean hinzugefügt wird auf der Grundlage eines gestiegenen CO2-Gehaltes der Atmosphäre seit vorindustrieller Zeit.

2) Die Modelle nehmen an, dass CO2 in den oberen Ozeanschichten diffundiert und durch den Ozean transportiert wird ähnlich wie Indikatoren wie CFCs. Weil sich CFCs unverhältnismäßig nahe der Oberfläche akkumulieren, nehmen die Modelle an, dass dies auch bei DIC der Fall ist.

3) Die Modelle nehmen an, dass sich die Biosphäre in einem stationären Zustand [steady state] befindet. Folglich tragen sie nicht einer gestiegenen Primärerzeugung und dem rapiden Export von Kohlenstoff in die Tiefe Rechnung.

Obwohl es keinerlei Zweifel daran gibt, dass die Ozeane anthropogenes CO2 aufnehmen, sind die Behauptungen, dass die oberen Schichten der Ozeane versauern, das Ergebnis falscher Modellhypothesen.

Welches Gleichgewicht?

Ein CO2-Gleichgewicht [equilibrium] zwischen Ozean und Atmosphäre wird sehr selten erreicht. Der pH-Wert an der Ozeanoberfläche und folglich die Sättigung mit Kalziumkarbonat [Kalk] werden bestimmt durch die Effizienz der biologischen Pumpe. Mit anderen Worten, wann wo wie viel CO2 in die Ozeanoberfläche eintritt, muss die CO2-Konzentration an der Oberfläche geringer sein als die atmosphärische Konzentration. Diese Differenz ist davon abhängig, wie viel CO2 in organischem Kohlenstoff gebunden ist mittels Photosynthese und nachfolgend in die Tiefe transportiert wird, oder wie viel CO2 nach oben wallt. Die Photosynthese zieht willkürlich alle CO2-Moleküle hinab, die in die Oberflächengewässer eingedrungen sind, entweder durch Aufwallen aus der Tiefe oder durch Diffusion aus der Atmosphäre. Trotz gegenwirkender Effekte wie Durchmischung und Diffusion erhält die biologische Pumpe einen starken vertikalen Gradienten aufrecht eines hohen pH-Wertes an der Oberfläche und geringem DIC, wobei pH-Werte mit der Tiefe abnehmen und DIC zunimmt. In Regionen, in denen ein starkes Aufwallen von DIC aus der Tiefe die Fähigkeit photosynthetisierender Organismen überkompensiert, Kohlenstoff abzuscheiden, fällt der pH-Wert an der Oberfläche und das CO2 wird in die Atmosphäre ausgegast. Viele Modelle schätzen, dass ohne die biologische Pumpe das atmosphärische CO2 um 200 bis 300 ppm über das derzeitige Niveau hinaus zunehmen wird.

Die Effizienz der biologischen Pumpe bestimmt, bis zu welchen Tiefen anthropogener Kohlenstoff vordringt. Allerdings modelliert Sabine [gemeint: Christopher L. Sabine, Pacific Marine Environmental Laboratory/NOAA, Seattle, Washington 98115-6349, siehe Link] nicht die Auswirkungen der biologischen Pumpe, wobei er komischerweise feststellt: „Obwohl die Ozean-Biologie eine integrale Rolle spielt bei der natürlichen Verteilung von Kohlenstoff im Ozean, gibt es keine endgültigen [conclusive] Beweise, dass die Aufnahme durch den Ozean und die Speicherung anthropogenen Kohlenstoffs bisher irgendetwas anderes involviert hat als eine chemische und physikalische Reaktion auf steigendes atmosphärisches CO2“.

Glaubt Sabine wirklich, dass die unleugbare biologische Pumpe unterscheidet zwischen anthropogenem und natürlichem Kohlenstoff? Oder glaubt er, dass es keinerlei Änderungen hinsichtlich der Primärerzeugung und dem Kohlestofftransport gegeben hatte? Nimmt die Primärerzeugung zu, nimmt auch der Transport von Kohlenstoff in die Tiefe zu. Die jährliche Primärerzeugung in der Arktis hat seit 1998 um 30% zugenommen. Wir können auf der Grundlage einer Zunahme von 61% von Mesoplankton zwischen 1994 und 2006 in der Sargasso-See die Primärerzeugung ableiten. Coccolithophores [hier] im Nordatlantik haben zwischen 1990 und 2012 um 37% zugenommen. Und Primärerzeugung und Kohlenstoff-Transport im Peru-Strom hat seit Ende der Kleinen Eiszeit dramatisch zugenommen. Der zunehmende Trend der Primärproduktion und der begleitende Kohlenstoff-Export sind potente Beweise, die eine alternative Hypothese stützen, der zufolge die biologische Pumpe den zunehmenden Eintrag anthropogenen Kohlenstoffs sequestriert hat.

Eine Untersuchung saisonaler Änderungen der oberflächennahen CO2-Konzentration illustriert, wie die biologische Pumpe bestimmt, wann und wie viel CO2 in den Ozean eintritt und wie viel DIC sich nahe der Oberfläche akkumuliert. Wie die folgende Graphik mit Bojen-Daten vor der Küste von Newport aus dem Jahr 2008 veranschaulicht (Evans 2011), erniedrigt jede Frühjahrs-Photosynthese das CO2 an der Ozeanoberfläche auf 200 ppm, weit unter den gegenwärtigen atmosphärischen Konzentrationen und viel niedriger als das, was aus dem Gleichgewicht einer vorindustriellen Atmosphäre zu erwarten ist. Frühjahrs-Oberflächengewässer sind übersättigt, und jedwedes Abtauchen oder Durchmischung dieser übersättigten Gewässer kann nicht aufwallendes Wasser oder Schichten unter der Oberfläche versauern. Außerdem sorgt der Abwärtstransport des Wassers im Frühjahr schlüssig für die Entfernung irgendwelchen anthropogenen CO2, welches in sonnendurchfluteten Gewässern noch übrig ist. Weitere Experimente zeigen, dass CO2 oftmals ein begrenzter Nährstoff ist, und das zusätzliches atmosphärisches CO2 die Photosynthese stimuliert. Mikrokosmos-Experimente zeigten: wenn der atmosphärische CO2-Gehalt höher war, verbrauchte die Plankton-Gemeinschaft 39% mehr DIC.

Die Saison der Aufwallung beginnt im Sommer und dauert bis zum Herbst. Wie oben dargestellt lassen Aufwall-Ereignisse die Oberflächen-Konzentration von CO2 rapide steigen, bis 1000 ppm. Die Physik schreibt vor, dass es keine Diffusion aus der Atmosphäre in den Ozean geben kann, wenn die ozeanische Konzentration höher ist als die atmosphärische Konzentration. Folglich gibt es praktisch keine anthropogenen Hinzufügungen während der Aufwall-Saison. Hier muss jedwede Abnahme des pH-Wertes oder der Karbonat-Sättigung an der Oberfläche auf Aufwallen zurückgehen.

Und schließlich, im Winter (nicht illustriert) zeigen die Oberflächengewässer eine stetige CO2-Konzentration von 340 ppm. Obwohl die Photosynthese herabgesetzt ist und die winterliche Durchmischung mehr unter der Oberfläche befindlichen Kohlenstoff und Nährstoffe an die Oberfläche bringt, bleibt die Atmosphäre unter dem Gleichgewicht mit der Atmosphäre. Obwohl die Oberflächen-Konzentrationen niedrig genug sind, um die Aufnahme atmosphärischen CO2 zuzulassen, sorgt die biologische Pumpe weiterhin dafür, dass Kohlenstoff in die Tiefe transportiert wird, so dass die Oberflächenschichten den ganzen Winter über übersättigt bleiben.

Die Diffusion von CO2 in den Ozean ist ein langsamer Prozess. Man glaubt, dass es etwa 1 Jahr dauert, bis die Ozeane mit einer atmosphärischen Störung ins Gleichgewicht kommen. Aber mit der Annäherung des Frühjahres verstärkt das zunehmende Sonnenlicht die Photosynthese. Wie viel anthropogenes CO2 auch immer in die Ozeanoberfläche im Verlauf des Jahres eingedrungen ist – es ist wieder einmal vollständig sequestriert und in die Tiefe gepumpt worden, was die CO2-Konzentrationen an der Oberfläche auf 200 ppm erniedrigt. Bednarseks Behauptung, dass anthropogenes CO2 das aufwallende Wasser entlang der Küste von Oregon und Kalifornien versauert, wird also wieder nicht gestützt.

Indikatoren simulieren den Transport anthropogenen Kohlenstoffes nicht korrekt

Indikatoren wie chlorofluorocarbons (CFCs) sind synthetische Gase, die biologisch inaktiv sind. Sie kamen während der zwanziger Jahre des vorigen Jahrhunderts in die Welt, hauptsächlich als Kühlmittel. Klimawissenschaftler haben vermutet, dass der physikalische Transport und die Akkumulation von CFCs sowie zunehmender anthropogener Kohlenstoff ähnlich sind. Unten in der Abbildung zeigt der rote Bereich unmittelbar südlich von Grönland ein Gebiet, in dem sich die meisten CFCs akkumuliert haben. Zu dieser lokalen Konzentration kommt es, wenn Wasser aus dem Atlantik mit hohem Salzgehalt sich abkühlt und das Oberflächenwasser zusammen mit den darin gelösten Gasen in die Tiefe sinkt und das Nordatlantische Tiefenwasser bildet. Man schätzt, dass dieses Absinken 18% aller CFCs unter 1000 m tief transportiert hat; was impliziert, dass gelöster anthropogener Kohlenstoff ähnlich transportiert und abgeschieden worden ist. Anderswo jedoch akkumulieren CFCs unverhältnismäßig in Oberflächengewässern, so dass die Modelle annehmen, dass sich gelöstes anthropogenes CO2 ähnlich näher an der Oberfläche akkumuliert.

Sowohl CFCs als auch CO2 sind Gase, und deren Löslichkeit wird von der Temperatur gleichlaufend moduliert. Warmes Wasser in den Tropen absorbiert die geringste Menge von CFCs und CO2, wie die dunkelblauen Bereiche in der folgenden Abbildung zeigen (aus Willey 2004). Folglich haben Äquator-Gewässer, welche die Kalifornische Tiefenströmung füttern, deren Wasser an der Westküste aufsteigt, ebenfalls die geringsten Mengen anthropogenen Kohlenstoffs absorbiert, wenn überhaupt welches. (Das extrem geringe Niveau der CO2-Diffusion in den tropischen Ozean plus die Übersättigung tropischer Gewässer widerspricht sehr jedweden Behauptungen, dass Korallenriffe signifikant beeinträchtigt sind durch anthropogene Versauerung).

Allerdings wird jedwedes in sonnendurchflutetes Wasser eindringende CO2 durch Photosynthese rasch in viel organische Materie umgewandelt, anders als bei den inerten CFCs. Obwohl gelöste CFCs und gelöster Kohlenstoff auf die gleiche Weise passiv transportiert werden, verhält sich organischer Kohlenstoff (lebend oder tot) sehr viel anders. Partikulärer Kohlenstoff sinkt rasch und bringt so Kohlenstoff von der Oberfläche in die Tiefe. CFC-Spurengase können dies nicht simulieren. Eine Durchsicht der Literatur zeigt: „Verschiedene Verfahren und Messungen haben Schätzungen erzeugt von Sink-Geschwindigkeiten für organische Partikel. Dieses Sinken weist eine riesige Bandbreite auf, nämlich von 5 bis 2700 m pro Tag. Allgemein liegt die Geschwindigkeit aber zwischen zehner und hunderten Metern pro Tag“. Niedrige Schätzungen sind verzerrt durch suspended Partikel, die mit den sinkenden Partikeln gemittelt werden. Schnellere Sinkraten werden bei pteropod shells, Foraminiferen, Diatomeen, Flügelschnecken, Panzer von Zooplankton und Anhäufungen von Abfallstoffen beobachtet, die alle in der Lage sind, 500 bis 1000 Meter pro Tag zu sinken. Diese Sinkraten sind viel zu schnell um zu gestatten, dass aufgenommenes CO2 aus deren Zerfall entweder das aufwallende Wasser versauert wie entlang der Küsten von Oregon bis Kalifornien, oder das Wasser an der Oberfläche.

Frühere Experimente hatten gezeigt, dass Einzelzellen sehr langsam sinken mit Raten von nur 1 Meter pro Tag und folglich erheblich unterschätztem Kohlenstoff-Export. Aus Einzelzellen bestehende Organismen werden sich jedoch zu Klumpen zusammenfügen, was die Sinkrate erhöht. Neue Studien zeigten die „allgegenwärtige Präsenz gesunder photosynthetischer Zellen, dominiert von Diatomeen, bis hinab zu 4000 m“. Je nach Länge der Zeit, mit der photosynthetische Zellen in der Dunkelheit bestehen, wurden Sinkraten berechnet mit einer Bandbreite von 124 bis 732 Meter pro Tag, was konsistent ist mit einer hoch effizienten biologischen Pumpe. Obwohl die Wissenschaftler der NOAA Bedenken geäußert haben, dass die globale Erwärmung die Effizienz der biologischen Pumpe verringern würde, indem Bestandteile der Phytoplankton-Gemeinschaften zu kleinen, langsam sinkenden Bakterien geschoben werden, zeigen neue Forschungen, dass sich auch Bakterien zu Clustern zusammenfinden, mit raschen Sinkraten von 440 bis 660 Meter pro Tag.

Die Abscheidung von Kohlenstoff ist abhängig von der Sinkgeschwindigkeit und wie schnell organisches Material abgelagert wird. Die Abscheidung variiert teilweise infolge Variationen in den Phytoplankton-Kolonien. In Tiefen um 1000 m wird angenommen, dass Kohlenstoff relativ permanent abgeschieden wird, wird Wasser aus dieser Tiefe doch 1000 Jahre lang nicht mit der Oberfläche ausgetauscht. Weber 2016 zeigt, dass 25% der organischen Partikel in hohen Breiten bis auf 1000 m sinken, während dies in niedrigen Breiten nur zu 5% der Fall ist. Aber langfristige Abscheidung erfordert keine Absinktiefe bis 1000 Meter. Es erfordert Absinken bis unter die Pycnocline-Schicht [hier bei Wikipedia steht, was das ist. Anm. d. Übers.], eine Region, in der sich die Dichte rapide ändert. Dichtes Wasser kann sich nicht so ohne Weiteres über die Pycnocline-Schicht hinauf bewegen, so dass der vertikale Transport von Nährstoffen und Kohlenstoff behindert wird, was zu langfristiger Abscheidung führt. Weil die Pycnocline-Schicht über den Globus variiert, ist das auch bei der Tiefe der Abscheidung der Fall.

Unten links (a) ist eine Graphik von Weber 2016, in der abgeschätzt wird, bis zu welcher Tiefe Partikel sinken müssen, um 100 Jahre lang abgeschieden zu werden. Im größten Teil des Pazifiks müssen die Partikel dazu nur auf Tiefen zwischen 200 und 500 Metern absinken. Im Gegensatz dazu müssen sie in den goldenen Gebieten um den Golfstrom, Neuseeland und Südafrika bis auf 900 Meter sinken.

Die Karte rechts (b) zeigt Schätzungen, welcher Anteil organischer Materie, welche die sonnendurchfluteten Gewässer verlässt, sequestriert wird. Das Gold im Indischen Ozean schätzt, dass 80% davon die 100-Jahre-Abscheidungstiefe erreichen werden. Entlang der Küste von Oregon bis Kalifornien ist das nur bei 60% der Fall. Auch dies weckt Zweifel an Bednareks Behauptung, dass kürzlich versauertes Wasser die Flügelschnecken beeinträchtigt. Anderswo in Graphik (b) erreichen nur 20% oder weniger des exportierten Kohlenstoffes die zur Abscheidung erforderliche Tiefe.

Die Kombination von Sinkgeschwindigkeiten und Abscheidungs-Tiefen zeigt, dass bedeutende Anteile der Primärproduktion im Zeitmaßstab von Tagen bis Wochen abgeschieden werden. Dies ist konsistent mit dem Erhalt des vertikalen DIC- und pH-Gradienten, der in unseren Ozeanen gefunden worden ist. Es steht jedoch im Widerspruch zu Behauptungen der NOAA-Wissenschaftler.

Verzerrt durch CFC-Beobachtungen schrieb Sabine: „Weil anthropogenes CO2 in die Ozeane eindringt mittels Gasaustausch an der Grenzschicht Wasser-Luft, finden sich die höchsten Konzentrationen anthropogenen CO2 nahe der Wasseroberfläche. Außerhalb von Tiefwassergebieten kann der Zeitmaßstab der Durchmischung von Wasser nahe der Oberfläche mit Tiefenwasser Jahrhunderte betragen, und bis Mitte der neunziger Jahre blieb die Konzentration athropogenen CO2 in der Tiefsee unter dem Erkennungshorizont mit der Delta-C*-Technik.

Wenn die NOAA-Wissenschaftler die Tatsache außer acht lassen, dass Kohlenstoff in Partikelform bis zu harmlosen Tiefen im Zeitmaßstab von Tagen bis Wochen anstatt von „Jahrhunderten“ abgeschieden werden kann, scheint dies der Grund für ihre katastrophalen Fehleinschätzungen der Ozean-Versauerung zu sein. Außerdem, weil sich CFCs nahe der Oberfläche akkumuliert haben mit nur minimalen Anteilen in tieferen Ozeanbereichen, bietet das Spurengas absolut keinen Hinweis, wie Aufsteigen historisches DIV an die Oberfläche bringen kann. Verlässt man sich daher auf ein CFC-Spurengas, werden ihre Modelle fälschlich annehmen, dass gesteigerte Konzentrationen von DIC nahe der Oberfläche auf sich akkumulierenden anthropogenen Kohlenstoff zurückgehen müssen und nicht auf aufgestiegenen historischen Kohlenstoff.

Der Steady State der Biosphäre im Ozean?

Bei einem gegebenen stetigen Prozentanteil von Primärproduktion werden zunehmende Mengen Kohlenstoff im Verhältnis zu gesteigerter Produktivität exportiert. Folglich ist es vernünftig zu hypothetisieren, dass falls die maritime Produktivität seit dem Ende der Kleinen Eiszeit, also seit vorindustrieller Zeit, zugenommen hat, die gesteigerte Produktion die gesteigerten Mengen anthropogenen Kohlenstoffs abgeschieden hat. Obwohl es nur wenige Ozeanbecken ohne Sauerstoff gibt, wo sich organische Sedimente gut erhalten können, zeigen alle diese Becken, dass seit der Kleinen Eiszeit die maritime Produktivität und der Kohlenstoffexport tatsächlich mit der Erwärmung der Ozeane zugenommen haben.

Hier folgen Forschungen von Chavez 2011, die zeigen, dass während der Kleinen Eiszeit die maritime Primärproduktion (d) niedrig war, aber um das 2- bis 3-fache zugenommen hat während der letzten 150 Jahre. Sedimente zeigen, dass rasch sinkende Diatomeen um das 10-fache am Ende der Kleinen Eiszeit zugenommen haben, aber wahrscheinlich aufgrund limitierten Siliziums reduzierte sich der Fluss von Diatomeen in Ozean-Sedimente auf eine etwa 2-fache Zunahme über die Kleine Eiszeit. Nichtsdestotrotz finden zahlreiche Studien, dass Schätzungen der Diatomeen-Vielfalt repräsentativ sind für die Kohlenstoffexport-Erzeugung in küstennahen Aufstiegsgebieten.

Die gesteigerte Primärproduktion fällt zusammen mit einer über 100-fachen Zunahme von Fischschuppen und Gräten (f). Und konsistent mit einer Notwendigkeit für mehr Nährstoffe, um die gesteigerte Primärproduktion zu stützen, zeigen Proxy-Beweise eine 2-fache Zunahme von Nährstoffen in der Wassersäule (c). Es sind diese Beweise, welche die Forscher dazu bringen anzunehmen, dass die beobachteten dekadischen Zunahmen aufgestiegenen DIC und Nährstoffe Teil eines viel längeren Trends sein können. Und schließlich, im Gegensatz dazu, dass die globale Erwärmung zur Erklärung für den aufgebrauchten Sauerstoff herangezogen wird, ist die Ablagerung gesteigerten organischen Kohlenstoffes eine viel bessere Erklärung für Beobachtungen gesunkener Sauerstoff-Konzentrationen in der Wassersäule (a) und in Sedimenten (b). Weil sich die Primärproduktion bis 1900 verdoppelt hatte, lange bevor globale Erwärmung oder bevor anthropogenes CO2 signifikante Konzentrationen erreicht hatte, ist es unwahrscheinlich, dass anthropogenes CO2 zu gesteigertem Aufstieg beigetragen hat, zu gesteigerter Primärproduktion oder irgendwelchen anderen Trends in diesem Gebiet.

Gesteigerte Primärproduktion allein garantiert jedoch nicht, dass absinkender partikulärer Kohlenstoff genügend Kohlenstoff entfernt, um anthropogenen Hinzufügungen entgegen zu wirken. Es gibt jedoch eine Dynamik, die nahelegt, dass dies der Fall sein muss. Erstens betrachte man, dass bei einer Untersuchung der Elemente einer Phytoplankton-Kolonie ein allgemeines Verhältnis von 106 Kohlenstoff-Atomen auf 16 Stickstoff-Atome entdeckt worden ist (d. h. Redfield-Verhältnis). Angesichts des Umstandes, dass Stickstoff typischerweise photosynthetische Produktion begrenzt, falls Kohlenstoff und Stickstoff im gleichen Redfield-Verhältnis aufsteigen, solange nicht andere Prozesse für einen Stickstoff-Überschuss sorgen, könnte die Photosynthese lediglich aufgestiegenen Kohlenstoff assimilieren, aber nicht genug, um dem gesamten zusätzlichen anthropogenen Kohlenstoff Rechnung zu tragen.

Kalk bildende Organismen exportieren jedoch größere Anteile anorganischen Kohlenstoffs, weil ihren sinkenden Schalen aus Kalziumkarbonat Stickstoff fehlt. Dies kann zu einem Überschuss an Stickstoff beitragen relativ zu bis in Oberflächengewässer aufgestiegenem Kohlenstoff. Zweitens, Diazotrophen [noch einmal bei Wikipedia] sind Organismen, die atmosphärischen Stickstoff in biologisch nutzbare Formen konvertieren. Freilebende Diazotrophen wie das Cyanobakterium Trichodesmium können so üppig auftreten, dass ihr Erblühen beobachtet werden kann. (Die Blüten einer Spezies sind primär verantwortlich für die Färbung des Roten Meeres). Einige Diazotrophen bilden symbiotische Beziehungen, um sowohl aufgestiegenen als auch anthropogenen Kohlenstoff zu assimilieren. Außerdem, wie bei Mackey 2015 (sowie deren Literaturhinweisen) diskutiert, zeigen bis heute fast alle Studien, dass die Stickstoff-Bindung aufgrund gesteigerten CO2 zunehmen wird“.

Berücksichtigt man all dies, zeigen die Beweise, dass die NOAA-Wissenschaftler eine Charakterisierung des „Steady State“ des Ozeans haben, die verkehrt herum steht. Es gibt keine starre Rate von Primärproduktion und Export, welche die Assimilation anthropogenen Kohlenstoffes und deren Pumpen in die Tiefe verhindert. Im Gegenteil, die kombinierte Dynamik der Stickstoff-Bindung und der biologischen Pumpe zeigen, dass die oberen Schichten des Ozeans wahrscheinlich ein pH-Gleichgewicht [pH homeostasis] oder einen pH-Steady-State erhalten haben, zumindest seit vorindustrieller Zeit. Eine Zunahme atmosphärischen Kohlenstoffs, ob nun aus natürlichem Aufsteigen oder aus anthropogenen Quellen, wird höchst wahrscheinlich rasch assimiliert und in Ozeantiefen transportiert, wo sie für Jahrhunderte und Jahrtausende sicher abgelagert sind. Behauptungen, denen zufolge der obere Ozean seit vorindustrieller Zeit versauert sind, beruhen nicht auf Messungen, sondern sind lediglich das Ergebnis der Modellierung eines „toten“ Ozeans unter Ignoranz entscheidender biologischer Prozesse (mehr dazu hier).

Jim Steele is Director emeritus Sierra Nevada Field Campus, San Francisco State University and author of Landscapes & Cycles: An Environmentalist’s Journey to Climate Skepticism

Link: https://wattsupwiththat.com/2017/03/02/how-noaa-and-bad-modeling-invented-an-ocean-acidification-icon-part-2-bad-models/

Übersetzt von Chris Frey EIKE, der inhaltlich aber nicht immer ganz folgen konnte.




Beim Klimawandel bleiben Fake-News wohl „politisch korrekt“

WWF zum Welt-Eisbärtag: Lebensraum geht mit erschreckender Geschwindigkeit verloren

Zum „Welt-Eisbärtag“ meldeten einschlägige NGOs und kommunale Institutionen unisono, dass der Klimawandel die niedlichen Eisbären weiterhin am Bestand bedroht und dagegen dringendst (mit CO2-Vermeidung) geholfen werden muss:
SOLARIFY, 26.02.2017: Eisbären sterben aus
WWF zum Welt-Eisbärtag: … Längst eine Binsenweisheit – die größten Landraubtiere der Welt sind in Gefahr: Die Eisbären sind durch den Klimawandel massiv bedroht, der Verlust der Lebensräume passiert in einem erschreckenden Ausmaß und in hoher Geschwindigkeit. Nur noch rund 20.000 Tiere gibt es in der Arktis. Die Weltnaturschutzorganisation stuft sie daher als „gefährdet“ ein.

BERLINER ZEITUNG, 24.02.17: Welt-Eisbär-Tag: Kleiner Fritz soll große Wirkung zeigen
Es geht um die gefährdeten Artgenossen von Eisbärenbaby Fritz in der Arktis: Vor dem Welt-Eisbärentag am 27. Februar ruft Tierparkdirektor Andreas Knieriem zu mehr Bewusstsein für den vom Menschen verursachten Klimawandel auf.
„Ich hoffe, dass die große Zuneigung, die unserem Fritz entgegen gebracht wird, die Menschen auch zum Nachdenken anregt – nicht nur am Welt-Eisbär-Tag“. Bei wildlebenden Eisbären werde in den kommenden 45 Jahren ein Rückgang der Population um 30 Prozent und mehr erwartet.

muenchen.de, Tierpark Hellabrunn: Das Eisbär-Baby genoss seinen ersten Ausflug ins Freie
Christine Strobl, Bürgermeisterin und Aufsichtsratsvorsitzende des Tierparks, … „Die neuerliche Geburt eines Eisbären-Babys ist für den Tierpark ein wunderbarer Erfolg und ein bedeutender Beitrag zum Artenschutz dieser hochbedrohten Tierart.“
WWF:
WWF zum Welt-Eisbärtag: Der Lebensraum für Eisbären geht in erschreckender Geschwindigkeit verloren

Nur das (Des-)Informationsportal Klimaretter.Info muss man diesmal loben. Es brachte zwar erst letzten September eine rührende Story zu gefährdeten Eisbären (Eisbären ohne Eis), hielt sich am Jahrestag aber zurück.

Doch der Eisbär vermehrt sich so stark, dass er zur Plage wird

Wie inzwischen allgemein bekannt, leiden die Eisbären jedoch überhaupt nicht unter einem Klimawandel. Im Gegenteil, sie vermehren sich und werden eher zur Plage.

EIKE 4.03.2016: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)

Bild aus dem EIKE-Artikel. Es zeigt den Populationsverlauf seit dem Jahr 1960 und ab dem Jahr 1990 den Verlauf, wenn danach die massive Bejagung eingestellt worden wäre.

Wie sie uns einen Eisbären aufbinden

Auf Achgut wurde das Thema der angeblich weiterhin so gefährdeten Eisbären aufgrund des Anlasses in einem Artikel zusammengefasst, weshalb daraus zitiert wird.

Achgut.com, Dirk Maxeiner: Wie sie uns einen Eisbären aufbinden
… Die Eisbären werden nicht weniger, sondern mehr. Deshalb zum Mitschreiben: Laut der neusten Untersuchungen beträgt die Zahl der Eisbären jetzt zwischen 22 600 und 32 250. Das ist das vier bis sechsfache des Bestandes nach dem zweiten Weltkrieg. Neben den Populationen der Eisbären und nehmen auch die ihrer Beutetiere, der Sattelrobben, zu. Mehr dazu hier und hier.
Auch in Regionen wie Buffin Bay und Kane Basin, in denen bislang tatsächlich abnehmende Populationen vermutet wurden, ist davon keine Rede mehr, sondern die Bestände sind stabil. Die ortsansässigen Inuit haben darauf übrigens schon seit längerem hingewiesen. Das Schrumpfen der Eismassen in den arktischen Sommern macht den Polarbären offenbar nichts aus.
Das hinderte die Klima-Katastrophen-Fraktion natürlich nicht daran, weiter den Stuss vom in der Arktis dahinsiechenden Meister Petz zu verbreiten. Vor drei Tagen (27.2.2017) war „Welt Eisbärtag“ und die gute alte Fakenews wurde prompt wieder ausgepackt. Beispielsweise
hier und hier und hier. Die Verfasser dieser Traktate sind gegen Fakten mindestens so immun wie die Bevölkerung von Mekka gegen christliche Missionierung.
Alle Prognosen, die ein Aussterben der schönen Tiere innerhalb kurzer Zeit voraussagten, treffen nicht zu. Das ist deshalb besonders delikat, weil die Eisbären schon seit 2008 eine politische Mission haben. Da wurden sie nämlich vom „U.S. Fish and Wildlife Service“ (FWS) nach dem sogenannten „Endangered Species Act“ als erste Art überhaupt gelistet, die vom Klimawandel bedroht sei. Klima-Aktivisten sehen darin einen möglichen juristischen Hebel um gegen die Emittenden von Kohlendioxid als Verursacher dieses „Aussterbens“ vorzugehen.

Ein Vorreiter beim Fake-New ist der WWF

Ganz perfide und bewusst verfälschend informiert der WWF. Dort heißt es im Text: … Der Klimawandel ist für die Eisbären der Arktis eine sehr ernste Gefahr. Die letzten 20.000 bis 25.000 Eisbären sind massiv bedroht, bereits 2050 könnten zwei Drittel der Tiere ausgestorben sein … “
Wie man am Bestandsverlaufs-Bild sehen kann, kennzeichnen die „20.000 bis 25.000“ Eisbären eine sich seit dem Jahr 1960 stetig erhöhende Population. Die Angabe „ … die letztenEisbären … „ ist somit eine bewusst fälschende, weil eine Bestandsverringerung suggerierende Darstellung.

Quellen

[1] Süddeutsche Zeitung, 18. Dezember 2016: Falschmeldungen Schulz fordert EU-weites Gesetz gegen Fake News
http://www.sueddeutsche.de/politik/fake-news-schulz-fordert-eu-weites-verbot-von-falschmeldungen-1.3299552

[2] POLITICALLY INCORRECT, 18. Dez 2016: Heiko Maas will fünf Jahre Haft für “Fake-News”

Bundesjustizminister Heiko Maas (SPD) fordert die Justiz auf, härter gegen gefälschte Nachrichten in Sozialen Netzwerken wie Facebook vorzugehen. “Verleumdung und üble Nachrede sind nicht von der Meinungsfreiheit gedeckt. Das muss die Justiz auch im Netz konsequent verfolgen”, sagte Maas BILD am SONNTAG.

Bei “übler Nachrede und Verleumdung einer Person des öffentlichen Lebens” drohe eine Freiheitsstrafe von bis zu fünf Jahren. “Das sollte jedem klar sein, der versucht, mit solchen Lügen politische Debatten zu manipulieren. Den rechtlichen Rahmen sollten wir konsequent ausschöpfen”, so Maas.




Warum spekulieren?

Es gibt zwei Anlässe im Leben eines Menschen, bei denen er nicht spekulieren sollte: Wenn er es sich nicht leisten kann, und wenn er es sich leisten kann“ – Mark Twain

Mein Thema heute ist die Vorherrschaft von Spekulation in den Medien. Was bedeutet das? Warum ist das so allgegenwärtig? Sollten wir etwas dagegen tun? Falls ja, was – und warum? Sollten wir uns überhaupt darum kümmern? Ist Spekulation überhaupt validierbar? Und so weiter.

Ich möchte diesem Spekulationstrend beitreten und darüber spekulieren, warum es so viel Spekulation gibt. Im Zuge, diesem Trend zu folgen, möchte ich meine Standpunkte ohne jedwede faktische Stützung darlegen, einfach indem ich eine Reihe von schlichten Behauptungen aufstelle.

Bevor wir anfangen, möchte ich eine Definition klären. Mit Medien meine ich Filme, Fernsehen, Internet, Bücher, Zeitungen und Zeitschriften. Um dem allgemeinen Trend der Spekulation zu folgen, wollen wir nicht zu viele Kleinstunterscheidungen treffen.

Anfangen können wir damit, uns zu fragen, bis zu welchem Grad sich die Medien der reinen Spekulation verschrieben haben. Jemand könnte hierzu eine Studie durchführen und Fakten präsentieren, aber bislang hat das niemand getan. Ich würde es mit Sicherheit nicht tun. Es gibt keinen Grund, sich damit zu behelligen. Die Erfordernis, eine Faktenbasis für eine Behauptung zu demonstrieren, ist schon vor langer Zeit entfallen. Sie wurde ausgesondert mit dem universellen Lob für das Buch Backlash von Susan Faludis, welches im Jahre 1991 den National Book Critics Circle Award für Allgemeine Sachbücher verliehen bekam, und welches hunderte Seiten quasi-statistischer Behauptungen auf der Grundlage einer Prämisse enthält, welche niemals belegt wurde und die fast mit Sicherheit falsch war.

Aber das ist ein alter Hut, und ich erwähne es hier nur, um Standards zu setzen.

Heute weiß natürlich jedermann, dass „Hardball“, „Rivera Live“ und ähnliche Shows nichts weiter sind als ein stetiger Strom von Vermutungen über die Zukunft. Die Talkshows am Sonntag Morgen sind reine Spekulation. Jeder weiß, dass es sonntags keine Nachrichten gibt.

Aber Fernsehen ist Unterhaltung. Betrachten wir die so genannten seriösen Medien. Zum Beispiel die New York Times [ein Ober-Alarmisten-Blatt! Anm. d. Übers.] vom 6. März, also von dem Tag, als Dick Farson mir gesagt hat, dass ich diese Gedanken von mir gebe. In der Kolumne an erster Stelle jenes Tages geht es um die Zölle von Bush auf importierten Stahl. Jetzt lesen wir: Die Maßnahme von Mr. Bush „wird wahrscheinlich den Preis von Stahl scharf in die Höhe treiben, vielleicht um bis zu zehn Prozent…“. Amerikanische Verbraucher „werden ultimativ höhere Preise zahlen müssen“. Amerikas Verbündete „würden fast mit Sicherheit die Entscheidung anfechten“. Ihr legales Anliegen „könnte Jahre dauern, um in Genf einen Prozess anzustrengen“ um Dieses und Jenes.

Man beachte auch die vage und versteckte Spekulation. Die Anfechtung seitens der Alliierten würde „die Bühne bereiten für einen großen Handelskrieg mit vielen der gleichen Länder, die Bush zusammenhalten möchte in der zerbrechlichen Koalition gegen den Terror“. Mit anderen Worten, in der Story wird spekuliert, dass Zölle den Kampf gegen den Terrorismus beeinträchtigen können.

Inzwischen bin ich unter dem Faludi-Standard zu dem festen Standpunkt gekommen, dass Medien hoffnungslos von Spekulation durchsetzt sind, und wir können darangehen, die Auswirkungen dieses Umstandes zu betrachten.

Nun könnte man diese Story über Zölle lesen und sich fragen „na und?“. Es ist keine schlechte Geschichte. Ist es nicht vernünftig, über Auswirkungen gegenwärtiger Ereignisse auf diese Weise zu reden? Ich antworte, absolut nicht! Derartige Spekulationen sind komplette Zeitverschwendung.Sie sind sinnlos. Es ist Mist auf der Frontseite der Times.

Der Grund dafür, dass es sinnlos ist, ist natürlich der Umstand, dass niemand weiß, was die Zukunft bereit hält.

Stimmen wir alle darin überein, dass niemand weiß, was die Zukunft bereit hält? Oder muss ich Ihnen das erst beweisen? Ich stelle diese Frage, weil es einige sehr gut untersuchte Auswirkungen der medialen Berichterstattung gibt, was passiert, wenn man das Fernsehgerät verkehrt herum aufstellt: die Kinder werden sagen, dass das Popcorn aus der Tüte herausfällt. Dieses Ergebnis wäre erheiternd, falls es auf Kinder beschränkt bleibt. Aber die Studien zeigen, dass niemand davon ausgenommen ist. Alle Menschen unterliegen diesem medialen Effekt, einschließlich all jener unter uns, die glauben, dass wir ich-bewusst und hip und gut unterrichtet sind.

Medien bringen eine Glaubwürdigkeit mit, die total unverdient ist. Wir alle haben schon das erlebt, was ich den Murray Gell-Mann Amnesie-Effekt nenne. (Ich beziehe mich auf diesen Namen, weil ich über dieses Thema einmal mit Murray Gell-Mann diskutiert habe, und mit der Einführung eines berühmten Namens impliziere ich größere Bedeutung für mich selbst und den Effekt, welche er anderenfalls nicht hätte).

Kurz beschrieben lautet der Gell-Mann-Amnäsie-Effekt so: Man schlägt die Zeitung auf und stößt auf einen Artikel über etwas, über das man gut Bescheid weiß. In Murrays Fall war das Physik. In meinem Fall war es Show-Business. Man liest den Artikel und stellt fest, dass der Journalist absolut keine Ahnung hat, weder hinsichtlich der Fakten noch der Thematik. Oftmals ist der Artikel so falsch, dass er tatsächlich die Story von hinten aufzäumt – indem Ursache und Wirkung vertauscht werden. Ich nenne dies die „wet streets cause rain“-Storys [was man etwa übersetzen könnte mit „weil die Straßen nass sind, regnet es“]. Zeitungen sind voll davon.

In jedem Falle liest man mit Verbitterung oder auch amüsiert die multiplen Fehler in einer Story und blättert dann um zur Seite mit den nationalen oder internationalen Angelegenheiten. Diese liest man dann so, als ob sie irgendwie genauer sind über Palästina als der Unsinn, den man eben gelesen hat. Man blättert um und vergisst, was man weiß.

Das ist der Gell-Mann-Amnäsie-Effekt. Ich möchte betonen, dass er in anderen Arenen des Lebens nicht aktiv ist. Im normalen Leben ist es so: falls jemand einen permanent anlügt, wird man bald alles, was jener sagt, verwerfen. Vor Gericht gibt es eine gesetzliche Doktrin von falsus in uno, falsus in omnibus, was bedeutet Unwahrheit in einem Teil – Unwahrheit in Allem. Aber wenn es um Medien geht, glauben wir gegen alle Beweise, dass es uns unsere Zeit wahrscheinlich wert ist, andere Teile der Zeitung zu lesen. Und das, wenn das fast mit Sicherheit nicht der Fall ist. Die einzig mögliche Erklärung für unser Verhalten ist Amnäsie.

[Und ich dachte, nur die Deutschen wären so zeitungsgläubig, wie sie nun mal sind! Anm. d. Übers.]

Ein Problem mit der Spekulation besteht also darin, dass man den Gell-Mann-Effekt unberechtigter Glaubwürdigkeit huckepack mit sich herumträgt, was die Spekulation als brauchbarer aussehen lässt als sie ist.

Ein weiteres Thema ist die schiere Masse von Spekulation. Die schiere Masse impliziert einen Wert, der fadenscheinig ist. Ich nenne dies den There-Must-Be-A-Pony-Effekt, abgeleitet aus dem alten Witz, dass ein Kind am Weihnachtsmorgen die Treppe herabkommt, den Raum voller Pferdemist vorfindet und vor Freude in die Hände klatscht. Seine erstaunten Eltern fragen: Warum bist du so glücklich? Es antwortet, bei so viel Pferdemist muss ein Pony da gewesen sein.

Weil wir in jeder Hinsicht mit Spekulation konfrontiert werden, in gedruckter Form, in Videos, im Internet, bei der Konversation können wir möglicherweise zu dem Schluss kommen, dass sie von Wert sein muss. Das ist sie aber nicht. Und zwar weil – egal wie viele Menschen spekulieren, egal wie bekannt deren Gesichter, wie gut ihr Makeup ist und wie gut sie daherkommen; egal wie lange sie vor uns persönlich oder in Kolumnen in Erscheinung treten – es wahr bleibt, dass keines dieser Individuen weiß, was die Zukunft bringt.

Einige Menschen glauben insgeheim, dass die Zukunft bekannt gemacht werden kann. Sie stellen sich zwei Gruppen vor, die über die Zukunft Bescheid wissen und auf die man deswegen hören sollte. Die erste Gruppe sind die Experten [pundits]. Da sie sich die ganze Zeit über die Zukunft auslassen, müssen sie doch wissen, wovon sie reden. Ist das so? „Brill’s Content“ [hier steht, was damit gemeint ist; Anm. d. Übers.] geht üblicherweise den Vermutungen der Experten nach, und während der eine oder andere auch mal einen Treffer erzielt, sind diese Vermutungen über die Zeit nicht besser als Zufall. Dies würde man auch erwarten. Weil niemand die Zukunft kennt.

Ich möchte im Vorübergehen noch erwähnen, dass Expertentum mit den Jahren eine subtile Veränderung durchlaufen hat. In den alten Zeiten haben Kommentatoren wie Eric Sevareid die meiste Zeit damit zugebracht, Ereignisse in einen Zusammenhang zu stellen und einen Standpunkt zu beschrieben über das, was bereits geschehen ist. Darüber sprechen, was sie dachten, war wichtig oder irrelevant hinsichtlich der Ereignisse, die bereits stattgefunden hatten. Dies ist natürlich eine legitime Funktion der Expertise in jedem Bereich menschlichen Wissens.

Aber mit den Jahren hat sich das vertrauen in Expertentum von der Diskussion über Geschehenes weg verschoben hin zu Diskussionen über das, was geschehen könnte. Und hier haben die Experten keinerlei Vorteil aus ihrer Expertise. Schlimmer noch, sie könnten versuchen, wie die Sonntagspolitiker die eine oder andere Agenda durchzupauken mittels der Prophezeiung von deren unmittelbar bevorstehenden Kommen oder Niedergang. Das ist politischer Aktionismus, keine Prophezeiung*.

[*Unübersetzbares Wortspiel: ,This is politicking, not predicting‚].

Die zweite Gruppe, von denen manche Menschen die Vorstellung haben, dass sie über die Zukunft Bescheid wissen, sind Spezialisten unterschiedlicher Art. Die wissen das aber auch nicht. Als Grenzfall möchte ich daran erinnern, dass es einen neuen Bereich gibt, der Spezialisten gebiert – ich weigere mich, es eine Disziplin oder einen Studienbereich zu nennen – Futurismus genannt. Das Narrativ hier lautet, dass einen Weg gibt, Trends zu studieren und zu wissen, was die Zukunft bringt. Das wäre tatsächlich wertvoll, falls es möglich wäre. Aber es ist nicht möglich. Futuristen wissen nicht mehr über die Zukunft als Sie und ich. Man lese deren Zeitschriften von vor ein paar Jahren, und man wird eine endlose Kette der Irrtümer finden.

Expertise ist kein Schutzschild gegen grandiose Fehleinschätzungen. Darum war es Thomas Watson, der Chef von IBM, der prophezeite, dass die Welt höchstens 4 oder 5 Computer brauchen würde. Das ist so falsch wie etwas nur sein kann – prophezeit von einem Mann, der in jeder Hinsicht informiert war darüber, wovon er sprach.

Nicht nur, dass er einen Trend falsch bewertete oder eine Technologie, sondern auch, dass er die Myriaden Verwendungszwecke nicht verstand, für die man eine Maschine allgemein rüsten kann. Genauso lag auch Paul Ehrlich, ein brillanter Akademiker, der sein gesamtes Leben ökologischen Themen widmete, mit fast allen seinen großen Prophezeiungen falsch.

Er lag falsch hinsichtlich schwindender Ressourcen, hinsichtlich der Bevölkerungsexplosion, und er lag falsch mit seiner Prophezeiung, dass bis zum Jahr 2000 50% aller Spezies ausgestorben sein würden. Er widmete sein Leben intensiv empfundenen Bereichen – und lag doch spektakulär falsch.

Nun gut, könnte man sagen, wir akzeptieren, dass man die Zukunft nicht kennen kann in der Art und Weise, wie ich es hier beschreibe. Aber was ist mit dringlicheren Dingen wie etwa die Auswirkungen unerledigter Gesetzgebung? Sicher ist es wichtig, darüber zu reden, was passieren kann, falls bestimmte Gesetze eingeführt werden. Nun – nein, ist es nicht. Niemand weiß, was passieren wird, wenn das Gesetz eingeführt wird. Hierfür möchte ich zwei Beispiele nennen, eines von den Linken und eines von den Rechten.

Das erste Beispiel ist die Clinton’sche Wohlstandsreform, welche hart kritisiert wurde seitens seines eigenen linken Flügels, weil er Anleihen in einer Agenda der Republikaner machte [Clinton war natürlich von den Demokraten. Anm. d. Übers.]. Den Prophezeiungen der Linken zufolge sollten sich daraus menschliches Leiden, bittere Kälte, Kindesmissbrauch, und schreckliche Folgen ergeben. Und was geschah? Nichts dergleichen! Kindesmissbrauch nahm ab. Tatsächlich war die Reform, wie es bei Reformen der Regierung manchmal ist, ein Erfolg; aber Mother Jones [eine Zeitschrift; mehr hier bei Wikipedia] prophezeit immer noch düsterste Effekte, die unmittelbar bevorstehen.

Dieses Scheitern bei der Prophezeiung von Auswirkungen eines Programms spiegelte sich in hysterischem Geschrei von den Rechten bei den Republikanern über steigenden Mindestlohn. Chaos und düstere Zeiten würden sicher folgen, wenn Firmen ihre Türen schließen und das Land in eine überflüssige Rezession gestürzt würde. Aber was waren die wirkliche Auswirkungen? Im Grunde gar keine. Wer diskutiert jetzt noch darüber? Niemand! Was wird geschehen, falls es einen neuen Versuch geben würde, den Mindestlohn anzuheben? Die gleichen düsteren Prophezeiungen noch einmal. Haben wir irgendetwas gelernt? Nein!

Aber mein Punkt ist – bei bevorstehender Gesetzgebung ebenso wie mit allem Anderen – niemand kennt die Zukunft.

Gleiches ist auch wahr hinsichtlich der Auswirkungen von Wahlen und Verabredungen. Welche Auswirkungen hat die Wahl eines bestimmten Präsidenten oder eines Obersten Gerichtshofes? Niemand weiß es. Einige von Ihnen sind alt genug, sich an die berühmte Kolumne von Art Buchwald während der Tage der Johnson-Regierung zu erinnern. Buchwald schrieb einen Beitrag mit dem Titel „Thank God we don’t have Barry Goldwater“ [seinerzeit der Gegenkandidat zu Johnson. Anm. d. Übers.]. Darin erinnerte er daran, wie jedermann befürchtete, dass Goldwater uns in einen großen Krieg ziehen würde. Also wählten wir Johnson, der nichts Eiligeres zu tun hatte als 200.000 Soldaten nach Vietnam zu schicken. Das ist es, was passiert, wenn man einen sich friedlich gerierenden Kandidaten wählt [a dove-ish candidate]. Man bekommt einen Krieg. Oder man wählt den intellektuell brillanten Jimmy Carter, und wird Zeuge, wie er persönlich damit endet zu bestimmen, wer auf den Tennisplätzen des Weißen Hauses spielen darf. Oder man wählt Richard Nixon, der den Stecker aus der Vietnam-Sache herausziehen kann und der dann den Kampf noch Jahre fortsetzt. Und dann China öffnet*.

[*Damit ist hier natürlich nicht China gemeint, sondern das ,China Syndrome‘. Mancher wird mit dem Begriff noch etwas anfangen können. Wer nicht – hier bei Wikipedia steht mehr. Anm. d. Übers.]

Genauso ist die Historie von Entscheidungen des Obersten Gerichtshofes eine endlose Folge von Fehlern hinsichtlich Prophezeiungen von Rechtsprechung, wenn man erst einmal vor Gericht landet. Nicht alle sind überraschend, aber sehr viele schon.

Können wir also hinsichtlich unmittelbar bevorstehender Ereignisse überhaupt irgendetwas vorhersagen? Nein! Dazu reicht es schon sich anzuschauen, was vor dem Fall der Mauer in Berlin gesagt worden ist. Schon dabei sieht man, dass niemand auch nur ein paar Stunden im Voraus etwas prophezeien kann. Menschen sagten alle Arten von Dummheiten bzgl. des Kommunistischen Weltreiches – nur Stunden vor dessen Zusammenbruch. Ich kann hier keine Beispiele zitieren, weil ich dazu erst Faktensuche betreiben müsste, was ich versprochen habe, nicht zu tun. Aber glauben Sie mir, man findet idiotische Statements noch von 24 Stunden zuvor.

Niemand kennt die Zukunft!

Nun ist das keine neue Information.Es war Mark Twain, der gesagt hat: „Ich habe einen Haufen Schwierigkeiten in meinem Leben vorhergesehen, und die meisten davon sind niemals passiert“.

Und Vieles von dem, was die Politiker sagen, ist nicht so sehr eine Prophezeiung, sondern ein Versuch, es wahr werden zu lassen. Es ist Argumentation maskiert als Analyse. Aber es überredet nicht wirklich irgendjemanden. Weil die meisten Menschen es durchschauen.

Falls Spekulation also nutzlos ist, warum gibt es dann so viel davon? Liegt es daran, dass die Menschen sie haben wollen? Das glaube ich nicht. Ich selbst spekuliere, dass sich die Medien der Spekulation zugewandt haben aus den Medien eigenen Gründen. Schauen wir also mal auf die Vorteile der Spekulation von einem Standpunkt der Medien aus:

1. Sie ist unglaublich billig. Schwatzen ist billig. Und Spekulations-Shows sind das Billigste, was man im Fernsehen bieten kann. Sie sind fast genauso billig wie das Senden eines Testbildes. Spekulation erfordert keine Forschung, keinen großen Stab an Mitarbeitern. Minimalen Aufwand. Lediglich den Moderator, Buchung der Teilnehmer – an denen es keinen Mangel gibt – und fertig! Einfach Show! Keine Reporter in verschiedenen Städten auf der ganzen Welt, keine Film-Crew am Drehort. Keine Ultimaten, kein Filmmaterial, welches bearbeitet werden müsste, keine Editoren … nichts! Einfach nur Gerede. Billig.

2. Man kann nicht verlieren. Obwohl die Spekulation nur zufällig auch mal stimmt, was bedeutet, dass man in jedem Falle zu 50% falsch liegt, erinnert sich niemand daran, weshalb sich auch niemand darum schert. Man ist niemals haftbar. Die Zuhörerschaft erinnert sich nicht an gestern, geschweige denn an die vorige Woche oder den vorigen Monat. Medien existieren nur im ewigen Jetzt, in dieser Minute, in dieser Krise, bei diesem Fernsehansager, in dieser Kolumne, bei dieser Spekulation.

Einer der klarsten Beweise hierfür ist die Kontroverse um die Currents of Death [= elektromagnetische Strahlung unter Strom-Überlandleitungen. Anm. d. Übers.]. Sie hatte ihren Ursprung im Journal The New Yorker, welches seit fünfzig Jahren eine sprudelnde Quelle falscher wissenschaftlicher Spekulation ist. Aber mein Punkt ist Folgender: Viele der Menschen, die vor zehn Jahren wild darauf waren, in ihren Häusern gefährliche elektromagnetische Strahlung zu messen, geben jetzt Tausende Dollar aus für den Kauf von Magneten, die sie um ihre Arme und Fersen wickeln wegen der vermeintlich die Gesundheit fördernden Effekte von Magnetfeldern. Diese Menschen erinnern sich nicht daran, dass es sich dabei um genau die gleichen magnetischen Felder handelt, die sie früher zu vermeiden trachteten. Und weil sie sich nicht erinnern, kann das Journal genau wie der Medien-Spekulant nicht verlieren.

Diesen Gedanken, dass man dabei nicht verlieren kann, möchte ich noch etwas weiter ausführen. Das ist nicht auf die Medien beschränkt. In den meisten Bereichen des intellektuellen Lebens hat man die Werte der Spekulation entdeckt und wild für sich vereinnahmt. In der Akademia wird Spekulation normalerweise als Theorie gewürdigt. Es ist faszinierend: sogar obwohl die intellektuelle Haltung der postmodernen deconstructionist era gegen die Theorie ist, besonders gegen allumfassende Theorien, ist das was jeder Akademiker zum Ausdruck bringen möchte, eine Theorie.

Dies ist teilweise übergeschnappte Wissenschaft, aber es ist auch ein Flucht-Türchen. Eine genaue Lektüre der Texte von Jane Austen kann man gut als falsch empfinden, und ein kenntnisreicherer Antagonist kann auch zeigen, dass sie falsch sind. Aber die Theorie der radikalen Feminisierung und autoritären Revolte in den Arbeiten von Jane Austen sind auch unberührbar. Unsere Standpunkte hinsichtlich der Ursprünge der Ersten Weltkrieges können durch andere Institutionen wesentlich genauer erklärt werden als von uns. Aber ein Beitrag eines New Historicist, in welchem durchaus unsere eigene Phantasie enthalten sein kann, welche das sein könnten, würden so sein wie als ob man während des ersten Krieges Soldat war … nun, das ist nicht debattierbar.

Ein hervorragender Bereich für spekulative akademische Arbeiten ist das Unbekannte. Dieser Tage sind religiöse Gegenstände in Ungnade, aber es gibt immer noch viele gute Themenbereiche. Die Natur des Gewissens, die Arbeit des Gehirns, der Ursprung von Aggression, der Ursprung der Sprache, der Ursprung des Lebens auf der Erde, SETI und Leben auf anderen Welten … all das ist großartiges Zeug. Wunderbares Zeug. Man kann endlos darüber debattieren. Aber dem kann nicht widersprochen werden, weil niemand die Antwort auf irgendeines dieser Themen kennt – was wahrscheinlich auch niemals der Fall sein wird.

Aber das ist nicht die einzige Strategie, die man heranziehen kann. Weil die medien-indoktrinierte Öffentlichkeit Behauptungen aus der Vergangenheit ignoriert und vergisst, kommen heutzutage selbst Autoren ungeschoren davon, wenn sie harte Daten präsentieren, die sich dann erwiesenermaßen als falsch herausstellen.

[Woher ,wusste‘ Crichton im Jahre 2002, als er dies schrieb, von den jetzt offenbar gewordenen Manipulationen der NOAA? Anm. d. Übers.]

Eine der am konsistentesten falsch liegenden Denker der letzten Jahre, Carol Gilligan von Harvard, einst ,Wissenschaftlerin des Jahres‘ des MS-Magazins, musste vieles von dem, was sie je geschrieben hatte, zurückziehen oder modifizieren. Und doch hat ihr Ruf als profunde Denkerin und bedeutende Untersucherin keinerlei Schaden genommen. Man muss nicht recht haben, nicht mehr. Niemand erinnert sich.

[Gibt’s da nicht auch einen Mojib Latif von gleichem Kaliber? Anm. d. Übers.]

Dann gibt es da die spekulativen Arbeiten von Anthropologen wie Helen Fisher, die behaupten, uns etwas über die Ursprünge der Liebe oder der Untreue mittels Verweisen auf andere Gesellschaften, auf das Verhalten von Tieren und fossilen Aufzeichnungen zu vermitteln. Wie kann sie falsch liegen? Es ist unüberprüfbar, unbeweisbar, einfach so Stories.

Und damit nicht jemand sich vorstellt, dass Dinge in der Hard Science anders sind, denke man an die String-Theorie, seit fast zwanzig Jahren die dominante physikalische Theorie. Mehr als eine Generation von Physikern hat an der String-Theorie gearbeitet. Aber – falls ich sie richtig verstehe, was vielleicht nicht der Fall ist – die String-Theorie kann nicht getestet oder bewiesen oder widerlegt werden. Obwohl einige Physiker bei dem Argument, dass eine unüberprüfbare Theorie nichtsdestotrotz wissenschaftlich ist, die Augen verdrehen, wer leistet wirklich Widerstand? Man erkenne: Eine unüberprüfbare Theorie ist ideal! Die Karriere ist gesichert!

Kurz gesagt, so lange man spekuliert, kann man nicht verlieren. Diese Erkenntnis ist weit verbreitet. Und sie ist perfekt für das Informations-Zeitalter, welches ein Füllhorn von Wissen verspricht, aber nur ein Füllhorn voll Quacksalberprodukten liefert.

Und nirgendwo steht geschrieben, dass die Medien akkurat oder nützlich sein müssen. Das waren sie nicht während der allermeisten Zeit der Historie. Also spekulieren sie jetzt … na und? Was ist daran falsch?

1. Die Tendenz zum Exzess. Die Tatsache, dass es sich nur um Gerede handelt, macht Dramatik und Spektakel unwahrscheinlich – es sei denn, das Gerede wird hitzig und exzessiv. Also wird es exzessiv. Nicht in jeder Show tritt der Kampf um Stoff nach Art eines Kreuzverhörs zutage, aber es ist eine Tendenz in allen Shows.

2. Die „Verkritisierung“ von allem und jedem ist möglich. Die meiste Spekulation ist nicht fesselnd, weil die meisten Ereignisse nicht fesselnd sind – Mensch, ich frage mich was mit der Deutschen Mark passieren wird! Werden sie ihre Arbeits-Probleme unter Kontrolle bekommen? Dies dient dem wohlbekannten Bedarf der Medien nach einer Krise. Krise bei der Deutschen Mark! Oh je! Passt auf! Krisen einigen das Land, ziehen Zuschauer in großer Zahl an und liefern etwas, über das sich treffend spekulieren lässt. Ohne Krise wird das Gerede bald zu einer Debatte darüber degenerieren, ob die Schiedsrichter eines Footballspiels das letzte Footballspiel hätten noch einmal begutachten sollen. Es gibt also eine Tendenz zu Dringlichkeit und Bedeutung zu hypen und ein Geh-Hin-Gefühl zu vermitteln, wenn das nicht wirklich angemessen ist. Man betrachte die ellenlange Schriftrolle unten im Bildschirm bei der Beerdigung der Königin-Mutter. Wie auch immer die Story um die Königin-Mutter geartet ist, es ist keine Krise. Ich habe sogar ein paar Tage lang die Berichterstattung über meine eigene Scheidung auf CNN verfolgt. Es ist irgendwie schmeichelhaft, obwohl die Darstellung falsch war. Aber meine Scheidung ist mit Sicherheit keine ultimative Brandnachricht.

3. Oberflächlichkeit als Norm. Es muss schnell gehen. Man muss sofort zu den Höhepunkten kommen. Spekulation ist der Oberflächlichkeit förderlich. Das ist es, oder?

4. Endlose Präsentation von Unsicherheit und Konflikten kann Lösungen von Dingen in die Quere kommen. Es gibt einige Beweise, dass die Verteilungskämpfe im Fernsehen nicht nur nicht die Meinungen der meisten Menschen repräsentieren – die nicht so polarisiert sind – sondern dass sie dazu tendieren, die Lösungen aktueller Streitfälle in der realen Welt schwieriger zu machen. Zu allermindest verschleiern diese Verteilungskämpfe die Erkenntnis, dass Streitfälle jeden Tag gelöst werden. Kompromisse bei relativ zentralen Positionen sind viel einfacher als bei extremen oder feindlichen Positionen, die miteinander im Konflikt stehen: Greenpeace gegen die Holzindustrie.

5. Die unendliche Kette von Spekulationen pflastert den Weg zum Streit über Brustimplantate, Hysterie über das Jahr-2000-Problem oder globale Erwärmung, Artikel im The New Yorker über Todesströmungen [currents of death] und eine Vielzahl anderer Resultate, deren Eintreffen keine guten Dinge wären. Es kommt irgendwann zu der Vorstellung – was für die Medien sehr bequem ist – dass am Ende nichts sicher ist. Wenn das tatsächlich nicht wahr ist.

Ich möchte auf eine vorzeigbare schlimme Auswirkung der Hypothese hinweisen, dass nichts wirklich erfahrbar ist. Das Whole Word Reading [ein neues System zum Erlernen von Wörtern in der Grundschule, Anm. d. Übers.] wurde eingeführt durch die Bildungsschulen im ganzen Land, meines Wissens ohne irgendein Test der Effizienz der neuen Methode. Sie war auf einmal da. Generationen von Lehrern wurden mit diesen Methoden indoktriniert. Als Folge davon weisen die USA eine der höchsten Analphabetenrate in der industrialisierten Welt auf. Die Hypothese, dass man nichts mit Sicherheit weiß, hat schreckliche Konsequenzen.

GK Chesterton sagte (in einem anderen Zusammenhang): „Falls man an nichts glaubt, glaubt man an alles“. Genau das erleben wir heute. Die Menschen glauben alles.

Aber einfach ausgedrückt als allgemeine emotionale Haltung des Lebens glaube ich oft, dass Menschen nervös und überspannt sind in diesem medialen Klima von Was ist, wenn… vielleicht…, könnte sein, dass… obwohl es einfach keinen Grund gibt, nervös zu sein. Genau wie ein bärtiger Kuttenträger auf einem Bürgersteig, der unentwegt das kurz bevorstehende Ende der Welt verkündet, machen die Medien genau das, was sich gut anfühlt, und berichten nicht über harte Fakten. Wir müssen anfangen, die Medien als den bärtigen Ultra auf dem Bürgersteig zu sehen, der falsche Befürchtungen hinaus brüllt. Es ist nicht vernünftig, darauf zu hören.

Wir müssen anfangen, uns daran zu erinnern, dass jeder, der seinerzeit sagte, das Jahr-2000-Problem sei kein wirkliches Problem, entweder niedergebrüllt oder von der Öffentlichkeit fern gehalten worden ist. Gleiches gilt für Bereiche wie das Aussterben von Spezies und globale Erwärmung. Man hört niemals jemanden, der sagt, das ist keine Krise. Das möchte ich nicht weiter vertiefen, weil es uns zur Heranziehung von Fakten bringen könnte, aber ich möchte zwei Berichte erwähnen, von denen ich spekuliere, dass Sie von diesen noch nie gehört haben. Der erste Bericht findet sich im Magazin Science vom 18. Januar 2001 (Oha! Eine Tatsache!), dass im Gegensatz zu früheren Studien die Antarktische Eismasse zu- und nicht abnimmt, und dass diese Zunahme bedeutet, dass wir endlich ein Ende des Schrumpfens der Eismasse sehen, welche bereits seit Tausenden von Jahren im Gange ist, seit Beginn des Holozäns. Ich weiß nicht, was überraschender ist – das Statement, dass das Eis zunimmt, oder das Statement, dass die Schrumpfung Tausende Jahre der globalen Erwärmung vorausgegangen ist.

Die zweite Studie ist ein Bericht der National Academy of Sciences über die ökonomischen Auswirkungen des jüngsten El Nino-Ereignisses von 1997 [zur Erinnerung, dieser Beitrag stammt aus dem Jahr 2002, Anm. d. Übers.]. Jene Erwärmung erbrachte einen Gesamt-Profit von 15 Milliarden Dollar für die Wirtschaft. Darin enthalten sind die Verluste von 1,5 Milliarden in Kalifornien durch Regen, welche jedoch ausgeglichen wurden durch billigere Treibstoffrechnungen infolge eines milderen Winters und einer längeren Wachstumssaison. Gesamtergebnis 15 Milliarden an gestiegener Produktivität.

Das Andere, was ich erwähnen möchte ist, dass während der letzten 100 Jahre, während die mittlere Temperatur um lediglich 0,3°C gestiegen ist, das Magnetfeld der Erde um 10% abgenommen hat. Dies hat viel stärkere Auswirkungen als globale Erwärmung und ist potentiell für das Leben auf diesem Planeten weitaus ernster.

Unser Magnetfeld ist das, was die Atmosphäre bereit hält. Sie schirmt uns ab vor tödlicher Strahlung aus dem Weltall. Eine Abnahme des Erdmagnetfeldes um 10% ist extrem besorglich. Aber wer ist besorgt? Niemand! Wer ruft nach Gegenmaßnahmen? Niemand! Warum nicht? Weil man nichts dagegen tun kann. Wie das in Relation zur globalen Erwärmung zu setzen ist, möchte ich Ihrer eigenen Spekulation überlassen.

Persönlich denke ich, dass wir uns von den Medien abwenden sollten, und die Daten zeigen, dass wir das bereits tun, zumindest was die Fernsehnachrichten betrifft. Ich finde, dass wann immer es mir fehlt, den Medien ausgesetzt zu sein, ich viel glücklicher bin, und mein Leben fühlt sich besser an.

Abschließend möchte ich daran erinnern: Während es so Manches gibt, das wir nicht sicher wissen können, gibt es viele Dinge, die herausgefunden werden können und tatsächlich auch herausgefunden werden. Jedoch nicht durch Spekulation. Sondern durch sorgfältige Untersuchung und rigorose statistische Analyse. Da wir in diesem vorübergehenden Ozean von Spekulation schwimmen, vergessen wir, dass man Dinge mit Sicherheit wissen kann, und dass wir nicht in einer angstvollen Welt unendlicher, nicht gestützter Meinungen leben. Aber der Graben, der harte Fakten von Spekulation trennt, ist inzwischen so unbekannt, dass die meisten Menschen ihn nicht fassen können. Vielleicht kann ich ihn mit folgender Geschichte verdeutlichen:

Auf einem Flug nach Europa platzierte man mich neben einem Mann, der sehr unglücklich ist. Es stellt sich heraus, dass er ein Arzt ist, den man für eine zweijährige Doppelblind-Studie für die FDA [= die amerikanische Gesundheitsbehörde, Anm. d. Übers.] engagiert hatte bzgl. der Wirksamkeit von Medikamenten, und es könnte zum Fenster hinaus geworfen sein. Nun bedeutet eine Doppelblind-Studie, dass es vier separate Forscherteams gibt, die untereinander keinen Kontakt haben – vorzugsweise arbeiten sie an unterschiedlichen Universitäten in verschiedenen Teilen des Landes. Das erste Team definiert die Studie und legt die Behandlungsweisen fest, die wirklichen Arzneien und die Kontrollen. Das zweite Team erklärt die Einnahme den Patienten. Das dritte Team sammelt die Daten und schätzt unabhängig die Wirkung der Arznei auf jeden Patienten. Das vierte Team sammelt die Daten und führt eine statistische Analyse durch. Die Kosten dieser Art von Studien betragen, wie man sich vorstellen kann, Millionen Dollar. Und die Teams dürfen sich niemals treffen.

Mein Nachbar ist unglücklich, weil Monate nach Ende der Studie er in einem Wartesaal am Flughafen Frankfurt ins Gespräch mit einem anderen Mann dort gekommen war, und sie entdecken – zu ihrem Schrecken – dass sie beide in der Studie involviert waren. Mein Nachbar war in dem Team, welches die Arzneien verabreichte. Der andere Mann war in dem Team mit den Statistiken. Es gibt keinen Grund, warum einer den anderen zu diesem späten Zeitpunkt beeinflussen sollte, aber nichtsdestotrotz verlangt das Protokoll, dass sich die Teammitglieder niemals treffen. Und so wartet mein Nachbar jetzt darauf, von der FDA zu hören, ob diese die Studie insgesamt einstampfen wollte wegen dieses zufälligen Zusammentreffens in Frankfurt.

Das sind jene Strapazen, durch die man hindurch muss, falls man sicher sein will, dass seine Information korrekt ist. Aber wenn ich den Menschen diese Story erzähle, starren sie mich nur verständnislos an. Sie finden das absurd. Sie glauben nicht, dass es notwendig ist, all das zu tun. Sie glauben, es ist Overkill. Sie leben in der Welt von MSNBC und der New York Times. Und sie haben vergessen, was reale, zuverlässige Informationen sind sowie die Mühen, diese zu erhalten. Das ist so viel schwerer als einfach nur zu spekulieren.

Herzlichen Dank!

International Leadership Forum, La Jolla (26 April 2002)

Quelle: http://larvatus.com/michael-crichton-why-speculate/

Übersetzt von Chris Frey EIKE




Winter 2016/17 in Deutschland mit Hochdruck und eiskalten Über­raschungen- gute Aussichten für Frühjahr und Sommer?

 

Nur etwas überschätzt: Ein halbes bis ein Kelvin zu mild war der Winter diesmal in Mitteleuropa nicht, sondern fast temperaturnormal. Das ergab immerhin „Note 4“. Quelle: NOAA, Eingabezeitraum 21. bis 30.11.2016.

Hier zunächst die Daten für den abgelaufenen Winter 2016/17 (offizielles DWD- Deutschlandmittel):

Dezember 2016 +2,2°C Januar2017 -2,2°C Februar 2017 +2,9°C, Winter +1,0°C

Mittel 1981 bis 2010 Dez. +1,2°C Jan. +0,4°C, Feb. +0,9°C Winter 1980/81 bis 2009/10 +0,9°C

Abweichung Dez. +1 K, Jan. -2,6 K, Feb. +2,0 K, Winter +0,1 K

Zuerst wird im Folgenden nochmals die ursprüngliche Prognose gezeigt; direkt unter jeder Prognose erfolgt die Bewertung; generell auf die CLINO- Periode 1981 bis 2010 bezogen. Eine Bewertung mit objektiven Maßzahlen wie etwa dem Root Mean Square Error (rmse) oder der Reduktion der Varianz (RV) war leider bei keiner Prognose möglich; da man hierfür eine genaue Prognosezahl benötigt. Bei Intervallangaben wurde ein „Treffer“ daher mit Note 2 bewertet, wenn er dieses vorhergesagte Intervall traf; verfehlte er dieses um eine Stufe (statt etwa +0,5 bis +1,0 K vorhergesagt lag die Wintertemperatur in Deutschland diesmal im Intervall -0,5 bis +0,5 K), so ergab das Note 4, bei zwei Stufen Abweichung Note 5; bei noch mehr Abweichung Note 6. Bei Prognosen mit mehreren Teilprognosen (etwa für den gesamten Winter und die 3 Einzelmonate) wurden diese einzeln gewertet und dann die Gesamtnote gemittelt. Wo Bezugswerte und/oder konkrete Zahlenprognosen fehlten, so wurde eine Note abgewertet. Reine Wahrscheinlichkeitsaussagen konnten, sofern sie in etwa zutrafen, bestenfalls die Note 4 erhalten, weil ihr Aussagewert einfach zu gering ist.

UKMO (Großbritannien): Stand 14.11.2016 Winter (D, J, F) mit undeutlicher Wahrscheinlichkeit nur in Norddeutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; beide weisen diesmal ebenfalls keine eindeutigen Wahrscheinlichkeiten auf. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Bewertung: Fast zutreffend, besonders im Dez/Jan. war es an den Küsten zu mild, aber sehr unkonkret, Note 4

Meteo Schweiz Stand Nov. 2016: Leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter. Zu milder Winter fast so wahrscheinlich wie der Zufall (33,3%); normaler etwas weniger wahrscheinlich. Die „doppelten T“ sind die Fehlerbalken:

Bewertung: In der Nordostschweiz waren der Dezember etwas und der Januar deutlich sowie der Winter insgesamt etwas zu kalt, daher fast zutreffend, aber sehr unkonkret, Note 4

LARS THIEME (langfristwetter.com) Vorhersage vom 04.12.2016: Dezember und Februar normal; Januar deutlich zu mild; Winter insgesamt etwas zu mild und niederschlagsreich.

Bewertung: Winter insgesamt fast getroffen, aber Dezember und Februar deutlich und Januar völlig verfehlt, Note 5

Kaltwetter.com Prognose vom 28.11.2016: Winter insgesamt normal, wobei Dezember und Februar etwas zu mild werden sollen, der Januar aber deutlich zu kalt ausfällt.

Bewertung: Winter insgesamt und Dez/Jan. gut getroffen, Feb. leicht unterschätzt; Bezugswerte und konkret prüfbare Zahlen fehlen aber leider, daher Note 3

IRI (folgende Abbildung), Vorhersage vom Nov. 2016: Mit leicht erhöhter Wahrscheinlichkeit zu mild.

Bewertung: Fast zutreffend, aber sehr unkonkret, Note 4

DWD (Offenbach): Leicht erhöhte Wahrscheinlichkeit für einen kalten oder normalen Winter (Stand Nov. 2016):

Bewertung: Nur bedingt zutreffend, eine höhere Wahrscheinlichkeit für „mittel“ wäre richtiger gewesen, dazu sehr unkonkret, Note 5

NASA (US- Weltraumbehörde) Karte vom November 2016: Winter in Mitteleuropa etwa 1,5 bis 2,5 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

Bewertung: Winter deutlich um mehr als 2 Intervalle verfehlt, da bei weitem nicht so mild, Note 6. Die später veröffentlichten Prognosen, speziell die Vorhersage eines zu kalten Januars, waren dann deutlich zutreffender.

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 15. bis 24.11.2016): Dezember (links) nur im Alpenraum und Januar (rechts) in den meisten Gebieten etwas zu mild; Februar (unten) überall viel zu mild. Winter insgesamt eher mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Bewertung: Winter insgesamt fast getroffen und von den Einzelmonaten Dezember etwas zu kalt und Januar viel zu mild vorhergesagt; Februar gut getroffen, Note 4

Stefan Kämpfe (hier bei EIKE am 03.12.2016 veröffentlicht):

Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute sind nicht eindeutig und sehr widersprüchlich. Es kündigen sich aber zumindest einige kältere Phasen im Frühwinter an; auch Perioden mit häufigen Frösten im Flachland sind im Dezember deutlich wahrscheinlicher, als in den Vorjahren. Insgesamt fällt der Winter nach momentanem Stand aber erneut zu mild aus, wenngleich vermutlich weniger deutlich, als in den Vorjahren, und wird im Deutschland- Mittel auf +1,0 bis +3,0°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise Wintersportmöglichkeiten, und Schneekanonen können gut eingesetzt werden. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt- Bindersleben (Mittel 1981- 2010 +0,5°C) -1,5 bis +1,5°C (zu kalt bis etwas zu mild). Für Jan/Feb. 2017lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan muss noch ein Übergang zu sehr milder Witterung ernsthaft mit hoher Wahrscheinlichkeit in Betracht gezogen werden. Dank der bisherigen Zirkulationsverhältnisse (viele Trog- und Meridionallagen) bleiben aber winterliche Phasen oder wenigstens einen einzelner, kalter bis sehr kalter Wintermonat noch möglich. Sollte allerdings der Dezember tatsächlich zu mild ausfallen oder ein Umschwung zu milder Witterung mit Westwetter nach Mitte Dezember erfolgen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2017 noch weiter.

Dieses Fazit wurde aus 30% der Tendenz der 2- K- September- Regel, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 10% Analogfälle und 10% der vorwiegenden Tendenz der Langfristprognosen gewichtet. Aktualisierung voraussichtlich Ende Dezember.

Bewertung: Aussage mit konkret nachprüfbaren Intervallen. Das Dezembermittel für Erfurt betrug 1,3°C und lag im vorhergesagten Intervall; das Wintermittel für Deutschland erreichte nach DWD 1,0°C und wurde gerade noch getroffen. Ein kalter Wintermonat wurde aber nur vage vermutet, dass es der Januar war, wurde nicht vorhergesagt. Die Charakteristik der Dezember- Temperaturverhältnisse traf insgesamt sehr gut zu; die Einschätzung des Hochwinters war teilweise ungenügend, der Übergang zu sehr mild erfolgte aber doch noch, wenngleich sehr spät (erst Mitte Feb.), wegen teilweiser Unkonkretheit Note 3

Ein lehrbuchreifes Beispiel für Inkonsistenz- die Schwierigkeiten einer Langfristprognose: Der Februar- Schlingerkurs des CFSv2- Modells (NOAA)

Wie schwer sich Modellrechnungen schon mit der Temperaturprognose des Folgemonats tun, zeigt das folgende Beispiel. Der Eingabezeitraum vom 21. bis zum 31. Januar 2017 ergab überall in Europa einen viel zu milden Februar. Gemessen am ohnehin schon hohen CLINO- Wert 1981- 2010 sollte es in Süd- und Mitteldeutschland um 3 bis 4 Kelvin (graubrauner Farbton) und in Norddeutschland um 1 bis 3 Kelvin (roter bis dunkelroter Farbton, Quelle: NOAA) zu warm sein:

Nur 9 Tage später, als die Kaltluft eines Skandinavien- Hochs längst in Nord- und Mitteldeutschland angekommen war, sah die Februarprognose ganz anders aus:

Nun sollte es in Norddeutschland um 0,5 bis 2 Kelvin zu kalt und nur in Südbayern um 0,5 bis 2 Kelvin zu warm werden. Letztendlich traf keine der beiden Prognosen zu; immerhin wurde das Temperaturgefälle zwischen Süd- und Norddeutschland in der ersten Prognose vage und in der zweiten relativ gut wiedergegeben.

Versagte diesmal die „2 K- Septemberregel“?

Auf den ersten Blick traf die Regel, wonach einem sehr milden September mit sehr hoher Wahrscheinlichkeit ein milder Winter folgen soll, diesmal nicht zu. Aber derart milde September sind im aktuellen Bezugszeitraum (1981 bis 2010) nur 3mal (1982, 1999 und 2006) aufgetreten- nach den Gesetzen der Statistik viel zu selten, um daraus brauchbare Prognosen abzuleiten. Zwar waren diese 3 Folgewinter teils extrem mild, aber der Februar 1983 fiel zu kalt aus; im Januar 2000 gab es kältere Abschnitte; nur der Winter 2006/07 war, abgesehen von einer kalten Woche im Januar, durchgängig zu mild. Bei Betrachtung des gesamten, seit 1761 verfügbaren Zeitraumes zeigte sich, dass die Regel auch diesmal für den gesamten Winter zutreffend war; einzelne, kalte Wintermonate schließt sie ja nicht aus:

Der Winter 2016/17 war, gemessen am Langfrist- Mittel seit 1761/62, also etwas zu mild.

Fazit: Obwohl die Langfristprognosen diesmal ein etwas besseres Ergebnis als in der Vorsaison lieferten, sind sie keine sicheren Vorhersagen und bleiben mit vielen Mängeln behaftet. Der chaotische Charakter der Abläufe in der Atmosphäre lässt trotz modernster Computer und fortschreitender Erkenntnisse in Meteorologie und Klimatologie keine sicheren Langfristprognosen zu. Vor diesem Hintergrund erscheint die politische Agenda des „Klimaschutzes“, welche sich ja auf noch viel langfristigere Vorhersagezeiträume von Jahrzehnten bis zu 100 Jahren bezieht, als ein aussichtsloses Vorhaben.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 02.03. 2017




Auch der Februar wird in Deutschland seit 30 Jahren kälter

Pollenallergiker waren ab dem 15. Februar durch die Haselpollen geplagt. In den Städten und entlang der sehr milden Rheintals teilweise auch schon ab Ende Januar. natürlich etwas früher. Der Deutsche Wetterdienst (DWD) gibt den Monat am 26.2. mit einem Schnitt von 3 C für Deutschland an. In Weimar wurde der Beginn der Haselblüte diesmal am 2. Februar beobachtet:

Grafik 1: Der Eintritt der Haselblüte (Vorfrühlingsbeginn) variierte in Weimar seit 1990 zwischen Anfang Dezember und Ende März. Wegen dieser enormen Streuung ist der Verfrühungstrend nicht signifikant.

Im Folgenden wollen wir uns wieder fragen, wo ist diese Februartemperatur von 3 C einzuordnen: a) innerhalb der letzten 100 Jahre und b) wie verhielten sich die letzten 30 Februarmonate?

Wie jedermann weiß, werden beim Klima den Deutschen die schönsten Märchen aufgetischt. Es sollte immer wärmer geworden sein aufgrund der Zunahme der Treibhausgase, insbesondere von Kohlendioxid, und in den letzten beiden Jahrzehnten sollte der Erwärmungstrend besonders stark sein. Und vor allem die Wintermonate sollten die ersten Opfer der Erwärmung sein.

Im Folgenden wollen wir diese Orakel der gut verdienenden Computer-Erwärmungswissenschaft einer Prüfung unterziehen. Beginnen wir mit 100 Jahren Februartemperaturen anhand der Originaldaten des Deutschen Wetterdienstes:

Grafik 2: Der Monat Februar zeigt das gewohnte Bild aller deutschen Monate. Der Temperaturverlauf ähnelt einer Schwingung mit zwei Wellenbergen und einem leichten Tal. Zunächst wurde der Monat kälter bis über die Jahrhundertmitte hinaus. Vor der Jahrtausendwende wurde der Monat wieder wärmer und erreichte ein neues Plateau

Das derzeitige Plateau liegt nach dieser DWD-Grafik etwas höher als das vor über 100 Jahren. Es erfolgte jedoch nicht kontinuierlich wie die Trendlinie vorgibt, sondern hauptsächlich durch einen Temperatursprung in den Jahren zwischen 1986 bis 1989. Außerdem sind die Werte des Deutschen Wetterdienstes nicht wärmeinselbereinigt, die Zusatz-Temperaturen der immer wärmer werdenden Städte, Siedlungen und Industriezonen messen die Thermometer der Wetterstationen mit. Wo vor 100 Jahren noch freie Fläche war stehen heute wärmende Flughäfen, Häuser oder Industrie- und Gewerbezonen. Wärmeinselbereinigt wären beide Plateaus gleich hoch, bzw. der Februar wäre derzeit leicht kälter wie vor 100 Jahren.

Leider gibt es keine einzige deutsche Wetterstation, deren Umgebung unverändert geblieben ist und noch so dasteht wie vor 100 Jahren. Unbeheizte Klöster oder Forsthäuser am Waldrand mit Wetterstationen gibt es nicht mehr. Wir wollen als Beispiel aber doch die Zugspitze betrachten, deren Besucherströme und der damit verbundene wärmende Ausbau erst nach der Einheit so richtig zugenommen haben und derzeit verstärkt anhält und Deutschlands höchster Berg mit 2962 m Höhe noch bis vor der Wende mit weniger Touristen und mit weniger Zusatzwärme beeinflusst war.

Grafik 3: Die Zugspitze, Deutschlands höchster Berg zeigt einen ähnlichen Temperaturverlauf wie die Deutschlandtemperaturen. Allerdings ist das momentane Temperaturplateau nicht so ausgeprägt wie beim DWD-Februarverlauf der letzten 100 Jahre.

Ergebnis: Die Zugspitze als weniger mit Zusatzwärme aus den Wärmeinseln beeinflusste Wetterstation zeigt über die letzten 100 Jahre gar keine Erwärmung. Trotz eines mit – 7,8C relativ warmen Februars 2017 im Vergleich zu den Vorjahren.

Die beiden Grafiken zeigen erneut, dass die behauptete CO2 induzierte Erwärmung im Monat Februar wirkungslos ist, falls es sie überhaupt geben sollte. Der Leser muss wissen: CO2 als erwärmendes Treibhausgas konnte bislang noch durch keinen einzigen wissenschaftlichen Versuch bestätigt werden, selbst Svante Arrhenius hatte am Ende seines Lebens entnervt aufgegeben. Deshalb bleibt die Treibhauserwärmung seit über 100 Jahren eine Hypothese. Die Temperaturen werden von anderen Faktoren bestimmt.

Die letzten 30 Jahre des Monates Februar in Deutschland

30 Jahre sind eine Klimaeinheit, deshalb ist es notwendig, diesen Zeitraum anhand der Daten des DWD näher zu untersuchen. Die einzelnen deutschen Stationsleiter erheben ihre Daten gewissenhaft und auch die wissenschaftlich ausgebildeten Mitarbeiter in der 2.ten Reihe des DWD werten die Einzelergebnisse sorgfältig aus. Nur eben, dass die einzelnen Jahreswerte nicht wärmeinselbereinigt sind. Das Ergebnis ist überraschend, weil es den ständigen Medienerwärmungsmeldungen, die auf uns Deutsche hereinprasseln, widerspricht. Diese nun folgenden Grafiken werden natürlich in den Medien nicht abgebildet, sondern immer nur behauptet, dass es wärmer würde und dann orakelt, dass die Apfelbäume bald zu Jahresanfang blühen würden.

Grafik 4: Der Monat Februar wurde in den letzten 30 Jahren kälter in Deutschland, das zeigen die vom Deutschen Wetterdienst bzw. von den einzelnen Stationsleitern sorgfältigst erhobenen Temperaturdaten. Allerdings sind die Daten nicht wärmeinselbereinigt, sonst wäre die Trendlinie noch fallender.

Wärmeinselarme Stationen:

Nun gibt es in Deutschland auch Wetterstationen, deren Umgebung sich in den letzten 30 Jahren weniger durch menschliche Zusatzwärme verändert hat. Wie oben erwähnt, scheidet die Zugspitze wegen der umfangreichen Baumaßnahmen, die derzeit verstärkt anhalten, als wärmeinselarme Station für die letzten 30 Jahre und erst recht für die letzten 20 Jahre aus. In einem früheren Artikel sind wir bereits ausführlich darauf eingegangen. http://www.eike-klima-energie.eu/news-cache/warum-die-zugspitze-und-andere-bergstationen-fuer-temperaturvergleiche-wenig-brauchbar-sind/

Eine WI-arme Wetterstation ist hingegen Neugersdorf (sprich Neu-Gersdorf) in der Oberlausitz. Der kleine Ort befindet sich am Nordhang des Hutungsberges, Landkreis Görlitz im Quellgebiet der Spree an der deutsch-tschechischen Grenze im Lausitzer Bergland, nahe dem kleinsten Mittelgebirge Deutschlands, dem Zittauer Gebirge; daran schließen sich nach Osten das Iser- und Riesengebirge an. Wie im Erzgebirge lebt man auch hier vom Einfluss des böhmischen Windes, aber Neugersdorf hat klimatisch und geografisch wenig mit dem Erzgebirge zu tun.

Grafik 5: In der Oberlausitz sind die Februar-Temperaturen viel stärker gefallen als bei den DWD-Stationen. Neugersdorf ist ein Beispiel für eine ländliche Station, deren Umgebung keine größeren Änderungen in den letzten 30 Jahren erfahren hat.

Im Folgenden zeigen wir mit Amtsberg die Februartemperaturen einer weiteren wärmeinselarmen Station im Vergleich zu den DWD-Deutschlanddaten.

Grafik 6: Die ländliche und wärmeinselarme Station Amtsberg/Dittersdorf zeigt zweierlei: Einmal ist sie kälter als die DWD-Daten, auch vor 30 Jahren, weil bei den DWD-Daten natürlich auch ausgeprägte wärmeinselbehaftete Stationen in den Städten und Flughäfen mitgezählt werden. Zum anderen geht die Trendlinienschere immer mehr auseinander. Die freie Fläche in Deutschland – das sind 85%- kühlt viel stärker in den letzten 30 Jahren ab als der Gesamtschnitt.

Ergebnis: Bei der wärmeinselarmen, ländlichen Station Amtsberg-Dittersdorf im Erzgebirge ist die Februarabkühlung wie erwartet stärker. Somit zeigt auf dem Lande der Monat Februar genauso wie der Monat Januar eine enorme Abkühlung. Dabei haben die CO2-Konzentrationen, die erwärmend wirken sollten, besonders in den letzten 30 Jahren weltweit und damit auch in Amtsberg und Neugersdorf zugenommen.

Februar in der Gegenwart: Gegenwart = letzte 20 Jahre.

Als Gegenwart definieren wir die letzten 20 Jahre. Gerade in diesem Zeitraum wurden wir Deutsche besonders geängstigt über die Gefahr einer zunehmenden Klimaerwärmung. Angeblich wären wir mittendrin und besonders die Wintermonate und die Gegenwart sollte abrupt wärmer werden, so die Prognosen der gläubigen Erwärmungswissenschaft.

Die Realität der deutschen DWD- Wetterstationen zeigt das genaue Gegenteil:

Grafik 7: In der Gegenwart, also in den letzten 20 Jahren ist die Trendlinie des Monates Februar viel stärker negativ als über 30 Jahre. Der Hauptteil der Abkühlung des Monates Februar passierte also in den letzten 20 Jahren. Anmerkung: Die Zugspitze hat wegen der oben geschilderten starken Zunahme des Wärmeinseleffektes in den letzten 20 Jahren eine ebene Trendlinie mit y = + 0,003 x

Ergebnis: Besonders in den letzten 20 Jahren wurden wir Deutsche durch falsche Medienberichte gequält: Eine katastrophale Erwärmung wurde uns prophezeit und die drei Wintermonate sollten doch die Vorreiter der Erwärmung sein. Insbesondere die behördlich anerkannten und ideologisierten deutschen Umweltverbände wie BUND, NABU, WWF und Greenpeace malten ihren Mitgliedern wahre Katastrophenszenarien in ihren Mitgliederzeitschriften der letzten Jahre vor. Die wirkliche Klimaänderung des Monates Februar in Deutschland heißt Klimaabkühlung. Wie es weitergeht weiß niemand, denn das Klima der nächsten 30 Jahre ist nicht vorhersagbar.

Ein Blick weit nach Osten: Keine Februar- Erwärmung seit 50 Jahren!

Grafik 8: Am kältesten, dauerhaft bewohnten Ort der Erde (Oimjakon, etwa 700 Einwohner, gelegen in einem Hochtal des ostsibirischen Berglandes) gibt es schon seit 50 Jahren keine Februar-Erwärmung. Der Februar blieb hier unter minus 42 °C kalt. Für 2017 liegen noch keine Werte vor.

Eines ist aber sicher: Der angebliche wärmende CO2-Treibhauseffekt hatte keine erwärmende Wirkung beim Februar in den letzten 100 Jahren in Deutschland. Hätte sich Deutschland in den letzten 100 Jahren nicht verändert, dann wären die Februartemperaturen der Gegenwart sogar etwas unter dem Temperatur-Wellenberg vor 100 Jahren. Einzig in den Städten und in den anderen Wärmeinseln wurde der Februar in den letzten 100 Jahren wärmer.

Und die letzten 30 Jahre? Es bleibt fraglich, ob es überhaupt eine deutsche Wetterstation gibt, in welcher der Monat Februar in den letzten 30 Jahren wärmer wurde.

Wieder – wie schon beim Monat Januar – sind die Leser aufgerufen, bei ihrer Heimatwetterstation nach den Temperaturdaten der letzten 30 Jahre zu forschen und deren Trendlinienverlauf bei den Kommentaren uns zu melden. Genauso sind die Leser aufgerufen, ihre Tageszeitungen auf das Kälter werden des Monates Februar hinzuweisen. Wir bitten die Leser, sich die Falschmeldungen der Medien nicht weiter gefallen zu lassen. Weil es im Januar und Februar kälter wurde müssen logischerweise auch alle zeitigen Frühjahrsblüher verspätet sein. Das werden wir in einem unserer nächsten Artikel zeigen. Schließlich blüht das Märzenveilchen immer noch oder wieder im März wie zu Mozarts Zeiten.

Josef Kowatsch, täglicher Naturbeobachter und unabhängiger, weil unbezahlter Klimawissenschaftler.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuent­scheiden

Anmerkung: Durch die erheblichen Auslassungen soll die staatsdirigistische Tendenz aufgezeigt werden, welche die CDU-Führungsspitze inzwischen vertritt, und wie man sieht, immer aggressiver verkündet. Auf die „Belegführungen“ wird diesmal nicht eingegangen, da dazu in letzter Zeit aufgrund vieler Anlässe in mehreren EIKE-Veröffentlichungen von unterschiedlichen Autoren bereits umfangreiche Gegendarstellungen gebracht wurden [2][3][4].
Die Rede zeigt, dass (nicht erst) seit Verabschiedung des Klimavertrages eine politisch gesteuerte, mediale Kampagne begann, welche genau die Mittel der Fake-Information benutzt, welche unser Justizminister dem Volk verbieten möchte. Allerdings stellte Heiko Maas dies unter den Titel „Wer News fälscht, soll in den Knast!“. Was die Elite wie Herr Köhler macht, die einfach alte, falsche Nachrichten wiederholt und ausschmückt, wird deshalb von dem geplanten Verbot nicht berührt.

Zudem würde man sich nicht wundern, falls CDU und GRÜNE demnächst nicht nur eine Koalition bilden (inzwischen sind sie ja Wunschpartner von Herrn Kauder), sondern bei so viel ideologischer Überlappung einmal gar fusionieren würden.
Man versteht auch nach dem Durchlesen, warum eine Frau Hendricks in Berlin mit ihrer ungebremsten Klimahysterie absolute Narrenfreiheit genießt.
Hinweis: Die Rede beinhaltete in größerem Umfang weitere Themenbereiche. Wer diese erfahren will, lese bitte das Original.

Auszüge der Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin

Auf der ganzen Welt leugnet wer Rechts ist, den Klimawandel

[1] … Aber es macht mich zornig zu sehen, wie die Scharlatane mit ihren politischen Mogelpackungen dieses Unbehagen ausnutzen, wie sie falsche Hoffnung verkaufen und damit die Lösung jener Fragen, die die Menschen umtreiben, nur noch schwerer machen…. Es ist doch zum Beispiel kein Zufall, dass die neuen Rechten in der ganzen Welt den menschengemachten Klimawandel leugnen, übrigens auch die AfD.
… Lassen Sie mich beginnen mit einer Schilderung dessen, was ich als Ausgangslage für die große Transformation verstehe.
Die weltweite Verbrennung fossiler Energieträger hat die Treibhausgase in der Atmosphäre auf ein beispielloses Niveau getrieben. 15 der 16 heißesten Jahre seit dem Beginn der Klimaaufzeichnungen liegen im 21. Jahrhundert.

Das Flüchtlingsproblem kann man nur über das Zwei-Grad-Ziel lösen

[1] … Und während wir bei jeder Schneeflocke im November Witze darüber machen, dass das mit dem Klimawandel ja so ernst nicht sein kann, bedroht die globale Erwärmung schon heute diejenigen am meisten, die am wenigsten dazu beigetragen haben:
seien es die Nomaden der Sahelzone, die Bewohner der Pazifikinseln oder die Bauern in den Anden.
Wir werden die Folgen spätestens dann direkt zu spüren bekommen, wenn sich diese Menschen als Klimaflüchtlinge auf den Weg machen. Die Vereinten Nationen schätzen ihre Zahl in den nächsten 30 Jahren auf bis zu 200 Millionen, sollte das Zwei-Grad-Ziel nicht erreicht werden.
Und während man einen Flüchtling auch wieder zurückschicken kann (fragt sich nur wohin, wenn seine Heimat dann unter dem Meeresspiegel liegt), sind die meisten
ökologischen Folgen der Erderwärmung irreversibel. Unser Ökosystem ist eben nicht wie die Zimmerpflanze im Wohnzimmer, von der man sich einfach eine neue kaufen kann, wenn sie eingeht.

In vielen Bereichen nähern wir uns gefährlichen Kipp-Punkten

[1] Wir nähern uns in vielen Bereichen gefährlichen Kipp-Punkten, die, einmal überschritten, zu abrupten und unumkehrbaren Veränderungen im Erdsystem führen können. Sei es das Abschmelzen des Grönlandeises, der Hitzekollaps tropischer Korallenriffe oder die Destabilisierung des indischen Monsuns – die Folgen für den Menschen wären schwer vorhersehbar und kaum zu kontrollieren.
Das macht die Herausforderung der Bekämpfung des Klimawandels so einzigartig: dass sie konkrete zeitliche Anforderungen an die Klimapolitik stellt und damit eine ganz neue Qualität von Politik erfordert, die sich an
Terminen messen lassen muss. Mit dem Klima kann man um keinen Aufschub verhandeln. Die in der Politik so beliebte Methode des Zeit-Kaufens stößt hier an ihre Grenzen. Ich komme später noch einmal darauf zurück.

Nur die Große Transformation unseres Gesellschaftssystems kann uns retten

[1]… Und darauf will ich hinaus: Wenn wir die extreme Armut beenden wollen, und wenn wir dabei den Planeten nicht zerstören wollen, dann ist eine neue große Transformation in Wirtschaft und Gesellschaft unvermeidlich. Und diese Transformation muss zuallererst bei uns in den Industrieländern stattfinden. Das ist keine kleine Verantwortung.
.. aber letztes Jahr gab es zwei solcher Hoffnungsfeuer und wir sollten verdammt nochmal schauen, dass sie weiter brennen.
Ich spreche von der Agenda 2030 für Nachhaltige Entwicklung der Vereinten Nationen und dem Pariser Klimavertrag. Das Zustandekommen beider Abkommen ist selbst schon ein kleines Wunder … eine Übereinkunft der Staatengemeinschaft, dass wir die erste Generation sein wollen, die die extreme Armut beendet, und die letzte Generation, die vom Klimawandel bedroht ist.
… Es geht darum, die Transformation an den Maßstäben zu messen, welche die Realität des Klimawandels selbst uns stellt.

Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden

[1] Und da darf man sich schon fragen: Ist das notwendige Ausmaß und das notwendige Tempo des Wandels schon erkannt?
Wenn ich darüber nachdenke, wie wir dieses Prinzip in unserer Demokratie noch systematischer stärken können, wie wir die politische Ökonomie zugunsten der Transformation verändern können, dann fällt mir vor allem die junge Generation ein. Ich glaube, wir sollten Fragen von Nachhaltigkeit, aber auch von politischer Beteiligung noch viel stärkere Aufmerksamkeit in den Bildungsprozessen widmen. Und ich finde, dass unserem Land ein allgemeines Wahlalter ab 16 Jahren gut tun würde.
Wer rauchen darf, soll auch wählen dürfen – wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden.

In Produktpreis gehören die (simulierten) Zukunfts-Folgekosten eingerechnet

[1] … Und die Realität heißt, dass die Dekarbonisierung der Wirtschaft kommen wird.
… Zu diesen Bedingungen gehören der freie Wettbewerb und Preise, die die Wahrheit sagen, also die tatsächlichen Kosten eines Produktes widerspiegeln… Denn wir leben ja in einer globalen Externalisierungsökonomie, die die wahren sozialen und ökologischen Kosten von Produktion auf andere Erdteile und zukünftige Generationen auslagert. Mit freiem Wettbewerb hat das wenig zu tun, weil jene, die aus Eigenverantwortung versuchen, die echten Kosten einzupreisen, im Wettbewerb viel schwerer mithalten können und quasi auf nachhaltigkeitsbewusste Konsumenten angewiesen sind.
Deshalb ist die globale Erwärmung das größte Marktversagen in der Geschichte der Menschheit. Weil der Ausstoß von Kohlendioxyd noch immer weitgehend gratis ist, geht die CO
2-Party in absoluten Zahlen unvermindert weiter, schließlich werden die Folgekosten des Klimawandels von der Allgemeinheit übernommen. … Wir brauchen deshalb jetzt endlich einen wirksamen Preis auf CO2, und zwar entweder durch eine Steuer oder einen Emissionshandel, der funktioniert.

Die globale DDR 2.0 wird eine Hoffnungsgeschichte

… Das ist mein letzter Punkt für heute: Ich glaube, wir dürfen die große Transformation [5] nicht als Gruselgeschichte erzählen, sondern als Hoffnungsgeschichte.

Fazit

Die Überschrift des EIKE-Artikels: DDR 2.0 – oder wie ich lernte die Energiewende als Erfolgsgeschichte zu sehen
trifft die ideologische Ausrichtung der heutigen CDU (auch wenn der Artikel sich auf ein SPD-geführtes Ministerium bezieht).
Während man bei den „kleinen Leuten“ und ihren Aussagen zum Klimawandel irgendwie noch Mitleid verspüren kann:
EIKE: Der Klimawandel lebt nur noch von Wiederholungen
wandelt sich dies bei den Aussagen dieser „Intelligenz“ [1][3][4][5] eher in Entsetzen, wenn man an den Einfluss dieser Personen denkt.

Quellen

[1] Bundespräsident a.D. Horst Köhler: Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin, 8. Dezember 2016

[2] EIKE 11.02.2017: Selbsternannte Klimaapostel sägen an Deutschlands Klimaeichen

[3] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels

[4] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor

[5] EIKE: Bürger hört die Signale! Das Gutachten des Umweltrates. Die „Große Transformation“ – ein Ökologistisches Manifest




Über 20 neue Studien belegen eine Verbindung zwischen derzeitigen Klimatrends und Solarantrieb

Die immer mehr auftauchenden Auswirkungen der Sonnenaktivität (SS) auf die globalen Temperaturen (GT), besonders während der letzten Jahrzehnte, sind überwältigend bewiesen“ — Huang et al., 2017

Immer mehr stellen Wissenschaftler eine robuste Verbindung zwischen Sonne und Klima fest

(1)  Yndestad und Solheim, 2017

Perioden mit wenigen Sonnenflecken gehen einher mit niedriger Sonnenaktivität und kalten Klimaperioden. Zeiten mit vielen Sonnenflecken sind verbunden mit hoher Sonnenaktivität und warmen Klimaperioden. … Studien, die cosmogenic [?] Isotopendaten und Sonnenflecken untersuchen zeigen, dass wir gegenwärtig ein Großes Aktivitäts-Maximum durchlaufen haben, welches etwa im Jahre 1940 begann und jetzt abklingt (Usoskin et al., 2003; Solanki et al., 2004; Abreu et al., 2008). Weil Große Maxima und Minima im Zeitmaßstab von Jahrhunderten und Jahrtausenden auftreten, können sie nur mittels Proxy-Daten untersucht werden, das heißt, die Sonnenaktivität muss rekonstruiert werden mittels zeitangepasster Be10 und C14-Daten. Die Schlussfolgerung lautet, dass das Aktivitätsniveau des Modernen Maximums (1940 bis 2000) ein relativ seltenes Ereignis ist, wurde doch ein ähnlich hohes Niveau der Sonnenaktivität erst vor 4 bis 8 Jahrtausenden wieder angetroffen (Usoskin et al., 2003). Neunzehn Große Maxima wurden von Usokin et al. 2007 in einem 11.000-Jahre-Zyklus identifiziert.

Hier sind die Trends der gesamt-solaren Einstrahlung [Total Solar Irradiance] von 1700 bis 2013 dargestellt, und zwar aus der oben erwähnten Studie von Yndestad und Solheim 2017. Sie zeigen, dass die TSI eng korreliert mit den Temperaturtrends auf der Nordhemisphäre (NH), abgeleitet aus „dem Mittel von 22 regionalen Rekonstruktionen der instrumentellen Temperaturen von Juni bis August“, wie in Stoffel et al., 2015 gezeigt:

(2) Rydval et al., 2017

„Die jüngste sommerliche Erwärmung in Schottland ist wahrscheinlich nicht einmalig, wenn man sie mit multidekadischen Warmperioden vergleicht, welche im 14., 16. und Mitte des 18. Jahrhunderts beobachtet worden waren. Alle sechs Reihen (auf der Nordhemisphäre) zeigen ein wärmeres Intervall im Zeitraum, der bis zu den fünfziger Jahren des vorigen Jahrhunderts reicht, obwohl dieser in der CEU-Rekonstruktion weniger ausgeprägt ist. Extrem kalte (und warme) Jahre, wie sie im NCAIRN beobachtet worden sind, erscheinen eher als Relation zum internen Antrieb der sommerlichen NAO … Es besteht im Allgemeinen gute Übereinstimmung zwischen den Aufzeichnungen hinsichtlich zeitlich ausgedehnter Kaltzeiten, zu denen es während der Kleinen Eiszeit und besonders um das solare Maunder-Minimum gekommen war, welche in der zweiten Hälfte des 17. Jahrhunderts seinen Höhepunkt erreicht hatten und bis zu einem bestimmten Grad auch zum Ende des 15. Jahrhunderts, was zusammenfällt mit dem Spörer-Minimum (Usoskin et al. 2007)

 

 

 

 

(3) Huang et al., 2017 (full paper)

„Verschiedene wissenschaftliche Studien haben die kausale Verbindung zwischen Sonnenaktivität (SS) und der Temperatur der Erde (GT) untersucht. Die korrespondierenden Ergebnisse zeigen eine zunehmende Bedeutung kausaler Effekte der SS auf die GT seit 1880 bis heute. Dies sind solide Beweise für die Erklärung der steigenden globalen Tendenz der Erwärmung während der letzten Jahrzehnte … die Verbindung zwischen Sonnenaktivität und globaler Erwärmung ist in der wissenschaftlichen Literatur gut belegt. Unter dieser stellt sich heraus, dass die SSA (Singular Spectrum Analysis) zur Trenderkennung die zuverlässigste Methode der Datenbearbeitung ist, während CCM (Convergent Cross Mapping) herausragende Ergebnisse bei allen Kausalitäts-Tests liefert. Die sich daraus ergebenden kausalen Effekte zwischen SS und GT sind besonders für die letzten Jahrzehnte überwältigend gut belegt. Dies reflektiert ein besseres Verständnis der Tendenz der globalen Erwärmung“.

(4) Tejedor et al., 2017

Rekonstruierte langfristige Temperaturvariationen passen gut zu Änderungen der solaren Einstrahlung, korrespondieren doch warme und kalte Phasen jeweils mit hoher und geringer Sonnenaktivität. Der Haupt-Treiber des großräumigen Charakters von Warm- und Kalt-Episoden können Änderungen der Sonnenaktivität sein. Der Beginn der Rekonstruktion liegt am Ende des Spörer-Minimums. Das Maunder-Minimum von 1645 bis 1715 (Luterbacher et al. 2001) erscheint konsistent mit einer Kaltperiode von 1645 bis 1706. Außerdem erkennt man für den Zeitraum 1810 bis 1838 das Dalton-Minimum von 1796 bis 1830. Allerdings geht eine ausgeprägte Kaltphase von 1778 bis 1798 nicht einher mit einer Abnahme der Sonnenaktivität. Vier warme Perioden – 1626 bis 1637, 1800 bis 1809, 1845 bis 1859 sowie 1986 bis 2012 haben sich als gut korrespondierend mit erhöhter Sonnenaktivität herausgestellt.

(5) Nan et al., 2017

Die SST-Variationen zeigen eine Jahrtausend-Periode von etwa 1500 Jahren sowie Jahrhundert-Perioden von 131 und 113 Jahren. Der 1500-Jahre-Zyklus dominierte im Zeitraum 8900 bis 5500 Jahre vor heute, was eine Tele-Verbindung zeigt zwischen der Wassertemperatur im Gelben Meer und globalen Klimaänderungen, bewirkt durch den Kuro-Shio-Strom. Jahrhundert-Perioden dominierten fast alle der Kaltzeiten, die im Bohrkern BY14 auftauchen, was den Stempel von Zyklen der Solarstrahlung impliziert mit einem im Mittel verstärkten East Asia Winter Monsoon (EAWM).

(6) Deng et al., 2017

Die Ergebnisse zeigen, dass das Klima während der Mittelalterlichen Warmzeit (MCA von 900 bis 1300) ähnlich war dem Klima der gegenwärtigen Warmzeit (CWP von 1850 bis zur Gegenwart). Dies widerspricht früheren Studien. … Was die Kleine Eiszeit (LIA von 1550 bis 1850) betrifft, zeigen die Ergebnisse dieser Studie zusammen mit früheren Daten der Makassar-Straße eine kalte und nasse Periode im westlichen Pazifik, verglichen mit CWP und MCA. Die kalte Periode der LIA fällt zeitlich zusammen mit dem Maunder-Minimum der Sonnenflecken und wird daher mit geringer Sonnenaktivität in Zusammenhang gebracht.

(7) Koutsodendris et al., 2017

Die Aufzeichnung repräsentiert das südlichste jährlich geschichtete Archiv von der Balkan-Halbinsel. Es reicht über die Kleine Eiszeit und gestattet Einblicke in kritische Zeitabschnitte von Klima-Instabilität wie etwa während der solaren Maunder- und Dalton-Minima. … Nasse Bedingungen im Winter waren vorherrschend im Zeitraum 1740 bis 1930, während die Zeiträume von 1790 bis 1830 (Dalton-Minimum) sowie 1830 bis 1930 durch trockene Winter gekennzeichnet waren, wobei in Letzterer sporadisch auch einige nasse Winter aufgetreten waren. … Die Kleine Eiszeit, welche eine der stärksten Instabilitäten des globalen Klimas repräsentiert, ist gekennzeichnet durch eine viele Jahrhunderte lange Abkühlung (vom 14. bis zum 19. Jahrhundert), welche der jüngsten ,globalen Erwärmung‘ des 20. Jahrhunderts vorangegangen war. Die Abkühlung wurde zumeist einer reduzierten Sonnenaktivität zugeordnet und war besonders ausgeprägt während der solaren Minima von 1645 bis 1715 bzw. 1790 bis 1830, welche jeweils bekannt sind unter den Bezeichnungen Maunder- bzw. Dalton-Minima.

(8) Li et al., 2017

Wir zeigen, dass die Sonnenaktivität eine Schlüsselrolle spielen kann bei den klimatischen Fluktuationen in Nordchina (NC) während der letzten 22 Jahrhunderte. Eine Quasi-Periodizität von ~100, 50, 23 oder 22 Jahren trat klar in unseren klimatischen Rekonstruktionen hervor. … Sowohl Klima-Modellierungen als auch Beobachtungen haben immer wieder gezeigt, dass die Sonnenaktivität eine Schlüsselrolle spielt als Auslöser für Klimafluktuationen im jüngeren Holozän. Sie trieb globale Temperatur-Fluktuationen und die atmosphärische dynamische Zirkulation (e.g., Haigh, 1996; Shindell et al., 1999; Bond et al., 2001; Fleitmann et al., 2003; Dykoski et al., 2005). … Die Perioden von 100, 57 und 23 Jahren des jährlichen Niederschlags zusammen mit den Perioden von 100, 50, 23 und 22 Jahren der mittleren Temperatur korrelieren sehr gut mit den Zyklen der Sonnenaktivität von 100, 50, 23 und 22 Jahren. Diese wurden bei vielen solaren Parametern beobachtet (z. B. Wilson et al., 1996; Li et al., 1996; Chowdhury et al., 2009; Zhang et al., 2014) und implizieren daher eine phasengleiche Relation zwischen der klimatischen Oszillation in Nordchina und der Sonnenaktivität.

(Rekonstruierte Temperaturen in Nordchina zeigen alles in allem keinen Erwärmungstrend seit Mitte des 20. Jahrhunderts.)

(9) Zawiska et al., 2017

Die Temperatur-Rekonstruktion mittels Chironomiden [irgendwelche Mücken, siehe hier und hier] aus dem Atnsjøen-See im östlichen Norwegen mit einer mittleren Auflösung von 30 Jahren beweist, dass großräumige Prozesse wie Fluktuationen der NAO und Sonnenaktivität lokales Klima modifizierten, was in der Folge auch die Abläufe in Seen beeinflusste. Die drei kleineren Abkühlungsperioden wurden in der ersten Hälfte des Jahrtausends rekonstruiert: 1050–1150, 1270–1370, 1440–1470. Sie fallen jeweils zusammen mit Minima der Sonnenaktivität, welche bekannt sind als jeweils Oort-, Wulf- und Spörer-Minima. Außerdem wurde eine Abkühlungsperiode mit zwei Spitzen in der zweiten Hälfte des Jahrtausends identifiziert, welches mit der Kleinen Eiszeit zusammenfiel. Diese Änderungen erfolgten alle mit dem vorherrschenden negativen NAO-Index.

Der Beginn der Abkühlungsperiode von 1270 bis 1370 fällt zusammen mit dem solaren Wulf-Aktivitätsminimum, was zeigt, dass das Klima auf die Sonnenaktivität reagiert. Die Klimaabkühlung synchron mit diesem solaren Minimum war global ausgeprägt und wurde in Europa, der Arktis, Nordamerika und der Antarktis nachgewiesen. (Osborn and Briffa, 2006; PAGES 2k Consortium, 2013) aber wieder nicht in Grönland (Osborn and Briffa, 2006). … Der Beginn der Kaltphase von 1440 bis 1470 ist synchron mit einer ausgeprägten negativen NAO-Phase (Trouet et al. 2009). … Das solare Maunder-Minimum verursachte eine sehr stark negative Phase des NAO-Index‘ (shindell et al. 2001), welches in der Folge zu einem markanten Rückgang der rekonstruierten Temperatur führte“.

Die Temperatur-Rekonstruktion des Atnsjøen-Sees zeigt, dass die jüngste und noch nicht beendete Klimaerwärmung bereits um das Jahr 1800 nach der Kleinen Eiszeit begonnen hatte. Die Temperaturen stiegen sehr schnell, von 8,5°C au 12,8°C während der ersten 75 Jahre (1800 bis 1875), doch war die Erwärmung im 20. Jahrhundert wieder schwächer ausgeprägt. … Die Erwärmung zu Beginn des 19. Jahrhunderts im Gebiet des Atnsjøen-Sees fällt zusammen mit einer Rekonstruktion aus dem südlichen Finnland (Luoto, 2013) sowie einer Aufzeichnung aus Nordschweden (Osborn und Briffa, 2006). Dessen Beginn korreliert mit dem positiven NAO-Index und gesteigerter Sonnenaktivität“.

(10) Park, 2017

Klimawandel im späten Holozän in den Küstengebieten von Ostasien ist wahrscheinlich einer ENSO-Variation geschuldet. Unser Pollen-Index der Wärme (TPIW) zeigt bedeutende Kalt-Ereignisse im späten Holozän, die im Zusammenhang stehen mit Perioden geringer Sonnenfleckenzahlen wie etwa während der Oort-, Wolf-, Spörer- und Maunder-Minima. Vergleiche mit Nordostchina, vor der Küste von Nordjapan, mit den südlichen Philippinen sowie Peru zeigen allesamt deutliche Beziehungen zueinander (zwischen Sonnenaktivität und Klima). Dies zeigt, dass die Sonnenaktivität die Variationen des Holozäns sowohl beim Ostasien-Monsun als auch der ENSO getrieben hat. Im Einzelnen scheint Letzteres vorherrschend das Klima in Ostasien kontrolliert zu haben, bis zu einem Ausmaß, dass der Einfluss Präzession fast gedämpft war während des späten Holozäns.

(11) Matveev et al., 2017

Eine Zunahme der atmosphärischen Feuchtigkeit der warmen Jahreszeit (Mai bis September) seit Ende des 19. Jahrhunderts sowie mittlere jährliche Temperaturen seit den fünfziger Jahren des vorigen Jahrhunderts wurden identifiziert. Während des gleichen Zeitraumes (1890 bis 2014) erfolgte eine markante Zunahme der Amplitude der jährlichen Variationen von Temperatur und NiederschlagDiese Fluktuationen sind konsistent mit den solaren Zyklen Schwabe-Wolf (10 bis 12 Jahre), Hale (22 Jahre) und Bruckner (32 bis 36 Jahre). Eine zusätzliche Relation zeigte sich zwischen kurzzeitigen Klimafluktuationen (etwa über 3 Jahre) sowie Fluktuationen über 70 bis 90 Jahre des Feuchte-Regimes im untersuchten Gebiet, was mit längeren Zyklen korrespondiert. … In dieser Arbeit wurden Sonnenflecken-Daten als Indiz der Sonnenaktivität herangezogen und mit der Wolf-Zahl bezeichnet (W). Es gibt viele solare Zyklen, welche untersucht worden sind, darunter der Schwabe-Wolf (11 Jahre), Hale (22 bis 24 Jahre), Bruckner (33 Jahre) und Gleissberg (70 bis 90 Jahre). … Diese Arbeit zeigte, dass eine Korrelation bestand zwischen Klimavariablen und solaren Aktivitätsmaxima und -minima (W). Der hydrothermische Koeffizient (HTC) besitzt eine Phasen-Relation mit W, und dann both of these variables with the radial increment relative index maxima and minima in Pinus sylvestris L. (I) during the last 100–140 years.

[Kursiv von mir! Hier musste ich mit der Übersetzung einfach passen! Anm. d. Übers.]

(12) Cosentino et al., 2017

Eine Sichtung der Literatur zeigt, dass das Klima während des Holozäns erheblich weniger stabil war als bislang gedacht, war doch dessen Erwärmungstrend charakterisiert durch relevante kurzzeitige Abkühlungs-Ereignisse, die im Zeitmaßstab von Jahrzehnten und Jahrhunderten aufgetreten waren (Dansgaard et al., 1993; Bond et al., 1999; Mayewski et al., 2004). Die jüngste Kaltphase war die Kleine Eiszeit, welche zu einem Gletschervorstoß in den Alpen bis in tiefer gelegene Gebiete führte. Viele Autoren haben diese kälteren Klimabedingungen mit einer Periode geringer Sonnenaktivität in Verbindung gebracht (Mauquoy et al. 2002), was zu einer Abnahme der sommerlichen Einstrahlung führte (Wanner et al. 2011). … Das unter der Bezeichnung Kleine Eiszeit bekannte Abkühlungsereignis dauerte mehr oder weniger ausgeprägt vom 13. bis zum 19. Jahrhundert (Perry und Hsu, 2000). … Außerdem können die Fluktuationen in der Häufigkeits-Kurve von H. Balthica [?] in Beziehung gestellt werden zu vielen kurzzeitigen Abkühlungsereignissen, welche die Kleine Eiszeit charakterisieren, nämlich Wolf, Sporer, Maunder und Dalton (Lamb, 1984; Mauquoy et al., 2002).

(13) Schwander et al., 2017

Der Einfluss der solaren Variabilität auf das Auftreten bestimmter Witterung* in Mitteleuropa von 1763 bis 2009 … Witterungsarten und Reanalysen zeigen, dass der 11-jährige solare Zyklus die atmosphärische Zirkulation im Spätwinter in Mitteleuropa beeinflusst dergestalt, dass kältere (wärmere) Bedingungen bei geringer (hoher) Sonnenaktivität herrschen. Zum Vergleich herangezogene Modellsimulationen reproduzieren nicht den Abdruck des 11-jährigen solaren Zyklus‘, der sich in den reanalysierten Daten zeigte. … Die atmosphärische Zirkulation in Europa ist stark korreliert mit der NAO, und folglich dürfte die Sonnenaktivität Einfluss auf die Wetterbedingungen in Europa während des Winters nehmen. Studien zeigen eine Vorherrschaft kalter Winter in Europa, die assoziiert sind mit Minima des 11-jährigen solaren Zyklus‘ (z. B. Lockwood et al., 2010; Sirocko et al., 2012). Die 247 Jahre lange Analyse (1763 bis 2009) des 11-jährigen Zyklus‘ auf die Witterung in Europa während des Spätwinters zeigt eine Reduktion von Westwetterlagen in Verbindung mit einem geringeren zonalen Grundstrom bei geringer Sonnenaktivität. Aus diesen Beobachtungen folgern wir, dass kalte Bedingungen im Winter in Europa bei geringer Sonnenaktivität vermehrt auftreten als bei hoher Sonnenaktivität. Ähnlich kalte Bedingungen können auch während längerer Perioden mit reduzierter Gesamt-Sonneneinstrahlung auftreten. … Die Sonnenaktivität kann Auswirkungen auf die atmosphärische Zirkulation auf drei verschiedene Weisen haben. Diese Auswirkungen können sich ergeben aus direkten Änderungen der Sonneneinstrahlung TSI, aus Änderungen der solaren UV-Strahlung oder aus Änderungen des stratosphärischen Ozons, induziert durch energetische Partikel, deren Fluss durch die Sonnenaktivität moduliert wird. Die Variation um ~1 W/m² der TSI über einen 11-jährigen Sonnenfleckenzyklus korrespondiert mit einer Änderung des Strahlungsantriebs um etwa 0,17 W/m².

[*Original: ,weather types‘. Das habe ich mit dem Begriff ,Witterung‘ übersetzt, für welchen es im Englischen kein Pendant gibt. – Außerdem: Wenn das so ist, dürfte die Zeit der milden Winter bei uns wohl endgültig vorbei sein. Da schauen wir doch mal, wie es im nächsten Winter aussieht! Anm. d. Übers.]

(14) Zielhofer et al., 2017

Aufzeichnungen abrupter hydroklimatischer Änderungen im westlichen Mittelmeer im Holozän … Auswirkungen nordatlantischer Schmelzwasser-Austritte, NAO und Solarantrieb … Minima von Winterregen zu Beginn des Holozäns stehen in Phase mit Abkühlungsereignissen und Schmelzwasser-Ausflüssen im subpolaren Nordatlantik im Zeitmaßstab von Jahrtausenden … Eine bedeutende hydroklimatische Verschiebung zum Ende der Afrikanischen Feuchtperiode (vor etwa 5000 Jahren) zeigt eine Änderung der Funktionsweise des Klima-Antriebs. Die Klimavariabilität im späten Holozän im Atlas-Gebirge zeigt eine Verteilung vom NAO-Typus im Zeitmaßstab von Jahrhunderten, wobei Abkühlung im Atlantik und Maxima von winterlichem Niederschlag im westlichen Mittelmeer allgemein assoziiert sind mit solaren Minima.

 

(15) Sun et al., 2017

Mindestens sechs Jahrhundert-Dürren ereigneten sich vor etwa 7300, 6300, 5500, 3400, 2500 und 500 Jahren. Unsere Ergebnisse sind allgemein konsistent mit anderen Aufzeichnungen aus Gebieten des Indischen Sommermonsuns ISM. Sie zeigen, dass die Intensität des Monsuns primär kontrolliert wird durch die solare Einstrahlung im Zeitmaßstab von Jahrhunderten. Dieser externe Antrieb kann verstärkt worden sein durch Abkühlungsereignisse im Nordatlantik und durch die ENO-Aktivität im östlichen tropischen Pazifik, wodurch die Innertropische Konvergenz ITC weiter nach Süden auswich. Die Inkonsistenz zwischen der lokalen Regenmenge im südöstlichen QTP [?] und die ISM-Intensität kann auch die Folge der Auswirkungen der Sonnenaktivität auf den lokalen hydrologischen Zyklus an der Peripherie des Plateaus sein.

(16) Zhai, 2017

Die ENSO ist negativ/positiv korreliert mit der Sonnenfleckenzahl SSN, wenn die SSN groß/klein ist … Die Sonnenaktivität kann die ENSO beeinflussen, und ein solcher Einfluss sollte einem Akkumulations-Prozess unterliegen (Phasen-Verzögerung). XWT [?] zeigt auch, dass diese Auswirkung tatsächlich besteht. Es zeigt sich, dass der Index negativ korreliert ist mit der SSN, wenn die SSN während eines bestimmten langzeitlichen Intervalls groß ist, und positiv korreliert bei geringer SSN. Während der folgenden Jahrzehnte kann daraus das Auftreten starker El Nino-Ereignisse abgeleitet werden.

(17) Zhu et al., 2017

Abrupte Verstärkungen des Flusses pedogenischer Magnetite [?] in Stalagmiten stimmen gut überein mit dem Timing bekannter regionaler Paläo-Überschwemmungen und mit äquatorialen ENSO-Abläufen, was das Auftreten von Stürmen mit Bezug zur ENSO im Holozän dokumentiert. Spektralanalysen zeigen, dass die Stürme während eines signifikanten 500-Jahre-Zyklus‘ auftreten, koinzident mit periodischer Sonnenaktivität und ENSO-Varianz. Dies zeigt, dass verstärkte (schwächere) Stürme in Zentralchina mit reduzierter (verstärkter) Sonnenaktivität korrespondieren sowie mit einer verstärkten (gedämpften) ENSO. Folglich konservieren die magnetischen Minerale in Höhlen die Abfolge zyklischer Stürme, die kontrolliert werden durch die gekoppelte Atmosphäre-Ozean-Zirkulation, getrieben von der Sonnenaktivität.

(18) Zhai, 2017

Die Zeitreihen der Sonnenfleckenzahl und des Niederschlags in Nord- und Mittelchina während der letzten 500 Jahre (1470 bis 2002) wurden untersucht mittels Peridiozitäts-Analyse, cross wavelet transform [?] und ensemble empirical mode decomposition analysis. Es zeigen sich folgende Ergebnisse: Die Perioden der Sonnenaktivität werden reflektiert in der Niederschlags-Zeitreihe mit schwacher statistischer Signifikanz, finden sich aber in zerlegten Komponenten der Reihe mit statistischer Signifikanz. Die Quasi-Zweijährige Oszillation QBO tritt signifikant hervor in der Zeitreihe, und deren Auswirkungen auf Niederschlag sind entgegengesetzt der Sonnenaktivität. Die Sonne wirkt sich auf zweierlei Weise auf den Niederschlag aus, wobei die eine Weise der anderen um die halbe Phase der Sonnenaktivität hinterher läuft.

(19) Malik et al., 2017

Wir untersuchen die Auswirkung der internen Klima-Variabilität sowie externe Klima-Antriebe auf die ISMR im Zeitmaßstab von Dekaden bis Multi-Dekaden während der letzten 400 Jahre. Die Ergebnisse zeigen, dass AMO, PDO und TSI eine deutliche Rolle spielen hinsichtlich des Auftretens der trockenen und nassen Jahrzehnte des ISMR (Regenmenge des Sommermonsuns in Indien). Ähnliche Beobachtungsergebnisse zeigen, dass die meisten der trockenen Jahrzehnte der ISMR während einer negativen AMO-Phase auftreten sowie einer simultanen positiven PDO-Phase.

(20) Huo and Xiao, 2017

In dieser Studie untersuchen die Autoren ein bestimmtes Phänomen, nämlich die Anomalie des ozeanischen Wärmegehaltes während verschiedener Phasen der Sonneneinstrahlungs-Zyklen. Die Ergebnisse zeigen, dass fast entgegen gesetzte räumliche Verteilungen im tropischen Pazifik auftreten während der zunehmenden und abnehmenden Phase des TSI-Zyklus‘. Weitere Analysen zeigen die Existenz eines quasi-dekadischen (~11 Jahre) solaren Signals bei der Wassertemperatur SST und beim ozeanischen Wärmegehalt OHC sowie beim Anomalie-Feld des Zonalwindes im tropischen Pazifik mit einem hohen Niveau statistischer Sicherheit (>95%). … Ensemble-Simulationen aus einer AOGCM [?] in einer Studie von Misios und Schmidt (2012) zeigten, dass die tropische SST nahezu in Phase oszilliert mit dem 11-jähringen Sonnenzyklus. White und Liu (2008) fanden außerdem, dass die Fluktuation der Erwärmung der oberen Ozeanschichten in Phase mit der TSI im Zeitmaßstab von Jahrzehnten ist, regiert von einer resonant excitation of the tropical delay action oscillator and solar forcing, wobei die Erwärmungsphase dem Jahr mit der Spitzen-Sonnenaktivität um 1 bis 3 Jahre folgt. … Verteilungen der OHC und potentieller Temperaturanomalien im tropischen Pazifik sind räumlich ziemlich symmetrisch während der aufsteigenden und abnehmenden Phase, und es sieht nach einer Phasen-Parallelität mit dem TSI-Zyklus aus. Die bedeutendsten Regionen der OHC-Anomalie liegen gerade in den Gebieten mit hoher Korrelation (über dem 95%-Niveau), welches ,solar-sensitive‘ Regionen sind mit einer deutlichen quasi-11-Jahre-Periode.

Gesteigerte solare Einstrahlung an der Erdoberfläche (mittels geringerer Wolkenbedeckung) erklärt die Erwärmung nach den 1980ger Jahren

(21) Sanchez-Lorenzo et al., 2017

Zunächst werden Trends der auf die Erdoberfläche treffenden Solarstrahlung (SSR) gezeigt, abgeleitet aus Satellitendaten über Europa (1983 bis 2010). Die Ergebnisse zeigen eine verbreitete (d. h. nicht lokal begrenzte) Zunahme im größten Teil von Europa, vor allem Mitte der neunziger Jahre in den mittleren und nördlichen Gebieten und während des Frühjahrs. Es zeigt sich eine mittlere Zunahme der SSR von mindestens 2 W/m² pro Jahrzehnt von 1983 bis 2010 über ganz Europa, was zum größten Teil mit der Berücksichtigung der fehlenden Aerosol-Variationen in den aus Satellitenbeobachtungen abgeleiteten Produkten zumeist verbunden werden kann mit einer Abnahme der Wolkenbedeckung über Europa. … Die SSR ist ein kritischer Bestandteil der Globalen Energiebilanz und des Klimasystems … Eine verbreitete Abnahme der SSR von den fünfziger bis zu den achtziger Jahren (mit globaler Abkühlung) wurde beobachtet (Liepert, 2002; Stanhill and Cohen, 2001; Wild, 2009). Ihr folgte eine Zunahme der SSR seit Mitte der achtziger Jahre (zusammenfallend mit globaler Erwärmung. Pinker et al. 2005 verwendeten ein anderes Produkt (Auflösung 2,5°) und fanden, dass die abgeleitete globale mittlere SSR-Reihe eine signifikante Zunahme von 1,6 W/m² pro Jahrzehnt durchlief, und zwar von 1983 bis 2001. … Andererseits leiteten Hatzianastassiou et al. 2005 ein SSR-Produkt ab von 1984 bis 2000 (Auflösung 2,5°) und berichteten von einer signifikanten Zunahme von 2,4 W/m² pro Jahrzehnt in der globalen mittleren Reihe, was deutlich höher ist als die Ergebnisse von Pinker et al. 2005 sowie Hinkelmann et al. 2009.

(22) Urban et al., 2017

Von den fünfziger bis zu den achtziger Jahren wurde eine Abnahme der Intensität der Solarstrahlung beobachtet (Stanhill and Cohen 2001; Liepert 2002). Dieses Phänomen wurde als „Global Dimming“ bezeichnet. Spätere Forschungen zeigten, dass seit Mitte der achtziger Jahre eine Zunahme der Solarstrahlung folgte, was mit „Global Brightening“ bezeichnet wurde (Wild et al. 2005; Pinker et al. 2005). Die Gründe für die Änderung der Strahlungstrends sind noch nicht vollständig geklärt; sie können resultieren aus Änderungen der atmosphärischen Transparenz infolge der Variationen der Wolkenbedeckung oder aus Änderungen der Konzentration anthropogener Aerosole (Wild 2009). … Eine bedeutende Arbeit, die von Raichijk 2012 veröffentlicht worden ist, überdeckt 237 Stationen in den fünf betreffenden klimatischen Regionen. Darin wurden Trends der Sonnenscheindauer von 1961 bis 2004 in sechs Ländern Südamerikas untersucht. Die Ergebnisse dieser Studie bestätigen abwärts gerichtete Trends der Sonnenscheindauer von den fünfziger Jahren bis zu den achtziger Jahren sowie einen aufwärts gerichteten Trend seit Anfang der neunziger Jahre. Dies wurde auch in anderen Gebieten der Welt beobachtet. Satellitendaten der kurzwelligen Strahlung im Zeitraum 1984 bis 2005 bestätigen die Ergebnisse der Messungen der Sonnenscheindauer am Boden in allen fünf Klimaregionen von Südamerika. Aufwärts gerichtete Trends der Sonnenscheindauer sind assoziiert mit einer Zunahme der Intensität der Solarstrahlung und einer Abnahme der Wolkenbedeckung (Raichijk 2012). Es muss betont werden, dass sowohl Einstrahlung als auch Wolkenbedeckung primär verbunden sind mit der atmosphärischen Zirkulation und durch Wärmegleichgewicht [heat balance] und lokale Bedingungen beeinflusst werden (Dubicka and Limanówka 1994).

Mehr: http://notrickszone.com/#sthash.8STk5EEh.aGxlSVOD.dpuf

Link: http://notrickszone.com/2017/02/20/20-new-scientific-papers-link-modern-climate-trends-to-solar-forcing/#sthash.RC6cDfSD.dpbs

Übersetzt von Chris Frey EIKE




Blockbuster-Studie: Nur 15% der CO2-Zunahme seit der Industria­lisierung gehen auf menschliche Emissionen zurück

Harde, 2017

Abstract:

Klimawissenschaftler vermuten, dass der Kohlenstoff-Zyklus aus dem Gleichgewicht geraten ist infolge der zunehmenden anthropogenen Emissionen aus der Verbrennung fossiler Treibstoffe und dem Landverbrauch. Dies wird verantwortlich gemacht für die rasch zunehmende atmosphärische CO2-Konzentration während der letzten Jahre, und es wird geschätzt, dass die Entfernung der zusätzlichen Emissionen aus der Atmosphäre ein paar hunderttausend Jahre dauert. Da dies einher geht mit einem zunehmenden Treibhauseffekt und einer weiteren globalen Erwärmung, ist ein besseres Verständnis des Kohlenstoffzyklus‘ von erheblicher Bedeutung für alle Prophezeiungen der Klimaentwicklung in der Zukunft. Wir haben diesen Zyklus entscheidend überprüft und präsentieren hier ein alternatives Konzept, in welchem die Aufnahme von CO2 in natürlichen Senken proportional ist zur CO2-Konzentration. Außerdem betrachten wir temperaturabhängige natürliche Emissions- und Absorptionsraten, durch welche die paläoklimatischen CO2-Variationen und die derzeitige Rate der CO2-Zunahme sehr gut erklärt werden können. Der anthropogene Beitrag zur derzeitigen CO2-Konzentration beträgt lediglich 4,3%, dessen Anteil an der CO2-Zunahme während der industriellen Ära beträgt 15% und die mittlere Verweildauer 4 Jahre.

Conclusion

Klimawissenschaftler nehmen an, dass ein gestörter Kohlenstoffkreislauf, aus dem Gleichgewicht geraten durch die zunehmenden anthropogenen Emissionen aus der Verbrennung fossiler Treibstoffe und der Änderung des Landverbrauches verantwortlich ist für die rapide zunehmenden CO2-Konzentrationen der letzten Jahre. Während des gesamten Holozäns war man der Ansicht, dass bis zum Eintritt in die industrielle Ära (1750) natürliche Emissionen durch heterotrophe Prozesse und Brände im Gleichgewicht stünden mit der CO2-Aufnahme durch Photosynthese und dem Gas-Gesamtaustausch zwischen Ozean und Atmosphäre. Mit dem Beginn der industriellen Ära schätzt das IPCC, dass etwa 15 bis 40% der zusätzlichen Emissionen nicht weiter absorbiert werden können durch natürliche Senken und sich deshalb in der Atmosphäre anreichern.

Weiter argumentiert das IPCC, dass das bis zum Jahr 2100 emittierte CO2 über 1000 Jahre in der Atmosphäre verweilen wird, und im gleichen Zusammenhang wird sogar erwähnt, dass die Entfernung des anthropogen emittierten CO2 aus der Atmosphäre durch natürliche Prozesse ein paar hunderttausend Jahre dauern wird (hohes Vertrauen; siehe AR5-Chap.6-Executive-Summary).

Da die steigenden CO2-Konzentrationen einhergehen mit einem zunehmenden Treibhauseffekt und folglich einer weiteren globalen Erwärmung, ist ein besseres Verständnis des Kohlenstoffkreislaufes eine notwendige Grundlage für alle zukünftigen Klima-Prophezeiungen. In den Verfahren und Modellen des Kohlenstoffkreislaufes zieht das IPCC viele neue und detaillierte Daten heran, welche sich primär auf die Emission durch fossile Treibstoffe konzentrieren, auf die Zementherstellung oder die Änderung des Landverbrauches (siehe AR5-WG1-Chap.6.3.2), aber es ignoriert jedwede Änderungen der natürlichen Emissionen, welche zu über 95% der gesamt-Emissionen beitragen und die bestimmt nicht als konstant über lange Zeiträume angesehen werden können (siehe u. A. last 800,000 years (Jouzel et al., 2007); the last glacial termination (Monnin et al., 2001); or the younger Holocene (Monnin et al., 2004; Wagner et al., 2004)).

Da unsere eigenen Schätzungen der mittleren Verweildauer von CO2 in der Atmosphäre um viele Größenordnungen von den verkündeten IPCC-Werten abweichen und andererseits neue Untersuchungen von Humlum et al. 2013 oder Salby 2013, 2016 eine starke Relation zeigen zwischen der natürlichen CO2-Emissionsrate und der Temperatur, war dies Motivation genug, um das IPCC-Verfahren detaillierter unter die Lupe zu nehmen und jene in Gegensatz zu unseren Berechnungen zu stellen.

Anders als das IPCC beginnen wir mit einer Gleichung der Raten von Emission und Absorption, wobei die Aufnahme nicht als gesättigt angenommen wird, sondern proportional zur derzeitigen CO2-Konzentration in der Atmosphäre ist (siehe auch Essenhigh, 2009; Salby, 2016). Dies ist gerechtfertigt durch die Beobachtung eines exponentiellen Zerfalls von C14. Eine teilweise Sättigung, wie vom IPCC angenommen, kann direkt ausgedrückt werden durch eine längere Verweildauer von CO2 in der Atmosphäre, und es macht eine Unterscheidung zwischen einer Fluktuations- und einer Anpassungs-Zeit überflüssig. Auf der Grundlage dieses Verfahrens und als eine Lösung der Raten-Gleichung leiten wir eine Steady-State-Konzentration ab, die nur festgelegt wird durch das Produkt aus der Gesamt-Emissionsrate und der Verweildauer. Unter den gegenwärtigen Bedingungen tragen die natürlichen Emissionen 373 ppm und anthropogene Emissionen 17 ppm zur Gesamt-Konzentration von 390 ppm bei (2012). Als mittlere Verweildauer ergeben sich bei uns lediglich 4 Jahre.

Die stärkere Zunahme der Konzentration während der industriellen Ära bis heute kann erklärt werden durch die Einführung einer temperaturabhängigen natürlichen Emissionsrate ebenso wie durch eine von der Temperatur beeinflusste Verweildauer. Mit diesem Verfahren können nicht nur die exponentielle Zunahme mit dem Beginn der industriellen Ära sehr gut reproduziert werden, sondern auch die Konzentrationen in glazialen und kühleren interglazialen Zeiten. Folglich findet die starke Zunahme der Konzentration seit 1850 anders als die IPCC-Interpretation seine natürliche Erklärung in sich selbst beschleunigenden Prozessen einerseits durch stärkeres Ausgasen der Ozeane ebenso wie beschleunigtes Pflanzenwachstum und Ablagerung, andererseits durch eine zunehmende Verweildauer bei reduzierter Löslichkeit von CO2 in den Ozeanen.

Zusammengefasst resultiert dies in einer von der Temperatur kontrollierten natürlichen Zunahme, welche etwa 85% zu der CO2-Zunahme um 110 ppm während der industriellen Ära beigetragen hat, während die tatsächlichen anthropogenen Emissionen von 4,3% nur 15% beigetragen haben. Diese Ergebnisse zeigen, dass nahezu alle Änderungen des CO2-Gehaltes während der industriellen Ära nicht anthropogenen, sondern Änderungen der natürlichen Emissionen folgten.

Die Ergebnisse sind konsistent mit der beobachteten Verzögerung von CO2-Änderungen, zu denen es nach Temperaturänderungen kommt (Humlum et al., 2013; Salby, 2013), ein Signal von Ursache und Wirkung. Unsere Analyse des Kohlenstoffkreislaufes, in welche ausschließlich Daten der CO2-Konzentrationen und der Flüsse aus dem veröffentlichten AR 5 Eingang fanden, zeigt, dass auch eine vollständig andere Interpretation dieser Daten möglich ist – und das vollständig konform mit allen Beobachtungen und natürlichen Ursachen.

Mehr: http://notrickszone.com/2017/02/25/blockbuster-paper-finds-just-15-of-co2-growth-since-industrialization-is-due-to-human-emissions/#sthash.Sz6Fv5sX.dpuf

Link: http://notrickszone.com/2017/02/25/blockbuster-paper-finds-just-15-of-co2-growth-since-industrialization-is-due-to-human-emissions/#sthash.Sz6Fv5sX.dpbs

Übersetzt von Chris Frey EIKE




Petition von Dr. Richard Lindzen an Präsident Trump: „Ziehen Sie sich aus der UN Convention on Climate Change zurück!“

Die Petition [siehe unten!] enthält die Namen von rund 300 bedeutenden Wissenschaftlern oder anderen qualifizierten Personen, darunter Physiker, Ingenieure, ehemalige Astronauten, Meteorologen, Immunologie-Spezialisten, Meeresbiologen, Chemiker, Statistiker, Ärzte, Wetterexperten des Militärs, Geologen, Buchführer, ein ehemaliger NASA-Direktor, Ökonomen, Erde-Spezialisten, Mathematiker, Hydrologen, Umweltwissenschaftler, Computer-Modellierungs-Spezialisten und noch viele mehr. Es ist eine lange Liste.

Wollen wir hoffen, dass Präsident Trump rasch auf die Aufforderung von Dr. Lindzen reagiert.

Falls noch irgendjemand, den Sie kennen, behauptet, dass die Klima-Debatte vorbei ist, zeigen Sie ihm eine Kopie von Dr. Lindzens Forderung.

Link: https://wattsupwiththat.com/2017/02/25/richard-lindzen-petition-to-president-trump-withdraw-from-the-un-convention-on-climate-change/

Und hier nun der (übersetzte) Wortlaut der Petition von Dr. Lindzen. Das PDF ist im Original beigefügt. Es empfiehlt sich wirklich, die (wirklich sehr lange) Liste der Unterzeichner durchzugehen.

Wenn es jetzt immer noch Leute gibt, die alle Unterzeichner durchweg als „Leugner des Klimawandels“ diffamieren, wie es die entsprechenden Redakteure „Süddeutsche Zeitung“ an vorderster Front nach wie vor pflegt, dann ist denen nicht zu helfen.

———————————————————

President Donald Trump

White House

Washington, DC

Sehr geehrter Herr Präsident,

Bürger der USA und die Bewunderer Amerikas überall stehen hinter den Versprechungen Ihrer Kampagne, hinsichtlich internationaler Umwelt-Abkommen den gesunden Menschenverstand in den Mittelpunkt zu rücken, die Sie entweder schon umgesetzt haben oder planen. Innerhalb nur weniger Wochen haben über 300 bedeutende Wissenschaftler und andere qualifizierte Personen aus der ganzen Welt unten stehende Petition unterzeichnet. Darin drängen sie Sie, sich aus dem unklugen United Nations Framework Convention on Climate Change (UNFCCC) zurückzuziehen. Jeden Tag kommen weitere Unterschriften dazu.

Wir ersuchen die amerikanische und andere Regierungen, ihre Haltung bzgl. eines überholten internationalen Abkommens zu ändern, welches auf unbedeutende Treibhausgase, primär Kohlendioxid zielt und strenge Vorschriften nach sich zieht. Seit 2009 haben die USA und andere Regierungen Maßnahmen hinsichtlich des globalen Klimas durchgeführt, die wissenschaftlich nicht gerechtfertigt sind und die schon jetzt ernste soziale und wirtschaftliche Schäden angerichtet haben und weiter anrichten werden – ohne jeden Vorteil für die Umwelt. Während wir effektive, bezahlbare und direkte Kontrollen hinsichtlich konventioneller Verschmutzer unterstützen, ist Kohlendioxid kein Verschmutzer. Im Gegenteil, es gibt viele klare und eindeutige Beweise, dass ein steigender atmosphärischer Kohlendioxidgehalt für die Umwelt sehr hilfreich ist, um Ernteerträge zu verbessern und andere Pflanzen besser wachsen zu lassen, die die Nahrungsgrundlage für alles Leben bilden. Es ist Pflanzendünger, kein Gift.

Die Begrenzung des Zugangs zu fossilen Treibstoffen zeitigt sehr negative Effekte hinsichtlich des Wohlergehens der Menschen auf der ganzen Welt. Sie verdammt über 4 Milliarden Menschen in immer noch unterentwickelten Ländern zu fortgesetzter Armut.

Wir befinden uns jetzt am Scheideweg. Die Kandidaten Trump und Pence versprachen, die USA nicht nur aus einem schädlichen internationalen Klimaabkommen herauszuhalten, sondern auch in die Irre führende und sinnlose Restriktionen der Regierung hinsichtlich CO2-Emissionen zurückzufahren. Meine Wissenschaftler-Kollegen unterstützen Sie bei Ihren Bemühungen, die Versprechen aus Ihrer Kampagne zu halten.

Es ist von besonderer Wichtigkeit für die Mitglieder Ihrer Regierungsmannschaft, auf Menschen wie die Unterzeichner dieses Briefes zu hören, die die erforderliche Expertise zur Evaluierung von Klimafakten haben und vernünftige Ratschläge anbieten. Klimadiskussionen waren seit Langem politische Diskussionen – und keine wissenschaftlichen Diskussionen. Darin ging es darum, ob Bürger oder Bürokraten Kontrolle über Energie, natürliche Ressourcen und andere Posten ausüben sollten. Die Rücknahme unnötiger Vorschriften hilft den Amerikanern und kann auf eine Weise erfolgen, die saubere Luft und sauberes Wasser hinterlässt, wie Sie es versprochen haben.

With Respect,

Dr. Richard Lindzen

Professor Emeritus of Atmospheric Sciences

Massachusetts Institute of Technology

Attachment: Petition to withdraw from United Nations Framework Convention on Climate Change

(UNFCCC)

———————————————————

Lindzen Attachment

21 pages

February 23, 2017

PETITION

Wir drängen die Regierung der Vereinigten Staaten und Andere, sich aus dem United Nations Framework Convention on Climate Change (UNFCCC) zurückzuziehen. Wir stehen hinter einem vernünftigen und kosteneffektiven Umweltschutz. Aber Kohlendioxid, das Zielobjekt des UNFCCC, ist kein Verschmutzer, sondern hat enorme Vorteile für die Landwirtschaft und andere Lebensformen auf der Erde. Das UNFCCC wurde vor 25 Jahren ins Leben gerufen, und alle Beobachtungen seitdem zeigen, dass die Erwärmung infolge eines gestiegenen atmosphärischen CO2-Gehaltes gutartig ist – und weitaus geringer als die Modellprojektionen zeigen.

Die Liste aller Unterzeichner findet sich in diesem PDF. Es empfiehlt sich, wie gesagt, diese einmal durchzugehen:

richard_lindzen_letter_20170223

Übersetzt von Chris Frey EIKE