1

Diesel-Verteufelung: Krieg gegen das eigene Volk – Die Lückenmedien im Glashaus (12)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im siebten Teil wird anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten nachgewiesen, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen. Anschließend wurde im achten Teil nachgewiesen, dass die Grenzwertüberschreitungen der Luft punktuell extrem beschränkt sind und der Anteil der betroffenen Bewohner selbst an den Brennpunkten im Zehntel-Promille-Bereich liegt. Der neunte Teil zeigte, wie gering die Beaufschlagung der Anwohner einer Straße mit über dem Grenzwert liegenden NO2-Konzentrationen in Wirklichkeit ist. Im zehnten Teil wurde gezeigt, dass die NO2-Beaufschlagung im eigenen Wohnbereich teilweise sehr viel höher liegt als selbst an den am stärksten befrachteten Brennpunkten des Autoverkehrs. Im elften Teil werfen wir einen kritischen Blick auf die Glaubwürdigkeit einiger Epidemiologinnen, die sich in Deutschland als Anti-Diesel-Aktivistinnen hervortun. Der vorliegende zwölfte Teil beschäftigt sich mit dem Vergleich der Standpunkte in Deutschland im Vergleich zu den USA, dem „gelobten Land“ der Anti-Diesel-Frondeure und geht der Frage nach, wie es die Behörden dort mit Schutz des Volkes vor den vorgeblich so gefährlichen NO2-Belastungen aus Dieselabgasen halten.

Der „#NO2-Aufschrei“ von drei deutschen Epidemiologinnen…

Wie bereits in der letzten Folge ausgeführt, befand der Diesel-Untersuchungsausschuss des Bundestages:

„Es gibt keine wissenschaftlich erwiesenen Zahlen dazu, wie viele Menschen aufgrund grenzwertüberschreitender NO2-Expositionen erkrankt oder gar gestorben sind“.

Dies veranlasste drei deutsche Epidemiologinnen zu einer geharnischten Gegenstellungnahme [KURZ], die sie nicht nur über wissenschaftliche Kanäle, sondern vor allem auch über die Medien breit an die Öffentlichkeit trugen [EPIDE, RBBHO]. Dabei bedienten sie sich der gleichen Methoden und Kanäle wie beispielsweise auch DUH, Greenpeace & Co. Bei den drei Damen handelte es sich um:

  • Barbara Hoffmann, Universität Düsseldorf
  • Alexandra Schneider vom Helmholtz Zentrum München – Institut für Epidemiologie II
  • Claudia Hornberg, Universität Bielefeld

In ihrer Stellungnahme nahmen sie für sich in Anspruch, im Namen der gesamten Wissenschaft zu sprechen: „Unsere Ausführungen basieren dabei nicht auf Einzelmeinungen sondern auf der Gesamtheit der aktuellen wissenschaftlichen Literatur“. Eine der Hauptquellen, auf die dabei Bezug genommen wurde, ist das 1.148 Seiten dicke Kompendium „Integrated Science Assessment for Oxides of Nitrogen – Health Criteria“ der U.S. amerikanischen Umweltbehörde (U.S. EPA) aus dem Jahr 2016. Für diese „Bibel“ der Gesundheitsbewertung des NO2 wurden rund 1.700 Forschungsarbeiten ausgewertet. Die drei genannten Forscherinnen ziehen aus dieser sowie weiteren Dokumentationen folgende Schlüsse:

  • „Der Zusammenhang zwischen kurzfristiger Exposition mit Stickstoffdioxid und erhöhter Sterblichkeit, Krankenhauseinweisungen sowie einem erhöhten Risiko für die Atemwegsgesundheit ist wissenschaftlich belegt“.
  • „Epidemiologische Befunde belegen negative gesundheitliche Wirkungen von Stickstoffdioxid bereits bei Konzentrationen von 20 µg/m3 im Jahresmittel oder darunter“.
  • „Stickoxide haben auch als Vorläufer von Feinstaub und Ozon gesundheitliche Relevanz“.

Bild 2. Prof Dr. med. Hans Drexler, stellvertretender Vorsitzender der MAK-Kommission und Präsident Präsident der Deutschen Gesellschaft für Arbeitsmedizin und Umweltmedizin [DREX]

 

…erregt in den USA nicht einmal milde Heiterkeit

Die USA und ihr Umweltministerium EPA gelten in Kreisen der angeblichen „Umweltschützer“ hier in Europa seit langem als tonangebend. Schließlich sind die USA und insbesondere Kalifornien seit Jahrzehnten die weltweiten Taktgeber im Kampf für saubere Luft und gegen Umweltverschmutzung sowie Klimaerwärmung. Von dort wurde ja auch der sogenannte Dieselskandal angestoßen, mit dessen Hilfe die US-Autoindustrie alle Register zieht, um sich der lästigen deutschen Konkurrenz zu entledigen. Das EPA, das mit der WHO in engem fachlichem Austausch steht, hat natürlich auch eigene Vorgaben und Regeln für die Begrenzung von NO2 bzw. NOx aufgestellt. Diese sind jedoch Welten von dem entfernt, was Europa seinen Bürgern und seiner Autoindustrie anzutun bereit ist. Stichworte wie „Fahrverbot“ oder „Umweltplakette“ finden sich in den entsprechenden Dokumenten nicht. Die in den USA geltenden nationalen Vorgaben sind sehr weit oberhalb dessen angesiedelt, was die EU-Länder vorschreiben [NO2EPA]. So weit, dass es schon seit mehreren Jahren in ganz Deutschland keine Messstelle gibt, die auch nur über der niedrigsten Stufe der US-Vorgaben läge. Die Liste der Maßnahmen bei Überschreitungen beschränkt sich lediglich auf Empfehlungen für das Verhalten der Anwohner – und das selbst bei NO2-Pegeln, bei denen man in Deutschland schon ganze Regionen stillsetzen müsste, Bild 3.

Bild 3. Vergleich der Einstufungen und der zu ergreifenden Maßnahmen für NO2-Immissionswerte in Deutschland und in den USA (Grafik: Autor)

 

Wer hoch klettert…(korrigiert am 25.2.18 13:42)

In diesem Zusammenhang ist es von Interesse, auf die zeitliche Abfolge der Ereignisse hinzuweisen. Der Bericht des Bundestagsuntersuchungsausschusses stammt vom 22. 6. 2017. Die Gegenerklärung der drei Forscherinnen erschien nach nur wenigen Tagen am 30. 06. 17. Nochmals nur wenige Tage später – 4.7. 2017 – begann sich mit einem Artikel im „Gesundheitsstadt Berlin – das Hauptstadtnetzwerk“ [EPIDE] die Pressekampagne abzuzeichnen, die ihren vorläufigen Höhepunkt mit den Auslassungen von Prof. Hoffmann bei einer massiven Kampagne des RBB gegen den Diesel [RBBHO] erreichte. Auch der gegenwärtige Medienfeldzug im Zusammenhang mit den angeblich sogar noch bis weit unter die aktuellen Grenzwerte hinabreichenden Gefährlichkeit des NO2 [JENA, SWR2] trägt die Handschrift des Umfeldes der drei Epidemiologinnen.

Ganz anders als dieser Schnellschuss sieht dagegen das Timing bei der EPA aus. Zufällig ging man dort mit der Neubewertung der NO2-Risiken nach der Erstellung des entsprechenden Kompendiums fast zeitgleich, nämlich am 14. 7. 2017 an die Öffentlichkeit. Anders als hierzulande, wo gegen die umfassende Arbeit des Untersuchungsausschusses schon nach wenigen Tagen losgepoltert wurde, hatte sich das dort für die gesundheitliche Beurteilung von NO2 zuständige Gremium jedoch anderthalb Jahre Zeit genommen, um die Anfang 2016 veröffentlichte Studie gründlich zu studieren und zu bewerten. Immerhin ist diese Dokumentation, auf die sich auch die europäischen Feinde des Autos gerne beziehen, die derzeit neueste und vollständigste ihrer Art. Doch nach umfassender Bewertung der hierin enthaltenen Zusammenstellung der quasi-Gesamtheit der wissenschaftlichen Erkenntnisse kam das Gremium der EPA – in krassem Widerspruch zu den Schlussfolgerungen der drei deutschen Epidemiologinnen, die sich zu erheblichen Teilen ja auf die gleiche Arbeit berufen – zu einer völlig anderen Bewertung, Bild 4.

Bild 4. Unter Berücksichtigung des neuesten Standes der Wissenschaft hat das US-EPA beschlossen, den bisherigen Jahresgrenzwert von ca. 100 µg/m3 unverändert beizubehalten

 

Sinngemäß übersetzt lautet die Aussage der EPA-Fachleute wie folgt: „Am 14. Juli 2017 hat die EPA, gestützt auf eine Überprüfung der Gesamtheit der wissenschaftlichen Erkenntnisse, vorgeschlagen, die derzeit geltenden nationalen Luftqualitätsvorschriften für NO2 in der Luft im Freien (NAAQS) beizubehalten. Das EPA vertritt den Standpunkt, dass diese Qualitätsvorschriften nicht geändert zu werden brauchen, da sie einen angemessenen Schutz der öffentlichen Gesundheit gewährleisten, mit einer ausreichenden Sicherheitsmarge auch für ältere Personen, Kinder und Menschen mit Asthma. (Im englischen Original: “On July 14, 2017, based on a review of the full body of scientific evidence, EPA proposed to retain the current national ambient air quality standards (NAAQS) for oxides of nitrogen (NOx). EPA proposes that the current NAAQS don’t need to be changed because they provide the appropriate public health protection, with an adequate margin of safety, including for older adults, children and people with asthma”).

 

…kann umso tiefer fallen (korrigiert am 25.2.18 13:42)

Wie lautete nochmals der Anspruch der drei obengenannten Wissenschaftlerinnen: „Unsere Ausführungen basieren dabei nicht auf Einzelmeinungen sondern auf der Gesamtheit der aktuellen wissenschaftlichen Literatur“. Sie behaupten sogar, dass „negative gesundheitliche Wirkungen von Stickstoffdioxid bereits bei Konzentrationen von 20 µg/m3 im Jahresmittel oder darunter“ belegt seien. In dem bereits erwähnten Artikel zu den Ergebnissen des Bundestags-Untersuchungsausschusses [EPIDE] finden sich harte Worte wie „Wissenschaftler halten das für absurd“. Ein stolzer Anspruch.

Nur deckt sich ihre Meinung absolut nicht mit den Positionen des EPA, dessen wissenschaftliche Kompetenz nicht zuletzt durch die Herausgabe des bereits erwähnten Kompendiums völlig außer Frage steht. Dass man dort zu völlig anderen Schlüssen kommt als die drei deutschen Forscherinnen, zeigt lediglich, auf welch dünnes Eis sich diese durch ihren Anspruch, „die Wissenschaft“ zu vertreten, begeben haben. Immerhin hält man beim EPA NO2-Gehalte, die um 250 %(!) über dem europäischen Grenzwert liegt, noch für „Gut“ und erwartet selbst bei moderat darüber hinausgehenden Werten keine die Gesundheit oder gar das Leben beeinträchtigenden Gefahren.

Im Rahmen dieser Gegenüberstellung sei noch eine weitere Fachmeinung angeführt, und zwar die des Umweltmediziners Prof. Dr. med. Hans Drexler, Direktor des Instituts und der Poliklinik der Universität Erlangen-Nürnberg, stellvertretender Vorsitzender der MAK-Kommission und Präsident der Deutschen Gesellschaft für Arbeitsmedizin und Umweltmedizin, Bild 5

Bild 5. Prof Dr. med. Hans Drexler, stellvertretender Vorsitzender der MAK-Kommission und Präsident Präsident der Deutschen Gesellschaft für Arbeitsmedizin und Umweltmedizin [DREX]

 

In einem Interview über Effekte des NO2 auf den Menschen sagte er im Zusammenhang mit dem häufig verwendeten Schlagwort vom „messbaren Effekt“ von NO2 auf Menschen: „Ein messbarer Effekt beim Treppensteigen ist ein Anstieg von Puls- und Atemfrequenz. Das macht den Menschen aber nicht krank. Ein Grenzwert soll verhindern, dass messbare Effekte Menschen krank machen. Auch bei 100 µg/m3 NO2 sehen wir noch keinen Effekt, der krank machen kann“ [DREX].

Die Frage, wer hier tatsächlich „die Wissenschaft“ repräsentiert, dürfte sich nach diesen Gegenüberstellungen erübrigen.

 

Fakten und „Faktenfinder“

Die hier dargelegten Probleme wurden bisher von den Medien ignoriert. Stattdessen hat man sich dort einen regelrechten Wettbewerb in der Frage geliefert, wer am tollsten auf den Dieselmotor und die Individualmobilität eindreschen konnte, wie sich ja auch kürzlich bei der perfiden Diffamierungskampagne gegen Wissenschaftler der medizinischen Fakultät an der RWTH Aachen gezeigt hat.

Bisher hat man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Belastung des Bürgers beschäftigt. Stattdessen übernimmt man einfach die Positionen von Ministerin Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden ignoriert. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die jetzt wohl unausweichliche „GroKo“ ist für Deutschland ein sehr schlechtes Omen.

Fred F. Mueller

 

Demnächst folgt Teil 13

 

Quellen

[DREX] https://www.merkur.de/wirtschaft/umweltmediziner-fahrverbote-medizinisch-nicht-begruendbar-9612595.html

[EPA] https://www.epa.gov/isa/integrated-science-assessment-isa-nitrogen-dioxide-health-criteria

[EPIDE] https://www.gesundheitsstadt-berlin.de/wissenschaftler-widersprechen-berliner-diesel-untersuchungsausschuss-11501/

[JENA] http://www.spiegel.de/gesundheit/diagnose/stickoxide-rascher-anstieg-scheint-herzinfarkt-risiko-zu-erhoehen-a-1194249.html

[KURZ] https://www.uni-duesseldorf.de/home/fileadmin/redaktion/Oeffentliche_Medien/Presse/Pressemeldungen/Dokumente/Kurzstellungnahme_Experten_Umweltepidemiologie.pdf

[NO2EPA] https://cfpub.epa.gov/airnow/index.cfm?action=pubs.aqiguidenox

[RBBHO] https://www.rbb24.de/politik/thema/2017/abgasalarm/beitraege/interview-umweltmedizinerin-barbara-hoffmann.html

[STOE] http://www.spiegel.de/wissenschaft/mensch/kostenloser-nahverkehr-holen-wir-uns-die-welt-zurueck-a-1193916.html

[SWR2] https://www.swr.de/report/presse/unveroeffentlichte-studie-des-umweltbundesamtes-auch-niedrige-stickstoffdioxid-werte-verursachen-bis-zu-8000-vorzeitige-todesfaelle-pro-jahr-in-deutschland/-/id=1197424/did=21207488/nid=1197424/1ak3uh3/index.html




Richter wies Verleumdungsklage ab, eingereicht gegen einen Skeptiker der globalen Erwärmung

Dr. Andrew Weaver, ein Klimawissenschaftler und Politiker, reichte eine Verleumdungsklage gegen Tim Ball ein, wegen eines bereits in 2011 in der Canada Free Press veröffentlichten Artikels. Weaver gibt an, der Artikel sei sachlich falsch, verleumderisch und schadet seinem Ruf als Wissenschaftler.

Richter Skolrood jedoch entschied gegen Weaver und wies darauf hin, dass der Artikel zwar ein

„… schlecht geschriebenes Meinungsstück“ sei, aber „nicht diffamierend, da die angefochtenen Worte den Ruf von Dr. Weaver nicht wirklich beschädigen, bei informierten Lesern mit gesundem Verstand. … Dr. Weaver hat es nicht geschafft, das wesentliche Element einer Diffamierung zu nachzuweisen“.

Weaver sagte dem Gericht, er habe Balls Artikel zufälligerweise gefunden, als er im Internet nach seinem Namen gesucht hatte und er engagierte schnell einen Rechtsbeistand, um den Artikel entfernen zu lassen. Der Artikel wurde vier Tage später zusammen mit einer Widerrufsmitteilung und einer Entschuldigung zurückgenommen.

Ball argumentierte, sein Artikel befasse sich nicht spezifisch mit Weaver, sondern mit dem Stand von Klimawissenschaft und Politik. Richter Skolrood stimmte dem zu, aber er sparte Ball nicht vor Kritik aus und sagte, der Artikel sei „voller Fehler und Ungenauigkeiten“.

Ball veröffentlichte eine Erklärung im Gefolge des Urteils und nannte es einen Sieg für freie Meinungsäußerung und offene Debatte. Ball sagte auch, er habe verstanden, dass Weaver bereit sei, Berufung einzulegen.

„Es ist ein Sieg für die Redefreiheit und ein Schlag gegen den Gebrauch von Gesetzen, um Menschen zum Schweigen zu bringen“, schrieb Ball in einer Erklärung, die auf dem Wissenschaftsblog Watts Up With That veröffentlicht wurde. „Wie bei allen Veranstaltungen gibt es so viel mehr, was selten Beachtung findet, aber unerlässlich ist, um die Bedingungen in der Zukunft zu verstehen und zu verbessern.“

Die Entscheidung von Skolrood könnte größere Auswirkungen haben. Dr. Ball ist auch in einem Rechtsstreit mit Penn State University Klimawissenschaftler Dr. Michael Mann verstrickt. Dr. Mann hat nach einem Interview von Ball durch das Frontier Center innerhalb eines Tages Klage gegen Ball erhoben.

[[Frontier Centre for Public Policy (FCPP) ist ein Kanadischer ThinkTank, hier der gefundene Link:

https://fcpp.org/2011/02/14/human-caused-global-warming-the-biggest-deception-in-history-dr-tim-ball/

Dr. Tim Ball Vortrag .pdf

Folie 4: Fakten spielen keine Rolle mehr. Wir entscheiden einfach, wie wir die Welt sehen wollen und gehen dann hinaus und suchen Experten und Beweise, um unsere Überzeugungen zu untermauern.

]]

Vortrag Dr Ball_ Folie 21, Manipulierte und abgekühlte mittelalterliche, Wärmeperiode

Ball sagte, dass das Frontier Center einen „oberflächlichen Kommentar“ veröffentlichte, den er über Mann machte. Manns Klage wurde 2017 vor einem kanadischen Gericht verhandelt,

„… aber nach sechs Jahren strebte Mann auf Vertagung“.

„Wir versuchen jetzt, den Fall wieder vor Gericht zu bringen“, sagte Ball. „Es wurde fälschlicherweise berichtet, dass Mann es wegen Missachtung des Gerichtes es versäumte, die angefragten Dokumente vorzulegen [die von Dr. Mann genutzten Daten für seine Studie]. Er weigerte sich, die Dokumente beizubringen, aber er verachtet das Gericht, weil es die Offenlegung von ihm verlangte.“

Richter Skolroods Entscheidung richtet sich damit auch gegen Dr. Manns Klage gegen Dr. Ball. Mann muss beweisen, dass sein Ruf durch Balls Kommentare in 2012 geschädigt wurde. Denn, Dr. Mann erhielt kürzlich eine Auszeichnung von der American Association for the Advancement of Science [Amerikanischen Gesellschaft zur Förderung der Wissenschaften] für „Öffentliches Engagement“ in der Klimawissenschaft.

Dr. Mann ist auch in einem Rechtsstreit mit dem konservativen Kritiker und Autor Mark Steyn und dem National Review wegen eines Beitrags von 2012. In diesem Beitrag kritisierte Steyn Dr.Manns wissenschaftliche Arbeit.

Die Klage wurde von führenden Zeitungen als Angriff auf die Redefreiheit kritisiert. Die Washington Post führte eine Koalition an, die Manns Klage ablehnte, und legte einen Brief von einem Sachverständigen vor, der argumentierte:

„Dr. Mann behauptet im Wesentlichen, er könne Kritiker allein dadurch zum Schweigen bringen, weil nur er recht hat.“

Eine solche Klage schwächt „die Meinungsäußerung zu einem breiten Spektrum von wichtigen wissenschaftlichen und öffentlichen politischen Themen ab“, argumentierte die Koalition der Zeitungen.

Erschienen auf The Daily Caller am 15.02.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/15/andrew-weaver-canada-climate-lawsuit/

* * *

Zur weiteren Information unserer Leser, hier die Begründung des Richters und danach eine Stellungnahme von Dr. Ball auf WUWT, (beides gekürzt).

Vorträge Dr.Weaver habe ich nicht gesucht.  Andrew J. Weaver (* 1961) ist ein kanadischer Klimaforscher, Professor an der University of Victoria, Mitglied der Legislativversammlung von British Columbia und Vorsitzender der Grünen Partei in BC.

* * *

Begründung des Richters The Honourable Mr. Justice Skolrood

[Alle Sätze, § – Punkte sind durchnummeriert]

[30] Am 3. März 2011 gab Dr. Ball schließlich folgende Entschuldigung (auf Anraten und Formulierung seines Anwaltes) heraus:

Mein Artikel mit dem Titel „Korruption des Klimawandels hat 30 verlorene Jahre verursacht“ enthielt unwahre Aussagen über Dr. Andrew Weaver, der Professor an der School of Earth und Ocean Sciences an der University of Victoria, British Columbia ist. Der Artikel wurde seitdem von der Internetseite von Canada Free Press zurückgezogen, wo er ursprünglich im Januar 2011 veröffentlicht wurde.

Im Gegensatz zu dem, was ich in meinem Artikel gesagt habe, hat Dr. Weaver: (1) nie angekündigt, dass er nicht am nächsten Zwischenstaatlichen Ausschuss für Klimaänderungen („IPCC“) teilnehmen wird; (2) hat nie gesagt, dass der IPCC-Vorsitzende zurücktreten sollte; (3) hat nie gefordert, dass der Ansatz des IPCC für die Wissenschaft überarbeitet wird; und (4) hat nicht begonnen, sich vom IPCC im Januar 2010 zurückzuziehen. Ich ziehe hiermit unzweideutig meinen Vorschlag zurück, dass Dr. Weaver versuchte, sich von der wissenschaftlichen Arbeit des IPCC zu distanzieren.

Als Ergebnis eines Nominierungsprozesses, der im Januar 2010 begann, wurde Dr. Weaver ein Hauptautor für Kapitel 12: „Langfristiger Klimawandel: Projektionen, Verpflichtungen und Irreversibilität“ des Beitrags der Arbeitsgruppe I zum Fünften Assessmentbericht von das IPCC. Diese Arbeit begann im Mai 2010. Mein Artikel versäumte es, diese Fakten zu erwähnen, obwohl sie öffentlich zugänglich waren.

Ich hatte nicht vor zu behaupten, Dr. Weaver habe versucht, mich in meine Präsentation an der Universität von Victoria einzumischen, indem ich seine Studenten dazu brachte, Leute daran zu hindern, an meinem Vortrag teilzunehmen und mich zu belästigen. Des Weiteren bestreite ich nicht, dass Dr. Weaver seine Referenzen oder seine Kompetenz als Klimaforscher und Universitätsprofessor hat. Während Dr. Weaver und ich unterschiedliche Ansichten über die Ursache der globalen Erwärmung haben, gestehe ich zu, dass Dr. Weaver zu allen Zeiten ehrlich und mit Integrität gehandelt hat.

Ich entschuldige mich aufrichtig bei Dr. Weaver und bedauere mein Bedauern über die durch meinen Artikel verursachte Verlegenheit und Notlage.

Sind die Worte verleumderisch?

[65] In seiner Anzeige zivilrechtlicher Ansprücher behauptet Dr. Weaver die folgenden inferentiellen Bedeutungen der beanstandeten Wörter in dem Artikel:

Unterpunkte a bis f [hier nicht übersetzt, Inhalt nach obiger Entschuldigung]

Argumentation des Richters

[66 Ich [der Richter] stimme mit Dr. Ball überein, dass viele der von Dr. Weaver vertretenen Bedeutungen extrem sind und nicht bestätigt werden, wenn die Wörter aus der Perspektive eines vernünftigen, richtig denkenden Lesers betrachtet werden. Dies setzt voraus, dass das Gericht die Worte objektiv beurteilt und nicht der schlimmsten Bedeutung oder Bedeutung zuordnet, die dem Kläger oder einer Person mit einer allzu fragilen Sensibilität erscheinen könnte (Color Your World, Abs. 15).

[67] Insbesondere akzeptiere ich nicht, dass der Artikel, in seiner Gesamtheit gelesen und richtig ausgelegt, die Unehrlichkeit auf Dr. Weavers Seite behauptet oder seinen Charakter in dem Sinne angreift, dass er moralische Fehler oder Schuldzuweisung anführt. Zum Beispiel gibt es, trotz der von Dr. Weaver vorgetragenen inferentiellen Bedeutungen, keine explizite oder implizite Behauptung, dass Dr. Weaver die Steuerzahler betrogen, unehrlich öffentliche Gelder erhalten oder sich schamlos mit seinen Studenten verschworen habe, um Dr. Balls Präsentation zu stören, um Dr. Balls Ansichten zu unterdrücken.

[77] Meiner Ansicht nach ist es sehr unwahrscheinlich, dass der Artikel und die darin geäußerten Meinungen, sich auf die Ansichten von irgendjemandem auswirken, der ihn liest, einschließlich der Ansichten, wenn überhaupt, von Dr. Weaver als Klimaforscher. Vielmehr würde der vernünftig denkende und informierte Leser den Artikel als eine einfache Darstellung einer hoch aufgeladenen öffentlichen Debatte erkennen.

[78] Zweitens bin ich nicht ganz davon überzeugt, dass Dr. Weaver selbst, obwohl er sich durch den Artikel als „betrübt, angeekelt und bestürzt“ bezeichnet hat, den Artikel als wirklich bedrohlich für seinen tatsächlichen Ruf empfindet.  Wie bereits erwähnt, engagiert sich Dr. Weaver seit vielen Jahren aktiv und öffentlich in der Diskussion über den Klimawandel. Dies beinhaltet die Unterstützung von politischen Kandidaten, die Politiken vorantrieben, denen er zustimmte, und die Ablehnung von Kandidaten, mit denen er nicht einverstanden war. Es ist auch ziemlich offensichtlich, dass er die „Stoß und Parade“ dieser Diskussion genießt und dass er Druck in entgegengesetzte Ansichten wie diejenigen von Dr. Ball setzt, die Dr. Weaver als „seltsam“ und „bizarr“ charakterisierte. Dr. Weaver ging so weit, den Artikel auf seiner „Mauer des Hasses“ außerhalb seines Büros, neben anderen Artikeln und Korrespondenz von „Klimazweiflern“ zu veröffentlichen.

[79] Die Frage des Klimawandels ist eine Frage des öffentlichen Interesses und, wie bereits erwähnt, ist Dr. Weaver an der Spitze der öffentlichen Diskussion. Es ist seit langem anerkannt, dass, wenn jemand in die Öffentlichkeit eintritt, zu erwarten ist, dass seine Handlungen und Worte einer gründlichen Prüfung und Kritik unterzogen werden. Zum Beispiel in Lund gegen Black Press Group Ltd , 2009 BCSC 937 [Lund], sagte Richter Bracken, in Para. 123: 

[123] Es ist wichtig für jede Gemeinschaft, dass Angelegenheiten von öffentlichem Interesse frei und offen diskutiert werden. Manchmal, in der Hitze der Diskussionen über ein kontroverses Thema, wo starke persönliche Unterschiede bestehen, machen Personen auf der einen oder anderen Seite der Debatte Kommentare, die beleidigen. Aber die Tatsache, dass sie beleidigen, ist nicht genug. Die Kommentare müssen über die starke Kritik an einem öffentlichen Mann in seiner Eigenschaft als öffentlicher Beamter hinausgehen….

[84] Angesichts dieser Feststellung muss ich nicht prüfen, ob Dr. Weaver festgestellt hat, dass der Artikel in dem Sinne veröffentlicht wurde, dass er von jemand anderem als in BC heruntergeladen und gelesen wurde. Ich brauche auch nicht auf die von Dr. Ball aufgeworfenen Abwehrmaßnahmen einzugehen.

 Fazit

[85] Die Klage von Dr. Weaver wird abgewiesen. Können sich die Parteien über die Kosten nicht einigen, können sie Vorkehrungen treffen, um zu dem Problem zu sprechen.

* * *

Zu guter Letzt, hier die gekürzte Stellungnahme von Dr.Ball auf WUWT

Gastautor: Dr. Tim Ball

…sollten die Leute wissen, dass es sich um die zweite von drei Klagen handelt, die alle von demselben Anwalt, Roger McConchie, in Vancouver im Auftrag von Mitgliedern des  IPCC eingereicht wurden

…  meiner Meinung nach das Ziel der Klage, die viele als SLAPP (Strategische Klagen gegen die Beteiligung der Öffentlichkeit) bezeichnen. Alle Klagen wurden beim Obersten Gerichtshof von British Columbia eingereicht. BC hatte mal Anti-SLAPP beschlossen, aber aus einem unbekannten Grund wurde es durch Rechtsvorschriften zurückgezogen. Die Anti-SLAPP-Gesetzgebung breitet sich aus, da Politiker und Anwälte die Gefahren erkennen, die bei der Anwendung des Gesetzes zum Schutz der Menschen entstehen, indem sie zum Schweigen gebracht werden.

…. Die zweite Klage wurde im Namen von Andrew Weaver eingereicht. Zu dieser Zeit war er Professor für Computermodellierung an der Universität von Victoria und Autor von vier IPCC Science Reports (1995, 2001, 2007, 2013).

…. Es waren neun Tage nach Erhalt der Weaver-Klage vergangen, als ich eine öffentliche Präsentation in Winnipeg hielt, einschließlich einer Erklärung des „Hockeyschlägers“. Danach wurde ich … interviewt, und sie veröffentlichten meinen oberflächlichen Kommentar über die Gegenüberstellung von Manns Standpunkte. Keine 24 Stunden später, erhielt ich die dritte Klage.

… Der Weaver-Diffamierungsfall beinhaltete einen Artikel, in dem ich schrieb, dass der IPCC fast alle Forschungsfördermittel und wissenschaftlichen Untersuchungen auf anthropogene globale Erwärmung (AGW) umgeleitet habe. Dies bedeutete, dass im weiteren Verständnis von Klima und Klimawandel praktisch kein Fortschritt zu verzeichnen war. …Ich habe Bemerkungen gemacht, die nicht vollständig begründet wurden, so dass sie zur Grundlage der Diffamierungsklage wurden. In der Zwischenzeit arrangierte Weavers Anwalt mit dem Herausgeber von Canada Free Press (CFP) eine Entschuldigung, die er geschrieben hatte. Ich wusste davon erst nach dem Druck. Daraufhin zog ich alle meine Artikel bei CFP zurück….

Dr. Ball schließt seinen Beitrag mit einem Zitat von Voltaire:

„Es ist gefährlich, in Angelegenheiten richtig zu sein, in denen Männer mit Autorität falsch liegen.“

 * * *

zusammengestellt durch Andreas Demmig




Die Fahrrad-Charger

Der Umstieg auf die Elektromobilität stellt besondere Anforderungen. Mal auf dem Nachhauseweg schnell an die Tanke, das geht so nicht. Es sei denn, man verbindet den Einkauf von Antriebsenergie mit einem ausgedehnten urbanen Abendprogramm, was aber im Wiederholungsfall gegenüber daheim ausharrenden Lebenspartnern erklärungsbedürftig ist und generell die Freizeitgestaltung einengt.

Schon immer haben neue Technologien auch Marktlücken geöffnet. Findige junge Leute gründen dann Firmen – heute Startups genannt – um in eine Lücke zu springen und mit Innovationen ein Geschäft zu machen. Üblicherweise, so der in den Qualitätsmedien verbreitete Eindruck, gründen IT-affine Nerds die Startups, um dann Computerspiele zu kreieren, Apps zum Auffinden freier Parkplätze zu programmieren oder ähnliche oft auch sinnvolle elektronische Helfer an potenzielle Kunden zu bringen. Ob die Gründer davon leben können, entscheidet der Markt und nicht alles, was funktioniert und durchaus sinnvoll ist, wird auch gebraucht und nachgefragt.

Eine besondere Idee haben drei Gründer umgesetzt, sie soll der Verbreitung der Elektromobilität helfen. Ihre Firma „chargery“ bringt den Strom zum E-Fahrzeug. Und zwar mit einem Fahrrad, samt Anhänger. Dieser ist 150 Kilogramm schwer und e-getrieben, um dem Pedalisten nicht zum Schwerstarbeiter zu machen. In diesen 150 Kilogramm sind dann 24 Kilowattstunden Strom sauber gestapelt, was nach einem etwa vierstündigen Ladevorgang in einer Berliner Nebenstraße für 160 Kilometer Fahrt reichen sollte.

Im Hänger ist – natürlich – Ökostrom. Standort der kleinen Firma ist Berlin-Mitte. Das nächstgelegene Kraftwerk ist das (Gas-)Heizkraftwerk Mitte an der Spree. Dem Kirchhoffschen Gesetz folgend, dürften alle Verbraucher in Mitte zum allergrößten Teil von diesem Heizkraftwerk mit Strom versorgt werden. Steht es in lastschwachen Zeiten still, kommt der Strom aus anderen Berliner Kraftwerken oder aus Brandenburger Braunkohle mit Windanteilen. Vertragspartner der „Chargery“ ist Lichtblick, die dann buchen, aber kein eigenes Sauberstromnetz betreiben. Na gut, wenn es dem Gewissen hilft. Bahnkunden mit Bahncard fahren ja auch mit 100 Prozent Ökostrom, während der Nachbar ohne Bahncard . . . na ja.

Zwei große Kunden haben die radelnden Batterietransporter schon, es sind Carsharingfirmen. Für sie ein denkbares Modell, denn die vielen Kurzzeitkunden dürften sich wenig Gedanken um das Nachladen machen und das Gerät halt dort abstellen, wo sie wollen und nicht ladesäulenoptimiert.

Zu Preisen und Kosten ist noch nichts zu erfahren, die Privatkundenbelieferung soll erst 2019 starten. Ein billiges Vergnügen dürfte es nicht werden, den elektrischen Tankwart kommen zu lassen. Die Investitionskosten für die e-betriebenen Hänger, der Mindestlohn für die Pedalritter, der Zeitaufwand und der Ladestrom dürfte sich bezogen auf die geladene Kilowattstunde solide aufsummieren.

Generell helfen die Gründer, den rot-rot-grünen Koalitionsvertrag umzusetzen. Dort ist im „Citylogistikkonzept“ erwähnt, dass die Letztverteilung von Waren über Lastenfahrräder erfolgen soll. Auch andere Erfinder, von Medien gern als „progressive Kräfte“ bezeichnet, setzen auf den chinesischen Weg mit Pedal und Kette. Die „last mile delivery“ sowie die „returns“ sollen mit Lösungen wie der Tretbox gesichert werden. Diese Kombination aus Cityhubs (abnehmbare Container) und elektrischen Lastenrädern ist hochskalierbar und umweltfreundlich. Eine andere Variante sieht die Lieferung an örtliche Geschäfte vor, von wo dann die Fahrradkuriere ausschwärmen.

Die ostasiatisch anmutende Zukunftsvision, wonach tausende Fahrräder samt Hänger, Fahrradrikschas, E-Bikes und Tandems Berliner Straßen verstopfen, dürfte dennoch nicht eintreten. Prinzipiell sollte zwar die nötige Anzahl radfahrender Billiglöhner bei der rekordverdächtig großen Zahl Berliner Schulabbrecher zu finden sein. Allerdings ist traditionell in der Logistik das Geld nur schwer zu verdienen, so dass die potenzielle Zielgruppe sich anderen Geschäftsbereichen zuwenden könnte, eventuell dem Kleinhandel mit Cannabis (der natürlich mit der Fahrradlogistik kompatibel, aber bedeutend einträglicher ist).

Die Universität in Berkeley (Kalifornien) forscht erfolgreich an Kleinstantrieben, die im Nanometerbereich arbeiten. Eine Amerikanerin und eine Französin erfinden die Gentechnik-Schere CRISPR, die völlig neue medizinische Horizonte eröffnet. Die Amerikaner lassen Raketenstufen nach dem Start wieder landen. Die Russen haben den Schnellen Brüter praxistauglich gemacht. In Deutschland fahren wir Batterien im Fahrradanhänger zu Elektroautos.

Der Fortschritt hat viele Gesichter.

Fotos gibt es hier




Klima-Alarmismus basiert auf Modellen (GCMs) und damit auf Nichts

Beim gegenwärtigen CO2-Niveau brauchen die Pflanzen alles davon, was sie bekommen können. Während der letzten Eiszeit war der Gehalt so gering, dass die Pflanzen und damit indirekt auch die Tiere kurz vor dem Eingehen standen. Diese CAGW-Doktrin der Klima-Alarmisten ist eine der unwissenschaftlichsten und lächerlichsten Doktrine, die je von einer großen Bewegung proklamiert worden sind – wobei sie so tun, als fuße die Doktrin auf der Basis der Wissenschaft in der Weltgeschichte.

Die Art und Weise der Konstruktion der Modelle vergewaltigt nahezu jeden Aspekt, der der Welt Vertrauen in dieselben einflößen könnte. Für keinen einzigen praktischen Zweck können sie reproduziert werden. Sie erzeugen erheblich differierende Ergebnisse je nach Wahl der Eingangsbedingungen, und sie sind so teuer, dass nur hoch finanzierte Forscher es sich leisten können, sie zu testen. Mike Jonas zufolge folgt deren Konstruktion folgendem allgemeinen Prozedere:

1) Alle bekannten (d. h. verstandenen) Faktoren wurden in die Klimamodelle gefüttert. Unbekannte Faktoren wurden geschätzt (was das IPCC ,Parametrisierung‘ nennt…).

2) Modellergebnisse werden dann verglichen mit tatsächlichen Beobachtungen, wobei sich herausstellte, dass die Erwärmung im 20. Jahrhundert nur etwa ein Drittel ausmachte.

3) Daraufhin wurden die Unbekannten in den Modellen so lange frisiert, bis sie passten.

4) Fazit: Etwa zwei Drittel der von den Modellen prophezeiten zukünftigen Erwärmung resultieren aus Faktoren, die noch gar nicht verstanden sind.

Warum GCM als Basis für Alarmismus falsch ist

Warum also sind GCMs als Grundlage für den Alarmismus so falsch? In der Antwort enthalten ist u. A. Folgendes:

(A) Die GCMs sind sehr unzuverlässig und sollten nicht als Grundlage für politische Entscheidungen herangezogen werden. Mike Jonas schreibt dazu:

„Die Modelle prophezeien allgemein ein sehr hohes Niveau zukünftiger Erwärmung und behaupten, dass die ausschließliche Ursache das CO2 ist. Die Realität ist aber natürlich, dass zwei Drittel dieser prophezeiten zukünftigen Erwärmung auf Raten beruht, und sie wissen nicht, ob sie richtig geraten haben, d. h. sie wissen nicht einmal, ob die erratenen Faktoren den Planeten überhaupt erwärmen. Sie könnten auch abkühlend wirken…

Falls immer noch jemand daran zweifelt, dass die Modelle unzuverlässig sind, dann kann vielleicht das IPCC höchstselbst so jemanden von diesem Tatbestand überzeugen. Die Arbeitsgruppe 1 des IPCC (WG 1) bewertet die physikalisch-wissenschaftlichen Aspekte des Klimasystems und des Klimawandels. Im Jahre 2007 sagte die WG1: „wir sollten erkennen, dass wir es mit einem gekoppelten, nicht linearen und chaotischen System zu tun haben, weshalb die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist“.

(B) Die in die GCMs eingehenden Daten der globalen mittleren Temperatur sind von den Klima-Alarmisten bis zu einem Ausmaß manipuliert worden, dass die Daten nicht mehr repräsentativ und damit wertlos sind. Einem neuen Report zufolge sind die von den Alarmisten herangezogenen Datensätze kein valides Abbild der Realität einschließlich der von ihnen wiederholt aufgestellten Behauptungen der höchsten Temperaturen jemals. Der neue Forschungsbericht belegt, dass die von IPCC und EPA verwendeten Datensätze nicht ausreichend glaubwürdig sind, um für politische Zwecke zu Rate gezogen werden zu können.

Weiter aus dem Report: „Die Größenordnung ihrer Adjustierungen historischer Daten, so dass deren zyklische Natur eliminiert wurde, sind absolut inkonsistent mit veröffentlichten und glaubwürdigen US- und anderen Temperaturdaten. Folglich ist es unmöglich, aus den drei veröffentlichten Datensätzen abzuleiten, dass die letzten Jahre die wärmsten jemals waren – trotz der immer neuen Behauptungen einer Rekorde brechenden Erwärmung“.

(C) Die GCMs haben grundsätzlich viel wärmere Ergebnisse hervorgebracht als von Satelliten gemessen. Diese Satelliten-Temperaturmessungen sind eine der wenigen Unterlagen, die bislang nicht seitens der Alarmisten willkürlich manipuliert worden sind.

(D) Gekoppelte, nicht lineare und chaotische Systeme können nicht sinnvoll modelliert werden.

Der von den Alarmisten verwendete Verkehrt-Herum-Ansatz [bottom-up approach] auf der Grundlage von Wettermodellen ist inhärent ungeeignet für diesen Zweck und wurde niemals validiert. Genau wie Wettermodelle verlieren sie ihre Validität innerhalb weniger Wochen, obwohl die Alarmisten uns glauben machen wollen, dass deren Ergebnisse auch in 100 Jahren noch valide sind. Und die Klima-GCMs sind noch viel weniger valide als die Wettervorhersage-Modelle, weil sie so vereinfacht werden müssen, dass man sie überhaupt mit Computern rechnen kann. Derartiger Blödsinn ist kaum zu glauben und sollte nicht angestellt werden.

Meine vorgeschlagene Alternative

Was also sollte meiner Ansicht nach an die Stelle der teuren und nutzlosen Klima-GCMs treten? In einem Satz: ausgewogene ökonometrische Studien auf der Grundlage angemessener simultaner Gleichungen. Ökonometrie wurde lange von Industrien und Akademikern angewendet, mit sichtlichen Erfolgen. Sie weist nicht die Probleme auf, die bei der Porträtierung eines chaotischen Systems mittels linearer Gleichungen auftreten. Sie ist im Vergleich mit Klima-GCMs sehr billig und sogar dann noch empfehlenswert, wenn sie nicht von Alarmisten benutzt wird. Es sagt dem Leser, welche natürlichen Faktoren mit Temperaturänderungen korreliert sind in dem Zeitraum, aus dem die Daten stammen.

Eine der wenigen ökonometrischen Studien, die bis heute geschrieben worden sind, besagt, dass CO2 keine signifikanten Auswirkungen auf die Temperatur hat. Dies bedeutet nicht, dass man in einem Labor irgendwelche Auswirkungen findet, aber in der realen Welt und über die betrachteten Zeiträume sind Auswirkungen nicht feststellbar. Außerdem geht aus dem Report hervor, welche natürlichen Vorgänge wie viel Einfluss ausüben. Dies geht aus den verwendeten Daten hervor und nicht aus dem, was die „Wissenschaftler“ glauben, wie sich das Klima verhält. Dies erklärt, warum Temperaturvariationen vollständig erklärt werden können durch die Auswirkungen natürlicher Phänomene, ohne vom Menschen verursachte Auswirkungen bemühen zu müssen.

Die gesamte CAGW-Hypothese der Klima-Alarmisten ist nichts weiter als eine widerlegte Hypothese – trotz der schätzungsweise bisher aufgewendeten 100 Milliarden Dollar für GCM-Modelle und andere Forschungen sowie etwa 1,5 Billionen Dollar, die auf der Grundlage der Modelle bislang ausgegeben worden sind. Dies ist zweifellos die schlimmste, auf Betrug basierende Wissenschaft zu einem grundlegenden politischen Komplex in der Weltgeschichte. Lieferanten von Windmühlen und Solarpaneelen haben sich viele Billionen Dollar in die Taschen gestopft auf der Grundlage betrügerischer und nutzloser GCM-Modelle – unter tatkräftiger Mithilfe von Medien, Regierungen und der Akademia (welche nur zu oft reich belohnt worden sind wegen ihrer irreführenden und nutzlosen Modelle) [hier].

Link: http://www.carlineconomics.com/archives/4151

Übersetzt von Chris Frey EIKE




Eine barrierefreie Erklärung für die hemisphärische Temperaturgenese auf unserer Erde

Bei der Nutzung von Kohle, Öl und Gas wird aber zusätzliches CO2 erzeugt. Und deshalb wird befürchtet, der vom Menschen verursachte CO2-Ausstoß würde schließlich zu einer globalen Klimakatastrophe führen.

Diese Auffassung ist grundlegend falsch.

Die Temperaturgenese auf unserer Erde ist allein von der Sonneneinstrahlung abhängig. Die Sonne scheint aber nur am Tage und niemals in der Nacht. Und je höher die Sonne mittags am Himmel steht, umso höher ist üblicherweise auch die örtliche Temperatur. Gerade deshalb fahren ja so viele Menschen aus dem Norden in ihrem Urlaub in den Süden.

Stellen wir uns einmal ein Haus im tiefsten Winter vor. Dann messen wir von außen die Abstrahlungstemperatur dieses Hauses mit minus 18 Grad Celsius und behaupten, das wäre auch die Innentemperatur dieses Hauses.

  • Das entspricht dem üblichen Ansatz für die theoretische Temperatur unserer Erde

Dieses Haus hat aber eine Heizung, und die läuft auf vollen Touren. Die Vorlauftemperatur wird vom Wirkungsgrad der Heizung bestimmt. Dieser Wirkungsgrad entspricht demjenigen Anteil am Brennstoff, der tatsächlich in Wärme umgewandelt wird. Die erzeugte Vorlauftemperatur wird dann durch Rohrleitungen und offene Türen im ganzen Haus verteilt.

  • Das entspricht dem hemisphärischen Temperaturansatz für die Tagseite der Erde

Und weil wir die Einstellung der Heizung nicht kennen, müssen wir die tatsächliche Temperatur im Haus selber nachmessen.

  • Und das entspricht dann der gemessenen globale Durchschnittstemperatur der Erde

Die theoretisch berechnete Temperatur unserer Erde beträgt etwa minus 18 Grad Celsius. Die gemessene Durchschnittstemperatur der Erde liegt dagegen bei etwa plus 15 Grad Celsius. Die Differenz von etwa 33 Grad Celsius zwischen diesen beiden Temperaturen wird als „natürlicher“ Treibhauseffekt unserer Atmosphäre bezeichnet, der sich angeblich ständig aus sich selbst heraus erzeugt.
Wir betrachten bei dieser Rechnung aber nicht die Realität auf unserer Erde, sondern lediglich eine ferne Abstraktion. Mit in dieser Betrachtung bewegen wir uns nämlich ganz weit weg von der Erde und tun rückblickend einfach einmal so, als sei die Erde ein selbst leuchtender Stern wie unsere Sonne. Und wenn ein solcher Himmelskörper auf seiner gesamten Oberfläche genau so viel Leistung abstrahlt, wie die Erde auf ihrer Tagseite von der Sonne erhält, dann hätte er tatsächlich eine rechnerische Temperatur von minus 18 °Celsius.

Irgendetwas an dieser Betrachtung stimmt also nicht, denn wir stellen damit die gemessene Durchschnittstemperatur auf unserer Erde von plus 15 Grad Celsius einer imaginären Abstrahlungstemperatur von minus 18 Grad Celsius gegenüber und postulieren daraus dann einfach einen selbstaufheizenden Effekt von 33 Grad Celsius.

Stellen wir uns einmal vor, dass wir bei minus 18 Grad Außentemperatur in ein ungeheiztes Haus kommen. Wenn wir dort dann eine selbstgemachte Innentemperatur von plus 15 Grad erwarten, dann liegen wir damit völlig falsch.

Tatsächlich müssen wir in einem ungeheizten Haus nämlich zunächst einmal die Heizung voll anstellen. Erst dann steigt die Innentemperatur, und das zunächst auch nur ganz langsam. Denn das ganze Haus muss ja zunächst einmal aufgeheizt werden. Und erst, wenn die am Thermostat eingestellte Temperatur im ganzen Haus erreicht ist, würde die Heizung die Wärmezufuhr schließlich wieder drosseln und die Temperatur konstant halten.
Denn dann müssen nur noch die Wärmeverluste ersetzt werden. Und genau diese Wärmeverluste spiegeln uns dann eine Abstrahlungstemperatur von minus 18 Grad Celsius vor.

Wie wir jeden Tag erleben können, erhält unsere Erde nur auf ihrer Tagseite Sonnenlicht. Die temperaturwirksame Strahlungsmenge wird dabei von der Rückstrahlfähigkeit der Erde bestimmt, die man Albedo nennt. Unsere Erde reflektiert 30 Prozent der einfallenden Sonneneinstrahlung unbenutzt in den Weltraum zurück, sodass der Wirkungsgrad unserer Solarheizung 70 Prozent beträgt.
Am Äquator zwischen den Wendekreisen, wo die Sonneneinstrahlung am stärksten ist, werden Atmosphäre und Ozeane ständig aufgeheizt, und zwar mit einer Strahlungstemperatur von bis zu plus 85 Grad Celsius. Von dort aus wird die Wärme mit den globalen Windsystemen und Meeresströmungen abgeführt und zu den kalten Polkappen verfrachtet. Das ist die kombinierte Warmluft- und Warmwasserheizung unserer Erde.
Unsere Erde besitzt gegenwärtig eine ziemlich konstante Durchschnittstemperatur. Bei dieser konstanten Durchschnittstemperatur von plus 15 Grad verliert sie über ihre gesamte Oberfläche also ständig genau so viel an Strahlung, wie sie gleichzeitig von ihrer Solarheizung geliefert bekommt. Und wie wir schon gesehen haben, ist diese Abstrahlungstemperatur dann viel niedriger als die tatsächlich auf der Erde gemessene Temperatur, also ganz ähnlich wie bei einem beheizten Haus.

Wir wissen nun aus Baumringen, Tropfsteinen und Sedimentablagerungen, dass es auf unserer Erde in der geologischen Vergangenheit schon mehrfach Eiszeiten gegeben hat. Damals war die Durchschnittstemperatur viel niedriger als heute.
Weil aber die Strahlungsleistung der Sonne nur ganz wenig schwankt, kann sie nicht die Ursache für solche großen Temperaturveränderungen gewesen sein. Vielmehr muss sich der Wirkungsgrad unserer Solarheizung verändert haben. Denn wenn durch eine Erhöhung der Rückstrahlfähigkeit unserer Erde mehr Sonnenlicht „unbenutzt“ ins Weltall zurückgeworfen wird, dann sinkt mit dem Wirkungsgrad natürlich entsprechend die Vorlauftemperatur der Heizung. Und damit sinkt dann auch die gemessene Durchschnittstemperatur.
Den genauen Zusammenhang zwischen dem Wirkungsgrad der Solarheizung und der Durchschnittstemperatur unserer Erde kennen wir noch immer nicht. Das Einzige, was wir für unsere Erde also sicher aussagen können ist, dass im Augenblick die Rückstrahlfähigkeit unserer Erde 30 Prozent beträgt. Damit hat unsere Solarheizung einen Wirkungsgrad von 70 Prozent und die gemessene Durchschnittstemperatur unserer Erde beträgt plus 15 °Celsius.

Bei einem Haus hängen die Temperatur seiner Außenhaut, die regelbare Vorlauftemperatur seiner Heizung und die gemessene Innentemperatur eng miteinander zusammen. Vergleichbar damit hat unsere Erde eine Abstrahlungstemperatur, eine von ihrer Rückstrahlfähigkeit abhängige Einstrahlungstemperatur und eine gemessene Durchschnittstemperatur. Ein „natürlicher“ atmosphärischer Treibhauseffekt zur Erklärung der Temperatur auf unserer Erde ist also gar nicht nötig.

Es gibt übrigens noch eine weitere Parallele zwischen der Heizung eines Hauses und der Heizung unserer Erde: Heizungsbauer werben manchmal mit einem Wirkungsgrad von über 100 Prozent für Brennwertthermen, was den Eindruck erweckt, es würde von denen mehr Wärme erzeugt als der Brennstoff eigentlich hergibt. Diese Darstellung lässt sich ganz einfach auf einen unzulässigen Vergleich von zwei unterschiedlichen Systemen zurückführen, wobei das alte Heizungsprinzip als 100%-Basis fungiert und jedes bessere Prinzip dann zwangsläufig über 100% liegen muss. So ähnlich ist das auch mit dem „natürlichen“ atmosphärischen Treibhauseffekt. Man stellt einfach die theoretische Temperatur eines selbststrahlenden Sterns von minus 18 Grad Celsius der gemessenen Durchschnittstemperatur unserer Erde von plus 15 Grad Celsius gegenüber. Und die Differenz dieser beiden unterschiedlichen Systeme von 33 Grad Celsius bezeichnet man dann als „natürlichen“ atmosphärischen Treibhauseffekt unserer Erde…

Übrigens: Der hemisphärische Stefan-Boltzmann Ansatz genügt auch dem Sparsamkeitsprinzip (Ockhams Rasiermesser). Denn dieser S-B Ansatz erklärt die globale Temperaturgenese allein aus der natürlichen Interaktion zwischen Sonne und Erde, also ohne die Hilfskonstruktion eines bisher nicht nachgewiesenen Atmosphäreneffektes, der zudem noch die Gesetze der Thermodynamik verletzen würde.

Die ausführliche Beschreibung der hemisphärischen Temperaturgenese ist nicht barrierefrei.Gesamtdarstellung hem-S-B Ansatz-uw-2018-02-17




Die Lösung des EEG-Problems wurde von der EU gestartet – Energie (in Deutschland) immer teurer zu machen, bis sie niemand mehr „benötigt“

Die Reform: Den Preis drastisch erhöhen, und zwar verlässlich

Was NGOs [4] [7], andere Länder und in deren Schlepptau unsere Umweltministerin laufend fordern:
Die Bundesregierung: [3]
Ein wirksamer CO2-Preis muss steigen
… Bundesumweltministerin Barbara Hendricks sprach sich gemeinsam mit ihren Kollegen aus Frankreich, dem Vereinigten Königreich, Schweden und den Niederlanden dafür aus, den CO2-Ausstoß mithilfe eines „wirksamen Preises“ zu senken.
Der CO2-Preis sei ein effektives Mittel, um den Ausstieg der Weltwirtschaft aus fossilen Brennstoffen voranzutreiben, weil er etwa die Stromgewinnung aus Kohle teurer mache, so Hendricks. Derzeit gibt es in der EU zwar einen Emissionshandel, der CO2-Preis ist aber so gering, dass er kaum Auswirkungen zeigt.
Die Ministerinnen und Minister unterstrichen, dass die Bepreisung von CO2-Emissionen verlässlich sein sollte. Das Preisniveau muss im Laufe der Zeit so erhöht werden, dass das Ziel des Pariser Übereinkommens erreicht wird, die Erderwärmung auf deutlich unter zwei Grad zu begrenzen
.
In Deutschland jedoch noch nicht umgesetzt werden konnte, hat die EU nun mit Unterstützung Deutschlands (als Zahlmeister) und Frankreichs (als einer der Profiteure) dankenswerter Weise übernommen:
KLIMARETTER.INFO Dienstag, 06. Februar 2018: [1]
Neuer Emissionshandel beschlossene Sache
Die Abgeordneten im Europäischen Parlament haben die Reform des EU-Emissionshandels verabschiedet, die damit praktisch in trockenen Tüchern ist. Sie wird den Preis pro Tonne CO2 deutlich erhöhen – allerdings nicht auf die magische Grenze von 30 Euro, die als echter Anreiz für klimafreundliche Investitionen gilt.
Innerhalb des kommenden Jahrzehnts soll sich der CO2-Preis im EU-Emissionshandel ungefähr verdreifachen. Das Europäische Parlament hat die Reform des Emissionshandels verabschiedet, an der es gemeinsam mit dem Ministerrat seit Jahren arbeitet. Die Regelungen betreffen die Zeit von 2021 bis 2030. Damit ist die Gesetzesänderung quasi in trockenen Tüchern.

Bei solchen Summen musste die EU und manche Nachbarn einfach gierig werden

Betrachtet man die (künftigen) Summen des Zertifikatehandels, wird klar, warum die EU-Bürokratie – und Länder, welche daran partizipieren – mehr als „gierig“ danach sind. Alleine mit der Emission von Deutschland sprudeln bald viele Milliarden Euros jährlich. In der Tabelle sind nur die Daten der Stromgewinnung hinterlegt. Mit der geplanten Ausweitung auf alle Emissionsbereiche vervielfachen sich diese Werte.

Tabelle 1 CO2-Daten und Zertifikatekosten Deutschland auf Basis 2015. Quelle CO2-Daten: [5], Tabelle 3
Die „Denkfabrik“ Agora zeigt, wie man sich die „ideale“ Zertifikatepreis-Entwicklung vorstellt. Es ist das gleiche Modell, wie es die Kirche einst zur Finanzierung des Petersdomes erfunden hatte. Verspreche einen imaginären, nicht konkret messbaren Vorteil (weniger CO2 = ideale Welttemperatur) und bepreise ihn. Die gläubige Anhängerschar wird das Geld hoffnungsvoll im Kasten klingeln lassen.

Bild [4]

Und weil es „viel Ehre“ bringt, fordern Unternehmen (natürlich nicht selbst) noch etwas draufzulegen

Viel ist noch nicht genug. Nachdem in unserer Gesellschaft auch Firmen und Institutionen nach „Ökokarma“ gieren, um öffentliche Aufmerksamkeit zu erhalten (und damit werben zu können), soll die Politik nach deren Pfeife tanzen und das CO2-Zertifikatesystem um Sektoren erweitern:
[7] UnternehmensGrün (Mitgliederliste):
Die unterzeichnenden Unternehmen und Verbände unterstützen hierzu den offenen Brief … der u.a. folgende Leitplanken für einen Passus im Koalitionsvertrag formuliert:
… Eine Konkretisierung und
Ausweitung einer CO2-Bepreisung auf alle Sektoren (Strom, Wärme, Verkehr), die konform zum Europäischen Emissionshandel ist …
… Aufbauend auf dem EU-ETS und nationalen CO
2-Bepreisungen eine Initiative zu beschließen, die wirksame CO2-Preise in allen Sektoren auf europäischer Ebene einführt.

Unser Parlament kann man auflösen –gemacht wird, was die EU vorgibt

Dass unsere Parteien nichts vom Wählerwillen halten und Regieren als nicht mehr zeitgemäß betrachten, zeigt der Koalitionsvertrag. Eindeutig steht darin, dass man eine eigenständige Politik aufgegeben hat, da EU-Recht ohne Diskussion 1:1 umgesetzt wird.
GroKo Vertrag [10]: 6465 EU-Recht setzen wir 1:1 um
Daran anschließend erzählen und beweihräuchern sich die Koalitionäre, wie sie in Zukunft schaffen werden, was sie in der Vergangenheit nicht erreicht haben:
GroKo Vertrag [10]: … Wir werden zeigen, dass anspruchsvoller Klimaschutz, wirtschaftliche Prosperität und sozialer Ausgleich erfolgreich vereinbar sind. Mit dem weiteren Ausbau der erneuerbaren Energien und dem bereits weit fortgeschrittenen Ausstieg aus der Kernenergie haben wir wichtige Grundlagen für die Zukunft gelegt. Wir werden nun ein neues integriertes Energiesystem schaffen aus Erneuerbaren, Energieeffizienz, einem beschleunigten Ausbau der Stromnetze, einer schrittweisen Reduzierung der Stromerzeugung aus fossilen Energieträgern und einer forcierten Nutzung der Digitalisierung. Klima- und Umweltverträglichkeit, Versorgungssicherheit und Bezahlbarkeit sind die Eckpfeiler dieser Energiepolitik.
… Den EU-Emissionshandel wollen wir als Leitinstrument weiter stärken. Unser Ziel ist ein CO2-Bepreisungssytem, das nach Möglichkeit global ausgerichtet ist, jedenfalls aber die G20-Staaten umfasst …

Das eigene Volk kennt man nicht mehr

Bezahlbarkeit ist ein relativer Begriff. Deutschland hat in Europa inzwischen den Spitzenplatz beim Strompreis für den privaten Verbraucher erreicht [6]. Es stört nicht, schließlich hat der Untertan kein Anrecht auf billige Energie [8].
Und deshalb kommt der private Stromverbraucher – der eigentlich „das Volk“ repräsentiert, im Vertrag gar nicht mehr vor. Nur die NGOs und Interessensverbände dürfen sich in diesem „Geldregen“ weiter tummeln und Vorschläge machen, wie man diesen ausweiten kann. Gut, es wird auch daran gedacht, eine Folgenabschätzung zu starten. Allerdings mit unwichtigem Ergebnis, denn die Ziele dürfen dadurch nicht gefährdet werden.
GroKo Vertrag [10]: … „Wir werden eine Kommission „Wachstum, Strukturwandel und Beschäftigung“ unter Einbeziehung der unterschiedlichen Akteure aus Politik, Wirtschaft, Umweltverbänden, Gewerkschaften sowie betroffenen Ländern und Regionen einsetzen, die auf Basis des Aktionsprogramms Klimaschutz 2020 und des Klimaschutzplans 2050 bis Ende 2018 ein Aktionsprogramm mit folgenden Elementen erarbeiten soll:
– Maßnahmen, um die Lücke zur Erreichung des 40 Prozent-Reduktionsziels bis 2020 so weit wie möglich zu reduzieren,
– Maßnahmen, die das 2030-Ziel für den Energiesektor zuverlässig erreichen, einschließlich einer umfassenden Folgenabschätzung,
– einen Plan zur schrittweisen Reduzierung und Beendigung der Kohleverstromung, einschließlich eines Abschlussdatums und der notwendigen rechtlichen, wirtschaftlichen, sozialen und strukturpolitischen Begleitmaßnahmen und
– die finanzielle Absicherung für den notwendigen Strukturwandel in den betroffenen Regionen und einen Fonds für Strukturwandel aus Mitteln des Bundes“.

Fazit

Wenn es nicht irgendwann oppositionellen Parteien gelingt, diesen CO2-hysterisch begründeten Umverteilungswahnsinn zu stoppen, leiden folgende Generationen bald wirklich. Nicht am sich vielleicht leicht erwärmenden Klima, sondern vor allem am immer schneller dahinschmelzenden, privat noch verfügbarem, monetären Budget.
Dann gehen auch die Visionen „großer Denker“ in Erfüllung, denen dies (selbst wie verbeamtet und damit wenig betroffen) für das gemeine Volk vorschwebt:
[9] H. P. Gensichen, Gründungskurator der Deutschen Bundesstiftung Umwelt, in: Der Klimawandel: Brennpunkt globaler, intergenerationeller und ökologischer Gerechtigkeit Armut wird uns retten:
These 5 (Arme leben zukunftsfähig): Die Seligkeit der Armen und Randexistenzen – ArmSeligkeit – holt die Zukunft des Reiches Gottes in die gesellschaftliche Gegenwart. Das gegenwärtige Leben der Armen ist zukunftsfähig und zukunftsträchtig.
These 10 (Ein gemeinsamer Wohlstand): Südliche Theorie der Befreiung aus der Armut und Nördliche Theorie der Befreiung zur Armut und aus dem Reichtum heraus sind verwandt, allerdings über Kreuz. Eine akzeptierte und gestaltete Süd-Nord-Annäherung der Entwicklungsniveaus drückt diese Verwandtschaft aus: Eine dortige Befreiung aus der Armut und eine hiesige Befreiung in die Armut haben
ein gemeinsames Ziel: Einen globalen Wohlstand etwa auf dem Niveau von Chile bzw. Slowenien.

Quellen

[1] KLIMARETTER.INFO Dienstag, 06. Februar 2018: Neuer Emissionshandel beschlossene Sache

[2] ECOKompass Erneuerbare Energie 16.01.2015: Studien: Atom- und Kohlestrom sind schmutzig, aber nicht billig

[3] Die Bundesregierung 12.12.2017: Pariser Gipfel „One Planet Summit“ CO2-Preis muss steigen

[4] Agora Dr. Patrick Graichen BERLIN, 13. JANUAR 2016:: Elf Eckpunkte für einen Kohlekonsens Konzept zur schrittweisen Dekarbonisierung des deutschen Stromsektors

[5] arepo consult: Kurzanalyse der nationalen Treibhausgasemissionen fürdasJahr2016 (Kurzstudie für die Bundestagsfraktion Bündnis90/DieGrünen)

[6] EIKE 30.01.2018: Deutschland hat in Europa einen neuen Spitzenplatz erklommen – beim Strompreis

[7] UnternehmensGrün, 9. November 2017: In: Nachhaltige Wirtschaftspolitik, Pressemitteilungen Mit dem CO2-Preis im Koalitionsvertrag kommt auch der Kohleausstieg

[8] Basler Zeitung 29.01.2018: Das dicke Ende der Energiewende, Forscher, deren Arbeit vom Bund finanziert wird, fordern Umerziehungsprogramme und staatliche Agenten.

[9] Die deutschen Bischöfe Kommission für gesellschaftliche und soziale Fragen Kommission Weltkirche, Nr. 29, September 2006, Mit einem Geleitwort des Vorsitzenden der Deutschen Bischofskonferenz: Der Klimawandel: Brennpunkt globaler, intergenerationeller und ökologischer Gerechtigkeit Ein Expertentext zur Herausforderung des globalen Klimawandels.

[10] Entwurf KoaV, Stand 07.02.2018: Ein neuer Aufbruch für Europa Eine neue Dynamik für Deutschland Ein neuer Zusammenhalt für unser Land Koalitionsvertrag zwischen CDU, CSU und SPD




„Treibhaus Erde“ – zur Magie des „natürlichen Treibhauseffektes“

„Treibhaus Erde“ – zur Magie des „natürlichen Treibhauseffektes“

 

Wer heutzutage immer noch nicht glaubt, dass die Erde ein „Treibhaus“ ist und es einen ganz „natürlichen Treibhauseffekt“ gibt und  Das ist zwar kein wissenschaftliches Argument, aber eine Einschüchterung, bitte keine weiteren Fragen zu stellen. Wer es dennoch wagt, der braucht enormen Mut und fachliches Stehvermögen, ist allen möglichen Anfeindungen ausgesetzt. Doch so plausibel die Theorie vom wundersamen „natürlichen Treibhauseffekt“ auch scheinen mag, sie ist weder durch Beobachtung noch Wahrnehmung gesichert.

Doch jede abstrakte Theorie, die nicht experimentell untermauert werden kann, bleibt graue Theorie, solange sie nicht durch wissenschaftliche Beobachtungen bestätigt wird. Doch etwas für wahr zu halten, heißt, dass man es nicht weiß, aber vorsorglich glaubt. Solange der „natürliche Treibhauseffekt“ nicht nachgewiesen ist, ist seine Behauptung zweifelhaft. Die reine Zahl von „33 Grad“ verspricht zwar Genauigkeit und Objektivität, doch ist sie deswegen auch wahr oder nur ein ideologisches Hirnkonstrukt?

 

Die „Welt der Physik“ und das „Treibhaus Erde“ von Klaus Heinloth

Am 13. April 2007 beschrieb der Bonner Physiker Klaus Heinloth das „Treibhaus Erde“ wir folgt: „Seit Jahrmillionen existiert auf der Erde der Treibhauseffekt. Ohne ihn gäbe es kaum Leben auf diesem Planeten. Doch der Mensch verstärkt ihn durch die Nutzung fossiler Brennstoffe. Dies hat eine globale Erwärmung mit weitreichenden Konsequenzen zur Folge.“ So beginnen Märchen, aber keine wissenschaftlichen Texte. Folglich ist keiner der vier Sätze richtig und wahr!

Heinloth schreibt weiter: „Das „Treibhaus Erde“ wird von der Sonne geheizt. Dabei ist die Energiebilanz zwischen Energieeinstrahlung von der Sonne auf die Erde und die Energieabstrahlung von der Erde in den Weltraum ausgeglichen“. Der erste Satz stimmt, doch der zweite ist unwahr und wider besseres Wissen gelogen. Die Unterstellung eines „Strahlungsgleichgewichtes“ zwischen der „Energieeinstrahlung von der Sonne“ und der „Energieabstrahlung von der Erde“ ist ein ideologischer Akt, der auf einer Vergewaltigung des naturwissenschaftlichen Erkenntnisvermögens beruht. Die Einstrahlung der Sonne mit einem Maximum bei 0,5 Mikrometern ist um 107 Zehnerpotenzen stärker und steht bei weitem nicht im „Gleichgewicht“ mit der Abstrahlung der Erde, dessen Maximum bei einer globalen Einheitstemperatur von +15° C bei 10 Mikrometern liegt. Ebenso abwegig wäre die Behauptung, es gäbe ein „Strahlungsgleichgewicht“ zwischen einer glühenden Herdplatte und einer Menschenhand.

Paul Heinloth schreibt weiter: „Die Heizleistung der Sonne beträgt im globalen und jahreszeitlichen Mittel über die ganze Erde 236 W/m2.“ Bei dieser Heizleistung würde sich „im globalen und jahreszeitlichen Mittel eine Temperatur von -18° C“ einstellen. Tatsächlich beträgt aber „im globalen und jahreszeitlichen Mittel“ die Temperatur +15° C. Die Differenz von „33 Grad“ sei Ausdruck des „natürlichen Treibhauseffektes“. Auf diesen Glaubenssatz fußt die Hypothese von der Erde als „Treibhaus“. Auf solch fragwürdigem Fundament beruht die gesamte Klimapolitik, die vorgibt, mit der Reduktion von CO2-Emissionen das Klima stabilisieren, den Klimawandel stoppen und die Klimakatastrophe abwenden zu können. Doch alles, was Prof. Dr. Klaus Heinloth, der auch in der Enquete-Kommission Vorsorge zum Schutz der Atmosphäre von 1987 saß, beschreibt, hat mit der Natur nichts zu tun. Alle physikalischen Vorgänge spielen sich beim Wetter ab und nicht bei dessen Ableitung, dem Klima als fiktivem „mittleren Wettergeschehen“.

 

Nun aber „zur Sache“ Herr Prof. Dr. Klaus Heinloth

Unstrittig ist einzig die Aussage, dass die „Erde“ von der Sonne geheizt wird. Nicht nur das, alles Leben auf der Erde hängt energetisch von der Sonne ab. Die Dimensionen der Sonne sind gigantisch. Die Sonne hat einen Durchmesser von fast 1,4 Millionen km und ein Volumen von etwa 1,3 Millionen Erdkugeln. Ihre gewaltige Energie bezieht die Sonne aus der Verschmelzung von Wasserstoffkernen zu Helium. In jeder Sekunde werden 4,5 Billionen Gramm stofflicher Materie in Energie umgewandelt und radial ins Universum abgestrahlt.

Die Energie, die die Sonne unseres Planetensystems in den Weltraum strahlt, ist gewaltig. Hier ein Bespiel: Man stelle sich vor, die Erde wäre von einem 1000 km dicken Eispanzer umgeben. Was würde geschehen? Die Energie, die von der Sonne in einer Sekunde ausgestrahlt wird, würde ausreichen, diesen dicken Eispanzer zu schmelzen und zudem das Wasser zum Sieden zu bringen. Welche Milchmädchenrechnung liegt der Aussage von Prof. Dr. Heinloth zugrunde, dass die „Heizleistung“ der Sonne nur 236 W/m2 entspreche und nur eine Welteinheitstemperatur von -18° C erzeuge? Warum der Befehl „Es werde Licht!“, wenn das Licht nicht einmal die Energie hat, um die Erde zu enteisen? Doch der Fehler liegt nicht bei der Natur, sondern bei einem Menschen, der sich intellektuell weit über der Natur stehend wähnt und von einem völlig falschen Ansatz her glaubt, das Klima und damit die Welt retten zu können.

Wie sieht also die „Beweisführung“ aus, doch was ist künstlich konstruiert? Es heißt: „Seit Jahrmillionen existiert auf der Erde der Treibhauseffekt“. Folglich war davor die Erde vereist. Doch wie konnten auf einer „vereisten Erde“ im warmen Ozeanwasser vor etwa 2,5 Milliarden Jahren die ersten Vorläufer der heutigen Cyanobakterien damit anfangen, das Sonnenlicht zur Photosynthese zu nutzen, als Abfallprodukt Sauerstoff freizusetzen und die Basis für das „grüne Kleid“ der Erde zu schaffen? Der Sauerstoff, den wir heute atmen, entstand langsam in Jahrmillionen durch die Tätigkeit der grünen Pflanzen. Sie fangen mit ihrem grünen Blattfarbstoff, dem Chlorophyll, Lichtstrahlen auf, deren Energie sie dazu benutzen, das Kohlenstoffdioxid in Kohlenstoff und Sauerstoff zu spalten. Der Kohlenstoff wird dabei mit Wasser zu Zucker und zu Stärke verarbeitet, von denen sich die Pflanze nährt, während der Sauerstoff in die Luft entweicht. CO2 war aufgrund des Vulkanismus in der Luft reichlich vorhanden, ebenso wie Wasserdampf. Tausende von Vulkanen spien beide für das Wachstum grüner Pflanzen wichtigen Grundstoffe täglich aus.

Die zunächst sauerstofflose Atmosphäre enthielt überwiegend Stickstoff, Wasserdampf und Kohlenstoffdioxid. Verlässliche Schätzungen gehen davon aus, dass der CO2-Gehalt mindestens bei 20 aber eher bei 30 Prozent gelegen habe, um den heutigen O2-Gehalt von fast 21 Prozent zu erklären. Doch dieser enorme H2O- und CO2-Gehalt führten zu keinem Super-Treibhaus-Effekt, sondern es passierte das Gegenteil. Die Erde samt Atmosphäre kühlte weiter ab unter 100° Celsius. Der Wasserdampf konnte kondensieren. Gewaltige Regenmengen stürzten vom Himmel herab, ergossen sich über die Hänge, füllten die Senken, bildeten Meere und Ozeane. Man muss also schon die evolutionäre Realität reichlich ideologisch verbiegen, um sich das Märchen eines „natürlichen Treibhauseffekt“ auszudenken.

Schaut man sich das vielfältige „grüne Kleid“ der Erde genauer an und die Unmenge an Ökosystemen, dann weiß man, dass mit den Wechseln von Tag und Nacht wie auch der Jahreszeiten die Sonnenenergie sehr ungleich über die Erde verteilt wird. Überall gibt es anderes Wetter mit anderen Temperaturverteilungen. Die Heizleistung der Sonne beträgt an der Obergrenze der Atmosphäre bei senkrechtem Strahlungseinfall etwa 1368 W/m2. Doch nur entlang des Äquators fällt kurzfristig über Mittag die Sonne senkrecht auf die Erde, wirft der Mensch keinen Schatten. Der Neigungswinkel der Sonnenstrahlung ändert sich permanent und allein darauf reagieren die Temperaturen. Das Temperaturmosaik ändert sich permanent und das führt zu dem sprichwörtlich „chaotischen Charakter“ der Luftströmungen wie des Wetters.

Natürlich bleibt es der klimawissenschaftlichen Phantasie vorbehalten, die Erdkugel als „schwarzen Körper“ zu betrachten und in einen „schwarzen Hohlraum“ hineinzudenken. Dies machten die beiden Physiker Stefan und Boltzmann und entwickelten das Stefan-Boltzmann-Gesetz. Ein „Schwarzer Körper“, repräsentiert durch einen „Hohlraum“ ist nach Kirchhoff ein Körper, der alle Strahlung aller Wellenlängen absorbiert, sich also von allen Körpern am schnellsten erwärmt, aber sich zugleich auch am schnellsten abkühlt. Von allen Körpern in der Natur ist frischgefallener weißer Schnee am „schwärzesten“. Im sichtbaren Bereich blendet er, doch im unsichtbaren wärmenden Infrarotbereich ist er pechschwarz. Daher heißt es im Volksmund: „Schnee schmilzt wie Butter in der Sonne“.

Das Stefan-Boltzmann-Gesetz setzt Strahlung direkt in Temperatur um. Die Formel lautet: Die Strahlung S ist proportional der 4. Potenz der absoluten Temperatur. Gibt man S vor, so kann man jede beliebige Temperatur berechnen, ob sie sinnvoll ist oder nicht. Man kann die Erde als „schwarzes Kohlestäubchen“ in einen Hohlraum hineindenken und mit S spielen. Wenn man die „Solarkonstante“ von 1368 W/m2 durch vier teilt, dann hebt man rechnerisch Tag und Nacht, Nord und Süd auf und „ummantelt“ die Erde mit einer „kalt“ gerechneten Sonne. Es ist spielend leicht: Teilt man 1368 durch 4, ergibt sich 342. Zieht man davon 31 % Verlust durch Albedo ab, dann erhält man 236 W/m2 und erhält das gewünschte Ergebnis, eine „eiskalte Erde“ von minus 18° C. Doch das ist pure Phantasie und keine Realität!

Glauben Sie noch an den angeblich „natürlichen Treibhauseffekt“ von 33 Grad Celsius? Ich tue es nicht! In Wirklichkeit gibt der Erdkörper wie jeder andere Körper ständig Wärme ab proportional seiner Temperatur. Dies spürte bereits der „nackte Affe“ in der ersten sternklaren Tropennacht. Die Erde bedarf des Lichts der Sonne, um den Energieschwund zu kompensieren. Unter gar keinen Umständen kann sich die Erde mit der von ihr selbst emittierten Energie erwärmen, selbst wenn sie von einem Spiegel umgeben wäre, der alle Energie aller Wellenlängen an sie zurückstrahlt. Damit erweist sich die „Gegenstrahlung“ als Konstrukt, das es nicht gibt! Es gibt auch keine Kausalbeziehung zwischen der -18 Grad und der +15 Grad Temperatur. Sie stehen beziehungslos nebeneinander und sind rechnerische Konstrukte, die, wie man weiß, beliebig manipulieren kann.

 

Die Erde ist kein „Treibhaus“, wie jeder Architekt und Bauherr weiß

Prof. Dr. Heinloth argumentiert zum „Beweis“ seiner Treibhaus-Hypothese wie folgt: „Die Rolle der wärmenden Glasfenster spielen einige Spurengase in der Atmosphäre, vornehmlich Kohlendioxid“. Die vom CO2 absorbierte Wärmestrahlung werde emittiert und komme der Erde als „Gegenstrahlung“ zugute. Die „Klimagase“ seien eine „natürliche Zusatzheizung aus der Atmosphäre“. Wo bleibt in einer klaren Winternacht mit frisch gefallener Schneedecke die wärmende „Zusatzheizung“ namens „Gegenstrahlung“? Der Versuch einer Gleichsetzung von beweglicher Gashülle wie fester Glasscheibe verbietet sich.

Sinn und Zweck eines jeden Mistbeetes oder gläsernen Gewächs- oder Treibhauses ist es, einen Raum zu schaffen, in dem erwärmte Luft möglichst lange eingesperrt werden kann. So wie ein in der Sonne geparktes und aufgeheiztes Auto nach Sonnenuntergang rasch abkühlt und im Winter sogar zur tödlichen Kältefalle werden kann, so kann zwar eine Glashülle verhindern, dass die erwärmte Luft vom Winde verweht wird oder thermisch zum Himmel aufsteigt, doch Glas ist ein guter Wärmeleiter, was sich daran zeigt, dass im Glashaus die Scheiben beschlagen oder sich bei Frost Eisblumen bilden. Die Wärmestrahlung ist nämlich nur eine Art der Wärmeübertragung. Daneben gibt es noch die Wärmeleitung und den Wärmetransport durch Konvektion als Massentransport.

Am 20. Januar 2018 war in der Allgemeinen Zeitung Mainz ein Artikel „Hinter Glas“, in dem nicht nur die Vorzüge „lichtdurchfluteter Wintergärten“ dargestellt wurden. Die Autoren Marleen Ilchmann und Katja Fischer schreiben nüchtern und sachlich: „Sobald die Sonne hinter dem Horizont verschwunden ist, wird es im Wintergarten empfindlich kühl. Der Wintergarten ist kein Wärmespeicher – er braucht eine Heizung, die anspringt, sobald die Temperatur auf ein gewisses Maß sinkt. Die Heizung muss sich in ihrem thermischen Verhalten von normalen Anlagen in Innenräumen unterscheiden. Sie muss sehr schnell eine sehr hohe Heizleistung in geringen Zeiträumen ermöglichen: In Spitzenzeiten sollte sie 250 bis 300 Watt pro Quadratmeter bringen. Damit sie effektiv arbeiten kann, muss die Heizung dort installiert werden, wo es am kältesten ist. Am besten baut man sie unterhalb der Front- und Seitenscheiben ein oder direkt in den Boden als Bodenkanalheizung. Eine konventionelle Fußbodenheizung ist für den Wintergarten ungeeignet, weil sie viel zu träge auf Temperaturschwankungen reagiert und die innenliegenden Oberflächen der Glaswände nicht schnell genug aufheizt, sodass häufiger und länger Kondensat entsteht.“

 

Fazit:

Da die Erde kein Treibhaus ist, muss man für den Menschen Häuser und für die Pflanzen Gewächshäuser, Orangerien, Palmengärten, Wintergärten bauen. Dass dennoch vom „UN-Weltklimarat“ die Treibhaushypothese unverdrossen propagiert wird und der Glauben daran die internationale Politik dominiert, ist mehr als nur verwunderlich. In der Wissensgesellschaft scheint zwar eine Menge an Wissen vermittelt zu werden und zu kursieren, aber die Fähigkeit zum logischen Verknüpfen von Informationen scheint gerade in intellektuellen Bildungskreisen extrem unterentwickelt zu sein.

Nichts ist heutzutage dringender notwendig als der „mündige Bürger“, der hartnäckig den Mut hat, seinen eigenen Verstand einzusetzen, um der angeblichen „Schwarmintelligenz“ der Elite der „Klimaexperten“ Paroli zu bieten.

 

Dr. phil. Dipl.-Meteorologe Wolfgang Thüne




Und plötzlich wird die Zukunft glücklicher

Bisher verließ man sich auf falsche Annahmen

War es bisher ein Sakrileg, dass Extremereignisse mit dem Klimawandel zunehmen müssen [3] und ein Beleg dafür das Wissen: Früher wären die Klimaveränderungen noch nie so schnell gewesen [4], haben Wissenschaftler des AWI nun herausgefunden, dass diese bisher unumstößlichen „Wahrheiten“ schlichtweg auf falschen Annahmen beruhen:
AWI 05.02.2018 Pressemeitteilung: [2] Klimaschwankungen in Vergangenheit und Zukunft
Bislang ging man davon aus, dass die Temperaturen während der letzten Eiszeit extrem schwankten, und unsere gegenwärtige Warmzeit in der Regel nur sehr kleine Temperaturausschläge zeigte …
Das Team… hat durch einen Vergleich der grönländischen Daten mit denen aus Sedimenten verschiedener Meeresgebieten der Welt sowie aus Eisbohrkernen der Antarktis zeigen können, dass das Phänomen starker Temperaturschwankungen während einer Eiszeit keineswegs global gleichförmig auftrat, sondern regional unterschiedlich ausgeprägt war. In den Tropen etwa waren zum Höhepunkt der letzten Eiszeit die Temperaturschwankungen dreimal stärker ausgeprägt als heute, während die Eiskerne auf 70-fach höhere Schwankungen in Grönland hinweisen.
„Die Eisbohrkerne aus Grönland sind ohne Zweifel ein wichtiger Baustein, um das Klima vergangener Zeiten zu verstehen.
Gleichzeitig belegt unsere Studie, dass die für Grönland ermittelten Schlussfolgerungen nicht immer repräsentativ für die ganze Welt sind“,

Jungforscher*innen schauen einmal über „den Tellerrand“ …

Wenn es stimmt, was die Jungforscher*innen [7] beim AWI herausgefunden haben, muss man sich schon fragen, was die vielen „Experten“ in Deutschland und rund um die Welt eigentlich an wirklichem „Erkenntnisgewinn“ generieren, beziehungsweise, ob diese nicht vorwiegend reihum voneinander abschreiben (was wohl so sein dürfte). Um darauf zu kommen, Klimarekonstruktionen global zu betrachten, muss man wirklich nicht überragend intelligent sein. Zudem wird es von vielen klimawandel-kritischen Forschern längst durchgeführt, siehe die weltumspannende Recherche zur mittelalterlichen Warmzeit von „kaltesonne“ [5].

AWI: [2] …Die Leistung von Erstautorin Kira Rehfeld und ihren Kollegen besteht darin, dass sie erstmals Daten aus verschiedenen Klimaarchiven und von insgesamt 99 unterschiedlichen Orten zusammengebracht und verglichen haben.
Dass es zur Eiszeit stärkere Schwankungen gegeben hat, liegt daran, dass der Temperaturunterschied zwischen den vereisten Polargebieten und den Tropen damals stärker ausgeprägt war, was zu einem dynamischeren Austausch von warmen und kalten Luftmassen führte.

… und schon muss man (wieder) „gesichertes Wissen“ als unsicher verwerfen

AWI: [2] … „Wenn wir dieser Idee weiter folgen, kommen wir zu dem Schluss, dass die Schwankungen langfristig mit der Erderwärmung weiter abnehmen“, sagt Rehfeld – einfach deshalb, weil der Temperaturunterschied zwischen dem sich erwärmenden Norden und den Tropen geringer wird …

Sind die Klimamodelle auch bei diesem Parameter falsch programmiert?

Liest man bis zum Schluss weiter, fragt man sich nicht, sondern erkennt (wieder), warum die Klimamodelle so massiv versagen. Das Klima ist einfach noch viel zu wenig verstanden – und es fehlen nach wie vor verlässliche Daten zur Kalibrierung -, um mit Simulationen glaubhafte Zukunftsprojektionen durchführen zu können:
AWI: [2] … Klimamodellierer hatten den Mechanismus geringerer Variabilität unter wärmeren Klimabedingungen bereits im Jahr 2014 vorgeschlagen. Rehfeld, Laepple und Kollegen ist es mit ihrer Analyse nun erstmals gelungen, diesen Zusammenhang mit weltweiten Klimadaten aus der Vergangenheit zu untermauern.

Forscht man weiter, könnte man in den kommenden Jahren (vielleicht) Genaueres zum Klima sagen

Lautet der Extrakt. Dummer Weise wird seit über 20 Jahren für die nicht gesicherten – angeblich trotzdem über alle Zweifel erhabenen [8] – Theorien das Geld bereits zum Fenster hinaus geworfen, ohne Hoffnung, dass sich daran schnell etwas ändern könnte.
AWI: [2] Als zukünftige Aufgabe formulieren die AWI-Forscher: „Wir wollen die Veränderungen der kurzfristigen Schwankungen in der Vergangenheit und deren Zusammenhang mit langfristigen Klimaänderungen detailliert untersuchen. Dazu brauchen wir zuverlässige Klimaarchive und ein detaillierteres Verständnis darüber, wie diese zu interpretieren sind.“ Die Trennschärfe so zu erhöhen, dass damit zukünftig auch Extremereignisse in Paläo-Archiven abgebildet werden können, wie wir sie heute erleben, sei eine der großen Herausforderungen für die kommenden Jahre.

Aber es keimt damit eine Hoffnung: Während sich beim AWI ebenfalls die Klimahysterie-Unterstützer tummeln [6] [8], scheint es dort einen Nachwuchs zu geben [7], welcher eigene Gedanken entwickelt und auch verfolgt.
Es bleibt abzuwarten, welche Forscherfraktion beim Kampf um Fördermittel überlebt. Unter Frau Hendricks mit ihrer fast manischen und durch keine Fakten verrückbaren Klimahysterie [8] war das eindeutig (und falls die GroKo kommt, wird es wohl auch so bleiben).

Stimmen die Ergebnisse des 2k-Projektes damit nicht?

Vor einigen Jahren wurde ein großes, weltweites Projekt zur Erstellung eines „richtigen“ Temperatur-Proxikataloges durchgeführt, bei dem der Autor schon mit wenig Aufwand gravierende Mängel entdecken konnte.
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k
Was Herrn Rahmstorf vom PIK nicht davon abhält, diese Projekt zu loben, vor allem die (hirnrissige) Auswertung davon, welche angeblich den Hockeystick bestätigen soll (was immer der Fall ist, wenn man Statistik falsch anwendet):
Rahmstorf: [10]Vorige Woche haben wir hier die neue Klimarekonstruktion des PAGES 2k-Projekts besprochen, die einmal mehr den Hockeyschläger-Verlauf der Klimageschichte der letzten tausend Jahre bestätigt hat.
Die Auswertung des AWI würde die Zweifel des Autors an der Datenqualität nun auch aus anderen Gründen bestätigen.

Anmerkung: Der Autor dankt „kaltesonne“ für den Hinweis zur AWI-Pressemeldung

Quellen

[1] SPON 12.02.2018: Satellitenmessungen Meeresspiegel steigt immer schneller

[2] AWI 05.02.2018: Klimaschwankungen in Vergangenheit und Zukunft

[3] FOCUS 22.09.2017: Extremwetter werden zunehmen – schuld daran sind wir selbst
Tagesschau 5. August 2017: 50 Mal mehr Extremwetter-Tote bis 2100?
Umweltbundesamt: Wird das Klima extremer? Sind die sich häufenden Überschwemmungen ein Indiz dafür?

[4] Buch: Mut zur Nachhaltigkeit: … Die im Vergleich zur Klimageschichte extrem schnelle Erwärmung, die derzeit beobachtet wird .

[5] kaltesonne: Das Projekt Kartographie der Mittelalterlichen Wärmeperiode: Online-Atlas einer noch immer unverstandenen Hitzephase

[6] EIKE: Die immer neu aufsteigenden und untergehenden Inseln wie zum Beispiel Tuvalu

[7] AWI: ECUS Bestimmung der Klimavariabilität durch die Quantifizierung von Proxyunsicherheit und die Synthese von Informationen zwischen Klimaarchiven.

[8] AWI 11. Mai 2017: PRESSEMITTEILUNG Alfred-Wegener-Institut: Eine unumkehrbare Ozeanerwärmung bedroht das Filchner-Ronne-Schelfeis
AWI-Klimaforscher entschlüsseln Antriebsprozesse eines irreversiblen Wärmeeinstroms unter das Schelfeis, der schon in wenigen Jahrzehnten einsetzen könnte.

[8] EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[9] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt

[10] SciLogs 23. Mai 2013 von Stefan Rahmstorf in Klimadaten: Paläoklima: Die Hockeyschläger-Debatte




Ehrenrettung eines Moleküls

Alex Baur  (Red. WELTWOCHE Zürich)*

Es ist nicht so, dass der Basler Geologe Markus O. Häring ein Umweltmuffel wäre. Nachdem er seine wissenschaftlichen Sporen in den siebziger und achtziger Jahren mit der ­Suche nach Erdgas auf der halben Welt verdient hatte, wandte er sich schon früh der Geo­thermie zu. In der Schweiz gilt er als Topexperte auf diesem Gebiet. Allerdings gehört Häring zu den seltenen Forschern im Bereich von Alternativenergien, die es wagen, Fehlentwicklungen beim Namen zu nennen.

In seinem neusten Buch, «Sündenbock CO2 – Plädoyer für ein lebenswichtiges Gas», setzt sich Häring mit dem ­famosen Kohlendioxid auseinander – der angeblich grössten Bedrohung ­unserer Epoche. Was hat es wirklich an sich mit diesem Stoff? Wie genau wirkt er sich konkret auf das Weltklima aus? Was wäre, wenn morgen keine fossilen Brennstoffe mehr verfeuert würden? Wir glauben die Antworten zu kennen. Tatsächlich ist einiges ziemlich anders, als man denkt – und wenig sicher. Ein Überblick in neun Stichwörtern:

1 – Kohlendioxid: Es handelt sich um eine Verbindung aus einem Atom Kohlenstoff (C) und zwei Atomen Sauerstoff (O), also ein Molekül. Unsere Atmo­sphäre besteht zu 78 Prozent aus Stickstoff (N), zu 21 Prozent aus Sauerstoff und zu 0,04 Prozent aus CO2. Letzterer Wert hat sich in den letzten sechzig Jahren vor allem infolge der Nutzung fos­siler Brennstoffe und der Herstellung von Zement um einen Viertel erhöht.

2 – Schadstoffe: CO2 ist kein Gift, sondern ein Grundstoff, der hauptsächlich im ­Boden und im Wasser gebunden ist und ohne den es kein Leben gäbe. Eine Erhöhung der CO2-Konzentration in der Luft steigert das Wachstum von Pflanzen markant, was bereits heute messbar ist. Ein Teil des CO2 wird von den Gewässern und vom Boden absorbiert. Das ­gefährlichste Element ist übrigens das Wasser: Ertrinken ist weltweit die dritthäufigste tödliche Unfallursache.

3 – Treibhauseffekt: Neben anderen Gasen sorgt das CO2 dafür, dass ein Teil der Sonnen­einstrahlung als Wärme in der Erdatmosphäre erhalten bleibt, sonst wäre die Erde unbewohnbar. Einen vielfach stärkeren Treibhauseffekt hat das Methan, das etwa auf Reisfeldern entsteht. Bislang verlangt allerdings noch niemand den Verzicht auf Reis. Allerdings verläuft diese Erwärmung nicht linear, sie flacht vielmehr ab, es tritt eine Sättigungsgrenze ein. Zu drei Vierteln ist Wasserdampf für den Treibhauseffekt verantwortlich, der 1896 entdeckt wurde. Wird der Dunst zur Wolke, kann dies ­allerdings auch kühlend wirken, weil die Sonnenstrahlen zurück ins All reflektiert werden.

4 – «Runaway»-Effekt: Gemäss einer weitverbreiteten These könnte die erhöhte Konzentration von Treibhausgasen zu einer erhöhten Verdampfung und damit zu einer explosionsartigen Erwärmung der Erdatmosphäre führen. Markus O. Häring bezweifelt diesen Rückkoppelungseffekt allerdings; man wisse zu wenig über das von zahlreichen Einflüssen (Niederschlägen, Meeresströmungen, Wind et cetera) bestimmte Geschehen am Himmel.

5 – Erdtemperatur: Dass es in den letzten hundert Jahren wärmer wurde, ist eine Tat­sache. Warum das so ist, weiss niemand mit ­Sicherheit. Es gab Zeiten, in denen es wärmer (etwa das Mittelalter) oder auch kälter (etwa die Eiszeiten) war. Mögliche Ursachen gibt es viele (Verschiebung der Erdachse, Meteoriten, Vulkane, Sonnenaktivität), beweisen lässt sich nichts. Tatsache ist: Kältephasen sind für die Menschen bedrohlicher als Wärmephasen.

6 – Statistiken: Untersuchungen im Eis zeigen, dass die Wärmephasen des Klimas stets von einer erhöhten CO2-Konzentration begleitet waren. Doch damit ist die Frage von Ursache und Wirkung nicht beantwortet. Tatsächlich war die Temperaturkurve der CO2-­Kurve stets etwas voraus.

7 – Klimaabkommen: Obwohl die Schweiz dank einem fast abgasfreien Strommix (Wasser/Atom) pro Kopf viel weniger CO2 produziert als vergleich­bare Industrieländer, hat sie sich die weltweit höchsten Ziele gesetzt. Die Zielsetzung ist freiwillig, Schwellenländer wie China, Indien oder Brasilien begnügen sich damit, den CO2-Ausstoss etwas weniger stark ansteigen zu lassen. Mit der Umstellung von Kohle auf Erdgas haben die USA ihre Emissionen mehr reduziert als alle andern.

8 – CO2-Export: Lenkungsabgaben können zwar den Verbrauch an fossilen Brennstoffen reduzieren, bringen unter dem Strich aber oft nichts. Denn sie ­können auch dazu führen, dass energie­intensive Prozesse einfach ins Ausland verlagert werden. So ging der Treibstoffverkauf in der Schweiz in den letzten Jahren zwar zurück – aber nicht, weil weniger Auto gefahren würde, sondern weil wegen des hohen Frankens mehr im Ausland getankt wird.

9 – EROI: Auch wenn die ganz konkreten Auswirkungen diverser Gase auf das Klima alles andere als gesichert sind, gibt es gemäss Häring gute Gründe für einen möglichst umweltschonenden Umgang mit den Ressourcen. Die Zauberformel lautet EROI (Energy return on investment): Entscheidend ist die Gesamtrechnung. Windräder und Solarpanels mögen als grün gelten; misst man aber den Verbrauch an Ressourcen und grauer Energie (Herstellung, Bau, Unterhalt, Stromspeicherung) am Ertrag, weisen sie eine schlechtere Öko­bilanz aus als etwa Wasser- und Atomkraft­werke. Auch Elektrofahrzeuge sind unter diesem Aspekt nicht a priori umweltfreundlich. Letztlich plädiert Häring für mehr Köpfchen und weniger Hysterie.

=========================================================

Markus O. Häring: Sündenbock CO2 – Plädoyer für ein lebenswichtiges Gas. Carnot-Cournot-Verlag. 190 S., Fr. 29.–

=========================================================

)* Anmerkung der EIKE-Redaktion :  Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Ehrenrettung eines Moleküls | Die Weltwoche, Ausgabe 7 (2018) | 15. Februar 2018; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Baur für die Gestattung des ungekürzten Nachdrucks.

==========================================================




Grüne Energie ist immer noch ein teures Hobby – Nutzung fossiler Brennstoffe ist ungebrochen

Es wird auch immer darauf hingewiesen, dass ein so genannter „Übergang“ unvermeidlich ist, genau wie beim Internet. Dumm nur, dass dieser Übergang nun schon länger als 20 Jahre dauert und einem monumentalen Mythos gleicht und Beweise sich mehr und mehr als gestörte Propaganda erweisen.

Australien hat bisher mehr als 20 Milliarden Dollar an Subventionen für erneuerbare Energien vergeudet (weitere 40 Milliarden folgen bis 2031), und doch bleibt der Beitrag von Wind und Sonne zur Energienachfrage weiterhin lächerlich und eher ein Rundungsfehler.

Wenn die Sonne untergeht (wie es auch im sonnenverwöhnten Australien der Fall ist) und der Wind aufhört zu wehen oder zu stark weht, ist der kollektive Beitrag von Wind und Sonne natürlich absolut NULL.

In der ganzen Zeit, unabhängig vom Wetter, irgendwo im System, werden Millionen von Megawatt von dem „bösen Duo“ Kohle und Gas erzeugt: Sie erhalten Patienten in Krankenhäusern am Leben; sie lassen Klimaanlagen laufen und verhindern, dass Omas in Australiens glühender Sonne kollabieren. Zuverlässige Energie hält Unternehmen und ganze Industriezweige, die eine sinnvolle Beschäftigung anbieten am Laufen und versorgen generell alles, was die Leute als ihr Geburtsrecht anfordern.

Wenn der Energieminister, Josh Frydenbergs neuste Gehirnblähung – massive Subventionen für alle Elektroautos fordert und bekommt (was wir sehr bezweifeln), werden diese Fahrzeuge korrekt als „Kohlekraft-Wagen“ bezeichnet, einfach weil Australien mehr als 85% seines Stroms aus Kohle erzeugt. Und dieser Anteil wird sich nicht bald ändern.

Im Hinblick auf das gleiche Thema, vergleicht No Tricks Zone die pathetische Leistung von Wind und Sonne  mit den immer verfügbaren, immer zuverlässigen Leistungen der fossilen Brennstoffe.

 

Grüne Energie Revolution ist ein Flop: Anteil der fossilen Brennstoffe am Gesamtenergieverbrauch seit 40 Jahren unverändert!

No Tricks Zone,

Pierre Gosselin, 12. Januar 2018

Quartz.com / The Atlas.com stellt eine interessante Tabelle vor, die uns zeigt, dass die grüne Energiewende der letzten 30 Jahre praktisch zu nichts geführt hat. Es war ein Flop, fossile Brennstoffe bleiben so notwendig wie eh und je.

The Atlas.com, Charts:  Der weltweite Verbrauch fossiler Brennstoffe als Anteil an der Gesamtenergie, ist trotz James Hansens Voraussage von 1988 gestiegen.

In den 1970er Jahren war die große Sorge, dass fossile Brennstoffe bald ausgehen würden, und wir sollten sie „weise nutzen“. Aber in den Achtzigerjahren änderte sich das Risiko in einen überhitzten Planeten, und deshalb sollten wir sie überhaupt nicht benutzen.

 

Mehr als 1988, als was James Hansen vorhersagte

Wir können uns alle daran erinnern, wie James Hansen 1988 in der Bühne vor dem Kongress in die Luft gegriffen hat und davor warnte, dass steigende CO2-Konzentrationen in der Atmosphäre zu einer sich beschleunigenden globalen Erwärmung führen würden. „Und wenn nicht sofort etwas unternommen wird, würden die Eiskappen bald schmelzen und die Erde brutzeln.“

Die Länder mobilisierten daraufhin 100 Milliarden Dollar, um den Einsatz dieser „gefährlichen, klimaschädlichen“ fossilen Brennstoffe zu eliminieren.

Heute könnten Sie der Meinung sein, dass für all dieses Geld, enorme Fortschritte bei der Reduzierung fossiler Brennstoffe die Folge sein würden. Sie könnten mit dieser Ansicht falscher nicht liegen.

Die traurige Wahrheit ist, dass der Anteil fossiler Brennstoffe am weltweiten Gesamtenergieverbrauch tatsächlich gestiegen ist, trotz Milliarden schwerer Ausgaben und Verpflichtungen weiterer Billionen, seit Hansens Zeugenaussage zum Weltuntergang.

 

Bringen Sie die Toten zurück ins Leben

Es mögen viele noch nicht darüber nachgedacht haben – wenn wir fossile Brennstoffe nutzen, die aus Pflanzen stammen, welche abgestorben sind und auf natürliche Weise umgewandelt und als „Fossilien“ in der Erde zu finden sind, führen wir den früher mal lebenden Kohlenstoff in das aktuelle, lebendige Ökosystem zurück. Das Ergebnis: Damit wird heute mehr Pflanzenwachstum angeregt, der Planet grünt. Es wimmelt heute mehr Leben auf der Erde als vor Millionen von Jahren. Das sind die Grundlagen.

Daher, wenn Sie möchten, dass es unserer Erde gut und besser geht, scheuen Sie sich nicht, einfach Kohlenstoff CO2 hinzu.  Das Verbrennen von fossilen Brennstoffen fügt das Baumaterial der Pflanzen, dem Kreislauf wieder hinzu – [und die Pflanzen danken es, mit der Abspaltung von Sauerstoff O2 für die Fauna, zu der auch wir Menschen gehören].

Auf der anderen Seite, wenn Sie die Lebensvielfalt begrenzen wollen, dann entfernen Sie den Kohlenstoff aus dem Ökosystem. Komisch, dass die Alarmisten behaupten, besorgt zu sein, dass das Leben auf der Erde bedroht ist und dennoch versuchen, die Grundlage dafür zu beseitigen.

No Tricks Zone

Erschienen auf stopthesethings am 15.02.2018

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2018/02/15/green-energy-still-an-expensive-joke-fossil-fuels-contribution-to-world-energy-demand-continues-to-rise/

 




Überzogene Behaup­tungen bzgl. Temperatur-Rekorden

„Fast niemals wird in diesen alarmistischen Pressemeldungen erwähnt, dass die angebliche Änderung lediglich um ein paar hundertstel Grad von den Messungen zuvor abweicht. Niemals wird erwähnt, dass die Fehlerbandbreite bei diesen Messungen viel größer ist als die angebliche Zunahme. Niemals auch wird erwähnt, dass ein wenig mehr Wärme viel besser wäre als eine kältere Welt mit weniger urbarem Land und kürzeren Wachstumsphasen. Und mit Sicherheit werden niemals die gewaltigen Defizite unseres Wissens über das System erwähnt, welches die Temperaturen der Erde bestimmt … sondern immer werden die Menschen und fossile Treibstoffe für irgendwelche Änderungen verantwortlich gemacht.

Der folgende Beitrag Von Dr. Tim Ball und Tom Harris spricht all diese hoch relevanten, aber oft absichtlich ignorierten Realitäten an“.

—————————-

Nach dem Abklingen allen Geschreis hinsichtlich der Nachricht, dass das Jahr 2017 hinsichtlich der Temperatur eines der wärmsten jemals auf der Erde gewesen ist, ist es an der Zeit, darüber noch einmal in Ruhe und angemessen nachzudenken.

Bedeutet die entsprechende Verlautbarung der NOAA, dass nämlich 2017 das drittwärmste Jahr seit 1880 war, irgendetwas?

Gott sei Dank befinden wir uns in einem graduellen Erwärmungstrend seit dem Tiefpunkt der Kleinen Eiszeit.

Obwohl die Los Angeles Times das Jahr 2017 als ein „Top-3-Hitzejahr für den Planeten Erde“ bezeichnete, sind weder die NASA- noch die NOAA-Rekorde in irgendeiner Weise signifikant. Es ist trivial, dass die wärmsten Jahre auf natürliche Weise während der jüngsten Jahre mit einem Erwärmungstrend auftreten. Und Gott sei Dank befinden wir uns in einem graduellen Erwärmungstrend seit dem Tiefpunkt der Kleinen Eiszeit zum Ende des 17. Jahrhunderts! Damals war die Themse mit meterdickem Eis überzogen, wie das Gemälde „The Great Frost“ von Jan Grifier 1683 illustriert.

Wie auch immer, jüngste Änderungen waren sogar noch zu gering, um selbst von den meisten Thermometern noch erfasst zu werden. Noch wichtiger ist, dass die Änderungen fast durchweg geringer sind als die Schätzungen der Regierung bzgl. Unsicherheiten in den Messungen hergeben. Tatsächlich fehlen uns Daten, um die heutigen Temperaturen angemessen und wissenschaftlich mit den Temperaturen der Vergangenheit zu vergleichen.

Ursache hierfür ist, dass bis Ende der sechziger Jahre die Temperaturdaten mit Quecksilber-Thermometern erfasst worden sind, welche sich an Wetterstationen zumeist in den USA, Europa, Teile der ehemaligen Sowjetunion, Chinas, Japan, UK und Ostaustralien befanden. In fast allen übrigen Gebieten der Welt gab es nur sehr wenige Messpunkte. Und aus keinem der Ozeangebiete der Erde, welche 70% der Erdoberfläche bedecken, gibt es mehr als höchstens gelegentlich einmal eine Messung, tausende Kilometer entfernt von der nächsten Messung.

Die an den so spärlichen Messpunkten gesammelten Daten hatten im besten Falle eine Genauigkeit von ±0,5°C. In den meisten Fällen lag die Genauigkeit sogar nur um ±1°C. Die Mittelung so weniger Daten, um globale Bedingungen zu bestimmen, kann nichts Bedeutsames hervorbringen. Die Darstellung der globalen mittleren Temperatur auf Zehntel- oder sogar Hundertstel Grad genau vergewaltigt eindeutig den gesunden Menschenverstand.

Heute werden Temperaturdaten an Wetterstationen mittels Präzisions-Thermoelementen gemessen. Aber mit Beginn in den siebziger Jahren fanden immer weniger am Boden gemessene Temperaturdaten Eingang in die Plots von NOAA und NASA. Ursprünglich hatte man nämlich gedacht, dass Satelliten-Monitoring die Daten besser erfassen kann.

Aber leider haben die Satelliten die gewünschte Erwärmung in keiner Weise gezeigt, weshalb Bürokraten die meisten der kälteren Messpunkte ausgesondert haben, um die gewünschte Erwärmung doch noch zu bekommen.

Dass die Satelliten die von den Computermodellen prophezeite Erwärmung, welche so entscheidend für Klima-Studien und Energiepolitik war, nicht zeigten, war den Bürokraten ein Dorn im Auge. Also schlossen diese die kälteren ländlichen Stationen – also die am weitesten von wärmeren Stadtgebieten entfernt liegenden Stationen – und konnte so doch noch die gewünschte Erwärmung vorweisen, ausschließlich für politische Zwecke.

Heutzutage gibt es praktisch keine Daten aus etwa 85% der Erdoberfläche. Tatsächlich werden heute weniger Stationen betrieben als im Jahre 1960.

Berechnungen von NOAA und NASA nach etwa 1980 sind bedeutungslos

Dies bedeutet, dass Temperatur-Berechnungen von NOAA und NASA nach dem Jahr 1980 bedeutungslos sind. Kombiniert man diesen Umstand mit den Problemen früherer Daten, ergibt sich eine unvermeidliche Schlussfolgerung: Es ist unmöglich festzustellen, wie die so genannte mittlere globale Temperatur über die vergangenen eineinhalb Jahrhunderte hinweg variiert hat.

Die Daten sind daher nutzlos, um als Input für Computermodelle zu dienen. Und doch bilden diese die Grundlage der politischen Empfehlungen des IPCC, und sie werden oftmals herangezogen, um die Eliminierung fossiler Treibstoffe zu rechtfertigen und diese durch erneuerbare Energie zu ersetzen.

Aber mit dem Fehlen geeigneter Daten von der Erdoberfläche fängt das Problem erst an. Die Computermodelle, auf welchen die Klima-Angst fußt, sind mathematische Konstruktionen, welche den Input von Daten über der Oberfläche erfordern, ebenso wie solche an der Oberfläche. Die Modelle unterteilen die Atmosphäre in übereinander gestapelte Würfel, idealerweise mit den Verhältnissen von Wind, Feuchtigkeit, Wolkenbedeckung und Temperatur in verschiedenen geographischen Breiten. Aber gegenwärtig gibt es über der Oberfläche sogar noch weniger Daten als von der Oberfläche, und definitiv gibt es aus höheren Schichten keine historischen Daten.

Viele Menschen glauben, dass der Planet gleichmäßig von Satelliten-Beobachtungen erfasst wird; Daten, welche global über 24 Stunden an 7 Tagen der Woche gemessen werden. Dies soll weitaus genauer sein, als irgendetwas an Wetterstationen Gemessenes. Aber die Satelliten können keine Daten aus den Polargebieten erfassen, also aus Gebieten, welche das IPCC, die NOAA und die NASA als so entscheidend für das Verständnis der globalen Erwärmung hinaus posaunen. Außerdem begannen Temperaturaufzeichnungen via Satellit erst im Jahre 1979, und 30 Jahre mit Wetterdaten sind erforderlich, um auf einer Klimagraphik nur einen einzigen Datenpunkt zu erzeugen.

Folglich sind die Satelliten-Aufzeichnungen viel zu kurz, um brauchbare Schlussfolgerungen hinsichtlich Klimawandel ziehen zu können.

Tatsächlich weisen alle Daten große Unzulänglichkeiten auf – Temperatur, Land- und Meereis, Gletscher, Meeresspiegel, Extremwetter, Ozean-pH und so weiter –, so dass es unmöglich ist zu sagen, wie sich das heutige Klima von dem der Vergangenheit unterscheidet. Angesichts des Fehlens so grundlegender Daten haben die von den Klimaaktivisten ausgegebenen Prophezeiungen keinerlei Bezug zur realen Welt.

Der britische Professor Hubert Lamb wird oftmals als der Begründer der modernen Klimatologie angesehen. In seiner umfassenden Abhandlung aus dem Jahr 1972 mit dem Titel Climate: Past, Present and Future zeigt er eindeutig, dass man Klimawandel unmöglich verstehen kann ohne große Mengen genauer Wetterdaten über lange Zeiträume. Lamb schreibt auch, dass die Finanzierung der Verbesserung der Datengrundlage verschwindend gering war im Vergleich zu den Geldern, welche für Computermodelle und Theoretisierungen ausgegeben worden sind. Er warnte, dass dieser Umstand zu wilden und gehaltlosen Theorien und Behauptungen führen wird, während sich Prognosen nicht verbessern. Und genau das ist ja auch geschehen.

Jede einzelne Prophezeiung seitens der vom IPCC verwendeten Computermodelle hat sich ohne eine einzige Ausnahme als falsch erwiesen.

Tatsächlich lagen die ersten ihrer Prognosen für den 1. IPCC-Zustandsbericht so meilenweit von der Realität entfernt, dass das Gremium diese Prophezeiungen „Projektionen“ zu nennen begann. Mit ihnen wurden niedrige, mittlere und hohe „Vertrauens“-Intervalle für zukünftige Prophezeiungen angeboten. Dennoch haben Journalisten, Politiker und Andere diese als absolut zuverlässige Prognosen für zukünftiges Wetter und Klima ausgegeben.

IPCC-Mitglieder scheinen zu folgern, dass – sofern nur die Bandbreite für Vorhersagen groß genug ist – diese schon stimmen werden. Aber selbst das war zu optimistisch. Alle drei vom IPCC prophezeiten Bandbreiten haben sich als falsch herausgestellt.

Der neue EPA-Chef Scott Pruitt hat recht, wenn er von dem Recht der Öffentlichkeit auf eine offene und umfassende öffentliche Debatte spricht – unter Wissenschaftlern über die Gründe und Konsequenzen des Klimawandels. In einem Fernsehinterview vom 6. Februar erklärte Mr. Pruitt:

„Es gibt viele sehr wichtige Fragen bzgl. des Themas Klima, welche sich den Menschen nicht richtig erschließen. Und das ist einer der Gründe, warum ich von einer ehrlichen, offenen, transparenten Debatte spreche über das, was wir wissen und was wir nicht wissen. Damit kann sich die amerikanische Bevölkerung informieren und anfangen, eigene Entscheidungen unter Berücksichtigung dieser Dinge zu treffen“.

Am 3. Januar erklärte Pruitt vor dem Senate Environment and Public Works Committee, dass man über „ein rotes und ein blaues Team“, also eine von der EPA gesponserte Debatte nachdenkt zwischen Klimawissenschaftlern mit unterschiedlichen Standpunkten. Es ist von entscheidender Bedeutung, dass es zu einer solchen Debatte kommt.

Die meisten der den Klima-Befürchtungen zugrunde liegenden Hypothesen sind entweder zweifelhaft oder schlicht und ergreifend falsch.

Der Öffentlichkeit muss genau dieser Punkt vor Augen geführt werden! Die Kampagne, welche Amerika, Kanada, Europa und den Rest der Welt vom Verbrauch reichlicher und bezahlbarer Kohle und anderer fossiler Treibstoffe wegführen soll – hin zu teuren, unzuverlässigen und land-intensiven Alternativen, um das sich ewig ändernde Klima der Erde vermeintlich zu kontrollieren – wird sich dann als das herausstellen, was sie wirklich ist: der größte und schädlichste Betrug aller Zeiten.

—————————-

Dr. Tim Ball ist Umweltberater und ehemaliger Professor der Klimatologie an der University of Winnipeg in Manitoba. Tom Harris ist Direktor der in Ottawa ansässigen Denkfabrik International Climate Science Coalition.

Link: https://www.iceagenow.info/overheated-claims-temperature-records/

Übersetzt von Chris Frey EIKE




Der Klimawandel macht dumm

Dieser – so sind sich zum Klimawandel wirklich kompetente Forscher und Fachpersonen einig –, macht nämlich dumm. Und Deutschland ist nach Überzeugung von Frau Hendricks besonders stark und täglich vom Klimawandel getroffen [7], in Bayern kann man ihn sogar „mit den Händen greifen“ (laut der bayerischen Umweltministerin), womit sich der Teufelskreis schließen könnte.

Dank des Wissens vom Klimawandel lösen sich viele Rätsel

Bekannt war (EIKE-Lesern) schon, dass Parteien infolge des Klimawandels immer weniger Einfluss auf das Wahlergebnis haben: EIKE 30.11.2016: [2] Ist die Wahl von Trump eine Auswirkung des Klimawandels?
In Wirklichkeit ist es jedoch noch viel schlimmer: Der Klimawandel beeinflusst nicht nur, wo das Kreuzchen bei der Wahl hin fällt, auch die Intelligenz und Entscheidungsfähigkeit leidet darunter.
Zumindest haben es unermüdliche Forscher – diesmal aus Harvard – mittels einer wieder besonders tief zum Erkenntnisgewinn schürfenden Studie entdeckt.
THE DAILY CALLER 10/27/2015: [1] Scientists Claim High CO2 Levels Are Making People Dumber
A new study by the Harvard School of Public Health claims “carbon dioxide (CO2) has a direct and negative impact on human cognition and decision-making,” according to ThinkProgress,
Dank der zum Klimawandel-forschenden Wissenschaftlern oft eigenen Präzision und Qualität – beispielhaft auch im kürzlich erschienenen Artikel über die Eisbären [3] nachlesbar – ließ sich (mit dem untrüglichen Wissen über den Klimawandel im Hinterkopf) schon nach kürzester Zeit Signifikantes feststellen:
Studie: [1] … 24 Menschen wurden in Büroumgebungen mit unterschiedlich hohen Konzentrationen an flüchtigen organischen Verbindungen sowie unterschiedlichen Kohlendioxidwerten an sechs Arbeitstagen ausgesetzt. Die Studie fand heraus, dass bei sieben der neun kognitiven Funktionsbereiche die durchschnittlichen kognitiven Werte bei jedem höheren CO2-Wert abnahmen“.

Dass höhere Temperatur dumm macht, ist bereits bekannt [6]. Ausgerechnet die Fähigkeit, von guten Beispielen zu lernen, wird dadurch beeinträchtigt. Es könnte vielleicht ein Grund sein, warum unsere südlichen EU-Länder nicht mit Geld umgehen können, und dies auch nie mehr lernen werden, obwohl Deutschland darin immer versucht(e) ein Beispiel zu geben.
Erschreckend ist jedoch, dass in der Studie aus Harvard der Wirkmechanismus direkt das als giftig bekannte CO2 ist. Der schlimme Einfluss wirkt demnach unerbittlich überall rund um unseren Globus – und damit auch in unseren Breiten.

Vieles wäre nicht mit solcher Präzision bekannt

Studie: [1] … Die Ergebnisse der kognitiven Funktion waren 15% niedriger für den moderaten CO2-Tag (~ 945 ppm) und 50% niedriger am Tag mit CO2-Konzentrationen um 1400 ppm …
Für diese Ergebnispräzision reichten 24 Probanten.
In der Studie zum Temperatureinfluss [6] reichten 13 ausgebrütete Eier aus und zu den Eisbären [3] bereits 9 Beobachtungen.
Es bestätigt, dass der unheilvolle Klimawandel-Einfluss wirklich überall eine Größenordnung erreicht haben muss, der alles bisher Bekannte weit in den Schatten stellt. Jedoch mit dem enormen Vorteil für die Klimawissenschaftler, dadurch die Mühsal lang dauernder und damit teurer Beobachtungsreihen, sowie die früher wirklich schwierige – und auch fehleranfällige – Anwendung der Statistik gar nicht mehr zu benötigen. Wo damals in Auswertungen vielleicht zwei Stellen als Ergebnis erschienen, spucken moderne Computer lange Zahlenreihen aus und belegen alleine dadurch schon die Präzision ihrer Berechnungen.

Wer so forsch forscht, kann sich des Lobes besonders sachkundiger Personen sicher sein

Der „Klimawandelprophet“ Al Gore, verkündete diese wichtige Information seiner gläubigen Anhängerschar:

Auch der bekannte Wissenschaftsjournalist und Verfasser klimaalarmistischer Bücher, Joe Romm, nahm Ergebnisse der Harvard-Studie auf, auch, um sein neues Buch zum Klimawandel zu promoten [1].
THINK PROGRESS Joe Romm Oct 26, 2015: [8] Exclusive: Elevated CO2 Levels Directly Affect Human Cognition, New Harvard Study Shows

Er und eine dazu befragte „Fachperson“ waren von der Studie begeistert:
[8] … She considers the Harvard study “an absolutely important study.”
Liest man seine Darstellung bis zum Ende, kommen interessante Aspekte zum Vorschein:
Die Studie wurde gar nicht zum Klimawandel erstellt und bezog sich als medizinisch orientierte Studie auf Personen in Innenräumen.
[8] … The researchers explain, “The largest effects were seen for Crisis Response, Information Usage, and Strategy, all of which are indicators of higher level cognitive function and decision-making.”
Interestingly, the authors of all of these studies — the direct CO2 studies and the CO2-as-a-proxy-for-ventilation studies — are generally public health researchers focused on indoor environmental quality (IEQ). As a result, their published work does not examine the implications these findings have for climate policy.
Eine Verbindung zum Klimawandel ist damit rein hypothetisch. Aber wie fast immer: Gerade deshalb besteht eine mögliche „Wissenslücke“, die man selbstverständlich dringend füllen muss, wozu aber Forschungsmittel erforderlich wären.
[8] The risks of doing nothing
… But the implications for climate policy are stark. We are at 400 parts per million (ppm) of CO2 today outdoors globally — and tens of ppm higher in many major cities. We are rising at a rate of 2+ ppm a year, a rate that is accelerating. Significantly, we do not know the threshold at which CO2 levels begin to measurably impact human cognition.
So the impact threshold may be quite below 930 ppm.
Clearly more research needs to be done to solve this detective story.
… We do not know the threshold at which CO2 levels begin to measurably impact human cognition

Sind damit die Ergebnisse bisheriger Studien überholt?

Wer auf die Daten gesehen hat, dem viel auf, dass mit ppm-Werten von 945 …. 1.400 ppm „gemessen“ wurde. Diese Konzentration kann die Erde durch anthropogenen Einfluss kaum jemals erreichen, weil die fossilen, verbrennbaren Ressourcen die Menge nicht hergeben. Sollte in vielen hundert Jahren trotzdem eine Verdopplung auf 945 ppm erfolgt sein, hat die menschliche Population (angeblich) 15 % Intelligenz „verloren“ – und damit viel weniger, als der Kompetenzwertunterschied an Gymnasien zwischen den deutschen Bundesländern [5]. Damit dürfte die Weltbevölkerung problemlos leben können, sofern es das einzige Problem bleibt.
Anmerkung: Wer Gegenteiliges lesen möchte, beziehungsweise wissen will, warum es doch (vielleicht, zumindest nicht vollkommen ausgeschlossen) durch den Klimawandel ein Problem werden (könnte), kann dies in [8] tun.

Doch selbst so weit muss es nicht kommen. Es gibt anscheinend wenig bis keinen Mangel an Wissen über den CO2-Einfluss auf den Menschen. Allerdings gab es einen eklatanten Mangel an alarmistischen Ergebnissen.

THE DAILY CALLER: [1]es gibt auch Studien, die zeigen, dass der CO2-Gehalt extrem hoch sein muss, um für die menschliche Gesundheit schädlich zu sein. Interessant ist auch, dass die US Navy durchschnittliche CO2-Konzentrationen von 3.500 Teilen pro Million (ppm) angibt – das ist fast zehn Mal höher als das, was Harvard für sicher hält.
„Daten, die über neun nuklear betriebene U-Boote … gesammelt wurden, geben eine durchschnittliche CO2-Konzentration von 3.500 ppm mit einer Bandbreite von 0-10.600 ppm an.
Die Daten von 10 atomgetriebenen Angriffs-U-Booten geben eine durchschnittliche CO2-Konzentration von 4.100 ppm mit einem Bereich zwischen 300-11,300 ppm“, so
ein Bericht des National Research Council aus dem Jahr 2007 über Expositionsprobleme von U-Boot-Besatzungen.
Interessanterweise stellte das NRC fest, dass „eine Anzahl von Studien darauf hinweist, dass CO2-Expositionen im Bereich von 15.000 bis 40.000 ppm die neurologische Verhaltensweise nicht beeinträchtigen.“
Eine Studie aus dem Jahr 1961 ergab: „23 Besatzungsmitglieder, die 42 Tage lang CO2 bei 15.000 ppm in einem U-Boot ausgesetzt waren“. Die Männer „zeigten keine psychomotorischen Testwirkungen, zeigten aber moderate Zunahmen von Angst, Apathie, Unkooperativität, Verlangen zu gehen und sexuelles Verlangen.“
Eine weitere Studie aus dem Jahr 1967 hat sieben Männer einer CO2-Konzentration von 30.000 ppm ausgesetzt. Die Personen berichteten keine Auswirkungen auf motorische Fähigkeiten, Aufmerksamkeit, Hörfähigkeit, Gedächtnis oder arithmetische und Problemlösungsleistung.“ …

Ein Blick in bayerische Klassenzimmer

Die beim DAILY CALLER gelisteten Werte sind großteils an durchtrainierten, jungen Personen in Extremsituationen gemessen. Das gilt für Schüler*innen sicher nicht. Doch auch bei diesen gelten verblüffend hohe Konzentrationen als weitgehend unbedenklich.

Fraunhofer-Institut für Bauphysik, Schrift: Luftqualität und Geruchsbelastung in Schulen

Eine passender Artikel für den Anlass und die Bewertung solcher Wissenschaft und deren Studien erschien gerade bei Novo Argumente:
Novo Argumente12.02.2018: Wissenschaft im Gleichschritt

Dummheit gibt es wirklich, nur die genaue Ursache und die Richtung sind unklar

Wenn die Studienergebnisse Wirkung hätten, wären die Weltkriege und die schlimmsten Massenausrottungen (auch die in sozialistischen Ländern) zu klimatischen Zeiten „größerer Intelligenz“ erfolgt. Anscheinend lassen sich aber wirklich Auswirkungen erkennen:
EIKE 07.10.2016:
[9] Was haben der Schauspieler Di Caprio und Claudia Roth gemeinsam: Beide sind fest davon überzeugt, dass jemand, der dem Klimawandel skeptisch gegenüber steht, dumm sein muss

Quellen

[1] THE DAILY CALLER 10/27/2015: Scientists Claim High CO2 Levels Are Making People Dumber

[2] EIKE 30.11.2016: Ist die Wahl von Trump eine Auswirkung des Klimawandels? Wenn es wärmer ist, werden die etablierten Parteien abgewählt, wie eine Studie belegt

[3] EIKE 11. Februar 2018: Eisbären benötigen 1,6 Mal mehr Energie als bisher bekannt und deshalb werden sie am Klimawandel untergehen

[4] EIKE 12. Februar 2018: Erwärmung könnte die Persönlichkeit der Menschen verändern – bis hin zur Kriminalität

[5] WAXMANN: IQB-Bildungstrend 2015 Sprachliche Kompetenzen am Ende der 9. Jahrgangsstufe im zweiten Ländervergleich

[6] National Geographic: Klimawandel macht Bartagamen dümmer

[7] Die Welt 01.04.14: Den Klimawandel mit wärmenden Textilien bekämpfen

[8] THINK PROGRESS Joe Romm Oct 26, 2015: Exclusive: Elevated CO2 Levels Directly Affect Human Cognition, New Harvard Study Shows

[9] EIKE 07.10.2016: Was haben der Schauspieler Di Caprio und Claudia Roth gemeinsam: Beide sind fest davon überzeugt, dass jemand, der dem Klimawandel skeptisch gegenüber steht, dumm sein muss




Globale Erwärmung ist schuld an gewalttätigen Konflikten – Diese Behauptung ist nicht neu, jedoch noch immer falsch

Gore ist damit nicht alleine. Der ehemalige Außenminister John Kerry warnte oft vor den Verbindungen zwischen der Erderwärmung und gewalttätigen Konflikten. In jüngster Zeit haben einige Forscher die Unruhen im Iran mit der globalen Erwärmung in Verbindung gebracht, sie erwarten eine mehrjährige Dürre.

Eine neue Studie führt jedoch eine scharfe Kritik gegen solche Forschung an, die globale Erwärmung mit gewaltsamen Konflikten verbinden. Die Studie, die in der Zeitschrift „Nature Climate Change“ veröffentlicht wurde, stellt heraus, dass diese Forschung unter einem „Straßenlaterne-Effekt“ leidet.

„Wir zeigen, dass Forschung zu Klimawandel und gewalttätigen Konflikten unter einem „Straßenlaterne-Effekt“ leidet“, heißt es in der Studie. Der „Straßenbeleuchtungseffekt“ ist, wenn Forscher dort nach Antworten suchen, wo es erwartet wird, und nicht dort, wo die Antwort richtig sein könnte.

„Darüber hinaus sind Studien, die sich auf eine kleine Anzahl von Fällen konzentrieren, stark von den betrachteten Konfliktfällen abhängig, es werden keine Stichproben zu den unabhängigen Variablen (Klimafolgen oder -risiken) vorgenommen und man findet daher einen Zusammenhang zwischen diesen beiden Variablen „.

Die Verbindung der Erderwärmung mit gewalttätigen Konflikten wurde nach dem Ausbruch der Gewalt in Syrien im Jahr 2011 populär. Die Forscher waren schnell bei der Beurteilung, dass die Dürre, die das ländliche Syrien verwüstete, als Funke für den Bürgerkrieg diente.

Die Obama-Regierung betrachtete die Erderwärmung als eine Gefahr für die nationale Sicherheit und führende Beamte wiederholten oft die Behauptung, dass die Gewalt in Syrien und der Aufstieg der ISIS auf Klimafaktoren zurückzuführen seien.

Al Gore war ein Hauptvertreter dieser Theorie und dehnte sie noch weiter aus, um zu behaupten, die Flüchtlingswelle im Zuge des syrischen Bürgerkriegs wäre klimabedingt und das führte schließlich auch zur britischen „Brexit“ -Abstimmung.

„Der Klimawandel hat diesen unglaublichen Flüchtlingsstrom nach Europa ausgelöst, der politische Instabilität in Europa schafft, die in gewisser Weise dazu beitrug, dass einige im Vereinigten Königreich sagen, ‚Wow, wir sind nicht sicher, ob wir dabei noch sein wollen mehr, “ behauptete Gore im Jahr 2017.

Aber die Nature-Studie fand heraus, dass Forschungsergebnisse, die angeblich die Klimafolgen-Theorie unterstützen, fehlerhaft sind. Konträr stehen diese Theorien zu der Tatsache, dass Umweltprobleme oft zur Kooperation führen und nicht zu Konflikten.

„Diese Verzerrungen bedeuten, dass die Forschung zu Klimawandel und Konflikten sich in erster Linie auf einige wenige zugängliche Regionen konzentriert, die Zusammenhänge zwischen beiden Phänomenen überzeichnet und keine friedlichen Folgen des Klimawandels erklären kann“, heißt es in der Studie. „Dies könnte zu fehlangepassten Reaktionen an jenen Orten führen, die stigmatisiert werden, weil sie anfälliger für klimabedingte Gewalt sind.“

Dies sind nicht die ersten Forscher, die den Geschichten über Klimakonflikte nachspüren. Clionad Raleigh, Professorin für Politische Geographie an der Universität von Sussex, hielt letztes Jahr einen Vortrag an der Universität von Oxford, wo sie einen Großteil der Theorie entlarvte.

„Schwierige Bedingungen, die durch den Klimawandel verschärft wurden und die durch Klimawandel sehr gefährdet sind, machen eine Zusammenarbeit viel wahrscheinlicher. Aber Zusammenarbeit macht keine Schlagzeilen, also hören wir nur selten davon. Stattdessen sind Orte wie Syrien mit klimatischen Veränderungen verbunden, die seit Jahrzehnten in diesen Gebieten stattfinden.
 – Und warum diese Kriege dort ausbrachen – mehr als vierzig Jahre Unterdrückung und Autokratie, werden oft ignoriert, weil die Leute, die die Studien machen, ein Klimaargument vorbringen wollen und dies ungeachtet der anderen offensichtlichen Gründe für einen Konflikt.“

Erschienen auf The Daily Caller am13.02.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/13/al-gore-global-warming/




Die immer neu aufstei­genden und unter­gehenden Inseln wie zum Beispiel Tuvalu

Tuvalu nimmt stetig an Fläche zu

Während in deutschen „Qualitätsmedien“, bezeugt durch das spezielle Wissen von NGO-Vertreter*innen, die Atolle stetig weiter sinken:
BR2 11.05.2017: [2] Fluchtgrund Klimawandel Wenn die Erderwärmung eine ganze Insel bedroht
… Tuvalu droht im Meer zu versinken – noch ist der Inselstaat ein Extrembeispiel für die Folgen des Klimawandels, Sabine Minninger, Klimaexpertin von Brot für die Welt, fordert, die Folgen der Erderwärmung als Fluchtgrund anzuerkennen …
werden Bürger außerhalb der deutschen „Nachrichtenmauer“ (ab und zu) darüber informiert, wie es um solche Atolle wirklich steht: Die Landflächen der Pazifikinseln nehmen zu – trotz (angeblich drastisch) steigendem Meeresspiegel:
Mail Online 9 February 2018: [1] ‚Sinking‘ Pacific nation Tuvalu is actually getting bigger, new research reveals

Scientists have long thought the Pacific nation of Tuvalu would disappear …
– But, new research has found that the atoll has actually grown by about 3%
Anmerkung: Die Darstellung auf WUWT zu dieser Studie wurde von Herrn Demmig für EIKE übersetzt: EIKE: Die Landflächen der Pazifikinseln nehmen zu – trotz steigendem Meeresspiegel
Die hier zitierten, englischsprachigen Passagen (und viele weitere) finden sich dort übersetzt.

Für EIKE-Leser ist das ein „alter Hut“, denn es ist schon seit Langem bekannt und in mehreren Studien festgestellt:
kaltesonne 23. Juni 2015: [4] Spektrum der Wissenschaft über angeblich vom Untergang bedrohte Südseeatolle: “Noch keine der betroffenen Inseln ist in nächster Zeit von Überflutung bedroht. Einige vergrößern sich sogar auf Grund natürlicher ökologischer Vorgänge”

Und immer wieder beruhigend ist es, wenn sich die Einschätzung aus jahrelanger „Beobachtung“ immer neu bestätigen: Die Südseeatolle können untergehen: Wegen Überbevölkerung, Geldmangel, Zerstörung der Umwelt an Land, den Stränden und im Wasser, durch die extreme Überpopulation, schlechte Regierungen, Krankheiten, Staatsbankrott, Wetterunbilden, unsachgemäße Bebauung, natürlich auch in Klimasimulationen. Aber derzeit nicht wegen des angeblichen Klimawandels.

Mail Online 9 February 2018: [1] … The Pacific nation of Tuvalu — long seen as a prime candidate to disappear as climate change forces up sea levels — is actually growing in size, new research shows.
A University of Auckland study examined changes in the geography of Tuvalu’s nine atolls and 101 reef islands between 1971 and 2014, using aerial photographs and satellite imagery. It found eight of the atolls and almost three-quarters of the islands grew during the study period, lifting Tuvalu’s total land area by 2.9 percent, even though sea levels in the country rose at twice the global average.

Bild 1 Bilder der Landzunahmen aus der Studie [1] An analysis of aerial photographs and satellite imagery between 1971 and 2014 suggests the island isn’t being swallowed up, as previously thought – instead, it appears to be growing. Examples of its changing size can be seen above, with dates indicated as different color lines

Was ist mit dem Meerespegel bei Tuvalu?

Trotz im Ausland freierer Berichterstattung „gilt“ auch dort in vielen Regionen natürlich die „Klimawandel-Doktrin“. Dies dürfte der Grund sein, warum im Mail Online-Artikel noch erzählt wird, der Seepegel bei Tuvalu würde doppelt so schnell steigen wie normal: [1] … even though sea levels in the country rose at twice the global average …

Aber auch dies lässt sich klären, sobald auf die nachsehbaren Fakten geschaut wird. Die Pegeldaten des von der Australischen Regierung durchgeführten Monitoringprojektes dürften wenig angreifbar sein. Und diese zeigen für Tuvalu seit Beginn der Messreihe um ca. 1994 nicht die geringste Spur eines Pegelanstieges. Einen flacheren, als diesen schnurgerade horizontalen Verlauf kann man sich kaum vorstellen.
Nun sind diese Tidenpegel nicht isostatisch bereinigt. Es könnte also immer noch sein, dass der Pegel dort wirklich steigt. Dann muss sich das Land genau mit diesem „doppelten Anstieg“ mit heben – etwas unwahrscheinlich. Zudem: Auf den Atollen wirkt alleine der Tidenpegel – und dieser stieg seit dem Beginn der Messreihe jedenfalls nicht.
Ende 2017 war der Tidenpegel-Mittelwert genau an dem Punkt, wie zu Beginn der Messreihe um 1993 … 1994.

Bild 2 TUVALU Pegelverlauf Mittelwert seit 1994. Quelle Australien Government: Pacific Sea Level Monitoring Project

Es war anzunehmen, dass die Veröffentlichung dieser Studie (obwohl es längst bekannt ist) nicht allen gefällt:
[12] … Der Premierminister von Tuvalu, Enele Sopoaga, zeigte sich gegenüber der „Fiji Times“ nicht besonders glücklich über die Veröffentlichung. „Die Ausweitung unserer Küstenlinien bedeutet nicht, dass unsere Menschen auch wirklich mehr Lebensraum haben.“ Er kritisierte die Art und Weise, wie der Bericht in „Nature Communications“ veröffentlicht wurde – ohne dass einheimische Wissenschaftler dazu ihre Meinung äußern konnten. Zudem gehe der Artikel nur auf ein Problem ein, das durch den Klimawandel droht; andere Probleme, die das Leben auf den Inseln unmöglich machen könnten, übergehe er dagegen.
Die Gefahr, dass zum Beispiel Frau Hendricks davon Kenntnis nimmt und die Überweisungen deutscher Klimaschutzgeldern an solche Länder stoppen würde, dürfte jedoch gering sein. Dass die ungefähr 25.000, regelmäßig auf Spesen zu Klimagipfeln Reisenden es zur Kenntnis nehmen, kann man ebenfalls fast mit Sicherheit ausschließen. Der Premierminister braucht sich deshalb also bestimmt keine großen Sorgen zu machen (rein persönliche Meinung des Autors).

Vergleiche von Tidenpegel und Satellitenmessung

Bild aus dem EIKE-Artikel von K. Puls

Neben dem, dass bei Tidenpegeln der Interpretation verblüffend viel „Spielraum“ bleibt:
EIKE 13.08.2017:
Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug,
wird der gemeldete, hohe Pegelanstieg (ca. doppelt so viel wie der Tidenpegelanstieg) nur von Satelliten gemessen. Und hierbei stellt sich natürlich die Frage, warum Pegelmessungen direkt am Objekt ungenauer sein sollen, als die aus 1.340 km (Jason-Reihe) bis 840 km (Sentinel-3A) gemessenen von Satelliten.
Man kann nach vielen Korrekturen und Anwendung von „Algorithmen“ Werte finden, von denen angenommen wird, sie würden so etwas wie den Meerespegel repräsentieren – beginnend in etwa 100 km Entfernung von Küsten, davor „versagt“ das Satellitenverfahren. Und wie schon bei den Temperaturmessungen, ist damit der passenden „Adjustierung“ Tür und Tor geöffnet.
Klaus Puls hatte es einstmals in einem EIKE-Artikel: Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht

Bild aus dem EIKE-Artikel von K. Puls

und für „kaltesonne“ zusammengefasst:
kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All

Bild aus dem „kaltesonne“-Artikel von K. Puls

Und die Daten der Pegelmessungen wurden aktuell wieder bestätigt [8]. Eine umfangreiche Zusammenfassung zur Problematik und Historie der Tidenpegel findet sich bei:

Climate Etc, Judith Curry February 10, 2018: [9] Sea level rise acceleration (or not): Part III – 19th & 20th century observations

Der Pegelforscher, Herr Prof (em) Mörner geht in seiner neuesten Studie so weit, der Satellitenauswertung manipulierte Daten vorzuwerfen, weil Tiden-Pegelmessungen und Satellitenwerte einfach zu weit auseinanderliegen:
Nils-AxelMörner August 2017: [7] Sea Level Manipulation
Abstract: Sea level changes is a key issue in the global warming scenario. It has been widely claimed that sea
is rising as a function of the late 20th’s warming pulse. Global tide gauge data sets may vary between +1.7
mm/yr to +0.25 mm/yr depending upon the choice of stations. At numerous individual sites, available tide
gauges show variability around a stable zero level. Coastal morphology is a sharp tool in defining ongoing
changes in sea level. A general stability has been defined in sites like the Maldives, Goa, Bangladesh and Fiji.
In contrast to all those observations, satellite altimetry claim there is a global mean rise in sea level of about
3.0 mm/yr. In this paper, it is claimed that the satellite altimetry values have been “manipulated”. In this
situation, it is recommended that we return to the observational facts, which provides global sea level records
varying between ±0.0 and +1.0 mm/yr; i.e. values that pose no problems in coastal protection.

Bild [7] Vergleich Satellitenpegel und Tidenpegel aus der Studie Mörner

Wie immer beim AGW-Klimawandel: Es gibt auch die genau gegensätzliche Belegung

Herr Professor Rahmstorf vom PIK sagt zu den Pegeln folgendes:
[10] Der Anstieg des Meeresspiegels Stefan Rahmstorf
Der Meeresspiegel steigt, er steigt schneller als erwartet, und der Anstieg hat sich beschleunigt. Dies sind drei der Kernaussagen des neuen IPCC-Berichts. Seit 1870 ist der globale Meeresspiegel um rund 20 cm angestiegen – dies zeigen die weltweiten Pegelmessungen an den Küsten (Abb. 1). Dabei kann man mit hoher Konfidenz sagen, dass die Anstiegsrate sich über diesen Zeitraum erhöht hat. Satellitenmessungen zeigen für den Zeitraum 1993-2003 einen Anstieg um 3,1 mm/Jahr – berücksichtigt man die neuesten Daten bis 2006, sogar um 3,3 mm/Jahr (Rahmstorf et al., 2007). Zudem zeigen geologische Daten und historische Quellen, dass in den Jahrtausenden zuvor der Meeresspiegel nahezu stabil war.

Zu den „neuesten Daten“ ist in: Climate Etc, Judith Curry February 10, 2018: [9] Sea level rise acceleration (or not): Part III – 19th & 20th century observations.
fast alles zusammengestellt. Zum „ … nahezu stabilen“ Meeresspiegel gibt es ebenfalls eine kleine Zusammenfassung:
EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren,
wonach dieser mindestens um ca. zwei Meter schwankte. Bezogen auf das Ende der letzten Eiszeit vor ca. 20.000 Jahren mit ca. 130 m tieferem Meerespegel ist das sicher nahezu stabil. Aber nicht auf die heutzutage als Alarm „gehandelten“ Millimeter. Viele andere Experten gehen (aufgrund ihrer Proximessungen) davon aus, dass der Meerespegel früher sogar zwischen ein – bis zwei Meter höher war.

Und das „Wissen“ darüber überschlägt sich gerade (wieder)

Vor fast drei Jahren kam eine Studie heraus, in welcher zugestanden wurde, dass die Satelliten-Pegelwerte aus bestimmten Gründen systematische Fehler hatten und korrigiert werden müssen. Das Besondere daran war: Zu einem geringeren Pegelanstieg hin:
Nature 11 May 2015: Unabated global mean sea-level rise over the satellite altimeter era
The rate of global mean sea-level (GMSL) rise has been suggested to be lower for the past decade compared with the preceding decade as a result of natural variability1, with an average rate of rise since 1993 of +3.2 ± 0.4 mm yr−1 (refs 2, 3). However, satellite-based GMSL estimates do not include an allowance for potential instrumental drifts (bias drift4,5). Here, we report improved bias drift estimates for individual altimeter missions from a refined estimation approach that incorporates new Global Positioning System (GPS) estimates of vertical land movement (VLM). In contrast to previous results (for example, refs 6, 7), we identify significant non-zero systematic drifts that are satellite-specific, most notably affecting the first 6 years of the GMSL record. Applying the bias drift corrections has two implications. First, the GMSL rate (1993 to mid-2014) is systematically reduced to between +2.6 ± 0.4 mm yr−1 and +2.9 ± 0.4 mm yr−1, depending on the choice of VLM applied …

Man brauchte kein Hellseher zu sein, um zu wissen, dass was nicht sein darf, nicht sein kann und unermüdlicher Forscherfleiß bald das Gegenteil herausfinden würde. Und so kam es:
Die aufsehenerregende Studie erschien gerade und das Ergebnis: Nach neuem, diesmal besonders sorgfältigem Nachrechnen kommt heraus, dass mit mehr als zuverlässiger Sicherheit der Meerespegel noch viel schneller steigt als bisher angenommen:
SPON 12.02.2018: [11] Satellitenmessungen Meeresspiegel steigt immer schneller
Der Meeresspiegel steigt jedes Jahr etwas schneller – und der Zuwachs könnte deshalb bis zum Jahr 2100 mehr als das doppelt so groß sein, als wenn man von einem linearen Anstieg ausgeht. Das haben Wissenschaftler anhand von Satellitenmessungen errechnet.
Seit 1993 stieg der Meeresspiegel im weltweiten Durchschnitt jährlich um etwa drei Millimeter. Die nun gemessene Beschleunigung könnte dazu führen, dass der Anstieg im Jahr 2100 zehn Millimeter pro Jahr beträgt. Das berichtet die Forschergruppe um Steve Nerem von der University of Colorado in Boulder
in den „Proceedings of the National Academy of Sciences“.
Bis zum Ende des Jahrhunderts könnte demnach der Durchschnittspegel an den Küsten um 65 Zentimeter höher liegen als im Jahr 2005. „Und das ist mit ziemlicher Sicherheit eine vorsichtige Schätzung“, wird Nerem in einer Mitteilung seiner Universität zitiert.

Dabei ist der Pegel nicht gestiegen. Er hätte aber stärker steigen können

Inzwischen gewöhnt man sich daran, dass sich beim Klimawandel das „Wissen“ in wirklich atemberaubendem Tempo ändert und auch plötzlich drehen kann. Vor allem, seitdem dank moderner Computer die Statistik, welche früher so maximal zwei Stellen signifikant ermitteln konnte, inzwischen fast beliebig viele nach dem Komma produziert. Auch gelingt es inzwischen meisterhaft, Einflüsse herauszurechnen und Fehler rückwirkend genau zu erkennen, die wie bei den Temperaturmessungen komischer Weise (fast) immer in Richtung zu mehr Alarm führen (bitte die bittere Ironie des Absatzes bemerken):
SPON 12.02.2018: [11] Ergebnis: Die ersten Jahre der Satellitenmessungen hatten zu hohe Werte ergeben, das Messgerät war anscheinend falsch eingestellt; die Werte haben die Forscher nun nach unten korrigiert. Entsprechend größer fiel der Meeresspiegelanstieg in den folgenden Jahren aus … So seien zahlreiche Effekte, die nichts mit dem Klimawandel zu tun haben, herausgerechnet worden.

Es wurde also eine inzwischen beliebte Methode verwendet, um zusätzlichen Anstiegsalarm zu erzeugen: Man rechnet nach, wie es ohne Klimawandel gekommen wäre und die Differenz packt man dann oben drauf. Ob man es berechnen kann, ist ziemlich nebensächlich, wichtig ist eigentlich nur, dass es mehr wird.
Wie man weiß, wie es ohne „Klimawandel“ gekommen wäre? Das weiß man natürlich nicht, aber Klimasimulationsprogramme können es doch ganz genau berechnen.

Solchem Vorgehen, vor allem, dass nach so langer Zeit endlich jemand „sehr gründlich ausgewertet“ hat, gebührt Lob, und es kam – wohl nicht rein zufällig – aus einem Institut, welches dank dem „Klimawandel“ geradezu „explodiert“ ist und ohne diesen wohl den Großteil seiner Mitarbeiter entlassen müsste:
[11] „Die Studie stellt sehr glaubhaft dar, dass es eine Beschleunigung des Anstiegs gibt“, urteilt Ingo Sasgen vom Alfred-Wegener-Institut (AWI) in Bremerhaven. Die Forscher hätten nicht nur neue Messdaten verwendet, sondern diese auch sehr gründlich ausgewertet.
Anbei die letzten Forschungsthemen am Institut des Dr. I. Sasgen:
Wie groß sind die Verluste der kontinentalen Eismassen (insbesondere von Grönland) und wie reagiert der Meeresspiegel auf Schmelzwasser und Erwärmung?
Forschungsthema des Monats Juni 2017: Untersuchungen zum Aufbau und Zerfall des Laurentidischen Eisschildes und mögliche Implikationen für den zukünftigen Meeresspiegelanstieg
Forschungsthema des Monats Dezember 2015: Wechselwirkungen zwischen Eisschilden und der festen Erde: Können schnelle Landhebungen eine Katastrophe in der Westantarktis verhindern?

Welchen Meerespegel wünschen Sie?

Der Autor verheimlicht nicht, dass er nach orientierender Sichtung dieser Studie [11] zu einer anderen Meinung als Herr Dr. Sasgen gekommen ist. Vielleicht tippt er darüber noch einen Artikel. Auf Achgut wurde ein Teil davon bereits vorweggenommen:
Achgut 17.02.2018: Höchste Pegelstände in der Volkserziehung

Unabhängig davon kann jeder Bürger inzwischen fast schon demokratisch wählen, welcher Meerespegelanstieg im am besten liegen würde:
Den unscheinbaren mit 1,7 mm/pa, als Tidenpgegel an den Küsten gemessenen,
den doppelt so hoch ansteigenden mit ca. 3 mm/pa der Satelliten,
oder den ganz genau aus Satellitendaten berechneten, welcher mit zusätzlichen 0,08 mm/pa im Quadrat seit 1993 bis ins „unendliche“ ansteigt [11].
Die vielen, auf anderem Weg vom PIK simulierten, welche bis zu 60 m reichen, nicht zu vergessenen

Wie der Pazifikstaat Tuvalu unterging – beinahe

Anbei Wiederholungen aus früheren Pegelartikeln des Autors, um neueren Lesern aufzuzeigen, wie Klimawandelmärchen entstehen (können) und nicht mehr verschwinden – im Gegenteil, sogar Eingang in Fachbücher finden:

Zu Tuvalu: [5] … Trotzdem gilt TUVALU weiterhin als ein Paradebeispiel für den Untergang eines Südsee-Atolls. Vorwiegend jedoch durch endloses Kopieren und wiederholen einer Falschmeldung, die nie berichtigt wurde. Man würde kaum etwas darüber erfahren, hätte der Spiegel nicht einstmals etwas dazu geschrieben (Anmerkung: In [2] ist ein weiterer, ähnlicher Fall geschildert).
Leider ist der Artikel nur zur Verlinkung freigegeben. Er beschreibt, wie die Meldung über den angeblichen Untergang von Tuvalu entstand und als dessen „Zeuge“ ein nie mehr auffindbarer Bewohner angegeben (und für ausreichend befunden) wurde.
SPIEGEL 22.12.2001:
Die Südsee-Ente Wie der Pazifikstaat Tuvalu unterging – beinahe
… „Ich wurde ebenfalls von Journalisten aus der ganzen Welt belästigt, die erfahren wollten, ob die Einwohner Tuvalus auswandern nach Neuseeland und Australien. Bitte sag allen Journalisten, dass diese Berichte unwahr sind.“ Schmidt ist erleichtert. Er ist noch Honorarkonsul. Eine Erklärung für die Falschmeldung hat er nicht.
In Deutschland wurde die Meldung vom Untergang des Südseestaats, dem ersten Land, das der Klimakatastrophe zum Opfer fallen würde, von der Deutschen Presse-Agentur verbreitet und unter anderem in der „tageszeitung“, der „Frankfurter Allgemeinen“, der „Frankfurter Rundschau“ und dem „Tagesspiegel“ gedruckt. Als Quelle nennt dpa das Earth Policy Institute in Washington D. C.
Seit diesem gemeldeten, und damit allgemein bekanntem, falschen Untergang versinkt diese Insel geradezu exemplarisch ständig neu, sogar auf Seiten, welche es wirklich besser wissen müssen:
klimaretter.info, 01. November 2016: „
Wer Tuvalu aufgibt, gibt die Welt auf“.
Auch darüber wurde ein (Propaganda-)Film gedreht:
Film ThuleTuvalu:
Text aus der Ankündigung: Thule in Grönland und Tuvalu im Pazifik verbindet eigentlich nichts. Nur wenn der Meeresspiegel weiter steigt, werden die Inuit ebenfalls bald untergehen.
Umweltministerin Frau Hendricks, wie oft unbelastet von ausreichendem Wissen, fand diesen reinsten Propagandafilm ergreifend und meinte, ihn loben zu müssen:
Frau Hendricks: [8]
„Der Film Thule Tuvalu veranschaulicht in sehr berührender Art und Weise die Konsequenzen der Erderwärmung, die wir Bewohner vom „Festland“ oft nicht genug vor Augen haben. Es ist höchste Zeit, dass alle Menschen über die ökologischen Auswirkungen des Klimawandels aufgeklärt werden: den Verlust von Lebensräumen, das Artensterben und klimabedingte Auswanderung – um nur einige Beispiele zu nennen. Es muss im Interesse der internationalen Gemeinschaft liegen, Ökosysteme wie Thule und Tuvalu streng zu schützen. Ich bedanke mich bei den Machern für diese bewegende Geschichte.“

Deshalb ist es auch nicht verwunderlich, dass sich hinter dem „Erstmals werden Klimaflüchtlinge anerkannt“ im Kern ganz andere Beweggründe als der Klimawandel verbergen, worüber auf der BMUB-Homepage erst in einem Unterdokument informiert wird:
Umweltmigration.org: Die Familie Alesana zog 2007 von Tuvala nach Neuseeland. Dort hatten sie seit 2009 keinen legalen Einwanderungsstatus mehr – sie verloren ihre Arbeitsvisa und reichten daraufhin ihren Asylantrag 2012 ein. Im folgenden Jahr wurde der Antrag noch abgelehnt, ein Einspruch ebenso. Letztendlich wurde nun dem Antrag der Familie stattgegeben.
Letztendlich siegte die Familie, weil „außergewöhnliche humanitäre Gründe“ von den Neuseeländischen Immigrationsbehörden als Fluchtgrund anerkannt werden. Außerdem lebten bereits 6 Schwestern des Vaters in Neuseeland sowie seine Mutter, die Pflege brauchte. Die Kinder der Familie galten zudem als besonders schutzbedürftig.
Der Klimawandel stellte für die Entscheidung nur einen von zahlreichen weiteren Gründen für die Genehmigung des Asylantrags dar, wie der Richter zum Schluss noch einmal betonte.

Weitere Inseln, die aufgrund von Erzählungen sogar in Fachbüchern „untergehen“

Im Buch „Klimawandel im Pazifik“, Ausgabejahr 2013 der Reihe „Beiträge zur Pazifik-Forschung“ der Österreichisch-Südpazifischen Gesellschaft sind Beispiele zu den Schlagzeilen über „Inseluntergänge“ und daraufhin angeblich folgenden Umsiedlungen gelistet. Die Herausgeber des Buches wahren mehrmals in den beschriebenen Regionen vor Ort und sind keinesfalls klimakritisch – jedoch erkennbar faktenkritisch – eingestellt (der Autor hat bisher keine fundierteren gefunden).

Beurteilt werden von den Autoren die Angaben in dem Buch: Weltatlas des Klimawandels, 2. Erweiterte Auflage von 2007 (Herr. Prof. Schellnhuber, Leiter des Potsdamer PIK, hat dazu das Vorwort geschrieben).

Die Carteret-Inseln
Listung aus „Klimawandel im Pazifik“, Kapitel: Migration und Umsiedlung: die Carteret-Inseln in Papua-Neuguinea
Im „Weltatlas des Klimawandels“ steht:
… Umsiedlung von Inselbewohnern: Die 2.000 Bewohner der Carteret-Inseln in Papua-Neuguinea mussten auf eine benachbarte Insel umsiedeln, weil der zunehmende Salzgehalt im Wasser ihre Obstbäume abgetötet hatte und ihre Häuser von Hochwasser und Strurmfluten weggespült worden waren.
Auslöser dieser Information, welche vorher global in praktisch allen Medien erschien
(Anm.: Einfach googeln, es erscheinen „tausende“ Einträge), war ein Artikel aus dem „Jamaica Gleaner Online“.
Im Buch wird dazu gelistet, dass die Probleme der Inseln bereits in den 60er Jahren vorhanden waren, also weit vor der „Ausrufung“ des Klimawandels und bereits damals die (inzwischen nicht mehr) zuständige Australische Regierung Umsiedlungen erwog, vor allem auch, da die Inseln überbevölkert wurden. Und, dass wissenschaftliche Untersuchungen zur Umweltproblematik dieser Inselgruppe nicht bekannt sind.
Weiter steht dann:
„Das Defizit an wissenschaftlicher Forschung und gesicherten Erkenntnissen hat die globalen Medien keineswegs daran gehindert, die Bewohner der Carteret-Inseln zu „some of the world`s first climate-refugees“ zu stilisieren.
Fakt ist: Eine Umsiedlung erfolgte bisher nicht (2010 sollen es zwei Familien gewesen sein, eventuell auch 20 Familien zusätzlich).
Fazit: Die Angaben im Klimaatlas sind falsch. Es wurden Zeitungsmeldungen abgeschrieben.

Die Inseln Bikemann und Tebua Tarawa in Kiribati
Weitere Listung aus „Klimawandel im Pazifik“, Kapitel: Die Inseln Bikemann und Tebua Tarawa in Kiribati
Im Weltatlas des Klimawandels steht in der Rubrik „untergehende Inseln“ der Text: „Zwei unbewohnte Inseln der Inselgruppe Kiribati verschwanden 1999 unter dem gestiegenen Meeresspiegel. Die verbleibenden 33 Inseln der Gruppe mit 103.000 Einwohnern werden voraussichtlich ebenfalls untergehen“. Als Quelle geben die Autoren einen BBC-Bericht des Umweltkorrespondenten Alex Kirby vom 15. Juni 1999 an.
Fakt ist: Die „untergegangene“ Insel Bikemann sieh man heute noch. Zudem wurde 1987 ein Damm mit Straße zwischen den Inseln Bikemann und Bairiki gebaut. Dieser führte zu einer drastischen Veränderung der Strömungsdynamik und damit den wichtigen Sandablagerungen in der Lagune, welche sich vor allem auf die Insel Bikemann auswirkte. Zum Schluss legt das Kapitel klar, dass die genannten Inseln nicht einem steigenden Meeresspiegel zum Opfer fielen.

Die Inseln Tegua und Vanuatu

Weitere Listung aus „Klimawandel im Pazifik“, Kapitel: Die Inseln Tegua und Vanuatu
Im Weltatlas des Klimawandels steht: „Der Anstieg des Meeresspiegels zwang die 100 Einwohner von Tegua, einer Insel der Vanuatu-Inselgruppe, ihre Inseln im Dezember 2005 zu verlassen“.
Das Buch schreibt dazu: „…. Viel wesentlicher ist jedoch die Tatsache, dass die Schilderung der Situation der Situation auf Tegua wie sie im Weltatlas des Klimawandels wiedergegeben wird, jeder Grundlage entbehrt. Sie wurden im Rahmen eines Hilfsprojekts zur Anpassung an den Klimawandel vielmehr bei dem Vorhaben unterstützt, von der Küste weg in eine höhere Region überzusiedeln. Im Hinblick darauf ist auch die Kategorie „Verlassene Inseln“ unzutreffend   … so kann auch hier von einer dringlichen Fluchtbewegung nicht die Rede sein.
Dazu kommt noch eine ergänzende Information: „… nachdem die Inselbewohner ihre Hilfsgelder aus einem Klimafonds kassiert hatten, wollten sie nicht einmal innerhalb des Atolls auf eine höhere Geländestufe umziehen“. Eine neuere Studie weist darauf hin, dass die Probleme auf Tegua weniger mit dem Klimawandel, als vielmehr mit Erdbeben und vertikalen, tektonischen Bewegungen in der Region zu tun haben.

Quellen

[1] Mail Online 9 February 2018: ‚Sinking‘ Pacific nation Tuvalu is actually getting bigger, new research reveals

[2] BR2 11.05.2017: Fluchtgrund Klimawandel Wenn die Erderwärmung eine ganze Insel bedroht

[3] EIKE 04.11.2016: Tuvalu versinkt mal wieder– rechtzeitig zum Klimagipfel in Marrakesch

[4] kaltesonne 23. Juni 2015: Spektrum der Wissenschaft über angeblich vom Untergang bedrohte Südseeatolle: “Noch keine der betroffenen Inseln ist in nächster Zeit von Überflutung bedroht. Einige vergrößern sich sogar auf Grund natürlicher ökologischer Vorgänge”

[5] EIKE 15.04.2017: Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert

[5] Basler Zeitung 01.02.2018: «Diese Forscher haben eine politische Agenda» Der Ozeanograph Nils-Axel Mörner stellt sich gegen den Weltklimarat und die Warnungen vor versinkenden Inseln.

[6] EIKE 14. Februar 2018: Meeresspiegel-Hysterie: Spekulationen vs. Fakten

[7] Nils-AxelMörner August 2017: Sea Level Manipulation; Intern. J. Engineering Science Invention, ISSN (Online): 2319 – 6734, ISSN (Print): 2319 – 6726

[8] AMS, Thomas Frederikse Department of Geoscience and Remote Sensing, Delft University of Technology, Delft, Netherlands: A Consistent Sea-Level Reconstruction and Its Budget on Basin and Global Scales over 1958–2014

[9] Climate Etc Judith Curry February 10, 2018: Sea level rise acceleration (or not): Part III – 19th & 20th century observations

[10] Buch: Der UN-Weltklimareport (2007), 1. Auflage, Verlag Kiepenheuer & Witsch, 440 Seiten, ISBN-10: 3462039601, ISBN-13: 978-3462039603, herausgegeben von Michael Müller, Ursula Fuentes und Harald Kohl

[11] SPON 12.02.2018: Satellitenmessungen Meeresspiegel steigt immer schneller

[12] Spektrum.de 16.02.2018: Tuvalu geht nicht unter – im Gegenteil




Der Fluch der Simulationen

Stimmen Messdaten zum Klima nicht mit den Simulationen überein, so deuten die Forscher lieber die Messungen um, als dass sie die Simulationen selber infrage stellen.

Stimmen Messdaten zum Klima nicht mit den Simulationen überein, so deuten die Forscher lieber die Messungen um, als dass sie die Simulationen selber infrage stellen. Bild Basler Zeitung ohne weitere Copyright Angabe

Es muss ein schwerer Schritt für Martin Läubli gewesen sein. Diese Woche veröffentlichte der Wissenschaftsredaktor des Tages-Anzeigers einen ganzseitigen Artikel mit dem Titel «Ozonschicht erholt sich doch nicht». Er nahm dabei Bezug auf eine neue Studie der ETH Zürich und des Physikalisch-Meteorologischen Observatoriums Davos, wonach das Ozon in der Stratosphäre, das vor gefährlicher UV-Strahlung schützt, in den letzten Jahren nicht zugenommen, sondern sogar weiter abgenommen hat – und das, obwohl der Ausstoss sogenannter Fluorchlorkohlenwasserstoffe (FCKW) seit dem Abkommen von Montreal von 1987 um über neunzig Prozent gesunken ist. FCKW gelten als Verursacher des Ozonlochs.

Früher klang es in Läublis Artikel noch anders. «Die Ozonschicht erholt sich», schrieb er 2014 im Tages-Anzeiger. Er bezeichnete damals das in Montreal beschlossene Verbot von FCKW als «Meilenstein» und dessen Wirkung als «Erfolgsgeschichte».

 

Brüder im Geist

Ein Schlag für seine Glaubwürdigkeit muss die neue Studie auch für den Berner Klimaforscher Thomas Stocker sein, der lange zum innersten Zirkel des Weltklimarats gehörte. «Das Ozonloch ist eine Erfolgsstory», behauptete er vor zwei Jahren in den Schaffhauser Nachrichten. Man erkenne daran, «was bewirkt werden kann, wenn die Wissenschaft auf ein Problem hinweist und die Politik und die Industrie dann darauf reagieren, indem sie gewisse Produkte verbieten». Stocker wollte damit hervorstreichen, dass es punkto Erderwärmung gleich gehen müsse: Die Politik solle ein Klimaabkommen beschliessen, um den CO2 radikal zu verringern. Nur so könne ein gefährlicher Klimawandel verhindert werden.

Tages-Anzeiger-Redaktor Martin Läubli und Klimaforscher Thomas Stocker sind Brüder im Geist, beide beseelt von der Mission Weltrettung. In seinen Artikeln agiert Läubli als eine Art Hofberichterstatter von Klimaforschern wie Stocker. Er streicht unablässig die angeblichen Gefahren der Erderwärmung hervor und verwedelt zuverlässig jeden Zweifel am Einfluss des Menschen auf das Klima.

In seinem jüngsten Zeitungsbericht zum Ozonloch dürfte es für Läubli besonders schmerzvoll gewesen sein, einzugestehen, dass Wissenschaftler derzeit keine Ahnung haben, warum der Ozonverlust in der Stratosphäre weitergeht. «Die Computermodelle haben den Negativtrend nicht abgebildet», schrieb er im Artikel. Die Verheissungen, das Ozonloch schliesse sich nach dem Verbot der FCKW allmählich wieder, beruhen nämlich auf Computersimulationen.

So ist es aber auch beim Klimawandel: Die Warnungen der Forscher, die dem Weltklimarat nahestehen, stützen sich ebenfalls hauptsächlich auf Simulationen von Computern ab. Stimmen Messdaten zum Klima nicht mit diesen Simulationen überein, so deutet man in diesen Kreisen lieber die Messungen um, als dass man die Simulationen selber infrage stellt. Wenn jetzt aber offensichtlich wird, dass solche Modellrechnungen beim Ozonloch versagt haben, schmälert das auch das Vertrauen in diejenigen Modelle, die die bisherige Erderwärmung auf den Einfluss des Menschen zurückführen und für die Zukunft grosses Unheil prognostizieren.

Vertuscht und verleugnet

In Wahrheit ist es schon seit einigen Jahren offensichtlich geworden, dass das Ozonloch trotz des FCKW-Verbots weiterhin existiert. Bislang wurde dies aber von vielen Wissenschaftlern und ihnen verbundenen Journalisten hartnäckig vertuscht und verleugnet.

2006 erreichte die Ausdünnung der Ozonschicht über der Südhalbkugel ein Rekordausmass. 2010 aber behauptete Atmosphärenforscher Jörg Mäder von der ETH Zürich in einem Fachartikel, das Verbot von FCKW zeige messbare Effekte. Nur ein Jahr später erreichte die Ozonausdünnung auch über der Arktis im hohen Norden Rekordwerte. Dennoch wurden 2014 wieder Erfolgsmeldungen verbreitet: «Das von Menschen gemachte FCKW-Problem ist gelöst, diese Gefahr ist definitiv gebannt», sagte der deutsche Geophysiker Martin Dameris gegenüber der Frankfurter Allgemeinen Zeitung.

2015 aber erreichte das Ozonloch über der Antarktis die nach 2006 zweitgrösste Ausdehnung. Nichtsdestotrotz wurde 2016 erneut die Erholung der Ozonschicht verkündet. «Ozonloch über der Antarktis schliesst sich», schrieb die Neue Zürcher Zeitung.

Sie stützte sich auf eine Publikation im Wissenschaftsblatt Science, laut der sich eine Verlangsamung des Ozonabbaus nachweisen lasse, wenn man nicht wie üblich die Oktoberwerte heranzieht, wenn die saisonal bedingte Ausdünnung der Ozonschicht am grössten ist, sondern die Septemberwerte. «Wir können jetzt sicher sein, dass die Entscheidungen, die wir getroffen haben, den Planeten auf den Weg der Heilung gebracht haben», gab Susan Solomon zu Protokoll, Leitautorin des Artikels in Science.

Die neue Studie unter Schweizer Führung straft diesen Heilsverkündungen nun Lügen. «Die lebenswichtige Ozonschicht war insgesamt noch nie so dünn, seit gemessen wird», sagte Hauptautor William Ball von der ETH Zürich zum Tages-Anzeiger. «Es ist nicht die Entwicklung, die wir erwartet haben», wird Co-Autor Johannes Staehelin zitiert, ebenfalls ETH-Forscher.

Zwar ist denkbar, dass das FCKW-Verbot in den nächsten Jahrzehnten eventuell doch noch Wirkung zeigt und sich das Ozonloch tatsächlich zu schliessen beginnt. Ob es aber so kommen wird, weiss kein Mensch. Das Zusammenwirken verschiedenster chemischer Stoffe in der Atmosphäre scheint zu kompliziert zu sein, als dass man mehr als wissenschaftliche Spekulationen anstellen kann.

Man müsste angesichts dieser Erkenntnis nun zumindest infrage stellen, ob das Abkommen von Montreal wirklich den Nutzen hat, der ihm immer zugeschrieben wurde. Doch stattdessen wird dessen Bedeutung gar noch bekräftigt. «Ohne das Montreal-Protokoll würden wohl langfristig zwei Drittel der globalen Ozonschicht zerstört werden», verkündete Forscher Staehelin im Tages-Anzeiger.

Er agiert damit wie ein Arzt, der seinem Patienten ein Medikament verschrieben hat, ohne dass sich eine Wirkung zeigt – und der nun flugs behauptet, ohne das Medikament wäre der Patient noch deutlich schlimmer dran.

Der Satz des Sokrates

Bei der Ozonproblematik tun die wissenschaftlichen Kreise nun so, als ob sie schon absehen können, warum es anders gekommen ist als angenommen. Eine der angeblichen möglichen Ursachen, die derzeit für die Hartnäckigkeit des Ozonlochs herumgeboten werden, lautet – kein Witz: Die Erderwärmung habe die Verteilung der Luft in der Stratosphäre beeinflusst und damit die Situation verändert.

«Ich weiss, dass ich nichts weiss»Sokrates

Die «Eleganz» dieser Erklärung ist offensichtlich: Man kann so weismachen, dass der Klimawandel, der sich auf Computermodellen abstützt, der Grund ist, warum sich die Computermodelle in Sachen Ozonloch nicht bestätigt haben. Zwei Fliegen auf einen Schlag!

Vielleicht müssten sich gewisse Atmosphären-Wissenschaftler an eine uralte Erkenntnis erinnern: «Ich weiss, dass ich nichts weiss», soll der griechische Philosoph Sokrates vor fast 2500 Jahren geäussert haben. Der Satz ist immer noch eine der klügsten Äusserungen der Menschheitsgeschichte. (Basler Zeitung)

Der Beitrag erschien zuerst in der Basler Zeitung hier