1

Die große Dekarbonisierungslüge – Teil 1: Halbwahrheiten und Unterschlagungen

In den Kalkgesteinen der Erde stecken zwischen 60 und 100 Billiarden Tonnen Kohlenstoff [MOOR]. Entstanden sind sie überwiegend durch die Umwandlung von atmosphärischem CO2 zu Kalkschalen und Skeletten von Meerestieren

Die Wissenschaft, so behaupten es die Vertreter der Theorie vom menschengemachten Klimawandel (Anthropogenous Global Warming, AGW), sei sich in der Frage des Klimawandels weitgehend einig: Der Mensch sei dabei, das Klima in katastrophaler Weise zu destabilisieren. Die Anhänger dieser oft mit quasireligiösem Eifer verfochtenen Lehre sehen als Hauptursache hierfür die Verbrennung fossiler Rohstoffe, welche das als „Treibhausgas“ bezeichnete CO2 freisetzt [WICC, WICO]. Dadurch werde der eigentlich stabile CO2-Kreislauf unseres Planeten in nahezu irreparabler Weise gestört.

Bild 1. Nach Auffassung der Klimawandel-Anhänger hat erst die industrielle Revolution einen dramatischen Anstieg der CO2-Konzentration in der Atmosphäre verursacht (Grafik: Global Warming Art, Creative Commons)

Im Wesentlichen wird von Seiten der Klimaalarmisten behauptet, dass sich die Freisetzung von CO2 aus organischer Materie und seine erneute Bindung durch Fotosynthese seit hunderttausenden von Jahren mehr oder weniger im Gleichgewicht befanden, Bild 1. Diese Balance werde erst jetzt durch den vom Menschen verursachten CO2-Anstieg gefährdet. Besonders pointiert formuliert dies Prof. Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung (PIK), der als Warner vor der sogenannten Klimakatastrophe zum Medienliebling avancierte. In einem Focus-Artikel sagte er: „Die CO2-Konzentration in der Atmosphäre war jahrtausendelang praktisch konstant und steigt erst an, seit wir dem System riesige Mengen an zusätzlichem Kohlenstoff aus fossilen Lagerstätten zuführen [FORA]“. Bei den vom Menschen verursachten Emissionen handele es sich um Milliarden Tonnen Kohlenstoffdioxid, die dem eigentlich stabilen Kohlenstoffkreislauf netto hinzugefügt würden. Ähnliche Auffassungen vertreten auch zahlreiche weitere Klimaforscher, so auch der bekannte Klimakatastrophen-Apologet Michael E. Mann mit seiner „Hockeystick-Kurve“ (Bild 2) [IP31]. Am drastischsten aber formulierte es der US-Politiker Al Gore anlässlich der Auszeichnung mit dem Nobelpreis: „Wir Menschen haben es mit einem globalen Notfall zu tun. Die Erde hat jetzt Fieber. Und das Fieber steigt“ [FOAL]. Am Rande sei übrigens vermerkt, dass Gore bei seinen diesbezüglichen Aktivitäten ein Vermögen von geschätzt mehr als 100 Mio. US-$ ansammeln konnte.

Bild 2. Die inzwischen diskreditierte „Hockeystick-Kurve“: Rekonstruierte Temperatur (blau) und Thermometerdaten (rot), die Fehlergrenzen sind in grau gezeigt (Grafik: Michael E. Mann, Raymond S. Bradley und Malcolm K. Hughes, IPCC/ Wikimedia Creative Commons)

Zweifel sind angebracht

Zum Leidwesen der Klimakatastrophen-Prediger stimmt ihre Theorie mit den leicht nachprüfbaren Fakten nicht so richtig überein. Erste Zweifel sollten aufkommen, wenn man die Entwicklung der nach heutigem Stand der Klimaforschung bestimmten CO2-Konzentrationen in der Atmosphäre [NOAA] mit den gut dokumentierten Emissionen aus der Verbrennung fossiler Brennstoffe [CDIA] in den letzten ca. 260 Jahren im gleichen Diagramm aufträgt, Bild 3.

Bild 3: Theoretisch aufgrund der kumulierten menschlichen Emissionen [CDIA] zu erwartender CO2-Anstieg seit 1751 (rot) sowie Messwerte von Eisbohrkernen sowie vom Mauna Loa [CDIA,CDI2, NOAA] (grün)

Die Berechnung der theoretisch zu erwartenden Zunahme des CO2-Gehalts aufgrund der seit 1751 durch Verbrennung fossiler Rohstoffe akkumulierten CO2-Emissionen führt zu einem Wert von 383 Mrd. t Kohlenstoffäquivalent (bei dieser Berechnungsart wird nur der reine Kohlenstoffanteil im CO2 gewertet), was 189 ppm CO2-Zunahme entspricht (1 Mrd. t = 1 Gt (Gigatonne)). Ausgehend von dem behaupteten vorindustriellen CO2-Pegel von ca. 280 ppm und einem Anstieg von etwas weniger als 0,5 ppm pro Mrd. t zusätzlich eingebrachten C-Äquivalents müsste der CO2-Gehalt der Atmosphäre daher inzwischen bereits auf rund 469 ppm angestiegen sein. Die Diskrepanzen zum gemessenen CO2-Anstieg der Atmosphäre auf derzeit 400 ppm sind zudem nicht nur quantitativ. Auch die völlig unterschiedliche Charakteristik der Kurven fällt sofort ins Auge. So simpel, wie es uns die Klimaalarmisten einreden wollen, sind die Zusammenhänge also offensichtlich nicht.

Die Sache mit den Reservoirs

Die in Bild 3 verdeutlichte Diskrepanz ist natürlich auch den AGW-Vertretern bekannt. Also musste man sich mit der Tatsache beschäftigen, dass CO2 nicht nur in der Atmosphäre vorkommt und es auf der Erde schon seit jeher natürliche Kreisläufe gibt, welche CO2 zwischen verschiedenen Speicherorten hin- und hertransportieren und dabei auch zu anderen Verbindungen wie pflanzlichem oder tierischem Gewebe umsetzen. Hinzu kommen noch die Zerfallsprodukte nach dem Tod dieser Lebewesen in Form von z.B. Böden, Humus oder Torf.

Die wichtigste Reaktion zur Entfernung des CO2 aus der Atmosphäre ist aus Sicht des IPCC (International Panel on Climate Change der UN bzw. „Uno-Klimarat“) die Fotosynthese der Pflanzen. Mit ihrer Hilfe spalten Grünpflanzen CO2 aus der Luft in Kohlenstoff und Sauerstoff auf. Den Kohlenstoff bauen sie in ihr Gewebe ein, während ein Teil des Sauerstoffs an die Atmosphäre abgegeben wird. Über die Nahrungskette hinweg dienen sowohl der Kohlenstoff als auch der Sauerstoff als Grundstoffe des Lebens. Da ein gewisser Anteil von Lebewesen nach dem Tod nicht sofort verwest, sondern zumindest teilweise im Erdboden eingeschlossen wird, enthalten auch die Böden Kohlenstoff. Als stellvertretend für die Modellvorstellungen, die der Öffentlichkeit hierzu präsentiert werden, kann die bei Wikipedia gezeigte Grafik angeführt werden, Bild 4.

Bild 4. Diagramm des Kohlenstoffkreislaufs. Schwarze Zahlen: Inhalt der verschiedenen Reservoire in Mrd Tonnen Kohlenstoff (Gt C), blaue Zahlen: Austausch von Kohlenstoff in Gt Tonnen Kohlenstoff/ Jahr (Quelle: Wikipedia, [KOKR])

Die Märchenstunde der Klimaalarmisten…

Bild 4, das in verschiedensten Varianten in zahlreichen AGW-Veröffentlichungen weite Verbreitung gefunden hat, beinhaltet mehrere grundsätzliche Falschinformationen. Diese sollen die These stützen, dass die Zunahme des CO2-Gehalts der Atmosphäre nahezu ausschließlich auf menschliche Einwirkung zurückzuführen ist und dass das CO2 dort auch auf sehr lange Zeit verbleiben soll, weil nur sehr wenig dauerhaft entfernt werde. Als Ursache des CO2-Anstiegs werden neben der Verbrennung fossiler Rohstoffe noch die Zementherstellung und die Abholzung von Wäldern aufgeführt.

Sieht man sich die Zahlen des Bildes 4 genauer an, so fällt zunächst auf, dass eine wesentliche natürliche Quelle von CO2-Emissionen komplett weggelassen wurde: Der Vulkanismus. Im Weltbild der Klimawarner spielt er eine so unbedeutende Rolle, dass man ihn hier schlicht unterschlagen hat. Dieses Vorgehen ist grob unwissenschaftlich. Hierauf wird in einer weiteren Folge dieses Artikels noch näher eingegangen.

Eine weitere bewusste Falschinformation betrifft die Darstellung des CO2-Austauschs sowohl mit den Ozeanen als auch innerhalb dieser selbst. Die intelligenteren unter den AGW-Vertretern wissen, dass sie hier schummeln, aber sie sind dazu gezwungen, weil man das „Verschwinden“ von rund 55 % der vom Menschen verursachten CO2-Emissionen aus der Atmosphäre nicht mit den Austauschvorgängen mit den Pflanzen und den Böden an Land erklären kann. Deshalb wird verkündet, dass der Rest vom Ozean aufgenommen wird. Da sich dabei z.T. H2CO3 (Kohlensäure) bildet, würden die Meere „versauern“ [KIES], Bild 5.

Bild 5. Eine von AGW-Vertretern gern verwendete Grafik zur Darstellung der angeblichen Ozeanversauerung durch CO2. Die gebildete Säure H2CO3 soll Muscheln, Korallen etc. daran hindern, gesunde Kalkschalen auszubilden (Quelle: [OZEA])

In Bild 4 wird diesem „Verschwinden“ dadurch Rechnung getragen, dass man behauptet, dass 92 Gt C als CO2 vom Ozean aufgenommen werden, während das Meer lediglich 90 Gt C wieder abgibt. Ansonsten werden Kreisläufe innerhalb verschiedener Schichten des Ozeans dargestellt, welche das CO2 im Wesentlichen nur hin und her bewegen. Von den aufgenommenen 2 Gt C landen nach dieser Darstellung lediglich 0,2 Gt nach dem Absterben und Absinken der entsprechenden Lebewesen endgültig als Sediment am Meeresboden, ein auffälliger Unterschied zu den 121,3 Gt C, welche an Land jedes Jahr durch Pflanzen aufgenommen und teils in lebender Biomasse, teils im Boden abgespeichert werden.

Als „Präzisierung“ für die 0,2 Gt C, welche nach Bild 4 am Meeresboden verbleiben, werden vor allem Kieselalgen genannt, weil diese aufgrund des Gewichts ihrer Schalen schnell absinken würden [KIES]. Mit dieser Erläuterung wird das Thema Kalkschalenbildung elegant umgangen und somit verschwiegen. Urheber dieser Irreführung ist ausgerechnet „Wissenschaft im Dialog“, eine gemeinnützige GmbH, hinter der alle großen deutschen Wissenschaftsorganisationen stehen. Ein Musterbeispiel für einen „Konsens der Wissenschaft“ im Interesse des Klimaalarmismus.

Vor allem mit dieser vorgeblich geringen Abspeicherungsrate von CO2 im Meeressediment wird die behauptete lange Verweildauer von CO2 in der Erdatmosphäre begründet [DEEP]). Der Rest der Jahr für Jahr aufgenommenen 2 Gt – also 1,8 Gt C – werde einfach nur im Wasser gelöst und somit reversibel eingespeichert. Die resultierende allmähliche Akkumulation von CO2 im Meerwasser und die daraus gebildete Kohlensäure wird als Ursache für eine zunehmende „Versauerung“ der Meere gesehen, welche letztlich auch dort zu einer katastrophalen Entwicklung mit abnehmenden Erträgen der Fischerei führen werde [OZEA].

Weiterer auffallender Unterschied gegenüber der Situation an Land ist die vergleichsweise recht geringe Masse an Kohlenstoff, die in den Meeressedimenten insgesamt weggespeichert worden sein sollen. Während man davon ausgeht, dass in den Böden an Land 1.580 Gt Kohlenstoff gespeichert seien, wird behauptet, dass in den Meeressedimenten insgesamt lediglich 150 Gt C stecken. Das entspräche insgesamt nur 750 Jahresraten Abspeicherung zu je 0,2 Gt, eine angesichts des Alters unseres Planeten und seiner Meere doch ziemlich bescheidene Menge. Dabei haben die Meere und damit auch der Meeresboden einen wesentlich größeren Flächenanteil (71 %) als das Land, was die Diskrepanz zwischen den behaupteten Größen der beiden Reservoire umso größer macht.

und die dabei unterschlagenen Fakten

Zu diesen Zahlen kann man nur eines sagen: Sie stimmen nicht. Man hat die wichtigste Reaktion im Meer schlicht „übersehen“, man könnte auch sagen bewusst unterschlagen: Die Abbindung von CO2 bei der Bildung der Kalkschalen von Meerestieren wie Muscheln, Schnecken, einzelligen Algen oder Korallen, Bild 6. Kalk ist nichts anderes als Calciumcarbonat (CaCO3) [KALK]. Jedes seiner Moleküle enthält demnach ein komplettes CO2-Molekül, das in steinhartem Material fest gebunden ist. Das Meer wimmelt geradezu von Lebewesen, welche diese Umwandlung vollziehen, wie jeder Besuch an einem beliebigen Meeresstrand sofort beweist. Und diese Schalen sind nicht leicht vergänglich, sondern überdauern den Tod besagter Lebewesen teilweise um hunderte Millionen von Jahren, wie die geradezu ungeheuren Mengen Kalkgestein auf unserem Planeten beweisen.

Bild 6. Die Dekarbonisierung der Atmosphäre aufgrund der Abbindung von atmosphärischem CO2 durch Lebewesen zu Kalkschalen und -skeletten erfolgt in riesigen Mengen

Kalkbildung – die gern unterschlagene CO2-Senke

Und diese Kalkbildung, die schon seit Urzeiten vor allem in den Meeren stattfindet, geht auch heute ungebremst weiter. Auch die Gesamtmenge des in Sedimenten am Meeresboden eingelagerten Kalks bzw. des darin gebundenen Kohlenstoffs ist um ein Vielfaches höher als die von den AGW-Vertretern angegebenen 150 Gt. Nachzulesen ist dies in einer 2003 veröffentlichten Untersuchung des renommierten amerikanischen Professors Wallace Smith Broecker über den CaCO3-Zyklus in den Ozeanen [SEDI]. Dort kommt er zu folgenden Schlussfolgerungen: „Die hoch CaCO3-haltigen Sedimente, welche die ozeanischen Höhenzüge und Plateaus bedecken, haben typischerweise einen CaCO3-Gehalt von 90 % und eine Trockensubstanzdichte von 1 g/cm3. Da rund ein Viertel des Meeresbodens von diesen calcitreichen Sedimenten bedeckt ist, liegt die Gesamtmasse des darin enthaltenen Calcits bei rund 6.3 1019 g CaCO3“. Das entspricht einem Kohlenstoffinventar von rund 7.560 Gt C. Man vergleiche diese Aussagen mit dem Wert von 150 Gt C, den die AGW-Propheten des IPCC für Meeressedimente angeben. Es handelt sich um einen Unterschied um den Faktor 50 (!). Dabei bezieht sich Broecker lediglich auf die obersten 8 cm Sediment. Je nach Meeresregion erreicht die tatsächliche Dicke der Sedimente jedoch Werte im Kilometerbereich.

Interessant sind in diesem Zusammenhang auch umfassende Messungen zur Geschwindigkeit, mit der beispielsweise Cyanobakterien CO2 aus Meerwasser zu Oshenite-Aragonit (ebenfalls ein CaCO3-Mineral) abbinden können [OSHE]. Bei entsprechenden Witterungsbedingungen werden bei der Bildung dieser für tropische Flachwasserzonen typischen „whitings“ Abbindungsraten von bis zu mehr als 100 t C pro Quadratkilometer und Jahr erreicht. Das wiederum entspricht in diesen Bereichen einem kompletten Umschlag des CO2-Inventars des Oberflächenwassers innerhalb weniger Stunden, was darauf hinweist, dass die in der Literatur aufgeführten Übergangszeiten (einige Jahre, s.u.) bei entsprechender organischer Aktivität um etliche Größenordnungen unterschritten werden können. Angesichts der Fläche der Ozeane von ca. 396 Mio. km2 käme man selbst dann, wenn man eine Rate der CO2-Abbindung zu Kalk im Mittel annimmt, die um den Faktor 10.000 niedriger liegt, immer noch auf 4,3 Gt C/ Jahr. Zu beachten ist hierbei, dass unabhängig von den „whitings“ genannten CaCO3-Ausfällungen auch die Kalkbildung durch Muscheln, Korallen, Seeigel, Algen sowie weitere Lebewesen ständig weiterläuft. Die Annahme des IPCC, dass insgesamt pro Jahr nur 0,2 Gt C im Ozeansediment landen, ist vor diesem Hintergrund wohl kaum zu rechtfertigen.

Dichtung und Wahrheit zu CO2-Verweildauern in der Atmosphäre

Aus der gleichen Betrachtung heraus kann man auch sofort Aussagen über die angeblich jahrhunderte- oder gar jahrtausendelange Verweildauer neu in die Atmosphäre eingetragener CO2-Moleküle [IPCC, SKEP, ARCH] als wohl kaum zutreffend bezeichnen. Die Geschwindigkeit, mit der CO2 von der Atmosphäre in die Ozeane übergeht, wurde schon seit den 1950er Jahren dokumentiert. Eine eingehende Recherche von T. V. Segalstad umfasst neben eigenen Untersuchungen auch eine Auswertung von rund 35 Quellen aus den 50er bis 90er Jahren des vorigen Jahrhunderts [SEGA]. Er kommt auf eine Verweildauer von 5,4 Jahren bei einer Spanne von 1 bis 25 Jahren. Auf rund 5 Jahre kommt auch C. Starr [STAR]. Interessanterweise geht auch der Blog „Skeptical Science“, bekannt als Plattform für besonders aggressive AGW-Positionen, von einer Verweildauer des CO2 in der Atmosphäre von lediglich 5 Jahren aus [SKEP]. Um dennoch ihre Theorie von der langen Verweildauer zu stützen, wird von AGW-Seite behauptet, dass es meist lediglich zu einem wechselseitigen Austausch von CO2-Molekülen zwischen Ozean und Atmosphäre komme. Der von der oberen Schicht des Ozeans gebildete Puffer, welcher zunächst das CO2 aus der Luft aufnehme, laufe schnell voll. Platz für die Aufnahme von weiterem CO2 erfordere einen Abtransport durch Strömungsaustausch mit den tieferen Schichten des Ozeans. Dieser Strömungsaustausch erfolge sehr langsam mit Umlaufzeiten von 500 Jahren bis hin zu tausenden von Jahren. Aus diesem Grund sei die Annahme, dass einmal in die Atmosphäre eingebrachtes CO2 dort für bis zu 500 Jahre verbleibe, realistisch. Bei dieser Betrachtungsweise wird die oben beschriebene Abspeicherung von CO2 in Kalksedimenten schlicht ignoriert. Man kann angesichts der hier dargelegten Fakten nur staunen, was heutzutage als vom „Konsens der Wissenschaft getragen“ verbreitet wird.

 
Der CO2-Austausch mit den Meeren ist eine große Unbekannte

Wie sieht es nun tatsächlich mit dem CO2-Austausch zwischen Atmosphäre und Ozeanen aus? Dass sich CO2 in Wasser lösen und auch wieder daraus entweichen kann, beweisen uns täglich kohlensäurehaltige Getränke von Mineralwasser über Limonaden bis Bier und Sekt, wenn sie beim Öffnen sprudeln. In ihnen wurde CO2 unter hohem Druck gelöst, das beim Absinken des Drucks beim Öffnen wieder entweicht. Nach den Gesetzen der physikalischen Chemie bildet sich zwischen dem CO2-Gehalt der Luft und demjenigen des im Wasser gelösten Kohlenstoffdioxids ein Gleichgewicht, das durch die Parameter (Partial)-Druck und Temperatur gesteuert wird, Bild 7.

Bild 7. Mit steigender Wassertemperatur nimmt die Löslichkeit von CO2 erheblich ab [LOES]

Was bei Flaschengetränken durch starken CO2-Überdruck erreicht wird, funktioniert im System Ozean-Atmosphäre lautlos und automatisch in beide Richtungen: Zwischen den jeweiligen CO2-Gehalten bildet sich ein Gleichgewicht. Kommt mehr CO2 in die Atmosphäre, dann nimmt der Ozean solange CO2 auf, bis das Gleichgewicht wiederhergestellt ist. Steigt dagegen die Temperatur des Wassers, so sinkt seine Löslichkeit für das Gas und es wird teilweise in die Atmosphäre entweichen.

Soweit die Theorie. In der Praxis stellen sich die Dinge allerdings sehr viel komplizierter dar. Während für die Atmosphäre kein temperaturabhängiger Grenzwert der CO2-Aufnahme existiert und die Durchmischung aufgrund der Turbulenz der Luftströmungen äusserst schnell erfolgt, weisen die Ozeane sehr komplexe und noch dazu dreidimensionale Temperaturverteilungs- und Strömungsmuster auf. Während vor allem kalte polnahe Ozeanbereiche CO2 aufnehmen, wird es in wärmeren Regionen wieder abgegeben. Zudem erfolgt der CO2-Austausch zwischen verschiedenen Tiefen über meist sehr langsame Strömungen. Zu all diesen Vorgängen gibt es allerdings nur bruchstückhafte Daten. Für umfassende quantitative Aussagen sind die Ozeane viel zu riesig, die Vorgänge viel zu komplex und die Zahl der Messdaten viel zu gering, siehe auch Bild 8 [ESCH].

Die chaotische Realität des CO2-Austauschs zwischen Ozean und Atmosphäre. Dargestellt sind die Unterschiede zwischen dem CO2-Partialdruck der Atmosphäre (damals 321 ppmv) und demjenigen im Meerwasser bei verschiedenen Oberflächentemperaturen (Grafik: W. Eschenbach [ESCH]

Die Daten zu Bild 8 stammen von verschiedenen Messkampagnen des Scripps-Instituts (USA) aus den Jahren 1957 bis 1963. Die Abweichungen vom Gleichgewicht zwischen Meer und Atmosphäre erreichen teilweise an die 100 ppm!

Weiteres Handicap ist, dass man im Ozean – im Unterschied zu meteorologischen Stationen an Land – so gut wie gar nicht ortsfest messen kann. Die IPCC-Zahlen aus Bild 4 sind auch aus diesem Grund nichts weiter als äußerst grobe Schätzwerte aufgrund bruchstückhafter Daten. Zudem werden, wie weiter oben nachgewiesen, wesentliche Einflussgrößen einfach ausgeblendet.

Andererseits ist der Austausch des CO2 zwischen Atmosphäre und dem gigantischen Speicher, den die Ozeane darstellen, entscheidend für die Annahmen zu künftigen CO2-Gehalten der Atmosphäre. Da alle Klimamodelle mit diesen Annahmen arbeiten, sind ihre Ergebnisse demnach samt und sonders grob fehlerbehaftet. Die damit errechneten Aussagen können keinen Anspruch auf Korrektheit erheben.

Fred F. Mueller

Quellen

[ARCH] David Archer & Victor Brovkin The millennial atmospheric lifetime of anthropogenic CO2. Climatic Change (2008) 90:283–297, DOI 10.1007/s10584-008-9413-1

[CDIA] http://cdiac.ornl.gov/trends/emis/overview.html    abgerufen am 29.6.2013

[CDI2] http://cdiac.ornl.gov/ftp/trends/co2/lawdome.combined.dat…. abgerufen 6.10.2015

[ESCH] http://wattsupwiththat.com/2013/11/27/co2-in-the-air-co2-in-the-seawater/

[FOAL] http://www.focus.de/politik/zitate/zitat_aid_228903.html    abgerufen am 2.5.2013

[FORA] Klimawaage außer Balance, FOCUS Magazin http://www.focus.de/wissen/klima/tid-8638/diskussion_aid_234323.html    abgerufen am 21.4.2013

[IPCC] https://www.ipcc.ch/ipccreports/far/wg_I/ipcc_far_wg_I_chapter_01.pdf

[IP31] Fig. 2.20 des dritten Berichts des Intergovernmental Panel on Climate Change (IPCC) der UNO

[KALK] Kalk – ein Rohstoff aus Schalen und Knochen, http://www.kalk.de/index.php?id=35    abgerufen am 20.4.2013

[KOKR] https://de.wikipedia.org/wiki/Kohlenstoffzyklus#/media/File:Carbon_cycle-cute_diagram-german.png

[LOES] http://www.uni-muenster.de/imperia/md/content/didaktik_der_chemie/kernpraktikumfriese/loeslichkeit_von_gasen_in_wasser__kohlenstoffdioxid_.pdf

[MIAT] Kalkgesteine, Mineralienatlas, https://www.mineralienatlas.de/lexikon/index.php/Mineralienportrait/Calcit/Kalkgesteine  abgerufen am 26.9.2015

[MOOR] http://www.eike-klima-energie.eu/news-cache/greenpeace-gruender-haelt-eine-grosse-rede-und-lobt-kohlendioxid/

[NOAA] http://www.esrl.noaa.gov/gmd/ccgg/trends/

[OSHE] Robbins, L.L.; Yates, K. K.: Direct Measurement of CO2 Fluxes in Marine Whitings. Contract No. DE-AI26-99FT40596, U.S. Geological Survey, Center for Coastal and Regional Marine Studies, 600 Fourth Street South, St Petersburg, Florida 33701

[OZEA] https://fmss12ucheme.wordpress.com/2013/05/05/ocean-acidification-2/

[SEGA] Segalstad, T.V.: Carbon cycle modelling and the residence time of natural and anthropogenic atmospheric CO2: on the construction of the "Greenhouse Effect Global Warming" dogma. In “Global Warming: The Continuing Debate", European Science and Environment Forum (ESEF), Cambridge, England (ISBN 0-9527734-2-2), pages 184-219, 1998.

[SKEP] http://www.skepticalscience.com/co2-residence-time.htm

[STAR] Starr, C.: Atmospheric CO2 residence time and the carbon cycle. 1992 EPRI/SIO Symposium on Global Warming. Energy, Vol. Volume 18, Issue 12, December 1993, Pages 1297–1310, doi:10.1016/0360-5442(93)90017-8

[WICC] Kohlenstoffzyklus, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffzyklus    abgerufen 21.4.2013

[WICO] Kohlenstoffdioxid, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffdioxid    abgerufen 21.4.2013




Die Golfregion wird unbewohnbar für Menschen Oder: Klimawandel-Halloween am Computer

Notgedrungen übernehmen unsere Qualitätsmedien diesen schwierigen Part der Bürgerinformation. Wobei sie darauf achten, nur die wirklich wissenschaftlichen – also die den Klimawandel bejahenden – aufzunehmen. Deshalb kamen aktuell DIE WELT und SPIEGEL ONLINE (neben vielen anderen, wie auch Greenpeace und Klimaretter.Info) nicht umhin zu berichten, dass der Nahe Osten unbewohnbar, ja sogar zur für den Menschen tödlichen Region wird.

DIE WELT 26.10.15: Die Golf-Region wird unbewohnbar für Menschen 

Dazu lässt DIE WELT im Artikel noch einen Fachmann zu Wort kommen, der Ergänzendes weiß:

In einem Kommentar in der gleichen Zeitschrift schreibt Christoph Schär von der Eidgenössischen Technischen Hochschule Zürich (ETH), bisherige Hitzewellen würden vor allem älteren und kranken Menschen zusetzen. Die in der aktuellen Studie prognostizierte Hitze könne dagegen für jeden Menschen tödlich sein.

Klimaretter.Info publiziert die Überschrift, als ob es schon heute wäre:

Tödliche Hitze in den Golfstaaten

SPIEGEL ONLINE brachte es unter der Rubrik „Wissenschaft“, ergänzte aber vorsichtshalber mit dem Hinweis „Prognose bis 2100“. 

Quelle dieser Information ist wie so oft die vom deutschen Klimawandel-Wahrheitsministerium „besetzte“ dpa. Und diese hat es wieder aus einer im Journal Nature Climate Change veröffentlichten Studie.

Dort lag diese Studie anscheinend über ein Jahr lang in der Redaktion „herum“ und wurde erst  jetzt wieder „gefunden“, gerade noch rechtzeitig, um vor dem Klimagipfel die Menschen aufrütteln zu können.

Nun hat der Autor vor nicht allzu langer Zeit eine kleine Klima-Analyse über  Syrien für EIKE erstellt und dabei nichts Außergewöhnliches feststellen können. Die Golfregion versucht sich gerade als Touristenziel  und gebaut werden dort „wie wahnsinnig“ die teuersten Hotels und Resorts der Welt. Und nun wird diese Gegend für Menschen unbewohnbar – was niemand dort bisher auch nur im Entferntesten ahnte. Wie kann das sein?

  

Das Klima ist eben unberechenbar – aber nicht in der virtuellen Welt der Computer-Klimasimulationen

Die Studie macht nichts weiter, als das inzwischen überall in der Klimawelt übliche und dort als „Wissenschaft“ bezeichnete Spiel: Man nehme eine Klima-App, dazu eine Region, und simuliere dann  welches Szenario irgendwann so viel Hitze errechnet, dass sich alle gruseln. Ist es weit genug weg von jeglicher Realität, hat es die notwendige „Medienpower". Die Artikelschreiber der Qualitätsmedien zeigen damit jedoch, dass in der „Klimawissenschaft“ kein Unsinn unsinnig genug sein kann, um nicht klimatreu ergeben geglaubt und publiziert zu werden. 

Um das (wieder) dazustellen, hat sich der Autor die Mühe gemacht, die aktuellen Temperaturen dieser Region zu recherchieren und aufzubereiten, damit sich jeder selbst ein Bild machen kann, welche Aussagekraft man dieser Studie zubilligen kann und was „Qualitätsmedien“ und NGOs uns beim Klimawandel als „Information“ zumuten. 

Wohl nicht zufällig lag die Studie ein Jahr lang in der Redaktion „herum“

Nach der Studie sind die Gegenden am Persischen Golf besonders gefährdet, da dieser sich extrem aufheizen (könnte). Von einer Stadt in der Nähe gibt es eine brauchbare, längerfristige Temperaturreihe (Bild 1). Darin sieht man aber keine Steigerung der Temperatur – man kann eher von einer „Verweigerung“ sprechen -, obwohl das CO2  ungebremst zunimmt.

 

Bild1[1] Jahres-Mitteltemperaturen von Oman, Stadt Seeb  1983 – 2014 (am Ende des Persischen Golfes) mit eingeblendetem CO2-Verlauf seit 1900

Nun soll die schlimmste Temperatur-Erhöhung im Sommer und darin im Juli erfolgen. Auch dazu gibt es historische Verläufe.  Und auch im Temperaturverlauf der Julitemperatur von Bahrein welches sich mitten im Zentrum des Persischen Golfes befindet, lässt sich rein gar nichts vom in der Studie vorhergesagten Temperaturanstieg erkennen.

 

Bild2[2] Julitemperaturen von Bahrain 1989 – 2015 (im Persischen Golf) mit eingeblendetem CO2-Verlauf seit 1900

Vielleicht wurde die wichtige Information übersehen. Zur Überprüfung nehmen wir eine Stichprobe aus der Nahost-Region um den Persischen Golf. Der Autor hat sich die Mühe gemacht, aus den in einem „grausligen Zustand“ befindlichen Klimadaten dieser Region eine Grafik zu erstellen und den Mittelwert –Verlauf zu berechnen. Bild 3 zeigt daraus die prozentuale Temperaturabweichung der auf das Jahr 2014 normierten Einzelverläufe, damit die Historie der aus unterschiedlichen Nahost-Regionen stammenden Temperaturdaten vergleichbar wird.

Deutlich erkennt man einen „Temperatursprung“ in den 90ern und einen waagrechten Verlauf seit 1998. Aber auch darin ist vom in der Studie vorhergesagten Anstieg nicht eine Spur zu erkennen. Bezüglich des Sprunges in den 90er besteht (beim Autor) der große Verdacht, dass er zu einem erheblichen Teil auf Änderungen der Mittelwertberechnung und –Erfassung beruht, aber bestimmt nicht aufgrund des anthropogenen CO2.

 

Bild3[1] Jahresmittelwert-Abweichungen (%) bezogen auf den Wert von 2014

·       Dicke, rote Kurve: Mittelwert; schwarze, gestrichelte Kurven: lineare Abschnittsregression

·       Blau:      Abu Dhabi, Emirate

·       Braun:   Amman, Jordanien

·       Rot:         Bagdad, Irak

·       Gelb:      International Airport, Kuwait

·       Grün:     Riad, Saudi Arabien

·       Schwarz: Seeb, Oman

Fazit 

In der Nahost-Region ist es im Sommer bestimmt sehr unangenehm heiß. Dass diese Hitze aber aufgrund des Klimawandels geradezu explodieren soll und gar tödlich wird, lässt sich aus den realen Daten nirgends ableiten. Es lässt sich dort auch  (wie auch in Deutschland) kein Zusammenhang zwischen dem CO2-Anstieg und der Temperatur erkennen. Trotzdem sollen die ausschließlich darauf aufbauenden Klimasimulationen genaue Vorhersagen liefern.

Beim Klimawandel wird leider akzeptiert, dass beliebige Simulationsspielereien am Computer (auf Steuerzahlers Kosten) durchgeführt, weiterhin als „Wahrheit“ verkündet und vom Bürger geglaubt werden sollen.

Das deutsche PIK ist ein aktuelles Beispiel, wie diese Klimaspielerei von der Politik weiterhin unterstützt wird – mit genau den  gleichen „sicheren“ Vorhersagen. 

Zusatzbemerkung

Wenn man sich die desolaten Klimadaten dieser Region ansieht, fragt man sich wie geglaubt werden kann, für frühere Zeiten eine auch nur im Ansatz brauchbare Welt-Mitteltemperatur zu wissen, wie es von der „Klimawissenschaft“ behauptet wird.

Quellen

[1]

Klimadaten Asien: http://de.tutiempo.net/klima/asien.html

[2]

Klimadaten Naher Osten, monatsbezogen: http://www.wetteronline.de/?pcid=pc_rueckblick_climate&gid=40438&pid=p_rueckblick_climatehistory&sid=Temperature&month=07&iid=40438




Klima: Keine freie Rede (No Climate Free Speech, Part 1)

Klima-Aktivisten verhalten sich wie Tyrannen. Falls meine Vierjährige sich genauso verhalten würde, würde ich mir Sorgen machen.

In einem kürzlich erschienenen Artikel mit dem Titel „Divesting from Free Speech: How environmentalists shut down debate on campus“ beleuchtet Rachelle Peterson einen der Mängel der grünen Bewegung, der zu höchsten Sorgen Anlass gibt: Es kommt von dort keinerlei Bekenntnis welcher Art auch immer zu freier Meinungsäußerung oder einer wirklichen Debatte.

Klimaaktivisten sind keine schlechten Menschen. Daher wollen sie nicht zugeben, dass sie auf dem Recht aller anderen Menschen herumtrampeln, ebenfalls gehört zu werden. Als einen Verteidigungs-Mechanismus haben sie eine Reihe fadenscheiniger Argumente konstruiert mit der Absicht, die Tatsache zu verschleiern, dass sie sich wie Tyrannen verhalten. Das gängige Werkzeug hierzu ist der Satz Die Debatte ist beendet [the debate is over].

Peterson schreibt:

Falls Sie Ihrer Ansicht nach Ihr Hauptanliegen geltend machen konnten, aber Ihr Gegner weiterhin die Menschen zu überreden versucht, seiner Ansicht zu folgen, was können Sie tun? Erklären, dass die Debatte beendet ist?

Selbst Kinder verstehen, dass eine Debatte niemals als beendet betrachtet werden kann – es sei denn, alle Seiten stimmen einer These zu. Der Grad Ihrer eigenen Überzeugung ist dabei irrelevant.

Sollen wir uns das Video Bambi oder das Video Frozen anschauen? Falls zwei Kinder Ersteres und ein Kind letzteres möchte, ist jedes Pro-Bambi-Kind, das herumläuft und die Debatte für beendet erklärt, unehrlich und respektlos. Sie sind tatsächlich die Art von Personen, die andere niederwalzen, die ihren Willen mit Gewalt durchsetzen.

Klimaaktivisten sind so überzeugt von der Rechtschaffenheit ihrer Sache, dass sie es schwierig finden sich vorzustellen, dass irgendjemand nicht aufrichtig mit ihrer Analyse übereinstimmen könnte. Dies ist ein monumentales Scheitern jedes Vorstellungsvermögens, für das unsere Bildungssysteme und die Mainstream-Medien große Verantwortung tragen. Tatsächlich ist es Petersons Beobachtungen zufolge so: Die Forderung, dass Colleges aufhören, in Unternehmen fossiler Energie zu investieren, steht oftmals einer Opposition gegenüber, die „robust, nachdenklich und gut versorgt ist mit stichhaltigen Argumenten und überzeugenden Beweisen“.

Viele Klimaaktivisten scheinen sich primär auf emotionale Gewissheit zu stützen. Ihre strikte Ablehnung, sich mit anderen Standpunkten auseinanderzusetzen oder wenigstens einen Gegner zu kennen, lässt sie auf das Niveau von Kindern herabsinken in einer Konversation, die mündige Bürger verlangt.

Falls meine Vierjährige im Wohnzimmer herumtrampeln und verlangen würde, das Video Bambi anzuschauen, während gleichzeitig der Wunsch ihrer Schwester, das Video Frozen zu schauen nicht der Beachtung wert wäre, würde ich mich fragen, was ich als Mutter falsch gemacht habe – hinsichtlich von ihr, von unserer Familie und von unserer Gemeinde.

Eine Debatte ist nicht vorbei, nur weil irgendjemand dieses einseitig proklamiert. Um Himmels Willen, wo sind die Erwachsenen in der grünen Bewegung? [Hervorhebung vom Übersetzer].

Link: http://nofrakkingconsensus.com/2015/09/13/no-climate-free-speech-part-1/

Mit dem Teufel im Bunde (No Climate Free Speech, Part 2)

Klimaaktivisten haben das ehrwürdige Recht auf freie Meinungsäußerung umdefiniert. Ihnen zufolge bedeutet es das genaue Gegenteil dessen, was John Stuart Mill so prominent beschrieben hat.

Die Aktivisten der globalen Erwärmung glauben, auf der Seite der Engel zu sein. Sie machen nicht nur einfach die Welt zu einem besseren Ort, sie retten sie vor einer feurigen Zerstörung. Jeder, der sich selbst in diesem rechtschaffenen Licht sieht, würde niemals zugeben, dass die Bewegung, der sie angehören, das Recht auf freie Meinungsäußerung mit Füßen tritt.

Willkommen bei der Argumentation „du bist in der Liga des Teufels und hast daher kein Recht, gehört zu werden“. Das geht so: Mein Standpunkt zur Klimafrage ist rein und wahr. Wenn ich über diese Dinge spreche, nehme ich das Recht auf freie Meinungsäußerung in Anspruch. Andere Standpunkte bzgl. Klima sind teuflisch und unwahr. Menschen, die diesen anderen Standpunkten Ausdruck geben, verbreiten Lügen und Propaganda – was in keiner Weise freie Meinungsäußerung ist.

Ersteres stammt von einer Greenpeace-Website, die seit Jahren jedwede Bemerkung geflissentlich ausgelassen hat, dass die Klimaskeptiker in irgendeiner Form recht haben könnten: „Freie Meinungsäußerung kann nicht auf Falschinformation und Propaganda angewendet werden“.

Abbildung: Quelle

Aussage Nr. 2 stammt von der Website DeSmogBlog.com – einer Website, betrieben von PR-Profis, die versuchen, der Klimaorthodoxie Gehör zu verschaffen. Alternative Standpunkte werden als Verschmutzung, Täuschung und Falschinformation betrachtet. Jeder, der solche Standpunkte vorbringt, steckt mit dem Teufel (Unternehmen fossiler Treibstoffe) unter einer Decke oder ist ein gehirngewaschener Depp als Erfüllungsgehilfe des Teufels. In den Worten des DeSmogBlogs:

Freie Meinungsäußerung schließt nicht das Recht der Täuschung ein. Täuschung ist kein Standpunkt. Und das Recht, anderer Meinung zu sein, schließt nicht das Recht ein, absichtlich die öffentliche Aufmerksamkeit zu untergraben.

Abbildung: Quelle

Die Meinungen des DeSmog-Blogs sind freie Rede. Andere Standpunkte sind Subversion.

Aussage Nr. 3 ist eine lange Liste, die auf der Website der US National Association of Scholars veröffentlicht worden ist. Darin wird die selbstgerechte Ruhigstellung von Abweichlern durch Aktivisten beschrieben, die glauben, dass Colleges keine Anteile an Unternehmen fossiler Treibstoffe kaufen sollen.

Vieles kann gesagt werden zu dem ,Du-bist-in-der-Liga-des-Teufels‘-Argument. Erstens ist es ununterscheidbar von religiösem Fanatismus. Religiöse Hardliner haben eine lange Historie, verschiedene Heilige Bücher zu bemühen, um andere ruhig zu stellen und zu unterdrücken. Ist es das, was die Klima-Aktivisten so unbedingt nachahmen wollen?

Zweitens, diese Vorgehensweise entfernt sich erheblich von der Tradition der freien Rede und der Gelehrsamkeit. John Stuart Mill (1806 bis 1873) bestand darauf (hier), dass weil niemand unfehlbar ist, niemand das Recht hat, im Namen aller anderen zu entscheiden, was wahr ist und was eine Falschinformation. Wir alle haben ein Recht darauf, alle Argumente zu hören und selbst zu denken. Genauso hat Noam Chomsky in einem dokumentarischen Video aus dem Jahr 1992 die Auffassung zurück gewiesen, dass nur einige Gedanken als freie Rede qualifiziert sind:

Falls man an die freie Rede glaubt, glaubt man an die freie Rede für Ansichten, die man nicht mag. Stalin und Hitler beispielsweise waren Diktatoren, die sehr für die freie Rede waren – aber nur für Ansichten, die sie mochten. Falls Sie für die freie Rede sind bedeutet das, dass Sie für die freie Rede sind, auch mit genau den Standpunkten, die Sie verachten.

Sieht man es so, sind Greenpeace und der DeSmogBlog direkte Feinde der freien Rede. Sie wollen den Menschen, mit denen sie nicht übereinstimmen, dieses fundamentale Recht vorenthalten.

Es gibt bei dem ,Du-bist-in-der-Liga-des-Teufels‘-Argument noch ein weiteres Problem, nämlich dass es kontraproduktiv ist. Wenn man anderen Menschen vorwirft, Ableger von Satan zu sein, war dies noch nie ein Rezept für Erfolg – nicht auf dem Spielplatz, nicht am Arbeitsplatz und auch nicht in engen Beziehungen. Nur Fernseh-Bösewichter verhalten sich so.

Falls man wirklich glaubt, dass der Planet in Gefahr ist – warum bedient man sich dann solcher Taktiken? Was will man erreichen, wenn Klimaaktivisten Despoten und Unterdrückern nacheifern; wenn sie einen unpersönlichen Stil übernehmen, der die Menschen garantiert vor den Kopf stößt?

Link: http://nofrakkingconsensus.com/2015/09/15/in-league-with-the-devil-no-climate-free-speech-part-2/

Übersetzt von Chris Frey EIKE

Die Autorin Donna Laframboise fügt auf ihrem Blog nach und nach weitere Fälle dieser Art an. Sie alle zu übersetzen würde nicht viel bringen, denn ihre allgemeine Aussage ist klar. Bis zum Redaktionsschluss lagen noch zwei weitere Teile vor, die hier nur mit ihrem Thema erwähnt werden sollen:

Teil 3: 20 amerikanische Denkfabriken wollen unabhängige Ansichten zum Klima einer Untersuchung gegen organisierte Kriminalität unterziehen.

Teil 4: Ein britischer Akademiker, nämlich der Jura-Professor Philippe Sands, will vor dem Internationalen Gerichtshof erreichen, dass dieser alle Klimaskeptiker als Unrecht habend erklärt – ein für allemal.

Inzwischen gibt es zumindest noch einen Teil (Nr. 5), der sich mit den Vorgängen um den gefeuerten Chef-Wetterreporter des französischen Fernsehens befasst.

C. F.




Die Endlagerung, ein von der Politik geschaffenes Scheinproblem

Was sind Abfälle aus einem Kernkraftwerk?

In einem Kernreaktor werden schwere Atomkerne, meist des Urans, gespalten. Dabei wird Kernbindungsenergie frei, und es entstehen zwei Spaltprodukte von etwa dem halben Gewicht des Urans.

Nur diese Spaltprodukte sind Abfälle, die nicht mehr zu gebrauchen sind. Die Spaltprodukte sind radioaktiv, werden aber wegen ihrer kleinen Halbwertszeiten bald zu stabilen Elementen und strahlen dann nicht mehr.

Zu einem geringen Anteil entstehen aus Uran im Reaktor durch Einfang von Neutronen die Transurane. Diese sind schwerer als Uran. Diese sind keine Abfälle, denn sie sind entweder auch spaltbar und liefern Energie oder sie können durch weiteren Einfang von Neutronen zu schwereren spaltbaren Kernen werden. Plutonium ist das bekannteste Transuran und in einem Reaktor wird ca. die Hälfte der Energie durch Spaltung von Transuranen (insbesondere Plutonium) gewonnen. Die Zahl der spaltbaren Kerne im Brennelement sinkt mit der Zeit, bis keine Kettenreaktion mehr möglich, das Brennelement ist „abgebrannt“.

Abgebrannte Brennelemente sind ebenfalls kein Abfall, sie enthalten aber 5% Spaltprodukte, und nur dieser Anteil ist Abfall. Er wird durch die Wiederaufarbeitung der Brennelemente abgetrennt, in Glas eingeschmolzen und ist dann als Glaskokille bereit zur Endlagerung. Die Endlagerung soll laut politischem Willen in tiefen geologischen Schichten erfolgen, zu diesem Zweck wurde der Salzstock in Gorleben untersucht. Die Glaskokillen werden in Castor-Behältern transportiert und aufbewahrt. In Gorleben stehen in einer riesigen Lagerhalle mit 420 Stellplätzen 108 Castoren mit ca. 2500 Glaskokillen und 5 Castoren mit abgebrannten Brennelementen. 307 Stellplätze sind noch frei.

Was macht die Politik?

Als es 1990 zur ersten Rot-Grünen Regierung in Niedersachsen unter Ministerpräsident Schröder kam, wurde im Koalitionsvertrag festgelegt „eine Gesamtstrategie zu verfolgen, um über eine Blockade der Errichtung von Endlagern den Ausstieg aus der Kernenergie zu erzwingen.“ An diese Vereinbarung haben sich seither alle Rot-Grünen Regierungen gehalten, inzwischen haben sich CDU/CSU/FDP diesem Ziel angeschlossen. Es geht also nichts weiter, weil es die Politik nicht will.

Das Bundesamt für Strahlenschutz, das die Empfehlungen für die Politik ausarbeitet, kam nach dem Abgang seines Präsidenten Herrn Prof. Dr. Alexander Kaul um 2000 unter die Führung eines Politikers (Wolfram König), seitdem wird dort grüne Politik gemacht. Die Regierung fragt beim Thema Strahlensicherheit die Politiker im Bundesamt für Strahlenschutz, die Wissenschaft wird nicht gefragt.

Wie gefährlich ist Atommüll, das „Gift bis in alle Ewigkeit“?

Dazu ist es nützlich, einen Vergleich mit der Radioaktivität in unserer natürlichen Umwelt anzustellen. Unsere gesamte Welt enthält Radioaktivität: die Luft, das Wasser, der Boden, der Mensch und auch unsere Nahrung. Ein Kubikkilometer der Erdkruste enthält im Mittel 10^15 bis 10^16 Becquerel Radioaktivität, das bedeutet daß in jeder Sekunde 1000 000 000 000 000 bis 10 000 000 000 000 000 Atomkerne zerfallen und Strahlen aussenden. Die Halbwertszeiten liegen im Bereich Millionen bzw. Milliarden von Jahren, die Erde und auch der Mensch strahlen daher bis in alle Ewigkeit.

Eine Glaskokille mit eingeschmolzenen Spaltprodukten enthält heute etwa so viel Radioaktivität wie ein Kubikkilometer der Erdkruste. Es lagert also in Gorleben in den Castoren so viel Radioaktivität, wie in etwa 2500 Kubikkilometern der Erdkruste enthalten ist. Wenn diese Glaskokillen ins das Endlager in 1km Tiefe gebracht worden sind, dann lagert oberhalb dieser Kokillen auf der Fläche Deutschlands noch immer viel mehr als das Hundertfache von deren Radioaktivität. Wie sollte die Radioaktivität in der Tiefe eine Gefahr darstellen, wenn die hundertfach höhere Radioaktivität der Erdkruste für die Menschen nie gefährlich war?

Die Radioaktivität in den Glaskokillen klingt schnell ab. Nach 500 Jahren Abklingzeit ist sie auf die Radioaktivitätsmenge von 15 Kubikkilometern der Erdkruste gesunken. Dann ist das „tödliche Erbe der Atomenergie“ – so die Gegner – auf etwa ein 20 000-stel von Deutschlands Boden gesunken.

Zur Strahlenbiologie

Radioaktivität birgt Gefahren, aber schon Paracelsus wusste vor 500 Jahren: „allein die Dosis macht das Gift“. Nur eine hohe Dosis ist schädlich. Dazu muß aber der radioaktive Stoff in den Körper des Menschen gelangen oder die Strahlung nicht genug abgeschirmt sein. Bei den Kokillen in den Castoren in Gorleben bestehen diese Gefahren nicht, denn niemand kann von einer Glaskokille abbeißen und der dickwandige Castor-Behälter schirmt die Strahlung ab.

Wird eine hohe Dosis über längere Zeit verteilt, so ist sie nicht schädlich. Jedermann kennt das von einer Flasche Schnaps.

Bei Strahlung von radioaktiven Stoffen wird seit den Anfangsjahren um 1950 die Annahme gemacht, daß jede noch so kleine Dosis unabhängig von der Zeit schädlich sei, der Schaden aber nicht nachweisbar sei (Konjunktiv!!!). Die Erkenntnis des Herrn Paracelsus wird ignoriert. Auf dieser Annahme beruht weltweit die Strahlenschutzgesetzgebung, sie gilt in ihrer strengen Form nur in der Kerntechnik. Ein nicht nachweisbarer Schaden ist aber NULL, es gibt ihn nicht, er existiert nicht.

Bei der Strahlung vom Erdboden, bei Höhenstrahlung oder in der Medizin bei Patienten gelten die strengen Gesetze nicht bzw. es wurden andere Grenzen festgelegt.

Die ausgebildeten Strahlenschützer wissen natürlich um diese Ungereimtheiten. In der Fachliteratur liest man gelegentlich vorsichtig formulierte Hinweise. Der Gesetzgeber und die breite Bevölkerung GLAUBEN an die Strahlengefahr, so wurde die Kernenergie zum „Teufelszeug“, wie Kardinal Marx es sagte. Medienleute besitzen in der Regel keine Fachkenntnis, und sie folgen der Politik. Wer sich sachgerecht informieren will, sollte ausländische Literatur benutzen.

Was geschieht in Deutschland?

Man will einen neuen Standort für die in Gorleben lagernden Glaskokillen suchen. Es ist heute absehbar, daß die Suche nach einem neuen unterirdischen Endlager frühestens in 2080 zu einem betriebsbereiten Endlager führen kann. Bis dorthin ist ein Großteil der Radioaktivität in den Glaskokillen abgeklungen, d.h. sie ist verschwunden. Daher kann man die Glaskokillen auch bis zum Sanktnimmerleinstag oberirdisch in Gorleben belassen, ohne daß jemals ein Mensch durch die Strahlung zu Schaden kommen wird. Die Endlagerkommission meldete im April 2015, daß zwischen 2095 und 2170 das neue Endlager geschlossen werden könnte, und daß die Kosten bis dorthin 50 bis 70 Milliarden EURO erreichen würden. Diese Ausgaben kann man sparen, wenn man die Vorschriften ändert und bei oberirdischer Lagerung bleibt.

Es gibt noch 26 mit Glaskokillen gefüllte Castoren, die laut Vertrag aus La Hague/Sellafield nach Deutschland zurückgeführt werden müssen. Obwohl in der Lagerhalle in Gorleben noch 307 leere Stellplätze vorhanden sind, ist inzwischen in Deutschland Gesetz geworden, daß diese 26 Castoren an anderer Stelle in noch zu schaffenden Räumlichkeiten aufzubewahren sind. Durch diese Bestimmung entstehen weitere „Probleme“ und unnötige Kosten.

Es wurde von der Schröder/Fischer-Regierung bestimmt, die abgebrannten Brennelemente aus den Kernkraftwerke in Castoren zu stecken und in neu zu bauenden Zwischenlagern an den Standorten der Kraftwerke zu lagern. Das ist inzwischen geschehen, die Lager sind fertig, sie sind auf 40 Jahre genehmigt. Es ist heute unsinnig zu spekulieren, was nach 40 Jahren mit den abgebrannten Brennelementen geschehen könnte. Sie sind keine Abfälle sondern Wertstoffe, wie schon gesagt wurde. Sie enthalten nur zu 5% Abfall. In den Medien (und auch bei manchem Fachmann) werden die abgebrannten Brennelemente heute in irreführender Weise oft als Abfall bezeichnet. Damit wird die Abfallmenge erhöht und das „Problem“ und die Angst der Menschen vergrößert.

In der ASSE lagern 3 * 10^15 Becquerel Radioaktivität (Angabe 2002). In 100 Jahren wird diese Radioaktivität um zwei Größenordnungen abgesunken sein. Dann haben wir eine Situation, wo das Deckgebirge über dem ASSE-Endlager eine hundertfache Radioaktivitätsmenge enthält wie in der Tiefe. Es ist daher unsinnig die Abfälle aus der ASSE wieder an die Oberfläche zu holen. Das Programm der Rückholung der Abfälle aus der ASSE ist ein politisches Programm, das einzig und allein dem Zweck der Förderung der Strahlenangst dient.

Heute ist die Bank, auf die man alle Aktivitäten rund um die Endlagerung geschoben hat, fast unendlich lang geworden. Nur die Halbwertszeit der Radioaktivität im menschlichen Körper ist noch größer. Die Schreckenswörter „Gift“, „Radioaktivität“, „Gefahr“, „Strahlung“, „Hochrisikotechnik“ u.a.m. haben ihre Wirkung entfaltet. Deutschland will davon weg. Das solare Zeitalter lockt in der Ferne, es erscheint den Menschen als ein Paradies, denn schließlich schickt die Sonne keine Rechnung. Die Realität der Gefahr der Strangulierung unserer Volkswirtschaft durch unnötige Kosten und fehlenden Strom wird nicht gesehen, einfach verdrängt.

veröffentlicht in http://ngowatch.de/




Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis

Link zum Beitrag im Focus: Realität und angekommen

Der Autor hat dies zum Anlass genommen, anhand exemplarischer langfrist-Klimadaten Deutschlands nachzuprüfen, ob es möglich sein kann, den Klimawandel zu „erspüren“, oder ob ein solches Gefühl  auch daran liegen könnte, dass Personen ganz einfach zu viele Medienmeldungen darüber gelesen haben und nicht mehr zwischen Wirklichkeit und Gelesenem unterscheiden können (bei den „Klimawissenschaftlern würde der Autor einen wesentlich härteren Begriff verwenden).

 Im Kern ist das Thema wissenschaftlich geklärt. Denn die umfangreichste Zustandsanalyse Deutschlands zu diesem Thema, der „Uba Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel“ [2]  konnte ihn trotz umfangreicher Suche nicht finden und musste sich im Wesentlichen auf Vermutungen darüber beschränken. Auch auf kaltesonne (und natürlich auch EIKE) kamen schon mehrere Darstellungen dazu. Bsp.: Klimawandel in Deutschland [3].

Solche Berichte lesen jedoch nicht einmal die Auftraggeber selbst, um nicht vom Klimaglauben abfallen zu müssen. Lieber lassen sie sich dazu Vorwörter schreiben welche dem Inhalt widersprechen, um wenigstens diese als Bestätigung zitieren zu können. Gerade bei unseren Umweltminister-/innen hat man zudem den Eindruck, dass noch keine die Daten, von denen sie dauernd reden wirklich selbst überprüft hat.

 Obwohl also bereits umfangreiche Ausarbeitungen verfügbar sind, hat der Autor die Fakten unter einem besonderen Blickwinkel nochmals exemplarisch dargestellt und hofft, damit manchem Leser / -in  das Thema neu zu erschließen.

Was „gehört“ zum „gefühlten“ Klimawandel:

         Durch anthropogenes CO2 wird es heißer

·         Im Sommer wird es trockener

         Im Winter wird es feuchter

         Hochwasser nehmen zu

·         Der Wind wird stürmischer

Suchen wir danach.

Wir beginnen im mittleren Westen und sichten die Klimadaten von Karlsruhe.

Bild1 Datensatz Karlsruhe 1875 -2007 (2014)

·         Bild 1.1 Temperaturverlauf (Tagesmittelwerte)

  o   Überlagert die anthropogene CO2 Emission

·         Bild 1.2 Jahresniederschlag mit linearer Regressionskurve

·         Bild 1.3 Winter-Niederschlag

·         Bild 1.4 Sommer-Niederschlag

 

Was sieht man anhand der Klimadaten von Karslruhe?

 Zuerst: Es ist nicht erforderlich Statistik zu betreiben, Augenschein genügt zur Auswertung.

 Bild 1.1 Tagesmittel und gleitender Jahres-Mittelwert

Seit Beginn der Erfassung um 1875 hat sich am Klima nichts verändert. Die Mittel-Temperatur ist von 1875 bis zum Jahr 2000 identisch!!! geblieben und macht danach einen „mickrigen“ Buckel, den man suchen muss, um ihn zu bemerken. Ein anthropogener Klimawandel ist nicht im entferntesten ableitbar. Ein „Kochen“ durch das menschliche CO2 existiert nur in Halluzinationen und Computerprogrammen.

Vor allem aber: keine Korrelation zwischen Temperatur und CO2-Emission. Bis ca. 1995 passiert überhaupt nichts, obwohl das CO2 schon massiv gestiegen ist und dann gibt es einen „nervösen“ (minimalen) Buckel, der als Sprung niemals CO2-bedingt sein kann.

 Bild 1.2 Niederschlag Jahresmittel

Anhand der Jahres-Niederschläge ist nichts erkennbar. Eventuell die Feststellung, dass die Schwankungen früher größer waren. Die Max- und Min-Werte sind aber über die ca. 140 Jahre ziemlich konstant geblieben. Gerade der May-Wert von 1000 mm ist „wie am Schnürchen gezogen“.

Bild 1.3 Winter-Niederschlag

Es soll im Winter immer feuchter werden. Nichts davon ist zu sehen. Jedoch, dass der Verlauf vollkommen unspektakulär ist.

 Bild 1.4 Sommer-Niederschlag

Es wird laut Klimawandel immer trockener. Nur merkt es Karlsruhe nicht. Schon gar nicht als Trend. Unter Betrachtung der erheblichen Varianzen ist der aktuelle Wert zwar gerade niedrig, aber nicht „unnatürlich“ – eben innerhalb der erheblichen typischen Streubreite.

Fazit in Karlsruhe

 Wer 1875 eingeschlafen ist und heute aufwacht, findet einen fast schon erschreckend identischen Klimazustand vor. Eine Klimaänderung könnte er also nicht „fühlen“. Auf die Idee, dass CO2 gerade dabei ist, die Erde in den „Klimawahnsinn“ zu treiben, würde diese Person wohl kaum kommen. Sie würde aber verblüfft feststellen, dass heutige Klimawissenschaftler dank besserer Heizungen und auch Klimaanlagen das wahre Klima kaum noch mitbekommen und es temperiert an Computern simulieren.

 Erkennbar ist auch, dass die ominösen 2 Grad, welche die Erde zum „Kippen“ bringen sollen, bei der hohen natürlichen Variabiliät „ein Nichts“ sind. Selbst im gemäßigten deutschen Klima (hier Standort Karlsruhe) beträgt die Max-Min Temperaturspanne über 40 °C. Die 2 °C sind demnach + 5 % davon. Das soll die Natur- und Pflanzenwelt angeblich nicht überleben? Womit auch ersichtlich ist, dass diese 2 Grad ausschließlich politisch orientiert sind und mit einer Klimawirklichkeit nichts zu tun haben.

 Allerding zeigen die enormen Varianzen der Klimaparameter, dass selbst der immer beschworene 30-Jahres-Beobachtungszeitraun nicht ausreicht, Trends zu erkennen, oder zu berechnen – und ein Menschenleben auch nicht.

Zum Norden, wo die Personen wohnen, welche den Klimawandel täglich spüren.

 Zuerst der Langfrist-Datensatz mit den Temperaturdaten.

 Bild2 Datensatz Berlin-Tempelhof 1756 -2014

·         Bild 2.1 Temperaturverlauf (Monats-Mittelwerte)

   o   Überlagert die anthropogene CO2 Emission

·         Bild 2.2 Maximal- und Minimaltemperaturen Monatswerte (bis 1992)

   o   Gleitendes 30-Jahres-Mittel

 

 Was sieht man anhand der Langfrist-Temperaturdaten von Berlin-Tempelhof?

 Bild 2.1 Jahresmittel und gleitender 30-Jahres-Mittelwert

Seit Beginn auswertbarer Daten (die Messreihe beginnt bereits 1701) hat sich auch dort am Klima nichts verändert. Zudem ist schön erkennbar, dass eine Korrelation zwischen CO2 und Temperatur auch bei diesem Datensatz nicht existiert.

Die Max- und Min-Temperaturwerte zeigen ebenfalls, dass Deutschland nirgends „kocht“. An der Maximaltemperatur, welche gerade dieses Jahr die Klimajünger an den Rand des Wahnsinns und die IWF-Chefin zu einer schwachsinnigen Aussage verleitet hat[4] ist seit 250 Jahren!!!! Keine Änderung erkennbar. Am gleitenden Jahresmittel in der Min- / Max-Grafik sieht man wieder, wie die ominösen 2 Grad zwischen der natürlichen Temperatur-Variabilität  verschwinden.

Bild 2.2 Maximal- und Minimaltemperaturen Monatswerte (bis 1992)

Beide Verläufe sind wieder unspektakulär. Ein CO2-Einfluss ist nicht erkennbar. Beim genaueren Hinsehen kann man Zyklen erahnen. Wie beim Bild 2.1 ist es doch verblüffend, dass die Werte von 1760 punktgenau mit denen von 1990 übereinstimmen. Eigentlich ein Beleg, dass die Klimaanalysten (in Deutschland) komplett entlassen werden könnten, weil sich daran ja selbst im Lauf von Jahrhunderten nichts wirklich verändert hat.

Fazit in Berlin-Tempelhof

 In Berlin konnte man sich bereits 1760 schlafen legen, um zumindest am Klima bis heute nichts zu versäumen. Eine Klimaänderung könnte auch diese Person also nicht „fühlen“.

Nun ein „Feintuning“ des Landshauptstadt-Klimas

 Ein Datensatz mit mehr Daten und höherer Auflösung ist erst mit Beginn 1948 verfügbar. Dieser trifft aber ganz grob die Lebensspanne der genannten, „klimafühlenden“ Personen. Also schauen wir auch diesen an.

Bild3 Datensatz Berlin-Tempelhof 1948 – 2014

·         Bild 3.1 Temperaturverlauf (Tages-Mittelwerte) , ergänzt um das gleitende Jahresmittel

  o   Überlagert die anthropogene CO2 Emission

·         Bild 3.2 Tagestemperaturen Max- / Min-Wert

·         Bild 3.3 Niederschlag (logarithmische Skalierung), lineare Trendlinie

·         Bild 3.4 Windgeschwindigkeit und Windspitzen Maximum

 

Was sieht man anhand der kurzfrist-Klimadaten von Berlin-Tempelhof?

 Bild 3.1 Temperaturverlauf (Tages-Mittelwerte), ergänzt um das gleitende Jahresmittel

Tagesmittel und Jahresmittelwerte verlaufen wie mit dem Lineal gezeichnet. Der heutige Rentner stirbt beim genau gleichen Klimazustand wie er geboren wurde. Ein Anstieg durch CO2 ist nicht einmal ahnbar.

Anm.: Bei Anwendung der Homogenisierung der Werte ab ca. 1990 (ca. 0,5 – 1 °C weniger) würde er ev. sogar einen kälteren Wert vorfinden.

 Bild 3.2 Tagestemperaturen Max- / Min-Wert

Gleiches Bild und Aussage wie bei der Mitteltemperatur.

 Bild 3.3 Niederschlag (logarithmische Skalierung), lineare Trendlinie

Gleiches Bild und Aussage wie bei den Temperaturen.

 Bild 3.4 Windgeschwindigkeit und Windspitzen Maximum

Die einzige erkennbare Veränderung ist, dass die Windspitzen geringfügig abnehmen, wo doch gerade die Starkwinde durch Klimawandel zunehmen sollen. Aber dass die „EEG-Windmüller“-Erträge massiv unter Windmangel leiden, ist inzwischen ja bekannt.

Fazit

Wie gelingt es den in der Einleitung genannten Personen, einen Klimawandel zu spüren? Dem Autor bleibt es ein Rätsel. Vielleicht liegt es an den Klimaanlagen der Büros, die Regelschwingungen haben, oder umgekehrt, die Differenz zwischen dem Büroklima und der wahren Natur gilt als „Klimaänderung“. Man könnte darüber lächeln. Doch kostet das den Bürger Milliarden an Euros, welche für einen solchen „gefühlten“  Wandel und nun erweitert zur „Klimafolgen-Kompensation“ an die Entwicklungsländer buchstäblich zum Fenster hinaus geschmissen werden.

Bei unserer Umweltministerin kann man das (fachlich) nachsehen, weil sie sich in die nicht unterbrochene Ahnenreihe der zumindest für den Führungsjob des  Umweltministeriums nicht im Entferntesten ausgebildeten Personen einreiht – was aber scheinbar ein Bewerbungskriterium darstellt.

 Bundes-Umweltminister

o  Barbara Hendricks           Geschichte und Sozialwissenschaften

o  Peter Altmaier                 Jurist

o  Norbert Röttgen              Jurist

o  Sigmar Gabriel                Politik/Soziologie/Germanistik

o  Jürgen Trittin                  Studium der Sozialwissenschaften

Leiter Umweltbundesamt

o  Maria Krautzberger         Soziologie

Herr Latif ist aber ein „Experte“. Da darf man höhere Ansprüche stellen.

Deutschlands Süden

Auch die bayerische Umweltministerin weiß, dass der Klimawandel „angekommen“ ist und es deshalb nie falsch sein kann, in gewohnter (Politiker-)Manier vorsorglich erst einmal viel Geld auszugeben. Der Bürger soll eben wissen, wie man sich (auf seine Kosten) um ihn sorgt.

 Zuerst eine Sicht des Datensatzes von München-Riem. Leider hat dieser zwei „Bruchstellen“:

1976 wurde die Station nach Unterschleißheim verlagert und 1993 endet die Original-Reihe. Sie musste deshalb mit anderen Daten bis 2014 ergänzt werden. Der „Temperaturbruch“ ist offensichtlich (wen wunderts, es ist wärmer geworden).

Bild4 Datensatz München Riem 1781 – 2014

•  Temperaturverlauf (Jahres-Mittelwerte) , ergänzt um das gleitende Jahresmittel

Anm.:  Der Datensatz endet 1993. Er wurde mit fremden Daten bis 2014 ergänzt.

  

Was sieht man anhand der langfrist-Temperaturdaten von München-Riem?

 Im Original-Datensatz, der bis 1993 geht, endet das 30-Jahres-Mittel genau bei der Temperatur, mit der es 1815 begonnen hat. Die „neuen“ Daten der Temperatur München machen dann innerhalb von ca. 5 Jahren einen Sprung von ca. 1 °C, den es 200 Jahre lang nicht gab.

Da muss sich die bayerische Landeshauptstadt gerade daran erinnert haben, dass doch der Klimawandel ausgerufen wurde. Anders lässt sich das nicht erklären – und ganz bestimmt nicht mit CO2. Vielleicht ist es auch nur  der Wärmeinsel-Effekt. München soll sich inzwischen gegenüber dem Umland um bis zu 10 °C aufheizen. Oder die Umstellung der Mittelwert-Berechnungsmethode. Wahrscheinlich sind es mehrere dieser Faktoren zusammen – aber am wenigsten der Klimawandel.

Fazit

Das „Ankommen des Klimawandels“ mit seinen schlimmen Auswirkungen findet der Autor im Datensatz von München nicht. Um das zu erkennen, muss man wohl bayerische Umwelt-Ministerin mit kaufmännischer Ausbildung sein. Vielleicht hat ein Minister-/-in auch nur nicht die Zeit, zwischen Wärmeinsel-Effekt und Klima zu unterscheiden.

Langfrist-Temperaturdaten vom Hohenpeißenberg

Gehen wir zur nächsten Temperaturreihe, der vom Hohenpeißenberg im Alpen-Vorland. Dieser hat aufgrund der Lage auf einem Berg den Vorteil, nicht durch Wärmeinsel-Effekte beeinflusst zu sein.

Die Daten stammen aus zwei Datensätzen mit unterschiedlicher Auflösung, leider sind die Daten teils lückend und nicht immer über die ganze Zeitdauer. Zur gewünschten Analyse reichen sie jedoch aus.

Bild5 Datensatz Hohen-Peißenberg 1781 – 1990 (2014)

•  Bild 5.1 Temperaturverlauf 1781 – 2014 (Jahres-Mittelwerte) , ergänzt um das 30-Jahresmittel

   o  Überlagert die anthropogene CO2 Emission

•  Bild 5.2 Temperatur Max- / Min- Monatswerte 1781 – 1990, ergänzt um das 30-Jahresmittel

•  Bild 5.3 Niederschlag Tageswerte 1781 – 2014

•  Bild 5.4 Schneehöhe ca. 1900 – 2014

•  Bild 5.5 Windgeschwindigkeit ca. 1935 – 2014

  

Was sieht man anhand der langfrist-Klimadaten vom Hohenpeißenberg?

 Wieder das gleiche (schon langweilige) Ergebnis.

Bild 5.1 Temperaturverlauf 1781 – 2014 (Jahres-Mittelwerte)

1990 hat den gleichen Temperatur-Mittelwert wie 1800. Keine Korrelation zwischen CO2 und Temperatur. Erkennbar ist, dass der neue Datensatz ab 1995 eine sprunghafte Temperaturerhöhung aufweist.

Sofern man die Homogenisierung der Mittelwertberechnung vornimmt, würde man keine Erhöhung feststellen.

 Bild 5.2 Temperatur Max- / Min- Monatswerte 1781 – 1990, ergänzt um das 30-Jahresmittel

Immer das gleiche Bild, wie mit einer Wasserwaage horizontal ausgerichtet.

Bild 5.3 Niederschlag Tageswerte 1781 – 2014

Seit ca. 1880 hat sich nichts verändert. Vorher war es vielleicht etwas weniger.

Bild 5.4 Schneehöhe ca. 1900 – 2014

Ebenfalls keine wirkliche Änderung, schon gar kein Trend.

Bild 5.5 Windspitzen-Maximum ca. 1935 – 2014

Da muss es früher viel schlimmere Stürme gegeben haben. Der Klimawandel führt aktuell eher zur Verringerung, als zur vorhergesagten Erhöhung.

 Fazit

Auch auf diesem bayerischen Voralpenberg kann der Klimawandel nicht „gefühlt“ werden. Das Klima dort verhält sich eher entgegengesetzt den vorhergesagten Auswirkungen.

 Ein moderner, Klimawandel-informierter Bürger kommt damit aber nicht mehr zurecht. Da der Wandel „angekommen“ ist, aber nirgends bemerkt werden kann, wird er ja irgendwann einmal unvermittelt und dann bestimmt mit Wucht hereinbrechen. Deshalb geht der klima-mündige Bürger nicht mehr ohne Klima-Warn-App des bayerischen Umweltministeriums und des DWDs aus dem Haus.

Wer nicht mehr ohne eine App für jeden und alles leben kann, hat nun eine zusätzliche. Allerdings ist die Begründung der bayerischen Umweltministerin zur Notwendigkeit hanebüchen, liegt aber voll im politischen Begründungs-Niveau-Trend:  

Die neue App ist ein wichtiger Baustein bei der Anpassung Bayerns an den Klimawandel. Scharf: "Wir wollen Bayern bis 2050 klimasicher machen. Klimasicherheit ist eine politische und gesellschaftliche Herkulesaufgabe.

 Analyse – Zusatz

 Die bayerische Umweltministerin nannte bei der Vorstellung der Klima-App harte Klimafakten, welche Notwendigkeit und Aufwand rechtfertigen (sollen).

 [5] Der Klimawandel ist Fakt“, sagte Scharf bei der Vorstellung.

Auch in Bayern sind die Anzeichen dafür klar zu erkennen. In Unterfranken herrschte im Sommer die größte Trockenheit seit 40 Jahren. „Und der Hitzetrend wird sich fortsetzen“, sagt die Ministerin. In den vergangenen 80 Jahren ist die Durchschnittstemperatur in Bayern um rund 1,1 Grad gestiegen, in den Alpen sogar um 1,5 Grad. Vier Hochwasserkatastrophen musste der Freistaat in den vergangenen 15 Jahren bewältigen. Gleichzeitig nehmen Stürme und Muren weiter zu. „Das Gesicht Bayerns wird sich verändern“.

 Auch wenn man es leid werden kann, wollen wir die Fachaussagen der Ministerin detaillierter hinterfragen.

„In Unterfranken herrschte im Sommer die größte Trockenheit seit 40 Jahren“.

Genau so ist es. Bereits früher gab es Jahre, die so trocken und trockener waren. Wenn sich das erst nach 40 Jahren wiederholt, ist es eher ein Gegenbeweis, siehe: Trockenheit in Franken historisch.

 „Und der Hitzetrend wird sich fortsetzen“

Welchen Hitzetrend kann Frau Scharf damit meinen? Es gibt keinen. Die Temperatur in Bayern hat sich in den letzten 32 Jahren vielleicht, eher nicht, um 0,1 °C erhöht, siehe:  5 juli 2015 der bisher heisseste Tag Deutschlands?  Ob sich die Mitteltemperatur erhöht hat, ist ebenfalls fraglich.

 „Vier Hochwasserkatastrophen musste der Freistaat in den vergangenen 15 Jahren bewältigen“.

Und warum? Weil man in die Flussauen baut und dafür die Dämme zu niedrig anlegte. Der Autor hat sich immer beim Fahren auf der Autobahn hinter Regensburg gewundert, dass dort hemmungslos hinter diesen (damals) niedrigen Dämmen Siedlungen und Gewerbeflächen angelegt wurden.

Aber: Klimawandel ist das nicht. Und was soll die Nennung von „Vier Hochwasserkatastrophen“ wirklich belegen? Sehen wir uns einmal exemplarisch die Hochwasser des Mains bei Würzburg an, welche häufig sind und über einen langen Zeitraum gut dokumentiert wurden.

Die historischen Hochwasserstände des Mains bei Würzburg

 Im Frankenland ist der Klimawandel besonders „spürbar“. Schließlich erreichte  es dieses Jahr Deutschlands  höchste „seit Beginn der Aufzeichnungen“  gemessene Temperatur. Entsprechend müssten die Unwetter und auch  Überschwemmungen ebenfalls „klimagerecht“ zunehmen, wie es auch beim Mainhochwasser 2013 berichtet wurde (DIE WELT).

 Dazu verblüfft jedoch die Aussage des Wasser-Wirtschaftsamtes Würzburg:

[7] „Die Hochwasser jüngeren Datums nach 1909 sind historisch unbedeutend (20-Jahre Ereignisse)

 Aus der Pegeltabelle von Würzburg hat der Autor eine Grafik erstellt (Bild 6). Danach ist der aktuelle Hochwasserzustand geradezu paradiesisch. Von einer klimawandel-bedingten stetigen Zunahme keine Spur, einfach nur eine Klimawandel- Totalverweigerung. Bei einem Hochwasser wie 1342 oder 1781 würde Würzburg auch mit den aktuellen Schutzmaßnahmen hoffnungslos „absaufen“. Hoffentlich kommen die Würzburger nicht darauf, das erforderliche Geld vorher mit CO2-Reduzierungsmaßnahmen zu verpulvern (wie es ihre bayerische Umweltministerin vormacht).

 Bild6[8]  Hochwasserpegel Würzburg 1342 – 2014 (Tabelle aus wuerzburgwiki vom Autor in eine Grafik umgesetzt)

 

Sehen wir nach, was die Qualitätsmedien zum „Hochwasser“ 2013 meldeten:

 DIE WELT am 05.12.14: Würzburg (dpa/lby) – Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte Festivalleiter Stefan Oschmann am Freitag in Würzburg.

 Fühlt man sich da nicht verarscht? Der niedrigste Hochwasserpegel seit Menschengedenken, und darauf muss man sich nun „einstellen“, weil es immer schlechter wird! Dass man eine Veranstaltung auf einer Fläche errichten lässt, die in einem weit unter 20-jährigem Turnus regelmäßig überschwemmt wird, ist ein Armutszeugnis der Planer. Aber diesen Dilettantismus einem Klimawandel zuzuschieben ist unverfroren. Dem „DIE WELT“-Redakteur ist es nicht aufgefallen und die Verantwortlichemvom städtischen Planungsamt haben es aus gutem Grund vermieden, ihn darauf hinzuweisen.

Leider ist diese „Klimaberichts-Qualität“ inzwischen Standard.

 Es muss angemerkt werden, dass sich der „berühmte“ Pegelstand der Donau in Passau, wo drei hochwassergefährdete Flüsse zusammenfließen etwas anderst verhält. Dort lassen sich die Ursachen aber kaum differenzieren.

Trotzdem war auch dort das „Jahrtausendhochwasser“ 2013 nur das zweithöchste. Und vorher kamen 6 hohe von 1595 – 1954, bis (mit niedrigerem Stand) das „hohe“ von 2002 erscheint.

 Bild7 Wasserstandsanzeige Passau Fischmarkt (Fotoausschnitt)

•  Reihenfolge: (Start Höchststand) 1501; 2013; 1595; 1954; 1787; 1862; 1899; 1895; 2002; 1920

 

 Was sagen die Durchschnittstemperaturen?

 Erinnerung: Frau Scharf sieht es als Beleg des Klimawandels:

 „In den vergangenen 80 Jahren ist die Durchschnittstemperatur in Bayern um rund 1,1 Grad gestiegen“

 Auffällig ist, dass in fast allen Klimadatensätzen zwar die Durchschnittstemperatur leicht! höher wird (aber auch das nicht überall und vor allem nicht kontinuierlich, wie es das CO2 erzwingen würde), die Min- / Max- Werte aber über Jahrhunderte wie mit der Wasserwaage gezogen horizontal verlaufen (deshalb ja auch die „Erhöhung“ der Maximaltemperatur Deutschlands um max. 0,1 °C in 32 Jahren). Dabei sollen durch den Klimawandel doch gerade die Extremwerte zunehmen.

Stimmen die Durchschnittstemperaturen?

 Bei der Analyse dieser Ungereimtheit viel dem Autor auf, dass es zwischen dem DWD-Mittelwert der Datensätze und dem aus der Min- / Max- Spanne selbst berechneten zwei Sprungstellen gibt (ca. 1905 und 1987). Nun ist es so, dass die Extremwerte direkt erfasst werden, während die Mittelwerte über die Historie unterschiedlich erfasst und zudem unterschiedlich über einen Algorithmus berechnet werden. Die Nachfrage  beim DWD ergab:  Das wurde richtig erkannt, 1987 wurde die Mittelwert- Berechnungsmethode geändert.

Für den deutlichen Sprung um 1905 hat der Autor keine Information gefunden. Vielleicht weiß ein Leser dazu etwas und informiert im Blog.

Nun fragt sich der Autor. Führt jeder, der die DWD-Datensätze verwendet vorher die aufwendige Homogenisierung durch, nachdem keine Angaben zur (selbst durchzuführenden Homogenisierung)  vorliegen. Bisher hat er in keiner Fremd-Analyse Hinweise auf die Durchführung einer solchen Korrektur gefunden. Dies gilt übrigens nicht nur für Hohenpeißenberg, sondern für praktisch alle deutschen Datensätze.

Anm.: Die Datensätze dieser Publizierung sind nicht homogenisiert. An ein paar Stellen sind jedoch Hinweise dazu vermerkt. Die Homogenisierung würde bedeuten, dass die Mittelwerte ab ca. 2000 um ca. 0,5  – 1°C verringert werden müssten. Alleine dadurch verschwände praktisch der gesamte Klimawandel.

Welche Auswirkung hat das auf dem Mittelwert?

 Wie man anhand der zwei Verläufe im Bild 7 sieht, ändert sich der Temperatur-Mittelwert innerhalb Zeiträumen gleicher Berechnungsmethode kaum. Und nun der „Hammer“: Der aus der Spanne berechnete Mittelwert vom Hohenpeißenberg zeigt von 1880 – 2014 keine Veränderung! Korrigiert man die Mittelwert-Berechnungsänderung von 1987 mit 1°C, dann zeigen sogar die offiziellen DWD-Werte seit 1905 keine Erhöhung des Mittelwertes an. Die von Frau Scharf angegebenen 1,1°C reduzieren ich auf ein Rauschen unterhalb der Messgenauigkeit. 

Daraus leitet der Autor eine gewagte Hypothese ab:

•  In den vergangenen 80 Jahren, ev. sogar seit ca. 1910 hat sich das Klima in Bayern ganz bestimmt nicht um 1,1 Grad, eher gar nicht erhöht. Die deklarierten Erhöhungen sind im Wesentlichen durch Änderungen der Mittelwertberechnung verschuldet.

•  Wenn man den Sprung um 1905 berücksichtigen würde, käme man sogar auf eine Abkühlung.

Siehe dazu auch [9]

Bild8 Temperaturdaten Hohenpeißenberg 1781 – 2014 Mittelwerte

•   Bild 8.1 Temperaturverlauf DWD-Jahresmittel; aus der Spannweite berechnetes Jahresmittel

    o  Eingeblendet CO2-Emission

•  Bild 8.2 Differenz Spannweiten-Mittelwert – DWD Mittelwert

 

Gesamt-Fazit

Der Autor kann auch weiterhin den Klimawandel nirgends finden und schon gar nicht die damit einhergehenden, vielbeschworenen Auswirkungen. Was nicht heißt, dass das Wetter nicht drastische Kapriolen schlagen kann, was es aber in der Vergangenheit schon viel schlimmer gemacht hat (siehe dazu ein Extrembeispiel in Afrika).

 Personen, welche angeben den Klimawandel in Deutschland „spüren“ zu können, glaubt er dies auch weiterhin nicht. Der Autor behauptet sogar, mit seiner Analyse belegt zu haben, dass dies in Deutschland innerhalb einer  Lebensspanne nicht möglich ist.

Ministerinnen, welche in „angekommen“ sehen, glaubt er weiterhin nicht, dass diese an Fakten dazu interessiert  sind. So sie diese nicht kennen, verkünden sie „Meinung“. Sofern sie diese Kennen, wäre es schlimmer, was sie verkünden.

Nachspann aus aktuellem Anlass

 Während der Erstellung dieses Artikels konnte der Autor in „seiner“ Tageszeitung über eine Klimaaktivistin lesen welche als NGO-Vertreterin (ein von einer ehemaligen SPS- Ministerin und einem CSU-Abgeordneten unterstützter „Klimarettungsverein“) an den aktuellen Klima vor-Verhandlungen in Bonn  teilnimmt.

Alter: 25 Jahre

Ausbildung: im Studiengang Jura

Schlüsselerlebnis Klimaproblematik: Teilnahme an einem Rollenspiel, in dem Sie vom steigenden Meeresspiegel bedrohte Inselflüchtlinge juristisch vertrat.

Kenntnisse über Klimawandel: Das 2 Grad Ziel ist weltbestimmend. Der Meeresspiegel steigt unaufhörlich.

Sachliche Beschäftigung mit dem Klimawandel: Wurde vom Redakteur nicht gefragt und nicht erwartet.

Aktuelles Ziel: Die Erde für die Nachfolgegenerationen „retten“. Vertritt das Prinzip, heute zu wissen, was die Zukunft benötigt und versucht, diese Zukunft einzuklagen.

Quellen

[1]

Die Welt 01.04.14: Den Klimawandel mit wärmenden Textilien bekämpfen

[2]

EIKE 01.06.2015: In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen (Teil2)

 http://www.eike-klima-energie.eu/climategate-anzeige/in-deutschland-kein-klimawandel-in-sicht-das-kann-die-sz-nicht-auf-sich-sitzen-lassen-teil2/

 [3]

Kaltesonne 6. Oktober 2014: Klimawandel in Deutschland: Eine geowissenschaftliche Betrachtung

 [4]

EIKE 11.10.2015: IWF-Chefin Lagarde`s rettender Einfall beim Hähnchenessen

http://www.eike-klima-energie.eu/news-cache/iwf-chefin-lagardes-rettender-einfall-beim-haehnchenessen-oder-war-es-bereits-vorher-unter-dem-solarium/

 [5]

Merkur 20.10.15: Neue App warnt vor Hochwasser und Hagel 

http://www.merkur.de/bayern/wetter-bayern-muenchen-diese-app-warnt-hochwasser-hagel-5664239.html

 [6]

http://www.wsa-schweinfurt.wsv.de/umwelt/gk/hydrologie/hochwasser/images/50_30_20_60_Hochwasser_-_Hochwaesser_am_Pegel_Wuerzburg_seit_1824.jpg

 [7]

Umweltamt der Stadt Würzburg – Wasserwirtschaftsamt, Publikation: Historische Hochwasser am Main

http://www.wuerzburg.de/2007/m_10317

 [8]

WIKIPEDIA: Hochwasser in Würzburg

https://de.wikipedia.org/wiki/Hochwasser_in_W%C3%BCrzburg

 [9]

Beiträge zur Berliner Wetterkarte Horst Malberg, Univ.Prof. (A.D.) 28.9.2010: Über scheinbare und tatsächliche Klimaerwärmung seit 1850




Der „13°C Schwachsinn“ bei Wirtschaftswissenschaftlern – eine ökonomische Krankheit?

Die höchste Produktivität hätten Volkswirtschaften bei einer Jahresdurchschnittstemperatur von 13 Grad Celsius, schreiben die Forscher um Marshall Burke im Wissenschaftsmagazin „Nature“. Bis zu dieser Temperatur gehen die Forscher von steigenden Erträge aus. Werde es noch wärmer, sänken sie fast linear wieder ab, so das Ergebnis der Untersuchung.

Die Wissenschaftler hatten Wirtschaftsdaten von 166 Staaten jeweils für den Zeitraum 1960 bis 2010 ausgewertet und in Beziehung zu den jährlichen Durchschnittstemperaturen gesetzt. Die Wendemarke von 13 Grad besteht demnach unabhängig davon, wie hoch der Industrialisierungsgrad der Länder ist. Sie gilt für Leistung der Arbeitskräfte ebenso wie für die der Landwirtschaft.“

Soweit der Kern dieser „wirtschaftwissenschaftlichen Arbeit“, die bei nature allerdings nicht als wissenschaftliche Arbeit („paper“), sondern als Brief[3] („letter“) erschienen ist. Das Lesen dieses Briefes kostet 30 US-$ und ist dieses Geld nicht wert. Bei nature online gibt es aber ergänzende Informationen[4] („Supplementary information“) kostenlos. Diese beschreiben die Einzelheiten noch besser, ja, sogar, die mathematischen Gleichungen, die zur Berechnung des wirtschaftlichen Wachstums verwendet wurden.

Man kann die Anamnese der 13°C Geisteskrankheit der betroffenen Wirtschaftswissenschaftler also bis auf den wahren Grund hinunter verfolgen.

Man kann die Wirtschaftswissenschaft hier nicht außen vor lassen, wenn man diese „wissenschaftliche Arbeit“ öffentlich als Schwachsinn bezeichnet. Mit der Veröffentlichung als „News“ bei EIKE werde ich daher Hans-Werner Sinn und Carl Christian von Weizsäcker damit konfrontieren. Es kann nicht angehen, dass hochbezahlte deutsche Beamte dazu nicht öffentlich Stellung nehmen.

Auch die wissenschaftlichen Verlage sollten einmal dazu Stellung nehmen, was „Peer Review“ noch wert ist, wenn man neben tatsächlichen wissenschaftlichen Arbeiten nach Gutsherren Art Kommentare und Briefe veröffentlicht, die jeder Wissenschaftlichkeit Hohn sprechen.

Hier nun des Pudels Kern meiner Diagnose dieses 13°C Schwachsinns. Es ist dieses Satz samt seiner Fußnote „‡‡“, in welchem die Ursache der Krankheit beschrieben ist:

„Weil wir nicht-lineare Modelle abschätzen, berechnen wir marginale Effekte sowohl der sofortigen wie der verzögerten Antwortfunktion an jedem Punkt der Temperaturwirkung. ‡‡ Das Ergebnis dieses Verfahrens ist eine Schätzung des kumulativen Effekts auf das Einkommen bei einem Grad Erwärmung als Funktion der Anfangstemperatur eines Landes.“

Und die Fußnote zeigt die mathematische Gleichung, die als „Modell“ verwendet wurde:

„‡‡ Für ein Modell mit einer verzögerten Antwortfunktion (und Kontrollen ignorierend) gilt:

Yit = β1Tit + β2T2it + β3Tit-1 + β4T2it-1,

wobei der marginale Gesamteffekt auf das Wachstum (Y) bei einer beliebigen Temperatur (T*) dann ist  β1 + 2β2(T*) + β3 + 2β4(T*).

(Im Original ist das zweite β nicht mit Unterstrich, sondern mit ^ („Dächelchen“) gekennzeichnet um es vom ersten β zu unterscheiden.)

Übersetzungen sind immer problematisch. Die Fußnoten nennen daher den englischen Originaltext.

Fazit:

Beide Gleichungen zeigen: Das wirtschaftliche Wachstum verschiedener Länder wurde tatsächlich nur mit der „Anfangstemperatur der Länder“ korreliert und aus dieser Korrelation heraus für die beliebige Temperatur T* berechnet. Jeder mögliche weitere Faktor mit sehr gut bekannter Bedeutung für die Wirtschaft wurde weggelassen. Dieses Weglassen der wirtschaftlichen Wirklichkeit eines Landes, also der maßgeblichen Faktoren wie Bildungsstand der Bevölkerung, Rohstoffe, Energie und so weiter, bezeichne ich als Krankheit des Geistes, verkürzt als Schwachsinn.

Hier stehe ich, ich kann nicht anders. EIKE helfe mir!


[1] http://www.handelsblatt.com/technik/energie-umwelt/neue-studie-klimawandel-bremst-die-weltwirtschaft-aus/12483344.html

[2] http://news.stanford.edu/news/2015/october/climate-change-cost-102115.html

[3] http://www.nature.com/nature/journal/vaop/ncurrent/full/nature15725.html

[4] http://www.nature.com/nature/journal/vaop/ncurrent/extref/nature15725-s1.pdf




Fünf Straßenlampen die nicht leuchten- sind besser als gar keine

Das ZDF hatte kürzlich die Geschichte, wie die Stadt Gescher, im Münsterland, NW, neue Solar betriebene Straßenleuchten für die handliche Summe von 28.000 € installierte. 5 Leuchten auf 1500m Weg für Fußgänger und Fahrradfahrer, um den Weg zu einer Sportstädte für Kinder und Frauen sicherer zu machen.

Bildabzug ZDF Video, Solar betriebene Straßenleuchten Gescher

Aber der ZDF Reporter erzählte, dass es nun ein kleines Problem mit den neuen Leuchten gibt:

… die neuen Designer Leuchten haben einen sehr großen Nachteil. Wenn es Nacht ist im Münsterland, bleiben diese Lampen aus.

Anwohner schütteln ihren Kopf über die verpfuschte Investition, nennen das Ganze “sinnlos”, ““eine Verschwendung“ und „absurd“.

ZDF erzählt den Zuschauern, dass im Laufe des Tages die Sonne die Batterien der Straßenleuchten aufladen sollte, damit diese in der Nacht die Lampen antreiben. Aber das scheint einfach nicht zu funktionieren. Die Leuchten bleiben meist dunkel in der Nacht. Ein Bewohner kommentiert: 

"… wenn dann sollten‘se vernünftige Leitungen verlegen und vernünftige Lampen dazu. Aber die Stadt macht doch sowie so wat‘se wollen".

 Der Bürgermeister von Gescher, Thomas Kerkhoff versteht die Aufregung darum nicht, Er verteidigt die Investition.

ZM: 1:40 min: Wir wollten unsere Sportanlagen im Außenbereich aufwerten und … einen sicheren Radweg und Weg zu gewährleisten und insofern sind diese fünf Lampen besser als keine Lampen.

Bildabzug: ZDF Video

Viele Bürger fragen sich aber, was sie von Lampen haben, die im Dunkeln nicht das tun was sie sollen – nämlich leuchten

Gefunden über : NoTricksZone, 26. Oktober 2015

http://notrickszone.com/2015/10/26/german-town-of-gescher-installs-9-solar-street-lamps-that-dont-work-at-night-for-28000-euros/

Heißer Tip: Wolfgang Neumann auf Facebook, Link zum ZDF Video

https://www.facebook.com/ZDFheute/videos/10153715272145680/?pnref=story

Übersetzt und zusammengestellt Andreas Demmig




Rückbau der AGW-Hypothese

Ich weiß, Einiges dieses Materials ist nicht neu, habe ich doch selbst etwas davon entdeckt. Allerdings ist es an der Zeit, alles noch einmal zusammenzustellen, weil immer mehr Menschen sich dessen bewusst werden, was da vor sich geht, und die jetzt am Schauplatz des Crashs sind.

Das IPCC und seine Befürworter zeichneten eine Karte, bauten die Straßen und gestalteten die Verkehrszeichen, aber sie gestalteten, bauten und fuhren auch das Auto. Sie haben keinen Crash eingeplant und alles getan, um ihr Ziel zu erreichen. Das Problem entstand infolge der Hypothesen, die sie aufgestellt hatten, und infolge der Manipulation der Daten, die sie brauchten, um das Ergebnis der Expedition vorwegzunehmen; ein Crash war unvermeidlich.

Welche Bedingungen haben sie als notwendig angesehen, um ihr Ziel zu erreichen? Es gibt zwei unterschiedliche Listen. Die erste ist eine Liste der Hypothesen, die für den wissenschaftlichen Teil der AGW-Hypothese aufgestellt worden sind. Die zweite ist eine Liste mit Ausgangsbedingungen, die für den politischen Teil der AGW-Objektive gebraucht wurden.

Wissenschaftliche Hypothesen

1. CO2 ist ein Gas mit effektiv lediglich Einbahnstraßen-Eigenschaften, das es dem Sonnenlicht erlaubt, in die Erde einzudringen, dann aber verhindert, dass die Strahlung wieder entweicht.

2. Falls der atmosphärische CO2-Gehalt steigt, wird die globale Temperatur steigen.

3. Der atmosphärische CO2-Gehalt wird zunehmen, weil die Menschen jedes Jahr mehr CO2 freisetzen.

Politische Hypothesen

1. Die globalen Temperaturen sind die höchsten jemals.

2. Die globalen Temperaturen stiegen entsprechend dem Beginn der Industriellen Revolution

3. Das CO2-Niveau ist das höchste jemals.

4. Das CO2-Niveau lag vor der industriellen Revolution viel niedriger.

5. Das CO2-Niveau steigt weiterhin mit einer stetigen Rate infolge des jährlichen Beitrags der Menschen.

Datenquellen

Die wesentlichen Objektiven mussten mit einem niedrigen vorindustriellen Niveau atmosphärischen CO2′ beginnen und während der letzten 150 Jahre stetig ansteigen. Unter den Datenquellen waren Folgende:

1. Luftbläschen aus Eisbohrkernen, aber primär nur aus der Antarktis

2. Pflanzen-Stomata in Blättern, durch die die Pflanzen Gase mit der Atmosphäre austauschen. Deren Anzahl variiert mit dem atmosphärischen CO2-Gehalt.

3. Etwa 90.000 instrumentelle Messungen aus dem 19. Jahrhundert. Die Messungen begannen 1812 als die Wissenschaft die Chemie der Atmosphäre bestimmte.

4. Neuzeitliche instrumentelle Messungen konzentrierten sich primär auf den Mauna Loa, die im Jahre 1958 begannen als Teil des Internationalen Geophysikalischen Jahres.

5. Der jüngst gestartete NASA-Satellit Orbiting Carbon Observatory OCO2 mit den ersten veröffentlichten Daten der CO2-Konzentration vom 1. Oktober bis zum 11. November 2014.

6. IPCC-Schätzungen der menschlichen Erzeugung von CO2, derzeit bekannt unter der Bezeichnung Representative Concentration Pathways (RCP).

Die erste Frage lautet, was die nicht menschlichen Quellen und Senken von CO2 sind. Die Antwort lautet, wir wissen es nicht. Alles was wir haben sind sehr grobe Schätzungen von einigen davon, aber keine aktuellen brauchbaren Messungen. Man erinnere sich, was das IPCC in Box 2.1 Uncertainty in Observational Records sagte:

Unter den Unsicherheiten gemessener Aufzeichnungen sind Messfehler, Effekte der Repräsentation (z. B. Darstellung, Beobachtungshäufigkeit oder Timing), ebenso wie Effekte aufgrund physikalischer Änderungen der Instrumentation (Stationsverlagerungen oder neue Satelliten). Alle weiteren Schritte (Übertragung, Speicherung, Interpolation, Mittelbildung, Gridding) haben ebenfalls ihre eigenen speziellen Unsicherheiten. Weil es keinen einheitlichen und überzeugenden Weg gibt, den nicht-klimatischen Artefakten (sic) in der großen Mehrheit der Aufzeichnungen Rechnung zu tragen, muss es einen Grad der Unsicherheit geben hinsichtlich der Frage, wie sich das Klimasystem verändert hat.

Es ist wichtig festzuhalten, dass sie eine Ausnahme identifizieren, weil diese wichtig ist für ihr Narrativ, aber auch für die Nachbildung des IPCC-Wracks:

Die einzige Ausnahme hiervon sind bestimmte Messungen der atmosphärischen Zusammensetzung und der Flüsse, deren Messungen und Unsicherheiten fest verbunden sind mit einer ununterbrochenen Kette von international anerkannten absoluten Mess-Standards (z. B. die CO2-Messung am Mauna Loa; Keeling et al., 1976a)

Das IPCC erstellt dann ein bizarres und verwirrendes Diagramm (Abbildung 1, im Original Abbildung 6.1), in dem es eher um das zugrunde liegende Szenario für ihr Narrativ geht als um eine Klarstellung oder Erläuterung:

Abbildung 1

Normalerweise füge ich nicht die Legende einer Graphik oder eines Diagramms bei, aber in diesem Falle ist sie sehr informativ. Nicht, dass sie der Klarstellung dient, sondern weil sie illustriert, wie wenig man weiß und wie wichtig es ist, die menschliche CO2-Erzeugung während der Industriellen Revolution in den Mittelpunkt zu stellen. Dies kommt nicht überraschend, ist dies doch die Definition des Klimawandels, festgelegt in Artikel 1 des UNFCCC. Falls man so vorgeht, ist ein Crash unvermeidlich:

Abbildung 6.1: Vereinfachtes Schema des globalen Kohlenstoff-Kreislaufes. Die Zahlen repräsentieren die Menge im Reservoir, auch ,Kohlenstoff-Speicher‘ in PgC (1 PgC = 1015 gC) sowie jährliche Kohlenstoff-Austausch-Flüsse (in PgC pro Jahr). Schwarze Zahlen und Pfeile stehen für die Menge im Reservoir und Austausch-Flüsse, geschätzt für die Zeit vor der Industriellen Ära, etwa um das Jahr 1750. Die Reserven fossiler Treibstoffe stammen aus GEA (2006) und sind konsistent mit Zahlen der WG III des IPCC für zukünftige Szenarien. Die Sediment-Speicherung ist eine Summe von 150 PgC des organischen Kohlenstoffes in der Grenzschicht [mixed layer] (Emerson und Hedges 1988) sowie von 1600 PgC der verfügbaren CaCO3-Sedimente in der Tiefsee, um das CO2 aus fossilen Treibstoffen zu neutralisieren (Archer et al. 1998). Rote Pfeile und Zahlen zeigen jährliche ,anthropogene‘ Flüsse, gemittelt über den Zeitraum 2000 bis 2009. Diese Flüsse durchdringen den Kohlenstoff-Kreislauf während der industriellen Ära nach 1750. Diese Flüsse (rote Pfeile) sind: CO2-Emissionen aus fossilen Treibstoffen und der Zement-Herstellung, Gesamt-Änderung der Landnutzung, und die mittlere atmosphärische Zunahme von CO2, auch CO2-Wachstumsrate genannt. Die Aufnahme anthropogenen CO2′ durch Ozeane und terrestrische Ökosysteme, oftmals ,Kohlenstoff-Senken‘ genannt, sind der Anteil der roten Pfeile des Gesamten Festland-Flusses und des gesamten Ozean-Flusses. Die roten Zahlen in den Reservoiren zeigen kumulative Änderungen anthropogenen Kohlenstoffes während der Industriellen Periode (1750 bis 2011). Per Konvention bedeutet eine positive kumulative Änderung, dass ein Reservoir seit 1750 Kohlenstoff aufgenommen hat. Die kumulative Änderung anthropogenen Kohlenstoffes im terrestrischen Reservoir ist die Summe des kumulativ verloren gegangenen Kohlenstoffes durch Änderungen des Landverbrauchs und des akkumulierten Kohlenstoffes seit 1750 in anderen Ökosystemen. Man beachte, dass die Massenbilanz der beiden ozeanischen Kohlenstoffspeicher an der Oberfläche, den mittleren Tiefen und der Tiefsee eine jährliche Akkumulation anthropogenen Kohlenstoffes enthält (nicht gezeigt). Unsicherheiten werden in 90%-Vertrauens-Intervallen angegeben. Emissionsschätzungen sowie Festlands- und Ozean-Senken (rot) stammen aus einem späteren Abschnitt. Die Änderung der großen terrestrischen Flüsse (rote Pfeile der Photosynthese) wurden aus CMIP5-Modellergebnissen geschätzt. Die Änderung der Austauschflüsse zwischen Luft und Meer (rote Pfeile des Ozean-Atmosphäre-Gasaustausches) wurden geschätzt aus der Differenz des atmosphärischen Partialdrucks seit 1750 (Sarmiento und Gruber 2006). Individuelle Gesamtflüsse und deren Änderungen seit Beginn der Industriellen Ära weisen typische Unsicherheiten von über 20% auf, während deren Differenzen (Gesamt-Festlands- und Gesamt Ozean-Fluss in der Abbildung) aus unabhängigen Messungen mit einer viel höheren Genauigkeit bestimmt wurden. Um eine Alles-in-Allem-Bilanz zu erstellen, wurden daher die Werte der unsichereren Gesamtflüsse adjustiert, so dass deren Differenzen passen zu den Schätzungen des Gesamt-Festlands- und des Gesamt-Ozean-Flusses. Flüsse durch vulkanische Eruptionen, Verwitterung von Felsen (was zu einer geringen CO2-Aufnahme aus der Atmosphäre führt), der Transfer von Kohlenstoff aus der Erde in Flüssen zum Ozean werden alle als präindustrielle Flüsse vermutet, das heißt sie sind von 1750 bis 2011 unverändert. Einige Studien aus jüngerer Zeit zeigen, dass diese Hypothese wahrscheinlich nicht verifiziert ist, aber globale Schätzungen der Durchdringung all dieser Flüsse während der Industriellen Ära waren aus der begutachteten Literatur nicht verfügbar. Der atmosphärische Vorrat wurde berechnet mittels eines Konversionsfaktors von 2,12 PgC pro ppm (Prather et al. 2012)

Dies ist vermutlich eines der bemerkenswertesten Beispiele wissenschaftlicher Verschleierung in der Geschichte. Jede Zahl ist eine grobe Schätzung. Der Kommentar sagt, dass wir überhaupt nichts wissen, uns aber völlig sicher sind hinsichtlich der menschlichen CO2-Erzeugung während der industriellen Ära. Meines Wissens nach gibt es keinerlei systematische, umfassende Messungen von CO2-Austausch mit den meisten Landschaftsformen, bedeckt von verschiedenen Wäldern, aber vor allem Grasland. Das Grasland illustriert das Problem, weil – abhängig von der Definition – die Ausdehnung variiert zwischen 15 und 40 Prozent. Der wichtige Punkt hier ist, dass wir kaum Ahnung haben über Volumina oder der Art der Änderung mit der Zeit. Eine Gruppe, die das vermeintlich wissen müsste, die American Chemical Society, bestätigt diesen Punkt. Natürlich wissen wir, wie professionelle Gesellschaften auf die Linie des IPCC getrimmt worden sind. In einem Artikel unter der Überschrift [übersetzt] „Treibhausgas-Quellen und _Senken“ (Greenhouse Gas Sources and Sinks) präsentieren sie ein Diagramm des IPCC (Abbildung 2):

Abbildung 2

Der Text der American Chemical Society, der vermeintlich um die atmosphärische Chemie weiß, sagt:

Die in diesen kurzen Zusammenfassungen genannten Quellen der Gase sind die Wichtigsten, aber es gibt auch andere Quellen geringerer Bedeutung. Die Details der Senken, durch welche die Gase aus der Atmosphäre entfernt werden, sind nicht enthalten. Die Graphik für jedes Gas (oder Gas-Klasse) stammt aus Abbildung 1, FAQ 7.1, IPCC, AR 4 (2007), Kapitel 7. Menschliche Quellen werden in orange und natürliche Quellen und Senken in blaugrün gezeigt. Die Einheiten sind Gramm (g) oder metrische Tonnen. Vielfache hiervon in den Abbildungen sind: Gt (gigatonne) = 109 t = 1015 g; Tg (teragram) = 1012 g = 106 t; and Gg (gigagram) = 109 g = 103 t.

Als eine professionelle Gesellschaft sollten sie wissen, dass über Gase in der Atmosphäre nichts bekannt ist, und doch stützen sie die IPCC-Illusionen als Fakten. Es gibt kaum Hinweise auf Schwächen oder Warnungen der wissenschaftlichen Grenzen, die sogar das IPCC selbst benennt – in Kasten 2.1.

Erzeugung einer geglätteten CO2-Kurve

Ein grundlegender Fehler beim ,Hockeyschläger‘ ist es, eine Baumring-Aufzeichnung, den Stiel, mit einer instrumentellen Temperaturaufzeichnung, dem Blatt, zu verbinden. Dies wurde getan, weil die Baumring-Aufzeichnung abnehmende Temperaturen zeigte, was deren Hypothese und ihrer politischen Agenda widersprach. Ironischerweise ist es eine wesentliche Herausforderung in der Klimatologie, eine kontinuierliche Aufzeichnung zu erzeugen mit Daten aus verschiedenen Quellen. H. H. Lamb widmet den ersten Teil seines epischen Werkes Climate, Present, Past and Future (1977) diesen Problemen. Auch zeigt er eine Graphik mit der Länge der möglichen Klima-Zeitreihen und dem Überlappungs-Problem (Abbildung 3). Da gibt es drei Gebiete: instrumental oder säkular, die Historie sowie Biologie und Geologie.

Abbildung 3

Daten aus verschiedenen Quellen müssen zueinander passen, um vom vorindustriellen Niveau bis heute die kontinuierliche geglättete Kurve von CO2 zu erzeugen. Dies involvierte drei Datensätze: Eisbohrkerne, instrumentelle Messungen aus dem 19. Jahrhundert und die Aufzeichnung vom Mauna Loa. Abbildung 4 zeigt die Rekonstruktion aus diesen drei Quellen von Ernst-Georg Beck. Falls man die Daten aus dem 19. Jahrhundert entfernt, zeigt sich ein weiteres Beispiel eines ,Hockeyschlägers‘. Die Daten aus den Eisbohrkernen sind der Griff aus einer einzigen Quelle, einem Bohrkern aus der Antarktis. Das Blatt ist die Instrumenten-Aufzeichnung vom Mauna Loa. Die Arbeitsgruppe 1 zum IPCC-Bericht 2001 schreibt dazu:

Die CO2-Konzentration in der Atmosphäre stieg von etwa 280 ppm im Jahre 1880 zunächst langsam, dann immer schneller auf den Wert von 367 ppm im Jahre 1999. Dies spiegelt das Tempo der landwirtschaftlichen und industriellen Entwicklung. Dies ist bekannt aus zahlreichen, gut nachgebildeten Messungen der Zusammensetzung von Luftbläschen im antarktischen Eis. Atmosphärische CO2-Konzentrationen wurden seit 1957 mit hoher Präzision direkt gemessen. Diese Messungen stimmen mit den Ergebnissen aus den Eisbohrkernen überein und zeigen einen fortgesetzten zunehmenden Trend bis zur Gegenwart.

Diese Messungen sind nicht gut erfasst und haben viele ernste Begrenzungen. Darunter sind:

1. Es dauert Jahre, bis ein solches Bläschen im Eis gefangen ist. Welches Jahr repräsentiert das Bläschen?

2. Mit dem dicker werdenden Eis wird es unmöglich, die Schichten zu bestimmen, und daher die Datierung der jeweiligen Sequenz schwieriger. Einige sagen, dass man bei einer Tiefe von 2000 m im Eis 245 cm Eis braucht, um eine einzige Stichprobe zu erhalten, aber unter dem Druck und dem Vermischen kann ein einzelnes Bläschen mehrere tausend Jahre repräsentieren.

3. Schmelzwasser an der Oberfläche, welches sich in jedem Sommer bildet, dringt in das Eis ein und verunreinigt die Bläschen. Zbigniew Jaworowski sagte in seiner Anhörung vor dem US-Senat:

Über 20 physikalisch-chemische Prozesse, meistens in Verbindung mit flüssigem Wasser, tragen zur Veränderung der ursprünglichen chemischen Zusammensetzung der Lufteinschlüsse im polaren Eis bei.

4. Einer Studie von Christner (2002) mit dem Titel [übersetzt] Auffinden, Isolierung und Charakterisierung von Bakterien in Gletschereis und dem Eiswachstum im Wostok-See. Zufolge setzen gefundene Bakterien selbst noch in 500.000 Jahre altem Eis Gase frei.

Abbildung 4

Eine Rekonstruktion dieser Teile des Crashs enthüllt, wie dieser erreicht wurde.

Prof. Zbigniew Jaworowski wurde wüst beschimpft während seiner letzten Lebensjahre wegen seinen Ansichten zu Klimawandel und Eisbohrkern-Daten. Wie bei allen, die derartig attackiert werden und wurden, ist dies ein sicheres Anzeichen, dass sie die vorsätzlichen Täuschungen der politischen Agenda der globalen Erwärmung bloß stellen. Hier folgen Auszüge aus Jaworowskis Karriere, die seine Präsentation vor dem US-Komitee für Handel, Wissenschaft und Transportwesen begleiteten:

Ich bin Professor am Central Laboratory for Radiological Protection (CLOR) in Warschau, einer Regierungs-Institution, die sich mit Umweltstudien befasst. CLOR hat eine „spezielle Verbindung“ mit dem US National Council on Radiological Protection and Measurements (NCRP). Einst kooperierte das CLOR etwa zehn Jahre lang sehr eng mit der EPA in den USA bei Forschungen bzgl. des Einflusses von Industrie und atomaren Explosionen auf die Verschmutzung der globalen Umwelt und der Bevölkerung. Ich habe etwa 280 wissenschaftliche Studien veröffentlicht, darunter 20, die sich mit klimatischen Problemen befassen. Ich bin Repräsentant von Polen im United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR),und von 1980 bis 1982 war ich der Vorsitzende dieses Komitees.

Während der letzten 40 Jahre war ich in Gletscherstudien involviert, wobei ich Schnee und Eis als Matrix benutzt habe, um die Historie der vom Menschen verursachten Verschmutzung der globalen Atmosphäre zu rekonstruieren. Ein Teil dieser Studien befasste sich mit Klimathemen. Eisbohrkerne und die Auswertung derselben wurden verbreitet als Beweis angeführt, dass infolge der menschlichen Aktivitäten das gegenwärtige CO2-Niveau der Atmosphäre etwa 25% höher ist als in der vorindustriellen Periode. Diese Aufzeichnungen wurden zu den grundlegenden Eingangs-Parametern in die Modelle des globalen Kohlenstoff-Kreislaufes und ein Eckpfeiler der Hypothese von der vom Menschen verursachten klimatischen Erwärmung. Diese Aufzeichnungen repräsentieren nicht die atmosphärische Realität, wie ich im Folgenden belegen möchte.

Niemand war qualifizierter, etwas zu den Aufzeichnungen aus Eisbohrkernen etwas zu sagen, und hier folgt das, was er vor dem Komitee sagte:

Die Grundlage der meisten IPCC-Schlussfolgerungen zu anthropogenen Gründen und zu Projektionen des Klimawandels ist die Hypothese eines niedrigen Niveaus von CO2 in der vorindustriellen Atmosphäre. Diese Hypothese ist auf der Grundlage glaziologischer Studien falsch“.

Genauso wichtig ist Jaworowskis Aussage:

Die Vorstellung eines geringen vorindustriellen CO2-Niveaus in der Atmosphäre auf der Grundlage so geringen Wissens wurde zu einem weithin akzeptierten Heiligen Gral der Klimaerwärmungs-Modelle. Die Modellierer ignorierten die Beweise aus direkten Messungen von CO2 in der Luft, die zeigen, dass dessen mittlere Konzentration im 19. Jahrhundert 335 ppmv betragen hatte (Abbildung 2).Die eingekreisten Werte in Abbildung 2 zeigen eine verzerrte Auswahl von Daten um zu zeigen, dass das CO2-Niveau im 19. Jahrhundert nur 292 ppmv betragen hatte. Eine Untersuchung von Stomata-Häufigkeiten in fossilem Laub aus Ablagerungen in einem holozänen See in Dänemark zeigen, dass das atmosphärische CO2-Niveau vor 9400 Jahren 333 ppmv betragen hatte und vor 9600 Jahren 348 ppmv. Dies falsifiziert das Konzept einer stabilen und geringen CO2-Konzentration bis zum Aufkommen der industriellen Revolution.

Abbildung 5 zeigt die Beweise aus den Stomata bzgl. des CO2-Niveaus im Vergleich mit den Daten aus Eisbohrkernen, auf die sich Jaworowski bezieht:

Abbildung 5

Unabhängig vom alles in allem höheren Mittel beachte man den glatten Verlauf der Eisbohrkern-Kurve, der in Teilen erreicht wurde durch ein Glättungs-Mittelwert über 70 Jahre. Bei diesem Verfahren gehen große Mengen an Informationen verloren, vor allem hinsichtlich der Variabilität, wie die Aufzeichnungen aus den Stomata zeigen.

Die andere Referenz Jaworowskis ist eine Graphik (Abbildung 6), die erstellt worden ist durch den Ingenieur bei British Steam Guy Stewart Callendar, der auch ein früher Unterstützer von AGW war.

Abbildung 6 (Trendlinien hinzugefügt vom Autor).

Die Punkte repräsentieren die Messungen des atmosphärischen CO2′ während des 19.Jahrhunderts durch Wissenschaftler mittels rigider Verfahren und gut dokumentierter Instrumentation. Die Objektive der Messungen, begonnen im Jahre 1812, hatte nichts mit Klima zu tun. Vielmehr wollte man die einzelnen Gase der Atmosphäre bestimmen. Damit wurde die Arbeit von Joseph Priestly fortgesetzt, der – obgleich nicht der Erste, der den Sauerstoff entdeckt hatte – der Erste mit veröffentlichten Studien war (1774): Abbildung 6 zeigt die Testmengen, die Callendar ausgewählt hatte (cherry picked), um sein geringes vorindustrielles CO2-Niveau zu behaupten. Was genauso bedeutend ist: Er änderte die Neigung von einem abnehmenden hin zu einem zunehmenden Trend. Abbildung 4 zeigt die gleichen Daten des 19. Jahrhunderts im Vergleich zum Eisbohrkern und den Verläufen am Mauna Loa.

Vorbehalt: Ernst-Georg Beck übermittelte mir seine vorläufigen Arbeiten bzgl. der Daten, und wir haben oft darüber kommuniziert bis zu seinem viel zu frühen Ableben. Ich warnte ihn vor den Angriffen, die dann noch weit über das hinausgingen, was er erwartet hatte. Die Angriffe gehen immer noch weiter, obwohl seine Arbeit akribisch von seinem Freund Edgar Gärtner bei seiner Beerdigung erklärt wurde:

Aufgrund seines immensen Fachwissens und seiner methodischen Strenge fielen Ernst sehr frühzeitig zahlreiche Ungereimtheiten in den Aussagen des „Weltklimarates" IPCC auf. [Originalzitat, da Tim Ball den Link {hier} genannt hat. Keine Rückübersetzung! Anm. d. Übers.]

Das Problem bei der Arbeit von Beck war, dass darin identifiziert wurde, warum Callendar so mit den Daten umgegangen ist, wie er es getan hatte. In der Klima-Gemeinschaft wurde die Bedrohung erkannt und in einer Studie im Jahre 1983 behandelt mit dem Titel „The pre-industrial carbon dioxide level” von Tom Wigley, damals Direktor der CRU. Ich erinnere mich daran, weil ich zu der Zeit Seminare abgehalten hatte zur Bedeutung der Studie.

Die Kritik an den Aufzeichnungen aus dem 19.Jahrhundert wurde in einem einzigen Kommentar zusammengefasst: sie waren Zufall. Ja, in den meisten Studien ist das zufällige Herausgreifen von Stichproben wünschenswerter und repräsentativer hinsichtlich der Realität als willkürlich vorbestimmte Stichproben, von denen man weiß, dass sie das Narrativ stützen, wie es gegenwärtig der Fall ist. Das funktioniert nur unter der Annahme, dass das Gas gut durchmischt ist. Eine Kritik lautet, dass Becks Aufzeichnungen ein hohes Niveau um das Jahr 1942 zeigen im Vergleich mit der Aufzeichnung aus der Antarktis. Der Grund hierfür war wahrscheinlich, dass CO2 nicht gut durchmischt ist, wie es OCO2 und andere Aufzeichnungen zeigen; und auch, dass die meisten dieser Aufzeichnungen in Europa während des Krieges erfolgten. Nebenbei, mit der Periode von 70 Jahren, die es dauert, ein Gasbläschen im antarktischen Eis einzuschließen, würde sich dieses Bläschen erst im Jahre 2012 zeigen. Die Wahrheit ist, dass es keine anderen genauen Messungen von CO2 im Jahre 1942 gibt als die von Beck Verwendeten.

Eine andere Kritik lautet, dass die Stellen einschließlich der Höhe, in der die Messungen durchgeführt worden sind, deutlich variierten. Natürlich ist das genau der Punkt. Sie wurden nicht verengt und manipuliert wie die gegenwärtigen Aufzeichnungen vom Mauna Loa und Ähnlichem. Darum stellen sie nur Messungen an einigen wenigen Punkten dar, die essentiell alle natürlichen Einflüsse eliminieren. Dies ist offensichtlich aus den vorläufigen OCO2, den Stomata und Becks Aufzeichnung, in denen die große Variabilität von Tag zu Tag und von Region zu Region die Norm ist. Weitere Beweise dafür, dass dies die Norm ist: sie haben versucht, all diese natürliche Variabilität aus den Eisbohrkernen und den Mauna-Loa-Messungen zu eliminieren. Wenn die langwellige Ausstrahlung die Oberfläche verlässt, muss sie die gesamte Atmosphäre durchlaufen. Der CO2-Effekt ist überall vorhanden, nicht nur an bestimmten Stellen einer engen Auswahl in bestimmten Höhen wie die Mauna-Loa-Messungen. Beck schreibt dazu:

Die Mauna-Loa-Messungen repräsentieren nicht das typische atmosphärische CO2 an verschiedenen globalen Stellen, sondern sind typisch ausschließlich für diesen Vulkan an einer maritimen Stelle in einer Höhe von etwa 4000 m ü. NN auf jenem Breitengrad.

Charles Keeling stattete die Station am Mauna Loa mit von ihm patentierten Instrumenten aus. Wie Beck schrieb, gehört der Familie das globale Monopol aller CO2-Messungen. Keeling wird als der Erste genannt, der die Welt bzgl. AGW alarmiert hat. Wie es dazu in einem zweifellos bearbeiteten Eintrag bei Wikipedia heißt:

Charles David Keeling (1928 bis 2005) war ein amerikanischer Wissenschaftler, dessen CO2-Aufzeichnungen am Mauna-Loa-Observatorium die Welt zum ersten Mal alarmierten hinsichtlich der Möglichkeit eines menschlichen Beitrags zum Treibhauseffekt und einer globalen Erwärmung.

Keelings Sohn, ein Mitautor der IPCC-Berichte, kontrolliert weiterhin die Einrichtungen am Mauna Loa. Der stetige Anstieg der Keeling-Kurve ist bekanntlich besorglich, vor allem, wenn man die Variabilität betrachtet, die für die IPCC-Story als nicht zuträglich angesehen wird. Wie lange wird sich dieser Trend fortsetzen? Wir wissen, dass die globalen Temperaturen gestiegen sind, bis die Satelliten-Ära Daten erbrachte, die unabhängig vom IPCC sind.

Es gibt keine unabhängige CO2-Aufzeichnungen, die Keelings haben das Monopol und sind die offizielle Aufzeichnung für das IPCC.

Beck erklärte:

Die moderne Treibhaus-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling. Sie folgt S. Arrhenius, wie jüngst vom IPCC popularisiert. Eine Begutachtung der verfügbaren Literatur wirft die Frage auf, ob diese Autoren systematisch eine große Zahl valider technischer Studien und älterer CO2-Bestimmungen ausgesondert haben, weil die nicht zu ihrer Hypothese passen. Es ist offensichtlich, dass sie lediglich einige wenige sorgfältig ausgewählte Werte aus der älteren Literatur herangezogen haben, die ausnahmslos Ergebnisse brachten, die mit der Hypothese eines induzierten CO2-Anstiegs in der Luft durch die Verbrennung fossiler Treibstoffe konsistent war.

Jetzt stecken sie in dem Dilemma fest, dass die Temperatur seit über 19 Jahren nicht mehr gestiegen ist, während der CO2-Gehalt den Mauna-Loa-Messungen zufolge seinen stetigen Anstieg fortsetzt. Wie lange wird es dauern, bis wir eine bekannt gemachte Abnahme dieser Aufzeichnungen sehen, um die Daten auf Linie mit der politischen Mission zu bringen? Glücklicherweise ist es dank der Arbeiten von Jaworowski und Beck zu spät, den Schaden kleinzureden, den der Zeitlupen-Crash verursacht, der sich unvermeidlich entwickelt. Die Hockeyschläger des gesamten Teams sind in dem Crash zerbrochen [nur dass der Öffentlichkeit dies geflissentlich verschwiegen wird! Anm. d. Übers.]

Anmerkung von Anthony Watts (1.11.159:

Einige Passagen dieses Beitrags beziehen sich auf eine Reihe chemischer Analysen von Luft-Stichproben bzgl. CO2 an der Erdoberfläche von Georg Beck. Ich denke, dass die Luft-Stichproben nur geringe Qualitätskontrollen durchlaufen haben und nicht notwendigerweise repräsentativ sind für das globale CO2-Niveau zu jener Zeit und an jenen Orten. Ich glaube, dass die Messungen von einem Bias durch den Ort der Messung verzerrt sind und unter atmosphärischen Bedingungen erfolgt sind, die nicht sehr gut durchmischt waren. Daher sollte man sie mit Vorsicht betrachten. Ich bringe diesen Beitrag einfach zur Diskussion, was nicht heißen soll, dass ich uneingeschränkt hinter den Beck-Daten stehe. – Anthony Watts

Link: http://wattsupwiththat.com/2015/10/17/deconstruction-of-the-anthropogenic-global-warming-agw-hypothesis-2/

Übersetzt von Chris Frey EIKE




„Windige Träume“ – Europas „Riesiges Energie Desaster“ verschwendet 5,7 Billionen €

Wenn die Wind-Industrie und ihre Anbeter starten, ihre Mantren über die „Wunder“ des Windes zu skandierten, dauert es nicht lange, dass sie anfangen von Beispielen zu predigen, die angeblich durch die Europäer gesetzt sind und dort vor allem in den nordischen Ländern. Letztere haben jedoch erlebt, dass die Wirtschaft rachevoll zurückschlug; Investitionen in Windkraft sind gründlich abgestürzt.

Wenn Sie versuchen, ein „Produkt“ ohne Handelswert zu verkaufen, die „Angelegenheit“ – in Ermangelung eines besseren Wortes – kann das nur über leichtgläubige / konforme Regierungen (und ahnungslose Verbraucher) abgesaugt werden, in Form von massiven und endlosen Subventionen.

Zitat aus: Wind Power Investment Collapses in Sweden, Denmark, Finland & Norway

Nun zählt Europa als Ganzes die Kosten von dem zusammen, was eine Katastrophe in riesigen Maßstab darstellt. Hier detailliert NoTricksZone das Ausmaß der Katastrophe. Das Video ist in Deutsch, hilfsbereit von Pierre Gosselin übersetzt. Danke, Pierre.

NoTricksZone,  Pierre Gosselin,  8 October 2015

Europas € 5,7 Billionen Klimapolitik „Sehr teuer“, „kontraproduktiv“ und „tut nichts für Klima“ … „Völlig verschleudert“!

Wirtschaftsprofessor Joachim Weimann, Uni Magdeburg hielt einen Vortrag in Brandenburg. Er hob die Mängel der Energiewende in Deutschland und Europas Klimapolitik hervor.

Als erstes nennt Weimann die Klimafrage eine Debatte, die emotional und ideologisch aufgeladen ist und dass die Fakten sind fast immer unterdrückt werden. Auch glaubt er, wahre Fakten über den Klimawandel und die Energiepolitik sind unpopulär unter politischen Entscheidungsträgern, und dass sie [die Politiker], diese nur allzu oft „verleugnen“.

Zeitmarke ZM 3:30 Zitat Weimann: Es ist schade, dass die Vertreter der Politik so sitzen, dass sie mich angucken anstatt die Wand, den die Fakten werden an der Wand stehen, ich hoffe dass insbesondere der Vertreter der Grünen das noch mitkriegt..

[Zu Beginn] der Präsentation macht Weimann deutlich, dass er ein Alarmist [des Klimawandels] ist, und dass er glaubt, es muss schnell etwas dagegen durchgeführt werden.

Die Stoßrichtung seiner Darstellung sind jedoch die Energiewende in Deutschland und Europas Klimapolitik und ob sie wirklich wirksam sind. Seine Einschätzung auf den Punkt gebracht: Das EEG Energie-Einspeisegesetz ist eine kolossale Katastrophe.

ZM 12:10 Politik maßt sich an, Dinge zu wissen, die die Politik nicht wissen kann.

Kohlekraftwerke zahlen weniger, Verbraucher zahlen viel mehr

ZM 18:00 Weimann sagt, dass Alleingänge nationaler CO2-Reduktionsprogramme nicht funktionieren und das Emissionshandelssystem in Kombination mit Energieeinspeisung führt nur zur Verlagerung von Emissionen und zu keinerlei Emissionsreduktionen.

Am Ende fällt der Preis der Emissionszertifikate auf Niveaus, die sie unwirksam machen. Ironischerweise sagt er, profitieren Kohlekraftwerke am meisten davon. „Kohle wird durch die Einspeisung indirekt subventioniert“.

Alles rund um Kohle wird plötzlich billig, nicht nur die Versorgung [Gewinnung der Braunkohle], sondern auch die Kosten ihrer Emissionen.

ZM 21:35 .. für das Einsparen von fossilen Brennstoffen …haben wir den Emissionshandel, wofür brauchen wir da noch das EEG?

Steigerung des Verbrauchs von Ressourcen

ZM 22:35 … aufgrund der niedrigen Energiedichte der EE, geht die Nutzung der EE mit einer massiven Vervielfachung anderer Ressourcen einher: Aluminium, Beton, Stahl, seltene Erden …

Für den Verbraucher wird jedoch der Strompreis viel teurer. Weimann erklärt auch, dass die erzwungene Einspeisung von erneuerbaren Energien tatsächlich sogar zu größeren Verbrauch von Ressourcen führt und nicht weniger.

Grafik: ZM 24:20ff, Vortrag Weimann, Text nachfolgend

An der 24:20 Zeitmarke präsentiert Weimann die Kosten für die Beseitigung von 1 Tonne CO2-Emissionen für eine Vielzahl von Quellen: für ein Kohlekraftwerk 1 t Reduktion von CO2-Kosten nur 8 Euro, für ein Auto kostet die Nachrüstung 100 Euro, für Onshore-Wind € 150, Offshore-Wind 320 € und 400 € Solar.

Dabei sind die Netzkosten nicht eingeschlossen. Offensichtlich sind einige CO2-Minderungsmaßnahmen wirtschaftlich wenig sinnvoll.

ZM 26:00 … es gibt keine andere Branche in Deutschland, die solche Beschäftigungsrückgänge hat wie die Solarbranche..

Das Energie-Einspeisegesetz führt zu Null Klimaschutz

An der 26:30 Zeitmarke macht Weimmann das deutsche EEG nieder, weil es die Installation bestehender Technologie fördert, anstatt der Forschung und Entwicklung in neue Technologien. Er sagt:

– „Für den Klimaschutz brauchen wir die Energiewende nicht.“

– „Es trägt nichts für die Einsparung von Ressourcen bei „.

– „Es trägt auch nichts für Arbeitsplätze und neue Technologien bei.“

ZM 33:10 Der EE Strom fällt zu Zeiten an, wo wir gar keinen Strom brauchen

Der Ersatz von Kohle und Kernenergie ist ein Wunschtraum

Weiter zeigt Weimann , warum es ist Wahnsinn ist zu versuchen, 18 Kernkraftwerke (Gesamtleistung 20 GW) mit „extrem volatiler“ Windenergie zu ersetzen. Er sagt, es gibt keine Chance auf Verwirklichung dieses Kunststücks ohne Speichertechnik, die aber noch nirgends in Sicht ist.

Einige 437 Pumpspeicheranlagen müssten gebaut werden, um die Lieferung von 18 Kernkraftwerken zu gewährleisten – eine unmögliche Aufgabe, sagt er. Er nennt Kernenergie und Kohle-Energie zur gleichen Zeit aufzugeben ein Wunschtraum.

ZM 28:00 … alle chemisch basierenden Speichertechnologien – Power-to-Gas, Power-to Liquid [auch Batterien] sind noch nicht so weit und werden auch absehbar nicht bald soweit sein und sie sind vor allem extrem teuer … der Strompreis verdoppelt sich … 

ZM 29:45 Vortrag Weimann

Heute wird mehr Kohle verbrannt als 1990!

Denn Deutschland hat sich bereits zur Schließung der verbleibenden Kernkraftwerke bis zum Jahr 2022 verpflichtet, dadurch wird das Land gezwungen, zwei Dinge zu tun:  1) mehr fossile Brennstoffe zu verbrennen, und

2) um mehr von der unpopulären Kernenergie zu importieren.

Das beeindruckende Ergebnis, bislang: „Wir verbrennen jetzt mehr Kohle als 1990!“

Weimann fasst zusammen: Die Energiewende in Deutschland hat zur Folge:

– „Keine Energie-Unabhängigkeit.“

– „Abbau von Arbeitsplätzen.“

– „Am Preisschild stehen bis zu 1,2 Billionen Euro“

Europa: 5,7 Billionen € „komplett verschwendet“

Darüber hinaus stiegen die globalen Treibhausgasemissionen um 35% im Zeitraum 2000 bis 2012, inclusive(!) der Reduktion um 11% in Europa. Er sagt, die 5,7 Billionen € auf die ganz Europa sich inzwischen verpflichtet hat, sind „völlig verschwendet“. Was wir brauchen, ist eine internationale Koalition und Deutschland tut  nichts, sie zu unterstützen.

Grafik ZM 37:00, Vortrag Weimann

Am Ende (38:00 Zeitmarke) kommt er zu seiner abschließenden Beurteilung. Energiewende in Deutschland:

– „Ist sehr teuer“

– „Kontraproduktiv“

– „Hat keine Auswirkungen auf Klima gehabt“

– „Stört beim Atomausstieg“

Quelle SST: Was die Politik und die Erneuerbaren am meisten hassen…

Gefunden auf SST, erschienen am 23.10.2015,

http://stopthesethings.com/2015/10/23/europes-colossal-energy-disaster-e5-7-trillion-completely-wasted-on-wind-power-wishes/

Vortrag ins Englische übersetzt durch NoTricksZone,  Pierre Gosselin,  8 October 2015

Originalvideo gefunden auf: http://www.vernunftkraft.de/videos/

Originalbeschreibung der Veranstaltung auf:

http://www.vernunftkraft.de/energiedialog-brandenburg/

Übersetzt durch Andreas Demmig, Eike

Obige kursive Zitate und Vortragsbilder hinzugefügt durch den Übersetzer

Nachtrag:

Etwas was ich beim spätabendlichen Durchlauf nicht mehr gefunden habe – der Beitrag sollte noch auf den Server, war die Stelle mit der Erwähnung der Vorbildfunktion Deutschlands in der Welt, was die Politiker so gerne erwähnen.

Hier aus der Erinnerung formuliert:

ZM: … Ja, Holland setzt die Förderung auf Null – Begründung siehe Deutschland, Dänemark … u.a. setzen die Förderung runter – siehe Deutschland. Deutschland hat eine Vorbildfunktion, aber nur wie es nicht geht!

Links zu früheren Eike Beiträgen mit Prof. Weimann

http://www.eike-klima-energie.eu/climategate-anzeige/energiewende-letztlich-machen-wir-der-welt-vor-wie-man-ressourcen-verschwendet/ vom 31.10.2013

http://www.eike-klima-energie.eu/climategate-anzeige/misereor-und-pik-arbeiten-hand-in-hand-in-panikmache-500000-EUR-spende-machts-moeglich/ vom 15.06.2104




Sinnvoller Einsatz der Kirchensteuer? Nordkirche betreibt “Geschäftsstelle Ökumenischer Pilgerweg für Klimagerechtigkeit” )*

Auf einer eigens eingerichteten Webseite lässt die “Geschäftsstelle Ökumenischer Pilgerweg für Klimagerechtigkeit” mitteilen:

Der Ökumenische Pilgerweg für Klimagerechtigkeit führt von Flensburg nach Paris. Eine Südroute führt von Ludwigshafen nach Metz und vereint sich dort mit dem Pilgerweg aus dem Norden Deutschlands. Die Strecke über insgesamt fast 1500 Kilometer von Flensburg nach Paris ist in 12 Etappen unterteilt. Jeder dieser Streckenabschnitte wird von einem oder einer Etappenverantwortlichen betreut. Die bundesweite Eröffnungsveranstaltung ist am 12./13. September in Flensburg. Die Pilger starten dort dann anschließend am 13.09.2015, Ankunft in Paris wird am 27.11.2015 sein. Ein Abschlussevent ist für den 28. November geplant. Sie können uns einzelne, mehrere Tage oder auch auf der ganzen Strecke begleiten – eine Anmeldung ist aber obligatorisch.

Wollen wir kurz nachrechnen: 1500 Kilometer in 12 Etappen. Das sind 125 Kilometer pro Etappe. Das sind längere Etappen als beim Transeuropalauf der Ultramarathonläufer, der 2012 von Lissabon nach Moskau führte. Wie machen die Klimapilger das nur? Fahren sie den Pilgerweg vielleicht mit dem Auto? Natürlich einem Elektroauto, um kein CO2 auszustoßen…

Wenn man sich dann etwas tiefer in die Seite vertieft, lernt man, dass mit Etappen eher Streckenabschnitte gemeint sind, die dann wiederum in etliche Tagesetappen unterteilt sind. Immer wieder rasten die Klimapilger, um in Workshops auf die Klimakastrophe und den klimatischen Weltuntergang vorbereitet zu werden. Für alle Pilger, die der Besenwagen erwischt oder die erst gar nicht mitwandern wollen, bietet der Veranstalter auch eine Busreise nach Paris an.

Gerne würde man wissen, wie es denn so mit dem Pilgern läuft. Leider lässt uns der Veranstalter da auf seiner Webseite im Dunkeln. Wieviele pilgern täglich mit? Tausend, hundert, zehn oder nur drei? Die lokale Presse beschränkt sich oft auf die logistische Ankündigung. Wissen die Pilger eigentlich, dass ihr Weg sie zeitweilig durch ehemalige Meeresablagerungen der Kreidezeit führt, als Norddeutschland großflächig vom Meer überspielt war? Man kann dem Meer dankbar sein, dass es sich nun auf Nord- und Ostsee beschränkt.

Wie auch immer: Wir wünschen allen Pilgern einen guten Weg. Bewegung tut gut und Paris ist eine schöne Stadt.

=========================================================

)* Dieser Artikel ist zuerst erschienen auf "Kalte Sonne"  http://www.kaltesonne.de/sinnvoller-einsatz-der-kirchsteuer-nordkirche-betreibt-geschaftsstelle-okumenischer-pilgerweg-fur-klimagerechtigkeit/

EIKE dankt für die Gestattung des ungekürzten Nachdrucks

=========================================================




Das Jahr 2015 soll das wärmste Jahr werden. Die Klimapaniker rüsten auf.

Unter der Überschrift: „2015: Anwärter auf das wärmste Jahr“ durfte der Leser erfahren, „dass führende Wetter- und Klimaforscher in Deutschland davon ausgehen, dass das Jahr 2015 das wärmste Jahr seit Beginn der Klimaaufzeichnungen vor 135 Jahren werden könnte.“ Der mit dpa – also ohne Reporternennung – gezeichnete Artikel nennt zudem keine Namen und Personen dieser angeblich führenden deutschen Klimaforscher, was uns bei EIKE nicht wundert.

Wer will sich schon namentlich festlegen und blamieren lassen. Bei langfristigen Prognosen bis 2100 fabulieren Schellnhuber und Co gerne und ausgiebig über ihre 2 Grad Fiebererwärmung, für die sie keinerlei wissenschaftliche Grundlagen vorweisen können. Aber bis zum Jahresende, das sind gerade noch 100 Tage, da will man seine Person bei Vorhersagen im Dunkeln lassen.

Wählen wir als Vergleich das letzte Jahr 2014, das laut Deutschem Wetterdienst einen Schnitt von 10,3 C in Deutschland erreichte. Richtig ist, dass der Sommer 2015 zu den wärmeren gehörte, und den Sommer 2014 übertraf. Das zeigt die folgende Grafik über die Sommer in der Gegenwart:

Grafik 1: Der Sommer 2015 war deutlich wärmer als letztes Jahr. Insofern sind die Wärmemeldungen erst einmal richtig.

Aber was von den angeblich führenden deutschen Klimawissenschaftlern nicht erwähnt wurde, ist die Tatsache, dass dieser Sommer, bedingt durch den warmen August eine Ausnahme war. Die Trendlinie der Sommertemperaturen ist in diesem Jahrtausend weiter fallend. Die Sommer werden in der Gegenwart kälter und nicht wärmer.

Doch kehren wir zu den weiteren Behauptungen in den Medien zurück. Reicht der diesjährige Sommer 2015 aus, damit das Jahr als Ganzes zu einem Wärme- Rekordjahr werden könnte?

Kurze Antwort: Wohl kaum. Besser gesagt: grottenfalsch.

Denn bereits mit dem leicht unterkühlten September 2015 war die Sommerwärme 2015 schon wieder aufgebraucht und die Temperaturen lagen deutlich unter dem Schnitt des letzten Jahres.

Und der Oktober bestätigt diesen Eindruck weiter. Im direkten Monatsvergleich mit dem letzten Jahr waren nach 10 Monaten bisher sieben Monate kälter und nur drei wärmer als letztes Jahr. Und da die zwei noch folgenden Monate gerade im letzten Jahr besonders mild waren, können sie nur noch schwer getoppt werden.

Wagen wir eine Prognose anhand der nun vorliegenden 10 Monate im Vergleich mit dem letzten Jahr. Selbst bei einer Annahme, dass die beiden letzten Monate fast gleich warm ausfallen wie im letzten Jahr, so dürfte sich die Jahrestemperatur für 2015 zwischen 9 C und 9,5 C einpendeln, auch weil die Trendlinie in diesen Bereich zeigt.

In der Grafik haben wir uns für 9,3 C entschieden. Und das sieht dann so aus.

Grafik 2: Die Jahrestemperaturen Deutschlands haben seit 18 Jahren eine leicht fallende Trendlinie. Das Jahr 2015 wird sich an dieser leicht fallenden Trendlinie orientieren.

Die Grafik 2 zeigt deutlich, von einer sich fortsetzenden Erwärmung sind wir in Deutschland weit entfernt. Alle Angaben sind natürlich aus dem Archiv des Deutschen Wetterdienstes in Offenbach. Die Temperaturen halten sich nicht an die Märchenaussagen der selbst ernannten angeblich führenden deutschen Klimaforscher: Ihre Kernaussagen sind falsch: 1) Das Jahr 2015 wird kein neues Rekordjahr und 2) Die Temperaturen sind in der Gegenwart keinesfalls steigend, sondern leicht fallend.

Doch seit wann stagnieren die Temperaturen nun in Deutschland? Es ist bekanntermaßen richtig, dass es seit 1850 immer wärmer wurde. Doch leider ist diese angenehme Zeit vorbei. Ein Blick in die Temperaturstatistik zeigt, dass seit über einem Vierteljahrhundert die Temperaturen nahezu stagnieren. Anzumerken wäre außerdem, dass diese vom DWD erhobenen Temperaturdaten nicht wärmeinselbereinigt sind, denn sonst hätten wir am Schluss eine leicht fallende Trendlinie.

Grafik 3: Die Temperaturen sind im letzten Vierteljahrhundert ziemlich ausgeglichen. Mit Wärmeinselbereinigung wären sie sogar leicht fallend.

Im ganzen Zeitraum sind die CO2-Konzentrationen in der Atmosphäre natürlich weiter gestiegen, auf nun 400 ppm. Das zeigt die eingeblendete kleine Grafik. Temperaturen und Kohlendioxidkonzentrationen zeigen keinen Zusammenhang.

Fazit: Die Panikmache vor der Klimakonferenz im Dezember in Paris läuft derzeit auf vollen Touren. Erstaunlich ist, dass die Medien alles ungeprüft abdrucken, was angeblich führende Klimaforscher in Deutschland behaupten. Kennzeichnend dafür ist auch, dass einige Artikel ohne den Namen des Reportes versehen sind. Als Leser hat man keinen Ansprechpartner. Das Kürzel dpa oder afp sind geeignete Deckungen für eine unseriöse Berichterstattung.

Gesamt: Das Jahr 2015 wird bestimmt nicht das wärmste Jahr in Deutschland sein. Das zeigen die Daten des Deutschen Wetterdienstes.

Josef Kowatsch




Turbinen schwächen die Windenergie

Aus Wind lässt sich weniger Energie anzapfen als  bisher angenommen. Das Umweltbundesamt etwa kam in einer Studie aus dem Jahr 2013 noch zu dem Schluss, dass sich mit Windenergie knapp sieben Watt elektrische Leistung pro Quadratmeter erzeugen lassen. Doch wie ein internationales Team um Forscher des Max-Planck-Instituts für Biochemie in Jena nun zeigt, ist die Rate deutlich niedriger. Die Forscher berechneten für den US Bundesstaat Kansas, dass Wind dort maximal 1,1 Watt Elektrizität pro Quadratmeter liefern kann. Denn die Turbinen bremsen den Wind, so dass die erzeugte elektrische Energie nicht linear mit der Anzahl an Rotoren pro Fläche steigt. Das macht sich vor allem bei einer sehr hohen Dichte von Windkraftanlagen bemerkbar. Der Effekt tritt überall auf. Wie viel Strom pro Fläche Windkraft tatsächlich liefert, variiert aber von Region zu Region leicht. In Kansas ließe sich noch viel mehr Windenergie effizient nutzen. Das Potenzial auszuschöpfen, das das Umweltbundesamt für die Windenergie in Deutschland sieht, wäre jedoch vermutlich nicht sinnvoll.

Abbildung: Nur begrenzt ausbaufähig: Windparks wie hier auf der Smoky Hills Fram in Kansas.

(Proceedings of the National Academy of Sciences, 24. August 2015).
Text veröffentlicht in Max Plank Forschung 3.2015, S. 42, Das Wissenschaftsmagazin der Max-Planck-Gesellschaft.




Ist das Klima chaotisch?

Wie das so geht bei derartigen Untersuchungen, wurde das Thema unserer Diskussion und Untersuchung bald zu einer größeren und noch interessantesten Frage – welcher der vielen natürlichen Datensätze (Temperatur, Regenmenge, Ausbrüche, Druck usw.) und/oder korrespondierende Klimamodelle sind chaotisch?

Natürlich muss ich mit der offensichtlichen Frage anfangen: was ist mit „chaotisch“ gemeint? Ein chaotisches System ist eines, in dem ähnliche Ausgangsbedingungen exponentiell entweder konvergieren oder divergieren. Ein Beispiel ist die Meeresoberfläche. Falls man zwei versiegelte leere Flaschen von einem Schiff mitten in einem Ozean ins Wasser wirft, je eine auf jeder Seite des Schiffes, werden sie mit der Zeit auseinanderdriften. Dieser Vorgang wird zunächst langsam ablaufen, dann aber schneller und immer schneller, wenn die Flaschen nämlich von verschiedenen Strömungen und Winden in verschiedenen Gebieten erfasst werden.

Ob ein Datesatz chaotisch ist oder nicht, wird allgemein mit Hilfe des Lyapunov-Exponenten [?] festgestellt. Dabei handelt es sich um eine Maßzahl des „Dehnungsfaktors“ [stretching factor]. In unserem Beispiel mit den Ozeanen misst der Dehnungsfaktor, wie schnell sich die beiden Punkte mit der Zeit auseinander bewegen. In einem chaotischen Datensatz nimmt der Dehnungsfaktor allgemein mit der Zeit zu oder ab. In nicht-chaotischen Datensätzen andererseits bleibt der Dehnungsfaktor mit der Zeit konstant. Die folgende Abbildung zeigt die „Lyanupov-Kurven“ der Evolution des Dehnungsfaktors mit der Zeit bei einigen natürlichen und berechneten Datensätzen.

Abbildung 1: Lyanupov-Kurven für einige Datensätze. Alle Datensätze sind vor der Analyse trendbereinigt und standardisiert worden.

Nun habe ich vier Arten von Datensätzen graphisch dargestellt, gekennzeichnet durch die vier Farben. Der erste Typ (rot), meist überdeckt von den blauen Linien, zeigt eine Auswahl von vier verschiedenen Zufalls-Datensätzen – normal, gleichmäßig, eine Poisson-Verteilung [?] und ein hoher Hurst-Exponent, teils Gauss’sche Zufallszahlen. Im Grunde liegen die Lyanupov-Kurven von Datensätzen mit Zufallszahlen ziemlich genau übereinander. Beginnend am Zeitpunkt 0 erreichen sie sehr schnell ihren maximalen Wert und verharren dann dabei. Wie zu erwarten war gibt es in den Zufallsdaten keinen Trend des Dehnungsfaktors mit der Zeit.

[Dieser Abschnitt enthält einige Fachbegriffe, die ich noch nie gehört habe. Um sicherzustellen, dass die Übersetzung korrekt ist, folgt hier das Original: Now, I’ve graphed four types of datasets above, indicated by the four colors. The first type, shown in red and mostly obscured by the blue lines, shows four different varieties of random numbers—normal, uniform, poisson, and high Hurst exponent fractional Gaussian random numbers. Basically the Lyapunov curves of the random number datasets are all plotting right on top of each other. Starting from time = 0, they climb rapidly to their maximum value and then just stay there. As we would expect from random data, there’s no trend in the stretching factor over time.]

Die nächste Gruppe in blau zeigt die Lyanupov-Kurven für ein halbes Dutzend klimabezogener Datensätze, nämlich:

● HadCRUT4 monatliche mittlere Lufttemperatur 1850 bis 2015

● Jährlichen Minimal-Wasserstand im Nil 622 bis 1284 [ Annual Nilometer Minimum River Height]

● Monatliche Gezeiten in Stockholm 1801 bis 2001

● Tägliche Maximum-Temperatur der Aufzeichnung in Central England 1878 bis 2015

● Tägliche mittlere Temperatur in Armagh, Irland, 1865 bis 2001

● Jährliche mittlere Durchflussmenge des Nils in m³ pro Sekunde, 1870 bis 1944

Wie man sieht, sind hinsichtlich der Lyanupov-Analyse alle sechs dieser klimabezogenen Datensätze (blaue Linien) nicht unterscheidbar von den vier Zufallsdatensätzen (rote Linien), welche wiederum untereinander ununterscheidbar sind. Keiner zeigt irgendwelche Spuren chaotischen Verhaltens.

Eine weitere Gruppe von Datensätzen, und zwar jene unten in gelben Farben, unterscheiden sich ziemlich von den Zufalls- und den Beobachtungs-Datensätzen. Bei ihnen handelt es sich um einige chaotische Datensätze. Man beachte, dass sie alle eines gemeinsam haben – wie oben erwähnt, nimmt die Entfernung voneinander (bestimmt nach dem „Dehnungsfaktor“) mit der Zeit zu. Die Rate des Auseinanderdriftens erreicht einfach nicht einen höchsten Punkt und bleibt dort, wie es bei den anderen beiden Datensätzen der Fall war. Die Rate des Auseinanderdriftens in chaotischen Datensätzen nimmt mit der Zeit unverändert weiter zu.

Schließlich sind noch ein paar andere Datensätze in violett gezeigt. Diese zeigen Beobachtungen von Phänomenen, die man gewöhnlich als „Treiber“ [forcings] betrachtet. Eine davon zeigt die Änderungen der Sonnenaktivität mit den täglichen Sonnenflecken als Proxy für die Aktivität von 1880 bis 2005. Die andere ist die jährliche optische Tiefe [Dichte?] von Aerosolen von 800 bis 2000, welche normalerweise eine Funktion vulkanischer Aktivität ist und aus Eisbohrkernen berechnet wurde. Komischerweise liegen diese beiden Datensätze irgendwo zwischen den Zufalls-Beobachtungen oben und den chaotischen Datensätzen unten. Zusätzlich zeigen beide eine signifikante Variation des Dehnungsfaktors mit der Zeit. Die Sonnenflecken zeigen einen leichten, wenngleich signifikanten Anstieg. Die optische Tiefe der Aerosole geht zurück, und es sieht so aus, als würde sie danach wieder steigen. Es scheint also, dass diese beiden Datensätze schwach chaotisch sind.

Diese Ergebnisse waren für mich sehr überraschend. Ich habe lange gedacht, ohne dies nachzuprüfen, dass das Klima chaotisch ist … allerdings zeigt diese Analyse, dass zumindest jene sechs Beobachtungs-Datensätze, die ich oben analysiert habe, nicht im Mindesten chaotisch sind. Aber was weiß ich schon … ich bin von gestern.

Gibt es überhaupt irgendwelche Klima-Datensätze, die chaotisch sind, und sei es auch nur schwach chaotisch? Ich denke schon. Es scheint, dass die Wassertemperatur tropischer Ozeane leicht chaotisch ist … aber dieser Frage werde ich im nächsten Beitrag nachgehen, in dem es um den Gedanken von Dan Hughes geht hinsichtlich der Hurst-Analyse, um zwischen chaotischen und nicht-chaotischen Datensätzen zu unterscheiden.

CODE: To calculate the Lyapunov exponent I’ve used the lyap_k function from the R package tseriesChaos. Here are the functions I used to make Figure 1:

Link: http://wattsupwiththat.com/2015/10/22/is-the-climate-chaotic/

Übersetzt von Chris Frey EIKE

Anmerkungen von Prof. Dr. Horst-Joachim Lüdecke:

Der Aufsatz von Willis Eschenbach verwirrt, denn ihm sind unsere nachfolgend aufgeführten Arbeiten, die alle den Hurst-Exponenten als maßgebende Größe berücksichtigen, eigentlich bekannt, wurden aber weder erwähnt noch berücksichtigt. Zumindest bei einer Blogdiskussion (Judith Curry) über eine dieser Arbeiten war Eschenbach sogar mit dabei, ohne allerdings dabei tiefere Kenntnis über autokorrelierte Zeitreihen an den Tag zu legen, was seinen Aufsatz in WUWT verständlicher macht. Ich hatte in einem E-Mail-Verkehr mit ihm damals versucht, ihm die Grundzüge der DFA-Analyse zu erklären. Ob mit Erfolg, weiß ich nicht. (US-Kollegen haben oft die für mich oft befremdliche Art, wenn sie an einer Information interessiert sind, unglaublich nett und höflich um diese zu bitten und zu kommunizieren. Ist das Thema abgeschlossen oder kann man die Info nicht zufriedenstellend erbringen, wird der Austausch dann kommentarlos und abrupt abgebrochen, kein Dankeschön, nichts).

Der Blog "kalte Sonne" und die ersten beiden der unten aufgeführten Publikationen belegen, dass das Klima sehr wohl maßgebende zyklische Eigenschaften auf Zeitskalen von mehreren 100.000 Jahren (Milankovitch) bis zumindest herunter von 200 Jahren (de Vries / Suess Zyklus) aufweist. Chaotische Eigenschaften hat es überdies. Das Klima ist anscheinend beides, geforscht wird heute, wie sich die Anteile auswirken bzw. wie stark sie sind.

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Paleoclimate forcing by the solar de Vries / Suess cycle, Clim. Past Discuss 11, 279-305, 2015
http://www.clim-past-discuss.net/11/279/2015/cpd-11-279-2015.pdf

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records,
Clim.
Past. 9, 447-452 (2013), http://www.clim-past.net/9/447/2013/cp-9-447-2013.pdf 

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011), http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf

Bei einem Vergleich von natürlichen Zeitreihen mit den Ergebnissen aus Klimamodellen auf der Basis von Hurst Exponenten kann kaum Sinnvolles herauskommen. Für eine Hurst-Analysyse (mindestens 500 Datenpunkte) sind Messdaten erforderlich – Temperaturzeitreihen in aller Regel – aber auch Niederschlagsreihen. Solche Messdaten sind stets zufällig + autokorreliert. Nebenbei: Niederschlagsdaten sind nach bisherigen Untersuchungen nicht autokorreliert, also offenbar rein zufällig, hier.

Die Eigenschaft "zufällig + autokorreliert" weisen aber in aller Regel die Ergebnisse von Klimamodellen nicht auf, weil die Algorithmen in Klimamodellen den Hurst-Exponenten H auf unnatürliche Werte weit über 1 treiben (Natürliche Temperaturzeitreihen liegen um 0,5 < H < 0,9, der Wert H = 1 entspricht schon rotem Rauschen usw. Eine Zeitreihe mit H > 1 entfernt sich mit zunehmender Zeit beliebig weit vom Ausgangswert, ist also chaotisch, offenbar liefert hier auch der Ljyapunov Exponent ein ähnliches Werkzeug wie die Autokorrelationsanalyse DFA).

Jeder Algorithmus erhöht den Hurst-Exponent unnatürlich und verfälscht ihn, und Klimamodelle enthalten nun einmal Algorithmen. Man kann es auch von folgender Seite sehen: Es ist nicht einfach, zufällige Zeitreihen mit einer vorgegebenen Autokorrelation künstlich zu erzeugen. Ich bezweifle stark, dass es Zeitreihen von Klimamodellen gibt, die zufällige Ergebnisse liefern und dabei realistische Autokorrelationswerte (H < 1) aufweisen. Aber man weiß ja nie was den "Modellieren" noch so alles einfällt. Ein Vergleich von Messdaten mit Klimamodellergebnissen, der auf unterschiedliche Autokorrelation (Hurst-Exponenten) abzielt, erscheint mir daher sinnlos. Man vergleicht Äpfel mit Birnen.

Die physikalische Ursache für die Autokorrelation von realen Temperaturzeitreihen ist übrigens unbekannt. Es könnten in den Reihen steckende Zyklen sein, es kann aber auch etwas anderes sein. Um Zyklen zu entdecken oder gar näher zu analysieren ist die Autokorrelationsanalyse (DFA) leider nicht geeignet. Sie ist aber für vieles andere geeignet (s.o. unsere Arbeiten), näheres dazu würde hier zu weit führen.




Warnung an Bürgerinitiativen gegen Windräder – Ergänzung

Hier nun der Bericht von Herrn Heinz Hofmann:

Die Initiative zu diesem Bürgerdialog mit dem Thema „Energiewende in Hessen“ startete mit einem Schreiben des Landesverbandes Vernunftkraft in Hessen vom 14.8.2015 an das Hessische Ministerium für Wirtschaft, Energie, Verkehr & Landesentwicklung Herrn Staatsminister Tarek al Wazir. Am 2.9.2015 fand ein Vorgespräch mit Hessenagentur und IFOK sowie Vernunftkraft in Frankfurt statt, wo Themen mit Inhalten, Teilnehmerkreis und Abläufe besprochen wurden.

Einig war man sich über folgende Schwerpunktthemen: „Windenergie“, „Netzausbau“ sowie „Gesamtsystem Energiewende in Hessen“.

Der Ablauf wurde Gesamt mit 3 Stunden fixiert, wobei für jeden Block ca. 1 Stunde vorgesehen war, beginnend jeweils mit einem Impulsvortrag von 15 Minuten und darauf folgender Diskussion.

Der Block Windenergie sollte mit einem Vertreter von Vernunftkraft, der Block Netzausbau mit einem Vertreter von „Bi‘s gegen den Südlink“ und das „Gesamtsystem Energiewende“ von Vernunftkraft und dem Südlink wegen der herausragenden Bedeutung auch mit je 15 Minuten beginnen. Falls nötig könne eine Kürzung  bei der Diskussionszeit erfolgen.

Einig war man sich um Öffentlichkeit sicherzustellen, über die Einladung beiderseits an Pressevertreter und eine Dokumentation der Veranstaltung auf Video sowie ungeschnittene Veröffentlichung im Internet.

Und jetzt wird es hochpolitisch. Die Verantwortlichen bei Vernunftkraft vergewisserten sich am 29.9.2015 bei der Hessenagentur, daß die Presse vereinbarungs- und wunschgemäß eingeladen sei. Das wurde auch so bestätigt und ihnen sogar freigestellt die Presse zusätzlich einzuladen. Dies wurde am 30.9. von Vernunftkraft telefonisch nachgeholt. Dabei stellte sich aufgrund von Stichproben heraus, daß eine Einladung des Ministeriums nicht vorlag. Diese Erkenntnis wurde noch am 30.9. gegen 18.00 Uhr  der Hessenagentur mitgeteilt. Die Reaktion des Ministeriums erfolgte am folgenden Morgen, den 1.10. um 7.34 Uhr mit einem Fax folgenden Inhalts an die Presse: im Anschluß an einen Austausch mit Bürgerinitiativen und Energiegenossenschaften wird  Herr Minister Tarek al Wazir mit Vertretern der BI’s und Energiegenossenschaften am Freitag, den 2. Oktober 2015, ca. 17.15 Uhr im Hessischen Wirtschaftsministerium, Kaiser-Friedrich-Ring 75, ein gemeinsames Pressestatement abgeben. Dazu laden wir herzlich ein.

Damit war die Vermutung zur Realität geworden: die Politik hatte mit einem bösen Foul der Demokratie hinterrücks einen Fußtritt versetzt. Über die Teilnahme von Bürgerenergiegenossenschaften und Projektierern sowie Vertreter des Bundesverbandes Windenergie war bis zu diesem Zeitpunkt keine Rede gewesen. Dies waren lediglich Störer des geplanten Bürgerdialogs. Trotz des doppelten Fouls entschied Vernunftkraft um des Dialoges willen die Veranstaltung nicht platzen zu lassen.

Sie wurden am folgenden Tag erneut enttäuscht.

Auf die Fakten, Zahlen und Zusammenhänge des Vortrags von Dr.-Ing. Detlef Ahlborn wußte Herr Al Wazir keine Antwort außer Allgemeinplätzen wie – wir brauchen keine Grundlast mehr – wo soll der Strom in 100 Jahren herkommen ? – wenn wir Speicher brauchen, werden wir welche haben – wir exportieren mehr Strom als je zuvor, das ist ein echter Erfolg – von Gefährdung der Versorgungssicherheit kann keine Rede sein.

Nach den Südlink-Vertretern, die zum großen Erstaunen der mehrheitlich anwesenden Vernunftkraft-Vertreter sowie BI’s einen noch stärkeren Ausbau der Windkraft an Land forderten, wohl in der Hoffnung, daß dann die Trassen wegfallen würden, trat Herr Prof. Dr. Horst-Joachim Lüdecke, Pressesprecher bei EIKE e.V., an das Podium und begann seinen Vortrag „Gesamtsystem Energiewende“ mit den gewünschten Schwerpunkten – Speicherung von EE-Strom, Alternativen zu EE-Stromerzeugung, Risiken. Vom Moderator von IFOK wurde er umgehend darauf hingewiesen, daß seine Redezeit absprachegemäß 5  Minuten betrage. Dies war das 2. Foul, man wollte ihn nicht anhören. Herr Prof. Lüdecke protestierte entschieden gegen diese Zumutung bei diesem Thema ! Die Süd-Link-Vertreter waren bereit zu einem Verzicht ihrer Redezeit, jedoch der Moderator blieb unerbittlich, er wies auf die angeblich vereinbarte Zeit hin. Man wollte  einfach keine kritische Diskussion mit diesem Thema und diesem Referenten eingehen. Daraufhin brach Herr Prof. Lüdecke ab und verließ unter Protest den Saal.

Mittlerweile war die vereinbarte Gesamtzeit leicht überschritten worden und Herr Al Wazir beendete die Veranstaltung mit den Worten, er hätte seinem Sohn versprochen eine Sportveranstaltung in Frankfurt am Abend zu besuchen und sagte die vorgesehene Pressekonferenz ebenfalls ab. Es war, wie sich herausstellte, aufgrund des vorangegangenen Hickhacks auch keine Presse anwesend.

Dies war das 3. Foul, was er sich erlaubte. Man lerne daraus: Traue keinem grünen Politiker, Vereinbarungen sind dazu da, daß sie gebrochen werden. Das ist dann gelebte Demokratie !




Moderne wissenschaftliche Legenden

Nach meinen Erfahrungen bei der Bekämpfung dieser Legenden braucht es für jede Legende das Äquivalent zu einem Speer aus Eichenholz, der durch deren Herz gestoßen wird auf einer einsamen Straßenkreuzung um Mitternacht.

Zufällig habe ich heute über Methan nachgedacht. Dieses Gas soll vermeintlich das Untergangs-Gas schlechthin vor allen anderen Triebhausgasen sein, viele Male stärker als CO2. Mache reden über Dinge wie die „Methan-Zeitbombe“, die irgendwo ticken soll und die uns alle nach Thermageddon blasen wird oder zumindest ins Klimatorium … der vermeintliche Fundort dieses explosiven Zeugs hat sich mit der Zeit geändert…

Also habe ich mal gegoogelt nach „Methan viele Male stärker als CO2“. Dabei zeigten sich an vorderster Stelle die folgenden sechs Ergebnisse, von Nr. 1 abwärts:

EPA: 20 mal so stark

EDF: 84 mal so stark

thinkprogress: 34 mal so stark

onegreenplanet: 100 mal so stark

psehealthyenergy: 20 mal so stark

global-warming-forecasts: 72 mal so stark

In diesen Zahlen erkennt man die initiale Bestätigung, dass der Methan-Alarmismus in Wirklichkeit eine moderne wissenschaftliche Legende ist … eine der roten Flaggen für derartige Legenden ist, dass niemand die genaue Zahl kennt, aber – Himmel, jeder ist absolut sicher, dass sie wirklich, wirklich groß und wirklich,wirklich schlecht für uns ist.

Also fragte ich mich … Das IPCC sagt, dass die Änderung der atmosphärischen Absorption bei einer Verdoppelung des CO2-Gehaltes eine Zunahme um 3,7 W/m² ist. Wie viel Änderung würde aus einer Verdoppelung des Methan-Gehaltes folgen?

Um diese Frage zu beantworten klickte ich mich auf die wundersame MODTRAN site. Unter Verwendung der heutigen Werte für CO2 (~400 ppmv) und Methan (~1,81 ppmv) ergibt sich eine Ausstrahlung [upwelling radiation] von 287,5 W/m².

Dann habe ich den Methangehalt auf 3,62 ppmv verdoppelt, die Berechnungen noch einmal durchgeführt und bekam 286,7 W/m², die von der Obergrenze der Atmosphäre TOA emittiert werden …

…was bedeutet, dass falls sich aus irgendwelchen Gründen während der nächsten 100 Jahre der Methangehalt verdoppelt, der Gesamteffekt eine Zunahme der atmosphärischen Absorption um 0,8 W/m² wäre . Weniger als ein Viertel des Effektes einer CO2-Verdoppelung … schau an, schau an. Das soll das fürchterliche Methan sein, elf mal so stark wie CO2? Weniger als ein Watt pro Verdoppelung?

Also wollte ich natürlich meine Berechnungen noch einmal durchgehen. Zu diesem Zweck verwendete ich die Formeln des IPCC bei der Berechnung der Änderung des Antriebs durch eine gegebene Änderung des Methan-Gehaltes. Diese Formeln finden sich hier, siehe Tabelle 6.2. Ich möchte Sie nicht mit den Berechnungen langweilen, aber sie zeigen: falls sich das atmosphärische Methan-Niveau vom gegenwärtigen Niveau von 1,81 ppmv auf 3,62 ppmv verdoppeln würde, würde der Antrieb um 0,54 W/m² zunehmen. Ein wenig geringer als die 0,8 W/m² von MODTRAN, aber von gleicher Größenordnung, deutlich unter 1 Watt pro Quadratmeter …

Etwas langsamer zum besseren Verständnis. FALLS sich die Methan-Konzentration im nächsten Jahrhundert verdoppeln würde, würden wir eine Zunahme des Antriebs von

Einem halben

Watt pro Quadratmeter

pro Jahrhundert

erwarten.

Und nun … wie wahrscheinlich ist es, dass sich der Methan-Gehalt innerhalb von 100 Jahren verdoppeln wird? Um dies zu beantworten können wir auf die jüngsten Änderungen des Methan-Niveaus schauen. Die jüngsten gemessenen Daten zeigen Folgendes:

Abbildung 1. Quelle: NOAA/ESRL

Eine Verdoppelung des heutigen Niveaus (1810 ppbv oder 1,81 ppmv) wären weitere 1810 ppbv. Wie man sieht, hat der Methan-Gehalt schneller bis etwa zum Jahr 1992 zugenommen, danach etwa linear mit einer geringeren Rate. Die Aufzeichnungsperiode macht etwa ein Drittel eines Jahrhundert aus (36 Jahre). Während dieser Zeit erfolgte eine Zunahme um etwa 250 ppbv. Dies bedeutet, dass im nächsten Jahrhundert bei einem „Business-as-Usual“-Szenario eine Zunahme um etwa das Dreifache erwarten können, oder 750 ppbv. Dies ist weit entfernt von einer Verdoppelung, welche 1810 ppbv betragen würde.

Und der verstärkte Antrieb durch jene 750 ppbv? Nun … es ist ein läppisches Viertel von einem Watt pro Quadratmeter. Aber noch einmal langsamer. Unter einem „Business-as-Usual“-Szenario würden wir eine Zunahme des Antriebs durch Methan erwarten von

Einem Viertel

von einem Watt pro Quadratmeter

pro Jahrhundert.

Was ist, wenn die Anreicherungs-Rate aus dem Ruder läuft und das Methan anfängt, mit dem Dreifachen der gegenwärtigen Rate zuzunehmen? Das wäre zusätzlich 2250 ppbv pro Jahrhundert, welche zu einem zusätzlichen Antrieb von … zwei Dritteln eines einsamen Watts pro Quadratmeter führen würde. MODTRAN zeigt einen etwas höheren Wert, aber immer noch unter 1 W/m². Mickrig!

Und wie groß ist die Wahrscheinlichkeit einer so hohen Rate, dreimal so hoch wie die gegenwärtige Rate von 750 ppbv pro Jahrhundert? Sehr gering. Das erkennt man durch die Betrachtung der letzten 1000 Jahre bzgl. des Methan-Niveaus. Man beachte, dass hier keine globalen Werte stehen wie in Abbildung 1. Da es einen Methan-Gradienten vom Nord- zum Südpol gibt, sind die Werte aus der Antarktis um einiges geringer als in Abbildung 1. Allerdings sind wir am Trend interessiert, der global überall der Gleiche sein dürfte:


Abbildung 2. Quelle: NASA GISS

Von 1900 bis 2000, welches im vorigen Jahrtausend das Jahrhundert mit der schnellsten Zunahme des atmosphärischen Methan-Gehaltes war, stieg die Konzentration um etwa 800 ppbv, ein wenig stärker als die jüngste Zunahme von 750 ppbv pro Jahrhundert (Abbildung 1). Es zeigt sich also keine Beschleunigung der Zunahme-Rate von Methan. Im Gegenteil zeigt sich eher eine Verlangsamung, zeigen doch die letzten beiden Jahrzehnte der Aufzeichnung lediglich eine Zunahme von etwa 400 ppbv. Und tatsächlich ist meine „Business-as-Usual“-Schätzung etwa so hoch wie der Rekord-Anstieg während der letzten eintausend Jahre.

Als Ergebnis denke ich, dass es kaum Aussichten gibt, dass sich die Zunahme des Methan-Gehaltes während der kommenden 100 Jahre verdoppelt, geschweige denn verdreifacht … und selbst bei der sehr unwahrscheinlichen Verdreifachung läge die Zunahme des Strahlungsantriebs immer noch unter 1 W/m² pro Jahrhundert. Nicht pro Jahrzehnt. Pro Jahrhundert.

Ich sage also, das ist kein Gas zum Fürchten. Das ist nichts weiter als ein kümmerliches Beispiel eines Chicken-Little-Gases [?]; ein Lachgas, wenn man so will. Für jeden, der hinsichtlich Methan besorgt ist, sind das gute Nachrichten. Man kann aufhören, sich Sorgen zu machen. Selbst eine extreme Zunahme von Methan über 100 Jahre würde nur einen trivialen Unterschied ausmachen bei dem Strahlungsantrieb. Der Gedanke, dass Methan eine Hauptfigur im Temperaturspiel ist, ist eine moderne wissenschaftliche Legende.

Postskriptum: Ja, ich weiß um die Behauptungen von Einigen, denen zufolge Methan einige starke Rückkopplungen aufweist. Und ja, ich habe diese betrachtet. Eine lautet, dass steigende Temperatur auch einen zunehmenden Methangehalt bedeutet, weil Methan ein Nebenprodukt des Lebens ist, und Leben liebt Wärme. Mehr Wärme = mehr Leben = mehr Verfall = mehr Methan. Die Relation kann man hier einsehen.

Das Problem jener Rückkopplung ist aber: welche Zunahme der Methan-Emissionen auch immer die jüngste globale Temperaturzunahme bewirkt haben könnte, ist bereits in beiden obigen Graphiken enthalten, Abbildungen 1 und 2. Also ist diese Rückkopplung bereits berücksichtigt in der vorhergesagten Zunahme von 750 ppbv pro Jahrhundert.

Die zweite Rückkopplung ist der Tatsache geschuldet, dass Methan nur etwa zehn Jahre lang in der Atmosphäre verbleibt. Danach zerfällt es folgendermaßen (vereinfacht):

CH4 ==> CO2 + 2H2O

Wenn also das CH4 verschwunden ist, verbleiben zwei unterschiedliche Treibhausgase, Kohlendioxid und Wasserdampf. Oh, wie ängstigend!

Aber das Problem mit jener Rückkopplung ist, dass die Zahlen bzgl. Methan so klein sind. Die atmosphärischen Niveaus der drei Gase sind etwa Folgende:

Methan: 1,8 ppmv

CO2: 400 ppmv

Wasserdampf: 6400 ppmv.

Nun dauert die Umwandlungszeit von Methan in der Atmosphäre größenordnungsmäßig zehn Jahre. Dies bedeutet, dass jedes Jahr ein Zehntel Methan umgewandelt wird oder 0,18 ppmv pro Jahrzehnt, d. h. 0,02 ppmv pro Jahr.

Dies bedeutet, dass die Menge des zu CO2 und H2O zerfallenden Methans das CO2-Niveau jedes Jahr um etwa 0,02 ppmv zunehmen lässt (oder 2 ppmv pro Jahrhundert). Der Wasserdampfgehalt nimmt doppelt so viel zu oder um etwa 0,04 ppmv … bedeutungslos gering.

Link: http://wattsupwiththat.com/2015/10/11/scientific-urban-legends/

Übersetzt von Chris Frey EIKE