1

Multiperiodisches Klima: Spektralanalyse von Klimadaten

1. Allgemeines

Für die Analyse wurden am längsten zurückreichende Temperaturaufzeichnungen weltweit verwendet. Da die „offiziellen“ Temperaturmessungen (insbesondere die von GISS veröffentlichten) durch vielfältige Manipulationen, wie „Normalisierungen“, „Ausschluss von „verdächtigen“ Daten“, selektiver Ausschluss von etwa 70 % der weltweiten Mess-Stationen usw. kaum mehr für objektive Analysen geeignet sind, wurden die Messdaten zum Teil direkt von den Messstationen bezogen. Die längsten Aufzeichnungen existieren für Mitteleuropa (Abb.1).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig1.jpg

Abb.1: Instrumentelle Temperaturdaten von 6 mitteleuropäischen Stationen

Wegen der geringen Unterschiede der Daten der verschiedenen Messstationen haben wir sie in einer „mitteleuropäischen Temperaturkurve“ (Abb.2) zusammengefasst. Die blaue Kurve gibt Temperaturen aus antarktischen Eisbohrkernen wieder, welche nahelegt, dass der mitteleuropäische Temperaturverlauf für den ganzen Globus repräsentativ ist.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig2.jpg

Bild 2: "Europäische" Gesamtkurve zusammen mit Eisbohrkerndaten der Antarktis

2. Spektren und Zyklen

Es gibt zwei grundsätzlich unterschiedliche Vorgehensweisen bei der Analyse von Zeitreihen [2], [3]. In der ersten wird angenommen, dass der die Zeitreihe bildende Prozess durch ein mathematisches Modell wiedergegeben werden kann (oft sind es sog. AR Modelle). Man versucht dann, mit den auf das Modell zugeschnittenen Analyseverfahren die Modell-Parameter zu ermitteln. Falls das Modell nicht realistisch ist (wessen man nie sicher sein kann), erhält man naturgemäß falsche Ergebnisse. Deshalb sind „modellfreie“ Verfahren, wie von uns gewählt, oft vorzuziehen.

Zu diesen modellfreien Analyseverfahren gehören neben den Methoden der Spektralanalyse, die bekannteste ist die Fourier Transformation (FT) und ihre Rücktransformation (IFT), beispielsweise auch die Detrended Fluctuation Method (DFA) zur Ermittelung des Hurst Exponenten einer Reihe [4]. Die DFA kam auch in unserer Arbeit zur Anwendung. Es musste die diskrete FT verwendet werden, weil die Daten Temperaturpunkte mit äquidistanten Abständen darstellen, keine kontinuierlichen, analytischen Funktion.

Das aus der FT resultierende Spektrum, welches die mitteleuropäische Temperaturreihe im Frequenzbereich zeigt (Abb. 3), überrascht zunächst. Intuitiv hätte man ein mehr oder minder kontinuierliches Spektrum erwarten können, welches zufälligen Temperaturschwankungen entspräche. Im Gegensatz dazu besteht das Spektrum aus diskreten Maxima.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig3.jpg

Abb. 3: links Spektrum der "europäischen" Reihe, rechts das Stalagmitenspektrum

Dies zeigt an, dass das Klima von periodischen Vorgängen dominiert ist. Bei einer solchen Spektralanalyse können allerdings Artefakte auftreten. Zur Prüfung ob Maxima nicht evtl. Artefakte sind und ob die diskreten Spektralkomponenten alleine den realen Temperaturverlauf beschreiben, wurden die 6 stärksten Spektralkomponenten ausgewählt und nur mit diesen via IFT in den Zeitbereich zurück transformiert. Abb. 4 zeigt, dass diese 6 Komponenten, die periodische Vorgänge darstellen, den Klimaverlauf sehr gut wiedergeben.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig6.jpg

Abb. 4: schwarz Messdaten über 15 Jahre geglättet, rot Wiedergabe mit nur 6 Spektralkomponenten

Dies legt nahe, dass sie keine Artefakte sind. Weiter zeigt die gute Übereinstimmung von Rekonstruktion und Messdaten, dass außer periodischen keine anderen Prozesse das Klima beeinflussen. Nichtperiodische Vorgänge wie z.B. eine Erwärmung durch den monoton zunehmenden CO2-Gehalt der Luft können danach höchstens nur einen sehr kleinen Bruchteil der insgesamt etwa 0,7 Grad Erwärmung seit 1880 bewirkt haben.

Allerdings muss die Existenz einer starken 240 Jahr Komponente, die ja die Haupttemperaturänderungen (Abfall von 1780  bis 1880, und dann Anstieg bis 1990) beschreibt, kritisch geprüft  werden. Die zeitliche Länge der Messdaten enthält nur eine Periode einer möglichen 240 Jahr Periode. Das ist für eine sichere Bestimmung wirklich periodischen Verhaltens selbstverständlich unzureichend. Längere Temperaturmessungen waren daher notwendig. Wir wählten dazu eine von Mangini [5] gewonnene Stalagmiten-Temperaturreihe aus, die ebenso wie die unserer Messstationen aus Mitteleuropa stammt und zwar aus der Spannagel-Höhle bei Innsbruck. Der Temperaturverlauf, gewonnen aus der Stalagmitenanalyse, stimmt recht genau mit Temperaturverläufen überein, die in ähnlicher Weise aus Sedimenten des Nordatlantiks gewonnen wurden. Im Stalagmitenspektrum (Abb. 3 rechts) ist die 240 Jahre Periode eine der stärksten. In Abschnitt 6 unserer Arbeit sind noch weitere, wesentlich tiefer greifende Belege aufgeführt, die die von uns gefundenen Periodizitäten als Artefakte ausschließen. Abb. 5  zeigt das Wavelet-Diagramm der Spannagel Daten.

Wavelet-Analysen geben zusätzlich zur FT an, zu welcher Zeit mit welcher Stärke Periodizitäten herrschten, dies freilich nur zum Preis einer grundsätzlich höheren Frequenzungenauigkeit als der der FT. Im Wavelet-Bild tritt deutlich eine Oszillation hervor, die ihre Periode von 1100 bis heute von 125 Jahren auf 240 Jahren verändert hat.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig5.jpg

Abb. 5: Wavelet Diagramm des Stalagmiten

Diese Oszillation war seit fast 1000 Jahren DIE dominierende Klimaänderung und steht in Übereinstimmung mit der 240 Jahre Komponente im Spektrum (Abb. 3 links). Letztere darf durch das Wavelet Diagramm somit als gültig bestätigt angesehen werden.

Die ca. 65 Jahr Komponente ist die gut bekannte und 1400 Jahre zurückverfolgbare  „Atlantisch-Pazifische Oszillation“ AMO/PDO. Deren Maxima und Minima sind in Abb. 4 deutlich zu erkennen. Die AMO/PDO resultiert als Eigendynamik, d.i. hier Rückkopplung zwischen Atmosphäre und Meer. Sie stellt einen „Oszillator“ dar, der keinen äußeren Antrieb („forcing“) braucht. Soweit wir sehen, ist die von uns gefundene 240 Jahre Periode nichts anderes als der aus der Astrophysik gut bekannte „de Vries Zyklus“ dessen bestimmender Einfluss auf das Klima vielfach vermutet wurde (hier, hier). Die übrigen Zyklen zwischen 240 und 65 Jahren Periodenlänge sind schwächer.

Der Klimaverlauf wird praktisch ausschließlich durch den de Vries Zyklus und die AMO/PDO bestimmt. Insofern ist richtig, wie offiziell angeführt, dass das Klima nicht alleine durch solare Emissionsschwankungen bestimmt wird. Die Eigendynamik des Systems Atmosphäre/Meer (AMO/PDO) ist ebenfalls bedeutend. Zusammen ergeben diese beiden Zyklen mit hoher Genauigkeit den gemessenen Klimaverlauf. Eine irgendwie ins Gewicht fallende Erwärmung durch anthropogenes CO2 kann man nach den von uns gefundenen Ergebnissen ausschließen. Dies stimmt mit den Ergebnissen anderer Analysen überein, die sich auf Messungen gründen [6]. Im Gegensatz dazu basieren die „offiziellen“ Voraussagen über den Klimaeinfluss von anthropogenem CO2 nur auf grob unvollständigen Modellen, die selbst in den einfachsten Tests allesamt "durchfielen". So ist z.B. die Voraussage spätestens nach 25 Jahren nicht mehr von zufälligem Raten zu unterscheiden [7]-[9]. Wie es jetzt schon einer breiteren Öffentlichkeit bekannt wurde, können Klimamodelle nicht einmal die jüngste Temperaturstagnation über etwa 15 Jahre wiedergeben (Abb. 6).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Modelle1.jpg

Abb. 6: ein stellvertretendes Beispiel der Diskrepanz von Klimamodellen und Realität (Bildquelle, WUWT, 24.10.2013).

Dass eine Erwärmung durch CO2 in Zukunft stärker ausfallen könnte, kann ebenfalls ausgeschlossen  werden. Der seit Beginn der Industrialisierung  erfolgte CO2 Anstieg in der Atmosphäre von 40% repräsentiert bereits eine Temperaturzunahme von 50%. Mit anderen Worten kann die mögliche Erwärmung bis 2100, zu welchem Zeitpunkt eine Verdopplung der CO2 Konzentration, verglichen mit vorindustriellen Werten, vom IPCC für möglich gehalten wird (exponentieller Anstieg mit der heutigen Rate), nicht mehr als ca. 0,1 bis 0,2 Grad betragen.

Viel plausibler ist allerdings eine merkliche Abkühlung. Der 65 Jahre Zyklus und der 240 Jahre Zyklus haben ungefähr beide derzeit ihre Maxima.  Das ist in Übereinstimmung mit der ausbleibenden Erwärmung in den letzten 15 Jahren (Abb. 6, Abb. 7). Beide sorgen in Zukunft für fallende Temperaturen. Der 65 Jahre Zyklus relativ schnell.  Sein nächstes Minimum wird um 2035 liegen. Der 240 Jahre Zyklus wird zu einem absoluten Minimum gegen Ende des 21. Jahrhunderts führen.

3. Anmerkungen zur Spektralanalyse

Neben dem ältesten Verfahren der FT stehen heute zahlreiche modernere Methoden zur Verfügung, stellvertretend Periodengramme für ungleichmäßige Zeitschritte, Multi Taper Methoden und Wavelet-Verfahren. Diese Methoden weisen in manchen Details Vorteile, in anderen aber auch Nachteile gegenüber der klassischen FT auf. Bei vielen der neuen Verfahren gibt es im Gegensatz zur FT frei wählbare Parameter, was ihre Ergebnisse subjektiven Einflüssen aussetzt. Welche Methode der Spektralanalyse am günstigsten ist, hängt von dem zugrunde liegenden Problem ab und kann nicht allgemein beantwortet werden.

Grundsätzlich bleibt bei der FT bzw. der IFT der Informationsgehalt unverändert, der Frequenzbereich bietet lediglich eine andere Darstellungsform als der Zeitbereich. Als weiteres Merkmal der FT wird eine Reihe endlicher Länge als unendlich periodisch fortgesetzt angenommen. Der Zeitverlauf jeder Spektralkomponente setzt sich daher zwangsläufig am Zeitende der untersuchten Zeitreihe wie an deren Zeitanfang wieder fort. In diesem Zusammenhang ist anzumerken, dass der in Abb. 6 gestrichelt eingezeichnete Verlauf nach dem Jahre 2010 nicht die Fortsetzung der FT darstellt. Er ist vielmehr eine von uns vorgenommene Abschätzung des weiteren Temperaturverlaufs auf Basis der zwei stärksten Spektralkomponenten, hier von 240 Jahren und von 65 Jahren Periodenlängen.

Durch Zero Padding (ZP), d.h. dem Auffüllen der Reihe am Anfang oder Ende mit Nullen bleibt nach der FT der Informationsgehalt des Spektrums ebenfalls unverändert, nur steigt die Auflösung im Frequenzbereich mit der Anzahl der Nullen an (ZP erzeugt optimale Interpolation im Frequenzbereich). Dies kann für die genauere Bestimmung der Periodenlängen tiefer Frequenzen (lange Periodenlängen) wichtig sein.

4. Methoden und Programmierung

Die von uns verwendeten Methoden, vorrangig die Fourier-Analyse, die DFA und die Monte-Carlo-Methode sind Standardverfahren. Rechencodes für Methoden, die für die eigene Programmierung zu aufwendig sind, was in unserer Arbeit nur die Wavelet-Analyse betraf, kann man heute für alle gebräuchlichen technischen Programmiersprachen aus zahlreichen Internet-Seiten von US-Universitäten unentgeltlich entnehmen. Wir haben keine „eigenen neuen“ Verfahren oder Methoden entwickelt, sondern brauchten lediglich die notwendigen Programmteile zur Verknüpfung von Standardbausteinen zu schreiben, die von uns schon früher kodiert wurden. Wir verwendeten die Programmiersprache matlab, für kleinere Aufgaben VB6.0. Ferner kam das unverzichtbare EXCEL/VBA zum Einsatz.

5. "Resonanz auf unsere Veröffentlichung"

Unser paper wurde auf den Blogs von Anthony Watts (hier) und Joanne Nova (hier) besprochen und dort in zahlreichen Kommentaren diskutiert. Im mathematisch-physikalischen Kolloquium der Universität Hannover am 22.10.2013 berichtete und diskutierte Carl Weiss über unsere Arbeit.

Quellen

[1] im als pdf angefügten Originalpaper: Zitate der Arbeiten von  „Scafetta“ und den in diesen Arbeiten zitierten Quellen

[2] im als pdf angefügten Originalpaper Zitat der Arbeit von Ghil et al.

[3] P. Stoica and R. Moses: Spectral Analysis of Signals, Prentice Hall

[4] A. Bunde und J. Kantelhardt: Langzeitkorrelationen in der Natur: von Klima, Erbgut und Herzrythmus, Physikalische Blätter 57, Nr. 5 (2001), Wiley-VCH

[5] A. Mangini and C. Spötl: Reconstruction of temperature in the Central Alps during the past 2000 yr from d18 O stalagmite record, Earth and Planetary Science Letters 235, 741-751 (2005)

[6] Neben weiteren stellvertretend die folgenden Publikationen:

R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), http://tinyurl.com/3mbresk

R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

R.W. Spencer, and W.D. Braswell: On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance, Remote Sensing 3(8) (2011), R.W.

Spencer, and W.D. Braswell: On the diagnosis of radiative feedback in the presence of unknown radiative forcing, Journal of Geophysical Research, Vol. 115 (2010)

G. Paltridge et al.: Trends in middle- and upper-level tropospheric hunmidity from NCEP reanalysis data, Theor. Appl. Climatol. 98 (2009)

M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

H. Harde: How much CO2 really contributes to global warming? Spectrospcopic studies and modelling of the influence of  H2O, CO2 and CH4 on our climate, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011)

R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

H.-J. Lüdecke: Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment 22, No, 6 (2011)

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011),

[7] M. Collins, Climate predictability on interannual on decadal time scales: the initial value problem, Clim. Dynam., 2002, 19, 671-692

[8] G.J. Boer: A study of atmosphere-ocean predictability on long time scales, Clim. Dynam., 2000, 16, 479-477

[9] G.J. Boer and S.J. Lambert: Multi-model decadal potential predictability of precipitation and temperature, Geophys. Res. Lett., 2008, 35, L05706, 1-6

Zu den Autoren:

Prof. Dr. Horst-Joachim Lüdecke (Physiker) lehrte nach Forschungs- und Industrietätigkeit an der HTW des Saarlandes. Fachveröffentlichungen in Kernphysik, Strömungsmechanik, Chemietechnik und Klimaphysik sowie 1 Fachbuch und 2 Klimasachbücher (hier). Er ist Pressesprecher von EIKE.

Prof. Dr. Carl Otto Weiss (Physiker) war Abteilungsdirektor an der Technischen Bundesanstalt Braunschweig und Autor bzw. Mitautor von weit über 200 Fachveröffentlichungen zur Laserspektroskopie. Er ist EIKE Mitglied.

Dr. Alexander Hempelmann (Physiker), der dritte Autor der hier besprochenen cp-Veröffentlichung ist wissenschaftlicher Mitarbeiter der Sternwarte Hamburg.

Related Files




SPON’s Logbuch der Bekloppten und Bescheuerten

Der verantwortliche SPON-Redakteur Stefan Schultz hat in seinem Beitrag (hier) immerhin begriffen, dass Wind und Sonnenstrom den Launen der Natur gehorchen müssen und daher zu oft ausbleiben. Das war es dann aber auch schon. Seine logisch klingende, aber leider unrealistische Schlussfolgerung besteht darin, dass der notwendige Ersatzstrom durch geeignete Lieferverträge mit Stromlieferanten garantiert werden könne. Er drückt dies so aus: „Das fundamentale Prinzip der deutschen Stromversorgung lautet: Jeder Kunde hat einen Lieferanten, und dieser muss liefern – egal, was kommt. So steht es in der Stromnetzzugangsverordnung“. Weiter folgert er: „Überwacht wird diese Pflicht über einen sogenannten Bilanzkreis, ähnlich einem Bankkonto. Liefert der Verantwortliche für den Bilanzkreis zu wenig Strom, rutscht sein Konto ins Minus. Dann gibt der Netzbetreiber Kredit: sogenannte Regelenergie. Spätestens nach einer Viertelstunde muss der Anbieter sein Konto wieder ausgleichen. Dazu kann er die Elektrizität selbst produzieren oder irgendwo einkaufen. Ein Versorger kann also so viele Kraftwerke abschalten, wie er will – solange er am Markt genug Strom kaufen kann. Sollten viele Kraftwerke abgeschaltet werden, würde Strom teuer. Die verbleibenden Kraftwerke würden wieder profitabel.

Dunnerlittchen, nun hat uns einer die ultimative Lösung verraten. Nur schade, dass die Wirklichkeit diesen sachlich absurden Vorstellungen beim besten Willen nicht folgen kann. Freilich darf man fairerweise von einem Redakteur, dessen akademischer Hintergrund das Studium der „Medienkultur“, Politik und britischen Literatur ist (hier), nicht mehr erwarten. Man kann aber vom SPON einfordern, dass er fachfremde und nicht einmal einer ordentlichen Recherche kundige Mitarbeiter keine Artikel schreiben lässt, die sie fachlich überfordern. So nämlich blamieren sich SPON und Redakteur gleichermaßen. Der Autor hätte lieber von Herrn S. Schultz etwas über die na sagen wir mal Metaphysik Hamlets unter Berücksichtigung der "politischen Medienkultur" im 17. Jahrhundert erfahren. Mit einem Bericht über die Energiewendeproblematik lag er etwas daneben – um es höflich auszudrücken.

Tatsächlich ist das Problem des Ersatzstroms nicht wirtschaftlicher sondern weit überwiegend technischer Natur. Dieses Faktum, das sich jedem Einsichtigen schon nach kurzer Recherche erschließt, ist Herrn S. Schultz entgangen. Die sich aus Naturgesetzen und technischen Regeln ergebenden Probleme der Energiewende lassen sich dummerweise weder mit Verträgen noch mit politischen Zwangsmaßnahmen lösen. Kurz, Herr S. Schultz hätte sich vielleicht doch besser vorher informiert. Danach hätte er als der Medienkultur kundiger Kopf das Verfassen seines Artikels vermutlich unterlassen.

Eine gute Quelle der Information ist beispielsweise die deutsche physikalische Gesellschaft (DPG) in „physik konkret“ (hier). Dort ist nachfolgend zu lesen (hier), verfasst von Prof. Konrad Kleinknecht, einem ehemaligen Vorstandsmitglied der DPG und Beauftragten der DPG für „Energie“:

————- Beginn des Beitrags von K. Kleinknecht (DPG) ——————–

Speicherung der elektrischen Energie

Elektrischer Strom muss in dem Augenblick verwendet werden, in dem er erzeugt wird. Es gibt einen Bedarf, der rund um die Uhr benötigt wird (Grundlast), einen regelmäßig auftretenden zeitlich variablen Bedarf (Mittellast) und einen plötzlich nachgefragten Spitzenbedarf. Die Grundlast wird derzeit durch Braunkohle- und Kernkraftwerke abgedeckt, die Mittellast durch Steinkohlekraftwerke und die Spitzenlast durch schnell steuerbare Gaskraftwerke.

Neue fluktuierende Stromquellen

Durch die neuen Stromquellen Windkraft und Photovoltaik (PV) ändern sich die Verhältnisse. Die Abbildung rechts zeigt stellvertretend den zeitlichen Verlauf der Einspeisung von Solar- und Windstrom für den März 2012. Die erbrachte Leistung fluktuiert sowohl täglich als auch saisonal. Windkraftwerke lieferten im Jahr 2012 ihre volle Nennleistung nur während durchschnittlich 4,6 Stunden am Tag und Photovoltaik-Solarzellen während 2,3 Stunden am Tag. Andererseits muss der Strom aus diesen Quellen wegen des EEG-Gesetzes prioritär abgenommen werden. Die konventionellen Kraftwerke müssen heruntergefahren werden, wenn die Sonne scheint oder der Wind bläst, und anschließend wieder hochgefahren werden. Das verringert ihre Effizienz und Rentabilität. Da die Erzeugung des Stroms aus Wind-und Solarenergie nicht mit dem zeitlichen Verlauf des Bedarfs übereinstimmt, wäre es sinnvoll, die überschüssige elektrische Energie wenigstens für die Dauer eines Tages zu speichern.
Die elektrische Energie aus Windkraft betrug im Jahr 2012 ca. 50.000 GWh, die aus Photovoltaik ca. 24.000 GWh [1]. An einem Tag fallen also durchschnittlich 137 GWh Windenergie und 66 GWh Solarenergie an. Wenn diese Energie zum Zeitpunkt der Erzeugung nicht gebraucht werden kann, muss sie gespeichert werden, oder die Anlagen müssen abgeschaltet werden. Eine weitere Möglichkeit ist es, den Überschuss an die Nachbarländer zu verschenken oder dafür sogar eine Gebühr zu bezahlen.

Speicherung der elektrischen Energie aus Solar- und Windkraftanlagen

Elektrischer Strom kann mit hoher Effizienz zurzeit nur in Pumpspeicherkraftwerken gespeichert werden. Die Speicherkapazität aller Anlagen in Sachsen, Bayern und im Schwarzwald beträgt 40 GWh [2], reicht also nur aus, um ein Fünftel des Tagesertrags aus Wind und Sonne zu speichern. Dieses Szenario setzt voraus, dass die nötigen neuen Übertragungsleitungen von Nord nach Süd schon gebaut sind, um die Energie der Windkraftanlagen im Norden zu den Speichern im Süden zu bringen. Dies wird einige Jahre Bauzeit erfordern. Der Ausbau der Speicher im Süden hätte also höchste Priorität, stößt allerdings z. B. beim Ausbau des Schluchseekraftwerks bei Atdorf auf den Widerstand der Anwohner.

Als alternative zukünftige Speichermöglichkeit wird die Elektrolyse von Wasser und die Umwandlung des erzeugten Wasserstoffs zu Methan sowie dessen Verbrennung in einem Gaskraftwerk diskutiert. Diese Methode („power-to-gas-to-power“) erlaubt die Speicherung des Methangases im existierenden Rohrleitungssystem, ist allerdings sehr ineffizient; nur ein Drittel der eingesetzten Windkraftenergie steht am Ende als Elektrizität wieder zur Verfügung [3]. Die technische Umsetzung steckt noch in den Kinderschuhen, der Wirkungsgrad der Elektrolyse ist bei fluktuierendem Stromangebot geringer als bei konstantem Strom [4]. Das erzeugte Methan ist zur Zeit wesentlich teurer als das russische Erdgas oder das Flüssiggas aus Katar. Andere Alternativen wie etwa Druckluftspeicher haben nicht die benötigte Kapazität [3].

Eine Entlastung der Netze könnte erreicht werden, wenn alle Besitzer von PV-Anlagen auf ihrem Dach den um die Mittagszeit anfallenden Solarstrom in einigen Batterien im Haus speichern und am Abend zum Betrieb ihrer Hausgeräte benutzen würden. Wenn zwei Millionen Haushalte mit PV-Anlage jeweils Batterien mit 5 kWh Kapazität installieren, würde dies einen lokalen Speicher von 10 GWh bilden. Als weitere Möglichkeit wird die Speicherung in den Batterien zukünftiger Elektromobile diskutiert. Falls in zehn Jahren eine Million solcher Fahrzeuge existieren würde, könnte in ihren Batterien eine Energie von 20 GWh gespeichert werden. Das wären etwa zehn Prozent der an einem Tag anfallenden Wind-und Solarenergie, falls alle Elektromobile um die Mittagszeit aufgeladen würden. In Wirklichkeit werden sie nachts aufgeladen, wenn keine Sonne scheint. Für die nächsten zehn Jahre wird diese Speichermöglichkeit also keine Rolle spielen.

Fazit

Für die nächsten zehn Jahre wird es keine Möglichkeit geben, relevante Mengen elektrischer Energie effizient zu speichern. Es bleibt bei der fluktuierenden Einspeisung der Wind-und Solarenergie nur die Möglichkeit, fossile Kraftwerke als regelbare Schattenkraftwerke zu betreiben, die bei überschüssiger Energie aus Wind-oder Solarkraft heruntergefahren werden und bei deren Ausfall als Reserve zur Verfügung stehen. Diese unregelmäßige Betriebsweise der fossilen Kraftwerke ist allerdings ineffizient und unwirtschaftlich. Auch kann die Leistung dieser Kraftwerke nicht beliebig stark und schnell geändert werden.

Quellen

[1] Arbeitsgemeinschaft Energiebilanzen e.V.

[2] H. Gasser, Arbeitskreis Energie des DPG Tagungsbands 2012, S. 128

[3] M. Sterner, M. Jentsch, U. Holzhammer, Gutachten für Greenpeace, Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES Kassel), Feb. 2011

[4] F. Schüth, MPI für Kohleforschung (Mülheim), FAZ, 13. März 2013, Seite N2

[5] G. Bergolte 2013

———- Ende des Beitrags von K. Kleinknecht (DPG) —————————

Es ist nicht zuviel verlangt und einem SPON-Redakteur zuzumuten, zu recherchieren, d.h. beispielsweise die hier zitierte, gut informierende DPG zu lesen. Ferner sich zu bemühen, technische Inhalte zu verstehen und dann dem Leser zu vermitteln. Herr Schultz hätte sich natürlich auch auf der EIKE Website bestens informieren können, z.B. über die ihm wohl etwas näher liegenden wirtschaftlichen Aspekte des alternativen „Zappelstroms“ (hier, hier, hier, hier). Dann wäre ihm die simple Erleuchtung gekommen, dass der Nachteil fluktuierender Stromeinspeisung ohne unzumutbar hohe Kosten TECHNISCH-NATURGESETZMÄßIG-GRUNDSÄTZLICH nicht zu beseitigen ist.

Der oft von sachunkundigen Zeitgenossen zu vernehmende gute Glaube "wir brauchen nur noch mehr Windstrom, dann wird die Energiewende schon klappen" ist absurd falsch. Wir können so viel Windstrom produzieren, wie wir wollen (an windreichen Tagen ist es bereits jetzt schon viel zu viel, der Strom muss dann gegen Aufpreis ins Ausland verschenkt werden), so steht doch fest: beliebig und unvorhersehbar fluktuierender Strom ist unbrauchbar und für die Stabilität der Stromnetze fatal. Die Beseitigung dieses Nachteils führt unabdingbar zu extremen Kosten. An der Hauptversorgung mit kostengünstigen Grundlastkraftwerken, die stetigen, regelbaren Strom liefern (Kohle und Uran, in anderen Ländern auch Schiefergas – Putins Gas ist für Grundlastkraftwerke zu teuer) geht kein Weg vorbei. Dem Autor tut es ja für jeden gutgläubigen grünen Traumtänzer leid, aber so ist nun einmal die Realität. Windräder und Photovoltaik sind volkswirtschaftlich kostspieliger Unsinn, ganz besonders hierzulande. In Wüsten mag dies ein wenig anders aussehen. Noch ist Deutschland keine Wüste, wenn es aber mit der Energiewende so weitergeht, wird es eine werden – eine industrielle. Das Problem der deutschen Energiewende ist nur mit der Rückkehr zum Zustand quo ante behebbar. Kompletten Nonsense abzustellen, war schon immer die beste Lösung. Ein kleiner Tipp für noch immer nicht überzeugte Leser und insbesondere für Herrn S. Schultz: wer außer uns in der Welt macht die Energiewende noch mit? Woran mag das wohl liegen?

Der Mythos des SPON vom "nicht möglichen" Blackout

Wir wären ja alle heilfroh, wenn der drohende Black Out ein Mythos wäre. Leider ist das platte Gegenteil der Fall. Je mehr fluktuierender Wind- und Sonnenstrom ins bundesdeutsche Netz per Oktroi (EEG) gelangt, umso technisch schwieriger wird dessen unabdingbare Stabilitätsausregelung vermittels schnell reagierender Schattenkraftwerke (meist Gas). Das Netz wird zunehmend instabil und bricht früher oder später zusammen, wenn es wie bisher mit der zunehmenden Eispeisung von Wind- und Sonnenstrom so weitergeht und immer mehr Grundlastkraftwerke wegfallen (hier, hier, hier).

Zum Blackout (hier). Der Autor hatte nach einem Hochschul Fachvortrag die Gelegenheit mit einschlägigen Experten zu sprechen, die zum kritischen Zeitpunkt konkret mit dem Stabilitätsproblem befasst waren. Deutschland ist nach Schilderung dieser und aller weiteren dem Autor bekannten Fachleute im vorletzten Winter haarscharf an der Katastrophe vorbeigeschlittert. Über die Folgen informiert die nicht gerade als ruhige Nachtlektüre geeignete Drucksache des deutschen Bundestages (hier). Man darf bei einem mehrtägigen Black Out zuverlässig von Tausenden Toten, Plünderungen und weiteren wenig ersprießlichen Ereignissen ausgehen. Erst ist der Druck in der Wasserleitung, dann das Wasser selber weg, Handy und Telefon sind tot, niemand befreit Sie aus einem steckengebliebenen Fahrstuhl mit eng aneinandergedrückten Passagieren ….. Wenn man auch noch an materiellen Schadensschätzungen interessiert ist, dann (hier).

Ein nettes Schlusswort

Lieber SPON, wir alle schätzen SPIEGEL bzw. SPON als informative, oft erfrischend freche und meist bemüht objektiv berichtenden Medien – keine Selbstverständlichkeit in der heutigen deutschen Journalistenlandschaft. So wie in dem hier kritisierten Beitrag geht es aber gar nicht. Der ist kurioser sachlicher Unsinn, nichts weiter. Und an den SPON Redakteur: Lieber Herr Schultz, wir empfehlen Ihnen, in Zukunft erst einmal sorgfältig zu recherchieren und dabei die Fakten nicht dem grünen Glauben zu opfern. Wir empfehlen Ihnen auch, nur über Themen zu schreiben, in denen Sie fachlich einigermaßen sattelfest sind. Wir sind sicher, in diesem Fall Ihre Beiträge schätzen zu lernen.

Zum Autor:

Prof. Dr. Horst-Joachim Lüdecke ist Diplom-Physiker mit langjähriger Berufserfahrung in Forschung, Lehre und Industrie. Er hat das Sachbuch "Energie und Klima: Chancen, Risiken, Mythen", expert-Verlag, verfasst sowie über Klimathemen in den letzten Jahren mehrere Forschungsarbeiten in begutachteten Fachjournalen zs. mit Koautoren veröffentlich. Informationen zu Buch und Publikationen sind in der EIKE-Webseite (hier) einseh- und herunterladbar.




Exit

Bei den Medien sicherlich. Hier ist, wie in der deutschen Medienlandschaft schon so oft, der SPIEGEL einer der wichtigsten Vorreiter. Noch nicht lange her auf Linie des IPCC, übt sich der SPIEGEL inzwischen in Klimakritik (hier, hier, hier, hier, hier, hier, hier). Weiter ist die Schweizer Weltwoche zu nennen (hier, hier). Die übrige „anspruchsvolle" Zeitungslandschaft wie FAZ, Süddeutsche Zeitung, die WELT usw. verharren aber immer noch im Irgendwo. Man zögert und hält sich alle Optionen offen, ausgenommen die ideologiefeste Süddeutschen Zeitung und die öffentlich-rechtlichen TV- und Radio-Sender mit ihren grün-roten Redaktionen. Diese üben  sich bunkermental im Durchhalten nach dem Motto „was kümmern uns Fakten, wir verbreiten Klimakatastrophen“.

In den Zeitungsredaktionen weiß man dagegen immer noch nicht, woher der Wind einmal blasen wird und legt sich daher nicht fest. Klimakritische Artikel wechseln sich mit Klimaklamauk zunehmend rascher ab. So war sich sogar die FAZ nicht zu schade, den Asyl-Antrag eines „Klimawandel-Opfers“ der Pazifik-Insel Kiribati an Neuseeland zu kolportieren und damit dem Leser wieder einmal einen gefährlichen Meeresspiegelanstieg zu verkaufen (hier) – oder war es vielleicht schon Ironiel? Im Gegensatz zum Klima machen freilich fast alle Zeitungen massiv gegen den volkswirtschaftlichen und technischen Wahnsinn der Energiewende Front. Die einfache logische Konsequenz, nämlich deren komplette Abschaffung, ist aber leider immer noch ein Tabu. Das Anzeigengeschäft mit Unternehmen, die von der Energiewende profitieren, ist für die finanziell bedrohten Blätter zu wichtig, um frei und objektiv berichten zu können. Eine Fortsetzung der Energiewende wie bisher, die mit der kommenden Regierungskoalition wenig wahrscheinlich ist, würde dann aber wohl doch alle noch vorhandnen Kritik-Dämme der Printmedien brechen lassen.

Der Exit der deutschen Wirtschaft ist dagegen schon traurige, komplette Realität. Stromintensive Industrien verabschieden sich ins Ausland, Arbeitsplätze gehen verloren. Es wird nicht viel Getöse gemacht. Zwischen Politik und den verschwindenden Firmen bestehen nämlich Absprachen einer gefälligen Abwicklung des Exit unter folgenden leicht zu erkennenden Bedingungen: Keine öffentlichwirksamen, lauten Klagen der abziehenden Unternehmen über die Energiewende! Dann geht der Exit nachsichtig glatt vonstatten – dies der Deal.

Der Verband der deutschen Chemie protestiert inzwischen gegen die gestiegenen Strompreise, ohne die hierfür verantwortliche Energiewende klar als Unsinn zu bezeichnen. Es ist leider nicht nur Höflichkeit, was sie daran hindert. Man fühlt sich unübersehbar unbequem und windet sich. Man ist natürlich "für" die Energiewende, nur eben nicht für solch eine usw. usw…. ja, aber für welche dann? „Nur eine wettbewerbsfähige Energiewende kann auch Wachstum und Arbeitsplätze fördern“ heißt es in der aktuellen VCI-Schrift (hier). Gut gebrüllt Löwe! Nun aber bitte im Ernst! Wie soll denn die deutsche Energiewende, ein Musterbeispiel längst vergangen geglaubter DDR-Planwirtschaft, jemals wettbewerbsfähig werden? Einzige unabdingbare Lösung ist, sie komplett in der Mülltonne der Geschichte zu entsorgen. Zugegeben, die Chemie hat ohnehin schon gegen einen unberechtigt schlechten Ruf zu kämpfen. Es gibt Leute, die vermuten, dass große Chemieunternehmen Greenpeace und weiteren NGO-Konsorten Schutzgelder zahlen (Pardon, natürlich Spenden zukommen lassen), damit diese nicht vor den Werkstoren randalieren. Wir wissen nicht, ob dies zutrifft, abwegig ist es aber nicht. Man kann in diesem Zusammenhang nur den Wunsch aussprechen, dass wenigstens die russische Regierung hart bleibt und die Besatzung des widerrechtlich operierenden Greepeace-Schiffs konsequent hinter Gitter setzt.

Was waren es dagegen noch für Zeiten, als sich Greenpeace japanischen Walfängern entgegenstellte, Aktionen, für die wohl nicht nur der Autor immer noch sehr viel Sympathie aufbringt. Heute singt Greenpeace das Lied von Rockefeller und betreibt das grüne Geschäft der Vernichtung deutscher Kernkraftwirtschaft. Das ist finanziell lukrativer als Wale zu schützen. Auf diese Weise hat es dieser fragwürdige Verein von einer kalifornischen Klitsche bis zu einem weltweit agierenden Unternehmen gebracht, dessen Führung im sonnigen US-Weststaat sich sogar des Besitzes einer Großyacht erfreut [2]. Es darf als Skandal bezeichnet werden, wie Verlautbarungen von Greenpeace in den deutschen Medien fast schon den Rang offizieller deutscher Regierungserklärungen einnehmen.

Aprospos "hinter Gittern". Wir kommen damit zum Exit der weltweit agierenden Großbanken, Versicherungen und Rückversicherungen. Es gibt kluge Leute, die sehen das IPCC, den Club of Rome und NGO’s wie WWF, Greenpeace etc. als verlängerte Arme der US-Großfinanz an. Allen voran steht wohl das Bankimperium Goldman Sachs (hier, hier, hier). Die US-Großfinanz hat die politischen Welteliten auf Klimakatastrophen eingeschworen und belohnt dafür die Protagonisten, die oft aus prominenten, abgehalfterten Politikern bestehen. Wem dies zu sehr nach "Verschwörungstheorie" riecht, schaue sich nur als Beispiel von vielen die Vita unseres ehemaligen Außenministers Joschka Fischer an, insbesondere seine Aktivitäten nach Ausscheiden aus dem Amt (hier, hier). Die Anzahl von einflussreichen Politikern, die einmal auf der Gehaltsliste von Goldman Sachs standen, ist Legion (hier, hier). Lukrative Geschäftsfelder lassen sich mit Hilfe einer fremdgesteuerten Agenda unauffällig und wirkungsvoll installieren.

Die Verästelungen reichen heute bis hinunter in die deutsche Provinz. So lassen sich deutsche Bürgermeister, die sich dem glorreichen Vorhaben verschrieben haben, ihre Städte CO2-frei zu machen (hier), von fragwürdigen Institutionen beraten. Wie zum Beispiel in Heidelberg von einem IFEU-Istitut (hier). Derartige Grün-Unternehmen treiben ihr Unwesen inzwischen bundesweit. Sie beschäftigen Mitarbeiter, die in ordentlichen Firmen vermutlich keinen Arbeitsplatz finden konnten. Immerhin könnte man diese Entwicklung euphemistisch als Arbeitsbeschaffungsmaßnahmen bezeichnen – auf Kosten der Kommunen bzw. des Steuerzahlers natürlich.

Zurück zur großen Bühne! Hier stehen große Exit-Probleme an. Die Glaubwürdigkeit des IPCC hat durch seine undurchsichtige und unglaubwürdige Politik, aber am meisten wohl durch das widerspenstige Verhalten der Natur irreparablen Schaden erlitten (hier, hier) und [1]. Eine knapp 30-jährige globale Erwärmung, deren Ursprung von naturunkundigen Zeitgenossen (die von der Klimavergangenheit mit ihren wesentlich heftigeren Fluktuationen nichts wissen) sowie von Advokatenwissenschaftlern dem anthropogenen CO2 zugeschrieben wird, will sich partout nicht fortsetzen. Den großen Banken und Versicherungen droht dadurch der Boden unter dem so schön eingefädelten Klimageschäft wegzubrechen. Wir brauchen diese Unternehmen nicht zu bedauern, sie werden rasch andere Geschäftsfelder zur Rupfung ihrer Opfer finden. Unglücklicherweise ist die von Großbanken gesteuerte US-Administration nicht in der Lage, die großen Banken zu zerschlagen (Trennbankensystem durch Auslagerung der Zocker-Abteilungen in eigene Unternehmen, um die Steuerzahler von den irrsinnig hohen bail-out-Kosten zu befreien). Immerhin scheint dies der EU zu gelingen, wenn auch leider noch nicht ganz konsequent (hier) – ein erster Hoffnungsschimmer! Die US-Administration ist freilich so stark im Griff der Großfinanz – Demokraten und Republikaner gleichermaßen, hier spielt es keine Rolle, wer das Sagen hat – ,dass jede Hoffnung auf Bankenzerschlagung und Neuordnung von Währung und Schulden vergeblich ist.

Wieder zurück zum Klima! Der Autor freut sich über den nun 15 Jahre andauernden Temperaturstillstand überhaupt nicht, denn die Erwärmung der 90-er Jahre war wohltuend und für die Menschheit überdies günstig. Er wagt auf der anderen Seite aber gar nicht daran zu denken, was bei weiterer Erderwärmung passiert wäre. Mit Sicherheit wären heute alle EIKE-Mitglieder von Klimagerichten wegen Volksverhetzung abgeurteilt, wenn sie nicht schon vorher widerrufen hätten. Klimagerichte wurden von grüner Politik tatsächlich schon vorgeschlagen und sind kein Phantasieprodukt [2]. Sie wären bei weiterer Erwärmung installiert worden (alternativlos, Zitat Merkel). Den Klimakonsens aller deutschen Parteien erleben wir ja bereits seit vielen Jahren. Eine solche "überparteiliche" Übereinstimmung ohne jedwede Sachkritik seitens der Politik (von Splitterparteien abgesehen) ist zweifellos der Existenzbeweis einer bereits realen bundesdeutschen Ökodiktatur. Eine weiter fortgesetzte Erwärmung hätte Massendemonstrationen für noch mehr Klimaschutz initiiert, und es hätten sich noch weit schlimmere Dinge entwickelt. Jeder mit ein wenig Vorstellungsvermögen, Geschichtskenntnissen und Menschenerfahrung kann es sich ausmalen. Wozu Menschen fähig sind, haben vergangene Diktaturen bewiesen. Die aktuelle deutsche Ökodiktatur ist glücklicherweise noch milde, sie ist erst bis zur medialen Meinungsunterdrückung sowie dem stillen Herausdrängen unliebsamer Fachwissenschaftler aus Schlüsselpositionen und ihrem Ersatz durch linientreue Ökoaktivisten gelangt (Beispiel WGBU, zu den Mitgliedern dieses Beirats erübrigt sich jeder Kommentar). Ferner ist heute schon jeder in einschlägigen Ministerien oder Unternehmern Beschäftigte im Interesse seiner beruflichen Karriere gut beraten, keine Klimakritik zu äußern.

Ein stellvertretendes Beispiel von fragwürdigen Vorkommnissen in diesem Zusammenhang unter vielen: Man muss sich angesichts des fast unglaublichen sachlichen Dummschwätzens einer bundesweit medienbekannten Volkswirtin, die sich als ökopolitische Kassandra mit Unterstützung grüner Medien-Seilschaften in den Vordergrund spielte, ersthaft fragen, wie diese Dame zu einer Universitätsprofessur gelangte. Kurzum, ohne Abbruch der globalen Kurz-Erwärmung Ende des 20. Jh. hätte die aktuelle Ökodiktatur Deutschlands ohne Zweifel einen weit gefährlicheren Weg eingeschlagen. Insofern begrüßt der Autor den Erwärmungsstillstand, wenn auch ungern.

Verbleibt nun noch der Exit der Politik. Wie kommt die Politik vom hohen Ross "Klima und Energie" wieder herunter? Der Autor kann sich den Ablauf nur schlecht vorstellen. Dies aus dem einfachen Grund, weil Politiker über ein Wandlungsvermögen verfügen, gegen das Chamäleons Stümper sind. Einen Exit wird es geben, denn sowohl der Bevölkerung als auch der Industrie sind die steigenden Kosten der Energiewende inzwischen bewusst geworden, ihr Duck wird stärker. Die Medien werden entsprechend den Druck erhöhen, so dass Frau Merkel sich irgendwann erneut zu „Alternativlosigkeit“ bemüßigt fühlen wird. Wie dann der Koalitionspartner (SPD) wohl reagiert? Spannend wird es auch, ob die politische Hoffnung AfD endlich zur Energiewende Farbe bekennt und deren komplette Abschaffung zusammen mit der Abschaffung aller Klimaschutzmaßnahmen fordert. Bei den ersten Sitzungen im Europaparlament, in welches diese Partei einziehen wird, muss sich ihre bisher unklare Linie verdeutlichen. Erst mit kopromissloser Ablehnung von Energiewende und Klimaschutz (neben Ablehnung jedes Euro Bail-Out) wird die AfD zu einer echten Alternative. Bei der FDP unter dem neuen Vorsitzenden Lindner ist Hoffnung wohl vergeblich. Ob es ihm gelingt diese Partei, die im Zuge von Außenminister Westerwelle von gleichgeschlechtlich orientierten Protagonisten majorisiert wird, wieder zu ordentlichem Funktionieren zu bringen, ist fraglich. Bis jetzt hört man nur von Personengeschacher, nichts über die vorrangigen Sachfragen einer liberalen Partei. Weiß die FDP überhaupt noch, was liberal bedeutet? 

Um bei der unübersehbaren Haltung des Autors zu Energiewende und Klimaschutz keine Missverständnisse aufkommen zu lassen: Selbstverständlich ist nicht die Aufgabe des Naturschutzes gemeint! Klimaschutz und Energiewende haben mit Naturschutz nichts zu tun, sie sind diametral dessen Gegenteil! Insbesondere die echten „Grünen“ (nicht die Wassermelonen dieser Partei – innen rot, außen grün) könnten vielleicht einmal aufwachen, indem sie das Schleifen der Windräder zum Schutz der Fledermäuse und Greifvögel fordern und sich damit wieder auf ihre ehemalige Agenda "Naturschutz" und nicht Gesellschaftsveränderung und -bevormundung besinnen. Das Bauen von Fledermaustunneln ist sicher ein ehrenwertes, wenn auch etwas teures Unterfangen. Es scheint aber nicht ganz passend, wenn diese nützlichen Tiere infolge ihres vorzeitigen Ablebens gar nicht mehr zur Benutzung dieser Passierhilfen kommen. Sie sind nämlich längst mit geplatzten Lungen infolge der Einwirkung von Windmühlenflügeln abgestürzt und zum Zubrot von Krähen und Füchsen geworden.

Nicht verlinkte Quellen

[1] Die Bücher von Donna Lafromboise über das IPCC und dessen Verbindungen mit NGO’s wie Greenpeace

[2] Vom Fraktionschef der Niedersächsischen Grünen, NWZ vom 10.03.2008

Zum Autor:

Prof. Dr. Horst-Joachim Lüdecke ist Diplom-Physiker mit langjähriger Berufserfahrung in Forschung, Lehre und Industrie. Er hat das Sachbuch "Energie und Klima: Chancen, Risiken, Mythen", expert-Verlag, verfasst sowie über Klimathemen in den letzten Jahren mehrere Forschungsarbeiten in begutachteten Fachjournalen zs. mit Koautoren veröffentlich. Sie sind von der EIKE-Webseite unter http://www.eike-klima-energie.eu/publikationen/ herunterladbar.




IPCC Bericht von 2013 vs. Klimafakten

IPCC-Behauptung 1: Die Erwärmung unseres Klimasystems sei eindeutig. Seit den 1950-er Jahren seien viele Erscheinungen über Tausende von vergangenen Jahren noch nie vorgekommen. Insbesondere die Erwärmung der Nordhemisphäre von 1983 bis 2012 sei wahrscheinlich die wärmste 30-Jahresperiode der letzten 1400 Jahre.

Die Fakten zu 1: Das Klima in jeder Klimazone unserer Erde (von polar bis tropisch) war niemals konstant und hat sich seit jeher stets geändert. Konstantes Klima gibt es nicht. Regelmäßig kamen in allen Vergangenheitszeiten Klimaänderungen vor, die die des 20. Jahrhunderts an Stärke und Geschwindigkeit weit in den Schatten stellten. Bild 1 zeigt die globalen Mitteltemperaturen bis 11.000 Jahre vor heute.

 

Bild 1: Globale Mitteltemperaturen der letzten 11.000 Jahre [hier]

Man erkennt in Bild 1 die warme Römerzeit, ein warmes Mittelalter und davor ein noch wärmeres Holozän. Der Glaziologe Prof. Gernot Patzelt von der Universität Innsbruck weist an Hand von Gletscherfunden wie z.B. Baum- und Pflanzenresten nach, dass in 65 Prozent der letzten 10.000 Jahre die Alpengletscher kleiner und die Temperaturen höher waren als heute. Wald ist in Höhen gewachsen, die heute noch vergletschert sind – dies ohne alles menschliches Zutun [hier]. Alle Warmzeiten (Römerzeit, Hochmittelalter) waren übrigens kulturelle Blütezeiten.

Eine der qualitativ besten Temperaturkurven der letzten 2000 Jahre zeigt dann mehr Details (Bild 2):

Bild 2: Temperaturreihe von Christiansen/Ljungqvist [Chr], vom Verfasser aus den numerischen Originaldaten erstellt.

Man erkennt in Bild 2 den langfristigen Temperaturabfall vom sehr warmen Mittelalter bis herunter zur „kleinen Eiszeit“ im 17. Jahrhundert. Danach setzte die Wiedererholung der Temperaturen bis heute ein. Seit etwa 1995 stagnieren die Temperaturen wieder, bzw. es kühlt sich sogar leicht ab. Jeder von uns bemerkt dies an den zunehmend härteren Wintern (s. dazu Bild 3 weiter unten).

Man findet bei einer Analyse der in Bild 2 gezeigten Temperaturreihe zahlreiche Zeitspannen mit weit schnelleren und stärkeren Temperaturanstiegen (aber auch Temperaturabstiegen) als dem Anstieg in den letzten 30 Jahren des 20. Jahrhunderts, der vom IPCC so vehement als „Beweis“ für einen menschgemachten Einfluss angeführt wird. Die Aussage des IPCC von einer „noch nie seit tausenden Jahren vorgekommenen“ Temperaturentwicklung der letzten Jahrzehnte ist daher falsch.
 
Das ungewöhnlich warme Klima im Mittelalter ist nicht nur durch Messungen [hier] sondern auch durch historische Überlieferung bestens belegt. In dieser Warmperiode führten die großen deutschen Flüsse in den heißen Sommern kaum noch Wasser. Die Fundamente der berühmten Regensburger Steinbrücke konnten daher in der trockenen Donau gebaut werden, und zu Köln am Rhein überquerten die Leute den großen Fluss trockenen Fußes [Rei]. Der jüngste Rückgang der Gletscher in den Alpen wurde übrigens schon im Jahre 1885 im Alpinen Jahrbuch dokumentiert. Damals gab es praktisch noch kein menschgemachtes CO2. Die Beobachtungen begannen in 1881, berichtet wurde von Prof. Eduard Richter aus Salzburg, sie betrafen verschiedene Gletscher in den Ötztalern, Zillertalern und die Pasterze. Man findet die genannte Zeitschrift in der Bücherei des Deutschen Alpenvereins auf der Praterinsel in München (Jahrgang 1885, Band XVI, Seite 54 bis 65), eine Fortsetzung folgte im Jg. 1888 [Nie]. Auch die Publikation [Hol] legt davon Zeugnis ab.

Bild 3 lässt schließlich die erneute Stagnation/Abkühlung der letzten 15 Jahre erkennen. Seit Beginn der Industrialisierung und nicht nur die letzten 15 Jahre passt der Temperaturverlauf mit dem stetig ansteigenden CO2 Gehalt der Luft nicht zusammen, was der Behauptung des IPCC über einen maßgebenden menschgemachten Klimaeinfluss widerspricht.


Bild 3: Globale Abkühlung seit etwa Mitte der 1990-er Jahre [hier]

IPCC-Behauptung 2: Die globalen Mengen an Schnee und Eis hätten abgenommen. Und weiter: über die letzten beiden Jahrzehnte hätten sich die Eisschilde von Grönland und der Antarktis verringert. Gletscher fast überall weltweit würden fortfahren kleiner zu werden und die arktische See-Eisbedeckung sowie die Frühjahrsschneebedeckung der Nordhemisphäre würden sich in hohem Ausmaße verringern.

Die Fakten zu 2: Weil sie allen Messdaten widersprechen, erreichen diese Behauptungen des IPCC bereits das Ausmaß des Absurden. Insbesondere der antarktische Eisschild, der etwa 90% allen Süßwassers weltweit enthält, nimmt zumindest nicht ab. Das gleiche trifft für das antarktische Schelf-Eis zu. Der einzige Teil, der geringfügig Eis verliert, ist die Westantarktische Halbinsel, die weniger als 10% des antarktischen Gesamt-Eis ausmacht. Die Temperaturaufzeichnungen am Südpol zeigen seit Beginn der Messungen in 1957 keine Erwärmung! s. hierzu auch (hier) und (hier).

Das medienbeliebte arktische See-Eis dagegen ist seiner relativ geringen Dicke wegen klimatisch weitgehend unrelevant. Seine Ausdehnung gehört zu den Wetterphänomenen. Relevant ist dagegen der Grönländische Festland-Eispanzer mit einem Volumen von etwa 3 Millionen Kubikkilometern, das sich so gut wie nicht verändert hat. Das arktische See-Eis schwankt stark mit den Jahreszeiten, insgesamt übers Jahr gemittelt hat es sich in den letzten Jahrzehnten weder maßgebend verringert noch erhöht. Ausgerechnet in 2013, also dem Erscheinungsjahr des jüngsten IPCC-Berichts hat sich die arktische See-Eisbedeckung rekordverdächtig um 60% auf 1 Millionen Quadratkilometer erhöht [hier]. Alle diese Schwankungen des arktischen Meer-Eis liegen im natürlichen Bereich und haben mit einem Einfluss des Menschen nichts zu tun.

Bild 4 zeigt schließlich die Schneebedeckung der Nordhemisphäre in Millionen Quadratkilometern, die eine leichte Zunahme in den Dezembermonaten anzeigt.

Bild 4: Schneebedeckung der Nordhemisphäre in Millionen Quadratkilometern. Seit 1960 wird in bestimmten Monaten Zunahme, in anderen Abnahme gemessen. Von einer maßgebenden allgemeinen Abnahme kann keine Rede sein [hier] und [hier].

IPCC-Behauptung 3:  Meeresspiegel seien angestiegen. Und weiter im Einzelnen: Die Meeresspiegelanstiegsrate seit Mitte des 19. Jahrhunderts sei höher als die mittlere Anstiegsrate während der letzten 2000 Jahre. 

Die Fakten zu 3: Seit Ende der letzten Eiszeit, also seit etwa 12.000 Jahren ist der Meeresspiegel weltweit um rund 120 Meter angestiegen, insofern trifft die allgemeine Aussage des IPCC über einen Meeresspiegelanstieg zu. Die Ursachen sind schmelzendes Festlandeis sowie die Ausdehnung von Meerwasser infolge der Erwärmung nach Ende der Eiszeit. Bis heute hat sich dieser Anstieg fortgesetzt, allerdings inzwischen stark verlangsamt in einem Ausmaß von aktuell grob 3 mm/Jahr. Eine Beschleunigung dieses Anstiegs wird nicht gemessen. Im Gegenteil, die jüngsten Satelliten-Altimetrie-Messungen deuten eher auf eine temporäre Verlangsamung des Meeresspiegelanstiegs hin.

Bild 5: Meeresspiegelanstieg, gemessen von Satelliten [hier]

Allerdings ist Vorsicht bei Aussagen über Meeresspiegeländerungen angebracht. Der deutsche Geo-Forscher Prof. Karl-Ernst Behre (hier) hat die über mehrere tausend Jahre aufgetretenen Meeresspiegelveränderungen an den Nordseeküsten vermessen (Bild 6). Sie zeigen bei näherem Hinsehen Erstaunliches:

Bild 6: Meeresspiegeländerungen an den Nordseeküsten [Beh]

Man erkennt in Bild 6 immer wieder Zeiträume, in denen der Meeresspiegel sogar längerfristig abnahm und solche, in denen er in Übereinstimmung mit der ausklingenden Eiszeit erwartungsgemäß weiter anstieg. Die Ursachen für diese Schwankungen sind unbekannt, haben vermutlich auch mit Hebungen und Senkungen des Festlandes zu tu, sind aber keinesfalls dem Einfluss des Menschen zuzuschreiben. Aus den heutigen, modernen Meeresspiegelmessungen über die Dauer von wenigen Jahrzehnten auf einen allgemeinen Trend schließen oder gar auf menschgemachte Einflüsse spekulieren zu wollen, ist nicht zuletzt angesichts der Messungen von Behre als wissenschaftlich fragwürdig einzustufen. Die Aussage des IPCC über die Stärke des heutigen Anstiegs im Vergleich mit den letzten Tausenden Jahren widerspricht den Messungen und ist daher zurückzuweisen.

IPCC-Behauptung 4: die Konzentration an Treibhausgasen habe zugenommen.

Die Fakten zu 4: Diese Aussage trifft zu. Insbesondere die CO2-Konzentration in der Erdatmaosphäre hat seit 1960 von 317 ppm auf aktuell 400 ppm zugenommen. ppm bedeuten „parts per million“, 400 ppm entsprechen also 0,04 Volumenprozent. CO2 ist ein Spurengas in der Luft, sogar das Edelgas Argon kommt in der Luft häufiger vor. Die vom IPCC vermittelte suggestive Vorstellung, dass der CO2-Anstieg zu einem dramatischen globalen Temperaturanstieg führen müsse, ist falsch. Entscheidend ist nämlich nicht die Erwärmungswirkung des CO2 schlechthin, sondern der erwärmende Einfluss das ZUSÄTZLICHEN, vom Menschen in die Erdatmosphäre emittierten CO2. Dieser ist nach allen bisherigen Messergebnissen unmaßgeblich klein. Dies erscheint auf den ersten Blick ungewöhnlich, denn CO2 ist schließlich vermutlich das zweitstärkste Treibhausgas nach dem Wasserdampf.

Tatsächlich liegt der Grund für die geringe Erwärmungswirkung des zusätzlichen, menschgemachten CO2 darin, dass die Temperaturerhöhungswirkung des CO2 schon bei weit kleineren CO2 Konzentrationen fast vollständig ausgeschöpft ist, oder technisch ausgedrückt, die Infrarot-Absorption des CO2 steigt mit zunehmender CO2 Konzentration nur noch unmaßgeblich an. Als simple Veranschaulichung dieses Sachverhalts kann eine gut wärmende Pudelmütze dienen, die die Erwärmungswirkung des CO2 darstellt. Setzt man eine zweite Pudelmütze auf, d.h. verdoppelt man also die CO2 Konzentration, ist die zusätzliche Erwärmung vernachlässigbar. Zwei Pudelmützen übereinander wärmen auch nicht viel besser als eine.

Nur mit Klimacomputermodellen, in die physikalisch UNZULÄSSIGE, weil FIKTIVE, d.h. nicht sauber durch Messungen belegte Erwärmungsmechanismen eingesetzt werden, ist überhaupt eine stärkere Erwärmungswirkung des zusätzlich vom Menschen in die Atmosphäre eingebrachten CO2 theoretisch herleitbar. Entsprechend haben solche fiktiven Klimamodelle noch nicht einmal die Klimavergangenheit wiedergeben können und sie können auch nicht die Zeitpunkte der großen Oszillationen, wie z.B. des El Nino vorhersagen. Sie sind daher als Prognoseinstrumente unbrauchbar und nur zur Beantwortung spezieller Detailfragen für die Klimaforschung von Nutzen.

Ein menschgemachter Einfluss auf Klimawerte ist bis heute in der Fachliteratur nicht beweiskräftig nachgewiesen – was nicht bedeutet, dass es ihn nicht gibt. Er ist offenbar so klein, dass er im Rauschen der natürlichen Fluktuationen untergeht. Entsprechend sind alle einschlägigen Wahrscheinlichkeitsangaben des IPCC (ehemals 90%, inzwischen 95%) subjektive, der betriebenen Politik geschuldete Willkürlichkeitsangaben. In der Fachliteratur existieren solche belegte Wahrscheinlichkeitsangaben zum menschgemachten Einfluss nicht. Es gibt freilich Angaben in umgekehrter Richtung, stellvertretend (hier) und [Bee].

Eine Zunahme des CO2 in der Atmosphäre sollte nicht gefürchtet werden, sondern umgekehrt hoch ERWÜNSCHT sein! Sie sorgt nämlich für stärkeren Pflanzenwuchs, insbesondere von Nahrungspflanzen und hat bereits maßgebend zur besseren Ernährung der Weltbevölkerung beigetragen. Eine theoretische Verdoppelung der CO2 Konzentration lässt den Ertrag aus Nahrungspflanzen um ein Drittel ansteigen [hier], [hier]. Die bei den Medien beliebte Verteufelung des Naturgases CO2 als „Schmutzgas“ oder „Klimakiller“ ist absurd und irreführend.

Fazit zum IPCC-Report 2013

Die Aussagen des IPCC sind wissenschaftlich fragwürdig, rein ökopolitisch und daher sachlich unsinnig und wertlos.

Im Folgenden stichwortartig noch einige Ergänzungen, die im hier behandelten Zusammenhang von Interesse sein können.
 
Was weiß eigentlich die Klimawissenschaft über das „Klima“? Nüchtern betrachtet, trotz weltweiter, milliardenschwerer, jahrelanger Forschungsbemühungen so gut wie nichts! Die einzigen, weitgehend gesicherten Fakten sind die sehr langfristigen – mehrere 10.000 Jahre – veränderlichen Einflüsse der Milankovitch-Zyklen. Diese Einflüsse sind für die aktuelle Klima-Diskussion irrelevant. Ferner hat man die Abkühlungseffekte nach globalwirksamen Extrem-Vulkanausbrüchen messen und gut erklären können. Damit ist aber schon fast das Ende der Erkenntnis erreicht. Die Ursachen der großen dekadalen Oszillationen, zu denen auch der populär bekannte El Nino gehört, liegen immer noch im Dunkeln, denn Länge, Stärke, Eintritts- und Endzeitpunkte dieser klimabestimmenden Oszillationen können von der Wissenschaft bis heute nicht angegeben werden.

Die Ursachen der Klimafluktuationen – so etwa der inzwischen auch vielen Laien geläufige Übergang vom warmen Mittelalter bis herunter zur kleinen Eiszeit und danach die Wiedererwärmung bis heute – sind völlig ungeklärt. Der wahrscheinlichste Ursachenkandidat ist nach Einschätzung des Verfassers die Variation des Sonnenmagnetfeldes vermittels noch nicht endgültig geklärter, indirekter Einflüsse, bei denen die kosmische Partikelstrahlung eine Mittlerrolle spielt. Zur Bestätigung dieser Hypothese wurden bereits wissenschaftliche Fortschritte erzielt, von einem Durchbruch kann aber noch keine Rede sein. Auch die numerische Stärke des Treibhauseffekts des CO2 kann physikalisch nur grob berechnet werden. Die alles entscheidenden Einzelheiten und insbesondere Abschwächungs- oder Verstärkungsmechanismen verbergen sich hinter einer kaum zu bewältigenden Komplexität der Vorgänge in Atmosphäre und Ozeanen.

Zum IPCC: Das IPCC ist eine politische, keine wissenschaftliche Institution. Es wird von Ökoaktivisten und politischen Drahtziehern dominiert, die sich Advokatenforschern bedienen, deren ideologischen oder finanziellen Interessen wiederum mit der angekündigten „Klimakatastrophe“ verbunden sind. Die Politik hat die „Klimakatastrophe“ als wirksamstes und einfachstes Mittel zur Erhöhung von Steuern entdeckt, denn nichts ist einfacher als die Luft zu besteuern. Zu den  Hintergründen, Personen und Aktivitäten des IPCC sind die gut recherchierten, kritischen Bücher der kanadischen Journalisten Donna Lafromboise zu empfehlen.

An dieser Stelle sei der Vollständigkeit halber angemerkt, dass die hier verwendeten Bezeichnungen "Klimabericht des IPCC" nicht die offiziellen Bezeichnungen des IPCC sind. Die richtigen Bezeichnungen, Versionen und "time-tables" des IPCC können der Webseite des IPCC (Okt. 2013) entnommen werden (hier). So lautet beispielsweise die richtige Bezeichnung der hier vereinfacht als Klimabericht AR5 bezeichneten IPCC-Veröffentlichung "Bericht der Arbeitsgruppe 1 (Physikalische Grundlagen) in einer akzeptierten aber noch nicht endgültig verabschiedeten Fassung".

Allgemeines zum angeblichen wissenschaftlichen „Klimakonsens“: Konsens kann es in einer ordentlich funktionierenden Wissenschaft grundsätzlich niemals geben, dies wäre ihr Ende. Wissenschaftliche Erkenntnisse müssen jederzeit überprüfbar sein und in Frage gestellt werden können, andernfalls gibt es keinen wissenschaftlichen Fortschritt. Dies ignorieren viele Politiker und vor allem Advokatenforscher, wie es zuletzt auch die jüngsten Beispiele zeigen. IPCC-Meinungsvertreter versuchten in Verhandlungen, die Aussagen des IPCC über das mittelalterliche Wärmeoptimum oder die jüngste Temperaturstagnation aus dem SPM von 2013 herauszuhalten.

Tatsächlich übersteigt aber auch die messbare Qualität und Anzahl der Fachwissenschaftler, die anderer Auffassung als das IPCC sind, die der IPCC-Meinungsvertreter um Längen. Unter den „Klimaskeptikern“ befinden sich beispielsweise zwei Physik-Nobelpreisträger, Ivar Glaever und Robert Laughlin, ferner der weltberühmte Physiker Freeman Dyson. Von der Gegenseite ist solch eine fachliche Qualität unbekannt. Davon berichten die deutschen Medien freilich nichts. Inzwischen scheinen sich die Berichtsverhältnisse – als Vorreiter ist hier die große Schweizer Wochenzeitschrift "Weltwoche" lobend hervorzuheben – allmählich zu bessern [Wel]. Die unzähligen Petitionen und Manifeste von Fachleuten gegen die „IPCC-Wissenschaft“ werden allerdings bis heute von den bundesdeutschen Medien dem Publikum verschwiegen [hier].

Was muss die deutsche Politik tun? Sie sollte aufhören, kostspielige Maßnahmen mit „Klimaschutz“ zu begründen und gar in Gang zu setzen. Real in internationaler Zusammenarbeit lösbare Umweltprobleme gibt es genug. Es seien nur die Zerstörung des Fischbestands der Weltmeere, der Tropenwälder und der Artenvielfalt genannt. Eine Begrenzung der Weltbevölkerung könnte durch Hebung des Bildungsstandes junger Frauen in Entwicklungsländern sowie höheren Wohlstands dieser Länder erzielt werden. Jeder für solche vernünftigen Maßnahmen ausgegebene Euro ist sinnvoll, jeder für „Klimaschutz“ ausgegebene verloren. Leider bevorzugt die Politik Maßnahmen, deren Wirkungen UNMESSBAR sind – dies zu ihrem eigenen Schutz und zum leichteren Betrug des Wählers.

Prof. Dr. Horst-Joachim Lüdecke (Physiker), EIKE Pressesprecher

Quellen ohne Verlinkung

[Bee] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[Beh] C.-E. Behre: A new Holocene sea-level curve for the southern North Sea, Boreas 36, 82-102, Oslo. ISSN 0300-9483 (2007)

[Chr] B. Christiansen, F.C. Ljungqvist: The extra-tropical Nprthern Hemisphere temperature in the last two millenia: reconstructions of low-frequency variability, Clim. Past, 8, 765-786, 2012

[Hol] H. Holzhauser: Auf dem Holzweg der Gletschergeschichte, Sonderdruck aus „Mitteilungen der Naturforschenden Gesellschaft in Bern“, Band 66 (2009)

[Nie] Die Information verdankt der Verfasser Herrn Lutz Niemann

[Rei] J.H. Reichholf: Eine kurze Naturgeschichte des letzten Jahrtausends, S. Fischer (2007)

[Wel] Weltwoche, Nr. 39.13 (2013), „Wahrsager, nicht Wissenschaftler“ sowie „Skeptiker im Aufwind“

Related Files




Die pazifische dekadale Oszillation kann die aktuelle Temperaturpause und die globale Erwärmung von 1975-1998 erklären

Die weiteren Ausführungen folgen dem Artikel der renommierten US-Klimaforscherin Judith Curry, für Details wird auf ihren Aufsatz verwiesen (hier). KX verwenden das bekannte GFDL Modell (hier) und führten damit Simulationen durch. Diese unterschieden sich durch die in das Modell eingesetzten Klimaantriebe. Neu an der Arbeit von KX war die Berücksichtigung der gemessenen Meerestemperaturanomalien im östlichen äquatorialen Pazifik. Die Ergebnisse der Modellrechnungen zeigt Fig. 1

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/presentation17.jpg

Fig. 1: Maßgebend sind die beiden rotgelben Kurven oben und unten. Oben wird die Messung gezeigt, unten das Modellergebnis OHNE den Einfluss des anthropogenen CO2, also nur durch die interne natürliche Variabilität verursacht. Die gute Übereinstimmung beider Kurven ist verblüffend gut.

Die Messung zeigt von 1975-1998 einen Temperaturanstieg von 0,68 °C, das Modell von 0,4 °C. Somit kann das Modell von KX mehr als die Hälfte der globalen Erwärmung mit natürlicher Klimavariabilität erklären. Bisher wurde dagegen die Erwärmung seitens der AGW-Verfechter und des IPCC ausschließlich dem anthropogenen CO2 zugeschrieben.

Das Ergebnis von KX passt zudem bestens mit den Temperaturänderungen zusammen, die man aus guten, bis etwa 2000 Jahre zurückreichenden Proxy-Reihen entnehmen kann. So enthält z.B. die Proxy-Reihe von Christiansen/Ljungqvist bereits vor 1700 n.Chr. (hier) mehrfach Temperatursteigerungen, aber auch Temperaturabfälle, die die des 20. Jahrhunderts an Stärke und Geschwindigkeit übertreffen. In zwei Publikationen des Verfassers (hier, hier) wird außerdem gezeigt, dass der Temperaturabstieg des 19. Jahrhunderts in seiner Stärke dem erneuten Anstieg im 20. Jahrhundert nicht maßgebend nachsteht. Anthropogenes CO2 erscheint daher zur Erklärung des globalen Temperaturverlaufs im 20. Jahrhundert nicht erforderlich, und die Klimasensitivität des CO2 wird mit hoher Wahrscheinlichkeit vom IPCC stark überschätzt.  

Es wäre pikant, wenn ausgerechnet Klimamodelle, deren Versagen der bekannte Klimaforscher Hans von Storch in einem SPIEGEL-Interview beklagte (hier), zwar einen ihrer vielen Mängel (nämlich die aktuelle globale Abkühlung nicht erklären zu können) zu beheben vermögen, dies aber nur zu dem Preis eines "Freispruchs für das anthropgene CO2".




Umweltkonferenz – Onlineradio-Live am So., 18. August von 20 – 22 Uhr

Ist die Energie­wende wirklich alternativlos? Die Bundesregierung will uns das einreden. Für eine wachsende Zahl von Bürgern ist Strom zum unbezahlbaren Luxusgut geworden. Unser Strompreis wird sich auch in Zukunft erheblich verteuern, unsere Versorgungssicherheit mit elektrischem Strom sinken und unsere Naturumgebung durch immer mehr Windräder weiteren Schaden nehmen. Beim Okitalk-Klimagipfel können sich interessierte Bürger über die aktuelle Situation aus Sicht unabhängiger Wissenschaftler und er­fahrener Ingenieure informieren. Die (politisch unabhängigen, nicht der PDV angehörigen) Experten Dipl.-Physiker Professor Dr. Horst-Joachim Lüdecke, Dipl.-Ing. Sven Johannsen (Spezialist für Windmessungen) und Ing. Stefan Doliwa schildern, welche Risiken Deutsch­land eingeht und beantworten Hörerfragen".

Zum hören der Sendung sowie zum Prozedere des Teilnehmens mit Hörerfragen (hier). 




Das Paradigma der modernen Naturwissenschaft und die Hypothese der anthropogenen globalen Erwärmung

Geschichtliches

Unter „Paradigma“ versteht man eine grundsätzliche Denkweise, Lehrmeinung oder Weltanschauung. Der Begriff wurde von dem Göttingen Physiker Georg Christoph Lichtenberg (1742-1799) eingeführt. Insbesondere unterliegen die modernen Naturwissenschaften einem Paradigma. Der Wissenschaftstheoretiker Thomas S. Kuhn (1922-1996) definierte ein wissenschaftliches Paradigma (hier stark vereinfacht wiedergegeben) wie folgt:

– was beobachtet, gemessen und überprüft wird

– die Art und Weise der Fragen, die im Zusammenhang mit dem untersuchten Gegenstand oder Phänomen gestellt werden

– die Interpretation der Ergebnisse einer wissenschaftlichen Untersuchung

Die Überwindung der antiken und mittelalterlichen Physik verdanken wir dem Philosophen Wilhelm von Ockham 1288-1347) und dem italienischen Physiker Galileo Galilei (1564-1642). Ockham formulierte das Sparsamkeitsprinzip für Hypothesen „entia non sunt multiplicanda präter necessitatem“ (Die Zahl der Hypothesen ist nicht über das Notwendige hinaus zu erweitern). Nachfolgend, frei nach Wikipedia, ein Anschauungsbeispiel für dieses Prinzip:

Nach einem Sturm ist ein Baum umgefallen. Aus “Sturm“ und “umgefallener Baum“ ist die einfache Hypothese ableitbar, dass der Baum vom Sturm umgeworfen wurde. Diese Hypothese erfordert nur die eine Annahme, dass der Wind den Baum gefällt hat, nicht ein Meteor oder ein Elefant. Ferner ist bereits ein bewährter Mechanismus bekannt, nämlich die Kraft, die der Wind auf einen Baum ausübt. Die alternative Hypothese “der Baum wurde von wilden, 200 Meter großen Außerirdischen umgeknickt“ ist laut Ockhams Hypothesensparsamkeit (auch als Ockham’s Rasiermesser bezeichnet) weniger hilfreich, da sie im Vergleich zur ersten Hypothese mehrere zusätzliche Annahmen erfordert. Zum Beispiel die Existenz von Außerirdischen, ihre Fähigkeit und ihren Willen, interstellare Entfernungen zu bereisen, die Überlebensfähigkeit von 200 m hohen Wesen bei irdischer Schwerkraft usw. Solange nicht anderweitige zwingende Gründe dagegen sprechen, ist daher an der EINFACHSTEN Hypothese von der Sturmkraft festzuhalten.

Um Missverständnisse zu vermeiden: Das Ockham-Prinzip schließt keine Hypothese aus oder verbietet sie gar. Jede Hypothese kann weiterhin untersucht werden. Das Entscheidende der Forderung Ockhams ist nur, dass der EINFACHSTEN Hypothese – falls eine solche existiert und sie das fragliche Phänomen zu beschreiben vermag – der VORZUG zu geben ist. Dies so lange, wie diese einfachste Hypothese nicht zu Gunsten einer anderen Hypothese widerlegt wurde.

Von Galilei wurde schließlich in der Physik die absolute Priorität der Messung und des Experiments vor der Theorie oder Spekulation eingeführt. Anstatt der Autorität des Aristoteles zu folgen, der die Fallgeschwindigkeit auf das Gewicht des fallenden Körpers bezog (diese Auffassung hatte gut 2000 Jahr lang Gültigkeit), maß Galilei einfach die Orts- gegen die Zeitzuwächse von fallenden Körpern und fand das moderne Resultat, dass die Fallgeschwindigkeit (ohne Luftreibung) weder von Form noch vom Gewicht des fallenden Körpers abhängt.

In diesem Zusammenhang sei daran erinnert, dass bereits der berühmte Staufer-Kaiser Friedrich II (1194-1250) lange vor Galilei das moderne narurwissenschaftliche Paradigma des Primats der Beobachtung bzw. der Messung in seinen medizinischen und naturkundlichen Forschungen befolgte. Er war sich dabei freilich der enormen Bedeutung seines Vorgehens nicht bewusst. Sein Buch „De arte venandi cum avibus (von der Kunst mit Vögeln zu jagen)“ basierte AUSSCHLIEßLICH auf sorgfältiger Naturbeobachtung. Sein Vorgehen war ein (zu früher) Bruch mit der mittelalterlichen Vorgehensweise. Er unterließ – für die damalige Zeit sensationell und anstößig – die üblichen philosophischen Spekulationen sowie das Zitieren von Aristoteles. Noch bis in die Neuzeit hinein war sein Buch über die Falkenjagd als Standardwerk im Gebrauch.

Das Paradigma der modernen Naturwissenschaft und die AGW-Hypothese

Einstein wurde bekanntlich wegen seiner Relativitätstheorie (RT) von Vertretern der „deutschen Physik“ mit folgendem Argument angegriffen: „Bereits Hunderte hochrangige Theoretiker haben die RT widerlegt“. Seine erstaunte Antwort lautete: „Wieso Hunderte, eine Widerlegung würde reichen“. Aus dieser Antwort geht das Paradigma der modernen  Naturwissenschaft hervor: Eine physikalische Theorie ist gemäß aktuellem Kenntnisstand falsch, wenn sie EINMAL widerlegt wurde. Für eine Widerlegung ist es heute üblich, dass sie in einer begutachteten Fachzeitschrift erscheint und in ihr natürlich keine gravierenden Fehler auffindbar sind. Weitere Widerlegungen sind im Prinzip überflüssig und höchstens pädagogisch hilfreich.

Von der „postmodernen“ Klimawissenschaft der AGW-Vertreter ist dieses immer noch gültige Paradigma inzwischen längst aufgegeben worden. Statt dessen werden bevorzugt:

1) Ein angeblicher Konsens von Fachleuten, den es zwar in der Realität nicht gibt (hier), der aber von willfährigen Medien immer wieder nachgeplappert und von der unterstützenden Politik wie eine Monstranz vorangetragen wird. Selbst wenn es einen Konsens gäbe, wäre er für die wissenschaftliche Wahrheit bedeutungslos.

2) „Widerlegungen“ unbequemer Fachpublikationen durch „cherry picking“ von unbedeutenden Fehlern (solche sind so gut wie in jeder, sogar den besten Arbeiten aufzufinden), die mit dem Kernpunkten der Arbeit nichts zu tun haben, aber von den Kritikern überhöht werden und die Arbeit angeblich wertlos machen sollen. Dieses Prinzip wird regelmäßig bei unliebsamen Arbeiten angewendet, so dass ein uns unbekannter US-Blogger die folgende hübsche Charakterisierung dazu verfasste.

The paper will be thoroughly refuted. I do not know as yet by who, or on what grounds, or where the definitive refutation paper will appear. But it will be refuted and dismissed in no time, never to be talked about again (except by “deniers“ and “flat-earthers“). That is thankfully the way we operate in climate science. Trust us, we’re scientists. Everything is under control. Nothing to see here, move on.

3) Komplettes Ignorieren von unliebsamen Fachpublikationen, von gegenteiligen Fachkollegen-Meinungen spwie Vermeiden öffentlicher Diskussion. Hier tut sich insbesondere die Politik hervor. Es kann kommen, was wolle, die Politik nimmt Fakten nicht zur Kenntnis und wundert sich dann noch über zunehmende Politikverdrossenheit. Das „Argument“ ist dabei stets unangreifbar formal: Man sei leider fachunkundig und vertraue ganz dem Weltklimarat (IPCC). Na dann – gute Nacht!Der Politik dürfte wohlbekannt sein, dass das IPCC ein Verein von Aktivisten ist, der von einem indischen Eisenbahningenieur geleitet wird. Die meisten Publikationen desIPCC werden nicht einmal von (Advokaten)Fachleuetn, sondern von grün-ideologischen Laien verfasst. Dies belegen die exzellent recherchierten Bücher der kanadischen Journalistin Donna Lafromboise.

Mit dem Abstellen des eigenen Denkens seitens der maßgebenden Politiker und fast aller Abgeordneten des deutschen Bundestages verfolgt die deutsche Politik eine intellektuelle Marschlinie, deren Befolgung die frühe Menschheit auf alle Tage in der Steinzeit belassen hätte. Insbesondere vor ehemaligen Umweltministern wie Angela Merkel, Röttgen und Altmeier ist die Aufklärung, also das eigene Nachdenken und die eigenständige Überprüfung der Faktenbasis ihrer Politik definitiv spurlos vorübergegangen – zum Schaden des des deutschen Volkes und ihres geleisteten Amtseides.

Wir wollen nunmehr die AGW-Hypothese unter dem Kriterium des in allen anderen Disziplinen der Naturwissenschaft (außer einem Teil der Klimaphysik) immer noch gültigen Paradigma betrachten. Dazu seien zuerst die wichtigsten, unbestrittenen Fakten aufgezählt:

I) Bereits für die letzten 2000 Jahre sind aus Proxydaten (Baumringen, Stalagmiten, Sedimenten, Eisbohrkernen usw.) Temperaturen und Temperaturänderungen belegt, die in vielen Fällen diejenigen des 20. Jahrhunderts an Stärke und Geschwindigkeit übertrafen (hier). Vor dieser Zeit, etwa zu Ende der Weichsel-Kaltzeit waren die Variationen noch weit stärker.

II) Es gibt bis heute keine begutachtete Facharbeit, die einen maßgebenden Einfluss des anthropogenen CO2 auf Werte der globalen Mitteltemperatur belegt.

  1. III) Alle Prognosen sowie die Aussagen des IPCC und meinungsverwandter Institute wie beispielsweise des Potsdamer Instituts für Klimaforschungsfolgen (PIK) über die bisherige und die zukünftige Temperaturentwicklung basieren auf Klima-MODELLEN, d.h. auf Theorie, nicht auf Messungen.

    IV) Klimamodelle konnten die bisherige Temperaturentwicklung nicht nachvollziehen (hier).

Die AGW-Hypothese verstösst (s. I) zunächst gegen das Prinzip von Ockham. Die gemäß Ockham vorzuziehende Hypothese ist die natürliche Variabilität von Temperaturen und aller Klimata auf dieser Erde – insbesondere auch zur aktuellen Zeit. Die AGW-Hypothese verstösst weiterhin (s. II bis IV) gegen das aktuelle naturwissenschaftliche Paradigma, weil die Theorie (Klimamodelle) den Messungen vorgezogen werden und weil Klimamodelle die Messungen noch nicht einmal wiedergeben können. Um Missverständnisse zu vermeiden: Klimamodelle können wertvolle Forschungshilfsmittel sein. Sie haben nur nichts bei Prognosen oder Projektionen der Klimazukunft zu suchen. In diesen Fällen ist ihre Anwendung tiefstes Mittelalter und die Ergebnisse so wertvoll wie mittelalterliche Syllogismen.

In diesem Zusammenhang sei nebenbei daran erinnert: Der Direktor des PIK, Prof. Hans-Joachim Schellnhuber, besitzt die Chuzpe, seine „Große Transformation (= Ökodiktatur, weil nur unter Beseitigung demokratischer Spielregeln möglich) mit dem kuriosen sachlichen Unsinn eines zu erreichenden „Zwei-Grad-Ziels“ der Öffentlichkeit anzudienen. Er ist dabei – pikanterweise – gleichzeitig Mitautor eines begutachteten Fachaufsatzes in dessen Zusammenfassung nachgelesen werden kann, dass im Beobachtungszeitraum des 20. Jahrhunderts keine maßgebende globale Erwärmung auffindbar ist (hier). Dieser Widerspruch wurde schon mehrfach in den EIKE-News thematisiert – ohne Reaktionen, Recherchen oder gar Protesten der Medien und der verantwortlichen Politik ob dieses eklatanten Widerspruchs des „Klimaberaters“ unserer Kanzlerin. Dies belegt mustergültig die Qualität des kritischen Geisteszustandes der deutschen Intelligenz. Die Autoren wissen sehr wohl, dass Anspielungen auf die braune Vergangenheit hierzulande verpönt sind. Es ist aber auch beim besten Willen nicht zu übersehen, dass die intellektuelle Leere (Wohlstandsverwahrlosung), Feigheit, Profitgier und das Wegducken vor den Machenschaften der Ökorattenfänger aktuell ähnlichen Mustern folgen wie vor 70 Jahren gegenüber denen mit brauner Farbe.

Wie sieht es nun mit der dritten wichtigsten Säule, den wissenschaftlichen Facharbeiten aus, welche die AGW-Hypothese falsifizieren bzw. eine Falsifizierung zumindest stark nahelegen? Gibt es sie? Tatsächlich gibt es sogar bereits eine ganze Reihe solcher Publikationen, wobei, wie schon betont wurde, bereits eine einzige ausreichen würde. Es sind dies die nachfolgend aufgezählten Arbeiten (Vollständigkeit ist dabei nicht angestrebt). In einer Kurzbeschreibung wird das Ergebnis dieser Arbeiten jedesmal in wenigen Sätzen charakterisiert. Zur Erläuterung ist vorab anzumerken. Die Klimasensitivität des CO2 ohne Rück- oder Gegekoppelungseffekte wird in der Fachliteratur zwischen 0,45 °C (hier) und 1,1 °C (die 1,1 °C sind vom IPCC nur indirekt vermittels einer Berechnungsformel im 2001-Bericht angegeben) genannt. Unter „Klimasensitivität“ wird die globale Temperaturerhöhung verstanden, die sich bei (hypothtetisch) verdoppelter CO2-Konzentration der Atmosphäre einstellt. Im Folgenden soll der Bereich zwischen 0,45 °C und 1,1 °C hier kurz als „Normalbereich“ bezeichnet werden. Er ist unbedenklich und kann zu keinem Klima-Katastrophenszenario Anlass geben. Nur in fiktiven Klimamodellen können Werte bis weit über 2 °C auftreten.

Fachpublikationen welche die AGW-Hypothese widerlegen

R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011) (hier). Kurzbeschreibung: In der Arbeit wird an Hand von Messungen nachgewiesen, dass die Klimasensitivität des CO2 kleiner ist als der Normalbereich.

R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011). Kurzbeschreibung: In der Arbeit werden ähnlich wie bei Lindzen/Choi negative Rückkoppelungseffekte nachgewiesen, die eine Klimasensitivität kleiner als der Normalbereich belegen.

R.W. Spencer, and W.D. Braswell: On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance, Remote Sensing 3(8) (2011) (hier). Kurzbeschreibung: Diese Arbeit stellt keine direkte Widerlegung der AGW-Hypothese dar, legt eine Widerlegung aber nahe. Es wird gezeigt, warum der Einfluss der Wolken einen positiven ffedback vortäuschen kann.

R.W. Spencer, and W.D. Braswell: On the diagnosis of radiative feedback in the presence of unknown radiative forcing, Journal of Geophysical Research, Vol. 115 (2010) (hier). Kurzbeschreibung: Auch diese Arbeit stellt keine direkte Widerlegung der AGW-Hypothese dar, legt eine Widerlegung aber nahe.

G. Paltridge et al.: Trends in middle- and upper-level tropospheric hunmidity from NCEP reanalysis data, Theor. Appl. Climatol. 98 (2009) (hier). Kurzbeschreibung: In der Arbeit wird an Hand von Ballonmessungen belegt, dass es kein positives Feedback gibt. Die Größe des negativen Feedback kann auf Grund der Messunsicherheiten nicht quantifiziert werden, nur das Vorzeichen ist sicher. Daher kann die Klimasensitivität des CO2 nicht größer als der Normalbereich sein.

M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012). Kurzbeschreibung: Die Arbeit zeigt mit Hilfe einer modernen statistischen Methode, dass kein Zusammenhang zwischen ansteigenden CO2-Konzentrationen und globalen Mitteltemperaturen besteht.

H. Harde: How much CO2 really contributes to global warming? Spectrospcopic studies and modelling of the influence of  H2O, CO2 and CH4 on our climate, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011) (hier). Kurzbeschreibung: Die Arbeit belegt an Hand von spektralen Labormessungen, dass die Klimasensitivität des CO2 am unteren Randdes Normabereichs liegt.

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011) (hier). Kurzbeschreibung: Die Arbeit belegt an Hand von ca. 2500 Langzeit-Temperaturreihen, dass die Temperaturänderungen im 20. Jahrhundert nur etwa zu einem Drittel nicht im Rahmen natürlicher Variationen liegen. Der Grund für das Verhalten der „unnatürlichen“ Reihen ist unbekannt. Diese Arbeit stellt keine direkte Widerlegung der AGW-Hypothese dar, legt eine Widerlegung aber nahe.

Fazit

Es ist nur ein Schluss zulässig: Die AGW-Hypothese einer maßgebenden, menschgemachten Erwärmung ist mit an Sicherheit grenzender Wahrscheinlichkeit falsch. Die Gruppen, die sie weiterhin in den Vordergrund stellen, machen sich des Verstoßes gegen das Paradigma der modernen Naturwissenschaft einschließlich des Prinzips von Ockham schuldig. Die Art und Weise wie man zu den Erwärmungsprognosen kommt, genügt in keiner Weise den Kriterien, die an wissenschaftliche Arbeit zu stellen sind. Wenn der Öffentlichkeit dies als „Wissenschaft“ verkauft wird, dann ist das nichts weiter als Scharlatanerie.

Related Files




Eine neue Methode, wie von Bürgerinitiativen Großwindradanlagen verhindert werden können

Windradanlagen können in einer modernen Industrienation allein schon wegen der geringen Leistungsdichte des Windes niemals wirtschaftlich sein. Sie sind fatal für unsere geschützten Greifvögel und Fledermäuse (hier). Die Propagierung von Windrädern weist daher die verantwortlichen Kommunalpolitiker als Umweltschädiger aus, die für den eigenen Profit oder für die Gemeindekasse billigend das Töten von Flugtieren, die Verschandelung ihrer Landschaftsumgebung und die Schädigung von Anrainern in Kauf nehmen. Bundes- und Landespolitiker, wie insbesondere die grüne Landesregierung in Baden-Württemberg, gehören ebenfalls zu den Umweltschädigern, denn sie schaffen die gesetzlichen Voraussetzungen für die Zerstörung unserer Natur.

Die Verlogenheit der grünen Windrad-Agenda geht schon daraus hervor, dass einschlägige grüne Aktivisten zwar den Schutz des Juchtenkäfers instrumentalisierten (um den Stuttgarter Hauptbahnhofneubau zu torpedieren), das tägliche Vogel- und Fledermaustöten durch Windräder aber bis heute schweigend und ungerührt billigen. Die Farbe „grün“ hat längst nichts mehr mit Umweltschutz zu tun, sondern steht heute ausschließlich für das ideologische Ziel der Gesellschaftsveränderung und der Deindustrialisierung Deutschlands.

Es bleibt zu hoffen, dass dies die deutschen Wähler bei der Bundestagswahl im September berücksichtigen und dem grünen Umweltzynismus, zu dem auch die extrem naturschädlichen Maismonokulturen für Biogas gehören, eine deutliche Absage erteilen. Da alle großen Parteien, einschließlich der inzwischen wohl verschwindenden FDP, den energiepolitischen Irrsinn der „Energiewende“ mittragen, ist die Auswahl auf dem Stimmzettel freilich nicht groß. Zur Zeit sieht es aber so aus, als ob die AfD eine sachgerechte Energie- und Klimapolitik in ihr Parteiprogramm aufnehmen wird. Es gibt also zumindest einen Hoffnungsschimmer für die wirtschaftliche Vernunft und den Schutz unserer Umwelt. 

Gegen die Bestrebungen der Bundes-, Landespolitikpolitiker sowie vieler Gemeinden, Windparks  zu errichten, formieren sich inzwischen immer mehr Bürgerinitiativen, ein stellvertretendes Beispiel unter unzähligen weiteren hier. Im vorliegenden Beitrag soll im Folgenden nur die Problematik der Wirtschaftlichkeit von Windparks im Binnenland beleuchtet werden. Die bereits angesprochene Nutzlosigkeit und Umweltschädigung von Windradanlagen wird nicht thematisiert. Vergessen oder nachrangig sind diese Aspekte deswegen nicht!

Um eine verlässliche Wirtschaftlichkeitsprognose für den Stromertrag aus Windrädern erstellen zu können, ist die Befolgung der nachstehenden Agenda gemäß anerkannter Praxis in der Windradbranche obligatorisch:

Es muss eine Messung mit einem fest installierten Mast über eine Zeitdauer von mindestens einem Jahr auf möglichst mindestens 2/3 der geplanten Nabenhöhe der Windkraftanlagen durchgeführt werden.

Ergänzend sind mastlose Messungen mittels Fernerkundungssystemen wie SODAR oder LIDAR zulässig. Die alleinige Verwendung von Fernerkundungssystemen (LIDAR oder SODAR) ohne Mastmessung erlaubt wegen der Fehleranfälligkeit dieser Messungen allerdings keine brauchbare Aussage über die Windhöffigkeit eines Standortes.

Auf diese vorbereitenden Messungen kann nur dann verzichtet werden, wenn Langzeitdaten von unmittelbar benachbarten Windparks vorliegen. Windatlanten, wie sie unter anderem vom TÜV Süd herausgegeben werden, lassen allenfalls eine erste (oft hoffnungslos falsche) Grobabschätzung für einen Standort zu. Die Herausgeber solcher Atlanten betonen denn auch zutreffend, dass die angegebenen Werte lediglich Näherungen sind, deren Verifizierung durch vor Ort durchgeführte Messungen unverzichtbar ist!

Bei allen einschlägigen Strömungsmaschinen, wie beispielsweise Turbinen, (rückwärts laufenden) Kreiselpumpen und schließlich auch Windrädern geht die Strömungsgeschwindigkeit des Strömungsmediums mit der dritten Potenz in die von der Strömungsmaschine erbrachte Leistung ein (Leistung = Energie / Zeit). Diese unabänderliche physikalische Naturgesetzmäßigkeit ist für die Wirtschaftlichkeit eines Windparks entscheidend.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/v3Gesetz.jpg

Bild 1: Nur ausreichend hohe Windgeschwindigkeiten erlauben eine akzeptable Leistungsabgabe des Windrads. Ein Windrad, wie z.B. die weiter unten erwähnte Enercon E-92 ist für die Nennleistung aus rund 14 m/s Windgeschwindigkeit ausgelegt (bei anderen Typen ändert sich dieser Wert). Weht der Wind nur halb so stark, also mit 7 m/s, liefert die E-92 nur noch den Bruchteil von 1/(2∙2∙2) oder 12,5% der Nennleistung.

Weil die hohen Strömungsgeschwindigkeiten überproportional zum Energieertrag des Windrads beitragen, wird nun auch noch die Häufigkeitsverteilung der unterschiedlichen Windgeschwindigkeiten zu einem maßgebenden Faktor der Energieeffizienz. Es ist nützlich, sich diesen Zusammenhang einmal an einem, zum Zweck der Veranschaulichung vereinfachten Zahlenbeispiel vor Augen zu führen. Betrachten wir dazu zwei unterschiedliche Windradstandorte A und B, die beide die gleiche jahresgemittelte Windgeschwindigkeit von 4 m/s aufweisen mögen:

Im Standort A komme diese Windgeschwindigkeit konstant über das ganze Jahr vor. Im Standort B ergebe sich das Jahresmittel dagegen aus zwei konstanten unterschiedlichen Geschwindigkeiten, zum einen aus v = 7 m/s über die Zeitdauer eines halben Jahres und aus v = 1 m/s über die restliche Zeit. Der Jahresmittelwert von B ist daher der gleiche wie von A, nämlich 70,5+10,5 = 4 m/s. Die Energieerträge beider Standorte weichen jedoch dramatisch voneinander ab. Das Verhältnis der Jahresenergieerträge beträgt nach dem geschilderten Potenzgesetz [7∙7∙70,5 + 1∙1∙1∙0,5] / (4∙4∙4∙1) = 172/64 = 2,7. Der Standort B liefert daher rund den DREIFACHEN Jahresenergieertrag von A  – bei wohlgemerkt gleichen jahresgemittelten 4 m/s Windgeschwindigkeit. 

Das folgende Bild zeigt eine Messung aus der Praxis. Die beiden Standorte A und B unterscheiden sich praktisch nicht in ihrer mittleren Windgeschwindigkeit von rund 6 m/s. Der Standort B liefert aber das 1,35-fache des linken Standorts an elektrischer Energie. Der Grund ist sein Anteil an Windgeschwindigkeiten über 9 m/s, den Standort A nicht aufweist. Diesen Nachteil kann A auch mit seinem wesentlich höheren Anteil an v = 6 m/s nicht wettmachen.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Messung.jpg

Bild 2: Eine konkrete Messung der Häufigkeitsverteilung für zwei Standorte

Fazit: Bei gleicher Durchschnittswindgeschwindigkeit, aber unterschiedlicher Häufigkeitsverteilung der Windgeschwindigkeiten zweier miteinander verglichener Standorte können sich starke Differenzen im Energieertrag ergeben. Die Kenntnis der jahresgemittelten Wind-Durchschnittsgeschwindigkeit alleine ist daher für die Abschätzung der Energieausbeute eines Windrades nicht ausreichend.  Der Standort mit größeren Windgeschwindigkeitsfluktuationen – wenn die Fluktuationsmaxima bei relativ großen Windgeschwindigkeiten liegen – liefern infolge des erwähnten Potenzgesetzes einen größeren Energieertrag. Es ist daher unverzichtbar, nicht nur die mittlere Windgeschwindigkeit, sondern auch die Häufigkeit der Geschwindigkeitsverteilung über das Jahr zu kennen, um den zukünftigen Energieertrag einer Windradanlage realistisch abschätzen zu können. Diese Forderung können nur Langzeitmessungen erfüllen.

Kein Planer, der am Energieertrag seiner Anlage ernsthaft interessiert ist, kommt somit um eine lang andauernde Messung herum (von mindestens einem Jahr). Da inzwischen von vielen Windparkplanern oft alle Bedenken bezüglich der Wirtschaftlichkeit beiseite geschoben und zunächst nur die DWD- oder TÜV-Karten für eine Vorabprognose herangezogen werden sind erhebliche Zweifel an der späteren Real-Wirtschaftlichkeit vieler derzeitig geplanter Projekte angebracht.

Sven Johannsen, einer der Autoren dieses Artikels, befasst sich im internationalen Rahmen mit der Bewertung und Prüfung von Investitionsgütern im Bereich erneuerbarer Energien und verfügt unter anderem auch über die erforderlichen professionellen Messeinrichtungen zur Windmessung. Als Fachmann für meteorologische Windmessungen und Windertragsgutachten hat er sein Handwerk in einer der windstärksten OnShore-Gegenden unserer Erde erlernt, der kanadischen Provinz Prince Edward Island. Er berät und unterstützt erfolgreich viele deutsche Bürgerinitiativen.

Ein konkretes Beispiel, die Gemeinde Birkenau im Odenwald, ist bestens geeignet, die wirtschaftliche Unsachgemäßheit aktuell geplanter Windradparks im deutschen Binnenland zu entlarven. Ein Planer möchte in Birkenau drei sogenannte Schwachwindanlagen des Typs Enercon E-92  aufstellen. Er ging gemäß Windatlas von einer vorhandenen Jahresdurchschnitts-Windgeschwindigkeit von 5,75 m/s auf einer Höhe von 140 m über Grund aus. Sven Johannsen hatte dort im Auftrag einer Bürgerinitiative mit einem 60 m Windmessmast und einer über 6 Monate andauernden Messung nachgewiesen, dass mit einer Durchschnittsgeschwindigkeit von nur 3,6 m/s, bezogen auf die Nabenhöhe der geplanten WKA und unter Berücksichtigung der lokalen Häufigkeitsverteilung des Windes sich noch nicht einmal die Anschaffungskosten der drei geplanten Anlagen in 20 Jahren erzielen lassen! In diesem Zusammenhang ist zu erwähnen, dass aus Messungen in tieferer Höhe als der Windradnabenhöhe durch Umrechnung zuverlässig auf die Verhältnisse in Nabenhöhe geschlossen werden kann hier.

Mit diesen Sachargumenten konnte die ortsansässige Bürgerinitiative die Mehrheit der politischen Vertreter ihrer Gemeinde davon überzeugen, für die Aufstellung eines gemeindebezogenen Teilflächennutzungsplans zu stimmen, damit selber das Ruder in die Hand zu nehmen und den Windparkplaner erst einmal außen vor zu lassen.

Windmessergebnisse erlauben somit, eine konkrete Abschätzung des erwarteten Energieertrags vornehmen zu können, was die meisten Projekte schon im Vorfeld ausschließt und auch viele Gemeindemitglieder, bei denen die Profiterwartung an erster Stelle steht, stark ernüchtert. Dies hilft dann dem allgemeinen Bürgerwillen der betroffenen Gemeinden, die vielen Groß-Windkraftanlagen und Windparkbauvorhaben zu STOPPEN, die mit dem allseits berüchtigten § 35 des BauGB ermöglicht werden. Wie kann dies konkret erfolgen? Der HEBEL ist die Unvollständigkeit des § 35 des BauGB. §35 spezifiziert NICHT die GRÖßE von Windkraftanlagen. Die Gemeinde kann und darf somit, wenn die politische Mehrheit seiner Bürger es denn will, Größenbeschränkungen für Windkraftanlagen vorschreiben.

Im hier beschriebenen Beispiel „Birkenau“ wurde vom Autor Johannsen übrigens ebenfalls nachgewiesen, dass mit nur 10 bis 12 KLEIN-Windkraftanlagen mit einer Gesamtleistung von ca. 130 KW  (hier moderne, vertikale Windkraftanlagen, die nur für die direkte Versorgung mehrerer Häuser an Stelle einer Netzeinspeisung nach EEG in Frage kommen) und mit nur knappen 12% der Großanlagen-Errichtungskosten der gleiche Stromanteil OHNE Natur- und Bürgerbeeinträchtigung  produziert werden könnte. Ob sich solche Kleinanlagen rechnen und ob sich private Nutzer für diese Kleinanlagen finden lassen, ist eine andere Problematik, die hier nicht weiter verfolgt werden soll. Selbstversorgung mit Kleinwindanlagen bedeutet natürlich, dass diese Anlagen nur zusammen mit einem Batteriespeicher betrieben werden können, der in der Kostenrechnung eingeht.

Zurück zur Gemeindepolitik! Entscheidend ist, dass die grundsätzliche Entscheidungsfreiheit der Gemeinde, Größenbeschränkungen für Windkraftanlagen vorzuschreiben, zumindest bis heute durch keine Maßnahme beschränkt werden kann.

Da bei einen gemeindlichen, teilbereichsbezogenen Flächennutzungsplan die Gemeinde Größenbeschränkungen für Windkraftanlagen vorgeben darf, lassen sich auf diese Weise ohne Probleme die vielen Groß-Windkraftanlagen und Windparkbauvorhaben nach dem allseits berüchtigten § 35 des BauGB verhindern!

Es kommt jetzt nur noch darauf an, über eine vernünftige Gemeindepolitik die Profiteure von Groß-Windradparks aus dem eigenen Vorgarten herauszuhalten – das ist wohl der schwerste, weil gemeindepolitische Teil der Aufgabe (Geld verdirbt bekanntlich den Charakter). Der Schutz unserer Umwelt, unserer Landschaften und das Aufwachsen unserer Kinder in einer intakten Naturumgebung sollte es den betroffenen Gemeinden und ihren verantwortlichen politischen Gemeindevertretern wert sein.

Vielleicht helfen unser Beitrag und die unzähligen früheren EIKE-Beiträge über Windradanlagen dabei mit, dass sich Leser einmal näher über den wirtschaftlich-technischen Abersinn der deutschen Energiewende und insbesondere der Windrad-Aktion informieren. Viele Gutwillige, die die Energiewende immer noch emotional mittragen, werden mit verlässlicher Information über die Fakten ihre Meinung vermutlich schnell ändern.

Desweiteren empfehlen die Autoren den Landesregierungen Wirtschaftlichkeitsvorgaben (= nicht zu unterschreitende Jahres mittel-Windgeschwindigkeiten) in ihre Windpark-Genehmigungsverfahren aufzunehmen.

Mit dieser Maßnahme würde offenbar werden, dass fast alle Windradstandorte im deutschen Binnenland ungeeignet sind. Der für die deutsche Volkswirtschaft und die Natur schädliche Windrad-Spuk fällt dann von alleine in sich zusammen, und der in dieser EIKE-News beschriebene Umweg über die Gemeindepolitik würde sich erübrigen.

Kontaktdaten von Sven Johannsen für weiter technische Informationen: Tel.: 0152-53692510, Email: sven@z-1100r.com 




Neue Studie mittels GRACE-Daten: Meeresspiegel steigt um weniger als 17 cm pro Jahrhundert

Die Studie bestätigt das Sea Level Budget von NOAA 2012, dem zufolge der Meeresspiegel nur um 1,1 bis 1,3 mm pro Jahr während der vergangenen 7 Jahre von 2005 bis 2012 gestiegen ist. Sie bestätigt auch die Ergebnisse einer Studie von Chambers et al, dass nämlich „der Meeresspiegel im Mittel während der letzten 110 Jahre um 1,7 mm pro Jahr gestiegen ist“.

Aus dem IPCC FAR Abschnitt 5.5.2: Holgate und Woodworth (2004) schätzten eine Rate von 1,7 ± 0.4 mm pro Jahr, und zwar gemittelt entlang der globalen Küstenlinie während des Zeitraumes 1948 bis 2002 und basierend auf Messungen von 177 Stationen, eingeteilt nach 13 Regionen. Church et al. (2004) berechneten einen globalen Anstieg von 1,8 ± 0.3 mm pro Jahr während der Periode 1950 bis 2000, und Church und White (2006) berechneten eine Änderung von 1,7 ± 0.3 mm pro Jahr im 20. Jahrhundert.

Die Studie:
Impact of Continental Mass Change on Rate-of-Rise of Sea Level

(etwa: Einfluss der Massenänderung von Kontinenten auf die Rate des Meeresspiegel-Anstiegs)

Heutige Variationen der Kontinentalmassen, wie sie durch gravimetrische Messungen mittels Satelliten-Gravimetrie beobachtet werden, zeigen säkulare Massenabnahmen und Akkumulation. Während Erstere zum Anstieg des Meeresspiegels beiträgt, führt Letztere zu einem Absinken desselben. Daher ist die Betrachtung der Massen-Akkumulation (anstatt sich allein auf den Massenverlust zu konzentrieren) wichtig für verlässliche Abschätzungen des Meeresspiegels. Mittels Daten von der Gravity Recovery And Climate Experiment Satellitenmission quantifizieren wir Trends der Massenänderung in 19 kontinentalen Gebieten, die ein dominantes Signal zeigen. Die integrierte Massenänderung innerhalb dieser Gebiete ist repräsentativ für die gesamten Landgebiete. Während der Periode von Mai 2002 bis April 2011 trugen die GIA-adjustierten Massengewinne und –verluste in diesen Gebieten im Mittel bei zu einem Rückgang des Meeresspiegels um -(0.7 ± 0.4) mm pro Jahr und zu einem Anstieg des Meeresspiegels von +(1.8 ± 0.2) mm pro Jahr; der Nettoeffekt betrug +(1.1 ± 0.6) mm pro Jahr. Eisschmelze in Grönland, Island, Spitzbergen, der kanadischen Arktis, der Antarktis, Alaska und Patagonien war verantwortlich für +(1.4±0.2) mm pro Jahr in der Gesamtbilanz. Folglich hat die Land-Wasser-Massenakkumulation etwa 20% des Einflusses vom Schmelzwassereintrag in die Ozeane kompensiert. Um den Einfluss der geozentrischen Bewegung abzuschätzen, haben wir geozentrische Koordinaten, abgeleitet aus Satelliten-Laser-Messungen (SLR), in Ein-Grad-geopotentielle Koeffizienten konvertiert. Wir erkannten, dass die geozentrische Bewegung kleine Verzerrungen in die Massenänderung und die Schätzung der Meeresspiegel-Änderung einbringt; ihr Gesamteffekt beträgt +(0.1 ± 0.1) mm pro Jahr. Dieser Wert sollte jedoch mit Vorsicht betrachtet werden wegen der fragwürdigen Verlässlichkeit säkularer Trends in den aus SLR abgeleiteten geozentrischen Koordinaten.

Eine Diashow der Studie findet sich hier: Baur_GGHS2012

Referenz
Baur, O., Kuhn, M. and Featherstone, W.E. 2013. Continental mass change from GRACE over 2002-2011 and its impact on sea level. Journal of Geodesy 87: 117-125.

Hintergrund
Die Autoren schreiben, dass „heutige Variationen der Kontinentalmassen profane Massenabnahme und Akkumulation zeigen“ und „während Ersteres zum Anstieg des Meeresspiegels beiträgt, führt Letzteres zu einem Absinken desselben“. Folglich stellen sie fest, dass „die Betrachtung der Massen-Akkumulation (anstatt sich allein auf den Massenverlust zu konzentrieren) wichtig für verlässliche Abschätzungen des Meeresspiegels“ ist.

Durchführung

Mittels Daten, abgeleitet aus dem Gravity Recovery And Climate Experiment – the GRACE satellite mission – haben Baur et al. kontinentale Massenvariationen im globalen Maßstab abgeschätzt, einschließlich der Beiträge sowohl aus Land-Eis und Land-Wasser, und zwar in 19 Kontinentalgebieten mit signifikanten Signalen. Dies haben sie für einen neunjährigen Zeitraum (2002 bis 2011) durchgeführt, der auch „zusätzlich 1 bis 3 Jahre zeitlich variabler Schwerefelder aus früheren Studien enthielt“. Und um den Einfluss der glacial isostatic adjustment (GIA) zu kompensieren, haben sie das GIA-Modell auf Paulson et al. (2007) angewendet.

Ergebnisse

Die Forscher berichten, dass sich während der neun Jahre ihrer Studie der mittlere GIA-adjustierte Massengewinn und Massenverlust während der 19 Jahre vor ihrem primären Brennpunkt auf -(0.7 ± 0.4 mm pro Jahr) eines Absinkens des Meeresspiegels und +(1.8 ± 0.6) mm pro Jahr eines Anstiegs aufsummierten, was zu einem Gesamtergebnis von +(1.1 ± 0.6) mm pro Jahr führte. Um eine Abbildung der insgesamten Änderung des Meeresspiegels zu erhalten, haben sie dann die räumliche Komponente von +(0.5 ± 0.5) mm pro Jahr hinzugefügt. Diese war von Leuliette und Willis (2011) abgeleitet worden. So ergab sich ein finales Ergebnis (Geocenter vernachlässigt) von +(1.6 ± 0.8) mm pro Jahr und ein finales Ergebnis (Geocenter korrigiert) von +(1.7 ± 0.8) mm pro Jahr.

Bedeutung dieses Ergebnisses

Das Geocenter-korrigierte Schlussergebnis von Baur et al. ist höchst ermutigend, wenn Chambers et al. (2012) zeigen, dass der Meeresspiegel im Mittel um 1,7 mm pro Jahr während der letzten 110 Jahre gestiegen ist, wie es sich auch aus den Analysen von Church und White (2006) sowie Holgate (2007) ergibt. Gleichzeitig ist die CO2-Konzentration in der Luft um fast ein Drittel gestiegen. Und immer noch hat dieser Anstieg nicht die Rate des globalen Meeresspiegel-Anstiegs beeinflusst!

References
Chambers, D.P, Merrifield, M.A. and Nerem, R.S. 2012. Is there a 60-year oscillation in global mean sea level? Geophysical Research Letters 39: 10.1029/2012GL052885.

Church, J.A. and White, N.J. 2006. A 20th century acceleration in global sea-level rise. Geophysical Research Letters 33: 10.1029/2005GL024826.

Holgate, S.J. 2007. On the decadal rates of sea level change during the twentieth century. Geophysical Research Letters 34: 10.1029/2006GL028492.

Paulson, A., Zhong, S. and Wahr, J. 2007. Inference of mantle viscosity from GRACE and relative sea level data. Geophysical Journal International 171: 497-508.

This essay was derived from several sources: CO2Science.org, The Hockey Schtick, and independent located content.

Link: http://wattsupwiththat.com/2013/07/03/new-study-using-grace-data-shows-global-sea-levels-rising-less-than-7-inches-per-century/

Übersetzt von Chris Frey EIKE

Ergänzung

Im hier behandelten Zusammenhang soll an eine historische Studie zu den Meerespiegelhöhen der Nordsee von Karl-Ernst Behre erinnert werden (mit Dank an meinen Freund Klaus-Eckart Puls, der mich auf Prof. Behre aufmerksam machte). Zum einen ist die von Behre ermittelte historische Meeresspiegelkurve in seinem empfehlenswerten Buch „Landschaftsgeschichte Norddeutschlands“ gezeigt, zum zweiten – detaillierter – in seiner Fachpublikation Behre (2007). Aus dieser Studie ist das folgende Bild entnommen. Die Kurve zeigt überraschend starke säkulare Schwankungen des Meeresspiegels mit Tidenhuben bis über einen Meter Differenzen zwischen Minima und Maxima. Die Ursachen für diese langfristigen Oszillationen sind unbekannt und sollten uns zur Vorsicht über Aussagen zur aktuellen bzw. zukünftigen Situation der Meeresspiegel anhalten. 

Prof. Behre war Leiter des Niedersächsischen Instituts für historische Küstenforschung in Wilhelmhaven und ist inzwischen emeritiert.

Behre, K-E.: A new Holocene sea-level curve for the southern North Sea, Boreas, Vol. 36, p.82-102, doi 10.1080/03009480600923386 (2007)

Prof. Dr. Horst-Joachim Lüdecke




Klimaforscher Prof. Hans von Storch im SPIEGEL-Interview

Das v. Storch-Interview (im Internet momentan nur in Englisch unter http://tinyurl.com/lq4m869 verfügbar) wurde nicht zuletzt durch die fachkundige Interviewführung der SPIEGEL-Redakteure Olaf Stampf und Gerald Traufetter zu hoher Qualität gebracht. Ohne Umschweife ging es sofort zur Sache. Alle Fragen wurden von v. Storch in bemerkenswerter Offenheit und jedem Alarmismus abhold beantwortet. Fragen und Antworten waren wie bereits erwähnt in der Regel deckungsgleich mit den zugehörigen, wissenschaftlich ausgerichteten EIKE-News. Zu den den Ausnahmen kommen wir weiter unten. Die SPIEGEL-Redakteure hätten durchaus auch ein klimafachkundiges EIKE-Mitglied interviewen können, sie hätten überwiegend Gleiches gehört. Bei den zuerst angesprochenen Themen

– Ursachen von Überschwemmungen,

– Niederschläge und Klimawandelvorgänge,

– Extremwetter,

– Unmöglichkeit bzw. Unsinn von Klimaschutz,

– Klima-Alarmisten,

– Die fragwürdige Rolle Schellnhubers als Klimaberater der Kanzlerin,

– Die Ignoranz von Angela Merkel, Klimafakten zur Kenntnis zu nehmen

– Die Pause in der mittleren Globaltemperatur

passte buchstäblich kein Haar mehr zwischen die Antworten von v. Storch und die entsprechenden EIKE-Verlautbarungen. Die Spiegel-Redakteure können es in unserem News-Archiv überprüfen.

Insbesondere die Antwort v. Storchs auf die Frage, wo denn die Fehlerquellen der Klimamodelle in der falschen Vorhersage der globalen Erwärmung liegen könnten, ist so deutlich, schön und zutreffend, dass sie hier noch einmal wiederholt sei:

Erste Möglichkeit: Sie (gemeint ist die globale Erwärmung) fällt schwächer aus, weil  die Treibhausgase, insbesondere das CO2, eine geringere Wirkung haben als angenommen. Das bedeutet nicht, dass es keinen menschgemachten Treibhauseffekt gibt; nur wäre unser Einfluss aufs Klimageschehen nicht so stark, wie vermutet. Die andere Möglichkeit: In unseren Simulationen haben wir unterschätzt, wie sehr das Klima auf Grund natürlicher Ursachen schwankt".

Danach tauchen freilich die ersten Fragezeichen auf. Mit dem von v. Storch erwähnten Nachweis des Menscheneinfluss am Klimawandel (fingerprint method) kann man nicht mehr ganz einverstanden sein, weil in diesen Nachweis Modellannahmen eingehen (Originalton v. Storch: „die Stärke der Klimaschwankungen richtig einschätzen“). Ob die Methode für die hier in Rede stehenden Anwendungen überhaupt geeignet ist, ist nicht selbstverständlich. Die Fingerprintmethode war ursprünglich ein Verfahren zur Zeichenkettensuche in Computertexten (hier). Vielleicht spielt ja auch bei ihrer Anwendung auf klimatologische Fragen das bekannte Phänomen „rubbish in, rubbish out“ seine bekannten Streiche.

Bei dem von v. Storch ausgesprochenen und zutreffenden Verriss der UBA-Klimabroschüre ist von ihm leider der wichtigste Punkt übersehen worden. Die UBA-Broschüre haben blutige Laien, u.a. eine Kinderbuchautorin und grüne Aktivisten verfasst. Kein Klimaforscher war beteiligt (hier). Die UBA-Broschüre kann daher, wie v. Storch befürchtete, auch nicht das Vertrauen der Öffentlichkeit in die Klimaforschung verspielen. Sie verspielt nur das Vertrauen ins UBA und da ist bekanntlich schon seit langem nichts mehr zu verspielen.

Das Vertrauen in die Klimaforschung verspielen ganz andere Leute, in Deutschland im Wesentlichen maßgebende Mitarbeiter des Potsdamer Instituts für Klimafolgenforschung (PIK). So etwa Stefan Rahmstorf mit seinem, einem Wissenschaftler unangemessen aggressiven Verhalten gegenüber denjenigen Kollegen und Medien, die nicht seiner Meinung sind. Aber auch Hans-Joachim Schellnhuber, dessen 2 °C Ziel bei vielen Fachleuten, leider nicht bei der auffallend blind-faktenverweigernden Politik, nur noch unter der Rubrik „Humor“ läuft. Das 2 °C Ziel ist in keinem begutachteten paper aufzufinden.

Gegen Ende des Interviews gibt es dann weitere Fragezeichen in den Interview-Antworten. V.  Storch sagt „Wir haben weiterhin überzeugende Hinweise auf einen menschgemachten Treibhauseffekt“. Genau dies darf füglich bezweifelt werden. Zumindest dem Autor sind keine ÜBERZEUGENDEN Hinweise aus der Fachliteratur bekannt. Nichts, aber auch gar nichts (die aktuell ansteigenden CO2-Konzentrationen ausgenommen) ist im Vergleich mit der Klimavergangenheit ungewöhnlich oder gar "noch nie dagewesen".

Überhaupt nicht kann man mit der Aussage von v. Storch einverstanden sein „Ja zwei oder drei Grad mehr werden wir wohl kriegen – bis Ende des Jahrhunderts wohlgemerkt. Das sagt mir mein Instinkt, weil ich ja nicht weiß, wie sich die Emissionen entwickeln werden“. „Instinkt“ zu bemühen erscheint hier nicht ganz angebracht, weil es ausreichend viele begutachtete Publikationen gibt, welche die von v. Storch angesprochene Problematik sehr gründlich behandeln. Sogar in den EIKE-News ist Einschlägiges zu finden. Zufällig erschien wenige Tage zuvor eine EIKE-News zum zukünftigen CO2-Anstieg der Atmosphäre (hier). Die dort vorgenommene Abschätzung kann zwar nur sehr grob sein, sie ist aber zuverlässig. Der Löwenanteil allen zukünftigen CO2 ist in den Kohleressourcen gespeichert. Werden diese VOLLSTÄNDIG verbrannt (was die Menschheit nicht machen wird), erzeugt man damit noch nicht einmal die doppelte CO2-Konzentration von heute. Es ist schwer vorstellbar, dass diese Abschätzung den Fachleuten nicht bestens bekannt ist. Laut geäußert hat sie freilich noch kein Klimaforscher, zwei Mal darf man raten, warum.

Weiterhin ist die berühmte Klimasensitivität des CO2 nur mit der Wasserdampfrückkoppelung auf Werte über 1 °C zu steigern. Entsprechende begutachtete Klimapublikationen (basierend auf MESSUNGEN) haben aber gezeigt, dass es diese Rückkoppelungen in der Realität nicht gibt. Im Gegenteil, alle Messungen deuten auf Gegenkoppelungen hin, die dann die angegebenen Standardwerte der Klimasensitivität zwischen 0.45 °C (hier) und 1.1 °C (IPCC) noch verringern [2] bis [8]. Eine rein statistische Publikation [1] findet sogar überhaupt keinen Einfluss des anthropogenen CO2.

Auch hier ist nur schwer vorstellbar, dass v. Storch diese Veröffentlichungen unbekannt sind, ihr vollständiges Ignorieren erstaunt daher. Man hätte sich in seiner Antwort ein dem heutigen Stand der Messungen und der begutachteten Fachliteratur angemesseneres Caveat und keine Instinktaussage gewünscht. Nimmt man die hier zitierten Publikationen [1] bis [8] ernst, ist man mehr oder weniger gezwungen die zukünftige globale Erwärmung bis zum Jahre 2100 zumindest als UNMAßGEBLICH einzuschätzen. Schaut man sich auch noch die zum Teil heftigen Temperaturoszillationen der letzten 2000 Jahre an und nimmt zudem die seit Jahren beunruhigend fleckenfreie Sonne zur Kenntnis, liegt sogar eine kräftige Abkühlung (neue kleine Eiszeit) nahe. Nur die Zukunft kann uns die Realität zeigen. Immerhin ist v. Storch hoch anzurechnen, dass er deutlich auf die vom IPCC abweichenden Meinungen von Klimaexperten hingewiesen hat und damit die oft zu vernehmenden Unsinnsbehauptungen von einem wissenschaftlichen Konsens falsifizierte.

Was den Schutz gegen die Folgen von Klimaänderungen (natürliche oder menschgemachte, sei einmal dahingestellt)  angeht, besteht wieder volle Übereinstimmung von v. Storch mit EIKE.

Fragwürdig wird es dann wieder am Abschluss des Interviews, wenn v. Storch seiner Besorgnis zur "Meeresversauerung" Ausdruck verleiht. Er schränkt dabei allerdings ein, dass er vom Thema zu wenig verstehe. So ist es. Wer versteht schon etwas von diesem Spezialgebiet der Chemie. Auch der Autor gesteht hier seine Unkenntnis ein. Es gibt aber ausreichend viele Fachpublikationen, die sich mit dem Thema der "Meeresversauerung" durch CO2-Aufnahme beschäftigen. Nach Studium dieser paper kann zuverlässig Entwarnung gegeben werden. Das Meer ist und bleibt basisch. Die wohl gründlichste Zusammenstellung, nicht zuletzt, weil in ihr die zahlreichen maßgebenden begutachteten Paper zitiert werden, ist auf dem Blog von Vahrenholt/Lüning zu finden (hier). Leider unterstellte v. Storch seinem Chemie-Kollegen unwissenschaftliches Verhalten und brachte dies durch demonstratives Verlassen des ACATECH-Gremiums, das von Vahrenholt geleitet wurde,  zum Ausdruck (hier). Dies ist bedauerlich, stellt doch das Buch „Die kalte Sonne“ einen Meilenstein bester wissenschaftlicher Populärliteratur dar.

Die leider immer noch medienwirksamen Kuriositäten, die vom Potsdamer Institut für Klimafolgenforschung (PIK) der breiten Öffentlichkeit ungerührt angedient werden, hatten immerhin zur Folge, dass Fachleute unter der Hand äußern das PIK nicht mehr ernst zu nehmen. Daher wäre eine politisch stärkere Gegenposition gegen das PIK wünschenswert und kein Streit unter den Klimarealisten. Eine gute Idee könnte vielleicht sein, dass sich v. Storch und Vahrenholt bei einem guten Glas Wein einmal persönlich aussprechen. Beide würden von der Expertise des Gegenüber profitieren. Und beide sind respektable Wissenschaftler, keine Ideologen. Auf dieser Basis sollte man sich verstehen.

Résumée: Trotz der hier geschilderten Vorbehalte nicht nur ein sehr gutes Interview von ALLEN drei Beteiligten sondern auch ein Meilenstein in der deutschen Medienberichterstattung zur Klimafrage. Vergessen wir nicht, dass uns eine völlig unrealistische, überzogene und wissenschaftlich überaus wackelige Klima-Scheinproblematik die verhängnisvolle, Deutschland schwer schädigende Energiewende beschert hat. Daher soll hier größter Respekt für den Mut von v. Storch ausgesprochen werden, sein Institut ist schließlich auf öffentliche Forschungsmittel angewiesen. Großen Respekt auch für die respektlosen Fragen des SPIEGEL. Wenn das Blatt DIESEN kritischen und auf die wissenschaftlichen Fakten (nicht auf grüne Ideologien) hinzielenden Weg fortsetzt, wird es wieder DAS kritische Qualitätsperiodikum in der BRD werden. Mit grüner Ideologie durchtränkte Blätter wie die Süddeutsche Zeitung oder die ZEIT könnten sich daran ein Beispiel nehmen. Unser Land hat kritischen Journalismus bitter nötig.

Quellen:

[1] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[2] R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

[3] R.W. Spencer, and W.D. Braswell: Remote Sensing 3(8) (2011),http://tinyurl.com/9cvuz32

[4] R.W. Spencer, and W.D. Braswell: Journal of Geophysical Research, Vol. 115 (2010), tinyurl.com/8kd694d

[5] G. Paltridge et al.: Theor. Appl. Climatol. 98 (2009), www.drroyspencer.com/Paltridge-NCEP-vapor-2009.pdf

[6] F. Miskolczi: The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness, E&E, 21, No. 4 (2010)

[7] R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

[8] R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), tinyurl.com/3mbresk




Wie weit steigt CO2 in der Erdatmosphäre noch an und welche Konsequenzen hat dies?

Das UBA schreibt auf seiner Facebook-Seite (hier) "> CO2-Konzentration so hoch wie nie <. Die Konzentration von Kohlendioxid (C02) in der Atmosphäre hat den höchsten Stand seit Millionen von Jahren erreicht. Vergangene Woche haben US-Forscher im Observatorium auf dem Mauna Loa, einem Vulkan auf Hawaii, an einem Tag mehr als 400 ppm (Teilchen CO2 pro 1 Mio. Luftteilchen) gemessen. Vermutlich war seit 3 Mio. Jahren nicht mehr so viel CO2 in der Atmosphäre".

Dies ist nicht einmal falsch. Schaut man sich freilich den maßgebenden Originalaufsatz an [1], wird der Aussagewert von "seit Millionen Jahren höchste Stand" deutlich. Die CO2-Konzentrationen steigen bereits seit 3 Millionen Jahren MONOTON an (Bild 1, links das letzte Stück von 3 bis 0 Jahre vor heute rot eingekreist). Das bedeutet, dass JEDE CO2-Messung zu JEDEM beliebigen Zeitpunkt, der bis zu 3 Millionen Jahre vor heute zurückreichen darf, zu einer entsprechenden Aussage führt (wir danken für den Hinweis auf die UBA-Facebook-Aussage dem Geophysiker Ullrich O. Weber). Die UBA-Meldung ist daher sachlich wertlos und appelliert nur an Emotionen oder Klimaängste. 

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild_PearsonA.jpg

Bild 1: Atmosphärische Konzentrationen von CO2 während der letzten 25 Millionen Jahre, die letzten 6 Millionen Jahre rot eingekreist.

Nun zur spannenden Frage "Wie wird es zukünftig mit dem CO2 weitergehen, wenn insbesondere China und Indien weiter ungebremst Kohle verbrennen"? Was steht der Erdatmosphäre bevor? Bevor wir diese Frage beantworten, sei kurz noch etwas weiter  zurück in die Vergangenheit geschaut. Die Verhältnisse bis vor 600 Millionen Jahren zeigt Bild 2. Es ist vom Autor gemäß den in hier, hier und [2] veröffentlichten Daten nacherstellt und wird von ihm regelmäßig in seinen Klima-Vorträgen gezeigt. Die Datenwerte sind methodischer Probleme wegen mit Unsicherheiten behaftet, ein zuverlässiges Bild der erdhistorischen Realität vermitteln sie aber dennoch.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/VeizerTCO2.jpg

Bild 2: Mittlere Globaltemperaturen und CO2-Konzentrationen während der letzten 600 Millionen Jahre

Im Bild 2 sollte uns insbesondere die gestrichelt eingezeichnete 800 ppm-Linie interessieren. Sie stellt nämlich die absolute Obergrenze der CO2-Konzentration dar, die menschgemacht NIEMALS überschritten werden kann. Kann man dies begründen? Ja, eine sehr einfache Abschätzungsrechnung und Literaturkenntnisse reichen aus:

Der Menschheit stehen gemäß Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) grob 1300 GtC als (maßgebenden CO2-erzeugende) Brennstoffressourcen in Form von Kohle zur Verfügung. Erdöl darf bei der Abschätzung vernachlässigt werden, Gas ebenfalls. Ferner wird vernachlässigt, dass die aktuelle Airborn Fraction (AF) von 45% in Zukunft unabdingbar weiter abnehmen muss – was AF bedeutet und warum sie weiter abnehmen muss, wird später beschrieben.

Die Autoren Michael Raupach und Josep Canadell geben die Äquivalenz von 1 GtC zu 0,47 ppm CO2 für die Erdatmosphäre an (hier). Das Verfeuern aller 1300 GtC entspricht somit 1300*0,47 = 611 ppm CO2-Konzentrationsanstieg in der Atmosphäre. Die  vorgenommene Schätzung muss allerdings noch die aktuelle AF von 45% – s. Fig. 5 in (hier) – berücksichtigen. Mit AF = 45% gehen von 100% neu erzeugtem anthropogenen CO2 nur 45% in die Atmosphäre, der Rest wird von den Ozeanen und der Biosphäre aufgenommen. Die 611 ppm reduzieren sich daher auf 611*0,47 = etwa 300 ppm. Das wären dann 400 (heute) + 300 = 700 ppm als nicht vom Menschen zu erhöhender Endwert. Fazit: Selbst eine Verdoppelung der heutigen CO2-Konzentration auf 800 ppm ist durch fossile Brennstoffverbrennung nicht erreichbar.

Natürlich wird die Menschheit niemals ihre gesamte Kohle verbrennen, diese ist viel zu wertvoll für die Chemie und wird daher irgendwann zukünftig zu teuer für das Verfeuern werden. In spätestens einem Jahrhundert werden neue Brutreaktoren – so wie beispielsweise der DRL (hier) – als inhärent sicher sind und praktische keinen nuklearen Abfall mehr produzierend die Energieversorgung der Menschheit revolutioniert haben. Die Episode der deutschen "Energiewende" ist dann längst als Entgleisung von ideologisch Verrückten, Profiteuren und der Politik in die Geschichtsbücher eingegangen. Diese unselige Koalition, so werden unsere Enkel klagen, hatte es hierzulande wieder einmal geschafft, eine ganze Nation auf Glatteis zu führen und ein ganzes Land mit überdimensionalen, völlig nutzlosen Windrädern zu verunstalten und schwer zu schädigen. Nur Metallverwertungs- und Windradabbruchunternehmen haben nach dem Ende der Bonanza noch profitiert.

Für die Politik bringt der Autor freilich ein wenig Verständnis auf, denn wie können sich Politiker die Chance auf die Besteuerung der Luft entgehen lassen? Die leider einzige Chance für den Bürger besteht darin, diesen Umweltverbrechern entschieden an der Wahlurne entgegenzutreten, denn Fakten werden bekanntlich von der Politik konsequent ignoriert.

Nun noch zur Erläuterung zur AF: mit AF wird derjenige Anteil von neu erzeugtem anthtropogenem CO2 bezeichnet, der in die Atmosphäre geht. Der Rest wird von den Ozeanen und der Biospäre aufgenommen. Warum sind es heute bereits 45% AF? Die Ozeane enthalten etwa 40 mal so viel CO2 wie die Atmosphäre. Infolgedessen ändert sich infolge zunehmendem anthropogenen CO2 der CO2-Partialdruck im Meer vermittels CO2-Aufnahme aus der Atmosphäre praktisch nicht, wohl aber der CO2-Partialdruck in der Atmosphäre. Mit zunehmenden atmosphärischen CO2-Gehalt wird somit die Partialdruckdifferent immer größer (chemisches Massenwirkungsgesetz oder statistische Mechanik, wie man will). Die AF nimmt infolgedessen immer weiter ab. Irgendwann geht im dynamischen CO2-Austausch Atmosphäre <–> Meer jedes von der Menschheit erzeugte CO2-Molekül schließlich ins Meer oder in die Biosphäre. Dieser Zusammenhang wurde von Prof. Werner Weber (Univ. Dortmund) auf dem gemeinsamen Fachkolloquium EIKE-PIK zum ersten Mal öffentlich vorgetragen (hier). Um nicht gleich wieder die Meeresversauerungs-Propheten auf den Plan zu rufen, sei auf einen sehr fachkundigen und ausführlichen Artikel zu dieser Frage hingewiesen, der im Blog Vahrenholalt/Lüning erschein (hier) – Vahrenholt ist Chemie-Professor. Von Versauerung oder gar Schädigung der Meeresflora und -fauna kann keine Rede sein.

Und weiter: die Klimasensitivität des CO2 ohne zusätzliche Verstärkungs- oder Abschwächungseffekte ist zwischen 0,45 °C (hier) und 1,1 °C (IPCC-Angabe) anzusiedeln. In [3] wird an Hand einer modernen statistischen Untersuchung kein Einfluss des anthropogenen CO2 auf Erdtemperaturen aufgefiunden, den gleichen Schluss könnte man auch aus der jüngsten wissenschaftlichen Publikation des Autors (hier) entnehmen, obwohl das Thema der Arbeit nicht das anthropogene CO2 betraf.

Zusammen mit den unter [4] bis [10] zusammengefassten Arbeiten, die – basierend auf Messdaten – GEGENKOPPELUNGEN an Stelle der in Klimamodelle fiktiv eingebauten, temperaturerhöhenden Rückkoppelungen anzeigen, bleibt dann von der temperaturerhöhenden Eigenschaft des anthropogenen CO2 leider kaum noch etwas übrig. Leider deswegen, weil die Menschheit diese Eigenschaft noch dringend nötig hätte – spätestens in 10.000 bis 20.000 Jahren, wenn es nach der wohl zutreffenden Milankovitch-Theorie wieder mächtig kalt auf unserem Planenten wird und in Europa die Arktisgletscher wieder bis an die Alpen und Pyrenäen vorstoßen. Immerhin hat zunehmendes CO2 jetzt schon den Vorteil, den Pflanzenwuchs antzuregen und daher zur Verbesserung der Wlternährung beizutragen.

In diesem Zusammenhang wirkt das von den politischen Klima-Alarmisten immer wieder propagierte 2 °C Ziel, das natürlich nur mit CO2-Vermeidung erreichbar sein soll, befremdlich. Der Autor befindet sich in guter wissenschaftlicher Gesellschaft (Hans v. Storch) und darf nicht der Polemik bezichtigt werden, wenn auch er dieses Ziel als das bezeichnet, was es ist: BLANKER UNSINN. In der Fachliteratur ist es praktisch ohnehin nicht aufzufinden.

Quellen:

[1] P.N. Pearson and M.R. Palmer: Atmospheric carbon dioxide concentrations over the past 60 million years, nature, 406, 17.August 2000

[2] Came et al., nature, 449, 13 (2007)

[3] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[4] R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

[5] R.W. Spencer, and W.D. Braswell: Remote Sensing 3(8) (2011),http://tinyurl.com/9cvuz32

[6] R.W. Spencer, and W.D. Braswell: Journal of Geophysical Research, Vol. 115 (2010), http://tinyurl.com/8kd694d

[7] G. Paltridge et al.: Theor. Appl. Climatol. 98 (2009), http://www.drroyspencer.com/Paltridge-NCEP-vapor-2009.pdf

[8] F. Miskolczi: The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness, E&E, 21, No. 4 (2010)

[9] R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

[10] R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), http://tinyurl.com/3mbresk




Stefan Rahmstorfs Klage „Droh- und Schmähbriefe gehören leider zum Alltag von Klimaforschern“

In dem Blog-Artikel von Stefan Rahmstorf geht es zunächst um Prof. Michael Mann, der von weiten Teilen der Klimafachwelt als ehemaliger wissenschaftlicher Betrüger angesehen wird. Wie zumindest die Statistiker Steve McIntyre und Ross McKitrick an Hand detaillierter Untersuchungen und Belege in begutachteten Fachzeitschriften nachwiesen (ihre beiden Arbeiten sind hier als pdf angehängt), hat M. Mann bei der Erstellung seiner Kurve nicht die wissenschaftlich verbindlichen Regeln eingehalten. Zur Herausgabe seiner Daten war gemäß A.W. Montford (s. weiter unten) sogar ein Gerichtsbeschluss erforderlich.

Wer sich über die "Akte M. Mann" detailliert informieren möchte, dem sei das Buch von  A.W. Montford „The Hockeystick Illusion“ empfohlen. Eine ausführliche Übersicht über den Vorgang in etwas kürzerer Form ist bei Anthony Watts mit zahlreichen Beiträgen auf seinem Blog WUWT zu finden (hier). Die Zahl der WUWT-Artikel zur M.Mann-Affaire ist zu groß, um sie hier alle zu zitieren: Wir bitten daher interessierte Leser, in der Suchfunktion von WUWT den Suchbegriff „M. Mann inquiry“ einzugeben und dann selber die ihnen am interessantesten erscheinenden Artikel herauszugreifen.

All dies ist inzwischen Vergangenheit, denn M. Mann hat seine im IPCC-Bericht von 2001 veröffentlichte Hockeystick-Kurve inzwischen zahlreichen, nur noch schwer überschaubaren Revisionen unterzogen und damit dem heutigen Stand bzw. der Realität Tribut gezollt (grüne Kurve in Bild 1). Entschuldigt hat er sich nach Kenntnis des Autors freilich nicht. Ob hier von Läuterung und Rückkehr zur wissenschaftlichen Ehrlichkeit gesprochen werden darf, kann nicht entschieden werden. Wir wollen es zu seinen Gunsten einfach einmal annehmen.

Für Rahmstorf ist dagegen M. Mann ein „hochrespektierter“ Klimaforscher ohne jedweden Tadel und mit fast beliebig vielen Verdiensten und Ehrungen, kurz, ein lupenreines Unschuldslamm. Hiermit werden angesichts der oben angeführten fragwürdigen Vorgänge viele seiner Fachkollegen nicht ganz einverstanden sein. Der Autor möchte die etwas ungewöhnliche Sicht von Rahmstorf in Sachen M. Mann nicht weiter kommentieren. Immerhin hat sein prominenter Fachkollege Prof. Hans von Storch im SPIEGEL über die ursprüngliche, im IPCC-Bericht von 2001 instrumentalisierte Mann’sche Hockeystickkurve knapp und zutreffend gesagt: „Die Kurve ist Quatsch“ (hier).

Mächtig überrascht dann Rahmstorfs Behauptung, eine jüngste Fachveröffentlichung des PAGES 2k Konsortiums (hier) würde den Hockeystick von M. Mann BESTÄTIGEN. Dies können wir nicht nachvollziehen. Die vom PAGES 2k Konsortium gelieferten Proxy-Daten zeigen nämlich zumindest in der heute wohl besten Temperaturrekonstruktion der Nordhemisphäre von Christiansen und Ljungqvist (die Kurve ist aus 91 Proxy-Datensätzen erstellt), dass das mittelalterliche Klimaoptimum dem aktuellen Optimum gegen Ende des 20. Jh. in etwa gleichkam oder es sogar übertraf. Die rote Kurve in Bild 1 ist aus solchen und weiteren in der PAGES 2k Arbeit angegebenen Rekonstruktionen, an denen der Autor Ljungqvist beteiligt war, erstellt. Alle in Bild 1 veröffentlichten Temperaturganglinien, inklusive einer von M. Mann angepassten neuen Kurve (grün), bezeugen, dass von einer Bestätigung der ursprüglichen Kurve von M. Mann (Bild 2) wohl nicht gesprochen werden kann.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/PAGES.jpg

Bild 1:Bildausschnittt aus Fig. 4 der Publikation des PAGES 2k Konsortiums

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Hockeystick.jpg

Bild 2: Die ursprüngliche Hockey Stick Kurve von M. Mann. Quelle: IPCC-Bericht des Jahres 2001

In der ursprünglichen Hockeystickkurve von M. Mann, die Rahmstorf in seinem Blog-Artikel gleich in Abb. 1 zeigt und um die es ihm daher offensichtlich geht, ist die Sonderstellung des mittelalterlichen Klimaoptimums nicht zu erkennen, auch nicht das tiefe Minimum der kleinen Eiszeit. Der lange Griff des Hockeysticks ist bemerkenswert gerade und unstrukturiert, nur das Schlägerblatt zeigt dann steil nach oben. Allenfalls der meist übersehene, blau schattierte Unsicherheitsbereich erscheint m.E. realistisch. Die beiden Darstellungen in Bild1 und Bild 2 lassen wenig Ähnlichkeit zwischen der ursprünglichen Hockeystickkurve von M. Mann und den Ergebnissen des PAGES 2k Konsortiums erkennen.

Bei den Schmähungen Rahmstorfs (das Wort "Schmähungen" sei hier als Erinnerung an seinen eigenen Vorwurf gewählt), sind zunächst Prof. Hans von Storch und Dr. Eduard Zorita an der Reihe. Rahmstorf zitiert als Beleg für deren angeblich wissenschaftlichen Unzulänglichkeiten eine Internet-Blog Realclimate. In diesem Blog wird begutachtete Fachliteratur salopp mit technischen Kommentaren (technical comments, hier) durcheinandergeworfen, was durch die Betonung "important comment" noch skurriler wird. Vielleicht schwingt bei "Realclimate" ja ein wenig die Hoffnung mit, der Leser als Laie schaue sich ohnehin die so zahlreich-imponierend zitierten Quellen nicht an und falls doch, dann sei er beispielsweise von „Science“ so beeindruckt, dass er den dort veröffentlichten technischen Kommentar mit einer peer review Publikation verwechselt. Einen technischen Kommentar kann jeder schreiben, mit Peer Review hat dies nichts zu tun. Falls man die kuriosen Belege und Ausführungen von Rahmstorf überhaupt ernst nimmt, sollte man die angegebenen Quellen näher ansehen. 

Die weiteren Abschnitte des Blog-Artikels von Rahmstorf sind mit „Politischer Druck auf Forscher“, „Griff in die Mottenkiste“ und "PAGEAS 2k im SPIEGEL" getitelt. Insbesondere der „Griff in die Mottenkiste“ trifft Rahmstorfs eigenen Artikel erstaunlich genau, wenn er die von allen AGW-Polemikern regelmäßig bemühte Nähe von Forscherkollegen zur Erdölindustrie hervorholt. Man kann hier übrigens umgekehrt auch einmal nach der Nähe von Rahmstorf zur Versicherungswirtschaft fragen. Eine im Ton peinlichen Fachkollegenschelte und ein abschließender Verriss derjenigen deutschen Medien, die die von Rahmstorf angedienten Fragwürdigkeiten durchschaut haben, rundet seine Philippika ab.

In „Ergänzende Anmerkungen“ bekommt schließlich auch noch der Autor sein "Fett weg". Seine und seiner Mitautoren Publikation (hier) in „climate of the past“ wird von Rahmstorf als „methodisch unsinnig“ bezeichnet. Zum Beleg dieser Beurteilung heißt es, die Darstellung einer Kurve mittels Fourier-Transformation sei mit jeder Kurve möglich. Dies ist jedem Physikanfänger geläufig und zweifellos völlig korrekt, aber als Sachkritik ebenso wertvoll wie die ebenfalls korrekte Anmerkung „Die Anwendung des Satzes von Pythagoras ist mit jedem rechtwinkligen Dreieck möglich“. Trivialaussagen verhindern bekanntlich nicht die sinnvolle Anwendung mathematischer Werkzeuge oder machen diese gar wertlos. Mit der in Rede stehenden Publikation hat die daneben liegende Anmerkung von Rahmstorf nichts zu tun. Es darf infolgedessen vermutet werden, dass Rahmstorf die Arbeit überhaupt nicht gelesen hat.

Als weitergehenden Beleg seiner Kritik führt Rahmstorf einen "Science Blog" an, der von dem AGW-Aktivisten Georg Hoffmann mit bewundernswert unterhaltsamer Polemik betrieben wird (hier). Man lese selber, Entertainment ist garantiert, denn der Blog ist buchstäblich filmreif. Jedem Wissenschaftshistoriker sei seine Lektüre empfohlen und dies leider nicht nur zum Amüsement. Es gibt kaum eine bessere Dokumentation, wie AGW-Alarmisten ticken (unter den Kommentatoren sind sogar mehrere Autoren von peer review Publikationen aufzufinden), welche Methoden sie Wissenschaftlern anderer Auffassung gegenüber anwenden und welche Querverbindungen zwischen Teilen der Klimaforschung und den fragwürdigen Betreibern solcher Blogs bestehen.

Bedenklich ist dann der von Rahmstorf in seinem Artikel veröffentlichte Kommentar von Dr. M. Mudelsee

„One may speculate about (I exaggerate for clarity) the hijacking of CP for promoting ‘skeptical’ climate views.“

Eine wissenschaftliche Arbeit, deren Themensetzung das anthropogene CO2 nicht einmal berührt, deren Ergebnisse aber zufällig und unübersehbar keinen oder zumindest einen lediglich vernachlässigbaren Einfluss des anthropogenen CO2 nahelegen (nicht beweisen), wird als hijacking = Piraterie einer Wissenschaftszeitschrift bezeichnet. Offenbar verwechselt Mudelsee den wissenschaftlichen Betrieb in der Europäischen geophysikalischen Union mit dem des piratenverseuchten Somalia.

Die im Hoffmann-Blog zahlreich vertretenen Kommentatoren der AGW-Fraktion mit wissenschaftlichem Hintergrund haben mit Kräften versucht, die Publikation des Autors im Vorfeld der „open discussion“ des cp zu verhindern, man sehe sich dazu ihre Kommentare an (hier). Dies ist natürlich ihr gutes Recht und wird hier ausdrücklich nicht kritisiert. Schließlich hat die bei cp vorgeschriebene öffentliche peer review Phase ihren guten Grund. Zahlreiche, fachlich einschlägige Kritiker sehen mehr als zwei oder drei Peer Reviewer und erlauben es daher, die Qualität einer bei cp eingereichten Arbeit zu verbessern. Dies war auch hier der Fall. Nicht zuletzt deswegen hat cp einen so hohen "citation index".

Freilich waren die Sachargumente der Teilnehmer am Science Blog offensichtlich nicht ausreichend, um die neutralen wissenschaftlichen Kritiker und die Peer Reviewer zu überzeugen. Warum nicht auch Rahmstorf selber eine vernünftige Fachkritik bei cp äußerte, ist angesichts seiner abwertenden Beurteilung unverständlich und bedauerlich. Er dürfte seitens G. Hoffmann über die Veröffentlichung in der cp Diskussionsphase informiert worden sein.

Der letzte Abschnitt der Blog-Arbeit von Rahmstorf darf als implizite Drohung (die Bezeichnung "Drohung" wieder in Erinnerung an den Vorwurf von Rahmstorf) aufgefasst werden, die gegen die Wissenschaftszeitschrift cp der Europäischen geophysikalischen Union und ihren verantwortlichen Editor, Dr. Eduardo Zorita zielt. Der betreffende Passus aus dem Blog-Artikel von Rahmstorf sei seiner Unverschämtheit gegen eine renommierten Fachzeitschrift und deren Editor wegen wörtlich zitiert:

Lüdecke ist Pressesprecher des Klimaskeptiker-Vereins EIKE. Der für die Publikation seines kuriosen Artikels verantwortliche Editor ist Eduardo Zorita. Man kann nur hoffen, dass dies bei dem an sich reputierten Journal ein Einzelfall bleibt.

"Man kann nur hoffen" und "Einzelfall" drückt den Wunsch aus, jeden zukünftig bei cp eingereichten Artikel des Autors ungeprüft abzulehnen und den verantwortlichen Editor E. Zorita abzulösen. Rahmstorf unterstellt implizit, dass das peer review Verfahren bei cp nicht ordentlich abläuft. Öffentlich publizierte Anmerkungen dieser Art sind nicht hinnehmbar und einem Professor einer deutschen Universität sind sie schon gar nicht angemessen.

Es soll schlussendlich daran erinnert werden, dass jede wissenschaftliche Arbeit, die nicht nur Bekanntes bestätigt, Neuland betritt. SACHLICHE Kritik ist hier unabdingbar und stets willkommen. Diese erfolgte hier nicht nur in der öffentlichen Diskussionsphase von cp, sondern mit weltweiter Resonanz auch im australischen Blog von Joanne Nova (hier) und im Blog WUWT von Anthony Watts (hier). In diesen Blogs wurde das gesamte Meinungsspektrum thematisiert, angefangen von Zustimmung, über Missverständnisse wegen nicht ausreichenden Lesens und Unverständnisses der Arbeit, bis hin zu sehr interessanter, substantieller Fachkritik. Grundlegende Mängel der Arbeit stellten sich nicht heraus. Der Autor wird in Kürze auf den sachlichen Inhalt seiner und seiner Mitautoren Arbeit unter Berücksichtigung der wichtigsten Einwände in einer separaten EIKE-News eingehen. Sachliche Kritik, auch seitens von Rahmstorf ist dabei immer willkommen.

Wissenschaftliche Meinungsverschiedenheiten müssen ausschließlich sachbezogen ausgetragen werden. Sie dürfen nicht in Diffamierungen gegen Fachkollegen ausarten, deren Forschungsergebnisse den verschrobenen Weltbildern der Diffamierenden widersprechen.

Related Files




Energie-Hokuspokus des Fraunhofer Instituts für Energiesysteme

Deshalb haben sich ein ganze Anzahl von Instituten dieser staatlich massiv geförderten Pfründe gewidmet und arbeiten ausschließlich dafür. Immer wieder und oft am lautstärksten dabei, das (ISE) Institut für Solare Energiesysteme in Freiburg unter seinem mehr berüchtigten, als berühmten Chef Eike Weber.

Das IDE hat jetzt (mal wieder) eine "Studie" vorgestellt. In der liest man: (Es).. wurde erstmals mit einem Energiemodell untersucht, wie Wärme und Strom in Deutschland in einem regenerativen Energiesystem optimal zusammenspielen könnten." Die Ergebnisse sind verblüffend, denn sie .. "zeigen, dass ein regeneratives Energiesystem für Wärme und Strom zu ähnlichen Kosten realisierbar ist wie unser heutiges Energiesystem." Wir haben das überprüft. Der Artikel erschien (hier). Man sollte ihn lesen! Das Fazit der Fraunhofer-Autoren lautet:

Erstmals wurde ein komplettes Energiesystem im Strom- und Wärmesektor auf stündlicher Basis simuliert und in mehreren Varianten die prinzipielle Machbarkeit zu VERTETBAREN (Anmerkung: "vertretbar" von der EIKE Redaktion groß geschrieben) Kosten nachgewiesen. Das tatsächliche System zu finden, ist eine gesellschaftliche Aufgabe, die neben Ökonomie und Technik auch Aspekte wie Landschaftsplanung, Akzeptanz und Bürgerbeteiligung berücksichtigen wird.

Schon hier schnappt jeder Fachmann, der mit Energieversorgung und deren Kosten beruflich zu tun hatte, erstmal nach Luft. Wir schenken uns hier eine genaue Analyse dieses sachlichen Schwachsinns des Fraunhofer Instituts und lassen stellvertretend dafür drei Fachleute Ihren Kommentar dazu abgeben:

Dipl.-Ing. Peter Dietze schreibt:

"Hokuspokus – weg sind die 1 Billion Kosten von Altmaier!! UNGLAUBLICH!!! Wo doch von den 550 GW nur etwa 60 GW in Betrieb sein können und der untätige Rest sicher bezahlt werden muß und Power-to-Gas-Strom etwa auf 50-100 ct/kWh kommt…"

Dipl.-Ing. Michael Limburg kommentiert:

"Unglaublich, was heute unter dem Namen Wissenschaft verkauft wird. Wir sollen über 500 GW (kostet mindestens 6 bis 8 x mehr als konventionell) installieren, um in der Spitze sicher 80 GW nutzen zu können. Verrückt ist noch ein harmloser Begriff dafür."

Prof. Dr.-Ing. Alt (FH Aachen) meint:

"Es ist in der Tat unglaublich, welcher Unsinn auf staatlicher Gehaltsbasis in wissenschaftlichen Instituten von Leuten, die noch nie Verantwortung für unsere Energieversorgung getragen haben oder jemals tragen müssen, verbreitet wird.
Das Problem, wir haben zu viele vom Steuerzahler staatlich finanzierte Sandkastenspieler, und es kommen noch immer neue hinzu, siehe PIK und Töpfer-Institut. Die Wahrheit sagen nur noch ehrenamtliche arbeitende Rentner, die aber allesamt 40 Jahre Verantwortung in der Industrie und Energieversorgung getragen haben und das zu weit niedrigeren Stromkosten für alle Bürger, ohne smart grid und ohne smart meter in einer freien selbstbestimmten Welt der Strom- und Gasverbraucher.
"

EIKE Pressesprecher Prof. Dr. Horst-Joachim Lüdecke kommentiert schließlich:

"Regenerative Energien zur Erzeugung von elektrischem Strom haben die naturgesetzlichen Nachteile zu geringer Leistungsdichten, (und daraus folgend) zu hoher Kosten, der Unstetigkeit ihrer Stromerzeugung und schließlich der Nichtskalierbarkeit. Mit Letzterem ist gemeint, dass Kraftwerke zur Stromerzeugung der Raum- und Netzplanung anpassbar sein müssen. Klassische Kohle- und Gaskraftwerke und insbesondere Kernkraftwerke haben diese Eigenschaft (sie können beliebig groß, klein und überall gebaut werden), Windräder nicht. Diese müssen riesig sein, in großer Zahl in windreichen Gegenden aufgestellt werden und sind überdies mit hohen Stromleitungskosten verbunden. Das Fraunhoferinstitut sollte sich besser mit modernen Konzepten schneller Brüter beschäftigen, als "regenerativen Unsinn" zu betreiben. Die schon teilweise im Pilotstadium befindlichen Brüterkonzepte zielen auf inhärente Sicherheit und verschwindenden Abfall an Kernbrennstoff. Kernbrennstof mit Brütertechnik reicht selbst 10 Milliarden Menschen bei ausschließlicher Stromerzeugung aus Brütern viele 100 Millionen Jahre (Uran aus Meerwasser und Thorium). Liebe Entscheidungsträger des Fraunhofer Instituts: wären schnelle Brüterkonzepte nicht ein sinnvolleres Forschungsfeld? Der Autor ist sich natürlich der Naivität dieser rethorischen Frage bewusst. Deutsche Politik verweigert sich vernünftiger Energieforschung."

Bemerkenswert ist auch der letzte Satz im Fazit des Fraunhofer-Artikels:

Das tatsächliche System zu finden, ist eine gesellschaftliche Aufgabe, die neben Ökonomie und Technik auch Aspekte wie Landschaftsplanung, Akzeptanz und Bürgerbeteiligung berücksichtigen wird.

Kommentar der EIKE Redaktion: Landschaftszertörungen durch Zehntausende von Windradungetümen, wovon inzwischen noch nicht einmal Naturschutzgebiete verschont werden, Bodendegradierung durch Maismonokulturen, unaufhaltsam hochschießende Strompreise, zunehmendes Lavieren an einem bundesweiten Black-Out, haben wir das nicht schon zur Genüge? Und nun noch so ein Schmarrn! Was verstehen eigentlich diese staatlich finanzierten Phantasten am Fraunhoferinstitut unter Bürgerbeteiligung? Etwa Beteiligung am weiteren Zerstören unser Naturumgebung? Vielleicht liegen aber diese Leute sogar richtig, denn wie es unsere Geschichte bereits vielfach bewiesen hat, ist in Deutschland an purem Wahnsinn so gut wie alles möglich.

Die besondere deutsche Spezialität hierbei: Einmal begonnene Vorhaben, deren Irrsinn selbst dem Dümmsten augenfällig ist (Musterbeispiele Energiewende, Klimaschutz), werden auf Biegen und Brechen zu Ende geführt – bis zur "letzten Patrone". Erst danach beginnt das große Aufräumen. Wir werden es wieder erleben und wir werden auch wieder erleben – denn dies kennen wir ebenfalls zur Genüge -, dass es danach niemand gewesen sein will.




Das Umweltbundesamt – staatlich verordnete Klima-Doktrin. Faktencheck zur UBA-Broschüre “Und sie erwärmt sich doch“ Letzter Teil

Sind Klimamodelle zuverlässig?

(Kap. 14 der UBA Schrift): In Kap. 14 sagt das UBA sachlich falsch aus. Klimamodelle können weder die Klimavergangenheit noch -zukunft ohne "zusätzliche Annahmen" und geeignet justierte Parameter beschreiben. Bis heute ist es beispielsweise noch nicht einmal gelungen, mit diesen Modellen die Eintrittszeitpunkte des El Nino oder die klimarelevante Atlantische Meridionale Oszillation (AMO) vorherzusagen. Der von den Klimamodellen geforderte "Hot Spot" in der höheren Atmosphäre über dem Tropengürtel der Erde ist nicht auffindbar.

Computer-Klimamodelle sind fiktive theoretische Gebilde ohne durchgängige physikalische Begründungen. Sie enthalten Annahmen und Korrekturfaktoren, deren Mechanismen den Vorstellungen der Modellprogrammierer, nicht aber der durch Messungen belegten physikalischen Realität entsprechen. Diese Schwäche wird durch ihre fehlende Aussagekraft bestens belegt. Computer-Klimamodelle haben ohne massive Manipulationen der Randbedingungen und Flussparameter niemals eine befriedigende Übereinstimmung mit Vergangenheitsdaten liefern können. Da sie bisher nicht verlässlich waren, entstehen berechtigte Zweifel, warum man ihnen zur Vorhersage der zukünftigen Klimaentwicklung Glauben schenken soll. Es besteht kein Grund dazu.

Diese Einschätzung bestätigt im übrigen das IPCC selbst. Der Beleg findet sich im IPCC-Report vom Jahre 2001, sec. 14.2.2.2auf S. 774, wo über Klima-Modelle gesagt wird:

“…. we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible“.

Um nicht missverstanden zu werden, ist zu betonen, dass Klimamodelle wertvolle Hilfsmittel zur Klärung von Detailfragen sein können. Als Prognose- oder “Projektionsinstrumente“ für Klimavorhersagen sind sie freilich ungeeignet.

Erwärmung oder Abkühlung, was ist vorteilhafter?

(Kap. 15 der UBA Schrift): Die UBA Ausführungen des Kap. 15 sind rein willkürlich. Fest steht: In der Geschichte der Menschheit gab es noch nie eine Periode, in der kälteres Klima von Vorteil war. Völkerwanderungen verliefen stets in Richtung zu wärmeren Klimaregionen, niemals umgekehrt. Die Hunger- und Seuchenkatastrophen infolge kälter werdenden Klimas sind historisch bestens bekannt. Stellvertretend sei an den Untergang des römischen Imperiums durch Klimaabkühlung, die die Nordvölker nach Italien einbrechen ließen oder an die Hungerzeiten in der “kleinen Eiszeit“ um und nach dem 30-jährigen Krieg erinnert (Bild 4).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/eiszeit.jpg

Bild 4: Das katastrophal kalte Klima der “kleinen Eiszeit“ hat sich tief in das Bewusstsein der Menschen eingegraben und die holländische Malerei dieser Epoche beeinflusst.

Gibt es einen wissenschaftlichen Konsens?

(Teil B der UBA Schrift): Die Verkünder eines wissenschaftlichen Konsenses unterliegen einem grundsätzlichen Irrtum. JEDE begutachtete Veröffentlichung, die das Fehlen einer Erwärmung durch anthropogenes CO2 zu belegen vermag – und davon gibt es ja sehr viele -, ist für sich ALLEINE ausreichend, jede Konsensbehauptung als Falschaussage zu belegen. So sagte bereits Einstein, als er auf die Hunderte Experten der "Deutschen Physik" angesprochen wurde, die seine Relativitätstheorie widerlegt haben sollten: “Wieso Hunderte, Einer würde reichen“.

Die während der Diskussion um den angeblich anthropogen verursachten Klimawandel gewonnene Erfahrung lehrt, beim Argument “Konsens der Wissenschaft“ besonders sorgfältig die Begründungen zu überprüfen. In unserer Konsumgesellschaft wird es immer dann gerne benutzt, wenn es gilt, Laien etwas “weis zu machen“, was entweder so nicht oder überhaupt nicht stimmt. Wissenschaft, die Zweifel ablehnt, statt zu versuchen sie aufzuklären, will indoktrinieren. Der Begriff “Konsens der Wissenschaft“ ist grundsätzlich abzulehnen, denn wissenschaftliche Wahrheit kann nicht aus Mehrheitsbeschlüssen gewonnen werden. Dies hat die Geschichte der naturwissenschaftlichen Entdeckungen immer wieder bewiesen. Ein Konsens von vielleicht mehr als 95% aller Forscher eines Fachgebiets würde lediglich Anhaltspunkte liefern und eine gewisse Wahrscheinlichkeit beinhalten, dass diese Mehrheitsauffassung auch sachlich zutrifft. Unabhängig von diesen grundsätzlichen Vorbehalten soll im Folgenden hilfsweise dennoch einmal nachgeprüft werden, wieviele Kritiker der AGW-Hypothese nun tatsächlich dem angeblichen Konsens widersprechen.

Da es hier nur um die Frage eines maßgebenden Einflusses des menschgemachten CO2 auf Globaltemperaturen geht, muss die Konsenproblematik wie folgt eingegrenzt werden. Ausgangspunkt ist der heutige Stand der Klimaforschung, dokumentiert in unzähligen Fachpublikationen, die zumindest im Folgenden absolut keinen Zweifel lassen: Die Frage nach einem messbaren anthropogenen Einfluss auf Klimawerte muss bis heute mit einem “noch nicht aufgefunden“ beantwortet werden. Daher verbleiben jetzt nur noch die im hier interessierenden Zusammenhang entscheidenden zwei Fragen:

– Wie viele Klimaforscher teilen den Klima-Alarmismus des IPCC?

– Wie viele Klimaforscher (“Klimarealisten“) widersprechen?

Klimaforscher kommen aus vielen Disziplinen, vorwiegend der Physik, denn Klimawissenschaft, wie die mit ihr eng verwandte Meteorologie, verwendet das Handwerkszeug der Physik. Unter den Klimaforschern finden sich neben den Physikern Meteorologen, Chemiker, Biologen, Mathematiker und Ingenieure. Klimaforscher sind infolgedessen alle Wissenschaftler, die Klimaphänomene erforschen und ihre Arbeiten in begutachteten Fachjournalen veröffentlichen. Momentan werden über 1100 begutachtete Fachpublikationen, die der AGW-Hypothese widersprechen, in einer Internet-Dokumentation explizit aufgeführt (hier), es kommen laufend neue hinzu, und es sind längst nicht alle.

Die die AGW-Hypothese realistisch beurteilenden Klimaexperten – diffamierend meist als “Klimaskeptiker“ bezeichnet – übertreffen die AGW-Vertreter in Anzahl und wissenschaftlichem Ansehen um Längen. Zu den Realisten gehören die beiden Physik-Nobelpreisträger Ivar Glaever und Robert Laughlin, einen Physiker aus dem IPCC-Lager als Nobelpreisträger gibt es dagegen nicht. Ferner sind die weltberühmten Physiker Freeman Dyson, Edward Teller, Frederick Seitz, Robert Jastrow und William Nierenberg Klimarealisten, eine ähnliche Reputation ist von den dem IPCC nahe stehenden Forschern unbekannt (hier).

Auf Anhieb können 9000 promovierte Naturwissenschaftler und Hunderte fachnahe Professoren der klimarealistischen Seite benannt werden. Es handelt sich hierbei allein um das Oregon Petitition Project (hier). Auf der Gegenseite benennt das IPCC gerade einmal 62 Personen, die das kritische Kapitel 9 des IPCC-Berichts von 2007 “Understanding and Attributing Climate Change“ begutachteten, darunter viele, die nichts anders taten, als ihren eigenen Beitrag zu bestätigen.

Einen entscheidenden Unterschied gibt es freilich: das IPCC erfreut sich politischen Rückhalts, die Realisten nicht. Sie werden angefeindet. Da die Medien langfristig der Politik (dem “Zeitgeist“) folgen und über die Realisten nicht berichten, können so absurde Behauptungen wie 97% Konsens o.ä. entstehen. Insbesondere in Deutschland liegt diese Situation vor, so dass schon von “freiwilliger Selbstgleichschaltung“ der Medien gesprochen wird.

Die historische Entwicklung der klimarealistischen Verlautbarungen klärt über die wahren Verhältnisse auf. Es beginnt 1992 in Rio de Janeiro mit der ersten großen UN-Umweltkonferenz. Hier haben die Vertreter von 170 Regierungen und weiteren Nichtregierungsinstitutionen (NGO) vor einer gefährlichen globalen Erwärmung durch die steigende Emission von CO2 in der Atmosphäre infolge Nutzung der fossilen Brennstoffe gewarnt. Drastische Maßnahmen, Energiesteuern und Umweltabgaben wurden gefordert.

1) Als erste Antwort auf die Forderungen von Rio de Janeiro haben 425 Wissenschaftler, darunter 62 Nobelpreisträger den "Heidelberg Appeal" unterschrieben. Sie fordern, die wissenschaftliche Ehrlichkeit nicht dem politischen Opportunismus und einer irrationalen Ideologie zu opfern. Inzwischen sind diesem Appell mehr als 4000 Wissenschaftler, darunter inzwischen insgesamt 72 Nobelpreisträger aus 106 Ländern beigetreten (hier).

2) Das Global Warming Petition Project, auch als Oregon Petition bekannt, wurde bereits oben erwähnt. Es führt über 30.000 akademische Unterzeichner auf, davon rund 9000 promovierte Personen, meist Naturwissenschaftler.

3) Das “Leipziger Manifest“ ging aus einem internationalen Symposium über die Treibhauskontroverse in Leipzig im November 1995 und 1997 hervor. Es wurde 2005 überarbeitet. 80 Wissenschaftler aus dem Bereich der Forschung zum Zustand der Atmosphäre und des Klimas sowie 25 Meteorologen, bekunden:

Auf der Basis aller vorhandenen Messungen können wir eine politisch inspirierte Weltsicht nicht akzeptieren, die Klimakatastrophen vorhersagt und überstürzte Aktionen verlangt… In einer Welt, in der die Armut die größte soziale Verschmutzung darstellt, sollte jegliche Einschränkung an Energie, die das ökonomische Wachstum verhindert (in diesen Ländern), mit äußerstem Bedacht vorgenommen werden“ (hier).

4) Im Dezember 2008 und ergänzt im März 2009 wendeten sich über 700 Wissenschaftler mit dem sogenannten "U.S. Senate Minority Report" (auch als Inhofe Report bezeichnet) an den Senatder USA. Die Unterzeichner wehrten sich gegen den vorgeblichen Konsens, dass der Mensch für die Erwärmung hauptsächlich verantwortlich gemacht werden kann. Der Report stellt fest, dass die 700 Wissenschaftler die Zahl der an der “Zusammenfassung für Politiker“ des IPCC beteiligten Wissenschaftler (52) um das mehr als 13-fache übersteigt. Sie führten insbesondere Messungen an, die die alarmistischen, von Modellen unterstützten Prophezeiungen widerlegen (hier).

5) In einem offenen Brief vom Juli 2007 an die Physikerin und Kanzlerin Angela Merkel forderten 410 Wissenschaftler und engagierte kompetente Bürger (hier),

die Kanzlerin möge ihre Position zum Klimakomplex gründlich überdenken und ein vom Potsdamer Institut für Klimafolgenforschung unabhängiges ideologiefreies Gremium einberufen

Dieser Brief wurde in bemerkenswert undemokratischem Stil nicht einmal einer Eingangsbestätigung des Bundeskanzleramts für würdig erachtet, obwohl in Artikel 17 des deutschen Grundgesetzes Bürgern ausdrücklich das Recht eingeräumt wird, sich bei drängenden Problemen oder Fragen an die zuständigen Stellen und an die Volksvertretung zu wenden.

6) Gegen die Aussage des US-Präsidenten Barrack Obama “Wenige Herausforderungen denen sich Amerika und die Welt gegenübersieht, sind wichtiger als den Klimawandel zu bekämpfen. Die Wissenschaft ist jenseits aller Diskussion und die Fakten sind klar“ wendeten sich mehr als 150 fachnahe Wissenschaftler mit dem Protest: “With all due respect Mr. President, that is not true“ (hier).

7) In einem offenen Brief an den kanadischen Ministerpräsidenten, am 11.4.2008 in der National Post veröffentlicht, wendeten sich 60 Klimawissenschaftler gegen die Unterzeichnung eines neuen Kyoto Vertrages. Sie heben hervor, dass

es keine beobachtbaren Nachweise gibt, die die Computermodelle verifizieren. Deshalb gibt es keinen Grund, den Vorhersagen der Computermodelle zu vertrauen…. Wir schlagen vor, eine ausgewogene, umfassende, öffentliche Sitzung abzuhalten, um die wissenschaftliche Basis zu Plänen der Regierung in Bezug auf den Klimawandel zuschaffen“ (hier).

8) Im Jahre 2007 veröffentlichten die Klimawissenschaftler Hans von Storch und Dennis Bray (GKSS Forschungszentrum Geesthacht) eine anonyme Umfrage unter ca. 1250 Klimawissenschaftlern, von denen 40% antworteten, was für derartige Umfragen als eine sehr hohe Antwortrate ist. Die Frage “Ist der gegenwärtige Stand der Wissenschaft weit genug entwickelt, um eine vernünftige Einschätzung desTreibhausgaseffektes zu erlauben?“ beantworteten nur 69% mit Zustimmung. Die Frage “Können Klimamodelle die Klimabedingungen der Zukunft voraussagen?“ beantworteten 64% ablehnend! Da die Vorhersagen der Klimakatastrophe alleine auf Klimamodellen beruhen und damit ebenfalls ein theoretisches Konstrukt sind, darf dieses Ergebnis für die Vertreter eines Klimakatastrophen-Konsens zutreffend als Schlag ins Gesicht bezeichnet werden. Denn umgekehrt ausgedrückt: Es besteht ein Konsens von 64%, dass die Vorhersage eines die Menschheit gefährdenden Klimawandels durch eine von Menschen gemachte Temperaturerhöhung infolge der anthropogenen CO2 Emissionen auf der Basis von Klimamodellen wissenschaftlich unzulässig ist (hier).

9) Im September 2008 veröffentlichten Hans M. Kepplinger und Senja Post von der Universität Mainz in deren Forschungsmagazin eine Online-Umfrage unter den 239 identifizierten deutschen Klimawissenschaftlern. 133 (44%) von ihnen nahmen an der Befragung teil. Kepplinger: “Die Mehrheit der Wissenschaftler war der Ansicht, dass die Voraussetzungen für eine Berechenbarkeit des Klimas gegenwärtig noch nicht gegeben ist. Dies betrifft die Menge und Qualität der empirischen Daten, die Qualität der Modelle und Theorien sowie die Kapazität der verfügbaren Analysetechniken. Nur eine Minderheit von 20% glaubt, dass die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon gegeben seien“  (hier), (hier).

10) Am 30.Nov.2012 veröffentlichte die kanadische Financial Post einen offenen Brief von 125 Wissenschaftlern an den UN Generalsekretär H.E. Ban Ki-Moon. Die FP führt dabei alle Namen, Fachgebiete und Forschungsschwerpunkte der Unterzeichner detailliert auf (hier). Es handelt sich in der weit überwiegenden Anzahl um Klimawissenschaftler. Der Originaltext des offenen Briefs lautet:

On November 9 this year you told the General Assembly: “Extreme weather due to climate change is the new normal – Our challenge remains, clear and urgent: to reduce greenhouse gas emissions, to strengthen adaptation to – even larger climate shocks – and to reach a legally binding climate agreement by 2015 – This should be one of the main lessons of Hurricane Sandy.“ On November 13 you said at Yale: “The science is clear; we should waste no more time on that debate.“ The following day, in Al Gore’s “Dirty Weather“ Webcast, you spoke of “more severe storms, harsher droughts, greater floods“, concluding: “Two weeks ago, Hurricane Sandy struck the eastern seaboard of the United States. A nation saw the reality of climate change. The recovery will cost tens of billions of dollars. The cost of inaction will be even higher. We must reduce our dependence on carbon emissions.“ We the undersigned, qualified in climate-related matters, wish to state that current scientific knowledge does not substantiate your assertions.

Danach folgt eine ausführlichere sachliche Widerlegung der Behauptungen von Ki-Moon. Auf die Wiedergabe dieses Teils des offenen Briefs wird hier verzichtet.

Die Behauptung des UBA über den angeblichen wissenschaftlichen Konsens über eine maßgebende, gefährliche Klimaschüdigung durch anthropogenes CO2 ist ABSURD, UNHALTBAR und FALSCH!

Unsere Beurteilung der UBA Schrift

Das UBA verfehlt in seiner Klimabroschüre jedes diskutable Fachniveau. Angesichts der politisch motivierten Propagierung eines anthropogen verursachten Klimawandels hat sich das UBA sachlicher Aufklärung verweigert. Es hat sich einseitig und ohne stringente Argumentation den Klimakatastrophen-Propheten angeschlossen, die ihre Vorhersagen aus fiktiven Klimamodellergebnissen herleiten.

Das UBA verstößt gegen das Ockham-Gesetz der Hypothesensparsamkeit, dem Paradigma moderner Naturwissenschaft. Die AGW-Hypothese ist zur Erklärung der Klimaentwicklung nach der Industrialisierung nämlich nicht erforderlich. Alle Klimaänderungen der letzten 150 Jahre liegen im bekannten Bereich natürlicher Fluktuationen der (zumindest) letzten 2000 Jahre. Die AGW-Hypothese darf daher gemäß dem immer noch gültigen Ockham-Paradigma nicht alleine in den Mittelpunkt gestellt werden. Sie ist nur eine unter anderen Hypothesen. Welche zutrifft, kann nur zukünftige Forschung entscheiden.

Mit Publikationen von solch fragwürdiger Qualität wird das UBA die Skepsis der Bevölkerung über die oktroyierte Meinungshoheit zum "Klimawandel" nicht beseitigen können. Vom UBA unbeabsichtigt, hat ihre Broschüre es fertig gebracht, dass sich ein Teil der Medien inzwischen der Gefahr für unsere Demokratie durch Unterdrückung von politisch unerwünschten Gegenstimmen und durch Verunglimpfung von Fachleuten mit anderer Auffassung bewusst wurde, solche Vorkommnisse nicht mehr hinnimmt und die Öffentlichkeit darüber informiert.

Wir hoffen, dass unsere fachliche Replik der UBA Schrift mehr Seriosität und wissenschaftliche Ehrlichkeit in die Klimadebatte bringt und stehen nicht nur dem UBA jederzeit fürSachdiskussionen und Rückfragen zur Verfügung.

Die Autoren

Jena, im Mai 2013

Klima- und Energie-Fachveröffentlichungen von EIKE-Mitgliedern

Begutachtete (Peer Review) Forschungs-Veröffentlichungen

R. Link and H.-J. Lüdecke: A new basic 1-dimension 1-layer model obtains excellent agreement with the observed Earth temperature, Int. J. Mod. Phys. C 22, No. 5, p. 449 (2011), doi:10.1142/S0129183111016361, http://tinyurl.com/d9vuxyr

H.-J. Lüdecke: Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment 22, No, 6 (2011) arxiv.org/PS_cache/arxiv/pdf/1110/1110.1841v1.pdf

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011) http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Clim. Past. 9, 447-452 (2013) http://www.clim-past.net/9/447/2013/cp-9-447-2013.pdf

Bücher

H.-J. Lüdecke: CO2 und Klimaschutz, Fakten Irrtümer, Politik (Climategate), vergriffen in 3-ter Auflage und nicht neu aufgelegt.

H.-J. Lüdecke: Energie und Klima, Chancen, Risiken, Mythen, expert-Verlag (Mai 2013)

M. Limburg: Klimahysterie – was ist dran?, TVR Verlag (2012)

J. Langeheine: Energie-Politik in Deutschland, das Geschäft mit der Angst, AtheneMedia (2012)

E. Gärtner: ökonihilismus, TVR (2012)

Related Files




UN – Keine direkten Gesundheitsschäden durch Fukushima

Nach dem Atomunfall von Fukushima war die Angst vor Folgen wie vermehrtem Schilddrüsenkrebs groß. Jetzt gibt die UN (UNSCEAR-Report) Entwarnung: Nach einer ersten Untersuchung sind keine direkten Gesundheitsfolgen nachweisbar (hier), (hier), (hier), (hier), (hier).UNSCEAR ist die UN Organsiation zur Erforschung der biologischen Folgen radioaktiver Strahlung *).

Wegen des Atomunfalls von Fukushima werden nach UN-Einschätzung weder mehr Menschen sterben noch vermehrt an Krebs erkranken. Die Katastrophe vom März 2011 habe keine direkten Gesundheitsfolgen für die Bevölkerung, heißt es in einer ersten umfassenden Untersuchung der Vereinten Nationen.

Grund sei die schnelle Evakuierung des Gebiets durch die japanischen Behörden gewesen, sagte der Vorsitzende des wissenschaftlichen Komitees der Vereinten Nationen für die Folgen von Strahlung (UNSCEAR), Wolfgang Weiss, in Wien.

180 Wissenschaftler aus 27 Ländern haben bei UNSCEAR den Fukushima-Bericht erarbeitet. Der Abschlussbericht ist für den Herbst 2013, rund zweieinhalb Jahre nach dem Unfall bei den UN in New York vorgesehen.

Nach Einschätzung der Wissenschaftler leiden die Menschen psychisch unter der Evakuierung, nicht aber gesundheitlich infolge von Strahlenbelastung. «Die Erfahrungen von Tschernobyl haben uns gezeigt, dass neben einer möglichen direkten Auswirkung auf die Physis, die sozialen Folgen mit den einhergehenden Gesundheitseffekten in der betroffenen Bevölkerung besondere Aufmerksamkeit brauchten», sagte UNSCEAR-Chef Carl-Magnus Larsson.

«Wir sehen statistisch keine direkten Risiken oder Gesundheitsfolgen», sagte Weiss. Nach der Katastrophe habe die zusätzliche Strahlenbelastung durch den Unfall für die meisten Japaner

unter der natürlichen Umgebungsstrahlung

gelegen. Man gehe auch nicht davon aus, dass man künftig Krebserkrankungen auf den Unfall zurückführen könne. Nach der Reaktorkatastrophe von Tschernobyl sei die Strahlenbelastung deutlich höher gewesen.

Der Bericht ermittelt den statistischen Schnitt. Daher wollte Weiss nicht völlig ausschließen, dass einzelne Personen wegen einer zu hohen Strahlendosis an Krebs erkranken könnten: «Wir können nicht die Gesundheit von 60 000 Menschen individuell in jeder einzelnen Lebenszeit verfolgen.» Doch statistisch erhöhe sich die Rate nach den bsiherigen Untersuchungen nicht.

Der Großteil der Daten stammt von japanischen Behörden, aber auch die USA, die Weltgesundheitsorganisation WHO und die Internationale Atomenergiebehörde IAEA hätten Informationen beigetragen. Die Aussagen des Berichts basierten hauptsächlich auf Rechenmodellen, Umweltmessungen und individuellen medizinischen Untersuchungen. «Das heißt nicht, dass wir alles haben was wir gerne hätten», sagte Weiss. In Tschernobyl hätten sich manche Auswirkungen erst fünf Jahre nach dem Unfall gezeigt.

Zur generellen Aussagekraft von Untersuchungen zur Auswirkung von Radioaktivität auf den Menschen sagte Weiss in einem dpa-Gespräch: «Wir haben uns 50 Jahre damit befasst, aber das heißt nicht, dass wir alles wissen. Das gilt sowohl für ganz hohe Strahlenexpositionen wie auch den niedrigen Dosisbereich.» Umstritten sei beispielsweise,

ob man bei niedrigen Dosen überhaupt von einem Effekt auf das Krebsrisiko sprechen könne:

Es sei wissenschaftlich nicht haltbar, einen Krebs, der 30 oder 40 Jahre später auftrete, mit einer lang zurückliegenden niedrigen Strahlenbelastung begründen zu wollen.

Kommentar von EIKE:

Zur schnellen Evakuierung und den entsprechenden Verlautbarungen von Wolfgang Weiss (UNSCEAR) sei eine Anmerkung erlaubt: die schnellen Evakuierungen waren politischem Druck geschuldet, sachlich waren sie weitestgehend unnötig – sowohl in Tschernobyl als auch in Fukushima (hier). Als Folgen der Evakuierungen waren im Übrigen tatsächlich Todesfälle zu beklagen. Dennoch ist für all diese Maßnahmen Verständnis zu fordern. Welche Behörde würde das Risiko eingehen, später wegen Untätigkeit an den Pranger gestellt zu werden, auch wenn die Gründe noch so sachgerecht gewesen waren. Auch die Verlautbarung von Wolfgang Weiss geht in Ordnung. Es ist sicher weder im Interesse, noch gehört es zur Aufgabenstellung der UNSCEAR, Behörden oder Regierungen wegen gut gemeinter Maßnahmen zu desavouieren.

Den Fachleuten war dies alles bereits seit langem bekannt (hier). Hierzu darf auf unsere unbedingt empfehlenswerte Reihe in den EIKE-News (Energie) "100 Gründe und 100 gute Antworten" verwiesen werden, die immer noch läuft, ferner auf die in EIKE veröffentlichten Artikel von Paul Schoeps (hier), (hier) und (hier). Aber auch der Autor geht in seinem jüngst erschienenen Buch "Energie und Klima, Chancen, Risiken, Mythen" besonders ausführlich auf die Strahleneinwirkungen der beiden Kernkraftwerksunglücke Tschernobyl, Fukushima und auf die der beiden Kernwaffenabwürfe von Hiroshima und Nagasaki ein, aus denen die UNSCEAR ihre heute bereits sehr zuverlässigen Angaben über die reale Gefährdung radioaktiver Strahlung ableitet (hier).

Eine realistische Angabe zur Gefährdung durch radioktive Strahlung ist somit verfügbar, und das Stammtischniveau, mit dem grüne Politik die Bevölkerung über Kernkraftwerke, Endlagergefahren und weiteres mehr täuscht, könnte eigentlich einer rationalen, realistischen Betrachtung Platz machen. Infolge jahrhrzehntelanger Täuschungspropaganda von grünen Ideologen, unterstützt von den Medien – man braucht sich hierzu nur die Besetzungen der Leitungsfunktionen in den großen Rundfunk- und Fersehanstalten anzusehen – ist mit einer Änderung wohl erst in biologischen Zeitspannen, d.h. nach Ausscheiden dieser Leute aus Altersgründen zu rechnen.

Bleibt nur noch eine Anmerkung zur Aufgabe der weltweit sichersten Kernkraftwerke in Deutschland. Unsere Nachkommen werden sich über diese größte Dummheit der deutschen Energiepolitik aller Zeiten die Haare raufen. Die Verantwortlichen sind dann leider nicht mehr zur Rechenschaft zu ziehen, an erster Stelle eine Bundeskanzlerin mit – man staunt – naturwissenschaftlicher Promotion. Machtpolitisches Kalkül wurde von ihr entgegen dem Amtseid, dem Wohl des deutschen Volkes zu dienen, rationaler, sachgemäßer Politik vorgezogen und – entgegen geltendem Recht und von "grünem Zeitgeist" getrieben – zugelassen, dass inzwischen ganze Industriezweige, wie Kernenergie und Kohle diffamiert und abgewickelt werden **).

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

*) Der Autor als ausgebildeter Kernphysiker kann es natürlich nicht lassen: Die Bezeichnung UNSCEAR, in der die letzten beiden Buchstaben "atomic radiation" besagen, ist etwas schräg. Richtig wäre "nuclear radiation". Dann hätte aber die Abkürzung UNSCEAR fünf Konsonanten in Reihe, dies war wohl der Grund.

**) Angesichts bekannter, zum Teil ausgsprochen amüsanter Diffamierungsversuche und zur Vermeidung von Missverständnissen erlaubt sich der Autor zu betonen, ohne Weiteres weder ein besonderer Freund der Kern- noch der Kohleindustrie noch irgendeiner anderen Industrie zu sein. Er ist vielmehr besonderer Freund JEDER Industrie, die unter den Kriterien von WIRTSCHAFTLICHKEIT, SICHERHEIT,  NATUR- und LANDSCHAFTSSCHUTZ zur Wertschöpfung und damit dem Wohlstand unseres Landes beiträgt. Kern- und Kohleindustrie mit Anlagen auf dem heutigen Stand gehören seiner Auffassung nach dazu, Windradindustrie generell nicht (Verfehlen der Wirtschaftlichkeit und des Natur- und Landschaftsschutzes). Die erforderlichen Kriterien der Nützlichkeit von Energie-Industrien sind in seinem o.g. Buch beschrieben und belegt.