1

„Weinzierls Nachfolger im BUND sind eiskalte Technokraten“ Interview mit Enoch zu Guttenberg, Mitbegründer des BUND

Peter Schmidt: Sie waren Mitbegründer des BUND. Sie sind 2012 ausgetreten wegen der billigenden Haltung des BUND zur Umweltzerstörung durch Windkraft. Meine Heimat Rheinhessen ist inzwischen fast unbewohnbar gemacht durch Wind“parks“, man fühlt sich in einer Mondlandschaft gestrandet. Hatten Sie den Eindruck, dass Teile der Mitgliedschaft Ihre Ablehnung nachvollziehen konnte?

Enoch zu Guttenberg: Seit meinem Austritt – Mai 2012 – aus dem BUND, dem ich vor allem in den ersten politisch schweren Jahren nach dessen Gründung als Vorstandsmitglied und als Sprecher seines wissenschaftlichen Beirats dienen durfte, bekomme ich ununterbro-chen zustimmende Briefe von verzweifelten und frustrierten BUND-Mitgliedern. Es lassen sich aus diesen Korrespondenzen im Wesentlichen drei Gruppen herausfiltern:

Etwa 60% der genannten Personen, oft Kreisvorsitzende oder andere Verantwortungsträger auf mittlerer Ebene des Verbandes, sind zutiefst erschüttert und enttäuscht von der derzeitigen zerstörerischen und destruktiven Politik ihrer Führung. Dennoch versuchen diese aber innerhalb des Verbandes und innerhalb Ihrer direkten Verantwortungsbereiche so viel wie möglich vor Ort zu verhindern und nach der alten Natur- und Umweltphilosophie zu handeln, wie diese von Männern wie Hubert Weinzierl oder Bernhard Grzimek und von Konrad Lorenz vertreten und vorgelebt wurde. Diese BUND-Mitglieder hoffen dezidiert auf eine baldige personelle Veränderung in der Vorstandschaft des Verbandes, und damit auf ein Zurück im BUND zu einem dringend notwendigen klassischen Natur- und Umweltschutz.

Eine zweite Gruppe versucht, sich deutschlandweit neu zu formieren und ist zurzeit noch in den verschiedensten Bürgerinitiativen engagiert, vor allem dort, wo durch Wind- und Photovoltaik“parks“ Landschafts- und Naturschutzgebiete sowie Naturparks für immer zerstört werden. Es ist nur noch eine Frage der Zeit, wann neben dem äußerst verdienstvoll agierenden Dachverband der Windkraft-Gegner „VERNUNFTKRAFT“ auf Bundesebene ein neuer Natur- und Umweltschutzverband gegründet wird, der das Zeug dazu hat, die verantwortungslosen und korrumpierten Technokraten des BUND zu entlarven und deren verlogenes Handwerk zu legen.

Die dritte Gruppe schließlich hat den BUND bereits verlassen und fürs Erste den Glauben an einen redlichen Natur-, Umwelt- und Tierschutz in Deutschland verloren. Diese Menschen müssen dringend aufgefangen und für ein neues Engagement um unser aller Heimat willen gewonnen werden.

Peter Schmidt: In der Öffentlichkeit wird den Gegnern der Windkraft gerne verunglimpfend unterstellt, Opfer einer „Lobby“ zu sein. Diese „Haltet den Dieb“-Methode funktioniert erstklassig, obwohl die Umweltbewegung selbst einer der mächtigsten Lobbyisten weltweit ist und Billionen an Subventionen und Spenden eintreibt. Können Sie diese Lobby-Arbeit am Beispiel des BUND anschaulich beschreiben?

Enoch zu Guttenberg: Erst einmal ist es richtig, dass WIR, die Gegner der Windkraft-Großindustrialisierung unserer Kulturlandschaften, uns gleich mehreren Lobbys verpflichtet fühlen und uns denen sogar gerne als „Opfer“ erlegen, beziehungsweise verpflichtet fühlen.

Unsere erste Lobby sind unsere Kinder und Enkel! Sie haben ein Recht darauf, Ihre jeweilige Heimat noch an einem identifikationsstiftenden Landschaftsbild und nicht an der Menge der Windparks in ehemaligen Wäldern und verwüsteten Kulturlandschaften zu erkennen. Unsere Sorge in diesem Zusammenhang gilt auch der Landbevölkerung, die einfach diesen Riesenmonstern ausgesetzt wird, ohne dass sich einer der Verantwortungsträger um deren Gesundheit und den damit verbundenen Stressfaktoren schert. Ganz abgesehen davon, dass auch die Stadtbevölkerung um unzählige Naherholungsgebiete zur unanständigen Bereicherung einiger Weniger kalt enteignet wird.

Unsere zweite Lobby sind die von ihren offiziell bestellten Schützern zum Tod verurteilten höchstgefährdeten Arten, sind die von ihren offiziell bestellten Schützern verkauften deutschen Kulturlandschaften, ist die von ihren offiziell bestellten Schützern verratene Natur.

Unsere dritte Lobby sind die unzähligen gutwilligen Menschen, die immer noch glauben, der Natur, der Umwelt, der Zukunft und vor allem ihrem Geldbeutel etwas Gutes zu tun, wenn sie in Wind-, beziehungsweise Bürgerräder investieren. Die Diskussion um die katastrophalen und irreversiblen Schäden, die eine Großindustrialisierung durch Windräder in unseren Wäldern und ländlichen Räumen anrichtet, ist langsam in der Öffentlichkeit angelangt.

Dass aber gut 70 % aller deutschen Windräder unwirtschaftlich sind und die meisten investierenden Bürger kaltblütig betrogen und über die Tische gezogen werden, ist jetzt erstmalig den Medien zu entnehmen gewesen. Im Übrigen konnten diese Zahlen von den Windrad-Bauern und -Betreibern bis jetzt nicht dementiert werden, da dies das Zahlenmaterial des eigenen Dachverbandes ist und ungewollt an die Öffentlichkeit gelangte.
Schließlich, wie von Ihnen angedeutet, wird den Windrad-Gegnern pauschal vorgeworfen, von der Atomlobby angeheuert worden zu sein. Das ist die infamste Unterstellung, die uns ehemaligen Mitstreitern des BUND UMWELT UND NATURSCHUTZ DEUTSCHLAND noch dazu von den einmal mit uns verbundenen Verantwortungsträgern des BUND zugemutet wird.

Auf die Frage nach der Lobbyarbeit der großen Umweltverbände kann ich nur feststellen: Jeder Cent, jeder Euro, jede Million, die von den Verbänden für die genannten Lobbys, also für den Natur- und Artenschutz, für den Landschaftserhalt und damit für das Wohl der Menschen eingetrieben wird, ist dringend notwendiges und richtig eingesetztes Geld. Alles Geld aber, das von den Verbänden angenommen wird, um stillzuhalten im Angesicht der größten Naturverheerungen der Nachkriegszeit und alles Geld, was von den Verbänden so-gar selbst in großem Stil in die Hand genommen wird, um am großen Windrad-Kuchen teil-zuhaben, sind schmutzigste Judassilberlinge.

Peter Schmidt: Die Tierschutzlobby entwickelt sich immer weiter in Richtung einer fanati-schen Religionsgemeinschaft, der jeder Bezug zur Wirklichkeit abhanden gekommen ist. Inzwischen wird die Frage des Bürgerrechts für Tiere diskutiert, andererseits schaut man skrupellos zu, wie hundertausende Tiere von Windmühlen geschreddert werden. Haben Sie ein Erklärungsmuster für dieses Verhalten?

Enoch zu Guttenberg: Tierschutz ist, wie Natur- und Umweltschutz auch, einer der wichtigsten Einrichtungen und Gegengewichte zu den unbestreitbaren Gefahren, die mit einer Industrie- und Wachstumsgesellschaft einhergehen. So wie vor kurzem Wachstumswahn und spätkapitalistische Marktwirtschaft ohne funktionierende Kontrollmechanismen die zivilisierte Welt um das Haar zum Kollabieren brachten, so schadet fanatisierter Tierschutz in der Regel gerade den Tieren und ideologisierter Natur-und Umweltschutz gerade der Natur. Ein furchtbarer Circulus vitiosus, dessen Wurzeln immer noch fest in unserer jüngeren Ver-gangenheit verankert sind.

Peter Schmidt: Offensichtlich ist, dass der religiöse Tierschützer große Unterschiede macht. Katze, Hund, Pferd, Kuh und das süße Bambi rufen feuchte Augen hervor, Fledermäuse und Käfer haben zwar ein Lebensrecht, wenn es um die Verhinderung von Baumaßnahmen geht, aber kein Lebensrecht mehr, wenn der Windpark kommt. Ganz abgesehen von den Milliarden und Abermilliarden Tieren, Ratten, Nager, Insekten, die im Zuge des Getreideanbaus ihr Leben lassen. Wie fanatisiert muss man sein, um all dies nicht mehr zur Kenntnis zu nehmen?

Enoch zu Guttenberg: Diese Frage sollten erfahrene Psychologen den Führern der genannten Verbände stellen.

Peter Schmidt: Gab es ein Schlüsselerlebnis, bei dem Ihnen bewusst wurde, dass der von Ihnen mitgegründete Naturschutzverband sich von einer integren Schutzgemeinschaft in eine ideologisierte Sekte verwandelt hat? Ist es als schleichender Prozess zu sehen, oder gab es ein prägendes Ereignis, das diese Wende bewirkte?

Enoch zu Guttenberg: Ich würde nicht so weit gehen, den BUND oder dessen bayrischen Bruder, den BN, oder einen anderen großen Umweltverband als eine Sekte zu bezeichnen. Dafür sind in all diesen Schutzgemeinschaften noch viel zu viel hochanständige und hochmotivierte Mitglieder, die auf den diversesten Gebieten Fabelhaftes leisten und die unser aller hohen Respekt verdienen.

Hinzu kommt, dass viele Naturschützer sich einfach noch nicht eingestehen wollen oder vielleicht tatsächlich noch nicht erkennen können, dass die von uns allen fast hergebetete Energiewende sich in eine furchtbare Natur und Leben fressende Hydra verwandelt hat. Die eigentliche Katastrophe für den BN, wie den BUND waren das Ausscheiden des Nestors und Doyens des deutschen und europäischen Naturschutzes – Hubert Weinzierl – und der damit verbundene Führungswechsel in beiden genannten Verbänden.

Weinzierl war und ist ein ebenso sensibler, künstlerischer, wie leidenschaftlicher Naturschützer und Umweltpolitiker, der immer die Zeichen der Zeit früh genug erkannte und auch jetzt wieder vor der zerstörerischen Gewalt der gerufenen und nicht mehr zu bändigenden Geister dieser Energiewende warnt. Goethes Hexenmeister lässt grüssen! Weinzierls Nachfolger sind eiskalte Technokraten, gleichzeitig aber verblendete und machtbesessene Ideologen. Diese sind verantwortlich für den schleichenden Wandlungsprozess des BUND von einem der renommiertesten Umweltschutzverbände der Welt zu einem unser Land endgültig industrialisierenden Weltverbesserungsverein.

Peter Schmidt: Was wäre das Leben ohne Hoffnung, wie Hölderlin meinte. Gibt es aus Ihrer Sicht optimistische Ausblicke?

Enoch zu Guttenberg: Legte man der Frage nach optimistischen Ausblicken nur die ge-schichtlichen Erfahrungen gerade der letzten 100 Jahre zugrunde, müsste man mit einem klaren Nein antworten. Gäbe es aber im tiefsten unserer Seelen nicht wenigstens den heißen Wunsch von Hoffnung auf Hoffnung, hätten zum Beispiel Hubert Weinzierl und Bernhard Grzimek nicht mit – und in – unserem Bund gekämpft. Ich persönlich halte es mit der hinrei-ßenden Martin Luther-Überlieferung:
Ein Schüler Martin Luthers begegnet dem Reformator, wäh-rend dieser ein Apfelbäumchen pflanzt. Der Schüler fragt den Meister, was dieser wohl tue, wenn er wüsste, dass morgen die Welt untergehe. Martin Luther antwortet gelassen: „Ap-felbäumchen weiter pflanzen….“

Zuerst erschienen im Blog des Deutschen Arbeitgeber-Verbandes hier




Über die schwer fassbare Absolute Globale Mittlere Temperatur – ein Vergleich von Daten mit Modellen

Selten werden Modelle und Vergleiche zwischen Modellen und Daten in absoluten Termen gezeigt. Dies wird mit diesem Beitrag nachgeholt, und zwar nach einer Diskussion der absoluten mittleren Oberflächen-Temperatur der Erde von den Datensammlern: GISS, NCDC und BEST. Danach wenden wir uns wieder den Anomalien zu.

Die folgenden Abbildungen und der größte Teil des Textes wurden für mein demnächst erscheinendes Buch aufbereitet. Ich habe die Nummerierung der Abbildungen für diesen Beitrag geändert und die Einführung umformuliert. Diese Präsentation zeigt eine total andere Perspektive bzgl. der Differenzen zwischen modellierten und gemessenen Werten der globalen mittleren Temperatur. Ich glaube, dass es Ihnen gefallen wird… anderen aber vielleicht nicht.

Vorab aus meinem demnächst erscheinenden Buch:

Die schwer fassbare absolute globale mittlere Temperatur und die Diskussion darüber beim GISS

Einige werden bereits den Ursprung dieser Kapitelüberschrift kennen. Sie stammt von der Surface Temperature Analysis Q&A-Website The Elusive Absolute Surface Air Temperature (SAT). Der einführende Text zu dieser Website lautet:

Die GISTEMP-Analyse betrifft ausschließlich Temperaturanomalien, nicht die absolute Temperatur. Temperaturanomalien sind berechnet relativ zur Referenzperiode 1951 bis 1980. Der Grund, eher Anomalien denn die absolute Temperatur zu betrachten ist, dass sich die absolute Temperatur auf kurze Distanzen markant ändert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien bis zu räumlichen Distanzen von 1000 km stark korrelieren.

Auf der Grundlage der Ergebnisse von Hansen und Lebedeff (1987) in der Studie Global trends of measured surface air temperature hat GISS einen Datensatz erzeugt, der Temperaturanomalien auf dem Festland an Stelle der Wassertemperatur setzte. Das heißt, GISS hat einfach die Festlands-Temperaturdaten auf die Ozeane ausgedehnt. Dann hat GISS jenen älteren Temperatur-Datensatz mit dem Land-Ozean-Temperaturindex ausgetauscht, welcher die Wassertemperatur für die meisten Ozeangebiete nutzt und als ihr primäres Produkt dient. Sie benutzen immer noch die 1200 km-Extrapolation, um Landgebiete und mit Meereis bedeckte Ozeangebiete, von wo keine Messdaten vorliegen, mit Daten zu füllen.

Aber zurück zur GISS Q&A-Website: Nach Beantwortung einiger Zwischenfragen schließt GISS mit (Fettdruck von mir):

Frage: Was mache ich, wenn ich absolute Temperaturwerte brauche und nicht Anomalien?

Antwort: In 99,9% aller Fälle wird man sehen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturwerte. In den übrigen Fällen muss man sich eine der verfügbaren Klimatologien heraussuchen und die Anomalien hinzufügen (mit Rücksicht auf die geeignete Referenzperiode). Für das globale Mittel erzeugen die vertrauenswürdigsten Modelle einen Wert von etwa 14°C, aber er kann leicht auch zwischen etwa 13°C und 15°C liegen. Regional und vor allem lokal ist die Lage sogar noch schlechter.

Mit anderen Worten, GISS stellt sein Verständnis der globalen Temperaturen auf die Grundlage von Klimamodellen, besonders auf die „vertrauenswürdigsten Modelle“. Und sie sagen auf der Grundlage dieser „vertrauenswürdigsten“ Klimamodelle, dass die mittlere globale Temperatur während ihrer Referenzperiode von 1951 bis 1980 (deren Klimatologie) etwa 14°C +/- 0,6°C beträgt.

Der Wert von 14°C auf jener GISS-Website deckt sich mit dem Wert, der unten auf der GISS-Website Land-Surface Air Temperature Anomalies Only (Meteorological Station Data, dTs) gelistet ist. Die Werte dieser Website basieren auf Hansen und Lebedeff 1987. Unten auf der Website schreiben sie:

Die Best Estimate des absoluten globalen Mittels von 1951 bis 1980 beträgt 14,0°C. Man addiere dies also zu der Temperaturänderung, falls man eine absolute Skala benutzen möchte (diese Anmerkung bezieht sich ausschließlich auf globale jährliche Mittelwerte, J-D und D-N!)

Das ist die gleiche Adjustierung der absoluten globalen Temperatur, die GISS für seinen Land-Ozean-Temperaturindex fordert. Siehe hier auf der Website unten.

ANMERKUNG: Mancher könnte es seltsam finden, wenn GISS den gleichen Korrekturfaktor für beide Datensätze verwendet. Einer der GISS-Datensätze erstreckt sich über Lufttemperaturen entlang von Küsten und auf Inseln mit einem Umkreis von 1200 km, während der andere GISS-Datensatz (GISS LOTI) für die meisten globalen Ozeangebiete die Wassertemperatur verwendet. (Bei den LOTI-Daten ersetzt GISS die Daten der Wassertemperatur durch Daten der Temperatur auf dem Festland nur in den polaren Ozeanen, wo jemals Meereis lag). Falls wir annehmen, dass küstennahe Temperaturen und solche auf Inseln ähnlich der Lufttemperatur über marinen Gebieten sind, dann beträgt die Verzerrung höchstens 0,2°C, vielleicht etwas mehr. Die mittlere globale absolute ICOADS-Wassertemperatur der letzten 30 Jahre (1984 bis 2013) beträgt 19,5°C, während die absolute globale mittlere Lufttemperatur über Ozeanen 19,3°C beträgt. Der Grund für „vielleicht etwas mehr“ ist, dass Messungen der Wassertemperatur von Schiffen aus ebenfalls durch den „Wärmeinseleffekt“ beeinflusst sein können, und die ICOADS-Daten sind um diesen Wärmeinseleffekt nicht korrigiert worden. (Ende der Anmerkung).

Die NCDC-Schätzung ist ähnlich, obwohl sie anders hergeleitet worden ist

NCDC bietet ebenfalls eine Schätzung der absoluten globalen mittleren Temperatur. Siehe hier. Dort schreiben sie unter der Überschrift „globale Höhepunkte“ (Fettdruck von mir):

Das Jahr 2013 zieht mit 2003 als dem global wärmsten Jahr gleich seit Beginn von Aufzeichnungen im Jahre 1880. Die jährliche kombinierte Land- und Wassertemperatur lag um 0,62°C über dem Mittel des 20. Jahrhunderts von 13,9°C.

Und nicht rein zufällig stimmen diese 13,9°C von NCDC (aus Daten abgeleitet, wie wir gleich sehen werden) mit dem GISS-Wert von 14,0°C überein. Dies könnte zeigen, dass die „vertrauenswürdigsten Modelle“ nach GISS mit dem datenbasierten Wert getunt worden sind.

Die Quelle jener 13,9°C-Schätzung der globalen Temperatur wird auf den NOAA-Websites zu globalen Temperaturanomalien (hier) identifiziert, besonders unter der Überschrift von globalen langfristigen mittleren Land- und Wassertemperaturen (hier). Sie wurden im Jahre 2000 geschrieben, sind also 14 Jahre alt. Auch kann man auf der Website bemerken, dass die absoluten Temperatur-Mittelwerte für den Zeitraum 1880 bis 2000 gelten und dass NCDC die gleichen 13,9°C als Absolutwert für das 20. Jahrhundert verwendet. Das ist kein Problem, das ist Haarspalterei. Es gibt nur einen Unterschied von 0,03°C in den mittleren Anomalien dieser beiden Zeiträume.

Genau wie GISS beschreibt auch die NOAA Probleme bei der Abschätzung einer absoluten globalen Mitteltemperatur:

Absolute Schätzungen der globalen mittleren Temperatur sind aus einer Reihe von Gründen schwierig zu erstellen. Da es in einigen Gebieten der Welt nur sehr wenige Temperatur-Messstationen gibt (z. B. in der Sahara), muss über riesige, kaum mit Daten besetzte Gebiete interpoliert werden. Im Gebirge stammen die meisten Messungen aus Tälern, wo die Menschen leben, so dass man die Auswirkungen der Höhenlage auf das Mittel der Region berücksichtigen muss ebenso wie andere Faktoren, die die Oberflächen-Temperatur beeinflussen. Die Konsequenz ist, dass die unten stehenden Schätzungen immer noch Approximationen sind, die die inhärenten Hypothesen hinsichtlich Interpolation und Datenverarbeitung enthalten, obwohl sie als die besten derzeit verfügbaren Werte angesehen werden. Zeitreihen monatlicher Temperaturaufzeichnungen werden viel öfter als Abweichungen von einer Referenzperiode ausgedrückt (z. B. 1961 bis 1990, 1880 bis 2000), da diese Aufzeichnungen einfacher interpretiert werden können und man einige Probleme umgeht, die bei der Schätzung der absoluten Temperatur in großen Gebieten auftreten.

Es scheint, dass der NCDC-Wert auf Messdaten beruht, wenngleich es auch alte Daten sind, während der GISS-Wert für einen anderen Zeitraum und basierend auf Klimamodellen ähnlich ist. Das wollen wir jetzt mal in absoluten Zahlen vergleichen.

Vergleich von GISS- und NCDC-Daten in absoluter Form

Die globalen Land- und Wassertemperaturen von NCDC sind verfügbar, indem man auf den Link „Anomalies and Index Data“ klickt, der sich oben auf der NCDC-Website der Global Surface Temperature Anomalies befindet. Und die GISS LOTI-Daten sind hier verfügbar.

Verwendet man die oben beschriebenen Faktoren, zeigt Abbildung 2 die jährlichen mittleren globalen Temperaturen in absoluter Form von GISS und NCDC seit Beginn im Jahre 1880 bis zum jüngsten vollständigen Jahr 2013. Die GISS-Daten sind ein wenig wärmer als die NCDC-Daten, im Mittel etwa 0,065°C, aber alles in allem passen sie zusammen. Und das sollten sie auch. Sie verwenden den gleichen Wassertemperatur-Datensatz (ERSST.v3b der NOAA), und auch die meisten Daten der Festlandstemperatur sind die gleichen (aus der GHCN-Datenbasis der NOAA). GISS und NCDC füllen einfach Datenlücken unterschiedlich (das gilt vor allem für die Arktis und die Südlichen Ozeane), und GISS verwendet ein paar Datensätze mehr in Gebieten, wo GHCN nur sehr wenige Daten enthält.

Abbildung 2

Hinzu kommt der globale Land- und Wassertemperatur-Datensatz von BEST mit einem unterschiedlichen Faktor

Und das ist der BEST-Datensatz (Berkeley Earth Surface Temperature), also das Produkt von Berkeley Earth. Die ihren Festlands-Temperaturdaten zugrunde liegende Studie stammt von Rhode et al. (2013) mit dem Titel A New Estimate of the Average Earth Surface Land Temperature Spanning 1753 to 2011. Darin findet man, dass man die BEST-Festlandstemperaturen in absoluter Form illustriert hat.

Ihre Klimatologie (Referenztemperaturen für Anomalien) wurde in der Studie von Rhode et al. (2013) Berkeley Earth Temperature Process über Verfahren gezeigt. Sie enthielt auch diesen Anhang. Zum Thema Klimatologie schreiben Rhode et al. in dieser Studie:

Das globale Festlands-Mittel von 1900 bis 2000 beträgt 9,35°C ± 1.45°C, was im Ganzen konsistent ist mit der Schätzung von Peterson von 8,5°C. Diese große Unsicherheit bei der Normalisierung ist in den schattierten Bändern nicht enthalten, die wir in unsere Tavg-Plots gelegt haben, da sie nur die absolute Skala beeinflussen und nicht relative Vergleiche. Außerdem stammt vieles dieser Unsicherheit aus der Existenz von nur drei GHCN-Messpunkten im Inneren der Antarktis. Dies bringt den Algorithmus dazu, die absolute Normalisierung für große Gebiete der Antarktis als erzwungen zu betrachten. Vorangegangene Arbeiten mit vollständigeren Daten aus der Antarktis und von anderswoher zeigen, dass zusätzliche Daten diese Normalisierungs-Unsicherheiten um Größenordnungen reduzieren können, ohne den zugrunde liegenden Algorithmus zu ändern. Der Analyseprozess von Berkeley Average ist irgendwie einmalig dahingehend, dass eine globale Klimatologie und eine Schätzung der globalen mittleren Temperatur als Teil seiner natürlichen Operationen erzeugt wird.

Interessant, dass der Mittelungsprozess der Berkeley-Temperatur sie mit einer Schätzung der globalen mittleren Festlandstemperatur in absoluter Form ausstattet, während es GISS und NCDC schwierig finden, hierzu eine Schätzung zu finden.

Der Bezug auf Peterson in obigem Zitat von Rhode et al. geht zurück auf die Studie Observed Changes in Surface Atmospheric Energy over Land von Peterson et al. (2011). Der Wert von 8,5°C von Peterson et al. als absolute Lufttemperatur auf dem Festland ist der gleiche Wert, der in der Tabelle unter der Überschrift Global Long-term Mean Land and Sea Surface Temperatures auf den Websites von NOAA Global Surface Temperature Anomalies gelistet ist.

Berkeley Earth hat auch Daten veröffentlicht für zwei globale Festlands- + Ozean-Temperaturprodukte. Die Existenz von Meereis ist der Grund für zwei. Lufttemperatur-Produkte für das Festland enthalten keine mit Meereis bedeckten Ozeanflächen, und Wassertemperaturen enthalten keine Lufttemperaturen über polarem Meereis, falls und wo es existiert. Von den 361,9 Millionen km² Gesamtfläche der globalen Ozeane bedeckt polares Meereis im Mittel nur 18,1 Millionen km² jährlich im Zeitraum von 2000 bis 2013. Während polares Meereis nur etwa 5% der Oberfläche der globalen Ozeane und nur etwa 3,5% der gesamten Erdoberfläche überdeckt, bemüht sich die klimawissenschaftliche Gemeinschaft, dort die Lufttemperatur zu bestimmen. Das gilt vor allem für die Arktis, wo der natürlich auftretende Prozess polarer Verstärkung dafür sorgt, dass die Arktis mit verstärkten Erwärmungsraten aufwartet, wenn sich die Nordhemisphäre erwärmt (und sich entsprechend mit erhöhten Raten abkühlt in Perioden einer nordhemisphärischen Abkühlung).

(Siehe auch die Beiträge Notes On Polar Amplification und Polar Amplification: Observations versus IPCC Climate Models.)

Während ich dies schreibe, ist keine stützende Studie für die BEST Land + Ozean-Temperaturdaten von der Website der Berkeley Earth Papers verfügbar, ebensowenig wie auf ihrer Poster-Website. Es gibt jedoch eine einführende Diskussion auf der BEST-Datensite für ihr kombiniertes Produkt. Die BEST Land- + Ozeandaten sind ihre Lufttemperaturen, die mit einer modifizierten Version der HadSST3-Wassertemperaturen zusammengeführt werden. Eingefügt haben sie das mit einer als Kriging bezeichneten Methode. (Siehe Kriging, geschrieben von Geoff Bohling vom Kansas Geological Survey.)

Die jährlichen Berkeley Land + Ozeantemperatur-Anomalien finden sich hier und ihre monatlichen Daten hier. Die Begründung für die Präsentation der beiden Land + Ozeanprodukte stützt meine Ausführungen oben. Berkeley Earth schreibt:

Zwei Versionen dieses Mittelwertes sind im Umlauf. Sie unterscheiden sich darin, wie sie mit mit Meereis bedeckten Stellen umgehen. In der ersten Version werden Temperaturanomalien bei vorhandenem Meereis extrapoliert aus Lufttemperatur-Anomalien über dem Festland. In der zweiten Version werden Temperaturanomalien bei vorhandenem Meereis extrapoliert aus Anomalien der Wassertemperatur (normalerweise gemessen in Gebieten mit offenem Wasser an der Peripherie des Meereises). Für die meisten Ozeangebiete gilt, dass die Wassertemperaturen ähnlich sind der Lufttemperatur unmittelbar darüber; allerdings können Lufttemperaturen über Meereis substantiell von der Wassertemperatur unter dem Eis abweichen. Die Lufttemperatur-Version dieses Mittelwertes zeigt größere Änderungen in jüngster Zeit, teils weil Änderungen der Wassertemperatur begrenzt sind durch den Gefrierpunkt von Meerwasser. Wir glauben, dass die Verwendung von Lufttemperaturen über Meereis eine natürlichere Beschreibung der Änderungen der Temperatur auf der Erde bietet.

Die Verwendung von Lufttemperaturen über Meereis kann eine realistischere Repräsentation der arktischen Temperaturen im Winter bieten, wenn das Meereis die Landmassen erreicht und wenn diese Landmassen schneebedeckt sind, so dass sie die gleichen Albedo-Werte aufweisen. Während der Sommermonate jedoch kann die Albedo von Meereis verglichen mit den Landmassen unterschiedlich sein (Schneeschmelze legt die Temperatursensoren der Umgebung frei und die Albedo von Landflächen unterscheidet sich von der über Meereis). Offenes Wasser separiert auch das Festland von Meereis an vielen Stellen, was das Problem noch komplizierter macht. Da gibt es keine einfachen Verfahren.

Berkeley Earth listet auch die geschätzten absoluten Lufttemperaturen während der Referenzperiode für beide Produkte:

Geschätzte globale Mittlere Temperatur I von Januar 1951 bis Dezember 1980:

* Unter Verwendung der Lufttemperatur über Meereis: 14,774 +/- 0,046

* Unter Verwendung der Wassertemperatur unter dem Meereis: 15,313 +/- 0,046

Die geschätzte absolute globale mittlere Temperatur unter Verwendung der Lufttemperatur über Meereis liegt um 0,5°C unter den Daten, für die sie die Wassertemperatur unter dem Meereis verwendeten. Die Modelle, die weiter unten in diesem Beitrag gezeigt werden, repräsentieren Lufttemperaturen, und darum werden wir die Berkeley-Daten nutzen, bei denen die Lufttemperatur über dem Meereis eingeht. Dies stimmt auch mit den Verfahren bei den GISS LOTI-Daten überein.

Der Wassertemperatur-Datensatz wird bei Berkeley Earth) HadSST3) nur in Form der Anomalien angeboten. Und ohne eine stützende Studie gibt es keine Dokumentation darüber, wie Berkeley Earth diese Anomaliewerte in absolute Werte konvertiert hat. Die Datenquellen ICOADS sowie die Daten von HadISST und ERSST.v3b werden in absoluter Form gezeigt, so dass einer davon wahrscheinlich als Referenz gedient hat.

Vergleich von BEST, GISS und NCDC-Daten in absoluter Form

Die Daten der jährlichen mittleren globalen Temperatur in absoluter Form seit dem Startjahr 1880 bis zum letzten vollständigen Jahr 2013 von BEST, GISS und NCDC zeigt Abbildung 3. Die BEST-Daten sind wärmer als die anderen beiden, aber wie zu erwarten war, verlaufen die Kurven ähnlich.

Abbildung 3

In Abbildung 4 habe ich den kältesten Datensatz (NCDC) vom wärmsten Datensatz (BEST) subtrahiert. Die Differenz wurde außerdem geglättet mit einem gleitenden 10-Jahres-Filter (rote Kurve). Die meiste Zeit liegen die BEST-Daten in absoluter Form um etwa 0,8°C über der NCDC-Schätzung. Die Spitzenabweichung, die etwa 1940 beginnt und um 1950 ihren Höhepunkt erreicht, sollte verursacht sein durch die Adjustierungen, die das UK Met.-Office an den HadSST3-Daten vorgenommen hat, die an die Daten von NOAA ERSST.v3b nicht angebracht worden sind (die sowohl von GISS als auch von NCDC verwendet werden). Über diese Adjustierungen werde ich später etwas schreiben. Ich habe den Verdacht, dass die geringere Differenz zu Beginn der Datenreihe auch damit zusammenhängt, wie die Wassertemperaturdaten behandelt worden sind, aber es gibt keine Möglichkeit, dazu sicher etwas zu sagen, solange man keinen Zugang zu den von BEST modifizierten HadSST3-Daten hat. Der jüngste Anstieg sollte verursacht sein durch die Differenz, wie die beiden Anbieter (BEST und NCDC) mit den Daten des Arktischen Ozeans umgehen. Berkeley Earth weitet die Lufttemperatur-Daten über dem Festland bis über die Ozeane aus, während NCDC Wassertemperaturen im Arktischen Ozean ausklammert, wenn dort Meereis schwimmt, und man dabei nicht landbasierte Daten auf die Gebiete über dem Eis ausweitet.

Abbildung 4

Und nun zu den Modellen.

CMIP5-Modellsimulationen der absoluten Lufttemperatur der Erde, beginnend im Jahre 1880

Wie wir schon oft besprochen haben, werden die Ergebnisse der im 5. IPCC-Zustandsbericht verwendeten Modelle im Climate Model Intercomparison Project Phase 5 archive gespeichert, und jene Ergebnisse sind öffentlich zugänglich und können in leicht handhabbaren Formaten durch den KNMI Climate Explorer heruntergeladen werden. Die Ergebnisse bzgl. der Lufttemperatur im KNMI Climate Explorer können eingesehen werden auf der Website der Monthly CMIP5 scenario runs und werden als „TAS“ bezeichnet.

Die Modellergebnisse beim KNMI Climate Explorer sind verfügbar für die historischen Antriebe mit Übergängen zu den unterschiedlichen zukünftigen RCP-Szenarien (Siehe das Kapitel Emissions-Szenarien). Für dieses Kapitel präsentieren wir das historische und das Worst-Case-Zukunftsszenario RCP8.5. Wir verwenden das Worst-Case-Szenario allein als Referenz dafür, wie hoch die Temperaturen den Modellen zufolge steigen könnten, falls die Treibhausgas-Emissionen so weitergehen wie für dieses Szenario projiziert. Die Verwendung des Worst-Case-Szenarios hat wenig Auswirkung auf die Vergleiche zwischen Modell und Daten von 1880 bis 2013. Man erinnere sich, die Zukunfts-Szenarien beginnen in den meisten Modellen nach 2005, bei anderen noch später, so dass es nur sehr kleine Unterschiede gibt zwischen den Modellergebnissen der verschiedenen Modell-Szenarien während der ersten paar Jahre. Außerdem habe ich für dieses Kapitel die Ergebnisse separat für alle individuellen Modelle und ihre Ensemble-Mitglieder heruntergeladen. Es gibt insgesamt 81 Ensemble-Mitglieder aus 39 Klimamodellen.

Anmerkung: Die Modellergebnisse liegen in absoluter Form in Grad Celsius vor (auch in K), so dass ich sie in keiner Weise adjustiert habe.

Damit im Hintergrund ist Abbildung 5 eine Spaghetti-Graphik, die die von CMIP5 archivierten Ergebnisse der Klimamodellsimulationen der globalen Lufttemperatur von 1880 bis 2100 zeigen, mit historischen und RCP8.5-Antrieben. Eine größere Version der Graphik mit einer Auflistung aller Ensemble-Mitglieder steht hier.

Abbildung 5

Wie auch immer der Wert der globalen mittleren Temperatur derzeit aussieht oder in Zukunft oder in der Vergangenheit – die im 5. IPCC-Zustandsbericht verwendeten Modelle haben ihn mit Sicherheit überholt.

Einige Leute könnten jetzt argumentieren wollen, dass absolute Temperaturwerte unwichtig sind – und dass wir uns wegen der Erwärmungsraten in Vergangenheit und Zukunft Sorgen machen. Wir können diesem Argument auf zwei Wegen begegnen: Erstens haben wir in den Kapiteln CMC-1 und CMC-2 schon gesehen, dass Klimamodelle sich sehr schwer tun mit der Simulation der Temperaturen von 1880 bis 1980 und von 1980 bis heute. Später werde ich die Modellfehler noch sehr viel detaillierter beschreiben. Zweitens, absolute Temperaturen sind aus einem anderen Grund wichtig. Natürliche und verstärkte Treibhauseffekte hängen von der Infrarotstrahlung ab, die von der Erdoberfläche emittiert wird, und die Menge der von unserem Planeten in den Weltraum abgestrahlten Infrarotstrahlung ist eine Funktion der absoluten Temperatur und nicht von Anomalien.

Wie oben in Abbildung 5 gezeigt, starten die Modelle bei einer absoluten globalen mittleren Temperatur, die zwischen fast 12,2°C bis etwa 14,0°C reichen. Aber mit den Ausreißern erweitert sich die Bandbreite auf Werte zwischen 12,0°C und 15,0°C. Die Bandbreite der modellierten absoluten globalen Mitteltemperatur ist einfacher zu erkennen, falls wir die Modellergebnisse mit 10-Jahres-Filtern glätten. Siehe Abbildung 6:

Abbildung 6

Wir könnten die Bandbreite durch die Entfernung der Ausreißer reduzieren, aber ein Problem beim Entfernen der Ausreißer ist, dass die warmen Ausreißer relativ dicht bei der jüngeren (besseren?) Berkeley-Earth-Schätzung der absoluten Temperatur der Erde liegen. Siehe Abbildung 7, in der ich zu den jährlichen, nicht den geglätteten, Ergebnissen zurückkehre.

Abbildung 7

Das andere Problem bei der Entfernung der Ausreißer ist, dass das IPCC eine politische Institution ist, nicht eine wissenschaftliche. Als Ergebnis verwendet diese politische Institution auch Modelle von Agenturen rund um den Globus, selbst solche, die noch schlechtere Ergebnisse liefern als die (schlechte Leistung der) anderen, was die Gruppe als Ganzes noch weiter hinabzieht.

Mit Berücksichtigung dieser beiden Dinge werden wir alles von den Modellen in dieser Präsentation beibehalten, selbst die offensichtlichsten Ausreißer.

Schaut man noch einmal auf die große Bandbreite der Modellsimulationen der globalen mittleren Temperaturen in Abbildung 5, scheint es eine Spanne von mindestens 3°C zwischen den kältesten und den wärmsten zu geben. Das wollen wir mal festklopfen.

In Abbildung 8 habe ich die kältesten modellierten Temperaturen von den wärmsten modellierten Temperaturen in jedem Jahr subtrahiert, von 1800 bis 2100. Im größten Teil des Zeitraumes zwischen 1880 und 2030 ist die Spanne zwischen den kältesten und den wärmsten modellierten Temperaturen größer als 3°C.

Abbildung 8

Diese Spanne hilft, etwas hervorzuheben, dass wir schon ein paarmal angesprochen haben: Der Gebrauch von Modell-Mittelwerten aus den multimodellierten Ensemble-Mitgliedern, das Mittel aller Läufe aller Klimamodelle. Es gibt nur eine globale mittlere Temperatur, und deren Schätzungen variieren. Es gibt offensichtlich bessere und schlechtere Simulationen davon, wo auch immer der Wert liegt. Gibt uns die Mittelung der Modellergebnisse eine gute Antwort? Nein.

Aber der Mittelwert, das Mittel aller Modelle, gibt uns tatsächlich etwas von Wert. Er zeigt uns den Konsens, das Gruppendenken, hinter den modellierten globalen mittleren Temperaturen und wie diese Temperaturen variieren würden, falls (großes falls) sie auf die Antriebe reagieren würden, die die Klimamodelle treiben. Und wie wir sehen werden, die gemessenen Temperaturen reagieren nicht auf die von den Modellen simulierten Antriebe.

Vergleich Modell mit Daten

Infolge der Unterschiede zwischen den neueren (BEST) und den älteren (GISS und NCDC) Schätzungen der absoluten globalen Mitteltemperatur, werden sie separat präsentiert. Und weil die GISS- und NCDC-Daten so ähnlich sind, verwenden wir deren Mittelwert. Außerdem werden wir für die Vergleiche nicht alle der Ensemble-Mitglieder als Spaghetti-Graphik präsentieren. Wir zeigen das Maximum, den Mittelwert und das Minimum.

Mit diesen Festlegungen werden in Abbildung 9 das Mittel der Schätzungen der absoluten globalen Mitteltemperatur aus GISS und NCDC mit den Maxima, Minima und Mittelwerten der modellierten Temperaturen verglichen. Der Modellmittelwert liegt ausreichend nahe bei den GISS- und NCDC-Schätzungen der absoluten globalen Mitteltemperaturen, wobei das Modell im Mittel etwa 0,37°C niedriger liegt als die Daten im Zeitraum von 1880 bis 2013.

Abbildung 9

Abbildung 10 zeigt die BEST-Schätzung (neuer = besser?) der absoluten globalen Mitteltemperaturen von 1880 bis 2013 im Vergleich zu Maximum, Minimum und Mittelwert der modellierten Temperaturen. In diesem Falle liegt die BEST-Schätzung näher am Maximum und weiter vom Modellmittel entfernt als bei den Schätzungen von GISS und NCDC. Das Modellmittel liegt etwa 1,14°C niedriger als die BEST-Schätzung für den Zeitraum 1880 bis 2013.

Abbildung10

Differenz zwischen Modell und Daten

In den nächsten beiden Graphiken werden wir die datenbasierten Schätzungen der absoluten globalen Mitteltemperaturen der Erde vom Mittelwert der CMIP5-Modellsimulationen subtrahieren. Man beachte dies bei der Betrachtung der folgenden beiden Graphiken: Falls das Modellmittel die dekadischen und multidekadischen Variationen der Temperatur auf der Erde angemessen simuliert und einfach nur die Marke des absoluten Wertes verfehlt worden ist, wäre der Unterschied zwischen den Modellen und den Daten eine gerade horizontale Linie, bestimmt durch die Differenz.

Abbildung 11 zeigt die Differenz zwischen dem Modellmittel der Temperatursimulationen und das Mittel der Schätzungen von GISS und NCDC, wobei die Daten von den Modellwerten subtrahiert worden sind. Bei der folgenden Diskussion dreht es sich um das 10-Jahres-Mittel, das in rot ebenfalls eingezeichnet ist.

Abbildung 11

Der größte Unterschied zwischen Modellen und Daten tritt in den achtziger Jahren des 19. Jahrhunderts auf. Der Unterschied verringert sich drastisch während der folgenden rund 30 Jahre. Grund: Die Modelle simulieren nicht angemessen die zu jener Zeit stattgefunden habende Abkühlung. Die Differenz zwischen Modell und Daten nimmt dann von 1910 bis 1940 wieder zu. Dies zeigt, dass die Modelle nicht nur die Abkühlung zuvor, sondern auch die Erwärmung von 1910 bis 1940 nicht angemessen simulieren konnten. Der Unterschied durchläuft einen Zyklus bis zu den neunziger Jahren, wobei der Unterschied graduell wieder zunimmt. Und von den neunziger Jahren bis heute hat der Unterschied wegen des Stillstands zum geringsten Wert seit 1880 abgenommen.

Abbildung 12 zeigt den Unterschied zwischen der BEST-Schätzung der Temperatur und das Modellmittel der Simulationen. Die Kurve verläuft ähnlich der in Abbildung 11 bzgl. der GISS- und NCDC-Daten. Die BEST-Daten der globalen Temperatur zeigen weniger Abkühlung von 1880 bis 1910, und als Folge ist der Unterschied nicht so groß zwischen Modellen und Daten. Aber es gibt immer noch eine starke Zunahme der Differenz von 1910 bis etwa 1940 mit dem Scheitern der Modelle bei der angemessenen Simulation der damals eingetretenen Erwärmung. Und natürlich hat auch hier der jüngste Stillstand zu einer weiteren Abnahme der Temperaturdifferenz geführt.

Abbildung 12

Zusammenfassung dieses Kapitels

Es gibt eine Spanne von etwa 0,8°C bei den Schätzungen der absoluten globalen Mitteltemperatur, wobei die wärmere Schätzung von der neueren Schätzung stammt auf der Grundlage einer aktuelleren Datenbasis der globalen Temperatur. Mit anderen Worten, die BEST-Schätzung scheint wahrscheinlicher zu sein als die GISS- und NCDC-Werte.

Die Klimamodellsimulationen der absoluten globalen Temperaturen zeigen eine viel größere Spanne, die von 1880 bis 2013 im Mittel bei etwa 3,15°C liegt. Um das in die richtige Perspektive zu rücken, haben Politiker vorgeschlagen, dass wir die Erwärmung der globalen Temperatur auf 2,0°C begrenzen. Ein anderer Weg, jene 3,15°C Modellspanne in die richtige Perspektive zu setzen: Man betrachte, dass das IPCC in seinem 4. Zustandsbericht im Grunde behauptet hat, dass die gesamte Erwärmung von 1975 bis 2005 anthropogenen Treibhausgasen geschuldet ist. Diese Behauptung basierte auf Klimamodellen, die die natürliche Variabilität nicht angemessen simulieren können. Also war die Behauptung bedeutungslos. Unabhängig davon, die globalen Temperaturen sind zwischen 1975 und 2005 nur um etwa 0,55°C gestiegen, basierend auf dem Mittel der linearen Trends in den Daten von BEST, GISS und NCDC.

Und der Unterschied zwischen der modellierten und der gemessenen absoluten globalen mittleren Temperatur war nur ein anderer Weg zu zeigen, wie schlecht die globalen Temperaturen von den jüngsten und größten Klimamodellen simuliert werden können, die das IPCC in seinem 5. Zustandsbericht herangezogen hat.

ABER

Manchmal können wir etwas anderes erkennen, wenn wir Daten als Anomalien zeigen. In den Abbildungen 13 und 14 habe ich die Differenzen zwischen Modellen und Daten ersetzt durch ihre jeweiligen Mittelwerte von 1880 bis 2013. Das konvertiert die absoluten Differenzen in Anomalien. Wir verwenden die Gesamtmenge der Daten als eine Referenz um sicherzustellen, dass wir die Ergebnisse nicht verzerren durch die Wahl des Zeitraumes. Mit anderen Worten, niemand kann sich darüber beschweren, dass wir hinsichtlich der Referenzjahre Rosinenpickerei betrieben haben. Die Konzentration auf 10-Jahres-Mittel (rote Kurven) hilft, die Auswirkungen des gegenwärtigen Stillstands in die richtige Perspektive zu setzen.

Man behalte im Hinterkopf: Falls die Modelle die dekadischen und multidekadischen Variationen der Temperaturen der Erde angemessen simulieren würden, wäre die Differenz eine flache Linie, und in den folgenden beiden Fällen würde jene flache Linie bei der Null-Anomalie liegen.

Für die Mittelwerte der GISS und NCDC-Daten: Abbildung 13 zeigt, dass die Divergenz zwischen Modellen und Daten heute wegen des derzeitigen Stillstands die größte (und schlimmste) ist seit etwa 1890 ist.

Abbildung 13

Und betrachtet man die Differenz zwischen den Modellsimulationen der globalen mittleren Temperatur und der BEST-Daten, ist das Modellverhalten wegen des Stillstands das schlechteste jemals während der jüngsten 10-Jahres-Periode, seit man globale Temperaturen simuliert, wie Abbildung 14 zeigt.

Abbildung 14

Falls man al zu Abbildung 7 zurückgeht, erkennt man, dass es eine kleine Untermenge von Modellläufen gibt, die der Berkeley Earth-Schätzung der absoluten globalen Mitteltemperatur zugrunde liegt. Sie liegen so dicht beieinander, dass es sehr wahrscheinlich so aussieht, als wären jene Modelle am jene Temperaturen angepasst worden.

Nun dachte ich mir, dass man daran interessiert sein könnte zu wissen, um welche Modelle es sich handelt. Siehe Abbildung 15. Sie sind 3 Ensemble-Mitglieder des MIROC5-Modells von der International Centre for Earth Simulation (ICES Foundation) und die 3 Ensemble-Mitglieder des GISS ModelE2 with Russell Ocean (GISS-E2-R).

Abbildung 15

Das heißt nicht, dass die Modelle MIROC5 und GISS-E2-R besser sind als irgendwelche anderen Modelle. So weit ich weiß, können auch diese Modelle wie alle anderen immer noch nicht die gekoppelten Ozean-Atmosphäre-Prozesse simulieren, die dazu führen können, dass sich die globalen Temperaturen über multidekadische Zeiträume erwärmen oder diese Erwärmung zum Stillstand bringen können wie die AMO und ENSO. Wie oben schon erwähnt, dass sie näher an der aktualisierten Schätzung der absoluten Temperatur der Erde liegen, zeigt einfach, dass jene Modelle dahingehend getunt worden sind. Vielleicht sollte man beim GISS in Betracht ziehen, ihre Schätzung von 14,0°C als absolute globale Temperatur für ihre Basisperiode zu aktualisieren.

Wir haben die vielfältigen Fehlleistungen der Modelle während der letzten Jahre gezeigt. Unter den besprochenen Themen waren:

* Global Precipitation

* Satellite-Era Sea Surface Temperatures

* Global Surface Temperatures (Land+Ocean) Since 1880

* Global Land Precipitation & Global Ocean Precipitation

Alle Beiträge waren auch bei WattsUpWithThat gepostet.

Link: http://wattsupwiththat.com/2014/11/10/on-the-elusive-absolute-global-mean-surface-temperature-a-model-data-comparison/

Übersetzt von Chris Frey EIKE




Die Milch, das Mädchen und Deutschlands Klimaziele – Über den politisch korrekten Umgangs mit Statistiken

Das Interessante an der deutschen Klimapolitik ist die Tatsache, dass man hier besonders schön die altbekannte Tatsache vorgeführt bekommt, dass man keiner Statistik trauen sollte, die man nicht selbst gefälscht hat. Statt von Fälschung spricht man in maßgeblichen Kreisen heute allerdings lieber vornehm von „kreativem Umgang“.

Betrachtet man die Auftragung der CO2-Emissionen für Deutschland im Zeitraum ab 1990, so zeigt sich ein erkennbar nach unten verlaufender Trend, Bild 1. Besonders hilfreich war vor allem in den Anfangsjahren, dass man die weltweit einmalige Gelegenheit hatte, die geradezu grotesk energieineffiziente Infrastruktur der ehemaligen DDR abzuwickeln. Die DDR hatte pro Kopf der Bevölkerung einen erheblich höheren Energieverbrauch als der Westen. Es gibt u.a. Berichte über Wohnhäuser, wo man die Temperatur im Winter dadurch regelte, indem man die Fenster mal mehr und mal weniger öffnete, weil die Heizung kein Ventil hatte. So war es leicht, spektakuläre Einsparungen zu erzielen. Allerdings gibt es auch Jahre, in denen es zu einem erneuten Anstieg kam.

Bild 1. Für die letzten 24 Jahre weisen die jährlichen CO2-Emissionen in Deutschland eine erkennbar rückläufige Tendenz auf (Daten: [STAT, UMBA])

Das hehre 40-%-Ziel der Bundesregierung…

Erklärtes Ziel der aktuellen Bundesregierung ist eine Reduktion dieser „Treibhausgas“-Emissionen um 40 % bis zum Jahre 2020 [HEND]. Die Frage ist allerdings, wieweit dieses Ziel realistisch erreichbar sein dürfte. Üblicherweise untersucht man dazu den bisherigen Verlauf mithilfe statistischer Verfahren. Dazu analysiert man die Messwerte daraufhin, ob ihr Verlauf durch eine mathematische Funktion beschrieben werden kann. Mit der dann gefundenen Gleichung rechnet man dann die in der Zukunft zu erwartenden Werte aus, um festzustellen, ob sich die gewünschte Abnahme bis zum entsprechenden Zeitpunkt einstellen dürfte. Falls ja, wäre alles im grünen Bereich. Anderenfalls wird man seitens der Politik entsprechende Zwänge (Pardon, gemeint sind natürlich Anreize) einsetzen müssen.

Allerdings gibt es zahlreiche unterschiedliche statistische Auswerteverfahren, so dass man bei ihrer Auswahl und ihrem Einsatz, wie bereits erwähnt, eine gewisse „Kreativität“ ausleben kann. Versuchen wir also zunächst herauszufinden, welcher dieser Methoden sich die Politik vermutlich bedient hat, um zur Festlegung des 40-%-Ziels bis zum Jahre 2020 zu kommen. Folgt man der Logik der allseits bekannten Zunft der Milchmädchen, die deutschen Politikern bei allem, was höhere Mathematik angeht, häufig als Vorbild zu dienen scheinen, so vermeidet man am besten allzu aufwendige Rechenverfahren. Am einfachsten ist es, zwei geeignet erscheinende Messdaten herauszugreifen: Einmal als Ausgangspunkt das Jahr 1990 und einmal einen Wert so ungefähr gegen Ende der Messreihe hin, der so liegt, dass eine durch beide Punkte gezogene gerade Linie im Jahre 2020 beim gewünschten Zahlenwert endet. Und siehe da, es geht: Die Erreichung des heute gültigen 40-%-Ziels erscheint zwanglos möglich, wenn man lediglich die Werte der Jahre 1990 und 2009 durch eine gerade Linie verbindet und diese anschließend bis 2020 verlängert, Bild 2.

Bild 2. Eine Trendlinie auf der alleinigen Grundlage der Werte von 1990 und 2009 lässt das 40-%-Ziel durchaus realistisch erscheinen

Soweit, so gut. Allerdings stimmt dieser Trend aufgrund der dummerweise äußerst unflexiblen Gesetze der Mathematik nur, solange man die übrigen Werte der Reihe aus der Betrachtung herauslässt. Eine saubere Trendauswertung sollte jedoch alle in einer solchen Zeitreihe enthaltenen Werte berücksichtigen, Bild 3.

Bild 3. Lineare Trendermittlung für die CO2-Emissionen 1990-2013 mit Projektion bis 2030. Für das Jahr 2020 wird das 40-%-Ziel jetzt deutlich verfehlt

und die böse Realität

Berücksichtigt man also für die Berechnung eines linearen Trends alle Werte der Jahre von 1990 bis 2013, so erhält man eine Abnahmerate von 0,81 %/ Jahr. Bis 2020 erhielte man so eine Verringerung der Emissionen um 24,3 %, während der Wert für 2030 bei 32,4 % läge. Für eine politische Führung, die gerne als weltweites Vorbild in Sachen Klimaschutz wahrgenommen werden möchte, ist das keinesfalls ausreichend.

Zudem zeigt sich bei genauer Betrachtung der Werte in Bild 3 eine ärgerliche Unstimmigkeit: Im Verlauf der letzten fünf Jahre stiegen die CO2-Emissionen recht deutlich wieder an. Dies könnte auf einen Bruch bzw. eine Umkehr des bisherigen Trendverlaufs hindeuten. Um dies genauer zu erkennen, kann man für den gesamten Datenpark den gleitenden Durchschnitt ermitteln und als Kurve darstellen. Dies ist eine leicht zu handhabende Methode, mit deren Hilfe sich schnell erkennen lässt, ob im Verlauf einer Wertereihe Trendänderungen auftreten. Eine entsprechende Darstellung zeigt Bild 4.

Bild 4. Der gleitende Durchschnitt macht Trendwechsel besser erkennbar

Tatsächlich erkennt man bei Anwendung dieser Methode deutlich einen Trendwechsel im Zeitraum ab 2009. Für die Analyse der Zeitreihe sollte man daher besser eine Polynomfunktion wählen. Als sinnvollster Ansatz wurde ein Polynom zweiter Ordnung (Bild 5) gewählt, weil dieses von verschiedenen vertretbaren Ansätzen das beste Bestimmtheitsmaß aufweist.

Bild 5. Verwendet man für die Analyse der Zeitreihe ein Polynomansatz zweiter Ordnung, so sinkt der CO2-Ausstoß nicht unter 800 Mio. t/ Jahr und es kommt ab etwa 2025 sogar zu einem erneuten Anstieg

Als Fazit ergibt sich, dass der bisherige Verlauf der Reduktion des deutschen CO2-Ausstoßes im Zeitraum seit 1990 bei korrekter Handhabung der üblichen statistischen Verfahren die Regierungsziele nicht bestätigt. Den deutschen Umwelt- und Klimapolitikern bleiben daher nur zwei gleichermaßen unangenehme Alternativen: Entweder sie geben zu, dass die angestrebten „Klimaschutzziele“ unrealistisch und daher nicht zu erreichen sind, oder sie ergreifen einschneidende Maßnahmen für eine verstärkte Einschränkung des Energieverbrauchs. Letzteres dürfte jedoch mit an Sicherheit grenzender Wahrscheinlichkeit negative Auswirkungen auf die wirtschaftliche Entwicklung des Landes haben.

Die Haltung „Deutschland gegen den Rest der Welt“…

Wenn man sich von der deutschen „heilen Klimaschutz-Welt“ abwendet und die weltweite Entwicklung der letzten 24 Jahre in Sachen CO2-Ausstoß und Klimapolitik genauer ansieht, bekommt man den Eindruck, dass sich Deutschland diesbezüglich in eine ähnlich fatale Situation manövriert hat wie 1914 und 1939, als man es zuwege gebracht hatte, sich so viele Feinde zu schaffen, dass der Ausgang der dann ausbrechenden Kriege eigentlich von vornherein klar war. Deutschland hat in den letzten 24 Jahren weit mehr als eine halbe Billion € in das Bemühen investiert, seinen CO2-Ausstoß um etwa 200 – 220 Mio. t/ Jahr zu senken. Doch was bedeutet das im Vergleich mit der Wirklichkeit auf dem Rest des Planeten?

Bild 6 zeigt, wie sich der weltweite menschengemachte CO2-Ausstoß seit Beginn der Industrialisierung im 18./19. Jahrhundert verstärkt hat. Die Kurve lässt erkennen, wie sehr die Entwicklung unserer heutigen technischen Zivilisation mit der Möglichkeit der Nutzung von zusätzlichen, nicht-natürlichen Energieressourcen verknüpft ist. Mitte des 18. Jahrhunderts war der Mensch noch auf Holz, eigene Muskelkraft, Zugtiere und ein wenig Wind- und Wassermühlentechnik angewiesen. Ohne Motoren, Heizöl und Elektrizität könnte unser Planet schwerlich mehr als eine Milliarde Menschen ernähren, und selbst deren Lebensstandard wäre kümmerlich: Kalte Wohnungen, harte körperliche Arbeit, Mangelernährung, Seuchen, früher Tod im Kindbett, Zähne ziehen ohne Betäubung etc. etc.

Bild 6. Die Entwicklung unserer heutigen technischen Zivilisation war nur durch Nutzbarmachung zusätzlicher Energieressourcen möglich (Daten: [USDE])

Grundlage der Selbstverpflichtung Deutschlands und auch der EU ist das als Kyoto-Protokoll bezeichnete Abkommen, das mit diversen Nachbesserungen eine Reduktion der Treibhausgasemissionen bis 2020 um bis zu 40 % vorsieht. Seit seiner Verabschiedung hat die Welt allerdings nicht stillgestanden. Der rote Teil der Grafik in Bild 6 zeigt, dass der mit der Industrialisierung begonnene Trend zu verstärkter Nutzung fossiler Ressourcen auch nach 1990 völlig ungebrochen anhielt. Von 1990 bis 2012 stieg der weltweite CO2-Ausstoß um rund 13 Mrd. t/ Jahr auf inzwischen knapp 35,5 Mrd. t/ Jahr an [USDE]. Das entspricht einer Zunahme von fast 58 %. Die von Deutschland erzielten Einsparungen machen lediglich etwa 0,5 % dessen aus, was die gesamte Menschheit inzwischen an CO2 produziert.

kommt das Land teuer zu stehen

Für die Utopie, quasi im Alleingang gegen alle anderen die Welt vor dem „Klimawandel“ retten zu müssen, zahlt Deutschland einen hohen und immer weiter steigenden Preis. Dieser drückt sich nicht nur in den Hunderten von Milliarden Euro aus, die hierzulande in untaugliche Systeme zu Erzeugung „erneuerbarer“ Energie investiert werden, sondern auch darin, dass das Land in der Rangliste moderner Industrienationen stetig immer weiter nach unten rutscht. Besonders deutlich wird das am Beispiel von Grundstoffindustrien wie beispielsweise der Stahlerzeugung, Bild 7.

Bild 7. Während Deutschlands Stahlproduktion mit ca. 44-45 Mio. t/Jahr seit 1990 praktisch stagniert, ist sie weltweit um 109 % auf inzwischen 1607 Mio. t/ Jahr angestiegen (Grafik: Wirtschaftsvereinigung Stahl)

Damit hat sich der Anteil Deutschlands an der Welt-Stahlproduktion innerhalb der letzten 24 Jahre mehr als halbiert. Mit nur noch knapp 3 % rutscht das Land industriepolitisch inzwischen selbst in der zweiten Liga schon in Richtung der Abstiegsränge. Ähnliche Entwicklungen sind auch in anderen wichtigen Industriesektoren wie Aluminium, Zement sowie der Chemie zu beobachten. Einer kürzlichen Meldung zufolge hat die chemische Industrie– und das ist Deutschlands drittgrößter Industriesektor nach Auto- und Maschinenbau – seit 2011 ihre Produktion bzw. ihre Investitionen in Deutschland nicht erhöht [EIKE]. Und der gleichen Quelle zufolge erwägt laut einer Umfrage der deutschen Industrie- und Handelskammer zufolge fast ein Viertel aller Unternehmen der Schwerindustrie, ihre Produktion in Deutschland zu verringern. Was viele Mitbürger zudem nicht wissen: Deutschland kauft heute energieintensiv erzeugte Metalle und Chemikalien in viel größerem Umfang ein als früher. Auf gut Deutsch gesagt: Wir lassen andere Länder die CO2-intensiven Produkte erzeugen, die wir selbst nicht mehr herstellen wollen, kaufen diese dann ein und brüsten uns vor der Öffentlichkeit dann als die ganz tollen CO2-Einsparer.

Aus Angst vor einem angeblichen Klimawandel, an dessen Existenz neben immer mehr Wissenschaftlern auch wachsende Anteile der Bevölkerung deutliche Zweifel anmelden, hat sich das Land einer ruinösen „Klimarettungspolitik“ verschrieben. An die Erreichbarkeit der lauthals verkündeten „Klimaziele“ durch Reduktion unseres CO2-Ausstoßes können höchstens noch Milchmädchen glauben. Der Rest der Welt sieht Deutschland bei seinem Kurs ins industriepolitische Abseits mit einem mokanten Lächeln auf den Lippen zu und wahrt zugleich seine wirtschaftlichen Interessen. Getreu dem Spruch Sigmar Gabriels: „Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte“ [GABR].

Weitere unsinnige Belastungen für die Industrie

Natürlich ist auch der Politik klar, dass Deutschland seine vollmundig proklamierten Ziele wohl kaum erreichen wird. Doch statt die Ziele zu ändern, übt man lieber in bewährter Manier Druck auf die Industrie aus. Einer Mitteilung im Spiegel Online zufolge [SPIE] hat das Kabinett in der vergangenen Woche beschlossen, dass gut 50.000 Firmen in der Bundesrepublik alle vier Jahre sogenannte Energie-Audits durchführen sollen, eine Art Buchprüfung für Energieeffizienz. Interessierte Kreise aus „der Wissenschaft“, die sich offensichtlich lukrative Aufträge seitens der unter Druck gesetzten Unternehmen erhoffen, bemängeln der gleichen Meldung zufolge, dass die Massnahmen zu unverbindlich seien, und hoffen auf ein weiteres Bündel von Maßnahmen „für einen effizienteren Energieeinsatz“, das das Bundeskabinett am 3. Dezember beschließen will. Der „Nationale Aktionsplan für Energieeffizienz“, kurz Nape, und soll ebenfalls helfen, das „Klimaziel“ zu erreichen. Dabei geht es um ganze 23 Mio. t CO2 im Jahr, wofür die Firmen 15 Mrd. € investieren sollen.

Abgesehen von dem bürokratischen Aufwand, wenn 50.000 Firmen gezwungen werden, jeweils etliche Mitarbeiterstunden auf das Studium dieser neuen bürokratischen Monstrosität zu verschwenden, ist schon die Tatsache entlarvend, dass man seitens des beteiligten Fraunhofer Instituts für System- und Innovationsforschung glaubt den Unternehmen vorrechnen zu müssen, wie lohnend die entsprechenden Investitionen doch seien. Diese Bürokraten-„Wissenschaftler“ in ihren Elfenbeintürmen haben anscheinend nicht die geringste Vorstellung davon, in welchem Umfang sich jeder Gewerbebetrieb tagein, tagaus mit der Möglichkeit beschäftigt, Kosten zu senken, wo immer es nur geht. Diesen Leuten braucht man ihren Job nicht zu erklären, sie wissen selbst ganz genau, wann sich eine Investition rechnet und wann eben nicht. Denn diejenigen, die es nicht können, werden vom Wettbewerb eher früher als später aussortiert.

Fred F. Mueller

Quellen

[EIKE] http://www.eike-klima-energie.eu/news-cache/europas-gruener-selbstmord-schwerindustrie-verlegt-investitionen-ins-ausland/

[GABR] http://www.1730live.de/sigmar-gabriel-nimmt-in-kassel-stellung-zur-energiewende

[HEND] http://www.heute.de/bundesumweltministerin-barbara-hendricks-will-mehr-kohlekraftwerke-vom-netz-nehmen-35722120.html

[SPIE] http://www.spiegel.de/wirtschaft/soziales/energiewende-firmen-koennten-23-millionen-tonnen-co2-sparen-a-1001488.html

[STAT] http://de.statista.com/statistik/daten/studie/2275/umfrage/hoehe-der-co2-emissionen-in-deutschland-seit-1990/

[UMBA] http://www.umweltbundesamt.de/sites/default/files/medien/384/bilder/dateien/2_abb_thg-emissionen_2014-03-07_0.pdf

[USDE] http://cdiac.ornl.gov/ftp/ndp030/global.1751_2010.ems




Macht endlich Schluss mit der Theorie des atmosphärischen Treibhauseffekts!

Richtigstellung nach der Konfusion durch die tendenziöse und irrige Interpretation des atmosphärischen Gleichgewichts unter dem Einfluss der Schwerkraft


Der Treibhauseffekt gilt inzwischen als „wissenschaftliche Tatsache“, weil ihm Millionen von Menschen und insbesondere die selbsternannten Klimaspezialisten des IPCC, viele politisierte NGOs und besonders in Europa viele Umwelt- und Energieminister anhängen.

Die Hypothese der Klimaerwärmung stützt sich auf zwei Dogmen: den Treibhauseffekt und die Beteiligung des CO2 daran. Ich finde es überraschend und beunruhigend, dass diese „wissenschaftliche Tatsache“ sich mit keinem der allgemein anerkannten Grundprinzipien der Physik wie der Thermodynamik oder dem Gravitationsgleichgewicht der Atmosphäre erklären lässt. Ich möchte mich mit dem zuletzt genannten Prinzip beschäftigen, denn eine irrige Interpretation des Gravitationsgleichgewichts der Atmosphäre hat zur Formulierung der Theorie vom Treibhaus Atmosphäre und der schädlichen Rolle des CO2.

Ich möchte also nicht das thermische und radiative Gleichgewicht der von der Sonne beschienenen Erde behandeln, die durch die Gleichungen von Planck und Stefan-Boltzmann über schwarze Körper erklärt werden, sondern nur die Verwirrung, die durch eine tendenziöse Interpretation des atmosphärischen Gleichgewichts unter dem Einfluss des Gravitationsfeldes der Erde entstanden ist.

Nur wer den Einfluss der Schwerkraft leugnet und die Beobachtungen von Newton und Galilei zurückweist, kann die folgenden Fakten übersehen: Die Atmosphäre wiegt im Durchschnitt auf Meereshöhe etwa zehn Tonnen je Quadratmeter. Mit minimalen Abweichungen von diesem Mittelwert beschäftigen sich die Meteorologen, denn es handelt sich dabei um Hoch- und Tiefdruckgebiete und die mit Luftdruckunterschieden verbundenen Wetterphänomene. Es geht dabei um Schwankungen in der Größenordnung von höchstens 3 Prozent. Das mag vernachlässigbar erscheinen. Da aber riesige Luftmassen im Spiel sind, fällt das doch ins Gewicht. Die Dichte und die Temperatur der Luft nehmen bekanntlich nach oben hin ab. Jeder Bergwanderer spürt das am eigenen Leib. Die Kompression der Atmosphäre durch die Schwerkraft ist also verantwortlich für die Verteilung der Temperaturen in der ganzen Troposphäre, die am Äquator bis in 17 Kilometer Höhe reicht. Oberhalb von dieser Grenze sorgt die Ionisierung der immer spärlicher werdenden Gasmoleküle durch den Sonnenwind und die kosmische Strahlung dafür, dass die bekannten physikalischen Gesetze über das Verhalten idealer Gase nicht mehr gelten.

Die einfache Beziehung zwischen der Höhe, der Dichte und der Temperatur der Luft wird in der Physik durch den adiabatischen Gradienten ausgedrückt. Dieser drückt aus, dass die trockene Luft sich auf 1.000 Meter Höhe um 9,8 und die feuchte Luft aufgrund der großen thermischen Trägheit des Wasserdampfes lediglich um 6,5 Grad Celsius abkühlt.

Ich erinnere daran, dass die Erde sich thermodynamisch wie ein schwarzer Körper mit einer Temperatur von minus 18 Grad Celsius verhält. Diese Temperatur finden wir auf einer mittleren Höhe von 5.000 Metern. Wenn wir den adiabatischen Gradienten anwenden, finden wir auf Meereshöhe eine Durchschnittstemperatur von 14,5 Grad Celsius. Das wird durch Beobachtungen bestätigt. Wenn wir uns den Polen nähern, nimmt die Durchschnittstemperatur selbstverständlich wegen der geringeren mittleren Sonneneinstrahlung ab. Aber der adiabatische Gradient gilt auch dort. In den Wüsten liegt die Temperatur wegen der geringen Luftfeuchtigkeit am Tag über, bei Nacht aber unter dem Mittelwert.

Die Verfechter der Treibhaustheorie verweisen nun auf die Beobachtung unseres Nachbarplaneten Venus. Aus mehreren Gründen ist aber der Vergleich von Erde und Venus irreführend.

Die Umlaufbahn der Venus liegt näher zur Sonne. Venus erhält also mehr Strahlungsenergie als die Erde. Da sie aber gleichzeitig wegen ihrer dichten Wolkendecke eine größere Albedo hat, also mehr Sonnenstrahlen reflektiert als die Erde, spielt ihre größere Nähe zur Sonne keine so große Rolle. Was aber ins Gewicht fällt, ist die sehr viel größere Dichte ihrer Atmosphäre, die größtenteils aus dem schweren Gas CO2 besteht. Diese ist ungefähr 92mal so hoch wie die der Erde. Der atmosphärische Druck beträgt dort 920 Tonnen je Quadratmeter (wie auf der Erde in 1.000 Meter Meerestiefe). Aber der adiabatische Gradient gilt auch auf der Venus. Die Temperatur nimmt auch dort um etwa 9 Grad Celsius je 1.000 Höhenmeter ab.

Da die Dichte der Venus-Atmosphäre jedoch am Boden etwa 95 Kilo je Kubikmeter beträgt, ergibt sich bei der Anwendung des gleichen Gesetzes der adiabatischen Kompression eine Temperatur von 465 Grad. Temperaturen um Null Grad finden sich auf der Venus erst in 50 Kilometer Höhe. Schließlich darf man nicht vergessen, dass ein Tag auf der Venus so lange dauert wie 243 Tage auf der Erde. Starke Konvektionsströme und Stürme sorgen aber für einen  guten Temperaturausgleich zwischen Tag- und Nachseite des Planeten. Deshalb ist es nicht gerechtfertigt, von einem Treibhauseffekt auf der Venus zu sprechen. Der Planet befindet sich vielmehr in einem Strahlungsgleichgewicht mit dem Weltraum. Nur sind dessen Parameter andere als die der Erde. Gäbe es auf der Venus einen durch CO2 verursachten Treibhauseffekt, hätte der Planet längst schmelzen und verdampfen müssen. Stattdessen gibt es darauf der Berge und Ebenen und sogar Vulkane wie auf der Erde – und vielleicht sogar Seen aus überkritischem CO2.

Von daher lässt sich begreifen, warum der vor allem vom NASA-Forscher James Hansen für die Erklärung des Treibhauseffektes bemühte Vergleich zwischen Erde und Venus hinkt. Die Atmosphäre der Venus besteht zu 95 Prozent aus CO2, der Rest aus Stickstoff und Spuren von Schwefeldioxid. Zu Unrecht haben James Hansen oder Al Gore Kritikern entgegnet: „Schauen Sie doch, was auf der Venus los ist!“ Denn nicht wegen des CO2 herrscht auf der Venusoberfläche eine Temperatur von 465 Grad. Diese ergibt sich allein aus der Anwendung fundamentaler Gesetze der Thermodynamik und der Physik idealer Gase. Die Treibhaustheorie widerspricht hingegen den fundamentalen Prinzipien der Physik.

Ich frage mich daher, warum es niemand wagt, den Vertretern der Treibhaustheorie die Stirn zu bieten. Stattdessen folgen die Regierungen blind den vom IPCC und von grünen NGOs vorgerechneten Extrapolationen. Sie schämen sich nicht, offen malthusianistisch zu argumentieren und drohen damit, etliche Länder in die ökonomische und soziale Katastrophe zu führen. 

Für Neugierige bringe ich hier die Gleichung des adiabatischen Gleichgewichts. Der thermodynamische Zustand einer Luftsäule lässt sich vereinfacht folgendermaßen umschreiben:

Dabei ist U die Gesamtenergie, Cp die thermische Kapazität der Atmosphäre (1004 joules/kg/Grad K für trockene Luft, 1012 für feuchte Luft mit durchschnittlich 0,25 % Wasserdampf), T die Temperatur des Abschnitts der Luftsäule (in Grad Kelvin), g die Erdbeschleunigung und h die Höhe in km. Leitet man diese Gleichung ab, erhält man:

(ausgedrückt in K/km). Hier taucht der Term g/Cp, genannt « Adiabatischer Gradient », auf. Dieser beschreibt das Gleichgewicht zwischen dem Druck und der Temperatur der Atmosphäre. Wir können diese Differentialgleichung folgendermaßen umformen:

Da g und Cp positive physikalische Größen sind, sieht man sofort, dass die Verteilung der Temperaturen im Schwerefeld der Erde, wie auch im Schwerefeld beliebiger Planten mit einer Gashülle, mit der Höhe abnimmt.

Die letztgenannte Gleichung kann aufgelöst werden, indem man für h0 die Meereshöhe und für T0 die entsprechende Temperatur einsetzt:

Man findet dann leicht die Bodentemperatur (h0 = 0), indem man in die Gleichung die Höhe von 5 Kilometern für die Isotherme von -18 °C einsetzt, die dem Strahlungsgleichgewicht des Systems Erde-Atmosphäre (nach den Gesetzen von Stefan-Boltzmann) entspricht:

t = – 6,5 (h – 5) – 18 = 32,5 – 18 = 14,5 Grad Celsius. Der Faktor 6,5 entspricht der thermischen Kapazität der mit Wasserdampf beladenen Luft. Der mittlere Wasserdampfgehalt der Atmosphäre liegt ungefähr bei 0,25 Prozent.

Gäbe es in unserer Atmosphäre einen Treibhauseffekt, dann müsste an erster Stelle der Wasserdampf dafür verantwortlich sein. Es gibt in der Atmosphäre 600mal mehr Wasserdampf als Kohlenstoffdioxid. Diesen Faktor 600 muss man noch einmal mit 5 multiplizieren, denn die thermische Kapazität des Wassers liegt bei 4.180 joule/kg/°K gegenüber nur 840 joule/kg/°K für CO2. Wasserdampf besäße also ein 3.000mal so starkes „Treibhauspotenzial“ wie CO2. Wäre unsere Atmosphäre tatsächlich ein Treibhaus, wären die Ozeane längst verdampft.      (Übersetzung: Edgar L. Gärtner) 

*) Original erschienen im französischen Magazin Contrepoints am 5. November 2014

Über den Autor

Jacques Henry ist Biologe. Er arbeitete lange Jahre als Forscher beim CNRS (Centre National de Recherche ScientifiqueI, dem franz. Partner der Max-Planck-Gesellschaft, Henry hat danach als Berater für die Nuklearsparte von Electricité de France (EdF) gearbeitet und befindet sich jetzt im Ruhestand.




EIKE 8. Internationale Klima- und Energiekonferenz in Frankfurt Main : Info-Kurz-Video

Kurzvideo mit einer Auswahl verschiedener Themen die auf der Konferenz am 17.10.14 in Frankfurt/Main behandelt wurden




Klimawandel: Man folge dem Geld!

Oftmals wird mir vorgeworfen, auf der Liste der Zahlungsempfänger von diesen Interessengruppen zu stehen, aber wenn man mal auf meine Wirklichkeit schaut, musste ich um Hilfe betteln, um nach Bristol zu kommen, um den Vorträgen von Mann und Cook beizuwohnen. Ich habe mich auf den guten Willen meiner täglichen Leser verlassen, für den ich allen Beteiligten herzlich danken möchte.

Mit dieser Disparität im Hinterkopf kam es mir wie bittere Ironie vor, als dieses Werbebanner heute bei WUWT erschien. Wahrscheinlich war das so, weil ich auf Reisen bin und von einer neuen IP-Adresse komme. Ich habe es noch nie zuvor gesehen, aber ich bin in keiner Weise überrascht, dass es hier auftaucht, betrachtet man Inhalt und Natur dieses Blogs.

Bild oben rechts: Das Werbebanner. EDF steht für Environment Defense Fund, dem hiesigen BUND oder NABU vergleichbar.

Ein Blick auf die EDF-Website ist sehr aufschlussreich:

Abgebildet sind Screenshots ihrer Finanzen. Auf der Website gibt es auch eine Anzahl von PDF-Dateien, die über deren Einkommen Auskunft geben.

Mit diesem Geld, dass der EDF jährlich zufließt, fragt man sich, warum sie um jeden einzelnen Dollar betteln müssen. Ebenso fragt man sich, wer dumm genug ist, diesen Leuten Geld zu überweisen, wenn diese Leute schon viel mehr haben, als sie brauchen. An private Organisationen überwiesene Geldsummen würden hinsichtlich der Temperatur nicht einen Iota ausmachen, selbst dann, wenn es wirklich einen Sorgen bereitenden Temperaturanstieg geben würde (hier).

Bereits im Jahre 2009 hat Jo Nova die Höhe der Geldsummen für das Klima verfolgt und diese Graphik erstellt:

Es wäre interessant zu erfahren, ob der „Stillstand“ Auswirkungen auf die Zuwendungen hat oder ob sich der steile Trend fortsetzt.

Ich glaube, dass Technologie und Vermögensbildung der Weg vorwärts sind und dass damit die Sorgen der postulierten, vom Menschen verursachten Klimaänderung sich in der Zukunft von selbst erledigen werden.

Link: http://wattsupwiththat.com/2014/11/10/climate-change-follow-the-money/

Übersetzt von Chris Frey EIKE




Der Treibhauseffekt- ein Missverständnis? Teil 1

 

Abb.1 zeigt die Temperaturentwicklung der letzten 11.000 Jahre nach Schönwiese. Gleich zu mehreren Zeiten war es wärmer als heute, Quelle: PD Dr. H. Kehl

So lässt auch die Gegenwart keinen Raum zur Sorge oder gar Panikmache. Der Temperaturanstieg nach der letzten Kälteperiode, die etwa bis 1850 reichte, fiel nicht nur in unserm Land verhalten aus (Abb.2).

 

Abb.2: In den ersten 90 Jahren des letzten Jahrhunderts war das Klima weitgehend stabil. Neben dem ständigen Wechselspiel zwischen wärmeren und kälteren Jahren, gab es Zwischenphasen mit leichten Erwärmungen aber auch kältere Jahrzehnte. Man beachte vor allem den Kälteeinbruch 1940/41/42, der auf einen starken El Nino zurückzuführen war, wie Untersuchungen der ETH, Prof. Brönnimann, zeigen (Spektrum der Wissenschaft 03/05, “Pazifik ließ Europa frieren“). Wie wir heute wissen, sind die Auswirkungen von El Nino weltweit zu spüren.

Zwischen 1900 bis 1990 sind die Temperaturen in Deutschland kaum gestiegen. Der leichte Trendlinienanstieg ist zum einen auf den ansteigenden Hauptsonnenzyklus (den im Mittel 208-jährigen De Vries/Suess-Zyklus) und zum anderen, auf den zunehmenden Wärmeinseleffekt, der Verstädterung der Landschaft, zurück zu führen. Die eigentliche „Klimalüge“ nahm 1988 an Fahrt auf, als sich der selbsternannte Weltklimarat gründete (von der Politik gegründet wurde) und ohne belastbare physikalische Grundlagen postulierte, dass die ständige Zunahme an Kohlendioxid in der Atmosphäre einen Treibhauseffekt verursachen würde und damit einen Gärtnerbegriff, der auf der physikalischen Grundlage der Konvektionsunterdrückung und der verzögerten Abkühlung (Abkühlungsgesetz nach Newton) beruht, auf die Erdatmosphäre übertrugen, ohne zu berücksichtigen, dass dort gänzlich andere Rahmenbedingungen vorliegen, als in einem Gärtnerhäuschen.

„Treibhauseffekt“

Der Begriff “Treibhauseffekt“ basiert auf der Absorptionswirkung der Atmosphärengase für die sog. Erdrückstrahlung oder auch „Gegenstrahlung“ genannt, was in den Modellen theoretisch mit dem Glasdach eines Treibhauses vergleichbar wäre, welches die Wärme sozusagen „einsperrt“. Der Begriff ist jedoch irreführend, da in einem Glastreibhaus die Erwärmung durch die unterdrückte Konvektion (Luftaustausch) und der verzögerten Abkühlung erfolgt. Die Analogie zum Glastreibhaus besteht darin, dass sowohl das Glas eines Gewächshauses, als auch die sog. Treibhausgase wie CO2, einen Teil der langwelligen IR-Strahlung, die vom Boden abgestrahlt wird, absorbieren. Wobei Absorption keinesfalls gleich Erwärmung ist, da beides völlig unterschiedliche physikalische Begriffe sind. Die Atmosphärengase (Moleküle), allen voran der Wasserdampf, werden dadurch zu Schwingungen angeregt. Der sog. Treibhauseffekt wurde von dem Chemiker Arrhenius bereits 1896 als mögliche Erderwärmung in die wissenschaftliche Diskussion gebracht, dort aber nach etwa 10 Jahren Diskussion (Angström, 1900, 1901 und Schäfer 1903; Solger, 1905; Dannenberg, 1908) wieder verworfen.

Abb.3: Schematische Darstellung des vermeintlichen natürlichen und des vermeintlichen anthropogenen Treibhauseffekts. Die Abbildung links zeigt den sog. natürlichen Treibhauseffekt (THE). Wasserdampf und Kohlenstoffverbindungen in der Atmosphäre sollen wie die Scheiben eines Glashauses wirken. Hierdurch wird die rein rechnerische Temperatur der Erde ohne Atmosphäre von -18°C auf erträgliche +15°C angehoben. Die Erde würde sich demnach ohne zusätzliche Energie von selbst erwärmen, was grundsätzlich nicht möglich ist. Die sog. Treibhausgase lassen das kurzwellige Licht durch, verhindern aber teilweise die Rückstrahlung der langwelligen Infrarotstrahlung in den Weltraum. Abbildung rechts zeigt den sog. anthropogenen Treibhauseffekt. Durch das Ausbringen großer Mengen sog. Treibhausgase durch den Menschen, sollen die natürlichen Regelprozesse, der Kohlenstoffkreislauf, aus dem Gleichgewicht geraten und eine ungebremste Erwärmung stattfinden. Die Politik will diese auf 2°C begrenzen.

Der überwiegende Teil (ca. 60-80%) der Bodenwärme wird nicht über Strahlung, sondern über Konvektion abgegeben. Auf dem Weg nach oben wird die innere Energie der Gase gemäß dem 1. Hauptsatz der Thermodynamik in Volumenarbeit umgesetzt, weil die Gase sich bei ihrem Aufstieg ausdehnen. Die Energie wird letztendlich in großer Höhe (der oberen Atmosphärenschicht) in das Weltall abgestrahlt. Die übrigen 20-40% werden vom Boden als Wärmestrahlung abgegeben. Davon geht der größte Anteil direkt durch das atmosphärische Fenster in den Weltraum. Dabei erfolgt der Wärmetransport in der Troposphäre adiabatisch, d.h. durch Konvektion und Advektion und oberhalb der Troposphäre gewinnt, aufgrund der stetig abnehmenden Teilchendichte, die Strahlungsübertragung an Bedeutung. Am Oberrand der Atmosphäre kann Wärme nur noch über Strahlung an den Weltraum abgegeben werden.

Ein kleiner Rest der Bodenwärme (ca. 15% von den 20-40%) wird von IR-aktiven Gasen, sog. Treibhausgasen (THG) in der Atmosphäre absorbiert. Diese Energie wird in der Troposphäre über Zusammenstöße an die Luft wieder abgegeben und damit ebenfalls der Konvektion zugeführt und dann aus großer Höhe in das Weltall abgestrahlt. Da diese Abstrahlung jederzeit stattfindet, wird keine Wärme in irgendeinem Kreislauf gehalten oder gar dem Boden wieder zugeführt. Der THE scheitert somit am Energiemangel. Um diesen zu beheben, wird eine sog. Gegenstrahlung eingeführt, die den Boden zusätzlich erwärmen soll. Dies ist jedoch eine Energiebilanzfälschung. Durch diese “Gegenstrahlung“ soll es zu einer Erwärmung am Boden und einer Abkühlung in der Höhe kommen. In Messungen wird dies jedoch widerlegt. Immer, wenn der Boden durch die erhöhte Sonneneinstrahlung wärmer wurde, wird zeitlich verzögert, oben mehr abgestrahlt, wodurch die obere Atmosphäre dann kälter wird.

Daher ist der Vergleich mit einem “Treibhaus“ irreführend. In einem Treibhaus wird durch das Glas der Bereich des sichtbaren Sonnenspektrums durchgelassen. Anhand der Kirchoff-Planck-Funktion lässt sich der Anteil berechnen und liegt bei ca. 70%. Das Strahlungsmaximum liegt anhand der Planck-Kurve (5.800 Kelvin = Sonnenoberflächentemperatur) bei 0,5 μm Wellenlänge. Das Glas ist in diesem Wellenlängenbereich also weitgehend durchlässig. Der Boden eines Gewächshauses hat hingegen eine Temperatur von ca. 300 Kelvin. Nach der Planckkurve und dem Wienschen Verschiebungsgesetz liegt dessen Maximum bei 10 μm. Für diesen Wellenlängenbereich ist das verwendete Glas jedoch undurchlässiger, so dass die Wärmestrahlung „eingeschlossen“ bleibt und weiter, auch die Luftzirkulation, die die Wärme abführen könnte, unterbunden ist. Ein solches Konstrukt gibt es in der Atmosphäre nicht.

Jeder, der sich schon einmal den Kopf an Glas gestoßen hat, kennt den Unterschied zwischen Glas und Gas, also zwischen einem festen und einem gasförmigen Körper.

Anstatt einem Treibhaus, gibt es in der Atmosphäre dagegen Wetter. Das Wetter tritt dabei lokal völlig unterschiedlich auf. Daher existiert auch keine Globaltemperatur. Diese ist eine rein statistische Größe. Die Schichtatmosphäre ist durch einen Dichte- und Temperaturgradienten gekennzeichnet, der in einem elektrischen Feld von ca. 500 kV zwischen Ionosphäre und Erdboden existiert. Kosmische und solare Partikelstrahlung, sowie ca. 2.000 Gewitter, mit über 10 Millionen Blitze, die sich täglich entladen, liefern Energie (direkt oder indirekt) zur Wetterveränderung. Des Weiteren befindet sich im Innern der Erde eine permanente Kernenergieheizung mit einer Maximaltemperatur von ca. 5.000°C, welche geothermische Energie liefert. Organismen an/in der Erdoberfläche produzieren seit über 3 Milliarden Jahre Abwärme. Kontinuierlich wird Wärmeenergie in andere Energieformen (z.B. chemische Energie) umgewandelt. Alle Vorgänge unterliegen zyklischen Veränderungen (Tag/Nacht, Jahreszeiten usw.), bei denen starke Ungleichgewichte entstehen. Die Erde ist weiter eine irreversible (sich drehende) Wärmekraftmaschine nach dem 2. Hauptsatz der Thermodynamik, in der Wärme (Sonnenenergie = warmes Reservoir und Nachtseite/Weltall = kaltes Reservoir) gewandelt wird, wodurch die Wind- und Wasserkreisläufe angetrieben werden, sowie die Photosynthese in Gang gesetzt wird. Mit einem Gewächshaus ist dies alles nicht vergleichbar.

Allein diese Kurzbeschreibung entlarvt den Treibhauseffekt als Chimäre, als Konstrukt, den es in der realen Welt nicht gibt. Ein Konstrukt derer, die ihn dazu instrumentalisieren, um politischen Absichten umzusetzen und/oder finanziellen Gewinn zu erzielen. Und alles zu Lasten derer, die beides finanzieren müssen, uns Steuerzahler. Hier wird ein Schreckgespenst aufgebaut, das gar nicht existiert und mit anderer Leute Geld in die Schranken gewiesen werden soll (2°C-Ziel), damit sich ein paar Wenige als Retter aufspielen können. Dies alles erinnert fatal an den Film „Illuminati“ und den dortigen Camerlengo, der ebenfalls ein nicht vorhandenes Schreckgespenst aufbaute um anschließend als Retter zu erscheinen und Papst zu werden.

Der Erde droht keine Gefahr der Überhitzung, wie IPCC und Co. behaupten: Wegen des seit über einem Jahrhundert steigenden  Kohlendioxidgehaltes auf nunmehr bald 0,04% = 400ppm würden die Temperaturen seit über 100 Jahren ständig steigen. Dass diese Behauptung falsch ist, wissen unsere Leser längst.

Der Deutsche, Hartmut Bachmann, war dabei, als 1988 das IPCC gegründet wurde. Er schildert in vielen Schriften und Büchern, wie dieses Lügengebilde IPCC gegründet wurde, deren Aufgabe es nicht ist, wissenschaftliche Erkenntnis zu gewinnen, also ergebnisoffen ein Thema zu bearbeiten, sondern mit einem fertigen Ergebnis ein Thema angeht. Mit Wissenschaft hat dies nichts zu tun.

http://rubikone.de/downloads/Wind_Allgemein/Klimal%C3%BCge%20Bachmann.pdf

Es begann die Zeit mit ständig neuen Erwärmungskatastrophenmeldungen. Jeder Starkregen und jeder heiße Sommertag war fortan ein Zeichen der sich anbahnenden Katastrophe und wenn es keine gab, dann wurden diese erfunden und die Statistik auf den Kopf gestellt. Obwohl z.B. die Population der Eisbären am Nordpol zunahm, wurde prompt eine Abnahme der Eisbärenpopulation verkündet. Und auch die Inuit, die Ureinwohner, die sich an der Erwärmung Grönlands freuten, wurden vor der Weltöffentlichkeit als Opfer dargestellt.

Alle diese fiktiven Berichte dienten und dienen nur dem Zweck, durch weltweit einzuführende Kohlendioxidsteuern/-Abgaben, dem angeblichen Klimakiller zu begegnen. Die C02- und Klimasteuern erweisen sich bis heute als eine geniale Geldvermehrungsmaschine, die der Steuerzahler zu bedienen hat. Sie dienen weder dem Umwelt- noch dem Naturschutz, geschweige dem Klima. Das Klima, als statistische Größe des Wetters, richtet sich nach anderen Faktoren. Dem Wetter ist es vollkommen egal, ob der atmosphärische CO2-Pegel 300ppm, 400ppm oder 500ppm oder mehr beträgt. Es richtet sich nach anderen Faktoren, wie den Windströmungen, der solaren Aktivität, dem Sonnenstand, den Hoch- und Tiefdruckgebieten, der Erdrotation, um nur einige zu nennen und keine dieser Teilaspekte, wird in irgendeiner Art und Weise von sog. Treibhausgasen beeinflusst. Wenn aber kein Teilaspekt des Klimas, das Wetter, von CO2 beeinflusst wird, so wird auch die statistische Gesamtgröße (das Klima) nicht von CO2 beeinflusst. Eigentlich ganz logisch. Aber wo gilt schon Logik, wenn es um politische Interessen und/oder viel Geld geht. Beides beinhaltet eine andere Logik. Diese hat mehr mit Lüge/Verschleierung und Desinformation zu tun.

So sind viele „Wissenschaftler“ der 2.ten Reihe, in Deutschland z.B. die Professoren Schellnhuber, Rahmstorff und Latif auf den Geldzug aufgesprungen, bzw. wurden dafür geworben und vermehren durch Falschaussagen und gespielte Theatralik ihre Finanzen, bzw. derer, die sie unterstützen/beauftragen. Natürlich auch die Medien. Denn der Mainstream will nicht Wahrheit, sondern Sensationen. Ebenso hat die Politik eine zusätzliche vortreffliche Einnahmequelle für marode Staatshaushalte entdeckt.

 

Abbildung 4 zeigt den Unterschied zwischen einem aufrechten Wissenschaftler und einem Mainstream-Wissenschaftler aus Karikatursicht.

Seröse Wissenschaft ist hier seit mehr als 20 Jahren ins Abseits gestellt. Früher starben z.B. die Schmetterlinge wegen der Uniformierung der Landschaft (keine Brutablagen), der Zerstörung und Vergiftung ihrer Biotope. Heute sterben sie wegen des Klimawandels. So sind auch die Umweltverbände zu Mitschuldigen geworden, denn sie beteiligen sich gerne an diesem Geldsegen zur angeblichen Rettung der Erde und mehren dadurch ihre(n) Macht/Einfluss, weil sie den Geldgewinnlern nach dem Mund reden.

Geschickt wurde Cherry-Picking betrieben und die Jahre der Temperaturentwicklung betrachtet, die mit der atmosphärischen CO2-Zunahme im Gleichklang stehen. Der CO2-Gehalt der Atmosphäre nahm zu und auch die Temperaturen stiegen ab 1886/87 weltweit. So auch in Deutschland. Das staatliche Institut, DWD, wurde von der Politik für ihre Zwecke benutzt und schürt seither, fernab aller wissenschaftlichen Realitäten, die Mär des anthropogenen Klimawandels.

Um die Jahrtausendwende begannen dann die Hiobsbotschaften des Klimapanikorchesters, zu dem auch die großen Versicherungsgesellschaften zählen. Man hatte ein starkes Jahrzehnt der Erwärmung von 1986 an vorzuweisen und die meisten Menschen glaubten zur Jahrtausendwende, es würde so weitergehen. Doch betrachten wir zunächst die Grafik 5, die Jahre der steigenden Temperaturen.

Abb.5: In der Zeit von 1986 bis zur Jahrtausendwende stiegen die weltweiten Temperaturen ständig an, die vereinigte Front der Klimaerwärmungsbefürworter konnte eine für sie erfolgreiche Statistik vorlegen.

Ein Teil dieser Erwärmung von 1986 bis 2000 geht dabei auch auf Tricksereien zurück. Z.B. wurde das hier beschrieben: http://www.eike-klima-energie.eu/news-cache/neue-studie-die-haelfte-der-globalen-erwaermung-kommt-aus-der-homogenisierung-von-wetterstationsdaten/ Schließlich waren die Leute vom selbsternannten Weltklimarat nun aktiv und griffen in die Statistik der Datenerfassung aktiv ein. 2009 kam durch Climategate einiges ans Licht der Öffentlichkeit.

Mehr Kohlendioxid gleich mehr Erwärmung. Mit dieser einfachen Formel hatte die Klimalüge sich weltweit durchgesetzt. Nach Versuchsbeweisen oder technischen Anwendungen einer CO2-Erwärmung fragte niemand mehr. Was nicht verwundert, den kein Ingenieur der Welt wird sich der Lächerlichkeit preisgeben und eine technische Anwendung des vermeintlichen, nicht existierenden, physikalischen Effekts, dem Treibhauseffekt vorzulegen. Da es weder das eine (technische Anwendung), noch das andere (Versuchsbeweis) gibt. Doch ab der Jahrtausendwende ging das Klima seinen eigenen Weg. Weltweit bereits ab 1998 und deutschlandweit ab 2000 fielen die Temperaturen wieder. Obwohl die seriöse Klimawissenschaft längst auf diesen Tatbestand in immer neuen Veröffentlichungen hinweist, wird er von den deutschen Medien einfach totgeschwiegen. Was ebenfalls nicht verwundern kann, hat doch journalistische Arbeit in unserem Land wenig mit investigativem Journalismus, dafür umso mehr mit Sensationsjournalismus zu tun. Spielt doch der letztere Geld in die Taschen der Verleger und Journalisten. Abgesehen davon, dass zum Verständnis des Klimawandels, physikalische Kenntnisse notwendig sind, die vielerorts in den Medien nicht vorhanden sind. Erschwerend kommt beim deutsch geprägten Linksjournalismus hinzu, dass Realität der ideologischen Brille weicht. Lediglich der MDR Wetterexperte, Thomas Globig, darf ab und zu eine Statistik der fallenden Temperaturen seit 2000 zeigen.

Die Temperaturtendenz ist fallend, obwohl die Kohlendioxidkonzentration in der Atmosphäre zunimmt. Hat etwa CO2 seit der Jahrtausendwende kühlende Wirkung?

 

Abb.6: Die Medien führen die Bevölkerung seit 15 Jahren gezielt in die Irre, etliche Redakteure behaupten, dass besonders in den letzten Jahren die Erwärmung sich verstärkt fortgesetzt hätte und alles sei noch viel schlimmer, als man zur Jahrtausendwende prophezeit hätte.

Die seriösen und unabhängigen Klimawissenschaftler warten nicht mit Katastrophenmeldungen auf, sondern, sie wollen diese Temperaturverläufe, die in der Grafik 5 und Grafik 6 dargestellt sind, mit wissenschaftlichen Methoden erklären. z.B. hier: Temperaturen seit 1980, einzelne Stationen, drei Teile

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen-teil-1/

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

Teil 2: „Die wahren Ursachen der Temperaturänderungen in Deutschland und, das lebensnotwendige CO2- harmlos und nützlich“ in Kürze

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar

Teil 2 finden Sie hier

Eine Anmerkung des EIKE-Pressesprechers

Als Pressesprecher ist es meine Aufgabe, in wissenschaftlichen Fragen die in der EIKE Präambel niedergelegten und vom EIKE-Fachbeirat vertretenen Positionen zu schildern und zu vertreten. In diesem Sinne weist der ansonsten vieles Richtige enthaltende Aufsatz der Autoren Kowatsch, Kämpfe und Leistenschneider (Leistenschneider hat seine Autorenschaft inzwischen entfernt) Defizite auf, die bei etwas sorgfältigerem Literaturstudium hätten leicht vermieden werden können. Sie betreffen die Schilderung bzw. Diskussion des sog. Treibhauseffekts (besser Atmosphäreneffekt), der im Aufsatz keine mir als wissenschaftlich bekannte Position wiedergibt und daher zu revidieren bzw. besser ganz wegzulassen ist. Als Arbeitsgrundlage, die diskutiert (und falls die Autoren dazu in der Lage sind, fachlich wiederlegt) werden kann, empfehle ich den Beitrag von Pierrehumbert, der als pdf beiliegt. Nebenbei: die Empfehlung dieses Aufsatzes bedeutet nicht, dass ich ihm voll zustimme. So stellt beispielsweise der dort beschriebene Wasserdampf-Feedback eine theoretische Fiktion dar, die durch Messungen nicht belegt ist. Er soll nur zeigen, auf welchem Niveau eine TE-Diskussion sinnvoll sein könnte. Wenn eine niveaugerechte Diskussion nicht möglich ist, sollten Aussagen zu komplexen physikalischen Details, die auf Grund unzureichender fachlicher Kenntnis nur fehlerhaft sein können, besser vermieden werden. Der Grundtenor des Aufsatzes wäre ohnehin der gleiche geblieben.

Fest steht, dass es bis heute keine begutachtete Veröffentlichung gibt, die auf der Basis von Messungen einen anthropogenen Beitrag auf Klimaänderungen zu belegen vermag. Somit erübrigen sich alle Spekulationen über theoretische physikalische Details der Wirkung des anthropogenen CO2. Eine Klimawirkung des menschgemachten CO2 ist aus dem natürlichen Temperaturrauschen bis heute definitiv nicht herauszuhören. Auf detaillierteres einzugehen erfordert tiefe physikalische Spezialkenntnisse, die zu Publikationen in begutachteten Fachjournalen befähigen. Daher sollte ein näheres Eingehen von Laien auf solche Details in allgemeinverständlichen Aufsätzen unterbleiben.

Nochmals: meine Kritik betrifft nicht den Grundtenor des Aufsatzes, dem ich m.E. zustimme.

Prof. Dr. Horst-Joachim Lüdecke

Related Files




Die Sicht eines Schweizer Wissenschaftlers: Wieso die vorgeschlagene Energiewende nicht funktionieren kann

–        1.3 Jeder Ausbau oder jede Veränderung des  Systems muss a) kompatibel mit dem existierenden System sein, b) wesentliche Verbesserungen des Systems bringen und c) nicht a priori Bedingungen schaffen, die dessen Stabilität und Zuverlässigkeit in Frage stellt.

–        Politik ist gefordert gesetzliche Rahmenbedingungen zu erlassen, die mit der aktuellen Lage (lokal, national und international) verträglich sind, und eine geordnete Nützung und Ausbau des Systems ermöglicht. Subventionen und künstliche Strompreiserhöhungen sind keine Lösung für die sich abzeichnenden Probleme.

2.     Die sogenannten erneuerbaren Energien

–        2.1 Alle erneuerbaren Energien haben eine geringe Energiedichte, die nicht ohne spezielle Massnahmen industriell verwertbar sind. Sie basieren alle auf Sonnenenergie (atomare Fusion) mit Ausnahme der Geothermie, die ihren Ursprung im Kernzerfall (hauptsächlich Radioaktivität der Gesteine) hat. Kernenergie müsste deshalb logischerweise zu den erneuerbaren Energien gezählt werden.

–        2.2 Sonnenenergie (inkl. Wasser, Wind, Biomasse) ist lokal nie konstant (Tag / Nacht, Wetter , Klima) und ist somit ohne geeignete Speicher als dominante Quelle a priori nicht direkt vereinbar mit unserm elektrischen System, das gemäss 1.1 Stabilität verlangt.

–        2.3 Sonnenenergie ist leicht ohne spezielle Vorrichtungen in brauchbare Wärme umwandelbar und daher für Heizungen und Warmwasseraufbereitung beinahe ideal. Wegen den thermodynamischen Gesetzen ist diese Form für die Elektrizitätserzeugung in unsern Breitengraden äusserst ineffizient.

–        2.4 Die Sonnenenergie treibt unsere Wetter- und Klimamaschine und ermöglicht uns so, die sekundäre hydraulische und Windenergie zu nützen. a) Die Dichte des Wassers ist beinahe tausend Mal grösser als die der Luft, dadurch lässt sich das Wasser in Form von potentieller Energie leicht speichern und die Bedingung von 1.1 mit Stauwehren erfüllen. b) Die mechanische Windenergie lässt sich nicht speichern und hängt von der dritten Potenz der Windgeschwindigkeit ab.

–        2.5 Die direkte Umwandlung der Sonnenenergie in elektrische Energie ist dank der chemischen Technologie und der Halbleitertechnik, der Photovoltaik, möglich aber mit viel geringeren Umwandlungs-faktoren als die Umsetzung der mechanischen in elektrische Energie. Ueberdies setzt diese Technologie einen Energieaufwand voraus, der nur marginal über die Lebensdauer dieser Geräte zurückgewonnen werden kann. Diese Geräte sind während des Betriebs sehr stabil und umweltfreundlich, was allerdings für deren Herstellung und Entsorgung nicht der Fall ist. Damit wird Nachhaltigkeit gepredigt aber nicht umgesetzt.

–        2.6 Umsetzung der Energie der Biomasse (inklusive Holz) in Elektrizität geschieht im allgemeinen durch Gärung / Verbrennung und thermodynamische Prozesse. Energiegewinnung aus Biomasse ist ein Mehrstufenprozess (Sonne-Bio-Chemie-Thermodynamik), der sehr ineffizient ist. Die Erzeugung von grossen Biomassen braucht sehr viel Land und ist daher in der Schweiz ungeeignet. Da sie überdies noch mit der Nahrungsmittelproduktion direkt in Konkurrenz steht, ist Biomasseverwertung nur für die Verwertung von Abfällen und daher nicht für industrielle Grossproduktion geeignet.

Die Zusammenstellung der erneuerbaren Energien zeigt, dass nur die in der Schweiz mangels vulkanischer Aktivität unterentwickelte Geothermie und die Biomasseverwertung a priori unserer Stabilitätsforderung in Teil 1) entsprechen können. Obwohl Sonne und Wind gratis sind, ist die Umwandlung in elektrische Energie alles andere als gratis wegen der fehlenden Kontinuität der Ausbeutung. Wer diese Tatsache ignoriert handelt fahrlässig und zeichnet ein völlig falsches Bild.

3.     Fossile Energien

–        Darunter gehören Kohle, Erdöl und Erdgas, die alle leicht gespeichert und transportiert werden können im Gegensatz zu den möglichen Mitteln unter 2). Der Energieaufwand und Kosten, diese Materialien zu gewinnen, ist sehr klein im Vergleich zum Gewinn an elektrischer Energie durch thermodynamische Prozesse, die einen kontinuierlichen Betrieb und damit Stabilität, Sicherheit und Wirtschaftlichkeit gewähren. Diese beinahe banale Tatsache ist der Grund, dass sich diese Materialien für die elektrische Energiegewinnung weltweit durchgesetzt haben. Die Endlichkeit dieser Reserven ist schwer abzuschätzen, da erfahrungsgemäss stets neue Quellen durch innovative Gewinnungsmethoden erschlossen werden können. Die Schiefergasgewinnung hat dies sehr deutlich gemacht. Der Ausstoss von umweltschädigenden Abfällen durch natürliche Verunreinigungen ist sehr ernst zu nehmen.

4.     Kernenergie

–        Die Kernenergie ist um Grössenordnungen konzentrierter als diejenige von Kohle. Die gebräuchlichste Form ist Kernspaltung von angereichertem Uran (235U). Spaltbares Material  kann leicht und sicher gelagert werden und erlaubt einen stabilen und zuverlässigen Betrieb. Leider sind die Risiken dieser Energieform wegen der Radioaktivität und der Unfälle von Tchernobyl und Fukushima sehr umstritten wegen vorgefassten Meinungen und Unkenntnis der Materie. Die Risiken sind zusätzlich von den Gegnern der Kernenergie aufgebläht und verfälscht worden. Die Erfahrungen mit den Kernkraftwerken in der Schweiz  (Reaktoren der 2. Generation) zeigen eindeutig, dass die Kernenergie sicher und sauber ist, und es auch in Zukunft so sein wird, denn die neueste 3. Generation ist ca. 100 Mal sicherer als die zweite. Die neuesten Entwicklungen (4. Generation) gehen darauf hinaus, dass diese Unfälle gar nicht mehr auftreten können und keine Abschaltungen zur Neubestückung mit spaltbarem Material mehr nötig sein wird. Ueberdies besteht damit die Möglichkeit abgebrannte Brennelemente statt zu vergraben als Energiequellen zu benützen.

–        China und Indien (mehr als 1/3 der Weltbevölkerung) setzen voll auf Kernenergie. Die Chinesen bauen gegenwärtig 36 Kernreaktoren der 3. Generation und testen bereits Prototypen der 4. Generation.

–        Diese Tatsachen belegen die Dummheit des sogenannten Ausstiegs aus der Kernenergie. Die Schweiz kann und darf sich nicht derartige Fehler leisten.

5.     Ungereimtheiten der Windenergie und der Photovoltaik in der Schweiz

–        Die Lobbiergruppe „SwissEolien“ unter dem Präsidium von Nationalrätin Isabelle Chevalley behauptet, dass die Windräder fast immer drehen und Strom erzeugen. Das ist eine Irreführung wegen der Leistungs-abhängigkeit von der Windgeschwindigkeit. Wenn wir die Leistung bei einer Windgeschwindigkeit von 36 km/h als 1 ansetzen, erhalten wir bei 3.6 km/h nur gerade einen Tausendstel der Leistung, also praktisch nichts. Bei 72 km/h gibt es acht Mal mehr Leistung, die bereits im Bereiche der Ueberlastung liegt. Vize-Minister Yu von China (grösster Windenergieerzeuger der Welt) bezeugt, dass eine installierte Windenergieleistung von 100 bis 110 GW jährlich gemittelt nur etwa soviel Energie erzeugt wie ein Kohlekraftwerk mit einer installierten Leistung von 7.5 -8 GW.

–        Daten aus Deutschland und England geben ein wenig verbessertes Bild für die Windenergie als auch für die Photovoltaik. Letztere scheint etwa um einen Faktor 1.5 besser abzuschneiden als Windenergie.

–        Sowohl Windenergie als auch Photovoltaik werden daher nur mit sehr grossen Schwierigkeiten ein kleines Kernkraftwerk der Grösse Mühleberg (355 MW) ersetzen können.

–        Diese Beispiele zeigen, dass eine stabile und zuverlässige Stromversorgung ein Ding der Unmöglichkeit ist, wenn keine riesigen Energiespeicher zur Verfügung stehen. Speicherverluste erfordern noch zusätzliche installierte Kapazität. Jede installierte, nicht erzeugte kWh kostet Geld, womit auch das Märchen von Sonne und Wind schicken keine Rechnung ein für alle Mal widerlegt ist.

6.     Konsequenz

–        Unstabilen Strom in stabilen umzuwandeln kostet sehr viel Geld und Land und bringt dabei unsern Landschafts- und Artenschutz in Gefahr, das Gegenteil was Umweltschützer verlangen.

–        Unstabilen Strom mit Importen zu stabilisieren, riskiert unsere Versorgungssicherheit, denn gerade zu Zeiten von Verknappung in der Winterzeit, oder eines grossen Vulkanausbruchs in Island oder anderswo, werden unsere Nachbarn, genau dieselben Probleme haben und nicht in der Lage sein den fehlenden „erneuerbaren“ Strom zu liefern.

–        Die grundsätzliche, politisch leider nicht einfache Lösung liegt auf der Hand: i) Den Ausstieg aus der Kernkraft so rasch wie möglich beerdigen. ii) Die Erlasse, die den Ausstieg hätten beschleunigen sollen, sistieren und rückgängig machen. iii) Die Subventionen für „kostendeckende Einspeisevergütung“ sind schleunigst zu unterbinden. iv) Finanzierung für marginale „wissenschaftliche“ Forschung ist zu unterbinden und v) wieder vermehrt in die Kernforschung investieren.

Über den Autor: F. K. Reinhart ist  promovierter Elektroingenieur und emeritierter Professor der Physik  (mit Schwerpunkt in Halbleiterphysik, physikalische Optik (Optoelektronik, integrierte Optik) und Hochtemperatursupraleitung) und forscchte und lehrte an der Ecole Fedrale Polytechnique de Lausanne. Eine Arbeit von ihm über die spektralen Eigenschaften des CO2 (in Englisch) können Sie als pdf. Anhang herunterladen.

Related Files




Klima: Da hat die Rechte recht – Aktualisierung bzgl. globale Erwärmung: Stillstand nunmehr seit 18 Jahren und 1 Monat

Bild rechts: Die New York Times zeigt die Parteigrenze bzgl. Klima.

Man stelle diese interessante Statistik in eine Reihe mit einer anderen interessanten Statistik: die Zunahme der CO2-Emissionen durch die Verbrennung fossiler Treibstoffe. Im Jahre 1988 emittierte die Welt 22 Milliarden Tonnen CO2. 1988 war das Jahr, in dem das IPeCaC ins Leben gerufen worden war und James Hansen sich zum ersten mal über die vermeintliche Bedrohung der „globalen Erwärmung“ vor dem US-Kongress ausgelassen hat, nachdem Tim Wirth die Air Condition im Anhörungsraum ausgeschaltet hatte.

Im Jahre 2013, nur 25 Jahre später, wurden 35 Milliarden Tonnen CO2 emittiert. Trotz all des Geredes um die Notwendigkeit der Kürzung von CO2-Emissionen, trotz all der Steuern und Abgaben und Subventionen und Profiteure, trotz all der pompösen Auftritte bei internationalen Bühnenshows, von Manchem Konferenzen genannt, trotz der ganzen globalen Plauderstunden – ist nichts weiter passiert, als dass die jährlichen CO2-Emissionen um rund 50% zugenommen haben.

Falls die Welt wirklich glauben würde, dass die globale Erwärmung ein ernstes Problem ist, dann ist es unwahrscheinlich, dass man eine so starke Zunahme der Emissionen des vermeintlich gefährlichen (aber in Wirklichkeit harmlosen und nützlichen) Spurengases CO2 zugelassen hätte.

Ist also irgendjemand besorgt? Aus den Daten geht die Antwort Nein hervor. Seit Oktober 1996 hat es keinerlei globale Erwärmung mehr gegeben (Abbildung 2). Der RSS-Temperaturplot dieses Monats kommt mit einem haarfeinen Sprung daher, verlängert sich doch der Zeitraum ohne jede globale Erwärmung von 18 Jahren und 1 Monat auf 18 Jahre und 2 Monate: Allerdings verbleiben bei strikter Interpretation des Zeitraumes ohne Erwärmung 18 Jahre und 1 Monat. Innerhalb eines Monats oder deren zwei könnte der gegenwärtige schwächelnde El Nino anfangen, die globalen Temperaturen zu beeinflussen, was den Großen Stillstand verkürzen würde. Sollte jedoch der El Nino von einer La Nina gefolgt werden, könnte sich der Stillstand Ende nächsten Jahres wieder verlängern – vielleicht sogar pünktlich zum Klimagipfel in Paris im Dezember. Dabei soll der nächste große Versuch unternommen werden, eine globale „Regierung“ einzuführen, und zwar auf der Grundlage der Angst vor der globalen Erwärmung.

Abbildung 2: Die lineare Regression kleinster Quadrate des Trends im globalen RSS-Satelliten-Datensatz der monatlichen mittleren globalen Temperaturanomalien zeigt seit Oktober 1996, also seit 18 Jahren und 1 Monat, keinerlei Erwärmung.

Die Stillstandsperiode von 18 Jahren und 1 Monat, also 217 Monate ist der am weitesten zurück reichende Zeitraum mit Satelliten-Temperaturmessungen und zeigt immer noch keinen von Null unterscheidbaren Trend.

Abbildung 3: Kurzfrist-Projektionen von Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ im IPCC-Bericht 1990 von 1990 bis Oktober 2014 (orangefarbene Zone und rote Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und Trend (hellblau) äquivalent zu weniger als 1,4 K pro Jahrhundert. Gemittelt aus den monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS und UAH.

Ein Vierteljahrhundert nach 1990 beträgt der globale Erwärmungstrend bis jetzt 0,34°C – ausgedrückt als der lineare Regressionstrend kleinster Quadrate der mittleren globalen Temperaturanomalien nach RSS und UAH –, das ist äquivalent zu gerade mal 1,4°C pro Jahrhundert oder etwas unterhalb der Hälfte der zentralen Schätzung in IPCC 1990 und deutlich unterhalb selbst der geringsten Schätzung (Abbildung 3).

Der Große Stillstand stürzt jene immer mehr in Verlegenheit, die uns mit „substantiellem Vertrauen“ weisgemacht hatten, dass die Wissenschaft settled und die Debatte beendet ist. Die Natur war anderer Ansicht. Obwohl nunmehr über 50 mehr oder weniger plausible Entschuldigungen in nervösen begutachteten Journalen erschienen und von missionierenden Wissenschaftlern verkündet worden sind, kann die Möglichkeit, dass der Stillstand einfach den Computermodellen geschuldet sind, weil die Modelle schlicht und ergreifend falsch waren hinsichtlich der Sensitivität der Temperatur bzgl. anthropogener Treibhausgase, nicht länger beiseite geschoben werden.

Bemerkenswerterweise sind selbst die jüngsten und erheblich reduzierten kurzfristigen Projektionen der globalen Erwärmung ebenfalls exzessiv (Abbildung 4).

Abbildung 4: Vorhergesagte Temperaturänderung von Januar 2005 bis Oktober 2014 mit einer Rate äquivalent zu 1,7 (1,0; 2,3)°C (orangefarbener Bereich mit dicker roter Trendlinie des Best Estimate) im Vergleich zu den beobachteten Anomalien (dunkelblau) und der realweltlichen Null-Trendlinie (hellblau), gezeigt als das Mittel der Temperaturanomalien der unteren Troposphäre nach RSS und UAH.

Im Jahre 1990 lag die zentrale Schätzung des IPCC hinsichtlich der Erwärmung im Kurzfristzeitraum um zwei Drittel höher als heute. Damals war es ein Äquivalent zu 2,8°C pro Jahrhundert. Jetzt ist es ein 1,7°C-Äquivalent – und, wie Abbildung 4 zeigt – selbst das erweist sich als eine substantielle Übertreibung.

In den RSS-Satellitendaten findet sich keine von Null unterscheidbare globale Erwärmung mehr seit über 26 Jahren. Keines der Modelle hat vorhergesagt, dass es ein Vierteljahrhundert lang keine globale Erwärmung geben würde.

Der Große Stillstand könnte diesen Winter zu Ende gehen. Ein El Nino-Ereignis kündigt sich an, welches üblicherweise im Nordwinter seinen Höhepunkt erreicht. Es gibt jedoch zu wenig Informationen, um sagen zu können, wie viel vorübergehende Erwärmung dadurch auftreten wird. Die Temperaturspitzen der Jahre 1998, 2007 und 2010 durch jeweils ein El Nino sind in den Abbildungen 1 bis 4 offensichtlich.

Zu einem El Nino kommt es etwa alle drei bis vier Jahre, obwohl niemand so genau weiß, was der Auslöser ist. Sie bringen eine vorübergehende Temperaturspitze, dem oftmals ein scharfer Rückgang in der nachfolgenden La Nina-Phase folgt, wie man in den Jahren 1999, 2008 und 2011-2012 erkennen kann. Dabei gab es zuletzt eine La Nina mit einer „Doppelspitze“, was eine der Entschuldigungen für den Stillstand ist.

Das Verhältnis zwischen El Ninos und La Ninas tendiert dazu, während der 30-jährigen negativen oder Abkühlungs-Phase der Pazifischen Dekadischen Oszillation zu fallen. Die jüngste negative Periode begann Ende 2001. Obwohl also der Stillstand unterbrochen werden könnte, dürfte er spätestens Ende 2015 weitergehen. Wie auch immer, es wird immer klarer, dass die globale Erwärmung nicht einmal ansatzweise in die Nähe der von den Klimamodellen vorhergesagten Erwärmungsraten gekommen ist, und sie wird sich auch nicht der jetzt erheblich reduzierten vorhergesagten Rate nähern. Vielleicht gibt es in diesem Jahrhundert eine Erwärmung um höchstens 1°C, aber bestimmt nicht die vom IPCC vorhergesagten 3 bis 4°C.

Grundlegende Fakten bzgl. der globalen Temperatur:

Ø Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung während der 217 Monate von Oktober 1996 bis Oktober 2014. Das ist über die Hälfte der 429 Monate langen Satelliten-Aufzeichnung.

Ø Der Trend der globalen Erwärmung seit 1900 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und muss mit uns nicht viel zu tun haben.

Ø Zum rasantesten gemessenen Erwärmungstrend über 10 Jahre oder mehr war es während der 40 Jahre von 1694 bis 1733 in Mittelengland gekommen. Die Erwärmung war äquivalent zu einer Rate von 4,3°C pro Jahrhundert.

Ø Seit 1950, als ein potentieller menschlicher Einfluss erstmals theoretisch möglich war, lag der globale Erwärmungstrend bei einer Rate äquivalent zu 1,2°C pro Jahrhundert.

Ø Zur stärksten Erwärmungsrate über zehn Jahre oder mehr seit 1950 war es während der 33 Jahre von 1974 bis 2006 gekommen. Sie war äquivalent zu 2,0°C pro Jahrhundert.

Ø Im Jahre 1990 lag die mittelfristige Vorhersage einer kurzfristigen Erwärmung bei einer Rate äquivalent zu 2,8°C pro Jahrhundert, das ein um zwei Drittel höherer Wert als die jüngste Vorhersage von 1,7°C pro Jahrhundert.

Ø Der Trend der globalen Erwärmung seit 1990, also zum Zeitpunkt des ersten IPCC-Berichtes, liegt bei einer Rate äquivalent zu 1,4°C pro Jahrhundert – also halb so hoch wie vom IPCC damals vorhergesagt.

Ø Obwohl das IPCC mit seiner Vorhersage einer Kurzfrist-Erwärmung zurückgerudert ist, ist es nicht von seiner Erwärmungsvorhersage bei Business as usual abgerückt, d. h. von einer Erwärmung um 4,8°C bis zum Jahr 2100.

Ø Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist mehr als doppelt so hoch wie die größte Erwärmungsrate über mehr als zehn Jahre, die seit 1950 gemessen worden ist.

Ø Diese IPCC-Erwärmung liegt fast viermal so hoch wie der beobachtete Erwärmungstrend in der realen Welt, seit wir theoretisch einen Einfluss auf das Klima hätten ausüben können (seit 1950).

Ø Von September 2001 bis September 2014 liegt der Erwärmungstrend im Mittel der 5 globalen Temperatur-Datensätze bei Null. Keine Erwärmung seit 13 Jahren und 1 Monat.

Ø Jüngste Extremwetterereignisse können nicht der globalen Erwärmung zugeordnet werden, weil es keine globale Erwärmung gegeben hat. So einfach ist das.

[Man erkläre das mal der „Süddeutschen Zeitung“! Anm. d. Übers.]

Technische Bemerkung

Unsere letzte Graphik zu diesem Thema zeigt den linearen Regressionstrend nach der Methode kleinster Quadrate aus dem monatlichen RSS-Datensatz der globalen mittleren Temperatur der unteren Troposphäre, der so weit wie möglich zurückreicht und immer noch einen Null-Trend zeigt. Der Startzeitpunkt ist nicht willkürlich ausgewählt, um nicht zufällig zusammenzufallen mit der Temperaturspitze des El Nino des Jahres 1998. Stattdessen wurde er berechnet, um die längste Periode mit einem Null-Trend zu finden.

Terrestrische Temperaturen werden mit Thermometern gemessen. Thermometer, die korrekt in ländlichen Gebieten abseits anthropogener Heizquellen aufgestellt sind, zeigen Erwärmungsraten, die deutlich unter den veröffentlichten Trendwerten liegen. Die Satellitendatensätze basieren auf Messungen der genauesten, derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, die eine unabhängige Verifikation der Temperaturmessungen erlauben, indem mit in den Weltraum gerichteten Spiegeln die bekannte Temperatur der kosmischen Hintergrundstrahlung untersucht wird, welche 1% des Gefrierpunktes von Wasser ausmacht oder nur 2,73 Grad über dem absoluten Nullpunkt liegt. Aus diesen Messungen kleinster Variationen der kosmischen Hintergrundstrahlung hat die NASA das Alter des Universums berechnet: 13,82 Milliarden Jahre.

Die Graphik ist genau. Die Daten wurden monatlich direkt von der RSS-Website abgegriffen. Ein Computer-Algorithmus liest sie aus dem File heraus, bildet deren Mittelwert und plottet sie automatisch mitttels einer ausgereiften Routine, die automatisch das Bildformat des Datenfensters an beide Achsen anpasst, um die Daten mit der maximal möglichen Auflösung zu zeigen.

Der jüngste monatliche Datenpunkt wird visuell untersucht, um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue Trendlinie, geplottet durch die dunkelblaue Zackenkurve [spline-curve] zeigt, dass die tatsächlichen Daten bestimmt werden durch das Verfahren der Regression kleinster Quadrate. Dabei wird der Schnittpunkt mit der Y-Achse und die Neigung der Linie mittels zwei altbekannter und funktional identischen Gleichungen berechnet, die miteinander verglichen werden um sicherzustellen, dass es zwischen beiden keine Diskrepanz gibt. Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu bestimmen. Prof. Phil Jones von der University of East Anglia fordert dies in einer der Klimagate-E-Mails. Das Verfahren ist angebracht, weil globale Temperaturaufzeichnungen nur geringe Auto-Regression zeigen.

Dr. Stephen Farish, Professor für epidemiologische Statistik [?] an der University of Melbourne, hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend der Graphik bestimmt wird sowie den Korrelationskoeffizienten. Der ist sehr klein, weil der Trend trotz der hoch variablen Daten flach verläuft.

RSS selbst hat inzwischen ernsthaft Interesse an der Länge des Großen Stillstands. Dr. Carl Mears, leitender Forschungswissenschaftler bei RSS, behandelt dies hier.

Dessen Ergebnisse werden in Abbildung T1 zusammengefasst:

Abbildung T1: Ergebnisse von 33 IPCC-Modellen (türkis) im Vergleich zur von RSS gemessenen globalen Temperaturänderung (schwarz) 1979 bis 2014. Die vorübergehenden Abkühlungsphasen infolge vulkanischer Eruptionen von El Chichon (1983) und Pinatubo (1991) treten ebenso hervor wie die Temperatur-Wärmespitze durch den gewaltigen El Nino 1998.

Dr. Mears schreibt:

„Die Leugner mögen die Annahme, dass der Grund für die Diskrepanz zwischen Modell und Beobachtung in einem irgendwie gearteten Problem mit der fundamentalen Modellphysik zu finden ist, und sie machen sich über jede andere Erklärung lustig. Dies verleitet sie zu der Schlussfolgerung, sehr wahrscheinlich fälschlich, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die wachsende Diskrepanz zwischen den RSS-Daten und den Modellen ein, nimmt aber „Rosinenpickerei“ hinsichtlich des Startzeitpunktes des globalen Temperaturgraphen an:

„In letzter Zeit wurde in einer Anzahl von Artikeln in den Main Stream Medien darauf hingewiesen, dass es während der letzten beiden Jahrzehnte nur eine sehr geringe oder gar keine Änderung der global gemittelten Temperatur gegeben habe. Aus diesem Grunde stellt man uns viele Fragen des Inhalts ,ich habe diesen Plot auf einer Leugner-Website gesehen. Sind es wirklich Ihre Daten?‘ Während einige dieser Berichte Gegenstand von ,Rosinenpickerei‘ hinsichtlich ihrer Start- und Endpunkte waren, um die Beweisführung dieser Leute noch deutlicher zu machen, gibt es kaum noch Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten IPCC-Simulationen im letzten Zustandsbericht (AR 5) angenommen. … Die Leugner lieben es, Trends mit dem Startzeitpunkt 1997 beginnen zu lassen, so dass der gewaltige El Nino von 1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der geringstmöglichen Neigung führt“.

Tatsächlich ist die Temperaturspitze des großen El Nino von 1998 weitgehend in der Berechnung des linearen Trends kompensiert, und zwar durch zwei Faktoren: der nicht unähnlichen Spitze des El Nino 2010 und der schieren Länge des Stillstands selbst.

Ersetzt man alle monatlichen RSS-Anomalien aus dem Jahr 1998 mit dem mittleren Anomaliewert von 0,55 K….

[Ich bitte um Verständnis, dass ich den folgenden Absatz nicht weiter übersetzt habe. Er beschreibt, warum hier eben keine Rosinenpickerei betrieben wurde. Er lautet: Replacing all the monthly RSS anomalies for 1998 with the mean anomaly value of 0.55 K that obtained during the 2010 el Niño and recalculating the trend from September 1996 [not Dr Mears’ “1997”] to September 2014 showed that the trend values “–0.00 C° (–0.00 C°/century)” in the unaltered data (Fig. 1) became “+0.00 C° (+0.00 C°/century)” in the recalculated graph. No cherry-picking, then.]

Die Länge der Großen Pause bei der globalen Erwärmung, so signifikant diese inzwischen auch ist, ist weniger bedeutsam als die immer größer werdende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und der in der realen Welt gemessenen weit geringeren Temperaturänderung.

Im Ersten Zustandsbericht des IPCC wurde vorhergesagt, dass die globale Temperatur bis zum Jahr 2025 um 1,0 (0,7; 1,5)°C steigen würde, das entspricht einem Äquivalent von 2,8 (1,9;4,2)°C pro Jahrhundert. In der Executive Summary wurde gefragt: „wie viel Vertrauen haben wir in unsere Vorhersagen?“ Das IPCC hat auf einige Unsicherheiten hingewiesen (Wolken, Ozeane usw.), kam aber dennoch zu der Schlussfolgerung:

„Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle die Ereignisse der Klimaänderung zumindest in groben Umrissen vorhersagen können … Es gibt Ähnlichkeiten zwischen den Ergebnissen der gekoppelten Modelle, die einfache Repräsentationen des Ozeans verwenden, und solchen, die kompliziertere Beschreibungen enthalten, und unser Verständnis solcher Differenzen, wie sie auftreten, verleiht uns einiges Vertrauen in die Ergebnisse“.

Dieses „substantielle Vertrauen“ war substantiell übermäßiges Vertrauen. Für die Rate der globalen Erwärmung seit 1990 gilt, dass sie nur halb so groß ist wie vom IPCC damals behauptet.

Link: http://wattsupwiththat.com/2014/11/07/on-climate-the-right-is-right-global-temperature-update-the-pause-is-still-18-years-1-month/

Übersetzt von Chris Frey EIKE




Die Energiewende: Ein fast endloser Katalog des Versagens!

 1. Bereits bei der Konzeption der Energiewende geschah die größte Planungskatastrophe: Das „Vergessen“ der unverzichtbaren Stromspeicher für den Ausgleich der wetterabhängigen und daher stark schwankenden Leistung der als künftig wichtigste Stromerzeuger auserkorenen Wind- und Solaranlagen – und das fast zwei Jahre andauernde Ignorieren dieser Tatsache. Damit war die Energiewende von Vornherein zum Scheitern verurteilt und jeder dafür ausgegebene Euro vergeudet.

2. Die in einer Panikaktion und ohne ausreichende Prüfung und Debatten per Gesetz beschlossene Stilllegung der Kernkraftwerke reduzierte die Grundlast-Stromerzeugung. Ein Industriezweig, der laufend modernisiert und mit höchster Zuverlässigkeit die Stromversorgung stützte, wird ohne stichhaltigen Grund verschrottet – die Wertevernichtung beträgt viele Milliarden Euro. Damit wurden aber auch alle großspurigen Ankündigungen, die CO2-Emissionen für das zentrale Ziel der ganzen Energiewende – den sog. Klimaschutz – weiterhin beträchtlich zu senken, zur Makulatur. So wurde bereits im ersten Halbjahr 2011 die Begründung für die Energiewende aufgegeben; benutzt wird jedoch dieses leere Argument weiterhin.

Einen zutreffenden Eindruck von der Qualität des  Regierungshandelns erhält man auch, wenn man sich vor Augen führt, dass der Ausstiegsbeschluss nur wenige Monate nach der gesetzlichen Verlängerung der Kernkraftwerks-Laufzeiten erfolgte – zwei Beschlüsse der gleichen Regierung.

3. Die weitaus größte Energiemenge wird in Mittel- und Nordeuropa für die Heizung benötigt. Ein Programm, das die Aufgabe einer Reduzierung dieses Energieverbrauchs in Verbindung mit einer Kostenentlastung angeht, wie es zum Beispiel Dänemark mit der solarthermischen Fernheizung vorführt, hätte Sinn gemacht. Die Regierung hat jedoch fast alle ihre Förderinstrumente, allen voran das EEG, aus unverständlichen Gründen auf die Umstellung der Stromerzeugung auf die sogenannten erneuerbaren Energien fokussiert – und dabei die am Wenigsten geeigneten Techniken ausgewählt.  Diese Fehlentscheidung wird  bis heute trotz aller damit bereits angerichteten Schäden durchgehalten.

4. Außerhalb der EEG-Subventionierungen hat die Regierung die Beeinflussung des Energieverbrauchs für Hausheizungen mittels Gesetzen und Verordnungen unternommen. Und abermals hat man gezielt mit der Energieeinsparverordnung EnEV die am Wenigsten geeignete und besonders teure Sanierungsmaßnahme bevorzugt: Die Wärmedämmung der Hausfassaden. Für Fachleute der Bauphysik kommt diese Maßnahme in ihrer Wirksamkeit erst an vierter oder fünfter Stelle hinter der Dachisolierung, der Isolierung der Kellerdecke, der Modernisierung der Heizungsanlage und dem Einbau neuer Fenster. Für diese zudem fast unwirksame Sanierungsmaßnahme werden von fehlgeleiteten und falsch beratenen Hauseigentümern Milliarden ausgegeben – es handelt sich dabei in Wahrheit um ein Konjunkturprogramm für Dämmstoffhersteller, das weder der Energieeinsparung noch dem Klimaschutz etwas nutzt. Insofern ist das eine für die Energiewendepolitik sehr typische Maßnahme.

5. Die Regierung plant mit ihrer Energiewende, die Stromversorgung des Landes bis 2025 zu 40 % und bis 2035 zu 60 % mit den sog. Erneuerbaren sicherzustellen. Die dabei „vergessenen“, nicht existierenden Speicherkraftwerke stellen gewiss das größte Versagen der Planer dar. Hinzu kommt aber noch eine weitere gravierende Fehleinschätzung: Nach dem Kernkraft-Ausstieg sollte die notwendig verbleibende „konventionelle“ Kraftwerkskapazität vornehmlich durch emissionsärmere Gaskraftwerke realisiert werden.  Gaskraftwerke sind jedoch teure Stromerzeuger und für die Grundlastversorgung ungeeignet. Sie müssen ihre Leistung in den sog. Spitzenlastzeiten – vor allem in den Mittagsstunden – anbieten, um rentabel zu sein. Dieses Marktmodell wurde durch das EEG zerstört, denn das Preisdumping durch  Überflutung des Netzes mit hochsubventioniertem Solarstrom treibt Gaskraftwerke in die Verlustzone. Zahlreiche Stilllegungen – auch modernster Anlagen – sind bereits erfolgt, weitere sind beantragt. An Neubau-Investitionen ist nicht mehr zu denken. Auch die Wirtschaftlichkeit von Steinkohlekraftwerken und sogar die der wenigen Pumpspeicherkraftwerke ist aus dem gleichen Grund bedroht. Damit haben die Energiewende-Planer mit ihrem wichtigsten Instrument EEG nichts anderes geleistet, als einen bisher funktionierenden Teil der deutschen Stromwirtschaft in den Ruin zu treiben und damit die zur Aufrechterhaltung der Netzstabilität und für ihre Energiewende unverzichtbare konventionelle Kraftwerkskapazität mittelfristig zu zerstören.

6.  Bei den Offshore-Windparks hat die Regierung bereits ihre bisherigen Ausbauziele in einer erstaunlichen Einsicht in deren Unerreichbarkeit drastisch zurückgestutzt. Jetzt drohen jedoch hohe Kosten ohne damit verbundenen Nutzen, weil sich Kabelverbindungen als nicht benötigt erweisen könnten. Weiterhin ist die Leistung der bereits errichteten Offshore-Windparks seit Oktober 2013 dramatisch eingebrochen; man sucht die Fehlerursachen. Im Übrigen zeigten die Windräder auf See auch keine deutlich größeren Volllast-Stunden als ihre Gegenstücke an Land, wie es zur Rechtfertigung dieser kostspieligen Anlagen behauptet worden ist. Anscheinend ist die Tatsache, dass sowohl in Schleswig-Holstein als auch in der Deutschen Bucht das gleiche Wetter herrscht, dafür verantwortlich. Der angeblich entscheidende Stützpfeiler der ganzen Energiewende zeigt somit erhebliche Schwächen. Von einer seriösen Planung kann keine Rede sein.

7. Die Planung für den Ausbau des Höchstspannungsnetzes ist in mehrfacher Hinsicht unbrauchbar: Es ist nicht nur zu teuer, sondern auch sinnlos.

Sinnlos ist es, weil der damit von Nord- nach Süddeutschland zu transportierende Windstrom extrem schwankt und wiederholt für Tage und auch Wochen ausfällt. Dieser Strom ist für die damit „versorgten“ süddeutschen Länder, für deren Industrie und für die Bürger völlig unbrauchbar.

Zu teuer sind die geplanten Leitungen, weil sie für die maximal vorkommende Windstromleistung dimensioniert werden, die wetterbedingt nur sehr selten auftritt. Diese Überdimensionierung erzeugt unnötige Mehrkosten.

Ein Abschneiden dieser ohnehin unbrauchbaren Leistungsspitzen durch Abschalten von Windrädern und die konsequente Auslegung der Leitungen für eine deutlich kleinere Maximalleistung wäre die einzig sinnvolle Maßnahme. Die Rücknahme dieses teuren Planungsfehlers ist bisher nicht erfolgt.

8. Die Energiewende-Planer haben Zielwerte für die jährliche Erhöhung der Energieeffizienz festgelegt, die erheblich über den Zahlen liegen, die jahrelang erreicht wurden. Die für diese angenommene, gravierende Beschleunigung des Verbesserungsprozesses angeführten Begründungen sind sämtlich nicht stichhaltig. Das beweist nur die Unkenntnis über die bisherige Entwicklung des spezifischen Energieverbrauchs in der Wirtschaft – insbesondere auch über die Gründe für den systematischen Rückgang der erzielbaren Verbesserungen. Die Zielvorgaben sind irrelevant und niemand wird sie beachten.

9. Die Eigenstromerzeugung ist seit jeher für viele Unternehmen eine Selbstverständlichkeit, besonders für jene, die brennbare Gase als Abfallprodukte ihrer Produktion erhalten. Ferner verfügen viele Unternehmen über leistungsfähige Notstromversorgungen. Mit der Energiewende stiegen die Strompreise, was viele Betriebe dazu bewog, ihre Eigenstromversorgung zu verstärken oder sie neu einzurichten, um weiteren Preiserhöhungen zu entgehen. Die regelmäßigen politischen Bekenntnisse zum angeblichen Nutzen einer unbedingt erstrebenswerten dezentralisierten Stromversorgung mögen den Unternehmen dabei die Gewissheit vermittelt haben, dass diese Eigeninitiativen positiv gesehen und anerkannt werden. Ein Irrtum: Jetzt ging die Regierung auf Gegenkurs.

Eigenstromerzeugung ist plötzlich unsolidarisch, weil sich die Betreiber damit der EEG-Umlage entziehen – mit dem Resultat, dass die Übrigen umso mehr bezahlen müssen. Für Neuanlagen sollen daher künftig ebenfalls Beiträge für die EEG-Umlage bezahlt werden. Der Wegfall jeglicher Verlässlichkeit in der Energiepolitik wird auch in Ziff.14 beschrieben.

10. Auch die Rücksichtslosigkeit gegenüber den Nachbarländern, mit der die deutsche Regierung ihre Energiepolitik seit 2011 vorantrieb, ist unentschuldbar. Inzwischen hat die Energiewende erhebliche Störungen und  massive wirtschaftliche Schäden in der Schweiz und auch in Östereich, Polen und den Niederlanden angerichtet. So sind in der Schweiz die Wasserkraftwerke durch den subventionierten deutschen EEG-Dumpingstrom in Existenznöte geraten. Die deutsche Energiewende trifft also ausgerechnet die umweltfreundlichsten Stromerzeuger im Nachbarland. Gegenmaßnahmen sind absehbar und unvermeidlich.

11. Erst zu Beginn des Jahres 2014 scheint die Regierung begriffen zu haben, dass ihre Energiepolitik, die inzwischen zu den zweithöchsten Strompreisen in Europa geführt hat,  die energieintensive Industrie systematisch aus dem Lande hinaustreibt. Die bereits seit mehreren Jahren klar dokumentierte Zurückhaltung bei Investitionen, die deutlich von den Abschreibungen übertroffen werden, scheint niemand aufgefallen zu sein. Die Absetzbewegung ist bereits im Gange. Jetzt wird versucht, die Industrie wenigstens zum Teil vor weiteren Strompreissteigerungen durch die EEG-Umlage zu schützen. Damit verschlechtert sich die Situation der Industrie weiter, nur langsamer. Die Deindustrialisierung geht also weiter.

12. Vor allem die durch das EEG extrem geförderten Maßnahmen Biomasseanbau für die Stromerzeugung sowie die Windkraftanlagen, die im Vergleich mit konventionellen Kraftwerken zur Erzeugung einer Kilowattstunde Strom das 370-fache (Windkraft) bis 12.400-fache (Biomasseanbau zur Stromerzeugung) an Fläche benötigen, sind durch ihren ins Riesenhafte getriebenen Ausbau zu ebenso riesigen Umweltproblemen geworden, was ebenfalls von vornherein klar war. Während der hochsubventionierte Biomasseanbau  durch seine Monokulturen die Artenvielfalt beeinträchtigt und das Grundwasser durch Nitrate verunreinigt hat, führen die Windparks neben ihrer Landschaftsverschandelung, dem Töten von Vögeln und Fledermäusen und der Gesundheitsschädigung von Menschen neuerdings auch noch zur Abholzung großer Waldflächen. Letzteres ist die Folge einer Windkraft-Offensive der Regierung, die die Bundesländer zu einer stärkeren Nutzung der Wälder für die Errichtung von Windkraftanlagen aufgerufen hat. Dies ist eine Politik, die im Namen des sogenannten Klimaschutzes die Umwelt unseres Landes in einem noch nie dagewesenen Ausmaß zerstört. Der verzweifelte Kampf von bald 1000 Bürgerinitiativen gegen diese Politik hat bisher bei den Verursachern in Berlin keine Wirkung gezeigt.  Es handelt sich nicht mehr um Versagen, sondern um die gezielte Zerstörung der Umwelt aus politischen Gründen.

12. Die Energiewende-Politik hat zu einer Umverteilung von unten nach oben in einem bisher nicht gekannten Ausmaß geführt. Auch diese Auswirkung war von Anfang an bekannt – und daher auch bewusst in Kauf genommen oder sogar gewollt. Die stärkste dieser Umverteilungen wird durch die Subventionierung der Photovoltaik bewirkt, deren Anlagen zum größten Teil auf den Dächern von Einfamilienhäusern und landwirtschaftlichen Gebäuden installiert sind. Bezahlt werden die Profite der Hausbesitzer durch die EEG-Umlagen in den Stromrechnungen der Mietshausbewohner.

Aber auch mit Windparks wird viel Geld verdient, das in die Taschen der Planer, der Errichter, der Dienstleistungsfirmen und – wenn sie nicht getäuscht und hereingelegt worden sind – auch der Betreiber der Windräder fließt. Auch dieses Geld wird von den Stromkunden einkassiert. Bei Photovoltaik-Freiflächenanlagen das Gleiche.

Bemerkenswert bei dieser Umverteilung ist das Schweigen der Sozialpolitiker aller Parteien, die sich ansonsten bei jeder Ungerechtigkeit und sozialen Benachteiligung sehr engagiert zu Wort melden.

14. Die Regierung wählte niemals den einzig akzeptablen Weg, neue, als falsch erkannte Regeln wieder durch bewährte alte Regeln zu ersetzen. Sie wählte stets den Weg des Erlasses neuer Reparatur-Regeln, die ebenso regelmäßig „nicht vorhersehbare“ Nebenwirkungen und Kollateralschäden verursachten.

Die Gesetzes- und Verordnungsflut im Bereich der Energiewirtschaft hatte jedoch noch eine weitere, grundsätzliche Nebenwirkung: Sie zerstörte die Verlässlichkeit für jede Investition in Energieanlagen, insbesondere für Kraftwerksneubauten. Langfristige Investitionen, die sich innerhalb von  20 – 30 Jahren rentieren müssen, benötigen ebenso langfristige Geschäftsgrundlagen. Wenn aber tatsächlich die Bedingungen fast im Jahresrhythmus geändert werden, erstirbt jede Investitionsbereitschaft. Genau das ist jetzt die Situation.

Gemäß dem bisherigen Weg der Regierung in die Planwirtschaft ist die folgende Lösung zu erwarten: Ersatz der nicht erfolgten, aber notwendigen Investitionen durch den Bau von Staatskraftwerken – und damit ein weiterer Schritt in die Verstaatlichung des Energiesektors.

 




Offener Brief an kirchliche Würdenträger: Endlagersuchkommission – Rückfall ins Mittelalter

Sehr geehrter Herr Landesbischof Meister,

beim folgenden Brief handelt es sich um einen offenen Brief, da ich mich auf Ihre Aussagen beziehe, die Sie am 28.07.2014 bei der Endlagerdebatte in Hannover öffentlich geäußert haben. Ich beziehe mich aber auch auf Ihr Antwortschreiben, das mir Herr Adler in Ihrem Auftrag hat zukommen lassen. Dafür möchte ich mich hiermit zuerst einmal herzlich bedanken.

Gefreut hat mich die Aussage von Herrn Adler, dass Sie meine fachlichen Beiträge bei ‚achgut‘, ‚eike‘ und auch ’novo-argumente‘ zur Kenntnis genommen haben und das Material in Ihren Materialpool übernommen haben, um meine Argumentation bei den sich Ihnen bietenden Gelegenheiten in Ihre Urteilsbildung einfließen zu lassen. Dies ist leider weder am 28.07.2014 in Hannover noch am 17. bis 29.10.2014 in Loccum geschehen.

Dazu Folgendes: 

Frau Dr. Barbara Hendricks, Ministerin des Bundesministeriums für Umwelt Naturschutz Bau und Reaktorsicherheit, sagte in der RHEINISCH POST vom 21.12.2013 „Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort … Für sie als überzeugte Christin sei es immer ‚gotteslästerlich‘ gewesen, dass Menschen dachten, sie könnten etwas für Millionen Jahre garantieren …“ . Damit behauptet diese Dame in aller Öffentlichkeit, dass die bisherige Suche keinen strengen wissenschaftlichen Kriterien genügt habe. Das sollte nicht so stehen bleiben.

Landesbischof Meister von Niedersachsen hat anlässlich der neuerlichen Endlagerdebatte am 28.07.2014 laut HAZ vom 30.07.2014 folgendes Statement abgegeben: „Wenn Naturwissenschaftler meinen, sie könnten über die Wahrheit entscheiden, dann ist das schon der erste Grundirrtum.“

Dies sind nur zwei von zahlreichen Zitaten, mit denen in der Vergangenheit von offizieller evangelischer Seite zusammen mit NGOs wie GREENPEACE, BUND etc. die Geowissenschaften in Bezug zur Endlagerung öffentlich abgewertet, ja verunglimpft werden. Wo bleibt bei der Endlagerung in der Politik und in der evangelischen Kirche in Deutschland Verantwortung und Respekt vor der Natur? Als Naturwissenschaftler sind wir darüber fassungslos, sprachlos und als praktizierender Christ auch traurig. Das Ausmaß an geheuchelter Ignoranz, bewussten Verdrehungen von Sachverhalten sowie zynischen Herabwürdigungen gegenüber einer Wissenschaft, die die Entwicklung der Erde seit Milliarden von Jahren verfolgt, sie immer besser versteht und uns einen sehr detaillierten Einblick in die geologische Vergangenheit aber auch in das physikalisch-chemische Verhalten von Erzen, von Metallen und auch von Uran über Jahrmilliarden gibt, ist in unserer aufgeklärten Zeit unbegreiflich. Werden hier nicht in aller Öffentlichkeit ethische Prinzipien gegenüber aktuellen wissenschaftlichen und technischen Standards verletzt?

Video: „Spuren der Zukunft“ zum natürlichen Kernreeaktor in Oklo Gabun

Unabhängig ob man für oder gegen Kernkraft ist, die durch Kernkraft erzeugten radioaktiven Abfälle müssen langfristig sicher entsorgt werden, wobei uns die Natur gezeigt hat, dass dies grundsätzlich und nachhaltig möglich ist.

 

Oklo: Ancient African Nuclear Reactors
Credit & Copyright: Robert D. Loss, WAISRC

Explanation: The remnants of nuclear reactors nearly two billion years old were found in the 1970s in Africa. These reactors are thought to have occurred naturally. No natural reactors exist today, as the relative density of fissile uranium has now decayed below that needed for a sustainable reaction. Pictured above is Fossil Reactor 15, located in Oklo, Gabon. Uranium oxide remains are visible as the yellowish rock. Oklo by-products are being used today to probe the stability of the fundamental constants over cosmological time-scales and to develop more effective means for disposing of human-manufactured nuclear waste.

Denn vor ca. zwei Milliarden Jahren gab es im heutigen Gabun an der Grenze von Tongesteinen zu Sandsteinen in hoch konzentrierten Uranerzgängen mehrere „Kern-Reaktoren“, die über mehrere hunderttausend Jahre funktionierten. Dabei wurde eine Wärme von rund 100 Milliarden Kilowattstunden frei (bei einem modernen KKW entspricht das einer Betriebszeit von vier Jahren). Ungefähr vier Tonnen Plutonium und rund zehn Tonnen Spaltprodukte sind entstanden. Die bei OKLO gebildeten Spaltprodukte und deren Migration in den Sandsteinen wurden genauestens untersucht. (Siehe bei Google OKLO-Literatur). Die bei dieser natürlichen Kernspaltung natürlich entstandenen Spaltprodukte („radioaktiver Abfall“) sind über sehr, sehr lange Zeiträume direkt neben den Naturreaktoren festgehalten. Dies liefert auch für Ideologen verständlich den Beweis, dass ein langfristiges und nachhaltiges Einschließen dieser Abfälle in der Natur möglich und auch nachgewiesen ist.

Für politische (und kirchliche?) Entscheidungsträger ist es anmaßend, die Schwächen und Ängste der Bürger zu missbrauchen, um sie heimlich, still und leise so zu manipulieren, damit sie die für sie erwünschten Entscheidungen treffen, und nicht diejenigen, die sie mit gesundem Menschenverstand unbeeinflusst selbst getroffen hätten. Diese machtpolitische Taktik (Ideologie?) wird von diesen Entscheidungsträgern für ihre eigenen Zwecke gezielt genutzt, anstatt unsere Mitbürger bewusst an den wachsenden wissensbasierten Kenntnissen von natürlichen und wissenschaftlich-technischen Prozessen informativ und aktiv teilnehmen zu lassen – aus welchen Gründen auch immer.

Die von Ministerin Frau Dr. Hendricks und von Herrn Landesbischof Meister veröffentlichen Aussagen ‚gotteslästerlich‘ und ‚Grundirrtum‘ sind der tatsächlichen Situation nicht angemessen, denn sie führen bei der Öffentlichkeit zu Fehlbotschaften mit entsprechenden Folgen. Ist eine derartige Vorgehensweise unter Beachtung des achten Gebotes gerechtfertigt?

Du sollst nicht falsch Zeugnis reden wider deinen nächsten!

Mit freundliche Grüßen

vom gotteslästerlichen und von Grundirrtum geplagten

Helmut Fuchs

P.S. für Interessierte sind weitere Veröffentlichungen zu diesem Thema bei Google unter helmut fuchs geologe zu finden.

Mit dem noch verbleibendem Galgenhumor kann man die heutige Situation in Deutschland nur noch in einem Gedicht zusammenfassen:

Minister Stefan Wenzel lud am 28 Juli ein; ein „großes Gespräch“ sollt‘ es sein.

Im Leineschloss traf sich die Runde, beharkte sich so manche Stunde.

Man labert und man diskutiert – ob dies auch zum Konsens mal führt?

Was ist das Fazit denn gewesen? Man konnte es in der Zeitung lesen:

Statt „Konsens“ nur „Nonsensens“ – leider! Nur Rechthaberei –

bringt die uns weiter?

Wer löst die Fragen aller Fragen, die ungelöst in all den Tagen?

Wo bleibt der Müll, der atomare? Hier gibt es Streit schon viele Jahre!

Ich sehe für die Lösung schwarz! Beginnt die Suche man am Harz?

Versucht man es am Nordsee-Strand? Oder anderswo im Land?

Der Schwarzwald käme auch in Frage – dort im Granit, tief unter Tage…

Doch unser Landesbischof Meister reaktiviert nun alte Geister,

indem er lautstark konstatiert: Die Wissenschaft hat sich geirrt!

Die Theologie besitzt die Wahrheit – das sage ich in aller Klarheit.

(Galileo musst‘ es einst schon spüren und seine Thesen revozieren…)

Gemeinsam gehen sie jetzt ran: Bei „Null“ fängt alles wieder an.

Die Theologen vorneweg; zieh’n sie die Karre aus dem Dreck?

Gestützt von Greenpeace, NABU, BUND; läuft künftig dann die Sache rund?

Bin schon gespannt, ob das was bringt und ob es wirklich jetzt gelingt,

zu einem Standort „ ja“ zu sagen, statt alte Schlachten neu zu schlagen!

Rudolf Eberhart, Hannover

P.S.

Hintergrund

Leserbrief in der F.A.Z vom 31.07.14 „GORLEBEN SOLL LEBEN“ von Klaus Brunsmeier, Stellv. Vorsitzender des BUND und MITGLIED DER KOMMISSION HOCH RADIOAKTIVE ABFÄLLE.

„ … Denn jenseits aller politischen Fehler, die gemacht wurden, hält Gorleben einer geologischen Überprüfung schlicht nicht stand. So hat der Geologe Jürgen Kreusch den Salzstock als möglichen Endlagerstandort anhand der Kriterien untersucht, die die Bundesanstalt für Geowissenschaften (BGR) aufstellte, um Salzformationen für die Endlagerung für die Endlagerung radioaktiver Abfälle zu bewerten. Eindeutiges Ergebnis: Der Salzstock Gorleben ist diesen amtlichen Kriterien zufolge nicht als untersuchungswürdig anzusehen. Der ehemalige Fachbereichsleiter für Endlagerung im Bundesamt für Strahlenschutz (BfS) und heutiges Mitglied der Atommüll-Kommission Ulrich Kleemann weist in einer weiteren Studie nach, dass der Salzstock in Gorleben nicht einmal in die engere Auswahl hätte gelangen dürfen. …“

Meine Antwort auf oben zum Teil zitierten Leserbrief von Herrn Brunsmeier BUND lautet in der F.A.Z vom 14.08.14 „GORLEBEN – DIE IDEOLOGIE HAT GESIEGT“ von Helmut Fuchs, Geologe

Zum Beitrag „Gorleben soll leben“ (F.A.Z. vom 31. Juli) von Herrn Brunsmeier vom BUND erübrigt sich ein fachliches Kommentar, denn er zeugt von  Unwissenheit. Über die Eignungshöffigkeit von Gorleben gibt es bisher keine fachlichen Zweifel, wie in der Studie „Vorläufige Sicherheitsanalyse Gorleben“ der GRS vom März 2013 deutlich dargestellt wird. Dieser wichtige Bericht wird in dem langen Kommentar bewusst oder unbewusst nicht erwähnt, obwohl er bei Google in voller Länge zu finden ist.

Herr Brunsmeier stützt sich bei seiner Bewertung dagegen ausschließlich auf die kurzen Gutachten von Herrn Kreusch (Greenpeace) und Herrn Kleemann (Rechtshilfe Gorleben), in denen nur geologische Einzelthemen angesprochen werden. Die veröffentlichte Stellungnahme der BGR (Bundesanstalt für Geowissenschaften und Rohstoffe) zu diesem Bericht lautet: „Die in der Studie von Kleemann enthaltenen Aussagen, mit denen vermeintliche Fehlinterpretationen der BGR belegt werden sollen, können einer fachlich-inhaltlichen Überprüfung nicht standhalten. Sie stützt sich im Wesentlichen auf eigene und teilweise aus dem Zusammenhang gerissene Aussagen aus den vier zusammenfassenden Gorleben-Bänden der BGR. Dabei wird kaum Bezug auf die mehrere hundert zugrunde liegende Fachberichte der BGR genommen. Eigene wissenschaftliche Leistungen, wie zum Beispiel eigene Untersuchungen, werden vom Autor nicht dargestellt.“

Ein weiterer Hinweis für die wohl gewünschten Fehlinformationen von Herrn Brunsmeier ist die Tatsache, dass er nicht die Ergebnisse der „Vorläufigen Sicherheitsanalyse Gorleben“ nennt. Denn der zusammenfassende Bericht ist 424 Seiten lang. Er fasst die Ergebnisse von 15 Arbeitspaketen zusammen, die auf insgesamt 20 Einzelberichten der GRS und 5 Einzelberichten der BGR basieren. Sie umfassen insgesamt 5628 Seiten. Alle Einzelberichte der VSG sind von ausgewiesenen Fachleuten erstellt, die nicht von den Abfallverursachern bezahlt wurden. Eines der wichtigen Ergebnisse der VSG-Studie lautet (Seite 288): „Aus den im vorangegangenen dargelegten Gründen wird davon ausgegangen, dass die Anforderungen an die langzeitsicherheitsgerichteten Nachweise, soweit diese den dauerhaften Einschluss der aus den Abfällen stammenden Radionuklide betreffen, auf konzeptioneller Basis umgesetzt wurden …“ Auch wenn der zusammenfassende Bericht nicht einfach zu lesen ist, sollten sich Politiker und Gegner von Gorleben, wenn sie sich zur Qualität des Projektes äußern, so ehrlich sein, zumindest die aussagekräftigen Bewertungen zu den einzelnen Kapiteln zur Kenntnis zu nehmen. Aus rein gesellschaftspolitischen Gründen kann man dann trotzdem mit allen Konsequenzen dagegen sein.

Der F.A.Z muss man für die Veröffentlichung derartiger Leserbriefe vom BUND dankbar sein. Denn er zeigt der Öffentlichkeit anschaulich, wie bei Gorleben – einmalig in Deutschland – Ideologie über die Geologie (Wissenschaft) gesiegt hat.

Verkürztes Literaturverzeichnis zu OKLO

Bodu, R., Bouzigues, H., Morrin, N. & Pfiffelmann, J.P. 1972: Sur l´existence d´anomalies isotopiques recontrées dans l´uranium du Gabon. Acad. Sci. Paris, Contemptes Rendus v. 275 p. 1731-1732.

Bonhomme, M, Gauthier-Lafaye, F. & Weber, F. 1982: An example of lower Proterozoic sediments: The Francevillain in Gabon. Precambrian Res. V.18, p. 87-102.

Cowan, G. A. 1976. A Natural Fission Reactor, Scientific American, 235:36.

Gauthier_Lafaye, F. & Weber, F. 1989: The Francvillian (Lower Proterozoic) Uranium Ore Deposits of Gabon. Econ. Geol. 84, p. 2267 – 2285.

Gauthier-Lafayette, F., Weber, F. & Ohmoto, H. (1989): Natural Fission Reactors of Oklo. Econ. Geol. 84, 2286 – 2295.

GRS Naturreaktor Oklo: Google

Hagemann, R., Lucas, M., Nief, G. & Roth, E. 1974. Mesures isotopiques du rubidium et du strontium et essais de mesure de l´age de la mineralisation de l´uranium du réacteur naturel de l´Oklo. Earth Planet. Sci. Letters, V.23, p. 170 – 176.

Hohenberg C. M., O. V. Pravdivtseva: Record of Cycling Operation of the Natural Nuclear Reactor in the Oklo/Okelobondo Area in Gabon In: Phys. Rev. Lett. 93, 182302 (2004)

John de Laeter Centre – Natural Reactors: jdlc.curtain.edu.au

Lancelot, J.R., Vitrac, A. & Allegre, C.J. 1975. The Oklo natural reactor: Age and evolution studies by U-Pb and Rb-Sr systematics. Earth and Planet. Sci. Letters V 25, p. 189 – 196.

Lovelock, J. 1991. Das Gaia-Prinzip. Artemis, Zuerich, Muenchen, p. 166f.

Meshik A. P. Meshik, C. M. Hohenberg, O. V. Pravdivtseva: Record of Cycling Operation of the Natural Nuclear Reactor in the Oklo/Okelobondo Area in Gabon In: Phys. Rev. Lett. 93, 182302 (2004),

Hohenberg C. M., O. V. Pravdivtseva: Record of Cycling Operation of the Natural Nuclear Reactor in the Oklo/Okelobondo Area in Gabon In: Phys. Rev. Lett. 93, 182302 (2004)

Naudet, R. 1978a. Etude paramétrique de la criticité des réacteurs naturels. in: The natural fission reactors. Int. Atomic Energy Agency, Wien, p. 589-600.

Naudet, R. 1978b. Conclusion sur le déroulement du phénomène. in: The natural fission reactors. Int. Atomic Enetgy Agency, Wien, 715-734.

OKLO -American Nuclear Society: www.ans.org/pi/np/oklo

Ries, Gunar 2011 der natürliche Reaktor von Oklo inLagerstätten /Rohstoffe, SciLogs

Weber, F. 1968: Une série du precambrienne du Gabon: Le Francevillian. Sédimentologie, géochimie, relations avec le gites minéraux associés. Strasbourg, Services Cartes Géol. Alsace-Lorraine Mém. 28, 328 p.

Dr. Helmut Fuchs

Verteiler: Landesbischöfe, EKG Deutschland, Mitglieder der Endlagerkommission, NOGs Politiker, Sonstige, Presse!




„Der Wetterfrosch in meinem Kopf“

Das neuerliche Interesse an dem Thema ist im Grunde zu begrüßen, wenn nicht der Eindruck des Lobbyismus wäre. Es wird bedauert, dass von den 14 Forschungsstätten nur noch eine existiere, das Zentrum für Medizin-Meteorologie des Deutschen Wetterdienstes in Freiburg. So wird auch unverhohlen Reklame gemacht für Jörg Scheidt von der Hochschule Hof, der gerne ein „individuelles Therapiekonzept für wetterbedingte Kopfschmerzen und Migräne“ errichten möchte und um Forschungsmittel wirbt. Solch ein Artikel kann dabei nützlich sein, auch wenn das Ziel des Vorhabens angesichts der Komplexität der Wechselwirkung zwischen „Mensch und Wetter“ wohl utopisch erscheint.

Warum Skepsis hinsichtlich des Erfolges angebracht ist, das bestätigt die Medizinmeteorologin Angelika Grätz. Sie wird zitiert mit dem Satz: „Der Mensch ist ein kompliziertes System, ebenso das Wetter. Beides in Zusammenhang zu bringen ist sehr komplex und schwer zu erforschen.“ Wenn auch die Systemforschung als Allheilmittel angepriesen wird, so wird gerne übersehen, dass sie selbst es ist, die der Erforschung komplexer wie komplizierter Zusammenhänge im Wege steht.

Systemforschung engt und grenzt ein, aber öffnet keine neuen Horizonte

Ein System ist ein geschlossenes Gedankengebilde. Es ist ein gedankliches Konstrukt, das die Wirklichkeit vereinfachen soll, um Sachverhalte besser verstehen zu lernen. In der Soziologie nennt man diese Vorgehensweise nach Herrmann Lübbe die „Suche nach dem komplexreduzierenden Punkt“. Doch weder Mensch noch Wetter sind Systeme, sind keine geschlossenen Gebilde, auch nicht in Gedanken. Sie sind ganz im Gegenteil stets „offene Systeme“. Diese Formulierung ist sehr unglücklich, aber besser als nichts.

Der Mensch muss nach außen hin, zur Umgebung „offen“ sein, denn er muss für äußere Reize empfänglich sein, allein um des Überlebens willen. Dafür ist er von Natur aus mit den entsprechenden Sinnen und Sensoren ausgestattet, um Gefahren sehen, riechen oder hören zu können. Man spricht auch von Instinkten, die die nicht von unserem Bewusstsein, dem schwerfälligen Verstand gesteuert werden. Wir schließen blitzschnell die Augenlieder, bevor wir das Insekt bewusst wahrgenommen haben. Der Mensch hat ein extrem feines Temperatursensorium, um auf Wärme- und Kältereize an den einzelnen Gliedmaßen sofort reagieren zu können.

Jeder Mensch, jedes Tier, jede Pflanze steht in direktem, offenen Kontakt zu seiner Umgebung. Das gleiche gilt für die Erde. Sie ist kein „Treibhaus“ und kein geschlossenes System. Sie ist zwar umgeben von einer Lufthülle, der Atmosphäre, die jedoch im Wesentlichen Transportfunktionen ausübt und dafür sorgt, dass überall auf der Erde Leben möglich ist. Die Atmosphäre transportiert warme und kalte Luft und sorgt damit für einen Austausch über die „Allgemeine Zirkulation“. Die Atmosphäre sorgt für eine optimale Durchmischung, dafür, dass überall auf der Erde Sauerstoff zum Atmen vorhanden ist. Ebenso muss das Kohlenstoffdioxid überall gleichmäßig verteilt sein, damit überall grüne Pflanzen wachsen können, ob in den Tropen, den Tundren oder den Wüstenregionen. Auch der Regen muss über die Erde verteilt werden, wenn auch extrem ungleichmäßig. Er mitsamt der Temperatur sorgt für das unterschiedliche Vegetationskleid auf Erden.

Die Erde kann kein „Treibhaus“ sein und darf, auch nicht als Hypothese, als geschlossenes System gedacht werden. Die Erde als Körper strahlt unentwegt „Wärme“ in Form von elektromagnetischer Strahlung ab. Die Erde kühlt sich unentwegt ab, was Sir Isaac Newton über sein 1666 formuliertes „Abkühlungsgesetz“ zum Ausdruck brachte. Damit auf der Erde Leben möglich ist, bedarf sie einer ständigen Beheizung. Die Licht- und Heizquelle ist die Sonne. Sie ist das Zentralgestirn, von dem aus alle Planeten mit Strahlungsenergie versorgt werden. Die Erde befindet sich in einer optimalen Entfernung von der Sonne und rotiert im 24-Stunden-Rhythmus um die eigene Achse, so dass sie einigermaßen gleichmäßig mit Energie versorgt wird. Dazu trägt auch die Schiefe der Ekliptik bei, der wir die Jahreszeiten verdanken. Steht die Sonne tief, ist die Einstrahlung gering, sind die Tage kurz, dann haben wir Winter.

Die Atmosphäre muss durchlässig, ja transparent für das Tageslicht wie die wärmende Infrarotstrahlung sein, damit die Erdoberfläche die Solarstrahlung absorbieren kann. Diese gibt die Wärme durch Leitung an die Luft weiter, die sich bei Erwärmung ausdehnt und mit der Wärmekonvektion die „Allgemeine Zirkulation“ in Gang setzt. Die Atmosphäre muss aber auch durchlässig für die Wärmestrahlung der Erde sein, um nicht überhitzt zu werden. Dies merkt man an der nächtlichen Abkühlung, insbesondere bei wolkenlosem Himmel. Der Bereich zwischen 7 und 13 Mikrometern, durch den die Wärmestrahlung unbehindert von den „Treibhausgasen“ die Lufthülle passieren kann, nennt man das „stets offene IR-Strahlungsfenster“.

Der Grund, warum alle gängigen Klimamodelle eine „Erderwärmung“ voraussagen, liegt einfach an deren Programmierung. Sie haben einen eingebauten „Treibhauseffekt“. Die diversen Klimamodelle sind alle als geschlossenes System mit Unter- und Obergrenze konzipiert. Die Atmosphäre hat zwar eine Untergrenze, den Boden, aber zum Himmel hin ist die offen. Sie hat keine „Obergrenze“, sondern verdünnt sich stetig, bis sie als „leerer Raum“ angesehen werden kann. Den „Treibhausgasen“ wird eine ‚radiative forcing‘, eine Strahlungskraft vorgegeben, so dass bei der Annahme eines „Anstiegs der Treibhausgase“ automatisch eine „Erderwärmung“ berechnet wird. Daher resultiert die Diskrepanz zwischen den Vorhersagen und dem realen Verhalten der Natur, das eine Abnahme der „Globaltemperatur“, und das schon seit 17 Jahren, zeigt.

Warum es zwar Wetterfühligkeit, aber keine Klimasensitivität gibt!

Zweifel daran, ob Elena Schad auch wirklich gedanklich durchdrungen und begriffen hat, was sie schrieb, ergeben sich anhand folgender Sätze. Sie schreibt: „Vor allem ältere Menschen leiden unter den Folgen des Klimas. Ihr Körper kann sich nicht schnell genug an die wechselnden Witterungsverhältnisse anpassen.“ Da geht es kunterbunt durcheinander mit den Begriffen Wetter, Witterung und Klima. Oder war das ein Kotau vor dem Zeitgeist, der das „Klima“ als Übeltäter für die drohende Klimakatstrophe wie alle Wetterextreme auserkoren und verurteilt hat?

Die Menschheit kennt keine „Klimafühligkeit“, weil es kein Klima als Naturereignis gibt. Auch das tropische Klima besteht aus Wetter! Seit seiner Existenz ist der Mensch dem Wetter ausgesetzt und muss sich dessen Normen und Launen anpassen. Schützt er sich nicht adäquat vor dem Wetter, so stirbt er den Hitze- oder den Kältetod. Der Mensch fühlt das Wetter über seine diversen Wetterelemente. Er spürt die Kälte und Wärme, spürt den Wind in seiner wechselnden Stärke. Nur eines spürt er nicht, kann er nicht spüren, das Klima, auch wenn ihm dies permanent eingeredet wird!

Das Klima wird vom Wetter abgeleitet, ist eine statistische Größe und ist damit nicht existent! Mit dem Klima verhält es sich wie mit dem Obst. Während Klima ein berechneter „Mittelwert“ ist, ist Obst ein pauschaler „Sammelbegriff“, unter dem sich Äpfel, Birnen, Kirschen, Pfirsiche, Pflaumen verbergen. Sind Äpfel und Birnen real und können gegessen werden, so ist „Obst“ ein abstrakter Oberbegriff. Obst ist nach Immanuel Kant ein „Ding an sich“. Obst existiert nicht, kann also folglich auch nicht gegessen werden, obgleich wir dem Arzt versichern, ob der Gesundheit willen fleißig Obst zu essen. Insofern kann Klima nicht gefühlt werden. Auch wenn ständig „Klimaängste“ in uns geweckt werden, wir brauchen vor dem Klima -ganz im Gegensatz zum Wetter- keine Angst zu haben.

Am Klima brauchen wir nicht zu verzweifeln, schon gar nicht am „Globalklima“! Zweifel sollten wir jedoch an all den „Klimaexperten“ wie „Klimapropheten“ haben, die um den Weltklimathron buhlen und uns solch abstruse Schauermärchen erzählen.

Dipl.-Meteorologe Dr. phil. Wolfgang Thüne




Klarstellung zu den Kommentaren zum Beitrag: „Die wahre AGW-Skeptiker-Lehre“

Zu dem Artikel:  Die wahre AGW-Skeptiker-Lehre, von Martin Landvoigt, erschienen am 24.10.2014 auf EIKE, gab es einen Kommentar (# 142 – Dr. Paul), in dem ich von dem Blog-Teilnehmer Dr. Paul bzw. möglicherweise von einem Mitarbeiter des Deutschen Zentrums für Luft- und Raumfahrt (DLR) beschuldigt wurde: 

>> Harde lügt, das wäre bei vielen "Klimaexperten" üblich.: Man kann Strahlung grundsätzlich nicht "markieren" bzw. ihr ansehen wo sie herkommt. Unser Messproblem ist lediglich die Temperatur des Messgeräts selbst, also die Eigenstrahlung des Teleskops.
Das haben wir gelöst durch die Kühlung der in der IR Astronomie üblichen CCD-Elementen (wie sie auch in modernen Digital-Kameras verwendet werden) durch superkalte Flüssigkeiten wie etwa flüssigem Stickstoff – auf in der Regel unter -200°Celsius.
Auch der zusätzliche kleine Trick des Choppens würde nicht klappen, wenn CO2 strahlen könnte.
Harde lügt also. Transmission 0 heißt, es existiert überhaupt KEINE 15µm-Strahlung in der Atmosphäre.
<<

Dem ging voraus, dass ich in einem vorherigen Kommentar # 114 ausgeführt hatte:

>> 5. dass die mit der Strahlungstransfergleichung berechnete Strahlungsausbreitung in der unteren Troposphäre bis auf das optische Fenster um 10 µm identisch ist mit einer Planck’schen Strahlungsverteilung und sehr gut durch entsprechende Spektralmessungen bestätigt wird. <<

Dem wurde sehr heftig von Dr. Paul widersprochen (Kommentar # 125):

>> Sehr geehrter Herr Prof. H. Harde, Ihre Behauptung Nr.5 ist falsch:
http://tinyurl.com/cvrssgr
weiterhin zu Nr.1., 2. und 3.
lässt sich hier NICHT zeigen, dass in der Troposphäre spontane Emission stattfindet!
Die Erklärung liefert das, was man Thermalisieren nennt.
<<

Und im Kommentar #129 führt Paul weiter aus:

>> Deshalb meidet ja jeder Treibhausvertreter die ernsthafte Diskussion der "DLWR-Messung".
Astronomische Frequenzmessungen werden einfach ignoriert, auch von Ihnen.
http://tinyurl.com/cvrssgr
Schreiben Sie an die Uni Stuttgart, nicht an mich!
<<

Dabei ging es um nachfolgende Graphik, die als Quelle auf die DLR und der Link auf die Uni Stuttgart, Institut für Raumfahrtsysteme, hinweist.

Nachdem noch einige weitere Fehlinterpretationen und Anschuldigungen von Paul erhoben wurden, habe ich im Kommentar # 137 hierzu Stellung genommen mit den Worten:

>> Wenn ich so reagieren wollte wie Sie, Dr. Paul, dann würde ich nur fragen: Wollen Sie absichtlich täuschen, also betrügen, wenn Sie auf den obigen Link verweisen und Ihre Behauptung dazu aufstellen? Ich ziehe es aber vor Sie zu fragen, ob hier möglicherweise ein Versehen, ein Missverständnis in der Interpretation eines solchen Diagramms besteht.

Mir sind diese Diagramme sehr wohl bekannt, ich habe sie über viele Jahre in meinen Vorlesungen zur Optischen Nachrichtenübertragung, insbesondere zur Übertragung durch die Atmosphäre, selber verwendet. Hier wird dargestellt, wie transparent die Atmosphäre in den jeweiligen Wellenlängenbereichen für Strahlung, die von außen (für das obere Diagramm spielt es fast keine Rolle ob von unten oder oben) auf die Atmosphäre einfällt. Das Komplement zu 1 gibt das spektrale Absorptionsvermögen, das Sie übrigens in meiner Arbeit zur Abschätzung des Einflusses von CO2 auf eine globale Erwärmung in der Abb. 3 für den kurzwelligen Bereich bis 4 µm und in Abb. 5 für den langwelligen Bereich bis 60 µm mit sehr viel höherer Auflösung wiedergegeben finden.


Um die Transmission – oder äquivalent die Absorption – eines Mediums für die einfallende Strahlung angeben zu können, ist selbstverständlich die Eigenabstrahlung dieses Mediums von der hinter dem Medium gemessenen Gesamtintensität abzuziehen. Dies spielt gerade eine wesentliche Rolle ab 3 µm. Derartige Korrekturen sind eine Selbstverständlichkeit bei spektroskopischen Untersuchungen.

Gerade sehe ich Ihren neuen Kommentar #129:
Ich empfehle Ihnen dringend, sich bei dem SOFIA-Team oder der Uni Stuttgart zu erkundigen, wie solch ein von Ihnen zitiertes Spektrum zu verstehen ist.
<<

Die Antwort von Paul hierauf erfolgte prompt im Kommentar # 142, der oben bereits angeführt wurde. Weitere Ausführungen hierzu unter # 189-Paul:

>> Ist das nun § 187StGB, oder kann man Unwissenheit beim Professor annehmen? <<

und unter #195-Paul:

>> Wissenschaftbetrüger sind auch noch empfindlich! "Gegenstrahlung" der gasförmigen unteren Atmosphäre ist institutionalisierter Betrug. <<

Trotz zweimaliger Aufforderung in Kommentar # 177 und 198 hat mir Dr. Paul bisher nicht mitgeteilt, wer ihm bei der DLR zu dem obigen Diagramm Auskunft erteilt hat und wer insbesondere den Vorwurf der Lüge erhoben hat. Wenn mir hierzu bisher keine Person genannt worden ist, muss ich davon ausgehen, dass dies eine Erfindung von Paul selber ist mit der böswilligen Unterstellung, ich sei ein Lügner und Betrüger.

Selbstverständlich habe ich nach meiner Rückkehr von einer Auslandsreise zwischenzeitlich sowohl schriftlich als auch telefonisch Kontakt mit der DLR aufgenommen. Hierbei wurde mir von Prof. Rapp, dem Leiter des Instituts für Physik der Atmosphäre, bestätigt, dass meine Anfrage zu dem Diagramm und dessen Interpretation dort eingegangen sei und von seinem Institut beantwortet werde, dieses Diagramm aber wohl nicht in seinem Bereich erstellt wurde. Im übrigen sei ihm dies sehr wohl bekannt aus Lehrbüchern und deute nur auf die Transmission der Atmosphäre hin (siehe Achsenbezeichnung), erfasse aber sicher nicht eine Eigenabstrahlung, die in den Strahlungstransfer-Berechnungen über einen eigenen Quellterm des Mediums zu berücksichtigen ist. Eine Aussage, dass ein DLR-Mitarbeiter den Vorwurf der Lüge erhoben habe, halte er für sehr unwahrscheinlich.

Mittlerweile liegt eine schriftliche Antwort des Instituts durch den Abteilungsleiter für Fernerkundung der Atmosphäre, Dr. Meerkötter, vom 6.11.2014 vor:

>> Sehr geehrter Herr Prof. Harde,

Herr Prof. Rapp hat mir Ihre mail weitergeleitet. Zur Entstehung der verlinkten Grafik über die spektrale atmosphärische Transmission kann ich Ihnen leider nichts sagen. Ich selbst führe auch keine Strahlungsmessungen durch. Handelt es sich bei der Grafik überhaupt um das Ergebnis einer Messung? Möglich wäre auch eine numerische Simulation.

Zum Thema der Eigenstrahlung der Atmosphäre möchte ich auf die Strahlungsübertragungsgleichung (SÜG) verweisen, denn diese erklärt in der Tat das Problem. Damit sage ich Ihnen sicher nicht Neues, dennoch möchte ich die folgenden Sätze kurz anfügen.

Die SÜG beschreibt die spektrale Strahldichte (oder nach Integration über den Halbraum die spektrale Strahlungsflussdichte) zum einen aus der entlang eines Weges durch die Atmosphäre direkt transmittierten Strahlung sowie einem Quellterm, welcher im langwelligen Spektralbereich nach Vernachlässigung von Streuprozessen die entlang dieses Weges aufintegrierten Emissionsbeiträge atmosphärischer Schichten enthält. In den Zentren sehr starker Absorptionsbanden geht die Transmission der Atmosphäre gegen Null. Betrachtet man nun die nach unten gerichtete langwellige Strahlung am Boden und vernachlässigt eine Strahlungsquelle am Oberrand der Atmosphäre, dann verbleibt natürlich immer noch der Beitrag thermischer Emission der atmosphärischen Schichten. Entsprechend der Stärke der spektralen Spurengasabsorption liegt das Maximum der Gewichtsfunktion, also der Funktion, welche die Verteilung der nach unten gerichteten atmosphärischen Emissionsbeiträge als Funktion der Höhe beschreibt, in atmosphärischen Schichten mit mehr oder weniger großem Abstand zum Boden. In den Zentren der Absorptionsbanden entstammt die nach unten(!) gerichtete langwellige Strahlung atmosphärischen Schichten unmittelbar über dem Boden, aber sie ist nicht Null.

Allerdings kann der spektrale Nettostrahlungsfluss an der Grenzfläche Boden-Atmosphäre, also die Summe aus dem nach unten und dem nach oben gerichteten Fluss, in den Zentren starker Absorptionsbanden (d.h. bei Schwarzkörperbedingungen) im Fall einer Temperaturgleichheit gegen Null gehen. Spektrale Beiträge zu Erwärmungs- oder Abkühlungsraten in atmosphärischen Schichten ergeben sich aus der Divergenz des spektralen Nettoflusses, d.h. aus den Nettoflussänderungen entlang eines (vertikalen) Weges durch die Atmosphäre. Beiträge zu den Erwärmungsraten liefern dabei in erster Linie Spektralbereiche schwächerer spektraler Absorption, also z.B. die Flanken starker Absorptionsbanden, nicht deren Zentren.

Ich hoffe, Ihnen damit etwas geholfen zu haben.

Viele Grüße,

Ralf Meerkötter <<

Zwischenzeitig gab es zwei weitere Kontakte zu mir benannten Spezialisten vom DLR-Institut für Methodik der Fernerkundung, Prof. Dr. Thomas Trautmann und Dr. Manfred Birk, die beide bestätigten, dass es sich bei dem Diagramm ausschließlich um die Transmission der Atmosphäre für Strahlung einer externen Strahlungsquelle handele und dass dies mit der Eigenemission der Atmosphäre überhaupt nichts zutun habe. Gegenstrahlung kann selbstverständlich mit geeigneten FIR-FT-Spektrometern gemessen werden. Hierfür gibt es viele experimentelle Belege.

Das diskutierte Diagramm – vor allem der obere Graph – wurde von den genannten Fachleuten nicht als Messung sondern als schlichte Rechnung nach Lambert-Beer eingestuft. Bei solch einer Rechnung wird selbstverständlich keine Eigenemission der Atmosphäre berücksichtigt. Deswegen kann dies auch nicht als Beweis für eine fehlende Gegenstrahlung in der Troposphäre angeführt werden.

Soweit also der aktuelle Sachverhalt zu einer im Internet aufgestöberten Graphik, zu der es an der Stelle keine weiteren Erläuterungen gibt und die als Gegenbeweis dafür herangezogen wird, dass es keine Gegenstrahlung und keine Emission von infrarotaktiven Gasen in der Troposphäre gäbe.

Nun ist durchaus Jedem zuzubilligen, dass er einen Sachverhalt falsch interpretiert und daraus weitere falsche Schlüsse ableitet. Nicht zu akzeptieren sind aber derartige persönliche Beleidigungen und Verleumdungen, wie sie hier im Raum stehen (Lügner und Betrüger), weder von einem Dr. Paul noch von einem Mitarbeiter der DLR. Wenn nicht schnellstens von Dr. Paul klargestellt wird, wer ihm bei der DLR Auskunft erteilt und mich der Lüge bezichtigt hat, wird dies zu einer Verleumdungsklage gegen Dr. Paul und gegebenenfalls gegen Unbekannt bei der DLR führen.

H. Harde




Energienutzung und Bevölkerungswachstum

Bild rechts: Die die uns am nächsten gelegene, größere Galaxie Andromeda

13,81 Milliarden Jahre nach dem Urknall, wissen wir, wie die neuesten Messungen der Europäischen Raumsonde Planck zeigen, dass das Universum zu 68,3 Prozent aus  ominöser dunkler Energie (die die Ausdehnung des Alls seit sechs Milliarden Jahren beschleunigt), aus 26,8 Prozent dunkler Materie (vermutlich unbekannte Elementarteilchen, die nicht elektromagnetisch wechselwirken) und lediglich aus 4,9 Prozent gewöhnlicher Materie (Protonen, Neutronen und Elektronen) besteht und die allgemeine Relativitätstheorie von Einstein in diesem Universum gilt.  Nur über diesen winzigen Anteil von 4,9 %, aus dem wir selbst bestehen, wissen wir etwas Bescheid; das Gros des Universums ist rätselhaft.

Die allgemeine Relativitätstheorie erweitert die spezielle Relativitätstheorie und geht für hinreichend kleine Gebiete der Raumzeit in diese über. Außerdem kann sie als eine Erweiterung des newtonschen Gravitationsgesetzes verstanden werden, weil sie dieses im Grenzfall von hinreichend kleinen Massendichten und Geschwindigkeiten liefert. Die einsteinschen Feldgleichungen stellen einen Zusammenhang zwischen einigen Krümmungseigenschaften der Raumzeit und dem Energie-Impuls-Tensor her, der die lokale Massendichte beziehungsweise über Beschreibung: E=mc^2die Energiedichte enthält und damit die relevanten Eigenschaften der Materie charakterisiert. Im Energie-Impuls-Tensor wird berücksichtigt, dass Masse und Energie äquivalent sind; d. h., jede Form der Energie induziert schwere Masse. Der Energie-Impuls-Tensor beinhaltet neben der Massen-Energiedichte (Masse bzw. Energie pro Raumvolumen) weitere Energieformen (z. B. den Druck, den ein Strahlungsfeld ausüben kann). Eine Änderung des Energie-Impuls-Tensors, d. h. eine Änderung der durch ihn beschriebenen Energieverteilungen, hat somit eine Änderung der Struktur der Raumzeit in der Umgebung dieser Energieverteilung zur Folge. Die Struktur der Krümmung der Raumzeit (d. h. des Raumes als auch der Zeit) beeinflusst wiederum die dort befindliche Materie, d. h., Energie, Raum und Zeit stehen in direkter Wechselwirkung. Diese Beeinflussung der Materie, die von den Krümmungen von Raum und Zeit ausgehen, ist im Rahmen unserer Erfahrungswelt nichts anderes als die Gravitation.

 

Das Alter der Sonne  und der Erde wird auf 4,57 Milliarden Jahre geschätzt. Das Leben begann vor ca. 3,5 Milliarden Jahren.  Nach der Theorie der biologischen Evolution entwickelten sich im Laufe von Milliarden Jahren aus vergleichsweise einfachen Lebensformen immer komplexere Lebewesen, bis der Mensch in den letzten 100.000 Jahren auf der Erde erschien.

Im Inneren unserer Sonne herrschen Temperaturen von ca. 15 Millionen °C an ihrer Oberfläche etwa 5500°C. Sie besteht zur Zeit aus 70% Wasserstoff und 28% Helium. Der Rest setzt sich aus schwereren Elementen bis zum Eisen  zusammen. Diese Verhältnisse ändern sich langsam, weil die Sonne im Kern durch Fusion Wasserstoff in Helium umwandelt. In jeder Sekunde werden etwa 564.000.000 Tonnen Wasserstoff in 560.000.000 Tonnen Helium fusioniert. Dabei gehen in jeder Sekunde 4 Millionen Tonnen Masse verloren, die sich in Energie umwandelt und nach der Einsteinschen Beziehung:

E= mc²

Eine Strahlungsleistung von 386 Trillionen Megawatt erzeugen, die seit ca. 4 Milliarden Jahren die wesentliche Energiequelle der Erde ist und die uns noch Milliarden Jahre zur Verfügung stehen wird. Allerdings mit einer geringen Energieflußdichte von ca. 1kW/m²

Doch die Erde hat während  ihrer Entstehungsgeschichte noch andere Energiequellen zu bieten Kohle, Öl und Gasvorkommen, bei denen man heute zunehmend unsicherer wird, ob sie fossilen, biogen Ursprung oder rein chemisch, abiotisch entstanden sind und natürlich die Kernbrennstoffe.

An der fossilen oder „biogenen“ Betrachtungsweise halten auch die wichtigsten Verbände der deutschen Chemie fest.

 Steinkohle ist demnach aus Braunkohle entstanden, diese aus Torf, dieser aus abgestorbenen Bäumen, die in Sumpfgebieten versanken und dann unter Luftabschluss verrotteten.

Diese Theorie führt zwangsläufig zu der strategischen Aussage einer Endlichkeit fossiler Rohstoffe mit all ihren Folgen für die Menschen und letztendlich zu der Feststellung, dass diese Rohstoffe viel zu schade sind, um schnöde verbrannt zu werden.

Mit der „ abiotischen“ Betrachtungsweise ist diese Gefahr gebannt. Diese nun nicht mehr fossilen Rohstoffe bilden sich in der Erdkruste ständig neu, sie füllen leere Reservoire auf, wurden und werden durch tektonische Bewegungen an die Erdoberfläche transportiert. Man muss sie nur finden.

Kernbrennstoffe Uran und Thorium sind gegenüber landläufigen Aussagen in so großen Mengen in der Erdkruste und im Meer enthalten, dass sie bei gegenwärtigem Bedarf  für ca. 5000 Jahre ausreichen. Falls Fusionsreaktoren in Betracht gezogen werden, und das wird in einigen Jahrzehnten sicher der Fall sein, kann durch die Kernenergie eine unbegrenzte Energieversorgung der Menschheit sichergestellt werden.

Bei genauerer Betrachtung muss die Menschheit keine Angst vor Energiemangel haben. Es müssen nur die politischen Weichenstellungen richtig sein.

(Kohlendioxid ist überall vorhanden und das einfachste Alkan, Methan , der Hauptbestandteil von Erdgas entsteht u.a. heute ständig auf dem Meeresgrund in der Nähe von hydrothermalen Schloten. Unter hohen Temperaturen und Drücken und im  Erdinneren vorhandenen Katalysatoren können daraus entsprechend dem Fischer Tropsch – Verfahren höherwertige Kohlenwasserstoffe entstehen. Höhere KWS sind bei Temperaturen oberhalb von etwa 150°C nur stabil, wenn sie unter hohem Druck stehen. Im Erdmantel ist das noch der Fall. Fällt bei hohen Temperaturen der Druck ab, zerfallen diese KWS in Kohlenstoff und Methan. Tatsächlich werden oberhalb von Gas- und Ölvorkommen oft Steinkohlelager gefunden, oder – umgekehrt betrachtet – unterhalb von Steinkohle Öl und Gas. Steinkohle enthält große Mengen an Methan.)

Der Zugriff des Menschen auf Energiesysteme setzt die Rahmenbedingungen, unter denen sich gesellschaftliche, ökonomische oder kulturelle Strukturen bilden konnten und können und bestimmt die Grundzüge einer Gesellschaft.

Die Zivilisationsgeschichte der Menschheit kann entsprechend  der Nutzung der Energiesysteme in drei Abschnitte aufgeteilt werden.

Der erste dieser Abschnitte war das Zeitalter der Jäger und Sammler. Es überdeckte die meiste Zeit menschlicher Existenz. In dieser Zeit deckte der Mensch seinen Energiebedarf in Form von Nahrung und Brennholz unmittelbar aus den solaren Energieflüssen und der von ihnen produzierten Biomasse.

Dieser Bedarf pro Kopf und Jahr betrug ca. 2,5 GJ für den einfachen Sammler pflanzlicher Nahrung während der 600.000 Jahre vor der Beherrschung des Feuers und 7,5 GJ für den Jäger und Sammler mit heimischem Herd vor 100.000 Jahren. Wo die Menschen in Wäldern und von der Jagd lebten, erlaubte das Nahrungsmittelangebot üblicherweise höchstens 10 Menschen pro km².

Darauf folgte das Zeitalter der Bauern und Handwerker mit rund 10.000-jähriger Dauer, in dem der Energiebedarf  auf ca.20 GJ für den einfachen Bauern und 40 GJ für die Mitglieder der hochzivilisierten mittelalterlichen Agrargesellschaften, in denen die Handwerker das Feuer in immer größerem Maße technisch, insbesondere zur Metallverarbeitung nutzten.

Dieses Zeitalter wurde vor ca. 200 Jahren vom gegenwärtigen Industriezeitalter abgelöst mit weiter steigendem Energieverbrauch. 2003 lag der pro Kopf und Tag Energieverbrauch in Nordamerika bei 270 GJ  in Europa bei 140 GJ. Deutschland hatte einen Bedarf von 180 GJ. China und Südamerika lagen bei ca. 40 GJ und Indien bei ca.25 GJ.

In der ersten Phase bis vor etwa 10.000 Jahren lebten weltweit etwa 5-10 Millionen Menschen. Diese Zahl wuchs auf ca. 250 Millionen vor etwa 2000 Jahren und  stieg bis zum Jahr 1650 auf etwa 500 Millionen Menschen weltweit.

In dieser Periode wurde der Wärmebedarf zum Kochen, zum Erwärmen der Häuser und der Herstellung von Ziegeln sowie zum Schmelzen und Bearbeiten von Metallen mit Biomasse gedeckt. Neben Pflanzenresten wie Stroh  ( 18, 5 MJ/ Kg) dienten auch tierische Exkremente als Brennstoff. Weitaus wichtigster Brennstoff war aber Holz (20 MJ/Kg). Der Energieverbrauch einer vorindustriellen Stadt wird je nach Klima und vorhandenem Handwerk auf 10 bis 30 W/m² geschätzt, um diesen Bedarf nachhaltig mit Holz zu decken war mindestens die 50 bis 150 fache Fläche der Stadt erforderlich. Holz diente auch als Baustoff für Häuser und die zunehmend gebauten Segelschiffe (ein hochseetaugliches Schiff benötigte bis zu 3000 Eichen). So kam es immer wieder zu Holzmangel- vor allem als das Schmelzen von Eisen zunahm-. Zur Produktion von 1 Tonne Eisen brauchte man etwa 1.000 Tonnen Holz. Der Waldbestand in Europa ging bis 1600 auf etwa 20% seiner ursprünglichen Fläche zurück.  In dieser Zeit hätte sich niemand vorstellen können, dass die Erdbevölkerung einmal auf 7 Milliarden Menschen wachsen würde und dass sich diese einen höheren pro Kopf Energieverbrauch von 70GJ  gegenüber 40 GJ pro Jahr leisten könnten.

Der Holzmangel führte schließlich dazu, dass der Mensch gezwungen wurde auf Kohle zur Energieerzeugung umzusteigen. Ein unfreiwilliger Schritt in die Nutzung von Materialien höherer Energiedichte, mit zwangsläufig nötigen  Veränderungen der Handhabung dieser neuen Technik.

Entscheidend beeinflusst wurde die Entwicklung durch die Erfindung der Dampfmaschine, deren erster verwendbarer Typ auf das Jahr 1712 und auf Thomas Newcomen zurückgeht. Obwohl sie nur einen Wirkungsgrad von 0,5% hatte, hat sie den Einsatz von Kohle mit einer um den Faktor 2 höheren Energiedichte gegenüber Holz als Energiequelle maßgeblich beeinflusst. Da nun das Wasser auch aus tieferen Gruben abgepumpt werden konnte, wurde Kohle  auch aus tieferen Schichten geborgen. Kohle beschleunigte also den Kohleverbrauch. Die Verbesserungen von James Watt brachten den Wirkungsgrad auf 3%. Die Dampfmaschine setzte sich Anfang des 18. Jahrhunderts nun zunehmend als stationäre und mobile Energiequelle durch und bildete die Grundlage der industriellen Revolution.

Der Kohleverbrauch stieg schnell von 10 Millionen Tonnen im Jahr 1800 über 76 Millionen Tonnen im Jahr 1850 auf 760 Millionen Tonnen ( 23 EJ) im Jahr 1900. Kohle deckte 90% des weltweiten Energiebedarfs. Ab 1910 folgten auf Grund seiner gegenüber Kohle höheren Energiedichte Erdöl und ab 1930 auch Erdgas. Seit 1970 gewinnt auch die Kernkraft an Bedeutung.

Die  Weltbevölkerung erreichte 1850 die 1 Milliarden Grenze

Die Kohleförderung war im Wesentlichen auf die europäischen Länder begrenzt, erst ab dem Jahr 1890 wurde Kohle auch in den USA zum wichtigsten Brennstoff. Kurz vor dem ersten Weltkrieg hatte Deutschland das bisher führende England  in der Kohleförderung eingeholt. Ein Grund zum Eintritt Englands in den 1. Weltkrieg?

Der Energieverbrauch stieg laufend weiter und erreichte 1990 einen Wert von 300EJ:

Im Jahr 2010 hatte er schon 500 EJ erreicht und wird bis 2040 nochmals um 56% steigen, wie die Internationale Energie Agentur prognostiziert hat. Dann werden ca. 800 EJ verbraucht.

Die Weltbevölkerung stieg von 1 Mrd. im Jahr 1850 auf  4 Mrd. im Jahr 1975 und wird 2040 eine Zahl um die 9 Mrd. erreichen. Dann werden ca. 5 Mrd. Menschen in Asien und 2,5 Mrd. Menschen in Afrika leben. Europa wird in seiner Bevölkerungszahl  stabil bleiben. Das Bundesinstitut für Bevölkerungsforschung zeigt in seiner Darstellung  zwar eine Verlangsamung der Wachstumsgeschwindigkeit. Doch ein weiterer Zuwachs der Weltbevölkerung, der im Wesentlichen in Asien und Afrika stattfindet, wird  auch in dieser Untersuchung prognostiziert. Im Jahr 2100 werden danach fast 11 Mrd. Menschen die Erde bevölkern.  Es gibt auch Studien, die von 16 Mrd. Menschen ausgehen.

Interessant ist nun eine Gegenüberstellung von Weltenenergieumsatz und Bevölkerungswachstum.

 

Da sich sowohl das Bevölkerungswachstum auf der Erde kaum steuern lässt, als auch das Streben der menschen nach Wohlstand und Lebensverbesserung eine Grundhaltung ist, kann von einem überproportionalen Anstieg des pro Kopf- Energieverbrauchs in Asien und Afrika in den nächsten Jahrzehnten ausgegangen werden. Wenn diese Menschen auch nur den Verbrauch von Europa beanspruchen liefert eine Abschätzung für die 7,5 Mrd. Menschen in Asien und Afrika einen Verbrauch von 750 EJ zusätzlich. Wir lägen dann bereits bei 1250 EJ. Rechnen wir mit 16 Mrd. Menschen und einem Verbrauch von Europa, so würde die Erdbevölkerung  2250 EJ benötigen.

Exxon Mobil prognostiziert einen Anstieg von heute 11 Mrd Tonnen Oeläquvalenten auf 17 Mrd Tonnen im Jahr 2030, also auch einen Anstieg von 55%. Dabei werden Öl und Gas die wichtigsten Energieträger mit ca. 60% sein.

Kohle wird auf 20% absinken und der nicht fossilen Energieträger wird bei ca. 20% liegen. Fossile Energieträger werden dann immer noch ca. 80% des Weltenergieverbrauchs liefern.

Von diesen 20% wird der überwiegende Teil aus erneuerbaren Energien (hier vorwiegend aus Biomasse und Müllverbrennung) und aus der Kernkraft stammen. Wind und Solarenergie  werden zusammen nur einen Betrag von unter 1% liefern können. Die Kernenergie wird bei ca. 10% liegen.

Reicht das zur Versorgung der Menschen. Der Club of Rome sagt nein, er prognostiziert eine optimale Erdbevölkerung von maximal 2 Mrd. Menschen.

  

Ausgehend von den 90 Mio. km² Ackerfläche und Wald auf der Erde, bedeutet das eine Bevölkerungsdichte von 20 Menschen pro km² also Werte aus der Vorgeschichte der Menschen, als diese nur vom Jagen und Sammeln lebte.

Dieser Vorschlag hat zwar für viel internationale Aufmerksamkeit  gesorgt, stellt aber nicht mehr als eine fragwürdiges Gedankengebäude dar. Es gibt andere Lösungen für die Menschheit als den Rückweg zu den Ursprüngen in der Vorgeschichte.

Was soll mit den schon überzähligen 5 Mrd. Menschen auf der Welt geschehen und warum nutzen wir nicht Energiequellen, die uns zur Verfügung stehen?

Die Menschheit hat über Jahrtausende nur chemische Energie verschiedener Energieflußdichte genutzt. Zuerst war die Verbrennung von Holz und Torf, dann von Kohle, Öl und Gas und jedesmal wurden schrittweise  höhere Energiedichte der Materialien und angepasste Verfahren genutzt und damit eine Verbesserung des Gemeinwohls der Bevölkerung erreicht. Eine Vergrößerung der Weltbevölkerung war die augenscheinliche Folge dieser Entwicklung. Dabei war die Steigerung der Energiedichte marginal. Der Übergang Torf auf höherwertige fossile Rohstoffe, die eine nur um den Faktor 2 höhere Energiedichte haben hat zu einer Zunahme der Weltbevölkerung um den Faktor 1000 geführt.

Was geschieht, wenn die Menschheit zur intensiven Nutzung der Kernenergie  übergeht und Energiedichten nutzbar werden, die das 10.000 fache der chemischen Energieträger betragen?

Die fragwürde Diskussion über peak oil oder peak gas wäre ebenso obsolet wie  die unsinnige Diskussion über eine menschengemachte Klimakatastrophe. Die Menschheit würde zur Energierzeugung keine fossilen Rohstoffe mehr benötigen und auf  nuklearen Brennstoff  übergehen, der für die nächsten 1000 Jahre sicher vorhanden ist. Vor allem wäre eine Verbesserung des Gemeinwohls für eine uneingeschränkt wachsende Erdbevölkerung sichergestellt.

Der überfällige nächste Schritt im Prozess der Evolution der Menschen ist die Gesellschaft der Kernspaltung und Kernfusion  ausgehend von einer Gesellschaft der Holzverbrennung über eine kohlebasierte Ökonomie, gefolgt von Öl und  Gas.

Erneuerbare Energien können diese Aufgabe nicht erfüllen. Sie stellen mit ihren geringen Energiedichten einen evolutionären Rückschritt dar.

Zum Glück ist Deutschland das einzige größere Land auf der Welt, das den Ausstieg aus der Kernenergie gesetzlich festgelegt hat. Aber mit einem Primärenergiebedarf von ca. 12 EJ im Jahr 2030 ist diese Außenseiterposition für die weltweite Entwicklung bedeutungslos. Deutschland schadet sich nur selbst.




St.Doris spricht

«St.  Doris, werden Sie Schutzpatronin des ­Klimas», wird in der Kampagne gefordert: Sie zeigt Bundesrätin Doris Leuthard, gewandet wie eine Göttin, mit einem Heiligenschein aus Dampf. Was aussieht wie ein überdrehter Nebelspalter-Scherz, meinen die Schweizer Umweltbewegten tatsächlich ernst. Sechzig Organisa­tionen – von den rot-grünen Parteien über die Profiteure von Öko-Subventionen oder Entwicklungshilfe-Milliarden bis hin zum Gewerkschaftsbund – fordern von der Schweizer Politik, die Energieversorgung «auf 100 Prozent erneuerbare Energien umzustellen», also bis 2030 den CO2-Ausstoss der Schweiz um 60 Prozent zu senken. Per Klick lässt sich dafür ein Mail an St. Doris schicken. Von den mehr als ­eine Million Mitgliedern der beteiligten Organisationen taten es bis Redaktionsschluss 17 534 – um den Geisteszustand der Schweizer muss man sich also noch keine Sorgen machen.

Ohne Heiligenschein trat Doris Leuthard am Montag an der Uni Bern auf. Nachdem der Weltklimarat (IPCC) am Sonntag in Kopenhagen seinen Synthesebericht verabschiedet hatte, stellten ihn die Spitzen des IPCC um den Berner Professor Thomas Stocker im Hauptquartier der sechsjährigen Arbeit vor. Und die Bundesrätin, die über Umwelt, Verkehr und Energie gebietet, deutete in ihrem Referat an, wie es mit der Schweizer Klimapolitik weitergeht. Ihre wichtigsten Aussagen:

«Wir warten immer auf die Berichte des Weltklimarates, und der neue kommt zu einer sehr guten Zeit, vor der Klimakonferenz von Lima.»  Die «gute Zeit» ist perfekt geplant:

Vom 1. bis 12. Dezember findet in der peruanischen Hauptstadt eine der alljähr­lichen Konferenzen statt, zu denen Tausende von Klimaschützern aus aller Welt jetten, um folgenlos darüber zu reden, wie sich das ­Klima schützen liesse.

Doch diesmal müsste etwas geschehen, denn die Konferenz von ­Lima muss jene von Paris im Dezember 2015 vorbereiten, wo die Weltgemeinschaft einen Vertrag mit verbindlichen Zielen zum CO2-Ausstoss aller Länder schliessen soll.

Am Gipfeltreffen, zu dem Uno-Generalsekretär Ban Ki Moon im Oktober rief, nahmen allerdings die Oberhäupter von China, Indien und auch Deutschland nicht teil.

Der indische Premierminister Narendra Modi sagte gar:
«Das Klima hat sich nicht geändert, wir haben uns geändert.»

Und in den USA straften diese Woche die Wähler Präsident Barack Obama für seine diktatorische Energiepolitik am Kongress vorbei ab. Mit seinem Bericht versucht der IPCC deshalb, die Weltöffentlichkeit aufzurütteln: Es bleibt noch ganz wenig Zeit, um die Katastrophe zu verhindern. Dumm ist nur, dass der IPCC das seit zwanzig Jahren sagt – schon mehrere Verfallsdaten sind folgenlos verstrichen.

«Die Klimaerwärmung ist unbestritten. Die Menschen sind hauptverantwortlich für den Anstieg der Temperaturen in der zweiten Hälfte des 20. Jahrhunderts.» Mit einer Wahrscheinlichkeit von 95 Prozent stimmten diese Aussagen, verkünden die Wissenschaftler des IPCC im aktuellen fünften Bericht. Im vierten Bericht von 2007 behaupteten sie es erst mit ­einer Wahrscheinlichkeit von 90 Prozent.

Die Wissenschaftler glauben also mit ­einer noch grösseren Gewissheit – dabei ­zeigen sie in ihrem eigenen Bericht grössere Ungewissheiten denn je.

Umstritten ist vor allem die Klimasensitivität, also die Frage, wie stark sich das Klima erwärmt, wenn sich der CO2-Anteil in der Atmosphäre verdoppelt. Im neuen Bericht gibt der IPCC einen Bereich von 1,5 bis 4,5 Grad und ­einen besten Wert von 3 Grad an – mit einer grösseren Unsicherheit als früher. Dabei zeigen zahlreiche neue Studien, dass der Wert viel tiefer liegen dürfte: Nicholas Lewis und Judith Curry stellen nur die vom IPCC beurteilten Studien zusammen und kommen damit auf einen Bereich von 1,25 bis 2,45 Grad mit einem besten Wert von 1,64 Grad. Der Klimarat löste das Problem seines Unwissens elegant: In der Zusammenfassung des Syntheseberichts spricht er das heikle Thema gar nicht an.

«Der IPCC-Bericht ist neutral und objektiv, er gibt uns Politikern Leitlinien für das, was wir tun sollten.»

Judith Curry, eine führende Atmosphärenphysikerin am Georgia Institute of Technology, sagte im Januar 2014 in einer Anhörung im Kongress:

«Ich bin zunehmend besorgt darüber, dass sowohl das Problem des Klimawandels als auch seine Lösung gewaltig übersimplifiziert werden. Aufgrund meiner Forschung zur Ungewissheit frage ich mich, ob diese Dynamik noch gesund ist, sowohl für die Wissenschaft als auch für den politischen Prozess.»

Der Physiker Charles F. Kennel und der Politologe David G. Victor, Spezialist für Klimaverhandlungen, zweifelten gar vor einem Monat in der Zeitschrift Nature, dass es sinnvoll sei, wie der IPCC zu verlangen, dass sich die Erde nicht mehr als zwei Grad erwärmen dürfe. Dieses Ziel sei vor vier Jahren «auf dürftiger wissenschaftlicher Grundlage» festgelegt worden: «Seither sind zwei eklige politische Probleme aufgetaucht. Erstens ist das Ziel nicht erreichbar. Zweitens ist es unpraktisch, weil es den Regierungen und den Leuten nicht sagt, was sie tun sollen.» Deshalb erlaube es den Politikern, Aktivität vorzutäuschen, «während sie tatsächlich kaum etwas ­machen».

«Wir brauchen eine Transformation unserer Wirtschaft, unserer Technik, unseres Verhaltens, vor allem im Energiesektor, um unsere Emissionen zu senken.» Doris Leuthard will das Leben der Schweizer ändern. Dabei setzt sie weniger auf die Klimapeitsche als auf den Energieknüppel: In der Wintersession ab 24. November streitet der Nationalrat an vier Tagen um die Energiestrategie 2050. Klar ist: Die Schweizer müssen sich einschränken, denn sie müssen auch die Atomkraft­werke abstellen, die bisher im Mix mit der Wasserkraft dafür sorgten, dass die Schweiz vorbildlich dasteht mit einem CO2-Ausstoss pro Kopf von 5 Tonnen gegenüber 9 in Deutschland, das den günstigen und verlässlichen Strom mit Braunkohle erzeugen muss, 17 in den USA und gar 21 in Luxemburg. Die Schweizer wollen sich aber nicht einschränken, wie sie in jeder Abstimmung in Gemeinden und Kantonen zeigen. Deshalb will der Bundesrat eine Volksabstimmung über die Energiewende krampfhaft vermeiden.

«Wir wollen nächstes Jahr in Paris einen Vertrag mit bindenden Verpflichtungen schlies­sen. Jedes Land muss bereit sein, seinen fairen Teil zu leisten.» Bei ihrem Auftritt in Bern drückte sich die Bundesrätin um eine Aus­sage dazu, was die Schweiz als ihren «fairen Teil» anbieten will. Bisher schloss sich die Schweiz der EU an, diese konnte sich gegen den erbitterten Widerstand von Polen darauf einigen, den CO2-Ausstoss bis 2030 um 40 Prozent zu senken – weil der faule Kompromiss in merkelscher Manier völlig unverbindlich bleibt.

Die Schweiz, die schon vorbildlich dastehe, könne ihren CO2-Ausstoss nur mit Mühe weiter senken, betonte Doris Leuthard. Sie will stattdessen Ablasszahlungen leisten, nämlich nochmals hundert Millionen Dollar für den Green Climate Fund spenden. Dank diesem Fonds, an der gescheiterten Klimakonferenz von Kopenhagen 2009 beschlossen, sollen jährlich hundert Milliarden in die armen Länder fliessen, die angeblich am meisten unter dem Klimawandel leiden; neben der Schweiz nimmt aber kaum jemand die Verpflichtung ernst.

Das heisst: St. Doris enttäuscht ihre schwärmerischen Verehrer – sie entwickelt sich mit ihrem Taktieren nicht zum Engel, sondern zu Angela.

==================================================

Anmerkung EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

| Die Weltwoche, Ausgabe 45/2014 Donnerstag, 6. November 2014  ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

==================================================================

PDF zum Download unten

==================================================================

Related Files