1

Es ist nicht einfach, grün zu sein

Es ist dieser Tage nicht einfach, grün zu sein, vor allem, wenn man ein eingefleischter Untergangsprophet hinsichtlich der globalen Erwärmung ist. Das arktische Eis hat ein Comeback hingelegt und sich so schnell ausgedehnt, dass es in dieser Dekade in früheren Jahren nicht so viel Eis gegeben hat wie derzeit. Und die zuvor gemäßigten Temperaturen der Arktis sind gerade scharf zurück gegangen, jedenfalls dem Danish Meteorological Institute zufolge, das seit dem Jahr 1958 die arktischen Temperaturen aufzeichnet.

Die Alarmisten kommen auch ins Schaudern, wenn sie nach Süden in Richtung Antarktis schauen. Dort begann das Meereis in diesem Jahr früh zu wachsen, und die Eisbedeckung liegt stur unverändert über dem Mittelwert. Alles in allem übertrifft das globale Meereis – an beiden Polen zusammen – den seit 1979 aufgezeichneten Mittelwert, als die Satellitenmessungen begonnen hatten.

Katastrophen sind eine andere Katastrophe für die Untergangspropheten, wie es Prof. Robert Pielke Jr., einer der größten Experten hinsichtlich Katastrophen und Klimaänderung weltweit, in einem Artikel von der University of Colorado-Boulder dokumentiert hat. „Weder haben Überschwemmungen im vorigen Jahrhundert zugenommen, noch sind mehr Hurrikane auf das Festland übergetreten“, berichtete er. „Bemerkenswerterweise herrscht in den USA derzeit die längste, jemals registrierte Periode ohne das Auftreffen von Hurrikanen der Stärke 3 oder mehr“.

Pielke fuhr fort, dass es in den USA im vorigen Jahrhundert eine Abnahme von Dürren gegeben habe und dass „die Tornadoschäden während der letzten sechs Jahrzehnte abgenommen haben, und zwar nach dem Herausrechnen der Entwicklung, mehr Eigentum in schadensanfälligen Gebieten zu bauen“. Ähnliches gilt für Taifune in China, Buschbrände in Australien und Orkane in Europa. Hochkarätige Wetterereignisse hat es immer gegeben und wird es immer geben; und so schlimm sind sie in letzter Zeit nicht gewesen. Mehr noch, das IPCC räumte früher in diesem Jahr ein, dass man die langzeitliche Klimaänderung nicht für Schäden durch Extremereignisse verantwortlich machen kann.

Der Heilige Gral der Untergangspropheten ist natürlich die Temperatur, vo der die globalen Erwärmungsmodelle darauf bestehen, dass sie mit zunehmendem CO2-Gehalt steigt. Als die Temperaturen seit Ende der neunziger Jahre auf einem Plateau verharrten, machten sich die Untergangspropheten über die Skeptiker lustig, die darauf hingewiesen haben, dass die Modelle gescheitert sind. Unterstützt wurden sie dabei von der Führungsschicht der globalen Erwärmung, die auf allen möglichen Wegen erklärten, dass die Skeptiker die Statistiken vergewaltigen, um fälschlich zu belegen, dass die globale Erwärmung aufgehört habe. Inzwischen gibt die gesamte Führungsschicht zu – das Met Office in UK, Jim Hansen von der NASA und Rajendra Pachauri vom IPCC – dass der Temperaturanstieg zum Stillstand gekommen ist, und zwar für den größten Teil zweier Jahrzehnte. Der einfache Gläubige an die globale Erwärmung wird mit wenig zurückgelassen, außer mit den Versprechungen ihrer Führer, dass früher oder später diese Temperaturen wieder steigen werden.

Im vielleicht grausamsten Schlag überhaupt haben die Alarmisten der globalen Erwärmung in dieser Woche die Erfahrung gemacht – und zwar einer vom National Opinion Research Center (NORC) an Barack Obamas University of Chicago höchstselbst veröffentlichten Studie zufolge – dass die Klimaskeptiker in all den Jahren keineswegs als die Wissenschaft leugnende Ignoranten marginalisiert worden sind. Im Gegenteil, unbemerkt von den Untergangspropheten sind es diese selbst, die mit ihrem Glauben, dass die globale Erwärmung eine Bedrohung für den Planeten ist und dass sie die wichtigste Angelegenheit unserer Tage, wenn nicht aller Zeiten ist, am Rande der Gesellschaft stehen.

Schmerzhaft detailliert wurde in Public Attitudes towards Climate Change & Other Environmental Issues across Time and Countries, 1993-2010, einer 17 Jahre langen, vom International Social Survey Programme (ISSP) in 33 Staaten durchgeführten Studie dokumentiert, dass die globale Erwärmung in der Rangfolge bei den meisten Bewohnern aller Länder nach unten in der Liste ihrer Sorgen gesunken ist. In Norwegen haben nur 4% der Befragten als die wichtigste Angelegenheit des Landes bezeichnet – und die Norweger waren die am meisten besorgten von allen befragten Bürgern. In Kanada, auch ziemlich weit oben in der Liste, waren es gerade mal 3%, in UK weniger als 1% und in den USA weniger als ein halbes Prozent.

Es ist keine Überraschung, dass in den meisten Ländern nur wenige Leute überhaupt an die globale Erwärmung denken – egal ob vom Menschen verursacht oder nicht – geschweige denn auf ein extrem gefährliches Niveau: In Norwegen befürchten das bloß 11,8% der Bevölkerung, in UK 16,3%, in den USA 19,6%. Selbst im relativ alarmistischen Kanada geht die große Mehrheit locker mit der globalen Erwärmung um – sehen doch nur 27,8% diese als gefährlich an.

Das ISSP – gegründet im Jahr 1984 von NORC an der University of Chicago, dem National Centre for Social Research in UK, GESIS in Deutschland und der Australian National University – ist so maßgeblich wie nur irgendetwas. Tom W. Smith zufolge, dem Direktor des General Social Service bei NORC und Autor einer die Umfragen zusammenfassenden Studie, führt das ISSP „die ersten und einzigen Umfragen durch, die langzeitliches Verhalten gegenüber Umweltthemen im Allgemeinen und der globalen Klimaänderung im Besonderen in eine internationale Perspektive hebt“.

Smith hat in der Tat ein paar gute Nachrichten für eingefleischte Untergangspropheten, jedenfalls welche in der Art. Deren Anzahl, obwohl klein, hat sich während all der Jahre kaum verändert. Für den Rest von uns gilt, dass wir akzeptieren müssen, dass die Untergangspropheten genau wie die Armen immer unter uns sein werden.

Financial Post

Lawrence Solomon is executive director of Energy Probe. LawrenceSolomon@nextcity.com

Link: http://opinion.financialpost.com/2013/02/28/lawrence-solomon-not-easy-being-green/

Übersetzt von Chris Frey EIKE




Wetter brüskiert die Energiewende-Politik der Bundeskanzlerin

Ziel ihrer Politik sollte es ja sein, die „Energieerzeugung“ durch das Abschalten der Kernkraftwerke auf neue Füße zu stellen, die Stromerzeugung überwiegend auf die beiden „erneuerbaren Energien“ wie Wind und Sonne umzustellen. Doch wie dies wirklich geschehen soll, das hat die Kanzlerin nie gesagt. Sie hat auch nie die „Wettergötter“ gefragt, ob dies in Deutschland überhaupt möglich ist und wie groß das Potential der Solar- und Windenergie ist.

Dieses nun hat die Natur, hat das Wetter selbst demonstriert. Theoretisch hören sich ja die Versprechungen der Politik gut an, doch entscheidend ist in der Praxis die tatsächliche Verfügbarkeit von Sonne und Wind. Beide Energiequellen sind nämlich vom Menschen nicht „erneuerbar“, das macht die Natur. Es ist einzig und allein der Luftdruckgradient, der die Stärke des Windes bestimmt. Und die Sonne? Die scheint zwar immer, aber die Erde dreht sich, so dass sich ständig Tag und Nacht abwechseln. Und bei Dunkelheit kann partout kein Strom per Photovoltaik erzeugt werden. Zudem sind die Nächte im Winter sehr lang und zur Wintersonnenwende am 21. Dezember erreicht mittags die Sonne in 50 Grad Nord einen Höhenwinkel über dem Horizont von nur 16,5 Grad. Selbst bei maximal 8 Stunden Sonnenschein ist damit „kein Staat“ zu machen, kaum Strom zu erzeugen. Wenn in Kürze zum Frühlingsanfang die Sonne senkrecht über dem Äquatorsteht, dann steht die Sonne 40 Grad über dem Horizont und wir haben Tag- und Nacht-Gleiche.

Wenn nun stetig die Temperaturen steigen, dann liegt das einzig und allein an der längeren Tageslänge und der intensiveren Einstrahlung der Sonne pro Flächeneinheit!

Wind und Wolken sind „himmlische Kinder“ und kein Menschenwerk

Was den Wind betrifft, wird dies sogar besungen. Die Wolken werden zwar auch bewundert, wenn sie sich majestätisch als Haufenwolken aufrichten und in die Höhe schießen. Haben sie sich zu Gewitterwolken entwickelt, zucken Blitze vom Himmel und erzeugen grollenden Donner, dann können sie Angst und Schrecken auslösen. Meistens empfinden wir die Wolken nur lästig und störend, insbesondere die einförmig-langweiligen und Trübsinn auslösenden hochnebelartigen Schichtwolken. Sie werfen auch jede Kalkulation auf Gewinne durch das „Energieeinspeisegesetz“ (EEG) über den Haufen.

Und dies war insbesondere in diesem Winter 2012/2013 der Fall. Das Wetter überraschte in seinem Verhalten sogar den Deutschen Wetterdienst, abgesehen davon, dass es sich wieder einmal politisch völlig unkorrekt verhalten hat. Wie sollen da die von Umweltminister Peter Altmaier beschworenen „Klimaziele“ erreicht werden, wenn das Wetter sich ungehorsam verhält und die Sonne ausgerechnet am Tage, wenn sie doch scheint und Gewinne abwerfen soll, mit Wolken verdeckt.

Über die Presseagentur dpa wurde am 28. Februar 2013 verbreitet: „Es war der düsterste Winter seit Beginn der Aufzeichnungen: Nur 87 Stunden Sonnenschein gab es in Rheinland-Pfalz seit Anfang Dezember, im Saarland waren es sogar nur 83 Stunden. Damit geht der Winter 2012/13 als trübster seit Beginn der flächendeckenden Aufzeichnungen im Jahr 1951 in die Geschichte der Meteorologie ein. Bundesweit registrierte der Deutsche Wetterdienst (DWD) im Schnitt 96 Stunden Sonnenschein, auch das ein Negativrekord.“ Diese Meldung wurde der Mainzer Allgemeinen Zeitung „Düstere Zeiten im Land“ entnommen.

Doch was heißt dieses nun konkret in Prozentzahlen? Was sind 87 Sonnenscheinstunden im Vergleich zur Gesamtstundenzahl? Dezember, Januar und Februar zusammen haben 2.164 Stunden.  87 Stunden besagen, dass an nur 4 Prozent der Gesamtstundenzahl die Sonne auf die Photovoltaik-Anlage schien, um Strom zu erzeugen. Von Versorgungssicherheit kann wohl mitnichten auch nur im Entferntesten die Rede sein. Leider hat der Deutscher Wetterdienst keine Zahlen über den Wind herausgerückt mit Angaben darüber, mit welcher Intensität der Wind geweht und was der Wind an Strom erzeugt hat. Exakt solche Zahlen wären dringend notwendig angesichts des Versprechens der Bundeskanzlerin, bis etwa 2040 die Bundesrepublik kontinuierlich mit „erneuerbaren Energien“, also überwiegend mit Strom aus Sonne und Wind, zu versorgen, also über 2.164 Stunden hinweg!

Die Angst- und Panik-Maschinerie läuft auf Hochtouren

Während das Wetter ruhig seine Bahnen dreht und sich mit seinen „Kapriolen“ im Rahmen der üblichen Schwankungen bewegt, also sich unauffällig verhält, muss der Nervenkitzel mit der „Warnung vor der drohenden Klimakatastrophe“ ständig neu angeregt werden. Gewöhnung an die Katastrophe wäre der größte anzunehmende Unfall für die Klimauntergangspropheten.

Die staatlich geförderten Klima-Institute wechseln sich dabei in unregelmäßigen Abständen regelmäßig ab, um ihren „Klimamärchen“ den nötigen Aufmerksamkeitsschub zu geben. Der neueste Gag kommt aus dem Alfred-Wegener-Institut für Polar- und Meeresforschung“ in Bremerhaven, veröffentlicht im Hamburger Abendblatt vom 6. März 2013 unter der Überschrift: „Ende der letzten Eiszeit: CO2 und Temperatur stiegen gleichzeitig an“. Sie kamen zu der Erkenntnis, dass beim Übergang von der letzten Kaltzeit zur jetzigen Warmzeit vor 20.000 bis 10.000 Jahren zeitgleich mit der Temperatur auch der CO2-Gehalt der Luft über der Antarktis gestiegen sei. Soweit so gut, doch nun kommt der Lach-Klops. Zeitgleich ist nicht gleichzeitig, sondern beinhaltet einen Zeitunterschied von bis zu 200 Jahren.

Das bedeutet, dass wir heute praktisch gleichzeitig mit so großen Geistern wie dem Philosophen Immanuel Kant (1724-1804), dem Dichterfürsten Johann Wolfgang von Goethe (1749-1832), dem Philosophen Friedrich Hegel (1770-1831) oder dem Sozialphilosophen Karl Marx (1818-1883) leben. 200 Jahre Unterschied? Wer wird denn so kleinlich sein, angesichts der Tatsache, dass das Alter der Erde etwa 4,6 Milliarden Jahre beträgt? Doch das gibt dem Ursache-Wirkungsprinzip eine völlig neue Bedeutung. Wer also heute einen Stein in die Luft wirft, kann in 20 Jahren wegen Totschlags verurteilt werden, wenn der Stein endlich sein Opfer trifft. Das liegt noch in der Gleichzeitigkeits-Spanne von weniger als 200 Jahren. Der Rechtsprechung öffnen sich völlig neue Horizonte.

Dies zwingt an dieser Stelle Goethe zu zitieren, der am 18. Dezember 1828 zu Eckermann sagte: „Man muss das Wahre immer wiederholen, weil auch der Irrtum um uns herum immer wieder gepredigt wird – und zwar nicht von Einzelnen, sondern von der Masse, in Zeitungen und Enzyklopädien, auf Schulen und Universitäten. Überall ist der Irrtum obenauf, und es ist ihm wohlig und behaglich im Gefühl der Majorität, die stets auf seiner Seite ist.“ Deswegen treten „Experten“ nicht allein, sondern immer nur in Rudeln auf und berufen sich auf unanfechtbare „Konsensmeinungen“!

Wie zuverlässig sind historische Klimarekonstruktionen?

Mit dieser Frage hat sich  nach einer Pressemitteilung der Justus-Liebig-Universität Gießen der Physiker Armin Bunde beschäftigt. Er fragte nach dem „Wissen über die Niederschläge“ in historischen Zeiten, da deren Schwankungen in Baumringen archiviert werden. Mittels statistischer Methoden kam er zu der geradezu epochalen Erkenntnis, „dass die Baumringe nicht nur historische Niederschläge archivieren, sondern auch Bodenfeuchte, Temperatur und andere Größen“.

Ein Blick auf die Photosynthese-Gleichung hätte genügt, um wenigstens eines klarzustellen. Alle grünen Pflanzen leben von Wasser, Kohlenstoffdioxid und benötigen Energie von der Sonne, die dann in den Pflanzen gespeichert wird. Sie archivieren sozusagen „das Wetter“, das während der Wachstumsperiode herrscht. Baumringe archivieren weder „historische Niederschläge“ noch „Jahresmitteltemperaturen“!

Am 22. Februar 2013 meldete Spiegel Online „Permafrost: Gefahr für den Treibhausgas-Tresor“. Danach belege eine „neue Studie“ von der Universität Oxford, dass ein Viertel der Landmasse auf der Nordhalbkugel dauerhaft gefroren ist und der Permafrost wie ein Tresor „mindestens 1700 Gigatonnen Kohlenstoff“ umschließe. Schon ein geringer Temperaturanstieg könne „fatale Folgen“ haben. Sie untersuchten die Tropfsteinhöhle Lenskaya Ledyanaya nahe der sibirischen Stadt Lensk und kamen zu dem Ergebnis, dass diese Höhle „nur in den wärmsten Zeiträumen eines einzigen Interglazials wuchsen, und zwar vor etwa 400.000 Jahren“. Einige Zeilen weiter datieren sie das Interglazial auf eine Zeit „vor etwa 450.000 Jahren“. Das sollte nicht beunruhigen, denn in ferneren historischen Zeiten wächst automatisch auch die „Gleichzeitigkeit“.

Doch wovon soll die Gefahr ausgehen? Nun, taut der Permafrostboden, dann würden „bakterielle Zersetzungsreaktionen“ Unmengen an „Treibhausgasen“ freisetzen und dies, so die stereotype Warnung, würde „fatale Folgen für das Weltklima“ haben. Doch dem Interglazial vor etwa 400.000 Jahren folgen vier Eis- und Warmzeiten ohne „fatale Folgen“, weil die gesamte „Treibhaus-Theorie“ auf keinem tragfähigen Fundament steht, sondern nur als „Konsensmeinung“ im Raume  schwebt und den Verstand einnebelt.

Norwegische Wissenschaftler der Universität Oslo widerlegen „greenhouse gas theory“

Verteidigen in Deutschland die „Klimaexperten“ die „Treibhaus-Ideologie“ wie eine Wagenburg, so weht im Ausland noch gelegentlich der frische Wind von Wissenschaftsfreiheit. Anhand öffentlich zugänglicher Datensätze haben Wissenschaftler um Ole Humlum in Oslo die Phasenbeziehungen zwischen dem atmosphärischen CO2-Gehalt und den Globaltemperaturen für die Zeitspanne 1980 bis 2011 untersucht.

Die Forschergruppe hat herausgefunden, dass über den Meeresregionen der CO2-Gehalt etwa 11 bis 12 Monate den Temperaturen „hinterherhinkt“. Über den Kontinenten waren es 9,5 bis 10 Monate. Diese Ergebnisse, veröffentlicht am 21. Februar 2013 in Principia Scientific International, widersprechen der IPCC-UN-Konsensmeinung, die behauptet, dass die Globaltemperatur vom CO2-Gehalt der Luft angetrieben wird. Der Temperaturanstieg um etwa 0,7 Grad Celsius seit 1850 wird nach der auch von der Politik akzeptierten und propagierten „Treibhaus-Hypothese“ einzig und allein auf dem um etwa 40 Prozent angestiegenen CO2-Gehalt ursächlich zurückgeführt.

Aber auch dieser „Todesstoß“ wird wie etliche andere vor ihm von den Treibhausgas-Protagonisten abgewehrt werden, so wie es schon Goethe 1828 richtig erkannte. Wenn die „Masse“ von etwas überzeugt ist und immer wieder in ihrem Irrglauben von „Wissenschaft und Politik“ bestärkt wird, dann haben auch die besten Argumente keine Chance sich durchzusetzen.

Potsdam-Institut für Klimafolgenforschung (PIK) macht sensationelle Entdeckung

Am 25. Februar 2013 ließ das PIK vermelden: „Wetter-Extreme: Neuer Mechanismus entdeckt – die Störung riesiger Wellen in der Atmosphäre“. Das Ergebnis? „Der vom Menschen verursachte Klimawandel stört wiederholt die Muster der Luftbewegungen rund um die nördliche Erdhalbkugel, und zwar wahrscheinlich durch einen raffinierten Resonanz-Mechanismus.“ Danach hat es in der höheren Atmosphäre vor dem kategorisch behaupteten „vom Menschen verursachten Klimawandel“ auf der Nordhalbkugel keinerlei Schwankungen im „Muster der Luftbewegungen“ gegeben. Es hätte also in vorindustriellen Zeiten nur leicht sinusförmig auf und ab schwingende Strahlströme und damit keinerlei „Wetter-Extreme“ gegeben.

So beginnen alle Märchen, mit einer „heilen Welt“. Erst der Störfaktor Mensch hat alles auf den Kopf gestellt und die natürliche Geruhsamkeit aus der Ruhe gebracht. Heiße und Kühle Sommer, milde wie kalte Winter, Starkniederschläge und Sturmfluten, all das hat es vor Beginn der Industrialisierung mit dem „vom Menschen verursachten Klimawandel“ nicht gegeben. Doch nicht nur das Magdalen-Hochwasser am 22. Juli 1342 wiederlegt diese These. Es genügt, sich die Hochwassermarken an Rhein, Main, Mosel, Elbe, Weser, Donau, Oder einmal anzusehen und sich die höchsten Wasserstände zu notieren, um diese Behauptung als Unsinn zu widerlegen.

Doch was steckt hinter dem „raffinierten Resonanz-Mechanismus“? Das PIK: „Ein wichtiger Teil der globalen Luftströme in den mittleren Breiten der Erde hat normalerweise die Form von großen Wellen, die um den Planeten wandern und dabei zwischen den Tropen und der Arktis oszillieren. Wenn sie hinauf schwingen, so saugen diese Wellen warme Luft aus den Tropen nach Europa, Russland oder die USA; und wenn sie hinab schwingen, tun sie das Gleiche mit kalter Luft aus der Arktis.“ So primitiv hat man sich schon vor über 100 Jahren nicht mehr die Allgemeine Zirkulation und deren Entstehen vorgestellt. Doch nun haben die PIK-Forscher plötzlich festgestellt, dass „in den letzten Jahren diese planetarischen Wellen gleichsam wie eingefroren“ waren.

Ist das schon die Erklärung des „raffinierten Resonanz-Mechanismus“? Nein, es kommt noch schöner! Es wird gesagt, dass die „Treibhausgase“ keine „gleichmäßige globale Erwärmung“ hervorrufen, sondern dass in der Arktis die Temperaturerhöhung größer als im „weltweiten Durchschnitt“ sei. „Dies reduziert den Temperatur-Unterschied zwischen der Arktis und zum Beispiel Europa. Temperatur-Unterschiede sind aber ein wesentlicher Treiber für Luftströme.“ Das bedeutet: Verringern sich die Temperaturgegensätze, so tun dies die Luftdruckgegensätze mit der Folge, dass es weniger Orkan- und Sturmtiefs gibt.

Das PIK stellt auch noch die Banalität fest, dass „die Erwärmung und Abkühlung der Kontinente stärker als jene der Ozeane“ ist. Ein wahrlich alter Hut, der der schon dem „Neandertaler“ bekannt war. Aber schon Albert Einstein wusste um die Dummheit und Leichtgläubigkeit der Massen. Die Verringerung des Nord-Süd-Temperaturgefälles mit der unterschiedlichen Land-Meer-Erwärmung führen „zu einem unnatürlichen Muster in den Luftbewegungen der mittleren Breiten der Erde, so dass die langsamen synoptischen Wellen wie gefangen sind.“

Als synoptischer Meteorologe kann ich nur die Hände über dem Kopf zusammenschlagen. Was vom PIK als „neuer Mechanismus“ angepriesen wird, ist praktisch wie theoretisch schlicht Unsinn. An diesem Beispiel zeigt sich: Wer vor sich eine undurchdringliche Wand von Ideologien aufgebaut hat, kann die Wirklichkeit nicht sehen und lebt schließlich in seinen künstlichen Modellwelten, die mit der Realität nicht zu tun haben. „Synoptische Wellen“ lassen sich nicht „einfangen“, wohl aber wäre es höchste Zeit, dass die Politik dem PIK den Geldhahn zudreht, damit nicht ständig die seriösen Wissenschaftler lächerlich gemacht werden und der Ruf der Wissenschaft insgesamt ruiniert wird. Doch dies bleibt in Wahlkampfzeiten wohl ein frommer Wunsch, insbesondere auch weil alle politischen Parteien im „Klimaschutz“ bestrebt sind, den „Vorreiter“ zu spielen.

Doch je stärker der politische Ehrgeiz ist, desto größere Belastungen werden auf den Bürger zukommen. Nur der Bürger kann diese „unheilige Parteienallianz“ zerbrechen und sich aus den „Klimaschutz-Fesseln“ befreien. Er muss den Mut zur Tat aufbringen und die „Schweigespirale“ durchbrechen und allen „Propheten“, welche die „Klimakatastrophe“ beschwören und sich zum Weltenretter aufschwingen, die rote Karte zeigen.

In dem Leitartikel der WELT vom 2. März 2013 forderte Michael Stürmer „Alles muss raus!“ Er stellte fest: „Nichts ist normaler, als dass von Zeit zu Zeit die Normalität zerbricht“ und erklärte: „Die Norm ist das, wonach man sich richtet, ob durch Protest oder Gehorsam.“ Das Wetter kennt solche Normen nicht! Das Wetter setzt Normen! Seine Normen nennt man „Klima“ und wenn das „Klima“ sich ändert, dann hat das Wetter andere Normen gesetzt! Es wartet nicht auf den Mensch als Gesetz- und Normen-Geber. Es ist autonom und macht, was es will!

Oppenheim, den 7. März 2013                                                            

Dipl.-Met. Dr. phil. Wolfgang Thüne Autor des Buches :

"Propheten im Kampf um den Klimathron: Wie mit Ängsten um Geld und Macht gekämpft wird"




Windkraft teils erheblich überschätzt: selbst Windkraft-Enthusiasten müssen sich Realitäten beugen

Überdenken der Windkraft – Studie von Harvard: Windkraft wird überschätzt

Anthony Watts

Harvard-Forschungen zufolge ist die Kapazität, mit Windparks in großem Umfang auf der Welt Energie zu erzeugen, überschätzt worden.

Bild rechts: Windpark Tehachapi 4 (Photo credit: Stan Shebs;Wikipedia)

„Die Menschen haben oftmals gedacht, dass es keine obere Grenze für Windkraft gibt – dass es eine der am meisten skalierbaren Energiequellen sei“, sagt der bei Harvard arbeitende Physiker David Keith. Schließlich ist es recht unwahrscheinlich, dass Böen und Brisen im globalen Maßstab irgendwann aufhören zu wehen, so wie Ölfelder irgendwann austrocknen könnten.

Doch zeigen jüngste Forschungen bei der Modellierung der Atmosphäre im Mesoscale-Bereich, die in dem Journal Environmental Research Letters veröffentlicht worden sind, dass die Erzeugungskapazität großräumiger Windparks überschätzt worden ist.

Jedes Windrad erzeugt hinter sich einen „Windschatten“, in dem die Luft durch die Bremswirkung der Rotorblätter abgebremst worden ist. Der ideale Windpark strebt hier nach einer Balance dergestalt, dass so viele Turbinen wie möglich in die Landschaft gesetzt werden mit ausreichend Platz darum herum, um die Auswirkung dieses Windschattens zu reduzieren. Aber bei immer größer werdenden Windparks geraten die Turbinen in Wechselwirkung miteinander, und die Struktur der regionalen Windverhältnisse wird immer wichtiger.

Die Forschungen von Keith haben gezeigt, dass die Erzeugungskapazität sehr großer Windparks (größer als 100 Quadratkilometer) einen Spitzenwert zwischen 0,5 und 1 W/m² erreichen kann. Frühere Schätzungen, die den Effekt der Windabbremsung durch die Turbinen ignoriert hatten, ergaben einen Wert zwischen 2 und 7 W/m².

Kurz gesagt, wir könnten viel weniger Windenergie erzeugen, als Wissenschaftler gedacht haben.

Keith beruft sich auf einen weithin bekannten Experten der Klimawissenschaft und Technologie, nämlich Gordon McKay, Professor für angewandte Physik an der Harvard School of Engineering and Applied Sciences (SEAS) und Professor für öffentliche Politik an der Harvard Kennedy School. Mitautorin Amanda S. Adams war früher eine Doktorandin bei Keith und ist jetzt Assistenzprofessorin der Geographie und Geowissenschaften an der University of North Carolina at Charlotte.

„Eine der ständigen Herausforderungen der Windenergie ist Folgende: sobald man anfängt, Windparks zu entwickeln und die Ressource abschöpft, verändert man die Ressource, und das macht es schwierig abzuschätzen, wie viel wirklich verfügbar ist“, sagt Adams.

Aber eine wirklich genaue Abschätzung ist natürlich wichtig bei der weiteren Entwicklung kohlenstoffneutraler Energiequellen. Sonnen-, Wind- und Wasserkraft beispielsweise könnten allesamt eine Rolle beim Befriedigen der Nachfrage spielen, was derzeit bei Kohle und Öl der Fall ist.

„Falls die Windkraft einen ernsthaften Beitrag zum globalen Energiebedarf leistet, also 10 bis 20% oder mehr, muss dieser Beitrag sicher in der Größenordnung von Terawatt während des nächsten halben Jahrhunderts oder noch eher liegen“, sagt Keith.

„Falls wir die gesamte Erdoberfläche mit Windparks zupflastern”, gibt er zu bedenken, „könnte das System potentiell enorme Energiemengen erzeugen, weit über 100 Terawatt, aber an diesem Punkt vermute ich aufgrund unserer Klima-Modellierungen, dass die Auswirkungen hiervon auf die globalen Winde und daher auch auf das Klima sehr ernst wären – vielleicht größer als die Auswirkung der Verdoppelung des CO2-Gehaltes“.

Er fügt hinzu: „Unsere Ergebnisse bedeuten nicht, dass wir den Ausbau der Windkraft nicht weiter verfolgen sollten – Wind ist viel besser für die Umwelt als konventionelle Kohle [?] – aber diese geophysikalischen Grenzen können bedeutsam sein, wenn wir wirklich Windkraft bis zu einem Drittel unserer Primärenergie skalieren wollen“.

Und der klimatische Effekt durch die Bremswirkung der Turbinen ist nicht die einzige Einschränkung; Geographie und Ökonomie setzen weitere Grenzen.

„Es ist klar, dass die theoretische obere Grenze für Windkraft gewaltig ist, wenn man sich keine Gedanken über die Auswirkungen vollständig die Erdoberfläche bedeckende Windturbinen macht“, sagt Keith. „Was nicht so klar ist – und ein Thema für zukünftige Forschungen sein wird – ist die Abschätzung der praktischen Obergrenze der Windkraft, wenn man alle Einschränkungen in der realen Welt berücksichtigt. Man muss davon ausgehen, dass Windturbinen relativ nahe an tatsächlichen Wohngebieten und in Gebieten mit einem halbwegs konstanten Windangebot liegen müssen, und dass sie mit Umweltbedenken fertig werden müssen. Man kann sie nicht einfach überall errichten.

Die wirkliche Reißlinie liegt hier:”, fügt er hinzu, „falls man nicht viel mehr als ein halbes Watt erhält und man akzeptiert, dass man sie nicht überall errichten kann, dann könnte man an ein Limit kommen, das von Bedeutung ist“.

Um das Weltklima zu stabilisieren [?], schätzt Keith, muss sich die Welt viele Zehner-Terawatt kohlenstoff-freier Energiequellen innerhalb der Dauer eines Menschenlebens erschließen. In der Zwischenzeit müssen Politiker entscheiden, wie viel Mittel bereit gestellt werden sollen, um neue Technologien zur Abschöpfung dieser Energie zu erfinden.

„Wenn man das tut”, sagt Keith, „ist es wert, nach der Skalierbarkeit jeder potentiellen Energiequelle zu fragen – ob sie nun, sagen wir, 3 Terawatt oder 10 Prozent unseres globalen Energiebedarfs beiträgt oder nur 0,3 Terawatt und 1 Prozent“.

„Windkraft liegt etwa in der Mitte”, sagt er. „Sie ist immer noch eine der skalierbarsten Erneuerbaren, aber unsere Forschung zeigt, dass wir auf deren Limits und klimatische Auswirkungen achten müssen, wenn wir über die Erzeugung von ein paar Terawatt hinausgehen wollen“.

Diese Forschung wurde gefördert vom Natural Sciences and Engineering Research Council of Canada.

###

Ein Video-Abstrakt von David Keith steht hier zum Download bereit.

Link: http://wattsupwiththat.com/2013/02/25/rethinking-wind-power-harvard-study-shows-it-to-be-overestimated/

Wissenschaftler: Windparks erzeugen mehr Kohlendioxid

Andrew Gilligan

Einer wissenschaftlichen Studie mit potentiell verheerenden Auswirkungen zufolge, die später in diesem Jahr veröffentlicht werden wird, erzeugen tausende britischer Windturbinen mehr Treibhausgase als sie einsparen.

Bild: Die Bedeutung der Forschung steigert sich noch durch die Tatsache, dass sie von der im Großen und Ganzen pro-Windkraft-ausgerichteten schottischen Regierung gefördert wird. Photo: PA

Dieses Ergebnis, das die gesamte Grundlage der Windpark-Industrie an Land bedroht, wird von schottischen, von der Regierung geförderten Forschern verkündet, die eine von den Planern benutzte Standard-Methode erdacht haben, um die „Kohlentsoff-Rückzahlungszeit“ für Windparks auf Torfböden zu berechnen.

Windparks werden typischerweise an höher gelegenen Stellen errichtet, an denen Torfböden häufig vorkommen. Allein in Schottland befinden sich zwei Drittel aller geplanten Windparks auf Torfböden. In England und Wales sind ebenfalls große Gebiete von Torfböden für den Bau von Windparks ausgewiesen.

Aber Torf ist auch ein massiver Speicher von Kohlenstoff, der als europäisches Äquivalent zum tropischen Regenwald beschrieben wird. Hochmoore enthalten und absorbieren Kohlenstoff auf die gleiche Art und Weise wie Pflanzen – aber in viel größeren Mengen.

Britische Moorböden speichern mindestens 3,2 Milliarden Tonnen Kohlenstoff, das ist bei weitem die größte Kohlenstoffsenke des Landes und eine der wichtigsten weltweit.

Windparks und die vielen Kilometer langen neuen Straßen und Wege, die man für deren Wartung braucht, schädigen oder zerstören den Torf und entlassen so signifikante Mengen Kohlenstoff in die Atmosphäre, wo er zur Klimaänderung beiträgt [?].

Die Wissenschaftler Dr. Jo Smith, Dr. Dali Nayak und Prof. Pete Smith von der Aberdeen University schreiben in dem Wissenschaftsmagazin Nature: „Wir diskutieren darüber, ob Windparks auf Torfböden vielleicht gar nicht Emissionen reduzieren … wir schlagen vor, dass die Konstruktion von Windparks auf Torfböden grundsätzlich vermieden werden sollte“.

Dr. Nayak sagte dem Telegraph: „Unsere vollständige Studie ist noch nicht veröffentlicht, aber wir sind darüber definitiv besorgt. Wenn die Torfböden bereits herabgestuft [degraded] sind, gibt es kein Problem. Aber wenn sie noch unversehrt sind, sollten wir es vermeiden!“

Ein anderer Torf-Wissenschaftler, Richard Lindsay von der University of East London sagt: „wenn wir uns Sorgen wegen des CO2 machen, sollten wir uns zunächst nicht um die Regenwälder Gedanken machen, sondern über die Torfböden.

Die Torfböden der Welt enthalten vier mal so viel Kohlenstoff wie alle Regenwälder der Welt. Aber sie sind ein Cinderella-Habitat [?], vollständig unsichtbar für Entscheidungsträger“.

Eine für die Errichtung eines Windparks gerade genehmigte typische Torffläche, die Kilgallioch Windfarm, schließt 43 Meilen [ca. 70 km] Straßen und Wege ein. Torf hält den Kohlenstoff nur zurück, wenn er feucht ist, aber die Straßen und Wege blockieren den Wasseraustausch.

Die Windindustrie besteht darauf, dass sie zunehmend „Flutstraßen“ baut, wobei Felsen auf einer textilen Oberfläche aufgetürmt werden, ohne den darunter liegenden Torf zu stören.

Aber Mr. Lindsay sagt: „Torf enthält weniger Feststoffe als Milch. Die Straßen werden unvermeidlich versinken, was in der Folge das Austrocknen großer Torfgebiete zur Folge hat, wodurch der Kohlenstoff freigesetzt wird“. Er sagt weiter, dass über die Hälfte aller Windparks an Land in UK, sowohl die geplanten als auch die bereits errichteten, auf Torfland stehen.

Im Jahr 2011 hat die Naturschutzbehörde der schottischen Regierung, das Scottish National Heritage, gesagt, dass sich 67 Prozent aller geplanten Windparks in Schottland auf Torfland befinden würden.

Struan Stevenson, Parlamentsmitglied der Tories für Schottland, der sich für das Ganze eingesetzt hat, sagte: „Das ist ein verheerender Schlag gegen die Windindustrie, von dem ich mir erhoffe, dass sie sich nicht wieder erholen wird. Die schottische Regierung kann ihre Pläne für Windparks nicht umsetzen, ohne den Ruin von Hochmooren zuzulassen. Also kehren sie dieses Problem unter den Teppich. Dies ist nichts anderes als ein weiterer Hinweis, dass Windkraft ein Betrug ist. Sie kann ohne Subventionen nicht existieren. Sie vertreibt die Industrie aus Britannien und führt die Menschen in die Energiearmut“.

Die SNP-Regierung von Schottland [SNP = Scottish National Party] hat eine starke Kampagne für die Windkraft geführt und versprochen, dass 100 Prozent der Elektrizität des Landes durch erneuerbare Quellen erzeugt werden würde.

Aber selbst deren Umweltminister, Stewart Stevenson, räumt ein: „In Schottland gibt es 15% aller Hochmoore in der Welt. Selbst eine kleine Menge im Torf gespeicherten Kohlenstoffs kann, wenn sie durch Erosion und Abfluss freigesetzt wird, signifikant zu den Treibhausgasemissionen beitragen“.

Im Jahr 2008 haben Dr. Smith, Dr. Nayak und Prof. Smith den Standard für eine Berechnung der Kohlenstoff-Rückzahlungs-Zeit“ entwickelt, der von der Windindustrie verwendet wird, um die CO2-Auswirkungen der Entwicklung auf Torfböden zu bestimmen. „Große Windparks auf Torfböden tragen ein hohes Potential in sich, die erwarteten Einsparungen von CO2-Emissionen durch die Freisetzung von Treibhausgasen aus dem Torf zu neutralisieren“, sagen sie. „Einsparungen von Emissionen werden erst erreicht, nachdem die Kohlenstoff-Rückzahlungs-Zeit verstrichen ist, und wenn dieser Zeitraum länger dauert als die Lebensdauer des Windparks, kommt es zu keinerlei Kohlenstoff-Einsparungen“.

Selbst die Initial-Version des Kalkulators zeigte, dass die Kohlenstoff-Kosten eines ungünstig errichteten Windparks auf Torfboden – in einer Hanglage mit stärkerem Abfluss aus dem Torf und ohne erneute Speicherung danach – so hoch lagen, dass es 23 Jahre dauern würde, bevor sich irgendein CO2-Vorteil ergeben würde. Die typische Lebensdauer eines Windparks beträgt aber nur 25 Jahre.

Die Forscher hatten ursprünglich geglaubt, dass gut gewartete und günstig aufgestellte Windparks immer noch Treibhausgasemissionen reduzieren könnten, jedenfalls mit der Zeit und verglichen mit der Stromerzeugung insgesamt. Aber jetzt sagen sie, dass der rückläufige Verbrauch fossiler Treibstoffe bei der Stromerzeugung die Gleichung verändert hat, was den Vergleich mit den Windparks auf Torfböden ungünstiger aussehen lässt.

„Unsere früheren Arbeiten waren davon ausgegangen, dass die meisten Orte auf Torfböden die Gesamtemissionen von Kohlenstoff verkleinern könnten“, sagten sie. „Aber Emissionsfaktoren (bei der Stromerzeugung in UK allgemein) werden wahrscheinlich in Zukunft signifikant zurückgehen. In der Folge würde es weniger wahrscheinlich sein, eine Reduzierung der Kohlenstoff-Emissionen zu erzielen, selbst bei sorgfältigem Management“.

Die Bedeutung der Arbeit der Forscher in Aberdeen erhöht sich noch durch die Tatsache, dass sie von der allgemein pro Wind eingestellten schottischen Regierung gefördert worden ist.

Sie schrieben in einer früheren Studie: „Es ist wichtig, die Entwicklung von Windparks nicht unnötig zu demotivieren, weil sie ein Schlüsselelement bei der Verpflichtung der schottischen Regierung zur Reduktion von Treibhausgasen sind“.

Helen McDade vom John Muir Trust, der sich die Erhaltung von Naturlandschaften auf die Fahnen geschrieben hat, sagte: „Viel von dem billigen Land, das von den verzweifelt nach Subventionen für Windparks suchenden Planern in Betracht gezogen wurde, ist Torfland in abgelegenen Naturlandschaften in UK. Diese Feststellung eines akademischen Teams, das den Kohlenstoff-Kalkulator für die schottische Regierung entwickelt hatte, erinnert rechtzeitig daran, dass wir eine unabhängige und wissenschaftliche Zustandsbeschreibung der Auswirkungen hinsichtlich Politik und Subventionen brauchen“.

Die Windindustrie bestand darauf, dass die Auswirkungen eines ordnungsgemäß betriebenen Windparks auf Torf und Kohlenstoffemissionen minimal seien. Niall Stuart, Direktor von Scottish Renewables, einer Handelsorganisation, sagte, dass zerstörte Torfböden schon innerhalb eines Jahres renaturiert werden könnten.

Er sagte, dass die Organisation ein „Statement guter praktischer Prinzipien“ unterschrieben habe, worin Umweltgruppen versprochen wird, dass „jede vernünftige Anstrengung“ unternommen werden, um „signifikante gegenteilige Umweltauswirkungen“ zu vermeiden, einschließlich einer „ordentlich geplanten und durchgeführten Renaturierung von Habitaten“.

Jennifer Webber, eine Sprecherin für Renewable UK, einer Industrie-Lobbygruppe, sagte: „Windparks sind auch weiterhin ein wichtiger Bestandteil bei der Dekarbonisierung und Energie-Unabhängigkeit, mit aktuellen Messungen, die zeigen, dass Gas aus dem System durch Wind ersetzt wird. Das ist der Grund, warum wir weiterhin von Umweltorganisationen unterstützt werden“.

Link: http://www.telegraph.co.uk/earth/energy/windpower/9889882/Wind-farms-will-create-more-carbon-dioxide-say-scientists.html

Beide Artikel übersetzt und mit einer Einführung versehen von Chris Frey EIKE

Anmerkung der EIKE-Redaktion:

Wir hatten über das gleiche Thema in den EIKE-News vom 30.12.2012 (Energie) unter dem Titel "Intensive Windrad-Nutzung: Sinkender Energieertrag und Umweltschaden" bereits schon einmal berichtet (hier). Anlass war eine in der Zeitschrift „Earth Dynamic Systems“ der Europäischen Geowissenschaftlichen Union (EGU) veröffentlichte Arbeit der Autoren F. Gans, L.M. Miller und A. Kleidon vom Max-Planck-Institut für Biogeochemie in Jena. Ihr Titel lautete „The problem of the second wind turbine – a note on a common but flawed wind power estimation problem.




Donna Laframboise zu den Folgen der „Energiewende“

Grüne Phantasien, harte Realitäten

Donna Laframboise

In der von grünen Aktivisten bewohnten Phantasiewelt sind erneuerbare Energiequellen die Zukunft. Wenn die Industrie der fossilen Energie doch nur aufhören würden, eigene Interessen zu verfolgen sowie hässlich und gemein zu sein, wäre alles in Butter.

Aber in der realen Welt tauchen unerwartete Komplikationen auf, egal was wir zu erreichen versuchen. Allein während der letzten paar Tage sind mir drei wichtige Bedenken hinsichtlich Windenergie gekommen. Eine Zeitschrift der Universität in Oslo hat einen Artikel veröffentlicht unter der Überschrift Windmills at sea can break like matches [etwa: Windmühlen auf offener See können brechen wie Streichhölzer].

Die überraschende Tatsache, dass selbst schon von kleinen Stürmen aufgeworfene Wellen Turbinenmasten mit einem Durchmesser von 8 Metern zerstören können, hat sich Mathematiker am Kopf kratzen lassen. Untertitel innerhalb des Artikels sind:

● Finanzieller Ruin

● Unerwünschte Vibrationen

● Unrealistische Berechnungen

● Schwierige Mathematik

● (backup link hier)

Dann gibt es da die Nachricht aus Deutschland mit dem Titel Wind park building noise ‘can kill porpoises’ [etwa: Der Lärm beim Bau von Windrädern ‚kann Schweinswale töten’]. Es stellte sich heraus, dass Presslufthämmer, verwendet zum Bau der „800 Tonnen Stahlbasis“, die für jede Offshore-Windturbine erforderlich ist, das Gehör dieser marinen Säugetiere bis zu einem Grad schädigen kann, dass sie permanent behindert sind und eventuell sterben.

In Deutschland gibt es Regeln, wie viel Lärm unter Wasser sein darf, und die Konstruktion von Offshore-Windanlagen verletzt diese Regeln. Eine technologische Lösung wurde entwickelt – sie wird der Bubble Curtain [Blasenvorhang] genannt – aber Komplikationen in Zusammenhang mit der Entwicklung dieser Vorhänge kann zusätzliche Kosten in Höhe von 90000 Euro pro Windturbine verursachen (Backup link).

Auf einer website des US-Innenministeriums heißt es:

Windenergie ist eine freie, erneuerbare Ressource – egal wie viel wir heute verbrauchen, es es wird immer die gleiche Vorrat in Zukunft bereit stehen (Fettdruck hinzugefügt; Backup link).

8 Meter dicke Windturbinen, die wie Streichhölzer in stürmischer See brechen, und die eine 800 Tonnen schwere Stahlbasis zu Extrakosten von 90000 Euro pro Turbine erfordern, erzeugen keine Energie umsonst. Aber es stellt sich auch heraus, dass dramatisch weniger Wind für uns zur Verfügung stehen könnte, als wir naiv angenommen haben.

In einer Harvard-Presseerklärung in dieser Woche heißt es: „Forschungen zeigen, dass die erzeugte Windkapazität durch große Offshore-Windanlagen überschätzt worden ist“. Einer der Forscher beschrieb es so:

„Sobald man anfängt, Windparks zu entwickeln und die Ressource abzuernten, verändert man die Ressource, was es schwierig macht zu bestimmen, was wirklich verfügbar ist“.

In der Verlautbarung heißt es erklärend:

Jede Windturbine erzeugt hinter sich einen „Windschatten“, in dem die Luft verlangsamt worden ist wegen der Reibung an den Rotorblättern. Der ideale Windpark folgt einer Balance, indem so viele Turbinen wie möglich an Land gebaut werden, die aber auch ausreichend Abstand voneinander haben müssen, die Auswirkungen dieses Windschattens zu reduzieren. Aber wenn der Windpark immer größer wird, geraten die Turbinen miteinander in Wechselwirkung, und die Windverteilung im regionalen Maßstab wird immer wichtiger.

Ich habe es früher schon gesagt und sage es immer wieder: Es gibt keine perfekte Energiequelle. Alle uns zur Verfügung stehenden Optionen haben ihr Für und Wider. Abstriche sind ein normaler Bestandteil des Lebens.

Der einzige Ort, an dem Windenergie umsonst und einfach zu haben ist, liegt in den Gehirnen grüner Aktivisten

Link: http://nofrakkingconsensus.com/2013/02/28/green-fantasies-hard-realities/

Kein Wind, keine Sonne, kein Strom

Donna Laframboise

Windmühlen und Solarpaneele, das klingt gut. Außer dass der Wind in UK nicht weht und die Sonne in Deutschland nicht scheint.

Negatives über grüne Energie zu sagen, macht einen auf Dinnerparties nicht populär. Es wird als nicht höflich angesehen, wissen Sie, die Feststellung zu hinterfragen, dass wir alle von jetzt an grüner leben könnten, falls wir lediglich unsere Prioritäten ein wenig anders setzen.

Ich bin ein großer Fan von technologischen Fortschritten. Ich glaube auch fest an die menschliche Erfindungsgabe. Also habe ich Mitleid mit Menschen, die ernsthaft glauben, dass wir uns auf der Spitze einer neuen Energierevolution befinden. Aber dafür fehlen einfach die Beweise.

Im ersten Artikel oben habe ich drei Gründe beschrieben, warum Windkraft komplizierter und schwieriger ist als es sich Leute am Stammtisch über einem Glas Wein und einer exzellenten Mahlzeit vorzustellen vermögen. Andrew Montford hat auf seinem BishopHill blog seitdem einen Beitrag gepostet mit dem Titel The Great Still.

Er berichtet, dass der Wind in letzter Zeit in UK so wenig geblasen hat, dass alle Windmühlen zusammen lediglich “ein Zehntel eines Prozentes des Bedarfs” erzeugt haben. Weite Teile des übrigen Europa sind in einer ähnlichen Lage. Der Wind weht einfach nicht.

Mit anderen Worten, es spielt keine Rolle, wie viele Millionen ein Land ausgibt, um tausende Windturbinen zu installieren. Wenn der Wind nicht weht, gibt es keinen Strom. Sollte UK keinen Zugang zu „schmutzigem“ fossilen Treibstoffen als Backup haben, würden von elektrischen Geräten abhängige Patienten in Krankenhäusern gleich jetzt sterben.

Wie uns eine Person namens Sean in den Kommentaren bei BishopHill erklärt, haben die Probleme in Deutschland hinsichtlich der Sonnenenergie ebenfalls beängstigende Proportionen erreicht.

Vor einigen Wochen erschien im Spiegel ein Artikel mit der Überschrift Solar Subsidy Sinkhole: Re-Evaluating Germany’s Blind Faith in the Sun (mehr dazu hier und hier). [Das deutsche Original des Artikels ist hier]

Dem Vernehmen nach hat sich Deutschland zu Subventionen für die Solarindustrie verschrieben in Höhe von bislang 100 Milliarden Euro. Das ist eine riesige Menge Geld. Geld, das nicht mehr für andere Dinge zur Verfügung steht. Und was erhält der deutsche Steuerzahler als Gegenleistung? Es ist es wert, eine längere Passage aus diesem Artikel zu zitieren [Die folgenden Zitate sind nicht übersetzt, sondern stammen aus dem deutschen Original; Link siehe oben]:

Seit Wochen haben die 1,1 Millionen deutschen Photovoltaikanlagen so gut wie keinen Strom mehr erzeugt. Die Tage sind kurz, das Wetter ist schlecht, der Himmel wolkenverhangen.

Wie so oft im Winter stellten sämtliche Solarmodule auf einen Schlag die Arbeit weitgehend ein. Damit die Lichter nicht ausgehen, muss Deutschland deshalb zur Zeit große Mengen Atomkraft aus Frankreich und Tschechien importieren. Der Stromnetzbetreiber Tennet griff bereits auf eine Notreserve zurück: Ein betagtes Ölkraftwerk im österreichischen Graz wurde hochgefahren, um den Ausfall der Sonnenkraft zu kompensieren.

Die Solarpark-Betreiber und Hausbesitzer mit Solarplatten auf dem Dach kassierten 2011 mehr als acht Milliarden Euro Subventionen, trugen aber nur gut drei Prozent zur Stromversorgung bei, und das zu unberechenbaren Zeiten.

Die Verteilnetze sind nicht darauf ausgelegt, dass Zigtausende Photovoltaikbesitzer mal Strom abzapfen und mal einspeisen. …Verbraucher klagen bereits über die zweithöchsten Strompreise in Europa.

Jeder Artikel mit Unterschlagzeilen wie „Eine massive Geldvernichtung” und „eine kostspielige und unnötige duale Struktur“ erzählt nicht von einer gut ausgehenden Geschichte. Aber man fragt sich, warum Journalisten erst jetzt einige unerbittliche Fakten berichten:

Sonnen-Lobbyisten lieben es, die Öffentlichkeit zu blenden mit eindrucksvollen Zahlen zur Kapazität [capability] der Sonnenenergie. Zum Beispiel sagen sie, dass alle installierten Systeme zusammen … zweimal so viel Energie erzeugen können wie die derzeit in Deutschland noch laufenden Kernkraftwerke.

Aber das ist reine Theorie. Die Sonnenenergie-Systeme können nur dann diese Spitzen-Kapazität erreichen, wenn sie optimal zur Sonnenstrahlung ausgerichtet sind … mit einem optimalen Winkel … und mit der idealen Temperatur für die Solarmodule …– mit anderen Worten, unter Bedingungen, die außerhalb von Laboratorien kaum anzutreffen sind.

Wir alle lieben die Umwelt und wir alle wollen Mutter Erde schützen. Wir alle ziehen es vor, wie Gutmenschen auf Dinnerparties zu klingen.

Aber der Glaube an grüne Märchen lässt die Lichter nicht leuchten – oder unsere Öfen nicht funktionieren.

Link: http://nofrakkingconsensus.com/2013/03/03/no-wind-no-sun-no-power/

Beide Artikel übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Erst zum Gipfel, dann wieder talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen

Drei ganz wichtige Temperaturregler auf einen Streich: Sonne, Nebel und ein paar Wolken im Wippertal bei Sondershausen. Foto: Stefan Kämpfe

Wer nach Gründen für die Veränderung der Lufttemperaturen sucht, kommt an der Sonnenscheindauer als einer möglichen Ursache nicht vorbei. Eine längere und/oder intensivere Besonnung wirkt erwärmend (WEHRY/MYRCIK 2006, WEHRY 2009, KÄMPFE/KOWATSCH/LEISTENSCHNEIDER 2012). Leider sind Messreihen der Sonnenscheindauer deutlich rarer als Temperaturmessungen; außerdem sind sie oft mit Fehlern und Brüchen behaftet, so dass nicht für alle der im Teil 1 untersuchten Stationen Werte ermittelt werden konnten.

Bekanntermaßen erwärmt aber letztendlich nicht nur die direkte Sonnenstrahlung, sondern die gesamte, einfallende Strahlung („Globalstrahlung“) den Erdboden, so dass man eigentlich besser die Globalstrahlung für Untersuchungen heranziehen sollte. Diese wird aber noch viel seltener erfasst; im Rahmen dieser Arbeit lag sie lediglich für Potsdam vor. Da für diese Station glücklicherweise auch lückenlose Messungen der Sonnenscheindauer verfügbar waren, haben wir zunächst einmal den Zusammenhang der Sonnenscheindauer auf die Globalstrahlung geprüft:

Abb. 1: Zu mehr als ¾ (78%) bestimmt die Sonnenscheindauer die Variabilität der Globalstrahlung; damit ist die Sonnenscheindauer der mit Abstand wichtigste Indikator für strahlungsreiche Bedingungen, so dass man die Sonnenscheindauer für weitere Untersuchungen verwenden kann.

Die folgende Abbildung zeigt, dass sich die Sonnenscheindauer an allen untersuchten Stationen erhöht hat: Ähnlich wie bei den Lufttemperaturen, fiel diese Zunahme von Stationen zu Station teilweise unterschiedlich aus:

Abb. 2: Frankfurt/Main (Gelb), Helgoland (Blauviolett), Nürnberg (Grün), Potsdam (Dunkelrosa), Erfurt (Hellblau) und Brocken (dunkelblau) im Vergleich. Leider lagen keine lückenlosen Werte seit 1980 für Düsseldorf vor; Frankfurt ist für die fehlenden Sonnenscheindaten von Offenbach repräsentativ. Der Verlauf ähnelt bei allen Stationen der Temperaturentwicklung. Nürnberg bleibt auffallend zurück, während Erfurt und Frankfurt die stärksten Zunahmen der Sonnenscheindauer zu verzeichnen hatten. An der häufig in Nebel (Wolken!) gehüllten Bergstation Brocken war die Sonnenscheindauer in "schlechten" Jahren derart gering, dass sie quasi „aus dem Rahmen“ dieses Diagramms fiel; trotzdem hat sie sich auch dort kräftig erhöht.

Nun wird auch klar, warum die Erwärmung in Nürnberg so verhalten ausfiel: An dieser Station hat sich auch die Sonnenscheindauer am wenigsten erhöht! Bevor wir die Auswirkungen der Sonnenscheindauer auf die Lufttemperaturen näher beleuchten, lohnt sich ein genauerer Blick auf das Trendverhalten der Sonnenscheindauer an 8 Stationen mittels polynomischem Trend (Zwecks besserer Übersichtlichkeit in 2 mal 4 Stationen geteilt):

 

Abb. 3: Während die Sonnenscheindauer in Helgoland (Blauviolett) etwa um die Jahrtausendwende ihr Maximum erreichte und danach wieder etwas fiel, stagnierte sie seit 10 Jahren auf dem Brocken (Dunkelblau). Ein fast geradliniger Anstieg, wenngleich sehr unterschiedlich stark, war bei Potsdam (Dunkelrosa) und Dresden- Klotzsche (Dunkelbraun) zu beobachten, eine degressive Zunahme hingegen bei Erfurt (Hellblau) und Frankfurt/Main (Gelb). In Görlitz (Dunkelgrün) zeigte sich eine progressive Zunahme; in Nürnberg (Grün) folgte einer geringen Abnahme eine leicht progressive Zunahme.

Eine befriedigende Erklärung für dieses sehr unterschiedliche Verhalten kann im Rahmen dieser Arbeit nicht gegeben werden und bedarf weiterer Untersuchungen. Möglicherweise haben unterschiedliche Änderungen in der Landnutzung sowie unterschiedlich schnell wirkende Luftreinhaltemaßnahmen dieses uneinheitliche Verhalten bewirkt. Da diese auf der kleinen Hochsee- Insel sicher die geringsten Auswirkungen hatten, kann davon ausgegangen werden, dass Helgoland am deutlichsten auf die nach der Jahrtausendwende deutlich nachlassende Sonnenaktivität (Näheres dazu im dritten Themenschwerpunkt), sowie Schwankungen der NAO und der AMO reagiert hat, während diese Effekte bei den anderen Stationen durch Luftreinhaltemaßnahmen überkompensiert wurden. Es bleibt aber festzuhalten, dass alle Stationen heute sonnenscheinreicher sind, als zu Beginn der 1980er Jahre.

Insgesamt wurden 9 Stationen auf den Zusammenhang zwischen jährlicher Sonnenscheindauer und Jahresmitteltemperaturen untersucht. Die folgende Abbildung zeigt den Zusammenhang in Potsdam:

Abb. 4: Positiver Zusammenhang zwischen Sonnenscheindauer und Jahresmitteltemperaturen 1980 bis 2011.

An allen Stationen war der Zusammenhang positiv, am stärksten in Erfurt (45%), gefolgt von Potsdam (38%), Dresden- Klotzsche (37,8%), Brocken (36%), Görlitz (34,9%), Neubrandenburg (21%), Frankfurt/Main (18%), Helgoland (15,4%) und Nürnberg (11,1%). Diese sehr unterschiedlichen Werte lassen sich im Rahmen dieser Arbeit nicht endgültig erklären und bedürfen weiterer Untersuchungen, allerdings scheint sich ein relativ großer Einfluss der Sonnenscheindauer im Flach- und Hügelland der Region Brandenburg, Sachsen, Sachsen- Anhalt und Thüringen abzuzeichnen, während im Rhein- Main- Gebiet WI- Effekte vorherrschten (siehe Teil 1). Auf Helgoland dürfte der Einfluss der Wassertemperaturen dominieren; bei Neubrandenburg könnten die Wassertemperaturen der nahen Binnengewässer ebenfalls dämpfend wirken; während sich für den geringen Zusammenhang in Nürnberg keine befriedigende Erklärung finden lässt. Das subkontinental getönte Klima Mitteldeutschlands scheint also auf Schwankungen der Sonnenscheindauer stärker zu reagieren, als das subatlantische Klima West- und Norddeutschlands; zur Bestätigung oder Verwerfung dieser These wird es aber ebenfalls weitere Untersuchungen geben müssen. Außerdem muss beachtet werden, dass die Sonnenscheindauer jahreszeitgebunden sehr unterschiedlich wirkt. Die geringe Intensität und die geringe Zahl an Sonnenstunden lassen nämlich in der „dunklen“ Jahreszeit (Oktober bis März) keine wesentliche Einflussnahme der Sonnenscheindauer auf die Lufttemperaturen zu, während von Frühling bis Spätsommer Bestimmtheitsmaße über 70% keine Seltenheit sind, was bedeutet, dass die Sonnenscheindauer in den strahlungsreichen Monaten das Verhalten der Lufttemperaturen dominiert. Dies sei für 2 Monate in Erfurt beispielhaft dargestellt:

Abb. 5: Während im Januar nur ein geringer Einfluss (10%) der Sonnenscheindauer auf die Monatsmitteltemperatur von Erfurt erkennbar wird, ist dieser im Juli mit 72% dominierend. Schon unsere Vorfahren haben das prinzipiell erkannt:„Januar- Sonne ist ohne Wonne, aber die Juli- Sonne arbeitet für zwei!“

Diese saisonal unterschiedliche Wirkung der Sonnenscheindauer erklärt teilweise auch die sehr unterschiedliche Erwärmung der einzelnen Monate. So haben sich die Frühjahrs- und Sommermonate auch dank der gestiegenen Sonnenscheindauer besonders deutlich erwärmt (April, Juni!), während einzelne Spätherbst- und Wintermonate (Oktober, Dezember) keinen positiven Temperaturtrend, mitunter sogar Abkühlung aufwiesen. Bei solchen Fragestellungen darf man freilich auch geänderte Zirkulationsverhältnisse nicht außer Acht lassen (diese werden im dritten Teil näher betrachtet). Allerdings muss hier geklärt werden, ob möglicherweise geänderte Häufigkeiten der Großwetterlagen die längere Sonnenscheindauer verursacht haben. Eine Untersuchung von WERNER/GERSTENGARBE (2010) hat gezeigt, dass im Zeitraum 1979 bis 2006 alle antizyklonalen Großwetterlagen im Jahresmittel fast doppelt so sonnenscheinreich waren, wie die zyklonalen. Als besonders sonnenscheinreich erwiesen sich der Großwettertyp Hoch Mitteleuropa (HM und BM) sowie die antizyklonalen Ostlagen HFA, HNFA, NEA und SEA, welche mit etwa 6,5 bis 7 Sonnenstunden pro Tag im langjährigen Mittel besonders hervorragen (Näheres, auch eine kurze Erklärung der Großwetterlagen, siehe Teil 3). Deshalb lag es nahe, diese einmal auf ihr Trendverhalten im Untersuchungszeitraum zu überprüfen:

Abb. 6: Trendverhalten aller antizyklonalen Wetterlagen (Rot, oben), des Clusters kontinental beeinflusste, antizyklonale Wetterlagen (GWT HM + alle antizyklonalen Ostlagen- Gelb, Mitte oben), GWT HM (Dunkelrosa, Mitte unten) und antizyklonale Ostlagen (Grün, unten).

Man kann unschwer erkennen, dass keine der sonnenscheinreichen Wetterlagengruppen wesentlich zugenommen hat; insgesamt betrachtet, haben antizyklonale Wetterlagen sogar abgenommen. Eine wesentliche Beeinflussung der zunehmenden Sonnenscheindauer seit 1980 durch Änderungen der Häufigkeiten der Großwetterlagen ist somit zumindest bei gesamtjähriger Betrachtungsweise ausgeschlossen. Da aber bekanntermaßen die Sonne im Frühling und Sommer besonders lange scheint, lohnt noch ein Blick auf diese beiden Jahreszeiten:

Abb. 7: Trendverhalten Frühling (Links) und Sommer aller antizyklonalen Wetterlagen (Rot, oben), des Clusters kontinental beeinflusste, antizyklonale Wetterlagen (GWT HM + alle antizyklonalen Ostlagen- Gelb, Mitte oben), GWT HM (Dunkelrosa, Mitte unten) und antizyklonale Ostlagen (Grün, unten).

Lediglich im Frühling deutet sich eine leichte Zunahme sonnenscheinreicher Wetterlagen an, die hauptsächlich im April stattfand, was aber höchstens einen kleinen Teil der im Jahresverlauf beobachteten erheblichen Zunahme an Sonnenstunden erklären kann, zumal die Anzahl der sonnenscheinreichen Wetterlagen in der sonnigsten Jahreszeit, dem Sommer, eher abnahm. Abschließend sei noch angemerkt, dass es auch im Herbst keine wesentliche Zunahme sonnenscheinreicher Wetterlagen gab, und die ohnehin geringe Sonnenscheindauer im Winter ist kaum eine nähere Untersuchung wert.

Es muss also nach anderen Ursachen für die Zunahme der Sonnenscheindauer gesucht werden. Im Teil 1 hatten wir über die erheblichen, WI- bedingten Temperaturunterschiede zwischen großstadtbeeinflussten und eher ländlichen Stationen berichtet. Es liegt daher nahe, diese Stationen auch einmal hinsichtlich der Relativen Feuchte und der jährlichen Anzahl der Nebeltage zu vergleichen (Datenmaterial war leider zeitlich nur sehr eingeschränkt verfügbar, Quelle: DWD, Witterungsreport):

Abb. 8: Gang der Jahresmittelwerte der Relativen Feuchte (hohe, farbige Säulen) und der jährlichen Anzahl der Nebeltage (dunkelgrau ländliche, hellgrau großstädtische Stationen) im Mittel der 5 Großstadt- beeinflussten Stationen (Orange) Leverkusen (44m), Duisburg- Friemarsheim (31m), Tönisvorst bei Krefeld (39m), Düsseldorf (Flughafen, 37m) und Köln- Bonn (Flughafen, 92m) mit denen der 5 mittelstädtischen bis ländlichen, dünner besiedelten Nachbar- Stationen (Blaugrün) Kleve (46m), Bocholt (21m), Lingen (Ems, 24m), Lippstadt- Bökenförde (92m) und Heinsberg- Schleiden nördlich von Aachen (57m). Alle Stationen liegen im Binnenland, sind im Mittel also etwa gleich hoch gelegen (>20 und <95m) und weisen fast die gleiche geografische Breite auf.

Es zeigt sich, dass die Relative Luftfeuchte an den großstadtbeeinflussten Stationen im Jahresmittel etwa 3 bis 4% geringer war; dort traten außerdem 5 bis 8 weniger Nebeltage pro Jahr auf, als an den eher ländlich geprägten Orten. Es liegt nahe, dass trotz der etwas höheren Staubbelastung in den Großstädten die Sonnenscheindauer (ausreichendes Datenmaterial lag nicht vor) dort etwas stärker zunahm, als im Umland. Die folgende Abbildung unterstützt diese Aussage; freilich ist sie kein signifikanter Beweis:

Abb. 9: In der Millionenstadt Berlin (Station Dahlem) nahm die Sonnenscheindauer etwas stärker zu, als in der viel kleineren Stadt Potsdam- ein erster Hinweis darauf, dass außer WI- Effekten vor allem Luftreinhaltemaßnahmen in den größten Städten auch am stärksten „aufklarend“ wirkten. Trotzdem ist die Sonnenscheindauer in dicht besiedelten Regionen noch immer insgesamt etwas geringer, als in ländlichen Regionen mit vergleichbaren geografischen Bedingungen.

Außerdem haben natürlich auch in der freien Landschaft geänderte Landnutzung, besonders Entwässerungs- und Straßenbaumaßnahmen, auch für ein etwas verringertes Feuchteangebot und möglicherweise leicht steigende Sonnenscheindauer gesorgt (im Rahmen einer genaueren Analyse an der Station Potsdam werden wir gleich noch sehen, wie kompliziert die Verhältnisse im Einzelnen sind). Fest steht jedoch, dass auch  WI- Effekte die Zunahme der Sonnenscheindauer nicht vollständig erklären können. Deshalb bleibt außer der in den 1980er und 1990er Jahren sehr aktiven Sonne selbst (siehe Teil 3) nur noch eine weitere, ganz wesentliche Ursache- die Luftreinhaltemaßnahmen, welche im „alten“ Bundesgebiet ab den frühen 1980er Jahren, in den neuen Bundesländern ab 1990, für rapide sinkende Luftverschmutzung sorgten, und auch Deutschlands Nachbarstaaten ergriffen Luftreinhaltemaßnahmen. Leider liegen lückenlose Staubmessungen seit 1980 nur ganz vereinzelt vor; auch sind Staubmessungen erst spät standardisiert worden und oft sehr fehlerbehaftet, erst im Zuge der aufkommenden Feinstaub- Hysterie der 2000er Jahre wurde an vielen Stationen mit regelmäßigen Feinstaubmessungen (PM 10) begonnen; doch zeigt sich praktisch überall ein Gleichklang aus sinkenden Schadstoffwerten, höherer Sonnenscheindauer und abnehmender Anzahl der Nebeltage. So berichten KÄMPFE (1997, 1999), WEHRY (2009), WEHRY/MYRCIK (2006) und PELZ (1993, 1994, 1997) über deutliche Zunahmen der Horizontalsichtweite sowie erhebliche Abnahmen der Nebelhäufigkeit und der Luftbeimengungen (Staub, SO2). Die folgende Abbildung (Quelle: NABEL, BAFU, Schweiz) zeigt recht anschaulich die Luftbeimengungen Staub und SO2 in Mitteleuropa:

 Rückgang der

 

Abb. 10: Entwicklung der Luftbeimengungen Staub und Schwefeldioxid (SO2) in verschiedenen Regionen der Schweiz seit 1980. Die Staubgehalte nahmen um 20 bis 50%, die SO2- Gehalte gar um 80 bis fast 95% ab- die Luft wurde klarer und durchlässiger für kurzwellige Sonnenstrahlung.

Da Luftbeimengungen nicht nur durch ihre bloße Anwesenheit „trübend“ wirken, sondern auch als Kondensationskeime die Dunst- Nebel- und Wolkenbildung erheblich fördern, kommt ihnen eine ganz wichtige Rolle bei der Regelung der bodennahen Lufttemperaturen zu. Ihre Verminderung erhöhte die Durchlässigkeit der Atmosphäre für kurzwellige Strahlung und verminderte die Zahl der Nebeltage im Untersuchungsraum ganz erheblich. Wir werden an anderer Stelle noch sehen, dass sich die erwärmend wirkende Globalstrahlung in allen Monaten erhöht hat. Es muss hier allerdings betont werden, dass die erwärmende Wirkung der Abnahme von Luftschadstoffen und Nebelhäufigkeit hauptsächlich in der strahlungsreicheren Jahreszeit zum Tragen kommt. Im Winter mit seiner negativen Strahlungsbilanz blockieren Dunst, Nebel und Hochnebel die Wärmeabstrahlung und bremsen somit die bodennahe Auskühlung der Luftmasse stark ab. Ein geradezu lehrbuchmäßiges Beispiel dafür bieten die morgendlichen Minimum- Temperaturen am 26. Januar 2013, als in einer einheitlichen Luftmasse (Kontinentale Subpolarluft cP) in Oschatz bei klarem Himmel minus 19,3°C gemessen wurden, während es sich im bewölkten Gera kaum unter minus 10°C abkühlte (Quelle: Berliner Wetterkarte). Im Jahresmittel spielen diese Einzelfälle freilich nur eine untergeordnete Rolle, so dass im Jahresmittel die erwärmende Wirkung deutlich überwiegt. Für Deutschland konnten im Rahmen dieser Untersuchung nur lückenlose Staub- und SO2- Daten für Nürnberg ermittelt werden (leider nicht für die Anzahl der Nebeltage). Die folgende Abbildung zeigt die leicht gegenläufige Tendenz zwischen Luftschadstoffen einerseits sowie Lufttemperaturen und Sonnenscheindauer andererseits:

Abb. 11: Die Abnahmen der Luftschadstoffe in Deutschland (Nürnberg) ähneln denen in der Schweiz. Synchron dazu stiegen Lufttemperaturen und Sonnenscheindauer, wenngleich diese Zunahmen in Nürnberg geringer ausfielen, als in den meisten anderen deutschen Regionen.

Als Nächstes wollen wir uns die Messwerte der Säkularstation Potsdam einmal näher ansehen, da für diese als einziger Station lückenlose Messwerte und Beobachtungen auch für Bewölkung, Nebel, Relativer Luftfeuchte und Globalstrahlung vorlagen; nur für die Staubwerte, die leider nur bis 1996 verfügbar waren, musste auf die nahe Station Berlin- Dahlem zurückgegriffen werden:

Abb. 12: Während es in Potsdam in den 1980er Jahren noch 50 bis fast 90 Nebeltage gab, sind es im letzten Jahrzehnt nur noch etwa 20 bis 40 gewesen; und bis 1996 sank die Staubbelastung der Luft im unweiten Berlin- Dahlem um etwa 50%. Sonnenscheindauer und Jahresmitteltemperaturen stiegen hingegen in Potsdam deutlich an.

Die folgende Abbildung zeigt, dass sich die Globalstrahlung deutlich erhöhte, während sich Bewölkung und Relative Luftfeuchte nur ganz unwesentlich verminderten:

Abb. 13: Bewölkung und Relative Luftfeuchte gingen nur kaum merklich zurück; gleichzeitig stieg die Globalstrahlung kräftig an.

Da es im Verhalten der einzelnen Mess- und Beobachtungsgrößen erhebliche Unterschiede zwischen den einzelnen Monaten gab, wollen wir dies anhand einer monatsbezogenen Darstellung näher beleuchten:

Abb. 14: Während es in allen Monaten eine relative Abnahme (Lineartrend 1980 bis 2011 im Verhältnis zum Mittelwert  desselben Zeitraums) der Nebelhäufigkeit gab, nahm die Globalstrahlung in allen Monaten zu. Die Bewölkung verhielt sich uneinheitlich- besonders starke Zunahme im Februar, starker Rückgang im April und Juni.

Es ist durchaus bemerkenswert, dass die Globalstrahlung selbst in Monaten mit zunehmender Bewölkungsmenge (Januar, Februar, Mai, August, November und Dezember) leicht angestiegen ist. Das lässt sich mit dem deutlichen Rückgang der Anzahl der Nebeltage bestenfalls für die Wintermonate vollständig erklären, nicht jedoch in den schon immer sehr nebelarmen Monaten Mai und August. Neben einer besseren Durchlässigkeit der Atmosphäre (weniger Schadstoffe!) hat sich evtl. auch die Zusammensetzung der Bewölkung selbst geändert, so dass mehr durchlässige hohe Wolken („Cirren“ im weitesten Sinne) und weniger besonders strahlungsmindernd wirkende Tiefe Wolken auftraten. Leider lag für diese Untersuchung nur das Gesamtmittel der Bewölkung in Achteln vor. Es muss außerdem betont werden, dass die hier gewonnenen Erkenntnisse nur für Potsdam gelten und nicht ohne weitere Untersuchungen auf ganz Deutschland übertragen werden können; allerdings zeigt sich die besonders deutliche Zunahme der Lufttemperaturen im April und Juni, einhergehend mit steigender Sonnenscheindauer, abnehmender Bewölkung und stark sinkender Nebelhäufigkeit, auch an den meisten anderen Stationen. Diese Entwicklung ist die Folge einer Kombination aus nun weitgehend ausgeschöpften Luftreinhaltemaßnahmen mit zirkulationsbedingten und solaren Effekten (die Sonnenaktivität beeinflusst das Verhalten von Kondensationskernen ganz wesentlich), auf die wir im dritten Teil noch näher eingehen werden. Eine Untersuchung des PIK zur Nebelanfälligkeit der Großwetterlagen ergab, dass die Nebelanfälligkeit bei den 3 Großwetterlagen HM, BM und WZ besonders groß ist; aber selbst bei diesen nahm die Nebelanfälligkeit in den vergangenen Jahrzehnten deutlich ab:

Abb. 15: Entwicklung der Nebelanfälligkeiten der GWL WZ, HM und BM im Zeitraum 1951–2006, Flächenmittelwert über 125 Messstationen. Dick: 5jähriggleitendes-

Mittel. Quelle: WERNER, P. C.; GERSTENGARBE, F.W. (2010)

Es lohnt sich außerdem, bezüglich der Temperaturentwicklung die 2 „Gewinnermonate“ April und Juni einmal mit den 2 „Verlierermonaten“ Oktober und Dezember zu vergleichen:

 

Abb. 16: Im April (oben, links) und im Juni (oben, rechts) hat es sich in Potsdam bei zurückgehender Bewölkung und Nebelhäufigkeit, sowie steigender Sonnenscheindauer am stärksten erwärmt. Im Oktober und Dezember (unten, links und rechts) stagnierten die Lufttemperaturen fast, aber nur die Nebelhäufigkeit nahm in beiden Monaten ab.

Zum Abschluss dieses zweiten Teils wollen wir einmal einen Blick in die Zukunft wagen: Wie werden sich Nebel und Sonnenscheindauer weiter entwickeln? Einen ersten Hinweis gibt die folgende Abbildung:

Abb. 17: Während die Sonnenscheindauer (fast linear steigend) und die Jahresmitteltemperatur (erst steigend, dann stagnierend) das schon diskutierte Verhalten zeigen, ging die Nebelhäufigkeit zunächst stark zurück; seit etwa 10 Jahren stagniert sie auf niedrigem Niveau.

In diesem Zusammenhang lohnt sich auch eine langfristige Betrachtung der Nebel- und Sonnenscheinentwicklung von Potsdam seit 1893:

Potsdam: Anzahl der Nebeltage und 9-jähriges Mittel

Potsdam: Sonnenscheindauer (Stunden) und 9-jähriges Mittel                                                  Abb. 18a+b: Nebelhäufigkeit und Sonnenscheindauer unterlagen starken Schwankungen- alles schon mal dagewesen! Quelle: WERNER, P. C.; GERSTENGARBE, F.W. (2010)                            

Man erkennt, dass es um 1950 schon ähnlich sonnig wie momentan und in den 1920er Jahren fast so nebelarm wie heute war. Als Ursachen dieser Schwankungen haben außer der sich ungleichmäßig entwickelnden Luftverschmutzung (Krise der 1920er Jahre; Kriegs- und Nachkriegsdepression) auch Zirkulationsänderungen (AMO, NAO) und die Sonnenaktivität selbst einen wesentlichen Anteil, worüber im dritten Teil berichtet werden wird. Insgesamt lässt sich vermuten, dass in naher Zukunft die Sonnenscheindauer eher wieder etwas ab- und die Nebelhäufigkeit etwas zunimmt, ohne freilich je wieder das Niveau der 1960er bis 1980er Jahre zu erreichen, als die Luftverschmutzung ihr Maximum hatte. Der extrem sonnenscheinarme, relativ kalte Winter 2012/13 ist zwar zunächst nur ein Einzelfall, deutet aber möglicherweise schon an, in welche Richtung sich nicht nur die Lufttemperaturen, sondern auch die Sonnenscheindauer sowie die Bewölkungs- und Nebelverhältnisse nun entwickeln werden- die herrlichen Schönwetterzeiten der späten 1980er bis frühen 2000er Jahre sind vorbei.   

Verfasst und zusammengestellt (2013) von

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE

Literatur- und Informationsquellen für Teil 2

Deutscher Wetterdienst (2010, 2011): Großwetterlagen- Anzahl der Tage. www.dwd.de

Deutscher Wetterdienst (1991 bis 1999): Beilagen zur Wetterkarte des Deutschen Wetterdienstes. Klimatologische Werte für die Jahre und Monate 1991 bis 1999

Deutscher Wetterdienst (2000 bis 2005): WITTERUNGSREPORT und WITTERUNGSREPORT express. Monatshefte Januar 1999 bis Dezember 2005 und Jahresausgaben 1999 bis 2004

Deutscher Wetterdienst (Herausgeber): Stadtklima. Hauptschriftleiter M. Schlegel. promet, Jahrgang 9, Heft 4, 1979

Geb, M. (1981): Klimatologische Grundlagen der Luftmassenbestimmung in Mitteleuropa. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 50/81 (Sonderbeilage 7/81) vom 02.04.1981

Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas. Ber. Dt. Wetterd. in der US- Zone 33, 1952.

Hess, P., Brezowsky H.: Katalog der Großwetterlagen Europas. 2. neu bearbeitete und ergänzte Auflage. Ber. Dt. Wetterd. 15 (113), 1969.

Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas 1881–1976. 3. verbesserte und ergänzte Aufl.. Ber. Dt. Wetterd. 15 (113), 1977.

Hoffmann, G.; Müller, B.: Nebel in Berlin- Dahlem (II). Klimanormalperiode 1961- 90. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 65/94 (Sonderbeilage 17/94) vom 23.06.1994

Kämpfe, S., Kowatsch, J., Leistenschneider, R.: Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1 Vorstellung der Hauptakteure (20.10.2012) und Teil 2 „Trittbrettfahrer“ CO2- Das Phantom der Klimawissenschaft (26.10.2012) www.eike-klima-energie.eu

Kämpfe, S. (2012): Zu trockener, warmer, sonniger Herbst 2011 in Thüringen –

ungewöhnlich oder einfach nur schön? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte als Beilage 03/12 (Sonderbeilage 01/12) vom 04.01.2012 und in leicht geänderter Fassung bei www.eike-klima-energie.eu 27.12.2011

Kämpfe, S. (1998): Stau und Föhn in Thüringen-. Beilage Nr. 25/1998 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor)

Kämpfe, S. (1997): Nebel in Thüringen. Eine Untersuchung unter Zuhilfenahme von Theorie und Praxis. Beilage Nr. 179/1997 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor)

Kämpfe, S. (1999): Die Horizontalsichtweite- Anmerkungen zu einer interessanten meteorologischen Größe. Beilage Nr. 53/1999 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor)

Pelz, J. (1993): Das Zeitverhalten des Schwebstaubs und der Niederschlagsbeimengungen in Berlin- Dahlem. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 26/93 (Sonderbeilage 4/93) vom 26.02.1993

Pelz, J. (1994): Dreißig Jahre Staubmessungen in Berlin- Dahlem. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 100/94 (Sonderbeilage 31/94) vom 21.10.1994

Pelz, J. (1994): Luftmassen und Luftbeimengungen in Berlin- Dahlem. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 22/94 (Sonderbeilage 7/94) vom 16.02.1994

Pelz, J. (1997): Vierzig Aerosol- Labor des meteorologischen Instituts in Berlin- Dahlem. Ein Nekrolog. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 40/97 (Sonderbeilage 11/97) vom 19.03.1997

Pelz, J. (1997): Staubsturm über Berlin. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 51/97 (Sonderbeilage 14/97) vom 17.04.1997

Koch, H. G. (1953): Wetterheimatkunde von Thüringen. Gustav Fischer Verlag Jena (nur analog vorliegend)

Berliner Wetterkarte e.V (2000 bis 2011): Beiträge zur Berliner Wetterkarte. Klimatologische Übersicht Europa, Monatsausgaben Januar 2000 bis Dezember 2011

Kowatsch, J., Leistenschneider, R. (2010): Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen- eine Wertung der DWD- Temperaturmessstationen. www.eike-klima-energie.eu 04.10.2010

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen. www.eike-klima-energie.eu 20. Januar 2012

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der gemessenen Temperaturen. www.eike-klima-energie.eu 04.08.2012

Meteorologischer Dienst der DDR, Hauptamt für Klimatologie in Potsdam (1979 bis 1990): Monatlicher Witterungsbericht für das Gebiet der Deutschen Demokratischen Republik. Beilage zum Täglichen Wetterbericht. Sonderhefte (Monats- und Jahresberichte 1979 bis 1990)

Wehry, W. (2009): Mehr Sonnenschein, weniger Nebel und höhere Temperatur- anthropogene Klima- Änderung? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 47/09 (Sonderbeilage 23/09) vom 09.07.2009

Wehry, W., Myrcik, G. (2006): Sonniger und warmer Herbst- Anzeichen auch für einen milden Winter? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 86/06 (Sonderbeilage 29/06) vom 13.12.2006

Werner, P. C., Gerstengarbe, F.W. (2010): KATALOG

DER GROSSWETTERLAGEN EUROPAS

(1881-2009)

NACH PAUL HESS UND HELMUT BREZOWSKY. PIK Report

No. 119, Potsdam 2010

www.bafu.admin.ch/luft NABEL (Nationales Beobachtungsnetz Luft in der Schweiz)

www.pik-potsdam.de/services/climate-weather-potsdam Monats- und Jahreswerte der Säkularstation Potsdam (Lufttemperaturen, Sonnenscheindauer, Bewölkung; Relative Feuchte, Globalstrahlung und Anzahl der Nebeltage)

www.wetteronline.de Klimarechner mit Werten der Lufttemperatur und der Sonnenscheindauer einiger deutscher Stationen

www.wetterkontor.de Werte der Lufttemperatur und der Sonnenscheindauer einiger deutscher Stationen ab 1990

http://.wikipedia.org/ Zeitreihe der Lufttemperatur in Deutschland ab 1761




Die Achilles-Ferse der Klima-Modelle : „Wasserdampf-Verstärkung“

Hier  –  vorab  – die uralte physikalische Erkenntnis, daß zusätzliches CO2 nur noch eine geringfügige Wirkung hat – anhand eines IPCC-Zitates (!)[1] :

“In der idealisierten Situation, daß die Klima-Reaktion auf eine Verdopplung des atmosphärischen CO2 nur aus einer gleichmäßigen Temperaturzunahme besteht, ohne Rückkopplungen … würde die globale Erwärmung nach den Modellen [GCMs] etwa 1,2 °C betragen”

(1) Begriffs-Bestimmung

Wasser-Dampf

Das ist die gasförmige Phase des Wassers. Diese Bezeichnung ist physikalisch unglücklich,weil sie allgemein verwechselt wird mit „Waschküchen-Dampf „, „Wiesen-Nebel“, Wolken … Die vorstehend aufgeführten Erscheinungs-Formen jedoch sind physikalisch etwas ganz anderes, nämlich die flüssige Phase (Aggregat-Zustand) des Wassers in Form von Tröpfchen. Der Durchmesser der Wasser-Tropfen in der Atmosphäre erstreckt sich über einen Bereich von mehr als drei Zehner-Potenzen (μm – mm). Daraus folgt: Auch Nebel und Wolken bestehen aus Wasser-Tröpfchen, sie sind kein Wasserdampf !

Treibhaus-Gase

Es gibt einige (Spuren-)Gase in der Atmosphäre, welche selektiv Infrarot-Strahlung der Erdoberfläche in Linien-Spektren absorbieren, und in den Kugel-Raum wieder abstrahlen, folglich zu 50% Richtung Erde. Damit verzögern … behindern sie teilweise die natürliche Strahlungs-Abkühlung der Erde. Den weit überwiegenden Anteil an diesem Effekt hat der Wasser-Dampf. Die Reihenfolge der Treibhaus-Gase bezüglich ihres Effektes in der Atmosphäre[2]: Wasserdampf 62%, CO2 22%, Ozon(O3) 7%, Lachgas (N2O) 4%, Methan (CH4) 3%.

Das Klima-System

Das Klima-System der Erde besteht aus Atmosphäre, Hydrosphäre (insbes. Ozeane), Kryosphäre (Eis), Biosphäre und Lithosphäre (Gesteine). Bei den Umsetzungen von Energie und Gas im Klimasystem gibt es stets eine Fülle von physikalischen und chemischen Prozessen und Rückkopplungen, die im Detail unüberschaubar sind. Genau  d a s  ist das Problem der Klima-Modelle, die sich folglich mit einer Vielzahl von Annahmen, Näherungs-Lösungen (Aproximationen), Parametrisierungen etc. behelfen müssen.

 

Abbildung 1

Das Klima-System (Graphik KEPuls)

Klimasensitivität

Als Maß für einen abgeschätzten Summen-Effekt von direkter Strahlungs-Wirkung und indirekten Rückkopplungs-Mechanismen im Klima-System wurde die so genannte Klimasensitivität[3] konstruiert. z.B. für CO2:

„Die Klimasensitivität  ist eine Größe, die die globale Erwärmung der Erdatmosphäre durch die Wirkung von Treibhausgasen ins Verhältnis zu einer Strahlungseinheit setzt. Man kann sie in °C/(Watt/m²) angeben. Geläufiger ist jedoch die Angabe der Klimaerwärmung bei Verdoppelung der CO2-Konzentration. Das heißt, dass die Durchschnittstemperatur der Erde um diesen Betrag ansteigt, wenn sich die CO2-Konzentration von den vorindustriellen 280 ppm auf dann 560 ppm erhöht. …. Das IPCC gibt in seinem 2007 erschienenen Vierten Sachstandsbericht Werte zwischen 2 und 4,5 °C als „wahrscheinlich“ an. Der beste mittlere Schätzwert liege bei 3 °C …“. …

Diese auch von den Klima-Instituten und dem IPCC verbreitete Definition ist für einen physikalisch weniger gebildeten Leser kaum überschaubar, kaum begreifbar. Sie „vernebelt“ auch von Anfang an, daß die vom IPCC in die Medien transportierten Temperatur-Prognosen von 2…5 Grad auch nicht annähernd alleine durch den Treibhaus-Effekt zu erzielen sind, sondern daß es dazu spekulativer und fragwürdiger und im Detail unbekannter Rückkopplungs-Annahmen bedarf[4]:

„Zur genauen Feststellung dieser Sensitivität gibt es leider kein eindeutiges und allein richtiges Verfahren“

Es handelt sich also bei der „Klima-Sensitivität“ um ein von Anfang an unüberschaubares physikalisches Konstrukt, um eine Hypothese.

(2) WAS kann CO2 ?

Die Treibhaus-Wirkung von CO2 ist aus Labor-Untersuchungen und aus Berechnungen der Wirksamkeit des spektralen CO2-Absorptions-Vermögens hinlänglich bekannt:

Abbildung 2[5] („…Textfelder eingefügt…“)

Logarithmischer Treibhaus-Effekt

[6]

“ Es gibt bereits so viel CO2 in der Atmosphäre, daß in vielen Spektralbereichen die Aufnahme durch CO2  fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr“,

[7]

„Eine Verdoppelung der Kohlendioxid-Konzentrationen in der Atmosphäre allein (bewirkt) nur eine geringfügige Erhöhung der mittleren bodennahen Temperatur um wenige Zehntelgrade“.

[8]

„In der Mitte des 15-μm-Absorptions-Bereiches hat zusätzliches CO2 nahezu keinen Effekt…“

[9]

„Es gibt bereits soviel CO2 in der Atmosphäre, dass in vielen Spektralbereichen die Aufnahme durch CO2 fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr.”

[10]

„Bei ausschließlicher Betrachtung der im Labor messbaren Strahlungswirkung von CO2 ergibt sich eine Klimasensitivität von 1,2 °C. Es existieren jedoch Rückkopplungs-Effekte, darunter im Wesentlichen die Wasserdampf-Rückkopplung, die Eis-Albedo-Rückkopplung und Wolken. Daher liegen die möglichen und als wahrscheinlich angenommenen Werte höher, ein Wert um 3° wird heute als am wahrscheinlichsten angenommen.“

[11]

„New calculations show that doubling of carbon dioxide (CO2) will increase average global temperature by only about 1F (degrees Fahrenheit) or 0.55C (degrees Centigrade), much less that the range of  2C to 4.5C estimated by the United Nations International Panel on Climate Change (IPCC). These new calculations are based on NASA supported spectral calculations available on the Internet relating to greenhouse gases.“

Bei den in der vorstehend zitierten Literatur genannten CO2-Erwärmungs-Raten von meist unter 1 Grad ist zusätzlich zu berücksichtigen, daß es sich um Berechnungen für eine Atmosphäre ohne Wasserdampf  handelt. Eine solche Atmosphäre gibt es jedoch in der Natur nicht. Da sich jedoch die Absorptions-Banden von CO2 und Wasserdampf teilweise überlappen, verringert der Wasserdampf in nicht unwesentlichem Ausmaß das CO2-Treibhaus-Potential noch um etliche Zehntel Grade[12]:

„Wegen des stets vorhandenen Wasserdampfes ist die Wirkung der CO2-Verdoppelung in der Natur aber noch erheblich kleiner.“

Und genau das steht manchmal sogar schon in einer deutschen Zeitung[13]:

„Die Paläoklimatologie liefert immer öfter die entscheidenden Daten und Hinweise, mit denen Unsicherheiten verkleinert und die Schwächen der grobskaligen Modelle gemindert werden – die unvermeidliche „Parametrisierung“ etwa, das Setzen fester Parametergrößen als mathematischer Näherung von kleinskaligen Prozessen, die mit einem vernünftigen Aufwand rechnerisch nicht aufzulösen sind. So wurde in „Science“ (doi: 10.1126/science.1214828) kürzlich gezeigt, dass eine fundamentale Größe aller Prognosen, die Klimasensitivität, bei der Analyse langer Datenreihen tatsächlich etwas geringer ausfällt als bislang geglaubt.“

Genau das sagt auch eine 2013 erschienene Publikation[14] sehr deutlich :

„Global warming less extreme than feared ?“ :

„Policymakers are attempting to contain global warming at less than 2°C. New estimates from a Norwegian project on climate calculations indicate this target may be more attainable than many experts have feared.

Internationally renowned climate researcher Caroline Leck of Stockholm University has evaluated the Norwegian project and is enthusiastic. “These results are truly sensational,”

says Dr Leck. “If confirmed by other studies, this could have far-reaching impacts on efforts to achieve the political targets for climate.”

Zu dem mittlerweile „akten-kundigen“ Erwärmungs-Stop seit 15 Jahren heißt es a.a.O.:

„Temperature rise is levelling off:

After Earth’s mean surface temperature climbed sharply through the 1990s, the increase has levelled off nearly completely at its 2000 level.“

… u.w.a.a.O.:

„According to the … IPCC the climate sensitivity to doubled atmospheric CO2 levels is probably between 2°C and 4.5°C, with the most probable being 3°C of warming.

In the Norwegian project, however, researchers have arrived at an estimate of 1.9°C as the most likely level of warming.“

Diese 1.9°C müssen – nach unten hin – nicht das letzte Wort sein, diese werden nicht das letzte Wort sein.

F a z i t :

Die Treibhaus-Wirkung von zusätzlichem CO2 ist marginal, und liegt im natürlichen Rauschen der Klima-Temperaturen.

(3) Wenn nicht CO2  – wer dann ?

Im zweiten Teil des vorstehend angeführten WIKIPEDIA-Zitats wird schon etwas deutlicher, daß die dramatische „Überhitzung“ der Erdatmosphäre in den Klima-Modellen nicht mit CO2 erzielt werden kann, sondern nur mit hypothetischen Rückkopplungen, wie es in der begutachteten wissenschaftlichen Literatur in Dutzenden von Publikationen auch geschrieben steht ist, z.B.: :

[15]

Da „… die Verdoppelung (von CO2) nur die von den Flanken der Kohlendioxidbanden herrührende Gegenstrahlung erhöhen würde, führt diese Temperaturerhöhung jedoch in der Folge zu einer Vermehrung der Wasserdampfkonzentration in der Atmosphäre, die zu einer wesentlich höheren Zunahme der Gegenstrahlung und damit zu der bekannten angenommenen Erhöhung der Mitteltemperatur um zwei bis drei Grad Celsius führen würde.“

[16]

“In the idealised situation that the climate response to a doubling of atmospheric CO2 consisted of an uniform  temperature change only, with no feedbacks operating … the global warming from GCMs would be around 1.2 °C.”

[17]

„Der Wasserdampf-Feedback ist nach wie vor der durchweg wichtigste Rückkopplungseffekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdoppelung vorhergesagte globale Erwärmung verursacht“.

Die physikalische Begründung für diese Hypothese ist zunächst durchaus plausibel, mit der folgenden Argumentations-Kette:

[18]  „Eine Verdoppelung der Kohlendioxid-Konzentrationen in der Atmosphäre allein (bewirkt) nur eine geringfügige Erhöhung der mittleren bodennahen Temperatur um wenige Zehntelgrade“.

Damit erhöht sich das Aufnahme-Vermögen der Atmosphäre für Wasserdampf[19]:

„Der Sättigungsdampfdruck eines Reinstoffes in einem geschlossenen System ist von der Temperatur abhängig.“

Die Atmosphäre nimmt mehr Wasserdampf auf, weil das o.a. physikalische Gesetz es zulässt;

Der „zusätzliche“ Wasserdampf wiederum erhöht die Lufttemperatur weiter, weil der Wasserdampf das Haupt-Treibhaus-Gas ist;

Dieser Prozeß schaukelt sich auf zu immer höheren Temperaturen;

Die Modelle müssen eine „Bremse“ einbauen, um ein „runaway“ … „running over“ zu vermeiden.

Soweit die Theorie.

Realisiert die Natur diese Hypothese (?)[20] :

„In diesem Kapitel[21] wird weiter argumentiert, dass große positive Rückkopplungen, hauptsächlich durch Wasserdampf, diesen Effekt wahrscheinlich verstärken. Aber während es einen guten Konsens über die 1,2 °C gibt, existiert überhaupt kein Konsens über den Nettoeffekt der positiven Rückkopplungen, wie das IPCC auch offen zugibt.“

F a z i t :

Die Treibhaus-Eigenschaften von CO2 können bei Konzentrations-Verdoppelung in einer realen, also wasserdampf-haltigen Atmosphäre nur etwa ein halbes Grad Erwärmung bewirken. Die Klima-Modelle „benötigen“ für ihre spektakulären Temperatur-Prognosen hypothetische Verstärkungs-Prozesse, allen voran die Wasser-Dampf-Verstärkung. Allerdings – die Natur macht etwas anderes  è s.w.unten.

(4) WD in der Troposphäre

Ein Autoren-Team[22] hat die globalen Daten von Radiosonden („Wetter-Ballone“) ausgewertet, über einen Zeitraum von  35 Jahren: 1973-2007 :

Abbildung 3

Auswertung von Radiosonden 1973-2007

(Paltridge et al. 2009)

Das Ergebnis (a.a.O.) :

„… the face-value 35-year trend in zonal-average annual-average specific humidity q

is significantly negative at all altitudes above 850 hPa (roughly the top of the convective boundary layer) in the tropics and southern midlatitudes and at altitudes above 600 hPa in the northern midlatitudes. It is significantly positive below 850 hPa in all three zones, as might be expected in a mixed layer with rising temperatures over a moist surface.“

Bezüglich der Klima-Modelle sagen die Autoren:

„The upper-level negative trends in q are inconsistent with climate-model calculations …“

… u.w.a.a.O.:

„Negative trends in q as found in the NCEP data would imply that long-term water

vapor feedback is negative  …“

Weiterhin:

Die Klima-Modelle rechnen damit, daß die Erwärmung der Tropen dazu führt, daß konvektiv Wärme und Wasserdampf in die obere Troposphäre geführt wird („Hotspot“). Dadurch soll eine erhebliche Verstärkung des Treibhaus-Effektes erfolgen. Meteorologische Messungen widerlegen das[23]:

„Thus, the small OLR (Outgoing Longwave Radiation) feedback from ERBE (Earth

Radiation Budget Experiment) might represent the absence of any OLR feedback; it might also result from the cancellation of a possible positive water vapor feedback due to increased

water vapor in the upper troposphere [Soden et al. , 2005] and a possible negative iris cloud feedback involving reduced upper level cirrus clouds [Lindzen et al. , 2001]“

In dem Buch[24] „CO2 und Klimaschutz“ steht zu den o.a. Publikationen folgende Zusammenfassung:

„Unter der Voraussetzung, daß die von Lindzen et al. sowie von Paltridge et al. mitgeteilten Meßergebnisse und Schlussfolgerungen korrekt sind, bedeutet dies nicht mehr und nicht weniger als das wissenschaftliche Ende einer vom Menschen verursachten Klimakatastrophe.“

F a z i t :

Die Messungen der Wasserdampf-Konzentration in der Troposphäre widersprechen weitgehend  den Annahmen und Ergebnissen der Klima-Modelle !

(5) WD in der Stratosphäre

Eine 2010 veröffentlichte Studie[25] auf der Basis von Satelliten-Daten zeigt, daß in der Stratosphäre ein „auf+ab“ des Wasserdampf-Gehaltes gemessen wird:

„Observations from satellites and balloons show that stratospheric water vapor has had its ups and downs lately, increasing in the 1980s and 1990s, and then dropping after 2000.“

Die Ursache dafür ist unbekannt (a.a.O.) : „Since 2000, water vapor in the stratosphere decreased by about 10 percent. The reason for the recent decline in water vapor is unknown.“

Gleichermaßen kompliziert und letztlich unklar sind die Zusammenhänge mit der Stagnation der Global-Temperatur in der Troposphäre (a.a.O.):

„A 10 percent drop in water vapor ten miles above Earth’s surface has had a big impact on global warming, say researchers in a study published online January 28 in the journal Science. The findings might help explain why global surface temperatures have not risen as fast in the last ten years as they did in the 1980s and 1990s.“

Dabei wird auch angemerkt, daß der Wasserdampf in den Klima-Modellen als der bedeutendste „Temperatur-Verstärker“ betrachtet wird:

“Current climate models do a remarkable job on water vapor near the surface. But this is different – it’s a thin wedge of the upper atmosphere that packs a wallop from one decade to the next in a way we didn’t expect,”

Temperatur und Wasserdampf  –  WER folgt hier WEM ? Die Unsicherheiten erscheinen nach dieser Studie größer, als bisher angenommen :

„The new study used calculations and models to show that the cooling from this change caused surface temperatures to increase about 25 percent more slowly than they would have otherwise, due only to the increases in carbon dioxide and other greenhouse gases.“

…und w.a.a.O.:

„The stratosphere is a region of the atmosphere from about eight to 30 miles above the Earth’s surface. Water vapor enters the stratosphere mainly as air rises in the tropics. Previous studies suggested that stratospheric water vapor might contribute significantly to climate change. The new study is the first to relate water vapor in the stratosphere to the specific variations in warming of the past few decades.“

Wie unsicher alle diese Annahmen und damit letztlich die Klima-Modelle selbst sind, das zeigen auch die Temperatur-Messungen in der oberen Troposphäre und in der Stratosphäre, denn es gibt nach den meteorologischen Messungen der letzten 20 Jahre die von den Klima-Modellen vorhergesagte Effekte dort nicht[26]:

Weder den vorhergesagten „Hotspot“ in der oberen Troposphäre, noch die von den Modellen berechnete langsame Abkühlung der oberen Stratosphäre !

(6) WD in der Atmosphäre – total

In einem NASA-Projekt wird der Total-Wasserdampf-Gehalt der Atmosphäre untersucht[27] :

„The NASA Water Vapor Project (NVAP) dataset is a global (land and ocean) water vapor dataset created by merging multiple sources of atmospheric water vapor to form a global map of total and layered precipitable water vapor.“

Abbildung 4

Wasserdampfgehalt 1988-2009 in der Atmosphäre;

Vonder Haar et al. (2012), Abbildung nachzitiert nach http://www.kaltesonne.de/?p=4803

In den Schlussfolgerungen ihres Papers schreiben die Forscher:

„Zu diesem Zeitpunkt können wir das Vorhandensein eines robusten Trends in der globalen Wasserdampfentwicklung weder beweisen noch widerlegen.“

In einer Übersicht wird das so zusammen gefasst[28]:

„Während das CO2 die letzten Jahrzehnte lang monoton angestiegen ist, hat der Wasserdampf seit nunmehr 14 Jahren offenbar eine Pause eingelegt und stagniert bzw. fällt sogar leicht ab. Eine Kopplung von CO2 und Wasserdampf ist in dieser Zeit nicht erkennbar. “

Auch weltweite Niederschlags-Messungen der Wetterdienste stürzen diesen Befund:

(7) Global mehr Niederschläge ?

Diesem Thema gibt auch der SREX-Bericht des IPCC vor der Klima-Konferenz in Durban (2011) Raum, worüber DER SPIEGEL[29] wie folgt berichtet:

„Mehr Hitze lässt mehr Wasser verdampfen – ergo mehr Regen. Diese Cocktailparty-Gleichung mag einfach klingen, doch hat sie leider nichts mit dem realen Wettergeschehen zu tun … “ …’Wir finden aber in unseren Messungen keinen Anstieg der Niederschläge‘, klagt Andreas Becker vom Deutschen Wetterdienst (DWD)“.

Dazu ist anzumerken: Beim DWD ist das Welt-Niederschlags-Zentrum der WMO angesiedelt, dort gehen also die weltweit ermittelten Daten zum Niederschlag ein und werden ausgewertet.

Weiter dazu DER SPIEGEL a.a.O.: „Ein Messfehler ? Oder sind die Gleichungen falsch ? ‚Für die Forschung ist das ein großes Rätsel‘, bekennt der Leiter des Weltzentrums für Niederschlagsklimatologie“.

F a z i t :

Die Messungen  zeigen, daß es global in der Atmosphäre weder mehr Wasserdampf (vgl. Kap.4-6) noch mehr Niederschläge (Kap.7) gibt.

Dazu passen auch aktuelle Verdunstungs-Messungen :

(8) Wasserverdunstung über Land nimmt ab

Die LVZ Leipzig berichtete[30] 2011 über Forschungs-Ergebnisse des MPI Jena im Rahmen des internationalen Projektes Fluxnet-Initiative[31]  wie folgt:

„Bislang gingen Klimaforscher davon aus, dass die Erderwärmung den globalen Wasserkreislauf anheizt. Auf eine Überraschung sind nun Experten des Max-Planck-Institutes für Biogeochemie in Jena gestoßen: Sie ermittelten, dass zwischen 1998 und 2008 der weltweite Trend zunehmender Verdunstung von der Landoberfläche deutlich abgeschwächt oder sogar umgekehrt wurde.“

u.w.a.a.O.:

„…wärmere Luft kann bekanntermaßen mehr Feuchtigkeit aufnehmen. Klimaforscher gingen daher bislang davon aus, dass auf der wärmer werdenden Erde mehr Wasser verdampft.

…. Da sich gleichzeitig die Temperatur der Atmosphäre leicht erhöhte, hat uns die Abschwächung  der Verdunstung doch sehr überrascht.“

u.w.a.a.O.:

„Wir lassen ausschließlich die Messdaten sprechen, wenn wir ­globale Kreisläufe wie etwa den Wasserzyklus untersuchen“, erklärt Reichstein. Die Forscher gehen also nicht wie früher üblich von hypothetischen Klimamodellen aus, um Messwerte zu ­interpretieren.“

Die hier dargestellten Ergebnisse des Projektes sind eindeutig:

Die Messwerte zeigen eine dekadische Abnahme des Wasserverdunstung, die Modelle behaupten das Gegenteil !

(9) Kritik an der Modellierung der WDV

Es gibt sehr viele namhafte Wissenschaftler, welche die hohe Wichtung der WDV in den Klima-Modellen kritisieren, z.B. :

[32]

Roy W. Spencer, Ph. D. :

“While it seems rather obvious intuitively that a warmer world will have more atmospheric water vapor, and thus positive water vapor feedback, I’ve just listed the first 5 reasons that come to my mind why this might not be the case.  …..    At a minimum, I believe the water vapor feedback issue is more complicated than most mainstream researchers think it is.“

[33]

Meteorologie-Professoren H. Kraus und U. Ebel :

„Mit einer Erwärmung der Armosphäre kann auch der Wasserdampfgehalt zunehmen, und man könnte erwarten, daß sich der hydrologische Zyklus intensiviert…; ob sich Folgen wirklich einstellen, läßt sich selbst durch sehr komplexe Modellrechnungen nicht zuverlässig herausfinden.“

[34]

Dr. Miklós Zágoni (Prominent Hungarian Physicist) : „Contrary to the common wisdom, there is no positive H2O-Temperature feedback on global scale;  in Earth-type atmospheres uncontrolled runaway warming is not possible…“.

[35]

Walter Cunningham (Astronaut):

„NASA’s Aqua satellite is showing that water vapor, the dominant greenhouse gas, works to offset the effect of carbon dioxide (CO2). This information, contrary to the assumption used in all the warming models, is ignored by global warming alarmists.“

[36]

Prof. Dr. C.O. Weiss (eh. Dir. und Prof. an der PTB):

„Der direkte Einfluss von CO2 auf die Erdtemperatur beträgt nur einen kleinen Bruchteil von 1 Grad Celsius und ist damit praktisch völlig unwichtig. Hierin stimmen fast alle Wissenschaftler überein. Die Alarmmeldungen über Erderwärmung basieren auf ANNAHMEN ( keineswegs Kenntnissen ) über die Wirkung von Wolken. In den Modellen auf die sich die Voraussagen des „Internationalen Ausschusses für Klimawandel“ (IPCC). stützen wird (recht willkürlich) ANGENOMMEN, dass Wasserdampf und Wolken die geringfügigen Temperaturerhöhungen durch CO2 in katastrophaler Weise verstärken, und somit die „Klimakrise“ hervorrufen. …

Obwohl dies die alles entscheidende Frage der Klimaforschung ist, sind zur Klärung dieser entscheidenden Annahmen von Seiten der „offiziellen“ Klimaforschung bisher keine Anstrengungen unternommen worden. Zwar wurden Vergleiche von Modellergebnissen mit Strahlungsmessungen von Satelliten gemacht. Da die Messungen den Modellen aber widersprachen wurden die Ergebnisse ignoriert und behauptet, die Messungen seien nicht ‚verlässlich‘.“

[37]

Clive Best  (Physiker, PhD) :

„Es wird gezeigt, dass eine positive lineare Klima-Rückkopplung für kombinierte Wasserdampfeffekte mit dem Schwache-Sonne-Paradoxon unvereinbar ist. Im Besonderen führen Rückkopplungswerte von ~2,0 W/m²K, wie sie die gegenwärtigem GCMs annehmen, zu nichtphysikalischen Ergebnissen hinsichtlich der Solarstrahlung vor einer Milliarde Jahren. Ein einfaches Modell wird beschrieben, wonach erdähnliche Planeten mit großen Oberflächen flüssigen Wassers bei kleinen Änderungen der einfallenden Sonnenstrahlung die Temperatur selbst regulieren können. Das Modell nimmt an, dass sich reflektierende Wolken ausbreiten, während der Treibhauseffekt mit der heller werdenden Sonne abnimmt. Die Gesamtwasserdampf-Rückkopplung des Modells ist stark negativ. Direkte Beweise für die negative Wasserdampf-Rückkopplung finden sich in den Stationsdaten von CRUTEM4, indem man die Temperaturanomalien in ariden Regionen (Wüsten und Polargebiete) mit jenen in feuchten Regionen (hauptsächlich in den Tropen) vergleicht. Alle 5600 Stationen wurden nach der Köppen-Geiger-Klimatologie (9) eingeordnet. Zwei separate Temperaturreihen von 1900 bis 2011 wurden für jedes Gebiet berechnet. Es ergab sich eine klare Differenz der Temperaturanomalien. Unter der Annahme, dass die Ursache der Differenz im atmosphärischen Wasserdampfgehalt zu suchen ist, kann ein Rückkopplungswert von -1,5 ±0,8 W/m²K abgeleitet werden.“

[38]

Universität Bremen :

„Wasserdampfkarte hilft, Klimamodelle zu korrigieren“:

„Ein deutsch-niederländisches Forscherteam hat nach Angaben der Universität Bremen erstmals globale Karten der Isotopenzusammensetzung von Wasser in der unteren Atmosphäre gemessen. Die Messungen des  europäischen  Umweltsatelliten Enivsat eröffnen die Möglichkeit, heutige Klimamodelle und damit Vorhersagen über Regenmengen und Überschwemmungsgefahren zu verbessern.

Die Wissenschaftler verglichen die Messungen in der Sahelzone und bei Spitzbergen  mit  Modellrechnungen. Beides Mal waren die Messwerte nicht durch die Modelle reproduzierbar, so die Universität. Dies weise darauf hin, dass der tropische und arktische Wasserkreislauf in den Modellen bisher nicht vollständig korrekt erfasst seien.“

[39]

Prof. Dr. Richard Lindzen: „Das ist physikalisch vollkommen absurd. In der Natur geht eine höhere Verdunstung immer mit mehr Niederschlag einher. Zudem kann eine höhere Verdunstung niemals zu einem höheren Wasserdampfgehalt in Lufthöhen von drei Kilometern führen. Und genau dort ist die kritische Grenze, da Wasserdampf zwischen 3 km und der Tropopause den Treibhauseffekt dominiert.“

[40]

Hans von Storch (Director of Institute for Coastal Research, HH):

„Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen“ .

…damit ist das Entscheidende in einem Satz gesagt:

Die Natur macht was Anderes, als die Modelle vorhersagen.

(10) Zusammenfassung

Bei CO2-Verdoppelung in einer realen, wasserdampf-haltigen Atmosphäre beträgt der zusätzliche Treibhaus-Effekt von CO2 auf der Basis von Labor-Messungen nur etwa ½ Grad. Die Modelle der IPCC-nahen Institute erzielen daher die ständig propagierten 2 … 5 Grad globaler Erwärmung nicht mit CO2, sondern mit Verstärkungs-Hypothesen, insbesondere mit der Wasserdampf-Verstärkung. Daraus folgt: Nach der säkularen Erwärmung im 20. Jahrhundert um ca. 0,7 Grad müsste einerseits die Wasserdampf-Gehalt der Atmosphäre schon messbar zugenommen haben, andererseits müsste die Temperatur von Jahrzehnt zu Jahrzehnt beschleunigt ansteigen. Beides wird von den meteorologischen Messungen widerlegt: Weder in der Troposphäre noch in der Stratosphäre sind solche Trends zu beobachten, eher ein leichter Trend zu weniger Wasserdampf, und auch zu weniger Verdunstung am Boden.

Auch stagniert die Global-Temperatur seit 15 Jahren.

==================================================================

Klaus-Eckart Puls, EIKE

—————————————————————————————————————–


[1] IPCC-Rep. (2007), Chapt. 8.6.2.3

[2] SCHÖNWIESE. promet. 1996

[3] Quelle: WIKIPEDIA

[4] http://www.pik-potsdam.de/~stefan/alvensleben_kommentar.html

[5] www.lavoisier.com.au/articles/greenhouse-science/solar-cycles/ArchibaldLavoisierAGM.pdf

[6] P.J. Crutzen (Nobelpreis Chemie); T.E.Graedel: Chemie der Atmosphäre, Spektrum Akad.Vlg,, Berlin, 1993, S.414

[7] H. Hinzpeter, (eh. Leiter MPI HH), promet, 15, Heft 2/3, 1985, S.49)

[8] Quelle: IPCC-Bericht 1994

[9] H. Hug, Die Angsttrompeter, Signum-V., München, 2006

[10] WIKIPEDIA zu Wasserdampf-Verstärkung

[11] Richard J. Petschauer „Carbon Heat Trapping: Merely A Bit Player in
Global Warming“ http://www.junkscience.com/jan08/Global_Warming_Not_From_CO2_20080124.pdf

[12] [Dietze 2001; Carbon Model Calculations, nachzitiert nach: http://www.pik-potsdam.de/~stefan/alvensleben_kommentar.html ]

[13] FAZ, 06.12.2011 : Der kostbare Kaffeesatz in den Klimamodellen

[14]http://www.forskningsradet.no/en/Newsarticle/Global_warming_less_extreme_than_feared/1253983344535/p1177315753918   Published: 24.01.2013

[15] H. Hinzpeter, eh. Dir. MPI HH, promet, 15, Heft 2/3, (1985), S.49

[16] IPCC-Rep. (2007), Chapt. 8.6.2.3

[17] IPCC, Climate Change 2001, Working Group I: The Scientific Basis, Contr.Wok.Gr.I, 3rd Ass.Rep.IPCC, Ch.7.2.1.1).

[18] H. Hinzpeter, (eh. Leiter MPI HH), promet, 15, Heft 2/3, 1985, S.49) ;

[19] WIKIPEDIA; zu: Sättigungs-Dampfdruck

[20] Matt Ridley: Wissenschafts-Ketzerei ; Vortrag bei der Royal Society of the Arts, Edinburgh, 31. Oktober 2011;  http://www.science-skeptical.de/blog/matt-ridley-uber-wissenschafts-ketzerei/005957/

[21] IPCC-Rep. (2007), Chapt. 8.6.2.3

[22] PALTRIDGE ,  ARKING &  POOK: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data,  Theor Appl Climatol, DOI 10.1007/s00704-009-0117-x Springer-Verlag (2009)

[23] Richard S. Lindzen and Yong-Sang Choi ; On the determination of climate feedbacks from ERBE data; Geophys. Res. Lett., VOL. 36, L16705, doi:10.1029/2009GL039628, (2009)

[24] H.-J. Lüdecke: CO2 und Klimaschutz, BOUVIER (2007), S. 105

[25] (Susan Solomon et al.: Stratospheric Water Vapor is a Global Warming Wild Card ; January 28, 2010; http://www.noaanews.noaa.gov/stories2010/20100128_watervapor.html )

[26] http://www.eike-klima-energie.eu/news-cache/temperatur-prognosen-der-klima-modelle-bis-heute-fuer-alle-atmosphaeren-schichten-falsch/  ; 05.10.2012

[27] Vonder Haar et al.: Weather and climate analyses using improved global water vapor observations;  Geoph.Res.Lett., doi:10.1029/2012GL052094 ;  http://www.agu.org/pubs/crossref/pip/2012GL052094.shtml

[28] http://www.kaltesonne.de/?p=4803 ; 23. Juli 2012

[29] DER SPIEGEL, 21.11.2011, Die Krux mit der Katastrophe, S. 156-158 ;

http://www.spiegel.de/spiegel/print/d-81933589.html

[30] Leipziger Volkszeitung, 10. Juni 2011; Verdunstung ebbt ab  – Wissenschaftler analysieren globalen Wasserkreislauf und stoßen auf überraschenden Trend.

[31] http://www.bgc-jena.mpg.de/ ; div. Publ. zu Fluxnet

[32] http://www.icecap.us/ Sep 14, 2010: Roy W. Spencer, Ph. D.: Five Reasons Why Water Vapor Feedback Might Not Be Positive

[33] Kraus, H. u. Ebel, U.: Risiko Wetter, Springer-Verlag, (2007)

[34] in:  Marc Morano, Communications Director, Senate Environment and Public Works Committee (EPW) ; Inhofe Staff, Rundschreiben 02.05.2008

[35] W.Cunningham: In Science, Ignorance is not Bliss, Launch Magazin Online ;

http://waltercunningham.com/Ignorance.html

[36] http://www.eike-klima-energie.eu/climategate-anzeige/die-klimasensitivitaet-von-co2/ 22.07.2010 ;  u n d

http://www.eike-klima-energie.eu/climategate-anzeige/rueckkopplung-im-klimasystem-der-erde/    10.08.2010

[37] Evidence for Negative Water Feedback Posted on May 23, 2012 by Clive Best ; deutsch: http://www.eike-klima-energie.eu/news-cache/neue-studie-wasserdampf-rueckkopplung-ist-stark-negativ/ ; 03.06.2012

[38] in: VDI Nachrichten, 18. September 2009, Nr. 38, swe

[39] Prof. Richard Lindzen, Bild der Wissenschaft, 11/1993, S.73

[40] DER SPIEGEL, 11/2007, S.56




Energiewende wirkt: Altmaiers Billion € reicht bei weitem nicht!

Denn der Anstieg der Vergütung und mit ihr die zukünftigen Verpflichtungen nehmen  exponentiell (1) zu.

Abbildung 1: Blau: Reale Auszahlungen der Netzbetreiber an die Besitzer der NIE (Neue Instabile Energien) bis einschl. 2012. Danach hochgerechnet mittels Polynom 2. Ordnung (best fit lt. Excel für die vorhergehende Zahlenreihe). Grün: Reale und zukünftige Auszahlungen gem. blauer Kurve kumuliert. Rot: Reale zukünftige Zahlungsverpflichtungen der Verbraucher gem. 20 jähriger Einspeise- und Preisgarantie.

Setzt sich dieser Anstieg fort, und davon ist auszugehen, weil zu viele daran gut verdienen und die grüne Ideologie  des "Zeitalters der Erneuerbanre Energien(2)" die Politik dominiert, dann werden allein bis zum Jahr 2022 an kumulierten Auszahlungen bereits rd. 496 Mrd. vom Verbraucher geleistet worden sein, ohne jede Berücksichtigung der sehr kostspieligen Netzanbindung, des Errichtens weiterer, bereits heute unrentabler, Pufferkraftwerke, nicht vorhandener Speicher etc.

Abb. 2 Mögliche Teilsummen für die Kosten der Energiewende bis 2022 nach Umweltminster Peter Altmaier. Übernommen aus "Die Welt" vom 23.02.2013; mit Daten ermittelt vom Autor des Artikels Daniel Wetzel. Das Original Altmaier Interview in der FAZ hier

Zusätzlich hat der Verbraucher dann noch weitere Zahlungsverpflichtungen in Höhe von 707 Mrd € aufgebrummt bekommen. Nicht nur 680 Mrd. wie der Minister lt. FAZ Interview glaubt.
Das allein summiert sich dann und auch nur bis 2022 auf

stolze 1,203 Billionen €.

Am Ende der 30er Jahre dieses Jhh., von denen der Minister sprach, sind es dann vermutlich Vielfache davon, wenn nicht zuvor ein radikaler Wechsel eingeleitet wird. 

Auch der Rest von rd. 300 Mrd für Netzausbau etc., den der Minister auf seinem Zettel gehabt haben könnte, ist viel zu niedrig gegriffen. Dafür bekommt man weder das eine noch das andere hin.

Die traurige Wahrheit ist, die Energiewende kostet die Verbraucher einige Billionen Euro, nicht nur eine! Was schon mehr als schlimm genug wäre. Die Politik zwingt uns, ohne jede Not ein ein schlechtes und qualitativ minderwertiges instabiles Produkt zu überhöhten Preisen in unbegrenzter Menge zu kaufen, bei gleichzeitiger Vernichtung sehr, sehr vieler hoch wertschöpfender Arbeitsplätze, nicht nur in der energieintensiven Industrie. 

Abbildung 3: Aus dem über die dargestellte Phase von 656 15-Minuten-Zeitabschnitten erreichten Mittelwert von 57.595 MW der Verbraucherlast (blau) ergibt sich eine Strombedarfsmenge von 9.445.650 MWh, zu deren Deckung der Wind mit 6,22 % und die Sonne mit 2,12 % = 8,34 % beitragen konnten. Der Rest muss aus anderen Quellen stammen. Wie lange noch? 
Die bisherige Höchstlast für 2013 betrug am 24.01.2013 um 19:00 Uhr 73.283 MW. Zu diesem Zeitpunkt war die Sonne bereits hinter dem Horizont verschwunden. Und der Wind? Mittels über 31.300 MW installierter WKA-Leistung speiste er gerade mal 1.479,1 MW in das deutsche Netz und trug damit lediglich zu 2 % Anteil an der Stromversorgung bei. (Quelle Wilfried Heck 3.3.13)

Weitreichende und selbstverschuldete Energiearmut ist damit programmiert. Helfen kann deshalb nur noch ein radikaler Kurswechsel wie wir ihn hier und hier schon vorgeschlagen haben.


Da wundert es nicht das…

Menschen im Ruhrgebiet an der Energiewende zweifeln

wie die WAZ vom 4.3.13 die http://www.derwesten.de/wirtschaft/menschen-im-ruhrgebiet-zweifeln-an-der-energiewende-id7680246.html vermeldeten. Und schreiben weiter: 

In der Bevölkerung wächst die Skepsis über die Energiewende. Nach einer Umfrage im Auftrag des Initiativkreis Ruhr glauben besonders im Ruhrgebiet nur wenige an einen schnellen Umbau des Energiesektors. Viele sorgen sich über die Energiekosten. Der Atomausstieg ist dagegen kein wichtiges Thema mehr.

Michael Limburg EIKE

(1) Details zur Berechnungsmethode finden Sie hier (1)Bild 2  http://www.eike-klima-energie.eu/energie-anzeige/wind-und-sonne-schicken-keine-rechnung-was-uns-kostenlose-energie-wirklich-kostet/

(2) Vielfaches Zitat div. Bundesministerien, u.a. auch von Kanzlerin Angela  Merkel in ihrem Vortrag zum IHK Jahresthema 2012 "Energie & Rohstoffe für morgen"




Klimatrends in Temperaturreihen

1. Was ist Persistenz in Temperaturzeitreihen?

Zeitreihen sind wichtige Werkzeuge, um Informationen über komplexe Prozesse zu gewinnen. Herzspezialisten nehmen Zeitreihen des Herzschlags oder des Blutdrucks auf, um Aufschlüsse über den gesundheitlichen Zustand eines Patienten zu erhalten. Finanz- und Versicherungsmathematiker analysieren Zeitreihen, um die finanziellen oder versicherungstechnischen Risken von Unternehmen zu bewerten. Klimatologen verwenden Temperaturzeitreihen (Tages-, Monats- oder Jahresmittelwerte), um langfristige Klimatrends aufzufinden. Im Folgenden geht es hier um Temperaturzeitreihen.

Der englische Wasserbau-Ingenieur Harold Edwin Hurst untersuchte in den 1950-er Jahren  die Tief- und Höchststände des Nils und entdeckte dabei als erster, dass hydrologische Zeitreihen ein Gedächtnis besitzen. Die aktuell gemessenen Werte hängen von den vergangenen, zum Teil weit zurückliegenden Werten ab. Später wurde erkannt, dass auch viele weitere Zeitreihen der Natur wie z.B. Baumringe ein Gedächtnis aufweisen. Man nennt dieses Phänomen Persistenz oder Autokorrelation. Die Schwankungen der Zeitreihe um ihren Mittelwert erfolgen in persistenten Zeitreihen nicht mehr unabhängig, sondern sie werden von der Vergangenheit der Zeitreihe beeinflusst.

Betrachtet man Temperaturzeitreihen, so erscheint dieses Verhalten zunächst nicht einmal so ungewöhnlich. Eine Temperaturzeitreihe weist zumindest ein "Gedächtnis" über die momentan herrschende Jahreszeit auf. Es kommt nie vor, dass auf einen warmen Sommertag plötzlich ein kalter Wintertag folgt, bzw. umgekehrt. Da jahreszeitlich bedingte Schwankungen im Allgemeinen weniger interessieren, werden die saisonalen Einflüsse vor der Persistenzanalyse aus einer Temperaturzeitreihe entfernt. Aber auch danach beobachtet man noch, dass ein Tagestemperaturmittelwert zumindest vom Vortag abhängt. So wird ein über dem längerfristigen Mittel liegender Temperaturwert am nächsten Tag mit über 50% Wahrscheinlichkeit ebenfalls über diesem Mittel liegen, Entsprechendes trifft für einen unter dem Mittel liegenden Temperaturwert zu. Eine Erklärung für dieses Phänomen liefern anhaltende Wetterlagen. Persistenz über mehrere Wochen kann man mit meteorologischen Blocksituationen, wie etwa einem lang anhaltendes Azorenhoch erklären. Für noch längere Zeiträume ist freilich über die Ursachen von Persistenz wenig bekannt. Es werden dekadale Oszillationen wie z.B. der El Nino, Einflüsse aus den sich ändernden Planetenkonstellationen und weiteres mehr diskutiert. Erstaunlicherweise findet man in Temperaturzeitreihen Persistenz bis über mehrere Jahrzehnte. Die Ursachen solch langreichweitiger Persistenz sind bis heute völlig unbekannt.

Persistenz in Temperaturzeitreihen kann bemerkenswerterweise empirisch mit nur einem Parameter beschrieben werden, dem berühmten Hurst-Exponenten alpha. Mit der Fluktuationsanalyse (FA) bzw. der auf der FA aufbauenden, trendbereinigten Fluktuationsanalyse (DFA) wird alpha ermittelt. Der hier interessierende Bereich von alpha in Temperaturreihen ist 0,5 ≤ alpha < 1. Eine Zeitreihe mit alpha = 0,5 ist rein zufällig (weißes Rauschen) und besitzt keine Persistenz . Für alpha > 1 (alpha ≈ 1 entspricht rotem Rauschen) wird die Zeitreihe instationär, ihre Werte können "weglaufen" und niemals wieder den Anfangswert erreichen. Stationäre Zeitreihen behalten dagegen ihren Mittelwert über längere Zeiten bei. Gemessene Temperaturzeitreihen sind stationär, ihre Hurst-Exponenten liegen deutlich unter alpha = 1. Nur fragwürdige Homogenisierungen [22], Glättungsprozeduren oder ähnliche Manipulationen können dies ändern. Die Hurst-Exponenten von sorgfältig gemessenen Temperaturzeitreihen, bei denen nur die unbedingt notwendigen Homogenisierungen vorgenommen wurden, bewegen sich im Bereich von etwa 0,55 bis 0,65. Temperaturzeitreihen von Stationen auf Inseln oder in Meeresnähe weisen höhere alpha-Werte bis maximal etwa 0,9 auf.

2. Persistenz, Trends und Extreme

Persistenz von Temperaturzeitreihen sieht zuerst wie eine mathematische Rarität aus, tatsächlich ist sie jedoch von maßgebender Relevanz. Die Analyse von Zeitreihen ist nämlich vorrangig an dem Auftreten von Trends sowie von Extremen interessiert. Dabei hat man die Vorstellung, dass ausgeprägte Trends oder Extreme durch äußere Einflüsse bedingt sind. Tatsächlich kommen aber extreme Temperaturanstiege bzw. -abfälle oder ungewöhnlich lange Serien von Jahren mit Maximaltemperaturen bzw. Minimaltemperaturen auch ohne äußere Einflüsse vor. Ist dies der Fall, sind diese Trends oder Extreme "natürlich". Zumindest von stark ausgeprägten Extremen vermutet man freilich, dass sie unnatürlich sind. d.h. durch externe Einflüsse erzeugt wurden. Diese unzutreffende Annahme ist aus der Erfahrung täglichen Lebens abgeleitet. Ein Würfelspieler freut sich darüber, wenn die von ihm bevorzugte Zahl in Serie erscheint. Ist die Serie allerdings ungewöhnlich lang oder kommen gar solche Serien ungewöhnlich oft vor, argwöhnt man zutreffend eine externe Ursache, einen „gezinkten“ Würfel oder betrügerische Manipulation. Für Temperaturzeitreihen geht diese intuitive Beurteilung allerdings fehl. Der Grund dafür ist Persistenz.

Die entscheidende Folge von Persistenz in Zeitreihen ist, dass ausgeprägte Trends und Extreme auf natürliche Weise mit zunehmender Persistenzstärke ebenfalls zunehmen.

Diese Folge von Persistenz ist anschaulich verständlich. Persistenz bewirkt, dass die Zeitreihe die Tendenz aufweist, einen einmal angenommenen Wert beizubehalten. Auf diese Weise entstehen mehr Extreme und längere Trends. Damit wird der Stellenwert von Persistenz für Temperaturzeitreihen-Analye deutlich. Finden wir beispielsweise in einer Temperaturzeitreihe des 20. Jahrhunderts einen Erwärmungstrend, so besagt dies keineswegs zwingend, dass hierfür eine unnatürliche Ursache, wie z.B. zunehmendes CO2 oder Stadterwärmung (UHI) verantwortlich sein muss. Der Trend könnte auch eine ganz natürliche Folge der Persistenz der Zeitreihe sein.

Vor näherem Eingehen auf  Persistenz in Temperaturreihen soll zur Veranschaulichung des Phänomens gezeigt werden, wie man einem Würfel zu Persistenz verhelfen kann. Ein solcher Persistenzwürfel wird deutlich mehr Trends in Form von ungewöhnlich langen Serien gleicher Augenzahlen liefern. Dennoch bleibt er „fair“, d.h. alle Augenzahlen kommen auf Dauer gleich oft vor. Der Persistenzwürfel ist ein gewöhnlicher Würfel mit einer Besonderheit: wird er geworfen, und es erscheint beispielsweise die 5, hängt der Spieler ein kleines Gewicht an die gegenüberliegende Seite, also an die 2. Dies erhöht die Wahrscheinlichkeit, dass auch weiterhin die 5 gewürfelt wird. Dennoch wird irgendwann eine andere Zahl auftauchen. Nun hängt der Spieler das Gewicht auf deren Unterseite. Würfelt man lange genug, kommen alle Augen mit gleicher Wahrscheinlichkeit vor. Dennoch erscheinen ungewöhnlich lange Serien von jeweils gleicher Augenzahl. Sie sind jedoch nur durch das zum System gehörige Gewicht bestimmt, nicht durch äußere Einflüsse (man kann sich den Mechanismus intern gesteuert vorstellen, ein Spieler, der die Gewichte anbringt, ist prinzipiell unnötig). Die langen Serien gleicher Zahlen treten rein zufällig auf und sind völlig natürlich.

Im Gegensatz zu Temperaturreihen reicht das Gedächtnis des Persistenzwürfels allerdings nur einen einzigen Wurf zurück. Man kann dieses Verhalten mit einem sog. AR(1) Prozess modellieren. Persistenz in Temperaturreihen hat dagegen mit Modellprozessen, wie in AR-, MA- oder ARMA-Modellen [13] nichts zu tun. Persistenz ist eine empirische Eigenschaft ohne Modellgrundlage und sie ist prinzipiell beliebig langreichweitig. Man kann mit dem Computer synthetische Zufallszeitreihen erzeugen, die eine vorgegebene Persistenz, d.h. einen vorgegebenen Hurst-Exponenten alpha aufweisen [1]. Mit Hilfe solcher Surrogatreihen lassen sich die durch Persistenz entstehenden Phänomene studieren.

3. Surrogatzeitreihen mit „Gedächtnis“

Surrogatzeitreihen, d.h. mit dem Computer erzeugte künstliche Zeitreihen, die zudem Persistenz aufweisen, sind ein entscheidendes Hilfsmittel zur Persistenzanalyse. Die Erzeugung von rechteckverteilten Zufallszahlen (Pseudozufallszahlen) mit dem Computer ist jedem EXCEL-Benutzer bekannt. Bildet man solche Zufallszahlen auf den Bereich von Jahresmitteltemperaturen ab, erhält man eine Temperaturzeitreihe mit dem Hurst-Exponenten von alpha = 0,5. Eine solche Reihe sieht freilich unrealistisch aus, sie entspricht bereits dem Augenschein nach noch nicht der Gestalt einer real gemessenen Temperaturzeitreihe.

Surrogatreihen werden „lebensechter“, wenn man ihnen zu Persistenz verhilft. Zur Veranschaulichung sei an das oben beschriebene Beispiel des Persistenzwürfels erinnert. Die Vermittelung von Persistenz an eine Temperaturzeitreihe erfolgt allerdings mit dem Computer – Details finden sich in der Originalliteratur [1], [24]. Surrogatreihen des gleichen alpha wie eine gemessene reale Reihe, weisen schon beim bloßen Anschauen eine große Ähnlichkeit mit  gemessenen Reihen auf. Allerdings können reale Temperaturreihen einen externen Trend enthalten, Surrogatreihen nicht. Man könnte Surrogatreihen daher zutreffend als „natürlich“ bezeichnen, obwohl diese Bezeichnung etwas paradox erscheint, denn sie wurden schließlich vom Computer erzeugt. In konsequent gleichem Sprachgebrauch sind reale Temperaturreihen mit einem externen Trend „unnatürlich“. 

Bild 1 (s. Titelbild oben) zeigt ein Anschauungsbeispiel, wie sich Persistenz in Surrogatreihen auswirken kann: Im linken Teilbild ist eine ausgewählte Zeitreihe mit alpha = 0,5 (keine Persistenz) gezeigt, im rechten Teilbild eine von alpha = 0,73. Beide Zeitreihen sind Surrogate und enthalten keinen externen Trend. Dennoch ist im rechten Teilbild deutlich ein „Trend“ erkennbar, der ein wenig an den Verlauf der globalen Erwärmung im 20. Jahrhundert erinnert. Er ist rein zufällig, natürlich und nur durch Persistenz bedingt. Nun entsteht die wichtige Frage: Woher erkennt man im konkreten Fall, ob ein Trend in einer real gemessenen Temperaturreihe extern ist?

4. Die Suche nach externen  Trends

Externe Trends in Temperaturreihen stehen zweifellos im Mittelpunkt der heutigen Klimadiskussion. So möchte man gerne wissen, ob die in den letzten Jahrzehnten des 20. Jahrhunderts von vielen Stationen gemessene globale Erwärmung ein vom industrialisierten Menschen verantworteter Trend oder aber nur ein durch Persistenz bedingter Artefakt ist. In diesem Zusammenhang ist zu betonen, dass die von den weltweit verstreuten Stationen gemessene Erwärmung im 20. Jahrhundert keinesfalls global einheitlich ausfällt.  Etwa ein Viertel aller Stationen zeigt in diesem Zeitraum nämlich Abkühlung [6], [12]. Die mathematischen Hilfsmittel zur Persistenzanalyse von Temperaturreihen liefern die schon erwähnten Methoden der FA und der DFA. Eine ausführliche Beschreibung dieser Verfahren findet sich in [2], hier werden insbesondere auch sämtliche Originalliteraturquellen bis zum Jahre 2004 aufgeführt. Auf der Webseite von em. Prof. Bunde (Univ. Gießen) sind viele Originalpaper zur Persistenzanalyse, auf denen er als Mit- oder Hauptautor zeichnete, als pdf abgreifbar [23]. In [6] finden sich ebenfalls Literaturquellen. Schlussendlich ist der ausführliche und gut allgemeinverständlich gefasste Übersichtsaufsatz zur Persistenzanalyse von Bunde und Kantelhardt in den physikalischen Blättern hervorzuheben [21]. Die Originalarbeiten der hier im Mittelpunkt stehenden neuesten Methode der Persistenzanalyse, die schließlich unter 5. näher beschrieben wird, finden sich in [3] und [4].

In groben Zügen sieht die Arbeitsweise der „klassischen“ Persistenzanalye wie folgt aus: Mit der FA wird aus einer Zeitreihe der Hurst-Exponent alphaFA ermittelt. Enthält die Reihe einen externen Trend, ergibt sich ein höheres alphaFA als ohne diesen Trend. Daher liefert die FA im Prinzip nur für Zeitreihen, die keine externen Trends enthalten, unverfälschte Ergebnisse des Hurst-Exponenten. Zur Behebung dieses Mangels wurde die DFA entwickelt. Sie beseitigt während des Berechnungsvorgangs automatisch polynominale Trends einer vorgegebenen Ordnung aus der Zeitreihe. Zur Vereinfachung beschränkt man sich hierbei meist auf die Beseitigung von linearen Trends. Wird mit der DFA überhaupt kein Trend entfernt, liegt wieder die FA vor. Mit der DFA kann der automatisch beseitigte Trend leider nicht explizit angegeben werden. Da der Hurst-Exponent der DFA alphaDFA ist naturgemäß stets größer als der der FA alphaFA, kann die Differenz (alühaDFA – alphaFA) als Stärke des externen Trends in der analysierten Temperaturreihe angesehen werden.

Bild 2 zeigt als Beispiel die Ergebnisse von FA- und DFA-Analysen (Beseitigung von linearen Trends) der Monatsmittelwertreihen von fünf der am weitesten bis ins 18. Jahrhundert zurückreichenden europäischen Wetterstationen.

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Persistenz2.jpg

Bild 2: FA-Analyse (gefüllte Kreise) und DFA-Analyse (offene Kreise) für die Stationen München, Hohenpeissenberg, Prag, Paris und Wien . Die Länge des betrachteten Zeitraums beträgt 1791 bis zum Jahr 2000. Man erhält Hurst-Exponenten zwischen 0,52 und 0,63 aus der DFA- und 0,63-0,71 aus der FA-Analyse.

Aus den Monatsreihen wurde, wie bereits beschrieben, der saisonale Jahresgang entfernt. Ein doppelt-logarithmischer Plot erlaubt es dann, direkt aus der Steigung der charakteristischen Größe F(s) den Hurst-Exponenten a abzulesen [2]. Die Hurst-Exponenten der FA sind, wie schon erwähnt, im Prinzip größer als die der DFA. Für unser Beispiel in Bild 2 folgt daraus, dass alle fünf Reihen (lineare) Trends enthalten. Die Frage, ob diese Trends unnatürlich sind, oder ob sie durch Persistenz entstanden sind, kann nicht ohne weiteres beantwortet werden. Allerdings fällt im vorliegenden Fall die Entscheidung leicht, weil alle fünf Reihen aus nicht allzu weit voneinander entfernten Stationen stammen, einen sehr ähnlichen Verlauf und schließlich auch ähnliche alpha-Werte aufweisen. Somit liegt mit hoher Wahrscheinlichkeit tatsächlich ein externer Trend vor.

Erst die in jüngster Zeit entwickelte Methode von Lennartz und Bunde, die nachfolgend beschrieben wird, kann dann die wichtige Frage nach der Unnatürlichkeit eines gemessenen Trends in einer einzelnen Temperaturzeitreihe quantitativ beantworten.

5. Die Methode von Lennartz und Bunde

Bis zum Jahre 2009 ergab für eine Temperaturzeitreihe nur der Vergleich ihrer beiden Hurst-Exponenten alphaFA, alphaDFA aus der FA- und der DFA-Analyse einen Hinweis, ob ein beobachteter (linearer) Trend in ihr externen Ursprungs war. Diese einfache Strategie erlaubte freilich schon wichtige Aussagen. Sie wurde unter anderem in einer Publikation des Jahres 2003 auf 95 weltweit verstreute Temperaturzeitreihen angewendet. Dabei konnten keine Anzeichen für eine globale Erwärmung aufgefunden werden [5]. Lennartz und Bunde (im Folgenden LB) zeigten schließlich in zwei bahnbrechenden Fachaufsätzen der Jahre 2009 und 2011 [3], [4], dass eine wesentliche Erweiterung der oben beschriebenen klassischen Persistenzanalyse hin zu quantitativen Wahrscheinlichkeitsangaben möglich ist. Hierzu verwendeten sie Surrogat-Zeitreihen und untersuchten, wie häufig natürliche (lineare) Trends in ihnen vorkommen. Die maßgebende dimensionslose Größe ist dabei ∆/s. ∆ [°C] ist der Temperaturanstieg bzw. der Temperaturabfall der linearen Regressionsgeraden über die gesamte Länge der Temperaturreihe und s [°C] die Standardabweichung um die Regressionsgerade herum. ∆ ist durch die Standardabweichung zu dividieren, weil die Signifikanz eines Trends mit abnehmender Standardabweichung s zunimmt. Weist die Reihe große Schwankungen, also eine große Standardabweichung s auf, ist der Trend ∆ weniger signifikant als bei kleinem s. Im Extremfall von s = 0 ist der Trend mit dem Verlauf der Zeitreihe identisch, im entgegengesetzten Extremfall beliebig großer Standardabweichung kann bei der geringsten Änderung irgendeines Wertes der Reihe die Regressionsgerade völlig anders verlaufen.

Aus unzähligen Surrogatreihen und Computer-Rechenläufen ermittelten LB für zwei Spezialfälle, nämlich Zeitreihen der festen Längen von 50 und 100 Jahren, charakteristische Diagramme bzw. die zu diesen gehörenden empirischen Rechenformeln [3]. Aus den Diagrammen kann abgelesen werden, mit welcher kumulierten Wahrscheinlichkeit W ein linearer Trend ∆/s unnatürlich (extern) ist. Im Jahre 2011 erweiterten LB ihre Methode schließlich auf allgemeine Zeiträume von 40 bis 160 Jahren Länge [4]. Bild 3 zeigt ein solches Diagramm (vom Autor erstellt) für den Fall von Surrogatreihen von 100 Jahren Länge.

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Persistenz3_01.jpg

Bild 3: Kumulierte Wahrscheinlichkeit W für lineare Trends ∆/ für negative Trends die rechte y-Skala und die obere x-Skala. Die gestrichelte Linie bei W = 0,025 stellt ein Vertrauenslimit dar.

In Surrogatreihen – es sei nochmals daran erinnert, dass Surrogatreihen frei von unnatürlichen Trends sind – treten naturgemäß positive und negative natürliche Trends ∆/s gleich häufig auf. Ferner kommen |∆/s|-Werte zunehmender Stärke immer seltener vor. Dieser Effekt ist für den kleinsten Hurst-Exponenten von alpha ≈ 0.5 (weißes Rauschen, keine Persistenz) naturgemäß am stärksten. In reinen Zufallsreihen ohne Persistenz ist es tatsächlich sehr unwahrscheinlich, Trends mit großen |∆/s|-Werten aufzufinden. Diese Situation ist dem Würfeln analog. Es ist extrem unwahrscheinlich, dass gleiche Augenzahlen zu oft in Reihe vorkommen.  

Bei der Interpretation der Grafik in Bild 3 ist zu beachten, dass W kumulierte Wahrscheinlichkeiten sind. Dies sind hier Wahrscheinlichkeiten, einen Trend ∆/s irgendeines beliebigen Wertes, der über oder gleich einer bestimmten Schwelle liegt, aufzufinden. Betrachten wir nun die Surrogatzeitreihen! Da in ihnen keine externen Trends vorkommen, enthalten sie im Mittel gleich viele positive und negative natürliche Trends. Nehmen wir einen extrem starken negativen Trend -∆/s als Schwelle und irgend ein festes alpha an, so liegt die kumulierte Wahrscheinlichkeit W, in Surrogatreihe mit diesem alpha einen Trend größer oder gleich der extrem starken negativen Schwelle aufzufinden, naturgemäß nahe bei 1. Schließlich enthalten fast alle Surrogatreihen mit diesem alpha irgendwelche Trends, die sämtlich über -∆/s liegen. Wird nun die (immer noch negative) Schwelle erhöht, verkleinert sich W. Die Schwelle ∆/s = 0 schließlich wird im Mittel bereits von 50% aller Trends überschritten, daher ist W = 0,5. Liegt die Schwelle dann im positiven Bereich, wird W mit ansteigender Schwelle immer kleiner. Bei einem extrem hohen positiven ∆/s verschwindet W allmählich.

Das vorbeschriebene Verhalten zeigt die Grafik in Bild 3 mit konkreten Zahlen. Betrachten wir zur näheren Erläuterung 10.000 Surrogatreihen, alle mit alpha = 0,7 und einer Länge von 100 Jahren. Ferner ist zu beachten, dass für ∆/s > 0 die untere x- und die linke y-Skala, für ∆/s =< 0 dagegen die obere x- und die rechte y-Skala gelten. Die Kurve für alpha = 0,7 beginnt für ∆/s = 0 mit W = 0.5 bzw. dem Wert (1-W) = 0,5. In 10.000 Surrogatreihen sind somit 5000 Reihen mit Trends ∆/s >= 0 und 5000 Reihen mit Trends ∆/s =< 0 enthalten (es ist stets das statistische Mittel ohne Fehlerschwankungen gemeint). Diese aus Bild 3 abzulesende Erkenntnis erscheint trivial. Betrachten wir als nächstes den sehr starken, negativen Wert  ∆/s = -2,5. Dafür lesen wir aus der Grafik (1 – W) etwa 10-3 ab. Dies bedeutet, dass 9990 von 10.000 Surrogatreihen der Länge von 100 Jahren und einem alpha = 0,7 einen 100-Jahrestrend von ∆/s >= -2,5 aufweisen. Für den größeren Wert ∆/s = -1 lesen wir (1 – W) =  0,1 ab, somit ist W = 0,9. Somit weisen 9000 Surrogatreihen Trends mit Werten von ∆/s >= -1 auf. Für das noch größere ∆/s = -0,5 sind wir bei (1-W) = 0,2 angekommen, also bei W = 0,8, d.h. 8000 Surrogatreihen enthalten Trends von ∆/s >= -0,5. Wenn schließlich der Wert (1 – W) = W = 0,5 erreicht ist, erhält man, wie bereits beschrieben, 5000 Reihen mit ∆/s – Werten >= 0. Gehen wir nun zu positiven Trends über, etwa zu ∆/s = 1. Wir lesen hierfür W = 0,1 ab, somit enthalten nur noch 1000 Surrogatreihen Trends mit Werten ∆/s >=  1. Für ∆/s  = 2,5 finden wir W = 0,001, also kommen in den 10.000 Surrogatreihen nur noch 10 Reihen mit Trends ∆/s >= 2,5 vor. Man erkennt aus dem Diagramm, dass (für positive Trends) W um mehrere Größenordnungen zunimmt, wenn alpha nur innerhalb einer Größenordnung zunimmt.

Mit Hilfe der Grafik von Bild 3 wird die Strategie des Verfahrens von LB deutlich. Ein Trend in einer real gemessenen Reihe wird als extern (unnatürlich) angesehen, wenn er in Surrogatreihen des gleichen alpha und der gleichen Länge zu selten vorkommt; genauer, wenn für positive Trends die kumulierte Wahrscheinlichkeit W < q bzw. für negative Trends W > (1 – q) aus Bild 3 abgelesen wird. q ist ein frei wählbares statistisches Vertrauenslimit, gewöhnlich nimmt man q = 0,025 bzw. 2,5%. In der praktischen Durchführung der Methode von LB wird der ∆/s-Wert der gemessenen Reihe und danach mit der DFA-Analyse ihr Hurst-Exponent alpha ermittelt. Aus der Grafik von Bild 3 wird aus dem Wertepaar ∆/s, alpha dann die kumulierte Wahrscheinlichkeit W abgelesen. Ergibt sich bei positiven Trends W < 0,025, liegt W also unter dem 2,5%-Limit, wird der Trend der realen Reihe als extern (unnatürlich) angesehen. Das ist anschaulich, denn Trendwerte, die größer oder gleich dem in der realen Reihe beobachteten Trend sind, kommen in den von unnatürlichen Trends freien Surrogatreihen des gleichen alpha nur in weniger als 2,5% aller Fälle vor. Für negative Werte ist das Limit W = 0,975, also 97,5%. Wird aus der Graphik von Bild 3 ein W > 0,975 ermittelt, wird der beobachtete negative Trend als unnatürlich (extern) angesehen.

Die Persistenzanalyse von Temperaturreihen nach der Methode LB wurde von den Autoren in [3], [4] publiziert. Insbesondere haben LB ihr Verfahren in [3] auf 30 Einzelreihen und 15 Globalreihen angewendet. Globalreihen zeigen freilich im Gegensatz zu Einzelreihen ungewöhnlich hohe alpha-Werte, die oft sogar über 1 liegen. Damit wären viele Globalreihen instationär, Einzelreihen dagegen nicht, was widersprüchlich ist. Nach Auffassung des Autors des vorliegenden Aufsatzes wird dieser Effekt durch die Glättungs- und Homogenisierungseingriffe bei der Bildung von Globalreihen verursacht und macht daher Globalreihen zur Persistenzanalyse ungeeignet, s. hierzu auch die Kritik in [22]. Insbesondere wird durch Glättung bei der Globalreihenbildung die Standardabweichung s unrealistisch klein und damit die Trends ∆/s zu stark. Leider gibt es bis heute noch keine Arbeit, die dediziert auf diese Probleme von Globalreihen eingeht. Nach Auffassung des Autors sind daher die in [3] gezogenen Schlussfolgerung über die globale Erwärmung wegen der Verwendung von Globalreihen in Frage zu stellen.

In einer Arbeit des Autors zusammen mit den Koautoren Dr. Link und Prof. Friedrich-Karl Ewert [6] wurden der oben beschriebenen Vorbehalte wegen Globalreihen grundsätzlich ausgeschlossen. Mit dem Verfahren von LB wurden im Wesentlichen hier fast alle brauchbaren Einzelreihen weltweit – insgesamt etwa 2500 – analysiert. Für den Zeitraum von 1906 bis 2005 zeigen nur grob 30% aller Temperaturreihen aus Messtationen mit weniger als 1000 Einwohnern und unter 800 müNN einen unnatürlichen (externen) Trend. Ein ähnliches, nicht ganz so deutliches Ergebnis wurde für den Zeitraum von 1956 – 2005 gefunden. Daraus kann der Schluss gezogen werden, dass mit sehr hoher Wahrscheinlichkeit das anthropogene CO2 nur unmaßgeblich zur Erwärmung im 20. Jahrhundert beigetragen hat. Dieses Ergebnis wird durch den weiteren Umstand gestützt, dass neben anthropogenen Treibhausgasen auch noch eine ganze Reihe weiterer Ursachen für den leichten Erwärmungstrend im 20. Jahrhundert in Frage kommen, zum Beispiel ein ungewöhnliches Verhalten der Sonne (Magnetfeld). Zur Vermeidung von Missverständnissen wird nochmals darauf hingewiesen, dass zwar die in [6] und [3] verwendete Methode identisch ist, die Schlussfolgerungen auf Grund der stark unterschiedlichen Datensätze aber nicht übereinstimmen. Insbesondere wurde in [6] im Gegensatz zu [3] gefunden, dass die globale Erwärmung in der zweiten Hälfte des 20. Jahrhunderts „unnatürlicher“ als in der ersten Hälfte ist, was von [6] nicht bestätigt wird. Die Publikation [6] erfuhr hohe Resonanz, einige Besprechungen sind in [14-20] aufgeführt.

6. Zur heutigen Klimadiskussion

Bis heute gibt es keine begutachtete Fachpublikation, die einen anthropogenen Einfluss auf das Klimageschehen stringent nachzuweisen vermag. Die heutige Klimadiskussion dreht sich daher im Wesentlichen nur noch um die modelltheoretische Frage, ob die aus Labormessungen hergeleitete, unmaßgeblich kleine Klimasensitivität des CO2 – sie liegt grob zwischen 0,5 °C und 1,1 °C – durch Mitkoppelungen verstärkt oder durch Gegenkoppelungen abgeschwächt wird. Eine verlässliche Antwort können nach dem bisher gültigen Paradigma physikalischer Forschung nur Messungen geben. Bis heute weisen bereits eine Reihe von Publikationen Gegenkoppelungen auf der Basis von Ballon- und Satellitenmessungen nach [7]-[11]. Messungen, die eindeutig Mitkoppelungen belegen, gibt es dagegen nicht, nur Klimamodelle mit dieser Eigenschaft. So ist beispielsweise der von diesen Klimamodellen geforderte Hot-Spot (eine Erwärmung in mehreren km Höhe über dem tropischen Gürtel der Erde) unauffindbar. Das vom IPCC entworfene Szenario einer durch anthropogenes CO2 verursachten, gefährlichen globalen Erwärmung wird infolgedessen zunehmend unwahrscheinlicher. Diese Einschätzung wird durch die in [6] publizierten Ergebnisse auf der Basis der modernen Persistenzanalyse gestützt.

7. Zusammenfassung

Die moderne Persistenzanalyse von Lennartz und Bunde stellt einen wesentlichen Fortschritt gegenüber der „klassischen“ Persistenzanalyse dar [3], [4]. Sie erlaubt es erstmalig, die kumulierte Wahrscheinlichkeit anzugeben, mit der ein in einer Temperaturreihe auftretender linearer Trend externe Ursachen hat und daher nicht auf natürliche Weise infolge Persistenz der Temperaturreihe entstanden sein kann. Mit historischen Temperaturreihen aus dem GISS-Pool wurde für den Zeitraum 1906-2005 mit der Methode von LB nachgewiesen, dass nur etwa 30% aller Reihen von Messtationen mit weniger als 1000 Einwohnern und Höhenlagen unter 800 müNN externe Trends aufweisen [6]. Die Ursachen dieser Trends sind unbekannt. Neben anthropogenem CO2 kommen ungewöhnliche Sonnenaktivität und weitere noch nicht näher bekannte Antriebe in Frage. Infolgedessen kann das anthropogene CO2 bei der in klimahistorischem Maßstab ohnehin geringfügigen Erwärmung im 20. Jahrhundert nur eine unbedeutende Nebenrolle gespielt haben. Dieser Befund wird durch die jüngste globale Abkühlung, die nunmehr bereits etwa 17 Jahre andauert, untermauert.

 8. Literaturnachweise

[1] D.L. Turcotte: Fractals and Chaos in Geology and Geophysics, 2nd ed., Cambridge University Press, Cambridge, 1997

[2] J.W. Kantelhardt: Fluktuationen in komplexen Systemen, Habilitationsschrift, Univ. Gießen, 2004: www.physik.uni-halle.de/Fachgruppen/kantel/habil.pdf

[3] S. Lennartz and A. Bunde: Trend evaluation in records with long-term memory: application to global warming, Geophys. Res. Lett., 36, L16706, doi:10.1029/2009GL039516, 2009

[4] S. Lennartz and A. Bunde: Distribution of natural trends in long-term correlated records: a scaling approach, Phys. Rev. E84, 021129, doi:10.1103/PhysRevE84.021129, 2011

[5] J.F. Eichner, E. Koscielny-Bunde, A. Bunde, S. Havlin, and H.-J. Schellnhuber: Power-law persistence and trends in the atmosphere: A detailed study of long temperature records, Phys. Rev. E68, 046133, 2003

[6] H.-J. Lüdecke, R. Link, and F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10, 2011, http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf

[7] G. Paltridge, A. Arking, and M. Pook: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor. Appl. Climatol., 98, p. 351-359, 2009

[8] R.W. Spencer, and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote. Sens. 3, p. 1603-1613, 2011

[9] R.S. Lindzen and Y.-S. Choi: On the determination of climate feedbacks from ERBE data, Geophys. Res. Lett., 36, L16705, 2009

[10] R. Allan: Combining satellite data and models to estimate cloud radiative effect at the surface and in the atmosphere, Meteorol. Appl., 18, p. 3245-333, 2011

[11] H. Harde: How much CO2 really contributes to global warming? Spectroscopic studies and modelling of the influence of H2O, CO2 and CH4 on our climate, Geophys. Res. Abstracts, 13, EGU2011-4505-1, 2011

[12] R. Muller, BEST, Berkeley University, 2011

[13] http://de.wikipedia.org/wiki/ARMA-Modell

[14] http://judithcurry.com/2011/11/07/two-new-papers-vs-best/

[15] http://judithcurry.com/2011/11/08/tols-critique-of-the-ludecke-et-al-papers/

[16] http://judithcurry.com/2011/11/10/ludecke-et-al-respond/

[17] http://judithcurry.com/2011/11/15/ludecke-et-al-respond-part-ii/

[18] wmbriggs.com/blog/?p=4630

[19] http://www.focus.de/wissen/wissenschaft/klima/weltklimakonferenz_2011/tid-24293/weltklimakonferenz-viel-laerm-um-nichts_aid_687885.htm

[20] WUWT: http://tinyurl.com/ae342yp

[21] A. Bunde und J.W. Kantelhardt: Langzeitkorrelationen in der Natur: von Klima, Erbgut und Herzrythmus, Physikalische Blätter 57, Nr. 5, S. 49-54, 2001

[22] E. Steirou and D. Koutsoyiannis: Investigation of methods for hydroclimatic data homogenisation, European Geosciences Union General 2012, Vienna Austria 22-27 April 2012, Session HS.4/AS4.17/CL2.10, http://itia.ntua.gr/en/docinfo/1212/, 2012

[23] http://www.uni-giessen.de/cms/fbz/fb07/fachgebiete/physik/einrichtungen/theorie/institut-fur-theoretische-physik-iii/pub/paper

[24] H. Makse et al.: Method for Generating Long-Term Correlations for Large Systems, ArXiv, http://arxiv.org/abs/cond-mat/9512024

Related Files




NAEB Nachrichten vom 23.Jan13 in den EIKE-News

Die Themen

  1. 1. 1000 EUR für die Energiewende je Haushalt in 2012
  2. 2. Korrespondenz Prof. Dr. Konrad Kleinknecht – Duepmann zu GW (global warming)
  3. 3. Energiewender erhöhen Druck auf Kohlekraftwerke
  4. 4. Will "Die WELT" den Japan-Tourismus ankurbeln oder an den Fukushima-Unfall erinnern?
  5. 5. Zweite Woche ohne Wind und mit schneebedeckten Voltaik-Paneln
  6. 6. Landshuter Zeitung: Nicht nur FAZ, Welt und die ÖR unterdrücken unser Thema
  7. 7. Energetische Bedeutungslosigkeit des Energiewende-Landes in der Welt
  8. 8. Eine neue Religion entsteht: "Klimawandel"
  9. 9. Eberharts Vers: Von KK über Kohle zu Frack (Fracking)

Der vollständige Nachrichtentext hier.

EIKE Redaktion




Dr. Seltsam macht Wissenschaft- Grüner Berliner Politologe veröffentlicht „Working Paper“ über „Klimaskeptiker in Deutschland“

Als Quellen zitiert er vor allem diffamierende Beiträge aus Medien, die entweder staatsnah sind oder von Anzeigenkunden aus der klimainteressierten Versicherungs- und Solarindustrie abhängen, Wikipedia-Weisheiten und Erkenntnisse diverser Webseiten. Auch unterläßt der Autor nicht die Peinlichkeit, sich selbst zu zitieren. Dazu kommt, daß einige Passagen zu EIKE stark an den alarmistischen „Michael’s Climate Blog“ erinnern, der aber nicht als Quelle angegeben wird. An einer Stelle findet sich sogar statt einer Quellenangabe die kryptische Formulierung „aus einem anonym geführten Interview, 09.12.2012“ (vermutlich mit der berühmten Supermarkt-Kassiererin, die ihre Arbeit nur zur Tarnung verrichtet, aber in Wirklichkeit Mitglied einer geheimen CIA-Einheit ist…).

Dagegen werden keine Belege für die im Vorwort der Projektleiter erwähnten „Ergebnisse“ der Studie geliefert, nach denen für die „Klimaskeptiker in Deutschland“ die „Leugnung des Klimawandels […] nicht mehr zentral“ sei. „Aus Klimaleugnern werden Klimapolitikskeptiker. Damit einher geht die Infragestellung der Energiewende.“

Abgesehen davon, daß von niemandem die Existenz des Klimas selbst jemals in Abrede gestellt wurde, ist es sicherlich richtig, daß auf der EIKE-Webseite – die Studie befaßt sich über weite Strecken mit unserem Institut – heute mehr energiepolitische Beiträge erscheinen als noch 2008. Das ist jedoch schlicht darauf zurückzuführen, daß die Schlagzahl bei unseren Veröffentlichungen prinzipiell heute höher ist, als noch vor einigen Jahren. Damit reagieren  EIKE und andere Netzwerke aber lediglich auf Veränderungen der politischen Debatte im Zusammenhang mit sich immer mehr selbst diskreditierenden philosophischen Überbau der „Energiewende“, eine Debatte, deren Intensität sich die alarmistische Fraktion selbst zuzuschreiben hat. Dazu kommt natürlich auch, daß ständig neue Autoren zum EIKE-Team stoßen.

Sicherlich mangelnden naturwissenschaftlichen Kenntnissen geschuldet ist das penetrante Insistieren auf einem „effektiveren Klimaschutz“, den die „Skeptiker“ angeblich hintertreiben. Doch wie soll es möglich sein, etwas zu hintertreiben, was es gar nicht gibt, den „effektiven“ Schutz einer Statistik bzw. der längerfristigen „Neigung“ (griechisch für „Klima“) des Wetters? Einerseits „leugne“ ein Teil der Klimarealisten den Klimawandel, ein anderer Teil zumindest den anthropogen bedingten Klimawandel (auch bei Brunnengräber finden sich die für die Alarmistenfraktion bereits bekannten terminologischen Unklarheiten). Dann wieder würden sich die „Klimaskeptiker“ gegen den „Schutz“ – d. h. die Konservierung – des Klimas einsetzen, das sich angeblich ihrer Meinung nach gar nicht ändert.

Daneben weist das Arbeitspapier auch einen gewissen Unterhaltungswert auf. So wird der Nichteinsatz des ansonsten penetrant verwendeten feministischen großen Binnen-I bei dem Wort „Klimaskeptiker“ gleich in der ersten Fußnote erörtert: „In dieser Studie wird nicht nur auf Grund der Lesbarkeit auf die Schreibweise ‚KlimaskeptikerInnen‘ verzichtet. Es wäre auch unverhältnismäßig: Klimaskeptizismus in Deutschland scheint ein weitgehend männliches Phänomen zu sein.“

Immerhin liefert Brunnengräber einen wichtigen Beleg für unsere These, wonach der alarmistischen Klima-Ideologie häufig keineswegs die naturwissenschaftlich fundierte Sorge um außergewöhnliche Veränderungen in der Erdatmosphäre zugrundeliegt, sondern der Wille, die Ordnung des Grundgesetzes (bzw. der österreichischen und anderer liberaler Verfassungen) zu beseitigen, denn er bezieht sich auf Seite 15 ausdrücklich auf den italienisch-albanischen Kommunisten Antonio Gramsci. In welchem Umfang neogramscianistische Theorien verfassungsfeindlich sind, kann hier nicht erörtert werden. Doch wenn energie- und klimapolitische Fragen auf Probleme der kulturellen Hegemonie heruntergebrochen werden, spielen naturwissenschaftliche Fakten keine Rolle mehr – wie man ja auch jeden Tag aus Politiker-Reden erfahren kann. Befürchtungen seitens der Klimarealisten, manch einem gehe es in der Klima- und Energiedebatte in Wirklichkeit nur um die Durchsetzung einer öko-sozialistischen Agenda, sind also keineswegs einer „Verschwörungstheorie“ geschuldet, was Brunnengräber aus Buchtiteln (!) abzuleiten können meint.
Apropos „Verschwörungstheorie“: Mehrmals konstruiert Brunnengräber eine Nähe zwischen Klima-Realisten und der von ihm denunziatorisch als „braune Energiewirtschaft“ bezeichneten Öl-, Kohle- und Gasindustrie, die über eine objektive Interessengleichheit – immerhin beeinflussen Energiepreise den Alltag jedes einzelnen Menschen – hinausgeht. Bis auf die Erkenntnis, daß Fritz Vahrenholt bis vor kurzem bei RWE angestellt war, kommt dazu jedoch – nichts: „Von diesem Fall abgesehen, ist es schwierig, direkte Kooperationen zwischen der braunen Wirtschaft und den Klimaskeptikern nachzuweisen.“ Diesem Eingeständnis nachgeschoben wird jedoch folgende Frechheit: „Ausnahmen bestätigen wie immer die Regel.“ Um sich dann wieder selbst zu widersprechen: „Sind auch die Klimaskeptiker in Deutschland ein Sprachrohr mächtiger Konzerne oder eng mit diesen verbunden? Diese Frage lässt sich derzeit nicht beantworten. Es wird scheinbar sehr darauf geachtet, dass dieser Schluss nicht gezogen wird. Die inhaltlichen Positionen aber lassen Zusammenhänge vermuten, thematische Überschneidungen gibt es allemal und – siehe oben – einige Kontakte lassen sich nachweisen.“

Nicht verstanden hat Brunnengräber hingegen, daß die meisten Klimarealisten die Prognostizierbarkeit zukünftiger (Wetter-) Ereignisse grundsätzlich in Abrede stellen und daher Klimaprognosen von Computern keinerlei Erkenntniswert zumessen. Bei ihm heißt es dazu jedoch, aus „Sicht der Klimaskeptiker sind Simulationen des Klimas noch gar nicht in der Lage, Partikel, Wasserdampf oder erfolgreich in die Modelle zu integrieren.“ (Hervorhebung hinzugefügt). Denn Klimarealisten gehen nicht nur grundsätzlich davon aus, daß der DWD, das UBA, die Bundeskanzlerin oder ihre Berater das Wetter der fernen Zukunft weder kennen noch beeinflussen können. Sondern sie erwarten auch nicht, daß die Entwicklung der Klima-Modelle irgendwann dazu führen wird, daß man die Zukunft vorhersagen kann. Schließlich halten sie auch Vorhersagen über die Zukunft der Modelle selbst für unwissenschaftliche Wahrsagerei.

Auch über die folgende Aussage des Beitrages könnte man ein Buch schreiben: „Zivilisatorisch hat sich in der westlichen Welt die Vorstellung der Naturbeherrschung durchgesetzt.“ Als Anhänger konstruktivistischer Theorien geht Brunnengräber anscheinend davon aus, daß die weltweit als Common Sense geltende „Vorstellung der Naturbeherrschung“ das „Ergebnis diskursiver Auseinandersetzungen“  (im Westen) und damit eine Frage der Interpretation oder des jeweiligen Standpunktes ist. Die Natur selbst ist demnach ebenfalls als ein „Konstrukt“, eine Art Ideologie anzusehen. Andererseits werden Vorstellungen vom „Schutz“ des Klimas durch irgendwelche „Akteure“, denen auch Brunnengräber anzuhängen scheint, meist „tiefenökologisch“ legitimiert. An  die Stelle der Verdichtung von Allgemeinplätzen zu einer globalen Welterklärungsformel, wie sie von den in der Tradition zahlloser anderer linker „Ismen“ von den Konstruktivisten betrieben wird, tritt bei den Tiefenökologen die Vorstellung von der Natur als einer Wesensheit (Gaia-Ideologie: „Mutter Erde wehrt sich!“ – „Das Klima ist krank!“ usw.). Tatsächlich sind die konstruktivistische und die tiefenökologische Position unvereinbar. Und wenn die „Vorstellung der Naturbeherrschung“ als obsoletes Konzept abgelehnt wird, muß doch auch die Frage erlaubt sein, wie künftig mit gefährlichen Bakterien und Viren umgegangen werden soll, die ja auch Teil der Natur sind.

Typisch für die Argumentationsmuster des Papiers ist auch die Aussage, über den Inhalt des Gespräches zwischen EIKE-Vertretern und Mitarbeitern des „Potsdam Institut für Klimafolgenforschung“ im Mai 2011 sei „nichts an die Presse weitergegeben“ worden. Richtig ist, daß in den deutschen Medien wie immer, wenn etwas nicht ins Weltbild paßt, nichts berichtet wurde. Falsch ist jedoch der Eindruck, der hier offenbar beim Leser erzeugt werden soll, daß es sich um eine Art Geheimtreffen gehandelt hat, über dessen Inhalt nicht einmal ein wichtiger Wissenschaftler wie Herr PD Dr. Brunnengräber etwas herausfinden konnte. Denn auf der EIKE-Webseite wurde das Treffen sogar protokolliert. Teilnehmer von Seiten EIKEs hätten auf Anfrage liebend gerne noch ein paar weitere Details zum Besten gegeben – das Treffen hatte nämlich nicht nur einen gewissen Erkenntnis-,  sondern auch einen hohen Unterhaltungswert.

Abschließend noch ein paar Bemerkungen zum Gesamtprojekt, in dessen Rahmen das Papier erstellt wurde: Seit 2011 besteht eine mit öffentlichen Mitteln finanzierte österreichische Arbeitsgruppe namens CONTRA („Contrarians – their role in the debate on climate change (global warming) and their influence on the Austrian policy making process“), die den Einfluß von „contrarians“ auf die österreichische Politik untersuchen soll. Das ganze wird „aus Mitteln des österreichischen Klima- und Energiefonds“ finanziert und „im Rahmen des Programms ‚ACRP3‘ durchgeführt. Als „beteiligte Institutionen“ werden FAS.research (Wien), das Institut für Meteorologie (BOKU-Met, Wien), die Katholisch-Theologische Privatuniversität (Linz), das Institut für Politikwissenschaft der Universität Wien und die Denkstatt GmbH (Wien) genannt. Im Dezember 2012 wurden „erste Zwischenergebnisse“ vorgestellt. Dabei wurde bekannt, daß für CONTRA 240.000 Euro bereitgestellt wurden. Allerdings sei das Projekt nur eines von 87 „ACRP-Projekten, die mit insgesamt 20 Mio. Euro seit 2008 gefördert“ wurden. Auf der Webseite des Projekts wird darüber hinaus deutlich, das bisher nicht viel herausgekommen ist: Im März 2012 präsentierte CONTRA „bei ‚Planet under Pressure‘ in London“ ein Poster. Im Juni 2012 wurde das Projekt auf einem „Klimatag“ präsentiert und ein (weiteres?) Poster wurde erstellt. Im Dezember hieß es dann auf einer Pressekonferenz, Hauptklimaskeptiker in Österreich seien die Sozialpartner. Irgendwelche weiteren Ergebnisse des Projekts ließen sich nicht auffinden – tu felix Austria!

Interessant auch folgende Aussage aus einer Selbstdarstellung vom Juni 2012: „Vor allem zielt das CONTRA-Projekt darauf, Spannung aus dem Klimadiskurs zu nehmen. Verständnis für die Wurzeln von „Skeptikerpositionen“ (nicht „Leugnerpositionen“) soll gefördert werden, um eine konstruktive Diskussion zu ermöglichen und die öffentliche Akzeptanz von Adaptions- und Mitigationsstrategien zu unterstützen. Im Rahmen des Projekts werden Klimaskeptiker nicht als ‚Feinde‘ perzipiert, ihre Argumente bieten Gelegenheit zur Präzisierung und Optimierung von Narrativen und bringen relevante Perspektiven auf, die der öffentliche Diskurs ansprechen sollte. Das Ziel des Projektes ist ein Erkenntnisgewinn über die Akteure und Netzwerke in der Klimadebatte, die Analyse der wichtigsten Contrarian-Argumente und ihrer ethischen Implikationen sowie besseres Verständnis ihres Einflusses auf die politische Debatte und die österreichischen Medien.“

Denn diese Zielstellung hat Achim Brunnengräber mit seiner Untersuchung unterlaufen. Die österreichische Wissenschaftspolitik muß sich daher die Frage gefallen lassen, ob sie mit ihrem Projekt CONTRA (und möglicherweise auch den 87 weiteren ACRP-Projekten) die bewährte österreichische Sozialpartnerschaft durch Studien wie der hier rezensierten unterminieren will. Immerhin ist deren Verfasser nicht nur Privatdozent an der Freien Universität in Berlin und Anhänger steiler Thesen zu Gott, der Welt und Klimarealisten, sondern – wie auch sein Doktorvater Elmar Altvater und die Ko-Autorin seiner Doktorarbeit (so etwas gibt es tatsächlich) Heike Walk – Anhänger der linksradikalen Occupy-Bewegung. Außerdem ist er gerngesehener Referent bei der Rosa-Luxemburg-Stiftung, die der Partei „Die Linke“ nahesteht. Es ist daher nicht völlig abwegig, Brunnengräbers „Working Paper“ bei den warmistischen Pamphleten statt bei den akademischen Fachaufsätzen abzuheften.

Dr. Holger Thuß, Europäisches Institut für Klima und Energie

Lesen Sie auch hier in Donner & Doria zum Thema




Monckton: Warum es funktioniert, Klimaextremisten vor Gericht zu bringen…

Warum es funktioniert, Klimaextremisten vor Gericht zu bringen

Christopher Monckton of Brenchley

Bild rechts: Christopher Monckton

Ein oder zwei Kommentatoren zu den Beiträgen “Dr.” Helen Caldicott on the unspeakable ABC und “Dr.” Tony dePress at the “University” of Tasmania haben darüber gemeckert, dass einer nicht danach trachten sollte, „Wissenschaftler“ abzuberufen, nur weil sie flagrant professionelle Ethik-Standards gebrochen, gelogen, geschummelt und wissenschaftlichen Betrug begangen haben.

Bleiben wir im Bild. Die juristische Verfolgung ist die tödlichste Waffe, die wir gegen die Extremisten in der Hand haben; Extremisten, die gelogen und gelogen und immer wieder gelogen haben, um auf Linie zu bleiben.

Lügen haben Konsequenzen. Ich habe gestern Abend im Hunter Valley einen Vortrag gehalten. Ein Bergbauingenieur sprach mich danach an. Seine Mine müsse zusätzlich 1 Million Dollar an Kohlenstoff-Steuern zahlen. Sie wird damit noch einige Monate warten in der Hoffnung, dass Tony Abbott, der demnächst ins Amt eingeführt wird, die Rate annullieren wird. Dann und nur dann können Hunderte Arbeitsplätze erhalten bleiben.

Die Agonie auf seinem Gesicht war offensichtlich. Wer hier kommentiert, sollte sich nicht erlauben zu denken, dass die Debatte um das Klima lediglich ein bloßes Kolloquium unter älteren Herrschaften ist ohne Konsequenzen in der realen Welt. Arbeitsplätze, Familien, Lebensweisen stehen zur Disposition.

Die gleiche Furcht und Agonie habe ich in den Gesichtern von Bergarbeitern, Landwirten, Fischern und Landeigentümern in ganz Australien gesehen. Die Kohlenstoffsteuer führt zur Schließung Ihrer Nation. Der Arbeiter wird zuallererst und am schlimmsten getroffen. Er gibt das meiste seines sauer verdienten Geldes für Treibstoff und Strom aus. Die Kohlenstoffsteuer ist eine Kopfsteuer auf die Armen.

Wir hatten schon einige gute Siege vor Gericht. Im Jahr 2007 hat der Londoner High Court den rührseligen Science-Fiction-Komödien-Horror-Film von Al Gore verurteilt. Der Court befand neun Fehler darin für so ernst, dass er angeordnet hat, einen 77 Seiten starken Korrekturband an jede Schule in England zu verteilen. Der Richter sagte: „Das Armageddon-Szenario, dass Gore in seinem Film zeichnet, basiert nicht auf irgendeiner wissenschaftlichen Ansicht“.

Zwei Tage später hat Al Gore den Micky-Maus-Nobelpreis gewonnen. Aber er wurde unter der Wasserlinie gehalten. Jetzt sieht man ihn nicht als einen Propheten, sondern als einen Profiteur.

Die Meckerer der Tu-nichts-Brigade waren selbst dann noch am Werk. Die Anwälte lehnten es ab, den Fall weiter zu verfolgen, weil sie ihm keinerlei Erfolgsaussichten eingeräumt haben. Sie wurden gefeuert.

Die neuen Anwälte haben gesagt, dass es unmöglich sei, gegen die Wissenschaft zu gewinnen und gleichzeitig jedwede wissenschaftliche Aussagen abzulehnen. Der Richter verwarf den Fall. Ich habe ihn wieder hervorgekramt und den Anwälten nahe gelegt, dem Richter zu schreiben und ihn zu fragen, ob er sogar den Film von Al Gore gesehen hatte, bevor er sein Urteil ohne Anhörung gefällt hat.

Vielsagenderweise hat der Richter nicht geantwortet. Ich bestand auf einem anderen Richter – und bekam ihn auch. Dieses Mal taten die Anwälte, was man ihnen gesagt hatte. Ich habe 80 Seiten wissenschaftliche Bezeugungen geschrieben. Bob Carter und Dick Lindzen – Gott segne sie beide – arbeiteten mit dem Dokument, um ihre Beweise zu untermauern und unterzeichneten als Experten-Zeugen. Sowie die andere Seite das gesehen hat, sind sie eingeknickt und haben dem Ankläger 400000 Dollar gezahlt.

Das Ziehen vor Gericht funktioniert, weil die Kräfte der Dunkelheit wissen, dass sie ins Kreuzverhör genommen werden. Sie wissen, dass ihre Lügen an das Tageslicht kommen. Also zerbröseln sie.

„Dr.” Michael Mann, Erzeuger der Hockeyschläger-Graphik, mit der er fälschlicherweise die Mittelalterliche Warmzeit abgeschafft hatte, verklagte Dr. Tim Ball, der seinen Graphik einen wissenschaftlichen Betrug genannt hatte. Tim Balls Verteidigung bestand in seinem Vorschlag, dem Richter die zahlreichen Tricks zu zeigen, mit denen „Dr.“ Mann getan hat, was „Dr.“ Overpeck schon im Jahr 1995 verlangt hatte: „Wir müssen die mittelalterliche Warmzeit abschaffen!“

Um ein Kreuzverhör zu vermeiden, hat „Dr.“ Mann diesen Fall lieber aufgegeben, und zwar zu Kosten, die nicht viel weniger als 1 Million Dollar betragen haben können.

Ich habe vor einigen Jahren die BBC verklagt, als sie mich verleumderisch angegriffen hat. Mir wurde gesagt – schriftlich – dass ich die Gelegenheit hätte, einige Punkte, die ungenau waren, zu verändern. Fette Gelegenheit.

Ich habe darauf bestanden, das Programm vor der Sendung zu sehen. Das war eine Blamage. Ich habe dem Generaldirektor zwei Dutzend faktischer Fehler aufgelistet und zahlreiche andere Verzerrungen in der Berichterstattung [schlocumentary; ?]. Keine Antwort.

Also erwirkte ich vom High Court eine einstweilige Verfügung. Die erste Reaktion der BBC war es zu leugnen, dass das Büro des Generaldirektors meinen Brief erhalten hatte. Da ich aber nicht von gestern bin, habe ich den Brief selbst zugestellt und darauf bestanden, dass der persönliche Assistent des Generaldirektors den Empfang mit seiner Unterschrift bestätigt.

Die BBC knickte ein und kürzte das Programm von 90 Minuten auf eine Stunde zusammen, wobei die überwältigende Mehrheit des blühenden Unsinns herausgeschnitten worden ist. Es gab aber immer noch einige zum Widerspruch herausfordernde Punkte, also wandte ich mich an das Gericht.

Ich habe den Fall selbst ausgefochten. Als ich die beiden Gerichtsanwälten und drei Verteidiger [solicitors] für den Beeb [Slang-Kurzform für BBC; Dank an Herrn Oberdörffer für seinen Hinweis] vorstellte, unterbrach mich der Richter und sagte: „Lord Monckton, ich fürchte, ich muss Ihre Aufmerksamkeit auf einen potentiellen Interessenkonflikt lenken. Sehen Sie, ich bin Mitglied Ihres Clubs!“

Ich hatte keine Einwände und lud den teuren QC [QC = hier wahrscheinlich Queen’s Council, Berater der Königin] ein, seine Meinung kund zu tun. Er hatte ebenfalls keine Einwände, fügte aber hinzu: „Ahem, ich habe auch einen Interessenkonflikt. Ich bin ebenfalls ein Mitglied von Lord Moncktons Club“.

Der Richter hat nicht verhindert, dass der Beeb ein paar Spitzen in meine Richtung abließ. Die BBC veröffentlichte ein gelogenes Statement, dass ich verloren hätte. Aber der Richter hielt die Position „substantiell gewonnen“ aufrecht. Aus einem 90-Minuten-Programm ist ein solches über 60 Minuten geworden. Der Beeb hat verloren.

Es gab ein interessantes Nachspiel. Der Kriecher, der die Sendung erstellt hatte, besuchte mich in Schottland und fragte mich vor der Kamera über die medizinische Erfindung, die mich vor vier Jahren von einer 25 Jahre langen lähmenden Krankheit geheilt hatte. Ich hatte gesagt, dass diese Erfindung gegen viele Infektionen vielversprechend aussieht, aber bis die sich in Vorbereitung befindlichen klinischen Tests abgeschlossen sind, stellen wir keine Behauptungen auf.

Der Kriecher sagte, dass meine Antwort zu lang und zu kompliziert sei. Er forderte mich auf, einfach die Krankheiten aufzulisten, gegen die die Erfindung effektiv sein würde. Ich sagte: „Wir haben einige vielversprechende Hinweise, und vorbehaltlich klinischer Tests ist es möglich, dass wir folgende Infektionen heilen können (es folgte eine Liste dieser Infektionen)“. Der Clip wurde unehrlich bearbeitet. Gesendet worden ist nur „Wir können diese (Liste von Krankheiten) heilen“.

Unmittelbar danach hat sich ein australischer Klimaextremist an der Melbourne „University“ bei den medizinischen Regulatoren in UK darüber beklagt, dass ich unautorisierte klinische Tests durchführte. Die Klage scheiterte nach meinem Hinweis, dass man in der BBC-Sendung böswillig verändert hat, was ich gesagt habe, dass der Extremist mit seiner Korrespondenz gelogen habe und in jedem Fall kein Recht hatte, dazwischen zu funken.

Von jetzt an geht es nicht mehr um einen Mr. Nice Guy. Wenn die vielen Behörden, bei denen ich mich beklagt habe… nicht antworten, werden sie als Nächstes mit gerichtlichen Anordnungen konfrontiert, angemessen zu antworten samt Kosten und Entschädigungsanordnungen.

Dann wird die Polizei gerufen, und jeder Regulator, der meine Klagen nicht untersucht, wird als ein Komplize angeklagt wegen der Tatsache organisierten, systematischen Betrugs.

Inzwischen habe ich herzzerreißende Geschichten gesehen und gehört, von Landwirten, die von ihrem Land durch durchgedrehte Funktionäre vertrieben worden sind, weil sie es gewagt haben einen Felsen zu verschieben; von Fischern, die aus ihren Fischgründen gedrängt worden sind durch ausgekochte Bürokraten, sie sie aufgefordert hatten, Zonen zu benennen, die sie nicht reguliert haben wollten, und die dann als einzige reguliert worden sind; von Bergarbeitern, die durch die Pleite ihrer Unternehmen in den Bankrott getrieben wurden; von Haushalten, denen der Strom abgeschaltet worden ist, weil sie nicht die monströsen, von den Kohlenstoffsteuern verteuerten Rechnungen bezahlen konnten; von zu Tode erschrockenen Geschäftsleuten, wegen der bloßen Erwähnung der Kohlenstoffsteuer mit einer Strafe von 1,1 Millionen Dollar belegt zu werden; von dem Terrorregime in der freien Landschaft, das Tausende Landwirte vom Land vertrieben hat im Namen einer absurden Umwelt-Überregulierung. All das und noch mehr habe ich in nur wenigen Wochen gesehen, und ich bin nicht länger bereit, mich zurückzulehnen und die Lügner, Schummler und Betrüger gewinnen zu lassen.

In den meisten Fällen, wo ich helfen sollte, habe ich keine Berechtigung zu intervenieren. Aber wenn die Lügner Lügen über mich verbreiten, wenn die Betrüger die wissenschaftliche Wahrheit leugnen, sobald ich diese beim Namen nenne; wenn die Schummler mit grundlosen Angriffen auf mich aufwarten, dann habe ich die Gelegenheit zum Zurückschlagen; nicht so sehr um meiner selbst willen, sondern wegen der stillen, gebrochenen Millionen, die nicht für sich selbst sprechen können, und von denen sich unsere politische Klasse nicht mehr die Mühe macht, sie zu vertreten. Irgendjemand muss für sie sprechen und für sie kämpfen. Das kann genauso gut ich sein.

Link: http://joannenova.com.au/2013/03/monckton-explains-why-taking-climate-extremists-to-court-works-and-uni-tas-agrees-to-investigate/

Übersetzt von Chris Frey EIKE




Tu felix Austria, hast Du es besser?

Die Veranstaltung in Linz war zweifellos von einer lokal oberösterreichischen Problematik geprägt. Eines der modernsten Stahlwerke Europas (Vöst-Alpine) ist in Sachen  CO2-Vermeidung und Umweltschutz bemüht mustergültig. Dennoch wird es von der EU mit hohen CO2-Emissionszahlungen belastet, die seine Produktivität, Kostenstruktur und Arbeitsplätze gefährden. Bei dem die Veranstaltug abschließenden Abendessen konnte ich in persönlichen Gesprächen erfahren, wie sehr die grüne EU-Politik dazu beiträgt, den anfänglich guten Willen auf ein weiter zusammenwachsendes Europas auch bei Gutwilligen zu erschüttern. Linz ist definitiv schlecht auf Brüssel zu sprechen. Vermutlich haben die grünen Kommssare der EU in ihrem Sendungsbewusstsein dies noch nicht einmal bemerkt, geschweige denn die Gründe dafür verstanden.

Nach einleitenden Worten des Vereinsvorsitzenden Adalbert Cramer sprachen auf der Veranstaltung des LK OÖ insgesamt vier Referenten in der  Reihenfolge: Horst-Joachim Lüdecke, Wolfgang Neumann, Andreas Unterberger und Manfred Haimbuchner. Die Besucherzahl der Veranstaltung war selbst für den nicht gerade kleinen Vortragssaal zu groß. Die auf die Vorträge folgende Podiums-Diskussion unter Einbeziehung von Fragen aus dem Publikum hatte den Charakter eines offenen Meinungsaustauschs, wie er in Ländern mit gesunden demokratischen Strukturen eigentlich die Regel sein sollte. Es waren leider keine sachkundigen Vertreter einer menschgemachten Erwärmung anwesend, insofern fehlte etwas die Würze von konträren Auffassungen und Diskussionen. Auf Fragen und Anmerkungen aus dem Publikum, die auf Grund der vielen anwesenden Ingenieure und Naturwissenschaftler oft recht interessant waren, konnte wegen des guten Zeitmanagements des Veranstalters ausreichend detailliert eingegangen werden.

Solche Veranstaltungen würde man sich auch hierzulande vermehrt wünschen, insbesondere mit Anwesenheit der AGW-Alarmisten, wie M. Latif, S. Rahmstorf, H. Graßl und weiteren. Dem deutschen Publikum dürfen die Fakten und unterschiedlichen Standpunkte nicht länger vorenthalten bleiben. Freilich kneifen die AGW-Alarmisten erfahrungsgemäß, wenn sie sich der offenen Diskussion mit Klimaskeptikern stellen sollen. Bei ihrer zunehmend brüchigeren Argumentatiosnbasis haben sie allen Grund dazu.

Die fesselnden Vorträge von Dr. Andreas Unterberger und Dr. Manfred Haimbuchner betonten die politischen Aspekte der Klimahysterie. Auf mich persönlich machte der Vortrag von Haimbuchner einen besonders nachhaltigen Eindruck, weil aus ihm die durch die CO2-Hysterie verursachten Probleme in Wohnungsbau und Wohnungsplanung von Oberösterreich dem Publikum sehr plastisch vor Augen geführt wurden. Erst der sachliche Unsinn der täglichen Vorschriftenpraxis beim Hausbau in Sachen „Klimaschutz“ zeigt, welchem Abersinn sich Europa hier freiwillig und ohne jeden erkennbaren Nutzen verschrieben hat.

Der Vortrag von Wolfgang Neumann fiel gegenüber den anderen Vorträgen dagegen leider ab, weil er mit dem Thema der Veranstaltung nichts zu tun hatte. Der engagiert vorgetragenen Wunsch und praktisch der einzige Themenpunkt Neumanns, den Entwicklungsländern zu mehr bezahlbare Energie zu verhelfen, wird jeder Anwesende der Veranstaltung aus vollem Herzen und uneingeschränkt geteilt haben. Dieser Wunsch hatte allerdings mit dem Veranstaltungsthema nichts zu tun. Man darf füglich daran zweifeln, ob das Verbot von Glübirnen, der Emissionshandel, schimmelpilzträchtige deutsche Fassadendämmungen oder gar die geisteskranken Pläne einer Verpressung von CO2 in den Erduntergrund einer besseren Energieversorgung in Entwicklungsländern auf die Sprünge helfen können.

Prof. Dr. Horst-Joachim Lüdecke

EIKE Pressesprecher

Related Files




Grüner Energie-Wahnsinn – aber nicht unterkriegen lassen!

Energie verbrauchen und glücklich dabei sein

Steve Goreham, zuerst veröffentlicht in The Washington Times.

Vorige Woche habe ich einen „Home Energy Report“ in Gestalt eines Flyers von Commonwealth Edison, meinem Energieversorger, erhalten. Das Blättchen verglich meinen Energieverbrauch mit dem der Nachbarn während der letzten zwei Monate und kam zu dem Ergebnis: „Sie haben 41% MEHR Energie verbraucht als Ihre effizienten Nachbarn!“ Sollte ich mir darüber Sorgen machen?

Meine Frau und ich, wir verbrauchen Energie, verschwenden sie aber nicht. Jahrelang habe ich meine Familie verrückt gemacht und in allen gerade nicht benutzten Räumen das Licht ausgeknipst. Im Sommer trocknet meine Frau die Wäsche in der Sonne und nicht im Trockner. Wir haben auch viele der kompakten fluoreszierenden Glühlampen. All das tun wir, um unsere Stromrechnung zu reduzieren und nicht aus anderen Motiven.

Ist es nicht eigenartig, dass ComEd, ein Unternehmen der Energiebranche, ihre Kunden ermutigt, Energie nicht zu verbrauchen? Man stelle sich einen Händler bei Coca Cola vor, der Ihnen vorhält, dass sie 41% MEHR Soft Drinks konsumieren als Ihr Nachbar. Oder einen Brief von Apple des Inhalts, dass Sie den Gebrauch Ihres iPhones oder iPads reduzieren müssen.

Ein Besuch auf der Website von ComEd gibt einige Antworten. Erstens, das Unternehmen ist verpflichtet, Teile der Kundengelder zu verwenden, um Verbraucher in Illinois zur Reduzierung ihres Stromverbrauchs zu drängen, und zwar im Zuge des Illinois Public Act 95-0481. Aber zweitens ist die Website gefüllt mit ideologischem Unsinn. Im Menüpunkt Energie sparen auf der Website findet man einen gelben „Power Bandit“ und das Statement „Energie sparen hat nie so viel Spaß gemacht! Schlage den Power Bandit und lernen Sie viele Möglichkeiten kennen, Energie zu sparen, Geld zu sparen und zu helfen, den Planeten zu retten!“ Glaubt ComEd wirklich, dass wir den Planeten retten können, indem wir einige Glühlampen austauschen?

Seit Jahrzehnten haben Umweltgruppen der Energie den Krieg erklärt. Sie warnen, dass zunehmender Energieverbrauch die Erde verschmutzen und das Klima zerstören würde, und dass natürliche Ressourcen rasch erschöpft werden. Sie verlangen den Ersatz des traditionellen Verbrauchs von Kohlenstoff und Kernkraft durch schwächere, nur zeitweilig zur Verfügung stehende und teure Biotreibstoffe, Solar- und Windenergie, was ein exzellenter Weg ist, den Energieverbrauch zu reduzieren. Sie sagen uns, dass Nationen mit dem höchsten Energieverbrauch auch die höchsten Umweltschäden verursachen.

Nationale und staatliche Regierungen haben den Angelhaken „Energieverbrauch ist schlecht“ geschluckt, einschließlich Schwimmer und Reißleine. 29 Staaten haben Gesetze zu Renewable Portfolio Standards in Kraft gesetzt, die vorschreiben, einen bestimmten zunehmenden Prozentsatz erneuerbarer Energie zu verbrauchen oder bestraft zu werden. Hunderte staatlicher Maßnahmen subventionieren und fordern einen reduzierten oder erneuerbaren Energieverbrauch, einschließlich des Verbots von Glühlampen, Fernfahrten mit Autos sowie mit Subventionen für Solar und Wind, Biodiesel und Programme zur Energieeffizienz. Diese politischen Maßnahmen sammeln Steuern von den Bewohnern und lassen die Stromkosten explodieren.

Aber aktuelle Trends und empirische Daten zeigen, dass unser Planet nicht in unmittelbarer Gefahr schwebt. Luft- und Wasserverschmutzung in den USA befinden sich auf einem fünfzig-Jahres-Tief. Daten der EPA zufolge hat das Niveau von sechs wesentlichen Verschmutzern der Luft von 1980 bis 2009 um 57% abgenommen, obwohl der Energieverbrauch um 21 Prozent gestiegen ist und die gefahrenen Kilometer um 93% zugenommen haben. Internationale Daten zeigen, dass die Verschmutzung in Nationen mit hohem Einkommen am niedrigsten ist, obwohl sehr viel Energie verbraucht wird (beispielsweise Kanada und Schweden), aber in Entwicklungsländern am höchsten ist (beispielsweise Indien und Indonesien). Der beste Weg, die Verschmutzung in Entwicklungsländern zu verringern, ist eine Steigerung des Pro-Kopf-Einkommens und nicht die Begrenzung des Energieverbrauchs.

Auch gibt es keine empirischen Beweise, die zeigen, dass die Menschheit das Klima der Erde zerstört. Die vergleichsweise kleinen Emissionen der Menschheit von CO2, einem Spurengas in unserer Atmosphäre, haben nur einen unwichtigen Anteil am Treibhauseffekt. Die globalen Temperaturen waren seit mehr als zehn Jahren flach verlaufen, trotz eines Anstiegs des atmosphärischen CO2-Gehaltes. Hunderte begutachteter Studien zeigen vor 1000 Jahren höhere Temperaturen als heute. Eine Durchsicht der Historie zeigt, dass Stürme, Dürren und Überschwemmungen weder häufiger noch stärker auftreten als vergangene Ereignisse.

Wir schöpfen auch nicht die Energieressourcen der Erde aus. Wir stehen am Beginn einer Kohlenstoff-Revolution, ausgelöst durch die neuen Techniken des hydraulischen Brechens und horizontaler Bohrungen. Die Menschheit hat jetzt Zugang zu Jahrhunderte lang reichenden Vorräten von Petroleum und Erdgas aus Schieferfeldern, die man kosteneffektiv und umweltfreundlich ausbeuten kann.

Und doch setzt sich die „Energie-ist-schlecht”-Ideologie fort. Hochschulabsolventen wird beigebracht, dass erneuerbare Energien gut sind und Kohlenstoff-Energie schlecht. Die EPA führt Krieg gegen die US-Kohleindustrie. Demonstranten drängen Präsident Obama, die Keystone-Pipeline zu stoppen. Und Energieversorger sagen uns, wie wir „den Planeten retten“ können.

Übrigens wird in Berichten festgestellt, dass das Haus des ehemaligen Vizepräsidenten Al Gore mit 20 Räumen etwa 20 mal so viel Energie verbraucht  wie der nationale mittlere Haushalt. Ich frage mich, welches Rating Mr. Gore von ComEd in einem „Home Energy Report“ verpasst bekommen würde.

Steve Goreham ist geschäftsführender Direktor der Climate Science Coalition of America und Autor des neuen Buches The Mad, Mad, Mad World of Climatism: Mankind and Climate Change Mania.

Link: http://wattsupwiththat.com/2013/02/27/using-energy-and-happy-about-it/#more-80830

Übersetzt von Chris Frey EIKE

 

Grüner Wahnsinn: Kalifornien vor Energiekrise wegen erneuerbarer Energie

Rebecca Smith, The Wall Street Journal

Kalifornien überlegt, wie man eine drohende Stromkrise vermeiden kann, die durch die wachsende Abhängigkeit dieses US-Bundesstaates von Solar- und Windkraft herrührt.

Regulatoren und Energieunternehmen haben sich am Dienstag in der Hoffnung getroffen, eine Lösung hinsichtlich des eigenartigen Stresses, dem das staatliche Netzwerk durch die starke Zunahme von Solar- und Windenergie ausgesetzt ist, zu finden. Die Energieerzeugung durch Erneuerbare fluktuiert erheblich, abhängig von Windgeschwindigkeit und Wetter.

Kalifornien hat das Wachstum von Solar- und Windstrom gefördert, um zu helfen, Treibhausgasemissionen zu reduzieren. Gleichzeitig verfügt der Staat nur über wenige konventionelle Kraftwerke wie zum Beispiel solche, die durch Erdgas betrieben werden, die ihren Output je nach Bedarf anpassen können, um das Netz stabil zu halten. Die ins Netz eingespeiste Energiemenge muss genau der gerade verbrauchten Menge entsprechen. Ist das nicht der Fall, drohen Blackouts.

Auf dem Treffen am Dienstag warnten Experten, dass es bereits im Jahr 2015 im Staat zu Problemen mit einer zuverlässigen Energieversorgung kommen könnte.

Kalifornien ist nicht der einzige US-Bundesstaat, der mit dem zunehmenden Anteil von Erneuerbaren Probleme hat. Texas bräuchte ebenfalls mehr Ressourcen wie gasbetriebene Kraftwerke, die sich dem Verbrauch im Ausgleich zum unvorhersagbaren Verhalten von Windparks anpassen.

Mehr: http://www.thegwpf.org/green-madness-californias-faces-electricity-crisis-due-renewable-energy/#sthash.3sjas58C.dpuf

Link: http://www.thegwpf.org/green-madness-californias-faces-electricity-crisis-due-renewable-energy/

Beide Artikel übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Die Winter werden in Deutschland seit einem Vierteljahrhundert deutlich kälter

Aufgrund des Medieninteresses an der sommerlichen Eisschmelze der arktischen Meereisbedeckung und der in 2012 dort vermehrt aufgetretenen Sommereisschmelze, wird zuweilen übersehen, dass wir uns gegenwärtig nicht mehr in einem Aufwärtstrend der Temperaturen, sondern, im Gegenteil, in einem deutlichen Abwärtstrend befinden. Dies wird besonders bei der Betrachtung der „kalten“ Temperaturen, nämlich der Wintertemperaturen deutlich. Wogegen die in den letzten Jahren und verstärkt in 2012 in der arktischen Meereisbedeckung zu verzeichneten „Rekord“-Sommereisschmelze auf die im Meer gespeicherte Sonnenenergie zurückzuführen ist – einer von uns (Leistenschneider) konnte in seinem EIKE-Bericht aufzeigen, dass dies wesentlich auf die warme AMO zurückzuführen ist (http://www.eike-klima-energie.eu/climategate-anzeige/arktische-sommereisschmelze-2012-menetekel-oder-nuechterne-wissenschaft/) – die der Sonnenaktivität nach Untersuchungen von Prof. Solanki (MPI-S) um ca. 10 Jahre nachläuft, zeichnet sich in den Landwintertemperaturen die solare Aktivität unmittelbarer ab, was wir in kalten Temperaturen verspüren. So wird unser Kurzbericht zeigen, dass die empfundenen kalten Winter nicht auf subjektiven Einschätzungen beruhen, sondern sich in den DWD-Datensätzen nachweislich zeigen und daher nicht mehr bestritten werden kann, dass wir uns in Deutschland bereits seit fast 30 Jahren in einer Abkühlungsphase befinden, die auch nach den Statuten der Klimawissenschaft als solche zu bezeichnen ist.

Unsere Winter in Deutschland werden deutlich kälter. Das zeigen die nachfolgenden 3 Grafiken der Wintertemperaturen Deutschlands über verschiedene Zeiträume: Als Winter gelten die drei Monate Dezember/Januar/Februar, wobei der Dezember von z.B. 2012 dem Winter 2013 zugerechnet wird.

Die letzten 15/16 Jahre der deutschen Wintertemperaturen sind dann überraschend eindeutig, ja schon beängstigend fallend.

Wir erinnern uns an die populistischen Vorhersagen von Latif und Co. aus den 1990er und 2000er Jahren, die von den wenig bewanderten deutschen Journalisten nur zu gerne aufgegriffen wurden: „Deutschland wird schon bald keine Winter mehr erleben“. „Schnee gibt es nur noch in den Hochlagen der Gebirge“. „Schnee wird zu einem seltenen Ereignis für die Kinder“, „Grüne“ Weihnachten sollte es ständig geben, und in den Mittelgebirgen müsse der Tourismus nach Alternativen für den fehlenden Schnee suchen

Abb1: Datensatz, Quelle DWD. Klimaerwärmung, das war einmal. Aber immer noch sind die Märchenonkel u.a. vom PIK Potsdam, mit den Posaunenträgern von ZDF, Zeit und Co. unterwegs und warnen vor einer sich fortsetzenden beschleunigenden Erwärmung. Offensichtlich haben die kalten Temperaturen und der viele Schnee dort zu Sinnestäuschungen oder gar zu Schneeblindheit geführt.

Wir kommen somit zum ersten Ergebnis:

Es gibt schon lange keinen sich fortsetzenden Erwärmungstrend mehr. Das wird fälschlicherweise oft noch in den Medien behauptet. In Deutschland wird es wieder kälter und nicht wärmer. Das zeigen die Jahresmittel des DWD. Die Abkühlung ist jedoch nicht über das ganze Jahr gleichmäßig verteilt. Die drei Wintermonate wurden vor allem kälter und das beängstigend deutlich nach 16 Jahren, aber auch deutlich  seit mehr als 25 Jahren, – siehe Abb.2- während die drei Sommermonate in Deutschland noch lange warm waren.

Wir betrachten nun den Temperaturverlauf der letzten 26 Jahre für den Winter in Deutschland. Die Überraschung ist groß, denn die Trendlinie zeigt auch für diesen langen Zeitraum bereits einen deutlichen Rückgang. Der warme Ausreißer 2007 kann die Abkühlung auch nicht mehr stoppen 

Abb2: Seit über 26 Jahren haben wir bei den Wintertemperaturen einen abnehmenden Trend. Das mag bislang nicht aufgefallen sein, da alle Betrachtungen die Jahresmittel heranziehen. Aber selbst dort zeigt die Trendlinie seit 2001 deutlich nach unten (Abbildung 3).

Die Temperaturzeitreihen des DWD findet man hier:

 http://www.dwd.de/bvbw/appmanager/bvbw/dwdwwwDesktop?_nfpb=true&_state=maximized&_windowLabel=T82002&T82002gsbDocumentPath=Navigation%2FOeffentlichkeit%2FKlima__Umwelt%2FKlimadaten%2Fkldaten__kostenfrei%2Fdaten__gebietsmittel__node.html%3F__nnn%3Dtrue&_pageLabel=_dwdwww_klima_umwelt_klimadaten_deutschland

Der bereits lang anhaltende Abwärtstrend von über 26 Jahren ist durchaus überraschend, denn bislang wurden in der Klimadebatte fast nur die Jahresmittel einer Betrachtung unterzogen. Und bei den deutschen Jahresmitteln haben wir erst seit 2001 keine Erwärmung mehr und seit 12 Jahren einen deutlichen Abkühlungstrend. Bei den deutschen Jahresmitteln endete die Erwärmung im Jahr 2000. Die vorangegangene leichte Erwärmung der Gesamtjahre wurde durch die aktuelle, seit 12 Jahren andauernde Abkühlung bereits weitgehend egalisiert (Abbildungen 3 und 4).

Beim weiteren Betrachten möge man unterscheiden zwischen Wintertemperaturen und Temperaturen der Gesamtjahre. Abb. 3und 4 sind die Gesamtjahre.

 

Abbildungen 3 und 4: Seit 2001 fallen auch die Jahresmittelwerte der Temperaturen in Deutschland deutlich. Die leichte Erwärmungsphase davor wurde durch den seit mehr als 10 Jahren anhaltenden Abwärtstrend der Jahresmittelwerte egalisiert. Der atmosphärische CO2-Pegel hat erkennbar nichts mit der Temperaturentwicklung zu tun.

Unsere jetzt gezeigten Charts beweisen eindeutig: Die Temperaturtrends der Winter zeigen viel deutlicher nach unten, obwohl der Wärmeinseleffekt besonders im Winter dem Abkühlungstrend, zumindest in den Städten entgegenwirkt und in unseren Datenreihen noch nicht berücksichtigt wurde. Es ist demnach davon auszugehen, dass der WI-bereinigte Abkühlungstrend noch drastischer ausfällt.

26 Jahre Abkühlung in Deutschland. Unsere Auswertung der DWD-Datensätze geben all den Bürgern recht, denen bereits seit Jahren in ihrem eigenen Umfeld aufgefallen ist, dass etwas mit dem verlautbaren Erwärmungstrend nicht stimmen kann, da die gefühlten Temperaturen eine andere Sprache sprechen. Sie wissen nun, dass nicht sie sich irrten, sondern all diejenigen, die aus eigenen Zielsetzungen und unkritischem Journalismus Falschmeldungen am laufenden Band produzierten und immer noch produzieren. Selbst beim Klimazeitraum von 30 Jahren – nur ein Hauch von 26 Jahren entfernt – ist die Erwärmungsphase vorbei und steht kurz davor, in eine Abkühlung umzuschlagen, wie Abbildung 5 zeigt.

Abb 5: Betrachtet man die Wintertemperaturen Deutschlands (Originalwerte des DWD) der letzten 31 Jahre (1983 bis 2013 sind 31 Werte), dann ergibt das Polynom ziemlich einen Kreisabschnitt. Anfangs noch 14 Jahre rauf, Wendejahre, nun seit 14 Jahren wieder runter. Wir haben wieder (fast) die Ausgangstemperaturen wie vor 31 Jahren erreicht.

In der Temperatur-Zeitreihe nach Daten des Deutschen Wetterdienstes ist der historisch sich entwickelnde flächenhafte Wärmeinseleffekt, der aufgrund der immer noch anhaltenden Landschafsversiegelung und Verstädterung auch in Deutschland noch zunehmend ist, als Korrekturfaktor noch nicht eingerechnet. Er beträgt für diesen Zeitraum für die Jahrestemperaturwerte etwa 0,4 bis 0,5°C. Unter Berücksichtigung einer Winterkomponente des WI (wir hatten bisher stets die Jahreskomponente ermittelt und betrachtet) gehen wir anhand des Messnetzes des Deutschen Wetterdienstes und seiner teils städtischen oder stadtnahen Messstationen von einer realen Abkühlung der Wintertemperaturen auch für die letzten 30 Jahre aus. Der nun zu Ende gegangene „meteorologische“ Winter (Dez. bis Feb.) 2012/13 wies mit einer Deutschland- Temperatur von 0,3°C einen deutlich tieferen Wert auf, als das Deutschlandmittel der vorausgegangenen 30 Winter (1982/83 bis 2011/12) mit 1,0°C.

Die Wintertrendlinie hat wieder den Schnitt der relativ kalten Vergleichsperiode 1961 bis 1990 erreicht (0,2 Grad) und nun sogar leicht unterschritten.

Eine wahrhaft beispielhafte Ironie der Erwärmungstrommler und Panikwissenschaftler um Latif und Co. Seitdem diese und noch viele andere Orakelsprüche zur Jahrtausendwende und davor erstmals verkündet wurden, geht es beängstigend deutlich abwärts mit den Winter- und Jahrestemperaturen. Beängstigend daher, da wärmere Temperaturen für all unsere Bereiche, beginnend der Energieversorgung, bis zur Landwirtschaft, segensreich und kältere Temperaturen schlecht sind.

Die Politik ist den immer kälteren Wintern übrigens bereits gerecht geworden – mit der Winterreifenpflicht. Winterreifenpflicht und Erderwärmung kann man wohl nur den dümmsten erzählen. Wie es den Anschein hat, sind die insbesondere beim deutschen Journalismus zu finden. Auch eine gute Wärmeisolierung bei Gebäuden ist allein wegen der Abkühlung notwendig und nicht wegen der behaupteten Erwärmung der Climaclowns, die allerdings von ihren Falschaussagen immer noch gut leben, da die Medien und Politiker, von Ausnahmen abgesehen, sowohl beim Schutz des Bürgers, als auch bei dessen Aufklärung restlos versagen.

Die Klimaerwärmung ist vorbei. Von mediterranen Verhältnissen beim Wetter in unserem Land, müssen wir uns verabschieden. Wir gehen skandinavischen Verhältnissen entgegen oder den Klimaverhältnissen, wie wir sie aus der Literatur der Kleinen Eiszeit kennen. Dies zeigt leider unser Zentralgestirn, dem wir die Wärme auf der Erde zu verdanken haben. Bis zur Jahrtausendwende hatte der Hauptsonnenzyklus in seiner Aktivität stetig zugenommen, um 2003 sein im Mittel 208-jähriges Maximum zu erreichen. Wie nach jedem Hauptsonnenzyklus über die letzten tausende von Jahren, fallen die Temperaturen auf der Erde anschließend deutlich. Wir sind mitten in der sich abzeichneten Abkühlungsphase, wie Leistenschneider bereits 2011 in seiner Reihe „Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ (http://www.eike-klima-energie.eu/lesezeichen-anzeige/teil-8-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/) aufgezeigt hat. Abbildung 6 und 7 zeigen kurze Zusammenfassungen.

Abbildung 6 zeigt die solare Aktivität der Sonne anhand von Beobachtungen, bzw. aus Proxys (14C), Quelle: “Zusammenhänge und Wechselwirkungen im Klimasystem“ (http://edoc.hu-berlin.de/miscellanies/ klimawandel-28044/1/PDF/1.pdf). Nach jedem Maxima im Hauptsonnenzyklus (de Vries/Suess-Zyklus) fallen die Temperaturen deutlich.

Gleiches Bild für die letzten 10.000 Jahre (Abbildung 7)

 

Abbildung 7 zeigt den Hallstatt-Zyklus (rot), der den de Vries/Suess-Zyklus (schwarz) moderiert von 10.000 BP bis heute, Quelle: United States Geological Survey. Auch hier deutlich im Proxy 14C abgebildet, jedem Maximum folgt ein schneller „Abstieg“.

Ein bisschen Ironie sei uns noch erlaubt: Seitdem der Weltklimarat vor gut 25 Jahren gegründet wurde, sind die Temperaturen nicht mehr weiter gestiegen. Er hat gute Arbeit geleistet, das Geld ist gut angelegt. Aber jetzt könnte er seine Arbeit einstellen. Jetzt reicht es mit der Abkühlung. Wir befürchten nur, dass all dies auf die Natur keinen Eindruck machen wird und die Sonnenphysik ihren Lauf geht und die Sonne in ihrer Aktivität weiter abfallen wird – wie nach jedem Hauptsonnenzyklus.

Unser Bericht und die darin gezeigten Charts sollen dazu dienen, all diejenigen in die Schranken zu verweisen, die uns durch falsche Angaben ein schlechtes Gewissen einreden wollen, um uns dann trefflich abzocken zu können. Zeigen sie all denjenigen, die rote Karte. Dieses Jahr stehen Wahlen an, zeigen Sie weiter, was Sie von denjenigen halten, die Fegefeuer aufzeichnen, um anschließend Ablass zu verlangen oder Wählerstimmen einzusammeln. Die sich als „Gutmenschen“ darstellen, aber bei näherer Betrachtung als Wolf im Schafspelz erkennbar sind. Dass diese Leute es jedoch nicht nur mit Schafen zu tun haben, dafür werden auch wir von EIKE sorgen.

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE




Vollkommen übertrieben: Die menschlichen Verluste des Klima-Alarmismus’

Bild rechts: Andrew T. Guzman, Jura-Professor und Umweltaktivist.

In der Buchrezension wird der offensichtlich überhitzte Autor mit den Worten zitiert:

Guzman verankert sein Untergangsszenario in Statistiken. Die zehn wärmsten Jahre seit 1880 seien allesamt nach 1998 aufgetreten. Dann folgt eine Schätzung, der zufolge die jährliche globale Todesrate durch die Klimaänderung schon jetzt bei 300000 liege.

Wenn ich eine wahllos heraus gegriffene Zahl wie eine jährliche Todesrate von 300000 durch die „Klimaänderung“ sehe, fängt mein legendärer Detektor wie wild zu klingeln an. Wo haben sie die Leichen versteckt? Also habe ich mich entschlossen, die wilden Zahlen und ihre Spur bis zurück zu ihrem Ursprung zu verfolgen.

Zu Beginn der Jagd musste ich die Passage aus dem Buch selbst zurückverfolgen. Ich habe die Stelle bei Guzman gefunden:

…Klimaänderungen verursachten jährlich über 150000 Todesopfer (Kofi Annan, der Generalsekretär der UN, beziffert die Zahl mit 300000).

OK, folgen wir dieser neuen Spur. Was in aller Welt wusste Kofi Annan, gescheiterter UN-Botschafter in Syrien, davor Generalsekretär der UN und unter permanentem Korruptionsverdacht, über die Klimatoten?

Also wirklich, dreihunderttausend Tote durch die Klimaänderung JEDES JAHR? Drei Millionen Tote durch die Klimaänderung in einem Jahrzehnt? Würde da nicht jemand bemerkt haben, wie sich die Leichen auftürmen? Aber ich schweife ab… es stellte sich heraus, dass Kofi Annan keineswegs die Quelle dieser Zahlen war.

Es stellte sich heraus, dass Annan seine eigene Stiftung für Haustiere namens Global Humanitarian Foundation hat. Jeder sollte seine eigene Stiftung haben, sie sind sehr nützlich. Die Stiftung kann das sagen, was Sie wollen. Dann kann man selbst autoritativ das Gleiche behaupten … und seine eigene Stiftung als Stütze für sein Statement heranziehen. Dann ist es nämlich nicht mehr nur seine eigene Meinung, sondern man verkündet einfach und unparteiisch die Fakten.

Weitere Forschungen enthüllten, dass diese besagte Stiftung einen aufgeblasenen Bericht (PDF) heraus gebracht hat mit dem Titel „The Anatomy of a Silent Crisis“ [etwa: „Die Anatomie einer stillen Krise“]. In der Zusammenfassung taucht wieder diese mysteriöse Zahl 300000 auf; wir sind also auf der richtigen Spur:

Die Ergebnisse des Berichtes zeigen, dass die Klimaänderung in jedem Jahr 300000 Tote hinterlässt sowie 325 Millionen ernstlich Betroffene und wirtschaftliche Verluste in Höhe von 125 Milliarden US-Dollar.

Weiter unten erscheint diese alarmierende Graphik:

Abbildung: Angst machende Graphik aus dem „Silent Crisis“-Bericht, die zeigt, wie wirklich still die Krise sein muss, sehen doch die Leute den Tsunami, aber niemand hat die in rot gezeigten Toten bemerkt. Der Tsunami hat sich einmal ereignet, und sie sagen, dass die Toten in rot seit 25 Jahren in jedem Jahr auftreten… gaaaanz bestimmt…

Schließlich finden wir auf Seite 9 die folgende Erklärung, wo die Zahl von 300000 Toten herkommt:

Diese Schätzung wird abgeleitet, indem man einen Anteil von 40% der Zunahme von Katastrophen im Zusammenhang mit Wetter von 1980 bis heute der Klimaänderung zuordnet.

Einen Augenblick! Sie sagen, dass dreihunderttausend nur 40 Prozent der Zunahme der jährlichen Anzahl von Wettertoten seit 1980 sind?

Das ist Schwachsinn hoch zwei! Beginnen wir mit der einfachen Tatsache, dass es keinerlei Zunahme der Anzahl wetterbedingter Katastrophen gegeben hat. Wir stecken in einer schon ziemlich lange dauernden Hurrikan-Flaute, es gibt keine Trends hinsichtlich Zyklonen oder Taifunen oder Dürren oder Überschwemmungen … selbst das IPCC sagt heutzutage, dass es keine Beweise für irgendwelche Änderungen bzgl. der Extremwetterereignisse gibt. Es passiert schlicht und ergreifend nicht, so dass das gesamte Gebäude der von ihnen verwendeten Logik zusammenbricht. Abgesehen von den Todesfällen, die man Vollidioten zuordnen kann, die in Überschwemmungsgebieten o. ä. bauen, gab es keinerlei signifikante Änderung der Sterberate durch Wetterereignisse. Das allein reicht schon, ihre Behauptungen vollständig zu falsifizieren.

Zweitens, wenn 300000 Tote 40% der Zunahme der Todesfälle sein sollen, heißt das, sie behaupten, dass die Zunahme der Todesfälle durch schlechtes Wetter seit 1980 – nicht die Todesfälle, sondern die Zunahme der Todesfälle – 750000 Menschen pro Jahr beträgt … diese Zahl ist einfach nicht glaubwürdig. Zum Beispiel war eine der größten Wetterkatastrophen der letzten 50 Jahre der Bangladesh-Zyklon im Jahr 1970. Er forderte eine halbe Million Todesopfer und ging durch die Nachrichten der Welt. Selbst das IPCC sagt: „die mittlere Zahl von Todesopfern durch Naturkatastrophen zwischen 1972 und 1996 beläuft sich auf etwa 123000“. Keine Spur davon, dass es eine Zunahme von einer dreiviertel Million Toten jährlich durch das Wetter im vorigen Vierteljahrhundert gegeben hatte; dass die wetterbedingten Todesfälle einfach so gestiegen sind. Irgendjemand hätte das bemerkt.

Was also zieht Kofi Annans Haustier-Stiftung als Hintergrund für die 40%-Behauptung und die anderen Zahlen heran? Wenn man weiter liest, stößt man auf das hier (Hervorhebung von mir):

Der Anteil von 40% basiert auf einer Datenanalyse von Munich Re bzgl. des Trends wetterbedingter Katastrophen in der Vergangenheit, verglichen mit geophysikalischen (d. h. nicht mit der Klimaänderung in Zusammenhang stehenden) Katastrophen mit der Zeit. Das passt gut zu einer wissenschaftlichen Schätzung aus dem Jahr 2009 hinsichtlich des Zusammenhangs zwischen Klimaänderung und Dürren. Es wird angenommen, dass die 40% Zunahme durch die Klimaänderung, die auf der Häufigkeit von Katastrophen basiert, als Approximation für die Anzahl der Todesfälle und der schwer betroffenen Menschen stehen kann.

Munich Re??? Sie haben ihre Angaben von Munich Re? Sie vertrauen einer verdammten Versicherungsgesellschaft? Das ist es, was wir am Boden des Gebäudes der falschen Behauptungen finden? Eine Versicherungsgesellschaft, die noch mehr Geld verdient, wenn die Menschen sehr, sehr viel Angst haben.

Jeder weiß, dass Versicherungen Angst verkaufen. Munich Re ist eine der größeren Rückversicherungsgesellschaften in der Welt. Seit Jahren war man dort sehr aktiv bzgl. Klima-Alarmismus, einer klugen Geschäftsentscheidung aus ihrer Perspektive. Es kann so aussehen, als sorge sie sich um CO2; sie sammelt alle grünen Straßenburschen, während sie mehr Versicherungen verkauft, indem sie den Menschen hinsichtlich des Klimas Angst einjagt. Win-Win.

Auch sollte dies für keinen Klimastudenten eine Überraschung sein. Munich Re verbreitet diesen Unsinn seit Jahren. Ich glaube, man muss entweder Kofi Annan oder absichtlich begriffsstutzig sein, sich auf so eine Gesellschaft hinsichtlich des Klimas zu beziehen. Und man darf keinen der zahlreichen Artikel gelesen haben, die darauf hinweisen, dass Angst Versicherungen verkauft und dass Munich Re seit Jahrzehnten schwer mit der Verbreitung von Klimaängsten beschäftigt war und so eine Springflut von Profiten erwirtschaftet hat.

Fassen wir zusammen:

•Munich Re zog einige überaus unwahrscheinliche Zahlen über Klimatote aus seinem Unternehmens-Fundus; Zahlen, die ganz klar dazu bestimmt sind, ihnen zu helfen, Versicherungen zu verkaufen. Sie haben keinen Bezug zur Realität.

•Diese falschen Zahlen wurden als Angelhaken mitsamt Schnur und Schwimmer geschluckt und dann in einem Bericht von Kofi Annans Tierstiftung wieder hervor gewürgt.

•Der Bericht wurden dann von Kofi Annan zitiert.

•Kofi Annan wurden dann von Guzman zitiert.

•Und Guzman schließlich wurde dann von der South China Morning Post zitiert.

Und da haben wir die makellose Herkunft der Behauptung über die 300000 Toten in jedem Jahr durch die Klimaänderung … Müll von oben bis unten.

Nicht der schönste Augenblick für die AGW-Unterstützer … und trotzdem wird diese verdammte Zahl 300000 möglicherweise im kommenden Jahrzehnt durch das Internet geistern, und das Buch scheint gute Rezensionen zu bekommen.

Schauen Sie selbst! Sie sagen, dass sich eine Lüge im gesamten Web verbreitet, während sich die Wahrheit mühsam ihren Weg sucht… und selbst, wenn die Lüge falsifiziert wird, hört sie nicht auf, weiter ihre Kreise zu ziehen. Aber es ist besser, eine Kerze anzuzünden als sich in der Finsternis zu beklagen. Also betrachten Sie dies hier als meine Kerze.

Link: http://wattsupwiththat.com/2013/02/16/overhyped-the-human-cost-of-climate-alarmism/

Übersetzt von Chris Frey EIKE