1

Im Takt der AMO und der NAO (3): Das Häufigkeitsverhalten der Großwetterlagen und dessen Auswirkungen auf die Deutschland- Temperaturen

Bild rechts: Mehr Dürren und mehr Hochwasser- stimmen diese Behauptungen? Fotos: Stefan Kämpfe

Die Analyse der langzeitlichen Häufigkeitsentwicklung der Großwetterlagen ersetzt zwar kein exakt erhobenes Datenmaterial wie Niederschlags-, Wind- und Temperaturmessungen, liefert aber wichtige Hinweise, ob sich durch eine Zu- oder Abnahme einzelner Großwetterlagen und deren Cluster bestimmte Wetterereignisse häufen könnten. Um den Umfang dieser Arbeit überschaubar zu halten, sollen einmal die beliebtesten, gern auch von den Medien und der Allgemeinheit geäußerten Thesen überprüft werden. Hierzu ist es zeitweise erforderlich, die Jahresebene zu verlassen und sich auf die Ebene der Jahreszeiten zu  begeben, so auch gleich bei der ersten Behauptung.

„Die Sommer werden in Deutschland immer heißer und trockener.“

Ob ein Sommer (der Meteorologische, also Juni bis August) trocken- warm oder eher feucht- kühl ausfällt, entscheiden die vorherrschenden Großwetterlagen. Trocken- warmes Hochdruckwetter beinhaltet das Cluster „Kontinentale Hochs“, das sind Großwetterlagen, bei denen überwiegend Luftmassen kontinentaler Prägung nach Deutschland gelangen. Feucht- kühles Wetter umfasst das Cluster „Sommermonsun“, das sind wolkenreiche West- bis Nordwest- oder Nordlagen mit überwiegend Meeresluftmassen, die den Temperaturausgleich zwischen dem sommerwarmen Festland und dem kühleren Meer herstellen (siehe Teil 1, Tabelle der Wetterlagen). Der Begriff „Sommermonsun“ wurde unter anderem von KOCH (1953) geprägt. Natürlich hat der mitteleuropäische Sommermonsun keinesfalls die Intensität, Bedeutung und die Beständigkeit der asiatischen Monsune, außerdem ist sein Wirkeffekt auf die erweiterte Grenzschicht bis maximal 2500 Meter Höhe beschränkt,  aber er bewirkt doch, dass die in Mitteleuropa meist westliche Strömung im Hochsommer etwas auf Nordwest dreht. Wir sehen, wie sich die Häufigkeit dieser sehr gegensätzlichen Cluster im Meteorologischen Sommer verändert hat (Zur Orientierung wird auch stets wieder die AMO bei diesen Gleitmitteln gezeigt):

Abb. 1: Bis in die 1970er Jahre nahm die Häufigkeit der kühlende Sommermonsunlagen (Blau) zwar deutlich ab; wärmende Kontinentalhochlagen (Dunkelgelb) nahmen hingegen bis Ende der 1990er Jahre nur leicht  zu; danach jedoch wieder ab.

Und noch klarer wird das bisherige Ausbleiben der gehäuft trocken- warmen Sommer nach Betrachtung der folgenden Abbildung:

Abb. 2: Bei dem deutlichen Anstieg der oft Niederschläge bringenden Z- Lagen und dem (folgerichtigen) Rückgang der A- Lagen ist bislang keine eindeutige Änderung des Klimas in Deutschland hin zu trockeneren, heißeren Sommern zu erkennen. Die stärksten Zunahmen (lineare Regression) waren bei SWZ (leicht erwärmend, +7 Tage/Sommer), TRM (kühlend, + 6 Tage) und TRW (leicht erwärmend, +6 Tage) zu beobachten.

Der angekündigte Klimawandel hin zu immer trockeneren, heißeren Sommern lässt sich am Verhalten der meisten dafür in Frage kommenden Wetterlagen bislang nicht eindeutig erkennen. Allenfalls die Lagen mit südwestlicher bis südlicher Strömungskomponente, die im Sommer, wie auch im Frühling, Herbst sowie im Jahresmittel (siehe Teil 2, Abb. 5), häufiger wurden, können einen gewissen Beitrag zur sommerlichen Erwärmung geleistet haben; doch diese bringen oft Niederschläge. Zumindest an der Station Erfurt- Bindersleben haben außerdem die Sommerniederschläge seit 1979 nach eigenen Untersuchungen zu- und nicht abgenommen; besonders im Juli und August. Untersuchungen von SCHÖNWIESE/TRÖMEL zeigen, dass die Sommerniederschläge in Deutschland zwischen 1901 und 2000 zwar um 2,7% geringfügig abnahmen; bei Betrachtung des Zeitraumes 1981 bis 2010 zeigte sich jedoch eine Zunahme um gut 12%. Außerdem ist zu beachten, dass die Südwestlagen, welche im Sommer den Hauptanteil bei der Zunahme aller Wetterlagen mit Südkomponente ausmachten, in dieser Jahreszeit am wenigsten erwärmend wirken. Dass die Sommer im Verlauf der vergangenen 130 Jahre etwas wärmer wurden, hat zwei wesentliche andere Ursachen, den zunehmenden, oftmals auch flächenhaften Wärmeinseleffekt und eine erhöhte Sonnenscheindauer, welche besonders in den vergangenen 30 Jahren zu beobachten war und von der am Ende des 20. Jahrhunderts hohen Sonnenaktivität sowie durch Luftreinhaltemaßnahmen verursacht wurde (KÄMPFE, LEISTENSCHNEIDER, KOWATSCH, 2012, 2013; MALBERG, 2009; WEHRY, 2009; WEHRY, MYRCIK, 2006). Die folgende Abbildung belegt eindrucksvoll, wie stark der Einfluss der Sonnenscheindauer auf die sommerlichen Lufttemperaturen zumindest während der vergangenen 120 Jahre war:

Abb. 3: Die sommerliche Sonnenscheindauer beeinflusste die Variabilität der Sommertemperaturen in Potsdam mit 62% sehr stark. Dieses Ergebnis ist nicht auf ganz Deutschland übertragbar- dennoch zeigt es, dass es wohl nicht die geänderten Häufigkeitsverhältnisse der Großwetterlagen waren, welche den leichten Anstieg der sommerlichen Lufttemperaturen vorrangig verursachten. Quelle des Datenmaterials: PIK

Außerdem nahm die Sonnenscheindauer im Sommer in Potsdam insgesamt leicht zu:


Abb. 4: Man erkennt eine leichte Zunahme der Sonnenscheindauer um insgesamt etwa eine halbe Stunde pro Sommertag; außerdem gab es leichte periodische Schwankungen. Quelle des Datenmaterials: PIK

Und auch die Intensität der Globalstrahlung, welche leider in Potsdam erst seit 1937 gemessen wird, zeigt eine leichte sommerliche Zunahme:

Abb. 5: Auch die erwärmend wirkende Globalstrahlung (gesamte Einstrahlung) nahm im Sommer leicht zu- sicher auch durch Luftreinhaltemaßnahmen begünstigt. Quelle des Datenmaterials: PIK

Zahlreiche Untersuchungen, Arbeiten und Indizien belegen die Zusammenhänge zwischen saubererer Luft, aktiverer Sonne, weniger Nebel, weniger (tiefer) Bewölkung, mehr Sonnenschein und höheren Temperaturen auch in den übrigen Jahreszeiten in Deutschland sowie teilweise global (CALDER/SVENSMARK (2007); CLIMATE4YOU; HOFFMANN/MÜLLER, 1994; KÄMPFE, 1997, 1999, KÄMPFE/LEISTENSCHNEIDER/KOWATSCH, 2012, 2013; LEISTENSCHNEIDER, 2011; NABEL; PELZ, 1993, 1994; WEHRY, 2009; WEHRY/MYRCIK, 2006). Der Juli 2013, in diesen Untersuchungen noch gar nicht enthalten, bestätigte den dominanten Einfluss der Sonnenscheindauer erneut eindrucksvoll, denn trotz vorherrschender Nordwest-, Nord- und Nordostströmung heizte die in vielen Regionen mit weit über 250 Monatsstunden deutlich übernormal scheinende Sonne die Luftmassen subpolarer Herkunft stark auf; nur die kurzen Sommernächte fielen mit Minima teilweise um die 10°C empfindlich kühl aus. Erst im letzten Monatsfünftel bescherten uns dann feucht- heiße, wolkenreichere Luftmassen aus dem Süden auch sehr warme Nächte. Die leichte Zunahme der sommerlichen (und auch der jährlichen) Temperaturen hatte bislang auch keine wesentlichen Auswirkungen auf die Pflanzenwelt. Ein zeitweise häufigeres Auftreten Wärme ertragender Arten oder von solchen mit später Blüte und Fruchtreife beziehungsweise langer Vegetationszeit (Kleines Liebesgras, Hirse- Arten, Ranken-Platterbse, Runder Lauch, Wermut, Beifuß- Ambrosie, verwilderte Astern, Weißer Stechapfel, Einjährige Sonnenblume, Gefleckter Schierling, aber auch manche Orchideen und Frühblüher) war um Weimar zu beobachten, aber nicht von Dauer (KÄMPFE, 2009). Besonders die sehr wärmebedürftige Ranken- Platterbse, aber auch der Runde Lauch und der Wermut, sind in den letzten 5 Jahren um Weimar wieder seltener geworden.

„Die Winter werden immer milder. Schon bald ist Wintersport nur noch in den höheren Lagen der Alpen möglich, und Schnee kennen die meisten Kinder nur noch von Fotos oder den Erzählungen der Großeltern. Außerdem gibt es immer häufiger schwere Winterstürme.“

Dieser weit verbreitete Mythos entstammt den späten 1980er und den frühen 1990er Jahren, als es eine Serie ungewöhnlich milder und schneearmer Winter zwischen 1987/88 und 1994/95 in Deutschland gab. Warum das so war, sehen wir in der folgenden Darstellung (bei allen Grafiken, die den Winter, also Dez bis Feb., betreffen, ist als schwarze Kurve der saisonale NAO- Index mit abgebildet, welcher im Winter einen gewissen Einfluss auf die Wintermitteltemperaturen in Deutschland mit r = 0,48 im Untersuchungszeitraum hatte):

Abb. 6: Lagen mit Westanteil (Rotviolett), das sind solche, die im Winter meist sehr deutlich erwärmend wirken, wurden bis etwa 1990 häufiger; danach aber wieder seltener. Deutlich ist ein gewisser Gleichklang mit der Nordatlantischen Oszillation (NAO- Index, Schwarz) und ein inverser Verlauf zur AMO erkennbar.

Betrachtet man nur den GWT West (Zonale Lagen), und „zerlegt“ diesen in seine zwei Bestandteile, die deutlich erwärmend wirkenden WA- und WZ- Lagen sowie die kaum erwärmend wirkenden („gestörten“) Lagen WS und WW,  so ergibt sich folgendes Bild:

Abb. 7: „Westlagen im engeren Sinne“, die überwiegend deutlich erwärmend wirken (WA + WZ, Dunkelviolett) schwankten im Winter bezüglich ihrer Häufigkeit in einem etwa 30- bis 40- jährigen Rhythmus; am Beginn der 1990er hatten sie ein auffälliges Häufigkeitsmaximum und nahmen seitdem auf das Niveau der 1890er Jahre ab. Man achte wiederum auf die Ähnlichkeit zum Verlauf des NAO- Index und den inversen Verlauf zur AMO. Die „gestörten“ Westlagen (WS und WW, hell blauviolett) sind insgesamt seltener, sie verhalten sich außerdem invers zu den Westlagen im engeren Sinne.  Bei gesamtjährlicher Betrachtung zeigt sich ein ähnliches Verhalten der Westlagen- siehe Teil 2, Abb. 6.

Die vorhergesagte Häufung „immer milderer Winter“ ist ausgeblieben, denn die dafür verantwortlichen Wetterlagen sind in den ersten 13 Wintern des 21. Jahrhunderts deutlich seltener geworden, was sich auch schon in den dämpfend wirkenden Gleitmitteln zeigt. Vielmehr unterliegt die Häufigkeit der „Westwetterlagen“ im Winter periodischen Schwankungen, die unter anderem von der NAO und der AMO beeinflusst werden. Und genau diese Tatsache ist auch dem Deutschen Wetterdienst (DWD) seit mehr als 10 Jahren bekannt. Der DWD- Autor P. BISSOLLI schrieb in seiner Arbeit „Kommen Westlagen häufiger vor als früher?“, veröffentlicht im Klimastatusbericht 1999, folgendes: „… . Dies bedeutet, dass eine Häufung von Westwetterlagen, die zweifellos während der letzten Jahre stattgefunden hat, zwar deutliche Auswirkungen auf die Wintermitteltemperaturen haben kann, aber eine einfache Kausalkette anthropogener Treibhauseffekt- mehr Westlagen- mildere Winter lässt sich dennoch nicht ohne weiteres aufstellen. …“ Wie sich nun zeigt, eine weise Formulierung, vermutlich hat er mit dem Rückgang der Westlagenhäufigkeit bereits gerechnet. Schade, dass solcherlei Erkenntnisse nie den Weg über die Medien in die breite Öffentlichkeit finden. Und wie sieht es mit der „katastrophalen Häufung der Winterstürme“ aus? Eine Voruntersuchung im Rahmen dieser Arbeit ergab, dass, bis auf ganz wenige Ausnahmen, schwere Winterstürme von 3 Großwetterlagen (WZ, NWZ, mitunter auch SWZ) verursacht werden, die im Cluster „Atlantische Tiefs“ zusammengefasst sind:

Abb. 8: Die bis zum Ende des 20. Jahrhunderts währende starke Häufigkeitszunahme Atlantischer Tiefs (Grauviolett, unterste Kurve) erklärt, warum es in der 2. Hälfte des 20. Jahrhunderts, besonders aber in den 1990er Jahren, gehäuft schwere Winterstürme in Deutschland gab, doch auch hier zeigt sich die Abnahme im frühen 21. Jahrhundert.

Anhand langjähriger Sturmstatistiken, darunter der Anzahl nordatlantischer Sturmtiefs zwischen November und März und der Häufigkeit der Sturmfluten in Hamburg, wies PULS (2009) nach, dass die prognostizierte Zunahme von Stürmen ausgeblieben ist. Mit der Abnahme der Westwetterlagen wurden Meridional- Lagen seit Beginn des 21. Jahrhunderts wieder deutlich häufiger. Betrachtet man den Gesamtzeitraum 1881/82 bis 2012/13 unter Einbeziehung des Wintermittels der Lufttemperaturen in Deutschland, so ergibt sich folgendes Bild:

Abb. 9: Das Deutschland- Wintermittel der Lufttemperaturen (°C Deutschland, hellblau) ähnelt in seinem Verlauf dem NAO- Index und der Häufigkeit der am stärksten erwärmend wirkenden Westlagen im engeren Sinne (WA + WZ), während zur AMO ein eher inverser Verlauf besteht.

Man beachte den starken Rückgang der Westlagen während der vergangenen knapp 2 Jahrzehnte; außerdem ist das Wintermittel der Lufttemperaturen- trotz eines (wie lange noch?) positiven Lineartrends-  wieder genau auf dem Niveau der 1880er Jahre angekommen- die vorhergesagten immer milderen, stürmischeren Winter finden in der Realität nicht statt. Und weil sich diese unumstößliche Tatsache nicht verheimlichen lässt- die Auswirkungen von Schnee und Kälte bekam in den letzten „Horror- Wintern“ nahezu jeder auf die ein oder andere Art und Weise zu spüren- wurde gleich die nächste Behauptung in die Welt gesetzt:

„Die Winter werden in Deutschland trotz der Klimaerwärmung kälter, weil das Arktische Meereis schmilzt. Dadurch bilden sich im Norden mehr winterliche Hochs, die eisige Nord- bis Ostluft nach Deutschland lenken.“

Zur Beurteilung dieses Mythos ist es wichtig zu wissen, dass

1. Eine exakte, kontinuierliche Beobachtung und Quantifizierung der flächen- und mengenmäßigen Ausdehnung des Meereises erst seit den späten 1970er Jahren (Aufkommen und stetige Verbesserung der Satellitentechnik) möglich ist, so dass langfristige, über deutlich mehr als 4 Jahrzehnte reichende, für diese Arbeit verwendbare Datensätze fehlen.

2. Beobachtungen aus früheren Jahrhunderten und Jahrzehnten zeigen, dass es immer wieder rhythmische Phasen mit Vorrücken und Zurückweichen der Eisfelder gab (Quelle: KALTESONNE.DE, 2012). Mitunter konnten Nordost- und Nordwestpassage problemlos befahren werden, dann gab es wieder Jahre oder gar Jahrzehnte, in denen diese völlig unpassierbar waren.

3. Letztmalig wurde ein den heutigen Dimensionen möglicherweise ähnelnder Rückgang der Eisfelder und Arktis- Gletscher in den 1930er bis 1940er Jahren beobachtet (Quelle: FOTOS AUS DEN 30er JAHREN…, 2012). Dieser fällt (ähnlich wie das heutige Eisminimum) in die Positiv- Phase der AMO, weil die AMO über den Golfstrom Wärme und Salz in die arktischen Gewässer einträgt, so dass ein Zusammenhang zwischen der AMO und der Eisausdehnung besteht (Quelle: WIKIPEDIA). Ein mögliches Indiz ist (die hier schon dargestellte) tendenzielle Häufigkeitsabnahme der Westlagen in AMO- Positivphasen, weil dann der vermehrte Wärmeeintrag in die Arktis das Temperaturgefälle zwischen Süd und Nord verringert.  Es ist aber nicht ausgeschlossen, dass der jüngste Eisrückgang auch noch andere Ursachen haben kann.

Nach diesen Vorbetrachtungen wollen wir uns nun das Verhalten des Clusters „Wintermonsun“ (quasi das Gegenteil des Sommermonsuns, der Wind weht jetzt vom kalten Festland auf die wärmere See), ansehen:

Abb. 10: Die beiden bläulichen Kurven zeigen den Häufigkeitsverlauf aller meist sehr kalten Großwetterlagen mit vorwiegend nördlichem bis östlichem Wind in der untersten Troposphäre im Winter über Mitteleuropa. Da strittig ist, ob die Nordlagen im engsten Sinne (NA + NZ) hinzugehören, weil sie erstens häufig eine bodennahe nordwestliche Strömung aufweisen und sie zweitens durch den Weg der Luftmassen über die relativ warme Ost- und Nordsee meist nur wenig kühlen, sind sie in der untersten (Blauen) Kurve nicht enthalten- aber im Häufigkeitsverhalten zeigen sich kaum Unterschiede. Alle diese kalten Wetterlagen werden positiv von der AMO beeinflusst (in deren Warmphasen sind sie häufiger), und sie verhalten sich konträr zum NAO- Index. Aber trotz der synchronen Schwingung mit der AMO und der momentan geringen Arktiseisausdehnung, sind diese Wetterlagen heute deutlich seltener, als in den 1880er Jahren oder zur Mitte des 20. Jahrhunderts.

Es zeigt sich also, dass auch dieser Mythos auf tönernen Füßen steht- trotz der heute etwas höheren Wassertemperaturen und der geringeren Eisausdehnung in der Arktis sind zu Kälte neigende winterliche Großwetterlagen heute seltener, als zu den beiden letzten AMO- Positivphasen des späten 19. Jahrhunderts und der 1930er bis zu den frühen 1960er Jahren. Und um jeden Zweifel auszuräumen, das Wetterlagen- Cluster sei so geschickt gewählt, dass die wirklich zu extremster Winterkälte neigenden Lagen, die berühmt- berüchtigten Skandinavien- Hochs, nicht mehr zur Geltung kämen, hier zur Entkräftung aller Zweifel deren Cluster „Skandinavien- Hochs“ (Ostlagen im engeren Sinne):


Abb. 11: Auch wenn man nur die Skandinavien- Hochs (olivgrün) als „Ostlagen im engeren Sinne“ betrachtet- sie unterscheiden sich vom „Wintermonsun“ nur durch ihre markante Häufung in den 1940er Jahren (strenge Kriegs- und Nachkriegswinter).

Nun muss aber noch die Frage geklärt werden, warum die Winter im frühen 21. Jahrhundert bislang wieder etwas kälter wurden, obwohl in den Abb. 10 und 11 bisher kein wesentlicher Häufigkeitsanstieg der sehr winterkalten Lagen am Ende des Untersuchungszeitraums erkennbar wird. Die folgende Abbildung zeigt die Ursachen dafür:

Abb. 12: Ab etwa der Mitte der 1990er Jahre häuften sich Lagen mit Nordanteil (Blau), etwas später auch Meridionale Lagen (Dunkelgrau); Zonale Lagen (Großwettertyp West, Grauviolett) hingegen nahmen ab. Zwecks Übersichtlichkeit musste hier auf die Darstellung des winterlichen NAO- Index verzichtet werden.

Im Cluster „Meridionale Lagen“ sind auch alle Südlagen enthalten, die im Winter aber kaum häufiger wurden und meist auch nicht erwärmend wirken, dazu sämtliche Ost- und Nordlagen. Das Cluster „Nordanteil“ beinhaltet alle Nord- und Nordostlagen (insgesamt 8) sowie zusätzlich die beiden Nordwestlagen. Eine genauere Prüfung ergab, dass die Großwetterlagen TRM und NWZ deutlich, NZ, HNZ und HB etwas häufiger wurden, während die beiden Nordostlagen sowie NWA deutlich seltener wurden und sich die Häufigkeiten bei NA und HNA kaum änderten. Die häufiger gewordenen Lagen zeichnen sich im Langjährigen Temperaturmittel meist durch normale bis leicht unternormale Wintertemperaturen mit Tagesmitteln zwischen minus 2 und +2°C aus; in einzelnen Fällen oder an einzelnen Tagen können sie deutlich zu mild, mitunter auch deutlich zu kalt, sein. Und weil die Westlagen insgesamt seltener wurden, und das auch noch ausschließlich auf Kosten der deutlich wärmenden WA- und WZ- Lagen (Abb. 7 und 9), mussten die Wintertemperaturen in den letzten Jahren wieder etwas fallen.

Als letzter Mythos soll noch ein Blick auf die angeblich „immer häufiger auftretenden Hochwasserlagen“ geworfen werden. Im Rahmen der Winterbetrachtung hatten wir gerade schon gesehen, dass Westwetterlagen, welche besonders in Westdeutschland (Rhein und Nebenflüsse) die berüchtigten Winterhochwasser verursachen, einer Rhythmik unterliegen und keinen dauerhaften Trend zur Häufigkeitszunahme zeigen. Bleiben die Wetterlagen mit Potential zu 5b- Charakter, das sind meist Lagen mit kalter bodennaher Nordwest-, Nord- bis Ostströmung, während in der Höhe feucht- warme Luftmassen mitunter aus Ost, meist aber Südost, Süd oder Südwest, aufgleiten. Diese können ganzjährig Hochwasser besonders in Ost- und Süddeutschland verursachen, wobei aber die gesamte Variationsbreite von nur ein paar Regentropfen oder Schneeflocken bis hin zu (glücklicherweise seltenen) schwersten Unwettern möglich ist, was ihre Beurteilung erschwert. Dass es nur ein gutes Jahrzehnt nach dem August- Hochwasser von 2002 erneut zu schwersten Überflutungen in Ostdeutschland kam (Mai/Juni 2013), löste natürlich Befürchtungen aus, die betreffenden Wetterlagen mit 5b- Charakter könnten sich massiv häufen; was aber sagen uns die Daten?

 

Abb. 13: Mehr Lagen mit Potential für Starkniederschläge in Ost- und Süddeutschland- Mitnichten! Zwar nahmen 5b- artige Lagen (Dunkelblau) seit ihrem Minimum um 1990 wieder leicht zu- doch auch ihr Häufigkeitsverhalten unterliegt einer gewissen Rhythmik- ein eindeutiger Trend zur dauerhaften Häufung fehlt; und in den 1880er und 1970er Jahren waren sie häufiger als heute.

Auch hier muss angemerkt werden, dass sich die Häufigkeitsverhältnisse innerhalb des Clusters zugunsten der TRM- Lagen verschoben haben. Etwas öfter traten in jüngster Vergangenheit auch HFZ, HNFZ und HNZ auf, während NZ, NEZ und TM deutlich seltener und SEZ in fast unveränderter Häufigkeit zu beobachten waren. Wesentliche Rückschlüsse auf ein erhöhtes Unwetterpotential lassen sich daraus aber schon deshalb nicht ableiten, weil die meisten dieser Lagen erstens relativ selten vorkommen und sie zweitens in ihren räumlichen Auswirkungen (es können nur sehr kleine Areale, mitunter jedoch ganze Landstriche von den Überschwemmungen betroffen sein) stark variieren. Ob Hochwasser oder andere witterungsbedingte Katastrophen überhaupt als solche empfunden und wahrgenommen werden, hängt auch sehr stark von den sozial- ökonomischen, politischen und gesellschaftlichen Rahmenbedingungen ab. Im Amazonasbecken kommen die Ureinwohner mit jährlich wiederkehrenden Überflutungen von 10 bis 15 Metern Höhe problemlos zurecht. Für hunderte Millionen Menschen in Südasien sind die von den jährlich wiederkehrenden Monsunregenfällen verursachten Hochwasser ebenfalls Alltag. Der Umwelt- und Hochwasserschutz in Deutschland ist jedoch in sich widersprüchlich. Einerseits wird dem Naturschutz große Aufmerksamkeit gewidmet. Auch deshalb wurden- trotz der Beteuerungen nach der Flutkatastrophe von 2002- viele Dammbauprojekte verzögert oder verhindert, obwohl sich begrünte Dämme aus Erde meist problemlos in die Landschaft einfügen beziehungsweise der Pflanzen- und Tierwelt kaum schaden. Andererseits werden selbst in einem Kleinstaat wie Thüringen pro Tag etwa 3 Hektar Fläche versiegelt, so dass die Pufferwirkung der natürlich gewachsenen Böden als Wasserspeicher weiter geschwächt wird.

Zusammenfassung und Ausblick

Im Rahmen dieser Arbeit konnte gezeigt werden, dass…

1. …die Deutschland- Temperaturen von der AMO und der Häufigkeit bestimmter Wetterlagen mit beeinflusst werden, wobei die Zusammenhänge im Jahresmittel nur gering bis mäßig sind. Im Winter üben jedoch die meisten Wetterlagen mit westlicher Strömung und solche mit östlicher Strömung einen sogar dominanten Einfluss auf die Deutschland- Temperaturen aus. Dies gilt außerdem für die einzelnen Wintermonate sowie für einzelne Sommermonate, jedoch nur für das Cluster „Kontinentale Hochdrucklagen“. Ansonsten vermag die Länge und Intensität der Sonnenscheindauer in der strahlungsreicheren Jahreszeit luftmassenbedingte Unterschiede, welche von den verschiedenen Großwetterlagen und deren Häufigkeitsverteilung verursacht werden, teilweise auszugleichen, so dass zwischen Ende März und Anfang Oktober insgesamt nur mäßige Zusammenhänge zwischen Wetterlagen und Temperaturen bestehen.

2. …die AMO das Häufigkeitsverhalten bestimmter Wetterlagen andeutungsweise mit beeinflusst, wobei meist erwärmend wirkende Süd- und Südwestlagen mit steigenden Wassertemperaturen tendenziell häufiger und solche mit nördlichen bis östlichen Strömungsanteilen eher seltener wurden. Dabei „schwingen“ nördliche Lagen im Takt der AMO; Westlagen im engeren Sinne verhalten sich entgegengesetzt. Übergeordnete Antriebsmechanismen für dieses Verhalten werden vermutet.

3. …es insgesamt eine (bislang dauerhafte) Häufigkeitszunahme nur bei den Süd- und vor allem den Südwestlagen sowie bei den Troglagen gab. Die in Mitteleuropa insgesamt viel häufigen Westlagen zeigen hingegen eine rhythmische Zu- und Abnahme, die andeutungsweise von der AMO, im Winter außerdem deutlich von der NAO, beeinflusst wird, was besonders im Winter Auswirkungen auf die Deutschland- Temperaturen hat (tendenziell mildere Winter in Phasen mit positiven NAO- Indizes und häufigeren Westlagen).

4. …sich bei gesamtheitlicher  Betrachtung am Langzeitverhalten der Großwetterlagen bislang keine gravierende Zunahme von Lagen mit Extremwetterpotential erkennen  lässt. Die Häufung der im Sommer bedingt zu Hitzewellen neigenden Südlichen Lagen wurde durch die Abnahme der in dieser Jahreszeit insgesamt sehr warmen Hochdrucklagen teilweise kompensiert. Die Rhythmik der westlichen Lagen bedingte die vorübergehende Häufung der milden Winter und Winterstürme um 1990, und der auf verschiedenen Ursachen, unter anderem der AMO- Positivphase, beruhende Eisrückgang bewirkte bislang keine Häufung der für extreme Kältewellen infrage kommenden winterlichen Wetterlagen. Auch eine wesentliche Häufung der Lagen mit Potential für großflächige Starkniederschläge blieb aus, weil sich die Zu- und Abnahmen der dafür infrage kommenden einzelnen Wetterlagen in etwa die Waage hielten.

Das rhythmische Verhalten der hier betrachteten Größen und deren Einfluss auf das Deutschland- Mittel der Lufttemperatur (die ebenfalls hierfür sehr wichtige Sonnenaktivität, welche auch die AMO mit beeinflussen kann, die Intensität der allgemeinen, globalen Zirkulation sowie weitere, mögliche Einflussfaktoren wie El Nino, QBO, die Rhythmik weiterer Meeresströmungen oder die Wassertemperaturen der Randmeere Nord-/Ostsee und Mittelmeer konnten aus Umfangsgründen im Rahmen dieser Arbeit nicht geprüft werden) verleitet dazu, Mutmaßungen über die weitere Zukunft anzustellen. Sichere Vorhersagen sind nicht möglich, und es kann nicht oft genug davor gewarnt werden, beobachtete Trends und Zusammenhänge bedenkenlos in die Zukunft zu extrapolieren. Trotzdem sollte, natürlich nur im Rahmen weiterer Untersuchungen, über folgende Szenarien nachgedacht werden:

1. Falls die AMO ihre bisherige Rhythmik beibehält, hat sie aktuell ihr Maximum erreicht oder bereits leicht überschritten, so dass im Atlantik für die kommenden 20 bis 30 Jahre mit fallenden Wassertemperaturen zu rechnen ist. Die seit 2003 insgesamt stark rückläufige Sonnenaktivität dürfte sich nach den (freilich mit Unsicherheiten behafteten) Vorhersagen (ABDUSSAMATOV 2012, CALDER/SVENSMARK 2007, MALBERG 2002 bis 2013; VAHRENHOLT/LÜNING 2012, LANDSCHEIDT 1983, LEISTENSCHNEIDER, 2011) bis mindestens etwa 2050 weiter abschwächen, was sich zeitverzögert auch auf die AMO auswirken kann, so dass insgesamt eine Abnahme der Wassertemperaturen  im 21. Jahrhundert nicht unwahrscheinlich ist.

2. Mit der zyklusbedingten  und tendenziellen Abnahme der AMO- Werte könnte sich das Häufigkeitsverhalten der Großwetterlagen im 21. Jahrhundert umkehren- tendenziell wieder weniger Südliche Lagen; im Sommer wieder mehr feucht- kühle Lagen („Sommermonsun“); insgesamt im Jahr wieder mehr Hochdrucklagen sowie mehr Lagen mit nördlicher Strömungskomponente.

3. Falls sich auch die Rhythmik der westlichen Lagen fortsetzt, so ist möglicherweise das Minimum ihrer Häufigkeit aktuell bereits erreicht. Eine Zunahme der Westlagen könnte im Winter den aktuell beobachteten Rückgang der Wintertemperaturen in Deutschland stoppen oder zumindest dämpfen.

Die vorliegende Arbeit konnte nur die Möglichkeit bestimmter Zusammenhänge andeuten und zu weiterer Forschungsarbeit anregen. Diese wird nötig sein, um die äußerst spannenden Zusammenhänge besser zu quantifizieren und daraus möglicherweise präzisere Vorhersagen für die künftige Entwicklung von Witterung und Klima in Deutschland zu treffen.

Verfasst und zusammengestellt von Stefan Kämpfe, Weimar, 2012/2013.

Literaturliste und Informationsquellen für alle drei Teile

Abdussamatow, H. I. (2012): Zweihundertjährige Abnahme der Solarstrahlung führt zu einem Ungleichgewicht des thermischen Budgets der Erde und zu einer Kleinen Eiszeit. Petersburg 2012 http://nextgrandminimum.files.wordpress.com/2012/11/abduss_apr.pdf

Alles schon einmal dagewesen – Arktische Meereisschmelze in der ersten Hälfte des 20. Jahrhunderts (2012). www.kaltesonne.de/

AMO smoothed from the Kaplan SST V2 Calculated at NOAA/ESRL/PSD1 http://www.esrl.noaa.gov/psd/data/timeseriesimeseries/AMO/

Atlantische Multidekaden- Oszillation https://de.wikipedia.org/wiki/Atlantische_Multidekaden-Oszillation

Bissolli, P. (1999/2000): Kommen Westlagen häufiger vor als früher? Veröffentlicht im Klimastatusbericht 1999 des DWD, erschienen im Jahr 2000.

Bissolli, P. (2001/2002): Wetterlagen und Großwetterlagen im 20. Jahrhundert. Veröffentlicht im Klimastatusbericht 2001 des DWD, erschienen im Jahr 2002.

Bissolli, P., Dittmann, E. (1998 bis 2005): Objektive Wetterlagenklassifikation. Veröffentlicht in den Klimastatusberichten 1998 bis 2005 des DWD, erschienen 1999 bis 2006.

Borchert, H.(2013): Die bodennahen Temperaturen in Potsdam und Hohenpeissenberg und Sonnenfleckenhäufigkeit von 1900 bis 2012. http://www.eike-klima-energie.eu/news-cache/die-bodennahen-temperaturen-in-potsdam-und-hohenpeisenberg-und-sonnenfleckenhaeufigkeit-von-1900-bis-2012/

Calder, N., Svensmark, H. (2007): The Chilling Stars – A New Theory of Climate Change, übersetzt ins Deutsche von Helmut Böttiger: Sterne steuern unser Klima: Eine neue Theorie zur Erderwärmung. Patmos Verlag, Düsseldorf 2008.

Climate4you: Low clouds tend to have a net cooling effect on global climate. Scatter diagram showing the total monthly global cloud cover plotted versus the monthly global surface air temperature, since July 1983. High values of global cloud cover is associated with low global temperatures, demonstrating the cooling effect of clouds. http://www.climate4you.com/ClimateAndClouds.htm

Deutscher Wetterdienst (DWD) (2010, 2011, 2012, 2013): Großwetterlagen- Anzahl der Tage. www.dwd.de

Deutscher Wetterdienst (Herausgeber): Stadtklima. Hauptschriftleiter M. Schlegel. promet, Jahrgang 9, Heft 4, 1979.

Fett, W. (2012): Klimawandelschuldzuweisung: Mensch oder doch Sonne? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 73/12 (Sonderbeilage 35/12) vom 12.12.2012.

Fotos aus den dreißiger Jahren: Grönland-Gletscher haben sich damals schneller zurück gezogen als heute (2012)… www.eike-klima-energie.eu  Vom 15.06.2012.

Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas. Ber. Dt. Wetterd. in der US- Zone 33, 1952.

Hess, P., Brezowsky H.: Katalog der Großwetterlagen Europas. 2. neu bearbeitete und ergänzte Auflage. Ber. Dt. Wetterd. 15 (113), 1969.

Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas 1881–1976. 3. verbesserte und ergänzte Aufl.. Ber. Dt. Wetterd. 15 (113), 1977.

Heyer, E.: Witterung und Klima. Leipzig 1977.

Hoffmann, G.; Müller, B.: Nebel in Berlin- Dahlem (II). Klimanormalperiode 1961- 90. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 65/94 (Sonderbeilage 17/94) vom 23.06.1994

Hurrell Station-Based Seasonal NAO Index http://climatedataguide.ucar.edu/sites/default/files/cas_data_files/asphilli/nao_station_seasonal_2.txt

Kämpfe, S., Kowatsch, J., Leistenschneider, R.: Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1 Vorstellung der Hauptakteure (20.10.2012) und Teil 2 „Trittbrettfahrer“ CO2- Das Phantom der Klimawissenschaft (26.10.2012) www.eike-klima-energie.eu 

Kämpfe, S., Kowatsch, J., Leistenschneider, R. (2013): Erst zum Gipfel, dann talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen. Teile 1 bis 3. www.eike-klima-energie.eu

Kämpfe, S. (2009): Die Flora Weimars und seiner Umgebung. Weimarer Schriften, Stadtmuseum Weimar.

Kämpfe, S., Kowatsch, J., Leistenschneider, R (2013).:  Die Winter werden in Deutschland seit einem Vierteljahrhundert deutlich kälter. www.eike-klima-energie.eu

Kämpfe, S. (2012): Zu trockener, warmer, sonniger Herbst 2011 in Thüringen -ungewöhnlich oder einfach nur schön? Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte, Beilage 03/12 (SO 01/12) vom 04.01.2012 und in leicht geänderter Fassung bei www.eike-klima-energie.eu 27.12.2011.

Kämpfe, S. (1997): Nebel in Thüringen. Eine Untersuchung unter Zuhilfenahme von Theorie und Praxis. Beilage Nr. 179/1997 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor).

Kämpfe, S. (1999): Die Horizontalsichtweite- Anmerkungen zu einer interessanten meteorologischen Größe. Beilage Nr. 53/1999 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor).

Kämpfe, S., Kowatsch, J., Leistenschneider, R (2013).: Klimawandel in Deutschland bedeutet Abkühlung- trotz deutlicher Zunahme von CO2.  www.eike-klima-energie.eu

Koch, H. G. (1953): Wetterheimatkunde von Thüringen. Gustav Fischer Verlag Jena (nur analog vorliegend).

Kowatsch, J., Leistenschneider, R. (2010): Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen- eine Wertung der DWD- Temperaturmessstationen. www.eike-klima-energie.eu 04.10.2010.

Landscheidt, T. (1983): Solar oscillations, sunspot cycles and climatic change. Boulder 1983.

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen. www.eike-klima-energie.eu 20. Januar 2012.

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der gemessenen Temperaturen. www.eike-klima-energie.eu 04.08.2012.

Leistenschneider, R. (2011): Dynamisches Sonnensystem- die tatsächlichen Hintergründe des Klimawandels, Teile 1 bis 8

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen.

Teile 1 bis 8 bei www.eike-klima-energie.eu

Malberg, H. (2002 bis 2013) Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 10/03

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) – In Memoriam Prof. Richard Scherhag

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei CO2-Verdopplung. SO 02/08

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO 03/09

– La Niña – El Niño und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache: Zukunft braucht Herkunft. SO 29/09 

 – Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)

– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10 (2010)

– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)

– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO 26/10 (2010)

– Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen Klimaverhaltens SO 09/11 (2011)

– Über sprunghafte Anstiege von CO2 und globaler Temperatur SO 05/12 (2012)

– Fakten zum Klimawandel seit der Kleinen Eiszeit SO 01/13.

NABEL (Nationales Beobachtungsnetz Luft in der Schweiz) www.bafu.admin.ch/luft

Pelz, J. (1993): Das Zeitverhalten des Schwebstaubs und der Niederschlagsbeimengungen in Berlin- Dahlem. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 26/93 (Sonderbeilage 4/93) vom 26.02.1993.

Pelz, J. (1994): Dreißig Jahre Staubmessungen in Berlin- Dahlem. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 100/94 (Sonderbeilage 31/94) vom 21.10.1994.

PIK Werte der Lufttemperaturen, der Sonnenscheindauer und der Globalstrahlung in Potsdam www.pik-potsdam.de/services

Puls, K. E. (2009): Viel Wind um Nichts. Die prognostizierte Zunahme von Stürmen bleibt aus. http://www.eike-klima-energie.eu/uploads/media/PULS.Stuerme_LP.0908.pdf

Schönwiese, Chr- D., Trömel, S.: Langzeitänderungen des Niederschlags in Deutschland. http://www.climate-service-center.de/imperia/md/content/csc/warnsignalklima/Warnsignal_Klima_Kap3.1_3.1.6_Scho__nwiese.pdf

Standardisierte beziehungsweise normalisierte NAO- Werte Januar 1950 bis Dezember 2011: www.cpc.noaa.gov/

Tabellen der Sonnenfleckenrelativzahlen www.schulze-md./de (dort auch Abbildungen aller 23 Zyklen) und www.swpc.noaa.gov/solarCycle

Tinz, B. (2002, 2003): Die Nordatlantische Oszillation und ihr Einfluss auf die europäischen Lufttemperaturen. Veröffentlicht im Klimastatusbericht 2002 des DWD, erschienen im Jahr 2003.

Vahrenholt, F., Lüning, S. (2012): Die kalte Sonne. Warum die Klimakatastrophe nicht stattfindet. Hoffmann und Campe, Hamburg 2012.

Wehry, W. (2009): Mehr Sonnenschein, weniger Nebel und höhere Temperatur- anthropogene Klima- Änderung? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 47/09 (Sonderbeilage 23/09) vom 09.07.2009.

Wehry, W., Myrcik, G. (2006): Sonniger und warmer Herbst- Anzeichen auch für einen milden Winter? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 86/06 (Sonderbeilage 29/06) vom 13.12.2006.

Werner, P. C., Gerstengarbe, F.W.; Rüge, U. (1999): KATALOG DER GROSSWETTERLAGEN EUROPAS (1881-1998) NACH PAUL HESS UND HELMUT BREZOWSKY. Potsdam und Offenbach a. M., 1999.

Werner, P. C., Gerstengarbe, F.W. (2010): KATALOG DER GROSSWETTERLAGEN EUROPAS (1881-2009) NACH PAUL HESS UND HELMUT BREZOWSKY. PIK Report No. 119 Potsdam 2010.

Zeitreihe der Lufttemperatur in Deutschland ab 1761. Jahres-, Jahreszeiten- und Monatswerte. http://de.wikipedia.org/wiki/Zeitreihe_der_Lufttemperatur_in_Deutschland




Wirtschaftliche Stabilität Europas durch Subventionen für Erneuerbare gefährdet

Diese Stimmung spiegelt diejenige der leitenden Direktoren der größten europäischen Energieunternehmen eine Woche zuvor, die fast die Hälfte des Stromes in Europa erzeugen. Diese Gruppe trat Stimmen bei, die ein Ende der Subventionen für Wind- und Solarenergie fordern. Sie sagen, dass die Subventionen zu unakzeptabel hohen Preisen für Haushalte und das Geschäftsleben geführt haben, und dass sogar das Risiko kontinentweiter Blackouts besteht (Géraldine Amiel WSJ).

Zu der Gruppe gehören E.ON in Deutschland, GDF Suez SA in Frankreich und Eni SpA in Italien. Sie alle haben übereinstimmend mit dem Finger auf die schlecht durchdachte Entscheidung der europäischen Regierung [?!] gezeigt, die erneuerbare Energie zu fördern, koste es, was es wolle.

Ende der neunziger Jahre sah das wie ein guter Plan aus, nämlich als eine Möglichkeit, Europa aus der Abhängigkeit importierter fossiler Treibstoffe zu lösen, vor allem aus Russland und dem Nahen Osten. Aber es sieht so aus, als habe die Durchführung nicht zu den guten Absichten gepasst, und die Urheber der Gesetzgebung haben die Märkte nicht verstanden.

„Die Bedeutung der Erneuerbaren ist zu einer Bedrohung der Versorgungssicherheit in Europa geworden”, warnte die leitende globale Energie-Analystin Colette Lewiner. Sie bezog sich auf einen Bericht des europäischen Energieunternehmens Capgemini.

„Wir sind auf ganzer Linie gescheitert: Europa droht ein Blackout wie in New York vor ein paar Jahren, die Preise schießen in die Höhe und unsere Kohlenstoff-Emissionen nehmen immer weiter zu“, sagte Direktor Gérard Mestrallet von GDF Suez zuvor auf einer Pressekonferenz.

Unter diesen Subventionsprogrammen wird den Wind- und Solarstromerzeugern Priorität beim Zugang zum Netz eingeräumt, und das zu garantiert hohen Preisen. In Frankreich wird Kernkraftstrom für etwa 40 Euro pro MWhr erzeugt, Strom durch Windkraft aber für garantierte 83 Euro pro MWhr, unabhängig von der Nachfrage. Die Verbraucher müssen die Differenz bezahlen.

Die Subventionen haben in Deutschland so viele Investoren in Wind und Solar angelockt, dass dort jetzt fast 60.000 MW Wind- und Solarkapazität installiert sind, oder etwa 25% der Gesamtkapazität des Landes. Das klingt gut für den Planeten.

Die Probleme begannen mit dem globalen ökonomischen Abschwung im Jahre 2008. Die Nachfrage nach Strom fiel in ganz Europa, ebenso wie in Amerika, was den Gesamtpreis für Strom drückte. Die Investoren pumpten jedoch weiterhin Geld in die neue Wind- und Solarenergie wegen der garantierten Preise für erneuerbare Energie.

Eurostat zufolge sind die Strompreise in Europa inzwischen seit 2008 gestiegen, um etwas unter 20% für die Haushalte und etwas über 20% für die Industrie.

Da die erneuerbare Kapazität weiter steigt und erzwungenermaßen übernommen werden muss, haben die Unternehmen in ganz Europa damit begonnen, mit fossilen Treibstoffen betriebene Kraftwerke zu schließen, weil sie jetzt infolge der Subventionen weniger profitabel waren. Darunter waren auch über 50 Gaskraftwerke, sagte Mestrallet.

Jetzt bin ich etwas durcheinander – ist nicht Gas angeblich der Retter, zusammen mit den Erneuerbaren? Auch noch so viele Erneuerbare sind undenkbar ohne Backup-Gaskraftwerke, die die Wechselhaftigkeit der Erneuerbaren abfedern können, ist doch Gas das Einzige, dass man wie Licht an- und abschalten kann.

Ich verstehe, dass man in Deutschland neue Kohlekraftwerke baut, die man schneller hoch- und herunter fahren kann als jemals zuvor. Aber das Ersetzen von so viel Gas durch Erneuerbare bedeutet, dass Europa nicht in der Lage sein könnte, auf dramatische Wetterereignisse zu reagieren wie z. B. einen ungewöhnlich kalten Winter, wenn Wind und Sonne nicht sehr viel erzeugen können.

In einer bizarren Parodie der freien Marktwirtschaft bauen einige Länder Gaskraftwerke entlang ihrer Grenzen, um diese Lücke in der rasch erforderlichen Kapazität zu schließen. Das verängstigt die Märkte sogar noch mehr, weil Gas in Europa so teuer ist, dass der Strompreis noch weiter steigen wird (EDEM/ESGM).

Während sich die Europäische Kommission zu einer Diskussion über dieses Thema trifft, besteht in Amerika eine ähnliche Bedrohung als Folge eines ähnlichen Wirrwarrs aus Vorschriften und Subventionen während des letzten Jahrzehnts, erlassen mit den besten Absichten. Die Bedrohung wird derzeit wegen unserer viel größeren Energieerzeugung und unseres neu und reichlich verfügbaren Erdgases in Schach gehalten.

Den Amerikanern könnte gar nicht bewusst sein, dass Erdgas in Europa längst nicht so billig ist wie in Amerika. Zu Amerikas Gas-Boom war es in Abwesenheit einer Infrastruktur zur Gasverflüssigung (LNG) gekommen, die man braucht, wenn man Erdgas auf die Weltmärkte werfen will. Folglich haben die teuren auswärtigen Preise keine Auswirkungen auf die Preise in den USA.

Noch.

Aber das wird sich ändern. Wir errichten gerade die LNG-Infrastruktur mit einem erstaunlichen Tempo, um die gewaltigen Gasreserven auszubeuten, die durch Fortschritte der Fracking-Technologie immer leichter zugänglich werden. Innerhalb von fünf Jahren werden die USA der wichtigste Akteur auf dem Weltgasmarkt sein. Natürlich werden sich die Gaspreise in den USA verdoppeln und verdreifachen, weil der Preis wie beim Öl durch die globalen Märkte bestimmt wird, nicht durch den Markt in den USA. Und wie beim Öl spielt es keine Rolle, wie viel im eigenen Land erzeugt wird, man bezahlt den globalen Preis. Punkt. Man frage in Norwegen nach!

Wenn sich also die Gaspreise verdoppeln, was passiert dann mit dem Strompreis, weil Gas so intim mit den Erneuerbaren verbunden ist? Staatliche Gesetze und Steuervorteile für Erneuerbare werden uns nach wie vor zwingen, erneuerbare Energie zu kaufen, selbst wenn sie doppelt so teuer ist. Wir haben das hier im Nordwesten der USA schon einmal erlebt, und zwar in der Schlacht zwischen teurer Windenergie und billiger Hydroenergie (Hydro Takes A Dive For Wind). Hydro hat verloren.

Das ist schön, wenn Gas billig ist. Es wäre nicht schön, wenn Gas teuer ist.

Link: http://www.forbes.com/sites/jamesconca/2013/10/20/european-economic-stability-threatened-by-renewable-energy-subsidies/

Übersetzt von Chris Frey EIKE




RSS Satellitendaten erreichen Santers Temperaturstillstandsbedingung von 17 Jahren

Bild rechts: WoodForTrees.org – Paul Clark – Quelle: http://wattsupwiththat.files.wordpress.com/2013/11/trend-1.gif?w=640&h=480

Die Zahlen der linken Spalte vom 1. November 1996 bis 31. Oktober 2013 findet man in der Graphik rechts und auch hier. Klickt man auf „Raw Data“ sieht man, dass die Neigung -0,000122111 pro Jahr beträgt. Hier möchte ich eindeutig klarstellen, dass die Größenordnung der negativen Zahl keine Rolle spielt, da sie für alle Anwendungen und Zwecke Null beträgt. Beachten sollte man nur, dass die Neigung nicht positiv ist.

Und natürlich sind 204 Monate gleich 17 Jahre. In seinem Aufsatz ,,Separating signal and noise in atmospheric temperature changes: The importance of timescale” [etwa: Trennung von Signal und Rauschen bei atmosphärischen Temperaturänderungen: Die Bedeutung der Zeitspanne] stellten Benjamin Santer et al. fest:

„Unsere Ergebnisse zeigen, dass Temperaturaufzeichnungen von mindestens 17 Jahren erforderlich sind, um die menschlichen Einflüsse auf die globale mittlere Temperatur der Troposphäre identifizieren zu können”.

Ich bin sicher, dass man mich korrigieren wird, wenn ich falsch liege, aber einfach gesagt interpretiere ich dieses Statement wie folgt:

„Es gibt viel Rauschen im Klimasystem, und es kann gut sein, dass das Rauschen die Auswirkungen des anthropogenen Kohlendioxids eine bestimmte Zeit lang verschleiern könnte. Ist die Neigung allerdings 17 Jahre lang Null, können wir das Rauschen dafür nicht mehr verantwortlich machen und müssen der Tatsache ins Auge sehen, dass wir Menschen das Klima in größerem Ausmaß nicht beeinflussen“.

Ist das eine angemessen genaue Interpretation?

Richard Courtney hat vor Kurzem in einem Kommentar eine sehr interessante Perspektive angeboten:

„Dem Santer-Statement zufolge braucht man einen Zeitraum von mindestens 17 Jahren, um anthropogene Einflüsse zu erkennen. Das ist ein politisches Statement, weil „mindestens 17 Jahre“ jede Zeitspanne umfassen kann, die länger ist als 17 Jahre. Es handelt sich also nicht um ein wissenschaftliches Statement, weil es nicht falsifiziert werden kann.

Falls jedoch behauptet wird, dass das Santer-Statement ein wissenschaftliches ist, müsste jeder Zeitraum länger als 17 Jahre einen anthropogenen Effekt zeigen. Daher müsste ein 17-jähriger Zeitraum ohne merkbare globale Erwärmung zeigen, dass es keine anthropogene globale Erwärmung gibt.

Meiner Meinung nach machte Santer ein politisches Statement, so dass man mit einer politischen Antwort reagieren sollte: man sollte darauf bestehen, dass er gesagt hat, dass 17 Jahre ohne globale Erwärmung gleichbedeutend mit keiner anthropogenen globalen Erwärmung sind, weil man inzwischen jedweden vermeintlichen anthropogenen Effekt bemerkt hätte.

Santer hat seinen Sprengkörper [petard] gelegt und sollte mit seinen eigenen Waffen geschlagen werden“.

Einige könnten sich fragen, warum ich UAH ignoriere. Darauf würde ich erwidern: während UAH keine Neigung Null während der letzten 17 Jahre aufweist innerhalb der Fehlergrenzen statistischer Signifikanz, ist es tatsächlich möglich, dass UAH auch eine Neigung von Null während dieses Zeitraumes zeigt. Die Trend Viewer page von Nick Stokes zeigt: „Die Bandbreite reicht von -0,384 bis 2,353“. Während also ein größerer Trend nicht ausgeschlossen werden kann, ist auch eine Steigung Null möglich, jedenfalls den Kriterien der Klimawissenschaft bzgl. Statistischer Signifikanz zufolge.

Sie werden daran interessiert sein, was andere Datensätze während dieses gleichen Zeitraumes von 17 Jahren zeigen. In meinem letzten Beitrag Statistical Significances – How Long Is “The Pause”? (Now Includes September Data) biete ich eine detaillierte Analyse an, und unten in der Graphik ist der Verlauf von fünf anderen Datensätzen dargestellt. Zusätzlich zum RSS-Plot mit allen RSS-Punkten und deren Steigung habe ich lediglich die Steigungen der anderen fünf Datensätze eingezeichnet. Startpunkt für alle ist November 1996.

Bild_2: WoodForTrees.org – Paul Clark – Quelle: http://wattsupwiththat.files.wordpress.com/2013/11/from-1996-8.gif?w=640&h=480

Interessanterweise beträgt die größte Steigung während dieses 17-jährigen Zeitraumes 0,009 pro Jahr oder weniger als 1°C pro Jahrhundert (UAH). Das ist mit Sicherheit nichts, worüber man in Alarmstimmung kommen sollte.

Link: http://wattsupwiththat.com/2013/11/04/rss-reaches-santers-17-years/

Übersetzt von Chris Frey EIKE




Der ‚Stillstand’ der globalen Erwärmung könnte 20 weitere Jahre andauern, und das Arktische Meereis hat schon angefangen, sich zu regenerieren.

Bild rechts: Stillstand: Wie die mittlere Temperatur der Erde die Vorhersagen der Wissenschaftler vorführt – dadurch, dass sie gleich bleibt.

Eine in dem begutachteten Journal Climate Dynamics veröffentlichten Studie von Professor Judith Curry am Georgia Institute of Technology und Dr. Marcia Wyatt wird immer mehr zu einer atemberaubenden Herausforderung für die Orthodoxie der Klimawissenschaft.

Nicht nur, dass diese Studie den unerwarteten Stillstand erklären kann, sondern sie zeigt auch, dass die wissenschaftliche Mehrheit – deren Ansichten durch das IPCC repräsentiert werden – die Rolle natürlicher Zyklen erheblich unterschätzt und die Rolle der Treibhausgase erheblich überschätzt hat.

Diese Forschungen platzen mitten in zunehmende Beweise, dass die Computermodelle, auf denen die Untergangs-Prognosen eines sich rapide erwärmenden Planeten seitens des IPCC basieren und die im jüngsten Zustandsbericht veröffentlicht worden waren, inzwischen erheblich von der Realität abweichen.

Die Graphik oben rechts basiert auf einer von Dr. Ed Hawkins an der Reading University veröffentlichten Version auf seinem Blog Climate Lab Book. Sie enthüllt, dass die tatsächlichen Temperaturen inzwischen unter den vorhergesagten Werten fast der gesamten 138 Modellvorhersagen liegen, auf die sich das IPCC stützt.

Der Stillstand bedeutet, dass es seit dem Jahr 1997 keinen statistisch signifikanten Temperaturanstieg der mittlere globalen Temperatur mehr gegeben hat, trotz der einen steil ansteigenden Trend zeigenden Modellprojektionen.

Dr. Hawkins zufolge ist die Abweichung inzwischen so groß, dass das Weltklima kälter ist als das, was die Modelle kollektiv mit einer ‚Sicherheit von 5 bis 95%’ vorhergesagt haben.

Curry und Wyatt sagen, dass sie eine klimatische ‚Stadion-Welle’ identifiziert hätten – ein unter dem Begriff La Ola-Welle bekanntes Phänomen.

 

Bild: Erholung: Eine neue Studie zeigt, dass die globale Erwärmung angehalten hat und dass das Arktische Meereis angefangen hat, sich zu erholen.

In ganz ähnlicher Weise gibt es eine Anzahl Jahrzehnte langer Zyklen bei der Temperatur der Luft und der Ozeane sowie des arktischen Eises. Curry und Wyatt zufolge haben sie bewiesen, dass dies seit mindestens 300 Jahren so geht.

Curry und Wyatt zufolge kann die Theorie sowohl den Erwärmungsstillstand und die Gründe erklären, warum die Computermodelle das nicht vorhergesagt haben.

Es bedeutet auch, dass ein großer Teil der Erwärmung in den Jahren vor dem Stillstand nicht aufgrund von Treibhausgas-Emissionen, sondern aufgrund der gleichen zyklischen Wellen erfolgt ist.

,Das Signal der Stadion-Welle lässt erwarten, dass sich der gegenwärtige Stillstand der globalen Erwärmung noch bis in die dreißiger Jahre dieses Jahrhunderts fortsetzen könnte’, sagt Wyatt. Dies steht in scharfem Gegensatz zum IPCC-Bericht, der von einer Erwärmung zwischen 0,3°C und 0,7°C bis zum Jahr 2035 ausgeht.

Wyatt fügte hinzu: ,Aus der Stadion-Welle lässt sich die Vorhersage ablesen, dass sich das Meereis von dem jüngsten Minimum erholen wird’. Der Minusrekord des Jahres 2012 und die große Zunahme im Jahr 2013 sind mit der Theorie konsistent’.

Selbst einige Mit-Autoren des IPCC-Berichtes wie Dr. Hawkins räumen ein, dass einige der Modelle ‚zu heiß’ sind. Er sagte: ‚Das obere Ende der jüngsten Klimamodell-Projektionen ist inkonsistent mit den beobachteten Temperaturen’, fügte jedoch hinzu, dass selbst die niedrigeren Projektionen ‚negative Auswirkungen’ hätten, wenn sie denn stimmen.

Aber wenn der Stillstand noch weitere zehn Jahre dauert und es in dieser Zeit keine großen Vulkanausbrüche gibt, ‚lägen die globalen Temperaturen außerhalb der vom IPCC genannten Wahrscheinlichkeits-Bandbreite’.

Prof. Curry ging noch viel weiter. ‚Angesichts der wachsenden Diskrepanz zwischen den Klimamodell-Simulationen und den Beobachtungen erhebt sich die Perspektive, dass die Klimamodelle auf fundamentale Weise ungeeignet sind’, sagte sie. ‚Wenn sich der Stillstand fortsetzt, würde dies zeigen, dass die Modelle nicht für den Zweck der Klimavorhersage geeignet sind’.

Read more: http://www.dailymail.co.uk/news/article-2485772/Global-warming-pause-20-years-Arctic-sea-ice-started-recover.html#ixzz2jfeWEhvL
Follow us: @MailOnline on Twitter | DailyMail on Facebook

Link: http://www.dailymail.co.uk/news/article-2485772/Global-warming-pause-20-years-Arctic-sea-ice-started-recover.html

Übersetzt von Chris Frey EIKE




Der große Betrug mit Windkraft in Amerika

Im Juli hat Environmental & Climate News des Heartland Institute berichtet, dass die Firma Nordex USA sein Werk in Jonesboro geschlossen hat. Und dies, obwohl dieser Hersteller von Windturbinen Millionen Dollar Subvention eingestrichen und versprochen hat, 750 Arbeitsplätze zu schaffen. Im Jahre 2008 hat Gouverneur Mike Beebe (Demokraten) der Firma Nordex 8 Millionen Dollar zukommen lassen. Das Geld stammte aus dem Quick-Action Closing Fund. Die Development Finance Authority in Arkansas hat der Firma weitere 11 Millionen Dollar gezahlt. Die Entscheidung wurde dem Unternehmen zufolge aufgrund der Ungewissheit getroffen, weitere Subventionen der [US-]Bundesregierung zu erhalten. Zu jener Zeit waren dort nur fünfzig Leute beschäftigt.

Anfang Oktober hat das Oversight and Government Reform Subcommittee on Energy Policy, Healthcare, and Entitlements eine Anhörung zum Wind Production Tax Credit (PTC) durchgeführt. Die American Wind Energy Association (AWEA) war dort, um nachdrücklich für eine Ausweitung der Subventionen zu werben. Laut Auskunft von Lobbyisten hat die AWEA im Jahr 2012 über 2,4 Millionen Dollar ausgegeben, um die auslaufenden Subventionen zu retten. Erreicht hatte man eine Verlängerung um ein Jahr, und zwar als Teil des Deals, die „fiskalische Klippe“ zu umschiffen.

Zur Argumentation, dass Windenergie ein wichtiger Bestandteil des Energiemix’ ist neben Kohle, Erdgas, Kern- und Wasserkraft: Tatsache ist, dass im Jahre 2012 die Kohle 37%, Erdgas 30% und Kernkraft 19% zur Gesamterzeugung beigetragen haben. Windkraft machte lediglich 1,4% des US-Energieverbrauchs aus und trug lediglich zu 3,5% zur Stromerzeugung der Nation bei.

Seit der PTC vor zwei Jahrzehnten aus der Taufe gehoben worden war, hat er den Steuerzahler 20 Milliarden Dollar gekostet.

Eines der Hauptargumente für Windenergie lautet, dass sie „erneuerbar“ ist und nicht zu den so genannten „Treibhausgas-Emissionen“ beiträgt, die Ursache einer „globalen Erwärmung“ sein sollen. Allerdings ist der jüngste Erwärmungszyklus vor etwa 15 Jahren zu Ende gegangen. Nicht ein einziger Schüler an den Schulen unserer Nation hat jemals „globale Erwärmung“ selbst erlebt.

Die Windenergie ist „grün”, sagen ihre Unterstützer, aber was ist daran grün, wenn man schätzungsweise 573.000 Vögel jedes Jahr tötet, einschließlich von 83.000 Greifvögeln. Die Zahlen stammen aus einer Studie, die im März im Wildlife Society Bulletin veröffentlicht worden war. Auch zahlreiche Fledermäuse werden getötet, eine Spezies, die riesige Mengen Insekten vernichtet, die unsere Ernten beeinträchtigen und Krankheiten verbreiten.

Das Shiloh IV Windprojekt in Solano County, Kalifornien, ersucht um das Recht, während eines Zeitraumes von fünf Jahren jeweils bis zu fünf Weißkopf-Seeadler pro Jahr töten zu dürfen, obwohl diese unter das Bald and Golden Eagle Protection Act fallen.

Die Windenergie wird also dadurch gerechtfertigt, dass sie Treibhausgase reduzieren soll, die nicht zu einer globalen Erwärmung führen, die nicht existiert. Sie empfängt Millionen von Subventionen und möchte geschützte Spezies töten, was eine Umweltzielsetzung ist. Das ist Scheinheiligkeit in galaktischem Ausmaß!

Hypocrisy = Scheinheiligkeit

Dr. Robert Michaels, ein leitendes Mitglied des Institute for Energy Research, hat vor einem Komitee des Kongresses ausgesagt, dass eine Subvention, die eigentlich inzwischen ausgelaufen sein sollte, stattdessen fünfmal erneuert worden ist. Die Windindustrie ist in keiner Weise wettbewerbsfähig, wenn es um die Energieerzeugung aus traditionellen Quellen geht; und sie ist inzwischen lange genug existent, um genau das zu beweisen. In einer Marktwirtschaft erlaubt man es solchen Unternehmen, pleite zu gehen.

Die Windindustrie muss jedoch gar nicht im Wettbewerb bestehen, weil die Betriebe in etwa 30 US-Staaten gesetzlich gezwungen werden, Windenergie in ihre „renewable portfolio standards“ mit festgesetzten Quoten aufzunehmen. Es wird erwartet, dass diese gesetzliche Vorgabe zur Installation von über 100.000 Megawatt Erneuerbare während der nächsten 20 Jahre führen wird, und der Anteil der Windenergie dürfte laut Dr. Michaels davon den Löwenanteil ausmachen.

Zusätzlich zu der Idiotie der Windenergie kommt noch die Notwendigkeit, Backup-Potential aus traditioneller Kohle, Erdgas und Kernkraft bereitzuhalten, weil der Wind nicht immer weht und dessen Beständigkeit nicht vorhersagbar ist. Der Verbraucher zahlt nicht nur den Strom, den diese Einrichtungen erzeugen, damit sie immer Strom zur Verfügung haben, sondern er zahlt auch noch in Gestalt der Subventionen, die die Windindustrie weiter erhält.

Es gibt keinen Bedarf für Vorschriften hinsichtlich erneuerbarer Energie! Sowohl Wind als auch Solar sind unzuverlässige Energiequellen und erzeugen so wenig Strom, dass ihnen jede Existenzberechtigung fehlt.

Die Windindustrie existiert, weil sie jährlich Millionen ausgibt, um den Gesetzgeber davon zu überzeugen, dass sie nicht nur subventioniert werden sollte, sondern auch dafür, dass viele US-Staaten deren Erzeugung per Gesetz verlangen. Man entferne die Einmischung der Regierung,  dann hätte sie keine wirkliche Existenzgrundlage. Es ist ein Betrug!

[Ist das hier in D anders? A. d. Übers.]

© Alan Caruba, 2013

Link: http://www.nationalanxietycenter.blogspot.de/2013/10/the-great-american-wind-power-fraud.html

Übersetzt von Chris Frey EIKE




Met. Office gibt zu: Behauptungen eines signifikanten Temperaturanstiegs sind unhaltbar

Auslöser der Debatte war eine Anfrage von Lord Donoughue am 8. November 2012. Seine Anfrage lautete:

Frage an die Regierung Ihrer Majestät: Betrachtet die Regierung einen Anstieg der globalen Temperatur um 0,8°C seit dem Jahr 1880 als signifikant? (HL3050)

In der Antwort wurde behauptet, dass „der Temperaturanstieg seit 1880 statistisch signifikant ist“. Das bedeutet, dass der Temperaturanstieg nicht allein natürlichen Variationen zugeordnet werden kann – d. h. die globale Erwärmung ist real.

In der Statistik kann statistische Signifikanz nur mit einem statistischen Modell bestimmt werden. Einfaches Beispiel: Nehmen wir an, dass wir 10 mal eine Münze werfen und jedes Mal die Zahl oben liegt. Dann gibt es zwei mögliche Erklärungen:

• Erklärung 1: Die Münze ist getürkt und zeigt auf beiden Seiten die Zahl.

• Erklärung 2: Die Münze ist ok, und es war reiner Zufall, dass jedes Mal die Zahl oben lag

(Natürlich sind andere Erklärungen auch noch möglich).

Rein intuitiv ist es überhaupt nicht plausibel, in 10 von 10 Fällen die Zahl zu erhalten. Hätten wir nur die beiden Erklärungen dafür zur Verfügung, würden wir daraus schließen, dass Erklärung 1 viel wahrscheinlicher ist als Erklärung 2.

Ein Statistiker würde jede der beiden Erklärungen als ein grobes „statistisches Modell“ bezeichnen. Mit Hilfe der Statistik kann man dann zeigen, dass Erklärung 1 tausendmal wahrscheinlicher ist als Erklärung 2; das heißt, die statistische Analyse erlaubt es uns zu quantifizieren, wie viel wahrscheinlicher eine Erklärung (Modell) ist als das andere. Strikt statistisch ausgedrückt würde die Schlussfolgerung lauten: „die relative Wahrscheinlichkeit von Modell 2 im Hinblick auf Modell 1 beträgt 0,001 Prozent”.

Eine ordentliche Antwort auf die o. g. kleine Anfrage an das Parlament kann sich nicht darauf beschränken, einfach nur Ja oder Nein zu sagen. Es muss auch spezifiziert werden, welches statistische Modell zur Bestimmung der Signifikanz benutzt worden ist. Die Antwort spezifiziert tatsächlich ein statistisches Modell, zumindest bis zu einem gewissen Grad. Es heißt darin, man habe „einen linearen Trend“ verwendet, und dass „das statistische Modell Aufschluss über die Persistenz unter Verwendung eines autoregressiven Prozesses gibt“. [Der letzte Einschub im Original: „the statistical model used allows for persistence in departures using an autoregressive process”].

Wenn man mit der Trendbewertung [trending] autoregressiver Prozesse nicht vertraut ist, spielt das in diesem Falle keine Rolle. Wichtig ist, dass die Regierung Ihrer Majestät in ihrer Antwort anerkennt, dass irgendein statistisches Modell spezifiziert werden muss. Es fehlt jedoch immer noch etwas: Ist deren Auswahl des statistischen Modells vernünftig? Könnte es andere, wahrscheinlichere Modelle geben?

(Es steckt auch eine kleine Doppeldeutigkeit in der Antwort, weil es viele Arten autoregressiver Prozesse gibt. Die Doppeldeutigkeit wird effektiv mit einer darauf sich beziehenden weiteren Frage gelöst, nämlich am 3. Dezember 2012, in der „autoregressive (AR 1) Prozesse“ diskutiert worden sind (HL3706); andere, unten diskutierte Antworten bestätigten, dass es ein Prozess erster Ordnung war.

Ich habe von der Anfrage Lord Donoughues (HL3050) durch den Beitrag von Bishop Hill erfahren mit dem Titel „Parliamentarians do statistical significance”. Dann habe ich mit Lord Donoughue über die Wahl des statistischen Modells gesprochen. Ich habe darauf hingewiesen, dass es andere Modelle gibt mit einer viel größeren Wahrscheinlichkeit als die Trendbildung mit einen autoregressiven Modell, von der in der Antwort die Rede war. Mit anderen Worten, die Basis für die Antwort auf die Frage war unhaltbar.

Außerdem hatte ich ein op-ed piece veröffentlicht, in dem ich dies sowie damit in Zusammenhang stehende Dinge diskutiert habe, und zwar im Wall Street Journal vom 5. April 2011. Das op-ed enthielt auch einen technischen Anhang, in dem ein statistisches Modell im Einzelnen beschrieben wird: ein driftless ARIMA(3,1,0)-Modell [?]. (Wieder spielt es keine Rolle, ob man damit vertraut ist oder nicht). Im Anhang wird gezeigt, dass die Wahrscheinlichkeit eines driftless [antriebslos?] Modells etwa 1000 mal größer ist als ein autoregressives Modell. Daher sollte das von der Regierung verwendete Modell zurückgewiesen werden, und man sollte stattdessen ein driftless Modell heranziehen. Mit diesem zeigt sich jedoch, dass der Temperaturanstieg seit 1980 nicht signifikant ist. Mit anderen Worten, die korrekte Antwort auf die Anfrage (HL3050) müsste nein lauten.

Lord Donoughue richtete dann eine weitere Parlamentarische Anfrage an die Regierung, in der er sie danach fragte, wie sie die Wahrscheinlichkeit eines autoregressiven Modells relativ zu einem driftless Modell bewerten. Die Regierung hat nicht geantwortet. Lord Donoughue fragte ein zweites Mal. Sie haben nicht geantwortet. Er fragte ein drittes Mal – und wieder gab es keine Antwort. Dann fragte er ein viertes Mal.

Eine offizielle Parlamentarische Anfrage, die dem House of Lords vorgelegt worden ist, wird formal von der Regierung als Ganzes beantwortet. In der Praxis überweist die Regierung die Frage an ein relevantes Ministerium oder eine entsprechende Abteilung. In unsrem Falle wurde die Frage an das Department of Energy and Climate Change weiter geleitet; die designierte Ministerin ist die parlamentarische Unterstaatssekretärin Baroness Verma. Verma bekommt ihre Antworten vom Met. Office. Der Oberverantwortliche am Met. Office ist der leitende Direktor John Hirst. In der Praxis delegiert er das Ganze an die leitende Wissenschaftlerin am Met. Office Julia Slingo. Folglich ist es in Wirklichkeit Slingo, die es ablehnte, die parlamentarischen Anfragen zu beantworten, wobei sie von Hirst und Verma unterstützt worden ist (möglicherweise ohne dass ihnen das bewusst war).

Ich habe mich mit Slingo einige Male per E-Mail ausgetauscht. Slingo ist niemals wirklich auf die Dinge eingegangen, die ich angesprochen habe. Stattdessen hat sie weitschweifig rhetorisch geantwortet und eine große Ignoranz bzgl. Statistik auf einem niedrigen Niveau an den Tag gelegt. Hierzu siehe man zum Beispiel den Beitrag von Bishop Hill Climate correspondents. Daraus habe ich geschlossen, dass es Zeitverschwendung sein würde, mit Slingo über die Parlamentarischen Anfragen zu sprechen. Also wandte ich mich an Hirst. Meine Nachricht an Hirst lautete neben Anderem so:

In der vorigen Woche hat Lord Donoughue eine Parlamentarische Anfrage eingebracht, nämlich die Frage HL6132, über statistische Modelle globaler Temperaturdaten. HL6132 ist im Wesentlichen die gleiche Anfrage wie HL5359, die zu beantworten das Met. Office abgelehnt hat. Die Leitende Wissenschaftlerin hat nicht das statistische Hintergrundwissen, das für die Antwort auf diese Anfrage erforderlich ist; doch gibt es mindestens einen Wissenschaftler am Met. Office, der über dieses Wissen verfügt, nämlich Doug McNeall. Ich fordere Sie auf sicherzustellen, dass die Anfrage beantwortet wird!

Doug McNeall ist Statistiker. Er und ich hatten in der Vergangenheit fruchtbare E-Mail-Diskussionen. Vor allem nach meinem op-ed im WSJ vom 12. August 2011 hat mir McNeall eine E-Mail gesandt, in der er feststellte, dass das autoregressive Modell „einfach ungeeignet“ ist. Tatsächlich wäre das offensichtlich für jeden, der einmal statistische Zeitreihen auf niedrigem Niveau studiert hat [undergraduate level]. Man beachte: dies bedeutet, dass ein Statistiker am Met. Office festgestellt hat, dass die Antwort auf die ursprüngliche Parlamentarische Anfrage (HL3050) ohne Grundlage war.

Wie auch zuvor hat man Lord Donoughue auch die Antwort auf seine vierte Anfrage verweigert. Anschließend hat mir Hirst Folgendes geschrieben:

Ich möchte Ihnen hiermit versichern, dass es das Met. Office niemals abgelehnt hat, irgendwelche Fragen zu beantworten. Die Anfrage, auf die Sie sich beziehen, wurde von Baroness Verma beantwortet, der parlamentarischen Unterstaatssekretärin am Department of Energy and Climate Change.

Ich weise darauf hin, dass Baroness Verma in ihren Antworten auf die Fragen HL5359 und HL6132 sowie anderer Fragen Lord Donoughue angeboten hat, diese und andere damit zusammen hängende Fragen am Met. Office mit den Mitarbeitern zu besprechen.

Danach hat Lord Donoughue zum fünften Mal angefragt. Und ich habe die folgende Mail an Hirst geschickt:

Ich weiß nicht, ob Ihre Antwort ernst gemeint ist oder ob Sie mir damit sagen wollen, dass sie irgendwie verloren gegangen ist. Im Falle von Ersterem möchte ich Ihnen Folgendes sagen:

Eine Antwort auf die Frage von Lord Donoughue erfordert die Berechnung einer einzelnen Zahl. Diese Berechnung ist rein arithmetisch: Es ist keinerlei Meinung oder Beurteilung involviert (auch einen Hintergrund von Klima braucht man nicht). Außerdem ist die Berechnung so einfach, dass man sie innerhalb weniger Minuten durchführen kann, zumindest von jemandem mit angemessenem statistischem Hintergrundwissen. Man kann es sich ähnlich vorstellen wie das Finden der Gesamtzahl einer Reihe von Einzelwerten.

Die Zahl, nach der Lord Donoughue fragt, beträgt meinen Berechnungen zufolge 0,001. (ja, so einfach ist das!). Lord Donoughue jedoch hätte diese Zahl lieber von einer offiziellen Körperschaft berechnet. Darum hat er Parlamentarische Anfragen an die Regierung bezüglich dieser Zahl gerichtet.

Lord Donoughue hat inzwischen schriftliche Antworten für solche Parlamentarischen Anfragen erhalten: HL4414, HL5031, HL5359, HL6132. Aus keiner dieser Antworten geht die Zahl hervor. Stattdessen stecken die Antworten voller Entschuldigungen, warum diese Zahl nicht genannt wird. Die Hauptentschuldigung scheint zu sein, dass die Zahl unwichtig ist. Die Wichtigkeit der Zahl ist jedoch eine andere Frage: selbst wenn die Zahl keinerlei Bedeutung hat, kann man die arithmetische Berechnung durchführen und die Zahl kann dennoch genannt werden.

Die Regierung hat sich auf das Met. Office verlassen, die Zahl zu nennen; das Met. Office hat genau dies abgelehnt. Mit anderen Worten, das Met. Office hat es abgelehnt, diese Frage zu beantworten – im Gegensatz zu Ihrer Behauptung in Ihrer Mail. Welche Gründe hat das Met. Office, sich zu weigern, die Zahl zu nennen? Die erforderliche Zeit wäre kürzer gewesen, als das Met. Office für die Ablehnung aufgewendet hat.

Parlamentarische Anfragen haben eine Jahrhunderte zurück reichende Tradition. Ich habe auf diesem Gebiet keine Expertise, aber nach meinem Verständnis ist die Regierung zu einer Antwort verpflichtet oder, falls das nicht möglich ist, einen nachvollziehbaren Grund zu nennen, nicht zu antworten. Die Ablehnung des Met. Office, die Zahl zu nennen, scheint daher zu einer Verletzung einer Jahrhunderte alten parlamentarischen Konvention zu führen. Tatsächlich habe ich inzwischen mit anderen Mitgliedern der Houses of Lords und Commons darüber gesprochen: da gibt es ein wirkliches Problem, und offensichtlich auch eines durch Parlamentsfunktionäre.

Lord Donoughue hat jetzt zum fünften Mal nach dieser Zahl gefragt. Die Frage lautete (HL6620):

„Ich frage die Regierung Ihrer Majestät … ob sie sicherstellen will, dass ihre Einschätzung (der Zahl) im Official Report veröffentlicht wird oder, wenn nicht, warum nicht“.

Die Antwort ist seit dem 12. April überfällig. Ich hege die Hoffnung, wenn das Met. Office sich weiterhin weigert, die Zahl zu nennen, dass sich die Regierung die Zahl von anderswoher beschafft.

Darauf gab es direkt keine Antwort. Allerdings habe ich eine Einladung von Doug McNeall erhalten, das Met. Office zu besuchen und die Statistiken der Trends der globalen Temperatur zu diskutieren. Ich habe folgendermaßen geantwortet:

Vielen Dank dafür. Im Prinzip wäre ein solches Treffen sicher wertvoll. Allerdings lehnt es das Met. Office ab, eine einfache arithmetische Frage zu beantworten und nennt noch dazu unehrliche Gründe dafür. Angesichts dieser Umstände habe ich kein Vertrauen, dass die Diskussion sinnvoll ist.

Daher lehne ich die Einladung mit allem Respekt ab. Falls das Met. Office die Zahl doch noch nennt, würde ich sehr gerne in weitere Diskussionen eintreten.

Eine Woche später wurde die fünfte Anfrage (HL6620) wie folgt beantwortet:

Wie schon in einer früheren schriftlichen Antwort erwähnt … an den ehrenwerten Lord am 14. Januar 2013 (Official Report, col. WA110), ist es Aufgabe der wissenschaftlichen Gemeinschaft, zwischen verschiedenen Methoden der Untersuchung globaler Temperatur-Zeitreihen zu wählen und zu entscheiden, welche man anwendet. Es obliegt ebenfalls der wissenschaftlichen Gemeinschaft, die Ergebnisse derartiger Arbeiten in der begutachteten Literatur zu veröffentlichen.

Das heißt, dass das Parlament nach Ansicht des Met. Office kein Recht hat, wissenschaftliche Fragen an Wissenschaftler der Regierung zu richten.

Einige Tage später schrieb mir Hirst Folgendes:

Tut mir leid, dass ich so spät antworte; ich war nicht im Büro.

Es tut mir leid, dass meine vorige E-Mail bei Ihnen den Eindruck hinterlassen hat, dass ich über diese Angelegenheit nicht weiter sprechen möchte. Das war nicht meine Absicht. Wenn Sie wirklich nicht zufrieden sind mit meinen Antworten auf Lord Donoughues Anfragen, wäre ich sehr glücklich, über Ihre Bedenken weiter zu sprechen, und zwar als Teil einer detaillierten wissenschaftlichen Diskussion über die statistische Modellierung globaler Mitteltemperaturen.

Ich habe gesehen, dass Doug McNeall Ihnen angeboten hat, ein Treffen mit Ihnen und anderen Wissenschaftlern am Met. Office zu arrangieren, die auf diesem Gebiet arbeiten. Ich glaube, dass dies eine vernünftige weitere Vorgehensweise wäre, und obwohl unsere Ansichten in mancher Hinsicht auseinander gehen, darf ich Ihnen versichern, dass wir das Treffen in gutem Glauben abhalten werden.

Ich freue mich, wieder von Ihnen zu hören.

Ganz klar, Hirst steht hinter der Obstruktion. Ich befand, dass eine Antwort hierauf sinnlos wäre.

Den Regeln des Parlaments zufolge ist die verantwortliche Person für eine Parlamentarische Anfrage der Minister der Regierung, der die Antwort liefert. In unserem Fall ist das Baroness Verma. Den Parlamentsgesetzen zufolge [Companion to the Standing Orders and Guide to the Proceedings of the House of Lords], § 4.68 Verantwortlichkeit des Ministers [Ministerial Responsibility] sollten “Minister so offen wie möglich mit dem Parlament sein und eine Antwort nur ablehnen, wenn die Veröffentlichung nicht im öffentlichen Interesse liegt“ und „Von Ministern, die das Parlament wider besseres Wissen in die Irre führen, wird erwartet, dass sie dem Premierminister ihren Rücktritt anbieten“.

Lord Donoughue hat daraufhin einen scharf formulierten Brief an Staatssekretärin Verma gesandt und aus dem Abschnitt „Verantwortlichkeit des Ministers“ zitiert. Er fügte hinzu: „Ich denke, dass wir nicht zum Ziel kommen, da Sie offensichtlich nicht hinter der absichtlichen Ablehnung stehen, die Frage zu beantworten“. Tatsächlich scheint Verma sich darauf verlassen zu haben, dass die Antworten seitens des Met. Office an sie in gutem Glauben geschrieben worden waren.

Dann stellte Lord Donoughue seine Frage zum sechsten Mal (HL62). Diesmal enthielt die Antwort die relative Wahrscheinlichkeit. Die volle Antwort (einschließlich der Fußnoten) lautete:

Es gibt viele Wege, Zeitreihen zu analysieren, einschließlich der Verwendung von physikalischen und statistischen Modellen. Die Relevanz, welche Methode zur Anwendung kommt, hängt von der Frage bezüglich der Daten ab. Das Met. Office hat die Wahrscheinlichkeit der beiden spezifizierten Modelle verglichen, die am besten zu den drei unabhängigen Haupt-Zeitreihen der globalen Temperatur passen (die Datensätze stammen vom UK Met. Office, der NASA und der NOAA in den USA).

Der statistische Vergleich beider Modelle zeigt die Wahrscheinlichkeit eines linearen Trendmodells mit autoregressivem Rauschen erster Ordnung bei der Repräsentanz der Evolution der jährlichen globalen Anomalien der Mitteltemperatur seit 1900. Die Bandbreite reicht von 0,08 (Daten des Met. Office) bis 0,32 (Daten der NOAA) relativ zu einem driftless autoregressiven integrierten Modell. Die Wahrscheinlichkeit beträgt 0,001, wenn man den Startzeitpunkt auf das Jahr 1850 zurück verlegt (Daten des Met. Office). Diese Ergebnisse zeigen, dass dieser Parameter sehr empfindlich auf den ausgewählten Daten-Zeitraum reagiert und auch auf den ausgewählten Datensatz in einer gegebenen Zeitspanne.

Ein hoher Wert der relativen Wahrscheinlichkeit bedeutet nicht notwendigerweise, dass das Modell brauchbar oder relevant ist. Das Klima ist ein hoch komplexes physikalisches System; es zu modellieren erfordert ein Verständnis physikalischer und chemischer Prozesse in der Atmosphäre und in den Ozeanen, natürliche Variabilität und externe Antriebe, das heißt mit Modellen auf physikalischer Grundlage. Die vom Met. Office durchgeführten Arbeiten, um aus den Temperaturmessungen eine Klimaänderung abzuleiten, basiert auf formellen Erkundungs- und Zuordnungs-Modellen, verwenden physikalische Klimamodelle und nicht ausschließlich statistische Modelle. Näheres dazu in Kapitel 9 im Beitrag der Working Group 1 zum 4. IPCC-Zustandsbericht.

Der zweite Absatz benennt die relative Wahrscheinlichkeit des autoregressiven Modells hinsichtlich des driftless Modells. Die relative Wahrscheinlichkeit beträgt 0,08 bei Analyse der Jahre 1900 bis 2012 und 0,001 bei Analyse der Jahre von 1850 bis 2012 (unter Verwendung der Daten des Met. Office). In jedem Falle ist demzufolge das autoregressive Modell viel weniger wahrscheinlich als das driftless Modell, weshalb Letzteres für die Daten das viel bessere Modell ist. Folglich ist das statistische Modell, auf das man sich in der Antwort auf die ursprüngliche Anfrage (HL3050) verlassen hat, unhaltbar.

Der dritte Absatz besteht zumeist aus Wortgeklingel. Im Einzelnen liefern die erwähnten „physikalischen Klimamodelle“, die das Met. Office auf seinem Supercomputer rechnet, zwar tatsächlich Beweise für eine globale Erwärmung. Physikalische Klimamodelle und statistische Modelles sind beides „Modelle“, aber zwei völlig verschiedene Dinge. Für die Frage hier sind nur statistische Modelle relevant. Die physikalischen Klimamodelle, obgleich auf vielfache Weise beeindruckend, bieten keine durch Beobachtungen gestützte Beweise für eine globale Erwärmung.

Worum es hier geht ist die Behauptung, dass „der Temperaturanstieg seit etwa dem Jahr 1880 statistisch signifikant ist“. Diese Behauptung hat das Met. Office aufgestellt in der Antwort auf die ursprüngliche Frage (HL3050). Die Basis für diese Behauptung hat sich, wie inzwischen im Grunde eingeräumt, als unhaltbar erwiesen. Möglicherweise gibt es noch andere Erklärungen für die Behauptung, aber das scheint extrem unglaubwürdig: Die Behauptung scheint keinerlei gültige Grundlage zu haben.

Einfach ausgedrückt: Das Met. Office sollte die Behauptung jetzt offiziell zurückziehen. Das heißt, das Met. Office sollte zugeben, dass die aus den globalen Temperaturaufzeichnungen hervorgehende globale Erwärmung seit 1880 (oder tatsächlich 1850) sehr wohl im Bereich der natürlichen Variation liegt. Außerdem muss das Met. Office andere Behauptungen unter die Lupe nehmen, die es hinsichtlich statistisch signifikanter Klimaänderungen aufgestellt hat.

Schließlich hat nicht nur das Met. Office behauptet, dass der Anstieg der globalen Temperaturen statistisch signifikant ist: das IPCC hat das auch. Mehr noch, das IPCC hat das gleiche statistische Modell benutzt wie das Met. Office, und zwar in seinem vierten Zustandsbericht (2007). Darin wird die Auswahl des Modells in Band 1, Anhang 3.A diskutiert. Im Anhang wird zutreffend eingeräumt, dass hinsichtlich statistischer Signifikanz „die Ergebnisse von dem statistischen Modell abhängig sind, das man wählt“.

Welche Rechtfertigung findet sich in dem Anhang, das autoregressive Modell zu verwenden? Gar keine. Mit anderen Worten, das vom IPCC verwendete Modell wurde einfach durch Proklamation übernommen. Wissenschaft basiert auf Beweisen und Logik. Dass das IPCC keinerlei Beweise oder Logik hinsichtlich der Auswahl des Modells präsentiert hat, ist eine ernste Verletzung wissenschaftlicher Prinzipien – tatsächlich bedeutet es, dass das, was das IPCC gemacht hat, keine Wissenschaft ist.

Fazit: die primäre Basis für den Alarmismus der globalen Erwärmung hat keine Grundlage. Das Met. Office hat in den Antworten an das Parlament falsche Behauptungen aufgestellt hinsichtlich der Signifikanz der Klimaänderungen – ebenso wie gegenüber der Regierung, den Medien und Anderen – Behauptungen, die ernsthaft sowohl die Politik als auch die öffentliche Meinung beeinflusst haben. Als diese Behauptungen im Parlament in Frage gestellt worden sind, hat das Met. Office alles getan, um zu vermeiden, die Wahrheit zu sagen.

Mehr zum Autor Doug Keenan: http://www.informath.org/

Link zu einem Hintergrundartikel von Doug Keenan (pdf): https://3c.web.de/mail/client/dereferrer?redirectUrl=http%3A%2F%2Fwww.informath.org%2FAR5stat.pdf

Link zu diesem Artikel: http://www.bishop-hill.net/blog/2013/5/27/met-office-admits-claims-of-significant-temperature-rise-unt.html

Anmerkung des Übersetzers: In diesem Artikel stecken viele statistische Fachbegriffe, die ich weder im Deutschen noch im Englischen je gehört habe. Wer mag, kann sachlich mich auf eventuelle Fehler hinweisen.

C. F.




Weltklimarat begeht schleichenden Selbstmord – auf Raten!

Deren „Konsensmeinung“ wurde in den Rang allgemeingültiger Wahrheit erhoben, die zu kritisieren keinem Sterblichen erlaubt war. Dies galt insbesondere für die langfristigen Klimaprognosen, die in Wahrheit bestenfalls Projektionen waren auf der Basis vorgegebener Treibhausszenarien.

Das Urteil war politisch gefällt, bevor der Weltklimarat installiert wurde. Er hatte nur noch die Aufgabe, über ein internationales Expertengremium „wissenschaftlich“ die Alleinschuld der Treibhausgase per Mehrheit an der drohenden globalen Klimakatastrophe, d. h. demokratisch, feststellen zu lassen. Unter gigantischem Pressejubel publizierte 1990 der Weltklimarat seinen ersten globalen Klimazustandsbericht. Er operierte mit Angst- und Horrorszenarien, um in der Welt eine Art Untergangsstimmung zu erzeugen. Rettung bestehe dann und nur dann, wenn möglichst rasch und drastisch die Emissionen an Treibhausgasen gesenkt und die fossilen Energieträger geächtet würden. Nur so könne der Klimakollaps verhindert werden. Um den Ernst der Lage fühlbar werden zu lassen, wurde das ganze Spektrum an möglichen Unwettern aufgeboten. Alle nur möglichen Wetterszenarien wurden bemüht, um den Eindruck eines nahenden Weltuntergangs zu erwecken. Der menschengemachte CO2-Treibhauseffekt werde die Erde zur „Hölle“ machen. Die Zahl und Intensität von Hitze- und Dürreperioden, aber auch an Orkanen, Wirbelstürmen, Sturmfluten wie Überschwemmungen werde dramatisch ansteigen. Aber auch Bilder von „Land unter“ wie bei der „Sintflut“ wurden als reales Zukunftsszenarium prognostiziert. War es eine allgemeine Angststarre, die kaum Kritik und Zweifel aufkommen ließ?

Noch hatte der Weltklimarat das alleinige Meinungsmonopol. Die Kritik aus der Fachwelt war sehr verhalten und die wenigen Mutigen, die an der Existenz des Treibhauseffektes Zweifel zu äußern wagten und die statistischen Trendanalysen infrage stellten, wurden pauschal als „Klimaskeptiker“ oder gar „Klimaleugner“ auf polemisch rüde Art abgebügelt und öffentlich an den Pranger gestellt. Doch diese unsinnigen Begriffsprägungen sollen ablenken und die eigene argumentative Hilflosigkeit kaschieren. „Klima“ ist ein statistisches Konstrukt, das anhand langjährig erhobener Wetterdaten berechnet wird. An Klimadaten zu zweifeln oder sie gar zu leugnen, käme keinem Kritiker in den Sinn. Doch da die Kritik substantieller Natur und physikalisch nicht zu widerlegen ist, greift man zum Mittel der Diffamierung, der sich die Masse leicht anschließen kann.

Aber die „Masse“ hat kein eigenes Denk- und Urteilsvermögen. Sie orientiert sich am Wind des Zeitgeistes und dreht sich mit ihm. Sie kennt nicht die Forderung des Sozialphilosophen Herbert Marcuse (1898-1979), dass „jeder, der gelernt hat, rational und autonom zu denken“ geradezu verpflichtet ist, sich zu Wort zu melden, Kritik zu üben und Missstände offen zu legen. Dies ist sozusagen eine staatsbürgerliche demokratische Pflicht. Die „Masse“ begehrte auch nicht auf, als sie in Kollektivhaftung genommen und pauschal zum „Klimakiller“ entwürdigt wurde. Was soll sie Töten, das „Klima“. Dieses ist ein totes Abstraktum, das es im Gegensatz zum lebendigen Wetter gar nicht gibt. Dies bestätigt die WELT am 29. September 2013 mit der simplen Aussage des Meteorologen Sven Plöger: „Das Klima kann niemand spüren“. Was man nicht spüren kann, kann man nicht fühlen, kann man nicht messen und auch nicht töten bzw. „killen“. Dies gelänge nicht einmal beim Wetter! Und dieses fühlt man, wenn ein Herbststurm einem um die Ohren pfeift und Bäume umwirft!

IPCC – Kometenhafter Aufstieg bis zum „Friedensnobelpreis 2007“

Schnell hatte das erlauchte Gremium von Klimaexperten die absolute Deutungshoheit gewonnen und damit die Interpretationsmacht über ein „Ding an sich“ (Immanuel Kant), das Globalklima. Dieses war in höchster Lebensgefahr und musste unbedingt zum Wohle der Menschheit gerettet werden. Dieses war aber auch gefährlich und konnte sich, so sagt man, an dem ihm Gewalt antuenden Menschen rächen, indem es dem Wetter den Befehl erteilte, etwas „verrückter“ zu spielen und „extremer“ zu werden. Diese Warnung der Klimaexperten „zog“ und breitete sich wie eine Gezeitenwelle als „Welle der Angst“ rund um die Welt aus.

Da diese Warnung im Diffusen verharrte und kein Mensch, ebenso wie kein Staat, wusste, wo das nächste Wetterextrem einschlug und Schneisen der Verwüstung schlug, bemühten sich alle, Musterschüler im Klimaschutz zu sein. Insbesondere Deutschland wollte Klassenprimus und Vorreiter sein und der Welt den Weg weisen. Hier wurde das Kohlenstoffdioxid CO2 als besonders gefährliches Klimagas in Acht und Bann geworfen. Es wurde zu einem „Umweltgift“ deklariert, und wenn es nach besonders gläubigen Klimaschutz-Aktivisten gegangen wäre, dann hätte man längst die Atmosphäre von diesem klimaschädlichen „Giftgas“ befreit, um das Klima auf den Pfad der Tugend zurückzuführen und es zu besänftigen.

Deswegen kam auch das Friedensnobelpreis-Komitee in Oslo auch auf die grandiose Idee, den Weltklimarat mit dem Friedensnobelpreis auszustatten. Doch was hatte dieser konkret gemacht, um das Globalklima auf einen Anti-Konfrontationskurs zu bringen? Sollte es die ewigen Sünden des Menschen und seine unaufhörlichen CO2-Attacken einfach negieren und sich still verhalten? Doch so zu fragen ist politisch nicht korrekt! Wie man sich in solch einer prekären Lage verhält, das hatte der ehemalige US-Vizepräsident Al Gore gezeigt mit seinem Film „Eine unbequeme Wahrheit“. Seine Premiere war auf dem Sundance Film Festival 2006. Dieser erwies sich als Science-Fiction-Film nicht nur als Kassenschlager, sondern brachte Al Gore auch einige „Oskars“ ein. Für Deutsche Schulen wurde dieser Film massenweise gekauft, um den Kindern die Gefährlichkeit und Heimtücke des Klimas vor Augen zu führen. Ganz anders war dies in Großbritannien. Dort entdeckte das oberste Gericht neun eklatante Fehler in dem Film, so dass er nicht ohne Hinweis auf diese Lügen in Schulen gezeigt werden darf.

Jedenfalls wurden Al Gore ebenso wie der Weltklimarat unter seinem Vorsitzenden Rajendra Pachauri für würdig befunden und mit dem Friedensnobelpreis 2007 ausgezeichnet. Welches ihre besondere Leistung war, das bleibt im Unklaren und Ungewissen. Wer zwischen zwei befeindeten Parteien, hier der „Globalmensch“ und dort das „Globalklima“, Frieden stiften will und soll, der muss mit beiden Kontrahenten reden, die verfeindeten Parteien an einen Tisch bringen. Denn wozu sonst soll ein Friedensnobelpreis dienen? Doch wie verhandelt man mit beiden Parteien, wenn diese nur als Abstraktionen, als Fiktionen existieren, als statistische Größen? Darüber schweigen die Geehrten beharrlich und lassen es sich mit dem Preisgeld gut gehen. Wer kann schon zwischen „Gespenstern“ vermitteln?

Doch war da nicht doch eine Leistung des IPCC? In seinem „Fourth Assessment Report“ (AR4) 2007 hatte sich nach langen Recherchen und im Konsens der Weltklimarat darauf geeinigt, dass man sich zu 90 Prozent sicher sei, dass menschlicher Einfluss auf das Klima mehr als die Hälfte des Anstiegs der mittleren globalen Bodentemperatur seit Ende der „Kleinen Eiszeit“ ab 1850 verursacht habe. Nach einem Beweis wurde das Experten-Gremium nicht gefragt, so dass Spielraum „nach oben“ blieb.

Das Wetter spielt nicht mit und demaskiert den Weltklimarat

Kaum waren die Nobel-Feierlichkeiten in Oslo vorbei, da wurde im November 2009 kurz vor der UN-Weltklimakonferenz in Kopenhagen der Weltklimarat von einem Datenskandal im Klimaforschungszentrum der Universität von East Anglia überrascht, auch „Climategate“ genannt. In allen Prognose-Modellen war der Anstieg der „Globaltemperatur“ kausal an den Anstieg des CO2-Gehalts geknüpft. Stieg der CO2-Gehalt, so stieg auch automatisch die „Globaltemperatur“. Doch diese hatte bereits 1998 ihren Höhepunkt erreicht und fiel seitdem langsam aber merklich ab. Dies konnte der IPCC lange Zeit kaschieren und als bloße Propaganda abtun, bis über eine Indiskretion ein E-Post-Schriftverkehr publik wurde, der nach Datenmanipulation roch. Alle staatlichen Untersuchungskommissionen wollten jedoch keine Manipulation sehen und plädierten für „Freispruch“.

Sehr aufschlussreich ist allerdings die Reaktion vieler renommierter Klimaexperten, darunter auch die Deutschen Jochem Marotzke, Hans Joachim Schellnhuber und Hans von Storch. Sie alle vertraten die Meinung: Der anthropogene Klimawandel sei Realität und werde künftig noch stärker in Erscheinung treten! Solche Äußerungen sind gefährlich, denn die Realität ist schnell und legt Fehlprognosen schonungslos offen. Dies haben insbesondere die Forstexperten gespürt. Alle ihre Waldsterbens-Prognosen erwiesen sich als pure Spekulation. In der FAZ vom 18. Oktober 2013 schreibt Marcus Jauer in einem Artikel „Die Natur der Hysterie“: „Heute, dreißig Jahre später, ist keine der Voraussagen eingetroffen. … Aber keine Baumart, kein Wald ist verschwunden, im Gegenteil, es gibt in Deutschland mehr Wald als vorher. … Wie konnte etwas, das unabwendbar schien und von dem deshalb jeder ausging, am Ende doch nicht eintreten? War alles nur Hysterie?“

Ja, das war Hysterie, die künstlich geschürt wurde, weil man einige Wissenschaftler mit einer Art „Heiligenschein“ umgab und sachliche Kritik einfach vom Tisch wischte. Hans von Storch erklärt das in dem Artikel so: „Es ist damals von wissenschaftlicher Seite eine Angststrategie gefahren worden, um mit Prognosen bestimmte Lösungen zu erzwingen.“ Von Storch weiter: „Danach sei die Forstwissenschaft kaputt gewesen und als öffentlicher Berater verbraucht.“ Auch der Weltklimarat ist als Berater längst verbraucht, doch als Institution hat er ein zähes Leben und wird um sein Überleben kämpfen.

Sein „Kampf ums Dasein“ geht weiter. IPCC geht keinen Schritt zurück, sondern verkündet in seinem jüngsten „Fifth Assessment Report“ (AR5), dass er sich nun zu 95 Prozent sicher sei, dass für die Periode 1951 bis 2010 der Mensch mehrheitlich an der Erderwärmung beteiligt sei. Irgendeine Erläuterung gibt es nicht, auch nicht bezüglich des Widerspruchs, dass das IPCC sich der Meinung des Britischen Wetterdienstes angeschlossen habe, dass in der Tat die anhand einer unbekannten Zahl von Wetterstationen berechnete „Globaltemperatur“ seit 1998, also seit nunmehr 15 Jahren, zurückgehe, trotz des enorm gestiegenen CO2-Gehalts der Luft. Was den Wert von 95 Prozent Sicherheit angeht, so wurde dieser bereits 1995 in Berlin vor der 2. UN-Klimakonferenz propagiert. Ihn lieferte das Max-Planck-Institut für Meteorologie in Hamburg unter Leitung von Klaus Hasselmann.

In einem Interview mit „faz.net“ am 21. September 2013 antwortet Hans von Storch auf die Frage, warum seit 15 Jahren die „Globaltemperatur“ nicht mehr steige: „Das passt schon. Die Klimaerwärmung kann eine Pause einlegen, um sich später wiedereinzustellen.“ Was ist das für ein Phänomen „Klimaerwärmung“, das beschließt, eine Pause einzulegen, um irgendwann den Gipfelsturm wiederaufzunehmen? Was die Unsicherheit der Klimamodell betrifft, so offenbart von Storch lapidar: „Wir können die Rolle der Sonne etwas verstärken und gleichzeitig den Einfluss der Treibhausgase etwas zurücknehmen. Und schon liegen wir wieder ziemlich richtig.“ Für diesen tiefen Einblick in die Arbeitsphilosophie der Klimaexperten gehört Hans von Storch unser aufrichtiger Dank. Und solche Modelle verlangen Unfehlbarkeit? Und zum schlechten Image des Weltklimarates sagt von Storch: „Das verdanken wir schlampig argumentierenden Wissenschaftlern und der elendigen Politisierung der Klimaforschung.“ Warum nimmt er sich da persönlich aus? Warum verschweigt er, dass die gesamte Klimaforschung am staatlichen Fördertropf hängt? Da hilft auch nicht der politische Seitenhieb: „Noch schlimmer ist das Bundesumweltamt, das qua Amt unleugbare Wahrheiten vorgeben will.“

Die Erklärungsnot wird größer, die Rechtfertigungsversuche schwächer

Trotz aller forschen Selbstsicherheit bei der Präsentation der Zusammenfassung des fünften Weltklimaberichts ist er doch von einer tiefen Unsicherheit geprägt. Viele Journalisten schauen inzwischen auf „Das Kleingedruckte“ wie Joachim Müller-Jung in der FAZ vom 2. Oktober 2013. Und da fallen plötzlich Ungereimtheiten auf, die vorher überlesen wurden. Dies betrifft die ominöse und experimentell niemals nachgewiesene „Klimasensitivität“. Diese erweist sich zunehmend als Spielwert, um heimlich im Nachhinein die Modellberechnungen an die Realität anzupassen. Manche plädieren für eine Herabsetzung manche für eine Heraufsetzung der Sensitivität, rein aus dem Bauchgefühl ohne physikalische Begründung. Das willkürliche Drehen an Stellschrauben, um ins Chaos abdriftende Computervorhersagen mehr an die Wirklichkeit zu adaptieren, nannte man früher verklausuliert „Flusskorrekturen“.

Obgleich die Vorhersageunsicherheiten gestiegen sind, verkündet Peter Lemke vom Alfred-Wegener-Institut: „Aussagen über mögliche künftige Entwicklungen des Klimas sind auf der Grundlage von erweiterten und verbesserten Modellen belastbarer und sicherer geworden.“ Auch Christiane Textor, die die Deutsche IPCC-Koordinierungsstelle in Bonn leitet, vertritt die Meinung (VDI nachrichten vom 4. Oktober 2013), „dass die Sicherheit zugenommen, habe, dass die Veränderungen im Klimasystem menschlichen Aktivitäten zuzuordnen sind“.

Doch wo ist bei dem Rückgang der „Globaltemperatur“ die zusätzlich von der Atmosphäre aufgenommene Wärme im Klimasystem der Erde geblieben? Hier waren die Klimaexperten bei der Suche nach dem „Wärmeversteck“ besonders kreativ. Michael Schulz, Direktor des Zentrums für maritime Umweltwissenschaften der Universität Bremen, weiß es ganz genau, „nämlich zu 93 % in den Weltmeeren“. Hurra, hier hat man endlich die „Wärmesenke“ gefunden. Wer ist in seiner Verzweiflung auf diese Idee gekommen? Nun, das bleibt sicher anonym, wenn auch laut IPCC an dem AR5 nur noch 830 Autoren gearbeitet haben, statt der ehemals 3000 weltweit führenden Klimaexperten.

Obgleich die Zahl von „93 %“ bekannt scheint, hätten die Forscher gerne genauere Messdaten aus den Ozeanen, um gerade kurzfristige Klimareaktionen genauer bestimmen zu können. So komme man nicht mehr in Verlegenheit, wenn man die 15jährige Erwärmungspause erklären soll. Der Nebeneffekt sind zahlreiche Forschungsreisen in die Weiten des Pazifischen Ozeans. Ausgerechnet hier soll das vom Treibhauseffekt erwärmte Oberflächenwasser ähnlich einem „Bermuda-Dreieck-Effekt“ plötzlich abgetaucht und in den Tiefen verschwunden sein. Hier habe es sich in „Meeresschichten unterhalb von 700 Meter Tiefe“ versteckt, um nach völlig unbekannter Dauer wieder an die Oberfläche aufzusteigen, um die Erwärmungspause bei der Globaltemperatur zu beenden. Die eigentlich jedem auf der Zunge liegende Frage, wie warmes und damit leichtes Oberflächenwasser freiwillig abtauchen kann, um sich in 700 Meter Tiefe vor den Augen der Welt zu verstecken, hat bisher niemand gestellt, weder ein Journalist, noch ein Wissenschaftler, geschweige denn ein Politiker. Erst wenn Wasser auf vier Grad abgekühlt ist und dort seine größte Dichte hat, sinkt es ab.

In dem weltweiten Unterhaltungsspiel „Klimakatastrophe“ durch „Klimaerwärmung“ durch „Treibhauseffekt“ scheint es immer kurioser zuzugehen. Hier werden Forschungsgelder verprasst, wird gesungen und gelacht. Zum Lachen waren auch die „Lehren aus der Treibhaus-Welt der Urzeit“, die das Museum für Naturkunde Berlin am 8. Oktober 2013 verbreitete. Da hat man die Zeit zwischen Perm und Trias vor 251 Millionen Jahren untersucht und kam zu der Erkenntnis: „Die globale Erwärmung am Ende des Perms wird auf anhaltende massive Vulkanausbrüche in Sibirien zurückgeführt, bei welchen durch die Verbrennung von kohlenstoffreichen Sedimenten große Mengen des Treibhausgases Kohlendioxid (CO2) in die Atmosphäre befördert wurden.“ Weiter heißt es: „Die Ergebnisse des Berliner Forscherteams zeigen, dass die Meerwasser-Temperaturen in der äquatorialen Zone (in welcher sich der heutige Iran vor 251 Millionen Jahren befand) innerhalb recht kurzer geologischer Zeit um 5 bis 8 Grad auf über 35 Grad angestiegen sind.“

Ob der Weltklimarat ob dieser Erkenntnisse erfreut sein wird? Immerhin hat er bisher die These vertreten, dass Vulkanausbrücke kühlend auf die Atmosphäre wirken. Und nun plötzlich genau das Gegenteil? Doch genau dies scheint plausibel, denn Vulkanologen wissen, dass von den vulkanischen Exhalationen im Schnitt 80 % Wasserdampf, 16 % Kohlenstoffdioxid und nur 4 % Staub und sonstige Aerosole sind. Einen Klimaexperten muss ich noch zitieren. In der Allgemeinen Zeitung Mainz vom 28. September 2013 sagte er: „Jetzt muss gehandelt werden. UN-Bericht lässt keine Zweifel am Temperaturanstieg mehr zu.“ So ignorant können nur Ideologen sein!

Und es gibt weitere Kuriositäten. So meldete die französische Nachrichtenagentur AFP am 12. Oktober 2013: „Komet löste Eiszeit vor 13.000 Jahren aus: Neue Erkenntnisse.“ Man höre und staune: „Vor rund 13.000 Jahren erlebte die Erde einen dramatischen Klimawandel, der weitreichende Auswirkungen auf die Tier- und Pflanzenwelt hatte. Wissenschaftler sind jetzt zu der Erkenntnis gelangt, dass der damalige plötzliche Übergang zu einem kühleren und trockeneren Klima mutmaßlich auf den Einschlag eines Asteroiden oder Kometen ausgelöst worden sei, wie das US-Fachmagazin „Proceedings of the National Academy of Sciences“ berichtet.“ Der Himmelskörper soll im Gebiet der kanadischen Provinz Quebec eingeschlagen sein, aber der Krater sei noch nicht gefunden.

Nach meinem Informationsstand begann vor 115.000 Jahren die Weichsel-Eiszeit und endete vor 12.000 Jahren. In Nordamerika hat sie den Namen Wisconsin-Eiszeit. Beide haben etwa  denselben Verlauf. Beider Maximalausdehnung war vor rund 25.000 Jahren. Danach ging die Eisausdehnung in Etappen zurück. Dass ein Komet vor 13.000 eine Eiszeit ausgelöst haben soll, das scheint doch mehr als nur fraglich. Eine ähnliche „Ente“ hatte schon das Pentagon in Washington in die Welt gesetzt. Danach soll vor 8.200 Jahren unvermittelt der Golfstrom gestoppt haben mit der Folge, dass Nordeuropa unter einer dicken Eisschicht verschwand und im Osten der USA Temperaturen wie in Sibirien herrschten. Diese „richtige Eiszeit“ dauerte dann mehr als 100 Jahre. Auch hierfür gibt es keinerlei Belege. Es war die Zeit, als die über 2000 Meter dicke Eisschicht über Skandinavien abschmolz und das Schmelzwasser die Ostsee zurückließ. Skandinavien ging nicht unter, sondern erhob sich „vom Eise befreit“ aus dem Meer. Allerdings versank der südliche Teil der Nordsee mit der Doggerbank. Der Ärmelkanal entstand. England wurde eine Insel und konnte trockenen Fußes nicht mehr erreicht werden.

Klima heißt Neigung und es scheint, dass jeder Klimaexperte seinen Neigungen freien Lauf lässt. Wissenschaft kann erheiternd sein. Wer weiß, was noch an Überraschungen auf uns zukommt.

Auch William Shakespeare (1564-16161) rätselte in der Komödie „Ein Sommernachtstraum“ 1595 über die Launen von Wetter, Witterung und Klima: „Durch eben die Zerrüttung wandeln sich die Jahreszeiten: … Der Lenz, der Sommer, der zeitigende Herbst, der zornige Winter, sie alle tauschen ihre gewohnte Tracht.“ Wetterkapriolen hat es schon immer gegeben.

Dipl.-Met. Dr. phil. Wolfgang Thüne




Eine weitere Unsicherheit für Klimamodelle – gleiche Modelle liefern unterschiedliche Ergebnisse, wenn auf unterschiedlichen Computern gerechnet

Bild rechts: Graphik von Dr. Roy Spencer

Zunehmende mathematische Unsicherheiten der Startbedingungen sind der Hauptgrund. Aber einiges davon könnte der Tatsache geschuldet sein, dass einige Modelle trotz des gleichen Codes nicht die gleichen Ergebnisse zeigen, wenn die Rechenoperationen an verschiedenen CPUs, Betriebs-Systemen und Compilern durchgeführt werden. Mit dieser Studie können wir nun Software-Unsicherheiten der Liste von Unsicherheiten hinzufügen, die hinsichtlich des Klimas und seiner Modellierung bekannt sind.

Mir ist diese Studie gestern vor Augen gekommen, und deren Ergebnisse sind ziemlich aufschlussreich.

Die Studie wurde am 26. Juli 2013 im Monthly Weather Review veröffentlicht, also einem Journal der American Meteorological Society. Sie kommt zu dem Ergebnis, dass das gleiche Vorhersagemodell (eines für die geopotentielle Höhe) zu unterschiedlichen Ergebnissen kommt, wenn man es auf verschiedener Computer-Hardware und Operationssystemen laufen lässt, ohne sonst irgendwelche Änderungen vorzunehmen.

Sie sagen, dass die Unterschiede hauptsächlich durch Rundungsfehler der verschiedenen Software-Systeme auftreten und dass diese Fehler mit der Zeit zunehmen, das heißt sie akkumulieren sich.

Die Autoren:

„Wir behandeln die Toleranzfrage und verwenden dafür die 500-hPa-Fläche für die mittelfristige Vorhersage sowie den Ensemble-Spread für jahreszeitliche Klimasimulationen“.

„Die Abhängigkeit (von Hardware & Software), also die Standardabweichung der 500-hPa-Geopotentialfläche (Gebiete mit hohem und tiefem Druck) gemittelt über den Globus nimmt mit der Zeit zu“.

Die Autoren kommen zu dem Ergebnis:

„Der Ensemble-Spread infolge der Unterschiede in den Software-Systemen ist vergleichbar mit dem Ensemble-Spread infolge von Unterschieden der Anfangsbedingungen, die für die traditionelle Vorhersage von Ensembles verwendet werden“.

Schon viele Studien haben gezeigt, dass kleine Änderungen der Anfangsbedingungen von Klimamodellen signifikant unterschiedliche Projektionen des Klimas erzeugen.

Man fragt sich, ob einige der katastrophalen Zukunfts-Projektionen vielleicht nur aufgrund eines Rundungsfehlers simuliert werden.

Die Software/Hardware-Tests haben sie folgendermaßen durchgeführt:

Tabelle 1 zeigt die 20 Computersysteme einschließlich Fortran-Compiler, Parallel-communication libraries und optimierte Levels des Compilers. Der Linux-Cluster der Yonsei University (YSU) ist mit 12 Intel Xeon CPUs pro Node ausgestattet (Modellname: X5650) und unterstützt die PGI und Intel Fortran Compiler. Das Korea Institute of Science and Technology Information (KISTI, http://www.kisti.re.kr) verfügt über eine Computer-Ausrüstung mit High Performance IBM  und SUN-Platttformen. Jede Plattform ist ausgerüstet mit verschiedenen CPUs: Intel Xeon X5570 for KISTI-SUN2 platform, Power5+ processor of Power 595 server for KISTI-IBM1 platform, and Power6 dual-core processor of p5 595 server for KISTI-IBM2 platform. Jede Maschine hat eine unterschiedliche Architektur und etwa fünfhundert bis zwanzigtausend CPUs.*

[*Ich verstehe hier nur Bahnhof. Sorry! A. d. Übers.

Im Original lautet dieser Absatz: Table 1 shows the 20 computing environments including Fortran compilers, parallel communication libraries, and optimization levels of the compilers. The Yonsei University (YSU) Linux cluster is equipped with 12 Intel Xeon CPUs (model name: X5650) per node and supports the PGI and Intel Fortran compilers. The Korea Institute of Science and Technology Information (KISTI; http://www.kisti.re.kr) provides a computing environment with high-performance IBM and SUN platforms. Each platform is equipped with different CPU: Intel Xeon X5570 for KISTI-SUN2 platform, Power5+ processor of Power 595 server for KISTI-IBM1 platform, and Power6 dual-core processor of p5 595 server for KISTI-IBM2 platform. Each machine has a different architecture and approximately five hundred to twenty thousand CPUs.]

Und hier sind die Ergebnisse:

Tabelle 2: Global gemittelte Standardabweichung der 500 hPa-Fläche aus dem 10-Mitglieder-Ensemble mit unterschiedlichen Anfangsbedingungen in einem gegebenen Software-System 383 (d. h. Ensemble der Anfangsbedingungen) und der korrespondierenden Standardabweichung des 10-Mitglieder-Ensembles mit unterschiedlichen Software-Systemen für einen gegebenen Anfangszustand (d. h. Ensemble der Software-Systeme).

Einigen mögen diese Unterschiede gering vorkommen, aber man sollte im Auge behalten, dass diese Standardabweichungen nur für Modellierungen von 10 Tagen im Voraus durch globale Wettervorhersage-Systeme gelten, und nicht für Jahrzehnte durch Klimamodelle.*

*Siehe hierzu den Anhang der EIKE-Redaktion unten!

Eindeutig wird hier eine Evaluierung dieses Effektes gebraucht, wenn es um viele der GCMs geht, die verwendet werden, um das zukünftige Klima zu projizieren. Beeinflusst dieser Effekt die Modelle, und wenn ja, wie viel von deren Output ist real, und wie viel des Outputs beruht lediglich auf akkumulierten Rundungsfehlern?

Die Studie:

An Evaluation of the Software System Dependency of a Global Atmospheric Model

Song-You Hong, Myung-Seo Koo,Jihyeon Jang, Jung-Eun Esther Kim, Hoon Park, Min-Su Joh, Ji-Hoon Kang, and Tae-Jin Oh Monthly Weather Review 2013 ; e-Viewdoi: http://dx.doi.org/10.1175/MWR-D-12-00352.1

Abstract

Diese Studie präsentiert die Abhängigkeit von Simulationsergebnissen eines globalen numerischen Modells, das auf Rechnern mit unterschiedlichen Hardware- und Software-Systemen gerechnet wird. Das Global Model Program (GMP) des Global/Regional Integrated Model Systems (GRIMs) wird auf 10 verschiedenen Computersystemen getestet mit unterschiedlichen Prozessor-Einheiten (CPU) oder Compilern. Es gibt Unterschiede in den Ergebnissen verschiedener Compiler, parallel libraries und Optimierungs-Niveaus, hauptsächlich durch die Behandlung von Rundungsfehlern durch die verschiedenen Software-Systeme. Die Abhängigkeit des Systems, also die Standardabweichung der 500 hPa-Fläche gemittelt über den Globus nimmt mit der Zeit zu. Allerdings verharrt die fractional Tendency [?], also die Änderung der Standardabweichung relativ zum Wert selbst, mit der Zeit bei nahe Null. Im Rahmen einer jahreszeitlichen Vorhersage ist der Ensemble-Spread aufgrund der Unterschiede in den Software-Systemen vergleichbar mit dem Ensemble-Spread aufgrund unterschiedlicher Anfangsbedingungen, die für die traditionelle Vorhersagen von Ensembles verwendet werden.

h/t to The Hockey Schtick

Link: http://wattsupwiththat.com/2013/07/27/another-uncertainty-for-climate-models-different-results-on-different-computers-using-the-same-code/

Übersetzt von Chris Frey EIKE

Anhang: Die in diesem Artikel angesprochene Problematik globaler Wettervorhersage-Systeme kann jeder täglich selbst nachvollziehen (und zwar hier: http://www.wetterzentrale.de/topkarten/fsenseur.html). Beispielhaft seien hier die folgenden drei Abbildungen gezeigt:

Dipl.-Met. Hans-Dieter Schmidt, EIKE-Redaktion




Hart aber ahnungslos: Die Energiewende bei Frank Plasberg

von Günter Ederer

Frank Plasberg hat sich mit kritischen Fragen und zuspitzenden Trailern alle Mühe gemacht, dem Titel seiner Sendung gerecht zu werden: Teure Öko-Träume: Wer stoppt den Strompreis – Irrsinn? Aber wer hat denn nur diese Gäste eingeladen? Da passt der alte Spruch: Wer einen Sumpf trocken legen will, darf nicht die Frösche fragen. Aber außer dem WDR Kollegen Jörg Merksteiner der für die Verbraucherredaktion zuständig ist, saßen da nur Diskutanten, die mehr oder weniger für die steigenden Strompreise verantwortlich sind. Entsprechend trostlos war das Ergebnis der Sendung. Schade für die Zeit und das Geld.

Plasberg begann mit einer Zuschauerfrage. Wer zockt uns eigentlich ab, wollte Reinhard S. wissen. Er habe alles getan, um seinen Stromverbrauch zu senken, neue elektrische Geräte gekauft und alle Sparempfehlungen umgesetzt. Sein Stromverbrauch sei um 20 % gesunken, aber die Strompreise um 120 % gestiegen. Diese Frage wollte Simone Peter beantworten, die neue Grünenchefin: „Schuld sind die Kohle- und Atomlobbyisten, die die Energiewende bewusst an die Wand fahren und Schuld ist die schwarz-gelbe Regierung, die der Industrie Rabatte gewährt und so die Kosten auf die privaten Haushalte umwälzt.“ Unterstützt wurde sie in dieser Argumentation von Frau Prof. Dr. Claudia Kemfert, die es als Energieexpertin in Deutschland zu einer gewissen Prominenz gebracht hat. Und das Publikum in der Talkshowarena klatscht Beifall.

Schon jetzt war die Sendung auf die schiefe Ebene billiger Schlagworte und grüner Parteipropaganda abgeglitten. Das ist bei Simone Peter auch nicht anders zu erwarten gewesen. Die Stationen ihrer Karriere, die das erklären, blieben dem Publikum vorenthalten. Simone Peter ist eine klassische Lobbyistin. Sie arbeitete für die europäische Vereinigung für erneuerbare Energie, besser bekannt als Eurosolar. Das ist die am besten vernetzte Organisation zur Vertretung der Solarindustrie. Mitgründer war der mittlerweile verstorbene SPD-Bundestagsabgeordnete Hermann Scheer der enge Kontakte zum Solarunternehmen Solarworld unterhielt und von diesem Geldbeträge erhielt. Seinen Gründer Frank Asbeck wurde dank üppiger Subventionen zum Multimillionär. Wie fast alle deutschen Firmen der Fotovoltaikbranche schrammt er zurzeit an der Insolvenz entlang, weil chinesische Produzenten von dem staatlich gelenkten deutschen Markt mehr profitierten als die Deutschen.

Als Solarlobbyisten war es nur ein konsequenter Weg als Umweltministerin in die saarländische Dreierkoalition von CDU/FDP und Grünen berufen zu werden. In diesem hoch verschuldeten Bundesland, kleiner als der Landkreis Uckermark und weniger Einwohner als der Landkreis Hannover half sie mit die Energiewende hin zu Planwirtschaft umzusetzen. Als Vertreterin des linken Flügels wurde sie jetzt eine der Parteivorsitzenden der Grünen und trat damit die Nachfolge von Jürgen Trittin an.

Entsprechend waren ihre Beiträge in der Sendung, deren hohle Propaganda nicht aufgeklärt werden konnten,  nicht zuletzt weil dies eine Talkshow war. Beispiel, die schon erwähnten Rabatte für energieintensive Industrien. Natürlich ist es richtig zu hinterfragen, ob ein System, in dem es sich für Betriebe rechnet, die extra Maschinen laufen lassen, um einen hohen Energieverbrauch zu erzielen, damit sie Stromrabatte erhalten nicht pervers ist. Das kommt davon, wenn der Markt, außer Kraft gesetzt wird und Behörden entscheiden, was gut und was böse ist.

Als Beispiele für ungerechte Strompreisnachlässe wurden Schlachtereien, Molkereien, Schienenverkehrsbetriebe und sogar Mineralbrunnen angesprochen. Der CDU Abgeordnete Michael Fuchs, einer der wenigen Marktwirtschaftler, den die CDU noch hat, machte deutlich, dass natürlich diese Ausnahmegenehmigungen abgeschafft werden müssen, dass dies aber in vielen Fällen dann zu Preiserhöhungen führen würde. Steigen die Energiekosten für die Straßenbahn, müssen die Ticketpreise erhöht werden. Das gleiche trifft für alle Branchen zu, die ihre Produkte auf dem Markt absetzen müssen. Während dieser Argumentation quatschte Simone Peter ständig dazwischen. Sie wollte verhindern, dass der logische Zusammenhang deutlich wird, dass hohe Stromkosten, egal wo sie anfallen, immer zulasten des Verbrauchers gehen und dabei besonders die kleinen und mittleren Einkommen belasten.

Die Argumentation, dass durch die Abschaffung der Rabatte die Verbraucher entlastet würden, ist reine Ablenkungspropaganda, die auch schon Jürgen Trittin beherrschte. Fakt ist, dass damit die Strompreise um einen Cent gesenkt werden könnten, der aber, wie schon beschrieben, über höhere Verbraucherpreise wieder aufgefressen würde.

Die einzige Lösung, um die stark steigenden Strompreise wieder in den Griff zu bekommen, ist mehr Markt oder besser gesagt, wieder Marktwirtschaft auch in der Stromproduktion. Dafür aber müssten die heiligen Kühe der Grünen geschlachtet werden: Die garantierten Preise und der absolute Vorrang für die Einspeisung so genannter erneuerbaren Energien. Aber dies würde vor allem zulasten des Wohlhabenden Klientels der Grünen gehen. Nur wer Dächer hat (Eigenheim) oder Kapital (für Bürgerwindparks) kann sich durch das EEG von den steigenden Strompreisen davon stehlen. Dies wurde in dieser Deutlichkeit in der Sendung unterschlagen. Mit einer kleinen Ausnahme: Michael Fuchs machte an einem Beispiel deutlich, wie die Subventionen für die Erneuerbaren die Preise in die Höhe treiben: Ein Bauer, der auf einem Feld von 200 m2 gerade Mal zwischen 300 und 400 Euro erwirtschaften konnte, bekommt von einem Windkraftunternehmen für die selbe Fläche 40 000.- Euro Pacht pro Jahr. Er wäre saudumm, wenn er diesen staatlich organisierten Profit nicht mitnehmen würde. Und wieder störte Simone Peter diese Faktenaufzählung. Und dann rief sie dazwischen. Die Energiekonzerne machen noch höhere Gewinne.

Dazu ein Beispiel: Der Energieriese RWE gehört zu großen Teilen Kommunen und Landkreisen. Seit der Energiewende ist der Aktienkurs von ehemals um die 100 Euro auf jetzt circa 30 Euro gefallen, was vor allem für die notleidenden Ruhrstädte eine mittlere Finanzkatastrophe bedeutet. Noch schlimmer aber sind die sinkenden Dividenden. Ich kenne eine Stadt, die pro Jahr von der RWE circa 1,4 Millionen Euro Dividende erhielt. Davon subventionierte sie mit 900 000 Euro den Personennahverkehr. Jetzt gibt es nur noch circa 800 000 Euro Dividende. Der Nahverkehr wird eingeschränkt werden müssen und er wird teurer. So viel zu den Gewinnen der Konzerne. In der Zeit der rot-grünen Bundesregierung wurden diese Konzerne erst richtig mächtig. Mehr Wettbewerb und damit mehr Markt wäre damals hilfreicher für die Verbraucher gewesen, als die geschrumpften Unternehmen jetzt noch mit den alten Klassenkampfparolen zum Sündenbock unserer verkorksten Energiepolitik zu machen.

Michael Fuchs hielt dagegen, so gut er konnte. Sein Handicap: Er ist Abgeordneter der CDU, der Partei von Angela Merkel, die weitgehend mitverantwortlich ist für den Energie-Schlamassel, in dem wir uns befinden. In einer möglichen grünschwarzen Koalition hätte sie sich prima mit Frau Peter verstanden, wenn es um die Energiewende und die Planwirtschaft im Stromsektor gegangen wäre. Ich hätte nie gedacht, dass ich einmal Hannelore Kraft dankbar sein würde, weil sie eine Annäherung an die Realität Millionen kleiner und mittlerer Einkommen und die Bedürfnisse eines Industriestaates vorgenommen hat. Fuchs sagte deshalb nicht, dass die gesamte in Deutschland praktizierte Energiewende ein einziger Murks ist. Er weiß es aber.

Wenig hilfreich zum Verständnis der Strompreisabzocke war auch Hildegard Müller, auch eine Lobbyistin, die ehemalige Staatsministerin im Kanzleramt von Angela Merkel, die jetzt Vorsitzende der Hauptgeschäftsführung des Bundesverbandes der Energie- und Wasserwirtschaft ist. Pflichtgemäß betonte sie mehrfach, dass ihr Verband auch die Energiewende wolle, aber halt anders. Was soll sie auch sonst sagen: Ihren Aufstieg verdankt sie der Klimakanzlerin und ihr Verband wird sich nicht mit den Regierenden anlegen, da die Entscheidungen, für die Zukunft der Branche bestimmen, nicht im Markt erkämpft werden, sondern von der Politik. Da müssen die Bosse brav bleiben – sonst trifft sie der Zorn – so ist das halt in der Planwirtschaft. Und dass Unternehmen, je größer sie sind umso weniger als Leuchttürme der Marktwirtschaft taugen, ließ Hildegard Müller dann auch noch durchblicken: Wenn schon auf die Stromrechnung 19 % Mehrwertsteuer aufgeschlagen werden, so könnte doch wenigsten alles über 7 % für die Subventionierung der energetischen Haussanierungen bereit gestellt werden. Also: Planwirtschaft schon, aber nur ein bisschen mehr zu unseren Gunsten.

Fast hätte ich sie vergessen. Die unvermeidliche Prof. Dr. Claudia Kemfert. Sie ist ein Phänomen. Kandidatin als Energieministerin für Nordrhein-Westfalen sollte CDU-Mann Norbert Röttgen die Wahl gewinnen. Kandidatin als Wirtschaftsministerin in Hessen, wenn der SPD – Linke Torsten Gümpel – Schäfer Ministerpräsident wird, gnadenlose Verfechterin der Planwirtschaft zugunsten der erneuerbaren Energie als Ökonomin, Mitglied des Club of Rome, dem Kassandraverein gelangweilter Multimillionäre, dessen einzige Konstante es bisher war, dass alle seine Katastrophenvoraussagen nicht eingetreten sind. In der Sendung fiel sie wieder auf, dass sie Strom speichern will, obwohl dies für das Volumen, das dafür notwendig wäre, in Jahrzehnten noch nicht absehbar ist. Sie steht halt noch auf dem Kriegsfuß mit der Physik und den Realitäten. Und trotzdem ist sie immer dabei.

Warum nur lieber Frank Plasberg hast Du das Dir und Deinen Zuschauern zugemutet. Gibt es keinen anderen Energieexperten mehr, wirklich nicht? Zum Beispiel einen, der erklärt, dass mittlerweile nicht nur unsere Nachbarn, sondern die Industriestaaten in der ganzen Welt über die deutsche Energiewende und ihre Kosten sich wundern und manchmal auch schon herzhaft lachen.




Was ist faul am Biogas?

Warum ist Biogas dann so wenig präsent?

Liegt es daran, dass es ein problemloser Energieträger ist und daher nicht für Schlagzeilen sorgt? Ist es ein echter Lichtblick, der ruhig und zuverlässig seinen Teil zum Grossen Plan beiträgt? Oder ist es eher das schwarze Schaf in der ohnehin recht räudigen Herde, über das man lieber nicht redet?

EINE BEGRIFFSKLÄRUNG

Wie im weiteren Verlauf näher ausgeführt wird, ist ‘Bio’-Gas alles andere als ‘Bio’ im Sinn von ökologisch, naturschonend und umweltfreundlich. ‘Biogas’ ist eine Propaganda-Wortschöpfung. Faktisch handelt es sich um Faulgas, das in Bio-Reaktoren hergestellt wird. Im weiteren werden diese technisch korrekten Begriffe verwendet.

STATUS QUO UND DIE PLÄNE FÜR DIE ZUKUNFT

An sich müsste Faulgas aus physikalisch-technischen Gründen der bedeutendste erneuerbare Produzent werden, denn die beiden Konkurrenten Wind und Sonne haben nur eine mittlere Verfügbarkeit von ca. 15,6% Vollast-Stunden:

2012

Effektive Verfügbarkeit (% Vollaststunden)

Anteil an der Stromerzeugung

Wind

19%

7,7%

PV

10%

4,7%

15,6% Effektives Mittel

12,4% in Summe

Um ganzjährig ohne Speicher und nur mit Faulgas als Regelenergie eine stabile Versorgung aufzubauen, müsste rechnerisch rund 84% des Stroms aus Biomasse hergestellt werden. Bei diesem optimierten Mix müsste der weitere Ausbau von Wind- und Solarenergie, der mit 12,4% schon nahe am optimalen Wert von 15,6% liegt, bereits jetzt fast völlig völlig gestoppt werden.

Es kommt allerdings praktisch nie vor,dass sowohl Wind als auch PV gleichzeitig die volle Nennleistung abgeben. Selbst bei optimaler Wetterlage (Wolkenloser Himmel zur Mittagszeit bei gleichzeitigem Starkwind) erreichen Wind und PV kaum mehr als etwa 70% ihrer Nennleistung. Das heisst, dass bis zu 22% Wind- und PV-Strom erzeugt werden können, ohne dass es nötig ist, zu Spitzenproduktionszeiten Übeschüsse zwischenzuspeichern; allerdings müssen dann alle anderen Erzeuger völlig heruntergefahren werden, da Wind + PV dann den gesamten Strombedarf allein decken.

Szenario 1: Weder Sonne noch Wind liefern Strom,Faulgas deckt 100% des Bedarfs
Szenario 2: Durchschnittliche Erzeugung durch Sonne und Wind, Faulgas liefert 78% des Bedarfs
Szenario 3: Sonne und Wind liefern unter optimalen Bedingungen 100% des Bedarfs, Faulgas ist abgeschaltet.

Diese Verteilung, bei der Faulgas 78% der gesamten Stromversorgung übernimmt, ist jedoch von vorne herein unrealistisch. Biomasse enthebt nicht davor, riesige Speicher bauen zu müssen, um mehr Wind- und PV-Strom bedarfsgerecht zur Verfügung zu stellen, da bei der Steigerung des Anteils über die 22% hinaus zwangsläufig nicht direkt verwertbare Überschüsse entstehen, die zwischengespeichert werden müssen.
Es ist in diesem Zusammenhang bemerkenswert, dass zwar ein kurzfristiges Ausbauziel für Faulgas besteht (6% des Erdgasverbrauchs bis 2020), aber keinerlei Vorstellung darüber vorliegt, welchen Anteil Faulgas im Endausbau der ‘Energiewende’ spielen soll. Das ist natürlich leicht verständlich, denn sobald dies konkretisiert würde, käme die unangenehme Wahrheit, dass die Energiewende undurchführbar ist, noch deutlicher zum Vorschein.
Dennoch muss dem Faulgas aufgrund seiner herausragenden, einzigartigen Eigenschaft der bedarfsgerechten und regelfähigen Stromerzeugung zweifellos eine große Bedeutung zukommen.

Das ist auch an den ‘Autarkie’-Projekten, den ‘Energiedörfern’ und ähnlichem erkennbar, denn immer spielt dabei das Faulgas eine sehr bedeutende Rolle.

GRENZEN DES WACHSTUMS

Faulgas ist die flächenintensivste Form der Energiegewinnung und ist zudem auf möglichst gute, ertragreiche Ackerflächen angewiesen, tritt also in direkte Konkurrenz zur Nahrungsmittelproduktion.

Von 1999 bis 2010 wuchs die Zahl der Biogasanlagen von etwa 700 auf 5905, die insgesamt rund 11 % des Stroms aus erneuerbaren Energien produzieren.

Wikipedia:

Ende 2011 waren in Deutschland rund 7.200 Biogasanlagen mit einer installierten elektrischen Anlagenleistung von ca. 2.850 MW in Betrieb. Damit ersetzen Deutschlands Biogasbauern mehr als zwei Atomkraftwerke und versorgen über fünf Millionen Haushalte mit Strom.

Der Ausstoß von 8,5 Millionen t CO2 konnte so vermieden werden, was knapp 1 % der deutschen Treibhausgasemissionen entspricht. Für die Substratbereitstellung wurden 400.000 ha Anbaufläche benötigt, was 2 % der gesamten landwirtschaftlich genutzten Flächen entspricht. Es wird angenommen, dass die Erzeugung von Bioerdgas bis 2020 auf jährlich 12 Milliarden m³ Biomethan ausgebaut werden kann. Das entspräche einer Verfünffachung der Kapazitäten des Jahres 2007.

[Anmerkung: Diese Zahlen in Wiki sind irreführend geschönt!
Zum Beispiel wird von ‚installierter elektrischer Leistung‘ gesprochen, da die Anlagen aber keinesfalls 100% der installierten Leistung liefern, sondern bestenfalls 75 -80%, ersetzen sie keine 2 KKW’s, sondern gerade mal 1 1/2 und auch die ‚Versorgung von 5 Millionen Haushalten‘ ist eine glatte Lüge, denn Haushalte verbrauchen nur 1/4 des gesamten Stroms, zur Versorgung gehört aber auch der Anteil für Industrie, Verkehr, Gewerbe. Tatsächlich deckt Faulgas rund 3,5% des Strombedarfs oder versorgt 1,35 Millionen Haushalte.Auch die ‚verfünffachung‘ bis 2020 ist irreführend, da sie auf das Basisjahr 2007 bezogen ist und nicht auf das aktuelle Jahr 2010 – Es zeigt sich wieder einmal, dass Wikipedia als Quelle bei ideologisch befrachteten Themen äusserst unzuverlässig ist]

2 % der gesamten deutschen Ackerbaufläche konnten 1 % der deutschen CO2-Emissionen vermeiden. Wenn also ALLE Ackerflächen Deutschlands ausschliesslich der Energieerzeugung dienen würden, würde das nur die Hälfte der fossilen Brennstoffe ersetzen.

In 2020 werden, für die projektierte Menge von 12 Milliarden m3 Methan, bei einem Ertrag von ca. 7000m3/ha, 1,7 Millionen Hektar beste Ackerböden dafür benötigt, die dann überwiegend mit Mais-Monokulturen bepflanzt sein werden. Deutschland hat aber nur insgesamt 11,9 Millionen Hektar Ackerfläche! Das wären also 15 % und das kann wohl auch als absolute Obergrenze betrachtet werden. Diese 15% unserer Ackerfläche liefern dann ganze 8% unserer Elektrizität – ein Tropfen auf den heissen Stein, mehr nicht.

Einige Kennzahlen:

Gesamte Ackerbaufläche

11,9

Millionen Hektar

Ertrag aus 1 Hektar Mais

7000

m3 Methan

Strom aus 1 m3 Methan

3,3 – 4,3

kWh

Stromverbrauch Deutschland

550

TWh/Jahr

Es ist also völlig illusorisch, dass Faulgas jemals die Rolle als Regel- und Grundlast-Energie spielen kann, die es eigentlich spielen müsste. Und das liegt einfach daran, dass die Energiedichte von agrarisch erzeugter Biomasse viel zu gering ist. Um auch nur ein einziges Kraftwerk mit 1000 MW Leistung zu ersetzen, sind 280.000 Hektar Ackerfläche nötig. Das ist ein Quadrat von 53 km Seitenlänge – eine riesige Maiswüste zu deren Durchquerung man 2 – 3 Tage lang zu Fuß unterwegs wäre. Das grösste Naturschutzgebiet Bayerns, die ‘Allgäuer Hochalpen’, hat übrigens nur eine Fläche von 20.797 Hektar.

EXORBITANTE KOSTEN

Die Subventionierung der Faulgas-Verstromung ist ein fast undurchdringliches Dickicht an Grundvergütungen, Zuschlägen, Boni und Bedingungen. Glücklicherweise gibt es ‘amtliche’ Berechnungsbeispiele über die effektiven Subventionszahlen:

Vergütungssätze, Degression und Berechnungsbeispiele nach dem neuen Erneuerbare-Energien-Gesetz (EEG) vom 04. August 2011 (‚EEG 2012’ )

Darin werden anhand von Beispielen Vergütungen zwischen 15,9 und 20,9 Ct/kWh genannt.

Die Bürgerinitiative Melzdorf hat folgende interessante Grafik erstellt:

Aus beidem zeigt sich klar: Faulgas ist die mit weitem Abstand teuerste ‘erneuerbare’ Energie.

Nicht so offensichtlich:

Diese Subventionen werden nicht für regelbare Anlagen bezahlt, die Strom bedarfsgerecht ins Netz einspeisen, sondern für die planlose – und weitaus billigere – Einspeisung nach Gesichtspunkten des Erzeugers. Der Erzeuger produziert naturgemäss am billigsten, wenn er möglichst gleichmässig Strom liefert, ohne zu fragen,ob der gerade gebraucht wird oder nicht; dadurch spart er sich einen Vorratstank und er kann den Gasmotor sehr viel kleiner halten, denn wenn er die gleiche Menge Gas nicht rund um die Uhr, sondern bei Bedarf, vielleicht nur an wenigen Stunden des Tags, einspeisen soll, müsste natürlich der Motor/Generator um ein vielfaches grösser dimensioniert werden und würde dementsprechend viel mehr kosten. Im Regelbetrieb, der eigentlichen Stärke des Faulgas-Stroms, müssten also noch deutlich höhere Subventionen gezahlt werden, als es jetzt der Fall ist. Derzeit unterstützt Faulgas die konventionellen Kraftwerke in keiner Weise bei der Netzstabilisierung, sondern ist im Gegenteil selbst ein Parasit wie Wind und Sonne.

SCHÄDEN DURCH MAISANBAU

Mais ist eine Pflanze, die einfach nicht gut für den Boden und nicht gut für die Natur ist. aber sie liefert praktisch den höchsten Faulgas-Ertrag und ist daher die Energiepflanze der Wahl:

 

Auswirkungen der Ausbauziele zu den Erneuerbaren Energien auf Naturschutz und Landschaft – GFN – Gesellschaft für Freilandökologie und Naturschutzplanung mbH

Wiki:

Der Anbau von Mais ist ökologisch umstritten. Mais (Zea mays) ist ein Gras tropischen Ursprungs. Der Anbau erfolgt so, dass Frost vermieden wird, die Aussaat also spät im Jahr stattfindet, die Pflanzen im Mai/Juni gut wachsen und die Ernte Ende September beginnt. Während des größten Teils des Jahres liegen die mit Mais bepflanzten Acker somit frei und werden durch Wind und Regen erodiert. Dadurch kann es zum Eintrag von Pestiziden und Dünger in naheliegende Gewässer, aber auch ins Grundwasser kommen. Der Anbau von Mais in Europa ist ohne diese Hilfsstoffe gar nicht möglich. Dies stellt ein Problem dar, da es sowohl zu Eutrophierungen als auch zu Verlandung der Gewässer kommen kann. Ebenso kann es zu Verwehungen von großen Mengen Staub aus trockenen Äckern kommen, was wiederum die Bodenfruchtbarkeit beeinträchigt, weil hierdurch wichtige Bodenbestandteile verloren gehen; es besteht langfristig die Gefahr der Wüstenbildung, was insbesondere in den USA bekannt ist.

Durch den großflächigen Anbau von Mais-Monokulturen zur Produktion von Biogas kommt es zu weiteren ökologischen Auswirkungen. Weideland und Feuchtwiesen werden in Ackerland umgewandelt, Brachflächen wieder genutzt. Dies hat Auswirkungen auf Vögel (z. B. Kiebitz, Lerche, Storch) und andere Tiere, die dadurch Nahrungs- und Brutgebiete verlieren.

Die Nitratbelastung durch Faulgas-Gülle und Maisanbau gefährdet unser Trinkwasser

Die Schäden sind so offensichtlich, dass selbst lammfromme Medien und Organisationen dagegen aufbegehren. Eine Auswahl:

Das Erste: Biogasanlagen gefährden Grundwasser

In vielen Regionen hat es seit 2006 einen massiven Zubau von Biogasanlagen gegeben, vor allem in Regionen mit intensiver Tierhaltung. Das wird zu einem Problem für das Grundwasser. Denn wenn zu viel Gülle und Gärreste auf die Felder kommt, gelangt Nitrat ins Grundwasser. Das hochlösliche Salz kann sich im menschlichen Körper zu Nitrosaminen umwandeln. Die stehen im Verdacht, Krebs zu verursachen.

Egon Harms vom Oldenburgisch-Ostfriesischen Wasserverband beobachtet, dass die Nitratwerte seit 2006 stark steigen, vor allem südlich von Oldenburg, einer Region mit sehr vielen Mastställen und Biogasanlagen. Der Grund: die Zunahme von Biogasanlagen, sagt Harms.

NABU: Energie-Mais nur mit Umweltauflagen

Angesichts des anhaltenden Booms von Biogasanlagen warnen der NABU und der Deutsche Verband für Landschaftspflege (DVL) vor negativen Konsequenzen für Natur und Landschaft. „Der zunehmende Anbau von Energiemais hat erhebliche ökologische Risiken und Auswirkungen auf die Artenvielfalt zur Folge“, sagte NABU-Präsident Olaf Tschimpke.

So werden im Einzugsgebiet von Biogasanlagen vermehrt Grünland- und Stilllegungsflächen zu Maisäckern umgewandelt. Der Trend zur Monokultur führt zu einer erhöhten Bodenerosion und Grundwasserbelastung sowie zu einem massiven Verlust wertvoller Lebensräume. Zudem hat die Entwicklung Auswirkungen auf die Pachtpreise, wodurch der Druck auf Naturschutzflächen wächst. In der Folge sinkt auch die Akzeptanz der Anlagen bei Bevölkerung.

Die Zeit: Biostrom, nein danke!

Die meisten Biogasanlagen belasten die Umwelt deutlich mehr, als sie ihr nutzen. Sie zerstören die Artenvielfalt, schädigen Gewässer und das Klima.

Intensive Landwirtschaft: Zahl der Feldvögel hat sich halbiert

Lerche, Kiebitz, Rebhuhn – die Zahl der Feldvögel in Europa sinkt dramatisch. Seit 1980 hat sich der Bestand halbiert. Als eine Ursache gilt der massenhafte Anbau von Energiepflanzen wie Mais. Naturschützer fordern, dass mehr landwirtschaftliche Flächen stillgelegt werden.

Deutschlandradio: “Für den Menschen hochgradig gefährlich”

Biogasanlagen sollen dazu beitragen, den CO2-Ausstoß zu reduzieren. Dafür wird in großem Stil Mais angebaut – auch mit Hilfe des Unkrautvernichtungsmittels Glyphosat. Dabei jedoch handele es sich um ein gefährliches Gift, warnt Reinhild Benning vom BUND.

Greenpeace: Biogas – Fehlentwicklungen korrigieren!

Der Großteil der Biogasanlagen ist heute keineswegs „Bio“, sondern wird mit konventionell sehr intensiv angebauten Pflanzen, vor allem Mais, betrieben. Mais ist ein Humuszehrer, baut also Kohlenstoff im Acker boden ab und wird zudem intensiv mit Stickstoff gedüngt, was wiederum besonders klimaschädliche Lachgasemissionen zur Folge hat.

Biogasanlagen stellen zudem aufgrund ihres Flächenbedarfs für die Substratherstellung keine nachhaltige Lösung des Energieproblems dar.

TAZ: Bioenergie – Die gelbe Gefahr

Landwirte profitieren vom Maisanbau für Biogasanlagen. Monokulturen sind jedoch eine Gefahr für die biologische Vielfalt und die traditionelle Landwirtschaft.

Mais ist der Hauptrohstoff mit dem die Biogasanlagen gespeist werden. In manchen Regionen beanspruche der Maisanbau für Futtermittel und Biogasanlagen bereits über 50 Prozent der Ackerfläche, sagt Uwe Baumert, Bioenergieexperte des Naturschutzbundes (Nabu) Niedersachsen. Diese zunehmende “Vermaisung” stelle ein ökologisches und ökonomisches Problem dar. Die entstehende Monokultur bedrohe die biologische Vielfalt in vielen Regionen. “Tiere finden keine Nahrung mehr und verlieren ihre Lebensgrundlage”, sagt Baumert. Außerdem führe der verstärkte Maisanbau für Biogasanlagen zur Flächenkonkurrenz, die wiederum hohe Pachtpreise verursache.

Dazu komme noch der gestiegene Stickstoffgehalt im Grundwasser. An einigen Orten seien die vorgeschriebenen Grenzwerte bereits erreicht, sagt Christian Meyer, stellvertretender Fraktionsvorsitzender von Bündnis 90 / Die Grünen in Niedersachsen

Die Liste lässt sich nach Belieben fortsetzen.

Aber diese Beispiele genügen, vor allem da sogar die Allergrünsten das Problem erkannt haben und ziemlich entsetzt sind.

Doch nicht nur der Gasmaisanbau, auch die Faulgas-Reaktoren sind tickende Bomben:

FAULGAS-REAKTOREN ALS GEFAHR FÜR MENSCH UND UMWELT

Gasexplosionen sind nicht selten

Meldungen über schwere und schwerste Gewässervergiftungen, Explosionen, Grundwasserbelastungen und sogar Freisetzung gefährlicher Erreger sind in Zusammenhang mit Faulgas-Reaktoren beinahe täglich zu finden, wenn auch meist nur in den Lokalnachrichten.

Eine kleine Auswahl:

BR: Zu viele Unfälle in Biogasanlagen

Alle sechs Minuten ein Störfall, so schätzt der Landesfischereiverband. Und 40 schwere Unfälle pro Jahr im Freistaat, rechnet man die Zahlen der Versicherungskammer Bayern hoch. Biogas ist alles andere als harmlos. Nur sind sich viele Landwirte dessen nicht bewusst.

Am Wasserwirtschaftsamt in Pfarrkirchen werden alle Unfälle in Biogasanlagen protokolliert, bei denen Gewässer in Mitleidenschaft gezogen wurden: In den letzten acht Jahren wurden 50 erhebliche Gewässerverunreinigungen ausgehend von den 95 Biogasanlagen des Landkreises verzeichnet, berichtet Hannes Berger vom Wasserwirtschaftsamt Deggendorf, Servicestelle Pfarrkirchen.

Wie viele Unfälle jährlich in Deutschland passieren, darüber gibt es keine gesicherten Zahlen. Doch Beispiele findet man überall. Vor zwei Jahren gab es eine Explosion in Riedlingen in Baden-Württemberg: Erst brach der Tank, dann schlug ein Funken über. Vier Millionen Liter Gülle liefen aus. 2008 platzte in Neubruchhausen in Niedersachsen ein Güllebehälter und setzte eine Million Liter Gärsubstrat frei. Ein Teil davon schwappte in den nahen Fluss, die Hache. 2005 verströmten in einer Anlage im niedersächsischen Rhadereistedt, in der Schlachtabfälle verwertet werden, totgiftige Gase. Vier Menschen starben.

Faulgas-Gülle tötet nicht nur Fische. Viele Gewässer sind nach Unfällen auf Jahre hinaus biologisch tot.

Man muss ich das mal vorstellen. 95 Biogasanlagen hatten 50 erhebliche Gewässerverunreinigungen in acht Jahren, Jede Anlage also statistisch mehr als einen schweren Störfall im Lauf ihrer zwanzigjährigen Lebenszeit.

Das sollte mal in einem Kernkraftwerk passieren…

Aber auch jeder andere Gewerbebetrieb, der sich so etwas leisten würde, wäre am Ende, dem Betreiber würde gnadenlos die Betriebserlaubnis entzogen, die Versicherung würde sich schlicht weigern, in Haftung zu treten. Trotz dieser katastrophalen Zustände gibt es aber nicht einmal deutschlandweite Zahlen! Dass solche Zustände möglich sind,zeigt, wie geradezu mafios hier Lobbyismus und politisches Glaubensbekenntnis zusammenarbeiten,um einen gigantischen Skandal zu vertuschen.

Die enorme Unfallquote liegt nicht zuletzt daran, dass ganz gewöhnliche Bauern ohne die geringste Sachkenntnis solche Anlagen verantwortlich betreiben dürfen, zweifellos, um den ohnehin exorbitanten Profit noch weiter zu vergrössern* – In jeder anderen Umgebung müssen vergleichbar hochgefährliche Anlagen von einem Ingenieur überwacht werden!

*Siehe dazu auch: Das EEG-Monopoly

Der Spiegel: Die Bauernopfer

Gärtanks explodieren, Gülle oder Gärreste laufen aus und vergiften Bäche – fast wöchentlich havarieren Biogas anlagen. Schuld sind Schlamperei sowie Unwissen der Landwirte.

Wolfgang Stachowitz erlebt Unfähigkeit und Schlamperei jede Woche. Der Ingenieur aus Kiel arbeitet als Gutachter für Versicherungen und veranstaltet Sicherheitsschulungen. Bei seinen Hofbesichtigungen erlebt er Bastler wie jenen Bauern, der sich für die Gasleitungen seiner Anlage Plastikrohre im Baumarkt kaufte und zusammensteckte. Als der Bauer bemerkte, dass die Rohre durch Sonnenlicht porös werden, bestrich er sie mit einer gelben Farbe.
“Manche Betreiber sind überfordert mit den Pflichten, die sich für sie aus den Gesetzen und Verordnungen ergeben, oder kennen diese nicht”, sagt Stachowitz. “Andere wollen es billig und schnell haben.”

In welchem Zustand sich viele Anlagen befinden, steht in einem Bericht der Kommission für Anlagensicherheit (KAS). Gutachter prüften 159 Biogasanlagen, bevor diese in Betrieb gingen. Bei 80 Prozent davon fanden sie schwere Mängel: Gasmelder fehlten; Betreiber hatten Fenster im Güllebehälter mit Silikon abgedichtet; heiße Abgasrohre verliefen unter der Holzdecke.

Statikfehler waren die Ursache für eine Biogas-Katastrophe in Riedlingen im Kreis Biberach. Nur zwei Tage nach Inbetriebnahme klappte eine Anlage zusammen: Der 17 Meter breite und 22 Meter hohe Fermenter hielt dem Druck im Innern nicht stand. 4000 Kubikmeter Gärsubstrat schwappten heraus und ergossen sich als See aus Gülle. Die Dreckflut riss eine Trafostation zu Boden. Ein Lichtbogen entzündete die aufsteigenden Gase – es kam zu Explosionen, Gülle und Trümmer flogen Hunderte Meter weit. Der Schaden ging in die Millionen.

Schon 2006 war Jauche und Biogas die Hauptursache für Fischsterben in Bayern. Heute hat sich die Zahl der Anlagen vervielfacht!

Aber es gibt noch schlimmere Vermutungen:

Augsburger Allgemeine: Lauert der Tod in Biogasanlagen?

Jäger vermuten, dass Erreger, die bei Wildtieren chronischen Botulismus verursachen, über die Gärreste von Biogasanlagen auf die Felder ausgebracht werden könnten.

Das Erste: Gespenst im Stall: Botulismus

Seit etwa 15 Jahren häufen sich die Berichte von Landwirten, die einen unerklärlichen körperlichen Verfall ihrer Rinderherden beobachten und auch selbst an einer Schwächung des Immun- und Nervensystems leiden. Der schreckliche Verdacht: Es könnte sich um eine schleichende, dauerhafte Vergiftung mit dem hochgefährlichen Botulinumtoxin handeln, das die Nervenübertragung blockiert und Lähmungen bis hin zum Atemstillstand verursacht. Einzelne Betriebe haben durch die rätselhafte Krankheit, die als “chronischer Botulismus” bezeichnet wird, über 1.000 Tiere verloren. Überall zeigt sich ein ähnliches Bild: Die Rinder, in einzelnen Fällen auch Rotwild, haben Lähmungserscheinungen, leiden an unterschiedlichsten Symptomen, werden apathisch und sterben.

…Auch die Düngung der Felder mit Hühnermist oder Biogasanlagen stehen unter Verdacht, dem Keim entscheidende Vorteile für eine Massenvermehrung zu bieten. Wo immer auch die Verseuchung ihren Anfang nimmt – ist das Bakterium einmal in kritischen Mengen in den Kreislauf eines landwirtschaftlichen Betriebes eingebracht, nimmt das Unheil seinen Lauf: Ställe und Böden werden nach und nach immer mehr verseucht, und die Tiere zeigen Symptome einer Vergiftung. So die gängige Hypothese.

Zum Abschluss noch die informative Seite ‘Staußfurt wehrt sich’, in der eine Bürgerinitiatie berichtet.

Die Fachagentur Nachwachsende Rohstoffe e.V. (FNR) teilt in ihrer Broschüre “Biogas Basisdaten Deutschland” (Stand: Juni 2010) mit: Pro Jahr ist durchschnittlich mit 1,2 Störfällen je 10 kWel zu rechnen. Das bedeutet für eine Anlage mit 500 kWel immerhin 60 Störfälle. Hoch gerechnet auf die in Deutschland installierte Leistung von  etwa 2.300 MW kommt es in Deutschland geschätzt alle 2 Minuten zu einem Störfall.

Die Kommission für Anlagensicherheit (KAS) beim Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit hat im Juni 2009 bei der Mehrzahl (ca.80%) aller nach §29a BImSchG geprüften Biogasanlagen bedeutsame Mängel festgestellt. Die häufigsten Schwachpunkte lagen im Bereich Gasexplosionsschutz und Auslegung der Komponenten.

ZU TEUER, ZU WENIG, ZU SCHMUTZIG

Faulgas ist in jeder Hinsicht ein Versager.

♦  Der Preis von rund 20 Ct/kWh ist viel zu hoch und es besteht keine Aussicht, dass Faulgas jemals konkurrenzfähig werden könnte

  Der enorme Flächenbedarf macht Faulgas zu einer ‘Nischenanwendung’, es ist viel zu wenig da, um eine wirklich nützliche Rolle in der ‘Energiewende’ zu spielen.

  Faulgas ist das genaue Gegenteil von ‘ökologisch’; es ist im Gegenteil eine extrem zerstörerische, umweltschädliche und gefährliche Energieerzeugungsart, die nicht zuletzt unser wichtigstes Gut, das Trinkwasser, extrem gefährdet.

Damit zeigt Faulgas exemplarisch den Wahnsinn die ideologische Verblendung und den skrupellosen Lobbyismus, der für die gesamte ‘Energiewende’ typisch ist, in ganz besonders ausgeprägter Form.

Zusätzlich muss natürlich erwähnt werden,dass praktisch die selben Probleme auch bei ‘Bio’-Diesel, ‘Bio’-Ethanol und anderen ‘Bio’-Brennstoffen entstehen. Derzeit stellt die Treibstoffproduktion aus Palmöl und Zuckerrohr die wohl grösste Gefahr für die Regenwälder der Welt dar.

EINE BETRACHTUNG ZUR ‘NACHHALTIGKEIT’

Was ist faul am Biogas?

Seit Jahrhunderten geht der Trend weg von ‘nachwachsenden Rohstoffen’ von den Äckern; mehr und mehr machten sich die Menschen von dieser kargen, teuren und unzuverlässigen Quelle unabhängig und verwiesen die Landwirtschaft auf ihre eigentliche Kernaufgabe, die Nahrungsmittelproduktion.

Wichtige Meilensteine waren:

  Die Einführung der Kohle als Brennstoff, um die Waldbestände zu schonen.

  Die künstliche Sodaherstellung als Ersatz für die knappe und teure Holzasche. Soda wird hauptsächlich für Waschmittel, Seifen und zur Glasherstellung gebraucht. Um 1 kg Soda herzustellen, mussten früher 300 kg Holz verbrannt werden!

  Die Einführung des Verbrennungsmotors, wodurch Pferde als Arbeitstiere überflüssig wurden. Ihr Futter -’Biotreibstoff!’ – benötigte bis zu 35% der Anbaufläche!

  Faserpflanzen (Hanf, Lein etc.) und Färbepflanzen (Krapp, Waid und viele andere) sowie Schafhaltung für die Wollproduktion verbrauchten vor der Einführung synthetischer Fasern und Farben enorme Anbauflächen, die dank der Innovationen der chemischen Industrie für die Lebensmittelproduktion frei wurden.

 Und sogar die Dreifelderwirtschaft kann als eine Bio-Produktion von Stickstoffdünger gesehen werden, die wir in die industriellen Haber-Bosch-Anlagen verlagerten und dadurch ertragreichere Fruchtfolgen auf den Äckern ermöglichten.

Die heute romantisch verklärte ‘nachhaltige’ Wirtschaft war stets gekennzeichnet durch knappe, meist sogar mangelhafte Versorgung und exorbitant hohe Kosten. Gleichzeitig war dieses Wirtschaften alles andere als wirklich nachhaltig, im Grunde war Landwirtschaft vor den Erkenntnissen der modernen Agrochemie immer mehr oder weniger Raubbau und führte zur natur- und umweltschädlichen Übernutzung, Böden verarmten und versteppten, die Wälder sahen ihrem baldigen Verschwinden entgegen und sogar die Gewässer änderten sich dramatisch, da immer grössere Frachten von Schwebstoffen, Ufererosion und nicht zuletzt auch hohe Schadstoffkonzentrationen die Nebenfolgen der Intensivnutzung waren.

Die Abkehr von der Rohstofferzeugung auf landwirtschaftlichen Flächen war daher folgerichtig und natürlich und sie erwies sich als eine höchst bedeutsame Naturschutzmaßnahme, die völlig ohne Verzicht, ja sogar mit drastisch verbessertem Wohlstand einher ging.

Die Vorstellung, dass eine rückwärtsgewandte UMKEHRUNG dieses Trends ‘natürlicher’ oder ‘nachhaltiger’ wäre, ist ganz einfach absurd und zeigt nur die Dummheit ihrer Protagonisten – Ganz abgesehen von der ethischen Frage, ob man Lebensmittel einfach verbrennen darf.

 Zuerst erschienen bei Science Sceptical hier




Erwärmungshysterie und 2°-Ziel – warum? Teil 2

Wie konnte die Klimawandel-Hysterie entstehen ?

Temperaturschwankungen werden als anthropogener Klimawandel definiert, der bekämpft wer­den muss – angeblich zum Wohle der Menschheit

Redaktioneller Hinweis

Die Behandlung des Themas erfordert viele Zitate, und in manchen Zitaten wird zusätzlich zitiert. Alle Zitate wer­den in blau ausgedruckt. Zu ihrer  Unterscheidung werden die Basis-Zitate ohne Anführungszeichen und die darin enthaltenen „inneren Zitate kursiv gesetzt und mit Anführungszeichen“ versehen.

Die 1972 auf der Umweltkonferenz von Stockholm definierte Verpflichtung zum Umwelt­schutz wurde in die Notwendigkeit zum Klimaschutz umfunk­tioniert – und nicht nur aus wirklicher Sorge um das Klima, sondern auch aus kommerziellen Gründen. Die World Meteorological Organization (WMO) hatte das Klima als das statistische Wetter von 30 Jahren definiert. Statt, wie dem­zufolge geboten, 30 Jahre lang zu warten, um dann zu beur­teilen, ob sich das Klima tat­sächlich verändert haben würde, wurde in den späten 1980er Jah­ren der Klimaschutz gegen die Erderwärmung zu einer Hauptaufgabe der UN erklärt und der IPCC (Weltklimarat) ge­gründet. Obwohl bekannt war, dass es immer wieder relativ kühle Sommer und warme Winter gibt, dass also Temperaturschwankungen normal sind, wurde ein gefährli­cher Klimawan­del prognostiziert, der die Mensch­heit vernichten könnte, wenn sie nicht wir­kungsvoll gegensteuert.

Der wichtige Unterschied zwischen Temperaturschwankungen und wirkli­chem Klimawandel blieb unbe­achtet und ungeklärt. Erstere treten regelmä­ßig kurz- und mittel- und langfristig auf, und da sie nur einige bis mehrere Zehntel Grad umfassen, verändern sie die Lebensum­stände nicht. Im Gegensatz dazu verändert ein wirklicher Kli­mawandel die Lebensumstände, wie von Regel 1957 betont hat [1]. Mit einer Ana­lyse der Langzeit-Temperatur­reihen hätte Anfang der 1980er Jahre erkannt werden können, dass wir es auch gegen­wärtig nur mit den üb­lichen Tempe­ra­turschwankungen zu tun haben. Das blieb unberücksichtigt. Stattdessen erklärte die UN die globale Erder­wärmung zum Hauptfeind der Menschheit und löste damit eine Klima-Hysterie aus..

Die Ursachen für das Entstehen der Klimawandel-Hysterie erklärt Jaworowski in seiner Ar­beit „Nicht der Mensch, sondern die Sonne bestimmt unser Klima“ [2]. Im Kapitel „Ver­schwörung zum Selbstmord“ schreibt er:

Wenn man nicht auf die irrationalen politischen oder ideologischen Faktoren hinter dieser Hypothese eingeht, ist es sehr schwierig zu verstehen, warum so viele Leute an eine mensch­liche Verursachung der modernen Warmzeit glauben, die wissenschaftlich nie plausibel belegt worden ist. Mau­rice Strong, der Pate der modernen Umweltschutzbewegung und früherer Chefberater von UN-Ge­neralsekretär Kofi Annan hat offen von einer Verschwörungstheorie gesprochen. 1972 war Strong Generalsekretär der UN-Umweltkonferenz in Stockholm, auf der die weltweite Umweltbewegung begründet wurde, und er hat eine zentrale Rolle bei der Globalisierung ge­spielt. 20 Jahre später war Strong Generalsekretär des ‚Erdgipfels’ in Rio de Janeiro, wo auf sein Betreiben die Grund­lage für das Kioto-Protokoll gelegt wurde.  In einem Interview hat Strong  seine Denkweise offengelegt: „Was wäre, wenn eine kleine Gruppe von Weltführern zu dem Schluss kommen sollte, dass die Hauptgefahr für die Erde von dem Ver­halten der reichen Länder ausginge? Und wenn die Welt überleben soll, müssten die reichen Länder ein Abkommen unter­zeichnen, um ihre eigene Umweltbelastung zu redu­zieren.  Wer­den sie dem zustimmen? Die Gruppe kommt zu dem Schluss: Nein! Die reichen Länder wer­den nicht zustimmen. Sie wollen sich nicht verändern. Um den Planeten zu retten, beschließt die Gruppe:  Besteht nicht die einzige Hoffnung für den Planeten darin, dass die industriali­sierten Zivilisationen kollabieren? Ist es nicht unsere Verantwortung, das zu bewir­ken? Die Gruppe von Weltführern bildet eine Geheim­gesellschaft, um einen Wirtschaftszu­sammen­bruch herbeizuführen“. (Wood 1990)

Wer ist Maurice Strong, der sich zutraut, die Natur sowie Sinn und Zweck unseres Pla­neten ver­standen zu haben, um ihn für die Menschheit retten zu können? Laut Wikipedia hat der Ka­nadier Strong als Geschäftsmann im Ölhandel begonnen. Bis 1966 war er Präsident der Power Corpo­ration. Anfang der 1970er Jahre war er Generalsekretär der UN Conference on the Hu­man Envi­ronment, bevor er 1972 erster Generaldirektor des UN Environment Pro­gramms wurde. Anschließend wechselte er in die Privatwirtschaft und wurde zum Vor­stands­vorsitzenden von Petro-Canada ernannt, wo er von 1976 bis 1978 tätig war. Danach war er Chef des Stromkon­zerns Ontario Hydro und des Wasserversorgungsunternehmens American Water Development Incorporated. Strong ist heute ein aktiver Ehrenprofessor an der Universität Peking und Ehrenvor­sitzender ihrer Umweltstiftung. Er ist Vorsitzender des Bera­tungsgremiums des Insti­tuts für Forschung, Sicherheit und Nachhaltigkeit für Nord­ostasien. Strong wird als führende Figur in der internationalen Umweltbewegung angese­hen.[1] Er war Präsident des Rats der Verein­ten Nationen für die University for Peace (Friedens­universität) von 1998 bis 2006

Jaworowski schreibt weiter: Die Strategie, mit einem endlosen Aufgebot vermeintlicher Schreckgespenster die Bevölkerung einzuschüchtern, setzte sich auch im dritten Bericht des Club of Rome fort, und zitiert King & Schneider, 1991: „Auf der Suche nach einem neuen Feind, der uns vereint, kamen wir auf die Idee, dass sich dazu die Umweltverschmutzung, die Gefahr globaler Er­wärmung, Wasserknappheit, Hunger und dergleichen gut eignen wür­den…. Alle diese Gefahren werden durch menschliches Eingreifen verursacht…Der wirkliche Feind wäre dann die Menschheit selbst….“ 

Auf dem Erdgipfel in Rio 1992 erklärte Maurice Strong (nach Jaworowski):  Wir sind die erfolg­reichste Gattung überhaupt gewesen, doch jetzt sind wir außer Kontrolle geraten. Die Bevölke­rung muss stabilisiert werden, und das schnell.

Und Jaworowski kommentiert: Die menschenfeindli­che Ideologie, die Strong als Vertreter der höchsten UNO-Kreise äußert, ist wahrscheinlich ge­fährlicher als jede an­dere frühere Geistes­verwirrung der Menschheit.

Jaworowski zitiert Stephen Schneider, einen der führenden Klimagurus, der in einem Inter­view mit dem Magazin ‚Discover’ die Erschreckt-sie-zu-Tode-Moral der ‚Klimatisten’ dar­stellt: „Ei­nerseits sind wir als Wissenschaftler ethisch an die wissenschaftliche Methode ge­bun­den, die uns anhält, die reine Wahrheit und nichts als die … zu sagen. Anderseits … sind wir auch Men­schen… Wir müssen eine möglichst breite Unterstützung bekommen, um öffent­liche Aufmerksam­keit zu erregen. Das bringt es mit sich, massenhaft Medienun­terstüt­zung zu bekommen. Deshalb müssen wir ein paar Schauerszenarien auftischen, vereinfa­chende dra­matische Erklärungen ab­geben, und eigene Zwei­fel, die man hat, möglichst verschwei­gen. Jeder von uns muss selbst ent­scheiden, das richtige Gleichgewicht zwischen Wirksamkeit und Ehrlichkeit zu finden.“

Jaworowski weiter: Die Klimafrage wurde damit zur wahrscheinlich wichtigsten Agenda der Vereinten Nationen und der Politiker – zumindest äußerten sie sich so. Sie wurde auch zu einer moralischen Frage. Gro Harlem Brundtland, die Sonderbeauftragte des UN-Generalsek­retärs für Klimawandel, sagte 2007 vor der UN-Generalversammlung: „Es ist un­verantwort­lich, rück­sichtslos und zutiefst unmoralisch, die Schwere der realen Gefahr in Frage zu stel­len.“ 

Manche Klimawandel-Aktivisten handelten vermutlich aus echter Sorge. Sie waren wohl ohne Fachkenntnisse, denn sonst hätten sie gewusst, dass ihre Sorge überflüssig ist. Andere wurden durch kommerzielle Interessen motiviert. Beide waren sich einig, dass die Menschen gefügig gemacht werden müssen, um Gegenmaßnahmen zu akzeptieren.

Hartmut Bachmann hat 2009 als Beteiligter „Die Entstehung des Weltklimarates“ prägnant und übersichtlich erklärt [3]. Daraus die Einleitung und die Kapitel 1 bis 6, die u.a. die Grün­dung und die Funktion des IPCC beschreiben :

Einleitung

Politiker berufen sich bei der Begründung der Klimakatastrophen-Hypothese auf das „In­ter­go­vernmental Panel on Climate Change“ (IPCC), welches ein Appendix der UNO ist. Das IPCC hat sich selbst zum Klimarat erhoben und fordert, dass Definitionen und Ergeb­nisse seiner Un­tersuchungen zum Global-Klima als endgültig und unveränderlich weltweit akzep­tiert werden. Für die zu liefernden Berichte des IPCC ist kein Kontrollorgan zugelas­sen. Wichtig ist, die Ent­stehungsgeschichte dieser Organisation zu verfolgen: „Dieser Weltklima-Rat hat sich selbst er­funden, den hat niemand eingesetzt. Die Bezeichnung ‚Weltklima-Rat’ ist eine schwere Übertrei­bung. Diese ganze Debatte ist hysterisch, über­hitzt, auch und vor allem durch die Medien. Kli­matischen Wechsel hat es auf dieser Erde gegeben, seit es sie gibt“ (Altbundeskanzler Schmidt, 04.06.2007 in Bild).

Ursprung der Klimakatastrophen-Hypothese (erläutert von Christian Bartsch in [3]:)

Die Hypothese einer anthropogenen globalen Erwärmung mit katastrophalen Folgen geht wahr­scheinlich auf Charles D. Keeling von der University of California in San Diego zu­rück: „Die Herren Charles Keeling und G. Callendar – auf sie gehen die heutigen Aussagen des IPCC zu­rück – haben Daten selektiert, die Literatur ignoriert und histori­sche Daten falsch beurteilt. Das IPCC hat sie ungeprüft übernommen. Eine konstante ‚vorindustrielle Konzent­ration’ von 250 ppm CO2 hat es nie gegeben. Sie betrug im 19. Jahrhundert etwa 321 ppm. Es gibt keinen men­schengemachten Treibhauseffekt, er ist eine Erfindung von Callen­dar, Kee­ling und dem IPCC und  basiert auf schlampiger For­schung, Ignoranz und Datense­lektion.“

Entstehung des Wortes „Klimakatastrophe“

Das Wort ‚Klimakatastrophe’ wurde 1986 in Deutschland kreiert. Am 11. August 1986 brachte Der Spiegel diesen Begriff erstmalig mit einem mitreißend aufgemachten bebilder­ten Artikel als Angstmacher in weltweiten Umlauf. Das Titelbild zeigte den Kölner Dom zur Hälfte im Wasser stehend. Dillenberg (2008) schreibt dazu [4]: „Von wahrheitsgetreuer Be­richterstattung bezüglich der Klimaänderung konnte man ab 11. August 1986, dem Tage als Rudolf Augstein mittels seines Der Spiegel den Kölner Dom in der Nordsee ersäufte, nicht mehr reden. Nach diesem Bericht damals schwante mir Böses.  Anfang September 1986 rief ich ihn in Hamburg aus meinem Büro in Kissim­mee (Florida) an. Folgenden Dialog habe ich fixiert: >Was hast Du Dir denn dabei gedacht?<  >Wobei gedacht?< >Na beim Ersäufen des Kölner Doms< >Aufwecken, mun­ter machen< >Und Angst machen< antwortete ich. >Ohne Angst der Massen gibt es keine Be­wegung der Massen< Ich antwortete: >Deine Aktion wird Folgen haben< Augstein: >Hoffent­lich. Wenn Du was für mich hast, ruf durch<  (Dillenburg 2008).

Akzeptanz des Spiegel-Berichtes in den USA


Unmittelbar nach Erscheinen des o.g. Spie­gel-Berichts wurde in den USA in „einflussreichen Kreisen“ darüber beratschlagt,  wie das Wort ‚Klimakatastrophe’ kommerzialisiert werden könne. In den Jahren 1986-87 wurde ent­sprechend beschlossen, die Klimakatastrophe zu einem  „long-lasting gigantic business“ zu entwickeln. Wegen der hohen Bedeutung dieses gigantischen Business wurde vereinbart, den für entspre­chende „Umweltfragen“ bereits existierenden Arm der UNO, die UNEP, nicht zu beauftragen, sondern eine eigene Organisation neu zu schaffen.  .

Gründung des „Weltklimarates“ IPCC

Die für die ‚Vermarktung’ des Begriffes ‚Klimakatastrophe’ zuständige neue Behörde sollte ih­ren Sitz in Genf bekommen. 1988 wurde sie als ‚Intergovernmental  Panel on Cli­mate Change (IPCC) gegründet. Ihre Aktivitäten werden von New York aus gesteuert, dort wo das Kapital­zentrum der größten und am stärksten deregulierten und privatisierten Wirt­schafts­macht der Welt, mit der größten Börse der Erde, der New York Stock Exchange, zuhause ist. Vor der Gründung des IPCC wurde in den USA festgelegt, dass das IPCC keine wissen­schaftlichen Auf­gaben zu übernehmen habe, sondern ein rein politisches In­strument werden solle (Bachmann 2007). Weiter:  die USA würden keinem internationalen Abkommen zum Klimaschutz beitreten, sich aber an den Geschäften beteiligen, die sich unter dem Schlagwort ‚Klimaschutz’ zwangsläu­fig sehr leicht entwickeln lassen würden.

Ziele des „Weltklimarates“ IPCC

Sir John Houghton, Vize-Präsident des IPCC: „Solange wir keine Katastrophe ankündigen, wird niemand zuhören“ (Dillenberg 2008). Maurice Strong, erster UNEP-Direktor, Organi­sator der Rio-Konferenz und Chefberater Kofi Annan, „Besteht nicht die einzige Hoffnung für die­sen Pla­neten in dem Zusammenbruch der Industriellen Zivilisation? Liegt es nicht in unse­rer Verant­wortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?“ (Gipfelkon­ferenz der UN in Rio im Juni 1992; Prof. John Christy (Weltklimarat-IPCC): „Man muss eine ge­wisse Panik schüren, dann fließt das Geld“ (Dillenberg 2008).

Die wissenschaftlichen Inhalte der Klimaberichte des IPCC beruhen auf dem Vorverständ­nis einer vorausgesetzten anthropogenen Beeinflussung des Klimas durch Kohlendioxyd-Emissi­onen. Die „Klima-Katastrophe“ ist ein Fabrikat, …., welches das IPCC, die oberste Weltkli­ma­behörde, als Werbebotschaft ….verbreiten lässt. Den Menschen als Verursacher dieser fik­tiven Katastrophe darzustellen, wurde vor der Geburt des IPCC als dessen Aufgabe von den Initi­atoren festgelegt und beschlossen. …. Das heißt: Das IPCC bekommt bereits in seiner Geburtsur­kunde zwei politische Aufgaben gestellt:

·      Feststellung, dass die Welt einer Klimakatastrophe entgegengeht.

·      Feststellung, dass der Mensch diese Katastrophe verursacht.

Funktion des „Weltklimarates“ IPCC

Um den Auftrag, den Menschen als Klimasünder zu überführen, waren und sind Beweise zu fin­den. Entweder durch wissenschaftliche Arbeit assoziierter Institute oder durch fabri­zierte  Zah­len. Die entsprechende Handlungsweise der ‚Wissenschaftler’ richtet sich nach den Vor­gaben ihrer Hierarchie, z.B. nach der Empfehlung von Prof. Dr. H. Stephen Schneider, Lead Author im IPCC: „Um Aufmerksamkeit zu erregen, …..“ Fortsetzung des Zitats siehe oben.

Die Aufgabe des IPCC als  regierungsübergreifende Kommission der UN wird im Detail von Prof. Dr. F. Singer in [5] wie folgt zitiert:

Das IPCC hat die Aufgabe, auf einer umfassenden, objektiven, offenen und durchschaubaren Grundlage die jüngste weltweit vorgelegte, wissenschaftliche, technische und sozioöko-nomische  Literatur zu sich­ten, die für das Verständnis des Risikos  eines vom Menschen herbeigeführten Klimawandels, seiner beobachteten und projizierten Auswirkungen und der Möglichkeiten, sich auf ihn ein­zustellen oder ihn abzumildern, bedeutsam ist.

Dass dies in der Praxis auch tatsächlich so ist, wurde in einem Telefonat mit einem deutschen Mitglied des IPCC (Prof. für Hydrologie) bestätigt. Auf meine Frage, wie man denn Mitglied des IPCC werden könne bzw. eigene Untersuchungen berücksichtigt würden, lautete die Ant-wort: „Das hängt vom Inhalt und der Forschungsrichtung ihrer wissenschaftlichen Ar­beiten ab“. D.h. andere Stimmen kommen nicht zu Wort.

Die einseitige Untersuchungsrichtung, d.h. nur jene Literatur zu berücksichtigen, die für das Verständnis eines menschengemachten Klimawandels bedeutsam ist, impliziert, dass es ihn gibt. Diese Einseitigkeit verletzt das Prinzip Wissenschaftlichkeit, denn das würde voraus-setzen, die Literatur auch nach Arbeiten zu untersuchen, die das Gegenteil beweisen, d.h. ob es ihn überhaupt gibt. Arbeiten, die auf der Grundlage von Messdaten einen menschen-gemachten Klima­wandel nachwei­sen, gibt es bis heute nicht. Weil nur Arbeiten gewertet werden, die einen angeblich anthropogenen Klimawandel beschreiben, werden alle gegensätzlichen nicht be­rücksichtigt und sind a priori ausgeschlossen. Das IPCC erhält folglich nur bestätigende Arbeiten zu Detailfragen des als Realität vorgegebenen Klima-wandels. Es ist verständlich, dass man zunehmend in die gleiche Richtung denkt, wenn die Auseinandersetzung mit Gegen­sätzlichem fehlt. Wenn dann zusätzlich die medientypische Attraktivität der schlechten Nach­richten wirksam wird, muss die Ge­sellschaft zwangsläufig in dieselbe Richtung denken.

Die Einseitigkeit der Aufgabe bewirkt, dass dem IPCC jene Untersuchungsberichte geliefert werden, die man zu bekommen wünscht. Teile der Klimaforschung wurden weltweit moti-viert, die zugrundegelegte Ursache zu beweisen. Das ist bis heute zwar nicht gelungen, wird aber weiter betrieben, denn um Pfründe und gut dotierte Arbeitsplätze nicht zu verlieren, verteidigt man mit weiteren Pseudobeweisen die sich selbst vorgegaukelte Notwendigkeit, das Klima schützen zu müssen. Dabei werden die in Klimasimulati­onsmodellen entwickelten Szenarien in dem Maße dramatischer, in dem sie von der realen Tem­peraturentwicklung widerlegt werden. So kommt es, daß Politik und  Medien sagen können, dass fast 100% der Wissenschaftler den anthropogenen Klimawandel bestätigen und die Wissenschaftler, die mit der Berücksichtigumg der Fakten Gegenbeweise liefern unerwähnt bleiben. Ergebnis: Die Mehrheit glaubt, was propagiert wird.

Die Wissenschaft weiß seit langem, dass lang-, mittel- und kurzfristige Sonnenzyklen periodische Temperaturschwankungen bewirken, beispielsweise die Sonnenflecken mit ihrer wechselnden Häufigkeit; Wikipedia zeigt dazu Grafiken. Zweckfreie Wissenschaft hätte erfordert, die Wechsel von Erwärmungs- und Abkühlungsphasen, die seit Beginn der Tempe-raturmessungen registriert worden sind, nämlich seit 1700 und dann besonders im 20. Jahr-hundert, erst einmal daraufhin zu prüfen, ob sie durch solche Zyklen verursacht wurden. Dass dies nicht geschah, sondern dass sofort CO2 als Verursacher galt, beweist, dass nicht zweck-freie Wissenschaft praktiziert werden sollte. Als typisches Produkt der Industriegesellschaft wurde sogleich das CO2 als Motor eines Treibhauseffekts ausgemacht, der die Erwärmung verursacht. Fachkundig wie man zu sein glaubte, hatte man jedoch nicht bedacht, was es bedeutet, dass in der vorindustriellen Zeit ohne anthropogenes CO2 schon weit stärkere Er-wärmungen stattgefunden hatten, und dass es nun trotz des Beginns und Fortsetzung ver-stärkter CO2-Emissionen auch Abkühlungsphasen gibt – nämlich zwischen 1950 und 1970 und jetzt wieder seit etwa 1995. Beide gegensätzlichen Zustände bestätigen die Feststellung von Franke’s Lexikon der Physik von 1959 [6]: „CO2 ist als Kli­magas be­deutungslos“;  1959 wurde CO2 objektiv beurteilt, denn die Klima­hysterie gab es noch nicht.

Die ab 1700 in Europa und dann auch in Übersee eingerichteten Stationen registrierten einander abwechselnde Warm- und Abühlungsphasen. Sie waren oft stärker ausgebildet und erfolgten schneller als im 20. Jahrhundert. Kein Sachkundiger wäre auf den Gedanken ge-kommen, eine menschengemachte Erderwärmung anzunehmen. Das blieb dem Geschäfts-mann Maurice Strong vorbehalten, der die Notwendigkeit des Umweltschutzes erkannte und meinte, daraus das Gebot des Klimaschutzes ableiten zu müssen. Ihm war wohl nicht bekannt, dass das Klima als Durchschnittswetter von der Sonne gesteuert wird, und die wird sich vom Menschen nicht beeinflussen lassen. Trotzdem: Maurice Strong fand für seine Agitation schnell Unterstützer nun auch bei Wissenschaftlern, die sich von diesem Modell Beschäf-tigung und Finanzierung versprechen konnten. Dass die Medien diese Möglichkeit zur Stei-gerung ihres Einflusses ausnutzten, dass die Wirtschaft Beschäftigung und Gewinne erwartete und nun auch realisiert, und dass nicht zuletzt dann auch die Poltik Gegenmaßnahmen zur Rettung der Menschheit konzipieren und wirksam werden liess, entsprach ihren jeweiligen Handlungsgesetzen. Das Modell ‚Erderwärmung erfordert Klimaschutz’ wurde von Laien ge-zeugt, Fachkenntnis fehlte.. Selten war eine philosophische Erkenntnis so berechtigt, wie die von Friedrich Nietzsche: „Die Unvernunft einer Sache ist kein Grund gegen ihr Dasein, viel-mehr eine Bedingung derselben.“

Da die Sonne das Klima steuert, gehorcht seine Entwicklung nicht den modellierten Szena­rien. Je größer die Diskrepanz wird, desto größer werden die Erklärungsnöte des IPCC. In­zwischen sind investigative Arbeiten erschienen, die die fragwürdige Arbeitsweise des IPCC enthüllt ha­ben – ein Beispiel wird in [7] genannt.

Der Beitrag kann als pdf im Anhang herunter geladen werden.

Literatur:

[1]  von Regel, C. : Die Klimaänderung der Ge­gen­wart: Lehnen-Verlag München, 1957

[2]  Jaworowski Z.: Nicht der Mensch, sondern die Sonne bestimmt das Klima. . Fusion 31, 2010,

Nr. 1, S.24-43, 23 Abb, 2 Tab.

[3]  Bachmann H: Die Entstehung des Weltklimarates IPCC. IAVG-Internet-Dokumentationen

   http://therapeutisches-haus.de/files/iavg056.pdf

[4]  Dillenberg H.  Persönliche Mitteilung 08.02.2008

[5]  Singer F.:  Die Natur, nicht die menschliche Aktivität bestimmt das Klima. ISBN  978-3-940431-

08-0

[6]  Franke, H.: Lexikon der Physik. Frankh’sche Ver­lags­handlung Stuttgart, 1959

[7]  Laframboise D.: The Delinquent Teenager Who Was Mistaken For The World’s Top Climate

Expert. Kindle-Edition Paperback, 237 pages, ISBN: 9781921421686, 2011.

Related Files




Grandioses Scheitern des kanadischen Klimamodells

Globale Trends

In der Graphik unten werden die globalen Temperaturen mit den Modellläufen verglichen:

Abbildung1: Kanadische Klimamodell-Simulationen der globalen Temperatur im Vergleich zu drei Datensätzen mit gemessenen Werten

Die fünf dünnen Linien repräsentieren die Modellläufe. Die dicke schwarze Linie zeigt das Mittel der fünf Läufe. Die Satellitendaten in rot zeigen das Mittel zweier Analysen der Temperatur in der unteren Troposphäre. Die Daten von Radiosonden/Wetterballonen stammen vom Earth Space Research Laboratory der NOAA. Die Bodendaten stammen vom Datensatz HadCRUT4 (Siehe Anmerkung 2 zu den Datenquellen). Die linearen Trendlinien (nicht gezeigt) des Mittels der Modelle und aller Datensätze wurden im Jahre 1979 auf Null gesetzt, ist dieses Jahr doch das erste mit Satellitendaten. Wir glauben, dass dies die beste Methode ist, die Modelle mit den Beobachtungen zu vergleichen.

Jedes Computermodell, mit dem zukünftige Bedingungen vorhergesagt werden sollen, sollte die bekannten historischen Daten reproduzieren. Von einem Computermodell, das nicht zu den historischen Temperaturdaten passt, kann man nicht erwarten, dass es brauchbare Projektionen liefert.

Abbildung 1 zeigt, dass die Computermodell-Simulation nach 1983 im Vergleich zu den Beobachtungen zu viel Erwärmung rechnet. Die Diskrepanz zwischen dem Modell und der Beobachtung nimmt nach 1998 dramatisch zu, hat es doch während der letzten 16 Jahre überhaupt keine Erwärmung mehr gegeben. Setzt man die Beobachtungs- und Modelltrends im Jahre 1979 auf Null, betrug die Diskrepanz zwischen dem Mittelwert der Modelle und den Bodenmessungen im Jahre 2012 0,73°C. Diese Diskrepanz ist fast so groß wie die geschätzte Erwärmung um 0,8°C während des 20. Jahrhunderts. Der modellierte Temperatur-Erwärmungstrend von 1979 bis 2012 beträgt 0,337% pro Dekade. Der Trend der drei Beobachtungs-Datensätze liegt bei 0,149°C pro Dekade. Daher liegt die vom Modell simulierte Erwärmung um 226% über den Beobachtungen (0.377 dividiert durch 0.147 = 226%).

Diese großen Fehler resultieren hauptsächlich aus falschen Annahmen hinsichtlich Wasserdampf und Änderungen der Bewölkung. Die Klimamodelle gehen davon aus, dass sich Wasserdampf, das wichtigste Treibhausgas, in der oberen Atmosphäre [= Troposphäre? A. d. Übers.] anreichert als Folge des kleinen Erwärmungseffektes durch CO2-Emissionen. Ein Prozent Änderung des Wasserdampfgehaltes hat über fünf mal so starke Auswirkungen auf die Temperatur wie die gleiche prozentuale Änderung des CO2-Gehaltes. Entgegen den Modellannahmen zeigen die Feuchtigkeitsdaten der Radiosonden, dass der Wasserdampfgehalt der oberen Atmosphäre abnimmt, wie die folgende Graphik zeigt:

Abbildung 1a: Wasserdampfgehalt der oberen Troposphäre

Die individuellen Läufe des Modells werden erzeugt, indem man die Anfangsbedingungen verschiedener Parameter verändert. Diese kleinen Änderungen führen zu großen Änderungen der jährlichen Temperaturen zwischen den Läufen, und zwar aufgrund der im Modell simulierten chaotischen Wetterprozesse. Das Mittel der fünf Läufe blendet den größten Teil des Wetter-Rauschens aus, weil diese kurzfristigen Temperaturänderungen Zufall sind.

Das Klimamodell nimmt an, dass fast alle Temperaturänderungen den anthropogenen Treibhausgas-Emissionen geschuldet und dass natürliche Ursachen für Klimaänderungen nicht signifikant sind. Das simulierte Wetter-Rauschen enthält die Auswirkungen der ENSO (El Niño and La Niña), nicht jedoch die multidekadischen Temperaturänderungen infolge natürlicher Ozean-Oszillationen oder durch solare Vorgänge ausgelöste natürliche Klimaänderungen, die über die kleinen Variationen der Gesamt-Solarstrahlung hinausgehen. Die historischen Aufzeichnungen enthalten die Auswirkungen großer Vulkanausbrüche, die sich drei Jahre lang bemerkbar machen können. Die Projekte nehmen in der Zukunft keinerlei große Vulkanausbrüche an. Es gab seit 1992 keine signifikanten Vulkanausbrüche, die die Temperaturen beeinflusst haben könnten, wie die folgende Graphik der vulkanischen Aerosole zeigt:

Abbildung 1b: vulkanische Aerosole

Das Modell kann die Temperaturaufzeichnung nicht richtig abbilden, weil es die Auswirkungen zunehmender Treibhausgase überschätzt und die meisten natürlichen Gründe von Klimaänderungen gar nicht berücksichtigt.

In Abbildung 2 werden die globalen Temperaturen der mittleren Troposphäre im 400-hPa-Niveau (ca. 7 km Höhe) mit dem Modell verglichen:

Abbildung 2: Kanadische Klimamodell-Simulationen der Temperaturen in der mittleren Troposphäre und zwei Datensätze mit Beobachtungen. Die Ballondaten stammen aus dem 400-hPa-Niveau in etwa 7 km Höhe.

Die Diskrepanz im Jahr 2012 zwischen dem mittleren Modellwert der Temperaturen in der mittleren Troposphäre und die Beobachtungen durch Radiosonden und Ballone betrugen jeweils 1,26°C bzw. 1,04°C. Der Temperaturtrend des Modells liegt um 650% über dem Trend aus den Beobachtungen.

Die Satelliten messen die Temperatur einer Schichtdicke der Atmosphäre. Die Bewertungsfunktion [LEO für weighting function; ?] der Satelliten-Temperaturen beschreiben die relativen Beiträge, den jede atmosphärische Schicht zu dem Gesamt-Satellitensignal beiträgt. Wir haben die Ballon-Trends mit den Satellitentrends der Temperatur an der Erdoberfläche verglichen [für Fachleute das Original: We compared the balloon trends weighted by the lower troposphere satellite temperature weighting functions to the near-surface observed trends for global and tropical data.] Ähnliche Vergleiche wurden für die mittlere Troposphäre durchgeführt. Die gewichteten Schichtdicken der Ballon-Trends für die untere und mittlere Troposphäre waren jeweils ähnlich den Ballon-Trends an der Erdoberfläche bzw. im 400-hPa-Niveau. Wir kommen zu dem Ergebnis, dass die Satelliten-Temperaturtrends der unteren und mittleren Troposphäre jeweils in etwa repräsentativ sind für die oberflächennahen bzw. die 400-.hPa-Temperaturtrends. (Siehe Anmerkung 3 für weitere Informationen).

Trends in den Tropen

In Abbildung 3 werden die Oberflächen-Temperaturen in den Tropen von 20°N bis 20°S mit den Klimamodell-Simulationen verglichen. Der Temperaturtrend des Modells liegt um 300% über dem Mittel der drei Beobachtungs-Datensätze. Die Diskrepanz zwischen Modell und Beobachtungen ist in den Tropen viel größer als im globalen Mittel.

Abbildung 3: Kanadische Klimamodell-Simulationen der oberflächennahen Temperaturen in den Tropen und drei Datensätze mit Beobachtungen.

In Abbildung 4 wird der Erwärmungstrend in der mittleren Troposphäre der Tropen mit den Beobachtungen verglichen. Der in den Modellen zunehmende Wasserdampfgehalt dort vergrößert den Erwärmungstrend im 400-hPa-Niveau um 55% gegenüber dem oberflächennahen Trend.

Die Diskrepanz im Jahre 2012 zwischen dem Modell-Mittel der Temperaturen in der mittleren Troposphäre der Tropen und den Ballon-Messungen betrug 1,33°C. Der Temperaturtrend des Modells liegt um 560% über dem Mittelwert der beiden Beobachtungs-Datensätze.

Abbildung 4: Kanadische Klimamodell-Simulationen der mittleren Troposphäre (400-hPa-Niveau) in den Tropen und zwei Beobachtungs-Datensätze.

Im 300-hPa-Niveau in einer Höhe von etwa 9 km ist die Diskrepanz sogar noch größer.

In Abbildung 5 werden die Modell- und die Ballon-Temperaturwerte im 300-hPa-Niveau über den Tropen miteinander verglichen. Der Erwärmungstrend dort ist genau doppelt so groß wie der oberflächennahe Modelltrend. Im Gegensatz dazu zeigen die Ballondaten, dass der Trend im 300-hPa-Niveau nur unbedeutende 3% höher liegt als der oberflächennahe Temperaturtrend. Die Diskrepanz zwischen dem Modell-Mittel und den Ballondaten im 300-hPa-Niveau über den Tropen betrug 1,69°C.

Die Modell-Temperaturtrends der tropischen Troposphäre in einer Höhe von 7 bzw. 9 km über den Tropen liegen um erstaunliche 470% bzw. 490% über den Radiosonden-/Ballondaten. Dies sind gewaltige Fehler bei der Abbildung der Historie!

Abbildung 5: Kanadische Klimamodell-Simulationen der mittleren Troposphäre über den Tropen im Vergleich mit den Messungen durch Wetterballone.

South Trends

Im hohen Süden verläuft der modellierte oberflächennahe Temperaturtrend verglichen mit den Beobachtungen in entgegen gesetzter Richtung. In Abbildung 6 werden die modellierten Temperaturdaten zwischen 50 und 75°S mit den Beobachtungen verglichen. Die modellierte Temperaturrate seit 1979 zeigt Erwärmung mit 0,35°C pro Dekade, während die gemessenen Temperaturen einen Abkühlungstrend von -0,07°C pro Dekade zeigen.

Mit Ausnahme der Antarktischen Halbinsel ist die Temperatur während der letzten 30 Jahre in den meisten Gebieten der Antarktis gesunken. Die Ausdehnung des antarktischen Meereises ist derzeit 1 Million km² größer als das Mittel von 1979 bis 2000. Diese Ausdehnung über dem Mittel war in den Jahren 2012 und 2013 durchweg größer trotz des steigenden CO2-Gehaltes in der Atmosphäre.

Abbildung 6: Kanadische Klimamodell-Simulationen der oberflächennahen Temperaturen zwischen 50 und 75°S im Vergleich mit zwei Beobachtungs-Datensätzen.

Zusammenfassung der Trendfehler

Die folgende Tabelle fast die Trendverhältnisse zwischen Modell und Beobachtung zusammen:

Die Tabelle zeigt, dass die größten Diskrepanzen zwischen den Modellen und den Beobachtungen in der mittleren Troposphäre über den Tropen aufgetreten waren. Der Modellfehler nimmt mit der Höhe zu und ist im 300-hPa-Nievau, also in etwa 9 km Höhe am größten. Das Verhältnis des Modell- und des Beobachtungs-Erwärmungstrends beträgt 200% und ist ein Fingerabdruck der theoretischen Wasserdampf-Rückkopplung. Diese von den Modellen gezeigte verstärkte Erwärmungsrate über den Tropen, „Hot Spot“ genannt, ist verantwortlich für zwei Drittel des Erwärmungstrends in den Modellen. Die Tatsache, dass die Beobachtungen keinen mitteltroposphärischen Hot Spot zeigen, bedeutet, dass es keine positive Wasserdampf-Rückkopplung gibt, weshalb die projizierten Erwärmungsraten drastisch übertrieben sind.

Modellergebnisse, die in so krassem Gegensatz zu historischen Beobachtungen stehen, sollten nicht als Grundlage für öffentliche politische Entscheidungen herangezogen werden. Ein Modell ohne gute Repräsentation der Historie wie im kanadischen Modell-Output zeigt, dass das Team der Modellierer eine grundlegende Forderung der Computermodellierung ignoriert hat.

Eine globale Verteilung der oberflächennahen Temperatur des Modells für April 2013 findet sich hier.

Anti-Information

Patrick Michaels und Paul “Chip” Knappenberger verglichen den Modelloutput mit den tatsächlichen Temperaturdaten des 20. Jahrhunderts um zu bestimmen, welcher Teil der tatsächlichen Daten durch das Modell erklärt werden kann. Sie schrieben: „Eine Standardmethode, die Brauchbarkeit eines Modells zu bestimmen, ist es, dieses mit den „Residuen“ zu vergleichen, also den Unterschieden zwischen dem, was vorhergesagt worden ist und die Originaldaten. Im Besonderen, falls die Variabilität der Residuen geringer ist als die der Rohdaten, dann hat das Modell einen Teil des Verhaltens der Rohdaten erklären können“.

In diesem Artikel schrieben sie: „Die Unterschiede zwischen den Vorhersagen und den beobachteten Temperaturen waren signifikant größer (um einen Faktor zwei) als wenn man lediglich Zufallszahlen appliziert“. Sie erklärten, dass eine Reihe von Zufallszahlen keine Informationen enthalten. Das kanadische Klimamodell erzeugt Ergebnisse, die noch viel schlechter sind als gar keine Ergebnisse. Die Autoren nennen dies „Anti-Information“.

Das kanadische Modell trägt zur Energiearmut bei

Die Ergebnisse des kanadischen Klimamodells fanden Verwendung in einem Bericht des US Global Change Research Program, der an die EPA ging, um Vorschriften bzgl. CO2 zu rechtfertigen. Den Autoren dieses Berichtes hatte man gesagt, dass das kanadische Klimamodell lediglich Anti-Information liefere. Sie haben diese Tatsache bestätigt, ihren Bericht aber trotzdem unverändert veröffentlicht. Die kanadische Regierung hat darauf hingewiesen, dass sie den USA hinsichtlich der Regulierung von CO2-Emissionen folgen werde.

Das kanadische Klimamodell wird auch vom IPCC verwendet, um die Vorhersagen einer extremen anthropogenen Erwärmung zu rechtfertigen, trotz der Tatsache, dass das Modell keinerlei Bezug zur Realität hat. Wie auch das Klimamodell ignoriert das IPCC die meisten natürlichen Gründe der Klimaänderung und ordnet fälschlich natürliche Klimaänderungen den Treibhausgas-Emissionen zu. Hier folgt eine Liste mit 123 begutachteten Studien, die von 2008 bis 2012 zum solaren Einfluss auf das Klima veröffentlicht worden und im 5. Zustandsbericht des IPCC vollständig ignoriert worden sind.

Der Klimaalarmismus, der auf nicht funktionierenden Klimamodellen beruht, hat die Welt bislang 1,6 Billionen [trillion] Dollar gekostet für fehlgeleitete und uneffektive Bemühungen, Treibhausgas-Emissionen zu reduzieren. Diese Bemühungen haben dafür gesorgt, dass die Energiepreise in Europa dramatisch gestiegen sind, was zu Energiearmut geführt hat und arme Leute in Gefahr bringt. Hohe Treibstoffkosten und kaltes Winterwetter werden für 30.000 Todesopfer in UK im vorigen Jahr verantwortlich gemacht. Während der letzten vier Jahre sind die Energiekosten in Europa um 17% für Verbraucher und 21% für die Industrie gestiegen. Das Scheitern des kanadischen Klimamodells hat zu diesem Übelstand beigetragen.

Kanadische Politiker und Steuerzahler müssen fragen, warum wir weiterhin Klimamodelle finanziell fördern, die weder die historischen Aufzeichnungen reproduzieren können noch nützliche Informationen liefern.

Ken Gregory, P.Eng.
Friends of Science
Ten years of providing independent climate science information

Anmerkungen:

1. Das kanadische Erdsystem-Modell CanESM2 kombiniert das CanCM4-Modell und das kanadische Terrestrial Ecosystem Model, welches den Kohlenstoff-Austausch zwischen Land und Atmosphäre modelliert. Tabelle 9.5 im AR 5 zeigt, dass die transiente [?] Klimasensitivität bei einer Verdoppelung des CO2-Gehaltes 2,4°C beträgt. Die Sicherheits-Bandbreite [certainty range] des Mittels der transienten Klimasensitivität aus 30 Modellen liegt zwischen 1,2°C und 2,4°C.

2. Die monatlichen Daten des kanadischen Klimamodells CanESM stammen vom KNMI Climate Explorer hier. Die Satellitendaten kommen von der University of Alabama in Huntsville hier (LT) und hier (MT) sowie aus Fernerkundungs-Systemen hier (LT) und hier (MT). Die Daten von Radiosonden und Wetterballonen kamen vom Earth System Research Laboratory hier. Die globalen Bodentemperaturdaten wurden aufbereitet aus dem HadCRUT4-Datensatz durch das UK Met. Office und der Climate Research Unit der University of East Anglia hier. Die tropischen Daten aus HadCRUT4 (20°N bis 20°S) stammen aus dem KNMI Climate Explorer. Eine Excel-Mappe mit allen Daten, Berechnungen und Graphiken ist hier.

3. Die mittleren globalen Trends aus Wetterballon-Daten aller Druckflächen von 1000 hPa bis 300 hPa, gewichtet durch die LT satellite temperature weighting functions sind nur um 3% größer als der Ballon-Trend in 1000 hPa. Das bestätigt, dass die LT-Satellitentrends repräsentativ für den oberflächennahen Trend sind. Die gewichteten tropischen Wetterballon-Trends sind um 3% größer als das Mittel des Ballontrends in 1000 hPa und der Trend an Beobachtungsstationen. Die weighting functions der Temperatur für Festland und Ozeane wurden von der Remote Sensing Systems Website abgeleitet. Die mittleren globalen und tropischen Ballon-Trends in allen Druckniveaus gewichtet mit den Temperatur-weighting functions der mittleren Troposphäre (MT) sind um 13% bzw. 4% größer als die Ballontrends in 400 hPa. Wenn die MT-Satellitentrends adjustiert werden würden durch diese Faktoren, um mit dem 400-hPa-Niveau zu korrespondieren, würden die globalen und tropischen Adjustierungen der Satellitentrends -0,017°C pro Dekade bzw. -0,004°C pro Dekade betragen. Da die MT-Satellitentrends bereits unter den 400-hPa-Ballontrends liegen, wurden keine Adjustierungen vorgenommen.

Link: http://wattsupwiththat.com/2013/10/24/epic-failure-of-the-canadian-climate-model/

Übersetzt von Chris Frey EIKE




Nächtlicher Vogelzug, bei WKA Planungen oft völlig im Dunklen

Denn das gesamte Artenschutzrecht gilt nicht nur tagsüber, sondern auch nachts. Daran bemessen zeigt sich grundsätzlich daß in der WKA-Genehmigungspraxis dem gesetzlichen Auftrag des Artenschutzes nur unzureichend genügt wird.

Mit ein paar „Begehungen“, wenn das Thema überhaupt berücksichtigt wird, ist es nicht getan, um statistisch belastbare Daten zu erhalten, auch wenn sich viele Genehmigungsbehörden mit diesen wenigen Begehungen, kaum zu glauben, aber amtlich, zufriedengeben bzw. aufgrund politischen Druckes zufriedengeben müssen.

Eine lückenlose Analyse bieten inzwischen moderne Radarsysteme. Näheres hierzu findet man in einer Petition an die 16 Landesparlamente vom 03. November 2013, in der die Thematik aufgegriffen wurde. Sie kann ggf. durch Mitzeichnung unterstützt werden. Zum Mitzeichnen und Weitersagen http://birdstrike.wpwc.de ; engl. http://www.igsz.eu/WEK/birdstrike.htm




Die Wissenschaft von den Vorhersagen – ein IPCC-Flop

Es gibt nur eine einzige Studie über wissenschaftliche Vorhersagen

Von Kesten C. Green, J. Scott Armstrong und Willie Soon

Es gereichte den Menschen immer zum Vorteil, dass man sich auf die Vorhersage verlassen konnte, dass die Jahreszeiten in der immer gleichen Abfolge kämen und gingen.Und man wusste auch, dass es manchmal zum Guten, manchmal zum Schlechten war. Ist das heuzutage noch so?

Zum fünften Male nun behauptet das IPCC (Intergovernmental Panel on Climate Change), dass es anders sei.  Der Unterschied läge im erhöhten Ausstoss von Kohlendioxid durch die Menschen, von Kohlendioxid, einem farblosem, geruchlosem, unschädlichen Gas. Es ist Abfalllprodukt unseres gesteigerten Wohlstandes. Es wird außerdem durch die Atmung der Lebewesen erzeugt. Es ist notwendig für das Leben auf der Erde. Insgesamt stellt es nur einen Anteil von vier Zehntausendsteln an der gesamten Atmosphäre.

Das IPCC vermutet, dass der vergleichsweise geringe Eintrag dieses Gases in die Atmosphäre durch den Menschen eine globale Erwärmung verursachen würde, und behauptet, diese Erwärmung wäre gefährlich.

Manche Wissenschaftler bestreiten diese Behauptungen des IPCC, weil der klimatologische Effekt der Zunahme von Kohlendioxid in der Atmosphäre unerheblich sei – und darüberhinaus sei das Klima ein derart komplexes und ungenügend verstandenes Phänomen, dass die Auswirkung der vom Menschen verursachten Emissionen auf die globale Temperatur überhaupt nicht vorhergesagt werden könnte.

Die Computer-Modelle, auf die sich die Autoren der IPCC-Sachstandsberichte berufen, sind komplizierte Ausprägungen der Vermutung, dass heute die vom Menschen erzeugten Kohlendioxid-Emissionen der primäre Faktor für den Klimawandel seien und dass sie die Erde tatsächlich überhitzten. Die Modelle enthalten viele Annahmen, die auch von Wissenschaftlern der herrschenden Lehre angezweifelt werden.

Korrekterweise sagen die Modellierer, dass sie Szenarien erzeugen, keine Vorhersagen. Szenarien sind Abläufe, die aus einer Zusammenstellung von Annahmen gebildet werden. Gut konstruierte Szenarien können sehr überzeugend wirken, wie auch ein gut geschriebenes Buch oder ein gut gemachter Film.

Das IPCC und seine Anhänger verbreiten die schrecklichen Szenarien als ob es Vorhersagen wären. Szenarien aber sind weder Vorhersagen noch sind sie die Ergebnisse einer anerkannten Vorhersagemethodik.

Die IPCC-Modellierer wissen offenbar nichts von den sich über Jahrzehnte hinziehenden Forschungen zum Thema „Vorhersagen“. Unsere kritische Überprüfung der Verfahren, mit denen das IPCC seine apokalyptischen Vorhersagen erzeugt, ergab, dass 72 von 89 gültigen Vorhersageprinzipien verletzt werden.

Würden Sie in einem Flugzeug mitfliegen wollen, wenn Sie zufällig mitbekommen, wie zwei Mitarbeiter des Bodenpersonals darüber reden, das der Pilot 80 Prozent der Vorfluginspektion übersprungen hätte?

Neununddreißig Vorhersage-Experten aus vielen Disziplinen von überallher in der Welt haben die Vorhersageprinzipien aus der publizierten Vorhersage-Literatur zusammengestellt. Weitere 123 Vorhersageexperten haben diese Arbeit geprüft. Die Prinzipien wurden 2001 veröffentlicht und sie stehen über das Internet jedem Wissenschaftler zur Verfügung, der sich mit Vorhersagen beschäftigt, damit er seine Vorhersagen mit bestem Gewissen machen kann. Auch kann er deren Gültigkeitswert anhand der Prinzipien überprüfen. Diese Prinzipien sind die einzige veröffentlichte Zusammenstellung von beweiskräftigen Standards für Vorhersagen.

Dessenungeachtet behaupten die Alarmschläger von der Globalen Erwärmung, dass „fast alle“ Klimawissenschaftler an das Eintreffen der Erderwärmung glaubten. Das ist eine sonderbare Behauptung angesichts der Tatsache, dass tatsächlich über 30.000 amerikanische Naturwissenschaftler in der Oregon-Petition die Aussage unterzeichnet haben, dass die Vorhersagen einer menschengemachten gefährlichen globalen Erwärmung keine Grundlage hätten und dass „kein überzeugender Beweis“ existiere, dass Kohlendioxid die Erde gefährlich erwärmen oder das Klima schädigen könnte.

Ganz wichtig ist: Computermodelle und Szenarien sind keine Beweise – und die Richtigkeit wird nicht durch das Addieren von zustimmenden Stimmen festgestellt. Solcherart Vorgehensweise kann für den Forschritt der wissenschaftlichen Erkenntnis nur schädlich sein. Eine Validierung erfordert, dass Vorhersagen mit tatsächlichen Beobachtungen verglichen werden, und die IPCC-Modelle haben dabei immer versagt.

Angesichts der vorgeschlagenen teuren Politik, die zum Zwecke der Verhinderung einer gefährlichen menschenverursachten Erwärmung befürwortet wird, muss es erstaunen, dass es nur eine einzige veröffentlichte und fachbegutachtete Studie gibt, die den Anspruch erhebt, wissenschaftliche Vorhersagen der durchschnittlichen Langzeittemperaturen zu enthalten. Das Papier ist unser eigener Artikel (2009) im International Journal of Forcasting.

Unsere Studie hat den Stand der Wissenschaft ausgewertet und die verfügbaren empirischen Daten (das heißt die tatsächlichen Messungen), um zutreffende und auf der Wirklichkeit beruhende Verfahren herauszufiltern für die Langzeitvorhersage durchschnittlicher Temperaturen. Angesichts der Komplexität und der Ungewissheit insgesamt kamen wir zu dem Schluss, dass ein „kein-Trend“- Modell die angemessene Methode ist. Dieses Ergebnis beruht auf erheblichem Forschungsaufwand. Wir fanden heraus, dass komplexe Modelle in komplexen und ungewissen Lagen nicht gut geeignet sind. Dieses Ergebnis mag Leute verunsichern, die mit der Prognose-Forschung nicht vertraut sind.

Wir haben das „kein-Trend-Modell“ mit den gleichen Daten wie das IPCC getestet. Hierzu erstellten wir jährliche Vorhersagen von einem bis zu 100 Jahren im Voraus. Wir fingen mit 1851 an und sind in Ein-Jahres-Schritten bis 1975 gegangen, dem Jahr, in dem mit der Alarmschlägerei wegen der Erderwärmung begonnen wurde (im gleichen Jahr berichteten Newsweek und andere Magazine, dass die Wissenschaft „nahezu einhellig“ der Meinung wäre, dass der Erde eine neue Periode globaler Abkühlung bevorstünde). Die gleiche Analyse haben wir auch für das IPCC-Szenario durchgeführt, wo eine jährlich zunehmende Erwärmung von 0,03 Grad wegen der menschengemachten Kohlendioxid-Emissionen vorhergesagt wird.

Das Verfahren erzeugte 7.550 Vorhersagen bei Anwendung jeder der beiden Methoden.

Was kam heraus?

Um es vorweg zu sagen: der Fehler unserer „kein-Trend-Vorhersagen“ betrug nur ein Siebentel im Vergleich zur den Projektionen des IPCC-Szenarios. Wir waren ebenso genau oder noch genauer als die IPCC-Temperaturen für alle Vorhersage-Reichweiten. Ganz besonders wichtig ist, dass die relative Genauigkeit der „kein-Trend-Vorhersagen“ für längere Vorhersage-Reichweiten zunahm. So betrug zum Beispiel der „kein-Trend-Vorhersage“-Fehler nur ein Zwölftel im Vergleich zu den IPCC-Temperatur-Szenarien für 91 – 100 Jahre im Voraus.

Mit unseren noch laufenden Forschungen sichteten wir weitere Prognose-Verfahren, benutzten noch mehr und bessere Daten und weiteten wir unsere Validierungstests aus. Die Ergebnisse bestätigten unsere Schlussfolgerung, dass es keine wissenschaftlichen Vorhersagen gibt, die eine gefährliche globale Erwärmung anzeigen.

Muss da nicht sehr überraschen, dass die Regierung einen Alarm unterstützt, der wissenschaftlich nicht fundiert ist? Nicht wirklich!

In unserer Betrachtung von Situationen vergleichbar mit der derzeitigen Alarmschlägerei von der globalen Erwärmung haben wir 26 frühere Fälle gezählt, die auf Szenarien von menschengemachten Katastrophen beruhten, darin auch der Alarm vor einer globalen Abkühlung aus den 1960ern bis in die 1970ern. Kein Fall beruhte auf wissenschaftliche Vorhersagen. Und dennoch haben die Regierungen in 23 Fällen teure politische Abwehrmaßnahmen ergriffen. In keinem der Fälle trat die Vorhersage eines globalen Schadens ein.

Mit wissenschaftlichen Vorhersagen lässt sich ein Erwärmungstrend oder ein Abkühlungstrend der Temperaturen nicht begründen. Ohne wissenschaftliche Begündung ist der Alarm von einer globalen Erwärmung ohne Substanz und sollte gar nicht beachtet werden. 

Regierungsprogramme, Umlagen, Steuern und Maßnahmen aufgrund des Alarms von einer globalen Erwärmung führen zu einer Fehl-Allokation von wertvollen Resourcen. Sie führen zu höheren Energiepreisen, schlechter werdender globaler Wettbewerbsfähigkeit, dem Weggang von Industrien und zum Verlust von Arbeitsplätzen. Damit gefährden sie den Wohlstand und das öffentliche Wohlergehen.

Die Menschheit fährt besser mit dem alten, einfachen, erprobten und bestätigten Klimavorhersage-Modell ohne Trend. Dieses Modell stimmt auch mit den Prinzipien der wissenschaftlichen Vorhersage überein.

#############################################

Über die Autoren:

Dr. Kesten C. Green forscht bei der University of South Australia in Adelaide. Er ist der Direktor der führenden Website zur Prognoseforschung [forecastingprinciples.com], er hat zwölf fachbegutachtete Artikel zum Thema "Vorhersagen" veröffentlicht. Professor J. Scott Armstrong lehrt an der University of Pennsylvania in Philadelphia und ist Mitgegründer der beiden führenden Zeitschriften über Prognosemethoden, Herausgeber des Handbuchs "Principles of Forecasting". Er ist der am meisten zitierte Autor auf dem Gebiet der Prognosemethoden. Dr. Willie Soon aus Salem, Massachusetts, USA, hat in den letzten 20 Jahren vielfach über solare und weitere Faktoren der Klimawandel-Ursachen publiziert.

Kopien der Klimawandelprognose-Papiere der Autoren stehen auf www.PublicPolicyForecasting.com zur Verfügung.

########################################

Original hier

Übersetzung: Helmut Jäger, EIKE




Unbequeme Wahrheiten über den Kanzlerinnen-Berater Schellnhuber! Teil 10 Wie aus Majoritäten Minoritäten werden

Seit dieser Zeit – also seit Januar 2010 als der Email-Skandal und die Fehler im letzten IPCC-Weltklimabericht 2007, z.B. der Himalya-Gletscher-Fehler aufgedeckt worden waren, ist nicht bekannt, daß Schellnhuber wieder in einer deutschsprachigen TV-Talk-Sendung aufgetreten wäre, obwohl er seine TV-Auftritte von Oktober bis Dezember 2009 nahezu inflationär betrieben hatte. Wenn Sie eine weitere TV-Diskussions-Sendung mit Hans J. Schellnhuber seit Januar 2010 kennen sollten, teilen Sie uns das bitte mit.

Und das Kapitel 10 dokumentiert, wie schwierig es seit 2007 war und ist, klimarealistische Fakten über den Klimawandel in TV-Sendungen unterzubringen, wenn einem einzigen Klimarealisten gleiche mehrere regelrechte “Klimahysteriker” gegenübersassen und auch die eigentlich neutralen Moderatoren klimarealistische Thesen häufig vorzeitig in der Debatte abwürgten.

Video Nr. 10 über die zigfache Alleinstellung von „Klimaforschern“ wie Schellnhuber in den Medien und die gezielten Versuche die Klimrealisten  von Anfang an in die unmoralische „Leugner“-Ecke zu stellen

Das Abschluss-Kapitel 11 (Epilog) der “Unbequemen Wahrheiten” am 11.11.2013 stellt Thesen zur Diskussion, die politische Motive für das dubiose CO2-Klimathema sein könnten und offensichtlich auch sind, und stellt zwei Möglichkeiten vor, wie man sich gegen solche “Scharlatane der Klima-Wissenschaft” wehren könnte. Der 6-minütige Videotrailer (mit integrierter Playlist) über das gesamte 11-teilige Filmprojekt ist seit dem 27.08.2013 online.