1

Parfümwolke für die Energiewende

Ab hier der Original-Artikel :

Von Alex Reichmuth (Red. WELTWOCHE Zürich)

Die Umsetzung der neuen Energiestrategie harzt. Physikalische Grenzen und der fehlende Wille der ­Bevölkerung stehen ihr entgegen. Der Bund sucht nun nach der wirksamsten Methode, wie er die ­Schweizerinnen und Schweizer subtil in die gewünschte Richtung lenken kann.Weg vom Atomstrom. Weg von fossilen Brennstoffen. Das sind die Eckpfeiler der Energiewende, wie sie Regierung und Parlament beschlossen haben. Das Volk hatte dazu bisher nichts zu sagen. Allzu tiefe Sachkenntnisse braucht es nicht, um zu erkennen, dass die Wende kaum gelingen wird: Wind und Sonne als alternative Stromquellen taugen wenig, weil keine Technologie zur Verfügung steht, um die unregelmässig anfallende Energie zu finanziell vernünftigen Bedingungen zu speichern. Die Stromversorgung kann darum nicht gewährleistet werden, insbesondere nicht in den Wintermonaten. Andererseits sind deutliche Abstriche beim Lebensstandard notwendig, um den Energieverbrauch wie beabsichtigt stark zu reduzieren. Die Bevölkerung ist aber nicht bereit zu Einschränkungen wie in Kriegszeiten. Sie sträubt sich gegen die angemahnten Verhaltensänderungen.

Der Energiewende stehen somit physika­lische Gesetze und gesellschaftliche Widerstände entgegen. Die Protagonisten des ökologischen Umbaus bei Behörden und Parteien spüren den immer stärkeren politischen Gegenwind und fürchten einen Gesichtsverlust, wenn ihre Pläne scheitern.

Über hundert Projekte

In diesem Moment lanciert der Schweizerische Nationalfonds auf Geheiss des Bundesrats zwei Nationale Forschungsprogramme (NFP). Mit eindrücklichen 45 Millionen Franken will der Bund der ins Stocken geratenen Öko­wende neuen Schub verleihen. Beteiligt sind die ETH, kantonale Universitäten, Fachhochschulen und private Institute, also fast die gesamte Forschungslandschaft der Schweiz. Die über hundert Projekte sind aufgeteilt in NFP 70 «Energiewende» (84 Projekte), das «technologische Potenziale zur Umsetzung der Energiestrategie 2050» untersuchen soll, und in das NFP 71 «Steuerung des Energieverbrauchs» (19 Projekte), das «nachfrage­seitige gesellschaftliche Fragestellungen im Blick» hat. Es geht im Wesentlichen um die ­Behebung der erwähnten Schwachpunkte der neuen Energiepolitik: der fehlenden Speichermöglichkeiten und des fehlenden Willens in der Bevölkerung. «Die gleichzeitige Umsetzung der Energiestrategie 2050 und die zu ­erreichenden Klimaziele stellen das schweizerische Energiesystem vor grosse Herausforderungen», steht in der Pressemitteilung zur Lancierung der Programme. Die Probleme werden also unverhohlen eingestanden.

«Wie schaffen wir die Wende?»

Ob man diese lösen kann, ist allerdings mehr als fraglich. Das NFP 70 umfasst zwar auch Projekte, die auf seriöse und sinnvolle Technologieforschung schliessen lassen. Da geht es ­etwa um verbesserte Batterientechnik, um technische Optimierung der Fotovoltaik oder um Stromspeicherung über Luftkomprimierung. Bei letzterem Projekt handelt es sich ­gemäss Beschrieb um «das einzige grossangelegte Stromspeicherkonzept, das derzeit über das Potenzial verfügt, die Pumpspeicherkraftwerke in der Schweiz zu ergänzen» – ein Eingeständnis, dass es nebst dem Rückpumpen von Wasser in Stauseen heute keine andere brauchbare Speichertechnik gibt.

Doch die Pumpspeicherkraft kann die Stromversorgung nach einem Atomausstieg bei weitem nicht gewährleisten, und «Ergänzungen» wie die Luftkomprimierung in leerstehenden Tunneln und militärischen Kavernen lösen die Probleme schon gar nicht, sondern sind im besten Fall ein Tropfen auf den heissen Stein. An der Verbesserung der Batterientechnik wird weltweit zwar intensiv geforscht. Dennoch ist zu bezweifeln, dass hier bahnbrechende Durchbrüche anstehen, auf die die Energiewende angewiesen wäre. Etwas zusätzliche Batterienforschung im eigenen Land ändert daran nicht viel.

Beim NFP 71 fallen die vielen Worthülsen auf. Es gehe um eine «innovative Kommunikation mit den Stromverbrauchern», die diesen «Impulse geben» soll, liest man etwa. «Angesprochen werden ökonomische, rechtliche, politische, psychologische und gesellschaftliche Rahmenbedingungen und Entwicklungen, welche das Ausschöpfen von Effizienz- beziehungsweise Suffizienzpotenzialen fördern oder hemmen», heisst es in der Pressemitteilung. Das Soziologen-Geschwurbel zieht sich durch die Projektbeschriebe. Es gehe um «komplexe, aber strukturierte politische Empfehlungen für die Erhöhung der Akzeptanz», liest man zum Projekt «Wie schaffen wir die Wende?» der Universität Bern. Hinter dem Projekt steht Professorin Isabelle Stadelmann-Steffen, die vor kurzem die direkte ­Demokratie als Hemmnis für die Entwicklung des Wohlfahrtsstaats bezeichnet hat.

Bei den Projekten des NFP 71 geht es immer mehr oder weniger um dasselbe: Die Bevölkerung soll auf Kurs gebracht werden. Sie soll Energie sparen, Verzicht üben und der neuen Energiepolitik nicht mit unerwünschten ­Urnenentscheiden im Wege stehen. Dass die meisten Projekte inhaltlich fast identisch sind, zeigen schon ihre Titel: Neben dem Projekt «Effizienter Energieverbrauch in Privathaushalten» werden etwa die Projekte «Energie­effizienz in Privathaushalten», «Verhaltensmechanismen beim Stromverbrauch in Privathaushalten», «Energiesparpotenziale in Haushalten von älteren Menschen» oder «Nachhaltige Lebensstile und Energieverbrauch» gestartet. Alle denkbaren Methoden, wie man Menschen beeinflussen kann, werden in Betracht gezogen: staatliche Informationskampagnen, Lenkung über Beratungsstellen, «Rankings, Belohnungen und Wettbewerbe», Gruppendruck sowie preisliche Anreize und gezielte Veränderung wirtschaftlicher Rahmenbedingungen.

Es gelte, «Modelle zu entwickeln, welche ­sicherstellen, dass der politische Wille im ­europäisch eingebetteten Schweizer Föderalismus wirksamer als bisher vollzogen werden kann», steht in der Ausschreibung des NFP 71 – als ob unser Land ein Demokratiedefizit ­hätte. In den Projektbeschrieben ist von ­«Steuerungsmechanismen», «erfolgreicher Implementierung» oder «Etablierung von ­Gewohnheiten» die Rede. Was hier als ­Forschung unter den Etiketten Ökonomie, Psychologie und Soziologie daherkommt, ist die Suche nach den effizientesten Methoden der Indoktrination.

Resultat steht im Voraus fest

Die beiden Forschungsprogramme sollen gemäss Ankündigung Wissen hervorbringen, «welches die Politik und die Wirtschaft bei der Umsetzung der ‹Energiestrategie 2050› sowie bei der Erreichung weiterer energie- und ­klimapolitischer Ziele unterstützt». Bei wirklicher Wissenschaft müsste man jedoch offenlassen, ob deren Resultate dem angestrebten Zweck dienen oder nicht. Hier aber werden schon zu Beginn «umsetzungsreife Ergeb­nisse» angekündigt.

Die Liste der Projektverantwortlichen liest sich wie eine Tour d’Horizon durch das Personal, das an den Hochschulen seit Jahren durch vorbehaltlosen Support für die ökologische Wende auffällt – etwa Christophe Ballif von der ETH Lausanne, der Subventionen für unrentablen Sonnenstrom als «Unterstützung zur Marktfähigkeit» bezeichnet, oder Lucas Bretschger von der ETH Zürich, Koautor der Studie «Energiezukunft Schweiz», die der Energiepolitik des Bundes scheinbar das Siegel «wissenschaftlich geprüft» verlieh. Natürlich fehlt auch Irmi Seidl nicht, die eine Gesellschaft ohne Wachstum predigt, sowie Rolf Wüstenhagen, dessen Lehrstuhl an der Universität St. Gallen von einer Investment­firma für erneuerbare Energie finanziert ist. Welche Forschungsvorhaben auch immer ­solche Leute anpacken, das Resultat steht im Voraus fest: Die Energiewende ist machbar, es braucht nur ein paar «Steuerungsmassnahmen».

Doch Physik bleibt Physik. Und staatliche Gehirnwäsche scheitert in einem demokratischen Staat meist. Jetzt, wo in der Wirtschaft nach der Aufhebung des Euro-Mindestkurses gröbere Probleme anstehen, zerbröckelt der politische Konsens für die Energiewende zunehmend. Die neuen Forschungsprogramme sind nicht mehr als eine teure Parfümwolke, um ­einer angemoderten Energiestrategie kurzfristig etwas Wohlgeruch zu verleihen.

=================================================================

Anmerkung EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

| Die Weltwoche, Ausgabe 05/2015 |  Donnerstag, 29. Januar 2015 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

==================================================================




Weltwirtschaftsforum Davos 2015: Forum der Scheinheiligen

Al Gore, Oberpriester der unheiligen Klima-Religion, hat es wieder mal allen gezeigt. Denn gerade ist die viertägige Jahrestagung des World Economic Forum in Davos zu Ende gegangen.  Und der Friedensnobelpreisträger, der eigentlich schon abgeschrieben war, durfte sich nach einigen Jahren Pause vor der globalen Elite mit einem neuen multimedial aufgepeppten Schauerszenario (hier das Video) über das Klima der Zukunft in Szene setzen. Vor hunderten von Zuschauern, die in der Lage waren, den kolportierten Eintrittspreis von circa 40.000 Euro zu berappen, warnte er einmal mehr vor den angeblichen Folgen des industriellen Kohlendioxidausstoßes. Und natürlich: Wie stets zuvor war er sich nicht zu schade, seine Warnungen bildlich mit Industrieschornsteinen zu untermalen, deren Abgaswolke vorwiegend aus Wasserdampf besteht. Doch das war nur der Anfang: Auch der längst widerlegte Zusammenhang zwischen Kohlendioxidanstieg in der Atmosphäre und dem angeblichen globalen Temperaturanstieg samt Hockeyschläger-Graphik durfte nicht fehlen. Noch blödsinniger war da nur Gores verbale Gleichsetzung des täglichen menschlichen Wärmeausstoßes mit 400.000 Hiroshima-Atombomben.

Auch die (Schein-) Lösungen, die Gore anbot, waren die altbekannten: Energieproduktion aus Wind und Solar etwa, wobei er so tat, als geschähe der Ausbau dieser Produktionsformen subventionsfrei, und behauptete, weltweit seien Millionen „grüner“ Jobs entstanden. Besonders niederträchtig war hingegen seine Verknüpfung der schlechten Luftqualität der Stadt Peking mit dem Atmosphärengehalt des vollkommen geruchlosen Spurengases Kohlendioxid, unterlegt mit einem Kleinkind, das eine Gasmaske tragen muss. Gore forderte natürlich auch „Climate Action Now!“ Von anderen, etwa die Verteuerung des „Karbonpreises“, was nichts anderes als eine noch höhere Besteuerung sämtlicher Produktionsprozesse darstellt, vor allem in der energieintensiven Lebensmittelbranche. Außerdem forderte er die Bestrafung jedweder Finanzierung von „Klimaverleugnung“, also die Einschränkung der bürgerlichen Grundrechte zugunsten der Klimareligion. Gemeinsam mit dem Sänger und selbst ernannten Klimaexperten Pharrell Williams kündigte er abschließend noch für Juni das größte globale Live-Earth-Konzert aller Zeiten an.

Damit war Gore dort angekommen, wo er um 2010 aufgehört hatte. Danach erreichte seine eigene Glaubwürdigkeit immer neue Tiefpunkte.  So wurde 2013 bekannt, dass er eine seiner wirtschaftlichen Beteiligungen ausgerechnet an den Ölstaat Katar verkauft hatte. Die Rede war von einer Verkaufssumme von 500 Millionen Dollar. Das Tennessee Center for Policy Research hatte zuvor berechnet, dass allein der Energieverbrauch eines von Gores Wohnsitzen dem 20-Fachen des amerikanischen Durchschnitts entspricht. Auch deshalb hatten Gores Klimaschutzappelle 2014 im Vergleich zu den Vorjahren nur noch wenig öffentliches Interesse erregt. Anscheinend denkt er jetzt, dass Gras über diese Sache gewachsen ist.

Denn nichts deutet darauf hin, dass sich an den globalen Doppelstandards irgendetwas geändert hat – ganz im Gegenteil: Davos war wie in den Vorjahren eine Versammlung der Mächtigen und exzentrischen Gutmenschen-Milliardäre. So wurde der Milliardär Jeffrey Green, der mit Ehefrau, Kindern, zwei Nannys und eigenem Jet anreiste, mit den Worten zitiert, die „Erwartungen der Amerikaner an ihren Lebensstil sind viel zu hoch“. Ein ausgeglichener Lebensstil bedeute „weniger Dinge und eine kleinere, bessere Existenz. Wir müssen unser gesamtes Lebenssystem neu erfinden.“ Gleichzeitig wird allein der Wert von Greens kalifornischem Hauptwohnsitz auf 195 Millionen Dollar geschätzt.

Die gleichen Leute, die begeistert klatschen, wenn Al Gore vom Rest der Welt Einschränkungen fordert, bereiten den Schweizer Behörden Kopfzerbrechen, weil es so schwierig ist, genügend Parkraum für deren 1.700 private Flugzeuge zu finden: Bei etwa 2.500 WEF-Teilnehmern dürfte kaum ein Teilnehmer mit der Bahn oder einem Linienflug angekommen sein. Menschen, die bereit und in der Lage sind, etwa 50 Euro für einen Hotdog, Burger oder Salat zu bezahlen, erwarten demnach von anderen, dass sie Karbonsteuern akzeptieren und ihren Lebensstandard herunterfahren. Der Schweizer und österreichische Steuerzahler durfte hingegen schon einmal die Rechnung für die grotesk hohen Sicherheitsmaßnahmen schultern. Diese Widersprüche waren in diesem Jahr so eklatant, dass sogar die deutschen Mainstreammedien kaum über Davos berichteten.

Wenn Gore, sein Hiwi Pharrell Williams („I am happy“) und ihre Davoser Zuhörerschaft „Climate Action“ fordern, ist das daher an Scheinheiligkeit sicher nicht zu überbieten.

Über den Autor

Holger Thuss ist promovierter Historiker, Verleger (TvR Medienverlag) und Präsident des Europäischen Instituts für Klima und Energie (EIKE).

Übernommen vom ef Magazin hier 




Niedersachens Grüner Umwelt-Minister Wenzel möchte Hannover zur Klimaschutz-Hauptstadt machen

1. Brief an den Minister Wenzel

Sehr geehrter Herr Minister Wenzel,

Aus der Presse entnehme ich, dass Sie einen internationalen Klimagipfel in Hannover planen. Ich protestiere energisch gegen dieses Vorhaben, weil ich nicht will, dass meine Steuergelder für diesen Unfug verwendet werden. Sie können keinen wissenschaftlichen Beweis vorlegen, dass anthropogenes CO2 eine Gefahr für das Klima darstellt. Nicht eine der von den Panikverbreitern benannte Klimaänderung oder Wetterextreme kann für sich in Anspruch nehmen, dass sie nicht schon vor 1850 auf ganz natürliche Weise ohne CO2 Einwirkung vorgekommen ist. Es gibt noch nicht einmal eine schlüssige Korrelation von CO2 Anstieg in der Atmosphäre und einem Temperaturanstieg. Eine Hypothese ist solange wissenschaftlich als falsch anzusehen, wie sie nicht durch gemessenen Beweis bestätigt ist. Deswegen sind Konferenzen mit dem Ziel Klimaschutz monokausal durch CO2 Minimierung zu organisieren völlig überflüssig. Noch überflüssiger sind alle Maßnahmen, wie  z. B. die Energiewende, die diese Hypothese als Begründung anführen. Ich bin nicht bereit diesen Unfug widerspruchlos hinzunehmen.

Mit ärgerlichen Gruß

Georg v. Petersdorff

Antwort aus dem Ministerbüro

From: Kollenrott, Marie

Sent: Monday, January 26, 2015 11:17 AM

To: mailto:georg31@web.de

Subject: Klimawandel und Klimakonferenz

Sehr geehrter Herr von Petersdorff,

Herzlichen Dank für ihre Mail. Ich gebe Ihnen Recht, es gibt keinen hundertprozentigen wissenschaftlichen Beweis, dass anthropogenes CO2 den Klimawandel verursacht. Jedoch kann es in der seriösen Wissenschaft niemals hundertprozentige Gewissheit geben.

Die im IPCC versammelten, weltweit führenden Klimaforscher haben zahlreiche Daten und Studien zum Klimawandel gebündelt. Der IPCC schreibt in seinem 2013 erschienenen fünften Sachstandsbericht, es sei extrem wahrscheinlich, dass die beobachtete Erwärmung vom Menschen verursacht wird.

Auch wenn es nie hundertprozentige Sicherheit gibt. Die Folgen des Klimawandels sind für den Menschen und die Umwelt katastrophal. Das Risiko nicht zu handeln, ist zu groß – dies hielten wir für unverantwortlich. 

Neben dem Klimawandel gibt es auch andere gute Gründe für eine ökologische Modernisierung der Energieversorgung. Die Energiepolitik steht vor einer epochalen Herausforderung. Die Probleme des wachsenden Energiehungers, der zunehmenden Rohstoffknappheit und der steigenden Energiepreise müssen gelöst werden.

Die fossilen Ressourcen sind begrenzt. Langfristig werden die Strompreise aufgrund der Rohstoffknappheit steigen und zukünftig die nötigen Investitionen für eine Energiewende übersteigen. Ganz zu schweigen von den Kosten, die uns noch für die Atommüllentsorgung bevorstehen.

Somit ist auch wirtschaftlich gesehen der Umstieg auf erneuerbare Energien günstiger. Die Energiewende bringt langfristig transparente und stabilere Energiepreise mit sich, da die Abhängigkeit von fossilen Ressourcen und Rohstoff-Importen sinkt.

Ihnen ist sicherlich bekannt, dass sich die Grünen seit Jahren für den Ausbau der Erneuerbaren Energien und den Klimaschutz engagieren. Aus all den oben genannten Gründen, werden wir dies auch weiterhin tun.

i.A.

Marie Kollenrott

Persoenliche Mitarbeiterin

Marie.Kollenrott@lt.Niedersachsen.de

Abgeordnetenbuero

Stefan Wenzel MdL 

Fraktion Bündnis 90/Die Grünen im Niedersächsischen Landtag Hinrich-Wilhelm-Kopf Platz 1

Telefon: +49 (0) 511 – 3030 – 3301

Stefan.Wenzel@lt.niedersachsen.de

www.Stefan-Wenzel.de

Vorstellungsvideo der Persönlichen Mitarbeiterin des Ministers: Marie Kollentrott auf dem Wahlparteitag der Niedersächsischen Grünen am 2. Juli 2012 in Wolfsburg;, mit Dank an Spürnase H.R.Vogt:

Erneute Replik des Wählers Georg v. Petersdorff

Sehr geehrte Frau Kollenrott

Auf meine etwas zornige Einlassung antworten sie bemerkenswert freundlich. Dafür danke ich Ihnen. Ich gehe aber davon aus, dass Sie nicht der Meinung sind mich argumentativ überzeugt zu haben. Darum etwas deutlicher und ausführlicher meine Antwort.

Sie schreiben, es kann in der seriösen Wissenschaft nie eine hundert prozentische Sicherheit geben. Richtig, solange eine Hypothese durch Messungen nicht bestätigt ist, ist sie als falsch anzusehen. Und das trifft nun einmal für die Horrorszenarien für den Klimawandel zu. Alle, in den nun schon fast seit 30 Jahren auf Computermodellen basierenden, Prognosen waren falsch. Deshalb ist eine wesentliche Klimaerwärmung durch anthropogenes CO2 mehr als unwahrscheinlich.

Sie schreiben weiter, „Die im IPCC versammelten weltweit führenden Klimaforscher…..“ Sie erlauben, dass ich da ein Fragezeichen setze. Wenn Studenten und Doktoranden dafür Berichte schreiben dürfen und wirkliche renommierte Wissenschaftler ihre Mitarbeit aufkündigen, weil sie die Ergebnisse nicht mehr mit tragen können, habe ich ein Problem mit dieser Aussage. Außerdem ignoriert diese Aussage tausende von Wissenschaftlern, die andere Ursachen für den Klimawandel benennen, als das Spurengas CO2. Und wenn Sie auf die Anfänge von IPCC zurückblenden und sehen, dass der Auftrag der UNEP an das neu gegründete IPCC lautete, Argumente zu suchen die den durch anthropogenes CO2 verursachten Klimawandel bestätigen. Der Auftrag lautete nicht, danach zu suchen ob es sich so verhält, dann muss man sich nicht wundern, wenn alle Hinweise, die dieser Hypothese widersprechen aus den Sachstandberichten ausgeblendet werden. Wenn Sie weiter berücksichtigen, dass der Sachstandbericht für die Öffentlichkeit, auf den Sie sich berufen, das Produkt eines politischen Feilschens ist, bei dem gerade die Deutschen unrühmlich versucht haben der CO2 Hypothese widersprechende Fakten nicht in dem Bericht mit aufzunehmen, dann trägt das ebenfalls nicht zur Glaubwürdigkeit der CO2 Hypothese bei. Der Skandal ist, dass das Ganze politisch eingefädelt und/oder naiv geglaubt wird und das genügend Wissenschaftlicher bereit sind sich dafür kaufen zu lassen.

Sie schreiben weiter: „Auch wenn es nie hundertprozentige Sicherheit gibt, die Folgen des Klimawandels sind für die Menschen und Umwelt katastrophal. (Sagt das PIK) Das Risiko nicht zu handeln ist zu groß.“  Auch das sehe ich völlig anders. Die Wahrscheinlichkeit, dass anthropogenes CO2 ein Klimarisiko darstellt ist außerordentlich gering. Seit dem Ende der kleinen Eiszeit ist die Globale Temperatur, bei allem Vorbehalt für diese Formulierung, mit Schwankungen um weniger als 1° C angestiegen in den letzten 17 Jahren überhaupt nicht mehr. Dieser Wert ist erstens  sehr moderat und bewegt sich in der bekannten Schwankungsbreite der natürlichen Klimaänderung. Die Rechnermodelle der Klimawarner haben das so nicht vorausgesehen, ja mehr noch, es sind nicht wenige Fakten versuchter und durchgeführter Datenmanipulationen bekannt geworden, mit dem Ziel möglichst  hohe Temperaturanstiege zu beweisen. Es da verantwortlich zu nennen 1 Billion für eine  untaugliche Energiewende in den Sand zu setzen, kann ich nicht nachvollziehen. Was könnte damit für Anpassung an mögliche Klimaänderungen alles getan werden, oder besser Wie viel Hunger und Elend in der Welt damit gelindert werden. Hier nur noch der Hinweis, die Warmzeiten waren die guten Zeiten für die Menschen, nicht die Kaltzeiten. Kommt noch hinzu, dass die Energiewende das Ziel der CO2 Einsparung überhaupt nicht erreicht, wenn die Investitionen in Stahl, Beton, Silizium u. a. m. mit bilanziert und zusätzlich der CO2 Ausstoß der nicht ausgelasteten konventionellen Kraftwerke berücksichtigt wird. Dem Klima ist es egal, der Glaubwürdigkeit der politisch Handelnden kaum.

Weiter heißt es bei Ihnen, „Neben dem Klimawandel gibt es auch andere gute Gründe für eine ökologische Modernisierung der Energieversorgung.“ Sie begründen das mit zunehmenden Energiebedarf und der Endlichkeit fossiler Ressourcen. Der zunehmende Energiebedarf ist sicher ein Faktum und die Voraussetzung für mehr Wohlstand weltweit, dabei reden wir nicht nur von elektrischer Energie. Was die Endlichkeit der fossilen Rohstoffe betrifft, erleben wir z. Zt. gerade das Finden immer neuer Lagerstätten und die zunehmende Erkenntnis, dass der Ursprung von Gas vermutlich auch Öl nicht fossil ist sonder geologischen Prozessen zuzuordnen ist und von da her von der „Endlichkeit“  noch weit entfernt ist. In jedem Fall ist der Vorrat an brennbaren Rohstoffen  so groß, dass noch genügend Zeit ist dem Markt und damit der menschlichen Innovation es zu überlassen andere oder bessere Energiequellen zu erschließen. Ob man das für seltene Erden, die für Solaranlagen und Windkrafträder benötigt werden auch sagen kann ist fraglich.  Die Steinzeit ging auch nicht zu Ende weil es keine Steine mehr gab, sondern weil den Menschen was Besseres eingefallen ist.

Die durch die Politik verordnete Energiewende hin zur elektrischen Energiegewinnung aus Wind, Sonne und Biomasse, ökologisch und modern zu bezeichnen, ist für eine  Industrienation ein Witz. Es widerspricht den in Deutschland bis jetzt doch erfolgreichen Umwelt- Naturschutz- und Ökologiebestrebungen mit Windmühlen die Landschaft zu verschandeln, Vögel und Fledermäuse zu schreddern, mit Infraschall die Menschen zu belästigen, riesige Stahlbetonmengen in die Erde zu buddeln, Zuwege zu bauen, Wälder abzuholzen und das sogar in Naturschutzgebieten, Umweltschäden bei der Herstellung von Solarzellen in China in Kauf zu nehmen, Starkstromtrassen quer durch die Republik zu bauen, Solaranlagen auf fruchtbaren Ackerböden zu errichten, Monokulturen für Biogas zu fördern, den Austausch von Urwald in Ölpalmen zuzulassen, von nicht gelösten Speichertechniken ganz zu schweigen. Und eine Technik als modern zu bezeichnen, die nur dann elektrischen Strom liefert, wenn Wetter und Tageszeit es zulassen, die zur Aufrechterhaltung der Versorgung eine konventionelle Versorgung zusätzlich im Standby Modus erforderlich macht, nur weil man glaubt mit politischen Gesetzen physikalische Gesetze aushebeln zu können kann man nur als lächerlich bezeichnen. Minister Gabriel hat zu Recht behauptet,  „Andere halten uns für bekloppt“

Sehr geehrte Frau Kollenrott, gerade mit dem letzten Absatz appelliere ich an das grüne Gewissen.

Weder der Klimaschutz noch eine Ressourcenknappheit, liefert ein Alibi für diese verkorkste Energiewende. Ihre Hoffnung, dass in absehbarer Zeit Strom aus den s. g. Erneuerbaren günstiger sein wird als aus konventionellen Kraftwerken teile ich nicht. Das einsammeln von Energie mit geringer Dichte aus der Fläche ist bleibt sicher teurer als die Umwandlung konzentrierter Energieträger an zentralen Plätzen. Zur Kernenergie nur so viel: Eine Lagerung sollte aus heutiger Sicht rückholbar sein, denn Wissenschaft und Forschung sind auf dem besten Weg die Wiederverwertung des heutigen Abfalls rentabel zu machen. Ebenso halte ich eine Generelle Verweigerung gegenüber der kerntechnischen Energieerzeugung für falsch, sondern denke, dass Wissenschaft und Forschung auch hier zu inhärent sicherer Technik verhilft. Leider wird das vermutlich nicht in Deutschland geschehen.

Sie haben im Auftrag von Minister Wenzel geschrieben, daher bitte ich darum auch die Antwort vorzulegen.

Mit freundlichen Grüßen

Georg v. Petersdorff

Jetzt mit Antwort von Frau Kollenrott

From: Kollenrott, Marie

Sent: Monday, February 02, 2015 11:01 AM

To: ‚Georg von Petersdorff-Campen‘

Subject: AW: Klimawandel und Klimakonferenz

Sehr geehrter Herr von Petersdorf,

danke für ihre E-Mail.

Es ist richtig, wir werden uns argumentativ nicht einig werden.

Ich möchte Sie der Form halber darauf hinweisen, dass ich nicht im Namen des Ministers geantwortet habe, sondern in meinem Namen aus dem Landtagsbüro. So steht es auch unter meiner an Sie gerichteten Mail in der Signatur. Da sie diese veröffentlicht haben, möchte ich Sie bitten diesen Punkt richtig zu stellen. Wenn Sie eine Antwort des Ministers wünschen, wenden Sie sich bitte an die folgende Adresse:

Stefan.Wenzel@mu.niedersachsen.de

Mit besten Grüßen,

Marie Kollenrott

Persoenliche Mitarbeiterin

Marie.Kollenrott@lt.Niedersachsen.de




Netzentgelte: Auf Steigflug programmiert – Prognosefehler erhöhen die Kosten

Für solche Wettervorhersagen wird ein sehr großer wissenschaftlicher Aufwand getrieben. Im Bereich der Meteorologie gibt es zahlreiche Institute, in denen hochkarätige Wissenschaftler tätig sind. Diesen stehen Computersysteme der Spitzenklasse zur Verfügung, da enorme Datenmengen in kürzester Zeit verarbeitet werden müssen. Die entsprechenden Programme sind sehr aufwendig und werden ständig überarbeitet und verbessert. Dennoch gibt es immer wieder unerfreuliche Überraschungen, und Vorhersagen über Zeiträume von mehr als drei Tagen sind von eher begrenzter Brauchbarkeit. Selbst im 24-h-Bereich kommt es gar nicht so selten vor, dass die Wetterprognosen erheblich danebenliegen.

Bild rechts: Der Wind, das himmlische Kind – führt die Meteorologen immer mal wieder an der Nase herum

Von Bedeutung ist dies auch im Energiesektor, denn mit zunehmendem Anteil an Strom aus Wind- und Solaranlagen hat die Sicherheit, mit der ihre Produktion vorausberechnet werden kann, immer größere Bedeutung für die Planungen der Betreiber von Kraftwerken und Stromnetzen.

Bedeutung von Wetterprognosen für die Netzgebühren

Die Planbarkeit des Stromaufkommens aus „erneuerbaren“ Quellen ist deshalb von Bedeutung, da der Einsatz von Grund-, Mittel- und Spitzenlastkraftwerken im Voraus geplant werden muss. Großkraftwerke sind aufgrund ihrer Größe träge und können nicht abrupt ein- oder ausgeschaltet werden. Nur Pumpspeicherkraftwerke lassen sich innerhalb von 1-2 Minuten hochfahren, reine Gaskraftwerken benötigen dafür es schon etwa 15 Minuten. Bei Kohlekraftwerken kann dies je nachdem, ob sie schon mit vorgewärmtem Kessel im „Hot Standby“ bereitstehen oder gar aus der Kaltreserve hochgefahren werden müssen, einige Stunden bis einige Tage dauern. Vor diesem Hintergrund können sich Irrtümer der Wettervorhersage als sehr teuer erweisen.

Grundlage der Einsatzplanung der Netzbetreiber sind die Prognosen über den zu erwartenden Verlauf des Tagesbedarfs. Diesen Bedarf kann man heute mit zufriedenstellender Sicherheit prognostizieren und die Einsatzpläne der konventionellen Kraftwerke darauf abstimmen. Anders sieht es dagegen mit der schwankenden Erzeugung aus Windenergie- und Solaranlagen aus. Probleme bereiten vor allem kurzfristige Schwankungen im Bereich von 0–48 Stunden, weil in diesem Zeitbereich Abweichungen oft durch Regelenergie ausgeglichen werden müssen.

Diese Regelenergie muss separat beschafft werden und stellt daher einen zusätzlichen Kostenfaktor dar. Zudem kann es bei größeren Prognoseabweichungen zu Spannungsschwankungen kommen, durch die in Extremfällen sogar die Netzsicherheit in Gefahr geraten könnte [SOWI]. Laut der gleichen Quelle hat deshalb die Bundesnetzagentur die Verteilnetzbetreiber bereits im Januar 2011 aufgefordert, die Prognosemethoden ihrer Solarstromeinspeisung zu verbessern.

Prognosequalität bei Wind: Anspruch…

Schaut man sich das Prospektmaterial von Prognosefirmen an, die Vorhersagen für die Leistungsabgabe von Windparks feilbieten, so stehen dort Aussagen wie: „Für beliebige Standorte und Regionen in Deutschland, Europa und weltweit“ (liefern wir) „eine zuverlässige Windleistungsprognose der zu erwartenden Windleistung – und zwar bis zu 10 Tage im Voraus und mit einer zeitlichen Auflösung von bis zu 15 Minuten [WIPR]. Weiter heisst es dort: „Die Windleistungsvorhersage beruht auf der optimalen Kombination verschiedener Wettermodelle, der Einbindung der lokalen Gegebenheiten in der Umgebung der Windparks sowie der numerischen Wettervorhersage. Auf der Grundlage ausgewählter Windparks wird die gesamte Windstromeinspeisung einer Region ermittelt. Hierbei werden die repräsentativen Standorte so gewählt, dass sie die regionale Verteilung der Windenergieanlagen sehr genau widerspiegeln. Die Genauigkeit der Vorhersage variiert mit der Wettersituation“. Letzterer Satz lässt natürlich etwas aufhorchen. Doch kann man bei Wikipedia dazu beruhigende Aussagen wie folgende finden: „Die Genauigkeit der Vorhersage für ganz Deutschland beträgt für den Zeitraum einer Vorhersage ca. 95 Prozent (normierte Standardabweichung ca. 5 %). Ein hoher Wert ist wichtig, weil somit Regelenergie und damit Kosten eingespart werden können [WIKI]. Klingt im Prinzip ganz ordentlich. Doch wie sieht das in der Realität aus?

Bild 1. Prognose für das Aufkommen an Windstrom am 30. November 2014 im Vergleich zur tatsächlichen Produktion (Daten: EEX)

…und Wirklichkeit

Dazu werfen wir einen Blick auf die Prognosen für das Aufkommen an Wind- und Solareinspeisung am 30.11. 2014 sowie auf die entsprechenden Ist-Zahlen. Diese Werte waren bisher leicht überprüfbar, da sie von der Strombörse EEX bereitgestellt wurden und dort über Jahre hinweg im Archiv abgerufen werden konnten(1) [EEX]. Die für den entsprechenden Tag geltenden Prognosen wurden jeweils zum Tageswechsel bereitgestellt und spiegelten den jeweils aktuellsten Stand der heute verfügbaren Prognosefähigkeiten wider. Vor allem die Werte für den Vormittag sind daher Kurzzeitprognosen über 6 bzw. 12 Stunden, so dass die erzielte Genauigkeit Rückschlüsse auf die Voraussagequalität gerade auch in diesem Kurzzeitbereich zulässt. Für das Windstromaufkommen des 30.11.2014 zeigt Bild 1 den Tagesverlauf für die Prognose im Vergleich zur tatsächlichen Produktion. Die entsprechenden Absolut- und Prozentualwerte der Abweichungen zeigt Bild 2. Man erkennt, dass der Fehler bereits bis zur Mittagszeit bei bis zu 1.250 MW bzw. 17 % liegt. Das entspricht nahezu der Leistung von zwei Kohlekraftwerken. Nach einem kurzen Einbruch um die Mittagszeit herum ging es mit der Prognoseabweichung dann jedoch nochmal so richtig nach oben, mit einem Maximum von knapp 2.700 MW bzw. 28 % etwa gegen 15.00 Uhr. Anders ausgedrückt: Allein für die Fehlprognose beim Wind mussten demnach konventionelle Kraftwerke mit der Leistung von vier Kohlekraftwerken nahezu im Alarmstart hochgejagt werden.

 

Bild 2. Tagesverlauf der absoluten Abweichung in fehlenden MW eingespeister WEA-Leistung (rot, linke Vertikalachse) sowie die prozentuale Abweichung (rechte Vertikalachse) am 30. November 2014 (Daten: EEX)

Prognosefehler Solar

Noch beschämender für die Qualität der Wetterprognosen stellt sich die Situation dar, wenn man sich statt der Windprognose diejenige für Solarstrom ansieht, Bild 3.

Bild 3. Prognose für das Aufkommen an Solarstrom am 30. November 2014 im Vergleich zur tatsächlichen Produktion (Daten: EEX)

Während laut Prognose in der Mittagszeit eine Solarleistung von rund 5.600 MW zu erwarten war, speisten die Solarpaneele um die Mittagszeit leidglich 1.760 MW ein. Die Differenz von bis zu 3.800 MW bzw. 81 % ist sogar noch größer als bei der Windenergie und entspricht der Leistung von mehr als fünf weiteren Kohlekraftwerken, Bild 4. Zwar fiel das Maximum des Prognosefehlers zeitlich nicht mit dem der Windenergie zusammen, so dass im Endeffekt nicht noch mehr Kraftwerke zugeschaltet werden mussten, doch hätte es der Wettergott an diesem Tag ohne weiteres auch in der Hand gehabt, beide Defizite gleichzeitig auftreten zu lassen.

 

Bild 4. Tagesverlauf der absoluten Abweichung in fehlenden MW eingespeister Solarleistung (rot, linke Vertikalachse) sowie die prozentuale Abweichung (rechte Vertikalachse) am 30. November 2014 (Daten: EEX)

Düstere Zukunftsaussichten

Das, was über das deutsche Stromversorgungssystem am 30. November 2014 hereingebrochen ist, lässt für die Zukunft schlimmes befürchten. Mit dem weiter massiv voranschreitenden Ausbau der sogenannten „erneuerbaren“ Energien muss die Kapazität der Windenergie gegenüber dem Stand vom November 2014 nochmals um den Faktor 9,16 gesteigert werden. Statt der aktuell vorhandenen 35.400 MW wären dann insgesamt 324.100 MW am Netz. Mit diesem Faktor müsste auch der Prognosefehler multipliziert werden. Statt bei maximal 2.700 MW läge dann der Prognosefehler für den Windenergieertrag bei bis zu 24.700 MW, die kurzfristig zusätzlich ans Netz gebracht werden müssten. Das Vorhalten einer derartig massiven Reserve wäre weder technisch noch wirtschaftlich zu bewältigen.

Das hier vorgestellte Beispiel zeigt jedoch vor allem eines: Trotz hochmoderner Prognoseinstrumente für das Wettergeschehen und des damit verknüpften Leistungsangebots aus Wind- und Solarenergie werden die Prognosefehler unweigerlich weiter anwachsen.

Dies bedeutet wiederum eine entsprechende Zunahme des Einsatzes von Regelenergie, der vollumfänglich auf die Netzgebühren aufgeschlagen wird. Das EEG und seine Umsetzung bewirken daher Preiserhöhungen nicht nur im Bereich des EEG-Zuschlags sowie aufgrund der Netzausbaukosten, sondern zusätzliche Aufschläge für die Beschaffung der zur Stabilisierung der Netze erforderlichen Regelenergie. Zusätzlich zum EEG-Zuschlag sind deshalb auch die Netzentgelte massiv auf Steigflug vorprogrammiert.

Bild 5. Bei Annahme gleicher Wetterverhältnisse wie am 30.11.2014 würde der Prognosefehler am 30.11.2050 bei bis zu 24.700 MW liegen.

Folgerungen für die Glaubwürdigkeit von Klimaprognosen

Die hier dargelegten Prognoseabweichungen legen zudem geradezu zwingend eine weitere wesentliche Schlussfolgerung nahe: Sie rechtfertigen erhebliche Zweifel an der Gültigkeit der uns seitens der sogenannten Klimaforschung präsentierten Langzeitprognosen über die Klimaentwicklung kommender Jahrzehnte. Laut Wikipedia basieren Klimamodelle auf Meteorologiemodellen, wie sie auch zur numerischen Wettervorhersage verwendet werden. Diese Modelle werden jedoch „für die Klimamodellierung erweitert, um alle Erhaltungsgrößen korrekt abzubilden. In der Regel wird dabei ein Ozeanmodell, ein Schnee- und Eismodell für die Kryosphäre und ein Vegetationsmodell für die Biosphäre angekoppelt“ [WIKL]. Wenn allerdings bereits die Zuverlässigkeit von Meteorologiemodellen über Zeiträume von weniger als 24 Stunden so gering ist, dass derartig massive Abweichungen auftreten wie am hier vorgestellten Beispiel nachgewiesen, dann fragt man sich, was nach zusätzlicher Befrachtung durch weitere mit Unsicherheiten belastete Modelle noch an Glaubwürdigkeit vorhanden sein dürfte. Und man fragt sich vor allem, woher Herrschaften wie Edenhofer, Schellnhuber oder Rahmstorf die geradezu missionarische Überzeugung nehmen, mit der sie ständig ihren Klimaalarmismus in die Welt trompeten.

Fred F. Mueller

Anmerkung der Redaktion:

Doch hier und hier versucht der vielmals gescheiterte IPCC Klimamodellierer und Chef des Hamburger Max-Planck-Insitutes für Meterologie Prof. Jochem Marotzke die verlorengegangene Glaubwürdigkeit seiner Klimamodelle mit immer neuen Entschuldigungen zu retten. Sein Schlusssatz im Welt-Artikel lautet:"Langfristig können wir uns auf die Klimamodelle verlassen", sagt Marotzke. "Und diese sagen, dass die Erwärmung auf uns zukommt.“. Solchen Leuten, die mit ähnlichen Prognosen aus der Wirtschaftswissenschaft an das Geld anderer Menschen kommen wollte, pflegte der Ökonom John Maynard Keynes zuzurufen: "Langfristig sind wir alle tot." Diese Prognose hat gegenüber allen anderen den Vorteil zu stimmen.

Wir werden über diese letzten Verteidigungsversuche des J. Marotzke in Kürze berichten

(1)    Wie verlogen und auf Täuschung der Öffentlichkeit unsere Energiepolitik inzwischen ist, kann man aus der Tatsache erkennen, dass EEX diese Daten – einschliesslich des Archivs – seit kurzem  nicht mehr der Öffentlichkeit zugänglich macht, sondern sie hinter einer Bezahlschranke verbirgt und ausserdem potenzielle Nutzer durch Knebelverträge binden will. Die sogenannte „Transparenz“, mit der man immer noch großspurig hausieren geht, ist nur noch bewusste und verlogene Intransparenz gegenüber dem Bürger. Es wäre sinnvoll, wenn sich mal die eine oder andere Bürgerinitiative mit den rechtlichen Möglichkeiten beschäftigen würde, ob und wie man hier echte Transparenz erzwingen könnte.

Quellen

[EEX] http://www.transparency.eex.com/de/

[EIKE] http://www.eike-klima-energie.eu/climategate-anzeige/energiewende-land-unter-im-stromsee-nur-hohe-nutzungsgrade-machen-sinn/

[SOWI] http://de.wikipedia.org/wiki/Solarstromprognose

[WIPR] http://www.energymeteo.de/leistungen/previento.php?gclid=CIHnpMzxsMICFWXHtAodDi0AXQ

[WIKI] http://de.wikipedia.org/wiki/Windleistungsvorhersage

[WIKL] http://de.wikipedia.org/wiki/Klimamodell




Die Windkraft-Planung von Ottweiler/Saar als Lehrbuchbeispiel – Was eine Gemeinde alles falsch machen kann.

So fehlt auch in der alt­ehr­wür­di­gen Re­si­denz- und Kreisstadt Ott­wei­ler seit ei­ni­ger Zeit die frü­her ob­li­ga­to­ri­sche Stel­le des Ver­wal­tungs­ju­ris­ten. An­de­rer­seits er­hofft sich das ober­fläch­li­che po­li­ti­sche Per­so­nal, das vie­le Ver­wal­tun­gen be­setzt, ei­nen Geld­se­gen aus Groß­win­dan­la­gen – zu Un­recht, wie wir in­zwi­schen wis­sen. Geld ver­dient wird heu­te mit Groß­win­dan­la­gen (je­den­falls an Stand­or­ten im Bin­nen­land) noch in Pro­jek­tie­rung und Ver­trieb, nicht im Be­trieb. Die Wind­ra­dauf­stel­ler be­mü­hen sich ja über­all auf­fäl­lig stark da­rum, Dum­me – d.h. Bür­ger und Kom­mu­nen – zu fin­den, die den un­dank­ba­ren Part des Be­trei­bers über­neh­men (da­bei ha­ben zu­wei­len fal­sche Dar­stel­lun­gen in Pro­spek­ten ge­hol­fen, die je­doch zur Haf­tung die­ser Ge­schäf­te­ma­cher füh­ren).

Bür­ger­meis­ter wa­ren in der Ver­gan­gen­heit oft schnell zu be­geis­tern und ha­ben die Sub­ven­ti­ons­ge­winn­ler ge­ra­de­zu un­ter­wür­fig emp­fan­gen. In Ott­wei­ler ha­ben sich bei­de auf­ei­nan­der­fol­gen­den Bür­ger­meis­ter – Röd­le und Schä­fer – aus­ge­rech­net mit den Ver­tre­tern der nach straf­ge­richt­li­chen Feststel­lun­gen in Kor­rup­ti­on ver­strick­ten Fir­ma JUWI zu­sam­men bei de­ren Prä­sen­ta­ti­o­nen auf das Po­di­um ge­setzt. Ob­wohl Schä­fer im Wahl­kampf mehr De­mo­kra­tie ver­spro­chen hat­te, ist er zur in­dust­ri­eun­ab­hän­gi­gen In­for­ma­ti­ons­veran­stal­tung der Bür­ger des am schlimms­ten be­trof­fe­nen Stadt­teils, der von zehn 200m ho­hen Wind­kraft­rä­dern ein­ge­kes­selt wer­den soll, nicht er­schie­nen. 

Schon im Vor­feld der Än­de­rung von Flä­chen­nut­zungs­plä­nen wur­den und wer­den da­bei von den Kom­mu­nen häu­fig – ja re­gel­mä­ßig – kon­kre­te Ver­trä­ge mit ein­zel­nen Ge­schäf­te­ma­chern ab­ge­schlos­sen, so auch von der Stadt Ott­wei­ler mit ABO-Wind und JUWI. Das hat zur Fol­ge, dass der spä­te­re Ab­wä­gungs­vor­gang im Stadt­rat un­ter ei­ner ver­bo­te­nen ein­sei­ti­gen Vor­fest­le­gung lei­det, da der Stadt­rat nicht mehr un­vor­ein­ge­nom­men ent­schei­den konn­te – was man auch aus den von der Pla­nungs­fir­ma über­nom­me­nen "Ab­wä­gungs­vor­schlä­gen" be­reits er­se­hen kann (wir kom­men so­gleich da­rauf zu­rück).

Dies macht die ge­sam­te Pla­nung nich­tig durch den Ab­wä­gungs­feh­ler der sog. "sub­jek­ti­ven Ab­wä­gungs­sper­re". Es wird also von der Kom­mu­ne ein Ver­spre­chen an das pri­va­te Wind­kraf­tun­ter­neh­men ge­ge­ben, das von vorn­he­rein au­to­ma­tisch ge­ra­de durch die­se Bin­dung rechts­wid­rig ist. Ob man dies als eine Form der Kor­rup­ti­on ein­stuft, mag nur nach den kon­kre­ten Um­stän­den des Ein­zel­falls be­ur­teilt wer­den kön­nen. Je­den­falls sind die­se Ver­trä­ge – in un­se­rem Fall mit ABO-Wind und JUWI – nich­tig auf­grund des Versto­ßes ge­gen ge­setz­li­che Ver­bo­te.

Auch im Be­reich der Pla­nung selbst kön­nen, wie man ge­ra­de an un­se­rem Lehr­buch­fall zei­gen kann, zahl­rei­che Feh­ler un­ter­lau­fen. Zu­nächst ein­mal ist die pla­nen­de Ge­mein­de ver­pflich­tet, das ab­wä­gungs­re­le­van­te Tat­sa­chen­ma­te­ri­al um­fas­send zu er­mit­teln, wo­bei die Gren­ze der Re­le­vanz weit zu zie­hen ist. Nur so kann sich die pla­nen­de Kör­per­schaft über­haupt in die Lage ver­set­zen, die in die pla­ne­ri­sche Ab­wä­gung ein­zu­stel­len­den Be­lan­ge, die schließ­lich bei der ei­gent­li­chen Plan­ab­wä­gung im Stadt­rat zu ei­nem "ge­rech­ten Aus­gleich" zu brin­gen sind, zu iden­ti­fi­zie­ren und zu be­wer­ten. Dies be­in­hal­tet vor al­lem auch die gut­ach­ter­li­che Er­fas­sung der Flo­ra und Fau­na der in Be­tracht kom­men­den Flä­chen. Ins­be­son­de­re ist da­bei ent­spre­chen­den, im Rah­men ei­ner Of­fen­la­ge ge­äu­ßer­ten Hin­wei­sen nach­zu­ge­hen.

Nach­dem um­fang­rei­che und substan­ti­ier­te Be­den­ken, ins­be­son­de­re auch hin­sicht­lich der Tier­welt in dem be­trof­fe­nen Ge­biet von Sei­ten der Bür­ger von Ott­wei­ler, vom NABU und vom Land­es­amt für Um­welt ge­äu­ßert wur­den, sind die ge­äu­ßer­ten Be­den­ken von der be­auf­trag­ten Pla­nungs­fir­ma al­le­samt äu­ßerst la­pi­dar zu­rück­ge­wie­sen wor­den. Trotz des Ver­spre­chens von mehr Bür­ger­de­mo­kra­tie durch Bür­ger­meis­ter Schä­fer im Wahl­kampf wur­den na­ment­lich die Bür­ger von der ge­dun­ge­nen Pla­nungs­fir­ma im Auf­trag der Stadt in ei­nem Satz ab­ge­kan­zelt. Das ist be­son­ders auf­schluss­reich im Zu­sam­men­hang mit der be­reits an­ge­spro­che­nen Tat­sa­che, dass im Ver­fah­ren der Öf­fent­lich­keits­be­tei­li­gung kei­ner­lei Än­de­run­gen zu Las­ten der Ver­trags­part­ner der Stadt – Juwi und ABO-Wind – vor­ge­nom­men wur­den.

Viel­mehr heißt es ge­gen­über al­len Ein­wen­dun­gen der Öf­fent­lich­keit, in de­nen um­fäng­li­che Be­lan­ge mit Be­obach­tun­gen und Be­grün­dun­gen vor­ge­tra­gen wer­den, als "Be­schluss­vor­schlag" in der An­la­ge vom 5. Ok­to­ber 2013 uni­so­no: "Die Hin­wei­se und Be­den­ken wer­den zur Kennt­nis ge­nom­men und aus den in obi­ger Er­wi­de­rung ge­nann­ten Grün­den zu­rück­ge­wie­sen. Die Stadt Ott­wei­ler hält an der Pla­nung in der vor­lie­gen­den Form fest." (Bür­ger und Grup­pen von Bür­gern: S. 322, 332, 337). Zu ei­ner eben­falls wohl­be­grün­de­ten Stel­lung­nah­me des NABU Saar­land (S. 374) heißt es eben­so la­pi­dar: "Die Hin­wei­se und Be­den­ken wer­den zur Kennt­nis ge­nom­men und auf­grund der obi­gen Er­wi­de­run­gen zu­rück­ge­wie­sen. Die Stadt Ott­wei­ler hält an der Pla­nung in der vor­lie­gen­den Form fest."

Wei­ter heißt es: "Kon­kre­te Aus­wir­kun­gen aus na­tur­schutz­fach­li­cher Sicht sind je­doch erst bei Kennt­nis der An­zahl und des ge­nau­en Stand­or­tes der ein­zel­nen Wind­ener­gie­an­la­gen zu er­mit­teln und zu be­wer­ten. Aus die­sem Grund kann erst auf der Ebe­ne der Ge­neh­mi­gungs­pla­nung eine kon­kre­te Prü­fung die­ser Sach­ver­hal­te er­fol­gen. Dies ge­schieht auf­grund von Fach­gut­ach­ten im Rah­men des BNatSchG, al­ler­dings erst auf Ebe­ne der Ge­neh­mi­gungs­pla­nung. Auf Flä­chen­nut­zungs­pla­ne­be­ne sind kei­ne sol­chen Gut­ach­ten not­wen­dig". Dies ist schlicht­weg falsch. Be­reits auf Ebe­ne der Pla­nung ha­ben – ganz aus­drück­lich auf­grund der Recht­spre­chung des Bun­des­ver­wal­tungs­ge­richts und des Saar­län­di­schen Ober­ver­wal­tungs­ge­richts um­fas­sen­de Be­stands­er­mitt­lun­gen- und -be­wer­tun­gen statt­zu­fin­den. Ge­ra­de weil un­zwei­fel­haft u.a. der be­son­ders wind­kraft­ge­fähr­de­te Rot­mi­lan im be­trof­fe­nen Ge­biet stark ver­tre­ten ist und so­wohl das Land­es­amt für Um­welt als auch die Bür­ger hier­auf hin­ge­wie­sen hat­ten, wä­ren vor der Ver­ab­schie­dung des Flä­chen­nut­zungs­plans um­fas­sen­de avifau­nis­ti­sche Un­ter­su­chun­gen durch­zu­füh­ren ge­we­sen. Ott­wei­ler be­gnügt sich mit der Aus­sa­ge: "Be­ein­träch­ti­gun­gen wind­kraftre­le­van­ter Vo­gel- und Fle­der­maus­ar­ten sind zu er­war­ten, kön­nen je­doch hier an­ge­sichts man­geln­der Kennt­nis von Art und Um­fang mög­li­cher Vor­ha­ben kei­ne nä­he­ren An­ga­ben ge­macht wer­den."

Die Not­wen­dig­keit der Er­mitt­lung al­ler re­le­van­ten Be­lan­ge vor der pla­nen­den Ab­wä­gung des Stadt­rats ist leicht zu ver­ste­hen, wenn man sich vor Au­gen hält, dass in schwer­wie­gen­der Wei­se in Kon­flikt ste­hen­de Be­lan­ge wie Ar­ten­schutz und Ge­sund­heit und Ei­gen­tum der be­trof­fe­nen Men­schen mit dem Vor­teil der Wind­kraft an die­ser Stel­le in ge­rech­ten Aus­gleich zu brin­gen sind – et­was Ge­rin­ge­res ver­fehl­te die Pflicht des Stadt­rats zur pla­ne­ri­schen Kon­flikt­be­wäl­ti­gung. Hier­zu gibt es ge­ra­de aus dem Be­reich der Flä­chen­nut­zungs­pla­nung für Wind­kraft ein ak­tu­el­les Ur­teil des OVG Saar, das an Ein­deu­tig­keit nicht zu über­tref­fen ist. Ott­wei­ler hat wie ge­zeigt das ge­naue Ge­gen­teil zu die­ser Rechts­an­for­de­rung ge­tan – das mag verständ­lich sein, wenn man be­denkt, dass die ein­ge­setz­te Pla­nungs­fir­ma über­wie­gend für die EEG-Bran­che tä­tig ist und die Stadt selbst sich kei­nen Ju­ris­ten mehr leis­tet. Völ­lig un­verständ­lich ist aber, dass das In­nen­mi­nis­te­ri­um des Saar­lan­des als Kom­mu­nal­auf­sichts­be­hör­de die­sen in so viel­fäl­ti­ger und of­fen­kun­di­ger Wei­se rechts­wid­ri­gen und nich­ti­gen Flä­chen­nut­zungs­plan auch noch ge­neh­migt! Dort müss­te man nun wirk­lich über die Kom­pe­tenz ver­fü­gen, ein be­kann­tes Ur­teil des OVG Saar zu ge­nau der­sel­ben Si­tu­a­ti­on an­zu­wen­den! Oder soll­te die Wind­kraft­pla­nung in­zwi­schen tat­säch­lich zu ei­nem rechts(staats)frei­en Raum ge­wor­den sein?

Schon vor die­ser Ge­neh­mi­gung, ja vor der Ver­ab­schie­dung der Tei­län­de­rung des Flä­chen­nut­zungs­plans wur­den in Ott­wei­ler üb­ri­gens gro­ße wert­vol­le Wald­be­stän­de in ei­ner Nacht- und Ne­bel­ak­ti­on dem Erd­bo­den gleich­ge­macht (das sog. "Jun­gen­wald-Mass­aker"). Für die­se Flä­chen gab es il­le­ga­le (s.o.) Vor­fest­le­gun­gen der Stadt mit der Fir­ma ABO-Wind. Ei­nes die­ser kahl ge­ro­de­ten Ge­bie­te um­fasst schon al­lei­ne eine Flä­che von 4 Hek­tar (ca. 100 x 400 m)! Da­bei geht die Stadt in ih­rem spä­ter erst ver­ab­schie­de­ten Flä­chen­nut­zungs­plan von ei­nem Ro­dungs­be­darf von nur 0,4 Hek­tar pro Wind­rad – also ei­nem Zehn­tel der tat­säch­lich zer­stör­ten Wald­flä­che – aus! In­zwi­schen hat sich im wei­te­ren Ver­lauf des Ge­neh­mi­gungs­ver­fah­rens he­raus­ge­stellt, dass je­den­falls eine der drei Ro­dun­gen im Jun­gen­wald we­gen ei­ner Richt­funk­stre­cke gar nicht ge­nutzt wer­den darf für ein Wind­rad.

Und Ro­dung heißt hier nicht nur ein Ent­fer­nen der Bäu­me, son­dern auch die völ­li­ge Ver­nich­tung der Bo­den­flo­ra – ge­nau das, was die saar­län­di­schen Forst­be­hör­den pri­va­ten Wald­be­sit­zern auf das Strengs­te ver­bie­ten. Das Holz wur­de schnell zer­sägt und vor Ort ab­ver­kauft, die Feststel­lung von Baum­höh­len und Ge­le­gen so­mit un­mög­lich ge­macht. In dem "Rind­en­mulch", mit dem der Bo­den seit­dem ge­schlos­sen be­deckt ist, konn­ten na­tur­ge­mäß nur ganz ver­ein­zel­te Res­te von Ge­le­gen ge­fun­den wer­den. Um­sied­lungs­maß­nah­men etwa für Amei­sen er­folg­ten nicht. Als ei­ner der Na­tur­schutz­be­auf­trag­ten der Stadt auf ei­ner Sit­zung das Mass­aker an der Na­tur des Jun­gen­wal­des auf­brach­te, wur­de ihm von Bür­ger­meis­ter Hol­ger Schä­fer das Wort ent­zo­gen.

Auch das The­ma "Inf­ra­schall" wur­de von der Stadt Ott­wei­ler nicht wei­ter be­ach­tet, trotz der dro­hen­den, noch gar nicht ab­zu­schät­zen­den ge­sund­heit­li­chen Aus­wir­kun­gen für ihre Bür­ger. Auch hier zeigt sich die Stadt Ott­wei­ler zu Las­ten der ei­ge­nen Bür­ger groß­zü­gig bei der Aus­wei­sung von Kon­zen­tra­ti­ons­flä­chen: "Durch die Ein­ar­bei­tung über­höh­ter Schutz­ab­stän­de und da­mit Rest­rik­ti­ons­flä­chen wür­de die Stadt Ott­wei­ler eine ef­fi­zi­en­te Ent­wick­lung und Nutz­bar­ma­chung der Wind­ener­gie im Stadt­ge­biet ent­ge­gen­wir­ken und da­mit ih­rer Pflicht, ,der Wind­ener­gie substan­ti­ell Raum zu schaf­fen‘ nicht nach­kom­men." Hier wird klar, dass die Stadt Ott­wei­ler ihre ver­meint­li­che "Pflicht" (wo kein ge­eig­ne­ter Raum ist, sind kei­ne Wind­kraft­vor­rang­flä­chen aus­zu­wei­sen!) falsch ver­stan­den hat und bei ei­nem He­ran­rü­cken an die Wohn­be­völ­ke­rung mit z.T. nur ca. 500 m Ab­stand be­dingt vor­sätz­lich die Ge­sund­heit der Be­völ­ke­rung ent­ge­gen des staat­li­chen Schutz­auf­tra­ges aus Art. 2 Abs. 2 GG auf’s Spiel setzt. 

Die all­zu ober­fläch­li­che Sach­ver­halts­er­mitt­lung wird noch da­durch ab­ge­run­det, dass die sich an­schlie­ßen­de Ab­wä­gung des ge­sam­mel­ten Ma­te­ri­als in Wahr­heit nicht vom Stadt­rat selbst – wie dies vom Ge­setz vor­ge­se­hen ist – son­dern von der be­auf­trag­ten Pla­nungs­fir­ma Ar­gu­sCon­zept im Rah­men ei­nes sog. "Be­schluss­vor­schla­ges" durch­ge­führt wur­de und vom Stadt­rat nur noch uno actu un­ver­än­dert ab­ge­seg­net wur­de. Im Pro­to­koll der Sit­zung des Stadt­rats am 15. Ok­to­ber 2013 (SR/007/2013, S. 15 ff, hier S. 17) heißt es: "…be­schließt der Stadt­rat wie folgt: 1) die Ab­wä­gung der im Rah­men der Of­fen­la­ge und Be­tei­li­gung der Trä­ger öf­fent­li­cher Be­lan­ge der Tei­län­de­rung des Flä­chen­nut­zungs­plans ,Wind­kraft‘ der Stadt Ott­wei­ler ein­ge­gan­ge­nen Stel­lung­nah­men ge­mäß der bei­lie­gen­den Be­schluss­vor­la­ge zur Ab­wä­gung und die Über­nah­me des Ab­wä­gungs­er­geb­nis­ses in die Pla­nung wird … be­schlos­sen." Hier­in liegt of­fen­kun­dig nicht die Er­fül­lung des zwin­gend der kom­mu­na­len Ver­tre­tungs­kör­per­schaft zu­ge­wie­se­nen Auf­trags zur pla­ne­ri­schen Kon­flikt­be­wäl­ti­gung.

Lei­der zie­hen sich die­se oder ähn­li­che Feh­ler durch die Wind­kraft­pla­nun­gen in Kom­mu­nen des ge­sam­ten Bun­des­ge­biets. Im­mer­hin hat es die Stadt Ott­wei­ler mit der ein­deu­ti­gen Nach­weis­bar­keit und Klar­heit ih­rer Feh­ler in der Flä­chen­nut­zungs­pla­nung ge­schafft, ein re­gel­rech­tes Kom­pen­di­um für Pla­nungs­feh­ler zu pro­du­zie­ren. Das Ur­teil in die­sem Norm­en­kon­troll­ver­fah­ren sei schon jetzt künf­ti­gen Ge­ne­ra­ti­o­nen von Ju­ra­stu­den­ten als Lehr­stück des Bau­pla­nungs­rechts emp­foh­len.

 

Prof. Dr. Mi­cha­el Eli­cker ist Staats­rechts­leh­rer

an der Uni­ver­si­tät des Saar­lan­des und Rechts­an­walt in Lu­xem­burg

 

And­re­as Lan­gen­bahn ist Rechts­an­walt und Dok­to­rand bei Pro­fes­sor Eli­cker

zum The­ma "Of­fe­ne Rechts­schutz­fra­gen bei Pla­nung

und Ge­neh­mi­gung von Wind­ener­gie­an­la­gen"

 

Übernommen vom Deutschen Arbeitgeber Verband hier




Der Blizzard, der keiner war

[*Siehe hierzu die erklärenden Anmerkungen am Ende des Artikels.]

Wenn man der lokalen Radiostation (WABC) zuhört, bei der Anrufer aus dieser Gegend weitaus genauere Berichte über die Lage schildern als die Meteorologen, war das eine Lektion in der Weise, wie jene in Meteorologie Geübten und der Rest von uns darauf getrimmt worden sind, dass etwas mit dem Planeten Erde passiert, dass ganz einfach eben nicht passiert.

Die Meteorologen haben ihre Zeit damit zugebracht, den Unterschied zwischen einem europäischen Computermodell [leider wird nicht gesagt welchem] und einem hier in den USA gerechneten Modell herauszufinden. Ersteres hat viel schlimmere Bedingungen vorhergesagt. Letzteres fiel zusammen mit dem Rest von uns der Prämisse zum Opfer, dass die von den Computermodellen reflektierten Dinge nicht das zeigen, was in Wirklichkeit passiert.

Zu dieser frühen Morgenstunde ist schon klar, dass Long Island, Teile von Connecticut und allgemein die Küsten stärkeren Schneefall verzeichnen. Schon wenige Meilen landeinwärts jedoch sieht es ganz anders aus. Anrufer, die mitten im Sturm draußen waren, beschrieben leichten Pulverschnee und vielleicht zwei bis vier Inches höchstens [ca. 5 bis 10 cm].

Warum, fragten sie, haben die Gouverneure von New York [State] und New Jersey zusammen mit dem Bürgermeister von New York City die Metropolregion geschlossen? Sie spekulierten auf die Millionen verlorenen Einkommens für jeden, der von einem Sturm involviert war, der keine signifikante Gefahr für den Verkehr darstellte oder andere gravierende Probleme mit sich bringen würde, bei dem aber Unternehmen, Schulen, Buslinien und andere öffentliche Einrichtungen geschlossen wurden. Wenn schon eine unrichtige Wetterprognose das alles tut, zeigt dies, wie wichtig es ist, die Daten korrekt zu interpretieren, die von Satelliten angeboten werden – der besten Quelle.

Wenn die NOAA und die NASA Anfang Januar verlauten ließen, dass 2014 „das wärmste Jahr“ gewesen sei, sollte es hinsichtlich der schieren Absurdität eines solchen Berichtes viel mehr Fragen und Aufmerksamkeit in den Medien gegeben haben. Zur Erinnerung, es handelt sich hier um zwei öffentliche Agenturen der Regierung, von denen wir erwarten, dass sie es richtig sagen. Nicht nur, dass das eben nicht der Fall war, sondern auch, dass skeptische Wissenschaftler sehr schnell nachweisen konnten, dass die dieser Behauptung zugrunde liegenden Daten absichtlich verzerrt worden sind.

Das ist der Kern der Sache um die endlosen Behauptungen bzgl. „globale Erwärmung“ oder „Klimawandel“. Der Planet hat sich seit 19 Jahren nicht erwärmt, weil sich die Sonne in einem perfekt natürlichen Zyklus mit geringer Strahlung befunden hat.

Schon vor Jahrhunderten hatte man bemerkt, dass bei einer geringen Anzahl von Sonnenflecken oder magnetischer Stürme es auf der Erde kälter wurde. Folglich ist „Klimawandel“ kein ungewöhnliches Ereignis, sondern vielmehr eine Reflektion der gut bekannten Zyklen von Wärme oder Kälte, den der Planet seit Milliarden von Jahren durchlaufen hat.

Während ich dies schreibe, ist es noch zu früh zu sagen, wie es an der übrigen Ostküste aussieht, aber es gibt starke Hinweise, dass wenn man sich westwärts bewegt der „Blizzard“ weit schwächer war als der Vorhergesagte und vermutlich bald zu einem Standard-Wintersturm herabgestuft wird.

Das sind die guten Nachrichten. Die schlechten Nachrichten waren die Überreaktion der Meteorologen und Politiker. Zweifellos wollten sie auf der sicheren Seite sein [better safe than sorry], aber sie haben uns allen unvermeidlich eine Lektion erteilt über die Art und Weise, mit der uns Umweltorganisationen und eine von einem Präsidenten geführte Regierung sagen, dass der „Klimawandel“ die gefährlichste Herausforderung ist. Dabei haben sie uns absichtlich hinsichtlich der wirklichen meteorologischen Erkenntnisse belogen, um uns alle in eine Zeit zurück zu zwingen, in der wir Holz zum Heizen verbrannten und Pferde für Transporte benutzten.

Die Grünen mögen die Menschen nicht besonders, und darum haben sie hinsichtlich der „vom Menschen verursachten“ Klimaänderung gelogen, wenn doch das Klima mit menschlichen Aktivitäten gar nichts zu tun hat.

Man höre den Skeptikern zu, oftmals bösartig als „Leugner“ verunglimpft, wenn diese die Wahrheit sagen über die meteorologische Wissenschaft, die absichtlich verzerrt worden ist, seit die UN im Jahre 1988 das IPCC ins Leben gerufen haben. Dieses hat uns seitdem ständig belogen.

Abhängig davon, wo Sie in dem Gebiet leben, in dem es geschneit hat und der Wind blies, trauen Sie Ihren Augen. Trauen Sie Ihrem gesunden Menschenverstand. Seien Sie skeptischer, weil der Blizzard, der keiner war, keine Lektion ist, die sie demnächst vergessen werden.

© Alan Caruba, 2015

Link: http://www.nationalanxietycenter.blogspot.de/2015/01/the-blizzard-that-wasnt.html

Übersetzt von Chris Frey EIKE

Erklärende Anmerkung des Übersetzers mit vielen Jahren USA-Erfahrung (in den Neuengland-Staaten):

Offiziell definiert der nationale Wetterdienst einen Blizzard als einen Sturm mit sehr starkem Schneefall ODER verwehendem Schnee, wobei der Wind großräumig stärker wehen muss als knapp 60 km/h und Sichtweiten unter 400 m über einen längeren Zeitraum (mindestens 3 Stunden) auftreten. Werden diese Bedingungen erwartet, wird eine „Blizzard-Warnung“ ausgegeben. Werden diese Bedingungen nicht gleichzeitig erwartet oder nur eine oder zwei davon, wird eine „Wintersturm-Warnung“ ausgegeben.

Eine ausführliche Erklärung und Beschreibung dazu gibt es hier.




Und ewig strahlen die Wälder?

Zweifellos, vor allem die bayrischen. Zunächst enthält jeder Mineralboden radioaktives Kalium, Uran, Thorium, Radium und noch einige andere Isotope mit einer gesamten Aktivität um 800 Becquerel pro kg. Im Humus ist es weniger.

1986 geschah das Reaktorunglück von Tschernobyl, und seither ist in manchen Gegenden Bayerns die Radioaktivität der obersten 10 cm von Waldböden um die Hälfte höher (40.000 Bq/m2), allerdings nicht für ewig. Schuld ist Caesium 137 mit 30 Jahren Halbwertszeit. Im Gegensatz zu Feldern und Wiesen hält sich das Caesium im Waldboden hartnäckig in den obersten 10 cm. 

Pflanzen nehmen das Caesium begierig auf, mehr als die natürlichen Radioisotope. Von Natur aus ist die Aktivität in Pflanzen geringer als im Boden, ebenso in den Pflanzen fressenden Tieren, um 100 Bq/kg. Anders bei der Aufnahme von Caesium 137. Noch 2004 konnte man bei Brombeeren bis 500 Bq/kg messen.

Eine ganz unerklärliche Vorliebe für Caesium hat der Hirschtrüffel. Da wurden über 10.000 Bq/kg gemessen. Uns schmecken diese Trüffel nicht, den Schweinen aber sehr, und vor allem dadurch werden sie selber radioaktiv.

Erlegte Schweine werden ausgemessen und kommen bei mehr als 600 Bq/kg zur Tierkörperbeseitigung. In der Zeitschrift „Bild der Wissenschaft (2, 2015)“ wird berichtet, wie man die Schweine durch Fütterung mit der Chemikalie „Preußisch Blau“ von ihrem hohen Strahlenniveau herunterholen will. Es bindet Caesium.

Die Grünen wird zunächst das Gegenmittel Preußisch Blau beunruhigen. Chemie auf dem Acker ist für sie schon schlimm, und nun noch im Wald, und was für Chemie! Der wesentliche Bestandteil des Salzes ist der Komplex (CN)6. Die Gruppe CN in den Verbindungen HCN (Blausäure) und KCN (Zyankali) ermöglicht die Ermordung unerwünschter Mitmenschen. Zwar sagen die Chemiker, die 6 CN-Gruppen würden so fest zusammenhalten, dass sie sich im Magen nicht auflösen, aber völlig untrennbar sind sie nicht. In einem Industriebetrieb mag das für die Grünen noch angehen. Die Methode wurde schon 1960 in einem amerikanischen Patent beschrieben, aber da ging es um die Extraktion von radioaktivem Caesium aus Lösungen.

Bei realistischer Betrachtung stellt das Salz jedoch nicht einmal für die Schweine eine Gefahr dar.

Aber leiden sie unter der Radioaktivität? Fallen ihnen die Borsten aus, und werden Frischlinge mit 5 Beinen geboren? Natürlich nicht. Das geschieht nicht einmal auf dem Reaktorgelände von Tschernobyl. Die Schweine werden hauptsächlich dadurch radioaktiv, dass sie radioaktive Pilze fressen. Die sind aber auch für Menschen nicht gefährlich, worauf im Anhang zum Artikel hingewiesen wird: Eine Pilzmahlzeit bringt keine höhere Strahlenexposition als ein Flug nach Gran Canaria.

Jedoch gibt es die Ansicht, jede Strahlenexposition wäre gefährlich, und wir leiden bereits unter der natürlichen Strahlung von 2 Millisievert (mSv) pro Jahr. Daher darf am besten nichts dazukommen. So hat die Planung für ein Endlager hochradioaktiver Abfälle das Ziel, niemanden unserer fernsten Nachkommen, oder wer sonst dann in Deutschland lebt, auch unter unwahrscheinlichen Umständen keiner höheren jährlichen Dosis als 0,1 Millisievert auszusetzen. Das ist ein Zwanzigstel der natürlichen Jahresdosis im Flachland. Aber auch die 0,1 Millisievert bringen nach Ansicht unseres Bundesamtes für Strahlenschutz (BfS) noch Menschen um:

„Angenommen, eine Million Menschen wären permanent einer Strahlendosis von 0,1 mSv/a ausgesetzt, dann würden dadurch im statistischen Durchschnitt 5,5 von ihnen pro Jahr zusätzlich an Krebs sterben.“

Unter 100 mSv lässt sich kein Einfluss auf die Gesundheit erkennen. Für 0,1 mSv, einem Tausendstel, glaubt das BfS aber berechnen zu können, mit Komma, dass unter den etwa 250.000 Krebsfällen pro Million 5,5 Tote von der zusätzlichen Strahlung verschuldet werden. Internationale Institutionen sind da seriöser, z.B. UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation). UNSCEAR „empfiehlt nicht, kleine Dosen mit großen Individuenzahlen zu multiplizieren, um strahlenbedingte Gesundheitswirkungen in einer Bevölkerung zu berechnen, die kleinen Dosen ausgesetzt ist, welche im Bereich oder unter dem natürlichen Strahlenpegel liegen“. 

UNSCEAR und WHO (Weltgesundheitsorganisation) sind noch nicht bereit, positive Wirkungen niedriger Dosen anzuerkennen, welche von vielen Wissenschaftlern und den Ärzten der Radonheilbäder behauptet werden. Aber von der LNT-Hypothese (linear no threshold), d.h. lineare Dosis-Wirkungs-Beziehung bis auf Null herunter, rücken sie langsam ab.

Auf jeden Fall sollte man sagen: Was im Bereich der natürlichen Umgebungsstrahlung liegt, muss man nicht fürchten.

Angenommen, ein Reaktorunglück wie Tschernobyl hätte es schon im Altertum gegeben, und Obelix würde jeden Monat ein ganzes Wildschwein an der oberen erlaubten Grenze von 600 Becquerel pro kg verzehren, dann hätte er allerdings seine Strahlenexposition gegenüber Miraculix und anderen normalen Essern verdreifacht. Ein Aufenthalt bei den Helvetiern hätte aber den gleichen oder einen noch höheren Effekt gehabt.

Rational ist also der Grenzwert von 600 Bq/kg nicht zu begründen. Im Norden hat man einen kühleren Kopf behalten, wie die folgende Nachricht vom 22.11.1986 zeigt: 

Oslo (dpa)

In Norwegen werden die zulässigen Höchstwerte für Cäsium in Rentierfleisch von 600 auf 6000 Becquerel pro Kilo angehoben. Diese Entscheidung des Sozial- und des Landwirtschaftsministeriums in Oslo wurde am Freitag unter anderem damit begründet, dass bei Aufrechterhaltung des alten Wertes achtzig Prozent des Rentierfleisches auf der diesjährigen Herbstschlachtung wegen des Unglücks in Tschernobyl vernichtet werden müssten.

Anmerkung der Redaktion: Ein früher Testleser teilte uns dazu seine eigenen Erfahrungen mit:

1987 wohnte ich unweit von Schwetzingen/Baden-Wttbg. (Spargelanbaugebiet). Nach dem Fall-Out dort herrührend von Tschernobyl ging der Spargelpreis in die Knie (so wie heute der EURO). So viel Spargel im Anschluss extrem kostengünstig wie in jenem Jahr habe ich noch nie gegessen.

Anscheinend wurde ich dadurch gestählert, denn nach über 40 Jahre Tätigkeit in Industrie (u.a. bei ABB mit KKW Mülheim-Kläglich und THTR) und Universität (auch heute noch tätig und nicht dahinsiechend) war ich 1 Tag (!!!!) bis heute am Arbeitsplatz fehlend. 

Gutes Gelingen




Studien aus 2014 geben Hoffnung: Erwärmungswirkung des CO2 wohl doch deutlich überschätzt. Offizielle Korrektur steht bevor

Im heutigen Beitrag wollen wir eine kleine Übersicht über die neuen Studien des vergangenen Jahres (2014) geben. Wer ist mit welchem Wert aktuell im Rennen? Bevor wir beginnen, sollte jedoch noch kurz erwähnt sein, dass es zwei verschiedene Typen der Klimasensitivität gibt, die nicht verwechselt werden dürfen, die ECS und die TCR. Hier sollte man peinlichst darauf achten, um welchen Wert es in der entsprechenden Arbeit geht, ansonsten vergleicht man Äpfel mit Birnen. Wikipedia erklärt uns den Unterschied:

ECS und TCR

Aufgrund der thermischen Trägheit der Weltmeere reagiert das globale Klimasystem grundsätzlich nur langsam auf Veränderungen des Strahlungsantriebs. Man unterscheidet daher zwischen der Equilibrium Climate Sensitivity, (ECS) und der Transient Climate Response (TCR). Die ECS beschreibt den Temperaturanstieg, der zu beobachten ist, nachdem das Klimasystem nach einer Veränderung des Strahlungsantriebs den neuen Gleichgewichtszustand erreicht hat, wofür Jahrtausende nötig sind. Um den Einfluss des Menschen auf das Klima zu quantifizieren, ist die Transient Climate Response besser geeignet. Diese ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese pro Jahr um 1% anwächst.

Laut dem fünften Klimazustandsbericht des IPCC (AR5) liegt die ECS irgendwo zwischen 1.5°C bis 4.5°C. Der IPCC hat sich diesmal aus taktischen Gründen geweigert, einen offiziellen Mittelwert anzugeben. Nehmen wir daher einen Wert von 3°C an, den hatte der IPCC in seinem vierten Klimabericht (AR4) verwendet und nach eigenen Angaben habe sich vom vierten auf den fünften Bericht nicht viel geändert. Überhaupt geht der IPCC in allen seinen bisherigen Berichten seit 1990 stets von der gleichen Wertespanne aus (Abbildung 1).

Die kurzfristigere TCR sieht der IPCC in ihrem aktuellen AR5-Bericht zwischen 1,0°C und 2,5°C (siehe Seite 14 hier).

Abbildung 1: Übersicht der in den IPCC-Berichten angegebenen CO2-Klimasensitivitäten. Aus Lewis & Crok (2014).

ECS – Die Equilibrium Climate Sensitivity [Gleichgewichts-Klimasensitivität]

Beginnen wollen wir unseren wissenschaftlichen Streifzug mit Studien zum Langfrist-Wert, der ECS. Dabei arbeiten wir uns von den hohen zu den niedrigen ECS-Werten.

Im April 2014 erschien im Fachblatt Climate Dynamics eine Arbeit von Troy Masters. Er kommt auf eine Wertespanne für die ECS von 1,5-2,9°C, eliminiert also einen Großteil der überhitzten IPCC-Szenarien. Als ECS-Mittelwert gibt Master 2,2° C an, was knapp ein Grad kälter ist, als der IPCC-Wert.

Fünf Monate später, im September 2014, kamen von der Heydt und Kollegen in einer Studie in den Geophysical Research Letters auf einen recht ähnlichen Wert, nämlich 2,26°C. Die Forscher untersuchten hierzu das Paläoklima der letzten 800.000 Jahre. Aus der Kurzfassung:

Wendet man ein neues Verfahren an, um die Abhängigkeit vom Hintergrundzustand [background state dependency] zu berücksichtigen, kommt man zu dem Ergebnis Sa=0.61±0.07 K (W/ m²)-1 (±1σ) unter Verwendung einer Rekonstruktion der Abkühlung zum letzten glazialen Maximum (LGM) um -4,0 K und eine deutlich geringere Klimasensitivität während glazialer Klimate.

(Hinweis: Der dort angegebene Wert von Sa=0,61±0,07 K (W m−2)−1 muss mit 3,7 W/m2 multipliziert werden, um auf die ECS pro CO2-Verdopplung zu gelangen.)

In einer Modellierungsstudie ermittelte Crag Loehle vom US-amerikanischen National Council for Air and Stream Improvement eine ECS von 1,99°C. Die Ergebnisse präsentierte er im März 2014 im begutachteten Fachblatt Ecological Modelling.

Im selben Monat erschien im Fachjournal Earth System Dynamics eine Arbeit von Skeie et al., die auf eine ECS von 1,8°C kommen. Zum exakt gleichen Ergebnis gelangte auch Jeff L. in einem Beitrag auf WUWT , der dort am 13. Februar 2014 gepostet wurde.

Bereits im Juni 2010 beschrieb Roy Spencer auf seiner Webseite eine ECS von 1,7°C:

Unter dem Strich stützt meine Analyse eine Best-Estimate-Klimasensitivität von 1,7°C, was etwas mehr ist als die Hälfte von dem, was Tung & Camp (3,0°C) gefunden haben, und es nähert sich der unteren Grenze dessen, was das IPCC als wahrscheinlich behauptet (1,5°C).

Nur einen Tick niedriger verorteten Nicholas Lewis und Judith Curry die ECS. In ihrer im September 2014 im Fachblatt Climate Dynamics publizierten Arbeit kamen die Autoren auf einen Wert von 1,64°C. Lewis präsentierte in einem Beitrag im Blog Climate Audit zudem eine detaillierte Gesamttabelle mit ECS-Spannen für verschiedene Zeitfenster sowie Vergleichswerte anderer Arbeiten (Abbildung 2):

Abbildung 2: Klimasensitivitäten nach Lewis & Curry (2014) sowie weitere Vergleichswerte aus der Literatur. Quelle: Climate Audit.

Bemerkenswert ist auch eine Arbeit von Spencer & Braswell die im Februar 2014 im Asia-Pacific Journal of Atmospheric Sciences herauskam. Die beiden Autoren integrierten die natürliche ENSO-Variabilität in ihr Modell und kamen auf eine ECS von 1,3°C, was ziemlich genau zwischen den beiden in unserem Buch „Die kalte Sonne“ präsentierten Szenarien liegt.

Einige Autoren sehen sogar die Möglichkeit von ECS-Werten unterhalb von 1,0°C. So stellte im November 2014 Hermann Harde von der Hamburger Helmut-Schmidt-Universität im Journal of Atmospheric and Climate Change ein Modell mit einer ECS von 0,6°C vor.

Und schließlich sei noch eine Arbeit erwähnt, die im Oktober 2014 auf der Webseite der Stockholm-Initiative erschien. Magnus Cederlöf beschreibt dort eine ECS von 0,28°C.

Der generelle Trend in der Wissenschaft hin zu niedrigeren ECS-Klimasensitivitäten ist mittlerweile unübersehbar und stürzt den IPCC und die beteiligten Forscher in ein Dilemma. Viele der Arbeiten erschienen nach Redaktionsschluss des AR5-Klimaberichts und konnten daher nicht mehr in den Bericht eingearbeitet werden. Überhaupt gleichen die IPCC-Klimaberichte einem schweren Supertanker, der etliche Jahre benötigt um seinen Kurs auch nur geringfügig zu ändern. Das Herzstück des AR5 bilden aufwendige Computer-Klimamodellierungen, die noch von einer veralteten, überhöhten ECS ausgingen. Im Prinzip hätte man nun die Modellierungsresultate verwerfen und erneut zu rechnen beginnen müssen. Dafür gab es nun aber keine Zeit mehr und die Veröffentlichung des AR5 wäre um mehrere Jahre verzögert worden. Offenbar entschied man sich für die Methode „Augen zu und durch“, in der Hoffnung, dass die Unzulänglichkeiten hoffentlich keinem auffallen. Da der Großteil der Medienlandschaft die IPCC-Ergebnisse sowieso generell ungeprüft übernimmt, hat dies auch ziemlich gut funktioniert.

Im Februar 2014 thematisierten Nicholas Lewis und Marcel Crok das IPCC-Dilemma bezüglich der Klimasensitivität in einem lesenswerten Bericht, der als GWPF Report 12 erschienen ist:

Auszug aus der Zusammenfassung:

Erst während der letzten Jahre ist es möglich geworden, gute empirische Schätzungen der Klimasensitivität vorzunehmen aus gemessenen Daten wie Temperatur und ozeanischen Wärmerekorden. Diese Schätzungen, publiziert in führenden wissenschaftlichen Journalen, zeigen bei einer Verdoppelung des CO2-Gehaltes zumeist eine Klimasensitivität, die zu einer langfristigen Erwärmung unter 2°C führt und unter 1,5°C während einer Periode von 70 Jahren. Dies zeigt eindeutig, dass die Modelle eine zu hohe Sensitivität bzgl. Kohlendioxid annehmen und in fast allen Fällen die wahrscheinliche globale Erwärmung übertreiben. … Gute empirische Schätzungen sowohl langfristig als auch über Zeiträume von 70 Jahren implizieren jetzt sehr unterschiedliche Erwartungen hinsichtlich einer zukünftigen Erwärmung verglichen mit den Klimamodellen – etwa 40% bis 50% niedriger bis zum Zeitraum 2018 bis 2100. Dies ist fast mit Sicherheit das wichtigste Ergebnis der Klimawissenschaft während der letzten Jahre, vor allem weil es gute Gründe gibt, die Zuverlässigkeit der Klimamodell-Vorhersagen anzuzweifeln. Allerdings geht das IPCC in seinem Bericht auf diesen Punkt nur indirekt ein. Mehr noch, anstatt die Best Estimate der Klimasensitivität im Licht der neuen empirischen Schätzungen zu reduzieren hat es einfach die untere Grenze der Unsicherheits-Bandbreite tiefer gelegt und es versäumt, eine Best Estimate zu geben ohne angemessen zu erklären, warum dies zu tun erforderlich war. Erst in der im Januar 2014 veröffentlichten Endfassung wurde in der Technical Summary ein Absatz mit etwas mehr Erklärung hinzugefügt. Die neue Information zur Klimasensitivität zeigt, dass das Zwei-Grad-Ziel der Regierung selbst bei relativ hohen Emissionen wahrscheinlich erst zum Ende des Jahrhunderts erreicht wird.

Eine gute graphische Übersicht von 14 wichtigen Arbeiten der vergangenen vier Jahre haben Patrick Michaels und Paul Knappenberger am 25. September 2014 auf WUWT zusammengestellt (Abbildung 3):


Abbildung 3: Übersicht der ECS-Klimasensitivität aus bedeutenden Arbeiten der vergangenen vier Jahre. Quelle: Patrick Michaels und Paul Knappenberger, WUWT.

Eine noch umfangreichere Auflistung gibt es auf The Hockeyschtick. Hier werden gleich 40 wissenschaftliche Studien vorgestellt, die eine ECS von 2,0°C oder weniger postulieren.

TCR – kurzlebige Reaktionen des Klimas [Transient Climate Response]

Schauen wir jetzt noch kurz in die kurzfristigere TCR. Der IPCC interpretiert in seinem aktuellen 5. Bericht eine TCR zwischen 1,0°C und 2,5°C. Ein Mittelwert ist erneut nicht angegeben, würde aber 1,75°C entsprechen.

Auch hier kommen neuere Studien auf deutlich niedrigere Werte. So reichten van der Werf und Dolman im Mai 2014 eine Arbeit im Fachblatt Earth System Dynamics ein, in dem sie eine TCR von 1,3°C darstellen. Das hat den IPCC-Torwächtern natürlich gar nicht gefallen. Im Begutachtungsverfahren „überzeugte“ man die Autoren, die TCR auf 1,6°C hochzusetzen, so dass die finale Version des Artikels aus dem Oktober 2014 jetzt diesen Wert enthält.

Da waren Nicholas Lewis und Judith Curry deutlich standfester. In ihrer im September 2014 in Climate Dynamics erschienenen Arbeit berichten sie eine TCR in Höhe von 1,33°C, was am unteren Ende des vom IPCC im AR5 verbreiteten Möglichkeitsspektrums liegt.

Craig Loehle geht mit einer TCR von 1,09°C sogar fast an den untersten Rand der IPCC-Werte. Diese Arbeit erschien wie bereits berichtet im März 2014 im Fachblatt Ecological Modelling.

Ein Forscherteam um Krasting und Kollegen ging im April 2014 in den Geophysical Research Letters sogar von noch niedrigeren TCR-Werten aus, nämlich einem Bereich zwischen 0,76 und 1,04°C.

Weitere neuere Erkenntnisse

Neben den harten ECS/TCR-Werten gab es auch noch andere Erkenntnisgewinne. So räumte Kim Cobb im April 2014 im IPCC-nahen Fachblatt Nature Climate Change ein, dass die Klimasensitivität wohl doch insgesamt niedriger ist als gedacht. Man habe die natürliche Klimavariabilität auf der Südhalbkugel wohl unterschätzt.

Im Dezember 2014 berichteten Winton et al. in den Geophysical Research Letters dass man wohl die AMOC-Ozeanzyklik zu wenig auf der Rechnung hatte und die TCR-Abschätzungen deshalb wohl in der Vergangenheit zu hoch ausgefallen sind.

Einen interessanten Einblick in die Denkweise von IPCC-nahen Wissenschaftlern gab es im April 2014 in den Geophysical Research Letters. Dort gestanden Kummer & Dessler ein, dass die historischen Temperaturdaten des 20. Jahrhunderts lediglich eine ECS von 2,3°C rechtfertigen würden, was krass von den 3°C der theoretischen IPCC-Modelle abweicht. Im Paper fangen sie dann an laut zu denken. Wie konnte dies nur passieren, wie kriegen wir diesen unbequemen Umstand möglichst elegant und leise vom Tisch? In ihrer Verzweiflung fangen sie dann an, Gründen für die zu schwache Erwärmung der letzten 150 Jahre zu ersinnen. Dabei greifen sie letztendlich auf den bereits in unserem Buch „Die kalte Sonne“ ausführlich beschriebenen Trick zurück und erhöhen einfach die kühlende Wirkung der Aerosole, der Schwebteilchen in der Atmosphäre. Zur Linderung der Modellierungsschmerzen muss auch das Ozon seinen Beitrag leisten. Nach Anwendung von Trick 17 und Trick 18 ist dann die reale Welt an die wunderbare Computerwelt angepasst und alle können wieder beruhigt ihrem alarmistischen Tagesgeschäft nachgehen. Im Folgenden die Kurzfassung der Arbeit:

Schätzungen der Gleichgewichts-Klimasensitivität der Erde (ECS) aus Beobachtungen im 20. Jahrhundert sagen eine niedrigere ECS vorher als Schätzungen der Klimamodelle, paläoklimatische Daten und Variabilität von Jahr zu Jahr. Hier zeigen wir, dass Schätzungen der ECS aus Beobachtungen im 20. Jahrhundert hinsichtlich der vermuteten Wirksamkeit von Aerosol- und Ozon-Antrieb sensitiv sind (Wirksamkeit eines Antriebs ist die Größe der Erwärmung pro Einheit globaler mittlerer Antrieb dividiert durch die Erwärmung pro Antriebseinheit aus CO2). Frühere Schätzungen der ECS auf der Grundlage von Beobachtungen im 20. Jahrhundert haben nahe gelegt, dass die Wirksamkeit einheitlich ist, wobei sich in unserer Studie eine ECS von 2,3 K ergibt (5% bis 95% Bandbreite von 1,6 bis 4,1 K), was dicht an der unteren Grenze der vom IPCC angebotenen Bandbreite von 1,5 bis 4,5 K liegt. Eine Zunahme der Aerosol- und Ozon-Wirksamkeit auf 1,33 lässt die ECS steigen auf 3,0 K (1,9 bis 6,8 K), ein Wert, der in ausgezeichneter Übereinstimmung mit anderen Schätzungen steht. Die Wirksamkeit von Antrieben bietet daher einen Weg, den Graben zwischen verschiedenen ECS-Schätzungen zu überbrücken.

Eine mysteriöse Geschichte gab es am 3. Dezember 2014 auf der Webseite von Bild der Wissenschaft zu lesen:

Klima: Schnell aufgeheizt und lange warm
Die Treibhauswirkung von Kohlendioxid ist längst unstrittig: Das Gas hält Wärme in der Atmosphäre fest und trägt damit zum Klimawandel bei. Wie schnell sich aber eine Emission von CO<sub>2</sub> tatsächlich am globalen Thermometer bemerkbar macht, das war bisher unklar. Zwei US-Forscher haben diese Unsicherheit nun beseitigt. Ihre Modellsimulationen zeigen, dass das Klimasystem deutlich schneller auf das CO<sub>2</sub> reagiert als gedacht: Schon zehn Jahre nach einer CO<sub>2</sub>-Emission tritt die dadurch verursachte Erwärmung ein – diese Klimawirkung hält dann allerdings über mehr als ein Jahrhundert an. Für die Klimaverhandlungen in Lima sollte das eine Mahnung sein. […] Das Ergebnis: Es dauert im Mittel 10,1 Jahre, bis eine Dosis freigesetzten Kohlendioxids ihre maximale Treibhauswirkung entfaltet. Der CO<sub>2</sub>-Gehalt der Atmosphäre steigt dabei schon deutlich schneller an. Aber vor allem die thermische Trägheit der Ozeane bremst die dadurch erzeugte Erwärmung ab, so dass sie sich erst nach rund einem Jahrzehnt bemerkbar macht, wie die Forscher erklären. 

Im Prinzip heißt dies nichts anderes, als dass ECS und TCR viel näher aneinander liegen könnten als gedacht. Nach 10 Jahren wäre die volle Wärmewirkung erreicht, lautet das Ergebnis der Modellierung. In der Realität sieht es leider anders aus: Seit nunmehr 16 Jahren verharrt die globale Temperatur auf einem Plateauwert, und das obwohl der CO2-Gehalt in der gleichen Zeit munter weiter angestiegen ist. Nach deutlich mehr als 10,1 Jahren hat es das CO2 offenbar immer noch nicht geschafft, die ihm zugeschriebene starke Erwärmungswirkung zu entfalten. Ist das CO2 vielleicht doch nicht so klimatreibend wie gedacht? Oder ist die natürliche Variabilität viel stärker als vom IPCC vorgeschlagen? Fakt ist, dass die angeblich so schnell auf das CO2 reagierende Atmosphäre noch immer voll und ganz durch die natürlichen Prozesse dominiert wird. Weshalb diskutiert Bild der Wissenschaft diese Fragen nicht?

Angesichts der mageren Temperatursteigerung im 20. Jahrhundert und der fehlenden Erwärmung der letzten 16 Jahre fragen sich die Wissenschaftler, wann wohl genug Daten vorliegen könnten, so dass man die wahre CO2-Klimasensitivität endlich festnageln und genau eingrenzen könnte. Ein Forscherteam um Nathan Urban hat im April 2014 in den Geophysical Research Letters versucht, einen Entscheidungshorizont abzuschätzen. Vermutlich wird es erst 2030 möglich sein, zu erkennen, ob die ECS eher 1,5°C oder 3,0°C beträgt. Im Falle noch höherer ECS-Wert würde dies sogar noch länger dauern. Allerdings sind höhere ECS-Beträge angesichts der neueren Arbeiten eher unwahrscheinlich. Auszug aus der Kurzfassung:

Wir zeigen, dass eine Klimasensitivität von 1,5°C statistisch unterschieden werden kann von 3°C bis 2030, 3°C von 4,5°C bis 2040 und 4,5°C von 6°C bis 2065. Das Erkennen von Raten ist am langsamsten in den größte Bedenken hervorrufenden Szenarien (hohe Sensitivitäten) infolge einer längeren Zeit der ozeanischen Reaktionen bei der Abwägung zwischen Abwarten und vorsorglicher Abschwächungspolitik.

Wer sich noch tiefer in das Thema einarbeiten möchte, dem sei der Climate Dialogue aus dem Mai 2014 „Climate Sensitivity and Transient Climate Response“ mit James Annan, John Fasullo und Nic Lewis empfohlen. Eine gute Übersicht zum Thema gibt es auch von Chip Knappenberger, die am 19. März 2012 auf WUWT erschien. Und schließlich greifen auch Frank Bosse und Fritz Vahrenholt in ihrer monatlichen Sonnenkolumne immer wieder das Thema der CO2-Klimasensitiität auf (z.B. hier, hier, hier).

Link: http://www.kaltesonne.de/studien-aus-2014-geben-hoffnung-erwarmungswirkung-des-co2-wohl-doch-deutlich-uberschatzt-und-muss-nach-unten-korrgiert-werden/

Dieser Artikel ist zuerst bei „Die Kalte Sonne“ erschienen (siehe Link). Übersetzungen der englischen Passagen durch Chris Frey EIKE




Friends of the Earth sind Feinde der Menschheit

Bild rechts: Zurück in die Vergangenheit mit Friends of the Earth [= in Deutschland BUND!]

Ich stehe auf dem E-Mail-Verteiler von FOE, und deren jüngste Mail belehrte mich ebenso wie Tausende andere, die die gleiche Mail erhielten, darüber, dass die „Öl-Lobby und die Führerschaft der Republikaner im Kongress einen vollen Frontalangriff auf unsere Umweltschutz-Bemühungen planen…“. Ich wette Sie haben nicht gewusst, dass die republikanische Partei ein Feind der Umwelt war. Das ist komisch, weil es ein Republikaner war, nämlich Richard R. Nixon, der die Environmental Protection Agency EPA per Anordnung gegründet hatte.

Die FOE waren verärgert über die Finanzierung der US-Regierung mit 1,01 Billionen Dollar für dieses Jahr bis September. „Was noch mehr zählt, es ist eine überraschende Gabe an die Superreichen, und die Zuwendung hob das maximale Beitragslimit von Individuen zu politischen Parteien – was die Tür öffnet für Milliardäre wie die Koch Brothers, noch mehr Sitze in der Regierung zu kaufen“.

Die schiere Heuchelei der FOE sprengt die Vorstellungskraft. Es gab keine Erwähnung des verschwiegenen „Milliardärs-Club“, dessen Existenz im August in einem Bericht der Republikaner an das Environment and Public Works Committee des US-Kongresses enthüllt worden ist. Der Bericht war überschrieben mit [übersetzt] „Die Umwelt-Kommandokette: Wie ein Club von Milliardären und deren Stiftungen die Umweltbewegung kontrollieren sowie Obamas EPA“. Das haben Sie nicht in der Mainstream-Presse gelesen? Nun, es wurde totgeschwiegen.

Vielleicht aber haben Sie von dem in San Francisco ansässigen Milliardär Tom Steyer gehört, der im Februar versprochen hatte, bis zu 100 Millionen Dollar zu spenden. Die Hälfte davon wollte er selbst aufbringen, die andere Hälfte von anderen Milliardärs-Geldgebern. Damit wollten sie für die Zwischenwahlen zum Kongress Kandidaten bekommen, die versprechen, Anti-Erwärmungs-Gesetze passieren zu lassen. Steyer war führender Gegner der Keystone XL-Pipeline, aber aus reiner Scheinheiligkeit machte Steyer sein Vermögen mit Investitionen in fossile Energie-Unternehmen!

Soweit es die FOE betrifft, sind nur konservative Milliardäre böse.

„Bei Friends of the Earth arbeiten wir daran, die Menschen und den Planeten vor Big Oil und deren Profite zu schützen“. Übersetzung: „Wir wollen nicht, dass Ölunternehmen die Energiequelle anbieten, die unsere Autos, Lastwagen und andere Dinge, die unser Leben verbessern, antreiben. Wir mögen keine Profite, weil sie das Ergebnis von Kapitalismus sind“.

Obendrein sagen FOE ihren Unterstützern, dass „die Zukunft für Unternehmen wie Dow, Syngenta und Monsanto großartig sein würde – aber schlimm für Bienen, Schmetterlinge und Menschen wie wir“. Man entferne alle Pestizide, und alles, was übrig bleibt, sind die Pestfliegen, die Krankheiten verbreiten und Ernten schädigen.

Wikipedia zu FOE: „Ursprünglich beheimatet in Nordamerika und Europa beruht seine Mitgliedschaft stark auf Gruppen in der Entwicklungswelt“. Es ist die Entwicklungswelt, die im Mittelpunkt des größten Betrugs der UN steht, nämlich globale Erwärmung, jetzt Klimawandel genannt, als ein Mittel, um Geld von wohlhabenden Nationen an Länder zu transferieren, die weniger gut regiert werden, oftmals weil dort ein Despot oder eine diebische Gruppe am Ruder ist.

Kein Wunder, dass die FOE erbost sind durch die Entscheidung von Millionen Amerikanern, Kandidaten zu wählen, die die Exzesse der EPA zügeln und Schritte zur Verbesserung der Wirtschaft vornehmen wollen. Der Mehrheitsführer im Senat, der Republikaner Mitch McConnell aus Kentucky, wird denunziert als „ein Klimaleugner mit engen Beziehungen zur Kohleindustrie“. Er hatte klargestellt, dass die Genehmigung der Keystone XL-Pipeline seitens des Kongresses Priorität hat.

Die E-Mail der FOE bezeichnete sogar den American Legislative Exchange Council (ALEC) als „eine Politikgruppe, die hilft, Anti-Umwelt-Gesetze im ganzen Land zu entwickeln. Derzeit konzentrieren sie sich auf Pläne, den Clean Power Plan des Präsidenten und die Fähigkeit der EPA zu erodieren, seine Mission fortzusetzen“.

Was in der E-Mail der FOE, die Big Oil und die Republikaner so schlecht macht, nicht erwähnt wird ist, dass neben anderen Dingen die Finanzierung der EPA um 60 Millionen Dollar verringert worden ist. Damit muss sie mit dem kleinsten Budget seit 1989 in Höhe von 8,1 Milliarden Dollar operieren.

Ich würde sehr gerne die EPA als öffentliche Agentur eliminiert sehen, und dass jene Finanzierung als Beihilfe zu EPAs der individuellen US-Staaten gehen, um Probleme anzugehen, die vor der eigenen Tür liegen. Bisher hat die Gesetzgebung den Treibhausgas-Programmen“ der EPA eine Reihe von Grenzen gesetzt, von deinen einige absolut idiotisch daherkommen, nämlich als Erlaubnis für Gasemissionen – Methan von Kühen!

Das Gesetz untersagte es auch Präsident Obama, wie versprochen 3 Milliarden Dollar an den UN-Klimafonds zu zahlen, eine Einrichtung, um uns unser Geld wegzunehmen und es Nationen zu geben für „Umweltprogramme, die sehr wahrscheinlich zu etwas ganz Anderem führen“.

Mit ihrer Antienergie-, Antikapitalismus-Agenda sind die Friends of the Earth in Wirklichkeit Feinde der Menschheit. Sie würden überglücklich den Planeten in das Dunkle Zeitalter zurückstoßen. Darum richten Menschen wie ich sehr helle Scheinwerfer auf sie, damit wir nicht so düpiert wie viel zu viele andere Menschen.

© Alan Caruba, 2015

Link: http://www.nationalanxietycenter.blogspot.de/2015/01/friends-of-earth-are-enemies-of-mankind.html

Übersetzt mit schriftlicher Erlaubnis des Autors von Chris Frey EIKE




James Hansen 2005: Keine Übereinstimmung zur Frage „was ist Lufttemperatur“ … Wenige gemessene Daten werden mit „Schätzungen“ [guesses] gefüllt.

Analyse der Oberflächentemperatur nach GISS

Die schwer fassbare Absolute Oberflächen-Lufttemperatur (SAT)

Bei der GISTEMP-Analyse geht es ausschließlich um Temperaturanomalien und nicht um die absolute Temperatur. Temperaturanomalien werden berechnet auf Grundlage der Referenzperiode 1951 bis 1980. Der Grund für die Arbeit mit Anomalien anstatt mit der absoluten Temperatur ist, dass die absolute Temperatur kurzfristig markant variiert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien bis zu Entfernungen in der Größenordnung von 1000 km stark korrelieren.

Frage: Was genau ist mit SAT gemeint?

Antwort: Ich bezweifle, dass es eine allgemeine Übereinstimmung bzgl. der Antwort auf diese Frage gibt. Selbst an der gleichen Stelle kann die Temperatur nahe dem Boden sehr unterschiedlich sein zur Temperatur in einer Höhe von 5 ft [ca. 1,5 m] und wieder unterschiedlich zur Temperatur in 10 ft oder 50 ft [ca. 3 m bzw. 15 m] über dem Boden. Vor allem bei vorhandener Vegetation (z. B. im Regenwald) kann die Temperatur über der Vegetation sehr unterschiedlich sein zur Temperatur unter der Obergrenze der Vegetation. Ein vernünftiger Vorschlag scheint es mir zu sein, die mittlere Temperatur der ersten 50 ft [ca. 15 m] entweder über dem Erdboden oder über der Obergrenze der Vegetation zu verwenden. Um die SAT zu messen, müssen wir darin übereinstimmen, was das ist, und – soweit ich weiß – wurde bislang kein solcher Standard vorgeschlagen oder allgemein übernommen. Selbst falls man den Standard von 15 ft übernehmen sollte, kann ich mir nicht vorstellen, dass ein 50 ft hoher, an einer Wetterstation aufgestellter Mast in der Lage wäre, die wahre SAT an dieser Stelle zu ermitteln.

Frage: Was meinen wir mit täglichen SAT-Mittelwerten?

Antwort: Noch einmal: es gibt keine universell akzeptierte Antwort. Sollten wir die Temperatur alle 6 Stunden messen und das Mittel bekannt geben; sollten wir das alle 2 Stunden tun, stündlich oder mittels einer Maschine in jeder Sekunde? Oder sollen wir einfach den Mittelwert aus Höchst- und Tiefsttemperatur nehmen? An einigen Tagen können verschiedene Methoden zu drastisch unterschiedlichen Ergebnissen führen.

Frage: Welche SAT berichten die lokalen Medien?

Antwort: Die Medien berichten von einem bestimmten Thermometer einer nahe gelegenen Wetterstation. Diese Temperatur kann sich sehr von SAT unterscheiden, selbst an jener Stelle und hat mit Sicherheit nichts zu tun mit der wahren regionalen SAT. Um die wahre regionale SAT zu messen, müssten wir viele 50 ft hohe Masten mit Thermometern aufstellen, die gleichmäßig über das gesamte Gebiet verteilt werden, eine offensichtliche praktische Unmöglichkeit.

Frage: Falls die SATs, über die berichtet wird, nicht die wahren SATs sind, warum sind sie dennoch nützlich?

Antwort: Die berichtete Temperatur ist nur für eine Person wirklich bedeutsam, die zufällig die Wetterstation besucht genau in dem Moment, wenn die berichtete Temperatur gemessen wird, mit anderen Worten, für niemanden. Allerdings wird zusätzlich zu den berichteten SATs erwähnt, ob es sich gegenwärtig um ungewöhnlich hohe oder niedrige Werte handelt, wie stark sie von der Normaltemperatur abweichen und ob diese Information (die Anomalie) bedeutsam für das ganze Gebiet ist. Außerdem, wenn wir eine bestimmte Temperaturangabe hören (z. B. 70°F [ca. 18°C]), übersetzen wir das instinktiv in warm oder kalt, aber der Schlüssel zur Übersetzung ist abhängig von Jahreszeit und Gebiet. Die gleiche Temperatur kann ,warm‘ im Winter und ,kalt‘ im Juli bedeuten. Wir meinen mit ,warm‘ automatisch ,wärmer als normal‘, d. h. wir übersetzen absolute Temperaturen automatisch in Anomalien, ob uns das nun bewusst ist oder nicht.

Frage: Wenn SATs nicht gemessen werden können, wie werden SAT-Karten konstruiert?

Antwort: Dies kann man nur mit Hilfe von Computermodellen machen, und zwar den gleichen Modellen, mit deren Hilfe man die tägliche Wettervorhersage erstellt. Wir können das Model laufen lassen mit den wenigen gemessenen verfügbaren Daten und den Rest mit Schätzungen (auch Extrapolationen genannt) auffüllen. Dann können wir das Modell lange genug laufen lassen, so dass die ursprünglichen Schätzungen keine Rolle mehr spielen, aber auch nicht zu lange, um zu vermeiden, dass die Ungenauigkeiten des Modells relevant werden. Dies kann gemacht werden, wenn man mit den Bedingungen aus vielen Jahren anfängt, so dass das Mittel (eine ,Klimatologie‘ genannt) hoffentlich eine typische Karte für den bestimmten Monat oder Tag des Jahres repräsentiert.

Frage: Was mache ich, wenn ich absolute SATs brauche und keine Anomalien?

Antwort: In 99,9% aller Fälle wird man sehen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturen. In den verbleibenden Fällen muss man eine der verfügbaren Klimatologien herauspicken und die Anomalien hinzufügen (hinsichtlich der geeigneten Bezugsperiode). Für das globale Mittel erzeugen die Modelle, denen man am meisten vertraut, einen Wert von grob 14°C, aber der Wert kann sich genauso gut auch zwischen ca. 13°C und 15°C bewegen; und im regionalen und noch mehr im lokalen Maßstab ist die Lage noch schlimmer.

Link: http://notrickszone.com/2015/01/17/2005-james-hansen-no-agreement-on-what-is-surface-air-temperature-few-observed-data-filled-in-with-guesses/#sthash.6WSS5pf1.dpbs

Übersetzt von Chris Frey EIKE




Eisbohrkern-Gedankenexperiment eines Ingenieurs

Nehmen wir an, das folgende atmosphärische Eindringen wird im Eis aufgezeichnet (Abbildung 1). An irgendeinem Zeitpunkt t0 steigt der atmosphärische CO2-Gehalt von einer Hintergrund-Konzentration von 300 ppm 100 Jahre lang mit einer Rate von 3 ppm pro Jahr. Der Spitzenwert liegt dann bei 600 ppm, beträgt also 100% der ursprünglichen Konzentration und geht dann wieder während der folgenden 100 Jahre zurück. Amplitude und Dauer der Durchdringung sind willkürlich, aber, wie ich glaube, repräsentativ für vorangegangene Ereignisse in der realen Welt (und möglicherweise befinden wir uns seit 60 Jahren in der Aufzeichnung des Beginns eines ähnlichen Ereignisses gegenwärtig am Mauna Loa). Wie also könnte die atmosphärische Durchdringung akkurat im Eis der Antarktis aufgezeichnet werden?

Als Erstes wollen wir die Ausgangsbedingungen für das aufzeichnende Medium beschreiben zu einem Zeitpunkt t0 und früher. Dieses kann typischerweise gefunden werden an einer Bohrstelle in der Antarktis (siehe Abbildung 2). Auf der Oberfläche liegen ein paar Meter lockeren Schnees, der vom Wind verweht wird. Darunter befindet sich eine etwa 100 m dicke Schicht Firn – teilweise kompakte Schneeschichten, die nominell aus Schichten früherer Schneefälle hervorgegangen sind. Das jahreszeitliche Alter an der unteren Grenze des Firns beträgt typischerweise 40 Jahre. Darunter liegt glaziales Eis bis in große Tiefen, geformt vom Gewicht des Firns. Diese glaziale Schicht repräsentiert vergangene Schnee-Jahreszeiten, nominell von 40 Jahren bis zurück zu 800.000 Jahren. Die atmosphärische CO2-Konzentration lag ursprünglich bei 300 ppm.

Abbildung 3 zeigt eine Augenblicksaufnahme der atmosphärischen CO2-Aufzeichnung bei t0 plus 50 Jahren. Während dieser 50 Jahre ist die atmosphärische CO2-Konzentration bei einer Rate von 3 ppm pro Jahr von 300 ppm auf 450 ppm gestiegen. Die letzten 40 Jahre dieser 50 Jahre sind im Firn aufgezeichnet, während die ersten 10 Jahre inzwischen in das glaziale Eis eingedrungen sind. In Abbildung 4 gab es weitere 50 Jahre der Aufzeichnung. Bei t0 plus 100 Jahren erreichte der atmosphärische CO2-Gehalt seinen Spitzenwert bei 600 ppm. Wieder sind die letzten 40 Jahre im Firn aufgezeichnet während die ersten 60 Jahre im glazialen Eis zu finden sind.

In Abbildung 5 unten sind wir jetzt auf der Kehrseite der aufzuzeichnenden atmosphärischen Durchdringung. Der atmosphärische CO2-Gehalt ist jetzt von 600 ppm auf 450 ppm zurückgegangen. Wie zuvor zeigen sich die ersten 40 Jahre im Firn, und die restlichen 110 Jahre sind in das glaziale Eis vorgedrungen, einschließlich des Spitzenwertes von 600 ppm.

In Abbildung 6 ist nach 200 Jahren die atmosphärische Konzentration auf den ursprünglichen Wert gefallen, während der Rest des atmosphärischen Einflusses weiterhin durch den Firn in das glaziale Eis eindringt.

In Abbildung 7 ist die Aufzeichnung im glazialen Eis vollständig, und in Abbildung 8 sehen wir, wie sich diese Aufzeichnungen im Idealfall weitere 250 Jahre im glazialen Eis bewegen.

Das Eindringen atmosphärischer Konzentrationen unterschiedlicher Amplitude und Dauer würde ähnliche „ideale“ Ergebnisse zeigen, wie ich denke.

Und das ist es, was viele Alarmisten glauben und zeigen (tatsächlich Skeptiker und Alarmisten gleichermaßen). Die Eisbohrkerne werden oftmals (von Enthusiasten hinsichtlich perfekter Aufzeichnungen in Eisbohrkernen) auf eine Weise repräsentiert, dass man uns sagt, dass der heutige atmosphärische CO2-Gehalt von 400 ppm der höchste jemals seit 800.000 Jahre sei; dass die Daten aus den Eisbohrkernen genau dies so zeigen; dass die Eisbohrkerne die Spitzen-CO2-Konzentration zuverlässig anzeigen, die niemals höher war als 400 ppm.

Sehen jedoch WUWT-Leser irgendwelche Probleme mit dieser „idealen“ Charakterisierung des Eisbohrkern-Aufzeichnungsprozesses? Ich schon … und zwar gewaltige. In einem späteren Beitrag werde ich meine Bedenken hinsichtlich dieses idealen Porträts beschreiben, aber für jetzt – können mir WUWT-Leser dabei helfen, ihre Bedenken und Vorschläge mit mir zu teilen? (Dabei wollen wir uns nicht um die „Tiefe-unter-der-Oberfläche-Zahlen“ herumstreiten. Ich denke schon, dass das glaziale Eis in Wirklichkeit wahrscheinlich kompakter ist, die Spitzen und Gradienten abrupter sind. Aber ich habe meine Zahlen der graphischen Eindeutigkeit halber gewählt.)

Hinweise (wohin genau mein zukünftiger Beitrag geht):

Es gibt sehr substantielle Konzentrations-Gradienten, um Diffusionsprozesse anzutreiben. Es gibt alternierende saisonale Temperaturgradienten, die im System Aktivität entfalten. Es gibt einen immer präsenten enormen Druckgradienten; der zu einem Dichte-Gradienten führt, was wiederum einen Diffusions-Gradienten erzeugt.

Die hohe Qualität der Aufzeichnung in den Abbildungen 3 und 4 , bei denen der atmosphärische CO2-Gehalt höher ist als das, was zuvor aufgezeichnet worden war (der einzige Fall, den wir gegenwärtig haben, ist der Mauna Loa und eine falsche positive Bestätigung für die Enthusiasten hinsichtlich einer fast perfekten Aufzeichnung) ist wahrscheinlich ziemlich unterschiedlich zur folgenden Aufzeichnung geringer Qualität, in der der atmosphärische CO2-Gehalt fällt. Nach mehreren hundert thermischen Zyklen – wohin sollte den Gedanken eines guten Ingenieurs zufolge ein großer Teil dieses CO2 zurückkehren?

Und all dies ereignet sich am Anbeginn des Aufzeichnungsprozesses im Eisbohrkern (die ersten paar hundert Jahre) trotz einer Fülle von aufgebauschten in situ- und Aufzeichnungs-Verzerrungen – von denen jede einzelne spezifisch und selektiv die „Spitzen-CO2“ Aufzeichnung verringert … selektiv.

Ich möchte es mal mit anderen Worten ausdrücken.

Sehr viele Anomalien umgeben die CO2-Aufzeichnung der Spitzen-Durchdringung. Einige sind groß (mehrere), viele sind mittel bis klein. Eine große Anomalie (Signalabschwächung) zeigt sich am Beginn des Aufzeichnungs-Prozesses (dem Gegenstand dieses Essays). Und jede individuell, und noch konsequenter bei der kollektiven Aufsummierung aller, verringern alle Anomalien ernsthaft die CO2-Spitzen. Und es gibt keinen Anomalie-Prozess, der jemals anders gewirkt haben könnte. Das heißt, kein anderer Prozess kann auf eine Weise wirken, dass die CO2-Spitzen nicht verringert werden; keine bekannte Anomalie kann jemals die Spitzen noch höher machen als in Wirklichkeit. Alle meteorologischen Fehlerquellen agieren auf eine Weise, dass die aufgezeichneten CO2-Spitzen verringert werden – und ziemlich signifikant und selektiv bei den Spitzen. In diesem 200 Jahre langen 100%-Durchdringungs-Beispiel schätze ich, dass nicht mehr als 10% des Original-Signals die initiale Abschwächung des Aufzeichnungsprozesses überleben, geschweige denn die folgenden abschwächenden Verzerrungen.

CAGW ist nicht einfach falsch … sie ist vollständig und umfassend falsch! Und Fehlinterpretationen sowie falsches Verständnis der Eisbohrkerne hat in großem Stil zu unserer Konfusion beigetragen. Mehr Info gibt es hier.

————————————————

Über den Autor: Ronald D. Voisin ist Ingenieur im Ruhestand. Er verbrachte 27 Jahre bei Semiconductor, meist im Silicon Valley in Kalifornien. Seit seinem Eintritt in den Ruhestand im Jahre 2007 hat er sich das Studium des Klimawandels zum Hobby gemacht. Er erhielt einen BSEE [Bachelor of Science in Electrical Engineering; ein akademischer Grad der Elektrotechnik] von der University of Michigan – Ann Arbor im Jahre 1978 und hatte viele Management-Posten inne sowohl bei etablierten Semiconductor-Unternehmen als auch bei Start-Ups, die er auf den Weg zu bringen half. Außerdem war er Autor oder Mitautor von 31 Anträgen auf Patente, von denen 27 gewährt wurden.

Übersetzt von Chris Frey EIKE




2014: Unter den 3 Prozent der kältesten Jahre innerhalb der letzten 10.000 Jahre?

Bild rechts: Abbildung1

Wir wissen, dass sich die Schlagzeile auf die NOAA-Projektion bezieht, aber die Öffentlichkeit verinnerlicht nur den Terminus „wärmstes Jahr“. Das ist von Anfang an die Routine der Manipulation von Schlagzeilen durch Bürokraten und IPCC-Unterstützer. Die Behauptung kam nicht überraschend, weil die NOAA schon im Januar angefangen hat, das Jahr 2014 mit der Schlagzeile NOAA: January 2014 fourth-warmest on record zu apostrophieren. Verschiedene Monate des Jahres wurden benannt, zum Beispiel „NOAA: August 2014 Was The Warmest On Record,” mit dem Zusatz, dass er ein kleines bisschen zu warm war. Aber da hatte die NOAA schon berichtet:

Der Sommer des Jahres 2014 ist offiziell der wärmste seit Beginn moderner instrumenteller Aufzeichnungen vor über 130 Jahren. Dies geht aus dem jüngsten Klimastatusbericht des National Climatic Data Center der NOAA hervor.

Im Oktober hatte man das Jahr zusammengefasst:

Dies macht die ersten zehn Monate des Jahres 2014 zur wärmsten Januar-bis-Oktober-Periode jemals und schiebt das Jahr 2014 auf den Weg, das wärmste, in den bis zum Jahr 1880 zurück reichenden NOAA-Archiven verzeichnete Jahr zu werden.

Bob Tisdale schrieb eine exzellente Zusammenfassung der „ Anticipation [Erwartung] der beiden Reihen vom GISS und vom NCDC. Er war nicht überrascht, als diese Aufzeichnungen erschienen und zeigten, dass das Jahr 2014 um 0.02°C über dem bisherigen Rekord lag. Man erinnere sich, dies stammt aus einer Reihe, die in historischen Aufzeichnungen beschränkt war auf 0,5°C. Wir kennen auch die beiden Satelliten-Datenreihen, RSS und UAH, und beide zeigen, dass es nicht das wärmste Jahr war.

Um der Schlagzeile zu begegnen bräuchte man etwas sehr Dramatisches, weil es hinsichtlich der Temperatur 2014 nichts Signifikantes gibt, wie Tisdale in einem Beitrag mit dem Titel The Uptick in Global Surface Temperatures in 2014 Doesn’t Help the Growing Difference between Climate Models and Reality zu beweisen plant. Er ist daran interessiert zu sehen, wie Gavin Schmidt, Nachfolger von James Hansen am Goddard Institute for Space Studies (GISS) die Fackel weiterträgt. Die Historie zeigt, dass die GISS-Werte stets höher lagen als die Werte aus allen anderen Quellen. Das ist nur ein Indikator der Temperatur-Adjustierungen, die vorgenommen worden waren, um die AGW-Hypothese passend zur politischen Agenda zu machen.

Herausforderungen und Festlegungen [fixes] des IPCC

Wie belastbar ist die Behauptung bzgl. 2014? Im Kontext der letzten 10.000 Jahre ist das bedeutsam, weil sich das Jahr unter den 3 Prozent der kältesten Jahre befindet, was viel bedeutsamer ist, als die von den Warm-Alarmisten proklamierten 100 Jahre. Es gibt zwei wesentliche Gründe: Die höchsten Temperaturen wurden in den letzten Jahren steigender Temperatur abgelesen. Jede Veränderung, Adjustierung und Kurzfassung der Aufzeichnung bislang wurde vorgenommen, um zunehmend höhere Temperaturen zu erzeugen und zu verkünden

1. Die instrumentellen Daten sind räumlich und zeitlich unzureichend. Wetterdaten an der Oberfläche sind praktisch nicht existent und ungleich über 85% der Erdoberfläche verteilt. Über 70% der Ozeane gibt es praktisch gar keine. Auf dem Festland gibt es praktisch keine Daten aus den 19% Berge, 20% Wüste, 20% boreale Wälder, 20% Prärien und 6% tropischer Regenwald. Um die Lücken „aufzufüllen“, stellte das GISS die lächerliche Behauptung auf, dass eine einzige Stations-Temperaturmessung repräsentativ sei für ein Gebiet um die Station mit einem Radius von 1200 km. Die initialen AGW-Behauptungen basierten auf Festlandsdaten. Die Daten sind vollkommen ungeeignet als Grundlage für die Konstruktion der Modelle.

2. Die meisten Stationen konzentrieren sich im östlichen Nordamerika und in Westeuropa. Sie wurden schon früh zu Beweisen für die vom Menschen verursachte globale Erwärmung. IPCC-Advokaten haben lange Zeit die Tatsache ignoriert, dass diese Stationen fast alle vom städtischen Wärmeinsel-Effekt UHI betroffen waren.

Der UHI war eine der ersten Herausforderungen der aus den instrumentellen Messungen abgeleiteten AGW-Behauptung. Zwei von Warwick Hughes erzeugte Graphiken waren die Effektivsten und erschienen im Jahre 1991 kurz nach Veröffentlichung des 1. IPCC-Berichtes 1990. Abbildung 2 zeigt die Temperatur an sechs großen australischen Städten.

Abbildung 2

Eine höchst wahrscheinliche Erklärung des UHI ist die Ausdehnung der Stadtgebiete, bis ursprünglich außerhalb der Stadt liegende Wetterstationen an Flughäfen davon eingeschlossen worden waren. Das Automobil hat dies möglich gemacht. Abbildung 3 zeigt einen Vergleich mit 26 ländlichen Stationen:

Abbildung 3

Der Unterschied ist markant. Genauso interessant ist, dass die Temperaturen im ersten Teil der Zeitreihe von 1880 bis 1900 höher lagen.

3. Es gibt eine konstante Revision der Aufzeichnungen hin zu niedrigeren historischen Werten. Dies lässt den Gradienten der vermeintlichen Erwärmung zunehmen. Offensichtlich wird dies in den Aufzeichnungen von Neuseeland (Abbildung 4):

Abbildung 4

Eine Suche bei WUWT nach dem Terminus „Temperature adjustments” ergibt eine Unmenge von Beweisen. Jedwede vorgenommene Anpassung diente dazu, den Gradienten der Kurve so zu verändern, dass es heute wärmer ist als in der Vergangenheit. Erklärungen, wenn überhaupt abgegeben, bieten gewöhnlich kaum eine Rechtfertigung für diese Adjustierungen. Das andere Leuchtzeichen ist, dass nahezu alle Adjustierungen vorgenommen worden waren, bevor die UAH-Satelliten-Temperaturaufzeichnung im Jahre 1991 begann.

4. Die Politik hatte erwartet, dass Satellitendaten die Wetterstationen am Erdboden ersetzen würden. Als Folge wurden viele Wetterstationen stillgelegt (Abbildung 5) oder zumindest nicht in die Berechnung des globalen Mittelwertes aufgenommen.

Die Abbildungen unten zeigen:

a) die Anzahl von Stationen mit einer Aufzeichnungsdauer von mindestens N Jahren als eine Funktion von N,

b) die Anzahl messender Stationen als eine Funktion der Zeit,

c) die Prozentzahl hemisphärischer Gebiete, die sich innerhalb des Radius‘ von 1200 km um eine messende Station befindet.

Abbildung 5

Die Anzahl von Bodenstationen war im Jahre 1960 unzureichend und wurde im Jahre 1990 noch weiter reduziert. Man beachte, dass nur etwa 1000 Stationen einen Zeitraum von 100 Jahren überdecken.

Aber wie genau kann man die globale Temperatur ermitteln, wenn der antarktische Kontinent ausgelassen wird? Man betrachte die IPCC-Schlussfolgerung:

Der größte Teil der beobachteten Zunahme der globalen mittleren Temperaturen seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich der beobachteten Zunahme der anthropogenen Treibhausgas-Konzentrationen geschuldet. Es ist wahrscheinlich, dass es während der letzten 50 Jahre eine signifikante anthropogene Erwärmung gemittelt über jeden Kontinent (außer der Antarktis) gegeben hat.

Antarktika ist 14 Millionen km² groß, also fast so groß wie Russland (17 Millionen km²), dem größten Land der Erde.

Man füge dem die 14 Millionen km² des Arktischen Ozeans hinzu, aus dem keine Daten vorliegen, wie das Arctic Climate Impact Assessment (ACIA) anmerkt (Abbildung 6)

Abbildung 6

Die Ausdehnung dieser Gebiete ist das Eine, ihre Rolle bzgl. des Weltklimas das Andere und weitaus wichtiger als die Rolle fast aller anderen Regionen.

Abbildung 7 zeigt, dass weniger Stationen ein beitragender Faktor zu höheren Temperaturen sind:

Abbildung 7

Die Stationen, die die NOAA aus dem GHCN in Kanada übernommen hat, illustrieren das Problem (Abbildung 8).

Abbildung 8

Es gibt 100 Stationen nördlich des Polarkreises, aber die NOAA zieht nur die Station Eureka, eine bekannte Wärmeinsel heran, um ein Drittel des zweitgrößten Landes der Erde zu repräsentieren. Selbst der 1200-km-Radius zählt hier nicht mehr.

7. Abänderungen der historischen Aufzeichnungen enthalten auch den infamen Hockeyschläger. Dabei wird von einem Mitglied der Climatic Research Unit CRU berichtet, dass er Prof. David Deming gesagt hat: „Wir müssen die Mittelalterliche Warmzeit loswerden!“ Mit dieser Äußerung im Hintergrund wurde der Hockeyschläger erzeugt. Das Blatt [des Hockeyschlägers] wurde geformt von CRU-Direktor Phil Jones‘ Daten, die eine Zunahme von 0,6°C innerhalb von etwa 120 Jahren zeigten. Das Problem war der Fehlerfaktor: ±0.2°C oder ±33 Prozent.

8. Die Temperaturtrends des 20. Jahrhunderts beginnen mit einer Erwärmung von 1900 bis 1940, der eine Abkühlung von 1940 bis 1980 folgte, gefolgt von einer erneuten Erwärmung von 1980 bis 1998 sowie einem leichten Abkühlungstrend danach bis 2014. Die Alarmisten haben die Abkühlung den menschlichen Emissionen von Sulfaten zugeordnet, aber das stellte sich als falsch heraus, als die Temperaturen wieder zu steigen begannen ohne dass die Sulfate abnahmen.

9. Falls wir die Erwärmung alles in allem ab 1900 akzeptieren, was vernünftig wäre, kam doch die Erde aus der Kleinen Eiszeit (LIA), dann treten die höchsten Temperaturen erst in den jüngsten Aufzeichnungen auf (Abbildung 9)

Abbildung 9

Der Umstand, dass 2014 einen winzigen Betrag wärmer war als jedes andere Jahr in der Aufzeichnung ändert nicht den Trend des „Stillstands“. Er verstärkt nicht die CO2-Kausalitäts-Behauptung.

10. Die Behauptung lautet, dass das Jahr 2014 um 0,02°C wärmer ist als jedes andere Jahr. Es ist vernünftig zu vermuten, dass die US-Temperaturaufzeichnung unter den Besten ist. Anthony Watts zeigte, dass nur 7,9 Prozent der US-Stationen auf <1°C genau ist (Abbildung 10).

Abbildung 10

Eine Gegenschlagzeile muss eine Perspektive bieten

Der Titel zu diesem Beitrag könnte auch lauten [übersetzt] 2014: unter den 3 Prozent kältester Jahre in 10.000 Jahren“. Abbildung 11 zeigt die Temperatur der Nordhemisphäre für den Zeitraum, der bezeichnet wird als „Klimaoptimum, Hypsithermal und Holozän-Optimum“.

Abbildung 11

Die dem Originaldiagramm hinzugefügte rote Linie vergleicht die genäherten Temperaturen des 20. Jahrhunderts (rechte Seite) mit denen der letzten 10.000 Jahre. Bei CO2Science wird von Dahl-Jensen (1998) angemerkt:

Nach dem Ende der Eiszeitperiode haben die Temperaturen bis zum klimatischen Optimum (vor 4000 bis 7000 Jahren) stetig zugenommen, bis die Temperatur maximal um 2,5°C über den heutigen Werten lagen.

Der Schlüssel-Terminus in der 2014-Behauptung ist „in der Aufzeichnung“, aber die überdeckt lediglich etwa 100 Jahre. Im Zusammenhang mit dem klimatologisch viel bedeutenderen Zeitraum von 10.000 Jahren ist es eines der kältesten Jahre.

Die Behauptung, dass 2014 das wärmste Jahr jemals war, war politisch wichtig für die Befürworter der IPCC-Story, dass menschliches CO2 die Ursache der globalen Erwärmung sei. In der Mitte dieser Argumentation stand die Notwendigkeit zu beweisen, dass die Temperaturen zum Ende des 20. Jahrhunderts die „wärmsten jemals“ waren. Dies ist der Grund, warum die 2014-Behauptung so bequem vor dem COP-Treffen in Lima auftauchte, auf dem die falsche IPCC-Behauptung verzweifelt beworben wurde.

Die Beweise widersprechen weiterhin hartnäckig den wesentlichen Hypothesen der AGW-Hypothese. T. H. Huxley (1825 bis 1895) drückte das so aus:

Die große Tragödie der Wissenschaft – eine wunderschöne Hypothese wird durch eine hässliche Tatsache geschlachtet.

Das Problem ist, dass die Fakten immer weiter anwachsen und die AGW-Befürworter diese weiterhin ignorieren, umgehen oder sie verfälschen. Wir wissen, dass die Wissenschaft falsch ist, weil die IPCC-Projektionen falsch sind. Normale Wissenschaft verlangt verlangt immer aufs Neue das Überdenken einer Hypothese und deren Implikationen. Das IPCC hat diese Option entfernt, als sie den Beweis für die Hypothese ausschlossen. Dies packt das IPCC auf die Tretmühle, die Ergebnisse zu fixieren, vor allem die Temperaturaufzeichnung. Der chinesische General Tao Kan drückte es so aus: „Es ist wie der Ritt auf einem Tiger, von dem abzusteigen sehr schwierig ist“.

Link: http://wattsupwiththat.com/2015/01/21/2014-among-the-3-percent-coldest-years-in-10000-years/

Übersetzt von Chris Frey EIKE

Hinweis des Übersetzers: Im Original ist der Autor Tim Ball vermutlich mit der Zählung seiner Abbildungen durcheinander gekommen. Die Abbildung 6 taucht im Original zweimal auf, obwohl es sich um ganz verschiedene Graphiken handelt. Danach geht die Zählung mit 7 weiter.

Ich habe die Zählung daher korrigiert. Die zweite als „Abbildung 6“ bezeichnete Graphik habe ich zu Abbildung 7 gemacht. Aus Abbildung 7 im Original wurde hier Abbildung 8, usw bis zum Ende des Beitrags.




Billiges Öl, teure Sonne

 

Unberechenbares schwarzes Gold: Szene aus dem US-Film «There Will be Blood» (2007). Bild: Daniel Day-Lewis (United Archives, Keystone)

Bedeutungsvolle Ereignisse treffen oft unerwartet ein. So war es auch beim Absturz des Ölpreises. Kein Politiker und kaum ein Analyst sahen die Verbilligung des schwarzen Goldes innert so kurzer Zeit kommen. Derzeit kostet das Fass Öl (159 Liter) um fünfzig Dollar, somit weniger denn die Hälfte als noch vor einem halben Jahr. Die Zürcher Kantonalbank schrieb in ­einem Analysebericht mit Blick auf die Ölpreisbaisse von einem «schwarzen Schwan», also von einem extrem unwahrscheinlichen, aber umso wichtigeren Ereignis.

Wie das billige Öl die Welt verändern könnte, wurde in den letzten Wochen facettenreich beschrieben. Die wirtschaftlichen und ­politischen Folgen erscheinen gravierend, ist doch das finanzielle Gedeihen vieler erdölexportierender Staaten wie Venezuela und Russland auf Notierungen deutlich über den jetzigen angewiesen – was deren Verhalten auf der Weltbühne beträchtlich verändern könnte.

Über einen Aspekt der Baisse gab es aber noch wenig zu lesen, obwohl er gerade hierzulande interessieren müsste: über die Folgen für die sogenannte ökologische Wende —

insbesondere für die Umsetzung der Energiewende, wie sie in der Schweiz und in Deutschland angedacht ist, und für das Gelingen der Klimapolitik mit der beabsichtigten ­Abkehr von den fossilen Brennstoffen.

Der Schweinezyklus hat gewirkt

Wie tiefgreifend die Folgen sind, hängt natürlich entscheidend davon ab, wie lange der ­Ölpreis auf niedrigem Niveau verharrt. Im ­Gegensatz zu 2009, als die Notierungen kurzfristig noch tiefer sanken, steht dieses Mal nicht eine Wirtschaftskrise und eine Nachfrage­flaute hinter der Baisse. Zwar schwächelt die Nachfrage nach Öl auch jetzt etwas, vor allem wegen des verlangsamten Wachstums in Schwellenländern wie China oder Brasilien. Die Gründe für den Preiszerfall liegen aber vor allem im Überangebot: Weil die Preise jahrelang deutlich über hundert Dollar pro Fass lagen, explodierten die ­Investitionen in unkonventionelle, relativ teure Fördermethoden – etwa in die Schieferölgewinnung in den USA oder in Offshore-Bohranlagen vor der Küste Brasiliens. Die Ölschwemme, die damit produziert wurde, löste zusammen mit dem Entscheid des Erdölkartells Opec gegen eine Förderbeschränkung den Sturzflug der Preise aus. Der vielbesagte Schweinezyklus hat gewirkt.

Eine gewisse Verteuerung des Öls ist zwar absehbar, denn bei den gegenwärtigen Preisen kann kaum ein Produzent seine Kosten mehr decken. Eine Rückkehr zu dreistelligen Fass-preisen wird es dieses Mal aber laut Ölexperten wohl nicht geben. «Wir erwarten frühestens im zweiten Halbjahr 2015 eine moderate Erholung», schreibt Sara Carnazzi Weber, ­Ölspezialistin bei Credit Suisse, auf Anfrage. «Einen Preis von hundert Dollar werden wir auf absehbare Zeit nicht mehr sehen», meint ihre Kollegin Susanne Toren von der Zürcher Kantonalbank.

Der britische Independent schrieb gar von ­einem «Konsens, dass die Ölpreise zumindest für einige Jahre tief bleiben». Es scheine, so die Zeitung weiter, «dass es die grossen Preissprünge, die für die 2020er und 2030er Jahre vorausgesagt wurden, nicht geben wird».

Das muss eine herbe Ernüchterung für die Protagonisten einer ökologischen Energiewende bedeuten, für die ein steigender Ölpreis eine existenzielle Bedingung ist.

Treffend drückte es Peter Atherton aus: «Die Subventionen für erneuerbare Energie wurden der Öffentlichkeit mit dem Argument wirtschaftlicher Vorteile schmackhaft gemacht», so der britische Energieanalyst. Diese Argumente basierten aber auf der Vorstellung, fossile Brennstoffe würden teurer, so dass die Subventionen für Erneuer­bare mit der Zeit sinken könnten. «Das ist nun sehr in Frage gestellt», folgerte Atherton.

Wie wirkt sich der tiefe Ölpreis konkret aus? Dass der Verbrauch unmittelbar steigt, ist wenig wahrscheinlich. Man fährt nicht mehr ­Auto, weil Benzin und Diesel etwas billiger zu haben sind. Man stellt die Ölheizung nicht ­höher, weil es weniger kostet. «Der direkte Verbrauch an Öl ist kaum elastisch», so UBS-Aktienanalyst Alexander Stiehler. Mittelfristig könnten aber Investitionen, um von Ölprodukten wegzukommen, auf die lange Bank geschoben werden – etwa Gebäudesanierungen und der Ersatz von Ölheizungen. Bei Neubauten sind Ölheizungen zwar trotz abstürzender Preise kaum mehr ein Thema, zumindest nicht in der Schweiz. Hier bleiben Wärmepumpen und Minergie-Standard Trumpf. Aber Hausbesitzer von Altbauten dürften mit einer Sanierung tendenziell zuwarten. Auch Industrieunternehmen, die knallhart rechnen, werden es sich zweimal überlegen, ob und wann sie in energieeffiziente Technologien investieren – man denke etwa an Fluggesellschaften, die den Kauf spritsparender Flugzeuge in Erwägung ziehen.

«Katastrophe für den Planeten»

Der tiefe Ölpreis könnte sich auch bei der Stromproduktion auswirken. Die Rentabilität des sogenannt neuen erneuerbaren Stroms, insbesondere der Wind- und der Sonnenenergie, rückt in noch weitere Ferne, als sie es ohnehin schon ist.

Zwar ist die Produktion von Strom aus Öl weltweit mit einem Anteil von nur fünf Prozent ­eine Randerscheinung.

Nur wenige Länder wie Saudi-Arabien, Mexiko oder Japan treiben in grösserem Mass Stromgeneratoren mit Öl an. Aber der tiefe Ölpreis könnte sich indirekt auswirken. «Gas- und Ölpreise entwickeln sich namentlich in Europa mit einer gewissen Parallelität, auch wenn es in den Langfristverträgen weniger explizite Kopplungen als früher gibt», sagt Urs Meister, Energiespezialist der Denkfabrik Avenir ­Suisse. Können aber Gaskraftwerke, die europaweit einen beachtlichen Produktionsanteil haben, billiger produzieren, drückt das die Strompreise nach unten – oder belässt sie länger auf dem tiefen Niveau, auf dem sie gegenwärtig in Europa sind.

«Somit erhöhen sich die Subventionen, die den Produzenten von erneuerbarem Strom bezahlt werden müssen, damit diese existieren können», so Meister.

Der Staat müsse tiefer in die Tasche greifen. «Ist das Subventionsbudget gedeckelt, reicht es einfach für weniger Alternativstrom­anlagen», sagt Meister. Peter Zweifel, Wirtschaftsprofessor der Universität Zürich, kommt zu ähnlichen Schlüssen. «Wenn die ­Öl-Baisse jahrelang anhält, würde sich das stark auf die Erneuerbaren auswirken.»

Der tiefe Ölpreis torpediert auch alle Anstrengungen zum Klimaschutz. Ob es je ein globales Abkommen zur Reduktion des CO2-Ausstosses geben wird, ist ohnehin zweifelhaft. Die Klimakonferenz in Lima im letzten Dezember endete mit einer Pseudoeinigung.

In ­Europa, das bisher im Klimaschutz vorangegangen ist, schwindet angesichts der wirtschaft­lichen Schwierigkeiten die Bereitschaft zu Selbstbeschränkungen.

Billiges Öl steigert den Anreiz, sich an einem allfälligen Klimaabkommen nicht zu beteiligen, zusätzlich. «Länder, die von einem Emissionshandel fernbleiben und auch von CO2-Abgaben absehen, können umso mehr wirtschaftliche Vorteile für ihre Industrie herausholen, je tiefer der Ölpreis ist», sagt Urs Meister von Avenir Suisse. «Der sinkende Ölpreis verringert den Druck, die Klimaverhandlungen zu einem erfolgreichen Abschluss zu bringen», sagt Peter Zweifel von der Universität Zürich. Viele finden das betrüblich. «Aus Umweltsicht ist der Preissturz eine Katastrophe für den Planeten», sagte Olivier Cadot, Direktor des Lausanner Konjunkturforschungsinstituts Crea, Anfang Januar.

Wie reagieren die Anhänger einer grünen Wende auf die unerwartete Ölpreis-Baisse? Zumindest einige von ihnen fallen durch hartnäckiges Leugnen auf oder setzen auf das Prinzip Hoffnung. Er gehe davon aus, dass das Öl «sehr schnell wieder teurer wird», meinte Stefan Batzli von AEE Suisse, der Dachorganisa­tion der Wirtschaft für erneuerbare Energien und Energieeffizienz, gegenüber der Aargauer Zeitung. Der grünliberale Nationalrat Josias Gasser, Betreiber eines Windrads bei Chur, ist gemäss Bündner Tagblatt überzeugt, dass es sich bei der Baisse um eine «vorübergehende Situation» handle. Es werde trotz allem immer schwieriger, «an den letzten Tropfen Öl zu kommen».

Der «Peak-oil» als Maxime

Energieexperte Daniele Ganser, ebenfalls ein Anhänger der Peak-Oil-These, betont gegenüber der Weltwoche, ein Preis von fünfzig Dollar pro Fass sei immer noch hoch, wenn man einige Jahre zurückschaue. Das stimmt zwar, ändert aber nichts daran, dass für das Gelingen der Energiewende Ölpreise von hundert Dollar oder mehr nötig wären.

Der Zerfall des Ölpreises ist Gift für das Gelingen der Energiewende.

Einige ihrer Anhänger gehen angesichts dieser neuen Gefahr schon mal in Stellung. Hanspeter Guggenbühl, Journalist und erklärter Wachstumsgegner, machte sich kürzlich für eine «variable Lenkungsabgabe» stark, die einen Mindestpreis für Öl garantiert. Ähnliches forderte Nick Beglinger: «Wenn die fossilen Energien langfristig günstig bleiben, braucht es höhere Lenkungsabgaben, um den Verbrauch senken zu können», so der Chef des Lobby-Verbands Swisscleantech gegenüber der «Tagesschau».

Welche Konsequenzen hat der Ölpreis­zerfall aus Sicht des Bundesamts für Energie (BfE), das bei der angestrebten Öko-Wende in der Schweiz federführend ist? Offenbar keine. «Der Ölpreis müsste über mehrere Jahre, wenn nicht Jahrzehnte auf tiefem Niveau verharren, um die Energie- und Klimapolitik des Bundes massgeblich zu beeinflussen», schreibt Ma­rianne Zünd auf Anfrage. Die BfE-Sprecherin weist darauf hin, dass die Ölressourcen «global begrenzt» seien. Der Peak Oil gilt beim Bund also noch immer als Maxime: «Was heute konsumiert wird, kann später fehlen, und wird somit langfristig wieder zu einem Preisanstieg führen», so Zünd.

Sie verweist zudem auf die Klimakonferenz in Lima. Dort hätten sich «insbesondere die beiden grössten Emittenten, die USA und China, zu Klimazielen verpflichtet». Der Realitätsverlust beim Bundesamt für Energie scheint weit fortgeschritten zu sein.

=================================================================

Anmerkung EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

| Die Weltwoche, Ausgabe 05/2015 |  Donnerstag, 22. Januar 2015 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

==================================================================

PDF zum Download unten

==================================================================

Related Files




GWPF mit Analyse zur klimatischen ‘Gehirnwäsche’ an britischen Schulen

Bild rechts: Beispiel, wie das Verständnis von Grundschulkindern der anthropogenen globalen Erwärmung erzeugt werden soll. Quelle: Collace Primary School (Wensite perth & Kinross)

Im Folgenden die Kurzfassung der Analyse:

Executive summary

Wir haben Beispiele schwerer Fehler gefunden sowie irreführende Behauptungen und Verzerrungen durch die unzureichende Behandlung von Klimathemen in Lehrmaterialien für Schulen. Darunter sind viele verbreitet genutzte Lehrbücher, Lehrer unterstützende Ressourcen und Schülerprojekte. Wir finden Beispiele von Ökoaktivismus, den man sich an Schulen frei entfalten lässt, und die Schulen ermutigen ihre Schüler dabei mitzumachen. In jedem untersuchten Teilaspekt liegt der Schwerpunkt auf Angsterzeugung und auf zunehmende Befürchtungen, gefolgt von gezielten Anweisungen, wie Schüler leben sollten und auch dazu, was sie denken sollen. In einigen Fällen fanden wir die Ermutigung, „kleine politische Aktivisten“ in Schulen zu werden, was ihnen eine schwere Last von Verantwortung auferlegt für ihre Aktionen zur ,Rettung des Planeten‘, nicht zuletzt dadurch, dass man Druck auf deren Eltern ausübt. Das National Curriculum wurde kürzlich durch die Regierung begutachtet, aber die vorgeschlagenen Änderungen scheinen nicht geeignet, derartige Praktiken zu unterbinden. Umfragen zeigen, dass viele Kinder wütend oder ängstlich sind durch das, was man ihnen bzgl. des Klimageschehens einredet. Lehrer und Administratoren haben weitgehend freie Hand bei der Auswahl der Lehrbücher, anderen Materialien, Referenten von außerhalb und Schülerreisen für Schüler unter der Voraussetzung, dass diese sich entsprechend der auf Linie liegenden Ziele verhalten. Dadurch erhebt sich das Risiko, dass Einige alarmierende und politisch befrachtete Quellen auswählen, um die Kinder für das ,Umweltproblem‘ zu gewinnen. Dieses ,Problem‘ wird oftmals präsentiert durch den Begriff ,Nachhaltigkeit‘, ein kaum definiertes Schlagwort, mit dem politische und persönliche Aktionen gerechtfertigt werden, an denen kaum fundamental Kritik geübt wird. Viele Kampagnen von NGOs und anderer Organisationen mit Interessen wie Energieunternehmen bieten Lehrmaterialien und andere Quellen für den Gebrauch an Schulen an. Einige davon werden vermutlich auch genutzt. Es gibt eindeutig in dieser Hinsicht sehr ernste Bedenken. Wir appellieren daher an den Minister für Bildung in UK sowie an deren Kollegen in Schrottland, Wales und Nordirland, dringende Untersuchungen vorzunehmen hinsichtlich der Klimabildung an unseren Schulen. Nur eine systematische Evaluierung dessen, was da vor sich geht, kann das Ausmaß der Indoktrination erfassen ebenso wie die emotionalen Schäden und Bildungslücken der Schüler, zu denen es zweifellos dadurch kommt.

———————————-

Apropos “The Hockey Stick Illusion”. Ein wichtiges Element der Hockeyschläger-Affäre waren Baumringe, die in kreativer Weise in fragwürdige Klimasignale umgesetzt wurden. Ein Forscherteam um Matthew Salzer von der University of Arizona hat nun eine weitere Bestätigung gefunden, dass die damals verwendeten Baumringdaten krass von der Temperaturentwicklung abwichen. Alles schön nachzulesen in WUWT, Climate Audit und JoNova basierend auf Salzer et al.. Hier die Kurzfassung der Arbeit aus den Enviromental Research Letters, die dort im November 2014 erschien:

Sich ändernde Klimareaktion in Baumringen von Grannenkiefern mit Höhe und Aussehen

In den White Mountains in Kalifornien wurden acht Chronologien aus der Dicke von Baumringen in Grannenkiefern (Pinus longaeva) entwickelt, und zwar von Bäumen an der oberen Baumgrenze und unmittelbar unter der oberen Baumgrenze entlang nach Norden bzw. Süden weisender Querschnitte von der Baumgrenze bis etwa 90 m darunter. Es gibt Beweise für eine auf das Klima reagierende Schicht zwischen etwa 60 und 80 Metern unterhalb der Baumgrenze. Über dieser haben die Bäume bzgl. ihres Wachstums auf die Temperatur reagiert, darunter aber nicht. Chronologien von 80 m oder mehr unter der Baumgrenze zeigen eine Änderung bei den Reaktionen auf das Klima und korrelieren nicht stark mit temperatursensitiven Chronologien, die entwickelt wurden aus Bäumen an der oberen Baumgrenze. Vielmehr spiegeln sie mehr von Niederschlag abhängige Chronologien weiter unten. An den höchsten Stellen wachsen die Bäume auf Südhängen schneller als auf Nordhängen. Hohe Wachstumsraten im Bereich der Baumgrenze auf Südhängen haben seit Mitte der neunziger Jahre abgenommen. Dies zeigt die Möglichkeit, dass die Klimareaktion der höchsten, nach Süden zeigenden Bäume sich geändert haben könnten und dass die Temperatur nicht länger der Hauptfaktor hinsichtlich des Wachstums an Südhängen sein könnte. Diese Ergebnisse zeigen, dass zunehmende Wärme zu einer Divergenz zwischen Wachstum der Bäume und Temperatur führen kann, und zwar an zuvor temperatur-limitierten Stellen.

———————————-

Ein Musikfestival in Würzburg springt auf den Klimwandelzug auf, um seine Existenz zu retten. Im Jahr 2013 wurden die Musikanten vom Hochwasser geschädigt, einem Wetterereignis. Da es für Wetter derzeit kaum Verständnis gibt, wurde das Missgeschick schnell als Klimaschaden umbetitelt und dadurch kräftig Spendengelder eingesammelt. Die Welt berichtete am 5. Dezember 2014:

Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte Festivalleiter Stefan Oschmann am Freitag in Würzburg.

Sicher macht es Sinn, ein Musikfestival gegen Wetterrisiken abzusichern. Die hat es immer gegeben und werden auch in Zukunft ihr Unwesen treiben. Aus klimatischer Sicht ist es jedoch ärgerlich, dass hier mit falschen Karten gespielt wird. Siehe unseren Blogbeitrag “Was waren die wahren Hintergründe der mitteleuropäischen Flut 2013?“.

———————————-

Nochmal Die Welt, diesmal vom 7. Dezember 2014:

Greenpeace: Stürme auf Philippinen zeigen Gefahren durch Klimawandel
Die heftigen Stürme auf den Philippinen verdeutlichen nach Ansicht der Umweltschutzorganisation Greenpeace die Bedrohungen durch den Klimawandel. “Die Natur verhandelt nicht”, sagte Greenpeace-Chef Kumi Naidoo am Sonntag bei einem Besuch in dem Land. “Wir müssen einsehen, dass uns die Zeit davon läuft”, ergänzte er.

Tja, da merkt man, dass Naidoo kein Naturwissenschaftler ist, sondern Politikwissenschaften studiert hat. Denn seriöse Forscher erteilen der Behauptung eine Absage und finden keinen Bezug zwischen Taifun Haiyan und dem Klimawandel. Siehe unseren Blogbeitrag “Klimaaktivisten missbrauchen Taifun Haiyan für eigene Zwecke: Studien fanden für die vergangenen Jahrzehnte keine Zunahme der Taifunaktivität“.

———————————-

Ein Lob an die grösste Schweizer Konsumentenzeitschrift, das Migros-Magazin. In einem Gletscherartikel werden im Text Zweifel an der unumkehrbaren IPCC-Schmelzhypothese zugelassen. Es ist schön, dass man Prof. Christian Schlüchter zu Wort kommen ließ, was heutzutage schon als grosser Fortschritt gewertet werden kann. Hier der entsprechende Auszug aus dem Artikel “Im ewigen Eis”, der am 8. Dezember 2014 in Migros erschien:

Obwohl [der Langgletscher] der grösste Gletscher der Alpen ist, könnte er aufgrund der Klimaerwärmung in gut 100 Jahren bereits verschwunden sein. Diese Meinung hat der Glaziologe Martin Funk von der ETH Zürich jedenfalls 2006 gegenüber «10 vor 10» vertreten. Er prognostizierte, dass es in rund 100 Jahren, wenn überhaupt, Gletscher nur noch auf Höhen über 4000 Metern geben könnte. Andere wiederum weisen darauf hin, dass es vorübergehende Gletscherschwunde schon immer gegeben habe. Dazu zählt etwa der Berner Geologe Christian Schlüchter, der im SAC-Magazin «Alpen» kürzlich die These konstatierte, dass es seit dem Ende der letzten Eiszeit vor 12 000 Jahren in den Alpen zwölf Phasen gegeben hätte, in denen die Gletscher deutlich kleiner waren als heute. Hansueli nimmts fatalistisch: «Uns Bergführern bleibt derzeit nichts anderes übrig, als uns den Gegebenheiten anzupassen.»

Das dort angesprochene Interview von Prof. Schlüchter in der SAC-Zeitschrift “Die Alpen” (Nr. 4/2014) ist für Mitglieder per Web abrufbar.

Link: http://www.kaltesonne.de/klimanews5-3/

Beitrag zuerst erschienen auf „Die Kalte Sonne“. Übersetzung der englsichen Passagen von Chris Frey EIKE




Witz des Tages: 1700 Privatjets landen in Davos, um auf dem Weltwirtschaftsforum über den Klimawandel zu diskutieren

Das alljährliche Treffen einflussreicher Strippenzieher, von Ökonomen, Journalisten, führenden Politikern aus aller Welt sowie Popstars und Industrieführern am Freitag dieser Woche dient wie immer dazu, die verschiedensten Themen zu erörtern, die nach Ansicht der Beteiligten der Welt auf den Nägeln brennen.

Eines dieser Themen betrifft das Problem, wie man den Widerspenstigen, die sich weigern, die Existenz des Klimawandels anzuerkennen, begegnen soll, da diese Einstellung die Einführung der seit Langem geplanten Kohlenstoff-Steuer behindert.

Sich der Ironie offenbar in keiner Weise bewusst, buchten die Teilnehmer des WEF weit mehr als 1500 Flugzeuge, um nach Genf zu gelangen – eine sehr negative Ökobilanz.

mit Dank an Spürnase Hans Haress

Weiterlesen beim Kopp Verlag