1

Die Schiefer-Phobie bringt die europäische Industrie in Schwierigkeiten

„Die Produktionskosten mit Schiefergas sind niedriger als alles, was wir kurzfristig in Europa erreichen können”, sagt Harald Schwager, Vorstandsmitglied beim deutschen Chemieriesen BASF SE BAS.XE +1.92%. Die zunehmende Wettbewerbsfähigkeit der USA wird bei energieintensiven Produkten zuerst augenfällig werden, aber langfristig besteht das Risiko, dass die gesamte Erzeugungskette beschädigt wird, fügte Schwager hinzu.

Billiges Gas befeuert den Rust Belt

Die Herausforderung kommt, da Europa gerade strategische Schlüsselweichen hinsichtlich seiner Energiezukunft stellt, und die Abhängigkeit von Erdgas, das zumeist importiert werden muss, wird wahrscheinlich zunehmen. Einige Länder – einschließlich Deutschland, die größte Wirtschaft – haben beschlossen, Kernkraft auslaufen zu lassen, und auf die Regierungen wird Druck ausgeübt, öffentliche Zuwendungen für Erneuerbare zurückzufahren, um das Haushaltsdefizit nicht ausufern zu lassen.

Aber Europa ist hinsichtlich der Entwicklung seines eigenen Potentials an Erdgas geteilt: Länder wie Frankreich und Bulgarien sind dagegen, während Polen und andere auf die Ausbeutung brennen, hauptsächlich um ihre Abhängigkeit von russischen Erdgasimporten zu reduzieren.

Chemiewerke wurden traditionell in der Nähe der Märkte für ihre Produkte gebaut, da Rohstoffe aus verschiedenen Teilen der Welt herangeholt werden können und Investitionen in der Region als sicherer angesehen wurden als in anderen Ländern. Aber der unterschiedliche Energiepreis könnte diese Dynamik verändern, besonders weil eine Industrie getroffen wird, die ohnehin schon infolge der Wirtschaftskrise unter Absatzschwierigkeiten leidet.

„Die Bedrohung liegt darin, dass die chemische Industrie in den USA attraktiver für Investitionen wird und dass dies auf Kosten der Industrie in der EU geht”, sagte Wim Hoste, ein Analyst, der sich für die chemische Industrie bei KBC Securities in Brüssel spezialisiert hat.

Es ist wegen der hohen damit verbundenen Kosten unwahrscheinlich, dass Unternehmen Werke in Europa außer Betrieb nehmen, nur um sie an einer anderen Stelle wieder aufzubauen. Aber da die Produktionsstätten immer älter werden und anderswo neuer Bedarf aufkommt, könnten sich die Unternehmen überlegen, die Produktion in die USA zu verlagern und die Erzeugnisse von dort nach Europa zu exportieren.

Alessandro Torello, The Wall Steet Journal

The Wall Street Journal, 24 October 2012 [dieser Link geht nicht!]

Link: http://www.thegwpf.org/shale-phobia-spells-trouble-for-europes-industry/

Übersetzt von Chris Frey EIKE




Falscher Alarm der Munich Re

Dennis T. Avery can be reached at 540-337-6354 or by email: cgfi@mgwnet.com.

Deutsche Medien verabschieden sich von der Grünen Energie

von Dennis T. Avery, 21.10.2012

Medien aus Deutschland, einem der “grünsten” europäischen Länder, wenden sich neuerdings so rasch von der “grünen” Energie ab, wie es nur angesichts der träge folgenden öffentlichen Meinung geht. Noch vor einigen Jahren hatte sich Deutschland dem EU-Ziel der Beendigung des Verbrennens von fossiler Energie „voll verschrieben”. Viele Windräder wurden aufgestellt, sogar Solarfarmen trotz des oft bewölkten Himmels aufgebaut. Nach dem Tsunami hat Kanzlerin Angela Merkel angekündigt, Deutschland werde seine Kernkraftwerke rasch abschalten und mehr Strom aus den “Erneuerbaren” nutzen.

Inzwischen verbrennt Deutschland mehr Kohle als je zuvor und verschluckt sich an der riesigen Menge grüner Subventionen, zu denen es sich verpflichtet hat.
Der Niedergang der grünen Energien hat sicher mit dem Ende des Erderwärmungstrends nach 1998 begonnen. Nach 2008 erlebte Deutschland vier kalte Winter in Folge. Der lange Zeit den Linken zugerechnete Autor Fritz Vahrenholt schrieb zusammen mit dem Geologen Sebastian Lüning das Buch: “Die kalte Sonne: Warum die Klimakatastrophe nicht stattfindet“

Die Autoren berufen sich auf den natürlichen 1.500-jährigen Klima-Zyklus und dass die Sonne inzwischen in eine kalte Phase einträte. (Genau wie in meinem Bestseller Unstoppable Global Warming Every 1,500 Years.

Vahrenholt kam genau zur rechten Zeit. Die hohen Kosten des „grünen“ Stroms treffen nun den deutschen Normalbürger schmerzlich. Durch das Abschalten der Kernkraft drohen Stromausfälle. Deutsche Industrien mit hohem Energieverbrauch drohen mit Abwanderung in die Dritte Welt. 

Bedeutende Deutsche Medien verbreiteten Vahrenholts Meinung, seine aktivistische Vorgeschichte und seine Ablehnung der grünen Energie. Kürzlich hat auch noch der Spiegel, eine Story veröffentlicht mit einer Anklage gegen die Munich Re, den deutschen Rückversicherungsriesen, wegen deren Angstmache mit der Klimaerwärmung, um höhere Prämien zu rechtfertigen. Spiegel-Reporter Alex Bojanowski schrieb, die Munich Re “behauptet, sie hätte erste Beweise dafür gefunden, dass der menschenverursachte Klimawandel immer mehr Unwetter in Nordamerika auslösen würde.”

“Nirgendwo in der Welt,” behauptet die Munich Re, “ist die steigende Anzahl von Naturkatastrophen deutlicher als in Nordamerika. [Die Studie der Munich Re] zeigt eine nahezu Verfünffachung von wetterbezogenen Schadensereignissen in Nordamerika in den vergangenen drei Jahrzehnten. Im Vergleich dazu: Vierfach in Asien, Zwei-ein-halb-Fach in Afrika, Verdoppelung in Europa und Ein-ein-halb-Fache in Südamerika.“

Peter Hoppes, Munich Re Direktor für Geo-Research sagte dazu: “Eine solche Beweiskette für die Ankunft des Klimawandels gab es noch nie.”

Der Spiegel zitiert aber auch Roger Pielke, Jr. von der University of Colorado, dessen Studie über amerikanische Tornado-Schäden bald in der Fachzeitschrift Environmental Hazards erscheinen soll. Pielke zufolge haben die Tornados in den USA seit 1950 tatsächlich in den vergangenen Jahrzehnten weniger Schäden verursacht. die Dürren waren kürzer und weniger heftig.

Die Fachzeitschrift Natural Hazards hatte bereits eine Sonderausgabe (Juni 2003) dem Extremwetter gewidmet. Die Fachleute hatten keine Beweise für eine Zunahme extremer Unwettererscheinungen während der Erwärmungsphase im 20. Jh. gefunden.

Der Atmosphären-Wissenschaftler Clifford Mass von der University of Washington wird zitiert mit den Worten: “Die meisten Behauptungen sind sinnlos und widersprechen den Beobachtungen.” Mass hält “die Übertreibung und Verfälschung des Trends für unverantwortlich.”

Bojanowski hat einen ausgezeichneten “Riecher” für neue Nachrichten und deren Behandlung. Er greift die von der Regierung gewünschten Windturbinen nicht an, die den Durchschnittsdeutschen in den Bankrott zu treiben drohen. Er greift die Firma an, die die Karte der vergangenen grünen deutschen Angst ausspielt. Er wendet sich auch nicht gegen die Klimamodelle und den UNO-Weltklimarat, der den Wahn mit seinen inzwischen lachhaft erscheinenden Vorhersagen anfachte. Damit wird man sich auch noch auseinandersetzen, es sei denn, die Temperaturen stiegen wieder stark an und widerlegten die beginnende Abkühlungsphase der Pazifischen Oszillation.

Dennis T. Avery, ist Senior Fellow am Hudson Institute in Washington, D.C. Er ist Umwelt-Wirtschaftsfachmann. Davor war er Senior Analyst im U.S. Außenministerium. Mit S. Fred Singer hat er das Buch:  „Unstoppable Global Warming Every 1500 Years“ geschrieben.
Leser können ihm schreiben: PO Box 202 Churchville, VA 2442; E-mail: cgfi@mgwnet.com.
Wir weisen auf unsere Webseite hin www.cgfi.org

Übersetzung: Helmut Jäger, EIKE




Überzeugungstäter: „Wie Journalisten grüne Themen pushen“

Mein Schatz hat’s Grün so gern

Drei verschiedene Befragungen belegen klar, wem die deutschen Journalisten politisch nahe stehen: Den Grünen. Ob diese Haltung eine Auswirkung hat, ist nicht bewiesen. Es deutet aber Vieles darauf hin.

Verschiedene Studien haben versucht, die Parteineigung deutscher Journalisten und Journalistenschüler zu eruieren. Zieht man die Ergebnisse von drei vorliegenden Befragungen* (siehe Grafik rechts und Anhang am Ende des Artikels) zusammen, dann kommt Bündnis 90/Die Grünen auf eine Zustimmung von 33,8 Prozent, mehr als ein Drittel also. Die SPD kommt auf 20,8 Prozent. Zwischen den beiden liegt die Gruppe jener, die behaupten, ihnen sei keine Partei nahe: 27,9 Prozent. Ganz sicher nicht nahe ist den Journalisten allerdings die vom Volk 2009 gewählte Regierung: CDU/(CSU) und die FDP finden lediglich 7,6 beziehungsweise 6,9 Prozent Zustimmung. Eine rot-grüne Koalition unter deutschen Journalisten? Mit 54,6 Prozent Zustimmung: No problem. Eine schwarz-gelbe? Mit 14,5 Prozent Zustimmung: No way.

Bild 1: Parteineigung von Journalisten in Deutschland. Die Balken zeigen die Sitzverteilung im Bundestag an (Wahl von 2009), die Punkte drei verschiedene Erhebungen zur Parteineigung deutscher Journalisten und Journalistenschüler.

Bild 2: Parteineigung von Journalisten in Deutschland – in Zahlen

Hat die politische Haltung von Journalisten Einfluss auf ihre Texte und ihre Themenwahl? Das bleibt umstritten und kaum nachweisbar. Doch vergessen wir nicht: Journalismus ist nicht irgend ein Beruf. Journalisten sind generell Überzeugungstäter: sie nehmen schlechtes Ansehen, schlechte Bezahlung und unregelmässige, manchmal auch lange Arbeitszeiten in Kauf, weil sie mit ihrer Arbeit, ihren Recherchen etwas verändern wollen, und sei es auch nur das Schaffen von Transparenz in einem kleinen Bereich.

Kommen wir zu ein paar nach wie vor unkorrigiert online stehenden Schlagzeilen vom 19. und 20. September 2012, die so nicht haltbar sind:

•   «Genmais-Futter macht Ratten schwer krank» (handelsblatt.de)

•   «Studie: Mit Genmais gefütterte Ratten sterben früher an Krebs» (AFP)

•   «Genmais lässt Ratten früher sterben» (tagesschau.sf.tv)

•   «Schädlicher Genmais» («Süddeutsche Zeitung»)

Die hinter den Meldungen stehenden Studienergebnisse wurden von Anfang an bezweifelt, so vom Deutschlandfunk bereits am 20. September. Mit gutem Grund, denn es wäre schon eine grössere Diskussion wert, wenn Genmais-Futter «schädlich» wäre und «schwer krank» machen würde. Die These «ist experimentell nicht ausreichend belegt», urteilte wenig später das deutsche Bundesinstitut für Risikobewertung. Und die Europäische Behörde für Lebensmittelsicherheit EFSA sieht sich «derzeit ausserstande, die Schlussfolgerungen der Autoren als wissenschaftlich fundiert zu betrachten». Den ganzen Fall schön aufgerollt hat Spiegel Online: «Der kalkulierte Genmais-Schock».

Oder nehmen wir den von deutschen und Schweizer Politikern kürzlich überraschend beschlossenen Ausstieg aus der Atomenergie. Obwohl es sonnenklar ist, dass ein solcher Ausstieg den Steuer- und Stromzahler sehr viel Geld kosten wird, geben sich Journalisten überrascht, dass jetzt, wo die Kosten den Konsumenten erreichen, Diskussionen darüber aufkommen. Deutschland sei «erfasst von einer Strompreis-Hysterie», behauptete das ZDF kürzlich in der Sendung «Berlin direkt».

Jegliche Distanz verloren deutsche Journalisten bei der Berichterstattung über das mehr als 15′871 tote, 2778 vermisste und 6114 verletzte Menschen (Stand: 10. Oktober 2012) fordernde Erdbeben in Japan am 11. März 2011. Es war noch kaum bekannt, welche Gebiete und wie viele Personen davon betroffen waren, als sie sich fast ausschliesslich auf Spekulationen über austretendes radioaktives Material verlegten. In vielen Stunden Live-Fernsehen wurden deutsche Zuschauer mit wenig Fakten und viel Hysterie geängstigt. Gegenüber den Tausenden Toten und den Hunderttausenden mit zerstörten Lebensgrundlagen, die das Erdbeben und die Überschwemmungen verursachten, steht die Reaktorkatastrophe: sie forderte 3 Todesopfer, einige Verletzte sowie eine unbekannte Anzahl von Strahlengeschädigten. Die Nuclear Energy Agency der OECD hält 2400 Radioaktivität ausgesetzte Mitarbeiter fest, davon deren 8 mit einer Belastung von über 250 Millisievert, siehe dazu auch «Weder Strahlentote noch Krankheiten nach Fukushima» (tagesschau.sf.tv).

Bild 3: Nach dem Erdbeben in Japan: Verlauf der Thematisierung der Kernenergie im eigenen Land in Zeitungen (Screenshot kepplinger.de)

Die Berichterstattung in Deutschland über den Reaktorvorfall war wesentlich intensiver als in der Schweiz, Frankreich oder England, das belegt auch eine Studie (PDF-Datei) von Hans Mathias Kepplinger und Richard Lemke. Es wurden dazu 25 Zeitungen und Zeitschriften sowie 12 TV-Nachrichtensendungen untersucht. Die erste von drei daraus geschlossenen Folgerungen lautet:

Deutsche Medien haben im Unterschied zu den englischen und französischen Medien die Reaktorkatastrophe in Japan durch die Intensität und den Inhalt ihrer Berichterstattung als typisch für die Gefahren der Kernenergie dargestellt. Fukushima wurde dadurch zum Menetekel, das Konsequenzen verlangt. Die schweizerischen Medien haben ähnlich berichtet.

Zum kostspieligen Projekt Atomausstieg, der diesen Namen erst dann verdienen wird, wenn Atomstrom weder hergestellt noch importiert wird, hatten die Stromzahler Deutschlands bisher nichts zu sagen. Derzeit kann man nicht mal von zwei Meinungen sprechen, wird doch Atomenergie in Deutschland so verteufelt, dass es schwierig ist, überhaupt einen Befürworter zu finden, oder zumindest jemanden, der diese Haltung offensiv vertritt. Persönlich bin ich nach fünf Jahren Aufenthalt in Berlin noch keinem einzigen Befürworter der Atomkraft begegnet (gesucht habe ich allerdings nicht).

Bild 4: Nach dem Erdbeben in Japan: Generelle Gewichtung der drei Geschehnisse (Screenshot kepplinger.de)

Bild 5: Nach dem Erdbeben in Japan: Tendenz der Aussagen zu Kernenergie von Journalisten und von Experten (Screenshot kepplinger.de)

In den TV-Diskussionen nach Fukushima musste da schon Weltwoche-Journalist Alex Baur einspringen, so bei Kerner; es fand sich offenbar niemand in Deutschland, der die Atomkraft verteidigen mochte. Baur sagt auf Anfrage: «Sie wollten zuerst Roger Köppel einladen, doch dieser verwies auf den Autor der Titelgeschichte, mich. Nach der Sendung wollte das Publikum vor allem mit mir reden. Und die beiden Wissenschaftler der Diskussionsrunde sprachen mir gegenüber von einer unglaublichen Panik, öffentlich als ‹Verharmloser› auftreten wollten sie dann aber auch nicht.

» Weltwoche-Chefredaktor Roger Köppel erzählte kürzlich anlässlich eines Streitgesprächs mit Cédric Wermuth (Video, ab Minute 26), er habe, als er noch Chefredaktor der bürgerlich-konservativen Tageszeitung «Welt» war, eine geheime Umfrage gemacht, was die «Welt»-Journalisten denn wählen. Herausgekommen sei eine Präferenz von 75 – 80 Prozent für Grüne und SPD.

So wie es gute Gründe gegen die Atomenergie gibt, gibt es gute Gründe dafür. Anders, als man durch den Konsum der Medien den Eindruck haben könnte, ist auch gar nicht zwingend eine Mehrheit der Bevölkerung dagegen. Die Schweizer Stimmbürger beispielsweise haben an der Urne mehrmals ihre Zustimmung zur Atomkraft zum Ausdruck gebracht, noch am 13. Februar 2011 wurde der Bau eines neuen Atomkraftwerks (Mühleberg II) beschlossen. Die Einwohner der Gemeinde Mühleberg befürworteten den Bau mit 61 Prozent, die Einwohner des Kantons Bern mit 51,2 Prozent.

Volksabstimmungen bringen gerne mal Medienhysterien wieder ins Lot, zuletzt beim Bahnhofsprojekt Stuttgart21, das viele deutsche Medien über Monate aktiv und im Sinne der Gegner skandalisiert hatten. Seit der Volksabstimmung vom 27. November 2011, bei der sich 58,9 Prozent der Bürger für eine weitere Finanzierung des Projekts entschieden hatten, ist die (aggressive) Diskussion darüber fast ganz beendet.

Wenn Medien grüne Themen pushen, dann geschieht das nicht nur aus ideologischen, sondern auch kommerziellen Gründen. Viele Medienkonsumenten, gerade der intelligenteren Medien, sind nun mal (potentielle) Grünen-Wähler, und die wollen bedient werden. Wenn in der «Frankfurter Rundschau» seitenweise Texte über die 1968er zu lesen sind, in der «Zeit» über fehlende Ausbildungschancen und Kinderkrippen, in der «Welt» über den Unsinn des Sozialismus und in der «Jungen Welt» über den Unsinn des Kapitalismus, dann wird damit immer auch der Leser bedient. Deshalb liest man in solchen Medien auch kaum je etwas Positives über die Unterschicht. Das sind nämlich keine potentiellen Kunden.

Der Unterschicht bleiben Boulevardzeitungen und Privatsender, die jene ganz unten jenen fast ganz unten zum Amüsement präsentieren.

AUTOR Ronnie Grob

* Quellen zur Grafik «Parteineigung von Journalisten in Deutschland»:
- Quelle Journalisten (2005): «Journalismus in Deutschland 2005» (media-perspektiven.de), ein Auszug von Befunden einer Repräsentativbefragung deutscher Journalisten von Siegfried Weischenberg, Maja Malik und Armin Scholl, veröffentlicht in «Media Perspektiven» 7/2006, Seiten 346-361
- Quelle Journalistenschüler (2008): «Die Journalistenschüler – Rollenselbstverständnis, Arbeitsbedingungen und soziale Herkunft einer medialen Elite» (library.fes.de) von Peter Ziegler.
- Quelle Politjournalisten (2010): «Politikjournalistinnen und -journalisten – Aktuelle Befunde zu Merkmalen und Einstellungen vor dem Hintergrund ökonomischer und technologischer Wandlungsprozesse im deutschen Journalismus» (dfjv.de) von Magreth Lünenborg und Simon Berghofer
- Quelle «Anteil Sitze im Bundestag»: «Sitzverteilung des 17. Deutschen Bundestages» (bundestag.de)

Die Grafik in höherer Auflösung. «Mein Schatz hat’s Grün so gern» ist der Refrain des Lieds «Die liebe Farbe» von Franz Schubert. Die politische Haltung des Autors, der übrigens auch schon mal die Grünen gewählt hat, findet sich hier.

TAGS

Alex Baur, Atomenergie, Deutschland,Die Welt, Fukushima, Grüne,Journalisten, Parteien, Politik, Roger Köppel, Weltwoche

Zuerst erschienen in der Medienwoche.ch;  

Einleitung übernommen von Wolfgang Röhl ACHGUT




Noch mehr Aufruhr in der Amerikanischen Physikalischen Gesellschaft über ihr Statement zur globalen Erwärmung

Die American Physical Society und die Frage der globalen Erwärmung

Eine persönliche Erinnerung

„Es liegt in der Natur der Ignoranz und der Natur der Ungewissheit, dass es Hoffnung auf eine fortgesetzte Bewegung der Menschen in eine Richtung gibt, die nicht begrenzt oder permanent blockiert wird, wie es schon so oft zuvor in der Geschichte der Menschheit gewesen ist.“ Richard Feynman

Der begleitende offene Brief betrifft eine Episode in der andauernden Debatte über die größte wissenschaftliche Frage unserer Zeit – die anthropogene globale Erwärmung. Aber in Wirklichkeit geht es in der Debatte um die Wissenschaft selbst und wie sie durchgeführt wird sowie über den wissenschaftlichen Prozess, der von großen Denkern und Ausführenden über die Jahrhunderte zusammengetragen worden ist.

Der wissenschaftliche Prozess beruht auf der Sammlung beobachteter Beweise sowie der Entwicklung, Verifikation und Falsifizierung prädikativer Theorien. Sie beruht auch auf ungehinderten Nachforschungen und dem freien Informationsaustausch unter Wissenschaftlern, und sie beruht auf der Freiheit der Diskussion über die wissenschaftlichen Beweise. Ohne diese Freiheiten kann die Wissenschaft so korrupt werden wie die Schlimmsten der menschlichen Einrichtungen. Sie kann bürokratisch sein, anders Denkende unterdrücken, versuchen mit einer Stimme zu sprechen und – vielleicht am allerschlimmsten – sie kann williges ausführendes Werkzeug politischer Interessen werden gegen das Versprechen von Unterstützung, genau wie jedes andere Einzelinteresse. Die Kaperung und Korruption der Biologie durch Trofim Lysenko in der ehemaligen Sowjetunion sowie die eugenischen Erfahrungen des 20. Jahrhunderts sind Warnungen davor, wie Wissenschaft „entarten“ kann.

Vor diesem Hintergrund ist es verständlich, dass eine der entmutigendsten Entwicklungen, die sich aus der Frage der globalen Erwärmung ergibt, die Okkupation einiger amerikanischer wissenschaftlicher Organisationen und im besonderen der National Academy of Sciences gewesen ist, und zwar durch jene, die an der Verbreitung des Klimaalarms interessiert sind und daran, die der Hypothese widersprechenden wissenschaftlichen Beweise zu unterdrücken. Die American Geophysical Union und die American Meteorological Society [und auch die Deutsche Meteorologische Gesellschaft, A. d. Übers.] haben sich aus ihrer traditionellen Rolle als Unterstützer wissenschaftlicher Forschung zugunsten des Verfechtens einer Ideologie verabschiedet. Auch ist weithin bekannt, dass Wissenschaftler, die versuchen, widersprechende wissenschaftliche Beweise zu veröffentlichen, großen Schwierigkeiten gegenüber stehen, dies in den Journalen zu tun, die von diesen Gesellschaften und Anderen gesponsert werden.

Allerdings hat die APS – die weltweit zweitgrößte Gesellschaft von Physikern und meine „Heimatgesellschaft“ – kurz vor diesem Niveau schriller Propaganda und Verzerrung Halt gemacht. Von Physikern, die vielleicht in ihrem weit ausgereiften Fachgebiet eine weiter gefasste Perspektive als einige andere praktische Wissenschaftler haben, könnte man erwarten, dass sie distanzierter damit umgehen, wenn eine komplexe und schwierige wissenschaftliche Frage als „geklärt [settled]“ bezeichnet wird. Und genau das war auch der Fall… bis im Jahr 2007 das Statement on Climate Change herausgegeben worden ist.

Also beginnt die Geschichte zur Entstehung des Briefes mit der Entwicklung und der Annahme des APS-Statements. Es gibt Beweise, dass der Prozess zur Entstehung des Statements selbst zumindest höchst fragwürdig, wenn nicht glatt illegitim war. Es ist bekannt, dass eine kleine Gruppe von Individuen, die mit dem im Originalentwurf des offiziell damit beauftragten Komitees enthaltenen Grad des Alarms nicht zufrieden waren, einstimmig und nicht autorisiert den Grad des Alarms angehoben hat. Ein leitender APS-Profi hat vertraulich mitgeteilt, dass:

„Dies (der Originalentwurf) ist unglücklicherweise ‚von 12 bis Mittag beim Essen’ durch viele Vorstandsmitglieder (der APS) verändert worden, die nicht mit dem ‚milden Ton’ des Entwurfs einverstanden waren. Dann wurde über das veränderte Statement am Ende einer Vorstandssitzung abgestimmt (möglicherweise als viele schon gehen wollten, um ihre Flüge nicht zu verpassen)“.

Das überarbeitete Statement war wesentlich radikaler und enthielt die antiwissenschaftliche Phrase, die viele Mitglieder so verärgert hat und die ins Zentrum der opponierenden Mitglieder geraten ist: „Die Wissenschaft ist unwiderruflich“. Ihrer Natur nach ist Wissenschaft niemals unwiderruflich; und tatsächlich ist die Geschichte der Wissenschaft angefüllt mit Beispielen, wie tief verwurzelte Überzeugungen durch nachfolgende Erkenntnisse verworfen werden mussten. Der Pionier der Wissenschaft, Erfinder und Präsident der Royal Society drückt es so aus:

„Nichts ist so gefährlich für die Entwicklung des menschlichen Geistes wie die Vermutung, dass unsere Ansichten der Wissenschaft endgültig sind, dass es in der Natur keine Geheimnisse mehr gibt, dass unser Triumph vollständig ist und das es keine neue Welten zu entdecken gibt”.

Aus Sorge über dieses Statement bin ich im Jahr 2009 einem kleinen Team von APS-Mitgliedern beigetreten. Wir formulierten eine von fast 300 Physikern unterzeichnete Petition und haben sie auch eingereicht, das Statement moderater abzufassen. Die Unterschriften wurden jeweils einzeln eingeholt und enthielten auch fast 100 Unterschriften von Mitgliedern großer wissenschaftlicher Gesellschaften, 17 Mitglieder nationaler Akademien und zwei Nobelpreisträger. Eine Anzahl von ihnen hat wesentliche Forschungen zum Thema globale Erwärmung durchgeführt und veröffentlicht, hat Bücher darüber geschrieben oder hat in benachbarten Gebieten von Meteorologie und Klima gearbeitet. Nahezu alle hatten ihren Hintergrund in wissenschaftlichen Schlüsselgebieten, die dem Thema globale Erwärmung zugrunde liegen.

Die Antwort der APS auf diese Petition bestand darin, dass man sie einem Komitee übergeben hat, das Monate brauchte, um das aus 157 Worten bestehende Statement zu begutachten. Nur ein Mitglied dieses Komitees war mit dem Gebiet Klimawissenschaft vertraut, und mehr als ein Mitglied hatte ein Interesse an einem fortgesetzten Klimaalarm. Der Abschlussbericht dieses Komitees bezog sich ausschließlich auf IPCC-Berichte und deren Begleitmaterial. Und so kam es zum vorhersehbaren Ergebnis: Es gab keine einzige Änderung im Original-Statement. Also folgte man der üblichen bürokratischen Praxis, einer einmal angenommenen Position strikt zu folgen, selbst wenn die Entstehungsgeschichte dieser Position auf Fälschung beruht.

Allerdings waren dem Original-Statement etwa 750 Wörter hinzugefügt worden, die zu erklären versuchen sollen, was die ursprünglichen 157 Wörter eigentlich bedeuten. Diese erklärenden Wörter werden als „Kommentar zur Klimaänderung“ vom 18. April 2010 apostrophiert und sind über den oben genannten Link einsehbar. Den APS-Mitgliedern wurde die Einreichung von Kommentaren gestattet, aber diese Kommentare wurden niemals veröffentlicht. Auch eine Umfrage wurde durchgeführt, und über deren Ergebnis teilte man uns lediglich mit, dass das Statement unterstützt werde. Jedoch wurden nie numerische Ergebnisse genannt, und wir wissen, dass eine wesentliche Fraktion der Mitglieder sie nicht unterstützt.

Angewidert durch diese Entwicklungen haben sich einige APS-Mitglieder in aller Stille aus der APS zurückgezogen oder ihre Mitgliedschaft ruhen lassen. Die am deutlichsten öffentlich sichtbaren Rücktritte waren die von Nobelpreisträger Ivar Giaever [hier, auf Deutsch bei EIKE hier] und von dem angesehenen APS-Mitglied Hal Lewis [hier, auf Deutsch bei EIKE hier und hier und  hier].

Weil wir es vorzogen, innerhalb der Gesellschaft eine positive Änderung zu bewirken, kam unsere Gruppe der Petitionisten und leitender APS-Mitglieder des guten Willens im Jahr 2010 zu einem Übereinkommen, dem zufolge wir versuchen, die Diskussion dorthin zurückzuführen, wo sie hingehört – zur Wissenschaft selbst. Also trat ich einem offiziell sanktionierten Komitee bei, um eine neue „Themengruppe“ innerhalb der APS zu organisieren. Statuten wurden formuliert und angenommen, deren Hauptcharakteristikum die Erklärung war, sich auf die Wissenschaft zu konzentrieren und Angelegenheiten aus Politik, öffentlicher Meinung oder politische Ansichten zu vermeiden. Hier folgt die Schlüsselformulierung der Statuten:

„Die Zielsetzung der GPC (Topical Group on the Physics of Climate) sollte es sein, Fortschritt und Verbreitung von Wissen zu fördern, und zwar hinsichtlich Physik, Messungen und Modellierung von Klimaprozessen innerhalb der Domäne der Naturwissenschaft und außerhalb der Domänen von Einflüssen auf die Gesellschaft und die Politik, Gesetzgebung und gesellschaftliche Belange im weiteren Sinne. Die Zielsetzung schließt die Integration der wissenschaftlichen Erkenntnisse sowie Analysemethoden über verschiedene Disziplinen ein, um die dynamischen Komplexitäten und Unsicherheiten der Klimaphysik anzusprechen“.

Damit hatten wir gehofft, dass der Dissens zur APS-Mitgliedschaft frei von Angriffen und Verteidigung bzgl. des Statements gehalten und die wissenschaftliche Debatte auf die Wissenschaft selbst zurückgeführt wird.

Alles gut und schön. Aber um das Ziel zu erreichen, kann man nicht einfach Wissenschaftler und ihre die Behauptungen des APS-Statements nicht unterstützenden Ergebnisse ausschließen. Wie der Brief zeigt, war genau das aber passiert. Man sollte aus dem Brief nicht folgern, dass all die APS-Leute, mit denen ich gearbeitet habe, der gleichen Meinung sind und Wissenschaftler ausschließen wollten, die nicht mit der Doktrin konform gehen. Einige haben mit aller Kraft versucht, den Prozess wissenschaftlich offen zu halten, aber sie wurden durch den dominanten Einfluss der Kräfte, die keinen Grund im offen halten sahen, weit in den Schatten gestellt.

Schließlich hängt der wissenschaftliche Prozess tatsächlich vom freien Austausch von Informationen zwischen den Wissenschaftlern ab, die darauf schauen können, was die Natur uns sagt und die diese Enthüllungen unterschiedlich interpretieren. Das praktische Ergebnis, alle Wissenschaft öffentlich zu machen, ist die Bestimmung des Weges zu entscheidenden Experimenten und verbesserten Theorien in der Zukunft. Ohne die Freiheit, dies zu tun, haben wir nur autoritäres Bestimmen.

Wenn ich meine Erfahrungen so überdenke, komme ich nicht um die Frage herum, ob wir bereits am „Point of no Return“ vorbei sind; ob der Abstieg der einst großen wissenschaftlichen Gesellschaften zu bestimmenden Bürokratien und sich selbst befriedigenden, um Zuwendungen bettelnden Vereinigungen angehalten und umgekehrt werden kann, und ob die Integrität wieder hergestellt werden kann. Oder ist das, was wir jetzt haben, das permanente Gehabe der modernen Wissenschaft – eine postmoderne Verzerrung der besten Werte wissenschaftlicher Tradition, die der Menschheit Jahrhunderte lang  zu Diensten war. Falls das so ist, besteht die einzige Alternative darin, neue alternative Institutionen ins Leben zu rufen, die das aufnehmen können, was die Wissenschaft einmal gehabt hat. Wir werden sehen.

Roger W. Cohen

Mitglied, American Physical Society, 16. 10. 2012

====================================

An Dr. James G. Brasseur

Vorsitzender der Themengruppe zur Klimaphysik

American Physical Society

Lieber Jim,

es ist klar geworden, dass ich nicht länger effektiv am Fortschritt der Themengruppe zur Klimaphysik (GPC) teilnehmen kann, wie es ursprünglich vorgesehen war. Daher möchte ich anbieten, mich aus der Themengruppe und dem Exekutivkomitee zurückzuziehen.

Das Exekutivkomitee der GPC hat dem Druck aus seinem Inneren und von anderen, die in die Aktivitäten der GPC involviert waren, nachgegeben, wissenschaftliche Diskussionen, die nicht mit der Doktrin einer starken anthropogenen globalen Erwärmung konform gehen, außen vor zu halten. Dies missachtet die Wünsche einer wesentlichen Fraktion der Mitglieder, die die gesamte relevante Wissenschaft besprechen wollen. Ohne das die neu geschaffene GPC gezeigt hat, die wissenschaftlich orientierte Zielsetzung erreichen zu können, wie sie in den Statuten festgelegt worden ist, will sie vereint Aktivitäten mit anderen Gesellschaften entfalten, die vollständig am Klimaalarm interessiert sind und daher nicht die Zielsetzung der GPC unterstützen können. Diese Entwicklungen deuten darauf hin, dass sich die GPC auf dem Kurs hin zu lediglich einem weiteren Sprachrohr der Doktrin befindet.

Wie bei der Entwicklung des Antrittsprogramms der GPC gezeigt (wird im März 2013 präsentiert), haben wir im Endeffekt eine Grenze um die Wissenschaft gezogen, als ob man begutachtete, veröffentlichte Arbeiten, die im Gegensatz zur Doktrin der starken anthropogenen globalen Erwärmung stehen, substantiell ausschließen wollte, unabhängig von der bisherigen Laufbahn eines Wissenschaftlers. Zum Beispiel wurde ein anerkannter Physiker, ein Experte auf dem Schlüsselgebiet der solaren Einflüsse auf das irdische Klima, auf den Status eines „Backup-Speakers“ zurück gestuft, und zwar nach der Intervention eines IPCC-Leitautors mit einem eindeutigen Interesse, die IPCC-Haltung zum Thema Sonne zu stützen. Die begutachtete und veröffentlichte Arbeit eines weiteren Mitglieds dieser Gruppe über die Qualität der Temperaturdaten auf dem Festland wurde vollständig missachtet, weil er seine Ansicht öffentlich gemacht hat, dass es sich hier um religiösen Glauben und dessen Verbindung mit der Wissenschaft handele.

Während öffentliche Statements von Skeptikern als Beweis für Verzerrungen betrachtet werden, gab es keine Skrupel, einen doppelten Standard anzubringen, der die Befürworter der Doktrin von solchen Überlegungen freisprach. Einer der eingeladenen Mitglieder hat es gewagt, in einer öffentlichen Umweltgruppe für reduzierten Fleischkonsum, Vegetarismus und die Begrenzung von Flugreisen zu werben. Die öffentlichen Einlassungen eines weiteren Eingeladenen hinsichtlich eines angenommenen menschlichen Beitrags zu einem einzelnen Hurrikan (Katrina) stellte keine Grundlage dar, seine Objektivität zu hinterfragen. Dieser doppelte Standard war kein Zufall: Ein Mitglied des Komitees, das mit der Auswahl der Mitglieder betraut war, war ziemlich deutlich hinsichtlich der Teilnahme von Skeptikern, wenn er davor warnte, „den Skeptikern des Konsens-Standpunktes mehr effektives Gewicht“ zu verleihen.

Keine der von den eingeladenen Mitgliedern ausgesprochenen Glaubensäußerungen fußen auf ihren Qualifikationen, über ihre wissenschaftliche Arbeit bzgl. Klima zu sprechen. Die Wissenschaft muss isoliert betrachtet werden – als Wissenschaft und nur als Wissenschaft. Es anders zu machen heißt, wie eine Gedankenpolizei zu agieren. Die selektive Auswahl dieser Glaubensäußerungen als Basis, eine Art von Wissenschaft auszuschließen, ist falsch und verzerrt die Aktivitäten der GPC hin zu einer Unterstützung der Doktrin.

Meine Teilnahme am Entwicklungsprozess der GPC war das Ergebnis einer Basispetition, unterzeichnet von mehr als 200 APS-Mitgliedern, von denen die meisten auch am GPC teilnahmen. Ich fühle mich jetzt verpflichtet, diese Petitionisten über das Ergebnis zu informieren, so dass sie ihre eigenen Entscheidungen treffen können. Auch werde ich diese Statements in Zukunft aktualisieren, wie ich es mit der Unterstützung der GPC im öffentlichen und privaten Rahmen gemacht habe.

Wie Sie wissen, war es die Absicht der GPC, die starke Nicht-Übereinstimmung über das Statement der Gesellschaft aus dem Jahr 2007 zur Klimaänderung in eine produktive wissenschaftliche Form zu gießen. Aber es gab auch noch eine bessere Gelegenheit: zu zeigen, dass es immer noch möglich ist, ein Forum einzuberufen, dass präsentieren und debattieren kann, als Wissenschaftler, der weit gefasste Körper der Klimawissenschaft mit allen seinen Komplexitäten, Unsicherheiten und Interpretationen. Aber ach, trotz der in gutem Glauben getätigten Anstrengungen von einigen Wenigen scheint man diese Gelegenheit verstreichen zu lassen, und ich befürchte, dass es so schnell keine weitere Gelegenheit dazu geben wird.

Sincerely,

Roger W. Cohen

Mitglied, APS, 17. Oktober 2012

Link: http://wattsupwiththat.com/2012/10/22/more-turmoil-at-the-american-physical-society-over-global-warming-issue/

Übersetzt von Chris Frey EIKE




Und plötzlich wurde es kalt in Deutschland

Mit einem beeindruckenden Fanfarenstoß meldete sich der Winter jetzt etwas verfrüht aus seiner wohlverdienten Sommerpause zurück. Schneerekorde in Ostdeutschland, klirrende Minusgrade in Norddeutschland und ein historischer Wintereinbruch in Süddeutschland. Die Main Post berichtete hierzu am 27. Oktober 2012:

Solch ein Wetter-Phänomen hat die Region Mainfranken seit Jahrzehnten nicht erlebt: Schnee im Oktober. Vor gut einer Woche saßen die Menschen in Würzburg, Schweinfurt oder Bad Kissingen noch mit T-Shirts und Shorts in den Straßencafés und genossen den fränkischen Spätsommer, nur wenige Tage später schickt der Winter einen ersten frostigen Gruß. Innerhalb von acht Tagen stürzten die Temperaturen um nahezu 25 Grad in die Tiefe und unter den Gefrierpunkt. „Das ist ein richtiger Wintereinbruch. So etwas kommt vielleicht alle 30 bis 40 Jahre vor“, sagte Diplom-Meteorloge Christoph Hartmann vom Deutschen Wetterdienst (DWD) in Offenbach, „das erlebt man nur ein- oder zweimal im Leben“. Letztmals, so der Experte, muss es Anfang der 70er Jahre in der Region Würzburg um diese Jahreszeit eine geschlossene Schneedecke gegeben haben.

Man erinnere sich: In den 1970er Jahren machte man sich große Sorgen über eine neu heranrückende Eiszeit. Die Temperaturen sanken damals schneller als je zuvor in den vergangenen 1000 Jahren, berichtete der Spiegel 1974 (siehe notrickszone). Auch damals war übrigens die Sonnenaktivität im Keller. Zudem drückten die Ozeanzyklen die Temperaturen nach unten, genau wie heute…

Nüchtern betrachtet, passt der frühe Wintereinbruch in Deutschland und die Serie der Kältewinter in den letzten Jahren nicht so richtig mit der angekündigten katastrophalen Klimaerwärmung zusammen. Das haben natürlich auch die kalt überrumpelten Klimawissenschaftler bemerkt und haben sich mittlerweile eine wissenschaftliche Hilfshypothese zurechtgelegt. Das ist doch ganz einfach, sagen sie. Weil das arktische Meereis schrumpft, verändern sich die atmosphärischen Zirkulationsmuster und es strömt mehr Kälte nach Europa. Ok, nette Idee. Kann man glauben oder auch nicht. Nur schade, dass das Modell erst nach der Kältewinterserie kam und nicht vorher. Wenn die Winter in Mitteleuropa jetzt kälter werden, ist die Klimakatastrophe Schuld. Und wenn die Winter wärmer werden sollten, dann greift natürlich wieder das klassische globale Erwärmungsmodell, und wieder ist die Klimakatastrophe Schuld. Eine sehr komfortable Situation. Das erinnert so ein bisschen an:

Regel eins: Ich habe immer recht.
Regel zwei: Falls dies einmal nicht der Fall sein sollte, wird automatisch Regel eins wirksam.

Claus Kleber unterstützt diesen Argumentationsansatz mit ganzen Kräften und verkaufte am 27.10.2012 seinen Zuschauern im Heute Journal die genannte fragwürdige Hilfshypothese als gesichertes Wissen (siehe auch Beitrag hier):

Wintereinbruch: C. Kleber und M. Latif biegen d…

Man muss Wetter und Klima natürlich voneinander trennen. Trotzdem sollten wir uns kurz an den ziemlich bescheidenen Sommer 2012 erinnern. Mitte August 2012 schrieb Dominik Jung von www.wetter.net in der Leipziger Volkszeitung, dass der deutsche Sommer bis dahin etwa 0,2 Grad kälter war als die langjährigen Werte der Jahre 1981 bis 2010. In der Bildzeitung sagte Jung am 22. Juli 2012:

Wir haben uns die Sommer der letzten neun Jahre angeschaut. Tendenziell sind sie kühler und regnerischer gewesen als im langjährigen Mittel.

Vielleicht erinnern Sie sich auch noch an unseren Blogartikel „Wann wird’s mal wieder richtig Sommer?“ den wir etwa um die gleiche Zeit gemacht haben. Passend dazu auch Jürgen Klimanns Schlechtwetter-Sommer-Song. Hier die erste Strophe:

Wenn der Sommer naht,
hat’s feuchte 14 Grad
und wir starten in den Juni im Hallenbad.
Wer sich’s leisten kann,
peilt die Insel an
und saugt die Sonne ausm Eimer am Ballermann.
Statt Caipirinha: Tee mit Rum.
Schon ist der Juli um.
Ein bisschen Farbe kriegst du höchstens im Solarium.
Mitten im August
schiebst du nur noch Frust.
Es riecht nach Herbst und darauf hast du keine Lust.

Jürgen Klimann – Klimawandel [Offizielles Video]

Verregnete Sommer stellen mittlerweile für Veranstalter ein ernsthaftes Risiko bei der Planung von Open-Air-Veranstaltungen dar, wie die WAZ diesen Sommer berichtete. In Schweden gab es dieses Jahr (2012) einen der kältesten und nassesten Juni-Monate seit Beginn der Aufzeichnungen. Auch in Großbritannien war der Sommer kalt und nass (The Independent, New Nostradamus). Ähnliches gilt für Irland. Bereits Ende August 2012 ist in den Alpen der erste Schnee gefallen und hat eine geschlossene Schneedecke bis 1600 m Höhe produziert (wetter24, notrickszone).

Kälterekorde sind trotz der sommerlichen Hitzewelle auch aus den USA berichtet worden. Alaska litt 2012 unter dem kältesten Juli der Messgeschichte (WUWT, Alaska Dispatch, Real Science, KTVA). In Kansas und South Dakota wurden dieses Jahr für bestimmte Stichtage im August die kältesten Temperaturen seit Beginn der Messungen beobachtet. Insgesamt registrierten 660 Wetterstationen neue Minusrekorde, wie Real Science berichtete (siehe auch WUWT). Rekordkälte gab es auch im Oktober 2012 in den Great Plains. Frühen Oktober-Schnee gab es in Minnesota und North Dakota. Auch Iowa wurde von rekordverdächtiger Kälte heimgesucht. In der Arktis, nördlich des 80. Breitengrades, war seit dem Jahr 2000 jeder Sommer kälter als der langjährige Durchschnitt.

Aber auch auf der Südhalbkugel gab es berichtenswerte Kälte-Extreme. Ein besonders heftiger Winter suchte Peru im Juli 2012 heim. Im südafrikanischen Johannesburg fing es im August 2012 plötzlich zu schneien an. Zuletzt war dies 2007 und 1981 der Fall. In Australien sah es nicht besser aus. In Canberra wurde 2012 der kälteste Oktober seit 40 Jahren registriert. Und in der Antarktis wurden die kältesten Septembertemperaturen verzeichnet, die jemals auf der Erdoberfläche gemessen wurden.

Auf globaler Sicht wäre vielleicht noch erwähnenswert, dass bis Ende August jeder Tag im Jahr 2012 kälter als 2010 war, mit Ausnahme von bis dahin neun Tagen (siehe Real Science).

Ganz offensichtlich werden weitere Hilfshypothesen benötigt, um das Modell der gefährlichen Klimaerwärmung weiter aufrechterhalten zu können. Unabhängig von Kälte- und Hitze-Extremen sollte man sich dabei vor allem Gedanken machen, warum es seit nunmehr 16 Jahren nicht mehr wärmer geworden ist (siehe unser Blogartikel „Neue HadCRUT-Daten belegen: Globale Temperatur seit 16 Jahren nicht mehr angestiegen“). 

Autor: Sebastian Lüning, mit Dank an Rainer Hoffmann und Joachim Seifert, zuerst erschienen auf der Seite: Die kalte Sonne 




Sind PV-Stromanlagen in Deutschland Energievernichter?

Das Potential der PV-Stromproduktion in Deutschland

Über die  Stromproduktion in Deutschland  mittels Photovoltaik-Anlagen liefert die BMU-Statistik “Erneuerbare Energien in Deutschland — 2011“ Zahlen.  Aus Produk­tion und installierter Spitzenleistung errechnet man als Mittelwert der letzten 10 Jahre  645 Volllaststunden pro Jahr (kWh pro kWp) – knapp 8 % aller Jahresstun­den! Die erforderliche Modulfläche für eine Spitzenleistung von 1 kWp wird mit 10 m² angenommen.  Daraus ergibt sich eine Stromausbeute von 64,5 kWh/ m² und Jahr. Infolge Alterung ist ein  Wirkungsgradverlust zu erwarten, der gemäss die International Energy Agency (Report IEA-PVPS T12-01:2009) 0,7 % pro Jahr beträgt. Geht man bei diesen Anlagen von einer Lebensdauer von 25 Jahren aus, ist im Mittel der verbleibenden 20 Jahre mit einer Einbusse von 7 % (4,5 kWh/m2) zu rechnen. Die mittlere jährliche Stromproduktion ist dann 60 kWh/ m². In 20 verbleibenden Jahren ergeben sich 1200 kWh/ m2 .

Dazu kommen im Mittel die ersten fünf Jahre mit je 64,5 kWh/m2, d.h. 322 kWh/m2. Somit beträgt die Gesamtstromproduktion pro Quadratmeter Modulfläche  und während der mutmasslichen Gesamt-Lebensdauer von 25 Jahren 1522 kWh.

Energieaufwand für die Herstellung der PV-Anlagen

Die Herstellung von ultrareinem Silizium ist sehr energieintensiv. Es gibt keine zuverlässige Studie über den entsprechenden Energieaufwand. Aufgrund meiner Kontakte in China habe ich den Wert von ca. 400 kg Kohle pro Quadratmeter Modulfläche in Erfahrung gebracht; verstromt in einem modernen Kohlekraftwerk (Wirkungsgrad von 47%) ergeben sich 1256 kWh. . Eine  Studie der Hong Kong Polytechnic University  (“ Environmental payback time analysis of a roof-mounted building-integrated photovoltaic system in Hong Kong”,  Applied Energy 87(2010) 3625-3631)  ergibt  1237 kWh/ m2 .Diese beiden aus der Praxis gewonnene Werte liegen deutlich über den Zahlen, welche zurzeit in deutschen Publikationen zu finden sind.  Hingegen wird der Energieaufwand für die Herstellung der zahlreichen für die Fabrikation von ultrareinem Silizium notwendigen Chemikalien bei derartigen Untersuchungen im Allgemeinen nicht berücksichtigt; siehe dazu www.svtc.org, wo beispielsweise NH3, BF3, CCl4, Aethylenvinylacetat, Silberleitpaste), C2F6, HCl, HF, H2, HNO3, NaOH und SF6 genannt werden. Auch der Aufwand für die Gewinnung von Quarz-Gestein und für die  Wasserversorgung und -entsorgung wird nicht kalkuliert. Abschätzungen des Aufwandes für  den Bau und Betrieb der  Silizium- und PV-Modulfabriken haben ergeben, dass dieser wenige Prozente des Energieaufwands für die Produktion ausmacht.

Im Folgenden wird der konservative Wert von 1200 kWh/ m2  verwendet.

Aufwand und Verluste bei der Integration der Photovoltaik in den Netzbetrieb

 

 

kWh/m2

1

Aufwand für die Bereitstellung von Gas-oder Kohlekraftwerken für die Reservehaltung

25

2

Verluste bei der Inanspruchnahme von Pumpspeicher-Anlagen – 25% Verlust , 20% beteiligte PV-Produktion

75

 

3

Aufwand für den Bau von Pumpspeicherwerken

25

4

Aufwand für Netzanpassungen

25

 

Total

150

In den Positionen 1,3 und 4 wird ein minimaler Aufwand von nur 1 kWh pro Jahr für den Bau der Reserve, Speicherung und Netzanpassungen eingesetzt.

Somit beträgt der Gesamtenergieaufwand für die Integration der Photovoltaik in den Netzbetrieb 150 kWh.

Energieaufwand für Montage, Betrieb, Rückbau, Entsorgung und Finanzierung

In der nachfolgenden Tabelle wird den laufenden Betriebskosten eine 25jährige Betriebsdauer zugrunde gelegt. Im Jahr 2012 werden die Investitionen für eine PV-Anlage werden pro m2 Modulfläche mit 400 € für die Lieferung und mit 500 € für die Montage angegeben. Somit liegt der Tabelle eine Basisinvestition von 900 € pro m² Modulflache zugrunde.

 

 

€ /m2

1

Projektierung und Bewilligungen – 10%

90

2

Montage

500

3

Wartung – 1,5 % pro Jahr während 25 Jahren

337

4

Ersatz  der Verschleisskomponenten- Anteil Wechselrichter

150

5

Versicherung – 0,17% pro Jahr während 25 Jahren

38

6

Rückbau und Entsorgung

200

7

Anpassung an künftige Sicherheitsforderungen

30

8

Zins – durchschnittlich 2% während 25 Jahren

450

 

Total während der gesamten Lebensdauer von 25 Jahren

1795

Die so ermittelten Kosten werden nun mit Hilfe der Energieintensität für Deutschland in Primärenergie-Aufwand umgerechnet: Die Energieintensität ist  der Primärenergieverbrauch, bezogen auf das Bruttoinlandprodukt. Für Deutschland beträgt sie im Jahr 2009   0.19 kg SKE pro BIP-Euro (Daten aus Fischer Weltalmanach 2011). In Strom umgewandelt mit einem Wirkungsgrad von 40% erhält man 0,62 kWh pro Euro (Dieser Wert wird als Mittelwert eingesetzt, wohlwissend dass das Gewerbe eine höhere Energieintensität hat). Der Aufwand an Primärenergie für Montage, 25 Jahre Betrieb, Rückbau, Entsorgung und Finanzierung ist in der deutschen Volkswirtschaft somit 1113 kWh.

Schlussfolgerung

Der Ertrag während 25 Jahren ist                                               1522 kWh/m2.

Demgegenüber steht ein Gesamtenergieaufwand von        2463 kWh/m2.:

 Vom Gesamtaufwand entfallen auf die Herstellung der PV-Module 1200 , auf die Integration in den Netzbetrieb 150 und auf Montage, Betrieb, Rückbau, Entsorgung und Finanzierung 1113 kWh/m2.

Die dargelegte Berechnung  zeigt ganz klar, dass Solarstromanlagen in Deutschland wegen der geografischen Lage und der klimatischen Verhältnisse keine Energiequellen sind, sondern gewaltige Energiesenken oder Energievernichtungsanlagen. Auch wenn man eine Lebensdauer von 30 Jahren annehmen würde, wäre die Energiebilanz immer noch negativ. Diese Schlussfolgerung weicht ab, von den gewohnten Feststellungen der Solarenergiebranche – vor allem deswegen weil hier oben auch der Primärenergie-Aufwand für den Betrieb und die Finanzierung sowie für die Integration in den Netzbetrieb quantifiziert worden ist. Zudem basieren die obigen Überlegungen auf Si-Herstellungszahlen asiatischer Länder, welche zusehends als Hauptlieferanten auftreten.

Zwar ist es möglich, mit der Photovoltaik elektrischen Strom zu erzeugen, aber man muss dafür wesentlich  mehr Primärenergie einsetzen als was an elektrischer Energie dank Nutzung der Sonneneinstrahlung in Deutschland herauszuholen ist. Dabei werden  keine Kilowattstunden netto erzeugt, sondern es wird Primärenergie unnütz verschwendet.

Von nachhaltiger Nutzung der Ressourcen kann keine Rede sein.

In Anbetracht der Tatsache, dass bisher in Deutschland nicht weniger als 100 Mia. € für Photovoltaik investiert worden sind, habe  ich  persönlich Mühe eine solche absurde und nicht nachhaltige Solarstrom-Energiepolitik zu verstehen. Besser würde die angesetzte Primärenergie in modernen fossil-gefeuerten Kraftwerken zur Stromerzeugung nutzen.

Ferruccio Ferroni, Dipl. Ing. ETH,  Zürich




ZDF-Big Brother Claus Kleber: Wärmer ist kälter- Wintereinbruch ist Folge des rapiden Klimawandels!

Ausgerechnet der Mojib Latif, der im April 2000 (!) bei SPIEGEL-ONLINE noch behauptete „Winter ade: Nie wieder Schnee?“ Da fällt auch nicht weiter ins Gewicht, dass die unwissende Autorin des Beitrags Sara Bildau, das Schmelzen der Arktis als „noch nie da gewesen, seit es Menschen gibt..“ apostrophierte. Man stellt sich angesichts solcher Bericht die Frage: 

Von welcher Qualität sind denn dann die anderen Beiträge im einst renommierten „heute journal“ dem Flaggschiff des ZDF?

Ähnlich falsch und dazu noch so miserabel recherchiert? Oder sollte vielleicht wieder mal ein Pressesprecher -ohne Auftrag seines Chefs natürlich-  angerufen haben? Hätte er/sie es mal nur getan! Nein, leider ist das wirklich alles purer Claus Kleber, befeuert durch seine begeisterte, weil so unabhängige, Redaktion?

Ausschnitt aus ZDF-„Heute-Journal“ vom 27.10.2012

Nun kann sich auch ein Klimaforscher mal irren. Und sich dann korrigieren. Aber das geschieht bei den meisten Vertretern diese Zunft immer nur im Nachhinein, wenn sich die Realität mal wieder nicht um die Vorhersagen ihrer computer gestützten Kristallkugel-Prognosen schert, und dann immer so, dass die Beobachtung so verdreht wird, dass sie letztlich irgendwie zur herbeiprognostizierten Erwärmung passt.

Rainer Hoffmann hat  dazu eine umfassende Dokumentation über den Klimaforscher Mojib Latif mit (fast) allen seinen dubiosen Behauptungen zum Klimawandel ( hier) verfasst. Sehenswert!

Claus Kleber hat sich schon des öfteren Klimawandel-Propaganda geleistet:
http://solarresearch.org/sk2010/co2klima/klimavideos/790-014.html

Michael Limburg, mit Dank an R. Hoffmann für die Videos




Bemerkungen zur Energiepolitik in UK

Ein Schlüsselproblem ist die periodisch wiederkehrende Konfusion zwischen Vorhersagen (was sein wird), Plänen (was sein sollte) und politischen Szenarien (was zu sein hat). Die Gruppe vom Imperial College behauptet, dass ich die Windkapazität bis 2020 übertrieben habe und dass folglich meine Schätzungen der Kosten der gegenwärtigen Politik zu hoch seien. Damit vergleichen sie jedoch Äpfel mit Birnen. Sie berufen sich auf den Vergleich eines Satzes von Vorhersagen (die sich regelmäßig ändern) mit meinen politischen Szenarien, die benennen, was erforderlich ist, um die Ziele der UK-Regierung hinsichtlich erneuerbarer Energie zu erreichen. In UK war die Qualität der Vorhersagen hinsichtlich Energie während der letzten 30 bis 40 Jahre äußerst dürftig, so dass jede Evaluation seitens der Politik auf etwas Soliderem beruhen sollte als dem jüngsten Satz von Vorhersagen.

Vielleicht sollen die offiziellen Prognosen einen bestimmten Plan für das Jahr 2020 reflektieren. In diesem Falle muss sich der politische Analyst fragen, ob die kritischen Annahmen des Planes gut begründet sind und wie das Ziel des Plans erreicht werden kann. Ein endemisches Problem der Politik in UK ist die Tendenz zu übertriebenem Optimismus, ebenso wie bei den Planungen rund um die Welt, und zwar zu vermuten was einer will, das geschehen wird und nicht das geschieht, was Realismus und Beweise nahelegen. Ein Außenstehender muss sich fragen: Welche Schritte sind unternommen worden, um die Risiken und Konsequenzen des Über-Optimismus’ zu minimieren?

Die Gruppe vom Imperial College beruft sich zum großen Teil auf Behauptungen, die auf den Ergebnissen ihrer Windmodellierungen beruhen. Derartige Modelle können instruktiv sein, sind aber keine konkreten Beweise, vor allem, weil ihre Modelle explizit die Betrachtung der stochastischen Natur des Windes ausschließen. Mein Ansatz unterscheidet sich davon. Ich habe meine politischen Szenarien aufgrund von Daten entworfen, die mit dem Betrieb des Stromsystems der letzten 4 Jahre in Zusammenhang stehen (und um einiges länger bei Windparks). Es widerstrebt mir anzunehmen, dass Schlüsselvariablen wie Nutzungsgrad, die Verteilung der Windstärke und deren Korrelation mit dem Bedarf usw. sich substantiell von dem unterscheiden werden, was wir in der Vergangenheit gesehen haben.

Außerdem scheint die Gruppe vom Imperial College den Kernpunkt meiner Argumentation nicht erkannt zu haben, dass nämlich die Reduktionen der Kohlenstoffemissionen viel kleiner sein könnten als konventionell behauptet. Meine Beispiele sind absichtlich vereinfacht, um den Punkt hervorzuheben, dass das Gesamtergebnis von Anpassungen im gesamten Stromsystem abhängt, welches wiederum durch zukünftige Entscheidungen hinsichtlich Investitionen beeinflusst wird. Dies hat nichts mit der effizienten Nutzung der bestehenden Kapazität zu tun, sondern künftige Investitionen werden davon abhängen, wie die Kapazität genutzt wird. Es scheint, als ob sowohl die Gruppe vom Imperial College als auch DECC [?] annehmen, dass man groß in CCGTs [?] Mitte oder gegen Ende dieses Jahrzehnts investieren werde, um Kraftwerke zu ersetzen, die als Konsequenz der jüngsten Direktive der EU bzgl. industrieller Emissionen vom Netz genommen werden sollen. Die Schwierigkeit besteht darin, dass die Auslastung der neuen Kraftwerke sehr gering sein könnte, falls die Vorhersagen des Anteils der Windkraft realisiert werden. In ähnlichen Situationen anderswo reagierte man mit Investitionen in einzelne Teilkraftwerke oder mit dem Weiterbetrieb älterer Kraftwerke. Das ist kein Unsinns-Szenario, sondern eine Beschreibung dessen, was tatsächlich geschieht.

Die Geschichte der Windkraft in Europa ist eine des fortgesetzten Über-Optimismus’ hinsichtlich Funktionsweise und Kosten, befeuert durch die offensichtliche Unwilligkeit, klare politische Optionen zu definieren und dann Analysen zu erstellen, die auf konkreten Beweisen basieren. Die Modellierung ist kein Ersatz für Beweise. Im Grunde ruhen die Behauptungen vom Imperial College und DECC hinsichtlich der Kosten der gegenwärtigen Politik auf der alten Geschichte „dieses Mal wird alles ganz anders sein“. Wirklich? Wie können wir das testen?

Ich würde einen einfachen Markttest vorschlagen, der sich direkt auf den Gegen­stand der originalen ECC-Anhörung [?] bezieht. Wenn die Befürworter dieser Sichtweise von Imperial College/DECC glauben, dass meine Berechnungen der Kosten der gegenwärtigen Politik falsch sind, warum befürworten sie nicht eine wesentliche und fortwährende Reduktion des Niveaus der Subventionen? Zum Beispiel wären die behaupteten Kosten konsistent mit einer Reduktion auf 0,5 ROCs pro MWh sofort und auf Null bis 2020 für Onshore-Wind und etwas, was dem Offshore-Wind gleicht.

Das gegenwärtige und zukünftig vorgeschlagene System von Subventionen für erneuerbare Energie ist äquivalent mit einem großen Programm der Besteuerung und öffentlicher Ausgaben mit Kosten, die sich möglicherweise auf Milliarden oder sogar Abermilliarden Pfund jedes Jahr während des nächsten Jahrzehnts belaufen können. Es obliegt jenen, die diese Subventionen erhalten wollen, zu zeigen, dass die Steuerzahler einen guten Gegenwert für ihr Geld erhalten. Ich habe große Zweifel, dass die gegenwärtige oder zukünftige Politik diesem Kriterium genügt. Die Gruppe vom Imperial College glaubt ganz klar etwas anderes, aber sie haben keinerlei Beweise für ihre Ansichten präsentiert. Niemand bezweifelt, dass wir mit einem Stromsystem leben können, dass große Anteile von Windkraft enthält. Die Frage ist, ob die Öffentlichkeit gewillt ist, die vollen Kosten zu tragen, wenn diese vollständig transparent sind. Im Moment werden die Kosten weder ordentlich aufgeführt noch sind sie transparent.

Gordon Hughes, 22. Oktober 2012

Link: http://www.thegwpf.org/gordon-hughes-response-to-robert-gross-et-al/

Übersetzt von Chris Frey EIKE




Klimaänderung und die ruhige Sonne

Die Sonne geht in eine Ruhephase. Die Beweise dafür nehmen zu. Die Sonnenflecken-Aktivität ist niedrig. Die Solarstrahlung ist niedrig. Das Magnetfeld der Sonne nimmt linear ab bis zu einem Wert bei Null bis zum Jahr 2026. Der langzeitliche Trend deutet auf eine weniger aktive Sonne.

Solarphysiker nehmen an, dass es zu einer ausgedehnten Periode geringer Sonnenaktivität kommen wird, die länger als einen Zyklus dauern wird.

Diese Änderung im Verhalten der Sonne könnte tief greifende langzeitliche Implikationen auf Klimaänderungen der nächsten Jahrzehnte haben.

2012 Solar Sunspot Activity through September highlighted in Yellow

Was passiert auf der Sonne?

Sonnenflecken-Aktivität im Jahr 2012, der September hervorgehoben in gelb

Der Trend für 2012 ist gesetzt. Der NOAA zufolge betrug die Sonnenfleckenzahl im September 61,5. Nach einem starken Anstieg der Sonnenaktivität Ende des vorigen Jahres hat sich die Sonnenfleckenzahl 2012 bisher auf 59,5 eingependelt.

Dem internationalen Standard zufolge ist die Sonnenfleckenzahl eine Maßzahl der mittleren Anzahl von Sonnenflecken mit der Zeit, normalerweise ein Jahr. Monatliche Mittelwerte während des Jahres werden ebenfalls veröffentlicht – wie jüngst von der NOAA. Man betrachte die gelb hervor gehobenen Zahlen des Jahres 2012.

Trendlinie des Magnetfeldes

Sicher besteht die Möglichkeit, dass sich die Sonnenflecken-Aktivität verstärkt. Die Sonne neigt zu wilden Fluktuationen, doch ist es unwahrscheinlich, dass es dieses Mal zu einem größeren Anstieg kommt. Der Höhepunkt der Sonnenflecken-Aktivität in diesem Zyklus ist auf der Nordhemisphäre der Sonne bereits vorüber.

Selbst wenn das für 2013 vorhergesagte Maximum von 75 noch erreicht werden würde, läge auch dies im Bereich der niedrigsten jemals gemessenen Werte. Es sieht aber so aus, als ob nicht einmal dieser Wert erreicht werden würde.

Der vorige Sonnenfleckenzyklus Nr. 23 wies ein unerwartet langes Minimum auf, das fast zwei Jahre gedauert hat. Die Sonnenflecken-Aktivität im jetzigen Zyklus ist halb so groß wie im vorigen Zyklus.

Die große solare Zweiteilung

In einem Bericht über die Japanische Hinode-Mission sagt die NASA, dass sich eine Asymmetrie zwischen der nördlichen und der südlichen Hemisphäre der Sonne entwickelt hat.

Während jedes solaren Zyklus’ setzt die Sonnenflecken-Aktivität am Äquator ein und kommt dann in Richtung der Pole voran, bis in einer Breite von etwa 75° Nord und Süd das Maximum erreicht wird. Der Unterschied in diesem Zyklus besteht darin, dass das Maximum in der Nordhemisphäre bereits überschritten ist. In der Südhemisphäre steht das Maximum dagegen erst noch bevor. Das solare Maximum [insgesamt] wird dadurch geglättet.

Diese ausgleichende Asymmetrie stellt die Welt der Sonnenphysik auf den Kopf. Das gegenwärtige Modell muss geändert werden. Die Vorhersage des Weltraumwetters, eine Wissenschaft noch in den Kinderschuhen, entwickelt sich rapide.

Im August 2004 hat der NASA-Wissenschaftler David Hathaway das Maximum des derzeitigen Zyklus’ für das Jahr 2010 mit einem Wert von 145 vorhergesagt. Seitdem haben er (und andere) jedes Mal den vorhergesagten Spitzenwert nach unten korrigiert und das Erreichen desselben nach hinten verschoben. Derzeit liegt seine Vorhersage des Spitzenwertes bei 75, der Ende 2013 erreicht werden soll.

Das ist aufregend! Hinode und andere Instrumente untersuchen den gegenwärtigen Sonnenzyklus, Zyklus 24, detaillierter als jemals zuvor. Das verspricht, unser Verständnis der Solarphysik erheblich zu vertiefen und uns damit in die Lage zu versetzen, das Verhalten der Sonne in Zukunft besser vorherzusagen.

Trends der Sonnenaktivität

Gelb hervorgehoben erscheint der gegenwärtige Sonnenzyklus (24) nahe dem solaren Maximum, bis Oktober 2012.

Im Jahr 1700 erholte sich die Sonne gerade von der bisher bekannten längsten Inaktivität von Sonnenflecken. Das ist bekannt unter der Bezeichnung Maunder-Minimum. Das Dalton-Minimum folgte auf dem Fuße. Es dauerte Anfang des 19. Jahrhunderts zwei solare Zyklen lang.

Dem folgte das Modern Maximum mit dem Maximum zur Mitte des vorigen Jahrhunderts. Dieses Maximum der Sonnenaktivität ist eines der höchsten der letzten 11500 Jahre bis zurück zur letzten Eiszeit.

Seitdem hat die Sonnenaktivität immer weiter abgenommen.

Jetzt sagen uns die Sonnenphysiker, dass wir ein weiteres Minimum erwarten können, das länger als einen Zyklus dauert.

Sonnenaktivität und Klimaänderung

Das Maunder- und das Dalton-Minimum haben etwas gemeinsam. Beide gingen einher mit Kaltphasen in der irdischen Klimageschichte. Die Zeit des Maunder-Minimums wird oft bezeichnet als die „Kleine Eiszeit“.

Es ist wahrscheinlich nicht reiner Zufall, dass das Moderne Maximum und eine andere, frühere Periode hoher solarer Aktivität, die Mittelalterliche Warmphase, beide mit höheren Temperaturen in der jüngsten Klimageschichte der Erde zusammengefallen waren.

Während der Satellitenära hat man herausgefunden, dass die Strahlungsenergie der Sonne zwischen 0,1% und 0,2% während eines Zyklus’ schwankt. Während der maximalen solaren Aktivität ist sie am stärksten. Das könnte ein Antrieb für historische Klimaänderungen gewesen sein, so wie es dem IPCC zufolge das CO2 heute sein soll.

Es ist unbekannt, was für einen Abkühlungseffekt es durch eine verlängerte Periode der Inaktivität geben wird. Die Physiker können diese Frage noch nicht beantworten, aber eine lange Historie empirischer Beweise legt nahe, dass es einen solchen Effekt gibt.

Schlussfolgerungen

Es gibt wenig Zweifel, dass anthropogene CO2-Emissionen eine signifikante Rolle bei der gegenwärtigen Warmphase gespielt haben [Nanu? Da hat der Autor die Literatur wohl nicht gründlich genug studiert! A. d. Übers.]. Es ist auf der Erde etwa 1°C wärmer als im Jahr 1880.

Das IPCC hat die Solaraktivität als Grund für Klimaänderungen erwogen und dann verworfen. Das IPCC hat sämtliche möglichen Antriebe der globalen Erwärmung außer AGW verworfen.

Die Zeiten ändern sich! Der Einfluss solarer Variationen wird immer klarer.

Die bisher direkt gemessenen Änderungen der Strahlung reichen nicht aus, die beobachtete globale Erwärmung zu erklären. Aber Variationen der Strahlungsenergie waren erst seit etwa 1975 direkt messbar und erstreckten sich seitdem über einen Zeitraum mit drei der stärksten, jemals beobachteten solaren Zyklen.

Es ist vollständig unbekannt, wie viel Abkühlung es während einer verlängerten Periode solarer Inaktivität, in die wir derzeit eintreten, geben wird. Das muss noch gemessen werden. Die Geschichte lehrt uns, dass es einen merklichen Effekt geben muss.

Hier ist die 100-Trillionen-Dollar-Frage:

Wird AGW oder die solare Variation die Klimaänderung der nächsten Jahrzehnte dominieren?

azleader

Informiere die Gelehrten

http://informthepundits.wordpress.com/2012/10/11/climate-change-and-the-quiet-sun/

Übersetzt von Chris Frey EIKE




Noch eine Studie zeigt höhere Temperaturen vor 1000 und sogar 2000 Jahren

Quelle Bild rechts: http://www.zum.de/Faecher/Materialien/beck/13/bs13-73.htm (Anklicken lohnt sich!)

Jetzt zeigt eine weitere Studie von Esper et al., veröffentlicht im Journal of Global and Planetary Change, dass nicht nur die Sommer der MWP genauso warm oder wärmer waren wie in der jüngsten Warmphase, sondern auch, dass die Sommer während der Römischen Warmperiode von 2000 Jahren signifikant wärmer waren als heute.

Nordskandinavische JJA-Temperaturen [JJA = Juni, Juli, August] bis zurück zum Jahr 138 v. Chr. Die jährlich aufgelöste N-Aufzeichnung [?] (blaue Kurve) zusammen mit den 100-Jahre-Filtern der Rekonstruktion (rote Kurve) und die Abschätzungen zur Unsicherheit mit Standardabweichung und anderen Fehlern [bootstrap errors] (gestrichelte Linien). Hell- und dunkelgraue Balken kennzeichnen besonders warme und kalte 30-Jahres-Perioden während der römischen und der mittelalterlichen Warmzeit, der Kleinen Eiszeit und der modernen Warmzeit. Die Temperatur wird als Anomalie dargestellt mit Bezug auf das Mittel der Jahre 1951 bis 1980.

Variability and extremes of northern Scandinavian summer temperatures over the past two millennia

[etwa: Variabilität und Extrema der sommerlichen Temperaturen in Nordskandinavien während der letzten beiden Jahrtausende]

Jan Esper, Ulf Büntgen, Mauri Timonen, David C. Frank

Abstract

Paläoklimatische Beweise enthüllen synchrone Temperaturvariationen in nordhemisphärischen Gebieten während des vergangenen Jahrtausends. Die Bandbreite dieser Variationen (in Grad Celsius) ist jedoch weitgehend unbekannt. Wir präsentieren hier eine 2000-jährige Rekonstruktion der Sommertemperaturen in Nordskandinavien und vergleichen diese Zeitreihen mit bestehenden Proxy-Reihen, um die Bandbreite der rekonstruierten Temperaturen im regionalen Maßstab zu erhalten. Die neue Rekonstruktion basiert auf 578 latewood-Dichteprofilen [?] von lebenden und fossilen Kiefern aus Nordschweden und Finnland.

Die Aufzeichnungen liefern Beweise für substantielle Erwärmungen während der Römerzeit und des Mittelalters, mit größerer Bandbreite und längerer Dauer als die Warmzeit des 20. Jahrhunderts.

Das erste Jahrhundert war die wärmste 100-Jahres-Periode (Abweichung +0,6°C vom Mittel 1951 bis 1980), mehr als 1°C warmer als das kälteste 14. Jahrhundert (-0,51°C). Die wärmste bzw. kälteste 30-Jahres-Periode (21 bis 50 = +1,05°C bzw. 1451 bis 1480 = -1,19°C) unterscheiden sich um mehr als 2°C, und es wird geschätzt, dass die Bandbreite zwischen den fünf wärmsten und kältesten rekonstruierten Sommern im Zusammenhang der letzten 2000 Jahre über 5°C liegt. Der Vergleich der neuen Zeitreihen mit fünf bestehenden, auf Baumringanalysen basierenden Rekonstruktionen aus Nordskandinavien zeigt synchrone Klimafluktuationen, aber substantiell unterschiedliche absolute Temperaturen. Das Niveau des Unterschieds zwischen extrem warmen und kalten Jahren (bis zu 3°C) sowie zwischen den wärmsten und kältesten 30-Jahres-Perioden (bis zu 1,5°C) liegt den verschiedenen Rekonstruktionen zufolge in der Größenordnung der Gesamttemperaturvarianz jeder individuellen Rekonstruktion während der vergangenen 1500 bis 2000 Jahre. Diese Ergebnisse zeigen unser geringes Verständnis der Varianz der absoluten Temperatur in einem Gebiet, in dem mehr hoch aufgelöste Proxies als in jedem anderen Gebiet der Erde zur Verfügung stehen.

[…]

Diskussion und Schlussfolgerungen

Die hier gezeigten MXD-basierten [?] Rekonstruktionen der Sommertemperatur setzen einen neuen Standard hinsichtlich einer hoch aufgelösten Paläoklimatologie. Die Aufzeichnung erklärt etwa 60% der Varianz der regionalen Temperaturdaten und basiert auf der am höchsten präzise aufgelösten Dichteserie als jede frühere Rekonstruktion. Wichtig: der Abgleich der MXD-Beispiele vor der Kleinen Eiszeit, während des Mittelalters und während des ersten Jahrtausends ist viel besser als in jeder anderen Aufzeichnung, und wir haben gezeigt, dass diese früheren Sektionen der Aufzeichnungen aus Nordskandinavien wahrscheinlich immer noch nützliche Klimainformationen enthalten. Dieses persistente Klimasignal gestattete eine Abschätzung der Temperatur-Variabilität während der Common Era [?] und enthüllte, dass die Warmzeiten zur Zeit der Römer und im Mittelalter größer in Amplitude und Dauer waren als unter den Bedingungen im 20. Jahrhundert.

Dieser neuen Aufzeichnung zufolge variierten die Sommertemperaturen um 1,1°C während des 1. und des 14. Jahrhunderts, der kältesten bzw. wärmsten 100-Jahres-Periode der letzten beiden Jahrtausende. Die Bandbreite der Temperaturänderungen zwischen den fünf kältesten und wärmsten Sommern der letzten 2000 Jahre lag über 5°C. Diese Schätzungen sind jedoch bezogen auf die Art der Proxy-Auswertung, d. h. das Bild würde sich ändern, falls die Kalibrierungs-Methode, der Zeitraum und/oder das Ziel modifiziert werden würde (Frank et al., 2010b). Zum Beispiel steigt die Varianz zwischen den 30 kältesten und wärmsten nordskandinavischen Sommern von 3,92°C auf 5,79°C, wenn die Skalierung (d. h. die Anpassung von Mittel und Varianz) an Stelle der OLS-Regression verwendet wird. Diese Unterschiede zwischen Skalierung und Regression sind proportional zu der nicht erklärten Varianz des Kalibrierungsmodells (Esper et al. 2005), und wir schlagen vor, die Proxydaten und instrumentellen Zeitserien vor der Kalibrierung zu glätten. Dieses Verfahren vermindert die nicht erklärte Varianz in allen skandinavischen Baumringaufzeichnungen und minimiert folglich die Unterschiede zwischen verschiedenen Kalibrierungs-Methoden (Cook et al. 2004). Unsere Ergebnisse zeigten jedoch auch, dass diese methodischen Unsicherheiten durch die Varianz der unterschiedlichen Rekonstruktionen vernachlässigbar sind.

Unterschiede unter sechs nordskandinavischen Baumringaufzeichnungen sind größer als 1,5°C in den extremen 30-Jahres-Perioden und bis zu 3°C in extremen Einzeljahren. Dieses Ergebnis hatten wir nicht erwartet, da die Proxies 1) alle gut zu regionalen instrumentellen Daten passen, 2) teilweise die gleichen Messreihen zeigen (oder unterschiedliche Parameter – TRW und MXD – von den gleichen Bäumen) und 3) von einer begrenzten Region in Nordskandinavien stammen, die durch eine homogene Temperaturverteilung gekennzeichnet ist. Da wir hier alle Rekonstruktionen mit der gleichen Methode kalibriert haben, stehen Unterschiede zwischen den Aufzeichnungen wahrscheinlich im Zusammenhang mit unterschiedlicher Behandlung der Daten und chronologischer Entwicklungsmethoden, Messtechniken und/oder Strategien bei der Sammlung von Beispielen ebenso wie die verbleibende Ungewissheit, wie sie für derartige Proxy-Daten typisch sind. Zum Beispiel würde das Zusammenfügen von MXD-Daten auf jüngste TRW-Trends, wie es Briffa 1992 getan hat, diese Rekonstruktion auf der niedrigeren (kälteren) Seite des Ensembles erscheinen lassen, während die Kombination (und Anpassung) neuer digitaler MXD-Messungen mit traditioneller röntgenstrahlbasierter MXD-Daten (Grudd 2008) diese Rekonstruktion am oberen (wärmeren) Ende des Ensembles gezeigt hätte. Andere Unterschiede stehen wahrscheinlich im Zusammenhang mit der Kombination  sub-fossilen Materials von Bäumen, die unter nassen Bedingungen an den Ufern von Seen gewachsen sind, mit Material von lebenden Bäumen an trockeneren Standorten abseits von Gewässern. …

Die hier enthüllte Varianz unter den Rekonstruktionen stellt eine schwebende Herausforderung dar für die Integration der Proxy-Daten in größeren Gebieten und für die Entwicklung einer einzelnen Zeitreihe, die die Nordhemisphäre repräsentiert (z. B. Mann et al. 2008). Die Zusammensetzung solcher Aufzeichnungen stützt sich allgemein auf die Kalibrierungs-Statistiken, abgeleitet aus angepassten regionalen Proxy-Zeitreihen im Vergleich zu instrumentellen Daten (D’Arrigo et al. 2006). Die hier analysierten Aufzeichnungen würden jedoch alle konventionellen, auf Kalibrierung beruhenden Screening-Prozeduren mühelos passieren. Und doch hat unsere Analyse gezeigt, dass die Auswahl einer skandinavischen Reihe anstelle einer anderen die rekonstruierten Temperaturen um 1,5 bis 3°C variieren lassen kann, beispielsweise während des Mittelalters. Andererseits würde die Berücksichtigung aller hier gezeigten Reihen wahrscheinlich auf eine weniger variable Klimahistorie hinweisen, da die Kombination divergierender Reihen dazu tendiert, die Varianz in den mittleren Zeitreihen zu reduzieren (Frank et al. 2007). Wenn ein solches Mittel dann mit instrumentellen Daten der letzten 100 bis 150 Jahre kombiniert wird, könnten Rekonstruktionen von der Art eines Hockeyschlägers herauskommen (Frank et al. 2010a). Dies scheint eine verzwickte Lage zu sein, in der wahrscheinlich Expertenteams einschließlich der Entwickler von Proxy-Aufzeichnungen involviert werden müssen, um Zeitreihen zu erhalten, die jenseits der typischen, auf Kalibrierungs-Statistiken basierenden liegen.

Unsere Ergebnisse haben gezeigt, dass die Einführung einer verbesserten Temperatur-Rekonstruktion nicht automatisch die Klimahistorie in einer bestimmten Region klarer machen kann. In Nordskandinavien kommen wir jetzt in die Lage, dass eine Anzahl hoch aufgelöster Proxy-Aufzeichnungen – die alle die klassischen Kalibrierungs- und Verifikationstests durchlaufen – verfügbar sind innerhalb einer begrenzten Region, die durch homogene Temperaturverteilungen charakterisiert wird. Diese Aufzeichnungen differieren jedoch um mehrere Grad Celsius während der letzten beiden Millenien, was riesig erscheint im Vergleich mit dem Erwärmungssignal im 20. Jahrhunderts in Skandinavien oder anderswo. Wir schließen daraus, dass die Temperatur-Historie des letzten Jahrtausends viel weniger verstanden ist als oft behauptet, und dass die Temperaturvarianz der letzten 1400 Jahre im regionalen und vor allem im hemisphärischen Maßstab weitgehend unbekannt ist. Es braucht Expertenteams, um die bestehenden Aufzeichnungen zu bewerten und die Unsicherheiten der Jahrtausende langen Temperaturrekonstruktionen  zu reduzieren, bevor wir halbwegs sicher zukünftige Klimaszenarien konstruieren können.

Gepostet von Anthony Watts

Link: http://wattsupwiththat.com/2012/10/18/yet-another-paper-demonstrates-warmer-temperatures-1000-years-ago-and-even-2000-years-ago/

Übersetzt von Chris Frey EIKE, dem mehrere Passagen hier inhaltlich nicht verständlich waren.

Bemerkung: Eine Anfrage bei dem deutschen Mitautor Ulf Büntgen ergab, dass dieser Text im Original nur in Englisch vorliegt.




„SchwarmStrom für die Energiewende“ Die Geschichte einer Öko-Utopie

Blockheizkraftwerke (BHKW)

Die Ökoideologie sieht die Zukunft der Energieversorgung im Ersatz der Großkraftwerke durch eine „dezentrale“ Stromerzeugung. Die „Erneuerbaren Energien“ sollen mit virtuellen Kraftwerken aus tausenden Kleinst-BHKW mit gleichzeitiger Strom- und Wärmeerzeugung kombiniert werden.

Das Schwarmstromkonzept ist „eine ideale Ergänzung zur Stromerzeugung aus erneuerbaren Energien“.

In der Realität gibt es aber einen massiven Systemkonflikt zwischen dem Ausbau der „Erneuerbaren Energien“ und dem Ausbau der Kraft-Wärme-Kopplung (KWK). Gerade die kleinen BHKW weisen zusätzlich die spezifisch höchsten Kosten auf und sind wenig effizient. Die behaupteten Energieeinsparungen treffen nicht zu.

Die Politik verfolgt mit dem in 2012 novellierten Kraft-Wärme-Kopplungsgesetz weiter das Ziel, den KWK-Anteil bis 2020 auf 25% der Stromerzeugung zu verdoppeln und hat die Subventionen erhöht. Im aktuellen Energiekonzept der Bundesregierung wurde das Ziel einer Primärenergiereduzierung bis 2020 um 20% und bis 2050 um 80% im Gebäudebereich gesetzt. Dies hat dann den gegenläufigen Effekt und bedeutet in der Konsequenz das Ende der KWK im Heizungssektor.

Subventioniert werden die BHKW mit dem KWK-Zuschlag, dem Wegfall von Energiesteuern, ggf. der Stromsteuer sowie einem Investitionszuschuss. Die gekoppelte Erzeugung von Kraft und Wärme ist Voraussetzung für den Erhalt der Subventionen und die bedingte Wirtschaftlichkeit für den Betreiber.

Im Kraftwerksbereich und bei industriellen Anlagen ist die KWK sicher meist sinnvoll. Hintergrund sind die bei Großanlagen weitaus günstigere Anlagen-, Betriebs- und Energieträgerkosten, die mögliche Flexibilität in der Strom- und Wärmerzeugung und der höhere elektrische Wirkungsgrade (z.B. 60 % GUD gegenüber 33 % Gasmotor).

„SchwarmStrom mit dem ZuhauseKraftwerk“

Das „ZuhauseKraftwerk“ besteht aus einem VW-Motor mit einer elektrischen Leistung von 19 kW und einer thermischen Leistung von 36 kW gekoppelt mit Pufferspeichern von meist 2.000 l Volumen (technisches Datenblatt und Beschreibung).

Bei den üblichen BHKW erfolgt die Auslegung auf die Wärmegrundlast, um hohe Benutzungsstunden (möglichst > 5.000 h/a) der teuren BHKW zu erzielen. Erforderlich ist dann ein Spitzenlastkessel.

Das „SchwarmStrom“-Konzept beinhaltet eine monovalentes und überdimensioniertes BHKW, welches mit etwa 1.500 Betriebsstunden wie ein Heizkessel betrieben wird.

Durch den Speicher kann die sonst zum Wärmebedarf synchrone Stromerzeugung zeitlich entkoppelt werden. Bei einer angenommenen Temperaturspreizung von 30 K ist der 2.000 l Speicher ohne Wärmeentnahme bereits nach rund 2 Stunden vollständig geladen.

Die übliche Stromvergütung eines Klein-BHKW liegt aktuell bei rund 10 bis 11 ct/kWh und setzt sich zusammen aus dem BaseloadPreis (KWK-Index), dem KWK-Zuschlag und dem Konstrukt der vermiedenen Netzentgelte.

Das Lichtblickkonzept basiert auf der möglichen Verlagerung der Stromerzeugung im Tagesverlauf. Die Anlagen werden zu einem virtuellen Kraftwerk gebündelt und zentral gesteuert. Der Strom kann dann am Spot- und Regelenergiemarkt vermarktet werden. Über die erhofften Mehrerlöse gegenüber dem BaseloadPreis soll die Wirtschaftlichkeit des aufwändigeren Anlagenkonzeptes erzielt werden.

In der Darstellung von Lichtblick findet man die Aussagen, dass der „SchwarmStrom die beste Ergänzung zur schwankenden Windenergie darstellt“ und das mit den geplanten 100.000 Anlagen „zwei mittlere Atomkraftwerke ersetzt werden“ können. Dies ist angesichts fehlender Langzeitwärmespeicher und der nur 1.500 Betriebsstunden realitätsfern.

Innovationspreis für Klima und Umwelt

Das ideologisch korrekte „SchwarmStrom“-Konzept wurde folgerichtig ausgezeichnet:

Bundesumweltministerium und BDI zeichnen ZuhauseKraftwerke mit Innovationspreis aus

(16.03.2011).

Das Ende der Geschichte

Bereits ein Jahr später kosteten die Probleme mit dem Projekt den Lichtblick-Preisempfänger Dr. Christian Friege seinen Posten.

Offensichtlich wurde auch die Entwicklung der Märkte falsch eingeschätzt. Die Erdgaspreise sind im Zeitraum um rund einen Cent/kWh gestiegen. Die möglichen Erlöse am Spotmarkt sind durch die volatile PV- und Windeinspeisung gefallen. Eine Teilnahme am Regelenergiemarkt scheidet bei den aktuellen Vergütungen eher aus.

Das „ZuhauseKraftwerk“ wurde ursprünglich von Lichtblick zu einem Rundum-Sorglos-Paket (Wärme-Contracting) mit 5.000 EUR Baukostenzuschuss und einem an den Gaspreisindex gekoppelten Wärmepreis angeboten.

Im September 2012 wurde von Lichtblick der Baukostenzuschuss auf mindestens 9.900 EUR angehoben und dann der Vertrieb vorübergehend ausgesetzt.

Im Oktober 2012 wurde von Lichtblick das Contracting-Modell aufgegeben. Nun kann der Interessent das „ZuhauseKraftwerk“ für nur 27.990 EUR netto zzgl. Installationskosten kaufen. Unter den benannten Bedingungen rechnet sich dies nur, wenn das BHKW in der Grundlast mit möglichst hohen Benutzungsstunden eingesetzt wird. Der ursprünglich vorgesehene monovalente Heizungsbetrieb wird vollkommen unwirtschaftlich.

Damit wurde in der Konsequenz auch der „SchwarmStrom“ beerdigt. Der erforderliche zeitlich variable Betrieb der Anlagen ist praktisch nicht mehr möglich.

Von den geplanten 100.000 „ZuhauseKraftwerken“ wurden bisher 600 Anlagen installiert.

Gastautor Michael Clemens, für EIKE; Oktober 2012

Quellen:

SPON: Energiewende Vorwärts in die Schwarmstrom-Revolution vom 01.10.2009

Bündnis 90/Grüne:  Energie 2050: sicher erneuerbar vom 10.09.2010

TU Berlin: KWK Studie vom März 2010

http://www.kwkg-novelle.de

Lichtblick: Technisches Datenblatt ZuhauseKraftwerk

BHKW Prinz:  ZuhauseKraftwerk

BHKW-Infozentrum: Grundlagen Planung

Lichtblick: Broschüre

http://www.eex.com/en/

IKU-Innovationspreis für die Lichtblick AG

FAZ: Oekostrom Lichtblick und VW fehlen Kraftwerkskunden vom 25.07.2012

BHKW-Infothek vom 01.10.2012

BHKW- Infothek vom 11.10.2012




Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 2

Teil 2: „Trittbrettfahrer“ CO2 – Das Phantom der  Klimawissenschaft

 

4. Bleibt noch etwas für CO2 „übrig“?

 

Wir versetzen uns einmal in die Lage der CO2-Anhänger und gehen von der Annahme aus, dass die gesamte Erwärmung Erfurts auf den behaupteten CO2-TE zurückzuführen wäre und suchen nach Korrelationen beider Verläufe seit 1979.

Setzt man die Jahresmittelwerte der CO2- Konzentration, ermittelt am Mauna Loa- Observatorium, zu den Jahresmitteltemperaturen für Erfurt seit 1979 in Beziehung, so kommt immerhin ein mäßiger Zusammenhang heraus:

 

 Abbildung 15

Der positive Zusammenhang überrascht schon deshalb nicht, weil der Langzeittrend (30 Jahre) der Jahresmittelwerte beider Größen angestiegen ist. Handelt es sich also nur um eine „Schein- Korrelation“, oder steckt mehr dahinter? Hierzu ist es notwendig, die Korrelation auch auf kleinen Skalen zu betrachten, da die Lehre von der CO2-basierten Erwärmung eine unmittelbare Ursache-Wirkung-Beziehung fordert und diese postuliert, was z.B. in den Berechnungen nach Stefan & Boltzmann zum Ausdruck kommt. Bereits ein Blick auf den Temperaturverlauf  Erfurts für dieses Jahrhundert (wir zeigten ihn eingangs des 1. Teils), lassen Zweifel aufkommen, da seither die Temperaturen fallen, der CO2-Pegel aber beschleunigt ansteigt. So verwundert es nicht, dass unter Physikern die Klimasensitivität von CO2 oder sonstigen sog. Treibhausgase kontrovers diskutiert wird. Sogar ein kühlender C02-TE ist in der Diskussion. Bisher gibt es jedoch keinen wissenschaftlichen Versuchsbeweis zur Bestätigung dieses „CO2-Treibhauseffektes“, so dass deutliche Temperaturveränderungen (Erwärmungseffekte) durch CO2 nicht sehr wahrscheinlich sind.    

Viertes Ergebnis: Anhand der obigen Korrelationsbeziehung, wären seit 1979 höchstens 0,25K, Temperaturanstieg in Erfurt durch die Zunahme der CO2- Konzentration verursacht worden- das würde bei (prinzipiell unzulässiger, aber hier mal beispielhaft angewandter) linearer Projektion einem Temperaturanstieg von 0,8K  (weniger als 1K!) in 100 Jahren entsprechen. Selbst dieses Ergebnis, das von einem existenten C02-TE ausgeht, der in der Wissenschaft kontrovers debattiert und bisher dort nicht nachgewiesen werden konnte, ist weit entfernt von den Panikvoraussagen mancher Treibhausforscher, deren Vorhersagen um fast das 10-fache höher sind.                                                                                    

Anmerkung: Häufig wird in Veröffentlichungen die folgende Grafik (Abbildung 15) gezeigt, welche einen erheblichen Einfluss der „Treibhausgase“ auf den Anstieg der globalen Temperatur belegen soll:

 

Abbildung 16

Simulation (WALTER) der beobachteten global gemittelten

Jahresanomalien 1860–2008 (Referenzperiode 1961–1990) der bodennahen

Lufttemperatur (Beob., dünne Kurve) durch ein neuronales

Treibhausgase (GHG, gestrichelt), Sulfatpartikel (SU, punktiert) und

kombiniert (GHG+SU, grau) sowie Markierung einiger explosiver Vulkanausbrüche

(maximaler Temperatureffekt i.a. ca. 1 Jahr nach Ausbruch)

und El-Niño-Ereignisse

Der entscheidende Mangel bei dieser Darstellung: Zwei ganz wichtige „Verursacher“ des Temperaturanstiegs wurden erst gar nicht in die Untersuchungen mit einbezogen- erstens die Urbanisierungs- und Flächenhaften Wärmeinseleffekte und zweitens solare Effekte, die über die Schwankungen der „Solarkonstante“, oft als „TSI“ (Total Solar Irradiance – Der TSI ist im Grunde eine Mogelpackung, da er „Total“ suggeriert, die Messgeräte in den Satelliten aber nur einen Teil der Sonnenstrahlung erfassen und zwar zwischen 200nm – 2.000 nm Wellenlänge. Gerade die hochvariablen Energiebestandteile der solaren Strahlung, werden gar nicht erfasst!) bezeichnet, weit hinausgehen und beispielsweise unter dem „SVENSMARK- EFFEKT“ zusammengefasst werden. Daher ist der abgeschätzte „GHG- Effekt“ in obiger Grafik deutlich zu groß.

Um die Temperaturen und Wetterlagen in Deutschland und damit auch in Erfurt zu verstehen, muss man sich auf die andere Seite des Globus, in den Pazifik begeben. Die Welt ist ein „Dorf“, nicht nur in unserem Zusammenleben. Seit langem ist bekannt, dass die bekannten El Niño/La Niña-Ereignisse Einfluss auf die Großwetterlagen in Europa haben. Hier sind z.B. die Untersuchungen von Prof. Brönnimann (ETH Zürich, “Pazifik lies Europa erfrieren“) und des MPI für Meteorologie und der University of Cambridge, “Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“ genannt.

Weiter ist bekannt, wie die globale Mitteltemperatur im Gleichtakt zu El Niño/La Niña-Ereignissen schwankt (folgende Abbildung).

 

Abbildung 17 oben zeigt die globale Temperaturdatenreihe der letzten 30 Jahre. Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El- Niño- Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen. Zur CO2-Entwicklung besteht keine erkennbare Korrelation.

Ebenso ist bekannt, dass El Niño/La Niña-Ereignisse mit der Aktivität der Passatwinde und damit der Ausprägung der Hadley- Zellen zusammen hängen.

 

Abbildung 18 zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark gibt es eine These, wie die solare Aktivität die Bewölkung beeinflusst. Den Einfluss des Polfeldes (Hale-Zyklus) auf die Wolkenbedeckung wurde bereits gezeigt.

Wie Untersuchungen zeigen, hat sich die Hadley- Zelle im Zeitraum der moderaten Erwärmung zwischen 1979 und 2005 (Anstieg des Hauptsonnenzyklus, des im Mittel 208-jährigen de Vries/Suess-Zyklus – dieser hatte in 2003 sein Maximum und damit die Sonne maximale Aktivität in den letzten 200 Jahren) um 5-8 Breitengrade ausgedehnt und sich dessen Volumen, da auch die Tropopause wegen der erhöhten Konvektion durch die Wärmeflüsse um einige Zehnmeter erhöhte, um ca. 5% vergrößert, D. J. Seidel et al. (2008), ”Widening of the tropical belt in a changing climate“, Nature Geoscience 1, 21-24.

Darüber hinaus fanden Xiao- Wei Quan et al. (“Change of the Tropical Hadley Cell Since 1950“) heraus, dass die Windgeschwindigkeiten in der Hadley- Zelle stark differieren. Werden deren Ergebnisse, mit den solaren Parametern in Verbindung gebracht, ergibt sich folgendes Bild.

 

Abbildung 19: Wie nicht anders zu erwarten, sind die El Niño- Ereignisse unmittelbar mit der Aktivität in der Hadley- Zelle gekoppelt. Die kleine Abbildung zeigt, wie die Auswirkungen von El Niño um den ganzen Globus zu verzeichnen sind, insbesondere in einem Band von ±30° nördlicher und südlicher Breite, was dem Gebiet der Hadley- Zellen entspricht (kleine Abbildung, oben). Wie die Gesamtabbildung zeigt, ist jeder El Niño einem Hadley- Ereignis direkt zugeordnet (rote gestrichelte Linien) und damit, der solaren Aktivität unmittelbar zuzuordnen. Dazu wird der gezeigte Hadley- Zirkulationsindex verwendet. Dieser wird aus der gemittelten Windgeschwindigkeit der 200 hpa- Höhe, minus der gemittelten Windgeschwindigkeit in der 850 hpa-Höhe gebildet und ist somit ein Maß für die Luftmassengeschwindigkeit und des Luftmassenstroms in der Hadley-Zelle. Die Abbildung zeigt ganz deutlich, dass mit Eintreten eines El Niño-Ereignisses und des entsprechenden solaren Parameters, die Windgeschwindigkeiten in der Höhe zunehmen. Dies ist auch der Schlüssel zu der Erkenntnis, dass die El-Niño-Auswirkungen nicht nur zonal (zwischen ±30° geographischer Breite), sondern global auftreten. Der Grund hierfür ist ein fundamentales physikalisches Gesetz: Der Drehimpulserhaltungssatz.

Drehimpuls

Der Drehimpuls (Einheit: Nms) wirkt bei einer Kreisbewegung in Richtung Zentrum und gibt die Drehachse der Bewegung an. Er steht damit senkrecht zur Ebene, in der sich die Masse bewegt. Der Drehimpuls ist abhängig von der Geschwindigkeit, der Masse, sowie dem Abstand zur Drehachse. Bei Zunahme einer der drei vorgenannten Parameter, wächst der Drehimpuls an. Der Drehimpulserhaltungssatz gibt an, dass der Gesamtdrehimpuls in abgeschlossenen Systemen konstant ist.

Die Wettersysteme der Erde werden in je drei Hauptbänder (jeweils Nord- und Südhalbkugel) eingeteilt:

Hadley- Zelle, links und rechts vom Äquator. Dieser schließt sich die

Ferrel- Zelle an, in der wir leben und der

Polarzelle

Hadley- und Polarzelle sind mit einem ostwärts gerichteten Luftmassenstrom verbunden, wogegen in der Ferrelzelle die Westwinddrift vorherrscht. Sowohl die Ostwinde der Subtropen/Tropen, als auch die Ostwinde der Polargebiete und der Westwind der mittleren Breiten sind mit einem Drehimpuls verbunden. Aus Gründen der Drehimpulserhaltung muss deren Summe Null ergeben.

Verändert sich der Drehimpuls z.B. auf Grund einer Geschwindigkeitszunahme der Luftmassenströmungen in der Hadley- Zelle (siehe vorheriges Chart), so muss dies wegen dem Drehimpulserhaltungssatz Auswirkungen auf die Luftströmungen in den beiden anderen Zellen (Ferrel- und/oder Polar-Zelle) haben. Wird die Geschwindigkeit der Luftströmungen durch ein solares Ereignis in der (oberen) Hadley- Zelle erhöht, so sind (müssen über den Drehimpulserhaltungsssatz) durch die Kopplung über den Drehimpuls auch die anderen Zelle(n) beeinflusst. In der Ferrelzelle sind geringere Drehimpulse, was zu einem ruhigen, kalten Winter führt und somit die Untersuchungen von Prof. Brönnimann und des MPI-M erklären kann.

 

Zusammenfassung:

 

Die Ergebnisse zeigen, dass der Einfluss auf unser Wetter/Klima, bis in die heutigen Tage, in erster Linie durch unser Zentralgestirn, die Sonne bestimmt wird. Menschengemachte Einflüsse sind indes vorhanden und treten stark in Erscheinung. Dies sind jedoch nicht die Auswirkungen durch das Ausbringen sog. Treibhausgase wie CO2, sondern die Platzierung der Messstellen an ungeeigneten Orten, sprich, in vom Menschen stark veränderten Landschaften, wie Städten, Großflughäfen oder land- und forstwirtschaftlicher Nutzflächen, also Trockengebieten, die jeglichen Langzeitvergleich der Temperaturen unsinnig machen, sofern sie unberücksichtigt bleiben. Diese Faktoren werden in der wissenschaftlichen Literatur allgemein als Wärmeinseleffekt (WI) oder Urban Heat Island (UHI) bezeichnet. Der immer noch in den Medien hochgehaltene Stab einer THG-basierten Erwärmung ist nicht grundsätzlich auszuschließen. Sofern dieser Einfluss vorhanden ist (Ursache-Wirkung fehlt), ist er mit weniger als 3%-Anteil (weniger als 4 hundertstel °C) an der Gesamterwärmung von 1,3°C vernachlässigbar.

 

Ausblick

 

Entgegen den Vorhersagen der auf CO2 basierenden „Klimamodellen“ hat es weder in Erfurt, noch in Deutschland, noch global während der vergangenen 10 bis 15 Jahre einen weiteren Temperaturanstieg gegeben. Diese Stagnation dauert zwar noch nicht lange genug an, um daraus allein mit Sicherheit auf ein generelles Ende des „neuzeitlichen Klimaoptimums“ zu schließen, aber zusammen mit neuen Erkenntnissen über den dominanten Einfluss der Sonne auf das Klima (MALBERG, SVENSMARK, VAHRENHOLT/LÜNING und andere) bringt sie die Vertreter der Theorie einer durch vom Menschen verursachten „CO2- Klimaerwärmung“ zunehmend in Erklärungsnöte.

Schon warnen Experten (z.B.: NASA) vor einer neuen „Kleinen Eiszeit“, infolge der deutlich nachlassenden Sonnenaktivität. Es bleibt nur die Hoffnung, dass auch diese Abkühlungsszenarien zu pessimistisch und übertrieben sind, und die Erkenntnis, dass Klima, trotz neuester wissenschaftlicher Erkenntnisse, nicht über längere Zeiträume vorhergesagt werden kann. Was gesagt werden kann ist, dass Klimawandel ein stetiger Begleiter in der Evolutionsgeschichte ist und wir Menschen nur über die Urbanisierungs- und Flächenhaften Wärmeinseleffekte wesentliche, auf die besiedelten und genutzten Landflächen beschränkte Klimaeinflüsse erzeugen. Die Schreckensszenarien, die zuweilen zu hören sind, entbehren jeder wissenschaftlichen Grundlage.

 

Abbildung 20: Ein Paar, das nicht so recht zusammenpassen will: Während die CO2- Konzentration seit 1995 fast linear gestiegen ist (blaue Säulen in oberer Abbildung), verhält sich die „globale“ Temperatur (physikalisch gibt es keine „Globaltemperatur“, sondern, diese ist ein rein statistischer Wert) gänzlich anders (rote Säulen, aus MALBERG 2012). Inwieweit diese, wie Eisbohrkernuntersuchungen zeigen (Abbildung 21), nach einem Hauptsonnenzyklus (208-jährige de Vriess-Suess-Zyklus, hatte in 2002/2003 sein Aktivitätsmaximum) wieder deutlich fällt, wie NASA und viele andere Forscher es erwarten, muss abgewartet werden, da die inneren Abläufe der Sonne, die ihre Aktivität steuern, zu wenig bekannt sind.

 

Abbildung 21 zeigt die Kälteperioden der letzten 1.100 (ergänzt nach Quelle: United States Geological Survey, C14-Daten von Reimer et al. (2004)). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus. Nach jedem Hauptsonnenzyklus fallen die Temperaturen deutlich. Um die Jahrhundertwende im Jahr 2000 hatten gleich drei solare Sonnenzyklen ihr Maximum (deren Maxima fielen zusammen), welche jeweils zusätzlich stark ausgeprägt waren:

– Hauptsonnenzyklus (208-jährige de Vriess-Suess-Zyklus) in 2002/2003

– 36-jährige Brückner-Landscheidt-Zyklus in 2005 (Brückner hat ihn anhand von Klimauntersuchungen entdeckt und der Physiker Landscheidt den Nachweis erbracht, auf was er beruht)

– Magnetische Aktivität im 11-jährigen Schwabe-Zyklus in 2002

 

Verfasst und zusammengestellt (2012) von

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE

 

Literatur- und Quellenangaben

Wehry, W. (2009): Mehr Sonnenschein, weniger Nebel und höhere Temperatur- anthropogene Klima- Änderung? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 47/09 (Sonderbeilage 23/09) vom 09.07.2009

Malberg, H. (2010): Über scheinbare und tatsächliche Klimaerwärmung seit 1850. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 58/10 (Sonderbeilage 26/10) vom 28.09.2010

Malberg, H. (2012): Über sprunghafte Anstiege von CO2 und globaler Temperatur. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 09/12 (Sonderbeilage 05/12) vom 31.01.2012

Kämpfe, S. (2012): Zu trockener, warmer, sonniger Herbst 2011 in Thüringen – ungewöhnlich oder einfach nur schön? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte als Beilage 03/12 (Sonderbeilage 01/12) vom 04.01.2012 und in leicht geänderter Fassung bei www.eike-klima-energie.eu 27.12.2011

Kämpfe, S. (1998): Pflanzen als Klimazeiger- ein Beitrag zur Vegetationsgeografie in Thüringen-. Beilage Nr. 196/1998 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor)

Koch, H. G. (1953): Wetterheimatkunde von Thüringen. Gustav Fischer Verlag Jena (nur analog vorliegend)

Berliner Wetterkarte e.V (2000 bis 2011): Beiträge zur Berliner Wetterkarte. Klimatologische Übersicht Europa, Monatsausgaben Januar 2000 bis Dezember 2011

Schönwiese, C.-D., Walter, A. (2009): Neue statistische Abschätzungen zur anthropogenen und natürlichen Steuerung des Globalklimas. Bericht in den Mitteilungen der DMG, 01/2009, S. 4-5

Kowatsch, J., Leistenschneider, R. (2010): Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen- eine Wertung der DWD- Temperaturmessstationen. www.eike-klima-energie.eu 04.10.2010

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen. www.eike-klima-energie.eu 20. Januar 2012

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der gemessenen Temperaturen. www.eike-klima-energie.eu 04.08.2012

Peter C. Werner, Friedrich-Wilhelm Gerstengarbe (2010): KATALOG DER GROSSWETTERLAGEN EUROPAS (1881-2009) NACH PAUL HESS UND HELMUT BREZOWSKY 7., VERBESSERTE UND ERGÄNZTE AUFLAGE. PIK Report No. 119

Deutscher Wetterdienst (2010, 2011): Großwetterlagen- Anzahl der Tage. www.dwd.de

Deutscher Wetterdienst (1991 bis 1999): Beilagen zur Wetterkarte des Deutschen Wetterdienstes. Klimatologische Werte für die Jahre und Monate 1991 bis 1999

Deutscher Wetterdienst (2000 bis 2006): WITTERUNGSREPORT und WITTERUNGSREPORT express. Monatshefte Januar 2000 bis Dezember 2006

Deutscher Wetterdienst (Herausgeber): Stadtklima. Hauptschriftleiter M. Schlegel. promet, Jahrgang 9, Heft 4, 1979

http://www.leif.org/research/cloud-cover.png

Meteorologischer Dienst der DDR, Hauptamt für Klimatologie in Potsdam (1979 bis 1990): Monatlicher Witterungsbericht für das Gebiet der Deutschen Demokratischen Republik. Beilage zum Täglichen Wetterbericht. Sonderhefte (Jahresberichte 1979 bis 1990)

Calder, N., Svensmark, H. (2007): The Chilling Stars – A New Theory of Climate Change, übersetzt ins Deutsche von Helmut Böttiger: Sterne steuern unser Klima: Eine neue Theorie zur Erderwärmung. Patmos Verlag, Düsseldorf 2008

Vahrenholt, F., Lüning, S.(2012): Die kalte Sonne. Warum die Klimakatastrophe nicht stattfindet. Hoffmann und Campe, Hamburg 2012

Xiao-Wei Quan et al. “Change of the Tropical Hadley Cell Since 1950“

Standardisierte beziehungsweise normalisierte NAO- Werte Januar 1950 bis Dezember 2011: www.cpc.noaa.gov/

Evan et al. “Arguments against a physical long-term trend in global ISCCP cloud Amounts”

Prof. Brönnimann , ETH Zürich, “Pazifik lies Europa erfrieren“

MPI für Meteorologie und der University of Cambridge, “Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate

(http://wattsupwiththat.com/2009/02/17/the-trade-winds-drive-the-enso/#more-5702)

American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000

Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003, European Geophysical Society

United States Geological Survey, C 14-Daten von Reimer et al. (2004)




Al Gore machts vor

Krieg der Liberalen gegen die Transparenz

von Chris Horner.

Zusammengestellt von Anthony Watts

Da kam also Al Gore, um Gutes zu tun, und am Ende tat ihm das wirklich gut, wie die Washington Post berichtete. So etwas ist in Washington nichts Besonderes, außer vielleicht hinsichtlich der Größenordnung: Gore war beim Ausscheiden aus seinem Amt [als Vizepräsident unter Bill Clintons Präsidentschaft] 2 Millionen Dollar schwer, jetzt sind es über 100 Millionen Dollar.

Klar, Gore hat „investiert“, direkt oder auch indirekt durch profitable Arrangements mit vielen Firmen, deren Finanzierung hauptsächlich mit Steuerzahlergeld erfolgte und ergänzt durch privates Geld, das ja gerne dorthin fließt, wo Politiker sich engagieren.– Ein „Halo-Effekt“, der darin besteht, dass einmal geöffnete Geldhähne nur schwer wieder geschlossen werden können, weil die Politiker fürchten, einen steuergeldfinanzierten Flop an der Backe zu haben.

Da werde ich an die Sache mit dem Personal erinnert, welches Präsident Obamas 90-Milliarden-Dollar-Programm für „Grüne Energie“ durchführt, eine Verschwendung von Steuergeldern, begründet mit der Verkaufsmasche: „Wenn wir den Bimbes nicht kriegen, können wir nicht überleben.“

Einer dieser wunderhübschen Zufälle zum Beispiel: Haben Sie gewusst, dass Obama Frau Cathy Zoi, Geschäftsführererin von Al Gores eigener Propagandatruppe für Grüne Energie, der Alliance for Climate Protection, zu seiner stellvertretenden Ministerin für Erneuerbare Energie gemacht hat? Mehr dazu schreibe ich in einem Kapitel meines neuen Buches: The Liberal War on Transparency: Confessions of a Freedom of Information “Criminal”  [Krieg der Liberalen gegen die Transparenz: Bekenntnisse eines Informationsfreiheits-„Kriminellen“].
(Grüne haben diese Maßnahme begrüßt als vergleichbar mit der Abwerbung von Van Jones)

Nachdem deutlich wurde, dass Cathy Zoi nicht für eine von Obama vorgesehene höhere Position durchsetzbar war, setzte sich Frau Zoi mit einem Gore-artigen Fonds ab, den macht sie zusammen mit einem gewissen Herrn Soros. Dank des „Informationsfreiheitsgesetzes“ (Freedom of Information Act) konnte ich einige E-Mails bekommen, die aus Frau Zois Amtszeit stammen. Ich habe noch Einiges über die Besprechungen zu ihren Anordnungen und Diensthandlungen erhalten. Mehr dazu im Buch.

Generell stellt sich die Sache so dar:

Als Beleg dafür, wie unterhaltsam und erhellend Transparenz in der Regierung sein kann, fiel mir eine E-Mail vom Leiter der externen politischen Beraterfirma von Solyndra in die Hände, einem engen Vertrauten von Frau Zoi. Es teilte ihr nur kurz mit, dass er „mit ihrem „Senior-Berater“ (einem  Politikwissenschaftler den Zwanzigern, noch nass hinter den Ohren) auf einen Drink an der Bar am Swimming Pool bei Caesars gestanden hätte“. Genau zu dieser Zeit drängte Präsident Obamas Polit-Team die Regierungsmitglieder, eine beispiellos verschwenderische Kreditbürgschaft für Solyndra zu geben, einer mit seinem Wahlkampf verbundenen Firma. Die Bürgschaft sollte bald den Bach hinunter gehen, was zu erwarten war.

Wie schön! Andere Emails zeigen, wie die Stellvertretende Ministerin Zoi mit noch einem anderen Mitarbeiter von Solyndras politischem Ableger scherzte, ganz so wie es enge Vertraute tun. Es ging zum Beispiel um ein Essen in ihrem Hause an einem Wochenende, das zu einem besonderen Ereignis würde mit vielen politischen Spaßvögeln dabei. Andere Emails zeigen, wie Zoi die gleiche Firma anheuerte, augenscheinlich auf ehrenamtlicher Basis (das scheint nach dem Anti-Deficiency Act 31 USC § 1342 illegal zu sein), um ihr bei der Zusammenstellung von Material zu helfen, das sie für die Erarbeitung der Kampagne des Energieministeriums brauchte, um von innen zielgerichtet Druck ausüben zu können.

Nein! Und Abscheu über diese ganze mit Solyndra und “Grünen Anreizen” verbundene Geldverschwendung und über die Kumpane, die sich mit Hilfe der Projektvorteile auf Steuerzahlers Kosten bereicherten!

Bei der gegenwärtigen Regierung, die sich lustigerweise als die transparenteste aller Regierungen sieht, können wir nun rascher Informationen anfordern, als es bei der Solyndra-Sache möglich war. Besser als damals, als der Skandal ans Licht kam, und ich bereits durch die Anforderungen von Informationen die tiefgreifende Korrumpierung von Obamas „Grüner Energie“-Operation offen legte. So hat zum Beispiel eine weitere meiner FOIA – Anfragen [Anfrage aufgrund des Informationsfreiheitsgesetzes], die in Zois Herrschaftsgebiet ins Energieministerium zielte, zu einem wahren Schatz von Emails geführt, die zeigen, was es mit dem „Großen Windenergie-Betrug“ auf sich hat, wie es Investor’s Business Daily nannte. Dabei wurden auch die Versuche enthüllt, den spanischen Wirtschaftsprofessor und dessen Team bei der Dokumentation der „Grünen Arbeitsplätze“ zu schmieren, welche die wahre Katastrophe der Pläne der Liberalen zur Umgestaltung von Amerikas Wirtschaft zu einer „Wirtschaft sauberer Energien“ zeigt.

Mit Hilfe von FOIA konnte ich die Entstehung der von Panik getriebenen Versuche verfolgen, die für politische Gegner gehaltenen Leute zu diskreditieren. Dies bestätigte den vorsätzlichen Bruch von Obamas Versprechungen auf Transparenz und auf Ausschaltung der Lobbyisten aus den einflußreichen Positionen in der Politik.

In den von der Regierung überlassenen Dokumente befinden sich auch enthüllende Details, wie der Kampf um eine „Industrie der Erneuerbaren“ mit Lobbyisten und linken Pressure Groups koordiniert wurde: Solyndra ist bekannt, aber vor allem wurden Gore und andere gut vernetzte Individuen reich. Darunter befindet sich auch Soros mit seinem Projekt „Zentrum für den amerikanischen Fortschritt“. Die industrielle „Wind Lobby“ diente als Argument bei der Behauptung des Energieministeriums gegenüber dem Kongress, dass es „keinen direkten Kontakt“ mit dem „Zentrum für den amerikanischen Fortschritt“ gepflegt hätte, oder zu anderen Pressure Groups. Die Windmühlen-Lobbyisten dienten als gutes Beispiel für nicht erwünschte Kontakte des Energieministeriums.

Investor’s Business Daily beschrieb diese Aufzeichnungen als genau so explosiv wie das schon bekannte 2009er  “Climategate”-Informations-Leck mit seinen Emails und dem Computer-Code. Die Aufzeichnungen zeigen, wie führende von Obama eingesetzte Politiker sich für Industrien einsetzten, die im Namen einer Anti-Energie-Ideologie verbunden mit einem Kumpel-Kapitalismus finanziell aufgerüstet wurden, und dabei die reichlich vorhandenen heimischen Energie-Ressourcen niedermachten, die aus ideologischen Gründen unerwünscht sind.

Wenn solche Wahrheiten durchsickern und wir weiter Zugriff zu öffentlichen Aufzeichnungen haben, ist es keine Überraschung, wie gut es Al Gore mit seinen „Investitionen“ ging. Ob es so bleibt, wenn der Steuerzahler meint, nun sei es genug, werden wir sehen.

Christopher C. Horner ist Anwalt in a Washington, D.C. und Autor des neuen Buches The Liberal War on Transparency: Confessions of a Freedom of Information “Criminal” (Threshold Editions, published October 2, 2012)

Original des Artikels hier.

Übersetzung: Chris Frey und Helmut Jäger, EIKE




ACATECH Positionspapier: „Die Auswirkungen des Klimawandels in Deutschland…sind für die kommenden Jahrzehnte grundsätzlich beherrschbar“

Doch dem Kanzleramt passte weder die Botschaft, noch der geplante Zeitpunkt der Veröffentlichung. Der simple Grund dafür war, dass Anfang Oktober die neuen, stark erhöhten Zuschläge für die Förderung der „Erneuerbaren“ verkündet würden, die ja primär mit der zwingend erforderlichen Notwendigkeit des „Klimaschutzes“ begründet werden. Und das Kanzleramt hatte den  nicht unbegründeten Verdacht, dass das Zahlvolk der Verbraucher immer noch in der Lage ist eins und eins zusammen zu zählen und sich noch mehr als bisher fragen wird, warum wir überteuerten, unbrauchbaren Strom in unbegrenzter Menge nach EEG kaufen müssen, wenn der Klimawandel an sich kein Problem darstellt.  

Und die Kommission fügte sich der Weisung des Kanzleramtes und vertagte gehorsam  die Vorstellung auf den 22. Oktober. Dass das Kanzleramt mit dieser Weisung gegen die im Grundgesetz garantierte Freiheit der Wissenschaft verstieß, wurde billigend in Kauf genommen.

Dabei hatte alles recht erfreulich angefangen. Ausgehend von einer Anregung des Altkanzlers Helmut Schmidt vor gut 1 ¾  Jahren , der in einem Festvortrag im  Januar 2011 zum 100. Geburtstag der Max-Planck-Gesellschaft hart mit dem IPCC ins Gericht gegangen war: „Immer schon habe es Eis- und Warmzeiten gegeben, auch natürliche Einflüsse spielten dabei eine Rolle, sagte der Altbundeskanzler der Festgesellschaft. "Die von einer internationalen Wissenschaftlergruppe (Intergovernmental Panel on Climate Change, IPCC) bisher gelieferten Unterlagen stoßen auf Skepsis", merkte der SPD-Politiker an, und:

…"es scheint mir an der Zeit, dass eine unserer wissenschaftlichen Spitzenorganisationen die Arbeit des IPCC kritisch und realistisch unter die Lupe nimmt und sodann die sich ergebenden Schlussfolgerungen der öffentlichen Meinung unseres Landes in verständlicher Weise erklärt."..

..nahm man in der ACATECH diese Anregung auf und gründete eine Kommission dazu. Die Leitung übernahm eine 7-köpfige Steuerungsgruppe, darin der ACATECH Präsident Reinhard Hüttl,  sowie aus der Wirtschaft u.a. Ekkehard Schulz Exvorstandschef von ThyssenKrupp und Fritz Vahrenholt,  damals noch Vorstandschef der RWE Tochter RWE Innogy, vor allem aber Mitautor des Buches „Die kalte Sonne“.  

In der ausführenden Projektgruppe wirkten anfangs 36 später 32 Wissenschaftler (s.u.) aus den verschiedensten Wissensgebieten mit, aber auch Politiker wie Klaus v. Dohnanyi (ehemals Mitglied der Ethik-Kommission zum beschleunigten Atom-Ausstieg) und eben verschiedene Leute aus der Wirtschaft wie z.B. Fritz Vahrenholt und Hartmuth Zeiß von Vattenfall Europe.

Obwohl zu Beginn das Ziel klar definiert war, nämlich die Arbeit des IPCC kritisch unter die Lupe zu nehmen, wurde es von interessierten Kräften innerhalb der Gruppe schnell zu einer Ergänzung der IPCC Vorlage umdefiniert, indem man statt Kritik an der IPCC Arbeit zu leisten, schnell auf Ergänzung derselben, nämlich auf „Anpassungsstrategien in der Klimapolitik[1]“  umschaltete.

Diese Anpassungsstrategien zu fördern, ist seit langem das Hauptanliegen des ACATECH Präsidenten Reinhard Hüttl, im Hauptberuf Vorstandschef des Geoforschungszentrums in Potsdam mit über 1000 Beschäftigten. Als Ergebnis dieser Umwidmung eines so klaren Auftrages,  kommt denn auch weder im Papier noch bei der Vorstellung desselben, das IPCC und seine Arbeit oder gar Kritik an beiden, mehr vor.  Stattdessen wurde, nach heftigem Ringen und deftigen Kürzungen an der ursprünglichen Vorlage, die ….fast seitenfüllenden IPCC-kritischen Anmerkungen auf einen eher neutralen Hinweis zusammengestrichen: nämlich

..dass die Verteilung von Einflussfaktoren auf das Klima wie Treibhausgase, Sonnenaktivität, Vulkanausbrüche und Landnutzung am beobachteten Klimatrend der vergangenen 150 Jahre "nicht bekannt" sei. Es ging nun nur noch um Klimafolgen, nicht mehr um Klimaforschung selbst… schreibt Ulli Kulke von „Die Welt“.

Aber selbst dieses bisschen war dem Kanzleramt und vier Hardlinern[2] innerhalb der Projektgruppe noch zu viel. Ihnen ging die geringe Kritik am Weltklimarat noch viel zu weit. Sie wollten diesen schon sehr weichgespülten Satz und damit das ganze Papier nicht mittragen. Dies schrieben sie dem Vorsitzenden Hüttl in einem Brief:

Zitat aus die Welt [3]vom 19.9.12

…denn, dass auch "Industrievertreter ohne wissenschaftliche Kompetenz in Klimafragen mitarbeiten", so ließen die vier Aussteiger in einem Schreiben Hüttl wissen, sei zwar einleuchtend….

Das eigentliche Problem war dann jedoch die Klimaforschungsergebnisse Vahrenholts. Denn dieser hatte es nicht nur gewagt, den Alleinvertretungsanspruch des IPCC in Frage zu stellen, sondern darüber hinaus auch noch die Rolle des Menschen an der Klimaerwärmung zu verkleinern, indem er maximal 50 % des errechneten Anstiegs des statistischen Konstrukts „Globale Mitteltemperatur“ dem CO2 zuschrieb, wovon wiederum nur ein Teil anthropogen erzeugt sei.

Das wurde so im Buch "Die kalte Sonne" veröffentlicht und dazu dem "Spiegel" ein Hintergrund-Interview gegeben.

Zitat (Die Welt)

:…..In beiden begründete Vahrenholt seine These, dass der Einfluss der Sonne unter- und derjenige der Treibhausgase in der Klimaentwicklung überschätzt werde. Vor allem wegen dieser Äußerungen und weil Vahrenholt gegen den Willen der teilnehmenden Experten bestimmte Textpassagen aufnehmen lassen wolle" :…. ist aus unserer Sicht eine Zusammenarbeit mit Herrn Dr. Vahrenholt als Sitzungsleiter nicht mehr möglich"…, begründeten die vier Aussteiger ihren Schritt"

Pikant daran ist, dass keiner der vier Anstoß daran nahm, das unterschiedliche  Meinungen in der Wissenschaft sozusagen Grundnahrungsmittel sind und erst im Diskurs eine wissenschaftliche Theorie entsteht. Pikant auch, dass der Meteorologe Paul Becker vom DWD wohl als harter Verfechter der IPCC Linie bekannt ist, hingegen der Klimaforscher und Küstenschutzexperte Hans von Storch, eigentlich selbst als Kritiker überdramatischer Szenarien des IPCC (allerdings auch Mitarbeiter am nächsten IPCC-Bericht) bekannt wurde. Und auch, dass der Ökologe Wolfgang Kramer und der Windkraftforscher Jürgen Schmid nun nicht gerade zur Créme de la Créme der IPCC hörigen Klimaforschung zählen. Sie sind eher als Klima-Folgenforscher bzw. als Lobbyisten einzustufen. Das alles focht die Kritiker nicht weiter an. Denn hier ging es um Höheres.

Nach diesem Eklat wurde das Papier noch etwas weicher gespült und zum  22.10. ins NH Hotel in der Friedrichstraße in Berlin geladen, um es einer interessierten Öffentlichkeit vorzustellen. Die zeigte sich indes wenig interessiert. Nur etwas 60 bis 70 Leute, zu großen Teilen aus der ACATECH selbst oder Ministerien und Verbänden und nur sehr wenige Journalisten, folgten der Einladung.

Staatssekretärin Katharina Reiche hielt dann eine sehr kurze „Keynote“ und verschwand danach sofort, wegen dringender Termine.  ACATECH Präsident Hüttl erläuterte in seiner Einführung nochmals die unbedingte Dringlichkeit der Anpassungsforschung. Dabei war er vielleicht vom verständlichen Hintergedanken getrieben seinem 1000 köpfigen Institut eine neue Geschäftsgrundlage zu eröffnen, wenn sich das Problem der drohenden Klimakatastrophe selbst erledigt hat. Denn danach sieht es aus.

Aber zumindest aus den wenigen Worten von Frau Reiche konnten die Zuhörer entnehmen, dass ihr Ministerium diese Forschung auch in Zukunft mit vielen, vielen Millionen zu unterstützen gedenkt, weil man ja auch bei der Klimakonferenz in Cancun, ungeachtet des Scheiterns aller sonstigen Bemühungen, eine Art „Anpassungsscharta“ beschlossen habe. Dieser offensichtliche Zusammenhang fiel auch einem der Podiumsteilnehmer auf, wie er in privaten Gespräch später darlegte.

Die folgende Präsentation der Ziele und Ergebnisse durch Prof. Mosbrugger brachte eine Fülle von Vorschlägen, denen jeder, der klar im Kopf und guten Willens ist, zustimmen konnte. Aber nur, sofern er die zugrunde liegenden Annahmen von der Zunahme von Extremwetterereignisssen  durch Erwärmung, als realistisch einschätzt. Eine Einschätzung, die aber vom Podium selbst, nicht so recht geteilt wurde, denn mehrfach wurde betont, wie unsicher doch die Szenarien dazu seien,  insbesondere dann, wenn sie auf die Regionen heruntergebrochen würden.

Leider fehlte in der Aufzählung der Maßnahmen ein Plan B, der aufzeigt, was denn als Anpassungsstrategie sinnvoll wäre, wenn der „Kimawandel“ nicht zu einer Erwärmung führen würde,, sondern zu einer Abkühlung, wie es viele Wissenschaftler aufgrund des Nachlassens der Sonnenaktivität  durchaus für möglich halten. Diese wäre nach aller Erfahrung viel bedrohlicher für die Menschen, wurde aber im ganzen Bericht nicht erwähnt. Das „Kimawandel“-Drehbuch sieht eine solche Richtung einfach nicht vor.

Insgesamt jedoch konnte sich auch ein wohlmeinender Beobachter durchaus die Frage stellen, warum solche Selbstverständlichkeiten der Daseinsvorsorge, nun unbedingt Gegenstand von zusätzlicher „dringender“ Forschung sein müssten.  Diese Frage wurde vom Autor zwar gestellt, aber von der Runde nicht beantwortet.

So war der Boden für die folgende Podiumsdiskussion gut vorbereitet.

Geleitet vom eloquenten Henning Krumrey (stv. Chefredakteur der WiWo ) durften zwar die Prof. Hüttl und Prof. Mosbrugger sowie die Dr. v. Dohnanyi, Dr. Burger vom Robert Koch Institut, Dr. von Deesen Klimaschutzbeauftragter der BASF, sowie Jörg Simon von den Berliner Wasserbetrieben auf dem Podium platz nehmen, und wichtiges und weniger wichtiges beitragen, nicht aber der Auslöser der ganzen Diskussion, der als Einziger den Grundauftrag von Helmut Schmid ernst genommenen hatte. Der ebenfalls anwesende Prof. Fritz Vahrenholt. Mehr noch, auch sein Name wurde trotz längerer Ausführungen von Herrn Hüttl zu den vorangegangenen Streitigkeiten, nicht ein einziges Mal erwähnt. Er saß zwar auf seinem reservierten Platz, wurde jedoch offiziell weder begrüßt noch genannt, auch nicht bei der namentlichen Vorstellung der Protagonisten. Eine chinesische Parteitagssitzung hätte nicht viel besser orchestriert sein können.

Vom Moderator doch noch gleich zu Anfang zur Vorgeschichte des Papiers befragt, wurde insbesondere Herr Hüttl nicht müde zu betonen, wie wichtig die auf „unstrittigen“ Erkenntnissen der Klimaforschung beruhende Vermeidungsstrategie (Mitigation)  von CO2 sei, insbesondere, um das 2° Ziel doch noch zu erreichen, diese aber müsse unbedingt und sehr dringend durch eine zweite Säule, nämlich die Anpassungsstrategie, basierend natürlich auf Anpassungsforschung, ergänzt werden.  Der eigentlich Auftrag der Kommission, die Arbeit des IPCC kritisch unter die Lupe zu nehmen und damit die Gründe für den Dissens zu nennen, wurde von Hüttl hingegen mit keinem Wort erwähnt.  Der Moderator ließ es ihm leider ohne Nachfrage durchgehen.

In der folgenden Diskussion gab es dann selbstverständlich auch den Begriff globale Erwärmung nicht mehr, die es zu bekämpfen gelte, obwohl das 2 ° Ziel mehrfach erwähnt wurde, sondern nur noch den allgemeinen Begriff vom „Klimawandel“.  Und der würde sich evtl. regional als Extremwetter manifestieren. Aber auch da sei man sich nicht sicher.  

Den entscheidenden Satz des Nachmittags sagte dann – wohl eher ungewollt- Klaus v. Dohannyi. Denn der zitierte zustimmend den norwegischen Club of Rome Protagonisten Jorgen Randers, der meinte, dass „das Spiel“ gelaufen sei. Und drückte damit ungewollt die Binsenweisheit aus,  dass jeglicher Versuch der  Beeinflussung des  Weltklimas durch den Menschen vergebliche Mühe ist.  Meinte aber wohl eher, dass jede Vermeidungstrategie (Mitigation) zum Scheitern verdammt sei, weil allein auf Grund der Mengen an CO2, die allein China in 3 Monaten zusätzlich emittiere, diese den Betrag der Einsparung, den Deutschland sich bis 2030 vorgenommen hätte, weit überträfe. Deswegen sei lokale Anpassung das Gebot der Stunde, weil alles Übel – vom Club of Rome geschickt und von den Medien unbemerkt vom Schicksalsjahr 2000 auf das Jahr 2050 verschoben- auch das der Erd-Erwärmung, nicht mehr aufzuhalten wäre.

Die folgende Diskussion dreht sich dann, locker und zum Teil amüsant von Krumrey geleitet, um allerlei Fragen der Bewältigung lokaler Probleme durch evtl. zunehmende Extremwetter dank des Klimawandels. Dabei kamen auch manch Merkwürdiges und unfreiwillig Komisches zur Sprache. So verwies der Präsident des Robert Koch Institutes Robert Burger in einem Nebensatz auf die erhöhte Gefahr der Rückkehr der Malaria in unsere Breiten. Dabei hatte er wohl vergessen, dass "In Deutschland die Malaria in einzelnen Gebieten seit den napoleonischen Kriegen bis zum hin zum zweiten Weltkrieg immer wieder auftrat. In einigen Gebieten des norddeutschen Tieflandes konnte sich die Malaria bis in die 50er Jahre halten. [Die Welt, 26.01.1999] Im österreichischen Wien wurden noch 1945 Tabletten gegen Malaria an Schulkinder verteilt. [Wien Online] In der Schweiz wurde vor allem die seit etwa 1720 versumpfte Ebene zwischen Glarner Unterland, Walen- und Zürichsee bis zu ihrer Trockenlegung unter H. C. ESCHER VON DER LINTH durch die Linthkorrektur um 1807.[4] Alles weit vor einem "Klimawandel"; ob anthropogen induziert oder nicht.

Und die Berliner Wasserwerke schärfen das Klimabewußtsein ihrer Mitarbeiter durch eine „Saalwette“, nämlich, dass man es nicht schaffen würde 1 % des Strombedarfes einzusparen, worauf sich viele besonders ins Zeug legten diese Wette zu gewinnen. Oder, wer denn den längsten Weg zur Arbeit mit dem Fahrrad zurücklegen würde. Eben alles für´s Klima!

Zum Schluss erlaubte der Moderator nur 3 Publikumsfragen. Eine davon stellte der Autor dieser Zeilen.  Er fragte, ob und wie denn bei der Abfassung des Positionspapiers dem Umstand Rechnung getragen worden sei, dass es seit nunmehr 16 Jahren keine Erwärmung mehr gegeben hätte, und damit das Ausbleiben der Erwärmung ebenso lange anhielt, wie zuvor die Erwärmungsphase. Zudem sei diese auch nur bei den terrestrischen Stationen zu beobachten, die heute zu 80 % in Flughäfen und Städten zu finden seien, würden aber weder von den Satelliten noch den Wetterballons gezeigt. Die Antwort von Prof. Hüttl war ausweichend. Er sagte, dies zeige, wie wenig man in der Klimawissenschaft noch vom wirklichen Klima-Geschehen wüsste, im Übrigen man aber auch nicht unbedingt Thermometer brauche, um zu erkennen, dass es wärmer geworden sei, dies zeige auch schon die Veränderung der Vegetation. Nun, ja!

Fazit: Es wurde ein Papier vorgelegt, dass nicht der gestellten Aufgabe entsprach, dafür Lösungsansätze für ungewisse, bisher nicht beobachtete, wohl aber denkbare Extremwetter-Bedrohungen enthält, die jedoch seit langem zum Standardrepertoire vernünftiger Daseinsvorsorge gehören.

Schade! Denn das eigentliche Thema und damit die Chance zur kritischen Aufarbeitung der IPCC Berichte durch eine wissenschaftlich hochstehende neutrale Kommission, wurden klar verfehlt.

Michael Limburg EIKE


[1]http://www.acatech.de/fileadmin/user_upload/Baumstruktur_nach_Website/Acatech/root/de/Publikationen/Stellungnahmen/acatech_POSITION_Klimawandel_WEB.pdf

[2] Es sind Dr. Paul Becker (Deutscher Wetterdienst, Offenbach), Prof. Dr. Wolfgang Cramer (Institut Méditerranéen d’Écologie et de Paléoécologie, Aix-en-Provence), Prof. Dr. Jürgen Schmid (Fraunhofer IWES, Kassel) und Prof. Dr. Hans von Storch (Helmholtz Zentrum Geesthacht)

[3] http://www.welt.de/print/die_welt/wissen/article109288866/Zank-ums-Klima.html

[4] http://www.gigers.com/matthias/malaria/history.htm#Europa




Luftverschmutzung der Umweltaktivisten

Umweltaktivisten haben die Theorie verbreitet, dass die menschliche Zivilisation der Hauptgrund der globalen Erwärmung sei. Sie drängen Regierungen weltweit dazu, sofort drastische Maßnahmen zu ergreifen, um eine Katastrophe zu verhindern. Die Beweiskette ihrer derartigen Behauptung ist an mindestens sechs Stellen zerbrochen:

Bild 1: Alle Verbindungen in der Kette -von der Theorie zum Beweis- sind gebrochen

Fossile Treibstoffe können zu einer gewissen Luftverschmutzung führen, aber die gefährlichste Luftverschmutzung stammt von den Trugschlüssen, die von den Umweltaktivisten ausgestoßen werden. Wenn die wählende Öffentlichkeit durch diese Art der „Umwelt-Luftverschmutzung“ in die Irre geführt wird, wird unsere freie Wirtschaft zerstört werden und mit ihr das bislang erfolgreichste Experiment, dass sich freie Gesellschaften selbst regieren. Nur ein hoch intellektueller Trottel (ein HITwit), also eine Person, die in einem bestimmten akademischen Feld ganz gut, sonst aber ein Dummkopf ist [man kann dazu auch „gelehrter Vollidiot“ sagen, A. d. Übers.], kann mit so etwas kommen und all diese Trugschlüsse für bare Münze nehmen!

Umwelt-Trugschluss Nr. 1: Wissenschaftler haben die Erwärmung seit 1880 genau gemessen.

Umwelt-Trugschluss Nr. 2: Menschliche Aktivitäten, vor allem das Verbrennen fossiler Treibstoffe, sind der Hauptgrund.

Umwelt-Trugschluss Nr. 3: Die Wissenschaftler können zukünftige Szenarien der Erwärmung genau vorhersagen.

Umwelt-Trugschluss Nr. 4: Die vom Menschen verursachte Erwärmung wird zu einer Umweltkatastrophe führen.

Umwelt-Trugschluss Nr. 5: „Grüne“ Energie und Energieeinsparung können die meisten fossilen Treibstoffe ersetzen.

Umwelt-Trugschluss Nr. 6: Daher muss die Regierung „grüne“ Energie fördern und subventionieren, um unseren Planeten zu retten.

Jede der oben genannten Statements hat einen wahren Kern in sich, die ihr einen Anschein von Wissenschaftlichkeit verleiht, aber keine einzige kann einer genaueren Untersuchung standhalten.

Lüge Nr. 1: Die Wissenschaftler verfügen über eine genaue Messung der Erwärmung seit 1880, und sie beträgt mindestens 0,8°C.

Dieses Statement ist falsch, weil genau die gleichen, von der US-Regierung bezahlten Wissenschaftler, die mit der Analyse der Thermometerablesungen betraut waren, darin übereinstimmen, dass ihre Analysen der Vergangenheit fehlerhaft sind oder die Rohdaten geringe Qualität aufweisen oder beides. Wie sie selbst zugegeben haben, mussten sie die Daten viele Male analysieren und reanalysieren. Sie haben ihre früheren Fehler korrigiert durch plus oder minus einem Viertelgrad, was den angenommenen Erwärmungstrend bis zu einem halben Grad verstärkte.

Die E-Mails von NASA-GISS, veröffentlicht im Rahmen des Freedom of Information Act, enthalten eine von dem Klimawissenschaftler Makiko Sato (1), die enthüllt, wie offizielle Daten der mittleren Temperatur in den USA, ausgegeben im Jahr 1999, für das Jahr 1934 eine um 0,5°C höhere Temperatur zeigen als 1998. Dieses Ergebnis, das auf einen starken Abkühlungstrend in den USA hinweist, war, sagen wir mal, unbequem für die Perspektive einer sich erwärmenden Welt. Sato hat detailliert sieben Anpassungen beschrieben, die im Jahr 1934 zu niedrigeren und 1998 zu höheren Temperaturwerten führte, bis sie drei Analysen aus dem Jahr 2007 zufolge fast gleich waren, einer Gesamtänderung von mehr als einem halben Grad. (Eine Re-Analyse gab es auch noch nach der E-Mail von Sato 2007. Dem jüngsten verfügbaren Berichten zufolge (2) war das Jahr 1998 um 0,078°C wärmer als 1934. Unsere Steuergelder bei der Arbeit! Die Daten von 1934 sind alt genug, um soziale Sicherheiten zu sammeln [?], und doch sorgen sie dafür, dass sie immer noch für sie arbeiten).

Das ist kein willkürlich herausgepicktes Beispiel. Mit Beginn im Jahr 2001 wurden nahezu alle offiziell veröffentlichten Temperaturdaten vor den siebziger Jahren systematisch nach unten korrigiert, um so die offensichtliche Erwärmung zu übertreiben. Die Temperaturen nach den siebziger Jahren wurden systematisch nach oben korrigiert, was zu einer noch stärkeren Übertreibung der behaupteten Erwärmung führte (3).

Befürworter verweisen darauf, dass es sich hier nur um die Temperaturdaten aus den USA handelt und dass die USA gerade mal etwa 2% der Erdoberfläche bedecken. Wenn allerdings die von US-Wissenschaftlern analysierten US-Daten ein halbes Grad „Anpassung“ enthalten, wie viel schlimmer sieht es dann bei den weltweiten Daten aus? Wenn der Spielraum in der Datenanalyse (0,5°C) fast genauso groß ist wie das, was sie gemessen zu haben behaupten (0,8°C), haben die offiziellen angepassten Klimadaten aus den USA, UK und anderen Gebieten keine wissenschaftliche Grundlage. Bestenfalls sind sie anekdotisch.

Die Wahrheit: Die Erde hat sich seit 1880 ein wenig erwärmt, aber nicht um mehr als 0,4°C.

Lüge Nr. 2: Menschliche Aktivitäten, vor allem das Verbrennen fossiler Treibstoffe, sind der Hauptgrund.

Diese Feststellung ist falsch, weil die globale Temperatur trotz des ungebrochen steigenden CO2-Gehaltes (4) sich Messungen von Satellitensensoren zufolge (5) während der vergangenen zwölf Jahre stabilisiert hat oder etwas zurückgegangen ist. Falls CO2 wirklich der Hauptgrund des Temperaturanstiegs wäre, hätte die Temperatur während dieser Zeit steigen müssen, zumindest etwas. Das war aber nicht der Fall, womit die Stärke des Kausalzusammenhangs widerlegt ist. Es muss andere Gründe geben, die sich stärker auswirken als das Verbrennen fossiler Treibstoffe.

Die Wahrheit: Während das anthropogene CO2 und andere „Treibhaus“-Gase zweifellos Auswirkungen auf die Temperatur haben, sind sie nicht der Hauptgrund der jüngsten Erwärmung. Menschliche Aktivitäten werden nicht, wirklich nicht, zu irgendeiner Art von „Tipping Point“ oder einer „Runaway“-Erwärmung führen. Es wird immer klarer, dass natürliche Zyklen der Hauptgrund sind, wie z. B. die Sonnenaktivität, die die kosmische Strahlung beeinflusst (6) und multidekadische ozeanische Oszillationen. Nichts davon ist unter Kontrolle der Menschen oder kann von ihnen beeinflusst werden.

Eine Möglichkeit, „mit Statistiken zu lügen”, besteht darin, die Daten in eine Graphik zu plotten, in der eine Achse einen beliebigen Wert hat, der die Variationen übertreibt. Die Abbildung unten zeigt die Temperatur in Kelvin (über dem absoluten Nullpunkt) im Vergleich zum CO2-Gehalt mit der Referenz Null. Hier zeigt sich, dass die Temperaturen in etwa stabil geblieben sind, während der CO2-Gehalt sichtlich gestiegen ist.

 

Bild 2: Aufgetragen auf eine absolute Skala, in der die Y-Achse bei Null anfängt, steigt der CO2-Gehalt rapide, während der Temperaturverlauf nahezu flach verläuft.

Lüge Nr. 3: Wissenschaftler können zukünftige Szenarien der Erwärmung genau vorhersagen.

Diese Feststellung ist falsch, weil offizielle Szenarien der Erwärmung auf einem Missverständnis der Natur und der Magnitude der Klimasensitivität basieren [Equilibrium Climate Sensitivity ECS]. ECS besagt, um wie viel die Temperatur bei einer Verdoppelung des CO2-Gehaltes steigt.

Das IPCC nimmt an, dass die ECS eine mono-modale Verteilung aufweist, deren wahrscheinlichster Wert zwischen 2°C und 4,5°C liegt mit einem asymmetrischen „dicken Schwanz“, der 10°C oder mehr ausmacht und mit einer Einzelspitze bei 3°C. Diese Schlussfolgerung basiert jedoch auf der Kombination der Ergebnisse von zehn verschiedenen Studien von 2001 bis 2006, die sich im Einzelnen stark voneinander unterscheiden (7). Sie zeigen ganz unterschiedliche Spitzenwerte von 1,1°C bis 3,8°C. Einige der Ergebnisse dieser Studien überlappen sich kaum. Tatsächlich ist das Einzige, was sie gemeinsam haben, der „fette Schwanz“, der über 6°C hinausgeht. Dieser Wert stellt sich als unmöglich heraus, wenn man auf die begrenzte Vereisung des letzten glazialen Maximums schaut [Last Glacial Maximum (LGM)]

Unabhängig davon hat Andreas Schmittner im Jahr 2011 gezeigt, dass die ECS multi-modal ist, mit mindestens zwei Spitzen der an Land ermittelten Daten und fünf Spitzen über Wasser (8). Eine multi-modale Verteilung zeigt ganz allgemein, dass unterschiedliche Populationen verschmolzen worden sind. Daher fehlt den Vorhersagen jede wissenschaftliche Gültigkeit, wenn ihnen eine mono-modale Variable zugrunde liegt.

Außerdem hat Schmittner gezeigt, dass „fette Schwänze” über 6°C hinaus während der LGM fälschlich von einer komplett gefrorenen „Schneeball-Erde“ ausgehen. Dabei ist bekannt, dass sich die LGM nicht über den 40. Breitengrad Nord und Süd hinaus ausgedehnt hat. Folglich sind auf ECS basierende Modelle nicht wissenschaftlich gültig (9).

Die Wahrheit: Wenn alles andere gleich bleibt, wird die mittlere Temperatur bei einer Verdoppelung des CO2-Gehaltes um weniger als 1°C zunehmen, wahrscheinlich sogar um weniger als 0,5°C. Klimamodelle überschätzen die Erwärmung, weil sie fälschlich annehmen, dass Wolken eine insgesamt positive Rückkopplung haben. Die Modelle ignorieren auch die Auswirkungen natürlicher Sonnenzyklen via kosmischer Strahlung auf die Wolkenbildung.

Tatsächlich können uns nicht menschlicher Kontrolle unterworfene natürliche Kräfte mit gleicher Wahrscheinlichkeit in eine Periode mit Erwärmung bzw. Abkühlung führen. Künftige Generationen könnten uns noch dankbar sein für das bisschen zusätzliche Erwärmung infolge unserer verbrannten fossilen Treibstoffe.

Lüge Nr. 4: Vom Menschen verursachte Erwärmung wird zu einer Umweltkatastrophe führen.

Diese Feststellung ist falsch, weil die Menschen einfach nicht die Möglichkeit haben, mehr als eine relativ moderate Erwärmung zu bewirken, und die Zunahme des CO2-Niveaus kann die menschliche Zivilisation nicht gefährden.

Die Wahrheit: Die befürchtete Katastrophe der globalen Erwärmung wurde erheblich übertrieben. Wie Klimagate und andere Skandale enthüllt haben, wurden die Temperaturdaten und Statistiken verfälscht, und die Klimamodelle sind daran gescheitert, kurzfristig die nahe Zukunft vorherzusagen, geschweige denn die fernere Zukunft.

Vorhersagen einer bevor stehenden Katastrophe infolge menschlicher Aktivitäten sind im besten Falle überhitzte Spekulationen. Die jüngste moderate Erwärmung und die CO2-Zunahme sind wahrscheinlich insgesamt vorteilhaft für die menschliche Zivilisation.

Lüge Nr. 5: „Grüne” Energie und Energieeinsparung kann das meiste der fossilen Treibstoffe ersetzen.

Diese Feststellung wird erst noch irgendwann in ferner Zukunft richtig, weil fossile Treibstoffe nicht erneuerbar sind und daher nicht ewig vorhanden sein können. Allerdings ist die Feststellung in absehbarer Zukunft (ein oder zwei Jahrhunderte) ganz klar falsch.

Technologische Fortschritte haben Öl offshore sowie Ölsande und Schieferöl viel attraktiver gemacht, als irgendjemand noch vor einem Jahrzehnt vorhergesagt hat. Das Fracking hat den Preis für Erdgas drastisch nach unten gedrückt. Die Vergasung oder Verflüssigung von Kohle sowie andere neue Technologien werden unsere Kohle, unser am meisten verfügbare fossile Treibstoff, sowohl sauberer als auch billiger machen.

Die so genannte „grüne” Energie hat sich als erheblich teurer erwiesen als fossile Energie und kann sich außer in einigen besonderen Fällen nicht ohne massive Subventionen der Regierung am Markt durchsetzen.

Die Wahrheit: Fossile Treibstoffe werden noch für viele kommende Jahrzehnte unsere hauptsächliche Energiequelle sein, selbst wenn die „grüne“ Energie langsam an Bedeutung gewinnt. Da fossile Quellen seltener und daher im Vergleich zu „grünen“ Quellen immer teurer werden, wird die Energieindustrie freiwillig zu nicht fossiler Energie wechseln, und die Verbraucher werden die Effizienz in ihrem eigenen Interesse in den Vordergrund stellen. Bis zu einem bestimmten Grad ist das heute schon der Fall. Das sollte man ermutigen durch die Erlaubnis, die Kräfte eines freien Marktes zur Geltung kommen zu lassen.

Lüge Nr. 6: Daher muss die Regierung „grüne“ Energie fördern und subventionieren, um unseren Planeten zu retten.

Diese Feststellung ist falsch, weil die zugrunde liegenden Hypothesen falsch sind. Unser Planet ist nicht in Gefahr. „Grüne“ Energie kann in absehbarer Zukunft nicht die meisten fossilen Quellen ersetzen. Und eine „Kur“, basierend auf Förderung und Subventionen der Regierung, wäre wahrscheinlich viel schlimmer als die „Krankheit“ selbst.

Es gibt nichts inhärent Verkehrtes bei Wind-, Solar- oder Äthanolenergie oder irgendeine der anderen verrückten Schemata, die die Klimaänderungs-Lenker in uns eingepflanzt haben, um die Unterstützung mit Steuergeldern zu rechtfertigen. Nein, das Problem besteht in der Art und Weise, wie der Prozess der öffentlichen Unterstützung abläuft, der die Marktkräfte unvermeidlich verzerrt. Es ist ein Prozess, der unvermeidlich genau jene Lösungen wählt, die speziellen Interessen dienen, während er die wirklichen Probleme immer schlimmer macht.

Die Wahrheit: Zweifellos sind fossile Treibstoffe begrenzt. Öl, Erdgas und selbst Kohle könnten in ein oder zwei Jahrhunderten erschöpft sein. Weniger teure Quellen werden zuerst versiegen. Tiefsee-Öl, Arktis-Öl, Schieferöl und zusätzliche Technologien hinsichtlich fossiler Energie, die noch entwickelt werden müssen, werden eventuell den Preis fossiler Energie irgendwann auf einen Wert steigen lassen, an dem die Marktkräfte die Industrie dazu bringen werden, ihr eigenes Geld in die Entwicklung von Alternativen zu stecken.

Wenn sich die Regierung mit Hilfe unserer Steuergelder Gewinner herauspickt, kann man sicher sein, dass spezielle Interessen bedient werden, wie politisch gesteuerte Unternehmen und Vereinigungen. Äthanol aus Mais hat sich für agrokulturelle Interessen gigantisch ausgezahlt. Der Preis für Getreide ist dadurch weltweit gestiegen, was für die Ärmsten unter uns eine Katastrophe war. Solarprojekte wie Solyndra haben Milliarden verschwendet, ohne auch nur einen einzigen permanenten Arbeitsplatz zu schaffen oder irgendeine Form nutzbarer Energie zu erzeugen.

Von der Regierung zur Verfügung gestellte Gelder sind für verrückte Dinge verschwendet worden, die inzwischen ihre eigenen umweltlichen Rückkopplungen gezeigt haben. Windkraft tötet Vögel und setzt Tiere (einschließlich der Menschen) Belastungen aus: nämlich Lärm. Sowohl Wind- als auch Solarenergie brauchen ein Backup aus fossil betriebenen Kraftwerken, wenn der Wind nicht weht und die Sonne nicht scheint.

Privatunternehmen investieren ihr hart verdientes Geld nur, wenn es gute Renditechancen für die Investoren gibt. Folglich gibt es dann allgemein Gewinner. Wenn ein privates Venture den Bach hinunter geht, geht privates Geld verloren, und die Verantwortlichen können ihren Job verlieren und ihr Arbeitgeber aus dem Geschäft gedrängt werden. Dieser notwendige Prozess wurde „kreative Zerstörung“ genannt [creative destruction].

Wenn die Regierung unser Geld an einen Verlierer verschwendet, wird niemand gefeuert. Die politisch verbundenen Empfänger sagen so etwas wie „Ach du liebe Zeit!“ (wenn auch in anderen, nicht druckreifen Ausdrücken) und behalten ihre Profite, außer den kleinen Anteil, den sie in weitere politische Maßnahmen re-investieren. Die verantwortliche öffentliche Einrichtung fährt fort, Steuergelder in den Wind zu blasen. (Wie nennt man es, wenn ein Regierungsprogramm einen echten Gewinner hervorbringt? Einen Unfall!)

Fossile Treibstoffe verursachen eine gewisse Luftverschmutzung, aber die gefährlichste Luftverschmutzung stammt von den von Umweltaktivisten ausgestoßenen Trugschlüssen. Wenn die wählende Öffentlichkeit durch diese Art der „Umwelt-Luftverschmutzung“ in die Irre geführt wird, wird unsere freie Wirtschaft zerstört werden und mit ihr das bislang erfolgreichste Experiment, dass sich freie Gesellschaften selbst regieren. Nur ein hoch intellektueller Trottel (ein HITwit), also eine Person, die in einem bestimmten akademischen Feld ganz gut, sonst aber ein Dummkopf ist, kann mit so etwas kommen und all diese Trugschlüsse für bare Münze nehmen!

Ira Glickstein, PhD

Link: http://wattsupwiththat.com/2012/10/11/environmentalist-air-pollution/

Übersetzt von Chris Frey EIKE

Hinweis: Im Original folgt eine längere Liste mit Literaturhinweisen