1

Klima-Gehirnwäsche bei Kindern: Wie man es erkennen kann

Auszüge aus dem 3. Kapitel:

Eine Vielzahl von Programmen, die in Klassenzimmern im ganzen Land angewendet werden, verfolgen nicht nur die gemeinsamen Ziele von Gehirnwäsche – also Änderung grundlegender Verhaltensweisen und Werte sowie Glaube an psychologisch fundierte Methoden – sondern benutzen auch klassische Techniken zur Gehirnwäsche, die in totalitären Ländern entwickelt worden sind:

1. Emotionaler Stress, Schock, Desensibilisierung, um sowohl den intellektuellen als auch den emotionalen Widerstand zu brechen

2. Entweder physische oder emotionale Isolation von vertrauten Quellen emotionaler Unterstützung für Widerstand

3. Infragestellung zuvor bestehender Werte, oftmals durch Manipulation und den Druck von Gleichaltrigen

4. Dem Individuum normale Abwehrmöglichkeiten nehmen wie Zurückhaltung, Würde, einen Sinn für das Private oder die Möglichkeit, die Teilnahme abzulehnen

5. Belohnungen für die neuen Verhaltensweisen, Werte und den neuen Glauben zu vergeben – eine Belohnung, die einfach darin bestehen kann, den Druck von den Widerstand Leistenden zu nehmen, oder in irgendeiner anderen symbolischen oder materiellen Form.

Ich werde diese Dinge illustrieren, und zwar mit einem furchtbaren Buch für Kinder mit dem Titel ‚How to Turn Your Parents Green‘, veröffentlicht zum ersten Mal im Jahre 2007 [rechter Teil der Abbildung oben rechts. Das Buch ist [leider!, A. d. Übers.] ebenfalls erhältlich bei Amazon]. Auszüge aus dem Buch erscheinen kursiv und die Methoden von Sowells Liste in Fettdruck

1. Emotionaler Stress, Schock, Desensibilisierung, um sowohl den intellektuellen als auch den emotionalen Widerstand zu brechen

Das Wetter spielt verrückt. Die Eisbären haben Angst. Die entsetzliche globale Erwärmung ist da. Es gibt noch viele Beispiele dieser Art, aber sie sind jedem nur zu bekannt, der nur flüchtig solches Material zu sehen bekommt. Es ist normaler Standard.

2. Entweder physische oder emotionale Isolation von vertrauten Quellen emotionaler Unterstützung für Widerstand

Für Kinder sind diese vertrauten Quellen normalerweise ihre Eltern. Russells Buch betrachtet diese als dämlich, selbstsüchtig und ignorant, und sie müssten eher bestraft als als Quelle von Ratschlägen und Unterstützung angesehen zu werden:

…Nur ihr könnt die Erwachsenen dazu bringen, sich zu benehmen, weil nur ihr ihnen das Leben schwer machen könnt, falls sie sich nicht benehmen. Wir werden euch helfen, eine wunderbare grüne Charta zu erstellen, die sie unterschreiben müssen; und wir zeigen euch, wie ihr sie bestrafen könnt – oh ja! – wenn sie ihr Verhalten nicht ändern. Sorgt euch nicht um die Umwelt, werdet zu Öko-Kriegern!* Und macht eure Eltern grün!

[Unübersetzbares Wortspiel: Don’t be eco-worriers, be eco-warriors!]

Wendet euch also nicht an eure Eltern, wenn ihr Hilfe braucht. Die sind schließlich ziemlich boshaft, und daher solltet ihr ihnen das Leben schwer machen.

3. Infragestellung zuvor bestehender Werte, oftmals durch Manipulation und den Druck von Gleichaltrigen

Das Hauptziel des Lebens eines Erwachsenen ist es, den Planeten so stark wie möglich auszubeuten, bevor es jemand anders tut. Selbst vor dem Einsetzen der entsetzlichen globalen Erwärmung hat diese Philosophie die Welt zu einem traurigeren Platz gemacht. Teuflische Düngemittel und Pestizide haben Wildkräuter, Vögel, Bienen und Igel getötet. Unsere Flüsse und Seen sind entsetzlich verschmutzt. Die meisten von uns leben umgeben von Lärm, Schmutz und den Gefahren des Verkehrs. Erwachsene denken, dass dies alles in Ordnung und natürlich ist. Aber was ist, wenn der Igel ausstirbt? Was ist, wenn der Klimawandel Millionen Menschen tötet? Was ist, wenn Kinder nirgendwo mehr spielen können, weil es überall nur noch Autos gibt? Die Menschen sterben, sagen sie mit einem Schulterzucken. Spezies verschwinden. Kinder können sich an Computerspiele setzen.

Dies ist natürlich eine Parodie auf ‚bisher bestehende Werte‘, aber es erfüllt seinen Zweck. Vielleicht gehörte es zu den ‚bisher bestehenden Werten‘ eines Kindes, dass es seinen Eltern gegenüber Hochachtung empfand. Jetzt aber werden diese als herzlose Ausbeuter porträtiert. Vielleicht gehörte es zu den ‚bisher bestehenden Werten‘ eines Kindes, dass es die Welt als eine Quelle der Wunder und der Freude betrachtete, aber hier wird sie trauriger gemacht, entsetzlich verschmutzt, laut, schmutzig und gefährlich, mit herzlosen Erwachsenen, die sie ruinieren.

4. Dem Individuum normale Abwehrmöglichkeiten nehmen wie Zurückhaltung, Würde, einen Sinn für das Private oder die Möglichkeit, die Teilnahme abzulehnen

Jedes Kind, das den Rezepten des Buches folgt, würde tatsächlich seine Zurückhaltung, seine Würde und seinen Sinn für die Privatsphäre verlieren. Die Kinder werden ermutigt, sich als Wichtigtuer in das Leben Anderer einzumischen. Es gibt keine andere Option als sich einzumischen, weil anderenfalls schlimme Dinge passieren werden:

Nur ihr könnt es tun, weil nur ihr die Schuldigen dazu bringen könnt, ihre Wege zu ändern. Nur ihr könnt nörgeln, plagen, nerven, schikanieren und die Menschen bestrafen, die unsere Welt fröhlich zuschanden machen.

Natürlich ist es nicht einfach, grün zu sein. Schließlich sind wir nur Menschen. Aber wenn ihr der Philosophie der Erwachsenen folgt, werdet ihr unglücklich, gestresst, übergewichtig und ziemlich wahrscheinlich untergehen.

5. Belohnungen für die neuen Verhaltensweisen, Werte und den neuen Glauben zu vergeben – eine Belohnung, die einfach darin bestehen kann, den Druck von den Widerstand Leistenden zu nehmen, oder in irgendeiner anderen symbolischen oder materiellen Form.

Glücklicherweise scheinen hier keine Belohnungen im Angebot zu sein, aber auf jedes Kind, das von diesem furchtbaren Machwerk angesprochen wird, wird eine Art Druck ausgeübt, dessen zahlreichen Rezepten zu folgen. Natürlich ist es nur ein Buch und kann als solches kaum greifbare Belohnungen anbieten. Diese kommen schon eher von Organisationen. Öko-Schulen vielleicht?

Klassische Gehirnwäsche wie beispielsweise im Korea-Krieg wurde auf Opfer angewendet, die sich vollständig unter der Kontrolle ihrer Wächter befanden, also in Gefangenenlagern. Dort konnten die Methoden unablässig viele Monate lang jeden Tag durchgeführt werden. Aber selbst dabei gibt es Beweise, dass dies nur selten so erfolgreich war wie erwünscht. Aber warum sollten wir auch nur den Versuch tolerieren, einige dieser Methoden auf Kinder anzuwenden? Wer hat ein Interesse daran, dass Kinder geängstigt und entfremdet werden oder das man ihnen sagt, was sie denken und glauben sollen? Und dass ihnen Fremde in Büchern sagen, was sie tun sollen, oder dass Öko-Campaigners ihre Schulen besuchen, oder durch DVDs, die ihnen die vorige UK-Regierung aufgedrückt hat? Alles dient nur politischen Zwecken. Sie werden über Kinder verfolgt, indem man diese erst ängstigt, sie dann von ihren Eltern entfremdet, ihnen dann einredet, wie schlecht große Errungenschaften der Gesellschaft seien wie bezahlbare Energie und indem man ihnen die Last der Reform oder des bloßen Überlebens auf ihre Schultern drückt. Man kann sehen, warum ruchlose Menschen andere einer Gehirnwäsche unterziehen wollen. Glücklicherweise für uns alle scheint das aber viel schwieriger zu sein als gedacht.

Link: http://climatelessons.blogspot.co.uk/2014/04/climate-brainwashing-of-children-rough.html

Übersetzt von Chris Frey EIKE

Bemerkungen des Übersetzers hierzu: Der letzte Satz dieses Beitrags ist natürlich ein Lichtblick. Er deckt sich mit den Kommentaren, die einige Leser zu meinem vor Kurzem übersetzten anderen Beitrag  zu diesem Thema geschrieben haben. Auch meinen Erfahrungen zufolge ist das Thema in meinem Umfeld nicht so opportun, und dass man möglichst kein Papier einfach auf die Straße werfen soll, ist auch für Kinder selbstverständlich (wenn sie nicht ein schlechtes Vorbild sehen).

Was mich hier wirklich bewegt, ist der Umstand, dass es derartige Bücher überhaupt gibt, dass diese nicht indiziert sind und dass sie noch durch Meinungsfreiheit abgedeckt sein sollen. Ich schließe mich hier der Ansicht des (namentlich nicht genannten) Autors an, dass man auf jeden Fall derartigen Anfängen wehren muss.

C. F.




Steckt Europa in einem Energie-Teufelskreis?

Die bestehenden europäischen Ängste gegen Schiefergas setzen Europa zunehmend wettbewerbsmäßig ins Hintertreffen. Das Fehlen von Energie-Wettbewerbsfähigkeit angesichts derjenigen in den USA wurde auch zur größten Sorge der europäischen Industriellen, meinte Leif Johannsson, Direktor von AstraZeneca and Ericson sowie Vorsitzender des europäischen Runden Tisches der Industriellen in einem Interview mit der FT.

Es ist bekannt, dass die Schiefergas-Revolution in den USA zu massiven Preisrückgängen bei Erdgas geführt hat. Der Preis ist von einem Spitzenwert im Jahre 2008 bis Januar 2010 um 70% gesunken und seitdem etwa auf diesem Niveau geblieben. Dies hat dazu geführt, dass Kraftwerke in den USA eher mit Gas als mit Kohle betrieben werden – mit dramatischen Auswirkungen auf die Stromversorgung, wie die beiden Kurven unten zeigen. Die erste stammt aus dem Jahr 2005 vor der Schiefergas-Revolution, die zweite aus dem Jahr 2012 nach der Schiefergas-Woge:

2005:

2012:

Für die USA war diese Entwicklung gleich an zwei Fronten positiv. Erstens ist Erdgas ein saubererer Treibstoff und damit besser für die Umwelt. [bzgl. CO2 sind halt alle mehr oder weniger gehirngewaschen… A. d. Übers.]. Zweitens gehen die Strompreise für die Verbraucher zurück, wenn der Wettbewerb auf dem Markt der Verfügbarkeit von Schiefergas folgt. Für die US-Wirtschaft bedeutet das riesige Einsparungen.

Andererseits stellt die Bevorzugung von Schiefergas die Kohleerzeuger ins Abseits.

Schiefer rein, Kohle raus

Die Kohleproduzenten in den USA mussten eine sinkende Nachfrage nach Kesselkohle (steam coal) im US-Stromsektor hinnehmen. Gleichzeitig haben sie ihre jährliche Produktionsmenge beibehalten. Während Kohleimporte in die USA dramatisch zurückgegangen sind, musste die überschüssige Kohle irgendwo gelagert und/oder exportiert werden. Gegenwärtig erkunden die US-Kohleproduzenten die Exportmärkte, um die riesigen Kohleberge loszuwerden. In einem kürzlichen Bericht des US-Kongresses wurde dieser Umstand klar umrissen: „Eine der großen Fragen für die heimische Kohleindustrie lautet, wie man in die Märkte in Übersee eindringen kann, vor allem bzgl. Kesselkohle, um die abnehmende heimische Nachfrage zu kompensieren“.

Die US-Kohleproduzenten waren hinsichtlich zunehmender Exporte und reduzierter Importe erfolgreich. Von 2007 bis 2012 haben sich die Kohleexporte nach Europa mehr als verdoppelt. Sie machten 2012 einen Gesamtanteil an allen Exporten von 58 Prozent aus, 2007 waren es lediglich 32 Prozent.

Getrieben wurde dies durch billigere Kohle. Der Schiefergas-Boom in den USA machte Kohle für lokale Energieerzeuger weniger interessant, und man konnte erwarten, dass die europäischen Stromerzeuger diese „Kohlepreis-Revolution“ ausnutzen. Diese Revolution ist das Gegenteil dessen, was in den USA geschieht. Der Anteil der Kohle am Gesamt-Energiemix in Europa ist von 25 Prozent im Jahre 2007 auf 21 Prozent 2010 zurückgegangen, doch hat sich dieser Trend inzwischen umgekehrt. Im Jahre 2011 machte der Kohleanteil 22 Prozent aus. Bis 2012 stieg der Anteil um 6 Prozent, das ist eine stärkere Zunahme als die Zunahme der Gesamt-Stromerzeugung in Portugal. Der Anteil an Erdgas im Strommix in Europa stieg von 12 Prozent im Jahr 2000 auf 19 Prozent 2008, ist aber 2011 wieder auf 17 Prozent zurückgegangen.

Ein ökonomischer und ökologischer Energie-Teufelskreis für Europa?

Angesichts einer in Europa fehlenden Versorgung mit billigem Schiefergas ist die Hinwendung zur Kohle eine rationale ökonomische Entscheidung für die europäischen Energieerzeuger. Die Konsequenzen dieser Hinwendung sind jedoch an vielen Fronten schädlich. Erstens werden sich die Energiekosten in Europa trotz niedrigerer Kohlepreise immer weiter von denen in den USA entfernen. Zweitens, der Negativ-Effekt höherer Energiekosten bringt den energieintensiven europäischen Industrien weitere Nachteile. Dabei sind sie ohnehin schon durch sehr hohe strukturelle Kosten belastet. Drittens, Treibhausgas-Emissionen, die bei Kohlekraftwerken etwa doppelt so hoch sind wie bei Gaskraftwerken, bürden Europa ein ökologisches Dilemma auf. Verluste sowohl an der ökonomischen als auch an der ökologischen Front sind das Schlimmste, was passieren kann.

Die Entscheidung, den europäischen Energie-Rohstoff den „Marktkräften“ zu überlassen ist schlechte Politik, vor allem falls die Marktmechanismen Europa der Zerreißprobe zwischen US-Kohle und russischem Gas aussetzen. Politiker und Unternehmensführer sollten dringend Europas Energielage überdenken, bevor diese zu einem Morast verkommt. Die Entwicklung lokaler Energiequellen wie Schiefergas sollten auf jeden Fall auf der Agenda bleiben.

Mehr und ausführlicher: Vicious Energy Cycle Europe.

Karel Cool is the BP Chaired Professor of European Competitiveness and Professor of Strategic Management at INSEAD. He directs the Competitive Strategy programme, part of INSEAD’s suite of Executive Development Programmes.

Link: http://knowledge.insead.edu/blog/insead-blog/is-europe-stuck-in-a-vicious-energy-cycle-3300

Übersetzt von Chris Frey EIKE




Summary des IPCC von Regierungen auf der ganzen Welt zensiert

Allerdings sind ganze Absätze plus Graphiken, die zeigen, wo die CO2-Emissionen am schnellsten zugenommen haben, aus der Summary in der Debatte eine Woche vor der Veröffentlichung entfernt worden. In anderen Abschnitten wurden die Aussagen signifikant abgeschwächt. Sie waren allesamt einem schmerzhaften Gerangel zwischen den Regierungen in den entwickelten und denen in den Entwicklungsländern zum Opfer gefallen, und zwar darüber, wer an der Klimaänderung schuld ist und wer die Verantwortung für eine Abschwächung derselben übernehmen soll.

Ein Autor witzelte, dass er sich gefühlt habe wie ein „Pfand“, das in einem Spiel geopfert worden ist. Viele andere Autoren sagten Fairfax, dass die Verbitterung viel größer war als auf früheren IPCC-Versammlungen.

Der Vorfall war ein Vorgeschmack auf das, was zu einer verbissenen Schlacht im nächsten Jahr in Paris zu werden verspricht. Dort ist geplant, dass Länder einen neuen bindenden Vertrag aushandeln über radikale Maßnahmen gegen die globale Erwärmung. Viele Staaten, darunter die USA, Brasilien, China und Saudi-Arabien kämpften verbissen dafür sicherzustellen, dass die Summary in den Verhandlungen vor Paris nicht als Waffe gegen sie eingesetzt werden kann.

Der Bericht der Arbeitsgruppe III im IPCC war zu dem Ergebnis gekommen, dass die Welt, um die Temperaturänderung unter zwei Grad zu halten, sehr schnell zu einer Energieversorgung übergehen müsse, die von Erneuerbaren dominiert wird wie Wind und Sonne. Die Kohlenstoff-Speichertechnologie sollte den restlichen Verbrauch fossiler Treibstoffe regeln.

Allerdings haben viele Autoren gesagt, dass die von den Regierungen entsandten Delegationen es abgelehnt haben, kontroverse Teile in die Summary for Policymakers mit aufzunehmen. Ihre Arbeit überlebt nur im vollständigen technischen Bericht, der von viel weniger Menschen gelesen wird und der nicht den Medien übergeben worden ist.

Einige der involvierten Ökonomen und Wissenschaftler haben sogar darüber nachgedacht, ihre Arbeit komplett zurückzuziehen, so dass sie hätten frei sprechen können ohne unbedingt der IPCC-Linie folgen zu müssen.

Man hat Fairfax gesagt, dass der Ko-Vorsitzende der Arbeitsgruppe III, Prof. Ottmar Edenhofer, einer derjenigen ist, der ob der Änderungen sehr verärgert ist. Man glaubt, dass er „unverfälschte“ Teile des Berichtes ebenso wie die korrigierte Summary an der Technischen Universität Berlin vortragen wird. [Dies ist inzwischen geschehen, aber mir ist nichts dergleichen bekannt geworden oder ob das wirklich so gewesen ist. A. d. Übers.]

Allerdings sagte er auch, dass die beteiligten Regierungen die „Eigentümerschaft“ der Ergebnisse des Berichtes übernommen haben und dass daran „nichts Falsches sei, solange die Wissenschaftler die Kontrolle über den Gesamtbericht behalten“.

Der Ökonom Reyer Gerlagh von der Tilburg University in den Niederlanden war Mit-Leitautor eines Kapitels in dem Bericht. Er musste erleben, dass vieles seiner Arbeit – nämlich die Erforschung der Verbindungen zwischen Ökonomien und deren Kohlenstoff-Emissionen – aus der Summary entfernt wurden.

„Einige Regierungen sagten, dass wir nicht Dinge schreiben dürfen, bei denen sie unmittelbare Konsequenzen in internationalen Verhandlungen vorhersehen”, sagte Prof. Gerlach. „Sie können die wissenschaftlichen Ergebnisse nicht ändern [So? A. d. Übers.]. Aber sie können sagen, dass es Manches gibt, dessen Erwähnung auf dem Niveau der Summary nicht angebracht ist. Das deprimierte mich persönlich … ich wurde für diese Arbeit nicht bezahlt. Die meiste Arbeit hierzu leistete ich am Wochenende, abends oder im Urlaub. Meine Bezahlung erfolgt nicht in Gestalt von Geld oder Zeit. Meine Bezahlung ist mein Glaube, dass ich der Gesellschaft Vorteile verschaffen kann, wenn ich die Informationen zur Verfügung stelle“.

Trotzdem sagte Prof. Gerlach, dass er nicht verärgert sei. „Ich kann ihren Standpunkt verstehen“, sagte er von den Ländern, die nach Änderungen oder Auslassungen verlangten.

In anderen Teilen der Summary führten Widerstände aus reichen Nationen dazu, dass ein Satz gelöscht wurde des Inhalts: „Im Jahre 2010 waren zehn Nationen für etwa 70 Prozent der CO2-Emissionen aus der Verbrennung fossiler Treibstoffe verantwortlich“.

Sie forderten auch erfolgreich die Entfernung eines Satzes, dem zufolge es die ethische Abschwächung des Klimawandels erforderlich machen würde, dass die entwickelte Welt „hunderte Milliarden Dollar pro Jahr“ an Nicht-OECD-Mitglieder zahlen sollte, damit diese in grüne Technologien investieren können.

Widerstand aus Kreisen des „oberen mittleren Einkommens” führte zur Löschung einer Graphik, die den rasanten Anstieg der Emissionen in jenen Ländern in der Dekade bis 2010 zeigte verglichen mit anderen Teilen der Welt.

„Die Atmosphäre der Verhandlungen war natürlich bei einigen Details sehr durch Streit gekennzeichnet”, sagte Dr. Stephan Singer, Direktor der Energiepolitik für den WWF [!!], der bei der Debatte als Beobachter zugegen war. „Einiges wird in den zugrunde liegenden Kapiteln viel deutlicher ausgesprochen als in der Summary“. Aber Dr. Singer sagte auch, dass die Veränderungen nicht von der zentralen Aussage ablenken sollten. „Dieses Dokument ist ausreichend genug, um den Regierungen zu sagen, was sie tun müssen, um unter dem Temperaturanstieg von zwei Grad zu bleiben, trotz einer manchmal vagen und mehrdeutigen, von den Regierungen durchgedrückten Ausdrucksweise, die auf einem Konsens basiert und um die manchmal stundenlang gestritten wurde“.

[Die wohl abenteuerlichste Aussage stammt wieder einmal vom Ko-Vorsitzenden des Berichtes Rajendra Pachauri. A. d. Übers.], erwiderte er doch auf die Frage, was in dem Bericht ausgelassen worden ist: „Der gesamte IPCC-Prozess und die Annahme der Summary basiert auf Diskussionen, und natürlich, wenn man unterschiedliche Standpunkte hat, fehlt die Übereinstimmung. Die Stärke des Prozesses ist es, mit der wir in der Lage waren, dieses Problem zu lösen“. [Hervorhebung vom Übersetzer].

Link: http://www.smh.com.au/world/ipcc-report-summary-censored-by-governments-around-the-world-20140414-zqugm.html

Übersetzt von Chris Frey EIKE




Eine Monsterbatterie für Absurdistan – Utopien – und die Realität der Kosten

Bild rechts: Seit Jahren im Gespräch: Die Speicherung von Strom aus Sonne und Wind in Batterien, z.B. auch in denen von Elektroautos

„Monster-Akku im Norden soll Flatterstrom zähmen“ titelte die „Welt“ vom 15. April 2014 in einem Artikel über ein „Ökostrom“-Projekt in Mecklenburg-Vorpommern [WELT]. In diesem Bundesland, das viele Windenergieanlagen, aber wenig Industrie und damit kaum Abnehmer für den so erzeugten Zufallsstrom hat, bereitet diese schwankende Produktion inzwischen immer mehr Probleme mit der Netzstabilität. Angeblich als Abhilfe hat der in Schwerin ansässige „Ökoenergie“-Anbieter Wemag AG jetzt einen Batteriepuffer errichtet, mit dessen Hilfe das Netz durch Bereitstellung sogenannter Primärregelenergie stabilisiert werden soll. Übernehmen sollen diese Aufgabe fünf große Transformatoren und insgesamt 25.600 Lithium-Ionen-Akkus. In dem künftig größten kommerziellen Batteriespeicher Europas sollen insgesamt 5 MWh Strom gespeichert und bei Bedarf mit einer Anschlussleistung von 5 MW wieder ins Netz zurückgespeist werden. Die Kosten für dieses Projekt werden auf 6 Mio. € beziffert, wovon mindestens 1 Mio. Fördergelder sind. Allein das hierfür errichtete Gebäude hat dem Zeitungsbericht zufolge die Abmessungen einer Turnhalle.

Bild 1: Schwachwind-Situation beim Windstrom am 31. März 2014. Bei einer installierten WEA-Leistung von 34950 MW wurden zeitweise nur lächerliche 50 MW und weniger geliefert. Ohne konventionelle Kraftwerke wären in Deutschland die Lichter ausgegangen (Daten: EEX)

Gezielt gegen konventionelle Kraftwerke

Das große Problem bei der Wind- und Solarenergie ist bekanntlich, dass sie dann erzeugt wird, wenn Mutter Natur es zulässt (Bild 1) und nicht dann, wenn der Mensch sie braucht. Was daher am dringendsten fehlt sind Speicher, um z.B. Windenergie bei Starkwind „einzulagern“ und sie bei Schwachwind wieder ins Netz einzuspeisen. Doch die Errichter der neuen Anlage haben etwas ganz anders im Sinn. Trotz ihrer beeindruckenden Größe kann diese „Monsterbatterie“ in Wirklichkeit nur völlig unzureichende Energiemengen einlagern. Darauf wird auch schon im Artikel der „Welt“ hingewiesen. De facto reicht die ganze Kapazität der 6 Mio. € teuren Installation gerade einmal aus, um die Leistung aufzunehmen, die eine einzige 5-MW-Windturbine bei geeigneter Wetterlage innerhalb einer Stunde abgibt. Ihre wirkliche Aufgabe ist deshalb auch lediglich der Ausgleich der extrem kurzfristigen zusätzlichen Schwankungen, die für die Produktion von „EE-Strom“ typisch sind. Solche Spitzen treten beispielsweise auf, wenn eine plötzliche Bö alle Propeller gleichzeitig zum Schnurren bringt.

Bild 2: Konventionelle Kraftwerke haben eine doppelte Aufgabe. Einerseits liefern sie Strom, wenn Wind und Sonne dazu mal wieder keine Lust haben. Zudem übernehmen sie bei Störungen die Stabilisierung des Stromnetzes durch Bereitstellung von Regelenergie (Foto: kohlekraftwerke.de)

Für solche „Feuerwehrfälle“ benötigen die Netzbetreiber sogenannte Primärregelenergie, mit der die besonders kritischen Netzschwankungen im Sekundenbereich ausgeglichen werden. Diese extrem schnell verfügbare Leistungsreserve kann bislang fast nur von konventionellen Großkraftwerken (Bild 2) bereitgestellt werden. Wegen ihrer Bedeutung für die Aufrechterhaltung der Netzstabilität wird diese spezielle Leistungsbereitstellung separat abgerechnet und meist auch deutlich besser bezahlt als der Strom für die „normale“ Produktion.

Bild 3. Aktuelle Kostensituation konventioneller Kraftwerke. Aufgrund der niedrigen Preise an der Strombörse EEX lassen sich selbst abgeschriebene Steinkohlekraftwerke nicht mehr kostendeckend betreiben (O&M = Kosten für Betrieb und Instandhaltung) (Grafik: [PREI])

Mit dem gezielt auf den Markt für Primärregelenergie ausgerichteten Angebot dieser Batterie-Installation soll also den sowieso schon um ihr finanzielles Überleben kämpfenden konventionellen Kraftwerken (Bild 3) eine der letzten Möglichkeiten, noch etwas dringend benötigte Marge zu erzielen, weggenommen werden. Dass die gleichen Kraftwerke unverzichtbar bleiben, weil man sie dringend für die Aufrechterhaltung der Energieversorgung des Landes benötigt, wenn der Wind mal nicht weht und die Sonne nicht scheint, ist diesen Vertretern einer aggressiven „Ökostrom“-Ideologie völlig schnuppe. So tönt die Firma Younicos, welche die Installation geliefert hat, auf ihrer Website vollmundig: „Willkommen im fossil-freien Sektor dieser Welt. Wir bei Younicos arbeiten an einer Zukunft in der Energie CO2-frei und erneuerbar erzeugt wird. Unsere Kernkompetenz ist die wirtschaftliche, sichere und stabile Integration von Wind- und Sonnenenergie in das bestehende Energiesystem. In Zusammenarbeit mit unseren Partnern entwerfen, bauen und betreiben wir bis zu 100 Prozent erneuerbare Energiesysteme, die heute schon wirtschaftlicher sind als fossile Systeme.“ Solche selbstbewussten Sprüche reizen dazu, sie einem Reality-Check zu unterziehen, vor allem mit Blick auf die Wirtschaftlichkeit?

Lithium-Batteriespeicher sind schon heute viel zu teuer…

Was die Initiatoren des Projekts nämlich übersehen haben ist die Tatsache, dass sie mit ihrem Projekt Zahlen liefern, mit denen man ganz andere Projekte im „Öko“-Bereich hervorragend auf ihre Machbarkeit bzw. ihre Wirtschaftlichkeit abprüfen kann. Gerade im Fotovoltaikmarkt wird aktuell von verschiedensten Anbietern und Interessengruppen behauptet, man könne Batterien – insbesondere Li-Ionenbatterien – in Zeiten der Überschussproduktion für die Zwischenspeicherung einsetzen. Technisch ist das zwar im Prinzip denkbar, doch nur solange, bis man einen Blick auf die erforderlichen Investitionskosten wirft. Und da kommt das hier vorgestellte Projekt ins Spiel, denn hier handelt es sich nicht um eine Bastlerlösung mit Billigmodulen, sondern um einen nach eigenem Bekunden voll professionellen Li-Ionen-Batteriespeicher. Bei dieser Lösung werden für eine Speicherkapazität von 5 MWh 6 Mio. € fällig, das entspricht einer Investition von 1,2 Mio. € pro MWh Kapazität. Was würde demnach eine solche Lösung allein schon für den in Deutschland produzierten Windstrom kosten?

Ende des Jahres 2013 waren in Deutschland Windräder mit einer Gesamtleistung von 32455 MW installiert, die bei Flaute jedoch meist nur wenige Prozent ihrer nominellen Leistung abgeben. Rechnet man mit den obigen Angaben nach, was eine Batterie kosten würde, welche die Speicherung einer einzigen Stunde bei voller Leistung dieser Windenergieanlagen ermöglicht, so landet man bei 39 Mrd. €. Ein recht ordentlicher Betrag für die Speicherung gerade mal einer Stundenleistung. Für einen vollen Tag von 24 h käme man dann schon zu der noch deutlich beachtlicheren Summe von 938 Mrd. €, das entspricht einer knappen Billion. Und das nur für die Speicherung einer einzigen Tagesproduktion der zurzeit installierten Windenergieanlagen.

und erst recht bei 80 % EE-Strom

Wie man sieht, ist diese Art von Batteriespeicher bereits zur Lösung der Probleme, die sich aus dem heute installierten Park aus Windenergieanlagen ergeben, praktisch unbezahlbar. Vollends als Stück aus dem Tollhaus entpuppt sich ein solcher Ansatz, wenn man bedenkt, dass wir im Jahre 2050 rund 80 % unseres Strombedarfs aus Wind und Sonne decken sollen. Die aktuelle deutsche Stromproduktion liegt bei 639 TWh/ Jahr bzw. 1,75 TWh/ Tag, 80 % hiervon wären demnach 1,4 TWh/ Tag. Der Speicher für einen einzigen Tagesbedarf würde eine Investition von 1680 Mrd. € (1,68 Bio. €) erfordern. Unterstellen wir als realistischen Vorsorgefall eine 10tägige Flaute in einem Wintermonat mit minimaler Sonneneinstrahlung, so kommt man auf eine erforderliche Gesamtinvestition von 16800 Mrd. € (16,8 Bio. €). Hinzu kommt, dass diese Übung wegen der begrenzten Lebensdauer der Batterien spätestens alle 20 Jahre wiederholt werden müsste.

Dass diese Zahlen völlig außerhalb jeglicher Grenzen der Finanzierbarkeit liegen, dürfte selbst Laien unmittelbar einleuchten. Selbst wenn es gelänge, die Kosten für Li-Batterien um einen Faktor 10 zu senken, bliebe dieser Speicheransatz völlig unsinnig. Dennoch gibt die Politik für eine Installation, deren Zweck einzig und allein darin besteht, die konventionellen Kraftwerke – das zuverlässige Rückgrat unserer Stromversorgung – noch weiter aus dem Markt zu drängen, auch noch Fördergelder. Absurdistan lässt grüßen.

Selbstentlarvung der Öko-Profiteure

Dieses Batterieprojekt ist ein neuerliches Beispiel dafür, wie ungeniert sich die verschiedensten Öko-Profiteure darum bemühen, durch Ausnutzung juristischer und verwaltungstechnischer Grauzonen unseres Stromversorgungssystems weitere Profite herauszuschinden, während man damit gleichzeitig die Grundlagen unserer Stromversorgung zerstört. Diese Ungeniertheit hat jedoch auch ihr Gutes. So wird beispielsweise zugegeben, dass der „Flatterstrom“ von Wind- und Solaranlagen den Betrieb der Netze gefährdet, eine Tatsache, die von den Vertretern der EE-Branche bei anderen Gelegenheiten immer wieder vehement geleugnet wird. Auch zeigt dieses Beispiel überdeutlich, dass sich Lithium-Ionen-Batterien nicht als Puffer für die Zwischenspeicherung der Überproduktion von EE-Strom in Wind- und sonnenreichen Zeiten eignen. Diese Erkenntnis dürfte diversen Anbietern, welche zurzeit Hausbesitzern mit Solaranlagen entsprechende Lösungen aufschwatzen wollen, sicherlich gar nicht gefallen.

Fred F. Mueller

Quellen:

[EEX] http://www.transparency.eex.com/de

[PREI] Preißendörfer, B.: Die Bedeutung konventioneller Kraftwerke im Zeichen der Energiewende. VII. Internationale Klima- und Energiekonferenz (IKEK-7) des Europäischen Instituts für Klima und Energie, Mannheim, 10. 4. 2014.

[WELT] http://www.welt.de/wirtschaft/energie/article126958257/Monster-Akku-im-Norden-soll-Flatterstrom-zaehmen.html




2. Bürgerschutztag am 18.5.14 in Berlin

Der „Bürgerschutz-Tag“ wurde initiiert,
um engagierten Verbraucherschutzvereinen und Bürger-Aktionsgruppen eine öffentliche Plattform zu bieten, wo sie ihre Ziele und Leistungen vorstellen, sich mit Fachleuten und Gleichgesinnten gedanklich austauschen und um neue Mitglieder unter den Besuchern gewinnen zu können und
um die Botschaften und Ratschläge herausragender Referenten zu wichtigen Bürger-Themen konzentriert zu hören, die den Bürger heute belasten. 
Es geht also um Ihren Schutz vor Fehlinformation, Abzocke und Ungerechtigkeit!
Die Premiere im letzten Jahr in Nürnberg, ebenfalls im Mai, ist erfolgreich verlaufen. Deshalb wird die gute Idee zu solch einem Tag mit neuem Leben erfüllt werden  dieses Jahr in Berlin. Es erwartet Sie ein spannendes, hoch brisantes Programm:

1. Fakten-Check: Bezahlbares Wohnen

♦ Vorstellung unakzeptabler Fälle der Mietervertreibung wegen Modernisierungen, drastische Mietsteigerungen und hohe Sonderzahlungen für Haus- u. Wohnungseigentümer wegen energetischer Sanierungen.

♦ Übergabe von Verbraucherschutz-Awards an Redakteure des BERLINER KURIERS Marcus Böttcher und Cornelia Schalenbach, die sich in herausragender Weise für Berliner Bürger engagiert haben.

Schilderungen und Kommentar:

Norbert Deul, Vorstand Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.

Lothar Blaschke, Vorstandmitglied VDGN Verband Deutscher Grundstücksnutzer e.V.

2. Referate und Diskussionen:                                                                                                

Ÿ „Schutz vor übertriebener EU-Bürokratie und der Schuldenpolitik“ (Alexandra Thein Rechts- u. verfassungspolitische Sprecherin der FDP im Europäischen Parlament, Vorsitzende der FDP Berlin)

♦„Die Hauswende – aber richtig!“ (Dipl.-Ing. Konrad Fischer – bekannt aus TV-Sendungen)

„Wirtschaftlichkeit energetischer Maßnahmen im Wohnungssektor – Verstand statt Verordnungen“ (Dipl.-Ing. Matthias G. Bumann, Bauingenieur aus Berlin)

Ÿ „Die Energiewende / das EEG – volkswirtschaftlich und ökologisch sinnhaltig?“ (Heinrich Duepmann – Vorstand Stromverbraucherschutz NAEB e.V.)

Ÿ „Auf der Suche nach dem Treibhaus-Effekt“ (Dipl.-Ing. Michael Limburg, Vizepräsident des neutralen Europäischen Instituts für Klima und Energie e.V.)

Ÿ „Warum der Justizombudsmann einzuführen ist“ (Horst Trieflinger, Vorstand Verein gegen Rechtsmissbrauch e.V.).

Alle Interessierte erhalten auf Anforderung bis äußerst 10.5.2014 eine Freikarte zur Veranstaltung mit Anfahrtsplan, das Endprogramm und einen Gutschein für eine 32-seitige kritische Info zum Schutz des Bürgers, die auch allen politischen Parteien in Berlin zur Kenntnisnahme und Anregung zur Verfügung gestellt wird.  

Anforderung an:

Bürgerschutz-Tag c/o Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.

Gehrestalstraße 8, 91224 Pommelsbrunn,

Tel.: 09154/1602, E-Mail: hausgeld-vergleich@t-online.de

Den inzwischen dramatisch gestiegenen Kosten für die Wohnung, wie man sich gegen

Mietervertreibung und hohe Sonderzahlungen wegen Modernisierungen und energetischen Sanierungen wehren kann, widmen sich der aus Bayern angereiste  Norbert Deul,  Vorstand der Schutzgemeinschaft für Wohnungseigentümer  und Mieter e.V. gemeinsam mit dem VorstandsMitglied  Lothar Blaschke, VDGN Verband Deutscher Grundstücksnutzer e.V.                                                          

Es werden drastische Einzelfälle aus Berlin vorgestellt und kommentiert.

Es sollen Wege aufgezeigt werden, wie die Kosten in diesem Bereich in den Griff zu bekommen sind.

In diesem Zusammenhang werden an die engagierten Redakteure Marcus Böttcher und Cornelia Schalenbach des BERINER KURIERS Verbraucherschutz-Award übergeben.

Der aus dem TV bekannte Dipl.-Ing. Konrad Fischer, Architekt aus Franken, wird sich in seiner überaus unterhaltsamen Art, der „Hauswende“ nach Bundesbauministerin Dr. Hendricks widmen. Dies aber so, wie es für den Geldbeutel und die Gesundheit des Haus- und Wohnungsinhaber richtig ist.

Dipl.-Ing. Matthias Bumann wird dazu ergänzend die rein wirtschaftliche Seite beleuchten, um vor finanziellem Schaden zu bewahren.

Dem zweiten großen Kostenblock der Bürger, der Energie, widmen sich Heinrich Duepmann, Vorstand des Stromverbraucherschutz NAEB e.V. und  Dipl.-Ing. Michael Limburg, Vizepräsident des Europäischen Instituts für Klima und Energie e.V. Beide werden aufzeigen, wie die immer weiter steigenden Kostenlast für den Bürger in den Griff zu bekommen wäre, wenn der Bürger massiv ins Geschehen im Sinne volkswirtschaftlicher Vernunft eingreifen würde. Es wird die weitere Bedrohung unserer Landschaften und Vogelwelt durch die „Verspargelung“ mit Windrädern diskutiert, die auch zu Wertverlusten der Grundstücke und zur Beeinträchtigung der anwohnenden Bürger führt.

Die FDP-Abgeordnete des Europaparlaments aus Berlin, Alexandra Thein, wird die Notwendigkeit aufzeigen, warum die EU-Bürokratie und derzeitige Schuldenpolitik zu kritisieren sind.

Und schließlich wird noch Horst Trieflinger vom Verein gegen Rechtsmissbrauch e.V. für die Schaffung eines Justizombudsmanns werben, den der Bürger dann anrufen kann, wenn er sich von der Justiz geschädigt fühlt, wie das bereits in Schweden praktiziert wird.

 Das Programm kann im Anhang als pdf herunter geladen werden.         

 

Related Files




Europa könnte russisches Gas durch Kohle aus den USA ersetzen

Kohleexporte aus den USA erreichten während der letzten Jahre infolge steigender Nachfrage in der Welt einen Boom. Tatsächlich verwenden einige europäische Länder bereits Kohle aus den USA als Ersatz für kostspieliges russisches Gas. Unter den größten Importeuren amerikanischer Kohle sind Deutschland und UK.

Der Republikaner Ed Whitfield, Kentucky, sagte der Daily Caller News Foundation: „Der Präsident tut alles in seiner Macht Stehende, um den Kohleverbrauch in den USA zu beenden, und zwar durch die Verordnung von Emissions-Standards, die so stringent sind, dass es nicht mehr möglich ist, Kohlekraftwerke zu bauen. Andere Länder jedoch sind auf der verzweifelten Suche nach dieser wertvollen Energiequelle, und wir exportieren Kohle auf Rekordniveau“.

Die Kohleexporte aus den USA sind in jüngster Zeit rasant gestiegen. Waren es im Jahr 2007 noch fast 59 Millionen amerikanische Tonnen, waren es im vorigen Jahr schon 118 Millionen amerikanische Tonnen. Die Importe sind gleichzeitig um 75% zurückgegangen.

„Einige europäische Länder verbrauchen Kohle aus den USA als Ersatz für russisches Gas und um Russlands Energie-Einfluss auf Europa zu neutralisieren”, sagte Whitfield. „Die Kohleexporte haben schon jetzt einen Einfluss auf die Geopolitik und helfen, in Amerika Arbeitsplätze zu schaffen und unser Handelsbilanzdefizit zu verringern. Wir können auf diesen Erfolg aufbauen, indem wir auch Erdgas exportieren“.

Russlands Invasion der Ukraine hat viele europäische Länder dazu gebracht, ihre Abhängigkeit von Erdgas zu überdenken, deren Nachschub jederzeit von Präsident Wladimir Putin unterbrochen werden kann. Die Europäische Union debattiert über das hydraulische Brechen oder Fracking, um riesige Vorräte an Schiefergas auszubeuten zusätzlich zu Importen aus den USA.

Aber der Import von Gas aus den USA ist keine kurzfristige Lösung, hat sich doch die Obama-Administration nur sehr zögernd dazu durchgerungen, Export-Terminals zu genehmigen. Ist ein solches Export-Terminal erst einmal genehmigt, kann es Jahre dauern, bis es seinen Betrieb aufnimmt und Gas nach Übersee verschifft wird.

Einige Analysten erwarten, dass Kohleexporte einen weiteren Auftrieb seitens der EU erhalten, ist Kohle doch der einzige kurzfristig mögliche Ersatz für Erdgas. „Wir meinen es ernst mit der Verringerung unserer Energie-Abhängigkeit. … Wir brauchen einen neuen Weg in der Energiewirtschaft“, sagte EU-Ratspräsident Herman Van Rompuy.

Deutschland und Italien beziehen in der EU das meiste Gas aus Russland, und beide denken darüber nach, wie man die Abhängigkeit von Russlands Energievorräten verringern könnte. Deutschland beispielsweise befindet sich in einer prekären Energielage.

Subventionen für grüne Energie haben die Energiekosten um 50% über das Niveau der übrigen EU steigen lassen, und der Beschluss des Landes, aus der Kernkraft auszusteigen hinterlässt dem Land nur wenige Optionen, seine Häuser und Industrien ausreichend mit Energie zu versorgen. Die kosteneffektivste Alternative für Deutschland war Kohle, und ein großer Teil dieser Kohle kam in letzter Zeit aus den USA.

Daten der Regierung zufolge haben die Kohleexporte nach Deutschland 2013 verglichen mit 2012 um vier Prozent zugenommen und eine Gesamtmenge von 5,5 Millionen amerikanische Tonnen erreicht. Und die Nachfrage ist nach Putins Annexion der Krim eher noch gestiegen.

Auch in UK trachtet man danach, sich aus der russischen Energieabhängigkeit zu lösen. Schon jetzt bezieht UK den größten Teil seines Erdgases aus Norwegen, und man hat Öl- und Gasunternehmen erlaubt, Fracking zu erkunden, trotz aggressiven Widerstands seitens Umweltaktivisten.

UK erhält sein russisches Gas indirekt und befindet sich daher in einer günstigen Lage, russisches Gas mit heimischem Gas und sogar Kohle aus den USA zu ersetzen. Die britische Kohleindustrie ist zwei Jahrzehnte lang geschrumpft, und in dem Land ist im nächsten Jahr nur noch eine Kohlemine in Betrieb. Tatsächlich haben die Kohleexporte nach UK von 2012 bis 2013 um 12 Prozent zugenommen.

Was immer in Europa entschieden wird – Putin sagt, er glaube nicht, dass Europa seine Abhängigkeit von russischer Energie so schnell los wird. „Wir verkaufen in den europäischen Ländern Gas, das 30 bis 35% der Energieversorgung dort ausmacht“, sagte Putin in einem stundenlangen Fernsehinterview. „Können sie aufhören, russisches Gas zu kaufen? Meiner Ansicht nach ist das unmöglich“.

Link: http://dailycaller.com/2014/04/17/europe-may-replace-russian-gas-with-us-coal/

Übersetzt von Chris Frey EIKE




Ein klarer Fall, wie die IPCC-Ideologie über die Fakten triumphiert

Mit diesem Tun beeinflusst das IPCC die öffentliche Gesundheit und das öffentliche Wohlergehen aller Menschen negativ, bringt es doch die Regierungen dazu, den Energieverbrauch zu begrenzen anstatt nach Wegen zu suchen, um die Verfügbarkeit von Energie zu verbessern (oder sich einfach aus dem Markt herauszuhalten).

Jeder weiß, dass sich die globale Erwärmung (wie sie durch den Anstieg der mittleren Temperatur der Erde repräsentiert wird) während der letzten eineinhalb Jahrzehnte verlangsamt hat. Die Gründe hierfür sind derzeit das heißeste Thema in der Klimawissenschaft mit etwa einem Dutzend unterschiedlicher Erklärungen, die in den Raum geworfen werden.

Die Modell-Apologeten strampeln sich ab, um den Ruf ihrer Modelle (und ihren eigenen) zu retten – weil sie das Eine nicht zugeben wollen – sie wollen nicht zugeben, dass vielleicht die einfachste und offensichtlichste Antwort die Richtige ist, dass nämlich Klimamodelle den Temperaturanstieg infolge menschlicher Treibhausgas-Emissionen erheblich überschätzen. Falls die Modelle überhitzt sind, dann gilt das auch für alle Auswirkungen, die aus den Modellprojektionen abgeleitet werden. Und das wäre die Totenglocke für alle eingeführten Regulierungen zur Begrenzung unseres Verbrauchs fossiler Treibstoffe.

In der ,Summary for Policymakers’ SPM des 5. Zustandsberichtes räumt selbst das IPCC die jüngste Divergenz der Modellprojektionen und der Beobachtungen ein:

„Es gibt jedoch Differenzen zwischen simulierten und beobachteten Trends in Zeiträumen von 10 bis 15 Jahren (z. B. von 1998 bis 2013)“.

Aber bevor man jetzt denkt, dass es mit den Klimamodellen irgendwelche Probleme gibt, stellt das IPCC klar:

„Die langzeitlichen Klimamodell-Simulationen zeigen einen Trend der globalen mittleren Temperatur von 1951 bis 2012, der mit dem beobachteten Trend übereinstimmt“.

Na sowas! Eine Minute lang sah es so aus, als ob die Modelle versuchten, die Realität abzubilden, aber man versichert uns, dass langfristig – sagen wir seit Mitte des 20. Jahrhunderts – dem IPCC zufolge die Modellsimulationen und die Beobachtungen „übereinstimmen“.

Das IPCC zeigt seinen „Kasten 9.2“ zur Unterstützung dieser Behauptungen.

In dieser „Box 9.2” platziert das IPCC hilfreich die beobachteten Trends in den Zusammenhang der Verteilung simulierter Trends der Sammlung von Klimamodellen, die in dem Bericht verwendet werden. Die Höhepunkte aus Box 9.2 werden hier reproduziert als unsere Abbildung 1. In dieser Abbildung ist der beobachtete Trend für verschiedene Zeiträume in rot und die Verteilung der Modelltrends in grau dargestellt.

Abbildung 1: Verteilung des Trends der globalen mittleren Temperatur aus 114 Modellläufen des IPCC (grau) und der beobachteten Temperaturtrends, zusammengestellt vom Hadley Center in UK (rot). Abbildung aus dem 5. Zustandsbericht des IPCC.

Wie man im Teil (a) sieht, liegen die beobachteten Trendlinien von 1998 bis 2012 unter fast allen Modelltrends. Das IPCC schreibt dazu:

111 der 114 Läufe zeigen einen Trend der globalen Mittleren Temperatur von 1998 bis 2012, der höher liegt als das gesamte HadCRUT4-Ensemble. Dies führte zur oben zitierten Feststellung des IPCC in der SPM.

Ernsthaft!

Wenden wir uns jetzt der Periode von 1951 bis 2012 zu, Teil (c) in Abbildung 1.

Das IPCC beschreibt den dort gezeigten Zustand so:

Während der 62-jährigen Periode von 1951 bis 2012 stimmen der beobachtete Trend und der Trend des Klimamodells CMIP5 bis auf 0,02°C pro Dekade überein…

Das klingt so, als ob die Modelle ziemlich gut sind – und nur um 0,02°C pro Dekade abweichen. Und das ist die Grundlage für das IPCC-Statement zur langzeitlichen Modellsimulation (ebenfalls oben zitiert).

Interessanterweise sagt uns das IPCC nicht explizit, wie viele der 114 Klimamodelle einen größeren Trend zeigen als im Zeitraum 1951 bis 2012 beobachtet. Und es ist grundsätzlich unmöglich, dies selbst aufgrund des Teils (c) herauszufinden, weil einige Balken im Histogramm über die Obergrenze der Graphik hinausreichen und die Skalierung der X-Achse so groß ist, als ob die Trends zu einem Bündel zusammengefasst werden sollen zu nur sechs Körben, die die 114 Modellläufe repräsentieren sollen. Konsequenterweise kann man nicht abschätzen, wie gut die Modelle wirklich sind und wie groß ein Unterschied von 0,02°C pro Dekade während 62 Jahren wirklich ist. Man muss das IPCC hierzu beim Wort nehmen.

Aber das tun wir nicht.

Auf der Website Climate Explorer wird die große Mehrheit der vom IPCC benutzten Klimamodell-Ergebnisse archiviert und verfügbar gemacht. Hier kann man 108 der 114 in  die IPCC-Graphik eingeflossenen Modellläufe bestimmen – eine Mehrheit, die groß genug ist, um die Ergebnisse ziemlich genau zu reproduzieren.

Das machen wir in unserer Abbildung 2. Allerdings adjustieren wir beide Achsen der Graphik so, dass alle Daten gezeigt werden und man die Details dessen erkennen kann, was wirklich vor sich geht.

Abbildung 2: Verteilung des Trends der globalen Mitteltemperatur aus 108 Modellläufen, die vom IPCC verwendet werden (blau) und den beobachteten Temperaturen des UK Hadley Centers (rot) im Zeitraum von 1951 bis 2012. (Die Modelltrends sind berechnet aus historischen Läufen mit den RCP4.5-Ergebnissen, angefügt nach 2006). Dies zeigt die fast identischen Daten in Teil (c) der Abbildung 1.

Wir erkennen, dass 90 der 108 Modellläufe mehr globale Erwärmung simulieren als beobachtet von 1951 bis 2012 und 18 Modelläufe, die weniger Erwärmung simulieren. Was eine andere Art ist zu sagen, dass die Beobachtungen beim 16. Perzentil [?] der Modellläufe fallen (das 50. Perzentil ist der mittlere Modell-Trendwert).

So wollen wir also jetzt folgende Frage in den Raum stellen, zu beantworten mit einer Bandbreite von 1 bis 5 oder besser unter Verwendung der Terme „sehr niedrig“, „niedrig“, „mittel“, „hoch“ oder „sehr hoch“. Wie würden Sie Ihr „Vertrauen“ in diesem Statement benennen?:

 „Die langfristigen Klimamodell-Simulationen zeigen einen Trend der globalen mittleren Temperatur von 1951 bis 2012, der mit dem beobachteten Trend übereinstimmt”.

Also, haben Sie eine Antwort?

Unsere Antwort lautet, wenn es hoch kommt, „mittel“.

Schließlich gibt es noch sehr viel Spielraum für Verbesserungen.

Zum Beispiel könnte die Bandbreite der Modelle viel enger sein. Dies würde zeigen, dass die Modelle in besserer Übereinstimmung untereinander sind, was den simulierten Trend betrifft. So wie es jetzt ist, reicht die Bandbreite der Modelle 1951 bis 2012 von 0,07°C pro Dekade bis 0,21°C pro Dekade (man beachte, dass der beobachtete Trend bei 0,107°C pro Dekade liegt). Und dies kommt von Modellen, die zumeist mit beobachteten Änderungen der Klimatreiber betrieben wurden (z. B. Treibhausgas-Emissionen, Aerosol-Emissionen, Vulkane usw.) und über einen Zeitraum (62 Jahre), aus dem sich alle kurzfristigen Wetter-Variationen herausmitteln. Mit anderen Worten, sie sind überall.

Eine andere Möglichkeit, die Übereinstimmung zwischen den Modell-Simulationen und den Beobachtungen in der realen Welt zu verbessern, wäre es, wenn der beobachtete Trend näher an der Mitte der Verteilung der Modellprojektionen liegen würde. Zum Beispiel wäre die Übereinstimmung viel besser, wenn, sagen wir, 58 Modelle mehr und die anderen 50 weniger Erwärmung simulieren würden.

Was würde Ihr Vertrauen verringern?

Der gegenteilige Satz von Tendenzen. Die Verteilung der Modelle könnte sogar noch größer sein als gegenwärtig, was zeigen würde, dass die Modelle untereinander sogar noch weniger darin übereinstimmen, wie sich die Temperatur in der realen Welt entwickeln wird (oder dass die natürliche Variabilität während des Zeitraumes der Trendanalyse sehr groß war). Oder der beobachtete Trend könnte sich weiter vom Mittelpunkt der Modellverteilung entfernen. Dies würde eine zunehmende Diskrepanz zwischen Beobachtungen und Modellen zeigen (und wäre damit dem ähnlicher, was im Zeitraum von 1998 bis 2012 los war).

Tatsächlich ist letztere Situation im Gange – das heißt, der beobachtete Trend bewegt sich stetig nach links in der Verteilung der von den Modellen simulierten Trends.

Abbildung 3 zeigt, bei welchem Perzentil der beobachtete Trend für jeden Zeitraum seit 1951 und bis zu jedem Jahr von 1980 bis 2013 fällt.

Abbildung 3: Die Rangfolge der Perzentile des beobachteten Trends der globalen Mitteltemperatur, der 1951 beginnt und mit dem auf der X-Achse indizierten Jahr endet, innerhalb der Verteilung von 108 simulierten Trends im gleichen Zeitraum. Das 50. Perzentil ist der mittlere Trend simuliert durch die Masse der Klimamodelle.

Nach dem Spitzenwert beim 42. Perzentil (immer noch unterhalb der mittleren Modellsimulation beim 50. Perzentil) während des Zeitraumes 1951 bis 2012 ist der beobachtete Trend in der Prozent-Rangfolge stetig gefallen und hat gegenwärtig (im Zeitraum 1951 bis 2013) seinen niedrigsten Punkt jemals erreicht (14. Perzentil), Tendenz weiter fallend. Wie jedermann eindeutig erkennen kann, lässt dieser Trend die Modelle schlecht aussehen, da das Niveau der Übereinstimmung mit den Beobachtungen mit der Zeit stetig immer weiter abnimmt.

Statistisch gesprochen: falls der beobachtete Trend unter das 2,5. Perzentil fällt, würde man dies weithin betrachten, dass der Beweis stark genug war zu zeigen, dass die Beobachtungen nicht aus der Masse der Modellergebnisse stammen. Mit anderen Worten, ein Statistiker würde die Lage, dass die Modelle nicht mit den Beobachtungen übereinstimmen, mit dem Terminus „sehr hohes Vertrauen“ bezeichnen. Einige Forscher verwenden einen laxeren Standard und würden schon bei einem Abfall unter das 5. Perzentil davon ausgehen, dass die Beobachtungen nicht mit den Modellen übereinstimmen. Wir würden diesen Fall mit „hohes Vertrauen“ beschreiben, dass die Modelle und die Beobachtungen nicht miteinander übereinstimmen.

Wie weit entfernt sind wir also von jeder dieser Situationen?

Alles hängt davon ab, wie sich die mittlere Temperatur der Erde in naher Zukunft verhält.

Wir erkunden drei verschiedene Szenarien zwischen jetzt und dem Jahr 2030.

Szenario 1: Die mittlere Temperatur der Erde bleibt in jedem Jahr des Zeitraumes 2014 bis 2030 gleich der mittleren Temperatur, die während der ersten 13 Jahre dieses Jahrhunderts gemessen worden ist (2001 bis 2013). Dieses Szenario repräsentiert eine Fortsetzung des „Stillstands“ beim Anstieg der globalen Temperaturen.

Szenario 2: Die Temperatur der Erde nimmt Jahr für Jahr mit einer Rate zu, wie sie im Zeitraum 1951 bis 2012 beobachtet worden ist (0,107°C pro Dekade*). Dies repräsentiert eine Fortsetzung des beobachteten Trends.

[*Im Original steht an dieser Stelle die Zahl 0,0107°C. Weiter oben stand die Zahl 0,107°C. Ich vermute mal, dass hier ein Schreibfehler der Autoren vorliegt, und habe den oben genannten Wert in diese Übersetzung geschrieben. A. d. Übers.]

Szenario 3: Die mittlere Temperatur der Erde nimmt Jahr für Jahr mit einer Rate zu wie im Zeitraum 1977 bis 1998 beobachtet – einem Zeitraum, der oftmals als der 2. Temperaturanstieg des 20. Jahrhunderts bezeichnet wird.  Die Rate der Temperaturzunahme in diesem Zeitraum hatte 0,17°C pro Dekade betragen. Dies repräsentiert ein Szenario, in dem die Temperatur mit der höchsten in der Periode beobachteten Rate steigt, einer Periode, die oftmals assoziiert wird mit einem anthropogenen Einfluss auf das Klima.

Abbildung 4 zeigt, wie sich die perzentile Rangfolge der Beobachtungen unter allen drei Szenarien entwickelt von 2013 bis 2030. Unter Szenario 1 würde der beobachtete Trend im Jahr 2004 unter das 5. Perzentil der Verteilung der Modellsimulationen fallen und unter das 2,5. Perzentil im Jahr 2023. Unter Szenario 2 sind die Jahre, in denen diese Perzentile unterschritten werden, 2019 bzw. 2026. Und unter Szenario 3 würde der beobachtete Trend (seit 1951) in den Jahren 2020 bzw. 2030 unter diese Perzentile fallen.

Abbildung 4: Perzentile Reihenfolge des beobachteten Trends innerhalb der Verteilung der Modellsimulationen seit 1951 und endend in dem Jahr, das auf der X-Achse gekennzeichnet ist unter der Anwendung der drei Szenarien, wie sich die beobachtete globale Mitteltemperatur zwischen den Jahren 2014 und 2030 entwickeln wird. Die Klimamodelle laufen mit historischem Antrieb von 1951 bis 2006 und dem RCP4.5-Szenario danach.

Es sieht eindeutig nicht gut aus für die Klimamodelle, wenn selbst ein nachhaltiger Temperaturanstieg ähnlich dem raschesten beobachteten Szenario (Nr. 3) innerhalb von zwei Jahrzehnten immer noch zu einem vollständigen Scheitern der Modelle führt.

Schauen wir also mal:

1) Die Untersuchung von 108 Klimamodellläufen, die die Periode von 1951 bis 2012 umfassen, zeigen, dass die modellsimulierten Trends der globalen Mitteltemperatur um einen Faktor drei variieren – kaum ein hohes Niveau der Übereinstimmung, wie es zwischen den Modellen eigentlich sein sollte.

2) Der beobachtete Trend während des Zeitraumes 1951 bis 2012 fällt beim 16. Perzentil der Modellverteilung, wobei 18 Modellläufe einen kleineren Trend und 90 Modellläufe einen größeren Trend zeigen. Keine wirklich gute Übereinstimmung.

3) Der beobachtete Trend hat sich immer weiter vom Mittel der Modelle entfernt und während der letzten 15 Jahre immer niedrigere Perzentile erreicht. Die Übereinstimmung zwischen dem beobachteten Trend und den Modelltrends wird stetig immer schlechter.

4) Innerhalb der nächsten 5 bis 15 Jahre wird der langzeitliche beobachtete Trend (seit 1951) mit an Sicherheit grenzender Wahrscheinlichkeit so weit unter die Modellsimulationen fallen, dass er statistisch nicht mehr als zu den modellierten Ergebnissen gehörend gerechnet werden kann. Diese Nicht-Übereinstimmung zwischen beobachteten Trends und Modelltrends wäre vollständig.

Mit all diesen Informationen geben wir Ihnen einen Moment des Nachdenkens über Ihre ursprüngliche Antwort auf diese Frage, zu beantworten mit einer Bandbreite von 1 bis 5 oder besser unter Verwendung der Terme „sehr niedrig“, „niedrig“, „mittel“, „hoch“ oder „sehr hoch“. Wie würden Sie Ihr „Vertrauen“ in diesem Statement benennen?:

„Die langfristigen Klimamodell-Simulationen zeigen einen Trend der globalen mittleren Temperatur von 1951 bis 2012, der mit dem beobachteten Trend übereinstimmt”.

Haben Sie Ihre letztendliche Antwort?

Ok, vergleichen wir das mit der Einschätzung des IPCC zur Übereinstimmung zwischen Modellen und Beobachtungen. Das IPCC hat diese Einschätzung mit „sehr hohes Vertrauen“ bezeichnet – das höchste Vertrauensniveau, das sie vergeben.

Hören wir hier eine erstaunte Stille?

Dies alles fast den IPCC-Prozess in aller Kürze zusammen. Die Fakten zeigen, dass die Übereinstimmung zwischen den Modellen und den Messungen sehr dünn ist und stetig weiter erodiert. In etwa einem Jahrzehnt wird sie statistisch überhaupt nicht mehr vorhanden sein, und doch vergibt das IPCC der gegenwärtigen Übereinstimmung zwischen Modellen und Messungen das höchste Vertrauensniveau.

Falls die Modelle falsch sind (und zu viel Erwärmung vorhersagen), dann zerfallen alle Auswirkungen der Klimaänderung sowie die Dringlichkeit, „etwas zu tun“, und „die Krise“ löst sich auf.

Das ist politisch inakzeptabel.

Also trachtet das IPCC nicht danach, die Wahrheit zu sagen, sondern stattdessen das Narrativ „die Klimaänderung ist schlecht“ weiter zu pflegen. Schließlich haben Regierungen auf der ganzen Welt eine Masse Geld für die Bemühungen ausgegeben, die Klimaänderung auf der Grundlage der IPCC-Einschätzungen zuvor zu bekämpfen. Das IPCC kann jetzt einfach nicht zurückweichen und sagen, Oh, Entschuldigung, wir hatten unrecht, das tut uns leid! Also fahren sie fort, den Mythos zu pflegen und die Politiker in die Irre zu führen [doch wohl tatkräftig unterstützt durch willfährige Medien! A. d. Übers.]

Link: http://wattsupwiththat.com/2014/04/16/a-clear-example-of-ipcc-ideology-trumping-fact/

Übersetzt von Chris Frey EIKE




Energiewende: Grüne Zauberlehrlinge oder der Wettlauf in den Untergang

All das sei aber nur um den Preis der Zerstörung der Natur und der Gefährdung der menschlichen Gesundheit möglich gewesen, behaupten die Grünen aller Parteien. Nur durch den Vorrang für die Einspeisung von „sauberem“ erneuerbaren Strom in das Netz und die 20-jährige Garantie der dafür gezahlten Vergütung sei es möglich, den „schmutzigen“ Strom aus Kohle- und Kernkraftwerken zurückzudrängen.
Unter diesen Umständen verwundert es nicht, dass die Kosten-Nutzen-Bilanz des EEG wie der ganzen „Klimapolitik“ eindeutig negativ ausfällt. Obwohl die Verbraucher den EEG-Strom über Zuschläge auf den Strompreis jährlich schon mit über 22 Milliarden Euro subventionieren, ist der Einsatz der besonders „schmutzigen“ Braunkohle nicht zurückgegangen. Im Gegenteil: Im vergangenen Jahr erreichte er den höchsten Stand seit der Wiedervereinigung Deutschlands. Dem entsprechend stieg auch der Ausstoß des „Klimagases“ CO2. Deutschland ist das einige Mitgliedsland der Organisation für wirtschaftliche Zusammenarbeit (OECD), in dem das der Fall ist. Dabei sahen sich die Bundesregierungen unter Angela Merkel stets als „Vorreiter“ der Klimapolitik und steckten sich entsprechend ehrgeizige CO2-Reduktions-Ziele.
Der Ökonom Ottmar Edenhofer, stellvertretender Direktor des Potsdam Institut für Klimafolgenforschung und Co-Vorsitzender des „Weltklimarates“ der UN (IPCC), gab vor einigen Jahren in einem Interview mit der Neuen Zürcher Zeitung in bemerkenswerter Offenheit zu, mit Umweltschutz habe der „Klimaschutz“ nichts zu tun. Es gehe vielmehr um die Umverteilung von Weltvermögen. Statt der ursprünglich angestrebten Fortsetzung des Kyoto-Abkommens wurde nämlich Ende 2009 auf dem „Klima-Gipfel“ von Kopenhagen lediglich die Einrichtung eines Green Climate Fund (GCF) beschlossen, in den wohlhabende Länder bis 2020 jährlich 100 Milliarden Dollar einzahlen sollen. Das Geld soll es ärmeren Ländern ermöglichen, sich an den unvermeidlichen Klimawandel anzupassen. Wie das zu verstehen ist, bleibt selbstverständlich Auslegungssache. Die Definitionsmacht liegt dabei wohl bei der global agierenden Finanzindustrie.
Um die Umverteilung von Vermögen geht es bei der Energiewende aber auch auf nationaler Ebene, und zwar von den relativ armen Bewohnern von Mietskasernen zu den Eigentümern von Villen mit Solardach und den Planern und Anteilseignern von Wind- und Solarparks sowie den Banken, die solche Projekte finanzieren. Die enge Verbindung zwischen Selbsthass und gutmenschlicher Doppelmoral sorgt dafür, dass das alles mit gutem Gewissen vonstatten geht. Naturschutz gilt dabei lediglich als Störfaktor. In Nordhessen sollen zum Beispiel 50 bis zu 200 Meter hohe Windräder mitten im Naturpark Kaufunger Wald errichtet werden. In Mittelhessen sollen die bewaldeten Kammlagen des Taunus Windparks geopfert werden. Ähnlicher Frevel bahnt sich im Pfälzer Wald, Deutschlands größtem zusammenhängenden Waldgebiet, an. Eine vor Jahren vom Bundestag einstimmig durchgewunkene Änderung des Paragrafen 35 des Baugesetzes macht es möglich, 200 Meter hohe Ungetüme in Gegenden zu pflanzen, in denen bislang selbst die Errichtung kleiner Regenschutzhütten für grasende Kühe verboten war. Deshalb hatten Bürgerinitiativen bislang kaum Chancen, Windparks zu verhindern.
Alles, was kräftig subventioniert wird, ist nach kurzer Zeit im Überfluss vorhanden. Davon zeugen die Milchseen und Butterberge, die noch vor wenigen Jahrzehnten durch die europäischen Agrar-Subventionen geschaffen wurden. Die älteren Leser werden sich noch gut daran erinnern. In der ökonomischen Literatur ist das als „Kobra-Effekt“ bekannt. Das Schlagwort bezieht sich auf Kopfprämien, die ein britischer Gouverneur im kolonialen Indien auf das Fangen der Giftschlangen ausgesetzt hatte, um der Kobra-Plage Herr zu werden. Durch die Prämien wurden aber schlaue Bauern zum Züchten von Kobras veranlasst und es gab auf dem Subkontinent bald mehr Kobras als je zuvor.
Etwas Ähnliches passiert gerade bei uns infolge der üppigen Subventionierung so genannter erneuerbarer Energien. An sonnigen und/oder windreichen Wochenenden produzieren Windräder und Photovoltaik schon jetzt deutlich mehr Elektrizität, als in Deutschland gebraucht wird. Am letzten Sonntag, dem 13. April, war das wieder einmal der Fall. Zu Ostern könnte es noch dicker kommen, sofern uns das “Kaltluft-Ei” erhalten bleibt. Damit das Stromnetz nicht zusammenbricht, müssen dann die Netzbetreiber entweder überschüssiger Strom gegen saftige Zuzahlungen an Nachbarländer verschenken oder die Betreiber von Wind- und Solarparks großzügig für die Notabschaltung ihrer Anlagen entschädigen. In jedem Fall müssen die Stromkunden für die zusätzlichen Kosten aufkommen. Gleichzeitig macht der im Überfluss in das Netz eingespeiste Grünstrom tendenziell alle konventionellen Kraftwerke unrentabel. Zurzeit rechnen sich nur noch Braunkohle- und abgeschriebene Kernkraftwerke. Bald wird es aber wohl keine Form der Stromerzeugung mehr geben, die nicht subventioniert werden muss. Schon jetzt wird jeder der schätzungsweise 50.000 Beschäftigten im Geschäftsbereich „Erneuerbare“ jährlich mit etwa 400.000 Euro subventioniert. Ein Selbstmordprogramm.
Auf der VII. Internationalen Klima- und Energiekonferenz, die am 10. April in Mannheim stattfand, hat Dipl. Ing. Michael Limburg, der Vize-Präsident des veranstaltenden unabhängigen Europäischen Instituts für Klima und Energie (EIKE) vorgerechnet, dass die aufsummierten Kosten des EEG schon im Jahre 2022 die stolze Summe von 1,2 Billionen Euro überschritten haben werden. Hinzu kommen die Kosten der staatlich verordneten Wärmedämmung von Gebäuden in ähnlicher Größenordnung. Deutschland hat schon jetzt die mit Abstand höchsten Industriestrompreise der Welt. Nur Tschechien und Bulgarien liegen noch leicht darüber. Von daher verwundert es nicht, dass die Inlandsinvestitionen der Schlüssel-Industrien Stahl und Chemie bereits unter den Abschreibungen liegen. Der leise Abschied der Industrie von Deutschland ist also bereits im Gange. Aber das ist einer Gruppe in der CDU/CSU-Fraktion des deutschen Bundestages namens „Klimakreis“ offenbar noch nicht genug. In einem gerade vorgelegten Positionspapier fordert die Gruppe eine verbindliche Senkung des Energieverbrauchs in der EU um 40 Prozent bis zum Jahre 2030. Der Wettlauf in den Untergang hat begonnen.

Der Beitrag erschien zuerst bei ef und auf Edgar Gärtners Homepage




Verursachen Aliens die globale Erwärmung? Die Daten sagen ‚Ja!‘

Die monatlichen Berichte über UFOs während der letzten Jahrzehnte sind eindeutig sehr stark korreliert mit der Zunahme des globalen ozeanischen Wärmegehaltes. Tatsächlich ist die Beziehung so stark, dass es an der Zeit wäre, UFOs zu regulieren, falls es sich hierbei um eine epidemiologische Studie gehandelt hätte.

Zwischen den Jahren 1979 und 2011 haben die Anzahl der UFO-Berichte und gleichlaufend auch die mittlere Wassertemperatur der oberen 700 m der Ozeane zugenommen:

Abbildung 1: Zeitreihe monatlicher UFO-Berichte und globale Anomalien der Wassertemperatur in den Ozeanen bis zu einer Tiefe von 700 m. Beide Kurven enthalten eine Glättung.

Die Korrelation zwischen UFO-Berichten und der Wassertemperatur liegt über 0,95, das ist eindeutig besser als die Korrelation zwischen dem langweiligen alten Kohlendioxid und der Erwärmung der Ozeane:

Abbildung 2: Verzögerungs-Korrelationen zwischen UFO-Berichten und der Wassertemperatur der Ozeane sowie zwischen CO2 und Wassertemperatur.

Man beachte die Tatsache, dass die CO2-Tendenz der Ozean-Temperatur nachfolgt, was eine schwache Tendenz zeigt, dass sich erwärmendes Ozeanwasser verstärkt CO2 ausgast (oder die CO2-Aufnahme aus der Atmosphäre reduziert). Mit anderen Worten, Erwärmung verursacht einen CO2-Anstieg. Das ist der Meinung, dass CO2 zu Erwärmung führt, entgegengesetzt. Im Gegensatz dazu besteht zwischen der stärksten Korrelation zwischen UFO-Berichten und der Wassertemperatur gar keine Zeitverzögerung. Die UFOs besuchen uns, die Ozeane erwärmen sich.

(Und für euch Alien-Leugner allesamt, hier findet sich die Kalkulationstabelle mit den Daten und Links).

Aber Korrelation bedeutet nicht notwendigerweise Kausalität. Wir brauchen eine Art hypothetischen Mechanismus dafür wie – und vielleicht warum – Aliens globale Erwärmung verursachen.

Meine Hypothese lautet, dass die Raumschiffe der Außerirdischen eine Art starker Wärmegeneratoren haben, die Energie in die Ozeane pumpen. Vielleicht eine auf Anti-Schwerkraft basierende thermogenische Fluss-Kondensator-Technologie (ich rate nur … Ich bin lediglich ein Raketen-Wissenschaftler, kein Kernphysiker und auch kein Filmstar).

Aber warum? Warum versuchen die Aliens, unsere Ozeane zu erwärmen?

Kommen sie von einer warmen Wasserwelt? Wollen sie unsere Ozeane kolonisieren, nachdem sie sie ausreichend aufgeheizt haben? Oder sind wir die sprichwörtlichen Frösche in einem Wassertopf auf dem Herd?

Eindeutig mögen Aliens wärmeres Wetter, weil es in den UFO-Berichten einen starken jährlichen Zyklus gibt, wobei der Spitzenwert im Juli erreicht wird, zur gleichen Zeit also, wenn auch die globale mittlere Temperatur ihren Spitzenwert erreicht:

Abbildung 3: Mittlere Anzahl der UFO-Berichte über die Kalendermonate. Dies illustriert die besondere Vorliebe der Aliens für wärmeres Wetter.

Dies ist auch konsistent mit der Tatsache, dass man von Aliens weiß, dass sie keinerlei Fell besitzen, geschweige den irgendwelche Textilien, möglicherweise weil ihre Heimatplaneten so warm sind: siehe Bild oben rechts!

Oder, vielleicht mögen sie einfach die Menschen beobachten. Im Sommer sind viel mehr Menschen draußen oder unterwegs. Das würde auch Entführungen leichter machen.

Unabhängig davon habe ich auch an einer neuen allgemeinen Theorie gearbeitet, woher gerade Linien kommen. Weil sie so perfekt miteinander korreliert sind glaube ich, dass sie einen gemeinsamen Ursprung haben … vielleicht eine Super-Linie, die sich ins Unendliche und darüber hinaus erstreckt und die alle anderen, kürzeren Linien generiert. Aber die lineare Algebra zeigt sich irgendwie sehr ungeordnet. Bleiben Sie dran!

Und schließlich möchte ich mit einem Zitat von Mark Twain schließen:

„Es ist etwas Faszinierendes an der Wissenschaft. Man bekommt so viele Mutmaßungen aus einer solchen unbedeutenden Einbringung von Fakten“.

Ein abschließender Gedanke: Vor seinem Tod habe ich mit Michael Crichton über seine Erfahrungen hinsichtlich seines Eingreifens in die Debatte um die globale Erwärmung geredet, über sein Buch State of Fear [Zustand der Angst], in dem John Christy und ich selbst durch eine Wissenschaftlerin repräsentiert worden sind, und über seine Aussage vor dem Kongress zum Thema Klimaänderung. Ich glaube, dass er der Ansicht war, der Öffentlichkeit einen Dienst zu erweisen, aber die Politisierung des Themas (und die Art und Weise, wie er im Kongress behandelt worden ist), haben ihn völlig überrascht. Das hinterließ einen schlechten Geschmack in seinem Mund, und er sagte, dass er sich nicht länger in das Klimathema einmischen würde. Es ist ein verrücktes Geschäft, in dem wir arbeiten, und die meisten geistig gesunden Menschen haben sich entschieden, nicht in die öffentliche Debatte involviert zu werden.

Link: http://www.drroyspencer.com/2014/04/do-aliens-cause-global-warming-the-data-say-yes/

Übersetzt von Chris Frey EIKE




Studie der Windindustrie zeigt: Strompreise in Windkraft-Staaten explodieren

Kleinreden steigender Preise

Susan Williams Sloan, Direktorin der staatlichen Beziehungen für die AWEA, schrieb und verbreitete einen Artikel als Erwiderung einer Reihe von Beiträgen von mir zum Thema Strompreise in Staaten mit Vorschriften zu erneuerbarer Energie. Im vorigen Jahr haben mich Gesetzgeber in Colorado, Kansas und Ohio gebeten, in Anhörungen über Auswirkungen der Kosten erneuerbarer Energien in ihren Staaten auszusagen. Gesetzgeber in einem anderen Staat, North Carolina, baten mich um eine ähnliche Analyse in potentiellen Anhörungen. Meinen Forschungen zufolge sind die Strompreise in allen vier Staaten viel schneller gestiegen als im landesweiten Durchschnitt, nachdem diese Staaten ihre Vorschriften zu erneuerbaren Energien erlassen hatten.

Meine im Magazin Environment & Climate News veröffentlichten Artikel dokumentieren die rapiden Preissteigerungen in jedem Staat, was jedoch keine Überraschung ist, wenn man in Betracht zieht, dass Windkraft und andere Formen erneuerbarer Energie viel teurer sind als die konventionelle Stromerzeugung. Das ist der wirkliche Grund dafür, dass Big Renewables mit Zähnen und Klauen um Vorschriften für Erneuerbare kämpft – weil sie anderenfalls im Wettbewerb mit konventionellen Energiequellen nicht mithalten könnten.

In dem Beitrag „Fact Check: New Analysis Rebuts Heartland’s Bogus RPS Claims” [etwa: „Faktencheck: eine neue Analyse widerlegt die falschen RPS-Behauptungen von Heartland”] behauptet Sloan, dass in den 11 Staaten, in denen Windkraft mehr als 7% des verbrauchten Stromes ausmacht, die Preise um fast 1% seit 2008 gesunken seien. Unter Verweis auf einen anderen jüngst veröffentlichten AWEA-Bericht mit dem Titel „Wind Power’s Consumer Benefits“ [etwa: „Vorteile für Windkraftverbraucher“] behauptete sie, dass die Strompreise in den verbleibenden 39 Staaten um 7,8 Prozent gestiegen seien. Für die Nation als Ganzes machte sie eine Strompreissteigerung von 3% seit 2008 geltend.

Sloan behauptete, dass dies meine Studien bzgl. der vier Staaten als „willkürlich herausgegriffen“ und „verlogen“ gezeigt hat. Stattdessen bietet eine objektive Begutachtung des Sloan’schen „Faktenchecks“ eine informative Lektion, wie die Industrie der erneuerbaren Energien mit den Fakten Schindluder treibt, um öffentliche Funktionäre zu beeindrucken. Tatsächlich zeigt die AWEA-eigene Analyse, dass die Strompreise in fast allen Staaten mit substantieller Windkraft explodieren.

Explodierende Kosten in Windkraft-Staaten

Die 11 Staaten, von denen die AWEA behauptet, dass sie über 7% ihres Stromes aus Windkraft erzeugen, sind Colorado, Idaho, Iowa, Kansas, Minnesota, North Dakota, Oklahoma, Oregon, South Dakota, Texas und Wyoming. Die AWEA sagt, dass die Strompreise in diesen Staaten seit 2008 leicht gefallen seien. Allerdings zeigen die Daten der Energy Information Administration EIA der USA, dass die Preise in 9 dieser 11 Staaten dramatisch steigen. Die EIA-Daten bzgl. der Änderung von Strompreisen für jeden der 11 Staaten seit 2008 sehen so aus:

Colorado – plus 14%
Idaho – plus 33%
Iowa – plus 17%
Kansas – plus 29%
Minnesota – plus 22%
North Dakota – plus 24%
Oklahoma – minus 1%
Oregon – plus 15%
South Dakota – plus 26%
Texas – minus 19%
Wyoming – plus 33%

Die objektiven Daten der EIA zeigen also, dass 9 der 11 größten Windkraft-Staaten Schauplatz explodierender Strompreise sind, wobei der Anstieg über vier mal so hoch ist wie im landesweiten Mittel. Mehr noch, die Strompreise in 8 der 11 Staaten steigen mehr als doppelt so stark wie in den 39 Staaten mit weniger als 7% Windstrom.

Wie kommt dann aber die AWEA zu der Behauptung, dass in diesen 11 größten Windkraft-Staaten die Strompreise fallen?

Die Antwort: die AWEA berechnet nicht den mittleren Anstieg jedes einzelnen Staates oder die Gesamtänderung, die dann durch 11 dividiert wird. Stattdessen vergibt die AWEA verschiedene Wichtungen bzgl. der Änderungen in jedem Staat, basierend auf der Menge des Stromverbrauchs in diesem Staat. Die merkwürdige Methode der AWEA, die Strompreise in jedem Staat unterschiedlich zu wichten, gibt ihr die Möglichkeit zu behaupten, dass Windenergie zu niedrigeren Strompreisen führt, obwohl die Strompreise in den 11 Staaten mit dem größten Windkraftanteil am Strom explodieren.

Erklärung der beiden Ausreißer

Andere wichtige Faktoren widerlegen auch die AWEA-Behauptungen in den beiden Windkraft-Staaten, in denen die Strompreise nicht explodieren.

In Oklahoma, gekennzeichnet durch praktisch keine Preisänderung, gibt es keine Vorschrift bzgl. erneuerbarer Energie. Markkräfte und nicht die staatliche Regierung bestimmen, wie viel Windstrom erzeugt wird. Die AWEA führt also komischerweise einen Staat mit relativ stabilen Strompreisen ohne Vorschriften an, um den Ruf nach Vorschriften seitens der AWEA zu rechtfertigen.

In Texas – da stimmen Ökonomen überein – sind die Strompreise während der letzten Jahre gefallen als Folge der Bemühungen des Staates zur Deregulierung im letzten Jahrzehnt. Kohle-, Erdgas-, Kernkraft- und Windstrom sind alle Gegenstand fallender Preise wegen der Deregulierung. Und doch ordnet die AWEA die fallenden Strompreise des Staates fälschlich der Windkraft zu.

Die von der AWEA selbst erdachte Formel missbraucht die Deregulierung in Texas, um die insgesamt explodierenden Strompreise in den 10 anderen Staaten mit der höchsten Stromerzeugung aus Windkraft zu verstecken.

Die AWEA stellt sich selbst ein Bein

Mit ihrem Versuch, den gesunden Menschenverstand zu widerlegen, nämlich die objektiv dokumentierte Tatsache zu widerlegen, dass die Leute gezwungen werden, Strom aus teuren Quellen zu kaufen, stellt sich die AWEA selbst ein Bein, wenn man deren betrügerische ökonomischen Behauptungen betrachtet. Außerdem sorgt die AWEA dafür, dass staatliche Gesetzgeber in Zukunft noch sehr viel zurückhaltender hinsichtlich irgendwelcher Behauptungen der AWEA sein werden, die sie in Zukunft noch aufstellen könnte.

Link: http://news.heartland.org/newspaper-article/2014/04/12/wind-industry-study-shows-electricity-prices-skyrocketing-wind-power-st

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers:  Dieser Text bezieht sich natürlich nur auf die Bundesstaaten der USA. Ich bin aber ziemlich sicher, dass man das alles auch auf die Länder in Europa oder international übertragen kann.

C. F.




Die kommende Verschiebung des Klima-Paradigmas

Solche Kipp-Punkte gibt es in der Wissenschaft ziemlich oft. Ich habe persönlich zwei solche Paradigma-Verschiebungen miterlebt, bei denen sich die wissenschaftliche Meinung weltweit rapide geändert hat – fast über Nacht. Eine davon erfolgte in der Kosmologie, als die „Steady State“-Theorie bzgl. des Universums durch die „Big Bang“-Theorie ersetzt wurde. Diese Verschiebung wurde durch die Entdeckung der „Mikrowellen-Hintergrund“-Strahlung gestützt. Hierfür hat es bereits Nobelpreise gegeben, und wahrscheinlich werden noch weitere folgen.

Die andere wesentliche Verschiebung [Neuorientierung?] betraf die Theorie der Kontinentalverschiebung. Nachdem diese vom wissenschaftlichen Establishment in Bausch und Bogen verdammt worden war, wurde die Hypothese von Alfred Wegener durch die Entdeckung der „Meeresgrund-Ausdehnung“ dramatisch bestätigt. Wegener hatte seine Hypothese aufgrund der Küstenlinien von Afrika und Südamerika beiderseits des Atlantiks aufgestellt.

Diese Verschiebungen waren möglich, weil dahinter keine kommerziellen oder finanziellen Interessen standen. Diese haben also auch nicht Öffentlichkeit und Politiker beeinflusst. Aber beim Klima ist es etwas ganz Anderes: Die finanziellen Belange sind gewaltig – Billionen von Dollars stark. Und sie beeinflussen die Politik und tatsächlich das ökonomische Wohlergehen jedes einzelnen Bewohners in den entwickelten und den Entwicklungsländern. Beispielsweise hat die Konversion eines großen Teils der Maisernte in den USA zu Äthanol die Preise für Tortillas in Mexiko steigen lassen, was zu Nahrungsmittel-Unruhen führte.

Trotzdem glaube ich, dass die Zeit reif ist für einen Paradigmenwechsel bzgl. Klima. Zum einen hat es seit etwa 15 Jahren überhaupt keine Erwärmung mehr gegeben – trotz des steigenden Gehalts der Atmosphäre an Treibhausgasen. Die Klimamodelle haben hierfür bislang keinerlei Erklärung geliefert. Diese Disparität wirft natürlich große Schatten auf jede zukünftige Erwärmung, die aus diesen gleichen Modellen abgeleitet worden ist, und folglich auch auf die Politik – im Prinzip die Politik zur Abschwächung und Kontrolle von Kohlendioxid infolge des Verbrennens fossiler Treibstoffe.

Nächstes Jahr in Paris werden die UN versuchen, die grundlegenden Prinzipien des Kyoto-Protokolls (1997 bis 2012) wiederzubeleben – einem internationalen Vertrag, die teilnehmende Nationen verpflichtet, ihre CO2-Emissionen zu verringern. Sie könnten Erfolg haben – es sei denn, das gegenwärtige Paradigma ändert sich.

Schon jetzt kann man beobachten, wie der Druck gegen einen solchen Vertrag immer stärker wird. Die großen Koryphäen der internationalen Klimawissenschaft erzeugen aktiv immer neue Klimaängste [tatkräftig unterstützt durch die Main Stream Medien in D, angeführt von der ‚Süddeutschen Zeitung‘. A. d. Übers.]. Die Royal Society [in UK] und die US National Academy of Science haben gemeinsam einen grundlegenden Bericht veröffentlicht. Dieser enthält keine neue Wissenschaft, sehr wohl aber den Ruf der „Notwendigkeit von Maßnahmen“. Die AAAS (American Association for the Advancement of Science), die größte wissenschaftliche Organisation in den USA, befürwortet die gleiche Politik, jedoch ohne den Nimbus der Wissenschaftlichkeit in ihrem verlogenen Pamphlet. Selbst das einst angesehene Magazin Scientific American ist auf diesen Zug aufgesprungen und treibt aktiv diese Politik voran.

Alle diese Establishment-Gruppen, so scheint es, schauen sehr aufmerksam nach finanziellen Zuwendungen seitens der Regierung – nicht nur für die Forschung, sondern auch für die Maßnahmen, die mit dieser Politik einhergehen. Sie alle akzeptieren die Klimawissenschaft so, wie sie in den drei Bänden des 5. Zustandsberichtes des IPCC beschrieben ist. Der erste Band, in dem es um physikalische Wissenschaft geht, wurde im September 2013 veröffentlicht, die Bände 2 und 3, in denen es um Auswirkungen und Abschwächung geht, folgten im März und April 2014.

Doch jetzt haben wir in Gestalt des NIPCC als Gegenpart zum IPCC zum ersten Mal eine unabhängige Stimme, eine zweite Meinung, wenn man so will – was vom IAC (InterAcademy Council on Science) sehr begrüßt wurde. Inzwischen haben wir viele Studien veröffentlicht, die das IPCC [und die Main Stream Medien in D] zu ignorieren geruht haben, soweit es die Schlussfolgerungen zur anthropogenen globalen Erwärmung betrifft. Die NIPCC-Berichte wurden ebenfalls im September 2013 (physikalische Wissenschaft) sowie im März und April 2014 (biologische bzw. gesellschaftliche Auswirkungen) veröffentlicht.

Das NIPCC, vor allem seine Summary for Policymakers (SPM) von Band 1 schaut kritisch auf die Beweise, die das IPCC zur Stützung seiner Behauptung von AGW präsentiert. NIPCC merkt an, dass sich die Beweislage mit der Zeit ändert. Im ersten IPCC-Bericht (1990) wurde eine unwahrscheinliche statistische Methode angewendet um zu zeigen, dass die Erwärmung in der ersten Hälfte des 20. Jahrhunderts aufgrund menschlicher Treibhausgase erfolgt war; das glaubt kein Mensch mehr.

Der zweite Zustandsbericht 1996, der zu dem infamen Kyoto-Protokoll 1997 führte, fabrizierte den so genannten „Hot Spot“, ein Gebiet mit verstärktem Erwärmungstrend und dessen Maximum in der tropischen Troposphäre. Dieser Beweis ist ebenfalls verschwunden: eine detaillierte Analyse (veröffentlicht in Nature 1996) zeigte, dass dieser Hot Spot nicht einmal existiert. Außerdem ist die Hypothese, dass dieser einen „Fingerabdruck“ für AGW darstellt, falsch.

Als Folge dieser beiden gescheiterten Versuche, irgendeine Art Beweis für AGW zu etablieren, wurde im 3. IPCC-Bericht (2001) der so genannte „Hockeyschläger“ lanciert, dem zufolge nur das 20. Jahrhundert mit einer ungewöhnlichen Erwärmung im Vergleich der letzten 1000 Jahre aufwartete. Allerdings zeigten weitere Untersuchungen, dass der Hockeyschläger ebenfalls fabriziert worden war – basierte er doch auf falschen Daten, falschen statistischen Methoden und unangemessenen Kalibrierungs-Methoden. Selbst zufällige Randwertdaten, die man in diesen Algorithmus fütterte, erzeugten in jedem Falle einen Hockeyschläger.

Im jüngsten IPCC-Bericht 2013 hat das IPCC alle zuvor angeführten Beweisstücke fallen gelassen. Stattdessen konzentrierte es sich auf den Versuch zu beweisen, dass die gemessene Erwärmung zwischen 1978 und 2000 mit der von den Klimamodellen vorhergesagten Erwärmung übereinstimmt. Dieser so genannte Beweis entpuppte sich aber bald auf sehr tönernen Füßen stehend. Die gemessene Erwärmung war nur an Wetterstationen auf dem Festland aufgetreten und zeigt sich in keinem einzigen anderen Datensatz; die Wettersatelliten, die die atmosphärischen Temperaturen mittels Fernerkundung messen, zeigen überhaupt keinen signifikanten Trend – gleiches gilt für Proxy-Daten.

Daher last sich gut belegen, dass es im 20. Jahrhundert überhaupt keine wahrnehmbare, vom Menschen verursachte Erwärmung gegeben hatte – und dass die Erwärmungseffekte des steigenden Treibhausgas-Gehaltes der Atmosphäre ziemlich unbedeutend waren. Siehe auch hier.

Aber was ist mit den globalen Temperaturen in der Zukunft? Die Meinungen gehen weit auseinander – und reichen von einer weiteren „Kleinen Eiszeit“ (meiner Ansicht nach eine Kalamität) bis zu einem Wiedereinsetzen der Erwärmung (mit Unterstützung durch die „fehlende Wärme“, von der sich einige Alarmisten sicher sind, dass sie sich irgendwo versteckt). Ich persönlich sage nichts vorher, da ich einfach zu wenig über das Innere der Sonne weiß; ich versuche einfach nur, das Klima der Vergangenheit zu verstehen und zu erklären. Falls man mir aber die Pistole auf die Brust hält, würde ich die historischen Zyklen heranziehen wie den beobachteten Zyklus über 1000 bis 1500 Jahre; dieser zeigt eine moderate Erwärmung während der nächsten Jahrhunderte, vielleicht mit Vorwärts- und Rückwärtsschritten – anders als die Computermodelle, die einen stetigen Temperaturanstieg aus einem stetigen CO2-Anstieg ableiten.

Werden die Nationen überhaupt irgendwelche Verträge von der Konferenz in Paris 2015 akzeptieren? Bislang scheint man nur in Westeuropa bereit zu einer Ratifizierung zu sein – und selbst dort wachsen die Zweifel. In Osteuropa ist man definitiv gegen irgendein neues Protokoll, ebenso wie in Japan, Australien und Kanada. Und was ist mit den Chinesen, den größten Emittenten von CO2 weltweit? Sie bekommen einen Wettbewerbs-Vorteil, falls dessen kommerzielle Konkurrenten die Restriktionen des Vertragens akzeptieren, die ihre Energiekosten in die Höhe treiben.

Die USA könnten in einem Übergangsstadium stecken – und genau hier könnte eine Veränderung des Paradigmas wirklich global einen Unterschied ausmachen. Der jüngsten Gallup-Umfrage zufolge rangiert die globale Erwärmung fast am Ende von zwanzig Themen, bei denen es hauptsächlich um wirtschaftliche Dinge geht. Das Weiße Haus scheint jedoch nach wie vor verrückt zu sein bzgl. des Klimaalarmismus‘. Präsident Obama plant neue Klima-Initiativen auf der Grundlage der Beratung seitens seines Wissenschaftlichen Beraters John Holdren, ein Jünger der ersten Stunde der „Bevölkerungsbombe“ von Paul Ehrlich. John Podesta ist als Berater und spezieller Assistent des Präsidenten ins Boot geholt worden, um Klima-Initiativen voranzutreiben. Und natürlich stimmt die übrige Administration mit dem Weißen Haus überein.

Außenminister John Kerry betrachtet AGW als die größte Bedrohung für die Sicherheit der USA – obwohl seine Agenda überfüllt ist mit außenpolitischen Problemen: Die Atomverhandlungen mit Iran, der Bürgerkrieg in Syrien, eine sich entwickelnde sunnitische Tyrannei in Irak, die Friedensverhandlungen zwischen Arabien und Israel und die russische Annexion der Krim. Dies ist natürlich der gleiche John Kerry, der als US-Senator im Jahre 1997 für eine Byrd-Hagel-Resolution gegen die Vorschriften eines Kyoto-Protokolls gestimmt hat.

Mitte 2014 wird der Supreme Court der USA (SCOTUS) seine Ansicht zu den fehlgeleiteten und unwissenschaftlichen Bemühungen der EPA bekannt geben, den Gebrauch von Kohle zur Energieerzeugung zu begrenzen oder gar aufzugeben. Falls SCOTUS auf die NIPCC-Ergebnisse aufmerksam wird, wird man sich sicher gegen die EPA und damit das Weiße Haus aussprechen. Ein solcher Vorgang könnte der Auslöser einer umwälzenden Paradigma-Verschiebung in der US-Energie- und Klimapolitik sein. Die Wahlen im November 2014 könnten die Balance kippen und den Mythos der Globalen Erwärmung schließlich töten – in den USA und in der ganzen Welt.

Kurfassung der NIPCC-Ergebnisse, basierend auf tausenden begutachteten Studien, stehen in scharfem Gegensatz zu den alarmistischen IPCC-Vorhersagen:

● Die Klimadaten sagen uns, dass der menschliche Einfluss auf das Klima der Erde sehr klein ist und dass jedwede Erwärmung aufgrund von Treibhausgasen so gering ist, dass sie von der natürlichen Variabilität nicht zu unterscheiden ist.

● Die Gesamtauswirkungen moderat steigender Temperaturen und eines höheren CO2-Niveaus auf Pflanzen, Tiere, Natur und menschliches Wohlergehen waren bislang positiv und werden höchstwahrscheinlich auch in Zukunft positiv sein.

● Die Kosten für Versuche, die Klimaänderung durch Emissionsreduktion abzuschwächen, sind drastisch höher als die daraus resultierenden Vorteile. Die jährlichen Kosten pro Haushalt in den USA würden auf 3900 Dollar steigen; außerdem würden Millionen Arbeitsplätze zerstört.

● Im Lichte neuer wissenschaftlicher Erkenntnisse und der ökonomischen Auswirkungen der Klimaänderung müssen die tausende Gesetze, die auf dem Höhepunkt  des globalen Erwärmungs-Alarms erlassen worden waren, neu überdacht, modifiziert oder einfach abgeschafft werden.

Link: http://www.americanthinker.com/2014/03/the_coming_paradigm_shift_on_climate_.html

Übersetzt von Chris Frey EIKE

<xml></xml>




Klimakontrolle: Gehirnwäsche in Schulen

Executive summary

Wir haben in Lehrmaterialien Beispiele für schwere Fehler, irreführende Behauptungen und Verzerrungen gefunden durch unangebrachte Behandlung von Themen im Bereich Klima. Unter diesen Lehrmitteln sind u. A. viele verbreitet genutzte Lehrbücher, Lehrer unterstützende Quellen und Schülerprojekte.

Wir fanden Beispiele von zügellosem Öko-Aktivismus in Schulen, und die Schulen ermuntern ihre Schüler, an diesen Veranstaltungen teilzunehmen. In jedem einzelnen Fall liegt der Blickwinkel auf Angsterzeugung, auf steigenden Ängsten, gefolgt von der detaillierten Anleitung, wie Schüler leben sollten, ebenso wie Anleitungen dafür, was sie denken sollen. In einigen Beispielen fanden wir die Aufforderung, ‚kleine politische Aktivisten‘ in den Schulen zu ernennen, indem man ihnen die Last der Verantwortung auf Aktionen ihrerseits aufbürdet, ihren Teil zur ‚Rettung des Planeten‘ beizutragen, nicht zuletzt auch, indem sie Druck auf ihre Eltern ausüben.

Die nationalen Bildungsinhalte wurden vor Kurzem von der Regierung einer Überprüfung unterzogen, aber die vorgeschlagenen Änderungen scheinen völlig ungeeignet, derartige Praktiken zu unterbinden. Umfragen zeigen, dass viele Kinder verärgert oder ängstlich sind durch das, was man ihnen bzgl. des Klimas erzählt hat.

Lehrer und Administratoren haben ziemlich freie Hand, Lehrbücher auszusuchen. Andere Materialien, externe Besucher für Vorträge und Schülerreisen werden aber nur genehmigt, wenn deren Zwecke mit den gewollten Zielen übereinstimmen. Dies lässt das Risiko steigen, dass Einige alarmierende und politisch einseitige Quellen heranziehen, um die Kinder für ‚die Causa Umwelt‘ zu gewinnen. Diese ‚Causa‘ wird oftmals als ‚Nachhaltigkeit‘ präsentiert, ein kaum definiertes Schlagwort für persönliche und politische Aktionen, an denen nur selten fundamentale Kritik geübt wird. Viele Kampagnen-NGOs und andere Organisationen mit eigennützigen Interessen wie Energieunternehmen bieten Lehrmaterialien und andere Ressourcen für die Verwendung in Schulen an. Einige davon werden vermutlich auch genutzt.

Es gibt eindeutigen Anlass für ernste Sorgen. Wir appellieren daher an das staatliche Bildungsministerium sowie dessen Ableger in Schottland, Wales und Nordirland, dringend Untersuchungen hinsichtlich der Bildung bzgl. der Klimaänderung durchzuführen. Nur eine systematische Evaluierung dessen, was da vor sich geht, kann das vorhandene Ausmaß an Indoktrination zeigen, ebenso wie die emotionalen und erzieherischen Schäden an Schülern, die sich unzweifelhaft daraus ergeben.

Schlussfolgerungen

Es gibt kaum einen Zweifel daran, dass die Versorgung mit einer ausgereiften Bildung jetzt durch eine hoch politisierte Gehirnwäsche sich entwickelnder Gehirne zum Thema Klima ersetzt worden ist; und Energie-Ängste werden als Motivation und ‚nachhaltige Entwicklung‘ als die Lösung angepriesen. Vorbei sind die Tage, an denen das Bildungssystem hoffte, junge Leute mit einer eigenen Meinung heranzuziehen, mit Kenntnissen komplexer wissenschaftlicher, soziologischer und politischer Themen. Stattdessen trachtet das Bildungssystem jetzt gestützt durch eine grüne politische Bewegung danach, Uniformität mit der Umwelt-Orthodoxie herzustellen, wobei jede In-Frage-Stellung eindringlicher Sicherheiten als Vergehen betrachtet wird, das man entweder ignorieren oder bestrafen sollte.

Der Ernst der Lage, die wir gefunden haben, kann kaum überschätzt werden. Es ist eine Tatsache, dass die Fähigkeit der Kinder, ihre Examen zu bestehen – und damit ihre zukünftigen Lebensperspektiven – davon abzuhängen scheint, wie sehr sie ihre Klimaänderungs-Orthodoxie beherrschen. Das weckt schmerzhafte Erinnerungen an das Leben in Osteuropa zur Zeit des Kalten Krieges oder an Maos China. Politiker scheinen diesen Prozess abgenickt zu haben, wobei sie den größten Teil des diesbezüglichen Lehrplanes in die Hände grüner Aktivisten gelegt haben. Die Frage, ob das, was in den Klassenzimmern gelehrt wird, wissenschaftlich oder politisch, ausgewogen oder verzerrt, wahr oder falsch ist, scheint ungeprüft durchzugehen.

Die gesetzliche Vorgabe zum Bildungsgesetz des Jahres 1996 hat eindeutig zum Ziel, die Kinder vor parteiischer politischer Indoktrination zu schützen. Sie wurde erfolgreich angewandt, um ein  Gerichtsverfahren zu gewinnen, in dem die Propaganda in dem Film ‚Eine unbequeme Wahrheit‘ angeprangert worden ist. Aber die fast einstimmige Position, die alle großen politischen Parteien übernommen haben, deckt die Verbreitung der in diesem Bericht angesprochenen Dinge ab. Allerdings könnte sich die politische Szene jetzt ändern, und zwar in der Hinsicht, dass eine erneute Überprüfung des Ausmaßes erfolgt, bis zu dem relevante Abschnitte dieses Gesetzes verletzt werden.

Eltern von Schulkindern und andere besorgte Personen müssen angesichts dieser Probleme nicht hilflos sein. Das Buch ‚Facts, not Fears‘ der amerikanischen AutorInnen Michael Sanera und Jane S. Shaw enthält viele Beispiele, mit welchen Mitteln man Kinder hinsichtlich der Umwelt aufklären sollte, und es enthält auch viele Vorschläge, wie man etwas gegen die Indoktrination tun kann. Ihre Schlüsselbotschaft lautet, dass derartige Materialien ‚nur eine Seite einer oftmals komplizierten Materie‘ beleuchten, und dass Eltern den Lehrplan der Schulen kritisch hinterfragen sollten, und zwar mit so allgemeinen Fragen wie ‚Gibt es eine allgegenwärtige Verzerrung hinsichtlich wirtschaftlichen Wachstums und moderner Technologie?‘ oder ‚Ist die Präsentation von Umweltproblemen ganz allgemein düster und pessimistisch?‘

Die AutorInnen schlagen eine Überprüfung der Lehrbücher vor sowie der verwendeten begleitenden Materialien einschließlich der Beiträge externer Dozenten. Sie raten den Eltern dringend, mit den Lehrern ihrer Kinder zu sprechen und die Sorgen zu diesem Thema in freundlichem, sachlichem Ton vorzubringen. Die Eltern sollten auch in der Lage sein, Sprecher für Schulbesuche zu engagieren oder solche Beiträge selbst zu leisten, falls sie hinsichtlich der relevanten Themen bewandert sind. Sie können auch nach neuen Büchern für die Schulbibliothek verlangen, um mehr Ausgewogenheit zu erreichen und mit anderen Eltern zusammenarbeiten, um die Bedenken dem Schulrektorat und anderen verantwortlichen Behörden vorzutragen. Sie schließen mit der Aufforderung an die Eltern, zusammen mit ihren Kindern Umweltthemen zu erforschen und vor allem den Unterton von Katastrophe und Untergang aus den offiziellen Texten zu entfernen.

In einer weiter gefassten Perspektive besteht das Risiko, ein Schlüsselelement einer gesunden Gesellschaft in unserem wissenschaftlichen und technologischen Zeitalter zu schwächen: Die Fähigkeit der Bürger, sich eine eigene Meinung zu technischen Dingen zu bilden oder zu Dingen wie beispielsweise der Klimaänderung. Teil des Prozesses, uns die alarmistische Sicht des Klimas einzuimpfen ist der Umstand, dass immer wieder auf die Autoritäten hingewiesen wird mit der Implikation, dass der ‚einfache Bürger‘ einfach den Experten vertrauen muss. Aaron Wildavsky hat gezeigt, dass Studenten aus nicht-wissenschaftlichen Fachbereichen wie Soziologie, Politik und Philosophie erfolgreich Literatur zu umstrittenen Themen der Wissenschaft studieren und sich grundlegende Meinungen zu verschiedenen kontrovers diskutierten Dingen bilden können wie DDT, Verschwendung und globale Erwärmung. Es ist interessant, dass die Studenten ausgeprägte Schwächen in allen Fällen fanden, die Anlass zu Alarm geben, und sie rufen nachhaltig ‚Nein!‘ auf die Frage, die Wildavsky zum Titel seines Buches gemacht hat: ‚But Is It True?‘. Es gibt mit Sicherheit Teile in diesem Buch, die man in Schulen und vor einer erweiterten Gemeinschaft vortragen sollte, und zwar unter Mithilfe von Spezialisten auf dem jeweiligen Gebiet, die willens sind, sich mit umfangreichen Untersuchungen zu engagieren. Einen Kotau vor Organisationen wie dem WWF hinzulegen ist nicht der richtige Weg vorwärts. Derartige Organisationen verdienen es, herausgefordert zu werden. Die wehleidige, von Fehlern strotzende Geschichte des Umwelt-Alarmismus‘ zeigt das eindeutig. Aber passiert das auch in unseren Schulen? Wir fürchten nicht.

Wir glauben, dass dringend weitere Evaluationen dessen erforderlich sind, was an unseren Schulen vorgeht, vor allem unter dem Banner ‚Nachhaltigkeit‘ und im Besonderen ‚Klimaänderung‘. Die Lehrerschaft und die Schulbehörden stehen hier in der Pflicht sicherzustellen, dass die Ziele des Bildungsgesetzes respektiert werden durch Vermeidung jeder politischen Indoktrination in den Schulen, und Eltern haben ein berechtigtes Interesse daran zu erfahren, was man mit ihren Kindern hinsichtlich umfangreicher und potentiell sehr verstörender Themen macht. Die bruchstückhaften Informationen und Beispiele, die wir in diesem Bericht genannt haben, geben hinreichend Anlass zu der Sorge, dass unsere Kinder Gefahr laufen, das Ziel von Zeloten und ihren Kampagnen zu werden. Außerdem besteht die Gefahr, dass man sie ängstigt durch persönliche und politische Aktionen. Zusätzlich besteht auch die Gefahr, dass man ihnen eine angemessene Bildung für das 21. Jahrhundert vorenthält – eine Bildung, die sie in die Lage versetzt, alle Behauptungen zu hinterfragen und zu evaluieren, nicht zuletzt die Behauptungen der Angst erzeugenden Zeloten.

Nur eine systematische Evaluierung kann wirklich das Ausmaß der Indoktrination zeigen, ebenso wie emotionale und erzieherische Schäden, die unweigerlich aus dieser Indoktrination resultieren. Wir appellieren daher an den Bildungsminister und seine Kollegen in Schottland, Wales und Nordirland, diese dringend notwendigen Untersuchungen durchzuführen und zu ergründen, wie die Bildung hinsichtlich der Klimaänderung an unseren Schulen aussieht. [Ob sie das wirklich machen? A. d. Übers.]

Link zum gesamten Bericht: http://www.thegwpf.org/content/uploads/2014/04/Education-reducedportrait-5.pdf

Übersetzt und bearbeitet von Chris Frey EIKE

Schlussbemerkung des Übersetzers: Gab es das alles nicht schon mal, auch und gerade in Deutschland? Zum Beispiel in der 1. Hälfte des vorigen Jahrhunderts?




VII. EIKE-Konferenz in Mannheim: Nüchterne Bestandsaufnahme statt Angstmache

Auf der Mannheimer Tagung stand der Einfluss der kosmischen Strahlung und der Sonne auf das irdische Klima im Mittelpunkt. Dieser Einfluss wird offenbar auch im neuesten IPCC-Bericht weit unterschätzt. Die Astrophysiker Prof. Nir Shaviv (Jerusalem) und Prof. Henrik Svensmark (Kopenhagen) wiesen auf die Parallelität zwischen astronomischen beziehungsweise solaren Zyklen und der Durchschnittstemperatur der Erde hin. Die von Svensmark schon in den 1990er Jahren aufgestellte Hypothese, wonach eine Abschwächung des solaren Magnetfeldes mehr kosmische Partikel in die Erdatmosphäre eintreten lässt und diese wiederum die Wolkenbildung begünstigen, konnte inzwischen am europäischen Kernforschungszentrum CERN in Genf experimentell untermauert werden.

Der Geologe Sebastian Lüning, Co-Autor des Bestsellers „Die kalte Sonne“, wies darauf hin, dass der Einfluss der Sonne im gerade vorgestellten 5. IPCC-Bericht gegenüber den vorherigen Berichten sogar noch weiter herabgestuft worden ist. Das aber widerspreche auf skandalöse Weise den von Geologen gesammelten Fakten über die Entwicklung der Erde und ihrer Klimate. Man müsse davon ausgehen, dass die winzigen Schwankungen der Sonnenhelligkeit, die der IPCC allein in Betracht zieht, durch atmosphärische und ozeanische Prozesse verstärkt werden. Einer dieser Mechanismen ist höchstwahrscheinlich die von Svensmark postulierte Verstärkung der Wolkenbildung durch kosmische Partikel. (Wir haben mehrfach darüber berichtet.) Ein anderer Verstärkungsmechanismus ist die so genannte Pazifisch-Dekadische Oszillation (PDO), deren Rhythmus sich direkt in der Temperaturkurve der Erde widerspiegelt. Wie beides zusammenhängt, ist aber noch unbekannt.

Lüning verwies in diesem Zusammenhang vor allem auf die so genannten Bond-Zyklen benannt nach dem 2005 verstorbenen US-Geologen Gerard C. Bond), die rund um den Globus in ozeanischen Sedimenten feststellbar sind. Diese in Jahrtausende alten Ablagerungen sichtbaren Streifenmuster sind die Folge von Schwankungen des Meeresspiegels. Daraus geht hervor, dass diese Schwankungen dem Rhythmus der solaren Strahlungsintensität folgten. Außer in ozeanischen Sedimenten können Bond-Zyklen auch an den Stalagmiten von Tropfsteinhöhlen beobachtet werden, die von den Heidelberger Geologen Mangini und Neff untersucht wurden. Kurzlfristig folgen die Sonnenhelligkeit, die UV-Strahlung, die Stärke des solaren Magnetfeldes, die Radiowellen und die Erdtemperatur dem 11-jährigen Schwabe- und dem 22-jährigen Hale-Zyklus. Mittelfristig sind der 87-jährige Gleissberg- und der 210-jährige Suess/de Vries-Zyklus ausschlaggebend. Längerfristig folgt die Erdtemperatur dem etwa 1000-jährigen Eddy- und den etwa 2000-jährigen Hallstatt-Zyklus der Sonnenaktivität. Daraus lässt sich ableiten, dass die nunmehr seit 17 Jahren beobachtbare Stagnation der Durchschnittstemperatur über den Landmassen der Erde in den kommenden Jahrzehnten von einer spürbaren Abkühlung abgelöst werden wird. Das ist, wie auch Lüning betonte, durchaus keine gute Nachricht!

Es war nicht zu erwarten, dass auf dem Mannheimer Kongress, angesichts des Erfolges seiner sechs Vorgänger, lauter Neuigkeiten verkündet werden würden. Von daher war es umso interessanter, dass es den Veranstaltern erstmals gelang, den international führenden Klimaforscher Professor Richard Lindzen vom renommierten Massachusetts Institut of Technology (MIT) als Referenten zu gewinnen. Lindzen unterscheidet sich von vielen „Klima-Skeptikern“ dadurch, dass er die Existenz des so genannten atmosphärischen Treibhauseffekts und die Rolle des „Treibhausgases“ CO2, mit denen die alarmierenden Modellrechnungen der IPCC-Berichte begründet werden, nicht grundsätzlich in Frage stellt. Im Unterschied zu den hinter den IPCC-Berichten stehenden Wissenschaftlern stützt sich Lindzen jedoch nicht in erster Linie auf Computermodelle, sondern auf Satelliten-Messungen. Er wirft den Klima-Modellierern vor, nicht wirklich auf Erkenntnisgewinn aus zu sein, sondern nur die Möglichkeit von Katastrophen demonstrieren zu wollen – mit dem alleinigen Ziel, den Menschen Angst einzujagen. In Wirklichkeit liefere die Klimaforschung keine Rechtfertigung für die Panikmache, denn eine Verdoppelung des CO2-Gehalts der Atmosphäre könne allenfalls zu einem Temperaturanstieg von einem Grad Celsius führen und nicht von bis zu 4,5 Grad, wie der IPCC schätzt. Der Grund dafür seien negative Rückkopplungen in der Atmosphäre (zum Beispiel durch die verstärkte Bildung hoch fliegender Cirrus-Wolken, die die Erde gegenüber der Infrarotstrahlung der Sonne abschirmen, bei höheren Lufttemperaturen). Es besteht also kein Grund, Kohlenstoffdioxid und Kohlekraftwerke zu verteufeln, wie das jetzt anlässlich der Vorstellung des 5. IPCC-Berichts grüne Berufspolitiker aller Parteien wieder eifrig taten.

Die deutsche „Energiewende“ wird begründet mit heidnischen Ängsten, die den Deutschen durch Jahrzehnte währende grüne Gehirnwäsche eingetrichtert wurden: die Angst vor der Erschöpfung der Rohstoffe, die Angst vor der Klimakatastrophe und die Angst vor Radioaktivität. Nur diese inzwischen bei den Deutschen ganz tief sitzenden Ängsten erklären, warum es so wenigen auffällt, dass der gleichzeitige Ausstieg aus der Atomenergie und der Kohleverstromung dem wirtschaftlichen Selbstmord Deutschland gleichkommt. Prof. Dr. Ing. Dieter Ameling, der ehemalige Präsident der früher mächtigen Industrievereinigung Stahl, zeigte das am Beispiel seiner Branche auf. Deren Geschäft besteht nun einmal darin, dem Eisenerz den Sauerstoff zu entreißen und diesen mit Kohle beziehungsweise Koks zu Kohlenstoffdioxid zu verbinden. Würde die Stahlindustrie die von der Politik vorgegebene Drosselung des CO2-Ausstoßes um 80 Prozent bis zum Jahr 2050 und gar um 100 Prozent bis zum Ende des Jahrhunderts umsetzen, müsste sie schlicht dichtmachen. Doch daran hängen in Deutschland (einschließlich der stahlintensiven Industrien) etwa dreieinhalb Millionen Arbeitsplätze.

Deutschland leistet sich mit der massiven Subventionierung so genannter erneuerbarer Energien über garantierte Einspeisetarife nach dem Erneuerbare Energien Gesetz (EEG) den Luxus einer doppelten Stromversorgung, von der der größere Teil nicht zuverlässig zur Verfügung steht.  Schon jetzt hat Deutschland die mit Abstand höchsten Industriestrompreise der Welt. (Nur in Tschechien und Bulgarien sind sie noch etwas höher). Die Industrie ist deshalb längst dabei, sich schleichend von Deutschland zu verabschieden. Bei Schlüsselindustrien wie Stahl und Chemie liegen die Inlandsinvestitionen bereits unter den Abschreibungen. Setzt der deutsche Wohlfahrtsstaat seine energiepolitische Geisterfahrt fort, entzieht er sich seine eigenen wirtschaftliche Grundlage.

 

Schadenfreude ist nicht die Sache von EIKE. Deshalb haben drei seiner Mitglieder, allesamt erfahrene Ingenieure, zu Beginn dieses Jahres ein „Energiepolitisches Manifest“ vorgelegt, das aufzeigt, wie jetzt noch das Schlimmste verhindert werden kann. Wir haben dieses Manifest an dieser Stelle ausführlich besprochen. Dipl. Ing. Michael Limburg, Vizepräsident von EIKE und einer der Verfasser des Manifests, stellte in Mannheim dessen wichtigste Punkte vor. Um die Kostenlawine der „Energiewende“ halbwegs in den griff zu bekommen, gehe an der ersatzlosen Streichung des EEG kein Weg vorbei, betonte Limburg. Bundeswirtschaftsminister Sigmar Gabriel ist es zwar gelungen, gegenüber der EU-Kommission die teilweise Befreiung energieintensiver Betriebe von der EEG-Umlage zu verteidigen, er konnte sich mit seinem „EEG 2.0“ aber leider nicht gegen die massive Lobby der Profiteure der „Erneuerbaren“ durchsetzen. So steigt die Gefahr eines Netzzusammenbruchs infolge der Überproduktion von Ökostrom.




Klimavorhersagen für das 21. Jahrhundert

Im Beitrag der Arbeitsgruppe 1 [WG 1] sagt das IPCC höchstselbst (Abschnitt 9.7.3.3):

„Die zu Rate gezogene Literatur zeigt, dass die Bandbreite der Klimasensitivitäten und der kurzlebigen Reaktionen, abgedeckt durch das CMIP3/5-Modell nicht signifikant eingegrenzt werden kann, indem man die Modelle mit Beobachtungen des mittleren Klimas und der Variabilität belegt. Dies geht einher mit der Schwierigkeit, die Wolken-Rückkopplungen aus den Beobachtungen zu belegen“.

Einfacher gesagt, dies bedeutet, dass die IPCC-Autoren keine Ahnung hinsichtlich der Klimasensitivität haben, dass es keine glaubwürdige Basis für die Berichte der Arbeitsgruppen 2 und 3 gibt und dass die politischen Entscheidungsträger der Regierungen keine empirische wissenschaftliche Grundlage für den UNFCCC-Prozess haben und auch nicht für ihre ökonomisch verheerende Klima- und Energiepolitik.

Unabhängig davon, während man im AR 5 die gleiche zukünftige Erwärmung wie im AR 4 aus dem Jahr 2007 vorhersagt, hebt man dort unverantwortlicherweise die Sicherheit der IPCC-Vorhersagen von 90 auf 95%, um den Eindruck größerer Sicherheit vorzuspiegeln nach 6 weiteren Jahren Arbeit mit neuen Daten.

Die Reaktion auf den AR 5 seitens der Establishment-Wissenschaftler in den USA und UK, die ihre wissenschaftlichen Laufbahnen und ihren Ruf in den Dienst der Befürwortung von CAGW gestellt haben, war absolut vorhersehbar.

Bezüglich der Wissenschaft gibt es inzwischen viele ad-hoc-Erklärungen für den Stillstand; siehe zum Beispiel hier bei WUWT. Der Versuch von Kevin Trenberth, die fehlende Wärme in den Ozeanen zu vergraben, ist dabei wahrscheinlich die bekannteste Variante. Allerdings ist dieser Schlupfwinkel effektiv durch die Analyse der ARGO-Daten widerlegt worden, die eine Reduktion der OHC-Anomalien [OHC = Ocean Heat Content] in den obersten 100 m  zwischen 1983 bis 2011 und 2004 bis 2011 zeigen. Siehe Tabelle 1 in
diesem Beitrag. Diese Tabelle zeigt auch signifikante, wenn auch geringere Reduktionen in Wassertiefen von 0 bis 300 bzw. 0 bis 700 m. Kurz gesagt, die Ozeane kühlen sich von oben ab, wie man es auf einem sich abkühlenden Planeten auch erwarten würde.

Es hat konzertierte Bemühungen seitens der politischen Propaganda in den Gesellschaften des Establishments gegeben, die Main Stream Medien MSM, die Öffentlichkeit sowie die Politiker über die Ergebnisse und Implikationen des AR5 in die Irre zu führen. Siehe beispielsweise hier. Dieses Dokument ist wissenschaftlich ein heilloses Durcheinander und degradiert die Wissenschaft ganz allgemein. Siehe hier.

Der jüngste Bericht der NAS/Royal Society ist ein weiteres Propagandastück, das der gleichen Linie folgt. Siehe hier.

Inzwischen versucht die Obama-Administration unter der Leitung von Holdren und Polesta, Gewalt über die US-Wirtschaft zu erlangen, und zwar via die EPA mit deren neuer Klimadaten-Initiative. Mehr dazu hier.

Die IPCC-Leitautoren haben bereits in ihrer SREX-Zusammenfassung für Politiker erkannt, dass zur Unterstützung des UNFCCC-Prozesses jede Diskussion über die Temperatur oder den Stillstand der Änderung derselben zu vermeiden ist und dass man versuchen muss, ihren politischen Geldgebern Angst erzeugende Schlagzeilen bzgl. Extremwetter zu liefern. Sie sagen:

„Die Unsicherheiten in den Signalen der projizierten Klimaextreme während der kommenden zwei bis drei Jahrzehnte sind ziemlich groß, weil erwartet wird, dass die Klimasignale relativ klein sind im Verglich zur natürlichen Klimavariabilität“.

Die Abkürzung SREX steht für Special Report on Extreme Events, und im genannten Bericht wurde die Aufmerksamkeit auf die Wahrscheinlichkeiten derartiger Ereignisse gelenkt.

Die Ausführungen der Arbeitsgruppe 2 [WG 2] in der Summary for Policymakers SPM zum AR 5 setzen die beklagenswerte Tradition fort, in der SPM etwas ganz Anderes zu schreiben als im AR 5 selbst, versucht doch die politische Alarmisten-Agenda, ängstigende Schlagzeilen für die Main Stream Medien und die Politiker zu verbreiten, um deren Energie- und Klimapolitik zu rechtfertigen. Für Einzelheiten hierzu siehe hier.

Das Problem mit der IPCC-Wissenschaft und der Vorhersage allgemein

Die IPCC-Prognostiker versuchen nach wie vor, die Öffentlichkeit zu ängstigen, um weiterhin ihre gescheiterten und überflüssigen Modellierungsversuche finanziert zu bekommen. Enttäuschenderweise übernehmen die meisten Klimarealisten die gleiche grundlegende Annäherung hierzu wie das IPCC, nur dass sie mit niedrigeren Werten der zukünftigen Klimaerwärmung und reduzierter Klimasensitivität kommen. Die realistischen Wissenschaftler selbst müssen die Tatsache akzeptieren, dass die Technik der Modellierung für die Vorhersage des Klimas inhärent nutzlos ist, weil Modelle mit einer so großen Anzahl von Variablen einfach nicht berechnet werden können, geschweige denn mit hinreichender Präzision und Genauigkeit. Siehe hier.

Das IPCC selbst war in dieser Hinsicht ziemlich offen, und in der Praxis wussten die Modellierer schon seit einiger Zeit, dass ihre Modelle nicht für Vorhersagen geeignet sind, und tatsächlich haben sie das in den Berichten der WG 1 auch so erklärt. Der Abschnitt Wissenschaft im AR 4 akzeptiert diese Tatsache schon. Im Abschnitt 8.6 im AR 4 geht es um Antriebe, Rückkopplungen und Klimasensitivität. Die Schlussfolgerungen finden sich in Abschnitt 8.6.4, in dem es um die Zuverlässigkeit der Projektionen geht. Dort heißt es:

„Außerdem ist noch nicht geklärt, welche Tests kritisch für die Projektionen der Zukunft sind. Konsequenterweise könnte man einen Satz von Modellrechnungen verwenden, um die Bandbreite der plausiblen Klimaänderungs-Rückkopplungen und der Klimasensitivität einzugrenzen. Ein solcher Satz muss noch entwickelt werden“.

Was könnte noch eindeutiger sein! 2007 hat das IPCC gesagt, dass es noch nicht einmal weiß, welche Berechnungen man in den Modellen anbringen muss, um ihre Zuverlässigkeit zu testen – d. h. wir wissen nicht, wie sich die Temperatur in Zukunft entwickelt, und wir können die Klimasensitivität hinsichtlich CO2 nicht berechnen. Dies enthält auch die nächste Frage, nämlich welche irrigen Hypothesen (z. B. dass CO2 der Haupt-Klimatreiber ist), in „plausible“ Modelle eingegangen sind, die auch noch getestet werden müssten. Dies bedeutet, dass die sukzessiven Schätzungen der Unsicherheit in der SPM nicht die strukturellen Unsicherheiten in den Modellen berücksichtigen und dass fast die gesamte Vielfalt der Modellergebnisse sehr gut außerhalb der Bandbreite der Klimavariabilität der realen Welt liegen könnte.

Der gesamte IPCC-Output … bietet keine Grundlage für ernsthafte Diskussionen, und die meisten anti-alarmistischen Blogger und fast alle MSM-Experten beziehen sich weiterhin auf die IPCC-Vorhersagen, als ob diese irgendeine Beziehung zur realen Welt hätten.

Die Lösung

Für die Vorhersage muss ein Verfahren verwendet werden, das nicht auf Modellierungen beruht. Vorhersagen des Timings und der Größenordnung einer möglichen kommenden Abkühlung basieren auf 60- und 1000-jährigen Quasi-Periodizitäten der Temperatur. Um diese zu ermitteln, verwendet man die Zählung von Neutronen und die 10Be-Aufzeichnungen als die besten Proxys der Sonnenaktivität. Dies wird in vielen Beiträgen hier beschrieben.

Während der letzten 18 Monate habe ich eine Analyse der grundlegenden Klimadaten offengelegt, ebenso wie Methoden, die bei der Klimavorhersage zur Anwendung kommen. Aus diesen habe ich eine einfache, rationale und transparente Vorhersage der wahrscheinlichen kommenden Abkühlung entwickelt. Für Details siehe die folgenden einschlägigen Artikel:

30.10.2012. Hurricane Sandy-Extreme Events and Global Cooling
18.11.2012  Global Cooling Climate and Weather Forecasting
22.1.2013    Global Cooling Timing and Amount
18.2.2013    Its the Sun Stupid – the Minor Significance of CO2
2. 4.2013    Global Cooling Methods and Testable Decadal Predictions.
14.5.2013    Climate Forecasting for Britain’s Seven Alarmist Scientists and for UK Politicians.
30.7.2013    Skillful (so far) Thirty year Climate Forecast- 3 year update and Latest Cooling Estimate.

9.10.2013    Commonsense Climate Science and Forecasting after AR5 and the Coming Cooling.

Konzentriert man sich auf die letzten 150 Jahre der Temperaturdaten, ist ziemlich offensichtlich, dass es eine 60-jährige Quasi-Periodizität gibt. Eine ausgeklügelte statistische Analyse kommt nicht zu wesentlich anderen Ergebnissen. Der zugrunde liegende Trend kann einfach der 1000-jährigen Quasi-Periodizität zugeordnet werden. Siehe die Abbildungen 3 und 4 in diesem Beitrag.

Die 1000-Jahres-Perioden sehen bei 10.000, 9000 8000 7000, 2000, 1000 und 0 Jahren ziemlich gut aus. Ich bin sicher, dass dies auf einer Wellenanalyse recht interessant aussehen würde, wobei die Spitzen von vor 7000 bis 3000 Jahren immer weiter zurückgehen.

Der gleiche Link liefert auch eine Schätzung des Timings und der Größenordnung der wahrscheinlich kommenden Abkühlung, wobei die jüngste Spitze als synchroner Spitzenwert sowohl des 60-jährigen als auch des 1000-jährigen Zyklus‘ als Unterstützung für die Vermutung einer kommenden Abkühlung verwendet wird, erscheint doch dies als beste Proxy der Sonnenaktivität, während es hinsichtlich der involvierten Prozesse agnostisch bleibt.

Ich vermute, dass das Problem für das akademische Establishment darin liegt, dass man eigentlich nur eine Handvoll Leute braucht mit Verständnis und dem erforderlichen Hintergrundwissen und der Erfahrung, die im Gegensatz stehen zur Armee der Computer-Modellierer, die den Vorhersageprozess bislang dominiert haben.

Es gab keine Erwärmung seit etwa 16 Jahren, und die Erde ist um das Jahr 2003 in einen Abkühlungstrend eingetreten, der weitere 20 Jahre und möglicherweise noch hunderte Jahre lang anhalten wird. Siehe hier.

Die gegenwärtigen Wetterlagen in UK und den USA sind gekennzeichnet durch einen mehr meridionalen Zirkulationstyp, wie er für eine sich abkühlende Erde typisch ist. Das Buch von Fagan „The Little Ice Age“ ist ein guter Führer von der Vergangenheit in die Zukunft. Die Häufigkeit dieser Wetterlagen z. B. in den USA, die mit der PDO zusammenhängende Dürre in Kalifornien und die Ausbrüche des Polarwirbels nach Süden werden bei fortschreitender Abkühlung zunehmen.

Die Ansichten der Establishment-Wissenschaftler in den USA und in UK, wie sie im AR 5 zum Ausdruck kommen, enthüllen ihre standhafte Weigerung, das totale Scheitern der Klimamodelle angesichts der Daten der letzten 16 Jahre zu erkennen und einzuräumen. Es ist überfällig, dass sich die Klimagemeinde in eine andere Richtung bewegt, die auf der wirklichen Verteilung der Temperatur und der Antriebe beruht. Und sie sollte auch die unterschiedlichen Häufigkeiten regionaler Wetterlagen betrachten, die gekennzeichnet sind durch einen mehr meridionalen Jet Stream bei Abkühlung und mehr zonalen Jet Stream bei Erwärmung.

Die gesamte Erwärmung seit der Kleinen Eiszeit kann leicht dem 1000-jährigen natürlichen Zyklus ohne jeden signifikanten CO2-Beitrag zugeordnet werden.

Der ganze UNFCCC-Reisezirkus hat keine empirische Basis für seine Aktivitäten und tatsächlich auch für seine Existenz, da es seine Vorhersagen ausschließlich auf die Grundlage inhärent nutzloser Klimamodelle stellt. Das Klima ist viel zu komplex, um modelliert zu werden, kann jedoch ziemlich leicht durch die einfache Kenntnis abgeschätzt werden, an welcher Stelle der natürlichen Quasi-Zyklen wir uns befinden.

Um der Prawda-artigen Propaganda einer katastrophalen globalen Erwärmung seitens des IPCC und der Main Stream Medien entgegenzutreten, müssen unabhängige empirische Wissenschaftler die Möglichkeit einer kommenden Abkühlung ansprechen ebenso wie andere Vorhersagemethoden in den sozialen Medien, der Blogosphäre, in ‚Briefen an die Herausgeber‘ und vor allem in Briefen und E-Mails an Politiker.

Weil nachgeordnete Behörden in UK und in den USA [dort die EPA] aus politischen Gründen zu faul oder nicht willens sind, eigene Abschätzungen vorzunehmen, sondern bloß die Parteilinie des IPCC nachplappern, wäre der nächste logische Schritt, den Gesetzgeber auf allen Ebenen zu drängen, auf IPCC-unabhängige Quellen zur Abschätzung zukünftiger Klimatrends zurückzugreifen, die auf multiplen Arbeitshypothesen beruhen. Dann sollten auch alternative Szenarien wie eine Abkühlung um 1 bis 2 Grad ins Gespräch kommen.

Der CAGW-Kaiser hat keine Kleider an, und der Winter könnte schon unterwegs sein. Darauf sollten wir sorgfältig achten.

Link: http://wattsupwiththat.com/2014/04/07/climate-forecasting-for-the-21st-century/

Übersetzt von Chris Frey EIKE




Vulkanische Eruptionen und ozeanischer Wärmegehalt

Bild rechts: Vulkan auf den Kanaren. Bild: Dieter Schütz  / pixelio.de 12.00

Ihre Abbildung 1 sieht so aus:

Bildinschrift im Original: Anomalien des globalen mittleren Wärmegehaltes aus den individuellen Mittelwerten der Aufzeichnung 1966 bis 1995, integriert über Tiefen von 0 bis 700 m und zeitlich geglättet mit einem laufenden 1-Jahres-Filter. Fette schwarze Kurve: das Ensemble-Mittel der acht nicht modellierten und teilweisen Analysen. Der lineare Trend des Ensemble-Mittels beträgt 0,77 X 10­8 J/m²/10 Jahre) oder 0,24 W/m². Trends der individuellen Analysen reichen von 0,68 bis 0,98 X 10­8 J/m²/10 Jahre) oder 0,21 bis 0,31 W/m². Die jährlichen vulkanischen Aerosol-Konzentrationen sind entlang der unteren Achse geplottet (aus Hansen et al. 2005). Der globale integrierte Wärmegehalt kann aus dem globalen Mittel gewonnen werden, indem man es mit der Oberfläche der Welt-Ozeane multipliziert mit Ausnahme der Festlandschelfe, also mit 3,4 X 10­14 m².

Bildunterschrift bei Eschenbach: Abbildung 1: neun verschiedene Schätzungen der Änderung des ozeanischen Wärmegehaltes, einschließlich eines Modells und acht auf Beobachtungen basierenden Schätzungen. Wenn man dies mit anderen Analysen vergleicht, muss man beachten, dass der ozeanische Wärmegehalt OHC in dieser Analyse mit 10­8 Joule pro Quadratmeter angegeben ist und nicht mit dem gebräuchlicheren globalen ozeanischen Gesamtwärmeinhalt, der normalerweise mit der Einheit 10­22 Joule gemessen wird. Die Konversion wird im letzten Satz der Bildinschrift beschrieben. (Tatsächlich glaube ich, dass ihre Bildunterschrift in ihrer Studie aus einem anderen Zusammenhang stammt und nicht aktualisiert worden ist … aber es ist klar, was gemeint ist).

Mein Interesse wurde nach der Lektüre des Abstract geweckt:

ABSTRACT

Diese Studie untersucht neun Analysen der globalen Wassertemperatur und des Wärmegehaltes, jeweils zwischen 0 und 700 m Tiefe, während der 43-jährigen Erwärmungsperiode von 1960 bis 2002. Unter den Analysen sind zwei, die unabhängig von jedem numerischen Modell sind, sechs, die sich auf teilweise Datenassimilation stützen einschließlich eines Allgemeinen Ozean-Zirkulationsmodells, und eine, die vierdimensionale variable Datenassimilation verwendet (4DVAR), einschließlich eines Allgemeinen Zirkulationsmodells. Die meisten Analysen zeigen eine graduelle Erwärmung des globalen Ozeans mit einem Ensemble-Trend von 0,77 X 10­8 J/m²/10 Jahre (= 0,24 W/m²) als die Folge der rapiden Erwärmung Anfang der siebziger Jahre und dann erneut ab etwa dem Jahr 1990. Eine Erklärung für diese Variationen sind die Auswirkungen von Vulkanausbrüchen in den Jahren 1963 und 1982. Die Untersuchung dieser Hypothese zeigt, dass sie trotz eines ozeanischen Signals nicht ausreicht, um die  beobachteten Variationen des Wärmegehaltes zu erklären.

Was kann man also aus dieser Studie lernen? Zunächst war mir überhaupt nicht bekannt, dass es neun unterschiedliche Schätzungen der Änderungen des ozeanischen Wärmegehaltes gibt; das war also für mich neu. Und noch ziemlich viel anderes … einschließlich der Erinnerung an die Tatsache, dass diese Art „Spaghetti-Graphik“ ohne Fehlerabschätzungen nutzlos ist.

Als Erstes habe ich also die Fehlerschätzungen in den Levitus-Daten eingeholt, die in Abbildung 1 gezeigt sind (gestrichelte violette Linie) und habe sie in die Graphik eingezeichnet um zu sehen, was dann passiert:

Abbildung 2: Genau wie Abbildung 1, aber ich habe die Levitus-Daten hervorgehoben und die roten vertikalen Linien hinzugefügt, die die Fehlerbreite der Levitus-Daten zeigen.

Nun habe ich schon lange den Verdacht gehabt, dass die Fehlerschätzungen in den Levitus-Daten unterschätzt sind … ich würde sagen, dass dieser Graph dies bestätigt.

Im Vorübergehen musste ich auch erkennen, dass ich nicht in der Lage war, ihre Abbildung 1 hinsichtlich der Levitus-Daten zu reproduzieren. Unter der aus obigem Link heruntergeladenen Daten sieht das, was die Levitus-Analyse derzeit zeigt, so aus:

Abbildung 3: Abbildung 1 aus C&S2008, überlagert mit den gegenwärtigen Levitus-Daten in rot.

Wie man sieht, gibt es eine gute allgemeine Übereinstimmung mit ihren Daten mit Ausnahme der Periode von 1969 bis 1984 … dafür habe ich keine Erklärung.

Allerdings war dies nicht das, was mich interessiert hat. Ich wollte wissen, wie das mit den Vulkanen ist. Eine Zeitlang habe ich in verschiedenen Beiträgen erklärt, dass die Folgen von Vulkanausbrüchen auf die Temperatur des Planeten überschätzt werden, manchmal sogar sehr erheblich. Ich war überrascht , ihre Ergebnisse hinsichtlich des Ausbruchs des El Chichón in Mexiko zu sehen. Sie haben einen interessanten Weg in ihrer Analyse beschritten. Für jedes Ozeangebiet haben sie den ozeanischen Wärmegehalt in den vier Jahren vor dem Ausbruch mit den vier Jahren nach dem Ausbruch verglichen. Das schien mir ein vernünftiger Ansatz. Abbildung 4 zeigt ihre Ergebnisse der 9 Analysen hinsichtlich des El Chichón-Ausbruchs im Jahre 1982:

Abbildung 4: Vergleich der Gesamtänderung des ozeanischen Wärmegehaltes (OHC) in den vier Jahren vor bzw. nach dem Ausbruch des El Chichón. Die oberen 8 Teilabbildungen darin zeigen die 8 Beobachtungs-Datensätze, die untere das Modell. Man beachte die unterschiedlichen Größenordnungen… vermutlich deswegen, weil die Änderungen in den Modellergebnissen nur etwa 2/3 so groß waren wie die Beobachtungen.

ORIGINAL-BILDUNTERSCHRIFT: Abb. 3: Änderung des 4-jährigen mittleren Wärmegehaltes jeweils 4 Jahre vor und nach dem Ausbruch des Mount Agung im Jahre 1963. Vor der Berechnung der Änderung des Wärmegehaltes wird eine Regressionsanalyse verwendet, um die Effekte der ENSO und eines linearen Erwärmungstrends zu eliminieren. (siehe Abbildung 2). … Die Änderungen größer als ± 5 X 10­8 J/m² sind schattiert. Die untersten Teilabbildungen zeigen die Änderung des Wärmegehaltes aus einem Fünfer-Ensemble der gekoppelten Simulation mit CM2.1 mit vollständigem Aerosol-Antrieb. Änderungen, die über ± 3 x 10­8 J/M² hinausgehen, sind schattiert.

Auf den ersten Blick sieht es nach einer Bestätigung aus, dass der Vulkan tatsächlich eine Abkühlung verursacht hat und dass meine Hypothese der minimalen vulkanischen Abkühlung falsch war.

Wenn allerdings die Abkühlung auf den Ausbruch zurückzuführen ist, warum gibt es dann Gebiete mit Erwärmung? Warum beschränkt sich die Abkühlung auf die Pazifik-Region unmittelbar um den Äquator, wenn die vulkanischen Aerosole ursprünglich vom Äquator stammen und dann über den ganzen Planeten verteilt werden? Und warum gibt es rund um die Ausbruchsstelle in Mexiko keine verstärkte Abkühlung?

Wie immer liegt die Antwort in mehr Beobachtungen. Abbildung 5 zeigt die korrespondierenden 4-Jahres-Mittel für den Pinatubo …

Abbildung 5: Wie Abbildung 4, nur diesmal bzgl. des Pinatubo-Ausbruchs in den Philippinen.

Wie die Studie selbst sagt …

Für den Pinatubo zeigen die meisten Analysen eine allgemeine Erwärmung, außer im westlichen äquatorialen (Süd-)Pazifik.

Allgemeine Erwärmung des Ozeans nach dem größten Vulkanausbruch unserer Zeit? Das sieht deutlich nach einer Unterstützung für meine Behauptungen aus … m. E ist die einzige Schlussfolgerung, die wir aus den Beobachtungen dieser beiden Vulkanausbrüche ziehen können, dass sie wie normale Variationen des OHC aussehen, und wie auch immer die Auswirkungen geartet sind, sind sie ziemlich klein.

Eine nähere Betrachtung enthüllt einen letzten und sehr starken Hinweis, dass die in den Abbildungen 4 und 5 gezeigten Änderungen NICHT auf die beiden Ausbrüche, sondern auf natürliche Variationen unbekannten Ursprungs zurückzuführen sind.

Das Format der Abkühlung hat nicht die von den Modellierern vorhergesagte Form angenommen. Wie die Modelle zeigen, falls der Antrieb der Ausbrüche wirklich die Temperatur bestimmen würde, würde man den stärksten Effekt unmittelbar stromabwärts der Ausbruchsstelle erwarten. Man beachte in Abbildung 5, dass von allen neun Ergebnissen (8 aus Beobachtungen, 1 aus dem Modell) nur das Modell eine Abkühlung stromabwärts des Pinatubo zeigt. Man kann es in den Modellergebnissen erkennen, und zwar an dem blauen Gebiet, das wie ein Pfeil in Richtung nördliche Philippinen zeigt mit dem Schwanz stromabwärts im nördlichen Pazifik … aber keines der Beobachtungs-Datensätze zeigt diese Verteilung der Abkühlung stromabwärts des Pinatubo.

Nicht nur das, sondern man betrachte noch einmal Abbildung 4. Dreimal darf man raten, welche der neun Analysen behauptet, dass es stromabwärts des Ausbruchs in Mexiko zu einer Abkühlung kommt, und zwar im Gebiet der Karibik und dem nördlichen Südamerika. Jawohl … das Modell war das einzige … und es ist nicht so gekommen. Selbst in den Gebieten direkt stromabwärts der Ausbrüche findet man also nicht die erwarteten Änderungen des Wärmegehaltes aufgrund von Änderungen des solaren Antriebs.

Die Vulkane stellen ein riesiges Problem dar für die allgemein verbreitete Ansicht, dass die Änderungen der globalen mittleren Temperatur eine lineare Funktion der Änderungen des Antriebs sind. Die Klimamodelle sind nichts weiter als eine mechanistische Implementierung der beschriebenen und simplistizischen Hypothese.

Nun kennen wir die Tatsache, dass der solare Antrieb nach dem Pinatubo-Ausbruch einen großen und ziemlich langen Abschwung hinlegte … aber man findet weder die Mange noch die Verteilung der von den Modellen vorhergesagten Abkühlung. Und nicht nur das, sondern das vorherrschende Element nach Pinatubo war Erwärmung, nicht Abkühlung … also noch einmal, die einzige haltbare Schlussfolgerung lautet:

1. Was immer die Vulkane auslösen – es ist nicht das, was das Modell sagt oder was die konventionelle Klimatheorie vorhersagt, und

2. was immer die Vulkane auslösen, es reicht nicht einmal aus, um Effekte über das Rauschen hinaus auszulösen.

Für mich ist das einfach ein weiterer Beweis, dass das zugrunde liegende Klima-Paradigma, also der Gedanke, dass Temperaturänderungen eine lineare Funktion der Änderungen des Antriebs sind, einfach falsch ist. Falls es korrekt wäre, hätten die Ausbrüche das gezeigt … aber das haben sie einfach nicht.

Das ist der Grund, warum ich mich selbst eher als einen Klima-Häretiker bezeichne als einen Skeptiker – ich glaube, dass das fundamentalste Paradigma dessen, wie das Klima funktioniert, falsch ist. Die Temperaturänderungen sind KEINE lineare Funktion der Änderungen des Antriebs, wie es die konventionelle Klimatheorie behauptet.

Daten:  Global Decadal Upper-Ocean Heat Content as Viewed in Nine Analyses, James Carton and Anthony Santorelli 

 Link: http://wattsupwiththat.com/2014/04/06/eruptions-and-ocean-heat-content/

Übersetzt von Chris Frey EIKE