1

In der Deutschen Meteorologischen Gesellschaft regt sich Widerstand gegen den Klimaalarmismus

Zur Situation im Fach Meteorologie-Klimatologie

Aus lange gegebenen Anlässen beobachten Kollegen in meteorologischen Fachkreisen mit Besorgnis, dass sich in ihrem Fachgebiet (vornehmlich in der Klimatologie) Entwicklungen zementieren, welche sie aus wissenschaftlicher Sicht einfach nicht akzeptieren können und die darüber hinaus auch nicht ihrem Berufsethos entsprechen.

Bei diesen Entwicklungen handelt es sich zunächst um so etwas wie eine Demokratisierung der Wissenschaft: Jedermann darf und soll in ihr mitbestimmen; in der Meteorologie-Klimatologie umfasst Jedermann weltweit ein unübersehbares Heer von organisierten, kaum bekannten Personen, bei uns fast schon die gesamte Öffentlichkeit. Die dadurch erfolgte Veränderung des Begriffs Wissenschaft hat nach unserer und anderer Überzeugung zu negativen Auswirkungen auf die Qualitätsstandards in ihr geführt.

Dies betrifft in besonderem Maße die Debatte um den Klimawandel. Mit ihrem CO2-Konsens führte eine Gruppe, die sich zwar aus bekannten ‒ sich mit dem Klima befassenden ‒ Kollegen, doch auch aus einer großen Zahl von Klimafunktionären aus allen nur denkbaren gesellschaftlichen Bereichen zusammensetzt (s. o.), eine quasi verbindliche Interpretation zur Ursache des Klimawandels in diese Wissenschaft ein, ‒ was doch ein völlig wissenschaftsfremder Vorgang sein sollte. Zweifel an dieser Interpretation sind mehr oder weniger verboten. In der Klimatologie betreffen diese Zweifel mitgeteilte Datensammlungen oder übernommene Ergebnisse von kaum überprüfbaren Modellrechnungen anderer.

Der stete Hinweis auf den Konsens unter den genannten Klimatologen, die einen anthropogen verursachten Klimawandel zu belegen trachten, hatte zur Folge, dass ein Ende der Debatte über Grundsatzfragen quasi verordnet wurde. Dadurch grenzte man in diesem Fachgebiet eine größere Zahl von Fachkollegen bleibend aus. Eine solche Ausgrenzung und die damit verbundenen unabsehbaren Folgen sind für uns ‒ und auch nach Überzeugung vieler uns bekannter Fach-Meteorologen ‒ eigentlich nicht zu verantworten; dies gilt jedenfalls, wie wir meinen, im Hinblick auf unseren wirklichen Kenntnisstand auf diesem Gebiet.

Wir wünschen uns daher, dass allgemein ‒ und auch in unserem Wissenschaftsgebiet ‒ eine Rückkehr zu einem vorurteilsfreien Wissenschaftsbetrieb früher üblicher Art zustande kommt. Dies beinhaltet die Freiheit der Mitteilung von ‒ natürlich soliden ‒ wissenschaftlichen Ergebnissen, auch wenn diese dem Mainstream (etwa den IPCC-Berichten) nicht entsprechen.

Wiedergabe der Stimmung einer Gruppe von Mitgliedern des ZV Berlin-Brandenburg der DMG,
i. A. B. Barg, W. Fett, H. Fortak, K. Knüpffer

———————————

Der DMG gebührt Dank, dass dieser Beitrag erscheinen konnte. Allerdings handelt es sich um eine gekürzte und entschärfte Version. Am 16. Mai 2014 veröffentlichte Pierre Gosselin auf seinem Klimablog NoTricksZone den ursprünglichen Text des Artikels. Im Folgenden die Passagen, die es nicht in die Endfassung geschafft haben:

     Kaum wahrgenommen steht hinter derartigen Entwicklungen – zugegebenermaßen – auch das politische Ziel einer Veränderung der Gesellschaft, mag man das wollen oder nicht. Gegenwärtig soll es die weltweit nachhaltige Veränderung derselben sein.

     Bei dieser politischen Aktion macht die Meteorologie-Klimatologie an prominenter Stelle entscheidend mit. Der – vorgebliche – CO2-Konsens dient dabei als Hebel innerhalb einer Gruppe, die sich zwar aus bekannten – sich mit dem Klima befassenden – Kollegen, doch auch aus einer großen Zahl von Klimafunktionären aus allen nur denkbaren gesellschaftlichen Bereichen zusammensetzt (s. o.). Beide Gruppen führten mit ihrem Konsens gemeinsam ein verbindliches Dogma in diese Wissenschaft ein (was doch ein völlig wissenschaftsfremder Vorgang ist.)

     Derartiges gibt es aber in der Geschichte der Wissenschaft nicht zum ersten Mal. Im vorliegenden Falle entstand dieses Dogma zwar auf demokratischem Wege (durch Konsensabstimmungen?) letztendlich doch fast auf diktatorischem. Denn Zweifel an diesem Dogma sind de facto verboten und werden bestraft? – In der Klimatologie betreffen diese Zweifel mitgeteilte Datensammlungen oder übernommene Ergebnisse von kaum überprüfbaren Modellrechnungen anderer. Derartiges war bisher doch mittels unserer so gefeierten freiheitlich-demokratischen Grundordnung als überwunden betrachtet worden!

 Der Beitrag erschien zuerst bei Notrickszone und in Deutsch bei "Die kalte Sonne".  




Schweizer Arbeitsplätze fallen der deutschen Energiewende zum Opfer

Bild rechts: Zeichen am Himmel: Dunkle Wolken über der Zukunft der Windenergie

So wie bekanntlich die Revolution ihre Kinder frisst, so frisst die deutsche Energiewende ihre Geschwister: „Klassische erneuerbare Energien“ wie die bereits seit vielen Jahrzehnten etablierte Wasserkraft, die sich dem Markt stellen müssen, werden durch den hoch subventionierten Strom aus Windanlagen, Solarparks oder Faulgasanlagen mit der gleichen brutalen Rücksichtslosigkeit aus dem Markt gedrängt wie die konventionellen Anbieter. Und das trifft nicht nur Stromerzeuger in Deutschland: Die sinn- und planlos zum falschen Zeitpunkt erzeugten Überschussmengen werden mit Methoden, die an den ungezügelten Nanking-Kolonialismus der Briten in China erinnern, auch in die Netze der Nachbarländer gedrückt (Bild 1) und ruinieren den dortigen Kraftwerksbetreibern das Geschäftsmodell.

 

Bild 1. Am 11.5.2014 wurde in Deutschland Strom wegen der chaotischen Überproduktion aus Wind- und Solaranlagen mit Geldgeschenken bis zu 65 € pro MWh in die in- und ausländischen Märkte gedrückt – nichts anderes als frühkolonialistisches Dumping (Grafik: Rolf Schuster)

Besonders übel trifft es dabei gerade in den Alpenländern die dort bisher sehr gut aufgestellten Betreiber von Wasserkraftwerken, Bild 2. So auch die Axpo AG, den größten Schweizer Produzenten von Strom aus Wasserkraftwerken. In einem Interview mit der „Berner Zeitung“ vom 7. Juni 2014 [BERN] klagte Axpo-Verwaltungsratspräsident Robert Lombardini, dass man inzwischen wegen der Ertragsausfälle und der ungewissen Zukunft in der Zwickmühle stecke und Geld aktuell nur noch im Winter verdient werde. Wenn es keine Änderung gebe, so könne die Axpo bis zu einer Milliarde Franken verlieren. Die Situation sei alarmierend, weil in den nächsten drei bis fünf, wenn nicht gar zehn Jahren keine Änderung des Ist-Zustandes zu sehen sei. Er frage sich, wie es so weit habe kommen können, dass die Wasserkraft plötzlich nicht mehr rentabel sei.

Bild 2. Bereits vor Generationen haben vorausschauende Schweizer Unternehmen viel Wagemut und Kapital in den Ausbau von Wasserkraftwerken – hier das Grimsel-Kraftwerk der KWO – investiert

Im Sommer läuft das Wasser künftig ungenutzt ab

Im Sommer, so R. Lombardini, werde es angesichts der aus dem europäischen Ausland verfügbaren Strommengen bald so weit sein, dass man gezwungen sei, das Wasser ungenutzt neben den Turbinen vorbeizuleiten. Es mache keinen Sinn, sich aufgrund der dann am Markt geltenden Tiefstpreise noch finanziell dafür bestrafen zu lassen, dass man Energie ins Netz einleite.

Aus dem gleichen Grund wurde bei der Axpo auch die Investitionstätigkeit weitgehend eingestellt. Neue Anlagen sind kaum noch geplant, es wird nur noch da investiert, wo es unbedingt nötig ist. Wegen der Ertragsausfälle und der ungewissen Zukunft steckt das Unternehmen in einer Zwickmühle zwischen schlichter Aufrechterhaltung des Bestands und der eigentlich erforderlichen Erneuerung der Anlagen. Man könne im Prinzip nur noch versuchen, den vorhandenen Bestand an Wasserkraftwerken mit möglichst wenig Aufwand sicher am Netz zu halten. Wenig Freude dürfte dies bei der Schweizer Regierung hervorrufen, denn für deren ambitionierte Energiewendepläne – einschließlich eines massiven Ausbaus der Wasserkraft – bedeutet dies einen herben Rückschlag. Für die eigentlich dringlichst erforderlichen Investitionen in Neuanlagen und größere Kapazitäten dürfte angesichts der desolaten Marktsituation schlicht kein Geld da sein.

Das Aus für „Europas Batterien“

Im gleichen Zusammenhang trifft es ausgerechnet auch Projekte, die gerade aus Sicht der „Energiewende“-Strategen eigentlich von zentraler Bedeutung sind, nämlich die Alpen-Pumpspeicherkraftwerke (Bild 3), die von manchen Politikern gerne vollmundig als „Batterien Europas“ angepriesen werden. Zu den Projekten, die nach Ansicht von R. Lombardini angesichts des aktuellen Marktumfeldes kaum noch Aussicht auf eine Realisierung haben, gehört auch die geplante Erweiterung des Pumpspeicherkraftwerks der Kraftwerke Linth-Limmern AG im Kanton Glarus. Damit würden volle 1000 MW bereits geplante Speicherkapazität wegfallen.

 

Bild 3. Eine Pumpen-Turbinengruppe in einem Schweizer Pumpspeicherkraftwerk

Während eine erste Entlassungswelle 300 Mitarbeiter trifft…

In das Bild passt dann auch eine Meldung des Internet-Nachrichtendienstes Bluewin.ch vom 16. Juni 2014 [BLUE]. Aufgrund der niedrigeren Großhandelspreise für Strom wurden der Axpo die Ergebnisse gründlich verhagelt. Insgesamt sank laut einer Medienmitteilung des Konzerns die Gesamtleistung (Umsatz) um über 10 Prozent auf 3,57 Mrd. Franken. Beim Betriebsergebnis vor Steuern (EBIT) verzeichnete die Axpo im Vergleich zum letzten Geschäftsjahr ein Minus von rund 25 Prozent auf 545 Mio. Franken. Unter dem Strich blieben 502 Mio. Franken übrig, rund 16 Prozent weniger als 2012/13. Alleine die in der ersten Hälfte des Geschäftsjahres 2013/2014 erforderliche Preissenkung für die Stromlieferungen an die Kantonswerke per 1. Januar habe das Ergebnis um rund 25 Mio. Fr. sinken lassen.

„Wir sehen keinen Trend, dass die Strompreise sich erholen würden“, so Axpo-Chef Andrew Walo in diesem Zusammenhang. Deshalb müsse man rechtzeitig Gegenmaßnahmen ergreifen, indem man auch die laufenden Kosten senkt. Erreicht werden soll dies durch den Abbau von 300 der insgesamt derzeit 4460 Vollzeitstellen, das bedeutet die Entlassung von immerhin sieben Prozent der Belegschaft. Natürlich versucht man, diese Maßnahme durch zeitliche Streckung über drei Jahre und die Anwendung eines Sozialplans abzufedern. Dennoch bleibt die hässliche Tatsache bestehen: Die deutsche Energiewende (Bild 4) kostet in der Schweiz inzwischen Arbeitsplätze auch und gerade im Bereich der umweltfreundlichen, CO2-vermeidenden Wasserkraft.

Bild 4. Mit Wind- und Solaranlagen kann man sich auf Kosten der Allgemeinheit bereichern, während gleichzeitig die konventionellen Stromerzeuger vor die Wand gefahren werden

….setzen die Verursacher noch einen drauf

Angesichts der Härten, die für die betroffenen Mitarbeiter mit dem Verlust ihres Arbeitsplatzes verbunden sind, sollte die fast schon zynische Nonchalance, mit der die Schweizer Vertreter der Verursacher dieser Misere gerade eine neue politische Initiative lancieren, den einen oder anderen Mitbürger doch nachdenklich stimmen. Am gleichen Tag, an dem die Meldung über den Arbeitsplatzverlust bei der Axpo bei Bluewin publiziert wurde, erschien dort auch die Meldung, dass die die Schweizer Solar-Lobby Prosolar zusammen mit dem WWF Schweiz eine Abgabe auf den von ihnen so bezeichneten „Dreckstrom“ aus Kohle-, Gas- und Kernkraftwerke durchsetzen wollen. Damit, so die Begründung, sollten angebliche „Marktverzerrungen“ gemildert und der Umwelt geholfen werden, ohne die Haushalte und die Wirtschaft unnötig zu belasten. Es gehe darum, die von der Allgemeinheit bezahlten externen Kosten der atomaren und fossilen Stromproduktion auszugleichen. Gleichzeitig führe dies zu einer „fairen Chance“ für die erneuerbare Energien. Dabei ist man nicht kleinlich und geht von einem Aufschlag von rund 10 Rappen pro kWh aus, was immerhin einen weiteren Kostensprung von rund 30 % auf die Stromrechnung bedingen würde.

 

Bild 5. Traurige Überreste einer Storchenmutter, die von einem Windrad guillotiniert wurde

Dieses Vorgehen kann man schon als dreist bezeichnen. Ähnlich wie in Deutschland hat die Schweizer EE-Lobby bereits vor einiger Zeit die sogenannte KEV-Abgabe durchgesetzt, welche den Betreibern von Wind- und Solaranlagen insgesamt schätzungsweise 10 Mrd. CHF auf Kosten des Stromverbrauchers in die Kassen spülen wird. Während Schweizer Kraftwerke aufgrund des subventionierten Stroms aus Deutschlands EE-Kraftwerken um ihre Existenz kämpfen müssen, will man ihnen jetzt zusätzlich noch Strafabgaben aufbrummen. Besonders verachtenswert ist hierbei die Rolle des WWF: Dass jede der von ihnen so heiß befürworteten Windenergieanlage jedes Jahr unzählige Vögel und Fledermäuse erschlägt (Bild 5), scheint für diese angeblichen Naturschützer überhaupt nicht ins Gewicht zu fallen. Es wird Zeit, aufzuwachen und diesen Leuten die Spendengelder zu streichen.

Fred F. Mueller

Quellen:

[BLUE] http://www.bluewin.ch/de/news/wirtschaft—boerse/2014/6/16/axpo-baut-in-den-naechsten-drei-jahren-300-stellen-.html

[BLU2] http://www.bluewin.ch/de/news/wirtschaft—boerse/2014/6/16/swissolar-und-wwf-fordern-abgabe-auf–dreckstrom-.html

[BERN] http://www.bernerzeitung.ch/wirtschaft/unternehmen-und-konjunktur/Die-Axpo-fragt-sich-Wie-konnte-es-so-weit-kommen/story/19719269




Klimaschutz: Ja bitte – oder Nein danke? Eine Anhörung vor dem Umweltausschuss im Niedersächsischen Landtag.

Hiermit möchte ich den Leserinnen und Lesern einen kurzen Bericht über diesen denkwürdigen Tag geben. Denkwürdig deshalb, weil erstmalig ein deutsches Parlament das immer geltende Neutralitäts- und Objektivitätsgebot einhielt und in der wichtigen Klimafrage – sozusagen die Mutter aller Energiewenden- auch solche Experten zum Vortrag einlud, die nicht der Mainstreammeinung folgen, und dies in ihren Beiträgen auch darlegen konnten. Zu verdanken haben wir diesen Durchbruch der stillen Überzeugungsarbeit einiger EIKE Mitglieder, die in die Fraktionen von CDU und FDP im niedersächsischen Landesparlament einwirkten. Dort in personam Dr. Gero Hocker, von der FDP und Martin Bäumer von der CDU (Umweltpolitischer Sprecher der CDU Landtagsfraktion).

Vielleicht hat dazu auch der Umstand beigetragen, dass die CDU die Wahl in Niedersachsen verloren hatte und sich nun in der Opposition mehr traut als zuvor in der Regierung. Dass diese Einladung den Meinungsdiktatoren der Grünen mächtig gegen den Strich ging, machte die Grüne Miriam Staudte gleich zu Beginn klar, als Klaus Ermecke von KE Research sich artig dafür bedankte, zu dieser Anhörung einegladen worden zu sein: Ihre spontane Antwort„ ‚Ja, so was machen wir auch nicht wieder.‘. Echt grüne Ansichten eben! „Sie dürfen jede Meinung vortragen, solange sie meiner gleicht.“

 

Abbildung 1: Bild auf die Mitglieder des Ausschusses. Linke Reihe, Mitglieder von der SPD und Grünen, Mitte die Ausschussvorsitzende, rechte Reihe, Mitglieder von der CDU und FDP. Vorne Mitte: Vortrag von Prof. Dr. Besse (KLIFF)

Was war der Anlass für die Anhörung?

Die Fraktion der FDP wie auch die beiden Fraktionen von SPD und Grünen (zusammen) hatten je einen Entschließungsantrag eingebracht. Die SPD/Grünen forderten darin ein scharfes „Klimaschutzgesetz“ für Niedersachsen, die FDP fordert ein Innehalten und Nachdenken, da die Klimafrage wissenschaftlich heftiger denn je umstritten sei. (Siehe Anlagen). Insgesamt waren 14 Ausschussmitglieder incl. der Verwaltung anwesend. Davon 7 von der SPD-Grünen Koalition

Wer war eingeladen?

Klimafolgenforschung in Niedersachsen KLIFF Herr Prof. Dr. Friedrich Beese: Mehr Info hier http://www.kliff-niedersachsen.de.vweb5-test.gwdg.de/?page_id=791

Deutsche IPCC-Koordinierungsstelle Frau Dr. Christine Textor:Mehr Info hier http://www.de-ipcc.de/

Herr Prof. Dr. Diefenbacher Beauftragter des Rates der EKD für Umweltfragen Mehr Info hier http://www.fest-heidelberg.de/index.php?option=com_content&view=article&id=62&Itemid=59

Potsdam-Institut für Klimafolgenforschung (PIK) Herr Prof. Dr. Rahmstorf hier sein Vortrag

Klaus Ermecke GmbH Bereich KE Research Herr Klaus Ermecke 

Europäisches Institut für Klima und Energie (EIKE) Herr Dipl. Ing. Michael Limburg

Ludwig-Maximilians-Universität München Herr Dr. Dr. habil. Dlugi 

Europäisches Institut für Klima und Energie (EIKE)  Herr Prof. Dr. Ewert

Umweltbundesamt Herr Dr. Harry Lehmann:

Mehr Info hier http://www.umweltbundesamt.de/das-uba/wer-wir-sind/organisation/fachbereich-i (mehr Details: http://www.eike-klima-energie.eu/climategate-anzeige/happy-harry-uba-broschuerenautor-harry-lehmann-nach-sinnkrise-zum-umweltbundesamtund-sucht-von-dort-das-glueck-als-zielgroesse/

Germanwatch e.V. Herr Oldag Caspar: 

Was wurde gesagt?

Der Forstwirt Prof. Beese – jetzt Chef des KLIFF– hielt einen schwachen Vortrag voller Glaubens an den menschgemachten Klimawandel. Er begründete dies u.a. damit, dass seine Untersuchungen im Stechlinsee eine Erwärmung um etwa 1 K zeigten, was im See Änderungen der Lebensbedingungen für Flora und Fauna ausgelöst hätten. Wer hätte das gedacht? Er unterstützte dann den Antrag der Grünen (klar, sein KLIFF lebt davon) und forderte nur mehr Mittel für die Bildung (besser gesagt Klima-Propaganda), denn in der Bevölkerung sei das Klimathema in der Bedeutung leider abgesackt.

Nach seinem Vortrag verschwand er sofort, vermutlich um sich KLIFF zu widmen.

Frau Dr. Textor – eine nette junge Frau – sang das Loblied auf die Transparenz und die wissenschaftliche Qualität der IPCC Berichte, der vielen tausend wissenschaftlichen Zuarbeiter und der über 800 Leitautoren. Sie erklärte, dass die Regierungen die Wissenschaftler, die mitmachen sollten, vorschlügen und das IPCC – ohne näher zu erläutern nach welchen Regeln – entschiede, wen sie dabei haben wollten. Aber es würde immer ein Länderproporz beachtet und nach Möglichkeit auch ein Gender(hic!)-Proporz.

Niemand im Auditorium stieß sich daran, dass diese Regeln die Qualität und Objektivität der Forscher wohl nur herabsetzen könnten, wenn nicht allein nach wissenschaftlichen Qualitäts-Kriterien ausgewählt würde.

Überdies, so Frau Textor, würden sämtliche Themen für die Reports von den Regierungen vorgegeben, und die Ergebnisse innerhalb der befassten Wissenschaftler mehrheitlich entschieden. Und diese hätte entschieden, dass sich das Klima ändere und dass die Änderung, die wir erleben, total ungewöhnlich sei. Sie verneinte auf Nachfrage zudem, dass das IPCC seine Erwärmungsprojektionen bis zum Ende des Jhh. zurückgenommen hätte, man sei bei 3,2 bis 5,4 K geblieben, und 4 K (alles seit Beginn der Industrialisierung um 1750) sei das absolute Limit, um sich anpassen zu können. Und das IPCC, wie sie auch, seien fest überzeugt der Klimawandel sei menschgemacht. Belege für diese Ansichten brachte sie nicht. Nun ja!

Sie betonte dann Deutschlands Rolle (trotz Null Effekt) sei wichtig, wir müssten die Vorreiterrolle spielen.

Im Anschluss an ihren Vortrag gab ich Ihr das Buch von Donna Laframboise, das sie auch gleich aufschlug, um darin zu lesen.

Herr Prof. Diefenbacher: Ein ebenfalls netter, umgänglicher, mir etwas skuril vorkommender Gutmensch mit wirtschaftswissenschaftlicher Kompetenz, die er für die EKD einsetzt. In seinem Vortrag las er einiges zu den Entschließungsanträgen vor; sagte, wie sehr er den Grünen-Antrag auch aus ethischen Motiven (Bewahrung der Schöpfung, haushälterischen Umgehen mit dem Bestehenden, Nachhaltigkeit statt Wachstum) unterstütze. Er billigte zudem ausdrücklich, dass die Mehrheit auch in der Wissenschaft über wissenschaftliche Fragestellungen entscheide. Von der Möglcihkeit der wohlerprobten Anpassung an klimatische Veränderungen sagte er nichts. Sie kommt in seinem Denkschema wohl nicht vor. Er verließ die Veranstaltung kurz nach seinem Vortrag.

Herr Prof. Rahmstorf (Update 28.6.14 — hier sein Vortrag) kam spät, erst kurz vor seinem Vortrag, an. Er setzte sich fern von uns hin und hielt seine üblichen Klimapanikvortrag,  voll von Halbwahrheiten und Verdrehungen. Ich hatte mir nur einige seiner „Köstlichkeiten“ notiert:

So behauptete er, dass der „Säuregehalt“ der Ozeane (durch den CO2 Anstieg) um 30 % gestiegen sei. Diese „Versauerung“ verändere die Lebensgrundlage der Fauna und Flora negativ, sie sei eine Gefahr! Dass die Ozeane hochgradig basisch seien, mit einem PH Wert zwischen 8,1 und 8,3 , das behielt er für sich.

Er behauptete dann, die Eismassen der Antarktis und Grönlands seien – wenn auch langfristig – vom Schmelzen bedroht, diese würde einen Meeresspiegel-Anstieg von 65 m zur Folge haben. Er behauptete, auch die Klimasensitivität bei CO2-Verdopplung läge bei 3 ± 1 K. Und die jüngste Erwärmung von 0,8 – 1 Grad sei allein menschgemacht.

Und als Folge all dieser „katastrophalen“ Entwicklungen müssten die weltweiten CO2-Emissionen spätestens ab 2020 quantitativ „abknicken“, sonst sei das 2°- Ziel nicht mehr zu erreichen. Den fast 18 jährigen Stillstand der globalen Mitteltemperatur behielt er für sich. Das hätte wohl nur gestört. Im übrigen, so seine unspezifische Schlussaussage, sei alles Bemühen um eine Verringerung der Temperatur durch CO2 Absenkung sowieso müßig, weil das bereits jetzt in die Atmosphäre eingebrachte CO2 dort eine Verweilzeit von einigen tausend Jahren hätte. Nicht nur diese Aussage war grob falsch, wie z.B. E.G. Beck, O. Humlum und diverse andere schon vor langem nachgewiesen hatten.

Nach einer kurzen Diskussion, im wesentlichen von Grün/Rot befeuert, verschwand er.

Herr Klaus Ermecke hielt einen inhaltlich anspruchsvollen Vortrag, der die Grundlage des Treibhauseffektes in Frage stellte, weil die Beobachtungen allesamt anders wären als nach der TH-Hypothese zu erwarten wäre. Im Vergleich zum Verhalten von Mond und Erde zeigte er, dass die TH-Hypothese unhaltbar sei, denn das CO2, wie auch die anderen Treibhausgase sorgten dafür, dass der Planet nicht überhitze, weil sie ihn kühlten. Hier finden Sie die Erläuterungen zu seinem Vortra. In den Fragen im Anschluss wurde von Rot/Grün versucht seine Kompetenz in Frage zu stellen (E. Ist Betriebswirt), was aber nicht überzeugend gelang. Die Diskussion war erstaunlich kurz.

Dipl. Ing. M.Limburg: Er hielt einen Vortrag unter dem Titel: „Auf der Suche nach dem Treibhauseffekt:  Steuert unser CO2 die globale Mitteltemperatur?“ Unter Verwendung ausschließlich öffentlich zugänglicher Daten zeigte er, dass der  THE weder im Treibhaus (Namensgeber) selber, noch irgendwann in der Geschichte, und das auf allen Zeitskalen, nachzuweisen ist. Dabei beschränkte er sich auf die Wirkung des CO2, von der viele glauben, sie sei gut verstanden. Das hat jedoch leider nur den Schönheitsfehler, dass sie nirgends aufzufinden ist. Limburg empfahl daher den Ausschussmitgliedern, von einer „Klimaschutz“-Gesetzgebung zum Wohle der Allgemeinheit abzulassen.

Fragen dazu wurden von den Ausschussmitgliedern nicht gestellt, offensichtlich – aber das ist nur meine Vermutung – waren die Argumente und Darstellungen zu überzeugend. Allerdings war erkennbar, dass Frau Textor und Herr Lehmann bei manchen Ausführungen vor Ärger öfter mal heftig schnauften.

Herr Dr.Dr. Dlugi: Dlugi ist Koautor einiger tiefgründiger Veröffentlichungen zum Klimathema, zusammen G. Kramm, lehrt heute als Privatdozent an der LMU München und hat m.K.n. dort einiges an Mobbing zu ertragen. Sein Vortrag war hochtheoretisch und ging über die Meteorologie, die Klimatologie zu den „Erneuerbaren“. Seine Warnung: „Mit der Nutzung der „NIE“ (mein Ausdruck; nachhaltig instabile Energien) machten wir unsere Energieversorgung vom Wetter abhängig, dass wir für max 5 -6 Tage vorhersagen können“ Auch zu seinem Vortrag gab es m.W.n kaum Fragen.

Prof. Karl Ewert hielt einen fulminanten Vortrag zum Klimawandel allgemein (seit es auf der Erde Atmosphäre gibt), zur Rückerwärmung nach der kleinen Eiszeit in den letzten 150 Jahren, zu der klaren Aufgabe des IPCC, nur solche Literatur auszuwerten, die den jüngsten Klimawandel als gefährlich einstuft und den Menschen als Ursache darstellt, sowie seine Ergebnisse aus der Auswertung von fast 1200 weltweiten Temperaturgängen. Im Mittel zeigten diese jedoch keine Erwärmung an.

Ein Ausschussmitglied der SPD, Herr Becker, wollte ihn dann mit einer Frage zur Temperatur der Ozeane (lt. Rahmstorf hundertfach größere Wärmekapazität als die Luft) als unwissend darstellen.; weil E. darauf hinwies, daß er diese Frage nicht beantworten könne mangels ausreichender Sachkenntnis zu diesem Thema.

Zuvor behauptet der Grüne Bajus, dass die zuvor von Ewert beklagte Abneigung behördlicher Stellen und Medien, sich mit der Position der Klimarealisten zu beschäftigen, nicht stimmen könne, denn das UBA und sein Dr. Lehmann hätten in der Broschüre „Und sie erwärmt sich doch“  EIKE ja erwähnt . Vom bekannten Sprichwort „eine Schwalbe – dazu noch verunglimpft – macht noch keinen Sommer“ hatte der wohl noch nichts gehört.

Dr. Harry Lehmann vom UBA. Der war später gekommen und saß etwas abseits. Rhetorisch geschickt relativierte er alle zuvor gebotenen Fakten und Zitate – als aus dem Zusammenhang gerissen, oder gewollt unvollständig dargeboten, ohne auch nur ein einziges Beispiel für diese Behauptung zu nennen. Stattdessen beschwor er die leuchtende Zukunft, die Deutschland dank „Klimaschutz“ und NIE- Technologie hätte. Schließlich seien auf diesem Sektor bereits 350.000 Jobs entstanden. Der Frage von Ausschussmitglied Bäumer nach der Nettobeschäftigung wich er aus, dies sei wahnsinnig schwer zu bestimmen, sagte dann aber er, Lehmann, glaube dass max. 30 % davon wg. Jobverlust der „Verlierer“  weg zu rechnen seien. Die entsprechenden Studien von internationalen Wirtschaftswissenschaftlern wie Calzado oder Agnaro erwähnte der Vielgereiste nichts. Danach kostet jeder NIE Arbeitsplatz zwischen 2,2 bis 6 industrielle Arbeitsplätze. Im Übrigen – so Lehmann – schaue die Welt auf uns, denn man wisse dort, nur das Land der Ingenieure müsse und könne die Energiewende schaffen, die zu einem Exportwunder führen würde.

Osdag Casper (Politologe) von Germanwatch

Den Abschluss bildete  der Diplom Politologe Osdag Casper. Verantwortlich bei der (überwiegend aus Steuermitteln bezahlten) „NGO“ Germanwatch für die EU Klimapolitik. Er hielt einen kurzen, nach Meinung vieler Zuhörer sehr diffusen Vortrag über seine und die Aufgaben von Germanwatch. Niemand verstand so richtig, was er uns eigentlich sagen wollte, vielleicht wohl auch deswegen, weil er es selber nicht so genau wusste. Er betonte jedoch, dass seine Kollegen aus anderen Ländern bei seinen vielen internationalen Konferenzen (allein zur IPCC Klimakonferenz, die vor wenigen Tagen – völlig unbeachtet- in Bonn zu Ende ging, unterhielt German Watch nach C. eine Delegation von 20 Mann) mit Bewunderung und Hoffnung auf Deutschland schauten. Denn, wenn es jemand schaffen könne die Energiewende zu managen und dabei das Klima zu schützen, dann sei es Deutschland.

Dass die in erster Linie auf unser Geld schauten, kam ihm offenbar in seiner Begeisterung nicht in den Sinn.  Auf die Frage, wer seinen Verein finanzierte, sprach er von Mitgliedsbeiträgen und Spenden, aber vor allem von Projektfinanzierungen durch staatliche Auftraggeber, also dem Steuerzahler, sowie von der Mercator Stiftung. Gleichzeitig wunderte er sich über den Vorwurf, dass die Klimaschützer so gut vom Staat finanziert würden. Sein Gehalt sei eher dürftig. Das würde also nicht stimmen.

Da die Veranstaltung öffentlich[!] war, hatten sich zahlreiche Zuschauer versammelt. Mein Dank gilt dabei den zahlreich erschienenen Selberdenkern, die häufig bei unseren Ausführungen klatschten, um sich damit jedoch den Verweis der Vorsitzenden einzufangen, dass solche Beifallsbekundungen in diesem Ausschuss nicht üblich seien.

Reaktionen von Grünen, SPD und FDP darauf finden Sie hier:

Grüne http://www.fraktion.gruene-niedersachsen.de/presse/pressemitteilungen/meldung/artikel/bajus-peinliches-polittheater-von-klimazweiflern-der-opposition.html

SPD http://www.spd-fraktion-niedersachsen.de/aktuelles/pressemitteilungen/365595.php

FDP http://www.fdp-nds.de/inhalt/fdp-aktuell/news/newsdetail/artikel/gero-hocker-zeit-ist-reif-fuer-rationale-klimapolitik-umweltausschuss-beschliesst-expertenanhoe.html

Und von EIKE Gründungsmitglied Klaus Oellerer hier


[1] Eine Niederschrift der Vorträge samt Fragen wird vom stenografischen Dienst des Landtages in einigen Tagen öffentlich über dessen Website zugänglich sein.

Related Files




Indien: Greenpeace ist ‚eine Bedrohung der nationalen wirtschaftlichen Sicherheit‘

Die Vorwürfe sind Teil des Geheimdienstberichtes, datiert vom 3. Juni und übermittelt an das Büro des Premierministers. Wie The Indian Express als Erste berichtet hatte, beleuchtet der Geheimdienst die negative Auswirkung der Rolle der NGOs auf das BIP-Wachstum von „2 bis 3 Prozent pro Jahr“.

Der von Direktoriumsmitglied S. A. Rivzi unterschriebene Bericht wirft Greenpeace vor, gegen Gesetze zu verstoßen, um „die Dynamik des indischen Energie-Mix‘ zu verändern“. Das Büro sagt weiter, dass das ‚superior network‘ von Greenpeace mit zahlreichen Indien-weiten Organisationen geholfen hat, Anti-Kernkraft-Agitationen durchzuführen bis hin zu „massiven Bemühungen, die Kohlekraftwerke und den Kohlebergbau in Indien zu zerschlagen“. Dem Bericht zufolge wird Greenpeace als nächstes Ziel den indischen IT-Sektor über Elektroschrott ins Auge fassen.

Während verschiedene NGOs in dem 21 Seiten starken Bericht namentlich genannt werden, werden auch sieben Sektoren/Projekte gelistet, die gestoppt worden sind wegen der Agitationen seitens der NGOs gegen Kernkraftwerke, Uran-Minen, Kohlekraftwerke, Biotechnologie, Wasserkraftwerke und andere Industrien. Die hauptsächliche internationale NGO, die die Kritik auf sich zieht, ist Greenpeace.

Im gesamten Bericht wird Greenpeace angesehen als der Antriebsmotor von Massenbewegungen gegen Entwicklungsprojekte. „Die Einschätzung lautet, dass [die Organisation] eine potentielle Bedrohung der nationalen wirtschaftlichen Sicherheit ist … die exponentiell zunimmt hinsichtlich Reichweite, Einfluss, ehrenamtlicher Arbeit und Medienbeeinflussung“, heißt es darin. Die Bemühungen konzentrieren sich auf „Wege, um Hindernisse für Indiens Energiepläne zu errichten“ und „Indien zum Gebrauch erneuerbarer Energie zu zwingen“.

Der Bericht klagt Greenpeace auch an, „aktiv Hilfe und Anleitung durch ausländische Aktivisten zu erhalten, die Indien besuchen“. Weitere Vorwürfe sind Verletzung der Vorschriften des Foreign Contribution (Regulation) Act aus dem Jahr 2010 (FCRA) sowie Finanzierung „sympathisierender Studien“ am Tata Institute of Social Sciences (TISS) und bei IIT-Delhi.

Während die FCRA-Vorschriften daran hindern, finanziell durch politische Aktivitäten im Ausland gefördert zu werden, ist der ehemalige Greenpeace-Berater Pankaj Singh als Kandidat der Aam Aadami-Partei bei den jüngsten Wahlen in Madhya Pradesh aufgestellt worden. Die Mahan-Kohleminen, gegen die Greenpeace protestiert hatte, liegen in diesem Wahlbezirk.

Link: http://wattsupwiththat.com/2014/06/13/india-labels-greenpeace-a-threat-to-national-economic-security/

Übersetzt von Chris Frey EIKE

Hinweis zu dem Bild oben rechts: Es ist kein Copyright angegeben. Link zum Bild: siehe ganz oben „The Indian Express“.




Wenn es Nacht wird über Deutschland – wird Hamburg als erstes vom Netz gehen?

Die Hansestadt abzuschalten liegt nahe, weil sie mit ihrem extrem energiehungrigen Hafen, Industriebetrieben und zahlreichen Haushalten erheblich Leistung aus dem Netz zieht. Die großen Kraftwerke stehen rings um Hamburg und versorgen die Stadt mit Strom. Hier den Stecker ziehen würde viel bringen. Zumindest aus Sicht eines Höchstspannungsnetzbetreibers, der plötzlich vor die Wahl gestellt wird, einen totalen Blackout in ganz Deutschland zu riskieren oder einzelne Verbraucher abzuschalten. Einzelne Verbraucher, das sind eben große Städte, die viel Strom benötigen. Wenn die wegfallen, ist eine Menge Strom gespart. Lieber eine Stadt geopfert als ein ganzes Land. So jedenfalls lautet die neue Logik im neuen Stromversorgungssystem.

Denn seit einiger Zeit müssen sich die Stromnetzbetreiber damit befassen, was sie angesichts immer instabiler werdender Stromnetze tun sollen. Das Konzept: Im Falle, dass zu wenig Strom vorhanden ist und auch nicht aus den Nachbarländern hinzu gekauft werden kann, werden einfach Verbraucher abgeschaltet. Und zwar solche, deren Abschaltung etwas bringt. Das sind große Städte; ländliche Regionen mit nur wenig Stromverbrauch abzuschalten hätte keine so großen Auswirkungen. Das war schon in der DDR so, warum soll es in einer heutigen planwirtschaftlichen Umgebung nicht auch funktionieren?

Denn solche Überlegungen kannten gestandene Stromversorger bisher nicht. Deutschlands Stromversorgungssystem gehörte zu den besten der Welt. Stromunterbrechungen und Abschaltungen gab es praktisch nicht.

Doch mittlerweile stehen in Deutschland so viele Windkraft- und Photovoltaikanlagen, dass sie fast ganz Deutschland mit Strom versorgen könnten. Allerdings nur stundenweise – bei Idealbedingungen – aber dann gibt es auch immer wieder keinen Strom: bei Flaute, bei Sturm, bei Nacht oder bedecktem Himmel.

So haben unter anderem viele Bauern die Gunst der grünen Stunden genutzt und die Dächer ihrer Schuppen mit Solarzellen voll gepflastert, so dass aufgrund der verführerischen Subventionen die Landwirtschaft in den Hintergrund rückt. Der produzierte Strom muss aber von den Dächern abgeführt werden. Irgendwie. Meist führte eine Stichleitung zu dem Gehöft und versorgte es mit Strom. Jetzt soll diese Leitung auch die umgekehrt fließenden Energien aufnehmen und in die Netze einleiten. Dafür allerdings sind sie nicht ausgelegt. Neue Leitungen müssten verlegt werden, mit denen die maximale Leistung abgeführt werden kann.

An einem schönen Sommertag pumpen also solche Solaranlagen über die wackligen Leitungen ihre Energien in die Netze. Dieser Strom ist bekanntlich »grün« und hat Vorrang vor dem Strom aus konventionellen Kraftwerken. Diese Mengen hat auch der Stromhändler an der Börse bereits vorher gekauft. Aus Erfahrung kann er abschätzen, wie viel er kaufen muss.
Dabei helfen ihm natürlich auch Prognosen, die voraussagen, wann wie viel Strom voraussichtlich benötigt wird. Heerscharen von Wissenschaftlern haben Prognosemodelle entwickelt, die auch das Wetter mit einbeziehen, also im günstigsten Falle voraussagen: Am Nachmittag ab ungefähr viertel nach drei kommt eine Wolkenfront, die Solarzellen fallen aus, es fehlen soundsoviel Tausend Megawatt. Doch kritisch, wenn die Prognose nicht stimmt, eine Wolkenfront anrückt, daher die Sonne viel früher als geplant ihre Lieferung einstellt und zusätzlich der Wind einschläft. Dann kommt von den Solardächern und Windparks kein bisschen Strom mehr.

Jetzt wird es hektisch in der Steuerzentrale: »Redispatching« nennen die Stromversorger diesen Vorgang, das entstehende totale Ungleichgewicht zwischen Produktion und Verbrauch auszugleichen.
Mit Schaudern erinnern sich Ingenieure an den Februar 2011. Damals begann es Mitte des Monats kräftig zu schneien. Der Schnee fiel auf die Solarzellen. Die konnten keinen Strom mehr liefern. Abweichungen von bis zu 1,6 GW von den Prognosen waren die Folge. Das entspricht der Leistung von drei typischen Kohlekraftwerken, die plötzlich nicht mehr zur Verfügung standen.
Wenn der Wind schwächer als vorhergesagt weht oder es kräftig stürmt, fehlen schlagartig mal 2500 MW, die Leistung zweier großer Kernkraftwerke.
Große Kraftwerke kann man nicht „mal eben“ schnell an- oder abschalten. Kessel, Dampferzeuger und Turbinen wollen langsam hoch und wieder heruntergefahren werden, das kann bis zu zwei Tagen dauern.

Die Männer in den Schaltanlagen müssen hektisch versuchen, die falsche Prognose auszugleichen und von irgendwoher Strom zu bekommen. Denn Strom muss in dem Augenblick erzeugt werden, in dem er verbraucht wird. Speichern kann man ihn nicht in größerem Maße. Denn die durch viele Köpfe geisternden „Stromspeicher“ gibt es nicht und sind für die benötigten, gewaltigen Energiemengen auch derzeit nicht vorstellbar.

Aber was passiert, wenn es den Netzsteuerzentralen jetzt nicht mehr gelingt. Irgendwo weitere elektrische Leistung zuzukaufen? Dann wird es kritisch.

Der »Blackout« droht. Der Totalabsturz des Stromversorgungssystems. Wie Dominosteine stürzt das gesamte, sehr volatil gewordene Energieversorgungsgebilde ein.
Ein neuer Begriff ist aufgekommen, den kaum jemand kennt, der aber bald eine größere Rolle in der Energieversorgungslandschaft Deutschlands spielen dürfte.
Die sogenannte »Kaskade« setzt ein. Um einen totalen Blackout in Deutschland zu verhindern, müssen bestimmte »Verbraucher« abgeschaltet werden. Verbraucher, das bedeutet in diesem Fall große Städte oder Regionen mit hohem Stromverbrauch. Dort wird es dunkel. Industriebetriebe sollen ihren Stromverbrauch drosseln. Der »Letztverbraucher« wird abgeschaltet.

Der Betreiber der obersten Netzebene gibt an die untergeordnete Ebene Befehle zum Abschalten. Eine Kaskade wird in Gang gesetzt.
Das regelt inzwischen ein eigenes Gesetz. »Lässt sich eine Gefährdung oder Störung des Elektrizitätsversorgungssystems durch netz- oder marktbezogene Maßnahmen des ÜNB nicht oder nicht rechtzeitig beseitigen, kann der ÜNB vom VNB per Gesetz Maßnahmen zur Stabilisierung des Elektrizitätsversorgungssystems verlangen«, heißt es bürokratisch in den Vorschriften.

Entscheidend seien, stellten die Fachleute fest, vor allem die Kommunikationsprozesse zwischen den Beteiligten. Vorgefertigt sind bereits die Formulare mit den notwendigen Meldungen für solche Katastrophen. Damit in solche Notsituationen keine Missverständnisse aufkommen sollen.
Sogar die Form der Rückmeldungen sind schriftlich festgelegt: per E-Mail-Formular. Geübt wurden diese Prozeduren intern bei den Stromnetzbetreibern schon mehrfach.

Doch die ersten Resultate waren wenig schmeichelhaft: Am Ende stand das Ergebnis, »daß derzeit Mängel im Rahmen der Umsetzung der Kaskade in der Regelzone über alle Spannungsebenen hinweg bestehen.“
„Nicht allen Netzbetreiber ist bewusst, dass im Rahmen der Kaskadierung der jeweils vorgelagerte Netzbetreiber der Ansprechpartner ist.“
„In der Übung hat TenneT eine Vielzahl von Meldungen, Rückmeldungen und Bestätigungen erhalten, die an den jeweils vorgelagerten Netzbetreiber hätten gerichtet werden müssen. Dieses führte dazu, dass das Krisenmanagementteam der TenneT phasenweise nicht mehr handlungsfähig war, weil Telefonleitungen und das FAX permanent mit Rückmeldungen der zweiten und dritten unterlagerten Netzebene blockiert wurden.“

Die Ergebnisse lassen für den Ernstfall Schlimmes befürchten: „Insbesondere im Vorfeld wurde deutlich, dass nicht alle der TenneT nachgelagerten Verteilnetzbetreiber die eigenverantwortliche Umsetzung der Kaskade im Sinne einer Koordination der wiederum nachgelagerten Netzbetreiber unabhängig von TenneT leben und eindeutig kommunizieren.“
Immerhin hat sich „der Einsatz des Kommunikationsmittels E-Mail aufgrund der zeitversetzten Kommunikation und der Übersichtlichkeit als flexibel und tauglich gezeigt.“ Doch plagten die Fachleute in den Schaltzentralen die Probleme, die jeder Microsoft-Anwender kennt: Das Mailprogramm Outlook stürzte wiederholt ab. Die Stromversorgung Deutschlands hängt mitunter von Abstürzen von Microsoft-Ware ab.

Beim Thema »Auseinandersetzen mit dem Thema Umsetzung der BDEW Kaskade« fordern die Fachleute:
»Im Falle von Anforderungen bei der Umsetzung der BDEW Kaskade muß bewußt sein, wer welche Rolle und Aufgabe hat. Hierbei ist zu unterscheiden, ob es ich um ein Netzsicherheitsproblem oder ein Systembilanzproblem handelt. Hierbei ist sicherzustellen, dass interne Abläufe und Vorbereitungen funktionsfähig sind (Erreichbarkeit, Meldung und Rückmeldung, Kommunikationsmittel).

Im Augenblick forschen Fachleute daran, in welcher Zeit sie die Stromversorgung wieder hinbekommen könnten und veranstalten Übungen dazu – virtuelle wohlgemerkt.

»Der ÜNB ( also der überregionale Übertragungsnetzbetreiber ) kollabiert nur dann nicht«, schreibt Tennet in einer Untersuchung,

  • »Wenn schneller Onshore-Netzausbau den Ausgleich regionaler Erzeugungsungleichgewichte ermöglicht
  • Der Stromverbrauch sich zukünftig am regenerativen Dargebot orientiert ( das bedeutet, Waschmaschine und Computer abschalten, wenn ein Regenschauer über Deutschland zieht oder es schneit )
  • regenerative Erzeugung selbst die notwendigen Systemdienstleistungen wie Frequenzstützung, Regelenergie, Spannungshaltung erbringt
  • massiver Ausbau von Speichertechnologie erfolgt, um Volatilitätszyklen der erneuerbaren Energien abzupuffern
  • wirtschaftliche Anreize bestehen, hochflexible konventionelle Erzeugung mit hohen Gradienten und kurzen Anfahrtszeiten zuzubauen

Nur in Kombination aller o.g. Optionen in enger Zusammenarbeit der Stakeholder (Gesetzgebung, Regulierung, Öffentlichkeit, Marktplayer) ist die Energiewende möglich!«

In Sicht ist aber keine dieser Bedingungen! Dagegen mussten 2003 die Ingenieure der Netzführung nur zwei Mal im gesamten Jahr eingreifen, um das gesamte Stromnetz stabil zu halten. Mit der »Energiewende« erhöhte sich die Zahl dieser »Ereignisse« laut Tennet-Aufzeichnungen auf 290 im Jahr 2010, und 2011 waren es sogar 1024 Eingriffe. Das bedeutet: Unser Stromnetz wird gefährlich instabil.

Da sollen nun die  Erfahrungen aus der früheren DDR helfen.

Als dort in kalten Wintern die Kohlebagger einfroren und keine Braunkohle mehr gefördert werden konnte, mussten Kraftwerke stillgelegt werden. Dann wurden ganze Städte abgeschaltet. Immerhin fanden die DDR Techniker verträgliche Lösungen: Sie kappten die Stromzufuhr in einem rollierenden System, erst die eine, dann die andere Stadt. So also sieht Planwirtschaft aus.

Nachdem auch wir wieder Planwirtschaft eingeführt haben, stehen wir vor den gleichen Problemen und wählen die gleichen Lösungen wie seinerzeit die sozialistischen Planer. Das Ergebnis ist bekannt.

Der Beitrag erschien zuerst online auf der Website des DAV

HOLGER DOUGLAS, VORSTAND TECHNIK UND WISSENSCHAFT des Deutschen Arbeitgeber Verbandes e.V. (DAV). Der DAV ist ein bundesweiter Zusammenschluss von Unternehmern und Entscheidungsträgern in unternehmerähnlichen Positionen (Vorstände und Aufsichtsräte) sowie Persönlichkeiten aus Wissenschaft, Forschung und Politik.




Korrelation der Einspeisung aus Windkraftanlagen macht Grundlastfähigkeit in Deutschland unmöglich

Beim derzeitigen Ausbau sind alle Wind- und Solarenergieanlagen in Deutschland zusammen nicht grundlastfähig. Eine entsprechende populärwissenschaftliche Untersuchung wurde vom Verfasser im Internet unter www.vernunftkraft.de/statistik/ veröffentlicht. Dort wurde die Aussage getroffen, „dass die gesicherte Leistung aller Windkraftanlagen in Deutschland zusammen mit Null anzusetzen ist.“ Dieser Fall ist inzwischen eingetreten, als die gesamte Windleistung am 13. März 2014 auf 34 MW (das ist ein Promille der installierten Kapazität bzw. Nennleistung von 34.000MW) abgesunken ist. Der praktische Totalausfall der Windkraft ist also in Deutschland inzwischen eingetreten.

An diesem Konsens unter Technikern und Wissenschaftlern ist nicht zu rütteln, schließlich sind die Einspeisekurven aller Windkraftanlagen in Deutschland öffentlich zugänglich.

Es ist daher nicht verwunderlich, wenn es hier nur „vage Aussagen“ in einschlägigen Studien gibt. Um diese Tatsache drückt sich die versammelte Lobby mit ihren nachgeordneten Instituten mit halbkonkreten Allgemeinplätzen herum.

Führt ein Ausbau der Windenergie zur Glättung der Einspeisung?

 In der Bewertung des weiteren Ausbaus auf eine Vergleichmäßigung der Einspeisung gehen die Einschätzungen unter Wissenschaftlern weit auseinander. Dem Sinne nach vertritt etwa das IWES in Kassel die Auffassung, dass ein weiterer Ausbau zur Glättung und damit zur Vergleichmäßigung der Einspeisung führt. So heißt es in der am IWES in Kassel verfertigten „Agora Kurzstudie zur Entwicklung der Windenergie in Deutschland“ z. B.: „Eine großräumige Verteilung der Anlagen führt folglich zu einer Glättung der Einspeisung.“

Wer sich jemals mit mathematischer Statistik befasst hat, sieht „auf den ersten Blick“, dass diese These mathematisch unhaltbar ist. Die Streuung oder Variabilität einer zufälligen Größe wie etwa die geworfene Augenzahl einer Folge von 50 Würfen mit einem Würfel wird in der Mathematik durch die sogenannte Varianz „gemessen“. Wenn man nun dieses Würfel-Experiment mit 2 Würfeln durchführt (und damit den Ausbau der Windkraft in dieses Experiment einbezieht, weil mit mehr Würfeln gewürfelt wird) und die Summe der Augenzahlen bildet und die Streuung dieser Summe betrachten, zeigt sich, dass die Streuung (und die Varianz!) der Summe steigt und nicht sinkt. Diese Aussage ist evident, weil die Zahlen bei einem Würfel zwischen 1 und 6, bei zwei Würfen zwischen 2 und 12 schwanken. Dahinter verbirgt sich der Additionssatz für die Varianz der mathematischen Statistik. Er besagt, dass sich die Varianz einer Summe zufälliger Zahlen als Summe der Varianzen der einzelnen Zufallszahlen ergibt. Mit jedem weiteren Summanden steigt die Varianz und damit die Streuung und letztlich die Variabilität.

Die Schlussfolgerung an dieser Stelle lautet zweifelsfrei:

Ein Ausbau der Windkraft erhöht die Streuung der Einspeisung. Die von IWES- Wissenschaftlern aufgestellte Behauptung zur Glättung steht im klaren Widerspruch zu eindeutigen Sätzen der mathematischen Statistik. Die Behauptung ist schlicht falsch!

Wird die Einspeisung durch den Ausbau der Windkraft verstetigt?

Betrachtet man die Frage der gegenseitigen Ergänzung von Windkraftanlagen zu einer „Verstetigung“ der Einspeisung, muss etwas genauer hingesehen werden. Die tieferen Zusammenhänge aus der mathematischen Statistik sind allerdings „etwas kniffliger“ (neudeutsch: more sophisticated): Das geschilderte Würfel-Experiment wollen wir nun mit 3, 4, 5 und schließlich mit einer sehr großen Zahl an Würfeln durchführen und die Summe der geworfenen Augenzahlen dabei betrachten. Diese Summe wollen wir in Gedanken bilden, weil die Einspeisungen aller einzelnen Windkraftanlagen in unserem Verbundnetz völlig analog in jedem Augenblick addiert werden. Wenn wir dieses Experiment mit 50 Würfeln durchführen sind folgende Aussagen unmittelbar klar: 

  • Als Summe wird sich sehr selten die Zahl 50 oder 300 ergeben, weil es sehr unwahrscheinlich ist, dass 50 Mal die Augenzahl 1 oder 6 fallen wird,
  • Die Zahl 175 wird häufig vorkommen, weil es viele Kombinationen aus Augenzahlen gibt, die zu der Summe von 175 führen.

Abbildung  SEQ Abbildung * ARABIC 1 Summe der Augenzahlen bei 50 Würfeln 

Wertet man die Häufigkeitsverteilung dieser Summe aus, stellt man fest, dass diese Summe ungefähr entsprechend der bekannten Normalverteilung nach Gauß verteilt ist. Diese

Erkenntnis ist die Aussage eines fundamentalen Satzes der mathematischen Statistik, des sogenannten „Zentralen Grenzwertsatzes“. Er besagt folgendes: Bildet man die Summe aus einer großen Anzahl zufälliger Zahlen, dann folgt diese Summe einer Normalverteilung umso genauer, je größer die Anzahl der Summanden ist. Beim beschriebenen Würfelexperiment wird also die Summe der Augenzahlen um den Wert 175 schwanken, der kleinste Wert kann 50, der größte Wert kann 300 sein. Würde man die Summe der Augenzahlen als die aus 50 einzelnen Einspeisungen gebildete Summe der Einspeise-Leistungen auffassen, so kann zunächst die Aussage getroffen werden, dass diese gedachte zufällige „Leistung“ grundlastfähig ist, schließlich fällt sie praktisch nie auf den Wert Null ab und schwankt um einen Mittelwert. Der aus 50 Würfen nacheinander gebildete Verlauf der Summe ist in Abbildung 1 dargestellt. Man  erkennt, dass die Summen-Augenzahl um einen Mittelwert schwankt und praktisch nie auf kleine Werte abfällt.

Abbildung  SEQ Abbildung * ARABIC 2 Tatsächliche Einspeisung der Windkraftanlagen in Deutschland 

Nun bildet das elektrische Netz in Deutschland die Summe der Einspeisungen aus 24000 Windkraftanlagen. Die Anzahl dieser Summanden übersteigt also statistisch die hier verwendete Zahl von 50 Würfeln um Größenordnungen. Aufgrund des vorgenannten Würfel-Experiments ist also zu erwarten, dass die Summe der Einspeisungen auf einen gleichmäßigen Kurvenverlauf führt, der dem in Abbildung 1 zumindest ähneln müsste.

Das ist ohne jeden Zweifel nicht der Fall: Der Verlauf der Einspeisung zeigt das bekannte Schwankungsverhalten mit den extremen Ausschlägen der eingespeisten Leistung. Darüber hinaus folgt die Summeneinspeisung aller Windkraftanlagen Deutschland nicht der Normalverteilung nach Gauß (Abbildung 3). Damit steht der Verlauf der tatsächlichen Einspeiseleistung zunächst sehr augenscheinlich im Widerspruch zu den Aussagen, die der Zentrale Grenzwertsatz der mathematischen Statistik für die eingespeiste Windleistung erwarten ließe

Die Übertragung der Resultate aus dem einfachen Würfelexperiment auf die Summeneinspeisung der Windkraftanlagen ist ganz offensichtlich ungerechtfertigt. 

Worin liegt nun der Fehler?

 Zunächst ist die eingespeiste Leistung eines einzelnen Windrads anders verteilt als die Augenzahl beim Würfeln. Letztere ist gleichmäßig verteilt, d. h. jede Augenzahl ist gleich wahrscheinlich = 1/6, entsprechend einer Wahrscheinlichkeit von 16,67%. Bei einem Windrad sind kleine Leistungen sehr viel wahrscheinlicher als große. Das ist allerdings nicht der Grund für die Abweichung der Kurvenverläufe, schließlich kann man den „Zentralen Grenzwertsatz“ der Statistik auf jede Art von Verteilung verallgemeinern.[1]

Der Unterschied zwischen dem Würfelversuch mit 50 Würfeln und der Addition der Einspeisungen aus 24000 (!) Windrädern besteht darin, dass die geworfene Augenzahl eines jeden Würfels mit der eines anderen Würfels „nichts zu tun hat“. Die geworfenen Augenzahlen aller Würfel sind in statistischem Sinne unabhängig voneinander. Diese Aussage gilt für die Einspeisungen der einzelnen Windräder nicht, weil die Windgeschwindigkeit an den verschiedenen Windradstandorten bei praktisch jeder Wetterlage in großen Flächen ähnlich ist, d. h. die einzelnen Einspeisungen sind nicht statistisch unabhängig voneinander. Wenn der Wind im Norden von Hessen stark weht, ist das praktisch immer auch im Süden von Hessen der Fall. Diese Aussage ist bei der üblichen Größe von Tiefdruckgebieten auch naheliegend und gilt sinngemäß für jedes Bundesland. Diese simple Tatsache bewirkt, dass hohe ebenso wie niedrige Einspeisungen praktisch immer gleichzeitig in großen Flächen auftreten. Man sagt, die Einspeisungen sind untereinander korreliert, d. h. im großflächigen Umfeld einer stichprobenartig gewählten Referenzanlage kann man die Einspeisungen aller Anlagen auf diese eine Referenzanlage zurückführen. Wenn man die eingespeiste Leistung einer Referenzanlage kennt, kann man also die Leistungen aller Anlagen im großflächigen Umfeld aus der Leistung der Referenzanlage mit hoher Wahrscheinlichkeit ermitteln. Diese Tatsache ist der Inhalt der statistischen Korrelation. Für die gesamte Fläche von Deutschland entspricht also jede Referenzanlage im statistischen Sinne gerade einem Würfel aus dem Würfelexperiment, womit die Frage gestellt ist, durch wie viele Referenzanlagen die Einspeisung in Deutschland dargestellt, also verstanden werden kann. Diese Zahl bemisst die Intensität der Korrelation. Ist diese Zahl klein, so ist die Korrelation stark ausgeprägt, ist diese Zahl groß, ist die Korrelation eher schwächer. Das Würfelexperiment hat gezeigt: Je größer diese Zahl, desto besser können die Einspeisungen sich untereinander ausgleichen. Ist diese Zahl jedoch klein, ist ein gegenseitiger Ausgleich der Einspeisungen zwar grundsätzlich möglich, die Leistungen können aber immer wieder auf sehr kleine Werte absinken, weil es bei weniger als 5 unabhängigen Referenzanlagen häufig vorkommt, dass die Einspeisung aller Anlagen auf sehr kleine Werte absinkt. In diesem Fall ist die Summeneinspeisung prinzipiell nicht grundlastfähig. In diesem Zusammenhang haben Windkraftanlagen ein weiteres Problem: Niedrige Leistungen kommen sehr häufig vor, sind also sehr wahrscheinlich, hohe Leistungen sind selten, sind also eher unwahrscheinlich. Diese Tatsache schlägt sich dann in der Häufigkeitsverteilung der Summeneinspeisung nieder, die in Abbildung 3 dargestellt ist.

Abbildung  SEQ Abbildung * ARABIC 4 Häufigkeit der tatsächlichen und der aus 3 Referenzanlagen berechneten Einspeisung

Diese Verteilung ist ohne jeden Zweifel nicht nach Gauß normalverteilt, woraus unmittelbar gefolgert werden kann, dass zu deren Analyse eine kleine Anzahl unabhängiger Referenzanlagen ausreicht.

Es lässt sich nachweisen, dass diese  „kleine Anzahl“ lediglich bei 3 liegt, d. h. die gesamte Summeneinspeisung in Deutschland kann auf nur 3 Referenzanlagen zurückgeführt werden. Dieser Zusammenhang ist in Abbildung 4 dargestellt. Die Einspeisungen aller Anlagen sind also untereinander hochgradig korreliert. Obgleich also diese 3 Referenzanlagen  untereinander nicht korreliert sind, können alle 23997 restlichen Anlagen auf diese 3 Referenzanlagen zurückgeführt werden. Die in der genannten Agora Studie auf Seite 13 veröffentlichte Erkenntnis, „dass Anlagen an verschiedenen Standorten sich ergänzen können“ ist sicher korrekt, gleichwohl folgt daraus nicht, dass sich die unterschiedlichen Einspeisungen zu einer Grundlast ergänzen. Wie man in der Mathematik sagt, ist die Bedingung der statistischen Unabhängigkeit zweier Einspeisungen für die Grundlastfähigkeit zwar notwendig, aber nicht hinreichend.

Es kommt nicht darauf an, ob sich einzelne Anlagen an unterschiedlichen Standorten untereinander ergänzen können (also statistisch unabhängig voneinander sind), sondern wie groß die Zahl der Anlagen ist, die an verschiedenen Standorten statistisch unabhängig voneinander sind. Wenn sich die Summeneinspeisung aller Anlagen in Deutschland aktuell auf nur 3 statistisch unabhängige Referenzanlagen zurückführen lässt, kann vernünftigerweise nicht erwartet werden, dass die Anzahl der Referenzanlagen und damit der statistisch unabhängigen Einspeisungen durch den Zubau an Anlagen wesentlich anwachsen wird.

Ein Ausbau der Windkraft kann aufgrund der erwiesenermaßen ausgeprägten Abhängigkeit der Einspeisungen untereinander nicht zu einer Verstetigung der Leistung führen. Die vom IWES im Auftrag von Agora aufgestellte Behauptung wäre zwar wünschenswert, erweist sich aber als unzutreffend und widerspricht dem Zentralen Grenzwertsatz, einem fundamentalen Satz der mathematischen Statistik, der schon 1922 von dem Mathematiker Lindeberg bewiesen wurde.

Fazit:

  

1.     Aufgrund von fundamentalen Sätzen der mathematischen Statistik ist die summarische Einspeisung aus Windkraftanlagen in der Fläche von Deutschland prinzipiell nicht grundlastfähig. Der Ausbau der Windkraft in unserem Land kann und wird daran nichts Wesentliches ändern.

    • 2.     Die Leistungsspitzen werden durch den Ausbau der Windkraft weiter ansteigen und die bekannten Probleme der Überproduktion von nichtverwertbaren Strom mit Auswüchsen wie den sogenannten Negativpreisen an der Börse weiter verschärfen.

      3.     Es gibt keine großtechnisch verfügbare effiziente Speichertechnologie zur Nutzung der ansteigenden Leistungsspitzen, so dass das Stromnetz ohne Kraftwerke im Hintergrund nicht betrieben werden kann. Hierbei ist es völlig gleichgültig, ob diese mit Gas, Braun- oder Steinkohle betrieben werden. Der Ausstieg aus den Kernkraftwerken erzwingt einen Ausbau der konventionellen Kraftwerke. Die mit der Stromproduktion verbundenen Kohlendioxid-Emissionen werden ansteigen und nicht sinken.


    [1] Für den Fachmann: In der mathematischen Literatur ist diese Aussage als Ljapunov- Bedingung bekannt.




    Geld umsonst! Alles, was man dafür tun muss: sich als ‚Klima-Opfer‘ gerieren

    Steyer hat dieses Geld offensichtlich durch den Verkauf seiner Anteile an Kinder Morgan erhalten, eines großen Ölunternehmens in Texas. http://www.kindermorgan.com

    Steyer hat auch bedeutende Beträge für die Wahlkampagne der Demokraten locker gemacht, um bei den kommenden Wahlen zum Senat gegen die Kandidaten der Republikaner bestehen zu können.

    Unabhängig davon, dass ich mich frage, ob mein „klimabezogener“ Angst-Tick mich schon für eine Zuwendung qualifiziert (http://wattsupwiththat.com/2013/01/17/one-benefit-of-the-australian-heat-wave/), führt mich Steyers neuer Fonds zu einer interessanten Frage über amerikanische Politik:

    Ist es in Ordnung, wenn große Mengen Öldollar amerikanische Politik beeinflusst, solange dieses Ölgeld dafür ausgegeben wird, den Kandidaten der Demokraten zu helfen?

    Quelle: http://sacramento.cbslocal.com/2014/06/06/california-billionaire-promises-to-help-victims-of-global-warming/

    ————————————————————————————————-

    Ich frage mich, ob ich etwas von dem Geld bekommen kann, weil ich ein Opfer des täglichen Klima-Missbrauchs durch Miriam O’Brien alias „Sou/Hotwhopper“ bekommen könnte. Sicher hat Steyer auch etwas für Opfer verrückter Klima-Stalker im Internet übrig. – Anthony Watts

    Link: http://wattsupwiththat.com/2014/06/07/free-money-all-you-have-to-do-is-to-be-a-climate-victim/

    Übersetzt von Chris Frey EIKE




    Die Geburt der „Energiewende“ aus der katholischen Häresie

    Der „Leugnerszene“ gehe es nicht um Erkenntnisgewinn, sondern um das Pflegen vorgefasster Meinungen. Das zeige sich schon daran, dass EIKE keinen einzigen wissenschaftlichen Angestellten beschäftigt. Tatsächlich beschäftigt EIKE als ausschließlich durch Mitgliedsbeiträge und kleine Privatspenden finanzierter eingetragener Verein überhaupt keine Angestellten. Die Mitglieder von EIKE sehen sich aufgrund ihrer langjährigen Erfahrung als Wissenschaftler und Ingenieure aber sehr wohl imstande, die offiziellen Verlautbarungen der Klimapolitik auf ihre Stichhaltigkeit zu überprüfen und vor der mutwilligen Zerstörung eines bislang zuverlässig funktionierenden Systems der Stromversorgung durch die massive Subventionierung zufallsabhängiger „Erneuerbarer“ zu warnen.

    Warum übernimmt ausgerechnet ein katholisches Hilfswerk die Rolle einer Speerspitze gegen den gesunden Menschenverstand? Bekanntlich spielte der neue Vorsitzende der Deutschen Bischofskonferenz (DBK), der Münchner Erzbischof Kardinal Reinhard Marx, eine maßgebliche Rolle in der von Angela Merkel im März 2011 zur Begründung des überstürzten „Atomausstiegs“ nach dem Reaktorunglück von Fukushima eingesetzten „Ethikkommission“. Wer die Klimapolitik seit ihren Anfängen gegen Ende der 80er Jahre des vergangenen Jahrhunderts verfolgt hat, wird davon nicht überrascht sein. Das bischöfliche Hilfswerk MISEREOR spielte, genau genommen, sogar die Rolle eines Geburtshelfers der deutschen Energiewende. Um die Mitte der 90er Jahre sponserte MISEREOR zusammen mit dem Naturschutzverband BUND die am Wuppertal Institut für Klima-Umwelt-Energie GmbH erstellte Studie „Zukunftsfähiges Deutschland“, erschienen 1996 im Birkhäuser Verlag, Basel. Dieses 450 Seiten starke Buch wurde rasch zur Bibel der deutschsprachigen Öko-Bewegung. Denn es enthält die Begründung der Forderungen nach einem vollständigen „Atomausstieg“ bis 2010, nach der Verminderung des Primärenergieeinsatzes um mindestens 50 Prozent und der Reduktion des CO2-Ausstoßes um 80 bis 90 Prozent bis zum Jahre 2050. Schon bis 2010 sollten überdies Land- und Forstwirtschaft flächendeckend auf „Öko“ umgestellt sein – ohne auch nur anzudeuten, wie man die wachsende Weltbevölkerung ohne den Einsatz von synthetischem Stickstoffdünger ernähren könnte.

    International fordert die Wuppertal-Studie einen „Ausgleich zwischen Norden und Süden“. Was darunter zu verstehen ist, hat der Ex-Jesuit Prof. Dr. Ottmar Edenhofer, heute Chefökonom des Potsdam Instituts für Klimafolgen-Forschung und Ko-Vorsitzender der Arbeitsgruppe III des IPCC, im Herbst 2010 in einem Interview mit der Neuen Zürcher Zeitung unumwunden ausgesprochen: „Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist“, erklärte Edenhofer. Um den Anstieg der Durchschnittstemperatur der Erde auf zwei Grad Celsius zu begrenzen, dürften die Menschen bis zum Ende des 21. Jahrhunderts höchstens noch 750 Gigatonnen CO2 freisetzen. Eine Welt-Kohlenstoffbank müsse den Einsatz kohlenstoffhaltiger Rohstoffe über den CO2-Zertifikate- beziehungsweise Ablass-Handel und die Subventionierung so genannter erneuerbarer Energien dem entsprechend rationieren. Edenhofer erhielt übrigens für seine Arbeit in den Jahren 2007 bis 2010 von MISEREOR einen Zuschuss von 520.000 Euro. Da stört natürlich der Einwand, dass es bis heute keine einzige wissenschaftliche Untersuchung gibt, die einen nennenswerten Einfluss der CO2-Konzentration auf die Durchschnittstemperatur der Erde belegen könnte. Von daher versteht sich der Eifer, mit dem die geistigen Wegbereiter des deutschen Energiewende-Abenteuers versuchen, ihre Kritiker moralisch in ein schiefes Licht zu rücken und mundtot zu machen.

    Dass die Verteufelung des CO2 wenig mit Wissenschaft und dafür umso mehr mit Religion zu tun hat, ist inzwischen beinahe zum Gemeinplatz geworden, zumal der auffällige Eifer deutscher Bischöfe in Sachen „Klimaschutz“ und Energiewende diesen Eindruck sicher nicht dementiert. So hat nun ein deutscher katholischer Theologe bestätigt: „Der Klimadiskurs ist mehr ein ethisch-spiritueller als ein naturwissenschaftlich-technischer Diskurs. (…) Es geht nicht primär um Klimadaten und deren Deutung, sondern um Weltanschauungen und Wertorientierungen.“ Das schreibt Michael Rosenberger, Professor für Moraltheologie an der Katholisch-Theologischen Privatuniversität im oberösterreichischen Linz, in der humanökologischen Fachzeitschrift GAiA, die unter anderem als Organ der Deutschen Gesellschaft für Humanökologie (DGH) fungiert. Rosenberger sieht in der in Deutschland über Jahrzehnte geschürten Angst vor Radioaktivität, Ressourcenerschöpfung und katastrophalen Klimaveränderungen eine moderne Form der Gottesfurcht, die nach dem Alten Testament der Bibel als die Mutter der Weisheit gilt. Er hält deshalb die den Forderungen nach einer radikalen „Wende“ beziehungsweise „Großen Transformation“ zugrunde liegende apokalyptische Argumentation für vollauf gerechtfertigt. „Angst rüttelt wach, reine Vernunft schläfert ein“, schreibt er. „Klimaschützerische Positionen wollen aus diesem Grund gezielt und mit guten Gründen Angst wecken.“

    Als praktizierender Katholik bestreite ich selbstverständlich nicht, dass die Gottesfurcht die Mutter der Weisheit ist. Sie dient aber in erster Linie dazu, die Menschen Demut zu lehren und sie vor Dummheit infolge von Überheblichkeit zu bewahren. Ich halte deshalb die deutsche Energiewende im Hauruck-Verfahren, weil auf Wissensanmaßung beruhend, für eine weitaus größere Hybris als das von Rosenberger moralisch verurteilte Business as usual, das mir vergleichsweise bescheiden vorkommt, zumal es, wie jeder aus dem Geschäftsleben wissen sollte, durchaus laufende Verbesserungen und auch größere Innovationen einschließt. Diese müssen sich aber, im Unterschied zu politisch dekretierten Festlegungen, auf dem Markt bewähren. Wie die Gottesfurcht, davon bin ich mit Friedrich A. von Hayek überzeugt, kann auch der Markt die Menschen demütig machen.

    Allerdings ist die Demutsforderung beileibe nicht die Kernbotschaft der Bibel. Worin diese besteht, hat meines Erachtens am klarsten der französisch-amerikanische Anthropologe René Girard herausgearbeitet. Ausgehend von literarischen Zeugnissen und von ethnologischen Forschungen kam Girard zur Erkenntnis, dass die Bibel neben der frohen Heilsbotschaft auch den Schlüssel für die wissenschaftliche Erklärung des Ursprungs der Kultur enthält: Wir sind alle Nachkommen Kains, besitzen also einen angeborenen und weitgehend unbewussten Hang, uns ständig mit anderen vergleichen und einander übertreffen zu wollen, was zu konkurrierenden Macht- und Besitzansprüchen führen muss. Physiologische Grundlage dieses Mimetismus sind die so genannten Spiegelneurone.

    Der Ursprung aller Kultur und letztlich auch des Staates liegt nach René Girard in Menschenopfern und Kannibalismus. Er kann sich dabei auch auf Sigmund Freuds Abhandlung „Totem und Tabu“ (1913) berufen, wo dieser Befund allerdings ganz anders interpretiert wird. Alle Ursprungs-Mythen spielen in der einen oder anderen Weise auf den blutigen Ursprung der menschlichen Kultur an. Schon in den Stammesgemeinschaften von Jägern und Sammlern konnten Neid und Zwietracht nur besänftigt und damit die Selbstzerstörung der Gemeinschaft verhindert werden, indem von Zeit zu Zeit Sündenböcke ausgeguckt und geopfert wurden. Das konnten gefangen genommene Angehörige feindlicher Stämme, aber auch Angehörige des eigenen Stammes sein. Das Töten geschah mit gutem Gewissen. Das heißt die Opfer wurden unreflektiert als schuldig betrachtet. In hoch differenzierten Sklavenhalter-Staaten wie im alten Rom oder bei den Azteken in Mexiko wurden Menschenopfer in Form von Gladiatorenkämpfen oder priesterlichen Zeremonien vor großem Publikum ritualisiert. Schon die Versklavung an sich ist eine Form des Kannibalismus, denn die Sklaven wurden ja im römischen Recht nicht als Menschen betrachtet, sondern wie das Vieh als Sache. Einen Fortschritt aus heutiger Sicht stellte da sicher der Ersatz von Menschen- durch Tieropfer bei den Juden dar.

    Das Christentum geht noch einen entscheidenden Schritt weiter, indem es den unbewussten Mechanismus des Auswählens und Hinrichtens von Sündenböcken als Mord an Unschuldigen denunziert. Mit seinem Opfertod am Kreuz, so die Aussage der Bibel, hat Jesus als unschuldiges Opferlamm stellvertretend für alle Sünden der Welt gebüßt und die Menschen vom Fluch Kains erlöst. Weitere Menschen- und Tieropfer sind danach im Prinzip überflüssig. Die Christen sind aufgefordert, Jesu Nachfolge anzutreten, indem sie den unbewussten Mechanismus der Suche nach Sündenböcken in der Eucharistie überwinden. Die heilige Kommunion, so Girard, ist tatsächlich sublimierter Kannibalismus.

    Allerdings standen die Christen schon in der Spätantike ständig in Versuchung, in das alte Denken zurück zu fallen und nach Sündenböcken zu suchen. In denke hier an verschiedene Formen des letztlich materialistischen Manichäismus, mit dem sich schon der heilige Augustinus auseinandergesetzt hat. Im Mittelalter traten immer wieder häretische Sekten auf, die die starre Einteilung der Welt in Gut und Böse bis zu selbstmörderischen Konsequenzen trieben. Erinnert sei hier nur an die von Hitler und den Nazis bewunderten Katharer.

    Das Gute in der Welt ist für die Katharer der von Gott geschaffene Geist. Die Materie ist hingegen eine Schöpfung Satans, des Gottes der Finsternis. Deshalb glaubten die Katharer weder an die Menschwerdung und den Opfertod des Gottessohnes am Kreuz noch an die Möglichkeit der leiblichen Auferstehung Toter. Das heißt, sie leugneten die Kernbotschaft der Bibel. Die Erlösung, das Endziel der Geschichte sahen die Katharer in der Auslöschung alles Leiblichen, das heißt im Selbstmord der Menschheit. Sie untersagten deshalb ihren Anhängern den Fleischgenuss und bekämpften die katholische Kirche mit allen ihnen zur Verfügung stehenden Mitteln. Auch der ebenfalls von Hitler bewunderte Islam muss hier angeführt werden. Er leugnet ebenfalls den Sühnetod Jesu und verdankt seine rasche Ausbreitung Menschenopfern und der Versklavung unterworfener Völker. Es liegt nahe, auch in der aktuellen Verteufelung des Lebenselixiers CO2 eine Form des suizidalen Manichäismus zu sehen. Jedenfalls tat das der australische Kardinal George Pell, als er im Jahre 2007 auf einer im Vatikan veranstalteten nichtöffentlichen Klima-Konferenz erklärte:  „In der Vergangenheit opferten die Heiden Tiere und mitunter auch Menschen, um grausame Götter zu besänftigen. Heute verlangen sie eine Reduktion des CO2-Ausstoßes."  

    Leider nahm Papst Benedikt XVI. nicht an dieser Konferenz teil. Er hätte, wie seine Ansprache vor dem Deutschen Bundestag im September 2011 zeigt, durchaus Erhellendes zu einer christlich begründeten Ökologie des Menschen beitragen können. Außerdem hat er in seiner Jesus-Trilogie unmissverständlich die Utopie der nachhaltigen Entwicklung verurteilt. „Wer behauptet, er könne die heile Welt errichten, der stimmt dem Betrug Satans zu“, schrieb er dort im Band 1. Es spricht Bände, dass ein hörbares Aufatmen durch die Reihen der DBK ging, als Papst Benedikt schließlich Ende Februar 2013 wegen Erschöpfung zurücktrat.

    Tatsächlich geht auch die aktuelle manichäische Häresie der Verteufelung des CO2 mit der Hinnahme von Menschenopfern einher. Die durch das Vergären oder Verheizen von Nahrungspflanzen wie Mais und Weizen zum Zwecke der Erzeugung „erneuerbarer“ Energie ausgelöste Konkurrenz zwischen Tank und Teller führt zur Verteuerung von Nahrungsmitteln und dadurch unmittelbar zu sinkenden Überlebenschancen für die Ärmsten der Armen. Aber auch wenn „Skeptiker“ als unmoralisch diffamiert und sozial ausgegrenzt werden, handelt es sich im Kern um einen Rückfall in vorchristliche Denkweisen mit potenziell kannibalischen Konsequenzen. Besonders deutlich wird das bei der jüngsten Initiative von Greenpeace International, dem WWF und dem Center for International Environmental Law, Manager der Kohlenstoff basierten Kraftstoff-Industrie persönlich haftbar zu machen, wenn sie „Klimaskeptiker“ argumentativ und finanziell unterstützen. 

    Literatur:

    Toralf Staud: Zweifel ist unser Produkt, in: MISEREOR – Das Magazin 2014, pp. 33-39

    Zukunftsfähiges Deutschland. Beitrag zu einer global nachhaltigen Entwicklung. Hrsg. BUND und Misereor. Birkhäuser Verlag, Basel 1996

    Michael Rosenberger: Die Ratio der „Klima-Religion“. Eine theologisch-ethische Auseinandersetzung mit klimaskeptischen Argumenten, in: GAiA 23/2 (2014), pp. 93-99

    René Girard: Les origines de la culture. Librairie Arthème Fayard/Pluriel, Paris 2010

    Sigmund Freud: Totem und Tabu. Fischer-Bücherei, Frankfurt am Main und Hamburg 1956

    Igor R. Schafarewitsch: Der Todestrieb in der Geschichte. Ullstein Verlag, Frankfurt/M.-Berlin-Wien 1980

    Joseph Ratzinger: Jesus von Nazareth. Erster Teil. Von der Taufe im Jordan bis zur Verklärung. Verlag Herder, Freiburg-Basel-Wien 2007

    Ansprache von Papst Benedikt XVI. vor dem Deutschen Bundestag

    Edgar L. Gärtner: Papst Benedikts überhörte Mahnungen

    Executivs facing climate denial related claims could could be personally reliable




    Ist es die Sonne, Dummkopf?

    Änderungen der Sonneneinstrahlung sind gering in relativen Zahlen und machen nur etwa 0,1% des Outputs der Sonne aus – ‚Solarkonstante‘ genannt. Aber diese 0,1% in absoluten Zahlen sind gewaltig angesichts der Größe der Solarkonstante – also der von der Sonne kommenden Energiemenge. In realer Hinsicht hat sie eine Auswirkung über den 11-jährigen Sonnenzyklus, der etwa gleich ist dem Antrieb durch Änderungen von Treibhausgas-Konzentrationen (hier) im gleichen Zeitraum.

    Oftmals kommt dies als Überraschung für alle, die automatisch solare Einflüsse in Abrede stellen. Es gibt jedoch einen qualitativen Unterschied zwischen solaren Antrieben und Treibhausgas-Antrieben.  Die Sonne ist zyklisch – auf und ab – während der Antrieb durch Treibhausgase monoton zunimmt. Solare Variationen sind also kurzfristige Fluktuationen auf einem langzeitlichen Trend zu höheren Temperaturen auf der Erde.

    Es sei den, die Solarkonstante weist einen langzeitlichen Trend auf.

    Die Abschätzung des Wertes der Solarkonstante vor Beginn von Messungen aus dem Weltall ist schwierig und Gegenstand großer Unsicherheiten. Wir wissen, dass die Solarkonstante variiert und bis zu einem gewissen Grad seit der Kleinen Eiszeit zugenommen hat.

    Eine Möglichkeit, den Output der Sonne zu schätzen, ist dessen Verbindung mit der Anzahl von Sonnenflecken, deren Aufzeichnungen bis zum Jahr 1609 zurückreichen. Sonnenfleckenzahlen zeigen den 11-jährigen Sonnenzyklus ebenso wie das Maunder-Minimum zwischen 1640 und 1720 (zusammenfallend mit der Kleinen Eiszeit) und das so genannte Grand Solar Maximum des 20. Jahrhunderts, als die Sonnenflecken-Aktivität geschätzt wurde als die höchste seit vielen tausend Jahren. Eine Analyse der Sonnenfleckenzahlen als Indikator solarer Aktivität zeigt Spitzenwerte in den fünfziger und achtziger Jahren.

    Man könnte einfach die zunehmende Sonnenflecken-Aktivität mit den steigenden globalen Temperaturen korrelieren – und siehe da, es zeigt sich die Verbindung. Aber ob dies für viele Wissenschaftler akzeptabel ist oder nicht – hauptsächlich in UK und den USA – hängt davon ab, wie man es macht.

    Falls man es so macht wie die chinesischen Wissenschaftler und eine Korrelation findet (zwischen Solar-Gesamtstrahlung und globaler Temperatur; Bild oben rechts), wird das als zweifelhaft angesehen. Falls man jedoch zum gegenteiligen Ergebnis kommt, könnte die Aufnahme ziemlich gegensätzlich sein.

    Ein Beispiel hierfür ist eine inzwischen infame, vor ein paar Jahren geschriebene Studie. Sie wurde geschrieben, als es gerade die ersten Anzeichen gab, dass sich die Sonne von der großen Stärke [grand high] der Aktivität des 20 Jahrhunderts zu entfernen begann. In der Studie ging es um die steigende Temperatur der Erde und die steigende und dann wieder fallende Sonnenaktivität. Motto: Weil die Sonnenaktivität zurückgeht und die Temperatur der Erde immer noch steigt, gibt es keine Korrelation. Es war eine Studie, die gerade zu der Zeit durchgeführt worden war, als der Stillstand hinsichtlich der globalen Temperatur erkannt wurde. Falls heutzutage eine ähnliche Analyse mit aktuellen Daten durchgeführt werden würde, wäre man zum gegenteiligen Ergebnis gekommen.

    Aber wenn die Möglichkeit einer Verbindung zwischen Änderungen der Sonnenaktivität und des Erdklimas auftaucht, können Korrelationen zwischen sich ändernden Solarparametern und der globalen Temperatur Verdacht erwecken. Wahr ist, wenn man einer Reihe von Beobachtungen gegenüber steht, wird eine der ersten Fragen eines Wissenschaftlers lauten, mit was korrelieren diese Beobachtungen? Die chinesischen Wissenschaftler haben uns wieder einmal gezeigt, dass es eine Korrelation zwischen Sonnenaktivität und globaler Temperatur über lange Zeiträume gibt. Gegenwärtig ist dies für einige eine unbequeme Tatsache und eine solche, dir wir nicht wirklich erklären können.

    Feedback: david.whitehouse@thegwpf.org

    Link: http://www.thegwpf.org/is-it-the-sun-stupid/

    Übersetzt von Chris Frey EIKE




    Ein Vergleich des Verlaufs der Temperaturvorhersagen der IPCC Berichte 1 bis 5

    Das IPCC hat inzwischen 5 grundlegende Berichte veröffentlicht, zum ersten Mal den FAR im Jahre 1990. Dies bietet Gelegenheit, einmal zu schauen, was vorhergesagt worden und was tatsächlich geschehen war. Die Untersuchung vergangener Berichte in dieser Hinsicht ist ziemlich erhellend, da sie enthüllen, was das IPCC während der letzten 24 Jahre gelernt hat.

    Ich komme zu dem Ergebnis, dass nichts gelernt worden ist außer zu verschleiern, in die Irre zu führen und zu betrügen.

    [Bildinschrift: Abbildung 8: Simulation der Zunahme der mittleren globalen Temperatur von 1850 bis 1990 infolge zunehmender Treibhausgase sowie Vorhersagen des Anstiegs von 1990 bis 2100 bei ‚Business as Usual‘-Emissionen]

    Abbildung 1: Temperaturvorhersagen aus dem FAR (1990). Ist dies die beste Vorhersage, die das IPCC jemals ausgegeben hat? In der Bildunterschrift heißt es klar und deutlich, dass jedem Modell das gleiche Emissions-Szenario zugrunde liegt. Folglich beruhen die Unterschiede zwischen ‚Low-, Best- und High‘-Schätzungen auf unterschiedlichen physikalischen Hypothesen wie der Klimasensitivität von CO2. Durch das Konstant-Halten der Schlüsselvariablen (CO2-Emissions-Trajektorie) wird es dem Leser ermöglicht zu erkennen, wie unterschiedlich wissenschaftliche Beurteilungen zu Buche schlagen. Das ist der richtige Weg, dies zu tun. Alle Modelle haben den Startzeitpunkt 1850 und zeigen bereits bis zum Jahr 2000 eine signifikante Divergenz. Wie verhält sich dies im Vergleich zu dem, was eingetreten war, und zur nachfolgenden Arbeit des IPCC?

    Mir ist klar, dass viele andere genau dies schon zuvor getan haben, und zwar viel differenzierter als ich das hier tun werde. Das beste Beispiel hierfür, das mir bisher untergekommen ist, stammt von Roy Spencer (1), der die folgende ausgezeichnete Graphik erzeugt hat, die jedoch auch einige Kritik auf sich gezogen hat.

    Abbildung 2: Vergleich der multiplen IPCC-Modelle mit der Realität, zusammengestellt von Roy Spencer. Die Tatsache, dass sich die Realität entlang der unteren Grenze der Modelle bewegt, wurde von IPCC-Skeptikern schon oft belegt. Die einzigen Wissenschaftler, die aus dieser Realität geflohen zu sein scheinen, sind die mit dem IPCC Verbundenen.

    Mein Verfahren ist viel einfacher und gröber. Ich habe einfach IPCC-Graphiken via copy and paste in große Karten kopiert, wo ich die IPCC-Vorhersagen vergleiche mit Temperatur-Rekonstruktionen von HadCRUT4. Wie wir sehen werden, hat das IPCC ein außerordentlich laxes Verfahren hinsichtlich der Temperaturbestimmungen, und in jedem Beispiel muss eine unterschiedliche Adjustierung von HadCRUT4 vorgenommen werden, um es mit dem IPCC-Rahmen vergleichbar zu machen.

    Abbildung 3: Vergleich der Temperaturvorhersagen aus dem FAR (1990) mit HadCRUT4. Diese Daten wurden heruntergeladen von der Site von WoodForTrees (2) und dann das jährliche Mittel berechnet.

    Abbildung 3 zeigt, wie die Temperaturvorhersagen aus dem FAR (1990) im Vergleich zur Realität aussehen. Es ist ziemlich eindeutig, dass das beste Modell das untere Modell ist. Ich habe Schwierigkeiten, die Parameter zu finden, die für die Definitionen von Low, Best und High gemacht worden waren, aber der Bericht stellt eine Bandbreite von Klimasensitivitäten zwischen 1,5 und 4,5°C fest. Eindeutig liegt das Low-Modell der Realität von HadCRUT4 am Nächsten. Das High-Modell ist bereits im Jahre 2013 um 1,2°C zu warm.

    Abbildung 4:Im Dritten Zustandsbericht TAR (2001) wurde der Hockeyschläger eingeführt. Die gemessene Temperaturaufzeichnung wird aufgeteilt in eine Proxy-Aufzeichnung, die Modell-Aufzeichnung in einen gemessenen Anteil, und es wird keine Gelegenheit angeboten, den Wahrheitsgehalt der Modelle zu untersuchen. Aber seitdem sind 13 Jahre vergangen, und wir können sehen, wie die Realität im Vergleich zu den Modellen nach diesem sehr kurzen Zeitraum aussieht.

    Ich konnte keine Zusammenfassung des Zweiten Zustandsberichtes (SAR) aus dem Jahr 1994 finden und bin daher gleich zum Dritten Zustandsbericht TAR (2001) gesprungen. Ich glaube, dass dies das Jahr war, in dem der Hockeyschläger das Licht der Welt erblickte. In der imaginären Welt des IPCC waren die Temperaturen auf der Nordhemisphäre von 1000 bis 1900 konstant verlaufen ohne die geringste Spur der Mittelalterlichen Warmzeit oder der Kleinen Eiszeit, wo die wirklichen Menschen entweder aufgeblüht oder millionenfach umgekommen sind. Der aktuelle Temperaturverlauf wird aufgeteilt in die Proxy-Aufzeichnung und die Modellwelt derart, dass sie das Bild einer zukünftigen Temperatur-Katastrophe erzeugen soll. Wie sieht das im Vergleich zur Realität aus?

    Abbildung 5: von 1850 bis 2001 zeigt das IPCC-Hintergrundbild die Beobachtungen (keine Modellergebnisse), die mit den HadCRUT4-Messungen übereinstimmen. Sehr gut gemacht, IPCC! Was seit dem Jahr 2001 geschehen ist, zeigt detailliert Abbildung 6. Um irgendeinen Aussagewert oder irgendwie von Bedeutung zu sein, hätten alle Modelle zum Zeitpunkt 1850 beginnen sollen. Dann würde man nämlich erkennen, dass die Mehrheit der Modelle seit 2001 viel zu warm ausgefallen war.

    Abbildung 5 zeigt den Vergleich der HadCRUT4-Daten mit der Modell-Welt. Die Übereinstimmung von 1850 bis 2001 ist exzellent. Grund hierfür ist, dass man einfach die Messungen in diesem Zeitraum geplottet hat. Nichtsdestotrotz musste ich 0,6°C von HadCRUT4 abziehen, um sie zu den Beobachtungen passend zu machen, während ich ein Jahr zuvor noch 0,5°C addieren musste. Der Maßstab der X-Achse über 250 Jahre macht es schwierig zu erkennen, wie die Modelle seit 2001 im Vergleich zu den 13 Jahren Beobachtungen seitdem aussehen. In Abbildung 6 ist dies als Lupe nachgeholt.

    Abbildung 6: Die einzelne vertikale Gitternetzlinie ist das Jahr 2000. Die blaue Linie zeigt HadCRUT4 (Realität). Sie bewegt sich waagerecht, während alle Modelle einen Aufwärtstrend zeigen.

    Der detaillierte Ausschnitt illustriert die Natur des Problems bei der Evaluierung der IPCC-Modelle. Während die Temperaturen der realen Welt seit etwa 1997 flach verlaufen sind und alle Modelle klar einen Aufwärtstrend zeigen, ist die Zeit wirklich nicht lang genug, um die Modelle angemessen zu evaluieren. Um wissenschaftlich valid zu sein hätte man die Modelle ab dem Jahr 1850 laufen lassen sollen (Abbildung 1), was man aber nicht getan hat. Hätte man das getan, würde die Realität bis zum Jahr 2001 breit divergent (wie 1990) sein, und es wäre einfach gewesen, den Gewinner zu finden. Aber bequemerweise hat man die Modelle um das Jahr 2000 initiiert. Wissenschaftlich ist das eine schlechte Praxis.

    Abbildung 7: Zukunftsszenarien der Temperatur des IPCC aus dem AR 4 (2007). Es scheint, dass das IPCC die Notwendigkeit erkannt hat, die Modelle in der Vergangenheit zu initiieren, und in diesem Falle liegt der Startzeitpunkt weiterhin im Jahr 2000. Damit werden die gleichen 14 Jahre angeboten, in denen die Modellergebnisse mit dem verglichen werden können, was tatsächlich geschehen ist.

    Für den Vierten Zustandsbericht AR 4 (5) kommen wir zum Jahr 2007 und der Summary, gezeigt in Abbildung 7. In diesem Stadium bin ich mir nicht sicher, was die Szenarien B1 bis A1F1 bedeuten sollen. Die Bildunterschrift zu dieser Graphik in den Berichten lautet:

    Abbildung SPM 5: Durchgezogene Linien sind die multi-modellierten Mittel der Erwärmung (relativ zum Zeitraum 1980 bis 1999) für die Szenarien A2, A1B und B1, gezeigt als Fortsetzungen der Simulationen des 20. Jahrhunderts. Die Schattierung kennzeichnet die ±1-Standardabweichung der jährlichen Mittelwerte eines jeden individuellen Modells. Die orange Linie gilt, wenn die Konzentrationen konstant bei den Werten aus dem Jahr 2000 gehalten werden. Die grauen Balken rechts zeigen den Best Estimate (durchgezogene Linie in jedem Balken) und die wahrscheinliche Bandbreite der sechs SRES-markierten Szenarien. Die Bestimmung des Best Estimate und der wahrscheinlichen Bandbreiten in den grauen Balken enthalten auch die AOGCMs im linken Teil der Abbildung, ebenso wie die Ergebnisse einer Hierarchie unabhängiger Modelle und Einschränkungen aufgrund von Beobachtungen.

    In dieser Bildunterschrift steckt implizit die Vermutung, dass die schwarze Linie vor dem Jahr 2000 eine von Modellen nach dem Jahr 2000 erzeugte Simulation ist (Fettdruck von mir). Die orange Linie kennzeichnet einen konstanten CO2-Gehalt, und die Tatsache, dass es sich dabei um eine  nahezu flach verlaufende Linie handelt zeigt, dass das IPCC zu jener Zeit glaubte, dass Veränderungen des CO2-Gehaltes der einzige Prozess war, der zu Temperaturänderungen auf der Erde führen könnte. Ich weiß nicht, ob die Szenarien B1 bis A1F1 alle die gleiche oder unterschiedliche Trajektorien zunehmender CO2-Konzentration verwenden. Was ich aber sicher weiß ist, dass es für Modelle physikalisch unmöglich ist, einen breiten Bereich physikalischer Input-Variablen zu verarbeiten, die für das Jahr 1900 initiiert, eng ausgerichtet wurden und dann im Jahr 2000 konvergieren, wie hier gezeigt. Es ist eine physikalische Unmöglichkeit, wie die IPCC-Modelle aus dem Jahr 1990 gezeigt haben (Abbildung 1).

    Wie also sehen die Simulationen aus dem Jahr 2007 im Vergleich zur Realität aus?

    Abbildung 8*: Vergleich der AR 4-Modelle mit der Realität. Seit dem Jahr 2000 verläuft die Realität nahe der unteren Grenze der Modelle, wie von Roy Spencer und vielen anderen hervorgehoben worden ist. Falls überhaupt, passt die Realität zum Modell mit dem anthropogenen Antrieb Null, gezeigt in orange.

    [*Siehe Anmerkung am Ende dieser Übersetzung!]

    Beim vorigen Mal musste ich 0,6°C abziehen, um die Realität mit den IPCC-Modellen passend zu machen. Jetzt muss ich 0,6°C addieren, um auf das HadCRUT4-Werte zu kommen. Und der Luxus, die Historie ab dem Jahr 1850 abzubilden, wurde jetzt verkürzt und läuft ab dem Jahr 1900. Die Simulationen vor dem Jahr 2000 passen ziemlich gut zu den gemessenen Temperaturen seit 1940, obwohl wir schon wissen, dass es für die Simulationen vor 2000 unmöglich ist, durch eine große Anzahl unterschiedlicher Computer-Modelle erzeugt worden zu sein, die programmiert worden sind, um unterschiedliche Dinge zu tun – wie kann das sein? Nach dem Jahr 2000 scheint die Wirklichkeit am besten zur orangefarbenen Version zu passen ohne CO2-Anstieg/Modell ohne anthropogenen Antrieb.

    Von 1900 bis 1950 reproduzieren die vermeintlichen Simulationen die Realität überhaupt nicht gut (Abbildung 9). Die tatsächliche Temperaturaufzeichnung  zeigt einen steileren Gradienten als die Modellaufzeichnung. Und die Realität weist eine viel größere Variabilität infolge natürlicher Prozesse auf, die das IPCC in großem Umfang ignoriert.

    Abbildung 9: Von 1900 bis 1950 bilden die vermeintlichen AR 4-Simulationen die Realität nur sehr unzureichend ab. HadCRUT4 in blau.

    Abbildung 10: Die Sicht des IPCC aus dem AR 5 (2014). Die unbequeme Diskrepanz von 1900 bis 1950 aus dem AR 4 wird umgangen, indem man die Graphik einfach erst ab dem Jahr 1950 beginnen lässt. Die flache blaue Linie ist im Wesentlichen äquivalent zur flachen orangefarbenen Linie im AR 4.

    Der Fünfte Zustandsbericht AR 5 wurde in diesem Jahr veröffentlicht, und die gegenwärtige Sicht des IPCC auf die zukünftigen Temperaturen zeigt Abbildung 10 (6). Die unbequeme Diskrepanz von 1900 bis 1950 aus dem AR 4 wird umgangen, indem man die Graphik einfach erst ab dem Jahr 1950 beginnen lässt. Ein sehr einfaches Simulationsbild wird präsentiert. Zukünftige Temperatur-Trajektorien werden gezeigt für eine Bandbreite von repräsentativen Konzentrations-Verläufen [Representative Concentration Pathways (RCP)]. Dies ist das total falsche Verfahren, da das IPCC nicht mehr das Klima modelliert, sondern unterschiedliche menschliche, gesellschaftliche und politische Entwicklungen auswählt, die zu unterschiedlichen CO2-Trajektorien führen. Bei SkepticalScience werden diese Beschreibungen gezeigt (7):

    RCP2.6 wurde entwickelt vom IMAGE-Modellierungs-Team der PBL Netherlands Environmental Assessment Agency. Der Emissions-Verlauf ist in der Literatur für Szenarien repräsentativ, die zu sehr geringen Konzentrationen von Treibhausgasen führen. Es ist ein „Spitzenwert-und-Abnahme“-Szenario [a “peak-and-decline”  scenario]; das Niveau des Strahlungsantriebs erreicht zuerst einen Wert um 3,1 W/m² zur Mitte des Jahrhunderts und sinkt auf 2,6 W/m² bis zum Jahr 2100. Um dieses Niveau des Strahlungsantriebs zu erreichen, werden die Treibhausgas-Emissionen (und indirekt die Emissionen von Luftverschmutzern) substantiell mit der Zeit reduziert (Van Vuuren et al. 2007a)

    UND

    RCP8.5 wurde entwickelt mit dem MESSAGE-Modell und dem IIASA Integrated Assessment Framework durch das International  Institute  for  Applied  Systems  Analysis  (IIASA) in Österreich. Dieses RCP wird charakterisiert durch zunehmende Treibhausgas-Emissionen mit der Zeit, repräsentativ für Szenarien in der Literatur, die zu höheren Treibhausgas-Konzentrationen führen (Riahi et al. 2007).

    Dies ist wissenschaftliche Sprechweise à la Micky Maus. Im Wesentlichen zeigen sie, dass 32 Modelle, programmiert mit einem geringen zukünftigen Emissions-Szenario niedrigere Temperatur-Trajektorien aufzeigen als 39 Modelle mit hohen zukünftigen Emissions-Trajektorien.

    Die Modelle beginnen mit dem Jahr 2005 (der bessere Weg, den Beginn auf das Jahr 2000 zu legen wie im AR 4 wurde einkassiert), und von 1950 bis 2005 wird behauptet, dass 42 Modelle eine vernünftige Version der Realität abbilden (siehe unten). Wir wissen nicht, ob (wenn überhaupt) einige der 71 Modelle nach dem Jahr 2005 in der Gruppe vor 2005 enthalten sind. Wir wissen aber, dass die Gruppe vor 2005 aktuelle CO2-Konzentrationen zur Grundlage haben, und da sie alle eng beieinander liegen, müssen wir annehmen, dass sie alle ähnliche Klimasensitivitäten aufweisen.

    Was der Leser wirklich sehen möchte ist, wie variierende Klimasensitivitäten die unterschiedlichen Modelle beeinflussen unter Verwendung fixierter CO2-Trajektorien, und das hat man eindeutig nicht getan. Die Modellierungsarbeit in Abbildung 10 ist effektiv wertlos. Nichtsdestotrotz wollen wir schauen, wie das im Vergleich zur Realität aussieht:

    Abbildung 11: Vergleich der Realität mit Modellszenarien aus dem AR 5.

    Mit Modellbeginn im Jahre 2005 haben wir nur 8 Jahre, um die Modelle mit der Realität zu vergleichen. Dieses Mal muss ich von HadCRUT4 0,3°C abziehen, um Übereinstimmung mit den Modellen zu erreichen. Vor 2005 bilden die Modelle vermeintlich die Realität seit 1950 ab. Vor 1950 wird uns eine Ansicht verwehrt, wie die Modelle damit aussahen. Nach 2005 ist klar, dass die Realität entlang der unteren Grenze der Bandbreite der beiden Unsicherheitsbereiche verläuft, die geplottet sind. Dies ist eine Beobachtung, die auch viele andere gemacht haben (z. B. 1).

    Abschließende Kommentare

    • Um Übereinstimmung der IPCC-Modelle mit der HadCRUT4-Wirklichkeit zu erzielen, müssen folgende Temperatur-Korrekturen angebracht werden: 1990 +0,5; 2001 -0,6; 2007 +0,6; 2014 -0,3. Mir fällt kein guter Grund ein, das Temperatur-Datum ständig zu ändern außer um eine Barriere vor der Verifikation der Modellergebnisse zu errichten.

    • Der Vergleich der Modelle mit der Realität wird ernstlich behindert durch die armselige Art und Weise, wie das IPCC die Daten präsentiert. Im Jahre 1990 wurden sie noch korrekt gezeigt, das heißt, alle Modelle begannen ab 1850 zu laufen und zeigten die gleichen CO2-Emissions-Trajektorien. Die Variationen der Modellergebnisse werden konsequent durch physikalische Parameter wie der Klimasensitivität kontrolliert, und mit den seitdem vergangenen Jahren ist es geradlinig, die Modelle auszuwählen, die die beste Übereinstimmung mit der Realität zeigen. Im Jahre 1990 war ziemlich klar, dass es das „Low-Modell“ war, das fast mit Sicherheit auf eine geringe Klimasensitivität hindeutete.

    • Es gibt keinen guten wissenschaftlichen Grund für das IPCC, heute nicht mehr das korrekte, im Jahre 1990 entwickelte Verfahren zu übernehmen außer dem, die Tatsache zu verschleiern, dass die Sensitivität des Klimas in bezug auf CO2 vermutlich deutlich unter 1,5°C liegt, basierend auf der Aussage von mir und anderen, dass eine Komponente der Erwärmung im 20. Jahrhundert natürlichen Ursprungs ist.

    • Im Jahre 1990 hatte das IPCC eine Bandbreite von 1,5 bis 4,5°C als Klimasensitivität angegeben. 2014 war es immer noch eine Bandbreite von 1,5 bis 4,5°C. 24 Jahre sind vergangen, Milliarden Dollar sind ausgegeben worden, und absolut nichts wurde gelernt! Tomaten wurden auf die Augen von Politikern, Regierungen und der Öffentlichkeit geworfen bis hin zu einer totalen Gehirnwäsche. Billionen Dollar wurden fehlgeleitet und in die Energie-Infrastruktur gesteckt, die ultimativ zu weit verbreitetem Elend unter Millionen führen wird.

    Falls eine kommerzielle Forschungsorganisation in UK der Verdrehung von Forschungsergebnissen überführt würde, nur um Geld zu verdienen und ohne Rücksicht auf die öffentliche Sicherheit, würde rasch die Polizei an deren Tür klopfen.

    References

    [1] Roy Spencer: 95% of Climate Models Agree: The Observations Must be Wrong
    [2] Wood For Trees
    [3] IPCC: First Assessment Report – FAR
    [4] IPCC: Third Assessment Report – TAR
    [5] IPCC: Fourth Assessment Report – AR4
    [6] IPCC: Fifth Assessment Report – AR5
    [7] Skepticalscience: The Beginner’s Guide to Representative Concentration Pathways

    Link: http://wattsupwiththat.com/2014/06/12/the-temperature-forecasting-track-record-of-the-ipcc/

    Übersetzt von Chris Frey EIKE

    HINWEIS: Im Original ist die Nummerierung der Abbildungen offenbar durcheinandergeraten, taucht doch die Bezeichnung ‚Abbildung 7‘ zweimal hintereinander auf. Ich habe bei der Übersetzung die Nummerierung aber fortlaufend vorgenommen, aus der zweiten Abbildung 7 also die Abbildung 8 gemacht, und auch die folgenden Nummern angepasst.  Im Text wird auf die Abbildungen Bezug genommen., und da bin ich nicht ganz sicher, ob die von mir korrigierte Zuordnung noch passt. Anm. d. Übers.




    Teil IV Videos von der VII. IKEK Mannheim jetzt verfügbar: heute Prof. Helmut Alt

    In seinem engagiert vorgetragenen Vortrag weist er auf den ewigen Menschheitswunsch hin, Energie aus Pflanzen, Wind und Sonne zu generieren. Und auf die Frage: Ist das möglich, muss man sagen: Ja es ist möglich! Aber unbezahlbar!

    Video Vortrag von Prof. Helmut Alt vom 10.4.14 in Mannheim anlässlich der 7. IKEK organisiert von EIKE

    Damit so Alt: Ist es wirtschaftlich unmöglich. Am Beispiel der Raumstation ISS macht er dies ganz deutlich. Der Unterschied zu deren Stromversorgung zum eigenen Haushalt ist der: Die ISS hat keinen Stromzähler. Jedem auf der ISS sind die immensen Stromkosten – zu Recht- völlig egal. Nicht aber so den 40 Millionen Haushalten in Deutschland. Denen ist ihre Stromrechnung, aber vor allem ihre rasante Steigerung nicht egal. Und dass diese rasant weiter steigen werden, erst recht nicht.

    Genauso wenig wird der verordnete Sparzwang beim Verbrauch von Elektroenergie etwas bewirken. Es sei denn man beschleunigt die durch den Sparzwang bewirkte Automatisierung. Diese wiederum hat einen proportionalen Abbau von wertschöpfenden Arbeitsplätzen zur direkten Folge. Und zwar unmittelbar!

    Im weiteren geht Alt auf den vielfach unverstandenen Unterschied zwischen elektrischer Leistung die in Watt, Kilowatt, Mega- oder Gigawatt gemessen wird und Verbrauch (von Arbeit, oder Energie) die in Wattstunden, Kilowattstunden, Mega- oder Gigawattstunden gemessen wird, ein. Auch die Bundeskanzlerin – obwohl promovierte Physikerin- hat zu erkennen gegeben, dass ihr dieser bedeutende Unterschied nicht immer präsent ist. Er ist aber entscheiden für die Bewertung des Erreichbaren gegenüber dem Erreichbaren. Z.B. bei der vielfach beschworenen "Versorgung" von Haushalten mit NIE. (Nachhaltig instabile Energien)

    Eine weiteres, vermutlich ungewolltes, Ergebnis des "Atomausstiegs" ist, so zeigt Alt auf, dass der nunmehr nicht mehr hierzulande erzeugte "Atomstrom" nun zu hohen Kosten aus dem Ausland importiert werden muss. D.h. defacto wurde nichts geändert, nur die Wertschöpfung wurde ins Ausland verlagert. 

    Das technische Hauptproblem ist und bleibt, dass es auch nicht die Spur einer Lösung für das Speicherproblem gibt. Und dies bleibt genau so sicher, wie sicher ist, dass der Mensch keine dritten Zähne bekommt. Doch wenn man sie hätte würden sie unbezahlbar sein.

    Ex-Umweltminister Altmeier bezeichnete vor einigen Jahren als "Deutsche Mondlandung". Auch nach diesen Informationen wird immer klarer, dass man nur von einer "Deutschen Bruchlandung" sprechen kann. Und diese aus rein ideologischen Gründen mit Volldampf herbeigeführt wird.

    Es lohnt sich auf jeden Fall die vielfältigen Beispiele die Prof.Alt zu den extrem teuren Irrungen und Wirrungen der "Energiewende" präsentiert anzuhören.




    Misereor und PIK arbeiten Hand in Hand in Panikmache; 500.000 € Spende macht´s möglich!

    von Wolfgang Thüne

    Anfeuerungsparolen aus dem Klimawandel-Hauptquartier in Potsdam

    Das Potsdam Institut für Klimafolgenforschung ist reaktionsschnell und immer für Schlagzeilen gut. Kaum hatten Medien berichtet, dass China beabsichtige, den CO2-Ausstoß zu begrenzen, und die USA vorhabe, künftig die Emissionen des „Treibhausgases CO2“ zu reduzieren, da kam aus dem PIK ein „weiter so“.

    Hans Joachim Schellnhuber, der Propagandist der „Großen Transformation“ und Chef des PIK ergriff als von der Britischen Königin ernannter „Commander of the British Empire“ das Wort und ließ in einer Tagesmeldung vom 3. Juni 2014 erklären: „Es ist bemerkenswert, dass jetzt sowohl China (Siehe Dementi aus China hier) als auch die USA bereit zu sein scheinen, wieder eine Führungsrolle einzunehmen.“ Mahnend fügte er mit Seitenblick auf die Untätigkeit der Kanzlerin hinzu: „Für Europa, Gastgeber des Klimagipfels 2015, könnte es an der Zeit sein, aus seiner jüngsten Klima-Müdigkeit aufzuwachen.“

    Wenn der Klimawandel nun schon seit 17 Jahren eine „Klima-Pause“ macht und ein Ende nicht abzusehen ist, warum soll da nicht die EU ein erholsames Mittagsschläfchen einlegen und ihre „Vorreiterrolle“ in Sachen „Klimaschutz“ an die beiden führenden Weltmächte und größten „Klimasünder“ abgeben? Oder wird im PIK frei nach William Shakespeare (1564-1616) nur „Viel Lärm um nichts“ (Much Ado about Nothing) gemacht, um die Bundesregierung, die gerade bei einem Klima-Schwindel erwischt wurde, aus der Schusslinie zu nehmen?

    „Der verschwiegene Klimapolitik-Skandal“

    So lautete die Überschrift eines Artikel von Joachim Weimann, Umweltökonom an der Otto-von-Guericke-Universität Magdeburg, in der Frankfurter Allgemeine Zeitung vom 2. Juni 2014. Er beginnt: „Im neuen IPCC-Bericht steht: Die milliardenschwere Ökostromförderung ist nutzlos – weil es das Emissionshandelssystem gibt. Doch diese unbequeme Wahrheit hat die Regierung in ihrer Zusammenfassung verdreht.“ Was hat die Bundesregierung getan? Sie hat uns Arbeit abgenommen, „um all denen zu helfen, die nicht die Zeit oder die Kraft haben, sich durch den Originaltext zu arbeiten“. Doch was herauskam, war keine wortgetreue Übersetzung, sondern eine peinliche Fälschung.

    Weimann: „Wir pumpen jährlich mehr als 20 Milliarden Euro – Tendenz steigend – in die Förderung der erneuerbaren Energien. Wir nehmen die großflächige Zerstörung wertvoller Kulturlandschaften durch Windräder ebenso in Kauf wie den Anbau von Mais-Monokulturen, die wir brauchen, um unsere Biogasanlagen zu füttern. Die Politik, die uns das zumutet, verweist dabei auf die Expertise des IPCC. Dessen Erkenntnis, dass alle diese Opfer für die Katz sind, passt nicht ins politische Kalkül. Skandalös an dem Papier ist, dass die Bundesregierung ihre eigene Position als die des IPCC ausgibt. Das ist nicht in Ordnung.

    Es ist so vieles nicht in Ordnung! Die ganze Panikmache mit der „Klimakatastrophe“ ist nicht in Ordnung. Das Vorhaben „Klimaschutz“ ist nicht in Ordnung. Der Wille zur Macht ist da, aber der Glaube, den „Klimawandel“ stoppen zu können, ist nicht in Ordnung, weil der Mensch in die natürliche Ordnung nicht eingreifen kann. Dies liegt daran, dass all unsere Modelle von Welt und Klima nicht in Ordnung sind. Wolfgang Behringer hat es in seinem Buch „Kulturgeschichte des Klimas“ (2011) klar beim Namen genannt (S. 276) als „die Mär vom „Gleichgewicht der Natur“ oder wahlweise dem „Gleichgewicht des Klimas“. Dagegen steht die Erkenntnis.“Das Klima war in den letzten fünf Milliarden Jahren – seit Entstehung der Erde – immer im Wandel und wird es auch in Zukunft sein.“

    Behringer: „Mit dem Bild vom verlorenen Gleichgewicht bewegen wir uns im Bereich der medizinischen Metaphern, die sich bei Klimaforschern und Journalisten großer Beliebtheit erfreuen. Wie in der antiken Krankheitslehre des Galenus, der Gesundheit als Gleichgewichts-Zustand der vier Körpersäfte darstellt, soll das angebliche Ungleichgewicht in der Natur zu ihrer Erkrankung geführt haben.“ Die „Erderwärmung“ wird daher gerne mit dem Fieber verglichen. Steige die Fieberkurve weiter an, dann drohe der „Klimakollaps“. Doch die „Klimakrankheit der Erde“ ist ein unsinniger Vergleich. Die Erde ist nicht krank und braucht keinen Arzt, keine quacksalbernden Klima-Medizinmänner.

    Das ständige unregelmäßige Auf und Ab der Temperaturen während der Erdgeschichte ist ein Ausdruck der Dynamik und Vitalität allen irdischen Geschehens, mögen wir auch noch so verliebt sein in das Bild einer statischen Erde, bei der der Mensch gerne die Rolle des Statikers und Machers spielen möchte. Doch wie wenig statisch, aber unendlich dynamisch die Natur ist, das zeigt uns das Wetter. Wo auch immer auf der Erde, das Wetter macht zu jeder Tages- und Jahreszeit das, was es will und nicht das, was wir uns wünschen.

    Welch groteske Formen an Hybris und Größenwahn der „Weltrettungswahn“ angenommen hat, ist in dem Heft „Neue Energie 05/2014“ nachzulesen. Da schreibt in einem Leitartikel „Christliche und soziale Politik!?“ Hermann Albers, Präsident Bundesverband WindEnergie e. V. (BWE): „Christus ist durch die biblische Überlieferung zum Sinnbild geworden – für all jene, die verspottet und verachtet wurden. Genau das geschieht derzeit mit uns Energiewende-Akteuren, die angetreten sind…, um für eine nachhaltige Energieerzeugung und damit den Erhalt der Erde zu kämpfen.“ Kommen da nicht Tränen der Rührung, wenn man liest: „Getrieben von Feinden, mit Spott überhäuft…, so schleppt sich die Branche in Richtung Golgatha… Erneuerbare sind christlich und sozial – und das EEG auch.“

    Dieser „Aufschrei“ zeigt deutlich, dass der „Klimaschutz“ mehr als nur eine profane Ideologie ist, sondern den Rang einer „Klima- oder Ökoreligion“ einfordert und anstrebt, deren Jünger ausziehen, um bei den jährlich stattfindenden ritualisierten „Weltklimakonferenzen“ in einem verspiegelten „Treibhaus“ der Welt ihre „Klimasünden“ vor Augen zu führen und die Pilgerpfade zur Weltrettung aufzuzeigen.

    MISEREOR – Der Mensch ist die Hauptursache

    In einem Interview mit Toralf  Staud in MISEREOR – Das Magazin 2014 vom 31. Mai 2014 gab die „MISEREOR-Klimaexpertin“ (Siehe unseren Bericht hier) Anika Schroeder auf die Frage, ob sie bereits bei ihren weltweiten Aktivitäten etwas vom Klimawandel gemerkt habe, folgende Antwort: „Der Klimawandel ist längst angekommen“. Sie schließe das aus dem häufigen Satz „Das Wetter spielt verrückt, was ist da los?“ Sie folgert: „Die Klimaänderungen verlaufen viel schneller als natürliche Schwankungen.“ Sie vertraue ganz auf das IPCC und Zweifel habe sie nicht: „Moment. Die Grundfrage ist geklärt: Dass sich das Klima ändert und der Mensch die Hauptursache ist!“

    Doch was besagt der Satz, dass die Klimaänderungen viel schneller verlaufen als natürliche Schwankungen? Ist Klima schneller als das Wetter, das sich täglich, ja stündlich ändern kann? Wie unsinnig diese Feststellung ist, sei mit einem Vergleich erklärt. Demnach müsste das 200-Tage-Mittel des DAX volatiler sein als der täglich ermittelte DAX! Dass dies unmöglich ist, leuchtet jedem Börsianer wie Umweltökonom ein, doch auch beim Wetter gilt, dass Mittelwerte von den Anfangswerten abhängen und nicht umgekehrt! Dabei plädierte MISEREOR noch am 28. Januar 2014: „Tu was! Zeig‘ Zivilcourage!“ Und diese fängt beim eigenständigen Denken an, dem dann eigen-verantwortliches Handeln entwächst.

    So war ich gespannt auf den Artikel „Zweifel ist unser Produkt“. Autor war Toralf Staud. Beim Anlesen wurde ich stutzig: „Während die Forscher sich ihrer Erkenntnisse zum Klimawandel immer sicherer sind, werden Wissenschaftsleugner immer lauter.“ Staud blies pauschal zur Hatz auf alle „Klima-Skeptiker“ und diffamierte jeden Ansatz, der an den etablierten Klima-Modellen rüttelte, auf deren Mängel hinwies und Zweifel äußerte. Es wurden nicht Argumente mit Argumenten abgewogen, sondern der Zweifel an der hochheiligen herrschenden Meinung verurteilt. Es wird von einer „weitverzweigten Leugner-Bewegung“ gesprochen, die der „Ölriese EXXON laut Greenpeace-Recherchen zwischen 1998 und 2012 mit mehr als 27 Millionen Dollar“ schmierte.

    Das hört sich nach viel Schmiergeld an, ist unerhört! Das sind aber Minimalsummen im Vergleich zu staatlichen Forschungsausgaben. Mit 2 Millionen pro Jahr kann man praktisch so viel bewegen wie die CO2-Moleküle in der Luft, nämlich keine bei den Temperaturen messbaren Effekte. Was sollen Schmiergelder in Höhe von 2 Millionen Dollar pro Jahr bewirken? Im Vergleich: Nur das Alfred-Wegener-Institut für Polarforschung in Bremerhaven mit 800 Mitarbeitern hat einen Jahresetat von 100 Millionen Euro! In seinem Report „Dealing in Doubt“ hat Greenpeace „einen kleinen Kreis von 30 Personen“ ausgemacht, die der „Leugner-Bewegung“ zuzurechnen sind. Dass Staud nicht selbst merkt, wie lächerlich er sich mit solch einer Argumentation macht? Man hat den Eindruck, dass der Zweifel am Zweifel ihn in die Verzweiflung zu treiben droht. Schutz sucht er in einer zeitgeistkonformen Mehrheits-Ideologie. Es ist schon anstößig genug, dass er als „freier Journalist“ so miserabel recherchiert. Ihm aber eine Plattform für so abstruse Ideen zu bieten, dafür kann MISEREOR nur um ‚misericordia‘ bitten.

    Wandel des Zeitgeistes vom Rationalismus zum Relativismus

    Was haben Astronomen, Biologen und Meteorologen gemeinsam? Es ist die Ehrfurcht! Die Ehrfurcht vor der Unendlichkeit des Weltalls, die Ehrfurcht vor dem Reichtum wie der Vielfalt an Leben, die Ehrfurcht vor der Mannigfaltigkeit und Veränderlichkeit von Wetter. Der Mensch ist von Natur ein ‚homo faber‘, ein Praktiker. Ohne ein pragmatisches Verhältnis zur Natur und ohne die Fähigkeit zur praktischen Gestaltung seiner Lebenssphäre hätte er nicht leben und sich kulturell entwickeln können. Er spät begann er, die Natur zu entmystifizieren und ihre Geheimnisse zu entschlüsseln. Er begann zu philosophieren und zu theoretisieren.

    Doch das Theoretisieren will gelernt sein und bedarf der Disziplin wie eines Maßstabes, an dem alle Theorie zu messen ist. Die imaginierte Welt ist nicht gleich der empirischen Wirklichkeit und gleitet schnell ab in Utopien, ins Nirgendwo. Auf die verschiedenen Denkzustände hat René Descartes (1596-1650) hingewiesen und unterschied zwischen ‚res cogitans‘ als denkendem Ding und ‚res extensa‘ als ausgedehnter Außenwelt. Von Descartes stammt der Ausspruch ‚Cogito, ergo sum‘ (Ich denke, also bin ich) oder „Dubito, cogito, ergo sum‘ (Ich zweifle, ich denke, also bin ich). Zweifel ist der Motor für jedweden wissenschaftlichen Fortschritt. Descartes wird als „Vater des Rationalismus“ bezeichnet, als Wegbereiter der Vernunft. Er geht davon aus, dass alles wahr ist, was klar ist und deutlich erkannt werden kann.

    Auf das Wetter übertragen heißt das: Deutlich erkannt werden kann ein klarer Himmel. Deutlich gespürt werden kann die nächtliche Abkühlung, auch ohne Thermometer über die Unzahl an Temperatursensoren des menschlichen Körpers. Der Mensch braucht von Natur aus dieses Sensorium, denn als „nackter Affe“ wäre er ohne das Gespür für Kälte und Wärme überlebensfähig. Die nächtliche Abkühlung jedweden Körpers kann man auf jedwedem Fleck der Erde bei klarem Himmel beobachten und auch messen. Sie ist als „wahr“ anzusehen und lässt sich zweifelsfrei physikalisch erklären. Die „Gegenstrahlung“ ist dagegen nichts als eine Behauptung, ein Gedankenkonstrukt, dessen Realität nicht empirisch nachgewiesen werden konnte und auch nicht nachgewiesen werden kann. Sie ist ein „Glaubenspfeiler“ in der Statik der Hypothese von der Erde als „Treibhaus“.

    Ein Gedankenexperiment ist kein Experiment im naturwissenschaftlichen Sinne, denn dieses muss jederzeit nachgebaut werden können, reproduzierbar und damit überprüfbar sein. In der Physik unterscheidet man die Experimentalphysik und die Theoretische Physik, die viel mit Gedankenexperimenten arbeitet. Solche führen zu solchen paradoxen Situationen wie bei „Schrödingers Katze“, die gleichzeitig tot und lebendig ist. Ähnlich ist es mit dem „Laplaceschen Dämon“, der Vergangenheit und Zukunft spiegelbildlich gleichzeitig berechnen kann.

    Gegner der klassischen Erkenntnislehre, wonach eine Annahme auf dem Fundament von Beobachtung und Begründung stehen muss, ist Karl Popper (1902-1994). Popper gilt als der erste nicht begründungsorientierte Philosoph. Nach Popper sind wissenschaftliche Theorien lediglich unsichere Spekulationen, alle naturwissenschaftlichen Erkenntnisse seien provisorisch, mithin sei jede Theorie falsifizierbar. Sie sei durch frei erfundene neue Theorien ersetzbar. Dies führt in der Tendenz zu einer fakultativen Leugnung der Naturgesetze. Das führt zu der simplen und bequemen Einstellung: Die Wirklichkeit spielt sich im Kopfe ab, die Naturgesetze machen wir. Gegen diesen Aberglauben von der Erde als aufheizbaren „Treibhaus“ hat die empirische Wissenschaft mit ihren widersprechenden Beobachtungen kaum eine reale Chance.

    Dies insbesondere deswegen, weil die Politik – national wie international – auf die Herrschaft über die Gedanken ausgerichtet ist und über die Finanzierung der Wissenschaft die politisch korrekten Gedanken befördert und gegen wissenschaftliche Widerlegungen immun macht. Dissidenten werden zur Strafe Forschungsgelder verwehrt. Jeder Zweifel an den Klima-Hypothesen ist unangebracht, und für die „Klimareligion“ schlicht „Häresie“!

    Die Philosophie Poppers hat mit dazu beigetragen, jedwede Überzeugung, die auf Axiomen und Dogmen beruht, kritisch zu hinterfragen und zu relativieren mit dem Hinweis, es gebe keine absolute Wahrheit. Auch Wahrheiten sind relativ und müssen sich an Mehrheiten orientieren, sie zuerst gewinnen. Der emeritierte Papst Benedikt XVI. wandte sich gegen einen „um sich greifenden Relativismus“. Er warnte vor der Gefahr, dass sich unter politischer Obhut eine „Diktatur des Relativismus“ herausbilde, die nichts als definitiv ansehe außer dem eigenen Ich, der eigenen oder politisch herrschenden Meinung.

    Einer globalen „Klimadiktatur“ mit extremer staatlicher Bevormundung kann man nur mit Friedrich Schiller (1759-1805) in „Don Carlos“ entgehen, indem man mit Hinweis auf die Würde des Menschen und seine Grundrechte laut die Vereinten Nationen auffordert: „Geben Sie Gedankenfreiheit!“

    Oppenheim, im Juni 2014  Dipl.-Met. Dr. phil. Wolfgang Thüne erschienen auf "Der Wettermann"




    Obamas Klimapolitik steht vor Jahren der Anfechtungsklagen

    Bild rechts: Siegfried Fries  / pixelio.de

    Unter diesen Vorschriften dürfen die Staaten Maßnahmen ergreifen, um die Verschmutzung zu reduzieren, die direkt bei der Energieerzeugung anfällt. Ein Staat könnte die Schließung eines Kraftwerkes umgehen durch Investitionen in eine sauberere Technologie. Er könnte Programme zur besseren Energie-Effizienz in Kraft setzen oder in Wind und Solar investieren. Soweit die EPA.

    Dieses Vorgehen markiert eine bislang beispiellose Maßnahme durch die Agency, die – typisch für sie – allein den Kraftwerken Verfahren zur Emissions-Reduktion auferlegt.

    „Wir gaben jedem Staat Gelegenheit zu sagen, wo sie investieren wollen“, sagte die Leiterin der EPA Gina McCarthy nach der Unterbreitung dieses Vorschlags. „Einige werden in ihre Kohle-Einheiten investieren, um sie effizienter zu machen und noch lange am Laufen zu halten“.

    Rot-Staaten-Demokraten standen einer allgemeinen Klima-Regulierung kritisch gegenüber, sehen aber die Option für Flexibilität als einen Vorteil für die Energie-Industrie, wird es doch so jedem Staat erlaubt, ein Verfahren zu wählen, dass die Prioritäten reflektiert. Senatorin Mary Landrieu, die sich dieses Jahr einer zähen Schlacht um die Wiederwahl stellen muss, nannte die Flexibilität eine „weise“ Entscheidung der EPA.

    Juristische Beobachter jedoch sind nicht sicher, ob das Manöver der EPA vor Gericht Bestand haben wird. Dem Clean Air Act zufolge hat die EPA die Vollmacht, die Staaten zu verpflichten, „das beste System zur Reduktion von Emissionen“ für bestehende Kraftwerke anzuwenden.

    Kritiker sagen, dass die EPA eine Definition von „das beste System“ zugrunde legt, die zu weit gefasst ist. Traditionellerweise benutzte die Agency diesen Term in bezug auf spezifische Verfahren oder Praktiken, um die Verschmutzung durch Kraftwerke zu verhindern.

    Jetzt definiert die EPA „das beste System” so, dass die Staaten andere flexible Optionen benutzen können, einschließlich saubererer, erneuerbarer Energiequellen, um die von der Agency vorgegebenen Ziele zu erreichen.

    Ein leitender Funktionär sagte, dass die EPA das Clean Air Act nicht beugt, sondern lediglich die Verschmutzer umdefiniert, die in dessen Anwendung fallen, und über die Kohlenstoff-Technologie hinausblickt, um nach Wegen der Emissionsminderung im Energiesektor zu suchen.

    Der EPA-Funktionär räumte ein, dass dies ein völlig neuartiges Verfahren ist, sagte aber auch, dass sich die Agency mögliche juristische Folgen genau überlegt habe, bevor sie mit dieser Regelung hervortrat. Dem Funktionär zufolge hätte die EPA diesen Entwurf nie unterbreitet, wenn sie nicht sicher gewesen wäre, dass er standhalten würde.

    Aber viele juristische Experten, darunter sogar der oberste Klimaberater Obamas John Podesta erwarten Gerichtsverfahren, was die Zukunft dieser Vorschriften in die Hände der Gerichte legt, wenn sie erst einmal beschlossene Sache sind.

    Full story [Achtung! Beim Anklicken dieses Links ist zumindest mein Computer abgestürzt!]

    Link: http://www.thegwpf.org/obamas-climate-policy-faces-years-of-legal-challenges/

    Übersetzt von Chris Frey EIKE

    Anmerkung des Übersetzers: Ob es hier in D jemals auch zu solchen juristischen Verfahren kommen wird?




    Klima: Mission Messias

    Auf dem Oberen See zwischen Kanada und den USA liegt immer noch Eis, das ist zu dieser Jahreszeit seit Menschengedenken nicht mehr vorgekommen. Im vergangenen Winter litten die Menschen in Nordamerika unter anhaltender ­Rekordkälte. In mehreren Staaten mussten die Stromversorger stillgelegte Kohlekraftwerke wieder laufen lassen, damit sie den Bedarf an Heizenergie einigermassen decken konnten.

    Diese Kältewelle erklärte US-Präsident ­Barack Obama mit der Erderwärmung – oder gezielt ungenauer: mit dem Klimawandel, der angeblich zu allerlei Wetterkapriolen führt. Am letzten Samstag weissagte der Präsident denn auch pünktlich zu Beginn der Hurrikan-­Saison: «Die Veränderungen, die wir beim Klima ­sehen, bedeuten unglücklicherweise, dass schwere Wirbelstürme wie ‹Sandy› häufiger und ge­fährlicher werden könnten.» Der Prophet im ­Weissen Haus liess sich nicht dadurch beirren, dass der Weltklimarat (IPCC) in einem Spezialbericht keinerlei Zusammenhang zwischen Klimaerwärmung und Wetterextremen sieht und dass die Meteorologen für die kommenden Monate eine unterdurchschnittliche Zahl von Hurrikans voraussagen.

    «Das ist gewaltig»

    Denn der Präsident braucht die Warnungen, die jeglicher Wissenschaft spotten, als Mittel zu höherem Zweck. Barack Obama zieht sich zwar als Weltpolizist zurück (siehe Seite 14), aber er sieht sich als Vorbild beim Retten der Welt. «Das ist gewaltig», jubelte sein Propaganda-Apparat schon letzte Woche auf Vorrat. Am Montag liess der Präsident seinen ehrgeizigen Plan für die Klimapolitik ankünden: Die USA, die das Kioto-Protokoll von 1997 anregten, aber nie umsetzten, sollen bis 2030 ihren CO2-­Ausstoss gegenüber 2005 um dreissig Prozent senken. So will der Präsident vor allem den ­Chinesen ein Beispiel geben, die mittlerweile fünfzig Prozent mehr CO2 erzeugen als die Amerikaner.

    Im gespaltenen Kongress bringt ­Oba­ma kein Gesetz mehr durch – deshalb ­regiert der Prä­sident jetzt ohne Parlament. Er stützt sich auf die Umweltagentur EPA, die 2007 das CO2 zum Umweltgift erklärte: so gefährlich wie Quecksilber oder Blei. Aufgrund ihres Dekrets muss jeder Staat Massnahmen erarbeiten, wie er den CO2-Ausstoss senken kann, vor allem durch das Stilllegen oder Aufrüsten von Kohlekraft­werken. Falls die Staaten sich weigern, zwingt ihnen die Regierungsagentur schmerzhafte Eingriffe auf.

    Schon vor dem Machtwort des Präsidenten wehrten sich die Gouverneure der betroffenen Staaten im Gürtel zwischen Virginia und ­Kansas, die teils über neunzig Prozent ihres Stroms mit Kohlekraftwerken erzeugen. Sie fürchten den Verlust von Tausenden von ­Arbeitsplätzen und den Anstieg der Strom­preise auf ein untragbares Niveau. Ausserdem lasse sich, wie der letzte Winter zeigte, die Stromversorgung bei Kältewellen ohne Kohlekraft nicht gewährleisten.

    Der machtlose Kongress führte letzte Woche wenigstens Anhörungen zur Klimapolitik durch. «Die Klimaberichte sowohl des IPCC als auch des Weissen Hauses sollen Angst und Schrecken verbreiten, um eine voreingenommene Politik durchzusetzen», sagte der repu­blikanische Abgeordnete Lamar Smith, Vor­sitzender der Kommission, die zu den Anhör­ungen einlud. «Die Berichte bieten der Regierung ­Obama einen Vorwand, um das Leben der ­Amerikaner stärker zu kontrollieren.»

    Überzogener Alarmismus

    Die Experten, von beiden Parteien eingeladen und dem IPCC nahestehend, zeigten sich durchwegs kritisch. So sagte der Klimaökonom Richard Tol, der im Frühling wegen des über­zogenen Alarmismus nicht mehr mit seinem renommierten Namen zum IPCC-Bericht ­stehen wollte: «Der Klimarat ignoriert Wissenschaftler, die nicht zu alarmierenden Erkenntnissen kommen, oder bringt sie, wenn sie sich aufgrund ihrer Prominenz nicht ignorieren ­lassen, mit Bedrängen und Verleumden zum Schweigen. Wir brauchen eine Organisation, die keiner Regierung und keiner Partei verpflichtet ist, um die Klimapolitik auf die ­Erkenntnisse aus der Realität abzustützen.» Und der Biologe Daniel Botkin, der an den Klimaberichten des IPCC und der US-Regierung mitgearbeitet hat, räumte ein, die Zusammenfassungen dieser umfangreichen Werke seien «kein wissenschaftliches, sondern ein ­politisches Statement»: «Die Berichte tönen zwar wissenschaftlich, stützen sich aber nicht auf unbestrittene Fakten. Es gibt in der Wis­senschaft viel weniger Fakten zur globalen ­Umwelt, als die Laien glauben.»

    Aber Hauptsache, die Medien schwärmten vom Mut des Präsidenten. «Dieser historische Entscheid weckt die Erwartungen auf einen globalen Deal, der den Klimawandel beendet», jubelte der britische Guardian. Grossbritannien wendet sich allerdings von den Alternativ­energien ab und dem Fracking zu, Deutschland braucht die Kohle aus den USA für seine sichere Stromversorgung, und China oder Indien ­zeigen gegenwärtig bei der Klimakonferenz in Bonn nicht den geringsten Willen, sich beim CO2-Ausstoss einzuschränken.

    Und selbst wenn Barack Obama sich mit ­seinem historischen Plan gegen die Politiker durchsetzt, kann er damit die Welt nicht ganz retten: Gemäss den Annahmen des IPCC würden die USA, wenn sie ab sofort jeglichen CO2-Ausstoss vermieden, die globale Temperatur bis 2050 um 0,08 Grad Celsius senken.

    ===================================================

    Anmerkung EIKE-Redaktion :

    Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

    | Die Weltwoche, Ausgabe 23/2014 | Donnerstag, 5. Juni 2014  ; http://www.weltwoche.ch/

    EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

    ==================================================================

    PDF zum Download unten

    ===================================================

    Related Files




    Teil III Videos von der VII. IKEK Mannheim jetzt verfügbar: heute Prof. Dieter Ameling und Dipl. Ing. Michael Limburg zur Energiewende

    Auswirkung des deutschen Energiekonzepts auf die deutsche Wirtschaft

    Prof. Dr.-Ing. Dieter Ameling Ehem. Präsident der Wirtschaftsvereinigung Stahl und ehem. Vorsitzender des Stahlinstituts VDEh

    Prof. Ameling als ehem. Präsident der Wirtschaftsvereinigung Stahl und ehem. Vorsitzender des Stahlinstitut VDEh, ein profunder Kenner der gegenwärtigen Probleme der Industrie mit den Kosten und der Sicherheit der deutschen Energieversorgung, beschreibt in seinem Vortrag die vielfältigen negativen Entwicklungen in dieser Industrie, seit Einführung des EEG und besonders seit der Einführung der sog. "Energiewende". Insbesondere macht dieser der beschleunigte Abbau der Wettbewerbsfähigkeit der Industrie durch zu hohe Energiekosten zu schaffen. Sie reagiert darauf mit Verlagerung, zuerst von Neuinvestitionen, dann von Ersatzinvestitionen und ist immer mit massiven Arbeitsplatzverlusten verbunden.

    Kosten und Nutzen der Energiewende

    Dipl.-Ing. Michael Limburg Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)

    Dipl. Ing. (E-Technik) Michael Limburg versucht die entstandenen und noch entstehenden Kosten,die die Energiewende den Deutschen bringt, gegenüber dem realen Nutzen abzuwägen. 
    Seine Bilanz ist jedoch erschreckend. Den irrwitzigen Kosten die das EEG und die EnEV – die nur beiden wichtigsten Energiewende Gesetze den rd. 80 Mio Verbrauchern – also Zahlern- abverlangen, stehen weder ein volkswirtschaftlicher Nutzen gegenüber, noch ein Nutzen im Klimabereich, selbst wenn man den Verlautbarungen des IPCC Glauben schenken mag. 
    Stattdessen läuft bereits ein massiver Stellenabbau im wertschöpfenden Industriebereich, doch auch dem steht nur ein sehr geringer, von Limburg gem- seinen Recherchen- auf max. 80.000 Vollzeitstellen geschätzter Jobaufbau, bei den Erneuerbaren, gegenüber.