1

Zwei-Drittel der CO2 Reduzierung seit 2008 durch manipulierte Autotests

Neue Autos, darunter der Mercedes A, C und E-Klasse, BMW 5er und Peugeot 308, schlucken rund 50% mehr Kraftstoff als Ihre Labor-Testergebnisse zeigen, nach den neuen Bericht der NGO Transport & Environment (T & E). T & E fordert eine umfassende Untersuchung sowohl der Luftverschmutzung als auch des Kraftstoffverbrauchs in Europa und eine komplette Überholung des Prüfsystems.

„Der Unterschied, der zwischen der offiziellen und der realen Leistung in vielen Automodellen gefunden wurde, ist so groß, dass es nicht durch bekannte Faktoren einschließlich der Test Manipulationen erklärt werden kann. Während dieses die Nutzung von ‚Abschalteinrichtungen‘ für den Kraftstoffverbrauch in Tests nicht beweist, ähnlich dem von Volkswagen eingesetzten, sollten EU-Regierungen weitere Messfühler in Abschalteinrichtungen für CO2-Tests einsetzen und das auch auf Benzinfahrzeuge anwenden“, sagt T & E in einer Pressemitteilung.

T & Notizen: „Die Kluft zwischen offiziellen Testergebnissen für die CO2-Emissionen / Kraftstoffverbrauch und der realen Leistungsfähigkeit stieg von 8% im Jahr 2001 bis zu 40% im Durchschnitt im Jahr 2014 nach dem „T & E Mind the Gap Report2015“, der den Kraftstoffverbrauch der Autofahrer analysiert und die Fehlhandlungen der Automobilhersteller bei den aktuellen Tests herausstellt und das Scheitern der EU-Regulierungsbehörden die Schlupflöcher zu schließen. T & E, sagte, die Kluft hat sich zu einem Abgrund ausgewachsen und wird ohne Aktion wahrscheinlich auf 50% im Durchschnitt bis zum Jahr 2020 wachsen“.

„Durch die Nutzung von Lücken in den Testverfahren (einschließlich der bekannten Unterschiede zwischen realen Fahrsimulationen und Labor) für herkömmliche Autos können bis zu 40-45% mehr CO2-Emissionen auf der Straße emittiert werden, als was im Labor zu messen ist. Aber der durchschnittliche Abstand zwischen Testergebnissen und der realen Fahrweise ist mehr als 50% für einige Modelle. Mercedes-Fahrzeuge haben einen durchschnittlichen Unterschied zwischen den Tests und der realen Leistungsfähigkeit von 48% und die neuen A, C und E-Klasse-Modelle haben eine Differenz von mehr als 50%. Der BMW 5er und Peugeot 308 sind gerade unter 50%. Die Ursachen für diese großen Abweichungen müssen so schnell wie möglich geklärt werden“.

 

Greg Archer, Clean Vehicles Manager bei T & E, sagte: „Wie die Tests der Luftverschmutzung, ist das Europäischen Testsystem den Kraftstoffverbrauch der Autos und die CO2-Emissionen zu messen, völlig diskreditiert. Der Volkswagen-Skandal war nur die Spitze des Eisbergs und was darunter liegt ist der weit verbreitete Missbrauch der Prüfvorschriften durch die Automobilhersteller, dass die Autos mehr als 50% mehr Kraftstoff schlucken als behauptet wird“.

Laut T & E „, kosten die verfälschten Labortests einen typischen Autofahrer jährlich 450 € zusätzliche Kraftstoffkosten im Vergleich zu dem, was die Prospekte der Automobilhersteller behaupten, stellt der Bericht fest. Aber die Autohersteller werden weiterhin versuchen, die Einführung eines neuen Tests (WLTP) zu verzögern, der im Jahr 2017 eingeführt werden soll“

Irregeführte Fahrer

„Im Durchschnitt entstanden zwei Drittel der behaupteten Abnahmen der CO2-Emissionen und des Kraftstoffverbrauchs seit 2008 durch Manipulieren von Prüfungen mit nur 13,3 g/ km gegenüber 22,2 g / km ‚heißer Luft‘ der realen Verbräuche auf den Straßen“, nach dem Bericht von T & E.

Das bedeutet, in den letzten drei Jahren gab-es keine Verbesserung des Kraftstoffverbrauchs von Neufahrzeugen auf der Straße. Nur Toyota würde sein 2015er Testziel erfüllt haben, ohne Ausnutzung von Flexibilitäten. Alle anderen großen Automobilhersteller haben ihre gesetzlichen Grenzwerte durch Ausnutzung von Lücken erreicht“.

Dieser Beitrag ist mehrfach erschienen am 28.09.2105 und von T&E über Energypost bis zu GWPF The Global Warming Policy übernommen worden, wo wir es gefunden haben.

Übersetzt und recherchiert durch Andreas Demmig

http://www.thegwpf.com/two-thirds-of-co2-cuts-since-2008-delivered-through-manipulating-car-tests/

Hier der „mehr Text“ auf Energypost, bzw. T&E

„Autos sind für 15% der europäischen CO2-Emissionen verantwortlich und die größte Quelle der Emissionen im Verkehrssektor. Die ersten(?) obligatorischen Regeln der EU für Kohlenstoff-Emissionen fordern Automobilhersteller, die durchschnittliche Emission ihrer Auto auf ein Maximum von 130 Gramm CO2 pro km bis 2015 und 95 g bis 2021 zu begrenzen“.

Hier der erwähnte Originalbericht von T&E

Es fällt auf, das ausschließlich europäische Fahrzeuge im Focus liegen. Ich habe dann weiter nachgeforscht:

Quelle: Wikipedia T&E:

Transport and Environment (T&E) ist die Dachorganisation von nichtstaatlichen europäischen Organisationen aus dem nachhaltigen Verkehrsbereich. Die 51 Mitgliedsorganisationen kommen aus 23 Ländern (Stand Juli 2008). T&E besteht seit 1989, nimmt Einfluss auf EU-Entscheidungen und bündelt die nationalen Aktivitäten seiner Mitglieder auf europäischer Ebene. T&E gibt darüber hinaus regelmäßig Studien zum Thema Umwelt und Verkehr in Auftrag.

Nehmen wir nur mal das Mitglied: VCD Verkehrsklub Deutschland:

Quelle Wikipedia VCD: Stichwort Klima-Allianz

Der VCD ist Mitglied in der Klima-Allianz, einem Zusammenschluss aus verschiedenen Entwicklungsorganisationen, Vertretern der beiden großen christlichen Kirchen, Umweltverbänden und anderen Gruppen (z. B. attac oder dem Deutschen Alpenverein). Die Klima-Allianz versteht sich als breites, gesellschaftspolitisches Bündnis, das für mehr und entschlossenere Klimapolitik eintritt und entsprechende Denkanstöße liefern will. So setzt sie sich u. a. für den Ausbau regenerativer Energien sowie der Kraft-Wärme-Kopplung, für Tempolimits auf Autobahnen [und Tempo 30km/h in den Städten] und eine Flugticketabgabe ein.

Damit ist mir klar: VCD – Ein NGO Klimaaktivist. (Homepage)

T&E bietet ein pdf an, mit Erläuterungen der Maßnahmen, beim Verbrauchstest besser abzuschneiden:

o.g. PDF von T&E

Zusammenfassende Übersetzung für unsere Leser:

·        Lichtmaschine abgeklemmt

·        Optimierte Motorsteuerung

·        Leichtlauföl

·        Radspur gerade

·        Leichtlaufreifen

·        Mehr Luft im Reifen

·        Höher Gang

·        Karosseriefugen zugeklebt

·        Bremsklötze zurückgedrückt

·        Minimales Fahrzeuggewicht

·        CO2 deklariert darf 4% niedriger sein als gemessen

Persönlicher Abschluss:

Ich denke an Prof. Alt, der hier bereits schrieb, weniger CO2 Ausstoß bedeutet weniger Kraftstoffverbrauch, Irgendwann ist das Minimum erreicht.

Es wäre mal interessant, was ein E-Auto mit alternativer EE geladen an CO2 verursacht.

Vielleicht werden wir bald alle mit Fahrzeugen a’la Messerschmitt Kabinenroller unterwegs sein., diese sind den ursprünglichen und preiswerten Elektromobilen sehr ähnlich.

Andreas Demmig, Eike

Nachtrag vom 08.10.2015

Der rein statistische Wert: Flottenverbrauch wird sicherlich aus den Test (Katalog-) werten bestimmt. Für das einzelne Fahrzeug ist immer noch die Strecke und die individuelle Fahrgewohnheit verbrauchsbestimmend.

Für „die PKW“ werden (meines Wissens) die statistischen Angaben für importiertes, verkauftes Benzin, Diesel u.ä. hergenommen, das spiegelt dann den realen Verbrauch.

Daher halte ich es für unrichtig, mit abweichenden Katalog-Individual-werten die Aussage: „CO2 Minderung ist um … abweichend“ zu treffen.

Andreas Demmig




Endlich: Visualisierte CO2-Satellitendaten, die die globalen CO2-Konzentrationen zeigen

Diese Bilder folgen hier:

Abbildung 1: von der NASA gezeigte OCO-2-Daten vom 1. Oktober bis zum 11. November 2014

Quelle: http://www.nasa.gov/sites/default/files/thumbnails/image/mainco2mappia18934.jpg

Abbildung 2: von der NASA gezeigte OCO-2-Daten vom 21. November bis 27. Dezember 2014. Quelle: http://www.nasa.gov/sites/default/files/thumbnails/image/mainco2mappia18934.jpg

Im Mai 2015 kam es zu einer Veröffentlichung einiger visualisierter Daten, die das Mischungsverhältnis [mixing ratios] über den Ozeanen zeigen (hier):

Aus irgendwelchen Gründen hat sich die NASA nicht entschlossen, neueste Aktualisierungen der OCO-2-Satellitendaten zu veröffentlichen. Viele Menschen sind an diesen Daten interessiert, hatten aber keinen Zugang zu der Information. Die NASA hat zwar den Zugang zu den Rohdaten von OCO-2 jetzt zugänglich gemacht, doch stehen die Daten im HDF file format. Kein allgemein übliches Programm wie z. B. Excel kann die Daten in dieser Form lesen.

Ich habe ein Programm entwickelt, diese Daten zu transformieren und versucht, sie in einer Form graphisch darzustellen, die gut zum Output der NASA-Bilder passt. Die Daten sind verfügbar vom 20. 9. 2014 bis zum 22. 9. 2015, wenn ich dies schreibe. Ich habe die Plots in Intervalle von etwa 6 Wochen generiert. Man braucht diese Datenmenge, um den größten Teil des Globus‘ mit beobachteten Daten zu erfassen. Man erkennt den Weg des Orbits aus dieser NASA-Visualisierung:

NASA: „Der Satellit brauchte 16 Tage und 233 Umläufe, um ein vollständiges globales Bild des Kohlendioxids zu erstellen“.

Einige Anmerkungen zur Implementierung

Die Daten jeder Testmenge sind in einem Feld dargestellt. Jeder Punkt wird dem Feld als Kreis hinzugefügt. Der Mittelpunkt des Kreises hat die Wichtung 1 für die Mittelungs-Funktion. Die übrigen Punkte in dem Kreis werden abwärts gewichtet, je weiter sie vom Mittelpunkt entfernt sind. Diese Wahl basiert auf den Bildern der NASA, welche kreisförmige Artefakte zeigen.

Alle Bilder sind mit der gleichen Minimum-Maximum-Skala von 380 bis 440 ppm gezeigt. Dies ergibt nicht die beste dynamische Bandbreite für jedes Bild, aber es präsentiert eine gute Bandbreite über alle Bilder.

Die NASA-Bilder reichen von 60°S bis 60°N. Ich habe mich entschlossen zu zeigen, was immer an Daten vorhanden ist.

Alle Datenpunkte sind geplottet aus den OCO-2-Files unabhängig vom Warn-Niveau [warn_level; ?]. Das Warn-Niveau wird verwendet, um die Qualität der Testmenge zu beurteilen. Die OCO-2-Files sagen, dass es sich um Testmengen „hoher Qualität“ handelt, so dass ich alle verwendet habe.

Die Daten für diese Bilder stammen aus dem OCO-2-Lite v7-Datensatz. Diesen kann man hier einsehen.

Visualisierungen

Die im Folgenden präsentierten Daten erscheinen ohne Kommentar. Ich möchte es anderen überlassen, darüber nachzudenken, was die Daten bedeuten. Ohne weitere Vorrede – hier also sind diese Daten:

Abbildung 3*: 1. Oktober bis 11. November 2014

Abbildung 3 ist der Versuch, sich dem ersten NASA-Bild vom 1. Oktober bis zum 11. November 2014 zu nähern, um zu sehen, wie gut mein Algorithmus passt. Man beachte, dass die NASA den Datensatz viele Male adjustiert hat seit der Veröffentlichung des NASA-Bildes. Die jetzige Version ist v7. Ich bin mir nicht sicher, welche Änderungen an den Daten vorgenommen worden waren.

[*Warum der Autor die vorigen beiden Bilder aus der Zählung der Abbildungen herausgenommen hat, erschließt sich mir nicht. „Abbildung 3“ ist also die 5. Abbildung in diesem Beitrag. Das gilt auch für alle folgenden Abbildungs-Nummern. Anm. d. Übers.]

Abbildung 4 : 16. November bis 31. Dezember 2014

Abbildung 5 : 1. Januar bis 15. Februar 2015

Abbildung 6 : 16. März bis 31. März 2015

Abbildung 7 : 1. April bis 15. Mai 2015

Abbildung 8 : 16. Mai bis 30. Juni 2015

Abbildung 9 : 1. Juli bis 15. August 2015

Abbildung 10 : 16. August bis 12. September 2015

Aktualisierung: Eric Swenson präsentiert diese Karte im Kommentarbereich. Sie zeigt CO2 über das gesamte Jahr von September 2014 bis Oktober 2015:

Außerdem zeigt Kommentator „edimbukvarevic” diese Karte der anthropogenen CO2-Emissionen zum Vergelich:

Link: http://wattsupwiththat.com/2015/10/04/finally-visualized-oco2-satellite-data-showing-global-carbon-dioxide-concentrations/

Übersetzt von Chris Frey EIKE




„Erneuerbare“ im September 15 – Außer hohen Spesen nicht viel gewesen

Mit der ihm eigenen Präzision hat Rolf Schuster die Septemberdaten der EEX ausgewertet. Einmal mehr zeigt sich dass die NIE nicht in der Lage sind, sicher und zuverlässig die benötigten Last-Leistungen abzuliefern. Ohne die viel geschmähten "schmutzigen" und von Abschaltung bedrohten Stromerzeuger mit fossilen Brenstoffen betrieben oder mittels Kernkraft würde das Wort des beliebten Bundespräsidenten Joachim Gauck vom "Dunkeldeutschland" schneller und "nachhaltiger" Wirklichkeit werden als von ihm gedacht.

Bild rechts: "Erneuerbare" Einspeisung vs. Bedarf im September 2015. Daten EEX, Grafik R. Schuster

Auch bei einer angenommenen Verdreifachung der installierten NIE-Nennleistung würden diese Erzeuger nur an wenigen Tagen den Bedarf decken können. Doch die Kosten dafür würden weiter explodieren.

Sep 2015

Load D

Wind

Solar

Wind + Solar

 

inst. Nennleistung

 

43.485MW

39.190MW

82.675MW

 

Max

73.609MW

24.212MW

23.182MW

34.379MW

41,58%

Mittelwert

55.112MW

7.692MW

4.440MW

12.132MW

14,67%

Min

35.241MW

951MW

0MW

2.063MW

2,50%

Summe Monat

39.680GWh

5.538GWh

3.197GWh

8.735GWh

22,01%

 

Darstellung bei einer Verdreifachung der Nennleistung von Wind und Solar

 

 

 

 

 

Sep 2015

Wind

Solar

Wind + Solar

Proz. der Nennleist.

inst. Nennleistung

43.485MW

39.190MW

82.675MW

100,0%

max. Einspeiseleistung

24.212MW

23.182MW

34.379MW

41,6%

Mittelwert

7.692MW

4.440MW

12.132MW

14,7%

min. Einspeiseleistung

951MW

0MW

2.063MW

2,50%

Summe

5.538GWh

3.197GWh

8.735GWh

 

 

Summe der erzeugten Energie

8.735GWh

Verteilung der Einspeisung nach Klassen

0% bis 10% NL

285,75 h

39,7%

11% bis 20% NL

234,75 h

32,6%

21% bis 30% NL

153,00 h

21,3%

31% bis 40% NL

39,50 h

5,5%

größer 40%

7,00 h

1,0%

Summe

720,00 h

100,0%

 

 

 

Sep 2015

Kennzahlen Wind

Proz. der Nennleist.

Summe der erzeugten Energie

5.538GWh

Verteilung der Einspeisung nach Klassen

inst. Nennleistung

43.485MW

100,0%

0% bis 10% NL

207,00 h

28,8%

max. Einspeiseleistung

24.212MW

55,7%

11% bis 30% NL

402,50 h

55,9%

Mittelwert

7.692MW

17,7%

31% bis 50% NL

95,50 h

13,3%

min. Einspeiseleistung

951,0MW

2,19%

51% bis 70% NL

15,00 h

2,1%

Summe

5.538,2GWh

 

größer 70%

0,00 h

0,0%

Summe Stunden

720,00 h

100,0%

 

 

 

  

Sep 2015

Kennzahlen Solar

Proz. der Nennleist.

Summe der erzeugten Energie

3.197GWh

Verteilung der Einspeisung nach Klassen

inst. Nennleistung

39.190MW

100,0%

Einsp. =  0 MW

309,00 h

42,9%

max. Einspeiseleistung

23.182MW

59,2%

1% bis 20% NL

209,75 h

29,1%

Mittelwert

4.440MW

11,3%

21% bis 40% NL

153,75 h

21,4%

min. Einspeiseleistung

0MW

0,0%

größer 40%

47,50 h

6,6%

Summe

3.196,6GWh

 

Summe

720,00 h

100,0%

 

 

 

 

 

 

 

 

Sep.2015

Wind + Solar                                EEG-Wert

Wind + Solar              Börsenwert   EEX

Differenz                                       EEX-Wert                                   – EEG-Wert

EEX Preis

Max / h

7.545.705,2 €

1.003.346,5 €

 

59,39 €/MWh

Mittel / h

2.000.256,1 €

356.751,5 €

 

31,88 €/MWh

Min /h

173.292,0 €

-1.010.077,6 €

 

-29,93 €/MWh

Summe Mon.

1.440.184.379,8 €

256.861.108,0 €

-1.183.323.271,8 €

 

 

Über das Wochenende vom 04.09. bis 06.09. speisten Wind+Solarenergie „volle Pulle“ in das deutsche Stromnetz ein, ohne das eine hohe Verbrauchernachfrage vorhanden war.

 

 

Dies führte zu einer Leistungsanpassung der sogenannten Dinosaurierkraftwerke.

 

 

Trend 2015:

Das Jahr 2015 scheint sich zu einem „erfolgreichen“ Jahr für die „Erneuerbaren“ zu entwickeln.




Sonne macht Klima: Neues aus Europa

Die Wissenschaftler fanden charakteristische Zyklizitäten, darunter die bekannten solaren Eddy- (1000 Jahre), Suess-de Vries- (200 Jahre) und Gleissberg- (90 Jahre) Zyklen:

Auswirkungen des solaren Antriebs und der Nordatlantischen Oszillation auf das Klima im kontinentalen Skandinavien während des Holozäns

Sedimentablagerungen aus den Nautajärvi and Korttajärvi-Seen in Finnland, die die letzten 10.000 Jahre abdecken, zeigen Beweise für Klima- und Umweltoszillationen im Zeitbereich von vielen Jahrzehnten bis zu Jahrtausenden. Wir haben zwei unabhängige Verfahren angewendet, um periodische Erscheinungen aus diesen Zeitreihen zu extrahieren und ihre statistische Zuverlässigkeit abzuschätzen. Analysen zeigten, dass jahreszeitliche Sedimentflüsse mit Umweltveränderungen korrespondieren sowie mit statistisch signifikanten Periodizitäten von 1500 bis 1800, 1000, 600 bis 800, fast 300, fast 200, 150 bis 170, fast 90 und 47 Jahren. Sie zeigen eine variable Kohärenz mit verschiedenen klimatreibenden Faktoren und anderen Paläo-Proxyaufzeichnungen auf der Nordhemisphäre. Die Ergebnisse zeigen, dass das Winterklima im Holozän im kontinentalen Skandinavien durch eine Kombination vieler Faktoren getrieben worden ist, zumindest durch die Sonnenaktivität und von atmosphärischen Zirkulationsmustern im Bereich Nordatlantik-Europa, wobei die Einflüsse mit der Zeit variieren.

Insbesondere der 1000-Jahres-Zyklus tritt hervor. In der Discussion schreiben die Autoren:

Die Identifizierung des 1000-Jahre-Zyklus‘ zeigt, dass der solare Antrieb möglicherweise klimatische und umweltliche Fluktuationen im kontinentalen Skandinavien während des Holozäns ausgelöst hat.

Auch im Bereich der Nordsee gibt es neue Hinweise auf eine solare Klimabeeinflussung. Im Juli 2014 veröffentlichte eine Forschergruppe der Universität Mainz bestehend aus Hilmar Holland, Bernd Schöne, Constanze Lipowsky und Jan Esper im Fachblatt The Holocene eine Klimastudie auf Basis von Anwachsstreifen in Muschelschalen. Dabei deckten die Wissenschaftler die vergangenen 1000 Jahre ab. Holland und Kollegen fanden, dass das Klima immer dann besonders stark schwankte, wenn die Sonnenaktivität auf Minimalwerte absank. Dies gilt insbesondere für die solaren Maunder- und Spörer-Minima während der Kleinen Eiszeit. Hier die Kurzfassung der Arbeit:

Dekadische Klimavariabilität der Nordsee während des letzten Jahrtausends, rekonstruiert mittels bestimmter Muschelschalen auf arktischen Inseln (von der Gemeinen Islandmuschel)

Ununterbrochene und jährlich aufgelöste Aufzeichnungen des Paläoklimas sind von grundlegender Bedeutung, um die gegenwärtigen globalen Änderungen in einen Zusammenhang zu stellen. Derartige Informationen sind besonders relevant für den europäischen Bereich, wo Wetter- und Klimaprojektion immer noch eine große Herausforderung darstellen, wenn sie nicht sogar unmöglich sind. Diese Studie präsentiert die ersten genau datierten, jährlich aufgelösten und multiregionalen Chronologien aus den Schalen der Gemeinen Islandmuschel aus der Nordsee. Sie überdecken den Zeitraum 1040 bis 2010 und enthalten wichtige Informationen über supra-regionale Klimabedingungen (Wassertemperatur, ozeanische Produktivität, Wind). Das Wachstum der Muscheln variierte periodisch in Zeiträumen von 3 bis 8, 12 bis 16, 28 bis 36, 50 bis 80 und 120 bis 140 Jahren. Möglicherweise zeigt dies eine enge Verbindung mit der Nordatlantischen Oszillation, ozean-internen Zyklen im Nordatlantik, kontrolliert durch Ozean-Atmosphäre-Kopplungen sowie der Atlantischen Multidekadischen Oszillation. Zunehmende Klima-Instabilität, das heißt eine stärkere quasi-dekadische Variabilität, scheint verbunden mit dem Vorherrschen atmosphärischer Antriebe und signifikant geringeren Einstrahlungs-Phasen (d. h. Spörer- und Maunder-Minima). Eine gesteigerte klimatische Variabilität über kürzere Zeiträume wurde ebenfalls beobachtet, und zwar während besonders warmer Phasen oder Verschiebungen (z. B. während der ,Mittelalterlichen Klimaanomalie‘ [?] und seit etwa 1970). Stabilere Klimabedingungen, das heißt verlängerte Warm- oder Kaltphasen (Mittelalterliche Klimaanomalie, Kleine Eiszeit) fielen jedoch zusammen mit einem Vorherrschen multidekadischer ozeanischer Zyklen. Ob die Anzahl von Sonnenflecken und eine höhere Klimavariabilität ursächlich zusammenhängen und welche Prozesse und Abläufe dem zugrunde liegen, ist nicht Gegenstand dieser Studie.

Gehen wir nun einige hundert Kilometer nach Osten, nach Polen. Ein Team um Ivan Hernández-Almeida nahm sich im Nordosten des Landes ebenfalls die Klimageschichte des letzten Jahrtausends vor. In einem Artikel, der Mitte August 2015 in den Quaternary Science Reviews erschien, berichteten die Wissenschaftler von starken natürlichen Klimaschwankungen und einer deutlichen solaren Beeinflussung. Hernández-Almeida fanden eine klare Gliederung in Mittelalterliche Wärmeperiode, Kleine Eiszeit und Moderne Wärmeperiode. Dabei fielen die Winter vor 1000 Jahren während der Mittelalterlichen Wärmeperiode sogar milder aus als heute (Abbildung 1). In den letzten 50 Jahren ist im Datensatz zudem eine Verschärfung der polnischen Winter zu erkennen. Im Folgenden die Kurzfassung der Arbeit:

Eine auf den Goldbraunen Algen basierende quantitative Rekonstruktion der Strenge von Wintern aus Tonsedimenten in Seen in Nordostpolen während des letzten Jahrtausends sowie deren Beziehung zur natürlichen Klimavariabilität

Zellen von Algen werden als starke Proxys zur Bestimmung der Temperatur in der kalten Jahreszeit angesehen. In dieser Studie betrachten wir die Beziehung zwischen Algen-Ansammlungen und der Anzahl von Tagen mit einer Temperatur unter 4°C (DB4°C) im Epilimnion* eines Sees in Nordpolen, um eine Transfer-Funktion zu entwickeln und die Strenge der Winter in Polen für das letzte Jahrtausend zu rekonstruieren. DB4°C ist eine Klimavariable abhängig von der Länge des Winters. Bestimmte Verfahren [Multivariate ordination techniques]wurden angewendet, um die Verteilung von Algen in Sedimenten von 37 Flachlandseen zu studieren, verteilt entlang einer Vielzahl umweltlicher und klimatischer Gradienten in Nordpolen. Von allen gemessenen Umweltvariablen, stufenweiser Auswahl der Variablen und individuellen Freisetzungs-Analysen (RDA) ergab die Variable DB4°C als die wichtigste Variable für Algen … . Eine quantitative Transferfunktion wurde erzeugt, um DB4°C aus Sedimentablagerungen zu schätzen mittels der partiellen Regression kleinster Quadrate. Das Zwei-Komponenten-Modell (PLS-2)enthielt einen Koeffizienten der Bestimmung von Rcross = 0,58 mit der Wurzel aus dem mittleren quadratischen Fehler der Vorhersage (RMSEP) von 3,41 Tagen (auf der Grundlage von ,einen auslassen‘). [?] Die sich daraus ergebende Transfer-Funktion wurde angewendet auf einen jährlich unterteilten Sediment-Bohrkern aus dem Lake Żabińskie. Er erlaubte eine neue, sub-dekadische Rekonstruktion von DB4°C mit hoher chronologischer Genauigkeit für den Zeitraum vom Jahr 1000 bis 2010. Während des Mittelalters (Jahre 1180 bis 1440) waren die Winter allgemein kürzer (wärmer) außer während einer Dekade mit sehr langen und kalten Wintern um das Jahrzehnt von 1260 bis 1270 (im Anschluss an den Vulkanausbruch im Jahre 1258). Im 16. und 17 Jahrhundert sowie zu Beginn des 19. Jahrhunderts war es zu sehr langen und strengen Wintern gekommen. Der Vergleich mit anderen Rekonstruktionen der kalten Jahreszeit in Europa sowie atmosphärische Indizes hier zeigen, dass ein großer Teil der Winter-Variabilität (rekonstruierte DB4°C) dem Wechselspiel geschuldet ist zwischen den Oszillationen der zonalen Strömungen, die von der North Atlantic Oscillation (NAO) gesteuert werden, sowie dem Einfluss kontinentaler Antizyklonen (Sibirisches Hoch, Bedingungen Ostatlantik/Westrussland). Unterschiede zu anderen europäischen Aufzeichnungen werden geographischen klimatologischen Unterschieden zugeordnet zwischen Polen und Westeuropa (tief liegende Länder; Alpen). Der erstaunliche Gleichlauf zwischen der Kombination vulkanischer und solarer Antriebe sowie die DB4°C-Rekonstruktion vor dem 20. Jahrhundert zeigen, dass das Winterklima in Polen hauptsächlich auf eine natürlich angetriebene Variabilität reagiert (vulkanisch und solar). Der Einfluss von Variabilität ohne Antrieb ist gering.

[*Das Wort habe ich noch nie gehört. Bei WIKIPEDIA steht erläutert, was das ist: Das Epilimnion (Epilimnial) nennt man in der physikalischen Limnologie die obere erwärmte und stark bewegte Wasserschicht in einem geschichteten stehenden Gewässer. Das Epilimnion ist durch die Sprungschicht, das Metalimnion, von der unteren Wasserschicht, dem Hypolimnion getrennt. Quelle und Weiteres. Anm. d. Übers.]

Abbildung 1: Schwankungen in der Härte der polnischen Winter während der letzten 1000 Jahre. Aufgetragen ist die Anzahl der Tage mit Temperaturen unter 4°C. Ausschlag nach unten zeigte strenge Winter, Ausschlag nach oben milde Winter an. Aus: Hernández-Almeida et al. 2015.

Auf unserem europäischen Streifzug durch die aktuelle Literatur zur Klimawirkung der Sonne geht es jetzt an den Südwestzipfel des Kontinents. In Portugal untersuchte eine Forschergruppe um Santos et al. die Temperaturgeschichte der letzten 400 Jahre. Zum Wissenschaftlerteam gehört unter anderem auch Eduardo Zorita vom Helmholtz-Zentrum in Geesthacht. Im Fachblatt Climate of the Past berichten Santos und Kollegen über klare klimatische Auswirkungen der solaren Maunder und Dalton Minima auf das Temperaturgeschehen:

Neue Erkenntnisse aus der rekonstruierten Temperatur in Portugal während der letzten 400 Jahre

Die Konsistenz einer bestehenden rekonstruierten jährlichen Temperaturreihe (Dezember bis November) für das Gebiet um Lissabon ab dem Jahr 1600 basiert auf einer europaweiten Rekonstruktion, erzeugt aus: 1) fünf lokalen Tiefenprofilen der Temperatur aus Bohrlöchern, 2) synthetische Temperatur-Tiefenprofile, erzeugt sowohl aus rekonstruierten Temperaturen als auch zwei regionalen Paläoklima-Simulationen in Portugal, 3) instrumentellen Datenquellen im 20. Jahrhundert und 4) Temperaturindizes aus dokumentarischen Quellen zum Ende des Maunder-Minimums (1675 bis 1715). Die geringe Variabilität der rekonstruierten Temperatur in Portugal ist nicht ganz konsistent mit lokalen Tiefen-Temperaturprofilen aus Bohrlöchern und mit der simulierten Reaktion der Temperatur in zwei regionalen Paläoklima-Rekonstruktionen, getrieben durch Rekonstruktionen verschiedener Klimatreiber. … Weitere Kalibrierungen zeigen die klaren Fußabdrücke des Maunder- und des Dalton-Minimums, die allgemein mit Änderungen der Sonnenaktivität in Verbindung gebracht werden sowie mit explosiven Vulkanausbrüchen. …

Schließlich sei noch auf einen Artikel aus Österreich von Auer und Kollegen hingewiesen, der im Februar 2015 in Climate of the Past erschien. Die Forscher untersuchten eine 17 Millionen Jahre alte Sedimentabfolge in den Alpen. Dabei stießen sie im Rahmen einer hochauflösenden paläoklimatischen Untersuchung auf eine stark ausgeprägte natürliche Klimavariabilität und charakteristische solare Zyklen des Gleissberg und Suess-de Vries Typs. Auer und Kollegen schlussfolgern, dass das Klima des Miozäns maßgeblich durch solare Aktivitätsschwankungen gesteuert wurde. Im Folgenden die Kurzfassung der Studie:

Zwei ausgeprägte dekadische und jahrhundertliche Zyklizitäten trieben die Intensität maritimer Auftriebe von Tiefenwasser sowie den Niederschlag zum Ende des Frühen Miozäns in Mitteleuropa.

Innerhalb einer 5,5 Meter dicken Aufeinanderfolge von Sedimenten aus den Karpaten im nordalpinen Voralpenland (NAFB; Österreich), datiert zur CNP-Zone NN4, wurde kontinuierlich ein hoch aufgelöster Bereich aufgezeichnet. Einhundert Testmengen wurden mit einer Auflösung von etwa 10 mm (= etwa 17 Jahre) pro Schicht gezogen und analysiert mittels eines integrierten Multiproxy-Verfahrens. Frühere Analysen der Geochemie und Kalkablagerungen deuten auf kleinräumige, kurzzeitige Variationen der Umweltbedingungen in Paläo-Zeiten wie etwa Schichtenbildung in Wassersäulen, primäre Produktivität, Flüsse organischen Materials, Sauerstoffanreicherung tieferer Wasserschichten, Süßwasser-Zufluss und Änderungen des relativen Meeresspiegels. Die Ergebnisse zeigen eine hochdynamische dünne maritime Schicht, die Gegenstand häufiger Umweltänderungen im Zeitmaßstab von Jahrzehnten und Jahrhunderten war. Zeitreihen-Analysen von neun verschiedenen Proxy-Datensätzen wurden einer REDFIT-Analyse unterzogen, um eine möglicherweise zyklische Natur dieser Variationen zu erkennen. Die Analysen zeigten, dass unterschiedliche Proxys für Niederschlag, Intensität von Tiefenwasser-Aufwallung und Gesamt-Produktivität wahrscheinlich von unterschiedlichen Zyklizitäten getrieben werden. Eine Best-Fit-Adjustierung der wahrscheinlichen Sedimentations-Raten innerhalb des hoch aufgelösten Bereiches führte zu Periodizitäten, die gut zum niedrigeren (ca. 65 Jahre) und höheren (ca. 113 Jahre) Gleissberg-Zyklus ebenso wie zum Suess/deVries-Zyklus (ca. 211 Jahre) passen. Der Abschnitt überdeckt einen Zeitraum von etwa 1190 Jahren auf der Grundlage der Korrelation mit solaren Zyklen, was zu einer geschätzten Sedimentationsrate von 575 mm pro 1000 Jahre führte. Zum ersten Mal sind kurzfristige Klima-Variabilitäten im dekadischen bis jahrhundertlichen Zeitmaßstab aufgelöst in dünnen maritimen Sedimenten. Die Ergebnisse deuten auf eine enge Relation zwischen Klima-Variabilität und solarem Antrieb während der Zeit des Late Burdigalian. Außerdem, wenn man akzeptiert, dass diese Zyklizitäten wirklich solaren Ursprungs sind, würde dies zeigen, dass der Niederschlag von den beiden Gleissberg-Zyklen getrieben wurde, während das Aufwallen vom Suess-Zyklus getrieben wurde. Außerdem wurden Proxys der primären Produktivität durch beide Zyklen beeinflusst.

Beitrag zuerst erschienen bei der „Kalten Sonne“ hier. Übersetzung der englischen Passagen von Chris Frey EIKE

Anmerkung EIKE Redaktion: Die kalte Sonne hatte bereits am 20.August 2015 (hier) die EIKE-News vom 12.August 2015 (hier) über eine Publikation von Lüdecke, Weiss, Hempelmann abgedruckt. Diese Arbeit erschien in der Fachzeitschrift "Climate of the Past Discussion" der Europäischen Geophysikalischen Union (egu) (hier). In ihr wurde der Klimaeinfluss des De Vries /Suess Sonnenzyklus untersucht. Diese Arbeit ist in der obigen Zusammenfassung der neuesten Publikationen zum Klimaeinfluss der Sonne leider nicht mit aufgeführt.




Wenn der Staat es will- (VW) Manipulationssoftware auch am Bau

Dank unserer „Qualitätsmedien“ sind in den Augen der Öffentlichkeit nicht verrückte und ehrgeizige Politiker schuld, sondern die kriminellen Ingenieure. „Haltet den Dieb!“ rufen die Medien und berichten von „Geständnissen“. Geht’s noch?

Welcher Ingenieur hat nicht bereits mit Manipulationssoftware gearbeitet? Im Bauwesen beispielweise alle! Seit vielen Jahren werden Wärmeschutznachweise mit einer Software erstellt, deren Rechenkern im Auftrag der Bundesregierung vom Fraunhofer-Institut für Bauphysik erstellt wurde. In diesem Rechenmodel  werden Sonnenstrahlen, welche auf  Fenster treffen, rechnerisch als Energiegewinn berücksichtigt. Solche welche auf Außenwände fallen unlogischerweise und inkonsequenterweise nicht. Wandflächen sind viel größer, als Fensterflächen und Wände haben außerdem Wärmespeichervermögen. Selbst wenn man im tiefsten Winter an einem Sonnentag eine Südwand anfaßt, spürt man die gespeicherte Wärme.  Jeder Ingenieur mit physikalischem Grundwissen weiß, daß mit dem Rechenprogramm manipuliert und betrogen wird. Aber alle machen mit. Denn die Anwendung dieses Manipulationsprogramms wird mit staatlichem Zwang durchgedrückt.

Bestandsgebäude werden mit diesem Trick der Nichtberücksichtigung der Wände energetisch minderwertig gemacht. Eine zu hohe Heizlast der Altbauten wird berechnet, weil die Sonne als Energiequelle vernachlässigt wird. Die Zufuhr von Sonnenenergie und Globalstrahlung durch die Wände wird halt „vergessen“. Für das mit Dämmplatten „sanierte“ Haus wird die physikalisch richtige Heizlast gerechnet. Da aber wie bereits erwähnt das Bestandsgebäude schlechtgerechnet wird, wird der Effekt der „Sanierung“ zu positiv dargestellt. Jeder Hausbesitzer wundert sich, daß nach erfolgter Wärmedämmung die Heizkostenersparnis regelmäßig sehr deutlich unter der rechnerischen Prognose liegt.  Ursache ist eben, daß von der Bundesregierung Manipulationssoftware in Umlauf gebracht wurde. Und die ist auch noch verbindlich anzuwenden.

Im ganzen „grünen“ Bereich häufen sich die Übergriffe des Staates auf die Vernunft. Viele Berechnungen sind getürkt, um politisch gewollte, aber naturwissenschaftlich unsinnige Aussagen zu unterfüttern oder um unerfüllbare staatliche Anforderungen zu unterlaufen. Dieselgate und die Energienachweise für Gebäude sind nur zwei Beispiele.

Die Kriminellen sind die Politiker und Journalisten, nicht die Ingenieure. Es  wird Zeit, daß Ingenieure und Fachleute gegen die manipulierenden Medien- und Parlamentsaffen den Aufstand wagen. Es wird Zeit, daß die deutsche Industrie, die deutsche Landwirtschaft und das deutsche Handwerk sich gegen staatliche Willkür wehren. Wer das nicht rechtzeitig tut, endet wie VW-Vorstand Winterkorn am öffentlichen Pranger.  Lieber im offenen Kampf für die Wahrheit sterben, als von hinten von Lügnern heimtückisch erschlagen werden!

Übernommen von Prabelsblog hier




Hat James Hansen unabsichtlich die AGW-Null-Hypothese bewiesen?

Bild rechts: © Alan Caruba †

Hintergrund

Der erste IPCC-Bericht war im Jahre 1990 erschienen, aber einen mehr konzertierten Schub der AGW-Hypothese gab es erst im Bericht 1995. Vier Jahre später wurde die Auswertung eines Eisbohrkerns aus der Antarktis von Petit et al. in Nature veröffentlicht. Der Artikel enthielt auch eine Graphik, in der Temperatur, CO2, Methan und Einstrahlung miteinander verglichen werden (Abbildung 1)

Abbildung 1

Die Graphik scheint die AGW-Hypothese zu stützen. Es sieht so aus, als ob eine Temperaturzunahme einer CO2-Zunahme vorausgegangen war [It looked like temperature increase preceded CO2 increase. Das passt nicht zum Satz davor. Hat der Autor hier vielleicht etwas verwechselt? Anm. d. Übers.] Ich kontaktierte einen der Autoren, Jean Jouzel, und warnte ihn davor, in einem Interview zu einer Beurteilung zu kommen. Er merkte an, dass 420.000 Jahre in einer 10 cm langen Graphik geplottet waren, kompliziert durch ein über 70 Jahre geglättetes Mittel, das viele Details maskiert hatte. Er war vorausschauend. AGW-Befürworter ignorierten die Warnung und nutzten die Graphik als Unterstützung für ihre Hypothese. Im Endeffekt wurde sie zum Vorläufer des ,Hockeyschlägers‘, der so viel Aufmerksamkeit in den Medien und der Öffentlichkeit erregt hatte.

Allerdings hat schon Hubertus Fischer von der Scripps Institution of Oceanography in guter wissenschaftlicher Tradition die Beziehung zwischen Ursache und Wirkung in einer Studie aus dem Jahr 1999 in Frage gestellt. Im Jahre 2001 hat Manfred Mudelsee im Quaternary Science Review eine andere Studie veröffentlicht, in welcher er diese Beziehung ebenfalls in Frage stellt.

Lowell Stott wartete im Jahre 2007 mit einer Studie auf, veröffentlicht in Science, mit dem Titel Southern Hemisphere and Deep-Sea Warming Led Deglacial Atmospheric CO2 Rise and Tropical Warming [etwa: Erwärmung auf der Südhalbkugel und in der Tiefsee führte zu einem CO2-Anstieg und einer Erwärmung in den Tropen]. Sherwood und Craig Idso betreiben die beste Website hinsichtlich aller mit CO2 zusammenhängenden Themen. Dort findet sich auch eine Liste mit Studien und weiteren Beweisen, dass die Beziehung umgekehrt zur IPCC-Hypothese ist. Keine einzige dieser Studien hat jemals die Aufmerksamkeit der Mainstream-Medien erregt.

Gescheiterte Prognosen, welche schon im IPCC-Bericht 1990 aufgetaucht waren, waren eines der ersten Anzeichen des Problems. Anstatt die Hypothese zu überdenken und die Wissenschaft hinter ihr zu überprüfen, vollführte es die erste politische Adjustierung mit der Erzeugung von Projektionen anstatt Prophezeiungen. Dabei ließen sie es bewusst zu, dass Medien und Öffentlichkeit glaubte, es handele sich um Vorhersagen. Hansen et al. erzeugten einen Vorläufer der Projektions-Szenarien im Jahre 1988, also im gleichen Jahr, in dem er vor dem Komitee des US-Senats den gesamten AGW-Betrug losgetreten hatte. Abbildung 2 zeigt die Originalgraphik aus jenem Artikel.

Abbildung 2

In einem prägnanten Beitrag über Hansens Modell erstellte Anthony Watts* eine modifizierte Version der Abbildung 2 und fügte aktuelle Temperaturen hinzu (Abbildung 3)

[*Das ist etwas vereinfacht. Watts bezieht sich darin ausdrücklich auf Arbeiten von Sebastian Lüning und Fritz Vahrenholt vom Blog „Die Kalte Sonne“ sowie auf einen Beitrag von Pierre Gosselin auf seinem Blog NoTricksZone. Nur der Vollständigkeit halber. Anm. d. Übers.]

Abbildung 3

Hansen et al.postulierten drei Szenarien:

A: Zunahme der CO2- Emissionen um 1,5% pro Jahr

B: konstante Zunahme der CO2-Emissionen nach dem Jahr 2000

C: Keine Zunahme der CO2-Emissionen nach dem Jahr 2000

Natürlich haben sich die Mainstream-Medien sofort auf die Temperaturprojektionen von Szenario A gestürzt. Einige von uns wussten, dass die Szenarien A und B unrealistisch waren, und wir wussten, wie falsch sie lagen. Ich hatte in den neunziger Jahren viele Diskussionen mit dem kanadischen Experten für Eisbohrkerne Fritz Koerner über seine Bohrkerne von den Arktischen Inseln. Er sagte mir, dass die Bohrkerne eine Temperaturzunahme vor einer CO2-Zunahme zeigten. Im Rückblick ist Szenario C interessanter und aussagekräftiger.

Hansen präsentiert es als das ideale Szenario. Er sagt Politikern und Medien, was geschehen würde, falls die Menschen aufhören, CO2 in die Atmosphäre freizusetzen. Heissa! Die Temperaturen werden aufhören zu steigen. Ironischerweise ist dies äquivalent zu Modellläufen, als ob CO2 keine Erwärmung verursacht. Damit wird im Endeffekt die Null-Hypothese der AGW-Hypothese präsentiert. Es zeigt, was geschehen würde, falls CO2 nicht die Ursache der Erwärmung wäre. Es nähert sich der Realität an.

Abbildung 4 zeigt ähnliche Szenario-Projektionen aus dem AR 4 des IPCC im Jahre 2007, überlagert mit der tatsächlichen CO2-Zunahme. Der Unterschied zu Hansen liegt im niedrigen Szenario. Im AR 4 des IPCC heißt es:

Modellexperimente zeigen, dass selbst wenn wir alle Strahlungsantriebe konstant auf dem Niveau des Jahres 2000 halten würden, ein weiterer Erwärmungstrend während der nächsten beiden Jahrzehnte auftreten würde von etwa 0,1°C pro Dekade, hauptsächlich infolge der Trägheit der Ozeane.

Abbildung 4

Abbildung 4 scheint zu zeigen, dass die Projektionen für „Best“ und „Hoch“ primär eine Funktion der Zunahme des atmosphärischen CO2-Niveaus sind. Selbst die Projektion „Niedrig“ weicht vom tatsächlichen Temperaturtrend ab, wie die Aufzeichnungen am Boden (HadCRUT) und vom Satelliten (UAH) belegen. Außer dass sie die Null-Hypothese bestätigen zeigen die Ergebnisse auch, dass die IPCC-Behauptung des fortgesetzten Anstiegs infolge der Trägheit der Ozeane ebenfalls falsch ist.

Hansen begrenzte seine Forschung und seine Klimamodelle auf menschliche Ursachen des Klimawandels. Er erzeugte zwei Projektionen mit der Grundlage, dass CO2 weiterhin zunehmen werde. Damit hat er das Ergebnis im Voraus festgelegt. Er bestätigte seine Hypothese, der zufolge eine fortgesetzte menschliche Erzeugung eine globale Erwärmung verursachen werde, aber nur in den Modellen. Allerdings musste er, offensichtlich getrieben von seiner politischen Agenda, Politiker davon überzeugen, dass eine Reduktion der CO2-Emissionen das Problem lösen werde. Um dies zu unterstreichen, ließ er sein Modell ohne CO2-Zunahme laufen, um zu sehen, was dann passieren würde. Es erzeugte eine Kurve, die zum tatsächlichen Temperaturtrend der inzwischen vergangenen 27 Jahre passt. Dieses Ergebnis würde man erwarten, falls man die Null-Hypothese akzeptiert, dass CO2 aus jedweder Quelle keine globale Erwärmung verursacht. Danke, Jim, genießen Sie ihren Ruhestand.

Link: http://wattsupwiththat.com/2015/10/03/did-james-hansen-unwittingly-prove-the-null-hypothesis-of-agw/

Übersetzt von Chris Frey EIKE




Windparks sogar noch teurer und sinnloser als gedacht

Falls man dieser Graphik der US Energy Information Administration (EIA) glaubt, wäre Onshore-Wind eine der billigsten Energieformen – wettbewerbsfähiger als Kernkraft, Kohle- oder Wasserkraft – und noch mehr als Solar.

Aber wenn man die wirklichen Kosten der Windenergie mit einbezieht, ist diese rund 48% teurer als die offiziellen Schätzungen der Industrie. Dies zeigen neuere Forschungen an der Utah State University.

„In dieser Studie beziehen wir uns auf die ,wahren Kosten‘ von Wind, wie sie Verbraucher und die Gesellschaft als Ganzes zahlen, sowohl um den winderzeugten Strom zu kaufen als auch um die Industrie der Windenergie durch Steuern und Schulden der Regierung zu subventionieren“, sagte Ryan Yonk, Ph.D., einer der Autoren des Berichtes und Mitbegründer von Strata Policy. „Nach der Betrachtung all dieser Kostenfaktoren und einer sorgfältigen Begutachtung der bestehenden Kostenschätzungen konnten wir viel besser verstehen, wie viel höher die Kosten für die Amerikaner sind“.

Der begutachtete Bericht betrachtete die folgenden Faktoren:

Die Production Tax Credit (PTC) der US-Bundesregierung, eine unabdingbare Subvention für Windkrafterzeuger, hat den Energiemarkt durch die künstliche Verringerung der Kosten teurer Technologien und Umleitung von Steuergeldern zur Windindustrie verzerrt.

Die US-Staaten haben Renewable Portfolio Standards (RPS) eingeführt, welche Unternehmen verpflichten, Strom aus erneuerbaren Quellen zu verbrauchen, was die Stromkosten für Verbraucher weiter in die Höhe treibt.

Weil Windressourcen oftmals weit entfernt von bestehenden Überlandleitungen liegen, ist die Erweiterung des Netzes teuer, und die Kosten werden an die Steuerzahler und Verbraucher durchgereicht.

Konventionelle Generatoren müssen am Laufen gehalten werden als Backup zur Deckung der Nachfrage, wenn der Wind dies nicht vermag, was die Stromkosten der Verbraucher in die Höhe treibt.

„Innovation ist etwas Wunderbares, und erneuerbare Energie ist da keine Ausnahme. Die Windenergie hat seit den neunziger Jahren ein gewaltiges Wachstum durchlaufen, aber dies war zum allergrößten Teil eine Folge großzügiger Subventionen der Regierung“, stellte Yonk fest.

Unter den Faktoren, die Befürworter von Windenergie geflissentlich verschweigen, sind – wie der Bericht zeigt – die „Gelegenheits-Kosten“ der massiven Subventionen, die zur Verfügung zu stellen die Steuerzahler gezwungen werden, um Erzeuger zu überreden, sich in dieser anderenfalls grotesk ineffizienten und großenteils sinnlosen Form der Energieerzeugung zu engagieren.

In den USA führt dies zu Kosten von 5 Milliarden Dollar pro Jahr an Production Tax Credits (PTC). Dieses Geld könnte man auch für Bildung, Gesundheit, Verteidigung ausgeben – oder man hätte es auch in den Taschen der Steuerzahler belassen können, um es nach eigenem Belieben auszugeben.

Stattdessen wurde es verschwendet für kapitalhungrige Spießgesellen-Kapitalisten, um die Landschaft mit Fledermäuse und Vögel zerschreddernden Öko-Kruzifixen zuzupflastern, um Energie zu erzeugen, die so flatterhaft ist, dass sie oftmals nicht zur Verfügung steht, wenn sie am meisten gebraucht wird (an sehr heißen oder kalten Tagen, wenn die Nachfrage wegen Air Condition bzw. Heizung hoch ist) und nur zu viel verfügbar sind bei anderen Gelegenheiten, wenn eine Windstrom-Flutwelle bedeutet, dass die Windkraft-Erzeuger tatsächlich den Unternehmen Geld zahlen müssen, damit diese ihre unerwünschte Energie abnehmen. Dieser Effekt, bekannt als „negative Preise“, ist für die Windkraft-Erzeuger sehr lukrativ, weil sie ihre Subventionen nur bekommen, wenn sie Energie erzeugen (egal ob diese gerade gebraucht wird oder nicht). Aber es ist eindeutig nicht lukrativ für die Menschen, die letztendlich alles bezahlen müssen: also die Steuerzahler.

Dabei wird all dies offen zugegeben, wenn der serienmäßige Windkraft-„Investor“ Warren Buffet sagt: „Wir bekommen Steuervorteile, wenn wir viele Windparks errichten. Das ist der einzige Grund, diese zu errichten. Sie machen keinerlei Sinn ohne diese Steuervorteile“.

Aber auch dieser Bericht könnte die wirklichen Kosten von Windenergie noch unterschätzen. Berücksichtigt ist nämlich nicht der Schaden für die Gesundheit der Menschen, die das Pech haben, in der Nähe von Windturbinen zu wohnen. Dies wird zum ersten Mal offiziell eingeräumt in diesem Bericht, der für die Regierung von Australien erstellt worden ist.

Auch wird die Verschandelung der Landschaft nicht berücksichtigt – die einem Bericht von Christopher Booker zufolge weit größer ist als das von den Grünen erzeugte schwarze Untier des Fracking.

Als Prof. David MacKay im vorigen Jahr als leitender wissenschaftlicher Berater des US-Energie- und Klimawandel-Ministeriums zurücktrat, ließ er noch einen Bericht erstellen, in der die umweltlichen Auswirkungen einer Fracking-Bohrstelle mit denen von Windparks verglichen werden. Im Verlauf von 25 Jahren, berechnete er, würde eine einzige Fracking-Bohrstelle, die fünf Acres [ca. 2 Hektar] Land verbraucht und mit einem Bohrturm mit einer Höhe von 85 Fuß [ca. 25 Meter], (der nur weniger als ein Jahr lang gebraucht werden würde) genauso viel Energie erzeugen wie 87 riesige Windturbinen, die 5,6 Quadratmeilen [ca. 5 km²] Land verbrauchen und noch in einer Entfernung von 20 Meilen [ca. 32 km] zu sehen wären. Und doch, für die grünen Kindergärtler ist Ersteres ein Gräuel, obwohl es Energie erzeugen kann, soviel wie gebraucht wird und ohne einen einzigen Penny an Subventionen, während Letzteres, das nur sehr unzuverlässig Energie erzeugen kann im Gegenzug zu Millionen Pfund an Subventionen, sie zu Jubelstürmen hinreißt.

Außerdem wird mit keinem Wort die epische Zerstörung der Vogelfauna dieser vermeintlich ach so umweltfreundlichen Apparate erwähnt. Der Ökologe Clive Hambler von der Oxford University schreibt:

Forschungen der Umweltgruppe SEO/Birdlife zufolge werden jedes Jahr in Spanien allein zwischen 6 und 18 Millionen Vögel und Fledermäuse durch Windparks getötet. Dabei werden grob geschätzt doppelt so viele Fledermäuse wie Vögel getötet. Dies bedeutet statistisch etwa 110 bis 130 tote Vögel pro Jahr und Windturbine sowie 200 bis 670 Fledermäuse pro Jahr. Und diese Zahlen könnten noch geschönt sein, falls man sie mit Statistiken vergleicht, die im Dezember 2002 von der California Energy Commission veröffentlicht worden sind: ,In einer Übersicht der Auswirkungen von Windturbinen auf Vögel von Benner et al. (1993) lag die Todesrate pro Turbine und Jahr bei Vögeln bis zu 309 in Deutschland und 895 in Schweden‘.

Weil man Windparks bevorzugt in freiem Gelände oder auf Hügeln errichtet, wo die Thermik gut ist, töten sie eine unverhältnismäßig große Zahl von Greifvögeln. In Australien ist der Keilschwanzadler durch Windparks vom globalen Aussterben bedroht. In Nordamerika töten Windparks zehntausende Greifvögel einschließlich Steinadler sowie das Wappentier der USA, den Weißkopfadler. In Spanien sind der Schmutzgeier und der Gänsegeier bedroht – von denen 400 allein in einem Jahr in Navarra allein getötet wurden. Norwegische Windparks töten über zehn Seeadler pro Jahr, und die Population von Smøla wurde massiv betroffen, nachdem man Windparks gegen die heftigen Proteste von Ornithologen errichtet hatte.

Auch viele andere Vogelspezies sind gefährdet. In Nordamerika zum Beispiel würden geplante Windparks in den Großen Seen große Mengen Zugvögel töten. Im Atlantik sind Seevögel wie der Schwarzschnabelsturmtaucher bedroht. Offshore-Windparks sind genauso schlimm wie solche an Land, stellen sie doch eine zunehmende Bedrohung für See- und Zugvögel dar. Außerdem reduzieren sie die Größe von Habitaten für Wasservögel (wie z. B. Trauer- und Eiderenten).

In UK hat Schatzkanzler George Osborne das Problem mit Verspätung eingeräumt – welches die „grünste Regierung jemals“ des Premierministers geholfen hat zu erzeugen – und hat daher die Subventionen grüner Energie zurückgefahren.

Die Kosten der Subventionierung neuer Windparks geraten außer Kontrolle, wie Quellen der Regierung jüngst gewarnt haben.

Funktionäre räumen ein , dass die so genannten „Grüne-Energie-Programme“ bis zum Jahr 2020 die atemberaubende Summe von 9 Milliarden Pfund pro Jahr an Subventionen verschlingen werden – gezahlt von den Verbrauchern. Das sind 1,5 Milliarden Pfund mehr als die maximale Obergrenze, die die Koalition ursprünglich geplant hatte.

Die explodierenden Kosten werden bedeuten, dass jeder Haushalt in UK gezwungen ist, geschätzt etwa 170 Pfund pro Jahr bis zum Ende dieser Dekade zu zahlen, um ein Programm voranzubringen, das von der Koalition vorangetrieben wurde.

Aber angesichts der Schäden, die der britischen Landschaft bereits durch Windturbinen zugefügt worden sind, könnte es sehr leicht zu einem Fall werden, bei dem das Kind bereits in den Brunnen gefallen ist – und man den Brunnen danach verschließt. Besonders wenn man sich vor Augen führt, dass dieser Mann bereits einen Nutzen von 100 Millionen Pfund aus diesem Schwindel gezogen hat und dass es keinerlei Möglichkeiten gibt, auch nur einen Penny des von ihm verschwendeten Geldes zurückzubekommen.

Link: http://stopthesethings.com/2015/07/16/wind-farms-even-more-expensive-and-pointless-than-you-thought/

Übersetzt von Chris Frey EIKE




Menschliche Fehler bei Temperaturmessungen

66Die täglichen, vom NCDC zusammengestellten USHCN-Temperaturaufzeichnungen enthalten die täglichen Maximum- und Minimum-Temperaturen für jede Station in dem Netzwerk ftp://ftp.ncdc.noaa.gov/pub/data/ghcn/daily/hcn/. In einigen Fällen werden Messungen für einen bestimmten Tag nicht aufgezeichnet und als -9999 bei Tmax und/oder Tmin für jenen Tag angegeben. In anderen Fällen wurde eine Messung aufgezeichnet, fiel aber bei einer Reihe von Qualitätskontrollen durch.

Qualitätskontrollen

Ich war neugierig zu erfahren, wie oft verschiedene Qualitätskontrollen gescheitert sind. Darum schrieb ich ein Programm, um mich durch die täglichen Files zu wühlen, um mehr zu erfahren. Zufälligerweise verfügte ich bereits über eine sehr geringe Anzahl täglicher USHCN-Aufzeichnungen, die ich schon für andere Zwecke heruntergeladen hatte. Diese nutzte ich jetzt, um die Software auszutesten.

Ich merkte rasch, dass mein Algorithmus eine größere Anzahl von gescheiterten Konsistenz-Checks der täglichen Aufzeichnungen für Muleshoe in Texas berechnete als bei der mit einem „I“ markierten korrespondierenden Station in der monatlichen Aufzeichnung des USHCN. Die tägliche Aufzeichnung beispielsweise markierte den Minimum-Wert am 6. und 7. Februar 1929 und den höchsten Wert am 7. und 8. Februar. Mein Verfahre berechnete das als drei Tage mit falschen Daten, aber bei den monatlichen Rohdaten waren nur zwei derartige Tage für Muleshoe angezeigt.

Unabhängig davon, wie viele Fehler gezählt worden sein sollten, ging aus der täglichen Aufzeichnung klar hervor, warum diese indiziert waren. Die Minimum-Temperatur vom 6. Februar lag höher als die Maximum-Temperatur am 7. Februar, was eine Unmöglichkeit ist. Gleiches galt für den 7. Februar relativ zum 8. Februar.

Ich bemerkte, dass es eine ganze Reihe von Fehlern wie diesem in den täglichen Aufzeichnungen von Muleshoe gab, die sich über viele Jahre erstreckten. Ich fragte mich, wie den Beobachtern wiederholt solche Fehler unterlaufen konnten. Es war an der Zeit, sich wieder dem Beobachtungsformular B-91 zuzuwenden, um zu sehen, ob dieses ein wenig Licht in die Angelegenheit bringen konnte.

Übertragungsfehler

Das B-91-Formular stammt von dieser NOAA-Website und ist unten verlinkt. Nach der Umrechnung der Temperaturen in Grad Celsius wurde das Problem offensichtlich. Die erste Temperatur (43) scheint durchgestrichen. Die letzte Temperatur in jener Spalte (39) weist einen blassen Pfeil auf, der aus einer Zeile weiter unten mit der Kennzeichnung „1*“ auf diesen Wert zeigt. Das „1*“ ist eine Bemerkung des Inhalts „Maximum-Temperatur eingeben für den ersten Tag des Folgemonats“.

February 1929 B-91 for Muleshoe, TX

Folgendes stellte sich heraus: Wer auch immer die händische Aufzeichnung in elektronische Form gebracht hat, hatte gedacht, dass der Beobachter beabsichtigte, die erste Temperatur auszustreichen und sie zu ersetzen durch eine von weiter unten, womit er folglich die Maximalwerte für den gesamten Monat um einen Tag nach oben verschob.

Um die Absicht des Beobachters herauszufinden, wurde das B-91-Formular für März 1929 untersucht um zu sehen, ob die erste Maximum-Temperatur 39 war, wie es mit „1*“ im Februar-Formular gekennzeichnet worden war. 39 war nicht nur die erste Maximum-Temperatur, es scheint, als ob sie mit der gleichen Markierung durchgestrichen worden ist. Obwohl die Ausstreichung im März-Formular erschien, war jene Aufzeichnung korrekt übertragen worden. Ein rascher Blick auf B-91 für Januar 1929 zeigte die gleichen Strichmarken über der ersten Temperatur.

March 1929 B-91 for Muleshoe, TX

January 1929 B-91 for Muleshoe, TX

Die Strichmarken tauchen auch in anderen Formularen auf. Der Oktober 1941 sah interessant aus, weil beide gescheiterten Qualitäts-Checks aus einem offensichtlichen Grund nicht anwendbar waren. Die gekennzeichneten Temperaturen waren für die Jahreszeit nicht ungewöhnlich und auch nicht ungewöhnlich relativ zu dem Tag davor bzw. danach. Mit dem Öffnen von B-91 war das gleiche „Ausstreichungs“-Artefakt sichtbar über dem ersten Eintrag der Maximum-Temperatur! Natürlich sind die Maximum-Temperaturen in der gleichen Weise verschoben worden wie im Februar 1929. Als Folge davon waren zwei kältere Tage aus der Berechnung der mittleren Temperatur ausgesondert worden.

October 1941 B-91 for Muleshoe, TX

Weil die Markierungen gleich waren, scheint es, als ob sie in viele Formulare übertragen worden waren, wenn diese in einem Speicher gesammelt wurden, möglicherweise weil die Formulare Blaupausen waren. Dies wäre wahrscheinlich geschehen nach der Übermittlung, weil im Formular für 1941 der Beobachter Temperaturen ausgestrichen hat und klar war, wo die Ersatzwerte geschrieben worden sind.

Fehlerauswirkung

Zusätzlich zu einer falschen Maximum-Temperatur wurden alle drei Tage, die als nicht dem Qualitäts-Check genügend gekennzeichnet waren, nicht zur Berechnung des monatlichen Mittels verwendet. Das in der elektronischen Aufzeichnung reflektierte nicht adjustierte Mittel betrug 0,8°C, während es in der Aufzeichnung auf Papier 0,24°C betrug, also über ein halbes Grad kälter. Die Schätzung des Zeitpunktes der Beobachtung betrug 1,41°C. Das Homogenisierungsmodell kam zu dem Ergebnis, dass ein monatlicher Wert nicht aus täglichen Daten berechnet werden konnte und sonderte ihn aus. Stattdessen füllte es die Lücke mit dem Monat und ersetzte den Wert mit einer Schätzung von 0,21°C, berechnet aus Werten der umliegenden Stationen. Während dies keine schlechte Schätzung war, bleibt aber die Frage im Raum, ob der Wert bei 0,12°C geblieben wäre, wenn die Übertragung korrekt erfolgt wäre. Außerdem hat das GHCN den Monatswert nicht übernommen, weil er eingetragen worden ist.

Im Falle des Januar 1941 reflektierte die elektronische Aufzeichnung einen nicht adjustierten Mittelwert von 2,56°C, während in der Papierform 2,44°C eingetragen war. Das Modell der Beobachtungszeit schätze das Mittel zu 3,05°C. Die Homogenisierung schätzte die Temperatur zu 2,65°C. Dies fand sich auch im GHCN.

Diskussion

Erst seit Kurzem haben wir die Fähigkeit, Klimadaten automatisch zu sammeln und anzuzeigen, ohne die Einmischung von Menschen. Viele der Temperaturaufzeichnungen, die wir haben, waren manuell gesammelt und angezeigt worden. Wenn Menschen involviert sind, können Fehler auftreten und treten auch auf. Tatsächlich war ich beeindruckt von den Muleshoe-Aufzeichnungen, weil die Beobachter Fehler korrigiert und Beobachtungszeiten angegeben hatten, die außerhalb der Norm an der Station lagen. Mein Eindruck war, dass die Beobachter an jener Station versucht hatten, so genau wie möglich zu sein. Ich habe mir die B-91-Tabellen anderer Stationen angeschaut, bei denen keine solchen Korrekturen oder Eintragungen vorgenommen worden waren. Einige dieser Stationen lagen bei Wohnhäusern. Ist es vernünftig zu glauben, dass die Beobachter niemals eine Beobachtung um 7 Uhr morgens aus irgendwelchen Gründen verpassten, wie z. B. während einer Urlaubsreise, über endlose Jahre hinweg? Dass sie immer ihre Beobachtung gleich beim ersten Mal korrekt niedergeschrieben hatten?

Die Beobachter sind lediglich eine menschliche Komponente. Hinsichtlich Muleshoe haben die Personen, die die Aufzeichnung in elektronische Form gebracht hatten, eindeutig fehlinterpretiert, was geschrieben worden ist, und das aus gutem Grund. Für sich genommen schienen die Tabellen Korrekturen aufzuweisen. Die mit der Datenübertragung befassten Personen haben dies wahrscheinlich vor vielen Jahren getan ohne jede Erfahrung, welche allgemeinen Fehler in der Aufzeichnung oder im Übertragungsprozess auftreten konnten.

Aber die Transskriptoren machten Fehler. In anderen Tabellen habe ich ausgetauschte Werte gesehen. Während ein Austausch von 27 mit 72 wahrscheinlich bei einem Qualitäts-Check aufgefallen wäre, wäre dies bei einem Übergang von 23 zu 32 wahrscheinlich nicht der Fall gewesen. Die falsche Eingabe von 20 anstatt korrekt -20 kann einen ganzen Monat mit brauchbaren Daten von automatischen Checks aussondern lassen. Diese Daten könnten nur gerettet werden durch eine sorgfältige Neu-Untersuchung der Papieraufzeichnung.

Jetzt dehne man all dies auf die übrige Welt aus. Ich denke, dass wir unseren Job so gut wie möglich gemacht haben, wie es in diesem Land zu erwarten ist, aber es ist nicht perfekt. Können wir Gleiches von der übrigen Welt sagen? Ich habe eine Vielfalt von Rechtfertigungen gesehen für die Adjustierungen der US-Daten, aber keine Erklärung dafür, warum in der übrigen Welt nicht einmal halb so viele Adjustierungen vorgenommen worden waren.

Link: http://wattsupwiththat.com/2015/09/28/human-error-in-the-surface-temperature-record/

Übersetzt von Chris Frey EIKE




Offizielle „Schallmessungen“ von Windrädern – ein Skandal?

Sehr geehrter Herr Prof. Dr. Lüdecke,

nach einigen bereits erfolgten EIKE-Veröffentlichungen zum Thema Immissionsbelastung durch WEA sowie Infraschallbelastungen und Ihres letzten Anrufs bei mir betreffs neuer gemeinsamer Fachveröffentlichungen auf der EIKE-Internet-Plattform komme ich nun dazu, Ihnen ein paar wesentliche neuere Erkenntnisse zum Thema zu schildern.

Das Thema „manipulierte Messungen“ ist ja nun nach dem aktuellen Volkswagen -Skandal um getürkte Dieselabgaswerte in den Mittelpunkt des allgemeinen Interesses gerückt. Im WEA-Planungs- und Genehmigungsbereich geht es aber auch viel nicht besser zu. Dort kontrolliert sich die WEA-Lobby nämlich selbst. Sie plant und betreibt ihre Anlagen wissentlich nach alten, für moderne WEA-Anlagen nicht mehr zutreffenden DIN-Normen und Bundesgesetzregeln. Und die zulassenden Behörden winken es durch.

Es fängt damit an, dass WEA-Planungen und die „genehmigungsrelevanten“ Schallprognoseberechnungen i.d.R. in Deutschland nach der DIN 9613-2 erfolgen. Nach diesen Planungs- und Genehmigungsregularien werden Schall-Immissionsbelastungen unterhalb von 63 Hz nicht berücksichtigt.  Ebensowenig fließen lokale meteorologische Bedingungen oder die geomorphe Situation vor Ort als relevante Planungsgrundlage ein. Berechnungen als sog. WEA-Schallprognosen, die nur für den „Außenbereich“ erfolgen, können die maßgebenden realen Belastungen im sensitiven Innenbereich der Häuser von Anwohnern nicht abbilden!

Es ist somit schon Hohn gegenüber den Anrainern von WEA, was die WEA-Betreiber und Lobbyisten den Betroffenen mangels unzureichender Rechtslage zumuten. Die Gesetzgebung, also die Politik, reagiert bisher NICHT. Im Gegenteil: Sie lässt es billigend zu, dass sich die Anlagenbetreiber selbst kontrollieren. Mit Wissen der Genehmigungs- und Kontrollbehörden werden vorgeschriebene Werte meist nur durch „Schönrechnen“ eingehalten. Die Landesumweltämter in Baden Württemberg, Bayern und Hessen machen dabei mit und stellen sich „blind auf beiden Augen“! Absicht ist hier nicht auszuschließen.

Es wird mit unzureichender akustischer  Technik (auch wenn diese amtlich geeicht ist) gemessen, weil diese – i.d.R. technisch bedingt – gar nicht in der Lage ist, Frequenzen unter 8 Hz, also den entscheidenden Infraschallbereich, zu erfassen. Es wird danach ungenau, fragwürdig und von keiner neutralen Stelle gegengeprüft ausgewertet! Wen wundert es dann noch, dass das LUBW vollmundig und sachlich unzutreffend behauptet, in mehr als 150 m Abstand zu WEA sei Infraschall praktisch nicht mehr messbar und damit auch nicht vorhanden!  Wenn ca. 30% des Infraschall-Frequenzbandes erst gar nicht gemessen werden, weil es die Messgeräte und/oder Einstellungen nicht hergeben, ist diese LUBW-Aussage mit hoher Wahrscheinlichkeit falsch.

Jedes windradgenerierte Infraschallspektrum besitzt eine diskrete Komponente, die sogenannten Flügelharmonische bei den blade passing frequencies, deren Grundharmonische nahe bei einem Hertz (Infraschall) liegt. Der Wissenschaftler Lars Ceranna wies bereits 2006 nach (hier), (hier), dass die zweite Flügelharmonische eines 200 kW-Windrades zwar tatsächlich bei 2 km in einem Hintergrundrauschen von 50dB versinkt, die eines heute üblichen 2 MW – Windrades aber erst bei ca. 20 km. Die von der LUBW gemessenen Spektren werden dagegen durch eine zu breitbandige Apparatefunktion so stark geglättet, dass die Flügelharmonischen bereits bei Überschreitung sehr kleiner Abstände vom Windrad im Rauschen verschwinden. Aber gerade diese schmalbandigen und langreichweitigen Infraschallsignale sind für nachgewiesene Gesundheitsstörungen bis hin zu schwersten Depressionen einschließlich Suizid verantwortlich (Wanka, R. and P. Höppe, Human biometeorological relevance of low frequency air pressure oscillations, Meteorologische Zeitschrift, 14, 279 – 284, 2005 sowie auch: „Ärzte für Immissionsschutz“ (hier) sowie Dr. med. Bernhard Voigt, Arbeitsmediziner, (hier)).

Erst vor knapp 2 Wochen hat meine Firma (im Rahmen einer internen Studie und Messung) in Nordhessen, in knapp 11 km Entfernung(!) zu einem „älteren“ Kleinwindpark mit folgender Anlagenbestückung:

2x   AN Bonus 600/44  à  600 kW

1x   Enercon-40/5 40   à 500 kW

(Diese Anlagen sind schon eher Winzlinge gegenüber modernen Schwachwind-WEA,  umso beeindruckender ist das ERGEBNIS unserer 10,6 km Indikations – Messung)

eine maßgebende Infraschall-Belastungen im Haus eines Betroffenen gemessen!  Lars Ceranna’s Annahmen dass die 2. Harmonische bei einer 220 kW Anlage mit ähnlicher Rotorblattlänge wie das 500 kW-Enercon-Modell in unserer Studien-Messung bei 2 km in einem Hintergrundrauschen von 50 dB versinkt, konnte damit sogar um den 5-fach höheren Faktor widerlegt werden!  *Unser Messungsergebniss (als grafische Aufarbeitung der gemessenen Grundharmonischen Frequenzen) finden Sie dazu als PDF in der Anlage dieser Email. (Anm. Lüdecke: ich habe die Messung der News als GUSZ220915.pdf angefügt).

Als Erkenntnis unserer eigenen Forschung und Messungen bei Betroffenen ist das Problem die synchrone, zyklische Belastung der diskreten Infraschallkomponente. Sie löst bei vielen Menschen ähnliche Beschwerden aus, wie bei der bekannten Seekrankheit (oder auch Reisekrankheit, wenn z.B. eine Beifahrer eines KFZ während der Fahrt ein Buch liest und Ihm dann schlecht wird). Wir haben dazu einen aufklärenden Film auf unsere Firmen-Internetseite gestellt, der von namhaften kanadischen Kollegen und Infraschall-Forschern erstellt wurde. Er kann hier anschaut werden – leider erst in Englisch. Eine deutsche Synchronisation bzw. Untertitelung erfolgt in Kürze.

Antizyklischer Infraschall wie er aus dem Naturbereich gerne als beruhigendes Beispiel genannt wird, etwa Meeresbrandung oder auch Wind selber, hat eine ganz andere Qualität, wird vom Menschen meist als angenehm empfunden und stellt absolut keine gesundheitliche Belastung dar (nur der als schädigend bekannte Föhn ist natürlich und zyklisch und infolgedessen gesundheitlich schädlich).

Ein weiteres, von WEA-Planern und Genehmigungsbehörden ignoriertes Problem ist der Körperschall aus Windrädern. Diesen erzeugen moderne WEA oft schon alleine durch die statisch bedingten Biegeschwingungen der Anlagen-Türme mit ihren heut schon 200 m Höhe bei den modernen Binnenland-Schwachwindanlagen. Diese Schwingungen werden über die Fundamentsockel der Anlagen (insbesondere bei Pfahlgründungen) in den Boden übertragen und können je nach geomorpher Vorort-Situation teilweise extrem weit über den Boden und manchmal sogar die Abwasserrohre, die dann als Schallresonatoren wirken, in die Häuser von Anwohnern eindringen. Hierzu muss sich noch nicht einmal ein Flügel der Anlage drehen! Läuft die Anlage, sind die Vibrationen (Körperschall) noch wesentlich stärker.

Körperschall als Immission kommt in Planungen und Genehmigungen für Windparks oder einzelne Anlagen nicht vor. Daher machte sich bisher auch fast niemand die Mühe, diese Belastung vor Ort bei den Betroffenen nachzumessen. Meine Firma misst auch diesen Schall regelmäßig im Auftrag von WEA-Betroffenen. Wir verfügen mit mehr als 5 DIN-konformen 3D (triaxialen) Geophonen über eine entsprechend geeignete Messgerätschaft und sind sogar in der Lage, mittels eines amtlich geeichten 8-Kanal-Messgerätes akustisch im Infraschallband bis zu 0,05 Hz hinunter zu messen – dieses ggfs. auch mit mehreren speziellen Tieftonmessmikros in Reihe, um Laufzeiten berechnen zu können. Die Messungen können auf einem speziellen Kanal durch die gerade herrschenden meteorologischen Werte ergänzt werden um ein Gesamtbild zu erhalten.

Liegen Körperschall und Infraschall parallel im Haus eines Anrainers von WEA an, genießt dieser nach deutschem Recht „TA-Lärm Abschnitt 6.2″  (Quellen: „TA-Lärm Abschnitt 6.2“ googeln) besondere Schutzrechte für max. zulässige Schallwerte in seinem Haus, so dass im gegebenen Fall der Rechtsweg Erfolg haben kann! Er ist hier sachlich absolut gerechtfertigt, denn Kombination und Wechselwirkung von Körperschall und Infraschall haben bereits bei geringen Pegeln negative, gesundheitliche Auswirkungen (s. hierzu die gutachterliche Stellungnahme „GuSZ Stellungnahme_IS_u_Körperschall.pdf der News angehängt).

Dass die modernen Windkraftanlagen auch tieffrequenten Luftschall und bodengeleiteten Körperschall verursachen, ist bekannt und physikalisch begründbar. Fast alle technischen Anlagen mit großen und relativ langsam drehenden Teilen sind geradezu dafür geschaffen, tieffrequente Luftdruckschwankungen bis hinunter in den Infraschallbereich zu erzeugen. Ebenso seit langem bekannt und hinreichend wissenschaftlich belegt sind die gesundheitsschädigenden Auswirkungen von tieffrequenten Schall- und Körperschalleinwirkungen auf den Menschen. Diese Erkenntnisse haben im Arbeitsschutzbereich auch bereits ihren Niederschlag gefunden. Auf europäischer Ebene wird für schwangere Arbeitnehmerinnen in der Rahmenrichtlinie 89/391/EWG festgelegt, dass sie keine Tätigkeiten verrichten sollten, die in direkter Nähe zu niederfrequenten Immissionen ggfs. stattfinden, da sich hierdurch das Risiko einer Fehl- oder Frühgeburt erhöhen kann. Betreffs Arbeitsschutz in Deutschland, siehe (hier), (hier).

Bei den von den Windkraftanlagen verursachten Emissionen besteht in Deutschland jedoch immer noch allgemein die Auffassung, dass der von diesen Anlagen verursachte Infraschall nach etwa 400 Metern nicht mehr vom normalen Hintergrundgeräusch (z.B. Blätterrauschen) zu unterscheiden ist und somit auch keine gesundheitlichen Auswirkungen auf den Menschen verursachen kann. Verständlicherweise seien damit dann auch weiterführende Untersuchungen und entsprechend resultierende gesetzliche Regulierungen zum Schutz der Gesundheit des Menschen nicht erforderlich.

Diese Situation ist im Ausland anders. Insbesondere in Dänemark und Finnland wurden vom Staat genaue Untersuchungen über Windradschall und seine Auswirkungen auf Anrainer angestoßen.

Unabhängig davon häufen sich jedoch die Beschwerden der Anwohner von Windparks. Immer mehr Berichte von Belästigungen und gesundheitlichen Beeinträchtigungen fließen in die aktuell sehr kontrovers geführte Diskussion um das „Mysterium Infraschall“ ein. Dies bedarf näherer Erklärung. Erste Anhaltspunkte liefern folgende nationale und internationale Veröffentlichungen:

1) Bereits 2006 hat die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR), Lars Ceranna, Gernot Hartmann & Manfred Henger, die Infraschallwirkung von 1MW Windkraftanlagen über eine Entfernung von 10 km messtechnisch nachgewiesen (hier).

2) Aktuelle Studien führender Akustik Experten aus Australien (Cape Bridgwater Studie, 2014 – Steven Cooper, hier) und den USA (Robert W. Rand, Rand Acoustics, Brunswick, ME, USA, Wind Turbine Noise: An independent assessment, noise complaints predictable, hier) belegen ein gleiches.

3) Andy Metelka und Kevin A. Dooley (Canada) haben die Einwirkung von Windkraftanlagen messtechnisch sogar über eine Entfernung von über 120 km nachweisen können (166th Meeting of Acoustical Society of America, San Francisco, California, 2-6 December 2013, Session3aNS: Noise, hier) .

4) Mittels hochgenauer mikrobarer Differenzialdrucksensoren (Microbar-20)  konnte auch R. James, E-Coustic Solutions, Okemos, MI, (EXPLANATION OF TERMS AND CONCEPTS RELATED TOWIND TURBINE INFRASOUND, Februar 2015) die tieffrequenten Geräuscheinwirkungen von Windkraftanlagen messtechnisch sehr genau erfassen (hier).

5) Ein finnisches Akustiker Team hat im Juni 2015 mittels eben dieser mikrobaren Messtechnik die Ergebnisse der australischen Cape Bridgwater Studie exakt reproduzieren können und die Ergebnisse veröffentlicht (Preliminary microbarometer measurements from Jäneskeidas, 30.6.-1.7.2015)

Führende Akustik Experten aus den USA, Australien, Canada und Finnland haben in ihren Untersuchungen den von Windkraftanlagen erzeugten Infraschall, direkt in den Häusern der betroffenen Anwohner, messtechnisch erfasst.In den USA beispielsweise Rob Rand (hier), in Australien Steven Cooper (hier), in Kanada Andy Metelka (hier). Insbesondere Metelka konnte die IS-Flügelharmonischen eines Windparks noch in 125 km Entfernung messen (das entsprechende Dokument der  Acustical Society of America ist der News als metelka-Messung.pdf beigefügt).

Die für die Schall- und Körperschall-Verursachung und -Übertragung maßgeblichen physikalischen Gesetze haben natürlich überall – so auch in Deutschland – Gültigkeit. Somit rücken die gesundheitlichen Auswirkungen von tieffrequenten Luft- und Körperschallimmissionen im Wohnumfeld von Windkraftanlagen allmählich in den Mittelpunkt des öffentlichen Interesses, und es besteht die Notwendigkeit für eine umfassenden Abklärung der betroffenen Öffentlichkeit.

Allerdings sind öffentlich initiierte, finanzierte und neutrale Untersuchungen oder gar Forschungsprogramme bei uns in Deutschland derzeit nicht erkennbar und angesichts der politischen Politik, die Windräder um jeden Preis der Bevölkerung aufoktroyieren will, unübersehbar auch nicht erwünscht. Daher haben jetzt, in enger Zusammenarbeit und im ständigen Erfahrungsaustausch mit den Kollegen aus den USA, Canada, Australien und Finnland, auch deutsche Akustik Experten und Mediziner damit begonnen, die Schall- und Körperschalleinwirkungen beim Betrieb von Windkraftanlagen, auch in Deutschland, umfassend zu untersuchen. Wir sind dabei einen international vernetzten Verein zu etablieren, der sich mit dieser Problematik befasst.

Im Rahmen dieser Untersuchungen werden die Art, der Umfang und die Wechselwirkungen der Einwirkung von tieffrequentem Schall und Körperschall auf den Menschen im persönlichen Wohn-, Schlaf- und Erholungsumfeld gemessen, analysiert und dokumentiert. Die Messungen erfolgen parallel und zeitsynchronisiert, sowohl im Innen- als auch im Außenbereich. Im Innenbereich der Gebäude erfolgen hierbei die für die Betroffenen gesundheitsrelevanten Immissionen, wobei paradoxerweise die aktuell rechtsrelevanten Immissionswerte nur im Außenbereich erfasst werden. Die bei diesen unabhängigen Untersuchungen jeweils vorliegenden raumakustischen Gegebenheiten finden ebenso Berücksichtigung wie auch die für die Schallausbreitung im Freien maßgeblich relevanten meteorologischen, topographischen, geomorphen und baulichen Bedingungen. Schlussendlich werden die Untersuchungen auch um die zeitgleiche Erhebung biometrischer Daten erweitert.

Dabei kommt ein weltweit technologisch führendes Mess- und Analysesystem zum Einsatz, das mit seiner Genauigkeit und seinem Funktionsumfang auch die strengsten normativen Anforderungen mehr als erfüllt und somit Untersuchungsergebnisse auf höchstem Niveau ermöglicht. Ausgestattet mit kommerziellen Tieftonmikrofonen und hochsensiblen Schwingungsaufnehmern kann damit jetzt auch in Deutschland eine umfassende Untersuchung und Beurteilung der realen Immissionssituation vor Ort erfolgen, was so in dieser Form und Präzision bisher – bedingt durch die Limitierungen der messgerätetechnischen Möglichkeiten und der Einschränkungen der angewendeten Messverfahren – noch nicht möglich war (hier).

Die im Rahmen solcher Untersuchung gewonnen Daten sind die unabdingbare Faktengrundlage für jegliche weiterführenden Aktivitäten zur Gewährleistung eines sicheren Schutzes der Gesundheit bei tieffrequenten Schall- und Körperschalleinwirkungen, verursacht durch industrielle Anlagen und Windräder und stellen somit den Grundstein für die letztendlich Abklärung des Phänomens Infraschall dar.

Das gesamte Untersuchungsprogramm wird „unsererseits“ in Deutschland von unabhängigen Akustikern und auch Medizinern auf der Basis eines nichtkommerziellen und ausschließlich wissenschaftlichen Engagements getragen und finanziert sich vollständig aus Spenden von Privatpersonen und gemeinnützigen Vereinen. Die Bundesinitiative Vernunftkraft (gemeinnütziger e.V.) leistet hierbei mit zweckgebundenen Spendenmitteln derzeit den wesentlichen Beitrag für die finanzielle Realisierbarkeit dieses umfangreichen Forschungsvorhabens. Weitere finanzielle Unterstützungen können die zielgerichteten Aktivitäten und Felduntersuchungen und somit die schnellstmögliche Schaffung einer evidenten Faktenlage maßgeblich beschleunigen.

Daher möchten wir an dieser Stelle auch EIKE bitten ggfs. über einen Spendenaufruf, zum weiteren Erfolg unserer Studien beizutragen! (Anm. Lüdecke: erfolgt hiermit, nähere Info hier).

Mit freundlichen Grüßen

Sven Johannsen

CEO/Geschäftsführer der: GuSZ Gutachter- u. Sachverständigen- Zentrum     für Umwelt-Messungen GmbH, Paul-Birkle-Str. 21, 69488 Birkena, eingetragen im Handelsregister Registergericht: AG Darmstadt, Registernummer: HRB 93688,
Steuer-Nr.: 017 234 20201, Finanzamt Darmstadt, Umsatzsteuer ID: DE299241576

Festnetz:     062097960537
FAX:             062097960538

Mobile:       0152-53692510

Email:        johannsen@umweltmessung.com

Internet:    www.umweltmessung.com

Schall- und Umweltmesslabor

– akustische Messungen nach DIN /ISO/EN (analog d. TA-Lärm)

– Erstellung von Gutachten

– Kalibrierungsservice (geeicht) für Klasse 2 + Klasse 1 – 1″ und 1/2″ Messgeräte

– Eichungsservice für Messgeräte der Klasse 1

– EMV Messungen, (NF + HF) mittels Spektrum Analyzer

– hochauflösende Geophonmessungen (ab 1 Hz)
u. Schwingungsmessung als Körperschall-Übertragungs-Nachweis

– Hersteller u. Vertrieb seismischer + mikrobarometrischer Messtechnik

– mikrobare medizinisch-prophylaktische INFRASCHALL-Messungen

– baubiologische Elektro- u. Magnetfeldmessungen

– Messung Cmet Werte (Berechnung Schallwetter) nach DIN EN ISO 96132

MITGLIED in der Deutschen Gesellschaft für Akustik   + im ALD / Arbeitsring Lärm DEGA

International Wind Profiling

– Meteorologische Windmessungen

– Windertragsbegutachtungen

– Meteorolog.  Langzeit Re-Analysen

– Schallwetter

– Schall- und Windmessungs-Equipment-Verleih u. Verkauf

Anmerkung Lüdecke: die bisher in EIKE erschienenen Beiträge über die gesundheitlichen Schädigungen durch Windrad-Infraschall finden sich hier.

Related Files




Seltsame neue Pirouette im Klimawandel-Zirkus: Das wärmste Jahr jemals mitten in einem ,Stillstand‘ der globalen Erwärmung?

Story Nummer eins zufolge soll dieses Jahr das wärmste Jahr jemals werden. Und Nummer zwei zufolge ist der Grund dafür, dass es nicht warm ist, dass die „natürliche Variation“ die vom Menschen verursachte globale Erwärmung angehalten oder maskiert hat.

Was denn nun? Entweder ist es wärmer denn je – oder eben nicht. Falls ja, hat (wie es impliziert wird) die vom Menschen verursachte globale Erwärmung nicht angehalten. Falls nein, falls also die vom Menschen verursachte globale Erwärmung „zum Stillstand gekommen“ ist, dann wird es nicht wärmer.

Zwei Dinge müssen hier klar definiert werden: 1) warum diese divergenten Streitpunkte geglaubt werden und 2) warum sie nicht miteinander kompatibel und individuell falsch sind. Der erste Punkt ist einfach zu klären. Klimatologie ist zu einem Bereich der Politik geworden. Und in der Politik, besonders in unserer wilden Demokratie, werden Statements im Zusammenhang mit irgendeinem politischen Ziel normalerweise geglaubt oder zumindest unterstützt von jenen, die das Ziel teilen. Damit der Globale-Erwärmungs-Untergang stimmt, um das Ziel der Regierung zu erreichen (nämlich an Größe und Macht zuzulegen), ist es erforderlich, dass jedes Statement, das die globale Erwärmung stützt, wahrscheinlich von Erfüllungsgehilfen der Regierung laut hinaus posaunt wird – sogar wechselseitig inkompatible Statements.

Wissenschaftler – und darunter einige wirklich große Namen – deren Leben von Zuwendungen der Regierung abhängig ist und die Argumente bringen auf einer Linie mit den Wünschen der Regierung, nämlich dass der Globale-Erwärmungs-Untergang wahr ist, schrieben kürzlich einen Brief an den Präsidenten und den Generalstaatsanwalt mit der Aufforderung, unter dem RICO-Gesetz* Wissenschaftler wie mich (hier) als kriminell zu verfolgen, ebenso wie Organisationen, die mich unterstützen könnten. Welche Wissenschaftler und Organisationen? Jene, sagen sie, die „wissentlich die amerikanische Bevölkerung betrogen haben hinsichtlich der Risiken des Klimawandels, um amerikanischen Reaktion auf den Klimawandel zuvorzukommen (hier).

[*RICO = Raketeer Influenced and Corrupt Organizations, ein amerikanisches Gesetz gegen Erpressung und Korruption. Anm. d. Übers.]

Mit anderen Worten, von unabhängigen Wissenschaftlern und Organisationen [wie dem EIKE? Anm. d. Übers.] vorgebrachte Argumente, die die Linie der Regierung nicht stützen, können nicht Wissenschaft genannt werden, sondern sollten stattdessen klassifiziert werden als kriminelle Akte. Zufälligerweise ist herausgekommen, dass der Wissenschaftler, der die Bemühungen zur Verfolgung Unschuldiger anführt, „sich selbst und seiner Frau 1,5 Millionen Dollar hat zukommen lassen aus Klima-Zuwendungen für Teilzeit-Arbeit“. Folglich ist Klimatologie ein Zweig der Politik. Quod erat demonstrandum.

Ich bin kein Politiker und kann nicht beurteilen, was dabei herauskommen wird. Aber ich bin ein Wissenschaftler und kann gute Physik von schlechter Physik unterscheiden. Um zu verstehen, warum die oben genannten Behauptungen bzgl. der Atmosphäre falsch sind, ist es erforderlich, zumindest in groben Umrissen, einige komplizierte Statistik und Physik zu betreiben. Versuchen wir es.

Behauptung Nummer eins: Dieses Jahr wird das wärmste Jahr jemals werden

Diese erste Behauptung ist nicht nur falsch, sie ist absurd falsch. Sie kommt nicht einmal ansatzweise der Wahrheit nahe. Es gab in der Erdgeschichte Zeiten, in denen es auf der Erde erheblich wärmer war als heute. Hier ist ein Link zu einer Schätzung der mittleren Temperatur der Erde im zeitlichen Verlauf.

Aber ist nicht das atmosphärische CO2-Niveau während der letzten paar Jahrzehnte gestiegen? Ja, aber hier ist ein weiterer Link zu einer Graphik, in der das CO2-Niveau zusammen mit dem Temperaturverlauf dargestellt ist (siehe die zweite Graphik unter diesem Link), die zeigt, dass beide Verläufe überhaupt nicht zueinander passen und zeitweise sogar entgegengesetzt verlaufen sind.

[Anmerkung: Im Original stehen nur die Links. Ich habe diese Graphiken aber hier der Vollständigkeit halber eingefügt. Anm. d. Übers.]

Geologisch befinden wir uns derzeit in der Quartär genannten Epoche, welche durch periodische Kaltphasen, um nicht zu sagen Vereisungen, charakterisiert ist. Gletscher sind entstanden und vergangen, seit über zwei Millionen Jahren, und wir erwarten, dass sie auch weiterhin kommen und gehen werden infolge der Art und Weise, mit der die Erde sich wackelnd um die Sonne bewegt. Vor dem Quartär lag die Periode des Pleistozäns, und noch lange davor die besser bekannte Periode des Jura (danke, Hollywood!), welche von vor 145 bis 200 Millionen Jahre dauerte [siehe Bild oben rechts].

Vom Trias zum Quartär sind über 200 Millionen Jahre vergangen, auf der Erde war es wärmer als heute, und nicht nur etwas, sondern zeitweise richtig heftig wärmer mit Temperaturen, die um 10°C oder noch höher lagen als heute. Es war so warm, dass der gesamte Planet grün und fruchtbar war, und die Tiere erreichten, wie man sich erinnern dürfte, gewaltige Größen. Vor dem Trias gab es weitere Epochen, von denen einige unserem heutigen Klima mehr ähnelten.

Die hieraus zu ziehende Lehre lautet, dass das Klima niemals konstant ist. Es hat sich immer geändert und wird sich auch weiterhin immer ändern. Den Klimawandel zu stoppen ist für die Menschheit absolut unmöglich, in des Wortes strikter Bedeutung. Es gibt keine Macht unterhalb des Allmächtigen, der das Klima davon abhalten kann, sich zu ändern. Mit Sicherheit ist keine Regierung dazu in der Lage. Der Ruf, dass wir den Klimawandel stoppen sollen, hat daher nichts mit Wissenschaft zu tun, sondern ist reine Politik.

Ich sagte oben, dass die Graphik eine Schätzung des Temperaturverlaufs ist, und das ist so. Es gab noch keine in irgendeiner Form zuverlässige Thermometer in räumlicher Verteilung bis auf die letzten 100 Jahre der Erdgeschichte, und selbst jetzt überdecken diese nur einen Bruchteil der Erdoberfläche. Und sogar in der modernen Ära haben die Art der Temperaturmessung variiert und variieren immer noch. Satelliten, die eine der besten Möglichkeiten, Temperatur zu messen, gibt es erst seit etwa 50 Jahren, aber auch sie sind noch nicht perfekt. [Was ist eigentlich eine perfekte Messung der Temperatur? Anm. d. Übers.].

Das bedeutet, dass wir raten oder schätzen müssen, wenn wir wissen wollen, wo die Temperatur vor mehr als 50 bis 100 Jahren lag. Das ist jedoch kein blindes Raten, da wir so genannte „Proxys“ nutzen können. Dabei handelt es sich um chemische und physikalische Messungen, von denen man weiß, dass sie mit der Temperatur der Erde korrelieren. Wir können diese über geologische Zeiträume hinweg auswerten und die Ergebnisse in ein statistisches Modell füttern, das dann die Temperaturverhältnisse berechnet. Diese Methode ist recht zuverlässig, jedoch mit zwei Ausnahmen. Und da wird es jetzt ein wenig theoretisch.

Keine statistische Schätzung sollte ohne ihre Fehlergrenzen vorgenommen werden. Wir wollen die Temperatur nicht einfach nur raten, wir wollen sie mit einer Bandbreite wissen, innerhalb derer sie gelegen haben könnte. Das erste Problem ist, dass diese Angaben zur Bandbreite fast immer fehlen. Die Folge hiervon ist ein Zuviel an Sicherheit, wenn man die Temperatur der Vergangenheit mit der der Gegenwart vergleicht. Manchmal wird die Unsicherheit bei den Temperatur-Abschätzungen angegeben, aber dabei handelt es sich um die falsche Art von Unsicherheit; die falschen Plus-Minus-Angaben.

Alle diese statistischen Modelle haben Innereien, Parameter genannt. Sie sind nichts weiter als eine mathematische „Auswahl“, die zur Lösung der Gleichungen erforderlich sind. Unglücklicherweise hat der Trugschluss Eingang in die Wissenschaft gefunden, dass diese Parameter direkt die Wirklichkeit repräsentieren oder Wirklichkeit sind. Dieser Trugschluss ist so allgegenwärtig, dass ich dies den Kult der Parameter (hier) nennen möchte. Der Trugschluss ist schädlich, weil die Plus-Minus-Grenzen zur Realität notwendigerweise größer sind als die Plus- oder Minusgrenzen der Modellparameter (normalerweise 4 bis 8 mal größer). Das Ergebnis ist jedes Mal eine dramatische Über-Sicherheit.

Und es kommt noch schlimmer. Die Modelle verwenden Proxy-Messungen, aber die Unsicherheit bzgl. der Zeit, in der diese Proxys abgelegt worden sind, wird in den statistischen Modellen immer ausgelassen. Woher weiß man, dass ein Proxy vor 1,10 oder 1,11 Millionen Jahren abgelegt worden ist?

Das Endergebnis wird so hingebogen, dass Temperaturschätzungen glatt und unkompliziert erscheinen, was eine Illusion ist. Diese Illusion macht es den (tatsächlich gemessenen) Temperaturen der modernen Zeit einfacher, variabler auszusehen. Und das wiederum macht es sehr einfach, es so aussehen zu lassen, als ob es heute wärmer ist, selbst wenn das nicht der Fall ist. Man füge noch die Nachweise hinzu, dass moderne Messungen kontinuierlich von Wissenschaftlern verzerrt werden (und komischerweise grundsätzlich dergestalt, dass es damals kälter und heute wärmer zu sein scheint {hier}). Da ist es natürlich keine Überraschung, dass bestimmte Kreise über „Rekord-Temperaturen“ schwadronieren.

Falls wir uns jetzt nur nach den Satellitenaufzeichnungen richten, ist es ziemlich einfach, in einem „Rekordjahr“ zu sein, aus dem trivialen Grund, dass diese Aufzeichnungen erst seit wenigen Jahren zur Verfügung stehen. Jedes Jahr gibt es eine gute Chance, irgendeine Art von Temperaturrekorden zu brechen. Aber hinsichtlich der gesamten geologischen Aufzeichnung ist das Brechen realer Rekorde nicht einmal ansatzweise möglich; es ist nahezu unmöglich.

Wissenschaftler kennen all diese Fakten, und dennoch stellen sie die Behauptung auf, dass dieses Jahr das wärmste jemals ist (oder werden könnte). Das sagen sie, obwohl sie wissen, dass es nicht stimmt. Warum?

(Falls man mehr theoretische Details wissen möchte, kann man hier schauen. Darin geht es um die statistische Rekonstruktion historischer Temperaturen nach dem BEST-Programm, von dem hinaus posaunt wird, dass es das „Beste“ sei, aber welches genau die Fehler enthält, die hier angesprochen wurden).

Behauptung Nr. 2: Natürliche Variation ist die Ursache für den „Stillstand“

Die American Meteorological Society AMS ist – oder war vielmehr – die Adresse für alle, die Wetter und Klima studieren wollten. Deren offizielles Organ ist das Bulletin of the American Meteorological Society BAMS. Hierin werden interessierende Nachrichten und so gebracht, aber es erscheinen dort auch Begutachtungs-Beiträge zum Zustand der Wissenschaft.

Inzwischen hat die AMS wie auch fast alle anderen, von Geldern der Regierung abhängige wissenschaftliche Organisationen jedweden Anspruch aufgegeben, der Physik zu dienen und stattdessen mit offenen Armen die Politik übernommen als deren raison d’etre . Die AMS hat sich inzwischen so weit von ihrer ursprünglichen Mission entfernt, dass in dem BAMS ein begutachteter Artikel von zwei nichtwissenschaftlichen Ideologen und einem meist über Politik schreibenden Wissenschaftler erschienen ist. Titel: „The ‘Pause’ in Global Warming: Turning a Routine Fluctuation into a Problem for Science.

Die Autoren sind Stephan Lewandowsky, ein Psychologe, der sich auf verfälschte Übersichten (gimmicked surveys) spezialisiert hat; Naomi Oreskes, eine Historikerin, die an eine Konspiration des Rechtsaußen-Flügels glaubt (hier) und James Risbey, ein echter Klimatologe, der die meiste Zeit damit zubringt, sich zu fragen, warum ihm niemand zustimmt (hier). Er hat mehr als nur einen Beitrag mit Lewandowsky und Oreskes zu diesem Thema geschrieben.

Der Punkt dieser neuen Studie ist der gleiche wie in allen anderen Arbeiten Lewandowskys auch. Er möchte die einem Konsens [der Wissenschaft] widersprechenden Personen als dumm oder Büttel der Ölindustrie brandmarken. Für diese Autoren ebenso wie für viele andere ist die bloße Tatsache, dass die von der Regierung bezahlten Wissenschaftler gesagt haben, dass es ein Problem mit der Atmosphäre gibt, das nur die Regierung lösen kann, mehr als ein hinreichender Beweis für diese Ansicht. Jeder, der hier widerspricht, tut dies aus Ignoranz, Geisteskrankheit oder böser Absicht. Dass ihre eigene Position bzgl. Wissenschaft falsch sein könnte, kommt ihnen niemals in den Sinn.

Und sie liegen falsch. Ihre Behauptung lautet, dass die (von Satelliten) gemessene Nicht-Zunahme der globalen Temperaturen während der letzten zwei Jahrzehnte durch eine Kombination folgender Parameter verursacht wurde: „natürliche Variationen“, El Nino, die PDO, „Zufall“ oder „regelmäßige Fluktuationen“ und dergleichen. Sie sagen, dass falls diese „Ursachen“ nicht existieren würden, die Temperatur doch gestiegen wäre in der Art und Weise wie aufgrund der Theorie verstärkter Rückkopplungen durch CO2-Anreicherung prophezeit.

Erkennen Sie den Trugschluss? Sie verwenden das Fehlen der prophezeiten Zunahme als Beweis dafür, dass es die Zunahme wirklich gibt, wenn auch in maskierter oder modifizierter Form! Für sie sind die wiederholten, konsistenten und grandios falschen Vorhersagen der Klimamodelle immer richtig, weil die globale Erwärmung grundsätzlich wahr ist, egal was und wie. In der Wissenschaft war es bisher Gewohnheit, dass auch nur zu einem geringen Teil so falsche Vorhersagen aufgrund einer Theorie sang- und klanglos fallen gelassen wurden. Aber die globale Erwärmung kann nicht fallen gelassen werden. Es hängt für Viele zu viel davon ab, sie am Leben zu halten.

Und das ist nicht der einzige und nicht einmal der schlimmste Trugschluss. Der Glaube an eine sorgfältig kreierte, aber widerlegte Theorie ist ein Irrtum, aber eine verständliche menschliche Schwäche. Niemand möchte sein Kind zerstören, egal wie hässlich es ist. Unsere Antwort auf einen Wissenschaftler, der sein Lebenswerk nicht aufgeben möchte, sollte Bedauern sein und nicht Verurteilung.

Aber die Proklamation von physikalisch unmöglichen Statements ist unverzeihlich – für all jene, die sich Physiker nennen. Der wirkliche Skandal ist Folgender: Wissenschaftler behaupteten zu verstehen, wie die Atmosphäre funktioniert. Auf der Grundlage dieses Verstehens sagten sie, dass eine „gefährliche“ globale Erwärmung schon bald über uns kommen würde. Was ist schief gelaufen? El Nino, sagen sie.

Aber El Nino, „natürliche Fluktuationen“ und dergleichen sind nicht losgelöst von der Atmosphäre. Sie sind Bestandteil der Atmosphäre. Diese Dinge sind nichts weiter als menschliche Etikettierungen, die bestimmten Messungen in der Atmosphäre verliehen worden sind. El Nino ist kein primärer Grund, sondern eine Auswirkung, eine Beobachtung. „Natürliche Fluktuationen“ bedeutet, „was die Atmosphäre macht“. Folglich ist es doppelt gemoppelt, eine Beobachtung ohne jeden wissenschaftlichen Gehalt, wenn man sagt: was die Atmosphäre tut, ist „verursacht“ durch das, was die Atmosphäre machte.

Diese „routinemäßigen Fluktuationen“ und dergleichen sind ein Teil dessen, was die Wissenschaftler verstanden zu haben behaupten. Es sind keine außerirdischen Elemente, die unerwartet auftreten und die Theorie zerstören; sie sind – oder sollten – ein integraler Bestandteil der Theorie zur globalen Erwärmung sein. Diese Dinge sind die Atmosphäre, sie sind das Klima.

Folglich ist sonnenklar, dass Wissenschaftler, die diese Phänomene für ihr Scheitern verantwortlich machen, nicht wissen, wovon sie reden. Sie sagten, sie verstünden die Atmosphäre, und hier ist der Beweis, dass genau das nicht der Fall ist. Warum also sollten wir ihnen noch glauben, wenn sie sagen: „die Zeit zu handeln ist jetzt“?

Wir sehen jetzt, dass der Begriff „Stillstand“ [pause] eine schlimme Fehlbenennung ist, ein Zirkelschluss. Es wird festgestellt, was man zu beweisen trachtet. Zu sagen, es herrscht ein Stillstand, ist das Gleiche wie zu behaupten, wir wissen, warum die Atmosphäre das tut, was sie tut. Aber falls das so wäre, dann hätten die Modelle im Verlauf der letzten beiden Jahrzehnte erfolgreiche Prophezeiungen abgegeben. Aber sie lieferten grauenhaft schlechte Prophezeiungen, und sie werden immer schlechter. Das bedeutet: Die Aussage, dass es einen „Stillstand“ gibt, ist äquivalent zu der Aussage wir wissen, dass die globale Erwärmung noch da ist, weil wir sie nicht sehen können.

Es ist überfällig, sich endlich von der Diktion der globalen Erwärmung zu verabschieden und zu wirklicher Wissenschaft zurückzukehren.

Link: https://stream.org/climate-change-spin-hot-hottest-year-ever-inside-global-warming-pause/

Übersetzt von Chris Frey EIKE




Das Positionspapier des CSU Arbeitskreises Energiewende

Der Autor hat inzwischen einige Studien und Positionspapiere sowohl von NGOs, wie auch Landesregierungen zum unaufhaltsamen Öko-Energiewende-Umbau in Deutschland gelesen und seine (persönlichen) Einschätzungen dazu  in mehreren EIKE-Artikeln vermittelt [4; 5; 6; 7].

Zudem beäugte er vor einiger Zeit ausführlich die Umsetzung der Energiewende in Bayern kritisch "warum gehen in Bayern die Lichter noch nicht aus"[4]. Klar, dass er da auf das aktuelle Positionspapier des CSU Arbeitskreises Energiewende "BR Info CSU AK Energiewende" [2] gespannt war um zu sehen, wie die CSU die in der damaligen Analyse [4] gelisteten Probleme inzwischen gelöst hat und welche richtungsweisenden Maßnahmen daraus auf dem CSU-Parteitag am 20.November beschlossen werden könnten .

In der EIKE Publizierung [7] kam bereits eine kurze Info darüber, anbei folgt nun eine abschließende Fassung.

Einleitung

Wer als Bürger der Energiewende sowieso bereits überdrüssig ist und darüber vorn und hinten nichts mehr hören kann – braucht dieses CSU-Positionspapier nicht zu lesen. Es bietet nämlich wirklich nichts Neues, außer der Erkenntnis: „Wir wissen nicht wie, machen aber konsequent so weiter“.           

Kurzfassung:

·       Keine Fakten, keine Lösungsstrategien, keine Zahlen

·       Aber 38 Mal „Wir fordern“ und 12 Mal  „Wir fordern Fördern“ im Sinn von Subventionieren

·       Im Wesentlichen eine Auflistung längst bekannter Statements ohne aktualisierende  Betrachtungen

Ein Fazit vorab: Die Welt hat dieses Paper bisher nicht vermisst und wird es auch nicht vermissen.

Eigentlich schade. An dem Papier haben nicht nur Juristen und Lehrer mitgewirkt, sondern auch technische Fachleute – was der Anlass zur Überlegung ist, ob Politik das eigene Wissen zerstört, oder zumindest dauerhaft unterdrückt.

Vorgeschichte

Ein Hauptautor des aktuellen CSU-Positionspapiers hat bereits als „junger Spund“ in der Jungen Union an einem Vorgängerdokument mitgearbeitet. Damals (Ende 2009) hieß es „Konzeptpapier für eine sichere und klimafreundliche Energie-Versorgung“ [1]. Dieses JU Konzeptpapier ist ca. drei Mal so dick wie das aktuelle und kann wohl als eine Basis davon betrachtet werden.

Wer es sich antut auch dieses Paper zu lesen, stellt etwas Verblüffendes fest:

In diesem JU Positionspapier werden ebenfalls keinerlei Strategien und Zahlen genannt,

dafür aber 190 Forderungen zur „Energiewende“, an die eigene Partei gestellt.

Der Autor stellt sich vor wie es wäre, in der Industrie mit einer wichtigen Problembearbeitung beauftragt zu werden und im Abschlussdokument dann nirgendwo eine Lösungen, aber 190 Forderungen an die Firma zu listen und vor versammelter Mannschaft dem Chef zu präsentieren. Einer Beförderung  wäre das kaum dienlich. In politischen Parteien schein das jedoch der Start zum Aufstieg zu sein. 

Der Autor hätte das „JU Paper“ sang und klanglos als „Jugendsünde“ verschwinden lassen. Doch  Politiker sind auch auf so etwas stolz und verlinken es für die Nachwelt (und einen EIKE-Artikel) auf ihrer Homepage.

Das Positionspapier des CSU Arbeitskreises Energiewende

Anlass der Energiewende

Im JU Konzeptpapier von 2009 steht:

[1] Das "Stern Review on Economics of Climate Change" (Stern Report) und der UN Klimabericht (IPCC Report) haben gezeigt, dass der Klimaschutz eine Überlebensfrage ist, da der Menschheit irreparable negative ökologische und ökonomische Auswirkungen drohen. Neben Gefahren für den Menschen bedroht die globale Erderwärmung auch die Artenvielfalt von Flora und Fauna. Wegen steigender Temperaturen drohen große Teile des Amazonas-Dschungels mit rund 40.000 Pflanzen- und ca. 42753 Säugetierarten zu versteppen.

Im CSU Positionspapier vom August 2015 lautet es: 

[2] In der vom ehemaligen Chefökonom der Weltbank, Nicholas Stern, in 2006 ausgearbeiteten  Risikoanalyse „The Economics of Climate Change“ wurde nachgewiesen, dass die aus dem 38 Klimawandel resultierenden Anpassungsstrategien etwa 25-mal teurer sind als die Vermeidungsstrategien und deshalb eine weitere zögerliche Umsetzung der Energiewende 40 volkswirtschaftlich unverantwortbar ist.

Auf die Notwendigkeit der Energiewende wurde bereits im Jahr 1992 auf der UN- Umweltkonferenz in Rio de Janeiro verwiesen und eine schnelle Senkung des Verbrauchs an fossilen Energieträgern gefordert. Diese Forderung wurde in den nachfolgenden Jahren  durch die Enquete-Kommission „Schutz der Erdatmosphäre“ des Deutschen Bundestags konkretisiert und in den letzten beiden Jahrzehnten auf mehreren internationalen  Klimakonferenzen unter Berücksichtigung neuerer Ergebnisse aus der Wissenschaft und  Wirtschaft (IPCC) weiter vertieft.

Trotz unterschiedlicher nationaler Interessen besteht  inzwischen internationale Übereinstimmung, den weiteren Klimawandel durch eine  signifikante Reduktion der globalen CO2-Emission auf einen Temperaturanstieg von nicht  mehr als +2°C zu begrenzen und damit die derzeit kaum abschätzbaren Folgewirkungen zu  vermeiden. Diese Zielvorgabe wurde auf dem G7-Gipfel im Juni 2015 auf bayerischem  Boden nochmals bekräftigt. Die Bedeutung der Energiewende wurde schließlich im Juli 2015 56 durch die päpstliche Enzyklika „Laudato Si“ verdeutlicht, die schnelle und umfassende  Maßnahmen zur Energiewende und Klimaschutz anmahnt.

Der „Stern-Report“ ist ein heftigst umstrittenes Papier. Seine Präzision liegt wohl in der Größenordnung der vielen vollkommen falschen Vorhersagen des Club of Rome (lesenswerter Essay dazu "Die Klimamacher") , der wohl als einer der Ersten Computersimulationen als Wahrheiten verkündete. Nur weil es so herrlich apokalyptisch ist, hat er die Zeiten überlebt. Wer etwas Hintergrund erfahren möchte, sollte eine Kritik zu diesem Stern-Report auf „Achgut“ nachlesen: unbequem ist stets genehm. Zitat aus dem Achgut-Artikel:

Der Stern-Report lässt ganze Landstriche verdörren, Küsten werden überflutet, Millionenheere von Klimaflüchtlingen sind obdachlos, zahllose Tierarten sterben aus, die sich ausbreitende Malaria kostet Millionen neue Opfer. Jeder einzelne dieser Punkte ist Gegenstand heftiger Debatten, doch Nicholas Stern nimmt die Spekulationen als Tatsache.

Wer einen so umstrittenen Bericht über Jahre immer wieder als Begründung anführt, zeigt nicht unbedingt ein Engagement, auch Ökodogmen einmal kritisch zu hinterfragen. Eine päpstliche Enzyklika (eine Inhaltskritik dazu: " Ein vergifteter Köder aus Rom")  sozusagen als „Belegverdopplung“ zuzufügen, zeugt dann eher von einem Hang zu „Öko-Esoterik“ und lässt sich vielleicht mit dem „C“ im Name erklären. Doch wird damit eher der Rest von wissenschaftlichem Anstrich verspielt.

Und das ewige 2 Grad Ziel fehlt auch bei der CSU nie. Dabei ist es keinesfalls plausibel. Aber oft und lang genug gesagt, darf man daran nicht mehr zweifeln – sofern man in der Politik ist. Denn andere tun es, Beispiel: "Das 2 Grad Klima-Ziel  ein politisches Konstrukt". Daraus zitiert:

[8] Der Natur eine "Erwärmungs-Schranke" von 2 Grad vorzuschreiben ist ein Kunst-Stück’chen, das im Land der Dichter & Denker der WBGU [] 1996/97 erfunden hat. Der WBGU erwirkte auch, daß diese willkürliche "2°-Marke" in Richtlinien der EU aufgenommen wurde, schließlich 2007 sogar in die EU-Energie-Strategie. Danach erreichte diese Zahl auch die UN-Klimakonferenzen (COP’s), erstmals in Kopenhagen 2009. Dagegen hat der Klimarat IPCC die 2° stets nur im Rahmen von vielen Emissions-Szenarien diskutiert, jedoch nie(!) als "Ziel-Vorstellung" akzeptiert. Das ist schlüssig, weil kein wissenschaftlich gesicherter Zusammenhang zwischen CO2-Emissionen und Temperaturen existiert. Gegenteilige Behauptungen beruhen auf Modell-Annahmen. Die 2° sind eine Lottozahl.

Wer es nicht glaubt, sollte sich im Fernsehmittschnitt leibhaftig anhören, wie Herr Prof. Schellnhuber vom PIK an der Zeitstelle 5.40 erklärt, dass der „Erdkörper“ genau so  wie der menschliche Körper bei  + 2 ºC fiebert und ab + 3 ºC stirbt: "Schellnhuber und das 2 Grad-Ziel"  – und der Moderator gläubig zuhört.  Kein Wunder, dass der Papst und Herr Schellnhuber sich zusammen gefunden haben. 

Der (Un-)Sinn der CO2-Vermeidung

Obwohl am CSU Positionspapier genügend wirkliche Fachleute mitgearbeitet haben, wurde es auch darin sorgfältig vermieden, selbst eine einfachste Nutzenbetrachtung anzustellen. Für Bayern kann man zusätzlich die der bayerischen  CO2-Minderungsmaßnahme zufügen, da diese im Irrsinn geradezu phänomenal ist (siehe: "Das  bayerische CO2-Minderungsprogramm ohne jeglichen Nutzeffekt"" [9]). Es ist bezeichnend, dass selbst über Jahre nicht einmal ein zuständiger Arbeitskreis sich die Mühe macht (oder es verhindert), solch einfache Betrachtungen anzustellen. Deshalb macht es der Autor:

Wirkung einer sofortigen Dekarbonisierung Deutschlands

Es sind und bleiben selbst bei sofortiger, vollständiger Umsetzung und gerechnet mit dem viel zu hohen IPCC-Forcing weniger als 0,001 °C pa, siehe:"CO2-Rechenbeispiele" Deutschlands diesjährige Erhöhung der Maximaltemperatur um 0,1 °C gegenüber dem Stand von vor 32 Jahren lässt sich damit ab dem Jahr 2050 in weiteren 100 Jahren „zurückdrehen“.

Die Plazebo-Wirkung des bayerischen CO2-Minderungsprogrammes

 

Bild2[9]  Nutzentabelle des bayerischen CO2-Minderungsprogrammes

Fazit

Man kann die Energiewende vielleicht mit irgend etwas begründen, aber bestimmt nicht mit einem CO2-Nutzen.

Ob das CO2 überhaupt das Klima wesentlich (nach IPCC-Szenario) beeinflusst, kann man zusätzlich bezweifeln. Aber dann würde nicht nur der Nutzen, sondern das Gebäude zusammenfallen. Als   Denkanstoß zu solchen klimaketzerischen Gedanken anbei die Info aus [7].

Im folgenden Bild 3 (Langfrist-Temperaturreihe von FfM) sieht man deutlich, dass CO2 und Temperaturverlauf über weite Jahrzehnte keinerlei Korrelation aufweisen und oft sogar gegenläufig sind. Zuerst stieg auch die untere Temperaturlinie und erst danach das CO2. Ein sonderbarer Effekt  der Maximaltemperatur-Deckelung über zwei Jahrhunderte und ein plötzlicher Sprung ab 1985 sind deutlich erkennbar. Wie lässt sich das auch nur im Ansatz mit dem CO2-Forcing-Verlauf erklären?  

 

Bild 3: Jahresmitteltemperatur Frankfurt a.M. Flughafen 1785 – 2014 (nach Christian-D. Schönwiese, dmg-ev.de Heft 02 2015 ISSN 0177-8501). Mit Ergänzungen und Zufügung des CO2-Verlaufs durch den Autor.

Der Zustand der Energiewende in Bayern

Im Rahmen einer recht umfassenden Analyse "warum gehen in Bayern die Lichter noch nicht aus"[4] wurde vom Autor bereits der Zustand und die vorhandenen Probleme dargestellt. Doch lassen wir eine Bayerische Ministerin selbst sagen, wie es darum steht. Anlässlich der 2. Sitzung der Plattform Energie Bayern am 18. Dezember 2014 in München stellte Ministerin Aigner höchstpersönlich lt. Protokoll fest. Zitate:

·       Wir werden nach dem Abschalten der letzten Kernkraftwerke eine Lücke sowohl bei der Stromerzeugung als auch bei der gesicherten Leistung haben.

·       Wir haben aus der Zwischenbilanz der Arbeitsgruppe 2 mitgenommen, dass Speichertechnologien zur Verringerung der Deckungslücke bei der Stromerzeugung keinen Beitrag leisten können. Auch der Beitrag zur Verringerung der Lücke bei der gesicherten Leistung bleibt mittelfristig gering.

·       Wir haben aus der Arbeitsgruppe 3 erfahren, dass die Beiträge von Wasserkraft und Geothermie zur Stromerzeugung nicht wesentlich zu steigern sind.

·       Wir erwarten, dass das bei Photovoltaik und Wind anders ist ..

·       Einen Beitrag zur Schließung der Kapazitätslücke (gesicherte Leistung!) leisten die erneuerbaren Energien kaum.

·      Dennoch werden wir alle Anstrengungen unternehmen, den Ausbau der erneuerbaren Energie weiter voranzutreiben.

In einer Publizierung der CSU Senioren Union von 2014 steht: 

[17] Nach neuen Daten des Bayerischen Staatsministeriums für Wirtschaft und Medien, Energie und Technologie und des Umwelt- und Energieministeriums Baden-Württemberg ist die Stromversorgung für Bayern und Süddeutschland bereits ab 2016 (siehe Grafik) gefährdet. Aussagen der Bundesnetzagentur bezüglich der Versorgungssicherheit erscheinen fragwürdig.

Die Lücke zwischen der Höchstlast und der sinkenden gesicherten Leistung in Bayern wird stetig größer und beträgt ~3 GW im Jahr 2018 (dena). Das Leistungsdefizit wird in Bayern und Baden-Württemberg nach 2018 stetig steigen (BnetzA). Die Deckungslücke kann aus heutiger Sicht nicht gedeckt werden.

Die Lage wird dramatisch.

Diese Statements waren der Anlass zur einleitenden Beurteilung der bayerischen Strategie:

„Wir wissen nicht wie, machen aber konsequent so weiter“.

Als ob davon schon etwas zum Bund gedrungen wäre, informiert das Bundesamt für Bevölkerungsschutz inzwischen den deutschen Bürger per Broschüre[16]  und Videoclip[15], wie er sich gegenüber Stromausfällen schützen kann. Der öko-sozialistische Energie-Fortschritt klopft an die Türen.

 

Bild4 [17] Screenshot vom aktuellen Video des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe

 

Die Energiewende und das Speicherproblem 

Das inzwischen erkannte, größte Problem der Energiewende – welches zu deren Scheitern führen kann – sind die fehlenden Speicher[7].

Also darf man erwarten, dass ein aktuelles Paper speziell darauf eingeht. Und da man schon in der Energiewende mitten drin ist, auch mit richtungsweisenden Feststellungen und Aussagen. Genau das tut es aber nicht – außer man hält Forderungen dafür. Ausschnitte:

[2] Entwicklung bzw. Ausbau von Strom- und Wärmespeichern

Der Erfolg der Energiewende steht und fällt mit der Bereitstellung eines geeigneten Mix an  effizienter Speichertechnologien für Strom und Wärme, die sowohl den kurzfristigen als auch  mittel- und langfristigen Speicherbedarf abdecken und darüber hinaus eine hohe Effizienz  aufweisen und schnelle Abrufbarkeit gewährleisten.

Daraus wird  sofort ersichtlich, dass in der Speichertechnologie ein massiver Nachholbedarf besteht, der in Anbetracht des zu erwartenden Marktpotenzials von der Forschung und Wirtschaft  aufgegriffen worden ist. Diese Anstrengungen haben zur Entwicklung neuer Produkte und  Verfahren im Bereich der dezentralen Wärme- und Stromspeicher geführt, die aber wegen  der hohen Baukosten bzw. der noch vorhandenen geringen Effizienz der Anlagen nicht oder  nur in einem geringen Umfang in den Markt eingebracht werden konnten.

Der AKE fordert deshalb, Forschung und Entwicklung im Bereich der Wärme- und  Stromspeicher zu intensivieren und die Markteinführung dieser Techniken, insbesondere für  dezentrale Speichertechnologien durch eine Anschubfinanzierung zu unterstützen.

Allerdings war das im JU Konzeptpapier auch schon so. Bereits darin wurde das Speicherproblem unterschätzt und zudem technisch massiv falsch bewertet.

JU Konzeptpapier [1]  

Es hat den Anschein, dass nur eine dezentrale und kleinteilige Speicherung der elektrischen Energie zukunftssicher und erfolgsversprechend ist.

Dezentrale Speicherung von Strom

Der Jungen Union erscheint die dezentrale Speicherung von  Strom als angemessener Lösungsweg. Dabei müssen dezentrale Energiespeicher, von Kondensatoren zur Pufferung von kurzfristigsten Schwankungen über Schwungräder und Akkumulatoren bis hin zu unterirdischen Druckluftspeichern zum Ausgleich von mittelfristigen Schwankungen, so mit den Verbrauchern vernetzt werden,

Bewertungen (des Autors) zu den technischen Aussagen: 

Kondensatoren als (große) Energiespeicher sind sinnlos, da das elektrische Feld im Gegensatz zum magnetischen wesentlich weniger Energieinhalt besitzt. Aus diesem Grund gab es noch nie kapazitive Großspeicher und sie kommen in keiner seriösen Analyse (mehr) vor.

Von Druckluftspeicher gibt es aktuell (nach zwischenzeitlich 9 Jahren) weltweit erst zwei größere Anlagen, eine weitere soll 2017 in Texas in Betrieb gehen[13]. Abhängig davon, ob als Kurzzeit- oder Langzeitspeicher  verwendet, gibt es unterschiedliche Probleme. Z.B. erreichen sie als Langzeitspeicher nicht über 50% Wirkungsgrad und erfordern ca. 21 Cent/kWh Prozesskosten[13].

Von Schwungrädern als (Groß-) Energiespeicher redet heute ebenfalls keiner mehr. Diese Idee ist sang und klanglos in der Versenkung verschwunden. 

Nach vergangenen sechs Jahren (bezogen auf das JU Konzeptpapier bis heute) zu diesem systemrelevanten Kernthema, welches eigentlich das Papier füllen müsste, nicht mehr vorzulegen, bzw. weit unter dem Niveau vergleichbarer Ausarbeitungen anderer Bundesländer zu bleiben (Beispiel „Niedersachsen-Studie“[13], (Information darüber in: "Untersuchung Energiespeicher"10]) macht die aktuelle CSU-Ausarbeitung praktisch wertlos.

Power to Gas

Auch dazu exemplarisch eine Darstellung des Unterschieds zwischen dem unverbindlichem  „Gebabbel“ des CSU Positionspapiers und seriösen Analysen.

Greenpeace (sonst bestimmt kein „Freund“ des Autors) schreibt dazu:

[12] Dafür müssen wir vor allem die Wind und Solarenergie zügig auszubauen. Aber wenn die Energiewende erfolgreich sein soll, benötigen wir darüber hinaus auch eine Speicherwende. … Das funktioniert vor allem in Form von Windgas, also per Elektrolyse erzeugtem Wasserstoff, der in einem weiteren Schritt zu Methan gewandelt werden kann. Damit lässt sich der deutsche Energiebedarf bei Windflauten oder in Phasen mit wenig Sonnenlicht aus diesen erneuerbaren Speichern volkswirtschaftlich günstig decken, auch über längere Zeiträume, wie die neue Studie zeigt.

Danach kommen wenigsten rudimentäre Kostenbetrachtungen. 

Die umfangreiche „Niedersachsen-Studie“[13], schreibt dazu (ganz kurze Auszüge):

Erklärung der Prozessvarianten

[13]  Im Rahmen der Studie werden folgende Pfade der Wasserstoffspeicherung betrachtet:

· Speicherung von H2 in Kavernen (P2H2) mit anschließender Rückverstromung durch Brennstoffzelle

· Direkte Einspeisung von H2 in das Erdgasnetz (P2H2) mit anschließender Rückverstromung durch Brennstoffzelle

· Methanisierung von H2 und Einspeisung in das Erdgasnetz (P2G) mit anschließender Rückverstromung durch Brennstoffzelle

Dann folgen fundierte Daten

[13]  Der Wirkungsgrad bei einer Power-to-Power (kurz P2P; Ausgangsprodukt und Endprodukt sind Strom) Anlage wird in der Literatur zwischen 21 und 43 % angegeben (Pehnt 2009).

Unterstützt mit Grafiken

Bild 5[13]  Wirkungsgrade von Speichersystemen.

Anm.: PSW ist Pumpspeicherwerk; AA-CAES ist Druckluftspeicher; die anderen sind Power to Gas -Speicher

Und Kostenangaben

[13]  Für den Referenz H2-Speicher betragen die spezifischen Kosten der Speicherkapazität bei einer Auslegung als Kurzfristspeicher rd. 36 €/kWh. Bei einer Auslegung als Mittelfristspeicher betragen diese rd. 6 €/kWh, als Langfristspeicher nur noch 0,3 €/kWh.

Im CSU  Positionspapier finden sich zu dieser systemrelevanten Basistechnologie außer Allgemeinplätzen keine verwertbaren Information. Weder zur Einstufung / Positionierung, nicht zu den technischen Varianten, nicht zum Forschungsstand, kein Hinweis auf den Stand von Pilotanlagen, und keinerlei Kostendarstellungen. 

[2] CSU-Positionspapier: Power-to-Gas

Das Power-to-Gas-Verfahren ist damit insgesamt ein vielversprechender Ansatz für eine langfristige Speicherung von Strom und für eine Substitution von fossilen Energieträgern in der Wirtschaft. Das Verfahren hat insgesamt noch  ein hohes Entwicklungspotenzial und wesentliche Verbesserungsmöglichkeiten für einen operationellen Einsatz im kommenden Stromverbund und in der Wirtschaft.

Der AKE fordert deshalb die Staatsregierung auf, die Entwicklung dieses zukunftsweisenden  Speichersystems voranzutreiben und im Rahmen von Pilotvorhaben zu erproben, in denen  die Elektrolyseure, die Energiewirtschaft, die Anwenderindustrie sowie die Gasnetz- und  Stromnetzbetreiber und Hersteller von Systemkomponenten eng zusammenarbeiten.

 Darüber hinaus muss eine Anschubfinanzierung für die Markteinführung der Power-to-Gas  Technologie, insbesondere für dezentrale Speicheranlagen, bereitgestellt werden.

Es stellt sich die Frage, wie die CSU-Politiker mit solcher pseudo- Information versorgt, vernünftige Entscheidungen fällen sollen. Oder der Sinn ist, die Entscheidungsvorlagen – wenn man nichts weiß, immer vorsichtshalber Geld ausgeben -, nicht durch Hintergrundwissen zu beeinflussen.

Geothermie

Im Wesentlichen geht es im CSU Strategiepapier so unverbindlich und oberflächlich weiter. Beispielhaft dazu abschließend die Information zur Geothermie.

Im CSU  Positionspapier steht:

[2] Besonders wichtige Energiequellen sind die Wasserkraft und die Geothermie, die zusammen  wesentlich zur Grundlastsicherung von Strom und Wärme in Bayern beitragen können. 

Schauen wir einmal nach, was die Realität dazu sagt. Aktuell ist der Anteil an Geothermie-Stromerzeugung  in Bayern  mit 0,05 TWh gelistet (Bild 6). Das ist bei 90 TWh Gesamtverbrauch ein Anteil von 0,056 %. Nirgendwo ist ein Ausbau in Bayern erkennbar, eher ein „Dahindümpeln“ hoffnungsvoll begonnener Projekte. Der Energie-Atlas Bayern listet aktuell 4 Projekte mit zusammen 49 Mio. kWh (0,055%). Bei solchen Daten von „hohem Energiepotential“ und „wesentlich zur Grundlastsicherung … beitragen können“  zu schreiben, ist verwegen. 

Mit Geothermie ist natürlich nicht nur die Stromerzeugung gemeint. Aber die Geothermie-Wärmeerzeugung hat zwar lt. verschiedenen Studien „viel Potential“. aber wirklich sehen kann man davon nicht viel. Sicher auch, weildie Investitionskosten und Risiken hoch sind. Wohl nicht zufällig finden sich auf der entsprechenden Infoseite des Bay. Ministeriums dazu keine Zahlen.

 

Bild 6[11]  Elektro-Energiehaushalt Bayern im Jahr 2013  

Fazit

So oberflächlich, orientierungslos, unkonkret, ohne Terminhorizonte und vollkommen ohne Kostenangaben geht es in dem CSU-Papier weiter. Deshalb belassen wir es bei dieser exemplarischen Sichtung und schauen stattdessen auf ein „vergessenes“ Thema, die Atomkraft.

Kernkraft

Im JU Konzeptpapier war dazu eine umfangreiche Stellungnahme hinterlegt. Positiver als diese kann man die Atomkraft kaum beschreiben:

[1]  JU Konzeptpapier

Seit über 30 Jahren liefert die friedliche Nutzung der Kernspaltung sauberen, sicheren und nach haltigen Strom zur Versorgung des Freistaates Bayern. Die notwendige und international beschlossene weitere Reduktion der Treibhausgase ist ohne die Übergangstechnologie Kernenergie  besonders in Bayern mit einem Anteil von 60 % Nuklearstrom in absehbarer Zeit nicht machbar.

Deutschlands Kernkraftwerke sind unser wichtigster Beitrag zur Treibhausgasreduzierung

Darüber hinaus liefern Kernkraftwerke einen doppelten Beitrag zum wirtschaftlichen Wachstum  Deutschlands. Einerseits wird in Kernkraftwerken konkurrenzlos kostengünstiger Strom unter an derem für Industrie, Eisenbahn und Privathaushalte erzeugt. Insbesondere bei energieintensiver  Großtechnologie ist preisgünstiger Strom (z. B. Kupfer- und Aluminiumhütten) einer der entscheidenden Standortfaktoren. Zugleich ist Deutschland Standort einer der weltweit führenden Anbieter von Kernkraftwerken, Komponenten für Kernkraftwerke und Dienstleistungen in Kernkraftwerken. In Deutschland hängen ca. vierzigtausend Arbeitsplätze unmittelbar an dieser Branche.

Das theoretische Restrisiko für einen Störfall in deutschen KKW liegt mehrere Größenordnungen unter der Wahrscheinlichkeit sonstiger, allgemeiner Lebensrisiken.  

Unter strenger Beachtung der Sicherheitsaspekte fordern wir deshalb eine Verlängerung der Laufzeiten der Kernkraftwerke und einen Ausstieg aus dem politisch motivierten Ausstieg der rot-grünen Koalition.

Die Betriebserlaubnis der Kernkraftwerke soll grundsätzlich unbegrenzt gültig sein und einzig von dem technischen Zustand der Anlage abhängen. Insbesondere erscheint uns ein Alleingang der  Bundesrepublik Deutschland im Atomausstieg sinnlos, da die Folgen eines Vorfalls grenzüber schreitende Folgen hätten.

Falls für den Einstieg in die zukünftige Wasserstoffwirtschaft oder für den Klimaschutz der Neubau von Kernkraftwerken notwendig wird, sollte sich Deutschland diesem nicht prinzipiell verschließen.

Im aktuellen CSU  Positionspapier steht:

[2]  CSU  Positionspapier

Die Bundesregierung hat in Anbetracht dieser Ausgangslage am 28. September 2010  beschlossen, die CO2-Emissionen in Deutschland bis 2020 um 40% und bis 2050 um 80 bis 60 95% – bezogen auf das Jahr 1990 – zu reduzieren. Dieser Beschluss gewinnt durch die Anfang 2011 getroffene Vereinbarung der Bundesregierung zum Ausstieg aus der  Kernenergie bis zum Jahr 2022 insofern an zusätzlicher Brisanz, als jetzt auch noch der  CO2-freie Anteil der Kernenergie an der Stromversorgung durch Erneuerbare Energien  ersetzt werden muss und dadurch die Anstrengungen zum Erreichen der Energiewende  deutlich steigen. Besonders betroffen davon ist Bayern, das in Spitzenzeiten der  Kernenergienutzung 30% seiner Primärenergie bzw. bis zu 60% der Stromversorgung durch  Kernkraftwerke abgedeckt hat. 

…Gleichzeitig werden geopolitische Abhängigkeiten gesenkt, das Kernenergierisiko eliminiert… 

…Unabhängig davon unterstützt der AKE die europaweiten Forschungsaktivitäten zur Kernfusion.

Über Vorteile und Nutzen der Kernenergie ist nichts mehr zu finden.  Am Schluss kommt nur noch ziemlich verloren ein Hinweis, dass es auch Kernfusion gibt, welche der CSU AKE (mit Gedanken?, als Alibi?) unterstützt. Irgendwelche Angaben oder gar ein Antrag dazu fehlen. Sogar die SPD denkt da inzwischen wieder weiter. Zumindest diskutieren Genossen darüber[14].

Und nun halte sich jeder EIKE-Leser fest: Die oberste Klimaalarm-Dauer-Heulzeitung SZ brachte in der Wochenend-Ausgabe Nr. 227 wieder einen der regelmäßigen, typischen,  halbseitigen Klimaalarmartikel, Titel „Klimakrieger“[19]. Und was liest man da:

[19 „… Ihre einzige (Anm.: Frau Merkels) umweltpolische Leistung entpuppte sich dann schon bald als Lobby-getriebene Klimasünde. Ihr populistischer Ausstieg aus der Atomenergie nach der Fukushima-Katastrophe führte jedenfalls nicht nur zu einem enormen Anstieg an Kohleverbrennung. Sie zog zudem die weitere Verteufelung jener Brückentechnologie nach sich, die bis zur Entwicklung funktionierender globaler Wind- und Sonnenenergienetze für den Kampf gegen den Klimawandel unentbehrlich bleiben wird“.

In sozialistischen Ländern wusste man nach einer solchen Meldung, dass eine „Säuberungswelle“ im Anmarsch ist. Mal sehen, was daraus im Öko-sozialistischen Deutschland wird. Der Autor hat sich schon lange gefragt , warum die SZ ihren Lesern vorenthält, dass alle „Klima-Vorzeigeländer“ einschließlich der USA massiv auf Atomkraft setzen. Irgend Jemand hat bei der SZ nun einen Schalter umgelegt und geht in strikte Opposition zu den bisher gehätschelten Grünen, deren bayerischer Fraktionsvorsitzender als selbsternannter Energieexperte vor noch nicht allzu langer Zeit in einem SZ Interview verkünden durfte:

[20] SZ Interview: …Kritiker der Energiewende führten lange an, mit jedem AKW, das vom Netz geht, würden vermehrt alte Kohle- oder Gasanlagen reaktiviert. Das wird nicht geschehen, zumindest nicht in spürbarem Ausmaß. Windkraft und Solarstrom haben das Potenzial, den Wegfall des Atomstroms aus Grafenrheinfeld zu kompensieren.

Fazit

Unüberlesbar ist in der Zeit zwischen den zwei Studienausgaben eine konsequente „Gehirnwäsche“ offensichtlich. Es wird klar, dass in diesem Positionspapier keinesfalls die „Wahrheit“ beschrieben werden sollte. Ausschließlich das derzeit politisch Erlaubte durfte gelistet und mit Begründungsversuchen versehen werden.

Vielleicht hinkt der CSU-Arbeitskreis damit der Zeit hinterher und hat eine beginnende Wende noch gar nicht mitbekommen. Was wäre, wenn deshalb am 20.11. auf dem Parteitag versehentlich das „falsche Vorwärts“ abgestimmt wird?

Somit lautet Erwartungs-gemäß das Schlussstatement des CSU  Positionspapiers politisch über-korrekt:

[2]  Auch potenzielle, kostenintensive Anpassungsstrategien im Fall eines Klimawandels können durch die Energiewende massiv minimiert werden.

Die Energiewende ist damit ein risikoarmes und  generationengerechtes Investitionsvorhaben, das mit positiven sozialen, ökologischen und ökonomischen Gewinnerwartungen verbunden ist.

Fast könne man meinen, doch noch eine nicht ganz „niedergebügelte“ Opposition herauslesen zu können „im Fall eines Klimawandels“ in einem offiziellen Politikpapier hinterlegt, klingt schon sehr verdächtig. Aber die anderen Aussagen negieren diesen „Protestkeim“ sofort wieder. Und irgendwie belegt oder mit Werten versehen  sind die Schlussaussagen ebenfalls wieder nicht.

Der letzte Satz kommt einem Kundigen allerdings bekannt vor. In einer Publizierung des Fraunhofer IWES kann man die Quelle finden: 

[18] Fraunhofer IWES: Dabei wird verkannt, dass die Energiewende ein risikoarmes Investitionsvorhaben mit positiver Gewinnerwartung darstellt.

Nur fehlt im CSU Leitpapier eine wichtige Zusatzinformation daraus: Nämlich die darin ebenfalls angegebenen Umbaukosten  von 1.500 Milliarden EUR für Deutschland. Rechnet man das auf die Einwohnerzahl um, fallen für Bayern anteilige 230 Milliarden Euro an, oder 4,5 komplette Jahreshaushalte Bayerns. Solch eine unwichtige Nebeninformation bracht man in einem   Positionspapier nicht zu erwähnen.

Zudem, um dank Bayern die Erde vor 0,00004 ºC pa Temperaturerhöhung zu retten, sind  solche Summen ja geradezu Peanuts.

Bei den Gewinnerwartungen kann man aber wenigstens die Richtung ahnen, wenn man die folgende Zusatzinfo richtig deutet: 

Der federführende Autor des CSU-Leitpapiers, Prof. Dr. Wolfgang Seiler ist auch Vorstandsvorsitzender der Bürgerstiftung „Energiewende Oberland“ (Bad Tölz).

Diese Bürgerstiftung im bisher nicht durch sonderliche Umsetzung von Ökoenergie-Gewinnung (z.B. durch Windparks) bekannten Landkreis hat so gute Ideen (im Ausgeben von Geld des Bürgers), dass zu einer Sitzung gleich der Präsident von General Electric Deutschland anreiste, die lokalen Bankenvorstände sowieso.

Kein Wunder, das Vorhaben „SmartEnergy Region Oberland“ wird gemeinsam von Interessensvertretern aus Gesellschaft, Wirtschaft und Politik erstellt – was man wörtlich nehmen kann.

Schlussbetrachtung

An den bereits in der vorhergehenden Analyse über die Umsetzung der bayerischen Energiewende [4] gemachten Feststellungen hat sich mit dem neuen Positionspapier nichts geändert:

Die Umsetzung bleibt weiterhin:

·       Nicht durch Fakten begründet,  

·       unsinnig und vollkommen konzeptlos,

·       mit keinerlei Kostenhinweisen hinterlegt.

·       Aber inzwischen werden die Profiteure besser eingebunden.

Wenn etwas nicht so richtig klappt, wird wie überall erst einmal umorganisiert. So aktuell auch der  bayerische Klimarat, dessen Gremium von der bayerischen Umweltministerin ganz neu besetzt wurde. Die künftigen Mitglieder sind:

Prof. Dr. Karen Pitte, Professorin für Volkswirtschaftslehre

Prof. Dr. Jörg Völkel, Geographie, Biologie, Bodenkunde und Geologie

Prof. Dr. Harald Lesch, Astrophysiker, Philosophie, Wissenschaftsjournalist

Lt. der bayerischen Umweltministerin (Ausbildung: Studierte Betriebswirtin) liefert der Klimarat  damit belastbare Ergebnisse für unsere politischen Entscheidungen“ [21]. Belastungen für den Bürger werden es auf jeden Fall werden.

 

Quellen

[1]

JU Konzeptpapier. CSU Junge Union, Arbeitskreis Umwelt und Energie, Projektleitung: Anja Weisgerber, Kurt Höller  29. November 2008: Konzeptpapier Für eine sichere und klimafreundliche Energie-Versorgung

[2]

CSU  Positionspapier. CSU AK Energiewende 31. 08. 2015: Positionspapier Energiewende;  Energiewende ganzheitlich anpacken,  Produktion -Verteilung -Speicherung -Nutzung

[3]

CSU Dr. Kurt Höller Partei-Homepage

Neues Energiekonzept der JU Bayern unter Erlanger Federführung, Update: Arbeitskreis Energiewende gegründet

http://www.kurt-hoeller.de/

[4]

EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus 

http://www.eike-klima-energie.eu/energie-anzeige/der-wind-blaest-stetig-die-sonne-steht-still-wenn-mein-starker-arm-es-will-oder-warum-gehen-in-bayern-die-lichter-noch-nicht-aus/

[5]

EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss) 

[6]

EIKE 28.8.2015: Wenn Politologinnen "Klimastudien" machen – zur "Klimastudie" von Bündnis 90/Die Grünen

[7]

EIKE 28.09.2015: Greenpeace eNERGIE und IWES Fraunhofer fordern die vollständige Dekarbonisierung Deutschlands bis zum Jahr 2050 – die Politik macht angefeuert durch die Medien begeistert mit.

[8]

EIKE 12.06.2015: Das "2°-Klima-Z i e l“ – Ein politisches Konstrukt !

http://www.eike-klima-energie.eu/news-cache/das-2-klima-z-i-e-l-ein-politisches-konstrukt/

[9]

EIKE  16.09.2015: Nachgefragt: CO2 Minderungsprogramm der bayerischen Landesregierung – ohne den geringsten Klimanutzen, aber mit extremen Kosten  

http://www.eike-klima-energie.eu/news-cache/nachgefragt-co2-minderungsprogramm-der-bayerischen-landesregierung-ohne-den-geringsten-klimanutzen-aber-mit-extremen-kosten/

[10]

EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

http://www.eike-klima-energie.eu/energie-anzeige/elektro-energiespeicherung-notwendigkeit-status-und-kosten-teil-3-abschluss/

[11]

Bericht 2013/14. Bayerisches Staatsministerium für Wirtschaft. Fortschrittsbereich 2013 / 2014 Zum Umbau der Stromversorgung Bayerns

 [12]

GREENPEACE eNERGIE Studie Kurzfassung: Warum Windgas die Energiewende sicher macht und Kosten senkt

[13]

Niedersachsen-Studie 2014. Innovationszentrum Niedersachsen GmbH, Juli 2014. Studie 7983P01/FICHT-12919463-v19:“Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen

[14]

SPD-Bezirk Braunschweig 20. Mai 2015: „Es darf keine Forschungsverbote in Deutschland geben“

[15]

Ruhrkultour: Stromausfall – Vorsorge und Selbsthilfe – Ein Ratgeber des Bundesamtes BBK

http://ruhrkultour.de/stromausfall-vorsorge-und-selbsthilfe-ein-ratgeber-des-bundesamtes/

[16]

BBK Datum 10.06.2015 In­for­ma­ti­ons­bro­schü­re: Stromausfall Vorsorge und Selbsthilfe

http://www.bbk.bund.de/SharedDocs/Downloads/BBK/DE/Publikationen/PublikationenKritis/Stromausfall_Vorsorge_u_Selbsthilfe.html

[17]

CSU Senioren Union. SEN AG Energie. Energiewende Informationsblatt 02.2/2014

[18]

FRAUNHOFER IWES, Jan. 2014 Publikation:  GESCHÄFTSMODELL ENERGIEWENDE Eine Antwort auf das „Die-Kosten-der-Energiewende“-Argument

[19]

Süddeutsche Zeitung 1. Oktober 2015: Essay Klimakrieger

http://www.sueddeutsche.de/kultur/essay-klimakrieger-1.2673550?reduced=true

[20]

Süddeutsche Zeitung Nr. 139. Artikel: „Die Lichter brennen weiter“, bzw. „Was das Aus für Grafenrheinfeld bedeutet“.

www.sueddeutsche.de/bayern/droht-der-blackout-die-lichter-brennen-weiter-1.2528576

[21]

Süddeutsche Zeitung Nr. 227: Drei Neue für den bayerischen Klimarat




Klimaaktivisten wollen US Klimarealisten mittels des RICO*-Gesetzes verklagen.

Sie sehen nur, was sie sehen wollen, und publizieren nur das, was wir ihrer Ansicht nach sehen sollen. Sie lehnen es ab, mit irgendjemandem zu diskutieren, der Natur, den Ernst oder die Realität der „Gefahren des vom Menschen verursachten Klimawandels“ in Frage stellt. Dies ist das Fundament ihrer Forderungen, dass wir den Verbrauch fossiler Treibstoffe beenden, unsere Lebensstandards verringern und massive Zahlungen leisten sollen für „Anpassung und Reparation“ bzgl. des Klimas.

Sie konspirieren, um Daten zu verstecken oder zu manipulieren, und bemühen Computermodelle, die die Kleine Eiszeit verschwinden und die globale Temperatur nach dem Jahr 1950 rapide steigen lassen. Sie üben Druck aus auf die Herausgeber wissenschaftlicher Journale, damit diese konträren Studien nicht in diese Journale Eingang finden, und präsentieren falsche Behauptungen, dass 97% aller Wissenschaftler der Ansicht zustimmen, dass die Menschen den gefährlichen Klimawandel verursachen. Sie nehmen Milliarden von Agenturen der Regierung, deren Politik und Vorschriften sie befürworten. Sie ignorieren blindlings die ernsten gegenteiligen Auswirkungen, die ihre Politik für Arbeiterfamilien und die Armen der Welt hat. Inspiriert von religiösem Eifer laufen sie jetzt wirklich zur Höchstform auf.

Unter Führung von Jagadish Shukla und vier Erfüllungsgehilfen an seinem an der George-Mason-University ansässigem Institute of Global Environment and Society haben der NCAR-Forscher Kevin Trenberth sowie 14 kaum bekannte „Klimawissenschaftler“ einen sprachlos machenden Brief (hier) unterschrieben, der zeigt, wie weit sie gehen wollen, um ihr Anliegen zu verteidigen.

In dem Brief werden Präsident Obama, Generalstaatsanwältin Loretta Lynch und der Wissenschaftsberater Obamas John Holdren aufgefordert, „gegen Organisationen zu ermitteln, die wissentlich die amerikanische Bevölkerung über die Risiken des Klimawandels in die Irre geführt haben“. Den Rahmen hierfür bildet das Racketeer Influenced and Corrupt Organizations (RICO)-Gesetz.

In dem Brief wird behauptet, dass die Aktivitäten dieser Organisationen „extensiv dokumentiert“ sind und dass ihre „Missetaten“ „so bald als möglich gestoppt werden müssen“, so dass die Welt das „Klima der Erde re-stabilisieren kann, bevor sogar noch größerer Schaden angerichtet ist“ bzgl. der menschlichen Gesundheit, der Landwirtschaft, der Biodiversität und der ärmsten Menschen der Welt.

Der Betrügereien und Falschheiten sind einfach zu viele, um sie alle zu nennen.

Erstens, die Attacke auf Klimaskeptiker ging von einer Universität aus, die nach George Mason benannt ist, dem Patrioten, der die Original-Virginia-Version unserer Grundrechte-Charta geschrieben hatte. Darunter sind die Rede- und Versammlungsfreiheit, das Recht auf Petitionen an die Regierung und dass Lebensweise und Eigentum nicht unvernünftig eingeschränkt werden. Traurigerweise reflektiert der Brief den beklagenswerten Zustand der „akademischen Freiheit“ auf zu vielen Campus‘, wo heutzutage jede Art der Diversität hoch gehalten wird – außer der Diversität von Meinungen.

Zweitens, die Aktion ist eine himmelschreiend offensichtliche Bemühung, um a) Wissenschaftler und Organisationen zu nötigen, zu verleumden und ruhig zu stellen, die die vom Menschen verursachten Klimagefahren in Frage stellen; b) Skeptische Forschung, Finanzierung, Vorträge und Veröffentlichungen zwangsweise zu unterdrücken; c) die Finanzierung der Skeptiker, deren Geschäfte und Lebensweisen zu zerstören; d) Finanzierung, Auftreten und Einfluss von Alarmisten zu schützen; und e) Skeptiker in den Ruin zu treiben, die jetzt viel Geld aufwenden müssen, um auf die RICO-Vorwürfe zu reagieren, während das Justizministerium unbegrenzte Ressourcen in dieser Hinsicht zur freien Verfügung hat.

Drittens, die 20 Unterzeichner des RICO-20-Vorstoßes haben ihre Namen als Mitglieder von Fakultäten an Universitäten sowie Regierungsagenturen unter das Schriftstück gesetzt – was zeigt, dass sie ihre Organisationen repräsentieren und/oder diese Organisationen ihre Bemühungen unterstützen. Falls das der Fall ist, wird dadurch ein krasser Doppel-Standard an den Tag gelegt – und eine klammheimliche Billigung der RICO-Agenda.

Werden diese Institutionen jetzt verlangen, dass die RICO-20 jedwede Erwähnung ihrer Mitgliedschaft tilgen? Werden sie aktiv werden, um energisch akademische Freiheit, verfassungsmäßige Rechte und eine wissenschaftliche Methode zu verteidigen, die durch diesen Brief und andere giftige Scharmützel bzgl. Behauptungen eines vom Menschen verursachten Klima-Kataklysmus ernsthaft unterminiert wird?

Viertens, RICO wird angewendet, um kriminelles Verhalten zu verfolgen. Dieser Brief könnte einfach ein „Vorführen“ konstituieren. Aber ob der Brief eine Verkettung von Alarmisten-Parties repräsentiert, die sich illegal mit den Punkten a) bis e) hervortun, wenn sie Klimaskeptikern kriminelle Handlungen unterstellen – oder ob die Opposition gegen die ideologische und politische Kampagne für die antifossile Klimaagenda das proklamierte „kriminelle Unterfangen“ ist – diese Frage bleibt unbeantwortet.

In jedem Falle handelt es sich bei den im RICO-20-Brief erwähnten „Missetaten“ um Studien, Berichte und Diskussionen, die den alarmistischen Vorwürfen widersprechen sowie um Vorwürfe gegen die Skeptiker, dass deren Aussagen hinsichtlich Übertreibungen, Fabrizierungen und des Scheiterns von Computermodellen unwahr sind. Diese extensive Bibliothek von Herausforderungen der Klimachaos-These enthält auch die begutachteten Climate Change Reconsidered -Berichte des NIPCC, internationale Skeptiker-Tagungen und zahlreiche Artikel und Beiträge. Natürlich unterminieren die Skeptiker die Klimachaos-Theorie, aber sie stehen unter dem Schutz der freien Rede und spiegeln ehrliche, reproduzierbare Wissenschaft.

Dies führt zu einem fünften Punkt, nämlich dass „Gaunereien“ [racketeering] bedeutet, einen Betrug [racket] zu begehen. Der Terminus wird allgemein als ein betrügerisches Angebot verstanden, um ein Problem zu lösen, das eigentlich gar nicht existiert, und/oder die angebotene „Lösung“ würde nichts zur Lösung des Problems beitragen. Viele würden sagen, dass diese Definition genau die Klimakrise-Industrie beschreibt.

Klimawandel war „real“ während der gesamten Erd- und Menschheitsgeschichte. Getrieben durch mächtige natürliche Kräfte, die wir noch nicht ganz verstehen und mit Sicherheit nicht kontrollieren können, erfolgte die Bandbreite dieser Änderungen von ganz allmählich bis sehr plötzlich, von nützlich bis schädlich oder sogar verheerend. Im Gegensatz zu alarmistischen Behauptungen und Computermodellen gibt es immer noch keinen beobachteten Beweis, dass das, was wir heute erleben, sich grundsätzlich von dem unterscheidet, mit dem unsere Vorfahren konfrontiert worden waren; dass [Klimawandel] jetzt durch Pflanzen düngendes CO2 anstatt durch natürliche Kräfte getrieben wird; oder dass er verhindert oder kontrolliert werden kann durch das Ende des Verbrauchs fossiler Treibstoffe, was unseren Lebensstandard drastisch reduzieren würde.

Tatsächlich ist die Annahme, dass wir ein instabiles und häufig fluktuierendes planetarisches Klima „re-stabilisieren“ können, lächerlich. Genauso ist es mit allen Behauptungen, dass auf Kohlenstoff basierende Treibstoffe überflüssig oder entbehrlich sind – oder dass sie für die menschliche Gesundheit, Landwirtschaft, Biodiversität und die Ärmsten der Welt schädlicher sind als wenn man diese Treibstoffe eliminiert und sich nur auf teure und unzuverlässige „Ersatz“-Energien mit großem Landverbrauch verlässt wie Wind, Solar und Biomasse.

Genauso zweifelhaft ist jedwede Behauptung, dass das IGES/COLA (Center for Ocean-Land-Atmosphere Studies) die fortgesetzten Klimavariationen der Erde verstehen oder vorhersagen kann, indem es sich ausschließlich auf Kohlendioxid und andere Treibhausgase konzentriert und die solaren, kosmischen, ozeanischen und die anderen natürlichen Kräfte ignoriert, die das Klima regieren.

Allerdings wurde IGES/COLA im Jahre 2014 zu 99,6% von NASA, NOAA und der National Science Foundation gefördert (3,8 Millionen Dollar Steuergeld). Dies geht aus dem IRS-Formular 990 und anderen Dokumenten hervor. Unter der Obama-Administration waren jene Agenturen nahezu vollständig von der Klimaagenda der Alarmisten korrumpiert – und würden vermutlich jede Finanzierung von Organisationen einstellen, die Zweifel hinsichtlich CO2 geäußert haben, ihre Konzentration auf Treibhausgase reduziert oder deren Klimamodelle überarbeitet haben, um der gesamten Palette natürlicher Kräfte gerecht zu werden, um u. A. Monsun- und Klimavorhersagen verbessern zu können.

Tatsächlich enthüllt das jüngste Formular 990, dass Dr. Shukla und seine Frau Gehälter und andere Zuwendungen von insgesamt 499.145 Dollar im Jahre 2014 erhalten haben von ihrer von Steuerzahlungen befreiten Organisation. Dr. Shukla arbeitete dort nur Teilzeit, und sein Kompensationsgehalt in Höhe von 333.048 Dollar „erhielt er vermutlich zusätzlich zu seinem Honorar von seiner Akademie (George Mason) in Höhe von 250.866 Dollar pro Jahr“. Dies ergibt eine Summe von 750.000 Dollar pro Jahr an den Führer von RICO 20 und seine Familie – und zwar „aus Geld der Öffentlichkeit für Klima-Arbeit und der Verfolgung von Skeptikern“, schrieb Prof. Roger Pielke, Jr.

Es wäre die ultimative Ironie, wenn eine unvoreingenommene Untersuchung die skeptischen Organisationen entlasten würde, die RICO 20 untersucht haben will – und zu Anklagen führt gegen multiple Unternehmen und Organisationen (und Regierungsagenturen?), die sich geheimer Absprachen (hier), Datenmanipulation, Müll-Modellierung und anderer betrügerischer Forschungspraktiken schuldig gemacht haben, die seit Jahren immer wieder öffentlich gemacht werden.

Die vom Internal Revenue Service (IRS) ins Visier genommenen konservativen Gruppen könnten sehr gut das sein, was den inzwischen in Mode gekommenen Gedanken inspiriert hat, das Justizministerium (DOJ) zu nutzen, um politische Opponenten anzuklagen (hier). Das Scheitern des IRS und DOJ, irgendeinen der Eindringlinge in jene Bereiche zu bestrafen zeigt, dass die Verfolgung von alarmistischem Betrug oder Gaunerei unter der gegenwärtigen Administration höchst unwahrscheinlich ist.

Allerdings könnte die neue Administration im Jahre 2017 eine sehr unterschiedliche Haltung hierzu einnehmen. Zumindest könnten ein neuer Kongress und eine neue Exekutive den klima-alarmistischen Zug zum Entgleisen bringen, eine robuste (und schon lange überfällige) Diskussion zur Klimawissenschaft und deren Modelle initiieren, Skeptikern die gleiche Förderung zukommen lassen und den Alarmismus beenden. Die sich daraus ergebenden potentiellen Konsequenzen sollten Dr. Shukla und seine ihm nachfolgenden alarmistischen Jünger ihre Taktik noch einmal überdenken lassen.

Diese RICO-Schande zeigt, wie verzweifelt die Alarmisten geworden sind. Sie verlieren den klimawissenschaftlichen Kampf. Die Realität widerspricht ihren Modellen immer stärker. Ihre ad hominem-Attacken werden grandios scheitern.

Sie stehen auch vor wesentlichen Widrigkeiten in Paris, wo sie vielleicht einen zahnlosen Vertrag mit leeren Versprechungen erreichen können, hunderte Milliarden Dollar aus einstmals reichen Ländern, deren Energieverbrauch und wirtschaftliches Wachstum behindert werden umzuverteilen – der aber armen Ländern keine bindenden Emissionsziele auferlegen wird, die weiterhin Kohle verbrennen und das atmosphärische CO2-Niveau sogar noch höher schrauben werden … ohne jede Auswirkung auf das Klima.

Paul Driesssen is senior policy analyst for the Committee For A Constructive Tomorrow (CFACT), author of Eco-Imperialism: Green power – Black death, and coauthor of Cracking Big Green: Saving the world from the Save-the-Earth money machine.

Link: http://wattsupwiththat.com/2015/09/29/climate-activists-want-us-prosecuted-under-rico/

Übersetzt von Chris Frey EIKE

Auch hier: http://wattsupwiththat.com/2015/09/29/the-rico-20-letter-to-obama-asking-for-prosecution-of-climate-skeptics-disappears-from-shuklas-iges-website-amid-financial-concerns/

(Darin wird beschrieben, dass der RICO-20-Brief von der Website Dr. Shuklas verschwunden ist)

———————————

NACHTRAG: Es scheint, als ob dieser Vorstoß zu einem gewaltigen Rohrkrepierer für die Initiatoren werden könnte! Man schaue mal hier:

http://dailycaller.com/2015/10/02/congress-investigates-scientists-wanting-to-prosecute-global-warming-skeptics/

und hier:

http://wattsupwiththat.com/2015/10/02/jagadish-shuklas-rico20-blunder-may-have-opened-the-largest-science-scandal-in-us-history/




RWE – und seine Kommunen – am Abgrund

Zu allem Überfluss plagen RWE auch noch riesige Schulden, so um die 35 Milliarden Euro. Sie resultieren zumeist aus Fehlentscheidungen früherer Firmenchefs. Der vormalige Hausjurist und überraschenderweise zum Vorstandsvorsitzenden hochgelobte Dietmar Kuhnt kaufte allerhand marode englische und amerikanische Wasserfirmen auf, was den vorher kerngesunden zum ersten Mal in hohe Schulden trieb. Sein Nach-Nachfolger Jürgen Großmann, ein Zwei-Meter-Manager mit Ruhr-Stallgeruch und einer Statur wie eine deutsche Eiche, investierte zur Unzeit Milliarden in eine Vielzahl von fossilen Kraftwerken. Der jetzige RWE-Chef, Peter Terium (52), geborener Holländer und gelernter Wirtschaftsprüfer, Vegetarier sowie Billardspieler, räumte auf. Er legte die meisten Kraftwerke seines Vorgängers still, darunter das nagelneue Gaskraftwerk „Claus C“ und scheute sich auch nicht, das markante Bürohochhaus in Essen (Spitzname „Wattikan“) an einen US-Immobilienfonds zu verscherbeln und wieder zurück zu leasen. Mittlerweile ist er bei einem Dutzend kleiner Wasserkraftwerke angelangt, deren Verkauf bis zum Ende d. J. geplant ist, weil sich ihr Betrieb für RWE angeblich nicht mehr lohnt.

Geldsorgen der Kommunen

Die von der Bundesregierung nach Fukushima angeordnete Stilllegung der Kernkraftwerke hat RWE ins Mark getroffen. Zwei große Atomkraftwerke (Biblis A, Biblis B ) wurden sofort abgeschaltet, drei weitere (Emsland, sowie Gundremmingen B und C) sollen, zeitlich abgestuft, bis zum Jahr 2022 folgen. Diese Kernkraftwerke waren, neben den Kohlekraftwerken, die eigentlichen  Gewinnbringer des Konzerns. Kein Wunder, dass ihre Stilllegung in der Bilanz riesige finanzielle Lücken gerissen hat. Immerhin stellte ein Untersuchungsausschuss des Landes Hessen inzwischen fest, dass zumindest die Abschaltung der Kraftwerke Biblis A und B illegal war, weil der Betreiber dazu – wie im Atomgesetz verlangt – vorher nicht angehört worden war. Ministerpräsident Volker Bouffier schiebt die Verantwortung für diese Maßnahme der Bundesregierung zu. Demnächst wird die Bundeskanzlerin dem Ausschuss Rede und Antwort stehen müssen.

Die finanzielle Schieflage der RWE hat auch Auswirkungen auf die Kommunen in Nordrhein-Westfalen, denen der Konzern zu 24 Prozent gehört. Die Krise trifft sie sogar mehrfach: wegen verminderter Gewinne sinken die Gewerbesteuereinnahmen der betroffenen Städte, daneben müssen diese auch den Wertverlust ihrer Aktien und die Dividendenkürzungen verdauen. Die Reduktion der Dividende auf ca. 50 Cent pro Aktie wirft die Investitionsplanung der Städte Essen und Mülheim total über den Haufen. Fast noch schlimmer ist das Absinken des Börsenwerts für das RWE. Wie viele Kommunen in NRW hat die Stadt Essen bei Einführung der doppelten kaufmännischen Buchführung im Jahr 2007 den damaligen hohen Aktienkurs von 77 Euro als Eigenkapital in ihre Bücher genommen und damit einen satten Buchgewinn erzielt. Nach dem oben geschilderten Börsensturz musste allein die Stadt Essen ca. 800 Millionen auf ihre Beteiligung an RWE abschreiben. Das Eigenkapital der Stadt ist damit fast auf Null angelangt. Im Gegensatz zu Essen gibt es allerdings auch andere Städte in NRW, die nicht unter dieser Misere leiden. Die Landeshauptstadt Düsseldorf, beispielsweise, hat vor sieben Jahren ihre Anteile an RWE rechtzeitig verkauft und ist seitdem schuldenfrei!

Auch die Stadtwerke München haben große finanzielle Sorgen. Nachdem sie zuletzt noch 80 Millionen Euro Gewinn gemacht haben, wird dieses Jahr erstmals ein Minus vor dem Ergebnis nach Steuern stehen. Der Energiesektor hat seit Jahren den teuren, aber defizitären und unverzichtbaren U-Bahn-Ausbau mitfinanziert. Aus den Gewinnen der Stadtwerke konnte der Stadtkämmerer bisher zuverlässig ca. 100 Millionen Euro in den städtischen Haushalt einstellen. Das gilt zukünftig nicht mehr. Aber dieses Unglück kommt nicht allein. Die Stadt München ist auch mit 25 Prozent an dem Atomkraftwerk Isar II beteiligt und hat offensichtlich zu wenig Geld für dessen Abriss ab dem Jahr 2022 zurückgelegt. Etwa um 100 Millionen Euro muss diese Rücklage, angesichts der niedrigen Zinsen, aufgestockt werden. Dessen ungeachtet propagieren die Grünen dieser Stadt, dass München große Gewinne aus dem Betrieb von Windkraftanlagen zieht, an denen sie beteiligt ist. Verschwiegen wird, dass diese aus Subventionen herrühren, die vom Stromverbraucher bezahlt werden.

Zoff im Aufsichtsrat

Zu allem Überfluss hat bei RWE auch der seit 2009 agierende Aufsichtsratsvorsitzende Manfred Schneider angekündigt, dass er diesen Posten bei der nächsten Hauptversammlung im Frühjahr 2016 aufgeben werde. Ein neuer Kontrollchef musste also her; Gehalt: um die 300.000 Euro pro Jahr, also pea-nuts bei Herren dieses Kalibers. Üblicherweise obliegt es dem abgehenden Chef seinen Nachfolger zu finden – natürlich im Einvernehmen mit den anderen Aufsichtsräten. Und da begannen die Probleme, denn das hohe Gremium war sich nicht einig. Die Kommunen halten, aus historischen Gründen, zwar nur etwa ein Viertel des Aktienkapital, haben aber – wiederum aus historischen Gründen – volle 4 der insgesamt 10 Aufsichtsräte. Sie mussten in den Findungsprozess eingebunden werden. Und der war nicht einfach, denn die Kommunen und die Kapitalseite (6 Sitze) verfolgen verschiedenartige Geschäftsmodelle. Die Kommunen wollen, etwas platt gesagt, aus dem weltweit agierenden Energiekonzern RWE wieder einen regionalen Versorger machen, ein großes „Stadt- und Landwerk“, wie einer der ihren sagte. Sie betrachten den Konzern fast als Eigentum der Stadt- und Landkreise und halten es für das Wichtigste, dass es genug Dividende für die klammen Kommunen gibt – selbst wenn das Unternehmen wenig abwirft und jeden Euro eigentlich für die Investitionen bräuchte. Die Kapitalseite betrachtet diese Vision als rückwärts gewandt und zieht da nicht mit. Der Kandidat der Kommunen war der ehemalige Bundeswirtschaftsminister Werner Müller, derzeit Chef der Ruhrkohle AG und ein Strippenzieher allererster Güte. Er hätte, im Sinne der Kommunen, das RWE mehr oder minder verstaatlicht, wie seinerzeit seine Abbruchfirma RAG. Nun, Müller ist aus dem Rennen, denn Schneider hat seinen Nachfolger gefunden. Es ist der ehemalige Chef des Software-Konzerns SAP, namens Werner Brandt. Zwei weitere Mitglieder wollen den RWE-Aufsichtsrat ebenfalls verlassen, unter ihnen der Daimler-Vorstandschef Dieter Zetsche. (Will er etwa die Diesel-Software in Sindelfingen überprüfen?). Da vom kommenden Jahr an bei der Besetzung des RWE-Aufsichtsrats die Frauenquote zu berücksichtigen ist, werden zwei sachkundige Damen gesucht. Also: „Ladies to the front!“

Übernommen vom Willy Marth´s Rentnerblog hier

Weiterführende links: http://www.sueddeutsche.de/wirtschaft/energie-stuehleruecken-bei-rwe-1.2673122

Über den Autor:

Dr. Willy Marth, geboren 1933 im Fichtelgebirge, promovierte in Physik an der Technischen Hochschule in München und erhielt anschliessend ein Diplom in Betriebswirtschaft der Universität München. Als Projektleiter wirkte er bei den beiden natriumgekühlten Kernkraftwerken KNK I und II, sowie bei der Entwicklung des Schnellen Brüter SNR 300 in Kalkar. Beim europäischen Brüter EFR war er als Executive Director zuständig für die gesamte Forschung an 12 Forschungszentren in Deutschland, Frankreich und Grossbritannien. Im Jahr 1994 wurde er als Finanzchef für verschiedene Stilllegungsprojekte berufen. Dabei handelte es sich um vier Reaktoren und Kernkraftwerke sowie um die Wiederaufarbeitungsanlage Karlsruhe, wo er für ein Jahresbudget von 300 Millionen Euro verantwortlich war.




Kampf um die IPCC-Führung: Anfang Oktober 2015 wird in Dubrovnik der neue Chef des Weltklimarats gewählt

Mittlerweile ist sogar noch ein sechster Kandidat dazugekommen. Um welche “profilierten” Klimawissenschaftler handelt es sich? Bringen sie mehr Fachwissen mit als der unehrenhaft entlassene Eisenbahningenieur Rajendra Pachauri, der die (Miss-) Geschicke der Organisation lange Jahre lenkte? Hier die Kandidaten:

Hoesung Lee (Südkorea): Wirtschaftswissenschaftler und IPCC-Vizechef. Der Klimaretter nennt die Schwerpunkte von Lee:

Er will stärker Wissenschaftler aus Entwicklungsländern einbinden und die Informationsbasis der Berichte auf die Wirtschaft, die Industrie und das Finanzwesen ausweiten. Besonderes Augenmerk will der Koreaner mit seiner Kandidatur auf die Schaffung von Arbeitsplätzen, die Verbesserung der Gesundheit, den Zugang zu Energie und den Abbau von Armut legen.

Alles tolle Ziele. Aber hat Herr Lee da nicht etwas vergessen? Geht es nicht um das Verständnis des Klimasystems, die Erklärung von ungelösten Punkten? Ganz oben auf der Liste: Weshalb können die Klimamodelle die Mittelalterliche Wärmeperiode nicht reproduzieren? Das räumt der IPCC sogar selber in seinem letzten Bericht kleinlaut ein. Dieselben Modelle, die hier versagen, werden dann ohne mit der Wimper zu zucken für Klimamodellierungen bis 2100 verwendet. Werden die Wissenschaftler aus den Entwicklungsländern dieses Thema endlich anpacken? Oder geht es um die Schaffung von Arbeitsplätzen von Klimawissenschaftlern? Gesundheitskarte für alle Bürger der Erde? Gute Idee, hat aber nichts mit dem Klima zu tun. Zugang zu Energie? Mit Solarkraft allerdings nur tagsüber.

Chris Field  (USA): derzeit Vorsitz der IPCC-Arbeitsgruppe 2. Er will die Sachstandsberichte schärfen. Was auch immer das heißen soll.

Jean-Pascal Ypersele (Belgien): Der Belgier findet nichts Schlimmes daran, von Greenpeace Geld für Studien anzunehmen und gleichzeitig als IPCC-Offizieller tätig zu sein. Mit Interessenskonflikten hatte bereits ex-Chef Pachauri zu kämpfen. Die enge Verflechtung führender Klimaforscher mit Ökoaktivistengruppen wird immer mehr zum Problem für den IPCC. So es hatte der WWF geschafft, eine ganze Reihe von Vertretern in die Autorenschaft des Klimaberichts einzuschleusen. Eigentlich war der IPCC urprünglich als unabhängiges “Schiedsrichtergremium” gebildet worden, was durch die Aktivistenbeteiligung letztendlich ad absurdum geführt wurde.

Thomas Stocker (Schweiz): Stocker verschwendet in der Regel keine Zeit mit der Diskussion unbequemer Fakten (siehe “IPCC-Berichts-Chef Thomas Stocker zeigt im Weltwoche-Interview unerklärliche Gedächtnislücken: Die Gesprächsanalyse“) und hat für Pannen stets Sündenböcke parat (siehe “IPCC-Berichts-Chef Thomas Stocker gibt Klimaskeptikern die Schuld an missglücktem IPCC-Berichts-Launch“). Damit passt Stocker vermutlich genau auf die Stellenbeschreibung.

Nebojša Nakićenović (Montenegro): Will frischen Wind in den IPCC bringen. Aber aus welcher Richtung?

Ogunlade Davidson (Sierra Leone): Kam noch ganz zum Schluss als Kandidat dazu. Ogunlade wurde durch das Ministry of Transport und Aviation von Sierra Leone nominiert. Als ehemaliger Minister für Energie braucht Davidson jetzt dringend einen neuen Job.

Die aktuelle Liste der Nominierungen kann man auf der IPCC-Webseite einsehen. Dort findet sich auch eine riesige Liste anderer Kandidaten für weitere IPCC-Stellen, deren Namen jedoch ziemlich unbekannt sind.




Etwa 92% (oder 99%) aller USHCN-Temperaturdaten bestehen aus geschätzten Werten

In einem vorangegangenen Beitrag (hier, auf Deutsch beim EIKE hier) wurde gezeigt, dass die auf die GHCN-Daten angewendeten Adjustierungs-Modelle geschätzte Werte für etwa 66% der Informationen erzeugt hat, die den Verwendern der Daten zur Verfügung gestellt wurden wie etwa GISS. Weil die US-Daten einen relativ großen Beitrag zum Umfang der GHCN-Daten leisten, nimmt sich dieser Beitrag die Auswirkungen der Adjustierungs-Modelle auf die USHCN-Daten vor. Die Graphiken in diesem Beitrag verwenden den um 14 Uhr am 25.9.2015 heruntergeladenen Datensatz von der USHCN FTP Site.

Im USHCN V2.5-File ,Readme‘ liest man: „Die Version USHCN 2.5 wird jetzt erzeugt mittels des gleichen Processing-Systems, das auch auf die monatliche Version der GHCN 3-Daten angewendet worden ist. Dieses Reprocessing besteht aus einem Konstruktions-Prozess, der die monatlichen Daten der Version 2.5 des USHCN in einer speziellen Prioritäts-Reihenfolge zusammenfasst (eine, die monatliche Daten bevorzugt, die direkt aus der jüngsten Version von GHCN-Daily berechnet wurden). Qualität kontrolliert die Daten, findet Inhomogenitäten und führt Adjustierungen durch, wo es möglich ist“.

Es gibt drei wichtige Unterschiede im GHCN-Prozess. Erstens, der USHCN-Prozess erzeugt einheitliche Ergebnisse, die Schätzungen der Beobachtungszeit an jeder Station zeigen. Zweitens, USHCN wird Werte für fehlende Daten zu schätzen versuchen, ein Prozess, der bekannt ist unter der Bezeichnung infilling [im Folgenden mit „Auffüllung“ übersetzt]. Derartige Daten werden jedoch vom GHCN nicht verwendet. Der dritte Unterschied ist, dass die homogenisierten Daten für die US-Stationen von den durch das GHCN adjustierten Daten der gleichen US-Stationen abweichen. Meiner Vermutung nach ist der Grund hierfür, dass die Homogenisierungs-Modelle des GHCN Daten über nationale Grenzen hinweg einbringen, während dies beim USHCN nicht der Fall ist. Dies muss noch näher untersucht werden.

Beitrag des USHCN zum GHCN

Im Kommentarbereich des o. g. Beitrages wies Tim Ball darauf hin, dass das USHCN eine unverhältnismäßig hohe Datenmenge zum GHCN-Datensatz beiträgt. Die erste Graphik unten zeigt diesen Beitrag im zeitlichen Verlauf. Man beachte, dass das US-Landgebiet (einschließlich Alaska und Hawaii) 6,62% der gesamten Festlandsfläche der Erde ausmacht.

Prozentzahl der Stationen im GHCN, die aus dem USHCN stammen

Wie viele der Daten sind modelliert?

Die folgende Graphik zeigt die Anzahl der Daten, in in der USHCN-Aufzeichnung für jeden Monat von Januar 1880 bis heute verfügbar sind. Auf der Y-Achse ist die Anzahl der Daten liefernden Stationen aufgetragen, so dass jeder Punkt auf der blauen Kurve die Anzahl der Monate repräsentiert, in denen das Monatsmittel aus unvollständigen täglichen Temperaturmessungen berechnet worden ist. USHCN berechnet einen monatlichen Mittelwert auch bei bis zu neun fehlenden Tagen und kennzeichnet den Monat mit einer Rangfolge von „a“ (1 fehlender Tag) bis zu „i“ (neun fehlende Tage). Wie man in der Graphik erkennt, wurden etwa 25% der monatlichen Werte berechnet, wenn einige Tage fehlen. Das offensichtlich jahreszeitliche Verhalten der roten Kurve verlangt nach weiteren Untersuchungen.

Aufzeichnende USHCN-Stationen

Die dritte Graphik zeigt das Ausmaß, mit dem die Adjustierungs-Modelle die USHCN-Daten beeinflussen. Die blaue Kurze zeigt wieder die für jeden Monat verfügbare Datenmenge im USHCN. Die violette Kurve zeigt die Anzahl von Messungen in jedem Monat, die infolge der Beobachtungszeiten geschätzt worden sind. Etwa 91% der USHCN-Daten weisen eine Beobachtungszeit-Schätzung auf. Die grüne Kurve zeigt die Anzahl von Messungen in jedem Monat, die mittels Homogenisierung geschätzt worden waren. Dies summiert sich zu etwa 99% in der Aufzeichnung. Wie oben schon erwähnt, unterscheiden sich die Schätzungen von GHCN und USHCN für US-Stationen. Im Falle des GHCN sind etwa 92% der US-Aufzeichnungen geschätzt.

Die rote Kurve ist die Anzahl der Daten, die durch eine Kombination von Homogenisierung und GHCN ausgesondert worden sind. Gelegentlich sondert die Homogenisierung die Originaldaten ganz aus und ersetzt sie durch ungültige Werte (-9999). Öfter jedoch werden ausgesonderte Daten durch gültige Werte berechnet aus benachbarten Stationen. Wenn dies geschieht, werden die homogenisierten Daten gekennzeichnet mit einem „E“. GHCN zeigt keine Daten, die auf diese Weise gekennzeichnet sind, weshalb sie in der roten Kurve als ausgesondert erscheinen.

Anzahl der Messstationen und Ausmaß der Schätzungen

Die nächste Graphik zeigt die drei Datensätze (Beobachtungszeit, homogenisiert, ausgesondert) als Prozentzahl der Gesamtzahl der Stationen.

Ausmaß von USHCN-Schätzungen als Prozentzahl aller eingehenden Messstationen.

Die Auswirkung der Modelle

Die fünfte Graphik zeigt die mittlere Änderung der Rohdaten infolge des Beobachtungszeit-Adjustierungsmodells, wenn man diese durch einen geschätzten Wert ersetzt. Die Kurve schließt alle Schätzungen ein, einschließlich der 9% der Fälle, in denen der Beobachtungszeit-Wert gleich dem Wert der Rohdaten ist.

Änderung der USHCN-Rohdatenwerte nach der Beobachtungszeit-Schätzung

Die sechste Graphik zeigt die mittlere Änderung der Rohwerte infolge des Homogenisierungs-Modells. Die Kurve schließt alle Schätzungen ein, einschließlich des 1% aller Werte, in denen der homogenisierte Wert gleich ist dem Rohdatenwert.

Änderung der USHCN-Rohdaten nach der Homogenisierungs-Schätzung

Unvollständige Monate

Wie zuvor beschrieben berechnet das USHCN ein monatliches Mittel, falls bis zu neun Tage mit Daten fehlen. Die folgende Graphik zeigt die Prozentzahl der Monate, in der die Aufzeichnung unvollständig ist (rote Kurve) sowie die Prozentzahl der Monate, die erhalten bleiben, nachdem man die Adjustierungs-Modelle angewendet hatte (schwarze Kurve). Es ist offensichtlich, dass unvollständige Monate nicht oft ausgesondert wurden.

Anzahl der monatlichen USHCN-Mittelwerte, die aus unvollständigen täglichen Beobachtungen berechnet wurden.

Die nächste Graphik zeigt die mittlere Anzahl von Tagen, die fehlten, als die täglichen Aufzeichnungen der Monate unvollständig waren. Nach einer gewissen Volatilität vor dem Jahr 1900 beträgt die mittlere Anzahl fehlender Tage in unvollständigen Monaten zwei (6,5%).

Anzahl der fehlenden Tage bei unvollständigen monatlichen Mittelwerten im USHCN

Ein Wort zum Auffüllen

Die USHCN-Modelle erzeugen Schätzungen für einige fehlende Monate und ersetzen gelegentlich einen kompletten Monat durch eine Schätzung, falls es zu viele Inhomogenitäten gibt. Die letzte Graphik zeigt die Häufigkeit, mit der dies in der USHCN-Aufzeichnung vorkommt. Die blaue Kurve zeigt die Anzahl der nicht existierenden Messungen, die durch den Auffüllungsprozess geschätzt worden sind. Die violette Linie zeigt die Anzahl bestehender Messungen, die ausgesondert und durch den Auffüllungsprozess ersetzt worden sind. Vor dem Jahr 1920 kam es sehr häufig zur Schätzung fehlender Daten. Seitdem ist es öfter zur Ersetzung fehlender Daten gekommen, als dass fehlende Daten geschätzt worden sind.

Aufgefüllte Daten sind in den Adjustierungs-Schätzungen des GHCN nicht enthalten.

Anzahl der Auffüllung fehlender Daten im USHCN.

Schlussfolgerung

Das US-Festland macht 6,62% der Landfläche der Erde aus, doch stammen von hier 39% der Daten im GHCN-Netzwerk. Von 1880 bis zur Gegenwart wurden etwa 99% aller Temperaturdaten im homogenisierten USHCN-Output geschätzt (mit Unterschieden zu den Original-Rohdaten). Etwa 92% der Temperaturdaten im Beobachtungszeitpunkt-Output des USHCN sind geschätzt worden. Die Adjustierungsmodelle des GHCN schätzen etwa 92% der US-Temperaturen, aber diese Schätzungen passen weder zu den USHCN-Beobachtungszeit-Schätzungen noch zu den homogenisierten Schätzungen.

Die Homogenisierungs-Schätzung führt einen positiven Temperaturtrend von etwa 0,34°C pro Jahrhundert relativ zu den USHCN-Rohdaten ein. Die Beobachtungszeit-Schätzungen führen einen positiven Temperaturtrend von etwa 0,16°C pro Jahrhundert ein. Diese sind nicht additiv. Der Homogenisierungs-Trend steht bereits für den Beobachtungszeit-Trend.

Anmerkung: Das US-Klima-Referenznetzwerk, von Anfang an vorgesehen zur freien Verfügung für JEDWEDE Adjustierung von Daten, zeigt keinerlei Trend, wie ich bereits im Juni 2015 in einem Beitrag mit dem Titel [übersetzt] „Trotz der Versuche, ihn global zu beseitigen, existiert der „Stillstand“ immer noch in ursprünglichen US-Temperaturdaten“ (hier) erläutert habe.

Plottet man die Daten aus jenem Netzwerk, sieht das so aus:

Bemerkungen von Anthony Watts hierzu: Natürlich haben Tom Karl und Tom Peterson von NOAA/NCDC (jetzt NCEI) niemals diese USCRN-Daten an das Tageslicht gebracht, weder in einer Presseerklärung noch in einem Klimazustands-Bericht für die Medien. Sie wurden auf eine Nebenseite der Website verbannt und niemals erwähnt. Wenn es um Behauptungen bzgl. wärmstes Jahr/Monat/Tag jemals geht, werden stattdessen der Öffentlichkeit ausschließlich diese stark adjustierten, höchst unsicheren USHCN/GHCN-Daten in diesen regelmäßigen Berichten gezeigt.

Man fragt sich, warum NOAA NCDC/NCEI Millionen Dollar ausgegeben haben, um ein Klimazustands-Netzwerk für die USA zu erschaffen und dieses dann niemals zur Information der Öffentlichkeit herangezogen wird. Vielleicht liegt es daran, dass es nicht die gewünschten Ergebnisse zeigt?

Link: http://wattsupwiththat.com/2015/09/27/approximately-92-or-99-of-ushcn-surface-temperature-data-consists-of-estimated-values/

Übersetzt von Chris Frey EIKE