1

Meschugge: haarsträubende neue Behauptungen über die Verweilzeit von CO2

Bild rechts: Modell eines CO2-Moleküls

Ein anderer Wissenschaftler, nämlich Michel Crucifix von der Université catholique de Louvain in Belgien, die mit der Studie nichts zu tun hat, proklamierte:

Tatsächlich liegt die Halbwertszeit von CO2 in der Atmosphäre in der Größenordnung von 35.000 Jahren. Als Konsequenz wird anthropogenes CO2 auch in 50.000 Jahren noch in der Atmosphäre vorhanden sein, und sogar auch noch in 100.000 Jahren. Das reicht, um jedwede Vereisung zu verhindern.

[Na sowas! Hat nicht mal ein gewisser Erich Honecker gesagt, „die Mauer wird in 50 Jahren noch stehen; und sie wird auch in 100 Jahren noch stehen!“ Anm. d. Übers.]

Man sieht, die vermeintlich „gute Nachricht“ lautet, dass der Bösewicht Nummer eins in punkto Klimawandel, also Kohlendioxid, das Eintreten der nächsten Eiszeit um 50.000 bis 100.000 Jahre nach hinten verschiebt.

Die nächste Eiszeit

Man erinnere sich, während der letzten 400.000 Jahre gab es auf der Erde vier große Eiszeiten (hier), wobei jede einzelne größenordnungsmäßig etwa 100.000 Jahre dauerte und die durch relativ kurze Zwischeneiszeiten in der Größenordnung von 10.000 Jahren voneinander getrennt waren. Da die letzte Eiszeit von 5000 bis 10.000 Jahren zu Ende gegangen war, könnte die nächste bereits um die Ecke lauern. Aber jetzt müssen wir uns der PIK-Studie zufolge sehr, sehr lange keine Sorgen mehr machen. Wenn wir doch nur wirklich so glücklich wären!

Zunächst: Eisbohrkerne aus der Antarktis haben eindeutig gezeigt, dass der CO2-Gehalt in der Atmosphäre nach einer einsetzenden Erwärmung zugenommen hat, und zwar mit einer zeitlichen Verzögerung von fast 1000 Jahren. Mit anderen Worten, die CO2-Zunahme folgte einem Anstieg der Temperatur, nicht umgekehrt. Einfach gesagt bedeutet dies, dass das CO2 in der Luft eine Konsequenz der Klimaentwicklung ist. Aber selbst wenn jene Verzögerung nicht weltweit auftreten würde, ist die neue Behauptung einer erheblich längeren Verweildauer von CO2 in der Atmosphäre total falsch.

Verweildauer von CO2

Die Wahrheit sieht substantiell anders aus als in der neuen Behauptung: Tatsächlich sind über 30 Studien unabhängig voneinander mittels unterschiedlicher Verfahren zu dem übereinstimmenden Ergebnis gekommen, dass die Größenordnung der Verweildauer von CO2 in der Atmosphäre nur sieben Jahre beträgt – und nicht Hunderte oder idiotische zehntausende Jahre! Mit meinen eigenen Berechnungen komme ich ebenfalls zu diesem Ergebnis (hier).

Tatsächlich hatte das CO2 auf dem Höhepunkt der letzten Eiszeit vor etwa 20.000 Jahren, als große Gebiete der Nordhemisphäre von 1 bis 2 km dicken Eisschilden überzogen war, bis auf etwa 200 ppm oder 0,02 Prozent abgenommen. Die Pflanzen und Ozeane hatten so viel CO2 verbraucht, dass sie sich selbst „den Ast abgesägt haben, auf dem sie sitzen“.

Bei einem Gehalt von 0,02 Prozent ist der Partialdruck von CO2 einfach zu gering, um Pflanzen gedeihen zu lassen. Man kann es vergleichen damit, gerade genug Nahrung zum Überleben zu haben, aber immer noch hungert. Falls man sonst gesund ist, kann das eine ganze Weile gut gehen, aber man verliert trotzdem immer mehr an Körpergewicht. Schwächere Mitglieder der Gruppe würden wohl bald von der Bildfläche verschwinden, wenn ein unabdingbares Lebensmittel fehlt.

Doppelt oder nichts

Die Gruppe beim PIK spielt doppelt oder nichts, indem sie eine erheblich längere Verweildauer von CO2 verkündet. Auf den Finanzmärkten könnte ein doppelt oder nichts für einige Menschen einige Zeit vorteilhaft sein, aber meistens und für die meisten Menschen führt es eher zu finanziellem Ruin. Falls man mir nicht glaubt, befrage man irgendeinen guten Finanzberater hierzu.

Schellnhuber und Co. haben jetzt proklamiert, dass die Verweilzeit von CO2 in der Luft fast 5000 mal länger ist als aus vielen anderen Studien hervorgeht. Klar gesagt, es scheint mir so, als ob sie nicht einfach bzgl. ihrer Verlierer-Ansicht „doubling down“, sondern „multiplying down“ betreiben.

Natürlich haben sie sich eine kleine „Hintertür“ offen gelassen, und zwar mit ihrer hanebüchenen Behauptung, dass es sich lediglich um das „anthropogene“ CO2 (A-CO2) handelt. Mit anderen Worten, sie behaupten, dass ausschließlich das CO2 aus der Verbrennung fossiler Treibstoffe seitens der Menschen in ihre Berechnungen der Verweilzeit eingeht. Das ist gleichbedeutend mit der Aussage, dass es gutes natürliches CO2 (N-CO2) und schlechtes anthropogenes (A-CO2) gibt. Und genau in dieser Differenzierung liegt die Große Lüge.

Romanian Flora (Wikipedia image)

Die große Lüge

Die große Lüge, verbreitet vom PIK und einigen anderen Wissenschaftlern ist die Behauptung, dass A-CO2 etwas Anderes ist, eine spezielle Untergruppe des atmosphärischen Gesamt-CO2. Das ist absoluter Blödsinn, und entweder versteht man beim PIK die Chemie der Natur nicht, oder man verzerrt oder missinterpretiert absichtlich die Fakten.

Also möchte ich hier noch einmal wiederholen: Weder Blumen im Haus, noch die Bäume im Wald, noch die primären Erzeuger (Algen) im Wasser scheren sich auch nur einen Deut um die Quelle des CO2, das sie für ihr Wachstum verbrauchen. Auch können die Pflanzen nicht unterschieden zwischen A-CO2 aus fossilen Treibstoffen und N-CO2, wie es beispielsweise Vulkanen entströmt. Den Korallen und Muscheln im Wasser ist es ebenfalls egal, wie viel CO2 hinein gekommen ist; sie führen einfach gelöstes Kalzium und Kohlenstoff-Ionen zu Kalziumkarbonat zusammen, aus welchem Material ihre harten Schalen bestehen. Das chemische Ausfallen von Kalkstein im Wasser macht ebenfalls keinen Unterschied.

Ein einfaches Beispiel reicht, um den Trugschluss des behaupteten CO2-Dualismus‘ zu demonstrieren: Falls man zwei identische Münzen in der Tasche hat und eine davon ausgibt, um sich etwas zu kaufen – macht es da irgendeinen Unterschied für das restliche Geld in der Tasche oder für den Händler, der die Münze bekommt, um welche spezielle Münze es sich jetzt handelt? Die PIK-Leute möchten uns von dem Gedanken überzeugen, dass dem so ist.

Aber jeder und auch ich selbst weiß, dass das nicht stimmt! Die Natur kennt keine unterschiedlichen Assimilationsraten für N-CO2 und A-CO2. Daher ist es vollkommen egal, woher das CO2 kommt, das chemisch ausgefällt, in Korallenriffe konvertiert oder von wachsenden Pflanzen assimiliert wird. Die Natur kann zwischen N-CO2 und A-CO2 nicht unterschieden. Es ist identisch, genau wie die Münzen in obigem Beispiel.

Die Vortäuschung, dass die Natur doch eine solche Differenzierung macht, ist Idiotie, Verschleierung oder noch Schlimmeres!

Link: http://fairfaxfreecitizen.com/2016/02/13/meschugge-outlandish-new-claims-about-the-half-life-of-co2/

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers hierzu: Der Skandal fängt schon damit an, dass man das überhaupt erwähnen muss! Den Grundschulkindern um mich herum muss man jedenfalls so etwas nicht mehr erklären – sie würden sich höchstens an die Stirn tippen!




Netzstörungen: Der unheilbare Erbdefekt der Energiewende

Am 17. Januar 2016 wurde die deutsche Presse durch eine alarmierende Meldung des Netzbetreibers Tennet plötzlich aus ihrer üblichen Jubelstimmung bezüglich der wunderbaren Fortschritte der „Energiewende“ aufgeschreckt: Grund war eine von dpa verbreitete Meldung des Tennet-Chefs Urban Keussen des Inhalts, dass die Kosten für Maßnahmen zur Stabilisierung des Stromnetzes bereits 2015 die Milliardengrenze geknackt hätten. Wie ernst die Lage innerhalb kürzester Zeit geworden zu sein scheint, zeigt sich am Anstieg der Zahlen. So sprang der Kostenaufwand für Maßnahmen, mit deren Hilfe die Netzgesellschaften Störungen u.a. durch kurzfristigen Zukauf von Regelenergie ausgleichen müssen, allein bei Tennet innerhalb von nur einem Jahr von 74 Mio. € auf rund 225 Mio. € hoch. Das ist eine Steigerung um gut 300 %. Insgesamt musste Tennet für diese sowie weitere Maßnahmen rund 700 Mio. € aufwenden, und bei den anderen Netzbetreibern sah es nicht viel besser aus. Auch bei 50 Hertz liefen Kosten von gut 300 Mio. € auf, und für alle vier Netzbetreiber zusammen kamen mehr als eine Mrd. € zusammen. Tendenz stark steigend, Bild 1.

Bild 1. Mit zunehmender Einspeisung von Strom aus Sonne und Wind steigt auch die Zahl der erforderlichen Netzeingriffe exponentiell an. Der Trend weist steil nach oben (Grafik: M. Limburg, Daten: [NETR])

Damit hatte man offensichtlich nicht gerechnet. Die Netzgebühren dürften dadurch so stark nach oben gehen, dass allein dies die Haushaltsstromkosten um sechs Prozent nach oben treibt. Die Ursache ist klar: Es liegt am Stromaufkommen aus „erneuerbaren“ Energien, insbesondere am Windstrom, von dem 2015 besonders viel eingespeist wurde. Diese Erklärung ist allerdings nicht „politisch korrekt“, weshalb die Netzbetreiber sofort anfingen, lautstark über zu geringe Leitungskapazitäten zu jammern und die dringende Notwendigkeit der Errichtung neuer Trassen wie „Süd-Link“ oder „Süd-Ost“ zu betonen. Dies verschleiert die wahren Ursachen und dient nur den eigenen Interessen. Um zu verstehen, was wirklich vor sich geht, muss man sich zunächst mit den Besonderheiten der „EE“-Stromerzeugung aus Wind und Sonne befassen.

Einspeisung von Wind- und Solarenergie im Dezember 2015

Zunächst muss man sich dabei den entscheidenden und grundsätzlich nicht behebbaren „Erbdefekt“ von Wind- und Solarstrom vergegenwärtigen: In einem 50-Hz-Netz stören sie, statt zu helfen. Bei allen anderen Stromerzeugern kann man die Leistung präzise auf den aktuellen Netzbedarf hin regeln und die Einspeisung ins Netz so den ständig auftretenden kleineren und größeren Schwankungen anpassen. Diese Abweichungen sind prinzipiell unvermeidlich. Deshalb haben zahlreiche Wissenschaftler und Ingenieure Jahrzehnte damit verbracht, ihre Auswirkungen durch ausgeklügelte Methoden abzufangen und zu minimieren. Lohn der Mühe war eine äußerst stabile Stromversorgung. Deshalb gehörte Deutschland bezüglich der Stabilität seiner Stromversorgung noch in den Jahren 2009/2010 im europaweiten Vergleich zur Spitzengruppe, Bild 2.

Bild 2. Das deutsche Stromnetz war bisher eines der stabilsten in Europa. Dargestellt sind die Stromausfälle in Minuten pro Jahr und Abnehmer (Grafik: [VESI])

Im Unterschied zu allen anderen Kraftwerkstypen richtet sich die Stromerzeugung von Windenergieanlagen und Fotovoltaikfeldern nicht nach dem jeweiligen Bedarf, sondern ist grundsätzlich und ausschließlich von den Launen des Wetters abhängig. Hinzu kommt die nur für Ideologen verständliche Festlegung, dass dieser ohne Rücksicht auf den Bedarf erzeugte Strom auch noch per Gesetz Vorrang vor allen anderen Erzeugern hat. Diese müssen daher zusätzlich zu den von den Unwägbarkeiten des Verbrauchs verursachten Schwankungen auch noch die erratischen, von Windböen und Wolkenabschattungen herrührenden Sprünge der Einspeisung von Wind- und Solaranlagen abfangen und ausgleichen. Diese werden naturgemäß umso größer, je mehr derartige Anlagen ans Netz gebracht werden. Allerdings behaupten die Vertreter der EE-Branche, durch die Verteilung von Anlagen über größere Gebiete würden sich örtliche Schwankungen zunehmend ausgleichen und so verstetigen. Auch gebe es einen Ausgleich zwischen Wind- und Sonnenstrom. Doch wie stellt sich dies in der Praxis dar?

Einspeisung von Wind- und Solarenergie im Dezember 2015

Als Musterfall nehmen wir die Solar- und Windenergieeinspeisung vom Dezember 2015, einem Monat, der sich zur Freude der Branche durch eine besonders hohe Windausbeute auszeichnete, Bild 3.

Bild 3. Grafische Darstellung der Summenleistung der deutschen Wind- und Solarerzeuger im Dezember 2015, basierend auf viertelstündlich aufgezeichneten Daten der Strombörse EEX (Grafik: Autor)

Wie man sieht, ist der Verlauf schon beim Wind sehr unruhig. Die kurzen, aber intensiven „Solarnadeln“ tragen noch zur Verstärkung dieser Diskontinuität bei. Die Summenkurve erhält dadurch ein geradezu extrem sägezahnartiges Profil. Bei einer installierten Gesamtkapazität von mehr als 84 GW schwankt die abgegebene Leistung zwischen 1,7 und 35,6 GW, das ist ein Verhältnis von 21/1. Trotz der enormen nominellen Kapazität erreichte der Nutzungsgrad nie mehr als 42 %. Im schlechtesten Fall lag er nur bei 2 %. Benötigt wurden dagegen zwischen 35,5 und 88,8 GW: Zu mehreren Zeitpunkten in diesem Monat waren die „Erneuerbaren“ demnach mehr oder weniger ein Totalausfall. Fast die gesamte Leistung im Netz musste von zuverlässigen, regelbaren Stromerzeugern geliefert werden. Man sieht auf den ersten Blick, warum Wind- und Solarstrom für die Versorgung einer Industrienation ungeeignet sind. Das ist ein angesichts der riesigen nominellen Kapazität sehr ernüchterndes Ergebnis. Angesichts der Verteilung von etwa 25.000 Windenergieanlagen und noch viel mehr Solaranlagen über ganz Deutschland kann man auch die Behauptung, dass es hierdurch zu einer Verstetigung der Erzeugung käme, als eindeutig widerlegt betrachten.

Extreme Schwankungen

Ein weiterer Negativpunkt sind nicht nur die Schwankungen der „EE“-Leistungen an sich, sondern auch die geradezu extremen Geschwindigkeiten, mit der dies erfolgt. Besonders anschaulich erkennt man dies, wenn man sich das Geschehen am 6. und 7. Dezember in hoher zeitlicher Auflösung ansieht, Bild 4.

Bild 4. Am 6. und 7. Dezember brach die Gesamtleistung der Wind- und Solarproduktion innerhalb von 28 Stunden um 33,9 GW ein (Grafik: Autor)

Doch das ist nur ein Teil der Fakten, denn im gleichen Zeitraum zog auch noch der Strombedarf des Landes deutlich an und erreichte in der Spitze fast 90 GW. Noch bis zur Tagesmitte des 6.12. hatten jedoch die regelbaren Kraftwerke wegen des Vorrangs für die „EEG-Stotterstromlieferanten“ Wind und Sonne ihre Leistungsabgabe teils stark reduzieren müssen. Als dann am 6.12. sowohl Sonne als auch Wind keine Lust mehr hatten, mussten die in Betrieb befindlichen Einheiten einen regelrechten Alarmstart hinlegen und ihre Leistungsabgabe in nur 35 Stunden um 38.000 MW steigern, Bild 5.

Bild 5. Als am 6.12. sowohl Sonne als auch Wind keine Lust mehr hatten, mussten die regelbaren Kraftwerke ihre Leistungsabgabe in nur 35 Stunden um 270 % (!) auf 38.000 MW steigern,

Vergleicht man diese Zahl mit der Größenordnung üblicher Kohlekraftwerksblöcke von rund 1 GW, so mussten demnach über einen Zeitraum von 35 Stunden insgesamt 38 Kraftwerke von Stillstand auf Volllast hochgejagt werden. Das geht im Prinzip nur bei Gas- und Steinkohlekraftwerken. Schaut man sich die in Bild 5 farbig gekennzeichneten Anteile der verschiedenen Kraftwerkstypen an, so sieht man, dass es vor allem die heute so verächtlich gemachten Kohlekraftwerke waren, die zusammen mit den im Grundlastbetrieb laufenden Kernkraftwerken Deutschland vor einem Blackout gerettet haben. Alle anderen Kraftwerkstypen haben gar nicht die Kapazität, Energie in solchen Größenordnungen bereitzustellen.

Das Ganze hatte jedoch seinen Preis: Kein Kraftwerksbetreiber jagt gerne seine Anlagen derart rücksichtslos von ganz unten im Eilgang auf Volllast. Bei den riesigen, mehr als 10.000 t wiegenden Kesselanlagen, Leitungen und Ventilen kommt es dadurch zu erheblichen Schäden u.a. durch Wärmespannungen. Das muss natürlich dann auch bezahlt werden. Wie teuer der Spaß wirklich war, kann man aus zwei Zahlenangaben von Tennet ermessen: In einer am 19. November herausgegebenen Pressemitteilung wurden die Kosten zur Beherrschung der allein den „erneuerbaren“ zuzurechnenden Notmaßnahmen im Netzgebiet von Tennet noch auf knapp 500 Mio. € beziffert [TENN]. Nur wenige Wochen später war von 700 Mio. € die Rede [SPIE]. Ein rasanter Kostenanstieg, der sich in den kommenden Jahren noch erheblich steigern dürfte. Interessant ist hierbei übrigens auch die Aufschlüsselung der Kosten, die sich wie folgt darstellt: 225 Mio. € für das Hoch- bzw. Herunterfahren von Kraftwerken, 152 Mio. € für den Abruf der Netzreserve und 239 Mio. € für das Notabschalten von Windkraftanlagen. Im Vorjahr hatten die Vergleichszahlen noch bei 74, 92 resp. 128 Mio. € gelegen.

Das Problem der Kurzfrist-Gradienten

Neben der soeben beschriebenen Problematik längerfristiger starker Schwankungen speziell im Windenergie-Aufkommen gibt es noch ein weiteres, darunter versteckt liegendes Problem: Ständige starke kurzfristige Schwankungen, die erst bei feiner zeitlicherer Auflösung sichtbar werden. Leider stehen dem Autor lediglich Daten mit viertelstündlicher Auflösung (Bild 6) zur Verfügung, es gibt jedoch Hinweise, dass sich solche Schwankungen auch bis unterhalb des Minutenbereichs auswirken.

Bild 6. Die Auftragung der kurzfristigen Schwankungen des Aufkommens an Wind- und Solarstrom bei viertelstündlicher Auflösung zeigt ein ruheloses Hin und Her mit Amplituden bis zu mehr als 3.700 MW/h (Grafik: Autor)

Diese Schwankungen, die von der maximalen Amplitude her dem vollen Leistungsumfang von vier großen Kohlekraftwerken entsprechen, treten selbst bei schwächeren bis mittleren Windgeschwindigkeiten nahezu ununterbrochen auf und müssen daher ununterbrochen durch entsprechende Gegenmaßnahmen der Netzbetreiber ausgeglichen werden. Aus der Sicht eines Regelungstechnikers handelt es sich um eine ständige Quelle von Störimpulsen. Diese müssen zu Lasten und auf Kosten der andern Netzteilnehmer aufgefangen und ausgeglichen werden, denn die Energiebilanz im Netz muss im 10-Millisekunden-Takt stets ausgeglichen werden.

Zugleich ist diese Grafik eine weitere Widerlegung jener Ideologen, die trotz solcher längst vorhandener Gegenbeweise stur behaupten, Wind und Sonne taugten als Energielieferanten für eine moderne Stromversorgung. Im Gegenteil gilt: Solange die Anteile dieser Anlagentypen an der Gesamtversorgung unbedeutend waren, konnte deren Gezappel noch hingenommen werden, weil es im „Grundrauschen“ der übrigen Störimpulse mehr oder weniger folgenlos unterging. Jetzt, wo ihre Anteile die 20-%-Marke überschreiten, beginnen sich die nachteiligen Auswirkungen ernsthaft bemerkbar zu machen. Und es wird rasant schlimmer werden, weil mit Verschiebung der Technologieanteile nicht nur die Störungen zunehmen, sondern zugleich auch die „Ausgleichskapazitäten“ der vom Markt verdrängten regelbaren Kraftwerke drastisch reduziert werden.

Alptraum voraus!

Die jetzt beschriebene Situation wurde von Fachleuten schon seit Jahren vorausgesehen, und es gab entsprechende Warnungen zuhauf. Diese wurden lange nicht zur Kenntnis genommen. Dabei handelt es sich bei dem, was wir jetzt zu sehen bekommen, erst um die Spitze des Eisbergs, der vor dem Bug unseres „garantiert unsinkbaren“ Energiewende-Dampfers sichtbar geworden ist. Um seine wahren Dimensionen deutlicher erkennen zu können, machen wir eine Projektion in die Zukunft, genauer gesagt ins Jahr 2050, bis zu dem ja laut der aktuellen Planungen der EE-Anteil an der Stromerzeugung auf 80 % anwachsen soll. In einem kürzlich erschienenen Artikel wurde für diese Projektion ein Mengengerüst samt Verteilung auf die verschiedenen Technologien entwickelt [EIK2]. Dabei wurden auch der Strombedarf der von der Politik geforderten Umstellung des Autoverkehrs auf batteriebetriebene Fahrzeuge sowie der sich bereits abzeichnende Niedergang der Stromproduktion aus „Biogas“ sowie Müll berücksichtigt. Letztlich werden neben den 20 % konventioneller Kraftwerke vor allem die Windenergie sowie ein deutlich kleinerer Anteil Solarstrom das Geschehen bestimmen, während Wasser bei unter 3 % verharren dürfte. Nach Umrechnung mit den Nutzungsgraden ergeben sich dann folgende Kapazitäten: Wind rund 333 GW und Solar rund 52 GW. Damit hat man Umrechnungsfaktoren, mit deren Hilfe man den hypothetischen Dezember 2050 (mit angenommen identischem Wetterverlauf wie 2015) nachvollziehen kann, Bild 7.

Bild 7. Darstellung der Einspeisung von Wind-und Solarstrom in einem hypothetischen Dezember 2050 mit angenommen identischem Wetterverlauf wie im Dezember 2015 (Grafik: Autor)

Beim Vergleich der beiden Bilder fällt zunächst auf, dass der Anteil der Solarstromerzeugung erheblich geringer ist als 2015. Dies entspricht dem heute bereits zu beobachtenden Trend, weil Solarstrom von allen „erneuerbaren“ Technologien die mit Abstand unwirtschaftlichste ist. Das ist anscheinend jetzt auch der Politik klargeworden, weshalb die Förderung stark zurückgefahren wird.

Weitere Auffälligkeit ist das extrem hohe Niveau der Stromerzeugung an windreichen Tagen, das mit bis zu 245 GW weit über dem Tagesbedarf liegen dürfte. Damit sind je nach aktueller Netzlast Überschussleistungen von bis zu mehr als 200 GW vorprogrammiert. Für diese gibt es derzeit kein realistisches Speicherkonzept. Im Gegenteil, man findet seitens der „EE“-Lobbyisten abwiegelnde Aussagen wie die, dass man sich erst in etwa 20 Jahren ernsthaft um diese Thematik werde kümmern müssen [AGOR]. Dabei wird unter anderem ignoriert, dass für die Bewältigung solch gigantischer Leistungen auch entsprechende Leitungskapazitäten benötigt werden, egal wohin man mit dem Strom letztlich gehen wird. Man möge sich vor Augen halten, welche Probleme und welche Kosten allein ein einziges vergleichsweise kleines 4 GW-Leitungsprojekt wie SüdLink mit sich bringt. Wo, wie und mit welchem Aufwand sollen dann Leitungen mit einer Kapazität von mehr als 200 GW errichtet werden? Allein dieses Leitungsnetz könnte mit Zusatzkosten von rund einer halben Billion € zu Buche schlagen.

Die Kehrseite der Medaille ist der je nach Wetterlaune jederzeit mögliche Einbruch der „EE“-Leistung. Im vorliegenden Fall stünden am 7.12. lediglich noch 11.470 MW zur Verfügung. Je nach aktueller Netzlast käme es daher zu einem Defizit von bis zu mehr als 76 GW. Selbst bei der hohen Ausbaustufe des Jahres 2050 sind Wind und Strom offensichtlich ungeeignet zur Sicherung der Grundlast.

Ebenfalls ungeklärt ist auch die Frage, wo diese 76 GW Leistung denn herkommen sollen, wenn wir kaum noch über konventionelle Kraftwerke verfügen werden. Selbst wenn man über die rund 70 % Verluste bei Power-to-Gas hinwegsehen möchte: Wer soll denn die Investitionen in Errichtung und Unterhalt eines Parks moderner Gaskraftwerke mit einer solch hohen Kapazität, die eventuell nur für wenige Stunden im Jahr benötigt würden, finanzieren? Schließlich müssen solche Anlagen mit einer vierschichtigen Belegschaft rund um die Uhr bereitstehen. Und das sind nicht nur ein paar Portiers und Schalterumleger: Für den Betrieb solch komplexer Anlagen braucht es eine Vielzahl gut ausgebildeter und durch ständige Erfahrung trainierter Spezialisten.

Noch extremere Schwankungen…

Wie bereits weiter oben ausgeführt, stellten Schwankungen der Abgabeleistung von „EE“-Erzeugern die Netzbetreiber schon 2015 und insbesondere im Dezember vor erhebliche Herausforderungen, wodurch die entsprechenden Kosten auf insgesamt über 1 Mrd. € hochschossen. Probleme bereitete insbesondere der schnelle und steile Abfall in der Größenordnung von 1 GW/ h zwischen dem 6.12. und dem 7.12. Dies würde sich im fiktiven Dezember 2050 noch wesentlich gravierender darstellen, Bild 8.

Bild 8. In den 28 Stunden zwischen 12 Uhr am 6.12 und 16.00 Uhr am 7.12. 2050 würde die Leistungsabgabe von Wind- und Solarkraftwerken um mehr als 201 GW einbrechen (Grafik: Autor) 

Im Prinzip würde nach dieser Projektion die Leistungsabgabe innerhalb von 28 h um mehr als 201 GW zurückgehen. Dies entspräche einer mittleren Änderungsgeschwindigkeit von rund 7,2 GW/ h bzw. der vollen Leistung von acht modernen Gas-und-Dampf-Turbinen des Typs „Irsching 5“ mit je 860 MW. Gasturbinen deswegen, weil auch bei „Power-to-gas“ die Rückumwandlung zu Strom ja durch Kraftwerke erfolgen muss. Als Wermutstropfen und Warnhinweis sollte allerdings die Tatsache dienen, dass das in Irsching installierte Kraftwerk wegen katastrophaler Unwirtschaftlichkeit zur Stilllegung angemeldet werden musste. 

Daher stellt sich die Frage, woher all die benötigten Kraftwerke kommen sollen. Geht man von einer Netzlast von 106 GW und der „EE“-Minimalleistung von 11.500 MW am 7.12. aus, so müsste man 89 Kraftwerke dieses Typs innerhalb von 28 Stunden ans Netz bringen, damit die Lichter in Deutschland nicht ausgehen. Zu diesen Fragen gibt es seitens der Wind- und Solarlobby zwar wortreiche Beteuerungen, aber keine überzeugenden Antworten.

…und nicht mehr beherrschbare Kurzfrist-Gradienten

Was die bereits im Zusammenhang mit Bild 6 erläuterten Kurzfrist-Gradienten angeht, so würden diese im fiktiven Dezember 2050 bis zu -26.500 MW/h erreichen, Bild 9.

Bild 9. Die Auftragung der kurzfristigen Schwankungen des Aufkommens an Wind- und Solarstrom bei viertelstündlicher Auflösung zeigt ein ruheloses Hin und Her mit Amplituden bis zu mehr als -26.500 MW/h (Grafik: Autor) 

Eine weitergehende Diskussion ist nach den bereits zu Bild 6 gegebenen Erläuterungen nicht mehr erforderlich. Mit den heute bekannten bzw. verfügbaren Technologien sind solche Schwankungen schlicht nicht beherrschbar, nicht zuletzt auch deshalb, weil die für ein eventuelles Auffangen erforderlichen Ressourcen durch die Vernichtung konventioneller Kraftwerkstechnologie immer weiter zurückgebaut werden.

Untaugliche Gegenrezepte

Natürlich stellt sich an diesem Punkt die Frage, wie es denn angesichts der jetzt „plötzlich“ auch für die Allgemeinheit sichtbar gewordenen werdenden Probleme weitergehen soll. Besonders unerfreulich ist ja, dass dieses Dilemma schon längst vorhersehbar war und es genug Warnungen gab. Jetzt ist der Salat auf dem Teller und den Verantwortlichen bei den Netzbetreibern fällt dazu als erstes die Forderung nach einem verstärkten Ausbau der Netze zur besseren Verteilung des Stroms aus „erneuerbaren“ Energien ein. Dabei ist dies alles andere als sinnvoll, denn es bedeutet nur, die von den Windquirlen ausgehenden Störimpulse großflächiger zu verteilen, ohne dass sie dadurch behoben würden. Das einzige Ergebnis wäre, dass man damit noch mehr Verbraucher mit immer massiveren Störungen „beglücken“ würde. Was man im Ausland davon hält, zeigt sich an den Sperrtrafos, die mittlerweile von Polen und Tschechien zur Abwehr deutschen Windstroms an den Grenzen aufgestellt werden.

Der Grund für die Vorschläge der Netzbetreiber ist allerdings leicht zu verstehen, wenn man ihr Geschäftsmodell berücksichtigt. Ihnen ist es egal, wo der Strom herkommt oder wo er hinfließt und was für Probleme es damit gibt. Sie verdienen nämlich an Problemen. Sie verdienen an neuen Leitungen, an den Durchleitungsgebühren und auch an der Behebung von Störungen, sie verdienen an allem. Die Aufwendungen, welche jetzt so lautstark beklagt werden, sind für sie „Wareneinkauf“, auf den sie ihren staatlich zugesicherten Profit oben draufschlagen dürfen. Wenn sie eine neue Leitung ziehen, so spielen Kosten oder die tatsächliche Auslastung keine wirkliche Rolle. Alle Aufwendungen müssen vom Verbraucher via Durchleitungsgebühr beglichen werden. Die Politik hat es geschafft, aus den früheren Verbundversorgern, die mit einem ganzheitlich optimierten Konzept agierten, ein chaotisches Mit- und Gegeneinander einzelner Akteure zu schaffen, die jeweils nur ihre eng begrenzten Partikularinteressen vertreten und denen alles, was links oder rechts davon passiert, völlig egal ist. Die Zeche zahlt wie immer der Verbraucher, und sie wächst immer schneller.

Während die Kanzlerin mit ihrer in den DDR-Jahren erworbenen Betonkopf-Mentalität stur an ihrem „Energiewende“-Kurs festhält, zeigen sich bei ihrem SPD-Koalitionspartner Anzeichen für erste Absetzbewegungen. Gabriel, der bereits vor einiger Zeit durch den Spruch auffiel, dass man uns im Ausland wegen der Energiewende „sowieso für bekloppt“ halte, scheint ebenso wie in der Flüchtlingsfrage die Zeichen der Zeit erkannt zu haben und sprach in den letzten Tagen davon, die Kohlekraftwerke länger laufen zu lassen. Womit im Prinzip das Ende der Wende eingeläutet würde.

Fred F. Mueller

Quellen

[AGEB] http://www.ag-energiebilanzen.de/viewpage.php?idpage=139

[AGOR] http://tinyurl.com/jode6ds

[BDEW] http://tinyurl.com/jox5h7d

[BDPR] http://tinyurl.com/zc6cxu7

[EIKE] http://www.eike-klima-energie.eu/news-cache/strom-und-co2-deutschland-im-treibsand-der-illusionen/

[EIK2] http://www.eike-klima-energie.eu/news-cache/energiewende-plan-und-orientierungslos-im-nebel/

[LIMU] Limburg, M.; Mueller, F.F.: Strom ist nicht gleich Strom. Kap. 23, „Strompreise – dank EEG hinauf zu den Sternen“. ISBN 978-3-940431-54-7.

[NETR] http://www.netztransparenz.de/de/Redispatch.htm

[QUAS] http://www.volker-quaschning.de/datserv/windinst/index.php

[SPIE] http://tinyurl.com/hpyvnb9

[STILL] http://tinyurl.com/nddurkc     Abgerufen am 30.12.2015

[TENN] http://tinyurl.com/hfvgbed

[VAFI] http://www.vafinans.se/ravaror/diagram/eex-strom-phelix-baseload-year-future/EURO

[VESI] http://tinyurl.com/zgn48e2




Dieselgate – was sagen uns die Zahlen?

Es wurde zu diesem Thema bereits hier bei EIKE berichtet (hier) und (hier), weitere Gesichtspunkte sollen jetzt diskutiert werden.

Mit der Ablösung der Muskelkraft durch Maschinen konnte das Industriealter beginnen, die mühsame Plackerei der Menschen allein zur Sicherstellung der Ernährung und eines warmen Zimmers im Winter ging zu Ende. Dafür wurden in den Maschinen Energieträger eingesetzt, erst Kohle, dann Erdöl und Gas. Es wurden Verbrennungsprodukte in die Luft freigesetzt. Zu viele Abgase in der Atemluft können vielleicht schädlich sein, daher wurden Grenzwerte eingeführt.

Was wird durch Verbrennungen in die Luft freigesetzt?

Dazu gibt es Zahlen im Statistischen Jahrbuch. Für die Jahre ab 1966 sind die gesamten Emissionen für Deutschland für NO2, SO2 und Staub im folgenden Diagramm aufgetragen:

Es zeigt sich:

Der SO2-Eintrag ist zunächst hoch, vermindert sich dann aber infolge der Entschwefelungsanlagen bei Kraftwerken. In 1990 ergibt sich ein riesiger Anstieg infolge der Deutschen Einheit, weil die Braunkohle in den neuen Bundesländern einen sehr hohen Schwefelgehalt hat. Erst mit Neubau der Kraftwerke dort konnten die Gesamtemissionen sinken.

Der Staubeintrag in die Luft sank seit den 1960-er Jahren, weil in den Häusern die Heizungen von Feststoffen auf Öl umgestellt wurden. Ein Peak kam wiederum durch die Deutsche Einheit, dann aber zunehmend Verbesserungen.

Der NO2-Eintrag in die Luft stieg an wie die Zunahme des Verkehrs im Lande, aber keine Zunahme durch die Deutsche Einheit. Später erfolgte ein Abfall durch bessere Technik (Katalysator).

Woher kommt das NO2?

Im Bereich des Maximums in obiger Abbildung um 1986 gibt das Umweltbundesamt zur Herkunft des NO2 folgende Auskunft [1]:

Es gibt zwei große Emittenten, den Straßenverkehr mit ca. 55% Beitrag und die Kraftwerke und Industrie mit ca. 40% Beitrag. Die 55% des Verkehrs teilen sich auf in 30% durch Otto-Motoren, 17% durch Diesel-Lkw, 2% durch Diesel-Pkw und 6% Rest.

Im Jahre 2003 ist der NO2-Eintrag in die Luft um mehr als 50% gesunken, es trägt der Verkehr mit 53% bei, die Kraftwerke und Industrie mit 32% [2]. Der Beitrag der hier interessierenden Diesel-Pkw lässt sich zu 11% abschätzen [3].

Wie sind die Konzentrationen von NO2 in der Atmosphäre und im Abgas der Pkw?

Dazu finden sich Angaben im Internet, z.B. vom Landesamt Umwelt in Baden-Württemberg.

In ländlichem Raum beträgt die Konzentration 0,005 bis 0,01mg pro m³ Luft, in Ballungszentren (Stuttgart) findet man als 1-Stunden-Mittelwert maximal 0,15 bis 0,3mg NO2 pro m² Luft, als Jahresmittelwert 0,04 bis 0,09mg NO2 pro m³ Luft [4].

Im Abgasstrom von D-Pkw im Straßenverkehr wurden 130 bis 700mg NO2 pro km gemessen.

Was fordert die Norm?

Die Euro-Norm für Diesel-Pkw fordert Emissionsgrenzwerte, bezogen auf 1km Fahrtstrecke.

Euro 3: 500mg NOx/km, Euro 4: 250mgNOx/km, Euro 5: 180mg NOx/km (ab 2011), Euro 6: 80mg NOx/km (ab 9/2015). In den USA gilt 31mg NOx/km.

Ohne eine Abgasreinigung sind die heute geltenden Grenzwerte nicht einzuhalten.

Ist der NO2-Gehalt der Atemluft eine Gefahr für Menschen?

Zu dieser überaus wichtigen Frage findet man bisher keine Antwort in der öffentlichen Diskussion. Über die Giftigkeit von Substanzen wird von Toxikologen befunden. Die 35 Fachleute in der „Senatskommission zur Prüfung gesundheitsschädlicher Arbeitsstoffe“ befinden über die Aufnahme von Stoffen in die MAK-Liste (MAK = maximale Arbeitsplatzkonzentration). Jedes Jahr erscheint eine neue Ausgabe der MAK-Liste mit den erfolgten Änderungen. Zu NO2 steht in der MAK-Liste von 1994 die Angabe 9mg NO2 pro m³ Luft, heute steht dort 0,95mg NO2 pro m³ Luft. Die Bedeutung dieser Werte ist wie folgt: Die Toxikologen erproben in Tierversuchen, wo die Dosisgrenze für NO2 in der Atemluft ist, bei der mit Sicherheit KEINE Wirkung auf den Organismus erfolgt. Dieses nennt man den NOAEL-Wert (no observed adverse effect level). Oft wird dieser Wert als MAK-Wert festgelegt. Da der Mensch sich nicht Rund-um-die-Uhr am Arbeitsplatz befindet, bedeutet die Festlegung vom NOAEL-Wert als MAK-Wert eine zusätzliche Sicherheit. Oft wird allerdings noch ein zusätzlicher Sicherheitsfaktor von einem Viertel oder einem Zehntel eingeführt.

Wenn heute 9mg NO2 pro m³ Luft bedeutungslos für atmende Lebewesen sind, dann ist der 100-ste Teil, nämlich der höchste Jahresmittelwert von 0,09mg NO2 pro m³ Luft, ebenfalls ohne Bedeutung. Diesel-Pkw tragen nur zu einem Zehntel zu diesem bedeutungslosen Teil bei. Es gibt also keine Gesundheitsgefährdungen durch Stickoxide in der Luft infolge Diesel-Pkw, wie es durch die Aufstellung der Grenzwerte suggeriert wird. Vermutlich handelt es sich um „politische“ Grenzwerte.

Der Stickstoff-Kreislauf in der Natur [5]

Stickstoff ist sehr wichtig für das Leben, es ist in Eiweißen enthalten. Daher muß unsere Nahrung Stickstoff enthalten. Mit der Ernte wird dem Boden Stickstoff entzogen, das sind in Deutschland etwa 1,5 bis 2 Mill. t Stickstoff pro Jahr. Der Stickstoffaustrag durch die Ernte muß dem Boden wieder zugeführt werden, das geschieht durch Düngung. Es gibt einen Stickstoffkreislauf in der Natur. Allerdings kann der Stickstoff nicht direkt aus dem Stickstoff-Molekül von den Pflanzen aufgenommen werden, es muß die sehr starke N2-Bindung aufgebrochen werden, z.B. in NO2 überführt werden. Auch die in Kraftwerken und im Verkehr erzeugten Stickoxide nehmen am Stickstoffkreislauf der Natur teil, so daß schließlich ein Teil dieses aus dem Auspuff stammenden Stickstoffs auch auf unserem Teller landet. Das ist nichts Schädliches.

Was ist zu folgern?

Es wurden Grenzwerte festgelegt, die eine nicht existierende Gesundheitsgefahr suggerieren. Die Einhaltung der Grenzwerte scheint durch technische Maßnahmen möglich zu sein, das kostet unnötige Ressourcen: Geld, Energie. Die Sinnhaftigkeit von Grenzwerten sollte für Jedermann erkenntlich sein, daran fehlt es. Wenn ein Beamtenapparat unsinnige Forderungen aufstellt, wäre es die erste Pflicht der Fachleute in der Autoindustrie, dem frühzeitig zu widersprechen.

Gibt es in anderen Bereichen der Umweltpolitik ähnliches?

Es ist eindeutig mit „ja“ zu antworten:

·       Von den Gremien der EU wurde für den CO2-Ausstoß von Pkw ein Grenzwert von 95g CO2 pro km festgelegt, der ab 2020 gelten soll. Der Bürger kann in der Regel die Bedeutung dieser Grenze nicht erkennen. Es besteht zwischen dem Kraftstoffverbrauch und dem CO2-Ausstoß beim Auto ein fester Zusammenhang. Mit dem neuen Grenzwert 95g CO2 pro km darf ein Diesel nur noch 3,6 Liter pro 100km verbrauchen, ein Benziner nur noch 4,0 Liter pro 100km. Jedermann weiß aus eigener Erfahrung, daß diese Verbrauchswerte nicht einzuhalten sind. Damit bedeuten die von der EU festgelegten Grenzen die Abschaffung des Autos in der EU.

·       Es gilt weltweit eine Gesetzgebung zu Radioaktivität, die falsch ist. So ist die Freisetzung von Radioaktivität bei KKW’s verboten bzw. auf sehr kleine Werte zu begrenzen. In Fukushima wurden Menschen aus ihren Wohnungen evakuiert, obwohl die freigesetzte Radioaktivität keine Gefahr darstellt [hier]. Ein zweites Beispiel dazu: Aus der ASSE will man die Abfälle wieder an die Oberfläche holen, das ist so viel Radioaktivität mit langer Halbwertszeit, wie durch Ausbringung von Kalidünger in der Landwirtschaft in 1 bis 3 Jahren deutschlandweit auf den Äckern verteilt wird. In Deutschland führen diese falschen Gesetze letztendlich zum Ausstieg aus der eigenen Stromversorgung.

[1] Daten zur Umwelt 1990/1991, Umweltbundesamt, Kapitel Luft, Seite 180 fff

[2] Stat. Jahrbuch 2005, Seite 312

[3] Berechnet mit 25 Mill. D-Pkw, 400mg NO2/km, 15 000km/Jahr ergibt Emission von 150 000t NO2/a

[4] Diese Zahlen passen gut zu Meßwerten, die 1984/85 von dem in München geschaffenem Umwelt-Labor der Siemens-AG in der Innenstadt gemessen wurden (interner Siemens-Bericht, Herr Sattler)

[5] „Böden – verletzliches Fundament“, ein Magazin vom GSF-Forschungszentrum, 1997




Globale mittlere Temperatur: bedeutungslos & irreführend

Bild rechts: Was bedeutet eine Änderung der globalen Temperatur um +2°C, falls es überhaupt irgendetwas bedeutet?

Parallel mit dem Klimaclown-Festival in Paris (COP21) schwafeln die Leute ständig darüber, den Klimawandel aufzuhalten und eine Erwärmung bis höchstens 2°C zuzulassen. Die Frage, die der gesunde Menschenverstand sofort stellen sollte, lautet: „2°C höher als was?“ Denn es ist doch so: falls man im Death Valley in Kalifornien lebt, würde man eine weitere Erwärmung um ein paar Gran vermutlich gar nicht bemerken. Die mittlere jährliche Temperatur im Death Valley beträgt der Wetterstation Furnace Creek zufolge 25,1°C, mit einem mittleren Maximum im Januar um 19°C und im Juli von 47°C. Von 1934 bis 1961 zeichnete die Wetterstation Cow Creek eine mittlere jährliche Temperatur von 25,1°C auf. Glaubt jemand wirklich, dass ein paar Grad mehr einen merklichen Unterschied machen?

Genauso gibt es natürlich andere Orte auf der Erde, wo es extrem heiß oder extrem kalt wird. Die kälteste gemessene Temperatur trat im Jahre 1983 mit -89,6°C an der Antarktis-Station Wostok auf. Die mittlere Wintertemperatur am Südpol beträgt etwa -49°C, und selbst im Sommer steigt die Temperatur kaum jemals über den Gefrierpunkt. Würden ein paar Grad mehr einen Unterschied hinsichtlich der Bewohnbarkeit dieser Orte ausmachen? Die Kaiserpinguine könnten eine solche Erwärmung vielleicht schön finden, doch dürfte dies kaum ein Game Changer sein.

 

Wo ist die Erwärmung um 2°C, die man uns versprochen hat?

Die höchste jemals auf der Erde gemessene Temperatur schlägt mit 70,7°C zu Buche, und zwar in der Wüste Lut in Iran. Würde der Unterschied zwischen 71 und 73 Grad so gewaltige Auswirkungen haben? Und nicht vergessen, es geht hier um einen Anstieg der mittleren Temperatur. Würde der gleiche Anstieg bzgl. der extremen Höchst- bzw. Tiefstwerte gelten? Ziehen wir noch einmal das Death Valley als Beispiel heran. Dort sind die Wintertemperaturen tagsüber mild in in tiefen Lagen, während in kühlen Nächten gelegentlich sogar der Gefrierpunkt erreicht wird. In höheren Lagen ist es kühler als im tief gelegenen Tal. Die Temperatur nimmt alle 300 m jeweils um 2 bis 3°C ab. Wäre es eine Katastrophe, wenn die Temperaturen in der hoch gelegenen Wüste nicht so stark zurückgingen?

Dies bringt jetzt das Thema Seehöhe allgemein ins Spiel.

Sind die Auswirkungen jener so gefürchteten 2°C auf Höhe des Meeresspiegels genauso gefährlich wie auf den Bergen? Schließlich kann die Seehöhe bedeutende Auswirkungen auf die Temperatur haben. Patrick Moore drückt es so aus: „2°C ist wie das Herabsteigen vom Eiffelturm oder wenn man von San Francisco über die Bucht nach Berkeley fährt. Lächerlich!“

Wie in der ersten Abbildung gezeigt, stimmen die anerkanntesten wissenschaftlichen Organisationen selbst noch nicht einmal überein hinsichtlich der Historie der magischen globalen mittleren Temperatur. Wenn sie von einer Temperatur-„Anomalie“ reden – ein Terminus, den Klimawissenschaftler gerne verwenden, weil er wissenschaftlicher und gelehrter klingt als Differenz oder Variabilität – gelten dann die hinzugefügten 2°C für alle Temperatur-Regimes, egal ob hoch, niedrig oder alles dazwischen an allen Stellen der Erde?

Was die meisten Menschen nicht wahrhaben wollen ist, dass die Verwendung von Mittelwerten Informationen vernichtet. Wenn verschiedene Zahlen addiert werden und auf eine einzelne Zahl reduziert werden, kann man diesen Prozess nicht umkehren und die individuellen Messungen aus ihrem Mittelwert extrahieren. Beispiel: Nehmen wir die Zahlenfolge (2, 7, 1, 8, 7). Deren Mittelwert ist 5, aber es gibt noch viele andere Zahlenfolgen, deren Mittelwert ebenfalls 5 ist: (5,5,5,5,5), (1,9,5,9,1) usw. Die einfache Kenntnis des Mittelwertes reflektiert eine Zahlenfolge nur ungenau. Man beachte auch, dass ein einzelner Ausreißer die Zahlenfolge verzerren kann: (4, 4, 4, 9, 4) mittelt sich genauso zu 5 wie (1, 9, 5, 9, 1). Folglich geht nicht nur die Variabilität verloren, sondern auch mögliche Extreme werden hinweg gemittelt. Jetzt stellen wir uns mal vor, alle diese Zahlen seien Temperaturwerte.

Am 6. Dezember beträgt die mittlere Höchsttemperatur in Conway in Arizona 9,7°C, die mittlere Tiefsttemperatur -2,6°C und die Mitteltemperatur +3,6°C. Gerade in diesem Moment zeigt mir mein Computer eine Außentemperatur von 17,2°C an (verflucht sei die globale Erwärmung!), was aus den gegebenen Mittelwerten keineswegs vorhersagbar ist. Ist das also normal? Oder ist es für diesen Tag des Jahres besonders warm? Noch einmal, es ist einfach zu viel Information verloren gegangen. Statistiker würden sagen, dass wir die Standardabweichung mit erwähnen müssen oder einige höhere statistische Angaben wie Neigung und Amplitude [skew and kurtosis], aber auch dies würde uns nicht zurückführen zu den Originaldaten dieses Tages, geschweige denn, dass man damit die tatsächliche Temperaturkurve des Tages vorhersagen kann.

Genauso ist es mit der Jahresmitteltemperatur für meinen Heimatort. Der Mittelwert der Höchsttemperatur beträgt 22,1°C, derjenige der Tiefsttemperatur 9,4°C, die gesamt-Mitteltemperatur 15,8°C. Also liegt die Temperatur draußen derzeit über dem Mittelwert. Aber ich kann aus Erfahrung sagen, dass es bei uns oftmals Tage gibt, an denen die Temperatur nicht über den Gefrierpunkt steigt und auch Tage, an denen die Höchsttemperatur bis fast 38°C steigt. Würde man dies aus der Angabe der mittleren jährlichen Temperatur erwarten?

Jetzt stelle man sich vor, dass Temperaturdaten von Tausenden Orten auf der ganzen Welt für jeden Tag des Jahres kombiniert werden und daraus eine globale mittlere Temperatur gebildet wird – was würde diese Zahl bedeuten? Not a damned thing!

[Kursiv vom Übersetzer. Das muss man nicht übersetzen!]

Jetzt stelle man sich vor, man addiere 2°C zu unserer nutzlosen globalen mittleren Temperatur, was würde dies bedeuten? Werden 2°C alle Gebiete des Globus‘ in gleichem Maße betreffen? Natürlich nicht, und es gibt keine mathematische Macht in der Zahl der globalen mittleren Temperatur, die uns die wahre Auswirkung einer solchen Änderung vermitteln kann. In Wahrheit können wir mit jener erbärmlichen Einzelzahl nicht sagen, wie heiß oder kalt es auf unserem Planeten ist oder sein könnte. An einigen Orten ist es heiß, an anderen kalt, und doch leben Menschen an allen solchen Stellen. Vom gefrorenen Norden bis zu den dampfenden Tropen wohnen Menschen und andere Lebensformen.

Weitere 2°C werden keine Stelle auf der Erde unbewohnbar machen, die auch jetzt schon unbewohnbar ist. Tatsächlich wird es an vielen Stellen attraktiver und komfortabler, dort zu wohnen. Die Menschen fliehen aus kalten Orten wie Nordeuropa und Kanada. Sie begeben sich an heiße Orte wie Mallorca und Cancun. Die involvierten Temperaturunterschiede sind viel größer als 2°C, und doch scheinen Urlauber in sonnigen, warmen Klimaten nicht tot umzufallen. Die globale mittlere Temperatur ist nicht nur eine bedeutungslose Statistik, sondern ist auch irreführend, weil die zu deren Berechnung herangezogenen Daten von Forschern im Namen von „Wissenschaft“ verfälscht worden sind.

Als Erstes müssen wir also fragen, woher diese Zahl kommt. Der NOAA zufolge, einer Agentur der US-Regierung, wird eine Reihe von Datensätzen herangezogen, um die globale mittlere Temperatur zu berechnen:

Temperaturdaten vom Festland sind verfügbar aus dem Global Historical Climate Network-Monthly (GHCN-M). Wassertemperaturen werden berechnet mittels einer Analyse der erweiterten rekonstruierten Ozean-Wassertemperatur (ERSST). Für ERSST werden der jüngste verfügbare International Comprehensive Ocean-Atmosphere-Datensatz (ICOADS) herangezogen sowie statistische Verfahren, die auch bei dünner Datenlage stabile Rekonstruktionen ermöglichen. Die monatliche Analyse fängt im Januar 1854 an, aber wegen der nur sehr spärlich vorhandenen Daten werden vor dem Jahr 1880 keine globalen Mittelwerte berechnet. Mit mehr Beobachtungen nach 1880 ist das Signal stärker und mit der Zeit konsistent.

Man beachte die Erwähnung sowohl von Festlands- als auch von Wassertemperaturen (SST). Diese werden auf ziemlich unterschiedliche Art und Weise ermittelt. Dann werden sie mittels statistischer Verfahren „korrigiert“, das ist der wissenschaftliche Ausdruck für manipuliert. Das Ergebnis sieht so ähnlich aus wie das hier:

Jetzt beachte man den Bezug auf „dünne Datenlage“, was bedeutet, dass in vielen Gebieten tatsächliche Messungen nur an wenigen, weit auseinander liegenden Stellen durchgeführt werden. Dies gilt sowohl für das Festland als auch für die Ozeane. Man beachte beispielsweise den gewaltig breiten Streifen vor Südamerika, der als der „rekordwärmste“ apostrophiert worden ist. Und worauf basiert diese Aussage? Hier folgt eine Graphik der NOAA selbst, die den Datenmengen in manchen Gebieten zeigt:

Es fällt auf, dass das gleiche Gebiet in dieser Darstellung zeigt, dass es keine Daten für jenes Gebiet aus Brasilien gibt! Im Grunde sind die „rekordwärmsten“ Temperaturen in Brasilien und benachbarten Ländern fabriziert. Die Tatsache, dass sie durch ein Computerprogramm fabriziert worden sind, macht sie nicht weniger schwindlerisch. Das Gleiche gilt für andere Gebiete wie z. B. die warme Blase über Grönland, die von anderen NOAA-Daten diskreditiert wird. Mehr dazu schreibt Paul Homewood hier.

Also können wir nicht einmal dieser bedeutungslosen Historie bedeutungsloser Zahlen vertrauen, um auf irgendetwas hinzuweisen, das mit Klimawandel zu tun hat. Und doch fahren Wissenschaftler mit Eigeninteresse daran, dass der Klimawandel eine herauf dämmernde Krise ist, fort, Daten zu manipulieren, um es so aussehen zu lassen, als ob die globalen Temperaturen weiterhin steigen. Erst jüngst haben NOAA-Forscher unter Führung von Thomas R. Karl eine neue Studie veröffentlicht mit dem ziemlich cleveren Titel „Possible artifacts of data biases in the recent global surface warming hiatus.” Darin geben sie vor zu beweisen, dass der gut dokumentierte Stillstand von über 18 Jahren lediglich eine Folge schlechter Daten ist und dass sie in der Lage waren, dies zu bereinigen. Aus dem Abstract:

Viele Studien wurden bzgl. der möglichen Gründe einer augenscheinlichen Abnahme des Anstiegs der globalen Temperatur seit 1998 durchgeführt, ein Phänomen, dass als „Stillstand“ der globalen Erwärmung bezeichnet wurde. Hier präsentieren wir eine aktualisierte Analyse der globalen Temperatur, die enthüllt, dass die globalen Trends höher sind als jene, die das IPCC nennt, vor allem während der letzten Jahrzehnte, und dass die zentrale Schätzung der Erwärmungsrate während der ersten 15 Jahre des 21. Jahrhunderts mindestens genauso stark war wie in der zweiten Hälfte des 20. Jahrhunderts. Diese Ergebnisse stützen nicht die Präsenz einer „Verlangsamung“ der Zunahme der globalen Temperatur.

Viel wiederum wurde auch geschrieben zu diesem jüngsten Versuch der Temperatur-Taschenspielerei, und das möchte ich hier nicht alles wiederholen. Jene, die das interessiert, können hier schauen in einem exzellenten Artikel auf dem Blog von Judith Curry. Hier folgt der Kern dessen, was Zeke Hausfather und Kevin Cowtan über Karls Reanalyse zu sagen haben:

Beträchtliche mediale und politische Aufmerksamkeit konzentrierte sich auf die neue NOAA-Aufzeichnung der Temperatur, welche deutlich mehr Erwärmung zeigt als deren Aufzeichnung zuvor im Zeitraum von 1998 bis zur Gegenwart. Der Hauptfaktor hinter diesen Änderungen ist die Korrektur der Ozean-Wassertemperaturen, die vorgenommen wurde anlässlich des Übergangs von Messungen von in Schiffsmaschinen einströmendem Kühlwasser zu Messungen durch Bojen. Es ergab sich eine Differenz zwischen beiden. Hier wollen wir die Änderungen an den NOAA-Wassertemperatur-Aufzeichnungen evaluieren, indem wir eine neue, nur auf Bojenmessungen basierende Aufzeichnung dieser Temperaturen konstruieren. Wir kommen zu dem Ergebnis (ohne irgendwelche Adjustierungen vornehmen zu müssen), dass eine Aufzeichnung ausschließlich durch Bojen effektiv identisch ist hinsichtlich des Trends zur neuen NOAA-Aufzeichnung und deutlich höher als in der alten Aufzeichnung.

Interessant ist hier, dass Hausfather und Cowtan behaupten, dass die Temperatur des in Schiffe einströmenden Kühlwassers hinsichtlich der viel neueren Bojendaten verzerrt ist. Unglücklicherweise reichen die Schiffsdaten viel weiter zurück als die Daten von Bojen, die den größten Teil historischer Aufzeichnungen ausmachen. Außerdem weist Dr. Curry darauf hin, dass es einen weiteren SST-Datensatz gibt – OISSTv2 – für den Zeitraum seit den achtziger Jahren. Dieser Datensatz hat eine höhere horizontale Auflösung dank der Verwendung von Satellitendaten sowie des Vergleichs zwischen Satelliten- und Schiffsbeobachtungen einerseits zu den Bojendaten andererseits. Curry schreibt: „Unter dem Strich scheint zu stehen, dass der Trend im NOAA ERSSTv4-Datensatz von 1998 bis 2014 etwa doppelt so hoch ist wie der Trend in den Datensätzen HADSST3 und OISSTv2.” Welcher ist korrekt? An diesem Punkt schreit jemand „die Wissenschaft ist settled!“

Dr. Curry und ihre Mitarbeiter stehen nicht allen, wenn sie die überarbeiteten NOAA GISS-Daten hinterfragen. Der Geologe und Berechnungs-Experte Prof. Dr. Friedrich Karl Ewert hat angefangen, sich näher mit den Daten hinter den Behauptungen der globalen Erwärmung zu befassen, und besonders die Datensätze von NOAA GISS erregten sein Interesse. Er kam ebenfalls zu der Schlussfolgerung, dass die Temperaturaufzeichnung entwertet worden war. „Massiv verändert“, hieß es in einem Online-Report.

Am aussagekräftigsten von all dem ist vielleicht, dass es andere Datensätze gibt, die nicht auf räumlich sehr spärlichen Daten von weit auseinander liegenden Temperaturstationen oder umstrittenen Daten von fahrenden Schiffen basieren. Jene Daten stammen von Infrarot-Satellitenmessungen. Hier folgt ein Vergleich der RSS-Satellitendaten und GISS:

Man erkennt, dass die Temperaturen den RSS-Satellitendaten zufolge im Zeitraum 1979 bis 2001 mit praktisch der gleichen Rate wie bei GISS gestiegen sind. Seitdem zeigt sich eine bedeutende Divergenz, wobei GISS eine Rate zeigt, die praktisch genauso hoch ist wie im Zeitraum zuvor. Im Kontrast dazu bestätigt RSS (und auch UAH, eine weitere, auf Satelliten basierende Historie) dass, wenn überhaupt, die Temperaturen eher zurückgegangen sind.

Zweitens, wir müssen nachfragen, woher diese Zahl von 2°C kommt, falls Wissenschaftler nicht nur die Gewässer vermanschen, aus denen diese bedeutungslose Temperaturzahl stammt, und sie darüber hinaus auch die Bücher fälschen. Welche mögliche Rechtfertigung haben sie für ihre Behauptung, dass diese 2°C unsere Welt unbewohnbar machen werden? Es gibt keine! Einem Artikel in der Huffington Post zufolge ist der Hintergrund dieser 2°C-Zahl Folgender:

Zusammen mit den Nachrichten über COP21 hören wir immer wieder von der Notwendigkeit, den globalen Klimawandel unter dem 2°C-Ziel zu halten. Allerdings wissen nur wenige Menschen, woher dieses 2°C-Ziel kommt. Der Grund dafür ist, dass das 2°C-Ziel eines der am meisten freiwillig verschlammten Themen in der Debatte um den Klimawandel ist. Warum ist das so? Weil dieses spezielle Ziel keine wissenschaftliche, sondern eine politische Zahl ist.

Dazu muss man wissen, dass die HuffPo eine Sammlung wahrer grüner Gläubiger und Klimaalarmisten allererster Güte ist.

Da also haben wir es. Die mittlere globale Temperatur ist eine vermanschte, bedeutungslose Zahl, die nur für Nachrichten-Artikel, Presseerklärungen und Forderungen nach Geldern von Regierungsseite nützlich ist. Sachkundige Wissenschaftler wie Roger Pielke Sr. werden sagen, dass keinerlei prophetische Macht dahinter steckt. Die gefürchtete 2°C-Barriere ist kein wissenschaftlich etablierter Kipp-Punkt, der das Ende der Welt einläutet, sondern politischer Unsinn.

Hier steht im Original eine Karikatur, deren Copyright eine Wiedergabe hier verbietet. Anm. d. Übers.]

Während also wissenschaftliche Dunkel-Lichter [dim bulbs] wie Präsident Obama, John Kerry und Prinz Charles ernste Warnungen ausgeben, dass die Apokalypse unmittelbar bevorsteht [wobei diesen die Medien zumindest bei uns in D tatkräftig unter die Arme greifen! A. d. Übers.], räumen selbst Klimaalarmisten mit Wurzeln in realer Wissenschaft wie James Hansen ein, dass das 2°C-Erwärmungslimit „crazy“ ist und „nicht auf Wissenschaft basiert“. All das Klima-Sturm-und-Drang*, das von der COP21-Konferenz in Paris nach außen dringt, ist viel Lärm um nichts. Mein Rat an alle da draußen lautet, alles Gefasel von Apokalypse seitens der Klimaalarmisten zu ignorieren und sich an der Holiday Season zu erfreuen, welche Temperatur auch immer dort herrscht, wo Sie gerade sind.

Bleiben Sie sicher, erfreuen Sie sich des Interglazials und bleiben Sie kritisch.

[*Im Original steht: All the climate change sturm und drang…]

Link: http://theresilientearth.com/?q=content/global-average-temperature-meaningless-misleading

Übersetzt von Chris Frey EIKE




Weltklimagipfel in Paris – Glanzleistung oder Armutszeugnis?

In der Tat, diesmal war die Politik generalstabsmäßig vorgegangen, um ihr Ziel, die Erderwärmung gegenüber dem vorindustriellen Niveau auf höchstens 1,5 Grad zu begrenzen, in einer „Klimakonvention“ festzuschreiben. Alles war in den vergangenen Jahren akribisch und präzise geplant. Man setzte nicht mehr auf Zwang von oben, sondern Freiwilligkeit von unten. Alle 196 beteiligten Staaten waren vorher aufgefordert worden zu sagen, was sie selbst zu dem Gelingen des Gipfels an Treibhausgas-Reduktion zu leisten imstande und willens sind. Die Schulaufgaben wurden von den meisten Staaten erledigt, doch die Zusagen waren zum Teil extrem vage und blieben hinter den Erwartungen zurück. Schon im Vorfeld der Konferenz wurde errechnet, dass alle Maßnahmen zusammen lediglich die Erderwärmung etwa 2,7 Grad statt der avisierten 2 Grad betrage. 

Die Bundeskanzlerin Angela Merkel hatte in ihrem Eröffnungsstatement betont, dass das Vorhaben, den Temperaturanstieg auf 2 Grad zu begrenzen, ein „notwendiges“, aber „noch kein ausreichendes Ziel“ sei. Sie hoffe auf „ein ambitioniertes, umfassendes, faires und verbindliches Abkommen“. Eine „weitgehende Dekarbonisierung unserer Weltwirtschaft“ sei nicht nur eine Frage der „ökologischen Notwendigkeit“, sondern auch der „ökonomischen Vernunft“. Der amerikanische Präsident Barack Obama sprach von einem „historischen Wendepunkt“! Er rief seine Amtskollegen auf „Let’s get to work“. Und weiter: „Nichts wird uns abhalten, die Zukunft, die wir für unsere Kinder wollen, aufzubauen“. Welche Zukunft, und ob diese „unsere Kinder“ wollen, das sagte er nicht.

Der massive Druck von der Straße

Wenn die Politik ein Ziel erreichen will, braucht sie eine Art Legitimation, einen basisdemokratischen Impuls. Die Nachrichtenagentur ‚dpa’ meldete, dass bei mehr als 2300 Veranstaltungen in 175 Ländern Demonstranten unter dem Motto „Global Climate March“ einen Erfolg in Paris anmahnten. In London seien rund 50.000, in Sydney rund 45.000 und in Berlin etwa 15.000 Menschen den Aufrufen gefolgt und hätten einen „verbindlichen und gerechten Weltklimavertrag“ gefordert. Man folgte dem in den 70ger Jahren von der Politik unter Innenminister Hans-Dietrich Genscher und seinem Staatssekretär Günter Hartkopf  entwickelten Konzept, zuerst „den Druck von der Straße“ zu inszenieren, um dann mit dem „Druck der Straße“ sein Handeln zu rechtfertigen. 

Eine gewaltige Druck-, Droh- und Beifallskulisse wurde von den Vereinten Nationen auch in Paris selbst installiert. So sollen nach Schätzungen an der Konferenz 40 bis 50.000 Delegierte teilgenommen haben, um die Botschaft zu senden: So viele Experten können sich nicht irren oder täuschen lassen. Unsere Umweltministerin Barbara Hendricks kam von Berlin mit einem Sonderzug mit 600 Experten nach Paris. Die deutschen Bundesländer vertrat die „grüne“ rheinland-pfälzische Umweltministerin Barbara Höfken. Sie gab vor der Abreise ein Interview und überraschte mit der tiefschürfenden Erkenntnis: „Schon heute haben wir einen Anteil an Kohlendioxid (CO2) in der Atmosphäre, wie ihn die Erde zuletzt vor der Steinzeit hatte (Allgemeine Zeitung Mainz vom 1. Dezember 2015). 

Diese Aussage macht stutzig und provoziert die unangenehme Frage, wie dies die Steinzeitmenschen, dazu gehören die Neandertaler, wohl gemacht haben. Die Altsteinzeit endete in Mitteleuropa vor etwa 12.000 Jahren mit dem Ende der Weichsel-Eiszeit. Mit der Wiederbewaldung ab etwa 9.600 v. Chr. beginnt die Mittelsteinzeit. Diese geht über in die Jungsteinzeit um 5.600 v. Chr. und erst danach beginnt die Metallbearbeitung, in der Reihenfolge Kupferzeit,  Bronzezeit und Eisenzeit. Mit der Verhüttung der Metalle begann der Mensch, CO2 in die Luft zu emittieren bis zu dem heutigen Niveau von 0,04 Prozent bei 7 Milliarden Menschen. Woher kommt der hohe CO2-Gehalt vor 5.600, 9.600 oder 12.000 Jahren? Keine Antwort! War das Rheintal schon damals „eine Zone, in der sich die Hitze stauen wird“ oder gestaut hat? 

Den Vogel an Obskurität hat in Paris der Direktor des Potsdam-Instituts für Klimafolgenforschung, Hans Joachim Schellnhuber, abgeschossen. Er sagte: „Der Klimawandel ist wie ein Asteroideneinschlag in Superzeitlupe. Wir verdrängen ihn wegen seiner Langsamkeit“. In seinem kurz vor dem Pariser Klimagipfel erschienen Buch „Selbstverbrennung“ meinte er mit angstvollem Blick auf Indien, der menschengemachte Klimawandel könnte aufgrund der „berüchtigten nichtlinearen Rückkopplungen“ den „Sommermonsun deutlich nervöser machen“. Ich wäre sehr nervös, wenn ich solchen Humbug erzählen würde. Schellnhuber ist auch der Ansicht, dass der „8-Grad-Bereich nicht auszuschließen“ sei. Dann steuere das „Raumschiff Erde geradewegs ins Feuer hinein“. So stellt er sich die „Selbstverbrennung“ vor. Aber da scheint das geistige Chaos mit dem Physiker durchgegangen zu sein, denn ein Asteroid verglüht beim Eintritt in eine Atmosphäre, aber nicht beim Austritt. 

An der Außenwand des deutschen Pavillons stand der Slogan der Kanzlerin „Wir schaffen das!“ Wohl um dem „Druck der Straße“ Wind aus den Segeln zu nehmen, verkündete DIE WELT am 1. Dezember 2015: „Dem Klima hilft nur der Markt“ Die frohe Botschaft von Daniel Wetzel lautet: „Gegen Klima-Bigotterie hilft nur der Emissionshandel, dann sorgt die Schwarmintelligenz für ökologische Investitionen.“ Einen Hinweis, wie Schwarmintelligenz arbeitet, gab AVAAZ. Am 13. Dezember 2015 schreibt diese 2007 begründete soziale Bewegung, die vor allem Online-Aktivismus über das Internet betreibt: „Liebe wunderbare Avaaz-Gemeinschaft, bei den UN-Klimaverhandlungen haben Politiker aus aller Welt gerade ein bahnbrechendes Ziel gesetzt, das alles retten kann, was uns am Herzen liegt! Dafür sind wir auf die Straße gegangen, haben Petitionen unterzeichnet, Anrufe und Spenden getätigt und Nachrichten geschrieben. Denn genau das haben wir uns erhofft: einen brillanten und massiven Wendepunkt in der Geschichte der Menschheit.“

Der Jubel der Staatengemeinschaft nach dem „historischen Durchbruch“ 

Im SPIEGEL vom 28. November 2015, noch vor dem Beginn des Klimagipfels, stand dessen Ergebnis bereits fest. Unter der Überschrift „[Alles] [wird] [gut]“ schrieb er: Auf der Weltklimakonferenz von Paris entscheidet sich die Zukunft des Planeten Erde. Damit ein ehrgeiziges Vertragswerk zustande kommt, haben Tausende Unterhändler um jedes Wort, um jedes Komma gerungen. Geschichte eines unwahrscheinlichen Erfolgs“. Seit der COP20 von Lima haben seine Redakteure die ganze Welt bereist und alle Klima-Aktivitäten akribisch auf 17 Seiten zusammengefasst. Es ging praktisch nur um die Frage: „Wie stark kann und muss der Ausstoß von Treibhausgasen eingedämmt werden.“ Nun gehe die „kolonialherrliche Aufteilung der Welt in Erste, Zweite und Dritte endgültig vorüber“. 

Ein Jahr lang bereiste Frankreichs Sonderbotschafterin für die COP21, Laurence Tubiana, um die 196 Staaten auf Linie zu bringen. Ein Scheitern ihrer diplomatischen Mission schloss sie aus. Die Regie war perfekt. In Paris fanden nur noch Scheingefechte statt, waren die Dramaturgen gefragt. Um die Spannung zu halten, wurden Schlagzeilen wie „Auf des Messers Schneide“ produziert, wurden Nachtschichten eingelegt, wurde pausenlos durchgearbeitet, wurde noch ein Tag drangehängt. Die Regie des französischen Außenministers Laurent Fabius war perfekt, bis alle eckigen Klammern gestrichen waren und ein völkerrechtlich gültiger Vertrag vorlag. 

Nach der Abstimmung reißen die Teilnehmer jubelnd die Arme hoch und der französische Präsident François Hollande ruft „Vive la Planète!“ Barack Obama sprach von einem möglichen „Wendepunkt für die Welt“. Bundeskanzlerin Angela Merkel erklärte „Das ist eine echte Weichstellung der Welt in Richtung Energiewende, eine Weichenstellung der Welt in Richtung Vernunft im Blick auf die Veränderungen des Klimas“. Selbst die Umweltschützer reagierten meist positiv auf die Beschlüsse, einige sogar euphorisch. Lars Hennemann von der Allgemeine Zeitung (Mainz) kommentierte am 14. Dezember 2015: „Wenn die Welt sich darauf nicht mehr einigen kann, hat sie nichts Besseres als Klimawandel verdient.“ 

Was war nun konkret beschlossen worden? 1. Die Erderwärmung soll auf klar unter zwei Grad im Vergleich zum vorindustriellen Niveau begrenzt werden. Die Vertragsstaaten sollten sich aber anstrengen, sie bei 1,5 Grad zu stoppen. 2. Die Länder beabsichtigen, „sobald wie möglich“ den Höhepunkt ihres Treibhausgasausstoßes zu überschreiten. Sie wollen gemeinsam den Netto-Ausstoß ihrer Treibhausgase in der zweiten Hälfte dieses Jahrhunderts auf Null bringen“. 3. In den Jahren 2020 bis 2025 sollen die Industriestaaten jährlich 100 Milliarden Dollar für Entwicklungsländer bereitstellen. 4. Das Abkommen ist völkerrechtlich verbindlich. Es gibt jedoch keine Strafen bei Nichterfüllung. 

Auch die Kirchen mühten sich, dass „Paris“ ein Erfolg wird. Der Münchner Kardinal Marx als Vorsitzender der Bischofskonferenzen der Europäischen Gemeinschaft (COMECE) unterstützte den Heiligen Vater in seinem inständigen Bemühen mit dem Ziel eines „umfassenden und transformierenden Abkommens, welches von allen Beteiligten unterstützt wird und auf den Prinzipien der Solidarität, der Gerechtigkeit und der Teilhabe gründet. Dieses Abkommen muss das Gemeinwohl vor nationale Interessen stellen. Ebenso ist es wichtig, dass die Verhandlungen zu einem durchsetzbaren Übereinkommen führen, das unser gemeinsames Haus und all seine Bewohner schützt.“ 

Auch die Schweizer Landeskirchen forderten den Bundesrat auf, „sich mutig und mit Weitsicht für das Klima einzusetzen“. Sie begründen ihr Engagement für „Klimagerechtigkeit“ aus dem christlichen Auftrag, die Schöpfung zu bewahren: „Der Klimawandel bedroht konkret, was allen Menschen zusteht: ein Leben in Würde mit den notwendigen Lebensgrundlagen in einer intakten Umwelt.“ Nach dem Gipfel erklärte Erzbischof Ludwig Schick im Namen der Deutschen Bischofskonferenz „Paris ist erst der Anfang“ und betonte: „Es geht nun darum, dass dieses Ziel ernsthaft angestrebt und auch erreicht wird“.

Geistiges Armutszeugnis für die klimapolitische Weltelite

Von Francis Bacon (1561-1626) stammt die Aussage: „Wissen ist Macht!“ Aber gilt auch der Umkehrschluss? Bedeutet Macht auch gleichzeitig Wissen? Dann wären in Paris nicht nur die Mächtigsten der Welt versammelt gewesen, sondern die Allwissenden! Dieser Eindruck wird seit Urzeiten vermittelt, und so glauben, ohne es zu wissen, viele Menschen daran, dass das, was in Paris debattiert und beschlossen wurde, Sinn hat und vom Verstand geleitet wurde. Aber ist dies auch vernünftig? Nein, mit Vernunft hat die ganze Klima- und Klimaschutzdebatte nichts, absolut nichts zu tun! Spätestens seit Immanuel Kant (1724-1804) müsste jedes denkende Wesen wissen, das zwischen den Begriffen „Ding“ und „Ding an sich“ Welten liegen und verinnerlicht haben. Das „Ding“ ist real, wirklich, das „Ding an sich“ eine Abstraktion, ein theoretisches Konstrukt ohne Wirklichkeit.

Dies ist auch der Unterschied zwischen Wetter und Klima. Das Wetter ist real, eine erfahrbare und spürbare wie beschränkt messbare Wirklichkeit, die sich permanent ändert, verändert. Das Wetter hat im Rahmen seiner Freiheitsgrade sehr viele Erscheinungsformen und Variationsmöglichkeiten. Es kann tropisch oder arktisch, kontinental oder ozeanisch sein. Das Wetter gehört zu den Naturerscheinungen, die lange, lange vor dem Erscheinen des „nackten Affen“ oder des „Homo sapiens“ existent waren. Unterschiedliche Wetterregime sorgten für die pflanzliche, tierische wie menschliche Artenvielfalt, für unterschiedliche Ökosysteme, die Biodiversität auf Erden. Das Wetter unterliegt auch Lebenszyklen, wie das Entstehen und Vergehen von Hoch- und Tiefdruckgebieten zeigt. Diese Gebilde sind auch stets auf Wanderschaft und halten sich selten längere Zeit an einem Ort auf. 

In der französischen Sprache gibt es für Wetter und Zeit nur ein Wort: „le temps“! Der Mensch kann eine Uhr anhalten, vorstellen oder zurückdrehen. Er misst mit der Uhr die Zeit. Aber diese kann er nicht anhalten. Unbestechlich zeigt dies die älteste Uhr, die Sonnenuhr. Deren Zeiger ist ständig in Bewegung. So ist es auch mit dem Wetter. Auch das Wetter ist in ständiger Bewegung. Aber es gibt einen Unterschied: Die Zeit verläuft gleichmäßig, ist vorhersagbar. Das Wetter dagegen zeichnet sich durch große Unregelmäßigkeiten aus und ist nur bedingt kurzfristig „vorhersagbar“. Der Wetterwandel ist ein „ewiger“ Vorgang und kann vom Menschen nicht angehalten werden wie eine Uhr. Er zeigt eine gewisse jahreszeitliche und vom Sonnenstand abhängige Periodizität. Dennoch gleicht der jährliche Wetterablauf nicht dem des Vorjahres noch dem der Vorjahre. Er ist für die Zukunft nicht vorhersagbar und erst recht nicht planbar. Der Wetterwandel bestimmt den Klimawandel, nicht der Mensch. Darüber hätten die Staatsmänner in Paris diskutieren können.

Aber gerade dies taten die 151 Staatsoberhäupter nicht! Sie benutzen bloß wie zu Urzeiten das Wetter als Drohmittel, als „Rache der Wettergötter“ für unsere Sünden. Weil sie unfähig sind, das Wetter zu schützen, geben sie vor, das Klima in Gestalt des Ungetüms „Globalklima“ schützen zu müssen, weil wir uns seit Beginn der Industrialisierung als „Klimakiller“ betätigen und damit eine globale „Klimakatastrophe“ provozieren. Diese führe letztendlich zum Weltuntergang, der „Selbstverbrennung“ des Planeten. Die Politik spielt sich als Retter auf, doch das zu rettende Klima ist nach I. Kant ein „Ding an sich“, ein menschliches Konstrukt, das eben deswegen permanent zu manipulieren ist, auf dem Papier. In Wirklichkeit sind alle Klimaschutzversprechungen leere Versprechungen, denn das Klima ist vom Wetter abgeleitet. Das unterschiedliche Wetter in den unterschiedlichen Regionen der Erde bewirkt nach statistischer Verarbeitung eine Vielzahl von unterschiedlichen Klimata, wie alle Klimaatlanten seit 1900 offenbaren. Ein „Globalklima“, das von einer „Globaltemperatur“ bestimmt wird, gibt es von Natur nicht, und was nicht existiert, kann nicht geschützt werden! 

Die Fiktion „Globaltemperatur“ ist Folge der Erfindung des Thermometers im Jahr 1593 durch Galileo Galilei (1564-1642) und des Aufbaus eines weltweiten Netzes meteorologischer Stationen. Doch wie mit einer Temperatur das Wetter nicht beschrieben werden kann, so auch nicht das Klima. Eine fiktiv errechnete Temperatur schützen zu wollen, ist kein Ausdruck von Intelligenz, sondern eher Ausdruck geistiger Armut durch eine extreme ideologische Blickverengung und Selbstbeschränkung. Die Staatsmänner denken zielgerichtet, doch wer kann zwischen den vorgegebenen und den wahren Zielen unterscheiden? Worte sind Waffen. Mit Worten kann man manipulieren, auch töten. Mit Worten wird das „Weltklima“ für krank erklärt und werden wir zur Kasse gebeten, damit es wieder gesundet. Man kann dies auch als Ablasshandel bezeichnen. 

Diese Art der Politik hat mit Demokratie nichts zu tun, denn Demokratie sollte die „Herrschaft des Volkes“ sein und nicht „Herrschaft über die Völker“. In Wirklichkeit geht es um eine neue, von einem globalen Machtzentrum aus gesteuerte „Weltordnung“. Was also bedeutet der Satz des UN-Generalsekretärs Ban Ki Moon, der die Staatschefs mahnte: „Auf ihren Schultern ruht die Hoffnung.“ Meinte er damit die „Große Transformation“, die seit Jahren von Hans Joachim Schellnhuber mit Inbrunst gepredigt wird? Diese Forderung hat auch der Papst Franziskus übernommen und ist in der inständigen Hoffnung nach einem „umfassenden und transformierenden Abkommen“ verborgen. Aus dem christlichen Auftrag, die „Schöpfung“ zu bewahren, ist keineswegs eine „Klimagerechtigkeit“ ableitbar. Dies ist auf einer rotierenden und aus weiter Ferne von der Sonne bestrahlten Kugel absolut ausgeschlossen. Solch eine Forderung ist unsinniger als unsinnig. Es gibt ja auch kein Welteinheitswetter, obgleich es überall auf dem Erdenrund Wetter gibt. 

Mein Weihnachtswusch ist die Rehabilitierung des CO2! Es ist unverzichtbar für alle „grünen Pflanzen“ und kein „Umweltgift“! Gott hätte am 3. Tag nicht die „grünen Pflanzen“ als Basis für das spätere tierische wie menschliche Leben erschaffen können. Das CO2 hat mit dem Wetter und den Temperaturen auf der Erde nichts zu tun. Es ist das Wetter mit seinen Luftströmungen, die das CO2 gleichmäßig verteilen, um überall Pflanzenwachstum zu ermöglichen. 

Gesegnete Weihnacht und ein gnadenreiches neues Jahr

Ihr Wolfgang Thüne




Heiße Luft ablassen

Wird Klimawandel-Politik die Armen noch ärmer machen?

Den Schlagzeilen zufolge hat der Pariser Klimagipfel ein „historisches“ Abkommen erreicht, welches „die Welt retten“ wird. Aber man lasse sich nicht zum Narren halten. Klimaverhandlungen waren unter Politikern schon lange populär. Budgets auszugleichen und gegen die Arbeitslosigkeit vorzugehen ist harte Arbeit. Geriert man sich jedoch als Retter des Planeten, ist das glamourös. Man fliege an exotische Plätze, mache mit prominenten Persönlichkeiten herum und lächle breit, wenn die Medien unseren Mut und unsere Weisheit preisen. Was ist daran unschön?

Hier auf dem Planeten Erde war das Klimaspiel immer zu 97% Symbolismus. Seit einem Vierteljahrhundert machen politische Führer unrealistische Versprechungen über Emissions-Reduktionen, die sie dann nicht eingehalten haben, und stimmten dann sogar noch stringenteren Reduktionen zu.

Vor vier Jahren hat Professor Roger Pielke Jr. in Umweltstudien berechnet, dass Australien zum Erreichen seiner bis 2020 gesetzten Emissionsziele seinen mit Kohle erzeugten Strom durch 56 Kernkraftwerke ersetzen – oder Dutzende neue Solarenergie-Einrichtungen jeden Monat errichten muss. Versessen darauf, dass sie für den Kampf gegen den Klimawandel gewürdigt werden, haben Australiens Führer einen Zeitplan erstellt, den Pielke als „bestenfalls phantasievoll“ bezeichnet.

Das ist das erste Problem. Das zweite Problem ist, dass selbst wenn Australien all diese neuen Einrichtungen in Rekordzeit bauen würde, die Auswirkung auf das globale Klima nicht wahrnehmbar wäre. Australien trägt etwa 1,3 Prozent zu den globalen Treibhausgas-Emissionen bei. Falls jeder einzelne Australier während seines restlichen Lebens keine Emissionen erzeugen würde, wäre der Gesamteffekt zu klein, um irgendeine Rolle zu spielen.

Als politischer Wissenschaftler weist Björn Lomborg darauf hin, dass die Zahlen des Großen und Ganzen sinnlos sind. Falls jede Nation irgendwie die Ziele in Verbindung mit dem neuen Paris-Dokument erreicht, sagt er, wird es nur ein Prozent der Emissions-Kappungen tatsächlich geben. Weiter sagt er: „Die Mathematik ist einfach: in einem unwahrscheinlichen Best-Case-Szenario hinterlässt Paris 99% des Problems. Es ist wie eine Abmagerungs-Diät, bei der man schon nach dem ersten Salat den Sieg verkündet“.

(Im Abkommen heißt es, dass die Nationen sich bemühen werden, mit der Zeit noch ambitioniertere Ziele zu erreichen. Aber das ist wie ein Diätiker, der verspricht, während des ersten Monats 10 Pfund abzunehmen und 15 Pfund während des zweiten Monats. Gute Absichten sind das Eine, ihnen nachzukommen das Andere).

Nationen, die in gutem Glauben versuchen, ihren Verpflichtungen in Paris nachzukommen, werden viel Geld dafür ausgeben, um billige Energiequellen mit höheren Emissionen zu ersetzen durch teurere Energiequellen mit geringeren Emissionen. Das Geld für diese Transition muss irgendwoher kommen, was bedeutet, dass der Gesundheitsvorsorge, der Bildung, dem Kampf gegen den Terrorismus und der Flüchtlingshilfe Milliarden entzogen werden – alles nur, um ein Ziel zu erreichen, dass den geringsten Teil einer vermeintlichen globalen Lösung darstellt.

Energie zu verteuern verursacht Elend für die Armen, selbst in den reichsten Nationen. Im wirtschaftlich so starken Deutschland wurde über einer Million Haushalten während der letzten drei Jahre der Strom abgedreht (hier). Sechs Millionen waren vom gleichen Schicksal bedroht. Jüngst haben sich die Strompreise verdoppelt, wofür die aggressive grüne Politik Deutschlands die allergrößte Verantwortung trägt.

In ganz Europa verbringen viele Senioren ihre letzten Jahre frierend vor Kälte. Zehntausende sterben vorzeitig in jedem Winter. Steigende Heizkosten – infolge der Vorschriften der Regierung, teurere Formen der Energieerzeugung anzuwenden – sind dabei ein wesentlicher Faktor. Im Januar vorigen Jahres erschien im UK-Telegraph die Schlagzeile [übersetzt]: Beerdigungs-Institute quellen über durch einen starken Anstieg der Todesfälle infolge der Kälte (hier). Zwei Wochen später las man die Schlagzeile „Winter death toll ‚to exceed 40,000‚“. Man vergesse Hitzewellen, wie eindeutig aus einem Bericht der Regierung hervorgeht (hier): „Selbst mit dem Klimawandel werden Todesfälle aufgrund von Kälte weiterhin die stärkste Ursache der Sterblichkeit in Bezug auf Wetter sein“.

Forschungen, die von der Verbraucher-Organisation uSwitch in UK durchgeführt worden sind, zeigen, dass in einem von vier Haushalten „regelmäßig“ (21 Prozent) oder „immer“ (3 Prozent) im vorigen Winter nicht geheizt werden konnte, weil sie sonst die Stromrechungen nicht hätten bezahlen werden können. 37 Prozent aller Haushalte gaben an, dass das Sparen an Wärme ihre Gesundheit oder ihre Lebensqualität beeinträchtigt hätte. uSwitch-Mitarbeiterin Ann Robinson sagte: „Es ist einfach inakzeptabel, dass sich die Menschen gezwungen sehen, ihre Gesundheit aufs Spiel zu setzen, nur um zu versuchen, ihre himmelhohen Energierechnungen begleichen zu können“.

Alles in allem ist der Versuch der Menschheit, mittels Reduktion von Emissionen den Klimawandel zu bekämpfen, eine endlose Geschichte des kläglichen Scheiterns. Nicht, dass die Ziele unrealistisch wären, dass die Mathematik absurd ist oder dass Politiker und Journalisten routinemäßig nur Unsinn von sich geben. Das schmutzige kleine Geheimnis ist: wenn die Emissionen verschwinden, verschwindet auch das Wohlergehen der Menschen.

Während der letzten vier Jahrzehnte war es nur einmal zu einem merklichen Rückgang von Emissionen gekommen – während jener Zeit der Härten, bekannt unter der Finanzkrise des Jahres 2009. Die New York Times schrieb, dass vier Millionen Amerikaner zusätzlich in jenem Jahr unter die Armutsgrenze gerutscht seien, und dass das mittlere Einkommen von Familien um fünf Prozent niedriger lag als im Jahrzehnt zuvor. Der Weltbank zufolge wurde „nahezu jedes Entwicklungsland“ im Jahre 2009 schwer getroffen. 50.000 afrikanische Kinder zusätzlich dürften an Unterernährung gestorben sein, und es wird vermutet, dass geschätzt „64 Millionen mehr Menschen auf der ganzen Welt“ zurück in elende Armut gefallen sind.

Während der 21 Jahre vor dem UN-Klimavertrag aus dem Jahr 1992 (1971 bis 1991) sind die Emissionen um 50 Prozent gestiegen. Während der 21 folgenden Jahre (1992 bis 2012) stiegen die Emissionen ebenfalls um 50 Prozent. Trotz der teuren UN-Bürokratie, der jährlichen Klimagipfel und dem frohgemuten Gerede darüber, dass erneuerbare Energie wettbewerbsfähig würde, treten wir Wasser.

Es ist an der Zeit, unser Vorgehen zu ändern. Und aus einem bestimmten Blickwinkel zeigt das Pariser Klima-Abkommen auch eine neue Richtung auf. Richard Tol, ein Ökonomie-Professor, dessen Spezialgebiet der Klimawandel ist, drückt es so aus: „Unter all dem Getöse ist das Pariser Abkommen wirklich ein Schritt vorwärts. Der Gedanke gesetzlich bindender Ziele und Zeitpläne ist Vergangenheit“.

Tol weist darauf hin, dass nationale Parlamente, die direkt ihren eigenen Wählern Rechenschaft schuldig sind, jetzt die Freiheit haben, Klima-Maßnahmen lediglich als eine von vielen nationalen Prioritäten anzusehen. Länder, die mit sich selbst genug zu tun haben (sei das nun ein verheerender Tsunami in Japan oder Energiearmut in Polen) sind nicht länger belastet durch extern aufgepfropfte Verpflichtungen zur Reduktion von Emissionen. Das Pariser Abkommen fordert von jeder Nation das Einreichen von Papieren, in denen die beabsichtigten Klimamaßnahmen umrissen werden im Lichte deren spezieller Umstände. Die Sorgen von UN-Kritikern, dass unverantwortliche Bürokraten versuchen, der ganzen Welt eine Klimapolitik von oben aufzudrücken, scheint vom Tisch zu sein.

Eine sorgfältige Lektüre des Kleingedruckten stützt nicht Präsident Obamas grandiose Behauptung, dass das Paris-Abkommen „genau das ist, was die Welt braucht, um die Klimakrise zu lösen“. Falls Emissionsreduktionen der Schalthebel sind, wird das kommende Jahrzehnt wahrscheinlich nicht anders verlaufen als die vier Jahrzehnte zuvor.

Online-Kommentatoren bezeichnen das Pariser Dokument als „freiwilligen Brei“. James Hansen, Klimaaktivist und ehemals NASA-Wissenschaftler, verwendet Termini wie „Betrug“ und „Fälschung“. Seiner Ansicht nach handelt es sich einfach nur um „wertlose Worte. Es gibt keine Maßnahmen, keine Versprechungen“.

Der UK-Kolumnist Christopher Booker kommt zu ähnlichen Schlussfolgerungen: trotz der politischen Pirouetten „wird die Welt als Ganzes sich niemals daran machen, ihre Treibhausgas-Emissionen zu reduzieren“. Die Bevölkerungen Chinas und Indiens verstehen beide, dass es die Kohle war, die es den westlichen Nationen ermöglicht hatte, ihre robusten Ökonomien aufzubauen. Jetzt ist es ihre Sache, ebenfalls den angenehmen Lebensstandard, sanitäre Einrichtungen und Gesundheitswesen zu erreichen, die bezahlbare, industriell nutzbare Energie zur Voraussetzung hat.

So sehr wir jedoch wünschen mögen, den Planeten zu retten – falls wir eine irrationale Klimapolitik unterstützen, die arme Menschen zu Hause und auswärts schädigt, machen wir die Welt eben nicht zu einem besseren Ort.

Die kanadische Journalistin Donna Laframboise hat die Klimawelt seit 2009 beobachtet. Sie ist Autorin von zwei Büchern über das IPCC und schreibt auf BigPicNews.com.

————————————————

This article by Donna Laframboise was originally published on MercatorNet.com under a Creative Commons Licence. If you enjoyed this article, visit MercatorNet.com for more.

Link: http://www.mercatornet.com/articles/view/getting-rid-of-the-hot-air/17344#sthash.mvAo87hx.dpuf

Übersetzt von Chris Frey EIKE




Nur noch schnell die Welt retten

Also Finger weg und lieber an ein weniger anspruchsvolles Ziel gehen, zum Beispiel an die Eurorettung (erinnert man sich noch? Da war doch irgendetwas mit Griechenland, lange nicht mehr drüber geredet…). Oder an die Rettung der Menschheit, die ist in Arbeit, scheitert aber derzeit an den vorhandenen Kapazitäten.

Was bleibt? Die Klimarettung.

Und so sitzen sie wieder einmal zu Tausenden beisammen, die „Entscheider“ aus aller Welt, hinterlassen in und auf dem Weg nach Paris einen deftigen ökologischen Fußabdruck dank allerhand klimaschädliche Gase absondernden Verkehrsmitteln und der massenhaften Verdauung edler Speisen und produzieren vor allem viel heiße Luft.

Hybris, denkt da der religiös inspirierte oder auch nur naturwissenschaftlich bewanderte Mensch: das Klima ist dem Einfluss des Menschen entzogen, es macht, was es will. Grandiose Selbstüberschätzung, denkt der Geizhals, auch diese Laberkonferenz hätten sie sich sparen können. Klimalügner, denkt manch Skeptiker und sagt es besser nicht laut, denn so ein „Klimaleugner“ ist nicht gern gesehen, schon der Eisbären wegen.

Dabei gibt es so viele Fragen, und über die Antworten sind sich die Wissenschaftler durchaus nicht einig.  Erwärmt sich das Klima auf der Erde wirklich, obwohl das seit fünfzehn Jahren nicht nachweisbar ist? Wurden Daten gefälscht, um zum erwünschten Ergebnis zu kommen?  Wenn es aber wirklich eine globale Erwärmung gäbe – wäre das gut oder schlecht? „Klimawandel“ gab es immer schon, und während des mittelalterlichen Klimaoptimum (ca. 900 bis 1350) ging es den Menschen entschieden besser als während der kleinen Eiszeit (ca. 1600 bis 1700). Hieße „Klimapolitik“ nicht recht eigentlich, sich auf den Wandel des Klimas einzustellen?

Woher stammt überhaupt die These, dass es höchstens eine durchschnittliche Erwärmung von zwei Grad geben dürfe, sonst – was? Der deutsche Klimapapst Hans Joachim Schellnhuber, Direktor des Potsdamer Instituts für Klimafolgenforschung, rühmt sich, „Vater des Zwei-Grad-Ziels“ zu sein – wie kommt er auf die Zahl? Hat er sie ausgependelt? 

Schließlich, und das ist natürlich die wichtigste Frage: Gibt es einen für die mögliche Erwärmung ursächlichen Faktor? Kandidaten sind die Sonnenaktivität und El Nino, ein Wetterphänomen, das mit starken Niederschlägen und Stürmen einhergeht. Der Favorit aber ist und bleibt – der Mensch in seiner ganzen Unersättlichkeit, der die Vorräte an fossilen Energieträgern plündert und damit ein eher harmloses Spurengas produziert, das zu etwa 0,04 % zur Luft beiträgt und das Pflanzen zum wachsen brauchen – „Klimakiller“ Kohlendioxid (CO2).

Die Wissenschaftler sind sich da ganz und gar nicht einig. Für Politiker aber ist die Antwort klar, weil es ihnen auf die Botschaft ankommt, und die lautet: Gefahr droht, Abhilfe muss her, hier kann man „gestalten“ und auf „die Menschen“ einwirken – Mensch, bescheide dich! Schon fühlen sich die idealistische Jugend und der rechtschaffene Bürger an ihrem protestantischen Ethos und dem immerwährenden Schuldgefühl gepackt und rufen zur Einkehr auf.

Das tut man hierzulande gewohnheitsmäßig und gern. Klaglos nehmen die Bürger eine Energie“wende“ hin, die dank einer raffinierten Subventionspolitik zugunsten des ökologisch-industriellen Komplexes unfassbar teuer wird, aber kaum etwas bringt. Der Jubel über den „Ökostrom“ übersieht den Primärenergieverbrauch eines Landes, zu dem sämtliche (fossilen) Treibstoffe gehören. Alles in allem decken die deutschen Windkraftanlagen gerade mal 1,5 Prozent des gesamten Energieverbrauchs ab. 

Ist die Rettung des Klimas also womöglich doch ein wenig komplizierter als eine vernünftige Steuerreform? Und ist es überhaupt Aufgabe einer demokratisch gewählten deutschen Regierung, die Welt zu retten?

Nein, wir wollen der Kanzlerin nicht unterstellen, dass es ihr allein um einen wohlwollenden Eintrag ins Geschichtsbuch geht: „Klimakanzlerin“. Denn Retten ist die Lieblingsbeschäftigung fast aller Politiker. Die Rettung der Menschheit hat ein paar unschätzbare Vorteile: Gattungsfragen sind nicht verhandelbar, unterliegen also nicht der Konkurrenz unterschiedlicher Interessen. Wer auf der Seite der Umwelt/Natur/Frauen/Menschheit steht, muss sich der Parteienkonkurrenz nicht stellen und macht sich unangreifbar. Auch winkt bei Gefahr der übergesetzliche Notstand – nur einer „ethischen Elite“, postulierte Klimapapst Schellnhuber einst, könne man Menschheitsfragen anvertrauen, denn bei „Kernfragen“ müsse man eben auch mal gegen die Mehrheit entscheiden.

In Paris, verkündet Francois Hollande, wird das „Schicksal der Menschheit“ verhandelt. Darüber sind sich alle Anwesenden offenbar einig, ganz egal, ob sie einer Diktatur oder einer anderen Regierungsform vorstehen. Es handelt sich also recht eigentlich nicht um eine Klimakonferenz, sondern um ein systemübergreifendes Versöhnungsprojekt. Denn wenn es um die Rettung der Menschheit geht, muss man auch mal gegen die Menschen handeln.

 ACHGUT http://www.achgut.com/dadgdx/index.php/dadgd/article/nur_noch_schnell_die_welt_retten




US Klimaforscher Karl et al. wissen nicht, dass wir zwei Stillstände [hiatuses] haben, nicht nur einen

Einführung in Stillstände

Ein Stillstand der globalen Erwärmung ist ein Ende der Erwärmung mit unbekannter Länge und unbekanntem Ursprung. Die Implikation, dass er die Treibhaus-Erwärmung stoppen könnte, ist eine Bedrohung der Theorien einer globalen Erwärmung durch den Treibhauseffekt. Karl und seine Freunde (1) tun als wahre Jünger dieser Theorie der globalen Erwärmung alles, was sie können, um den gegenwärtigen Stillstand zu leugnen, der seit mindestens 1997 (oder einer anderen Version zufolge seit 2002) dauert. Während sie versuchen zu leugnen, dass dieser Stillstand real ist, sind sie komplett ahnungslos hinsichtlich der Tatsache, dass es während der achtziger und neunziger Jahre einen weiteren Stillstand ähnlicher Dauer gegeben hatte. Sie wissen nichts davon, dass es zwei sind, weil ihre für GISS, HadCRUT und NCDC arbeitenden Freunde beschlossen haben, diesen ersten Stillstand aus der Karte wegzuradieren. Sie haben dies getan mittels Überschreibung desselben mit einem falschen Temperaturanstieg mit der Bezeichnung ,Late Twentieth Century Warming‘. Dieses Überschreiben machte man mit allen Quellen von instrumentellen Temperaturmessungen am Boden, aber sie konnten nicht die Satelliten kontrollieren. Weil das so ist, haben sie einfach so getan, als ob es diese Satelliten nicht gebe. Als eine Folge davon ist der Stillstand der achtziger und neunziger Jahre immer noch in den Satellitenaufzeichnungen der Temperatur verfügbar. Ich habe ihn im Jahre 2008 entdeckt bei Recherchen zu meinem Buch (2). Der Terminus ;Stillstand‘ war zu jener Zeit noch nicht eingeführt worden. Damals war die ENSO aktiv und erzeugte eine Serie von fünf El-Nino-Spitzen, jeweils unterbrochen durch La Nina-Täler. Zu einer solchen Serie kommt es durch eine harmonische Schwingung von Ozeanwasser im äquatorialen Pazifik von einer Seite zur anderen. Jede Welle dieser Reihe breitet sich beim Auftreffen auf die Westküste von Südamerika aus und erwärmt die Luft darüber. Warme Luft steigt auf, strömt in die Westwindzone, und der Rest der Welt erfährt, dass ein El Nino im Gange ist. In einem solchen Fall liegt die globale mittlere Temperatur an einem Punkt auf halber Strecke zwischen einer El Nino-Spitze und einem benachbarten La Nina-Tal. Falls man alle diese Punkte graphisch aufträgt, werden sie einen Trend der globalen mittleren Temperatur definieren. Im Falle des Stillstands in den achtziger und neunziger Jahren zeigt dieser Trend eine gerade horizontale Linie. Keine Erwärmung seit 18 Jahren, sagt uns dies. Außerdem macht es den Graphen des Stillstandes sich selbst kalibrierend: er kann nicht durch Karl oder seine Freunde überschrieben werden.

Abbildung 1: Dies ist Abbildung 15 aus dem Buch „What Warming?“ (2), extrapoliert bis zum Jahr 2012. Gelbe Punkte markieren die globale mittlere Temperatur. Die blauen Linien, angepasst an die gelben Punkte, zeigen die Existenz von zwei Stillständen, getrennt durch den Super-El-Nino des Jahres 1998. Steil ansteigende Temperatur gerade, nachdem dieser in nur drei Jahren die globale Temperatur des einundzwanzigsten Jahrhunderts um das Drittel eines Celsius-Grades angehoben hat.

Abbildung 1 oben zeigt eine Temperaturgraphik mit zwei Stillständen. Abbildung 2 unten zeigt, wie man einen HadCRUT3-Plot, modifiziert durch eine falsche Erwärmung, dazu verwenden kann einen Stillstand auszulöschen:

Abbildung 2: HadCRUT-Temperaturdaten des Jahres 2008. Anstatt eines Stillstandes wie in Abbildung 1 zeigt sie links eine fiktive Erwärmung zum Ende des 20. Jahrhunderts. Scharfe Spitzen, markiert mit roten Ballonen, sind Rauschen, erzeugt durch das Computer-Processing. Diese Erwärmung und die Spitzen sind in allen drei oben erwähnten Datensätzen identisch. Man beachte zwei Rausch-Spitzen um den Super-El-Nino.

HadCRUT3 ist einfach einer der Temperatur-Datensätze, die in den achtziger und neunziger Jahren eine falsche Erwärmung zeigen. Es ist unmöglich, dass dies geschehen kann ohne direkte anthropogene Eingriffe. Die Zusammenarbeit der drei oben genannten Erzeuger dieser Reihen wird enthüllt durch identische und nicht erklärte Computer-Processing-Spuren in ihren Daten auf beiden Seiten des Ozeans. Unglücklicherweise für sie und glücklicherweise für uns hat der Computer seinen Fußabdruck in allen drei nominell voneinander unabhängigen Datensätzen hinterlassen. Diese umfassen scharfe Aufwärts-Spitzen jeweils zu Jahresbeginn, markiert mit roten Ballonen. Zwei davon sitzen genau auf der Spitze des Super-El-Ninos 1998.

Was Karl uns sagen will

Ich betrachte den Artikel von Karl et al (1) lediglich als einen von Vielen, die die Existenz des Stillstandes aus ideologischen Gründen attackieren. Wie alle anderen auch wird er kaum durch Wissenschaft gestützt. Sie wissen einfach, dass sie den Stillstand zerstören müssen, wenn dieser nicht sie selbst zerstören soll. Während sie den gegenwärtigen Stillstand mit aller Macht attackieren, wissen sie noch nicht einmal, dass es einen weiteren in den achtziger und neunziger Jahren gegeben hatte, von dem hier die Rede ist. Für diese Ignoranz müssen sie sich bedanken bei ihren freundlichen Klima-Zuarbeitern, die arrangiert haben, jenen Stillstand mit einer falschen Erwärmung zum Ende des 20. Jahrhunderts zu überschreiben. Unmittelbar vor Beginn des Stillstands haben die Temperaturen um das Jahr 1976 zu steigen begonnen, und es sah so aus, als sei dies die globale Erwärmung, die zu sehen sie erwartet hatten. Außer dass dem nicht so war. Der Anstieg hörte 1979 auf und wurde gefolgt von einem 18 Jahre langen Temperaturplateau – ein echter Stillstand. Das Überschreiben könnte zu Beginn der Versuch einer Fehlerkorrektur gewesen sein. Aber falls man Jahr für Jahr immer neue Korrekturen braucht, wird dies zu einem wissenschaftlichen Betrug. Wir haben Glück, dass sie immer noch nicht die Satelliten kontrollieren können, sonst würden wir davon gar nichts wissen. Wir müssen verstehen, dass während die Messung der Wassertemperatur integraler Bestandteil von Satellitenmessungen ist, sie den Messungen am Boden aus einer externen Quelle hinzugefügt werden müssen. NOAA benutzt ERSST als Quelle, während man in UK einen eigenen Datensatz (HADSST3) dafür hat. Letzteres gilt als der Goldene Standard der Messungen der Wassertemperatur. Es sind diese ERSST-Werte der Wassertemperatur der NOAA, die in dieser Studie verwendet werden, um die Nicht-Existenz des gegenwärtigen Stillstandes zu belegen. In ihrem Teil über die Ozeane in Abbildung 1 werden diese bezeichnet als „21. C“ von 2000 bis 2014 und „1998 bis 2014“ von 1998 bis 2014. Gleichzeitig zeigen alle Daten vom Festland in jener Abbildung eine einheitliche geringe Erwärmung – geschätzt um etwa 0,1°C pro Jahrzehnt oder weniger, ihrer Graphik nach zu urteilen. Alle ihre neuen globalen Daten enthalten auch den hinzugefügten Temperaturanstieg von ERSST. Dies als Beweis für Erwärmung zu verwenden ist doppelt gemoppelt und sollte nicht zugelassen werden. Die ozeanische Basisperiode und die zweite Hälfte des 20. Jahrhunderts zeigen beide die gleiche identische geringe Erwärmung wie die zugrunde liegende Erwärmung. Der „Stillstand“ der IPCC-Periode im Ozean-Bildteil muss genauso wegen doppelt gemoppelt ausgeschlossen werden, weil dessen Daten vollständig in den Messungen des separaten Ozean-Bildteils von 1998 bis 2014 enthalten sind. Alle anderen Daten einschließlich der absurden Basisperiode sind entweder überflüssig oder unzulässig. Die Illegitimität der Verwendung der ERSST-Daten der NOAA wird von Judith Curry unterstrichen, die den Standpunkt vertritt, dass es für sie keinen Grund gab, den NOAA-Datensatz zu verwenden wegen des Goldenen Standards der SST-Daten aus UK, namentlich HADSST3, die alle verfügbar waren. Eingegangen in ihre Nolens-Volens-Basisperiode ist der Stillstand der achtziger und neunziger Jahre. Das muss nicht als Teil einer Promotion einer imaginären Erwärmungskurve verpackt werden, wie sie es hier tun. Dieser Fehler wurde ermöglicht durch ihre Vermutung, dass die so genannte Erwärmung zum Ende des 20. Jahrhunderts existiert. Dem ist nicht so, es ist verlogen, und es überschreibt den ersten Stillstand.

Abbildung 3: Dies ist Abbildung 1 aus „Possible artifacts of data biases in the recent global surface warming hiatus,” in Science vom 4. Juni 2015 von Thomas R. Karl, Anthony Arguez, Boyin Huang, Jay H. Lawrimore, James R. McMahon, Matthew J. Menne, Thomas C. Peterson, Russell S. Vose, Huai-Min Zhang. Man beachte die zahlreichen sich überlappenden Daten. Ein Ergebnis hiervon ist, dass der Datenpunkt „Stillstand“ im Ozean-Bildteil oben überzählig ist und nichts beiträgt. Das hinterlässt den Eindruck, dass sie mehr Daten haben als sie zeigen.

Sein Griff nach der Arktis

Unter den weiteren Irrtümern ist ihr Wunsch, die Erwärmung der Arktis in ihr Königreich der Erwärmung aufzunehmen. Rein zufällig jedoch ist die Erwärmung der Arktis nicht einer Treibhaus-Erwärmung geschuldet, sondern warmem Wasser, das von Strömungen in den Arktischen Ozean geflossen ist (3). Das war nicht immer so. Vor dem 20.Jahrhundert gab es dort nichts als eine langsame, lineare Abkühlung. Die arktische Erwärmung begann plötzlich zu Beginn des 20. Jahrhunderts als Folge einer Umkonfiguration des Strömungssystems im Atlantik. Zu jener Zeit gab es keine Zunahme des atmosphärischen CO2-Gehaltes als verursachendes Agens. Die Erwärmung verlief zunächst unregelmäßig und hielt auch zur Mitte des 20. Jahrhunderts etwa 30 Jahre lang an. Seit etwa 1970 setzte die langsame Erwärmung erneut ein und dauert bis heute. Der Stopp zur Mitte des Jahrhunderts war tatsächlich eine Abkühlungsperiode. Dieses Phänomen, dass Erwärmung oder Abkühlung jederzeit unterbrochen werden können, ist eine weitere Garantie dafür, dass die Erwärmung der Arktis keine Treibhauserwärmung sein kann und daher auch als Argument für AGW nicht taugt.

Erwärmungseffekt

Jetzt zu der stufenweisen Erwärmung zu Beginn des 21. Jahrhunderts mit einem globalen Temperaturanstieg um ein Drittel Grad Celsius innerhalb von nur drei Jahren. Dann war es wieder vorbei mit Erwärmung. Dieses Drittel eines Grades begann auf dem Niveau des Stillstands und hat sich nicht ausgebreitet wie die vermeintliche Treibhaus-Erwärmung. Es ist die einzige Erwärmung in der gesamten Satelliten-Ära. Angesichts dessen, dass der Temperaturanstieg im gesamten 20. Jahrhundert Hansen zufolge lediglich 0,8°C betragen hatte, sind diese 0,3°C ein substantieller Teil davon. Als Folge dieser Erwärmung liegen alle Temperaturen des 21. Jahrhunderts höher als im 20. Jahrhundert (außer 1998). Menschen wie Hansen, die das bemerkt haben, wollen dies als Folge einer Treibhaus-Erwärmung behaupten, was es aber nicht ist. Dies ist ein Fehler, der die vermeintliche Erwärmung voranbringt, dass nämlich die Erwärmungsstufe versteckt wird. Folglich ist die Falschinformation dem Fehlen eines Faktenchecks der Daten geschuldet. Hansen bemerkte, dass es im 21. Jahrhundert wärmer war als im 20. Jahrhundert und schrieb dies augenblicklich der Treibhaus-Erwärmung zu. Das ist aber natürlich unmöglich, weil eine Betrachtung der Keeling-Kurve zeigt, dass sich der CO2-Gehalt nicht ändert. Die Existenz einer vermeintlichen Erwärmung machte ohne einen Check glaubwürdig, was das atmosphärische CO2 angeblich tut. Aber dann denken die wirklich Gläubigen wie er nicht einmal daran, dies näher zu betrachten, weil für sie die Wissenschaft settled ist. Tatsache ist, dass wir die Ursache dieser Stufen-Erwärmung immer noch nicht kennen. Die wahrscheinlichste Möglichkeit ist eine Ursache in den Ozeanen, aber ich habe dafür keine spezifischen Anhaltspunkte.

Globaler Klimaeffekt

Dank jener Stufen-Erwärmung etablierte sich im 21. Jahrhundert ein höheres Temperaturniveau als im 20. Jahrhundert. Damit haben wir jetzt zwei Stillstände auf zwei verschiedenen Temperaturniveaus. Es ist angebracht zu schauen, wie sie korrelieren. Erstens, die beiden Stillstände zusammen umfassen zeitlich über 80% der Satelliten-Ära. Nimmt man dies als Synonym mit der fehlenden Erwärmung, können wir sofort sagen, dass es während 80% der Zeit der Satelliten-Ära keine Treibhaus-Erwärmung gegeben hatte. Die verbleibende Zeit wird von dem Super-El Nino 1998 eingenommen (2 Jahre) sowie der nachfolgenden Stufen-Erwärmung (3 Jahre). Keines davon ist ein Ereignis im Zusammenhang mit Treibhauseffekten. Das lässt nur einen Schluss zu: Es gab keine Treibhaus-Erwärmung welcher Art auch immer während der gesamten Satelliten-Ära. Damit ist AGW tot!

Schlussfolgerungen

Und jetzt wollen wir uns einigen unmöglichen Behauptungen dieser Studie zuwenden. Ihre Grundbehauptung scheint zu sein, dass jene Erwärmung im 21. Jahrhundert stattgefunden hatte dank der Zunahme der Wassertemperatur (SST), die von der NOAA aufgezeichnet worden ist. Was sie auslassen ist zu zeigen, dass diese Erwärmung den Stillstand aufteilte in eine Erwärmungsrate wie der in Abbildung 2. Außerdem sehen wir auch, dass sich gleichzeitig die Meeresoberfläche erwärmte. Ihre Festlands-Temperaturen folgten dem nicht. Da sich das Festland nicht erwärmt hat, bin ich jetzt verwirrt darüber, warum sie glauben, dass die SST etwas mit dem Stillstand zu tun hat. Die Präsentation von nur zwei Datenpunkten, die zwar legitim sind, aber nicht im Zusammenhang stehen mit einem progressiven Temperaturanstieg sagt uns nichts darüber, welche Art von Erwärmung wo stattgefunden hatte. Falls man die Existenz eines Stillstandes auslöschen will, muss man zeigen, dass diese Daten einen progressiven Temperaturanstieg zeigen, wie es bei HadCRUT3 in Abbildung 2 der Fall ist. Die Leute bei HadCRUT3 haben dieses Prinzip verstanden, als sie ihre in Abbildung 2 gezeigte angebliche Erwärmung erzeugt haben. Kein Zweifel – genauso muss man einen Stillstand durch Erwärmung ersetzen. Unglücklicherweise wissen Karl et al. dies einfach nicht. Sie stellen eine allgemeine Erwärmung in den Raum und haben keine Ahnung, woher sie kommt. So etwas wie Abbildung 2 ist ein sine qua non, um einen Stillstand auszulöschen. Aber sie haben nur zwei legitimierte Datenpunkte, um die Erwärmung zu zeigen, und diese zeigen lediglich eine Erwärmung der Wasseroberfläche. Schaut man noch genauer hin, ist alles sogar noch viel schlimmer. Diese beiden Datenpunkte überlappen sich zeitlich total: der eine mit „21st C“ markierte Punkt liegt zeitlich vollständig innerhalb des mit „1998 bis 2014“ gekennzeichneten Punktes. Das bedeutet, dass es nur einen einzigen legitimierten Datenpunkt in der gesamten Studie gibt. Er ist auch nicht lokalisiert, erstreckt sich über einen Zeitraum von 16 Jahren und macht es weitgehend unmöglich zu sagen, ob irgendein Erwärmungstrend existiert oder nicht. Mit diesen Fakten im Hinterkopf muss ich leider sagen, dass der Sinn dieser Studie nicht gezeigt worden ist. Die Autoren, Herausgeber und Begutachter dieser Studie haben allesamt eine totale Ignoranz des Themas an den Tag gelegt, dass sie anzugehen versucht haben. Es bedarf eines konzertierten Prozesses, derartigen Müll zu veröffentlichen und darauf aufbauend eine weltweite Kampagne zu starten, um das falsche Konzept einer anthropogenen globalen Erwärmung zu befeuern.

References

[1] Thomas R. Karl, Anthony Arguez, Boyin Huang, Jay H. Lawrimore, James R. McMahon, Matthew J. Menne, Thomas C. Peterson, Russell S. Vose, Huai-Min Zhang., “Possible artifacts of data biases in the recent global surface warming hiatus” Science, June 4th 2015

[2] Arno Arrak “What Warming? Satellite view of global temperature change” (CreateSpace 2010), figure 15.

[3] Arno Arrak, “Arctic Warming Is Not Greenhouse Warming” E&E 22(8):1069-1083 (2011)

Link: http://wattsupwiththat.com/2015/10/29/karl-et-al-do-not-know-that-we-have-two-hiatuses-not-one/

Übersetzt von Chris Frey EIKE




Die Epistemologie [= Erkenntnistheorie], die Vorhersage des Klimas so zu erklären, dass auch 8-jährige das verstehen

2. Enkelin Ava fragt: „Wird die Welt verbrennen und woher können wir das wissen?“

Ava – denken wir an wärmere oder kältere Temperaturen draußen. Es ist wärmer, wenn die Sonne tagsüber scheint und nachts kälter, wenn sich unser Teil der Welt von der Sonne abgewandt hat. Du weißt doch schon, dass die Erde 24 Stunden für eine Umdrehung braucht, also für etwas, das wir einen Zyklus nennen von warm zu kalt und wieder zurück.

Du weißt auch, dass es im Sommer viel heißer ist als im Winter und kennst auch den Grund dafür: im Sommer scheint die Sonne länger und steht viel höher am Himmel als im Winter. Jedes Jahr gibt es einen Zyklus von warm zu kalt und wieder zurück – dieser Zyklus dauert 365 Tage. Wissenschaftler haben auf vielfältige Weise gemessen oder geschätzt, wie die Temperatur der Erde hunderte und tausende Jahre in der Vergangenheit war – und haben dabei erkannt, dass es weitere Warm-Kalt-Zyklen gibt. Zwei der bedeutendsten Zyklen haben eine Länge von 60 bzw. 1000 Jahren. Hier ist ein Bild, das einige der 1000-Jahres-Zyklen zeigt:

Abbildung 1. Quelle: http://www.climate4you.com/

Um zu wissen, was in Zukunft passieren könnte, müssen wir als Erstes wissen, wo sich die Erde relativ zu dem 1000-Jahre-Zyklus befindet. Hier folgt eine weitere Graphik, die den Temperaturverlauf der Nordhemisphäre während der letzten 2000 Jahre zeigt. Man beachte besonders, was während der letzten 1000 Jahre passiert ist.

Abbildung 2. Quelle: http://www.clim-past.net/8/765/2012/cp-8-765-2012.pdf

Man beachte die Wärmespitze um das Jahr 1000 – dann schaue man darauf, wo wir uns augenblicklich befinden, am rechten Rand der Graphik. Man erkennt deutlich, dass die Erde vor kurzem eine weitere Wärmespitze des 1000-Jahre-Zyklus durchlaufen hat.

Was bedeutet das? Wir wissen, dass die Menge der unseren Teil der Erde erreichenden Sonnenstrahlung oftmals zu Temperaturänderungen um Zehnergrade führt zwischen Tag und Nacht sowie bis zu 100 Grad Temperaturunterschied zwischen den kältesten Winter- und den heißesten Sommertagen. Wir wissen auch, dass die Sonne selbst während der Maxima ihrer zahlreichen Zyklen mehr Energie ausstößt und ein stärkeres Magnetfeld aufweist.

Was macht die Sonne derzeit? Hier folgt eine Graphik, die uns dies zeigt. Man erkennt, dass die Sonne selbst Aktivitätszyklen mit einer Dauer von 11 bis 12 Jahren durchläuft. Je näher die rote Linie dem unteren Rand der Graphik kommt, umso aktiver ist die Sonne, umso stärker ist ihr magnetisches Feld und umso weniger kosmische Strahlung trifft auf die Erde.

Abbildung 3. Quelle: http://cosmicrays.oulu.fi/

Man erkennt, dass die Sonnenaktivität zugenommen hat, das heißt, die rote Linie näherte sich immer mehr dem unteren Rand der Graphik, und zwar in jedem Zyklus bis etwa zum Jahr 1991. Danach liegen die Maxima und Minima näher an der oberen Kante der Graphik, was eine Abnahme der Sonnenaktivität bedeutet. Dies zeigt, dass der Höhepunkt des 1000-Jahre-Zyklus‘ der Sonnenaktivität im Jahre 1991 erreicht worden ist und jetzt eben hinter uns liegt.

Weil es einige Zeit dauert, bis sich die Ozeane erwärmen bzw. abkühlen, gibt es eine zeitliche Verzögerung zwischen dem Höhepunkt der Sonnenaktivität und der Temperatur auf der Erde. Die besten Messungen der globalen Temperatur, die wir haben, stammen von Satelliten. Hier folgt eine Graphik, die die Temperaturänderungen während des Satelliten-Zeitalters zeigt:

Abbildung 4. Quelle: www.woodForTrees.org

Man erkennt, wie sich der Höhepunkt der Sonnenaktivität im Jahre 1991 in einer Wärmespitze der mittleren globalen Temperatur (die grüne steigende und die blaue fallende Linie) etwa 12 Jahre später im Jahre 2003 spiegelt, und dass sich die Erde seitdem leicht abgekühlt hat, was genau zu der abnehmenden Sonnenaktivität seit 1991 bis heute passt.

Aber was ist nun mit der Zukunft?

Nun, die einfachste und wahrscheinlichste Aussage für Anfänger lautet, dass der 1000-Jahre-Zyklus von 2003 bis 3003 einen Temperaturverlauf zeigen wird, der im Allgemeinen ähnlich dem während des Zyklus‘ von 1000 bis 2003 ist – siehe Abbildung 2.

Betrachtet man diese Graphik noch einmal, erkennt man, dass die mittlere Temperatur der Nordhemisphäre um etwas unter 2°C von 1000 bis 1635 zurück gegangen ist, so dass wir eine ähnliche Abkühlung erwarten können von 2003 bis 2638 – natürlich mit zahlreichen Höhen und Tiefen während des Verlaufs.

Die Wärmespitze um das Jahr 1000 war eine gute Zeit für die Menschen. Die Wikinger waren in der Lage, in Grönland zu siedeln. Die Ernten waren gut, und die Menschen in Europa hatten Zeit und Mittel, um mit dem Bau von Kathedralen zu beginnen. Die Kaltzeit der Jahre von 1635 bis 1700 wird das ,Maunder-Minimum‘ genannt. Damals war die Sonne so ruhig, dass die Sonnenflecken verschwanden. In jener Zeit folgten einige besonders kalte Jahre nacheinander, und Millionen Menschen verhungerten, weil die Ernten vernichtet wurden.

Das vom Menschen ausgestoßene CO2 hatte keinerlei Auswirkungen auf diese Temperaturänderungen. Tatsächlich liegt Präsident Obama absolut falsch, wenn er CO2 einen Verschmutzer nennt. Vielmehr ist es das unabdingbar notwendige Nahrungsmittel für Pflanzen. Ohne dieses Gas könnte das Leben, so wie wir es kennen, nicht existieren. Pflanzen wachsen umso besser, je mehr der CO2-Gehalt in der Luft zunimmt. Etwa 25% der Zunahme der Erzeugung von Nahrungsmitteln im 20. Jahrhundert geht einfach auf die Zunahme des CO2-Gehaltes während jener Jahre zurück – ein großer Vorteil für die Menschheit.

Ava fragt: Die blaue Linie verläuft nahezu waagerecht. Wann werden wir sicher wissen, dass wir uns auf dem absteigenden Ast des 1000-Jahre-Zyklus‘ befinden und uns in Richtung einer neuen Kleinen Eiszeit bewegen?

Großvater antwortet: Ich freue mich zu sehen, dass du ein frühes Interesse an Epistemologie entwickelt hast.

Erinnere dich mal, ich habe den 60-Jahre-Zyklus erwähnt. Nun, die Daten zeigen, dass die Wärmespitze des Jahres 2003 nahe eines Maximums sowohl des 60- als auch des 1000-Jahre-Zyklus‘ lag. Falls wir uns jetzt auf dem absteigenden Ast des 1000-Jahre-Zyklus‘ befinden, dürfte das nächste Maximum des 60-Jahre-Zyklus‘ etwa im Jahre 2063 erneut schwächer ausfallen, so dass wir dann in jener Zeit sagen können, dass wir ziemlich sicher auf die nächste Kleine Eiszeit zusteuern.

Das ist jedoch noch lange hin, aber wir werden eine Reihe sehr nützlicher Hinweise schon lange vorher bekommen. Schau noch einmal die rote Kurve in Abbildung 3 – man erkennt darin, dass von Anfang 2007 bis Ende 2009 die Sonnenaktivität auf ihren niedrigsten Stand seit sehr langer Zeit fiel. Erinnerst du dich an die Verzögerung von 12 Jahren zwischen dem Maximum der Sonnenaktivität 1991 und der Wärmespitze 2003? Falls es eine ähnliche Verzögerung als Reaktion auf die geringere Sonnenaktivität gibt, sollte die Erde von 2019 bis 2021 eine Kaltphase durchlaufen.

Es dürfte auch deutlich kühler sein als während der kältesten Zeit des 60-Jahre-Zyklus‘ – auf halbem Weg durch den gegenwärtigen 60-Jahre-Zyklus um das Jahr 2033.

Wir können abwarten, dass diese Dinge geschehen, aber inzwischen behalte im Hinterkopf, dass zyklischen Trends insgesamt zeitweise einige Jahre lang gestört werden können durch El Nino-Ereignisse im Pazifik und die damit verbundenen hohen Temperaturen der Jahre 1998 und 2010 (Abbildung 2) und die wir vor Ende dieses Jahres 2015 sehen könnten.

3. Ava fragt: Es sieht so aus, als würde es kälter werden auf der Erde – warum sagen dann mein Lehrer und Präsident Obama, dass es auf der Erde sehr heiß werden wird und dass die Eisbären alle aussterben werden, wenn ich nicht mehr zur Schule gehe?

Nun, Ava – ich müsste ein Buch schreiben um zu erklären, warum so viele unterschiedliche Menschen so falsch liegen können über so lange Zeit – manchmal mit den besten Absichten. Lass mich dir kurz erzählen, wie das kam.

Im Jahre 1968 hat ein Mann namens Ehrlich ein Buch veröffentlicht mit dem Titel The Population Bomb. Er glaubte, dass die Anzahl der Menschen auf der Welt so stark zunehme, dass es schon bald nicht mehr genug Nahrungsmittel geben würde, um jeden satt zu bekommen. Er schrieb in seinem Buch:

In den siebziger Jahren werden Millionen Menschen den Hungertod sterben trotz einiger Notfallprogramme, die jetzt beginnen. Zu diesem späten Zeitpunkt kann niemand mehr eine substantielle Zunahme der Todesrate in der Welt verhindern“.

Einige Menschen zu jener Zeit wurden sehr besorgt und wollten derartige Dinge abschätzen wie etwa das zukünftige Bevölkerungswachstum, die Erzeugung von Nahrungsmitteln, die Ölversorgung, Industrieproduktion und Mineralreserven. Dazu benutzten sie ein Computerprogramm. Sie wollten mögliche Probleme in der Zukunft erkennen und auch die Möglichkeit erkunden, dass die Völker und Regierungen der Welt sich auf einen Weg einigen können, die Weltwirtschaft so zu betreiben, dass sie nachhaltig ist, das heißt für längere Zeit laufen kann. All das steckten sie in ein Buch mit dem Titel Die Grenzen des Wachstums, das im Jahre 1972 veröffentlicht worden ist.

Ein sehr agiler Geschäftsmann namens Maurice Strong, der eine Menge einflussreicher Leute kannte, überzeugte die UN von dem, was er selbst glaubte und tatsächlich immer noch sehr stark glaubt, dass nämlich dieses Nachhaltigkeits-Problem sehr ernst war. Die UN und Schweden organisierten im Jahre 1972 ein Treffen in Stockholm, um die Wechselwirkungen der Menschen mit der Umwelt zu diskutieren. Strong ist von Natur aus sehr bestimmend, und er und die Konferenz erstellten einen unglaublich detaillierten 109-Punkte-Plan als Information für die UN und als Werkzeug, um sogar Kontrolle über die individuelle Umweltpolitik von Regierungen weltweit zu erlangen. Als eine der Maßnahmen wurde das United Nations Environmental Program ( UNEP) ins Leben gerufen mit Mr. Strong höchstselbst als geschäftsführendem Direktor. Zehn Jahre später war offensichtlich, dass die Prophezeiungen bzgl. bevorstehender Todesfälle und Katastrophen falsch waren. Die Leute bei beim UNEP trachteten aber immer noch danach, Kontrolle über die Weltwirtschaft zu erlangen. Sie erkannten, dass falls sie zeigen könnten, dass Kohlendioxid aus der Verbrennung von Kohle und Öl zur Stromerzeugung und für Autofahrten zu einer gefährlichen Erwärmung der Erde führen könnte, sie in der Lage sein würden, Regierungen und Völker so stark zu ängstigen, dass sie sich unter den Kontrollschirm der UN begeben könnten und zulassen würden, dass diese mittels Kontrolle der Art des Energieverbrauchs und der Preise die Kontrolle über die Wirtschaft erlangen könnten.

Das UNEP organisierte ein Treffen von Wissenschaftlern in der Ortschaft Villach in Österreich im Jahre 1985, um auszuloten, wie sie zeigen könnten, dass CO2 gefährlich ist. Die Wissenschaftler sagten: „Obwohl die beobachtete großräumige Erwärmung der letzten rund 100 Jahre kompatibel ist mit den Modellschätzungen der Größenordnung des Treibhauseffektes, ist eine eindeutige und statistisch überzeugende Erkennung der Effekte eines sich ändernden CO2-Gehaltes auf das Klima noch nicht möglich. Ein bedeutendes Problem hinsichtlich der positiven Identifikation eines Treibhausgaseffektes auf das Klima ist es, die mittel- und langfristigen (Jahrzehnte oder mehr) Fluktuationen in der Vergangenheit zu erklären. Versuche, derartige Änderungen zu modellieren, weisen bis heute eine Anzahl von Schwächen auf“.

Liebe Ava – mit anderen Worten, sie können keinerlei Auswirkungen des menschlichen CO2 auf das Klima beweisen.

Aber wer auch immer das offizielle Statement der Summary und der Empfehlungen geschrieben hat sagte:

„Man glaubt jetzt, dass es als Folge der zunehmenden Konzentration von Treibhausgasen während der ersten Hälfte des nächsten Jahrhunderts zu einem Anstieg der globalen mittleren Temperatur kommen könnte, der stärker ist als alles, was es bisher in der Geschichte der Menschheit gab“.

Der Bericht gab zwei wichtige Empfehlungen. Als Folge der einen davon wurde das IPCC ins Leben gerufen, das die Beweise auswählen und von Zeit zu Zeit Berichte erstellen sollte, die zeigen würden, dass CO2 der Haupttreiber eines gefährlichen Klimawandels sei. Die zweite Empfehlung führte zu einem Treffen in Rio im Jahre 1992 unter Vorsitz von Maurice Strong selbst. Auf diesem Treffen wurde das United Nations Framework Convention on Climate Change (UNFCCC) erstellt, das danach von 196 Regierungen unterzeichnet worden ist.

Sinn und Zweck des Vertrages ist es, die Konzentrationen von Treibhausgasen in der Atmosphäre auf einem Niveau zu halten, das ihrer Ansicht nach eine gefährliche Einmischung des Menschen in das Klimasystem verhindern würde. Dieser Vertrag ist wirklich ein umfassender, politisch getriebener politischer Aktionsplan mit der Bezeichnung ,Agenda 21′. Er soll zu einer zentral gesteuerten globalen Gesellschaft führen, die jeden Aspekt des Lebens eines jeden Einzelnen auf diesem Planeten kontrollieren soll.

Es heißt in diesem Vertrag: „Die Unterzeichneten sollten Vorsichtsmaßnahmen ergreifen, um die Ursachen des Klimawandels zu erfassen, zu verhindern oder zu minimieren und dessen nachteilige Effekte abzuschwächen. Wo ernste oder irreversible Schäden drohen, sollte das Fehlen einer vollen wissenschaftlichen Gewissheit nicht als Grund herangezogen werden, diese Maßnahmen zu verschieben“.

Mit anderen Worten, falls die Modelle zeigen, dass es auch nur eine sehr geringe Wahrscheinlichkeit dafür gibt, dass sehr schlimme Dinge passieren, sollten die Unterzeichneten aber trotzdem agieren, um diese zu stoppen. Aber wie gut sind die Computermodelle?

Die fünf ersten aufeinanderfolgenden Berichte des IPCC in den Summaries for Policymakers, geschrieben von Repräsentanten der Regierungen, machen eine zunehmende Gewissheit ihrer modellbasierten Projektionen geltend hinsichtlich zukünftiger Temperaturen, die in den wissenschaftlichen Abschnitten der Berichte oder von den aktuellen Daten nicht gestützt werden.

Noch einmal zurück zum Treffen in Villach. Von dort hieß es: „in der ersten Hälfte des kommenden Jahrhunderts könnte es zu einem Anstieg der globalen mittleren Temperatur kommen, der stärker ist als alles, was es in der Menschheitsgeschichte bisher gegeben hat“.

Alle Modelle und Projektionen seit 1985 beruhten auf der Hypothese, dass CO2 der Hauptklimatreiber war – aus diesem Grunde und auch aus vielen anderen Gründen sind diese Modelle nutzlos für die Vorhersage zukünftiger Temperaturen.

Hier folgt eine Graphik, was wirklich geschah, als der CO2-Gehalt im 21. Jahrhundert rapide gestiegen war:

Wie man sieht, gab es seit etwa dem Jahr 1997 keinerlei globale Erwärmung mehr.

Die Klimamodelle, auf denen die gesamte Wahnvorstellung der katastrophalen globalen Erwärmung beruhen, wurden ohne Rücksicht auf die natürlichen 60-Jahre- und noch wichtiger auf die 1000-Jahre-Zyklen erstellt, die so deutlich in den Temperaturaufzeichnungen hervortreten. Die Vorgehensweise der Modellierer ist einfach eine wissenschaftliche Katastrophe, der sogar jeder normale gesunde Menschenverstand fehlt. Es ist genauso, als ob man den Temperaturtrend von Februar bis Juli heranzieht und diesen linear auf die kommenden 20 Jahre oder so projiziert. Sie frisieren ihre Modelle so, dass sie weniger als 100 Jahre in die Vergangenheit reichen, obwohl sich der relevante Zeitrahmen über Jahrtausende erstreckt. Dies ist wissenschaftswidriges Verhalten in großräumigem Maßstab.

Die Temperaturprojektionen der Modelle des IPCC und des UKMO sowie sämtliche Studien über die Folgen aus diesen Projektionen haben keine solide Grundlage in der empirischen Wissenschaft, die abgeleitet ist aus durchweg nutzlosen und speziell strukturell betrügerischen Modellen. Sie bilden keine Basis für die Diskussion über zukünftige Klimatrends und repräsentieren eine gewaltige Verschwendung von Zeit und Geld. Man erkennt schon jetzt, dass deren Prophezeiungen als Fundament für eine regierungsamtliche Klima- und Energiepolitik vollkommen falsch und daher noch schlimmer als nutzlos sind.

Hier folgt eine Graphik, die zeigt, was geschieht, wenn man einen zyklischen Trend in eine gerade Linie projiziert, wie sie es gemacht haben:

Ein neues Vorhersageverfahren muss übernommen werden. Für Vorhersagen von Timing und Ausmaß der auf natürlichen solaren Zyklen beruhenden kommenden Abkühlung – am Wichtigsten ist dabei der Zeitrahmen von Jahrtausenden – siehe meinen Beitrag hier. Dessen Abschnitt 1 enthält eine vollständige Diskussion der Nutzlosigkeit der Klimamodelle.

Im ,Novum Organum‘ (das neue Instrumentarium zur Aneignung von Wissen) klassifizierte Francis Bacon die intellektuellen Trugschlüsse seiner Zeit in vier Bereiche, die er Idole [idols] nannte. Der vierte davon wurde beschrieben als:

Idols des Theaters sind jene, die auf Spitzfindigkeiten und falsches Lernen beruhen. Diese Idols bestehen in den Bereichen Theologie, Philosophie und Wissenschaft; und weil sie durch gelehrte Gruppen vertreten werden, werden sie ohne Nachfrage von den Massen akzeptiert. Wenn falsche Philosophien kultiviert worden sind und eine große Dominanz in der Welt des Intellekts erreicht haben, werden sie nicht mehr in Frage gestellt. Falsche Über-Strukturen werden auf der Grundlage falscher Fundamente erhoben, und am Ende zeigen Systeme ohne jeden Wert ihre Pracht auf der Weltbühne.

Die Klimawissenschaft ist Opfer dieser vierten Art von Idols geworden. (Zu den 4 Idols mehr hier)

Link: http://wattsupwiththat.com/2015/08/31/the-epistemology-of-explaining-climate-forecasting-so-an-8-year-old-can-understand-it/

Übersetzt von Chris Frey EIKE




Sommerhitze 2015 – Klimawandel oder ’normales‘ Wettergeschehen, Teil 1

Der Thematik gebührend, wird der Artikel etwas länger und der Autor kann dem Wunsch der Redaktion auf kurze Berichte (leider) nicht erfüllen. Denn Wissenschaft lässt sich nicht in 2-3 Sätzen fassen. So haben denn die folgenden Aussagen

– Klimawandel könnte künftig mehr Hitzetote fordern (DWD)

– Rückkehr der Sintflut (ZDF)

– Hilfe…Die Erde schmilzt (Der Spiegel)

 …. nichts mit Wissenschaft, sondern bestenfalls mit Sensationsmache zu tun. Personen, die der Presse und dem DWD weniger wohl gesonnen sind, würden Dummes Zeug dazu sagen.

Natürlich darf die Politik nicht fehlen, sich im Unsinn zu überbieten: "Hitzewellen, Stürme und Überschwemmungen haben schon in den vergangenen zehn Jahren spürbar zugenommen – Das ist aber nur ein kleiner Vorgeschmack. In den nächsten Jahrzehnten dürften die Wetterextreme in Deutschland noch deutlich schneller aufeinanderfolgen" Bärbel Höhn von den Grünen. Nun, von den Grünen ist man ja Unsinn gewöhnt. Wo Wissen fehlt, muss dies irgendwie anderweitig ersetzt werden. Die Grünen haben insofern Ihren Platz bereits gefunden. Deren Unsinn wird wohl nur noch getoppt durch Herrn Pachauri. So sagte er 2007 als IPCC-Präsident:

"2012 will be too late" to stop climate change. (hier)

Mittlerweile haben wir 2015 und die Welt ist nicht untergegangen. Dass sie auch in Zukunft nicht untergehen wird, zeigt dieser Artikel.

1. Höchststände der Temperatur von über 40°C

Da sich (Hitze-)Rekorde besonders gut eignen, eine vermeintliche Erwärmung zu „belegen“, sollen Temperaturvergleichsmessungen etwas genauer betrachtet werden. Das Institut für Meteorologie der Freien Universität Berlin sagt zu Temperaturvergleichsmessungen in seiner Zeitschrift “Berliner Wetterkarte“ (“Vor- und Nachteile durch die Automatisierungder Wetterbeobachtungenund deren Einfluss auf vieljährige Klimareihen“):

“Mangelnde Vergleichbarkeit der Messwerte alter mit neuer Sensorik bei

− Thermometer: früher Glasthermometer heute Pt 100 Sensor

− Niederschlagsmesser: früher Hellmann-"Kübel“ heute Wippengerät oder neuerdings Gewichtsmessung des Niederschlags

− Luftfeuchtigkeit: früher Haarhygrometer heute Taupunktfühler oder kapazitiver Sensor

− Windgeschwindigkeit früher Schalenanemometer heute Ultraschallgerät

− Schneehöhenmessung früher Schneepegel von Hand heute Laser oder Ultraschallgerät

− Niederschlagsart und Wettererscheinungen Schnee, Regen, Hagel sowie

− Ausfälle der Sensorik verschiedenster Art mit Störung der Klimareihen

− Umbruch der Messmethoden durch andere Mittelwertbildung der Tageswerte siehe:

Temperaturmessung beim DWD „Früher und heute“

All dies kommt zwar der Erfassung der aktuellen Wetterlage und damit der darauf aufbauenden Wettervorhersage sehr zugute – birgt aber in der Klimatologie erhebliche Nachteile bei der Vergleichbarkeit alter Messreihen mit denen mit neuer Sensorik gewonnenen Werte – ein „Äpfel und Birnen Vergleich“ liegt nahe.“

Und weiter:

“Temperaturmessungen früher

Messfühler Quecksilber / Alkohol = Glasthermometer, Stundenwert – jeweiliger Ablesewert um H –10 Minuten,Tagesmitteltemperatur aus den Mannheimer Stundenwerten, 07, 14 und 2 mal 21 Uhr geteilt durch 4,die Extremtemperaturen werden um 07 Uhr für das Minimum und 21 Uhr für das Maximum amGlasthermometer abgelesen.

Temperaturmessungen heute

Messfühler Pt 100Die Temperatur wird mit 2 Messfühlern zur gegenseitigen Kontrolle gemessen, jede Sekunde ein Wertgebildet und über eine Minute gemittelt – also MinutenmittelDie Tagesmitteltemperatur wird aus 24 Werten gebildet, jeweils um H – 10 Minuten ( z.B. 08:50 Uhrfür 09:00 Uhr ). Die Extremtemperaturen werden aus den Minutenmittelwerten zwischen 00 und 24 Uhr gebildet.“

Eine starke Aussage „Äpfel und Birnen Vergleich“! Bereits der obige Vergleich früher zu heute zeigt, dass Aussagen zu vermeintlichen Rekordtemperaturen wertlos sind. Das Institut der Freien Universität Berlin: “Wenn man nun betrachtet, dass früher die vom Beobachter gewonnenen Werte genau auf einen Ablesezeitpunkt bezogen waren, nun aber Temperaturmittelwerte aus einzelnen differenzierten Sekundenwerten gewonnen werden, bleiben Fragen nach der Vergleichbarkeit offen. Zudem wurden früher die Temperaturen in einer „englischen“ Wetterhütte gewonnen, heute jedoch in einer Kunststoff – Lamellenhütte (zu Beginn in ebensolchen aus Aluminium). Jede von ihnen hat eine je nach Tageszeit und vor allem bei Sonnenschein spezifische unterschiedliche Eigenart, die nicht nur Einfluss im untersten Zehntelgradbereich hat. Somit muss man beim Umgang mit Temperaturdaten in Bezug auf einen Anstieg der vieljährigen Mitteltemperaturen mehr Vorsicht walten lassen, als dies derzeit Praxis ist.“

Schaut man sich die Belege dazu an, wird die Aussage förmlich sichtbar (Abb. 1 und 2 aus o.g. Artikel entnommen).

 

Abb.1 zeigt, dass Temperaurabweichungen von 5°C und mehr in den Maximaltemperaturen keine Seltenheit sind. Originaltext: “Unterschiedliche tägliche Messwerte bedingt durch alte und neue Sensoren für die Temperaturmessungveranlassten den Verfasser, dass vom 1.1.1999 bis 31.7 2006 am Fliegerhorst Lechfeld(WMO 10856) 8 ½ Jahre lang täglich ohne Unterbrechungen u. a. Vergleichsmessungen vonQuecksilber-Maximum-Glasthermometern in einer Wetterhütte und Pt 100 Widerstandsthermometerin einer Aluhütte jeweils unbelüftet vorgenommen wurden. An den 3144 Tagen ergab sich einemittlere Differenz von + 0,93 Grad – Pt 100 höher als Quecksilber. Die maximal erfassteTagesdifferenz betrug gar 6,4 Grad !“

 

 

 

Abb.2: Auch im Tagestemperaturgang zeigt sich eine deutliche Abweichung nach oben, von +3°C bei den heutigen Messungen zu denen vor z.B. 15 Jahren.

Dazu kommen noch die vom Menschen in seine Messungen eingebrachten Wärmeinseleffekte (WI). EIKE berichtete darüber:

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

Abb.3 zeigt im Vergleich zu den DWD-Temperaturvergleichsdaten, die um die WI-Effekte bereinigte und damit korrekte Temperaturvergleichsmessung. Seit Beginn der DWD-Temperaturreihe ist eine Verfälschung in den Temperaturjahresvergleichsmessungen durch den WI um gut 1°C nach ober zu verzeichnen.

2. Erwärmungsenergie

Doch unbestreitbar sind die Jahre 2014 und der Sommer 2015 wärmer ausgefallen, als z.B. 2012 und 2013, wo ähnlich gemessen wurde. Woher stammt dann die zusätzliche Energie, die für eine Erwärmung notwendig ist? Schauen wir daher auf den Energiespender für die Erde, die Sonne.

Abb.4, Quelle: (http://www.solarham.net/) zeigt die auf der Erde angekommene Strahlungsintensität der Sonne. Derzeit ist keine im Vergleich aktive solare Aktivität zu verzeichnen.

Da sich das Wettergeschehen in der Atmosphäre abspielt, soll noch ein weitere solarer Parameter betrachtet werden, der von unser Atmosphäre absorbiert wird und daher nicht auf die Erdoberfläche gelangt, dessen Energie jedoch, durch die Absorption in der Erdatmosphäre aufgenommen wird, die Röntgenaktivität der Sonne. Sie gibt Aussage über die Korona Aktivität der Sonne, also über ihre atmosphärische Aktivität. Diese steht über den Sonnenwind in direktem Kontakt zur Erdatmosphäre.

 

Abb.5, Quelle: (http://sidstation.loudet.org/solar-activity-en.xhtml) zeigt die Röntgenaktivität der Sonne. Hier ist indes starke Aktivität erkennbar, wenn auch nicht in dem Maße, wie Anfang des Jahrhunderts).

Verantwortlich für die hohe Röntgenaktivität sind die Salar Flares, die auch für eine hohe Aktivität im Sonnenwind stehen und die kosmische Strahlung von der Erde fern halten, was zu weniger Wolken, weniger Regen und mehr Sonneneinstrahlung führt.

Abb.6, Quelle wie Abb.5 zeigt die Aktivität der Solar Flares. Gut zu erkennen, dass diese gegenwärtig sehr hoch ist.

Seit Svensmark ist bekannt, dass geladene Aerosolpartikel, die verstärkt durch kosmische Strahlung entstehen, bis zu 10-mal so effektiv in der Bildung von Wolkentröpfchen sind als ungeladene. Da die kosmische Strahlung durch starken Sonnenwind und hohe Röntgenaktivität der Sonne geschwächt wird, entstehen weniger geladene Aerosolpartikel, die als Ausgangsbasis für die Bildung von Wolkentröpfchen zur Verfügung stehen.

Des Weiteren schwächt starker Sonnenwind das Magnetfeld der Erde (insbesondere die Bz-Komponente des Sonnenwindes, die parallel zum Erdmagnetfeld verläuft und dadurch am stärksten mit ihm wechselwirkt, ist hierfür verantwortlich.

Mit dem Sonnenwind wird auch die magnetische Stromschicht (HCS = Heliospheric Current Sheet) transportiert.

Heliospheric Current Sheet (HCS)

Da das Interplanetarische Magnetfeld auf der Erdbahn mit bis 1 – 10 nT, 100 bis 1000-fach stärker ist, als das Dipolfeld der Sonne dies erwarten lässt (magnetische Dipolfelder klingen mit der dritten Potenz des Abstandes ab), muss es einen Effekt geben, der das Feld verstärkt. Dies ist die Heliosphärische Stromschicht, die bis an die Grenzen des Sonnenwindes reicht. Dabei hat sie eine Breite von ca. 60.000 km (http://wind.nasa.gov/mfi/hcs.html#table). Der elektrische Strom in der HCS ist radial einwärts gerichtet und liegt bei maximal 10-4 A/km2. Entgegen den Sonnenstrahlen wirkt es nicht in der Kreisfläche, sondern auf der Kugelfläche der Erde, wenn die Erde die HCS passiert.

Abb.7 zeigt die Lage der Heliosphärischen Stromschicht der Sonne (Heliospheric Current Sheet) von 1976 – 2015 anhand zweier Analysemethoden.

Berechnet wird die Kurve aus den Datenreihen:

  • des Sonnenpolarfeldes
  • des zonalen magnetischen Flusses über drei Sonnenzyklen und
  • der solaren Dipolkomponenten, Quelle: (http://wso.stanford.edu/)

Der daraus ermittelte zeitabhängige Wert trägt den Namen “HCS Tilt Angle“

Beide vorherigen Abbildungen deuten darauf hin, dass derzeit der Sonnenwind vergleichsweise hoch ist.

Abb.8, Quelle: NASA, zeigt die Sonnenwindstärke im Zeitraum von 1990 bis 2015. Obwohl in 2015 die Sonnenaktivität, wie sie sich in den Sonnenflecken und der magnetischen Aktivität widerspiegelt (Abb.4) vergleichsweise schwach ist, ist in 2015 eine deutliche Zunahme zu erkennen.

Wie die oben gezeigte Parameter unmittelbar mit dem Wettergeschehen zusammenhängen, zeigt Abb.9.

Die elektrische Leitfähigkeit der Atmosphäre, sowie die Blitzanzahl variieren mit der kosmischen Strahlung, Quelle: (http://www.slac.stanford.edu/cgi-wrap/getdoc/slac-wp-020-ch11g-Kirkby.pdf).

 

Abb.9 links zeigt die Schwankungen des Vertikalstromes zu der kosmischen Strahlung (GCR) in der Polarregion und die Abbildung rechts die Blitzhäufigkeit pro Jahr in Abhängigkeit zur GCR in den USA. Sowohl der Vertikalstrom, als auch die Blitzhäufigkeit schwanken mit der kosmischen Strahlung.

Wie sehr elektrische Effekte in der Atmosphäre die Kondensationsbildung und damit die Bewölkungsmenge steuern, wird bei einem Forbush-Ereignis (nach dem Geophysiker Scott E. Forbush, der den Effekt entdeckte) sichtbar. Ein Forbusch-Ereignis ist ein plötzlicher Abfall der kosmischen Strahlung wegen plötzlich auftretender starker Sonnenaktivität, da durch erhöhte Sonnenaktivität der Sonnenwind die kosmische Strahlung von der Erde ablenkt. Bei einem SCR-Ereignis (Solar Cosmic Ray) gelangen hochenergetische Protonen von der Sonne zur Erde.

 

Abb.10 zeigt den Rückgang bei Regen während einem Forbush-Ereignis (During Forbush GCR decrease). Deutlich zeigt sich, dass die Niederschlagsmenge stark zurückgeht, was darauf zurückzuführen ist, dass weniger elektrisch geladene Aerosole für Wolkenbildung zur Verfügung stehen. Quelle: http://www.slac.stanford.edu/cgi-wrap/getdoc/slac-wp-020-ch11g-Kirkby.pdf

 

Abb.11 (Quelle, wie Abb.10) zeigt die Änderung der Regenmenge während eines SCR-Ereignisses (During ground-level, SCR increase, Quelle wie oben). Dabei zeigt sich, dass die Regenmenge deutlich zunimmt, was auf die zunehmende Ionisation in der Atmosphäre und dadurch ausgelöst eine Zunahme von elektrisch geladenen Aerosolpartikeln zurückzuführen ist.

Derzeit klagen weite Teile über große Trockenheit und zu wenig Regen. Die Antwort darauf geben die Abb.5 bis 11.

1. Ergebnis

Die derzeit zu registrierende Trockenheit ist auf verstärkte solare Aktivität im Röntgenbereich und ihrer Flares zurück zuführen (Stichwort: Svensmark Effekt, stanford.edu) und ist damit vorüber gehend.

Teil 2 in Kürze

Raimund Leistenschneider – EIKE

 

 




9 Fragen zur Energiewende

Zusammenfassung

– Die Undurchführbarkeit der Energiewende wird immer deutlicher. Physik und solide Technik lassen sich nicht durch politisches Wunschdenken ersetzen. Die Energiewende entspricht den Planwirtschaften von Diktaturen. Solche Maßnahmen enden regelmäßig katastrophal.  

– Windräder und Solarzellen können die fossilen Brennstoffe Kohle und Gas sowie Uran nicht ersetzen. Die Gründe: zu geringe Leistungsdichte, fluktuierende Stromerzeugung (Flatterstrom) und die prinzipielle Unmöglichkeit Strom unter vertretbaren Umständen in großem Maßstab zu speichern. Insbesondere Windräder weisen einen extremen Flächenverbrauch auf, zerstören Landschaften und Wälder, töten Flugtiere in großem Umfang und schädigen Anrainer gesundheitlich durch Infraschall. Die Stabilität unseres Stromnetzes wird durch Flatterstrom aus Wind und Sonne stetig verringert. Bei weiterer Zwangseinspeisung von Flatterstrom sind Black-Out Ereignisse mit gefährlichen Folgen zu erwarten.

Inhalt

1. Frage: Wie wichtig sind Kohle, Erdöl, Gas, Uran, Wind, Sonne, Energiepflanzen für unsere Energieversorgung?

2. Frage: Was bedeutet „Energiewende“?

3. Frage: Was bedeutet das Erneuerbare-Energien-Gesetz (EEG), was hat es bewirkt?

4. Frage: Welche Umwelt-Auswirkungen haben Kohle-, Gas-, Uran-, Wind-, Sonnen- und Energiepflanzen-Strom?

5. Frage: Was sind die technischen Nachteile von Windrädern, Photovoltaik und Energiepflanzen?

6. Frage: Was sind die technischen Vorteile von Windrädern, Photovoltaik und Energiepflanzen?

7. Frage: Wie hoch sind die Kosten der Energiewende, schafft die Energiewende neue Arbeitsplätze?

8. Frage: Wo bleiben die neuen revolutionären Techniken, welche die Energiewende zum Erfolg führen werden?

9. Frage: Wenn wir fossile Brennstoffe verfeuern, sind wir dann nicht verantwortungslos gegenüber unseren Nachkommen?

1. Frage: Wie wichtig sind Kohle, Erdöl, Gas, Uran, Wind, Sonne, Energiepflanzen,… für unsere Energieversorgung?

Die fossilen Brennstoffe, im Wesentlichen Kohle, Gas, Erdöl sowie Uran liefern heute (2014) fast 90% aller in Deutschland verbrauchten Gesamtenergie, ~10% steuern die sog. Erneuerbaren bei. Wind und Photovoltaik erbringen davon nur ~3%, die restlichen ~7% stammen aus Wasserkraft, Holz, Faulgas, Biodiesel und weiteren. An dieser Zusammensetzung wird sich trotz der Energiewende auch in Zukunft wenig ändern (Zahlen erhältlich in [BWMI]).

Fossile Brennstoffe: ~55% von ihnen erzeugen Wärme für Hausheizungen und Industrieprozesse, ~33% verbrauchen der Verkehr (Erdöl) und ~9% erzeugen die Hälfte des elektrischen Stroms, der fast alle modernen Geräte, Maschinen und die Bahn antreibt. Die wichtigsten „Fossilen“ Kohle und Erdöl sind und bleiben unverzichtbar für Industrieproduktion und Infrastruktur (Strom, Wasserversorgung, Medizin, Fahrzeuge, elektronische Kommunikation der Ordnungskräfte, Radio, Fernsehen, Telefon, Logistik der Lebensmittelversorgung usw.). „Erneuerbare“ können hier nur zu unwesentlichen Anteilen Ersatz liefern (s. Frage 2), und Gas ist zu teuer. Eine moderne Industrienation kann ohne Kohle und Erdöl nicht existieren!

Nur moderne Brutreaktoren können die Fossilen einmal ablösen, Windräder oder Solarzellen nicht. Der mit diesen Reaktoren produzierte Strom wird auch Kohlenwasserstoffe (Treibstoffe) synthetisieren, die dann das Erdöl ersetzen. Moderne Brutreaktoren [BRU] gibt es längst, z.B. den BN-800 Reaktor im russischen Kernkraftwerk Belojarsk bei Jakterinburg. Sie nutzen 100% des Kernbrennstoffs Uran, haben praktisch keinen Abfall und können inhärent sicher gebaut werden. Die heutigen Kernreaktoren nutzen dagegen nur 1% des Kernbrennstoffs. Auf Weiterentwicklung und Forschung an Brutreaktoren in Deutschland zu verzichten ist absurd, was kann man noch mehr von einer Stromerzeugungsmethode verlangen?

Elektrischer Strom: Trotz seines relativ geringen Energieanteils ist elektrischer Strom für eine moderne Industrienation die wichtigste Energieform. Strom macht ~20% des Gesamtenergieverbrauchs Deutschlands aus. Er kommt zu ~70% aus Kohle, Gas und Uran und nur zu ~15% aus Wind und Sonne. Das bestens speicherfähige Uran wird unsinnigerweise aus Deutschland verbannt, obwohl etwa 100 Kernkraftwerke nahe unserer Grenzen betrieben werden [KKW].

2. Frage: Was bedeutet „Energiewende“?

Die Ziele der Energiewende sind von der Bundesrepublik dokumentiert [BMBU]. Der Plan sieht bis zum Jahre 2050 im Vergleich zu 2012 vor:

–  Steigerung des Anteils von Wind, Sonne und Energiepflanzen an der Stromerzeugung Deutschlands auf 80%

– Reduktion der CO2 Emissionen um 85 bis 95%

– 6 Millionen Elektroautos auf deutschen Straßen

– Senkung des Stromverbrauchs um 20%.

Unabhängige Energiefachleute bezeichnen dieses Vorhaben als sinnlos und für unsere Wirtschaft fatal [SINN]. Stellvertretend nur zwei Punkte, die diese Einschätzung gemäß den Fakten bestätigen: Die Reduktion der CO2 Emissionen um 90% würde jede  industrielle Produktion unmöglich machen und Deutschland als Agrarstaat der dritten Welt zurücklassen. Und 25% weniger Stromverbrauch bei gleichzeitig 6 Millionen Elektroautos mehr?

Die deutsche Energiewende konzentriert sich auf elektrischen Strom und somit auf nur 20% des Gesamtenergieverbrauchs Deutschlands. Daher ist sie zuförderst eine „Stromwende“. Eine stabile Stromversorgung ist für unser schieres Überleben unverzichtbar. Ohne Heizung und Sprit kann man überleben, nicht aber ohne Strom. Bei Stromausfall brechen Wasserversorgung, Radio, Fernsehen, Telefon, d.h. die gesamte öffentliche wie private Kommunikation und nur wenig später auch die Ketten der Lebensmittelversorgung für die Supermärkte zusammen, und insbesondere die Ordnungskräfte werden „blind und taub“. Bisherige Erfahrungen zeigen das schnelle Zerbröckeln der öffentlichen Ordnung bei einem großflächigen Black-Out. Es beginnt in der Regel mit dem Plündern von Geschäften und Supermärkten. Die Bundesdrucksache [DRU] belegt die Folgen detailliert, ihre Lektüre ist nichts für schwache Nerven.

Die maßgebenden von der Energiewende vorgesehenen Änderungen der deutschen Energiestruktur sind extrem kritisch und gefährlich. Ihnen müssten zumindest im Vorfeld sorgfältigste Erhebungen zu ihren Auswirkungen vorausgehen. Ferner wäre ihre Durchführung allenfalls in kleinen, kontrollierten Schritten unbedenklich. Davon ist im Fall der deutschen Energiewende aber nicht die Rede. Sie ist der sprichwörtliche Sprung in unbekannte Gewässer, initiiert von Politikern, die skrupellos den Bruch ihres Amtseides billigend in Kauf nahmen, der sie verpflichtet Schaden vom deutschen Volke abzuwenden.

Allerdings wurden die Risiken und Probleme – heutzutage als „Herausforderungen“ verniedlicht – von maßgebenden Politikern durchaus erkannt. So sprach die Klimakanzlerin A. Merkel in diesem Zusammenhang von einer „Operation am offenen Herzen“ und ihr ehemaliger Umweltminister Altmeyer von der „deutschen Mondlandung“. Das hindert sie jedoch nicht, die zwangsläufigen katastrophalen technischen Verwerfungen, die Umweltschäden durch Windräder und Energiepflanzen und nicht zuletzt die sich zu horrenden Größen aufsummierenden Kosten der Energiewende nicht nur billigend in Kauf zu nehmen, sondern durch immer neue Gesetze und Bestimmungen diese Schäden immer weiter zu erhöhen und zu verfestigen.

3. Frage: Was bedeutet das Erneuerbare-Energien-Gesetz (EEG), was hat es bewirkt?

Das EEG sieht die Zwangseinspeisung von Strom und Subventionen im gesamten Energiesektor für Strom aus Windrädern, Photovoltaik und Energiepflanzen vor. Es ist ein rein planwirtschaftliches Gesetz im besten Stil von Diktaturen wie der ehemaligen DDR [EEG]. Einzelheiten aufzuzählen verbietet sich aus Platzgründen, populär bekannt sind die Einspeisevergütungen für Solarstrom, die immer noch dramatisch über den Gestehungsstrompreisen von Kohle- und Uranstrom liegen. Allein die bisherige Auswirkung des EEG ist katastrophal (nur nicht für ihre Profiteure) wie ausnahmslos bei allen planwirtschaftlichen Maßnahmen. Ein stellvertretendes historisches Beispiel für ähnliche Aktionen liefert der „große Sprung“ Chinas unter Mao Zedong von 1958 – 1961, der im Desaster endete und Millionen Chinesen verhungern ließ. Als wichtigste Schäden des EEG sind zunächst (nur) die horrenden Kostensteigerungen für Strom und die Umweltzerstörungen durch Windräder und Energiepflanzen zu nennen. Humorig wirkt dagegen auf den Leser des EEG der als politisches Ziel formulierte Wolkenkuckuckswunsch der StromkostenSENKUNG!

Physik und technische Regeln wurden beim EEG durch politischen Willen ersetzt. Die Politik hat fachlich unhaltbaren Gutachten von interessierten ökoideologischen oder finanziell profitierenden Gruppen blinden Glauben geschenkt. Neutrale Fachleute wurden nicht angehört. Das EEG zerstörte gründlich den freien Markt und löste eine ungebremste Kostenlawine aus. Die langfristig gesicherten Zwangsvergütungen für Wind- und Sonnenstrom erzeugten eine ungesunde Blase grünen Stroms und lockten Anbieter aus dem Ausland an, etwa chinesische Solarfirmen. Die schädlichen Auswirkungen auf die deutsche Solar- und Windradindustrie sind bekannt. Die mit Milliardenbeträgen subventionierte Solarindustrie spielt hierzulande keine Rolle mehr, der Windindustrie blüht ein ähnliches Schicksal.

Doch mittlerweile gibt es – in der Regel zur unpassenden Zeit – so viel Wind- und Solarstrom, dass sich katastrophale Szenarien entwickelten. Ein ehemals funktionierender Strommarkt ist heute zu einer Non Profit Zone kurz vor dem Zusammenbruch verkommen. Und dabei ist der Anteil alternativer Energien sogar nur minimal! In Bezug auf die versprochene und auch zu erwartende Senkung der CO2 Emissionen hat das EEG hingegen nichts bewirkt. Trotz extrem schädlicher Auswirkungen auf Strompreis und Umwelt lagen 2014 die CO2 Emissionen fossiler Kraftwerke nur um lächerliche 2% unter denen vom Jahre 2000.

4. Frage: Welche Umwelt-Auswirkungen haben Kohle-, Gas-, Uran-, Wind-, Sonnen- und Energiepflanzen-Strom?

Kohlenutzung hatte früher sehr schädliche Umweltauswirkungen. Diese Zeiten gehören infolge modernster Filtertechniken der Vergangenheit an. Kohlekraftwerke Deutschlands emittieren heute nur noch den unschädlichen Wasserdampf aus Kühltürmen sowie das unsichtbare Naturgas CO2. CO2 trägt zum Pflanzenwachstum und dadurch zu besseren Ernten von Nahrungspflanzen bei. Klimaauswirkungen des menschgemachten CO2 sind bis heute nicht mit Messungen nachweisbar, werden aber von ideologisch und politisch interessierten Gruppen einfach behauptet. Einzig der Tageabbau von Braunkohle ist mit temporärem Landverlust verbunden. In Ostdeutschland zeigen freilich die zu Bade-Seen gefluteten Gruben, die heute gesuchte Erholungsgebiete sind, dass von einer bleibenden Naturzerstörung durch Braunkohleförderung keine Rede sein kann.

Einen Umwelteinfluss von Gas- und Kernkraftwerken gibt es praktisch nicht. Insbesondere Kernkraftwerke weisen Null Emissionen auf.

Von Windrädern, Photovoltaik und Energiepflanzen ist nur die Photovoltaik einigermaßen unbedenklich, wenn man von der Gewinnung der zu ihrer Produktion benötigten Rohstoffe absieht. Windräder dagegen zerstören ganze Landschaften und töten Greifvögel sowie Fledermäuse in großer Anzahl (s. Bild). Infraschall von Windrädern breitet sich über viele Kilometer aus, erzeugt Gesundheitsschäden bei Anwohnern sowie Konzentrationsstörungen bei Schulkindern [IFS] (hier, hier) und dringt bis in die als Schallresonatoren wirkenden Abwasserrohre von Siedlungen ein. Die zunehmende Bürgerprotestwelle gegen Monster-Windräder belegt die Schädlichkeit von Windrädern in einem dicht besiedelten Land mit nur noch wenigen verbliebenen Naturgebieten.

Die langfristige Schädlichkeit von Energiepflanzen ist weniger bekannt. Die Verbreitung von Energiepflanzen hat das Entstehen großflächiger Monokulturen und die Vernichtung von ehemals gesunden Biotopen bewirkt. Auf Energiepflanzen-Äckern ist jedes frühere Tierleben bedrückender Friedhofsstille gewichen. Energiepflanzen verdrängen Nahrungspflanzen, verteuern sie und tragen zum Hunger in den ärmsten Ländern der dritten Welt bei. Energiepflanzen sind daher menschenverachtend und unethisch.

5. Frage: Was sind die technischen Nachteile von Windrädern, Photovoltaik und Energiepflanzen?

5.1 Die Leistungsdichte der „erneuerbaren“ Energieträger ist zu klein

Gemäß den unabänderlichen technisch/naturwissenschaftlichen Grundgesetzen wächst die Effizienz einer Methode zur Stromerzeugung mit der Leistungsdichte ρ = L / A  [W/qm] des Betriebsmediums (Wärme, Sonnenstrahlung, Wind). Mit L ist hier zum besseren Vergleich die erbrachte Stromleistung in Watt [W] bezeichnet, mit A die Fläche in Quadratmeter [qm]. Bei Photozellen ist A deren Oberfläche, bei Windrädern ist A die vom Propeller überstrichene Fläche, bei Kohle ist A die Fläche der Begrenzungswand des Brennraums. Einige Zahlenbeispiele für ρ in Deutschland und jahresgemittelt: Solarzellen  ~10 W/qm, Windräder (Hessen) ~40 W/qm, Kohlekraftwerk ~150 000 W/qm.

Bei kleiner Leistungsdichte ρ muss gemäß L = ρ · A die Fläche A groß sein, um ausreichende Leistung L zu erzielen. Man versteht nun, warum Windräder so riesig sind und immer in Rudeln, beschönigend „Parks“ genannt, errichtet werden.

Quelle Buer (hier, hier). Die Leistungsdichte von Wind ist generell zu klein für eine wirtschaftliche Nutzung, von Nischenanwendungen abgesehen. Das wussten schon unsere Vorfahren und gaben daher freudig die Segelschiffahrt zugunsten des späteren Dampf- oder Dieselbetriebs auf. Große Flächen A bedingen hohen Materialverbrauch, hohe Kosten und hohe Umweltschädigung. So verbraucht ein typisches Windrad vom Typ E126 satte 1500 m3 Beton, 180 t Stahl, hat eine effektive Leistung (Jahresschnitt Deutschland) von 1,3 MW und eine Lebensdauer von 20 Jahren. Es benötigt Stromleitungen sowie Schattenkraftwerke zum Fluktuationsausgleich (s. unter 5.2) und zu seinem Bau sind riesige Waldschneisen zu schlagen. Die Energiezahlen (s. auch Frage 1) zeigen übrigens, dass Erdöleinsparung im Verkehr von nur ~8% die Stromerzeugung  aller Windräder Deutschlands ersetzt. Kraftstoffeinsparung und Verschrottung aller Windräder wäre somit die erste sinnvolle Aktion einer neuen „Energiewende“.

Wie groß ist der Flächenverbrauch der „Erneuerbaren“. um hypothetisch allen Strom Deutschlands zu erzeugen? Grobwerte der Rechnung sind für 2014: Gesamtstromerzeugung Deutschlands ~600 TWh, Gesamtzahl 25600 Windräder, Windradstromanteil 9,7%, Flächenbedarf pro Windrad ~0,35 qkm [FRAUN].

Die Ergebnisse:

·  Mit Windrädern etwa die Fläche Bayerns,

·  Mit Photovoltaik dreimal die Fläche des Saarlandes,

·  Mit Energiepflanzen die Gesamtfläche Deutschlands.

Nicht berücksichtig ist bei dieser Rechnung, dass der erzeugte Strom (Energiepflanzen ausgenommen) fluktuiert und daher weitgehend unbrauchbar ist (s. unter 5.2).

Die geringe Leistungsdichte der „Erneuerbaren“ und, daraus zwangsweise folgend, der hohe Material- und Kostenaufwand machen es GRUNDSÄTZLICH unmöglich, mit „Erneuerbaren“ kostengünstigen Strom zu erzeugen. Alle immer wieder zu vernehmenden Aussagen interessierter Gruppen über preiswerten „grünen Strom“ sind bewusste Faktenfälschung wider besseres Wissen oder Hoffnungswünsche aus schierer Dummheit oder aus Unkenntnis der Naturgesetze.

5.2  Windräder und Photovoltaikzellen erzeugen unbrauchbaren „Flatterstrom“

In jedem Stromnetz muss zu jedem Zeitpunkt die Menge des erzeugten Stroms bei stabiler Frequenz der des Verbrauchs entsprechen, anderenfalls bricht das Stromnetz zusammen. Diese Grundbedingung können Wind- und Sonnenstrom ihres extrem unsteten Aufkommens wegen (Flatterstrom) nicht erfüllen. Da es keine wirtschaftliche Methode der Stromspeicherung in großem Maßstab gibt und aus physikalischen Gründen auch nie geben kann, sorgen heute fossile Ersatzkraftwerke des gleichen Leistungsumfangs wie dem der auszugleichenden „Erneuerbaren“ für den Fluktuationsausgleich. Damit hat man ein doppeltes System von Kraftwerken eingerichtet – mit deutlich höheren als den doppelten Kosten, denn die Ersatzkraftwerke müssen wegen ihres notwendigen Reaktionsvermögens mit teurem Gas betrieben werden. Das gesamte Verfahren ist technisch/wirtschaftlicher Irrsinn. Die Vernunft fragt „warum ein doppeltes Kraftwerkssystem und besser nicht gleich nur die fossilen Kraftwerke ohne die nutzlosen Windräder oder Photozellen“, sie kommt aber gegen den Öko- und Klimawahn Deutschlands nicht an.

6.  Frage: Was sind die technischen Vorteile von Windrädern, Photovoltaik und Energiepflanzen?

Es gibt nur einen, nämlich die nicht vorhandenen Brennstoffkosten. Demgegenüber stehen aber höhere Wartungs- und Investitionskosten. Windstrom aus der Nordsee hat Erzeugungskosten von ~19 Ct/kWh (EEG Einspeisevergütung). Darin nicht enthalten sind die Kosten der Ersatzkraftwerke zum Fluktuationsausgleich und den Stromtransport. Der Stromtransport übersteigt die hier gültigen Normalkosten bei weitem, weil die Leitungen nur mit Windstrom, also nur zu ~20% der Gesamtzeit ausgelastet sind. Genaue Zahlen über diese Kosten sind nicht erhältlich. Das geschätzte Fünffache der Kosten von Kohlestrom verglichen mit Windstrom ist daher realistisch.

Die extrem geringe Ersparnis an fossilen Brennstoffen können die extremen Nachteile der „Erneuerbaren“ nicht wettmachen. Der Bau und Betrieb von Photozellen und Windrädern verschlingt bereits einen hohen Anteil an Energie, der erst über die gesamte Lebenszeit des Windrads wieder aufgeholt wird. Die Kennzahl, die diese Verhältnisse verdeutlicht, ist der Erntefaktor EF = ES / KEA, ES ist die über die gesamte Lebensdauer des Kraftwerks erzeugte Stromenergie und KEA der gesamte energetische Aufwand für seinen Bau, Betrieb und die Brennstoffbereitstellung. Beispiele für den EF sind [EFA]: Photozelle 1,7, Windrad 4,5, Kohlekraftwerk 30, Kernkraftwerk 75.

7. Frage: Wie hoch sind die Kosten der Energiewende, schafft die Energiewende neue Arbeitsplätze?

Der bekannte Politikwissenschaftler und Statistiker Björn Lomborg schrieb in der FAZ vom 8.5.2015:

„Makroökonomische Modelle weisen zudem darauf hin, dass der wirtschaftliche Verlust durch Erneuer­bare wesentlich größer sein könnte als ein­fach nur deren Mehrkosten, da erhöhte Produktionskosten alle anderen Branchen schwächen und das Wachstum drosseln. Der Durchschnitt aller großen Modelle deutet darauf hin, dass die derzeitige Kli­mapolitik Deutschland bis 2020 jährlich 43 Milliarden Euro kostet.

Tatsächlich haben wir bis zum Jahre 2013 allein für das EEG bereits rd. 122 Mrd. €  bezahlt, es kommen über die folgenden 20 Jahre (Laufzeit der EEG Verträge) noch einmal 330 Mrd. € dazu. Geht die Entwicklung so weiter, wird bis 2022 ist bereits die 1,2 Billionen € Grenze überschritten und bis zum Jahre 2050 landen wir irgendwo bei 7 bis 9 Billionen €. Dies alles bei einem Gegenwert, der gleich Null ist. Allein die zusätzlichen Stromkosten, die das Erneuerbare-Energien-Gesetz (EEG) verursacht, lassen sich mit 2 Billionen € veranschlagen. Die zusätzlichen Kosten für das Stromnetz mit weiteren Trassen müssen auf 1 bis 1,5 Billionen € veranschlagt werden. Die Energiesparverordnung (EnEV) führt zu einer Kostenbelastung von rund 3 Billionen €. Und weiter: Mit zu hohen Stromkosten verlieren Betriebe an Wettbewerbsfähigkeit. Zwingt das, wie es schon geschieht, zu Schließungen oder zu Verlagerungen ins Ausland, gehen Arbeitsplätze dauerhaft verloren. Die Kosten, die sich daraus ergeben, sind noch nicht bezifferbar, aber es werden viele weitere Milliarden sein. Hinzu kommt, dass mit immer mehr Windkraft- und Photovoltaikanlagen die Gefahr für die Netzstabilität noch größer wird als bereits bisher. Denn der Strom mit Wind und Sonne ist unstet. Netzzusammenbrüche führen zu flächendeckenden Stromausfällen. Auch diese Kosten lassen sich vorher schwer berechnen. In die Milliarden werden auch sie gehen. Da 7 Billionen €  Mindestschätzungen sind, kann man erwarten, dass die 9 Billionen-Grenze sogar überschritten wird. Man darf nicht übersehen, dass Investitionen in „Erneuerbare“ eine zusätzlich Infrastruktur schaffen, zusätzlich zur bereits bestehenden!  Und nur durch deren verordnete Zwangsabnahme, dank der gesetzlichen Vorrangeinspeisung, hat diese überhaupt Abnehmer, bzw. einen Markt

Die Frage nach Schaffung neuer Arbeitsplätze durch die Energiewende ist mit „Ja, aber nicht wirklich“ zu beantworten. Jeder durch die Energiewende gewonnene Arbeitsplatz geht durch den Kaufkraftverlust der Verbraucher des teuren Wind- und Sonnenstroms wieder mehrfach verloren. Hierüber gibt [GREEN] (hier, hier) Auskunft. Andere Länder haben die „Botschaft“ längst begriffen. In Spanien gingen 2,2 Jobs für jeden geschaffenen grünen Job verloren, was zur Aufgabe aller Windradsubventionen im Jahre 2010 führte. In Italien war das Kapital, um einen grünen Job zu erzeugen, für die Schaffung von 4,8 bis 6,9 Jobs in restlicher Industrie äquivalent. In England waren 3,7 verlorene Jobs einem grünen Job äquivalent. Holland gab im Jahre 2011 die Subventionen für Windräder praktisch auf. All dies belegt, dass die deutsche Energiewende nur durch üppige grüne Subventionen am Leben erhalten werden kann. Würden diese wegfallen, wäre der für den Steuerzahler so kostspielige und für unsere Naturumgebung so schädliche Energiewendespuk in wenigen Wochen verschwunden.

8. Frage: Wo bleiben die neuen revolutionären Techniken, welche die Energiewende zum Erfolg führen werden?

Wir haben es fast täglich mit neuen Geräten, Maschinen und Methoden von erstaunlichen Eigenschaften und Vorteilen zu tun, insbesondere in Medizin, Computertechnik und Kommunikation. Dadurch hat sich bei vielen Laien die Auffassung festgesetzt, dass praktisch alles technisch möglich sei, man müsse es nur wollen. Die unabdingbaren Kriterien und Fakten gehen bei solch naivem Glauben unter. Es sind:

  1. – Jede technische Neuerung muss auf Dauer einen wirtschaftlichen Vorteil gegenüber den bisherigen Lösungen aufweisen, sonst setzt sie sich nicht durch.
  2. – Technischer Fortschritt ist nur mit, nicht aber gegen die technischen und naturwissenschaftlichen Grundgesetze möglich.

Windräder, Photovoltaik und Energiepflanzen kollidieren bereits mit der Forderung 2, denn die zu geringe Leistungsdichte von Wind, und Sonne und die damit verbundenen Nachteile sind grundsätzlich nicht behebbar. Hinzu kommt die Fluktuation von Wind- und Sonnenstrom. Wir können wir nun einmal nicht bestimmen, wann der Wind bläst und wann die Sonne scheint. Damit muss die Energiegewinnung aus „Erneuerbaren“ zwangsläufig teurer sein als fossile Verbrennung oder gar Kernenergie.

Oft wird behauptet, es könne bei der heutigen Geschwindigkeit des technischen Fortschritts nicht mehr lange dauern, bis Speichermöglichkeiten für unstetigen Wind- und Sonnenstrom zur Verfügung stünden. Dieser Hoffnung beruht auf Unkenntnis der Physik. Die Suche nach Batterien mit vernünftiger Ladekapazität und langer Lebensdauer hat bereits mit Beginn der Nutzung des elektrischen Stroms eingesetzt. Jeder Fachmann bezeugt, dass es auf dem Sektor „Batterie“ keine Hoffnung auf einen maßgebenden Verbesserungssprung geben kann. Der Grund liegt in der Physik selber, die keine direkte Speicherung von elektrischem Strom in großem Maßstab erlaubt.

Alle anderen, indirekten Speichermethoden, von Pumpspeicherwerken, über Ringwallspeicher, bis hin zu „Power to Gas“, werden nur von den Herstellern gepriesen. Sie sind hoffnungslos unwirtschaftlich und haben keine reelle Chance in Zukunft jemals wirtschaftlich zu werden. Dafür sind ihr Aufwand und ihre Energieverluste viel zu hoch. Für die beste aller möglichen Lösungen, nämlich Pumpspeicherwerke, sind hierzulande nicht die topologischen Bedingungen gegeben – hohe Berge, tiefe Täler und viel Platz.

Es ist im Übrigen zu wenig bekannt, dass alle heutigen technischen Neuerungen auf grundlegenden Erfindungen beruhen, die schon das 19. Jahrhundert hervorbrachte. Außer der Nutzung der Kernenergie ist danach nicht mehr allzu viel Grundlegendes passiert. Lediglich die technischen Anwendungen der alten Erfindungen haben sich explosionsartig vermehrt, wobei eine immer stärkere Sättigung ihrer Verbesserungen feststellbar ist. Um so etwas wie die Energiewende zu einer brauchbaren Aktion zu machen, bedarf es dagegen grundlegender Neuerungen, die nicht in Sicht sind (Moderne Brutreaktoren ausgenommen).

9. Frage: Wenn wir fossile Brennstoffe verfeuern, sind wir dann nicht verantwortungslos gegenüber unseren Nachkommen?

Jeder gute Kaufmann sucht seine Kosten zu minimieren. Insofern ist es sehr vernünftig mit fossilen Brennstoffen so sparsam wie möglich umzugehen. In diesem Punkt ist unsere Industrie schon lange auf dem richtigen Weg. Autos werden auf Benzinsparsamkeit getrimmt, der Wirkungsgrad fossiler Kraftwerke wird mit modernster Technik immer wieder ein kleines Stück verbessert. Die wirtschaftliche Bedeutung dieser Maßnahmen ist unwidersprochen, auch die vorliegenden „9 Fragen“ schließen sich an.

Etwas ganz anderes stellt aber die Forderung nach grundsätzlicher Einsparung von fossilen Ressourcen dar, weil diese für die zukünftige Chemie zu schade zum Verfeuern seien, weil wir Verantwortung für unsere Nachkommen tragen müssten und weitere Gründe mehr. Woher kommt diese Auffassung und ist sie überhaupt vernünftig?  Propagiert wurde sie von den ab Mitte des 20. Jahrhunderts aufkommenden Umweltbewegungen sowie in den Berichten des Club of Rome (1972, 1974) . Massive Ängste verstärkten sich, wie sie bereits von Thomas Robert Malthus (1766-1834) angefacht wurden. Die Zunahme der Weltbevölkerung würde zwangsläufig zu einer katastrophalen Nahrungs- und Ressourcenknappheit führen. All dies hat sich stets als falsch erwiesen, selbst die Anzahl der Weltbevölkerung zeigt erste Anzeichen eines zukünftigen Stillstands. Worin bestand der Fehler des Club of Rome, wobei von seinen stets total falschen Ressourceneinschätzungen sogar abgesehen werden soll? Die Antwort:

Ressourcen sind keine fixen Mengen! Die technische Innovationsfähigkeit der Menschheit hat nämlich bisher jedes Ressourcenproblem durch neue Technologien lösen können.

Träfe dies nicht mehr zu, wäre die Menschheit am Ende. Mit prinzipieller Ressourcenschonung würde sich der Untergang nur um eine unmaßgebliche, extrem quälende Zeitspanne verzögern. Das Argument der prinzipiellen Ressourcenschonung ist infolgedessen falsch. Es beruht auf irrationaler Angst vor der Zukunft und wird von ökoideologischen Rattenfängern erfolgreich genutzt. Diesen Leuten geht es nicht um Ressourcenschonung sondern um die Einführung einer weltweiten Diktatur als Kommunismus/Sozialismus. Dazu ist ihnen jedes Mittel recht, heute zuvörderst Klima und Energie.

Quellen

[BMBU] Mitteilung des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit

[BMWI] Bundesministerium für Wirtschaft und Energie, Mitteilungen zur Primärenergie und zum Strom

[BRU] http://de.wikipedia.org/wiki/Brutreaktor

[BUER] http://tinyurl.com/p5em4fc, http://tinyurl.com/ntkxdqz

[DRU] Bundesdrucksache 17/5672, Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel eines großräumigen und langdauernden Ausfalls der Stromversorgung, http://tinyurl.com/p837u5j

[EEG] http://www.bmwi.de/DE/Themen/Energie/Erneuerbare-Energien/eeg-2014.html

[EFA] http://tinyurl.com/qjdwmqs

[FRAUN] Fraunhofer Institut IWES, Windenergiereport Deutschland 2014, 20.5.2015

[GREEN] The Myth of Green Energy Jobs: The European Experience, American Enterprise Institute, http://tinyurl.com/7da9d7n und http://tinyurl.com/qgohb93

[IFS] http://tinyurl.com/onvuqha und http://tinyurl.com/pcjyxx8

[KKW] http://tinyurl.com/on2ra83

[SINN] Energiewende ins Nichts, http://tinyurl.com/q5uq42f

[1] 9 Fragen zum Klimaschutz

Related Files




Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 1

Update 12.7.15

Mit Mail vom 12.7.15 wurden die Podiumsteilnehmern über diesen Faktencheck informiert. Gleichzeitig wurde ihnen von mir angeboten, falls sie sich dazu äußern wollten, wenn ggf. eine oder mehrere Äußerungen von mir – wenn auch ungewollt- falsch interpretiert worden sind, dies anzumerken und ihre Sicht der Dinge klarzulegen.

Soeben (21:09) erreicht mich von Herrn Fell diese Mail, mit der Bitte sie im Beitrag zu veröffentlichen, was ich hiermit umkommentiert tue:

fell@hans-josef-fell.de 

An: Dipl. Ing. Michael Limburg

AW: Podiumsdiskussion am 22.6.15 bei der BPB Faktencheck Teil I

Sehr geehrter Herr  Limburg

Bitte veröffentlichen zu diesen Stellungnahmen von Ihnen folgende kurze Stellungnahme:

Ich, Hans-Josef Fell erkläre, dass ich nicht antworten werde auf die Interpretationen von Herrn Limburg zu meinen Aussagen. Diese Nichtantwort ist nicht gleichzusetzen, mit einer Akzeptanz zu Herrn Limburgs Interpretationen meiner Äußerungen. Ich erkläre ausdrücklich, dass Herr Limburg  bezüglich meiner Äußerungen mit Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen arbeitet und gar noch den unseriösen Versuch unternimmt, eine Nichtantwort als Akzeptanz zu missinterpretierten.

Dies ist unseriös und deshalb werden diese Falschinterpretationen von mir pauschal zurückgewiesen. Ich sehe auch keinen Sinn in einer unendlichen unproduktiven Diskussion darüber, weil sie mir Zeit raubt, an einer Lösung des Menschheitsproblems Erderwärmung zu arbeiten.

Mit freundlichen Grüßen

Hans-Josef Fell

Faktencheck Teil 1

Die  BPB hat diesen Mitschnitt hier vor einigen Tagen veröffentlicht.  Auf Grund der Tatsache, das hier – wohl zum ersten Male- nicht nur Klimaalarmisten und Energiewendebefürworter eingeladen waren, sondern auch der als Klimarealist und entschiedener Gegner der Energiewende bekannte Autor dieser Zeilen, waren die ausgetauschten Argumente sehr kontrovers.

Zudem können in einer  derartigen Diskussionsrunde Argumente zwar ausgetauscht werden, sie reduzieren sich aber für den uninformierten Zuhörer auf reine Behauptungen, da im Allgemeinen den meisten die Kompetenz  fehlt, um die Richtigkeit der jeweiligen Behauptung überprüfen zu können. Das sei hier mit dem Faktencheck für die wichtigsten Argumenten nach  geholt.

Zur Verständnis: Der BPB Mitschnitt selber enthält keine Zeitmarken. YouTube hingegen setzt diese Zeitmarken  und erlaubt auch die automatisierte Erstellung von Untertiteln aus dem gesprochenen Wort. Die Umwandlung in Schriftdeutsch ist nicht gut, aber brauchbar, doch sie verlangt eine erhebliche Nachbearbeitung.  Die hat EIKE vorgenommen. Obendrein wurden in der EIKE Youtube Version die freundlichen Begrüßungsworte des  Gastgebers  Herrn Kopp für diesen Faktencheck weggelassen, somit fängt jeder Teilmitschnitt mit 0:00 min an.  Wichtig sind daher allein die Zeitmarken, dann kann der interessierte Leser schneller den Originalton abhören.

Audiomitschnitt Teil 1 (Länge 13,46 Min) der Podiumsdiskussion  im Hause der BPB am 22.6.15 Quelle BPB Hier. Die (editiert) Untertitelfunktion kann eingeschaltet werden

Zum Klimawandel:

Die Moderatorin begann mit der Frage an den Autor:

(0:01:43) Herr Limburg: ist die Frage, ob es ein anthropogenen Einfluss auf das Klima gibt, also ob der Klimawandel denn vom Menschen gemacht wird im Prinzip nicht längst überholt?

Limburg

Meine Antwort darauf: (ab 0:01:55) zusammen gefasst: Nein, sie ist nicht überholt.  In Bezug auf die veränderte Landnutzung, der Zuwachs von Städten und seiner Bevölkerung und der stark gestiegene Bevölkerung selber ist das lokale Klima natürlich anthropogen beeinflusst, aber ein Weltklima, dass zudem gar nicht real sondern nur in Modellen existiert, ist – zumal vom CO2- nicht beeinflusst. Das zeigen die Daten und deren Zeitreihen ganz deutlich. Und das geben die Experten auch zu. Sie sagen: Wir können die Wirkung des  nur in unseren Modellen zeigen.“ Der Einfluss, insbesondere des anthropogenen CO2 ist nicht vorhanden und was doch viel interessanter ist, in der gesamten Vergangenheit  die wir nun geologisch sehr gut kennen ist niemals ein Einfluss, ein treibender Einfluss, des CO2 auf die Temperatur der Luft in dieser Welt nach zuweisen. Umgekehrt schon.“

Fakt ist

John Mit­chell dazu ehemals Chef des UK Met Office und Leitautor des IPCC

“It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.” [1] 

Richtig ist auch, dass CO2 niemals in der Vergangenheit – und das auf jeder historischen Zeitskala – die Temperatur der Atmospäre diese Planeten bestimmt hat. Zwei Beispiele dafür zeigen die folgenden Abbildungen.

Abb 1 CO2 und Temperaturverlauf über viele Mio Jahre.

Abb 2 Temperaturverlauf (schwarz; 15 year running mean) von 6 historischen Temperaturstationen mit mindestens 250 Jahren Aufzeichnungsdauer, von deren Frequenz-Spektrum nur die zwei stärksten addiert wurden (rot). Die Übereinstimmung ist frappierend. Und diese entsprechen in ihrer Periode sehr genau dem bekannten solaren De Vries Zyklus mit rd. 210 Jahre und dem ozeanischen AMO/PDO Zyklus mit ca. 65 Jahren. Quelle[2] s.Fußnote Details hier

Besonders interessant an Abb2 sind die deutlich erkennbaren Fakten,

1.     dass offenbar –zumindest bei den Messstationen- die Temperatur insgesamt fast 1:1 den beiden genannten Zyklen folgt .

2.     Von chaotischen Verhalten in diesem Zeitraum nichts zu erkennen ist

3.     Für CO2 kein Platz ist

4.     Sollten die der Kurve unterlegten Prozesse weiterhin ihre Wirksamkeit behalten, wie es die gestrichelte Kurve anzeigt, wird die Mitteltemperatur wieder sinken.

Ein weiteres paper der Autoren (bis auf einen, alles EIKE),dass die Zusammenhänge mit den genannten Zyklen genauer untersucht ist derzeit im Peer Review Prozess verschiedener internationaler Fachzeitschriften

Moderatorin Frau Dr. Zink (0:04:01)

Kommen wir nachher noch ein bisschen  spezifischer dazu, aber ich möchte gern erst mal den Herrn Fell fragen: Sie haben ja auch Physik studiert. Haben Sie denn Verständnis für so´ne Klimaskepsis?

H.J. Fell (0:04:09): Überhaupt nicht!

..Es ist so was von anti-wissenschaftlich ignorierend, dass das was die Physik  seid die vielen Jahrzehnten als Erkenntnisse hat….. Nein, also  ich bitt´Sie!

Herr Fell führt dann umfassend aus, dass das CO2 gewisse spektro-physikalische Eigenschaften hätte, die er als junger Student auch gemessen hätte, und die eindeutig zeigten, dass eingestrahlte Energie von der Sonne vom CO2 zurückgehalten würden und  diese Energie könne sich nur in steigender Erwärmung äußern. Und stellte den Zuhörern diese seine Versuche als Beleg für die seiner Meinung nach unbestreitbare Erwärmungswirkung des CO2 dar.   Dann beurteilte er meinen Zeitreihenvergleich als politisches Manöver.

Fakt ist:

Herr Fell übersieht bei seiner Gegenrede völlig, dass ich in meiner Argumentation die spektro-physikalischen Eigenschaften des CO2 weder benannt, noch angezweifelt habe. Hingegen habe ich mich auf den seit den Zeiten Galileo Galilei geltenden ehernen wissenschaftlichen Grundsätze gestützt, dass jede wissenschaftliche Hypothese

1.     erst durch die Bestätigung ihrer Annahmen durch Beobachtungen und Messungen  zur akzeptablen Theorie wird.

Und

2.     durch richtiges Vorhersagen zukünftiger Werte

ihre Tauglichkeit erweist.

Warum diese elementaren Grundsätze bei der Klimawissenschaft nicht gelten sollen, erklärten weder Herr Fell, noch Frau Zink, noch die anderen Teilnehmer. Denn auch eine plausible Hypothese – wie es die Hypothese von der Treibhauswirkung des anthropogenen CO2 für viele ist-  ersetzt nicht die Überprüfung im Experiment oder/und durch Beobachtung.  Sie geben damit auch indirekt zu, dass die Klimawissenschaften eine galileische Überprüfung in der Realität nicht benötigten.

Zu 1. Und sie wissen auch nicht, dass es seit den ersten IPCC Berichten genau dieses Problem ist, welches die Forscher beschäftigt. Es hat sogar einen Namen: „Detection and attribution problem“ und ist seither trotz vielfältigster Anstrengungen außerhalb von Modellen[3] ungelöst.

Der wichtigste Beitrag dazu ist der Versuch die sog. Klimasensitivität (CS Climate Sensitivity) des CO2 zu bestimmen. Damit ist der nur theoretisch ableitbare Wert gemeint, um den sich die globale Mitteltemperatur erhöhen sollte, bei Verdopplung der CO2 Konzentration.  Das IPCC geht im Mittel von 3,2 °C (3a) (bei einer Spanne von 4,5 K bis 1,5 K) aus, obwohl es im SPM des jüngsten Berichtes AR 5 – allerdings nur in einer Fußnote[4]- zugab, dass dieser Wert bisher nicht bestimmbar sei.  Der Wert 3,2 °C entsteht, wenn man den rechnerischen direkten Wert von ca. 1,2 °C  über die sog. Wasserdampfverstärkung (mehr Wärme, mehr Verdunstung, mehr Wasserdampf, mehr Wärme) mit 3 x nimmt. Viele andere Autoren haben

erstens die Wasserdampfverstärkung nicht finden können, sie fanden stattdessen eine Dämpfung, (Mehr Wärme, mehr Wasserdampf, mehr Wolken, mehr Abkühlung) und kommen

zweitens zu wesentlich niedrigeren Werten des CS Wertes bis hinunter auf nur 0,5 °C[5].

Damit treffen beide Grundsätze für die Hypothese vom anthropogenen Treibhauseffekt nicht zu.  Weder lässt sich deren Annahmen im Experiment bestätigen

Zellner Zitat

•       Reinhard Zellner [6] (Typisch ist der Einwand, dass der Treibhauseffekt nicht nachzuweisen sei): Das stimmt, es gibt kein Laborexperiment, das die Erwärmung durch Infrarotabsorption des CO2 direkt nachweist. Das System Atmosphäre kann aufgrund seines Temperatur- und Druckgradienten in einem stationären Experiment gar nicht reproduziert werden. Wir sind also auf ein klimawissenschaftliches Modell angewiesen,

…noch in der Realität durch den aktuelle oder historische Beobachtungen.

Abgesehen von wenigen, überdies für Klimazeitdistanzen, kurzen Zeitspannen,  in denen der Trend der „Welttemperatur „  eng und positiv korreliert  mit dem CO2 Anstieg verläuft (Rahmstorf [7]: mehr CO2 = mehr Temperatur) ist immer wieder auch die gegenteilige Entwicklung erkennbar. Also mehr CO2 und negativer Temperaturtrend. Und  dies ist auf allen geologischen Zeitskalen zu beobachten. (Siehe z.B. Abb. 1)

Zudem ist, was auch Herr Fell  (und später auch Frau Dehmer wissen müsste) eine Korrelation kein Ersatz für eine nachweisbare Ursache-Wirkungsbeziehung)

Besonders deutlich aber zeigt sich, dass auch die Modelle schwer daneben liegen. (Abb. 3) wenn man bereits vergangene Zeitspannen mit den Modellprognosen vergleicht. (Abb 1)

Abb. 3 Vergleich „zukünftige“  Verläufe (ab 1983) des globalen Temperaturtrends  von 90 Modellen und  zwei Messungen Grün:  Hadcrut Daten, Blau: Satelliten Daten UAH; schwarz Mittlerer Trend  aller Modelle: Quelle hier 

Auch die Behauptung von Herrn Fell – er hätte „die Versuche gemacht wie Kohlendioxid die Strahlung beeinflusst, wie das Kohlendioxid die umgewandelte Infrarotstrahlung von der Sonne aufnimmt. Sind klare Versuche gewesen, nicht irgendwie Trial and Error sondern Messungen“, um damit dem Publikum zu suggerieren, damit sei der anthropogene Treibhauseffekt bewiesen, kann so nicht stehen bleiben. Es klingt zwar plausibel, aber das reicht in den Naturwissenschaften bei weitem nicht.

Auf meine Nachfrage per Email an Herrn Fell vom 23.6.15

…bitte ich Sie daher mir Details zum Experiment mitzuteilen. Besonders interessant sind für mich dabei die Klärung der Fragen

1. Wie war der experimentelle Aufbau?

2. Wie haben Sie gemessen?

3. Was haben Sie gemessen?

4. Wie groß war die Unsicherheit bei Ihrer Messung?

schrieb mir Herr Fell am 24.6.15

Ich sagte, dass ich das Grundlagenexperiment wie jeder andere Physikstudent auch machte. Damit messen die Physikstudenten die Anregungswellenlängenlängen und damit die Energieaufnahme von Molekülen, wie CO2.  

Nun, derartige Eigenschaften hatte auch niemand bezweifelt. Und wie schon erwähnt, die spektro-physikalischen Eigenschaften des Spurengases CO2 (mit nur 0,04 Vol % in der Atmosphäre vorhanden) wie aller anderen Bestandteile der Luft  sind seit Jahrzehnten gut bekannt, aber bieten keinerlei Ersatz für einen Beweis des THE.

Moderatorin: (0:05:41)

Hmm; Frau Dehmer wie schätzen Sie denn diese kritischen Stimmen ein?

Frau Dehmer 0:05:46.

Science-fiction

(0:05:48)

Hm; die Messreihen, die vorhanden sind, sind ja mehr als hundert Jahre alt. (Anmlerung des Autors Siehe Abb. 1) Und  wenn sie sich die Messzahlen, und das ist nur das Gemessene anschauen, sowohl bei den Ozeantemperaturen als auch bei den Luft- Temperaturen dann haben die eben einen Trend nach oben. Und man kann auch zurück verfolgen, wann der begonnen hat. Hm. ich finde diese Diskussion völlig sinnlos 

Fakt ist:

Auf diesem Niveau zu argumentieren, wie es hier Frau Dehmer macht, ist natürlich völlig sinnlos.  Aus der unbestrittenen geringen Erwärmung – nach dem Ende der kleinen Eiszeit etwa ab 1850 (da musste es wärmer werden, sonst bestünde die Eiszeit ja immer noch) – und der gleichzeitigen – aber erst seit Mitte der fünfziger Jahre genau genug bekannten Konzentrationszunahme des CO2 in der Luft, eine bestätigte Abhängigkeit zu konstruieren, ist schon science fiction. Allerdings ganz ohne science. [8]

Mit gleicher Berechtigung könnte Frau Dehmer folgern, weil die Zahl der Störche in Deutschland abnimmt,  gibt es weniger Babys. Beides unbestreitbare Tatsachen, beide Verläufe eng korreliert, doch sollte heutzutage -jedenfalls unter Erwachsenen- keiner glauben, dass die Störche die Babys bringen.

Ich frage mich außerdem  immer wieder, woher die Protagonisten des anthropogenen Global Warming das Recht ableiten, dass das Klima konstant zu sein hat. Das war es bisher niemals und wird es auch in Zukunft nicht sein.

Frau Dr. Zink (0:06:51)

Daraufhin fühlte sich auch die Moderatorin Frau Dr. Zink veranlasst Ihre Sicht der Dinge darzustellen. Sie verwies am Anfang auf ihre Mitarbeit bei Wissenschaftssendungen erst von Joachim Bublath und dann von Harald Lesch und Dirk Steffens (Terra X). Dann erläuterte sie, dass sie und bezog andere Kollegen ein, spätestens seit 1995 im Grunde aber schon nach Rio (1992) aufgehört hatten kritische Stimmen zur Rolle des CO2 zu journalistisch zu überprüfen. Und schloss mit dem Beispiel ….im Kriminalfall würde man vielleicht sagen, die Faktenlage ist erdrückend und deswegen ist bei den Wissenschaftsjournalisten  dieses gar nicht mehr in Diskussion; muss ich sagen.

Fakt ist:

Dieses Statement ist insofern korrekt, als dass die Zustimmung (ja Panikmache) zur THE Hypothese, tagtäglich in allen Medien- von wenigen rühmlichen Ausnahme abgesehen-,  zu sehen, zu lesen und zu hören ist.

Diese Meinung, und um nichts anderes handelt es sich, beweist für die Existenz des THE natürlich gar nichts. Sie beweist aber etwas ganz anderes, nämlich, dass die allermeisten Journalisten es vorziehen im Mainstream mit zu schwimmen. Obwohl es gerade die vordringliche Aufgabe von Journalisten wäre, besonders misstrauisch bei Behauptungen von dieser Tragweite zu sein und ständig der uralten Frage nachgehen müssten – Cui Bono? Tun sie aber nicht, obwohl das investigative Hinterfragen für Wissenschaftsjournalisten umso mehr gelten müsste.

Es ist nämlich in den Naturwissenschaften überhaupt kein Gütesiegel, anders als in der Politik, wenn alle oder eine große Mehrheit einer Meinung sind. Die Beispiele bei denen das falsch war, sind Legion. Denn im Gegenteil, besonders dann ist höchstes Misstrauen angebracht, weil dann so gut wie immer die Wissenschaft unter die Räder kommt.  Und eine – noch dazu promovierte- Physikerin täte gut daran, diesem Grundsatz zu folgen. Gesundes Misstrauen tut daher not, ein Misstrauen, wie es die investigative Journalistin Donna Laframboise[9] antrieb, mit der Folge, dass sie die Machenschaften großer Umwelt-NGO´s wie z.B. WWF und Greenpeace, aber auch anderer, bei der verdeckten Übernahme des IPCC aufdeckte. Eine Übernahme, die denen nicht nur großen Einfluss brachten, sondern auch das Agenda-Setting erlaubt. Die Folgen davon erleben wir täglich.

Abgesehen von dieser Verhaltensfrage enthält die Frau Zinks „Beweisführung“ eine Behauptung, die nicht unwidersprochen bleiben kann.  Nämlich der „Beweis“ wie im „Kriminalfall“, den auch Hans v Storch  unlängst verwendete, als beide behaupteten, dass die Beweislage erdrückend sei.  Dabei wird übersehen, oder verschwiegen, dass schon im Gründungsauftag des IPCC steht, man solle Beweise dafür finden, dass der Klimawandel gefährlich und dass der Mensch dafür verantwortlich sei[10].

Klar nach der Drehbuchanweisung des Club of Rome 1972 (Quelle King & Schneider, 1991):

„Auf der Suche nach einem neuen Feind, der uns vereint, kamen wir auf die Idee, dass sich dazu die Umweltverschmutzung, die Gefahr globaler Er­wärmung, Wasserknappheit, Hunger und dergleichen gut eignen würden…. Alle diese Gefahren werden durch menschliches Eingreifen verursacht…Der wirkliche Feind wäre dann die Menschheit selbst….“

Folgerichtig werden sowohl vom IPCC als auch vielen Vertretern der Wissenschaft die weiteren Akteure in diesem „Kriminalfall“ bewusst außen vorgelassen. Wie z.B. der alles überragende und vielfältige Einfluss der Sonne. Damit wird durchgehend eine voreingenommene „Wissenschaft“ gefordert und auch betrieben.

Ich will mich aber hier nur auf den von mir angeführten „Beweis“ über die Wirkung des CO2 auf die Temperatur über Klima-Modelle fokussieren, den Hans v. Storch dem erstaunten Publikum präsentierte[11].

Fakt ist:

Limburg 0:08:20:

Sie sagen wir haben Modelle: Neulich Herr von Storch hat Modelle gezeigt, hat Bilder gezeigt wie die Temperatur nach oben geht in ihren Modellen (Anmerkung Autor Siehe Abb. 4) mit der Aussage wir können das nicht in der Natur beweisen, dafür ist das System zu komplex, zu großartig, zu umfangreich.

Niemand bestreitet ja die spektralen Eigenschaften des CO2.

Natürlich nicht!

Aber sie können sie nicht in der  in der Darstellung der Messdaten sehen und deswegen baut man eben diese komplexen, hochkomplexen Klimamodelle  und dann sagt man: „guckt mal hier“ das sind so vier Graphen…..wie die Temperatur nach oben steigt, je nachdem wie das CO2 sich entwickelt und  wenn man dann, das sind die Modellaussagen,  wenn man dann das CO2 weglässt  dann ist dieser Temperaturanstieg flach. Wie er übrigens seit über 18 Jahren inzwischen auch ist  (Anmerkung Autor Siehe Abb. 4)

Abb 4: Satellitenmessung der globalen Mitteltemperatur – und nur die sind eigentlich für globale Klimazwecke geeignet- der letzen > 18 Jahre. Man sieht trotz stark steigenden CO2 um ca. 2 ppm/Jahr ist der Trend genau Null

So, aber das ist ein Zirkelschluss! Wenn ich ein Modell baue, wo das CO2 die  Temperatur treibt, was es, wie gesagt, in der Vergangenheit noch nie gemacht hat  dann steigt die Temperatur. Wenn ich dann in diesem Modell dass CO2 weglasse.. wie soll da die Temperatur steigen? Also das als Beweis anzunehmen -und nur das  existiert- das müssen Sie halt schlicht zur Kenntnis nehmen- das sind die Fakten 

Abb. 5: Modellberechnungen für verschiedene Kontinente des jeweiligen Verlaufs der Mitteltemperatur mit und ohne die Annahme der Wirkung der Treibhausgase (gemeint war immer als stärkster Treiber CO2 (Quelle: IPCC AR4 4)

Dann murmelte Frau Zink etwas von (0:09:29).

Na ja, es gibt ja sehr viele Beweise, da muss man sich nur viele Baumrinden anschauen,

… ging aber nicht weiter darauf ein.

Fakt ist:

Man muss vermuten, dass sie berüchtigte Hockeyschlägerkurve des Michael Mann meinte, von dem sein Freund Phil Jones später mailte, dass er „Mikes Nature trick“ erfolgreich angewendet hätte „to hide the decline“. Gemeint war, dass dieser „decline“ seit den 1960er Jahren in der Proxykurve der Mannschen Baumringdaten zu sehen war, aber Michael Mann sie schlicht abgeschnitten hatte und sie durch ihm genehmere Thermometerdaten, die sich nicht absenkten, sondern im Gegenteil nach oben stiegen, ersetzt hatte. Ein bis heute ungeahndeter Betrug. (Einige Details dazu hier)

Etwas später meinte die Moderatorin wieder gegen halten zu müssen (0:10:45)

Dann muss ich gleich mal ein bisschen noch dagegen schießen. Auch ich mache meine Hausaufgaben als Wissenschaftsjournalistin. Es gibt Meta Studien. Das sind ja Studien über alle wissenschaftlichen Artikel….

Und zitierte die Cook Studie, wonach 12.000 klimawissenschaftliche Studien (peer reviewed) von Cook et al daraufhin untersucht worden sein sollen, wie viel davon die anthropogen induzierte Erwärmung bejahten. Und das seien bis auf 80 Artikel alle gewesen.

Fakt ist,

dass nach der neuesten  Überprüfung der Methodik dieser Studie (Legates et al[12]) die Verfasser zu dem Schluss gekommen seien, dass Cooks Behauptung nur 0,3 % der Studien folgten (Details dazu hier) Der Rest stimmt zwar einer Erwärmung zu, die aber eben nicht zwangsläufig anthropogen erzeugt.

Und, Fakt ist auch,  das John Cook kein Klimawissenschaftler sondern ein Blogger und  Psychologe ist. Was Frau Zink verneinte.

Jedoch schreibt derselbe John Cook,  welcher die Mainstream Website „SkepticalScience“ betreibt in seinem Blog,

about..

(John Cook) is currently completing a PhD in cognitive psychology, researching how people think about climate change. He is also developing a MOOC (Massive Online Open Course),Making Sense of Climate Science Denial, to be released in April 2015.

Nur in einer Hinsicht behielt Frau Dr. Zink recht: Cook ist kein Australier, sondern US-Amerikaner. Ich hatte ihn in der Eile in Bezug auf seine Landsmannschaft mit seinem Bruder im Geiste Lewandowski verwechselt. Der ist Australier.

Aber obwohl diese Cook Studie, wissenschaftlich, den Klimawandel und seine vermuteten Ursachen betreffend, völlig irrelevant ist, wird sie gerne von allen  – auch und besonders häufig von Umwelt- und/oder Wissenschaftsjournalisten geglaubt. Die Betonung liegt dabei auf geglaubt.

Es scheint ja so gut zu passen. Mit dem Strom schwimmen ist eben leichter als gegen den Strom, oder wie es Einstein viel besser formulierte, als man ihm vorhielt, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er sagte kühl: „Wenn die recht hätten genügte einer.“

Wird fortgesetzt


[1] ‘CLIMATE CHANGE Response to Carteret al.’, World Economics, 8 (1): 221228. –

[2] Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records H.-J. Ludecke ¨ 1,*, A. Hempelmann2 , and C. O. Weiss3,*

[3] Man sehe z.B. den SPM Seite 18 figure SPM.6. In der Bildunterschrift steht u.a „:::Comparison of observed and simulated climate change based on three large-scale indicators in the atmosphere, the cryosphere and the ocean: change in continental land surface air temperatures (yellow panels), Hervorhebung von mir.

[3a] IPCC (2013): Climate Change 2013, Working Group I: The Science of Climate Change, Box 12.2

[4] „Die Fußnote lautet: No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies. Quelle SPM AR5 final, S 16 hier

[5] Quellen: [6] H. Harde, Open Journal of Atmospheric and Climate Change (2014), http://tinyurl.com/p9ac6xg

[7] IPCC-Berichte (scientific basis), www.ipcc.ch

[6] Prof. Reinhard Zellner in Nachrichten aus der Chemie, S 213 Mai 2014 Mitglied u.a Enquetekommissionen – „Schutz der Erdatmosphäre“ und „Schutz des Menschen in der Umwelt“

[7] Das genaue Zitat geht so: Stefan Rahmstorf am 3.2.2007 (Die Welt): Wir Klimaforscher können nur nach dem Wenn-dann-Prinzip sagen: Wenn so und so viel CO2 ausgestoßen wird, dann wird das Klima sich so und so stark erwärmen.“

[8] Siehe auch ergänzend hierzu diesen Beitrag von Limburg & Willis Eschenbach

[9] Details zu den unglaublichen Fakten über das IPCC finden Sie hier

[10] Auf der  IPCC Website unter  Mandate findet man .”… Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change::”

[11] Den Erlebnisbericht dazu finden Sie hier

[12] Legates et al ‚Climate Consensus and ‘Misinformation’: a Rejoinder to ‘Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change’ in Science and Education




Was haben wir von radioaktiven Abfällen zu befürchten?

Was ist eine existenzielle Bedrohung der Menschheit? Vielleicht ein Meteoriteneinschlag, aber nicht einmal der Autoverkehr mit 50.000 Toten pro Jahr. Wie viele Menschenleben hat aber der Atommüll bisher gekostet? Es gibt ein indirektes Opfer. Jemand wollte gegen Castor-Transporte protestieren und wurde dabei von der Eisenbahn totgefahren.

Durch Atomstrahlen gab es von 1945 bis 2010 weltweit 131 Todesopfer, Tschernobyl und Bombenopfer nicht mitgerechnet, also nicht einmal 3 pro Jahr. Keiner dieser bedauerlichen Unfallopfer war durch radioaktive Abfälle ums Leben gekommen, mehrere dagegen durch falsche Anwendung medizinischer Bestrahlung.

Existenzielle Bedrohung? So sieht das auch Frau Kotting-Uhls Kollege in der Endlagerkommission, Ralf Meister, Theologe, Landesbischof der Evangelisch-lutherischen Landeskirche Hannover. Nun, Glaube ist sein Beruf, und daher sein Standpunkt: „Selig sind, die da nicht sehen und doch glauben.“ 

Solche Leute wurden von der Bundesregierung in eine Kommission berufen, um einen Standort für ein Endlager hochradioaktiver Stoffe festzulegen! 

Nun zu den Tatsachen. Jeder erzeugt Abfall, 617 kg Hausmüll pro Person und Jahr, allerdings recht harmloses Zeug, zu einem großen Teil verwertbar. Nicht so harmlos sind manche Industrieabfälle. Da liest man bei Wikipedia: „Für die Endlagerung hochtoxischer (hochgiftiger) konventioneller und radioaktiver Abfälle hat sich weltweit das Einbringen der Abfälle in tiefe geologische Formationen (ca. 300 – 1000 m Tiefe) durchgesetzt.“

Tatsächlich werden bisher aber nur nichtradioaktive giftige Abfälle in große Tiefen gebracht, in Deutschland in die Grube Herfa-Neurode. Darüber berichtete die „tz“ unter dem Titel „Der giftigste Ort der Welt liegt in Hessen“ und schrieb u.a.: „Allein die Menge Arsen würde reichen, um die gesamte Menschheit zu töten.“ Nur, woher kommt das Arsen? Es ist ein natürliches Element, niemand kann Arsen herstellen. Man hat es aus der Erde genommen und bringt es wieder in die Erde zurück. Allerdings liegt es dort in unnatürlich hoher Konzentration vor. Bleibt es dort, stört es niemanden. Löst sich aber das Endlager auf, dann wird das Arsen immer weiter verdünnt und damit immer ungefährlicher.

So wäre das auch bei radioaktivem Abfall, wobei die Radioaktivität mit der Zeit geringer wird. Unsere Welt ist nun einmal von Natur aus radioaktiv. Was der Mensch dazu bringen kann, liegt höchstens im Promillebereich. Aber gibt es nicht künstliche radioaktive Stoffe, welche ohne Beispiel in der Natur sind, vor allem das schreckliche Plutonium? Nein, im Gegensatz zu chemischen Giften wirken alle radioaktiven Stoffe in der gleichen Weise. Sie senden Alpha-, Beta-, Gamma- und Neutronenstrahlen aus. Diese verschiedenen Strahlenarten haben keine unterschiedlichen biologischen Wirkungen, allerdings wirken sie unterschiedlich stark. Daher konnte man ein einheitliches Maß für die biologische Wirkung einführen, das Sievert (Sv), dazu den tausendstel und millionsten Teil, das Millisievert (mSv) und das Mikrosievert (µSv), anwendbar auf alle Strahlenarten.

Es gibt also keinen Unterschied in der Wirkung zwischen natürlichen und künstlichen radioaktiven Elementen. Wie bei dem Arsen bringt man bei der Endlagerung Stoffe in die Erde, welche dort von Natur aus in viel größerer Menge vorhanden sind. Unterschiedlich ist jedoch, wie die radioaktiven Elemente durch Wasser oder durch die Luft verbreitet werden können. Da ist Plutonium so unbeweglich, dass es in der Umgebung des Kraftwerks von Fukushima nicht gefunden wurde und bei Sicherheitsanalysen für Endlager keine Rolle spielt. 

Wenn man von radioaktiven Abfällen spricht, denkt man an Abfälle aus Kernkraftwerken. Es gibt noch andere, sie stammen aus der Industrie, aus Forschungseinrichtungen und aus der Medizin. Diese spielen aber keine Rolle. Bei den Abfällen, die einmal in den Schacht Konrad eingelagert werden sollen, werden weniger als 0,5 Volumen% der Abfälle aus der Medizin sein.

Es genügt also sich mit Kernkraftabfällen zu befassen. Die Internationale Atomenergie-Agentur IAEO hat 1981 folgende Einteilung vorgenommen:

  • Hochradioaktive Abfälle erzeugen aufgrund ihrer hohen Aktivität (>1014 Bq pro m3; typisch 5 ∙ 1016 bis 5 ∙ 1017 Bq/m³) erhebliche Zerfallswärme (typisch 2 bis 20 Kilowatt pro m³);
  • Mittelradioaktive Abfälle (1010 bis 1015 Bq pro m³) erfordern Abschirmmaßnahmen, aber kaum oder gar keine Kühlung;
  • Schwachradioaktive Abfälle (<1011 Bq pro m³) erfordern bei Handhabung oder Transport keine Abschirmung.

In all diesen Abfällen stellen die reinen radioaktiven Elemente nur einen kleinen Bruchteil dar. Bq steht für Becquerel. 1 Bq bedeutet, dass ein Atom pro Sekunde Strahlung aussendet und sich dabei in ein anderes Element verwandelt. Wir selbst haben von Natur aus 8.000 Bq in unserem Körper. Das geht mit dem Gewicht, dicke Leute werden von innen also mit 10.000 oder mehr Teilchen der Atomstrahlung beschossen, pro Sekunde!

Wieviel radioaktiven Abfall gibt es in Deutschland? Berücksichtigt man, was beim Abriss der Kernkraftwerke noch anfallen wird, werden es 600.000 m³ sein. Ganz grob sind das ebenso viele Tonnen, pro Einwohner also 7,5 kg, nicht viel gegenüber den 617 kg Hausmüll, welche wir jedes Jahr erzeugen. Aber das Zeug ist doch schrecklich gefährlich! Im Strahlenaberglauben schon, aber um die mögliche Gefahr realistisch einzuschätzen, stellen wir uns vor, Strom würde nur noch in Kernkraftwerken erzeugt, und jede und jeder müsste den pro Person anfallenden Abfall bei sich selbst unterbringen. Was ich jetzt darstelle, kann jeder selbst nachprüfen. Alles, was bei der Verwendung von Uran zur Stromerzeugung an Abfall entsteht, ist bestens bekannt. Aus diesen Kenntnissen wurde ein Rechenprogramm entwickelt, „Nuclear Fuel Chain Waste Activity Calculator“ genannt, im Internet leicht aufzurufen und einfach zu handhaben. 

Also gibt man den durchschnittlichen Stromverbrauch des Bundesbürgers von 1700 kWh pro Jahr ein, nimmt an, dass der Abfall 30 Jahre im Kernkraftwerk bleibt, und erhält 4,98 ∙ 1010 Bq. Für die meisten wird das eine ziemlich schleierhafte Zahl sein. Klarer wird es nach der Umrechnung in die veraltete Einheit Curie: Es sind 1,34 Curie, das entspricht ebenso viel Gramm Radium. Stellen Sie sich vor, etwas über ein Gramm von irgendeinem Giftstoff würde zu Staub gemahlen und gleichmäßig über einen ganzen Hektar Ackerland verteilt, kann das noch gefährlich sein?

Müsste also ein Bauer den auf ihn entfallenden Anteil an radioaktiven Abfällen abnehmen, könnte er ihn auf einem Hektar unterpflügen. Die natürliche Radioaktivität seines Bodens bis in etwa 60 cm Tiefe ist von Natur aus ebenso groß. Er hätte damit die Aktivität des Bodens verdoppelt. Seine Kollegen in Indien und Brasilien ackern auf Böden, die von Natur aus weit radioaktiver sind. Im folgenden Jahr sollte er trotzdem einen anderen Hektar nehmen. 

Der Boden eines deutschen Bauern enthält um die 500 Bq/kg an natürlicher Radioaktivität. Bei Ackerland anderswo ist es oft viel mehr. Richtig radioaktiv sind manche Strände, wo sich die Leute in den Sand legen. In Brasilien geht es bis 80.000 Bq/kg, nicht ganz so viel ist es in Indien (Kerala), wo als höchster Wert 44.000 Bq/kg gemessen wurde. Der Sand dort ist übrigens dunkel, fast schwarz. Aber weder das noch die Radioaktivität stört die Touristen. Bewertungen bei Tripadvisor: Sehr schöne Strände, nur an einigen Stellen unangenehm voll. Einen Geigerzähler hat offenbar niemand mitgebracht. Fast 100-fache Aktivität im Boden führt nun nicht zu einer hundertfachen Strahlenbelastung, aber doch bis zu einer zehnfachen.

Siehe Bild oben rechts

Um zu unserem Bauern zurückzukommen: An hochaktivem Abfall würde man ihm  weniger als 10 g aushändigen, die aber 99 % der Radioaktivität enthalten. Die würde er besser in ein tiefes Loch werfen. Den schwach- und mittelaktiven Abfall könnte er aber bedenkenlos unterpflügen. Einige Millionen Becquerel bringt er sowieso mit Kali- und Phosphordünger jährlich auf seine Felder. Dieser enthält natürliches Kalium 40, Uran, Radium, Thorium und anderes.

Der Anteil langlebiger radioaktiver Elemente im Abfall ist klein, Plutonium 239 z.B. hat nur einen Anteil von 0,13 %. Von Caesium und Strontium als Hauptbestandteilen ist in 30 Jahren nur noch die Hälfte vorhanden. 

Wer keinen landwirtschaftlichen Betrieb hat, sondern nur 200 m² Gartenfläche, kann trotzdem seinen Anteil an schwach- und mittelaktivem Abfall gefahrlos vergraben. Für das jährliche Schächtelchen mit hochaktivem Abfall empfiehlt sich aber ein 50 oder 100 m tiefes Loch. Versenden darf man das Schächtelchen mit hochaktivem Abfall nur in einer Abschirmung. So macht man das auch im Großen, die hochaktiven Abfälle versendet und lagert man in den Castor-Behältern. Sind die gefährlich? Schon. Neben sein Bett sollte man sie nicht stellen. Wer sich 20 Stunden auf einen Castor-Behälter setzt, hat seine natürliche Jahresdosis verdoppelt. Um in den gefährlichen Bereich über 100 Millisievert zu kommen, muss man sich jedoch mindestens 42 Tage darauf setzen. Also, etwas Abstand halten, ist besser. Und wenn so ein Behälter entzwei geht? Falls nicht jemand direkt daneben steht, passiert weiter nichts. Es ist aber auf der ganzen Welt noch nie ein solcher Behälter kaputt gegangen.

Hannover, den 27.06.2015




Podiumsdiskussion über Klimawandel & Energiewende – ein Stimmungsbild

Die Vorgeschichte


Wie sich die Leser erinnern werden fand am  22.6.15 fand in den Räumen der Bundeszentrale für politische Bildung in Berlin eine Podiumsdiskussion über Klimawandel & Energiewende statt. Ich war  ebenso eingeladen, wie der ehemalige  Bundestagsabgeordnete der Grünen und „Vater“ des EEG Hans-Josef Fell, Präsident der Energy Watch Group, Mitglied Bündnis 90/Die Grünen und der RWE Manager Andreas Brabeck, Leiter Politik Downstream/Regulatory, RWE AG. Durch den Abend sollte  als Moderatorin Frau Dr. Iris Zink, Physikerin, Wissenschaftsjournalistin und Autorin von TerraX beim ZDF führen.  Das waren zunächst mal alle.

Da ich bis auf Herrn Fell die  Einstellung der anderen beiden Teilnehmer zu den genannten Themen nicht kannte, vermutete ich zu meiner gelinden Überraschung eine ziemlich ausgewogene Veranstaltung, da ich mir nicht vorstellen konnte, dass ein Manager des RWE, das von der Energiewende fast in die Pleite getrieben wird, große Sympathien für diese Energiewende entwickeln würde, während ich bei Frau Zink zumindest der Fairness halber auf eine gewisse Neutralität als Moderatorin spekulierte. Und weil Ausgewogenheit zu den klaren Aufgaben der Bundeszentrale gehört, wie sie in ihren Statuten per Erlass festgeschrieben ist, und  dazu noch die Beachtung eines,  mir zuvor nicht bekannten „Beutelsbacher Konsenses“ , wie er in der Ankündigung ausdrücklich erwähnt wird, ausdrücklich die Zulassung von „Kontroversität“ verlangt.

Nun war mir von Anfang an klar, dass bei einer solchen Talkrunde keine Gelegenheit geben würde, irgendeine Äußerung – von keinem- direkt zu beweisen. Sie stehen erst mal und bestenfalls als reine Behauptung  oder gar als pure Meinung, im Raum. So dass es also darauf ankommt, gerade bei sehr kontroversen, vom Publikum bisher selten vernommenen Fakten, so glaubwürdig wie möglich rüber zu kommen, und das Publikum sie wenigstens im Ansatz nachvollziehen kann. Das verlangt eine einfache, an simplen Beispielen aus dem Alltag festgemachte Argumentationsweise, wobei leicht die Gefahr der Übersimplifizierung komplexer Sachverhalte besteht. Doch ist mir genau das,  so glaube ich, sogar mehrheitlich und ohne Übersimplifizierung – auch dank des fairen Umgangs miteinander- gelungen. Jedenfalls haben es mir so viele, der um die 90 im Saal  Anwesenden bestätigt.

Zurück zur Vorgeschichte:

Also, so dachte ich; ausgewogen und kontrovers, dass wird ja mal eine schöne Premiere im öffentlichen Raum.  Die Vorfreude wurde dann aber etwas gedämpft durch eine Information, die ich am 19.6.15, also drei Tage vorher, vom Veranstalter per Email erhielt. Darin stand, dass nunmehr auch noch Frau Dagmar Dehmer, politische Redakteurin und zuständig für Umwelt- und Klimathemen beim Berliner Tagesspiegel teilnehmen würde. Danach war mir schon klar, dass es mit der Ausgewogenheit wohl nicht so weit her sein würde., oder jedenfalls anders als ich es mir naiverweise vorgestellt hatte.

Denn Frau Dehmer, bis Ende 1992 Landesvorsitzende der Grünen in Baden Württemberg und danach (grüne) Journalistin, deren Leidenschaft lt. einer Blogseite der Zeit „Umweltthemen, dem Klimawandel und Afrika gilt“, war für mich keine Unbekannte, hatte ich mich doch als ehemaliger Leser des Tagesspiegel schon des Öfteren über ihre, in meinen Augen ziemlich rabiaten und oft auch ziemlich falschen, wie auch einseitigen Berichte zu Klimathemen, gewundert und z.B. per Leserbrief auch dazu geäußert.

Später erfuhr ich dann, dass ihre Einladung der Notwendigkeit  einer anderen Art von „Ausgewogenheit“, nämlich der Befolgung von Gender-Richtlinien dieser Behörde geschuldet war[1].

Nun  ja, dachte ich, wenn es denn „der Wahrheitsfindung“ dient, um ein bekanntes Zitat des 1. Kommunarden Fritz Teufel anzuwenden, und stellte mich schon auf eine etwas weniger ausgewogene, vielleicht sogar hitzige Diskussion ein. Auch deswegen weil in der publizistischen Begleitmusik so ausgewogener Presseorgane wie taz, FR, und später auch noch im copy und paste Verfahren im Kölner Stadtanzeiger, der Berliner Zeitung, der Mitteldeutschen Zeitung, wie auch beim Lobbyverein Klimaretter-Info aktiv gegen meine Teilnahme gehetzt wurde, ohne dabei viel Rücksicht auf die sonst so von allen eingeforderte Toleranz noch  Wahrheit zu nehmen.

Bei den berufsmäßigen Klimarettern wurde Frau Dehmer gar zitiert mit  den Worten: „(Sie ist als Mitdiskutantin von der Bundeszentrale eingeladen worden und) hält es „für völlig überflüssig, solchen Leuten solch ein Podium zu bieten“. Dehmer will hart gegenhalten und Limburgs Thesen entlarven.“(Hervorhebungen von mir).

Während die taz über die Hoffnung von Herrn Fell zu berichten wusste: „Zwar seien die Klimaskeptiker nicht ernst zu nehmen, sagte er der taz. „Aber meine Teilnahme wird dazu beitragen, ihre Thesen zu widerlegen.“ .

Die Diskussion

Nun, das kann ja Eiter[2] werden dachte ich mir in meinem schlichten Gemüt, aber dann kam alles ganz anders. Nicht in Bezug auf die fehlende Ausgewogenheit, die fehlte – wenn das geht- letztendlich noch mehr, weil auch die Moderatorin -als Wissenschaftlerin wie sie später gegenüber einem Gast betonte- immer mal wieder gegen mich Partei ergriff und weil auch der RWE Kollege, die Energiewende rundum begrüßte, sie solle nur nicht so schnell gehen- sondern in Bezug auf den Verlauf der Diskussion.

Und verantwortlich dafür war zum Einen, die sehr angenehme Moderatorin, Frau Dr. Zink, denn sie erteilte mir, wann immer ich höflich um das Wort bat, fast unverzüglich dasselbe, und zum anderen auch wegen der doch ziemlich vagen, teils sehr abgegriffenen, manchmal auch total übertriebenen, manchmal jeder täglichen Erfahrung widersprechenden und mir gelegentlich etwas unbedarft erscheinenden  Äußerungen  meiner Mitdiskutanten.

Die „Erneuerbaren“ machen den Strom billig

So behauptete mein Nebenmann Herr Hans-Josef Fell des öfteren mal ungerührt, dass die sog. „Erneuerbaren“ schon jetzt ganz, ganz billig seien. Und zwang damit fast das gesamte Auditorium unfreiwillig zum Lachen. Und überdies, so Fell, hätte sein EEG -das hätten Nürnberger Wissenschaftler  vom FAU kürzlich in einer Studie[3] bewiesen- dafür gesorgt, dass die Verbraucher für den Strom  rd. 11 Mrd € weniger gezahlt hätten.  Das steht tatsächlich da so drin, auch wenn sich nicht nachvollziehen lässt, und die Autoren es auch nicht recht klar machten, woher  diese Einsparung gekommen ist. So blieb mir nur übrig zu vermuten, dass die Jungs vom FAU wohl allerlei phantasiereiche externe Effekte (z.B. den von einer vermuteten Verknappung konventioneller Energiemengen, die sich auf den Preis auswirkt, wegen der erzwungenen Abschaltung der KKW, die wiederum von den „Erneuerbaren“ aufgefangen wurden. So deren Berechnung eines externen Effektes zugunsten der „Erneuerbaren“, zu dem es ohne Energiewende gar nicht gekommen wäre) eingerechnet hätten, einer Vermutung der Fell vehement widersprach. Nun, wer bei EIKE mitliest, weiß es eben besser.

So konnte ich denn weiterhin wahrheitsgemäß feststellen, dass allein in 2013, die Besitzer von EE Anlagen (besser Nachhaltig Instabile Energien NIE) rd. 23 Mrd € über die Netzbetreiber kassiert hätten für einen Strom der an der Börse ganz knapp 3 Mrd € gebracht hat.

Bild 1 reale und prognostizierte Kostenentwicklung des EEG bis zum Jahr 2022, Leider sind die Bezugsstriche leicht verschoben, ich bitte um Entschuldigung-Blau: noch zuzahlende Milliarden (20 Jahre Garantie!), rot bereits bezahlt kumuliert ; gelb jährliche Zahlung

Kostenentwicklung des EEG

Und das mit stark steigender Tendenz, und dazu noch ohne jeden Nutzen für die Allgemeinheit, denn der Ausbau, besonders im Bereich der Windenergie, gehe ungebremst weiter. Letztendlich, so mein Argument würde die Energiewende nicht nur mit 1 Billion zu Buche schlagen, wie es Ex-Umwelt-Minister Altmeier geschätzt hatte, die würden wir schon vor 2022 erreichen, sondern mit ca. 7 Billionen.

Interessanterweise gab es dazu kaum Widerspruch aus der Runde, nur Frau Dehmer, die sich im Verlauf der Diskussion wenig zu Wort gemeldet und schon gar nicht „hart gegen gehalten, oder meine Thesen entlarvt“ hatte, meinte, diese Billionen müsse man über die langen Zeiträume sehen, dann verlören sie auch ihre Schrecken. Im Übrigen hätte der Aufbau fossiler Kraftwerke ja auch viel Geld gekostet und eine Erneuerung dieser veralteten Technologie sei sowieso erforderlich gewesen. Nun ja: Dass Windparks, die (und das auch nur rechnerisch) dieselbe Strommenge liefern können, wie ein Kohlekraftwerke ca. 6x teurer sind, und Solarfelder die das auch (un nur rechnerisch) bis zu 17 x teurer sind, und dazu noch immense Flächen besetzen war ihr vermutlich nicht so geläufig.

Und wie diese täglich erfahrbare Teuerung mit der  Alltagserfahrung, die sich in jeder Stromrechnung unmittelbar niederschlägt, mit den ach so „billigen“ NIE in Einklang zu bringen ist, weiß und glaubt wohl auch nur der Erfinder des EEG, Herr Fell.  Wahres ist eben nur Bares, um ein bekanntes geflügeltes Wort abzuwandeln.

Siegmar Gabriel ist schuld

H.J. Fell hatte dann aber trotzdem schnell einen Sündenbock für diese hohe Belastung parat, nämlich den damaligen Bundesumweltminister Siegmar Gabriel. Der hätte 2009 gegen seinen Einspruch das EEG so novelliert, dass die Kosten danach rapide angestiegen seien. Doch erkannte Fell nicht, dass das EEG, wenn es gar nicht erst von ihm und 3 weiteren Kollegen erfunden worden wäre, auch nicht novelliert hätte werden müssen. Diese Logik erschließt sich ihm wohl nie.  Und wie man so schön sagt, wer so stolz auf dieses Gesetzeswerk ist, wie Herr Hans Josef Fell, der muss ertragen, dass auch für ihn gilt: „mitgegangen, mitgefangen, mitgehangen“.

Die Welt wird den Hitzetod sterben

Doch gut ist es das EEG -lt Hans-Josef Fell- immer noch, denn er glaubt ganz, ganz fest daran, dass die Welt, dank der Emissionen des (immer noch nur Spurengases) CO2 unweigerlich dem Hitzetod entgegen taumeln wird, wie er mir in einer Email heute schrieb, wenn nicht durch möglichst schnelle 100 % ige Umstellung auf „Erneuerbare“ dem entgegen gewirkt würde.

Mein Einwand, dass Deutschlands Beitrag, wenn er denn erbracht würde und man die (übertriebenen) Formeln des IPCC verwendete, die prognostizierte Erwärmung (irgendwann) gerade mal um 4/1000 Grad oder weniger anstiege, ließen weder Herr Fell noch (meiner Erinnerung nach) Frau Dehmer gelten, denn wir hätten schließlich der Welt gezeigt, wie man das täte und alle anderen Länder würden bereits jetzt darin wetteifern es uns nachzutun. Costa Rica zum Beispiel würde, so Fell, heute schon zeigen, dass und wie es ginge. Ein wirklich überzeugender Beweis, jedenfalls für Herrn Fell. Und der etwas wortkarge Herr Brabeck meinte sogar, wir hätten der Welt nun die Solartechnologie (meine Anmerkung: unfreiwillig) geschenkt und daher wäre die Wirkung viel, viel stärker als es die reinen Zahlen zeigten.

Und auch als Fell behauptete, dass die NIE („Erneuerbaren“) erheblich, dank ihres Siegeszuges hierzulande mit fast 27 % prozentigem Anteils an der gesamten Stromproduktion zur Minderung der Emissionen beigetragen hätten, musste das wg. Zeitmangels unwidersprochen im Raum stehen bleiben. Im kommende Faktencheck (sobald der Tonmitschnitt vorliegt) werden wir auf diese Behauptung, wie auf viele andere genauer eingehen.

Bild 2 Energie Einspeisung der NIE vs  CO2 Emissionen der Kraftwerke zur Stromerzeugung. Einem Anstieg um 400 % bei den NIE steht eine 2 % Senkung der Emissionen gegenüber.

Die Realität. 27 % „Erneuerbare“ senken die CO2 Emissionen kaum

Hier nur soviel. Die „Erneuerbaren“  hatten 2014 bereits einen Anteil von rd. 27 % an der Stromerzeugung, jedoch sank die CO2 Emission der Kraftwerke gegenüber dem Startjahr 2000 nur um 2 %.

Ein sehr teuer erkaufter Erfolg, von dem allerding RWE Brabeck meinte, erstens, dass wir ihn uns leisten könnten und zweitens mehrheitlich eine Regierung gewählt hätten, die das umsetzt. Zum zweiten Punkt konnte man ihm nicht widersprechen, doch zum ersten Punkt erhob sich in der anschließenden Diskussion kräftiger Protest, denn die hohe Stromrechnung  können sich Leute mit kleinem Einkommen schon jetzt kaum noch leisten, sie hätten oft nur die Wahl zwischen nicht alle Tage kochen, oder ihren Strom bezahlen zu können, wie einer der Zuhörer unter Bezug auf seine Stromrechnung plastisch darstellte. Ich sekundierte ihm mit der sachlichen Darstellung, dass bereits jetzt ca. 1 Mio Haushalte ihre Stromrechnung ganz oder zeitweise nicht mehr bezahlen könnten, wenn auch manchmal aus anderen Gründen als dem EEG. Und in Groß Britannien kursiert bereits das massenhafte Phänomen der „energy pverty“. Davon sind bereits knapp 25 % der Bevölkerung betroffen.

Der Klimawandel

Nun habe ich bisher noch kaum etwas über die anfangs dominierende Klimadebatte geschrieben, das ist eigentlich schade, und sei hier ein wenig nachgeholt. Die Diskussion begann mit der Feststellung der Moderatorin, EIKE sei ja nun bloß ein Verein und betriebe keine eigene Forschung, um die Frage anzuschließen ob ich denn an den Klimawandel glaubte[4].  Ich führe aus, dass EIKE, wie auch das PIK und auch die Max Planck Gesellschaft, mit der wir uns aber nicht vergleichen wollten, als Verein organisiert sei. Schließlich brauche man eine juristische Plattform, um öffentlich in Erscheinung treten zu können. Und natürlich betrieben wir auch eigene Forschung, wie sie z.B. unserer Publikationsliste hätte entnehmen können.  Ferner würde niemand bei EIKE am ständigen Wandel des Klimas zweifeln, den gäbe es schließlich seit es Atmosphäre auf dieser Erde. Anders sei es allerdings mit dem anthropogen erzeugten Klimawandel für den es nun mal keinerlei Beweise weder experimentell noch durch Beobachtung in den vielen tausend Veröffentlichungen, die das IPCC verwendet hätte noch sonst wo gäbe. Und weil das so sei, glauben wir daran nicht. Das rief sofortigen Widerspruch von Herrn Fell hervor, der erklärte, er hätte als oder mit seinen Studenten Grundversuche mit dem CO2 dazu durchgeführt. Und wer das verneine rüttele an den Grundfesten der Physik z.B. am Energieerhaltungssatz. Nun hatte ich ja nie behauptet, es gäbe keinen anthropogenen Treibhauseffekt –obwohl man durchaus Zweifel an dieser Hypothese – so plausibel sie auch daher kommen mag- haben kann. Ich sagte nur deutlich und klar, dass er nicht zu finden sei.  Aber schon das war allen zu viel. So erklärte die Moderatorin mir und dem Publikum rundheraus, dass gerade wieder eine (Meta)Studie die ca. 12.000  papers untersucht hätte, bewiesen hätte, dass 97 % davon diese Hypothese bejahten. Und meinte wohl das sei doch Beweis genug.

Ich erwiderte, dass sie wohl die Cook-Studie meinte, was sie bejahte, und erklärte ihr dann, dass nach der neuesten  Überprüfung der Methodik dieser Studie die Verfasser zu dem Schluss gekommen seien, dass Cooks Vermutung nur 0,3 % der Studien folgten (Details dazu hier) Der Rest stimmt zwar einer Erwärmung zu, die aber eben nicht zwangsläufig anthropogen erzeugt. Und, so schob ich nach,  sei Cook kein Klimawissenschaftler sondern Psychologe. Was sie ebenfalls verneinte. Jedoch schreibt derselbe John Cook, der ein Blogger ist, welcher die Mainstream Website „SkepticalScience“ betreibt auf seiner Website

about..

(John Cook) is currently completing a PhD in cognitive psychology, researching how people think about climate change. He is also developing a MOOC (Massive Online Open Course),Making Sense of Climate Science Denial, to be released in April 2015.

W.z.b.w. oder für die Lateiner unter unseren Lesern: „qued“

Aber obwohl diese Studien, wissenschaftlich, den Klimawandel und seine vermuteten Ursachen betreffend, völlig irrelevant sind, werden sie gerne von allen  – auch und besonders häufig von Umwelt- und/oder Wissenschaftsjournalisten geglaubt. Die Betonung liegt dabei auf geglaubt. 

Es scheint ja so gut zu passen. Millionen Fliegen können eben nicht irren, oder wie es Einstein viel besser formulierte, als man ihm vorhielt, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er sagte kühl: „Wenn die recht hätten genügte einer.“ 

So, nun hat der Leser ein Stimmungsbild, so wie sich diese Diskussions-Runde und das Auditorium aus meiner subjektiven Sicht darbot. Verständlich, dass ich guten Mutes, sogar locker beschwingt, diese Runde wieder verließ. Sicher hat der eine oder andere Teilnehmer  eine etwas andere Sicht der Dinge. Sollten mir daher Fehler in der Darstellung unterlaufen sein, so bitte ich um Mitteilung, dann kann ich sie überprüfen und ggf. korrigieren. Auf jeden Fall möchte ich mich noch einmal und in aller Form bei den Veranstaltern für die Organisation dieser hochkontroversen, aber trotzdem vergnüglichen Diskussion bedanken

Anmerkungen: 

[1] Übrigens, wenn sich meine Leser, so wie ich immer wieder, darüber gewundert haben sollten warum in den Quasselrunden der Öffentlich Rechtlichen immer und immer wieder dieselben Frauen auftauchen, als da sind, die strenge Sarah Wagenknecht, die immer betroffene Claudia Roth oder die burschikose, aber immer stramm linke Ines Pol von der unbedeutenden taz, um nur einige zu nennen, dann dürfte das mit diesem Gender- Ukas zusammenhängen.

[2] Für alle Jüngeren und Nichtberliner: Dieses nette Wortspiel geht auf einen Sketch, so glaube ich, der Berliner Stachelschweine zurück, die darin einen Charité Wundarzt beim Anblick eines zu amputierenden Beines persiflieren und über das ich mich als junger Mensch scheckig gelacht hatte.

[3] Die Macher selber sprechen von einem „Diskussionspapier“. Details hier

[4] Ohne Zugriff auf den Mitschnitt bin ich mir nicht ganz sicher ob sie allgemein vom Klimawandel sprach oder explizit den anthropogenen KW. Ich meine heute sie fragte ganz allgemein danach




Die Konsequenz der Energiewende – Energiekonzerne sollen verstaatlich, Verluste sozialisiert werden!

Gestern erschien in der FAZ ein Artikel über die  missliche Lage des Energiekonzerns RWE. Der Autor der FAZ die Wirtschaftsjournalist Carsten Knop (und in einem weiteren Artikel mit Helmut Bünder) beschreibt dessen Situation im Hinblick auf die Schwierigkeiten bei der Sicherung von dessen Rückstellungen, welche die Betreiber von Kernkraftwerken  gebildet haben, um die Endlagerung des „Atommülls“ sicher bezahlen zu können.  Dabei konzentriert sich der Autor auf die aktuelle Situation des Energieriesen, der nicht genug Börsenwert mehr haben würde, um seine Rückstellungen im Bedarfsfall aktivieren können.

Zitat:

Die Abschaltung der deutschen Kernkraftwerke und die Abdeckung der Ewigkeitskosten des Atommülls wird Konsequenzen haben, über welche die meisten Menschen in Deutschland bisher noch nie nachgedacht haben. Ein Unternehmen wie RWE wird es in seiner bisherigen Form nicht mehr lange geben können… Natürlich sind von den Atomkraftwerksbetreibern Rückstellungen gebildet worden. Aber wo sind diese Rückstellungen gebunden? Sie sind nicht in Form von Bargeld vorhanden. Wenn ein Unternehmen wie RWE an der Börse aber nur knapp 13 Milliarden Euro wert ist – und schon heute für 10 Milliarden Euro geradestehen soll, dann muss es mit allen seinen Beteiligungen im Grunde vollständig in eine Atomstiftung eingebracht werden.

Dabei beschreibt er zwar die gegenwärtige Situation ziemlich korrekt, unterlässt es aber gleichzeitig – bis auf einen kleinen Nebensatz[1]– die Ursachen dieser Situation zu benennen und zu analysieren. Das ist vermutlich Absicht, denn an den Fähigkeiten des Herrn Knop (diese kommen auch im zweiten, längeren Artikel mit Co-Autor Helmut Bünder nicht zur Sprache) kann es lt. seiner Vita nicht liegen. Also werden sie aus anderen Gründen nicht genannt. Zeit oder Platzmangel könnten sie heißen, vielleicht aber auch gewolltes Verschweigen? 

Denn die Ursachen für diese Entwicklung liegen eindeutig im EEG, mit seiner maßlosen Bevorzugung -per gesetzlichem Zwang- der Nachhaltig Instabilen Energien (NIE) und der Merkelschen Energiewende, die das Ganze, samt panikartigem Atomausstieg erst zum Riesenproblem machte.  

Es darf nicht vergessen werden, dass die Versorger deswegen keine Gewinne mehr mit ihren fossilen Kraftwerken erwirtschaften können,  weil der im Übermaß und zu Unzeit erzeugte NIE Strom zwanghaft und mit Vorrang eingespeist, den Börsenpreis kaputt macht. Wird ein Produkt im Übermaß angeboten, geht dessen Preis in den Keller.  So einfach ist das!

Die Folge dieser staatlichen Willkür sind horrende Verluste bei den Kraftwerksbetreibern, ohne jede Aussicht auf Besserung und ohne ihr eigenes Verschulden, denen zusätzlich von der Netzagentur verboten wird – ohne Entschädigung versteht sich- ihre Kraftwerke stillzulegen und/oder abzumontieren und ins Ausland zu verkaufen.  Die Folge sind neben massivem Wertverlusten Massenentlassungen bei den Versorgern und ihren Zulieferern.

Hinzu kommt der panikartige Atomausstieg, nachdem man zuvor noch schamlos versuchte die schon sieche Kuh Versorger noch weiter zu melken, indem man ihnen – als Betreiber von Kernkraftwerken – auch noch eine Sondersteuer aufdrückte – nämlich die Brennelementesteuer. Diese Sondersteuer verschlechterte die schon schlechten Bedingungen abermals, muss aber bis heute bezahlt werden.

Und dann wurde der „Atomausstieg“ verfügt, obwohl in Deutschland nach wie vor jegliche Tsunamigefahr fehlt und auch Erdbeben zu den extrem seltenen Ereignissen gehören und wenn sie denn mal vorkommen, sind sie ganz unten auf der Richterskala angesiedelt.

Wie wir alle wissen, wurde der „Atomausstieg“allein deshalb verfügt, um die „Wirtschaftspartei“ CDU in Baden-Württemberg an der Macht zu halten. Begründet wurde er mittels eines politischen Coups, nämlich dem Einsatz einer „Ethik“-Kommission und derem bestellten Votum. Ihr gehörte zwar kein Energiewirtschaftler an, dafür aber mehrere Bischöfe und andere ethisch kompetente Mitbürger. Die „gefühlte“ Bedrohung, die „gefühlte“ Möglichkeit einer Stromversorgung aus NIE Quellen hatte bei deren Entschiedungsfindung absoluten Vorrang. 

Doch die Wahl ging für die CDU trotzdem verloren, nur der Atomausstieg blieb. Damit wurden natürlich die Versorger vom Staat definitiv und ohne sachlichen Grund enteignet. Ihre Werthaltigkeit drastisch reduziert. Eine Willkürmaßnahme gegen die sie mit jedem Recht derzeit klagen.

Leserbrief zur Rechtslage beim verordneten Atomausstieg für KKW Biblis in Hessen. Mit Dank an H. Gradic für dieses Fundstück

Kurze Zeit später wurde auch das ewige Endlagerthema nach bewährter Politikerart, dadurch „gelöst“ indem es ins Unendliche verschoben wurde. Aber mit dem schönen Nebeneffekt, dass der Vorwurf gegen die „Atomkraft“, die Enlagerproblematik sei ja immer noch ungelöst, „nachhaltig“ aktiviert werden kann. Als Konsequenz wurde das für knapp 2 Milliarden teure voll ausgeforschte und nach Meinung sämtlicher ehrlicher Experten gut geeignete Lager Gorleben aufgegeben und  gleichzeitig so getan, als ob man die Suche nach neuen Endlagerstandorten neu aufnimmt. Der einzige Zweck dieser Aktion ist, den Verhinderern der Kernkraft zu erlauben, weiter das Problem Endlager als „ungelöst“ zu bezeichnen und damit auf Stimmenfang zu gehen. Und es funktioniert.

Dass dadurch gleichzeitig die Kosten in astronomische Höhen getrieben werden, ficht die Befürworter und ihre Handlanger in Politik, NGO´s und vor allem Medien nicht an. Im Gegenteil, es ist ein weiterer erwünschter Nebeneffekt, denn dann kann man immer wieder auf die horrenden Kosten der Kernkraft verweisen und damit das Opfer zum Täter umdefinieren.

Das alles hätte zu einer ehrlichen Analyse der Situation alle Versorger aber insbesondere von RWE gehört. Stattdessen berichten beide Autoren darüber, wie der Ex-Wirtschaftsminister Werner Müller, das Problem zu beheben gedenkt. Nicht etwa, indem der vorschlägt, die Ursachen zu beseitigen, in dem man den Atomausstieg rückgängig  macht und die Energiewende sofort beendet, was die einzig richtige, weil in jeder Hinsicht vernünftige Reaktion wäre, nein, Werner Müller wird zitiert mit dem Vorschlag das Problem zu verschleiern, in dem die Ursachen unangetastet, weil ausgeblendet, bleiben, aber die angeschlagene Firma in Staatsbesitz  zu überführen sei. Das wird uns großartig als „Stiftung“  verkauft.

Als Preis für diese großzügige  Übernahme müssten aber die Konzerne Ihre Eigentumsrechte aufgeben, indem sie ihre Klagen gegen die Enteignung qua Atomausstieg zurückzögen. Wie die das machen können, ohne zu offensichtlich gegen geltendes Aktienrecht zu verstoßen wird Herrn Müller und seinen Beratern wohl auch noch einfallen.

Es ist übrigens derselbe Werner Müller der uns im Energiebericht 2001 weis machen wollte, dass die Energiewende für den Klimaschutz nur 250 Mrd € (2) kosten würde. Heute wissen wir, dass sie mindestens bei 7 Billionen € liegen werden, ohne dass das Klima auch nur im Ansatz davon beeindruckt wäre.  Man kann daher absolut sicher sein, dass jede Kostenschätzung die ein Werner Müller mit der vorgeschlagenen  Verstaatlichung  der Versorger – aus edlen Gründen natürlich – in der Wirklichkeit weit übertroffen werden.  Ist „gaga“ das richtige Wort für dieses Verhalten? Oder wie darf, soll man das nennen?

 Wie geht es nun weiter? 

Zunächst einmal betrifft es hier nur RWE. Aber EON und vor allem EnBW und vielen vielen anderen der kleineren Versorger, geht es ja nicht viel besser. Wenn man manchen Ökonomen glauben darf, dann steht EnBW sogar noch schlechter da als RWE.

EON und EnBW  haben sich daher für die Flucht nach vorn entschieden. EON verkündete gestern in Berlin seine Aufspaltung in eine "Bad Bank" „Uniper“ genannt, in der alle konventionellen Kraftwerks-Kapazitäten incl. der Kernkraftwerke gebündelt werden. Zur Aufhübschung der Braut wurden auch die EON gehörenden Lagerstätten für Erdgas hinzugefügt. Ob diese Maßnahme reicht, wieder eine bessere Bonität zu erreichen, darf bezweifelt werden, hat doch gerade S&P die Kreditwürdigkeit des Versorgers wegen der geplanten Ausgliederung von Uniper von "A-" auf "BBB+" gesenkt.

Uniper steht nun an Börse und es ist absehbar, dass eher früher als später der Ruf nach Übernahme durch den Steuerzahler laut werden wird. Denn die abzuschaltenden Kernkraftwerke müssen bewacht, später demontiert und entsorgt werden, während die fossil befeuerten Kraftwerke – wenn überhaupt- nur noch wenig Gewinn einspielen. Also wird man einen „Kapazitätsmarkt“ schaffen, vermutlich als Vorstufe einer endgültigen Übernahme durch den Steuerzahler. Der darf dann die Verluste ausgleichen, sie werden sozialisiert.

Der zweite Teil des Konzerns wird evtl. EON neu heißen und lebt in Zukunft ausschließlich, und vor allem vermutlich komfortabel, von staatlich angeordneten Zwangsabgaben, die das EEG hierzulande und andernorts (dank ähnlicher Subventionen) reichlich hereinspült. Und das für garantierte 20 Jahre. Schließlich rentiere sich so ein Windrad nach bereits 3 bis 5 Jahren frohlockte EON Chef Theyssen, der auch EON neu leiten wird, auf der Pressekonferenz am 29.5.15 in Berlin.

Nicht ganz so einfach wird es für EnBW. Da es aber bereits völlig in staatlicher Hand ist, braucht nicht mehr verstaatlicht zu werden. Von der grünroten Regierung in Baden Württemberg „ermutigt“ will EnBW nun ebenfalls die Flucht nach vorn antreten und in die sicheren Gefilde des zwangsbeigetriebenen Umsatzes flüchten. Bis 2020 sollen bereits 90 % des Umsatzes aus NIE Quellen und deren Verteilnetzen kommen, verspricht der Chef des Unternehmens Mastieux den Anteilseignern der insolventen PROKON, die ihm ihre Anteile für 500 Mio € verkaufen sollen. Mit deren Anlagen will er den Sprung in die erste Liga der NIE Betreiber schaffen. Und zusätzlich will er noch 3 Mrd € in weitere Windanlagen und nochmals 3 Mrd € in Stromnetze investieren. Wo die stehen sollen und vor allem woher das Geld kommen soll, bleibt vorerst im Dunkeln,  aber mit Staatsgarantie lässt sich das sicher auch richten.

So bleibt festzuhalten, dass die Zukunft deutscher Stromanbieter vom Steuerzahler garantiert werden soll. Von Markt ist zwar immer noch viel die Rede, aber das Gegenteil wird gemacht. Ehemalige Liberalisierungen werden zurückgedreht, denn die Energiewende hilft einen uralten sozialistischen Traum der Überführung von Schlüsselunternehmen eines Landes endlich wieder in Volkseigentum umzusetzen. Das wird jetzt mit großer Akribie betrieben. Und alles unter einer CDU Kanzlerschaft. Schließlich waren Funktionäre dank ihrer und oft auch ihrer Kunden Abneigung gegen „Profite“ schon immer die besseren, weil moralisch überlegenen, Unternehmer. Oder doch nicht? Wir werden es leider erleben.


[1] Im ersten Absatz: Die Abschaltung der deutschen Kernkraftwerke

[2] Die Zahl (500 Mrd DM) für -40% CO2 bis 2020 stammt aus dem Energiebericht des BMWi 2001 –