1

Der Temperaturstillstand … Wieder einmal

Viele Wissenschaftler hatten Erklärungen dafür, und das ist das Problem: viel zu viele Erklärungen. Es gibt nach einer konservativen Schätzung über 30 davon, die von „nicht existent“ bis zu den Ozeanen reichen; über Vulkane, Stratosphäre und fast alles dazwischen. Einige Wissenschaftler betrachten den „Stillstand“ als ein faszinierendes Ereignis, das Licht wirft auf die Wechselwirkung zwischen natürlichen klimatischen Variationen und erzwungenen Klimaänderungen. Andere bestehen stark, manchmal zu stark darauf, dass dieser Stillstand in keiner Weise überhaupt existiert. In der Schlacht um einprägsame Phrasen gibt es eine, die „künstlicher Stillstand“ genannt wird – als ob so viele andere Wissenschaftler nur dumm und fehlgeleitet wären, die diesen Gedanken auch nur in Erwägung gezogen haben.

Im vorigen Monat erregte eine Studie von Karl et al 2015 im Magazin Science sehr viel Aufmerksamkeit, weil trotz des Wortes „möglich“ im Titel viele Journalisten und Kommentatoren ebenso wie einige Wissenschaftler, die sich ein wenig als beidem zugehörig betrachten, sofort als sicher verkauften, dass eine Revision der Ozeantemperatur-Messungen den „Stillstand“ komplett beseitigt hatte. Die Studie wurde als definitiv verkauft; als das letzte Wort; der „Stillstand“ war gar keiner, basta!

Besonnenere Köpfe äußerten eine breiter gefasste Ansicht mit der Aussage, dass diese Studie nicht das letzte Wort zu diesem Thema sei. Die jüngste Studie zum „Stillstand“ mag ja einiges sagen, aber die Historie dieses Gegenstandes, ja der Wissenschaft selbst, war immer, dass die jüngste Studie fast niemals definitiv ist. Nichtsdestotrotz haben es drittrangige Köpfe als das letzte Wort verkauft. Ein „Journalist“ twitterte, dass es „erstaunlich war, Zeuge der PR-Bemühungen der Lobby der Klimaskeptiker zu sehen … die neue Studie von Karl et al. zu widerlegen“. Ein anderer twitterte „man hat nichts versäumt, der ,Stillstand‘ der globalen Erwärmung hat niemals stattgefunden“.

[Auch die „Süddeutsche Zeitung“ hatte seinerzeit in einem seitenfüllenden Artikel in diese Kerbe gehauen. Aber dort ist ja journalistisches Ethos schon lange abhanden gekommen. Anm. d. Übers.]

Er ist niemals verschwunden

Das gleiche Journal hat nun eine andere Studie publiziert, und zwar von Nieves et al, die einen Monat nach der Studie von Karl et al. zur Veröffentlichung angenommen worden war. Sie beschreibt den „Stillstand“ und versucht sich an einer Erklärung, auf welche Art und Weise Wärme durch die verschiedenen Ozeanschichten wandert.

Darin heißt es, dass sich der Pazifik in den oberen 100 m abgekühlt habe, was durch eine Erwärmung in Tiefen zwischen 100 und 300 m im Indischen und Westpazifischen Ozean kompensiert worden war.

Ich hasse Graphiken ohne Fehlerbalken, und in dieser Studie gibt es sehr viele davon. Zwar werden die Fehler anderswo im Text der Studie angesprochen, aber solche Details können einfach übersehen werden. Graphiken dagegen werden wahrscheinlich ihren Weg finden, und wenn sie Fehlerbalken weglassen, erlangen sie häufig sehr große Autorität. Dann wird die Graphik weitergereicht, und die Fehler sind dann vergessen.

Es ist interessant, die Trends in dieser jüngsten Studie mit den Trends bei Karl et al. zu vergleichen. Karl kam auf ein Ergebnis von 0,09°C im Zeitraum 2000 bis 2014, während in der neuen Studie nur 0,001°C im Zeitraum 2003 bis 2012 genannt werden. Das ist ein riesiger Unterschied. Nieves et al. fanden im Zeitraum 1993 bis 2002 0,008°C. Tatsächlich fanden sie im derzeitigen Jahrzehnt substantiell weniger Erwärmung in den oberen 100 m der Ozeane als im vorigen Jahrzehnt.

Es zeigen sich auch keinerlei Beweise für die viel erwähnte These von Kevin Trenberth, der zufolge die „fehlende Wärme“ unterhalb 700 m Tiefe liegt. Tatsächlich passiert dieser Studie zufolge unterhalb von 700 m überhaupt nichts.

Soweit es die Wassertemperatur an der Wasseroberfläche und den Wärmegehalt der oberen Ozeanschichten betrifft, ist der „Stillstand“ definitiv vorhanden.

Nieves et al. sagen, dass die gemessenen Wärmeschätzungen keinen offensichtlichen Stillstand zeigen. Sie zeigen, dass es seit Anfang der neunziger Jahre eine stetige Rate der Wärmeaufnahme der Ozeane gab. Andere Studien haben nahegelegt, dass die Gesamt-Wärmeaufnahme der Ozeane während der neunziger Jahre reduziert war.

Alles in allem plädieren Nieves et al. für eine Erklärung des „Stillstands“ als Folge der Umverteilung von Wärme innerhalb der Ozeane und nicht als eine Folge der Änderung der Gesamt-Erwärmungsrate. Allerdings glaube ich angesichts der Unsicherheiten nicht, dass diese Studie seiner von sich selbst behaupteten „definitivsten Erklärung, wie die Wärme umverteilt worden ist“, gerecht wird.

Es wird sehr interessant sein zu verfolgen, wie die Medien auf diese Studie reagieren, wenn man sich vor Augen führt, wie viele die „Antwort“ von Karl et al. bzgl. des nicht existierenden Stillstands proklamiert hatten. Angesichts des Umstandes, dass diese Studie im gleichen Journal wie Karl erschienen und den Journalisten in der wöchentlich ausgegebenen Übersicht vier Tage vor der Veröffentlichung bekannt gemacht worden ist, gibt es keine Ausrede dafür, diese Studie nicht gekannt zu haben. Aber ob darüber wirklich berichtet und der Sicherheit widersprochen wird, die Karl et al. an den Tag gelegt haben, bleibt abzuwarten.

Link: http://www.thegwpf.com/the-temperature-hiatus-back-again/

Übersetzt von Chris Frey EIKE




Studie: überraschend starkes geothermales Heizen unter dem Westantarktischen Eisschild

Bild rechts: Julien Nicolas, courtesy of Ohio State University.

Das UC-Santa Cruz-Team berichtet über erste direkte Messungen des Wärmeflusses aus dem Erdinneren an die Basis des WAIS.

Die Wärmemenge, die die Basis des WAIS aus geothermalen Quellen innerhalb der Erde erreicht, ist erstaunlich groß. Dies geht aus einer neuen Studie hervor unter Leitung der UC-Santa Cruz-Forscher. Die Ergebnisse wurden am 10. Juli in Science Advances veröffentlicht und zeigen wichtige Daten für Forscher, die das Schicksal des Eisschildes vorherzusagen versuchen, hat dieser doch im vorigen Jahrzehnt massives Schmelzen erfahren.

Leitautor Andrew Fisher, Professor der Erd- und planetarischen Wissenschaften an der UC Santa Cruz, hat darauf hingewiesen, dass die geothermale Wärme, von der in dieser Studie die Rede ist, nicht den alarmierenden Eisverlust der Westantarktis erklären kann, der von anderen Forschern dokumentiert worden ist. „Der Eisschild vergrößerte und verkleinerte sich mit dem geothermischen Wärmefluss von unten – es ist Teil des Systems. Aber dies könnte zu erklären helfen, warum der Eisschild so instabil ist. Fügt man die Auswirkungen der globalen Erwärmung hinzu [so es diese gibt, Anm. d. Übers.], kann alles anfangen, sich sehr schnell zu ändern“, sagte er.

Ein hoher Wärmefluss unter dem Westantarktischen Eisschild könnte auch helfen, die Existenz von Seen unter demselben zu erklären und warum Teile des Eisschildes so schnell wie Eisströme fließen. Man nimmt an, dass das Wasser an der Basis der Eisströme den Schmierfilm bildet, der die Bewegung steuert, was große Mengen Eises an die fließenden Ränder der Eisschilde transportiert. Fisher merkte an, dass die geothermische Messung nur an einer Stelle durchgeführt worden ist, und es ist anzunehmen, dass der Wärmefluss unter dem Eisschild von Stelle zu Stelle variiert.

„Dies ist die erste Messung des geothermalen Wärmeflusses unter dem WAIS. Darum wissen wir nicht, wie lokal diese geothermischen Bedingungen auftreten. Es gibt vulkanische Aktivität in diesem Gebiet, so dass das Messergebnis auch die Folge einer lokalen Wärmequelle in der Erdkruste sein kann“, sagte Fisher.

Die Studie war Teil eines großen antarktischen Bohrprojektes, finanziert von der National Science Foundation mit der Bezeichnung WISSARD (Whillans Ice Stream Subglacial Access Research Drilling), wobei UC Santa Cruz eine der drei leitenden Institutionen ist. Das Forscherteam verwendete eine spezielle thermische Sonde, die von UC Santa Cruz entworfen und gebaut wurde, um die Temperatur von Sedimenten unterhalb des unter einer halben Meile dickem Eis liegenden Lake Whillans zu messen. Nachdem man den Eisschild mit einem Spezial-Heißwasserbohrer durchbohrt hatte, ließen die Forscher die Sonde durch das Bohrloch hinabgleiten, bis diese in den Sedimenten am Grund des untereisischen Sees versank. Die Sonde maß Temperaturen in verschiedenen Tiefen in den Sedimenten und enthüllte eine Rate der Temperaturänderung mit der Tiefe, die fünf mal größer war als man sie typischerweise auf Kontinenten findet. Die Ergebnisse zeigen einen relativ raschen Wärmefluss in Richtung Boden des Eisschildes.

Diese geothermale Heizung trägt zum Schmelzen von Grundeis bei, welches wiederum ein Netzwerk subglazialer Seen und Feuchtgebiete mit Wasser versorgt. Dieses Netzwerk haben Wissenschaftler unterhalb einer großen Region des Eisschildes entdeckt. In einer im vorigen Jahr in Nature veröffentlichten separaten Studie berichtete dass WISSARD-Mikrobiologie-Team von einem reichlichen und vielfältigen mikrobiologischen System im gleichen See. Warme geothermale Bedingungen können dabei helfen, subglaziale Habitate geeigneter zu machen für mikrobiologisches Leben und auch Flüsse antreiben, die Wärme, Kohlenstoff und Nährstoffe in diesem Netzwerk verteilen.

Dem Autor Slawek Tulaczyk zufolge, Professor der Erd- und planetarischen Wissenschaften an der UC Santa Cruz und einer der Projektleiter von WISSARD, ist der geothermische Wärmefluss eine wichtige Größe für die Computermodelle, mit denen die Wissenschaftler verstehen wollen, wie und wie schnell der WAIS schrumpft.

„Es ist wichtig, dass wir diese Größe richtig abschätzen, falls wir akkurate Prophezeiungen machen wollen, wie sich der WAIS in Zukunft verhalten wird, wie viel davon schmelzen wird, wie schnell das Eis fließt und welchen Einfluss dies auf den Anstieg des Meeresspiegels hat“, sagte Tulaczyk. „Ich habe viele Jahre lang gewartet, einen direkt gemessenen Wert des geothermischen Flusses unter diesem Eisschild zu sehen“.

Die gewaltigen Eisschilde der Antarktis werden durch im Inneren des Kontinents fallenden Schnee gespeist. Das Eis fließt dann langsam an die Ränder. Der Westantarktische Eisschild wird als weniger stabil erachtet als der größere Ostantarktische Eisschild, weil dieser auf Festland liegt, dessen Oberfläche unter dem Niveau des Meeresspiegels liegt und die Eisfelder an den äußeren Rändern ins Meer abgleiten. Studien aus jüngerer Zeit von anderen Forschungsteams haben ergeben, dass die Eisschilde schmelzen infolge warmer Ozeanströmungen, die unter dem Eis zirkulieren, und die Schrumpfungsrate der Eisschilde beschleunigt sich. Diese Ergebnisse haben Bedenken hinsichtlich der Gesamtstabilität des Westantarktischen Eisschildes beflügelt.

Der in dieser neuen Studie gemessene geothermische Wärmefluss betrug etwa 285 Milliwatt pro Quadratmeter. Das entspricht in etwa der Wärme, die von einer kleinen LED-Weihnachtsbaumkerze pro Quadratmeter ausgeht. Die Forscher maßen auch den aufwärts gerichteten Wärmefluss durch den Eisschild (etwa 105 Milliwatt pro Quadratmeter) mittels eines Instrumentes, das von Mitautor Scott Tyler von der University of Nevada in Reno entwickelt worden ist. Dieses Instrument wurde im WISSARD-Bohrloch zurückgelassen, als dieses wieder gefror. Die Messungen auf der Grundlage eines Laserstrahls in einem Fiberglaskabel [laser light scattering in a fiber-optic cable] wurden dann ein Jahr später durchgeführt. Mit der Kombination der Messungen sowohl unter als auch innerhalb des Eisschildes machte es möglich, die Rate zu berechnen, mit der an der Bohrstelle Schmelzwasser am Grund des Eisschildes erzeugt wurde. Es ergab sich eine Rate von etwa einem halben Inch [ca. 1,2 cm] pro Jahr.

Link: http://wattsupwiththat.com/2015/07/10/study-finds-surprisingly-high-geothermal-heating-beneath-west-antarctic-ice-sheet/

Übersetzt von Chris Frey EIKE




Nassim Taleb schlägt wieder zu – Der schwarze Schwan der Messfehler

Abstract: Dem allgemeinen Gefühl zufolge hat das Hinzufügen von kleinen Variablen mit begrenzter Varianz eine lineare, sublineare oder asymptotische Auswirkung auf die Gesamtheit, und zwar von der Additivität der Varianz, was zu einer Konvergenz von Mittelwerten führt. Allerdings werden dabei nicht die meisten winzigen Modellfehler oder Ungenauigkeiten bei der Messung der Wahrscheinlichkeit berücksichtigt. Wir zeigen, wie das Hinzufügen von Zufallsvariablen aus irgendeiner Verteilung dazu führt, dass der Gesamtfehler (von der initialen Messung der Wahrscheinlichkeit) divergiert; er wächst auf konvexe Art. Es gibt einen Punkt, an dem das Hinzufügen einer einzigen Variablen den Gesamtfehler verdoppelt. Wir zeigen den Effekt bei der Wahrscheinlichkeit (via copulas [?]) und payoff space (via Sums of r. v.)

Höherdimensionale Systeme werden eventuell total unvorhersagbar beim Auftreten des geringsten Fehlers bei den Messungen, unabhängig von der Wahrscheinlichkeits-Verteilung der individuellen Komponenten.

Die hier gezeigten Ergebnisse sind frei von Verteilung und gelten für jedwede kontinuierliche Wahrscheinlichkeits-Verteilung mit Unterstützung in R.

Und schließlich bieten wir einen Rahmen an, um den Ausgleich zwischen hinzugefügter Dimension und Fehler zu kalibrieren (oder abzuschätzen, welche Reduktion des Fehlers auf dem Niveau der Wahrscheinlichkeit notwendig ist für hinzugefügte Dimensionen).

Mann! All das Gerede über Alarmismus, das ist furchterregendes Zeug. Hier folgt ein Zitat:

Tatsächlich sind Fehler so konvex, dass der Beitrag einer einzigen zusätzlichen Variablen den Gesamtfehler größer machen kann als diejenige zuvor. Die n-te Variable bringt mehr Fehler ein als zuvor die n-1 Variablen!

Dieser Punkt ist von einiger Bedeutung für die „Vorhersage“ in komplexen Gebieten wie Ökologie oder in irgendwelchen höherdimensionalen Problemen (Ökonomie). Aber es konterkariert die Vorhersagbarkeit in Domänen, die als „klassisch“ angesehen werden und nicht als komplex bei einer Vergrößerung des Raumes der Variablen.

Man lese die Studie. Selbst ohne Verständnis der darin enthaltenen Mathematik sind die Schlussfolgerungen verstörend.

Link: http://wattsupwiththat.com/2015/07/11/nassim-taleb-strikes-again/

Anthony Watts führt diesen Beitrag von Willis Eschenbach noch weiter umfassend aus:

,Robuste‘ Analyse ist nicht das, was es sein sollte: die besten 10 Wege, die Wissenschaft vor ihrem statistischen Selbst zu retten

Anthony Watts

Als Folge der jüngsten Ausführungen von Willis Eschenbach zu Nassim Taleb mit seiner Aussage „Tatsächlich sind Fehler so konvex, dass der Beitrag einer einzigen zusätzlichen Variablen den Gesamtfehler größer machen kann als diejenige zuvor“ habe ich mir gedacht, dass es angebracht ist, diese Zerschlagung der Über-Zuverlässigkeit statistischer Verfahren in der Wissenschaft weiter auszuführen; vor allem, da unsere globale Temperaturaufzeichnung vollständig eine statistische Konstruktion ist.

Auszüge aus dem Artikel von Tom Siegfried in Science News:

Wissenschaft ist heldenhaft. Sie befeuert die Wirtschaft, füttert die Welt und bekämpft Krankheiten. Sicher, sie führt auch zu manchem Unangenehmen – Wissen ist Macht für das Schlechte ebenso wie für das Gute – aber insgesamt gebührt der Wissenschaft Dank für die Schaffung der Grundlage des Komforts und der Bequemlichkeiten der modernen Zivilisation.

Aber trotz all dieser heroischen Errungenschaften weist Wissenschaft ein tragisches Manko auf: Sie richtet sich nicht immer nach dem Image, das sie von sich selbst erschaffen hat. Gemeiniglich steht Wissenschaft für Loyalität gegenüber Ursachen, strikter Logik und der Suche nach Wahrheit frei von den Dogmen der Autoritäten. In der Praxis ist Wissenschaft jedoch großenteils unterwürfig gegenüber der Autorität von Zeitschriften-Herausgebern; durchsetzt mit Dogma und sich nicht bewusst der logischen Fehler bei den primären Verfahren zu Untersuchungen: statistische Analysen experimenteller Daten zum Testen von Hypothesen. Als Folge sind wissenschaftliche Studien nicht so zuverlässig wie sie von sich behaupten. Dogmatische Ergebenheit gegenüber traditionellen statistischen Verfahren ist eine Achillesferse, die anzuerkennen die Wissenschaft sich weigert, womit sie ihren heldenhaften Status in der Gesellschaft aufs Spiel setzt.

Noch nachdrücklicher: Eine in psychologischen Journalen veröffentlichte Analyse von 100 Ergebnissen zeigt, dass die meisten dieser Ergebnisse einfach verpuffen, wenn die gleiche Studie erneut durchgeführt worden ist. Dies schrieb kürzlich das Journal Nature. Und dann gibt es da das Fiasko über sich ändernde Haltungen zu gleichgeschlechtlichen Hochzeiten, was in einer (inzwischen zurück gezogenen)Studie zu lesen war, die ganz offensichtlich auf fabrizierten Daten basierte.

Aber Betrug ist nicht das prominenteste Problem. Noch öfter können unschuldige Faktoren konspirieren, um ein wissenschaftliches Ergebnis schwierig zu reproduzieren zu machen, wie meine Kollegin Tina Hesman Saey kürzlich in Science News dokumentiert hat. Und selbst unabhängig von diesen praktischen Problemen garantieren statistische Schwächen, dass sich viele Ergebnisse als unecht herausstellen. Wie ich schon bei vielen Gelegenheiten erwähnt habe, die Standardmethoden in Statistik zur Evaluierung von Beweisen werden gewöhnlich missbraucht, fast immer falsch interpretiert. Außerdem sind sie nicht sehr informativ, selbst dann, wenn sie korrekt verwendet und interpretiert werden.

Niemand in der wissenschaftlichen Welt hat diese Dinge deutlicher beim Namen genannt als der Psychologe Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung in Berlin. In einer jüngst erschienenen Studie (hier), die er zusammen mit Julian Marewski von der University of Lausanne durchgeführt hatte, vertiefte sich Gigerenzer in einige der Gründe für diese beklagenswerte Situation.

Trotz allem besteht ihrer Analyse zufolge das Problem, weil das Streben nach „statistischer Signifikanz“ sinnlos ist. „Die Bestimmung der Signifikanz ist zu einem Ersatz für gute Forschung geworden“, schreiben Gigerenzer und Marewski in der Februar-Ausgabe des Journal of Management. In vielen wissenschaftlichen Zirkeln wurde „statistische Signifikanz“ zu einem Idol, zu dem man pilgern musste auf dem Weg zur Wahrheit. „Angesehen als das einzige verfügbare Mittel vor Ort wird dieses Streben praktiziert auf eine gewohnheitsmäßige, mechanische Weise – ohne danach zu fragen, ob das sinnvoll ist oder nicht“.

Normalerweise wird statistische Signifikanz beurteilt durch die Berechnung eines Wertes P, also der Wahrscheinlichkeit, dass die beobachteten Ergebnisse (oder extremere Ergebnisse) erzielt werden würden, falls kein wirklicher Unterschied besteht zwischen den getesteten Faktoren (zum Beispiel wie bei einem Medikament oder einem Placebo zur Behandlung von Krankheiten). Aber es gibt andere Verfahren. Oftmals wollen Forscher Vertrauensintervalle berechnen – Bandbreiten, die sehr der Fehlerbandbreite in öffentlichen Meinungsumfragen ähneln. In einigen Fällen könnten verfeinerte statistische Tests angewendet werden. Eine Lehrmeinung bevorzugt das Bayesianische Verfahren, seit Langem Rivale der Standardmethode.

Warum unternehmen Wissenschaftler nichts gegen diese Probleme? Konträre Motivationen! In einem der wenigen populären Bücher, die sich mit diesen statistischen Dingen eingehend befassen, zeigt der Physiker und Statistiker Alex Reinhart, dass es sich kaum für Wissenschaftler auszahlt, dem gegenwärtigen statistischen System Widerstand zu leisten.

„Unglückliche Anreize … zwingen Wissenschaftler, rasch kleine Studien mit schlampigen statistischen Verfahren zu veröffentlichen“, schreibt Reinhard in Statistics Done Wrong. „Promotionen, Beschäftigungsverhältnisse, Finanzierung und Job-Angebote sind allesamt abhängig davon, eine lange Lise mit Veröffentlichungen in prestigeträchtigen Journalen vorweisen zu können. Daher gibt es einen starken Anreiz, vielversprechende Ergebnisse so schnell wie möglich zu veröffentlichen“.

Und die Veröffentlichung von Studien erfordert es, die von den Herausgebern der Journale festgelegten Spielregeln einzuhalten.

„Herausgeber von Journalen versuchen zu beurteilen, welche Studien die größten Auswirkungen haben und das größte Interesse erregen, und wählen konsequenterweise jene mit den überraschendsten, kontroversesten oder neuesten Ergebnissen“, führt Reinhart aus. „Dies ist ein Rezept für Inflation von Wahrheit“.

Wissenschaftliche Veröffentlichungen sind daher durchsetzt mit Falschheiten.

Read all of part 1 here

Wertlos: Ein Wert P ist die Wahrscheinlichkeit, dass ein Ergebnis genauso extrem oder noch extremer ist als die beobachteten Daten, falls es de facto gar keine Auswirkung hat. P-Werte sind keine zuverlässige Maßzahlen von Beweisen.

Auszüge als Teil 2:

Statistik ist in der Wissenschaft das, was Steroide für Baseball sind. Suchterzeugendes Gift. Aber zumindest hat Baseball versucht, dem Problem zu begegnen. Die Wissenschaft leugnet dieses Problem zumeist.

Sicher, nicht jeder Gebrauch von Statistik in der Wissenschaft ist des Teufels, genauso wie Steroide manchmal geeignete Medizin ist. Aber ein spezielles statistisches Verfahren, nämlich das Testen von Null-Hypothesen, verdient das gleiche Schicksal wie Pete Rose im Baseball: Verbannung.

[Anmerkung des Übersetzers: Es würde zu weit führen, den nicht mit der US-Sportart Baseball vertrauten Lesern diesen Vergleich zu erläutern. Pete Rose war eine Baseball-Berühmtheit, bevor er aus irgendwelchen Gründen in der Versenkung verschwand.]

Zahlreiche Experten haben das statistische Austesten von Null-Hypothesen – das Grundverfahren wissenschaftlicher Methodik – als den Hauptschuldigen ausgemacht, der viele Forschungsergebnisse unreproduzierbar und vielleicht – eher mehr als weniger – irrig macht. Viele Faktoren tragen zu dieser abgründigen Lage bei. In den Biowissenschaften beispielsweise sind Probleme mit biologischen Mitteln und Referenzmaterialien eine wesentliche Quelle unreproduzierbarer Ergebnisse. Das zeigt ein neuer Bericht in PLOS Biology. Aber Schwierigkeiten mit „Datenanalyse und Berichterstattung“ werden ebenfalls angesprochen. Wie die Statistikerin Victoria Stodden kürzlich dokumentierte, führt eine Reihe statistischer Dinge zu Unreproduzierbarkeit. Und viele dieser Dinge drehen sich um Tests der Null-Hypothese. Anstatt wissenschaftliches Verständnis zu vertiefen, garantiert das Testen von Null-Hypothesen häufig falsche Schlussfolgerungen.

10. Verbanne P-Werte

9. Empfehle Schätzung

8. Überdenke Vertrauensintervalle

7. Verbessere Meta-Analysen

6. Rufe ein Journal of Statistical Shame ins Leben

5. Bessere Leitlinien für Wissenschaftler und Herausgeber von Journalen

4. Verlange Vorab-Registrierung von Studien-Designs

3. Setze dich für bessere Lehrbücher ein

2. Verändere Strukturen für Anreize

1. Überdenke die Berichterstattung über Wissenschaft in den Medien.

Noch mehr Gründe hinter dieser Liste in Teil 2 hier.

Ich würde dieser Top-10-Liste noch einen Punkt hinzufügen:

0.Verbanne den Gebrauch des Wortes ,robust‘ aus wissenschaftlichen Studien.

Angesichts dessen, was wir gerade hier und von Nassim Taleb gelesen haben, und da vor allem die Klimawissenschaft dieses Wort in Studien zu lieben scheint, denke ich, dass es nicht mehr ist als eine Projektion des Egos des/der Autor/en vieler klimawissenschaftlicher Studien ist und nicht ein unterstützenswertes Statement bzgl. statistischen Vertrauens.

Ein weiterer Punkt; ein Absatz aus Teil 1 von Tom Siegfried liest sich so:

Es ist langfristig für die Wissenschaft immer noch die oberste Strategie, umfassendes Wissen über die Natur zu etablieren. Mit der Zeit trennen akkumulierende wissenschaftliche Beweise im Allgemeinen das Gute vom Schlechten. (Mit anderen Worten, Klimawissenschafts-Leugner und Impfverweigerer werden durch heilloses statistisches Durcheinander in individuellen Studien nicht gerechtfertigt). Nichtsdestotrotz sind zu viele individuelle Studien in begutachteten Journalen nicht zuverlässiger als Meinungsumfragen vor Wahlen in UK.

Dieses hässliche Etikett über Klimaskeptiker beschädigt einen sonst exzellenten Artikel über Wissenschaft. Es zeigt auch, dass Mr. Siegfried sich nicht wirklich diesem Thema (d. h. Skeptizismus) genauso sorgfältig angenommen hat wie er es hinsichtlich des Missbrauchs der Wissenschaft getan hat.

Sollte Mr. Siegfried dies lesen, möchte ich ihm klarmachen, dass viele Klimaskeptiker zu Klimaskeptikern geworden sind, seit wir einmal damit angefangen haben, einige der schäbigen statistischen Verfahren zu untersuchen, die in wissenschaftlichen Studien verwendet oder sogar eingeführt worden sind. Die fragwürdige statistische Arbeit von Michael Mann allein (in Kombination mit dem Hype in den nicht nachfragenden Medien) hat Legionen von Klimaskeptikern hervorgebracht. Vielleicht sollte Mr. Siegfried doch etwas Zeit dafür aufbringen, die statistischen Kritiken von Stephen MyIntyre zu lesen und uns dann zu sagen, wie Dinge wie eine einzige Baumring-Stichprobe (hier) oder verkehrt herum präsentierte Daten (hier) oder vorab festgelegte Daten (hier) „robuste“ Klimawissenschaft erzeugen, bevor er das Etikett „Klimaleugner“ noch einmal in den Mund nimmt.

Link: http://wattsupwiththat.com/2015/07/12/robust-analysis-isnt-what-it-is-cracked-up-to-be-top-10-ways-to-save-science-from-its-statistical-self/

Übersetzt von Chris Frey EIKE




Der Rückbau von Windkraftanlagen

Ohne Landwirte und Forstwirte geht der Bau von Windkraftanlagen (WKA) nicht. Denn irgendjemand muß ja die Grundfläche für den WKA-Bau zur Verfügung stellen.  Die Bürgerinitiative hat die Risiken für die Grundeigentümer in einem Merkblatt zusammengetragen, aus dem hier auszugsweise zitiert wird:

Mit Vertragsunterzeichnung verpflichtet sich der Eigentümer in der Regel, alle für den möglichen Betrieb einer Windenergieanlage erforderlichen Erklärungen abzugeben und Unterschriften zu leisten (Auflassung, Baulast etc.). Von diesem Moment an entscheidet der Vertragspartner (Pächter / Nutzer) allein, ob überhaupt eine Anlage gebaut wird und wenn ja, in welchem Umfang. Ein Verkauf des Grundstücks ist zwar nicht ausgeschlossen, steht aber unter der Bedingung, dass die eingetragene Baulast mit verkauft wird.

Die versprochene Nutzungsentschädigung ist kalkuliert auf Grundlage einer Gewinnerwartung, die auf dem Erneuerbare Energien Gesetz (EEG) in der derzeit geltenden Fassung bzw. des jetzt schon bekannten Änderungsentwurfs (EEG 2014) basiert.

Sollte sich die Gewinnerwartung durch wesentliche Änderungen des EEG vor Inbetriebnahme oder durch rückwirkende Änderungen des Gesetzes nach Inbetriebnahme erheblich verringern (wobei bereits eine sehr geringe Reduzierung der derzeit geltenden Einspeisevergütung als wesentlich vereinbart wird), kann der Nutzer vom Eigentümer die Anpassung des Vertrages im zumutbaren Rahmen (sprich: Verringerung der Nutzungsentschädigung) verlangen. Hier bestimmt allein der Nutzer die Entschädigung, denn eine Kündigung des Vertrages aus diesem Grund ist in der Regel ausgeschlossen.
Es ist nicht ausgeschlossen, sondern eher wahrscheinlich, dass sich die gesetzlichen Bedingungen bereits geändert (verschlechtert) haben, bevor das vertraglich versprochene Nutzungsentgelt fällig wird.

Der Nutzer verpflichtet sich in einigen Verträgen zum Rückbau der errichteten baulichen Anlagen bis zu einer Tiefe vom mind. 2,00 m, so dass eine „ordnungsgemäße landwirtschaftliche Nutzung des Grundeigentums wieder uneingeschränkt möglich“ ist.

Das Baugesetzbuch (§ 35 Abs. 5) geht jedoch nicht von der (Wieder-) Herstellung einer ordnungsgemäßen landwirtschaftlichen Nutzung des Grundeigentums aus, sondern verlangt, dass das Vorhaben nach dauerhafter Aufgabe der zulässigen Nutzung zurückzubauen und Bodenversiegelungen zu beseitigen sind.

Der Nutzer verpflichtet sich zwar zur Bildung von Rücklagen für den Rückbau, dies aber nur im Rahmen der vertraglich eingegangenen Verpflichtung. Wie die Rücklagen gegen einen Insolvenzfall gesichert werden sollen, ist oft unklar. Im Falle der Insolvenz des Betreibers bleibt der Eigentümer in der Verpflichtung zum Rückbau. Die Kosten gehen zu seinen Lasten!

Der Eigentümer haftet bei Insolvenz des Betreibers für alle Schäden, die nicht von der Haftpflichtversicherung abgedeckt sind. Einen Einfluss auf den Inhalt des Versicherungsvertrags (abgedeckte Risiken) hat der Eigentümer nicht!

Soweit das Merkblatt der Bürgerinitiative. Der Landwirt sollte beim Abschluß des Vertrags einen Spezialanwalt konsultieren.

Bisher haben viele Grundeigner an den WKA über Nutzungsentschädigungen gut verdient.  Derzeit werden Anlagen in weniger windhöffigen Gebieten gebaut, mit der Wahrscheinlichkeit geringerer oder negativer Erträge. Das kann sich in Abhängigkeit vom Vertragskonstrukt erheblich auf die Nutzungsentschädigung auswirken.

Das Risiko, zum Schluß für den Rückbau in Haftung genommen zu werden, erfordert wasserdichte vertragliche Vereinbarungen mit ausreichenden Sicherheitsleistungen.
In einigen Bundesländern werden die Betreiber zur Sicherheitsleistung verpflichtet, zum Beispiel in Brandenburg. Mit dort vorgeschriebenen 4 % der Errichtungskosten wird man den Rückbau nach Ablauf der betriebsgewöhnlichen Nutzungsdauer von 20 oder mehr Jahren jedoch nicht schultern können. Im Insolvenzfall des Windmüllers bleibt der Grundeigner auf Mehrkosten hocken.

Beim Rückbau ist einiges zu beseitigen: Die Flügel, der Schaft, das Fundament, die Zuwegung, Kabel und Trafohäuschen. Das Fundament der 200 m hohen und 7.000 Tonnen schweren WKA E-126 wiegt 3.500 Tonnen und besteht aus 1.400 Kubikmetern hochfestem Beton. Das ist technischer Gigantismus vom Feinsten. Nach der Sprengung der WKA und dem Aufschlag des Schafts hat man durch die gewaltige Wucht des Aufpralls eine Mondlandschaft erzeugt. Inklusive eines Erdbebens. Über Boden- oder Biotopschutz braucht man sich angesichts des bei der Sprengung entstehenden Infernos nicht zu unterhalten. Die Baukosten der E-126 betragen 11 Mio €. Da kann ein Rückbau in 20 Jahren ohne weiteres eine Million kosten…

Der  Beitrag erschien zuerst im Blog des Autors hier




Warum Wetterumschläge häufiger werden

Sinkt die Temperatur dann nachts unter den Gefrierpunkt, kann ihnen das das Leben kosten. Als ich in den 1970er Jahren am Rand der Vogesen wohnte, habe ich selbst erlebt, wie ein Schäfer auf diese Weise fast seine ganze Herde einbüßte. Bis zur Jahrtausendwende ist mir danach dergleichen aber nicht mehr zu Ohren gekommen. Neuerdings scheinen solche Ereignisse aber wieder öfter aufzutreten. Was steckt dahinter?

Der leider viel zu früh verstorbene französische Klimatologe Marcel Leroux (1938 bis 2008) hat für solche plötzlichen Kaltlufteinbrüche, die bis in subtropische, ja sogar tropische Breiten reichen können, den noch immer umstrittenen Begriff Mobile Polar High (MPH) geprägt. Ihm waren diese Kaltlufteinbrüche aufgefallen, als er in Zusammenarbeit mit der World Meteorological Organisation (WMO) einen zweibändigen Klimaatlas Afrikas erarbeitete, den er in Frankreich als Habilitationsschift (Thèse d#état) einreichte. Leroux verstand unter einem MPH eine flache, am Boden kriechende linsenförmige dichte Kaltluftmasse mit maximal 1.500 Meter Dicke und 2 bis 3.000 Kilometer Breite, die sich infolge der Erdrotation vom polaren Kältehoch löst und auf der Nordhalbkugel nach Südosten wandert. Auf ihrem Weg verdrängt die Kaltluftlinse warme Luft. Diese steigt zum Teil auf und bildet Gewitter. Sie kann aber auch Richtung Nordost entweichen. Deshalb bilden sich auf dieser Seite des Kältehochs immer sekundäre Tiefdruckgebiete. Fließen mehrere von Labrador und Grönland über den Nordatlantik herunter ziehende kleine Kältehochs zusammen, entstehen große Hochdruckgebiete wie das bekannte „Azorenhoch“, das es nach Leroux als eigenständige Wesenheit aber gar nicht gibt.

Marcel Leroux hat später als Professor an der Universität Jean Moulin in Lyon mithilfe von Satellitenaufnahmen den Weg unzähliger MPHs analysiert und dabei festgestellt, dass sie Gebirgszüge über 1.000 Meter Höhe nicht überqueren können. Deshalb folgen sie über den Kontinenten den vorhandenen Ebenen und Tälern. Der in Nordafrika aufgewachsene Bretone hat sich besonders intensiv dem Phänomen des Mistralwindes im Rhônetal gewidmet. Zeigt sich über der Bretagne oder der Normandie ein MPH, so wird bald darauf im Rhônetal der Mistral blasen, denn die nach Südosten ziehende Kaltluftmasse muss sich zwischen dem Zentralmassiv (bis zu 1885 Meter hoch) und den Alpen (über 4.000 Meter hoch) hindurchquetschen. Wie in einem Trichter entstehen dabei Turbulenzen, stehende Wellen, die sich am Boden in Form heftiger Windböen bemerkbar machen.

Leroux sah in der seit dem Ende der 1970er Jahre zunehmenden Frequenz der Mistralwinde ein untrügliches Zeichen für eine beginnende Abkühlung der Erde. Nach seiner Vorstellung gibt es auf jeder Hemisphäre der Erde drei relativ selbständige atmosphärische Zirkulationseinheiten, die von Gebirgszügen über 2.000 Meter begrenzt werden. Die Motoren dieser Zirkulation sind die MPHs und damit das wachsende thermische Defizit an den Polen. Marcel Leroux ist deswegen von Anhängern der dominierenden synoptischen Schule der Meteorologie zum Scharlatan erklärt worden. Angetrieben wird die Luftzirkulation nach der Schul-Meteorologie nicht von polarer Kaltluft, sondern von den so genannten Hadley-Zellen der im Tropengürtel aufsteigenden Warmluft und den dabei entstehenden Tiefdruckgebieten. Die aufgestiegene Warmluft wird von der Erdrotation abgelenkt und sinkt in den so genannten Rossbreiten in Form trockener Fallwinde (Passat) wieder zu Boden. Diese Dynamik soll auch das Wetter im Westwindband höherer Breiten bis hinauf zur Arktis stark beeinflussen.

Der emeritierte kanadische Klimatologe Tim Ball, wie Leroux als „Klimaskeptiker“ bekannt, sieht in den von Leroux in den Vordergrund gerückten MPHs lediglich einen anderen Ausdruck für die in der amerikanischen Luftmassen-Typologie längst als „continental arctic air“ (cA) bekannten Einbrüche trockener arktischer Kaltluft. Solche Einbrüche haben den USA in den letzten Wintern mehrere extreme Kältewellen und katastrophale Schneefälle an der Grenze zwischen arktischer Kaltluft und subtropischer Warmluft beschert. Ball weist darauf hin, dass sich diese wellenförmige Luftmassengrenze in den letzten Jahren nach Süden verschoben hat. Über dieser Luftmassengrenze weht zickzackförmig in großer Höhe der so genannte Jet Stream. Es habe sich ein so genanntes meridionales Zirkulationsmuster herausgebildet. Die Amplituden der Wellen seien größer geworden. Das heißt Kaltluft kann immer weiter nach Süden vorstoßen. Andererseits kann aber auch Warmluft in der Gegenbewegung weiter nach Norden gelangen.

Dadurch erklärten sich sowohl die häufiger werdenden Kältewellen als auch extreme Hitzewellen wie die im Sommer 2010 in Russland, der nicht zufällig im Winter 2010/2011 im gleichen Gebiet eine ebenso extreme Kältewelle folgte. „Im historischen Rückblick“, so Tim Ball, „sehen wir, dass dieses Muster immer einer Abkühlung der Erde vorausgeht.“ Der Abkühlungsprozess setze auf der Südhalbkugel etwa zehn Jahre früher ein. Das zeigt sich gerade in diesem Jahr. Mitte Juli lag die australische Ostküste bis hoch nach South Queensland unter euner geschlossenen Schneedecke. Gleichzeitig hat die Ausdehnung des Antarktis-Eises in diesem Jahr, wie bei EIKE bereits gemeldet, einen Rekordwert erreicht. „Ich gehe davon aus, dass der Abkühlungsprozess mindestens bis zum Jahre 2040 anhält und schließe nicht aus, dass dabei Temperaturen erreicht werden wie in der so genannten Kleinen Eiszeit, als im Jahre 1683 auf der drei Fuß dick zugefrorenen Themse Jahrmärkte abgehalten wurden“, erklärt Tim Ball. Er weist im gleichen Atemzug darauf hin, dass die beobachtbare Häufung von Extremwetter nicht mit einer Zunahme der Zahl der Wirbelstürme einhergeht: „Actually, the number of tornadoes is dramatically down. The number of hurrcanes, particularly the ones coming ashore in the U.S. is significantly down.” Der “Weltklima-Rat” IPCC hatte das genaue Gegenteil prophezeit.




Australischer Premierminister streicht alle Subventionen für neue Windpark-Projekte

Der Sydney Morning Herald schreibt dazu:

Tony Abbott hat seinen Krieg gegen die Windenergie dramatisch eskalieren lassen. Er erzeugte damit eine neue Spaltung des Kabinetts und provozierte eine Warnung, dass er internationale Investitionen aufs Spiel stelle.

Fairfax Media hat enthüllt, dass die Regierung die 10 Milliarden Dollar schwere Clean Energy Finance Corporation angewiesen hat, keinerlei neue Investitionen in Windkraftprojekte vorzunehmen.

Schatzminister Joe Hockey und Finanzminister Mathias Cormann haben das so genannte Grünbuch veröffentlicht. Es enthält eine Direktive, dessen Investitionsauftrag zu ändern dergestalt, dass neue Windparks nicht gefördert werden. Diese Direktive wurde offensichtlich ohne Genehmigung oder auch nur Kenntnis von Umweltminister Greg Hunt veröffentlicht, was diesen sehr ärgerte.

Die Entscheidung ist ein weiterer Schlag gegen die Multimilliarden Dollar schwere Windindustrie, die gerade erst angefangen sich zu erholen von der Ungewissheit, die durch das regierungsamtliche Überdenken der Ziele erneuerbarer Energie ausgelöst worden ist. Analysten sagen, dass erwartet werden kann, dass 8,7 Milliarden Dollar während der nächsten fünf Jahre in Windkraft investiert werden. Die Corporation hat bis heute aber nur 300 Millionen Dollar in Windprojekte investiert.

Mehr dazu hier.

Die australische Abbott-Regierung war zweimal nicht in der Lage, die notwendige Anzahl von Stimmen im Senat zusammenzubekommen, um das Gesetz zur Entlassung der Kommission durchzusetzen. Aber sie haben das Zweitbeste getan – sie haben die Kommission angewiesen, sich auf die Entwicklung neuer Technologien zu konzentrieren.

…Die Regierung hat früher gesagt, sie möchte die Corporation sich auf Investitionen konzentrieren sehen in innovative Vorschläge bzgl. sauberer Energie anstatt sich um ausgereifte Technologien zu kümmern, die durch Mainstream-Kreditgeber finanziert werden können.

Senator Cormann und Mr. Hockey haben das Mandat erstmals zu Beginn dieses Jahres geändert und die Corporation angewiesen, seine angepeilten Renditen aufzugeben, ohne deren Risikoprofil aufzugeben.

Die Regierung hat zweimal versucht, die Corporation aufzulösen, was jedoch im Senat blockiert wurde. Das Gesetz zur Auflösung der Corporation ist ein potentieller double dissolution election trigger. …

Mehr dazu hier.

Der australische Schatzminister Joe Hockey teilt die Bedenken von Tony Abbott hinsichtlich Windturbinen – im Jahre 2014 beschrieb er Windturbinen als „absolut anstößig“ (hier).

Die Windindustrie hat seit Jahren immer wieder behauptet, dass deren Technologie an der Schwelle zur Kostenparität mit Kohle steht (hier). Also denke ich, dass die gestrichenen Regierungssubventionen für Windturbinen keinerlei Auswirkungen auf zukünftige Windprojekte haben werden.

————————————————

Mit Dank an Breitbart

Link: http://wattsupwiththat.com/2015/07/12/australian-pm-cancels-subsidies-for-new-windfarm-projects/

Übersetzt von Chris Frey EIKE




Kommt bis 2030 eine Mini-Eiszeit, und hat die Sonne zwei Dynamos?

Eine der besseren Beschreibungen hierzu stammt von Astronomy Now:

Die Sonne ist wie alle Sterne ein riesiger Kernfusionsreaktor, der gewaltige Magnetfelder erzeugt, ähnlich einem Dynamo. Das von Zharkova und seinem Team entwickelte Modell zeigt, dass zwei Dynamos in der Sonne wirken; einer nahe der Oberfläche und ein weiterer tief innerhalb der Konvektionszone. Sie zeigten, dass dieses duale Dynamosystem Aspekte des Sonnenzyklus‘ viel genauer als je zuvor erklären kann – was möglicherweise zu verbesserten Vorhersagen des zukünftigen Verhaltens der Sonne führt. „Wir fanden magnetische Wellenkomponenten, die paarweise auftreten und ihren Ursprung in zwei verschiedenen Ebenen im Inneren der Sonne haben. Beide haben eine Frequenz von etwa 11 Jahren, obwohl sich die Frequenz etwas unterscheidet (von beiden) und obwohl sie zeitversetzt auftreten“, sagt Zharkova. Die beiden magnetischen Wellen addieren sich in ihren Phasen, was zu hoher Aktivität führt, oder sie löschen sich aus, was zu Schwächeperioden führt.

Hinsichtlich der Sonne erstreben wir gute Daten. Shepard et al. haben nur magnetische Felddaten von drei Sonnenflecken-Zyklen zur Verfügung, verwendeten aber auch längere Aufzeichnungen bzgl. Sonnenflecken.

Abbildung oben rechts: [Historische und vorhergesagte Sonnenaktivität. Im Original wird auf das auch dort gar nicht erwähnte Verfahren hingewiesen zur Berechnung dieser Daten. Anm. d. Übers.]

Die Debatte hierüber ist mit Sicherheit nicht vorüber. Die neue Studie zeigt, dass es zwei solare Dynamos gibt, aber im Jahre 2011 hat Nicola Scafetta argumentiert, dass man die solare Dynamik am besten mit drei Interferenz-Zirkulationsmodellen simulieren kann. Sein Modell reproduziert die Sonnenaktivität rückwirkend über Jahrtausende und sagt ebenfalls ein Grand Minimum für das Jahr 2030 voraus.

Gastbeitrag von Dr. David Evans

http://sciencespeak.com/

Thema ist die vor ein paar Tagen veröffentlichte Vorhersage, der zufolge die Sonnenaktivität bis zum Jahr 2030 um 60% auf ein ,Mini-Eiszeit-Niveau‘ fallen soll (hier). Dies ist ziemlich plausibel, passt es doch zu vielen anderen Vorhersagen aus dem Jahr 2013 durch eine Anzahl von Autoren (hier; Mörner, Tattersall & Solheim 2013).

Man beachte, dass sich „Sonnenaktivität“ auf die Anzahl von Sonnenflecken bezieht und nicht auf dem Gesamt-Energieausstoß der Sonne. Dieser hat während der letzten 400 Jahre lediglich um weniger als 0,15% variiert. Es heißt nicht, dass die Sonne 60% weniger Wärme erzeugen wird. Vielmehr wird sie genau die gleiche Wärmemenge erzeugen wie immer, lediglich mit ein paar Sonnenflecken weniger.

Abbildung: Ein Vergleich von drei Bildern über vier Jahre illustriert, wie das Niveau der Sonnenaktivität von einem Minimum auf ein Maximum gestiegen ist in einem Sonnenzyklus von 11 Jahren. Diese Bilder wurden erstellt mittels He II 304-Emissionen (1), die die Sonnenkorona mit einer Temperatur von etwa 60.000 K zeigen. Viele weitere Sonnenflecken, solare Flares und koronale Massenejektionen treten während des solaren Maximums auf. Die Zunahme der Aktivität kann aus der Anzahl der weißen Gebieten abgelesen werden, d. h. aus Indikatoren starker magnetischer Intensität. Quelle: NASA

Allerdings ist sogar dies hoch signifikant. Im vorigen Jahr haben wir einen Beitrag gepostet, dass die Anzahl der Sonnenflecken genau die kleinen Änderungen der Temperatur hier auf der Erde vorhersagen kann (hier), wie sie z. B. mit der globalen Erwärmung assoziiert sind, jedoch mit der Verzögerung um einen Sonnenfleckenzyklus (der im Mittel 11 Jahre dauert, aber nur die Hälfte eines vollen Zyklus ist, der im Mittel 22 Jahre dauert).

Im Jahre 2004 kam es zu einer deutlichen Abnahme der Sonnenaktivität (bei der 11-jährig geglätteten TSI). Darum wird es einen signifikanten und nachhaltigen Rückgang der globalen Temperatur der Erde geben mit Beginn etwa im Jahre 2017 (der gegenwärtige Sonnenfleckenzyklus ist lang, etwa 13 Jahre, und es gilt: 2004 + 13 = 2017). Dies wird den Erwärmungseffekt zusätzlichen Kohlendioxids bei weitem überkompensieren.

Die Erde befand sich während der letzten 350 Jahre in einem Erwärmungstrend, seit dem Höhepunkt der Kleinen Eiszeit während des Maunder-Minimums, etwa in der zweiten Hälfte des 17. Jahrhunderts. Dieser Erwärmungstrend scheint durch die Sonnenaktivität getrieben – der Kohlendioxidgehalt hat nicht vor dem Jahr 1800 oder so angefangen zuzunehmen. Die eigentliche Zunahme setzte aber erst nach dem 2. Weltkrieg ein im Zuge der weltweiten Industrialisierung.

Folglich ist die Vorhersage aus der Shepard-Studie, dass die Sonne inaktiv wird, was zu einer kühleren Erde wie zuletzt im Maunder-Minimum des 17. Jahrhunderts führt, plausibel und wahrscheinlich.

Man beachte, dass der Einfluss der Sonnenflecken auf die Erdtemperaturen seine Ursache nicht darin hat, dass die Wärme der Sonne variiert (hinsichtlich globaler Erwärmung oder –Abkühlung sind diese Änderungen ziemlich unbedeutend). Die Ursache ist vielmehr zu suchen in etwas Anderem, das von der Sonne ausgeht, vielleicht deren UV-Output oder einen magnetischen Einfluss, der die obere Atmosphäre der Erde beeinflusst mit Folgen für die Wolkenbedeckung der Erde und daraus folgend der Menge des in den Weltraum zurück reflektierten Sonnenlichtes. Mehr Wolken bedeuten, dass mehr Sonnenlicht reflektiert wird, ohne die Erde zu erwärmen, so dass es hier kühler ist. Falls die Sonne die Wolkenbedeckung der Erde beeinflusst, wird auch die Temperatur der Erde beeinflusst, obwohl die Wärmemenge von der Sonne weitgehend konstant bleibt.

Man beachte auch, dass die oben erwähnte Verzögerung um einen Sonnenfleckenzyklus (im Mittel 11 Jahre), bevor sich eine Änderung der Sonnenaktivität auf die Erdtemperaturen auswirkt, deswegen besteht, weil es eine Verzögerung von einem halben Zyklus zwischen Sonnenflecken und einer „Kraft X“ gibt. Kraft X haben wir als das Ausmaß des solaren Einflusses auf die Bewölkung der Erde festgelegt, weil wir nicht sicher sind, um welchen Mechanismus es sich dabei handelt. Mit den „X-Rays“ [Röntgenstrahlen, Anm. d. Übers.] hat man es genauso gemacht, weil deren Entdecker Wilhelm Konrad Röntgen nicht wusste, was für Strahlen das wirklich waren. Der volle Sonnenzyklus dauert 22 Jahre – der Sonnenflecken-„Zyklus“ ist nur die Hälfte davon, weil die Anzahl der Sonnenflecken im Quadrat der magnetischen Feldstärke eingeht, so dass die positive und die negative Phase des 22-Jahres-Zyklus‘ hinsichtlich Sonnenflecken gleich aussehen. Die Sonnenflecken signalisieren nur, wo Kraft X in etwa 11 Jahren sein wird.

Dies ist ein wenig wie eine four stroke combustion engine [ein 4-Takt Verbrennungsmotor], welcher vier Phasen hat (ansaugen, verdichten, verbrennen, ausstoßen). Wenn man weiß, wie viel Treibstoff und Luft während der „Einsaug“-Phase eingesogen wird, weiß man auch, wie viel Energie in der „Explosions“-Phase erzeugt wird, welche einen halben Zyklus (oder zwei Phasen) später kommt. Genauso ist es mit der Sonne: Die Sonnenflecken (oder Sonnenaktivität) zeigt uns, wie groß die Kraft X nach einem halben Zyklus (11 Jahre später) sein wird.

Das Ergebnis der Shepard-Studie, dass die Sonne zwei Dynamos hat, ist faszinierend hinsichtlich Kraft X, was es ziemlich plausibel macht, dass die UV- oder die magnetischen Effekte, die die Kraft X bestimmen, den Trends des Hauptteiles der Strahlung durch die Dynamos folgen.

Die IPCC-Klimamodelle enthalten keinerlei solare Einflüsse außer der direkten Erwärmung durch die Sonne. Aber die Gesamtstrahlung der Sonne ist nahezu konstant – und sogar als die Solarkonstante bekannt, weil man bis zum Beginn der Satellitenbeobachtungen im Jahre 1979 überhaupt keine Variation festgestellt hatte. Also sagen wir in Übereinstimmung mit Bloomberg, der NASA und dem IPCC, dass Änderungen der Sonnenaktivität lediglich vernachlässigbare direkte Auswirkungen haben (hier).

Welche Auswirkungen hätte das auf das Klima?

Falls Shepard und Scafetta mit der bevorstehenden Beruhigung der Sonnenaktivität bis zum Jahr 2030 richtig liegen, wird es sich bis 2040 deutlich abgekühlt haben, etwa um 0,5°C bis 1,0°C, was die globale Erwärmung seit den Jahren 1800 oder sogar 1700 vollständig auffrisst. Diese Abkühlung kann bereits im Jahre 2017 einsetzen. Diese Abkühlung könnte durch eine milde Erwärmung durch steigenden Kohlendioxidgehalt [?] abgemildert werden, aber der Effekt alles in allem wäre Abkühlung.

Das Verhältnis von La Ninas zu El Ninos wird vermutlich zunehmen, was im östlichen Australien zu etwas mehr Überschwemmungen und etwas weniger Dürren führen könnte.

A Maunder type phase of the sun,
Could put climate-change hype on the run,
When predictions would crumble,
And temperatures tumble,
As a Mini Ice Age had begun.

–Rauiri

REFERENCES

(1) Simon J. Shepherd, Sergei I. Zharkov, and Valentina V. Zharkova (2014) Prediction of Solar Activity from Solar Background Magnetic Field Variations in Cycles 21-23, The Astrophysical Journal,  795 46  doi:10.1088/0004-637X/795/1/46

Scafetta, N.: Multi-scale harmonic model for solar and climate cyclical variation throughout the Holocene based on Jupiter–Saturn tidal frequencies plus the 11-year solar dynamo cycle. Journal of Atmospheric and Solar-Terrestrial Physics 80, 296–311 (2012).

Link: http://joannenova.com.au/2015/07/is-a-mini-ice-age-coming-in-2030-and-does-the-sun-have-two-dynamos/

Übersetzt von Chris Frey EIKE




Das EIKE Grünbuch zum Monitoringbericht 2015 des Umweltbundesamts (UBA)

Der Monitoringbericht des UBA ist im Internet frei verfügbar (hier) oder http:tinyurl.compe4m9aa. Zur Überprüfung und zum Vergleich mit unserer Kritik im EIKE Grünbuch empfehlen wir ihn herunterzuladen – trotz seiner 12 MB. Des Weiteren würden wir uns über eine möglichst weite Verbreitung beider Schriften, unseres Grünbuchs zusammen mit dem von uns kritisierten UBA Monitoringbericht an Freunde und Bekannte jedes unserer Leser freuen. Nur in einem offenen Vergleich werden Motive und Arbeitsweise der Bundesregierung (hier in Gestalt des UBA bzw. des Bundesumweltministeriums), die auf die Täuschung des Bürgers angelegt sind, offenbar. Unser Grünbuch ist unten frei als pdf zur Verfügung gestellt.

Die Autoren des EIKE Grünbuchs:

Prof. Dr. Horst-Joachim Lüdecke (Physiker)

Prof. Dr. Carl-Otto Weiss (Physiker)

Prof. Dr. Friedrich-Karl Ewert (Geologe)

Klaus-Eckart Puls (Meteorologe)

Jena, im Juli 2015

Related Files




Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 2

Im Teil I des Faktenchecks habe ich mich ausführlich mit den kontroversen Aussagen der Teilnehmer der ersten 13:46 Minuten beschäftigt. Um jedermann den Vergleich zwischen den gesagten Statements und Bestätigung oder Widerlegung der Behauptungen auf einfachste Weise sowie objektiv und fair zu ermöglichen, hat EIKE sich die Mühe gemacht und den gesamten gesprochenen Text mit Untertiteln samt Zeitmarken zum schnellen Auffinden (und damit zu überprüfen) der in Frage kommenden Stelle zu hinterlegen. Diese Prinzip wird hier im zweiten wie auch im dritten Teil fortgesetzt.  Der Fairness halber wird allen Teilnehmern dazu noch die Möglichkeit angeboten, ihre Sicht der Dinge hier darzustellen.

Doch anstatt sich über diese Möglichkeit zu freuen, erlaubte sich das ehemalige grüne MdB Herr H.J. Fell, (in einer Mail vom 12.7.15) mir „Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen „ vorwerfen zu müssen. Und dazu noch sein Schweigen zu diesen vermeintlichen Missetaten, mir als „unseriösen Versuch“ zu unterstellen ihn ..“als Akzeptanz zu missinterpretier(t)en“.

Tonmitschnitt ab Minute 13:46 der Podiumsdiskussion am 22.6.15 in den Räumen der Bundeszentrale für politische Bildung. Der Tonmitschnitt kann zum einfacheren Vergleich der unten zitierten Aussagen deutsch untertitelt werden.

Dazu kann ich nur feststellen: Solch ein billiges Verhalten mit pauschaler Verleugnung von Fakten, die einem nicht in den Kram passen, mag ja in grünen Politikseminaren als  semantischer  Trick gelehrt werden, um unliebsame Fakten zumindest rhetorisch aus der Welt zu schaffen, verfängt aber keineswegs bei den Lesern dieses Blogs und sicher auch nicht bei all denen, die sich selber ein Urteil bilden wollen und dabei auf objektive Berichterstattung angewiesen sind. Und für die ist dieser Faktencheck gemacht.

Der hier gezeigte Mitschnitt fängt wieder bei 0:00 min, schließt aber nahtlos an das Ende des hier gezeigten Teilmitschnittes an. Im Folgenden werden die anschließenden 21:27 Minuten behandelt.

(00:00 Min. bis 02:36) Wieviel „Erneuerbare“ sind denkbar?

Es geht um die Frage, wie viel „Erneuerbare“ sich jeder der Anwesenden vorstellen kann. Herr Brabeck kann sich irgendwann mal 90 bis 95 % „Erneuerbare“ vorstellen. Herr Fell erwartet irgendwann auch 100 % und verbindet diese Meinung mit einer Attacke auf die Versorger die s.M.n. vor 10 Jahren „falsch“ in Kohlekraftwerke investiert hätten.  Zur Unterstützung seiner Ansicht nennt er solch bedeutende Länder wie Schweden, Dänemark und Costa Rica, die die Umstellung ganz oder tlw. schon geschafft hätten. Und erklärt die unbestreitbaren Umsatz und Ertragsprobleme der Versorger mit deren „Versäumnissen“ in der Vergangenheit. Es fällt jedoch kein Wort über die üppige, weit über dem Marktpreis liegende Honorierung des EE Angebots, samt Vorrangeinspeisezwang, die  sein EEG erst möglich machte hat. Und er scheut sich anschließend auch nicht,  mit diesem halben Argument von Deutschland auf die ganze Welt zu schließen.

Hier gilt: Es ist Meinung und daher zulässig!

(0:02:36) Moderatorin: Frau Dehmer glauben Sie, das hundert Prozent Erneuerbare Energien überhaupt politisch umsetzbar wäre?

0:02:43 Frau Dehmer

Frau Dehmer bejaht diese Frage, auch mit dem Verweis auf den Elmauer G7 Gipfel Dekarbonisierungsbeschluss bis zum Ende des Jahrhunderts. Und argumentiert weiter:..

…. Aber weltweit ist es mit Sicherheit so, dass der Trend in die Richtung geht; die Investitionen in Erneuerbare sind seit einigen Jahren jedes Jahr höher als In fossile Energien; … Trotzdem sind Erneuerbare da in der Regel vorn, weil sie einfach billiger sind als große Kraftwerken, die eine große Infrastruktur brauchen.

Kommentar:

Neben der evtl. punktuell richtigen Beobachtung, dass in Norwegen alle 10 m ein „Tesla“ herumsteht, behauptet Frau Dehmer dass

1.                  … weltweit …. der Trend in die Richtung geht; die Investitionen in Erneuerbare sind seit einigen Jahren jedes Jahr höher als In fossile Energien;

und

2.                  Trotzdem sind Erneuerbare da in der Regel vorn, weil sie einfach billiger sind als große Kraftwerken, die eine große Infrastruktur brauchen.

Fakt ist:

Zu 1: Die Investitionen in „Erneuerbare“ sind weltweit unzweifelhaft hoch. Der größte Anteil entfällt dabei auf die Wasserkraft (s. Abb.3 und Tabelle 1). Die Gründe für die Investitionen in andere „Erneuerbare“ liegen in der massiven Förderung durch staatliche Subventionen[1] und dem Preisverfall bei den Solarpanelen.

Für  2014 beziffert die Internationale  Energieagentur (IEA), mit Sitz in Paris, die Gesamtinvestition auf 270 Mrd US $. Sie lagen damit so hoch wie im Jahr 2013. Die Investitionen in konventionelle Energieträger (vermutlich fossile wie Kern- Energie) liegen jedoch immer noch deutlich höher auch wenn die IEA in ihrem 2015 Report [2] schreibt:

„Renewables accounted for nearly half of all new power generation capacity in 2014, led by growth in China, the United States, Japan and Germany, with investment remaining strong (at $270 billion) and costs continuing to fall“. 

Elektritzätsproduktion weltweit in TWh 2013 2014 Zuwachs 2014-2013 Quelle
Gesamt 23.200 23.800 600 Enerdata Yearbook 2015
Davon Wind + Solar in % v. Gesamt 3,6 4% 0,4 REN 21
Davon Hydro in % v. Gesamt 18,7 18,9 0,2 Enerdata Yearbook 2015
Installierte Kapazität
„Erneuerbare“ o. Hydro in GW 560 657 97 REN21
Hydro in GW 1.578 1.712 134 REN21

Tabelle 1: Vergleich der Elektrizitätsproduktion und inst. Kapazität weltweit mit Anteil von Wind + Solar und Hydro als Hauptquellen „erneuerbarer“ Energien. Trotz massiver Förderung in über 160 Ländern[3] (davon mit Einspeisevorrang 108) ist die installierte Kapazität bei Wind und Sonne immer noch ziemlich klein. Berücksichtigt man dann noch den äußerst geringen Nutzungsgrad der installierten Wind- und Solarkapazitäten, dann zeigt sich, dass hier mit Kanonen auf Spatzen geschossen wird.

Jedoch wurden gleichzeitig– auf Grund des Preisverfalls bei Öl- und Gas- die Investitionen in diese beiden Bereiche zurückgefahren. Während die Investitionen in Kohle boomen. So werden derzeit weltweit 2100 Kohlekraftwerke geplant. Der grüne Sierra Club – Mutter unsers NABU – hofft jedoch, dass davon nur etwa ein Drittel wohl realisiert werden:[4]

Das mag zutreffen oder nicht, jedenfalls ist Kohle auf dem Vormarsch, zum Entsetzen aller Klimaschützer.

Viele Regierungen großer Länder (China, Indien) verkündeten dennoch in  ihren vorbereitenden Absichts-Erklärungen zur kommenden UN Klimakonferenz CP21 in Paris, ihre Subventionspolitik zugunsten der „Erneuerbaren“ auszuweiten oder stabil zu halten. Wie weit das Lippenbekenntnisse sind oder praktische Politik, wird sich zeigen. Jeder Regierungswechsel kann demnach das Aus für diese Politik bedeuten, wie es Spanien, Tschechien und jetzt Großbritannien und Australien (Details dazu hier und hier) bereits vorgemacht haben.

Zu 2. Frau Dehmer glaubt und behauptet, dass „Erneuerbare“ ..“einfach billiger“ sind.

Fakt ist

jedoch, dass von „billiger“ keine Rede sein kann. Ebenso wenig, wie von weniger – oder kleinerer- Infrastruktur, als große Kraftwerke. Das Gegenteil ist richtig. Zum Thema „billiger“ stellt die IEA etwas verschwiemelt fest, Renewable technologies are becoming increasingly cost competitive in a number of countries and circumstances, but public support schemes are still required to support deployment in many others.  (Chapter 1; p. 21 hier)  (Siehe auch Fußnote 1).

Der Grund dafür, dass sie deutlich teurer sind, sein müssen, liegt hauptsächlich darin, dass die Energiedichte der „Erneuerbaren  verglichen mit konventionellen Brennstoffen, sehr viel geringer ist. Der Aufwand diese Energie zu verdichten, lässt weitere Preissenkungen – nachdem der Economy of Scale Effekt- z.B. bei Solarpanelen, ausgeschöpft ist- nicht zu. Auch ist und bleibt deswegen der Flächenbedarf riesig, was insbesondere die Grünen veranlassen müsste, wenn sie es mit dem Umweltschutz wirklich ernst meinten, vor der Förderung der „Erneuerbaren“ Abstand zu nehmen.  Auch ließen alle Podiumsteilnehmer das Thema „fehlende Speicher“ außen vor,

Abbildung 1: Vergleich des Flächenbedarfes eines (hier) Kernkraftwerkes in UK (es könnte aber ebenso gut ein rein fossil betriebenes Kraftwerke sein, samt zugehöriger Infrastruktur wie Umspannstationen und Netzanbindung) gegenüber verschiedenen „NIE“ –Nachhaltig instabile Energie-Kraftwerke, wie Wind- Solar und Biomasse, bezogen auf die rechnerisch gleiche Energiemenge.

..obwohl sie aus dem Publikum per Zwischenruf mehrfach darauf hingewiesen wurden. Rechnet man die erforderlichen Speicher dazu, werden sie gänzlich unbezahlbar.  (wird hier etwas später beleuchtet)

Hier bei EIKE haben wir die verschiedensten realisierten Investitionen in Solar- oder Windparks etc. untersucht. Ergebnis: Die Investitionskosten pro erzeugter kWh liegen 6 (Offshore Wind, Ostsee) bis 17 x (Solarpark) höher als die für konventionelle Kraftwerke gleicher Energieabgabekapazität (Siehe Abb 2). Und die fehlenden Brennstoffkosten werden bei weitem durch die hohen Wartungs- und Reparatur wie auch Amortisationskosten übertroffen.

Abbildung  2: Vergleich der Investitionskosten und des  Flächenbedarfes eines älteren Kohle-Kraftwerke in Wilhelmshaven, gegenüber dem größten und zweitgrößten  Solarkraftwerk  in Deutschland, bezogen auf die rechnerisch gleiche Energiemenge.

0:04:06. Herr Brabeck

nimmt alles gelassen und meint, dass die Verbraucher 10 Mrd € an EEG Umlage für die PV pro Jahr zahlen und dass in Kürze ein „Game Changer“ im Elektroenergiemarkt zu erwarten sei. Weil, so seine Begründung,  die Batteriepreise fallen. Deswegen erwartet RWE massenhafte Installationen von Solardächern mit Batteriespeichern im Keller.

Fakt ist (mit Korrektur vom 28.7.15):

Die EEG Umlage kostete die Verbraucher bereits im Jahr 2013 rd. 20 Mrd €. Mit stark steigender Tendenz. Also das Doppelte. Allein 10 Mrd € wurden für die PV aufgebracht. Da hat Herr Brabeck recht. Nur hat uns niemadn um Erlaubnsi gefragt, ob wir der Welt die PV Technik „schenken“ wollten.

Die Betreiber von NIE Anlagen kassierten ihrerseits von den Netzbetreibern für den gelieferten Strom rd. 23 Mrd, während dieser Strom an der Börse hingegen nur knapp 3 Mrd € wert war. Die Differenz trug der Verbraucher.

Fakt ist..

..auch, dass die Batteriepreise nicht mehr wesentlich fallen können,  weil sowohl die Elektrochemie als auch die Leistungs- und Lebensdaueranforderungen an brauchbare Batteriespeicher  aus naturgesetzlichen Gründen ganz enge Grenzen setzen. Die politisch gesetzte Zielgröße von 100 EUR/kWh Anschaffungspreis wird kaum zu unterschreiten sein.

Die elektrochemische Spannungsreihe ist durch die Thermodynamik unveränderlich und auf 6 Volt Spannungsdifferenz (Lithium/Fluor) begrenzt. Batterien mit langzeitstabilen Elektrolyt- und Elektrodenkombination werden nur schwer über die heutigen 4,2 Volt Spannung von Lithium-Polymer-Akkus hinauskommen, was die Leistungsabgabe von der Spannungsseite her arg begrenzt.  „5-Volt-Systeme“ sind noch in weiter Ferne, eine merkliche Verbesserung der Energiedichten von aktuell rund 0,1 – 0,2 kWh/kg nicht absehbar.

Zusätzlich unterliegen sie einer kalendarischen wie zyklischen Alterung, die ihre Nutzungsdauer massiv begrenzt. Wer heute bspw. Lebensdauern von 30 Jahren und 30.000 Lade und Entladezyklen mit brauchbarem Output verspricht, wie man es immer mal wieder hört oder liest,  belügt seine Kundschaft.

Mehr als 1000 Lade- und Entladezyklen, bei gleichzeitiger rigoroser Begrenzung der Lade und Entladeströme auf rd. 1/3 des Nennstromes sind lt. Prof. Endres [5] für einen Akku kaum machbar, und die in der Presse zu lesenden 10.000 – 30.000 Zyklen werden nur unter definierten Laborbedingungen erreicht. Evtl. können irgendwann mal Preise für Akkus von 100 EUR/ kWh Kapazität angeboten werden. Aktuelle LiPo-Akkus liegen bei Anschaffungskosten um 500 EUR/kWh, Bleiakkus um 200 EUR/kWh.

Da kann sich jeder leicht ausrechnen wie teuer seine Batterie im Keller wird, wenn er/sie nur die sonnenarme Jahreszeit überbrücken möchte. Wenn man zur Maximierung der Lebensdauer immer nur 30% der maximalen Kapazität nutzt, resultiert eine Verdreifachung der notwendigen Batteriekapazität: Wer 1 kWh Strom speichern muss, muss demnach 3 kWh kaufen. (Weitere Details zu diesem Thema hier)

00:06:55. Limburg

Ich berichtete dann über die aktuelle BP-Studie, die vor kurzem vorgestellt wurde, Danach steigen die Investitionen in Kohle fünf mal schneller als die in Erneuerbare und immer noch doppelt so schnell wie in Öl! Indien hat gerade festgestellt, dass sie bis zum Jahr 2020 ihren Kohleverbrauch verdoppeln werden. Auch China eröffnet jede zweite Woche ein neues Kohlekraftwerk und hat sich ausbedungen  und alle haben gejubelt Sie wahrscheinlich inklusive, dass sie bis 2030ihren CO2-Ausstoß massiv erhöhen.

Fakt ist:

Indien erhöht massiv Kohleförderung und Verbrauch, während China seinen Kohleverbrauch zumindest nicht massiv weiter steigert (zusätzlich 22 GW Kapazität Kohle vs 18 GW Wind wurden in 2014 installiert), da hat Herr Fell zumindest dem Trend nach recht, das China seinen (langsamer wg. Verlangsamung des Wachstums) ansteigenden Energiebedarf durch andere Quellen, insbesondere Wasserkraft, zu decken sucht.

Zitat:

IEEFA estimates that China installed 22 GW of hydro, 18 GW of wind, 13 GW of solar, 5-7 GW of nuclear and 4-6 GW of gas-fired electricity capacity in 2014 alone. Combined with another 22 GW of net new coal-fired capacity, China’s total electricity capacity installs are forecast at 90 GW in 2014 (over 6 percent yoy total capacity growth). Siehe auch Fußnote 6 für weitere Details.

Jedoch darf  nicht vergessen werden, dass alle Energiequellen, bis auf Wind + Solar grundlastfähig sind, und daher ihre Einspeisung ein Vielfaches von Wind + Solar beträgt, als es der Vergleich allein der Nennleistungen suggeriert.

00:08:19: Herr Fell

Zunächst mal Herr Limburg: Es ist ja ihre gute Größe die Statistiken so zu nehmen, wie Sie sie brauchen.. Erneuerbare Energien passen nicht in eine Statistik mit den Primärenergieverbrauch! Jede Kilowattstunde, jede  Kilowattstunde Wind- oder Solarstrom ersetzt 3 Kilowattstunden konventionellen Kohle- oder Erdgas-Strom. Schlicht weil die Wind- und die Solaranlagen keine Abwärme haben die niemand braucht.

Kommentar Limburg:

Zur Abwärme 1:

Es ist korrekt, dass bei der konventionellen Stromerzeugung Abwärme im Verhältnis 2:1 entsteht. Diese wird jedoch überall da gebraucht, wo man Kraftwärmekopplungstechnologie (KWK) eingeführt hat. Wegen der großen Bedeutung dieser Nutzungsart, um letztendlich die Energie besser zu nutzen, also die Energieeffizienz zu steigern, wird die KWK massiv subventioniert. Das hat dazu geführt, dass die KWK ca. 18% (Statista) zur Nettostromerzeugung betragen. Also ein knappes Fünftel, und damit deutlich mehr als Strom aus Wind- und Solaranlagen. Doch die so umgerüsteten KWK Kraftwerke erleiden das gleiche Schicksal wie die „normalen“ Kraftwerke. Sie können  ihren Strom nicht mehr verkaufen und deswegen auch keine Heizenergie ( zwei von 3 kWh) mehr liefern. Es ist verwunderlich, dass Herr Fell, weder die Technologie kennt, noch deren Schicksal, dass sein EEG herbeiführte.

Und wenn er sie kennt, warum er sie nicht erwähnt hat.

Zur Abwärme 2.

Jede Energieumwandlung erzeugt Abwärme. Wenig bei Wind und Solar (Reibung, Betriebstemperatur bei Leistungsabgabe etc) viel bei fossilen wie Kernkraftwerken. Doch das sagt nichts über ihre ökonomische Effizienz aus.

Herr Fell:

Das Zweite, mit den hohen Subventionen 550 Milliarden US-Dollar sind die Direkt-Subventionen aus staatlichen Geldern in das fossile Energie System. Wer davon spricht, dass Erneuerbare hoch subventioniert seien hat schlicht die Subventions- Gelder nicht im Kopf und weiß es nicht! Das ist nicht der Fall was Sie sagen.

Kommentar:

Woher Herr Fell die Zahl von 550 Mrd US-$ hat, weiß ich nicht? Daher kann ich auch nicht beurteilen, ob sie einigermaßen stimmt, oder ob sie eine reine Greenpeace Zahlenente ist. Doch sie interessiert hier, in diesem Zusammenhang, nicht besonders, denn wir diskutierten die Subventionen für NIE, die sich hierzulande, u.a. als Zahlungen der deutschen Verbraucher für das EEG, ausgeschüttet werden. Und die schlagen mit über 330 Mrd € bereits per Ende 2013 zu Buche und wachsen jedes Jahre exponentiell weiter

Abbildung 3EEG Zahlungen per 2013 und hochgerechnet auf 2022. Schwarz: Bisher geleistete Zahlungen der Netzbetreiber an EEG Besitzer jeweils pro Jahr. Rot: Kumulierte Zahlungen von Beginn an. Blau: Noch zu leistende Zahlungen für die aufs jeweilige Jahr folgenden 20 Jahre. Quelle BDEW, Statista etc. Grafik Limburg

00:09:45 Fell

Sie dürfen nicht ne BP-Statistik hier nehmen, die über das letzte Jahrzehnt -in der Tat- den hohen Kohle Zubau auch im China beschrieben hat, Sie müssen die neuesten Erkenntnisse und Entwicklungen in dieser… Ja, vorgestern wurde dieser Bericht über das letzte Jahrzehnt veröffentlicht. Das sagt aber nichts aus, was seit der Jahrzehnten-Wende jetzt, seit 2010 passiert ist und da, wenn sie ausgerechnet China nehmen, da sollten sie mal richtig nach China schauen.[6]

Kommentar zur BP Statistik:

Hier versucht Herr Fell einen alten Trick rotgüner Rhetorik; immer dann Statistiken als überholt zu deklarieren, wenn man ihren Aussagen nichts entgegen zu setzen hat.

Fakt ist:

Aktueller geht es nicht. Die BP Statistik endet erst im Dezember 2014

Herr Fell:

China hat deswegen im ersten Vierteljahr diesen Jahres schon fünf Prozent CO2-Emissionen reduziert, zum Erstaunen der das gesamten Weltöffentlichkeit weil die wirklich glaubte, das was Sie sagten, bis 2030 werden sie noch steigern.

Fakt ist:

Lt Internationaler Energie Agentur (IEA) hat China -hauptsächlich dank der Wirtschaftsschwäche-  von 2013  auf 2014 seine Emissionen um rd. 2 %[7] gesenkt. Vermutlich hat sich dieser Trend in 2015 fortgesetzt. Deswegen stimmt die Angabe von Herrn Fell. Gleichzeitig stiegen die weltweiten Emissionen außerhalb von China und OECD Ländern um netto rd 290 Mio t weiter.

Die  IEA begründet diese Veränderung wie folgt:

CO2 emissions outside the OECD and China were up by around 290 Mt in 2014, led by increased use of coal for power generation in India and Southeast Asia. Indeed, across most emerging and developing countries, the relationship between economic growth and emissions growth remains strong as these countries are in the energy-intensive process of building up their capital stock. (Seite 20)

Emissionshandel

(00:12:14.) Herr Fell betonte, dass der Emissionshandel nichts gebracht hätte. Das ist auch meine Meinung. Er behauptete aber dann anschließend, dass ..von den 300 Tonnen CO2; Millionen Tonnen CO2 -Reduktion die Deutschland seit 1990 hat, geht die eine Hälfte auf den Niedergang der ostdeutschen Industrie nach der Wende.. und die andere Hälfte auf den Ausbau der erneuerbaren Energien.

Abbildung 4: Primär Energieverbrauch nach Quellen weltweit lt. BP Studie, jeweils in Mio t Öl Äquivalent. Vom Autor eingezeichnet sind die Anteile der Wasserkraft, sowie total und Zuwachs der „Erneuerbaren“. Wasserkraft dominiert die „Erneuerbaren“ mit rd. 8 % von Gesamt. Alle anderen „Erneuerbaren“ zusammen liegen bei 3 % von Gesamt, während der Zubau aus diesen Quellen bei 100 Mio t bzw. 0,8 % vom Gesamt liegt. Nach einem Siegeszug der „Erneuerbaren“ sieht das nicht aus.

Fakt ist:

Die 300 Mio tC äquivalent Reduktion sind in etwa korrekt, allerdings  nicht korrekt ist die behauptete 50:50 Aufteilung. 

Zur Menge

Es ist schwer offizielle Zahlen, die dazu auch noch stimmen, über diese Entwicklung zu finden. Selbst wenn die Zahlen aus derselben Quelle stammen, weichen sie absolut und in ihrer Entwicklung deutlich voneinander ab.

So zeigt eine Grafik des UBA von 2014 für die Jahre 1990 bis 2014 im  Jahre 1990 eine Menge von 1250 Mio t GtC (äquivalent) und z:B. im Jahre 2012 eine Menge von 930 Mio t GtC (äquivalent) = – 320 Mio t oder -25,6 %, während eine andere Grafik aus demselben Hause für das Jahr 1990  (s. Abb 4) eine Start-Menge von nur 989 Mio t aufweist, welche im Jahr 2012 auf 775 Mio t abgesunken ist. (Siehe Abb. 5). Zum Jahr 1990 beträgt die Differenz daraus dann nur noch 214 Mio t oder 21,6%.

Erschreckend bei dieser Ungenauigkeit ist, dass ganze Industriezweige, wie die Braunkohle, stillgelegt werden sollen, um ein Zehntel dieser Menge (22 Mio t) „einzusparen“, wenn die zu Grunde liegenden Zahlen um das Zehnfache dieser Menge differieren.

Abbildung 5: Deutschlands CO2 Emissionen nach UBA für die Jahre 1990 bis 2012/2013 mit unterschiedlichen Startangaben und unterschiedlichen Senkungsverläufen.

Es wird auch kein Hinweis auf evtl. sonstige Emissionsquellen gegeben, die in der Grafik nach Quellen (nicht nach Gasarten) nicht erfasst wurden.

Ursachen der Reduktion

Abbildung 6: CO2 Emissionen deutscher fossil betriebener Kraftwerke für die Jahre 2000 bis 2014. Es fällt sofort auf, dass die Emissionen praktisch konstant blieben, während die erzeugte konventionelle Energiemenge um gut ¼ wg. der vorrangigen Einspeisung des NIE-Stromes abgesenkt wurde.  Damit ist auch die Aussage der FEU Studie widerlegt, welche die errechnete Einsparung von 11 Mrd. € hauptsächlich konventioneller Brennstoffkosten, dank NIE Einspeisung begründet. Da wurde nichts eingespart und auch nichts abgesenkt.

Ursache war fast allein, der Niedergang der ostdeutschen Wirtschaft, verbunden mit normaler Effizienzsteigerungen beim Rest der Wirtschaft (insbesondere der Stahlindustrie)  Sie hat bis zum Jahr 2000 eine Senkung der Gesamt-Emissionen sog. Treibhausgase um rd. 190 Mio t bis gebracht, da zu der Zeit, die NIE nur in sehr geringem Umfang (mit z.B. rd. 38 TWh in 2000), zur Gesamtelektroenergieerzeugung beitrugen. (s. Abb 5)

Dank des Fell´schen EEG wurde deren Einspeisung dann bis 2014 um dramatische 300 % auf 152 TWh gesteigert, (also vervierfacht) jedoch fielen die Emissionen aus der Erzeugung aus Elektroenergie nur um kaum merkbare 2 %. Die Aussage von Herrn Fell bezüglich der Quellen der Senkung erweist sich also als falsch.

(00:18:27) Herr Fell zum CO2 Gehalt der Atmosphäre von derzeit rd. 400 ppmVol.

Herr Fell behauptete, dass diese 400 ppm bereits wg. der ihnen theoretisch zugeschriebenen Erwärmungswirkung, zuviel seien. Und bezog dies auf die vermuteten (Eisbohrkernmessungen mit großere Unsicherheit) 280 ppm, die vorindustriell geherrscht hätten. Sekundiert von Frau Zink, die ..60.000 Jahre lang.. in die Debatte einwarf. Deswegen verwarf Fell kategorisch jede zulässige Erhöhung, (Absenkung um nur 40 % bis 2020 EU Plan), was der Emissionshandel ja erlaubt und forderte stattdessen eine sofortige rigorose Umstellung auf Null-Emissionstechnologien, um jedwede Erhöhung nach Möglichkeit zu vermeiden.

Kommentar

Die genannten 400 ppm sind korrekt. Alles andere sind Meinungen und Annahmen, die als Fakten ausgeben wurden. Dies betrifft die angenommenen 280 ppm vorindustriell, ebenso wie die Wirkung des CO2 auf die Temperatur der Atmosphäre, (Dazu wurde ausführlich im ersten Teil Stellung genommen hier).

Fakt ist:

Genaue CO2 Messungen, die global gelten dürften, gibt es erst seit der Mitte der 50er Jahre des vorigen Jhh. Seit dem ersten Drittel des 19. Jhh. existieren aber bereits sehr genaue Messungen des atmosphärischen CO2. Das leider so früh verstorbene EIKE Gründungsmitglied E.G. Beck, hat diese Messungen akribisch aufgeschrieben (> 200.000 Messwerte) und ausgewertet. Diese zeigen einen erratischen Verlauf mit ausgeprägten Spitzen bis zu 400 ppm. Und ähnliche Verläufe zeigen die vielen weiteren Untersuchungen an Proxydaten, wie z.B. Stomata (das sind Blattspaltöffnungen an bestimmten Pflanzen)
In dem Beitrag  Eisbohrkerne und Pflanzenstomata: Der historische CO2 Gehalt der Atmosphäre war oft deutlich höher als 280 ppm! vom Geologen David Middleton wird ausführlich auf die aktuellen Forschungsergebnisse eingegangen. Hier seien nur zwei Grafiken daraus angeführt, die zeigen, dass beide Ausagen ..nämlich

…konstante 280 ppmv (Herr Fell)

Abbildung 7: CO2 Konzentrationen für die Zeit von 1800 bis 2000. Sie zeigen erratisch anmutende Spitzen gem. der Beckschen Analyse[8] bis 400 ppm und weniger erratische Verläufe aus Stomata Analysen bis 370 ppmv. Zum Vergleich sind die Eisbohrkerndaten aufgetragen, die  nachgewiesenermaßen eine starke Dämpfung auf die CO2 Werte der eingeschlossenen Luftblasen ausüben, zudem in Gebieten gewonnen wurden, deren CO2 Gehalt um 20 bis 40 ppm niedriger ist als in niedrigeren Breiten.

und

über 60.000 Jahre (Frau Zink)

Abbildung 8: CO2 Konzentrationen aus Eisbohrkernen und Stomataanalysen für die Zeit von vor 15.000 Jahre bis heute. Sie zeigen 1. Eine erhebeliche Diskrepanz zwischen beiden Messmethoden in Bezug auf den absoluten Wert, aber auch hochfrequenten Schwankungen, die bei den Eisbohrkernen allesamt geglättet werden. Deutlich auch die Werte um im Mittel 330 ppmv, um die die Stomatawerte schwanken. Mit einer Spitze bei 400 ppmv um 500 n.Chr.

…wissenschaftlich nicht haltbar und damit falsch sind.

Wie deutlich zu erkennen, schwankt die CO2 Konzentration in den vergangenen Jahrhunderten und Jahrtausenden ganz erheblich und das ohne jegliches menschliche Eingreifen. Unabhängig davon, wie genau die dargestellten Werte sind, unabhängig davon, wie groß ggf. ihre Unsicherheit ist, muss klar sein, dass wir heutzutage in einem absoluten CO2 Minimum leben, dass insbesondere für die Pflanzen Mangelernährung bedeutet. Ein mehr an CO2 ist deswegen kein Fluch sondern ein Segen, um die stark angewachsene Bevölkerung dieser Erde auch in Zukunft zu ernähren.

Wird fortgesetzt..


[1] Die IEA umschreibt diese Tatsache so: Renewable technologies are becoming increasingly cost competitive in a number of countries and circumstances, but public support schemes are still required to support deployment in many others.  (Chapter 1; p. 21 hier)

[2] Nachzulesen in „Energy Climate and Change“ World Energy Outlook Special Report Summary Seite 11, Quelle hier

[3] Quelle http://www.ren21.net/wp-content/uploads/2015/06/GSR2015_KeyFindings_lowres.pdf S. 7 und 9

[4] „The CoalSwarm/Sierra Club report calculates that since 2010, for every coal proposal that actually gets built, two are getting canceled. Which means we’re on track to build roughly one-third of those 2,177 plants.“ Quelle hier

[5] Prof. Frank Endres ist Direktor des Instituts für Elektrochemie der TU Clausthal und exzellenter Kenner der Batterieforschung. Er arbeitet auf grundlegender Basis u.a. an Batteriematerialien.

[6] Aus: http://www.ieefa.org/wp-content/uploads/2015/01/IEEFA-BRIEFING-NOTE-Global-Energy-Markets-in-Transition.pdf IEEFA estimates that China installed 22 GW of hydro, 18 GW of wind, 13 GW of solar, 5-7 GW of nuclear and 4-6 GW of gas-fired electricity capacity in 2014 alone. Combined with another 22 GW of net new coal-fired capacity, China’s total electricity capacity installs are forecast at 90 GW in 2014 (over 6 percent yoy total capacity growth). Coal-fired power 4 http://www.stats.gov.cn/english/PressRelease/201412/t20141216_653855.html 5 http://af.reuters.com/article/energyOilNews/idAFB9N0T400220141217 6 http://www.brecorder.com/markets/commodities/asia/216783.html Production (TWh) (TWh) share (TWh) share YoY Thermal (gas and coal combined) 3,818 79.7% 3,807 76.5% -0.3% Hydro 725 15.1% 887 17.8% 22.4% Other 245 5.1% 281 5.6% 14.6% Electricity 4,788 4,975 3.9% China coal production (Mt) 3,513 -2.1% YTD Nov’13 YTD Nov’14 4 plants average utilisation rates have declined from an estimated 60 percent in 2011 to around 56 percent in 2014. Given this excess capacity, new installations of coal power are expected to rapidly slow and China could well see net annual coal-fired power capacity reductions from 2016 onwards.

[7] Quelle IEA Seite 20 hier

[8] Details hier: http://www.biomind.de/realCO2/literature/evidence-var-corrRSCb.pdf




Obamas Erneuerbare Energie Fantasien

Die EPA kam in Konflikt mit dem Gesetz, erst eine Kosten-Nutzen-Analyse durchzuführen, bevor sie Maßnahmen ergreifen, um die Quecksilberemissionen aus Kohlekraftwerken zu reduzieren. Auch für das Ziel des Präsidenten gibt es keine objektive Kosten-Nutzen-Analyse, die die erneuerbaren Energien rechtfertigen könnte.

Kürzlich erklärte Bill Gates in einem Interview mit der Financial Times [1] warum aktuelle erneuerbare Energien Technologien sind, die in eine Sackgasse führen. Sie sind unzuverlässig. Batteriespeicher sind unzureichend. [Die Erzeugung der Energie aus] Wind- und Sonne hängt vom Wetter ab. Die Kosten für die Dekarbonisierung mit der heutigen Technologie sind "jenseits von astronomisch", schloss Herr Gates.

Google-Ingenieure kamen im Vorjahr zu einem ähnlichen Ergebnis. Nach sieben Jahren der Untersuchung, fanden sie keine Möglichkeit, die Kosten der erneuerbaren Energien im konkurrenzfähig mit Kohle zu bekommen. "Leider", berichteten die Ingenieure, "die meisten der heutigen sauberen Quellen können keine Energie erzeugen die verteilt und planbar ist", dh. Strom, der schnell auf- und abgeregelt werden kann. "Sonnenkollektoren, zum Beispiel, können auf jedes Dach gestellt werden, erzeugen aber keinen Strom, wenn die Sonne nicht scheint."

Wenn Herr Obama seinen Willen bekommt, wird die US den steinigen Weg abwärts gehen, den die Europäische Union bereits gegangen ist. Im Jahr 2007 verabschiedete die EU das Ziel 20% des Energieverbrauchs aus erneuerbaren Energiequellen bis zum Jahr 2020. Europa ist daher etwa ein Jahrzehnt vor den USA bei der Erfüllung einer [noch] größeren Herausforderung, Ziel der EU ist 20% der Gesamtenergie, nicht nur Strom. Um zu sehen, wie die US dann aussehen könnte, ist Europa ein guter Ort, um anzufangen.

Deutschland beschloss das erste Gesetz für Erneuerbare Energien im Jahr 1991 und hat bereits rund 400 Mrd. € für die sogenannte Energiewende ausgegeben. Der Bundesumweltminister hat eine Summe bis zu 1.000 Mrd. € bis zum Ende der 2030er Jahre geschätzt. Bei einer Wirtschaft, die fast fünf Mal so groß wie Deutschland ist und fast sieben Mal so viel Strom erzeugt (bei einem weniger anspruchsvollem Ziel der  Erneuerbaren), bedeutet dies Kosten zur Erfüllung von Obamas Versprechen in der Größenordnung von 2.000 Mrd. $.

Es gibt auch andere, indirekte Kosten zu berücksichtigen. Deutschland ist weltweit der zweitgrößte Exporteur von Waren, hinter China und vor den USA, aber hohe und steigende Energiekosten treiben deutsche Unternehmen, neue Kapazitäten in Übersee zu suchen.

BASF, die weltweit die größten zusammenhängenden Chemieanlagen betreibt, verlagert mehr Produktion nach Amerika. "Bei solch einem großen Unterschied der Energiepreise ist die Entscheidung klar, dass das Geld nun dorthin fließt," sagte ein BASF Vorstand bei einem Treffen der EU- Industrieminister im letzten Jahr. BASF hat Werke in Malaysia sowie Louisiana eröffnet.

Befürworter [und Profiteure; der Übersetzer] der erneuerbaren Energien wie die Deutsche Bank gehen davon aus, dass Strom aus Solaranlagen in der nicht allzu fernen Zukunft das gleiche kosten wird, wie Strom aus dem Netz (sogenannte Netzparität). Aber keiner behauptet, dass Solar dieses ohne Subventionen tun kann. Und wie Deutschland, Großbritannien und andere europäischen Ländern dabei sind herauszufinden, sind offene Subventionen nur ein Teil der Kosten der erneuerbaren Energien.

Am schädlichsten ist die Wirkung der erneuerbaren Einspeisungen auf die Kraftwerke, die [unbedingt] erforderlich sind, um die Stabilität des Stromnetzes und das Gleichgewicht von Angebot und Nachfrage zu gewährleisten. Selbst ein bescheidener Anteil von Wind- und Solarstrom verhindert, das Gas- und Kohlekraftwerke ihre Fixkosten decken können. Dies hat zu der vorgeschlagenen Schließung von Irsching in Bayern geführt, eines der neuesten und effizientesten Gaskraftwerke in Deutschland. Wenn konventionelle Kapazität nicht auch subventioniert wird, werden irgendwann die Lichter beginnen auszugehen. Europäische Politiker haben keine Antwort auf das Problem, das sie geschaffen haben und es ist eine sichere Wette, die EPA auch nicht.

Eine unbeabsichtigte Folge des Fracking-Booms ist die Verschiebung von Kohle durch Erdgas -ein billiger und effektiver Weg, um Kohlendioxid-Emissionen zu senken. Eine Studie in 2104 von Brookings Institution schätzt, dass wenn Kohle[-kraftwerke] durch moderne GuD-Gasturbinen ersetzt werden, damit 2,6-mal mehr Kohlendioxid-Emissionen als bei Verwendung von Windenergie reduziert werden und es reduziert viermal mehr Emissionen als Solarenergie.

Denn, die Erzeugung von Elektrizität ist bei der niedrigen Energiedichte der wetterabhängigen Technologie sehr ineffizient. Es erfordert sehr viel mehr Anlagen und Land, um eine äquivalente Menge an Energie zu ernten als bei fossilen Brennstoffen. Und dabei sind die Investitionen in fossile Kapazitäten nicht mitgezählt, um die back-up-Leistung bereitzustellen, wenn der Wind nicht weht oder die Sonne nicht scheint.

Es gibt keine rationale Begründung für die politischen Maßnahmen zur Förderung erneuerbarer Energien. Im Jahr 1972 schrieb Umweltschützer Guru EF Schumacher “Small Is Beautiful” [Klein ist Wunderbar], als sein Vorbild nannte er buddhistische Ökonomie, die er in Burma entdeckt hatte. Eine Zivilisation, die auf nachwachsenden Rohstoffen aufbaut, so behauptete er, wäre besser als eine auf nicht erneuerbaren Ressourcen. "Der ersteren tragen das Zeichen des Lebens", schrieb Schumacher, "während die letzteren das Zeichen des Todes tragen."

Obamas Ziel der Erneuerbaren ist ein Triumph für Schumachers buddhistische Ökonomie – die zu Armut führt und bei Armut bleibt. Es erzeugt keine Arbeitsplätze, Wachstum und Wohlstand.

Mr. Darwall ist der Author von “The Age of Global Warming: A History (Quartet, 2013). [Das Zeitalter der Globalen Erwärmung: Ein Historie, Link recherchiert]

Erschienen auf The Wall Street Journal am 5. Juli 2015

Übersetzt durch Andreas Demmig

http://www.wsj.com/articles/obamas-renewable-energy-fantasy-1436104555

Hinweis des Übersetzers: Die Websuche nach diesem Titel in Englisch, führt zu vielen Informationen „beider Seiten“, auf Deutsch kommt hauptsächlich Wikipedia, mit den üblichen alarmistischen Behauptungen, „Google“ ist ausgeglichener als „Bing“.

Für Sie dabei gefunden: "Grün ist das neue Rot"

[1] Financial Times  : „Gates to double investment in renewables energy projects“ am 25.Juni 2015.

Offenbar sind diese Zugriffe nur eine begrenzte Zeit kostenlos verfügbar, bei diesem Link war ich wohl nicht schnell genug. Berichtet wird darüber auf The Register.

 Gesehen habe ich vorher:

Financial Times: „Q&A: Robots, Uber and the role of the goverment“ ebenfalls vom 25. Juni 2015, in dem Bill Gates interviewt wird. Nur eine kleine Passage betraf den Klimawandel:

 

 Auschnittskopie des o.g. Interviews der Financial Times mit Bill Gates.

FT: Reden wir ein wenig darüber, wie wir den Klimawandel am besten bekämpfen können.

BG: Die Leute sind ein wenig in die Irre geführt. Sie nehmen so etwas wie Solar-PV-und meinen, wenn die Sonne scheint, ersetzt die Energie des Tages die Kohlenwasserstoffe. Das ist völlig uninteressant, weil Sie immer noch ihre Wohnungen in der Nacht wärmen wollen. Bei diesem System dreht sich alles um Zuverlässigkeit. Sie können den Bedarf an Tagesenergie auf Null fahren und Sie wollen immer noch Energieversorgungsunternehmen, die fossile Kraftwerke in der Nacht betreiben.




Die Problematik der Klima-Prognosen

Aufgrund der von dem serbischen Mathematiker Milankovic 1941 angestellten Berechnungen können wir heute die periodische Veränderung des Klimas über Zeiträume von hundert Millionen Jahren – lassen Sie uns vorsichtig sagen – "deuten" (Abb.1). Sie beruht auf der Überlagerung verschiedener naturgegebener Einflüsse, wie der Veränderung der elliptischen Form der Erdbahn um die Sonne, der Veränderung der Neigung der Erdachse gegen die Ekliptik und die Präzession der Achse der Erde, die sich wie ein Kreisel verhält. Weitere jedoch kurzzeitig periodisch auftretende Phänomene sind der 11-Jahreszylus der Sonnenflecken und der bekannte El Niño im südlichen Pazifik, welcher u.a. die Lage des sogenannten Jet-Streams im Atlantik verändert und damit das Vordringen polarer Luftmassen nach Amerika und in den Atlantik. Hinzukommen aperiodische Veränderungen, hervorgerufen durch Vulkanausbrüche und Meteoriteneinschläge und durch Veränderungen der Stärke der Solarstrahlung, die, so weiss man heute, die Ursache für eine von 1600 bis 1730 andauernde kleine Eiszeit waren.

Mit dem Wachsen der Erdbevölkerung und der zunehmenden Nutzung natürlicher, sich nicht erneuernden Energiequellen kamen menschlich verursachte Einflüsse hinzu, deren unterschiedlich bewertete Bedeutung inzwischen zu – glücklicherweise ohne Waffengewalt ausgetragenen – Glaubenskriegen geführt hat. Doch erinnert die Art, wie diese geführt werden, nicht selten an die Angst und Schrecken verbreitenden Predigten zu Zeiten der Inquisition. An die Stelle der drohenden Apokalypse tritt dann die heraufbeschworene Lehre von einer von der Menscheit durch Emission von Treibhausgasen drohenden Klimakatastrophe, die je schlimmer sie ausgemalt wird, desto mehr gläubige Anhänger findet. Ihnen gegenüber stehen einmal die Protagonisten einer Lehre, welche eine vom Menschen verursachte Klimaveränderung bestreitet und diejenigen, die diese zwar nicht grundsätzlich ausschliesst, aber darauf hinweist, dass Indizien, geschweige denn eindeutige Beweise dafür bis heute nicht vorliegen. Kennzeichnend für den missionarischen Eifer der Verbreiter der Lehre von der drohenden Katastrophe ist die Bezeichnung "Klimaleugner“, die sie für jeden bereithalten, der die Gefahr einer Klimakatastrophe anzweifelt.

Ohne Partei zu ergreifen, wollen wir im folgenden versuchen, die Schwierigkeiten einer Voraussage über die Entwicklung des Klimas unter dem Einfluss der Zunahme der bekannten Treibhausgase, aufzuzeigen. Sie liegen in der Komplexität der Absorption von Strahlung in den Gasen, aus denen die Atmosphäre besteht. Diesbezüglich müssen wir zwei Bereiche der Strahlung unterscheiden, den kurzwelligen bis zu Wellenlängen von 0.8 Mikrometer (0.8/1000 mm) und den langwelligen Bereich, der beim Infrarot beginnt. Während im kurzwelligen Bereich die Energiebilanz der Erdatmosphäre vorwiegend durch quantenmechanische Prozesse in der Elektronenhülle der Gase bestimmt wird, geschieht die Erwärmung im langwelligen Bereich durch Erhöhung der kinetischen Energie der Moleküle, sei es infolge einer Erhöhung ihrer Geschwindigkeiten, sei es durch Rotation, sei es durch Schwingungen der Atome oder des ganzen Moleküls. Dass auch die in Form von energetischen Quantensprüngen erfolgt, bedarf keiner Erläuterung. Wegen der unterschiedlichen Molekülstruktur der einzelnen Gase der Atmosphäre absorbieren diese die langwellige Strahlung unterschiedlich. So absorbieren die zweiatomigen Gase Stickstoff und Sauerstoff gar keine langwellige Strahlung, im Gegensatz zu den mehratomigen Gasen Wasserdampf, CO2, Methan, Ozon, Distickstoffoxid und Fluorchlorkohlenwasserstoffen. Bekanntlich bezeichnet man sie als Treibhausgase, weil sie, wie das Dach eines Treibhauses, die vorwiegend kurzwellige Solarstrahlung durchlassen, dagegen die vom Erdboden emittierte langwellige Strahlung nicht. Dabei wird jedoch oft übersehen, dass die Treibhausgase auch die in der Solarstrahlung enthaltene langwellige Strahlung absorbieren, sodass diese gar nicht auf den Erdboden gelangt. Da rund 30% des Werts der Solarkonstante, wie man den Wert der auf den äusseren Rand der Atmosphäre treffenden Strahlung nennt, reflektiert werden, gelangen schliesslich nur 47% davon in den Erdboden. Davon wird mehr als die Hälfte durch Verdunstung von Wasser und Wärmeleitung abgegeben, sodass letzten Endes nur 18% des Werts der Solarkonstante, es handelt sich um durchschnittlich 62 Watt/m2, durch langwellige Strahlung abgeführt werden müssen. Und um diese ist nun der Streit entbrannt zwischen den Protagonisten der Klimakatastrophe und den „Klimaleugnern“. Wie verhält es sich damit?

Abb.2 zeigt die Beiträge der einzelnen Treibhausgase zur gesamten atmosphärischen Absorption langwelliger Strahlung, aufgetragen über der Wellenlänge ( entnommen aus GRAEDEL und CRUTZEN: „Atmospheric Change“). Wie man daraus erkennt, hat das Emissionsspektrum des Wasserdampfes Lücken, die von den übrigen Treibhausgasen zum Teil ausgefüllt werden. Die Absorption von Strahlung in Gasen erstreckt sich nun über die ganze Strecke, über welche die Strahlung in die Atmosphäre eindringt. Dies gilt sowohl für die von oben kommende Solarstrahlung, wie die vom Erdboden ausgehende Strahlung. Dabei treffen die Photonen der Strahlung auf die Moleküle der Treibhausgase und geben an diese ihre Energie ab. Die Strahlung vermindert sich dabei mit jeder Kollision und nähert sich asymptotisch dem Wert Null umso schneller, je höher die Konzentration der Treibhausgase ist. Letztere wiederum nähert sich einer Sättigung, sodass die Wirkung ihrer Zunahme immer kleiner wird. Die Tatsache, dass sich in den vergangenen fünfzehn Jahren die durchschnittliche Temperatur der Atmosphäre nicht erhöhte, trotz zunehmender Konzentration von CO2, legt den Schluss nahe, dass ein hoher Grad der Sättigung erreicht ist. Man kann also den Verlauf der Temperatur über der CO2 Konzentration nicht extrapolieren, wie es die Verkünder der Katastrophenlehre tun. Hinzu kommt, dass nach einem Naturgesetz die Absorption von Strahlung einer bestimmten Wellenlänge gleich der Emission bei dieser Wellenlänge ist und dass die Atmosphäre sowohl in Richtung Erdboden wie in Richtung Weltraum strahlt. Wie man zeigen kann, würde sich unter bestimmten Bedingungen – sie betreffen die Verteilung der Konzentration und Temperatur über die Höhe der Atmosphäre – der Erdboden sogar abkühlen, wenn sich die Konzentration der Treibhausgase erhöht.  

Die Schwierigkeit von Prognosen über den Einfluss der einzelnen Faktoren auf die klimatische Entwicklung besteht in der Vernetzung der Wirkungen der einzelnen Klimafaktoren miteinander. So kann die Erhöhung der Lufttemperatur infolge einer Zunahme der Absorption langwelliger Strahlung durch CO2 sich in der Zunahme der Emission von Methan auswirken, was wiederum eine erhöhte Absorption langwelliger Strahlung zur Folge hätte. Käme es aber infolge stärkerer Bewölkung zu einer Erhöhung der Albedo der Erdatmosphäre (Reflexion von Solarstrahlung), die gegenwärtig rund 28 % beträgt, um 1%, so hätte dies eine Abkühlung der Atmosphäre um etwa 1 Grad zur Folge.

Ungewiss ist auch die Folge der Verminderung der Eisdecke des nördlichen Polarmeeres. Erhöht sich dessen Temperatur, so schwächen sich die thermischen Umwälzpumpen, welche die beiden nördlichen Atlantikströme und damit den Golfstroms erzeugen. Die Folge wäre eine Abkühlung der Atmosphäre in Europa. Zugleich erhöht sich aber die Wassertemperatur nördlich des Äquators und damit die Verdampfung von Meerwasser. Da Wasserdampf leichter als Luft ist, könnte es in den in Verbindung mit der Corioliskraft zur vermehrten Bildung von Hurrikanen in 20 bis 30 Grad nördlicher Breite kommen. Allen diesbezüglichen Behauptungen entgegen, und dies bestätigt sogar IPCC, ist aber bis heute keine Zunahme von Hurrikanen als Folge eines Klimawandels erkennbar.

Was die Polargebiete, Arktis und Antarktis betrifft, so ist deren klimatische Entwicklung nicht gegenläufig, wie vielfach behauptet wird, sondern unterschiedlich. Die Arktis ist ein Meer, das durch Strömungen im konvektiven Wärmeaustausch mit niedereren Breiten steht. Die Antarktis ist ein Kontinent, der klimatisch isoliert ist. Seine Wärmebilanz wird vorwiegend durch die Strahlung bestimmt. Dabei reflektiert die antarktische Schneedecke mit ihrem feinkörnigen Schnee im Sommerhalbjahr mehr als 90% der kurzwelligen Sonnenstrahlung. Im langwelligen Bereich ist Schnee aber ein sogenannter „Schwarzer Körper“, der ein Höchstmass an Strahlung abgibt, Bei unbedecktem Himmel kann dabei die Schneeoberfläche in der Polarnacht mit minus 80 Grad Celsius zum kältesten Punkt der Atmosphäre werden, wie der Verfasser aus eigener Erfahrung weiss. Im Gegensatz zur Arktis werden deshalb globale Temperaturerhöhungen des Meeres und der Atmosphäre kein Schmelzen des antarktischen Eisschilds bewirken. Dies findet sich durch neueste Messungen bestätigt.

Was den Anstieg des Meerespiegels betrifft, so kann dazu nur das Schmelzen des auf Land befindliche Eises beitragen. Unbestritten ist, dass dies gegenwärtig geschieht, wobei das Abschmelzen des grönländischen Eisschilds nach neuesten Messungen den Meerespiegel jährlich um 0.68 mm erhöht und damit zur Hälfte zum durchschnittlichen globalen Anstieg des Meerwasserspiegels von 1.3 Millimeter pro Jahr beiträgt. Zum Anstieg würde aber auch die Zunahme der Meerwassertemperatur beitragen. Mit einem thermischen Expansionskoeffizienten des Wassers von 0.00021 würde bei Temperaturerhöhung um 1 Grad einer 100 Meter tiefen Oberflächenwasserschicht der Meeresspiegel um 21 mm ansteigen. Sollten nun Inseln im indischen Ozean und äquatorialen Pazifik tatsächlich wegen eines Anstiegs des Meeresspiegels von Überflutung betroffen sein, so könnte dies seine Ursache nur in der Bewegung der Erdkruste oder in einer lokalen Veränderung des Erdschwerefelds haben, auf keinen Fall aber im Abschmelzen von Gletschern.

====================================================

)*  Zum Autor:

Dr. Peter Schoeck, 89, Triesen, amerikanischer Staatsbürger, ehemals Professor  am Institut für Raumfahrttechnik der Universität von Tennessee in USA, war in den  70er Jahren auch leitender Direktor für Forschung und Entwicklung von Bosch mit über tausend Wissenschaftlern und Ingenieuren. Er war ferner auch wissenschaftlicher Leiter für Polarlichtforschung und Glaziologie bei der amerikanischen Antarktisexpedition im Internationalen Geophysikalischen Jahr 1956 bis 1958 welches bereits vor mehr als einem halben Jahrhundert globalen Untersuchungen zur Entwicklung des Klimas galt. Er betont jedoch ausdrücklich, kein sogenannter  „Klimaexperte“ zu sein, sondern heute nur noch ein kritischer Analytiker der voneinander abweichenden Auffassungen zur Klimaentwicklung.

=====================================================




Hitzewallungen

Die technischen Daten vorweg: Ich schreibe diesen Kommentar im Berner Marzili, die Temperatur der Luft beträgt 33 Grad, jene des Wassers im Bassin 25 Grad und in der Aare 22 Grad. Die Präzision drängt sich auf. Denn wenn es um das Klima geht, schert sich sonst niemand darum – ob Medienleute, Politiker oder auch Wissenschaftler.

Nach der üblen Schafskälte im Juni reichten drei Tropentage, dass die Alarmisten heissliefen. «Hitzewelle: Bundesrat muss handeln», japste die NZZ am Sonntag auf der Frontseite. «Der Klimawandel führt zu immer neuen Temperaturrekorden», warnte sie; die Hitzewellen zählten zu den «drei grössten Risiken für die Bevölkerung». Deshalb fordere das beratende Organ des Bundesrates für Fragen des Klimawandels (OcCC) «grosse und langfristige Anstrengungen», um unser Leben völlig zu ändern. «Klimaforscher prophezeien: Solche Hitzewellen gibt es künftig immer öfter», jaulte der Sonntagsblick im «Glutofen». Und im Interview mit 20 Minuten heizte der ETH-Professor Reto Knutti weiter ein. Es gebe weltweit, «aber auch in der Schweiz» immer mehr Ex­tremereignisse, so etwa längere Hitzeperioden, die zu immensen Kosten führten, wie im Sommer 2003: «In der Schweiz gab es Milliardenschäden in der Landwirtschaft.»

Kein Trend seit mehr als achtzehn Jahren

Gegen Hitzewallungen hilft ein Faktencheck. Zu den Temperaturrekorden: Auf der Wetterseite der NZZ am Sonntag finden sich jeweils die historischen Höchstwerte vom Vortag – jene für den 4. Juli stammten aus dem Jahr 1952. Und auch am heissen Sonntag, 5. Juli, suchte SRF mit geringem Erfolg nach Rekorden. Nur Davos gab mit 29,3 Grad einen her; allerdings räumte Meteorologe Felix Blumer kleinlaut ein: «Gemäss Statistik soll dieser Wert am 23. Juli 1876 [!] schon einmal vorgekommen sein.»

Und zu den Extremereignissen: «Jedes halbe Grad, um welches sich die Erde erwärmt, wirkt sich immer stärker auf das extreme Wetter aus», glaubt Reto Knutti; schliesslich spucken es seine Computermodelle aus. In der Schweiz hat sich das Klima allerdings seit dem 19. Jahrhundert um 1,5 Grad erwärmt – und nichts ist passiert: Es gibt keinen Trend, weder bei Hitzewellen oder Starkregen noch bei Unwetterschäden allgemein. In den letzten Jahren fielen national wie global ausgesprochen geringe Kosten aufgrund von Umweltkata­strophen an. Die Rückversicherung Swiss Re, deren Direktor David Bresch als Interessenvertreter im Beratergremium OcCC die Politiker zum Handeln drängt, machte deshalb glänzende Geschäfte. Und bei den «Milliardenschäden in der Landwirtschaft» haut ETH-Professor Knutti mit wissenschaftlicher Präzision daneben: Mit Gemüse, Getreide und Futterpflanzen erwirtschaften die Schweizer Bauern insgesamt drei Milliarden – die nationale Plattform Naturgefahren, auf die sich ­Reto Knutti im Interview selber berief, schätzt die Schäden im Hitzesommer 2003 (hoch) auf 500 Millionen Franken ein.

Weltweit könnte sich 2015 tatsächlich zum wärmsten Jahr seit Beginn der Messungen entwickeln, zumal die Meteorologen eifrig ihre Messdaten hochschrauben. Ein Rekord (um ein Zehntelgrad höher!) ändert aber nichts ­daran, dass die Temperaturentwicklung seit mehr als achtzehn Jahren keinen Trend zeigt und dass die gemessenen Werte unter allem liegen, was die Klimaforscher mit ihren Modellen voraussagten – also daran, dass diese Modelle nicht stimmen.

Wenn Sie dies lesen, sind die Temperaturen schon wieder zehn Grad tiefer, eher kühl für die Jahreszeit. Und selbst falls sie nochmals steigen: Lassen Sie sich von den irrenden ­Katastrophenwarnern nicht beirren. Genies­sen Sie den schönen Sommer!

 =================================================================

Anmerkung der EIKE-Redaktion http://www.eike-klima-energie.eu/  :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

Wetter: Hitzewallungen | Die Weltwoche, Ausgabe 28/2015 | Montag, 13. Juli 2015

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Markus Schär für die Gestattung des ungekürzten Nachdrucks.

==================================================================




Solar Impulse – ein solarbetriebenes Windei

Bei seinen ständigen Auftritten mit Prominenten und vor den Kameras aller möglichen Medien betont Bertrand Piccard nämlich immer wieder die visionären Ambitionen, die er mit dem Projekt verfolgt: Die Neuorientierung des Lebensstils der industrialisierten Gesellschaft, die seiner Meinung nach unverantwortlich mit den natürlichen fossilen Ressourcen des Planeten umgeht.

Um dieses noble Ziel zu erreichen, hat er selbst jedoch keine Hemmungen, Ressourcen in fast unglaublicher Höhe zu verschwenden. Die Berechnungen, die Simulationen, der Bau und die Tests für die Realisierung des Projekts dauerten zwölf Jahre. Die Kosten für dieses nach seinen Worten „revolutionärste Flugzeug“ sowie seinen Vorgänger „Solar Impulse 1“ nebst dem Aufwand für die Weltumrundung haben mittlerweile insgesamt 140 Mio. CHF bzw. ca. 135 Mio. € verschlungen.

Und was ist der Gegenwert? Ein reiner Schönwetterflieger mit 72 m Spannweite, der für seinen Flug um die Welt bei einer geplanten Strecke von 35.000 km fünf Monate benötigen soll. Das sind rund 230 km am Tag bzw. knapp 10 km/h. Inzwischen musste die Maschine bereits zum zweiten Mal wegen erheblicher technischer Probleme stillgelegt werden.

Wenn dieser Flug und dieses Projekt eines beweisen, dann lediglich folgendes: Selbst mit modernster Technik und modernsten Materialien –den Konstrukteuren standen alle Spitzenprodukte nach neuestem Stand der Wissenschaft zur Verfügung – ist Solarflug bestenfalls Spielerei und keinesfalls alltagstauglich. Schon die Teeklipper des 19. Jahrhunderts waren schneller. So erreichte schon die „Cutty Sark“ ein sogenanntes „Etmal“ – das ist die in 24 Stunden zurückgelegte Strecke – von 670 km (363 sm) und schaffte die Strecke von Shanghai nach Europa in 102 Tagen. Und im Unterschied zum zerbrechlichen Solar Impulse war sie allwettertauglich, wie sie bei Umrundung von Kap Hoorn mit seiner berüchtigten Hexenküche etliche Male bewies.

Besonders blamabel ist die Tatsache, dass es diesmal die ultramodernen Li-Ionen-Batterien mit einem speziell in Richtung höherer Energiedichte entwickelten Elektrolyten sind, die nach wenigen Wochen Einsatz bereits den Geist aufgegeben haben. Meldungen zufolge sind diese Batterien zum Teil irreversibel beschädigt und müssen entsprechend ersetzt werden, was mehrere Wochen dauern dürfte. Ein genauer Starttermin lässt sich derzeit noch nicht angeben, und schon Mitte August schließt sich das Zeitfenster für eine Atlantiküberquerung. Anderenfalls könnte sich das Projekt bis 2016 hinziehen. Realistisch betrachtet ist Solar Impulse 2 somit nicht viel mehr als ein besonders teures Stück Edelschrott.

Dennoch werden die Medien nicht müde, weiterhin das hohe Lied der waghalsigen Flugpioniere zu singen, beispielsweise in einem kürzlichen Interview mit A. Borschberg im Spiegel. Dabei ist dieses Versagen in Wirklichkeit doch eine schallende Ohrfeige für alle, die der Öffentlichkeit weismachen wollen, mit Batterien könne man die tödliche Erbkrankheit der „Erneuerbaren“, nämlich die fehlenden Speichermöglichkeiten, kurieren.

Fred F. Mueller




Passend machen der Temperaturanomalien seit 2010 seitens NOAA/NCEI – beten wir, dass sie nicht noch weiter manipuliert werden

Bild rechts: Herzlichen Dank an Josh für seine unnachahmliche Kunst und seinen Humor!

Die Rohdatensätze von NOAA/NCEI von Januar 2010 bis Mai 2015 wurden bei WUWT hier hochgeladen für alle, die vielleicht ihre eigenen Analysen durchführen wollen. Auch habe ich einige Daten-Dokumentationen in den readme.txt-File geladen, der Teil des Downloads war. Die gegenwärtigen NOAA/NCEI-Daten können hier herunter geladen werden; man klicke auf „Anomalies and Index Data”.

Von Januar 2010 bis Mai 2015 sind es 65 Monate. In acht dieser Monate wurden signifikante Änderungen der Anomaliedaten vorgenommen. Von Januar 2010 bis Oktober 2010 gab es nur sehr geringe Änderungen. Man beachte auch, dass die Daten ursprünglich mit bis zu 4 Stellen verfügbar waren, jetzt nur noch mit 2 Stellen. Die zweistelligen Werte scheinen gerundete Versionen der vierstelligen Daten zu sein.

Die erste merkliche Änderung erfolgte im November 2010, wobei die meisten Anomalien über die Aufzeichnungsperiode nach oben adjustiert wurden. Von Mitte 1939 bis Mitte 1946 gab es keine Anhebungen. Diesen Zeitraum unverändert zu lassen, während alle anderen nach oben korrigiert werden, ist ein effektives Äquivalent, alles zu erniedrigen. Von Interesse ist, dass im Zeitraum 1880 bis 1909 die Anomalien der beiden Monate April und November am stärksten nach oben korrigiert worden sind.

Die nächste Änderung erfolgt im April 2011. Der Zeitraum 1912 bis 1946 scheint im Vergleich zur übrigen Aufzeichnung erniedrigt worden zu sein. Hier folgt das Delta zwischen März 2011 und April 2011:

Und hier die akkumulierte Änderung von Oktober 2010 bis April 2011:

Die nächste Änderung erfolgt im Oktober 20101. Die Zeiträume 1880 bis 1885 sowie 1918 bis 1950 scheinen relativ zur übrigen Aufzeichnung erniedrigt worden zu sein. Hier folgt das Delta zwischen September 2011 und Oktober 2011:

Und hier die akkumulierte Änderung von Oktober 2010 bis Oktober 2011:

Zur nächsten Änderung kommt es im Januar 2012. Der Zeitraum 1905 bis 1943 scheint relativ zur restlichen Aufzeichnung erniedrigt. In der Zeit nach 1974 wurden die Daten relativ zur übrigen Aufzeichnung nach oben verändert. Hier folgt das Delta zwischen Dezember 2011 und Januar 2012:

Und hier die akkumulierte Änderung von Oktober 2010 bis Januar 2012:

Die nächste Änderung erfolgt im Februar 2012. Der Zeitraum 1898 bis 1930 ist relativ zur übrigen Aufzeichnung angehoben worden. Hier ist das Delta zwischen Januar 2012 und Februar 2012:

Und hier die akkumulierte Änderung von Oktober 2010 bis Februar 2012:

Die nächste Änderung erfolgt im August 2012. Der Zeitraum 1880 bis 1947 ist gegenüber dem Zeitraum 1948 bis 2010 erniedrigt worden. Das Delta zwischen Juli 2012 und August 2012 sieht so aus:

Und hier die akkumulierte Änderung von Oktober 2010 bis August 2012:

Die nächste Graphik ist keine Adjustierung, sondern eine Plausibilitätsprüfung. Februar 2014 war der letzte Monat, in dem vierstellige Daten zur Verfügung standen. Ab März 2014 werden nur zweistellige Daten verwendet. Der Vergleich zwischen Februar 2014 und März 2014 bestätigt, dass die zweistelligen Daten eine gerundete Version der vierstelligen Daten sind. Das „Flattern“ liegt innerhalb +/- 0.01, das heißt, es handelt sich um Rundungsfehler.

Die nächste Änderung erfolgt im April 2015. Die zweistelligen Ergebnisse erzeugen eine gezahntere Graphik nach Art eines Sägeblatts. Der Zeitraum 1880 bis 1905 wurde leicht erhöht und der Zeitraum 1931 bis 1958 leicht erniedrigt relativ zur übrigen Aufzeichnung. Hier folgt das Delta zwischen März 2015 und April 2015:

Und hier die akkumulierte Änderung von Oktober 2010 bis April 2015

Einige der Änderungen der Daten April 2015 (heruntergeladen Mitte Mai) und Mai 2015 (heruntergeladen Mitte Juni) sehen ziemlich wild aus. Ein Abfall der Anomalien im Jahre 1939 um bis zu 0,14°C und eine Anhebung bis zu 0,15°C der Anomalien des Jahres 1945 veranlassten mich zu einer Doppelprüfung: Ich habe die Daten manuell inspiziert um sicherzustellen, dass meine Graphik nicht fehlerhaft war. Die Rohdaten bestätigen, was die Kalkulationstabelle zeigt…

Und jetzt zur Adjustierung, die den Stillstand zerschlägt: Hier folgt das Delta zwischen April 2015 und Mai 2015. Diese Adjustierung kommt daher wie eine Achterbahnfahrt:

● Der Zeitraum 1880 bis 1925 geht rauf und runter.

● 1926 bis 1937 ist relativ stabil, erniedrigt um etwa 0,03 bis 0,04 Grad relativ zum April

● 1938 bis 1939 sind um 0,1 Grad unter die Werte aus dem April gefallen

● Die Adjustierung springt scharf nach oben um 0,1 Grad bis Ende 1944

● Bis 1948 erfolgt ein scharfer Rückgang

● Bis 1963 erfolgt ein allmählicher Rückgang

● Stabil von 1963 bis 1973

● Anstieg von 1973 bis 1980

● Stabil von 1980 bis 1992

● Abfall von 1992 bis 1998

● Anstieg von 1999 bis November 2010 (Ende des Vergleichs)

Und hier nun die akkumulierte Änderung von Oktober 2010 bis Mai 2015. Weil die Änderung im Mai 2015 die größte ist, ist die akkumulierte Änderung von Oktober 2010 bis Mai 2015 ähnlich der monatlichen Änderung im Mai 2015. Eines sticht hervor … weil 5 oder 6 der 8 Adjustierungen Teile von oder ganze Jahre zwischen den beiden Weltkriegen nach unten gezogen worden sind, gibt es einen markanten Abfall von 1920 bis 1939 der adjustierten Temperaturen. Dies hat den Effekt, mit den „schmutzigen Dreißigern“ das zu machen, was Michael Mann mit der Mittelalterlichen Warmzeit versucht hat zu machen, d. h. es sollte aus den Temperaturaufzeichnungen ausradiert werden. Wie unser Freund Daft Bladder sagt: „Ich verändere die Daten. Betet, dass ich sie nicht noch weiter verändere“.

Link: http://wattsupwiththat.com/2015/07/09/noaancei-temperature-anomaly-adjustments-since-2010-pray-they-dont-alter-it-any-further/

Übersetzt von Chris Frey EIKE

Hinweis: Zur Quellenangabe der Bilder klicke man auf das Original und dann darin auf die jeweilige Graphik.




Eine Zukunft für die Kohle

Aber vielleicht irrt sich der Papst und die Kohle gehört doch zu den Geschenken, die uns der Schöpfer hinterlassen hat, damit wir Menschen als kleine Mitschöpfer unser Leben im Diesseits etwas angenehmer gestalten können. Denn abgesehen von ihrem reichlichen Vorhandensein hat die Kohle als Energieträger noch andere Vorzüge: Sie lässt sich gefahrlos transportieren und lagern. Freilich hat die Kohle auch gewichtige Nachteile: Bei ihrer bergmännischen Gewinnung unter oft schwierigen Bedingungen verlieren vor allem in Asien und Lateinamerika und zum Teil auch in Osteuropa jahraus, jahrein Tausende von Bergleuten ihr Leben. Außerdem entstehen Beeinträchtigungen der Umwelt wie Bergsenkungen und Belastungen des Grundwassers mit Giften wie Arsen, Quecksilber und Blei. Nicht zuletzt werden bei der ungefilterten Verbrennung von Kohle etliche Schadstoffe in großen Mengen in die Luft geblasen. Ob auch der bei der Verbrennung entstehende Pflanzennährstoff Kohlenstoffdioxid (CO2) als Schadstoff betrachtet werden muss, bleibt allerdings wissenschaftlich umstritten.

Schon seit der „Ölkrise“ in den 1970er Jahren gibt es deshalb Versuche, schwer zugängliche Kohle-Lagerstätten an Ort und Stelle in Brand zu setzen und die dabei entstehenden Gase (hauptsächlich Wasserstoff und Kohlenstoffmonoxid sowie etwas Methan, aber auch nicht brennbares CO2 und Wasserdampf) nach einer mehr oder weniger aufwändigen Reinigung über Tage energetisch oder rohstofflich zu nutzen. Der Prozess heißt Untertage-Vergasung von Kohle, englisch Underground Coal Gasification (UCG). Allein im Kohleland USA gab es um diese Zeit über 30 Pilotprojekte, mit denen die Ingenieure mehr oder weniger gute Erfahrungen sammelten. In Australien startete im Jahre 1997 unter dem Namen „Chinchilla“ das erste UCG-Langzeit-Pilotprojekt in der westlichen Welt. Sein Ziel war die Herstellung von ultrareinem Diesel und Kerosin. In Südafrika zündete der Stromversorger Eskom im Jahre 2007 das erste Kohlefeld.

Als besonders groß gelten die Chancen der UCG in Indien und China. Indien verfügt kaum über Erdgas-Vorkommen, dafür aber über viel größtenteils schwer zugängliche Kohle. Auch China verfügt über etliche für die UCG geeignete Kohleflöze, von denen einige schon ohne menschliches Zutun in Brand geraten sind. Über den Fortgang der zahlreichen chinesischen UCG-Projekte gibt es im Westen keine Übersicht. Wie im Westen dürften aber auch diese Projekte in den letzten Jahren wegen der Verfügbarkeit großer Mengen von preiswertem Schiefergas und -öl auf dem Weltmarkt durch Fracking ins Stocken geraten sein.

In den USA war vor allem das bekannte kalifornische Lawrence Livermore Lab mit der Auswertung der UCG-Pilotprojekte betraut. Es fand, dass zumindest bei einem frühen UCG-Projekt im US-Bundesstaat Wyoming schwere Umweltschäden aufgetreten waren, weil krebserregendes Benzol in die Grundwasserschichten aufgestiegen war. Spätere Versuche wurden deshalb vom Vorhandensein undurchlässiger Tonschichten über den Kohleflözen abhängig gemacht. Das in großen Mengen entstehende CO2 wurde über Pipelines für die Verbesserung der Ausbeute von Ölfeldern genutzt. Es könnte aber auch in die durch die UCG unter Tage entstehenden Hohlräume gepumpt werden. Ob das mit tragbaren Kosten machbar ist, steht allerdings dahin.

Eine viel bessere Lösung für die energetische und rohstoffliche Verwertung von Kohlevorkommen glaubt der Münsterländer Erfinder Dr. Florian Krass gefunden zu haben. Der heute in der Schweiz lebende gelernte Zahnarzt hat sich bzw. seiner Firma Sincono AG u. a. die „Self Propagating High Temperature Synthesis“ (SHS) von Siliziumcarbid und Siliziumnitrid aus Ölsanden oder silikatreicher Braunkohle (Diatomeenkohle) patentieren lassen. Die Idee geht zurück auf Vorarbeiten, die Prof. Bernhard Himmel in den letzten Tagen der DDR an der Universität Rostock durchführte. Deren Ziel war allerdings nicht die Energiegewinnung, sondern die Herstellung widerstandsfähiger Sinter-Formteile (Keramik) aus Diatomeenkohle. Dabei fiel ihm auf, dass die von ihm benutzten Brennstäbe viel heißer wurden als erwartet. Es musste eine chemische Reaktion abgelaufen sein, bei der viel mehr Wärmeenergie frei wurde, als in Form der Kohlenstoff-Oxidation investiert worden war. Doch diese Entdeckung ging in den Wirren der Wendezeit unter. 

Florian Krass sah hingegen in dieser von Prof. Himmel nicht weiter verfolgten Entdeckung eine Möglichkeit, Kohle energetisch nutzen zu können, ohne damit das politisch lästige Nebenprodukt CO2 produzieren zu müssen. Das CO2 wird dabei mit Energiegewinn durch Ammoniak (NH3) neutralisiert. Anstelle des „bösen“ CO2 entsteht bei der chemischen Reaktion, der carbothermischen Nitridierung, am Ende Siliziumcarbid- und Siliziumnitridpulver, woraus hochwertige technische Keramik-Teile hergestellt werden können. In der freien Natur können Nitride, das heißt Verbindungen mit dem an sich reaktionsträgen Stickstoff, nur bei Abwesenheit von Sauerstoff entstehen und sind dem entsprechend äußerst selten. Die von Florian Krass zum Patent angemeldete carbothermische Nitridierung läuft demgegenüber, einmal in Gang gesetzt, unter Anwesenheit von Sauerstoff aus dem Sand (Silikat) in Form chemischer Wellen selbsttätig ab. Die SHS wurde erstmals zu Beginn der 1970er Jahre vom russischen Wissenschaftler Merzhanow vorgestellt. Gegen Ende der 1990er Jahre wurde sie von russischen und amerikanischen Forschern (siehe Anmerkung) eingehend beschrieben. Florian Krass schlägt vor, die stillgelegten deutschen Kernkraftwerke zu „Molekül-Kraftwerken“ für die Energiegewinnung und die gleichzeitige Produktion von Keramikpulver durch SHS umzurüsten, statt sie mit großem technischem Aufwand zu verschrotten. 

Anmerkung: Arvind Varma, Alexander S. Rogachev, Alexander S. Mukasyan and Stephen Hwang: Combustion Synthesis of Advanced Materials: Principles and Applications, in: Advanced Chemical Engineering Vol. 24, Academic Press 1998. Als einfachstes Beispiel für eine SHS wird dort folgende Reaktion angeführt:  Ti + C  = TiC + 230 kJ/mol.