1

Grüne Politik macht Europa angreifbar durch Putin

Bis zur Krise um die Ukraine gab es in Deutschland die Tendenz, engere Bindungen mit Russland einzugehen. Der ehemalige Bundeskanzler Gerhard Schröder steht Wladimir Putin nahe (er hat den russischen Einmarsch in der Ukraine mit dem NATO-Einmarsch in Serbien in den neunziger Jahren verglichen) und ist Vorsitzender der Gazprom Joint-Venture-Pipeline Nord Stream. Im Jahre 2012 hat Russland 30 Milliarden Kubikmeter Erdgas nach Deutschland gepumpt, was 28% der in die EU gelieferten Menge von 105,5 Milliarden Kubikmeter ausmachte.

Lässt man die Freundschaften mal außen vor, waren die wichtigsten Treiber der energiebezogenen Außenpolitik Deutschlands die Grünen. Andere Nationen, die sich überlegen, Innen- oder Außenpolitik durch Umweltaktivisten bestimmen zu lassen, würden sehr gut daran tun, genau zu betrachten, wohin Deutschlands Umgarnen der Umweltbewegung geführt hat.

Die deutschen Grünen traten als politische Kraft erstmals Ende der siebziger Jahre in Erscheinung, also in einer Zeit akuter Ost-West-Spannungen. Als Antwort auf die sowjetischen SS-20-Raketen hatte die NATO beschlossen, Pershing-Raketen in Deutschland zu stationieren. Ob nun absichtlich oder nicht, jedenfalls haben die Protestierer sehr gut die Arbeit des Kremls erledigt, die atlantische Allianz zu spalten.

Die Proteste wandelten die deutsche Linke in die Stimme eines radikalen Umweltaktivismus’ – eine historische Verschiebung. Altnazis und Neonazis waren bis dahin die Träger der ökologischen Politik Deutschlands, wurden aber nach Hitlers Niederlage marginalisiert. Der deutsche Umweltaktivismus war antidemokratisch und antikapitalistisch. Die Nazis waren die grünste Partei Europas, die Gesetze zu erweitertem Schutz der Wälder und gegen Tierversuche auf den Weg gebracht haben, während sie abscheuliche Experimente an Menschen durchführten.

Im Oktober 1980 formierten sich die Grünen als Partei und traten zu politischen Wahlen an. 18 Jahre später traten sie in eine rot-grüne Koalition ein mit der links der Mitte positionierten SPD. Im Jahr 2000 propagierten sie erfolgreich den allmählichen Rückzug aus der Kernkraft.

Der größte Triumph der Grünen kam mit der Energiewende* in Deutschland, also dem Übergang zu erneuerbarer Energie. Diese Politik ist eine unergründlich tiefe Goldgrube für Gazprom. Sie bedeutet, dass Deutschland mehr und immer mehr russisches Gas kaufen wird, weil sich das Land nicht auf Strom aus unzuverlässigen Quellen wie Wind und Solar verlassen kann, um die Lichter nicht ausgehen zu lassen.

[*Das Wort Energiewende steht so kursiv gesetzt im Original. A. d. Übers.]

Die Entwicklung der Grünen hatte gewaltige Auswirkungen auf die deutsche und die europäische Politik. Aber nicht alle europäischen Länder sind hinsichtlich der Abhängigkeit von russischem Gas so enthusiastisch oder naiv willfährig. Einige Länder schauen nach Amerika für Alternativen.

Russland deckt etwa ein Drittel des Gasbedarfs der EU, aber das Verhältnis steigt, je weiter man nach Osten kommt. Die Baltischen Staaten und Bulgarien decken ihren gesamten Gasbedarf aus Russland. Polen, die Tschechische Republik, die Slowakei und Ungarn beziehen etwa 50% ihres Gasbedarfs aus Russland. Diese Länder agieren als die vier Visegrad-Länder und haben immer gegen deutsche Versuche opponiert (unterstützt von UK und Frankreich), die aggressive Dekarbonisierungs-Politik EU-weit zu institutionalisieren.

Anfang dieses Monats haben die Premierminister der Visegrad-Länder Russlands Aktionen in der Ukraine verurteilt und gesagt, dass Russland „eine gefährliche neue Realität in Europa schafft“. Der polnische Premier Donald Tusk warnte, dass Europa das Risiko einer Paralyse eingeht, wenn eine „exorbitante“ Klimapolitik die EU immer stärker von russischem Gas abhängig macht. Die Botschafter der vier Länder sind bei Führern des US-Kongresses vorstellig geworden und haben darum ersucht, das Exportverbot von Erdgas aus den USA aufzuheben.

Inzwischen gibt es über ein Dutzend Pipelines, die Europa mit russischem Gas versorgen, und da der Gaspreis überwiegend an den Rohölpreis gekoppelt ist, ist der Gaspreis stark gestiegen. Und doch zögert Präsident Obama, die Keystone-XL-Pipeline zu genehmigen und verhält sich passiv im Hinblick auf die europäischen Bitten um amerikanisches Gas.

Die Öffnung der europäischen Märkte für amerikanisches Gas würde helfen, den Klammergriff von Gazprom auf die Länder zu erschüttern, die zumeist von Russland abhängig sind. Mr. Obama muss die Grünen in seiner eigenen Partei zurückstutzen und die reichlichen Öl- und Gasvorräte der USA der Welt anbieten.

Mr. Darwall ist Autor von “The Age of Global Warming: A History” (Quartet, 2013).

Link (paywalled): http://online.wsj.com/news/articles/SB10001424052702304747404579444901610420082#printMode

Übersetzt von Chris-Frey EIKE




Die Sonne bringt es an den Tag – Was die Erdtemperaturen wirklich bestimmt

Teil 1: Der Temperaturgang der letzten 35 Jahre – Was ihn steuert

Teil 2: 2014, ein El Niño-Jahr (?) – El Niño und seine solaren Auslöser über die letzten 1.000 Jahre

Teil 3: Warum und wie El Niño das Wettergeschehen in Europa und Nordamerika steuert

 

Abb.1, Quelle: Josef Kowatsch, Datenquelle: DWD, zeigt, dass auch der vergangene milde Winter nichts daran ändert, dass seit gut einem viertel Jahrhundert die Wintertemperaturen deutlich zurückgehen.

Überblick

Im 1. Teil erfahren Sie, was die Erdmitteltemperaturen, wie sie z.B. im HadCRUT oder UAH veröffentlicht werden, steuert. Anhand von Belegen wird exakt aufgezeigt, wie die Erdmitteltemperaturen von El Niño-Ereignissen und diese wiederum von der variablen Sonne gesteuert werden. Das Wetter- und Klimageschehen damit vollständig von natürlichen Ursachen, der Aktivität unseres Zentralgestirns abhängt. Zur Erklärung des Wetters und seiner statistischen Größe, des Klimas, reicht allein die variable Sonne. Es wird gezeigt, dass, wie IPCC und Unterstützer gerne verlauten, es keine Abkopplung der Erd(mittel)temperaturen von der Sonnenaktivität gibt, sondern bewiesen, dass beide in exakter Weise zusammenhängen und synchron verlaufen, bis in die heutige Zeit. Zum Verständnis der Zusammenhänge wird zu Beginn die Wetteranomalie El Niño kurz erläutert und ihre globalen Auswirkungen gezeigt. Anschließend der Beweis geführt, dass ausschließlich solare Aktivität einen El Niño auslöst und somit das Wettergeschehen moderiert und wann der El Niño dabei ausgelöst wird.

Im 2. Teil werden die im Teil 1 gefundenen Korrelationen mit den Daten der letzten 140 Jahre abgeglichen und dadurch gezeigt, dass auch für diesen Zeitraum die gefundenen Beziehungen und Zusammenhänge bestehen. Darüber hinaus wird ein El Niño-Datenabgleich für die letzten 1.000 Jahre mit dem Hauptsonnenzyklus vorgenommen. Es wird gezeigt, dass immer dann ein El Niño-Ereignis stattfindet, wenn der Hauptsonnenzyklus in seiner Aktivität (nach seinem Aktivitätsminimum) wieder zu steigen beginnt. Anhand der Theorie des Autors wird anschließend dargelegt, dass Ende 2014 ein El Niño vorliegen wird, der zu Beginn 2015 sein Maximum (stärkste Ausprägung) erreicht.

Teil 3 zeigt, wie die Sonne ihre Energie auf die irdischen Wettersysteme einprägt. Die physikalischen Grundlagen dargelegt, über die die Auswirkungen von El Niño-Ereignissen global wirken und wie das Wettergeschehen (über die NAO) in Europa und Nordamerika diesen Parametern folgt.

Teil 1

Wer die Zeilen zu Beginn aufmerksam lass, wird feststellen, dass sich die Wissenschaftler und ihre Schreiberlinge geschickt ein Hintertürchen aufgelassen haben. So ist zu lesen „wahrscheinlich“. Nun, Wissenschaft ist die Lehre der Exaktheit. Wissenschaft ist sich sicher, bzw. stellt Thesen/Theorien auf, die dann an der Realität zu messen sind und ändern, sollte die Realität nicht im Einklang mit der Theorie stehen, die Theorie und versucht nicht, die Realität zu ändern (zu manipulieren), um die Theorie zu retten. Insofern zeigt dieses unscheinbar, eingefügte Wort, was es mit der Aussage auf sich hat, sie basiert auf Vermutungen, wie übrigens die gesamte Treibhaustheorie und hat demnach nichts mit Wissenschaft, sondern allenfalls etwas mit Pseudowissenschaft zu tun, wie sich so treffend der Physik-Nobelpreisträger, Ivar Giaever, ausdrückte.

Was verbirgt sich hinter El Niño? Eine kurze Erläuterung:

El Niño, ein in der Wissenschaft immer noch rätselhaftes Phänomen, dass scheinbar aus heiterem Himmel eintrifft  und natürlich ebenfalls schon versucht wurde, von der Treibhausaktivisten für ihre Zwecke zu missbrauchen. Es gäbe eine Zunahme dieser Ereignisse und deren Stärke. Bereits der EIKE-Artikel von Herrn Lüning zeigt, dass beides nicht zutrifft (http://www.eike-klima-energie.eu/klima-anzeige/katastrophaler-focus-artikel-stellt-die-klimawissenschaften-auf-den-kopf-folgen-fuer-den-serioesen-wissenschaftsjournalismus-sind-fatal/). Aber, steht in 2014 wirklich ein El Niño an? Um die Antwort vorwegzunehmen: Anhand der wissenschaftlichen Untersuchungen des Autors, Ja! Er hat dies bereits in 01/2011 und 09/2011 auf EIKE veröffentlicht und gezeigt, warum. Seine Theorie erklärt nicht nur das Eintreten von El Niños, sondern auch dessen globale Auswirkungen, die bis in die Polarzelle reichen. So hat Prof. Brönnimann (ETH) nachgewiesen (”Extreme climate of the global troposphere and stratosphere in 1940–42 related to El Niño”, Nature 431, 971-974, 21. Oktober 2004), dass in den 40er Jahren des 20. Jahrhunderts über mehrere Jahre eine ungewöhnlich hohe Temperaturschwankung vorlag, die auf El Niño-Ereignissen beruhte. Aus alten meteorologischen Messdaten konnte er die atmosphärischen Verhältnisse auf der Nordhalbkugel zu Beginn der 1940er Jahre rekonstruieren. Dass El Niño-Ereignisse nicht regional, auf die Hadley-Zelle begrenzt sind, zeigt Abb.2.

 

Abb.2 El Niño-Ereignisse haben Auswirkungen auf die Großwetterlagen weltweit (Quelle: South Carolina State Climatology Office). Die als ENSO (El Niño und Südliche Oszillation) benannte natürliche Schwingung hat über den pazifischen Raum Auswirkungen auf die Globaltemperaturen, Nord- und Südamerikas, Afrikas und Europas. Das El Niño-Ereignis betrifft somit nicht nur den pazifischen Raum, sondern weltweit sind einschneidende Folgen bemerkbar, so z.B. in Afrika. Dort machen im Süden des Landes starke Dürreperioden den Menschen zu schaffen. In Somalia hingegen werden ganze Dörfer von sintflutartigen Regenfällen weggespült.

Dabei sind die Passatwinde der Motor der El Niño-Ereignisse. Die Passatwinde verlaufen aufgrund der Corioliskraft gegen Westen über den tropischen Pazifik. Der Temperaturgradient ist im Westen ca. 10°C höher. Durch die dort aufsteigende Luft kondensiert das darin enthaltene Wasser und fällt als Regen nieder. Der Ostpazifik ist dagegen relativ trocken. Die Passatwinde befördern kühles Oberflächenwasser von der südamerikanischen Küste nach Westen. Durch die Verschiebung der Wassermassen entsteht ein Kreislauf. Dem in Südostasien ankommenden, inzwischen erwärmten Oberflächenwasser weicht kaltes Wasser in genau umgekehrter Richtung aus. So bewegt sich kaltes, nährstoffreiches Wasser, welches sich wegen seiner größeren Dichte in tieferen Regionen des Pazifiks befindet, von Westen nach Osten. Die Winde im Hochdruckgebiet treiben den Humboldtstrom an, der entlang eines Tiefseegrabens fließt und kaltes Wasser aus der Antarktis an die Westküste Südamerikas bringt. Vor Südamerikas Westküste gelangt dieses Wasser in den Auftriebsgebieten an die Oberfläche. Deshalb befindet sich dort der kalte und nährstoffreiche Humboldtstrom (Abb.3 links).

 

Abb.3: Zu sehen ist die Wärmeverteilung der marinen Strömungen. Die Abbildung zeigt die Abweichung der Meeresoberflächentemperatur vom Durchschnitt (in °C) in einem „Normaljahr“, links und in einem „El Niño-Jahr“, rechte Abbildung. Quelle: povworld.de/michariser/de/elnino4.shtml

Bei El Niño kehrt sich das o.g. eingestellte Förderband um (siehe Abb.4, rechts), weil die Passatwinde aufgrund einer Änderung in der südlichen Oszillation (SOI) erschlaffen, wodurch es zu einem Niedergang der Ökosysteme kommt, da kaltes und nährstoffreiches Wasser nicht nachgeliefert wird. Das Druckgefälle zwischen dem Hoch vor der Westküste Südamerikas und dem Tief über Indonesien ist aufgrund der Änderung der SOI gering, wodurch die Luftströmung aus dem Hoch zum Tief erschlafft und die Passatwinde abflauen. Die Passatwinde verbleiben nun im zentralen und westlichen Pazifik, was zu einem Zusammenbruch des Temperaturgradienten im Ostpazifik führt. Im Süden der USA und Peru treten dann starke Regenfälle und Überschwemmungen auf. In Australien herrscht dagegen Trockenheit.

Die Klimaanomalie bekam ihren Namen von den stark betroffenen peruanischen Fischern (die Fischschwärme verschwinden, weil der Nachschub von nährstoffreichem Wasser ausbleibt), welche sie als erste wahrgenommen haben. Sie nannten das Klimaphänomen in sarkastischer Weise "El Niño", was auf Spanisch "Christkind" oder "Knabe" bedeutet, da sie die Auswirkungen von El Niño um die Weihnachtszeit wahrgenommen haben.

 

Abb.4: Wasserkreislauf „normal“ und bei El Niño (rechts), Quelle: (www.elnino.info).

Die Verlagerung der atmosphärischen und marinen Wärme nach Osten stört die globale Luftzirkulation, was wiederum zu Wetteränderungen in weit entfernten Gebieten führt. Ein Parameter für El Niño (und La Niña, seinem Gegenpart) ist die ENSO (El Niño Southern Oscillation), die die Abweichungen der Oberflächentemperatur im El Niño-Meeresgebiet angibt.

 

Abb.5 zeigt die ENSO (El Niño Southern Oscillation-Index) und darin die sich abwechselnden El Niño (rot) und La Niña-Ereignisse (blau) von 1950 – 2010, Quelle: NOAA

Wissenschaftler aus Australien und Neuseeland (Prof. Robert M. Carter et al. von der James Cook University in Australien) haben in ihren Untersuchungen den Zusammenhang zwischen der ENSO-Schwingung (El Niño/Southern Oszillation) und dem Weltklima aufgezeigt. Sie veröffentlichten ihre Studie, die auf gut erfassten Messdaten der vergangenen 50 Jahre zurückgriff, im "Journal of Geophysical Research". Ihr Ergebnis: Je stärker der jeweilige El Niño war, desto deutlicher stieg in der Folge die globale Temperatur an.

Die Forscher geben an, dass ca. 70% der zuletzt beobachteten Erwärmung auf die El Niño-Tätigkeit zurückzuführen ist. Es habe sich gezeigt, dass etwa 6 Monate nach einem El Niño-Ereignis die globalen Temperaturen, je nach Stärke des El Niño anstiegen. Blieben dagegen El Niño-Ereignisse über längere Zeit aus, soll dies zu einem globalen Rückgang der Temperaturen geführt haben. Die folgenden Abbildungen geben den Zusammenhang wieder.

 

Abb.6 links zeigt den SOI (dunkle Linie) und die GTTA (Global Tropospheric Temperature Anomalies, helle Linie). Deutlich sind die Einflüsse der starken Vulkaneruptionen des El Cichon und Pinatubo zu erkennen, durch die die Globaltemperaturen zeitweise zurückgingen. Bereits hier ist deutlich zu erkennen, dass außerhalb der Vulkanereignisse eine hohe Korrelation gegeben ist. In der rechten Abbildung sind diese Einflüsse bereinigt. Quelle: McLean, de Freitas, Carter, ”Influence of the Southern Oscillation on tropospheric temperature”, Journal of Geophysical Research Atmospheres

Die Forscher gehen weitgehend von natürlichen Ursachen der globalen Temperaturtrends aus. In den Klimamodellen sei dies nicht berücksichtigt. Ein Grund mehr, warum Klimamodelle nicht die Realität abbilden, wie die Globaltemperaturen und die Deutschlandtemperaturen seit langem belegen.

Soweit der kleine Exkurs zu El Niño und den exemplarisch gezeigten El Niño-Forschungsergebnissen. Aber was löst einen El Niño aus und vor allem, wann und wie wird dies auf die irdischen Wettergeschehnisse eingeprägt, die, wie wir gesehen haben, sich nicht nur auf die Hadley-Zelle beschränken, sondern darüber hinaus Auswirkungen auf die Ferrel- und Polarzelle haben. Der Reihe nach.

Durch was werden El Niño-Ereignisse ausgelöst?

Der Autor hat hierzu anhand von Auswertungen solarer Parameter eine eindeutige Korrelation gefunden und anhand dessen, eine ganzheitliche Theorie zur Beantwortung der o.g. Fragen entworfen. Erstmals veröffentlicht auf EIKE am 24.01.2011 “La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld“ und dann in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ (Teil 1) in 09/2011. Inwieweit seine Theorie stimmig ist, muss sich natürlich, wie alle Theorien in der Wissenschaft, mit der Realität messen. Hier unterscheiden sich übrigens die Wissenschaftler von EIKE grundlegend von den Wissenschaftlern des IPCC oder ihrer nahen Institute. Während diese ihre Theorien nicht an der Realität spiegeln und ihre Richtigkeit davon abhängig machen, wie dies in der Wissenschaft üblich ist, versuchen sie, die Realität zurechtzubiegen, wenn diese nicht mit ihren Theorien in Einklang stehen, schlimmer noch, generieren sie munter weiter die aberwitzigsten Thesen über verbleibende Wärme, katastrophalem Meeresspiegelanstieg, u.s.w., stellen wir von EIKE uns der Realität und machen die Theorie von der Wirklichkeit abhängig und nicht umgekehrt. Das letztere nennt sich Wissenschaft, dass Erstere, dass Vorgehen des IPCC und ihrer Institute, Pseudowissenschaft. Anhand der Theorie des Autors muss Ende dieses Jahres ein El Niño-Ereignis eintreffen, ansonsten ist seine Theorie nicht stimmig und nicht die Realität! Insofern freut es natürlich den Autor, wenn jetzt unabhängig von ihm, deutsche Wissenschaftler, die Physiker Armin Bunde und Josef Ludescher von der Universität Gießen anhand ihrer Studie (veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“) auch zu dem Schluss kommen, dass Ende diesen Jahres ein El Niño-Ereignis eintreten soll.

Die Wissenschaftler bei EIKE sind sich darüber einig, dass der maßgebliche Anteil der realen Erwärmung im 20. Jahrhundert auf natürliche Ursachen und somit auf die solare Aktivität, dem einzigen Energielieferanten (die 0,02% aus dem Erdinnern sind hier vernachlässigbar) zurückzuführen ist. Daher liegt es nahe, die El Niño-Ereignisse mit der variablen Sonne in Bezug zu setzen.

Bevor der Autor hier näher eingeht, möchte er zeigen, wie die globalen Mitteltemperaturen von El Niño-Ereignissen abhängen, wie dies auch das o.g. Forscherteam um Prof. Robert M. Carter herausfand. Anfangs wurde bereits gezeigt, dass El Niño-Ereignisse weltweiten Einfluss auf die Wettersysteme ausüben.

 

Abb.7 oben zeigt die Temperaturdatenreihe seit Beginn der Satellitenmessungen (1979). Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa. Die Abbildung darunter die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El Niño-Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen.

Die Messdaten belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies rein gar nichts zu tun, wie die kleine Abbildung belegt.

 

Abb.8 zeigt die El Niño-Gebiete.

Abb. 7 belegt, dass El Niño-Ereignisse die klimatischen Bedingungen weltweit beeinflussen und die Erdtemperaturen global moderieren. Aktuelle Untersuchungen des MPI für Meteorologie und der University of Cambridge, “Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“ (Journal of Geophysical Research, Vol. 117, D01102, 10 PP., 2012) und Prof. Malberg, Leiter Institut für Meteorologie der Humboldt Universität (erschienen in der Berliner Wetterkarte e.V. am 31.01.2012), bestätigen ebenfalls den dominanten globalen Einfluss von El Niño-Ereignissen auf die Erdtemperaturen und damit auf unser Wettergeschehen.

Mit einer Vielzahl von Untersuchungen wurde versucht, El Niño, bzw. La Niña mit der Sonnenaktivität zu koppeln (um eine bessere Vorhersage zu erzielen), bzw. dem CO2-Anstieg zuzuordnen, um einen anthropogenen Einfluss zu beweisen. Zur Korrelation wird dabei die Sonnenfleckenzahl oder die Strahlungsintensität herangezogen (“How will Earth’s surface temperature change in future decades?“, Judith L. Lean, David H. Rind, Geophysical Research Letters, Vol. 36), was zu keinem brauchbarem Ergebnis führt. Die Sonnenfleckenzahl ist z.B. als Proxy dann erste Wahl, wenn Vergleiche zu früheren Jahrhunderten durchgeführt werden, da ab dem 17 Jahrhundert verlässliche Beobachtungsdaten vorliegen. Die Sonnenfleckenzahl gibt jedoch nur annähernd die reale Sonnenaktivität wieder, wie der Autor in seiner 8-teiligen EIKE-Reihe nachweisen konnte. Ein weiterer Parameter ist der sog. TSI (Total Solare Irradiance). Dieser deckt jedoch nur einen eingeschränkten Teilbereich des solaren Energiespektrums ab, den Bereich zwischen 200nm und 2.000nm, von “Total“ kann also keine Rede sein.

Wie der Autor in seiner 8-teiligen EIKE-Reihe .“Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels zeigte, eignet sich besser zur Bewertung der solaren Aktivität die magnetische Aktivität der Sonne. Seit dem Satellitenzeitalter stehen noch weitere Parameter zur Verfügung, die von der Erde aus nicht beobachtbar sind, die jedoch die ganzheitliche magnetische Aktivität besser erfassen. Ein bedeutsamer Parameter ist die Korona der Sonne. Wie Abb.8 zeigt, „springt“ die Koronatemperatur scheinbar unvermittelt auf annähernd ihren doppelten Temperaturwert. Dies ist dann, wenn die Aktivität der Korona zunimmt.

 

Abb.9, Quelle: http://rst.gsfc.nasa.gov/Sect20/A5a.htm

Anmerkung:

Dabei handelt es sich also nicht um neue physikalische Prozesse in, bzw. auf der Sonne, die die Korona heizen, sondern bestehende Heizprozesse der Korona (Nano-Flares, Alvén-Wellen) werden verstärkt, wodurch in der Gesamtheit der solaren Fläche (Gebiete) die Koronatemperatur auf ihren nahezu doppelten Wert (im Vergleich zu „inaktiven“ Zonen) angehoben wird, der vorher in der Fläche herrschte. Darunter ist die integrale Zunahme der Koronaaktivität über der Fläche zu verstehen, die einen neuen solaren Zyklus deutlich exakter anzeigt, wie dies gegenwärtig durch den Wechsel in der Fleckenpolarität geschieht. Ein neuer solarer Zyklus kündigt sich nach Ansicht des Autors zuerst auf kleinen Skalen an und dann erst auf großen (Sonnenflecken). Hat nun dieser „Sprung“ in den Koronatemperaturen Einfluss auf das irdische Wetter und hier insbesondere auf El Niño/La Niña-Ereignisse? Hierzu werden die El Niño-Ereignisse in Relation gesetzt.

Da die Korona der Teil der Sonne ist, die (über den Sonnenwind) direkten Kontakt zur Erdatmosphäre hat, liegt es nahe, deren Aktivität mit El Niño-Ereignissen in Relation zu setzen (Abb.10).

 

Abb.10: Die Zeitreihe oben zeigt den El Niño 3.4, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird. Die mittlere Zeitreihe die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Koronatemperatur. Die blauen Linien dienen zur Zeitausrichtung der Zeitreihen, die rote Linie zeigt die integrale Zunahme der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck die Zeitspanne von der Zunahme der Koronatemperatur in der Fläche bis zum ElNiño-Maximum.

Nun lässt sich anhand einer Datenbeziehung kein Korrelationsbeweis führen. Daher sollen alle El Niño-Ereignisse in der Datenreihe El Niño 3.4 auf Korrelation zur solaren Aktivität überprüft werden. Der Zeitpunkt ab 1981 ist daher so interessant, da von den Vertretern der CO2-basierten Erwärmung die Aussage gemacht wird, dass bis ca. 1980 Sonnenaktivität und Temperatur synchron laufen, ab 1980 sich die Temperatur jedoch von der solaren Aktivität abkoppeln würde und dies auf den Austrag von Treibhausgasen zurückzuführen sei. Wir werden sehen, ob dem so ist.

Abb.11: Da, wie bereits geschildert, Beobachtungsdaten über die Korona nur vom Weltraum aus möglich sind und Daten nur für den Zeitraum 1991 – 2007 vorliegen, wird die weitere Datenreihe rekonstruiert, wobei die Zeitabstände sowohl beim Koronaminimum (grüne Rechtecke), als beim Zyklusbeginn Schwabe-Zyklus zum Anstieg Koronatemperatur (kleine blaue Rechtecke) jeweils gleich gehalten werden und dann geprüft wird, inwieweit eine El-Niño-Beziehung zur Korona besteht. Die Abbildung zeigt, dass nach jeder integralen Zunahme der Koronatemperatur ein El Niño ausgelöst wird (rote Rechtecke) und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht, voll ausgeprägt ist.

Abb.12 bringt den El Niño 3.4, der für die Entwicklung der Erdtemperaturen steht (siehe Abb.7) und den Total Flux, den TSI und die Korona in Relation zueinander.

Abb.12 zeigt nochmals die Erkenntnisse der bisherigen Untersuchungen und darüber hinaus die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem magnetischen Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Bleibt noch die Frage zu beantworten, was die grün und rot umrundeten schwächeren El Niño-Ereignisse auslöst. Die Antwort für das rot-umrundete in 2005 lässt der Autor die NASA und zwar deren Sonnenforscher David Hathaway vom September 2005 geben: Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum“. In 2005 war das Maximum im 36-jährigen Brückner-Zyklus der Sonne, der die Temperaturen maßgeblich beeinflusst. Siehe hierzu die Arbeit des Autors http://www.eike-klima-energie.eu/climategate-anzeige/arktische-sommereisschmelze-2012-menetekel-oder-nuechterne-wissenschaft/ (dort die Abb.15 und 16). Die Antwort für die grün umrundeten gibt bereits die Datenreihe von der Max Planck Gesellschaft und zwar die grüne Datenreihe, die das magnetische Polarfeld der Sonne zeigt. Der Autor möchte dies anhand der Sonnenwindaktivität weiter belegen.

 

Abb.13 zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s (Ausschnitt), Quelle: (http://www.leif.org/research/files.htm). Blau, rekonstruiert, rot, direkt gemessene Werte. Der schnelle Sonnenwind kommt entweder aus dem Nonaxisymmetric Open Flux, dort von starker solarer magnetischer Aktivität (z.B. Koronale Massenauswürfe, Coronal Mass Ejections (CME) oder aus den polaren Löchern der Sonne (siehe die genannte 8-teilige EIKE-Reihe). Deren Aktivität wird durch das Polarfeld der Sonne (grüne Datenreihe von der Max Planck Gesellschaft) bestimmt. Werden nun die oben grün umrundeten Spitzen (starke magnetische Aktivität des Polarfeldes der Sonne) mit den grün-umrundeten Spitzen in der El Niño-Datenreihe verglichen, so ist Übereinstimmung festzustellen.

Das Max Planck-Institut für Sonnensystemforschung (MPS) nennt diese Aktivität, Coronal Hole associated storms (“Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“) Abb.14.

 

Abb.14 zeigt die solare magnetische Aktivität im Zeitraum von 1930 – 2000 (Quelle: MPS).

Ergebnis:

Somit ist bisher festzuhalten, dass El Niño-Ereignisse durch drei solare Ereignisse unmittelbar ausgelöst werden:

1) Der Zunahme der Koronatemperatur in der Fläche, wenn deren Temperatur auf den doppelten Wert in der Fläche ansteigt.

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Das Polarfeld der Sonne (schwache El Niño).

4) Der Temperaturgang der letzten 30 Jahre folgt exakt der Sonnenaktivität. Von einer Abkopplung kann keine Rede sein!

Die Messdaten und die Untersuchungen belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen und der solaren Aktivität unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies nichts zu tun. Mit dem vorliegenden Nachweis, dass alle El Niño-Ereignisse im Betrachtungszeitraum durch die solare Aktivität unmittelbar ausgelöst werden und der globale gemittelte Temperaturgang diesen Ereignissen unmittelbar folgt, ist der wissenschaftliche Beweis erbracht, dass die Erwärmung (und Abkühlung seit Beginn dieses Jahrhunderts) einzig auf die Sonne zurückzuführen ist. Eine Korrelation zu Treibhausgasen wie CO2 ist nicht zu finden, siehe Kämpfe, Kowatsch, Leistenschneider (http://www.eike-klima-energie.eu/climategate-anzeige/klimawandel-in-deutschland-real-sinken-seit-25-jahren-die-temperaturen/).

Abb.14b zu Kommentar #11:

Abb.14b  zeigt den Einfluss der QBO und des Schwabe-Zyklus auf die Winterzirkulation der Stratosphäre. Darunter die QBO im Zeitraum von 1987 – 2005. Deutlich ist ihre zweijährige Schwingung zu sehen. Jeweils vor einem solaren Maximum (1991 und 2001) ist ihre Phase länger ausgeprägt. 

Teil 2 in Kürze

Raimund Leistenschneider – EIKE




Europawahlprogramm der AfD fordert komplette Abschaffung des EEG, Wissenschaft vom Klimawandel wird als sehr unsicherheitsbehaftet bezeichnet

Der Abstimmung über diese Formulierung ging eine sehr heftige und oft hoch emotional geführte Diskussion unter den Befürwortern und Gegnern voraus. Besonders die Befürworter einer Beibehaltung des EEG, bedienten sich oft emotionaler Argumente. Es waren wohl die am meisten diskutiertesten Formulierungen des ganzen Parteiprogrammes. Über 20 Redner hatten sich gemeldet, doch auf Antrag zur Geschäftsordnung wurde die Zahl der Diskutanten auf knapp 20 begrenzt, mit einer Redezeit von nur 1 Minute.

Etwa 2/3 der Redner befürworteten diese oder eine zum Teil noch wesentlich präzisere und härtere Formulierung dieses Programmpunktes, ca. 1/3 waren explizit z.T. mit völlig unhaltbaren, weil falschen aber weit verbreiteten Argumenten dagegen.

Nachdem jeder der zugelassenen Redner seine Auffassung hatte darlegen können erfolgte die Abstimmung. Sie ergab eine große Mehrheit für die von der Programmkommission vorgeschlagene Formulierung.

Die wichtigsten Feststellungen und Forderungen daraus lauten:

Wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet. Zudem kann ein globales Problem nur durch ein koordiniertes Vorgehen aller großen Wirtschaftsnationen gelöst werden. Deshalb lehnt die AfD nationale und europäische Alleingänge ab. 


Das EEG muss komplett abgeschafft werden. Ansprüche von Altanlagen-Besitzern sind rechtskonform abzufinden. Alle Energiemarkt-Eingriffe durch Subventionen wie z.B. staatlich garantierte Vergütungen oder Vorrangeinspeisung für bestimmte Stromerzeugungsanlagen, sind sofort einzustellen. Sie führen zu einer noch stärkeren Beeinträchtigung der Wettbewerbsfähigkeit der deutschen Wirtschaft im EU-Binnenmarkt und weltweit, denn sie verteuern den Strom in Deutschland auf unverantwortliche Weise und schädigen die bisher hohe Sicherheit der Stromversorgung in Deutschland.

Diese Forderungen stellen einen riesigen Schritt in die richtige Richtung dar und sind allein deshalb sehr zu begrüßen. Sie zeigen auch, dass wenn vernünftige Menschen die Politik in die eigenen Hände nehmen, auch vernünftige zukunftweisende Lösungen erreichbar sind. Keine der Altparteien vermag das. Nur die gebeutelte und gehäutete FDP verlangt bisher eine „Reform“ des EEG.

Damit ist die AfD die einzige deutsche Partei, die sich derart klar zu einer Schicksalsfrage Deutschland positioniert. Das wird ihr einen großen Vorteil im Wettbewerb der Parteien verschaffen. Die Europawahl Ende Mai wird es zeigen.

Wenn man nur die Medien heute verfolgt kann man den Eindruck gewinnen, dass der gesamte Parteitag ein einziges Hauen und  Stechen gewesen ist, insbesondere gegen den Parteisprecher Bernd Lucke.

Tagesschau Herbe Schlappe für Lucke

Chaos-Parteitag in Erfurt: AfD-Chef Lucke spürt den Zorn der Basis

Die Welt Bittere Niederlage für AfD-Chef Lucke auf dem Parteitag in Erfurt: Die Delegierten buhten ihn aus

FAZ Schlappe für Bernd Lucke

  

Die so schreiben müssen auf einer anderen Veranstaltung gewesen sein, oder haben voneinander wieder mal alle abgeschrieben. Abgesehen vom Ringen um Details der Tagesordnung, das allerdings wertvolle 3 Stunden verbrauchte, nur um das Ego einiger Textauslegungsspezialisten zu befriedigen, verlief die Tagung hochkonzentriert, gut geführt und harmonisch.

Auch der stark diskutierte Tagesordnungspunkt eine neue Satzung zu beschließen, änderte daran nichts. Obwohl der Bedarf für eine Änderung z.B. bei der Finanzordnung deutlich erkennbar ist, wurde dieser Punkt nach kurzer Diskussion wegen der damit verbundenen Implikationen, die eine lange kontroverse Diskussion erwarten ließen, auf einen späteren Parteitag vertagt. Ein Misstrauensvotum gegen den Sprecher Lucke  lässt sich daraus auf keinen Fall konstruieren, wie es viele Medien zu suggerieren versuchen.

In einer späteren fulminanten Rede wurde Lucke mit langanhaltendem Beifall und stehenden Ovationen bedacht. Wie aucb etwas später der Kandidat für die Europawahl Hans Olaf Henkel.




UN-Rosinenpickerei und das Singer-Ereignis

Nein, ich habe sie berechnet. Ich habe nicht, wie sie sagen, naïv nach Art von Rosinenpickerei das Jahr 1998 als Startpunkt gewählt, als ob ich einen unfairen Vorteil aus dem starken El Niño jenes Jahres gezogen hätte.

Stattdessen habe ich durch iterative Verfahren den frühesten Monat berechnet, der bis heute keinerlei globale Erwärmung zeigt. Im RSS-Datensatz, welchen ich für die folgende Analyse nutzen werde, ist dieser Monat der September 1996, was auf 17 Jahre und 6 Monate ohne jede globale Erwärmung hinausläuft.

Bild rechts: Diese Graphik ist berühmt geworden. Patrick Moore, einer der Gründer von Greenpeace (den Greenpeace jetzt mit rasender Verlogenheit versucht zu verstoßen) hat sie kürzlich bei Fox News gezeigt, gefolgt von heulenden und mit den Zähnen knirschenden Individuen in der gesamten Sphäre der Linken. Marc Morano zeigt diese Graphik als führenden Indikator auf seiner unschätzbaren Website ClimateDepot.com. Sie taucht in fast allen Blogs auf.

Die wahrhaft Gläubigen wringen ihre Hände und jammern über Rosinenpickerei. Mit diesem Vorwurf wollen wir uns einmal näher befassen und ganz nebenbei etwas Faszinierendes entdecken.

Um diesen Vorwurf der Rosinenpickerei bzgl. unseres Startzeitpunktes auszuräumen, wollen wir mal am Anfang der Satellitenaufzeichnungen beginnen. Das sieht so aus, seit Januar 1979:

clip_image004

Oh weh! Anstatt eines Null-Trends zeigt sich jetzt eine schreckliche Zunahme der globalen Temperatur, und zwar mit einer Rate von kochend heißen – ähm – 1,24°C pro Jahrhundert. Das liegt unter der Rate von 1,7°C pro Jahrhundert im 5. Zustandsbericht des IPeCaC. Und noch deutlicher unter den 2°C pro Jahrhundert aus dem 4. Zustandsbericht 2007. Im 1. Bericht war noch eine Rate von 3,5°C pro Jahrhundert genannt worden. Und 1988 hat der übernervöse James Hansen vor dem Kongress noch 5°C pro Jahrhundert vorhergesagt.

Es ist also eindeutig, dass die Vorhersagen mit der Zeit immer weniger extrem werden. Aber sie sind auch heute noch im Vergleich mit der Realität deutlich übertrieben. Die jüngste Version der „Konsens“-Vorhersage des IPeCaC sieht im Vergleich mit den RSS-Beobachtungen der realen Welt so aus:

clip_image006

Welchen Datensatz auch immer man wählt; welchen Startpunkt auch immer man wählt – die von den Modellen vorhergesagte Rate der globalen Erwärmung lag und liegt erheblich, schamlos, ungeheuer außerhalb dessen, was in der realen Welt passiert. Es ist diese zentrale Wahrheit, die jeden Versuch der Hinwegerklärung des Stillstands zunichte macht.

Einer der durchtriebensten Versuche, so zu tun, als gebe es den Stillstand nicht, stammt von „Tamino“, also einem dieser wie Druiden in weiße Gewänder gehüllten, bärtigen Erzpriester mit buschigen Augenbrauen.

„Tamino“, der von seinen Pflichten als Sonnenanbeter in Stonehenge eine Auszeit nimmt, will uns unterstellen, dass wir im Jahre 1997 vorhergesagt haben, dass die zuvor beobachtete Erwärmungsrate entweder so weitergehen oder horizontal werden würde. Wo würden die folgenden jährlichen Datenpunkte liegen?

clip_image008

Taminos jubelnde Schlussfolgerung lautet: „14 von 16 Jahren waren wärmer als erwartet, selbst nach der Vorhersage einer weiter gehenden Erwärmung, und alle 16 Jahre lagen über der Vorhersage der Nicht-Erwärmung (eines davon jedoch nur gerade noch so)“.

Puh! Die globale Erwärmung ist also doch nicht zum Stillstand gekommen!! Die Erde hat immer noch Fieber!!! Die globale Temperatur steigt immer noch – und zwar mit einer höheren Rate als zuvor!!!! Was für eine Erleichterung!!!!! Wir sagten, dass wir uns bzgl. der zukünftigen globalen Erwärmung sicherer sind als hinsichtlich aller anderen Dinge in der großen weiten Welt – und wir hatten recht!!!!!!.

Einen Moment, Lord Copper. Die Wahrheit, wenn man wirklich nach ihr sucht und nicht die Daten um und um wühlt, bis sie das gewünschte Ergebnis zeigen, ist viel interessanter.

Erstens ist es nicht angebracht, jährliche Datenpunkte zu verwenden, wenn diese auch monatlich zur Verfügung stehen. Die Verwendung monatlicher Daten multipliziert die Freiheitsgrade in einer Analyse um das Zwölffache und macht das Bild deutlicher.

Zweitens – und das kann man gar nicht zu oft wiederholen – sind Trendlinien in gemessenen Daten, vor allem, wenn man weiß, dass diese Daten stochastisch und das Verhalten des zugrunde liegenden Objektes chaotisch ist, keine – ich wiederhole: keine – ich wiederhole: keine Vorhersagen.

Spielen wir Taminos Spiel der Unterteilung des RSS-Datensatzes in Sequenzen mit. Aber wir wollen ihn in drei Sequenzen teilen, nicht nur in zwei. Diese drei Perioden sind: Januar 1979 bis Januar 1993, Januar 1993 bis Januar 1999 sowie Januar 1999 bis Februar 2014.

clip_image010

clip_image012

clip_image014

Es war Fred Singer, der mich zum ersten Mal auf diese beunruhigende Charakteristik der Temperaturaufzeichnungen nach 1979 aufmerksam machte. Wir saßen vor einem großen Computerbildschirm und spielten die Datensätze durch.

Fred sagte mir, dass es bis zum Großen El Niño 1998 nur einen sehr geringen Trend bei der Temperatur gab, ebenso wie nach diesem Ereignis. Aber, so sagte er, es war zu einer bemerkenswerten ruckartigen Änderung in den Daten in der kurzen Zeit bis zu diesem Ereignis gekommen, das in dem El Niño gipfelte.

Die Trends bis Januar 1993 und ab Januar 1999 sind tatsächlich fast identisch mit etwas über einem Viertel Grad Celsius pro Jahrhundert. Das ist nicht besorglich. Aber der Trend in den sechs Jahren von Januar 1993 bis Januar 1999 war ein Erlebnis. Er war äquivalent zu einer spektakulären Rate von 9,4°C pro Jahrhundert.

Was also war die Ursache für diesen plötzlichen Sprung der globalen Temperatur nach oben? Da das Fehlen einer Korrelation notwendigerweise das Fehlen von Kausalität impliziert, wissen wir, dass es nicht das CO2 sein kann – ist doch die CO2-Konzentration monoton gestiegen, ohne plötzliche Sprünge.

Tatsächlich kann kein Phänomen in der Atmosphäre diesen Sprung wirklich ausgelöst haben. Sicher, es hat in den 18 Jahren von 1983 bis 2001 eine natürlich vorkommende Verringerung der Wolkenbedeckung gegeben. Das hat zu einem Antrieb von 2,9 W/m² geführt (Pinker et al. 2005). Das liegt um 25% über den gesamten 2,3 W/m² des anthropogenen Antriebs aus allen Quellen während der 263 Jahre seit 1750.

Wie Dr. Pinkers Graphik jedoch zeigt, war der Trend hinsichtlich des Antriebs durch die Wolkenbedeckung relativ konstant, und es gab tatsächlich einen Rückgang dieses Antriebs in den Jahren 1993 bis 1995.

clip_image016

Da sich die Sonnenaktivität während dieses Zeitraumes nicht stark genug verändert hat, um einen derartigen Sprung der globalen Temperatur auszulösen, scheint es keinen einzigen externen Grund zu geben, warum die Temperatur sechs Jahre lang einen plötzlichen Anstieg mit einer Rate von fast 1°C pro Jahrzehnt durchlaufen hat.

Es gab auch keine verstärkte Vulkantätigkeit auf dem Festland; falls das der Fall gewesen wäre, wäre es allenfalls zu einer vorübergehenden Abkühlung gekommen.

Wenn alle Möglichkeiten ausgeschlossen werden können, muss das Unmögliche die Wahrheit sein. Der Schuldige ist also nicht atmosphärischen und auch nicht außerirdischen Ursprungs und auch nicht auf dem Festland zu suchen, sondern in den Ozeanen.

Um die atmosphärischen Temperaturen permanent um fast 0,3°C nach oben zu treiben und den Jahrhundert-Trend um fast ein Grad Celsius nach Norden zu schieben, muss unter den Wellen irgendetwas Drastisches passiert sein.

Vielleicht ist die immer noch kaum darstellbare Verteilung der Durchmischung, die wärmeres Wasser mit kälterem Tiefenwasser austauscht, vorübergehend ist Stocken geraten.

Vielleicht werden wir es niemals wissen. Unsere Fähigkeit, Änderungen des ozeanischen Wärmegehaltes zu erfassen, war damals nicht existent, weil die ARGO-Bojen noch nicht im Einsatz waren; und selbst heute ist die Erfassung, worauf schon Willis Eschenbach hingewiesen hatte, so spärlich, dass es der Entnahme eines einzigen Profils von Temperatur und Salzgehalt aus dem Oberen See einmal pro Jahr gleicht.

Vielleicht war es zu einer massiven untermeerischen Vulkanaktivität im äquatorialen Ostpazifik gekommen, die 1993/94 begonnen und 1998 ihren Höhepunkt erreicht hat. Noch einmal, das werden wir wohl niemals wissen, da wir nicht alle 3,5 Millionen untermeerischen Vulkane der Erde überwachen können (der größte von ihnen, größer als jeder andere im Sonnensystem, wurde erst im vorigen Jahr entdeckt).

Das Merkwürdigste an dieser plötzlichen und bemerkenswerten Erwärmung in nur sechs Jahren – nennen wir sie das Singer-Ereignis – ist die äußerst geringe Aufmerksamkeit, die das IPeCaC diesem Phänomen geschenkt hat.

Das Singer-Ereignis repräsentiert ganze vier Fünftel des globalen Erwärmungstrends während der gesamten Satelliten-Ära. Ohne dieses Ereignis würde niemand über die globale Erwärmung klagen.

Aber findet man eine Erwähnung des Singer-Ereignisses irgendwo in irgendeiner IPeCaC-Zusammenfassung für Politiker seit 2001? Nein. Es liegt politisch nicht auf Linie.

Und ganz klar gesagt, solange man die Ursache des Singer-Ereignisses nicht eindeutig festmachen kann, gibt es nichts, aber auch gar nichts in den Temperaturaufzeichnungen der Satelliten-Ära, das darauf hinweist, dass das CO2 überhaupt irgendeinen merklichen Einfluss auf die globale Temperatur hat.

Und schließlich – falls einer der Trolle darüber meckert, warum ich bei der Analyse ausgerechnet den RSS-Daten vertraut habe – ich bevorzuge RSS, weil er als einziger der fünf Datensätze den Großen El Niño als das zeigt, was er war: nämlich signifikant stärker als alle anderen El Niño-Ereignisse der Temperaturaufzeichnungen mit Thermometern.

Es gab zuvor noch zwei weitere Große El Niño-Ereignisse während der letzten 300 Jahre. In jedem davon brachte es wie 1998 und anders als alle anderen seit der Instrumenten-Ära die Korallen weltweit dazu, in großem Umfang auszubleichen. Bleichen ist ein natürlicher Verteidigungs-Mechanismus gegen eine plötzliche Erwärmung der Ozeane, und die Korallen haben sich seitdem wieder gut erholt, wie es ihnen von der Evolution vorgegeben war.

Aber die Korallen zeugen davon, dass das Singer-Ereignis etwas Atypisches ist. Und es ist der RSS-Datensatz, der am besten reflektiert, wie außerordentlich das Singer-Ereignis war.

Um nun den Trollen noch einen Gefallen zu tun, folgt hier die gesamte globale Temperaturaufzeichnung seit Januar 1979 als Mittelwert aller 5 globalen Temperatur-Datensätze (es ist in Ordnung, das Mittel zu nehmen, weil die Diskrepanzen zwischen den einzelnen Datensätzen klein genug sind, um sich langfristig gegeneinander weg zu mitteln).

clip_image018

Unter dem Strich: Der Erwärmungstrend seit 1979 im RSS-Datensatz betrug 0,44°C, während der im Mittel aller Datensätze nicht viel größer als 0,51°C war. Wenn also die Trolle geltend machen, dass ich Rosinenpickerei betreibe, geht es dabei um wenige Hundertstel Grad Celsius.

Das Singer-Ereignis ist eindeutig im Graph der fünf Datensätze erkennbar und noch mehr in früheren RSS-Graphen.

Ich bin höchst interessiert an Kommentaren zum Singer-Ereignis, weil ich eingeladen worden bin, eine Studie aus der begutachteten Literatur dazu anzufertigen. Jedwede Hilfe, selbst von den Trollen, würde ich sehr begrüßen.

Link: http://wattsupwiththat.com/2014/03/19/un-cherry-picking-and-the-singer-event/

Übersetzt von Chris Frey EIKE




Solarstrom in Deutschland: „Klimakiller“ Nummer 1!

Die Vertreter der Solarbranche sowie vieler Nichtregierungsorganisationen wie z.B. WWF oder Greenpeace vertreten die Meinung, dass Kohle der Klimakiller Nr. 1 sei. Kohle deckt rund 40 % des Weltenergiebedarfs; in China beträgt der Anteil der Kohle sogar 70 %. Kohle wird noch für viele Jahrhunderte die wichtigste Energiequelle für die ganze Welt bleiben, da sie nicht nur billig, sondern auch in grossen Mengen vorhanden ist.

Aber stimmt denn diese Aussage der Solarbranche und der Nichtregierungsorganisationen? Unbestritten ist, dass bei der Verbrennung von Kohle Kohlendioxid entsteht. Aber auch Photovoltaik(PV)-Anlagen führen zur Emission von klimawirksamenTreibhausgasen – nicht beim Betrieb, sondern bei der Herstellung.

Beim Errechnen der Auswirkungen der PV-Anlagen aufs Klima pro Einheit Nutzenergie (kWh elektrisch ab Klemme) sind vor allem massgebend: die Herstellung der Solarmodule in China, speziell die Raffination von Solar-Silizium unter Einsatz erheblicher Mengen von Chemikalien und Rohstoffen, die Herstellung der Nebenanlagen, der Transport der Materialien nach Europa und demgegenüber die erfahrungsgemäss bescheidene Stromausbeute unter den klimatischen Verhältnissen in Deutschland.

Wie viel CO2 emittiert ein modernes Kohlekraftwerk ?

Moderne Dampfkraftwerke mit Kohlenstaubfeuerung und überkritischen Frischdampfparametern (sog. Clean Coal Technology) erreichen einen thermischen Wirkungsgrad von 52%. Das bedeutet, dass sie 846 Gramm CO2 pro kWh Strom emittieren, wenn sie mit Steinkohle (Heizwert: 30 MJ/kg) betrieben werden. Ferner sind moderne Kohlekraftwerke mit hocheffizienten Filtern versehen, so dass die Emission von Staubpartikeln minim ist. Hinzuzufügen ist, dass Kohlekraftwerke bedarfsgerecht Strom produzieren und deswegen weder Speicheranlagen noch Reservekapazitäten  benötigen. Die Letzteren sind aber bei Solarstrom unabdingbar und verursachen Umwandlungsverluste.

Herstellung der Solarmodule in China und Herstellung der Nebenanlagen

Heute werden rund 80 % der in Europa eingesetzten Solarmodule in China hergestellt (siehe EU anti-dumping investigation on solar panel imports from China). Die Herstellung von ultrareinem Silizium für die Modulzellen ist extrem energieintensiv. Nach Prof. Jian Shuisheng von der Pekinger Jiatong-Universität sind in der chinesischen Industrie pro Quadratmeter Modul mehr als 300 kg Kohle notwendig. Daraus entstehen mehr als 1‘100 kg CO2, das in die Atmosphäre gelangt. 

Auch die Fertigung der Nebenanlagen eine PV-Anlage wie z.B. Wechselrichter, Batterien, Kupferkabel, Schalter, Instrumente, Abstützungen und Beton braucht fossile Brennstoffe. Der Energiebedarf für Nebenanlagen wird in der Fachliteratur auf zusätzliche 13% geschätzt. Also summieren sich die Gesamtemissionen pro Quadratmeter Solarpanel auf 1‘243 kg CO2.

Gasförmige Chemikalien für die Herstellung von Solarsilizium

Als Reinigungsgase werden unter anderen Stickstofftrifluorid (NF3) und Schwefelhexafluorid (SF6) eingesetzt. Beide gelangen als Leckage in die Atmosphäre; sie sind aber auch hochwirksame Treibhausgase, das heisst: Sie haben ein sehr grosses globales Erwärmungspotenzial. NF3 hat den Faktor 16‘600, das heisst: 1 Gramm NF3 hat in der Atmosphäre dasselbe Erwärmungspotenzial wie 16‘600 Gramm CO2. Schwefelhexafluorid hat den Faktor 23‘900. Diese Auswirkungen wurden bis jetzt zu wenig beachtet, obschon beispielsweise die NF3-Konzentration in der Atmosphäre messbar angestiegen ist.

Das Gesamt-Erwärmungspotenzial dieser Gase ist in der Studie “Nitrogen trifluoride global emissions estimated from upgraded atmospheric measurements“ (Ref. 1)  anhand von Messungen in der Atmosphäre ermittelt worden: Alle Reinigungsgase, die im Jahr 2010 weltweit bei der Fertigung von Solarzellen, von Flachbildschirmen und in der übrigen Halbleiterindustrie eingesetzt wurden, wirkten sich aufs Klima gleich aus wie 77 Millionen Tonnen CO2. Von der Gesamtmenge entfallen 94% auf die Herstellung von Solarzellen. Andererseits wurden im Jahre 2010 Solarpanels mit einer Spitzenleistung von mehr als 17.5 GW installiert – umgerechnet etwa 150 Millionen Quadratmeter. Somit entsprechen die Emissionen pro Quadratmeter Solarpanel  513 kg CO2 – und das ist viel.

Feste und flüssige Chemikalien für die Herstellung von Solarsilizium

Zudem werden bei der Herstellung von Solarmodulen rund 20 verschiedene Chemikalien und Stoffe verwendet, die in der Natur nicht vorhanden sind; diese müssen in komplexen und energieintensiven chemischen Prozessen künstlich hergestellt werden. Die „Silicon Valley Toxic Coalition“ (Ref. 2) hat eine Auflistung publiziert. Im Folgenden wird das Erwärmungspotenzial ausgewählter Stoffe ermittelt, die für die Herstellung der PV-Module notwendig sind:

• Chlorwasserstoff (HCl) wird zum Verflüssigen von metallischem Silizium eingesetzt. Pro Quadratmeter  Modul sind 5,5 kg HCl notwendig; das Erwärmungspotenzial entspricht 2 kg CO2.

• Siliziumkarbid wird eingesetzt, wenn Quader aus hochreinem Silizium in ca.  0.2 mm dünne Silizium-Scheiben zerschnitten werden. Der Verbrauch an Siliziumkarbid wird mit 1,2 kg pro Quadratmeter Modul angegeben; dies entspricht einem Erwärmungspotenzial von 9 kg CO2.

• An Silber werden 10 Gramm pro Quadratmeter Modul verbraucht. Die Silber-Herstellung verlangt 1‘570 MJ/kg an grauer Energie; das Erwärmungspotenzial entspricht 1,5 kg CO2.

Das gesamte Erwärmungspotential der festen und flüssigen Chemikalien wird auf 30 kg CO2 pro Quadratmeter PV-Modul geschätzt. Dazu ist zu bemerken, dass die Solarbranche bis jetzt keine detaillierte Zusammenstellung des Erwärmungspotentials der Solarpanel-Herstellung veröffentlicht hat, obwohl das Gefährdungspotential der vielen verwendeten Chemikalien durchaus bekannt ist.

Transport der Materialien

Auch die Transporte stellen eine erhebliche Emissionsquelle dar. Dies in Zahlen: Der Transport der PV-Module aus China nach Deutschland, der Transport der Grundstoffe und Chemikalien innerhalb China sowie der Transport der toxischen Abfälle zu Deponien in China ergibt nach unseren Berechnungen 23 kg CO2 pro Quadratmeter Modul mehr als der Kohletransport zu europäischen Steinkohlekraftwerken aus Südafrika. Dabei wird für Seetransport und für Landtransport 0.0002 bzw. 0.002 MJ pro kg und km eingesetzt;  die CO2-Emissionen betragen mindestens 0.1 kg/MJ. Bei Kohle erfolgt der Transport vorwiegend durch Schiffe; daher ergeben sich kleinere CO2-Emissionen. 

Wie viel Netto-Strom produziert 1 Quadratmeter Solarpanel während seiner Lebensdauer?

Entscheidend ist letztlich die Netto-Stromproduktion über die ganze Lebensdauer einer PV-Anlage ( 25 Jahre). Dies in Zahlen: Die BMU Energiestatistik -Erneuerbare Energien in Deutschland- gibt die Gesamtproduktion an Strom aus Solaranlagen sowie die installierte Nennleistung (sog. Peak-Leistung bei uneingeschränkter Sonneneinstrahlung) an. Fürs Jahr 2008-2012 errechnen wir eine mittlere Ausbeute von 86  kWh pro m² und Jahr. Dieser Wert gilt für relativ neue Module.

Die praktische Erfahrung mit Anlagen  hat aber gezeigt, dass die Ausbeute mit der Zeit aus zwei Gründen abnimmt: Alterung und Betriebsstörungen. Die Verluste wegen Alterung kann man anhand von Statistiken mit mindestens 1% pro Jahr beziffern. Über Betriebsstörungen liegen keine zuverlässigen Statistiken vor. Für Deutschland wird in gewissen Studien  eine Ausfallrate von 0.5% pro Jahr angegeben.

Demzufolge beträgt die über die Lebensdauer gemittelte Stromausbeute  rund 80 kWh pro m² und Jahr. Daraus resultiert in 25 Jahren eine Gesamt-Stromproduktion von 2000 kWh pro m² Solarpanel.  Solarstrom wird aber nicht bedarfsgerecht produziert und deswegen sind Speicheranlagen und Reservekapazitäten notwendig. Dies führt zu Umwandlungsverlusten, die bei Kohlekraftwerken nicht anfallen; beispielsweise kann ein Pumpspeicherwerk nur etwa 75% der eingebrachten Energie reproduzieren. Um einen realistischen Vergleich mit Kohlekraftwerken zu ermöglichen, wird daher die Gesamtstromproduktion von Solarpanels um 150 kWh pro m² und Jahr reduziert. Demnach liegt der Netto-Ertrag eines Solarpanels  während seiner Lebensdauer bei 1850 kWh.

Gegenüberstellung der Emissionen

Bei der Herstellung von PV-Anlagen wird die Summe der oben genannten CO2-Aequivalente in die Atmosphäre emittiert, d.h. pro Quadratmeter Solarpanel 1‘809 kg. Dividiert durch die Netto-Stromproduktion von 1850  kWh in 25 Jahren ergibt dies 978 g CO2/kWh.

Demgegenüber emittiert ein modernes Kohlekraftwerk wie erwähnt 846 g CO2/kWh, d.h. rund 13 %  weniger. Daraus folgt, dass unter deutschen Verhältnissen die Photovoltaik der Klimakiller Nr.1 ist. Demgegenüber wäre ein Gaskraftwerk vorteilhafter, denn seine CO2-Emission beträgt etwa die Hälfte: rund 400 g CO2/kWh.

Schlussfolgerungen

  • Bisher hat eine überzeugende und umfassende Quantifizierung aller Einflüsse der Photovoltaik auf die Umwelt gefehlt (siehe Ref. 3). Eine solche hat der Tatsache Rechnung zu tragen, dass heutzutage die Solarpanels grossmehrheitlich mit Strom aus Kohlekraftwerken hergestellt werden und dass dabei als Leckage erhebliche Mengen von Gasen mit grossem Erwärmungspotential in die Atmosphäre gelangen.
  • Berechnungen des CO2-Ausstosses der Photovoltaik sind unvollständig, solange sie nicht die CO2-Emissionen aus der eingesetzten grauen Energie berücksichtigen.
  • Bei gleicher Stromproduktion sind die Emissionen aus dem Betrieb eines  modernen Kohlekraftwerks kleiner als diejenigen einer Photovoltaikanlage bis zur Inbetriebnahme.
  • Gemäss den obigen Berechnungen wären Gaskraftwerke  mit Sicherheit weniger klimaschädlich als Photovoltaikanlagen.

Referenzen

1) Arnold, T., C. M. Harth, J. Muhle, A. J. Manning, P. K.Salameh, et al. “Nitrogen trifluoride global emissions estimated from updated atmospheric measurements.”  Proceedings of the National Academy of Sciences 110, no. 6 (February 5, 2013): pp. 2029-2034

2) www.svtc.org   (Webseite der Silicon Valley Toxic Coalition)

3) Technische Gesellschaft Zürich, These 8: Ökobilanz der Photovoltaik verlangt mehr Transparenz, 27. August 2013, auf www.tgz-net.ch

Ferruccio Ferroni, Dipl. Ing. ETH, Zürich

.




Bonn: UN-Klimagespräche gescheitert

Die Brüche laufen entlang der üblichen Linien: wer will Emissionen beschneiden und wie stark, das Fehlen von Beiträgen der so genannten reichen Länder zum grünen Klimafonds sowie Loss and Damage [Verlust und Schaden], bekannter unter der Bezeichnung Umverteilung des Wohlstands.

Loss and Damage war der Grund, warum COP19 von Anfang an eine Totgeburt war, sogar noch vor dem Beginn. Barack Obama hat seine Klimabotschafter vor COP19 unterrichtet, dass das Ausgeben von Billionen Dollar nur dafür, eine industrialisierte Nation zu sein, dem Wähler nicht vermittelbar sein würde.

Einige Monate lang hat sich kaum etwas geändert, da die letzte Runde von UN-Klimagesprächen nichts erreicht hat:

Das Vertrauensviveau zwischen führenden Entwicklungsländern einerseits sowie USA und EU andererseits scheint nach UN-Klimagesprächen in Bonn einen neuen Tiefpunkt erreicht zu haben.

Indien, China sowie 24 weitere Länder in der Like-Minded Developing Countries (LDMC)-Gruppe [etwa: Gruppe der ähnlich denkenden Entwicklungsländer] sagen, dass ausschließlich die industrialisierten Länder ihren Ausstoß von Treibhausgasen beschneiden müssten.

Die USA, die EU und die Schweiz sagen, dass ein globales Klimaabkommen, dessen Verabschiedung in Paris im nächsten Jahr geplant ist, nur funktioniert, wenn alle Länder ihren Beitrag leisten, was – wie sie sagen – 2011 in Durban beschlossen worden ist.

Das Problem, wer wie viel CO2-Emissionen einspart, sieht etwa so aus: die LDMC-Gruppe sagt, dass die Länder mit dem historisch höchsten CO2-Ausstoß den Hauptteil der Emissions-Beschneidungen tragen müssten. Andere Interessengruppen einschließlich der industrialisierten Welt sagen, dass die Beschneidungen auf den jetzigen CO2-Emissionen basieren müssen.

Die Objektive des Bonner Treffens war es, Basisarbeit zu leisten, wie ein Klimaabkommen beim COP21 in Paris 2015 funktionieren könnte. Stattdessen zerbrach das Treffen rasch und mündete in mürrischem Austausch zwischen den Delegierten.

Der Schweizer Umweltbotschafter Franz Perrez sagte RTCC [zu RTCC siehe hier]: „dogmatische Ansichten, dass alle Annexe 2 [?] zahlen müssen und nur diese“, verhindern Fortschritte bei den Gesprächen.

Er sagte, dass sich durch das Klima verwundbare Länder wie die Philippinen der LDMC-Gruppe lösen sollten, der er vorwarf, die Gespräche zu verzögern. Und Perrez weiter: „Was ich nicht verstehe – falls man sich mal ansieht, welche Position die Philippinen einnehmen sollten, dann sollten sie nicht die Interessen Chinas, Indiens, von Singapur, Saudi-Arabien und Venezuela verteidigen. Es ist überraschend, wie sehr sie im Sinne von Regimes handeln, die ihnen nicht zum Vorteil gereichen“.

Der von den UN gestützte Green Climate Fund (GCF) kämpft immer noch um Geld, und im Mai ist eine GCF-Aufsichtsratssitzung geplant, um zu entscheiden, wie man das Geld verteilt – immer unter der Annahme, dass die GCF-Aufsichtsratsmitglieder zuvor entschieden haben, ob man zu diesem Treffen nach Bali Erster Klasse oder in der Business-Klasse fliegen soll.

Die Lieferung zusätzlicher Gelder – seit Langem Gegenstand erbitterter verbaler Kämpfe zwischen Ländern – hängt wahrscheinlich davon ab, wann der UN-gestützte GCF online geht.

Im Jahre 2009 haben reiche Nationen zugesagt, bis zum Jahr 2020 100 Milliarden Dollar pro Jahr einzuzahlen. Zwischen 2010 und 2012 haben sie bereits 30 Milliarden Dollar eingezahlt.

Die Welt ist von einem Klimaabkommen, dass für die Zivilisation, so wie wir sie kennen, die ultimative Katastrophe wäre, weiter entfernt denn  je – eine Tatsache, für die wir alle dankbar sein  sollten.

Staatschefs in der demokratischen industrialisierten Welt wissen, dass sie den Wählern niemals verkaufen können, ihren Lebensstandard zu reduzieren und Milliarden Pfund, Dollar Euros usw. an die Entwicklungsländer zu zahlen.

Da ist es kein Wunder, dass die Chefin des UNFCCC Christiana Figueires Diktatur und Kommunismus für die besten Regierungsformen hält, um die Agenda 21 durchzudrücken.

Link: http://toryaardvark.com/2014/03/17/un-climate-talks-in-bonn-fail/

Siehe auch: http://www.rtcc.org/2014/03/17/trust-deficit-blocking-progress-at-un-climate-talks/#sthash.vsYdtxK5.dpuf

Übersetzt von Chris Frey EIKE




Helmholtz-Klimadebatte „Was können wir glauben?“ – sollte heißen „Wem können wir glauben?“

EIKE war natürlich auch dabei, wenn auch nicht aufs Podium gebeten. Für die, dank der Überzahl der Protagonisten, etwas undankbare Rolle des Klimarealisten war Dr. Peter Heller vom Science Sceptical Blog eingeladen. Die anderen waren Hans von Storch, Klimaforscher vom Helmholtz-Zentrum Geesthacht Zentrum für Material- und Küstenforschung, , Andreas Hense, Professor für Klimadynamik von der Universität Bonn, Oliver Geden von der Stiftung Wissenschaft und Politik sowie Frank Driescher von der Wochenzeitung Die Zeit

Bild rechts: Die Podiumsteilnehmer; mit Diskussionsleiter Jens Peter Wiarda Bild Focus@Helmholtz

Den Auftakt -heute Impulsvortrag genannt- und damit die Debatte lenkend, machte Prof. Hans v. Storch mit einem kurzen Überblick über die, seiner Meinung nach, bestehenden Gemeinsamkeiten und Unterschiede zwischen den Klimarealisten -von ihm Klimaskeptiker genannt- und den Klimaalarmisten oder Befürwortern der Hypothese vom anthropogen induzierten Klimawandel.  Sein Vortrag lässt sich kurz zusammenfassen mit seiner Aussage:„Die Erderwärmung ist ein Fakt und ohne die ebenfalls zu beobachtende Zunahme der Treibhausgase ist sie wissenschaftlich nicht zu erklären“.

Das war eine starke Aussage. Besonders der zweite Teil. Sie wurde noch unterstützt durch die Behauptung von Storchs, dass die Zustimmung der Klimawissenschaftler in den 80 bis 90er Prozentbereich lägen [1]. Und so wurde sie auch verstanden, denn Widerspruch vom Podium erhob sich nicht.  Denn immerhin ist von Storch nicht irgendwer, sondern einer der Platzhirsche, dessen „Markenzeichen“ in demonstrativer Herablassung samt einer gegenüber der IPCC konformen Klimaforschung kritischen Haltung besteht.

Er begründete seine Meinung mit einigen wenigen Folien, von denen zwei hier ausschnittsweise gezeigt werden. Denn sie waren symptomatisch für die Art seiner und der IPCC Beweisführung.

Abbildung 1: Anomalie der globalen Mitteltemperatur Quelle UK Metoffice

Den Anfang machte, wie immer, eine Kurve, wie die in Abbildung 1, welche die Erwärmung im letzten Jahrhundert bezogen auf einen Referenzwert um ca. 0,8 K zeigte. Das zeige –so v. Storch- den „Klimawandel“ deutlich. Schon in diesem Zusammenhang ist bemerkenswert, dass die Frage, ob denn diese Erwärmung des 20. Jh., gemessen an den in zahlreichen Proxy-Reihen abzulesenden Erwärmungsphasen der letzten 2000 Jahre, überhaupt als ungewöhnlich angesehen werden darf, offenbar überhaupt nicht bekannt ist. Nach unserer Kenntnis der Fachliteratur liegt die Erwärmung im 20. Jh. im Normalbereich der Vergangenheit. So zeigt beispielsweise die Reihe von Büntgen et al. (Science 331, 578, 2011), die eine Zusammenfassung unzähliger Baumringreihen, zurückgehend bis 500 vor Chr. darstellt, die Reihe von Christiansen und Ljungqvist (Clim. Past, 8, 2012), die eine Zusammenfassung von etwa 100 Einzelproxies wie Stalagmiten, Baumringen, Sedimenten etc. zurückgehend bis 0 n.Chr. ist und Einzelreihen wie die Stalagmitenkurve von A. Mangini (Earth & Planetary Science Letters 235, 2005), dass die Erwärmungsphase des 20. Jahrhunderts sowohl in ihrer Zeitlänge und ihrer Stärke in der Vergangenheit oft übertroffen wurde. Auf diese wichtige Beobachtung wurde jedoch nicht eingegangen. Richtig war allerdings seine Aussage, dass diese Kurve selber nicht umstritten sei.

Dann zeigte v. Storch eine Abbildung, die der hier gezeigten ähnelt.

Abbildung 2: Modellberechnungen für verschiedene Kontinente des jeweiligen Verlaufs der Mitteltemperatur mit und ohne die Annahme der Wirkung der Treibhausgase (gemeint war immer als stärkster Treiber CO2 (Quelle: IPCC AR4 4)

V. Storch erklärte beispielhaft, dass man sich einig sein, dass sozusagen das Geld von der Bank weg sei, und meinte damit die beobachtete Erwärmung (darüber besteht, zumindest was die terrestrischen Stationen anbelangt, Einigkeit zwischen den Parteien) im  letzten Jahrhundert  und man sich jetzt nur noch um die Frage kümmern müsste, wer denn in den Kreis, der als Bankräuber zu verdächtigen, gehörte.

Und wie in Abbildung 2 gezeigt, würden die Klimamodelle eindeutig zeigen, dass der Temperaturanstieg allein aus  natürlichen Ursachen heraus nicht erklärlich sei, erst die Zufügung von Treibhausgasen zu der beobachteten Erwärmung führen gäbe die gesuchte Erklärung. Wir können diese Erwärmung, so v. Storch, anders nicht erklären.

Soweit so plausibel, oder?

Jedenfalls sahen es die Podiumsteilnehmer so, denn Widerspruch zu diesem absurden logischen Schluss (man kennt den wahren Grund nicht, schließt wichtige potentielle Ursachen zudem aus, ergo muss er das anthropogene CO2 sein) erhob sich nicht.

Doch wenn man etwas tiefer in diese Art der Beweisführung – die gern die Ausschließtheorie genannt wird, wie wir sie von jedem Tatort im Fernsehen kennen- einsteigt, dann stellen sich dem interessierten Beobachter sofort die folgenden Fragen.

1.    Wie viele und welche „Verdächtige“ wurden einbezogen? War der/die Haupttäter überhaupt dabei?

2.    Wie wurden die Modelle programmiert. Müssen sie nicht den einprogrammierten Einfluss der Treibhausgase zeigen, weil ihr Programm, ihre Start- und Laufbedingungen genau dies vorsieht?

Zur Beantwortung dieser Fragen schauen wir uns an, welche „Verdächtige“ (Forcings) in die Modellläufe einbezogen werden. Beim IPCC werden wir fündig.

Abbildung 2: Art, Anzahl und Einfluss der Forcings lt. IPCC AR5 (Quelle Fig SPM 5 IPCC WG1 SPM)

Zur Frage 1

In Abbildung 2 erkennen wir insgesamt nur 12 Einzel- oder gruppierte Verdächtige (Forcings). Doch das stärkste Treibhausgas -nämlich der Wasserdampf- fehlt völlig. Und auch der vielfältig dokumentierte, in vielerlei Ausformungen vorhandene solare Einfluss, wie er z.B. in „die kalte Sonne“ ausführlichst und mit sehr vielen Quellen belegt, beschrieben wird, ist nur mit mickrigen 0,05 (Bandbreite 0,00 bis 0,10) Wm-2 erwähnt. Also nur mit einem Bruchteilchen von 2.2 % der „gut bekannten“ anthropogenen Einflüsse.

Zudem wird behauptet, diese Abbildung zeige den Zuwachs seit 1750, so tuend als ob man diese Zahlenwerte  schon für 1750 mit hinreichender Genauigkeit kennen würde. Doch das soll uns hier jetzt nicht interessieren.

Wir können also zunächst festhalten, dass die Suche nach dem „Bankräuber“ sich von vornherein auf wenige „Sollverdächtige“ konzentriert, aber die Hauptverdächtigen Sonne und Wasserdampf -aus welchen Gründen immer- gar nicht erst gesucht werden.

Aus meiner Sicht ein klassischer Fall von Justizirrtum, man kann auch sagen Schauprozess, der uns da vorgeführt wird. Beweiskräftig, wie es nun mal die Wissenschaft normalerweise verlangt, ist das jedenfalls nicht. Besser eine versuchte Irreführung. So etwas funktioniert wohl nur in der zur „Königsdisziplin“ erhobenen Klimawissenschaft.

Zur Frage 2

Stellen Sie sich vor, sie schreiben ein einfaches Computermodell zur Lösung der Aufgabe wie man 2 Äpfel und 2 Äpfel addiert. Das Ergebnis würde immer 4 lauten. Und da sie Zahlen nach einer bestimmten Regel berechnen, ist es egal, ob sie Äpfel, Birnen, Kirschen addierten. Der Computer kommt immer zu dem Ergebnis 4. So ist er programmiert und das würde auch stimmen.

Nun werden sie aufgefordert doch bestimmte Rücksichten zu nehmen, aus einem wichtigen Grunde solle immer 5 statt 4 herauskommen, wenn eine bestimmte Zutat dazu gegeben würde. Sie programmieren also

2+2 = 4 + (wenn…; dann) 1

Dann rechnet ihr Programm, oder Modell, immer dann 5 aus, wenn diese Bedingung erfüllt ist. Diese Bedingung heißt bei den IPCC Klimamodellierern

„Wenn Treibhausgas CO2 in bekannter Konzentration vorhanden; dann 5, wenn nicht, dann 4″

Also wird ihre Modell genau nach dieser Vorgabe rechnen. Übertragen auf unseren Fall heißt das, mit CO2 gibt’s eine Temperaturerhöhung, ohne CO2 gibt’s keine. Nun ist völlig klar, dass Klimamodelle um Größenordnungen komplizierter sind, als das oben angeführte Simpelmodell. Die Einflussgrößen sind weit zahlreicher, ihre Verknüpfungen Legion. Aber das Grundprinzip bleibt dasselbe. Der Computer rechnet das aus, wie und was ihm vorgegeben wird
Und da Sie -ihrem Gründungsauftrag [2] folgend nur die menschlichen Einflüsse zu untersuchen und zudem deren zuvor festgelegte „Gefährlichkeit“ zu bestimmen, und Sie die wichtigsten „Verdächtigen“ vorn vornherein ausgeschlossen haben, kann  Ihre Beweisführung nur zu einem Schuldspruch für CO2 führen.

Dumm nur, dass sich die Messungen (so wie die oben erwähnten Proxy-Reihen), die Natur und zunehmend mehr Klimawissenschaftler nicht mehr an diese Vorgaben halten. Abbildung 3 zeigt dies deutlich.

Abbildung 3: Vergleich der Mittelwerte der globalen Temperaturanomalie gemessen mittels Satelliten und Radiosonden mit dem Mittelwert der sich auch 100 Modellläufen ergibt. Die Abweichungen könnten nicht größer.

Es soll nun keineswegs behauptet werden, dass auch nur einer der Anwesenden wissentlich oder gar vorsätzlich diese voreingenommene Art der Beweisführung verfolgen würde, aber die normale Logik, verbunden mit etwas Recherche, lässt keinen anderen Schluss zu, als dass wir hier alle hinters Licht geführt werden. Vermutlich ungewollt, wenn man sich die oft beeindruckende Vita der Beteiligten anschaut.

Deswegen lautet die eigentliche Frage, die das Podium hätte klären müssen:

Wem sollen wir glauben?

Im Einführungstext ist diese Frage – wenn auch vermutlich anders gemeint- gestellt worden. Beantwortet wurde sie nicht. Von keinem!

Wer daher zur Klärung der Sache etwas beizutragen wünscht, möge ich melden. Sachliche Kommentare werden gern entgegen genommen.


[1] Legates et. al 2013 fanden heraus, dass der z.B. von Cook angeführte Konsens mit der Standard-Definition: „dass der Mensch das meiste der Erwärmung nach 1950 verursacht hat“, selbst unter dieser schwächeren Definition unter den veröffentlichten wissenschaftlichen Studien der Konsens nicht 97,1% betrug, wie Cook behauptet hat, sondern nur 0,3%. Näheres dazu hier: http://www.eike-klima-energie.eu/klima-anzeige/cooks-97-prozent-widerlegt-durch-eine-neue-begutachtete-studie/

[2] Gründungsauftrag des IPCC http://www.ipcc.ch/about/index.htm: Dort steht: „Das IPCC wurde gegründet, um die (politischen) Entscheidungsträger und andere Interessierte Personen über den Klimawandel mit einer objektiven Quelle von Informationen über den Klimawandel zu versorgen. Das IPCC betreibt weder Forschung noch überwacht es Klimadaten oder Parameter. Die Aufgabe des IPCC ist es, auf einer umfassenden, objektiven, offenen und transparenten Grundlage der neuesten wissenschaftlichen, technischen und sozioökonomischen Literatur weltweit das Risikoverständnis des vom Menschen verursachten Klimawandel, seine beobachteten und der zu erwarteten Auswirkungen und Optionen für eine Schadensbegrenzung zu bewerten. IPCC-Berichte sollten politisch neutral sein, auch wenn sie objektiv politisch-relevante wissenschaftliche, technische und sozioökonomischen Faktoren behandeln. Die IPCC-Berichte sollten von hohem wissenschaftlichen und technischen Standard sein und sollten das Ziel haben, eine Reihe von Ansichten, Know-how und die breite geografische Abdeckung zu reflektieren. “ (Fettmarkierung und Unterstreichung im Text von Verfasser vorgenommen)




Das ist nicht der Nordpol – sondern der Michigan-See!!

Anthony Watts beschreibt jetzt kurz, wie ein neuer Vorstoß extrem kalter arktischer Luft gerade zum kalendarischen Frühlingsbeginn den Ostteil der USA heimsucht. Gepostet hat er das am 17. März als Vorhersage. Inzwischen hat sich gezeigt, dass dieser erneute Kälteeinbruch tatsächlich erfolgt war. Die Wetterlage ist symptomatisch für den ganzen extrem kalten Winter an der Ostküste, daher folgt hier die Übersetzung dieser Ausführungen. Dipl.-Met. Hans-Dieter Schmidt hat die Übersetzung fachlich begutachtet.

Chris Frey

Neuer arktischer Vorstoß im Osten der USA – vermutlich droht der kälteste kalendarische Frühlingsbeginn seit mindestens 50 Jahren

Anthony Watts

Eine weitere massive Kältewelle droht in der Osthälfte der USA während der nächsten Tage. Dabei könnten die Temperaturen auf Werte fallen, die über 20°C unter den Normalwerten liegen.

Der leitende Meteorologe bei WeatherBell Joe Bastardi sagte dazu:

Ich bin jetzt 58 Jahre alt, und ich habe so etwas in der zweiten Märzhälfte noch nie erlebt, nicht einmal annähernd.

Und:

Die Wetterlage der nächsten Woche hat das extremste Potential für die Jahreszeit, das ich mir vorstellen kann. Es könnte der kälteste kalendarische Frühlingsbeginn seit mindestens 50 Jahren werden.

Wettervorhersagemodelle wie das des EZMW (Europäisches Zentrum für Mittelfristige Wettervorhersage in Reading/England) und das GFS [Global Forecasting Service] des amerikanischen Wetterdienstes, die beide die häufigen Kaltluftvorstöße in den Osten der USA jeweils gut im Voraus simuliert hatten, zeigen jetzt einen weiteren massiven Kaltluftvorstoß zum [kalendarischen] Frühlingsbeginn. Die folgenden Karten zeigen dies:

Dr. Ryan Maue meinte zu dieser Vorhersage des EZMW:

EZMW-Vorhersage der Temperatur im 850-hPa-Niveau [= in ca. 1500 m Höhe] plus Anomalie. Brutal!

Er fügte hinzu:

Das kanadische Ensemble-Vorhersagemodell sieht für die nächsten 7 Tage genauso aus. Dieser Kuchen ist gebacken! Arktische Luft bis Ende März.

Falls sich der Michigan-See ein wenig öffnet, könnte diese Kälte enorme Mengen Schnee auf der Lower Peninsula [= Halbinsel] des Michigan-Sees abladen.

————————————–

Anmerkung von Dipl.-Met. Hans-Dieter Schmidt: Diese Ausführungen sind in gewisser Weise eine Ergänzung zu meinem Beitrag zum milden Winter bei uns (hier). Darin hatte ich ausgeführt, dass die milde Luft aus irgendwelchen Gründen kälter war als in früheren milden Wintern.

Hier zeigt sich, dass offenbar auch die extrem kalte Luft noch kälter ist als in früheren kalten Wintern. Ich sehe darin ein beängstigendes Zeichen für uns, falls die Wetterlage bei uns einmal mit umgekehrtem Vorzeichen im Winter mehrere Monate lang „eingefroren“ sein sollte (z. B. mit immer wiederkehrenden Nordost-Lagen).

Link: http://wattsupwiththat.com/2014/03/17/eastern-us-arctic-blast-coming-likely-to-be-the-coldest-opening-to-calender-spring-in-at-least-50-years/

Übersetzt und bearbeitet von Chris Frey EIKE




Die im Dunkeln sieht man nicht: Regelenergie – die versteckten Zusatzkosten des EEG

Bild rechts: EE-Zukunftsperspektiven: Abgebrannte Windenergieanlage in la Drôme, Frankreich [FRA]

Das deutsche Wechselstromnetz ist ein vom Funktionsprinzip her instabiles System, in das mehr als eine Million Produzenten Strom einspeisen, während gleichzeitig Millionen von Verbrauchern erwarten, dass sie jederzeit jede gerade benötigte Menge Strom daraus beziehen können. Da Wechselstrom nicht direkt gespeichert werden kann, hängt die Stabilität der Versorgung entscheidend davon ab, dass Einspeisung und Verbrauch von Strom jederzeit ziemlich genau gleich groß sind. Das System reagiert schon auf vergleichsweise kleine Abweichungen sehr empfindlich mit Schwankungen der Netzfrequenz. Um dies auszugleichen, müssen die Netzbetreiber Produktion und Verbrauch ständig präzise überwachen und Ungleichgewichte durch Erhöhung oder Verringerung der Erzeugung von Kraftwerken ausgleichen. Reaktionen müssen dabei oft blitzschnell innerhalb von wenigen Minuten oder gar Sekunden erfolgen. Die Tätigkeit der Schaltwarten ähnelt dabei der von Jongleuren, die jedoch nicht nur ein paar wenige, sondern gleich hunderte von Bällen gleichzeitig in der Luft halten müssen.

Teure Regelenergie…

Während der Handel mit „normalem“ Strom heute weitgehend über die Börsen läuft, gelten für die Beschaffung von Regelenergie, die zum Ausgleich nicht geplanter Versorgungsschwankungen benötigt wird, ganz andere Vorschriften [BUDE]. Grundsätzlich müssen sich Kraftwerke, welche Regelenergie liefern wollen, an einer entsprechenden Ausschreibung beteiligen und Gebote in der Hoffnung abgeben, dass sie im Bedarfsfall dann auch zum Zuge kommen. Insgesamt liegt der Bedarf aller deutschen Netzbetreiber an Regelleistung bei ca. 7.400 MW.

Bild 1: Reaktionszeiträume für die Bereitstellung von Regelenergie und die entsprechenden Bezeichnungen im deutschen Netz (Grafik: [REGE])

Da Regelenergie grundsätzlich kurzfristig – bei Primärregelleistung quasi sofort – benötigt wird, liegt ihr Preis meist deutlich über dem an der Strombörse üblichen Niveau. Je nach Versorgungslage im Stromnetz berechnen die Lieferanten für eine Kilowattstunde manchmal bis zu 1,50 Euro – etwa fünfmal mehr, als Endverbraucher zahlen – [CARE, REGE]).

Genaue Zahlen sind schwer zu bekommen. Als Anhaltspunkt kann man Angaben aus Österreich heranziehen, einem Land, dessen Bevölkerung und dessen Strommarkt etwa um den Faktor 10 kleiner sind als Deutschland. Dort hat Regelenergie zum Ausgleich von Kurzfristschwankungen im Netz allein 2012 140 Mio. € gekostet, 65 Mio. mehr als noch zwei Jahre zuvor. Rechnet man diese Zahlen auf das viel größere deutsche Stromnetz um, so kommt man auf rund 1,5 Mrd. € im Jahr – Kosten, die der Verbraucher gar nicht zu sehen bekommt, weil sie in den Netzentgelten versteckt sind. Und die Tendenz ist stark steigend, wie das vorgestellte Beispiel (+ 43 % im Jahr) zeigt [STAN]. In einem deutschen Blogeintrag wird eine Steigerung der Netzgebühren (Jahresleistungspreissystem) von 0,95ct/kWh im Jahre 2011 auf für 1,93ct/kWh2014 angeführt [STST].  

Sachverstand?

Kaum ein Urteil dürfte die derzeitige deutsche Energiepolitik treffender und zugleich vernichtender charakterisieren als das folgende Zitat aus dem kürzlichen Jahresgutachten 2013/ 2014 des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung mit dem Titel „Gegen eine rückwärtsgewandte Wirtschaftspolitik“ [WIGU], wo es heißt: „Vor etwas mehr als zwei Jahren wurde von der Regierungskoalition aus CDU/CSU und FDP die beschleunigte Energiewende ausgerufen. Dieses Großprojekt wird derzeit ohne ein schlüssiges Gesamtkonzept verfolgt.“

zum Ausgleich von Schwankungen aus Wind- und Solarstrom

Die Frage, warum so viel Regelenergie benötigt wird und warum der Bedarf und damit die Kosten so steil nach oben gehen, lässt sich leicht beantworten: Man braucht sie vor allem zum Ausgleich des schwankenden Angebots an „erneuerbarem“ Strom aus Wind- und Solarkraftwerken, deren Produktion von jeder Wolke und jedem Windstoß beeinflusst werden. Bei konventionellen Kraftwerken ist das anders: Wenn dort der Regler um 9.00 Uhr auf 845 MW eingestellt wird, dann wird die Anlage von diesem Zeitpunkt an diese Leistung konstant halten, bis die Einstellung geändert wird.

Als Beispiel für die aktuelle Situation in Deutschland kann die Stromproduktion im Dezember 2013 dienen, einem Monat, der sich zur grossen Freude der EE-Vertreter durch eine überdurchschnittliche „Windernte“ auszeichnete. Das Gesamtstromaufkommen in diesem Monat zeigt Bild 2.

Bild 2. Stromerzeugung in Deutschland im Dezember 2103. Die wild gezackten roten Kurven verdeutlichen, in welchem Ausmass konventionelle Kraftwerke gezwungen waren, das schwankende Angebot von Wind- und Solarstrom auszugleichen (Daten: [EEX])

Prognoseabweichungen – der Unterschied zwischen Wunsch und Wirklichkeit

Wie bereits erwähnt, liefern konventionelle Kraftwerke für genau definierbare Zeiträume exakt festgelegte Strommengen ins Netz. Dank moderner elektronischer Systeme zur Datenerfassung und Regelung sind Schwankungen faktisch kein Thema. Ganz anders beim Wind- und Solarstrom. Zwar wird seitens der Vertreter der EE-Energien oft behauptet, die Produktion aus solchen Quellen lasse sich heute mit hoher Sicherheit vorhersagen und Schwankungen einzelner Standorte würden durch die grossräumige Verteilung ausgeglichen. Das stimmt jedoch nicht, wie ein Blick auf die Realität sofort beweist. Bild 3 stellt die Unterschiede zwischen den Prognosen und der tatsächlichen Leistungsbereitstellung der deutschen Wind- und Solaranalgen im Dezember 2013 grafisch dar.

Bild 3. Abweichungen zwischen Prognosedaten  und tatsächlicher gemeinsamer Leistung von Wind- und Solarstrom im Dezember 2013 (Daten: [EEX])

Da die beiden Quellen vom Wetter unterschiedlich beeinflusst werden, wurden sie bei dieser Betrachtung der Fairness halber kumuliert betrachtet, d.h. da, wo sich ihre Schwankungen gegenseitig kompensierten, wurde dies entsprechend berücksichtigt. Die Kurve verdeutlicht die Unzuverlässigkeit der Prognosen: An vielen Tagen muss zum Ausgleich der Abweichungen kurzfristig positive oder negative Regelleistung in einer Größenordnung von mehr als 1000 MW beschafft werden. Das entspricht der Leistung eines konventionellen oder nuklearen Großkraftwerks.

Was bringt die Zukunft?

Das Interessante an diesen Fakten ist nicht so sehr der aktuelle Umfang der Prognoseabweichungen – er liegt immer noch deutlich unterhalb der vorgesehenen Reserven -, sondern die künftige Entwicklung, falls der Ausbau so fortgeführt wird, wie es die aktuellen Energiewendeplanungen bis 2050 vorsehen. Im Jahr 2013 lag der Solaranteil an der Jahresstromerzeugung bei 4,7 %, während der Windanteil 8,4 % erreichte. Die aktuellen Planungen sehen 35 % EE-Stromanteil bis 2025 und von 80 % bis 2050 vor. Da die sonstigen „Erneuerbaren“ Energien weitgehend ausgereizt sind, dürfte der weitere Ausbau im Wesentlichen bei Wind und Solar stattfinden. Bezüglich der Projektion der wahrscheinlichen Entwicklung des Strombedarfs wurde vereinfachend angenommen, dass die „normale“ Stromerzeugung auf dem Niveau des Jahres 2012 von 629 Terawattstunden (TWh) mehr oder weniger unverändert verharrt. Zusätzlich zu berücksichtigen ist allerdings die von der Bundesregierung gewünschte Umstellung des Verkehrs auf Elektromobilität. Für 2025 wurde hierfür ein zusätzlicher Bedarf von 20 TWh angenommen, während für 2050 130 TWh angesetzt wurden.

Für das Jahr 2025 kann bei einem eher konservativen Ansatz (EE-Anteil 40%) dann überschlägig mit folgender Erzeugung bei Wind- und Solarstrom gerechnet werden:

                                                                                                                                                    TWh

Wind Onshore (erforderl. Kapazität 86660 MW, Nutzungsgrad 17,4 %)   132,1

Wind Offshore (erforderl. Kapazität 6500 MW, Nutzungsgrad 34,8 %)     19,9

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)                   37,8

Lebensmittel (Biomasse inkl. Müll, leichter Zuwachs)              48,5

Wasser (Kap. etwa konstant)                                                                 21,7

Gesamt für 40 % EE-Anteil                                                                   260,0                 

Für 2050 wurden ausgehend von einer Gesamterzeugung von 759 TWh folgende Annahmen gemacht:        TWh

Wind Onshore (erforderl. Kapazität 272500 MW, Nutzungsgrad 17,4 %       415,4

Wind Offshore (erforderl. Kapazität 27500 MW, Nutzungsgrad 34,8 %)  83,8

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)  37,8

Lebensmittel (Biomasse inkl. Müll, konstant ab 2025)                                 48,5

Wasser (Kap. etwa konstant)  21,7

Gesamt für 80 % EE Anteil           607,2

EE-bedingter Regelenergiebedarf 2025 und 2050

Mit der Fixierung auf die beiden extrem volatilen Energiequellen Wind und Strom wird deren Instabilität die Netze in den kommenden Jahren sowohl prozentual als auch absolut gesehen mehr und mehr überlasten. Die Folgen sind umso gravierender, als gleichzeitig die konventionellen Kraftwerke als die einzigen Garanten der Stabilität immer mehr verdrängt werden. Wenn Wind- und Solarstrom mit ihrer Bevorzugung die Netze überfluten, bleibt den Betreibern konventioneller Kraftwerke gar nichts anderes übrig, als ihre Einheiten herunterzufahren. Damit ergibt sich das Paradoxon, dass trotz steigenden Bedarfs an Regelenergie das Angebot immer mehr zurückgehen wird. Die Zunahme des Regelenergiebedarfs aufgrund von Prognoseabweichungen für Wind und Solarerzeugung für einen fiktiven Monat Dezember 2025 bzw. 2050 zeigen Bild 4 und Bild 5.

Bild 4. Fiktiver Verlauf der Prognoseabweichungen für Wind- und Solarstrom bei Annahme eines Wettergeschehens, das dem des Dezembers 2013 entspricht

Wie Bild 4 zeigt, dürfte es schon im Dezember 2025 nicht mehr gelingen, die erratischen Abweichungen der Stromproduktion aus Wind und Sonne noch mit den derzeit vorhandenen Regelenergie-Reserven von 7400 MW aufzufangen. Das Problem liegt vor allem darin, dass an Tagen mit starkem Windaufkommen praktisch keine konventionellen Kraftwerke mehr am Netz wären: Bereits im Dezember 2013 sowie im Januar und im Februar 2014 zeigte sich, dass die Netzbetreiber nicht mehr imstande waren, die Mindestkapazität an konventionellen Kraftwerken am Netz zu halten, um ihre internationalen Verpflichtungen im Rahmen des Europäischen UCTE-Verbundnetzes (Union for the Co-ordination of Transmission of Electricity) zu erfüllen. Mit anderen Worten: Deutschland hat über einen Zeitraum von drei Monaten hinweg die Stabilität des europäischen Verbundnetzes mehrfach grob fahrlässig gefährdet.

Noch katastrophaler stellt sich die Lage dar, wenn man die gleiche Projektion mit den Daten für die im Jahr 2050 zu erwartenden Kapazitäten im Bereich Wind- und Solarstromerzeugung durchrechnet. Hier ergeben sich Abweichungen zwischen Prognose und tatsächlicher Erzeugung, die wild zwischen +10000 und – 13000 MW hin und her schwanken. Nach derzeitigem Stand der Technik ist kaum vorstellbar, dass man unter diesen Bedingungen noch eine stabile Netzversorgung hinbekommen könnte.

Bild 5. Fiktiver Verlauf der Prognoseabweichungen für Wind- und Solarstrom bei Annahme eines Wettergeschehens, das dem des Dezembers 2013 entspricht. Der Bedarf an Regelenergie wäre überhaupt nicht mehr darstellbar.

Fred F. Mueller

Quellen:

[BUDE] http://www.energieverbraucher.de/de/Energiebezug/Strom/Stromwirtschaft/Regelenergie__1096/

[CARE] http://www.care-energy-online.de/index.php/stromgas/strom/oekostrom.html?showall=&start=19

[EEX] http://www.transparency.eex.com/de/

[FRA] http://www.la-croix.com/afp.static/pages/100919164756.1vaiksyv.htm

[REGE] http://amprion.net/systemdienstleistungen-regelenergie

[STAN] http://derstandard.at/1363707299122/Stabilisierung-der-Strom-Netze-wird-immer-teurer

[STST] http://www.eike-klima-energie.eu/climategate-anzeige/energiewende-grotesk-suedlink-noch-mehr-milliarden-fuer-blanken-unfug/  Kommenrtar # 55

[WIGU] Gegen eine rückwärtsgewandte Wirtschaftspolitik Jahresgutachten 2013/14 Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung Statistisches Bundesamt 65180 Wiesbaden November 2013




Über Deutschland lacht manchmal die Sonne, über Westerwälder Politiker die ganze Welt

Dummerweise gibt es in großen Abständen Wahlen. Und typische Politiker, die wie der gegelte Herr von und zu Guttenberg (CDU) durch Lug und Trug aufgefallen oder sich wie ein Herr Edathy über die von den Steuerzahlern finanzierten Server an nackten Kindern ergötzt haben, bekommen dann vom Wähler mitunter die ganze Verachtung gezeigt. Im Hohen Westerwald stellt die Kaste der Politiker derzeit allerdings alles in den Schatten, was man gemeinhin mit Politikern verbindet. Jedenfalls sieht man in dem kleinen Städtchen Bad Marienberg, warum das Rückgrat bei Politikern häufig so unterentwickelt ist – weil es so wenig benutzt wird.

Antiwindkraftlied der damit gebeutelten Rhöner Sauwantzt

Seit weit mehr als zwei Jahren haben wir an dieser Stelle über drollige Westerwälder Politiker berichtet, die auf Biegen und Brechen zu Lasten der Natur unbedingt einen Windpark um eine vom Steuerzahler finanzierte Greifvogel-Aufzuchtstation bauen und mit diesem Schildbürgerstreich allein durch die öffentlich bekannt gewordene Planung wohl gleich auch noch die Immobilieneigentümer in der Region um 160 Millionen Euro enteignet haben. Jedenfalls hat ein Architekt mitgeteilt, dass bei geschätzten rund 6000 Immobilien die Bad Marienberger Bürger schon jetzt um rund 160 Millionen enteignet wurden, weil ihre Häuser allein durch die Planungen stark im Verkaufswert gefallen sind. Immobilien in der Nähe von WKA seien quasi unverkäuflich, sagt auch Jürgen-Michael Schick, Sprecher des Verbandes Deutscher Makler (VDM). Verbandsmitglieder beklagten, dass einige Häuser seit Jahren erfolglos mit Preisabschlägen von bis zu 40 Prozent angeboten würden. Dennoch gebe es nicht einmal Interessenten für diese Objekte, sagt Schick.

160 Millionen Euro? Das ist eine Summe, die sich ein Lokalpolitiker in Bad Marienberg wahrscheinlich kaum vorstellen kann. Aber ist ja auch egal. Ist ja auch das Geld der Bürger. Den örtlichen Politikern, die über die Planungen für den Bau eines gigantischen Windparks abzustimmen hatten, waren die Sorgen der Bürger und die im Planungsgebiet bedrohten und auf der Roten Liste stehenden Tierarten (Roter Milan, Uhus und Fledermäuse) offenkundig völlig egal. Jedenfalls hat nicht ein einziges Gemeinderatsmitglied bei der entscheidenden Abstimmung im Februar 2014 dagegen gestimmt. 100 Prozent aller Fraktionen stimmten bei 100 Prozent der Abstimmungen zu 100 Prozent dafür, dass rund um die Verbandsgemeinde in ausgewiesenen Brutgebieten von Rotem Milan, Uhus und bedrohten Fledermäusen Windräder mit bis zu 200 Metern Höhe gebaut werden dürfen. Im örtlichen Mitteilungsheft Wäller Blättchen war die Sitzung vom 10. Februar 2014, bei der es für die Bürger um sehr viel ging, ein kleines Randthema, der Aufmacher war »90 Jahre Freiwillige Feuerwehr Langenbach«. Man bekam da als Bürger wohl nicht zu Unrecht den Eindruck, dass das Thema möglichst lange vor den Bürgern verheimlicht werden sollte. Immerhin hatten bei der entscheidenden Abnickung der Zerstörung der Rückzugsgebiete für Roten Milan, Uhus und Fledermäuse Politiker aller Fraktionen ausdrücklich Wert auf die Aufnahme ihrer Aussage ins Protokoll gelegt, wonach sie und ihre Parteien schon lange zu 100 Prozent hinter den Planungen stünden. Das ist für den Fortgang der Geschichte wichtig.

Unsere Artikel über die drolligen Bad Marienberger Politiker, die mit voller Kraft die Natur in ihrer Heimat zerstören wollen, hat weit über den Westerwald hinaus in der Bevölkerung über alle Parteigrenzen hinaus für großes Aufsehen gesorgt. Man muss dazu wissen, dass unsere Nachrichtenseiten im Web monatlich durchschnittlich rund 28 Millionen Mal angeklickt werden und im deutschsprachigen Raum um Platz 400 der Webseiten rangieren. Und sie werden zudem unzählige Male kopiert und auf anderen befreundeten Portalen verbreitet. Würden wir zusammen mit befreundeten Seiten zu einem Flashmob-Treffen in Bad Marienberg zugunsten der dort bedrohten Tiere aufrufen, dann könnte man dort aufseiten der Schildbürger-Politiker wohl nur noch die weiße Fahne hissen.

Inzwischen haben extrem viele Menschen mitbekommen, wie die Bad Marienberger Schildbürger vom Aussterben bedrohte Tiere eiskalt lächelnd vernichten wollten. Und dann hat sich eine Bürgerinitiative gebildet. Auf einen Schlag ist nun alles anders. Denn die windigen Politiker müssen sich in wenigen Wochen im Mai 2014 den Wählern stellen. Und die Bürgerinitiative zugunsten der geschützten Tiere hat so rasend schnell Zulauf, dass die eher trägen Politiker nicht mehr mitkommen.

Parallel zur Gründung der Bürgerinitiative verlautbarte erst die um ihre Wählerstimmen zitternde CDU, dass man nun doch irgendwie nicht mehr für den Bau eines Windparks im Brutgebiet der bedrohten Tiere sei, wenige Stunden später auch die SPD. Die Pharisäer, die wenige Tage zuvor noch ohne Skrupel zu 100 Prozent für die Vogelschredder stimmten, hatten keine Skrupel, als Wendehälse geoutet zu werden. Hauptsache, sie können weiter ihre geliebten Ämter und Posten behalten.

Wie auch immer die Geschichte weitergehen wird, die Lokalpolitiker verlieren in der Bevölkerung rasant an Ansehen und werden bei der Wahl im Mai 2014 wohl kräftig abgewatscht werden wie noch nie. Denn inzwischen kam heraus: Die finanziell schwer angeschlagene Gemeinde hat Steuergelder für die Vorplanung des mehr als fragwürdigen Projekts im Sinne ihrer wohl eher zwielichtigen Geschäftspartner (Windparkbauer Juwi) ausgegeben.

Und die Lokalpolitiker aus Bad Marienberg werden den Bürgern jetzt einiges erklären müssen. Denn die Schildbürger haben den Windpark nicht nur mitten im Brutgebiet vom Aussterben bedrohter Tiere abgesegnet, sondern auch mitten in einem alten Bergbaugebiet, welches nach Angaben der älteren Einwohner der Region löchrig wie ein Schweizer Käse ist. Offenkundig hatten die ohne Kenntnis von Heimatkunde planenden Politiker vergessen, dass das Gebiet um die Bad Marienberger Höhe seit Mitte des 18. Jahrhunderts durch die Grubenbetreiber Concordia und Georgszeche unterhöhlt wurde. Weil spätestens 40 Zentimeter unter dem Waldboden Basaltstein kommt, müsste man sprengen, um überhaupt Fundamente für Windräder bauen zu können. Und das würde die Jahrhunderte alten Stollen, die heute den vom Aussterben bedrohten Fledermäusen überall in dem Gebiet als Tag- und Winterquartiere dienen, zum Einsturz bringen und auch den Lebensraum der Fledermäuse zerstören. Erstaunlicherweise sind diese alten Stollen, die ein weit verzweigtes und nicht kartiertes unterirdisches Höhlensystem bilden, im Artenschutzgutachten, welches die Gemeinde beim Diplombiologen Malte Fuhrmann in Auftrag gegeben hatte, nicht erwähnt. Das Gutachten, welches eine der wichtigsten Grundlagen für die Planungen des Windparks inmitten der Lebensräume von Rotem Milan, Fledermäusen und Uhu war, hat aber noch eine andere interessante Besonderheit: Es gibt dort erstaunlicherweise keinen Hinweis auf das Barotrauma. Das aber zerfetzt Fledermäusen durch den Unterdruck der Windkraft-Rotoren die Lungen. Sie sterben dann nicht am Rotorschlag. Das Gutachten zu den Fledermäusen geht aber nur auf den Rotorschlag ein, daher hatten wir am 9. März 2014 eine Mail mit folgendem Inhalt zu seinem Gutachten an den Diplombiologen Malte Fuhrmann geschickt:

Darin finde ich mit nicht einem Wort das Barotrauma erwähnt, an dem die Fledermäuse in der Nähe von WKA sterben, denn der Rotorschlag ist bei ihnen ja nicht die Haupttodesursache. Ich bin Journalist und verfasse derzeit ein Sachbuch über Gutachten und Gutachter zu Naturschutzthemen. Mir ist aufgefallen, dass Ihr Gutachten nicht dem Stand der Wissenschaft entsprach, zumindest entstand dieser Eindruck beim sorgfältigen Studieren. Vom Spiegel bis Spektrum der Wissenschaft berichten auch die populärwissenschaftlichen Journalisten schon seit vielen Jahren über das Barotrauma als Todesursache bei Fledermäusen in der Nähe von WKA – warum kommt‘s bei Ihnen schlicht nicht vor? Oder sollte ich es übersehen haben???

Wir haben bis heute weder auf diese Mail noch auf telefonische Nachfrage eine Antwort bekommen. Es wäre vielleicht an der Zeit, dass die Bad Marienberger Politiker jene Steuergelder, die sie für das »Gutachten« ausgegeben haben, zurückfordern. Die Schildbürger aus dem Gemeinderat sollten jedenfalls ganz schnell versuchen, den von ihnen angerichteten Schaden zu begrenzen. Oder aber sie arbeiten emsig weiter daran, das Ansehen von Politikern auf ein noch niedrigeres Niveau abzusenken.

Das alles kann man nur verstehen, wenn man weiß, wie unsere Politiker ticken: Die politische Korrektheit ist ihnen ganz wichtig. Immer mehr Bürger entwickeln da eine gewisse Wut. Und irgendwann knallt es dann. Politiker, welche immer neue Windparks planen lassen, fachen dieseunheilvolle Entwicklun noch an. Schließlichproduzieren immer mehr Windparks immer weniger Strom – und die Zeche zahlen die Verbraucher. Nicht nur das ist irre, denn klar ist inzwischen auch: Windräder heizen denKlimawandel an, weil sie den Austausch der Luftschichten verhindern. Und alle Windräder, die bislang gebaut wurden,haben an der CO2-Bilanz nach Angaben desSpiegel rein gar nichts verändert.

Im hessischen Teil des Westerwaldes haben die Politiker deshalb gerade die Notbremse gezogen: Dort darf jetzt kein neues Windrad mehr geplant werden. Nur wenige Kilometer Luftlinie entfernt gibt es aber im rheinland-pfälzischen Teil des Westerwaldes bei der kleinen Gemeinde Bad Marienberg immer noch ewig-gestrige Schildbürgermeister, die das alles wohl noch nicht mitbekommen haben. Dabei warnt sie nicht nur der Bürgermeister des rheinland-pfälzischen Städtchens Weisenheim. Denn Windparks nutzen vor allem zwielichtigen Betreibern wie Juwi. Und was lernen wir aus alledem? Autoverkäufer verkaufen Autos. Versicherungsvertreter verkaufen Versicherungen. Und Volksvertreter? Aber dieses Mal haben sich die Volksvertreter wohl getäuscht: Dieses Mal wollen sich die Menschen nicht von windigen Politikern verkaufen lassen. 

Die örtlichen Politiker haben wohl noch keine rechte Ahnung, was da derzeit an Empörung in der Bevölkerung auf sie zurollt. Bad Marienberg dürfte jedenfalls schnell international bekannt werden. Denn Politiker aller Fraktionen sollen dort nach einer jetzt geplanten ersten Aktion in den Gaststätten Hausverbot bekommen und einfach nicht mehr bedient werden. Kein Bier für Politiker heißt die Aktion, welche wohl auch überregional Beachtung finden dürfte.

Das alles könnte aber schnell noch weitaus größere Kreise ziehen, wenn das Gerücht bestätigt wird, wonach die windigen Politiker schon insgeheim Verträge mit dem Windanlagenbauer Juwi geschlossen haben, um sich die Taschen zu füllen. Für die Bürger könnte das eine Lektion werden, wie sehr unsere frühere Demokratie schon zur Farce geworden ist.

Der Beitrag wurde mit Dank vom Kopp Verlag in Kopp Online übernommen udn mit dem Antwiwindkraftlied der Rhöner Sauwantz „angereichert“




Das Rätsel der Eiszeiten – Teil IV – Umlaufbahnen, Jahreszeiten und mehr

In Teil III haben wir einen kurzen Blick auf die orbitalen Faktoren geworfen, die die Sonneneinstrahlung beeinflussen. Hier nun wollen wir diese Faktoren detaillierter betrachten. Wir beginnen mit der derzeitigen Lage.

Jahreszeitliche Verteilung der einfallenden Sonnenstrahlung

Die Erdachse ist relativ zur Ebene der Umlaufbahn geneigt, so dass im Juli der Nordpol und im Januar der Südpol von der Sonne beschienen wird. In Bild 1 sind die Graphiken der einfallenden Sonnenstrahlen an der Obergrenze der Atmosphäre (TOA), monatlich und auf verschiedenen geographischen Breiten gezeigt:

From Vardavas & Taylor (2007)

Abbildung 1: Langzeitliche (1984 bis 1997) zonal-jahreszeitliche Variation der einfallenden TOA-Solarstrahlung (W/m²) der Nordhemisphäre (gepunktete Linie) und der Südhemisphäre (durchgezogene Linie).

Und jetzt die Mittelwerte, zuerst nach Breite für das Jahr, dann Monat für Monat in der Nord-, der Südhemisphäre und des gesamten Globus’:


Figure 2

Fig. 2 (5.17): Langzeitliche (1984 bis 1997) mittlere jährliche breitenabhängige Variation der berechneten einfallenden kurzwelligen Strahlung (W/m²) an der TOA (Hatzianatassiou et al. 2004)

Fig. 2 (5.18): Langzeitliche (1984 bis 1997) mittlere jährliche jahreszeitliche Variation der berechneten einfallenden kurzwelligen Strahlung (W/m²) an der TOA (Hatzianatassiou et al. 2004)

Man erkennt, dass die Südhemisphäre einen höheren Spitzenwert aufweist – dies liegt daran, dass die Erde am 3. Januar der Sonne am nächsten ist (Perihel), also während des Sommers der Südhemisphäre. Es spiegelt sich auch im globalen Wert wieder, der zwischen 330 W/m² im Aphel und 352 W/m² im Perihel schwankt.

Exzentrizität

Es gibt eine gute Einführung über planetare Orbits bei Wikipedia. Ich wurde von der langweiligen Aufgabe befreit auszuarbeiten, wie man einen elliptischen Orbit mit der Zeit vermittels Matlab implementiert, hat dies doch freundlicherweise schon Jonathan Levine getan. Er lieferte auch die Lösung des viel schwierigeren Problems der Einstrahlung mit der Breite an irgendeinem Tag während der Quarternary-Periode, auf die wir später schauen werden. In Bild 3 ist die Einstrahlung an der TOA pro Tag des Jahres als Funktion der Exzentrizität des Orbits gezeigt:


Abbildung 3 – aktualisiert

Der Erdorbit weist gegenwärtig eine Exzentrizität von 0,0167 auf. Dies bedeutet, dass die maximale Variation der Solarstrahlung 6,9% beträgt. Im Perihel ist die Erde 147,1 Millionen km von der Sonne entfernt, im Aphel 152,1 Millionen km. Die Menge der Solarstrahlung, die wir empfangen, folgt dem „Umgekehrtes-Quadrat-Gesetz“ – soll heißen, wenn man sich zweimal so weit entfernt, reduziert sich die Sonnenstrahlung um den Faktor vier. Damit kann man die Differenz zwischen Minimum und Maximum sehr einfach berechnen: (152.1/147.1)² = 1.069 oder eine Änderung um 6,9%. Während der letzten Million Jahre oder mehr hat der Erdorbit seine Exzentrizität verändert, und zwar von einem Tiefstwert nahe Null bis zum einem Maximum von etwa 0,055. Die Periode eines jeden Zyklus‘ beträgt etwa 100.000 Jahre.

Hier folgt meine eigene Berechnung der Änderung der Gesamtsolarstrahlung an der TOA in Abhängigkeit von der Exzentrizität:


Figure 4

Schaut man auf Abbildung 1 von Imbrie & Imbrie (1980), zeigt sich über den Daumen gepeilt, dass sich die Exzentrizität über einen Zeitraum von 50.000 Jahren von 0,05 auf 0,02 geändert hat (von vor etwa 220.000 Jahren bis vor 170.000 Jahren). Dies bedeutet, dass die solare jährliche Einstrahlung über 50.000 Jahre um 0,1% oder 3 mW/m² pro Jahrhundert zurückgegangen ist. (Dieser Wert ist eine Überschätzung, weil es sich um den Spitzenwert der Sonne senkrecht über uns handelt. Falls wir stattdessen die Sommermonate in höheren Breiten betrachten, ergibt sich eine Änderung von 0,8 mW/m² pro Jahrhundert).

Das ist ein erstaunlicher Rückgang, und da ist es kein Wunder, dass es so schwierig ist, den starken 100.000-Jahres-Zyklus in der Klimahistorie mit den Milankovitch eccentricity cycles in Einklang zu bringen.

Neigung & Präzession

Um die Grundlagen dieser Änderungen zu verstehen, schaue man auf den Milankovitch-Artikel. Keiner dieser beiden Effekte, Neigung und Präzession, ändert die gesamte jährliche Solarstrahlung an der TOA. Sie ändern lediglich deren Verteilung. Die folgende Abbildung 5 zeigt die letzten 250.000 Jahre der solaren Einstrahlungen am 1. Juli – für einige Breiten:


Figure 5

Man beachte, dass im Mittsommer die äquatoriale Einstrahlung natürlich geringer ist als die polare Einstrahlung. In Bild 6 folgt der gleiche Plot für den 1. Oktober. Jetzt ist der äquatoriale Wert höher:


Figure 6

In Bild 7 wollen wir die Werte bei 65°N betrachten, die oft bei Studien zum Thema Eiszeit eine Rolle spielen, dieses Mal jedoch für den Anfang jeden Monats. Das heißt für die Legende: 1 = 1. Januar, 2 = 1. Februar und so fort:


Figure 7

Nur interessehalber habe ich ein Datum der letzten Zwischeneiszeit markiert – die Eemian-Zwischeneiszeit, soweit sie bekannt ist.

Man bilde eine Theorie aus den folgenden Daten:

● Spitzenwert der Einstrahlung bei 65°N

● Höchste Änderungsrate

● minimale Einstrahlung

● Mittelwert der Sommermonate

● Mittelwert des Winterhalbjahres

● Mittelwert der 3 Herbstmonate

Dann gehe man damit in die Graphik. Schwierigkeiten? Man wähle eine andere Breite. Oder Südhemisphäre – auch kein Problem. Wie wir sehen werden, gibt es eine Menge Theorien, die sich alle „Milankovitch“ nennen, aber jede einzelne ist offensichtlich nicht kompatibel mit anderen Theorien gleichen Namens „Milankovitch“.

Endlich haben wir ein Tool, freundlicherweise zur Verfügung gestellt von Jonathan Levine, das es uns erlaubt, jedweden Wert zu berechnen. Wenn also irgend ein Leser einen Wunsch nach anderem output hat, einfach nachfragen. Aber: Warnung an aufstrebende Theoretiker hinsichtlich Eiszeiten (hoffentlich gibt es solche schon) von Kukla et al (2002):

Das marine Isotop wird normalerweise an die astronomische Chronologie angepasst, repräsentiert durch die TAA-Einstrahlung im Juni auf einer Breite von 60° oder 65°N. Das war ausreichend gerechtfertigt, weil die Frequenz der globalen Klimazustände im Pleistozän zu den Frequenzen orbitaler Variationen passt.

Der Mechanismus der Reaktion des Klimas auf die Einstrahlung bleibt unklar, und die Rolle der Einstrahlung in den hohen Breiten im Gegensatz zu derjenigen in niedrigen Breiten ist immer noch Gegenstand von Diskussionen.

In jedem Falle scheint die Verbindung zwischen den globalen Klimata und orbitalen Variationen kompliziert zu sein und ist nicht direkt abhängig von der Einstrahlung im Juni bei 65°N. Wir raten dringend davon ab, lokale Klimaproxys mit Hilfe von unbegründeten astronomischen Variationen vorzunehmen.

Ich bin hinsichtlich historischer Aufzeichnungen und wie sie konstruiert worden sind, ein Novize. Aber ich verstehe, dass SPECMAP zu einer Milankovitch-Theorie gemacht worden ist, das heißt, die Höhepunkte der Eis- und Zwischeneiszeiten wurden zeitlich durch astronomische Werte bestimmt.

Link: http://scienceofdoom.com/2013/10/14/ghosts-of-climates-past-part-four-understanding-orbits-seasons-and-stuff/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/




Sonnenfleckenzyklus 24 der schwächste seit 1828

In diesem Beitrag von Frank Bosse und mir (http://www.kaltesonne.de/?p=17194) berichten wir über eine kürzlich erschienene Publikation von Wissenschaftlern um Paola Moffa-Sanchez von der Universität Cardiff, wonach die Veränderung der Sonnenaktivität zu natürlichen Klimaveränderungen in Europa führt. Untersuchungen des Meeresbodens des Nordatlantiks erlaubten eine Rekonstruktion der Ozeantemperaturen und des Salzgehaltes über 1000 Jahre. Dabei passten kalte Ozeankonditionen zu Zeiten geringer solarer Aktivität. Andere Forscher ( u.a. Lockwood) hatten bereits herausgefunden, dass während solarer Minima Hochdruckzonen westl. der britischen Inseln entstehen, die die Westwinde blockieren, so dass kalte Luft von der Arktis und Eurasien nach Europa fließen kann.

Nach Moffa-Sanchez folgt die thermohaline Zirkulation AMOC – der Wärmestrom des Nordatlantiks – der solaren Schwäche mit einem Verzug von 10 -15 Jahren.

Wir hatten auf die Abschwächung der AMOC und den Rückgang des Wärmeinhalts des Nordatlantiks bereits im Januar (http://www.kaltesonne.de/?p=15893) in unserem Beitrag "Neues vom Nordatlantik: Das natürliche “Day after Tomorrow“- Szenario?" hingewiesen.

Dies bedeutet aber auch, dass die außerordentliche Schwäche des aktuellen Sonnenzyklus sich erst in den nächsten Jahren in einer weiteren Abkühlung des Wärmestroms niederschlagen wird. 

Welche Auswirkungen eine solche Abschwächung bei weiterer solarer Schwäche auf die klimatischen Bedingungen Europas haben wird, beschreibt Paola Moffa-Sanchez in der historischen Rückschau :

"Indeed we propose that this combined ocean-atmospheric response to solar output minima may help explain the notoriously severe winters experienced across Europe between the 16th and 18th centuries, so vividly depicted in many paintings, including those of the famous London Frost Fairs on the River Thames, but also leading to extensive crop failures and famine as corroborated in the record of wheat prices during these periods.”

in Deutsch

"Tatsächlich schlagen wir vor, dass diese kombinierte Ozean-Atmosphären Reaktion auf das Solarleistung-Minimum helfen kann, die notorisch strengen Wintern zu erklären, die Europa zwischen dem 16. und 18. Jahrhundert erlebt hat. Und die so lebhaft in vielen Bildern dargestellt wurden, darunter die der berühmten Londoner Frost Fairs an der Themse , aber auch zu umfangreichen Missernten und Hungersnöten führten, wie in der Aufzeichnung der Weizenpreise während dieser Zeit bestätigt wird."

Vollständiger Bericht als pdf Anhang

Related Files




Neue Gallup-Umfrage: Klimaänderung ganz unten auf der Besorgnis-Liste

Bjørn Lomborg schreibt auf seiner Facebook-Site: Eine neue Umfrage von Gallup zeigt, dass sich die Amerikaner überhaupt keine Sorgen hinsichtlich der globalen Erwärmung machen (Siehe Bild rechts, linke Seite; Quelle: http://www.gallup.com/poll/167843/climate-change-not-top-worry.aspx)

Dies ähnelt stark dem Ergebnis einer Umfrage in Europa, die zeigt, dass sich die Europäer um sehr vieles sehr viel mehr Sorgen machen als um die globale Erwärmung (Bild rechts, rechte Seite; Quelle: https://www.facebook.com/photo.php?fbid=10152349665523968).

[Bemerkungen des Übersetzers zu diesen Abbildungen: Sie sind nämlich nicht direkt vergleichbar. In der US-Umfrage waren die Fragen zu Klima und Energie getrennt, und es zeigt sich, dass sich die Amerikaner um die Energieversorgung deutlich mehr Sorgen machen als um Klima. Bei der Umfrage in Europa hat man beide Themenkomplexe in einer Frage zusammengefasst. In beiden Fällen sind den Menschen aber andere Dinge als Klima und/oder Energie viel wichtiger.

Beim Anklicken der Quellen-Links sieht man die Darstellungen deutlicher.]

Das bedeutet nicht, dass die globale Erwärmung kein Problem ist oder etwas, um das man sich nicht zu kümmern braucht. Aber das Ergebnis zeigt, dass die Politiker die Diskussion zu diesem Thema viel zu sehr aufgebauscht haben, und wahrscheinlich tun sie uns einen großen Missfallen, wenn sie sich auf kurzfristige Dinge konzentrieren wie Solar- und Windenergie, die riesige Kosten verursachen und kaum Nutzen bringen.

Beruhigend ist auch, dass Rassenprobleme inzwischen die geringste Sorge der US-Amerikaner geworden sind.

——————————————-

Inzwischen wirft der Senat mit Schimpfwörtern um sich, während ihre Argumente vom Winde verblasen werden. Bei Forbes erschien kürzlich ein guter Artikel [von James Taylor, Heartland Institute], worin es heißt, dass Alex Sink seinen Sitz aus allen möglichen Gründen verloren hat, darunter vielleicht auch Klimaänderung. Dieser Verlust repräsentiert einen echten Leithammel,da Demokraten und Republikaner gleichermaßen nur für das Wettrennen zu diesem einen Thema über 12 Millionen Dollar ausgegeben haben.

Und von Stephen Rasey stammt ein Kommentar aus dem Protokoll der All-Night-Sitzung des Senats.

——————————————-

Hier folgt eine Schnellübersicht des Gebrauchs des Wortes „denier“ [Anklicken empfohlen!] in der  Sitzung des Senats in der Nacht vom 10. zum 11. März [muss man das eigentlich übersetzen? Ich denke nein! A. d. Übers.]:

CR_Page , CR_Speaker _, CR_Text
S1378 __, REID ________, climate change deniers still exist.
S1378 __, REID ________, the deniers.
S1379 __, SCHUMER _____, deniers like to claim there are competing
S1379 __, SCHUMER _____, Climate change deniers need to wake
S1379 __, BOXER _______, The deniers have given in to the
S1381 __, BLUMENTHAL _, deniers, who are as much a part of the
S1381 __, KING ________, I would not call myself a denier, but
S1387 __, BOXER _______, but who I think is a dangerous denier,
S1387 __, BOXER _______, a dangerous denier in the face of 97 percent
S1387 __, SCHATZ ______, our climate deniers tend to use. I will
S1387 __, SCHATZ ______, This was a prominent climate denier
S1387 __, SCHATZ ______, in Antarctica. More and more deniers
S1387 __, SCHATZ ______, Some deniers also like to use responsible
S1387 __, SCHATZ ______, So deniers cannot in good conscience
S1387 __, SCHATZ ______, deal. Maybe it is even good. As deniers
S1388 __, SCHATZ ______, This category of deniers accepts the reality,
S1390 __, FEINSTEIN __, change deniers, reported to Congress in
S1392 __, WHITEHOUSE _, which the climate denier community
S1392 __, WHITEHOUSE _, That is how much fuss the deniers
S1393 __, BOXER _______, deniers are standing with 3 percent of
S1393 __, BOXER _______, we have proven the point that deniers
S1395 __, FRANKEN _____, deniers have taken this as a sign that
S1400 __, KAINE _______, science deniers and leadership deniers,
S1400 __, KAINE _______, To science deniers, I am happy to say
S1401 __, KAINE _______, It is the skeptics and the deniers who
S1401 __, KAINE _______, variety, climate denier or leadership
S1401 __, KAINE _______, denier, don’t underestimate American

Link: http://wattsupwiththat.com/2014/03/12/new-gallup-poll-shows-climate-change-near-the-bottom-of-things-worth-worrying-about/

Übersetzt und bearbeitet von Chris Frey EIKE




Europas grüner Selbstmord – INEOS-Boss: EU-Industrie könnte in einem Jahrzehnt ausgelöscht sein

[*Was damit gemeint ist, siehe hier]

Seinen Worten zufolge wird eine giftige Mischung hoher Energiekosten – weiter aufgeblasen durch grüne Steuern – und Rohstoffpreise, die verglichen mit Amerika und dem Nahen Osten in einer ‚anderen Liga‘ spielen, sowie nicht wettbewerbsfähige Arbeit zur rapiden Schließung der Chemiewerke in Europa führen.

Das gilt, bevor Europa von einer Exportwelle aus Amerika getroffen wird – das Ergebnis von 71 Milliarden Dollar, die die chemische Industrie in den USA bis zum Jahr 2020 ausgeben wird, um die Schiefergasrevolution zu finanzieren, die die Energiepreise inzwischen auf ein Drittel des Niveaus in Europa gedrückt hat.

Mr. Ratcliffe schreibt in seinem Brief: „Ich erinnere an das Aussterben der europäischen Textilindustrie vor meinen Augen, als ich noch Student bei Courtaulds in den achtziger Jahren war. Jetzt könnte sehr gut ein weiterer europäischer Dinosaurier das Weite suchen“.

Er verweist darauf, dass die chemische Industrie, die mit der Autoindustrie im Wettbewerb um den größten Hersteller in Europa steht, „ein deutlich größerer Brocken ist“ als die Textilindustrie, mit Umsätzen von 1 Billion Dollar pro Jahr und verantwortlich für 1 Million direkter und 5 Millionen indirekter Arbeitsplätze.

Chemikalien sind als Zusätze „omnipräsent”, egal ob „in unseren Uhren, Deodorants, iPhones, Autos und Nike-Schuhen. Strategisch und ökonomisch sollte keine große Volkswirtschaft Hand an seine chemische Industrie legen“.

Etwa 32 der 60 Chemiewerke von Ineos befinden sich in Europa, aber deren Profite haben sich während der letzten drei Jahre halbiert, während sich die Profite der Gruppe in den USA verdreifacht haben. Die Situation wird noch verschärft durch zunehmenden Wettbewerb aus dem Nahen Osten und Asien.

Mr. Ratcliffe weist darauf hin, dass der größte Rivale von Ineos, nämlich BASF, im europäischen Markt mit etwa 200 Chemiewerken präsent ist und ebenfalls „zum ersten Mal jemals einen strategischen Rückschlag hinnehmen musste“.

Unter Verweis auf die Tatsache, dass in UK seit 2009 22 Chemiewerke geschlossen und keine neuen errichtet worden sind, sagt Mr. Ratcliffe über die europäische Misere: „Ich kann grüne Steuern sehen, ich kann kein Schiefergas sehen, ich kann die Schließung von Kernkraftwerken sehen, ich kann sehen, wie das produzierende Gewerbe davon getrieben wird. Es sieht nicht gut aus für Europa; wir sind Kaninchen, gefangen im Licht der Scheinwerfer, und wir haben unsere Hosen herunter gelassen“.

Full story (subscription required)

[Anmerkung des Übersetzers: In deutschen Zeitungen steht so etwas natürlich nicht!]

Link: http://www.thegwpf.org/europes-green-suicide-chemicals-industry-wiped-decade-ineos-boss-warns/

Übersetzt von Chris Frey EIKE




Das Schweigen der Klimaforscher

Seit siebzehn Jahren erwärmt sich weltweit das Klima nicht mehr. Das mögen die Schweizer nach einem milden Nichtwinter zwar kaum glauben. In Kairo aber fiel seit einem Jahrhundert erstmals wieder Schnee. In Amerika herrschte eine Rekordkälte. Und in der Antarktis hat sich das Eis so weit wie selten ausgedehnt. Vor allem zeigen die Messungen der ­Meteorologen: Seit 1997 ist die Durchschnittstemperatur kaum noch gestiegen – ­bei den Prognosemodellen der Klimaforscher kann also etwas nicht stimmen.

Mit diesem Problem kämpften auch die ­Wissenschaftler des Uno-Weltklimarates (IPCC). Unter dem Vorsitz des Berner Professors Thomas Stocker tagten sie im September 2013 eine Woche lang in Stockholm, um eine Zusammenfassung ihres umfangreichen Berichtes zum Klimawandel zuhanden der Politik abzusegnen. Bei allen Problemen und ­allem Disput fassten sie ihre Erkenntnisse aber in wenigen einfachen Merksätzen zusammen. Der wichtigste, der es weltweit in die Schlagzeilen brachte: Der Klimawandel sei unbestritten – und er sei mit 95-prozentiger (statt wie bisher nur mit 9o-prozentiger) Sicherheit von den Menschen verursacht.

«Eine relativ triviale Erkenntnis», höhnen jetzt der britische Klimaforscher Nicholas ­Lewis und der niederländische Wissenschaftsjournalist Marcel Crok. Das CO2 wirkt zweifelsfrei als Treibhausgas, weil es verhindert, dass die Erde alle Sonnenwärme wieder abstrahlt. Da die Menschen seit der industriellen Revolution viel Kohle, Öl und Gas verbrannt haben, stieg der CO2-Anteil in der Atmosphäre – von 280 auf 400 Teilchen pro Million. Das wirkt unbestritten erwärmend, umstritten aber bleibt: wie stark? Und wie gefährlich?

Um diese entscheidenden Fragen drückten sich die Klimaforscher in Stockholm, be­haupten Lewis und Crok in einem umfang­reichen Report, letzte Woche veröffentlicht vom britischen Think-Tank Global Warming Policy Foundation, dem namhafte Politiker und ­Wissenschaftler angehören. Ja, der Titel erhebt ­sogar einen schweren Vorwurf: «How the ­IPCC Buried Evidence Showing Good News About Global Warming». Das heisst: Die ­Wissenschaftler, die eigentlich nur den Forschungsstand beurteilen sollen, verschwiegen wichtige Erkenntnisse, weil diese ihren Katastrophenwarnungen widersprachen.

Die beiden Kritiker lassen sich nicht als «Klimaleugner» abtun. Nicholas Lewis arbeitete als freier Physiker und Mathematiker mit leitenden IPCC-Leuten zusammen an wegweisenden Studien. Und Marcel Crok überprüfte den aktuellen IPCC-Bericht im Auftrag der niederländischen Regierung. Das Vorwort stammt zudem von Professorin Judith Curry, einer führenden Atmosphärenphysikerin, die als Kritikerin der Klimaforscher in den letzten Wochen auch den US-Kongress beriet. Der ­Report erregte deshalb weltweit grosses Aufsehen, wenn auch nicht in den Medien, die ­immer noch mit Vorliebe vor Katastrophen warnen.

Weit geringere Temperaturwerte

Es geht um die zentrale Frage der Klimaforschung: Wie stark erwärmt sich das Klima, wenn sich der CO2-Anteil in der Atmosphäre verdoppelt? Die IPCC-Forscher nahmen bisher den wahrscheinlichsten Wert von 3 Grad Celsius an, ihr vierter Bericht von 2007 sprach von einer Bandbreite zwischen 2 und 4,5 Grad. In den letzten Jahren, betonen Lewis und Crok, seien aber mehrere Studien herausgekommen, die auf weit geringere Werte zwischen 1,5 und 2 Grad Celsius deuten. Mit den wahrscheinlichsten Annahmen, stellen die Autoren fest, «läge die Erwärmung selbst beim zweithöchsten Emissionsszenario des IPCC im Jahr 2100 noch beim internationalen Ziel von 2 Grad» – es gäbe also keinen Grund für Katastrophenwarnungen.

Diese gute Nachricht mochte das IPCC aber nicht vermelden, weil sie seine Szenarien in Frage stelle, behaupten die Kritiker. Die IPCC-Leute verschwiegen deshalb in ihrer Zusammenfassung für die Politiker die aktuellen Studien, verzichteten auf das Angeben des wahrscheinlichsten Werts und verbreiteten stattdessen die Botschaft, ­ihre Sicherheit sei trotz aller zunehmenden Unsicherheiten grösser denn je. Aufgrund der vorliegenden Studien hätte das IPCC den wahrscheinlichsten Wert auf 1,75 Grad senken müssen, schreiben Lewis und Crok: «Das wäre von den Weltmedien als eine der wichtigsten Erkenntnisse verbreitet worden, wenn nicht gar als die wichtigste – und dies zu Recht.»

«Papier ist geduldig», spottet Professor Thomas Stocker, von der Weltwoche um eine Stellungnahme gebeten. Er kritisiert, die ­Autoren hätten ihnen genehme Studien als Rosinen gepickt und ihren Report nicht im Peer-Review begutachten lassen: «Als politischer Entscheidungsträger möchte ich mich bei komplexen Fragen nicht auf einen von zwei Personen verfassten, nicht begutachteten Kurzbericht stützen müssen, der von einem Think-Tank publiziert wurde.»

Das ist allerdings nicht der Punkt. Denn ­Lewis und Crok machten nur, was eigentlich das IPCC tun müsste: die massgeblichen Studien sichten und die naheliegenden Schlüsse daraus ziehen. Die Lektüre ihres Reports sei Thomas Stocker empfohlen.

==================================================

Anmerkung EIKE-Redaktion:

Dieser Aufsatz ist zuerst erschienen in: Die WELTWOCHE Zürich, online-Ausgabe 11/2014 | Donnerstag, 13. März 2014 / http://www.weltwoche.ch

EIKE dankt dem Autor Markus Schär und der Redaktion der WELTWOCHE für die Genehmigung zum ungekürzten Nachdruck.