1

Baden-Würtemberg kann alles, außer Windkraft!

Auswertung Windstromerzeugung 2014

Die Auswertung der Anlagendaten ergibt zu Jahresbeginn 2014 einen Bestand von 396 Windrädern mit 675 MW Nennleistung. Im Mai 2014 wurde eine WKA mit 3 MW Nennleistung neu errichtet, so dass sich am Jahresende ein Bestand von 397 Windrädern mit 678 MW Gesamt-Nennleistung ergibt.

Alle WKA in Baden-Württemberg erzeugten 2014 insgesamt 699.564 MWh Strom. Das entspricht einer jahresdurchschnittlichen Windstromeinspeisung von 79,9 MW oder 11,8% Verfügbarkeit der installierten Gesamtkapazität von jahresdurchschnittlich 676,9 MW. Im Jahresverlauf ergaben sich somit 1033,8 Volllaststunden. Das ist zwar eine erheblich höhere Erzeugung gegenüber dem windschwachen Vorjahr (809,5 Vollaststunden), im Vergleich zum restlichen Bundesgebiet erzeugte ein Windrad in Baden-Württemberg aber nur wenig über zwei Drittel (1482,5 Stunden nach Fraunhofer, ISE) der Leistung, die die gleiche WKA im restlichen Bundesgebiet erzeugt hätte. 

Die monatliche Stromerzeugung varierte zwischen 27.179 MWh im September und 113.841 MWh im Dezember. Die Einspeiseleistung bewegte sich zwischen 0 MW (Windstille), was in jedem Monat vorkam, und 569 MW (= 83,9%), die am 11. Dezember 22:15 und 20. Dezember 17:45 erreicht wurden. Die Windeinspeisung verteilt sich im Detail wie folgt auf die einzelnen Monate: 

Tabelle 1: Installierte Windräder und Windstromerzeugung 2014

Soll Windstrom eine Versorgungsaufgabe in der Energiewirtschaft übernehmen, muss eine feste Einspeiseleistung, beispielsweise die jahresdurchschnittliche Einspeiseleistung von 79,9 MW für jeden Zeitpunkt des Jahres sichergestellt werden (Grundlast). Aktuell gleichen in Schwachwindzeiten konventionelle Kraftwerke fehlenden Windstrom aus. Herrscht umgekehrt ein Überangebot an Windstrom, muss dieser an der Strombörse in Leipzig europaweit veräußert werden.

Die als eigentliches Ziel der Energiewende formulierte Einsparung von CO2 kann aber nur möglich werden, wenn die Glättung des schwankenden Windstroms an den Bedarf nicht mehr durch fossile Kraftwerke sondern durch Speicherung überschüssigen Stroms erfolgt. Die einzige derzeit für Großanlagen verfügbare Technologie sind Pumpspeicherwerke. Aufgrund ihres großen Platzbedarfs sowie der hohen Herstellungskosten und gravierenden Natureingriffe sind sie aber ungeeignet und neue Speichertechniken für großtechnischen Einsatz werden gesucht. Ob und wann solche Stromspeicher in der erforderlichen Menge verfügbar sein könnten, ist derzeit nicht abzusehen.

Um den Speicherbedarf zum Ausgleich der Schwankungen des Windstroms zu bestimmen, müssen ständig Einspeisung und gewünschte gesicherte Versorgung verglichen und die Abweichungen addiert werden. Der monatlich saldierte Wert ist in der Tabelle als ‘Kumulierter Speicherbedarf’ und als Graph in Diagramm 2 widergegeben. Der größte Füllstand des Speichers ergab sich nach dem windreichen Frühjahr am 14. Mai 19:30 mit 52.069 MWh, das größte Defizit bestand nach dem windschwachen Herbst am 10. Dezember um 6:00 mit -68482 MWh. Um eine autarke Windstromversorgung sicherzustellen, wäre in 2014 also ein Stromspeicher mit einer Kapazität von 120.551 MWh Kapazität erforderlich gewesen. das sind 17,2% der gesamten Windstromerzeugung.

Windstromeinspeisung 2014

Diagramm 1: Windstromeinspeisung (rot) und installierte Nennleistung (grün) im Verlauf 2014

Kumulierter Speicherbedarf Windstrom 2014

Diagramm 2: Speicherbedarf zur Sicherung der mittleren Jahreseinspeiseleistung 79,9 MW

Betriebsstunden nach Windstromleistung

Da Stromspeicher in der notwendigen Größe auf unabsehbare Zeit nicht verfügbar sein werden, ist in Tabelle 2 die Anzahl der Betriebsstunden zusammengestellt, in denen Windstrom bestimmte Quoten der installierten Kapazität erreicht. Hier ist zu ersehen, dass konventionelle Kraftwerke auch weiterhin die meiste Zeit des Jahres fehlenden Windstrom ausgleichen müssen. 

339,75 Stunden (= 14,2 Tage = 3,9%) waren windstill (0 MW), es wurde kein Windstrom erzeugt.

1403,50 Stunden (= 58,5 Tage = 16,0%) blieb die Einspeiseleistung unter 7 MW (1%).

3614 Stunden (= 5 Monate = 41,3%) blieb die Erzeugung unter 5% und

5308 Stunden (= 7,4 Monate = 60,6%) blieb Windstrom unterhalb 10% der Nennleistung.

An nur 294,3 Stunden (3,4%) übertrafen die Windräder in BaWü 50% der installierten Leistung:

Tabelle 2: Betriebsstunden der verschiedenenen Windstromeinspeisungsleistungen 2014

Diagramm 3:Betriebsstunden der verschiedenenen Windstromeinspeisungsleistungen 2014

Abschließende Betrachtungen

In Diagramm 1 fällt auf, dass mit Ausnahme des September und November in jedem Monat mehrtägige Zeiten mit besonders starker Windstromerzeugung sich mit mehrtägigen Phasen sehr geringer Windstromausbeute abwechseln. Besonders ausgeprägt sind diese Gegensätze im April, Oktober und vor allem im Dezember 2014. Hier wird nach zunächst 10 Tagen weitgehender Flaute in knapp 3 Wochen ein in über 3 Monaten seit Anfang September aufgebautes Windstromdefizit wieder abgebaut. Diese Zeiten mit stark abweichender Windstromerzeugung vom Jahresdurchschnitt sind auch deutlich an großen Änderungen der Speicherbedarfskurve in Diagramm 2 zu erkennen.

Diagramm 2 liefert aus der Differenz zwischen dem größten Stromspeicherdefizit und -überschuss den Gesamtspeicherbedarf, der erforderlich wäre, damit die Windkraftanlagen Baden-Württembergs gesicherte 79,9 MW Stromerzeugungsleistung bereitstellen könnten. Im Januar, Februar, März, Mai und Dezember lag die monatliche Windstromproduktion teils erheblich über dem Jahresmittel; im April und von Juni bis November lag sie durchgängig darunter. Infolge solcher langandauernden Abweichungen der Monatsproduktion vom Mittel ergab sich für 2014 ein Stromspeicherbedarf von 120.551 MWh, was über 1/6 der gesamten Windstromerzeugung des Jahres entspricht.

Diagramm 3 zeigt die windstrom-typische Leistungs-Zeit-Verteilung. Es fällt auf, dass Windkraft die überwiegende Zeit des Jahres nur sehr geringe Leistungen erzeugte. Über 60% der Zeit lag die Einspeisung unter 10% der Nennleistung und nur 3,4% der Zeit übertraf sie die halbe Nennleistung. Die meist schwache Windstromerzeugung wird auch daran deutlich, dass die jahresdurchschnittliche Einspeiseleistung von 79,9 MW nur 11,8% der insgesamt installierten Nennleistung der Winddräder entspricht. Das ist gleichbedeutend mit 1033,8 Volllaststunden, mit denen die Windstromausbeute in Baden-Württemberg 2014 zwar erheblich über dem windschwächeren Vorjahr mit 809,5 Volllaststunden lag, sie blieb aber weit unter dem Durchschnitt von 1482,5 Volllaststunden (16,9%) für alle Windkraftanlagen in Deutschland (nach Fraunhofer Institut ISE, www.ise.fraunhofer.de).

Um Windstrommangel mit den Überschusszeiten zu bedarfsgerechter Stromerzeugung zu glätten, werden Stromspeicher benötigt, die nach Abzug der Wirkungsgradverluste 120 GWh Kapazität bereitstellen. Das ist eine Strommenge, die der 12fachen Kapazität des Schluchsee-Kraftwerks (10.000 MWh) oder der 600fachen Kapazität der Schwarzenbach-Talsperre (200 MWh) entspricht.

Pumpspeicher

Um bei 80% Wirkungsgrad moderner Pumpspeicherwerke die jahresdurchschnitttliche Windleistung zu sichern, muss die Windleistung um 10% erhöht werden. Dies erfordert den Bau weiterer rund 30 Windräder mit 67,7 MW Leistung für 135 Millionen Euro, die die Speicherverluste ausgleichen. Für den überschüssigen Windstrom müssen dann noch 10 PSW von der Größe des geplanten PSW Atdorf (Kapazität 13 GWh, 1,6 Milliarden Euro, www.schluchseewerk.de/index.php/projekt-atdorf) also Gesamtkosten von rund 16,1 Milliarden Euro aufgewendet werden. Das ist der fast 12fache zusätzliche Investitionsaufwand, den der Bau der Windräder selbst erfordert hat. Die bedarfsgerechte Glättung des für sich alleine nicht netztauglichen Windstroms mit Pumpspeicherwerken würde diesen also auf das 13fache verteuern!

Li-Akkumulatoren

Soll die Glättung mit verlustfrei angenommenen Akku-Speichern wie der kürzlich vorgestellten ‘Ökostrombatterie’ in Schwerin (25.000 Li-Ion-Akkus, 5 MWh Kapazität, 6 Millionen Euro, www.wemag.com) erfolgen, wären 24.110 solcher Anlagen mit Gesamtkosten von 144,7 Milliarden Euro erforderlich! Die extremen Kosten dieser Anlagen spiegeln die von Akkumulatoren bekannte geringe Energie-Effizienz wider. Ein Kommentar über die Sinnhaftigkeit solcher Speicher, die die Windstromkosten also auf das über 100fache steigern würden, erübrigt sich. Überlegungen zur Plausibilität hätte man auch im Bundeswirtschaftsministerium anstellen können, bevor man eine derart energie-ineffiziente und sinnlose Anlage mit 1,3 Millionen Euro Steuergeld subventionierte.

Windgas:

In jüngerer Vergangenheit wird zur Stromspeicherung ein ‘Windgas’ oder ‘Power-to-Gas’ genanntes Verfahren vorgeschlagen. Überschüssiger Windstrom soll durch Elektrolyse in synthetisches Methan gewandelt werden, das im Erdgasnetz zwischengespeichert und bei Windstrommangel in Gas- Kraftwerken rückverstromt werden kann. Es ist jedoch zu beachten, dass bei dem gesamten Prozess selbst unter idealen Bedingungen prinzipiell nur ein Wirkungsgrad von 33% erreicht werden kann. Um die jahresdurchschnittliche Windstromleistung von 79,9 MW zu sichern, müsste deshalb zunächst die Windstrom-Nennleistung um weitere 338,5 MW vereineinhalbfacht werden, was eine Investition von knapp 0,7 Milliarden Euro erfordern würde. Der Bedarf an Anlagen zur P2G-Synthetisierung ergibt sich dann aus der Differenz zwischen der zu sichernden Grundleistung (79,9 MW) und der größten Windstromeinspeisung (569 MW x 1,5) zu 774 MW. E.ON betreibt im brandenburgischen Falkenhagen eine P2G-Pilotanlage (www.powertogas.info). Der Betreiber schätzt, dass bei großtechnischer Umsetzung solche Anlagen mit 2,5 Millionen Euro je MW realisierbar wären. Das würde weitere 2 Milliarden Euro Investition für die Windgaserzeugung erfordern. Da man für die Speicherung auf die bestehende Infrastruktur des Erdgasnetzes zurückgreifen kann und nur wenige Erdgas-Speicher neu errichten müsste, scheint mit den zusätzlichen noch zu installierenden Gas-Kraftwerken mit 79,9 MW Leistung ein gesamtes Investitionsvolumen möglich, das unter idealen Voraussetzungen eine Vervierfachung der Windstromkosten bedeutete. Damit könnte Windgas großtechnisch tatsächlich die günstigste Stromspeichertechnik werden, dennoch sind solche Kosten auf unabsehbare Zeit wirtschaftlich nicht zu bewältigen und belegen, dass auch dieses Verfahren energie-ineffizient ist, denn hohe Kosten sind immer eine Folge geringer Effizienz. 

Windstrom kann aus diesem Grund auf unabsehbare Zeit keinen Beitrag zum Ersatz konventioneller Kraftwerke leisten. Diese bleiben unverzichtbar – laufen durch die stark schwankende Einspeisung von Windstrom aber zunehmend unwirtschaftlicher, so dass der Aufbau der doppelten (Wind-)Strominfrastruktur tatsächlich nur große Mengen an Ressourcen und Energie vernichtet.

Wie unwirtschaftlich und folglich energie-ineffizient Windstrom tatsächlich ist, wird deutlich, wenn man den enormen Investitions-Aufwand für Windkraftanlagen und ihren riesigen Flächenverbrauch mit dem neuen hochmodernen Block 8 des Karlsruher Steinkohlekraftwerks vergleicht. Diese Anlage benötigt weniger als 100 Hektar Anlagen-Fläche und ist direkt im Ballungsgebiet gelegen, wo das Gros der Energie gebraucht wird. Das Kraftwerk wurde für 1,2 Milliarden Euro errichtet, was in etwa auch der Investition für die 397 Windräder (676,9 MW, 1033,8 Volllaststunden in 2014) Baden-Württembergs entspricht. Das RDK8 verfügt über 912 MW Strom- und 220 MW Fernwärme-Erzeugung und kann in über 8000 Volllaststunden mehr als 9.000.000 MWh Strom und Fernwärme im Jahr erzeugen. Es liefert damit die über 13fache Energiemenge, die die 397 Windräder Baden-Württembergs im Jahr 2014 erzeugt haben.

Um die Jahresenergiemenge des RDK8 mit Wind herzustellen, müsste man bei äußerst optimistischer Annahme von 2000 Volllaststunden 1875 Windräder ‘Modell Straubenhardt’ (2,4 MW, 5 Mill. Euro) errichten. Das würde mit 9,3 Milliarden Euro den fast 8fachen Investitionsaufwand und einen Flächenbedarf von 187.500 Hektar Wald mit 37,5 Millionen zu fällenden Bäumen bedeuten!

Strom und Fernwärme aus dem RDK8 werden planbar und bedarfsgerecht erzeugt. Damit auch Windstrom versorgungssicher wird, brauchen Windräder Kohle- oder Gaskraftwerke zum Ausgleich.  Die Kraftwerke aber laufen als Lückenbüßer in verschwenderischem Stotterbetrieb. Windkraft erspart deshalb weder konventionelle Kraftwerke noch deren Brennstoff! Dies ließe sich erst vermeiden, wenn Strom-Speicherung zum Einsatz käme. Bei Windgas müsste dann die Zahl der Windräder wegen der Wandlungsverluste auf 2813 WKA ausgebaut werden. Insgesamt vervierfachten sich die Kosten der Windstrom-Investition so auf 37 Milliarden Euro. Trotz des kaum noch zu bewältigenden Flächenbedarfs von 2813 Windrädern auf die 36.000 km2 Landesfläche, also eine gleichmäßige Bedeckung des Landes mit 200m hohen Windrädern im Abstand von je 3,5 km, wäre damit erst 1/5 des Strombedarfs von 45 TWh von Baden-Württemberg gedeckt. Die gleiche Versorgungsleistung erbringt alleine das 1,2 Milliarden Euro billige RDK8.

Anmerkung:Hier finden Sie das Datenmaterial für eine mögliche Überprüfung durch Zweifler oder für weitergehende Auswertungen auf der Webseite der BI unter http://www.gegenwind-straubenhardt.de/Auswertung%20Wind%20BW%202014%20Daten.pdf

Related Files




Und ewig droht der Weltuntergang

Doch «Snowmageddon» traf nicht ein. Statt von einem Blizzard wurde New York von einem normalen winterlichen Schneegestöber überrascht. Die Kinder freuten sich, die Meteorologen entschuldigten sich für den Fehlalarm und am nächsten Tag pulsierte die Stadt wieder in ihrer gewohnten Hektik.

Amerikaner und speziell New Yorker neigen nicht dazu, zurückzuschauen. Aber vielleicht erinnerte sich doch der eine oder andere daran, was führende Klimawissenschaftler einige Jahre zuvor prophezeit hatten. Gemäss ihnen hätte es Wetterereignisse wie «Juno» oder auch harmlosere Schneevorkommen gar nicht mehr geben dürfen.

Anfang 2000 meinte etwa der englische Klimatologe David Viner, dass «in wenigen Jahren Schneefall in Grossbritannien ein ‹sehr seltenes und aufregendes Ereignis›», ja, «eine Sache der Vergangenheit» sein werde. «Kinder werden nicht mehr wissen, was Schnee ist.» Viner war damals Forscher an der East Anglia University, akademische Hochburg jener einflussreichen Kreise, die vor einer aufziehenden katastrophalen Klimaerwärmung warnen, angeblich verursacht durch den CO2-Ausstoss der industriellen menschlichen Zivilisation. Seine Prognose wurde vom Weltklimarat der Vereinten Nationen (IPCC), dem globalen Politbüro zur Verhinderung der Ökokalypse, mehrfach geteilt.

Schottlands Skilifte konnten im Januar 2013 zwar nicht in Betrieb genommen werden, aber eben nicht, weil es keinen Schnee mehr gab, sondern weil es zu fest geschneit hatte. Sowohl Grossbritannien als auch der Rest der Welt erlebten weiterhin strenge, kalte oder auch mildere Winter – so wie seit Menschengedenken.

Doch auch alle anderen Desasterprognosen erwiesen sich als falsch. Die Eiskappe der nördlichen Arktis löste sich auch in den Sommermonaten nie in Wasser auf und die gewaltigen Eismassen der Antarktis wuchsen zur Freude der Pinguine in den letzten Jahren gar prächtig. Zudem tauchte kein einziger ­«Klimaflüchtling» etwa aus Ozeanien oder der Karibik auf. Dabei hatte das Umweltprogramm der UNO 2005 von Millionen von Vertriebenen geschrieben, deren Inseln bis 2010 in den steigenden Ozeanen absaufen oder von vermehrt auftretenden Tornados verwüstet würden.

Vor allem aber findet seit 18 Jahren keine Klimaerwärmung mehr statt. Dies entgegen sämtlichen Berechnungen aller 73 Klimamodelle des Klimarates. Vom ideologisierten und politisierten UNO-Organ war bis heute allerdings kein Wort über das eigene Versagen zu vernehmen. Umso mehr wäre die unabhängige Skepsis der Medien gefordert. Der Stoff ist faszinierend. Er handelt von einem länderübergreifenden Klimagremium, das wie ein düsterer Katastrophenkult agiert; von Wissenschaftlern, die sich in Schamanen verwandeln; vom riskanten Spiel grüner Lobbyisten mit der archaischen Angst vor der Apokalypse. Doch die meisten Medien weichen dem Thema aus. Sie vermeiden es, sich gegen dem rotgrün beherrschten Zeitgeist und dessen Profiteure in Politik, Akademie und Wirtschaft zu stellen.

Sowohl Grossbritannien als auch der Rest der Welt erlebten weiterhin strenge, kalte oder auch mildere Winter.

Übernommen von ACHGUT hier 




Die Ethik der Energiewende stellt 50 Jahre zuverlässiger Stromversorgung Deutschlands auf den Prüfstand

Eine sofortige Rückkehr zum Statu quo ante durch Entfall des Einspeisevorrangs für Wind- und Solarstrom in einem freien Strommarkt ohne Sondersteuern hätte gravierende wirtschaftliche und politische Verwerfungen zur Folge. Mit an Sicherheit grenzender Wahrscheinlichkeit werden die handelnden Politiker den Status quo der Energiewende 2015 ausbessern, einfrieren und die Probleme in bewährter Manier aussitzen. Am Ende wird es nur Verlierer geben, das vermutet der Autor.

1. Die Einstimmung

Im Jahr 1960 waren 73 Millionen Deutsche mit 2,4% Teil einer Weltbevölkerung von 3 Milliarden Menschen. Im Jahr 2010 war ihre Zahl auf 81 Millionen angestiegen und ihr Anteil an nun 7 Milliarden Menschen auf der Welt hatte sich auf 1,2 % halbiert.

Der jährliche Stromverbrauch der Deutschen stieg Im gleichen Zeitraum von knapp 300 TWh1 auf über 600 TWh an. Der Strombedarf pendelt seit einigen Jahren um diese 600 TWh.

Energieintensive Industrie meidet das Land inzwischen und über die zukünftige Entwicklung der Größe der Bevölkerung wird gestritten. Gegenläufig zum Sinken der Geburtenrate existiert jedoch unverändert ein erhebliches Interesse an Einwanderung. 

Seit dem Ende des zweiten Weltkrieges besorgte zunächst deutsche Steinkohle die Stromversorgung des Landes. Eine viertel Million Arbeitskräfte förderten in Deutschland  „unter Tage“ Steinkohle. 

Braunkohle aus dem „Tagebau“ kam nach der Entwicklung eines für ihre Nutzung erforderlichen speziellen Dampfkessels hinzu, Ihre erheblich geringeren Gewinnungskosten zusammen mit einem Verfall der Preise sowohl für Erdöl als auch für importierte Steinkohle machten deutsche Steinkohle in den 60 er Jahren des vorigen Jahrhunderts hoffnungslos unwirtschaftlich.

Der Strombedarf stieg zu dieser Zeit in den Industrieländern und auch  in Deutschland jährlich um etwa 7%. Seine geographische Lage stellte insbesondere an die Versorgung Süddeutschlands mit Strom besondere Anforderungen.

Politiker und Energieversorger erarbeiteten einvernehmlich eine Lösung des Problems: 

Die Steinkohleförderung soll grundsätzlich sozialverträglich und hinreichend langsam ersetzt werden. Die Mehrkosten bis zum endgültigen Ausstieg aus ihrer Nutzung, der leider auch in 2014 nicht vollständig abgeschlossen wurde, trägt der Steuerzahler.  Die seinerzeit nicht einmal annähernd erahnten Gesamtkosten haben sich inzwischen über regelmäßige Neuverschuldung auf etwa 1 Billion Euro in den Staatsschulden Deutschlands akkumuliert. Ein nachhaltig niedriger Ölpreis schien unwahrscheinlich und schied daher als Alternative aus. Neben der Importkohle kam Kernenergie ins Blickfeld. Mit dem Einsatz von Kernenergie konnte auf den  kostspieligen Energietransport nach Süddeutschland über Stromleitungen verzichtet werden.

Dieses Konzept wurde erfolgreich umgesetzt. Eine sichere, zuverlässige und durch umfassende Abgasreinigung umweltfreundliche Stromversorgung lieferte noch im Jahr 2000 Haushaltstrom zum Preis von 12 Cent/kWh für Tagstrom und etwa 8 Cent/kWh für Nachtstrom an Haushalte und andere Kleinverbraucher. Die Strompreise für industrielle Großverbraucher lagen deutlich darunter.

Erst nach 2000 wurde das lebenswichtige Kohlenstoffdioxid mit der Energiewende in der Stromversorgung Deutschlands signifikant wirksam. Noch im Lande ansässige stromintensive Industrie muss inzwischen durch Subvention gestützt werden. Der Preis für den Haushaltsstrom ist auf 28 Cent/kWh angestiegen. Die für eine zuverlässige Stromersorgung erforderlichen Kapazitätsreserven zuverlässiger Kraftwerke sind geschrumpft, verdrängter Strom  führt in die Verlustzone.

2. Die Energiewende soll „den“ anthropogenen Klimawandel stoppen

Im Jahr 1988 gründen dazu das „United Nations Environment Program“ und die „World Meteorological  Organization“ das „Intergovernmental Panel on Climate Change“, das  IPCC [1]. oder auch Weltklimarat genannt:

 „Es drohe ein gefährliche Erwärmung, ein Klimawandel [2], wenn die Nutzung fossiler Brennstoffe nicht unverzüglich drastisch reduziert, wenn nicht gar völlig eingestellt würde.“

Einer Hinterfragung zur Sache selbst vorangestellt wird folgend zunächst geprüft, ob ein solche drastische Forderung überhaupt global umsetzbar sein könnte und welchen Beitrag die Stromversorgung Deutschlands dazu leisten kann:

Im Jahr 1970 wurden mit Hilfe fossiler Bennstoffe global 5.500 TWh elektrischen Stroms erzeugt.  Diese Strommenge ist bis zum Jahr 2011 auf 14.000 TWh  angestiegen. Das ist ein Anteil von 64%  am Gesamtverbrauch von etwa 22.000 TWh. Die Differenz zum Gesamtverbrauch glichen Wasserkraft mit 14%, Kernenergie mit 9 %, Windkraft und Solarenergie zusammen mit 9 % ergänzt durch einen Beitrag der Biomasse von gut 4% aus. .

Sowohl die Industrialisierung als auch das Wachstum der Weltbevölkerung schreiten fort. Für eine Abschwächung  im Trend der ständig weiter ansteigenden Nutzung fossiler Brennstoffe zur Stromerzeugung ist weder eine realistische Möglichkeit noch ein Indiz  zu erkennen. Auf einer Vielzahl internationaler Konferenzen, einberufen zur Umsetzung der Empfehlung des IPCC , wird folgerichtig de facto lediglich leeres Stroh gedroschen.

Im Jahr 1970 wurden in Deutschland 300 TWh Strom erzeugt. Fossile Brennstoffe waren daran mit etwa 270 TWh beteiligt. Ab 2000 ansteigend verdrängen im Jahr 2014  fluktuierender Wind- und Solarstrom  72,5 TWh, etwa 12% einer jährlich um 600 TWh schwankenden Gesamtmenge. Das reduziert den Beitrag der mit fossilem Brennstoff betriebenen Kraftwerke um 18%. 

Wind und Sonne fallen für Zeiträume bis zu zwei Wochen nahezu komplett aus. Zusätzliche Stromspeicher, die solche Zeiträume überbrücken könnten, sind technisch, wirtschaftlich und ökologisch eine Utopie [3]. Zum Erhalt der Stromersorgung kann daher auf keines der anderen Kraftwerke im Netz verzichtet werden. Selbst eine weitere marginale Steigerung des Beitrages von Wind und Sonne zur Stromerzeugung muss daher eine Illusion bleiben.

Im Zeitraum vom Jahr 2000 bis zum Jahr 2011 hat Kernenergie in Deutschland jährlich mit mindestens 180 TWh, d. h. mit 30%, zur Stromerzeugung beigetragen. Der nach 2011 verbliebene Beitrag von etwa 20% muss in den kommenden Jahren als Folge der gesetzlich fixierten Abschaltung der Kernkraftwerke ersetzt werden. Das können Windkraft, Solarenergie aus den genannten Gründen nicht leisten. Nur eine verstärkte Nutzung fossiler Brennstoffe in zusätzlichen neuen Kraftwerken und Stromtrassen könnte daher die fehlenden Kernkraftwerke ersetzen. Zum Schwerpunkt dieser Aufgabe wird erneut die Stromversorgung Süddeutschlands.  

Die Umsetzung der Energiewende bis zur Abschaltung des letzten Kernkraftwerkes würde aus den genannten Gründen im Vergleich zum Jahr 2010 einen Anstieg des Beitrages fossiler Brennstoffe zur Stromerzeugung um etwa 100 TWh, das sind mehr  als 15%  des gesamten Strombedarfes, erzwingen. 

Fazit:

Die deutsche Energiewende kann die CO2 Freisetzung nicht reduzieren, sondern bewirkt ihre Zunahme. Auch  ein erhoffter Ersatz fossiler Brennstoffe durch Strom in anderen Teilen der Energieversorgung ändert daran nichts.  Darüber hinaus muss entweder der Strompreis weiter signifikant über 28 Cent/kWh hinaus ansteigen, oder Insolvenzen der Betreiber von Kraftwerken, die fossile Brennstoffe zur Stromerzeugung nutzen, beenden eine zuverlässige Stromerversorgung in Deutschland.

3. Ist der Klimawandel Angstobjekt [4] oder Realität [5]?

Für den Fall, dass ein „anthropogener Treibhauseffekt“ tatsächlich existieren sollte,  reduziert sich das Problem Klimawandel auf die Frage ob und in wieweit seine Wirkung als Komponente der stets erforderlichen Anpassung an die natürlichen Klimaänderungen berücksichtigt werden könnte. Die behauptete Existenz eines solchen Effektes wird allein gestützt durch grundsätzlich fragwürdige Modellrechnungen [6]. Natürliche Klimaänderungen können allerdings nicht vorhergesagt, sondern lediglich in der Geschichte der Klimate dokumentiert werden:

Assimilation der Flora hat den CO2 Gehalt der Luft von ursprünglich mindestens 25% auf gegenwärtig 0,04% reduziert, das inzwischen fehlende CO2 in Sauerstoff, Kohle, Erdöl und Erdgas gewandelt und dazu noch Eisenerzvorkommen entstehen lassen 

Während des Zeitraums von 12.000 Jahren nach dem Ende der letzten Eiszeit stiegen die Meeresspiegel jährlich im Mittel um 10 mm an. Dieser Anstieg hat sich seit einigen tausend Jahren auf gegenwärtig 1 – 2 mm/Jahr verringert.

Im Verlauf der letzten 150 Jahre ist eine mittlere Temperatur über der Erdkruste um etwa 0,7 ℃ angestiegen, seit 18 Jahren ändert sich dieser Zahlenwert nicht mehr.

Man muss  sehr stark im Glauben sein, um sich von den Modellrechnungen, die das IPCC als angeblichen Beweis eines anthropogenen Einflusses auf den natürlichen Klimawandel anbietet, ängstigen zu lassen.

4. Aufstieg und Fall der Kernenergie in Deutschland

Das „Atom for Peace“ Programm der USA und der wachsende Strombedarf lösten in Deutschland um 1960 einem fast „revolutionären“ Einstieg in die wirtschaftliche Nutzung der Kernenergie aus. Forschung und Lieferindustrie erreichten 20 Jahre später einen globalen Spitzenplatz. Bis zum Jahr 2011 hatten 17 große Kernkraftwerke fast ein Drittel einer Stromversorgung übernommen, die insgesamt sicher, zuverlässig, umweltfreundlich und preiswert funktionierte. 

Parallel dazu eskalierte (eifrig geschürt) menschliche Angst vor allem Neuen auch gegen Kernenergie. Widerstand organisierte  sich, politisches und kommerzielles Interesse half dabei nach Kräften. Ein erwarteter Zuwachs des Strombedarfes von jährlich bis zu 7% setzte sich nicht fort, so dass – bedingt durch eine Vorlaufzeit von etwa 10 Jahren zwischen der Entscheidung zum Bau eines Kraftwerkes bis zu seiner Inbetriebnahme – zwangsläufig eine Überkapazität entstehen musste.

So wurde es möglich und politisch opportun, den Aufstieg der Kernenergie zu beenden und den Ausstieg einzuleiten. Die Forschung wurde eingestellt. Restlaufzeiten der Kernkraftwerke wurden gesetzlich festgeschrieben. Das alles geschah, obwohl deutsche Kernkraftwerke – nach wie vor – als die sichersten der Welt gelten. Die Lieferindustrie hatte keine Wahl, eine Aufgabe des Geschäftszweiges Kernenergie war unter diesen Umständen unvermeidbar. – Die Wartung deutscher Kernkraftwerke blieb durch potente ausländische Industrie gesichert.

Als die Laufzeiten der Kernkraftwerke verlängert wurden, schien es, als sei die globale Vernunft im Begriff, nach Deutschland zurückzukehren. Doch eine Naturkatastrophe in Fukushima, Japan, im März 2011 zerstörte auch solchen Hoffnungsschimmer:

Obwohl die zuständige Reaktorsicherheitskommission im japanischen Reaktorunfall  keine Relevanz für Deutschland erkennen konnte, wurden in einer Panikreaktion 8 der 17 Kernkraftwerke abgeschaltet. Japan setzt dagegen die Nutzung der Kernenergie fort. Dieser Alleingang Deutschlands war damals und ist auch heute rational nicht zu begründen. Helfen mussten daher Fachfremde, die „endlich herausfanden“, dass Kernenergie in Deutschland nicht mit der Ethik vereinbar sei, Zitat: 

Der Ausstieg ist nötig und wird empfohlen, um Risiken, die von der Kernkraft in Deutschland ausgehen, in Zukunft auszuschließen. Es ist möglich, weil es risikoärmere Alternativen gibt. Der Ausstieg soll so gestaltet werden, dass die Wettbewerbsfähigkeit der Industrie und des Wirtschaftsstandortes nicht gefährdet wird. Durch Wissenschaft und Forschung, technologische Entwicklungen sowie die unternehmerische Initiative zur Entwicklung neuer Geschäftsmodelle einer nachhaltigen Wirtschaft verfügt Deutschland über Alternativen: Stromerzeugung aus Wind, Sonne, Wasser, Geothermie, Biomasse, die effizientere Nutzung gesteigerte Produktivität von Energie sowie klimagerecht eingesetzte fossile Energieträger. Auch veränderte Lebensstile der Menschen helfen Energie einzusparen, wenn diese die Natur respektieren und als Grundlage der Schöpfung erhalten.“

Dazu nur folgende Anmerkung: Wenn künftig Ethiker exklusiv und unbelastet von jeder Fachkunde die Bewertung der Risiken des Lebens vornehmen und über ihre Akzeptanz entscheiden sollen, läuft gegenwärtig fast nichts richtig in Deutschland.  

Zur Erinnerung: Der Reaktorunfall in Fukushima als Folge einer Naturkatastrophe hat zum Glück nicht einmal die Gesundheit eines einzigen Menschen in Gefahr gebracht!

6. Die Suche nach den Schuldigen

Die Suche nach den Schuldigen, das Aufspüren der Täter und selbst ihre Bestrafung können entstandenen und fortschreitenden Schaden niemals beseitigen. An der Energiewende haben sehr viele gewerkelt:

Das IPCC, die Leichtgläubigen,  die Scharlatane, die Opportunisten in Politik, Wirtschaft und in vielen Bereichen des gesellschaftlichen Lebens. Ohne Wertung der jeweiligen Beteiligung folgend einige Beispiele:

Wer keinen Markt für Gas-, Kohle-, oder Kernkraftwerke hat, liefert gern Windmühlen als Ersatz, hinter denen Andere ein versprochenes, durch Verbraucher (zwangs-) subventioniertes Geschäft wittern.

Ein Elektriker, der zu wenige Neubauten findet, installiert mit Fleiß Solarzellen auf Dächern, unter denen Menschen leben, die eine zuverlässig fließende Nebeneinnahme erwarten.

Grüne Politiker erkennen die Möglichkeit, Wählerstimmen zu sammeln, SPD Politiker können das nicht überhand nehmen lassen und steigen ein, CDU/CSU Nachläufer nutzen eine günstige Gelegenheit um auch einen Platz auf der Lokomotive des „Wählerzuges“ zu besetzen. 

Die öffentlich rechtlichen Sendeanstalten folgen ihrem (Rundfunk) Rat, der doch völlig neutral von allen Parteien besetzt wird und „verkünden zuverlässig Energiewende“:

Die Presse ist eine kommerzielle Veranstaltung, die sowohl von hilfreicher Information, als auch von Werbung lebt. Warum also Streit suchen?

Diese unvollständige Liste ergänzt eine gläubige Mehrheit der „Klimawandel Gläubigen“, die inzwischen sogar die Kindertagestätten erreicht hat. 

Es melden sich seit vielen Jahren auch einige Menschen zu Wort, die vorgeben Fachleute zu sein. Sie nörgeln, nörgeln und nörgeln noch einmal, – Das kann und darf doch Niemanden davon abhalten, die „Kuh Energiewende“ aufs Eis zu treiben. Das Eis ist inzwischen leider so dünn geworden, dass die Kuh – für alle sichtbar -einbrechen und ertrinken könnte.

7. Die „Energiewende“ ist trotz gegenteiliger Fakten und Argumente inzwischen stabil:

Es ist die normative Macht des Faktischen die zuverlässig schnelle und signifikante Änderungen des Status quo ausschließt.

Der Ratio konstatiert:   

Für den Fall, dass der feste Glaube an den Klimawandel erschüttert werden könnte, würde eine sofortige Rückkehr zum „Status quo ante“ die sichere, zuverlässige, umweltfreundliche und preisgünstige Stromversorgung wieder herstellen. 

Dann müssten jedoch (im Wesentlichen):

deutsche Politiker zugeben, dass sie (vorsätzlich oder fahrlässig) teils Scharlatanen auf den Leim gegangen sind, teils den Rat von Fachleuten missachtet haben, teils nur ihre Wiederwahl betrieben haben.

Das Vertrauen in die parlamentarische Demokratie wäre (zu Unrecht) erschüttert, das Vertrauen in die handelnden Personen (zu Recht) ebenfalls. Ihre Wiederwahl würde zur Illusion. – Beimischung direkter Demokratie bekäme endlich auch in Deutschland eine Chance.

– alle Subventionen und Sonderrechte für Stromlieferung ersatzlos entfallen.

Wind- und Solarstrom sind dann an einer Strombörse weitgehend unverkäuflich, die Investition daher im Handel wertlos, die Eigennutzung  wird sogar spezifisch teurer, wenn eine Netzanbindung nötig wird.

– alle Kraftwerke (auch die abgeschalteten 8 Kernkraftwerke) wieder eine uneingeschränkte Betriebserlaubnis erhalten, solange sie ihre Eignung für den Betrieb (wie auch in der Vergangenheit stets erforderlich) nachweisen.

Die Betreiber der zur Versorgung unverzichtbaren Kraftwerke würden die Verlustzone verlassen. Die Investition in Kraftwerke würde wieder kalkulierbar und die Stromerzeugung selbst wieder optimierbar. Der Preis für Haushaltsstrom würde sich etwa halbieren.

Es ist in der Geschichte allerdings weitgehend unbekannt, dass auf Macht freiwillig verzichtet wird. Vielleicht war Gorbatschow unter dem Druck der Fakten eine solche Ausnahmeerscheinung. Im vorliegenden Fall bilden die Politiker aller zu beachtenden deutschen Parteien eine Phalanx, deren Verhalten z. B. mit dem einer Elefantenherde verglichen werden kann. „Man ist gemeinsam so stark, dass die Möglichkeit einer freiwilligen Richtungsänderung ausgeschlossen werden muss.“           

Literatur

[1]. Die Aktivitäten des IPCC:

http://www.ipcc.ch/activities/activities.shtml

[2] IPCC Fifth Assessment report

http://www.ipcc.ch/report/ar5/

[3] Kernenergie, Windkraft und Pumpspeicher

https://de.scribd.com/doc/129978934/Kernenergie-Windkraft-und-Pumpspeicher-docx

[4] Angst auf Objektsuche wählt Klimawandel und Energiewende

http://de.scribd.com/doc/190496647/Angst-auf-Objektsuche-wahlt-Klimawandel-und-Energiewende

[5] Klimaänderung, ein Buch mit sieben Siegeln

https://de.scribd.com/doc/251222131/Klimaa-nderung-ein-Buch-mit-sieben-Siegeln

[6] Fakten, die Klimapolitik beachten sollte.

https://de.scribd.com/doc/245220065/Fakten-Die-Klimapolitik-beachten-sollte?post_id=100005110448729_335951823251830#_=_


1 1 Terawattstunde [TWh] = 1 000.000.000 Kilowattstunden [kWh]




Direktor des MPI für Meteorologie Jochem Marotzke findet den Zufall als Begründung warum die Modelle alle falsch liegen

Warum CO2 ohne Bildungskatastrophe wichtigstes Kühlmittel ist!

Trotz Bildungsexplosion, Internet und Google verstehen die allermeisten Menschen heute nicht, warum die Sonne genügend Energie liefert, um praktisch beliebig viele Menschen auf der Erde und noch wesentlich mehr im Weltall in Wohlstand, immer besserer Gesundheit und immer glücklicher leben zu lassen. Dahinter verbirgt sich eine Bildungskatastrophe unvorstellbaren Ausmaßes, die zum Beispiel in meiner Familie einen gewissen Höhepunkt erkennen lässt: Selbst mein viertes und jüngstes Kind, welches als einziges in die naturwissenschaftlichen Fußstapfen seines Vater getreten ist und an der Universität Marburg gerade mit seiner Doktorarbeit in Molekularer Genetik befasst ist, die einfachen naturwissenschaftlichen Regeln nicht mehr anwendet, die seinem Vater die Gewissheit vermitteln, dass mit einem einfachen Infrarot-Strahlungsthermometer experimentell gezeigt werden kann, dass CO2 das wichtigste Kühlmittel der Erde ist, während wissenschaftliche Gesellschaften wie die Max-Planck-Gesellschaft oder der UN-Weltklimarat über Politik und Medien seit Jahrzehnten das genaue Gegenteil verkünden.

Gerade schreibt der Direktor des Hamburger Max-Planck-Instituts für Meteorologie, Herr Prof. Dr. Jochem Marotzke, diesen Satz, der über dpa in fast allen Tageszeitungen zu lesen war: "Im 21. Jahrhundert hat sich die Erde deutlich schwächer erwärmt, als sämtliche Modelle vorhersagen – das war nur Zufall. Skeptikern, die immer noch am menschengemachten Klimawandel zweifeln, bricht nun eines ihrer letzten Argumente weg: Zwar gibt es eine Erwärmungspause, die Erdoberfläche hat sich seit der Jahrtausendwende also deutlich schwächer aufgeheizt, als sämtliche relevanten Klimamodelle vorhergesagt hatten.

Das „Lügenmärchen“ dieses Professors beginnt schon damit, dass es keine Skeptiker gibt, die an Menschen gemachten Klimaeinflüssen zweifeln. Jeder der mit dem Fahrrad aus einem Wald kommend in eine Stadt fährt, nimmt wahr, dass es in der Stadt wärmer ist als auf dem freien Feld oder gar im Wald. Das wissen alle. Die Skeptiker zweifeln insofern nicht an anthropogenen Wirkungen, sondern ganz genau fokussiert am experimentell nicht nachweisbaren, sogenannten anthropogenen Zusatztreibhauseffekt des CO2. Öffentlich die Skeptiker falsch darzustellen, gehört zu der Art niederträchtiger Lügen, wie sie heute in der „Demokratie der Parteien“ als quasi selbstverständlich praktiziert werden.

Jeder Abiturient mit einer vernünftigen Note in Deutsch muss logisch schlüssige Aufsätze schreiben können. Für eine logische Konstruktion wie diese von Prof. Marotzke muss es ein glattes Mangelhaft geben: „Keiner der physikalischen Gründe erklärt die Streuung der Prognosen und die Abweichung von den Messungen, der Zufall dagegen sehr wohl.“ Man stelle sich das vor: Der Zufall soll fähig sein, einen Sachverhalt zu erklären! Unerklärte Streuung und Zufall, sind ein und das selbe. Keines von beiden erklärt das andere! Das ist so als würde die Milch erklären: „Meine weiße Farbe erklärt sich daraus, dass ich eben Milch bin!“ In welcher Zeit leben wir heute eigentlich? Das Lesen Tausende von geschulten Journalisten, Parteiexperten aller politischen Richtungen, Professoren und Richter, interessierte und für ihr normales Leben gut ausgebildete Normalbürger. Und alle nehmen das so hin? Der Grund ist vermutlich ganz einfach. Keine Sau interessiert sich mehr für diese Art von öffentlich verbreiteten „Lügenmärchen“.

Aber für den interessierten Leser muss dieses ganze „Lügenmärchen“ noch tiefer gehend dargestellt werden. Die rechte Spalte der Internetseite des Max-Planck-Instituts dieser Pressemitteilung (http://www.mpg.de/8914929/klimawandel-erwaermungspause) bietet einen Videoclip an. Dieser erklärt, wie Klimamodelle entstehen und wie sie durch Lösen von Differentialgleichungen funktionieren. Dazu werden Parameter verwendet, die die gesamte Physik in korrekter Weise abbilden sollen. Die zwei wichtigsten Parameter werden namentlich genannt: Luftdruck und Temperatur. Weitere Parameter werden nicht genannt. Vor allem wird der entscheidende Parameter, die CO2 Wirkung, nicht näher benannt und auch nicht näher beschrieben!

Als Fachmann weiß man, unter den ‚weiteren Parametern‘ gibt es dann auch Parameter für die Erwärmung durch CO2. Diese sind der verheimlichte „Pudels Kern“, wenn es um die CO2 bedingte Temperaturentwicklung geht. Fest steht, dass Parameter für die CO2 Verdoppelung von 360 auf 720 ppm sehr gering ist im Vergleich zu den effektiven Temperaturparametern: Sonne, Wolken, Aerosole, Strömungen von Atmosphäre und Ozeanen, Vulkanen an Land und den zahlreicheren unter dem Meer, Landnutzungsänderungen durch die Biosphäre selbst und durch den Menschen (Stadteffekt oder wissenschaftlich UHI – urban heat islands). Alle Parameter mit Auswirkung auf die Temperatur werden als Energieflussinkremente dargestellt, welche die Klimamodellierer als ‚forcing‘ bezeichnen. Die Dimension des ‚forcing’ ist W/m2.

Einigkeit soll darüber bestehen, dass das tatsächliche ‚forcing’ des CO2 experimentell nicht geklärt werden kann. Daher spricht selbst der UN-Weltklimarat immer nur von Wahrscheinlichkeiten, nie von Gewissheit. Deshalb arbeiten die Klimamodelle mit unterschiedlich wirkungsvollen Parametern für das CO2 ‚forcing’ und lassen so CO2 weniger empfindlich, empfindlich und sehr empfindlich wirken. Zahlenwerte dazu könnten sein: +1, +3 und +5 W/m2 (die genauen Werte sind unbekannt!). Jeder dieser drei Werte für die CO2 Empfindlichkeit bedeutete aber unter dem Strich immer eine Erwärmung durch CO2. Dass CO2 keine Wirkung hätte, also der Wert 0 W/m2 für das CO2 ‚forcing’, wird von vorne herein ausgeschlossen. Völlig ausgeschlossen ist auch eine mögliche kühlende Wirkung von CO2 etwa ein Wert von -0,9 W/m2.

Legt man aber die tatsächlichen Energieflüsse laut NASA oder auch laut IPCC zugrunde, ergibt sich für CO2 eine Kühlwirkung, die rechnerisch zu diesen maximal -0,9 W/m2 abgeschätzt werden kann.

Energieflüsse werden in der Physik aus den gemessenen Temperaturdifferenzen zwischen warmem und kaltem Körper berechnet. Bei Heizplatte (Quelle) und Kochtopf (Senke) erfasst man damit den gesamten Energiefluss, der auch Anteile an Strahlungsfluss enthalten kann. Will man wissen, ob auch wirklich Strahlungsfluss beteiligt ist, muss man die Temperaturen von Quelle und Senke zusätzlich auch noch mit einem Strahlungsthermometer messen. Ergeben sich dabei unterschiedliche Temperaturwerte dann zeigt das, es findet auch Strahlungsfluss statt.

Die wichtigste Quelle für Strahlungsenergie ist die 6000°C heiße Sonne, die wichtigste Senke das –273,15°C kalte Weltall. Damit ist klar, dass Strahlungsenergieflüsse in die Erdoberfläche hinein unter Erwärmung und aus der Erdoberfläche heraus unter Kühlung immer sowohl durch klassische wie durch Strahlungstemperaturmessung gemessen werden müssten.

Die Meteorologie misst aber grundsätzlich nur die meteorologische Temperatur auf klassische Art und Weise in 2 m hohen Wetterhütten. Für Energieflüsse in den Boden hinein und aus dem Boden heraus interessieren sich die Wetterfrösche nicht. Tatsächlich ist der klassische Energiefluss zwischen Boden und Luft auch meteorologisch ohne große Bedeutung, weil die Wärmekapazität der Luftsäule von 2 m Höhe gegenüber der Wärmekapazität der Erdoberfläche keine große Rolle spielt.

Beim Energieaustausch durch Strahlung ist das aber ganz anders. Das zeigen die Strahlungstemperaturen von Boden und Luft, genauer gesagt die der Luft, denn die Bodentemperaturen sind gleich groß egal ob klassisch gemessen und als Strahlung. Die Lufttemperaturen sind demgegenüber völlig unterschiedlich und zeigen als Strahlung gemessen die gewaltige Strahlungskühlwirkung der Atmosphäre, die ja zu Ende gedacht nur die Strahlungskühlwirkung des Weltalls darstellt.

Das Phantastische an den Messungen der Strahlungstemperatur der Luft ist, dass hier ganz analog zum Kälteempfinden des Menschen in der freien Natur die Wetterlage über die Kühlung des Bodens durch die Atmosphäre entscheidet und dass sie überall und von jedermann selbst nachvollzogen werden können für 18 Euro beim Discounter. Die meteorologische Messung der Lufttemperatur in der Wetterhütte bekommt davon rein gar nichts mit!

Bei Regen sind die Temperaturdifferenzen mit –2 bis -3°C gering. Bei Wolken sind die Differenzen deutlich größer mit –7 bis –10°C und bei klarem Himmel werden die Differenzen sehr groß bis zu –30°C. Klassische meteorologische Temperaturmessungen in der Wetterhütte würden diese Unterschiede der Lufttemperatur gar nicht anzeigen, daher die „gefühlten Lufttemperaturen“!

Insgesamt aber zeigen all diese Temperaturmesswert, dass eine Erwärmung der Erdoberfläche durch die Atmosphäre nicht stattfindet. Ein erwärmender Treibhauseffekt der Atmosphäre, der in den Klimamodellen als Parameter fest eingebaut ist, existiert in Wirklichkeit nicht.

Für den Chemiker ist „Luft“ nicht nur einfach „die Atmosphäre“ wie für Meteorologen, Klimatologen, Physiker oder Ökonom, sondern eine Gasmischung aus den IR-inaktiven Hauptbestandteilen Stickstoff und Sauerstoff und den IR-aktiven Spurengasen H2O und CO2. Weiß wirklich nur ein Physikochemiker, dass die Vermittlung der unendlichen Kühlungssenke des Weltalls an die Atmosphäre über diese IR-aktiven Spurengase erfolgt und nicht über die IR-inaktiven Hauptbestandteile? Eigentlich sollte das heute jeder Mittelschüler wissen. Und er sollte auch wissen, dass das IR-aktive Spurengas Wasserdampf H2O(Gas) kondensiert zu H2O(Flüssig) und zu H2O(Fest). Die Folge davon ist, dass hoch oben in der Atmosphäre kein H2O(Gas) mehr vorhanden ist. Damit erfolgt die Hauptkühlung der Atmosphäre in Weltallnähe nur noch durch CO2. Jeder Mensch mit guter Allgemeinbildung, der guten Willens ist, kann sich so auf ganz einfache Weise selbst klar machen, dass CO2 das wichtigste Kühlmittel der Erde ist. (mehr dazu unter: www.gerhard-stehlik.de)




Studie von Marotzke weist erhebliche Fehler auf und ,sollte zurückgezogen werden‘

Allerdings hat Nic Lewis, ein Experte auf diesem Bereich der Klimawissenschaft, darauf einen Artikel veröffentlicht, in dem nachgewiesen wird, dass die Marotzke-Studie massive Fehler aufweist und dass seine Schlussfolgerungen nicht haltbar sind. Lewis sagte:

Neben der Tatsache, dass seine Studie einige grundlegende statistische Fehler enthält, kann man auch zeigen, dass er Zirkelschlüsse verwendet. Dies bedeutet, dass seine Schlussfolgerungen nicht haltbar sind. Darüber hinaus ist die Grundlage der Schätzung zumindest einer der beiden Schlüsseleigenschaften der Modelle so dünn, dass es sehr wahrscheinlich unmöglich ist, aus seiner Studie selbst ohne die Zirkelschlüsse Schlussfolgerungen zu ziehen. Ich denke, dass die Autoren keine andere wissenschaftlich haltbare Wahl haben als die Studie zurückzuziehen“.

Lewis‘ Erebnisse, veröffentlicht im einflussreichen Climate Audit blog, wurden von zwei Statistikern begutachtet und bestätigt: Prof. Gordon Hughes von der Edinburgh University und Roman Mureika, ehemals an der University of New Brunswick. Prof. Hughes sagte zur Marotzke-Studie:

Die in der Studie verwendeten statistischen Verfahren sind so schlecht, als ob man sie Studenten vorführen wollte, die lernen sollen, wie man Statistik nicht anwendet. Alles, was die Studie zeigt ist, dass Klimawissenschaftler einige Grundkurse in Statistik belegen sollten, und Nature sollte einige kompetente Schiedsleute einstellen“.

Link: http://wattsupwiththat.com/2015/02/06/fatally-flawed-marotzke-climate-science-paper-should-be-withdrawn/

Übersetzt von Chris Frey EIKE




Haben “Erneuerbare Energien” uns vor einem Strompreis-Schock bewahrt?

Zentraler Punkt des Diskussionspapiers (die Macher sprechen anders als die meisten Presseartikel nicht von einer Studie) ist der preissenkende Effekt, den die “Erneuerbaren” auf den „Day-Ahead“-Handel, also auf den kurzfristigen Spotmarkt, ausüben. Dadurch, dass Strom aus Wind und Sonne zum Preis von 0 Cent pro kWh auf den Spotmarkt strömen, wann immer sie anfallen, drückt das dort die Preise nach unten. Der Preis von 0 Cent ergibt sich daraus, dass der Strom bereits vorher durch die EEG-Zwangsabgabe gezahlt wurde.

Hypothetische Preiseffekte

Beziffert wird diese Preissenkung mit 5,29 Cent pro KWh. Woher die Zahl kommt wird nicht klar, man kann sie für recht hoch halten. Die Preise beim Day-Ahead-Handel haben in den letzten 12 Jahren stark geschwankt, aber der Unterschied zwischen dem höchsten und niedrigsten Preis betrug in diesem Zeitraum maximal 4 Cent/kWh. Begründet wird der starke angenommene Anstieg damit, dass mit dem Abschalten der Kernkraftwerke in Deutschland das Gleichgewicht zwischen Angebot und Nachfrage stark gestört worden wäre, was sich eben in den Preisen widerspiegelt.

Abb 1: Entwicklung Staatsanteil der Strompreise, Bildquelle: Bundesverband der Energie- und Wasserwirtschaft

Das Diskussionspapier geht bei dieser hypothetischen Betrachtung von einigen Annahmen aus, die mit der Realität wenig zu tun haben. Erstens wird vorausgesetzt, dass es ohne “Erneuerbare” zu einer Verknappung von Strom gekommen wäre. Da wäre vielleicht kurzfristig so gekommen, aber in einem funktionierenden Markt hätten die dadurch steigenden Preise automatisch dafür gesorgt, dass neue Kraftwerke gebaut worden wären. Hohe Preise bedeuten schließlich, dass man mit seiner Investition so gutes Geld verdienen kann.

Abb, 2: Die Entwicklung des Spotmarkt-Strompreises von 2002 bis 2014. Quelle: Fraunhofer ISE

“Erneuerbare” als Lösung für selbst geschaffene Probleme

Dass solche Investitionen in den letzten Jahren nicht stattfanden, umgekehrt sogar immer mehr Kraftwerke stillgelegt werden sollen, liegt ja gerade daran, dass sich deren Betrieb wegen des niedrigen Börsenstrompreises nicht mehr lohnt. Die Realität ist also, dass die über das EEG bezahlte und dann zu Null Grenzkosten und mit Vorrang in die Strombörse gedrückten “Erneuerbaren” Energien den klassischen Strommarkt zerstört haben und jetzt in diesem Papier als Lösung für ein Problem ausgegeben werden, für das sie selbst die Ursache sind.

Ein zweiter zentraler Punkt ist das Zustandekommen der vorgeblichen 11,2 Milliarden Euro, den die Stromkunden durch die “Erneuerbaren” Energien gespart haben sollen. Die Zahl ergibt sich, wenn man die (unter dubiosen Umständen ermittelten) 5,29 Cent pro KWh mit dem Nettostromverbrauch von Deutschland im Jahr 2013 in Höhe von 596 Terawattstunden multipliziert (das ergibt 31,6 Mrd. Euro) und davon die 20,4 Mrd. Euro abzieht, die in diesem Jahr an EEG-Subventionen netto ausbezahlt worden sind.

Spotmarkt nicht gleich Strommarkt

Dabei wird stillschweigend davon ausgegangen, dass die hypothetische Preiserhöhung am Spotmarkt den gesamten gehandelten Strom betroffen hätte. Das ist aber überhaupt nicht der Fall. 2013 wurde 21,5% des Stroms am Spotmarkt gehandelt, der Rest über Langfristverträge am Terminmarkt. Die Mehrkosten hätten demnach nur 6,8 Mrd. Euro betragen, nicht 31,6 Mrd. Mit dieser Zahl hätte sich aber ergeben, dass die Verbraucher durch das EEG im jahr 2013 nicht 11,2 Mrd. Euro gespart, sondern 13,6 Mrd. Euro zu viel gezahlt hätten.

Dass dies nicht im Sinne der Autoren des Diskussionspapiers sein konnte, ergibt sich, wenn man sich ansieht unter welcher Prämisse die Zusammenarbeit zwischen Siemens der Universität Erlangen-Nürnberg gestartet ist, aus der dieses Papier schließlich hervorgegangen ist:

Zukünftig werden Siemens und die Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) bei der Erforschung nachhaltiger, bezahlbarer und zuverlässiger Energiesysteme zusammenarbeiten. Dies geht aus einer Pressemitteilung der FAU hervor. Gemeinsam sollen innovative wettbewerbsfähige Systeme entwickelt werden, die zum Erfolg der Energiewende beitragen sollen

Ob die “Erneuerbaren” Energien innovativ im eigentlichen Sinne sind, darüber mag man gewiss streiten. Dass sie nicht wettbewerbsfähig sind erkennt man allein schon an der Tatsache, dass deren Bau und Betrieb durch Subventionierung über das Erneuerbare-Energien-Gesetz (EEG) gefördert werden muss. Dass dadurch die Strompreise nicht sinken, sondern stetig steigen, sieht jeder auf seiner Stromrechnung. Dass ein Konzern wie Siemens, der über seine Windkraftsparte enorm von dieser Entwicklung profitiert, ein Interesse daran hat, die “Erneuerbaren aber trotzdem als wettbewerbsfähig, ja gar als kostensenkend, darzustellen, liegt auf der Hand. Und mit Prof. Dr. Jürgen Karl vom Lehrstuhl für Energieverfahrenstechnik an der Universität Erlangen-Nürnberg scheint sich auch jemand gefunden zu haben der bereit ist, dieser Aussage wissenschaftliche Weihen zu verleihen.

Der Beitrag erschien zuerst bei ScienceSceptical




SPON- Visionen zum Strommarkt der Zukunft – Wenig Science, viel Fiction

Das von beiden Einrichtungen erarbeitete Konzept ist nach Einschätzung des Autors ebenso revolutionär wie radikal und werde in der Energiewelt zu einem Machtkampf führen. Als Heilsweg wird dabei die Flexibilisierung von Erzeugung und Verbrauch vorgeschlagen: Werde gerade mehr Strom produziert als gebraucht wird, so solle sein Preis deutlich sinken. Große Abnehmer sollen so dazu gebracht werden, mehr zu verbrauchen. Fabriken könnten zum Beispiel die Produktion erhöhen, große Kühlhäuser stärker kühlen. In Zeiten, in denen mehr Strom gebraucht wird als gerade verfügbar ist, sollen die Preise dagegen deutlich steigen. Verbraucher sollen so dazu gebracht werden, sich zu bescheiden.

 

EE-Fortschritt: In Zukunft soll unser Leben wieder den Zufällen von Wind und Wetter unterworfen werden

Das Bild rechts wurde von der SPON Website übernommen

Drei Hebel für die Steuerung des Strompreises

Durch Vernetzung und Kommunikation, so das Fazit, sollen sowohl Erzeugung – bevorzugt durch EE-Quellen – als auch Verbraucher sich kurzfristig auf wechselnde Strompreise einstellen. Als zentrale Hebel sieht man die EEG-Umlage, die Netzentgelte und den Kraft-Wärme-Kopplungsbonus, den Kraftwerke dann erhalten, wenn sie die Abwärme ihrer Stromproduktion ins Wärmenetz einspeisen. Der Vorschlag dieser „Wissenschaftler“ sieht nun vor, alle drei Umlagen zu Zeiten eines Stromüberangebots zu senken, um dadurch den Strom deutlich billiger zu machen, im umgekehrten Fall dagegen zu steigern, d.h. den Strom deutlich teurer zu machen. Schon heute, so ihr Argument, gebe es in Deutschland eine Reihe „wetterfühliger Fabriken“. Künftig solle diese Technik zum Standard werden.

 

Abb. 1: Schöne neue Energiewelt: Schneller schweißen Jungs, gleich wird der Strom teurer

Fernab jeden Realitätsbezugs

Für jeden, der die Realitäten des Stromverbrauchs sowohl im Haushalt als auch im industriellen Bereich auch nur näherungsweise kennt, stellt sich die Frage, aus welcher Abteilung man denn heute solche „Wissenschaftler“ rekrutiert. Schon im Haushalt werden Strom, Heizung, Warmwasser und Licht dann gebraucht, wenn die Bewohner zuhause sind und es zum Tagesablauf passt. Den Bürgern vorschreiben zu wollen, sie sollten morgens ungewaschen zur Arbeit gehen, weil der Wind gerade nicht weht, zeugt geradezu von Infantilität. Auch werden Straßenbahn und Eisenbahn ihre Fahrpläne wohl kaum nach solchen Kriterien kurzfristig über den Haufen werfen. In der heutigen Zeit gibt es kaum eine Fabrik, die ihre Produktion einem wechselnden Stromaufkommen anpassen könnte, selbst Aluminiumhütten und Stahlwerke können höchstens kurzfristig mal die Produktion herunterfahren. Bei Ausfällen im Bereich mehrerer Stunden ist Schluss mit lustig, dann besteht die Gefahr, dass ihnen die Öfen einfrieren. Eine Steigerung ist dagegen faktisch unmöglich, da solche Produktionseinrichtungen ansonsten stets mit der maximal möglichen Auslastung gefahren werden, mehr Strom kann gar nicht in mehr Produktion umgesetzt werden. Moderne, computergesteuerte Fertigungsanlagen können ihre Produktion, die von ausgetüftelten Parametern, langfristigen Planungen, Transport- und Logistikketten sowie Markterfordernissen diktiert wird, sowieso nicht mal „so eben“ den Launen von Wind und Sonne anpassen. Der Vorschlag dieser angeblichen Wissenschaftler ist so unsinnig, dass jedem, der moderne Fabriken und ihre Abläufe kennt, schlicht die Worte fehlen, um den hinter solchen Vorschlägen steckenden Grad an Ignoranz noch mit halbwegs höflichen Worten zu beschreiben. Ebenso könnte man vorschlagen, die zeitlich bis ins kleinste Detail durchoptimierten Abläufe in einem modernen Containerhafen wieder an das Timing von Teeklippern anzupassen, die auf See mal wieder in eine Flaute geraten sind. Oder einer werdenden Mutter raten, die Wehen doch bis nächste Woche aufzuschieben….

Fred F. Mueller

[SPIE] http://www.spiegel.de/wirtschaft/soziales/energiewende-so-koennte-der-strommarkt-der-zukunft-aussehen-a-1017164.html

(1) Stefan Schultz Vita

Jahrgang 1980, studierte Medienkultur, Politik und Britische Literatur in Hamburg und Lissabon (M.A.). Praktika und freie Mitarbeit bei „Hamburger Abendblatt Online“, „Prinz“, „Hamburg LIVE“ und der portugiesischen Tageszeitung „24 Horas“. Entwicklungsredakteur und Crossmedia-Beauftragter für die Print- und TV-Ausgabe von „Deutschland International“. Seit 2007 Volontär bei SPIEGEL ONLINE. Seit 2008 Redakteur im Ressort Wirtschaft, Spezialgebiete: Energie, IT-Wirtschaft und China. Kurzkorrespondenz in San Francisco (2009) und New York (2010). Ernst-Schneider-Preis für Online-Journalisten (2011). Dreimonatiges Journalisten-Stipendium in China (2012).




Wärmer oder kälter? AWI-Studie zur Klimageschichte Sibiriens der letzten 7000 Jahre gibt Rätsel auf

Die Ergebnisse der Untersuchungen gab das AWI am 26. Januar 2015 per Pressemitteilung bekannt:

Winter in sibirischen Permafrostregionen werden seit Jahrtausenden wärmer
Wissenschaftlern des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) ist es erstmals gelungen, mit einer geochemischen Methode aus der Gletscherforschung Klimadaten aus Jahrtausende altem Permafrost-Grundeis zu entschlüsseln und die Wintertemperatur-Entwicklung im russischen Lena-Delta zu rekonstruieren. Ihr Fazit: In den zurückliegenden 7000 Jahren ist die Wintertemperatur in den sibirischen Permafrostregionen langfristig gestiegen. Als Grund für diese Erwärmung nennen die Forscher eine sich ändernde Stellung der Erde zur Sonne, verstärkt durch den steigenden Ausstoß von Treibhausgasen seit Beginn der Industrialisierung. Die Studie erscheint als Titelgeschichte der Februar-Ausgabe des Fachmagazins Nature Geoscience und heute vorab schon einmal online.

Was bedeuten diese Resultate? Zugegeben handelt es sich um eine für Laien komplexe Thematik. Es geht um schwierige geochemische Methoden, schwer fassbare lange Zeiträume, eine behauptete Verknüpfung mit der anthropogenen Klimaerwärmung sowie Milankovic-Zyklik. All das spielt im fernen Sibirien, das vermutlich kaum einer der Leser genauer kennt. Hängenbleiben wird beim ersten Überfliegen der Pressemitteilung „Klimaerwärmung seit tausenden von Jahren, Industrialisierung, Treibhausgase“. Seht her, da ist ein weiterer Beweis für unser frevelhaftes Tun und die unaufhaltbare Klimakatastrophe in Zeitlupe. Aber nicht so schnell. Lassen Sie uns die Komponenten der Studie einzeln diskutieren und auf ihre Gültigkeit und Bedeutung überprüfen.

Langfristige Erwärmung der Winter im Verlauf der letzten 7000 Jahre

Ein übraus interessantes Resultat: Eine langfristige, natürliche Erwärmung der Winter im Untersuchungsgebiet in den letzten Jahrtausenden. Exakte Temperaturwerte können die AWI-Forscher nicht angeben, wie das AWI in seiner Pressemitteilung erläutert:

Um wie viel Grad Celsius genau die arktischen Winter wärmer geworden sind, können die Wissenschaftler nicht in absoluten Zahlen sagen: „Das Ergebnis der Sauerstoff-Isotopenanalyse verrät uns zunächst nur, ob und wie sich das Isotopenverhältnis verändert hat. Steigt es, sprechen wir von einer relativen Erwärmung. Wie groß diese allerdings genau ausgefallen ist, können wir noch nicht ohne Weiteres sagen“, erklärt Thomas Opel.

Aber es wäre sicher ganz nett gewesen, wenn eine ungefähre Temperaturabschätzung erwähnt worden wäre. Die heutigen Wintertemperaturen betragen im Lenadelta minus 30 Grad bis minus 40 Grad, wie die Encyclopaedia Brittanica weiß:

The climatic features of the Lena River basin are determined by its location, with its upper course well inside the continent and its lower course in the Arctic. In winter the powerful Siberian anticyclone (high-pressure system) forms and dominates all of eastern Siberia. Because of the anticyclone, the winter is notable for its clear skies and lack of wind. Temperatures fall as low as −60 to −70 °C, with average air temperature in January ranging from −30 to −40 °C. In July averages range between 10 and 20 °C.

Nun war es laut AWI vor ein paar tausend Jahren also noch etwas kälter, sagen wir einfach mal minus 45 Grad, nur um einen Wert zu haben. Es geht also in der ganzen Geschichte um eine Winter-„Erwärmung“ die sich von „sehr, sehr super saukalt“ hin zu „immer noch sehr super saukalt“ entwickelt hat. Bei Nennung dieser Temperaturen hätte vielleicht dem einen oder anderen Leser die Idee kommen können, dass die Winter-Erwärmung der Gegend zweitrangig ist und möglicherweise sogar ganz gut getan hätte.

Nun könnte man sagen, ja, im Winter ist die Entwicklung wohl eher weniger interessant. Wie sieht es denn im Sommer aus, wo laut Encyclopaedia Brittanica heute mit bis zu 20°C zu rechnen ist? Müssen wir hier Angst vor einer „arktischen Turboerwärmung“ haben? Die AWI-Pressemitteilung erklärt etwas verklausuliert, dass Rekonstruktionen der Sommertemperaturen eine gegenteilige Entwicklung anzeigen: In den letzten Jahrtausenden ist es in Sibirien immer kälter geworden:

Die neuen Daten sind die ersten eindeutig datierten Wintertemperaturdaten aus der sibirischen Permafrostregion und zeigen einen klaren Trend: „In den zurückliegenden 7000 Jahren sind die Winter im Lena-Delta kontinuierlich wärmer geworden – eine Entwicklung, die wir so bisher aus kaum einem anderen arktischen Klimaarchiv kennen“, sagt Hanno Meyer. Denn: „Bisher wurden vor allem fossile Pollen, Kieselalgen oder Baumringe aus der Arktis genutzt, um das Klima der Vergangenheit zu rekonstruieren. Sie aber speichern vor allem Temperaturinformationen aus dem Sommer, wenn die Pflanzen wachsen und blühen. Die Eiskeile stellen eines der wenigen Archive dar, in denen reine Winterdaten gespeichert werden“, erklärt der Permafrost-Experte.  Mit den neuen Daten schließen die Wissenschaftler zudem eine wichtige Lücke: „Die meisten Klimamodelle zeigen für die zurückliegenden 7000 Jahre in der Arktis eine langfristige Abkühlung im Sommer sowie eine langfristige Erwärmung im Winter an. Für letztere aber gab es bisher keine Temperaturdaten, eben weil die meisten Klimaarchive hauptsächlich Sommerinformationen speichern. Jetzt können wir zum ersten Mal zeigen, dass Eiskeile ähnliche Winterinformationen enthalten wie sie von den Klimamodellen simuliert werden“, so AWI-Modellierer und Ko-Autor Dr. Thomas Laepple.

Noch klarer wird es in der offiziellen Kurzfassung der Arbeit (Auszug):

Relative to the past 2,000 years12, the Arctic region has warmed significantly over the past few decades. However, the evolution of Arctic temperatures during the rest of the Holocene is less clear. Proxy reconstructions, suggest a long-term cooling trend throughout the mid- to late Holocene345, whereas climate model simulations show only minor changes or even warming67,8

Bei den genannten Literaturzitate 3 bis 5 handelt es sich um:

3. Marcott, S. A., Shakun, J. D., Clark, P. U. & Mix, A. C. A reconstruction of regional and global temperature for the past 11,300 years. Science 339, 1198_1201 (2013).

4. Vinther, B. M. et al. Holocene thinning of the Greenland ice sheet. Nature 461, 385_388 (2009).

5. Wanner, H. et al. Mid- to Late Holocene climate change: An overview. Quat. Sci. Rev. 27, 1791_1828 (2008).

Gerne hätte an dieser Stelle auch einer Arbeit einer internationalen Forschergruppe um Benoit Lecavalier von der University of Ottawa aus dem März 2013 in den Quaternary Science Reviews erwähnt werden können. Die Forscher fanden, dass sich Grönland in den letzten 8000 Jahren um etwa 2,5°C abgekühlt hat (siehe „Ein Thema das die Medien meiden wie der Teufel das Weihwasser: Vor 5000 Jahren war es in Grönland zwei bis drei Grad wärmer als heute”).

Die Sommer wurden in den letzten 7000 Jahren kälter und die Winter wärmer. So kann man den aktuellen Erkenntnisstand zusammenfassen. Ursache für diesen Langzeittrend sind die Milankovic-Zyklen, die auf Veränderungen der Erdbahnparameter zurückzuführen sind. Dies sind langfristige Zyklen im Bereich von 20.000 bis 100.000 Jahre, die für die aktuelle Klimadiskussion keine große Rolle spielen. Sie sind auch die Ursache für das sogenannte mittelholozäne Klimaoptimum, als die globalen Temperaturen vor 7000 Jahren um zwei Grad höher lagen als heute.

Während die Hauptstory, nämlich die Erwärmung der sibirischen Winter in den letzten Jahrtausenden, durchaus plausibel erscheint, muss man sich doch wundern, weshalb die zeitgleiche Sommer-Abkühlung nicht besser in der AWI-Pressemitteilung herausgearbeitet wurde. Letztendlich geht es neben den Jahreszeiten doch auch darum, wie sich der Jahresmittelwert entwickelt hat. Dazu kein Kommentar vom AWI.

Zu klären wäre auch, weshalb die AWI-Presseabteilung nicht schon einige Monate zuvor aktiv geworden ist, als ein ebenfalls von Hanno Meyer angeführtes Forscherteam im September 2014 im Fachblatt Global and Planetary Change eine Studie zu Kamschatka publizierte. Die Forscher rekonstruierten die Temperaturen in der Region für die vergangenen 5000 Jahren und fanden interessanterweise einen langfristigen Abkühlungstrend. Über lange Zeiten war Kamschatka während der letzten Jahrtausende offenbar wärmer als heute, eine überraschende Erkenntnis (eine genaue Besprechung der Arbeit gibt es auf The Hockey Schtick). Das wäre eine schöne Schlagzeile geworden:

Kamschatka hat sich in den letzten 5000 Jahren abgekühlt.

Aber offenbar war dem AWI diese Schlagzeile zu heiß. Beim weiteren Stöbern wird man das böse Gefühl nicht los, dass man in der AWI-Pressestelle bewusst Studien ausspart, die nicht so recht in die Klimakatastrophengeschichte zu passen scheinen. Bereits im Mai 2013 waren erste Ergebnisse zum Kamschatka-Projekt in den Quaternary Science Reviews publiziert worden, zu denen die Öffentlichkeitsabteilung des AWI keinen Mucks machte (siehe unseren Blogbeitrag „Überraschende Forschungsergebnisse des AWI aus dem subarktischen Kamtschatka: In den letzten 4500 Jahren war es bis zu 4 Grad wärmer als heute”). Die unheimliche Serie setzte sich im September 2013 fort, als im Fachmagazin Palaeogeography, Palaeoclimatology, Palaeoecology  eine AWI-Studie eines internationalen Forscherteams um Juliane Klemm erschien. Auch diese Forschergruppe hatte Unerhörtes herausgefunden, etwas was man auf keinen Fall mit der Presse teilen wollte (siehe unseren Blogbeitrag: „Neue AWI-Studie: Heutige Sommertemperaturen in der sibirischen Arktis unterscheiden sich kaum von denen der letzten Jahrtausende”).

Was hat nun die Klimakatastrophe mit all dem zu tun?

Zurück zum aktuellen Paper über das Lena-Delta. Die Erwärmung der Wintertemperaturen in den letzten 7000 Jahre mag interessant sein, ist aber lediglich die Hinleitung zur eigentlichen „Pointe“ der Studie, nämlich, dass der menschengemachte Klimawandel der letzten 150 Jahre die Wintertemperaturen im Studiengebiet nach oben gejagt hätte. In der AWI-Pressemitteilung liest sich das so:

Deutliche Hinweise fanden die Wissenschaftler bei der Suche nach den Ursachen der Erwärmung. Hanno Meyer: „Wir sehen in unserer Kurve eine klare Zweiteilung. Bis zum Beginn der Industrialisierung um das Jahr 1850 können wir die Entwicklung auf eine sich ändernde Position der Erde zur Sonne zurückführen. Das heißt, damals haben die Dauer und Intensität der Sonneneinstrahlung von Winter zu Winter zugenommen und auf diese Weise zum Temperaturanstieg geführt. Mit dem Beginn der Industrialisierung und dem zunehmenden Ausstoß von Treibhausgasen wie Kohlendioxid aber kam dann noch der vom Menschen verursachte Treibhauseffekt hinzu. Unsere Datenkurve zeigt ab diesem Zeitpunkt einen deutlichen Anstieg, der sich wesentlich von der vorgegangenen langfristigen Erwärmung unterscheidet.“

Leider versäumt es das AWI, der Pressemitteilung die Temperaturkurve bzw. die Isotopen-Proxy-Kurve beizufügen. Wie muss man sich diesen „deutlichen Anstieg“ im Detail vorstellen? Stattdessen werden der Presse stimmungsvolle Expeditionsfotos angeboten. Das schönste hiervon wollen wir auch hier im Blog nicht vorenthalten (Abbildung 1).

Abbildung 1rechts oben:. Die Wissenschaftler Alexander Dereviagin, Dr. Thomas Opel und Dr. Hanno Meyer (v.l.) machen eine kurze Mittagspause. Foto: Volkmar Kochan/rbb. Quelle: AWI.

Wirklich ein schönes Foto. Aber trotzdem wäre die Kurve doch um einiges informativer gewesen. Wir schauen daher in die Originalpublikation, wo die gesuchte Kurve abgedruckt ist (Abbildung 2).

Abbildung 2: Winter-Temperaturentwicklung des sibirischen Lena-Deltas während der letzten 8000 Jahre auf Basis von Sauerstoffisotopenmesssungen an Eiskeilen. Abbildung aus Meyer et al. 2015.

Der langfristige Winter-Erwärmungstrend ist gut erkennbar. Ganz am Ende der Kurve, in der industriellen Phase ab 1850, springen die letzten drei Datenpunkte steil nach oben. Offensichtlich handelt es sich um einen Nachfahren der berühmten Hockeystick-Kurve. Nie waren die Sauerstoff-Isotopenwerte höher als in den letzten anderthalb Jahrhunderten.

Es drängen sich sogleich einige wichtige Fragen auf:

–Spiegelt die Isotopenkurve tatsächlich die Temperaturen wieder? Isotopenverschiebungen können vielerlei Gründe haben und müssen nicht unbedingt Temperaturen abbilden. In vielen Fällen sind Niederschlagsänderungen Hauptkontrollfaktor für Veränderungen der Sauerstoffisotopen.

–Gibt es andere Winter-Temperaturrekonstruktionen aus der Region, die den behaupteten Verlauf mit anderen Methodiken betätigen könnten?

– Wie sehen die real gemessenen Winter-Temperaturen sowie Jahresmittelwerte des Lena-Delta-Gebiets für die letzten 150 Jahre aus?

Schauen wir uns hierzu die GISS-Temperaturkarte des New Scientist an, in welcher der Temperaturverlauf in der Lenadelta-Region für die vergangenen 130 Jahre angegeben ist (Abbildung 3). Fazit: Ja es ist wärmer geworden, so wie in fast allen Teilen der Erde nach Beendigung der Kleinen Eiszeit. Dabei fiel die Wiedererwärmung in den arktischen Gebieten stärker aus als zum Beispiel in den Tropen. Soweit ist das Resultat also nachvollziehbar.

Abbildung 3: GISS-Temperaturverlauf der Lenadelta-Region für die vergangenen 130 Jahre. Quelle: New Scientist.

Nun wissen wir aber leider auch, dass die GISS-Datenbank lange vom bekennenden Klimaaktivisten James Hansen geführt wurde und die Temperaturrohdaten arg nachbearbeitet wurden. Daher schauen wir lieber auf einen Rohdatensatz des Ortes Tiksi, der seit 1936 Messdaten liefert. Die Daten stammen aus dem BEST-Projekt der University of California in Berkeley, sollten also relativ vertrauenswürdig sein (Abbildung 4). Der Ort Tiksi ist auf der Landkarte in Abbildung 3 eingezeichnet.

Die Überraschung ist groß: Der im GISS-Datensatz dargestellte starke Erwärmungstrend ist in den Originaldaten kaum zu erkennen. Anstatt einer GISS-Erwärmung von 2 Grad pro Jahrhundert verzeichnet BEST lediglich eine Erwärmungsrate von etwa 0,5 Grad nach Qualitätsüberprüfung.

Abbildung 4: Temperaturdaten der Wetterstation Tiksi im Lena-Delta laut BEST-Projekt.

Die wirkliche Frage muss jedoch sein, auf welchem Niveau sich die Temperaturen während der Mittelalterlichen Wärmeperiode (MWP) im Lena-Delta bewegten. In einer zusammenfassenden Darstellung zur MWP für den asiatischen Teil Russlands auf co2science.org stoßen wir bei unseren Recherchen auf eine Veröffentlichung von Matul et al., die 2007 im Fachblatt Oceanology erschien. CO2 Science fasst die Ergebnisse der Arbeit wie folgt zusammen:

What was done
The authors studied the distributions of different species of siliceous microflora (diatoms), calcareous microfauna (foraminifers) and spore-pollen assemblages found in sediment cores retrieved from 21 sites on the inner shelf of the southern and eastern Laptev Sea, starting from the Lena River delta and moving seaward between about 130 and 134°E and stretching from approximately 71 to 78°N, which cores were acquired by a Russian-French Expedition during the cruise of R/V Yakov Smirnitsky in 1991.

What was learned
In the words of the five Russian researchers, this endeavor revealed “(1) the warming at the beginning of the Common Era (terminal epoch of the Roman Empire) during ~1600-1900 years BP; (2) the multiple, although low-amplitude, coolingepisodes at the beginning of the Middle Ages, 1100-1600 years BP; (3) the Medieval Warm Period, ~600-1100 years BP; (4) the Little Ice Age, ~100-600 years BP, with the cooling maximum, ~150-450 years BP; and (5) the ‘industrial’ warming during the last 100 years.”

What it means
“Judging from the increased diversity and abundance of the benthic foraminifers, the appearance of moderately thermophilic diatom species, and the presence of forest tundra (instead of tundra) pollen,” Matul et al. conclude that “the Medieval warming exceeded the recent ‘industrial’ one,” and that “the warming in the Laptev Sea during the period of ~5100-6200 years BP corresponding to the Holocene climatic optimum could be even more significant as compared with the Medieval Warm Period.” Once again, therefore, we have another example of a paleoclimate study that challenges the contention of Hansen et al. (2006) that “probably the planet as a whole” is “approximately as warm now as at the Holocene maximum.”

Die Autoren um Matul rekonstruierten also mithilfe von Mikroorganismen die holozäne Klimageschichte des Lena-Deltas und der vorgelagerten Laptevsee. Matul und Kollege fanden dabei für die vergangenen 2000 Jahre die bekannte Millenniumszyklik bestehend aus Römischer Wärmeperiode, Kälteperiode der Völkerwanderungszeit, Mittelalterlicher Wärmeperiode, Kleiner Eiszeit und Moderner Wärmeperiode. Interessanterweise war die Mittelalterliche Wärmeperiode offenbar deutlich wärmer als heute. Zudem war das mittelholozäne Klimaoptimum im Untersuchungsgebiet vor 6000 Jahren sogar noch wärmer.

Nun wundert es doch sehr, dass die AWI-Gruppe diese wichtige Arbeit in ihrer neuen Lena-Delta Arbeit mit keiner Silbe erwähnt. Selbst wenn Matul et al. wohl überwiegend Sommertemperaturen rekonstruiert haben, hätte die Arbeit doch auf jeden Fall Berücksichtigung finden müssen. Sind die Sommertemperaturen nicht vielleicht viel wichtiger als die sowieso unterkühlten Winterwerte?

Bill Illis konnte in einer Diskussion zum AWI-Paper auf WUWT zeigen, dass die AWI-Autoren zwei möglicherweise wichtige Datenpunkte aus der Betrachtung ausschlossen (Abbildung 5). Einer davon zeigte während der Römischen Wärmeperiode eine bedeutende Winter-Erwärmung an, die sich etwa auf heutigem Temperaturniveau bewegte. Der Wert wurde unter Hinweis auf „oberflächennahe Kontaminierung“ aus dem Rennen geschmissen und in der Auswertung ignoriert.

Abbildung 5: Plot der Temperatur-Proxy-Wert aus Meyer et al. 2015, mit zwei zusätzlichen Werten, die die Autoren wegen „möglicher Kontaminierung“ verworfen hatten. Plot: Bill Illis/WUWT.

Unterm Strich

Was bleibt unterm Strich? Eine paläoklimatologische Studie findet eine unerwartete Entwicklung, die sogleich als Beleg für die drohende Klimakatastrophe missbraucht wird. Wichtige anderslautende Befunde aus der gleichen Region sowie andere AWI-Arbeiten werden totgeschwiegen. Der auffällige Hockeyschläger-Charakter der approximierten Temperaturentwicklung lässt die Alarmglocken schrillen: Ist die verwendete Methodik zuverlässig? Weshalb wurden möglicherweise wichtige Datenpunkte bei der Bearbeitung ignoriert? Wie wichtig ist die ultrakalte Wintertemperaturentwicklung wirklich im Vergleich zum Sommerverlauf? Weshalb können andere Messreihen und Temperaturrekonstruktionen den rasanten Hockeyschläger-Anstieg nicht reproduzieren? Immerhin geben sich die AWI-Forscher ergebnisoffen, wie sie in der Pressemitteilung betonen:

In einem nächsten Schritt wollen die Forscher nun überprüfen, ob dieselben Anzeichen für eine langfristige Winter-Erwärmung der Arktis auch in anderen Permafrostregionen der Welt zu finden sind. Thomas Opel: „Wir haben Daten aus einem Gebiet 500 Kilometer östlich des Lena-Deltas, die unsere Ergebnisse stützen. Wir wissen allerdings nicht, wie es zum Beispiel in der kanadischen Arktis aussieht. Wir vermuten, dass die Entwicklung dort ähnlich ist, belegen aber können wir diese Annahme noch nicht.“

Siehe auch den Blog-Beitrag „Arktische Turboerwärmung auf dem Prüfstand: Ein Konzept auf wackeligen Beinen

Zuerst erschienen bei "Die kalte Sonne" hier




85 PROZENT FEHLZEIT – WINDKRAFTANLAGEN SIND FAULPELZE

In den folgenden Abbildungen ist die installierte Kapazität, d.h. die kumulierte Nennleistung aller deutschen Windkraftanlagen, als hellblaue Hintergrundfläche dargestellt. Wie unschwer zu erkennen ist, wurde diese kontinuierlich ausgebaut – es wurden immer mehr Anlagen aufgestellt. Darin besteht der gefeierte “Rekord”.

Die dunkelblaue Vordergrundflläche gibt die tatsächlichen Einspeisungen wieder. Wie ebenfalls unschwer zu erkennen, ist die Windkraft extrem volatil. An einigen Viertelstunden des Jahres liefern alle rund 25.000 Anlagen viel, an anderen zusammen fast nichts.

Nicht im Ansatz ist eine Sockelbildung – also eine Art verlässliche Mindestgröße im Sinne einer Grundlastabdeckung – erkennbar. Der Grundsatz “viel hilft viel” gilt ganz offenkundig nicht. Dass dieser auch künftig nicht gelten wird, haben wir hier mathematisch bewiesen. 

 

Das gesamte Jahr 2014.

Januar-April

Mai-August

September – Dezember

Abgesehen von der partout nicht geringer werden wollenden Volatilität/Erratik der Einspeisung, sprich der Qualität der Stromlieferung,  ist auch die Menge des produzierten Stroms frappierend gering: Die durchschnittliche Einspeisung (arithmetisches Mittel) beträgt über alle 25.000 Anlagen hinweg gerade einmal 14,8 Prozent der Nennleistung.  

Die ehrlichen Zahlen.

Man stelle sich vor, eine Consulting Agentur rät einem international erfolgreichen Unternehmen, eine “Beschäftigungswende” durchzuführen. Das Konzept sieht vor, die Stammbelegschaft sukzessive durch sogenannte Fair-Arbeiter zu ersetzen. Den Fair-Arbeitern wird nämlich nachgesagt, dass sie sozial vorteilhaft sind.

Per Einstellungserleichterungsgesetz (EEG) wird festgelegt, dass die Fair-Arbeiter – einmal eingestellt – stets den vollen  Lohn bekommen, egal, ob sie arbeiten oder nicht. Allerdings ist ihre Arbeitsmoral von Wankelmut und Faulheit geprägt. Mal kommen sie fast pünktlich und “klotzen richtig ran”, mal kommen sie tagelang gar nicht. Es muss also stets ein Kollege aus der Stammbelegschaft auf Abruf bereit stehen, um die Fehlzeiten des gut bezahlten Drückebergers zu ersetzen.

Zehn Jahre später feiert die Unternehmensleitung zusammen mit den Consultants und der Gewerkschaft der Fair-Arbeiter, dass in 2014 so viele Fair-Arbeiter wie nie zuvor unter Vertrag genommen wurden – wobei die beschriebenen Konditionen auf 20 Jahre fixiert sind.

Die unabhängige Analyse eines Arbeitsmarktforschers ergibt nun, dass die Fair-Arbeiter über das Rekordjahr hinweg 14,8 Prozent der tariflichen Arbeitszeit im Dienst waren. Die “Lastesel der Beschäftigungswende” arbeiteten also deutlich weniger als eine Ein-Tage-Woche. 

Wenn dieses Unternehmen Deutschland heißt, so heißen die Fair-Arbeiter Ökostromanlagen, die Consulting Agentur AGORA und die Gewerkschaft Bundesverband Windenergie – wobei sich die Gründer der Consulting-Agentur mittlerweile in der Geschäftsführung des Unternehmens eine einflussreiche Position gesichert haben. 

Wem diese Analogie zu weit hergeholt ist, dem sei der Sachverhalt anhand eines vom zuständigen Bundesminister gern gebrauchten Verweises auf die Tierwelt illustriert:

Bundesminister Gabriel, der mit vielen Äußerungen bereits sehr richtig lag, irrt nämlich vollkommen, wenn er die Windkraft als “Lastesel der Energiewende” preist. Zoologisch zutreffender sind die Subventionspropeller mit dieser Spezies gleichgesetzt: Windkraft – das Faultier der Energiewende




Taxonomie von klima-/energiepolitischen Perspektiven

Faktor 1: Risiko des anthropogenen Klimawandels

Die erste Klassifikation wird vorgenommen zwischen jenen, die der Perspektive folgen, dass der Klimawandel eindeutige Risiken birgt und sofortige Aktionen erfordert; und jenen die glauben, dass widrige Projektionen vorläufig oder zu extrem sind. Natürlich ist dies eine grobe Vereinfachung, die man im Allgemeinen vermeiden sollte, jedoch wird sie hier eingeführt, um allgemein etwas über politische Optionen zu sagen.

Faktor 2: Eignung gegenwärtiger erneuerbarer Energie-Technologien, um dem Klimawandel entgegen zu treten

Im Wesentlichen werden wir die Perspektiven aufteilen zwischen jenen, die glauben, dass ein Übergang von fossiler zu erneuerbarer Technologie ohne übermäßige Schwierigkeiten erfolgen kann; und jenen, die glauben, dass ein solcher Übergang extreme Herausforderungen enthält und sehr schwierig ist. Auch hier gibt es eine Vielfalt von Perspektiven und Schwierigkeiten in der realen Welt auf der Grundlage des Verständnisses hinsichtlich der Fähigkeiten und Kosten von „sauberer“ Technologie; die Nuancen dieser Überlegungen werden jedoch ignoriert, um die grundlegende Taxonomie für politische Optionen zu entwickeln.

Taxonomie der Perspektiven

Legt man die oben beschriebenen Faktoren zugrunde, tauchen vier unterschiedliche Gruppen auf, die in der folgenden Tabelle vorgestellt werden:


Politische Implikationen der Perspektiven

Maßnahmen (1): Geht man davon aus, dass der Klimawandel ein ernstes Risiko darstellt und die gegenwärtig verfügbare Technologie dieses Risiko umgehen kann, sind Maßnahmen erwünscht. Potentielle politische Optionen würden Maßnahmen enthalten wie erzwungene Schließungen von Kohlekraftwerken, erneuerbare Portfolio-Standards und andere Maßnahmen, die einzuhalten man gesetzlich gezwungen wird. Der Clean Power Plan der EPA resultiert aus dieser Perspektive.

Herausgefordert (2): Einem gefährlichen Klimawandel ohne gute Ressourcen-Optionen entgegen zu treten stellt die Politiker vor ernste Herausforderungen. Der Unterschied zwischen den in dieser Gruppe klassifizierten Perspektiven könnte der mannigfaltigste sein. Zu den politischen Optionen gehören Überlegungen hinsichtlich wesentlicher Änderungen der Funktionsweise moderner Gesellschaften bzgl. Ökonomie und Energieverbrauch. Ebenfalls zu dieser Gruppe gehört auch die Unterstützung für herausragende Technologien, beispielhaft gezeigt durch den Ruf von Google Engineers nach Erreichen des „Unmöglichen“ durch gegenwärtig unbekannte spaltende [disruptive] Technologien (hier).

Förderung (3): Lässt man die Dringlichkeit mal außen vor, berücksichtigt aber die Verfügbarkeit von nicht genutzter vorteilhafter Technologie, würde man fortschrittliche politische Optionen gegen Marktkräfte setzen und Fragen aufwerfen wie die, warum vorteilhafte Technologie nicht längst übernommen worden ist. Politische Maßnahmen sollten danach trachten, vorteilhafte Änderungen zu ermutigen. Erneuerbare Portfolio-Standards würden ebenfalls eine Option aus dieser Perspektive sein, ebenso wie andere und weniger zwangsmäßige Anreize. Eine politische Reaktion könnte Ausbildung sein und auch einen Beweis des Konzeptes enthalten, außerdem Demonstrationsprogramme, Steuernachlässe, Subventionen, Strafen und so weiter.

Verzögerung (4): Erkennt man die Unzulänglichkeit der gegenwärtigen „sauberen“ Technologien und dass man noch Zeit für Maßnahmen hat, eröffnet dies eine vorteilhafte Verzögerung und weitere Studien. Politische Reaktionen hierauf würden eine breiter gefasste, strategischere Forschung an allen Fronten enthalten. Sollte es internationale Bemühungen gemäß der Maßnahmen-Perspektive (1) geben, sollten diese vollständig durch Außenstehende evaluiert und katalogisiert werden, um sich auf die beste Alternative konzentrieren zu können.

Risiken, falls die „richtige“ Perspektive unbeachtet bleibt?

Falls Maßnahmen (1) korrekt ist: In diesem Szenario wäre die schlechteste aller Reaktionen Verzögerung (4). Die Debatten zwischen Vorschlägen zu Maßnahmen (1) und Verzögerung (4) sind die Lautesten. Jene minimierenden Bedenken um die globale Erwärmung und jene, die der Anpassung an den Wandel Steine in den Weg legen, sind ernste Bedrohungen, wenn man sich auf einen breiten Konsens konzentriert, der zur Umgehung einer Katastrophe erforderlich ist. Kooperierende politische Bemühungen, belastbare Anpassungspläne zu mobilisieren und voranzutreiben, wären von primärer Wichtigkeit.

Politische Perspektiven aus der Herausgefordert-Perspektive (2) können abhängig von den zugrunde liegenden Werten Ergebnisse bringen, die mit jenen unter der Maßnahmen-Perspektive (1) mithalten können. Zu ignorieren, dass „saubere“ Technologie funktioniert, könnte ein Vorteil sein, falls es jemandes‘ Wunsch ist, die Gesellschaft zu verändern und wenn man nicht-technologische Lösungen bevorzugt. Forschung auf neuen Gebieten könnte Antworten liefern, die besser sind als die bestehende „saubere“ Technologie, aber unter der Annahme, dass das Maßnahmen-Szenario (1) korrekt ist, würde eine derartige Politik nichts weiter sein als ein größeres Lotteriespiel.

Eine auf der Förderung-Perspektive (3) beruhende Politik und auch Vorschläge von Verzögerung (4) könnte kurzfristig Vorteile haben und würde eine Reaktion auf den Klimawandel stützen, aber mit einer langsameren Initial-Gangart als optimal wäre. Allerdings könnte eine fundierte Politik aufgrund dieser Perspektiven wahrscheinlich bedeutende zukünftige Vorteile bringen.

Falls Herausforderung (2) korrekt ist: Falls dies das tatsächliche Szenario wäre, könnte Maßnahmen (1) die schlechteste Reaktion sein. Zusätzlich zur Verschwendung wichtiger Ressourcen wird die Konzentration auf Maßnahmen (1) die Flexibilität begrenzen und herausragende Verfahren behindern. Da übernommene politische Maßnahmen, die auf ungeeigneter Technologie basieren, weder das Klimaproblem ansprechen noch ökonomische Probleme sowie solche der Energieversorgung lösen, würden wir uns in einer viel schlechteren Position wiederfinden, als wir es heute sind.

Politische Maßnahmen, die unter den Perspektiven Verzögerung (4) oder Förderung (3) entwickelt worden sind, können in dieser Lage helfen, Forschung und Programme von robustem Wert langfristig auf den Weg zu bringen.

Falls Förderung (3) korrekt ist: Das ist das ,Best Case Scenario‘ überhaupt, da Ängste vor dem Klimawandel übertrieben werden und dann „saubere“ Technologien gut funktionieren sollen. Politische Maßnahmen üben Druck aus, und Anreize, funktionierende „saubere“ Technologien zu übernehmen, sollten weit reichende Vorteile haben. Politische Maßnahmen aufgrund all dieser Perspektiven haben das Potential, langfristig vorteilhaft zu sein, und während Einige suboptimal wären, hätte wahrscheinlich keine Maßnahme lang dauernde negative Konsequenzen.

Falls Verzögerung (4) korrekt ist: Falls dieses Szenario stimmen sollte, ist das Schlechteste, was man tun kann, Maßnahmen (1) zu ergreifen, die die Übernahme der unzulänglichen „sauberen“ Technologie erzwingen. Die ökonomischen und sozialen Auswirkungen teurer neuer unzulänglicher Technologien und die Verbannung existierender Ressourcen könnte verheerende Konsequenzen haben. Zerschlägt man einen großen Teil der Wirtschaft durch Abschalten existierender Anlagen und errichtet stattdessen unzulängliche „saubere“ erneuerbare Anlagen, könnte uns dies sehr schwächen dergestalt, dass uns Ressourcen fehlen mit der Folge, dass andere, echte Risiken auftauchen. Die Auswirkungen von herausgefordert (2) und von daraus resultierender Politik könnte einen gewissen Wert haben, falls die damit verbundenen Kosten nicht extrem sind. Genauso kann eine auf Förderung (3) basierende Politik eine billige Versicherung und von bildungspolitischem Wert sein.

Diskussion

Dieser Rahmen zeigt, dass wir bei Vorliegen jedweder signifikanter Unsicherheit wie z. B. gegenüber den Risiken des Klimawandels oder der Fähigkeit, die Änderung abzuschwächen mittels der heutigen „sauberen“ Technologien sehr zögerlich sein sollten, überambitionierte und präzise Politik-Objektiven zu übernehmen, deren zugrunde liegenden Rechtfertigungen nicht der Realität entsprechen könnten. Ignoriert man schwebende Klima-Kipppunkte wegen eines falschen Glaubens, dass bestehende Technologien ungeeignet sind für die anstehenden Aufgaben, kann das zu einer unnötigen Umweltkatastrophe führen. Vielfache Bemühungen, unzulängliche Technologien durchzusetzen und die bestehende Infrastruktur zu zerschlagen, um übertriebene Umweltprobleme zu lösen, könnte Ökonomien verkrüppeln und tragischerweise die Entwicklung der Dritten Welt verzögern. Der vielleicht schlechteste Fall [worst case] wäre es, direkt mit hohem Tempo ineffektiv ein sehr reales Klimarisiko mit ungeeigneter Technologie anzugehen und dann die Konsequenzen hinsichtlich der Umwelt zu tragen mit ausgelaugter Infrastruktur und beschädigten Ökonomien. Heutige politische Debatten scheinen den Schwerpunkt übermäßig auf das entweder-oder zu legen, obwohl das Problem in Wirklichkeit vielschichtiger ist und eine viel größere Bandbreite von Reaktionen zulässt. Es könnte umsichtig sein, mehrgleisige Strategien in Betracht zu ziehen, um Energiebedarf und Klimaauswirkungen ins Gleichgewicht zu bringen.

Hoffentlich wird diese Taxonomie viele Ansatzpunkte für die Diskussion in den Kommentaren bieten, als da wären: Warum kleben die Menschen an den Perspektiven Maßnahmen (1) oder Verzögerung (4)? Treibt uns die Begrenzung der Debatte auf einen Gegensatz Maßnahmen (1) – Verzögerung (4) in eine unnötige Polarisierung? Wenn wir der „Konsens“-Wissenschaft folgen und dem Verständnis von Energie-„Experten“ – sollten wir die Perspektive herausgefordert (2) als dominant erwarten? Warum ist dies nicht die Hauptperspektive? Könnte es einfacher sein, entweder Maßnahmen (1) oder Verzögerung (4) der Perspektive herausgefordert (2) gegenüber zu stellen, anstatt diese in Diskussionen als Pärchen zu betrachten? Sollten wir genauso skeptisch sein, wenn Energieexperten über das Klima und Klimaexperten über Energie reden? Werden beide Seiten fair angehört von politischen Entscheidungsträgern und der Öffentlichkeit? Welches sind die wahrscheinlichen Risiken und Konsequenzen unserer gegenwärtigen politischen Verfahren? Sollte die Politik breiter angelegt sein und Komponenten von jeder Perspektive enthalten? Gibt es andere Faktoren, die man verwenden sollte, um politische Perspektiven zu klassifizieren? Dieser Beitrag enthält notgedrungen übermäßige Vereinfachungen – wie wichtig können nuancierte Unterschiede werden, wenn wir über die Politik bzgl. sauberer Energie nachdenken?

Link: http://judithcurry.com/2015/02/03/taxonomy-of-climateenergy-policy-perspectives/

Übersetzt von Chris Frey EIKE




Hatte das IPCC schon immer Recht?

Es drängt sich die Frage auf, warum im Jahre 2015 eine Begründung für die Richtigkeit von Klimamodellen aus den 90er Jahren des vergangenen Jahrhunderts veröffentlicht werden muss und man nicht einfach weiterentwickelte Klimamodelle vorstellt, die stattdessen die jüngere Vergangenheit zutreffend abbilden und einen verbesserten Blick in die Zukunft erlauben.

o Weil das IPCC schon immer Recht hatte?

o Geht es hier um die klimapolitisch existenzielle Frage nach der Unfehlbarkeit?

o Kann das IPCC tatsächlich ein Primat über das globale Klimageschehen beanspruchen?

Die Geschichte hat gezeigt, dass die Entwicklung der Wissenschaften niemals abschließend für beendet erklärt werden kann. Auch die mittelalterliche Kirche konnte die historische Entwicklung der Wissenschaften und damit die Abspaltung eines wissenschaftlichen Weltbildes von ihrer in sich geschlossenen Lehrmeinung schließlich nicht verhindern. Am Ende dieser Entwicklung stehen heute zwei völlig unvereinbare Weltsichten, zwischen denen ein Austausch von Erkenntnissen gar nicht mehr stattfinden kann.

Die modernen Wissenschaften konnten sich nur auf ihren aktuellen Stand entwickeln, weil der fortlaufende wissenschaftliche Erkenntnisprozess immer einen Nettogewinn an Wissen erzielt hat. Die Wissenschaft ist dynamisch, auf eine permanente Weiterentwicklung ausgelegt und kann niemals fertiggestellt werden. Die Gesellschaft finanziert die Wissenschaft und garantiert ihr die Freiheit von Forschung und Lehre. Es liegt dafür in der Verantwortung der Wissenschaft, der Gesellschaft aufrichtige und ungefilterte wissenschaftliche Erkenntnisse zurückzugeben. Das Paradoxon der institutionalisierten Klimaforschung ist daher heute die implizite oder explizite Forderung nach einem „Ende der Diskussion“, die den iterativen wissenschaftlichen Erkenntnisprozess negiert und jede weitere Entwicklung in der Klimaforschung kategorisch ausschließen will. Das läuft im Ergebnis aber auf die Verkündung eines statischen Glaubens an die Klimakatastrophe hinaus. Ein Galileo Galilei würde darin vermutlich deutliche Parallelen zur Inquisition seiner mittelalterlichen Kirche erkennen, und tatsächlich finden sich hier denn auch sämtliche Elemente, die eine religiös geprägte Weltanschauung ausmachen:

o Die Heilslehre von einer dekarbonisierten Weltgemeinschaft,
o die Bedrohung durch ein klimatisches Höllenfeuer
o und ein CO2-Ablass, mit dem sich der Gläubige von seiner persönlicher Emissionsschuld frei kaufen kann.

Die eigentliche Frage lautet also, wie sich die politisch korrekte Klimaforschung überhaupt in ein geschossenes Glaubensgebäude zurückziehen konnte. Gehen wir einmal ganz an den Anfang zurück. Wenn der Mensch unvermittelt einer Gefahr gegenübersteht, hier also der Anstieg des CO2-Gehaltes der Luft und ein befürchteter Anstieg der globalen Durchschnittstemperatur, dann ist es, evolutionär gesehen, sicherlich erfolgreicher, diese Gefahr zunächst einmal zu überschätzen. Alle, die sich in der Menschheitsgeschichte anders verhalten haben, dürften damit auch ihre statistische Überlebenschance verringert haben. Es setzt sich dann ein Erkenntniszyklus in Gang, um diese unbekannte Gefahr zu überwinden:

o Übersicht gewinnen: Einfache Plausibilitäten bestimmen und Gesetzmäßigkeiten ableiten.
o Maßnahmen ergreifen: Einen Maßnahmenkatalog und eine Prioritätsliste erstellen und abar-beiten.
o Prüfung und Anpassung der Maßnahmen: Stimmen die Gesetzmäßigkeiten und greifen die Maßnahmen?

Ein solcher iterativer Zyklus wiederholt sich dann, bis als Ergebnis dieses Warnprozesses eine Problemlösung erzielt wird oder eine Entwarnung stattfindet. Zunächst tritt also die Überhöhung einer unbekannten Gefahr ein, die sich dann für gewöhnlich im Verlauf zunehmender Erkenntnisse auf eine realistische Einschätzung reduziert. Und am Ende gibt es für ein Warnsystem nur zwei alternative Endstadien, den Übergang in ein Lösungssystem (=Konvergenz) oder einen Niedergang (=Divergenz), der dann gewisse innere Widerstände mit sich bringen mag. In der Klimadiskussion gilt heute offenbar, dass alarmistische Erkenntnisse, beispielsweise die ominöse Hockeystick-Temperaturkurve, trotz ihrer Widerlegung irgendwie in der Argumentationskette verbleiben und entwarnende Erkenntnisse, beispielsweise der Svensmark-Effekt, vom Klima-Mainstream grundsätzlich ignoriert, marginalisiert oder gar bekämpft werden.

Wie kommt es zu diesem eigenartigen Beharrungsvermögen des Klima-Mainstreams? Schauen wir uns einmal die Beteiligten an, um zu verstehen, wo sich hier Trägheitsmomente gegen eine Divergenz des Warnsystems aufgebaut haben könnten:

·       Die Protagonisten einer Klimakatastrophe haben gut bezahlte und sichere Arbeitsplätze in Behörden und Forschungseinrichtungen, ungeahnte Forschungsbudgets, modernste Hochleistungscomputer und höchste Aufmerksamkeit in Politik und Öffentlichkeit gefunden.

·       Politik, Industrie, Medien, NGOs und Einzelpersonen mit unterschiedlichsten Motivationen sehen durch planwirtschaftliche Maßnahmen gegen eine Klimakatastrophe ihre eigenen säkularen Ziele befördert.

·       Eine „schweigende Mehrheit“, die wirtschaftlich für alle Forschungsbudgets und Klimaschutzmaßnahmen aufkommt, sich aber keine unabhängige Meinung über das Problem bilden kann und in die staatlichen und wissenschaftlichen Institutionen vertrauen muss.

Die vorstehend Erst- und Zweitgenannten profitieren also ganz erheblich von diesem Warnsystem, und offensichtlich hat sich daraus inzwischen ganz zwanglos eine „Große Koalition zur Rettung der Welt“ formiert. Eine klare Trennung von primären und säkularen Zielsetzungen scheint hier nämlich schon deshalb nicht mehr möglich zu sein, weil durch personelle Überschneidungen zwischen wissenschaftlicher Forschung, politischer Beratung und NGOs eine globale Klima-Lobby entstanden ist, die mit ihrem monokausalen CO2-Klimatismus gleichzeitig das Problem und seine Lösung propagiert. Die Zielgruppe „schweigende Mehrheit“ kann deshalb auch gar nicht mehr erkennen, in welcher Funktion ihr einzelne Vertreter dieser Lobby tatsächlich gegenübertreten. Bei einer derart unklaren Beratungslage und den exorbitanten Kosten für die angestrebte Energiewende würde Otto Normalverbraucher im täglichen Privatleben jedenfalls sofort einen unabhängigen Sachverständigen hinzuziehen…

Das Klima-Warnsystem hat sich durch seine Verflechtungen mit Säkularinteressen inzwischen zu einer statischen Weltanschauung entwickelt, in der wesentliche gesellschaftliche und wissenschaftliche Kontrollfunktionen gar nicht mehr wahrgenommen werden können. Im Gegenteil, der Klima-Mainstream bedient sich in seiner ideologischen Auseinandersetzung mit entwarnenden Einzelerkenntnissen zunehmend einer abwehrenden medialen Inquisition gegen deren Erkenntnisträger, anstatt aktiv eine wissenschaftliche Überprüfung und gegebenenfalls Einbeziehung solcher Erkenntnisse in sein Paradigma zu betreiben. Üblicherweise spielen sich wissenschaftliche Auseinandersetzungen nämlich nicht auf der Ebene von beweis- oder widerlegbaren Einzelerkenntnissen ab, sondern auf einer Metaebene der Lösungssysteme oder Paradigmen. Je geringer die Summe der gesi-cherten Erkenntnisse ist, umso größer ist die Anzahl der möglichen Paradigmen. In einem normalen wissenschaftlichen Erkenntnisprozess steigt die Summe der Einzelerkenntnisse kontinuierlich an und damit wird gleichzeitig auch die Zahl der plausiblen Paradigmen reduziert. Am Ende eines solchen wissenschaftlichen Erkenntnisprozesses bleibt schließlich ganz zwanglos ein einziges Paradigma übrig, das sich dann als gesicherte Lehrmeinung bezeichnen darf.

Um nun seinen verfrühten Lösungsansatz zu verteidigen, fordert der weltanschaulich geprägte Klima-Mainstream in einem fundamentalistischen Alleinvertretungsanspruch eben diese Lehrmeinung für seinen von neueren Erkenntnissen bedrohten CO2-Klimatismus ein, während er die jüngere Klimaentwicklung seit 1850 einfach von den natürlichen Klimaschwankungen der paläoklimatischen Vergangenheit abkoppelt. Die gesellschaftlich verantwortliche Aufgabe der Klimawissenschaft wäre es aber gewesen, den iterativen Erkenntnisprozess über unsere Klimagenese weiter voranzutreiben und damit die Anzahl der plausiblen Paradigmen auf das Gesamtbild einer wirklichen Lehrmeinung hin zu reduzieren.

Der iterative wissenschaftliche Erkenntnisprozess über die Ursachen der vorhergesagten Klimakatastrophe wurde also offenbar von einer ganz zwanglos entstandenen globalen Klima-Koalition vorzeitig außer Kraft gesetzt, und zwar zugunsten der überstürzten Einführung eines monokausalen CO2-Klimatismus. Nutznießer sind in erster Linie weltanschauliche und wirtschaftliche Säkularinteressen, die jetzt in den westlichen Industrienationen auf Kosten der Allgemeinheit und unserer Marktwirtschaft umgesetzt werden. Während sich die Schwellenländer gegen eine solche Entwicklung heftig zur Wehr setzen, um den eigenen Lebensstandard weiter steigern zu können, spielen dabei die Interessen der Dritten Welt, subsummiert unter dem Stichwort E10, überhaupt keine Rolle mehr.

Am Ende dieser Betrachtung könnte man schließlich dem Eindruck erliegen, bei der prophezeiten Klimakatastrophe handele es sich um eine moderne Weltuntergangsideologie mit kaufkraftgetriebenen Betroffenheiten.

—————————

Uli Weber ist Geophysiker und Autor des Buches ”Klimahysterie ist keine Lösung”, das bei BOD für € 18,50 erhältlich ist.

Zuerst erschienen bei Die kalte Sonne

  




Ich komme, um Standards Erneuerbarer Treibstoffe (RFS) zu begraben

Bild rechts: Quelle: CFACT

Das RFS war ein Fehler seit seiner Einführung vor zehn Jahren. Seitdem ist das Programm trotz verzweifelter Versuche, es zu beschneiden, immer mehr erweitert worden und hat mehr Leben als Freddy Krueger [= Ich glaube, irgendeine Figur aus einem Horrorfilm. Anm. d. Übers.] Vielleicht sind die beiden SenatorInnen dabei, ein Wort von William Shakespeare und Marc Anthony umzuformulieren: „Ich komme, um das RFS-Äthanol zu begraben, nicht es anzupreisen“.

Befürworter von Erneuerbaren schlagen zurück, was vorhersehbar war. Sie sagen, dass Äthanol für Arbeitsplätze und Einkommen im landwirtschaftlichen Bereich unabdingbar ist. „Angebaute heimische Rohstoffe“ diversifizieren unseren Energiemix und reduzieren Importe von außerhalb, und Biotreibstoffe helfen „den gefährlichen, vom Menschen verursachten Klimawandel“ zu verhindern. Diese Behauptungen halten genauerem Hinsehen nicht stand.

Äthanol hat bereits den „Ereignishorizont“ [the blend wall] überschritten, sagen die beiden. Selbst die gegenwärtige Äthanolerzeugung bringt viel mehr Äthanol als je sicher als Beimischung zu Benzin verwendet werden kann. Dies und weniger gefahrene Meilen in letzter Zeit bedeuten, dass die Grenze bereits erreicht worden ist mit einer Beimischung von 10% von E10 zu Benzin. Eine noch größere Beimischung würde Motoren schädigen und Garantien wertlos machen. All dies führt zu einem Überschuss von Äthanol, zunehmenden Forderungen von Maisbauern nach E15, schlechteren Marktbedingungen und schädlichen ökologischen Effekten.

Und immer noch schreiben staatliche Gesetz vor, dass der Äthanolanteil weiter steigen muss: von 9 Milliarden Gallonen Äthanol im Jahre 2008 auf 14 Milliarden derzeit und 36 Milliarden Gallonen bis zum Jahr 2022. Dies würde all diese Probleme potenzieren.

In Amerika wird schon jetzt eine Fläche größer als der US-Bundestaat Iowa umgepflügt, nur um Mais für die Äthanolgewinnung anzubauen, wobei fast 40% des gesamten Mais‘ in Äthanol umgewandelt wird. Das garantierte Einkommen ist ein starker Anreiz für Farmer, ihre Ländereien nicht mehr zum Anbau von Weizen und Roggen zu nutzen, Erhaltungsmaßnahmen abzuschwächen und Naturschutzgebiete einzubeziehen – und stattdessen Mais anzubauen. Konvertiert man diese riesigen Maisfelder zu Äthanol, erfordert dies enorme Wassermengen zur Bewässerung, Düngemittel, Pestizide und Benzin oder Diesel, um diesen Mais wachsen zu lassen, zu ernten und zu verschiffen – und noch mehr Benzin, Diesel oder Erdgas, um das Äthanol zu erzeugen und zu vertreiben.

Die Maisbauern verdienen sich eine goldene Nase, da sie von Verträgen über die jährlich zu liefernde Menge Äthanol geschützt werden, die ihnen eine Nachfrage garantieren, ebenso wie Märkte und hohe Preise für ihr Erzeugnis. Aber es gibt keinen vergleichbaren „erneuerbaren Protein-Standard“, um einen Markt zu garantieren für gesetzlich festgelegte Mengen von Geflügel, Rind- und Schweinefleisch, Eiern und Fisch.

Folglich schossen die Preise für Mais in den USA in die Höhe, und zwar von 1,96 Dollar pro mittlerem Buschel* Mais im Jahre 2005 bis zu 7,50 Dollar im Herbst 2012 und 6,68 Dollar im Juni 2013. Im Jahre 2014 fiel der Preis etwas infolge von Rekordernten und geringerer Nachfrage nach Mais und Äthanol. Seit der Einführung von RFS sind die Futterkosten für Hühner-, Puten-, Eier- und Schweinehalter um etwa 100 Milliarden Dollar höher als sie es bei Fehlen von RFS wären, schätzt der Präsident des National Chicken Council Mike Brown.

[*Ein US-Buschel sind etwa 35,2 Liter. Anm. d. Übers.]

Diese Proteinfarmer wurden überzeugt, Maisbauern mit fast 1,35 Dollar pro Gallone Äthanol zu subventionieren; Rindfleisch- und Milchbauern wurden zu ähnlichen Subventionen gezwungen. Alle diese Kosten wurden an amerikanische Familien durchgereicht. Seit 2007 haben hohe und volatile Kosten für Nahrungsmittel viele Fleisch- und Geflügelproduzenten dazu gezwungen, ihre Produktion zu drosseln, sich für Bankrott zu erklären oder ihre Unternehmen an größere Unternehmen zu verkaufen. Biotreibstoff-Verpflichtungen bedeuten auch, dass internationale Hilfsagenturen mehr für Mais und Weizen zahlen müssen. Folge: Mehr Menschen bleiben länger unterernährt.

Energie aus einem Acre [ca. 0,4 ha] Mais ist minimal verglichen mit der aus Öl- und Gasbohrungen stammenden Energie, ebenso wie aus konventioneller Energieerzeugung und solcher aus hydraulischem Brechen (Fracking). Darüber hinaus erfordert Berechnungen des US Department of Energy zufolge Äthanol auf der Grundlage von Mais 2500 bis 29.000 Gallonen Frischwasser pro Million Btu* Energie. Biodiesel aus Sojabohnen erfordert wenig nachhaltig 14.000 bis 75.000 Gallonen Wasser pro Million Btu. Zum Vergleich, Fracking erfordert lediglich 0,6 bis 6,0 Gallonen Frisch- oder Brackwasser pro Million Btu erzeugter Energie.

[*Btu = British Thermal Unit {= 1.055,06 J}]

Neue seismische Bohrungen in tiefen Gewässern, hydraulisches Brechen und andere Technologien haben zur Entdeckung enormer neuer Reserven von Öl und Erdgas geführt – und es Unternehmen ermöglicht, viel mehr Petroleum aus Reservoiren zu extrahieren als jemals zuvor gedacht. Alle diese reichlich verfügbaren Öl- und Gasvorräte können ganz einfach Äthanol und andere Biotreibstoffe ersetzen und Ölimporte der USA sogar noch weiter zurückgehen lassen.

Dieses Wiederaufleben von Kohlenwasserstoffen hat die „Peak Oil“-Vorhersagen des Club of Rome völlig obsolet gemacht, denen zufolge uns das Welt-Petroleum rapide ausgehen wird. Es machte Umweltaktivisten von Big Green rasend wütend und verursachte bei den Ressourcen-Erschöpfungs-Alarmisten eine 180-Grad-Wende hin zu Erdgas. Gerade mal vier Jahre ist es her, dass der Sierra Club 75 Millionen Dollar von Aubrey McClendon und Michael Bloomberg zur Finanzierung einer Anti-Kohle-Kampagne verwendet hat, die darauf abzielte, Kohle- durch Erdgas-Kraftwerke zu ersetzen.

Inzwischen verachten die Sierraner Erdgas und wollen die Technologie total abschaffen, die uns die neue vielfältige Verfügbarkeit von Gas erst ermöglicht hat: hydraulisches Brechen. Sie missachten die Vorteile niedrigerer Gaspreise für Familien und Fabriken, sie missachten die Notwendigkeit für Kohle- und Erdgas-Energie als Backup für Energieerzeugung aus Wind und Solar, und sie denken sich alle möglichen Formen abstruser „Gefahren“ durch Fracking aus.

Mittlerweile hat die prominente Umwelt-Denkfabrik, das World Resources Institute, einen neuen Bericht herausgegeben, der zu dem Ergebnis kam: Wenn man Pflanzenmaterial in flüssige Treibstoffe konvertiert oder zur Energieerzeugung nutzt, ist das so ineffizient, dass es unwahrscheinlich ist, dass diese Art Treibstoff jemals einen substantiellen Anteil an der Weltenergienachfrage haben wird. Vielleicht noch schlimmer, die Verschwendung zahlloser weiterer Milliarden für diese fehlgeleitete Strategie wird dazu führen, dass noch weitere Millionen wertvoller, fruchtbarer Acres als „Energielieferanten“ missbraucht werden, anstatt zu helfen, mangelernährte und hungernde Menschen zu ernähren.

Zusätzlich zu den Gründen, warum RFS ein F* auf seinen Zeugnissen verdient, bringt Äthanol um 30% geringere Reichweiten als Benzin, so dass Autofahrer das Gleiche oder mehr für eine Tankfüllung zahlen müssen, aber weniger weit fahren können. Es verbraucht Wasser, korrodiert Motorteile und bringt Rasenmäher und andere kleine Maschinen zum Stillstand.

[*Unübersetzbares Wortspiel. Zeugnisnoten in den USA gibt es nur in Gestalt von Buchstaben von A bis F. Dabei bedeutet F ,flunk‘, also durchgefallen, entsprechend der deutschen Zeugnisnote 6. Anm. d. Übers.]

Die Äthanolerzeugung tötet auch maritimes Leben (hier). Vieles des Stickstoffdüngers, der gebraucht wird, um den ganzen Mais wachsen zu lassen, wird vom Land in Wasserstraßen geschwemmt, die in den Golf von Mexiko entwässern. Dort verursachen sie im Sommer eine gewaltige Algenblüte. Wenn die Algen absterben, verbraucht deren Verrottung Sauerstoff im Wasser – was zu großen Regionen mit geringem oder gar keinem Sauerstoffgehalt führt, in denen maritimes Leben erstickt, weil es nicht wegschwimmen kann.

Hinsichtlich von Arbeitsplätzen: Das Bureau of Labor Statistics BLS definiert „grüne Arbeitsplätze“ als solche, die ein Unternehmen „umweltfreundlicher“ machen. Darunter versteht das BLS sogar Personen, die versuchsweise mit Erdgas, Bio- oder Hybridtreibstoffen betriebene Busse fahren. Die Solar Energy Society erfasst darunter auch Buchhalter, Rechtsanwälte und Landschaftsgärtner, die etwas Zeit damit zubringen, Solarpaneele herzustellen oder zu installieren. Man könnte den Verdacht hegen, dass selbst Schnellrestaurants als grüne Arbeitsplätze erhaltend qualifiziert werden, nur weil sie zufällig Lastwagenfahrern etwas zu essen verkaufen, die Mais zu einer Äthanol-Fabrik transportieren.

Das bringt uns zum „Klima-Chaos“ als der allerletzten Rationale für teure RFS. Allerdings zeigen Klimagate und andere IPCC-Skandale eindeutig, dass die „Wissenschaft“ hinter den Behauptungen zur Klimakatastrophe auf Vermutungen beruhen, manipuliert oder sogar betrügerisch sind. Und tatsächliche Beobachtungen von Temperaturen, Stürmen, Dürren, dem Meeresspiegel und des arktischen Eises haben es strikt abgelehnt, mit Computermodellen und dem Hansen-Gore-EPA-IPCC-Katastrophenhype und -szenarien (hier) zu kooperieren. Dem Katechismus des Klima-Kataklysmus‘ – welchen der Blogger Jim Guirard den Ableger des Karbon-Kultes bezeichnet – darf nicht länger erlaubt werden, fehlgeleitete Standards und Subventionen zu rechtfertigen.

Das Einzige, was bei Äthanol-RFS „grün“ ist, sind die Millionen Dollar von Steuerzahlern und Verbrauchern* – die an Politiker fließen, die das Geld an willige Unternehmer verteilen, die darauf einen Teil davon für Kampagnen ausgeben, damit Politiker wiedergewählt werden und das Absahnen am Laufen zu halten.

[*Anspielung auf Dollarnoten, die alle ziemlich gleich grün aussehen {der „Greenback“}. Anm. d. Übers.]

Es ist an der Zeit, den RFS zu beerdigen – und damit aufzuhören, Autofahrer zu zwingen, Benzin zu kaufen, das ins Benzin zu mischen die Refiner gezwungen werden. Von kapitalistischen Arrangements eines Unternehmer-Klüngels profitieren zu wenige auf Kosten zu Vieler.

Paul Driessen (read full bio)

Link: http://news.heartland.org/editorial/2015/02/03/i-come-bury-renewable-fuel-standards

Übersetzt von Chris Frey EIKE




Offshore-Windkraft: Eine Grafik killt die Märchenstunde

Leider fragte offenbar keiner der Medienvertreter, ob denn diese neuen Offshore-Anlagen auch tatsächlich Strom abliefern.  Für den Netzanschluß der Nordseeanlagen ist der Netzbetreiber TenneT verantwortlich. Daher ist es relativ einfach, sich einen Überblick über die Nordseeanlagen zu verschaffen (Die Windenergie Offshore wird sowohl in der Nordsee, als auch in der Ostsee betrieben, die Anlagen in der Ostsee werden hier nicht betrachtet).

Ich lade in monatlichen Abständen das Anlagenregister aktuell herunter. Hieraus kann man die Offshoreanlagen herausfiltern und eine Zeitreihe mit der kumulierten Nennleistung bilden. Dies wird in der grünen Fläche dargestellt. Ab dem veröffentlichten Datum der Inbetriebnahme haben die Betreiber, nach meinem Stand der Erkenntnis nach einen Anspruch auf Vergütung, auch wenn die Energie nicht in das Netz eingespeist werden kann. Aus welchem Topf dies geschieht, ( Offshore-Haftung oder EEG-Konto) kann ich nicht beurteilen. Die Einspeiseleistung der Windenergie Offshore werden von mir Dunkelblau dargestellt.

Diese beiden Zeitreihen, optisch übereinander gelegt, zeigen meiner Einschätzung nach große technischen Probleme in der Nordsee, die, so wie es scheint, bisher nicht gelöst sind.  Dividiert man die Einspeiseleistung ( blau) durch die Nennleistung (grün) erhält man einen Leistungsäquivalent, das darstellt, wieviel Prozent der Nennleistung tatsächlich in das Netz geliefert wurden. Der lineare Trend zeigt eine negative Tendenz in Richtung 20 Prozent der Nennleistung. Will sagen: Trotz der 2014 massiv gestiegenen Kapazität der Anlagen, wird am Ende des Jahres kaum mehr Strom geliefert als am Anfang. Nur ein Fünftel der installierten Leistung wird tatsächlich bereitgestellt.

Hieraus ziehe ich folgende Schlüsse. Erstens: Es gibt Probleme mit der Anlagentechnik der Offshoreanlagen. Hier können Fundamentunterspülungen, Korrosion, Überlastung der Anlagentechnik oder ein Mix dieser Ursachen zu Ausfällen der Anlagen führen.
Zweitens: Scheinbar hat man die Problem der HGÜ-Technik (Hochspannungsgleichstromübertragungsleitung) nach wie vor nicht im Griff, da sich scheinbar komplette Windparke vom Netz trennen. Deshalb sollte man sich fragen, ob eine Umsetzung der Stromautobahnen zur Zeit ein Vabanquespiel für die deutsche Energieversorgung darstellt.

Rolf Schuster ist als Betriebsmittelkonstrukteur tätig. In seiner Freizeit hat er begonnen eine Windkraft-Datenbank anzulegen, um die Behauptungen der Windkraft-Lobby überprüfen zu können. Mittlerweile werden seine Grafiken auch von der Fachwelt beachtet.

Übernommen von ACHGUT hier




Gedanken eines Ingenieurs zur Hypothese einer Großen Klimaänderung

Hypothesen einer grundlegenden Klimaänderung?

Die AGW-Theorie schreibt dem CO2 eine starke, ausschlaggebende Rolle positiver Rückkopplungen zu. Dem ist mit Sicherheit nicht so. Etwas anderes treibt das Klima. Und wir wissen bislang noch nicht sicher was. Es war für die Menschheit immer schwierig, eine Theorie zu verwerfen, bevor eine andere, mehr versprechende Theorie diese ersetzen konnte. So unbequem wie das ist, aber wir werden oft auf das Rätsel reduziert „Wie sonst kann man sich das erklären?“. Und genau das ist derzeit der Fall. Allerdings ist die Beweislage für eine ausschlaggebende positive Rückkopplung durch CO2 nicht nur sehr schwach, sondern gar nicht existent. Dies verpflichtet uns, unablässig nach den wahren Treibern des Klimawandels zu suchen und hier vor allem nach den Treibern grundlegender Ereignisse.

Ich möchte gerne eine dem gesunden Menschenverstand folgende Hypothese bzgl. Klimatreiber zur Diskussion stellen, von der man eventuell zumindest teilweise schon zuvor gehört hat. Aber gleichzeitig biete ich eine investigative Methode an, von der ich glaube, dass man sie noch nie gehört hat. Auch ist diese vielleicht geeignet, Interesse zu wecken – an der Untersuchung, meine ich. Als Ingenieur und Manager möchte ich einige simple Perspektiven zum Thema grundlegende Klimaänderungen anbieten.

Ich glaube, es ist offensichtlich, dass der primäre Klimatreiber nicht CO2 ist und dass es auch nicht die Sonne ist (obwohl der solare Einfluss weit größer ist als der CO2-Einfluss). Die Aussage, dass die Sonne NICHT der primäre Treiber ist, ist glaube ich auf höchstem und hervorstechendstem Niveau perfekt verständlich (d. h. nicht begraben unter immensen Detail-Konfusionen).

Die solare Variabilität hat eindeutig seine häufige Signatur, jedoch mit geringer Amplitude auf das Klima (mit solarer Variabilität meine ich alle der vielfältigen Varianten: mittlere Helligkeit, mittlerer Abstand, Zyklen von Sonnenflecken, koronale Vorgänge, Modulationen kosmischer Strahlung usw.). Allerdings operiert die Sonne auf der Erde mit gewaltigen positiven Rückkopplungen. Diese einfache Tatsache schließt die Sonne als DEN primären Treiber aus. Wen ich primär sage, spreche ich von den primären Treibern, die für die wiederholten großen Transitionen zwischen Eis- und Warmzeiten – mit geringer Häufigkeit, aber sehr großer Amplitude verantwortlich sind.

Wenn die Erde vereist ist, wird sie bzgl. der Sonnenstrahlung hoch reflektiv und sollte daher als solche dauerhaft in diesem kalten glazialen Zustand verharren – falls es nicht irgendeinen anderen mächtigen Treiber gibt, der diese Lage wiederholt umgekehrt hat. Das gilt auch umgekehrt: Wenn die Erde in einer Warmzeit steckt, absorbiert sie sehr viel Sonnenlicht und sollte daher dauerhaft in diesem Warmzustand verharren – falls es nicht irgendeinen anderen mächtigen Treiber gibt, der diese Lage wiederholt umgekehrt hat. Aber wir wissen, dass beide Zustände wiederholt umgekehrt worden sind.

Geht man mal alles durch, was erforderlich ist, um diese großen Transitionen zu erklären, mit positiv rückgekoppelter solarer Variation, bekommt man einen gut choreographierten Satz unwahrscheinlicher Umstände. Ein Satz von Umständen, der große solare Variabilität erfordert (größer als die Albedo-Änderungen der Erde) und genaues Timing (z. B. um den Planeten nicht zu einem Eisball werden zu lassen oder ihn zu verbrennen); außerdem wiederholte Ereignisse dieser Art (60 bis 70 sind bekannt). Dieser Satz von Umständen schließt die Sonne als primären Treiber aus, selbst mit ihrem Fingerabdruck häufiger Signaturen mit geringer Amplitude auf vielfältige bedeutende Weise (CO2 weist natürlich das gleiche Dilemma auf).

Die Frage lautet also: „Was ist denn nun dieser ungemein starke Treiber mit geringer Häufigkeit, aber hoher Amplitude, der wiederholt die stabilen Zustände umgeschrieben hat in Gestalt großer Klima-Transitionen?“ Ich theoretisiere mal, die Antwort ist sehr wahrscheinlich die zweite der ausgeprägtesten irdischen Energiequellen … der Kernreaktor im zentralen Erdkern. [siehe Bild oben rechts!]

Hier folgt ein simplistisches, aber trotzdem genaues und nützliches „großes Bild“ der beobachteten Temperatur-Variationen, die so typisch waren während der letzten mehrere Millionen Jahre. Während des jüngsten Interglazials, der einzigen Zeit, in der Menschen existierten, gibt es eine erstaunliche Korrelation verstärkten Aufblühens der Menschheit und sehr wahrscheinlich allen Lebens in warmen Perioden mit hohem CO2-Gehalt.

Wir wissen schon lange, dass die Erde exothermisch ist, und zwar bis zu einem Ausmaß, dass sich das Erdinnere seit seinen Anfängen während der 4,5 Milliarden Jahre seitdem längst abgekühlt haben müsste. Wir wissen auch, dass andere Planeten in unserem Sonnensystem exothermisch sind, sehr wahrscheinlich aus dem gleichen Grund. Man braucht wirklich keinen großen Vertrauensvorschuss um zu erkennen, dass es einen riesigen und sehr heißen Kernreaktor im Zentrum der gegenwärtig sich in einer Zwischeneiszeit befindenden Erde gibt. Interne konvektive Bewegungen im Erdmantel würden das Innere der Erde thermisch homogenisiert haben, es sei denn, im Inneren existiert eine zentralisierte Heizquelle.

In ihrem Ursprung war die Erde ein flüssiger Ball, durch und durch vollständig geschmolzen. Wir glauben stark, dass schwere Elemente wie Eisen und Nickel sich der Gravitation folgend im Zentrum ansammelten. Aber was ist mit noch schwereren Elementen wie Thorium und Uran? Diese radioaktiven Materialien würden sich im Zentrum des Zentrums angesammelt haben. Und wir wissen auch, dass eine ausreichende Menge dieser radioaktiven Elemente mit – höchst wichtig – ausreichender nachbarschaftlicher Dichte spontan eine Kettenreaktion auslösen und enorme Wärmemengen erzeugen würde.

Es scheint also wahrscheinlich, dass ein solcher Reaktor existiert. Und diese Erklärung wird zu „Occams Rasierer“ bei der Beantwortung der Frage: „Woher bloß stammt die Wärme, dass die fortgesetzte Kontinentaldrift antreibt, zehntausende Vulkane, die Zirkulation im riesigen inneren Erdmantel und all die wiederholten Erdbeben auf der Erde?“ Diese Energie ist kein Überbleibsel von Wärme aus der Urzeit und kann mit Sicherheit auch nicht mit solaren Phänomenen erklärt werden. Wahrscheinlich, stammt die Energie aus einem Kernreaktor im inneren Erdkern (Es gibt Theorien, die diese Phänomene teilweise erklären mit verteiltem radioaktivem Zerfall. Allerdings passt die Erklärung eines zentralen Reaktors viel besser zu all dem – besonders hinsichtlich der erforderlichen Energiemenge ebenso wie des nachhaltigen enormen thermischen Gradienten im Erdinneren). Und es gibt starke Beweise für einen solchen zentralen Kernreaktor, während lediglich noch dessen Ausmaße Gegenstand von Diskussionen sind.

Wir wissen, dass die Sonne interne Wettervorgänge kompliziert; Wettervorgänge, die zu vielen Phänomenen führen, die wir beobachten. Wir wissen auch dass die Erde interne Wettervorgänge kompliziert hat, die Umpolungen erklären (beides erst vor Kurzem verstanden). Wie schwer kann es also sein sich vorzustellen, dass es auch im Zentrum des Erdkerns interne Wettervorgänge gibt?

Man kann sich leicht theoretisch einen viskosen, aber doch rotierenden Pool mit schweren, radioaktiv zerfallenden Materialien vorstellen, und zwar im Erdkern (mit einem geschätzten Durchmesser von >10 km) – was für eine bedeutende Primärwärme sorgt, die eine Zwischeneiszeit erzeugt und am Leben hält (und auch die Kontinentaldrift zusammen mit Erdbeben und Vulkanen antreibt). Erreichen diese Reaktionen einen Höhepunkt, kann der Zerfall durch Strömungen außerhalb dieses Zentrums unterbrochen werden, womit die Materialien weiter verteilt werden und weniger dicht sind. Und dann nimmt die Zerfallsrate signifikant ab – ebenso wie die Rate der Kontinentaldrift und die Häufigkeit von Erdbeben und Vulkanausbrüchen.

Im Folgenden führt Voisin seinen Ansatz näher aus. Er stellt einen Zusammenhang her zwischen der Rate der Bewegungen der Erdkruste (Kontinentalverschiebung), die hoch ist bei hoher Aktivität seines angenommenen Erdkern-Reaktors und niedrig im umgekehrten Fall, und der Klimaentwicklung. Er hat keine Studie gefunden, die sich dies zum Thema gemacht hatte.

Zwar stellt er den solaren Einfluss nicht in Frage (wohl aber den CO2-Enfluss!), hält aber die Amplitude ausschließlich solarem Treiben des Klimas für zu gering, um die beobachteten tatsächlichen Ausschläge zu erklären.

Aus seinen Ausführungen zieht er dann Schlussfolgerungen für die nächste Zukunft. Diese möchte ich hier wieder direkt übersetzen:

Diese Erde hat >11.000 Jahre in ihrem gegenwärtigen thermischen Anstieg verbracht (wahrscheinlicher sogar 18.000 bis 20.000 Jahre, abhängig davon, wie man es betrachtet). Im Mittel verharrt die Erde etwa 90.000 Jahre in Vereisung, dann 6000 bis 15.000 Jahre im Interglazial, bevor ´sie erneut in eine 90.000 Jahre dauernde Vereisung zurückfällt. Dieser Zyklus hat sich seit etwa einer Million Jahren erwiesenermaßen wiederholt, wahrscheinlich auch noch länger. Folglich ist es eine blanke Tatsache, dass der nächste Rückfall in eine große Vereisung überfällig ist.

Wir haben keine Ahnung, wann genau dies passieren wird, ja wir wissen noch nicht einmal, was diese großen Schwingungen überhaupt auslöst. Es könnte in 500 oder 1000 Jahren passieren – ist aber irgendwie unwahrscheinlich. Es kann sein, dass der nächste Rückfall in die Vereisung bereits unmittelbar bevorsteht – wir wissen es einfach nicht. Aber wir wissen dies: Es wird passieren, es wird abrupt sein (in geologischen Zeiträumen), und es wird sehr ernst für uns und alle Lebensformen hier auf der Erde. Und es ist nicht allzu schwierig sich vorzustellen, dass falls die Variabilität des Reaktors im Erdkern der wirkliche Grund dafür ist, dass das Ereignis verbreitet einher gehen wird mit erhöhten Häufigkeiten von Erdbeben und vulkanischer Aktivität, was den Reaktor abschalten und den nächsten Rückfall in die Vereisung auslösen wird. Es kann gut sein, dass wir uns heute an genau diesem Punkt befinden!! (Tatsächlich ist es wahrscheinlicher, dass das Ereignis, geologisch betrachtet, bereits vor Kurzem stattgefunden hat und wir gegenwärtig das „thermische Residuum“ eines verringerten Reaktor-Outputs erleben).

Irgendwie ist es uns gelungen, uns selbst davon zu überzeugen, nach einer subtilen, nuancierten Nadel im Heuhaufen zu suchen (große Variation durch geringe Störung). Stattdessen sollten wir nach einem Hammer in einer ansonsten leeren Schublade suchen (eine bedeutende Störung). Es gibt nichts Subtiles an diesen großen Klimaschwankungen. Sie erfolgen sehr abrupt und stark (sogar noch stärker als es nach unserem „geglätteten“ Rückblick aussieht). Es ist bekannt – was immer die Ursache für diese Schwankungen sind – sie überschreibt alle anderen Betrachtungen (einschließlich solar induzierter stabiler Zustände). Und doch bleiben viele von uns davon überzeugt, dass wir Sünder sind und uns selbst bestrafen müssen für nuancierte CO2-Emissionen. Dies ist inkonsistent sowohl zu den Beweisen als auch jedem gesunden Menschenverstand. Wir sind keine Sünder. Wir sind die guten Hüter dieser Erde (da wir auf unsere Missetaten geologisch sofort reagieren). Tatsächlich sind wir die „Natur“ dieser Erde. Können Sie sich vorstellen, dass uns besuchende Außerirdische zu einer anderen Schlussfolgerung kommen? Und eine erhöhte atmosphärische CO2-Konzentration stimuliert die Entwicklung aller Lebensformen. Unvermeidlich wird diese Erde in die nächste Vereisung zurückfallen, und das ist es, worauf wir uns vorzubereiten beginnen müssen.

In den nächsten beiden Abschnitten geht es wieder um Altbekanntes, nämlich um CO2 und große Klimaänderungen (was er genau wie die Klimarealisten einschätzt, dass also CO2-Änderungen der Temperatur hinterher hinken) und um die Versauerung der Ozeane.

In einem dritten Abschnitt führt er noch einmal seine Hypothese aus, dass aufgrund solarer Vorgänge ein geringer, aufgrund der von ihm angenommenen Vorgänge im Erdkern aber ein sehr starker Temperaturrückgang bevor steht. Dann fasst er die Ergebnisse seiner gesamten Ausführungen bis hier in folgenden Punkten zusammen:

Summary

1. Die Klimawissenschaft ist sehr kompliziert und weit davon entfernt, „settled“ zu sein.

2. Das Erdklima wird überwältigend stark dominiert von Negativ-Rückkopplungen, die gegenwärtig in unseren Modellierungs-Bemühungen kaum repräsentiert sind und auch nicht angemessen bei den derzeitigen Untersuchungen eine Rolle spielen.

3. Eine Klimaerwärmung treibt den atmosphärischen CO2-Gehalt hoch, da sie alle natürlichen Quellen von CO2-Emissionen stimuliert. Klimaabkühlung verringert den CO2-Gehalt.

4. Massive, wenngleich verzögerte thermische Modulationen des in den Ozeanen gelösten CO2 sind es, die ultimativ Modulationen des atmosphärischen CO2 antreiben und dominieren.

5. Die gegenwärtige Spitze des atmosphärischen CO2-Gehaltes ist weitgehend natürlichen Ursprungs (~98%). Von den 100 ppm Anstieg in letzter Zeit (von 280 auf 380 ppm) ist die Erhöhung von 280 auf 378 ppm natürlich, während der restliche Anstieg von 378 auf 380 anthropogen sein kann.

6. Die gegenwärtige CO2-Spitze in der Atmosphäre wäre höchstwahrscheinlich ohne dass sich der Mensch entwickelt hätte deutlich höher als heute beobachtet. Der zusätzliche CO2-Beitrag durch Insekten und Mikroben (und Säugetieren und nicht von Menschen bekämpfte Waldbrände) hätten höchstwahrscheinlich eine größere Spitze des CO2-Gehaltes bewirkt.

7. Der atmosphärische CO2-Gehalt hat einen drittrangigen bis nicht existenten Einfluss auf Auslösung und Verstärkung von Klimawandel. CO2 ist nicht entscheidend. Modulationen des atmosphärischen CO2-Gehaltes sind die Auswirkung von Klimawandel und nicht dessen Ursache.

8. Erhöhte atmosphärische CO2-Werte sind am ehesten mit einem erhöhten Vitamin-C-Gehalt vergleichbar – stimulieren sie jedoch alle Lebensformen auf der Erde zum Vorteil aller Lebensformen.

9. Der menschliche Verbrauch fossiler Treibstoffe lässt zuvor abgeschiedenes CO2 wieder in den Lebenszyklus des Planeten eintreten. Das ist vorteilhaft.

10. Zunehmender Energieverbrauch ist identisch mit zunehmendem menschlichen Wohlstand. Allerdings sind Warmzeiten mit einem relativ hohen CO2-Anteil auch historisch erforderlich, um menschliches Wohlergehen zu ermöglichen.

11. Die Sonne drückt dem Klima häufig verschiedene Signaturen auf, jedoch mit geringer Amplitude. (Wenn es eine auf CO2 hindeutende Signatur geben sollte, ist diese so schwach, dass sie bisher nicht nachgewiesen werden konnte).

12. Wir kennen bislang noch nicht die Treiber seltener Klimawandel mit sehr großer Amplitude. Allerdings überschreiben diese mächtigen Treiber alle anderen Treiber, auch die solaren.

13. Milankovitch-Zyklen sind ausgiebig untersucht worden mit dem Ergebnis, dass sie nur für thermische Änderungen geringer Amplitude in Frage kommen mit Häufigkeiten, die mit Klimaschwankungen korrelieren können oder auch nicht. Allerdings gibt es eine Schwingung, nämlich den 100.000-Jahre-Zyklus (orbitale Exzentrizität), die sicher nicht korreliert und die den Georeaktor im Erdkern, über den hier spekuliert wird, gravitationsmäßig beeinflussen kann.

14. Die Erde hat sehr wahrscheinlich einen Kernreaktor im Erdkern. Modulationen des Outputs dieser von dem Reaktor erzeugten kinetischen Energie können sehr gut in Frage kommen für die selteneren Änderungen des Klimas mit hoher Amplitude.

15. Die nächste große Klimaänderung, auf die sich die Menschen vorbereiten müssen, ist zumindest eine Mini-Eiszeit, wenn nicht eine große Eiszeit. Daher wird der Energieverbrauch deutlich weiter zunehmen (ich hoffe, dass ich mich irre).

Sehr ausführlich führt Voisin seine Hypothese dann weiter aus, spricht Einwände von Lesern an und Ähnliches. Es würde zu weit führen, das hier alles zu übersetzen. Hier geht es mir ja nur darum, wie eingangs schon erwähnt, eine – zumindest für mich – völlig neue Hypothese als Grundlage für Klimaänderungen vorzustellen.

Am Ende macht Voisin sechs Vorhersagen, die hier wieder übersetzt werden sollen:

Sechs spezifische Vorhersagen der Geo-Reaktor-Hypothese

1.Die gegenwärtige Rate der Kontinentalverschiebung ist etwas unterschiedlich zur Rate, wie sie vom Beginn bis zur Mitte des Holozän vorherrschend war (aber wahrscheinlich nur marginal und möglicherweise fast ununterscheidbar, aber nichtsdestotrotz eine geringere Rate als im Vergleich zum Anfang des Holozäns).

2.Beide o. g. Driftraten (am Anfang bzw. Ende des Holozäns) sind erkennbar höher (> 2 mal und wahrscheinlich 5 bis 10 mal) als das, was während der großen Vereisung zuvor existierte – sagen wir, höher als während der Periode vor 25.000 Jahren.

Bemerkung: Der Begriff ,Kontinentalverschiebungs-Rate‘ kann genausogut durch die Begriffe ,tektonische Aktivitäts-Rate‘ oder ;Erzeugungsrate ozeanischer Kruste‘ ersetzt werden.

3.Eine außerordentliche Gravitationsstörung der Erde oder eine Konfluenz derartiger Störungen ereignete sich vor 18.000 Jahren (sagen wir, mit einer Bandbreite von vor 32.000 bis 16.000 Jahren) und hat ein ,Anfahren‘ des Georeaktors im Erdkern verursacht.

4.Das Gleiche ereignete sich auch vor 11.000 Jahren (sagen wir, mit einer Bandbreite von vor 32.000 bis 16.000 Jahren).

5.Untermeerischer Vulkanismus hat während der voran gegangenen großen Vereisung und beim Übergang zum Holozän kohärent mit terrestrischem Vulkanismus ab- bzw. zugenommen.

6.Der CO2-Gehalt der Ozeane ist während des Holozäns gestiegen im Zuge des in Punkt 5. angesprochenen untermeerischen Vulkanismus‘.

Auch die folgenden abschließenden Bemerkungen sind übersetzt:

Hinsichtlich der Vorhersagen 1 und 2 ist die University of Wyoming jüngst ein Entwickler verbesserter Datierungs-Technologien von untermeerischen Proben, die wahrscheinlich in der Lage sind, die Komplexe 1 und 2 zu validieren oder zu verwerfen. Diese Universität hat sich ehrerbietig beklagt hinsichtlich unterschiedlicher Prioritäten und der Finanzierung der von mir geforderten weiteren Untersuchung. Vielleicht hat einer der Leser Ideen, wie man diese Hindernisse überwinden kann. Oder kann ein Leser vielleicht einen alternativen Untersucher vorschlagen?

Hinsichtlich der Vorhersagen 3 und 4, hat sich Dr. Willie Soon jüngst ebenfalls über miteinander konkurrierende Prioritäten und Finanzierungen beklagt. Vielleicht hat einer der Leser Ideen, wie man diese Hindernisse überwinden kann. Oder kann ein Leser vielleicht einen alternativen Untersucher vorschlagen?

Hinsichtlich der Vorhersagen 4 und 5 bin ich weit offen für Vorschläge, wie man mit der Validierung oder der Widerlegung weitermachen kann.

Kurz vor Ende kam mir eine weitere Vorhersage hinsichtlich dieser Hypothese in den Sinn. Es gibt viele Ketten von Vulkaninseln auf der Erde, die chronologisch eine Reihe neuer Inseln hat entstehen lassen. Wahrscheinlich wird die Datierung dieser individuellen Entstehung der neuen Inseln zeigen, dass ihr Auftauchen dazu tendiert, mit dem Timing von Interglazialen kohärent zu sein wie zur Stützung von Vorhersage 5 oben. Allerdings wird dies nicht einfach sein, zeigt doch schon der erste Augenschein das Auftauchen dieser Inseln über sehr lange Zeiträume, wobei wahrscheinlich eine ganze Reihe von Ereignissen stattgefunden hat, bevor die neue Insel als solche im Ozean auftauchte.

Ronald D. Voisin

Fremont, CA

Das gesamte PDF steht hier: 

Related Files




Analyse der Leitgrafik im IPCC Synthesis Report, SYR-AR5 und der Trend zu Alarmismus beim IPCC

von Albrecht Glatzle

Der Leitgrafik des 5. Sachstandsberichts des IPCC AR5 ist nachfolgende Abbildung (Fig SPM.5b) aus dem Synthesis-Report 2014 (http://ipcc.ch/report/ar5/syr/). Diese Abbildung erscheint in diversen Kombinationen und Modifikationen im genannten Synthesis Report insgesamt 4-mal (Fig. SPM5; Fig. SPM10; Fig. 2.3; Fig. 3.1). Es ist auffällig, dass diese Abbildung den beobachteten, bzw. erwarteten anthropogenen Temperaturanstieg als Funktion der kumulativen CO2-Emissionen seit Beginn der industriellen Revolution darstellt und die daraus folgenden CO2-Konzentrationen mit den entsprechenden Fehlerbereichen nur in Form verschiedenfarbiger Ellipsen angibt. Diese Darstellung ist ungewöhnlich, da fast niemand mit kumulativen CO2-Emissionen umgeht, aber jeder interessierte Laie die diversen modellierten Abhängigkeiten zwischen CO2-Konzentration und proklamiertem Temperaturanstieg kennt.

From IPCC: Climate Change 2014 Synthesis Report

 

 

Macht man sich die Mühe, oben genannte Abbildung (Fig. SPM5b) in eine Temperatur-CO2-Konzentrations-Beziehung zu setzen, indem man die den Ellipsenzentren zugehörigen Temperaturwerte abliest und gegen die mittleren CO2-Konzentrationen, die den Ellipsen zugeordnet wurden, aufträgt, erhält man folgende Abbildung 1 (Kurve 1, blau: Werte abgelesen aus Fig. SPM5b).

Abb. 1: Erwarteter bzw. angeblich beobachteter Temperaturanstieg in Anhängigkeit von der CO2-Konzentration mit logarithmischer Kurvenanpassung (schwarze Linien).
1. (Blau) Werte wurden in Fig. SPM5b abgelesenen. 2. (Kastanienbraun) Nur die Werte für 280 und 400 ppm wurden aus Fig. SPM5b übernommen, die einem anthropogenen Temperaturanstieg von 0,73ºC seit Beginn der Industrialisierung entsprechen, und logarithmisch extrapoliert. 3. (Türkis) Logarithmische Fortschreibung eines angenommenen anthropogen bedingten Temperaturanstiegs von 0,6ºC seit Beginn der Industrialisierung (vom IPCC in Fig. 1.10, SYR-AR5 als wahrscheinlichster Wert dargestellt). 

Tab. 1: Klimasensitivität und CO2-Konzentration bei Erreichen des 2-Grad-Ziels bei logarithmischer Fortschreibung der angenommenen, seit Beginn der Industrialisierung anthropogen verursachten Erwärmung (bzw. in Abhängigkeit des in Fig. SPM5b dargestellten IPCC-Szenarios).

Szenario

Anthropogener

Temp.-Anstieg seit 1880 (ºC)

Klimasensitivität: (Temp.-Anstieg bei CO2-Verdopplung)

ppm CO2 bei Erreichen des 2ºC-Grad-Ziels

IPCC, Abb. 1; Fall 1

0,73

2.21

534

Abb. 1; Fall 2

0,73

1.42

744

Abb. 1; Fall 3

0.6

1.17

919

Non-IPCC- Autoren

0.3

0.58

3019

Bei der blauen Kurve in Abb. 1, die aus den aus FigSPM5b abgelesenen Werten rekonstruiert wurde, fallen 3 Dinge auf:

1)    Das IPCC hat eine exponentielle Phase des Temperaturanstiegs eingebaut zwischen 400 und 450 ppm. Nichts aber auch gar nichts (außer einem vom IPCC beabsichtigten Alarmismus) spricht dafür, dass die Temperatur exponentiell mit der CO2-Konzentration ansteigt (siehe auch Punkt 3 dieser Auflistung) – und dies ausgerechnet in den kommenden 3 Jahrzehnten, in denen wir uns voraussichtlich der 450 ppm-Marke nähern werden. Hat das IPCC die ungewöhnliche Darstellung aus Fig. SPM5b gewählt, um den konstruierten völlig unbegründeten exponentiellen Schlenker nach oben zu kaschieren?

2)    In genannter Abbildung (Fig. SPM5b) geht das IPCC von einem anthropogen verursachten Temperaturanstieg von 0,73ºC seit Beginn der Industrialisierung aus (begleitet von einem CO2-Anstieg von 280 auf 400 ppm). Dieser Wert ist mit sehr hoher Wahrscheinlichkeit deutlich zu hoch gegriffen. Er entspricht der Differenz zwischen dem lt. IPCC beobachteten Temperaturanstieg seit 1880 von 0,85ºC, was nach Ansicht diverser Autoren auch zu hoch gegriffen ist, und dem untersten Zipfel des Konfidenzintervalls der „natural forcings“ in Fig. 1.10 SYR-AR5 (Global Average: Land and ocean surface). Der wahrscheinlichste Wert für den menschengemachten Anteil dieser Erwärmung ist laut IPCC (Fig. 1.10 SYR-AR5) 0,6ºC, was der Differenz von 0,85ºC Gesamterwärmung abzüglich der wahrscheinlichsten Erwärmung aufgrund „natural forcings“ (Mitte des Konfidenzintervalls in Fig. 1.10) von 0,25ºC entspricht. Gehen wir also in Übereinstimmung mit dem IPCC von dem Erwartungswert einer anthropogen verursachten Erwärmung von 0,6ºC seit Beginn der Industrialisierung aus, dann erreichen wir die 2-Grad-Erwärmung nicht schon bei einer CO2-Konzentration von 534 ppm (Tab. 1 und Kurve 1 mit blauen Werten in Abb. 1), sondern erst bei 919 ppm (Tab. 1 und Kurve 3 (türkis) in Abb1). Selbst wenn wir nur den vom IPCC hinzugeschusterten exponentiellen Schlenker weglassen (vgl. Punkt 1 dieser Auflistung), würden wir das 2-Grad-Ziel erst bei 744 ppm erreichen (Tab. 1 und Kurve 2 (kastanienbraun) in  Abb.1). Also kein Grund zu Hysterie, Eile oder Aufregung, die uns das IPCC ganz offensichtlich einreden will.

3)    Die Analyse von Fig. SPM5b ergibt, dass die theoretisch-physikalisch gut begründete und in jedem IPCC-Bericht bestätigte logarithmische Abhängigkeit des Temperaturanstiegs von der Konzentration von Treibhausgasen (d.h. konkret: Abnehmende Temperaturzunahme bei linearem CO2-Anstieg) erst bei hohen CO2-Werten einsetzt (Abb. 1, blaue Kurve). Bei niedrigen CO2-Werten wird vom IPCC entgegen der von ihm selbst akzeptierten Grundsätze (z.B. AR4, WG1 Chapter 2(1), p. 140: „For CO2, radiative forcing increases logarithmically with mixing ratio“) von einer exponentiellen Abhängigkeit ausgegangen (siehe auch Punkt 1 dieser Auflistung). Die logarithmische Kurvenanpassung (schwarz) an die Werte aus Fig. SPM5b (blau in Abb.1) zeigt einen für aktuelle CO2-Werte viel zu hohen theoretischen, menschengemachten Temperaturanstieg von 1.1ºC (fast das Doppelte von dem Wert, den das IPCC selbst für den wahrscheinlichsten hält).

Nach Ansicht vieler Experten ist auch der Wert von 0,6ºC als durch Treibhausgase verursachter, menschengemachter Anteil an der leichten Erwärmung der Erde seit Beginn der Industrialisierung zu hoch gegriffen. Vor allem verträgt er sich schlecht mit der Tatsache, dass kein einziges IPCC-Modell den Erwärmungsstillstand seit den letzten 18 Jahren trotz weiter steigender CO2-Werte vorhergesehen hat. Die Tatsache, dass die aktuellen mittleren Temperaturwerte außerhalb, d.h. unterhalb der Konfidenzintervalle aller früheren IPCC-Projektionen liegen (Abb. 2), spricht massiv gegen die Validierung der IPCC-Modelle (so würde ein vergleichbares Ergebnis jedenfalls in jeder studentischen Arbeit gehandhabt: Es würden die Modelle verworfen und nicht die Grafik, die die Unzulänglichkeit der Modelle zeigt: Die hier gezeigte Abb. 2 wurde von den IPCC-Funktionären für die endgültige Fassung des AR5 herauszensiert). Für den durchaus wahrscheinlichen Fall, dass die bisherige menschengemachte Erwärmung nur 0,3ºC oder weniger beträgt, würden wir eine menschengemachte Temperaturerhöhung von 2ºC erst bei mehr als 3000 ppm CO2 erreichen. Die fossilen Energieträger würden bestimmt vorher zu Ende gehen.

Abb 2: Die derzeit beobachteten Temperaturen (schwarze Punkte) liegen unterhalb der Konfidenzintervalle aller Temperaturprojektionen, die in den ersten 4 IPCC Berichten veröffentlicht wurden (FAR, SAR, TAR AR4). Quelle: 2nd order draft of AR5. The Washington Times, Dec. 18th 2012: Editorial: Chilling Climate-Change News. New leak shows predictions of planetary warming have been overstated. http://www.washingtontimes.com/news/2012/dec/18/chilling-climate-change-news/

Schlussfolgerung: Diese kritische Untersuchung des Leitgrafik des SYR-AR5 (Fig. SPM5b) legt nahe, dass die festgestellten Übertreibungen, die Darstellungsart, die Datenauswahl bis hin zum offensichtlichen Bemühen, interne Wiedersprüche zu vertuschen, nur in eine Richtung weisen, die Neigung des IPCC zum Alarmismus. Sie bestätigt, dass offenbar mehr Gewicht auf das Erscheinungsbild der Dringlichkeit des Handelns (Dekarbonisierung) gelegt wird als auf Solidität und wissenschaftliche Konsistenz in den Darstellungen.