1

Neue Umfrage: die meisten Amerikaner glauben nicht an einen Klima-,Konsens‘

Vor einem Jahr hat Präsident Obama versucht, die Nation hinter einen großen Plan zu bringen: Man bekämpfe die Klimaänderung durch drastische Reduktion der Kohlenstoff-Verschmutzung zu Hause. Gleichzeitig trachtete er danach, andere Länder dazu zu bringen, ihm zu folgen. Ein Schlüsselpart dieser Strategie war für die USA, öffentliche Gelder nicht mehr zur Finanzierung der Konstruktion der meisten Kohlekraftwerke im Ausland zu verwenden, wird doch Kohlenstoff als einer der Hauptgründe steigender Verschmutzung in Gestalt Wärme einfangender Gase gesehen. Aber ein Jahr später ist der Impuls zum Stehen gekommen, den der Plan von Präsident Obama bringen sollte, nämlich einen globalen „Domino-Effekt“, der dazu führen sollte, dass die Finanzierung von Kohleprojekten durch öffentliche Institutionen auf der ganzen Welt abgewürgt werden sollte. – Anna Yukhananov und Valerie Volcovici, Reuters, 12 August 2014.

Im Herbst 2013 hat Gina McCarthy, Chefin der EPA, vor dem Kongress ausgesagt und die Politik der Obama-Administration bzgl. der Klimaänderung verteidigt. Diese Politik wurde in seiner zweiten Amtszeit aus politischer Berechnung durchgeführt und nicht, um diplomatische oder legislative Ziele zu erreichen. Aber trotz all der Rhetorik zu diesem Thema begrüßen nur wenige Nationen den Vorstoß des Weißen Hauses, und eine zunehmende Anzahl von Staaten tut genau das Gegenteil. Die Administration teilt die Einschätzung, dass ohne globale Beteiligung an der Reduktion von Treibhausgasen diese inkonsequent sind. Länder auf der ganzen Welt haben versucht, politische Maßnahmen zur Reduktion von Treibhausgas-Emissionen zu implementieren, ohne bestehende Energiequellen als Teil des Energiemix‘ für die nationale Wirtschaft einzubeziehen, und die Folgen waren verheerend. – Andrew Powaleny, The Daily Caller, 11. August 2014.

Die Diskussion in Kalifornien über ein Zertifikate-Handelssystem könnte erst der Vorläufer eines größeren Konfliktes in der Partei in der ganzen Nation sein. Progressive Kräfte tun den Verlust dieser Regionen und mit ihnen die Klasse der weißen Arbeiter, die – wie die liberale Website Daily Kos Anfang dieses Jahres schrieb – lediglich eine Bande von Rassisten sind, mit einem Schulterzucken ab. Aber zumindest hier in Kalifornien besteht ein großer Teil der Arbeiterschaft aus Minderheiten, die zunehmend die ökonomischen Leidtragenden der Erleuchteten sind. Im Grunde hat man auf der einen Seite überwältigend Weiße, oftmals überaus wohlhabende Grüne, die alliiert sind mit mächtigen Politikern der Demokraten. Sie finden sich zusammen, um die Raffinerie zu schließen. Auf der anderen Seite finden sich die Minderheiten, viele davon Gewerkschaftsmitglieder, dessen Lebensumstände und gut bezahlte Jobs von der Raffinerie abhängen. Viele der heutigen progressiven Kräfte sind nicht nur nach Kräften bemüht, ihre Privilegien zu schützen, sondern auch die Möglichkeiten für praktisch alle anderen zu begrenzen. – Joel Kotkin, New Geography, 4 August 2014

China tut sich schwerer als gedacht mit der Auslösung eines Schiefergasbooms wie in Nordamerika und stellt seine hochtrabenden Ziele in Frage, Erdgas zur Sauberhaltung der Luft zu verbrennen und den Ausstoß von Treibhausgasen zu kontrollieren. Unter Verweis auf die komplizierte Geologie und hohe Produktionskosten hat die chinesische Regierung ihre ambitionierten Ziele für das Jahr 2020 bzgl. der Schiefergas-Entwicklung in etwa halbiert. – Mike Orcutt, MIT Technology Review, 12 August 2014

Die Brüsseler Energiepolitik gefährdet 1,5 Millionen Arbeitsplätze in UK, indem sie die Hersteller mit hohen Energiekosten belastet. Davor hat eine einflussreiche Gruppe führender Industrieller gewarnt. In einem jüngst erschienenen Bericht von Business for Britain (BfB), einer euroskeptische Lobbygruppe, heißt es, dass die EU-Politik verantwortlich ist für eine Kostensteigerung um 9 Prozent der Energierechnungen für Unternehmen. Es wird davor gewarnt, dass bis 2030 eine Steigerung um 16 Prozent möglich ist. Die Hersteller denken bereits darüber nach, ihre Tätigkeiten in Länder auszulagern, in denen Energie billiger ist. Damit besteht das Risiko „verheerender“ Arbeitsplatzverluste in UK. Emily Gosden, The Daily Telegraph, 13 August 2014

Link: http://wattsupwiththat.com/2014/08/13/newsbytes-most-americans-dont-believe-climate-consensus-new-survey/

Übersetzt von Chris Frey EIKE




Umfrage: Mehrheit der Deutschen gegen kostensteigernde Energiewende

TAZ meldet:

Artensterben durch Windkraft

Rotorblätter schreddern Fledermäuse

Tausende Fledermäuse sterben jedes Jahr durch Windkraftanlagen. Darunter sind auch Tiere, die nach Südeuropa ziehen.

BERLIN dpa | Windkraftanlagen gefährden nach Einschätzung von Forschern nicht nur heimische Fledermäuse. Auch Tiere aus Nordosteuropa werden von den Rotorblättern erschlagen, wenn sie im Herbst auf dem Weg in ihr Winterquartier durch Deutschland ziehen. Das berichten Experten des Berliner Leibniz-Instituts für Zoo- und Wildtierforschung (IZW) im Fachblatt Plos One. Sie hatten die Situation in den östlichen Bundesländern untersucht… weiterlesen bei TAZ




Ist die grüne Ideologie eine neue Religion?

Ökologisch bedeutet heute generell „nachhaltig [1]“ und „umweltschonend“  zu handeln, wobei der Sinngehalt dieser Begriffe jeweils zum angestrebten Zweck passend modifiziert wird. Wer „ökolo­gisch“ denkt, gehört zu den Guten!

Insbesondere den Volkswirtschaften der westlichen Industriegesellschaften wird vorgeworfen, in unverantwortlicher Weise die Ressourcen der Natur zu beanspruchen und damit das Leben unserer Nachkommen besonders auch in den Entwicklungsländern zu gefährden. Wahrhaft apokalyptische Zukunftsszenarien werden entworfen für den Fall, dass wir unsere Lebensweise nicht tiefgreifend ändern. Dies erinnert stark an in der menschlichen Geschichte immer wieder auftretende religiöse Fanatiker, die bei Androhung aller möglichen Höllenstrafen zur Umkehr aufriefen.

Diese Denkweise findet man in besonderem Maße bei den Anhängern der Partei der Grünen, die daraus weitgehende Forderungen an die Lebensweise aller Bürger ableiten. Katrin Göring-Eckardt am Wahlabend 2013: „Es geht um mehr als ein grünes Wahlergebnis. Es geht um die Bewahrung der Schöpfung“.

Im energiepolitischen Teil des aktuellen Koalitionsvertrags heißt es: „Die Energiewende ist ein rich­tiger und notwendiger Schritt auf dem Weg in eine Industriegesellschaft, die dem Gedanken der Nachhaltigkeit und der Bewahrung der Schöpfung verpflichtet ist.“

Es fällt offenbar Niemand mehr auf, was für ein sinnleerer Schwulst das ist. Vor wem oder was soll denn die Schöpfung bewahrt werden? Wer bedroht sie? und was hat das mit der deutschen Energie­versorgung zu tun?

Hier drängt sich der Gedanke an ein neues, quasi-religiöses Sendungsbewusstsein auf, das inzwi­schen parteiübergreifend in allen Gesellschaftsschichten präsent ist.

Es lohnt sich, einmal darüber nachzudenken, ob wir es tatsächlich mit einer neuen Religion, dem Ökologismus,  zu tun haben, oder ob dies nur eine Metapher ist.

Was sind die wesentlichen Merkmale einer Religion und kann eine solche heut­zutage neu entstehen?

Als erste haben offenbar Dirk Maxeiner und Michael Miersch 2005 in den 10 Geboten der Öko-Re­ligion[2] diesen Zusammenhang in Form einer Parodie behandelt. Die obigen Beispiele zeigen aber, wie weit für Religionen typische Vorstellungen inzwischen in die Gesellschaft vorgedrungen sind.

Die Religionswissenschaft unterscheidet Naturreligionen und Buchreligionen.

Buchreligionen haben geschichtlich verortbare Stifter  wie Paulus und Mohammed oder zumindest legendäre Stifterpersonen wie Moses. Naturreligionen wachsen über lange Zeiträume, in denen den Naturkräften „Götter“ zugeordnet werden und diese dadurch personalisierbar und anrufbar werden. Dabei bildet sich eine Priesterschaft heraus, die dann zu einem Machtinstrument wird.

Im Fall des Ökologismus könnte man auf den ersten Blick an eine Buchreligion denken in der etwa Al Gore als Stifter und das Kyotoprotokoll als „Bibel“ aufgefasst werden.

Diese These hat z.B. der Soziologe Norbert Bolz am 19.01.2010 in der 3Sat-Sendung Kulturzeit vertreten.

Der Glaube an den Klimawandel bringt uns Aug‘ in Aug‘ mit einer absehbaren Katastro­phe, das heißt, wir können wieder religiös empfinden, ohne an einen Gott glauben zu müs­sen. Das ist offen­bar für eine atheistische Gesellschaft wie die unsere ein fast unwiderstehli­ches Glaubensangebot.“

und weiter:

„Erzbischöfe, Bischöfe und Äbte in Form von unzähligen korrupten Klima-Wissenschaftlern bauen beständig am Grundgerüst des Klimaglaubens und bügeln etwaige ungeplante Aus­rutscher von Mutter Erde in die falsche Richtung mit wundersamen Handlungen in Form von Datenfälschungen glatt.“

Inzwischen weist der Ökologismus aber eher Merkmale einer Naturreligion auf. Es wird eine quasi allgegenwärtige „Naturkraft“ eingeführt, die auf allen Ebenen des Lebens einwirkt und berücksich­tigt werden muss.

Die Ökoreligion hat ihre Anfänge in einer großen Erzählung, den Berichten des IPCC. Hier sind die Glaubensinhalte niedergelegt, die den Anspruch nicht hinterfragbarer Wahrheiten haben. Dies er­setzt die Schriften der Buchreligionen.

Es scheint, dass man in Deutschland für derartige Dinge besonders empfänglich ist. Im Kölner Stadtanzeiger war z.B. um die Weihnachtszeit zu lesen, dass der deutsche Gänsebraten ökologisch sauberer ist, als der polnische, weil die deutsche Gans CO2 neutral  auf der Weide gemästet wird, die polnische dagegen mit Industriefutter im Stall. Eine derartig groteskes Argument ist eigentlich nur noch durch eine alles durchdringende religiöse Sicht zu erklären.

Es drängen sich Vergleiche etwa mit der Religion der Mayas mit dem Regengott Chaak auf, von dem das gesamte Leben abhängig ist. Man könnte sich vergleichsweise einen Naturgott CeO’2 vor­stellen, der im Großen wie im Kleinen ständig zufrieden gehalten werden muss, indem man ihm ständig Opfer bringt. Bei den Mayas waren das bekanntlich direkte Menschenopfer. Der CeO’2 ver­langt, das wir ihm einen Teil unseres Wohlstands opfern, was für die ärmeren Schichten durchaus auch lebensbedrohliche Formen annehmen kann.

Der CeO’2 hat einen Rivalen, das ist der ATOM. Er verspricht seinen Anhängern billige und uner­schöpfliche Energie ohne besondere Opfer zu verlangen. Das würde die Privilegien der CeO’2 Priesterschaft deutlich schmälern, weshalb diese den ATOM mit einem Tabu belegt haben. Wer sich zum ATOM bekennt, verschuldet sich an der Gesellschaft, weil er den CeO’2 erzürnt. Er muss mit totaler gesellschaftlicher Ächtung rechnen.

Natürlich kann man heute der Bevölkerung nicht mehr den Glauben an einen personifiziebaren und anrufbaren Gott CeO’2 vermitteln. Es ist der Priesterschaft der Ökoreligion aber offenbar gelungen die überwältigende Mehrheit der deutschen Bevölkerung zu überzeugen, dass von dem harmlosen und lebensnotwendigen Spurengas CO2 eine geradezu apokalyptische Gefahr ausgeht, wenn der an­geblich durch menschliche Aktivitäten mögliche Anstieg seiner nur im Verhältnis 4:10000 in der Atmo­sphäre vorhandenen Konzentration nicht verhindert wird. Dafür scheint die Bevölkerung mittler­weile bereit, nennenswerte Vermögensverluste und Einschränkungen des Lebensstandards zu akzep­tieren.

Dieses Spiel mit der Angst ist ein altbewährtes Mittel vieler Religionen um die Bevölkerung einer Priesterkaste gefügig zu machen. Man denke an die erfolgreiche Erfindung des Fegefeuers im Mit­telalter. Insofern muss es als berechtigt angesehen werden beim Ökologismus von einer echten Reli­gion zu sprechen. Dabei ist die durch die Climate-gate Akten bekannt gewordene, geradezu verbrecherische kriminelle Energie zu beachten, mit der die beteiligten Profiteure des Öko-industri­ellen Komplex vorgegangen sind!

Das besonders traurige beim Ergebnis dieser Analyse ist, dass der Erfolg der Ökobewegung nur durch den eklatanten Mangel an naturwissenschaftlicher Bildung erklärbar ist – in einem Land, dass früher so bedeutende Beiträge zur modernen Naturwissenschaft geleistet hat, wenn man nur an die Relativitäts- und Quantentheorien denkt.

Die grundlegenden Glaubensinhalte werden etwa im Katholizismus auf Konzilen festgelegt. Im Ökologismus übernimmt diese Rolle der „Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen“, WBGU. Dieses Gremium wurde am 08.04.1992 durch einen gemeinsamen Erlass der damaligen Ministerien für Forschung und Technologie unter Dr. Heinz Riesenhuber und dem Ministerium für Umwelt, Naturschutz und Reaktorsicherheit unter Dr. Klaus Töpfer errichtet. Der WBGU berät regelmäßig die Regierung in Form von „Gutachten“.

Eines der wichtigsten dieser Gutachten ist das Hauptgutachten 2011 unter dem Titel:

„Welt im Wandel: Gesellschaftsvertrag für eine große Transformation“ in dem die dringende Notwendigkeit für eine „post fossile“ Wirtschaftsweise erläutert werden.

Alle Völker dieser Welt sollen sich danach zu einer nachhaltigen und klimaverträglichen Zukunft bekennen, wofür Staaten, Unternehmen und die gesamte Zivilgesellschaft gemeinsam die richtigen Weichen stellen müssen.

Welche Weichenstellungen richtig sind, legt der WBGU fest! Im Sinne der untersuchten Analogie zur Religionsgeschichte handelt es sich hierbei um Dogmen, also nicht hinterfragbare Glaubens­inhalte, die per definitionem unveränderbar sind und keiner näheren Beweisführung bedürfen, sie werden von den entsprechenden Gremien verordnet!

Oberstes Dogma ist dabei das berühmte 2° Ziel für den Maximalwert, um den die Globaltemperatur der Erde ansteigen darf!

Dafür wird die Anerkennung des Dekarbonisierungsdogmas  verlangt. Dieses legt fest, das von den geschätzen Kohlevorräten der Erde mit einem CO2 Äquivalent von 7000 Mrd. Tonnen bis 2050 noch maximal 750 Mrd. Tonnen verbraucht werden dürfen![3]

Es ist unfassbar, wie offenbar alle deutschen naturwissenschaftlichen und politischen Eliten zu diesem unsinnigen und lupenrein faschistischen Programm geschwiegen haben. Wir haben doch noch gar keine richtige Inquisition!

Nach welchen Verfahren hat der WBGU diese Daten ermittelt? Es gibt keine Funktion der Art

∆ T = f (  CO2 -Dichte ).

Es gibt dafür nur Modellrechnungen, wohl meistens in Form von Systemen partieller Differential­gleichungen, die nur numerische Lösungen ermöglichen. Wer sich mit den Tücken solcher Berech­nungen auskennt, wundert sich nicht, dass bei einer vom IPCC selbst vorgenommenen Evaluierung von 44 derartigen Systemen nicht ein einziges in der Lage war, den in der Vergangenheit beobachte­ten Temperaturverlauf richtig darzustellen.[4]

Und auf dieser Faktenlage basierend will uns der WBGU eine gesellschaftliche Transformation auf­zwingen mit extremen Einschnitten in unsere Wirtschaft und Lebensqualität! Was für eine Hybris, was für ein Verbrechen, wenn man an den eigentlichen Haupteffekt all dieser Projekte denkt, näm­lich die schamlose Bereicherung der von der Energiewende profitierenden Nutznießer des  öko-in­dustriellen Komplexes.

Der natürliche Gegenspieler des Ökologismus müssten eigentlich die etablierten Kirchen sein, wor­auf vor allem Edgar L. Gärtner[5] hinwies. Er stellte aber selber fest, dass die offizielle Kirche inzwi­schen auch die Ziele der Öko-Kirche übernommen hat. Siehe z.B. die in ihrer Naivität nahezu er­schreckenden Forderungen der „Klima-Allianz-Deutschland“ in der 110 einschlägige Organisatio­nen einschließlich vieler kirchlicher Verbände zusammengeschlossen sind.[6]

Fazit:

Eine neue Religion, der Ökologismus ist in Deutschland tiefgreifend und alle Gesellschaftsschich­ten erfassend etabliert. Die von den Priestern dieser Religion verkündete Heilslehre wird in der letz­ten Konsequenz das moderne Industrieland Deutschland ruinieren. Aktuell ist rational gegen diese Bewegung nichts auszurichten, da sowohl die Gläubigen wie auch der entsprechende Klerus gegen vorwiegend aus der Naturwissenschaft vorzubringende rationale Argumente vollständig immuni­siert sind. Es scheint keine Chance zu geben, die Verantwortlichen zu überzeugen, dass ein  CO2 in­duzierter Klimawandel nicht möglich ist und auch nicht statt findet.

Die Frage ist zur Zeit nur, ob eine Gegenbewegung entstehen wird, wenn die ersten schweren Kon­sequenzen unübersehbar werden. Bis dahin scheint Gruppierungen wie z.B. EIKE oder NAEB nichts übrig zu bleiben als weiter den Lauf der Dinge kritisch zu verfolgen.

Update 18.8.14 Aus einem Interview mit Richard Tol FAS vom 17.8.14

Alexander Wendt, in die „apokalyptischen Vorreiter“ auf ACHGUT:…. Der holländische Klimaforscher, Ökonom und ehemalige IPCC-Autor Richard Tol brachte genau diese Absurdität in der “Frankfurter Allgemeinen Sonntagszeitung”* auf den Punkt:

“Für viele ist der Klimawandel zu einer Art Ersatzreligion geworden. Die Texte der Umweltbewegungen lesen sich wie religiöse Schriften, in denen Emissionsreduktionen ein Ausweis der Glaubensstärke sind…In Deutschland wird das vor allem durch die Prediger des Potsdam-Klimainstitutes betrieben…Die (deutsche) Energiewende ist ein gewaltiger Fehler. Die Unternehmen und Haushalte müssen hohe Energierechnungen begleichen, die Emissionen (von CO2) steigen trotzdem…Ich kenne internationale Wissenschaftler, die sagen, die Deutschen müssen verrückt geworden sein…Deutschland hat mit so hohen Fördersummen für Windenergie und Photovoltaik begonnen, dass es den gesamten Weltmarkt durcheinander gebracht hat. Ohne diese exzessive Förderung wären Sonnenpaneele eher auf portugiesischen oder spanischen Dächern gelandet und hätten mehr Sonnenertrag gebracht. Die Deutschen haben mit aller Macht eine Technik auf den Markt gebracht, die noch nicht reif ist…Deutschland hätte das ganze schöne Geld lieber für etwas Sinnvolles ausgeben sollen.”


[1]   Unter Nachhaltigkeit verstand man in der Forstwirtschaft, dass nicht mehr Holz eingeschlagen werden soll, als nach­wachsen kann. Dies vernünftige Prinzip wurde von der UN Weltkommission für Umwelt und Entwicklung unter Lei­tung der norwegischen Regierungschefin Gro Harlem Brundtland dahin erweitert, dass für letztlich alle technischen Entwicklungen der Nachweis verlangt wird, dass sie „umweltschonend“ sind.

[2]   Dirk Maxeiner, Michael Miersch: 10 Gebote der Ökoreligion www.cicero.de/kapital/….

[3]   WBGU Factsheet Nr. 2 / 2011. Transformation der Energiesysteme.

[4]   IPCC, Coupled Model Intercomparison Project (CMIP5)

[5]   Edgar L. Gärtner Öko-Nihilismus 2012.ISBN 978-3-940431-31-8

[6]   www.die-klima-allianz.de




Bündnis 90/Die Grünen: Vom Naturschutz zur Naturzerstörung

Hier der Link zum WELT-Artikel. Der Zynismus, mit dem Boris Palmer in der WELT weiteren Installationen von Windradanlagen das Wort redet, lässt jeden, dem der Naturschutz ein ehrliches Anliegen ist, die Nackenhaare sträuben. Insbesondere bei den Älteren unter uns kommen dabei Assoziationen an einen noch schlimmeren deutschen Zynismus auf, als es vor 75 Jahren nicht um die Ausradierung von Landschaften und Flugtieren sondern um die von Mitbürgern und Nachbarnationen ging.

Bild rechts: „Boris Palmer“ von Björn Láczay – Flickr. Lizenziert unter Creative Commons Attribution 2.0 über Wikimedia Commons –

B. Palmer schreibt in der WELT „Es gibt für jede Lösung das passende Problem. Das gilt selbstverständlich auch für erneuerbare Energien. Wasserkraftwerke werden als Fischhäcksler bekämpft. Pumpspeicherkraftwerke sind angeblich Betonmonster in unberührten Landschaften. Fotovoltaik ist wahlweise der finanzielle Ruin des kleinen Mannes, der deutschen Wirtschaft oder der Orts- und Stadtbilder. Biogasanlagen vermaisen die Landschaft, produzieren Verkehr oder stinken zum Himmel. Und wenn die Windkraft nicht gerade als Untergang der Vogelwelt gebrandmarkt wird, dann ist sie zu laut, zu hoch, zu blendend oder eben einfach zu hässlich„. Tatsächlich ist das, was B. Palmer hier ironisch-flapsig kleinredet, die brutale REALITÄT – ausgenommen der finanzielle Ruin des kleinen Mannes durch Photovoltaik, denn viele „kleine Hausbesitzer“ profitieren mit Altverträgen für ihre Solardächer auf Kosten der Allgemeinheit gar nicht schlecht. Palmers Ironie und seine Windrad-Ästhetik stehen in bemerkenswertem Widerspruch zu den lawinenartig ansteigenden Antiwindkraft-Bürgerinitiativen, die den Wertverlust ihrer Häuser oder ausbleibende Tourismuseinnahmen nicht so einfach hinnehmen.

Und weiter B. Palmer: „Ob Atomkraftwerke schön sind, sei dahingestellt. Die Folgen eines Reaktorunfalls wie in Tschernobyl oder Fukushima sind jedenfalls sehr, sehr hässlich. Kohlekraftwerke haben die unschöne Eigenschaft, das Weltklima so zu verändern, dass manches Naturschutzgebiet, aber auch mancher städtische Ballungsraum vor dem Anstieg des Meeresspiegels, Dürre und Flutkatastrophen oder einfach nur verheerenden Stürmen nicht zu retten sein wird. Der Braunkohletagebau in Deutschland produziert auch eher Mondlandschaften als ästhetischen Genuss. Gas erscheint da noch als schönste Option, leider sind die Reserven aber sehr beschränkt, und der Konflikt mit Russland nimmt wegen der deutschen Abhängigkeit von Erdgas auch scheußliche Züge an„.

Woher nimmt B. Palmer seine Gewissheit, Kohlekraftwerke würden das Weltklima verändern und Meeresspiegel ansteigen lassen? Nun kann man im Allgemeinen von standfesten grünen Ideologen nicht verlangen, sich fachlich zu informieren, denn die für Fakten zuständigen Denkregionen werden von Ideologie bekanntlich stillgelegt. Herr B. Palmer könnte aber vielleicht doch einmal zur Kenntnis nehmen, dass die klimawissenschaftliche Fachliteratur bis heute keine Veröffentlichung kennt, in der der Nachweis eines menschgemachten Klimawandels insbesondere durch Kohlekraftwerke aufzufinden ist. „Klimaschädigung“ durch anthropogenes CO2 ist bis zum heutigen Tage eine sachlich unbelegte FIKTION.

Nur Klimamodelle mit ihren bekannten inhärenten Defiziten, die kein neutraler Wissenschaftler als langristige Klima-Prognoseinstrumente ernst nimmt, sind für derartige Fiktionen brauchbar. Um nicht missverstanden zu werden: Klimamodelle sind für Details der Forschung sehr nützlich, siehe dazu auch unsere Serie „das Rätsel der Eiszeiten“. Und noch nebenbei: „Weltklima“ gibt es nicht, es gibt nur Klimazonen von polar bis tropisch, Herr B. Palmer hat dieses elementare Wissen aus Schulzeiten offenbar verdrängt. Der Schutz welcher dieser Klimazonen darf es nun sein? Und ehe folgendes auch noch verdrängt wird: Die vom Braunkohleabbau produzierten „Mondlandschaften“ in aktueller Gestalt wunderschöner Bade-Seen in mitteldeutschen Erholungsgebieten, die aus renaturierten Braunkohlehalden entstanden, sollte Herr Palmer vielleicht bei seinem nächsten Besuch dieser Gegend überprüfen. Wir schlagen auch noch einen Abstecher zum modernsten Braunkohlekraftwerk Europas vor – dem KW Lippendorf bei Leipzig. Dort werden technische Führungen veranstaltet, Herr B. Palmer hat sie nötig.

Und wieder weiter B. Palmer in der WELT: “ Wenn wir nicht Pippi Langstrumpf spielen wollen, bleibt uns die Entscheidung zwischen den Nachteilen der herkömmlichen Energiequellen und der erneuerbaren Energien nicht erspart.

Entscheidung? Es gab niemals einen sachlich begründbaren Entscheidungsanlass! Welche Nachteile hatte denn die deutsche Stromerzeugung vor der Energiewende? Wir sehen keine, niemand kann uns bis heute unter rationalen Kriterien Nachteile nennen, die eine Wende-Entscheidung erfordert hätten. Das Ganze war kühl inszenierte Polit-Hysterie einer Kanzlerin, deren Machterhaltsinstinkte hinlänglich bekannt sind.

Daher sei wiederholt: ES GIBT KEINE VORTEILE DER ENERGIEWENDE, verglichen mit dem fast paradiesischen Zustand unserer Stromversorgung davor! Vielleicht kann uns ja Herr Palmer nähere Auskünfte geben. Das gemäß B. Palmer „geschädigte Weltklima“ kann es jedenfalls nicht sein, denn bis heute ist weltweit kein ansteigendes Extremwettersignal aufzufinden. Dem IPCC, Climate Change 2001, the scientific basis, Chapter 02, 2.7, S. 155 (hier) wird B. Palmer wohl trauen und auch dem Extremwetterbericht des IPCC, der das Ergebnis vom Jahre 2001 in 2013 bestätigt (hier). Um Missverständnisse zu vermeiden: Das IPCC bestätigt nur den Stand der Fachliteratur, die bis heute keine Zunahmen von Extremwetterereignissen kennt. Es spricht allerdings auf der Basis fragwürdiger Klimamodelle von „wahrscheinlichen ZUKÜNFTIGEN“ Zunahmen, ohne diese Wahrscheinlichkeiten nach üblichem wissenschaftlichen Usus zahlenmäßig belegen zu können. Wer diese IPCC Kaffeesatzleserei ernst nimmt, ist selber schuld. Die Natur beschert uns schon ausreichend Klimakatastrophen. Der Mensch stellt sicher viel Unsinn an, vom Vermüllen und Leerfischen der Weltmeere bis zum unzureichenden Schutz der indonesischen Regenwälder. Für irgend einen gefährlichen Klimawandel kann er aber definitiv nicht verantwortlich gemacht werden.

Zur weiteren Information eine kleine Auswahl von sachgerechten EIKE-Artikeln über Windräder (hier, hier, hier, hier, hier, hier, hier, hier,…) und über Kernkraftwerke  (hierhierhier, hier, hier, hier, hier, ….). Der fast unendlichen Anzahl von EIKE-Beiträgen zu diesen Themen wegen bitten wir alle Autoren um Entschuldigung, die aus Platzgründen nichtmitaufgeführt wurden.

Neben einer fiktiven anthropogenen Klimaschädigung ist das zweite fundamentale Missverständnis der Grünen die unabdingbare Schonung fossiler Ressourcen. Diesem Irrtum sind freilich auch schon intelligentere Leute verfallen, und dies wird auch zukünftig immer wieder vorkommen – Dummheit ist zeitlos und leider schmerzfrei. Es hat mit dem britischen Ökonomen Robert Malthus begonnen und reicht bis hin zum Club of Rome und den deutschen Grünen. Alle diese Propheten und Warner lagen mit ihren Prognosen vom Ressourcen-Ende stets um Lichtjahre daneben. Die IPCC-Jünger bevorzugen übrigens an Stelle von Prognose den schickeren, aber sachlich völlig identischen Ausdruck „Projektionen“, wenn die nämlich nicht zutreffen, könne wenigstens das Modell noch richtig sein, so ihre smart-listige Verteidigungsstrategie. Schlüsse aus den Irrtümern wurden von den gescheiterten Wahrsagern leider nie gezogen. Wir ziehen die Schlüsse daher nun selber:

ES GIBT KEINE ENDLICHEN RESSOURCEN, DIE WIR FÜR UNSERE NACHKOMMEN SCHONEN MÜSSEN. Wir gehen mit Ressourcen selbstverständlich sparsam um, weil es die Kosten erfordern – alles andere ist unsinnig. Es gibt nur das „Least Cost“ Prinzip und den NATURSCHUTZ, letzteren haben die Grünen inzwischen vergessen. Da das „Least Cost“ Prinzip Grüne und Gutmenschen vermutlich in kompletter Verwirrung zurücklässt, weil sie oft weder mit Technik, noch mit Naturwissenschaft und schon gar nicht mit Wirtschaft vertraut sind, erlauben wir uns ihnen mit der Geschichte der mittelalterlichen englischen Langbogen aus Eibenholz weiterzuhelfen. Mit dieser Waffe vernichteten die Engländer in der Schlacht von Argincourt am 25.Oktober 1415 ein komplettes französisches Ritterheer. In England wurde daraufhin das unbefugte Abholzen von Eibenholz mit dem Tode bestraft, so wichtig war den Engländern ihre Bogenwaffe. Aber bereits bevor die extrem langsam wachsenden Eibenholz-Sprösslinge zu brauchbaren Bäumen für neues Bogenholz wurden, waren Feuerwaffen an Stelle der Bogen getreten. Die für die Nachkommen zu „bewahrende Ressource Eibenholz“ war obsolet geworden.

Da B. Palmer gemäß seinem WELT-Kommentar Pipi Langstrupf gelesen und verstanden hat, daher jetzt noch einfacher auf Pipi-Langstrumpf-Niveau: Die Steinzeit ging nicht zu Ende, weil es keine Steine mehr gab sondern weil die Bronze erfunden wurde. Erdöl, Kohle und Gas werden nicht ausgehen, weil sie zu knapp werden oder gar ein fiktives Weltklima schädigen. Sie werden irgendwann einmal zu teuer und deswegen dann durch etwas Neues ersetzt werden müssen. Dieses „Neues“ werden vermutlich inhärent sichere Brutreaktoren mit verschwindendem Abfall sein (Pilotanlagen gibt es schon). Bis jetzt ist zumindest nichts Besseres bekannt, um eine einmal 10 Milliarden zählende Menschheit auf brauchbarem zivilisatorischem Niveau mit ausreichend elektrischer Energie zu versorgen. Uran im Meer gibt es für viele Millionen Jahre, der genaue rechnerische Nachweis dieser erstaunlich hohen Brennstoffreichweite findet sich im Buch des Autors (hier).

Wind und Sonne sind für die gestellte Aufgabe leider völlig ungeeignet! Sie sind wegen der Fluktion der Energielieferung und der extrem kleinen Leistungsdichte von Wind und Sonne wegen viel zu teuer – hier haben wir also wieder das „Least Cost“ Prinzip. Sie verbrauchen beim Anlagenbau pro gelieferter elektrischer Energie zu viele kostspielige Rohstoffe und nehmen Unmengen wertvollen Platzes in dichtbesiedelten Ländern weg (letzteres gilt vorwiegend für Windturbinen). Oder technisch ausgedrückt: Die Nennleistung von Windrädern [kW] ist ohne Aussagewert und allenfalls zur Propaganda von Herstellern und grüner Politik zu gebrauchen. Entscheidend ist die von diesen Anlagen gelieferte elektrische ENERGIE [kWh], die naturgemäß infolge unsteten Windaufkommens und des v^3-Gesetzes dieser Anlagen nur einen lächerlichen Bruchteil (bundesweit im Schnitt etwa 17%) ihrer Nennleistung multipliziert mit der Betriebszeit ausmacht. Dieser Nachteil ist naturgesetzlich und infolgedessen durch keine Ingenieurkunst zu beheben. Fossile Kraftwerke und Kernkraftwerke liefern dagegen stetig, von Reparaturunterbrechungen abgesehen sind es 100% ihrer Nennleistung. Man braucht sich aus diesen Gründen über explodierende Stromkosten infolge der stetig ansteigenden Installationen von „Erneuerbaren“ nicht zu wundern. Sie werden weiter explodieren bis die Energiewende-Karre irgendwann gegen die Wand gefahren ist.

Windräder schädigen neben ihrem desaströsen Kosten/Nutzenfaktor in erheblichem Umfang die Natur, weil sie Landschaften entstellen, Hekatomben von Fledermäusen und Vögeln vernichten und die in der Nähe lebenden Menschen gesundheitlich durch Infraschall und Schattenwurf schädigen (s. hierzu die weiter oben angegebenen Links zu Windrädern). Die von B. Palmer genannten Abstände sind viel zu gering und dürfen zutreffend als Witz bezeichnet werden. Seine Wohnung befindet sich ganz offensichtlich nicht in Nähe eines Windrades. Mit realistischen Abständen wäre im dichtbesiedelten Süden Deutschlands so gut wie jedes geplante Windrad unzulässig. Hier müssten die Gerichte helfend eingreifen, die Autoren sind bei den politikhörigen Juristen aber pessimistisch.

Außerdem sind insbesondere in Süddeutschland mit seiner extrem geringen Wind-Leistungsdichte Windkraftanlagen besonders extremer Unfug, falls „besonders extrem“ sprachlich erlaubt sei. Wenn Herr B. Palmer Windräder dennoch schön findet, dann möge er nach Mecklenburg-Vorpommern ziehen und sich dort an ihrer Landschaftverschönerung erfreuen. Man kann sich ausmalen, welchen „Hals“ die in einem weiteren WELT-Artikel mit den Titel „Ganze Landstriche durch Windkraft unbewohnbar“ (hier) angesprochenen Anrainer beim Lesen des zynischen WELT-Kommentars von B. Palmer wohl bekommen haben.

Schlussendlich zur Überschrift unseres Beitrags. Eine Partei, die Windräder propagiert, dabei die technisch-wirtschaftlichen Nachteile sowie die Naturschädigung dieser Anlagen aus ideologischen Gründen ausblendet und lieber über die Energiezukunft unserer Nachkommen und eine nur durch Windräder vermeidbare Klimakatastrophe faselt, ist nicht nur verantwortungslos. Eine solche Partei wird inzwischen von schärfer sehenden Mitbürgern als gefährliche religiöse Sekte eingestuft, die für einen fiktiven Klimaschutz jeden Naturschutz und eine ehemals zuverlässige, kostengünstige Stromversorgung über Bord wirft. Es gibt inzwischen sogar Zeitgenossen, die Vergleiche zwischen der grünen Öko-Ideologie und  faschistischen Methoden ziehen. Wir heißen solche Vergleiche nicht gut, wenn wir auch ihre Gründe nachvollziehen können. Unabhängig von solchen Betrachtungen steht freilich fest, dass sich das Bündnis90/Die Grünen von einer ehemaligen NATURSCHUTZPARTEI (lange ist’s her) leider zu einer Partei der NATURZERSTÖRUNG gewandelt hat.

Klimaschutz durch Energiewende ist nichts als eine FIKTION. Die derzeitige Naturzerstörung sowie die Schädigung unserer energieintensiven Wirtschaft ist dagegen brutale REALITÄT. Zur Durchsetzung dieser Fiktion hat sich allerdings nicht nur das Bündnis90/Die Grünen sondern in katastrophaler Dummheit auch die derzeitige Regierungskoalition entschlossen. Welche unheiligen Kräfte stecken wohl dahinter? Was oder wer wird dem deutschen Energiewende-Irrsinn endlich ein Ende setzen und uns vor diesem erneuten Albtraum deutscher Geschichte befreien?

  




Fachkollegen erheben Einspruch gegen alarmistischen Meeresspiegel-Artikel von Stefan Rahmstorf in den Quaternary Science Reviews

In ihrer Arbeit lästert die Rahmstorf-Gruppe auch über den neuen IPCC-Klimabericht, dessen Meeresspiegelprognosen sie als zu harmlos ansieht. Das konnten die IPCC-Autoren natürlich nicht auf sich sitzen lassen. Am 1. August 2014 veröffentlichten sie in derselben Zeitschrift ein Diskussionspapier mit einer Kritik an der Rahmstorf-Veröffentlichung. Das neunköpfige Autorenteam wird dabei angeführt von Jonathan Gregory von der University of Reading in Großbritannien und besteht ausschließlich aus IPCC-Autoren des 5. Klimazustandsberichts (AR5). Im Gegensatz hierzu gehört kein einziger der vier Forscher aus der Rahmstorf-Gruppe (Benjamin Horton, Stefan Rahmstorf, Simon Engelhart, Andrew Kemp) zur IPCC-AR5-Autorenschaft.

Jonathan Gregory und seine IPCC-Kollegen kritisieren das Rahmstorf-Paper als so sehr “irreführend”, dass eine Korrektur notwendig sei. Es gäbe einen großen Unterschied zwischen einer ‘allgemeinen Kollegenumfrage’ und einer ‘seriösen wissenschaftlichen Analyse’. So hätten mehrere der von Rahmstorf Befragten enorm hohe Meeresspiegelanstiegswerte angegeben, die nicht durch physikalische Prozesse gedeckt seien. Unrealistisch hohe, spekulative Schätzwerte hätten in einer solchen Zusammenstellung aber nichts zu suchen. Interessanterweise enthielt die Rahmstorf-Befragung keinen einzigen Schätzwert der IPCC-Autoren aus der Gregory-Gruppe.

Im Folgenden einige Auszüge aus der Gregory et al.-Kritik an der Rahmstorf-Umfrage:

Horton et al. 2014 diskutieren die Projektionen des mittleren Anstiegs des globalen Meeresspiegels (GMSLR) bis zum Jahr 2100 aus dem AR 4 des IPCC (Meehl et al. 2007) und dem AR 5 (Church et al. 2013a) der Arbeitsgruppe I des IPCC. Unserer Ansicht nach sind einige ihrer Bemerkungen irreführend, und wir würden sie gerne korrigieren. Wir alle waren Autoren des Kapitels zum Meeresspiegel im AR 5, und einer von uns (Gregory) war ein Autor beim AR 4.

[…]

Horton et al. 2014 präsentieren Projektionen des GMSLR bis zu den Jahren 2100 und 2300 basierend auf den Antworten von 90 individuellen Personen auf eine Umfrage; wir waren nicht unter diesen 90. Diese Antwortenden waren eine Untergruppe (18%) der 500 Personen, die Horton et al. aus dem Thompson-Reuters-Netz der Wissenschaft identifiziert haben. Sie haben seit dem Jahr 2007 die größte Anzahl begutachteter Artikel veröffentlicht, in denen es um den Meeresspiegel geht. Die anderen 410 Personen (82%) derjenigen, die identifiziert worden sind, konnten nicht kontaktiert werden, lehnten es ab zu antworten oder lieferten unvollständige und inkonsistente Antworten.

[…]

Rahmstorf hat die Studie von Horton et al. kommentiert, von der er einer der Autoren ist, und zwar im real climate blog. Er merkt an, dass in „Expertenkreisen die IPCC-Berichte weithin als konservativ angesehen werden; die Studie ist die empirische Bestätigung“. Diese Meinung ist inkonsistent mit unserem Vergleich. Es gibt einen großen Unterschied hinsichtlich der Präzision zwischen der IPCC-Zustandsbeschreibung und einer Experten-Erhebung von Antworten. Die IPCC-Zustandsbeschreibung ist geschrieben worden von einer Gruppe, die als Experten in ihren jeweiligen Disziplinen identifiziert wurden. Sie war transparent und stabil abgeleitet aus einer umfassenden Durchsicht veröffentlichter begutachteter Literatur und durchlief drei Runden der Begutachtung durch Wissenschaftler und Regierungen zum Zwecke der wissenschaftlichen Genauigkeit und Klarheit.

Eine Experten-Erhebung ist andererseits undurchsichtig; die Antwortenden werden nicht aufgefordert, ihre Antworten zu rechtfertigen, und wir können nicht wissen, wie sie zu ihren Schlussfolgerungen gekommen sind. Falls ihre Beweisführung nicht aus veröffentlichter begutachteter Literatur abgeleitet werden kann, sollte es einen IPCC-Zustandsbericht nicht beeinflussen. Zum Beispiel zeigt Abbildung 2 in Horton et al., dass viele der Antwortenden das 83-Perzentil für den GMSLR bis zum Jahr 2100 für RCP8,5 über 2,5 platziert haben, d. h. über 1,5 Meter über der Wahrscheinlichkeits-Bandbreite im AR 5, wobei die größte ,Best Estimate‘ bei etwa 6 Metern lag. Keine physikalisch plausiblen Szenarien für so hohe Werte wurden in der Begutachteten Literatur veröffentlicht. Im Gegenteil, es wurde argumentiert, dass sie physikalisch unhaltbar sind (Pfeffer et al. 2008).

Der Prozess zur Vorbereitung der IPCC-Zustandsbeschreibungen ist darauf ausgerichtet, ungerechtfertigte Spekulation außen vor zu lassen, welche zu unter- oder überschätzenden Projektionen führen können. Die IPCC-Zustandsbeschreibung zielt darauf ab, wissenschaftlich robust und konsistent mit der Literatur zu sein. Dieses Verfahren kann zu Recht als sorgfältig beschrieben werden, aber es ist nicht „konservativ“, wie es Rahmstorf charakterisiert hat.

Rahmstorfs Meeresspiegelforschung stößt mittlerweile auf immer mehr Gegenwehr aus der Fachkollegenschaft. Seriöse Forscher haben genug von den alarmistischen Sintflut-Vorhersagen, die das ganze Fach in Misskredit bringen. So scheiterte Ende 2012 ein anderes Meeresspiegel-Manuskript der Rahmstorf-Gruppe im Begutachtungsverfahren des Fachmagazins Climate of the Past. Die Reviewer empfanden die Datenanalyse und Darstellung als entschieden voreingenommen und entdeckten fundamentale Fehler in der Methodik (siehe unseren Blogartikel “Fachzeitschrift ‘Climate of the Past’ lehnt Meeresspiegel-Manuskript von Rahmstorf-Gruppe ab: Gutachter finden fundamentale Fehler in der Methodik“).

Link: http://www.kaltesonne.de/?p=19795

Übernommen aus dem Blog „Kalte Sonne“. Englische Passagen übersetzt von Chris Frey EIKE




Eine deutsche Zerstörungswut

„Alles muss raus. Auf den Atomausstieg folgt der Rückbau der Reaktoren. Deutschland hat das größte Abrissprogramm seiner Industriegeschichte eingeleitet. Spätestens Ende 2022 wird der letzte Reaktorblock der Republik vom Netz gehen.“ So begann jüngst ein Bericht der Frankfurter Allgemeinen Sonntagszeitung (hier). Dabei ist noch nicht einmal klar, wohin mit dem ganzen Abbruchzeug. Aber die Zerstörung aller deutschen Kernkraftwerke ist nicht nur das größte Abrissprogramm der deutschen Industriegeschichte, sondern zusammen mit der übrigen „Energiewende“ auch Deutschlands größte wirtschaftliche Torheit – jedenfalls als eigenständige, denn die Euro-Rettung ist es nicht minder. Warum denn nicht bei der Kernkraft bleiben? Angst vor Strahlung? Verständlich bei d e r ständigen Fehlinformation und diesem einseitigen Schüren der Angst. Tschernobyl und Fukushima taugen als Beispiele nicht (hier).

Trauen Sie lieber den fachkundigen Pensionären

Glauben Sie den Politikern und Mainstream-Medien lieber nicht. Lassen Sie sich weder indoktrinieren noch manipulieren. Trauen Sie lieber denen, die fachkundig sind, vor allem dann, wenn ihre Äußerungen mit keinen eigenen kommerziellen Interessen (mehr) verbunden sind – meist im Pensionärsalter der Fall. Vorher trauen sich zu viele nicht, sich offen zu äußern; in der abartigen „politisch korrekten“ Welt von heute drohen Ausgrenzung, berufliche Nachteile oder gar Entlassung. Aber der Physiker und Strahlenschutzfachmann Dr. Lutz Niemann hat das nicht mehr zu befürchten. In einem Beitrag vom 23. Juli 2014 schreibt er:

Verstrahlungsgefahr nur bei extrem hoher Dosis in sehr kurzer Zeit

„Die sogenannte ‚Strahlengefahr’ bei der Kerntechnik ist eine angenommene Gefahr, die nur bei extrem hoher Dosis in sehr kurzer Zeit (d.h. bei extrem hoher Dosisleistung) real ist. So hat laut UNSCEAR1) die Kerntechnik seit Beginn von 1945 bis 2007 durch Strahlenunfälle weltweit insgesamt 147 Todesopfer gekostet, da sind Tschernobyl und Unfälle in der Medizin mit eingeschlossen (z.B. versehentliche Bestrahlungen mit tödlicher Dosis bei der Krebstherapie), auch der militärische Bereich in den Anfängen.2) Bei kleiner Dosis gibt es KEINE Gefahr. Dennoch macht man die Annahme, dass auch dort eine Gefahr existieren würde, indem man das Risiko linear bis zur Dosis NULL extrapoliert. Natürlich benutzt man dabei den Konjunktiv!!! Würde man diese Annahme nicht machen, dann gäbe es für Deutschland keinen Grund für den Ausstieg.“

Eine großartige Leistung der Sicherheitstechnik

Niemann weiter: „Es gibt bei westlichen Reaktoren inzwischen 15 000 Reaktorbetriebsjahre (im wesentlichen Leichtwasserreaktoren), ohne dass ein Mensch einen gesundheitlichen Schaden durch das vorhandene spezielle Risiko der Strahlung erlitten hätte. Das ist eine großartige Leistung der Sicherheitstechnik. Das Restrisiko, von dem Frau Dr. Merkel in ihrer Begründung zum Abschalten der Kernkraftwerke in 2011 sprach, ist also sehr, sehr klein. Die Fachleute von UNSCEAR haben zu dem Unfall in Fukushima in dem kürzlich veröffentlichten Bericht2) vom 2. April 2014 festgestellt, dass dort auch in Zukunft keine gesundheitlichen Schäden durch Strahlen für Menschen (Krebs) zu erwarten sind, also ist das Restrisiko dort tatsächlich gleich NULL.“

Wann endlich erkennt der Gesetzgeber seine Irrtümer?

Niemann abschließend: „In der Realität ist die ‚Strahlengefahr’ bei geringer Dosis eine negative Gefahr, d.h. die Strahlen sind für Lebewesen nützlich.3) Die weltweit seit einem halben Jahrhundert gültige Strahlenschutzphilosophie ist falsch, sie sollte geändert werden (siehe die Professoren Becker, Feinendegen, Chen et. al., Henriksen, Muckerheide, Calabrese und viele andere). Professor Jaworowski nannte den heutigen Umgang mit Strahlung durch Radioaktivität „kriminell“, weil es Schaden bringt, ein möglicher Nutzen aber behindert wird. Wann wird der Gesetzgeber endlich seine Irrtümer erkennen und Änderungen zu bewirken?“ Niemanns ganzer Beitrag hier. Ein Beitrag über über die geschürte Angst vor Kernkraft und das Verlangen nach totaler Sicherheit von mir aus dem Jahr 2011 hier.

Immer wieder Gorleben

Andere Experten für radioaktive Strahlung beurteilen die Lage nicht anders. Zu ihnen gehört der Physiker Dr. Hermann Hinsch. Zu einem Bericht in der Hannoverschen Allgemeinen Zeitung vom 28. Mai 2014 über Gorleben als Endlager für radioaktiven Abfall aus Kernkraftwerken (hier) schrieb er in seinem Leserbrief unter anderem dies:

Wie zur Zeit des Hexenwahns

“Für unseren niedersächsischen Umweltminister Stefan Wenzel, aber auch alle anderen deutschen Politiker, ist das nur ein Teilproblem der unendlich schwierigen und teuren Endlagersuche. Sollte man sich aber nur um das „wie“ kümmern und nicht fragen, warum das alles nötig ist? Tatsächlich geht man vor wie zur Zeit des Hexenwahns. Die Fragen waren nur: Wie bekämpft man Hexen, wie führt man Hexenprozesse juristisch einwandfrei durch, wie zeigt man den Leuten, dass man ihre Ängste ernst nimmt? Keiner fragte, ob es tatsächlich Hexen gibt.“

Die Strahlendosis von Natur aus ist weit höher als die vom Gesetzgeber

Hinsch weiter: „Im Gebiet von Fukushima geht es um Strahlendosen bis 20 Millisievert und darüber hinaus. Unsere deutsche Endlagerplanung hat das Ziel auszuschließen, dass auch nur einer unserer fernsten Nachkommen jemals einer höheren zusätzlichen Strahlendosis als 0,1 Millisievert pro Jahr ausgesetzt wird. Das sind wenige Prozent dessen, was wir hier im Flachland von Natur aus haben. Anderswo ist die jährliche Dosis von Natur aus mehrere 100 Prozent höher, ohne gesundheitliche Folgen. Logisch ist also unser Endlagerkonzept nicht zu begründen, ihm liegt ein Glaube bzw. eine Ideologie zugrunde. Beruhigend ist da der historische Rückblick. Es gab noch schlimmere Ideologien, aber alle sind auch wieder aus der Mode gekommen. Ich bin im „tausendjährigen Reich“ geboren und hätte 997 Jahre alt werden müssen, um das Ende zu erleben. Das Verfallsdatum lag aber wesentlich näher. So hoffe ich, auch das Ende der Strahlenideologie noch zu erleben; unser Land würde Milliarden Euro sparen!“ Der ganze Text des Briefes hier. Veröffentlicht hat ihn die Zeitung nicht. Für Hinsch hat die Endlagersuche „offensichtlich den Zweck, an möglichst vielen Orten möglichst lange Angst und Schrecken zu verbreiten, ohne dass die Abfälle wirklich unter die Erde gebracht werden“.

Hohe Strahlenwerte im Erzgebirge, niedrige in Norddeutschland

Bei Wikipedia (hier) findet man zur natürlichen Strahlung dies: „In Deutschland bewirkt die terrestrische Strahlung eine Strahlenbelastung von etwa 0,4 mSv/a im Mittel, wobei die Werte regional sehr unterschiedlich ausfallen können. Die höchsten Werte findet man im Erzgebirge, im Bayerischen Wald und anderen Mittelgebirgen (bis zu 1,3 mSv/Jahr), die niedrigsten in Norddeutschland (ca. 0,25 mSv/Jahr). In anderen Regionen der Welt kann sie allerdings deutlich höher liegen mit Spitzenwerten von über 200 mSv pro Jahr (in Ramsar, Iran).“ Das Wort „Strahlenbelastung“ ist jedoch insofern nicht korrekt, weil es unterstellt, radioaktive Strahlung sei stets schädlich, was aber nicht zutrifft. Korrekt wäre das neutrale Wort Strahlendosis oder Strahlenexposition.

Die gesetzlichen Grenzwerte für die Strahlendosis

Sievert ist eine Messgröße für diejenige Strahlungsenergie, die von einem Gegenstand – zum Beispiel von einem menschlichem Körpergewebe – in sich aufgenommen (absorbiert) wird. Überschreitet sie einen für Menschen festgelegten Wert, gilt sie als schädlich. Das Maß 1 Sievert ist eine relativ hohe Dosis. In der Praxis werden daher meist Millisievert (1 mSv = 0,001 Sievert) benutzt. Typischerweise ist ein Bundesbürger jährlich einer Strahlenmenge von 4 mSv ausgesetzt. Für beruflich strahlenexponierte Personen hat der Gesetzgeber für die Strahlenbelastung Grenzwerte festgelegt. Für Personal, das in Strahlenbereichen arbeitet (Röntgenabteilung im Krankenhaus, Kernkraftwerk) sind jährlich 20 mSv erlaubt und im ganzen Berufsleben zusammen nicht mehr als 400 mSv (Quelle hier), festgelegt in Paragraph 55 Strahlenschutzverordnung bzw. Paragraph 31a Röntgenverordnung (Quelle hier). In den Vereinigten Staaten gelten jährlich 50 mSv als zulässig. Diese Werte beruhen auf der sogenannten LNT-Hypothese (LNT = Linear No Threshold), die aber als falsch gilt und die Kernkraftgegner für die Angstmache nutzen (Nähereshier).

Bis zu 100 mSv im Jahr keine gesundheitlichen Schädigungen

Bei Hermann Hinsch las ich auch dies: „In über hundert Jahren konnte kein Strahlenmediziner unter 100 Milisievert (mSv) gesundheitsschädliche Wirkungen nachweisen. Daher schrieb UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) über die Evakuierungen um Fukushima: Hätte man sie unterlassen, würde das zu keiner erkennbaren Erhöhung der Krebsrate bei den betroffenen 100 000 Personen führen, da die höchste zu erwartende Dosis 60 mSv beträgt. Bei der Endlagersuche ist die Vorgabe: Es muss ausgeschlossen werden, dass auch beim schlimmsten anzunehmenden Störfall irgendjemand irgendwo irgendwann durch Isotope aus den Abfällen einer höheren Jahresdosis als 0,1 Millisievert ausgesetzt wird. Das ist ein Tausendstel von 100 mSv!“ Eine Sicherheitsbestimmung, die geradezu absurd ist, weil unrealistisch überzogen.4)

Die politische Absicht, anstelle von Fakten die Menschen zu ängstigen

Der Strahlenschutzfachmann Hinsch war wissenschaftlicher Mitarbeiter der Helmholz-Gesellschaft und in dieser Eigenschaft auch im Bergwerk Asse beschäftigt. Als die Zuständigkeit für Asse von der Helmholz-Gesellschaft überging auf das Bundesamt für Strahlenschutz (BfS), sah Hinsch darin die Abkehr von der bisher wissenschaftlich abgesicherten Arbeit und die Hinwendung zur politischen Absicht, die Öffentlichkeit über die Endlagerung radioaktiver Abfälle zu verunsichern und zu ängstigen. Daher versucht er, mit dem Halb- und Unwissen über Kernkraft und der radioaktiven Strahlung in der Bevölkerung, vor allem aber bei Journalisten, Medien und Politikern, mit Hilfe seines Wissens und naturwissenschaftlicher Fakten aufzuräumen. Von ihm stammen die Bücher Radioaktivität – Aberglaube und Wissenschaft (2010), Das Märchen von der Asse (2011) sowie ergänzend Das Märchen von der Asse, Gorleben und anderen Endlagern: – eine unendliche Geschichte (2013). Eine Rezension des letztgenannten Buches finden Sie hier, einen Beitrag von ihm mit der Überschrift „Unsere radioaktive Welt“ hier und wie Kernkraftgegner ihn als Lobbyisten diffamieren hier.

Die deutsche Torheit, den Versuchsreaktor in Jülich aufzugeben

Angst ist ein schlechter Ratgeber, auch die Angst vor Stromerzeugung aus Kernkraft. Eine deutsche Torheit ist 1988 schon das Abschalten des Hochtemperatur-Kugelhaufen-Reaktor (HTR-AVR) in Jülich gewesen. Alles Wissenswerte dazu hier. Ausgerechnet diesen Versuchsreaktor mit seiner vorbildlichen sichersten Technik hat Deutschland aufgegeben und will es dabei belassen. Jetzt geht es um den Abriss des Reaktorgebäudes, Rückbau genannt. Das lässt dem Kernphysiker Dr. Urban Cleve, einem der Mit-Erbauer des Reaktors, verständlicherweise keine Ruhe. Daher hatte er am 8. Mai 2014 an das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMBF) geschrieben, gerichtet an den Leiter der Abteilung „Sicherheit kerntechnischer Einrichtungen, Strahlenschutz, nukleare Ver- und Entsorgung“, Dr. Wolfgang Cloosters. Da eine Antwort bisher ausgeblieben ist, schrieb er am 3. August abermals. Es hat diesen Wortlaut (die Zwischenüberschriften und Erläuterungen in Klammern sind von mir):

Der Rückbau ist der größte Schildbürgerstreich

„Sehr geehrter Herr Dr. Cloosters, auf meine nachfolgende Mail habe ich leider noch keine Antwort erhalten. Bitte beachten Sie die enormen sicherheitstechnischen und auch wirtschaftlichen Vorteile eines HTR (Hochtemperatur-Reaktor) beim Betrieb und später dann auch beim Rückbau. Ich habe gegenüber dem BMBF den Rückbau des AVR (gemeint ist der Versuchsreaktor in Jülich) als den größten Schildbürgerstreich des 20./21. Jahrhunderts bezeichnet. Der Bioschild und das tiefe Betonfundament sind die am besten geeigneten Bauelemente zu sicheren Lagerung der noch strahlenden Bauelemente des Reaktors, auf tausende von Jahren hinaus. Die ‚Entsorgung’ des AVR kostet 625.000 Euro je Quadratmeter ‚Grüner Wiese’. Da braucht man kein ‚Asse’ und kein ‚Gorleben’. Das ‚Restgebäude’ kann man nutzen, wie man möchte, beispielsweise als Aussichtsturm für Wanderer mit Bistro.“

Warum erkennt die Politik diese Erfolge nicht, die 8 Milliarden Steuergelder gekostet haben?

„Genau so kann die Lösung für einen THTR (=Thorium-Hochtemperatur-Reaktor) aussehen. Um den Spannbetonbehälter mit seinen 6-8 m dicken Wänden kann nach Verfüllung mit Porenbeton jegliches neue Gebäude errichtet werden. Die Brennelement-Castoren können Sie im Freien aufstellen, da kann auch durch noch so ein schweres Erdbeben nichts passieren, es strahlt nichts mehr nach außen, es geht auch nichts kaputt. Sonne, Mond und Sterne und die Erde selbst strahlen radioaktiv viel intensiver, als jeder HTR-Spannbetonbehälter oder HTR-Brennelement-Castor. Warum werden diese Erfolge einer mit 8 Milliarden Steuermitteln erarbeiteten Technik von der Politik nicht erkannt, aber auch, warum weigern sich EVU (= Energieversorgungsunternehmen) eine Technik ohne ‚Restrisiko’ in Zukunft zu bauen.“

Ein HTR in der Ukraine hätte „Tschernobyl“ verhindert

„Beim AVR, als ich den ersten ‚Test-Gau’ eines KKW (Kernkraftwerks) in Jülich verantwortlich 1967 leitete, noch vor Tschernobyl, hätte man nach Abschaltung des Reaktors ‚nach Hause gehen können’, selbst wenn alle Sicherheitseinrichtungen funktionsunfähig sind. Wenn man nach drei Tagen dann wieder zum KKW kommt, kann man es problemlos wieder in Betrieb nehmen. Vergleichen Sie diese Bilder mit Fukushima, da erkennen Sie den Unterschied (Zeitungsausschnitt). Hätte, wie von der Ukraine angefragt, dort ein HTR gestanden, wäre Tschernobyl verhindert worden.“

Eine Technik, die alle Kritik der Kernkraftgegner widerlegt

„Warum soll ein ‚Restrisiko’ weiter bestehen, wenn es auch ohne geht, mit hoher Wahrscheinlichkeit auch noch wirtschaftlicher? Warum wird diese sichere Technik, die alle, ja alle Kritikpunkte der ‚Atomgegner’ widerlegt, nicht in Deutschland gebaut? Elektrische Energie ist das Blut der Wirtschaft, je preiswerter umso besser. Hohe Stromkosten sind wie Leukämie! Eine gesunde Wirtschaft ist das Fundament unseres sozialen Staates!! Aber nicht nur Strom kann wirtschaftlicher erzeugt werden, auch Hochtemperatur-Wärme für alle verfahrenstechnischen Prozesse, einschließlich der ‚Spriterzeugung’ und der Produktion von Trinkwasser in entsprechenden Gegenden. Dadurch werden wir auch unabhängiger von Energieimporten! (Vortrag im Anhang). All dies geht doch aus meinen oben angeführten Schreiben zweifelsfrei hervor. Noch niemand hat deren Richtigkeit je angezweifelt, eine fundierte kritische Gegen-Stellungnahme habe ich nicht erhalten, bei keinem einzigen Vortrag im In-und Ausland, im Gegenteil unter Fachleuten nur Zustimmung.“

Der Bau von „Stromautobahnen“ wäre der noch größere Schildbürgerstreich

„Nun wird ja auch in der Presse der HTR als “Green” betrachtet-(Anlage : Klimawissenschaftler:” Nur Atomenergie kann Erderwärmung stoppen”). Der THTR als Alternative zur Energiewende mit Sonne und Wind? Warum nicht, er macht ja auch aus ‚Abfall’-(Thorium) neuen Brennstoff, also eine ‚Erneuerbare Energie’. Immerhin hat er den Vorteil, dass er den Strom dort erzeugen kann, wo er gebraucht wird und steht 24 h/Tag zur Verfügung. Der Transport elektrischer Energie ist der teuerste-verlustreichste Energietransport, den man sich denken kann. Alle Verluste wärmen das ‚Klima’ auf! Ungeachtet der enormen Investitionskosten und des Bürgerwiderstandes, zu Recht, wie man erkennen muss. Der Bau der ‚Stromautobahnen’ wäre der nächste, noch größere Schildbürgerstreich.“

Naturgesetze lassen sich durch Mehrheitsentscheidungen nicht umgehen

„Man sollte doch auch bei der Gesetzgebung zum EEG die ‚Hauptsätze der Thermodynamik’ beachten. Diese sind Naturgesetze, die man durch politische/ideologische Gesetze nicht umgehen oder außer Kraft setzen kann, vor allem auch nicht durch ‚Mehrheitsentscheidungen’ in allen Parlamenten.“

Endlich würdigen, was in Deutschland mit dem HTR entwickelt worden ist

„Wann endlich wird auch das einmal als positiv erkannt, was in Deutschland entwickelt worden ist. Müssen andere Länder das denn erst schlechter nachbauen, bevor wir unsere eigene Entwicklung zum Vorteil der Deutschen Volkswirtschaft nutzen? Der HTR hat eine fünffache Absicherung gegen radioaktive Emissionen, völlig überzogen, aber sehr gut und extrem sicher. Selbst wenn dann noch eine Totalentladung in die Umgebung stattfinden würde, würde sich keine bleibende radioaktive Verunreinigung ergeben, eine Evakuierung wäre nicht erforderlich, dank der extrem sicheren Konstruktion der Brennelemente.“

Die Sicherheit des HTR-Personals ist größer als in jedem PKW

„Der erfolgreiche 21-jährige Betrieb des AVR hat doch gezeigt, dass die Sicherheit des Personals in diesem KKW größer ist, als in jedem PKW, Zug oder Flugzeug, siehe auch mein Schreiben an Frau MP Kraft vom 2.12.2011 und vom 6.7.2014. Hierauf wurde mir eine Antwort in Aussicht gestellt. Zu einer fundierten Besprechung mit allen Beteiligten und Interessierten über all dies bin ich gerne bereit, alle erforderlichen Ausarbeitungen zur Erläuterungen bringe ich dann mit. Es kann zu dieser Besprechung eingeladen werden, wer kommen mag, auf alle Fragen bin ich gespannt. Vielleicht ergreifen Sie, Herr Dr. Cloosters, die Initiative und laden ein, bevor die Deutsche Wirtschaft durch Verunglimpfung der KKW-Technik großen Schaden nimmt ….“

Fakten haben keine Chance

Soweit Cleves Brief an den BMBF-Abteilungsleiter Cloosters., der zuvor „Leiter der Atomaufsicht“ in Schleswig-Holstein gewesen ist. Der Umweltminister des Landes, Robert Habeck, der schleswig-holsteinische Minister für Energiewende, Landwirtschaft, Umwelt und ländliche Räume, sagte zu Cloosters’ Wechsel, dieser sei „ein Verlust für Schleswig-Holstein, aber ein Gewinn für den Atomausstieg in Deutschland“ (hier). Von diesem so markierten Mann kann Cleve das Gewünschte nicht erwarten, zumal es ohnehin nicht in dessen Macht steht. Aber seinen Brief öffentlich machen kann er, was hiermit geschieht. Ausrichten wird das allerdings ebenfalls nichts. Ähnlichen Briefen Cleves an regierende Politiker war das gleiche Los beschieden. Ebenso seinem Leserbrief, den 2008 die FAZ veröffentlicht hat (hier). Fakten, die mit politischer Illusion, Wählerfangabsicht und finanziellen Interessen der Mächtigen nicht übereinstimmen, haben keine Chance.

Das Problem unserer Zeit: fehlende Kenntnisse und Fähigkeiten

Hermann Hinsch am 1. Juni 2014 in einem Mail-Wechsel: „Das Problem unserer Zeit ist offensichtlich: Die Aufrechterhaltung unserer Zivilisation erfordert Kenntnisse und Fähigkeiten, die weit über das hinausgehen, was der durchschnittliche Mensch begreifen kann. Da sind die Menschen empfänglich für einfache Ideologien, bei denen sie als gleichwertig und nicht als dumme Nutznießer der Fähigkeiten Anderer dastehen. Was tun? Man muss den Leuten nur alles richtig erklären, Wissen verbreiten? Schon, aber damit erreicht man nur eine Minderheit. Die menschlichen Fähigkeiten sind erblich und so wenig gleich wie bei Hunden. Es hat keinen Zweck, Möpse, Dackel und Pekinesen für Hunderennen zu trainieren, sie werden niemals Preise gewinnen, es wäre nur Tierquälerei. Was möglich ist, soll man allerdings herausholen, und so helfe ich Migrantenkindern bei ihren Hausaufgaben.“

Dass Politiker Schaden anrichten, ist zur Gewohnheit geworden

In einem Leserbrief neulich las ich „Wir müssen uns daran gewöhnen, dass Politiker Schaden anrichten.“ Ja, zur Gewohnheit ist das geworden. Aber wollen wir uns daran gewöhnen? Doch wohl nicht. Dann allerdings müssen wir uns dagegen auflehnen. Jeder auf seine Weise; jeder, wie er es am besten vermag. Ich tue es, indem ich schreibend darüber aufzuklären versuche und mich in einschlägigen bürgerlichen Vereinigungen engagiere. Bei so etwas kann jeder mitmachen, auch ohne Fachwissen.

Atomkraft? Ja, bitte

Ein Beispiel ist auch die Petition, die sich für einen Kernkraft-Stromtarif einsetzt. Gerichtet ist sie an den Oberbürgermeister von Erlangen. Die Stadtwerke Erlangens sollen einen Tarif für Strom einführen, der zu hundert Prozent mit Kernkraft erzeugt ist. Der Initiator ist Frank Heinze als Vorsitzender von Nuklearia e.V. Dieser Verein ist nach eigenen Angaben ein gemeinnütziger und parteiunabhängiger Verein zur Förderung der Kernenergie und beschreibt seine Zielsetzung so: „Wir sehen in der Kernenergie eine wesentliche Säule der Energieversorgung. Fortschrittliche Reaktoren arbeiten sicher, sauber und nachhaltig. Atommüll5) lässt sich in Schnellen Reaktoren als Brennstoff nutzen. Anders als erneuerbare Energien steht Kernenergie jederzeit in ausreichender Menge zur Verfügung und verbraucht keine großen Landflächen.“ (Quelle hier). Ich selbst habe schon früher versucht, nur mit Kernkraftstrom beliefert zu werden. Geschildert habe ich das hier. Natürlich haben die Stadtwerke gemauert. Strom zu hundert Prozent aus Wasserkraft sind sie zu liefern imstande, aber Strom aus Kernkraft? Um Himmelswillen, nein.

__________________________________________________________________________
1) Der Wissenschaftliche Ausschuss der Vereinten Nationen zur Untersuchung der Auswirkungen der atomaren Strahlung (United Nations Scientific Committee on the Effects of Atomic Radiation, UNSCEAR) befasst sich mit den Auswirkungen der Kernkrafttechnik und Radioaktivität.

2) http://www.unscear.org/

3) J. Langeheine „Die Dosis macht das Gift – auch bei Strahlung“ (hier) sowie
Feinendegen „Hormesis“ (hier) und Berichte zu Radioaktivität und Strahlung unter hier.

4) Hermann Hinsch: „Selbst wenn man die sicherlich falsche LNT – Hypothese (keine untere Schwelle) zugrundelegt, läßt sich der Wert 0,1 mSv nicht rational begründen. Das Bundesamt für Strahlenschutz nimmt LNT als Dogma und schreibt, dass durch diese 0,1 mSv jährlich 5,5 Menschen von einer Million zusätzlich an Krebs sterben. Aber wer hat denn vor, ein Endlager unter einer Millionenstadt anzulegen? Bei 1000 Betroffenen wären es 0,0055 Krebsfälle. “Erneuerbare Energien” sind da gefährlicher. Also alles Ideologie. Ich habe schon mehrere Ideologien überlebt und hoffe, das Verfallsdatum auch dieser noch zu erreichen.“

Lutz Niemann: Bei einer Dosis unter 100 Millisievert wurde noch nie ein Schaden nachgewiesen, das ist die Realität. Die Realität ist aber auch folgendes: Allein in Deutschland gibt es pro Jahr rund 400 000 Patienten, die wegen Krebs bestrahlt werden. Das geschieht mit einer Organdosis von etwa 2 Sievert pro Tag (± 10% oder mehr) an allen Wochentagen über etwa 3 bis 6 Wochen. Dadurch ergibt sich eine kumulierte Dosis im Bereich von 40 bis über 60 Sievert. Wer die Schädlichkeit von Strahlung nachweisen will, hätte doch hier eine ideale Gelegenheit – ich habe aber dazu noch nie etwas vernommen. Im Gegenteil, es steht dazu im „Deutschen Ärztebatt“ geschrieben: „Gesundes Gewebe kann subletale Schäden in den Bestrahlungspausen weitgehend reparieren.“ (Jg.110, Heft 17, Seite 720 und 721). … Es ist mir ganz klar, bei „Strahlung – Gesundheit – Kernenergie“ geht es nicht um das Wohlergehen von Menschen, sondern im Verborgenen um ganz andere Dinge. Darüber sollten wir grübeln und uns austauschen.

Beide Zitate aus einer Diskussion zwischen Hinsch und Niemann per Mail-Wechsel am 11. und 12 Juni 2014.

5) Nicht alles, was als Atommüll bezeichnet wird, ist Müll, sondern Ressource. Nur die Spaltprodukte sind Atommüll. Die in den Medien häufig als Atommüll bezeichneten abgebrannten Brennelemente enthalten nur zu etwa 5 Prozent Spaltprodukte (also Müll), der Rest von 95 Prozent sind noch Ressourcen, die alle nach der Wiederaufarbeitung in thermischen oder auch in schnellen Reaktoren weiter zur Energiegewinnung genutzt werden können.

Der Beitrag von Dr. Klaus Peter Krause erschien zuerst auf seinem Blog hier




Ist es doch die Sonne?

Im Jahre 2008 haben William Livingston und Matthew Penn vom National Solar Observatory in Tucson in einer kontroversen Studie, die konventionellem Wissen widerspricht und Theoretiker der globalen Erwärmung auf die Palme gebracht hatte, vorhergesagt, dass die Sonnenflecken nach 2015 mehr oder weniger verschwinden könnten, was möglicherweise auf das Einsetzen einer neuen Kleinen Eiszeit hinweist. [Immer diese Konjunktive! Aber wie man bei www.spaceweather.com sehen kann{ist täglich auf der EIKE-Homepage gezeigt} scheinen die Flecken jetzt tatsächlich auf dem Rückzug! Anm. d. Übers.] Sie stellten fest: „Das Auftreten längerer Perioden ohne Sonnenflecken ist für Klimastudien wichtig, seit gezeigt wurde, dass das Maunder-Minimum mit niedrigeren mittleren globalen Temperaturen der Erde korrespondiert“. Das Maunder-Minimum dauerte etwa 70 Jahre von 1645 bis 1715 und war gekennzeichnet durch bittere Kälte, weit verbreitete Ernteausfälle und erhebliche Entbehrungen für die Menschen.

Es gab während der letzten Jahre zunehmende Beweise, die diese Annahme stützen, dass nämlich globale Erwärmung mit der Sonnenaktivität verknüpft ist.

Im Jahre 2011 haben drei Studien gezeigt, dass die Erde vermutlich einer neuen Kleinen Eiszeit entgegengeht, fällt doch die Sonnenaktivität derzeit wieder einmal.

Andere Forschungen haben ebenfalls bestätigt, dass solare Effekte kleine Eiszeiten verursachen können. Sarah Ineson und ihre Kollegen berichten, dass Änderungen der solaren Ultraviolettstrahlung zwischen 2008 und 2011 mit beobachteten kalten Wintern in Südeuropa und Kanada zusammenfallen.

Und Katja Matthes und Kollegen berichten, dass Simulationen mit einem Klimamodell, das neue Beobachtungen der solaren Einflussnahme enthält, einen substantiellen Einfluss der Sonne auf das Winterklima der Nordhemisphäre zeigen.

Eine Studie von chinesischen Wissenschaftlern aus diesem Jahr 2014 berichtete, dass der Einfluss von Kohlendioxid auf Klimaänderungen übertrieben dargestellt sein könnte, weil die Sonnenaktivität eine viel bessere Erklärung von Änderungen der Temperaturen auf der Erde bietet. Die Studie fand ,Jahrhunderte lang eine hohe Korrelation zwischen der Sonnenaktivität und der mittleren Temperatur der Erde‘. Dies zeigt, dass Klimaänderungen eng verknüpft sind mit solaren Zyklen und nicht mit menschlicher Aktivität. Tatsächlich sagt die Studie, dass das ,Moderne Maximum‘ – ein Spitzenwert der Sonnenaktivität, der lange Zeit im vorigen Jahrhundert festzustellen war, sehr gut mit der Zunahme der globalen Temperatur korrespondiert.

Russische Wissenschaftler sehen eine sogar noch dramatischere Entwicklung kommen. Sie sagen voraus, dass eine Kleine Eiszeit bereits in diesem Jahr 2014 beginnen wird [na, da schauen wir doch mal! Anm. d. Übers.]

In ihrem Buch „Die kalte Sonne“ stellen die Autoren Fritz Vahrenholt und Sebastian Lüning fest, dass die Temperaturen bis zum Jahr 2030 um zwei Zehntelgrad niedriger liegen könnten als Folge einer kraftlosen Sonne. Dies bedeutet, dass eine weitere Erwärmung weit in die Zukunft verschoben wird.

Man beachte, dass diese Berichte von Forschern aus aller Welt stammen [die vermutlich allesamt nicht in irgendwelchen staatlichen Arbeitsverhältnissen stehen. Anm. d. Übers.]

Nick Hallet schreibt: „Die Forschung zeigt, dass die gegenwärtigen Erwärmungs-Modelle des IPCC die Auswirkung natürlicher Faktoren auf eine Klimaänderung unterschätzen, während sie die Auswirkung menschlicher Aktivitäten überschätzen. Die Sonnenaktivität ist eine wichtige Zutat der natürlichen Treiber des Klimas. Daher ist es unerlässlich, den Einfluss der solaren Variabilität auf das Erdklima langfristig zu untersuchen“.

Man füge all dem noch eine Studie aus jüngster Zeit hinzu, der zufolge das Grand Maximum der Sonne (das sich über die Sonnenzyklen 19 bis 23 erstreckte, d. h. Von 1950 bis 2009), ein ,seltenes oder sogar einmaliges Ereignis war, sowohl hinsichtlich Größenordnung als auch zeitlicher Dauer während der letzten 3000 Jahre‘. Unglücklicherweise lag es jenseits der Möglichkeiten dieser Studie, den potentiellen Einfluss der Sonnenaktivität auf das Klima anzusprechen. Dennoch hinterlässt die Rekonstruktion eine sehr wichtige Frage unbeantwortet – welche Auswirkungen hatte das Grand Maximum auf das Klima der Erde? Als ,einmaliges‘ und ,seltenes‘ Ereignis hinsichtlich Größenordnung und Dauer würde man denken, dass das IPCC sehr viel mehr Zeit und Mühe aufwendet, um diese Frage zu beantworten. Stattdessen haben die IPCC-Wissenschaftler, wie schon früher angemerkt, relativ wenige Studien über den Einfluss der Sonne auf die jüngste Erwärmung durchgeführt. Man war davon ausgegangen, dass der Einfluss dieses seltenen und einmaligen Ereignisses auf die Temperatur, dass lediglich einmal während der letzten 3000 Jahre aufgetreten war, der radiativen Kraft der steigenden CO2-Konzentration in der Erdatmosphäre deutlich untergeordnet ist.

Full post & references Bzgl. der ,references‘: Hinter praktisch jedem Absatz standen in Klammern Ziffern zu diesen References. Ich habe sie hier nicht übernommen, weil diese References hier nicht aufgeführt sind. Anm. d. Übers.

Link: http://www.thegwpf.org/is-it-the-sun-after-all/

Übersetzt von Chris Frey EIKE




E – Mobilität versus Energiewende

Entgegen vieler medialer Bekundungen, hat sich auf diesem E-Mobilitätsgebiet, abgesehen von hervorragenden Entwicklungen in der E-Traktion, bis zum Hybrid AUTO z.B. dem BMW i8, in der Stromspeichertechnik zur Bereitstellung ausreichender elektrischer Traktionsenergie, bis auf durchaus erfreuliche Verbesserungen der Speicherfähigkeit und Lebensdauer im zweistelligen Prozentbereich und moderate Kostensenkungen in Relation zur Energiespeicherfähigkeit, den Kosten und der „Aufladezeit“ eines üblichen Benzintanks, nichts Wesentliches getan.

In Demut vor den physikalischen Gesetzmäßigkeiten ist es offenbar sehr schwer zu bekennen, dass die Ursache des Problems einfach verdrängt wird: Tatsache ist nämlich, dass wir nach dem derzeitigen Stand der Wissenschaft kein physikalisches Prinzip zur Stromspeicherung größerer Energiemengen zu bezahlbaren Kosten, jenseits zu der untauglichen elektrischen oder magnetischen Feldenergie sowie der chemischen Energie, die allesamt im eV-Niveau (nicht MeV) agieren, kennen.

Vergleichbar mit dem Energieinhalt eines 70 l Tanks mit rd. 650 kWh (1) Energieinhalt, der fast nichts kostet, in 2 Minuten geladen ist und länger hält als das Fahrzeug, zu einer Lithium-Ionenbatterie mit 20 kWh Speichervermögen (500 $/kWh bis 700 $/kWh), die 10.000 € (1) kostet, 6 h zur Aufladung benötigt und nach 7 Jahren ersetzt werden muss.

Beim Übergang der Stromerzeugung von der Primärenergie Kohle zur Energiegewinnung mit 8,14 kWh je kg C hin zur Kernenergie mit 20 Millionen kWh je kg U235, beide findet man in Natur-Lagerstätten unserer Erde, war eine ganz andere Welt aufgemacht, nicht nur prozentuale Verbesserungen realisiert.

Beim Übergang der Stromerzeugung von der Primärenergie Kohle zur Energiegewinnung mit 8,14 kWh je kg C hin zur Kernenergie mit 20 Millionen kWh je kg U235, beide findet man in Natur-Lagerstätten unserer Erde, war eine ganz andere Welt aufgemacht, nicht nur prozentuale Verbesserungen realisiert. 

Solange Vergleichbares nicht in der Energie-Speichertechnik gelingt, hat das E-Auto ohne massive staatliche Förderung nur Nischenchancen, ebenso wie sie die Stromerzeugung aus Wind- und Sonnenanlagen ohne staatliche Förderung auch nur hätte.

Wenn man den 80 kW Elektromotor mit Nennleistung, d.h. etwa bei 130 km/h und leichter Steigung belastet, ist die Batterie in 15 Minuten leer gefahren, man hat dann 32,5 km zurück gelegt und eine E-Tankstelle ist außer jeder Sichtweite.

Wenn man nur 60 km/h schnell fährt und dann auf ebener Strecke mit 10 kW auskommt, könnte man das Spiel 2 Stunden lang betreiben und hat sich dann 120 km weit fortbewegt.

Wenn man dann wieder zu Haus angelangt ist, kann man über Nacht aufladen und die Welt ist in Ordnung für den Einsatz am nächsten Tag.   Auf jegliche Heizung und 20 W Power-Lautsprecher hat der E-Autofahrer selbstverständlich verzichtet, für solchen „artfremden Komfort“ ist die nur spärlich verfügbare Energie zu kostbar, da diese voll zu Lasten der Traktion geht.

An diesem extremen, aber doch sehr realistischen Beispiel, kann man erkennen, wo die Grenzen der E-Mobilität derzeit und sicher auch noch in heute überschaubarer Zukunft von mindestens 20 Jahren liegen!  Genial ist die Problematik beim BMW i8 gelöst: Die 5,2 kWh Batterie (energetisch vergleichbar mit 0,5 Liter Benzin), bringt das Fahrzeug nach (NEFZ-Standard) mit dem 75 kW E-Motor und moderatem Tempo, 37 km weit. Der dazu verfügbare 170 kW Benzin-Motor bringt das Fahrzeug mit dem 42 l Tank rd. 600 km weit.

Fazit: Also ein hervorragendes Hybrid Fahrzeug BMW i8: 6 % E-Betrieb und 94 % Benzin-Betrieb für 126.000 bzw. 145.000 € in komfortabler Ausstattung zu haben. Einen Massenmarkt werden solche Entwicklungen wohl nicht sehen oder begründen können.

Wenn man auf die 6 % E-Betrieb verzichtet und ansonsten das gleiche Komfortfahrzeug für 100 % Benzinbetrieb nimmt, hat man locker 50.000 € gespart.

 Zu hoffen ist, dass die Kosten solcher Entwicklungen nicht auf die erfolgreichen Allgebrauchssegmente „mit 100 % Benzinbetrieb“ umgelegt werden, sondern dort verbleiben, wo sich die Marktnische im Exklusivsegment auftut.

Das damit zusammenhängende Energiewendeproblem wurde kürzlich vom Präsidenten des ifo- Insti-tutes in München, Herrn Prof. Dr. Hans-Werner Sinn, sehr eindrucksvoll in 13 Thesen zusammenge-fasst mit einigen Kommentaren:

Siehe auch die Ausführungen vom Chef des ifo Institutes in München in seinen Vorträgen am 08. 07. 2014: 13 Thesen zur Energiewende http://www.cesifo-group.de/de/ifoHome/policy/Sinns-Corner/Sinn-Juni2014-14-Thesen-zur-Energiewende.html und dem Vortrag: „Energiewende ins Nichts“ am 16.12.2013 an der LMU in München http://www.youtube.com/watch?v=m2eVYWVLtwE.

Fazit: Hinfahrt München-Leipzig mit VW e-Golf, 450 km: 9 h, 50 min.; Rückfahrt 8 h, 15 min.

Helmut Alt

(1) korrigierte Fassung mancher Werte mit Dank an Leser Sigur Hanser




Sommer, Sonne, Wärmegewitter – gutes Konjunkturklima für „Klima-Alarm“!

Damit ist nun bald Schluss, denn bald schießen die Klimaschutzgesetze wie Pilze aus dem Boden. Den Vorläufer spielt die Hansestadt Hamburg im Jahre 1997, allerdings ohne ein „Klimaziel“ zu formulieren. Dieses kam 2013 mit einem „Masterplan Klimaschutz“. Das erste Klimaschutzgesetz mit konkreten „Klimazielen“ verabschiedete das Kohleland Nordrhein-Westfalen 2013. Es folgte im gleichen Jahr Baden-Württemberg. Beide Länder wollen bis 2050 die Emission von Treibhausgasen um 80 bzw. 90 Prozent reduzieren. 2014 folgte Rheinland-Pfalz mit einem Reduktionsziel von 100 Prozent im Jahr 2050. Berlin, Bremen, Niedersachsen und Schleswig-Holstein wollen folgen.

„Klimaziele“ ohne Gesetzesrang haben vier Bundesländer: die drei Freistaaten Bayern, Sachsen, Thüringen und Hessen. Verzichten wollen die Länder Mecklenburg-Vorpommern und das Saarland, das auf ein Klimaschutzkonzept von 2008 verweist. Einzig Sachsen-Anhalt fällt aus der Rolle und hält ein solches Gesetz für „überflüssig und kontraproduktiv“.

Welches Klimaziel strebt der Klimaschutz an?

Es dürfte allen Klimaexperten wie Klimapolitikern jedweder Couleur klar sein, dass man „Klima“, so wie es definiert ist, nicht schützen kann. Wo sollte man da überhaupt ansetzen? Das ginge nur, wenn man die international offizielle Definition der Weltorganisation für Meteorologie (WMO) in Genf zugrunde legt, über das Wetter. Doch wie könnte man das Wetter schützen? Schauen wir zuerst in die Wetterzukunft. Die kennen wir nur für wenige Tage, wenn überhaupt. Aber auch wenn wir wissen, dass in fünf Tagen eine Gewitterfront mit „Unwetterpotential“ über uns hinweg zieht, was können wir dagegen tun? Zu schützen brauchen wir sie nicht und bändigen können wir sie auch nicht. Es gibt nur eine Möglichkeit, uns und unser Hab und Gut so gut wie möglich vor dem herannahenden Unwetter zu schützen.

Doch die Definition von „Klima“ hat nichts mit der Zukunft zu tun. Sie betrifft einzig und allein die Vergangenheit. Als die Wetterdienste der Erde sich 1935 in Warschau zusammensetzten und eifrig erörterten, wie man „Klima“ definieren könne, einigte man sich auf eine Zeitspanne, die lang genug ist, so dass in ihr alle für einen Ort maßgeblichen Wetterereignisse auftreten. Man einigte sich auf eine Periode von 30 Jahren und deklarierte die 30 Jahre 1901 bis 1930 zur international gültigen „Klimanormalperiode“. Dabei wurde nicht gefragt, ob diese Periode wettergeschichtlich „normal“ war. Man legte sich nur einen Maßstab zurecht, um später sagen zu können, es war wärmer oder kälter, nasser oder trockener im Vergleich zur „Normalperiode“.

Dieses kann auch kein realistisches „Klimaziel“ sein, denn das Wetter lässt sich nicht ungeschehen machen oder zurückdrehen. Kein Naturvorgang lässt sich ungeschehen machen, kein Erdbeben, kein Vulkanausbruch oder gar die Kontinentalverschiebungen. Dies betrifft auch den Naturvorgang Wetter. Alles auf Erden unterliegt der Zeit. Die Zeit ist unumkehrbar, irreversibel. Auch wenn die Uhr stehen bleibt, die Zeit läuft weiter. Das Ziel „Klimaschutz“ ist doppelt utopisch, denn nicht nur die einzelnen Wetterereignisse lassen sich ungeschehen machen, sondern auch das Wetter als statistische Größe, als „Klima“ oder „Mitteltemperatur“, lässt sich weder in „normalen“ Bahnen noch „konstant“ halten. Man kann weder der Natur noch dem Wetter eine „Autobahn mit Leitplanken“ vorgeben und befehlen, dass beide nicht von dem anthropogen wünschenswerten „Tugendpfad“ abweichen.

Weil man über das ursächliche Verhalten des Wetters so gut wie nichts weiß, ist es ein Leichtes für die Klimaexperten, bei der Durchforschung von Datensätzen immer neue Phänomen zu entdecken und Mutmaßungen darüber anzustellen, wie sich das zukünftige Wetter verhalten könnte. Was das betrifft, so ist Joachim Ringelnatz (1883-1934) treffsicher: „Sicher ist, dass nichts sicher ist. Selbst das nicht!“

Mehr Wetterextreme durch Aufschaukeln riesiger Wellen in der Atmosphäre

Dies ist die Überschrift einer Pressemeldung, die das Potsdam-Institut für Klimafolgenforschung am 12. August 2014 in die Medienwelt ausstreute. Die Medien werden sich auf diese Sensation stürzen, ohne zu merken, dass der Aussagewert der Studie, an welcher der „Chef“ Hans Joachim Schellnhuber und Stefan Rahmtorf mitgearbeitet haben, praktisch gleich Null ist.

Jeder Mensch weiß, dass es seit Urzeiten die Jahreszeiten mit Frühling, Sommer, Hebst und Winter gibt, die vom Sonnenstand vorgegeben werden. Jeder Mensch weiß auch, dass alle Tief- und Hochdruckgebiete wandernde und vergängliche Gebilde sind, die von Höhenströmungen gesteuert werden. Dass die Höhenströmung nicht breitenkreisparallel, sondern wellenförmig ist, wissen wir auch. Bekannt ist auch, dass sich gelegentlich Wellen so aufschaukeln, dass sie zeitweise stationär erscheinen. Man spricht dann von Omega-Lagen, wobei ein Hoch von zwei Tiefdruckgebieten flankiert wird. Das alles ist nichts Neues. Doch wann und warum dies passiert, ist ein ungelöstes Rätsel der Natur.

Ist dieses Wellen-Rätsel nun durch die großen Experten Rahmstorf und Schellnhuber gelöst? Ist die auslösende Ursache gefunden worden? Ich zitiere: „Die Wissenschaftler haben große Sätze globaler Wetterdaten untersucht und dabei einen faszinierenden Zusammenhang entdeckt… Ein großer Teil der globalen Luftbewegung in den mittleren Breiten nimmt gewöhnlich die Form von Wellen an, die um den Globus wandern… Die Studie zeigt jedoch, dass einige dieser Wellen bei extremem Wetter nahezu feststeckten und sich stark aufgeschaukelt haben… Dahinter steckt ein subtiler Resonanzmechanismus, der Wellen in den mittleren Breiten festhält und sie deutlich verstärkt.“

Haben Sie genau gelesen? Das Ganze ist eine Nullaussage! Man hat etwas längst Bekanntes entdeckt und vermutet nun einen „subtilen Resonanzmechanismus“, der in den mittleren Breiten, der „Westwindzone“, die Wellen festhält und deutlich verstärkt. Wie viel Geheimnisvoller wäre die Aussage gewesen, wenn statt deutlich signifikant gesagt worden wäre. Im Text wird auch gesagt, dass „Wellen bei extremem Wetter nahezu feststeckten“, während nach der Überschrift erst durch das Aufschaukeln „Wetterextreme“ ausgelöst werden sollen. Aber dann zaubert man doch noch einen Schuldigen ans Tageslicht: „Seit dem Jahr 2000 hat sich die Arktis etwa doppelt so schnell erwärmt wie der Rest des Planeten.“ Ist das plausibel? Nein, denn dann müsste sich die Zirkulation abschwächen, da zwischen Pol und Äquator der Temperaturgradient geringer würde.

Ein Beweis für diese Hypothese wird nicht geliefert! Was kann ein synoptischer Meteorologe, der das Wetter mitsamt der Höhenströmung vorhersagen soll, mit solchen substanzlosen Aussagen prognostisch anfangen? Nichts! Auch an diesem Beispiel kann man eine Lebenserfahrung heranziehen, die von Albertus Magnus (1200-1289) stammt: „Die wenigsten Menschen denken wirklich; sie leben hauptsächlich aus ihren Vorstellungen und meinen, das wären Gedanken!“

Klimawandel löst bei der Frankfurter Allgemeinen Zeitung „Klima-Alarm“ aus

„Klima-Alarm“, so lautete die Überschrift über einem FAZ-Artikel am 29. Juli 2014 und beruft sich auf die „amerikanische Regierung“. Haben wir den „wärmsten Juni“ aller Zeiten verschlafen, denn, so Andreas Mihm, „schließlich ist Urlaubszeit“. Auch behauptete Mihm: „Das Wissen über das Ausmaß des Klimawandels und die Gründe dafür wächst täglich.“ Zudem konstatiert er „einen gefährlichen Temperaturanstieg“ und zieht daraus den Schluss: „Weil der menschengemacht ist, muss er auch vom Menschen eingedämmt werden.“ Und nun kommt das Schlupfloch. „Doch selbst wenn die Ursache eine andere wäre, müsste das geschehen.“

Und welches ist die „Ursache“? Sind es die „in die Luft gepusteten Klimagase“? Auch hier eine Allerweltfloskel, die nicht der Werbung der FAZ, dass hinter jedem Artikel „ein kluger Kopf stehe“, entspricht. Warum fragt Mihm nicht die Klimaexperten, welchen Einfluss der menschliche Atem, der Wasserdampf und Kohlenstoffdioxid enthält, auf das Wetter und die Temperaturen hat? Wo sind die Allgemeinbildung und das Wissen über die Bedeutung des CO2 im Naturhaushalt wie bei der Photosynthese? Jeder Förster weiß um die Lebensvorgänge im Wald und die Tatsache, dass nachts bei abnehmender Temperatur der CO2-Gehalt der Luft im Forst steigt. Ab Sonnenaufgang mit der Assimilation des CO2 durch die Spaltöffnungen der Blätter sinkt er wieder bei steigenden Temperaturen. Das CO2 regelt oder steuert nicht die Temperatur. Zwischen beiden Größen gibt es keinerlei Kausalbeziehung.

Aber mit willkürlichen Korrelationen kann man immer wieder Menschen verblüffen. Am 9. April 2014 meldete die WELT „Klimawandel lässt Frösche höher quaken“. US-Biologen hätten Tonaufnahmen des Höhlen-Pfeiffrosches aus den Jahren 1983 und 2006 mit den Temperaturen korreliert und führen das kürzere und höhere Quaken auf den Klimawandel zurück, der nun dazu führen könne, dass der Paarungserfolg sinke. Andere Forscher meinen herausgefunden zu haben, dass die Feuersalamander schrumpfen, die Oliven üppiger sprießen, die Kuckuck-Brut gefährdet sei, alles wegen des Klimawandels.

Der Klimawandel ist übrigens so alt wie die Welt und äußert sich konkret als Wetterwandel. Er hat die Lebensvielfalt, die Biodiversität nachweislich nicht gemindert, sondern eher gefördert. Wer durch Monokultur die biologische Vielfalt schmälert, das ist der Mensch, nicht der Klimawandel. Die einzige Konstante im Universum ist die Veränderung. Der Klimawandel ist eine ewige Herausforderung für Flora und Fauna und nicht eine Bedrohung. Angeblich mache er das Essen schlecht, denn je höher die CO2-Werte der Luft steigen, desto stärker könnte die Lebensmittelqualität sinken. Man achte auf den Konjunktiv, denn belegt wird diese Behauptung nicht!

Oppenheim, den 13. August 2014                                                       Dipl.-Met. Dr. phil. Wolfgang Thüne




Erfolgskontrolle der Energiewende Politik

Eine energiewirtschaftliche Bewertung der Stromeinspeisung aus Windkraft- und Fotovoltaik-Anlagen kann sehr zuverlässig über Lastganglinien erfolgen, die den zeitlichen Verlauf der Einspeiseleistungen der jeweiligen Erzeugungsanlagen darstellen. Bei Gegenüberstellung der im deutschen Stromnetz benötigten Leistung kann anhand der Lastganglinien wirkungsvoll kontrolliert werden, welcher Energieträger mit welchem prozentualen Anteil den durchschnittlichen Leistungsbedarf von knapp 70 000 MW in Deutschland deckt. In Deutschland werden pro Jahr bis zu 600 Milliarden kWh verbraucht (600 Milliarden kWh/8760 Jahresstunden = 68 493 MW).

Diese effektive Erfolgskontrolle mittels der Lastganglinien unterbleibt in allen öffentlich geführten Diskussionen. Dabei ist aus allen Daten der zu ihrer Veröffentlichung gesetzlich verpflichteten Übertragungsnetzbetreiber Amprion, 50 Hertz, TenneT und Transnet BW (www.eeg-kwk.net) und der European Energy Exchange (www.eex.com) klar zu erkennen, dass die sichere Stromversorgung in Deutschland ohne einen ausreichend großendargebotsunabhängigen konventionellen Kraftwerkspark nicht gewährleistet werden kann. Nur ein „allzeit bereiter“ Kraftwerkspark ist in der Lage, die Diskrepanz zwischen Stromangebot und Stromnachfrage zu decken.Als Betrachtungszeitraum sind Wintermonate besonders aussagekräftig.

Diagramm 1: Stromverbrauchskurve (Band bis ca. 73 000 MW) in den Wintermonaten 2012/13 und die Einspeiseleistungen aller Windenergie- und Fotovoltaik-Anlagen in Deutschland 

Zur Erzeugung des in Deutschland verbrauchten Stroms speisen Kraftwerke mit einer Leistung von bis zu 80 000 MW in zeitlicher Abhängigkeit vom Verbrauch in das öffentliche Stromnetz ein. Diese von den Anforderungen der Stromverbraucher zeitabhängigeEinspeiseleistung wird bisher von konventionellen und seit einigen Jahren verstärkt von regenerativen Stromerzeugungs-Anlagen bereitgestellt, wobei die EEG-Anlagen mit gesetzlich festgelegtem Vorrang ins Stromnetz einspeisen, während die konventionellen Anlagen dem stark variierenden Stromverbrauch und der unsteten Einspeiseleistung der Windenergie- und Fotovoltaik-Anlagen nachregeln. Im Diagramm 1 sind die akkumulierten Einspeiseleistungen aller Windenergie-Anlagen (Wind blau) und aller Fotovoltaik-Anlagen (Solar gelb) maßstäblich zum Stromverbrauch (roter Hintergrund) für den Zeitraum Dezember 2012 bis Februar 2013 wiedergegeben.

In Deutschland sind aktuell 24 000 Windenergie-Anlagen mit einer Nennleistung von 32 300 MW und Fotovoltaik-Anlagen mit einer Nennleistung von ca. 35 300 MW installiert (Stand Okt 2013). Damit hat der Bestand an Windenergie- und Fotovoltaik-Anlagen mit zusammen 67 600 MW Nennleistung fast die Größenordnung der Einspeiseleistung des Kraftwerksparks erreicht, die zur Sicherstellung einer stabilen Stromversorgung in Deutschland zeitgleich zum Verbrauch im Stromnetz zur Verfügung stehen muss. Als Nennleistung einer Stromerzeugungsanlage wird die höchste Leistung definiert, die bei optimalen Betriebsbedingungen dauerhaft zur Verfügung gestellt werden kann. Windenergie-Anlagen erreichen beispielsweise ihre auf dem Typenschild angegebene Nennleistung erst bei Windgeschwindigkeiten ab 13 m/sec bis 15 m/sec, die bei starken bis stürmischen Windverhältnissen vorliegen und per Definition zu „Widerstand beim Gehen gegen den Wind“ führen.

Lastganglinien

Zuverlässige Aussagen über die Wertigkeit der Stromerzeugung aus Windenergie- und Fotovoltaik-Anlagen, d.h. Aussagen über die zeitadäquate Erzeugung von kWh (elektrische Arbeit), können aus Lastganglinien gewonnen werden, da diese den zeitlichen Verlauf der Einspeiseleistung dokumentieren.

Diagramm 2: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie-Anlagen ab 2010 mit aktuell 32 300 MW Nennleistung (Okt 2013)

Das Diagramm 2 stellt die gesamte Stromeinspeisung aller Windenergie-Anlagen in Deutschland im Zeitraum 2010 bis Oktober 2013 dar. In diesem Zeitraum wurde die installierte Nennleistung des Windenergie-Kraftwerksparks auf 32 300 MW erhöht (blauer Hintergrund). Die dargestellte Lastganglinie ist charakterisiert durch eine ausgeprägte Stochastik mit hohen Leistungsspitzen und langen Zeiträumen minimaler Einspeiseleistung. Eine gesicherte Stromeinspeisung mit einem akzeptablen „Sockel“ an Einspeiseleistung ist über den gesamten Darstellungszeitraum nicht zu konstatieren. Daher bleibt die „gesicherte Minimalleistung“ aller 24 000 Windenergie-Anlagen in Deutschland trotz des starken Zubaus der letzten Jahre im gesamten Zeitraum und insbesondere auch in den Wintermonaten mit höherem Stromverbrauch weiterhin nahezu Null: „Wenn kein Wind weht, sind alle Windmühlen betroffen“.

In der öffentlichen Diskussion der Regenerativen Energien werden gerne die Begriffe „Elektrische Leistung (kW)“ und „Elektrische Arbeit (kWh)“ miteinander vermischt. Die Zuwachsraten an installierter Nennleistung werden als Beleg für den Erfolg der regenerativen Stromerzeugung gewertet, obwohl diese nur den Zuwachs an möglichem Potential bei optimalem Angebot an Windgeschwindigkeit und Sonneneinstrahlung beschreiben. Zur Klarstellung sei nochmals dieses einfache Beispiel angefügt: Eine Windenergie-Anlage mit einer Nennleistung von 1 MW liefert, wenn sie über einen Tag ständig mit ihrer maximalen Leistung von 1 MW betrieben wurde, die elektrische Arbeit von 24 MWh (1 MW*24h=24 MWh). Bei Windgeschwindigkeiten unter 3 m/sec steht die Anlage still; die volle Leistung wird bei Sturmstärke erreicht. Die oft geübte Praxis der Verrechnung von Nennleistungen regenerativer Anlagen mit den Leistungen von „Atomkraftwerken“ ist entweder raffiniert angelegte Irreführung oder zeugt von völliger Unkenntnis der Fakten.

Diagramm 3: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Fotovoltaik-Anlagen ab Juli 2010 mit aktuell 35 300 MW Nennleistung (Okt 2013) 

Das Diagramm 3 mit Darstellung der Lastganglinie aller deutschen Fotovoltaik-Anlagen und der Entwicklung der Nennleistung dieser Anlagen mit aktuell ca. 350 Millionen m² Kollektorfläche spiegelt den rasanten Ausbau innerhalb der letzten drei Jahre und den krassen Widerspruch zu den tatsächlich eingespeisten Leistungen wider. Auffällig sind besonders die hohen Stromimpulse in den Sommermonaten, die kurzzeitig in den Mittagsstunden ins Stromnetz eingespeist werden und mit dem starken Zubau der Anlagen in den letzten Jahren sehr hohe Amplituden mit steilen Flanken erreichen. Zudem ist die Lastganglinie des gesamten Fotovoltaik-Anlagenparks durch den stark ausgeprägten Sommer-Winterzyklus charakterisiert. In den Wintermonaten wurden an vielen Tagen nur wenige Hundert MW Leistung als Maximal-Amplitude in der Mittagszeit erreicht.

Durch die Abhängigkeit von der Sonneneinstrahlung können diese Anlagen grundsätzlich nur eine gepulste Stromeinspeisung mit teilweise sehr hohen Stromspitzen zur Mittagszeit vorwiegend in den Sommermonaten anbieten. In den Wintermonaten tendiert die Stromeinspeisung auch um die Mittagszeit zu Minimalwerten. Die stark verminderte Bereitstellung von elektrischer Arbeit (kWh) aus Fotovoltaik in den Wintermonaten – hervorgerufen durch den niedrigen Sonnenstand und die im Winter vorherrschenden Wetterlagen – läuft dem in dieser Jahreszeit stark steigenden Strombedarf der Verbraucher konträr entgegen. In den Wintermonaten werden nur etwa 10 % der elektrischen Arbeit (kWh) der Sommermonate erzeugt. Die Stromeinspeisung der Fotovoltaik-Anlagen gleicht mit ihrer Pulsform generell der Anhäufung von „Nadeln unterschiedlicher Länge“.

Im Diagramm 4 werden vor dem hellgrünen Hindergrund der Nennleistung aller Windenergie- und Fotovoltaik-Anlagen in Deutschland die akkumulierten Einspeiseleistungen dieser Anlagen (dunkelgrüne Zackenkurve) für den Zeitraum Okt 2012 bis Okt 2013 dargestellt. Die dem Stromverbrauch in Deutschland äquivalente Einspeiseleistung des gesamten konventionellen und regenerativen Kraftwerksparks ist als dunkelrote Lastkurve überlagert, wobei im Betrachtungszeitraum Verbrauchsspitzen vorwiegend in den Wintermonaten bis 75 000 MW erreicht wurden. Die angegebene Stromverbrauchskurve beruht auf den Daten des Verbands Europäischer Übertragungsnetzbetreiber (kurz ENTSO-E von European Network of Transmission System Operators fort Electricity) mit Sitz in Brüssel.

Das Diagramm zeigt ebenfalls sehr deutlich die Diskrepanz zwischen der installierten Nennleistung (hellgrüne Fläche) und der Lastganglinie der unstet einspeisenden Windenergie- und Fotovoltaik-Anlagen. Der Zuwachs an Nennleistung dieser Anlagen betrug seit Anfang 2010 knapp 32 000 MW auf aktuell 67 500 MW. Die im Diagramm als dunkelgrüne Fläche ausgebildete Lastganglinie (Flächenintegral) repräsentiert die gewonnene elektrische Arbeit (kWh). 2010 wurden laut Fraunhofer Institut 49,5 Milliarden kWh, 2012 bereits 73,7 Milliarden kWh ins Stromnetz eingespeist (Jahresverbrauch in Deutschland ca. 600 Mrd. kWh).

Diagramm 4: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen ab Oktober 2012 mit aktuell 67 500 MWNennleistung (Okt 2013)

Besonders auffällig bei allen Lastganglinien ist die Charakteristik der Stromeinspeisung mit hohen Spitzen und tiefen Tälern über den gesamten Zeitraum, ohne dass über den starken Zubau an Anlagen in den letzten Jahren ein Trend zur Vergleichmäßigung der Einspeiseleistung oder eine „Sockelbildung“ für die Minimale Einspeiseleistung zu konstatieren ist. Auch 2013 wäre ohne Vorhalten eines vollumfänglichen konventionellen Kraftwerksparks mit grundlastfähigen Anlagen die Stromversorgung des Industriestandorts Deutschland nicht machbar gewesen. Bisher konnte noch kein konventionelles dargebotsunabhängiges Kraftwerk durch Anlagen auf Basis von „Sonne und Wind“ ersetzt werden.

Das Diagramm 4 dokumentiert zudem eine für den deutschen Stromkunden teure Konstellation im Stromnetz an den Weihnachtsfeiertagen 2012. Ein starker Rückgang des Stromverbrauchs besonders in den Nachtstunden korrelierte mit hohen Einspeiseraten der Windenergie-Anlagen. Der im Zeitraum von jeweils Mitternacht bis 9 Uhr früh an den drei Feiertagen nach dem EEG-Gesetz vorrangig eingespeiste, aber in Deutschland nicht verwertbare Strom wurde mit ca. 120 Millionen € an die Windanlagenbetreiber vergütet. Weitere ca. 92 Millionen € mussten für den Zeitraum von 27 Stunden (3*9) von allen Stromverbrauchern aufgebracht werden, da an der Strombörse nur hohe negative Strompreise zu erzielen waren. Insgesamt summierten sich die entstandenen Kosten für die deutschen Stromkunden auf knapp 212 Millionen € (Quelle: Prof. Dr. Helmut Alt).

Im Diagramm 5 ist die akkumulierte Einspeiseleistung aller deutschen Windenergie- und Fotovoltaik-Anlagen für die Monate August und September 2013 nochmals mit höherer Zeitauflösung als Beispiel für einen hohen Anteil an „Solarstrom“ dargestellt. An verschiedenen sonnenreichen Tagen speisten die Fotovoltaik-Anlagen in der Mittagszeit kurzzeitig über 20 000 MW in die Übertragungsnetze ein. Bei Überlagerung mit hoher Windenergieeinspeisung wurden kurzzeitig Leistungseinspeisungen von über 30 000 MW erreicht.

Aus der unsteten Einspeiseleistung der Windenergie- und Fotovoltaik-Anlagen resultiert dramatisch wachsender Regelbedarf des konventionellen Kraftwerksparks. Extrem hohe Stromeinspeisungen der Fotovoltaik-Anlagen zur Mittagszeit während der Sommermonate wechselten beispielsweise an vielen Tagen mit extrem niedriger Einspeisung der Windenergie-Anlagen von wenigen Hundert MW zur Nachtzeit aufgrund fehlender Windhöffigkeit ab. Der hohe Anteil an Regelleistung zur Stabilisierung der Netzfrequenz reduzierte in den letzten drei Jahren in hohem Maße die Einsatzzeiten besonders der Gas- und Steinkohlekraftwerke mit erheblichen Auswirkungen auf die Wirtschaftlichkeit dieser Anlagen.

Diagramm 5: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen im August und Sept 2013 mit aktuell 67 500 MW Nennleistung (Okt 2013) 

Die Diagramme 6 und 7 dokumentieren den Beitrag der Einspeiseleistung aller deutschen Windenergie- und Fotovoltaik-Anlagen mit 67 500 MW Nennleistung zur Stromversorgung jeweils im Zeitraum 12. bis 17. Januar 2013 bzw. 15. bis 18. Februar 2013. Diese „Lupen“ der im Diagramm 4 dargestellten akkumulierten Lastganglinie zeigen sehr deutlich, dass auch über relativ lange Zeiträume die Stromnachfrage mit über 70 000 MW Einspeiseleistung des gesamten Kraftwerksparks nur durch minimale Beiträge von wenigen Hundert MW Leistung aus Fotovoltaik und Windenergie gedeckt werden konnte.

Stromverbrauchsspitzen treten im Winter morgens um 9 Uhr und abends um 18 Uhr auf, zu Zeiten, zu denen die Fotovoltaik-Anlagen wegen des Sonnenstands nur minimal beitragen können (siehe gelbe Strompulse). Minimale Leistungsbeiträge gerade zu diesen Tageszeiten auf diesem niedrigen Niveau sind keine Seltenheit. So haben am 17.2.2013 alle Wind- und Fotovoltaik-Anlagen nur 141 MW Einspeiseleistung trotz der damals installierten Nennleistung von 62 000 MWzur Verfügung gestellt, was 2,24 Promille entspricht.

Diagramm 6: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen mit ca. 62 000 MW Nennleistung im Januar 2013 

Diagramm 7: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen mit ca. 62 000 MW Nennleistung im Februar 201

Energiespeicherung

Vor einem weiteren Zubau von Wind- und Fotovoltaik-Anlagen sind Speichermöglichkeiten zu schaffen. Ohne ausreichende Energiespeicherung ist angesichts der Volatilität der Einspeiseleistung der Windenergie- und Fotovoltaik-Anlagen ein Ersatz von konventionellen Anlagen nicht möglich. Pumpspeicherkraftwerke stellen die effektivste großtechnische Variante zur Speicherung von Energie, die zur Stromversorgung genutzt werden kann, dar.In Deutschland sind über 30 große und kleine Pumpspeicherkraftwerke verfügbar. Das neueste und leistungsfähigste mit 1 060 MW Nennleistung ist das Pumpspeicherkraftwerk Goldisthal mit zwölf Millionen Kubikmeter Wasser im Oberbecken und einer Gesamtlänge des Ringdamms des Oberbeckens von 3 370 Metern. Insgesamt sind in Deutschland zurzeit Kapazitäten von ca. 7 000 MW am Netz. Die Leerlaufzeiten dieser Pumpspeicherkraftwerke liegen größtenteils zwischen 5 bis 7 Stunden, abhängig von der Auslegung der Anlagen. Um die Leistung von 1 000 MW über einen Zeitraum von 24 Stunden durchgängig  bereitzustellen, müssen also ca. 4 Pumpspeicher a 1 000 MW vorhanden sein. Ohne einen parallel betriebenen konventionellen Kraftwerkspark muss aufgrund der fehlenden gesicherten minimalen Leistung der Windenergie- und Fotovoltaik-Anlagen (imBetrachtungszeitraum zeitweise weit unter 1 000 MW) nahezuder gesamte Stromverbrauch aus gespeicherter Energie über mehrere Tage sichergestellt werden. Im Beispiel (Diagramm 6) hätten daher 6 Tage mit der Last bis 70 000 MW durch Speicherung überbrückt werden müssen. Daraus würden 1 680 Pumpspeicherkraftwerke (70*4*6) mit je 1 000 MW Nennleistung bzw. 70 Speicherkraftwerke mit dem jeweils 24-fachen Wasservolumen (bis 300 Millionen m³) von Ober- und Untersee resultieren, was völlig illusorisch ist.

Für den im Schwarzwald geplanten Bau eines Pumpspeicherkraftwerks werden Milliardenbeträge an Baukosten geschätzt. Aus diesem Kostenansatz allein wird deutlich, dass die Speicherung von Energie für die an den Stromverbrauch angepasste Stromgewinnung als Backup für Regenerative Anlagen nicht machbar ist. Zudem ist das in Deutschland etablierte Umweltschutzverständnis eine weitere Hürde für den Bau dieser Anlagen. Trotzdem werden die Realisierungsmöglichkeiten und das technische Potential der Speicherung in allen öffentlichen Diskussionen völlig überschätzt und mit dem lapidaren Hinweis auf Forschungs- und Entwicklungsbedarf, der sicher vorhanden ist, abgehandelt. Die Kostenfrage wird völlig ignoriert.

Eine nennenswerte Zwischenspeicherung in Fahrzeugbatterien ist wegen des zu erwartenden schleppenden Ausbaues der Elektroautoflotte und der ebenfalls zu erwartenden Uneinsichtigkeit der Fahrzeughalter in die Notwendigkeit zur Entladung ihrer Batterien zur Netzstützung nicht realisierbar.

Ebenso illusorisch ist die Idee der Produktion von „Windgas“ (Herstellung von Methan über den Sabatier-Prozess) an Windenergieanlagen als Speichermethode für diese gewaltigen Energiemengen. Aus dem mehrstufigen Prozess über Wasserstoff zu Methan zur Bereitstellung für die Wiederverstromung in Gaskraftwerken resultieren große Wirkungsgradverluste, so dass mit unter 30 % des ursprünglichen Energieniveaus (28,5 %: Quelle Bundestag.de) für die erneute Stromgewinnung gerechnet werden muss. Zur Kompensation dieser Verluste würde selbstverständlich der Bedarf an weiteren Windenergie- und Fotovoltaik-Anlagen nochmals beträchtlich ansteigen. Daraus resultiert ein Kreislauf, der allein schon an der Kostenfrage scheitern würde.

Gedankenexperiment Vollversorgung mit Sonne und Wind

Vertreter der “100 % Regenerative-Option” gehen von der zukünftigen Installation von Windenergie-Anlagen im Onshore-Bereich von 200 000 MW Nennleistung, im Offshore-Bereich von 85 000 MW Nennleistung und für Fotovoltaik-Anlagen von 250 000 MW Nennleistung aus, also in der Summe von 535 000 MW Nennleistung.

Um die Auswirkungen einer Vervielfachung der Installation von Windenergie- und Fotovoltaik-Anlagen auf die Stabilität der Stromversorgung in Deutschland überprüfen zu können, bietet sich ein Gedankenexperiment an. Es wird angenommen, dass ein Bundesland durch den gesamten in Deutschland bisher installierten Kraftwerkspark aus „Sonne und Wind“ fiktiv versorgt wird. Ein gutes Beispiel für diese Überprüfung ist Baden-Württemberg, weil für dieses Versorgungsgebiet die Lastganglinien des Stromverbrauchs und der Einspeiseleistungen über die von EEX (European Energy Exchange) und Entsoe bereitgestellten Daten direkt verfügbar sind (Übertragungsnetzbetreiber Transnet BW). Zudem erreichte die bundesweite Stromproduktion aus Windenergie- und Fotovoltaik-Anlagen mit 73,7 Milliarden kWh in 2012 fast den Stromverbrauch von Baden-Württemberg von 80 Milliarden kWh.

Diagramm 8: Einspeiseleistung aller Windenergie- und Fotovoltaik-Anlagen in Deutschland relativ zur Stromverbrauchskurve für Baden-Württemberg (Band bis ca. 10 000 MW) im Winter 2012/13

  

Mit der Fokussierung der aktuell in Deutschland installierten gesamten Wind- und Fotovoltaik-Kapazitäten auf dieses Bundesland wäre die angestrebte Endausbaustufe also fiktiv bereits heute erreicht. Auch der abgeschlossene Bau von Stromtrassen wäre simuliert, da fiktiv quasi alle Anlagen ideal mit dem Bundesland vernetzt sind. Müsste Baden-Württemberg bei diesen idealen Randbedingungen nicht allein durch die regenerative Stromproduktion der in Deutschland bereits installierten Anlagen voll versorgt werden können?

Der Vergleich für Baden-Württemberg (Diagramm 8) zeigt deutlich die Diskrepanz zwischen dem Stromverbrauch mit ca. 9 000 MW mittlerer Einspeiseleistung und der Stromerzeugung der gesamtdeutschen Windenergie- und Fotovoltaik-Anlagen (grüne Fläche) im Zeitraum Dezember 2012 bis Februar 2013. Selbst bei extremem Ausbau der regenerativen Energien aus “Sonne und Wind” in Baden-Württemberg um den Faktor 12 von ca. 5 000 MW (in BW aktuell installiert) auf über 60 000 MW Nennleistung kann das Bundesland nicht versorgt werden. Die massive Unterdeckung (rote Flächen) über lange Zeiträume ist offensichtlich, obwohl die Windenergie- und Fotovoltaik-Anlagen mit 62 000 MW Nennleistung und einer Erzeugung von 73,7 Milliarden kWh einem Stromverbrauch in Baden-Württemberg von 80 Milliarden kWh mit einer mittleren Einspeiseleistung von ca. 9 000 MW in 2012 gegenüber steht. Auch in diesem Vergleich zeigt sich der gravierende, aber meist nicht beachtete Unterschied zwischen Leistung und Arbeit.

Aufgrund der bundesweiten typischen Einspeisecharakteristik gilt diese Aussage auch für alle anderen Bundesländer in unterschiedlicher Stufung. Selbst für Rheinland-Pfalz („mein Heimatland“) mit einem Stromverbrauch von „nur“ 30 Milliarden kWh und einer mittleren Einspeiseleistung von ca. 3 500 MW ist die Versorgung nicht machbar, wie eine gedachte Horizontallinie bei 3 500 MW im Diagramm 8 demonstriert. Zudem wäre der gesamte Kraftwerkspark eines fiktiv versorgten Bundeslandes generell nicht in der Lage, die auftretenden Stromspitzen auszugleichen.

Zusammenfassung:

In Deutschland werden fast ausschließlich die beeindruckenden Gesamtzahlen der Energieerzeugung in „Haushalten“ bzw. die jährlich neuen Rekordmarken für die installierte Nennleistung der bundesdeutschen Windenergie- und Fotovoltaik-Anlagen in Diskussionen eingeführt. Die energiewirtschaftlich maßgeblichen Lastganglinien dieser Anlagen, die die eingespeiste Leistung der Anlagen als Funktion der Zeit dokumentieren, also das Resultat des Betriebs des Kraftwerksparks aus „Sonne und Wind“ darstellen, werden fast völlig ignoriert. Deshalb herrschen in weiten Teilen der Bevölkerung schwerwiegende Fehleinschätzungen zum Potenzial dieser Erzeugungsanlagen vor.

Ebenso wie durch den Mangel an Einspeiseleistung bei sehr hohem Verbrauch – mehrfach Blackout-Gefahr im Winter wegen des extremen Stromverbrauchs von bis zu 82 000 MW Einspeiseleistung – kann die Stabilität der Stromversorgung durch unkoordinierte hohe Netzeinspeisungen gefährdet werden. Daher wurden bereits jetzt Abschaltmechanismen für die Windenergie- und Fotovoltaik-Anlagen eingeführt, die zukünftig verstärkt zur Vergütung auch von nicht erzeugtem Strom führen werden.

Die Regenerativen Energien aus „Sonne und Wind“ sind Additive. Der Kraftwerkspark aus Windenergie- und Fotovoltaik-Anlagen kann prinzipiell den konventionellen Kraftwerkspark nicht ersetzen, auch wenn dies oft unter dem Stichwort „Entcarbonisierung“ kolportiert wird. Diese eminent wichtige Feststellung zur „Energiewende“ wird permanent in allen öffentlich geführten Diskussionen u.a. mit Hinweisen auf die „Unzulänglichkeit der Bundesregierung“ oder auf noch „ausstehende Ergebnisse zur Speicherung“ und „fehlende Stromtrassen“ nebulös unterschlagen. Die ausstehenden Stromtrassen z.B. nützen zum Abtrag der Stromspitzen – also der Verteilung von lokalen Überschüssen z.B. von Nord- nach Süddeutschland. Bei Windflaute und zugeschneiten Fotovoltaik-Anlagen – also bei Mangelsituationen – bieten sie keine Hilfe.

Letztlich wird das begrenzte Regelband der konventionellen Anlagen den Endpunkt der volatilen Netzeinspeisung der Windenergie- und Fotovoltaik-Anlagen aus physikalisch-technischen Gründen bestimmen. Der Ausweg Energiespeicherung zur Glättung der Lastganglinien der Windenergie- und Fotovoltaik-Anlagen in der notwendigen Größenordnung bis 70 000 MW über mehrere Tage, der konventionelle Kraftwerke verzichtbar machen könnte, ist auch nicht ansatzweise in Sicht. Zudem werden dieKosten, die ja gleichzeitig auch Verbrauch von Ressourcen sind, über die Dauer und Intensität des Fortgangs der Energiewende in jetziger Ausgestaltung entscheiden. Durch die EEG-Festlegung der vorrangigen Netzeinspeisung wird ein doppelter Kraftwerkspark faktisch erzwungen.


Ich danke herzlich Herrn Rolf Schuster für die intensive Zusammenarbeit und die Beistellung der Diagramme, die auf Basis der Daten der Übertragungsnetzbetreiber erstellt wurden, zu deren Veröffentlichung sie gesetzlich verpflichtet sind.

Zu meiner Person: Ich interessiere mich seit mehr als 20 Jahren für die Effektivität von Erzeugungsanlagen für regenerative Energien. Mir geht es um effektive Stromerzeugungund den Erhalt unserer Kulturlandschaft.

Dipl. Phys. Karl Linnenfelser
67435 Neustadt
Wendelinusstraße 40

Quellen:

·       Daten der Übertragungsnetzbetreiber

·       BDEW

·       Fraunhofer Institut

Der Beitrag erschien zuerst bei Vernunftkraft.de hier

Die Auswirkungen des hier skizzierten Unterfanges auf die Strompreise hat Herr Linnenfelser in diesem Artikel untersucht.

Den Artikel “Erfolgskontrolle” finden Sie im Anhang als pdf

Related Files




Neue PIK Ente: Mehr Wetterextreme durch Aufschaukeln riesiger Wellen in der Atmosphäre

Mehr Wetterextreme durch Aufschaukeln riesiger Wellen in der Atmosphäre

Dies ist die Überschrift einer Pressemeldung, die das Potsdam-Institut für Klimafolgenforschung am 12. August 2014 in die Medienwelt ausstreute. Die Medien werden sich auf diese Sensation stürzen, ohne zu merken, dass der Aussagewert der Studie, an welcher der „Chef“ Hans Joachim Schellnhuber und Stefan Rahmtorf mitgearbeitet haben, praktisch gleich Null ist.

Jeder Mensch weiß, dass es seit Urzeiten die Jahreszeiten mit Frühling, Sommer, Hebst und Winter gibt, die vom Sonnenstand vorgegeben werden. Jeder Mensch weiß auch, dass alle Tief- und Hochdruckgebiete wandernde und vergängliche Gebilde sind, die von Höhenströmungen gesteuert werden. Dass die Höhenströmung nicht breitenkreisparallel, sondern wellenförmig ist, wissen wir auch. Bekannt ist auch, dass sich gelegentlich Wellen so aufschaukeln, dass sie zeitweise stationär erscheinen. Man spricht dann von Omega-Lagen, wobei ein Hoch von zwei Tiefdruckgebieten flankiert wird. Das alles ist nichts Neues. Doch wann und warum dies passiert, ist ein ungelöstes Rätsel der Natur.

Ist dieses Wellen-Rätsel nun durch die großen Experten Rahmstorf und Schellnhuber gelöst? Ist die auslösende Ursache gefunden worden? Ich zitiere: „Die Wissenschaftler haben große Sätze globaler Wetterdaten untersucht und dabei einen faszinierenden Zusammenhang entdeckt… Ein großer Teil der globalen Luftbewegung in den mittleren Breiten nimmt gewöhnlich die Form von Wellen an, die um den Globus wandern… Die Studie zeigt jedoch, dass einige dieser Wellen bei extremem Wetter nahezu feststeckten und sich stark aufgeschaukelt haben… Dahinter steckt ein subtiler Resonanzmechanismus, der Wellen in den mittleren Breiten festhält und sie deutlich verstärkt.“

Haben Sie genau gelesen? Das Ganze ist eine Nullaussage! Man hat etwas längst Bekanntes entdeckt und vermutet nun einen „subtilen Resonanzmechanismus“, der in den mittleren Breiten, der „Westwindzone“, die Wellen festhält und deutlich verstärkt. Wie viel Geheimnisvoller wäre die Aussage gewesen, wenn statt deutlich signifikant gesagt worden wäre. Im Text wird auch gesagt, dass „Wellen bei extremem Wetter nahezu feststeckten“, während nach der Überschrift erst durch das Aufschaukeln „Wetterextreme“ ausgelöst werden sollen. Aber dann zaubert man doch noch einen Schuldigen ans Tageslicht: „Seit dem Jahr 2000 hat sich die Arktis etwa doppelt so schnell erwärmt wie der Rest des Planeten.“ Ist das plausibel? Nein, denn dann müsste sich die Zirkulation abschwächen, da zwischen Pol und Äquator der Temperaturgradient geringer würde.

Ein Beweis für diese Hypothese wird nicht geliefert! Was kann ein synoptischer Meteorologe, der das Wetter mitsamt der Höhenströmung vorhersagen soll, mit solchen substanzlosen Aussagen prognostisch anfangen? Nichts! Auch an diesem Beispiel kann man eine Lebenserfahrung heranziehen, die von Albertus Magnus (1200-1289) stammt: „Die wenigsten Menschen denken wirklich; sie leben hauptsächlich aus ihren Vorstellungen und meinen, das wären Gedanken!“ 

Auszug aus "Sommer, Sonne, Wärmegewitter – gutes Konjunkturklima für „Klima-Alarm“! der Oppenheimer Werkstatt für Wetterkunde – Dr. Wolfgang Thüne





Hybridantrieb BMW i8 versus Benzin/Diesel Antriebe – Ein Vergleich

Der Antriebsstrang (Bild rechts) für die Kraftfahrzeug-Mobilität ist sowohl als reiner Elektroantrieb z.B. beim VW VW e-Golf, dem Tesla Modell S oder dem BMW i3 als auch auf Hybridbasis, wie hier beim BMW i8 in perfekter Weise realisiert. Das einzige Hemmnis für eine erfolgreiche Markteinführung – über durchaus sinnvolle Nischenanwendungen hinaus – ist die Nichtverfügbarkeit einer unter wettbewerbsgesichtspunkten bezahlbaren Batterie für relativ hohe elektrische Energiemengen von einigen hundert kWh mit uneingeschränkter Entnahme- und Aufladeverfügbarkeit sowie der Lebensdauer vergleichbar mit der eines Autos bis zur Verschrottung. 

In Demut vor den physikalischen Gesetzmäßigkeiten ist es offenbar sehr schwer zu bekennen, dass die Ursache des Problems einfach verdrängt wird: Tatsache ist nämlich, dass wir nach dem derzeitigen Stand der Wissenschaft kein physikalisches Prinzip zur Stromspeicherung größerer Energiemengen zu bezahlbaren Kosten, jenseits zu der untauglichen elektrischen oder magnetischen Feldenergie sowie der chemischen Energie, die allesamt im eV-Niveau (nicht MeV) agieren, kennen.

Vergleichbar mit dem Energieinhalt eines 70 l Tanks mit rd. 800 kWh Energieinhalt, der fast nichts kostet, in  2 Minuten geladen ist und länger hält als das Fahrzeug, zu einer Lithium-Ionenbatterie mit 20 kWh Speichervermögen, die 13.000 € kostet, 6 h zur Aufladung benötigt und nach 7 Jahren ersetzt werden muss.  

Hinweis: Falls man dieser öfters "Schnellladung zumutet, ist die Batterie auch bereits nach 5 Jahren zu ersetzen. Daher stehen wir bestenfalls am Anfang der Grundlagenforschung mit dem Ende „offen“.  

Related Files




Der größte aller Klima-Mythen – Teil 3: Die Chimäre der globalen Mitteltemperatur

Sie stellen fälschlich die Kausalkette auf, dass graphische Darstellungen Beweise dafür sind, dass CO2 Wärme einfängt. In Wahrheit ist das globale Mittel eine Chimäre vieler Dynamiken – Dynamiken, die die Temperaturen steigen lassen können, ohne jemals dem Planeten irgendwelche zusätzliche Wärme zuzuführen. Wenn diese Dynamiken nicht sorgfältig ausgeklammert werden, sagt uns das globale Mittel herzlich wenig über die gegenwärtige Sensitivität der Erde bzgl. des steigenden CO2-Gehaltes und umnebelt unser Verständnis der komplexen Vorgänge um die Klimaänderung.

Die düstere Konsequenz einer vereinfachenden, auf einem „chimärischen Mittel“ beruhenden Schlussfolgerung wird durch ein gar nicht so altes Gleichnis illustriert über einen älteren Mann mit Arthritis, der unerträglich leidet unter sowohl kalten Füßen als auch Hitzewallungen im Gesicht. In einem Versuch, sich zu heilen, humpelte er in die Küche und packte seinen Kopf in den Gefrierschrank und seine Füße in den Backofen. Seine Erleichterung war vorübergehend, und sein Unwohlsein nahm zu, nachdem er in dieser Lage stecken geblieben war. Schreiend vor Schmerz bemühte er seine bettlägerige Ehefrau, die seine Notlage nicht bemerkt hatte, um Hilfe zu rufen. Ängstlich rief die Frau bei 3 Ärzten an. Nach Messung der Temperatur von des Mannes Füßen berichtete der erste Arzt, dass die Überhitzung durch den Ofen Ursache seiner Schmerzen war. Genauso sagte der zweite Arzt nach der Messung der Temperatur des Kopfes des Mannes, dass die Ursache seines Unwohlseins vom Gefrierschrank stammte. Der dritte Arzt (ein ehemaliger Klimawissenschaftler) machte keine Hausbesuche, sondern verglich einfach die Temperaturmessungen der anderen beiden Ärzte. Nach der Mittelbildung zeigte sich die Körpertemperatur des Mannes im Normalbereich. Auf der Grundlage dieses Mittelwertes diagnostizierte er die Schmerzen des Mannes als psychologisch bedingt und überwies ihn an Dr. Lewandowsky.

Genau wie in diesem Gleichnis verschleiert eine „globale mittlere“ Temperatur kritische Vorgänge, die man am besten versteht durch die Untersuchung lokaler Ursachen einer „regionalen Klimaänderung“. Hier folgen sechs Faktoren, die unbedingt aus der Chimäre des globalen Mittels entfernt werden müssen, bevor wir evaluieren können, wie viel Wärme sich angesammelt hat und wie viel dieser angesammelten Wärme dem steigenden CO2-Gehalt zugeordnet werden kann.

1. Höhere Temperaturen der Arktis hauptsächlich durch entweichende Wärme!

Die Karte der NASA unten illustriert, wie sich verschiedene Gebiete von 2000 bis 2009 erwärmt und abgekühlt haben im Vergleich zur Periode 1951 bis 1980. Im Mittel war die jüngste Dekade um 0,6°C wärmer ausgefallen, aber dieser Unterschied ist im Verhältnis verzerrt, weil es in der Arktis etwa 2°C wärmer war. Diese ungewöhnliche extreme Erwärmung nennt man die Arktische Verstärkung [Arctic Amplification]. Auf CO2 basierende Modelle zeigen, dass dies die Folge verstärkter Wärmeabsorption ist, weil das verschwundene Meereis den dunkleren Ozean freigibt, der mehr Wärme absorbieren kann. Aber dieser Erklärung widerspricht eine jüngere Evaluierung des Wärmegehaltes des Arktischen Ozeans (Wunsch und Heimbach 2014, siehe hier). Dabei zeigte sich, dass sich die oberen 700 Meter des Arktischen Ozeans abgekühlt haben. Diese Abkühlung zeigt auf, dass die ungewöhnlich warmen Lufttemperaturen in der Arktis vielmehr durch verstärkte Ventilation von Wärme zustande gekommen sind – Wärme, die vor Jahrzehnten gespeichert worden ist.

Eine sich verschiebende Arktische Oszillation veränderte die Richtung eisiger Winde im Winter aus Sibirien. Dabei wurde ungewöhnlich viel Meereis von der Küste weggetrieben, so dass viel offenes Wasser zurückblieb. Die gleichen Winde haben zuvor feststeckendes vieljähriges Eis in den wärmeren Atlantik getrieben (1). Vor der Änderung dieser Winde zeigten Messungen der Lufttemperatur in den achtziger und neunziger Jahren einen leichten Abkühlungstrend, der im Widerspruch stand zur Theorie von der globalen Erwärmung (2).

Verglichen mit altem Meereis, das bis zu 3 Meter dick ist, ventiliert offenes Wasser bis zu 70 mal mehr Wärme. Im Winter gefriert dieses offene Wasser wieder und setzt zusätzliche latente Wärme frei. Nach einer Woche ist das neue Eis 40 cm dick, ventiliert aber immer noch 8 mal mehr Wärme. Neues Eis wird sich innerhalb eines Monats auf eine Dicke von 1 Meter verstärken, aber selbst dann wird noch 3 mal mehr Wärme ventiliert als bei dickem vieljährigen Eis. Die Forscher schlossen daraus: „Man kann davon ausgehen, dass die beobachtete Erwärmung zumindest teilweise auf die freigesetzte Wärme während der verstärkten Neubildung von Eis zurückzuführen ist sowie auf den verstärkten Wärmefluss in die Atmosphäre durch das größere Gebiet mit dünnem Eis“ (1)

2. Ozeanische Oszillationen setzen alte Wärme um

Um zu verdeutlichen, wie ozeanische Oszillationen das globale Mittel steigen lassen, indem wärmeres Wasser umgewälzt wird, kann man folgendes Experiment zu Hause mit einem Infrarot-Sensor machen. Man erhitze einen großen Topf mit Wasser auf dem Herd. Der Topf steht analog für die ozeanischen Wärmereservoire. Als Randwert messe man die Temperatur an zehn Stellen auf dem Küchenfußboden plus die Oberflächentemperatur des Wassertopfes. Dann stelle man die Wärmezufuhr ab, so dass sich der Topf nicht weiter erwärmt und berechne die mittlere Oberflächentemperatur in der Küche. Analog zu einem El Nino-Ereignis gieße man die Hälfte des Wassers auf dem Fußboden aus und berechne erneut das Mittel. Die Wassertemperatur in dem Topf wird sich nicht wesentlich abgekühlt haben, aber die Temperatur des Küchenfußbodens wird stark gestiegen sein. Ohne jede Wärmezufuhr ist die mittlere Temperatur gestiegen, einfach durch die Verbreitung vorhandener Wärme.

Anders als bei unserem Küchenexperiment werden sich die Ozeane viel langsamer abkühlen als der nassgemachte Boden. Wenn die Sonne unsere tropischen Ozeane erwärmt, verursacht die Verdunstung, dass erwärmtes Wasser salzhaltiger und dichter wird. Dieses dichtere, erwärmte Wasser sinkt unter weniger salzhaltiges Wasser an der Oberfläche, dass Jahrzehnte lang als Isolator wirken kann. Zum Beispiel braucht warmes Atlantikwasser 15 Jahre, um durch die Tiefen der Arktis zu zirkulieren. Das Eindringen wärmeren Wassers erhält eine dicke Schicht wärmeren Wassers unterhalb der Oberfläche mit einer Dicke von vielen hundert Metern.

Die oberen 3 Meter der Ozeane der Welt enthalten mehr Wärme als die gesamte Atmosphäre. Darum wird eine anhaltende Umwälzung von nur 10 Metern wärmeren Wassers unter der Oberfläche das globale Mittel Jahrzehnte lang beeinflussen. Wärmeres Wasser wird allmählich während des Winters umgewälzt und riesige Mengen gespeicherter Wärme in einer Tiefe von 100 m während eines El Nino. Während der Warmphase der Pazifischen Dekadischen Oszillation (PDO) von 1976 bis 1999 hat die Häufigkeit von Wasser umwälzenden El Ninos zugenommen, genauso wie das globale Mittel. Es liegt nahe anzunehmen, dass ein Teil dieser Wärme ursprünglich während der Wärme absorbierenden Phase der PDO gespeichert worden ist, die in den vierziger Jahren begonnen hatte und während der die Sonneneinstrahlung größer war als zu irgendeiner Zeit während der letzten paar hundert Jahre. Weil die Sonneneinstrahlung abgenommen hat und (dem IPCC zufolge) das zusätzliche CO2 wenig Einfluss auf die Erwärmung tropischer Gewässer hat, sollte die Wärme unter der Oberfläche abnehmen, und künftige Umwälzungen werden nicht zu einem Wiedereinsetzen des Erwärmungstrends führen.

3. Sich ändernde Winde verursachen adiabatische Temperaturanstiege (ohne zusätzliche Wärme)

Wie man der NASA-Karte regionaler Erwärmung entnehmen kann, ist die Antarktische Halbinsel ein weiterer ungewöhnlicher „Hot Spot“, aber relativ zu anderen Klimadynamiken ist der Beitrag durch CO2 erneut nicht wirklich offensichtlich. Stärkere Winde, geschuldet der positiven Phase der Antarktischen Oszillation (AAO) haben die regionale Temperatur auf zwei Wegen steigen lassen ohne zusätzlich zugeführte Wärme.

Erstens, stärkere Nordwinde haben die Meereis-Ausdehnung reduziert, indem sie die Ausdehnung von Meereis entlang der westlichen Antarktischen Halbinsel und der Amundsen-See behindert haben (3, 4). Wie in der Arktis lässt mehr offenes Wasser größere Mengen gespeicherter Wärme entweichen, was die Temperaturen im Winter dramatisch steigen lässt. Im Sommer, wenn Meereis normalerweise fehlt, gibt es keinen korrespondierenden starken Erwärmungstrend.

Auf der östlichen Seite der Antarktischen Halbinsel sind die Verhältnisse entgegengesetzt. Dort war das Meereis nicht vermindert und die Oberflächentemperaturen um 5 bis 10 Grad kälter, und der steile Winter-Erwärmungstrend trat nicht auf. Allerdings gab es dort im Sommer einen signifikanten Erwärmungstrend. Zuvor, während der negativen Phase der AAO werden schwächere Winde normalerweise abgelenkt und um die bergige Halbinsel herumgeführt. Allerdings erzeugte die positive AAO ein Windregime, dass sich über die Berge hinweg bewegte, was zu ungewöhnlichen Föhnstürmen auf der Ostseite der Halbinsel führte (5). Wenn die Winde absinken, steigen die Temperaturen adiabatisch um 10 bis 20 Grad infolge Änderungen des Luftdrucks und ohne jede Zufuhr von Wärme, wie Abbildung 2 verdeutlicht. Anderswo hat die Nordatlantische Oszillation die Temperatur adiabatisch in den europäischen Alpen zunehmen lassen (6).

4. Verschwundene Vegetation und verlorene Wärmekapazität lassen die Temperatur zunehmen

Klimawissenschaftler haben eingeräumt, dass „Einflüsse auf das Klima der Emission von Treibhausgasen und Veränderungen des Landverbrauchs geschuldet sind, wie etwa Verstädterung und Landwirtschaft. Aber es war schwierig, diese beiden Einflüsse zu separieren, weil beide dazu tendieren, die tägliche Mitteltemperatur steigen zu lassen“. Sie fanden heraus, dass etwa ein Drittel der Erwärmung des 20. Jahrhunderts (0,27°C) Verstädterung und anderen Änderungen des Landverbrauchs zugeordnet werden kann (7).

Ohne jede zusätzliche Wärmezufuhr steigen die Temperaturen, wenn Vegetation verloren geht und/oder der Boden stärker austrocknet. Wo immer ein Wald in Grasland verwandelt wird oder Grasland in Wüste, steigt die Temperatur unmittelbar am Erdboden um 5 bis 20°C (8). Auch um den Durst wachsender Bevölkerung zu stillen hat die Entnahme von Grundwasser den Grundwasserspiegel sinken lassen (9). Sinkt der Grundwasserspiegel unter das Niveau der Wurzelspitzen, sterben die Pflanzen. Reduzierte Vegetation eliminiert den kühlenden Transpirationseffekt und verhindert den Kreislauf von Regenwasser, das nun tiefer in den Erdboden versickert.

Fehlende Vegetation erzeugt wärmere Oberflächen, die nicht nur die Luft tagsüber viel stärker erwärmen, sondern auch viel mehr Infrarotstrahlung in der Nacht emittieren. Selbst wenn die Konzentrationen von CO2 oder Wasserdampf unverändert bleiben, würde die Infrarotstrahlung von wärmeren Oberflächen zum Treibhauseffekt beitragen.

Folglich ist ein regionaler Temperaturanstieg viel eher ein starkes Anzeichen, dass wir die lokale Umgebung verändert haben und kein Anzeichen unseres Kohlenstoff-Fußabdrucks. Zum Beispiel haben Temperaturstudien in Arizona und Mexiko gezeigt, dass verschwundene Vegetation durch Überweidung und andere sorglose Praktiken dazu geführt haben, dass der Boden austrocknet. Dieser Austrocknungsprozess lässt die Temperatur um bis zu 3 oder 4°C zunehmen im Vergleich zu Landschaften, die nicht so misshandelt worden sind (10). Anderswo dokumentierten Forscher, dass Landschaftsveränderungen Extremwetterereignisse zunehmen lassen können. Die exzessive Entfernung von Büffelgras ist das klassische Beispiel für die American Dust Bowl [die amerikanische Staubschüssel], und in Australien konnte gezeigt werden, dass Entwaldung Dürren verlängern und intensivieren kann (11).

5. Steigende Minimum-Temperaturen sind hoch sensitiv gegenüber Landschaftsveränderungen.

Weil die Höchsttemperatur um die Mittagszeit gemessen wird, wenn starke Konvektion die Luftsäule durchmischt, sind [tägliche] Höchstwerte der Temperatur ein besseres Maß auf irgendwelche Wärmeansammlungen in der Atmosphäre. Allerdings ist das globale Mittel unverhältnismäßig verzerrt worden durch Tiefsttemperaturen, die sich ganz anders verhalten. Während der achtziger und neunziger Jahre sind die Tiefsttemperaturen zwei bis drei mal schneller gestiegen als die mittleren Maximum-Temperaturen (12). Wissenschaftler berichteten von einer einzigen Ursache. Wetterstationen in der Nähe von Städten und Flughäfen, wo die Asphaltierung die Wärme über Nacht festhält und überschüssige Wärme reichlich vorhanden ist, registrieren konstant höhere Minimum-Temperaturen als in ländlichen Gegenden in der Nachbarschaft (13).

[Mein Freund Hans-Dieter Schmidt weist darauf hin, dass es in den achtziger Jahren entsprechende Messkampagnen in Berlin gegeben hat. Die größte gleichzeitige Temperaturdifferenz zwischen Innenstadt und Stadtrand war am Abend eines windstillen heißen Sommertages aufgetreten mit einer Differenz von 12 K! {22-Uhr-Temperatur am Breitscheidtplatz 27°C, am Tegeler Fließ 15°C}. Aber auch die Tiefstwerte in windstillen klaren Nächten differierten mitunter um 5 bis 8 K {Quelle: Berliner Wetterkarte}. Anm. d. Übers.]

Dr. Thomas Karl, jetzt Direktor des National Climatic Data Center der NASA, verglich Temperaturen in ländlichen Orten mit weniger als 2000 Einwohnern mit dichter bevölkerten Städten. Seinen Angaben zufolge lag die Temperatur bei einer Bevölkerung ab 50.000 um 0,43°F höher. Obwohl die Änderung der Höchsttemperatur trivial war, lag die Minimum-Temperatur um 0,86°F höher – der einzige Grund für die steigenden Mittelwerte. Da die Bevölkerung allgemein zunahm, galt das auch für die nächtlichen Minima. Eine Großstadt mit 2 Millionen Einwohnern sorgte für eine Erwärmung der nächtlichen Minima um 4,5°F, was die Mittelwerte um 2,25°F steigen ließ (14)*.

[*Die Differenzbeträge aus Grad Fahrenheit in Celsius umzurechnen, gelang mir nicht. Vielleicht hilft es dem Leser, wenn man weiß, dass 1°C etwa 1,8°F ist. Anm. d. Übers.]

Inversionsschichten halten die menschliche Abfall-Wärme fest. Warme Luft steigt nur nach oben, wenn sie wärmer ist als die Umgebungsluft. Normalerweise bilden sich in jeder Nacht und häufig im Winter dünne Inversionsschichten, da sich Luft in Erdbodennähe schneller abkühlt als Luft in den darüber liegenden Luftschichten. Man erkennt die Höhe der Schicht, oberhalb der wärmere Luft über der dünnen kühleren Luftschicht liegt, im Bild oben rechts daran, dass sich der Rauch an dieser Schicht horizontal ausbreitet. Gefangen in dieser dünnen Luftschicht lässt die menschliche Abfall-Wärme die Tiefsttemperatur leichter höher ausfallen. Außerdem kann die Ansammlung von Abfall-Wärme und die Effekte Wärme haltender Oberflächen die Inversionsschicht durchbrechen, was wärmere Luft von Oben in die untere Luftschicht gelangen lässt. Wenn Landwirte Frostschäden befürchten, setzen sie gewaltige Ventilatoren ein, die die Inversionsschicht stören und die Oberfläche erwärmen.

Abseits von Gebieten mit wachsender Bevölkerungsdichte werden Temperaturen mittels Baumringen gemessen. Seit den fünfziger Jahren sind die Baumring-Temperaturen immer stärker von den instrumentellen Werten abgewichen, verdorben durch diese Effekte der Bevölkerung oder des geänderten Landverbrauchs. Obwohl Websites wie SkepticalScience behaupten, dass „natürliche Temperaturmessungen auch die generelle Genauigkeit instrumenteller Thermometer-Aufzeichnungen bestätigen“, widersprechen die Baumringe unbestreitbar deren Behauptungen. Ein internationales Team von Baumring-Experten stellte fest: „keine gegenwärtige, auf Baumringdaten basierende Rekonstruktion der Temperaturen auf der Nordhemisphäre, die sich bis in die neunziger Jahre erstreckt, kann die volle Breite der in den Instrumenten-Aufzeichnungen beobachteten Erwärmung zum Ende des 20. Jahrhunderts abbilden“ (15). Mittels eines Infrarot-Thermometers habe ich festgestellt, dass die Temperaturen in der Morgendämmerung in bewachsenen Gebieten um 10 bis 20°F niedriger liegen als über Oberflächen lediglich 20 Fuß [ca. 6 Meter] entfernt, die gekennzeichnet sind durch befestigte Landstraßen. So bestätigen die Instrumente, dass die kühleren Baumring-Temperaturen viel genauer sind bei der genauen Messung einer natürlichen Klimaänderung.

6. Modelle lassen das beobachtete globale Mittel willkürlich steigen

In einem Prozess mit der Bezeichnung Homogenisierung von Daten adjustieren Klimawissenschaftler die gemessenen Rohdaten der Temperatur, um eine steiler ansteigende Mitteltemperatur zu erzeugen, und zwar überall dort, wo ihr Modell zeigt, dass sich das Wetter „außerhalb statistischer Erwartungen“ bewegt. In gewisser Weise leugnen die Klimawissenschaftler reale Messungen. Wie hier und hier diskutiert, konvertieren Homogenisierungs-Modelle fälschlich natürliche Änderungen in steile Erwärmungstrends. Viele Klimawissenschaftler, die den Adjustierungsprozess analysiert haben, warnten, dass „die Ergebnisse einige Zweifel aufkommen lassen hinsichtlich der Anwendung von Homogenisierungs-Verfahren“. Als Beispiel nennen sie den Umstand, dass der beobachtete Trend des 20. Jahrhunderts von 0,4°C auf 0,7°C angehoben wurde.

Wie man unten erkennt, wenn man qualitätskontrollierte Daten aus den USA verwendet, die nicht homogenisiert worden sind, zeigt sich in der Tat ab dem Jahr 1900 eine Erwärmung. Allerdings korreliert der Temperaturtrend viel besser mit den Wärme umwälzenden Zyklen der PDO und der AMO. Aber durch diese Zyklen induzierte natürliche Klimaänderungen wurden als Fehler aussortiert. Eine Analyse weltweiter Daten-Homogenisierung musste einräumen, dass man ein Verfahren brauchte, um wirkliche Fehler zu korrigieren. Aber man kam zu dem Ergebnis, dass „Homogenisierungs-Praktiken, die bis heute Verwendung finden, hauptsächlich statistischer Natur sind. Sie sind nicht gut gerechtfertigt durch Experimente und werden kaum durch Metadaten gestützt. Man kann sagen, dass sie oftmals zu falschen Ergebnissen führen: Natürliche Ereignisse in hydroklimatischen Zeitreihen werden als Fehler betrachtet und adjustiert“ (16).

Homogenisierungs-Modelle scheinen dem gleichen systematischen Bias zu unterliegen, der zu dem grandiosen Scheitern der globalen Klimamodelle führte, die gut belegte Erwärmung der Arktis in den dreißiger und vierziger Jahren zu reproduzieren. Das war bereits hier und hier ein Thema. In ähnlicher Weise haben die Modelle die Erwärmung auf dem Festland der USA in den dreißiger und vierziger Jahren hinweg homogenisiert und künstlich kühle Perioden während dieser Zeit fabriziert wie hier diskutiert und unten illustriert:

Solange die Chimäre Globales Mittel akkurat für Auswirkungen von Änderungen der Landschaft, natürlichen Zyklen und statistischen Homogenisierungs-Verfahren herhalten muss, wird die globale mittlere Temperatur niemals ein zuverlässiger Indikator der irdischen Sensitivität bzgl. CO2 sein. Wie es aussieht, ist die einzige Aussage, die diese globale Mittel-Chimäre stützen kann, Folgende: „Falls man die Daten lange genug bearbeitet, werden sie alles bestätigen, was man will“.

Literature Cited

1.Rigor, I.G., J.M. Wallace, and R.L. Colony (2002), Response of Sea Ice to the Arctic Oscillation, J. Climate, v. 15, no. 18, pp. 2648 – 2668.

2.Kahl, J., et al., (1993) Absence of evidence for greenhouse warming over the Arctic Ocean in the past 40 years. Nature, vol. 361, p. 335 337, doi:10.1038/361335a0

3. Stammerjohn, S., et a., (2008) Trends in Antarctic annual sea ice retreat and advance and their relation to El Niño southern oscillation and southern annular mode variability. Journal of Geophysical Research. Vol. 113, C03S90.doi:10.1029/2007JC004269.

4.Stammerjohn, S., et a., (2008) Sea ice in the western Antarctic Peninsula region: spatiotemporal variability from ecological and climate change perspectives. Deep Sea Research II 55. doi:10.1016/j.dsr2.2008.04.026.

5.Orr, A., et al., (2008), Characteristics of summer airflow over the Antarctic Peninsula in response to recent strengthening of westerly circumpolar winds, J. Atmos. Sci., 65, 1396–1413.

6. Prommel, K., et al (2007)Analysis of the (N)AO influence on alpine temperatures using a dense station dataset and a high-resolution simuluation Geophysical Research Abstracts, Vol. 9

7. Kalnay,E. and Cai M., (2003) Impact of urbanization and land-use change on climate. Nature, Vol 423

8.Mildrexler,D.J. et al., (2011) Satellite Finds Highest Land Skin Temperatures on Earth. Bulletin of the American Meteorological Society.

9. Foster. S. and Chilton, P. (2003) Groundwater: the processes and global significance of aquifer degradation. Phil. Trans. R. Soc. Lond. B, vol. 358, 1957-1972.

10. Balling, R. C., Jr (1998) Impacts of land degradation on historical temperature records from the Sonoran Desert. Climatic Change, 40, 669–681.

11. Deo, R. (2012) A review and modeling results of the simulated response of deforestation on climate extremes in eastern Australia. Atmospheric Research, vol. 108, p. 19–38.

12. Karl, T.R. et al., (1993) Asymmetric Trends of Daily Maximum and Minimum Temperature. Bulletin of the American Meteorological Society, vol. 74

13. Gallo, K., et al. (1996) The Influence of Land Use/Land Cover on Climatological Values of the Diurnal Temperature Range. Journal of Climate, vol. 9, p. 2941-2944.

14. Karl, T., et al., (1988), Urbanization: Its Detection and Effect in the United States Climate Record. Journal of Climate, vol. 1, 1099-1123.

15. Wilson R., et al., (2007) Matter of divergence: tracking recent warming at hemispheric scales using tree-ring data. Journal of Geophysical Research–A, 112, D17103, doi: 10.1029/2006JD008318.

16.Steirou, E., and Koutsoyiannis, D. (2012) Investigation of methods for hydroclimatic data homogenization. Geophysical Research Abstracts, vol. 14, EGU2012-956-1. And presentation https://www.itia.ntua.gr/getfile/1212/1/documents/2012EGU_homogenization_1.pdf

Author Jim Steele is Director emeritus Sierra Nevada Field Campus, San Francisco State University and author of Landscapes & Cycles: An Environmentalist’s Journey to Climate Skepticism

Link: http://wattsupwiththat.com/2014/08/04/the-greatest-climate-myths-of-all-part-3-the-global-average-chimera/

Übersetzt von Chris Frey EIKE




Trotz Schaden bleibt man dumm? Münchner Stadtwerke beteiligen sich mit 49 % am geplanten Offshore Windpark „Sandbank“.

Die großzügigst aus Verbrauchergeldern zwanghaft subventionierte Energiewende treibt immer dollere Blüten. Heute geht die Meldung durch die Medien, dass der schwedische Energieriese Vattenfall und die in der bayerischen Provinz beheimateten, von SPD und Grünen dominierten Münchner Stadtwerke, einen Riesen-Offshore- Windpark 90 km westlich von Sylt bauen lassen wollen. Jetzt seien die Rahmenbedingungen der neuen EEG Novelle klar, nun könne man beginnen, sagen die unisono die Offiziellen der Münchner Stadtwerke und Vattenfall.

Die geplante Investitionssumme beträgt 1,2 Mrd €. Mit 49 % (1) sind die Münchner auch hier dabei. Ihr Anteil beträgt also ca. 588 Mio €. Oder knapp 10 x mehr, als sie bei Andasol 3 voriges Jahr in den Sand gesetzt hatten. Bei einem Umsatz 2013 von nur 1,65 Mrd € im Strombereich, ist das keine Kleinigkeit. Doch der Glaube versetzt -jedenfalls für den der glaubt und nicht weiß- Berge. Denn in den Passagen über ihren eigentlichen Geschäftszweck, nämlich die Energieerzeugung, liest man 

Erneuerbare Energien

Den Erneuerbaren Energien gehört die Zukunft. Wind-, Wasser- und Sonnenenergie stehen nahezu unendlich zur Verfügung. Durch sie entsteht umweltfreundlicher Ökostrom. 

Denn man macht sich -zuvorderst ganz obrigkeitshöriger kommunaler Stadtwerker- Sorgen über den Klimawandel. Man liest dort das Bekenntnis:

Gleichzeitig stellt der Klimawandel Energieversorger vor beträchtliche Herausforderungen, insbesondere vor dem Hintergrund des weltweit steigenden Energieverbrauchs.


Aber aus Schaden sollte man klug werden, heißt es in einem alten Sprichwort. Bei den Münchnern – aber nicht nur bei denen- ist offenbar das Gegenteil der  Fall. Trotz Schaden bleibt man dumm.

Denn worauf sich die Münchner einlassen – sie sind alles andere als erfahrene Schiffbauer oder Seeleute – ist mit höchsten Risiken behaftet. Dabei ist die volatile, nur von Gott und Wetter  beeinflusste Stromerzeugung (s. Abb. 1), noch das kleinere Risiko.

Abb. 1 Vollaststundenäquivalent der deutschen Windkraftanlagen. Mit Vollaststundenäquivalent wird die Zeit in % der Jahresstunden bezeichnet in denen die WKA im Mittel ihre volle Nennleistung abgibt. Wie an der schwarzen Kurve für Offshore WKA zu sehen ist, stieg das Vollaststundenäquivalent von 7,2 % im Jahre 2009 auf 31,9 % 2011 steil an und fiel dann ebenso steil auf jetzt nur 12,3 % wieder ab. Eine abgeschaltete Windkraftanlage trägt eben mit Null zur Versorgung bei. Grafik Rolf Schuster

Mindestens ebenso groß, wenn nicht größer sind die Risiken, die durch dauernd wechselnde Windlasten, sowie durch die ständige Korrosion des salzigen Meerwassers und der Luft an den mechanischen wie elektrischen Anlagenteilen dafür sorgen, dass die geplanten Betriebsstunden  das Papier nicht wert sein werden, auf das es die Bergseemänner geschrieben haben. Die rd. 1000 km lange Netzanbindung von Sylt nach München noch nicht einbezogen.

Die Betreiber der bisherigen Offshore Windparks können ein Lied davon singen. So kostete der mit rd. 80 Windturbinen ausgestattete Windpark Bard 1 satte 3 Mrd €. Er hat eine installierte Leistung von 400 MW, verbaut wurden also 5 MW Anlagen, und steht seit März 2014 bis auf weiteres still. Der Betreiber, die Bard-Gruppe,  hat deswegen Insolvenz anmelden müssen .

Das Projekt „Sandbank“ von Vattenfall/Münchner Stadtwerken kommt mit 72 WKA aus, diese haben eine installierte Nennleistung von je 4 MW und sollen lt. Medienberichten bei passendem Wind 288 MW liefern. Ob diese um knapp 30 % geringere Auslegung  (400 MW zu 288 MW) des Windparks gegenüber Bard 1 Minderkosten von 60 % rechtfertigen, wird die Zukunft weisen.   

Wahrscheinlich ist das nicht, denn die Investoren wollen nicht nur 72 Windkraftanlagen á 4 MW in die oft sturmumtoste Nordsee stellen, sondern auch gleich noch eine „Wohnplattform“ für 50 Techniker mit „Einzelzimmer, Bad, TV und Internet“ wie man die Medien wissen lässt. Das bedeutet, man rechnet mit ständigem und hohen Wartungsaufwand, der vielleicht – wenn die Männer (gibt´s da evtl. auch eine gesetzliche Frauenquote?) überhaupt an die zu wartende WKA rankommen- den Nutzungsgrad (Abb 1) nach oben hieven soll. Doch wenn man überhaupt im verwöhnten Deutschland Fachkräfte für diesen einsamen aber sehr gefährlichen Job findet, billig wird das dann nicht. Dh. die Betriebskosten schnellen in die Höhe. Und selbst dann ist i.A. bei Wellenhöhen von > 1,5 m Schluss mit der Erreichbarkeit. Und diese liegt, bei den dort typischen Wassertiefen, bei nur durchschnittlich 8 Tagen pro Monat.

Es sei denn, man löst auch dieses Problem auf Energiewende typische Weise. Indem man einfach von der Wohnplattform zu jedem Windrad einen separaten unterseeischen Tunnel baut. Zuzutrauen wäre es den Münchner Stadtwerken, wie auch Vattenfall, denn

Abbildung 2: Erreichbarkeit von Offshore-Windparks, Quelle http://windmonitor.iwes.fraunhofer.de/windwebdad/www_reisi_page_new.show_page?page_nr=469&lang=de

 "Wir sind eine lernende Industrie. Anfangs war der Respekt vor den technischen Herausforderungen an manchen Stellen vielleicht nicht groß genug", sagt Gunnar Groebler, Chef des Geschäftsbereiches Erneuerbare Energien bei Vattenfall. Na dann! Es gilt wohl auch hier: Gier -zumal staatlich verordnete- frisst Hirn.

Update vom 12.8.14

Bei der weiteren Recherche zu den Absichten und Taten der Münchner fand ich noch dieses schöne Zitat:

Stadtwerke-Chef Kurt Mühlhäuser hat ehrgeizige Ziele. "München soll die erste deutsche Großstadt werden, in der alle Privathaushalte mit regenerativ erzeugtem Strom versorgt werden", plant der Manager. 2020 soll es soweit sein. Andasol 3 ist ein Element in dieser Strategie, in die Mühlhäuser mehr als eine Milliarde Euro investieren lässt. ….

Die Stadtwerke München mögen mit ihrem Engagement in Andalusien auf ihre Art ein Vorreiter sein. Allein stehen sie hierzulande aber nicht. Die Initiative "100 Prozent Erneuerbare-Energie-Regionen" will heimische Kommunen und Landkreise dazu bringen, nicht nur ihren ganzen Strom aus regenerativen Quellen zu speisen, sondern auch die für Wärme und Mobilität nötigen Energien. Zudem soll das aus Produktion vor Ort geschehen und nicht durch Zukäufe von der Nordsee bis Südspanien wie in München.

Quelle FR 16.7.2009




CO2-Daten mögen ja der IPCC-Hypothese genügen, entsprechen aber nicht der Realität

Man erschaffe die gewünschten Fakten

In einem Kommentar zu dem Beitrag auf WUWT „The Record of recent Man-made CO2 emissions: 1965-2013” hat Pamela Gray die Lage graphisch, aber pointiert zusammengefasst:

Wann endlich werden wir die Mathematik betreiben? Der allein anthropogene Anteil am atmosphärischen CO2, vor allem der Anteil Chinas, hat nicht die erforderliche Fähigkeit, auch nur ein winziges bisschen „Wetter“ auch nur ein wenig zu verändern. Man entferne nur den anthropogenen CO2-Anteil und lasse die vergangenen 30 Jahre bzgl. des Wetters noch einmal Revue passieren. Es wäre zu genau den gleichen Wetterabläufen gekommen. Oder vielleicht wäre es wegen der dem Wetter eigenen Natur noch schlimmer gekommen. Oder vielleicht besser. Jetzt mache man etwas wirklich Lächerliches: man nehme den Anteil Chinas heraus. Ich weiß, dass es in dem Beitrag nicht darum geht, China als den bösen Buben hinzustellen. Aber. Wirklich? Wirklich? All das für etwas, das so klein ist, dass man es gar nicht finden kann? Nicht einmal im Luftballon eines Kindes?

Die einzige Deutung, die mir einfällt ist, dass die Menge die Sinnlosigkeit der Behauptungen illustriert, wie Gray anmerkt, aber das IPCC und die EPA konzentrieren sich auf Trends und Zuordnungen. Es muss einen menschlichen Grund haben und stetig zunehmen, oder, wie sie es bevorzugen – es muss schlimmer werden.

Verengung des Blickwinkels

Es ist erforderlich, die Kritik an den vom IPCC erzeugten CO2-Niveaus während der ganzen letzten Jahre wieder aufzugreifen. Heutzutage ist die Vehemenz persönlicher Attacken eine Maßzahl für das Zutreffen der Kritik, zielen diese doch darauf ab, von Wissenschaft und Beweisen abzulenken.

Seit seiner Gründung konzentrierte sich das IPCC auf die menschliche Produktion von CO2. Es begann mit der Definition von Klimaänderung, die von der UNFCCC vorgegeben worden war und die vom Menschen als die einzige Quelle ausging. Ziel war es, die Hypothese zu belegen, dass der zunehmende atmosphärische CO2-Gehalt zu einer Erwärmung führen würde. Dies erforderte Beweise, dass das Niveau seit der vorindustriellen Zeit zugenommen hat und jedes Jahr weiter zunehmen wird wegen der menschlichen industriellen Aktivität. Wie lange wird es noch dauern, bis sie anfangen, die Rate der CO2-Zunahme zu reduzieren, um den sinkenden Temperaturen Rechnung zu tragen? Ihnen gehen allmählich die Entschuldigungen aus, zuletzt mindestens 30 [auf Deutsch beim EIKE hier], um das fortgesetzte Fehlen einer Temperaturzunahme zu erklären.Inzwischen sind es 17 Jahre und 10 Monate.

Das IPCC stellt die bizarre Behauptung auf, dass bis zum Jahr 1950 der menschliche CO2-Eintrag ein untergeordneter Treiber der globalen Temperatur war. Danach sind über 90% der Temperaturzunahme dem menschlichen CO2 geschuldet.

Das meiste der beobachteten Zunahme der globalen mittleren Temperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich der beobachteten Zunahme der atmosphärischen Treibhausgas-Konzentrationen geschuldet.

Die Behauptung, dass eine geringfügige CO2-Zunahme aus anthropogenen Quellen, welches natürlicherweise nur 4% aller Treibhausgase ausmacht, der dominante Faktor innerhalb nur weniger Jahre wird, ist unglaublich. Diese Behauptung entstammt Computermodellen. Sie sind der einzige Ort auf der ganzen Welt, wo eine CO2-Zunahme eine Temperaturzunahme verursacht. Sie hängt ab von der menschlichen Produktion und dem zunehmenden atmosphärischen Niveau. Sie nehmen an, dass die Temperatur immer weiter steigt, wie alle drei IPCC-Szenarien implizieren.

Ihre Frustration ist, dass sie zwar die CO2-Daten kontrollieren, aber nachdem die University of Alabama in Huntsville (UAH) mit der Aufzeichnung von globalen Temperaturdaten via Satelliten begonnen hatte, war die Kontrolle der globalen Temperaturdaten beschränkt. Es hat sie allerdings nicht völlig davon abgehalten, wie McIntyre, Watts, Goddard, die New Zealand Climate Science Coalition und viele andere illustriert haben.

Und jetzt sind sie konfrontiert mit einem Problem, das T. H. Huxley aufgeworfen hatte:

Die große Tragödie der Wissenschaft – die Zerschlagung einer wunderbaren Hypothese durch eine hässliche Tatsache.

Dieser Artikel beleuchtet, wie das derzeitige atmosphärische CO2-Niveau bestimmt und kontrolliert wird, um zur Hypothese zu passen. Sie können sich an eine politische Agenda anpassen, aber sie können sich nicht die Agenda der Natur zupass machen.

Eine neue deduktive Methode: Man erschaffe sich Fakten, die zur Theorie passen

Farhad Manjoo fragte in dem Beitrag True Enough: Learning To Live In A Post-fact Society:

Warum hat in jüngster Zeit Gelehrsamkeit die Nachrichten gekapert? Warum scheinen sich Lügen so lange im kulturellen Unterbewusstsein zu halten, selbst nachdem sie längst nachhaltig offengelegt worden waren? Und warum funktioniert faktenfreie Propaganda so gut, wo doch mehr Menschen als je zuvor die Wahrheit mit Laptops und digitalen Kameras festhalten?

Manjoos Kommentare sprechen die Gesellschaft allgemein an, sind aber über die Klimawissenschaft besonders ausgeprägt wegen der unterschiedlichen Fähigkeiten der Öffentlichkeit hinsichtlich wissenschaftlicher Belange. Eine große Mehrheit kann leicht betrogen werden.

Manjoo argumentiert, dass die Leute sich die Fakten selbst zusammen schustern oder jemanden finden, der es für sie macht. Die Fabrikation von Daten ist die einzige Option in der Klimawissenschaft, weil – wie es der NRC-Bericht aus dem Jahr 1999 zeigte – es praktisch keine wirklichen Daten gibt. In dem Bericht vom US National Research Council (NRC) über Klimadaten vom 3. Februar 1999 heißt es:

Defizite hinsichtlich der Genauigkeit, Qualität und Kontinuität der Aufzeichnungen lassen ernste Zweifel an dem Vertrauen aufkommen, dass man den Forschungsergebnissen entgegen bringen kann.

Die Lage ist heutzutage noch schlimmer. Die Anzahl der verwendeten Stationen ist dramatisch reduziert worden, und Aufzeichnungen wurden hin zu niedrigeren historischen Daten verbogen. Dadurch nahm der Gradient in den Aufzeichnungen zu. Jüngst wurde das Fehlen von Ozean-Daten erkannt.

Zwei der führenden Ozeanographen von Harvard und dem MIT haben die begrenzten Daten angesprochen, die gegenwärtig die ozeanographische Gemeinschaft daran hindern, die Differenzen zwischen den vielen Schätzungen des ozeanischen Wärmegehaltes zu lösen.

Die Ozeane sind eine Schlüsselgröße hinsichtlich des CO2-Niveaus, und zwar wegen ihrer großen Kapazität als Quelle oder Senke.

Die Daten, die notwendig sind für eine ordentliche Festlegung der Klimaprozesse und daraus folgend der Klimaänderung, sind durchweg ungenügend. Dies gilt vor allem für die Struktur von Klimamodellen. Es gibt für mindestens 80% des den Globus umspannenden Netzes keine Daten, so dass sie raten: das nennt man Parametrisierung. Im IPCC-Bericht 2007 heißt es dazu:

Infolge der begrenzten Auflösung der Modelle können viele dieser Prozesse durch das Gitternetz der Modelle nicht angemessen aufgelöst werden und müssen daher parametrisiert werden. Die Unterschiede zwischen den Parametrisierungen sind ein wichtiger Grund für die Abweichungen der Klimamodelle untereinander.

Infolge der ungenügenden Datenlage tauchen unterschiedliche Ergebnisse auf, und die beteiligten Personen treffen eine subjektive Auswahl.

Das IPCC fabriziert die menschlichen Erzeugungs-Zahlen

Im IPCC-Bericht 2001 wurden 6,5 Gigatonnen Kohlenstoff als von menschlichen Quellen stammend identifiziert. Diese Zahl stieg auf 7,5 Gigatonnen im Bericht 2007 und bis 2010 auf 9,5 Gigatonnen. Woher haben sie diese Zahlen genommen? Antwort: Das IPCC hat sie erfunden und dann weiterverwendet. In der FAQ-Sektion fragen sie: „Wie erzeugt das IPCC seine Leitlinien?“

Zur Verwertung der ICC-Methoden werden Experten auf der ganzen Welt nominiert, die Berichte zu entwerfen, die dann extensiv zweimal begutachtet werden, bevor sie vom IPCC genehmigt werden.

Bis zum Bericht 2013 wurden diese Special Reports on Emissions Scenarios (SRES) genannt. Danach wurden sie zu Representative Concentration Pathways (RCP). Im März 2001 berichtet John Daly von Richard Lindzen unter Bezug auf die SRES und den gesamten IPCC-Prozess einschließlich SRES Folgendes:

In einem kürzlich geführten Interview mit James Glassman sagte Dr. Lindzen, dass der jüngste IPCC-Bericht (den er mit geschrieben hatte) „sehr stark wie ein Kinderspiel dessen war, was möglicherweise passiert“, vorbereitet durch eine „sonderbare Gruppe“ [a peculiar group] „ohne technische Kompetenz“.

William Kininmomth, Autor des aufschlussreichen Buches „Climate Change: A Natural Hazard“, war einst Leiter des National Climate Centre von Australien und dessen Delegation bei der WMO-Kommission für Klimatologie. Er schrieb Folgendes an die Site von ClimateSceptics:

Zuerst war ich verwirrt über das im AR 5 auftauchende RCP-Konzept. Ich kam zu der Schlussfolgerung, dass RCP nicht mehr ist als ein Taschenspielertrick, um die Leser zu verwirren und die Absurditäten in früheren Verfahren zu verstecken.

Man wird sich erinnern, dass die früheren Kohlenstoff-Emissionsszenarien vermeintlich auf soliden wirtschaftlichen Modellen beruhten. Allerdings ist diese Grundlage durch angesehene Ökonomen in Frage gestellt worden, und die Wirtschafts-Modellierung des IPCC blieb ziemlich zerfleddert und mit einem riesigen Fragezeichen darüber zurück.

Ich fühle, dass das RCP-Verfahren die zweifelhafte ökonomische Modellierung überbrückt: vorgeschriebene Strahlungs-Antriebe werden in die Klimamodelle gefüttert, um in der Zukunft einen Temperaturanstieg zu bekommen – falls der Strahlungsantrieb bei 8,5 W/m² ein Plateau erreicht irgendwann nach dem Jahr 2100, wird der globale Temperaturanstieg 3°C betragen. Aber was bedeuten 8,5 W/m²? Zuvor war bei einer Verdoppelung des CO2 ein Strahlungsantrieb von 3,7 W/m² im Gespräch. Um einen Strahlungsantrieb von 7,4 W/m² zu erreichen, müsste es noch eine Verdoppelung geben – eine viermal so hohe CO2-Konzentration. Folglich muss die atmosphärische CO2-Konzentration 1120 ppm nach dem Jahr 2100 übersteigen, um RCP 8,5 zu folgen.

Wir bleiben zurück mit der Frage nach dem Realismus eines solchen RCP 8,5-Szenarios. Besteht irgendeine Wahrscheinlichkeit, dass das atmosphärische CO2 nach 2100 1120 ppm erreichen wird? Das IPCC hat ein Strohmann-Szenario ins Spiel gebracht, um einen ,gefährlichen‘ globalen Temperaturanstieg von 3°C zu Anfang des 22. Jahrhunderts zu bekommen. Dabei wusste es vollkommen, dass eine solche Konzentration extrem unwahrscheinlich ist. Aber natürlich wird dies den Politikern und den politischen Entscheidungsträgern nicht erläutert. Ihnen wird nur das gefährliche Ergebnis vor Augen gehalten, falls man dem RCP 8,5 folgt ohne jeden Hinweis auf die geringe Wahrscheinlichkeit eines solchen Geschehens.

Eine Absurdität wird durch eine andere ersetzt! Oder habe ich etwas Grundlegendes übersehen?[1]

Nein, es fehlt nichts! Allerdings spielt es in der Wirklichkeit gar keine Rolle, ob sich dadurch irgendetwas ändert; es erfüllt das Ziel einer CO2-Zunahme und deren vermeintliche Auswirkung auf die globale Erwärmung. Die Untermauerung der IPCC-Klimawissenschaft und der Wirtschaft hängt von genauen Daten und profunden Kenntnissen der Prozesse statt. Beides ist nicht verfügbar.

Wir wissen, dass die Wetterdaten, auf denen Klimamodelle konstruiert werden, unzureichend sind, und die Lage wurde noch verschlimmert durch das Herausnehmen von Wetterstationen. Andere wurden ,adjustiert‘ und die Daten willkürlich herausgepickt. Wir wissen, dass die Kenntnisse der Prozesse unvollkommen sind, weil der IPCC-WGI-Bericht genau das sagt:

Unglücklicherweise sind die Wärme- und Wasserflüsse an der Oberfläche nicht gut dokumentiert.

Oder, damit die Modelle genau die jahreszeitlich wechselnde Verteilung des Niederschlags akkurat simulieren können, müssen sie korrekt eine Anzahl von Prozessen simulieren (z. B. Verdunstung, Kondensation, Transport). Dies ist im globalen Maßstab sehr schwierig zu evaluieren.

Zwei kritische Situationen standen im Mittelpunkt, das atmosphärische CO2-Niveau zu kontrollieren. Wir wissen, dass Guy Stewart Callendar, ein britischer Dampfmaschinen-Ingenieur, die niedrigen Zahlen aus 90.000 atmosphärischen CO2-Messungen im 19. Jahrhundert herausgepickt hatte. Dies etablierte nicht nur ein geringes vorindustrielles Niveau, sondern veränderte auch den Trend des atmosphärischen Niveaus (siehe folgende Abbildung:)

Abbildung 1 (Nach Jaworowski; Trendlinien hinzugefügt)

Callendars Arbeit war einflussreich hinsichtlich der von Gore aufgestellten Behauptungen über vom Menschen induzierte CO2-Zunahmen. Das einflussreichste Papier in der Klimagemeinschaft, vor allem an der CRU und beim IPCC, war jedoch die Studie von Tom Wigley aus dem Jahr 1983 mit dem Titel „The Pre-industrial carbon dioxide level“ (Climatic Change. 5, 315-320). Ich habe Seminare abgehalten über dessen Validität und Selektivität zur Etablierung einer vorindustriellen Basislinie.

Ich schrieb einen Nachruf auf Ernst Georg Beck, nachdem ich von seinem überraschenden Ableben erfahren hatte:

Ich war geschmeichelt, als er mich bat, eine seiner frühen Studien zur historischen Verteilung von atmosphärischem CO2 und dessen Beziehung zur globalen Erwärmung zu begutachten. Ich war begeistert von der Präzision, den Details und dem Wahrnehmungsvermögen und drängte auf die Veröffentlichung dieser Studie. Ich warnte ihn auch vor persönlichen Angriffen und unwissenschaftlichen Anwürfen, die er zu erwarten hatte. Am 6. November schrieb er mir: „In Deutschland ist die Lage vergleichbar mit den Zeiten der mittelalterlichen Inquisition“. Glücklicherweise war er nicht abgeschreckt. Sein Freund Edgar Gärtner erklärte Becks Beitrag in seinem Nachruf. „Aufgrund seines immensen Fachwissens und seiner methodischen Strenge fielen Ernst sehr frühzeitig zahlreiche Ungereimtheiten in den Aussagen des „Weltklimarates“ IPCC auf. Er hielt es schlicht für unvorstellbar, dass ein Anstieg des Kohlenstoffdioxid-Gehaltes der Luft von winzigen 0,03 auf kaum weniger winzige 0,04 Volumenprozent für die in den vergangenen Jahrzehnten eher gefühlte als gemessene Erwärmung der Erdatmosphäre verantwortlich sein sollte. Und er zweifelte daran, dass man die seit 1957/58 auf dem Hawaii-Vulkan Mauna Loa aufgezeichnete Kurve des CO2-Anstiegs linear bis ins 19. Jahrhundert nach rückwärts datieren kann“.*

[*Dieses Zitat ist das deutsche Original von Gärtner und keine Rückübersetzung aus Dr. Ball! Ball hatte glücklicherweise den Link angegeben und auf das deutsche Original verwiesen. Anm. d. Übers.]

Beck war der erste, der die Daten aus dem 19. Jahrhundert detailliert untersucht hat. Die Daten waren gesammelt worden für wissenschaftliche Versuche, präzise die Menge des CO2 in der Atmosphäre zu messen. Es begann im Jahre 1812, ausgelöst durch die Arbeit von Priestly zu atmosphärischem Sauerstoff und war Teil der wissenschaftlichen Bemühungen, alle atmosphärischen Gase zu quantifizieren. Es gab kein unmittelbares politisches Motiv. Beck hat mit den Ergebnissen keine Rosinenpickerei betrieben, sondern er hat das Verfahren untersucht, die genauen Messorte und so viele Details wie möglich für jede Messung. Dies stand in absolutem Kontrast zu dem, was Callendar und Wigley gemacht haben.

Das IPCC musste jetzt beweisen, dass:

● Zunahmen des atmosphärischen CO2-Gehaltes in den historischen Aufzeichnungen eine Erwärmung ausgelöst haben

● die gegenwärtigen Niveaus ungewöhnlich hoch sind im Vergleich zu den historischen Aufzeichnungen

● das gegenwärtige Niveau viel höher ist als in vorindustriellen Zeiten

● die Unterschiede zwischen dem vorindustriellen und dem jetzigen Niveau dem menschlichen CO2-Beitrag in die Atmosphäre geschuldet sind.

Becks Arbeit zeigt die Falschheit dieser Behauptungen, und indem er das getan hat, hat er sich eine große Last aufgeladen.

Nochmals aus meinem Nachruf:

Ernst Georg Beck war ein Gelehrter und Gentleman in jeder Hinsicht. Sein Freund schrieb: „Sie versuchten, Ernst Georg Beck im Internet als ahnungslosen Amateur und Datenfälscher zu denunzieren. Ernst konnte sich dagegen in den letzten Monaten wegen seiner fortschreitenden Krankheit leider kaum noch wehren“.* Seine Arbeit, seine Bestimmung und seine Ethik waren allesamt darauf gerichtet, Fragen in skeptischer Manier zu beantworten, was wirkliche Wissenschaft ist; die Antithese zu den Bemühungen all jener, die ihn herausforderten oder versuchten, ihn mundtot zu machen oder ihn zu verleumden.

[*Auch hier das Originalzitat]

Die CO2-Messungen aus dem 19. Jahrhundert sind nicht genauer als die Messungen der Temperatur: tatsächlich würde ich sagen, dass Beck zeigt, wie gut sie sind. Warum also sind beispielsweise seine Einschätzungen weniger gültig als jene, die zu Anfang der Central England Temperatures (CET) gemacht worden sind? Ich habe mich lange mit Hubert Lamb über die Anfänge dieser CET-Rekonstruktion von Manley unterhalten, weil die Instrumente, Messorte, Messungen Aufzeichnungen und das Wissen der Beobachter vergleichbar waren mit jenen in den Aufzeichnungen der Hudson Bay Company, mit denen ich mich befasst habe.

Als das vorindustrielle Niveau einmal erschaffen worden war, wurde es notwendig sicherzustellen, dass sich der neue nachindustrielle CO2-Trend fortsetzt. Dies wurde erreicht, als C. D. Keeling die Messstation am Mauna Loa eingerichtet hatte. Beck sagt dazu:

Die moderne Treibhaus-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling, die die Linie von S. Arrhenius fortsetzen, was jüngst durch das IPCC popularisiert worden ist.

Keelings Sohn betreibt jetzt die Station am Mauna Loa und, wie Beck anmerkt, besitzt das globale Monopol der Kalibrierung aller CO2-Messungen. Er ist auch Ko-Autor der IPCC-Berichte, die die Werte vom Mauna Loa und alle anderen Messungen als repräsentativ für das globale Niveau akzeptieren. Folglich kontrolliert das IPCC die Zahlen der menschlichen Erzeugung und des atmosphärischen CO2-Niveaus. Beide nehmen konstant und konsistent zu.

Dies lenkt ab von dem realen Problem mit den Messungen und Behauptungen. Die fundamentale IPCC-Prämisse ist es, die menschlichen Gründe der globalen Erwärmung zu benennen. Man kann nur dann den menschlichen Beitrag und Anteil bestimmen, wenn man natürliche Niveaus kennt und wie stark diese variieren, und wir haben nur sehr grobe Schätzungen.

Welche Werte werden für jede Komponente des Kohlenstoff-Zyklus‘ verwendet?

Dr. Dietrich Kölle ist einer der wenigen Wissenschaftler, der Schätzungen natürlicher jährlicher CO2-Emissionen unter die Lupe nimmt. Er kommt zu folgenden Ergebnissen:

Jährliche Kohlendioxid-Emissionen GtC pro Jahr:

1. Atmung (Menschen, Tiere, Phytoplankton) 45 bis 52

2. Ozeanische Ausgasung (tropische Gebiete) 90 bis 100

3. Vulkanische und andere Quellen aus dem Erdboden 0,5 bis 2

4. Bodenbakterien, Verrottung und Verfall 50 bis 60

5. Roden von Wäldern, Waldbrände 1 bis 3

6. Anthropogene Emissionen aus fossilen Treibstoffen (2010) 9,5

Gesamtmenge 196 bis 226,5

Quelle: Dr. Dietrich Kölle

Die IPCC-Schätzung der menschlichen Produktion (6) für das Jahr 2010 betrug 9,5 GtC, aber das ist die Gesamtproduktion. Einer der frühen Dinge in dem Betreiben, das Kyoto-Protokoll zu ratifizieren war ein Versuch, die USA zur Ratifikation zu bewegen. Die USA forderten Kohlenstoff-Zertifikate, vor allem für die Entfernung von CO2 durch Aufforstung, damit eine Gesamtzahl zur Anwendung kommt, die die USA als eine entwickelte Nation einschätzen. Das wurde abgelehnt. Realität ist, dass die Gesamtzahl besser den menschlichen Einfluss repräsentiert. Falls wir die menschliche Gesamtproduktion (6) mit 5 GtC für das Jahr 2010 ansetzen, liegt dies innerhalb der Bandbreite von Schätzungen für drei natürliche Quellen (1), (2) und (4).

Die Wahrheit wird ans Licht kommen

Wie lange wird das IPCC noch damit fortfahren, CO2-Daten zu erzeugen, die zu seiner Hypothese passen, dass die Temperatur weiterhin steigen wird? Wie lange wird es dauern, bis die Öffentlichkeit auf Pamela Grays anschauliche Beobachtung aufmerksam wird, die da lautet: Der allein anthropogene Anteil am atmosphärischen CO2, vor allem der Anteil Chinas, hat nicht die erforderliche Fähigkeit, auch nur ein winziges bisschen „Wetter“ auch nur ein wenig zu verändern. Der nunmehr fast 18 Jahre lange Stillstand und leichte Rückgang der globalen Temperatur ist essentiell unmöglich, wenn man die IPCC-Hypothesen zugrunde legt. Eine Behauptung lautet schon jetzt, dass der Stillstand nicht ihrer Wissenschaft oder ihren Projektionen widerspricht, sondern diese stattdessen anerkennt, zusammen mit falschen Prognosen.

Das IPCC und die EPA haben bereits gezeigt, dass es keine Rolle spielt, unrecht zu haben oder ertappt zu werden. Die Objektive ist die Angst erzeugende Schlagzeile, verstärkt durch die stetige Behauptung, dass es zunehmend schlimmer wird und dass die Zeit davonläuft. Aldous Huxley sagte: Fakten werden nicht dadurch aus der Welt geschafft, dass man sie ignoriert. Wir müssen sicherstellen, dass diese Fakten real sind und nicht ignoriert werden.

[1] Nachdruck mit Erlaubnis von William Kininmonth.

Link: http://wattsupwiththat.com/2014/08/05/co2-data-might-fit-the-ipcc-hypothesis-but-it-doesnt-fit-reality/#more-114086

Übersetzt von Chris Frey EIKE