1

Vergangen oder aktuell? Der SPIEGEL warnte 1974 und 1977 vor einer drohenden Kaltzeitkatastrophe

So ist es erheiternd – schließlich ist momentan Narrenzeit – zwei ehemalige Berichte des SPIEGEL über eine drohende globale Abkühlungskatastrophe zu lesen. Sie sind im Internet abgreifbar hier und hier. Man genieße diese Artikel, auf die uns unser Leser Winfried Klein aufmerksam machte.

Aber: ist nicht schließlich die Wissenschaft heute viel weiter als vor 40 Jahren? Schaut man sich den Zustand der aktuellen Klimaforschung an, die inzwischen bekanntlich das platte Gegenteil der damaligen Abkühlungsbefürchtungen vertritt, entstehen Zweifel. Die im Folgenden skizzierten beiden Hauptmerkmale der modernen Klimaforschung – Zyniker sprechen von „postmoderner Forschung“ – sprechen für sich.

An erster Stelle ist eine bereits als grenzenlos zu bezeichnende Modellhörigkeit zu nennen. Ist diese ein Akt der Verzweiflung, weil der unsere Atmosphäre erwärmende Einfluss des anthropogenen CO2 nicht direkt messbar ist? Erwärmung durch zunehmendes CO2 muss es zwar aus guten physikalischen Gründen geben (auch Dr. Link zusammen mit dem Autor haben hierüber publiziert), aber insbesondere in Temperaturreihen der Atmosphäre ist dieser zu schwache Effekt bis heute partout nicht aufzufinden.

Dieser für die Katastrophenanhänger höchst ärgerliche Sachverhalt, den man zwar den Medien, nicht aber den Fachleuten vorenthalten kann, wird in der Fachliteratur als das „attribution and detection problem“ bezeichnet – eine Formulierung, die für sich spricht. Auch der Autor, zusammen mit Dr. Link und Prof. Ewert haben sich an diesem „Attribution und Detection-Problem“ versucht, aber außer einem relativ schwachen, unnatürlichen Erwärmungstrend unbekannter Ursache keine „smoking gun“ auffinden können.

Für Wissenschaftler sind solche „Negativergebnisse“ Normalität, für die berichtende Presse aber unbefriedigend. Doch zurück zu den Klimamodellen. Sie sind zweifellos wertvolle Hilfsmittel für Detailfragen. Man tut ihnen indes Unrecht, mehr zu verlangen. Sie können weder die großen dekadalen Oszillationen, noch den El Nino vorhersagen, sie können ohne massive Korrekturen die Klimavergangenheit nicht beschreiben und sie wissen nichts über den Feedback-Faktor. Auf solchen Modellen und Vorhersagen „erster und zweiter Art“ beruht also das so viele Menschen ängstigende Drohgebäude einer gefährlichen globalen Erwärmung. Zweifellos gibt es konkretere Gefahren für die Menschheit!

An zweiter Stelle endlich ist der desaströse Zustand der heutigen Klimaforschung zu nennen. Von einer objektiven Geisteshaltung, sachlichen Beurteilung oder gar fairen wissenschaftlichen Diskussion ist sie inzwischen meilenweit weit entfernt. Die Szene ist vielmehr dominiert von Advocacy-Klimatologen, die grob gegen die wissenschaftliche Ethik und das Ockham-Prinzip verstoßen. Über den Skandal der durchgesickerten CRU-Mails wurde vielfach berichtet. Offiziell gab es bislang nur „Freisprüche“, was sich aber noch ändern kann, denn der Fundus an belastendem Material scheint noch nicht ausgeschöpft. Wir wollen auf diese unerfreulichen Vorgänge hier nicht weiter eingehen. Entscheidend ist, dass einflussreiche Forscher eine von der Politik offenbar gewünschte Linie in einer Weise unterstützen, die mit wertfreier Forschung nichts mehr gemein hat. Neben offensichtlichen Betrügern gibt es noch die Advocacy-Forscher, die konsequent das Ockham-Prinzip ignorieren. Dieses für die moderne Naturwissenschaft wichtigste Paradigma besagt, dass zur Erklärung eines Naturphänomens zuerst einmal die bekannten Gesetzmäßigkeiten heranzuziehen sind, bevor man eine (unnötige) neue Theorie aufstellt oder ein fragwürdiges Modell verwendet.

Zwei stellvertretende Beispiele: Die Eisbohrkern-Analysen der Vostok-Station in der Antarktis zeigen einen engen Zusammenhang zwischen globalen Mitteltemperaturen und CO2-Konzentrationen. Hat daher in der Vergangenheit das CO2 die Globaltemperaturen gesteuert? Bei besserer Zeitauflösung der Reihe klärt sich das Rätsel: die CO2-Konzentrationen hinken den Temperaturen grob um 1000 Jahre hinterher (hier und hier). Dem Prinzip von Ockham fogend findet man: Bei zunehmender Erwärmung wird aus den Weltmeeren mehr CO2 ausgegast, und da ein Weltmeer grob 1000 Jahre braucht, um sich vollständig umzuwälzen – ist der Nachhinken-Effekt bestens erklärt. Nicht für die wissenschaftlichen Anhänger der CO2-Katastrophe! Hier werden verwickelte Rückkoppelungs-Klimmzüge gemacht, um in umgekehrter Richtung einen maßgebenden CO2-Einfluss zu „retten“. Da dies im beschriebenen Fall kaum möglich ist, ignoriert man schließlich das einfachste Argument.

Ein weiteres Anschauungsbeispiel bot sich dem Autor kürzlich beim Autoradio hören. Eine Reporterin berichtete sichtlich besorgt, dass infolge des Klimawandels die Starkregenfälle in Deutschland zunehmen würden. Ein bekanntes deutsches Klimainstitut (leider ist der Name des Instituts beim Autofahren untergegangen, der Autor meint das AWI oder das Kieler Institut gehört zu haben) hätte es zweifelsfrei an Hand von Modellrechnungen belegt. Das besagte Institut erarbeite nunmehr an Hand seiner Modelle Szenarien und Schutzmaßnahmen gegen Überschwemmungsereignisse an deutschen Flüssen, Schutzmaßnahmen gegen Überschwemmungen sind immer gut, den Kollegen sei dieses Zubrot gegönnt. Ist aber auch die wissenschaftliche Begründung gut? Der Laie als Hörer ist vielleicht beeindruckt, auch der Fachmann?

Immerhin belegt inzwischen sogar das IPCC in seinem jüngsten Extremwetterbericht von 2011 keine Extremwetteränderungen, die über die bisher als natürlich beobachtete Variabilität hinausgehen. Nur – schon wieder Modelle! – in fernerer Zukunft gäbe es eine vermutete Zunahme, es wird die Jahreszahl 2100 genannt. Lassen wir diese unrealistischen Modellspielereien jetzt besser beiseite!

Es gibt aber auch von kompetenter Stelle Entwarnung. Die Persistenzanalyse von Niederschlagsreihen zeigt für weltweit alle Messungen, dass diese Reihen „kein Gedächtnis“ haben. Im Klartext: Ihr Auftreten und ihre Heftigkeit ist zufällig. Gäbe es im 20. Jahrhundert infolge irgendeines anthropogenen Effekts eine Veränderung dieses Zustands, hätte man es in den unzähligen Autokorrelationsanalyse von Niederschlagsreihen sehen müssen. Nichts! Die Wissenschaftler des hier in Rede stehenden Instituts haben in ihrer Modellbegeisterung diese grundlegende Arbeit übersehen, EIKE leistet daher Hilfestellung. Auf S. 83 der grundlegenden Arbeit von Kantelhardt findet sich das zugehörige Kapitel über die Autokorrelation von Niederschlagsreihen.

Die modellhörigen Forscher hätten sich aber auch nur in der Vergangenheit kundig zu machen brauchen. Aus der mittelalterlichen Warmzeit sind keine ungewöhnlichen Niederschlagsereignisse tradiert. Im Gegenteil: in den heissen Sommers dieser Zeit waren Rhein und Donau fast ausgetrocknet. So konnte die  Regensburger Steinbrücke in der trockenen Donau gebaut werden und zu Köln überquerten die Leute zu Fuss den Rhein. Es wäre daher interessant zu erfahren, was die modernen Modelle zu den damaligen Zuständen sagen.

Für den an Details weniger interessierten Leser zum Abschluss eine Zusammenfassung:

Der Unterschied zwischen CO2 als katastrophaler Gefahr oder einem für das Pflanzenwachstum wünschenswerten Naturgas der Photosynthese, dessen geringfügige anthropogene Erwärmungswirkung für die Menschheit erwünscht ist, liegt ausschließlich in fragwürdige Klimamodellen. Nur wenn man diesen glaubt, sind kostspielige Vermeidungsmaßnahmen erforderlich, deren Kosten dann dem wirklichen Naturschutz verloren sind. Politik und die sie unterstützenden Advocacy-Wissenschaftler sind für eine Entscheidung keine Hilfe. So wurde von einem wissenschaftlichen Institut, dem Potsdamer Institut für Klimafolgenforschung (PIK) ein 2 °C Ziel „erfunden“, das die Fachliteratur nicht kennt und ausschließlich politischer Natur ist. Der Direktor dieses Instituts (Prof. Schellnhuber) gibt Zeitungsinterviews, die mit den Resultaten seiner wissenschaftlichen Veröffentlichungen – um es vorsichtig auszudrücken – nur schwer in Zusammenhang zu bringen sind (im summary der Arbeit nachzulesen). Statt den Messungen und der Klimahistorie Priorität einzuräumen, greift man zu fragwürdigen Modellen, die ihre Zuverlässigkeitsnachweis bislang schuldig geblieben sind.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher




Windräder produzieren Atommüll! Greenpeace muss eingreifen

Nicht ganz, denn die Vereinfachung zwingt zu anderen Generatoren. In konventionellen Windrädern mit Getriebe wird der Strom durch einen Elektromagneten erzeugt, dessen Drehgeschwindigkeit dank des Getriebes sehr hoch ist. Ohne Getriebe laufen die Generatoren dagegen mit der gleichen Geschwindigkeit wie die Rotoren. Unter diesen Bedingungen benötigt man Ringgeneratoren. Auch hier kann man Elektromagnete einsetzen, handelt sich damit aber wieder Nachteile in Form von Größe und Gewicht sowie von Verschleißteilen (Schleifringe) ein. Viele Hersteller setzen daher statt eines Elektromagneten Permanentmagnete ein, die ein so starkes Magnetfeld erzeugen, dass eine nur 1,5 cm dicke Permanentmagnetscheibe eine 10-15 cm lange Kupferspule ersetzen kann.

Einer Studie des Marktforschungsunternehmens trend:research zufolge hatten 2009 40% der neu installierten Anlagen ein Getriebe, aber weil die große Mehrheit der Hersteller an getriebelosen Anlagenkonzepten arbeitet, geht die Studie für Deutschland von einem drastischen Rückgang der Anlagen mit Getriebe aus. 2020 werden ca. 55% aller dann vorhandene Anlagen einen Direktantrieb haben. Bis auf einen Hersteller – Enercon – setzen derzeit alle auf Direktantriebe mit Permanentmagneten.

Um solche starken Permanentmagneten zu erzeugen, sind Metalle der so genannten Seltenen Erden nötig, vor allem Neodym, das zum Aufbau von starken Neodym-Eisen-Bor-Magneten genutzt wird. Als Faustregel gilt: pro Megawatt Leistung benötigt ein Direktantrieb ca. 200 kg Neodym. Für eine 5MW-Anlage, wie sie etwa in im alpha ventus Windpark vor Borkum eingesetzt wird, wird also eine Tonne Neodym benötigt. Neodym aber ist ohne große Mengen radioaktiven Abfalls nicht zu haben, denn es kommt nur in chemischen Verbindungen vergesellschaftet mit anderen sog. Lanthanoiden vor – und mit radioaktiven Elementen,  z. B. Thorium oder Uran.

Hier fangen die Probleme an: bei der Abtrennung vom Gestein entstehen giftige Abfallprodukte; bei der Aufkonzentrierung mittels Flotation entstehen Flotationsberge in Absinkbecken, von denen wiederum Schwermetalle, Giftstoffe und radioaktive Stoffe wie Uran und Thorium in gelöster Form ins Grundwasser oder als Stäube in die Luft gelangen können. Dammbrüche dieser Becken hätten katastrophale Folgen für die Umgebung. Auch aus dem Abraum können Schwermetalle sowie radioaktive Begleitstoffe ins Grundwasser gelangen.

Da das radioaktive Thorium derzeit nicht verwendet wird, häuft es sich rund um die chinesischen Minen, aus denen derzeit 97% der Weltproduktion an Neodym stammt, in riesigen Mengen unter freiem Himmel an: allein rund um den „See der seltenen Erden“ (40.632324, 109.685440), einem riesigen Auffangbecken für die wässrigen Abfallprodukte des Abbaus nahe der mongolischen Stadt Baotou, lagern bereits jetzt ca. 90.000 Tonnen Thorium. Chinesische Blogger berichten, dass Seltene Erden nicht nur in den bekannten Minen um Bayan Obo und Baotou, sondern in großem Stil und illegal in etwa 4.000 Abbaustätten rund um Ganzhou der Provinz Jiangxi abgebaut wird. Aus Bayan Obu stammt etwa die Hälfte des in China produzierten Neodyms. Hinzu kommt, dass die Arbeitsbedingungen in den Minen größtenteils katastrophal, d.h. gefährlich und extrem gesundheitsschädigend sind.

China ist Lieferant für ca. 97% des weltweit verbrauchten Neodyms, von dem bereits 2006 etwa 55% für den Bau von Windrädern und zu einem geringeren Teil für Elektro- bzw. Hybridfahrzeuge verbraucht wurden. Neodym findet sich darüber hinaus in Kleinelektronik (Festplatten, Lautsprecher) und medizinischen Geräten (Kernspintomographen). Die Weltproduktion belief sich 2006 auf 137.000 Tonnen, aber China reduzierte die Verfügbarkeit auf dem Markt, so dass 2008 nur ca. 17.000 Tonnen verfügbar waren. Der Jahresbedarf wird für 2014 auf 200.000 Tonnen geschätzt. Die Preise entwickelten sich entsprechend, sie stiegen von $42 pro kg im April 2010 zu $334 pro kg im Juli 2011.

Um sich von der chinesischen Monopolstellung unabhängig zu machen, wird derzeit in Australien ebenso wie in Kalifornien und Grönland darüber nachgedacht, vor Jahren still gelegte Minen in Gebieten mit Vorkommen von Seltenen Erden wieder zu eröffnen. Auch wenn Arbeitsschutz- und Umweltstandards in diesen Minen besser sind als in China, regt sich in einigen Ländern bereits jetzt Widerstand von Umweltgruppen gegen die Wiederaufnahme der Förderung. Murphy&Spitz Research, das Unternehmen auf Nachhaltigkeit analysiert und bewertet, kommt Mitte 2011 zu dem Urteil, dass es derzeit auf dem Weltmarkt kein nachhaltig gewonnenes und aufbereitetes Neodym am Markt gibt.

Von Greenpeace, das ja auch und gerne Ökostrom aus Windkraftanlagen verkauft, hört man in dieser Sache nichts. Während sonst auch noch die kleinste Lötstelle eines neuen Smartphones von den Regenbogenkriegern auf nachhaltige Produktion und Ökostandards geprüft wird und Hersteller, die als Sünder überführt werden, gnadenlos an den Pranger kommen, drückt man bei tausenden von Tonnen Neodym beide Augen zu – ist ja für eine gute Sache. Da beschweigt man lieber, dass der saubere Windstrom eine schmutzige Seite hat und versichert treuherzig:  „Wir liefern Strom, der aus Ökokraftwerken kommt – garantiert ohne Kohle und Atom“. Bislang hat sich kein Greenpeace-Aktivist an einem Neodym-haltigen Windrad angekettet. Kommentare auf dem Greenpeace-Blog, die sich auf Neodym-Verwendung in Windkraftanlagen beziehen, bleiben unbeantwortet. Im Greenpeace-Magazin, dass sich in Heft 2/2011 im Rahmen der Serie „Wieso, weshalb, warum?“ mit „Seltenen Erden“ beschäftigt, wird auf einer Infografik unter dem schönen Titel „Seltene Erden – knapp und unverzichtbar“ zwar angerissen, dass bei deren Abbau „radioaktive Rückstände“ anfallen. Aber, so lautet die frohe Kunde: „China gibt an, den Export aus Umweltschutzgründen zu begrenzen.“

Dr.Ludger Weß; zuerst erschienen auf ACHGUT

Update 1.2.12

Auch der Daily Mail online berichtet umfassend über die radiaktive Verseuchung in China durch Windräder in Europa. "In China, the true cost of Britain’s clean, green wind power experiment: Pollution on a disastrous scale"




Neue Kernreaktor Konzepte: Der CANDU Reaktor

CANDU (Canadian Deuterium Uranium) Reaktor ist ein in Europa weitgehend unbeachtetes Reaktorkonzept. Dieses Reaktorkonzept wurde in Kanada entwickelt und gebaut. Indien hat das Know-How erworben und baut zahlreiche Reaktoren in Indien. Weltweit befinden sich 47 dieser Reaktoren in Betrieb und 4 weitere befinden sich im Bau. Wenn man dieses Konzept näher betrachtet so entdeckt man ein ganz eigenes Konzept mit erheblichem Entwicklungspotential.

Der beste Moderator (abbremsen der Neutronen) für einen Kernreaktor ist schweres Wasser.

Absorbtionsquerschnitt H2O 0,664 barn; D2O, 0,00118b

Schweres Wasser hat die geringste Neutronenabsorbtion, das heißt es gehen am wenigsten Neutronen beim Abbremsen verloren. Dadurch kann man mit derartigen Reaktoren Brennstoff mit einem sehr geringen Anteil an spaltbarem Material verwenden. Die Brutrate kann beim CANDU Reaktors 0,8 (für jedes gespaltene 235U Atom werden 0,8 spaltbare 239Pu Atome erbrütet), betragen. Andererseits ist der Abbrems(Stoss)querschnitt des Schweren Wassers viel geringer als der des leichten Wassers.

Stoßquerschnitt H2O 105 barn, D2O 14,5 barn

In der Konsequenz ist ein Schwerwasserreaktor kernphysikalisch optimal, erfordert jedoch ein größeres Reaktorvolumen als ein Leichtwasserreaktor.

 

 

Letztlich hat der mit schwerem Wasser betriebene Candu Reaktor 4 große Vorzüge gegenüber dem Leichtwasserreaktor:

Ø  Aufgrund der Verwendung des optimalen Moderators, schweres Wasser, kann dieser Reaktor mit Natururan als Brennstoff betrieben werden, oder mit den abgebrannten Brennelementen eines Leichtwasserreaktors.

Ersteres  half beispielsweise Indien, welches mit kleinen eigenen Uranvorkommen gesegnet ist, den Sanktionen der USA und anderer Länder im Zuge des Kernwaffenbaus die Wirkung zu nehmen.

Die Nutzung abgebrannten Kernbrennstoffs aus Leichtwasserreaktoren in CANDU Reaktoren ermöglicht es den vorhandenen Brennstoff besser zu nutzen. Ein Kernbrennstoff  der im Leichtwasserreaktor 55 MWd/Kg  abgebrannt wurde kann z.B. im Candu Reaktor um weitere 10 – 12 MWd/Kg abgebrannt werden. Entsprechende Tests werden aktuell gefahren, Erläuterung g

Ø  Die Verwendung von Schwerem Wasser ermöglicht einen höheren Brutfaktor, etwa 0,8 bei der Verwendung von Uran als Brennstoff, verglichen mit dem Brutfaktor des Leichtwasserreaktors von 0,5 -0,6. Bei der Nutzung von Thorium anstelle von Uran (kleineres Verhältnis zwischen Neutroneneinfang- und Spaltquerschnitt, es werden weniger Transurane gebildet) kann man  einen Brutfaktor von etwas unter 1 erreichen (h). Versuche zur Nutzung von Thorium sind in Indien unter Beteiligung von AECL (Reaktorbauer aus Kanada) geplant.

Ø  Der Reaktor benötigt keinen technisch aufwendigen Reaktordruckbehälter und kann auch von Ländern mit einer weniger entwickelten Technologie gebaut werden.

Ø Die Brennelemente können während des Betriebes gewechselt werden. Es entfällt der jährliche mehrwöchige Stillstand zum Brennelementwechsel. Dadurch ergibt sich eine höhere Betriebszuverlässigkeit. Das Wechseln von Brennelementen während des Betriebs erlaubt es solche nur kurz zu bestrahlen und damit Bombenplutonium zu erbrüten (Erläuterung f). Aus den oben genannten Gründen hat vor allem Indien auf diese Reaktorlinie gesetzt und zahlreiche Reaktoren dieses Typs nachgebaut. Indien ist Atommacht geworden.

Daneben gibt es einige gewichtige Nachteile gegenüber dem Leichtwasserreaktor:

Ø  Die reinen Baukosten liegen bei einem Candu KKW etwa 1/5 höher als bei einem Leichtwasserreaktor.

Ø  Hinzu kommen die Kosten für Schweres Wasser. Ein Candu-6 Reaktor enthält 457to (20) davon, es addieren sich 274 Mio. Euro zu den Investitionskosten. Insgesamt ist der Candu Reaktor damit 1/3 teurer als ein Leichtwasserreaktor gleicher Nennleistung. Der jährliche Verbrauch an schwerem Wasser dürfte bei etwa 5to zu 600$/Kg (21) liegen, entsprechend 3 Mio. $/a. Sofern man eine Anlage zur Umarbeitung des abgebrannten Kernbrennstoffs aus Leichtwasserreaktoren baut, kann sich je nach Anlagenkosten und Betriebskosten eine Ersparnis durch die Nutzung der abgebrannten Brennelemente aus Leichtwasserreaktoren geben. Der Reaktor muss nicht zu einem mehrwöchigen Brennstoffwechsel stillgelegt werden.

Ø  Nach etwa 30 – 35 jährigem Betrieb benötigen die CANDU Reaktoren eine mehrjährige Generalüberholung die einige zig% der Baukosten eines neuen Kernkraftwerks kostet.

Insgesamt ergibt sich ein  wirtschaftlicher Nachteil gegenüber dem Leichtwasserreaktor. Der Vorteil liegt in der Verwendung von Natururan als Brennstoff und der Möglichkeit waffenfähiges Plutonium zu erbrüten. Der Candu Reaktor wird wohl auch künftig nur in Nischen erfolgreich sein.

 

Die Nachteile der Verwendung superkritischen Wassers und dem Verzicht auf einen Sekundärkreislauf liegen darin, dass dann die Turbinen mit dem radioaktiven Wasser des Primärkreislaufs gespeist werden und analog der Siedewasserreaktoren Teil des nuklearen Teils des Kraftwerks sind. Die Dichte des superkritischen Wassers sinkt mit steigenden Temperaturen stark was wiederum ggf. zu einem komplexeren Reaktoraufbau führt. Weiterhin müssten die Brennstabhüllen aus Edelstahl anstelle von Zirkonium gefertigt werden, wodurch sich die Neutronenabsorbtion erhöht.

Der ACR1000 und insbesondere die Variante mit superkritischem Wasser ist eine wenig beachtete, wettbewerbsfähige Reaktoralternative mit erheblichem Zukunftspotential.

Erläuterungen:

f.  Die Frage, ob es als Vorteil empfunden wird wenn Länder zu Atommächten werden können, ist eine Frage der Sicht. Analog eines Jugendlichen der sich einen Gettoblaster kauft und damit sein Umfeld beschallt, wird dies vom Jugendlichen und dem Hersteller des Geräts als Vorteil empfunden, vom Umfeld eher als Nachteil gesehen. Aus der Sicht des Staates in dem ein solcher Reaktor steht ist dies zumindest ein potentieller Vorteil, aus der Sicht anderer Staaten sicherlich nicht.

g. Für den DUPIC Prozess, der Nutzung abgebrannten Kernbrennstoffs aus Leichtwasserreaktoren in CANDU Reaktoren, ergeben sich 3 Optionen:

·       Die genutzten hochradioaktiven Brennelemente werden zerlegt, die Brennstäbe in 50cm lange Stücke geschnitten und wiederum verschlossen. (25) Üblicherweise enthalten die Brennstäbe eine Feder um die Brennstofftabletten im Brennstab zu positionieren und ein Spaltgasplenum um einen Überdruck zu vermeiden. Somit erscheint mir fraglich ob dieser Prozess so funktioniert. Dieser Prozess, obwohl einfach, erfordert aber auch Investition in eine geeignete Anlage. 

·       Die genutzten Brennelemente werden zerlegt, der hochradioaktive Brennstoff von den Brennstabhüllen befreit, zu Pulver gemahlen, mit Sauerstoff erhitzt um einen Teil der Spaltprodukte zu entfernen und wiederum zu Tabletten gepresst, in Brennstäbe gefüllt und daraus Brennelemente gefertigt. Dieser Prozess wird in einer Zusammenarbeit von AECL Kanada und der Ukraine entwickelt. (12) Der Prozess erfordert Investitionen in eine geeignete Anlage.

·       Die genutzten Brennelemente werden in einer Wiederaufbereitungsanlage in kochender Salpetersäure zersägt, der Brennstoff löst sich in Salpetersäure auf. Uran und Plutonium werden in TBT gebunden und der von Spaltprodukten befreite Brennstoff zur Fertigung von neuen Brennelementen genutzt. Auf die Trennung von Pu und Uran, wie im Purex Verfahren üblich, kann verzichtet werden. Dieser Wiederaufbereitungsprozess ist erprobt, jedoch sehr teuer!  (s. Artikel Wiederaufbereitung!)

h. Verwendung von Thorium im Candu Reaktor

Um einen Brutfaktor von etwas unter 1 real zu erreichen müssen die Thorium Brennstäbe wiederaufbereitet werden. Die Wiederaufbereitung von Thorium ist schwierig da Thoriumoxid chemisch sehr stabil ist. Es existiert weltweit auch keine Wiederaufbereitungsanlage für Thorium. Deshalb ist dieses Konzept auf absehbare Zeit nicht wirtschaftlich.

 Horst Trummler; Vandale

Quellen:

1. Homepage AECL http://www.aecl.ca/Default.aspx

20. ACR-1000 Technical Summary www.aecl.ca , AECL 2007, S13,  Zugriff am 30.06.09 Candu -6  D2O Inventar 457to

21. Iran and the nuclear nightmare, Martin Baker Schaffer, Armed Forces Journal http://www.afji.com/2008/02/3608391, Zugriff 30.06.09 1 Kg D2O 600$ 2008




Ein Blick auf das Gesamtbild der „Erdtemperatur“ in Bildern

Helligkeits-TemperaturanomalieGlobale Temperatur:

Wenn sie sich auf die Erwärmung des „Erdklimas“ beziehen, meinen die Vertreter des CAGW (Catastrophical Anthropogenic Global Warming) die Temperatur an der Erdoberfläche, z. B. „Globale Erwärmung ist die ungewöhnlich rasche Zunahme der mittleren Temperatur an der Erdoberfläche während des vergangenen Jahrhunderts, hauptsächlich wegen des Ausstoßes von Treibhausgasen als Folge der Verbrennung fossiler Treibstoffe“. NASA Earth Observatory

Als solches folgt hier die monatliche mittlere Temperaturanomalie von NASA GISS – von 1996 bis zur Gegenwart…

…die jährliche globale mittlere Temperaturanomalie über Land und See vom NCDC – 1880 bis zur Gegenwart…

…die jährliche globale Temperaturanomalie über Land vom UK Met Office (HadCRU) – 1850 bis zur Gegenwart…

…und die monatliche globale Mitteltemperatur über Land vom HadCRU – 1850 bis zur Gegenwart:

Abhängig vom Zeitrahmen sieht es tatsächlich so aus, als hätte die Temperatur auf der Erdoberfläche zugenommen, obwohl es nicht nach einer „rapiden Erwärmung“ aussieht und es auch keine Hinweise auf einen „immer steiler werdenden Anstieg“ gibt. Außerdem sind die Temperaturaufzeichnungen fragwürdig wegen ihrer lokalen Position, Änderungen der Umgebung, Änderungen der Ausrüstung, Änderungen der Anzahl von Messpunkten, Modellwerte zum Auffüllen von Datenlücken, Korrekturen für fehlende, fehlerhafte oder verzerrte Messungen und der städtische Wärmeinseleffekt. Folglich hilft es sehr, über den Tellerrand zu schauen, wenn man sich ein Gesamtbild der Temperatur auf der Erde machen will.

Atmosphärische Temperaturen:

Seit 1979 wurde die Temperatur des „Klimas“ auf der Erde auch mit Satelliten vermessen. Die NASA sagt dazu: „Die Temperaturmessungen aus den All werden durch zwei direkte Methoden unabhängig voneinander verifiziert. Die erste Methode besteht in direkten Messungen der unteren Troposphäre auf der Basis von Ballonaufstiegen. Die zweite Methode verwendet Vergleiche von identischen Messungen von unterschiedlichen Plattformen im Orbit und deren Kalibrierung untereinander. Als Ergebnis sind die Temperaturmessungen der Satelliten auf drei Hundertstel Grad Celsius genau (0,03°C), wenn man sie vergleicht mit Ballonen, die vom Boden aufgelassen werden und gleichzeitig Messungen in der gleichen Höhe der Atmosphäre vornehmen“.

Die folgenden 4 Abbildungen sind Ausdrucke aus den Remote Sensing Systemen (RSS), wobei jede mit der Höhe zunimmt, wie man hier erkennen kann:

RSS-Temperatur der unteren Troposphäre (TLT) – Helligkeits-Temperaturanomalie – 1979 bis zur Gegenwart…

…RSS-Temperatur der mittleren Troposphäre (TMT) – Helligkeits-Temperaturanomalie – 1979 bis zur Gegenwart…

…RSS-Temperatur der Troposphäre/Stratosphäre (TTS) – Helligkeits-Temperaturanomalie (Brightness Temperature Anomly??)– 1979 bis zur Gegenwart…

…RSS-Temperatur der unteren Stratosphäre (TLS) – Helligkeits-Temperaturanomalie – 1979 bis zur Gegenwart:

Den Fernerkundungssystemen zufolge „werden die Zeitreihen der Anomalien in den Kanälen (TLT) (untere Troposphäre) und (TMT) (mittlere Troposphäre) durch ENSO-Ereignisse und eine langsame troposphärische Erwärmung dominiert. Die drei wesentlichen El Niño-Ereignisse während der letzten 20 Jahre zeichnen sich klar durch Spitzen in den Zeitreihen aus, und zwar 1982-83, 1987-83 und 1997-98, wobei der letzte auch der stärkste war”, meint RSS dazu.

Auch das El Niño-Ereignis von 2009-10 zeichnet sich ab in dieser Helligkeits-Temperaturanomalie von 1979 bis zur Gegenwart (RSS Latitudinal Temperature Lower Troposphere (TLT)…

…und das El Niño-Ereignis von 1998 zusammen mit der troposphärischen Abkühlung aufgrund des Ausbruchs des Pinatubo im Jahr 1991 zeichnet sich in den Temperaturanomalien der unteren Atmosphäre von der University of Alabama – Hunstville (UAH) ab – 1979 bis zur Gegenwart:

University of Alabama – Huntsville (UAH) – Dr. Roy Spencer

Man beachte, dass die Temperaturanomalie der unteren Atmosphäre im November um 0,12 °C über dem 30-jährigen Mittel lag, und dass die RSS Lower Troposphere Brightness Temperature um 0,033°C über dem 30-jährigen Mittel lag. Erinnern Sie sich daran, wenn Sie lesen, dass jüngste Wetterereignisse durch die Globale Erwärmung verursacht worden sind.

Außerdem fiel die Temperatur in der mittleren Troposphäre, die einem ähnlichen, wenngleich auch flacheren Trend wie in der unteren Troposphäre folgt, vor Kurzem unter die 30-jährige Trendlinie, d. h. die Helligkeits-Temperaturanomalie von RSS in der mittleren Troposphäre (TMT) – 1979 bis zur Gegenwart:

Remote Sensing Systems (RSS) – Microwave Sounding Units (MSU)

Es gibt auch regionale Variationen in der unteren Troposphäre, die in Nuancen zum Bild beitragen. Zum Beispiel die RSS-Temperatur im Nordpolargebiet der unteren Troposphäre (TLT) Helligkeits-Temperaturanomalie…

Remote Sensing Systems (RSS) – Microwave Sounding Units (MSU) 

…zeigt eine Zunahme um 0,338 K/C pro Dekade, während die gleiche Anomalie im Südpolargebiet eine Abnahme um 0,007 K/C pro Dekade zeigt.

Remote Sensing Systems (RSS) – Microwave Sounding Units (MSU)

Ich kenne keine überzeugende Erklärung für die signifikante Divergenz der Temperaturtrends an den Polen.

Die Satellitenaufzeichnungen scheinen eine langsame Erwärmung der unteren und mittleren Troposphäre zu zeigen, überlagert mit den ENSO-Zyklen einschließlich vier vergleichsweise starker El Niño-Ereignisse. Die Temperaturen der unteren Troposphäre scheinen nach dem großen El Niño von 1998 nicht mehr gestiegen zu sein und bieten keinerlei Hinweis auf eine „beschleunigte“ Erwärmung.

Geht man höher hinauf in der Atmosphäre, erkennt man, dass die RSS- Temperatur in der Troposphäre/Stratosphäre (TTS) – Helligkeits-Temperaturanomalie – von 1987 bis zur Gegenwart…

…nach diesem Ereignis unglaublich gerade verlief, mit einem Trend von lediglich -0,004 K/C pro Jahrzehnt. Die El Niño-Ereignisse von 1997/98 und 2009/10 erscheinen klar in dem Ausdruck abgebildet, ebenso wie eine Spitze durch den Ausbruch des Pinatubo 1991. Man beachte, dass die Auswirkung des Pinatubo-Ausbruchs in der unteren und  mittleren Troposphäre einerseits und der Troposphäre/Stratosphäre andererseits entgegengesetzt verläuft. „Große Vulkanausbrüche blasen Schwefelgase bis in die Stratosphäre; die Gase verwandeln sich zu Aerosolen mit einer Verweildauer von etwa einem Jahr. Die Reaktion des Klimas auf große Ausbrüche (in der Historie) dauerte etwa 2 bis 3 Jahre. Die Aerosolwolke führt zur Abkühlung an der Erdoberfläche und zur Erwärmung in der Stratosphäre“. – Ellen Thomas, PHD Wesleyan University

Es ist interessant, dass die Temperaturen in der Troposphäre/Stratosphäre (TTS) ziemlich stabil geblieben sind, trotz der Einwirkung dreier signifikanter Antriebe auf der Erdoberfläche. Allerdings gibt es auch hier Nuancen.

Die RSS-Temperatur in der Troposphäre/Stratosphäre über der Nordhemisphäre (TTS) – Helligkeits-Temperaturanomalie – von 1987 bis zur Gegenwart…

…hat um 0,54 K/C pro Dekade zugenommen, während sie über der Südhemisphäre…

…um -0,62 K/C pro Dekade abgenommen hat.

Geht man noch höher hinauf in der Atmosphäre, sieht man, dass

die RSS-Temperatur der unteren Stratosphäre (TLS) – Helligkeits-Temperaturanomalie – von 1979 bis zur Gegenwart…

„…von einer stratosphärischen Abkühlung dominiert werden, punktförmig unterbrochen durch dramatische Erwärmungen durch die Ausbrüche des El Chichon (1982) und Pinatubo (1991)“ RSS

Die Eruptionen des El Chichon und des Pinatubo bilden sich auch deutlich ab in der Strahlungsdurchlässigkeit der Atmosphäre, gemessen auf dem Mauna Loa in Hawaii:

National Oceanic and Atmospheric Administration (NOAA) – Earth System Research Laboratory (ESRL)

„Im Gegensatz zur Troposphäre” … „wird die Stratosphäre erwärmt, und zwar als Folge einer Absorption von Sonnenenergie im nahen Infrarot an der Obergrenze der Aerosolwolke und verstärkter Infrarot-Absorption langwelliger Strahlung von der Erdoberfläche.

Die stratosphärische Erwärmung in der Umgebung der stratosphärischen Wolke lässt den breitenabhängigen Temperaturgradienten in niedrigen Breiten nach einer Eruption zunehmen. Das stört die troposphärisch-stratosphärische Zirkulation und lässt die Differenz der Höhe der Troposphäre zwischen hohen und niedrigen Breiten zunehmen. Damit verstärkt sich die Stärke des Strahlstromes (und des Polarwirbels, vor allem in der Nordhemisphäre.) Dies wiederum führt zu einer Milderung im Winter der Nordhemisphäre nach einer Eruption in den Tropen, und dieser Erwärmungseffekt tendiert dazu, stärker zu sein als der oben beschriebene Abkühlungseffekt“. Ellen Thomas, PHD Wesleyan University

Die untere Stratosphäre war Schauplatz eines „dramatischen Erwärmungsereignisses durch die Ausbrüche des El Chichon (1982) und des Pinatubo (1991)“. RSS „Die langfristige globale mittlere Abkühlung der unteren Stratosphäre stammt von zwei Abwärtsschritten der Temperatur, die beide mit der Beendigung der kurzlebigen Erwärmung durch die beiden Ausbrüche parallel laufen.“ … „Hier zeigen wir Analysen aus Beobachtungen, die neue Einsicht in drei Schlüsselaspekte der jüngsten stratosphärischen Klimaänderung gewähren. Erstens führen wir den Beweis, dass das ungewöhnliche stufenartige Verhalten der globalen stratosphärischen Mitteltemperatur nicht nur vom Trend abhängt, sondern auch auf der temporären Variabilität der globalen mittleren Ozonverteilung nach Vulkanausbrüchen. Zweitens zeigen wir, dass die Verteilung von Erwärmung und Abkühlung der globalen Mitteltemperatur nach starken Vulkanausbrüchen konsistent ist mit den gleichzeitigen radiativen und chemischen Folgen von Vulkanausbrüchen auf die Temperatur und das Ozon in der Stratosphäre. Drittens enthüllen wir die entgegen gesetzten breitenabhängigen Strukturen jüngster Temperaturtrends in der Stratosphäre, und Ozontrends sind konsistent mit der großräumigen Zunahme der stratosphärischen sich überschlagenen Brewer-Dobson-Zirkulation [?]“. – David W. J. Thompson Colorado State University

Über der Stratosphäre liegen noch die Mesosphäre und die Thermosphäre, und ich habe von keinem der beiden jüngere Temperaturreihen gefunden, aber bemerkenswert ist, dass es am „15. Juli 2010“ „zu einem verwirrenden Zusammenbruch der oberen Erdatmosphäre“ gekommen ist, als „hoch über der Erdoberfläche an der Obergrenze der Atmosphäre eine selten gefundene Gasschicht, die ‚Thermosphäre‘ vor kurzem zusammengebrochen ist und sich jetzt wieder erholt.

Dies ist die größte Kontraktion der Thermosphäre während der letzte 43 Jahre”, sagt John Emmert vom Maval Research Lab, Leitautor einer Studie, in der er diese Entdeckung in der Ausgabe der Geophysical Research Letters (GRL) vom 19. Juni bekannt machte. „Das ist ein Rekord im Weltraumzeitalter“.

Der Kollaps ereignete sich während des tiefen solaren Minimums von 2008 bis 2009 – ein Umstand, der eine kleine Überraschung für die Forscher war. Die Thermosphäre kontrahiert und kühlt sich ab, wenn die Sonnenaktivität gering ist. In diesem Falle jedoch war die Größenordnung des Kollaps‘ zwei bis drei mal größer als die geringe Sonnenaktivität hergibt.

 „Es geschieht etwas, das wir nicht verstehen”, sagt Emmert.

Die Thermosphäre befindet sich in einer Höhe von 90 bis 600+ km. Sie ist der Bereich von Meteoren, von Polarlichtern und Satelliten, welche bei ihren Erdumläufen die Thermosphäre berühren. Sie ist auch der Bereich, wo die Solarstrahlung erstmals in Kontakt mit unserem Planeten kommt. Die Thermosphäre bremst extreme ultraviolette (EUV) Photonen von der Sonne, bevor sie die Erdoberfläche erreichen können. Ist die solare Aktivität hoch, wärmen solare EUV die Thermosphäre, wodurch sie sich aufbläht wie ein Marshmallow, das man in ein Campingfeuer hält. (Diese Erwärmung kann die Temperatur bis 1400 K steigen lassen – daher der Name Thermosphäre). Ist die solare Aktivität gering, passiert das Gegenteil“. NASA

Zusammenfassend: Die untere und mittlere Troposphäre der Erde scheinen sich langsam erwärmt zu haben, überlagert vom ENSO – Zyklus, einschließlich vier vergleichsweise starken El Niño-Ereignissen und abgeschwächt durch die abkühlenden Auswirkungen der Ausbrüche von El Chichon (1982) und Pinatubo (1991). Seit dem Super-El Niño von 1998 scheint sich die Temperatur in der unteren und mittleren Troposphäre nicht mehr wesentlich zu verändern und zeigt keinerlei Hinweise auf eine „beschleunigte” Erwärmung. Troposphärische/stratosphärische Temperaturen scheinen beeinflusst von mindestens drei Erwärmungsereignissen, getrieben von Vorgängen auf der Erdoberfläche, nämlich den ElNiño von 1997/98 sowie den Eruptionen der beiden Vulkane. Aber alles in allem zeigen sie eine stabile Trajektorie. Die Temperaturen in der Stratosphäre scheinen zwei „dramatische Erwärmungen durch die beiden Vulkanausbrüche durchlaufen zu haben“ sowie eine „ungewöhnliches stufenartiges Verhalten des globalen stratosphärischen Temperaturmittels“, welches zu einer signifikanten Abkühlung in der Stratosphäre geführt hat, und zwar während der letzten 30 Jahre. Schließlich erfolgte „während des großen solaren Minimums von 2008 bis 2009 die größte Kontraktion der Thermosphäre der letzten 43 Jahre“, und „die Größenordnung dieses Kollaps‘ war zwei bis dreimal größer als die solare Aktivität erklären könnte“.

Wassertemperaturen:

„Die Ozeane können viel mehr Wärme zurückhalten als die Atmosphäre. Schon die obersten 3,2 Meter des Ozeans enthalten genauso viel Wärme wie die Luft der gesamten Welt“. Commonwealth of Australia – Parliamentary Library

Änderungen der ozeanischen Oszillationen und der ozeanische Wärmegehalt als solche sind entscheidend, um die „Temperaturen der Erde“ zu verstehen. Hier folgen Darstellungen des NODC globalen ozeanischen Wärmegehaltes von 0 bis 700 m – von 1955 bis zur Gegenwart…

… und hier das Gleiche von der wertvollen Klimadaten-Website Climate4you.com von Ole Humlum, der NODC globale ozeanische Wärmegehalt von 0 bis 700 m – 1979 bis zur Gegenwart.

Aus den obigen Abbildungen scheint hervorzugehen, dass der globale Wärmegehalt der Ozeane seit mehreren Jahrzehnten zugenommen hat. Allerdings sieht es nicht so aus, als würde sich der globale Wärmegehalt „rapide erwärmen“. Außerdem gibt es keine Basis für die Behauptung, dass die Erwärmung mit „einer beschleunigten Rate“ erfolgt. Der Begriff Abschwächung würde es viel besser treffen.

Eis:

Ein Proxy, auf den bei der  Messung der “Temperatur der Erde” oft verwiesen wird, ist die Menge des Eises auf der Erde. Dem United States Geographical Survey (USGS) zufolge „liegt die übergroße Mehrheit des irdischen Eises in der Antarktis, nämlich fast 90%. Grönland enthält lediglich 10% der globalen Gesamteismenge“. Allerdings gibt es derzeit keine allgemein akzeptierte Messung des Eisvolumens, da [der Satellit] Cryosat immer noch gewartet und die Genauigkeit der Messungen von GRACE immer noch in Frage gestellt wird.

Daher sind die gegenwärtig verfügbaren globalen Messungen des Eises begrenzt. Hier folgt die 20-jährige Schneebedeckung der Nordhemisphäre mit einer Klimatologie von 1995 bis 2009…

…und hier die winterliche Ausdehnung der Schneedecke in der Nordhemisphäre von 1967 bis zur Gegenwart:

Während keiner dieser Abbildungen eine globale Perspektive zeigt, scheint es beim Blick auf die Nordhemisphäre hier eine leichte Zunahme der Schneebedeckung und der winterlichen Ausdehnung der Schneedecke über den betrachteten Zeitraum gegeben zu haben.

Eine andere, auf dem Eis basierende Variable, die oft als Proxy für die “Temperatur der Erde herangezogen wird, ist die Meereisbedeckung, allerdings gibt es signifikante Beweise, dass der wesentliche Faktor von Änderungen des Meereises tatsächlich der Wind und atmosphärische Oszillationen sind. Vor diesem Hintergrund folgen hier die globale, die arktische und die antarktische Meereisbedeckung von 1979 bis zur Gegenwart…

… die Anomalie der Meereisbedeckung von 1979 bis zur Gegenwart…

…die Anomalie der Meereisbedeckung in der Südhemiphäre…

…und die globale Anomalie der Meereisbedeckung von 1979 bis zur Gegenwart:

Es scheint einen negativen Trend hinsichtlich der Meereisausdehnung auf der Nordhemisphäre zu geben, allerdings scheint gleichzeitig ein positiver Trend auf der Südhalbkugel vorzuliegen. Im globalen Maßstab scheint die Gesamtbedeckung mit Meereis leicht negativ zu sein mit keiner offensichtlichen Beschleunigung. Aufgrund der begrenzt verfügbaren Messungen der globalen Eisbedeckung und des fragwürdigen Wertes der Meereisbedeckung als Proxy für die Temperatur kann man diesen Messungen nicht sehr viel entnehmen. Allerdings scheint es keinerlei Beweis bei den Messungen des Eises für eine rapide und/oder sich beschleunigende Erwärmung zu geben.

Schlussfolgerung:

Die „Temperatur der Erde” scheint während der letzten Dekaden gestiegen zu sein, aber es gibt keine Beweise dafür, dass sich die Erde „rapide erwärmt“. Außerdem gibt es keine Anzeichen, dass die Erwärmung „mit steigender Rate“ erfolgt.

Zusätzliche Informationen zur „Temperatur der Erde” können gefunden werden auf den WUWT Reference Pages, einschließlich der Global Temperature Page und Global Climatic History Page

Link: http://wattsupwiththat.com/2012/01/01/a-big-picture-look-at-earths-temperature/

Übersetzt von Chris Frey für EIKE

Hinweis des Übersetzers: jede der zahlreichen Abbildungen hier kann durch Anklicken im Original vergrößert werden. Außerdem stehen dort nähere Angaben zur Quelle der Bilder




Klimawandel: Ein Vortrag provoziert – Professor Knut Löschke forderte die Rückkehr zur Vernunft

Update 31.1.12:

1. Universität Osnabrück sagte Vortrag von Prof Vahrenholt ab, Begründung: nur mit Begleitung eines Klimalarmisten zulässig, der könne aber nicht. 

2. Clara Schumann Schule Bonn sagte geplante Vortragsveranstaltung im Februar mit Prof. Ewert über den Klimawandel ab, mit der Begründung, man könne den Schülern keine Informationen zumuten, die anders seien als in den Schulbüchern dargestellt. 

Der Vortrag von Prof. Dr. Löschke und die Folien sind hier abrufbar  (hier klicken)

….Am Ende des Vortrags verglich Professor Löschke das „internationale Klimaregime“, wie sich die Klimarahmenkonvention der Vereinten Nationen in einer EU-Broschüre selbst nennt, mit den sozialistischen Regimen in Deutschland. Sein Fazit: „Principiis obsta – Wehret den Anfängen!“ Dieser Vergleich ist nun vornehmlich in Kreisen wie der Grünen-Hochschulgruppe und im AStA/SprecherInnenRat umstritten. Die Thesen des DDR-erfahrenen Physikers Löschke bezüglich des letzten Vortragsteils „Gesellschaft“ lassen sich wie folgt zusammenfassen:

„Weltklimarat ist eine sozialistische Veranstaltung“

Wie kann es sein, dass bereits an Kindergärten und Grundschulen Kindern der Glaube an die Hypothese vom menschengemachten Klimaweltuntergang eingebleut wird, gleichzeitig aber kein Experiment vorliegt, das dies belegt? Wie kann es sein, dass eine über die Politik finanzierte Institution wie der „Weltklimarat“ IPCC nicht einmal vorläufig gesichertes Wissen als alleingültigen Maßstab verbreitet? Gleichzeitig geben deutsche Bildungsministerien Broschüren für Pädagogen heraus, die bilderbuchartig zeigen, wie Kritiker des menschengemachten Klimawandels wortwörtlich als „Skeptiker“ verunglimpft werden sollen. Die Methode, dass Kinder ihre Eltern beeinflussen, wird darüber hinaus als gewünscht empfohlen. Herr Professor Löschke kennt diese Methoden aus eigener Erfahrung im einst real existierenden DDR-Sozialismus. Deshalb hat er auf die Analogien und Tendenzen im Vergleich zu einstigen diktatorischen Systemen hingewiesen.

Menschengemachte Klimawandelhypothese ist nicht belegt

Der menschengemachte Klimawandel als Hypothese ist schließlich durch kein einziges Experiment belegt und steht nicht im Einklang mit bereits existierender physikalischer Theorie. Trotzdem wird diese Hypothese in reale Politik umgesetzt. Auch vor Betrug und Fälschungen schrecken Vertreter des IPCC nicht zurück, um ihren politischen Auftrag zu erfüllen: Zu zeigen, dass der Mensch das Weltklima beeinflusst. Dies beweisen der Climategate-Skandal und auch ein besonders krasses Fälschungsbeispiel, das Professor Löschke in seinen Präsentationsunterlagen vorstellte. Bei der Verbreitung der Hypothese des menschengemachten Klimawandels und den „Lösungsvorschlägen“ zur weltweiten „Klimakontrolle“ sind längst gefährliche Grenzen jenseits bloßer Lächerlichkeit überschritten. Diese rote Linie sieht auch der Physiker Löschke überschritten und engagiert sich darum ehrenamtlich für ein Umdenken in der Klima-Debatte.

Raubbau an den Ressourcen durch CO2-Vermeidungshysterie

Natürlich steht es jedem frei, Hypothesen in die Welt zu setzen und diese logisch und durch Experimente zu überprüfen. Die Politik macht jedoch die nicht belegte Hypothese vom menschengemachten Klimawandel zur Staatsreligion, die als gesichertes Wissen gepredigt und  aus der absurde politische Handlungen abgeleitet werden. Die CO2-Vermeidungshysterie erzeugt Mehrkosten in der Energieproduktion. Die so verursachten ineffizienten Energieerzeugungsprozesse treiben die Preise auf dem Weltmarkt nach oben. Und dies nicht nur, weil Nahrungsmittel direkt verheizt oder der Vergärung zu Biogas zugeführt werden. Es wird allgemein auf knappe Produktionsmittel zugegriffen. Dadurch verteuert sich der Lebensunterhalt generell und weltweit. Wir in Deutschland können uns diesen Luxus vielleicht noch leisten. Anderswo auf der Welt verhungern Menschen. Darum ist es dringend notwendig, vernünftig über Hypothesen nachzudenken, statt sie blind anzuwenden.

Sind Vergleiche mit sozialistischen Regimen anstößig?

Ein Vergleich bedeutet, Gleiches und Ungleiches aufzuzählen, und ist für jede wissenschaftliche Analyse denknotwendig. Inhaltlich ist darum prinzipiell jeder Vergleich  zulässig. Nichts anderes tat Professor Löschke. Eine Gleichsetzung der IPCC-Tagung mit den Parteitagen sozialistischer Regime in Deutschland, so wie linke Hochschulgruppen es während der Veranstaltung durch Zwischenrufe unterstellten, fand nicht statt. Professor Löschkes Vergleich unter dem Motto „Wehret den Anfängen“ mag wohl die Gefühle mancher verletzt haben. Aber hat dieser Vergleich nicht wachgerüttelt?

Linke Hochschulgruppierungen rufen zur Empörung auf   

„Der Vortrag hatte nichts mit Wissenschaft zu tun, es war plumpe Polemik und hat mich sehr schockiert“,  empört sich Karin Bugow, studentische Senatorin an der Uni Passau nun über das Sprachrohr des AStA-SprecherInnenRates im Internetblog. Überdies steht seitens des AStA der Vorwurf „weitestgehend ungenügender Quellenangaben“ im Raum. Die Quellen sind jedoch in den Vortragsfolien enthalten. Genaue Seitenangaben können auf Rückfrage an Professor Löschke eingeholt werden. Herr Löschke stellte für den weiteren Dialog in den Vortragsunterlagen extra seine private E-Mail-Adresse zur Verfügung. Felix Speidel, studentischer Senator der Universität Passau, schließt die AStA-„Pressemitteilung“ mit: „Ich bin entsetzt, dass Herr Löschke auf dieser Ebene argumentiert und Gegenmeinungen als faschistisch darstellt.“ Es wurden jedoch alle Fragen und auch Zwischenfragen zugelassen, auch die nicht aufgerufenen in lautem Tonfall. Gegenmeinungen als Hypothesen wurden, wie das Redemanuskript beweist, als nützlich und notwendig dargestellt. An den Methoden der linken Gruppierungen jedoch haftet offensichtlich, was sie selbst nicht über sich hören wollen. Ist die Empörung darum so groß? Dürfen extreme Minderheiten den öffentlichen Raum durch derart repressive Methoden besetzen?
Die sächsischen Landtagsabgeordneten Kerstin Köditz und Jana Pinka, die der Linkspartei angehören, fordern jetzt bereits den Rücktritt von Professor Löschke aus dem Innovationsrat der Staatsregierung, weil dieser den Neosozialismus als unmenschlich anprangerte. Der Vorfall zeigt, dass die Werte der Aufklärung wie Wahrheit, Vernunft und Dialog nicht ins Hintertreffen geraten dürfen und verteidigt werden müssen. Es bleibt also dabei: „Wehret den Anfängen!“

Ralph Bärligea

zuerst erschienen auf eigentümlich frei

Anmerkungen der Redaktion:

Dass den vermeintlichen Weltbeglückern aus der Ökoszene die ganze Richtung nicht passt, zeigt dieser -nur ohnmächtige Häme verbreitende Artikel- aus der früher mal angesehenen Zeit, über RWE Manager Vahrenholt, EIKE und den Klimawandel.

Links:

SüddeutscheZeitung: Gipfel mit Nazi-Fotos

Passauer Neue Presse: Referent provoziert an Uni

Rücktrittsforderungen durch die Linkspartei

Internetseite des Hayek-Club Passau




Deutscher Städtetag ist williger Helfer des WWF: Aufruf zur Klimaaktion Earthday 2012

auf seiner Homepage liest man:

Der Deutsche Städtetag

  • nimmt Einfluss auf die Gesetzgebung – durch Stellungnahmen zu Gesetzentwürfen, Gespräche mit Parlament und Regierung sowie durch Öffentlichkeitsarbeit, 

  • fördert eine moderne Verwaltung, die sich an den Bedürfnissen der Bürgerinnen und Bürger orientiert,  
  • erarbeitet mit den Städten Konzepte für neue kommunalpolitische Herausforderungen.  

  • Wie diese Einflußnahme aussehen kann zeigt der hier veröffentlichte Brief

in der dazughörigen Email dazu schreibt ein/eine Handan Aktas-Ewert

Betreff: Weltweite Klimaaktion "Earth Hour 2012" des WWF am 31. März 2012

Sehr geehrter Herr Bürgermeister,wir möchten Sie mit diesen Rundschreiben auf o. g. Aktion hinweisen.Mit freundlichen GrüßenIm AuftragHandan Aktas-EwertDeutscher StädtetagDezernat für Umwelt und WirtschaftBrand- und KatastrophenschutzHausvogteipaltz 110117 BerlinTel. +49 30 37711-601Fax +49 30 37711-609mailto:handan.aktas@staedtetag.de

dann folgt das Anschreiben:

Weltweite Klimaaktion „Earth Hour 2012“ des WWF am 31. März 2012

Sehr geehrte Damen und Herren,

die Earth Hour ist die wohl größte Klima-Aktion der Welt: Tausende Städte auf der ganzen Welt löschen während einer Stunde die Beleuchtung ihrer Wahrzeichen – als Zeichen für mehr Klima- und Umweltschutz. Auch 2012 wird es wieder eine Earth Hour geben, und zwar am 31. März 2012 um 20:30 Uhr Lokalzeit.

Alle interessierten Städte sind herzlich eingeladen, sich aktiv an dieser globalen Aktion zu beteiligen. Der WWF würde gerne die Teilnahme der Städte auch schon zum Auftakt der Earth Hour Kampagne Mitte Februar 2012 verkünden, hierfür ist eine Zusage bis zum 31.01.2012 erforderlich.

Im Info-Blatt (Anlage) erfahren Sie mehr über die Earth Hour und wie Sie sich 2012 beteiligen können. Für Anmeldungen zur Earth Hour oder falls Sie noch weitere Fragen haben, können Sie sich an Anila Preis, WWF Deutschland, Reinhardtstraße 14, 10117 Berlin, Tel.: 030 311777-464, Fax: 030 308741-199, anila.preis@wwf.de wenden.

Mit freundlichen Grüßen In Vertretung

Detlef Raphael

E-Mail detlef.raphael@staedtetag.de

Die zugehörigen Anlagen können Sie hier als pdf Datei abrufen

Related Files




Klimawahn und Energiezukunft der Menschheit

Sinn und Sensitivität II

By Christopher Monckton of Brenchley

Joel Shore, der wie jeder gute Skeptiker meine Rechnungen zur Klimasensitivität anzweifelte, hat freundlicherweise auf meine Bitte hin eine Referenz zu einem Papier von Dr. Andrew Lacis et al. vom Goddard Institute of Space Studies (GISS) genannt, um seine Behauptung zu untermauern, dass der CO2-Anteil mit ungefähr 75% zum Strahlungsantrieb aller Treibhausgase beitrüge. Wasserdampf dagegen, wegen seiner hohen Konzentration in der Atmosphäre das wichtigste Treibhausgas, kondensiere rasch aus, während die nicht-kondensierenden Gase, wie  CO2, jahrelang in der Atmosphäre verblieben.

Dr. Lacis erläutert sein eigenes Papier: “Während die nicht-kondensierenden Treibhausgase mit 25% zum gesamten Treibhauseffekt beitragen, sind es die kondensierenden Treibhausgase, die tatsächlich die Stärke des irdischen Treibhauseffekts steuern, weil sich die Beiträge des Wasserdampfs und der Wolken-Rückkopplung nicht selbst aufrechterhalten und deshalb nur eine Verstärkung darstellen.”

Dr. Lacis’ Argument ist, dass der Strahlungsantrieb des Wasserdampfes als eine Rückkopplung behandelt werden sollte, weil, selbst wenn alle Treibhausgase aus der Atmosphäre entfernt würden, der Großteil des jetzt in the Atmosphäre befindlichen Wasserdampfes kondensieren oder innerhalb von zehn Jahren abregnen würde, und innerhalb von 50 Jahren wäre die Globaltemperatur dann um etwa 21 K kälter als heute.

Zu diesem Papier habe ich viele Einwände, da es u. a. nicht der Tatsache Rechnung trägt, dass die Verdampfung von der Erdoberfläche dreimal so stark ist, wie in den Computer-Modellen abgebildet (Wentz et al., 2007). Deshalb ist viel mehr Wasserdampf in der Atmosphäre als von den Modellen unterstellt, selbst ohne Treibhausgase.

Im Papier wird auch behauptet, die Verweildauer von CO2 in der Atmosphäre wäre “nach Tausenden von Jahren zu bemessen”. Selbst das zur Übertreibung neigende IPCC setzt die Verweildauer nur auf 50 – 200 Jahre. Auf Anforderung kann ich drei Dutzend Papiere nennen, die bis auf Revelle in den 1950ern zurückgehen, welche die CO2-Verweildauer mit gerade mal sieben Jahren angeben, auch wenn Professor Lindzen sagt, dass aus vielerlei Gründen 40 Jahre eine gute Schätzung wäre.

Darüberhinaus ist fraglich, ob der rein politische Schlussabsatz des Papiers in einer angeblich unparteiischen wissenschaftlichen Analyse stehen sollte. Zu behaupten und keine Beweise anzuführen, dass jenseits einer CO2-Konzentration von über 300-350 ppmv “eine gefährliche anthropogene Beeinflussung des Klimasystems durch Überschreitung der 25% Risiko-Toleranz-Grenze einträte mit einer damit verbundenen Verschlechterung der Land- und Meeres-Ökosysteme, einem Meereshöhenanstieg [derzeit gerade mal knapp 5 cm pro Jahrhundert im Verlauf der letzten 8 Jahre, gemäß Envisat], einer unvermeidbaren Störung der sozioökonomischen und nahrungsmittelerzeugenden Infrastruktur” ist überhaupt nicht belegt und daher unwissenschaftlich: Das ist widerlich politisch.

Man merkt, dass viele Wissenschaftler am GISS einer gewissen politischen Strömung angehören, und dass mindestens einer von ihnen regelmäßige substanzielle Zuwendungen für Al Gores Wiederwahl-Kampagnen machte, wissenschaftliche Zeitschriften sind aber nicht der Ort für politische Linksausleger.

Mein Haupteinwand ist, dass das zentrale Argument im Papier eigentlich eine petitio principii ist, ein Zirkelschluss und daher ein ungültiges Argument: eine der Prämissen ist auch die Schlussfolgerung: eine starke netto-positive Rückkopplungswirkung verstärkt die vom Strahlungsantrieb hervorgerufene Erwärmung.

Das Papier beruht nicht auf Messungen, Beobachtungen und der Anwendung bewährter Theorie. Es kommt zu dem Ergebnis, – man ahnt es schon –, dass es mit einem berüchtigten Computer-Klima-Modell herumspielt: dem GISS ModelE. Dieses Modell unterstellt in der Tat sehr starke netto-positive Rückkopplungen, für welche es ziemlich wenig verläßliche empirische oder theoretische Indizien gibt.

Als Dr. Lacis’ Papier geschrieben wurde, enthielt das ModelE “flux adjustments” (auf gut Deutsch: Schummelfaktoren), die bis zu 50 Watt/Quadratmeter betrugen, ein Mehrfaches der Größenordnung des ziemlich kleinen Antriebs, den wir auf das Klima ausüben können.

Dr. Lacis sagt, das ModelE beruhe auf gut verstandenen physikalischen Prozessen. Wenn das wahr wäre, wären keine so großen Schummelfaktoren notwendig (wie im Betriebshandbuch des Modells erwähnt und quantifiziert).

Auch würde man bei der Vorhersagefähigkeit dieses und anderer Modelle eine viel größere Treffsicherheit erwarten, als sich gezeigt hat. Wie der große Dr. John Christy von der NASA kürzlich schrieb: Im Zeitalter der Satelliten (es fällt zum größten Teil mit der von der Pacific Decadal Oscillation herrührenden natürlichen Erwärmungsphase zusammen) sind die Temperaturen nur um ein Viertel bis zur Hälfte angestiegen, verglichen mit der von Modellen wie dem ModelE vorhergesagten Temperaturerhöhung.

An dieser Stelle kann ein wenig grundlegende Klimaphysik helfen. Es ist nicht besonders schwierig (sonst würde ich es nicht verstehen). Ich möchte die IPCC/GISS-Schätzungen des Antriebs, der Rückkopplungen und Erwärmung auf das anwenden, was seit 1750 tatsächlich beobachtet oder daraus abgeleitet worden ist.

Beginnen wir mit den Antrieben. Dr. Blasing und seine Kollegen vom Carbon Dioxide Information and Analysis Center haben kürzlich den Anteil der gesamten Treibhausgas-Antriebe seit 1750 mit 3,1 Watt/Quadratmeter bestimmt.

Bei Anwendung der Antriebstabelle des IPCC müssen wir davon 35%, oder 1,1 Watt/Quadratmeter abziehen, um negative anthropogene Antriebe zu berücksichtigen, besonders die Rußpartikel, die wie kleine Schirme gegen die Sonne wirken. Die netto-anthropogenen Antriebe seit 1750 betragen daher 2 Watt/Quadratmeter.

Wir multiplizieren 2 Watt/Quadratmeter mit dem Klima-Sensitivitäts-Parameter (vor der Rückkopplung) von 0.313 Kelvin pro Watt/Quadratmeter. Wir erhalten eine Erwärmung von 0,6 K, bevor irgendwelche Rückkopplungen wirken.

Dann wenden wir den impliziten, auf einen Jahrhundertmaßstab bezogenen IPCC-Rückkopplungsfaktor von 1,6 an (nicht den Gleichgewichtsfaktor von 2,8, weil das Gleichgewicht Tausende von Jahre entfernt ist: Solomon et al., 2009).

Nachdem alle Rückkopplungen über die gesamte Zeitspanne gewirkt haben, beträgt demnach die vom ModelE und anderen vom IPCC bevorzugten Modellen vorhergesagte Schätzung der Erwärmung 1,0 K.

We verfizieren, dass der (IPCC-implizite) jahrhundert-maßstäbliche Rückkopplungsfaktor von 1,6 richtig ist, weil wir sehen, dass 1 K Erwärmung geteilt durch 2 Watt/Quadratmeter des ursprünglichen Antriebs nun 0,5 Kelvin per Watt/Quadratmeter ergibt. Das ist tatsächlich der implizite transiente Sensitivitätsparameter für jahrhundert-maßstäbliche Analysen, der in allen sechs CO2-Emissionsszenarien des IPCC steckt, und auch in dessen Mittelwertbildung. (Der Faktor wird nicht explizit genannt: Es hat den Anschein, als ob man nicht möchte, dass wir die Dinge überprüfen.)

Dr. Lacis Papier sagt tatsächlich, dass 80% der Antriebe von allen Treibhausgasen dem CO2 zugerechnet werden müssen. Die jetzige implizite zentrale IPCC-Schätzung in allen sechs Szenarien und deren Durchschnitt ist von gleicher Größenordnung, um die 70%.

Beim Ansatz der IPCC-eigenen Antriebsfunktion für CO2: 5,35 * natürlicher Logarithmus von (390 ppmv / 280 ppmv) unter Berücksichtigung der gestörten und ungestörten Konzentrationen von CO2 über die Betrachtungsperiode, ergeben sich 1,8 Watt/Quadratmeter.

Bei dessen Multiplikation mit dem transienten Sensitivitätsfaktor des IPCC von 0,5 erhält man 0,9 K – das aber ist die gesamte jetzige Erwärmung seit 1750. Wo bleiben die ungefähr 20-30% Erwärmung, die von den anderen Treibhausgasen stammen? Das ist ein Anzeichen dafür, dass der CO2-Antrieb doch ziemlich übertrieben worden ist.

Das IPCC sagt in seinem 2007er Bericht nur, dass seit 1950 die gesamte Erwärmung zur Hälfte bis zum Gesamtbetrag beobachtet wurde (also seit 1750), und dass dies dem Menschen zugerechnet werden müsste. Daher wären 0,45 – 0,9 K der beobachteten Erwärmung auf uns zurückzuführen. Selbst bei Annahme des höheren Wertes und unter Annahme der IPCC/GISS-Parameterwerte und Methoden gingen auf das Konto des CO2 nicht 70-80% der beobachteten Erwärmung für den Zeitraum, sondern die gesamte Erwärmung.

Als Antwort auf Argumente wie dieses, erhebt der schon müde DEUS EX MACHINA der vielleicht allzu gutgläubigen IPPC-Anhänger mühsam sein Haupt und sagt, dass die fehlende Erwärmung mit uns Versteck spiele, heimlich auf dem Meeresgrund lauere bis sie zuschlüge.
Elementare Betrachtungen der Thermodynamik belegen aber, dass solche Vorstellungen Unsinn sind.

Nichts kann uns sagen, wie groß die Rückkopplungen wirklich sind – vor allem nicht, wie sie in der Einbildung des IPCC bestehen. Ohne die Unterstellung einer hohen netto-positive Rückkopplung kann man kein Klimaproblem erschaffen. Doch selbst mit der vom IPCC angenommenen, unrealistisch hohen Rückkopplung gibt es überhaupt kein Klimaproblem, wie ich jetzt zeigen werde.

Obwohl das IPCC seine Schätzung des Gleichgewichts-Parameters für die Klimasensitivität explizit nennt (wenn auch nur in der konfusen Fußnote 631 des 2007er Berichts), macht es den transienten Sensitivitäts-Parameter nicht explizit – es ist der Letztere, nicht der Vorhergehende, der für die nächsten paar Jahrhunderte politisch relevant ist.

Während wir also genügend Verdachtsgründe finden für eine nicht unbeträchtliche Übertreibung der vorhergesagten Erwärmung in den IPCC-Vorhersagen (oder “Projektionen”, wie sie vorsichtigerweise genannt werden) und für eine noch größere Übertreibung im GISS ModelE, wollen wir die zentralen Schätzungen erst einmal anwenden, ohne gleich auf das  einzugehen, was uns angeblich in diesem Jahrhundert erwartet.

Dem IPCC zufolge besitzen alle sechs Emissionsszenarien gleiche Gültigkeit. Daraus folgt, dass wir sie mitteln können. Das machen wir. Danach soll die CO2-Konzentration im Jahre 2100 bei 712 ppmv liegen im Vergleich zur den 392 ppmv von heute. Der CO2-Antrieb wird demzufolge 5,35 ln(712/392) betragen, oder 3,2 Watt/Quadratmeter. Wir teilen durch 0,75 (Durchschnitt der GISS- und IPCC-Schätzungen vom CO2-Anteil an den gesamten Treibhausgas-Antrieben), um die anderen Treibhausgase zu berücksichtigen. Wir erhalten 4,25 Watt/Quadratmeter.

Diesen Wert vermindern wir um 35%, um die negativen Antriebe aus unseren Ruß-Abschirmungen usw. zu berücksichtigen. Wir erhalten 2,75 Watt/Quadratmeter netto-anthropogenen Antrieb zwischen heute und 2100.

Jetzt folgt die Multiplikation mit dem jahrhundert-maßstäblichen transienten Sensitivitätsparameter 0,5 Kelvin pro Watt/Quadratmeter. Damit erhalten wir eine vernünftige zentrale Schätzung der bis 2100 zu erwartenden Erwärmung, wenn wir die IPCC- und GISS-Methoden und Werte durchgängig anwenden. Wie hoch ist nun die in diesem Jahrhundert zu erwartende Erwärmung, wenn wir alles so gemacht haben? Aha, es sind nicht ganz 1,4 K.

Nun kommen wir auf die zuvor bemerkte Diskrepanz zurück. Das IPCC sagt, dass zwischen der Hälfte bis zur Gänze der gesamten Erwärmung seit 1950 auf uns zurückginge, und nun scheinen die IPCC-eigenen Methoden und Parameterwerte eine Übertreibung um die 20-30% zu zeigen, selbst wenn wir annehmen, dass die gesamte Erwärmung seit 1950 auf uns zurückginge. Die Übertreibung wäre noch viel größer, wenn nur die Hälfte der Erwärmung von uns gekommen wäre.

Wenn man diese Übertreibung berücksichtigt, wird die anthropogene Erwärmung in diesem Jahrhundert auf kaum mehr als 1 K zurückgeschoben – das ist ein Drittel der 3-4 K, von denen wir so oft hören.

Man beachte, wie geschickt diese Verdreifachung der wahren Erwärmungsrate erzeugt wurde: Durch eine Reihe von kleinen Übertreibungen, die sich alle zusammengenommen zu einem Knaller auswirken. Es ist sehr schwierig, diese Übertreibungen ausfindig zu machen, nicht nur weil die meisten von ihnen gar nicht groß sind, sondern auch, weil nur so wenige der notwendigen Parameterwerte explizit in den IPCC-Berichten genannt werden, so dass jedermann bemerken könnte, was da vorgeht.

Der Stern-Bericht von 2006 übernahm die zentrale IPCC-Schätzung von 3 K Erwärmung im 20.  Jahrhundert und meinte, dass die Kosten der Nicht-Vermeidung dieser Erwärmung 3% des Bruttosozialprodukts des 21. Jahrhunderts betrügen. Das GDP tendiert aber zu einer Zunahme von 3% pro Jahr; also, selbst wenn das IPCC mit 3 K Erwärmung recht hätte, wäre alles, was wir im gesamten Jahrhundert verlören, sogar angesichts der von Stern stark übertriebenen Kostenschätzungen (dafür wurde Stern in der Zeitschrift World Economics kritisiert; er ist dort selbst Mitglied des Beraterstabs), wäre das Äquivalent eines Bruttosozialprodukt-Wachstums nur das im vielleicht einzigen Jahr 2100 zu erwartende. Mehr nicht.

Um die Dinge noch schlimmer zu machen, hat Stern einen künstlich niedrigen Abzinsungssatz für den Vergleich der Kosten zwischen den Generationen angenommen, sein Büro teilte ihn mir mit: 0,1%. Als er wegen dieses zu niedrigen Abzinsungssatzes im fachbegutachteten Wirschaftsjournal World Economics auseinandergenommen wurde, sagte er, die ihn kritisierenden Wirtschaftswissenschaftler wären "konfus", er hätte tatsächlich 1.4% angesetzt. William Nordhaus, der viele fachbegutachtete kritische Artikel zu Stern geschrieben hat, meint, dass es ganz unmöglich wäre, auch nur ein Stück von Sterns Arbeit zu verifizieren oder zu replizieren, weil kaum etwas von seiner Methode explizit und zugänglich wäre.

Wie oft wir das schon gehört haben! Anscheinend will man nicht, dass die Dinge nachgeprüft werden.

Der absolute minimale wirtschaftlich vernünftige Abzinsungssatz ist mindestens so hoch wie das reale Ergebnis auf das Kapital, d.h. 5%. Tun wir Stern den Gefallen und nehmen wir an, dass er einen Abzinsungssatz von 1,4% benutzte und nicht die 0,1% von denen sein Büro sprach.

Selbst wenn das IPCC recht hätte mit seiner Behauptung – entgegen der obigen Analyse von nur 1 K menschengemachter Erwärmung in diesem Jahrhundert –, dass die Menschheit 3 K Erwärmung um 2100 erleben würde (Zunahme im ersten Neuntel des Jahrhunderts: 0 K), würden sich die Kosten des Nichtstuns, abgezinst mit 5%, auf nur 0,5% des globalen Bruttosozialprodukts im 21. Jahrhundert belaufen, anstelle von Sterns 3%.

Nicht überraschend ergibt sich daher, dass die Kosten einer Vermeidung der
3 K – Erwärmung um mindestens eine Größenordnung höher wären, als die Kosten der klimabezogenen Schäden, die aus dem Nichtstun entstehen könnten, wenn wir uns nur anpassen würden, was unsere Spezies so gut kann.

Wenn aber die von uns verursachte Erwärmung im Jahre 2100 sich nur als 1 K herausstellt, dann wird in den meisten Analysen diese sanfte Erwärmung nicht nur als harmlos, sondern sogar als günstig angesehen. Es werden überhaupt keine Netto-Kosten entstehen. Ganz im Gegenteil: ein wirtschaftlicher Nutzen wird daraus folgen.

Deswegen und auf den Punkt gebracht, sollten die Regierungen das UNFCCC und das IPCC auflösen, die Klimazuwendungen mindestens um neun Zehntel vermindern, nur noch zwei bis drei Klima-Computer-Modelle bezahlen und sich um die wirklichen Probleme der Welt kümmern – wie z. B. um die heraufziehende Energieknappheit in England und Amerika, weil die Klima-Extremisten und ihr künstlich erzeugter Unsinn fatalerweise den Neubau von kohle- und atomar befeuerten Kraftwerken verhindert haben, die nun dringend gebraucht werden.

Wir müssen wieder Boden unter die Füße bekommen und unsere fossilen Brennstoffe nutzen, Schiefergas und so, um den Milliarden von Menschen Elektrizität zu geben, die noch keine haben: das nämlich ist der schnellste Weg, sie aus der Armut zu befreien und schmerzlos die Weltbevölkerung zu stabilisieren. Das würde echte Vorteile für die Umwelt bringen.

Sie wissen nun auch, warum der Zubau von vielen neuen Kraftwerken dem Klima nicht weh tut, und weil, selbst wenn ein reales Risiko einer 3 K Erwärmung in diesem Jahrhundert existieren würde, es um ein Vielfaches kosteneffektiver wäre, sich anzupassen, als zu versuchen, die Erwärmung aufzuhalten.

Wie man bei Lloyds in London zu sagen pflegt, “Wenn der Preis der Prämie die Kosten des Risikos übersteigt, versichere dich nicht.” – Selbst wenn dieser Merkspruch unterstellt, dass es ein Risiko gibt – welches in unserem Falle gar nicht existiert.

Viscount Monckton of Brenchley

Original hier

Übersetzung: Helmut Jäger, EIKE




Ein neuer GISS-Datensatz erwärmt die Arktis

Jetzt sieht es so aus, als ob es in den dreißiger und vierziger Jahren deutlich kühler war als heute:

 

http://data.giss.nasa.gov/

Diese neue Technik nennt sich „Entfernung verdächtiger Aufzeichnungen” – d. h. aller Aufzeichnungen, die nicht in die Theorie passen.

Hansen scheint eine generelle Strategie übernommen zu haben, die gegenwärtige Abkühlung durch eine Abkühlung der dreißiger und vierziger Jahre zu erwärmen:

Es gibt nichts Verdächtiges über Aufzeichnungen, die eine große Erwärmung in der Arktis vor 1940 zeigen. Die ist nämlich sehr gut dokumentiert!

The Argus, (Melbourne, Vic.: 1848-1956) 31. Mai 1947

DIE ARKTIS SCHMILZT, SAGT EIN WISSENSCHAFTLER

Los Angeles (AAP) – Eine mysteriöse Erwärmung des arktischen Klimas zeigt sich allmählich immer deutlicher, sagte Dr. Hans Ahlmann, schwedischer Geophysiker an der University of California gestern.

Sollten sich die vergletscherten Gebiete der Antarktis und die grönländische Haupteiskappe sich weiterhin mit der gegenwärtigen Geschwindigkeit verringern, sagte er, würde sich der Meeresspiegel katastrophal erhöhen. Die Menschen in den flachen Küstengebieten würden ertrinken. Die Temperaturen haben sich seit 1900 um 10°F [ca. 5°C] erhöht, ein „enormer“ Anstieg aus wissenschaftlicher Sicht. Der Meeresspiegel im Gebiet um Spitzbergen erhöhte sich im gleichen Zeitraum um 1 bis 1½ Millimeter pro Jahr.

Quelle: http://trove.nla.gov.au/

The Mercury (Hobart, Tas.: 1860-1954) – 18. Februar 1952

SCHMELZENDES POLAREIS GEFAHR FÜR SEEHÄFEN

Cleveland (AAP) – Dr. William S. Carlson, ein Arktisexperte, sagte gestern Abend, dass die polaren Eiskappen mit überraschender und unerwarteter Stärke schmelzen, und dass dadurch Seehäfen durch einen steigenden Meeresspiegel überschwemmt werden könnten.

Dr. Carlson, Präsident der University of Vermont, sagte der Cleveland Medical Library Association, dass es Hunderte von Jahren dauern würde, bis dieser Effekt einträte, aber die Schmelzrate während des letzten halben Jahrhunderts war außerordentlich hoch.

„Die Gletscher in Norwegen und Alaska“, sagte er, „sind nur noch halb so groß wie vor 50 Jahren. Die Temperatur um Spitzbergen hat sich so stark erhöht, dass sich die Schiffbarkeit von drei auf acht Monate im Jahr verlängert hat“.

Dr. Carlson hat viele Jahre in Grönland als Meteorologe und Geologe verbracht.

Quelle: http://trove.nla.gov.au/

Der Courier-Mail von Montag, dem 6. Mai 1940

Die weitaus größte Zahl lokaler Gletscher im Nordosten von Grönland hat sich während der letzten Jahrzehnte erheblich zurückgezogen, und es ist keine Übertreibung zu sagen, dass sich diese Gletscher einer Katastrophe nähern.

Quelle: http://trove.nla.gov.au/

The Sydney Morning Herald  Friday 13 January 1939

Eisrückzug – Geologen rätseln immer noch

Canberra, Donnerstag – Eines der Rätsel, dass Geologen weltweit Kopfzerbrechen bereitet, ist der fortgesetzte Rückzug der Gletscher. Deutet dieses Phänomen darauf hin, dass die Sonne heißer wird, wie einige Astronomen glauben, oder hängt es von vergleichsweise unbedeutenden Änderungen der Erdatmosphäre ab?

Überlegungen wie diese stellt auch Professor R. Speight an, früher Professor der Geologie am Canterbury College, Christchurch, Neuseeland, und jetzt Kurator des Canterbury-Museums, und zwar in seiner präsidialen Ansprache vor dem Bereich Geologie des Science Congress to-day. Sein Thema lautete „Einige Aspekte der Vergletscherung in Neuseeland“.

Der stetige Rückzug der Gletscher in Neuseeland, sagte er, wurde während der letzten 70 Jahre beobachtet. Photos, die 1896 und 1935 gemacht wurden zeigen, dass sich viele Gletscher zurückgezogen haben, und zwar um 100 m bis eine halbe Meile (ca. 800 m) innerhalb von 40 Jahren.

Weltweites Phänomen

Das Phänomen tritt jedoch weltweit auf. Ähnlich eindrucksvolle Bilder gibt es aus der Schweiz, aus Skandinavien, Island und den USA. Es waren Versuche unternommen worden, diese Beobachtungen in Zusammenhang zu bringen mit dem Bruckner-Zyklus von Klimaänderungen alle 35 Jahre. Prof. Speight sagte dazu, dass es dabei jedoch so viele Diskrepanzen gibt, dass seiner Meinung nach eine präzise Synchronisation mit dieser Periode nicht akzeptiert werden kann.

In Alaska haben sich die Gletscher von 100 bis 200 Jahren zurückgezogen, das ist eine mittlere Rate von etwa 50 Fuß [ca. 15 m] pro Jahr. Der antarktische Eisschild zeigt ebenfalls Zeichen eines kürzlichen Rückzugs.

„Tatsächlich“, sagte Prof. Speight, „gibt es in keiner Region der Welt derzeit Aufzeichnungen über ein Vordringen [von Gletschern]“. Das steht ziemlich außerhalb des generellen Rückzugs seit dem Pleistozän und könnte vielleicht nur eine vorübergehende Phase sein. Die genaue Bedeutung des Phänomens kann nur durch fortgesetzte Beobachtungen bestimmt werden.

http://trove.nla.gov.au/

 

Worker (Brisbane, Qld.: 1890-1955) – Montag, 15. Oktober 1951

DIE WELT WIRD WÄRMER – Gletscher schmelzen

Spotten Sie nicht, wenn Sie einen Oldtimer sagen hören: „Die Sommer sind heißer als gewöhnlich!“ Solche Äußerungen wurden früher in einer Klasse mit Äußerungen wie „Stufen sind steiler als gewöhnlich“ oder „Junge Leute sind heutzutage wilder als zu der Zeit, als ich ein Junge war“. Aber heute ist eine eindrucksvolle Reihe von Wissenschaftlern, alte und junge, davon überzeugt, dass die Oldtimer recht haben, schreibt Gavin Sauter im „Sydney Morning Herald“ von Sonnabend.

Und weiter:

ALTE FARMEN TAUCHEN AUF: Das grönländische Eis schmilzt, und die Reste mittelalterlicher Bauernhäuser, die Jahrhunderte unter dem Eis verborgen waren, sind schon zum Vorschein gekommen. In Spitzbergen ist die jährliche Mitteltemperatur seit 1912 um 4 Grad gestiegen. Schiffe durchkreuzen das Weiße Meer und den Bottnischen Meerbusen drei bis vier Wochen länger als zuvor. In Island und den höheren Breiten von Norwegen bauen Landwirte Gerste in Gebieten an, in denen die Erde früher sieben Monate lang gefroren war. Aber die Ankunft des neuen Klimas ist noch bemerkenswerter, unabhängig von der Schneegrenze. Gletscher zeigen den überzeugendsten Beweis. Der amerikanische Geograph F. E. Matthes berichtete, dass ‚sich Gletscher in fast allen Gebieten der Welt während der letzten 60 Jahre regelmäßig zurückgezogen haben, aber besonders schnell in der Dekade von 1930 bis 1940‘.

SCHRUMPFENDE GLETSCHER: Alle untersuchten Gletscher von Grönland über Skandinavien bis nach Europa schrumpfen. Die Schrumpfung ist nicht auf höhere Breiten begrenzt. Einige Gletscher in den Alpen sind komplett verschwunden. In Ostafrika haben sich die Gletscher auf drei Vulkanen – Kilimandscharo, Mt. Kenia und Ruwenzori – zurückgezogen, seit sie im Jahre 1880 zum ersten Mal gesehen worden sind. Der riesige Muir-Gletscher in Alaska hat sich seit 1902 um volle 14 Meilen [ca. 22 km]  zurückgezogen.

http://trove.nla.gov.au/

The Queenslander (Brisbane), Qld.: 1866-1939 – Donnerstag, 21. Juli 1932

Eine wärmere Welt

Eine weltweit bedeutende Änderung findet auf dem Antarktischen Kontinent statt. Seine Gletscher schrumpfen. Commander L. A. Bernacci, der das Südpolargebiet vor 30 Jahren besucht hatte, sagte, dass die Große Eisbarriere, welche den Kontinent durch eine Eismauer mit einer Länge von 250 Meilen [ca. 400 km] schützte, sich mindestens um 30 Meilen [ca. 48 km] zurückgezogen hatte, seit sie zum ersten Mal gesehen und vermessen worden ist.

Sir James Ross, Leiter der ersten Antarktis-Expedition im 19. Jahrhundert, sowie jene, die ihm nachfolgten, hinterließen klare Beschreibungen dieser gewaltigen Eisbarriere und seiner Lage. Es war wie eine Klippe, 150 ft [ca. 45 m] hoch und 1000 ft [ca. 300 m] dick. Aber jetzt scheint der schon seit einem Jahrhundert andauernde Schrumpfungsprozess weiterzugehen, und dieser Prozess könnte schon seit Jahrhunderten im Gange gewesen sein.

Das könnte darauf hinweisen – sofern nicht eine Eiszunahme in anderen, weniger erkundeten Gebieten der Antarktis dies überkompensiert – dass das Klima des Südpols sich ändert und wärmer wird.

Das Schrumpfen der alpinen Gletscher in Europa ist eine wohlbekannte und gut dokumentierte Tatsache. Professor Buchanan aus Edinburgh hatte schon vor zwanzig Jahren darauf aufmerksam gemacht, und zeigte anhand alter und genauer Zeichnungen des Grindelwald-, des Rhone- und des Morteratsch-Gletschers, dass sich diese rapide zurückzogen.

Dies führte zu einer kontinuierlichen Überwachung der Schweizer Gletscher und auch zu Untersuchungen anderer Gletscher auf der Nordhemisphäre, in Grönland, Alaska und anderswo. Aus diesen Messungen schlossen viele Geologen, dass sich der Nordteil des Globus‘ immer noch von der letzten seiner Eiszeiten erholte, von der die mehr südlich gelegenen Gletscher in Europa ein Relikt sind.

Sollten alle Gletscher der Südhemisphäre und auch die auf der Nordhemisphäre schrumpfen, würden die Geologen ein neues Problem zu untersuchen haben, nämlich anstatt der Beobachtungen von Bewegungen von Kälte und Eis zu beobachten, ob sich nicht der gesamte Globus erwärmt. Selbst wenn man das beweisen könnte, könnte sich die Änderung als nur vorübergehender Natur entpuppen.

http://trove.nla.gov.au/

Die sich ändernde Arktis

(Den folgenden Bericht hat am 10. Oktober 1922 der amerikanischen Konsul in Bergen, Norwegen, an das State Department in Washington D. C. weitergeleitet.)

Die Arktis scheint sich zu erwärmen. Berichte von Fischern, Seehundjägern und Entdeckern, die im Meer um Spitzbergen und in der östlichen Arktis kreuzen, deuten allesamt auf eine radikale Änderung der Klimabedingungen hin, ebenso wie bislang noch nie aufgezeichnete hohe Temperaturen in diesem Teil der Erdoberfläche.

Im August 1922 sandte das norwegische Department of Commerce eine Expedition nach Spitzbergen und zur Bäreninsel unter der Leitung von Dr. Adolf Hoel, Dozent an der University of Christiania. Das Ziel der Expedition war es, die Gebiete um die norwegischen Minen auf diesen Inseln zu vermessen und zu kartographieren, die benachbarten Gewässer zu vermessen und andere ozeanographische Beobachtungen durchzuführen.

Dr. Hoel, der gerade zurückgekehrt ist, berichtete von bislang unbekannten Kohlelagerstätten an den Ostküsten der Advent Bay – Lagerstätten riesigen Ausmaßes und hervorragender Qualität. Dies wird mit allerhöchster Wichtigkeit betrachtet, da bisher die dort abgebaute Kohle nicht von bester Qualität war.

Die ozeanographischen Beobachtungen waren nun jedoch noch interessanter. Die Eisbedingungen waren außerordentlich. Tatsächlich wurde noch nie so wenig Eis angetroffen. Die Expedition stellte nichts Geringeres als einen neuen Rekord auf, als sie bis zu einer Breite von 81°29‘ in eisfreiem Wasser fahren konnte. Dies ist der nördlichste jemals mit ozeanographischer Ausrüstung erreichte Punkt.

Die Eigenschaften der Gewässer im Großen Polaren Becken waren bislang praktisch unbekannt. Dr. Hoel berichtet, dass er einen Querschnitt durch den Golfstrom auf einer Breite von 81° angefertigt und das Wasser bis zu einer Tiefe von 3100 Metern vermessen hatte. Diese Messungen zeigten, wie warm der Golfstrom war, und er konnte ihn als Oberflächenströmung noch bis jenseits des 81. Breitengrades verfolgen. Die Wärme des Wassers macht es möglich, dass die günstigen Eisbedingungen noch eine Weile fortbestehen.

Später fertige man einen Querschnitt durch den Golfstrom bei der Bäreninsel und dem Isfjord sowie einen solchen durch die kalte Strömung, die entlang der Westküste von Spitzbergen in der Nähe des Südkaps fließt.

Im Zusammenhang mit dem Bericht von Dr. Hoel ist es von Interesse, den ungewöhnlich warmen Sommer im arktischen Teil Norwegens zu betrachten sowie die Beobachtungen von Capt. Martin Ingebrigtsen, der in den östlichen arktischen Seegebieten seit 54 Jahren segelt. Er sagte, dass er 1918 zum ersten Mal wärmere Bedingungen beobachtet hatte, und dass es seitdem stetig wärmer geworden ist, und dass die arktischen Gebiete dieser Region nicht wiederzuerkennen sind, wenn man sie mit dem Zeitraum von 1868 bis 1917 vergleicht.

Viele alte Landmarken haben sich so verändert, dass sie praktisch nicht wiedererkennbar sind. Wo es früher große Eismassen gab, findet man heute nur noch Moränen und Ansammlungen von Erde und Steinen. An vielen Stellen sind Gletscher, die sich einst bis weit in das Meer erstreckten, vollständig verschwunden.

Die Temperaturänderung, sagt Capt. Ingebrigtsen, führte auch zu großen Veränderungen der Flora und Fauna in der Arktis. In diesem Sommer suchte er nach Weißfischen in den Gewässern um Spitzbergen. Früher wurden dort große Schwärme von ihnen gefunden. Dieses Jahr hat er noch keinen einzigen gesichtet, obwohl er alle bekannten Fischgebiete abgesucht hatte.

Es gab nur wenige Seelöwen in den Gewässern um Spitzbergen in diesem Jahr, der Fang war weit hinter dem Mittel zurück geblieben. Dies jedoch war für den Kapitän keine Überraschung. Er wies darauf hin, dass die Gewässer um Spitzbergen früher auch im Sommer nicht wärmer als 3°C waren. In diesem Jahr hatte er Temperaturen bis zu 15°C gemessen, und im vergangenen Winter ist der Ozean nicht gefroren, selbst an der Nordküste von Spitzbergen nicht.

Mit dem Verschwinden der Weißfische und der Seelöwen kamen andere Spezies in diese Gewässer. In diesem Jahr gab es entlang der Westküste von Spitzbergen große Heringsschwärme. Auch Stint-Schwärmet wurden angetroffen.

Stephen Goddard

http://docs.lib.noaa.gov/rescue/mwr/050/mwr-050-11-0589a.pdf

Link: http://www.real-science.com/new-giss-data-set-heating-arctic

Übersetzt von Chris Frey für EIKE

Hinweis des Übersetzers: Die Originalartikel wurden zum Vergleich stehen gelassen. Man darf gespannt sein, wie man die Existenz all dieser Berichte künftig leugnen will.




Fördert Ministerin AIGNER Betrugs-Internet-Rechner?

Von: Agentur für Erneuerbare Energien  <presse@unendlich-viel-energie.de>

Datum: 25. Januar 2012 11:43:02 MEZ

An: <i.blachnik@unendlich-viel-energie.de>

Betreff: PM: Bundesministerin Aigner: "Erneuerbare Energien schaffen Arbeit und Einkommen vor Ort"

Sehr geehrte Damen und Herren,
liebe Kolleginnen und Kollegen,

bitte beachten Sie unsere heutige Pressemitteilung:
——–

Bundesministerin Aigner: „Erneuerbare Energien schaffen Arbeit und Einkommen
vor Ort“
Online-Rechner ermittelt Wertschöpfungseffekte durch den Zubau

Berlin, 25. Januar 2012. Die Erneuerbaren Energien schaffen in Deutschlands Kommunen Arbeitsplätze, generieren Steuereinnahmen, schützen das Klima und verbessern die Versorgungssicherheit. Auf welche Beträge sich diese positiven Wirtschaftseffekte Erneuerbarer Energien summieren können, ermittelt ein neuer Online-Wertschöpfungsrechner der Agentur für Erneuerbare Energien, den Bundeslandwirtschaftsministerin Ilse Aigner heute auf der Internationalen Grünen Woche (IGW) in Berlin vorgestellt hat.

„Für die Energiewende in Deutschland kommt den Bürgerinnen und Bürgern eine entscheidende Rolle zu. Engagement und Akzeptanz für den Umbau der Energieversorgung wachsen, wenn sie erkennen, welchen Nutzen die Erneuerbaren Energien vor Ort schaffen. Dafür kann der Wertschöpfungsrechner der Agentur für Erneuerbare Energien eine wichtige Hilfe sein“, betonte Aigner bei der Präsentation des kostenlosen Online-Angebots, das ab sofort im Internet unter www.kommunal-erneuerbar.de freigeschaltet ist.

Der Online-Rechner berücksichtigt für seine Kalkulationen der Wertschöpfung vor Ort die Unternehmensgewinne ebenso wie Einkommen durch Beschäftigung und Steuern an die Kommunen. Nutzer des Rechners können sich für ihre Kommune und Region auch den Anteil Erneuerbarer Energien an der Versorgung ausrechnen lassen. Darüber hinaus kalkuliert der Online-Rechner Klimaschutz- und Jobeffekte, die in den Dörfern und Städten mit dem Umbau der Energieversorgung einhergehen.

Als Glieder der Wertschöpfungskette wird in dem Rechner unterschieden zwischen

• Planung und Installation 
• Betrieb und Wartung sowie der
• Betreibergesellschaft.

Über diese Wertschöpfungsstufen kann der Online-Rechner für 24 unterschiedliche Technologien aus den Bereichen Strom, Wärme, Kraft- und Brennstoffe eine Orientierungssumme in Euro errechnen. Dazu gehören beispielsweise kleine Biogas- ebenso wie Solaranlagen, Erdwärmepumpen, Windräder und die Holzwirtschaft.

„Die Vielfalt erneuerbarer Energiequellen wird künftig eine wichtige Stütze für eine saubere und sichere Energieversorgung sein“, sagte Aigner. In Deutschlands Regionen bestehe je nach örtlichen Gegebenheiten noch erhebliches Potenzial zur Erschließung von Biomasse und von Standorten. „Erneuerbare Energien schaffen in Deutschlands Kommunen Arbeitsplätze, schützen das Klima und verbessern die Versorgungssicherheit“, so Aigner weiter. Gerade im ländlichen Raum stellten die Erneuerbaren Energien ihre Rolle als Jobmotor unter Beweis. Davon profitierten nicht zuletzt die Kommunen, beispielsweise über Einnahmen aus Gewerbe- und Einkommensteuern.

Mehr Wirtschaftskraft und Klimaschutz

Neben dem ökonomischen Nutzen für die Kommunen und Regionen zeigt der Wertschöpfungsrechner auch die positiven ökologischen Effekte, die mit der Energiewende einhergehen können: „Klimaschutz und der Zugewinn an Wirtschaftskraft durch den Ausbau Erneuerbarer Energien gehen Hand in Hand“, erklärte der Geschäftsführer der Agentur für Erneuerbare Energien, Philipp Vohrer. Mit dem Wertschöpfungsrechner bekämen Bürger, Projektierer und Entscheider in den Kommunen zur rechten Zeit ein überzeugendes Instrument für ihre Planungen an die Hand. „Der Ausbau der Erneuerbaren Energien wird in Deutschland vor allem von bürgerschaftlichen Initiativen in den Kommunen getragen“, sagte Vohrer. „Solche Initiativen sind die wahren Stützen der Energiewende.“

Eingebunden ist der Wertschöpfungsrechner in das Informationsportal kommunal-erneuerbar.de der Agentur für Erneuerbare Energien. Er basiert auf einer vom Institut für ökologische Wirtschaftsforschung (IÖW) entwickelten Methodik. Der Rechner entstand auf Grundlage umfangreicher wissenschaftlicher Vorarbeiten des IÖW. In einer Studie hatte das IÖW die kommunale Wertschöpfung durch Erneuerbare Energien für das Jahr 2010 insgesamt auf 10,5 Milliarden Euro pro Jahr beziffert.

Gefördert wurde die Entwicklung des Wertschöpfungsrechners durch das Bundeslandwirtschaftsministerium über die Fachagentur Nachwachsende Rohstoffe (FNR). Weitere Sponsoren unterstützen das Projekt.

SPERRFRIST: 13:45 Uhr

Kontakt:
Agentur für Erneuerbare Energien
Reinhardtstr. 18
10117 Berlin
Alexander Knebel
Pressereferent 
Tel:   030-200535-52 
Mail: a.knebel@unendlich-viel-energie.de
www.unendlich-viel-energie.de

Die Redaktion 

mit Dank an Leser Dr. Stromburg




Germany’s Green Energy Supply Transformation Has Already Failed!

To do this, the former Socialist-Green coalition government, led by Gerhard Schröder, enacted the so-called Renewable Energy Feed-In Act (EEG) in 2000. This Feed-In Act requires electric utilities to buy all renewable energies, such as solar and wind power, from all producers at fixed, exorbitant rates and to feed it into the power grid for a period of 20 years. This has led to a boom as thousands of homeowners, businesses, and investors have installed thousands of megawatts of solar and wind power capacity over the years. The current Conservative-Liberal government, not to be outdone by its predecessor, is also gleefully pushing the Feed-In Act to the limit.

Weather-dependent supply wreaking havoc on the power grid

The problem is that these energy sources are weather-dependent and thus their sporadic supply is starting to wreak havoc on Germany’s power grid and is even now threatening to destabilize power grids all across Europe. The other problem: the power grid needed to distribute the decentrally produced green power is simply not there yet. They forgot to build it! So far, after tens of billions of euros spent on renewable energy systems and higher prices for consumers, not a single coal or gas-fired power plant has been taken offline. To the contrary, old inefficient plants have been brought back into service in an effort to stabilize the grid.

In a panic reaction, Germany shut down 8 nuclear power plants

To make matters worse, in a fit of panic and hysteria, the German government shut down 8 of its older 18 nuclear reactors in the wake of the Fukushima disaster, thus removing a very cheap and stable supply of power and further pushing the grid to the limits. Before the shutdown of the nuclear reactors, Germany had been a net power exporter; today it is a net power importer and is at times severely straining neighboring power grids. To compensate for the missing nuclear power, the government is now heavily promoting even more weather-dependent wind power, which is further destabilizing the German and European power grids. A solution to the problem of storing electricity is still at least a generation away.

The question of course is how could such absurd decisions have been made to begin with? Were there no experts involved in the planning of the new power generation infrastructure? The answer obviously is no. Power executives are viewed as evil, dirty and greedy polluters, and thus were never really consulted. They could not be counted on to give the politically correct solutions. Therefore the decision to shut down the German nuclear power plants and to massively support renewables was done unilaterally by the government, without consulting the power executives or even neighboring countries.

Offshore wind parks, but no transmission lines to industrial regions!

Now that the damage is spreading, Germany’s utilities are now struggling to keep the grid stable and to fill in the power gap left by the shut-down of nuclear reactors. To do this the German government has ordered the installation of large-scale wind parks in the North and Baltic seas, in addition to the re-commissioning of mothballed, inefficient coal-fired plants. This overall energy production transition from nuclear and fossils over to “renewables” is dubbed by German officials as the Energy Supply Transformation. Construction of the offshore wind parks is now progressing rapidly. But there’s just one problem: the huge high voltage power transmission lines needed to bring their power to Germany’s industrial heartland to the south are missing! More than 3000 km of these lines are needed, but are nowhere near in sight. The government forgot about those too!

Activists groups blocking grid expansion

Building the power transmission lines quickly across the landscape will be a virtually impossible task. Activist groups have long since organized and are effectively blocking their approval and construction. So far only a measly 214 km have been built. As a result, surplus wind power cannot be delivered to the markets, and thus either has to be destroyed, dumped on the market at “negative prices”, or wind park owners are simply ordered to stop generating. No problem though – paragraph 12 of Germany’s Energy Feed-In Act requires electric utilities to pay for the electricity that they ask not to have produced! Technically, there is an incentive for wind parks to destabilize the grid.

Eventually all these costs add up and in the end they get passed along to the consumer. Under the bottom line, consumers have to pay more and more, and for a lower and lower quality supply. German industry is getting nervous and surveys show that many are leaving Germany, or are planning to do so. They no longer view Germany’s power supply as reliable.

In a death spiral…”will fail spectacularly”

Dr. Guenter Keil’s report focusses in detail on the amazing absurdities of Germany’s Renewable Energy Feed-In Act and the country’s utopian Energy Transformation. The government, through intrusive meddling and ballooning bureaucracy, has maneuvered Germany’s energy supply system into a vicious death spiral: the more the government intervenes, the greater the mess becomes. And the greater the mess becomes, the more the government intervenes! Dr. Keil concludes:

Germany’s energy transformation has already failed. For Germans, the outlook is bleak. …the planned mismanagement is heavily damaging the economy and will fail spectacularly some years later because its economic and social costs will have become unbearable. The question remaining open is how many billions of euros will have to be destroyed before a new energy policy (a new energy transformation?) picks up the shattered pieces.”

So it’s no wonder that according to a survey of experts from 21 national committees by the World Energy Council, 0% said they could imagine their own country completely taking over the German political approach. An equal number believe Germany will reach its stated targets.

Germany’s model will serve as a classic lesson on how not to handle energy production and management.

Michael Limburg; with thanks to Pierre Gosselin from notrickszone for excellent translation support

Dr. Guenter Keil was a scientific employee at the Technical University of Munich / Fraunhofer Society, as well as Project Support at the Federal Research Ministry.

For downloading full undefinedreport & undefinedpress release here or see files attached (remark: Downloads of .doc pressrelease with SAFARI seems not to work, FIRFOX workfs fine)

Contact EIKE or Michael Limburg at: m.limburg@eike-klima-energie.eu

Die deutsche Version finden Sie hier-The german version you´ll find here.

Related Files




Es ist „tote Hitze” – Amerikaner: globale Erwärmung ist das geringste Problem

*Das ist eine Anspielung auf die publicitywirksam angekündigte Fahrt von Al Gore, Hansen und Trenberth zur Antarktis.

Das Pew Research Center veröffentlichte eben ihre jährliche Umfrage, und die globale Erwärmung steht nicht nur an letzter Stelle, sondern auch an letzter Stelle der Bedeutung von 22 Themen, zu denen die Öffentlichkeit befragt worden ist. Wer da glaubt, dass „Klimagate“ keinen Einfluss habe, sollte das noch einmal überdenken. Außerdem erhält das Thema Energieprobleme als politische Angelegenheit doppelt so viel Aufmerksamkeit wie die globale Erwärmung. Im Grunde ist die globale Erwärmung damit „tote Hitze“. Siehe Graphik rechts oben.

In ihrer Presseerklärung heißt es:

Mit dem Näherrücken der State of the Union Address [die jährliche Fernsehansprache von Präsident Obama zur Lage der Nation] sind für die Öffentlichkeit wirtschaftliche Belange weiterhin von höchster Priorität. Ganze 86% sagen, dass die Stärkung der Wirtschaft in diesem Jahr die höchste Priorität für den Präsidenten und den Kongress haben sollte, und 82% sehen die Schaffung von Arbeitsplätzen als höchst prioritär an. Keines der anderen 20 Themen, die in dieser jährlichen Umfrage angesprochen worden waren, hat laut 70% aller Amerikaner hohe Priorität.

Seit die Frage nach der Priorität politischer Themen zum ersten Mal im Jahre 2007 gestellt worden ist, hat die Zahl der Amerikaner, die die globale Erwärmung als höchst prioritär ansehen, von 38% auf 25% abgenommen. Von den Demokraten sehen das noch 38%, von den Republikanern 11% als prioritär an. Aber der Rückgang erfolgte parteiübergreifend: 2007 waren es noch 48% der Demokraten, die die globale Erwärmung ganz nach oben auf die politische Agenda setzten, und 23% der Republikaner.

Anthony Watts

Den ganzen Bericht als .pdf (36 Seiten) findet man hier.

Link: http://wattsupwiththat.com/2012/01/23/its-dead-heat-americans-rate-global-warming-last/

Übersetzt von Chris Frey für EIKE




Klima-Kälte-Trend in der Antarktis

Eine regelmäßige und systematische meteorologische Erfassung von Wetter und Klima in der Antarktis begann erst nach dem zweiten Weltkrieg. Die erste ständig besetzte und messende Station wurde 1947 von den USA eingerichtet: „Little America“ im McMurdo-Sund (Abb.1) Eine erhebliche Ausweitung von Stationen und damit von Messungen am Boden und in der Atmosphäre mit Radiosonden fand seit dem Internationalen Geophysikalischen Jahr 1957 statt. Danach waren es etwa 40 wissenschaftliche Basen [1]. 1981 wurde die ständig mit Personal besetzte deutsche Forschungsstation „Georg von Neumayer“ auf dem Ekström-Schelfeis errichtet  (Abb. 1).
(Abb. 1).

Abb. 1 Lage von ausgewählten AA-Stationen
Die historische Entwicklung der AA-Basen ist etwas unübersichtlich aufgrund von Auflösungen, Verlegungen und Neueinrichtungen sowie nur temporär und/oder saisonal besetzter Stationen. Eine für den Zeitraum 1980-2006 für ca. 40 Stationen zusammen gestellte Studie ermöglicht Aussagen zu Temperatur-Trends der Antarktis (Abb. 2).

Abb. 2 [2]

AA-Stationen mit Temperatur-Trends

„The blue circles represent cooling trends

from 1980 to 2006 where the trends are proportional to the circle areas“

Das Ergebnis:

Nahezu die gesamte Antarktis ist innerhalb der vergangenen 30 Jahre kälter geworden. Die einzige wesentliche Ausnahme ist die Antarktische Halbinsel.

Das hat meteorologische Gründe: Die AA-Halbinsel liegt in der Westwindzone der Südhemisphäre. Dieser südhemisphärische Westwind-Gürtel unterliegt stochastischen zyklischen Luftdruck-Schwankungen, wie auch alle anderen globalen Windsysteme. Daher wird analog zu den Schwankungen des Luftdruckgürtels in den gemäßigten Breiten der Nordhalbkugel, der sogenannten Nord-Atlantischen Oszillation NAO, auch für die Südhalbkugel ein solcher Index berechnet: Die Ant-Arktische Oszillation AAO.

Dazu ist im „Wetter-Lexikon“ [3] zu lesen:

„Unter der Antarktischen Oszillation (kurz: AAO) versteht man die Schwankung des Luftdruckgegensatzes zwischen dem 40. südlichen und 65. südlichen Breitengrad. Das heißt, diese Oszillation ist durch den Luftdruckgegensatz über dem Südpol und den subtropischen Regionen beziehungsweise den mittleren Breiten der Südhalbkugel definiert. Die Stärke der AAO wirkt sich auf das Windregime in den mittleren und höheren Breiten der Südhalbkugel aus. Die AAO beeinflusst demnach das Klima über einem Großteil der Südhemisphäre, zum Beispiel in der Antarktis, in Australien und in Teilen des südlichen Südamerikas. 

Aus den Luftdruckgegensätzen lässt sich der AAO-Index herleiten. Wenn der AAO-Index negativ ist, dann ist das Kältehoch über der Antarktis stark ausgeprägt. Die polaren Ostwinde wehen kräftig rund um den Südpol. …. In der positiven Phase verschiebt sich die Westströmung südwärts, so dass im südlichen Südamerika und in Australien mehr Regen als im langjährigen Durchschnitt fällt. Zudem kann sich die milde Luft zum Teil bis zur antarktischen Küste durchsetzen.“

… wovon dann insbesondere die AA-Halbinsel betroffen ist!

Den Verlauf des AAO-Index 1948-2002 zeigt die Abb. 3 : Vor etwa 1980 gab es eine Dominanz von meridionalen Wetter-Lagen, während seitdem zonale Wetterlagen stark überwiegen. Das bedeutet eine Verstärkung der Westwind-Zirkulation und damit der Sturm-Aktivität. Gleichzeitig wird damit häufiger mildere Luft vom Pazifik gegen die AA-Halbinsel geführt. Somit führen Stürme mit milderer Luft vom Pazifik her an der AA-Halbinsel thermisch zu Eis-Schmelz-Prozessen und mit höheren Wellen mechanisch zu überdurchschnittlichem Abbrechen von Eis. Bekannt geworden sind dabei in jüngerer Zeit Eisabbrüche (Eisberge) beim Wilkins-Schelfeis an der Westküste der AA-Halbinsel.

Die Ursachen sind also meteorologischer Natur und haben mit irgend einer „Klima-Katastrophe“ nichts zu tun.

Ohnehin: Im Rahmen der Klima-Betrachtung der gesamten Antarktis ist die AA-Halbinsel mit kaum 1% der AA-Fläche nur eine Marginalie.

Abb. 3 [4]

Antarktische Oszillation (AAO)

Der Abkühlungs-Trend der Antarktis reicht jedoch offensichtlich zeitlich erheblich weiter zurück als über die o.a. ca. 30 Jahre, nämlich mindestens über mehr als ein halbes Jahrhundert. Das zeigt eine der längsten ununterbrochenen antarktischen Temperatur-Reihen, nämlich die der Amundsen-Scott-Station der USA am Südpol – vgl. Abb. 4.

Abb. 4 [2]

Abkühlungs-Trend der Amundsen-Scott-Station am Südpol 1957-2008

In einer aktuellen Verlautbarung [5] dokumentiert auch das Alfred-Wegener-Institut (AWI) einen 30-jährigen Abkühlungstrend an der deutschen Neumayer-Station (70°S). Dieses ist nach der Definition der Weltorganisation für Meteorologie (WMO) zugleich ein Klima-Trend, wozu das AWI schreibt: „Das meteorologische Observatorium an der antarktischen Neumayer-Station III gilt von nun an ganz offiziell als Klimabeobachtungsstation, denn seit 30 Jahren messen die Meteorologen des Alfred-Wegener-Institutes für Polar- und Meeresforschung … täglich die Lufttemperatur in der Antarktis.“

Das Ergebnis der Messungen hat das AWI in einer Graphik mit linearem Regressions-Trend veröffentlicht (Abb. 5) :

Abb. 5 [5]

Temperatur-Abkühlungs-Trend an der NEUMAYER-Station

Dabei mutet allerdings die Formulierung des AWI [5] zu diesem Abkühlungs-Trend eigenartig an: „Ein Ergebnis der Langzeitforschung: An der Neumayer-Station ist es in den vergangenen drei Jahrzehnten nicht wärmer geworden.“

In der Tat  – nein! Es ist nämlich kälter geworden. Warum diese verschwommene unscharfe Formulierung mit „nicht wärmer“, wenn doch der wissenschaftliche Befund der Meßreihe eindeutig ist: Es gibt (auch!) an der Neumayer-Station einen AA-Klima-Trend zur Abkühlung!

A b e r  –  der AWI-Formulierungs-Merkwürdigkeiten sind noch mehr:

„Diese Entwicklung sei jedoch eine regionale Veränderung und die Messwerte von der Neumayer-Station III keinesfalls repräsentativ für die globalen Klimaveränderungen.“ [5].

Hier drängt sich doch die Frage auf: Was soll das ? Wer könnte auf die Idee kommen, aus regionalen Klima-Trends globale Schlussfolgerungen zu ziehen ? Oder „soll“ gar Niemand auf die Idee kommen, daß es ein „GLOBAL Warming“ eben „global“ nicht gibt ?!

Jedoch  –  noch weitere Merkwürdigkeiten stehen in der AWI-Verlautbarung [5]:

„Nur im Zentrum der Antarktis ist es nicht wärmer geworden.“

Zunächst:

Die Neumayer-Station mit ihrem Abkühlungs-Tend liegt 20 Breitengrade vom Südpol entfernt.

Weiterhin:

Die in unserem Aufsatz hier weiter oben und auch in Folgendem dargelegten Messungen und Fakten zeigen etwas ganz anderes.

Nämlich: Mit Ausnahme der AA-Halbinsel (<1% der AA-Fläche) gibt es in der AA einen Abkühlungs-Trend, der sogar auch das umgebende Meer-Eis umfaßt :

„Sowohl der UAH-, als auch der RSS-Datensatz* zeigen, dass die Temperatur rund um die Antarktis von 1979 bis heute um einige Zehntel Grad gefallen ist. Die Temperaturanomalie ist in beiden Datensätzen unter Null gefallen, d.h. unter den langjährigen Referenzmittelwert.“ [6]   )* Anm.: UAH = University of Alabama in Huntsville; RSS = Remote Sensing Systems).   

Dazu die Abbildungen 6 a) + b).

Abb. 6  [6]

a) Temperatur-Trends zwischen 60-70°S (Meer-Eis, UAH)

b) Temperatur-Trends zwischen 60-70°S (Meer-Eis, RSS)

c)  Trend der Eis-Ausdehnung (Fläche)

Wenn es kälter wird, dann wächst auch die Fläche des schwimmenden Eises:

„Dementsprechend verwundert es auch nicht, dass die antarktische Meereisausdehnung seit 1979, von im Mittel knapp unter 12 Mio. km2 auf knapp über 12 Mio. km2 Fläche, angewachsen ist.“ [6], vgl. auch Abb. 6c.

Und im AA-Winter 2007 wurde sogar ein neuer Flächenrekord beobachtet:

„… Antarctic sea ice area reached 16.2 million squared kilometers in 2007 – a new absolute record high since the measurements started in 1979.“ [7]

Abb. 7

Eis-Trend der AA 1979-2008

Alle hier dargelegten Fakten widerlegen auch das von einigen IPCC-Klimaforschern und vielen Medien gebetsmühlenartig wiederholte Horror-Szenario, daß es durch ein künftig schnelles oder sogar schon begonnenes Abschmelzen der Antarktis rasch zu einem dramatischen Anstieg des Meeres-Spiegels um etliche Meter komme.

Dazu sagt der AWI-Vizedirektor Prof. Miller [8], daß „…Grönland zwar sehr wahrscheinlich an Masse verlieren wird, aber dieser Massenverlust durch verstärktes Abschmelzen in Grönland wird kompensiert durch eine Eiszunahme in der Antarktis“, und weiter a.a.O. „… nach den von uns berechneten Szenarien kommen wir zu dem Schluß, daß Veränderungen der großen Eismassen keinen Beitrag zu einem Meeresspiegelanstieg leisten werden“

Und an anderer Stelle [9] : „Die Daten von Nord- und Südpol widerlegen düstere Prophezeiungen, der Meeresspiegel könne in kurzer Zeit um mehrere Meter ansteigen. Bis das Grönlandeis schmilzt, vergehen mehr als tausend Jahre“, versichert Miller, “denn es war in der Vergangenheit auch deutlich wärmer als heute, ohne dass die riesigen Gletscher verschwanden.“

Und das gilt dann wohl erst recht für die Antarktis: „Im antarktischen Inlandeis sind etwa 90 Prozent des Eises und knapp 70 Prozent des Süßwassers der Erde gebunden“ [10].

Klaus-Eckart Puls, EIKE

Q u e l l e n :

[1]  http://www.antarktis-station.de/antarktis/geschichte/index.php

[2]  Ken Gregory; Antarctica is Cooling, 03.03.2009;

http://www.friendsofscience.org/assets/documents/AntarcticaCooling.pdf

[3]  Wetter-Lexikon; http://www.wetteronline.de/wotexte/redaktion/lexikon/aao.htm

[4]  http://www.jisao.washington.edu/aao/

[5]  Meteorologisches Observatorium wird Klimabeobachtungsstation – 30 Jahre Temperatur-

Messungen an der Antarktis-Forschungsstation Neumayer, 12. Januar 2012;

http://www.awi.de/de/aktuelles_und_presse/pressemitteilungen/detail/item/folgt/?cHash=acc63058b16e59b4ceee3ab9bb04c797

[6] Die Temperatur im Bereich des antarktischen Meereisgürtels sinkt und die Meereis-

Ausdehnung wächst,11 November, 2008 ;

Die Temperatur im Bereich des antarktischen Meereisgürtels sinkt und die Meereisausdehnung wächst

[7]  Antarctic Sea Ice at Record High, September 12, 2007 ;

Antarctic Sea Ice at Record High

[8]  Interview mit Professor Dr. Heinz Miller, Stellvertretender

Direktor des Alfred-Wegener-Instituts. Er beschäftigt sich als Geophysiker mit Klimarekonstruktion und Eisdynamik, 03.11.2007 ; http://www.awi.de/de/aktuelles_und_presse/bild_film_ton/tonbeitraege/miller_3112007_klimawandel/

[9]  Heinrich Miller, AWI, in: Bohrer im Eis, DIE ZEIT, 06.06.2007 , S.40

[10] WIKIPEDIA: http://de.wikipedia.org/wiki/Antarktischer_Eisschild




Der WDR und die Wahrheit: Yogeshwars Blackout!

Die Antwort ist: leider Nein – eher war das Gegenteil der Fall. 

Doch der Reihe nach: Den Anfang machte Quarks mit einer anschaulichen Darstellung der Folgen, die ein überregionaler oder landesweiter Stromausfall haben würde. Schon nach wenigen Tagen treten ernsthafte Versorgungsengpässe, wenig später versänke das Land im Chaos. So weit, so richtig – und so Besorgnis erregend. 

Wer jetzt gespannt darauf wartete, ob Rangar Yogeshwar es vielleicht wagen würde, eine realistische Darstellung des Zustands des deutschen Stromnetzes und dessen Ursachen zu bringen sollte enttäuscht werden. 

Ja, das Stromnetz sei anfällig, aber das läge nur an der zentralen Energieerzeugung durch wenige Großkraftwerke, die Energieübertragung durch (zu) wenige Hochspannungsleitungen und dem Umstand, dass Strom nicht dort erzeugt wird, wo er gebraucht wird . Nun kann man durchaus der Meinung sein, dass das deutsche Energieverteilungsnetz eine gewisse Modernisierung vertragen könnte. Auch ist die Forderung nach mehr Resilienz bspw. durch redundante Auslegung bei einem so überlebenswichtigen Gut wie elektrischer Energie sicher nicht abwegig. 

Leider verschweigt uns Quarks aber, warum die Wahrscheinlichkeit für Netzausfälle in der Tat angestiegen. Dafür gibt es nämlich zwei einfache Gründe. Da ist zum einen die ständig zunehmende Zwangseinspeisung „erneuerbarer“ Energie. Diese führt aufgrund ihrer Volatilität zu Schwankungen im Netz, die durch konventionelle Backup-Kraftwerke zeitnah ausgeglichen muss. Zum anderen hat der nach Fukushima durchgepeitschte Ausstieg aus der Kernenergie zu zusätzlichen Belastungen der Netze geführt.

In der Welt des Rangar Yogeshwar wäre dies aber alles nicht grundsätzlich problematisch.  Alles Übel ließe sich abwenden, wenn wir nur wirklich ernsthaft die „Energiewende“ voranbrächten, bspw. das Land mit Sonarpaneelen und Windrädern vollstellen oder die Deutsche Bucht mit einer ausreichenden Menge Signalmasten (die mit den großen Rotoren) für die Vogelwelt versehen. Die entstehende dezentrale Erzeugungsinfrastruktur muss dann ja lediglich noch mit ein paar Tausend Kilometern Hochspannungstrassen verbunden und ausreichend Stromspeichern versehen werden – und fertig ist das Energie-Wunderland nach Quark(s)-Manier. Elfen, die Einhorn-Mist in Biogasanlagen schaufeln, inklusive.

Welche technischen, planerischen oder finanziellen Herausforderungen mit dieser Vision verbunden sind, thematisiert die Sendung leider nicht wirklich. Eine gelungene und auch für Laien nachvollziehbare Übersicht der absehbaren Probleme liefert Günter Keil "Die Energiewende ist schon gescheitert" 

Anscheinend ist auch der Quarks-Redaktion nicht gänzlich verborgen geblieben, dass vielleicht doch nicht alles ganz so einfach ist. Und so werden prophylaktisch schon mal die Schuldigen für zukünftige Probleme bei der Stromversorgung ausgemacht. Es sind – natürlich – die Energieversorger, die sich um ihrer Profite wegen einem Wandel zum Guten mit aller Macht entgegen stemmen. Der interessierte Beobachter darf sich also bei zukünftigen Netzausfällen auf lustige Verschwörungstheorien über deren Ursache freuen.

Gegen Ende der Sendung lernen wir noch das Smart Meter kennen, mit dessen Hilfe der Stromkunde seine Kosten optimieren könne, indem er Strom dann verbraucht, wenn er verfügbar und damit billiger ist. Umgekehrt zahlt mehr, wer in Zeiten knappen Angebots Strom nutzen möchte. Das hört sich zunächst gut an, bedeutet aber in der Praxis für den Durchschnittsbürger eher höhere Energiekosten. Welcher Arbeitnehmer-Mehrpersonenhaushalt ist schon in der Lage, im durchgetakteten Alltag auch noch die jeweils billigsten Zeitfenster für den notwendigen Betrieb elektrischer Geräte zu nutzen? Waschen nachts um drei im Mietshaus? Den Sonntagsbraten sicherheitshalber nur noch an windigen Wochenenden auf den Speiseplan setzen? Licht einschalten nur, wenn im Sommer mittags um 12 die Sonne gerade auf Solaranlagen knallt? Viel Vergügen.

Aber das ficht die Macher von Quarks nicht an: Vielmehr wird dem Zuschauer ausdrücklich mit auf den Weg gegeben, er habe nun einmal in der schönen neuen Energiewelt seine Nachfrage an das Angebot anzupassen. Nach dieser Logik müsste bei Klopapier-Mangel auch mal der Stuhlgang auf nächste Woche verschoben werden…

Sehr geehrter Herr Yogeshwar: wenn es ein untrügliches Zeichen für die prinzipielle Dysfunktionalität eines Versorgungssystems gibt, dann ist es der Umstand, dass es nicht in der Lage ist zu liefern, wenn Bedarf besteht! Solche Systeme konnten wir bis 1989 zwischen Elbe und Wladiwostok besichtigen. Sie haben sich nicht bewährt.

Deutschland braucht eine verlässliche und bezahlbare Stromversorgung – und keine gigantische Rube-Goldberg-Maschine.

Nachtrag: Die Ausstrahlung der Quarks-Sendung fiel in eine Woche, in welcher 
der SPIEGEL eine vernichtende Bilanz der Solarstromförderung zieht. 
laut DIHK 58 % der deutschen Unternehmen Stromausfälle befürchten und 
der CEO des Siemens-Sektors Energy den Investitionsbedarf im Energiesektor allein in Deutschland bis 2030 auf 1,7 Billionen Euro veranschlagt.

Hier der Auszug aus der Meldung von Reuters

Germany’s exit from nuclear power raises the amount of investments needed in the German power sector to as much as 1.7 trillion euros ($2.15 trillion) by 2030, or two thirds of the country’s GDP in 2011, according to Siemens, which built all of Germany’s 17 nuclear plants.

Autor – Rainer Schulze, zuerst erschienen auf ACHGUT




Geoengineering: Zauberlehrlinge in den Startlöchern: Klima-Klempner setzen auf Plan B zur Weltrettung

Schon vor Jahren regte Chemienobelpreisträger Paul J. Crutzen an, mithilfe von Satelliten, Heißluftballons oder Großflugzeugen Millionen Tonnen Schwefel- und Aluminium-Aerosole oder auch Nanopartikel in der Stratosphäre zu versprühen, um die Luft zu trüben oder die Wolkenbildung zu verstärken und dadurch einen größeren Teil des Sonnenlichts ins All zu reflektieren. Damit sollte die zur größten Gefahr erklärte Erderwärmung durch den „CO2-Treibhauseffekt“ aufgehalten werden. (Wer nach „Geoengineering“ googelt, stößt übrigens unvermittelt auch auf das Stichwort „Chemtrails“ und damit auf die Vermutung, einige der vorgeschlagenen Techniken zur Trübung der Erdatmosphäre würden längst erprobt.)

 Andere Wissenschaftler, angeführt vom US-Klimaforscher Alan Robock, warnen jedoch vor unerwünschten Nebenwirkungen. Denn Schwefel-Aerosole können die Ozonschicht schädigen, die uns vor ultravioletten Strahlen schützt, und auf der Erde sauren Regen niedergehen lassen. Obendrein sind sie eindeutig gesundheitsschädlich. Deshalb wurden in Europa Kohlekraftwerke mit aufwändigen Filtern ausgerüstet, um das giftige Schwefeldioxid in Gips zu binden. Es wäre ein Treppenwitz der Geschichte, würde man die bisherigen Erfolge im Umweltschutz wieder aufs Spiel setzen, um einer rein hypothetischen Gefahr zu begegnen. Denn kaum etwas spricht derzeit dafür, dass sich die im 20. Jahrhundert registrierte leichte globale Erwärmung im 21. Jahrhundert fortsetzt.

 Eine vor kurzem im Wissenschaftsmagazin „Science“ veröffentlichte Studie eines Teams von 24 NASA-Experten empfiehlt dagegen andere Maßnahmen, die gleichzeitig die Atemluft gesünder machen würden. Und zwar die Eindämmung des Ausstoßes des „Treibhausgases“ Methan mithilfe der Abdichtung von Lecks im Bergbau, bei der Förderung und beim Transport von Erdgas und beim Betrieb von Mülldeponien sowie das Trockenlegen von Reisplantagen und eine Verminderung der Pupser von Wiederkäuern. Das zweite vorgeschlagene Maßnahmenbündel betrifft die Verminderung des Rußausstoßes durch den Einbau von Rußfiltern in Dieselfahrzeuge, die Verminderung des Abbrennens abgeernteter Felder und der Brandrodung sowie die Verbreitung moderner Kochöfen in armen Ländern. Man fragt sich allerdings, wie die Verminderung des Ruß-Eintrags in die Atmosphäre die globale Erwärmung aufhalten soll, denn bislang wurde Ruß eher für die zeitweise Abkühlung in den 60er und 70er Jahren des 20. Jahrhunderts verantwortlich gemacht.

 Eine andere theoretische Möglichkeit, der Atmosphäre das für schädlich gehaltene CO2 zu entziehen, wurde bereits in einem deutsch-indischen Großexperiment namens „Lohafex“ getestet: Das AWI Alfred-Wegener-Institut (Bremerhaven) wollte mit dem Forschungsschiff „Polarstern“ durch die Düngung des südlichen Polarmeeres mit  sechs Tonnen Eisenspänen eine Massenvermehrung einzelliger Algen („Algenblüte“) auslösen. Die Algen sollten den oberen Wasserschichten CO2 entziehen und den aufgenommenen Kohlenstoff nach ihrem Absterben in Form von Kalk am Meeresgrund ablagern. Doch das Experiment ging schief. Die beteiligten Wissenschaftler hatten nicht bedacht, dass die Algen lange vor ihrem natürlichen Absterben zur Beute gefräßiger kleiner Ruderfußkrebse werden, die das CO2 wieder ausatmen.

 Der Ausgang dieses Experiments zeigt, dass die Natur den Menschen nur selten den Gefallen tut, sich modellkonform zu verhalten. Alle Ansätze von Geoengineering beruhen aber auf einer Gleichsetzung von Modell und Realität. Sind schon die Zusammenhänge im Ozean kaum überschaubar, so gilt das erst recht für den Strahlungshaushalt der Atmosphäre. Niemand kann einigermaßen realistisch abschätzen, was überaus teure großtechnische Eingriffe in die Zusammensetzung der Atmosphäre letzten Endes bewirken werden: Sie können möglicherweise infolge von Gegenreaktionen völlig verpuffen, unter ungünstigen Umständen vielleicht aber auch unkontrollierbare Kettenreaktionen auslösen. Dennoch fordert Dr. Sabrina Schulz, die bei der Stiftung Neue Verantwortung für Geoengineering zuständig ist, in einem in der „Financial Times Deutschland“ veröffentlichten Kommentar, angesichts des absehbaren Scheiterns der Durban-Konferenz dürfe keine Option ausgeschlossen werden:„Geoengineering kann Bestandteil einer verantwortlichen Vorsorgepolitik sein“, schreibt sie. „Deutschland ist auch als innovativer Technologiestandort gefordert, sich hier zu positionieren. Gezielte Forschung könnte so bzu Geoengineering der Marke ‚risikogeprüft – made in Germany’ führen.“ Gott bewahre uns vor diesen Klima-Klempnern!

Edgar Gärtner EIKE

erschienen zuerst bei ef hier

Internet:

zwei Beiträge von Klaus Puls EIKE im Magazin Laufpass hier und hier 

Stiftung Neue Verantwortung

Paul Crutzen: Albedo Enhancement by Stratospheric Sulphur Injection

Alan Robock on Geoengineering

Simultaneously Mitigating Near-Term Climate Change and Improving Human Health

Forscher finden einfachste Wege zur Klimaabkühlung

Ein 14-Punkte-Plan für den Weg aus der Klimafalle

AWI: „Lohafex“ provides insides in plancton ecology

Sabrina Schulz: Schwefelt den Himmel, düngt die Meere!




Was sind Querregler und wozu braucht man sie? – Europäisches Stromverbundnetz zum Schutz vor Kraftwerks-Ausfällen-

Update 24.1.12 Neueste Meldung

Industrie soll Prämie bei Stromabschaltung erhalten

Firmen, die bei Engpässen auf Strom verzichten, sollen entschädigt werden. Die Kosten landen über das Netzentgelt beim Verbraucher, berichtet die FAZ
Große Energieverbraucher in der Industrie sollen künftig Geld bekommen, wenn ihnen im Notfall der Strom abgestellt werden kann. Das sieht eine vom Bundeswirtschaftsministerium erarbeitete „Abschaltverordnung“ vor, wie die „Frankfurter Allgemeine Zeitung“ berichtet…

Text:

Im Europäischen Verbundnetz (Drehstrom 220/380 kV) werden Querregel-Transformatoren großer Leistung — Übersetzung 400 kV/400 kV – für verschiedene Aufgaben der Lastflußsteuerung eingesetzt. Dazu zählen Richtbetrieb, Vermeidung von Ringflüssen und Belastungsausgleich im Netz. Die Wirkungsweise beruht auf der zwischen Eingangs- und Ausgangsspannung in kleinen Schriften regelbaren Phasenverschiebung.
Im Leerlauf kann eine Verschiebung bis zu plus/minus 24Grad (zeitl=1,33) msec erreicht werden und damit ein entsprechender Energiemangel oder Energieüberschuss im Netz nachgebildet werden. Für die Fernbedienung in der zuständigen Netzleitstelle müssen die notwendigen Steuerbefehle, Stellungsmeldungen und Meßwerte übertragen werden. Die Investitionskosten für einen Querregeltransformator großer Leistung, z.B. 1200 MVA, einschließlich der zugehörigen Hochspannungschaltfelder im Umspannwerk liegen in Millionenhöhe.
Die übergeordnete Steuerung übernimmt die Netzregelzentrale, die sagt, das ein kontinuierlicher Lastfluß von z.B. 750 MW aus dem Netzgebiet 50Hz in das angrenzendes Netzgebiet Polen vereinbart ist. Bläst nun der Wind zu stark, wird der Querregler aktiv und suggeriert dem 50Hz-Netzgebiet, durch simuliertes Frequenz-Voreilen, das die vereinbarte Lastmenge schon überschritten ist. Tatsächlich jedoch ist im polnischen Netz heile Welt, und die Deutschen Wind-Katastrophen-Heinis können nur noch ihre WKA vom Netz nehmen oder den Blackout erfahren.

Dieses Abwehrverhalten kann nun je nach aktueller Konstellation die verschiedensten auch unerwünschten Auswirkungen haben und defacto wird durch sie das Subsidiaritäts-Prinzip der UCTE ausgehebelt. Es fragt sich, wie lange die Deutschen Anrainerstaaten diese Beträge aufwenden wollen, um proforma weiterhin den fiktiven Anspruch eines Europäischen Verbundnetzes zu erfüllen. Der BDEW sah sich auf meine Nachfrage hierfür nicht zuständig (kann ich sogar akzeptieren.)

Die DENA wiederum als Agitprop-Organisation der „Energiewende“-Politiker bringt den Sachverhalt in die Öffentlichkeit, um mit dem Phantom-Argument „vergeudeter Öko-Strom“ die Bereitschaft des Stromverbrauchers zu wecken, mehr fürs Netz zu bezahlen und die Strecken nicht über BI zu bekämpfen bzw. die dort engagierten ehrenwerten Bürger zu diskreditieren.

Für das grundsätzliche Verständnis des Netzbetriebes empfiehlt sich diese WEB-Site des Netzbetreibers Amprion:

Wer nun verstehen will, warum allein unter Berücksichtigung der hier skizzierten Problematik Smart-Grids ein Wunsch- oder Alptraum (politisch oder technisch) sind, möge sich etwas mit der Diplomarbeit eines Informatikers Fürst aus Dortmund auseinandersetzen:
Entwicklung eines verteilten Koordinierungsverfahrens für Leistungsflussregler in Energieübertragungsnetzen.
Spätestens, wenn man diese Arbeit verstanden hat, weiß man, dass die Energiewende nichts anderes ist als eine große Stromlüge, die Störstrom produziert und zu einem Harakiri der ENTSEO wird. Der Untergang des Euro mit dem Rückfall in nationale Währungen wäre der wesentlich kleinere Fisch.

Das dann Redakteure wie ein Georg Ismar, von dpa Berlin, in Hilfestellung für die Stromwende-Politiker den Einsatz solcher Schutzmechanismen abwehren wollen mit Vernebelungstaktik „Die Energiewende läuft also recht gut, wäre da nicht die Netzfalle“, bzw. beim Bürgern die Akzeptanz von zusätzlichen Stromtrassen erpressen wollen, ist evidente Bauernfängerei.

……

Narretei Smartgrid

Was verbirgt sich überhaupt hinter dem Begriff – hier eine simple Beschreibung für diesen Unsinn, abgesehen von der netzphysikalsichen technischen Unmöglichkeit:

a) Wenn eine Photovoltaik-Anlage ein Verteilnetz zum Zusammenbruch führen würde, weil sie zuviel Strom einspeist, greift die Netzsteuerung ein und schaltet die Anlage ab (ab/kurz), natürlich bekommt der Betreiber dann finanziellen Ersatz. Soweit halbwegs nachvollziehbar, wenn auch eine volkswirtschaftliche Enteignung der Stromkunden, weil Zahlung ohne Leistung

b) Ihre Waschmaschine (im Badezimmer in der Wohnung stehend) läuft nicht dann wenn Sie wollen, sondern z.B. nachts um 3 bei einem Stromverbrauchsloch und Ihre Kinder werden spätestens durch den Schleudergang geweckt.
In Ihrer Hausordnung steht zwar, dass Sie wegen störender Wassergeräusche nach 22.00 Uhr nicht duschen dürfen, aber die Wassergeräusche Ihrer Waschmaschine sind Ihre Mitbewohner Dank Merkelscher Energiewende verpflichtet zu ertragen.

Das bedeutet Smartgrid.

Die Übersetzung Stromlüge von Energiewende ist noch viel zu harmlos! Vorschläge erbeten!

Noch viel griffigere Beispiele für Unfug findet man als ernst gemeinte Forumsbeiträge von Freaks z.B. unter:
http://www.photovoltaikforum.com/sonstiges-f13/
Schauen Sie mal, Sie werden erschrecken was uns diese Menschen noch antun wollen.

Auszüge aus dem EEG-Strom-Newsletter 12/01 von NAEB Nationale Anti EEG Bewegung

H. Duepmann NAEB