1

Save the date: Am 11. und 12. Dezember Haus der Technik Essen: 9. Internationale Klima- und Energiekonferenz

9. Internationale Klima- und Energiekonferenz (IKEK-9)

  

11.-12. Dezember 2015, Haus der Technik, Essen

Freitag, 11. Dezember

9.00 Uhr     Registrierung der Teilnehmer

10.30 Uhr   Einführung: EIKE 2007 – 2015 – was haben wir erreicht, was bleibt noch zu tun?

Dr. Holger Thuß

Präsident, Europäisches Institut für Klima und Energie (EIKE)

Die Panikindustrie: Methoden und Einfluss eines selbstbezogenen Netzwerks

James Taylor Vice President, The Heartland Institute

11.00 Uhr   Erderwärmung: Was wurde gemessen und wie wurde ausgewertet?

Prof. Dr. Friedrich-Karl Ewert Fachbeirat, Europäisches Institut für Klima und Energie (EIKE)

11.45 Uhr   Extremwetter-Ereignisse : Was finden die Wetterdienste? Was schreibt der Klimarat IPCC?

Dipl.-Meteorologe Klaus-Eckart Puls Ehemaliger Leiter der Wetterämter Essen und Leipzig

12.30 Uhr   Mittagspause – Gemeinsames Mittagessen

14.00 Uhr   Panel: Der Einfluss kosmischer Strahlung auf das Klima –

       Neuste Erkenntnisse und deren Bedeutung für das Verständnis des Klimawandels

Dr. Willie Soon Harvard-Smithsonian Center for Astrophysics

Prof. Dr. Henrik Svensmark Centre for Sun-Climate Research des Danish National Space Centre

16.00 Uhr – 16.30 Uhr Pause

16.30 Uhr   Vom Aussterben bedroht? – Die tatsächlichen Gefahren für Eisbären  

Dr. Susan Crockford Evolutionary biologist and expert on polar bear evolution,
adjunct professor at the University of Victoria, British Columbia, Canada

17.45 Uhr   Rising CO2 Levels – The Threat of Ocean Acidification 

Prof. Dr. Tom Segalstad Associate Professor of Resource and Environmental Geology, University of Oslo

20.00 Uhr   Abendveranstaltung Gemeinsames Abendessen mit Tischrede

                 Wie funktioniert ein Klimaclub?

                 Prof. Dr. Charles-Beat Blankart

                 Humboldt Universität zu Berlin

Samstag, 12. Dezember

9.00 Uhr     Wald- und Gletscherentwicklung in den Alpen in den letzten 10.000 Jahren

Prof. em. Dr. Gernot Patzelt Universität Innsbruck

10.00 Uhr   Klimawissenschaft in EIKE: Multiperiodisches Klima, CO2 Zyklus

                 Prof. Dr. Horst Lüdecke Pressesprecher, Europäisches Institut für Klima und Energie (EIKE)

10.45 – 11.15 Uhr  Pause

11.15 Uhr   Wie die Wissenschaft im Namen des Klimaschutzes geopfert wird

                 Christopher Monckton, 3rd Viscount Monckton of Brenchley   Chief policy advisor to the Science and Public Policy Institute

12.00 Uhr   Mittagspause – Gemeinsames Mittagessen

13.15 Uhr   Fracking und dessen Auswirkungen auf die Umwelt Isaac Orr The Heartland Institute, Chicago

14.00 Uhr   Die Energieintensiven Industrien und die Energiewende

Prof. Dr.-Ing. Dieter Ameling Ehem. Präsident der Wirtschaftsvereinigung Stahl und ehem. Vorsitzender des Stahlinstituts VDEh

14.45 – 15.15 Uhr Pause

15.15 Uhr Aufwand vs. Ertrag – Die Kosten und Nutzen der Energiewende

Michael Limburg Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)

16.00 – 16.30 Uhr Pause

16.30 Uhr   Die Wahrheit über „erfolgreiche“ Klimaschutzprojekte – Eine Bestandsaufnahme James Taylor Senior fellow, The Heartland Institute

17.15 Uhr   Schlusswort

                 Wolfgang Müller Generalsekretär, Europäisches Institut für Klima und Energie (EIKE)

17.30 Uhr   Ende der Veranstaltung

Alle Vorträge und Diskussionen werden simultan in Deutsch-Englisch und Englisch-Deutsch gedolmetscht                                                                                          

Veranstaltungsort

Haus der Technik, Hollestraße 1, 45127 Essen, genau gegenüber dem Hauptbahnhof

Mittagessen und Kaffeepausen sind im Tagungspreis enthalten.

Anmeldung

Formlos oder (wird Mitte Oktober freigeschaltet) mit dem Formular auf der EIKE Website, mit vollem Namen, Anschrift und Institution an EIKE e.V.:

Email: info@eike-klima-energie.eu

Fax: 03641 – 3279 8589    

Brief: EIKE Registrierung, Postfach 110111, 07722 Jena

Zahlung an: EIKE e.V., Volksbank Saaletal Rudolstadt, Konto Nr.: 42 42 92 01, BLZ: 830 944 54

IBAN: DE34 8309 4454 0042 4292 01      BIC: GENODEF1RUJ   oder via PayPal auf der EIKE Website

Spenden an das Europäisches Institut für Klima und Energie (EIKE) sind steuerbegünstigt.

Related Files




„Der heutige Klimawandel. Eine kritische Analyse des Modells von der menschlich verursachten globalen Erwärmung“ – Eine Rezension

Klaus-Peter Dahm, Detlev Laves, Wolfgang Merbach:

„Der heutige Klimawandel. Eine kritische Analyse des Modells von der menschlich verursachten globalen Erwärmung“

(Verlag Dr. Köster, Berlin 2015. 162 Seiten. ISBN 978-3-89574-879-0)

Die Autoren, die Geowissenschaftler Dr. Klaus-Peter Dahm und Dr. Detlev Laves sowie der Agrarwissenschaftler Prof. Dr. Wolfgang Merbach, werteten dabei einerseits vor allem die Sachstandsberichte des IPCC und weitere Veröffentlichungen zum AGW-Modell aus. Andererseits prüften sie ein Großteil der Literatur der letzten Jahre, in der dieses Modell abgelehnt oder erhebliche Zweifel daran zum Ausdruck gebracht werden. Insgesamt 190 Quellen wurden ausgewertet.

Es wurden grundlegende Fragen der Klimawissenschaft beleuchtet und dabei Fragen aufgeworfen, die von der Klimapolitik, wie sie gegenwärtig – nicht nur in Deutschland – als „politisch unkorrekt“ oder gar „unerwünscht“ angesehen werden. Konkret: Sie suchen nach Beweisen dafür, dass Klimaveränderungen durch den Menschen, durch seine Kohlendioxid-Emissionen, ausgelöst werden – und fanden sie nicht!

In insgesamt 9 Kapiteln werden brisante Fragen aufgeworfen und mit wissenschaftlicher Gründlichkeit und Sachlichkeit beantwortet, wie:

–       „Ist die heutige globale Erwärmung dramatisch und beispiellos?“ Antwort: Nein.

–       „Wie bedrohlich sind der Anstieg des Meeresspiegels und andere Klimaphänomene?“ (u. a. Eisschmelze, Extremwetter-Ereignisse, „Versauerung“ der Ozeane) Antwort: Es ergeben sich daraus  keine Bedrohungen für das Leben auf der Erde.

–       „Ist Kohlendioxid die Hauptursache des gegenwärtigen Klimawandels?“ (hier u. a. eine gründliche Auseinandersetzung mit dem Treibhauseffekt) Antwort: Nein, Kohlendioxid hat überhaupt keinen nachweisbaren Einfluss auf die Klimaentwicklung.

–       „Treibt die Sonne unser Klima an?“ Antwort: Ja.

Die Autoren erklären das AGW-Modell als nicht verifizierbar und lehnen es ab. Dagegen favorisieren sie ein Sonnenmodell mit den Ozeanen als Kopplungselement. „Danach wird die globale Temperatur direkt von den oszillierenden Temperaturschwankungen  der Ozeane und indirekt von der Solarstrahlung beeinflusst.“ (S. 144)

Besonders wertvoll wird diese Schrift durch die ausführliche Darstellung der biologischen Bedeutung des Kohlendioxids. Aus ihr geht hervor, dass dieses Gas neben dem Wasser die für das Leben auf der Erde wichtigste Substanz ist, eben kein „Schadstoff“, zu dem es gegenwärtig von Politik und Medien erklärt wird – wider besseren Wissens, denn alle haben einst Unterricht in Biologie und Chemie genossen! Es wird festgehalten, dass ein Kohlendioxidgehalt der Luft von etwa 1000 ppm für die meisten Pflanzen optimal ist. Der gegenwärtige Gehalt von 400 ppm ist „viel zu niedrig, um eine optimale Entfaltung des Lebens (z. B. ein optimales Pflanzenwachstum und damit eine maximale Produktion von Nahrungsmitteln) zu erreichen. Ein Klimaschutz durch Verringerung des CO2 der Luft (Dekarbonisierung) ist nicht nur wirkungslos und extrem kostenintensiv, sondern auch lebensfeindlich.“ (S. 111)

Intensiv beschäftigen sich die Autoren mit der paläoklimatischen Entwicklung, wobei sie sich u. a. auf die seinerzeitigen Untersuchungen der Bundesanstalt für Geowissenschaften und Rohstoffe Hannover, veröffentlicht in den „Klimafakten“ von  Berner und Streif, stützen. Sie vermitteln, dass es Klimaänderungen auf der Erde schon seit mindestens 2,3 Milliarden Jahren gibt. In dieser Zeit  herrschten Temperaturen, die zeitweise um 10 bis 20 Grad von den heutigen abwichen, und die sich  sehr deutlich schneller als heute – mit 0,85 Grad/Jahrhundert – änderten. Die CO2-Konzentrationen der Luft  waren in langen Zeiten deutlich höher als heute – trotzdem traten auch Kaltzeiten mit starken Vereisungen ein.

Das heute favorisierte AGW-Modell ist nicht in der Lage, Erklärungen  für die Klimaentwicklung dieser Zeit zu geben. Es versucht den gegenwärtigen Klimawandel zu beschreiben, der aber umfasst nur 0,0001 % der gesamten Klimageschichte! Auch der vor einigen Jahren unternommene Versuch des IPCC, mit Hilfe der (als wissenschaftliche Fälschungen entlarvten) „Hockeystick-Kurve“ den Betrachtungszeitraum etwas auszudehnen, scheiterte bekanntlich. Schon aufgrund derartiger Überlegungen wird deutlich, dass das AGW-Modell nicht geeignet ist, die bisherige Klimaentwicklung zu erklären, viel weniger, Prognosen zur künftigen Klimaentwicklung anzustellen.

Bemerkenswert sind die Ausführungen über die „Versauerung der Ozeane“, vor der das IPCC warnt. Der pH-Wert der Meere sank seit 1990 durchschnittlich von 8,12 auf 8,08 und ist damit deutlich im alkalischen Bereich. Von einer „Versauerung“ – ab pH = 7 – kann daher keine Rede sein, auch nicht 2100, wenn die IPCC-Prophezeiungen über die CO2-Emissionen eintreten sollten! Das kann schon deshalb nicht geschehen, weil vom IPCC die bekannte Abhängigkeit der CO2-Löslichkeit von der Temperatur völlig unberücksichtigt gelassen wird: Je wärmer das Meerwasser ist, desto weniger CO2 kann darin gelöst sein! Wussten das die IPCC-Autoren wirklich nicht? Trotz dieser Tatsache wird von Politikern und Journalisten unentwegt von einer künftigen „lebensfeindlichen Meeresversauerung“ gewarnt!

Es ist nicht Aufgabe dieser Rezension, auf weitere Schwerpunkte dieser verdienstvollen Arbeit einzugehen. Es sei aber nachdrücklich darauf hingewiesen, dass es sich bei dieser Studie einerseits um eine streng wissenschaftliche Arbeit handelt, die sich aber gleichzeitig dadurch auszeichnet, dass sie auch von Lesern verstanden werden kann, die über keine solchen wissenschaftlichen Spezialkenntnisse wie die Verfasser verfügen. Das Lesen und Verstehen wird durch viele zumeist farbige Grafiken (insgesamt 59) sowie durch regelmäßige Fazite am Endes eines jeden Abschnittes und Zusammenfassungen jeweils am Kapitelende wesentlich unterstützt. 

Nicht nur wegen ihrer klaren und leicht verständlichen Schreibweise, sondern vor allem wegen ihres herausragenden Inhaltes verdient die Broschüre eine weite Verbreitung. Sie gehört zu den wenigen Schriften in Deutschland, die mit wissenschaftlicher Konsequenz die herrschende Klimapolitik an den Pranger stellen. Sie entlarvt die Ignoranz von „Klimawissenschaftlern“ und führt die „Klimapolitik“ ad absurdum. Es ist daher besonders zu begrüßen, dass sie jetzt – kurz vor der Klimakonferenz von Paris – erschienen ist. Gerade im Zusammenhang mit den gegenwärtigen Versuchen von Politikern, dieser schon heute als misslungen anzusehenden und völlig überflüssigen Konferenz im Vorfeld doch noch etwas Auftrieb zu verleihen, ist es notwendig, deren angeblich wissenschaftlichen Hintergründe bloßzulegen. Damit werden zugleich ihre verhängnisvollen wirtschaftspolitischen Zielstellungen sichtbar. Die vorliegende Schrift liefert umfangreiches Faktenmaterial dazu, in einer Gründlichkeit und zugleich Übersichtlichkeit wie bisher kaum verfügbar. 

Auch wenn die Klimakonferenz von Paris etwas anderes behaupten wird: Durch CO2-Reduzierung oder gar durch „Dekarbonisierung“ (á la G7-Gipfel von Elmau) wird das Klima absolut nicht beeinflusst! Der Menschheit werden jedoch wertvolle Ressourcen entzogen, die zur Lösung wirklicher Probleme dringend gebraucht werden. Ein Blick in die Weltpolitik zeigt außerdem überdeutlich, dass die Welt vor weitaus schwerwiegenderen Fragen als einem „Klimawandel“ steht! 

„Der heutige Klimawandel“ sollte daher zur Pflichtlektüre aller unserer Politiker werden. Und jeder Lehrer – nicht nur der für Naturwissenschaften, denn nahezu alle Pädagogen halten es für notwendig, ihre Schülern vor den „Gefahren des Klimawandels“ zu warnen – sollte die Schrift gründlich lesen und verinnerlichen. Schließlich sollte sich jeder Journalist, der über Klima- und Energiepolitik schreiben oder reden will, mit dem Inhalt des Buches auseinandersetzen – und sich erst danach an die Öffentlichkeit wenden!

Es wäre daher höchst wünschenswert, wenn der Erstauflage noch weitere folgen würden. Übersetzungen, nicht nur ins Englische, sind in Erwägung zu ziehen. Diese Arbeit verdient es!

Abschließend soll auf „eine persönliche Bemerkung“ aufmerksam gemacht werden, die die Verfasser ans Ende ihrer Schrift stellten: „Für die vorstehende Analyse haben wir weder von der Kohle- oder Ölindustrie noch von der Atomindustrie eine Zuwendung bekommen. Es ist tatsächlich so, dass wir diese Analyse aus freien Stücken gemacht und die Publikation selbst finanziert haben.“ – Dass Klaus-Peter Dahm, Detlef Laves und Wolfgang Merbach es für nötig hielten, eine solche „Offenbarung“ zu machen, wirft ein bezeichnendes Licht auf die Zustände im „Wissenschaftsstandort“ Deutschland im Allgemeinen und auf die Situation in der „Klimaforschung“ im Besonderen!

Das Buch kann z.B. hier bezogen werden 

Dr. Dietmar Ufer      

        

            




Die Epistemologie [= Erkenntnistheorie], die Vorhersage des Klimas so zu erklären, dass auch 8-jährige das verstehen

2. Enkelin Ava fragt: „Wird die Welt verbrennen und woher können wir das wissen?“

Ava – denken wir an wärmere oder kältere Temperaturen draußen. Es ist wärmer, wenn die Sonne tagsüber scheint und nachts kälter, wenn sich unser Teil der Welt von der Sonne abgewandt hat. Du weißt doch schon, dass die Erde 24 Stunden für eine Umdrehung braucht, also für etwas, das wir einen Zyklus nennen von warm zu kalt und wieder zurück.

Du weißt auch, dass es im Sommer viel heißer ist als im Winter und kennst auch den Grund dafür: im Sommer scheint die Sonne länger und steht viel höher am Himmel als im Winter. Jedes Jahr gibt es einen Zyklus von warm zu kalt und wieder zurück – dieser Zyklus dauert 365 Tage. Wissenschaftler haben auf vielfältige Weise gemessen oder geschätzt, wie die Temperatur der Erde hunderte und tausende Jahre in der Vergangenheit war – und haben dabei erkannt, dass es weitere Warm-Kalt-Zyklen gibt. Zwei der bedeutendsten Zyklen haben eine Länge von 60 bzw. 1000 Jahren. Hier ist ein Bild, das einige der 1000-Jahres-Zyklen zeigt:

Abbildung 1. Quelle: http://www.climate4you.com/

Um zu wissen, was in Zukunft passieren könnte, müssen wir als Erstes wissen, wo sich die Erde relativ zu dem 1000-Jahre-Zyklus befindet. Hier folgt eine weitere Graphik, die den Temperaturverlauf der Nordhemisphäre während der letzten 2000 Jahre zeigt. Man beachte besonders, was während der letzten 1000 Jahre passiert ist.

Abbildung 2. Quelle: http://www.clim-past.net/8/765/2012/cp-8-765-2012.pdf

Man beachte die Wärmespitze um das Jahr 1000 – dann schaue man darauf, wo wir uns augenblicklich befinden, am rechten Rand der Graphik. Man erkennt deutlich, dass die Erde vor kurzem eine weitere Wärmespitze des 1000-Jahre-Zyklus durchlaufen hat.

Was bedeutet das? Wir wissen, dass die Menge der unseren Teil der Erde erreichenden Sonnenstrahlung oftmals zu Temperaturänderungen um Zehnergrade führt zwischen Tag und Nacht sowie bis zu 100 Grad Temperaturunterschied zwischen den kältesten Winter- und den heißesten Sommertagen. Wir wissen auch, dass die Sonne selbst während der Maxima ihrer zahlreichen Zyklen mehr Energie ausstößt und ein stärkeres Magnetfeld aufweist.

Was macht die Sonne derzeit? Hier folgt eine Graphik, die uns dies zeigt. Man erkennt, dass die Sonne selbst Aktivitätszyklen mit einer Dauer von 11 bis 12 Jahren durchläuft. Je näher die rote Linie dem unteren Rand der Graphik kommt, umso aktiver ist die Sonne, umso stärker ist ihr magnetisches Feld und umso weniger kosmische Strahlung trifft auf die Erde.

Abbildung 3. Quelle: http://cosmicrays.oulu.fi/

Man erkennt, dass die Sonnenaktivität zugenommen hat, das heißt, die rote Linie näherte sich immer mehr dem unteren Rand der Graphik, und zwar in jedem Zyklus bis etwa zum Jahr 1991. Danach liegen die Maxima und Minima näher an der oberen Kante der Graphik, was eine Abnahme der Sonnenaktivität bedeutet. Dies zeigt, dass der Höhepunkt des 1000-Jahre-Zyklus‘ der Sonnenaktivität im Jahre 1991 erreicht worden ist und jetzt eben hinter uns liegt.

Weil es einige Zeit dauert, bis sich die Ozeane erwärmen bzw. abkühlen, gibt es eine zeitliche Verzögerung zwischen dem Höhepunkt der Sonnenaktivität und der Temperatur auf der Erde. Die besten Messungen der globalen Temperatur, die wir haben, stammen von Satelliten. Hier folgt eine Graphik, die die Temperaturänderungen während des Satelliten-Zeitalters zeigt:

Abbildung 4. Quelle: www.woodForTrees.org

Man erkennt, wie sich der Höhepunkt der Sonnenaktivität im Jahre 1991 in einer Wärmespitze der mittleren globalen Temperatur (die grüne steigende und die blaue fallende Linie) etwa 12 Jahre später im Jahre 2003 spiegelt, und dass sich die Erde seitdem leicht abgekühlt hat, was genau zu der abnehmenden Sonnenaktivität seit 1991 bis heute passt.

Aber was ist nun mit der Zukunft?

Nun, die einfachste und wahrscheinlichste Aussage für Anfänger lautet, dass der 1000-Jahre-Zyklus von 2003 bis 3003 einen Temperaturverlauf zeigen wird, der im Allgemeinen ähnlich dem während des Zyklus‘ von 1000 bis 2003 ist – siehe Abbildung 2.

Betrachtet man diese Graphik noch einmal, erkennt man, dass die mittlere Temperatur der Nordhemisphäre um etwas unter 2°C von 1000 bis 1635 zurück gegangen ist, so dass wir eine ähnliche Abkühlung erwarten können von 2003 bis 2638 – natürlich mit zahlreichen Höhen und Tiefen während des Verlaufs.

Die Wärmespitze um das Jahr 1000 war eine gute Zeit für die Menschen. Die Wikinger waren in der Lage, in Grönland zu siedeln. Die Ernten waren gut, und die Menschen in Europa hatten Zeit und Mittel, um mit dem Bau von Kathedralen zu beginnen. Die Kaltzeit der Jahre von 1635 bis 1700 wird das ,Maunder-Minimum‘ genannt. Damals war die Sonne so ruhig, dass die Sonnenflecken verschwanden. In jener Zeit folgten einige besonders kalte Jahre nacheinander, und Millionen Menschen verhungerten, weil die Ernten vernichtet wurden.

Das vom Menschen ausgestoßene CO2 hatte keinerlei Auswirkungen auf diese Temperaturänderungen. Tatsächlich liegt Präsident Obama absolut falsch, wenn er CO2 einen Verschmutzer nennt. Vielmehr ist es das unabdingbar notwendige Nahrungsmittel für Pflanzen. Ohne dieses Gas könnte das Leben, so wie wir es kennen, nicht existieren. Pflanzen wachsen umso besser, je mehr der CO2-Gehalt in der Luft zunimmt. Etwa 25% der Zunahme der Erzeugung von Nahrungsmitteln im 20. Jahrhundert geht einfach auf die Zunahme des CO2-Gehaltes während jener Jahre zurück – ein großer Vorteil für die Menschheit.

Ava fragt: Die blaue Linie verläuft nahezu waagerecht. Wann werden wir sicher wissen, dass wir uns auf dem absteigenden Ast des 1000-Jahre-Zyklus‘ befinden und uns in Richtung einer neuen Kleinen Eiszeit bewegen?

Großvater antwortet: Ich freue mich zu sehen, dass du ein frühes Interesse an Epistemologie entwickelt hast.

Erinnere dich mal, ich habe den 60-Jahre-Zyklus erwähnt. Nun, die Daten zeigen, dass die Wärmespitze des Jahres 2003 nahe eines Maximums sowohl des 60- als auch des 1000-Jahre-Zyklus‘ lag. Falls wir uns jetzt auf dem absteigenden Ast des 1000-Jahre-Zyklus‘ befinden, dürfte das nächste Maximum des 60-Jahre-Zyklus‘ etwa im Jahre 2063 erneut schwächer ausfallen, so dass wir dann in jener Zeit sagen können, dass wir ziemlich sicher auf die nächste Kleine Eiszeit zusteuern.

Das ist jedoch noch lange hin, aber wir werden eine Reihe sehr nützlicher Hinweise schon lange vorher bekommen. Schau noch einmal die rote Kurve in Abbildung 3 – man erkennt darin, dass von Anfang 2007 bis Ende 2009 die Sonnenaktivität auf ihren niedrigsten Stand seit sehr langer Zeit fiel. Erinnerst du dich an die Verzögerung von 12 Jahren zwischen dem Maximum der Sonnenaktivität 1991 und der Wärmespitze 2003? Falls es eine ähnliche Verzögerung als Reaktion auf die geringere Sonnenaktivität gibt, sollte die Erde von 2019 bis 2021 eine Kaltphase durchlaufen.

Es dürfte auch deutlich kühler sein als während der kältesten Zeit des 60-Jahre-Zyklus‘ – auf halbem Weg durch den gegenwärtigen 60-Jahre-Zyklus um das Jahr 2033.

Wir können abwarten, dass diese Dinge geschehen, aber inzwischen behalte im Hinterkopf, dass zyklischen Trends insgesamt zeitweise einige Jahre lang gestört werden können durch El Nino-Ereignisse im Pazifik und die damit verbundenen hohen Temperaturen der Jahre 1998 und 2010 (Abbildung 2) und die wir vor Ende dieses Jahres 2015 sehen könnten.

3. Ava fragt: Es sieht so aus, als würde es kälter werden auf der Erde – warum sagen dann mein Lehrer und Präsident Obama, dass es auf der Erde sehr heiß werden wird und dass die Eisbären alle aussterben werden, wenn ich nicht mehr zur Schule gehe?

Nun, Ava – ich müsste ein Buch schreiben um zu erklären, warum so viele unterschiedliche Menschen so falsch liegen können über so lange Zeit – manchmal mit den besten Absichten. Lass mich dir kurz erzählen, wie das kam.

Im Jahre 1968 hat ein Mann namens Ehrlich ein Buch veröffentlicht mit dem Titel The Population Bomb. Er glaubte, dass die Anzahl der Menschen auf der Welt so stark zunehme, dass es schon bald nicht mehr genug Nahrungsmittel geben würde, um jeden satt zu bekommen. Er schrieb in seinem Buch:

In den siebziger Jahren werden Millionen Menschen den Hungertod sterben trotz einiger Notfallprogramme, die jetzt beginnen. Zu diesem späten Zeitpunkt kann niemand mehr eine substantielle Zunahme der Todesrate in der Welt verhindern“.

Einige Menschen zu jener Zeit wurden sehr besorgt und wollten derartige Dinge abschätzen wie etwa das zukünftige Bevölkerungswachstum, die Erzeugung von Nahrungsmitteln, die Ölversorgung, Industrieproduktion und Mineralreserven. Dazu benutzten sie ein Computerprogramm. Sie wollten mögliche Probleme in der Zukunft erkennen und auch die Möglichkeit erkunden, dass die Völker und Regierungen der Welt sich auf einen Weg einigen können, die Weltwirtschaft so zu betreiben, dass sie nachhaltig ist, das heißt für längere Zeit laufen kann. All das steckten sie in ein Buch mit dem Titel Die Grenzen des Wachstums, das im Jahre 1972 veröffentlicht worden ist.

Ein sehr agiler Geschäftsmann namens Maurice Strong, der eine Menge einflussreicher Leute kannte, überzeugte die UN von dem, was er selbst glaubte und tatsächlich immer noch sehr stark glaubt, dass nämlich dieses Nachhaltigkeits-Problem sehr ernst war. Die UN und Schweden organisierten im Jahre 1972 ein Treffen in Stockholm, um die Wechselwirkungen der Menschen mit der Umwelt zu diskutieren. Strong ist von Natur aus sehr bestimmend, und er und die Konferenz erstellten einen unglaublich detaillierten 109-Punkte-Plan als Information für die UN und als Werkzeug, um sogar Kontrolle über die individuelle Umweltpolitik von Regierungen weltweit zu erlangen. Als eine der Maßnahmen wurde das United Nations Environmental Program ( UNEP) ins Leben gerufen mit Mr. Strong höchstselbst als geschäftsführendem Direktor. Zehn Jahre später war offensichtlich, dass die Prophezeiungen bzgl. bevorstehender Todesfälle und Katastrophen falsch waren. Die Leute bei beim UNEP trachteten aber immer noch danach, Kontrolle über die Weltwirtschaft zu erlangen. Sie erkannten, dass falls sie zeigen könnten, dass Kohlendioxid aus der Verbrennung von Kohle und Öl zur Stromerzeugung und für Autofahrten zu einer gefährlichen Erwärmung der Erde führen könnte, sie in der Lage sein würden, Regierungen und Völker so stark zu ängstigen, dass sie sich unter den Kontrollschirm der UN begeben könnten und zulassen würden, dass diese mittels Kontrolle der Art des Energieverbrauchs und der Preise die Kontrolle über die Wirtschaft erlangen könnten.

Das UNEP organisierte ein Treffen von Wissenschaftlern in der Ortschaft Villach in Österreich im Jahre 1985, um auszuloten, wie sie zeigen könnten, dass CO2 gefährlich ist. Die Wissenschaftler sagten: „Obwohl die beobachtete großräumige Erwärmung der letzten rund 100 Jahre kompatibel ist mit den Modellschätzungen der Größenordnung des Treibhauseffektes, ist eine eindeutige und statistisch überzeugende Erkennung der Effekte eines sich ändernden CO2-Gehaltes auf das Klima noch nicht möglich. Ein bedeutendes Problem hinsichtlich der positiven Identifikation eines Treibhausgaseffektes auf das Klima ist es, die mittel- und langfristigen (Jahrzehnte oder mehr) Fluktuationen in der Vergangenheit zu erklären. Versuche, derartige Änderungen zu modellieren, weisen bis heute eine Anzahl von Schwächen auf“.

Liebe Ava – mit anderen Worten, sie können keinerlei Auswirkungen des menschlichen CO2 auf das Klima beweisen.

Aber wer auch immer das offizielle Statement der Summary und der Empfehlungen geschrieben hat sagte:

„Man glaubt jetzt, dass es als Folge der zunehmenden Konzentration von Treibhausgasen während der ersten Hälfte des nächsten Jahrhunderts zu einem Anstieg der globalen mittleren Temperatur kommen könnte, der stärker ist als alles, was es bisher in der Geschichte der Menschheit gab“.

Der Bericht gab zwei wichtige Empfehlungen. Als Folge der einen davon wurde das IPCC ins Leben gerufen, das die Beweise auswählen und von Zeit zu Zeit Berichte erstellen sollte, die zeigen würden, dass CO2 der Haupttreiber eines gefährlichen Klimawandels sei. Die zweite Empfehlung führte zu einem Treffen in Rio im Jahre 1992 unter Vorsitz von Maurice Strong selbst. Auf diesem Treffen wurde das United Nations Framework Convention on Climate Change (UNFCCC) erstellt, das danach von 196 Regierungen unterzeichnet worden ist.

Sinn und Zweck des Vertrages ist es, die Konzentrationen von Treibhausgasen in der Atmosphäre auf einem Niveau zu halten, das ihrer Ansicht nach eine gefährliche Einmischung des Menschen in das Klimasystem verhindern würde. Dieser Vertrag ist wirklich ein umfassender, politisch getriebener politischer Aktionsplan mit der Bezeichnung ,Agenda 21′. Er soll zu einer zentral gesteuerten globalen Gesellschaft führen, die jeden Aspekt des Lebens eines jeden Einzelnen auf diesem Planeten kontrollieren soll.

Es heißt in diesem Vertrag: „Die Unterzeichneten sollten Vorsichtsmaßnahmen ergreifen, um die Ursachen des Klimawandels zu erfassen, zu verhindern oder zu minimieren und dessen nachteilige Effekte abzuschwächen. Wo ernste oder irreversible Schäden drohen, sollte das Fehlen einer vollen wissenschaftlichen Gewissheit nicht als Grund herangezogen werden, diese Maßnahmen zu verschieben“.

Mit anderen Worten, falls die Modelle zeigen, dass es auch nur eine sehr geringe Wahrscheinlichkeit dafür gibt, dass sehr schlimme Dinge passieren, sollten die Unterzeichneten aber trotzdem agieren, um diese zu stoppen. Aber wie gut sind die Computermodelle?

Die fünf ersten aufeinanderfolgenden Berichte des IPCC in den Summaries for Policymakers, geschrieben von Repräsentanten der Regierungen, machen eine zunehmende Gewissheit ihrer modellbasierten Projektionen geltend hinsichtlich zukünftiger Temperaturen, die in den wissenschaftlichen Abschnitten der Berichte oder von den aktuellen Daten nicht gestützt werden.

Noch einmal zurück zum Treffen in Villach. Von dort hieß es: „in der ersten Hälfte des kommenden Jahrhunderts könnte es zu einem Anstieg der globalen mittleren Temperatur kommen, der stärker ist als alles, was es in der Menschheitsgeschichte bisher gegeben hat“.

Alle Modelle und Projektionen seit 1985 beruhten auf der Hypothese, dass CO2 der Hauptklimatreiber war – aus diesem Grunde und auch aus vielen anderen Gründen sind diese Modelle nutzlos für die Vorhersage zukünftiger Temperaturen.

Hier folgt eine Graphik, was wirklich geschah, als der CO2-Gehalt im 21. Jahrhundert rapide gestiegen war:

Wie man sieht, gab es seit etwa dem Jahr 1997 keinerlei globale Erwärmung mehr.

Die Klimamodelle, auf denen die gesamte Wahnvorstellung der katastrophalen globalen Erwärmung beruhen, wurden ohne Rücksicht auf die natürlichen 60-Jahre- und noch wichtiger auf die 1000-Jahre-Zyklen erstellt, die so deutlich in den Temperaturaufzeichnungen hervortreten. Die Vorgehensweise der Modellierer ist einfach eine wissenschaftliche Katastrophe, der sogar jeder normale gesunde Menschenverstand fehlt. Es ist genauso, als ob man den Temperaturtrend von Februar bis Juli heranzieht und diesen linear auf die kommenden 20 Jahre oder so projiziert. Sie frisieren ihre Modelle so, dass sie weniger als 100 Jahre in die Vergangenheit reichen, obwohl sich der relevante Zeitrahmen über Jahrtausende erstreckt. Dies ist wissenschaftswidriges Verhalten in großräumigem Maßstab.

Die Temperaturprojektionen der Modelle des IPCC und des UKMO sowie sämtliche Studien über die Folgen aus diesen Projektionen haben keine solide Grundlage in der empirischen Wissenschaft, die abgeleitet ist aus durchweg nutzlosen und speziell strukturell betrügerischen Modellen. Sie bilden keine Basis für die Diskussion über zukünftige Klimatrends und repräsentieren eine gewaltige Verschwendung von Zeit und Geld. Man erkennt schon jetzt, dass deren Prophezeiungen als Fundament für eine regierungsamtliche Klima- und Energiepolitik vollkommen falsch und daher noch schlimmer als nutzlos sind.

Hier folgt eine Graphik, die zeigt, was geschieht, wenn man einen zyklischen Trend in eine gerade Linie projiziert, wie sie es gemacht haben:

Ein neues Vorhersageverfahren muss übernommen werden. Für Vorhersagen von Timing und Ausmaß der auf natürlichen solaren Zyklen beruhenden kommenden Abkühlung – am Wichtigsten ist dabei der Zeitrahmen von Jahrtausenden – siehe meinen Beitrag hier. Dessen Abschnitt 1 enthält eine vollständige Diskussion der Nutzlosigkeit der Klimamodelle.

Im ,Novum Organum‘ (das neue Instrumentarium zur Aneignung von Wissen) klassifizierte Francis Bacon die intellektuellen Trugschlüsse seiner Zeit in vier Bereiche, die er Idole [idols] nannte. Der vierte davon wurde beschrieben als:

Idols des Theaters sind jene, die auf Spitzfindigkeiten und falsches Lernen beruhen. Diese Idols bestehen in den Bereichen Theologie, Philosophie und Wissenschaft; und weil sie durch gelehrte Gruppen vertreten werden, werden sie ohne Nachfrage von den Massen akzeptiert. Wenn falsche Philosophien kultiviert worden sind und eine große Dominanz in der Welt des Intellekts erreicht haben, werden sie nicht mehr in Frage gestellt. Falsche Über-Strukturen werden auf der Grundlage falscher Fundamente erhoben, und am Ende zeigen Systeme ohne jeden Wert ihre Pracht auf der Weltbühne.

Die Klimawissenschaft ist Opfer dieser vierten Art von Idols geworden. (Zu den 4 Idols mehr hier)

Link: http://wattsupwiththat.com/2015/08/31/the-epistemology-of-explaining-climate-forecasting-so-an-8-year-old-can-understand-it/

Übersetzt von Chris Frey EIKE




Stuss mit lustig: Torsten Albig erklärt die Energiewende

Albig beginnt seine Darlegung mit einer düsteren, fast schon enigmatischen Schelte:

„Es ist typisch deutsch, dass wir wegen eineinhalb Cent mehr für erneuerbare Energien das ganze Projekt in Frage stellen.“

Leider lässt er offen, worauf sich die „eineinhalb Cent“ beziehen. Jürgen Trittins Versprechen kann er nicht meinen, eine Familie müsste für Grünenergie den Gegenwert einer Kugel Eis im Monat bezahlen, also etwa einen Euro. Die Familieneisrechnung liegt heute bei 240 und nicht bei 12 Euro im Jahr. Vom Energiewendejahr 2011 bis 2015 stieg die EEG-Umlage von 3,53 auf 6,17 Cent pro Kilowattstunde, zu zahlen von allen Stromverbrauchern mit Ausnahme der energieintensiven Industrie. Seit der Einführung des Erneuerbare-Energien-Gesetzes im Jahr 2000 zahlten die Verbraucher entweder direkt oder durch feste Verpflichtungen für die Zukunft mehr als 400 Milliarden Euro Subventionen für Windparks, Solardächer und Biogastanks. Zu welchem Endzweck, das macht Albig deutlich:

„Die deutsche Volkswirtschaft stemmt gerade eine heroische Aufgabe, nämlich aus Kernkraft und Kohle auszusteigen, ohne die Industriegesellschaft aufzugeben. Und wir zeigen, wie das geht.“

Aus Kernkraft und Kohle auszusteigen wäre in der Tat ein heroisches Unterfangen. Selbst im Energiewunderland Deutschland fließt nach wie vor 97 Prozent der Energie aus fossilen und nuklearen Quellen. Strom macht ungefähr 20 Prozent des gesamten Energieverbrauchs aus. Aber selbst da stammten 2014 immer noch 43,2 Prozent der Elektrizität aus der Kohleverstromung und 15,8 Prozent aus Kernkraftwerken. Macht zusammen mit Gas immer noch gut 75 Prozent.

Ein paar Zeilen später wird deutlich, wie Albig die große Energietransformation kalkuliert – nämlich so ähnlich wie die eineinhalb Cent mehr:

„In Schleswig-Holstein haben in der Vergangenheit drei Atomkraftwerke jährlich knapp 30 Terrawattstunden Strom produziert. Rund 6000 Windwühlen werden bis 2020 die gleiche Menge Strom liefern. Grünen Strom, der weder unseren Planeten verstrahlt, noch das Klima kippen lässt!“

Abgesehen davon, dass die Atomkraftwerke im Norden und anderswo weder den Planeten verstrahlt haben noch das Klima – also die Wetterdaten der letzten 30 Jahre – umkippen konnten, abgesehen davon verwechselt Albig wie fast alle Politiker die installierte Leistung von Windparks mit der produzierten Strommenge. Das ist ungefähr so, als würde jemand von der Motorleistung eines BMW auf die technische Höchstgeschwindigkeit schließen und danach die Fahrzeit von Kiel nach Berlin berechnen. An sehr guten Küstenstandorten kommen Windräder auf etwa 4000 Volllaststunden. Das entspricht einer Jahresauslastung von 46 Prozent. Der Wirtschaftswissenschaftler Hans-Werner Sinn überschlug einmal grob, welche Zahl an Windrädern mit drei Megawatt Leistung nötig wäre, um rein rechnerisch – das Problem der fehlenden Stromspeicher einmal ignoriert – so viel Strom zu liefern wie ein Atomkraftwerk. Das Ergebnis: 6 800 Rotoren müssten aufgestellt werden, um einen einzigen Kraftwerksblock mit einem Gigawatt Kapazität zu kompensieren.

Auch ein bisschen Kritik an der Energiewende bringt Albig an, damit sein Ökoenergielob nicht ganz so werblich ausfällt:
„Heute wissen wir, dass wir den erneuerbaren Energien auch mit weniger Geld zum Durchbruch verholfen hätten. Wir sollten die Fehler, die wir gemacht haben, nicht wiederholen; aber wir können sie leider auch nicht rückwirkend beseitigen.“

Ein paar Milliarden weniger hätten auch gereicht? Den subventionsfinanzierten Zweitporsche des Landverpächters hätte es bei näherer Betrachtung gar nicht gebraucht? Bei jeder kleiner Anpassung der Vergütungssätze in den letzten 15 Jahren stimmte die Grünstromlobby zuverlässig ein orchestriertes Wutgeheul an: Da wurde „die Energiewende abgewürgt“, ein paar Cent weniger Subventionen bedeuteten „Kürzungsorgien“, den Untergang des letzten Eisbären und selbstverständlich Verrat an unseren Kindern, von denen wir die Welt nur geleast haben. Und immer mittemang im Hungermarsch der Sonnen- und Windinvestoren: Politiker der Grünen und der SPD, fest untergehakt mit Greenpeace und Grünstromverbänden.

Nein, rückgängig machen kann Torsten Albig die große Umverteilung der Vergangenheit nicht. Tausendmal schade! Aber er könnte wenigsten jetzt für die Abschaffung der dreistesten Wohltaten für die Grünbarone werben. Warum müssen Stromkunden beispielsweise über die „Offshore-Haftungsumlage“ zwangsweise einspringen, wenn die Projekte auf hoher See nicht laufen wie geplant? In keiner anderen Branche gibt es eine derartige Gewinngarantie bei gleichzeitigem Ausschluss jedes wirtschaftlichen Risikos.  Ganz ähnlich läuft es für Windmüller an Land: Passt der Strom nicht mehr ins überlastete Netz (was durch den Albig und Genossen vorangetriebenen Ausbau immer öfter geschieht), dann muss die theoretisch lieferbare Energie trotzdem zum subventionierten Preis abgenommen und von allen Stromnutzern bezahlt werden. Dieser Phantomstrom nennt sich „Ausfallarbeit“. Für die Nichtenergie zahlten die Deutschen 2014 erstmals über 100 Millionen Euro.

In diesem Sommer fahren die konventionellen Kraftwerke zudem besonders hektisch nach unten, weil sie die Solarstromflut ins Netz lassen müssen, die Vorrang genießt – und sie müssen nach Sonnenuntergang ebenso schnell wieder hochgejagt werden. Nach Angaben der vier Netzbetreiber dürfte dieser so genannte Redispatch, der nur durch den grünen Zufallsstrom nötig wird, etwa eine Milliarde Euro kosten. Darüber, wenigstens die Verbraucher nicht mehr für den Phantomstrom aus Windmühlen abzukassieren und Grünstromproduzenten an den von ihnen verursachten Kosten zu beteiligen, verliert Albig kein Wort. Der „Spiegel“ fragt auch nicht nach.
Müssten Offshore-Windfirmen ihr Risiko selbst tragen, dürften Windmüller an Land nur produzierten Strom in Rechnung stellen und müssten sie sich an Folgekosten beteiligen, dann brächen allerdings massenhaft Kalkulationen zusammen – trotz EEG-Subventionen von gut 22 Milliarden Euro im Jahr.

Möglicherweise stellt Albig ja im Jahr 2020 fest: Hätte man auch günstiger haben können. Aber leider – im Nachhinein kann man nichts mehr ändern. Oder, um es mit Albig zu sagen: „Ja, wenn man aus dem Rathaus kommt, ist man immer schlauer.“

*33/2015

Mehr über die Energiewende und ihre Kosten in:

Alexander Wendt „Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“ 170 Seiten, E-Book 3,99 Euro, Taschenbuch 9,90 Euro,http://www.alexander-wendt.com

Übernommen von ACHGUT hier

Nachtrag der Redaktion:

Von T. Albig stammt auch der selbstbewusste Spruch eines SPD Granden, der zwar niemals in der Wirtschaft sein Geld verdienen musste, aber dafür umso lockerer anderen Leuten dafür die Leviten liest.

„Ein Windpark auf der Insel Fehmarn bringt Renditen, für die ich Herrn Ackermann von der Deutschen Bank wüst gescholten hätte“, sagt er dem SPIEGEL.

Selbstkritik? Fehlanzeige!




Doppelspitze – Dopppellüge (Twin peaks – twin lies)

Vermeintlich rekordhohe Temperatur- und Kohlendioxid-Niveaus führen vermeintlich zu einem Rekord-Chaos.

Ein vor kurzem erschienener NOAA-Artikel ist genau das, was Dr. Untergang verlangt hat. Darin wird behauptet, dass der seit 18 Jahren andauernde „Stillstand“ des Temperaturanstiegs gar nicht existiert. (Der „Stillstand“ folgte einem 20 Jahre langen moderaten Temperaturanstieg, welcher einer längeren Abkühlungsperiode folgte). Im Artikel heißt es:

Hier präsentieren wir eine aktualisierte Analyse der globalen Temperatur, die zeigt, dass die globalen Trends höher sind als vom IPCC berichtet, vor allem während der letzten Jahrzehnte, und dass die zentrale Schätzung der Erwärmungsrate während der ersten 15 Jahre dieses Jahrhunderts zumindest genauso hoch ist wie in der zweiten Hälfte des vorigen Jahrhunderts. Diese Ergebnisse stützen nicht die Vorstellung einer „Verlangsamung“ der globalen Temperaturzunahme.

Die Studie wurde im Science-Magazin veröffentlicht, um extensive Abdeckung der Medien sicherzustellen, bevor Kritiker deren Schummeleien bloßstellen konnten. Tatsächlich war dieses Konzept aufgegangen in Gestalt prominenter Berichte darüber in Print- und Elektronik-Medien.

Sie ist Teil der Doppelspitzen-These: Spitzen-CO2-Werte werden Spitzen-Temperaturwerte hervorrufen, welche zu katastrophalem Klima und Wetter führen. Zum Unglück der Alarmisten findet das Chaos aber nicht statt.

Kein Hurrikan der Stärke 3 bis 5 hat seit 9½ Jahren das US-Festland heimgesucht – ein Rekord. Tornados, Dürren, Eisbären, das polare Meereis, der Meeresspiegel und Buschbrände liegen allesamt auf einer Linie mit historischen Trends. Die Sahelzone ist wieder grün, dank des zusätzlichen CO2. Und die neuerdings angeführten Katastrophen, die sie dem fossil getriebenen Klimawandel in die Schuhe schieben wollen – Allergien, Asthma, IS und Boko Haram – kommen noch nicht einmal durch den Gelächter-Test.

Der NOAA-Report scheint ein weiterer Beifallssturm zu sein für den Versuch des Weißen Hauses, wieder in die Offensive zu gehen vor der Zehnten Internationalen Heartland-Klimakonferenz. Allerdings hat eine wachsende Zahl prominenter Analysten ernste Verzerrungen, Fehler und Fragwürdiges in dem Report gefunden.

Die Klimatologen Pat Michaels (Foto), Dick Lindzen und Chip Knappenberger weisen darauf hin, dass das NOAA-Team die von Bojen gemessene Wassertemperatur (SST) um 0,12°C nach oben korrigiert haben, um sie „homogen“ zu machen mit längeren Datenreihen von Messungen im Kühlwasser von Schiffsmotoren. Allerdings sind diese Daten „eindeutig kontaminiert durch die Abwärme“ der Schiffe, und die Daten waren niemals für den wissenschaftlichen Gebrauch gedacht – während das globale Bojen-Netzwerk für die Umweltüberwachung konzipiert war.

Warum also hat man nicht die Schiffsdaten nach unten korrigiert, um sie mit den Daten der Bojen „homogen“ zu machen und die Kontaminierung zu beseitigen? Vielleicht weil, wie die Klimatologin Judith Curry beobachtet hat, diese jüngste NOAA-Analyse „von der Obama-Administration als politisch nützlich angesehen wird“. Allerdings wird sie nicht „besonders nützlich“ sein zur Verbesserung unseres Wissens über die Vorgänge im Klimasystem der Erde.

Dr. Curry und die zuvor genannten Wissenschaftler merken auch an, dass das Bojen-Netzwerk während der letzten Jahrzehnte ein immer größeres Gebiet abdeckt und qualitativ hochwertige Daten sammelt. Noch einmal, warum also hat die NOAA die Schiffsdaten als Grundlage genommen? Die Argo-Bojen und Satellitenbeobachtungen (beides wurde in dieser neuen Analyse nicht berücksichtigt) zeigen keinen Erwärmungstrend – während die NOAA-Methode eindeutig einen solchen zeigt.

Der kanadische Ökonom und Statistikexperte Ross McKitrick (Foto) hat das NOAA-Verfahren ebenfalls analysiert. Er kam zu dem Ergebnis, dass damit der Stillstand der globalen Erwärmung beseitigt wird, der in acht anderen Studien bestätigt worden ist. Die NOAA-Adjustierungen haben einen besonders großen Effekt, sagt er. Außerdem fasst er die Probleme zusammen, die die Wissenschaftler bei der Erzeugung eines konsistenten Temperatur-Datensatzes haben wegen der vielen unterschiedlichen Messmethoden im Laufe der Jahrhunderte.

Der Theologe, Ethiker und Klimaanalyst Calvin Beisner präsentiert eine ausgezeichnete Zusammenfassung all dieser und anderer Kritiken an der irreführenden NOAA-Studie.

Es ist auch wichtig anzumerken, dass die NOAA hier mit Hundertstel Grad hantiert – im Wesentlichen die Fehlerbandbreite. Auf dieser Grundlage weist die NOAA zahlreiche Studien zurück, die das (vorläufige) Ende der planetarischen Erwärmung gefunden haben.

Das Global Warming Policy Forum kommt kurz und bündig zu der Schlussfolgerung: „Dies ist eine hoch spekulative und schwache Studie, die ein statistisch marginales Ergebnis zeitigt durch Rosinenpickerei hinsichtlich der Zeitintervalle. Dies führt zu einer globalen Temperaturgraphik, die im Gegensatz steht zu jenen, die vom UK Met.-Office und der NASA entwickelt worden sind“, ebenso wie zu anderen erschöpfenden Berichten zum Daten-Monitoring während der letzten vier Jahrzehnte.

Das ultimativ wichtige Fazit ist einfach:

Das zentrale Thema in dieser andauernden Debatte ist nicht die Frage, ob sich der Planet erwärmt. Das Thema ist: Wie stark erwärmt sie sich? Wie viel der Erwärmung und anderer Klimaänderungen ist dem Verbrennen fossiler Treibstoffe und den Treibhausgas-Emissionen seitens des Menschen geschuldet – und wie viel den gleichen mächtigen natürlichen Kräften, die Wetter und Klima während der gesamten Menschheitsgeschichte getrieben haben? Und werden irgendwelche Änderungen lang- oder kurzfristig sein … und gut, schlecht, neutral oder katastrophal?

Im Moment gibt es keinen wissenschaftlichen Beweis – auf der Grundlage tatsächlicher Beobachtungen und Messungen von Temperatur und Wetterereignissen – dass die Menschen das Klima verändern bis zu einem bedeutenden oder gefährlichen Ausmaß. Computermodelle, politische Aussagen können und dürfen nicht als Ersatz für dieses Fehlen an Beweisen dienen, vor allem dann, wenn die Konsequenzen so verheerend für so viele sein würden. Tatsächlich war selbst die „rekordhohe“ globale mittlere Temperatur des Jahres 2014 ausgedacht und lag innerhalb der Fehlerbandbreite.

Einfach gesagt: Die Gefahr ist nicht der Klimawandel – mit dem haben wir es immer zu tun. Die Gefahr sind Energie-Restriktionen, die erlassen werden im Namen der Kontrolle des sich ewig wandelnden Klimas der Erde.

Mehr noch, der oberste Klimafunktionär des IPCC sagt, dass die nicht gewählten UN-Bürokraten „sich die möglicherweise schwierigste Aufgabe vorgenommen haben, der wir uns je gestellt haben, nämlich das (globale kapitalistische) wirtschaftliche Entwicklungsmodell absichtlich zu transformieren“. Ein anderer IPCC-Direktor sagt: „Klimapolitik hat fast nichts mit Umweltschutz zu tun. Der nächste Weltklimagipfel ist in Wirklichkeit ein Wirtschaftsgipfel, auf dem die Umverteilung der Ressourcen der Welt verhandelt werden wird“.

Jener Gipfel könnte den Regierungsfunktionären und den Umweltaktivisten auch die Macht geben, fossile Treibstoffe zu eliminieren, das Geschäftsleben und ganze Ökonomien zu kontrollieren – und den Familien zu diktieren, an welchem Lebensstandard sie sich erfreuen dürfenohne auch nur im Mindesten für die Schäden zur Rechenschaft gezogen zu werden, die ihre Aktionen nach sich ziehen.

Für entwickelte Länder würde dass Klein-Beigeben gegenüber der Klimakrisen-Industrie zu Restriktionen fossiler Treibstoffe führen, die Arbeitsplätze vernichten, Lebensstandards reduzieren ebenso wie Gesundheit, Wohlergehen und Lebensspannen – und es würde dazu führen, ideologisch getriebene Regierungsbürokraten die Kontrolle zu geben über alles, was die Menschen machen, erzeugen, verschiffen, essen und tun.

Für arme Länder bedeutet die Implementierung einer Politik, energiehungrige Massen vor von Computern generierten, vom Menschen verursachten Klimakatastrophen in vielen Jahrzehnten von heute an zu schützen, dass die Armut verewigt wird und Krankheiten ausbrechen, die die Menschen morgen töten. Den Menschen ihre grundlegenden Rechte zu verweigern auf bezahlbare, zuverlässige Energie, aus der Armut zu kommen und moderne Technologien zu nutzen wäre unmoralisch – ein Verbrechen gegen die Menschheit.

Länder, Gemeinden, Unternehmen und Bürger müssen diesen unmoralischen, schädlichen, tyrannischen, tödlichen und rassistischen Dekreten von EPA, IPCC, UN und EU widerstehen und diese in Frage stellen. Anderenfalls wird der stetige technologische, ökonomische, gesundheitliche und menschliche Fortschritt der letzten 150 Jahre zu einem schmerzhaften, schleichenden Ende kommen – geopfert im Namen einer illusorischen und künstlich erzeugten Klimakrise.

———————————-

    Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org), author of Eco-Imperialism: Green Power – Black Death, and coauthor of Cracking Big Green: Saving the World from the Save-the-Earth Money Machine.

    Tom Tamarkin is founder and CEO of USCL Corporation and of the fusion energy advocacy groups http://www.fusion4freedom.us  andhttp://www.fuelRfuture.com. He is widely credited with inventing the utility industry smart meter and holds granted and pending patents in the field.

Link: http://www.cfact.org/2015/06/25/twin-peaks-twin-lies/

Übersetzt von Chris Frey EIKE




Abschätzung der Auswirkungen von Klimaprogrammen

Mit Konzentration auf die ökonomischen und menschlichen Konsequenzen der Bemühungen, gegen den Klimawandel vorzugehen, zeigten die drei Diskutanten den Preis auf, den die Armen der Welt zahlen müssen für die gescheiterten Bemühungen zum Mikro-Management des Klimas.

Driessen bestätigte in seinem Vortrag „Perverse Umweltjustiz“ die Realität des sich ewig wandelnden Klimas.

„Wie jedermann weiß, war der Klimawandel ,real‘ in der gesamten Erd- und Menschheitsgeschichte“, sagte Driessen. „Seit fast 20 Jahren haben sich die mittleren planetarischen Temperaturen nicht mehr verändert, selbst mit einem starken Anstieg des Kohlendioxid-Niveaus. Kein Hurrikan der Stärke 3 bis 5 ist seit 9,5 Jahren mehr auf das US-Festland übergetreten, eine rekordlange Zeit. Tornados, Überschwemmungen, Dürren, Eisbären, polares Meereis, der Meeresspiegel und Buschfeuer sind alle auf einer Linie mit oder geringer als historische Verteilungen und Trends. Mittlerweile ist die Sahel-Zone ergrünt dank des zusätzlichen CO2“.

Driessen sagte weiter, während natürliche Klimaänderungen immer weiter gehen, helfen uns moderne Wohnungen, Energie und Technologie dabei, mit Klima- und Wetterereignissen besser fertig zu werden als jemals zuvor.

„Unglücklicherweise ignorieren die Klimaalarmisten diese guten Nachrichten und sorgen für eine Politik, die ernsthaft die menschliche Gesundheit und das Wohlergehen beeinflussen. Echte Umweltgerechtigkeit erlaubt es den Menschen überall, über bezahlbare, sichere Energieversorgung zu verfügen, moderne Technologien zu nutzen und einen besseren Lebensstandard zu haben. Verweigert man den Menschen diese grundlegenden Menschenrechte, ist das pervers und unmoralisch.

Driessen zufolge fehlt es 1,3 Milliarden Menschen an Strom, oder sie sind verarmt und hungrig.

Jedes Jahr erkranken hunderte Millionen schwer und vier Millionen sterben – zumeist Frauen und Kinder – durch Lungen- und Atemwegserkrankungen, die hervorgerufen werden durch das Einatmen vom Rauch offener Koch- und Heizungsfeuer oder dem Fehlen von sauberem Wasser, geeigneten sanitären Einrichtungen und Kühlschränken, um Lebensmittel frisch und frei von Bakterien zu halten.

Das Aufzwingen von Restriktionen bzgl. fossiler Treibstoffe im Namen der Stabilisierung des Erdklimas würde Armut Krankheit und Tod immer weiter verlängern.

Es ist ein skrupelloses Verbrechen gegen die Menschheit, wenn man eine Politik implementiert, die energiehungrige Massen ,schützt‘ vor hypothetischen, vom Menschen verursachten Klimakatastrophen in vielen Jahrzehnten, indem man für eine Verlängerung von Armut und Krankheit sorgt, die die Menschen heute töten“.

Soweit Driessen.

Untersuchung der ökonomischen Auswirkungen von Restriktionen bzgl. fossiler Treibstoffe

Van Kootens Vortrag hatte „ökonomische Konsequenzen von Kohlendioxid-Regulierungen“ zum Thema. Er konzentrierte sich auf die Myriaden von Problemen im Zusammenhang mit der Bestimmung der „sozialen Kosten von Kohlenstoff“. Die International Energy Agency beispielsweise beziffert die globalen Kosten für Subventionen fossiler Treibstoffe mit 548 Milliarden Dollar im Jahre 2013.

Der International Monetary Fund kalkulierte diese Kosten mit „Einbeziehung nicht dem Markt zugeordneter Werte“ [„non-market valuations] mit 4,3 Billionen Dollar, eine Zahl, die van Kooten als „lächerlich“ beschrieb.

„Wir kennen den Wert der Kosten von Kohlenstoff nicht und werden ihn wahrscheinlich auch nie kennen“, sagte van Kooten.

Er ist äußerst skeptisch gegenüber Plänen, die globalen Treibhausgasemissionen zu reduzieren durch die Beschneidung des Verbrauchs fossiler Treibstoffe.

„Bemühungen der reichen Länder, den Verbrauch fossiler Treibstoffe zu limitieren, werden auf die Verwundbarsten zurückfallen. Dabei ist völlig egal, was die USA tun. Die globalen Emissionen werden steigen wegen China, Indien und anderer Entwicklungsländer… Kohle und Erdgas sind populär weil billig“.

Van Kooten zufolge öffnet eine Politik des Kohlenstoffhandels die Tür zu einem „FIFA-Effekt“ – die Gelegenheit für Korruption durch Unternehmen, die gefälschte Kohlenstoff-Zertifikate und nicht existierende Programme zum Abscheiden von Kohlenstoff verkaufen [carbon sink programs]. Er berichtete, dass in Europa die Mafia hinter vielen der Betrügereien mit Kohlenstoff-Zertifikaten in der EU stecken, was inzwischen zum Zusammenbruch der europäischen Handelsbörse geführt hat.

Soweit van Kooten.

Wie die Klimapolitik Europa beeinflusst hat

Wolfgang Müller referierte über die Auswirkung der Klimapolitik auf Europa.

„Die EU war von Anfang an an vorderster Front der globalen Maßnahmen bzgl. des Klimawandels und der Reduktion von Kohlenstoff-Emissionen“, sagte Müller.

Als Zwischenschritt setzte die EU sich ein Ziel, seine CO2-Emissionen bis zum Jahr 2020 um 20% unter das Niveau von 1999 zu drücken und um 80% unter dieses Niveau bis zum Jahr 2050.

Müller zufolge hat die EU ihren Energieverbrauch gedrosselt, „aber die Ursache hierfür ist die Folge der Wirtschaftskrise“.

Es bestehen tiefe Trennlinien zwischen den reicheren Ländern der EU wie Frankreich und Deutschland einerseits und kleineren Ländern mit anfälligeren Ökonomien andererseits. Die Umweltminister von Bulgarien, Kroatien, der Tschechischen Republik, Ungarn, Polen und der Slowakei veröffentlichten eine gemeinsame Erklärung, der zufolge die Länder zwar alles tun sollten, was sie können, um Emissionen zu reduzieren, aber nicht sich im Voraus irgendwelche Ziele setzen.

Dann wandte er sich seinem Heimatland Deutschland zu und machte dem Auditorium einige bemerkenswerte Zahlen bekannt bzgl. des Scheiterns der erneuerbaren Energie in seinem Land. Deutschland gibt derzeit 22 Milliarden Dollar pro Jahr für erneuerbare Energie aus, aber die Diskrepanz zwischen installierter Kapazität und dem Output ist atemberaubend, führte Müller aus.

„Der Output der Windturbinen in Deutschland liegt während 90% der Zeit unter 30% der Kapazität“, sagte Müller. „Was die Solarenergie betrifft, liegt der Output über 55% der Zeit unter 10% der installierten Kapazität, und über 75% der Zeit liegt die Kapazität von Wind und Solar zusammen unter 20%.

Nachdem fast 25.000 Windturbinen und Tausende Solarpaneele installiert worden waren, sind die Treibhausgas-Emissionen Deutschlands dennoch praktisch viele Jahre lang konstant geblieben, sagte Müller.

Bonner R. Cohen, Ph.D. is a senior fellow at the National Center for Public Policy Research. 

Link: http://news.heartland.org/newspaper-article/2015/06/19/assessing-impacts-climate-programs

Übersetzt von Chris Frey EIKE




Gorleben und das Standortauswahlgesetz – Ad calendas graecas

PROBLEMSTELLUNG

Nach über vierzig Jahren des politischen Streitens um die Erkundung des Standortes Gorleben als mögliches Endlager für  hoch radioaktive Abfälle unternehmen die politisch Verantwortlichen einen erneuten Anlauf, die hoheitliche Aufgabe der Entsorgung Wärme-entwickelnder hoch radioaktiver Abfälle vorzubereiten. Hierzu wurde im Einvernehmen zwischen fast allen Parteien das „Gesetz zur Suche und Auswahl eines Standortes“ [Standortauswahlgesetz vom 23. Juli 2013*] verabschiedet. Mit dem Gesetz sollen die Regeln zur Endlagerung neu festgelegt werden. Es sieht vor, nach zwei, drei oder mehr Standorten zu suchen, um den für die Sicherheit vergleichbar besten Standort zu finden. An diesen Standorten sollen anschließend die notwendigen übertägigen Forschungsarbeiten sowie die untertägigen Erkundungsarbeiten durchgeführt werden. Nach Vorlage aller Ergebnisse von den verschiedenen Untersuchungsbergwerken soll mittels eines Vergleichs die Auswahl des für eine Million Jahre bestmöglich sicheren Standortes getroffen werden.

Das Ganze verschlingt immense Summen und dient nur dazu, die Endlagerfrage für weitere Jahrzehnte als offenen Posten hinstellen zu können.

RÜCKBLICK IN DIE VERGANGENHEIT

Seit den 1970er Jahren wird der Standort Gorleben auf seine Eignung als Endlager untersucht. Seitdem haben Wissenschaftler einschließlich Nuklear-Chemiker und Nuklear-Physiker, Ingenieure und Techniker tausende von Daten ermittelt, diese in hunderten Berichten zusammengestellt und dabei auch viele – von wenigen Fachleuten und vielen gesellschaftlichen Gruppen gestellte –  kritische Fragen sachkundig beantwortet. Auf Anfrage eines Abgeordneten zur Eignung Gorlebens hat im Gegensatz dazu der stellvertretende Ministerpräsident der Landesregierung Niedersachsens, Mitglied der neu geschaffenen Endlager-Kommission, am 12. September 2014 geantwortet: „Die neue Landesregierung hat … eine Neubewertung des Standortes Gorleben vorgenommen. Sie ist der Auffassung, dass der Standort geologisch ungeeignet und politisch verbrannt ist“ [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*].

Die für das Endlagerprojekt Gorleben entstandenen Kosten, die zum größten Teil von der Energiewirtschaft bezahlt wurden, beliefen sich auf über anderthalb Milliarden Euro. Die Arbeiten wurden im Juni 2000 aus politischen Gründen von der neu gewählten rot-grünen Regierung mit einem Moratorium unterbrochen, obwohl bis dahin keine nachweisbaren K.O. Kriterien vorlagen.

Seit dieser Zeit wurden neben der Offenhaltung der Grube keine weiteren wesentlichen standortbezogene Untersuchungen durchgeführt. Nach einer zehnjährigen Unterbrechung der Erkundung wurden die Arbeiten wieder aufgenommen.

Zuerst jedoch noch ein kurzer erklärender Einwurf: Endlager und Untertagedeponien/UTD sind im geologisch-bergmännischen Sinne dasselbe. Es sind Synonyme! (Im Englischen gibt es dafür auch nur ein Wort: „waste disposal“). Trotzdem wurde und wird in Deutschland bei der politischen Diskussion über die Entsorgung hoch radioaktiver Abfälle die Öffentlichkeit dieser Sachverhalt nicht thematisiert. Insbesondere wird die Existenz einer Untertagedeponie für hoch toxische Sonderabfälle in Salz, die seit Jahren in Deutschland in Betrieb ist, nicht wahrgenommen. Abgesehen von der zusätzlichen Berücksichtigung der Radioaktivität und der höheren Einlagerungstemperaturen der Abfälle unterscheiden sie sich nicht grundsätzlich bei den Anforderungen an die Geologie, an die Untersuchungstechniken, an den Bau des Bergwerkes, an den Betrieb und den langzeitsicheren Verschluss für ein Endlager und für eine Untertagedeponie für Sonderabfälle, die im Gegensatz zu radioaktiven Abfällen ewig toxisch bleiben. Mit dieser Information könnte der Öffentlichkeit ideologiefrei erklärt werden, dass die Entsorgung von hoch radioaktiven Abfällen nicht des Teufels ist, sondern eine beherrschbare Technologie darstellt. Nur in Deutschland zeigt sich in der Wahrnehmung der Entsorgung von hoch toxischen und hoch radioaktiven Abfällen der Bevölkerung ein – wohl gewollter – unüberwindbare Zwiespalt zum gleichen Sachverhalt.

Im Jahr 2000 wurde vom BMU die Erkundung des Salzstocks Gorleben durch ein Moratorium unterbrochen. Es sollte zur Klärung von konzeptionellen und sicherheitstechnischen Fragen zur Endlagerung für einen Zeitraum von drei bis maximal zehn Jahre dienen. Nach Auffassung der damaligen rot-grünen Bundesregierung bestanden keine grundsätzlichen Zweifel an den bisher gewonnen geologischen Befunde zur Eignungshöffigkeit des Salzstockes. („Vereinbarung zur Endlagerung zwischen der Bundesregierung und den Energieversorgungsunternehmen vom 14.06.2000 paraphiert bzw. 11.06.2001 unterschrieben) [http//www.kernenergie.de/kernenergie-wAssets/docs/themen/ Vereinbarung14-06.pdf, *] In Anlage vier der Vereinbarung heißt es zusätzlich, dass „… die bisherigen Erkenntnisse über ein dichtes Gebirge und damit die Barrierefunktion des Salzes positiv bestätigt wird“. Die Bundesregierung hatte zugesagt, die  moratoriumsbegründenden Zweifelsfragen zügig abzuarbeiten und hat mehrfach Ende 2004 als Termin für das Ende der Bearbeitung genannt.

Eine aus sechs hochrangigen Fachleuten bestehende International-Expert-Group Gorleben (IEG) hat 2001 im Auftrag der Energiewirtschaft einen Fachbericht (125 S.) erstellt, mit dem Ziel, eine unabhängige und neutrale Meinung zu den bis zu diesem Zeitpunkt vorliegenden Ergebnissen zu erhalten und um die noch zu bearbeitende Themen aufzuzeigen. Der Bericht wurde 2001 in Hannover der Presse vorgestellt. Kopien wurden an das Bundesamt für Strahlenschutz (BfS) übergeben.  [International Expert Group Gorleben, 2001: Repository Project Gorleben – Evaluation of the Present Situation.*] Dieser Bericht wird weder vom BfS noch in den zahlreichen Fachberichten zu Gorleben erwähnt. Er dürfte wohl auf dem ‚Index‘ des BfS stehen, weil es sich nicht um einen offiziellen Bericht handelt. Dies gilt dagegen nicht für die in den 90-iger Jahren von Greenpeace etc. finanzierten Gutachten der Gegner, bei denen es sich ebenfalls um nicht offizielle Berichte handelt – und trotzdem sind diese heute das geologische Maß für die Zukunft!

Diese „International Peer-Review-Group“ bestand aus folgenden sechs hochrangigen international anerkannten Fachleuten. Ausführlichere Lebensläufe sind in dem Bericht enthalten:

♦  Per-Eric Ahlsröm: MSC in Engineering Physics; 1984 – 1992, Wissenschaftsdirektor und anschließend Vice Präsident der „Swedish Nuclear Fuel and Waste Management Co.

  D. Alexandre: Chemiker und Geologe; 1987 – 1990, Deputy Director of ANDRA (French Agency for Radioactive Waste Management), ab 1990 Research Director beim CEA.

♦  Dr. C. Heath: PhD in Nuclear and Chemical Engineering; 1977 -1981, arbeitete als Direktor für das U.S.Department of Energy „DOE“ hauptsächlich im Yucca Mountain Project, Nevada.

  Dr.-Ing. Klaus Kühn: Bergingenieur; 1973 – 1995, Direktor des Instituts für Tieflagerung, Professor an der Technischen Universität Clausthal.

  Dr. Ch. McCombie: Physiker; 1970 -1974, arbeitet bei der „United Kingdom Atomic Energy Authority“, 1970 – 1979 beim „Swiss Institute for Reactor Research“ (heute Paul Scherrer Institut) und 20 Jahre lang war er „Executive Advisor“ für die  NAGRA (Schweiz).

♦  Dr. W. Weart: Geophysiker, Geologe und Mathematiker; seit 1975 arbeitet er für die „Waste Isolation Pilot Plant“ WIPP in New Mexico und brachte das erste Endlager für schwach und mittel aktive Abfälle im Salzgestein in Produktion.

Das Expertengremium kam zu dem Schluss, dass angesichts der bis 2000 vorliegenden Ergebnisse eine Unterbrechung der Erkundung durch ein Moratorium aus wissenschaftlich-technischer Sicht nicht gerechtfertigt ist. Es sind deshalb auch keinerlei Hinweise genannt, die das politische Diktum der Gegner, das Auswahlverfahren des Standortes sei fahrlässig gewesen, bestätigen. Im Gegenteil!

Wie das Gremium weiter feststellte, wurden die Untersuchungsarbeiten in Gorleben ohne wissenschaftliche Begründung aus rein politischen Gründen unterbrochen.

Als Folge des Moratoriums sind bis 2010 keine wesentlichen weiteren wissenschaftlich-technischen Untersuchungen am Standort Gorleben durchgeführt worden [Gorleben – das Endlagersuchgesetz – ein deutsches Drama; 2013*]. Somit konnten auch keine grundlegenden weiterführenden Erkenntnisse erzielt werden. Dies steht im Widerspruch zu der Begründung des Moratoriums zur  ‚Klärung offener Fragen‘.

ABLAUF DER EREIGNISSE AM STANDORT GORLEBEN SEIT  2010

Im November 2010 beauftragte das Bundesumweltministerium die Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) mit dem Forschungsvorhaben „Vorläufige Sicherheitsanalyse Gorleben“  mit verschiedenen Fragestellungen zum Standort Gorleben sowie zu grundsätzlichen methodischen Fragen. [GRS Projektbeschreibung; 2010*]. Die ausführliche Studie sollte nach Plan Ende 2012 von einer international besetzten, neutralen Peer-Review-Gruppe bewertet werden. Das Auftragsvolumen  belief sich auf 8.966.950,57 Euro, die zum größten Teil vom Steuerzahler aufgebracht wurden [Deutscher Bundestag, Drucksache 17/6817; 2011*].

Der 424 Seiten umfassende Bericht [Vorläufige Sicherheitsanalyse Gorleben“ (VSG); 2013*], führt die Ergebnisse von 15 Arbeitspaketen zusammen, die auf insgesamt 20 Einzelberichten der GRS und 5 Einzelberichten der BGR beruhen. Die Einzelberichte umfassen insgesamt 5628 Seiten. Dafür hat die GRS folgende Partner in das Projekt eingebunden:

♦  die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR),

  die DBE TECHNOLOGY GmbH,

  das Institut für Aufbereitung, Deponietechnik und Geomechanik der TU Clausthal,

♦  das Institut für Gebirgsmechanik GmbH (IfG),

  das Institut für Sicherheitstechnologie (ISTec),

  das Karlsruher Institut für Technologie/Institut für Nukleare Entsorgung (KIT/INE),

  die international nuclear safety engineering GmbH (nse; Zusammenschluss mehrerer Institute der RWTH Aachen),

  das Institut für Atmosphäre und Umwelt (IAU) der Universität Frankfurt

  die T-Systems Solutions for Research GmbH.

Der GRS bzw. den eingebundenen Partnern oblag jeweils allein die Auswahl ihrer Mitarbeiter, die an dem Vorhaben arbeiteten. Alle Einzelberichte sind somit von ausgewiesenen Fachleuten erstellt worden, die von den Abfallverursachern weder ausgesucht noch bezahlt wurden. Diese Beteiligung vieler Wissenschaftseinrichtungen, die über Jahrzehnte langes Knowhow zu allen endlagerrelevanten Aspekten verfügen, und deren direkte interdisziplinäre Zusammenarbeit unter der wissenschaftlichen Führung eines Steering Committes hat sich bewährt.

Die kurzen zusammenfassenden Einzelergebnisse (Fakten) der zahlreichen Unterkapitel der Studie wurden auf zwei Seiten für jeden Leser verständlich zusammengestellt und veröffentlicht [Gorleben – Offizielle vorläufige Sicherheitsanalyse ergibt – Gorleben ist geeignet; 2014*]

Ursprüngliche Zielsetzung der „Vorläufigen Sicherheitsanalyse Gorleben (VSG)“

Die ursprüngliche im Jahr 2000 formulierte Zielsetzung der „Vorläufigen Sicherheitsanalyse Gorleben (VSG)“ forderte die Erarbeitung einer systematischen Zusammenstellung des Kenntnisstandes zu Gorleben. Darauf aufbauend sollte eine vorläufige Eignungsprognose und die Identifizierung des noch bestehenden Bedarfs an standortspezifischen und standortunabhängigen Fragestellungen im F&E-Bereich erarbeitet werden.

Insgesamt waren knapp 80 Wissenschaftler mit den Einzelthemen der Studie beschäftigt. Nach Abschluss der Arbeiten sollte mittels eines Peer-Review-Verfahrens eine Prognose zum Salzstock Gorleben gegeben werden. Für das Peer-Review-Verfahren war geplant, entweder

  die EU,

  die IAEA oder

  OECD/NEA

auszuwählen. Nicht das BMU, sondern die ausgewählte Institution soll entscheiden, wie die Peer-Review-Group zusammengesetzt wird und aus wie vielen Personen sie bestehen soll [Deutscher Bundestag, Drucksache 17/6817, 2011*].

Aktualisierte Zielsetzung der VSG Studie

Ohne einen sachlichen Grund – wahrscheinlich auf politischen Wunsch – wurde in 2011 die Zielsetzung der Studie gerändert. Es wurde verordnet, dass der Eignungsnachweis nur eines Standorts in der Studie nicht mehr gültig ist, sondern in Zukunft der Eignungsnachweis nur nach einem mehrstufigen Auswahlverfahren und nur im Vergleich mit anderen Standorten entschieden werden darf. [Vorläufige Sicherheitsanalyse  Gorleben VSG, Projektbeschreibung, Aktualisierte Zielsetzung*]. „Geeignet“ in diesem Sinn wird damit nur der Standort sein, bei dem die verschiedenen grundsätzlichen und vergleichsspezifischen Kriterien erfüllt sind und ‚die bestmögliche‘ Sicherheit für einen Zeitraum von einer Million Jahre gewährleistet ist. Diese verordnete Aktualisierung hatte zum Ergebnis, dass die angestrebte vorläufige Eignungsaussage für den Standort Gorleben nicht mehr abschließend bewertet werden darf, denn die bisherigen Projektziele sollen mit der Zielsetzung ergänzt werden, zukünftige Standortauswahlverfahren zum Vergleich verschiedener Endlagerstandorte zu ermöglichen. Zusätzlich soll untersucht werden, welche Konzepte für den Verschluss eines Endlagers an Standorten mit anderen geologischen Gegebenheiten übertragbar sind.

Der hier gewählte politische Ansatz geht davon aus, dass bei der Festlegung eines Standortes nicht nur die Kriterien an ein Endlager erfüllt sein müssen. Zusätzlich wird eine Optimierung des Auswahlverfahrens gefordert, welche der geübten Praxis der Optimierungsverfahren in eklatanter Weise widerspricht. Optimierung ist nur sinnvoll, soweit dies in einem wirtschaftlich vertretbaren Rahmen erfolgt. Die Untersuchung weiterer Standorte und die damit verbundenen immensen zusätzlichen Kosten sowie die gezielte Aufgabe des Standortes Gorleben sind angesichts seiner absehbaren Eignungshöffigkeit wirtschaftlich nicht vertretbar.

Die geplante internationale Bewertung fand nach Fertigstellung der VSG Studie nicht mehr statt. Als Folge des in Deutschland entstandenen Fukushima-Syndroms wurde in einem am 27. Juli 2013 in Berlin stattgefundenen parteiübergreifenden Konsensgespräch wieder ohne eine fachliche Begründung – denn durch dieses Naturereignis hat sich die Tsunamigefahr für Gorleben nicht erhöht  –  die Chance genutzt, die bergmännischen Erkundungsarbeiten im Salzstock Gorleben einzustellen.

Stimmen, die sich seit Jahrzehnten gegen die Eignungshöffigkeit von Gorleben aussprechen 

Sie stammen hauptsächlich aus dem letzten Jahrhundert. Die genannten Kritikpunkte wurden weder in der Vereinbarung zwischen der Bundesregierung und der Energiewirtschaft [Anlage 4 der Vereinbarung vom 11.06.2001*] noch in dem VSG-Bericht bestätigt. Auch handelt es sich bei all den genannten Veröffentlichungen um keine offiziellen Berichte. Trotzdem stehen sie nicht auf dem ‚Index‘ wie der IEG Bericht von 2001.

Grimmel, E. (1979) … (59 S.)  … Institut für Angewandte Ökologie e.V.; Mauthe, F. (1979) … (60 S.)  … Geologisches Institut der Universität Hannover; Duphorn, K. (1983) … (265 S.) … Universität Kiel;

*Appel, D. et al. (1984) … (?)  … Fraktion der Grünen; Duphorn, K. (1984) …  (47 S.) … Universität Kiel; Grimmel, E. (1984) … (?) … (?); Duphorn, K. (1986) …  (?) … Z. dt. geol. Ges.; Duphorn, K. (1988) …  (141 S.) … im Auftrag der SPD, Kiel; Duphorn, K. (1993) …  (202 S.) … im Auftrag des rot-grünen Nieders. Umweltministeriums; Albrecht, I  et. al. (1993) … (166 S.) …  im Auftrag des rot-grünen Nieders. Umweltministeriums; Grimmel, E. (1993) … (152 S.) …  im Auftrag des rot-grünen Nieders. Umweltministeriums; Paluska, A. (1993) … (236 S.) … (?); Schenk, V. (1993) … (39 S.) … (?); *Appel, D. et al. (1993) …  (118 S.) … PanGeo Geowissenschaftliches Büro; *Appel, D. et al. (2006) … (40 S.) … Gruppe Ökologie e.V. im Auftrag von Greenpeace; Schneider, U. (2009) … (64 S.) …  im Auftrag der Fraktion Die Linken im Niedersächsischen Landtag;  Kreusch, J. (2010) … (12 S.) … Ausarbeitung für den 1. Untersuchungsausschuss der 17. Wahlper.; *Kleemann , U. (2011) … (28 S.) …  im Auftrag der Rechtshilfe Gorleben; Schneider, U. (2011) … (36 S.) …  im Auftrag von Greenpeace;  Kreusch, J. (2012) … (30 S.)  …   im Auftrag von Greenpeace! (*Mitglied im Gorleben-Ausschuss, (unterstrichen: finanziert von Politik oder NGO). [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*].

VERSUCH EINER BEWERTUNG DIESER ENTWICKLUNG.

Wie ist es in einem hochindustrialisierten Land wie Deutschland möglich, ein erfolgreiches Projekt, an dem zahlreiche wissenschaftliche und technische Fachinstitute, Forschungsinstitute, Universitäten, Industrieunternehmen, Landesbehörden, Genehmigungsbehörden, u.a.  zusammengearbeitet haben, durch parteipolitische und kirchliche Organisationen sowie Nichtregierungsorganisationen (NRO/NGO) und sonstige gesellschaftliche Gruppierungen gezielt zu vernichten?

Bei dem Gorleben Projekt handelt es sich, unabhängig von dem Ausstieg aus der Kernenergie, um ein notwendiges Projekt in einem gesellschaftlichen Spannungsumfeld. Ein technisches Projekt wird weitestgehend von wissenschaftlichen und technischen Parametern geleitet, die im Grunde genommen von jedem überprüft und sachlich bewertet werden können. Das gesellschaftliche Umfeld dagegen wird von anderen Parametern geleitet. Hier dominieren menschliche Befindlichkeiten, kulturelle Erfahrungen, Religionen, politische Bewegungen und ihre Propaganda, Ideologien, aber auch Machtverteilungen, Machterhalt sowie Machtmissbrauch. Zum Machtmissbrauch und zur Rolle der Parteien formulierte Alt-Bundespräsident Richard von Weizsäcker 1992 in einem Interview: „Probleme instrumentalisieren sie, um sich gegenseitig zu bekämpfen, statt sie zu lösen.“ Was den Konflikt um die Endlagerung radioaktiver Abfälle überaus treffend beschreibt.

Um diese beiden Welten des gesellschaftlichen Umfeldes und der Technik erfolgreich bei dem Endlagerstandort zusammenzuführen, wäre eine höchstmögliche Transparenz von beiden Seiten erforderlich gewesen. Leider wurde die Information der Öffentlichkeit und damit die Herstellung von Transparenz zu diesem Projekt, die primär in der Zuständigkeit des Bauherrn, also der Bundesrepublik Deutschland, bzw. seines zuständigen Bundesumweltministeriums und seiner nachgeordneten Behörde BfS liegt, in sträflicher weise vernachlässigt, wie ein Vergleich zu der Öffentlichkeitsarbeit in den Projekten Schwedens, der Schweiz und Finnlands zeigt. In Deutschland waren der bauausführenden Technik Auftragsnehmer-seitig die Hände gebunden. Darüber hinaus stoßen technische Belange in der deutschen Öffentlichkeit auf wenig Interesse. Nur das BfS als die verantwortliche Fachbehörde berichtete damals routinemäßig und auch oft nur auf Nachfrage über den technischen Stand des Projektes.

Vorgetragene Kritikpunkte wie z.B. die Standortauswahl, die quartäre Rinne, oder die Gasgefährdung im und unter dem Salzstock, die in den neunziger Jahren in hauptsächlich von Greenpeace und von der damaligen rot-grünen Regierung finanzierten Gutachten veröffentlicht worden sind [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*], sind von der BGR mit fachlichen Antworten richtig gestellt worden. Diese Bewertungen der BGR blieben jedoch in der Öffentlichkeit nahezu ungehört, da die Meinungshoheit weitestgehend von den Gorleben-Gegnern besetzt ist, wie sich an dem unendlichen Umgang der Politik mit den heute vorliegenden Ergebnisse der VSG Studie leicht nachvollziehen lässt.    

Seit 2000 wurde die Öffentlichkeit zunehmend einseitig informiert. Denn die Presse und die Fernsehmedien berichteten mehr und mehr gezielt lancierte Desinformationen. Das BfS korrigiert selten öffentlich diese Falschmeldungen, oder übte Verschweigen von positiven Ergebnissen durch Gefahren [Asse – die Fakten; 2013*], die in dramatischer Art und Weise überhöht dargestellt wurden. Wissenschaftliche-technische Erfolge wurden negiert.

Warum konnte sich gerade in Deutschland ein derartiges Missverhältnis zwischen wissenschaftlich-technischer Offenheit und Ideologie, häufig gesteuert durch Ängste, entwickeln? Um das zu verstehen, sollte man sich daran erinnern, dass in 1999 nach dem altersbedingten Ausscheiden von Dr. Alexander Kaul, Professor für Strahlen- und Biophysik auf Veranlassung der damaligen rot-grünen Regierung Dipl. Ing. Wolfram König, Architekt und Ingenieur für Stadtentwicklung, ein aktiver Politiker der Grünen, zum Präsident des BfS ernannt wurde. Aus heutiger Sicht war das damals eine gravierende, eine langzeitsichere politische Entscheidung der Gegner. Die reifen Früchte können heute gepflückt werden. Anstatt die versprochenen Verbesserungen zur Transparenz des BfS zu realisieren, wie sie in dem AkEndbericht [Auswahlverfahren für Endlagerstandorte, Dez. 2002*] genannt werden, wurde im Tagesgeschäft vom BfS zu Gorleben genau das Gegenteil getan. Insbesondere zu den positiven Ergebnissen der VSG war vom BfS in der Öffentlichkeit nicht viel Erklärendes zu erfahren.

Die Meinungsführerschaft wurde dagegen zunehmend übernommen von Politikern und von Lobby Organisationen (Greenpeace, BUND etc.), aber auch von Stiftungen (Heinrich Böll Stiftung bzw. Stiftung Leben & Umwelt, Hans Böckler Stiftung etc.), oder von Kirchen und deren  Akademien wie beispielhaft der Evangelischen Akademie Loccum, wo bei einer Tagung zur Endlagerung (17.10. bis 19.10.2014) ein Mitglied der Endlager-Kommission, angeregt haben soll „… überall Atomangst zu verbreiten, vor allem in Schulen…“.  All diese Protagonisten wie Parteien, Verbände und Organisationen konnten nun ihre Botschaften und Behauptungen über dicht geknüpfte Informationsnetzwerke und hunderte von Internetforen bis heute verbreiten, verbunden mit zahlreichen bestens organisierten Vortragsveranstaltungen, Versammlungen oder vorgedruckten Anleitungen zur Meinungsmache, unabhängig davon, ob sie den Tatsachen entsprechen oder nicht. Widersprüche zu diesen Desinformationen waren vom BfS oder von beamteten Fachleuten selten in der Presse zu finden. Die für die Allgemeinheit so sehr benötigte und angekündigte Transparenz über die Ergebnisse bei Gorleben ist deshalb seit dem Jahr 2000 zunehmend zu einer „einseitigen Transparenz“, oder einer „Intransparenz“ verkommen.

Bestes Beispiel dafür ist die Antwort des Ministers des Niedersächsischen Umweltministeriums und Mitglied der Endlager-Kommission in 2014 auf die kürzliche Frage eines Abgeordneten der FDP zu Gorleben [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*]. Die Antwort erwähnt nicht, dass nach Auffassung der rot-grünen Bundesregierung (2001) die bisher gewonnen geologischen Befunde einer Eignungshöffigkeit des Salzstocks Gorleben … nicht entgegen stehen. [Anlage 4 der Vereinbarung vom 11.06.2001*]. Auch werden mit keinem Wort die Ergebnisse der in 2013 fertiggestellten VSG-Studie angesprochen. Nur in einem aufgeführten Zitat eines 12 seitigen Gutachtens von Herrn Kleemann, Mitglied der Endlager-Kommission, finanziert von der Rechtshilfe Gorleben e.V., wird die VSG-Studie erwähnt. Wie derart eklatante Desinformationen des Niedersächsischen Umweltministerium von der Öffentlichkeit bewertetet werden überlasse ich Anderen.

WIE GEHT ES WEITER?

Laut Standortauswahlgesetz vom 23.Juli 2013 ist das – „Ziel des Standortauswahlverfahrens, in einem wissenschaftsbasierten und transparenten Verfahren für die im Inland verursachten, insbesondere hoch radioaktiven Abfälle den Standort für eine Anlage zur Endlagerung nach § 9a Absatz 3 Satz 1 des Atomgesetzes in der Bundesrepublik Deutschland zu finden, der die bestmögliche Sicherheit für einen Zeitraum von einer Million Jahren gewährleistet …“ Mit diesem Wortlaut wird dem interessierten Bürger nicht nur suggeriert, dass die dreißigjährige Standortsuche und die folgenden übertägigen und untertägigen Standortuntersuchungen in Gorleben nicht in einem wissenschaftsbasierten Verfahren durchgeführt wurden, sondern erst ab jetzt mit diesem Gesetz die Standorte für die möglichst langzeitsicherste Endlager gesucht, irgendwann einmal gefunden und anschließend mittels untertägigen Erkundungen bewertet werden.  An dem dann ausgewählten Standort soll das Erkundungsbergwerk zum Endlagerbergwerk ausgebaut und die zur Auswahl aufgefahrenen Erkundungsbergwerke verschlossen werden. Zu beachten ist die unrealistische Formulierung “ … bestmögliche Sicherheit …“, die es auch bei der Untersuchung von zwei oder mehreren Standorten nicht geben kann! Denn es könnte immer noch einen weiteren noch viel sichereren Standort geben, der nicht untersucht worden ist.

Die bis 2010 geltende Zielvorgabe für ein Endlager lautete – die allerdings wegen der Bezugnahme auf Gorleben als Referenz heute nicht mehr genannt werden darf – schlicht und vernünftig: „Nachweis eines langzeitsicheren Endlagers.“

Kapitel 1

Zu „Allgemeine Vorschriften und Vorbereitung des Standortauswahlverfahren“ ist Folgendes zur Kommission anzumerken. Die Kommission besteht aus 8 Vertretern der Wissenschaft, von denen drei Geowissenschaftler sind, die in der Fachwelt nicht durch sachliche Veröffentlichungen zu Gorleben aufgefallen sind und 25 fachfremden Persönlichkeiten, von denen ein Teil Lobbyisten von NRO/NGO, Kirchenvertretern und Gewerkschaften sind. In der Vergangenheit sind diese wegen ihren negativen Minderheitsvoten zu wissenschaftlich-technischen nachprüfbaren Ergebnissen aufgefallen.Warum sollten diese ab heute an einer zeitgerechten und kostenbewussten Lösung der Entsorgung von hoch radioaktiven Abfällen interessiert sein?  Verfolgt man die  Berichterstattung der vergangenen zwanzig Jahre, benötigt dieser Hinweis zu deren Verhinderungspolitik keine weitere Erklärung. Der komplizierte Entscheidungsweg innerhalb der Kommission zu komplexen Sachverhalten wird deshalb nur schwer zu fach- und sachgerechten Antworten führen.

Diese Komplexität verhindert aber auch in Zukunft nicht, blitzschnelle politische Entscheidungen ohne all diese Formalismen zu treffen – wenn es die Politik wünscht, wie das nachfolgende Beispiel zeigt.

Der Deutsche Bundestag wurde in 2011 über die geplante Bewertung der VSG-Studie durch eine neutrale internationale Peer-Review-Gruppe informiert [Drucksache 17/6817, 2011*]. In einem am 27. Juli 2013 stattgefundenen parteiübergreifenden Konsensgespräch hatte man jedoch entschieden, diese neutrale Analyse nicht mehr zu vergeben, ohne die breite Öffentlichkeit darüber zu informieren. Die Öffentlichkeit ist jedoch an Resultaten wie diesem interessiert. Denn der Bürger hätte, wie in dem ´Stand AG´ langatmig gefordert wird, ein Recht darauf gehabt, auch aus neutralem Mund die wissenschaftlich-technischen und langzeitrelevanten Ergebnisse der Standortuntersuchung Gorleben zu erfahren, für die die Energiewirtschaft mehr als anderthalb Milliarden Euro ausgegeben hat. Interessant zu diesem Vorgehen ist zu wissen, dass nur vier Tage zuvor, am 23. Juli 2013, das ‚Stand AG‘ vom Bundestag verabschiedet worden ist, in dem es nach § 29 (3) heißt:  “[dass] … spätestens mit Inkrafttreten dieses Gesetzes [die VSG-Studie] ohne ein Eignungsprognose für den Standort Gorleben eingestellt“ wird. Per Gesetz ist es nun verboten, die Ergebnisse der VSG-Studie durch neutrale, internationale Fachgutachter bewerten zu lassen! Ein herausragendes aber auch viel sagendes ‚Timing‘!

Diese Art der Entscheidungen hätte auch eine zukünftige ‚monströse‘ Kommission mit sehr komplizierten und langwierigen Abstimmungsverfahren sowie ein neues Bundesamt für Kerntechnische Entsorgung nicht verhindert! Gibt es heute Anzeichen dafür, dass sich mit dem ‚Stand AG‘ in Zukunft ein solcher Vorgang nicht wiederholen kann? Wohl kaum!

Kapitel 1 und 2 Öffentlichkeitsbeteiligung

Die generellen Grundsätze zur Öffentlichkeitsarbeit sind ausführlich dargestellt. Es wird sich aber schnell weisen, wie schwierig es werden wird, der Öffentlichkeit die komplexen, von den Fachleuten aber verstandenen geologischen, bergmännischen, kerntechnischen und insbesondere langzeitrelevanten Sachverhalte zu erklären. Zur Erinnerung: ein geologischer Körper ist im Gegensatz zu einem technischen Projekt nicht normierbar und dessen Charakterisierung kann letztendlich nicht in Zahlen ausgedrückt werden. Denn in der Geologie gilt das Aktualitätsprinzip: „Dieses  Prinzip der Gleichförmigkeit der Prozesse besagt, dass geologische Vorgänge, die heute zu beobachten sind, ebenso in der Vergangenheit gewirkt haben. Es sind also Rückschlüsse von heutigen Abläufen auf Bildungsprozesse in der Vergangenheit möglich und umgekehrt“. Das ist der Grund, warum für die Endlagerung ein tiefes Verständnis von geologischen Analogien, die Kenntnis über das Verhalten von natürlichen entstandenem „Atommüll“ in der Natur, das Entstehen von Erzlagerstätten und deren Veränderungen als Folge von chemischen und physikalischen Gesetzen in den unterschiedlichsten Gesteinsarten und über sehr lange Zeiträume so wichtig ist [z.B. The Origin of the Chemical Elements, P.K. Kuroda; 1982*].

Diese Komplexität ist jedoch die offene Flanke für die Gegner der Endlagerung. Ziel der Öffentlichkeitsarbeit müsste es deshalb sein, diese Fakten mit ehrlicher und politisch unabhängiger Transparenz den Bürgern aktiv zu erklären. Trotz des fortdauernden Versprechens der Verantwortlichen ist dies aus politischen Gründen nur sehr zurückhaltend geschehen. Und deshalb hatte diese Taktik in den vergangenen Jahren Erfolg. Denn wenn die sozialdemokratische Umweltministerin des Landes, Barbara Hendricks, heute ohne Widerspruch in aller Öffentlichkeit behaupten kann, die Endlagerung sei nicht mit dem Christentum vereinbar, ein Landesbischof in öffentlichen Sitzungen die Endlagerung als Teufelszeug diskriminiert [Endlagersuchkommission – Rückfall ins Mittelalter*], in Seminaren sich Soziologen zur Radioaktivität sachfremd äußern dürfen und sogenannte Fachleute jahrelang Behauptungen wiederholen können, die von Fachbehörden längst widerlegt worden sind, kann es in Deutschland keine rationale Suche nach einem langzeitsicheren Endlager bzw. Untertagedeponie für hoch radioaktive Abfälle geben. Dies zeigt beispielhaft, dass sich wie in der Vergangenheit auch in Zukunft mit dem ‚Stand AG‘ außer hohen Kosten nicht viel ändern wird. Denn bei der Berichterstattung über Gorleben hat das Korrektiv einer ideologiefreien Presse bis auf wenige Ausnahmen total versagt. Trotz der vielen Worte zur Bürgerbeteiligung im Gesetz, wird sich die Desinformation – nicht zuletzt mit den vielfältigen Möglichkeiten des Internets an der von vielen gewünschte Desinformation zu diesem Thema ändern. 

Kapitel 3  Standortauswahlverfahren

Zu dem fachlichen Bereich ist wenig zu sagen, da der Gesetzestext die wissenschaftlich-technische Methodik der Endlagerung beschreibt, die allerdings seit Jahrzehnten international bekannt ist und auch bei der Standortuntersuchung von Gorleben und der Auswertung der Ergebnisse zum größten Teil schon berücksichtigt worden und dokumentiert sind.

In § 12 bis § 20 werden die formalen Verfahrensschritte im Einzelnen aufgelistet. Sie betreffen die für ein Großprojekt üblichen gesetzlichen Vorschriften und die Einbindung von zuständigen Bundes- und Landesbehörden, Standortregionen und Forschungseinrichtungen. In diesen Kapiteln werden, insbesondere in § 10 aber nicht nur dort, detaillierte Hinweise zur Durchführung von Bürgerversammlungen genannt und die jeweiligen Verfahrensschritte im Zusammenwirken mit der Öffentlichkeit beschrieben wie auch die organisatorischen Vorbereitungen für die Bürgerversammlungen durch die Vorhabenträger. Und genau hier liegt der Hinweis auf das Versagen dieses Gesetzes. Denn wie die Vergangenheit gezeigt hat, ist es äußerst unwahrscheinlich, dass in Zukunft die Vorhabenträger die Öffentlichkeit so sachgerecht informieren werden, dass auch durch ein Ideologie und Politik getriebener Widerstand die Entsorgung radioaktiver Abfälle in tiefen geologischen Gesteinseinheiten verhindert wird. Die völlige Transparenz im Projekt ließe sich nur durch eine politisch und finanziell unabhängige Öffentlichkeitsarbeit herstellen, die vom Vorhabenträger zeitnah die Information abfordert bzw. in den Projektfortschritt informativ eingebunden ist. Offensichtlich ist diese vollkommene Transparenz aber hierzulande nicht erwünscht, wodurch der politischen Manipulation in Zukunft Tür und Tor geöffnet bleibt. Denn in dem Gesetzestext ist hierzu nichts zu finden.

In  der 7. Sitzung der Kommission am 6. Dezember 2014 weist ein Mitglied der Kommission nach seinen Berechnungen darauf hin, dass ein Standort nach den neuen Regeln nicht vor 2058 gefunden werden könne und mit der Inbetriebnahme nicht vor 2083 also in 68 Jahren zu rechnen sei [www.bundestag.de/presse/hib/2014_12/-/345264*]. Historisch gesehen: Hätte man vor 68 Jahren, im Jahr 1947 (Währungsreform 1948) ein Projekt mit gleichem Zeitaufwand geplant, wäre es erst heute fertig geworden. Auch wenn das Endlager zehn Jahre früher zur Verfügung stehen sollte, wird eine sehr lange Zeit die teure dezentrale übertägige Zwischenlagerung des ´Atommülls´ die Lösung sein müssen, bis eine nicht in Deutschland entwickelte Technik (Transmutation) einer energetischen Nutzung der „Abfälle“ zur Verfügung steht. In diesem Zusammenhang muss deshalb deutlich gefragt werden, ob weiterhin nach einem Endlager gesucht werden soll. Eine entsprechende Anpassung im Atomgesetz wäre einfacher und auch wirtschaftlicher, als das deutsche Hassthema Endlagerung ewig am Leben zu erhalten.

Kapitel 4 Kosten

Konkrete Zahlen zu den  Kosten können wegen der Komplexität der Verfahrensschritte und die dadurch zu erwartenden langen Zeiträumen realistischerweise nicht genannt werden. Aus wirtschaftlicher, aber ins besonders aus ‚ökologischer‘, aus naturbewusster Sicht wäre eine wenige tausend Euro teure Bewertung der Ergebnisse von Gorleben vernünftiger gewesen. Aus ‚ökologistischer‘, aus ideologischer Perspektive zählt das jedoch nicht. Dank der zukünftigen Suche wird die Zeit gewollt nur mit politischen Scheinaktivitäten gefüllt. Bis heute gegoltene wissenschaftliche, technische und wirtschaftliche Gesichtspunkte werden negiert. Mit dem neuen Gesetz werden die Kosten ins Unendliche steigen und zwar wegen der neuen Behörde, den komplizierten Abstimmungsprozessen, wegen der Suche nach mehreren neuen Standorten und deren übertägigen Erkundung, wegen des Baus von zumindest drei zusätzlichen Untersuchungsbergwerken mit Abraumhalden zur untertägigen Erkundung und wegen des Verschlusses von zumindest zweien einschließlich der Grube Gorleben.

Ob ein derart ideologisch überprägtes Projekt entsprechend dem geplanten Verfahren jemals realisiert wird, ist die offene Frage. Deshalb lässt sich auch keine halbwegs wirklichkeitsnahe Zahl zu den Kosten bis zur theoretischen Inbetriebnahme eines neuen Endlagers nennen. Beispielhaft sei hier auf die große Diskrepanz der Kostenschätzung hingewiesen, die bei der Entscheidung zur Energiewende propagiert wurden zu den Kosten, die bis heute tatsächlich entstanden sind und weiter entstehen werden. Typisch für die heutigen Politiker ist, dass man erst jetzt – nach der Verabschiedung des ‚Stand AG‘ beginnt, über die Höhe und die Finanzierung der zukünftigen Entsorgung der radioaktiven Abfälle nachzudenken. Fakt ist: es hätte einen sichereren und kostengünstigeren Weg gegeben. Unabhängig davon, wer die Kosten übernehmen wird, sie müssen auf jeden Fall von den zukünftigen Generationen der Deutschen bezahlt werden. Das ist das einzig Sichere an diesem Kapitel.

Kapitel 5 Schlussvorschriften

§ 29 Bestehender Erkundungsstandort:

(1) „ … Der Salzstock Gorleben dient nicht als Referenzstandort für andere zu erkundende Standorte. Der Umstand, dass für den Standort Gorleben Erkenntnisse aus der bisherigen Erkundung vorliegen, darf eben sowenig in die vergleichende Bewertung einfließen, wie der Umstand, dass für den Standort Gorleben bereits Infrastruktur für die Erkundung geschaffen ist. Der Ausschluss nach dem Standortauswahlgesetz erfolgt:

  wenn der Salzstock Gorleben nach §13 nicht in der ersten Stufe zu den Regionen gehört, die nach geowissenschaftlichen, wasserwirtschaftlichen und raumplanerischen Kriterien entsprechen,

  wenn Gorleben nicht nach §14 zu den festgelegten übertägig zu erkundenden Standorten gehört,

  wenn Gorleben nicht nach §17 bei der Auswahl für die untertägige Erkundung den Anforderungen und Kriterien in dem bis zu diesem Zeitpunkt des Standortauswahlverfahrens der Standortentscheidung entspricht und

  wenn Gorleben nicht nach § 20 der ausgewählte Standort ist.

  Das Erkundungsbergwerk (Gorleben) wird bis zu der Standortentscheidung nach dem Standortauswahlgesetz unter Gewährleistung aller rechtlichen Erfordernisse und der notwendigen Erhaltungsarbeiten offen gehalten, sofern der Salzstock Gorleben nicht nach Absatz 1 aus dem Verfahren ausgeschlossen wurde. Der Betrieb eines Salzlabors, insbesondere zur standortunabhängigen Forschung zum Medium Salz als Wirtsgestein, ist ab dem Zeitpunkt nach Satz 1 unzulässig. Die vorläufige Sicherheitsuntersuchung des Standortes Gorleben wird spätestens mit Inkrafttreten dieses Gesetzes ohne eine Eignungsprognose für den Standort Gorleben eingestellt“.

(2)„… Der Betrieb eines Salzlabors, insbesondere zur standortunabhängigen Forschung zum Medium Salz als Wirtsgestein, ist ab dem Zeitpunk nach Satz 1 unzulässig.“

(3)„Die vorläufige Sicherheitsuntersuchung des Standortes Gorleben“ [VSG] „wird spätestens mit Inkrafttreten dieses Gesetzes ohne ein Eignungsprognose für den Standort Gorleben eingestellt.“

Für die Politik ist dieses an den Schluss des ‚Stand AG‘ angeklebte Kapitel das wichtigste Kapitel des Gesetzes – und zeigt den Geist dieses Gesetzes.

ERGEBNIS

Um glaubhaft zu bleiben, hätten die Gegner von Gorleben eine internationalen Bewertung der VSG-Studie begrüßen und unterstützen müssen, da sie seit Jahren mit großem propagandistischem Aufwand die Eignungshöffigkeit von Gorleben aus fachlicher Sicht bezweifeln und dies jahrelang der Öffentlichkeit eingehämmert haben. Denn würde das von einer internationalen Peer-Review-Gruppe erarbeitete Votum zur vorläufigen Eignungsprognose (VSG-Studie) negativ ausfallen, dann hätten sie den Nachweis bekommen, dass sie seit Jahren das Projekt verantwortlich begleitet haben. Die Verabschiedung des ‚Stand AG‘ wäre in diesem Fall berechtigt. Diesen fairen Wettbewerb zwischen Wissenschaft und Technik und Politik und Ideologie wollte man jedoch nicht eingehen. Da die Gegner offensichtlich selbst an dieses Resultat nicht glauben wollten, zeigt die Verhinderung des neutralen Testats die Verzweiflung der heutigen Politiker. Die nur vier Tage dauernde Umsetzung dieses am 23. Juli 2013 verabschiedeten Gesetzes und das am 27. Juli 2013 ergangene Verbot des Testats der VSG verstärkt diesen Hinweis.

Das Gesetz bedeutet aber nicht nur den ‚quasi‘ gesetzlichen Todesstoß für Gorleben, es beinhaltet auch, dass in Deutschland per Gesetz verboten wird, an diesem Standort wissenschaftlich erforderliche Untersuchungen zur Langzeitsicherheit durchführen zu dürfen. Mit dieser gezielten Unterbrechung wird aus politischen Gründen bewusst eine Wissenslücke herbeigeführt, um den Standort aus dem Wettbewerb auszuschließen. Nach den vorliegenden Erfahrungen ist davon auszugehen, dass auf dem langen Weg zur Festlegung eines neuen Standortes auch in Zukunft nicht fachliche Erkenntnisse, sondern grün-ökologistische Propaganda den Ton angeben wird.

Bei dem Gesetz geht es nicht nur um die endlose Verzögerung der Endlagerung. Nein, es geht dabei auch um einen legitim erscheinenden Ausschluss von Gorleben aus dem Standortauswahlprozess – und um den Sieg einer Bewegung, einer Ideologie, die mit einer über viele Jahre gezielt vorbereiteten, politisch gesteuerten Propaganda durchgesetzt wurde. Mit Hilfe dieser Propaganda und heute mit der zusätzlichen Unterstützung der ‚Facebookisierung‘ ist es gelungen, die Ritualisierung der Desinformation zu nutzen, die sich im Netz wie eine Seuche ausgebreitet hat. Und damit ließen sich in einem noch größeren Teil der Bevölkerung irrationale Ängste schüren, die es der grünen Bewegung erleichterte, die Macht zu erschleichen.

Die Vergangenheit hat uns eingeholt.

Dieser politische Vorgang macht deutlich, dass Gorleben nicht aus wissenschaftlich-technischen, sondern aus rein politisch-ideologischen Gründen beendet werden soll! Das ‚Stand AG‘ ist ein Anti-Gorleben-Gesetz und es ist ein teures „Ad calendas graecas, ein teures ideologisches Monster bis auf den Sankt-Nimmerleins-Tag“. Mit diesem Anti-Gorleben Gesetz ist das Ende des weltweit am besten untersuchten und chancenreichsten Endlagerstandortes abzusehen. Ob dieser mit ideologischen Parolen erreichte Sieg zum Wohle zukünftiger Generationen gereichen wird, wird sich zeigen.

Fasst man zusammen: Mit einer ’neu-deutschen‘ Standortsuche und einer anschließenden Untersuchung dieses Standortes soll jetzt für eine möglichst sichere Entsorgung von Wärme-entwickelnden, hoch radioaktiven Abfällen begonnen werden. Grundlage dafür soll nach Ansicht des Niedersächsischen Umweltministers anscheinend hauptsächlich der Kenntnisstand dienen [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*], der von einigen geologisch zweifelhaften Gutachten aus dem vorigen Jahrhundert stammt. Und das, ohne offiziell gegenüber der Öffentlichkeit das Ergebnis der Vereinbarung von 2001 zwischen der rot-grünen Regierung und der E-Wirtschaft zu nennen, dass „die bisher gewonnen geologischen Befunde einer Eignungshöffigkeit des Salzstocks Gorleben nicht … entgegen“ stehen [Anlage 4 der Vereinbarung vom 11.06.2001*],  und dass es eine neun Millionen Euro teure, qualitativ hochwertige Auswertung (VSG-Studie) der mehr als anderthalb Milliarden teuren Erkundungsergebnisse des Standortes Gorleben gibt, in der keine K.O Kriterien zur Eignungshöffigkeit von Gorleben zu finden sind.

Literatur: [*]   bei Google zu finden

               

Dr. Helmut Fuchs

Mitautor des Kapitels 3 Kernenergierohstoffe im Lehrbuch „Angewandte Geowissenschaften, Band IV“, Herausgegeben von Friedrich Bender; Ferdinand Enke Verlag Stuttgart.

 ANHANG

In einem Politthriller „Die German Angst [Helmut Fuchs und Rolf Kamradek, bookshouse Verlag; 2013, ISBN 978-9963-727-780;*] haben mein Co-Autor und ich das Missverhältnis zwischen wissenschaftlich-technischer Offenheit und einer fachfremden Ideologie thematisiert, die seit den 80-er Jahren durch Schüren und Kreieren von Ängsten die Öffentlichkeit verunsichert und so die wirtschaftliche Entwicklung lahm legt. Die politischen Hintergründe dieser Entwicklung werden aufgezeigt. Wenn man in dem Thriller die Worte Grafit durch Uran, sowie Keramik-Grafit-Motor durch Kernkraft ersetzt, wird die Verhinderungspolitik („Stand AG: Paragraph 9a Absatz 3 Satz 1 des AtG“) für die Entsorgung hoch radioaktiver Abfälle in Deutschland, die mit einem unbezahlbaren Schrecken ohne Ende zu keinem Ergebnis kommen darf, für die nachfolgende Generation, entsprechend der Vorhersage des Romans, deutlich.

***




Und immer wieder grüßt der Eisbär – ZDF geht WWF Aktivistin auf den Leim

Zur Lügenpresse kann man das ZDF nicht zählen. Doch nicht deshalb, weil es uns Zuschauer, besonders in der Klimafrage, immer wieder desinformiert, sondern allein wegen der Tatsache, dass es diese Desinformation nicht als Druckerzeugnis, sondern in elektronischer Form an den Mann/die Frau bringt.

Video der WWF Direktorin „Species Program“ Sybille Klenzendorf (mit Dank an R. Hoffmann)

Wie z.B. vor einigen Tagen, als das ZDF der  „Expertin“ Frau  Dr. Sybille Klenzendorf in der Sendung „volle Kanne“ (hier ein Blick auf die Vorschau) ausführlich Gelegenheit gab, uns zu erzählen, dass der Eisbär durch den Klimawandel auf Schwerste gefährdet sei.  Zwar gäbe es noch rd 25.000 Tiere, aber die Zukunft sähe sehr düster aus. Die Robben blieben weg, bzw. dank des bröckelnden Packeises wären die Eisbären kaum noch in der Lage diese zu jagen und müssten verhungern. 

Obwohl auch das ZDF längst wissen müsste, das der Eisbär mehrere Warmzeiten überlebt hat, seine Population, durch Einschränkung der Bejagung, sich auf die Rekordzahl von ca. 25.000 Exemplaren erhöht hat und das arktische Eis ganz natürlichen Schwankungen unterliegt, tischt man uns beim ZDF immer wieder und unverdrossen diese Märchen auf. Es lässt sich halt so schön mit dem Mitleid der Zuschauer mit den armen Eisbären spielen und der böse (menschgemachte) Klimawandel muss natürlich daran schuld sein. Das bleibt hängen, denkt man wohl in den Redaktionen dieser öffentlich rechtlichen Anstalt

Besonders auffällig jedoch ist, dass in der Sendung keinerlei Hinweis darauf erfolgte, dass die ach so besorgte Wildtier-Biologin Sybille Klenzendorf als WWF Aktivistin an vorderster Front, für die Verbreitung des Märchens vom anthropogen induzierten Klimawandels kämpft. Frau Klenzendorf ist nämlich Direktorin des WWF „Species Program“. Unser Leser Rainer Hoffmann, dem wir dafür danken, sandte uns dazu das obige Youtube Video.

Hatte der WWF es bisher schon geschafft die Führungsgremien des IPCC zu unterwandern, ja tlw. zu übernehmen, wie die Journalistin Donna Laframboise herausfand (hier und hier), so sind nun offensichtlich die Fernseh-Sender dran. Und diese halten es natürlich nicht für nötig uns diese Tatsache wenigstens noch mitzuteilen.

Da erinnern wir uns doch mal an die beschwörenden Aussagen des ZDF Anchormannes Claus Kleber, der 2009 behauptete, dass die ZDF „heute“ Redaktion alles daran setzen würde, ihre Glaubwürdigikeit beim Publikum nicht zu verlieren. Das sei alleroberste Prioriät. Nun ja, bei der Lügenpresse würde man sagen: „Papier ist geduldig“. Aber dazu gehört das ZDF ja nicht, wie eingangs festgestellt.

Video wie Claus Kleber das Ringen um Glaubwürdigkeit beim ZDF beschwört




Skeptische Dokumentation schlägt Alarmisten im Krieg um die globale Erwärmung

Aussagen dutzender Wissenschaftler, Regierungsberatern und anderer Klimaexperten einschließlich exklusiver Interviews mit den Gründern des Weather Channels und der World Rainforest Movement stellen den Mythos des „Konsens’“ bloß und bestätigen die Stärke wissenschaftlich skeptischer Argumente.

Es gibt so viel unfaire Berichterstattung seitens der Mainstream-Medien, und [das Gerede um den] Klimawandel wird immer mehr durch Politik als durch tatsächliche Klimawissenschaft beeinflusst“, sagte der Produzent Luke Dillard von South House Entertainment dem New American. „Ich wollte eine Dokumentation schaffen, die die tatsächliche Wissenschaft umreißt ohne all die politische Verdunkelung“.

[Hervorhebung vom Übersetzer]

Dillard hat sein Ziel sicherlich erreicht. Das Video beginnt mit einer Warnung aus dem Jahr 1961, ausgegeben vom damaligen Präsidenten Dwight Eisenhower – als Teil seiner Abschiedsrede an die Nation – über eine von der Regierung finanzierte „wissenschaftlich-technologische Elite“. Seine Worte bereiten den Weg für die 88 Minuten lange Dokumentation, unterteilt in 14 gut durchdachte Kapitel, die alle Aspekte der Debatte um den Klimawandel ansprechen. Mittels modernster Graphiken und der Hilfe von Experten und Profis in verwandten Bereichen zeigt und erklärt jedes Kapitel Daten und Forschungsergebnisse, die weit verbreitete Fiktionen widerlegen. Die Eisbären sterben nicht aus, die Eiskappen schmelzen nicht, Temperaturen schrauben sich nicht himmelwärts, die Anzahl von Extremwetterereignissen explodiert nicht – kurz gesagt, der Himmel fällt uns nicht auf den Kopf.

Aber das ist nur die Spitze des Eisbergs. Das Video enthüllt auch bürokratische Schikanen maskiert als Umweltschutz, welche die Grundlage sind für eine wirtschaftlich und sozial destruktive Politik in den USA und weltweit. Es empfiehlt die dringende Notwendigkeit, die Öffentlichkeit von ihren tief verwurzelten Wetter-Phobien zu befreien.

Dillard möchte mit seiner Dokumentation Leben ändern, indem er die Wahrheit aufdeckt. „Ich hoffe, dass sie die UN veranlasst, ihre Vorschriften und Sanktionen gegen verarmte Nationen abzuschwächen“, schrieb er in einer E-Mail an den New American. „Menschen in Armut sind diejenigen, die am dringendsten des Zugangs zu elektrischem Strom bedürfen, aber man sagt ihnen, dass sie diesen nicht haben dürfen wegen der pseudowissenschaftlichen Hypothese der globalen Erwärmung“.

The Global Warming War gewann im vorigen Jahr 2014 den Preis für den besten Dokumentationsfilm auf dem Big Easy International Film Festival, eine bedeutende Anerkennung, wenn man bedenkt, dass die Organisation selbst sich als „grün“ geriert. Die Dokumentation erhielt auch noch andere Würdigungen: eine Silbermedaille bei den International Independent Film Awards 2014 und den Royal Reel Award auf dem Canada International Film Festival 2015, zusammen mit offiziellen Nominerungen bei fünf weiteren US-Filmfestivals. Das Video kann über die Website www.theglobalwarmingwar.com bezogen werden. Hier ist der Trailer dazu:

Full story

Link: http://www.thegwpf.com/sceptical-documentary-outguns-alarmists-in-the-global-warming-war/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Von den im letzten Absatz genannten Film-Festivals habe ich durchweg noch nie etwas gehört. Das besagt allerdings noch nicht viel, denn cineastisch bin ich ein Banause.

Aber es wäre doch interessant, wenn es in deutschen Medien irgendeinen Hinweis darauf gibt. Das Gegenstück, nämlich die Hetzpropaganda von Al Gore ist ja auch ‚rauf und ‚runter durchgekaut worden.

C. F.




Emails zeigen die Verzweiflung der US Umweltbehörde EPA über die Klimaagenda

Dementsprechend fordert das Umweltamt, den Schwerpunkt auf Atemwegserkrankungen zu verlagern, als Rechtfertigung für viele Amerikaner, die sonst „viele unserer ordnungspolitischen Maßnahmen ablehnen“ würden.

Aktuell von Anthony Watts auf der beliebten Blog-Website, "Watts Up With That" veröffentlicht, wurde das Memo auf Basis des Informationsfreiheitsgesetz von einem Rechtsanwalt und Chris Horner angefordert, letztes Leitendes Mitglied beim Competitive Enterprise Institute. [CEI, s.u.]
Die Kopie war an "Richard Windsor" gerichtet – ein Alias von EPA Direktor Lisa Jackson für ihr geheimes E-Mail-Konto – welches sie bei der Ermittlung, als Bedarf für persönlichen, inoffiziellen Gebrauch verteidigt hat. Der Titel "Strategische Kommunikation – Gespräch", entlarvt es jedoch eindeutig als Finte.

Quelle: BBC; Klimawandel Umfrage, von 2010

Welche Aussage trifft es am nächsten was Sie denken:

Es ist eine Tatsache, dass der Klimawandel Mensch-gemacht ist:

Zustimmung :

Nov. 2009 41%

Jetzt 2010 26%

Im Memo, das nur wenige Monate nach Amtsantritt von Präsident Obama in Umlauf kam, heißt es: "Die meisten Amerikaner werden nie eine Polkappe sehen, noch haben sie jemals die Chance, einen Eisbären in seinem natürlichen Lebensraum zu erleben. Daher ist es leicht, schwerwiegende Folgen von der Wahrhaftigkeit eines Problems zu lösen. Leider ist Klimawandel in der Zusammenfassung ein zunehmend – und konsequent – nicht überzeugendes Argument ".

Dann schwenkt der Inhalt des Mails vollständig von CO2 Klima-basierten Anti-Fossil Argumenten ab zur ungerechtfertigten Regulierung auf der Grundlage der Partikelemissionen. Es geht weiter mit: „Jedoch, wenn wir anstatt die Polarkappen zum Problem zu machen auf Atemwegserkrankungen in der Nachbarschaft ändern, können wir möglicherweise dieses Thema vielen Amerikanern nahebringen.“

Wie ist denn „dieses Thema“ das sie nicht mit „alles über Polare Eiskappen“ bringen wollen, mit „Atemwegserkrankungen“ verbunden? Es ist offensichtlich das „Gesundheitsargument“ für den Krieg gegen Kohle und andere fossile Elemente, wobei das Memo hinzufügt: „In diesem Jahr wird es viele Gelegenheiten geben, um klimabedingte Auswirkungen zu diskutieren. Dabei müssen wir die menschliche Gesundheit als Argument in den Mittelpunkt stellen.“

Das verschmelzen dieser Assoziation in der öffentlichen Meinung zu den Sorgen über die globale Erwärmung, die Sicherheit von Wasser, das sie trinken und die Luft, die sie atmen – heißt es in der Memo weiter: "Wir müssen damit beginnen, einen ursächlichen Zusammenhang zwischen den Sorgen der Amerikaner und unserer proaktiven Mission herzustellen. " Mit dieser " Mission" ist es der EPA möglich, weitere Regulierungen und Einschränkungen mit jedem und allen [Mittel-n] voranzubringen.

Die Strategie betont die Notwendigkeit, auch die „Außenseiter“ zu erreichen. Das bedeutet, das das EPA nicht nur „weiterhin eine konstante Versorgung des wichtigen Kaders der Reporter sicherstellt“, sondern auch „einen Block von Journalisten, die nicht in die typische Pressegalerie des EPA fallen würde" verfolgt. Speziell erwähnt werden die Presse der ethnischen Minderheiten [Afro-Amerikaner, Spanier, Asiaten und eingeborene [indianische] Amerikaner, Frauen-orientierten Presse, Jugend Presse, Lokalradio, Blogger und die wichtigsten Kolumnisten.

Mit Bezug auf das Engagement der EPA Sympathisanten, die sich bereits um den Schutz der "Karibus [amerikanische Rentiere], Eisbären und Seeotter" sorgen, wird festgestellt, dass [die neue Strategie] "offensichtlich nicht unser Tagesgeschäft widerspiegelt". Die neue Strategie ist es, die EPA "Mission", auf „gleiche Gerechtigkeit“ (equal justice) umzufirmieren. „Es ist für uns wichtig, diese Wahrnehmung zu ändern, vor allem bei denen, die maßgeblich durch „gleiche Gerechtigkeit“ Fragen betroffen sind, ansonsten aber" konfessionslos ". Mit "Konfessionslosen", wird im Memo verdeutlicht, „dass sie nicht einer Gruppe oder Aktivisten angehören, die sich selbst als ,gleiche Gerechtigkeit‘ oder Umweltschützer identifizieren würden."

Im Gespräch mit Anrufern zu Tagesnachrichten bemerkte Chris Horner, dass das Memo der EPA "atemberaubend unaufrichtiges Verhalten" aus dem Versagen ihrer globalen Erwärmungskampagne widerspiegelt, um das Thema zu einer Erkrankung der Atemwege zu machen. Er sagte: "Es zeigt auch die Überzeugung, dass, wenn sie ,saubere Luft‘ und „Kinder" schreien, dieses genügt um ihren Willen für sich, für die Medien und für Grüne Gruppen zu bekommen."

Soweit läuft alles wie geplant. Wir können der EPA danken für die Verschmelzung von CO2 als die Gesundheit beeinflussender „Schadstoff" und für im Jahr 2012 erlassene allererste Vorschriften über Treibhausgas-Emissionen, mit dem neue Clean-Power-Plan [saubere Energie] der Obama-Regierung, welcher drakonische CO2-Beschränkungen auf bestehende Kohlekraftwerke zur Folge haben wird. Dieses hat weder etwas mit Reduzierung von Smog oder schädliches Asthma erregende Partikeln zu tun.

Auf der anderen Seite werden die öffentliche Gesundheit der amerikanischen Wirtschaft und die Budgets der privaten Haushalte stark belastet. Die US-Handelskammer schätzt, durch diese neuen EPA-Vorschriften werden Hunderte von Generatoren abgeschaltet, es kostet die US-Wirtschaft 2,3 Millionen Arbeitsplätze und bringt eine halbe Billion [englisch: Trillion] Verlust im Brutto-Inlands-Produkt in den nächsten 10 Jahren sowie Erhöhung der Verbraucherstromkosten um 289 Mrd. $ und Senkung des verfügbaren Haushaltseinkommen um 586 Mrd. $ im Jahr 2030. Diese Belastungen werden die Ärmsten unter uns am stärksten treffen. "Gleiche Chancen " seid verdammt.

Veröffentlicht bei CFACT, 2. Februar 2015

Link: http://www.cfact.org/2015/02/02/epa-email-shows-desperate-climate-change-agenda/

Übersetzt durch: Andreas Demmig für das EIKE

CEI: [Das CEI ist ein US-amerikanischer, politisch konservativer, libertärer Think Tank. Erklärte Ziele sind die Verbreitung der Prinzipien des Limited Government (d.h. der Einschränkung staatlicher Lenkung), des freien Marktes und der individuellen Freiheit. CEI ist zu den Klimaskeptikern zu zählen; Quelle Wikipedia]




Direktor des MPI für Meteorologie Jochem Marotzke findet den Zufall als Begründung warum die Modelle alle falsch liegen

Warum CO2 ohne Bildungskatastrophe wichtigstes Kühlmittel ist!

Trotz Bildungsexplosion, Internet und Google verstehen die allermeisten Menschen heute nicht, warum die Sonne genügend Energie liefert, um praktisch beliebig viele Menschen auf der Erde und noch wesentlich mehr im Weltall in Wohlstand, immer besserer Gesundheit und immer glücklicher leben zu lassen. Dahinter verbirgt sich eine Bildungskatastrophe unvorstellbaren Ausmaßes, die zum Beispiel in meiner Familie einen gewissen Höhepunkt erkennen lässt: Selbst mein viertes und jüngstes Kind, welches als einziges in die naturwissenschaftlichen Fußstapfen seines Vater getreten ist und an der Universität Marburg gerade mit seiner Doktorarbeit in Molekularer Genetik befasst ist, die einfachen naturwissenschaftlichen Regeln nicht mehr anwendet, die seinem Vater die Gewissheit vermitteln, dass mit einem einfachen Infrarot-Strahlungsthermometer experimentell gezeigt werden kann, dass CO2 das wichtigste Kühlmittel der Erde ist, während wissenschaftliche Gesellschaften wie die Max-Planck-Gesellschaft oder der UN-Weltklimarat über Politik und Medien seit Jahrzehnten das genaue Gegenteil verkünden.

Gerade schreibt der Direktor des Hamburger Max-Planck-Instituts für Meteorologie, Herr Prof. Dr. Jochem Marotzke, diesen Satz, der über dpa in fast allen Tageszeitungen zu lesen war: "Im 21. Jahrhundert hat sich die Erde deutlich schwächer erwärmt, als sämtliche Modelle vorhersagen – das war nur Zufall. Skeptikern, die immer noch am menschengemachten Klimawandel zweifeln, bricht nun eines ihrer letzten Argumente weg: Zwar gibt es eine Erwärmungspause, die Erdoberfläche hat sich seit der Jahrtausendwende also deutlich schwächer aufgeheizt, als sämtliche relevanten Klimamodelle vorhergesagt hatten.

Das „Lügenmärchen“ dieses Professors beginnt schon damit, dass es keine Skeptiker gibt, die an Menschen gemachten Klimaeinflüssen zweifeln. Jeder der mit dem Fahrrad aus einem Wald kommend in eine Stadt fährt, nimmt wahr, dass es in der Stadt wärmer ist als auf dem freien Feld oder gar im Wald. Das wissen alle. Die Skeptiker zweifeln insofern nicht an anthropogenen Wirkungen, sondern ganz genau fokussiert am experimentell nicht nachweisbaren, sogenannten anthropogenen Zusatztreibhauseffekt des CO2. Öffentlich die Skeptiker falsch darzustellen, gehört zu der Art niederträchtiger Lügen, wie sie heute in der „Demokratie der Parteien“ als quasi selbstverständlich praktiziert werden.

Jeder Abiturient mit einer vernünftigen Note in Deutsch muss logisch schlüssige Aufsätze schreiben können. Für eine logische Konstruktion wie diese von Prof. Marotzke muss es ein glattes Mangelhaft geben: „Keiner der physikalischen Gründe erklärt die Streuung der Prognosen und die Abweichung von den Messungen, der Zufall dagegen sehr wohl.“ Man stelle sich das vor: Der Zufall soll fähig sein, einen Sachverhalt zu erklären! Unerklärte Streuung und Zufall, sind ein und das selbe. Keines von beiden erklärt das andere! Das ist so als würde die Milch erklären: „Meine weiße Farbe erklärt sich daraus, dass ich eben Milch bin!“ In welcher Zeit leben wir heute eigentlich? Das Lesen Tausende von geschulten Journalisten, Parteiexperten aller politischen Richtungen, Professoren und Richter, interessierte und für ihr normales Leben gut ausgebildete Normalbürger. Und alle nehmen das so hin? Der Grund ist vermutlich ganz einfach. Keine Sau interessiert sich mehr für diese Art von öffentlich verbreiteten „Lügenmärchen“.

Aber für den interessierten Leser muss dieses ganze „Lügenmärchen“ noch tiefer gehend dargestellt werden. Die rechte Spalte der Internetseite des Max-Planck-Instituts dieser Pressemitteilung (http://www.mpg.de/8914929/klimawandel-erwaermungspause) bietet einen Videoclip an. Dieser erklärt, wie Klimamodelle entstehen und wie sie durch Lösen von Differentialgleichungen funktionieren. Dazu werden Parameter verwendet, die die gesamte Physik in korrekter Weise abbilden sollen. Die zwei wichtigsten Parameter werden namentlich genannt: Luftdruck und Temperatur. Weitere Parameter werden nicht genannt. Vor allem wird der entscheidende Parameter, die CO2 Wirkung, nicht näher benannt und auch nicht näher beschrieben!

Als Fachmann weiß man, unter den ‚weiteren Parametern‘ gibt es dann auch Parameter für die Erwärmung durch CO2. Diese sind der verheimlichte „Pudels Kern“, wenn es um die CO2 bedingte Temperaturentwicklung geht. Fest steht, dass Parameter für die CO2 Verdoppelung von 360 auf 720 ppm sehr gering ist im Vergleich zu den effektiven Temperaturparametern: Sonne, Wolken, Aerosole, Strömungen von Atmosphäre und Ozeanen, Vulkanen an Land und den zahlreicheren unter dem Meer, Landnutzungsänderungen durch die Biosphäre selbst und durch den Menschen (Stadteffekt oder wissenschaftlich UHI – urban heat islands). Alle Parameter mit Auswirkung auf die Temperatur werden als Energieflussinkremente dargestellt, welche die Klimamodellierer als ‚forcing‘ bezeichnen. Die Dimension des ‚forcing’ ist W/m2.

Einigkeit soll darüber bestehen, dass das tatsächliche ‚forcing’ des CO2 experimentell nicht geklärt werden kann. Daher spricht selbst der UN-Weltklimarat immer nur von Wahrscheinlichkeiten, nie von Gewissheit. Deshalb arbeiten die Klimamodelle mit unterschiedlich wirkungsvollen Parametern für das CO2 ‚forcing’ und lassen so CO2 weniger empfindlich, empfindlich und sehr empfindlich wirken. Zahlenwerte dazu könnten sein: +1, +3 und +5 W/m2 (die genauen Werte sind unbekannt!). Jeder dieser drei Werte für die CO2 Empfindlichkeit bedeutete aber unter dem Strich immer eine Erwärmung durch CO2. Dass CO2 keine Wirkung hätte, also der Wert 0 W/m2 für das CO2 ‚forcing’, wird von vorne herein ausgeschlossen. Völlig ausgeschlossen ist auch eine mögliche kühlende Wirkung von CO2 etwa ein Wert von -0,9 W/m2.

Legt man aber die tatsächlichen Energieflüsse laut NASA oder auch laut IPCC zugrunde, ergibt sich für CO2 eine Kühlwirkung, die rechnerisch zu diesen maximal -0,9 W/m2 abgeschätzt werden kann.

Energieflüsse werden in der Physik aus den gemessenen Temperaturdifferenzen zwischen warmem und kaltem Körper berechnet. Bei Heizplatte (Quelle) und Kochtopf (Senke) erfasst man damit den gesamten Energiefluss, der auch Anteile an Strahlungsfluss enthalten kann. Will man wissen, ob auch wirklich Strahlungsfluss beteiligt ist, muss man die Temperaturen von Quelle und Senke zusätzlich auch noch mit einem Strahlungsthermometer messen. Ergeben sich dabei unterschiedliche Temperaturwerte dann zeigt das, es findet auch Strahlungsfluss statt.

Die wichtigste Quelle für Strahlungsenergie ist die 6000°C heiße Sonne, die wichtigste Senke das –273,15°C kalte Weltall. Damit ist klar, dass Strahlungsenergieflüsse in die Erdoberfläche hinein unter Erwärmung und aus der Erdoberfläche heraus unter Kühlung immer sowohl durch klassische wie durch Strahlungstemperaturmessung gemessen werden müssten.

Die Meteorologie misst aber grundsätzlich nur die meteorologische Temperatur auf klassische Art und Weise in 2 m hohen Wetterhütten. Für Energieflüsse in den Boden hinein und aus dem Boden heraus interessieren sich die Wetterfrösche nicht. Tatsächlich ist der klassische Energiefluss zwischen Boden und Luft auch meteorologisch ohne große Bedeutung, weil die Wärmekapazität der Luftsäule von 2 m Höhe gegenüber der Wärmekapazität der Erdoberfläche keine große Rolle spielt.

Beim Energieaustausch durch Strahlung ist das aber ganz anders. Das zeigen die Strahlungstemperaturen von Boden und Luft, genauer gesagt die der Luft, denn die Bodentemperaturen sind gleich groß egal ob klassisch gemessen und als Strahlung. Die Lufttemperaturen sind demgegenüber völlig unterschiedlich und zeigen als Strahlung gemessen die gewaltige Strahlungskühlwirkung der Atmosphäre, die ja zu Ende gedacht nur die Strahlungskühlwirkung des Weltalls darstellt.

Das Phantastische an den Messungen der Strahlungstemperatur der Luft ist, dass hier ganz analog zum Kälteempfinden des Menschen in der freien Natur die Wetterlage über die Kühlung des Bodens durch die Atmosphäre entscheidet und dass sie überall und von jedermann selbst nachvollzogen werden können für 18 Euro beim Discounter. Die meteorologische Messung der Lufttemperatur in der Wetterhütte bekommt davon rein gar nichts mit!

Bei Regen sind die Temperaturdifferenzen mit –2 bis -3°C gering. Bei Wolken sind die Differenzen deutlich größer mit –7 bis –10°C und bei klarem Himmel werden die Differenzen sehr groß bis zu –30°C. Klassische meteorologische Temperaturmessungen in der Wetterhütte würden diese Unterschiede der Lufttemperatur gar nicht anzeigen, daher die „gefühlten Lufttemperaturen“!

Insgesamt aber zeigen all diese Temperaturmesswert, dass eine Erwärmung der Erdoberfläche durch die Atmosphäre nicht stattfindet. Ein erwärmender Treibhauseffekt der Atmosphäre, der in den Klimamodellen als Parameter fest eingebaut ist, existiert in Wirklichkeit nicht.

Für den Chemiker ist „Luft“ nicht nur einfach „die Atmosphäre“ wie für Meteorologen, Klimatologen, Physiker oder Ökonom, sondern eine Gasmischung aus den IR-inaktiven Hauptbestandteilen Stickstoff und Sauerstoff und den IR-aktiven Spurengasen H2O und CO2. Weiß wirklich nur ein Physikochemiker, dass die Vermittlung der unendlichen Kühlungssenke des Weltalls an die Atmosphäre über diese IR-aktiven Spurengase erfolgt und nicht über die IR-inaktiven Hauptbestandteile? Eigentlich sollte das heute jeder Mittelschüler wissen. Und er sollte auch wissen, dass das IR-aktive Spurengas Wasserdampf H2O(Gas) kondensiert zu H2O(Flüssig) und zu H2O(Fest). Die Folge davon ist, dass hoch oben in der Atmosphäre kein H2O(Gas) mehr vorhanden ist. Damit erfolgt die Hauptkühlung der Atmosphäre in Weltallnähe nur noch durch CO2. Jeder Mensch mit guter Allgemeinbildung, der guten Willens ist, kann sich so auf ganz einfache Weise selbst klar machen, dass CO2 das wichtigste Kühlmittel der Erde ist. (mehr dazu unter: www.gerhard-stehlik.de)




2014: Unter den 3 Prozent der kältesten Jahre innerhalb der letzten 10.000 Jahre?

Bild rechts: Abbildung1

Wir wissen, dass sich die Schlagzeile auf die NOAA-Projektion bezieht, aber die Öffentlichkeit verinnerlicht nur den Terminus „wärmstes Jahr“. Das ist von Anfang an die Routine der Manipulation von Schlagzeilen durch Bürokraten und IPCC-Unterstützer. Die Behauptung kam nicht überraschend, weil die NOAA schon im Januar angefangen hat, das Jahr 2014 mit der Schlagzeile NOAA: January 2014 fourth-warmest on record zu apostrophieren. Verschiedene Monate des Jahres wurden benannt, zum Beispiel „NOAA: August 2014 Was The Warmest On Record,” mit dem Zusatz, dass er ein kleines bisschen zu warm war. Aber da hatte die NOAA schon berichtet:

Der Sommer des Jahres 2014 ist offiziell der wärmste seit Beginn moderner instrumenteller Aufzeichnungen vor über 130 Jahren. Dies geht aus dem jüngsten Klimastatusbericht des National Climatic Data Center der NOAA hervor.

Im Oktober hatte man das Jahr zusammengefasst:

Dies macht die ersten zehn Monate des Jahres 2014 zur wärmsten Januar-bis-Oktober-Periode jemals und schiebt das Jahr 2014 auf den Weg, das wärmste, in den bis zum Jahr 1880 zurück reichenden NOAA-Archiven verzeichnete Jahr zu werden.

Bob Tisdale schrieb eine exzellente Zusammenfassung der „ Anticipation [Erwartung] der beiden Reihen vom GISS und vom NCDC. Er war nicht überrascht, als diese Aufzeichnungen erschienen und zeigten, dass das Jahr 2014 um 0.02°C über dem bisherigen Rekord lag. Man erinnere sich, dies stammt aus einer Reihe, die in historischen Aufzeichnungen beschränkt war auf 0,5°C. Wir kennen auch die beiden Satelliten-Datenreihen, RSS und UAH, und beide zeigen, dass es nicht das wärmste Jahr war.

Um der Schlagzeile zu begegnen bräuchte man etwas sehr Dramatisches, weil es hinsichtlich der Temperatur 2014 nichts Signifikantes gibt, wie Tisdale in einem Beitrag mit dem Titel The Uptick in Global Surface Temperatures in 2014 Doesn’t Help the Growing Difference between Climate Models and Reality zu beweisen plant. Er ist daran interessiert zu sehen, wie Gavin Schmidt, Nachfolger von James Hansen am Goddard Institute for Space Studies (GISS) die Fackel weiterträgt. Die Historie zeigt, dass die GISS-Werte stets höher lagen als die Werte aus allen anderen Quellen. Das ist nur ein Indikator der Temperatur-Adjustierungen, die vorgenommen worden waren, um die AGW-Hypothese passend zur politischen Agenda zu machen.

Herausforderungen und Festlegungen [fixes] des IPCC

Wie belastbar ist die Behauptung bzgl. 2014? Im Kontext der letzten 10.000 Jahre ist das bedeutsam, weil sich das Jahr unter den 3 Prozent der kältesten Jahre befindet, was viel bedeutsamer ist, als die von den Warm-Alarmisten proklamierten 100 Jahre. Es gibt zwei wesentliche Gründe: Die höchsten Temperaturen wurden in den letzten Jahren steigender Temperatur abgelesen. Jede Veränderung, Adjustierung und Kurzfassung der Aufzeichnung bislang wurde vorgenommen, um zunehmend höhere Temperaturen zu erzeugen und zu verkünden

1. Die instrumentellen Daten sind räumlich und zeitlich unzureichend. Wetterdaten an der Oberfläche sind praktisch nicht existent und ungleich über 85% der Erdoberfläche verteilt. Über 70% der Ozeane gibt es praktisch gar keine. Auf dem Festland gibt es praktisch keine Daten aus den 19% Berge, 20% Wüste, 20% boreale Wälder, 20% Prärien und 6% tropischer Regenwald. Um die Lücken „aufzufüllen“, stellte das GISS die lächerliche Behauptung auf, dass eine einzige Stations-Temperaturmessung repräsentativ sei für ein Gebiet um die Station mit einem Radius von 1200 km. Die initialen AGW-Behauptungen basierten auf Festlandsdaten. Die Daten sind vollkommen ungeeignet als Grundlage für die Konstruktion der Modelle.

2. Die meisten Stationen konzentrieren sich im östlichen Nordamerika und in Westeuropa. Sie wurden schon früh zu Beweisen für die vom Menschen verursachte globale Erwärmung. IPCC-Advokaten haben lange Zeit die Tatsache ignoriert, dass diese Stationen fast alle vom städtischen Wärmeinsel-Effekt UHI betroffen waren.

Der UHI war eine der ersten Herausforderungen der aus den instrumentellen Messungen abgeleiteten AGW-Behauptung. Zwei von Warwick Hughes erzeugte Graphiken waren die Effektivsten und erschienen im Jahre 1991 kurz nach Veröffentlichung des 1. IPCC-Berichtes 1990. Abbildung 2 zeigt die Temperatur an sechs großen australischen Städten.

Abbildung 2

Eine höchst wahrscheinliche Erklärung des UHI ist die Ausdehnung der Stadtgebiete, bis ursprünglich außerhalb der Stadt liegende Wetterstationen an Flughäfen davon eingeschlossen worden waren. Das Automobil hat dies möglich gemacht. Abbildung 3 zeigt einen Vergleich mit 26 ländlichen Stationen:

Abbildung 3

Der Unterschied ist markant. Genauso interessant ist, dass die Temperaturen im ersten Teil der Zeitreihe von 1880 bis 1900 höher lagen.

3. Es gibt eine konstante Revision der Aufzeichnungen hin zu niedrigeren historischen Werten. Dies lässt den Gradienten der vermeintlichen Erwärmung zunehmen. Offensichtlich wird dies in den Aufzeichnungen von Neuseeland (Abbildung 4):

Abbildung 4

Eine Suche bei WUWT nach dem Terminus „Temperature adjustments” ergibt eine Unmenge von Beweisen. Jedwede vorgenommene Anpassung diente dazu, den Gradienten der Kurve so zu verändern, dass es heute wärmer ist als in der Vergangenheit. Erklärungen, wenn überhaupt abgegeben, bieten gewöhnlich kaum eine Rechtfertigung für diese Adjustierungen. Das andere Leuchtzeichen ist, dass nahezu alle Adjustierungen vorgenommen worden waren, bevor die UAH-Satelliten-Temperaturaufzeichnung im Jahre 1991 begann.

4. Die Politik hatte erwartet, dass Satellitendaten die Wetterstationen am Erdboden ersetzen würden. Als Folge wurden viele Wetterstationen stillgelegt (Abbildung 5) oder zumindest nicht in die Berechnung des globalen Mittelwertes aufgenommen.

Die Abbildungen unten zeigen:

a) die Anzahl von Stationen mit einer Aufzeichnungsdauer von mindestens N Jahren als eine Funktion von N,

b) die Anzahl messender Stationen als eine Funktion der Zeit,

c) die Prozentzahl hemisphärischer Gebiete, die sich innerhalb des Radius‘ von 1200 km um eine messende Station befindet.

Abbildung 5

Die Anzahl von Bodenstationen war im Jahre 1960 unzureichend und wurde im Jahre 1990 noch weiter reduziert. Man beachte, dass nur etwa 1000 Stationen einen Zeitraum von 100 Jahren überdecken.

Aber wie genau kann man die globale Temperatur ermitteln, wenn der antarktische Kontinent ausgelassen wird? Man betrachte die IPCC-Schlussfolgerung:

Der größte Teil der beobachteten Zunahme der globalen mittleren Temperaturen seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich der beobachteten Zunahme der anthropogenen Treibhausgas-Konzentrationen geschuldet. Es ist wahrscheinlich, dass es während der letzten 50 Jahre eine signifikante anthropogene Erwärmung gemittelt über jeden Kontinent (außer der Antarktis) gegeben hat.

Antarktika ist 14 Millionen km² groß, also fast so groß wie Russland (17 Millionen km²), dem größten Land der Erde.

Man füge dem die 14 Millionen km² des Arktischen Ozeans hinzu, aus dem keine Daten vorliegen, wie das Arctic Climate Impact Assessment (ACIA) anmerkt (Abbildung 6)

Abbildung 6

Die Ausdehnung dieser Gebiete ist das Eine, ihre Rolle bzgl. des Weltklimas das Andere und weitaus wichtiger als die Rolle fast aller anderen Regionen.

Abbildung 7 zeigt, dass weniger Stationen ein beitragender Faktor zu höheren Temperaturen sind:

Abbildung 7

Die Stationen, die die NOAA aus dem GHCN in Kanada übernommen hat, illustrieren das Problem (Abbildung 8).

Abbildung 8

Es gibt 100 Stationen nördlich des Polarkreises, aber die NOAA zieht nur die Station Eureka, eine bekannte Wärmeinsel heran, um ein Drittel des zweitgrößten Landes der Erde zu repräsentieren. Selbst der 1200-km-Radius zählt hier nicht mehr.

7. Abänderungen der historischen Aufzeichnungen enthalten auch den infamen Hockeyschläger. Dabei wird von einem Mitglied der Climatic Research Unit CRU berichtet, dass er Prof. David Deming gesagt hat: „Wir müssen die Mittelalterliche Warmzeit loswerden!“ Mit dieser Äußerung im Hintergrund wurde der Hockeyschläger erzeugt. Das Blatt [des Hockeyschlägers] wurde geformt von CRU-Direktor Phil Jones‘ Daten, die eine Zunahme von 0,6°C innerhalb von etwa 120 Jahren zeigten. Das Problem war der Fehlerfaktor: ±0.2°C oder ±33 Prozent.

8. Die Temperaturtrends des 20. Jahrhunderts beginnen mit einer Erwärmung von 1900 bis 1940, der eine Abkühlung von 1940 bis 1980 folgte, gefolgt von einer erneuten Erwärmung von 1980 bis 1998 sowie einem leichten Abkühlungstrend danach bis 2014. Die Alarmisten haben die Abkühlung den menschlichen Emissionen von Sulfaten zugeordnet, aber das stellte sich als falsch heraus, als die Temperaturen wieder zu steigen begannen ohne dass die Sulfate abnahmen.

9. Falls wir die Erwärmung alles in allem ab 1900 akzeptieren, was vernünftig wäre, kam doch die Erde aus der Kleinen Eiszeit (LIA), dann treten die höchsten Temperaturen erst in den jüngsten Aufzeichnungen auf (Abbildung 9)

Abbildung 9

Der Umstand, dass 2014 einen winzigen Betrag wärmer war als jedes andere Jahr in der Aufzeichnung ändert nicht den Trend des „Stillstands“. Er verstärkt nicht die CO2-Kausalitäts-Behauptung.

10. Die Behauptung lautet, dass das Jahr 2014 um 0,02°C wärmer ist als jedes andere Jahr. Es ist vernünftig zu vermuten, dass die US-Temperaturaufzeichnung unter den Besten ist. Anthony Watts zeigte, dass nur 7,9 Prozent der US-Stationen auf <1°C genau ist (Abbildung 10).

Abbildung 10

Eine Gegenschlagzeile muss eine Perspektive bieten

Der Titel zu diesem Beitrag könnte auch lauten [übersetzt] 2014: unter den 3 Prozent kältester Jahre in 10.000 Jahren“. Abbildung 11 zeigt die Temperatur der Nordhemisphäre für den Zeitraum, der bezeichnet wird als „Klimaoptimum, Hypsithermal und Holozän-Optimum“.

Abbildung 11

Die dem Originaldiagramm hinzugefügte rote Linie vergleicht die genäherten Temperaturen des 20. Jahrhunderts (rechte Seite) mit denen der letzten 10.000 Jahre. Bei CO2Science wird von Dahl-Jensen (1998) angemerkt:

Nach dem Ende der Eiszeitperiode haben die Temperaturen bis zum klimatischen Optimum (vor 4000 bis 7000 Jahren) stetig zugenommen, bis die Temperatur maximal um 2,5°C über den heutigen Werten lagen.

Der Schlüssel-Terminus in der 2014-Behauptung ist „in der Aufzeichnung“, aber die überdeckt lediglich etwa 100 Jahre. Im Zusammenhang mit dem klimatologisch viel bedeutenderen Zeitraum von 10.000 Jahren ist es eines der kältesten Jahre.

Die Behauptung, dass 2014 das wärmste Jahr jemals war, war politisch wichtig für die Befürworter der IPCC-Story, dass menschliches CO2 die Ursache der globalen Erwärmung sei. In der Mitte dieser Argumentation stand die Notwendigkeit zu beweisen, dass die Temperaturen zum Ende des 20. Jahrhunderts die „wärmsten jemals“ waren. Dies ist der Grund, warum die 2014-Behauptung so bequem vor dem COP-Treffen in Lima auftauchte, auf dem die falsche IPCC-Behauptung verzweifelt beworben wurde.

Die Beweise widersprechen weiterhin hartnäckig den wesentlichen Hypothesen der AGW-Hypothese. T. H. Huxley (1825 bis 1895) drückte das so aus:

Die große Tragödie der Wissenschaft – eine wunderschöne Hypothese wird durch eine hässliche Tatsache geschlachtet.

Das Problem ist, dass die Fakten immer weiter anwachsen und die AGW-Befürworter diese weiterhin ignorieren, umgehen oder sie verfälschen. Wir wissen, dass die Wissenschaft falsch ist, weil die IPCC-Projektionen falsch sind. Normale Wissenschaft verlangt verlangt immer aufs Neue das Überdenken einer Hypothese und deren Implikationen. Das IPCC hat diese Option entfernt, als sie den Beweis für die Hypothese ausschlossen. Dies packt das IPCC auf die Tretmühle, die Ergebnisse zu fixieren, vor allem die Temperaturaufzeichnung. Der chinesische General Tao Kan drückte es so aus: „Es ist wie der Ritt auf einem Tiger, von dem abzusteigen sehr schwierig ist“.

Link: http://wattsupwiththat.com/2015/01/21/2014-among-the-3-percent-coldest-years-in-10000-years/

Übersetzt von Chris Frey EIKE

Hinweis des Übersetzers: Im Original ist der Autor Tim Ball vermutlich mit der Zählung seiner Abbildungen durcheinander gekommen. Die Abbildung 6 taucht im Original zweimal auf, obwohl es sich um ganz verschiedene Graphiken handelt. Danach geht die Zählung mit 7 weiter.

Ich habe die Zählung daher korrigiert. Die zweite als „Abbildung 6“ bezeichnete Graphik habe ich zu Abbildung 7 gemacht. Aus Abbildung 7 im Original wurde hier Abbildung 8, usw bis zum Ende des Beitrags.




Der Treibhauseffekt- ein Missverständnis? Teil 1

 

Abb.1 zeigt die Temperaturentwicklung der letzten 11.000 Jahre nach Schönwiese. Gleich zu mehreren Zeiten war es wärmer als heute, Quelle: PD Dr. H. Kehl

So lässt auch die Gegenwart keinen Raum zur Sorge oder gar Panikmache. Der Temperaturanstieg nach der letzten Kälteperiode, die etwa bis 1850 reichte, fiel nicht nur in unserm Land verhalten aus (Abb.2).

 

Abb.2: In den ersten 90 Jahren des letzten Jahrhunderts war das Klima weitgehend stabil. Neben dem ständigen Wechselspiel zwischen wärmeren und kälteren Jahren, gab es Zwischenphasen mit leichten Erwärmungen aber auch kältere Jahrzehnte. Man beachte vor allem den Kälteeinbruch 1940/41/42, der auf einen starken El Nino zurückzuführen war, wie Untersuchungen der ETH, Prof. Brönnimann, zeigen (Spektrum der Wissenschaft 03/05, “Pazifik ließ Europa frieren“). Wie wir heute wissen, sind die Auswirkungen von El Nino weltweit zu spüren.

Zwischen 1900 bis 1990 sind die Temperaturen in Deutschland kaum gestiegen. Der leichte Trendlinienanstieg ist zum einen auf den ansteigenden Hauptsonnenzyklus (den im Mittel 208-jährigen De Vries/Suess-Zyklus) und zum anderen, auf den zunehmenden Wärmeinseleffekt, der Verstädterung der Landschaft, zurück zu führen. Die eigentliche „Klimalüge“ nahm 1988 an Fahrt auf, als sich der selbsternannte Weltklimarat gründete (von der Politik gegründet wurde) und ohne belastbare physikalische Grundlagen postulierte, dass die ständige Zunahme an Kohlendioxid in der Atmosphäre einen Treibhauseffekt verursachen würde und damit einen Gärtnerbegriff, der auf der physikalischen Grundlage der Konvektionsunterdrückung und der verzögerten Abkühlung (Abkühlungsgesetz nach Newton) beruht, auf die Erdatmosphäre übertrugen, ohne zu berücksichtigen, dass dort gänzlich andere Rahmenbedingungen vorliegen, als in einem Gärtnerhäuschen.

„Treibhauseffekt“

Der Begriff “Treibhauseffekt“ basiert auf der Absorptionswirkung der Atmosphärengase für die sog. Erdrückstrahlung oder auch „Gegenstrahlung“ genannt, was in den Modellen theoretisch mit dem Glasdach eines Treibhauses vergleichbar wäre, welches die Wärme sozusagen „einsperrt“. Der Begriff ist jedoch irreführend, da in einem Glastreibhaus die Erwärmung durch die unterdrückte Konvektion (Luftaustausch) und der verzögerten Abkühlung erfolgt. Die Analogie zum Glastreibhaus besteht darin, dass sowohl das Glas eines Gewächshauses, als auch die sog. Treibhausgase wie CO2, einen Teil der langwelligen IR-Strahlung, die vom Boden abgestrahlt wird, absorbieren. Wobei Absorption keinesfalls gleich Erwärmung ist, da beides völlig unterschiedliche physikalische Begriffe sind. Die Atmosphärengase (Moleküle), allen voran der Wasserdampf, werden dadurch zu Schwingungen angeregt. Der sog. Treibhauseffekt wurde von dem Chemiker Arrhenius bereits 1896 als mögliche Erderwärmung in die wissenschaftliche Diskussion gebracht, dort aber nach etwa 10 Jahren Diskussion (Angström, 1900, 1901 und Schäfer 1903; Solger, 1905; Dannenberg, 1908) wieder verworfen.

Abb.3: Schematische Darstellung des vermeintlichen natürlichen und des vermeintlichen anthropogenen Treibhauseffekts. Die Abbildung links zeigt den sog. natürlichen Treibhauseffekt (THE). Wasserdampf und Kohlenstoffverbindungen in der Atmosphäre sollen wie die Scheiben eines Glashauses wirken. Hierdurch wird die rein rechnerische Temperatur der Erde ohne Atmosphäre von -18°C auf erträgliche +15°C angehoben. Die Erde würde sich demnach ohne zusätzliche Energie von selbst erwärmen, was grundsätzlich nicht möglich ist. Die sog. Treibhausgase lassen das kurzwellige Licht durch, verhindern aber teilweise die Rückstrahlung der langwelligen Infrarotstrahlung in den Weltraum. Abbildung rechts zeigt den sog. anthropogenen Treibhauseffekt. Durch das Ausbringen großer Mengen sog. Treibhausgase durch den Menschen, sollen die natürlichen Regelprozesse, der Kohlenstoffkreislauf, aus dem Gleichgewicht geraten und eine ungebremste Erwärmung stattfinden. Die Politik will diese auf 2°C begrenzen.

Der überwiegende Teil (ca. 60-80%) der Bodenwärme wird nicht über Strahlung, sondern über Konvektion abgegeben. Auf dem Weg nach oben wird die innere Energie der Gase gemäß dem 1. Hauptsatz der Thermodynamik in Volumenarbeit umgesetzt, weil die Gase sich bei ihrem Aufstieg ausdehnen. Die Energie wird letztendlich in großer Höhe (der oberen Atmosphärenschicht) in das Weltall abgestrahlt. Die übrigen 20-40% werden vom Boden als Wärmestrahlung abgegeben. Davon geht der größte Anteil direkt durch das atmosphärische Fenster in den Weltraum. Dabei erfolgt der Wärmetransport in der Troposphäre adiabatisch, d.h. durch Konvektion und Advektion und oberhalb der Troposphäre gewinnt, aufgrund der stetig abnehmenden Teilchendichte, die Strahlungsübertragung an Bedeutung. Am Oberrand der Atmosphäre kann Wärme nur noch über Strahlung an den Weltraum abgegeben werden.

Ein kleiner Rest der Bodenwärme (ca. 15% von den 20-40%) wird von IR-aktiven Gasen, sog. Treibhausgasen (THG) in der Atmosphäre absorbiert. Diese Energie wird in der Troposphäre über Zusammenstöße an die Luft wieder abgegeben und damit ebenfalls der Konvektion zugeführt und dann aus großer Höhe in das Weltall abgestrahlt. Da diese Abstrahlung jederzeit stattfindet, wird keine Wärme in irgendeinem Kreislauf gehalten oder gar dem Boden wieder zugeführt. Der THE scheitert somit am Energiemangel. Um diesen zu beheben, wird eine sog. Gegenstrahlung eingeführt, die den Boden zusätzlich erwärmen soll. Dies ist jedoch eine Energiebilanzfälschung. Durch diese “Gegenstrahlung“ soll es zu einer Erwärmung am Boden und einer Abkühlung in der Höhe kommen. In Messungen wird dies jedoch widerlegt. Immer, wenn der Boden durch die erhöhte Sonneneinstrahlung wärmer wurde, wird zeitlich verzögert, oben mehr abgestrahlt, wodurch die obere Atmosphäre dann kälter wird.

Daher ist der Vergleich mit einem “Treibhaus“ irreführend. In einem Treibhaus wird durch das Glas der Bereich des sichtbaren Sonnenspektrums durchgelassen. Anhand der Kirchoff-Planck-Funktion lässt sich der Anteil berechnen und liegt bei ca. 70%. Das Strahlungsmaximum liegt anhand der Planck-Kurve (5.800 Kelvin = Sonnenoberflächentemperatur) bei 0,5 μm Wellenlänge. Das Glas ist in diesem Wellenlängenbereich also weitgehend durchlässig. Der Boden eines Gewächshauses hat hingegen eine Temperatur von ca. 300 Kelvin. Nach der Planckkurve und dem Wienschen Verschiebungsgesetz liegt dessen Maximum bei 10 μm. Für diesen Wellenlängenbereich ist das verwendete Glas jedoch undurchlässiger, so dass die Wärmestrahlung „eingeschlossen“ bleibt und weiter, auch die Luftzirkulation, die die Wärme abführen könnte, unterbunden ist. Ein solches Konstrukt gibt es in der Atmosphäre nicht.

Jeder, der sich schon einmal den Kopf an Glas gestoßen hat, kennt den Unterschied zwischen Glas und Gas, also zwischen einem festen und einem gasförmigen Körper.

Anstatt einem Treibhaus, gibt es in der Atmosphäre dagegen Wetter. Das Wetter tritt dabei lokal völlig unterschiedlich auf. Daher existiert auch keine Globaltemperatur. Diese ist eine rein statistische Größe. Die Schichtatmosphäre ist durch einen Dichte- und Temperaturgradienten gekennzeichnet, der in einem elektrischen Feld von ca. 500 kV zwischen Ionosphäre und Erdboden existiert. Kosmische und solare Partikelstrahlung, sowie ca. 2.000 Gewitter, mit über 10 Millionen Blitze, die sich täglich entladen, liefern Energie (direkt oder indirekt) zur Wetterveränderung. Des Weiteren befindet sich im Innern der Erde eine permanente Kernenergieheizung mit einer Maximaltemperatur von ca. 5.000°C, welche geothermische Energie liefert. Organismen an/in der Erdoberfläche produzieren seit über 3 Milliarden Jahre Abwärme. Kontinuierlich wird Wärmeenergie in andere Energieformen (z.B. chemische Energie) umgewandelt. Alle Vorgänge unterliegen zyklischen Veränderungen (Tag/Nacht, Jahreszeiten usw.), bei denen starke Ungleichgewichte entstehen. Die Erde ist weiter eine irreversible (sich drehende) Wärmekraftmaschine nach dem 2. Hauptsatz der Thermodynamik, in der Wärme (Sonnenenergie = warmes Reservoir und Nachtseite/Weltall = kaltes Reservoir) gewandelt wird, wodurch die Wind- und Wasserkreisläufe angetrieben werden, sowie die Photosynthese in Gang gesetzt wird. Mit einem Gewächshaus ist dies alles nicht vergleichbar.

Allein diese Kurzbeschreibung entlarvt den Treibhauseffekt als Chimäre, als Konstrukt, den es in der realen Welt nicht gibt. Ein Konstrukt derer, die ihn dazu instrumentalisieren, um politischen Absichten umzusetzen und/oder finanziellen Gewinn zu erzielen. Und alles zu Lasten derer, die beides finanzieren müssen, uns Steuerzahler. Hier wird ein Schreckgespenst aufgebaut, das gar nicht existiert und mit anderer Leute Geld in die Schranken gewiesen werden soll (2°C-Ziel), damit sich ein paar Wenige als Retter aufspielen können. Dies alles erinnert fatal an den Film „Illuminati“ und den dortigen Camerlengo, der ebenfalls ein nicht vorhandenes Schreckgespenst aufbaute um anschließend als Retter zu erscheinen und Papst zu werden.

Der Erde droht keine Gefahr der Überhitzung, wie IPCC und Co. behaupten: Wegen des seit über einem Jahrhundert steigenden  Kohlendioxidgehaltes auf nunmehr bald 0,04% = 400ppm würden die Temperaturen seit über 100 Jahren ständig steigen. Dass diese Behauptung falsch ist, wissen unsere Leser längst.

Der Deutsche, Hartmut Bachmann, war dabei, als 1988 das IPCC gegründet wurde. Er schildert in vielen Schriften und Büchern, wie dieses Lügengebilde IPCC gegründet wurde, deren Aufgabe es nicht ist, wissenschaftliche Erkenntnis zu gewinnen, also ergebnisoffen ein Thema zu bearbeiten, sondern mit einem fertigen Ergebnis ein Thema angeht. Mit Wissenschaft hat dies nichts zu tun.

http://rubikone.de/downloads/Wind_Allgemein/Klimal%C3%BCge%20Bachmann.pdf

Es begann die Zeit mit ständig neuen Erwärmungskatastrophenmeldungen. Jeder Starkregen und jeder heiße Sommertag war fortan ein Zeichen der sich anbahnenden Katastrophe und wenn es keine gab, dann wurden diese erfunden und die Statistik auf den Kopf gestellt. Obwohl z.B. die Population der Eisbären am Nordpol zunahm, wurde prompt eine Abnahme der Eisbärenpopulation verkündet. Und auch die Inuit, die Ureinwohner, die sich an der Erwärmung Grönlands freuten, wurden vor der Weltöffentlichkeit als Opfer dargestellt.

Alle diese fiktiven Berichte dienten und dienen nur dem Zweck, durch weltweit einzuführende Kohlendioxidsteuern/-Abgaben, dem angeblichen Klimakiller zu begegnen. Die C02- und Klimasteuern erweisen sich bis heute als eine geniale Geldvermehrungsmaschine, die der Steuerzahler zu bedienen hat. Sie dienen weder dem Umwelt- noch dem Naturschutz, geschweige dem Klima. Das Klima, als statistische Größe des Wetters, richtet sich nach anderen Faktoren. Dem Wetter ist es vollkommen egal, ob der atmosphärische CO2-Pegel 300ppm, 400ppm oder 500ppm oder mehr beträgt. Es richtet sich nach anderen Faktoren, wie den Windströmungen, der solaren Aktivität, dem Sonnenstand, den Hoch- und Tiefdruckgebieten, der Erdrotation, um nur einige zu nennen und keine dieser Teilaspekte, wird in irgendeiner Art und Weise von sog. Treibhausgasen beeinflusst. Wenn aber kein Teilaspekt des Klimas, das Wetter, von CO2 beeinflusst wird, so wird auch die statistische Gesamtgröße (das Klima) nicht von CO2 beeinflusst. Eigentlich ganz logisch. Aber wo gilt schon Logik, wenn es um politische Interessen und/oder viel Geld geht. Beides beinhaltet eine andere Logik. Diese hat mehr mit Lüge/Verschleierung und Desinformation zu tun.

So sind viele „Wissenschaftler“ der 2.ten Reihe, in Deutschland z.B. die Professoren Schellnhuber, Rahmstorff und Latif auf den Geldzug aufgesprungen, bzw. wurden dafür geworben und vermehren durch Falschaussagen und gespielte Theatralik ihre Finanzen, bzw. derer, die sie unterstützen/beauftragen. Natürlich auch die Medien. Denn der Mainstream will nicht Wahrheit, sondern Sensationen. Ebenso hat die Politik eine zusätzliche vortreffliche Einnahmequelle für marode Staatshaushalte entdeckt.

 

Abbildung 4 zeigt den Unterschied zwischen einem aufrechten Wissenschaftler und einem Mainstream-Wissenschaftler aus Karikatursicht.

Seröse Wissenschaft ist hier seit mehr als 20 Jahren ins Abseits gestellt. Früher starben z.B. die Schmetterlinge wegen der Uniformierung der Landschaft (keine Brutablagen), der Zerstörung und Vergiftung ihrer Biotope. Heute sterben sie wegen des Klimawandels. So sind auch die Umweltverbände zu Mitschuldigen geworden, denn sie beteiligen sich gerne an diesem Geldsegen zur angeblichen Rettung der Erde und mehren dadurch ihre(n) Macht/Einfluss, weil sie den Geldgewinnlern nach dem Mund reden.

Geschickt wurde Cherry-Picking betrieben und die Jahre der Temperaturentwicklung betrachtet, die mit der atmosphärischen CO2-Zunahme im Gleichklang stehen. Der CO2-Gehalt der Atmosphäre nahm zu und auch die Temperaturen stiegen ab 1886/87 weltweit. So auch in Deutschland. Das staatliche Institut, DWD, wurde von der Politik für ihre Zwecke benutzt und schürt seither, fernab aller wissenschaftlichen Realitäten, die Mär des anthropogenen Klimawandels.

Um die Jahrtausendwende begannen dann die Hiobsbotschaften des Klimapanikorchesters, zu dem auch die großen Versicherungsgesellschaften zählen. Man hatte ein starkes Jahrzehnt der Erwärmung von 1986 an vorzuweisen und die meisten Menschen glaubten zur Jahrtausendwende, es würde so weitergehen. Doch betrachten wir zunächst die Grafik 5, die Jahre der steigenden Temperaturen.

Abb.5: In der Zeit von 1986 bis zur Jahrtausendwende stiegen die weltweiten Temperaturen ständig an, die vereinigte Front der Klimaerwärmungsbefürworter konnte eine für sie erfolgreiche Statistik vorlegen.

Ein Teil dieser Erwärmung von 1986 bis 2000 geht dabei auch auf Tricksereien zurück. Z.B. wurde das hier beschrieben: http://www.eike-klima-energie.eu/news-cache/neue-studie-die-haelfte-der-globalen-erwaermung-kommt-aus-der-homogenisierung-von-wetterstationsdaten/ Schließlich waren die Leute vom selbsternannten Weltklimarat nun aktiv und griffen in die Statistik der Datenerfassung aktiv ein. 2009 kam durch Climategate einiges ans Licht der Öffentlichkeit.

Mehr Kohlendioxid gleich mehr Erwärmung. Mit dieser einfachen Formel hatte die Klimalüge sich weltweit durchgesetzt. Nach Versuchsbeweisen oder technischen Anwendungen einer CO2-Erwärmung fragte niemand mehr. Was nicht verwundert, den kein Ingenieur der Welt wird sich der Lächerlichkeit preisgeben und eine technische Anwendung des vermeintlichen, nicht existierenden, physikalischen Effekts, dem Treibhauseffekt vorzulegen. Da es weder das eine (technische Anwendung), noch das andere (Versuchsbeweis) gibt. Doch ab der Jahrtausendwende ging das Klima seinen eigenen Weg. Weltweit bereits ab 1998 und deutschlandweit ab 2000 fielen die Temperaturen wieder. Obwohl die seriöse Klimawissenschaft längst auf diesen Tatbestand in immer neuen Veröffentlichungen hinweist, wird er von den deutschen Medien einfach totgeschwiegen. Was ebenfalls nicht verwundern kann, hat doch journalistische Arbeit in unserem Land wenig mit investigativem Journalismus, dafür umso mehr mit Sensationsjournalismus zu tun. Spielt doch der letztere Geld in die Taschen der Verleger und Journalisten. Abgesehen davon, dass zum Verständnis des Klimawandels, physikalische Kenntnisse notwendig sind, die vielerorts in den Medien nicht vorhanden sind. Erschwerend kommt beim deutsch geprägten Linksjournalismus hinzu, dass Realität der ideologischen Brille weicht. Lediglich der MDR Wetterexperte, Thomas Globig, darf ab und zu eine Statistik der fallenden Temperaturen seit 2000 zeigen.

Die Temperaturtendenz ist fallend, obwohl die Kohlendioxidkonzentration in der Atmosphäre zunimmt. Hat etwa CO2 seit der Jahrtausendwende kühlende Wirkung?

 

Abb.6: Die Medien führen die Bevölkerung seit 15 Jahren gezielt in die Irre, etliche Redakteure behaupten, dass besonders in den letzten Jahren die Erwärmung sich verstärkt fortgesetzt hätte und alles sei noch viel schlimmer, als man zur Jahrtausendwende prophezeit hätte.

Die seriösen und unabhängigen Klimawissenschaftler warten nicht mit Katastrophenmeldungen auf, sondern, sie wollen diese Temperaturverläufe, die in der Grafik 5 und Grafik 6 dargestellt sind, mit wissenschaftlichen Methoden erklären. z.B. hier: Temperaturen seit 1980, einzelne Stationen, drei Teile

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen-teil-1/

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

Teil 2: „Die wahren Ursachen der Temperaturänderungen in Deutschland und, das lebensnotwendige CO2- harmlos und nützlich“ in Kürze

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar

Teil 2 finden Sie hier

Eine Anmerkung des EIKE-Pressesprechers

Als Pressesprecher ist es meine Aufgabe, in wissenschaftlichen Fragen die in der EIKE Präambel niedergelegten und vom EIKE-Fachbeirat vertretenen Positionen zu schildern und zu vertreten. In diesem Sinne weist der ansonsten vieles Richtige enthaltende Aufsatz der Autoren Kowatsch, Kämpfe und Leistenschneider (Leistenschneider hat seine Autorenschaft inzwischen entfernt) Defizite auf, die bei etwas sorgfältigerem Literaturstudium hätten leicht vermieden werden können. Sie betreffen die Schilderung bzw. Diskussion des sog. Treibhauseffekts (besser Atmosphäreneffekt), der im Aufsatz keine mir als wissenschaftlich bekannte Position wiedergibt und daher zu revidieren bzw. besser ganz wegzulassen ist. Als Arbeitsgrundlage, die diskutiert (und falls die Autoren dazu in der Lage sind, fachlich wiederlegt) werden kann, empfehle ich den Beitrag von Pierrehumbert, der als pdf beiliegt. Nebenbei: die Empfehlung dieses Aufsatzes bedeutet nicht, dass ich ihm voll zustimme. So stellt beispielsweise der dort beschriebene Wasserdampf-Feedback eine theoretische Fiktion dar, die durch Messungen nicht belegt ist. Er soll nur zeigen, auf welchem Niveau eine TE-Diskussion sinnvoll sein könnte. Wenn eine niveaugerechte Diskussion nicht möglich ist, sollten Aussagen zu komplexen physikalischen Details, die auf Grund unzureichender fachlicher Kenntnis nur fehlerhaft sein können, besser vermieden werden. Der Grundtenor des Aufsatzes wäre ohnehin der gleiche geblieben.

Fest steht, dass es bis heute keine begutachtete Veröffentlichung gibt, die auf der Basis von Messungen einen anthropogenen Beitrag auf Klimaänderungen zu belegen vermag. Somit erübrigen sich alle Spekulationen über theoretische physikalische Details der Wirkung des anthropogenen CO2. Eine Klimawirkung des menschgemachten CO2 ist aus dem natürlichen Temperaturrauschen bis heute definitiv nicht herauszuhören. Auf detaillierteres einzugehen erfordert tiefe physikalische Spezialkenntnisse, die zu Publikationen in begutachteten Fachjournalen befähigen. Daher sollte ein näheres Eingehen von Laien auf solche Details in allgemeinverständlichen Aufsätzen unterbleiben.

Nochmals: meine Kritik betrifft nicht den Grundtenor des Aufsatzes, dem ich m.E. zustimme.

Prof. Dr. Horst-Joachim Lüdecke

Related Files




Das 50-Milliarden-Dollar-Klima-Event

Es geht wieder mal um die Verhinderung des „Klimawandels“, um den Kampf gegen das „Klimakillergas“ CO2, das uns Wetterkatastrophen, Hunger und Seuchen bescheren soll. Und das natürlich auch den armen Eisbären wegen abschmelzender Polkappen dem Hungertod preisgibt.

Prominenz verbreitet Horrorszenarien

Das mediale Aufgebot ist riesig, und hochrangige Prominenz drängt es mit Macht zum Rampenlicht. Leonardo di Caprio und UNO-Generalsekretär Ban Ki-moon schritten Arm in Arm mit dem durch seine „Klimaschutz“-Aktivitäten zum vielfachen Millionär avancierten ehemaligen US-Vizepräsidenten Al Gore fernsehgerecht in der ersten Reihe einer riesigen Demonstration durch New York. Schilder wurden hochgehalten mit verdorrten Feldern, Flutkatastrophen oder toten Tieren in den Dürreregionen Afrikas.

Ohne Rücksicht auf wissenschaftliche Erkenntnisse

Dass all diese Horrorszenarien nicht dem tatsächlichen Stand wissenschaftlicher Erkenntnisse entsprechen oder zumindest unter Wissenschaftlern höchst kontrovers diskutiert werden, ficht die Demonstranten und diejenigen, die sich an die Spitze der Bewegung gestellt haben, nicht im geringsten an. In Wahrheit geht es nämlich um etwas ganz anderes: Um Big Money, um den Zugriff auf mindestens 50 Mrd. US-Dollar an Geldern, über die zahlreiche Stiftungen verfügen. In diesen Stiftungen haben reiche Familien ihr Vermögen untergebracht, um es so ihren Erben steuerbegünstigt zukommen zu lassen. So wie die Rockefeller Foundation, über welche der längst verstorbene Ölmagnat des 19. Jahrhunderts seinen Nachfahren ein Vermögen von rund 860 Mio. US-Dollar hinterlassen hat [BBC]. Und just über diese Stiftung kann man bei der britischen BBC nachlesen, dass sie zusammen mit 800 (!) anderen Stiftungen, die zusammen über rund 50 Mrd. US-$ Vermögen gebieten, jetzt beschlossen hat, ihr Kapital aus „dreckigen“ Branchen wie Erdöl oder Kohle abzuziehen und stattdessen in „saubere“, „erneuerbare“ Energien zu investieren. Dieser „Koalition der Willigen“ in Sachen Klimaschutz haben sich rund 650 weitere Einzelpersonen sowie 180 andere Institutionen angeschlossen. Die Öffentlichkeitsarbeit der NGO’s hat offensichtlich dazu geführt, dass diese die Verfügungsgewalt über Vermögenswerte errungen haben, die selbst bei der internationalen Drogenmafia Neidgefühle hervorrufen dürften.

Betrug im Größtmaßstab

Genau darin liegt die Antriebskraft dieser weltweiten Kampagnen. Vermögenswerte von mehr als 50 Mrd. $, die man anderen Marktsegmenten entziehen und in die Taschen der eigenen Anhänger umlenken kann, sind ein mächtiger Antrieb. Für soviel Geld finden sich im Handumdrehen die erforderlichen Schlangenölverkäufer und Heilsapostel, die bereit sind, das Blaue vom Himmel herunter zu versprechen, wenn man ihnen nur die Verfügungsgewalt über diese Summen einräumen möge. Und von der Öffentlichkeit kann man zugleich nochmals ungezählte Milliarden zusätzlich ins Portemonnaie lotsen, indem man über die Medien und die Prominenz solange Druck auf die öffentliche Meinung und auf die Politik ausübt, bis genügend superteure und extrem unsinnige, aber angeblich der „Klimagerechtigkeit“ dienende Programme beschlossen und finanziert werden.
Fred F. Mueller

Quellen
[BBC] http://www.bbc.com/news/world-us-canada-29310475




Die Antarktis ist auch ein Klimaleugner

Schaut man heute einmal bei Cryosphere Today und besonders einer Graphik der absoluten Meereis-Bedeckung auf der Südhemisphäre (hier) nach, wo die Pinguine leben, erkennt man dieser Tage, dass die Eisbedeckung über einen neuen Allzeit-Rekord hinausgeht. Nun, „Allzeit“ heißt hier die letzten 35 Jahre, aber auch diese Zeitspanne ist länger als das Gedächtnis der Menschen.

Möglicherweise ist es politisch inkorrekt, wenn sich das Eis akkumuliert und sagt „Ihr könnt mich mal, ihr Alarmisten!“. Ein sich wohl verhaltendes Eis mit ziviler Achtung sollte dahinschmelzen und schreien „helft den Planeten zu retten und führt eine neue Steuer und neue Verbote ein!“.

Auf der Südhemisphäre geht gerade der Winter zu Ende, und genau zu dieser Jahreszeit erreicht die Eisausdehnung ihren höchsten Wert im Jahresverlauf.

Die Eisausdehnung auf der Südhemisphäre stieg dieser Tage über 16,7 Millionen Quadratkilometer, der bisherige Rekord stand unter 16,5 Millionen Quadratkilometer. Relativ zum jährlichen Maximum vor fünf Jahren beläuft sich diese Zunahme auf 10%. Also kann man die IPCC-Verfahren nutzen – genau die gleichen Verfahren, die das IPCC bezüglich des arktischen Eises anwandte – um zu dem Ergebnis zu kommen, dass die Ozeane um die Antarktis in einer Prognose vor 50 Jahren jetzt komplett eisfrei sein sollten.

Es gibt massenhaft Stories über diese neue Rekordausdehnung, und nahezu alle diese Storys, geschrieben in englischer Sprache, erwähnen die „globale Erwärmung“ als Lehre für geistig behinderte Bürger. Das ist zutiefst empörend für die gesamte angelsächsische Welt. Man findet Titel wie „Antarctica Sets New Sea Ice Record Despite Rising Global Temperature“.

Ach wirklich? Die globalen Temperaturen steigen? Der Graph bei Cryosphere Today ist nur seit Beginn der „Satelliten-Ära“ Ende der siebziger Jahre verfügbar. Er ist lediglich 35 Jahre lang. Weil der Trend der globalen Mitteltemperatur nur gering und negativ war während der letzten 18 Jahre und 18 mehr als die Hälfte von 35 ist, sollte man beachten, dass die globale Temperatur während des größten Teils der Zeit von Satellitenaufnahmen nicht gestiegen ist.

Während der letzten Wochen ist die globale Mitteltemperatur auch wie ein Stein gefallen. Das liegt daran, dass die Temperaturvariationen über dem Festland stärker sind als über den Ozeanen und weil die Kontinente zumeist auf der Nordhemisphäre liegen. Die globale Mitteltemperatur variiert in einer Weise, die korreliert ist mit den Temperaturen auf der Nordhemisphäre. Der Sommer geht hier gerade zu Ende, und die Temperatur nimmt allgemein ab. Also kann man sicher sein, dass dies auch für die globale Mitteltemperatur gilt.

Die Konfrontation bzgl. der Propaganda zur „globalen Erwärmung“ wird oftmals auf das Problem der Beiträge dazu reduziert. Wer hat die globale Erwärmung verursacht? Man erzählt den Menschen oft, dass alle Experten hinsichtlich der Existenz von etwas übereinstimmen, das man „globale Erwärmung“ nennen könnte. In Wirklichkeit gibt es seit 18 Jahren keinen positiven Trend der globalen Mitteltemperatur – ein Zeitraum, der länger ist als das Alter einiger RTF-Leser* – also gibt es nichts Beitragendes.Aber die Psychopathen der Klimaänderung reden weiter von der „globalen Erwärmung“, als ob diese jedes Jahr die ganze Zeit über stattfindet; und sie nutzen diese falsche Hypothese als Grund für ihre weiteren Spekulationen oder Entschuldigungen. [*RTF = Read The FAQ = lies die oft gestellten Fragen {Chatslang}].

Die globale Erwärmung kann nichts, aber auch gar nichts mit der von Satelliten gemessenen Rekord-Eisausdehnung in der Antarktis zu tun haben, einfach weil diese globale Erwärmung gar nicht existiert.

Einige Spinner der Klimaänderung sind psychopathologischer als andere. Zum Beispiel informiert uns Nude Socialist rundweg, dass die Rekord-Eisausdehnung um die Antarktis der globalen Erwärmung geschuldet ist (hier).

Mann! Diese Schwachköpfe können nicht nur die Diskrepanz nicht erkennen – das Abschmelzen beider Polkappen wurde lang und breit in der gesamten klimahysterischen Literatur vorhergesagt –, sondern sie sind auch unfähig, die Gelegenheit auszunutzen, um einige der größten offensichtlichsten Wahnvorstellungen auszuräumen und einige der am klarsten falsifizierten Theorien über Bord zu werfen. Sie sind so arrogant, diese Beobachtung als ein Argument für ihre Wahnvorstellungen zu gebrauchen.

Es gibt viele detaillierte Unterschiede zwischen Arktis und Antarktis. In Ersterer gibt es einen Ozean, in Letzterem einen Kontinent. Dieser Unterschied hat viele zusätzliche Konsequenzen. Die Antarktis ist „isolierter“ von der globalen Dynamik, und so weiter. Allerdings gibt es einfach keine kohärente Theorie, die den Schluss zulässt, dass das sich ausbreitende Eis auf der Südhemisphäre die Klimapanik verstärkt.

Viele der Artikel schreiben Dinge wie Die Zunahme des Eises im Süden war verbunden mit einer höheren Windgeschwindigkeit und dem erhöhten Wassereintrag des schmelzenden Inlandeises der Antarktis.

Aber das ist nur eine Entschuldigung am Rande. Solche „einfachen Erklärungen“, die nur a posteriori abgegeben werden können – aber niemals dazu benutzt werden können, um irgendetwas vorherzusagen – sind ähnlich vielen Äußerungen in Artikeln zum Aktienmarkt. Sehen Sie, der Aktienmarkt ging gestern aufwärts oder abwärts. Also schreiben einige Finanzakteure Artikel wie Aktien höher (niedriger), weil (obwohl) (etwas passierte), was implizit heißt, dass das „Etwas-Passierte“-Ereignis entweder eine ultimative (oder überwältigende) Erklärung der Änderung des Aktienindex‘ ist, oder es ist wirklich schockierend, falls die Änderung des Aktienindex‘ mit der Änderung, die man naiv von „etwas passierte“ erwartet, antikorreliert ist. In Wirklichkeit ist die Erklärung in allen Fällen so gut wie unbekannt. Die Änderungen des Aktienindex‘ haben normalerweise hunderte Ursachen – einschließlich wichtiger Ursachen, die der Öffentlichkeit komplett verborgen bleiben –, und außerdem spielt auch der reine Zufall eine große Rolle.

In politischer Hinsicht ist wir können es nicht vorhersagen viel wichtiger als die Existenz einer gut definierten Ursache – wir können diese Entschuldigungen nur einführen, nachdem uns gesagt worden ist, was eigentlich passiert ist. Aus diesem Grunde können wir auch nicht Dinge vorhersagen, wie ob die Eisausdehnung in Arktis oder Antarktis im Jahre 2050 höher oder niedriger als heute sein wird. Ein Ganove könnte viele Entschuldigungen anführen und sagen, dass die Dynamik immer die vorherigen Proklamationen bestätigt, aber nur ein leichtgläubiger Trottel wird nicht bemerken, dass der Ganove schummelt und es wirklich keine Substanz zum Vorhersagen gibt.

Also bitte, lassen wir das Eis auf beiden Hemisphären das tun, was immer es tun möchte oder was immer es bestimmt ist zu tun; und hören wir auf, diese Dynamik zu politisieren. Weder die Zunahme noch die Abnahme des Eises um Arktis und Antarktis ist eine Rechtfertigung für die Einführung neuer Steuern oder neuer Verbote, und jeder, der etwas anderes zu behaupten versucht und dafür Macht und Geld bekommt, sollte sein Leben im Gefängnis verbringen.

Und das ist die Botschaft!

Link: http://motls.blogspot.de/2014/09/antarctica-is-climate-denier-too.html

Übersetzt von Chris Frey EIKE