1

Das Umweltbundesamt – staatlich verordnete Klima-Doktrin. Faktencheck zur UBA-Broschüre “Und sie erwärmt sich doch“ Letzter Teil

Sind Klimamodelle zuverlässig?

(Kap. 14 der UBA Schrift): In Kap. 14 sagt das UBA sachlich falsch aus. Klimamodelle können weder die Klimavergangenheit noch -zukunft ohne "zusätzliche Annahmen" und geeignet justierte Parameter beschreiben. Bis heute ist es beispielsweise noch nicht einmal gelungen, mit diesen Modellen die Eintrittszeitpunkte des El Nino oder die klimarelevante Atlantische Meridionale Oszillation (AMO) vorherzusagen. Der von den Klimamodellen geforderte "Hot Spot" in der höheren Atmosphäre über dem Tropengürtel der Erde ist nicht auffindbar.

Computer-Klimamodelle sind fiktive theoretische Gebilde ohne durchgängige physikalische Begründungen. Sie enthalten Annahmen und Korrekturfaktoren, deren Mechanismen den Vorstellungen der Modellprogrammierer, nicht aber der durch Messungen belegten physikalischen Realität entsprechen. Diese Schwäche wird durch ihre fehlende Aussagekraft bestens belegt. Computer-Klimamodelle haben ohne massive Manipulationen der Randbedingungen und Flussparameter niemals eine befriedigende Übereinstimmung mit Vergangenheitsdaten liefern können. Da sie bisher nicht verlässlich waren, entstehen berechtigte Zweifel, warum man ihnen zur Vorhersage der zukünftigen Klimaentwicklung Glauben schenken soll. Es besteht kein Grund dazu.

Diese Einschätzung bestätigt im übrigen das IPCC selbst. Der Beleg findet sich im IPCC-Report vom Jahre 2001, sec. 14.2.2.2auf S. 774, wo über Klima-Modelle gesagt wird:

“…. we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible“.

Um nicht missverstanden zu werden, ist zu betonen, dass Klimamodelle wertvolle Hilfsmittel zur Klärung von Detailfragen sein können. Als Prognose- oder “Projektionsinstrumente“ für Klimavorhersagen sind sie freilich ungeeignet.

Erwärmung oder Abkühlung, was ist vorteilhafter?

(Kap. 15 der UBA Schrift): Die UBA Ausführungen des Kap. 15 sind rein willkürlich. Fest steht: In der Geschichte der Menschheit gab es noch nie eine Periode, in der kälteres Klima von Vorteil war. Völkerwanderungen verliefen stets in Richtung zu wärmeren Klimaregionen, niemals umgekehrt. Die Hunger- und Seuchenkatastrophen infolge kälter werdenden Klimas sind historisch bestens bekannt. Stellvertretend sei an den Untergang des römischen Imperiums durch Klimaabkühlung, die die Nordvölker nach Italien einbrechen ließen oder an die Hungerzeiten in der “kleinen Eiszeit“ um und nach dem 30-jährigen Krieg erinnert (Bild 4).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/eiszeit.jpg

Bild 4: Das katastrophal kalte Klima der “kleinen Eiszeit“ hat sich tief in das Bewusstsein der Menschen eingegraben und die holländische Malerei dieser Epoche beeinflusst.

Gibt es einen wissenschaftlichen Konsens?

(Teil B der UBA Schrift): Die Verkünder eines wissenschaftlichen Konsenses unterliegen einem grundsätzlichen Irrtum. JEDE begutachtete Veröffentlichung, die das Fehlen einer Erwärmung durch anthropogenes CO2 zu belegen vermag – und davon gibt es ja sehr viele -, ist für sich ALLEINE ausreichend, jede Konsensbehauptung als Falschaussage zu belegen. So sagte bereits Einstein, als er auf die Hunderte Experten der "Deutschen Physik" angesprochen wurde, die seine Relativitätstheorie widerlegt haben sollten: “Wieso Hunderte, Einer würde reichen“.

Die während der Diskussion um den angeblich anthropogen verursachten Klimawandel gewonnene Erfahrung lehrt, beim Argument “Konsens der Wissenschaft“ besonders sorgfältig die Begründungen zu überprüfen. In unserer Konsumgesellschaft wird es immer dann gerne benutzt, wenn es gilt, Laien etwas “weis zu machen“, was entweder so nicht oder überhaupt nicht stimmt. Wissenschaft, die Zweifel ablehnt, statt zu versuchen sie aufzuklären, will indoktrinieren. Der Begriff “Konsens der Wissenschaft“ ist grundsätzlich abzulehnen, denn wissenschaftliche Wahrheit kann nicht aus Mehrheitsbeschlüssen gewonnen werden. Dies hat die Geschichte der naturwissenschaftlichen Entdeckungen immer wieder bewiesen. Ein Konsens von vielleicht mehr als 95% aller Forscher eines Fachgebiets würde lediglich Anhaltspunkte liefern und eine gewisse Wahrscheinlichkeit beinhalten, dass diese Mehrheitsauffassung auch sachlich zutrifft. Unabhängig von diesen grundsätzlichen Vorbehalten soll im Folgenden hilfsweise dennoch einmal nachgeprüft werden, wieviele Kritiker der AGW-Hypothese nun tatsächlich dem angeblichen Konsens widersprechen.

Da es hier nur um die Frage eines maßgebenden Einflusses des menschgemachten CO2 auf Globaltemperaturen geht, muss die Konsenproblematik wie folgt eingegrenzt werden. Ausgangspunkt ist der heutige Stand der Klimaforschung, dokumentiert in unzähligen Fachpublikationen, die zumindest im Folgenden absolut keinen Zweifel lassen: Die Frage nach einem messbaren anthropogenen Einfluss auf Klimawerte muss bis heute mit einem “noch nicht aufgefunden“ beantwortet werden. Daher verbleiben jetzt nur noch die im hier interessierenden Zusammenhang entscheidenden zwei Fragen:

– Wie viele Klimaforscher teilen den Klima-Alarmismus des IPCC?

– Wie viele Klimaforscher (“Klimarealisten“) widersprechen?

Klimaforscher kommen aus vielen Disziplinen, vorwiegend der Physik, denn Klimawissenschaft, wie die mit ihr eng verwandte Meteorologie, verwendet das Handwerkszeug der Physik. Unter den Klimaforschern finden sich neben den Physikern Meteorologen, Chemiker, Biologen, Mathematiker und Ingenieure. Klimaforscher sind infolgedessen alle Wissenschaftler, die Klimaphänomene erforschen und ihre Arbeiten in begutachteten Fachjournalen veröffentlichen. Momentan werden über 1100 begutachtete Fachpublikationen, die der AGW-Hypothese widersprechen, in einer Internet-Dokumentation explizit aufgeführt (hier), es kommen laufend neue hinzu, und es sind längst nicht alle.

Die die AGW-Hypothese realistisch beurteilenden Klimaexperten – diffamierend meist als “Klimaskeptiker“ bezeichnet – übertreffen die AGW-Vertreter in Anzahl und wissenschaftlichem Ansehen um Längen. Zu den Realisten gehören die beiden Physik-Nobelpreisträger Ivar Glaever und Robert Laughlin, einen Physiker aus dem IPCC-Lager als Nobelpreisträger gibt es dagegen nicht. Ferner sind die weltberühmten Physiker Freeman Dyson, Edward Teller, Frederick Seitz, Robert Jastrow und William Nierenberg Klimarealisten, eine ähnliche Reputation ist von den dem IPCC nahe stehenden Forschern unbekannt (hier).

Auf Anhieb können 9000 promovierte Naturwissenschaftler und Hunderte fachnahe Professoren der klimarealistischen Seite benannt werden. Es handelt sich hierbei allein um das Oregon Petitition Project (hier). Auf der Gegenseite benennt das IPCC gerade einmal 62 Personen, die das kritische Kapitel 9 des IPCC-Berichts von 2007 “Understanding and Attributing Climate Change“ begutachteten, darunter viele, die nichts anders taten, als ihren eigenen Beitrag zu bestätigen.

Einen entscheidenden Unterschied gibt es freilich: das IPCC erfreut sich politischen Rückhalts, die Realisten nicht. Sie werden angefeindet. Da die Medien langfristig der Politik (dem “Zeitgeist“) folgen und über die Realisten nicht berichten, können so absurde Behauptungen wie 97% Konsens o.ä. entstehen. Insbesondere in Deutschland liegt diese Situation vor, so dass schon von “freiwilliger Selbstgleichschaltung“ der Medien gesprochen wird.

Die historische Entwicklung der klimarealistischen Verlautbarungen klärt über die wahren Verhältnisse auf. Es beginnt 1992 in Rio de Janeiro mit der ersten großen UN-Umweltkonferenz. Hier haben die Vertreter von 170 Regierungen und weiteren Nichtregierungsinstitutionen (NGO) vor einer gefährlichen globalen Erwärmung durch die steigende Emission von CO2 in der Atmosphäre infolge Nutzung der fossilen Brennstoffe gewarnt. Drastische Maßnahmen, Energiesteuern und Umweltabgaben wurden gefordert.

1) Als erste Antwort auf die Forderungen von Rio de Janeiro haben 425 Wissenschaftler, darunter 62 Nobelpreisträger den "Heidelberg Appeal" unterschrieben. Sie fordern, die wissenschaftliche Ehrlichkeit nicht dem politischen Opportunismus und einer irrationalen Ideologie zu opfern. Inzwischen sind diesem Appell mehr als 4000 Wissenschaftler, darunter inzwischen insgesamt 72 Nobelpreisträger aus 106 Ländern beigetreten (hier).

2) Das Global Warming Petition Project, auch als Oregon Petition bekannt, wurde bereits oben erwähnt. Es führt über 30.000 akademische Unterzeichner auf, davon rund 9000 promovierte Personen, meist Naturwissenschaftler.

3) Das “Leipziger Manifest“ ging aus einem internationalen Symposium über die Treibhauskontroverse in Leipzig im November 1995 und 1997 hervor. Es wurde 2005 überarbeitet. 80 Wissenschaftler aus dem Bereich der Forschung zum Zustand der Atmosphäre und des Klimas sowie 25 Meteorologen, bekunden:

Auf der Basis aller vorhandenen Messungen können wir eine politisch inspirierte Weltsicht nicht akzeptieren, die Klimakatastrophen vorhersagt und überstürzte Aktionen verlangt… In einer Welt, in der die Armut die größte soziale Verschmutzung darstellt, sollte jegliche Einschränkung an Energie, die das ökonomische Wachstum verhindert (in diesen Ländern), mit äußerstem Bedacht vorgenommen werden“ (hier).

4) Im Dezember 2008 und ergänzt im März 2009 wendeten sich über 700 Wissenschaftler mit dem sogenannten "U.S. Senate Minority Report" (auch als Inhofe Report bezeichnet) an den Senatder USA. Die Unterzeichner wehrten sich gegen den vorgeblichen Konsens, dass der Mensch für die Erwärmung hauptsächlich verantwortlich gemacht werden kann. Der Report stellt fest, dass die 700 Wissenschaftler die Zahl der an der “Zusammenfassung für Politiker“ des IPCC beteiligten Wissenschaftler (52) um das mehr als 13-fache übersteigt. Sie führten insbesondere Messungen an, die die alarmistischen, von Modellen unterstützten Prophezeiungen widerlegen (hier).

5) In einem offenen Brief vom Juli 2007 an die Physikerin und Kanzlerin Angela Merkel forderten 410 Wissenschaftler und engagierte kompetente Bürger (hier),

die Kanzlerin möge ihre Position zum Klimakomplex gründlich überdenken und ein vom Potsdamer Institut für Klimafolgenforschung unabhängiges ideologiefreies Gremium einberufen

Dieser Brief wurde in bemerkenswert undemokratischem Stil nicht einmal einer Eingangsbestätigung des Bundeskanzleramts für würdig erachtet, obwohl in Artikel 17 des deutschen Grundgesetzes Bürgern ausdrücklich das Recht eingeräumt wird, sich bei drängenden Problemen oder Fragen an die zuständigen Stellen und an die Volksvertretung zu wenden.

6) Gegen die Aussage des US-Präsidenten Barrack Obama “Wenige Herausforderungen denen sich Amerika und die Welt gegenübersieht, sind wichtiger als den Klimawandel zu bekämpfen. Die Wissenschaft ist jenseits aller Diskussion und die Fakten sind klar“ wendeten sich mehr als 150 fachnahe Wissenschaftler mit dem Protest: “With all due respect Mr. President, that is not true“ (hier).

7) In einem offenen Brief an den kanadischen Ministerpräsidenten, am 11.4.2008 in der National Post veröffentlicht, wendeten sich 60 Klimawissenschaftler gegen die Unterzeichnung eines neuen Kyoto Vertrages. Sie heben hervor, dass

es keine beobachtbaren Nachweise gibt, die die Computermodelle verifizieren. Deshalb gibt es keinen Grund, den Vorhersagen der Computermodelle zu vertrauen…. Wir schlagen vor, eine ausgewogene, umfassende, öffentliche Sitzung abzuhalten, um die wissenschaftliche Basis zu Plänen der Regierung in Bezug auf den Klimawandel zuschaffen“ (hier).

8) Im Jahre 2007 veröffentlichten die Klimawissenschaftler Hans von Storch und Dennis Bray (GKSS Forschungszentrum Geesthacht) eine anonyme Umfrage unter ca. 1250 Klimawissenschaftlern, von denen 40% antworteten, was für derartige Umfragen als eine sehr hohe Antwortrate ist. Die Frage “Ist der gegenwärtige Stand der Wissenschaft weit genug entwickelt, um eine vernünftige Einschätzung desTreibhausgaseffektes zu erlauben?“ beantworteten nur 69% mit Zustimmung. Die Frage “Können Klimamodelle die Klimabedingungen der Zukunft voraussagen?“ beantworteten 64% ablehnend! Da die Vorhersagen der Klimakatastrophe alleine auf Klimamodellen beruhen und damit ebenfalls ein theoretisches Konstrukt sind, darf dieses Ergebnis für die Vertreter eines Klimakatastrophen-Konsens zutreffend als Schlag ins Gesicht bezeichnet werden. Denn umgekehrt ausgedrückt: Es besteht ein Konsens von 64%, dass die Vorhersage eines die Menschheit gefährdenden Klimawandels durch eine von Menschen gemachte Temperaturerhöhung infolge der anthropogenen CO2 Emissionen auf der Basis von Klimamodellen wissenschaftlich unzulässig ist (hier).

9) Im September 2008 veröffentlichten Hans M. Kepplinger und Senja Post von der Universität Mainz in deren Forschungsmagazin eine Online-Umfrage unter den 239 identifizierten deutschen Klimawissenschaftlern. 133 (44%) von ihnen nahmen an der Befragung teil. Kepplinger: “Die Mehrheit der Wissenschaftler war der Ansicht, dass die Voraussetzungen für eine Berechenbarkeit des Klimas gegenwärtig noch nicht gegeben ist. Dies betrifft die Menge und Qualität der empirischen Daten, die Qualität der Modelle und Theorien sowie die Kapazität der verfügbaren Analysetechniken. Nur eine Minderheit von 20% glaubt, dass die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon gegeben seien“  (hier), (hier).

10) Am 30.Nov.2012 veröffentlichte die kanadische Financial Post einen offenen Brief von 125 Wissenschaftlern an den UN Generalsekretär H.E. Ban Ki-Moon. Die FP führt dabei alle Namen, Fachgebiete und Forschungsschwerpunkte der Unterzeichner detailliert auf (hier). Es handelt sich in der weit überwiegenden Anzahl um Klimawissenschaftler. Der Originaltext des offenen Briefs lautet:

On November 9 this year you told the General Assembly: “Extreme weather due to climate change is the new normal – Our challenge remains, clear and urgent: to reduce greenhouse gas emissions, to strengthen adaptation to – even larger climate shocks – and to reach a legally binding climate agreement by 2015 – This should be one of the main lessons of Hurricane Sandy.“ On November 13 you said at Yale: “The science is clear; we should waste no more time on that debate.“ The following day, in Al Gore’s “Dirty Weather“ Webcast, you spoke of “more severe storms, harsher droughts, greater floods“, concluding: “Two weeks ago, Hurricane Sandy struck the eastern seaboard of the United States. A nation saw the reality of climate change. The recovery will cost tens of billions of dollars. The cost of inaction will be even higher. We must reduce our dependence on carbon emissions.“ We the undersigned, qualified in climate-related matters, wish to state that current scientific knowledge does not substantiate your assertions.

Danach folgt eine ausführlichere sachliche Widerlegung der Behauptungen von Ki-Moon. Auf die Wiedergabe dieses Teils des offenen Briefs wird hier verzichtet.

Die Behauptung des UBA über den angeblichen wissenschaftlichen Konsens über eine maßgebende, gefährliche Klimaschüdigung durch anthropogenes CO2 ist ABSURD, UNHALTBAR und FALSCH!

Unsere Beurteilung der UBA Schrift

Das UBA verfehlt in seiner Klimabroschüre jedes diskutable Fachniveau. Angesichts der politisch motivierten Propagierung eines anthropogen verursachten Klimawandels hat sich das UBA sachlicher Aufklärung verweigert. Es hat sich einseitig und ohne stringente Argumentation den Klimakatastrophen-Propheten angeschlossen, die ihre Vorhersagen aus fiktiven Klimamodellergebnissen herleiten.

Das UBA verstößt gegen das Ockham-Gesetz der Hypothesensparsamkeit, dem Paradigma moderner Naturwissenschaft. Die AGW-Hypothese ist zur Erklärung der Klimaentwicklung nach der Industrialisierung nämlich nicht erforderlich. Alle Klimaänderungen der letzten 150 Jahre liegen im bekannten Bereich natürlicher Fluktuationen der (zumindest) letzten 2000 Jahre. Die AGW-Hypothese darf daher gemäß dem immer noch gültigen Ockham-Paradigma nicht alleine in den Mittelpunkt gestellt werden. Sie ist nur eine unter anderen Hypothesen. Welche zutrifft, kann nur zukünftige Forschung entscheiden.

Mit Publikationen von solch fragwürdiger Qualität wird das UBA die Skepsis der Bevölkerung über die oktroyierte Meinungshoheit zum "Klimawandel" nicht beseitigen können. Vom UBA unbeabsichtigt, hat ihre Broschüre es fertig gebracht, dass sich ein Teil der Medien inzwischen der Gefahr für unsere Demokratie durch Unterdrückung von politisch unerwünschten Gegenstimmen und durch Verunglimpfung von Fachleuten mit anderer Auffassung bewusst wurde, solche Vorkommnisse nicht mehr hinnimmt und die Öffentlichkeit darüber informiert.

Wir hoffen, dass unsere fachliche Replik der UBA Schrift mehr Seriosität und wissenschaftliche Ehrlichkeit in die Klimadebatte bringt und stehen nicht nur dem UBA jederzeit fürSachdiskussionen und Rückfragen zur Verfügung.

Die Autoren

Jena, im Mai 2013

Klima- und Energie-Fachveröffentlichungen von EIKE-Mitgliedern

Begutachtete (Peer Review) Forschungs-Veröffentlichungen

R. Link and H.-J. Lüdecke: A new basic 1-dimension 1-layer model obtains excellent agreement with the observed Earth temperature, Int. J. Mod. Phys. C 22, No. 5, p. 449 (2011), doi:10.1142/S0129183111016361, http://tinyurl.com/d9vuxyr

H.-J. Lüdecke: Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment 22, No, 6 (2011) arxiv.org/PS_cache/arxiv/pdf/1110/1110.1841v1.pdf

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011) http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Clim. Past. 9, 447-452 (2013) http://www.clim-past.net/9/447/2013/cp-9-447-2013.pdf

Bücher

H.-J. Lüdecke: CO2 und Klimaschutz, Fakten Irrtümer, Politik (Climategate), vergriffen in 3-ter Auflage und nicht neu aufgelegt.

H.-J. Lüdecke: Energie und Klima, Chancen, Risiken, Mythen, expert-Verlag (Mai 2013)

M. Limburg: Klimahysterie – was ist dran?, TVR Verlag (2012)

J. Langeheine: Energie-Politik in Deutschland, das Geschäft mit der Angst, AtheneMedia (2012)

E. Gärtner: ökonihilismus, TVR (2012)

Related Files




Aus aktuellem Anlass: Deutsche Hochwasser- und Niederschlagschronologien

Unser Beitrag untersucht die Klimavariablen Abfluß und Niederschlag und das Potential, das Hochwasserrisiko in Deutschland in den vergangenen Jahrhunderten zu quantifizieren. Wir beschränken uns dabei vornehmlich auf eigene Untersuchungen. […]

Ergebnisse und Schlußfolgerungen

Hochwasserchronologien von Elbe und Oder über die letzten 800–1000 Jahre wurden von Mudelsee et al. (2003) konstruiert und veröffentlicht. Inhomogenität durch Dokumentenverlust ist für beide Flüsse für den Zeitraum nach 1500 vernachlässigbar. Mudelsee et al. (2003) schätzten Risikokurven extremer Elbe- und Oderhochwasser; diese dokumentieren keinen Anstieg (Sommerhochwasser) bzw. einen Abfall (Winter) für das 20. Jahrhundert. Ursache des Abwärtstrends im Winter ist wahrscheinlich das seltenere Auftreten von starken Eisdecken, die im Frühjahr aufbrechen und hohe Wasserstände deutlich verstärken können.

Ursache der geringeren Flußvereisungen ist nicht erhöhte Verschmutzung, sondern regionale Erwärmung (Mudelsee et al., 2004). Die Trends für das 20. Jahrhundert sind in ungefährer Übereinstimmung mit den Trends des Risikos des Überschreitens des 25-jährigen Maxiums der Niederschlagszeitreihen (Hulme et al., 1998) in den Einzugsgebieten.

Eine Hochwasserchronologie für die Werra (1500–2003) und entsprechende Risikoschätzungen werden von Mudelsee et al. (2006) präsentiert. Seit 1760 nimmt das Sommerhochwasserrisiko der Werra ab; das Winterhochwasserrisiko zeigt signifikante Schwankungen und einen Aufwärtstrend für das 20. Jahrhundert.

Der Schluß (Houghton et al., 2001), eine erhöhte regionale Temperatur bewirke „automatisch“ eine Erhöhung des Hochwasserrisikos (Clausius–Clapeyron-Gleichung), ist zu einfach.

Gefunden bei ACHGUT mit Dank an Finder Benny Pesier




HadCRUt4: Revision oder Revisionismus?

Hier folgt die verlangte Graphik, die auf den überarbeiteten Daten basiert:

Die lineare kleinste-Quadrate-Regression über die gesamte 1959 Monate lange Periode zeigt eine Erwärmung äquivalent mit 0,47°C pro Jahrhundert, also mitten im Bereich der natürlichen Variabilität des Klimas. Das 95%-Vertrauensintervall (2 σ) liegt zwischen 0,33 und 0,6°C pro Jahrhundert, was durch die Trendlinien um den zentralen Trend gezeigt wird.

Das Ergebnis sollte noch hinsichtlich der Ergebnisse in der Studie von Michaels & McKitrick (2007) über den städtischen Wärmeinseleffekt UHI und andere äußere Einflüsse überarbeitet werden; Effekte, die zu einer Überschätzung der Erwärmungsrate auf dem Festland während der letzten 30 Jahre geführt haben. Mit der Vermutung, dass diese Verzerrung seit 1850 bestanden haben könnte, liegt die wirkliche Erwärmungsrate seitdem bei einem Äquivalent von lediglich 0,4°C pro Jahrhundert.

Die Grenzen des 2 σ-Vertrauensintervalls konvergieren, weil man davon ausgeht, dass Messungenauigkeiten durch Verbesserungen der Messtechnik und der Zuverlässigkeit abgenommen haben.

Auf der anderen Seite steht, dass die terrestrische Abdeckung während der letzten Jahrzehnte drastisch abgenommen hat. Aus diesem und anderen Gründen berücksichtigt die HadCRUT4-Aufzeichnung explizit drei unterschiedliche Arten der Ungenauigkeit: Messung und Stichprobe, Bias und Abdeckung. Kombiniert man die Auswirkungen dieser drei, beträgt die 2 σ-Unsicherheitsgrenze heute etwa ein Sechstel Grad Celsius auf beiden Seiten um die zentrale Schätzung:

Im März 2013 beispielsweise betrug die zentrale Schätzung der Anomalie +0,412°C. Allerdings sind die obere und die untere Grenze des 2 σ-Intervalls mit 0,249°C und 0,569°C bzw. 0,163°C und 0,157°C von der zentralen Schätzung entfernt angegeben.

Die Diskrepanz zwischen den Projektionen im 5. Zustandsbericht des IPCC (rote zentrale Projektion im Bereich der orangenen Region) und das Ergebnis in HadCRUT4 (blaue Trendlinie) ist alarmierend. Die Differenz zwischen der beobachteten Abkühlung von 0,86°C pro Jahrhundert und der vorhergesagten Erwärmung von 2,33°C pro Jahrhundert ist äquivalent mit unglaublichen 3,2°C pro Jahrhundert.

Allerdings ist die Aufzeichnungsperiode seit Beginn der „Nachhersagen“ im Jahre 2005 kurz. Und man wünscht sich nicht, darauf hinzuweisen, dass der Grund, warum die HadCRUt4-Projektionen eine stärkere Abkühlung zeigen als die Satelliten-Datensätze, teilweise darin besteht, dass die terrestrischen Messergebnisse jetzt frisiert werden, um sie mit den genaueren und vollständigen Satellitendaten in Übereinstimmung zu bringen; und dass es jetzt eine korrespondierende Abschwächung der Erwärmung im 21. Jahrhundert geben muss, weil die Erwärmung des 20. Jahrhunderts verstärkt war.

Der Leiter der WMO hatte versucht, mich von der Klimakonferenz in Durban auszuschließen, weil ich es gewagt habe, seine Beteuerung in Frage zu stellen, dass man die Temperaturen über 30-Jahre-Perioden betrachten solle. Ich habe höflich darauf hingewiesen, dass die Erwärmungs- und Abkühlungsphasen der Pacific Decadal Oscillation jeweils 30 Jahre dauern, so dass man, um diese Auswirkungen heraus zu mitteln, Perioden eines Vielfachen von 60 Jahren untersuchen muss, oder dass man Perioden untersucht, die sich um die Transition von Erwärmung zu Abkühlung oder von Abkühlung zu Erwärmung zentrieren.

„Wollen Sie damit etwa mich belehren?!”, bellte er mich an. Der Vorgang wurde von einem meiner Kollegen bei CFACT gefilmt, und der fadenscheinige Vorwand für meinen Ausschluss war, dass die WMO für dieses Filmen keine Erlaubnis erteilt hätte. Also sprang ich nach Südafrika aus großer Höhe hinab und sagte den Organisatoren, dass sie den Fehler gemacht hätten, sich innerhalb der formellen britischen Rechtsprechung unangemessen verhalten zu haben, so dass ihre Aktivitäten Gegenstand juristischer Aufarbeitung sein würden.

Sie sagten, dass sie in juristischer Hinsicht immun seien (wie sie demnächst sehen werden, ist das nicht der Fall). Aber da die lokalen Zeitungen riesigen Spaß auf Kosten der Organisatoren hatten, weil diese versucht hatten, mich auszuschließen, haben sie mir die Rückkehr in die Konferenz gestattet.

Vor diesem Hintergrund ist hier der graphische Verlauf der Temperaturänderung während der 60 Jahre seit 1953:

Die Erwärmungsrate während der Periode, in der wir theoretisch die globalen Temperaturen beeinflusst haben können, war äquivalent zu lediglich 1,14°C pro Jahrhundert.

Die Periode seit 1990, dem Jahr des 1. Zustandsberichtes des IPCC, verläuft mehr oder weniger gut auf beiden Seiten der Erwärmung-zu-Abkühlung-Transition der PDO Ende 2001 und löscht so in etwa jede Verzerrung hiervon und den damit verbundenen ozeanischen Oszillationen aus (siehe Tsonis, 2006, mit einer interessanten Diskussion). Die Graphik folgt hier:

Die Erwärmungsrate unterscheidet sich nicht viel von der seit 1950: sie liegt bei weniger als 0,3°C pro Jahrhundert. Unabhängig davon, wie das IPCC derzeit auf eigene Kosten erfahren muss, kann man keinerlei Schlussfolgerung ziehen aus den relativen Steigungen multipler, willkürlich ausgewählter Trendlinien mit den gleichen Daten, mit denen man zeigen will, dass sich die globale Erwärmung beschleunigt.

Es gab mehrere signifikante Änderungen in den Daten zwischen HadCRUt3 und HadCRUt4. Im früheren Datensatz lagen die Erwärmungsraten von 1860 bis 1880, 1910 bis 1940 und 1976 bis 1998 – den stärksten Erwärmungsraten über mehrere Jahrzehnte hinweg in den gesamten Aufzeichnungen – statistisch bei einem Äquivalent von 1,6°C pro Jahrhundert. Dies entdeckte Lord Leach of Fairford am St. George’s Day 2009, als er die Regierung seiner Majestät fragte, …

„…ob die Rate der globalen Temperaturzunahme zwischen 1975 und 1998 ähnlich den Raten der Zunahme zwischen 1860 und 1880 sowie zwischen 1910 und 1940 waren …”

Lord Hunt von King’s Heath erwiderte:

„Beobachtungen, die vom Hadley Centre des Met. Office und von der Climate Research Unit der University of East Anglia gesammelt worden sind, zeigen, dass die Rate der globalen Temperaturzunahme zwischen 1975 und 1988 ähnlich den Raten zwischen 1860 und 1880 sowie zwischen 1910 und 1940 waren (etwa 0,16°C pro Jahrzehnt) …“

Es gibt eine Tendenz zu progressivem Revisionismus in den terrestrischen Datensätzen, und zwar dergestalt, dass Temperaturen in früheren Zeiten der Aufzeichnungen substantiell gesenkt und in jüngerer Zeit angehoben werden (aber nicht zu stark: die Satelliten überwachen!).

Die Auswirkung dieser Manipulationen war es, die offensichtliche Erwärmungsrate seit 1850 unvermeidlich steiler werden zu lassen, um das Dossier so zu frisieren, dass die globale Erwärmung künstlich zu einem größeren Problem wird als sie wirklich ist. Diese Tendenz, die schon lange in dem nicht vertrauenswürdigen Datensatz von NASA GISS (J. Hansen) augenscheinlich ist, ist jetzt auch in den Reihen von HadCRUt zu finden.

Eine Version von HadCRUt3, die in jüngerer Zeit in Lord Hunts Antwort eine Rolle spielte, zeigt Erwärmungsraten von jeweils 1,0; 1,6 und 1,8°C pro Jahrhundert während dieser drei Perioden. In HadCRUt4 setzt sich diese Manipulation fort, zeigen sich doch dort Erwärmungsraten äquivalent zu jeweils 1,0; 1,4 und 1,9°C pro Jahrhundert. Die folgende aufschlussreiche Tabelle fasst die Änderungen zusammen:

Die Antwort von Lord Hunt zeigt die unbequeme Wahrheit, dass in den globalen Instrumenten-Messungen die drei stärksten Erwärmungsraten über mehrere Jahrzehnte hinweg statistisch identisch waren, und impliziert, dass es nur eine geringe oder gar keine vom Menschen verursachte Beschleunigung der globalen Erwärmung gegeben hat. Es scheint so, als ob diese Antwort unter den gewöhnlichen Verdächtigen so große Sorgen ausgelöst hat, dass sie sie in den Eimer des Vergessens haben fallen lassen. Sattdessen haben sie sie schrittweise ersetzt durch neue und politisch korrektere Versionen der Parteilinie.

Und doch, selbst die höchste der aufregenden und frisch im Gedächtnis haftenden Erwärmungsraten in HadCRUt4 von 1,9°C pro Jahrhundert ist weniger als halb so groß wie die Erwärmungsrate von 3,9°C pro Jahrhundert, die 40 Jahre lang in England (und folglich global) von 1695 bis 1735 vorherrschend war. Diese vier Dekaden lagen vollständig vor dem Beginn der industriellen Revolution im Jahr 1750. Wir können dafür nicht verantwortlich gemacht werden. Es war (und ist zum größten Teil immer noch) die Sonne, Dummkopf.

Dem entsprechend ist die anthropogene Komponente der seit 1850 beobachteten Erwärmung  selbst in der vielfach veränderten Reihe von HadCRUt4 ziemlich klein und schwierig zu finden. Wie Bob Tisdale gesagt hat (und falls Sie seine Dia-Schau zu El Niño-Ereignissen und globaler Temperaturänderung nicht gesehen haben, sollten Sie dass nachholen) wurden selbst die historisch warmen Temperaturen seit 1998 schrittweise auf ihr neues Plateau gehoben durch das natürlicherweise aufgetretene Große El Niño-Ereignis dieses Jahres.

Fred Singer hat schon seit Jahren hierauf hingewiesen, aber die üblichen Verdächtigen haben sich die Ohren zugehalten und es vorgezogen, betrügerische und kränkende pseudo-psychologische Umfragen durchzuführen darüber, warum die Skeptiker skeptisch sind, anstatt auf den offensichtlichsten Grund zu schauen, warum Skeptiker skeptisch sind: die Wissenschaft selbst.

Professor Ian Plimer sagt, dass es einige Beweise dafür gibt, die nahelegen, dass untermeerische vulkanische Beben im äquatorialen Ostpazifik sechs Monate vor jedem El Niño-Ereignis auftreten. Sollte das stimmen, wären die El Niño-Ereignisse einschließlich des großen Ereignissses von 1998 vulkanischen und nicht anthropogenen Ursprungs.

Wie lange gab es jetzt keine statistisch signifikante Erwärmung mehr? In der folgenden Graphik wird die Zone statistischer Bedeutungslosigkeit in blassblau gezeigt. Da die gesamte zentrale Trendlinie innerhalb dieser Zone abfällt, ist die Erwärmung seit Februar 1996, also seit über 17 Jahren, statistisch nicht mehr von Null zu unterscheiden.

Fasst man die in diesen Graphiken gezeigten Beweise zusammen, gibt es keinen rationalen Grund, drastische und kostspielige Maßnahmen zu ergreifen, um die globale Erwärmung abzuschwächen. Es wäre billiger und klüger, abzuwarten und Tee zu trinken.

Weitere detailliertere und größere Graphiken sind in dieser Power Point Datei zu finden: wuwt-hadcrut4

Link: http://wattsupwiththat.com/2013/05/28/hadcrut4-revision-or-revisionism/

Übersetzt von Chris Frey EIKE




Energiewende: Größte Geldumverteilung seit Kriegsende – Nutzloser EEG-Zufalls-Strom wird 2013 bereits 26 Mrd € kosten!

Gerade eben tönte die Kanzlerin auf irgendeiner Nachhaltigkeitsdiskussion im Bundestag wieder einmal, sie sei "machbar" (nicht: sie sei erforderlich), nur die Deckelung der Strompreise sei noch schwierig. Wenn es mal so einfach wäre.

Abbildung 1: amtlich festgestellter Verlauf der globalen Mitteltemperatur (dunkelrote gezackte Linie) von 1997 bis 2012, Anstieg der atmosphärischen CO2 Konzentration (schwarze gepunktete Linie) von 362 auf 400 ppm und von Klimamodellen errechneter Temperaturanstieg um 0,3 K (entspricht 0,3 °C). Hellrote Mittellinie ist der ermittelte Trend des Verlaufs der globalen Mitteltemperatur.

Das war damals schon vorsätzlich gelogen und ist es heute noch viel mehr. Denn inzwischen wissen es alle, die es wissen wollen, besser. Weder richtet sich das Weltklima und noch nicht mal das Klima in Deutschland nach dieser kindlichen Wunschvorstellung. Die globale Mitteltemperatur, was immer sie darstellen soll, hat den von Klimaforschern u.a. des Potsdam Institutes für Klimaforschungsfolgen (PIK) verordneten Gleichschritt mit dem CO2 seit nunmehr 15 Jahren ermattet aufgegeben. Es wird seitdem nicht mehr wärmer. Der Trend zeigt sogar leicht nach unten in Richtung Kälte. Siehe Abb. 1. Die jüngsten Erfolge bei der Gewinnung von Erdgas und Erdöl aus Schiefergestein, rücken zudem das baldige Ende fossiler Brennstoffe in weite, weite Ferne. Auch die Geschichte  vom baldigen Ende derselben, entpuppt sich als das Märchen, das es von Anfang an war.

Damit ist nicht nur Klimakatastrophe[2] ersatzlos abgesagt. Auch vermögen die,  mittels EEG massenhaft erzeugten, NIE (Neue Instabile Energien) auch nur annähernd den Bedarf nur eines einzigen Haushaltes zu decken. Der simple Grund: Nachts scheint auch hierzulande keine Sonne und der Wind weht dort und dann wo er will. Nicht wo und wann wir ihn brauchen. Häufig auch gar nicht. Und weil man Strom in brauchbaren Mengen nicht speichern kann – auch nicht in Zukunft- müssen konventionelle, ebenso wie die verbliebenen Kernkraftwerke, die selbstgemachten Lücken füllen. D.h. sie stehen in Dauer-Bereitschaft, werden ständig auf- und abgeregelt, damit bewusst auf Verschleiß gefahren und liefern zuverlässig Strom. Immer noch! Denn sie verhindern, wenn auch gerade mal so, einen flächendeckenden Stromausfall: Den Blackout!

Dafür kostet dieser Zufallsstrom, den normalerweise niemand, der klar im Kopf ist, auch nur mit der Kneifzange anfassen würde. Und wie er kostet! Allein in 2012 durften die Erzeuger dieser NIE´s 20 Mrd €[3] dafür einkassieren, obwohl der so erzeugt Zufallsstrom an der Strombörse gerade mal 2,7 Mrd Euro einbrachte. Und für 2013 erwarten Experten [4] eine Summe von 26 Mrd €, das wäre ein Anstieg um 30 %.

Doch das ist noch längst nicht alles. Gleichzeitig nämlich verpflichtet das EEG uns -die Verbraucher- zur Unterzeichnung von Schuldwechseln für die Dauer von 20 Jahren, deren Bedienung uns bereits aufgelaufen bis Ende 2012 301 Mrd Euro in den nächsten 20 Jahren kosten werden. Und in diesem Jahr kommen nochmals mindestens 30 Mrd Euro dazu. Und dann jedes Jahr mehr und mehr und mehr. 

Abbildung 2: Reale Zahlungen an EEG Besitzer in den Jahren 2000 bis 2012 in Millionen €. Blaue Kurve: Zahlungen pro Jahr. Grüne Kurve: kumulierte Zahlung seit Beginn des EEG. Rote Kurve: Zahlungsverpflichtungen über die nächsten 20 Jahre wegen der vertraglich zugesicherten 20 jährigen Garantie. Ab 2012 best fit aus Excel für den zukünftigen Verlauf der Zahlungen und Zahlungsverflichtungen. Bereits für 2013 wird die Auszahlung statt errechneter 22,5 Mrd € voraussichtlich die Summe  von 26 Mrd € erreichen.

Damit ist, seit dem Ende des zweiten Weltkrieges, die größte Umverteilung von unten nach oben – parallel zur Eurorettung- von Regierungsseite in Gang gesetzt worden. Gleichzeitig dazu wird die beste Energieinfrastruktur der Welt aufs schwerste beschädigt, massiver Raubbau an der Natur durch Vermaisung und massive Waldrodung für Photovoltaik und Windkraftanlagen,  betrieben, und der massenhafte Verlust von wertschöpfenden Arbeitsplätzen[5] – angefangen bei der energieintensiven Grundstoffindustrie- billigend in Kauf[6] genommen.  Allein bei der Grundstoffindustrie sprechen wir da – direkt und indirekt- von ca. 850.000 Arbeitsplätzen.

Zu diesen Themen wird jetzt von EIKE das 1. Hamburger Klima- und Energiegespräch am 14. Juni im Hamburger Maritim Hotel veranstaltet, mit spannenden Vorträgen von Top-Experten.  Die Tagungsgebühr beträgt 60 € und schließt Mahlzeiten und Erfrischungsgetränke ein. Sie deckt nur einen geringen Anteil der Kosten ab. Interessenten melden sich bitte hier: 

Michael Limburg, EIKE


[1]Im Januar  2004 behauptete J. Trittin, dass „die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis“ [BMU] http://www.eike-klima-energie.eu/climategate-anzeige/stellt-die-wahre-partei-der-besserverdienenden-zur-rede/

[2] Durchschlagende Wortschöpfung der Deutschen Physikalischen Gesellschaft aus 1986 zur Unterstützung der Kernkraft

[3] FAZ vom 06.01.13 Verbraucher zahlen 17  Milliarden Euro Zuschuss für Ökostrom 

 http://www.faz.net/aktuell/wirtschaft/energiewende-verbraucher-zahlen-17-milliarden-euro-zuschuss-fuer-oekostrom-12016230-l1.html·

[4] Diese Zahl nannte der für den Kraftwerksbereich zuständige Siemensvorstand Dr. Süß auf dem CDU/CSU Energiedialog am 30.4.13 in Berlin

[5] siehe Calzada Studie http://www.eike-klima-energie.eu/uploads/media/Calzada_EXECUTIVE_SUMMARY_deutsch.pdf

und Stagnaro Studie: http://www.eike-klima-energie.eu/news-anzeige/saubere-arbeitsplaetze-teure-arbeitsplaetze-warum-italien-sich-keine-gruene-oekonomie-leisten-kann/

[6] „Saurierindustrien die zum Aussterben verurteilt seien“ nannte dies der inzwischen geschasste ehemalige Umweltminister Dr. Norbert Röttgen 




Wissenschaftspressekonferenz fordert Stopp der UBA-Broschüre

“Es ist nicht Aufgabe einer staatlichen Institution festzulegen, welche Meinungen geäußert werden dürfen und welche nicht”, erklärt WPK-Vorsitzender Martin Schneider, “Journalisten dürfen und müssen unterschiedliche Positionen vertreten, und sie dürfen und müssen immer wieder auch etablierte Wissenschaftler in Frage stellen”. Im Übrigen könne es nicht Aufgabe einer Behörde sein, bestimmte wissenschaftliche Positionen quasi amtlich als wahr zu beurkunden. Auch wenn der anthropogen bedingte Klimawandel nicht mehr bezweifelt werden kann, gibt es auch in der Wissenschaft intensive Diskussionen über viele Details, etwa über seine Folgen und die Gültigkeit bestimmter Modelle. „Dieser Diskurs muss innerhalb der Wissenschaft geführt werden, und Journalisten müssen ihn kritisch begleiten“, so Schneider.

Die WPK fordert Umweltminister Peter Altmaier dazu auf, eine weitere Verbreitung der Broschüre in dieser Form zu stoppen.“

Zitiert aus der Quelle: http://idw-online.de/pages/de/news536360

Zuerst erschienen auf ACHGUT




UN – Keine direkten Gesundheitsschäden durch Fukushima

Nach dem Atomunfall von Fukushima war die Angst vor Folgen wie vermehrtem Schilddrüsenkrebs groß. Jetzt gibt die UN (UNSCEAR-Report) Entwarnung: Nach einer ersten Untersuchung sind keine direkten Gesundheitsfolgen nachweisbar (hier), (hier), (hier), (hier), (hier).UNSCEAR ist die UN Organsiation zur Erforschung der biologischen Folgen radioaktiver Strahlung *).

Wegen des Atomunfalls von Fukushima werden nach UN-Einschätzung weder mehr Menschen sterben noch vermehrt an Krebs erkranken. Die Katastrophe vom März 2011 habe keine direkten Gesundheitsfolgen für die Bevölkerung, heißt es in einer ersten umfassenden Untersuchung der Vereinten Nationen.

Grund sei die schnelle Evakuierung des Gebiets durch die japanischen Behörden gewesen, sagte der Vorsitzende des wissenschaftlichen Komitees der Vereinten Nationen für die Folgen von Strahlung (UNSCEAR), Wolfgang Weiss, in Wien.

180 Wissenschaftler aus 27 Ländern haben bei UNSCEAR den Fukushima-Bericht erarbeitet. Der Abschlussbericht ist für den Herbst 2013, rund zweieinhalb Jahre nach dem Unfall bei den UN in New York vorgesehen.

Nach Einschätzung der Wissenschaftler leiden die Menschen psychisch unter der Evakuierung, nicht aber gesundheitlich infolge von Strahlenbelastung. «Die Erfahrungen von Tschernobyl haben uns gezeigt, dass neben einer möglichen direkten Auswirkung auf die Physis, die sozialen Folgen mit den einhergehenden Gesundheitseffekten in der betroffenen Bevölkerung besondere Aufmerksamkeit brauchten», sagte UNSCEAR-Chef Carl-Magnus Larsson.

«Wir sehen statistisch keine direkten Risiken oder Gesundheitsfolgen», sagte Weiss. Nach der Katastrophe habe die zusätzliche Strahlenbelastung durch den Unfall für die meisten Japaner

unter der natürlichen Umgebungsstrahlung

gelegen. Man gehe auch nicht davon aus, dass man künftig Krebserkrankungen auf den Unfall zurückführen könne. Nach der Reaktorkatastrophe von Tschernobyl sei die Strahlenbelastung deutlich höher gewesen.

Der Bericht ermittelt den statistischen Schnitt. Daher wollte Weiss nicht völlig ausschließen, dass einzelne Personen wegen einer zu hohen Strahlendosis an Krebs erkranken könnten: «Wir können nicht die Gesundheit von 60 000 Menschen individuell in jeder einzelnen Lebenszeit verfolgen.» Doch statistisch erhöhe sich die Rate nach den bsiherigen Untersuchungen nicht.

Der Großteil der Daten stammt von japanischen Behörden, aber auch die USA, die Weltgesundheitsorganisation WHO und die Internationale Atomenergiebehörde IAEA hätten Informationen beigetragen. Die Aussagen des Berichts basierten hauptsächlich auf Rechenmodellen, Umweltmessungen und individuellen medizinischen Untersuchungen. «Das heißt nicht, dass wir alles haben was wir gerne hätten», sagte Weiss. In Tschernobyl hätten sich manche Auswirkungen erst fünf Jahre nach dem Unfall gezeigt.

Zur generellen Aussagekraft von Untersuchungen zur Auswirkung von Radioaktivität auf den Menschen sagte Weiss in einem dpa-Gespräch: «Wir haben uns 50 Jahre damit befasst, aber das heißt nicht, dass wir alles wissen. Das gilt sowohl für ganz hohe Strahlenexpositionen wie auch den niedrigen Dosisbereich.» Umstritten sei beispielsweise,

ob man bei niedrigen Dosen überhaupt von einem Effekt auf das Krebsrisiko sprechen könne:

Es sei wissenschaftlich nicht haltbar, einen Krebs, der 30 oder 40 Jahre später auftrete, mit einer lang zurückliegenden niedrigen Strahlenbelastung begründen zu wollen.

Kommentar von EIKE:

Zur schnellen Evakuierung und den entsprechenden Verlautbarungen von Wolfgang Weiss (UNSCEAR) sei eine Anmerkung erlaubt: die schnellen Evakuierungen waren politischem Druck geschuldet, sachlich waren sie weitestgehend unnötig – sowohl in Tschernobyl als auch in Fukushima (hier). Als Folgen der Evakuierungen waren im Übrigen tatsächlich Todesfälle zu beklagen. Dennoch ist für all diese Maßnahmen Verständnis zu fordern. Welche Behörde würde das Risiko eingehen, später wegen Untätigkeit an den Pranger gestellt zu werden, auch wenn die Gründe noch so sachgerecht gewesen waren. Auch die Verlautbarung von Wolfgang Weiss geht in Ordnung. Es ist sicher weder im Interesse, noch gehört es zur Aufgabenstellung der UNSCEAR, Behörden oder Regierungen wegen gut gemeinter Maßnahmen zu desavouieren.

Den Fachleuten war dies alles bereits seit langem bekannt (hier). Hierzu darf auf unsere unbedingt empfehlenswerte Reihe in den EIKE-News (Energie) "100 Gründe und 100 gute Antworten" verwiesen werden, die immer noch läuft, ferner auf die in EIKE veröffentlichten Artikel von Paul Schoeps (hier), (hier) und (hier). Aber auch der Autor geht in seinem jüngst erschienenen Buch "Energie und Klima, Chancen, Risiken, Mythen" besonders ausführlich auf die Strahleneinwirkungen der beiden Kernkraftwerksunglücke Tschernobyl, Fukushima und auf die der beiden Kernwaffenabwürfe von Hiroshima und Nagasaki ein, aus denen die UNSCEAR ihre heute bereits sehr zuverlässigen Angaben über die reale Gefährdung radioaktiver Strahlung ableitet (hier).

Eine realistische Angabe zur Gefährdung durch radioktive Strahlung ist somit verfügbar, und das Stammtischniveau, mit dem grüne Politik die Bevölkerung über Kernkraftwerke, Endlagergefahren und weiteres mehr täuscht, könnte eigentlich einer rationalen, realistischen Betrachtung Platz machen. Infolge jahrhrzehntelanger Täuschungspropaganda von grünen Ideologen, unterstützt von den Medien – man braucht sich hierzu nur die Besetzungen der Leitungsfunktionen in den großen Rundfunk- und Fersehanstalten anzusehen – ist mit einer Änderung wohl erst in biologischen Zeitspannen, d.h. nach Ausscheiden dieser Leute aus Altersgründen zu rechnen.

Bleibt nur noch eine Anmerkung zur Aufgabe der weltweit sichersten Kernkraftwerke in Deutschland. Unsere Nachkommen werden sich über diese größte Dummheit der deutschen Energiepolitik aller Zeiten die Haare raufen. Die Verantwortlichen sind dann leider nicht mehr zur Rechenschaft zu ziehen, an erster Stelle eine Bundeskanzlerin mit – man staunt – naturwissenschaftlicher Promotion. Machtpolitisches Kalkül wurde von ihr entgegen dem Amtseid, dem Wohl des deutschen Volkes zu dienen, rationaler, sachgemäßer Politik vorgezogen und – entgegen geltendem Recht und von "grünem Zeitgeist" getrieben – zugelassen, dass inzwischen ganze Industriezweige, wie Kernenergie und Kohle diffamiert und abgewickelt werden **).

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

*) Der Autor als ausgebildeter Kernphysiker kann es natürlich nicht lassen: Die Bezeichnung UNSCEAR, in der die letzten beiden Buchstaben "atomic radiation" besagen, ist etwas schräg. Richtig wäre "nuclear radiation". Dann hätte aber die Abkürzung UNSCEAR fünf Konsonanten in Reihe, dies war wohl der Grund.

**) Angesichts bekannter, zum Teil ausgsprochen amüsanter Diffamierungsversuche und zur Vermeidung von Missverständnissen erlaubt sich der Autor zu betonen, ohne Weiteres weder ein besonderer Freund der Kern- noch der Kohleindustrie noch irgendeiner anderen Industrie zu sein. Er ist vielmehr besonderer Freund JEDER Industrie, die unter den Kriterien von WIRTSCHAFTLICHKEIT, SICHERHEIT,  NATUR- und LANDSCHAFTSSCHUTZ zur Wertschöpfung und damit dem Wohlstand unseres Landes beiträgt. Kern- und Kohleindustrie mit Anlagen auf dem heutigen Stand gehören seiner Auffassung nach dazu, Windradindustrie generell nicht (Verfehlen der Wirtschaftlichkeit und des Natur- und Landschaftsschutzes). Die erforderlichen Kriterien der Nützlichkeit von Energie-Industrien sind in seinem o.g. Buch beschrieben und belegt.




Statistische Beweisführung für anthropogenen Klimawandel zweifelhaft

Met-Office Britischer Wetterdienst: Behauptungen über statistisch signifikanten Temperaturanstieg unhaltbar!

Beitrag von Doug Keenan.

Im britischen Oberhaus wurde am 8. November 2012 eine Anfrage von Lord Donoughue gestellt. Sie lautete:

Frage an die Regierung Ihrer Majestät … ob sie den Anstieg der globalen Temperatur von 0,8 C° seit 1880 für signifikant hält. [HL3050]

Die Antwort behauptete, dass “der Temperaturanstieg seit etwa 1880 statistisch signifikant ist”. Das bedeutet, dass der Temperaturanstieg vernünftigerweise nicht auf natürliche Veränderlichkeit zurückgeführt werden kann, d. h. den Klimawandel gibt es wirklich.

Lord Donoughue
Foto: http://www.parliament.uk/biographies/lords/lord-donoughue/2709

In der Statistik kann die Signifikanz nur durch ein statistisches Modell bestimmt werden. Nehmen wir ein einfaches Beispiel: Wir werfen eine Münze 10 mal und wir erhalten jedesmal “Kopf”.  Dafür sind zwei Erklärungen möglich:
Erklärung 1: die Münze ist gezinkt, sie hat auf jeder Seite “Kopf”.
Erklärung 2: die Münze ist in Ordnung, der “Kopf” bei jedem Wurf ist reiner Zufall.
(Auch weitere Erklärungen sind möglich.)
Dem Anschein nach sind 10 mal “Kopf” bei zehn Würfen kaum plausibel. Wenn wir nur diese beiden Erklärungen hätten und keine weitere Information, müssten wir schlussfolgern, dass Erklärung 1 viel wahrscheinlicher ist als Erklärung 2.

Ein Statistiker würde jede Erklärung ein  “statistisches Modell” nennen (grob gesprochen). Mit Hilfe der Statistik könnte dann nachgewiesen werden, dass Erklärung 1 rund eintausend mal wahrscheinlicher ist als Erklärung 2; mit anderen Worten, die statistische Analyse erlaubt eine Quantifizierung, um wieviel wahrscheinlicher eine Erklärung (Modell) gegenüber einer anderen ist. In strenger statistischer Terminologie würde die Schlussfolgerung etwa so lauten: “die relative Wahrscheinlichkeit von Modell 2 im Vergleich zu Modell 1 ist 0,001”.

Eine regelgerechte Antwort auf die oben zitierte parlamentarische Anfrage darf nicht nur Ja oder Nein lauten. Sie muss auch Auskunft geben, welches statistische Modell benutzt wurde, um die Signifikanz zu bestimmen. Die Antwort enthält in der Tat eine Aussage über das statistische Modell, wenigstens andeutungsweise. Sie lautet, dass man einen “linearen Trend” benutzt hätte und dass das “benutzte statistische Modell die Beständigkeit der Abweichungen durch einen autoregressiven Prozess berücksichtigt” [allows for persistence in departures using an autoregressive process].

Wenn Sie sich nicht mit der Trendberechnung von autoregressiven Prozessen auskennen, dann braucht Sie das hier nicht zu kümmern. Wichtig ist nur, dass Ihrer Majestät Regierung in ihrer Antwort bestätigte, dass ein statistisches Modell genannt werden muss. Aber es fehlt noch etwas: ist die Wahl des statistischen Modells auch vernünftig? Gibt es vielleicht noch andere, besser geeignete statistische Modelle?
(Es gibt bei der Antwort eine kleinere Mehrdeutigkeit, weil es viele Arten von autoregressiven Prozessen gibt. Die Mehrdeutigkeit wurde in einer entsprechenden Anfrage vom 3. Dezember 2012 geklärt, [HL3706]; weitere nachfolgend diskutierte Antworten bestätigten, dass es ein Prozess von Erster Ordnung wäre.

Das habe ich in der Anfrage von Lord Donoughue (HL3050) entdeckt – sie steht hier auf Bishop Hill unter der Überschrift “Parlamentarier beschäftigen sich mit statistischer Signifikanz”. Mit Lord Donoughue habe ich über die Auswahl des statistischen Modells gesprochen. Ich habe darauf hingewiesen, dass es andere Modelle gibt, die eine viel größere Wahrscheinlichkeit hätten, als das trendermittelnde autoregressive Modell, das in der Antwort genannt worden ist. Mit anderen Worten, die Grundlage für die Antwort ist unhaltbar.

Im Wall Street Journal vom 5. April 2011 hatte ich einen Außenbeitrag veröffentlicht, auf dem dies und Weiteres diskutiert wurde. Der Außenbeitrag enthält eine technische Ergänzung, die ein anderes Modell beschreibt, besonders ein driftloses ARIMA(3,1,0) Modell (noch einmal, es spielt hier keine Rolle, dass man es kennt). Die Ergänzung zeigt, dass die Wahrscheinlichkeit des driftlosen Modells etwa 1000 mal höher ist als die des trendermittelnden autoregressiven Modells. Deshalb muss das von Ihrer Majestät benutzte Modell verworfen werden zu Gunsten des driftlosen Modells. Beim driftlosen Modell aber ist der Temperaturanstieg seit 1880 nicht signifikant. Mit anderen Worten, die richtige Antwort auf die Anfrage (HL3050) kann nur NEIN sein.

Lord Donoughue stellte dann eine Parlamentarische Anfrage an Ihrer Majestät Regierung nach deren Beurteilung der Wahrscheinlichkeit beim trendermittelnden autoregressiven im Vergleich zum driftlosen Modell. Ihrer Majestät Regierung gab keine Antwort darauf. Lord Donoughue fragte noch einmal nach. Wieder keine Antwort. Er fragte ein drittes Mal, wieder keine Antwort. Und dann fragte er ein viertes Mal.

Eine Parlamentarische Anfrag aus dem Oberhaus wird von der Regierung formell im Ganzen beantwortet. In der Praxis übergibt die Regierung die Anfrage dem zuständigen Ministerium. In unserem Falle wurde die Anfrage dem Energie- und Klimawandelministerium übergeben. (Department of Energy and Klima Change). Der angesprochene Amtsträger ist die Parlamentarische Unterstaatssekretärin, Baroness Verma. Frau Verma erhielt die Antworten vom (englischen) Wetterdienst. Die für den Wetterdienst oberste verantwortliche Person ist der Leiter, John Hirst. Normalerweise delegiert Hirst diese Aufgaben an die Chefwissenschaftlerin des Wetterdienstes, Julia Slingo. Also war es Frau Slingo, die sich weigerte, die Parlamentarischen Anfragen zu beantworten. Hirst und Verma stellten sich vor sie (möglicherweise unbedacht).

Mit Frau Slingo hatte ich schon einigen Email-Austausch. Sie hat noch nie die Probleme behandelt, die ich angesprochen habe. Stattdessen antwortete sie immer rhetorisch und mit großem Unverstand für einfache statistische Sachverhalte. Sehen Sie sich zum Beispiel den Beitrag hier auf Bishop Hill an. “Klima correspondents”. Deshalb meinte ich, es sei Zeitverschwendung, direkt mit Frau Slingo über die Parlamentarische Anfrage zu sprechen. Also wollte ich Hirst ansprechen. Unter anderem wandte mich wie folgt an ihn:

In der vergangenen Woche hat Lord Donoughue eine Parlamentarische Anfrage gestellt, HL6132, über die statistischen Modelle zu den globalen Temperaturdaten. HL6132 ist im Wesentlichen das Gleiche wie. HL5359, welche der Wetterdienst schon nicht beantwortete. Die Chefwissenschaftlerin des Wetterdienstes hat nicht die statistischen Kenntnisse, welche zur Beantwortung der Anfrage nötig sind; es gibt aber wenigstens einen Wissenschaftler beim Wetterdienst mit diesen Kenntnissen  – Doug McNeall. Ich bitte Sie, dafür zu sorgen, dass die Anfrage beantwortet wird.

Doug McNeall ist Statistiker (ich hatte schon einmal eine freundliche Email-Diskussion mit ihm. Insbesondere nach meinem Außenbeitrag im WSJ vom 12. August 2011). Er schickte mir eine Email mit der Aussage, dass das trendermittelnde autoregressive Modell “einfach ungeeignet wäre”. Das würde jedem auffallen, der sich mit statistischen Zeitreihen beschäftigt hätte. Man beachte, dass dies von einem Statistiker vom Wetterdienst kam, der damit sagte, dass die Antwort auf die Original-Parlaments-Anfrage (HL3050) unbegründet ist.

Lord Donoughues vierter Anfrage wurde also, wie schon zuvor, die Antwort verweigert. Hinterher erhielt ich folgende Nachricht von Herrn Hirst:

Ich möchte Ihnen versichern, dass der Wetterdienst keine Antwort verweigert hat. Die Fragen, auf die Sie sich beziehen, wurden von Baroness Verma beantwortet, Parlamentarische Unterstaatssekretärin im Ministerium für Energie und Klimawandel.
Ich möchte anmerken, dass Baroness Verma in ihrer Antwort auf HL5359 und HL6132 und auf weitere Fragen von Lord Donoughue angeboten hat, dass er sich mit Behördenvertretern treffen könnte, um diese und weitere Fragen im Detail zu klären.

Nun stellte Lord Donoughue seine Anfrage zum fünften Mal. Und ich schickte folgende Nachricht an Herrn Hirst:

Ich weiß nicht, ob Ihre Nachricht ernstgemeint ist, oder ob Sie mir nur sagen wollen, dass ich mich besser davonmachen möge. Falls ersteres zutrifft, verweise ich auf die folgende Erläuterung.
Die von Lord Donoughue gestellte Anfrage erfordert die Berechnung eines einzigen Zahlenwertes. Der Rechengang ist rein arithmetisch, keine Abschätzung ist nötig, (auch kein Hintergrundwissen in Klimafragen). Und die Berechnung ist so einfach, dass ein auch nur wenig erfahrener Statistiker sie binnen weniger Minuten durchführen kann. Es ist so einfach, wie z. B. die Summierung einer Spalte mit ganzzahligen Werten.
Die Zahl, um die Lord Donoughue bittet, beträgt nach meiner Berechnung 0,001. (Ja, so einfach ist das.) Lord Donoughue möchte die Zahl aber von einer Behörde ausgerechnet bekommen. Deshalb hat er die Parlamentarische Anfrage eingebracht und die Regierung um diese Zahl gebeten.

Lord Donoughue hat inzwischen schriftliche Antworten auf folgende vier Parlamentarische Anfragen erhalten: HL4414, HL5031, HL5359, HL6132.  Keine der Antworten nennt eine Zahl. Stattdessen stehen in den Antworten Entschuldigungen, warum keine Zahl angegeben ist. Die Hauptentschuldigung scheint zu sein, dass eine Zahl nicht wichtig sei. Wie wichtig die Zahl ist, betrifft ein anderes Problem: und wenn schon die Zahl nicht wichtig ist, könnte die Berechnung dennoch durchgeführt werden und die Zahl genannt werden.

Die Regierung Ihrer Majestät wollte sich die Zahl vom Wetterdienst geben lassen; doch der Wetterdienst hat sich verweigert. Mit anderen Worten, der Wetterdienst verweigerte die Anwort – anders als sie in Ihrer Nachricht sagen. Aus welchem Grund verweigert der Wetterdienst, diese Zahl zu liefern? Die zur Errechnung erforderliche Zeit ist geringer als die Zeit, die der Wetterdienst mit seiner Ablehnung beschäftigt war.

Parlamentarische Anfragen haben eine Geschicht über Jahrhunderte zurück. Ich bin auf diesem Gebiet kein Experte, aber nach meinem Verständnis ist Ihrer Majestät Regierung verpflichte, entweder eine Antwort auf eine Anfrage zu geben, oder einen glaubwürdigen Grund, warum sie keine Antwort geben kann. Die Weigerung des Wetterdienstes, diese Zahl zu liefern sieht nach dem Bruch mit einer Jahrhunderte alten parlamentarischen Gepflogenheit aus. Ich habe in der Tat mit weiteren Mitgliedern des Ober- und Unterhauses gesprochen und sie sind in echter Sorge, diese ist augenscheinlich auch bei parlamentarischen Amtsträgern zu finden.

Lord Donoughue hat inzwischen zum fünften Mal um die Zahl gebeten. Die von ihm eingebrachte Anfrage lautet (HL6620):

Anfrage an Ihrer Majestät Regierung … ob man sicher stellen wird, dass das Ergebnis der Berechnung im Amtlichen Berichtsblatt veröffentlicht wird, und wenn nicht, warum.

Die Antwort war zum 12. April fällig. Ich hoffte, dass Ihrer Majestät Regierung die Zahl von woanders bekäme, falls der Wetterdienst sich weiter weigerte.

Es gab keine direkte Antwort, aber einen Einladung von Doug McNeall zum Besuch beim Wetterdienst und zu einer Diskussion über statistische Trends bei globalen Temperaturn. Und so habe ich geantwortet:

Vielen Dank dafür. Im Prinzip wäre eine solche Besprechung sicher von Wert. Der Wetterdienst aber verweigert die Antwort auf eine simple arithmetische Anfrage und gibt darüberhinaus auch noch unehrliche Gründe für das Verweigern an. Angesichts dessen habe ich kein Vertrauen, dass die Diskussion in gutem Einvernehmen geführt würde.
Deshalb lehne ich bei aller Hochachtung ab. Wenn der Wetterdienst die Zahl liefert, wäre ich glücklich, darüber weiter zu diskutieren.

Nach einer weiteren Woche wurde die fünfte Anfrage (HL6620) wie folgt beantwortet:

Wie schon in einer vorhergehenden schriftlichen Antwort vom 14. Januar 2013 (Official Report, col. WA110) an den ehrenwerten Lord dargelegt, ist es Aufgabe der Wissenschaft, die verschiedenen Methoden zur Untersuchung der globalen Temperatur-Zeitreihen zu prüfen und auszuwählen. Es ist auch Aufgabe der Wissenschaft, die Ergebnisse solcher Arbeiten in der fachbegutachteten wissenschaftlichen Literatur zu veröffentlichen.

Also, nach Ansicht des Wetterdienstes hat das Parlament kein Recht, wissenschaftliche Anfragen an regierungsamtliche Wissenschaftler zu stellen.
Nach einigen Tagen erhielt ich folgende Nachricht von Herrn Hirst:

Die Verspätung der Antwort tut mir leid. Ich war nicht im Büro.
Es tut mir auch leid, wenn meine vorhergehende Email bei Ihnen den Eindruck erweckte, ich wünschte keine weitere Diskussion in dieser Angelegenheit. Das war nicht meine Absicht. Auch ich bin nicht zufrieden mit den Antworten, die auf Lord Donoughues Parlamentarische Anfragen gegeben wurden. Ich würde mich sehr freuen, wenn wir gemeinsam über Ihre Sorgen sprechen könnten und dies als Teil einer wissenschaftlichen Diskussion über das statistische Modellieren globaler Durchschnittstemperaturen.
Ich gehe davon aus, dass Doug McNeall angeboten hat, ein Treffen mit Ihnen und weiteren mit dem Thema befaßten Wissenschaftlern vom Wetterdienst zu arrangieren. Ich halte das für einen gangbaren Weg und wenn auch unsere Ansichten in einigen Bereichen unterschiedlich sind, kann ich Ihnen versichern, dass wir diesem Treffen wohlgesonnen entgegen sehen würden.
In Erwartung Ihrer Antwort …

Herr Hirst unterstützt also klar den Obstruktionismus. Ich hielt eine Anwort für aussichtslos.

Den Parlamentsregeln zufolge ist der für eine Parlamentarische Anfrage Verantwortliche der Amtsträger, der die Antwort erteilt. In unserem Falle ist dieser Amtsträger die Baroness Verma. Entsprechend der Vorschrift Companion to the Standing Orders and Guide to the Proceedings of the House of Lords, §4.68 Ministerial Responsibility, “Amtsträger sollen so offen wie möglich gegenüber dem Parlament sein und Informationen nur verweigern, wenn deren Offenlegung nicht im öffentlichen Interesse liegt”, und “Amtsträger, die das Parlament irreführen, sollen beim Premierminister um ihren Rücktritt bitten”.

Lord Donoughue schickte dann einen Brief mit deutlichen Worten an Unterstaatssekretärin Verma und zitierte den Abschnitt über die Verantwortung von Amtsträgern. Er fügte hinzu: “Ich bin mir gewiß, dass wir nicht an diesen Punkt kommen, weil Sie erkennbar nicht hinter der vorsätzlichen Verweigerung einer Antwort auf die Anfrage stehen”.
In der Tat, Verma schien darauf vertraut zu haben, dass die ihr vom Wetterdienst gelieferte Antwort guten Glaubens geschrieben worden wäre.

Jetzt stellte Lord Donoughue die Anfrage zum sechsten Male (HL62). Diesmal enthielt die Antwort die relative Wahrscheinlichkeit. Der volle Antworttext (ohne Fußnoten) lautet:

Es gibt viele Möglichkeiten zur Untersuchung von Zeitreihen, darunter auch physikalische und statistische Modelle. Die Relevanz einer Technik hängt von den Fragen ab, die man an die Daten stellt. Der Wetterdienst hat die Wahrscheinlichkeiten verglichen für das Fitting der beiden genannten Modelle der drei unabhängigen globalen oberflächennahen Temperaturgangreihen (vom UK- Wetterdienst, US-NASA und -NOAA) unter Ansatz eines Standard-Approachs.

Der statistische Vergleich der Modell-Fits zeigt, dass sich die Wahrscheinlichkeit eines linearen Trendmodells mit autoregressivem Rauschen Erster Ordnung bei der Entwicklung der globalen Oberflächen-Temperaturgangreihen-Anomalien seit 1900 zwischen 0,08 (Daten des Wetterdienstes) und 0,32 (NOAA-Daten) bewegt, bezogen auf den Fit eines driftlosen autoregressiven integrierten Modells Dritter Ordnung. Die Wahrscheinlichkeit beträgt 0,001 wenn der Beginnzeitpunkt zum Beispiel bis 1850 (Wetterdienst-Daten) zurückverlegt wird. Diese Ergebnisse zeigen für ein solches statistisches Modell, dass dieser Parameter sehr empfindlich auf die ausgewählte Zeitperiode und deren Daten reagiert.

Ein hoher Wert bei der Wahrscheinlichkeit bedeutet nicht notwendigerweise, ob ein Modell nützlich oder geeignet ist. Klima ist ein sehr komplexes physikalisches System. Um es zu modellieren, müssen physikalische und chemische Prozesse in der Atmosphäre und in den Meeren verstanden werden, natürliche Variabilität und externe Antriebe, z. B. mit Hilfe von Modellen, die auf der Physik beruhen.  Um Veränderungen des Klimas aus Temperaturbeobachtungen zu entdecken, wurden vom Wetterdienst Arbeiten durchgeführt, die auf formalen Entdeckungs- und Verursachungsmethoden beruhen, wobei physikalische Klimamodelle benutzt wurden und nicht nur rein statistische Modelle, wie schon in Chapter 9 on the Contribution of Working Group I to the IPCC’s Fourth Assessment Report, 2007.

Im zweiten Absatz wird die relative Wahrscheinlichkeit des trendbildenden autoregressiven Modells im Vergleich mit dem driftlosen Modell genannt. Die relative Wahrscheinlichkeit beträgt 0,08 für die Jahre 1900–2012 und 0,001 für die Jahre 1850–2012 (unter Benutzung von Wetterdienst-Daten). In jedem Falle ist das trendbildende autoregressive Modell viel weniger wahrscheinlich als das driftlose Modell, welches sich als das bessere erweist. Daher ist das statistische Modell unhaltbar, auf das sich die Antwort auf die Original-Anfrage (HL3050) bezog.
Das meiste des dritten Absatzes ist bla-bla. Insbesondere liefern die zitierten “physikalischen Klimamodelle”, die der Wetterdienst auf seinen Supercomputern laufen lässt, tatsächlich einige Hinweise auf globale Klimaerwärmung. Physikalische Klimamodelle und statistische Modelle werden zugleich “Modelle” genannt, aber das sind zwei verschiedene Dinge. Nur um die statistischen Modelle ging es bei der Anfrage. Die physikalischen Klimamodelle, obgleich beeindruckend auf vielerlei Weise, geben überhaupt keine beobachteten Messungsbelege für eine globale Erwärmung her.

Die Frage betraf die vom Wetterdienst aufgestellte Behauptung in Beantwortung der Original-Anfrage (HL3050), dass “der Temperaturanstieg seit etwa 1880 statistisch signifikant ist”. Die Grundlage für diese Behauptung wurde nun tatsächlich als unhaltbar erkannt. Möglicherweise gibt es eine andere Grundlage für die Behauptung, aber das scheint extrem unplausibel zu sein: die Behauptung scheint jeder Grundlage zu entbehren.

Daher sollte der Wetterdienst nun öffentlich diese Behauptung zurückziehen. Der Wetterdienst sollte also zugeben, dass die in den globalen Temperaturganglinien sichtbare Erwärmung seit 1880 (oder besser 1850) mit gutem Grund auf natürliche zufällige Schwankungen zurückgeführt werden kann. Anschließend muss der Wetterdienst weitere Behauptungen auf den Prüfstand stellen, die von ihm über statistisch signifikante Klima-Änderungen aufgestellt worden sind.

Schließlich ist es nicht nur der Wetterdienst, der behauptete, dass der Anstieg der globalen Temperaturen statistisch signifikant wäre: das hat auch das IPCC getan. Und was noch dazukommt, das IPCC hat das gleiche statistische Modell wie der Wetterdienst benutzt in seinem letzten Zustandsbericht (Assessment Report 2007). Der Zustandsbericht stellt die Gründe für die Auswahl des Modells in Volume I, Appendix 3.A dar. Der Appendix gibt korrekterweise zu, dass in Bezug auf die statistische Signifikanz “die Ergebnisse vom jeweils benutzten Modell abhängig sind.”
Welche Rechtfertigung gibt der Appendix für die Auswahl des trendbildenden autoregressiven Modells? Keine. Mit anderen Worten, das vom IPCC benutzte Modell wurde einfach durch Proklamation bestimmt. Wissenschaft soll sich aber auf Evidenz und Logik gründen. Das Versagen des IPCC, sich auf Evidenz oder Logik zur Begründung seiner Auswahl des Modells zu beziehen, ist ein ernstzunehmender Verstoß gegen wissenschaftliche Grundprinzipien – er bedeutet, dass die Tätigkeit des IPCC keine Wissenschaft ist.

Zum Schluß: der Hauptgrund für den Klimawandel-Alarmismus ist unbegründet. Der Wetterdienst hat falsche Behauptungen gegenüber dem Parlament wie auch gegenüber der Regierung gemacht über die Signifikanz des Klimawandels, auch gegenüber den Medien und Dritten. Behauptungen, die sowohl die Politik wie auch die Meinungen schwer beeinträchtigt haben.  Als im Parlament Anfragen eingingen zu diesen Behauptungen, hat der Wetterdienst alles nur Erdenkliche getan, um die Wahrheit nicht sagen zu müssen.

Original hier bei Bishop Hill

Übersetzung: Helmut Jäger, EIKE

Inzwischen hat das Met-Office auf diese Analyse von Doug Keenan reagiert. Details dazu finden Sie hier.Die Blog Kommentatoren Mike Jarosz Jacob und brachten den Inhalt der Erwiderung auf den Punkt:

  1. Mike jarosz says:May 31, 2013 at 10:36 amBecause we said so. That’s why. Debate is over, We have consensus. Move along.

    Weil wir es gesagt haben. Deshalb. Die Debatte vorbei ist, wir haben Konsens. Vorwärts.

  2. Jacob says:May 31, 2013 at 10:38 amWow. The Met Office’s blog post was painful to read, not for it’s crushing arguments, rather for use of arm-waving and logically fallacious arguments. As a professional meteorologists myself, I would expect far better from a national Meteorological organization. If they are going to lie, at least lie well, not like a bloviating bloke.

    Wow. Der Met Office Blogbeitrag war schmerzhaft zu lesen, nicht wegen seiner vernichtenden Argumente, sondern für den Einsatz von Arm-Wedeln und logisch trügerischer Argumente. Als professioneller Meteorologe, würde ich viel besseres von einer nationalen Meteorologischen Organisation.erwarten,  Wenn man schon lügt, dann sollte man zumindest gut lügen, und nicht nur schwafeln.




Das Umweltbundesamt – staatlich verordnete Klima-Doktrin. Faktencheck zur UBA-Broschüre “Und sie erwärmt sich doch“ Zweiter Teil

Was trägt die Sonne zu Klimaänderungen bei?

(Kap. 6 der UBA Schrift): Die UBA Aussage “Der größte Teil der globalen Erwärmung im Laufe der vergangenen 50 Jahre wurde nach heutigem Stand der Wissenschaft durch die steigenden Konzentrationen von Treibhausgasen in der Atmosphäre verursacht‘‚ ist an Hand der Fachliteratur nicht zu belegen und infolgedessen wohl frei erfunden. Von einem solchen Stand der Wissenschaft ist nichts bekannt. Entsprechend hat das UBA auch keine seriöse Quelle für diese Behauptung aufführen können.

In der Frage des Sonneneinflusses auf die Klimaentwicklung gehen das UBA, wie auch das IPCC, selektiv vor. Wie auch das IPCC bevorzugt das UBA, ohne dafür fachlich stringente Argumente angeben zu können, die AGW-Hypothese und verwirft alle anderen Hypothesen. Es ist nur vordergründig korrekt, dass die relativ geringfügige Variation der Sonnenleuchtkraft als Ursache für Klimaänderungen kaum in Frage kommt, weil Sekundäreffekte außer Acht gelassen werden.

Die Änderung des Sonnenmagnetfeldes, das über die Kette der kosmischen Strahlung und der Wassertröpfchenbildung (Wolken) das Klimageschehen beeinflusst, wird vom UBA und auch vom IPCC ausser acht gelassen. Eine ausführliche Zusammenstellung der zugehörigen wissenschaftlichen Fachliteratur ist im Buch von Vahrenholt/Lüning “Die kalte Sonne“ zu finden. Auch der Klimaeinfluss des Sonnenmagnetfeldes ist nur eine Hypothese. Sie wird zur Zeit intensiv untersucht – u.a. auch am CERN mit dem Cloud-Projekt (hier) – und kann Teilergebnisse vorweisen. Dass das UBA diese Hypothese verschweigt, belegt unwissenschaftliches Selektieren.

Änderungen der Gletschermassen

(Kap. 10 der UBA Schrift): Die selektiv ausgewählte sommerliche Abnahme der arktischen Meereisfläche wird nicht nur vom UBA als Beleg für eine ungewöhnliche globale Erwärmung angeführt, obwohl überall auf der Welt Gletschereis im Sommer abtaut. Dieses Argument hat zuerst einmal nichts mit einem anthropogenen Klimaeinfluss zu tun, denn Änderungen der Gletschermassen bestimmt seit Urzeiten die Natur. Es ist zu vermuten, dass dieser falsche Schluss dem Laien suggeriert werden soll. Da in den Medien, aber auch vom UBA mit besonderer Betonung auf das arktische Meereis abgehoben wird, sind doch einige Details zu behandeln.
Das relativ dünne Meereis der Arktis – der Unterschied zum arktischen Gletschereisvolumen, aber auch zum dicken Packeis und zu Eisbergen wird dabei im Allgmeinen verschwiegen – verschwindet weitgehend im Sommer und kommt im Winter wieder (hier). Es handelt sich um jahreszeitliche Schwankungen und um Wetterverhältnisse, die nichts mit den riesigen Eisvolumina der Arktisgletscher zu tun haben, wie sie zum Beispiel in einem ZEIT-Artikel angesprochen werden (hier). Das klimatisch maßgebende Eisvolumen des grönländischen Festlandgletschers beträgt rund 3 Millionen Kubikkilometer, das mit den Jahreszeiten schwankende Meereis wird vom UBA mit ca. 5000 Kubikkilometern angegeben. Dies ist ein vernachlässigbarer Bruchteil der Grönlandgletschereismasse. Die Aussage des UBA zum arktischen Meereis und Eises der Antarktis ist daher grob irreführend. Zur Problematik des Arktiseises kann am besten der renommierte Polarforscher Prof. Heinz Miller (AWI) Auskunft geben. Die ZEIT vom 7.6.2007 schrieb über seine Forschungsaktion 2006 Folgendes (hier):

Im November 2006 veröffentlichten über 80 Mitglieder des Europäischen Bohrprojekts Epica (European Project for Ice Coring in Antarctica), darunter die Bremerhavener, eine wichtige Entdeckung: Zwischen Nord- und Südpol schwingt eine Klimaschaukel. Steigen in Grönland die Temperaturen, dann sinken sie in der Antarktis – und umgekehrt. Globale Meeresströme transportieren gewaltige Wärmemengen von Pol zu Pol. “Wir konnten die Klimaschaukel äußerst präzise nachweisen und das Klima über 860.000 Jahre rekonstruieren“, berichtet Miller.
In diesem Zeitraum schwankte es heftig. “Es gab acht Kalt-Warmzeit-Zyklen“, sagt er. Dabei reagierte der Nordpol (mit Temperaturänderungen bis zu 15 Grad in 20 Jahren) viel sprunghafter als der stabile Kälteklotz in der Antarktis, der 90
Prozent allen Eises birgt. Diese Daten von Nord- und Südpol widerlegen düstere Prophezeiungen, der Meeresspiegel könne in kurzer Zeit um mehrere Meter ansteigen. “Bis das Grönlandeis schmilzt, vergehen mehr als tausend Jahre“, versichert Miller. Denn es war in der Vergangenheit auch deutlich wärmer als heute, ohne dass die riesigen Gletscher verschwanden. Auch die Befürchtung, der aktuelle Klimawandel lasse das Treibhausgas Methan aus Sümpfen und Meeren ausgasen und das Klima “kippen“, finden die Glaziologen nicht bestätigt: “Wir sehen auch in wärmeren Zeiten keinen entsprechenden Anstieg des Methans.“ ähnlich wie bei den Eisbären unterscheidet sich die reale Welt von der gefühlten medialen Wirklichkeit. “Wer von Klimaschutz redet, weckt Illusionen“, mahnt Miller zu Bescheidenheit. …Schlagworte wie Klimakollaps oder -katastrophe hält er für
irreführend.

Zum Rückzug der Alpengletscher ist anzumerken: Der Rückgang der Gletscher in den Alpen wurde schon im Jahre 1885 im Alpinen Jahrbuch dokumentiert. Die Beobachtungen begannen in 1881, berichtet wurde von Prof. Eduard Richter aus Salzburg, sie betrafen verschiedene Gletscher in den Ötztalern, Zillertalern und die Pasterze. Man findet die genannte Zeitschrift in der Bücherei des Deutschen Alpenvereins auf der Praterinsel in München (Jahrgang 1885, Band XVI, Seite 54 bis 65). Eine Fortsetzung folgte im Jg. 1888 (Wir verdanken diese Informationen dem EIKE-Leser Dr. Lutz Niemann).
Der Glaziologe Prof. Gernot Patzelt von der Universität Innsbruck weist an Hand von Gletscherfunden wie z.B. Baumresten nach, dass in 65% der letzten 10.000 Jahre die Alpengletscher kleiner und die Temperaturen höher als heute waren. Wald ist in Höhen gewachsen, die heute noch vergletschert sind – dies ohne alles menschliche Zutun [1], (hier), (hier). Warmzeiten, in denen die Gletscher kleiner waren als heute (Hochmittelalter, Römerzeit), waren kulturelle Blütezeiten.

Die Auswirkungen von (anthropogenem) CO2

(Kap. 7, 12, 15 der UBA Schrift): Das UBA ignoriert die Rolle des CO2 für die Ernährung der Menschheit. Höhere CO2-Konzentrationen führen zu deutlich mehr Pflanzenwuchs (hier), (hier). Die von einigen Medien bevorzugte Diffamierung des Naturgases CO2 als eines vom Menschen erzeugten Schmutzgases ist absurd und falsch. Hierzu werden gerne Bilder weißer Wasserdampfwolken aus Kraftwerkskühltürmen oder gar Rußwolken aus Fabrikschloten gezeigt, beide haben mit dem unsichtbar-durchsichtigen CO2 überhaupt nichts zu tun. CO2 wird bei allen Verbrennungsvorgängen erzeugt, biologischen und industriellen gleichermaßen (Bild 3). Ohne CO2 gäbe es kein Leben, denn CO2 ist der Hauptbestandteil der Photosynthese. Bestrebungen von sachunkundigen Bürgermeistern, eine CO2-freie Stadt oder Wirtschaft anzustreben, sind an Absurdität nicht mehr zu übertreffen.
Die Ausführungen des UBA in Kap. 12 sind grob irreführend. Ein Vergleich mit der Venusatmosphäre ist unzulässig. Dort beträgt die CO2-Konzentration über 95%, es herrschen Drücke in Bodennähe von etwa 100 bar, und die Sonneneinstrahlung ist einer kürzeren Entfernung der Venus zur Sonne wegen mehr als doppelt so stark.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Atmung.jpg

Bild 3: CO2 ist für unser aller Leben unabdingbar. Mehr CO2 lässt bei ausreichender Wasserzufuhr Pflanzen (Getreide) besser wachsen. CO2 ist weder klimaschädlich noch ein industrielles “Schmutzgas“. Nebenbei: knapp 7 Milliarden Menschen atmen – der CO2-Erzeugung bei der Nahrungsmittelherstellung wegen nicht naturneutral – etwa doppelt soviel CO2 aus, wie es die weltweite Benzinverbrennung durch Autoverkehr erzeugt [2].

In der Erdatmosphäre ist dagegen CO2 nur ein Spurengas mit heute 0,04%, und der Luftdruck beträgt bekanntlich 1 bar. Die sich aus den physikalischen Gesetzen ergebenden Auswirkungen dieser extrem unterschiedlichen Bedingungen haben so gut wie nichts miteinander zu tun und sind nicht vergleichbar. Oder anders ausgedrückt: Aus den Verhältnissen der Venus kann man nichts über die Auswirkungen des Spurengases CO2 in der Erdatmosphäre lernen.

Nach der gängigen Treibhausgas-Theorie ist CO2 in der Erdatmosphäre das zweitwirksamste Treibhausgas nach dem Wasserdampf (Methan ist zwar ein stärkeres Treibhausgas als CO2, weist aber eine wesentlich kleinere Konzentration als dieses auf). Hier interessiert allerdings ausschließlich der Betrag an globaler Erwärmung, der von einer ERHöHUNG der CO2-Konzentration verursacht wird. Er ist extrem gering, nicht direkt messbar und kann daher nur aus spektralen Labormessungen hergeleitet werden. Angegeben wird der Bereich zwischen 0,45 °C (hier) bis 1,1 °C (IPCC) globaler Erwärmung bei Verdoppelung der CO2-Konzentration (“Klimasensitivität“). Diese Erwärmung ist unbedenklich. Das Szenario einer CO2-Verdoppelung ist zudem unrealistisch, denn erst durch Verbrennung aller fossilen Brennstoffressourcen kann die CO2-Konzentration der Erdatmosphäre verdoppelt werden (Abschätzungsrechnung in [3]). Das oft beschworene 2 °C Ziel ist daher rein politischer Natur und unter wissenschaftlichen Kriterien blanker Unsinn. Dies wird u.a. von dem Klimaforscher Prof. Hans von Storch bestätigt [4].

In Kap. 7 schneidet dann das UBA das Thema der Wasserdampfrück- bzw. Gegenkoppelung an. Diese Effekte könnten die geringe globale Erwärmungswirkung von zusätzlichem CO2 erhöhen oder vermindern. Im ersten Fall besagt die Rückkoppelungshypothese, dass der durch leichte Erwärmung in Äquatornähe aus den Weltmeeren erzeugte Wasserdampf als stärkstes Treibhausgas den Erwärmungseffekt des CO2 verstärkt. Die Gegenkoppelungshypothese sagt dagegen aus, dass der erzeugte Wasserdampf zu Wolken kondensiert, welche abregnen und die Sonneneinstrahlung abschirmen. Dieser Mechanismus kühlt also ab.

Was zutrifft, können nur MESSUNGEN entscheiden, nicht die vom UBA bevorzugten Klimamodelle. Eine Reihe von Fachpublikationen haben an Hand von Messauswertungen nachgewiesen, dass die Natur tatsächlich die Gegenkoppelung bevorzugt (hier, hier, hier, hier, hier).

Damit verringert sich noch die vorgenannte Klimasensitivität des CO2, was auch erklärt, warum ein temperatursteigernder Einfluss der zunehmenden CO2-Konzentrationen bis heute nicht auffindbar ist [5]. Auf dem Blog der Autoren Vahrenhaolt/Lüning der „Die kalte Sonne“ werden jüngste Veröffentlichungen zur Klimasensitivitäät besprochen, die dem UBA offenbar komplett unbkannt sind (hier).
Das UBA hat die vorgeschilderten Messungsauswertungen ignoriert und dafür fiktive Ergebnisse aus Klimamodellrechnungen vorgezogen. Modelle ohne Bestätigung durch Messungen erlauben selbst bei geringer Komplexität der Modelle kaum verlässliche Vorhersagen. Es ist daher das ZENTRALE PRINZIP der  Naturwissenschaften, nur durch Messungen überprüfte Modelle zu akzeptieren. Vorhersagen auf Grund von nicht überprüften Modellen waren in der mittelalterlichen Scholastik üblich, die bekanntlich nie zu verlässlichen Ergebnissen kam. Solche Vorhersagen sind daher als “nichtwissenschaftlich“ einzuordnen. Die Hypothese einer Wasserdampfverstärkung ohne ausreichende Messbelege, genauer, mit Messbelegen, die dieser Hypothese deutlich widersprechen (Beispiel: nicht messbarer, von den Modellen geforderter “Hot Spot“), beruht auf einem mittelalterlichen Paradigma.

[1] Veröffentlichungen von Prof. G. Patzelt in Google Scholar unter “G. Patzelt“ googeln

[2] Abschätzungsrechnung in H.-J. Lüdecke: Energie und Klima, Chancen, Risiken, Mythen, expert-Verlag (Mai 2013), Kap. 3, S.29

[3] Energie und Klima, Chancen, Riskiken, Mythen, expert-Verlag (2013), daselbst im Anhang 6.3 die Abschätzungsrechnung “Energiereserven und CO2-Anstieg“,
ferner Abschnitt 4.9.2 “Wie weit steigt atmosphärisches CO2 noch an?“

[4] DIE ZEIT, 20.08.2009, S. 29

[5] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration
tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

Zum Ausdrucken des angehängten pdf-Files die Druckereinstellung „An Druckränder anpassen“ wählen.

Related Files




Kernenergie: 100 Gründe und 100 gute Antworten. Fortstzung #46 bis #49

Seitdem führt das BfS auch eine aufwendig gestaltete Webseite, die ausschließlich die Gefährlichkeit der Asse darstellt.

Auf der Suche nach dem eigentlichen Skandal verliert sich die Spur aber schnell. Warum das Einsickern von Wasser (#46), wie es in praktisch jedem Bergwerk passiert, plötzlich eine Gefahr darstellen soll, wird nirgendwo, auch nicht auf den BfS-Seiten zur Asse, erläutert. Ebensowenig wird erklärt, warum plötzlich nur noch die Rückholaktion in Frage kommt. In einer etwas kuriosen „Fachlichen Bewertung” kommt man zu dem Schluss (S. 194), dass praktisch alle Indikatoren für eine Vollverfüllung sprechen – und empfiehlt deshalb die milliardenteure Rückholung. Diese Logik alleine macht schon deutlich, dass gesunder Menschenverstand beim Thema „Asse” schon lange keine Rolle mehr spielt.

Auch Ursula und Michael Sladek lassen sich dieses Thema natürlich nicht entgehen, lässt sich doch daraus für ihre von allen Bürgern subventionierten Elektrizitätswerke Schönau (EWS) so herrlich Profit schlagen. Natürlich muss man auch gleich verallgemeinern, dass es ein Endlager überhaupt nicht geben kann (#47). Und als Beleg wird auch gleich noch nachgeschoben, dass niemand so etwas vor seiner Tür haben will (#48). Und sollte das Thema Endlager langweilig werden, amüsieren Sie sich mit Grund/Antwort #49, wenn Leute, die keinen Bezug zu Technik haben, eben darüber mutmaßen. Viel Vergnügen wünscht KRITIKALITÄT.

Nun zu Hundert gute Antworten #42 – #45, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013, 9.5.2013, 18.5.2013 und 24.05.2013.

Hundert gute Antworten #46 – #49

#46: Atommüllkippe Asse II

Behauptung: Das Versuchsendlager Asse säuft schon nach 20 Jahren ab.

Die EWS behaupten

126.000 Fässer Atommüll entsorgten Atomindustrie und Atomforscher zwischen 1967 und 1978 nahezu kostenlos im »Versuchsendlager« Asse II. Das ehemalige Salzbergwerk sei jahrtausendelang sicher, beteuerten Experten, ein Wassereinbruch ausgeschlossen.

20 Jahre später fließen täglich 12.000 Liter Wasser in die Stollen. Inzwischen sind die ersten Fässer undicht, die Grube einsturzgefährdet.

Um eine großräumige Verseuchung des Grundwassers zu vermeiden, muss der ganze Müll nun wieder raus. Die Kosten dafür – die Rede ist von bis zu 4 Milliarden Euro – müssen nicht etwa die Verursacher, sondern die Steuerzahler tragen. Dafür änderten CDU und SPD im Jahr 2009 eigens das Atomgesetz.

Asse II galt offiziell als »Pilotprojekt« für das geplante große Endlager im Salzstock Gorleben.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Nicht die Anzahl der Fässer zählt, sondern die eingelagerte Aktivität. Die ist nämlich mit 4.600 Terabecquerel gerade mal so groß wie die natürliche Radioaktivität des umgebenden Salzes plus Erdreich. Auch handelt es sich nicht um einen „Wassereinbruch”, sondern um ein tief unterirdisches Einsickern, verursacht durch den seitlichen Gebirgsdruck und die hundert Jahre betriebene Aushöhlung. Die Deckschichten hemmen den Durchtritt zur Biosphäre. Ein Einsturz der Grube, verursacht durch das eingedrungene und dann abtragende Wasser, würde diese Verhältnisse deutlich verbessern.

Die Wasserzuflüsse waren in der Vergangenheit schon deutlich höher, bis zu 100.000 Liter pro Tag vor 70 Jahren, im Bergbau nichts Ungewöhnliches und in allen Asse-Studien immer bekannt gewesen. Dagegen sind die heutigen Zuflüsse eher gering, gut unter Kontrolle und unter ständiger Beobachtung.

Die Asse war auch kein »Pilotprojekt« für Gorleben, sondern diente der Erprobung von Einlagerungstechniken anhand schwach- bis mittelradioaktiver Abfälle. Der Zustand des Bergwerks war dabei von Anfang an bekannt, deshalb wurde die Asse auch nie als Endlager für größere Mengen hochradioaktiven Abfalls in Betracht gezogen. Aber selbst, wenn das jetzige Inventar auf völlig undenkbaren Wegen schlagartig freiwerden und sich gleichmäßig im Umkreis von 1 km in der Erdkruste verteilen würde, stiege dort die natürliche Radioaktivität gerade auf das Doppelte an – was völlig ungefährlich wäre. Von einer „großräumigen Verseuchung” kann überhaupt keine Rede sein. Selbst eine vollständige Einleitung in den Bodensee ergäbe eine Aktivität von 100 Bq je Liter – ebenso unbedenklich. Eine Verlagerung des Abfalls ist also völlig unnötig, doch wenn man es trotzdem täte, ließen sich die Kosten ohne Probleme einpreisen: Es wären weniger als 0,1 Cent je kWh.

Der völlig unberührte und in seiner gesamten Ausdehnung ungleich größere Salzstock Gorleben ist von diesen Problemen nicht im Geringsten betroffen. Die unzähligen Studien belegen dies.

Quellen von KRITIKALITÄT


#47: Kein Endlager

Behauptung: Weltweit gibt es bis heute kein sicheres Endlager für hochradioaktiven Müll.

Die EWS behaupten

Ein Atommüll-Endlager müsste ein geologisch über sehr lange Zeiträume stabiler Ort sein. Seine Umgebung dürfte chemisch möglichst nicht mit dem eingelagerten Müll und den Behältern reagieren. Der Ort müsste weit weg von der Biosphäre, von potenziellen Rohstoffquellen und von menschlichen Einflüssen liegen. Das Gebiet dürfte nicht ins Meer entwässern.

Weltweit hat bisher niemand einen solchen Ort gefunden. Ob es ihn gibt, ist mehr als fraglich.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Weltweit gibt es unzählige Orte für eine sichere Endlagerung hochradioaktiven Mülls, ob in Salzgestein, in Granit, in Eis oder in der Wüste.

Beispielsweise ist das geplante Gorleben-Endlager geologisch über sehr lange Zeiträume stabil. Das Salz reagiert chemisch kaum mit dem eingelagerten Müll und Behältern (z.B. HAW-Kokillen). Eine Einlagerung tief im Salzgestein ist weit weg von der Biosphäre, von potentiellen Rohstoffquellen und von menschlichen Einflüssen. Die Entwässerungsrichtung des Gebietes ist dafür irrelevant. Ständiges Wiederholen des Gegenteils ändert nichts an den wissenschaftlichen Fakten, wie sie in einer Vielzahl begutachteter geologischer, chemischer und radiologischer Publikationen veröffentlicht wurden. Allein in Deutschland gibt es zahlreiche derartige Orte.

Ob man sie angesichts von Brutreaktoren, wie sie weltweit entwickelt aber in Deutschland von der Antiatombewegung blockiert werden, nutzen will, ist mehr als fraglich.

Quellen von KRITIKALITÄT


#48: St. Florian

Behauptung: Niemand will den Atommüll haben.

Die EWS behaupten

Seit 2005 wandern abgebrannte Brennelemente in Castor-Hallen direkt bei den Atomkraftwerken. Das brachte und bringt nicht wenige Atom-Fans zwischen Brunsbüttel und Ohu in schwere Argumentationsnöte. Der Atommüll dürfe keinesfalls in ihrer Nachbarschaft gelagert werden, fordern sie. Nur der Reaktor (der Geld in die Gemeindekassen spült), der müsse unbedingt weiterlaufen …

Auch die CSU will unbedingt Atomstrom – aber keinesfalls Atommüll in der Nähe Bayerns. Mit Diskussionen über mögliche Endlagerstandorte, warnt sie, „zünden wir die ganze Republik an“.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Bedenken dürften sich weniger gegen angebliche Gefahren durch den „Atommüll” als gegen gefährliche Aktionen radikaler Kernkraftgegner richten. Diese haben ja in der Vergangenheit oft genug bewiesen, dass sie für den „guten Zweck” gerne mal Menschenleben gefährden.

Wer sich richtig informiert, z.B. durch die 100 guten Antworten, findet schnell heraus, dass gesundheitliche Beeinträchtigungen der Bevölkerung durch Zwischen- oder Endlager nicht zu erwarten sind und auch noch nie nachgewiesen wurden – weltweit. Auch trifft die Behauptung, Endlager möchte man weit weg haben, zumindest auf Schweden und Spanien gar nicht zu. Dort ist die Mehrheit der Bevölkerung dafür, mehrere Gemeinden haben sich als Standort beworben und Olkiluoto betreibt neben mehreren Kernkraftwerken auch gerne noch ein Endlager .

Im Übrigen ist eine unzugängliche Endlagerung gar nicht sinnvoll, enthalten die Stoffe doch noch 100 mal so viel nukleare Energie, wie ihnen bisher entnommen wurde. Schnellspaltreaktoren, wie sie bereits in der Erprobungsphase sind, können diese Energie nutzen – eine Zwischenlagerung in Castor-Hallen ist also sehr sinnvoll.

Quellen von KRITIKALITÄT


#49: Castor-Tricks

Behauptung: Atommüll-Behälter sind nur unzureichend getestet.

Die EWS behaupten

Castor-Behälter sind sicher, heißt es. Aber nicht jedes Modell wird realen Tests unterzogen. Oft fallen und brennen nur verkleinerte Modelle. Oder es gibt nur Simulationen.

Manchmal jedoch passen deren Ergebnisse nur schlecht mit der Realität zusammen. So wie im Frühjahr 2008 bei einem neuen Castor-Typ. Da hatte der Hersteller, damit seine praktischen und theoretischen Messergebnisse besser übereinstimmten, »frei gewählte Parameter « eingeführt. Das ging selbst dem Bundesamt für Materialforschung (BAM) zu weit. Es verweigerte zunächst die Zulassung. Deswegen konnte 2009 kein Castor-Transport rollen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Gesetze der Mechanik sind bekannt und müssen nicht immer wieder aufs Neue getestet werden. Man baut auch nicht Häuser und Brücken im Maßstab 1:1 „zum Testen” auf. Simulationen können hier sehr viel genauer und aufschlussreicher sein. Wo das Optimum zwischen Simulationen, Modelltests und Realtests liegt, entscheiden die Experten.

Diesen Experten als Laie eine bessere Vorgehensweise zu empfehlen mag einfach nur naiv sein. Dreist und peinlich ist es hingegen, mitten aus einem laufenden Zulassungsverfahren den Begriff „freier Parameter”, aus dubioser Quelle aufgeschnappt, zu zitieren. Ohne einen entsprechenden wissenschaftlich-technischen Kontext, der in keiner der Quellen genannt wird, ergibt dieser Begriff überhaupt keinen Sinn.

Die Behälterzulassung erfolgte schließlich im September 2009.

Quellen von KRITIKALITÄT





„Klimaforscher“ Schellnhuber lässt sich von der Wirklichkeit nicht täuschen.

„Was wäre, wenn die Welt 4 Grad wärmer wäre?“ heißt jetzt die Schicksalsfrage der Nation. Nein, nicht der drohende Euro-Kollaps, nicht die zunehmende Überalterung unserer Gesellschaft, nicht die Spar- und Rentenvermögen  enteignende Niedrigzinspolitik der Notenbanken, nein es ist die schon oft tot gesagte Klimakatastrophe. Und John Schellnhuber liess sich denn auch nicht lumpen. 

Video Mittschnitt aus der ZDF MoMa Sendung vom 29.5.13

Zuvor jedoch zeigt das in grünem Katastrophismus geübte ZDF einen Einspieler der den Zuschauern die richtige Stimmung vermitteln soll.  Eine grün-blaue, gar liebliche Erde wird bei vier Grad Hitze unappetitlich, ja gefährlich gelb. Und damit es auch der Bekloppteste versteht, nur einstellige Zahlen muss er lesen können, wird noch auf orangenem Grund ein große Vier eingeblendet. Und dann warnen sie wieder – die Klimaforscher. Düster bebildert mit Rauch ausstoßenden Fabrikschloten, was wohl das so unsichtbare, wie ungiftige und harmlose CO2 symbolisieren soll.

Dann räsoniert der, von Filmchenautor Gunnar Krüger munitionierte, Sprecher, dass nun leider das tolle, weil welt- und lebensrettende 2 °C Ziel in weite Ferne gerückt sei. Offenbar hat es niemand für nötig gehalten, Autor und Sprecher darüber zu informieren, dass die globale Mitteltemperatur seit über 15 Jahren nicht mehr steigt sondern sogar leicht abnimmt. Dies ausblendend folgte stattdessen eine Kaskade von unerquicklichen Ereignissen, wie das Schmelzen des Nordpoleises, dem nun der „Sonnenschutz“ fehle – von monatelanger Polarnacht haben die Erfinder dieses Streifens noch nie etwas gehört- bis zu den regelmäßigen Waldbränden in Sibirien, die natürlich auch durch die (fehlende Erwärmung, s.o.) ausgelöst wurden und die Klimaerwärmung noch viel mehr anheizen. Gefolgt von Korallenriffen, die absterben und damit die Malediven dem Untergang weihen.

Auch so ein Teufelskreis mit „Kippelementen“ , der von uns Menschen in Gang gesetzt wurde, so will es uns der Sprecher glauben machen.

Es ist einfach fatal! Weil dann auch „der Meeresspiegel“ um mindestens 50 ja 100 cm steigen würde, drohend gezeigt an einer schnell laufende Uhr.

Wirklich Großes Kino! Doch ohne Happy End.

Denn nun, nach diesem dräuenden 1,5 Minuten langen Einspieler, darf Dunja Halali – charmante Moderatorin im MoMa- dem Oberpriester Schellnhuber die entscheidende Frage stellen. „Vier Grad mehr? Was hieße das für Deutschland?  

Und der legt dann richtig los. 4  Grad sei ja nur der Durchschnitt und das hieße, dass die Landtemperaturen um 6 °C anstiegen, behauptet er autoritär professoral, aber ohne jede Begründung.  Dabei glatt die Tatsache vergessend, dass die mittlere Landtemperatur bei nur 8,5 °C liegt, während die mittlere Seetemperatur 16.1 °C [1] beträgt. Jedenfalls dann, wenn man der amerikanischen Klima- und Wetterbehörde NOAA Glauben schenkt. Und zusammen ergibt das gerade einmal 13.9 °C. Übrigens deutlich weniger als die 15,3 °C  die uns Prof. Schellnhuber im Fernsehen schon öfter mal unterjubelte [2]

Video Nachweis: Warum es seit über 150 Jahren keine gefährliche globale Erwärmung…

Globale Mitteltemperatur 15,3 °C bei ca. Min 14:02. Das Video wurde zusammengestellt von R. Hoffmann: 

Außerdem liegen 60 % der Landmasse auf der Nordhalbkugel und reichen bis weit in die hohen kalten Breitengrade, dürften also doch etwas weniger vom Segen abkriegen, als der Klimapapst uns glauben machen will. Während auf der Südhalbkugel nur die dünne Landzunge von Südamerika in die kalten Breitengrade hineinragt, von der bitterkalten (-35 °C Durchschnittstemperatur!) Antarktis mal abgesehen. Zudem sollte sich ja das böse CO2 doch immer noch gleichmäßig verteilen, wie es die Gasgesetze verlangen. 

Doch es kommt noch schlimmer: Hitzewellen würden über Deutschland hinziehen (wer sehnte sie zur Zeit nicht herbei?), die mit plus 6 – 10 °C noch schlimmer seien, als die von Jahr 2003! Das saß!  Verschüchtert fragte die Moderatorin nach, ob dass denn realistisch sei.

Abbildung: 16 Jahre reale Temperaturentwicklung in Deutschland, jeweils im Monat Mai. (CO2 Anstieg Mauna Loa) Datenquelle Temperatur: DWD (Deutscher Wetter Dienst) Mit Dank an Leser J. Kowatsch


Seine prompte Antwort: Wenn wir so weitermachten wie bisher, dh. ohne völlige Dekarbonisierung, dann steuerten wir „schnurstracks“ auf die 4 °C zu.

Diese schlimme Aussicht verwirrte die Moderatorin so sehr, dass sie, mühsam nach einer Gegenargumentation suchend, diese in einer jüngst erschienenen britischen Studie fand. Tapfer und ohne Zögern, dabei  0,9% und 2% Erwärmung mit 0,9 °C und 2 °C verwechselnd, fragte sie, was denn nun stimme? Die 0,9 bis 2 °C oder die 4 °C.  So eine Verwechslung von % und °C kann man ihr nicht verdenken, wenn man, wie vermutlich fast alle Zuschauer und auch der Bundesumweltminister Altmaier, dem gleiches passierte, von der Materie keine Ahnung hat. Es kann ja nicht jeder so ein glanzvoller "Spitzen-Wissenschaftler" sein wie "John" Schellnhuber.

Der ließ sich auch durch diesen Lapsus Linguae der Moderatorin nicht beirren und lobte seine „Spitzenwissenschaft“  über den grünen Klee. Nicht ohne erschreckende Aussichten für die Landwirtschaft den ohnehin durch die Schuldenkrise gebeutelten Südländern zu verheißen.

Die jetzige lange Stagnation der Mitteltemperatur verbog er geschwind noch in ein „nicht so steiles“ nach oben gehen für die nächsten „ein bis zwei Jahrzehnte“. Aber dann würde der Anstieg umso steiler erfolgen, weil „der Ozean“ der (leider) die verschwundene Wärme ja aufgenommen hätte, dann – also in ca. zwei Jahrzehnten – sich „wie ein Schwamm“ mit „Hitze vollgesogen“ hätte. Doch dann würde „die Wärme wieder umso steiler“ nach oben gehen. So der Direktor des PIK. Wirklich!

Es blieb dem sachkundigen Zuschauer verborgen, woher „der  Ozean“ diese Schwammeigenschaften für Hitze -der dann bald voll ist, wie er uns suggeriert- haben sollte? Ist das ein neuer, noch unentdeckter Schellnhuber Effekt? Gar eines Nobelpreises für Physik würdig? Aber vielleicht bezieht er sich auf die fast unermesslich große Wärmekapazität der Meere. Die findet allerdings erst beim Siedepunkt ihre Grenze, also bei rd. 100°C. Soweit aber wollen selbst die absurdesten  Modell-Prognosen des IPCC (bisher) nicht gehen. Und all das soll aber erst nach ein oder zwar Jahrzehnten passieren. Bis dahin heißt es eben warten, glauben, dekarbonisieren und zahlen, und darauf vertrauen, dass es nicht zu schlimm kommt.

Der Rest der Sendung befasste sich dann mit den radikalen Visionen der „Spitzenforscher und Entscheider“ die derzeit in Potsdam beisammen sind, um „interdisziplinäre, „radikale neue Ansätze“ zu diskutieren. Ziel ist die kohlenstoffarme Wirtschaft, besonders in Deutschland, zu verwirklichen. Und für diesen Megaunsinn werden auch noch Steuergelder verbraten!

Zusammengenommen war dieser kurze Film von gut 7 Minuten ein Lehrstück einer als Wissenschaft getarnter Ideologie, die in Ziel und Verdrehung der Fakten als identisch mit der „Wissenschaft vom Marxismus/Leninismus“ bezeichnet werden könnte. Auch diese wurde als „Wissenschaft“ verkauft, um sie in den Augen der normalem Menschen unangreifbar zu machen. Als es völlig offenkundig wurde, dass es nur eine unbarmherzige, menschenverachtende, Armut erzeugende Ideologie war, erfanden die damaligen Genossen zur Beruhigung ihrer Parteigänger den unsterblichen Satz:

„Genossen, lasst Euch von der Wirklichkeit nicht täuschen“

Diesen Satz hat offensichtlich auch Schellnhuber und seine in Potsdam versammelten Gesinnungs-Genossen verinnerlicht. 

Als Abschluss und Demonstration, was von der Wahrhaftigkeit der Aussagen des PIK-Papstes (viele Leute sprechen inzwischen schon vom PIK-Klima-Clown) zu halten ist, sollte man eine Fachveröffentlichung lesen, die er als Koautor mitzeichnete und in welcher die Temperaturmessungen des 20. Jahrhunderts von knapp 100 über den Globus verstreuten Messtationen analysiert wurden (hier): In dieser heißt es unter IV. Discussion (iii)

"In der weit überwiegenden Zahl aller Stationen konnten wir keine globale Erwärmung der Atmosphäre auffinden".

Klimaänderungen gibt es gemäß meteorologischer Definition erst frühestens nach 30 Jahren, alles kürzere ist "Wetter", und die besagte Veröffentlichung ist gerade einmal 10 Jahre alt. Un din dieser Zeit ist auch nichts passiert. Die Mitteltemperatur stagniert. Woher Schellnhuber daher seinen Katastrophen-Quatsch bezieht und wie der Widerspruch zu seiner eigenen Fachaussage zu erklären ist, bleibt sein Geheimnis. Vielleicht fragt ja zukünftig einmal ein mutiger Interview-Redakteur näher nach.

Fazit: Wer den abgrundtiefen Unsinn der Schellnhuber’schen Klimakatastrophen und den ebenso großen Unsinn der einschlägigen ZDF-Sendungen für bare Münze nimmt, dem können wir leider nicht mehr helfen. Es handelt sich hier um pure Ideologie mit dem Ziel der Gesellschaftsveränderung, wie früher bei den Kommunisten oder Marxisten/Leninisten. Mit Wissenschaft hat es nichts mehr zu tun. Jeder Demokrat muss sich diesen Vorkommnissen mit aller Kraft entgegenstemmen und eine offene, wissenschaftlich ehrliche Diskussion fordern, die die wissenschaftlichen Gegenstimmen nicht unterdrückt. Das PIK gehört unverzüglich geschlossen und danach in eine unideologische, demokratische und freie Forschungsinstitution im Sinne des Alexander von Humboldt umgewandelt.

Michael Limburg EIKE


[1]Quelle: http://www.ncdc.noaa.gov/cmb-faq/anomalies.php

[2] Zum Beispiel hier auf PHOENIX am 23.11.09 im Video von R. Hoffmann bei ca. Min 14:02 http://www.youtube.com/watch?v=9S75LmHdIHg




Vielzitierte Studie zum 97-Prozent-Konsens zerfällt!

Zunächst gibt es da neue Einwände hinsichtlich des Suchsystems, um die Studien zu bewerten, wie Shub Niggurath bei Bishop Hill erklärt:

Die Literatur zur Klimaänderung umfasst weit über hunderttausend Artikel und Bücher. Die Strategie von Cook et al. war es, sich auf Studien zu konzentrieren, die einen direkten Bezug zur „globalen Erwärmung“ oder zur „globalen Klimaänderung“ im Web of Science haben. Sie beschreiben es so:

Im März 2012 durchsuchten wir das ISI Web of Science nach Studien, die in den Jahren 1991 bis 2011 veröffentlicht worden waren, und zwar mit den Suchbegriffen ‚globale Erwärmung‘ oder ‚globale Klimaänderung‘. Die Art der Artikel war begrenzt auf ‚Artikel‘. Bücher, Diskussionen, Studien zu Vorgehensweisen und andere Typen waren ausgeschlossen.

Eine Suche mit Web of Science auf die von den Autoren beschriebene Art und Weise ergibt tatsächlich 30940 Treffer, nicht 12464. Schließt man den ‚Arts and Humanities Citation Index’ (A&HCI) aus, werden daraus 30876 Treffer. Dies geschieht, wenn man die Suchbegriffe nicht als Doppelbegriff kenntlich macht (z. B. ‚globale Erwärmung‘ anstatt „globale Erwärmung“).

Scopus ist eine akademische Datenbasis, die technische, medizinische und soziale Wissenschafts-Disziplinen abdeckt. Wenn Scopus mit den korrekten Suchbegriffen benutzt wird, ergeben sich überraschenderweise insgesamt 19417 Treffer. Eine Suche beim Web of Knowledge ergibt etwa 21488 Treffer. Diese Zahlen sind um 7473 Treffer (Scopus) und etwa 9544 Treffer (Web of Knowledge) größer als das, was Cook et al. möglicherweise analysiert haben.

Mehr: http://www.bishop-hill.net/blog/2013/5/27/landmark-consensus-study-is-incomplete.html

=================================================================

Zweitens geben immer mehr Autoren an, dass ihre Studien falsch kategorisiert worden sind:

=================================================================

Ist dies eine akkurate Repräsentation Ihrer Studie?

„Mit Sicherheit nicht korrekt und mit Sicherheit irreführend. Die Studie richtet sich stark gegen AGW und dokumentiert dessen Fehlen in den beobachteten Fakten hinsichtlich des Meeresspiegels. Außerdem entkräftet sie erheblich die Art und Weise, mit der das IPCC den Meeresspiegel behandelt“. – Dr. Mörner

„Ich bin sicher, dass diese Einstufung des fehlenden CO2-Einflusses auf AGW keinesfalls akkurat oder korrekt ist. Die Einstufung unserer ernsthaft bewerteten Studie lediglich aufgrund der Durchsicht des Abstracts oder Wörtern im Titel der Studie ist sicherlich ein ernster Fehler“. – Dr. Soon

„Nein; wenn die Studie von Cook et al. meine Studie mit dem Titel ‚eine multi-disziplinäre, wissenschaftlich basierte Annäherung zu den wirtschaftlichen Folgen der Klimaänderung‘ mit der Beschreibung klassifiziert, dass sie „AGW explizit befürwortet, aber nicht quantifiziert oder minimiert“, kann von meinen Absichten oder dem Inhalt der Studie nicht weiter entfernt liegen“. – Dr. Carlin

Mehr: http://www.populartechnology.net/2013/05/97-study-falsely-classifies-scientists.html#Update2

Anthony Watts

Link: http://wattsupwiththat.com/2013/05/27/the-97-consensus-paper-is-starting-to-fall-apart/

Weiterführender Link.

Tol statistically deconstructs the 97% Consensus

Übersetzt von Chris Frey EIKE