1

Klimaforscher Prof. Hans von Storch im SPIEGEL-Interview

Das v. Storch-Interview (im Internet momentan nur in Englisch unter http://tinyurl.com/lq4m869 verfügbar) wurde nicht zuletzt durch die fachkundige Interviewführung der SPIEGEL-Redakteure Olaf Stampf und Gerald Traufetter zu hoher Qualität gebracht. Ohne Umschweife ging es sofort zur Sache. Alle Fragen wurden von v. Storch in bemerkenswerter Offenheit und jedem Alarmismus abhold beantwortet. Fragen und Antworten waren wie bereits erwähnt in der Regel deckungsgleich mit den zugehörigen, wissenschaftlich ausgerichteten EIKE-News. Zu den den Ausnahmen kommen wir weiter unten. Die SPIEGEL-Redakteure hätten durchaus auch ein klimafachkundiges EIKE-Mitglied interviewen können, sie hätten überwiegend Gleiches gehört. Bei den zuerst angesprochenen Themen

– Ursachen von Überschwemmungen,

– Niederschläge und Klimawandelvorgänge,

– Extremwetter,

– Unmöglichkeit bzw. Unsinn von Klimaschutz,

– Klima-Alarmisten,

– Die fragwürdige Rolle Schellnhubers als Klimaberater der Kanzlerin,

– Die Ignoranz von Angela Merkel, Klimafakten zur Kenntnis zu nehmen

– Die Pause in der mittleren Globaltemperatur

passte buchstäblich kein Haar mehr zwischen die Antworten von v. Storch und die entsprechenden EIKE-Verlautbarungen. Die Spiegel-Redakteure können es in unserem News-Archiv überprüfen.

Insbesondere die Antwort v. Storchs auf die Frage, wo denn die Fehlerquellen der Klimamodelle in der falschen Vorhersage der globalen Erwärmung liegen könnten, ist so deutlich, schön und zutreffend, dass sie hier noch einmal wiederholt sei:

Erste Möglichkeit: Sie (gemeint ist die globale Erwärmung) fällt schwächer aus, weil  die Treibhausgase, insbesondere das CO2, eine geringere Wirkung haben als angenommen. Das bedeutet nicht, dass es keinen menschgemachten Treibhauseffekt gibt; nur wäre unser Einfluss aufs Klimageschehen nicht so stark, wie vermutet. Die andere Möglichkeit: In unseren Simulationen haben wir unterschätzt, wie sehr das Klima auf Grund natürlicher Ursachen schwankt".

Danach tauchen freilich die ersten Fragezeichen auf. Mit dem von v. Storch erwähnten Nachweis des Menscheneinfluss am Klimawandel (fingerprint method) kann man nicht mehr ganz einverstanden sein, weil in diesen Nachweis Modellannahmen eingehen (Originalton v. Storch: „die Stärke der Klimaschwankungen richtig einschätzen“). Ob die Methode für die hier in Rede stehenden Anwendungen überhaupt geeignet ist, ist nicht selbstverständlich. Die Fingerprintmethode war ursprünglich ein Verfahren zur Zeichenkettensuche in Computertexten (hier). Vielleicht spielt ja auch bei ihrer Anwendung auf klimatologische Fragen das bekannte Phänomen „rubbish in, rubbish out“ seine bekannten Streiche.

Bei dem von v. Storch ausgesprochenen und zutreffenden Verriss der UBA-Klimabroschüre ist von ihm leider der wichtigste Punkt übersehen worden. Die UBA-Broschüre haben blutige Laien, u.a. eine Kinderbuchautorin und grüne Aktivisten verfasst. Kein Klimaforscher war beteiligt (hier). Die UBA-Broschüre kann daher, wie v. Storch befürchtete, auch nicht das Vertrauen der Öffentlichkeit in die Klimaforschung verspielen. Sie verspielt nur das Vertrauen ins UBA und da ist bekanntlich schon seit langem nichts mehr zu verspielen.

Das Vertrauen in die Klimaforschung verspielen ganz andere Leute, in Deutschland im Wesentlichen maßgebende Mitarbeiter des Potsdamer Instituts für Klimafolgenforschung (PIK). So etwa Stefan Rahmstorf mit seinem, einem Wissenschaftler unangemessen aggressiven Verhalten gegenüber denjenigen Kollegen und Medien, die nicht seiner Meinung sind. Aber auch Hans-Joachim Schellnhuber, dessen 2 °C Ziel bei vielen Fachleuten, leider nicht bei der auffallend blind-faktenverweigernden Politik, nur noch unter der Rubrik „Humor“ läuft. Das 2 °C Ziel ist in keinem begutachteten paper aufzufinden.

Gegen Ende des Interviews gibt es dann weitere Fragezeichen in den Interview-Antworten. V.  Storch sagt „Wir haben weiterhin überzeugende Hinweise auf einen menschgemachten Treibhauseffekt“. Genau dies darf füglich bezweifelt werden. Zumindest dem Autor sind keine ÜBERZEUGENDEN Hinweise aus der Fachliteratur bekannt. Nichts, aber auch gar nichts (die aktuell ansteigenden CO2-Konzentrationen ausgenommen) ist im Vergleich mit der Klimavergangenheit ungewöhnlich oder gar "noch nie dagewesen".

Überhaupt nicht kann man mit der Aussage von v. Storch einverstanden sein „Ja zwei oder drei Grad mehr werden wir wohl kriegen – bis Ende des Jahrhunderts wohlgemerkt. Das sagt mir mein Instinkt, weil ich ja nicht weiß, wie sich die Emissionen entwickeln werden“. „Instinkt“ zu bemühen erscheint hier nicht ganz angebracht, weil es ausreichend viele begutachtete Publikationen gibt, welche die von v. Storch angesprochene Problematik sehr gründlich behandeln. Sogar in den EIKE-News ist Einschlägiges zu finden. Zufällig erschien wenige Tage zuvor eine EIKE-News zum zukünftigen CO2-Anstieg der Atmosphäre (hier). Die dort vorgenommene Abschätzung kann zwar nur sehr grob sein, sie ist aber zuverlässig. Der Löwenanteil allen zukünftigen CO2 ist in den Kohleressourcen gespeichert. Werden diese VOLLSTÄNDIG verbrannt (was die Menschheit nicht machen wird), erzeugt man damit noch nicht einmal die doppelte CO2-Konzentration von heute. Es ist schwer vorstellbar, dass diese Abschätzung den Fachleuten nicht bestens bekannt ist. Laut geäußert hat sie freilich noch kein Klimaforscher, zwei Mal darf man raten, warum.

Weiterhin ist die berühmte Klimasensitivität des CO2 nur mit der Wasserdampfrückkoppelung auf Werte über 1 °C zu steigern. Entsprechende begutachtete Klimapublikationen (basierend auf MESSUNGEN) haben aber gezeigt, dass es diese Rückkoppelungen in der Realität nicht gibt. Im Gegenteil, alle Messungen deuten auf Gegenkoppelungen hin, die dann die angegebenen Standardwerte der Klimasensitivität zwischen 0.45 °C (hier) und 1.1 °C (IPCC) noch verringern [2] bis [8]. Eine rein statistische Publikation [1] findet sogar überhaupt keinen Einfluss des anthropogenen CO2.

Auch hier ist nur schwer vorstellbar, dass v. Storch diese Veröffentlichungen unbekannt sind, ihr vollständiges Ignorieren erstaunt daher. Man hätte sich in seiner Antwort ein dem heutigen Stand der Messungen und der begutachteten Fachliteratur angemesseneres Caveat und keine Instinktaussage gewünscht. Nimmt man die hier zitierten Publikationen [1] bis [8] ernst, ist man mehr oder weniger gezwungen die zukünftige globale Erwärmung bis zum Jahre 2100 zumindest als UNMAßGEBLICH einzuschätzen. Schaut man sich auch noch die zum Teil heftigen Temperaturoszillationen der letzten 2000 Jahre an und nimmt zudem die seit Jahren beunruhigend fleckenfreie Sonne zur Kenntnis, liegt sogar eine kräftige Abkühlung (neue kleine Eiszeit) nahe. Nur die Zukunft kann uns die Realität zeigen. Immerhin ist v. Storch hoch anzurechnen, dass er deutlich auf die vom IPCC abweichenden Meinungen von Klimaexperten hingewiesen hat und damit die oft zu vernehmenden Unsinnsbehauptungen von einem wissenschaftlichen Konsens falsifizierte.

Was den Schutz gegen die Folgen von Klimaänderungen (natürliche oder menschgemachte, sei einmal dahingestellt)  angeht, besteht wieder volle Übereinstimmung von v. Storch mit EIKE.

Fragwürdig wird es dann wieder am Abschluss des Interviews, wenn v. Storch seiner Besorgnis zur "Meeresversauerung" Ausdruck verleiht. Er schränkt dabei allerdings ein, dass er vom Thema zu wenig verstehe. So ist es. Wer versteht schon etwas von diesem Spezialgebiet der Chemie. Auch der Autor gesteht hier seine Unkenntnis ein. Es gibt aber ausreichend viele Fachpublikationen, die sich mit dem Thema der "Meeresversauerung" durch CO2-Aufnahme beschäftigen. Nach Studium dieser paper kann zuverlässig Entwarnung gegeben werden. Das Meer ist und bleibt basisch. Die wohl gründlichste Zusammenstellung, nicht zuletzt, weil in ihr die zahlreichen maßgebenden begutachteten Paper zitiert werden, ist auf dem Blog von Vahrenholt/Lüning zu finden (hier). Leider unterstellte v. Storch seinem Chemie-Kollegen unwissenschaftliches Verhalten und brachte dies durch demonstratives Verlassen des ACATECH-Gremiums, das von Vahrenholt geleitet wurde,  zum Ausdruck (hier). Dies ist bedauerlich, stellt doch das Buch „Die kalte Sonne“ einen Meilenstein bester wissenschaftlicher Populärliteratur dar.

Die leider immer noch medienwirksamen Kuriositäten, die vom Potsdamer Institut für Klimafolgenforschung (PIK) der breiten Öffentlichkeit ungerührt angedient werden, hatten immerhin zur Folge, dass Fachleute unter der Hand äußern das PIK nicht mehr ernst zu nehmen. Daher wäre eine politisch stärkere Gegenposition gegen das PIK wünschenswert und kein Streit unter den Klimarealisten. Eine gute Idee könnte vielleicht sein, dass sich v. Storch und Vahrenholt bei einem guten Glas Wein einmal persönlich aussprechen. Beide würden von der Expertise des Gegenüber profitieren. Und beide sind respektable Wissenschaftler, keine Ideologen. Auf dieser Basis sollte man sich verstehen.

Résumée: Trotz der hier geschilderten Vorbehalte nicht nur ein sehr gutes Interview von ALLEN drei Beteiligten sondern auch ein Meilenstein in der deutschen Medienberichterstattung zur Klimafrage. Vergessen wir nicht, dass uns eine völlig unrealistische, überzogene und wissenschaftlich überaus wackelige Klima-Scheinproblematik die verhängnisvolle, Deutschland schwer schädigende Energiewende beschert hat. Daher soll hier größter Respekt für den Mut von v. Storch ausgesprochen werden, sein Institut ist schließlich auf öffentliche Forschungsmittel angewiesen. Großen Respekt auch für die respektlosen Fragen des SPIEGEL. Wenn das Blatt DIESEN kritischen und auf die wissenschaftlichen Fakten (nicht auf grüne Ideologien) hinzielenden Weg fortsetzt, wird es wieder DAS kritische Qualitätsperiodikum in der BRD werden. Mit grüner Ideologie durchtränkte Blätter wie die Süddeutsche Zeitung oder die ZEIT könnten sich daran ein Beispiel nehmen. Unser Land hat kritischen Journalismus bitter nötig.

Quellen:

[1] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[2] R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

[3] R.W. Spencer, and W.D. Braswell: Remote Sensing 3(8) (2011),http://tinyurl.com/9cvuz32

[4] R.W. Spencer, and W.D. Braswell: Journal of Geophysical Research, Vol. 115 (2010), tinyurl.com/8kd694d

[5] G. Paltridge et al.: Theor. Appl. Climatol. 98 (2009), www.drroyspencer.com/Paltridge-NCEP-vapor-2009.pdf

[6] F. Miskolczi: The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness, E&E, 21, No. 4 (2010)

[7] R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

[8] R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), tinyurl.com/3mbresk




Temperaturdaten stark beeinflusst durch lokales Bevölkerungswachstum

Umfassende Tests sozio-ökonomischer Signale in den Klimadaten der Erdoberfläche: Bei Climate Change habe ich eine neue Studie abgelegt zur Frage, ob die Klimadaten an der Erdoberfläche durch nicht-klimatische Faktoren hinsichtlich sozio-ökonomischer Entwicklungen verzerrt werden:

Ich versuche nicht, diese Debatte ein für allemal zu klären, sondern konzentriere mich stattdessen auf die Frage, warum die vielen Versuche, die zeigen sollen, dass die Daten nicht verunreinigt sind, nicht das Ergebnis widerlegen, sondern im Gegenteil, dass dies tatsächlich der Fall ist.

Das Problem hatte darin bestanden, dass die Autoren sich nicht überlappende Datensätze sowie unterschiedliche Methoden verwendet haben und am Ende nur erreicht haben, dass sie übereinander reden. Ich argumentiere, dass der Weg zur Klärung dieser Frage darin besteht, ein umfassendes Rahmenwerk zu übernehmen, in dem beide Arten der Ergebnisse mit dem gleichen Datensatz gezeigt werden können, wobei man in einer begrenzten Untermenge eines anderen Modells landen kann und die Begrenzungen formal getestet werden können.

Ich zeige zwei Beispiele. In einem davon habe ich eine Äquivalenz nach Parker zwischen nächtlichen Minimum-Trends unter windigen und windschwachen Bedingungen nachgebildet. Danach habe ich gezeigt, dass dies in einen Temperatur-Datensatz mündet, von dem man zeigen kann, dass er mit dem Bevölkerungswachstum korreliert. Ich habe auch die Ergebnisse nach BEST nachgebildet, dass nämlich ländliche Trends etwas größer sind als städtische, und habe gezeigt, dass dieses Ergebnis in einer begrenzten Untermenge eines größeren Modells auftaucht, in dem sozio-ökonomisches Wachstum signifikant mit Temperaturtrends korreliert. In beiden Fällen werden die Restriktionen, die erforderlich sind, um das Modell keine Verunreinigung der Daten zeigen zu lassen, widerlegt. Datenarchiv hier.

Beitrag gepostet bei: http://www.rossmckitrick.com/.
McKitrick, Ross R. (2013) Encompassing Tests of Socioeconomic Signals in Surface Climate Data
[
Umfassende Tests sozio-ökonomischer Signale in den Klimadaten der Erdoberfläche]

Climatic Change doi 10.1007/s10584-013-0793-5
http://link.springer.com/article/10.1007%2Fs10584-013-0793-5
Abstract

Die Diskussion darüber, ob die Verstädterung und die damit verbundenen Sozio-ökonomischen Entwicklungen großräumige Klimatrends an der Erdoberfläche beeinflussen, wird mit nicht vergleichbaren Argumenten in die Sackgasse geführt. Jede Seite kann für sich beanspruchen, auf statistischen Modellen basierende Beweise zu stützen, die sich nicht überlappen und Rückschlüsse zulassen, die miteinander im Konflikt stehen, wobei jedoch das eine nicht das andere widerlegt. Ich argumentiere, dass derartige Diskussionen nur innerhalb eines umfassenden Rahmens geführt werden können, in dem man zeigen kann, dass die Ergebnisse beider Arten restriktive Formen des gleichen statistischen Modells sind, und die Restriktionen kann man testen.

Die hier zur Diskussion stehenden Themen machen die Konstruktion solcher Datensätze zu einer Herausforderung, aber ich zeige zwei anschauliche Beispiele.

Erstens, unbedeutende Unterschiede hinsichtlich der Erwärmungstrends in städtischen Temperaturdaten bei windigen und windschwachen Bedingungen werden in einem begrenzten Modell gezeigt, dessen allgemeine Form Temperaturdaten zeigt, die stark vom lokalen Bevölkerungswachstum beeinflusst sind.

Zweitens, es wird gezeigt, dass eine offensichtliche Äquivalenz zwischen Trends in einem Datensatz, der durch eine statische Messung der Verstädterung geschichtet ist, ein restriktives Ergebnis in einem Modell ist, dessen allgemeine Form einen signifikanten Einfluss lokaler sozio-ökonomischer Entwicklungen auf die Temperaturen zeigt.

Link: http://wattsupwiththat.com/2013/06/17/new-paper-by-ross-mckitrick-temperature-data-strongly-affected-by-local-population-growth/

Übersetzt von Chris Frey EIKE




Die deutsche Energiewende – ein Blick darauf von außerhalb

Eine Warnung für die Welt: Der deutsche Plan der grünen Energie zerfällt

Walter Russell Mead, Via Meadia

Die Räder lösen sich vom Zug der grünen Energie-Revolution in Deutschland. Sein Schlingern sollte eine Warnung an alle Führer und politischen Entscheidungsträger in der Welt sein.

Während der letzten Jahre hat Europa versucht, sich als zuerst bewegende und globale Führungskraft hinsichtlich erneuerbarer Energie zu positionieren, und Deutschland ist auf diesem Weg vorangegangen, und zwar mit ambitionierten heimischen Programmen, um die Solar- und Windenergie zu befeuern. Aber grüne Hoffnungen weichen den ökonomischen Realitäten: Europa überlegt sich jetzt, sich von einigen seiner festgesetzten grünen Ziele zu verabschieden wegen der (zu Recht!) bestehenden Sorge, dass die Kosten der erneuerbaren Energie die europäische Industrie weniger wettbewerbsfähig machen. Das gilt vor Allem in Deutschland, wo einer der höchsten Strompreise gezahlt wird. Viele Unternehmen überlegen sich daher bereits, ihre Standorte zu Ländern mit billigerer Energie zu verlegen wie z. B. in das schiefergasreiche Amerika.

Im Economist findet sich ein unbedingt lesenswerter Hintergrundbericht zu den Fehlschlägen der deutschen Energie-Revolution:

Die 12000 Einwohner von Osterath sind wütend. Ihr ruhiges Umfeld an der Ruhr bei Düsseldorf ist die vorgeschlagene Stelle für die größte Konverter-Station in Deutschland. Diese riesige Installation soll Hochspannungs-Gleichstrom in Wechselstrom transformieren. Das wäre ein wichtiger Bestandteil der neuen „Stromautobahn“ in Deutschland, einem Netzwerk von Hochspannungsleitungen, die in Windparks in Norddeutschland sowie in der Nord- und Ostsee erzeugten Strom zum Industriegürtel im Süden transportieren sollen. Die Osterather vermuten, dass das zu einem monströsen Schandfleck wird und beabsichtigen, das Projekt zu stoppen.

Diese Art St. Florians-Prinzip ist nur eines von vielen Problemen, die bei der deutschen Energiewende auftreten. Die buchstäbliche Übersetzung lautet energy change or turn, aber das ist mehr als eine Revolution, dazu gedacht, die größte Volkswirtschaft Europas so zu konvertieren, dass sie ihre Energie zum großen Teil aus erneuerbarer Energie bezieht. Dies schließt ambitionierte Energieeinsparungs- und –effizienzziele ein, aber über allem steht die Änderung der Energieversorgung. Bis zum Jahr 2022 sollen alle Kernkraftwerke, die derzeit noch 16% des in Deutschland verbrauchten Stromes erzeugen, abgeschaltet werden. Und bis zum Jahr 2050 sollen 80% des Stromes aus erneuerbaren Quellen stammen, verglichen mit 22% heutzutage [?].

Geschäftsleute sagen, dass die Energiewende [steht so wiederholt im Original mit der Übersetzung dahinter: Germany’s energy revolution. A. d. Übers.] die deutsche Industrie töten wird. Energie-Experten sorgen sich vor Stromausfällen. Die Wähler sind wütend über immer weiter steigende Treibstoffpreise. Das Chaos unterminiert den deutschen Anspruch auf Effektivität, bedroht dessen viel gerühmte Wettbewerbsfähigkeit und belastet völlig unnötig die Haushalte. Sie demonstriert auch die kuriose Ablehnung Deutschlands, strategisch über Europa nachzudenken.

Und es sind nicht nur die deutschen Geschäfte, die leiden:

Das Ergebnis ist ein Netzwerk grotesker Verzerrungen. An sonnigen Tagen verschiebt Deutschland seinen überschüssigen Strom mit Verlusten in das europäische Netz. Weil man den Erzeugern einen festgesetzten Preis zahlt, steigt die Subvention umso stärker, je niedriger der Preis an der Strombörse fällt. An wolkigen Tagen hängt Deutschland mehr denn je von Braunkohle ab. Im vorigen Jahr sind des Landes CO2-Emissionen gestiegen.

Die Kosten dieses Durcheinanders werden auf die Stromverbraucher abgewälzt. Die Treibstoffpreise für Haushalte sind während der letzten drei Jahre um ein Viertel gestiegen bis auf ein Niveau 40 bis 50% über dem Mittel in der EU. Und weil die Preise für Erneuerbare noch 20 Jahre lang garantiert sind, verschärft sich das Problem immer weiter mit jeder neu zugeschalteten erneuerbaren Quelle. Thomas Vahlenkamp von McKinsey berichtet, dass sich die Kosten für die Energiewende während des nächsten Jahrzehnts verdoppeln werden. Steigende Strompreise werden die Ausgaben der Verbraucher für übrige Güter senken, und das ist genau das Gegenteil von dem, was zur Stabilisierung der Wirtschaft notwendig ist.

All dies ereignet sich vor dem Hintergrund stark fallender Erdgas- und Strompreise in Nordamerika, und zwar dank der dortigen Schiefer-Revolution. Die energieintensivsten Industrien in Deutschland liebäugeln daher inzwischen mit einer Expansion auf die andere Seite des Atlantiks. Es gibt das Risiko eines Ausblutungs-Effektes, wenn deren Kunden ebenfalls anfangen umzuziehen.

Der Economist zeichnet in exzellenter Form ein düsteres Bild, zieht dann aber die falschen Schlussfolgerungen daraus, schlägt er doch vor, dass sich Deutschland mehr für eine europäische als für eine nationale Energiewende stark machen sollte. Das könnte für Europa katastrophal werden, kämpft man doch dort schon jetzt darum, hinsichtlich der Schuldenkrise wieder Boden unter die Füße zu bekommen.

Stattdessen könnte sich Deutschland – und Europa – überlegen, heimische Schiefer-Reserven zu erschließen und beginnen, die Subventionen der Regierung für Wind und Solar zu Forschung und Entwicklung von Technologien umzudirigieren, um an diese Ressourcen zu kommen.

Die deutschen Probleme mit grüner Energie sollten eine Warnung an alle Führer und politischen Entscheidungsträger in der ganzen Welt sein. Erneuerbare Energie kann einfach nicht den Hauptbedarf liefern, und keine noch so große Subvention seitens der Regierung oder ein grünes Wolkenkuckucksheim können daran etwas ändern.

Link: http://www.thegwpf.org/warning-world-germanys-green-energy-shift-crumbling/

 

Merkel sieht den Wahnwitz grüner Energiepolitik

Gestern hat Angela Merkel davor gewarnt, dass die Politik hinsichtlich grüner Energie Deutschlands wettbewerbsmäßigen Vorteil in der globalen Wirtschaft schwächt. Deutschland zahlt heute ebenso wie das übrige Europa viel mehr für Strom als noch vor sieben Jahren. Das Land hat riesige Investitionen in Solar- und Windkraft gesteckt, teurere Energiequellen als Öl und Gas. Inzwischen erlebt man in den USA fallende Strompreise und wirbt Unternehmen aus dem grünverliebten Europa ab.

Einem Bericht des WSJ zufolge macht sich Merkel deswegen Sorgen:

Traditionelle Energieversorger haben den Druck auf Frau Merkels Mitte-Rechts-Regierung stark erhöht. Am Montag sagte Deutschlands größte Energie-Unternehmensgruppe, dass die nächste Regierung einer Revision der Energiepolitik oberste Priorität verleihen muss. In einer Rede auf einer Energiekonferenz in Berlin hat Frau Merkel gesagt, dass sie immer noch die Erweiterung erneuerbarer Energien wie Wind und Solar unterstützt, um Kohlendioxid-Emissionen zu reduzieren. Aber sie sagte auch, dass man bei den Kosten berücksichtigen muss, dass globale Konkurrenten von niedrigeren Energiepreisen anderswo profitieren.

Merkel hat keine Details genannt, wie sie die Dinge wenden will, aber schon seit Längerem ist klar, dass die Energiepolitik Deutschlands wie kürzlich formuliert nicht funktioniert. Das Land war in der Vergangenheit sehr resolut hinsichtlich seiner Opposition gegen das Fracking, aber die Genehmigung von Probebohrungen zum Austesten der deutschen Schieferreserven wäre ein guter Anfang. Merkel muss sehr sorgfältig vorgehen, um die ökonomischen Realitäten und die grüne Sentimentalität vor den Wahlen im September auszutarieren, aber es sieht so aus, dass man in Deutschland „alles in allem“ die Annäherung an die grüne Energie immer mehr bedauert. Sonne und Wind haben Potential, aber sie können wettbewerbsmäßig nicht mit Öl, Gas oder Kohle mithalten, und jetzt zahlt Deutschland den Preis für seinen grünen Überschwang.

Link: http://www.thegwpf.org/merkel-sees-folly-green-energy-policy/

Auch bei Judith Curry wird dieses Thema aufgegriffen (http://judithcurry.com/2013/06/15/tilting-at-windmills-in-germany/), und sie bezieht sich auf die Beiträge von Mead. Sie kommentiert das Ganze folgendermaßen [A. d. Übers.]:

Dieser Beitrag unterstreicht die Komplexität der Transition zu grüner Energie und einigen unbeabsichtigten Konsequenzen, die sich aus Regulationen seitens der Regierung ergeben. Ich glaube, dass die Analyse von Walter Russell Mead genau den Punkt trifft.

Soweit Judith Curry. Am Ende ihres Beitrags hat Willis Eschenbach Folgendes kommentiert [A. d. Übers.]:

Kommentar von Willis Eschenbach

Danke, Judith, für einen interessanten Artikel und einen interessanten Blog. Für mich unterstreicht dieser Beitrag den Schwachsinn, Energie zu subventionieren. Punkt! Wenn es eine Stelle gäbe, an denen Solar- und Windenergie sinnvoll wären, hätte man diese längst installiert, und zwar ohne Subventionen.

Und wo das subventioniert wird, entweder direkt oder durch „erneuerbare Ziele“, dann bekommen wir … nun … Deutschland.

Es geht nicht um die „Komplexität des Übergangs zu grüner Energie“. Es geht um die Idiotie von Subventionen.

Es geht nicht um „unbeabsichtigte Konsequenzen, die sich aus Regulationen seitens der Regierung ergeben“. Es geht um die Idiotie von Subventionen.

In den USA sind Erneuerbare seit Jahren subventioniert. Anstatt immer geringer zu werden, wie deren Befürworter behaupten, steigen die Subventionen hier in Kalifornien immer weiter, und kein Ende ist in Sicht.

Und daher – nein, Judith, es ist kein Problem der Komplexität oder der Regierungs-Regulationen, wie du glaubst.

Es ist lediglich ein weiteres Glied in einer langen Kette von Beispielen, die über alle Zweifel erhaben beweisen:

  1. 1. Subventionen für ineffiziente Energie taugen nichts, und
  2. 2. den Klimaalarmisten ist das egal!

Willis

Link zu Judith Curry: http://judithcurry.com/2013/06/15/tilting-at-windmills-in-germany/

Alles übersetzt von Chris Frey EIKE




Solardachbetrug und Bürgerwindpleite – Nepp, Fallen und windige Versprechungen

Zunächst einmal: Mit Hilfe des Erneuerbare-Energien-Gesetzes (EEG) kann man tatsächlich reich werden, sehr reich sogar. Einige Spitzenvertreter der Branche sind inzwischen im exklusiven Klub der deutschen Milliardäre zu finden, und auch manch anderer Windbauer oder Solarplantagenbesitzer hat es zu durchaus respektablem Reichtum in mehrstelliger Millionenhöhe gebracht. Doch neben diesen Vorzeige-Gewinnlern gibt es auch Verlierer, die sich von angeblich sicheren Gewinnen verlocken lieβen, ihre oft mühsam erarbeiteten Ersparnisse in solche Projekte zu investieren, um hinterher festzustellen, dass die tatsächlichen Erträge nicht dem entsprachen, was ursprünglich versprochen wurde [WIND1, WIND2]. Man hört auch von Fällen, wo die Anleger draufzahlen müssen, statt zu verdienen. Davon liest man natürlich nichts in den bunten Prospekten oder den professoral klingenden Gutachten, mit denen arglose Bürger dazu verleitet werden sollen, ihre Ersparnisse zur Verfügung zu stellen. Und in der einschlägigen Fachpresse sowie den zahllosen Internetportalen, die von den Anzeigen der entsprechenden Industrie leben, sucht man entsprechende Negativmeldungen natürlich vergeblich.

Die Gewinner stehen schon vorher fest

Bild 1. In den ersten fünf Monaten des Jahres 2013 verzeichneten die Betreiber von Photovoltaik-(PV) und Windkraft(WK)-Anlagen in Baden-Württemberg eine sehr schlechte Auslastung (Grafik: [WIBW])

Zunächst einmal ist festzustellen, dass das Risiko bei solchen Anlagemodellen in den meisten Fällen im Interesse bestimmter Akteure ungleich verteilt ist. So sind beispielsweise die wirklich guten Windstandorte zumeist schon längst vergeben. Gewinner sind bei neuen Projekten meist diejenigen, die bereits bei Inbetriebnahme ihren Reibach gemacht haben: Die Hersteller der Anlage, die Projektgesellschaft, die das Ganze errichtet hat, die Gutachter und Beratungsbüros sowie die Besitzer des Grundstücks, die aus Opa‘s „saurer Wiese“ jetzt üppige, über 20 Jahre garantierte Pachterträge ziehen können.Das Risiko liegt dagegen bei den Betreibern, die nicht nur die anfänglichen Investitionskosten zu tragen haben, sondern auch alle mit dem Projekt verbundenen Unwägbarkeiten. Wer ein wenig sucht, findet im Internet immer wieder Warnungen vor Fallen und unseriösen Praktiken [TIPP1, TIPP2, TIPP3]. Die wichtigsten Risiken sind das Ertragsrisiko, das Betriebsrisiko, das Recyclingrisiko – und in den nächsten Jahren zunehmend auch das politische Risiko.

Ertragsrisiken -Wind

Bild 2: Nutzungsgrad der Windkraft in Abhängigkeit vom gewählten Standort.

Wer sich mit Prospekten über Windkraftprojekte beschäftigt, wundert sich häufig über erstaunlich optimistische Angaben über die bei diesen Vorhaben zu erwartenden Stromerträge. Da Laien keine Möglichkeit haben, Windverhältnisse für einen Standort zu ermitteln, werden hierfür Expertisen eingeholt. Diese verwenden wiederum häufig Computermodelle, die zuverlässig sein können – oder eben auch nicht, wie ja auch die Erfahrung mit Wetterberichten immer wieder zeigt. So kann man beispielsweise für deutsche Offshore-Windparks in der Nordsee Prognosen finden, die von 40-46 % Nutzungsgrad im Jahr ausgehen [TRIA]. Das sind fantastische Werte – so sie denn stimmen sollten. Da es für dieses Seegebiet bisher kaum Langzeit-Erfahrungen gibt, empfiehlt sich ein Blick auf reale Betriebswerte beispielsweise in Groβbritannien. Dort hat man im Offshorebereich schon seit langem umfassende Erfahrungen mit zahlreichen Windfarmen gesammelt – und geht von lediglich 29,7 % Nutzungsgrad aus [UKWE].

Auch bei landgestützten Anlagen ist anzuraten, sich die in Prospekten präsentierten Zahlen kritisch anzusehen. So gibt es Meldungen, dass Banken bei Finanzierungen davon ausgehen, dass die Angaben von Windgutachten systematisch um 17,5 % zu hoch liegen. Tatsächlich sind Nutzungsgrade oberhalb von 20 % nur an wenigen Standorten zu erwarten. Der langzeitige Mittelwert für Deutschland liegt bei lediglich 16,8 %. Die geographische Lage hat dabei entscheidenden Einfluss, wie die Aufstellung der Nutzungsgrade nach Bundesländern für das Jahr 2010 zeigt. Schlusslicht ist Baden-Württemberg. Dort waren die Winderträge in den ersten Monaten des Jahres 2013 bei einer Anlagenauslastung von lediglich 4,9 % geradezu katastrophal schlecht [WIBW]. In einer kürzlich erstellten Studie über die Wirtschaftlichkeit von Windparks findet sich folgender Satz: „Rund die Hälfte aller kommerziellen onshore-Windparks laufen so schlecht, daß deren Anleger froh sein können, wenn sie nach 20 Jahren ihr Kommanditkapital zurückbekommen haben“ [ERFA].

Ertragsrisiken – Fotovoltaik

 

Bild 3. Eine solche Bedeckung durch Schnee und Eis – hier in Bayern im Frühjahr 2013 – drückt den Ertrag der Anlage auf nahezu Null

Auch bei Fotovoltaikanlagen ist nicht alles Gold, was glänzt. Was zählt, sind Südlagen mit viel Sonnenschein bei klarem Himmel. Aussagen wie die, Solarzellen würden auch bei bedecktem Himmel noch Strom liefern, sind bestenfalls akademischer Schnickschnack. Wohnt man in einem Talkessel mit Abschattung oder häufiger Inversionswetterlage, so sitzt man schon auf der Verliererseite. Falsche Dachneigung, unzureichende Südorientierung oder Schatten von Nachbars Baum können die Erträge dramatisch mindern. Was viele nicht wissen: Selbst Teilabschattungen können den Ertrag eines betroffenen Paneelstrangs deutlich verringern. Weitere Faktoren, die sich nachteilig auf den Ertrag auswirken, sind Verschmutzung durch Staub sowie Abschattung durch Pflanzenwuchs bei niedrig aufgeständerten Plantagen oder – in diesem Winter häufiger zu beobachten – durch Schnee und Eis. Für Deutschland ist von einem durchschnittlichen Langzeit-Nutzungsgrad von etwa 7,5 % auszugehen. Bei Angaben, die wesentlich darüber liegen, sollte man Vorsicht walten lassen.

Betriebs- und Lebensdauerrisiken – Wind

Bild 4. Die Nutzungsgrade der in Deutschland installierten Windkraftanlagen unterliegen jährlichen Schwankungen. Der langjährige Mittelwert beträgt 16,8 %

Windenergieanlagen sind hochkomplexe technische Produkte und unterliegen enormen Beanspruchungen, zudem sind sie der Witterung ausgesetzt. Deshalb sind Schäden früher oder später unausweichlich. Reparaturen in Höhen von 100 m Höhe sind teuer, vor allem, wenn beim Austausch groβer Teile ein Kran eingesetzt werden muss. Die Schummeleien bezüglich der Verfügbarkeiten von WKA beginnen schon bei den Angaben zur Lebensdauer, die vielfach mit 25 Jahren angegeben wird [TRIA]. Interessanterweise gibt der weltgröβte Hersteller Vestas in eigenen Lebensdaueranalysen Auslegungslebensdauern von lediglich 20 Jahren an [VEST1]. Zu den von anderen Herstellern angegebenen 25 Jahren ist das immerhin ein Unterschied von 25 %. Zu den Schwachpunkten von Windenergieanlagen gehören insbesondere auch die Getriebe, deren Ersatz äuβerst aufwendig ist. Hier rechnet die erwähnte Analyse damit, dass innerhalb der Lebensdauer der Anlage einmal ein Austausch fällig werden dürfte.

Nachdenklich stimmen sollte insbesondere das Ergebnis detaillierter Untersuchungen der britischen Renewable Energy Foundation über die Entwicklung der Produktivität von Windenergieanlagen in Groβbritannien und Dänemark [HUGH]. In dieser Langzeitstudie wurde festgestellt, dass die Nutzungsgrade britischer Windfarmen von ursprünglich ca. 24 % innerhalb von 10 Jahren auf 15 % abfallen und nach 15 Jahren lediglich noch 11 % erreichen. Der Bericht kommt zu dem Schluss, dass wenige Windkraftanlagen länger als 12-15 Jahre arbeiten werden.

Ein in Zukunft vermutlich wachsendes Risiko könnte auf Landbesitzer zukommen, die ihre Grundstücke an Windenergieanlagenbetreiber verpachtet haben. Sollten diese Betreiber pleitegehen, so liegt die Verantwortung für den umweltgerechten Rückbau der Windenergieanlage beim Grundstückseigentümer. Die entsprechenden Kosten können in die hunderttausende Euro pro Anlage gehen.

 Betriebs- und Lebensdauerrisiken – Solar

Bild 5. Der Nutzungsgrad von in Deutschland installierten Fotovoltaikanlagen schwankt teils erheblich. Der langjährige Mittelwert liegt bei rund 7,5 %

Da die meisten Fotovoltaikanlagen aus Elektronikkomponenten ohne bewegliche Teile aufgebaut sind, wird häufig angenommen, sie hätten eine sehr hohe Lebensdauer. Oft ist zu lesen, sie würden zwar im Laufe der Zeit allmählich etwas nachlassen, lieferten aber auch nach 25 Jahren noch 75 % ihrer ursprünglichen Leistung und seien auch danach noch für viele weitere Jahre verwendbar. Wer jedoch die Wahrheit wissen will, sollte nicht in Prospekten der Hersteller oder auf den Webseiten der vielen Lobbygruppen nachsehen, sondern bei Internet-Suchmaschinen Begriffe wie z.B. „Solaranlage defekt“ eingeben. Das sich hieraus ergebende Bild weicht recht erheblich von der heilen Welt der Anbieter ab. Es ist erstaunlich, wieviele Firmen und Ingenieurbüros offensichtlich gut davon leben, dass sie sich um die Funktions- und Leistungsdefizite von Solaranlagen kümmern [ADLE]. Auf manchen Websites finden sich Aussagen über bis zu zweistellige Prozentsätze von Zellen, die entweder nicht die volle Leistung bringen oder gar ganz defekt sind. Auch in den Blogs von Heimwerker- und Selbsthilfeportalen finden sich zahlreiche Leidensgeschichten als Hinweis darauf, dass es offensichtlich nicht immer damit getan ist, sich eine Anlage aufs Dach zu schrauben, um dann jahrzehntelang bequem Geld einnehmen zu können [SOLA1]. Hinzu kommt eine nicht zu unterschätzende Feuergefahr: Feuerwehren fürchten das Risiko von elektrischen Stromschlägen durch Löschwasser, wenn Häuser mit Solaranlagen brennen. Dringend gewarnt wird auch vor dem Feuerrisiko durch Speicherbatterien für Solaranlagen [NAEB].

Wohin mit dem Sondermüll?

Bild 6. Sondermüll. Das in vielen Solardächern enthaltene hochgiftige Schwermetall Cadmium wurde aus Industrieprodukten schon vor vielen Jahren verbannt

Das Recyclingrisiko besteht, weil sowohl Windkraftanlagen als auch Fotovoltaikpaneele nach Ablauf der 20jährigen Betriebsdauer umweltverträglich demontiert und entsorgt werden müssen. Bei Windkraftanlagen können allein für Abriss und Abtransport sechsstellige Beträge fällig werden. Und der Aussage, dass man auf den alten Mast einfach wieder eine neue Anlage setzen könne, sollte man mit Skepsis begegnen: Mast und Gondel bilden ein aufeinander abgestimmtes System, und auch für den Mast gilt die Auslegungsberechnung nur für eine Betriebsperiode. Wenn danach etwas passieren sollte, dürften interessante juristische Auseinandersetzungen mit der Versicherung zu erwarten sein.

Auch bezüglich der Entsorgung von Fotovoltaikanlagen können auf den Eigner erhebliche Kosten zukommen, da es sich bei vielen Technologien um Sondermüll handelt, der giftige Schwermetalle wie Blei, Cadmium und Tellur enthält [RECY]. Die sachgerechte Entsorgung dieses Materials erfordert hoch spezialisierte Anlagen und ist entsprechend teuer. Zwar geben manche Hersteller deshalb für die von ihnen gelieferten Module eine Entsorgungszusicherung, jedoch ist angesichts der desolaten Lage der meisten dieser Firmen kaum davon auszugehen, dass nach Ablauf der Betriebsdauer noch irgendjemand da sein wird, der diese Versprechungen auch einlösen wird.

Politische Risiken

Eine der entscheidenden Säulen der Energiewende ist das Erneuerbare-Energien-Gesetz (EEG), das dem Investor, der Geld in Anlagen zur Erzeugung von Strom aus „erneuerbarer“ Energie steckt, eine zwanzigjährige Abnahmegarantie für den erzeugten Strom zu festgelegten Preisen zusichert. Zu zahlen hat dafür der Stromverbraucher im Wege eines EEG-Zuschlags auf seine Stromrechnung. Von der Einhaltung dieser Zusage hängt die Wirtschaftlichkeit der Investition ab, denn die garantierten Preise liegen weit über den Kosten von 2,5 bis 3,5 ct/ kWh, zu denen konventionelle Kraftwerke Strom produzieren können. Fällt diese Garantie, so bricht die gesamte Kostenkalkulation in sich zusammen und eine Pleite ist vorprogrammiert.

Daher stellt sich die Frage, wie glaubwürdig die staatlichen Garantien des EEG sind. Die Antwort ist einfach: Ungefähr so glaubwürdig wie deutsche Rentenversprechungen oder so sicher wie zyprische Bankguthaben. Wenn es der Politik opportun erscheint, wird sie auch bezüglich des EEG den Stöpsel ziehen, wie sich ja bereits jetzt an der Diskussion über die von Bundesumweltminister Altmeier ins Spiel gebrachte Strompreisbremse zeigt. Wenn genügend Wählerstimmen winken, wird die Politik jedes Versprechen brechen. Erinnern wir uns an die Situation bei den Kernkraftwerken: Man hatte ihnen gerade Zusagen bezüglich längerer Laufzeiten gemacht und sie gleichzeitig via Brennelementsteuer kräftig zur Kasse gebeten. Als dann Fukushima die politische Stimmung kippen lieβ, waren die Laufzeitzusagen plötzlich wertlos, die bereits gezahlte Brennelementesteuer wollte der Staat aber trotzdem behalten. Es wäre naiv zu glauben, dass man Windmöller und Solarplantagenbesitzer anders behandelt wird, wenn es erst einmal so weit kommt, dass explodierende Strompreise das Volk auf die Straβe treiben. Aus Ländern wie Spanien hört man inzwischen bereits Meldungen, dass EE-Anlagenbetreiber vor der Pleite stehen, weil der Staat seine Zusagen nicht mehr einhalten kann.

Politik: Winkeladvokaten-Tricks

Bild 7. Deutschland hat sich mit der „Energiewende“ extrem ehrgeizige Ziele bei der Einführung sogenannter erneuerbarer Energien gesetzt

Schon die Grundlage des ganzen Geschäfts mit den „erneuerbaren“ Energien beruht auf Betrug der Politik am Bürger. So versprach das Bundesumweltministerium unter Jürgen Trittin im Jahre 2005, dass der Anstieg der EEG-Umlage in Zukunft abnehmen und einen Durchschnittshaushalt selbst bei sehr dynamischem Ausbau nicht mehr als 3 Euro pro Monat kosten werde [BMU]. Erst vor kurzem musste dann sein Nachfolger Altmeier zugeben, dass die Kostenbelastungen aus dem EEG die Billion € überschreiten dürften – mit dem interessanten Kniff, dass er vom Ende der 2030er Jahre statt von 2050 sprach. Anders ausgedrückt, da für die Energiewende von 2040 bis 2050 nochmals mindestens weitere 15 % „Erneuerbare“ zur Erreichung des Ziels von 80 % draufgesattelt werden müssen, dürfte die Realität nochmals um einen ordentlichen Batzen darüber liegen. Von einer Politik, die dem Bürger mit solchen Winkeladvokaten-Tricks kommt, haben betrogene Sparer hinterher höchstens salbungsvolle Sprüche zu erwarten.

Fred F. Mueller

Übernommen von Science Sceptical hier

Quellen

Titelfoto: G. Janβen

[ADLE] http://www.zeit.de/2013/19/defekte-solaranlagen abgerufen am   12.5.2013

[ALTM] http://www.faz.net/aktuell/wirtschaft/wirtschaftspolitik/energiepolitik/umweltminister-altmaier-energiewende-koennte-bis-zu-einer-billion-euro-kosten-12086525.html

[BANK] http://de.scribd.com/doc/127848137/Windpark-Hessen-und-Kostendampfung abgerufen am 5.3.2013

[BMU] Was Strom aus erneuerbaren Energien wirklich kostet. Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMU). Referat Öffentlichkeitsarbeit. Juni 2005

[ERFA] Daldorf, W.: Praxiserfahrungen mit der Wirtschaftlichkeit von Bürgerwindparks in Deutschland. 02-2013 http://www.energieagentur-goettingen.de/fileadmin/files/downloads/130213_Daldorf_Praxiserfahrungen_mit_BA__1_4rgerwindparks.pdf  abgerufen am 12.6.2013

[NAEB] http://naeb-eeg.de/PRessetexte/PM-2013-20-NAEB-58.pdf abgerufen am 8.6.2013

[RECY] http://www.spiegel.de/wirtschaft/unternehmen/recycling-von-modulen-solar-konzerne-kaempfen-um-ihr-gruenes-image-a-688779.html  abgerufen am 26.4.2010

[SOLA1] http://cr4.globalspec.com/thread/25552/Service-life-of-solar-panels abgerufen am 3.2.2012

[TIPP1] Arbeitskreis Alternative Energien Odenwald, Email: ak-altenerg@gmx.de

[TIPP2] http://de.scribd.com/doc/126560132/Bewertung-von-Windkraft-Beteiligungsangeboten

[TIPP3] Markus Estermeier. Investitionsrisiko Solarstrom. http://www.eike-klima-energie.eu/climategate-anzeige/investitionsrisiko-solarstrom/ abgerufen am 6.12.2011

[TRIA] http://www.trianel-borkum.de/de/windpark/daten-und-fakten.html  abgerufen am 31.12.2011

[UKWE] UKWED. UK Wind Energy Database http://www.bwea.com/ukwed/

[VEST1] Life Cycle Assessment 1N1800 Life Cycle Assessment of a Wind Turbine. Group 7: Barbara Batumbya Nalukowe, Jianguo Liu, Wiedmer Damien, Tomasz Lukawski. May 22, 2006. Vestas.

[WIBW] http://wilfriedheck.tripod.com/ abgerufen am 6.6.2013

[WIND1] http://ralos.de/blog/2008/12/windpark-jahresabschlusse.html

[WIND2] http://www.badische-zeitung.de/freiburg/windraeder-liegen-weiter-unter-plan–63827138.html     abgerufen am 18.11.2012




Das Umweltbundesamt (UBA) hält sich ein literarisches Quartett!

Im Gegenteil, Angriff ist die beste Verteidigung, so dachte er wohl, und wünschte sich eine bessere Qualitätskontrolle bei den Journalisten. Ausgerechnet der Herr Lehman, leistete er sich doch eine Tatsachen-Verdrehung und Halbwahrheit nach der anderen. Wie zum Beispiel, dass 98 % aller Klimawissenschaftler die Meinung des UBA teile, oder dass 4000 Klimawissenschaftler, die am IV. IPCC Report mitgewirkt hätten, dies untermauert hätten. Sogar mit 90 % iger Wahrscheinlichkeit! Und der kommende IPCC Report würde sogar von 95 % ausgehen.

EIKE Präsident Holger Thuss war dabei und berichtet:

Lehmann behauptete, es gebe keine schwarzen Listen für Journalisten, sie würden weiterhin mit allen reden. Er glaubt aber, daß die Regierung berechtigt sei, sich um „Qualitätsstandards“ (!) für Journalisten zu kümmern, wiss. Forschungen zu bewerten, um der „zunehmenden Verwirrung“ in der Klimadebatte entgegen zu wirken (an dieser Stelle habe ich das erste Mal gegrinst). Als Ederer über eine Bemerkung des damaligen IPCC Chefs Yvo deBoer in Genf berichtete*, sie dürften nur erforschen, „dass“ der Mensch am Klimawandel schuld trüge, nicht aber „ob“ der Mensch  daran schuldig sei,  fing ein Alarmist an zu pöbeln, das könne ja jeder behaupten. Darauf Ederer: „Das ist von Report München so gesendet worden!“ Treffer versenkt! Irgendwann behauptete entweder Lehmann oder der „Moderator“ Pötter von der taz, Maxeiner und Miersch hätten nicht kommen wollen. Darauf Vera Lengsfeld im Publikum: „Das ist eine Lüge**. Ich habe mit denen telefoniert, sie waren nicht eingeladen.“ Treffer 2 versenkt. Dann stellten noch diverse Journalisten kritische Fragen, u.a. von der „Lausitzer Rundschau“ (Kaufen!) und der Wissenschaftspressekonferenz. Zum Schluß hat Günter Ederer noch das Buch von Donna Laframboise verteilt, das er vorher zitiert hatte (darin wird das Lügengebäude „IPCC“ auseinander genommen). Alles in allem hat die Veranstaltung gezeigt, daß die Alarmisten in einer offenen Debatte keine Chance haben. Daß sie das wissen, dürfte der Grund dafür sein, daß sie sich solchen Debatten zumeist verweigern.“

Update vom 21.3.13

Frau Lengsfeld korrigiert in einer Mail an Berhard Pötter von der Taz (sieh Kommentar 8)

Von daher war mein Zwischenruf in dieser Form nicht richtig. Ich habe deshalb in meinem Artikel auf der Achse eine andere Formulierung benutzt.

Denn der springende Punkt war, dass von Herrn Lehmann behauptet wurde, dass M&M sich „gedrückt“ hätten, was eine Unverschämtheit ist, denn Michael lag im Krankenhaus und Dirk hatte einen ähnlich ernsten Grund, nicht zusagen zu können.

Neben dieser durchsichtigen Vernebelungspraxis des Herrn L. kommt noch die Tatsache, dass keiner der an der Broschüre beteiligten AutorInnen über tiefere Sachkenntnis in der Klimaforschung verfügen:

Auf „Die kalte Sonne“ lesen wir:

In der Tat hatte es sich das UBA geleistet, scharf auf Anderdenkende zu schießen, die eigene Autorenschaft der Broschüre jedoch feige unerwähnt zu lassen. Dieser Fehler wurde mittlerweile eingesehen. In einem im Klimazwiebel-Blog veröffentlichten Rechtfertigungsbrief räumte das UBA ein:

Dass wir im Gegenzug unsere Autorinnen und Autoren nicht namentlich nannten, war ein Fehler.

Als Autoren der Broschüre sind jetzt offiziell aufgeführt: Dr. Harry Lehmann, Dr. Klaus Müschen, Dr. Steffi Richter und Dr. Claudia Mäder. Im Folgenden wollen wir uns die Mühe machen und überprüfen, wieviel klimawissenschaftlicher Sachverstand nun wirklich zu dieser Broschüre beigetragen hat.

Leitautor des UBA-Heftes ist Harry Lehmann. Der Physiker Lehmann leitet den Fachbereich 1 des UBA “Umweltplanung und Nachhaltigkeitsstrategien”. Noch viel interessanter ist jedoch, dass Lehmann zudem Mitglied des Vereins der Freunde und Förderer des PIK e.V. ist. Der auf der Webseite genannte Zweck des Vereins lässt aufhorchen:

Zweck des Vereins ist die Förderung von Wissenschaft und Forschung am Potsdam-Institut für Klimafolgenforschung (PIK). Dazu soll das PIK vor allem durch Beschaffung von Mitteln zur Verwirklichung seiner steuerbegünstigten gemeinnützigen Zwecke und durch Förderung und Pflege seines Ansehens als Institution unterstützt werden.

Und raten Sie mal, wer zu den besten externen Projektsponsoren des UBA gehört? Ein Blick in die offizielle PIK-Drittmittelliste zeigt es: Das Umweltbundesamt! Das Potsdam Institut für Klimafolgenforschung (PIK) fällt seit längerem durch fragwürdige klimaalarmistischer Beiträge auf, die sich deutlich abseits des klimawissenschaftlichen Mainstreams befinden. Wie passt es unter diesem Hintergrund zusammen, dass PIK-Fan Lehmann zwei bekannte deutsche Journalisten als Abweichler vom vermeintlichen Mainstream kritisiert?  In der UBA-Broschüre liest sich das so:

Auch in Zeitungen und Zeitschriften, Rundfunk und Fernsehen tauchen mitunter Beiträge auf, die nicht mit dem Kenntnisstand der Klimawissenschaft übereinstimmen. Bekannt für derartige Beiträge sind die Journalisten und Publizisten Dirk Maxeiner und Michael Miersch.

Dies wirft ernsthafte Zweifel an Lehmanns fachlicher Unabhängigkeit auf. Welche Qualifikationen bringt Lehmann eigentlich für die Debatte mit? Kennt er den klimawissenschaftlichen Mainstream eigentlich aus eigener Recherche oder wird ihm selbiger vorgefiltert und vorgekaut auf den PIK-Freundeskreistreffen mit auf den Weg gegeben?

Schauen wir einmal in Lehmanns Lebenslauf. Lehmann schloss sein Physikstudium 1984 mit der Diplomarbeit “Entwicklung und Betrieb eines schnellen Myon Auslösesystems für das UA1 Experiment am Proton-Antiproton-Speicherring des CERN” ab. Seine Doktorarbeit aus dem Jahr 2004 mit dem Titel “Struktur und Dynamik von Energiesystemen auf Basis erneuerbarer Energien” zeichnet ihn ebenfalls nicht gerade als klimawissenschaftlichen Experten aus. Zuvor hatte Lehmann nach eigenen Angaben im Vorwort der Dissertation wohl eine Doktorarbeit im Fach Astrophysik geschmissen. Auch sonst scheint Harry Lehmann im Laufe seiner Karriere keine größeren Aktivitäten im Bereich der Klimaforschung entwickelt zu haben, wie aus seinem Lebenlauf hervorgeht. Umso kurioser daher, dass der UBA-Mitarbeiter in einem Beitrag in der Welt aus dem Jahr 2009 als ”Klimaexperte Lehmann” bezeichnet wird. Lehmann rührt in diesem Artikel kräftig die Werbetrommel für die Klimakatastrophe. Es bleibt Lehmanns Geheimnis, wie er unter diesem Hintergrund in der UBA-Broschüre die Qualifikationen der Kalte-Sonne-Autoren in Zweifel ziehen kann. Fritz Vahrenholt ist promovierter Chemiker, während Sebastian Lüning promovierter und habilitierter Geologe ist. Beides sind wichtige Grunddisziplinen der Klimawissenschaften. In der UBA-Broschüre lesen wir hingegen:

Auf welcher wissenschaftlichen Basis fußen diese Erkenntnisse von Vahrenholt und Lüning? [hier folgen in der Broschüre verkürzte und z.T. fehlerhafte Angaben zu den Lebensläufen]. Demnach haben weder Vahrenholt noch Lüning in der Klimaforschung oder auf verwandten Gebieten der Physik der Atmosphäre gearbeitet und geforscht.

Das Gleiche würde automatisch auch für Harry Lehmann gelten, so dass unter Verwendung der gleichen Argumentation seine Broschüre automatisch wegen Fachfremdheit der Autoren unglaubwürdig werden würde. Unterstützung des PIK-Profi-Klimatologen Stefan Rahmstorf hatten Lehmann und Mitstreiter jedenfalls nicht erhalten, wie Rahmstorf in seinem Klimalounge-Blog eilfertig am 24. Mai 2013 mitteilte:

Ich habe dieser Broschüre nicht zugearbeitet und kannte sie auch nicht, und soweit ich weiß auch kein anderer Mitarbeiter des PIK.

Wo stammt dann die angebliche klimawissenschaftliche Expertise her, die in die UBA-Broschüre doch irgendwie eingeflossen sein muss? Schauen wir uns daher bei Lehmanns Mitstreitern um, z.B. bei Dr. Klaus Müschen. Über ihn weiß berlin.de:

Klaus Müschen studierte Elektrotechnik und Sozialwissenschaft an der Universität Hannover und arbeitete als Berufsschullehrer in Niedersachsen und Hamburg, sowie sieben Jahre als Hochschulassistent für Elektrotechnik an der Universität Hamburg. Danach leitete Klaus Müschen mehr als 15 Jahre das Referat für Klimaschutz, Luftreinhaltung und Lokale Agenda 21 in der Senatsverwaltung für Stadtentwicklung Berlin.

Ein Elektrotechniker, kein Klimawissenschaftler. Gehen wir daher weiter zu Dr. Steffi Richter, einer weiteren Co-Autorin der UBA-Broschüre. Richter arbeitet in der von Klaus Müschen geleiteten UBA-Abteilung “Klimaschutz und Energie”. In einigen Blogbeiträgen wurde vermutet, sie wäreJapanologin und Philosphin an der Universität Leipzig. Dabei handelt es sich aber wohl eher um eine Namensgleichheit, denn wie soll Frau Richter gleichzeitig Vollzeit am UBA als Fachgebietsleiterin in Dessau und an der Uni Leipzig als Professorin arbeiten? Außerdem sieht die Steffi Richter vom UBA ganz anders aus als die von der Uni Leipzig. Nein, über Steffi Richter vom UBA weiß das Internet herzlich wenig. Und das bedeutet gleichzeitig, dass sie auch keine umfangreiche wissenschaftliche Forschungserfahrung in den Klimawissenschaften mit Publikationstätigkeit haben kann, denn ansonsten würde man irgendwo auf ihre Publikationen und Konferenzbeiträge stoßen.

Bliebe am Schluss noch Dr. Claudia Mäder als letzte Mitautorin der UBA-Broschüre. Besitzt sie professionelle klimawissenschaftliche Erfahrung? Bislang trat sie klimatologisch lediglich als Autorin des beim UBA kostenlos bestellbaren Kinderbuches “Pia, Alex und das Klimaprojekt – Eine abenteuerliche Entdeckungsreise“ in Erscheinung (siehe unseren Blogbeitrag “Abenteuerliches Kinderbuch vom Umweltbundesamt eignet sich nicht als Gute-Nacht-Geschichte“). Auch hier finden sich keinerlei Hinweise auf eine publizierende naturwissenschaftliche Tätigkeit.

War dies möglicherweise der Grund, die Autoren in der ursprünglichen Version der Öffentlichkeit zu verschweigen? Schaut man sich die wissenschaftlichen Erklärungsversuche des unglücklichen Quartetts an, so bemerkt man in der Tat schnell, dass es hier schlicht an Erfahrung und Sachverstand mangelt. Dabei wurde kräftig aus anderen Broschüren abgekupfert, ohne die Hintergründe wissenschaftlich tief genug zu durchblicken. Mit den klimawissenschaftlichen Thesen des UBA haben wir uns bereits ausführlich in einem früheren Blogbeitrag zu einer ähnlichen UBA-Vorgängerbroschüre mit dem Titel “Sonne, Treibhausgase, Aerosole, Vulkanausbrüche – gibt es einen Favoriten bei den Klimaänderungen?” auseinandergesetzt (siehe unseren Blogbeitrag “Einseitiges Klima im Umweltbundesamt: Was steckt dahinter?“). Daher wollen wir uns hier Wiederholungen ersparen.

Soweit die Autoren  von „Die kalte Sonne“

Wie man auf ACHGUT lesen kann, kommt es aber noch dicker, denn am 12. Juni hatte Altmaiers Parlamentarische Staatssekretärin Ursula Heinen-Esser im Deutschen Bundestag behauptet, es gäbe keine Interessenverflechtungen zwischen den Autoren der umstrittenen Broschüre „Und sie erwärmt sich doch“ und Klimaschutzorganisationen.

Jetzt stellt sich heraus: Hauptautor Dr. Harry Lehmann gehört dem dem 34-köpfigen „Verein der Freunde und Förderer des PIK e.V.“ an.

Die Ziele des Vereins ist, „das PIK vor allem durch Beschaffung von Mitteln zur Verwirklichung seiner steuerbegünstigten, gemeinnützigen Zwecke … unterstützt werden“.

Anfrage im Deutschen Bundestag, 245. Sitzung am 12. Juni 2013:

Meine erste Nachfrage: Können die Öffentlichkeit und ich davon ausgehen, dass personelle Verflechtungen zwischen dem Umweltbundesamt und Klimaschutz- und Umweltorganisationen keinen besonderen Einfluss auf die Studie des Umweltbundeamtes mit dem Titel „Und sie erwärmt sich doch“ gehabt haben?

Ursula Heinen-Esser, Parl. Staatssekretärin beim Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit:

Inwiefern Mitarbeiter der Umweltbundesamtes genauso wie wir Abgeordnete des Deutschen Bundestages oder wie Mitarbeiter im Bundesumweltministerium nicht auch Mitglied von Umweltschutz- oder Naturschutzorganisationen sind, kann ich Ihnen – Stand heute – nicht sagen. Ich kann Ihnen aber sagen, dass kein Mitarbeiter zusätzlich für eine entsprechende Organisation tätig ist, was, wie ich glaube ein Unterschied ist.

Prof. Fritz Vahrenholt, ebenfalls in der Broschüre namentlich benannt  und als fachlich unqualifiziert  bezeichnet, schrieb daraufhin in einem Brief an den UBA-Chef Holger Flasbarth:

Sehr geehrter Herr Flasbarth,

…Sie bezeichnen die intensive Zusammenarbeit mit dem Potsdam-Institut für Klimafolgenforschung (PIK) „wegen dessen unbestrittenen Kompetenz“ als „folgerichtig“.
Wie objektiv und transparent kann die Vergabe von Forschungsmitteln in Höhe von 8 Mio € sein, wenn der Autor der in Rede stehenden Broschüre Dr. Harry Lehmann dem 34-köpfigen „Verein der Freunde und Förderer des PIK e.V.“ angehört? Die Ziele des Vereins sind eindeutig formuliert ( http://www.pik-potsdam.de/institut/querverbindungen/freunde-des-pik) : Durch den Verein soll „ das PIK vor allem durch Beschaffung von Mitteln zur Verwirklichung seiner steuerbegünstigten, gemeinnützigen Zwecke … unterstützt werden“.
Ich stelle die Frage, in welcher Weise war der für den Klimaschutz zuständige Fachbereichsleiter Dr. Lehmann an der Vergabe von Forschungsaufträgen des UBA an das PIK beteiligt, hat er bei den Vergabeentscheidungen mitgezeichnet, hat er seine Mitwirkung im Verein der Freunde und Förderer transparent gemacht, war Ihnen seine Mitgliedschaft bekannt ? Ich verweise in diesem Zusammenhang auf das Mitwirkungsverbot befangener Personen (§ 16 Vergabeverordnung). …

Mit freundlichen Grüßen
Prof. Dr. Fritz Vahrenholt

Hier können Sie den gesamten Brief von Vahrenholt, sowie div. andere interessante Informationen lesen.

Nun scheint es, als ob das Machwerk des UBA, als Verteidigungsschrift geplant, um der immer erfolgreicheren Arbeit der Klimarealisten hierzulande, per „Ordre di Mufti“ autoritär und von oben herab, etwas entgegen zu setzen, zum veritablen Eigentor dieses Amtes, mit schwer grünem Ballast, geworden ist. Wir leben eben nicht mehr in den Zeiten von Heinrich Manns „Untertan“. Und das Internet trägt immens dazu bei, dass unbequeme Wahrheiten, auch wenn immer noch große Teile der Medien dieser lieber unter Verschluss hielten, doch von einem immer größeren Teil der Bevölkerung gelesen und auch verstanden werden. Venceremos.

Michael Limburg EIKE

* Im Original FB Bericht wird fälschlich von einem CERN Wissenschaftler (Genf) gesprochen, es handelt sich jedoch um den ehemaligen Generalsekretär Yvo de Boer in Genf ansässig.




Energiewende: „Okay, dann eben Planwirtschaft!“

Es handelte sich dabei um die beiden spanischen Unternehmen Iberdrola und Gas Natural , die zwei italienischen Firmen Enel und Eni, die französische GDF Suez, den kleinen  niederländischen  Gashändler und –Versorger GasTerra sowie RWE und E.ON.

Die Überschrift spricht von einem Aufruf zur Wiederbelebung der europäischen Energiepolitik; der Inhalt liest sich allerdings anders.

Zunächst gibt es politisch korrekte Pflichtbekenntnisse: Im 3. und4. Absatz dieses Papiers geht es um „die Umstellung auf eine CO2-arme Wirtschaft“ und ferner darum, dass auch „weiterhin der Kampf gegen den Klimawandel unterstützt“ werden müsse.

Dann folgen Forderungen. Schon im ersten Punkt wird die Katze aus dem Sack gelassen: Gefordert wird „eine verbesserte Marktausgestaltung, einschließlich eines auf europäischer Ebene koordinierten Ansatzes für Kapazitätsmechanismen (!) , die gewährleisten, dass alle zur Versorgungssicherheit der europäischen Kunden beitragenden Anlagen gerecht entlohnt (!) werden.“

Im Klartext: Der Begriff Kapazitätsmechanismus wird seit etwa einem Jahr von Energieversorgern, von Behörden wie der Bundesnetzagentur und auch von Verbänden wie dem BDEW für eine neue Subventionsart für Kraftwerksbetreiber benutzt. Mit dieser sollen die durch die übermäßige Einspeisung von „Grünstrom“ und die dadurch verursachte drastische Verringerung der Volllast-Betriebsstunden unrentabel gewordene Gas- und Kohlekraftwerke unterstützt werden, damit  deren Betreiber sie nicht stilllegen, was sie sonst tun würden. Deren unausgesprochene, aber unüberhörbare Drohung: Wir müssen und werden  das aus wirtschaftlichen Gründen machen – und wenn dann das Netz zusammenbricht, tut es uns leid.

Einen ersten Erfolg hatte die Lobby bereits: Die drohende Stilllegung des hochmodernen Gaskraftwerks Irsching in Bayern konnte kürzlich abgewendet werden, indem jetzt die Betreiber Geld für die Vorhaltung der Anlage als „Kaltreserve“ erhalten.

Es ist die Subventionierung des Stillstands – und genau das wird nun unter der schönen Bezeichnung Kapazitätsmechanismus von den 8 Vorstandschefs gefordert. Bezahlter Stillstand als „Wiederbelebung der Energiepolitik“.

Die Pläne gehen aber noch weiter, wie man es bereits von deutschen Behörden und Verbänden hörte: Das Gleiche soll mit Anlagen geschehen, die wegen des Erreichens ihrer Lebensdauer eigentlich stillgelegt werden sollten. Auch diese alten Kraftwerke mit ihren schlechten Wirkungsgraden müssen unbedingt mit zusätzlichem Geld am Netz gehalten und dafür auch noch teuer aufgerüstet und modernisiert werden – als Reserve.

Wer diese Zusatzkosten aufzubringen hat, dürfte klar sein: Die Verbraucher, wie immer.

Nachdem dieser wichtigste Punkt von den acht CEO´s vorgetragen wurde, kommt anschließend in Punkt 2 wieder der Ruf nach „klimafreundlichen Techniken“ sowie die Bitte, dass doch zwar „ehrgeizige, aber realistische und belastbare Ziele für Treibhausgasemissionen“ vorgegeben werden.

Im Punkt 3 wird gewünscht, dass doch die Kosten für die Bürger sinken mögen – was aber gerade durch die Forderung nach der neuen Subventionsart in Punkt 1 ins Gegenteil verkehrt wird. Denn die Finanzierung eines stillstehenden Kraftwerksparks wird die Bürger sehr viel Geld kosten.

So etwas nennt man gemeinhin Heuchelei.

In Punkt 4 werden Investitionen in „vielversprechende Techniken“ (wörtlich !) gefordert. Diese lächerliche, naive Bezeichnung kommt hier tatsächlich von  Industrieunternehmen. In diesem Zusammenhang wird die CO2-Abtrennung (vielversprechend ?), die Speicherung und sogar Schiefergas genannt. Man beachte, was nicht genannt wird: Die so schön CO2-freie Kernkraft. Und das, obwohl doch zwei der Unterzeichner, RWE und E.ON, durch die Zwangsabschaltung ihrer KKW schwer geschädigt wurden.

Damit erklärt sich auch, weshalb die mächtige französische EDF nicht unterschrieb; auch die deutsche EnBW fehlt. Weiterhin fehlen EVU aus Großbritannien, der Schweiz, aus Östereich, Norwegen, Finnland, Schweden, Dänemark, Tschechien, Polen, Belgien, Ungarn usw.

Es sind also keineswegs die maßgeblichen Energieunternehmen Europas, die hier ideologisch korrekte Bekenntnisse abliefern und dafür dann die Hand aufhalten.  Das Motto scheint zu sein: Wenn die Politiker Stück für Stück die Marktwirtschaft im Energiesektor abschaffen und sie durch Planwirtschaft ersetzen, dann fordern wir hier eben ein weiteres Stück neuer Planwirtschaft, damit wenigstens die Kasse stimmt.

Man sollte sich nicht täuschen: Die hier eingeforderte neue Subvention ist bereits im Gange und wird einen weiteren erheblichen Abfluss an Wirtschaftskraft bei allen Verbrauchern mit sich bringen. Diese Forderung ist im Grunde ein Zeichen von Resignation in der Energiewirtschaft. Bevor es  endgültig kracht, möchte man wenigstens noch etwas verdienen.

Dr. Günter Keil, u.a. Autor des  Buches "Die Energiewende ist schon gescheitert"

(1): http://www.eon.com/de/news/pressemitteilungen/2013/5/22/acht-fuehrende-……html

Sankt Augustin,  15.6.2013




Wie weit steigt CO2 in der Erdatmosphäre noch an und welche Konsequenzen hat dies?

Das UBA schreibt auf seiner Facebook-Seite (hier) "> CO2-Konzentration so hoch wie nie <. Die Konzentration von Kohlendioxid (C02) in der Atmosphäre hat den höchsten Stand seit Millionen von Jahren erreicht. Vergangene Woche haben US-Forscher im Observatorium auf dem Mauna Loa, einem Vulkan auf Hawaii, an einem Tag mehr als 400 ppm (Teilchen CO2 pro 1 Mio. Luftteilchen) gemessen. Vermutlich war seit 3 Mio. Jahren nicht mehr so viel CO2 in der Atmosphäre".

Dies ist nicht einmal falsch. Schaut man sich freilich den maßgebenden Originalaufsatz an [1], wird der Aussagewert von "seit Millionen Jahren höchste Stand" deutlich. Die CO2-Konzentrationen steigen bereits seit 3 Millionen Jahren MONOTON an (Bild 1, links das letzte Stück von 3 bis 0 Jahre vor heute rot eingekreist). Das bedeutet, dass JEDE CO2-Messung zu JEDEM beliebigen Zeitpunkt, der bis zu 3 Millionen Jahre vor heute zurückreichen darf, zu einer entsprechenden Aussage führt (wir danken für den Hinweis auf die UBA-Facebook-Aussage dem Geophysiker Ullrich O. Weber). Die UBA-Meldung ist daher sachlich wertlos und appelliert nur an Emotionen oder Klimaängste. 

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild_PearsonA.jpg

Bild 1: Atmosphärische Konzentrationen von CO2 während der letzten 25 Millionen Jahre, die letzten 6 Millionen Jahre rot eingekreist.

Nun zur spannenden Frage "Wie wird es zukünftig mit dem CO2 weitergehen, wenn insbesondere China und Indien weiter ungebremst Kohle verbrennen"? Was steht der Erdatmosphäre bevor? Bevor wir diese Frage beantworten, sei kurz noch etwas weiter  zurück in die Vergangenheit geschaut. Die Verhältnisse bis vor 600 Millionen Jahren zeigt Bild 2. Es ist vom Autor gemäß den in hier, hier und [2] veröffentlichten Daten nacherstellt und wird von ihm regelmäßig in seinen Klima-Vorträgen gezeigt. Die Datenwerte sind methodischer Probleme wegen mit Unsicherheiten behaftet, ein zuverlässiges Bild der erdhistorischen Realität vermitteln sie aber dennoch.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/VeizerTCO2.jpg

Bild 2: Mittlere Globaltemperaturen und CO2-Konzentrationen während der letzten 600 Millionen Jahre

Im Bild 2 sollte uns insbesondere die gestrichelt eingezeichnete 800 ppm-Linie interessieren. Sie stellt nämlich die absolute Obergrenze der CO2-Konzentration dar, die menschgemacht NIEMALS überschritten werden kann. Kann man dies begründen? Ja, eine sehr einfache Abschätzungsrechnung und Literaturkenntnisse reichen aus:

Der Menschheit stehen gemäß Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) grob 1300 GtC als (maßgebenden CO2-erzeugende) Brennstoffressourcen in Form von Kohle zur Verfügung. Erdöl darf bei der Abschätzung vernachlässigt werden, Gas ebenfalls. Ferner wird vernachlässigt, dass die aktuelle Airborn Fraction (AF) von 45% in Zukunft unabdingbar weiter abnehmen muss – was AF bedeutet und warum sie weiter abnehmen muss, wird später beschrieben.

Die Autoren Michael Raupach und Josep Canadell geben die Äquivalenz von 1 GtC zu 0,47 ppm CO2 für die Erdatmosphäre an (hier). Das Verfeuern aller 1300 GtC entspricht somit 1300*0,47 = 611 ppm CO2-Konzentrationsanstieg in der Atmosphäre. Die  vorgenommene Schätzung muss allerdings noch die aktuelle AF von 45% – s. Fig. 5 in (hier) – berücksichtigen. Mit AF = 45% gehen von 100% neu erzeugtem anthropogenen CO2 nur 45% in die Atmosphäre, der Rest wird von den Ozeanen und der Biosphäre aufgenommen. Die 611 ppm reduzieren sich daher auf 611*0,47 = etwa 300 ppm. Das wären dann 400 (heute) + 300 = 700 ppm als nicht vom Menschen zu erhöhender Endwert. Fazit: Selbst eine Verdoppelung der heutigen CO2-Konzentration auf 800 ppm ist durch fossile Brennstoffverbrennung nicht erreichbar.

Natürlich wird die Menschheit niemals ihre gesamte Kohle verbrennen, diese ist viel zu wertvoll für die Chemie und wird daher irgendwann zukünftig zu teuer für das Verfeuern werden. In spätestens einem Jahrhundert werden neue Brutreaktoren – so wie beispielsweise der DRL (hier) – als inhärent sicher sind und praktische keinen nuklearen Abfall mehr produzierend die Energieversorgung der Menschheit revolutioniert haben. Die Episode der deutschen "Energiewende" ist dann längst als Entgleisung von ideologisch Verrückten, Profiteuren und der Politik in die Geschichtsbücher eingegangen. Diese unselige Koalition, so werden unsere Enkel klagen, hatte es hierzulande wieder einmal geschafft, eine ganze Nation auf Glatteis zu führen und ein ganzes Land mit überdimensionalen, völlig nutzlosen Windrädern zu verunstalten und schwer zu schädigen. Nur Metallverwertungs- und Windradabbruchunternehmen haben nach dem Ende der Bonanza noch profitiert.

Für die Politik bringt der Autor freilich ein wenig Verständnis auf, denn wie können sich Politiker die Chance auf die Besteuerung der Luft entgehen lassen? Die leider einzige Chance für den Bürger besteht darin, diesen Umweltverbrechern entschieden an der Wahlurne entgegenzutreten, denn Fakten werden bekanntlich von der Politik konsequent ignoriert.

Nun noch zur Erläuterung zur AF: mit AF wird derjenige Anteil von neu erzeugtem anthtropogenem CO2 bezeichnet, der in die Atmosphäre geht. Der Rest wird von den Ozeanen und der Biospäre aufgenommen. Warum sind es heute bereits 45% AF? Die Ozeane enthalten etwa 40 mal so viel CO2 wie die Atmosphäre. Infolgedessen ändert sich infolge zunehmendem anthropogenen CO2 der CO2-Partialdruck im Meer vermittels CO2-Aufnahme aus der Atmosphäre praktisch nicht, wohl aber der CO2-Partialdruck in der Atmosphäre. Mit zunehmenden atmosphärischen CO2-Gehalt wird somit die Partialdruckdifferent immer größer (chemisches Massenwirkungsgesetz oder statistische Mechanik, wie man will). Die AF nimmt infolgedessen immer weiter ab. Irgendwann geht im dynamischen CO2-Austausch Atmosphäre <–> Meer jedes von der Menschheit erzeugte CO2-Molekül schließlich ins Meer oder in die Biosphäre. Dieser Zusammenhang wurde von Prof. Werner Weber (Univ. Dortmund) auf dem gemeinsamen Fachkolloquium EIKE-PIK zum ersten Mal öffentlich vorgetragen (hier). Um nicht gleich wieder die Meeresversauerungs-Propheten auf den Plan zu rufen, sei auf einen sehr fachkundigen und ausführlichen Artikel zu dieser Frage hingewiesen, der im Blog Vahrenholalt/Lüning erschein (hier) – Vahrenholt ist Chemie-Professor. Von Versauerung oder gar Schädigung der Meeresflora und -fauna kann keine Rede sein.

Und weiter: die Klimasensitivität des CO2 ohne zusätzliche Verstärkungs- oder Abschwächungseffekte ist zwischen 0,45 °C (hier) und 1,1 °C (IPCC-Angabe) anzusiedeln. In [3] wird an Hand einer modernen statistischen Untersuchung kein Einfluss des anthropogenen CO2 auf Erdtemperaturen aufgefiunden, den gleichen Schluss könnte man auch aus der jüngsten wissenschaftlichen Publikation des Autors (hier) entnehmen, obwohl das Thema der Arbeit nicht das anthropogene CO2 betraf.

Zusammen mit den unter [4] bis [10] zusammengefassten Arbeiten, die – basierend auf Messdaten – GEGENKOPPELUNGEN an Stelle der in Klimamodelle fiktiv eingebauten, temperaturerhöhenden Rückkoppelungen anzeigen, bleibt dann von der temperaturerhöhenden Eigenschaft des anthropogenen CO2 leider kaum noch etwas übrig. Leider deswegen, weil die Menschheit diese Eigenschaft noch dringend nötig hätte – spätestens in 10.000 bis 20.000 Jahren, wenn es nach der wohl zutreffenden Milankovitch-Theorie wieder mächtig kalt auf unserem Planenten wird und in Europa die Arktisgletscher wieder bis an die Alpen und Pyrenäen vorstoßen. Immerhin hat zunehmendes CO2 jetzt schon den Vorteil, den Pflanzenwuchs antzuregen und daher zur Verbesserung der Wlternährung beizutragen.

In diesem Zusammenhang wirkt das von den politischen Klima-Alarmisten immer wieder propagierte 2 °C Ziel, das natürlich nur mit CO2-Vermeidung erreichbar sein soll, befremdlich. Der Autor befindet sich in guter wissenschaftlicher Gesellschaft (Hans v. Storch) und darf nicht der Polemik bezichtigt werden, wenn auch er dieses Ziel als das bezeichnet, was es ist: BLANKER UNSINN. In der Fachliteratur ist es praktisch ohnehin nicht aufzufinden.

Quellen:

[1] P.N. Pearson and M.R. Palmer: Atmospheric carbon dioxide concentrations over the past 60 million years, nature, 406, 17.August 2000

[2] Came et al., nature, 449, 13 (2007)

[3] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[4] R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

[5] R.W. Spencer, and W.D. Braswell: Remote Sensing 3(8) (2011),http://tinyurl.com/9cvuz32

[6] R.W. Spencer, and W.D. Braswell: Journal of Geophysical Research, Vol. 115 (2010), http://tinyurl.com/8kd694d

[7] G. Paltridge et al.: Theor. Appl. Climatol. 98 (2009), http://www.drroyspencer.com/Paltridge-NCEP-vapor-2009.pdf

[8] F. Miskolczi: The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness, E&E, 21, No. 4 (2010)

[9] R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

[10] R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), http://tinyurl.com/3mbresk




Besorgnisse eines Naturwissenschaftlers über die deutschen „Vorreiter“

1. Eher politische Vorbemerkung
Ich will nachfolgend aufzeigen, dass die deutschen Meinungseliten sich bei vielen der Themen als Vorreiter verstanden und verstehen, obwohl immer wieder teils schwerwiegende Fehleinschätzungen aufgezählt sind. Neuerdings werden hierzulande gar schwer zu korrigierende Fehlentwicklungen eingeleitet, die dringend Kursänderungen nötig machen. Ich  beobachte mit großer Sorge, dass die politischen und medialen Wortführer eine ungewöhnlich negative Haltung zu Technik, Naturwissenschaft und Industrie einnehmen. Nahezu jede neue wissenschaftlich-technische Entwicklung wird zunächst abgelehnt. Dies steht in krassem Wiederspruch zur selbstverständlichen und ungehemmten Inanspruchnahme technischer Leistungen und technischen Komforts jeder Art, dies gerade auch von ihren Kritikern (z. B. Kommunikationstechnik, Verkehr, Versorgung mit sauberem Trinkwasser, preiswerter Nahrung, Energie, Gesundheitssystem usw.).

Tiefgreifende Entscheidungen der „Vorreiter“ wie z. B. die deutsche Energiewende bleiben aus meiner Sicht fachlich und sachlich völlig unerklärt. Ohne überzeugende Begründung wird von Politikern (= Lehrer, Gesellschaftswissenschaftler, Juristen, Theologen, einige wenige Wirtschaftsfachleute) stattdessen der Auftrag an Naturwissenschaft, Technik, Energieerzeuger erteilt, die Sache schnellstmöglich zu realisieren. Äußern die so Beauftragten Bedenken, werden sie sogleich als „Hintertreiber des an sich Möglichen, und dies natürlich aus Profitgründen“ öffentlich gebrandmarkt. Hier sei Altbundeskanzler Helmut Schmidt zitiert, der kürzlich im ZDF-Interview auf die Frage nach der Ernergiewende präzis wie immer antwortete: “Voreilig!“.

Wichtige Zukunftsbereiche wurden und werden gegen die Erkenntnisse von Wissenschaft und Technik behindert oder verboten, um sich den vorwiegend deutschen Zeitströmungen anzudienen (zunächst die Gentechnik generell, aktuell die grüne Gentechnik). Die politisch Korrekten begründen ihre Entscheidungen, wenn überhaupt, moralisch-ethisch und beanspruchen (fatalerweise) wieder einmal eine Vorreiterrolle für Deutschland. Dies mutet inzwischen recht überheblich und auch ideologisch an. Ob postulierte Risiken tatsächlich existieren und wirtschaftliche Folgen der Entscheidungen tragbar sind, muss offenbar sachlich-fachlich gar nicht mehr begründet werden.

Ich möchte mich mit diesem Beitrag in die Diskussion von Themen einmischen, die für das Industrieland Deutschland immense Bedeutung haben. Ich bin überzeugt, dass ein überwiegender Teil unserer technisch-naturwissenschaftlich Gebildeten eine ähnliche Haltung einnimmt, aber nicht gefragt und nicht gehört wird. Dabei ist dieser Teil unserer Gesellschaft schließlich nicht nur stark involviert in die technisch-naturwissenschaftliche (Weiter-)Entwicklung unseres Landes. In ihren Reihen ist auch ein wesentlicher Teil der Wissens- und Erfahrungsträger versammelt, ohne deren Arbeit der Wohlstand in Deutschland schnell verloren ginge.

2. Mehr inhaltliche Begründung
Ingenieure, Techniker, Naturwissenschaftler und Ärzte sind bisher stille Garanten für die Schaffung und Erhaltung unseres Wohlstandes, für die komfortablen Lebensbedingungen in Deutschland und auch für die stetig wachsende Gesundheit und Lebenserwartung unserer Bevölkerung. Das alles basiert auf der Beherrschung, Anwendung und Verfügbarkeit von Technik und Naturwissenschaft in ihrer ganzen Breite. Das Gleiche gilt für freie Forschungsarbeit und Umsetzung von Forschungsergebnissen. Auch bei uns sind es schließlich Ingenieure, Techniker, Naturwissenschaftler, Ärzte sowie eine vorwiegend mittelständische Unternehmerschaft, die für sauberes Trinkwasser; (bisher) sichere Energieversorgung; reine Luft; klare Gewässer, hohe Hygienestandards sorgen. Die hier erreichten Standards suchen in der Welt ihresgleichen.

Wenn viele dieser Berufsgruppen eher diskreditiert als gefördert werden (Chemie ist Gift, neue Techniken sind gefährlich und unnötig, Industriekonzerne beuten Menschen aus, nur Natur ist gut), werden wir bald an Wohlstand, an Wettbewerbsfähigkeit auf den noch erlaubten Entwicklungsgebieten und auch an Ansehen verlieren, weil der Nachwuchs fehlt. Selbst hohe Umweltstandards sind nicht mit Demonstranten, sondern nur über Spitzentechniken zu realisieren.

Ich möchte auch klar aussprechen, dass die durchweg abschätzige Haltung der politischen und medialen Öffentlichkeit gegenüber modernen technischen Entwicklungen unserem Land große Schäden zugefügt hat und dies gegenwärtig verstärkt fortsetzt. Gefahren, Katastrophen, Risiken für Leib, Leben und besonders gern für die natürliche Umwelt werden hierzulande allzu leicht von solchen gesellschaftlichen Gruppen beschworen, die sich nicht um sachliche Begründungen kümmern, sondern einfacherweise den zuvor selbst erzeugten Zeitgeist dafür heranziehen.

An besonders eklatanten Fehlleistungen aus der Vergangenheit soll aufgezeigt werden, welche deutschen Irrungen und Wirrungen jeweils als unabdingbar dargestellt wurden, sich aber sachlich und fachlich immer als falsch und wirtschaftlich als ruinös herausstellten.

3. Beispiele für unglaubliche Fehlentwicklungen
Die enormen medizinischen Fortschritte der „roten Gentechnik“ wurden zunächst ohne deutsche Beteiligung erreicht, weil solche Forschung und Entwicklung politisch intensiv behindert wurden (z. B. durch Verbot der Produktion von rekombinantem Human-Insulin). Jahre später rief der damalige Bundesforschungsminister Riesenhuber zur „Aufholjagd“ in Deutschland auf, obwohl wir ursprünglich an der Spitze dieser Forschung standen. Der Rückstand war und ist nur mühsam wettzumachen. Eine ähnliche Fehlentwicklung wird die aktuelle Verhinderung von Forschung und Entwicklung auf dem sehr wichtigen Gebiet der grünen Gentechnik zeitigen, wiederum mit vielen Nachteilen für Deutschland (siehe z. B. die empörte Reaktion der Nobelpreisträgerin Nüsslein-Vollhard in dieser Sache ).

Eine weitere sehr kritisch zu bewertende Entscheidung der politischen Vorreiter in Deutschland ist die „Energiewende“. Wissenschaftlich-technisch gesehen ist es barer Unsinn, die Kernenergie als „nicht beherrschbar“ zu verteufeln. Die deutschen Kernkraftwerke belegen seit 50 Jahren das Gegenteil. Und der weltweite Ausbau der Kernenergie ist auch keine Ausgeburt der Dummheit aller Nicht-Deutschen. Wirtschaftlich verursacht der Ausstieg aus der Kernenergie eine kaum zu überschätzende Schwächung der deutschen Industrie, weil elektrische Energie in Deutschland ununterbrochen teurer wird. Die Endlagerfrage wird weltweit immer unwichtiger, weil durch Transmutation abgebrannte Kernbrennstoffe zur weiteren Energiegewinnung genutzt werden können und nur eine ganz geringe Reststrahlung von Kernbrennstoff zurückbleibt. Die nötige Aufbereitungstechnik wird schon bald einsatzbereit sein (wieder ohne deutsche Beteiligung). In unserem Land wird stattdessen von nicht informierten, fanatischen Eiferern demonstriert, die Medien agieren als Verstärker dieses Treibens und setzen die Bevölkerung unsinnig in Angst und Schrecken. All dies kostet viel Volksvermögen, das bei der kontinuierlichen Verbesserung der Lebensbedingungen, der natürlichen und technisch-zivilisatorischen Umwelt, aber auch beim Ausbau der sozialen und kulturellen Errungenschaften unseres Landes weit besser angelegt wäre.

Weiteres Beispiel: Wenn in Deutschland vorhandene Erdgasvorräte durch Fracking gewonnen werden sollen, entsteht sogleich ein medialer und politischer Sturm gegen solches Ansinnen. Deutsches Grundwasser darf auf keinen Fall durch Chemikalien verunreinigt werden! Abgesehen davon, dass hier wieder populistisch argumentiert wird: Dies fordern die gleichen Menschen, die gut beheizte Wohnungen, Flugreisen in warme Urlaubsgebiete, energiesparende Wärmedämmung möglichst vieler Häuser usw. für absolut in Ordnung halten. Sie realisieren dabei nicht, dass die fossilen Energieträger dafür in anderen Ländern aus der Erde geholt werden, deren Grundwasser-Reinheit  offenbar nicht wichtig ist.  (Kann leicht um weitere Beispiele erweitert werden!)

Über den Autor:

Prof. Dr. Hans Hoffmeister wirkte an maßgeblicher Stelle an vielen Programmen und Lehr- sowie Forschungseinrichtungen für das Gesundheitswesen mit. Seine Sorge gilt der Entwicklung und Unabhängigkeit der Wissenschaft, sowie der medial geschürten Technik- und Fortschrittsfeindlichkeit in diesem Lande.

Einige Stationen seines Wirkens waren:

1960 bis Gegenwart        

Umfangreiche wissenschaftliche Tätigkeit auf den Gebieten Biochemie, klinische Chemie, Epidemiologie, Präventivmedizin, Sozialmedizin, Zellbiologie, Biotechnologie. Z. B.: Durchführung der Deutschen Herz-Kreislauf-Präventions-Studie, deren Mitinitiator und Sprecher.

Projektleiter mehrerer Bundesstatistiken und epidemio-logischer Großstudien (Nationale Gesundheits-Surveys, bundesdeutsche Krebsregister, Hessen-Studie, Nordenham-Brake-Studie)

Publikation von über 300 wissenschaftlichen Arbeiten; Autor, Herausgeber oder Mitherausgeber von etwa 30 Büchern

Speziell:

1976:

Programm der Bundesregierung „Forschung und Entwicklung im Dienste der Gesundheit“ wird gestartet/in Kraft gesetzt. Gemeinsames Programm von Gesundheits-, Arbeits- und Forschungsministerium. Inhaltliche Ersterstellung des Programms sowie Texte weitgehend von H. Hoffmeister, als Institutsleiter d. Inst. Soz. Ep. des BGA. Zwei weitere Fortschreibungen des Programms (1979, 1982) werden ebenfalls weitgehend von H. Hoffmeister betreut/verfasst.

1980:

Abkommen zwischen US-Regierung und Bundesregierung zur Zusammenarbeit auf biomedizinischem Gebiet wird geschlossen. Beim ersten Meeting in USA ist  Detlef Ganten Delegationsleiter. Ab dem 2. Treffen in den USA wird diese Funktion von H. Hoffmeister über etwa 10 Meetings in USA und Deutschland wahrgenommen/organisiert. US-Seite: Leiter NHLBI, Dr.Claude Lenfant, Bethesda, NCHS, Dr. Manning Feinlieb, Bethesda

1980:

Vorstudien zur Deutschen Herzkreislauf-Präventionsstudie (DHP) beginnen. Federführung bei der Erstellung des Studienhandbuchs/Texte: H. Hoffmeister.

Nach Start der DHP-Hauptstudie 1983 ab 1984 bis 1996 H. Hoffmeister immer wieder gewählter Sprecher dieser multizentrischen Studie (finanziert mit etwa 100 Mill. DM vom BMFT).

1988:

H. Hoffmeister: Sachverständiger/Berichtersteller Enquete-Komission des Deutschen Bundestages „Demographischer Wandel“

1989:

H. Hoffmeister: Vertreter der Bundesregierung in der Kommission der WHO zur Bekämpfung von Herzkreislaufkrankheiten

1987:

Festakt des Bundesministeriums für Gesundheit im Reichstag, Berlin. „40 Jahre Bundesrepublik Deutschland“. Wissenschaftlicher Festvortrag: H. Hoffmeister. Abendfest im Schloss Bellevue (S. Hoffmeister: Musik), Ministerin U. Lehr.

1995:

Großer Gesundheits-Kongress des Bundesministeriums für Gesundheit, Bonn, mit allen relevanten Institutionen des Deutschen Gesundheitswesens (ÄK, KV, Ärzteorganisationen, Kassen, wiss. Institutionen). Amtsauftakt /Grundsatzrede Minister Seehofer, Reden Staatssektretäre BMA/BMFT. Wissenschaftlicher Eröffnungsvortrag: H. Hoffmeister




Die betrügerische Studie von Cook über den „97%-Konsens“ ist ein Marketing-Trick, auf den einige Journalisten hereinfallen werden.

John Cook, ein Blogger, der die Site mit dem hinterhältigen Titel „SkepticalScience“ betreibt, (der ganz unskeptisch die Mainstream-Position verteidigt), hat versucht, die Schmierenstrategie gegen die Tausende Wissenschaftler wiederzubeleben, die eine abweichende Meinung vertreten. Die neue Studie verwechselt Klimaforschung mit finanziellen Kräften, basiert auf den falschen Hypothesen, benutzt trügerische Schlussfolgerungen, war nicht unabhängig und verwechselt einen Konsens unter Klimawissenschaftlern mit einem wissenschaftlichen Konsens; nicht das ein Konsens irgendetwas beweist, so er überhaupt existiert.

Angesichts der monopolistischen Finanzierung der Klimawissenschaft während der letzten 20 Jahre sind die von ihm gefundenen Resultate vollständig vorhersehbar.

Die zwölf Hinweise, die sich gute Journalisten merken sollten:

1. Tausende Studien unterstützen die vom Menschen verursachte Klimaänderung, aber in keiner einzigen findet sich dafür ein schlüssiger Beweis

Cook mag 3896 Studien gefunden haben, in denen die Theorie, dass menschliche Emissionen das Klima kontrollieren, befürwortet wird, aber er kann keine einzige Studie nennen mit Beobachtungen, die zeigen, dass die Hypothesen der IPCC-Klimamodelle über Wasserdampf und Wolken-Rückkopplungen richtig sind. Diese Hypothesen erzeugen die Hälfte bis zwei Drittel der in den Modellen projizierten Erwärmung. Wenn die Hypothesen falsch sind (und in Dutzenden Studien wird gezeigt, dass genau das der Fall ist), dann ist die vorhergesagte Erwärmung erheblich übertrieben. In vielen der Studien auf seiner Liste geht es um diese falschen Modelle.

Mit anderen Worten, er hat 3896 nicht beweiskräftige und danach gescheiterte bzw. korrekte, aber irrelevante Studien gefunden. Das Wichtigste an seiner Studie ist die Aussage, dass – nachdem Tausende Wissenschaftler die besten Daten, die sie während 20 Jahren finden konnten, ins Spiel brachten – sie immer noch keine schlüssige Unterstützung bekommen haben.

2. Die Studie von Cook zeigt, dass 66% der Studien nicht die vom Menschen verursachte globale Erwärmung befürworten

Cook nennt dies einen „überwältigenden Konsens“.

Sie haben „11944 Klima-Abstracts von 1991 bis 2011 zu den Themen ‚globale Klimaänderung’ oder ‚globale Erwärmung’ untersucht. Wir finden, dass 66,4% der Abstracts keine Haltung zu AGW ausdrückten, 32,6% befürworteten AGW, 0,7% wiesen AGW zurück und 0,3% waren sich über die Ursache der globalen Erwärmung unsicher“.

Vielleicht spiegelt die große Zahl derer, die unsicher waren, einfach folgende Situation: Klimawissenschaft ist kompliziert, und die meisten Wissenschaftler sind sich nicht sicher, von wem oder was das Klima angetrieben wird. Das relative Fehlen skeptischer Studien hier liegt an den in den Punkten 4, 5 und 7 beschriebenen Ursachen. Es ist aber auch in jedem Falle irrelevant. Man braucht nur eine einzige Studie, um zu zeigen, dass seine Theorie falsch ist. Wer zählt?

3. Cooks Methode ist ein logischer Trugschluss: Argument durch Autorität. Das ist nicht Wissenschaft, sondern PR.

Der Unterschied zwischen Wissenschaft und Religion besteht darin, dass nur empirische Beweise zählen und nicht Meinungen. Es gibt keine Götter der Wissenschaft. Daten und nicht Menschen sind die Autorität, die das Sagen hat (es gibt keinen Pabst der Studien). Cook verkehrt das in sein Gegenteil. Das ist Anti-Wissenschaft. Es ist so, als ob sie sagen, dass die Schwerkraft die Erde in ihrem Orbit hält, und sie sagen nicht, dass dies deswegen so sei, weil „97% aller Geophysiker dafür gestimmt haben“.

Cook weiß das (ich erinnere ihn fortwährend daran), aber er tut so, als umgehe er es. Erkennen Sie die Täuschung: „Wissenschaftler müssen ihre Meinungen mit einer auf Beweisen beruhenden Analyse stützen, die die sorgfältige Prüfung durch Experten auf dem Gebiet übersteht. Dies bedeutet, dass begutachtete Literatur ein robuster Indikator des Status’ des wissenschaftlichen Konsens’ sind“. Cook vermutet, dass die Meinungen der Wissenschaftler sofort und akkurat und ausschließlich auf den Beweisen ruhen, als ob Menschen Intel Chips sind. Er vermutet, dass „Begutachtung“ nicht korrupt ist (anders als jede andere menschliche Institution), dass zwei unbezahlte anonyme Begutachter „Sorgfalt“ ist, dass aktivistische Klimawissenschaftler nicht daran arbeiten, Skeptiker aus dem Begutachtungsprozess herauszuhalten und dass Klimagate niemals bekannt gemacht hatte, was wirklich in der Klimawissenschaft los ist.

Müssen Leute, die psychologische Forschungen betreiben, die Grundlagen der menschlichen Natur verstehen? Wissenschaftler können der falschen Ansicht jahrelang anhängen – man schaue nur auf diejenigen, die dachten, dass die Menschen niemals fliegen würden (selbst noch zwei Jahre nach dem ersten Flug der Gebrüder Wright), oder dass Röntgenstrahlen in Schuhgeschäften sicher seien, oder dass Geschwüre nicht infektiös sind oder dass Proteine nicht ansteckend seien (damals BSE genannt).

4. Die Anzahl der Studien ist ein Proxy der Förderung

Mit dem Anwachsen der Förderung dirigierten die Wissenschaftler ihre Arbeiten um auf Felder, die für Zuwendungen attraktiv waren. Das ist keine Konspiration, sondern lediglich Adam Smith [= Adam Riese?] bei der Arbeit. Es gab keine Förderung skeptischer Wissenschaftler, die das IPCC oder die Theorie, dass die vom Menschen durchgeführte Klimawissenschaft die Erwärmung übertreibt, in Frage stellte. Mehr als 79 Milliarden Dollar wurden von 1989 bis 2009 in Forschung und Technologie der Klimawissenschaft gesteckt. Da ist es kein Wunder, das Wissenschaftler sich wiederholende, irrelevante und schwache Ergebnisse hervorbrachten. Die Steuerzahler wurden sogar für Forschungen an klimaresistenten Austern zur Kasse gebeten. Man lasse kein Blatt unumgedreht.

Die schiere Quantität von Abstracts, die die vom Menschen verursachte Klimaänderung befürworten, hat zugenommen, die Förderungen jedoch ebenfalls.

Während des gleichen Zeitraumes wurden 79 Milliarden Dollar in die Klimaforschung und die Entwicklung mit dem Klima zusammenhängender Technologien gesteckt.

Das Problem monopolistisch geförderter Modelle besteht darin, dass es kaum Wettbewerb gibt. Nur wenige Forscher werden dafür bezahlt, Forschungsnischen zu erkunden, die vermutlich mit der Theorie nicht übereinstimmen. Freiwillige, die ihre eigenen Forschungen durchführen wollen, erhalten keinen freien Zugang zu Journalen, haben Schwierigkeiten, an Daten zu kommen (manchmal dauert es Jahre oder es bedarf Gesetzen, sie zu bekommen, und manchmal erhält man sie niemals). Freiwillige verfügen nicht notwendigerweise über die Ausrüstung, die Analysen durchzuführen, und ihnen stehen keine Doktoren oder Ehrenstudenten als Hilfen zur Verfügung. Man bezahlt ihnen auch nicht die Reisen zu Konferenzen, und sie leiden unter der Behinderung, dass sie Zeit aufbringen müssen, um sich unabhängig von ihren Forschungen ihren Lebensunterhalt zu verdienen. Wenn sie wirklich etwas herausfinden, dann stehen keine PR-Teams bereit, ihre Studien zu propagieren oder Presseerklärungen zu formulieren.

In der Finanzwelt gibt es Audits, im Gericht die Verteidigung, im Parlament die Opposition, aber in der Wissenschaft gibt es … was immer die Regierung zu finanzieren gedenkt.

Im Endeffekt gibt es keinerlei Förderung, weder durch eine Zuwendung noch ein Institut, das aktiv die Menschen ermuntert, nach Gründen zu forschen, warum die vom IPVV favorisierte Theorie falsch sein könnte.

5. Die meisten dieser Konsens-Studien vermuten, dass die Theorie korrekt ist, haben dies aber niemals geprüft. Sie sind irrelevant.

Die aufgezählten, die durch den Menschen verursachte globale Erwärmung befürwortenden Studien enthalten auch die „implizite Befürwortung“, was diese Studie mehr zu einer Analyse der Förderung anstatt der Beweise macht. Cook nennt folgendes Beispiel einer Studie mit einer impliziten Befürwortung: …die Sequestrierung von Kohlenstoff in der Erde ist wichtig, um die globale Klimaänderung abzuschwächen. Jeder Forscher, der die Sequestrierung von Kohlenstoff erforscht, hat fast mit Sicherheit die von der oberen Troposphäre ausgehende Strahlung analysiert oder die Hypothesen hinsichtlich der Relativen Feuchtigkeit in Klimasimulationen. Ganz ähnlich wissen Forscher, die Auswirkungen der Klimaänderung an Lemuren, Schmetterlingen oder Eisbären untersuchen, vermutlich wenig über Berechnungen des Wärmegehalts der Ozeane. Diese Forscher sind „ich auch“-Forscher.

Falls eine konservative Regierung Milliarden ausgegeben hat, um die Kosten gescheiterter Klimamodelle und die Auswirkungen desaströser grüner Programme zu analysieren, sind Skeptiker in der Lage, genauso viele ich-auch-Studien wie Cook zu nennen. (Aber wir würden es nicht tun, weil die Analyse des Klimas mit Stichwort-Studien [keyword studies] keine Wissenschaft wäre.

6. An Gläubige wurde 3500 mal mehr Geld gezahlt als an Skeptiker (aus allen Quellen zusammen).

Cook scheint zu glauben, dass es organisierte Bemühungen gibt, die Öffentlichkeit zu verwirren. Handelt es sich hier um eine schändliche Absicht mit konspirativen Vorschlägen mysteriöser Kampagnen?

Kampagnen, die darauf abzielen, die Öffentlichkeit über das Niveau der Übereinstimmung unter den Klimawissenschaftlern zu verwirren, tragen zu dieser ‚Konsens-Lücke’ bei.

Angesichts seiner Verwirrung darüber, was Wissenschaft ist, denkt er möglicherweise, dass die Leute ihn zu verwirren versuchen, wenn sie es ihm direkt sagen.

Sein eigener persönlicher Bias bedeutet, dass er der falsche Mann für diese Studie ist (falls das Ganze wirklich einer Studie wert ist, was es nicht ist).

Sie trägt alle Anzeichen aktivistischer Propaganda, nicht Forschung. Cook versucht zu vermitteln, dass Skeptiker es für Geld tun, und ignoriert völlig, wohin die Gelder wirklich fließen. Die Regierungen haben nicht nur 79 Milliarden Dollar in die Forschung gesteckt, sie geben auch jedes Jahr 70 Milliarden Dollar an Subventionen für Erneuerbare aus (eine Industrie, die davon abhängig ist, dass Forscher einen Zusammenhang finden zwischen Kohlendioxid und einer katastrophalen Klimaänderung). Kohlenstoffmärkte setzen pro Jahr größenordnungsmäßig um 170 Milliarden Dollar um, und Investitionen in Erneuerbare summieren sich zu einer Viertelbillion Dollar [a quarter of a trillion dollars]. Diese persönlichen Interessen hängen vollständig von der Verbindung mit einer Katastrophe ab – wo steckt der Sinn, Kohlenstoffemissionen zu stoppen, wenn der Kohlenstoff nicht zu einer Krise führt? Und gegen all diese Milliarden glaubt Cook, dass eine 20 Jahre alte Zahlung von 150000 Dollar von Western Fuels der Erwähnung wert ist. Was genau war das große Verbrechen von Western Fuels? Ihr primäres Ziel bestand vermutlich in der Sünde zu versuchen, die globale Erwärmung als Theorie, nicht als Faktum zu beschreiben, was zufälligerweise genau stimmt, außer das die „globale Erwärmung“ technisch nicht einmal eine Theorie, sondern eine Hypothese ist, also etwas mit viel geringerem wissenschaftlichen Gewicht.

Spielt Klimageld eine Rolle? Ist ein Monopol gut für einen Markt?

Glauben Sie, dass Sie – im Falle Ihnen stünden 79 Milliarden Dollar zur Verfügung – 3896 Studien veröffentlicht bekommen?

7. Beim Suchen nach Stichworten findet man die wichtigsten skeptischen Studien nicht

Die Suche nach Stichworten fördert mit größerer Wahrscheinlichkeit eher „Konsens“-Studien zutage. In vielen skeptischen Studien kommen die Begriffe „globale Erwärmung“ oder „globale Klimaänderung“ gar nicht vor. Beispiele: Svensmark (1998), Douglass (2007), Christy (2010), Loehle (2009) und Spencer (2011). Waren sie enthalten? Vielleicht, aber sie scheinen nicht zu den Suchbegriffen zu passen. Dies sind lediglich einige wenige grundlegende Studien, die nicht gefunden worden sind.

Aktualisierung: Lucia und JunkPschology bestätigen in Kommentaren, dass diese genannten sechs Studien nicht in Cooks Liste aufgetaucht wären. Also kann ich in lediglich einer halben  Stunde in einer Stichprobensammlung leicht wesentliche Studien von Skeptikern aufrufen, die aus der Liste von Cooks primitiver Stichwortsuchliste herausfallen. Wie viele andere findet er auch nicht?

8. Einige dieser Abstracts sind 20 Jahre alt – ändern zwei Jahrzehnte neuer Beweise irgendetwas?

Vor 20 Jahren hat das IPCC vorhergesagt, dass wir eine Erwärmung um 0,3°C pro Dekade bekommen werden. Der bisherige Erwärmungstrend lag deutlich noch unterhalb ihrer niedrigstmöglichen Abschätzung egal welchen wesentlichen Datensatz man heranzieht. Damals wussten die Wissenschaftler noch nicht, dass es in Eisbohrkernen eine Verzögerung von 800 Jahren gab (wobei die Temperatur Jahrhunderte vor einem Anstieg des Kohlendioxids gestiegen ist). Im Jahr 1992 haben die Wissenschaftler noch nicht mitbekommen, dass die Erwärmung schon bald fünfzehn Jahre lang zum Stillstand kommen würde. Sie wussten nicht, dass 28 Millionen Radiosonden zeigen würden, dass ihre Modelle auf falschen Hypothesen über Wasserdampf beruhen. Sie wussten nicht, dass 3000 ARGO-Bojen schließlich zum ersten Mal adäquat die Ozeane vermessen würden (seit 2003) – und herausfinden würden, dass die Ozeane nicht wie in ihren Modellen simuliert die fehlende Energie speichern oder sich auch nur annähernd so schnell aufheizen wie die Modelle vorhergesagt hatten. Mit anderen Worten, selbst wenn es 1992 einen Konsens gegeben hat, ist das irrelevant.

9. Naomi Oreskes hat 928 Studien gefunden mit Abstracts, die die vom Menschen verursachte globale Erwärmung nicht explizit zurückgewiesen haben. So? Die Skeptiker haben 1100 Studien gefunden, die skeptische Standpunkte stützen.

Skeptiker veröffentlichen keine Presseerklärungen, die behaupten, dass das irgendeine wissenschaftliche Bedeutung hat. Es bedeutet vielmehr, dass die Medien und das IPCC blind und taub gegenüber massenhaften Beweisen sind, und dass der Ausdruck „Leugner“ … nun, Marketing ist, nicht Wissenschaft. Die Leute, die die Existenz dieser 1100 Studien leugnen, sind diejenigen, die die anderen Wissenschaftler mit Ausdrücken verunglimpfen. Wann endlich werden Journalisten das zur Kenntnis nehmen?

Angesichts der Geldsummen, die gezahlt worden sind, um Beweise zu finden – die Frage, die echte Investoren stellen sollten lautet: „ist das alles, was sie gefunden haben?“

10. Wollen Sie Autoritäten? Die Skeptiker können 31500 Wissenschaftler benennen, die deren Standpunkten zustimmen, darunter 9000 mit einem PhD, 45 NASA-Experten (einschließlich zweier Astronauten, die den Mond betreten hatten) und zwei Gewinner des Physik-Nobelpreises.

Skeptiker veröffentlichen keine Presseerklärungen, die behaupten, dass wir den Gläubigen an Zahl überlegen sind, aber Skeptiker bevorzugen es, die Beweise vorzubringen. Cook ignoriert die Autoritäten, die ihm nicht folgen. Skeptiker bekommen Nobelpreise, aber Gläubige scheinen nur Preise für den Frieden zu bekommen. Phil Jones ist einer der größten Experten unter den Klimawissenschaftler-Experten, aber er konnte in Excel keine lineare Trendlinie erzeugen. Andererseits waren einige Skeptiker auf dem Mond.

Kein Wunder, dass die Öffentlichkeit nicht glaubt, dass es einen Konsens gibt. Es gibt unter den Wissenschaftlern keinen Konsens.

Cook glaubt gefunden zu haben, dass die Öffentlichkeit durch eine vorsätzliche Kampagne genarrt worden ist, aber solange verschlagene Skeptiker Kontinente unter Wasser oder mit Schnee überziehen können, kann es sein, dass die Öffentlichkeit das Scheitern der Modelle mit eigenen Augen erkennen kann.

11. Was ist mit den wissenschaftlichen Vereinen? Aber sie bestehen nicht aus Massen von Wissenschaftlern – sondern bilden lediglich ein Komitee mit sechs von ihnen.

Die meisten wissenschaftlichen Vereine fordern ihre Mitglieder niemals zur Abstimmung auf (oder, wenn das doch der Fall ist, legen bizarre Regeln fest, wie es die Royal Society getan hatte, die ihre Mitglieder kürzlich aufforderte, mit Ja oder mit Ja zu stimmen bei der Frage, ob man Prinz Andrew die Mitgliedschaft antragen sollte). Wenn wissenschaftliche Vereine alle ihre Mitglieder befragen, bestehen die meisten Antworten aus einem nachhallenden „nein“. Mit den Milliarden Dollar im Hintergrund – ist es da ein Wunder, dass unermüdlicher Aktivismus seitens Regierungsabteilungen, Erneuerbaren-Unternehmen und andere Akademiker verzweifelt versuchen, den Geldzug am Rollen zu halten, dazu gedacht, die Komitees in den Schatten zu stellen?

12. Cook sagt im Wesentlichen, dass es hier nicht um einen wissenschaftlichen Streit geht – sondern es ist eine Taktik, die öffentliche Meinung durch Wiederholen der Trugschlüsse zu ändern.

Im ersten Satz sowohl im Abstract als auch in den Conclusions heißt es, dass es in dieser Studie um die öffentliche Auffassung und die Regierungspolitik geht. Es geht nicht um Wissenschaft. Sie ist gedacht zu helfen, die öffentliche Meinung zu ändern. Es gab keinen Versuch herauszufinden, ob es einen wissenschaftlichen Konsens gibt – geschweige denn einen Konsens unter allen Wissenschaftlern. Cook erklärt pragmatisch: falls die Menschen glauben, dass es einen Konsens gibt, unterstützen sie bereitwilliger eine Politik zur Abschwächung der globalen Erwärmung. Wir wissen von Cooks früheren Verlautbarungen, dass er persönlich politische Maßnahmen bevorzugt, das Wetter zu ändern. Finanziert der australische Steuerzahler Forschungen, um etwas Neues zu erfahren, oder um die öffentliche Meinung und das Wählerverhalten zu ändern? (wie wurde diese Studie finanziert? In den Danksagungen [acknowledgements] steht davon nichts?)

Cook fährt fort, mit Ausdrücken um sich zu werfen sowie mit dem unwissenschaftlichen Missbrauch der englischen Sprache.

Selbst Cook räumt ein, dass der Ausdruck „Klimaleugner” nicht gerechtfertigt ist, und doch benutzt er diesen Ausdruck weiterhin. Es ist ein Missbrauch der englischen Sprache, der Außenstehende dazu bringt zu glauben, dass Cook hier einen echten Punkt macht. Wenn die Beweise, die sie haben, wirklich so überwältigend sind, warum wollen Cook und andere dann nicht in eine höfliche Diskussion einsteigen? Man zeige uns einfach die fehlenden Beweise! Man zeige uns relevante Modellvorhersagen von vor 20 Jahren, die sich als richtig herausgestellt haben. Der alte Trick mit anschwärzen und beschimpfen funktioniert nicht mehr.

Cook behauptet auch, dass jedes Abstract von „zwei unabhängigen, anonymisierten Bewertern“ kategorisiert worden ist. Und doch kommen die Bewerter aus seinem Partisanen-Blog, haben ihr Rating miteinander besprochen und eingeräumt, dass sie unter sich nicht unabhängig waren. Was also bedeutet „unabhängig“? Können wir stattdessen englisch sprechen?

Wissenschaft hat keine Götter

Willkommen bei den letzten Resten der Großen Angst-Kampagne, wobei die Endzeit-Strategie darin besteht, einfach das zu wiederholen, was zuvor so gut funktioniert hat, was erbärmlich falsch und ausgesprochen unwissenschaftlich ist, bis zu einer Verfügung, dass wir an die Götter der Wissenschaft glauben müssen.

Das Traurige dabei ist, dass einige Umwelt- und „Wissenschafts“-Reporter so geringe Kenntnisse haben, dass sie auf das hereinfallen, was im Wesentlichen Marketing ist, das im wissenschaftlichen Mäntelchen daherkommt.

Wenn nun nur die Überzeugten Beweise für ihre bevorzugte Lieblingstheorie haben? Dann wären Aktivisten wie Cook in der Lage, öffentlich zu diskutieren, höflich zu bleiben und ihre Sache zu erklären anstatt auf billige Schmähungen, fragwürdige Forschungen und irreführende Statements zurückzugreifen.

Link: http://joannenova.com.au/2013/05/cooks-fallacy-97-consensus-study-is-a-marketing-ploy-some-journalists-will-fall-for/

Übersetzt von Chris Frey EIKE




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #50 bis #52

(Zur Denominierung des Dual Fluid Reaktors, siehe auch hier und hier)

Die Unsinnsbehauptungen gegen Kernenergie kumulierten vor einiger Zeit in den „100 guten Gründen gegen Atomenergie”, einem Machwerk der Elektrizitätswerke Schönau (EWS) unter der Regie der „Stromrebellen” Ursula und Michael Sladek. Letztere sind übrigens momentan eifrig dahinter, auch das Berliner Stromnetz unter Ökoregie zu stellen – ein Geschäft mit äußerst lukrativen Margen. Und die gutgläubigen Umweltfreunde bekommt man gratis als Helfer.

KRITIKALITÄT geht auf sämtliche der aufgestellten „100 guten Gründe” (tatsächlich sind es 115) mit einer Gegendarstellung ein und belegt diese auch mit ordentlichen Quellen. Das Ergebnis sind die „100 guten Antworten”. Zu jedem Grund-Antwort-Paar gibt es ein Forum, auf dem diskutiert, kommentiert, und natürlich auch auf Fehler hingewiesen werden darf. Insbesondere Kernkraftgegner sind hier herzlich eingeladen, bisher hat sich jedoch keiner blicken lassen.

Die 115 Gründe sind in 10 Kategorien eingeordnet. Auf EIKE werden die 100 guten Antworten in kleineren Portionen veröffentlicht. Lesen Sie nun die Gründe der EWS #50-#52, die zur Kategorie „Atommüll & Entsorgung” gehören, sowie deren Richtigstellungen durch KRITIKALITÄT. Hier geht es um die Wiederaufarbeitung von Brennelementen, was angeblich den „Atommüll” vergößern soll (#50, durch Verdünnen!). Dabei sollen riesige zusätzliche Mengen „Atommüll” entstehen, die bei den Anlagen in La Hague und Sellafield lagern – richtig, es handelt sich um harmloses Uran (#52). Am besten amüsiert aber die Geschichte der Greenpeace-Aktivisten, die nicht durch den Zoll kamen, #51. Viel Vergnügen!

Nun zu Hundert gute Antworten #50 – #52, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013, 9.5.2013, 18.5.2013, 24.05.2013 und 2.05.13.

#50: Wiederaufarbeitungslüge I

Behauptung: Die sogenannte Wiederaufarbeitung von Brennelementen macht aus Atommüll noch mehr Atommüll.

Die EWS behaupten

Wiederaufarbeitungsanlage – das klingt ein bisschen nach Recyclingstation. Tatsächlich wird nur etwa ein Prozent des wiederaufgearbeiteten Atommülls in neue Brennelemente eingebaut: das Plutonium. Unter dem Strich gibt es nach der Wiederaufarbeitung mehr Atommüll als zuvor. In Frankreich heißen Wiederaufarbeitungsanlagen daher schlicht ›usine plutonium‹, Plutoniumfabrik.

Wiederaufarbeitungsanlagen sind auch die größten radioaktiven Dreckschleudern der Welt. Die sogenannten MOX-Brennelemente (mit Plutonium aus der Wiederaufarbeitung) sind bei Herstellung, Transport und Einsatz im Atomkraftwerk noch deutlich gefährlicher als frische Brennelemente nur aus Uran. Daneben liefert die ›Plutoniumfabrik‹ auch den Rohstoff für Atombomben.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Ein Prozent des „Atommülls” – das soll nach wenig klingen. Bedenkt man aber, dass dieses eine Prozent Plutonium 99,99% der Langzeit-Radiotoxizität ausmacht, also praktisch das gesamte Endlagerproblem dominiert, ist das sehr viel. Dieses Plutonium kann nun, eingebaut in MOX-Brennelemente, wie das angereicherte Uran gespalten werden. Man halbiert also die Endlagermenge bei gleichzeitiger Verdoppelung des Energiegewinns. Ein besseres Beispiel für „Recycling” kann man sich kaum vorstellen.

Eine Verdünnung des Abfalls als „Vergrößerung” zu bezeichnen ist mehr als irreführend. Die geringen Mengen an Emissionen von Wiederaufarbeitungsanlagen sind unterhalb der strengen Freigrenzen und stellen somit überhaupt keinen Abfall mehr dar. Sollte jemand bei den Emissionen, wie suggeriert, Rechtsverletzungen festgestellt haben, steht in traditionellen Rechtsstaaten wie Frankreich und Großbritannien der Rechtsweg offen. Dieser wurde bisher offenbar nicht beschritten.

Prinzipiell kann auch waffenfähiges Plutonium in einer Wiederaufarbeitungsanlage abgetrennt werden, nur trifft dies auf die normalen Brennelemente, die jahrelang in Leichtwasserreaktoren waren, definitiv nicht zu. Auch besteht daran überhaupt kein Interesse mehr, denn mit Anreicherungsanlagen für Uran kann das gleiche militärische Ziel viel effektiver erreicht werden – völlig unabhängig von Kernkraftwerken und Wiederaufarbeitung.

Quellen von KRITIKALITÄT


#51: Atommüll am Strand

Behauptung: Wiederaufarbeitungsanlagen sind radioaktive Dreckschleudern.

Die EWS behaupten

Die Wiederaufarbeitungsanlagen in La Hague (Frankreich) und Sellafield (Großbritannien) geben große Mengen radioaktiver Stoffe an die Luft, den Ärmelkanal und die Irische See ab. In der Umgebung der Anlagen ist die Blutkrebsrate (Leukämie) bei Jugendlichen bis zu zehn Mal so hoch wie im Landesdurchschnitt.

Greenpeace nahm vor einigen Jahren am Abflussrohr von Sellafield ein paar Schlammproben. Bei der Rückkehr wurden diese von den deutschen Behörden umgehend beschlagnahmt – es handelte sich schließlich um Atommüll.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Der alte und sehr medienwirksame Mythos der „Leukämie-Häufung” in der Umgebung kerntechnischer Anlagen wird trotz mehrfacher Widerlegung immer wieder aufgewärmt. Dabei werden mehrere Fakten ständig ignoriert. Zum einen können die Strahlenwerte, die gerade in der Umgebung solcher Anlagen besonders streng überwacht werden, unmöglich die Ursache sein, andernfalls hätte man schon allein durch Schwankungen der natürlichen Radioaktivität gigantische Auswirkungen mit sehr deutlichem Zusammenhang festgestellt. Desweiteren ist Leukämie bekannt, gehäuft aufzutreten. Gelegentlich tauchen derartige Häufungen, sogenannte „Cluster”, auch in der Nähe kerntechnischer Anlagen auf, aber eben nicht ungewöhnlich häufig. All diese Fakten hat insbesondere der 14. COMARE-Report von 2011 klargestellt.

Ansonsten sind die Emissionswerte von Sellafield, selbst die von Greenpeace gemessenen, bedeutungslos. Dies sieht man allein schon daran, dass die Greenpeace-Mitarbeiter, die direkt neben dem Abflussrohr gefischt haben, noch bei bester Gesundheit waren. Hätten sie an einem Fäkalienabfluss getaucht, könnte man daran zweifeln. Die Anlagen, früher militärischen Zwecken dienend, wurden und werden für die Zivilnutzung stark verbessert. Nach Angaben des Schweizer Paul-Scherrer-Instituts haben sich die damals ohnehin eher geringen Emissionen seitdem auf ein Hundertstel reduziert. Die dort zitierte OECD bescheinigt, wie die Messwerte auch zeigen, keine nennenswerte radiologische Mehrbelastung (siehe auch #50).

Die angebliche Beschlagnahme der Greenpeace-Schlammproben überrascht wenig – auch gewöhnliche Bananen haben schon den Strahlenalarm der empfindlichen Sensoren ausgelöst. Vermutlich wurde der Schlamm aber aus ganz anderen Gründen beschlagnahmt, über die hier nicht weiter spekuliert werden soll. Die Proben mit einer Intensität von grob 10 Kilobequerel pro Kilogramm, darunter kleine Mengen Aktinide, sind, selbst wenn man sie essen würde, radiobiologisch nicht gefährlich, überschreiten aber absurd niedrige deutsche Grenzwerte für die Freigabe. Deshalb ist dies aber kein „Atommüll“, sondern wird auf normalem Wege entsorgt, eventuell dekontaminiert.

Quellen von KRITIKALITÄT


#52: Wiederaufarbeitungslüge II

Behauptung: An den Wiederaufarbeitungsanlagen in Frankreich und Großbritannien lagern noch immense Atommüllmengen aus Deutschland.

Die EWS behaupten

Mehrere Tausend Tonnen abgebrannte Brennelemente haben die Atomkraftwerksbetreiber in den vergangenen Jahrzehnten zu den Wiederaufarbeitungsanlagen in La Hague und Sellafield transportiert. Nur ein kleiner Teil dieses Mülls kam bisher per Castor-Transport nach Deutschland zurück. Der große Rest liegt noch immer im Ausland auf Halde.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Bei dem „großen Rest” handelt es sich im wesentlichen um Uran, wie man der 1. Literaturquelle des Grundes #52 entnimmt, das in seiner Zusamensetzung dem Natururan ähnlich ist. Letzteres würde man wohl kaum als „Müll” bezeichnen, hat man es doch mit großem Aufwand aus dem Boden geholt. Das ist genau das Gegenteil von Müll, nämlich Rohstoff.

Die Nutzungsrechte für dieses Uran liegen ursprünglich bei den deutschen Energieversorgungsunternehmen, die diese im Zuge des deutschen „Atomausstiegs” vermutlich entgeltlich an Dritte abgetreten haben. Dass man es nicht exakt wie Natururan verwenden kann (d.h. anreichern und zu Brennelementen verarbeiten) liegt an der leichten Isotopenverunreinigung – die Bearbeitung wäre aufwändiger als die von Natururan. Da aber auch dessen Förderung mit der Zeit aufwändiger wird, lohnt es sich früher oder später. Auch neue Techniken wie die Laser-Anreicherung können dieses Uran sehr schnell attraktiv machen. Derweil liegt es eben „auf Halde”.

Als Brennstoff für Reaktoren vom Typ „Schneller Brüter” wäre es unmittelbar geeignet, aber der war ja von der Antiatombewegung nicht erwünscht.

Quellen von KRITIKALITÄT





Die Gründe für das Sommerhochwasser 2013

….wenn manch deutsche Journalisten versuchen eigenständig zu denken, möchten wir Ihnen nicht vorenthalten.

So schrieb Herr Harald John jüngst in einem Leitartikel in der LVZ (Leipziger Volkszeitung) folgendes Statement:

“Schuld ist der von vielen immer noch geleugnete Klimawandel, der nicht nur zu kurzen, extrem heißen Sommern und langen, kalten Wintern führt, sondern auch zu stärkeren Stürmen und sehr langen, heftigen Regenfällen. Natürlich wird sich keine Statistik finden, die diesen Anstieg unmittelbar und für jedes Jahr nachweisen kann. Aber in der Tendenz sind sich die Experten einig: Extreme Wetterlagen nehmen deutlich zu.“

Da konnte auch BILD nichts abseits sehen und legte am 12.06. nach:

“Klimawandel schlägt voll zu“.

Die Aussagen unserer sog. Klimaforscher, wie Mojib Latif, zum aktuellen Hochwasser, erinnerten den Autor spontan an eine Comic-Lektüre, die er in seiner Jugend las – “Asterix und der Seher“. Bei Filmproduktionen wird an dieser Stelle immer angegeben. “Ähnlichkeiten mit lebenden Personen sind rein zufällig“.

Da haben wir´s, Schuld ist der Klimawandel und natürlich die Leugner, ohne die gäbe es dann wohl auch keine Flut und damit auch kein Elend – die logische Fortführung solchen Unsinns. Nein, zu dem Elend, den Prüfungen der Betroffenen, kommt das bekannte geistige Elend, nicht zuletzt hervorgerufen durch ideologische Verblendung oder politische Gleichschaltung, der deutschen Mediengesellschaft. Aber was können wir unseren Lesern, den wissenschaftlich interessierten Menschen, denn als Erklärung anbieten, dass sich in der heutigen Zeit solche Naturkatastrophen (scheinbar) häufen. Auf komplexe Themen gibt es meist keine einfache Antwort. Die Gründe sind vielfältig. Mit einem beschworenen, menschengemachten Klimawandel hat dies jedoch wenig zu tun. So ist das einzig „menschengemachte“ der statistische Vergleich, der solch Aussagen wie “Jahrhundertflut“ hervorbringt.

Sowenig wie bei den Temperaturen, können heutige Ereignisse nicht einfach mit früheren verglichen werden, da bekanntlich die Zeit den Raum ändert und wenn der Mensch diesem „Naturgesetz“ auch noch dadurch „Nachhilfe“ erteilt, indem er Flussläufe begradigt, natürliche Überflutungsgebiete, sprich Auen oder Sumpflandschaften entwässert und der Bebauung und/oder Besiedlung zugänglich macht, dann verändert er damit statistische Vergleiche. Mehr noch, er macht sie unmöglich.

So war in den Medien zu hören, dass an der Elbe eine künstliche Aue (Überflutungsgebiet) geschaffen wurde, die den Fluss entlastete und eine Pegelentlastung um 35 cm brachte. In früheren Jahrhunderten hatten unsere Flüsse dutzende solcher möglichen Überflutungsgebiete, die alle dafür sorgten, dass keine großen Flutwellen entstehen konnten und wenn doch, waren diese auf heutige Verhältnisse hochgerechnet, viel gravierender (Abb.1), als die heutige. Nein, wir haben nicht ein mehr an „Jahrhundertfluten“, nur ein mehr an Halbwissenden und leider ein mehr an Hochwasserbetroffenen, denen unser Augenmerk und unsere Hilfe zukommen sollte. Nicht einem Phantom, das es gar nicht gibt.

Abb.1: Flugschrift zum Hochwasserereignis 1651, Quelle: Bayer. Staatsbib. München, Fl.-Nr. 03099 aus “Zur Temperatur- und Hochwasserentwicklung der letzten 1000 Jahre in Deutschland“, R. Glaser, Ch. Beck, H. Stangl.

So befasst sich der DWD, der sicherlich nicht dem Lager der “Klimaleugner“ zugeordnet werden kann, vorrangig mit Erwärmungsauswirkungen (z.B.: Seine Erwärmungsprognose für das Jahr 2100), wie sie dem (menschengemachten) Klimawandel angeheftet werden und kommt zu folgendem Schluss „Langfristig seit Beginn des 20. Jahrhunderts zeigt sich zumindest großräumig kein signifikanter Trend zu mehr Trockenheit in Europa.“ (DWD, Bissolli et al., “Trockenheit in Europa im Frühjahr 2012“).

Während sich der DWD (diesmal) nicht mit Zukunftsdeutungen beschäftigte, gab Herr Prof. Schellnhuber vom PIK einer erstaunten Öffentlichkeit, anhand von Computerprogrammen  im September 2012 zu Protokoll (Fokus, 24.09.2012) ““Ostdeutschland wird durch größere Hitzewellen im Sommer und mehr Niederschläge im Winter wahrscheinlich härter getroffen“, sagte Pik-Direktor Hans Joachim Schellnhuber am Freitag in Berlin.“ (http://www.focus.de/wissen/klima/klimaprognosen/tid-27463/von-hitze-bis-hochwasser-der-klimawandel-trifft-vor-allem-den-osten-deutschlands_aid_825826.html). EIKE berichtete darüber: (http://www.eike-klima-energie.eu/climategate-anzeige/klimafolgenforscher-schellnhuber-ruft-mal-wieder-zum-umdenken-auf-kassandrarufe-statt-fundierte-wissenschaft/).

Von einem Rinnsal kann bei der Elbe nun wahrlich keine Rede sein. In Ostdeutschland sinkt auch nicht der Grundwasserspiegel, wie dies am Beispiel Brandenburgs anhand von Berechnungen bereits eintreten soll, sondern dieser steigt seit Jahren. Bei unseren Freunden aus der Klimaerwärmungsfraktion werden allzuoft Realität und Fiktion miteinander verwechselt.

Da darf natürlich auch der andere Zukunftsseher, Prof. Latif, nicht hinten anstehen. Das ZDF (12.06.) gibt ihm wieder eine Plattform für seine seherischen Statements “Zwar gab es bereits 1613 die Thüringer Sintflut und 1501 ein Extremhochwasser in Passau. Doch diese Jahrhunderthochwasser häufen sich in den letzten Jahren – das sieht man an Beispielen wie dem Oderhochwasser 1997 und 2009, der Elbeflut 2002 und nun dem Jahrhunderthochwasser 2013. Wetterphänomene im Einzelnen könne man nicht auf den Klimawandel zurückführen, erklärt Meteorologe Mojib Latif. Vielmehr müsse man die Häufung und die Intensität der Ereignisse über einen langen Zeitraum betrachten. Denn erst durch die Beobachtung des globalen Klimas über Jahrzehnte ließen sich Trends ausmachen. Steigt die Erwärmung der Erde unverändert weiter, scheint jedoch ein Trend bereits vorgezeichnet: Das Klima in Deutschland wird extremer, Wechselspiele zwischen Hitze und großer Trockenheit sowie sintflutartigen Regenfällen werden keine Seltenheit mehr sein.“

Diese Aussage stammt von demselben Latif, der im Jahr 2000 dem Spiegel (“Winter ade: Nie wieder Schnee?“) folgendes übermittelte: In Deutschland gehören klirrend kalte Winter der Vergangenheit an: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“, sagt der Wissenschaftler Mojib Latif“ Angesichts der eingetretenen Realität und der in unserem Land eingeführten „Winterreifenpflicht“, fürwahr eine Lachnummer. Offensichtlich hat Herr Prof. Latif nichts dazugelernt und bleibt bis zum heutigen Tag bei seinen Lachnummern.

Das „Geschäft mit der Zukunft“ hat indes eine lange Tradition. Bereits unsere Vorfahren versuchten aus den Innereien von Tieren die Zukunft zu ergründen – Gänseleber und Krötenblasen waren sehr beliebt. Die Spätgermanen von heute, wie an den Beispielen Latif und Schellnhuber gezeigt, versuchen wieder aus Innereien in die Zukunft zu sehen, diesmal sind das die Bytes und Flops der Supercomputer – mit demselben Ergebnis. Doch zurück zur Realität.

Bereits bei der „Jahrhundertflut“ an der Elbe in 2002, wurde wissenschaftlich untersucht, ob diese mit einem menschengemachten Klimawandel in Verbindung zu bringen ist, bzw. inwieweit sich eine Tendenz zu höheren Pegelständen zeigt (Abb.2). (Nature, vol. 425 vom 11. September 2003, ”No upward trends in the occurrence of extreme floods in central Europe”,Mudelsee et al.).

Abb.2: Die Untersuchungen von Mudelsee et al. lassen in ihrer Deutlichkeit keinen Zweifel, weder ist eine Tendenz zu höheren Pegelständen zu sehen, noch zu vermehrtem Hochwasser. Darüber hinaus zeigen seine Untersuchungen, dass auch in früheren Zeiten mehrere „Jahrhundertereignisse“ zeitnah auftraten. Anhand seiner Untersuchungen, das letzte mal um 1700 (untere Zeitreihe).

Wie am Beispiel Latif gezeigt, wird von der Klimaerwärmungsfraktion, gern die Vokabel  „Jahrhundertereignisse“ verwendet. Womit dann dem Betrachter signalisiert werden soll, hier liefe etwas „aus dem Ruder“, wenn solche vermehrt auftreten. Die Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin schrieb zu diesem heute so gern verwendetem Begriff bereits am 27.03.1981:

“Jedes Jahr mehrere Ereignisse, die jedes höchstens einmal im Laufe eines Menschenlebens zu erwarten gewesen wären – und das soll normal sein? – Die Antwort lautet: ja.

Um diese Antwort zu geben oder nachzuvollziehen, bedarf es im folgenden einer einfachen Rechnung und einer Portion gesunden Menschenverstands.

Wir machen uns dazu eine (unvollständige) Liste von wichtigen Wetterereignissen der Art, daß sie mit „dies trltt in 100 Jahren genau 1x auf“ umschrieben werden können:

Der kälteste/wärmste Monat m seit 100 Jahren: 24,

der nasseste/trockenste Monat n seit 100 Jahren: 24 ,

der sonnenreichste/-ärmste Monat o seit 100 Jahren: 24,

der stürmischste Monat p seit 100 Jahren: 12,

der kätteste/wärmste m Tag seit 100 Jahren: 24,

der nasseste/sonnenreichste n Tag seit 100 Jahren: 24,

der stürmischste p Tag seit 100 Jahren: 12,

sowie

die k./w., n.It., sr ./sä., st. Jahreszeit z seit 100 Jahren 28,

Dies ergibt nach Ablauf von 100 Jahren summa summarum 172 definierte Jahrhundertereignisse dieser Art allein in Berlin; anders ausgedrückt sind innerhalb von 3 Jahren etwa 5 Jahrhundertereignisse dieser Art allein für Berlin zu erwarten.“

Was zeigt uns die statistische Untersuchung am Institut für Meteorologie der Freien Universität Berlin? Mit diesem Begriff “Jahrhundert..“ soll Panik verbreitet werden, obwohl er lediglich Normalität beinhaltet. Latif und Co. wollen wieder einmal die Bürger für dumm verkaufen. Wen wundert’s, dass ihnen dieses bei den deutschen Journalisten wieder einmal gelungen ist, deren Kenntnisse meist an der Oberfläche enden (EIKE berichtete mehrfach darüber).

Da Latif und Co. also gerne Taschenspielertricks anwenden, um ihrem Publikum Ladenhüter zu verkaufen, soll nicht unerwähnt bleiben, dass die von Latif so geheimnisvoll genannten „Extremereignisse“, die derzeit eintreten und für die nächsten Jahre erwartet werden, für unsere Breiten nach einem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus, nichts ungewöhnliches sind, sondern Normalität. In seiner EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels, Teil 8“ hat der Autor bereits darauf hingewiesen. (http://www.eike-klima-energie.eu/lesezeichen-anzeige/teil-8-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/) Exemplarisch zeigt die Abb.3, dass in Mitteleuropa in den ersten Jahrzehnten nach einem Hauptsonnenzyklus die Temperaturen (und mit ihnen auch die Wetterereignisse) starken Schwankungen unterliegen. Der Hauptsonnenzyklus hatte übrigens in 2003 sein Maximum, als Europa unter einem Hitzesommer litt. Seither fällt die solare Aktivität stark ab.

Abb.3: Die Abbildung, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von München im Zeitraum von 1781 – 1991. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen am stärksten zwischen warm und kalt (rote Fläche). Bis zu dessen Minimum sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein relatives Minimum und steigen dann kontinuierlich an (schwarze Linien). Der Grund für die starken Schwankungen nach einem Hauptsonnenzyklus sind nach Ansicht des Autors auf die unterschiedlichen Wärmekapazitäten von Wasser auf der einen und Land/Atmosphäre auf der anderen Seite zurückzuführen. Nach den Untersuchungen von Prof. Solanki (Direktor Max Planck Institut für Sonnenforschung) läuft das irdische Wettersystem der solaren Aktivität etwa 10 Jahre nach. D.h. die im Wasser gespeicherte Energie durch eine starke solare Aktivität, die bis ca. 2005 vorlag, wird verzögert wieder abgegeben – Wasser ist bekanntlich ein guter Wärmespeicher.

Wie dargelegt, bestimmt der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus, maßgeblich unser Klima. Er hatte zu Beginn des Jahrhunderts (2003) sein Maximum. Wie nach jedem Hauptsonnenzyklus gehen seither die Temperaturen deutlich zurück.

Fazit

Anhand der solaren Aktivitätsschwankungen und der Vergleiche der Temperaturentwicklung nach einem Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem spürbaren Rückgang der Temperaturen zu rechnen. Nach einem Hauptsonnenzyklus fallen die Temperaturen, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie dies derzeit wieder zu beobachten ist, so dass der Temperaturgang für die nächsten 10 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangsphase (Hysterese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert. Im eingeschwungenen Zustand (z.B. kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau.

Obwohl die Untersuchung anhand eines, bzw. 2 Hauptsonnenzyklen sicherlich zu gering ist, um eine abschließende Aussage der Temperaturentwicklung treffen zu können, zeigt sie jedoch, dass starke Temperaturschwankungen zwischen warmen und kalten Jahren in den ersten Jahrzehnten nach einem Hauptsonnenzyklus, insbesondere in Mitteleuropa, nichts ungewöhnliches darstellen. Die heutigen Schwankungen passen somit in sehr guter Weise zu den historischen.

Was bleibt also von den Beschwörungen Schellnhubers, Latifs und Co., die wieder einmal von einer unwissenden Journalistenschar gedankenlos nachgeplappert wurden. Nichts, als natürliche Ereignisse, statistische Tricks und falsche Vergleiche. Im Comic “Asterix und der Seher“ lassen die Autoren Uderzo und Goscinny ihren Seher Vorsicht walten (dort auf S.13): „Ich muss vorsichtig sein. Aus dem anderen Dorf haben sie mich mit Fußtritten gejagt…die waren gar nicht so dumm da!“ Unsere spätgermanischen Seher brauchen in den Dörfern (Redaktionen) deutscher Journalisten vor Enttarnung keine Angst zu haben. Dort ist offenbar die Dummheit zu Hause und diese müssen sich, mitsamt den spätgermanischen Sehern, die Frage gefallen lassen, wo Realität aufhört und Comic anfängt. Die Grenzen sind dort offenbar zur Unkenntlichkeit verwischt. Lenin nannte Journalisten “Nützliche Idioten“. Eine große deutsche Journalistenschar hat in diesen Tagen wieder einmal diese Aussage grandios bestätigt.

Raimund Leistenschneider – EIKE




Das GRANDIOSE SCHEITERN der Klimamodellierung – Spencer: ‚Der Tag der Abrechnung ist gekommen!’

Dr. Roy Spencer schreibt:

Als Erwiderung auf diejenigen, die sich in meinem jüngsten Beitrag darüber beklagt haben, dass lineare Trends kein guter Weg sind, die Modelle mit Beobachtungen zu vergleichen (obwohl die Modellierer behauptet haben, dass wir uns auf das langzeitliche Verhalten der Modelle konzentrieren sollen und nicht auf individuelle Jahre), folgen hier die gleitenden 5-Jahres-Mittel der Temperatur in der tropischen Troposphäre, Modell gegen Beobachtung:

(siehe Bild oben rechts!)

In diesem Fall wurden die Modellergebnisse und die Beobachtungen geplottet, so dass ihre jeweiligen Trendlinien alle im Jahr 1979 beginnen. Wir glauben, dass dies die beste Darstellung ist, um die Modellergebnisse mit den Beobachtungen zu vergleichen.

Meiner Ansicht nach ist der Tag der Abrechnung gekommen! Die Modellierer und das IPCC haben bewusst viele Jahre lang die Beweise für die geringe Klimasensitivität ignoriert, trotz der Tatsache, dass einige von uns gezeigt haben, dass man einfach Ursache und Wirkung verwechselt, da man, wenn man aufgrund von Wolken- und Temperaturänderungen auf die Rückkopplung durch Wolken schließt, sehr in die Irre geführt werden kann (siehe z. B. Spencer & Braswell, 2010). Die Diskrepanz zwischen den Modellen und den Beobachtungen ist nichts Neues… aber etwas, das mit der Zeit immer deutlicher hervor tritt.

Sein Essay steht hier.

==============================================================

Der lineare Plot aus Dr. Spencers gestrigem Beitrag folgt hier. Er schreibt:

Dank der Arbeit von John Christy folgt hier ein Vergleich zwischen 73 CMIP5-Modellen (archiviert auf der Website Climate Explorer des niederländischen Wetterdienstes KNMI) und Beobachtungen der tropischen troposphärischen Temperatur („MT“) seit 1979:

Anstatt eines Spaghetti-Plots der individuellen Modelljahre haben wir hier den linearen Temperaturtrend von jedem Modell und den Beobachtungen im Zeitraum 1979 bis 2012 geplottet.

Man beachte, dass die Beobachtungen (die zufälligerweise nahezu identische Trends zeigen) aus zwei sehr unterschiedlichen Beobachtungssystemen stammen: 4 Datensätze aus Radiosondendaten und 2 Satelliten-Datensätze (UAH und RSS).

Wenn wir den Vergleich auf lediglich die 19 Modelle begrenzen, die ausschließlich von Forschungszentren in den USA erstellt worden sind, zeigt sich eine geringere Bandbreite:

Also, in welchem Universum repräsentieren die obigen Ergebnisse kein grandioses Scheitern der Modelle?

Link: http://wattsupwiththat.com/2013/06/06/climate-modeling-epic-fail-spencer-the-day-of-reckoning-has-arrived/

Übersetzt von Chris Frey EIKE




Warum fossile Treibstoffe den Planeten besser machen

Bild rechts: Ich liebe die Facebook-Seite Fossile Treibstoffe (click)

Junge Leute, die Hochschulen der freien Künste besuchen, haben offensichtlich ein Buch der schlimmen Wörter bei sich. Wann immer jemand etwas sagt, das gegen ihre beklagenswert vorhersehbare Weltsicht steht, greifen sie zu diesem Buch und werfen mit dessen Worten wild um sich.

Wer braucht schon Beweise? Warum braucht man den inhaltlich relevanten Zusammenhang? Ihr seid böse! Wir hassen euch. Es ist wahrscheinlich, dass ihr auch rassistisch und sexistisch seid.

Dieser Art ist die Qualität des Denkens, die man jetzt für jährlich 60000 Dollar Schulgeld und andere akademische Abgaben bekommt.

Anders als diese kleingeistigen Campus-Kritiker habe ich Epsteins Buch wirklich gelesen. Es trägt den Titel Fossil Fuels Improve the Planet [etwa: fossile Treibstoffe verbessern den Planeten]. Eine wunderbare PDF kann man hier gratis herunterladen.

Die PDF-Version geht über 50 Seiten und wird abgerundet durch einige Anhänge und Schlussbemerkungen. Das bedeutet, dass man das Ganze innerhalb weniger Stunden durchlesen kann.

Man tue sich selbst einen Gefallen und lese es. Die Erfahrung wird genauso belebend sein wie ein Schwall kalten Wassers. Für immer werden danach Jargon-Worte wie „fossilen Treibstoffen hörig“ und „Kohlenstoff-Verschmutzung“ nur noch Spreu im Wind sein.

Epstein ist Gründer und Präsident des Center for Industrial Progress. Er beschreibt seine Arbeit als Weiterbildung der Öffentlichkeit über die unglaublich positive Rolle, die die Energieindustrie, vor allem die Ölindustrie, in ihrem Leben spielt (S. 43).

Seine Argumente sind so überzeugend und vernünftig, dass sich der Leser hinterher wundert, was in aller Welt mit unserer Gesellschaft nicht stimmt, wenn wir fast niemals jemanden so etwas sagen hören.

Wie ich auch lehnt Epsein es ab, die Natur zu romantisieren:

Wenn man sehen will, wie „schmutzig” wirklich aussieht, besuche man ein Land, das immer noch unter „natürlichen“, vorindustriellen Bedingungen lebt. Man versuche, den natürlichen Rauch eines natürlichen offenen Feuers, in dem natürliches Holz oder Tierdung verbrannt wird, zu ersticken… Man versuche, Wasser aus einem lokalen Rinnsal zu holen, dessen Wasser auf natürliche Weise mit all den Keimen von all den lokalen Tieren befallen ist… (S. 4)

Man erklärt uns unsere Umwelt als etwas, das zu Beginn sauber und gesund ist und das wir dann verschmutzen. Das Gegenteil ist richtig. Die Natur schenkt uns nicht eine gesunde, sanitär saubere Umwelt, um darin zu leben. Man versuche, unsere heimische Umgebung sauber zu halten ohne „unnatürliche“ Klempnerei zu Hause, Abwassersysteme und Müllsammlung (S. 18)

Die Natur versorgt uns nicht … mit der Umwelt, die wir brauchen, um lang, gesund und glücklich zu leben, wie die Lebenserwartung von 30 Jahren in grauer Vorzeit zeigt (S. 22).

Gelegentlich gleitet Epstein ins Poetische über das kapitalistische System ab, was manch einer als Misston wahrnehmen könnte (so schreibt er z. B. auf Seite 36 über „die wahre Schönheit des Kapitalismus“). Aber man muss kein ökonomischer Analyst sein, um seine zugrunde liegende Botschaft zu erfassen.

Kurz gesagt: Unsere langen, wohlgenährten und lohnenswerte Leben beruhen auf der robusten, bezahlbaren und überreichlich vorhandenen fossilen Energie, die gegenwärtig durch Kohle und Öl erzeugt wird. Diese Energie zu dämonisieren, weil sie nicht perfekt ist und Schwächen aufweist, kann nur „unglaublich verdorben und undankbar“ sein (S. 6).

Bildquelle: Fossil Fuels Facebook page (click)

Epstein argumentiert, dass Aktivisten wie Bill McKibben es nicht nur ablehnen, die immensen, mit den fossilen Treibstoffen verbundenen Vorteile anzuerkennen, sondern auch wild phantasieren. Sie sind auf die Defizite des Öls fixiert, vergleichen diese aber nicht mit verfügbaren, hier und jetzt vorhandenen Alternativen, sondern mit „einer nicht existierenden und unmöglichen Utopie“ (S. 25).

Genauso wie normale Frauen nicht mit chirurgisch gelifteten, von Experten angeleiteten und professionell geschminkten Titelbild-Schönheiten mithalten können, kann selbst eine eindrucksvolle Energiequelle ungeeignet erscheinen, wenn diese neben eine Phantasterei gestellt wird.

Hier in der realen Welt sind die Trinkwasseraufbereitung, die Behandlung von Abwässern, die pharmazeutische Produktion und die medizinischen Systeme abhängig von Energie in industrieller Größenordnung. Nur drei Quellen sind derzeit in der Lage, dies sicherzustellen: fossile Treibstoffe, Kernkraftwerke und hydroelektrische Einrichtungen. Wie Epstein klar sagt: geringe Energiedichte und hohe Schwankungsbreiten (Sonnen- und Windenergie) haben sich als unfähig erwiesen, substantielle Grundlast-Energie in irgendeinem Land zu erzeugen, selbst dann nicht, wenn sie exorbitant subventioniert wird (S. 31).

Epstein zerreißt auch auf brillante Weise zwei Lieblingswörter der Umweltaktivisten:

„Erneuerbar” oder „Nachhaltig” impliziert, dass die ideale Lebenstrajektorie eine der Wiederholungen ist, indem man die gleichen Methoden wieder und immer wieder anwendet.

Aber das ist ein Ideal für ein Tier und nicht für einen Menschen. Die menschliche Lebensart ist es, immer besser zu werden, immer weitere Verbesserungen anzustreben…

…Wenn wir mal die grüne Religion beiseite schieben, ist „erneuerbare Energie“ ein falsches Ideal, dass in einer rationalen Diskussion über Energie keinen Platz hat. Die einzige Frage von Bedeutung hinsichtlich Energie lautet: Welche Energiequellen werden das menschliche Leben jetzt am meisten verbessern…? (Hervorhebung hinzuigefügt; Seiten 36 und 37).

Nach Epsteins Worten ist Öl „der Lebenssaft der Zivilisation”. Es hat die „Gesundheitsvorsorge und die Landwirtschaft revolutioniert“ sowie „etwas übertrieben gesagt, das Welthungerproblem gelöst“ (S. 42).

Diese Argumente müssen unbedingt gehört werden. Die ganze Abhandlung steht hier.

Donna Laframboise

Link: http://nofrakkingconsensus.com/2013/06/06/why-fossil-fuels-improve-the-planet/

Übersetzt von Chris Frey EIKE




Klimasensitivität zerlegt

Bild rechts (Abbildung 1): Was passiert, wenn ich  mir den Kopf zu sehr hinsichtlich der Klimamodelle zerbreche

Vor drei Jahren machte eine für mich sehr überraschende Entdeckung. Sie wurde inspiriert durch das ultra-simple Klimamodell von Lucia Liljegren, das sie „Stückwerk“ nannte, und mit der unentbehrlichen Assistenz der mathematischen Fähigkeiten der Kommentatoren Paul K. und Joe Born. Das GISSE-Klimamodell konnte genau nachgebildet werden durch eine One-Line-Gleichung. Mit anderen Worten, die Rechenergebnisse des GISSE-Modells bzgl. der globalen Temperatur werden fast exakt durch eine lineare Transformation des Inputs in die Modelle (die „Antriebe“ in der Klimasprechweise, von Sonne, Vulkanen, CO2 und so weiter) beschrieben. Die Korrelation zwischen den aktuellen GISSE-Modellergebnissen und meiner Nachbildung dieser Ergebnisse beträgt 0,98… viel besser als das ging es nicht. Nun kann man es aber tatsächlich noch besser machen, fand ich doch heraus, dass man eine Korrelation von 99+% erreicht, wenn man berücksichtigt, dass sie irgendwie den Antrieb durch Vulkane vermindert haben. Wie auch immer, es war ein überraschendes Ergebnis für mich. Ich hätte nie gedacht, dass das Ergebnis der unglaublich komplexen Klimamodelle so sklavisch den Eingaben folgt.

Seitdem hat Isaac Held das Ergebnis unter Verwendung eines dritten Modells nachgestellt, dem CM2.1-Klimamodell. Ich habe die Antriebe und Daten dieses Modells erhalten und seine Ergebnisse reproduziert. Der gleichen Analyse wurde das GDFL-Modell unterzogen, mit dem gleichen Ergebnis. Und ich habe die gleiche Analyse mit den Forster-Daten durchgeführt, welche aus einem Mittel von 19 Antrieben und Temperatur-Outputs bestehen. Das ergibt vier individuelle Modelle plus dem Mittel aus 19 Klimamodellen, und alle Ergebnisse waren immer gleich. Daher ist die überraschende Schlussfolgerung unausweichlich: Die Ergebnisse der globalen, von den Klimamodellen berechneten Mitteltemperatur können mit einem Vertrauensintervall von 99% reproduziert werden, egal ob individuell oder in der Masse.

Allerdings war das Ergebnis meiner jüngsten Analyse der Klimamodelle vom Typ „Black Box“ für mich sogar noch überraschender und auch weitreichender.

Folgendes war geschehen: Ich habe eine Kalkulations-Tabelle erstellt, um es einfach zu machen, die verschiedenen Antriebe und die Temperatur-Datensätze zu vergleichen und ihre Eigenschaften zu berechnen. Mit dem „Solver“-Tool habe ich schrittweise die Werte von Tau (die Zeitkonstante) und Lambda (die Sensitivitäts-Konstante) ausgewählt, um die beste Anpassung an das vorhergesagte Ergebnis zu bekommen. Nach dem Blick auf einige der Ergebnisse mit breit variierenden Sensitivitäten, fragte ich mich, was in den beiden Datensätzen es war (Modellantriebe und vom Modell vorhergesagte Temperaturen), dass die resultierende Sensitivität bestimmte. Ich fragte mich, ob es irgendeine einfache Beziehung zwischen der Klimasensitivität und den grundlegenden statistischen Eigenschaften gab (Trends, Standardabweichungen, Bandbreiten und so weiter). Ich sah auf die fünf Antriebs-Datensätze, die mir zur Verfügung standen (GISSE, CCSM3, CM2.1, Forster und Otto) zusammen mit den damit verbundenen Temperatur-Ergebnissen. Zu meiner totalen Überraschung betrug die Korrelation zwischen dem Trendverhältnis (Temperaturtrend im Datensatz dividiert durch den Antriebstrend im Datensatz) und der Klimasensitivität (Lambda) 1,00. Mir sackte der Unterkiefer ab. Pefekte Korrelation?  Gibt es so etwas überhaupt? Ich habe die Punktwolke geplottet.

Abbildung 2: Punktwolke, die die Beziehung zwischen Lambda und dem Verhältnis des Output-Trends zum Input-Trend zeigt. Forster ist das Mittel des Forster 19-Modells. Otto sind die Forster-Input-Daten, modifiziert von Otto einschließlich der Hinzufügung eines Trends von 0,3 W/m² über die zeitliche Länge des Datensatzes. Weil in dieser Analyse nur Strahlungsantriebe und keine Ozeanantriebe verwendet werden, ist Lambda die vorübergehende Reaktion des Klimas (transient climate response TCR). Fügt man den Daten die Ozean-Antriebe hinzu, wäre Lambda die Gleichgewichts-Klimasensitivität. Lambda ist dargestellt in Grad pro W/m² Antrieb. Um das in Grad pro Verdoppelung des CO2-Gehaltes zu konvertieren, muss man Lambda mit 3,7 multiplizieren.

Und siehe da, diese Art Korrelation sieht man nicht sehr oft, R² = 1,00 bis auf zwei Stellen nach dem Komma … das spricht für mich.

Lassen Sie mich den Vorbehalt wiederholen, dass wir hier nicht über reale Temperaturen reden. Dies ist ein weiterer „Schwarzkörper“-Vergleich der Modell-Inputs (vermutlich eine Art reale-Welt-„Antrieb“ von der Sonne und Vulkanen und Aerosole und Ruß und alles andere) und der Modellergebnisse. Ich versuche zu verstehen, was die Modelle machen, und nicht, wie sie es machen.

Nun standen mir nicht die von den Modellen verwendeten Daten des Ozean-Antriebs zur Verfügung. Aber ich habe die Levitus-Daten des ozeanischen Wärmegehaltes seit 1950, so wenig diese auch als Ersatz taugen. Also habe ich diese jedem Antriebs-Datensatz hinzugefügt, um neue Datensätze zu erstellen, die auch die Ozeandaten enthalten. Wie man sich vorstellen kann, wenn einiges der jüngsten Antriebe in den Ozean geht, fällt der Trend im Antriebs-Datensatz ab … und wie man erwarten würde, nimmt das Trendverhältnis (und folglich die Klimasensitivität) zu. Dieser Effekt ist dort am ausgeprägtesten, wo der Antriebs-Datensatz einen kleineren Trend aufweist (CM2.1) und weniger deutlich am anderen Ende der Skala (CCSM3). Abbildung 3 zeigt die gleichen fünf Datensätze wie Abbildung 2 plus den gleichen fünf Datensätzen mit den hinzu gefügten Ozean-Antrieben. Man beachte, dass Lambda die Gleichgewichts-Klimasensitivität ist, wenn der Antriebs-Datensatz den Wärmetransport in den und aus dem Ozean enthält. Wenn der Datensatz den Strahlungsantrieb allein enthält, ist Lambda die vorübergehende Klimareaktion. Also sind die blauen Punkte in Abbildung 3 ECS und die roten Punkte TCR. Die mittlere Änderung (ECS/TCR) beträgt 1,25, was zu der Schätzung von ~ 1,3 in der Otto-Studie passt.

 

Abbildung 3: Die roten Punkte zeigen die Modelle wie in Abbildung 2. Blaue Punkte zeigen die gleichen Punkte, jedoch verstärkt mit den Levitus-Daten des ozeanischen Wärmegehaltes in jedem Antriebs-Datensatz. Die sich ergebenden Sensitivitäten sind höher für die Gleichgewichts-Bedingung als für die kurzlebige Bedingung, was zu erwarten war. Blaue Punkte zeigen die Gleichgewichts-Klimasensitivität ECS, während die roten Punkte (wie in Abbildung 2) die korrespondierende kurzlebige Klima-Reaktion TCR zeigen.

Schließlich habe ich die fünf unterschiedlichen Antriebs-Datensätze durchlaufen lassen, mit und ohne Ozean-Antrieb, und mit drei aktuellen Temperatur-Datensätzen verglichen – HadCRUT4, BEST und GISS LOTI. Ich habe Daten aus allen diesen genommen, und die Ergebnisse der Analyse dieser 29 Modellläufe sehen so aus:

 

Abbildung 4: Große rote und blaue Punkte wie in Abbildung 3. Die hellblauen Punkte sind das Ergebnis der Berechnung der Antriebe und die Teilmengen der Antriebe, mit und ohne Ozean-Antrieb sowie mit und ohne Vulkan-Antrieb, im Vergleich mit aktuellen Datensätzen. Der gezeigte Fehler beträgt 1 Sigma.

Also lautet mein neues Ergebnis: Die Klimasensitivität der Modelle, sowohl individuell als auch im Mittel, ist gleich dem Verhältnis der Trends des Antriebs und der resultierenden Temperaturen. Dabei spielt es keine Rolle, ob Änderungen des ozeanischen Wärmegehaltes in die Berechnung mit einbezogen werden. Es gilt sowohl für den Vergleich Antriebe <-> Modell-Temperaturergebnisse als auch für Antriebe <-> aktuelle Temperatur-Datensätze. Es gilt auch für Teilmengen des Antriebs wie z. B. Vulkane allein, oder auch für Treibhausgase.

Und diese Beziehung habe ich nicht nur experimentell gefunden durch Betrachten der Ergebnisse der einzeiligen Gleichung für Modelle und Modellergebnisse. Dann fand ich heraus, dass man diese Beziehung mathematisch aus der One-Line-Gleichung ableiten kann (siehe Anhang D mit Details).

Das ist eine klare Bestätigung einer Beobachtung, die zum ersten Mal im Jahr 2007 von Kiehl gemacht worden ist, als er eine umgekehrte Beziehung zwischen Antrieb und Sensitivität vermutete.

Die Frage lautet: Wenn sich die Klimamodelle um einen Faktor 2 bis 3 hinsichtlich der Klimasensitivität unterscheiden, wie können sie allesamt den globalen Temperaturverlauf mit hinreichender Genauigkeit simulieren? Kerr (2007) und S. E. Schwartz et al. (Quantifizierung der Klimaänderung – ein zu rosiges Bild? hier) wiesen kürzlich darauf hin, wie wichtig es ist, die Antwort auf diese Frage zu verstehen. Tatsächlich hat sich Kerr (2007) auf die gegenwärtige Arbeit bezogen, und die jetzige Studie zeigt die „weithin zirkulierende Analyse“, auf die sich Kerr (2007) bezieht. Dieser Bericht untersucht die wahrscheinlichste Erklärung für ein solches Übereinkommen. Sie verwendet veröffentlichte Ergebnisse von einer Vielzahl von Modellsimulationen, um dieses offensichtliche Paradoxon zwischen Klimareaktionen des 20. Jahrhunderts im Modell und verschiedenen Klimamodell-Sensitivitäten zu verstehen.

Allerdings hat Kiehl die Variationen der Sensitivität einem Unterschied im Gesamtantrieb zugeschrieben und nicht einer Trendbeziehung, und als Ergebnis ist seine Graphik der Ergebnisse viel mehr verstreut.

 

Abbildung 5: Kiehl-Ergebnisse, Vergleich der Klimasensitivität ECS mit dem Gesamtantrieb. Man beachte, dass meine Ergebnisse anders als bei Kiehl sowohl die Gleichgewichts-Klimasensitivität (ECS) als auch die kurzlebige Klimareaktion (TCR) abdecken.

Wie auch immer, es gibt noch viel mehr, das ich zu diesem Ergebnis schreiben könnte, aber ich muss mir das jetzt einfach aus dem Kopf schlagen und zur Tagesordnung übergehen. Einen abschließenden Kommentar habe ich noch:

Seit ich mit dieser Untersuchung begonnen habe, hat Kommentator Paul K zwei herausragende Beiträge hierzu auf dem ausgezeichneten Blog von Lucia, The Blackboard (Part 1, Part 2) geschrieben. In diesen Beiträgen beweist er mathematisch, dass mit dem, was wir über die die Modelle reproduzierende Gleichung wissen, nicht… aber lassen wir ihn selbst zu Wort kommen:

Die Frage: Kann man oder kann man nicht die Gleichgewichts-Klimasensitivität (ECS) aus 120 Jahren Temperaturaufzeichnung und OHC-Daten abschätzen, (selbst) wenn man die Antriebe kennt?

Die Antwort lautet: Nein! Man kann nicht! Nicht, solange man nicht andere Informationen verwendet, um die Schätzung zu belegen.

Eine wichtige Folgerung daraus lautet: Die Tatsache, dass ein Klimamodell Temperatur- und Wärmedaten zueinander passend machen kann, sagt uns nichts über die Gültigkeit der Schätzung der Gleichgewichts-Klimasensitivität dieses Klimamodells.

Man beachte, dass dies nicht eine Einzelmeinung von Paul K ist. Es ist ein mathematisches Ergebnis der Tatsache, dass selbst wenn wir ein komplexeres „Zwei Kisten“-Modell benutzen, wir die Sensitivitäts-Schätzungen nicht belegen können. Dies ist eine erstaunliche und weitgehend unbeachtete Schlussfolgerung. Das essentielle Problem besteht darin, dass wir für irgendein gegebenes Klimamodell mehr Unbekannte haben als grundlegende Gleichungen, diese zu belegen.

Schlussfolgerungen

Nun, aus meinen früheren Arbeiten war hervorgegangen, dass die Modelle sowohl für die „Nachher“- als auch für die Vorhersage des Klimas nutzlos sind. Ihre Funktion ist von einer einfachen One-Line-Gleichung ununterscheidbar.

Und nun hat uns Paul K gesagt, dass sie uns nichts über die Sensitivität sagen können, weil die Gleichung selbst nur unzureichend belegt ist.

Schließlich habe ich in dieser Arbeit gezeigt, dass die Klimasensitivität „Lambda“, die die Modelle zur Schau stellen, nichts weiter ist als das Verhältnis der Trends zwischen Input und Output, egal ob sie die Gleichgewichts-Klimasensitivität (ECS) oder kurzlebige Klima-Reaktionen (TCR) repräsentieren. Die Auswahl der Antriebe, Modelle und Datensätze ist ziemlich unerheblich. Alle Modelle zeigen das gleiche Ergebnis für Lambda, und dieses Ergebnis ist das Verhältnis zwischen den Trends des Antriebs und der Reaktion darauf. Dieses jüngste Ergebnis erklärt vollständig die Unfähigkeit der Modellierer, die Bandbreite möglicher Klimasensitivitäten zu verkleinern, trotz dreißig Jahre Modellierungsarbeit.

Ich bin sicher, Sie können daraus eigene Schlussfolgerungen ziehen …

Willis Eschenbach

———————————————————————————-

Hinweis des Übersetzers: Eschenbach fügt hier einige Anhänge bei, die sehr mathematisch sind. Zum Nachrechnen sind diese auch dieser Übersetzung beigefügt, aber nicht übersetzt. Denn erstens würde das den fachlichen Hintergrund des Übersetzers sprengen, und zweitens geht der Übersetzer davon aus, dass Personen, die diese Rechnungen nachvollziehen können, auch des Englischen so mächtig sind, dass sie keine Übersetzung brauchen.

———————————————————————————

Appendix A : The One-Line Equation

The equation that Paul_K, Isaac Held, and I have used to replicate the climate models is as follows:

Let me break this into four chunks, separated by the equals sign and the plus signs, and translate each chunk from math into English. Equation 1 means:

This year’s temperature (T1) is equal to

Last years temperature (T0) plus

Climate sensitivity (λ) times this year’s forcing change (∆F1) times (one minus the lag factor) (1-a) plus

Last year’s temperature change (∆T0) times the same lag factor (a)

Or to put it another way, it looks like this:

T1 =                      <—  This year’s temperature [ T1 ] equals

    T0 +                  <—  Last year’s temperature [ T0 ] plus

    λ  ∆F1  (1-a) +    <— How much radiative forcing is applied this year [ ∆F1 (1-a) ],  times climate sensitivity lambda ( λ ), plus

    ∆T0  a                 <— The remainder of the forcing, lagged out over time as specified by the lag factor “a

The lag factor “a” is a function of the time constant “tau” ( τ ), and is given by

This factor “a” is just a constant number for a given calculation. For example, when the time constant “tau” is four years, the constant “a” is 0.78. Since 1 – a = 0.22, when tau is four years, about 22% of the incoming forcing is added immediately to last years temperature, and rest of the input pulse is expressed over time.

Appendix B: Physical Meaning

So what does all of that mean in the real world? The equation merely reflects that when you apply heat to something big, it takes a while for it to come up to temperature. For example, suppose we have a big brick in a domestic oven at say 200°C. Suppose further that we turn the oven heat up suddenly to 400° C for an hour, and then turn the oven back down to 200°C. What happens to the temperature of the big block of steel?

If we plot temperature against time, we see that initially the block of steel starts to heat fairly rapidly. However as time goes on it heats less and less per unit of time until eventually it reaches 400°C. Figure B2 shows this change of temperature with time, as simulated in my spreadsheet for a climate forcing of plus/minus one watt/square metre. Now, how big is the lag? Well, in part that depends on how big the brick is. The larger the brick, the longer the time lag will be. In the real planet, of course, the ocean plays the part of the brick, soaking up

The basic idea of the one-line equation is the same tired claim of the modelers. This is the claim that the changing temperature of the surface of the planet is linearly dependent on the size of the change in the forcing. I happen to think that this is only generally the rule, and that the temperature is actually set by the exceptions to the rule. The exceptions to this rule are the emergent phenomena of the climate—thunderstorms, El Niño/La Niña effects and the like. But I digress, let’s follow their claim for the sake of argument and see what their models have to say. It turns out that the results of the climate models can be described to 99% accuracy by the setting of two parameters—”tau”,  or the time constant, and “lambda”, or the climate sensitivity. Lambda can represent either transient sensitivity, called TCR for “transient climate response”, or equilibrium sensitivity, called ECS for “equilibrium climate sensitivity”.

Figure B2. One-line equation applied to a square-wave pulse of forcing. In this example, the sensitivity “lambda” is set to unity (output amplitude equals the input amplitude), and the time constant “tau” is set at five years.

Note that the lagging does not change the amount of energy in the forcing pulse. It merely lags it, so that it doesn’t appear until a later date.

So that is all the one-line equation is doing. It simply applies the given forcing, using the climate sensitivity to determine the amount of the temperature change, and using the time constant “tau” to determine the lag of the temperature change. That’s it. That’s all.

The difference between ECS (climate sensitivity) and TCR (transient response) is whether slow heating and cooling of the ocean is taken into account in the calculations. If the slow heating and cooling of the ocean is taken into account, then lambda is equilibrium climate sensitivity. If  the ocean doesn’t enter into the calculations, if the forcing is only the radiative forcing, then lambda is transient climate response.

Appendix C. The Spreadsheet

In order to be able to easily compare the various forcings and responses, I made myself up an Excel spreadsheet. It has a couple drop-down lists that let me select from various forcing datasets and various response datasets. Then I use the built-in Excel function “Solver” to iteratively calculate the best combination of the two parameters, sensitivity and time constant, so that the result matches the response. This makes it quite simple to experiment with various combinations of forcing and responses. You can see the difference, for example, between the GISS E model with and without volcanoes. It also has a button which automatically stores the current set of results in a dataset which is slowly expanding as I do more experiments.

In a previous post called Retroactive Volcanoes, (link) I had discussed the fact that Otto et al. had smoothed the Forster forcings dataset using a centered three point average. In addition they had added a trend fromthe beginning tothe end of the dataset of 0.3 W per square meter. In that post I had I had said that the effect of that was unknown, although it might be large. My new spreadsheet allows me to actually determine what the effect of that actually is.

It turns out that the effect of those two small changes is to take the indicated climate sensitivity from 2.8 degrees/doubling to 2.3° per doubling.

One of the strangest findings to come out of this spreadsheet was that when the climate models are compared each to their own results, the climate sensitivity is a simple linear function of the ratio of the trends of the forcing and the response. This was true of both the individual models, and the average of the 19 models studied by Forster. The relationship is extremely simple. The climate sensitivity lambda is 1.07 times the ratio of the trends for the models alone, and equal to the trends when compared to all the results. This is true for  all of the models without adding in the ocean heat content data, and also all of the models including the ocean heat content data.

In any case I’m going to have to convert all this to the computer language R. Thanks to Stephen McIntyre, I learned the computer language R and have never regretted it. However, I still do much of my initial exploratory forays in Excel. I can make Excel do just about anything, so for quick and dirty analyses like the results above I use Excel.

So as an invitation to people to continue and expand this analysis, my spreadsheet is available here. Note that it contains a macro to record the data from a given analysis. At present it contains the following data sets:

IMPULSES

Pinatubo in 1900
Step Change
Pulse

FORCINGS

Forster No Volcano
Forster N/V-Ocean
Otto Forcing
Otto-Ocean ∆
Levitus watts Ocean Heat Content ∆
GISS Forcing
GISS-Ocean ∆
Forster Forcing
Forster-Ocean ∆
DVIS
CM2.1 Forcing
CM2.1-Ocean ∆
GISS No Volcano
GISS GHGs
GISS Ozone
GISS Strat_H20
GISS Solar
GISS Landuse
GISS Snow Albedo
GISS Volcano
GISS Black Carb
GISS Refl Aer
GISS Aer Indir Eff

RESPONSES

CCSM3 Model Temp
CM2.1 Model Temp
GISSE ModelE Temp
BEST Temp
Forster Model Temps
Forster Model Temps No Volc
Flat
GISS Temp
HadCRUT4

You can insert your own data as well or makeup combinations of any of the forcings. I’ve included a variety of forcings and responses. This one-line equation model has forcing datasets, subsets of those such as volcanoes only or aerosols only, and the simple impulses such as a square step.

Now, while this spreadsheet is by no means user-friendly, I’ve tried to make it at least not user-aggressive.

Appendix D: The Mathematical Derivation of the Relationship between Climate Sensitivity and the Trend Ratio.

I have stated that the relationship where climate sensitivity is equal to the ratio between trends of the forcing and response datasets.

We start with the one-line equation:

Let us consider the situation of a linear trend in the forcing, where the forcing is ramped up by a certain amount every year. Here are lagged results from that kind of forcing.

Figure B1. A steady increase in forcing over time (red line), along with the situation with the time constant (tau) equal to zero, and also a time constant of 20 years. The residual is offset -0.6 degrees for clarity.

Note that the only difference that tau (the lag time constant) makes is how long it takes to come to equilibrium. After that the results stabilize, with the same change each year in both the forcing and the temperature (∆F and ∆T). So let’s consider that equilibrium situation.

Subtracting T0 from both sides gives

Now, T1 minus T0 is simply ∆T1. But since at equilibrium all the annual temperature changes are the same, ∆T1 = ∆T0 = ∆T, and the same is true for the forcing. So equation 2 simplifies to

Dividing by ∆F gives us

Collecting terms, we get

And dividing through by (1-a) yields

Now, out in the equilibrium area on the right side of Figure B1, ∆T/∆F is the actual trend ratio. So we have shown that at equilibrium

But if we include the entire dataset, you’ll see from Figure B1 that the measured trend will be slightly less than the trend at equilibrium.

And as a result, we would expect to find that lambda is slightly larger than the actual trend ratio. And indeed, this is what we found for the models when compared to their own results, lambda = 1.07 times the trend ratio.

When the forcings are run against real datasets, however, it appears that the greater variability of the actual temperature datasets averages out the small effect of tau on the results, and on average we end up with the situation shown in Figure 4 above, where lambda is experimentally determined to be equal to the trend ratio.

Appendix E: The Underlying Math

The best explanation of the derivation of the math used in the spreadsheet is an appendix to Paul_K’s post here. Paul has contributed hugely to my analysis by correcting my mistakes as I revealed them, and has my great thanks.

Climate Modeling – Abstracting the Input Signal by Paul_K

I will start with the (linear) feedback equation applied to a single capacity system—essentially the mixed layer plus fast-connected capacity:

C dT/dt = F(t) – λ *T                                                            Equ.  A1

Where:-

C is the heat capacity of the mixed layer plus fast-connected capacity (Watt-years.m-2.degK-1)

T is the change in temperature from time zero  (degrees K)

T(k) is the change in temperature from time zero to the end of the kth year

t is time  (years)

F(t) is the cumulative radiative and non-radiative flux “forcing” applied to the single capacity system  (Watts.m-2)

λ  is the first order feedback parameter (Watts.m-2.deg K-1)

We can solve Equ A1 using superposition.  I am going to use  timesteps of one year.

Let the forcing increment applicable to the jth year be defined as fj.   We can therefore write

F(t=k )  = Fk =  Σ fj       for j = 1 to k                                Equ. A2

The temperature contribution from the forcing increment fj at the end of the kth

year is given by

ΔTj(t=k) =  fj(1 – exp(-(k+1-j)/τ))/λ                                                     Equ.A3

where τ is set equal to C/λ   .

By superposition, the total temperature change at time t=k is given by the summation of all such forcing increments.  Thus

T(t=k) = Σ fj * (1 – exp(-(k+1-j)/τ))/ λ     for j = 1 to k                                   Equ.A4

Similarly, the total temperature change at time t= k-1 is given by

T(t=k-1) =  Σ fj (1 – exp(-(k-j)/τ))/ λ         for j = 1 to k-1                               Equ.A5

Subtracting Equ. A4 from Equ. A5 we obtain:

T(k) – T(k-1) = fk*[1-exp(-1/τ)]/λ    +  ( [1 – exp(-1/τ)]/λ ) (Σfj*exp(-(k-j)/τ) for j = 1 to k-1)     …Equ.A6

We note from Equ.A5 that

(Σfj*exp(-(k-j)/τ)/λ for j = 1 to k-1)  =  ( Σ(fj/λ ) for j = 1 to k-1)   – T(k-1)

Making this substitution, Equ.A6 then becomes:

T(k) – T(k-1) = fk*[1-exp(-1/τ)]/λ    + [1 – exp(-1/τ)]*[( Σ(fj/λ ) for j = 1 to k-1)   – T(k-1)]      …Equ.A7

If we now set α = 1-exp(-1/τ) and make use of Equ.A2, we can rewrite Equ A7 in the following simple form:

T(k) – T(k-1) = Fkα /λ   – α * T(k-1)                                          Equ.A8

Equ.A8 can be used for prediction of temperature from a known cumulative forcing series, or can be readily used to determine the cumulative forcing series from a known temperature dataset.  From the cumulative forcing series, it is a trivial step to abstract the annual incremental forcing data by difference.

For the values of α and λ, I am going to use values which are conditioned to the same response sensitivity of temperature to flux changes as  the GISS-ER Global Circulation Model (GCM).

These values are:-

α  = 0.279563

λ    = 2.94775

Shown below is a plot confirming that  Equ. A8 with these values of alpha and lamda can reproduce the GISS-ER model results with good accuracy.  The correlation is >0.99.

This same governing equation has been applied to at least two other GCMs ( CCSM3 and GFDL ) and, with similar parameter values, works equally well to emulate those model results. While changing the parameter values modifies slightly the values of the fluxes calculated from temperature , it does not significantly change the structural form of the input signal, and nor can it change the primary conclusion of this article, which is that the AGW signal cannot be reliably extracted from the temperature series.

Equally, substituting a more generalised non-linear form for Equ A1 does not change the results at all, provided that the parameters chosen for the non-linear form are selected to show the same sensitivity over the actual observed temperature range. (See here for proof.)

Link: http://wattsupwiththat.com/2013/06/03/climate-sensitivity-deconstructed/




Neue Studie in Nature Climate Change: Klimawandel lässt Hochwasser in Europa wohl in Zukunft seltener werden

Da ist es erfrischend zu sehen, dass sich ein japanisches Forscherteam hier professionelle Gedanken macht, inwieweit sich die Überschwemmungen in einer sich erwärmenden Welt in den verschiedenen Regionen der Erde weiter entwickeln würden. Am 9. Juni 2013 veröffentlichte nun die Gruppe im Fachmagazin “Nature Climate Change” die Ergebnisse ihrer Untersuchungen, mit dem Titel “Globales Hochwasserrisiko in Zeiten des Klimawandels”. Die Welt berichtete am gleichen Tag über die Studie:

In vielen Teilen Nord- und Osteuropas könnte es nach einer Studie durch den Klimawandel künftig seltener zu Hochwassern kommen. Dies sagen Forscher um Yukiko Hirabayashi von der Universität von Tokio voraus. Deutlich häufiger könne es dagegen in Südostasien, Indien, Ostafrika und den nördlichen Anden in Südamerika Überschwemmungen geben, schreiben sie im Fachblatt “Nature Climate Change”. […] Die Wissenschaftler aus Japan legten ihrer Studie elf globale Klimamodelle zugrunde. Nach Ansicht der Autoren könnte es auch in der Türkei, in Zentralasien, der Mitte Nordamerikas und im südlichen Teil von Südamerika künftig seltener Hochwasser geben.

Falls sich die Modelle der achtköpfigen japanischen Forschergruppe bewahrheiten sollten, wären dies gute Nachrichten für die gerade heftig von den Fluten in Mitleidenschaft gezogenen Gebiete in Süd- und Ostdeutschland. Rätselhaft ist jedoch, dass sowohl die Welt als auch die Süddeutsche Zeitung, die Zeit und das Deutschlandradio in Ihrer Berichterstattung zum neuen, begutachteten Fachartikel sogleich ausgiebig den Potsdamer Stefan Rahmstorf zu Wort kommen lassen, der die Ergebnisse sogleich in Frage stellt. Getreu dem Motto, was nicht sein darf, kann auch nicht sein. Frage zur Plausibilität: Haben die hochkarätigen Autoren, Fachgutachter sowie Editoren der renommierten Fachzeitschrift Nature Climate Change etwa alle samt und sonders versagt? Es fällt zudem auf, dass Fragen zur Hochwasserentwicklung gemäß Rahmstorfs Publikationsliste nicht unbedingt sein Kerngebiet darstellen  – und trotzdem zitieren die Zeitungen fleißig Rahmstorfs aus der Hüfte geschossene Kritik, als wäre es ein offizielles Gegengutachten. Andersherum gefragt: Warum kommen in der medialen Berichterstattung zu Rahmstorfs eigenen, vielfältigen neuen Klimakatastrophentheorien so selten Kritiker zu Wort? Offensichtlich ist der Potsdamer bestens in der Medienwelt vernetzt, was im Sinne der Objektivität nachdenklich stimmen sollte…

Übernommen von "Die kalte Sonne" 

Siehe auch:Bildzeitung von heute

STÜRME +++ HITZE-REKORDE +++ UND JETZT DIE JAHRHUNDERT-FLUTEN

Klimawandel schlägt voll zu


http://www.bild.de/news/inland/klimawandel/stuerme-hitze-rekorde-klimawandel-schlaegt-voll-zu-30807274.bild.html