1

Die Schwierigkeiten mit den Klimamodellen

§D.1 Klimamodelle sind seit dem AR4 verbessert. Die Modelle reproduzieren die beobachtete Temperaturverteilung in räumlicher Größenordnung von Kontinenten sowie deren Trends über viele Jahrzehnte einschließlich der rascheren Erwärmung seit Mitte des 20. Jahrhunderts sowie der Abkühlung unmittelbar nach großen Vulkanausbrüchen (sehr hohes Vertrauen).

§D.2 Beobachtete und modellierte Studien der Temperaturänderung, Klima-Rückkopplungen sowie Änderungen des Energiehaushaltes der Erde zusammen schaffen Vertrauen in die Größenordnung der globalen Erwärmung als Reaktion auf Antriebe in Vergangenheit und Zukunft.

Keines dieser Statements entspricht der Wahrheit, wie die inzwischen berüchtigte Divergenz zwischen CMIP5 und dem Stillstand beweist (siehe unten Abbildung 7). Der CO2-Gehalt ist weiter gestiegen, die Temperatur nicht.

Die interessante Frage lautet: Warum ist das so? Ein ursächlicher Grund ist so fundamental unlösbar, dass man sich aus gutem Grunde fragen kann, warum die Multimilliarden Dollar schwere Klimamodell-„Industrie“ jemals ohne Nachfrage darauf eingehen konnte. (1)

GCMs sind das Klima-Äquivalent der den Ingenieuren vertrauten Modellen für die Finite-Elemente-Analyse (FEA). FEA wird  in diesen Tagen für fast alles genutzt, um  Brücken, Flugzeuge, um Motorkomponenten zu konstruieren ([FEA unterstützt Lösungen für [Material-] Spannungen, Dehnung, Biegung, Hitze, Alterung, …).

 

In der FEA Technik [[ im Sinne von Berechnungs-Verfahren]] werden die Eingangsparameter durch wiederholtes Messen der tatsächlichen Materialien im Labor bestimmt.

Auch die nicht-linearen „unlösbaren“ Parameter der Navier-Stokes-Fluiddynamik (Luftströme bei Flugzeugen werden drag-modelliert mit Hilfe der CFD-Untergruppe von FEA ) werden durch Prüfung im Windkanal verifiziert.

(wie Auto- / Flugzeug-Designer es  mit 1:1 und/oder skalierten Modellen tun).

 

Hinsichtlich des Klimas der Erde ist dies nicht möglich.

GCMs überziehen die Welt mit abgesteckten Gitterquadraten (die ,finite elements‘ der Ingenieure). Jedes Gitterquadrat hat einen Satz Anfangsbedingungen. Dann wird eine Änderung angebracht (wie z. B. zunehmender CO2-Gehalt nach IPCC RCP8.5). Das entspricht der zunehmenden Stresskomponente einer Brücke durch zunehmenden Verkehr oder die zusätzliche Erwärmung durch Reibung an einem Flugzeug, das immer schneller fliegt. Das GCM berechnet dann, wie sich die Eingangswerte mit der Zeit ändern (2). Die Berechnungen basieren auf etablierter Physik wie der Clausius-Clapeyron’schen Wasserdampfgleichung, Strahlungstransport durch das Frequenzband (d. h. Treibhauseffekt) oder die Navier-Stoke’schen Gleichungen zur Dynamik von Flüssigkeiten für konvektive Zellen.

Das CMIP5-Archiv verwendet UCAR zufolge bis zu 30 atmosphärische Schichten, bis zu 30 Ozeanschichten und Zeitschritten von 30 Minuten.

Die horizontale räumliche Auflösung der CMIP5-Modelle ist typischerweise ~2.5° Breite/Länge am Äquator (etwa 280 km). Die feinste horizontale CMIP5-Auflösung betrug ~1,1° oder etwa 110 km. Dieses Limit ist den Rechenleistungen der Computer geschuldet. Eine Verdoppelung der Auflösung durch eine Halbierung des Gitterquadrates (xy) vervierfacht die Anzahl der Quadrate. Es halbiert auch in etwa den Zeitschritt aufgrund der Courant-Friedrichs-Lewy-Bedingung CFL. (Die Erklärung von CFL für numerisch gelöste partielle Differantialgleichungen würde zu weit vom Thema dieses Beitrags wegführen). Die Verdoppelung der Auflösung auf ein ~55 km-Gitternetz ist ~4 X 2 so rechenintensiv für die Computer. Die University Corporation for Atmospheric Research UCAR sagt, dass die GCM-Faustregel einer verdoppelten räumlichen Auflösung gleich ist einer 10 mal so hohen Anforderung an die Computer. Eine Größenordnung pro Verdoppelung der Auflösung.

Die räumliche Auflösung moderner numerischer Wettervorhersage-Modelle ist notwendigerweise viel feiner. Der neueste, 2012 installierte Wetter-Supercomputer des UK Met.-Office und deren assoziierte Modelle verwenden eine grobe Auflösung von 25 km (NAE) für Prädiktanten wie Druckgradienten {Wind} und frontale Grenzschichten sowie eine Feinauflösung (UKV) von 1,5 km für Parameter wie Niederschlag (für regionale Überschwemmungs-Warnungen). Die Website des UKMO zeigt stolz dieses Beispiel:

Dies ist möglich, weil die UKMO-Wettermodelle nur das Wetter für das Gebiet von UK und nur ein paar Tage im Voraus simulieren – und nicht den Planeten für viele Jahrzehnte im Voraus. Die Simulation von ΔT bis zum Jahr 2100 mit dem ,groben‘ Wettermodell mit 25 km des UKMO liegt um zwei Größenordnungen (≈4x4x2x2x[10/8]) jenseits der derzeitigen Fähigkeiten. Die Simulation von ΔT mit einer Auflösung von 1,5 km bis zum Jahr 2100 zur Erfassung tropischer konvektiver Zellen (sowie deren ,Eschenbach‘-Konsequenzen) liegt um 7 Größenordnungen (110-55-27-13-7-3-1,5) jenseits derzeitiger Computer-Fähigkeiten. Die heutigen besten Supercomputer brauchen für einen einzigen GCM-Lauf rund 2 Monate (fünfzig aufeinander folgende Tage pro UCAR sind typisch). Ein einziger Lauf bei einer Auflösung von 1,5 km würde 1,4 Millionen Jahre dauern. Darum heißt es im AR5 WG1 im Kapitel 7 (hinsichtlich Wolken bei §7.2.1.2):

Wolkenbildungs-Prozesse umfassen Größenordnungen von kleinsten Wolken-Kondensationskernen bis zu Wolkensystemen mit einer Ausdehnung von tausenden Kilometern. Diese Bandbreite der Größenordnungen kann unmöglich mit numerischen Gleichungen von Computern aufgelöst werden, und das wird noch Jahrzehnte lang so bleiben“.

Das fundamental unlösbare Problem der Auflösung in den GCMs wird sehr gut illustriert in Gestalt eines Gewitterclusters bei seinem Weg über Arizona. 110 X 110 Quadrate sind die feinstmögliche computertechnische Auflösung in CMIP5. Nutzlos zur Auflösung konvektiver Prozesse.

Grundlegende Klimaprozesse wie tropische konvektive Zellen (Gewitter) mit der damit assoziierten Freisetzung latenter Wärme in der oberen Troposphäre, von wo die Wärme leichter in den Weltraum entweichen kann, sowie dem damit verbundenen Niederschlag, der Wasserdampf aus der Luft entfernt und damit dessen Rückkopplung erniedrigt, können einfach von GCMs nicht simuliert werden. Klimaphänomene kleiner als das Gitterquadrat können nicht von der Physik simuliert werden. Sie müssen parametrisiert werden.

Und das ist das zweite unlösbare Problem. Es ist unmöglich, etwas zu parametrisieren ohne Kenntnis der Zuordnungen (wie viel der beobachteten Änderung in der Vergangenheit ist Treibhausgasen geschuldet, und wie viel der ,natürlichen‘ Variation?). Die Zuordnung der Parameter im AR5(CMIP5 des IPCC) war hauptsächlich AGW geschuldet. Dazu in der SPM:

§D.3 Diese Beweise für den menschlichen Einfluss haben seit dem AR4 zugenommen. Es ist extrem wahrscheinlich, dass menschlicher Einfluss die dominante Ursache der beobachteten Erwärmung seit Mitte des 20. Jahrhunderts ist.

Die CMIP5-Parametrisierungen wurden in zwei grundlegenden Schritten bestimmt. Seit dem Jahr 2002 hat DoE das CAPT-Programm gesponsert, welches multiple Kurzfrist-Vergleiche zwischen den GCMs bei der Modellierung einiger Tage (bei grober Auflösung) und deren Brüdern, den numerischen Wettervorhersagemodellen sowie dem tatsächlich eingetretenen Wetter anstellt. Die vorgegebene Logik lautet, dass die kurzfristige Divergenz zwischen GCMs und Wettermodellen einer falschen Parametrisierung geschuldet sein muss, von denen die Wettermodelle nicht so viele brauchen (3). Dies funktioniert gut bei ,schnellen‘ Phäomenen wie einer irrtümlich von GCMs modellierten Aufsplitterung der ITC in zwei innerhalb von zwei Tagen, aber nicht bei ,langsamen‘ Phänomenen wie Änderungen der hochtroposphärischen Feuchtigkeit oder der Wolkenbedeckung mit steigendem CO2-Gehalt mit der Zeit.

Der zweite Schritt bestand darin, längerfristige beobachtete Daten zu verschiedenen Zeiten mit den Parametrisierungs-Ergebnissen zu vergleichen und die Parameter zu ,frisieren‘, um die Beobachtungen über längere Zeiträume zu reproduzieren. Dieses Verfahren wurde angewendet von der NOAA MAPP CMIP5-Arbeitsgruppe (4). Es ist sehr schwierig, Faktoren zu frisieren wie Änderungen der Wolkenbedeckung, Albedo, Ozean-Wassertemperaturen oder die sommerliche arktische Meereis-Ausdehnung. Hiervon gibt es nämlich kaum längerfristige beobachtete Daten zum Vergleich. Und das Tuning erfordert immer noch die Annahme einer Verbindung der Zuordnungen zwischen den Prozessen (Modelle), dem gewünschten Phänomen-Output (z. B. Wolkenbedeckung, arktisches Meeres) sowie Beobachtung.

CMIP5-Parametrisierungen wurden frisiert, um Temperatur-Nachhersagen in bestmöglicher Weise von 2005 bis zurück zum Jahr 1975 durchzuführen (die verpflichtende Nachhersage über drei Jahrzehnte), erklärt durch das experimentelle Design der CMIP5-Modelle selbst (5). Dies geht eindeutig hervor von der ,Gottheit der Anpassung‘.

[Original: „CMIP5 parameterizations were tuned to hindcast temperature as best possible from 2005 back to about 1975 (the mandatory three decade hindcast), explained by the CMIP5 experimental design itself.[5] This is circumstantially evident from the ‘goodness of fit’“]

Die Hypothese von hauptsächlich anthropogenen Ursachen bedeutet, dass die GCMs falsch parametiridert worden sind (vor dem Hintergrund des Stillstands). Darum laufen sie derzeit heiß, wenn sie ,natürliche‘ Änderungen einer Abkühlung wie z. B. von 1945 bis 1975 hinweg rechnen. Graphisch wurde dies im Jahre 2010 von Dr. Akasofu aufbereitet, ehemaliger Leiter des International Arctic Research Center – und vom IPCC komplett ignoriert (6).

Akasofus einfacher Gedanke erklärt auch, warum sich das arktische Eis erholt, was die Alarmisten immer mehr alarmiert. Die Eiskarten des Dänischen Wetteramtes DMI und Larsens Durchfahrt der Nordwest-Passage im Jahre 1944 legen einen natürlichen Zyklus der Eisentwicklung in der Arktis nahe, mit einem Minimum in den vierziger Jahren und einem Maximum in den siebziger Jahren. Allerdings konnte das arktische Eis nicht gut erfasst werden bis zum Beginn der Vermessung mittels Satelliten im Jahre 1979, etwa um den Zeitpunkt eines möglichen natürlichen Spitzenwertes. Die gesamte beobachtete Aufzeichnung bis zum Jahr 2013 könnte einfach nur der abnehmende Zweig einer natürlichen Eis-Variation sein. Die Erholung des Eises hinsichtlich Ausdehnung, Volumen und mehrjährigem Eis seit dem Jahr 2012 könnte der Beginn eines natürlichen 35 Jahre langen Eisbildungszyklus‘ sein. Aber die GCM-Zuordnung ist hauptsächlich AGW geschuldet.

Fast niemand ist willens, über das fundamental unlösbare Problem der GCMs zu diskutieren. Ungeeignete Klimamodelle wären eine sehr schlechte Nachricht für alle, die glauben, dass die Klimawissenschaft settled ist.

—————————————

References:

[1] According to the congressionally mandated annual FCCE report to Congress, the US alone spent $2.66 billion in 2014 on climate change research. By comparison, the 2014 NOAA NWS budget for weather research was $82 million; only three percent of what was spent on climate change. FUBAR.

[2] What is actually calculated are values at cell corners (nodes), based on the cell’s internals plus the node’s adjacent cells internals.

[3] Philips et. al., Evaluating Parameterizations in General Circulation Models, BAMS 85: 1903-1915 (2004)

[4] NOAA MAPP CMIP5 Task Force white paper, available at cpo.NOAA.gov/sites.cop/MAPP/

[5] Taylor et. al., An Overview of CMIP5 and the Experimental Design, BAMS 93: 485-498 (2012).

[6] Akasofu, On the recovery from the Little Ice Age, Natural Science 2: 1211-1224 (2010).

Link: http://wattsupwiththat.com/2015/08/09/the-trouble-with-global-climate-models/

Übersetzt von Chris Frey EIKE. Ich bedanke mich bei meinem Übersetzer-Kollegen Herrn Andreas Demmig für seine Hilfe.




Verbraucher müssen viel für Obamas Energie Plan zahlen: Hochgeschossene Energiekosten in Europa und Kalifornien sind Vorboten für den Rest der USA

Nur einen Tag nach dem Urteil des Obersten Gerichtshofs, das die von der EPA [Umweltbehörde] geplanten Emissionsvorschriften für Quecksilber aus Kraftwerken blockiert, verpflichtete er die USA zu dem Ziel, bis 2030 20% [1] des gesamten Stroms aus erneuerbaren Energiequellen zu erzeugen.

Das bedeutet mindestens drei Mal mehr Subventionen als wir derzeit auf Windmühlen blasen und mit Sonnenstrahlen verbrennen . . . und das ist eine Menge.

Wind- und Solar erhalten jeweils bereits mehr als 50-mal mehr Subventionen pro Megawattstunde als herkömmliche Kohle, und mehr als 20-mal mehr in Bezug auf die durchschnittliche, durch Kohle und Erdgas erzeugte Elektrizität.

Gemäß den Zahlen der US Energy Information Behörde, „Bundes Interventionen und Subventionen“ stiegen die Subventionen für Wind (4,4% der amerikanischen Elektrizität) jährlich von $ 5,5 Mrd. bis 5,9 Mrd. $ in den Jahren 2010 bis 2013 und sie explodierten für Solar (0,4% unseres Stroms) von $ 1,1 Mrd. auf $ 4,5 Mrd. in diesem Zeitraum. Zum Vergleich, Subventionen für fossile Brennstoffe (etwa 60% des gesamten Strom) sanken von $ 4, o Mrd. auf 3,4 Mrd. $

Schmerzhafte Erfahrungen der EU zeigen wohin der Weg führt. Beispielsweise Dänemark. Am Tag der Erde 2010, lobte Präsident Obama das Land als eine großes Grünstrommodell . Und ja, während das Land theoretisch etwa 20% seines Stroms aus Wind- und Solarenergie produziert, berichtet CEPOS, eine dänische Denkfabrik, dass es nur zwischen 5% und 9,7% des durchschnittlichen Jahresbedarfs ist gegenüber dem vorherigen Zeitraum von 5 Jahren. Dänische Verbraucher bezahlen die höchsten Strompreise in Europa, mehr als dreimal so viel wie [in den USA].

Die bestehende deutschen Energiepolitik, in der 7,8% der Elektrizität aus Wind und 4,5% aus Solarenergie kommt, zwingt die Haushalte die zweithöchsten Energiekosten in Europa zu berappen – oft bis zu 30% über dem Niveau in anderen europäischen Ländern. Diese Umstände werden sich wahrscheinlich noch verschlimmern, mit Bundeskanzlerin Angela Merkel Plan, das Land von fossilen Brennstoffen und Kernkraft zu entwöhnen. Subventionen für Windkraft – die nur etwa ein Fünftel der theoretischen installierten Leistung liefert – sind dreimal höher als für den konventionellen Strom gezahlt wird. [EEG Belastung in 2015: mehr als 22 Mrd. Euro]

 

Bildquelle: cafacts.org

Präsident Obama lobte auch Spanien als ein schönes Beispiel für den Fortschritt der erneuerbaren Energien. Doch die ein paar Monate später veröffentlichte Studie von Forschern der Universidad Rey Juan Carlos präsentierte ein weit weniger beneidenswertes Bild. In den vergangenen 8 Jahren gab die spanische Regierung [im Durchschnitt] 791.597 $ an Subventionen für jeden Grüne-Energie Arbeitsplatz aus und überschritt für jeden Arbeitsplatz in der Windenergie sogar $ 1.380.000. Jede dieser Grünen Solar Arbeitsplätze kostete 2,2 Arbeitsplätze an verpassten Chancen in anderen Teilen der Wirtschaft, und jedes Megawatt installierte Windenergieleistung vernichtet 4,27 andere Arbeitsplätze.

Italiens Wind- und Sonnenstromerfahrung ist noch schlimmer. Laut einer Studie von Forschern an der Bruno Leoni Institute, würde die Höhe des erforderlichen Kapitals um einen Arbeitsplatz im Bereich der Erneuerbaren zu erschaffen, zwischen 4,8 und 6,9 Arbeitsplätze in der [konventionellen] Industrie oder an anderer Stelle erschaffen, allein auf Grundlage der Subventionen. Von den 50.000 bis 120. 000 „erneuerbaren Arbeitsplätzen“, die sie bis zum Jahr 2020 schaffen wollen, sind 60% nur temporär.

Die Erfahrungen in Großbritannien sind ähnlich wie in anderen EU-Ländern. Eine Studie Verso Wirtschaft stellt fest, dass jeder durch Subventionen „erneuerbare Arbeitsplatz“ 3,7 andere Arbeitsplätze in der Gesamtwirtschaft verdrängt. „Verpflichtungen für Erneuerbare“, die Marktpreise für Strom aus erneuerbaren Energiequellen zu erhöhen, kostet die Verbraucher im Vereinigten Königreich zusätzliche $ 1,75 Mrd. in 2009/2010. Im Jahr 2011 produzierten britische Windenergieanlagen magere 21% der installierten Leistung (nicht der nachgefragten Kapazität) bei guten [Wind] Verhältnissen.

Wie in Deutschland, ist es auch in der U.K. notwendig geworden, Atomstrom aus Frankreich zu importieren. Ebenfalls ähnlich wie in Deutschland, schließt die Regierung einige seiner älteren Kohlekraftwerke – von denen jedes einzelne fast die doppelte Menge an Strom von Großbritanniens 3.000 Windkraftanlagen produzieren kann.

Bildquelle: cfacts.org

Ja, und dann ist da noch unser eigenes über-grünes Kalifornien, das vorschreibt, dass erneuerbare Energien 33% der Elektrizität in 2020 liefern soll und schlägt vor, dieses auf 50% bis zum Jahr 2030 zu erhöhen.

In den letzten drei Jahren ist der Strompreis bereits um 2,18 Cent / kWh gestiegen, etwa das Vierfache des Landesdurchschnitts – da immer mehr Wind- und Photovoltaik angeschaltet wurden.

In der Zwischenzeit, so lange Erdgasbohrungen eingeschränkt sind, erwürgen die Klimakrise-Falschmeldungen der EPA-Vorschriften die fossile Energie Erzeugung und der Ausbau der Kernenergie ist verzögert [Hinweis: KKW gehören zur CO2 Minderungsstrategie]. Wir rasen versessen auf derselben Straße in die Verdammnis. Betrachten wir die Gefahr bevor wir uns der EU anschließen und Kalifornien Lemminge einem letzten, tödlichen Sprung tun.

Erschienen auf CFACT am 28. Juli 2015

Übersetzt durch Andreas Demmig

http://www.cfact.org/2015/07/28/consumers-will-pay-big-for-obamas-alternative-energy-push

[1] An anderen Stellen schreiben Kommentatoren: 28% sollen von Erneuerbaren kommen. Ich habe dann mal bei „The White House Blog“ geschaut. Lesen Sie selbst:

Hier die Übersetzung der ersten Zeilen:

The Clean Power Plan: Mythen und Fakten

Dan Utech, Rohan Patel

Heute, als Teil des Plans des Präsidenten, die Kohlenstoffbelastung zu beschneiden, finalisiert die Environmental Protection Agency (EPA) die allerersten nationalen Grenzwerte für Kohlenstoffverunreinigung durch bestehende Kraftwerke, die größte Einzel-Quelle der Kohlenstoffbelastung in den Vereinigten Staaten. Der Clean Power Plan ist ein historischer Schritt im Kampf gegen den Klimawandel. Er setzt flexible und erreichbare Standards, um Kohlendioxid-Emissionen um 32 Prozent gegenüber dem Niveau von 2005 bis zum Jahr 2030 zu reduzieren, während er [gleichzeitig] Zehntausende von Arbeitsplätzen schafft.

Obwohl gerade dieser Vorschlag des gesunden Menschenverstands enorme Vorteile für die hart arbeitenden Amerikaner im ganzen Land haben wird, bedeutet das nicht, dass einige Leute Fehlinformationen verbreiten und falsche Angriffe starten. Es gibt Kritik an dem was wir versuchen zu tun, und Zyniker, die sagen, dass es nicht getan werden kann. …

Danach kommt alles, was auch auf anderen AGW Seiten zu lesen ist, Es folgt, was alles nicht wahr sein soll, hier die Überschriften übersetzt und die Kurzfassung der m.e. wichtigsten Argumente:

Myth: Carbon pollution standards will destroy jobs and hurt the economy.
Standards für CO2 Belastung werden Arbeitsplätze vernichten und der Wirtschaft schaden.

–    … Analyse der EPA … Zehntausende von Arbeitsplätzen im ganzen Land

  • –   … Zwei unabhängige Studien zeigen, …  300.000 Arbeitsplätze

–   … und mit Kohlenstoffreduktionsprogramme, … ab 2014-2016 … 14.000 neue Arbeitsplätze in neun Staaten.

Myth: Carbon pollution standards will cause Americans’ utility bills to spike.

Standards für CO2 Belastung treibt die Stromrechnung der Amerikaner auf die Spitze

  • –  Ein anderer Liebling der alten Industrie bekam in letzter Zeit immer eine Menge Aufmerksamkeit. Die größten Umweltverschmutzer haben bereits begonnen, mit der Verbreitung des Mythos begonnen, der EPA gesunder Menschenverstand-Plan verursacht steigende Stromrechnungen.
  • –   … die Stromrechnungen werden um $ 85 .. [identisch s. nächster Punkt] Analyse von Synapse Energy Economics [Consultant für Clean Energie und öffentliche Auftraggeber]  zeigt, dass die Verbraucher sparen $ 41Milliarden im Jahr 2040, wenn die Bundesstaaten saubere Energieoptionen (siehe Abbildung 1) aggressiv verfolgen
  • –   Energieeffizienz-Programme, intelligenter Energie Management-Optionen, und schrumpfenden Kosten der erneuerbaren Energien
  • –   Alte Kohlekraftwerke geschlossen sind
  • –   Marktkräfte, politische Trends und Technologie Fortschritte konvergieren,
  • –   Reduzierung Emissionen im elektrischen Sektor senkt Strom Kosten.
  • Myth: Carbon pollution standards will hit low-income communities the hardest.
    Standards für CO2 Belastung wird einkommensschwache Gemeinden am stärksten treffen.

–       Die zynischste Behauptung ist, dass der EPA-Plan Minderheiten und einkommensschwachen Gemeinden schaden wird – auch wenn der Klimawandel und die Luftverschmutzung diesen Gemeinschaften am meisten wehtun.

–       Heute sind die Kinder afrikanischer Abstammung in American doppelt so häufig an Asthma erkrankt und Kinder der Latinos 40% häufiger an Asthma sterben.

–       … die Stromrechnungen werden um $ 85 pro Jahr für den durchschnittlichen Haushalt schrumpfen und … die Verbraucher sparen insgesamt 155 Mrd.$ von 2020-2030 durch die Erhöhung der Energieeffizienz und Reduzierung der Kosten im Stromsystem

Myth: This administration is waging a war on coal.
Diese Regierung führt einen Krieg gegen Kohle.

–       Dennoch zeigt eine unabhängige Strommarktanalyse, dass die jüngste Verschiebung weg von Kohle angetrieben wird, durch die Konkurrenz von billigerem Erdgas, niedrigere Kosten erneuerbarer Energieträger und die verstärkte Nutzung von Energieeffizienz.

–       Der Rückgang bei den Arbeitsplätzen in der Kohlegewinnung und Verarbeitung begann bereits vor langer Zeit.

Myth: This rule threatens the reliability of Americans’ electricity.
Diese Regel bedroht die Zuverlässigkeit der amerikanischen Stromversorgung

–       Die Empfehlungen der Anteilseigner (Wind und Solar) sind berücksichtigt worden, um die Zuverlässigkeit zu gewähren. Die acht Jahre dauernde Übergangsperiode beinhaltet ein „Zuverlässigkeits-Sicherheitsventil“ Bedenken basieren (nur) auf „worst-case“ Scenarios

–       This isn’t the first time that special interests have claimed that common-sense regulations will turn out the lights – or the first time they’ve been wrong.

–       Dies ist nicht das erste Mal, dass besondere Interessenten behaupten, dass Regelungen des gesunden Menschenverstands die Lichter ausgehen lassen würden – oder es ist das erste Mal, dass sie sich geirrt haben [Also sonst nicht geirrt? – der Übersetzer]

Myth: The Clean Power Plan is regulatory overreach.
Der Clean Power Plan ist regulatorisch überbordend.

–       Der Oberste Gerichtshof hat klargestellt, dass EPA die Verantwortung im Rahmen des Clean Air Act hat, um Grenzen für Treibhausgasemissionen zu setzen, die die öffentliche Gesundheit und das Wohlergehen gefährden.

–       Es ist höchste Zeit, das wir das dringendste Umweltproblem angehen, vor dem unser Land steht

Myth: The final Clean Power Plan drops energy efficiency.
Der endgültige Clean Power-Plan senkt die Energieeffizienz.

–       EPA hat zwar die Energieeffizienz bei den Zielen zurückgezogen, trotzdem wäre das kostengünstig … und würde Energie sparen, damit 30 Mio. Geringverdiener günstig an Energie kommen.

Myth: Climate change isn’t real.
 Der Klimawandel ist nicht real.

–       Argumentationsschleife: 300 Wissenschaftler haben in 2009 geschrieben…und Unternehmen, die 2,5 Billionen Börsenwert repräsentieren, investieren ohne zu fragen in die Rettung unsere Planeten

–       Nach stöbern auf der Propaganda Seite und vielen Links findet man ein pdf: http://tinyurl.com/nuz9tnd            der Regierung,

–       Möglich.., sehr sicher.., weil es so ist, ist es so! Gletscher schmelzen, Antarktis erlebt das Minimum (!) an Schnee- und Eisschmelze.

–       Keine Beweise, aber sehr detailliert ausgearbeiteter Bericht, viele Datenquellen.

Quelle: The White House Blog vom 03.Aug. 2015

Dan Utech ist stellvertretender Assistent des Präsidenten für Energie und Klimawandel.

Rohan Patel ist Sonder Assistent des Präsidenten, stellvertretender Direktor für Regierungsangelegenheiten im Weißen Haus

https://www.whitehouse.gov/blog/2015/08/03/clean-power-plan-myths-and-facts

Zum Klimawandel gibt es ebenfalls eine offizielle Webseite der Regierung, sehr professionell aufgemacht, natürlich ist alles schlimm mit dem Klimawandel:

http://www.globalchange.gov/

In gleicher Stoßrichtung fand ich auch noch GIZMODO

Dort werden 100% Erneuerbare für 2050 beschworen:

Ausgangspunkt sind die Emissionen von Treibhausgasen (Original Wortlaut: green-house-gas, ich weiß, EIKE Leser wissen …)

Bildquelle: EPA- http://cleanpowerplanmaps.epa.gov/cpp/

Dann kommt der erzieherische Effekt:

„…verbraucherseitige Effizienzstandards, würden die Menge an Energie insgesamt verringern, ein exzellenter Nebeneffekt….und dazu beitragen dass die US darüber nachdenken, wo ihre Energie herkommt und zu welchem Preis.“

Hier der Vorschlag für 2050

The State-By-State Challenge

Die Bundesland–zu–Bundesland Herausforderung

Die Brillanz – oder der Untergang – -dieses Plans ist es, dass es jedem Bundesland eigene konkrete Maßnahmen belässt. Jedes Bundesland ist in der Lage, seinen eigenen Plan zur Reduzierung der Emissionen zusammenstellen, der dann von der Bundesregierung im September 2016 genehmigt werden wird.

Grafik: Dieser Vorschlag, alle Energieerzeugung in den USA, auf erneuerbare Energiequellen bis zum Jahr 2050 zu wechseln, ist von Mark Z. Jacobson, einem Bau- und Umweltingenieur , der in Stanford das Atmosphäre und Energie-Programm leitet

Obama war auch klug, den Plan nicht als Klimawandel-Lösung einzustellen – denn das macht den Menschen immer glasige Augen und / oder sie bekämpfen die Fakten [des Klimawandels] – sondern als eine Lösung für andere Probleme die das Land vor Augen hat. Der Wechsel zu erneuerbaren Energien wird der nationalen Sicherheit helfen, die Wirtschaft ankurbeln und am wichtigsten, die öffentliche Gesundheit verbessern. Es wird dem typischen amerikanischen Verbraucher bis zu $ 85 / Jahr sparen, sagt die Administration. Für diejenigen, die sich Sorgen um die Auswirkungen auf die traditionelle Energiewirtschaft machen, nimmt Obama für sich in Anspruch [claims – behaupten, fordern], dass eine wachsende Branche der erneuerbaren Energien noch mehr Arbeitsplätze schafft.

Grafik: EPA bewirbt die gesundheitlichen Vorteile von zusätzlicher Verringerung der Umweltverschmutzung http://cleanpowerplanmaps.epa.gov/cpp/

Zum Abschluss, gibt es jedoch auch andere Kommentare vom gleichen Tag:

Obama’s New Energy Plan Could Cost $2.5 Trillion in Lost Economic Growth

Obamas neuer Energieplan kann $ 2,5 Billionen Verlust an Wirtschaftswachstum kosten

Nicolas Loris

Photo: JIM LO SCALZO/EPA/Newscom)

Die Obama-Regierung enthüllt ihre Klimaschutzvorschriften für bestehende und neue Kraftwerke, und nennt den Plan „der größte, wichtigste Schritt, den wir je zur Bekämpfung des Klimawandels getroffen haben.“

Es kann der „wichtigste“ Schritt von oben nach unten sein, ein regulatorischer für hohe Energiepreise, aber er wird nicht viel erreichen, wenn überhaupt, im Hinblick auf die Bekämpfung des Klimawandels.

Auch wenn die Stromerzeugung die größte Einzelquelle von CO2 -Emissionen in den Vereinigten Staaten ist, wird die geschätzte Reduktion winzig im Vergleich zu den globalen Treibhausgasemissionen sein.

Klimaforscher schätzen, dass die Klima Vorschriften der Administration weniger als zwei hundertstel Grad Celsius bis zum Jahr 2100 verhindern.

Für einen Klimavorteil, der nur gering – wenn nicht gar völlig inexistent ist, erhalten die Amerikaner höhere Strompreise, Arbeitslosigkeit und niedrigeren Wohlstand. Staatliche Aufsichtsbehörden könnten alle von den Vereinigten Staaten produzierten Treibhausgasemissionen auf Null senken, und diese Zahl würde nur ein Zehntel Grad der Erwärmung abwenden.

Daher sollten Kongressabgeordnete und Staatsbeamte nicht auf die Gerichte warten, um in dieser Angelegenheit zu handeln.

Jede Verzögerung bei der Bekämpfung der Gesamtheit der Regelung könnte näher zur Schließung der vielen zuverlässigen, kostengünstigen Kraftwerke führen, teurere alternative Energien fördern und hohe Preise für CO2 in den regionalen cap-and-trade-Programmen setzen.

Mitglieder des Kongresses und der Bundesländer sollten die Regulierung bekämpfen, anstatt sich für eine etwas schmackhaftere Fassung der Verordnung einzusetzen, die schädigende wirtschaftliche Ergebnisse bringt und keinen Nutzen für Klima oder Umwelt.

Erschienen auf THE DAILY SIGNAL am 03. August 2015

Übersetzt durch Andreas Demmig

http://dailysignal.com/2015/08/03/obamas-new-energy-plan-could-cost-2-5-trillion-in-lost-economic-growth/




Der Steppensommer 2015 – gut oder schlecht für die Natur?

Bild rechts: Frühsommer- Wiese bei Jena 2015: Reiche Blüte trotz großer Trockenheit. Foto: Stefan Kämpfe

Wie ist der Sommer 2015 klimatisch einzuordnen?

Den Rekord- Sommer 2003 mit knapp 19,7°C in Deutschland wird 2015 nicht überflügeln. Dafür müsste der August mehr als 23,5°C erreichen; das ist trotz eines noch möglichen neuen August- Rekordwertes unwahrscheinlich. Ähnlich in Erfurt, wo im Sommer 2003 19,4°C herrschten. Der kühle Juni dämpfte das Temperaturniveau des 2015er Sommers; er wird aller Voraussicht nur als zweitwärmster Sommer seit 1881 in die Klimageschichte Deutschlands eingehen. Die Hitze war den besonderen Großwetterlagen geschuldet, welche oft Luftmassen aus der Sahara, einhergehend mit einer hohen Sonnenscheindauer, heranlenkten (EIKE berichtete mehrfach darüber). CO2 scheidet als Ursache aus, denn wenn dieses Spurengas wirklich so stark „wärmt“, wie stets behauptet wird, dann hätte es die kalten Juni- und Julinächte mit Bodenfrösten in Norddeutschland und in der Eifel nicht geben dürfen. Dieser Sommer wird uns also auch wegen seiner enormen Temperaturschwankungen in Erinnerung bleiben. Innerhalb kürzester Zeit wechselten sich im Juli tropisch- subtropische und arktisch- subpolare Luftmassen ab. Am 30./ 31. Juli entstand aus der arktischen Meeresluft (mA) sogar kontinentale Subpolarluft (cP); eine Luftmasse, die sonst nur in den kälteren Jahreszeiten auftritt (Quelle: BERLINER WETTERKARTE). Die folgende Abbildung verdeutlicht die enormen Temperaturschwankungen am Beispiel von Erfurt:

Abb. 1: Temperaturminima in Erfurt- Bindersleben vom 16. Juni bis zum 11. August (Quelle: wetteronline, Nachbearbeitung Stefan Kämpfe). Besonders kalte Phasen und Einzelnächte sind hellblau markiert. Dabei traten im Juni mehrfach in Norddeutschland, am 10. Juli in der Eifel, Bodenfröste auf. Auch in Erfurt wurden in 2 Metern Höhe mehrfach 6 bis 8°C unterschritten (die Station liegt nicht in einem „Kälteloch“). In den wärmsten Nächten sanken die Werte hingegen nicht unter 20°C („Tropennächte“). Anfang August setzte sich dann, von einem kurzen Einbruch am 5.8. abgesehen, die sehr warme Luft für längere Zeit durch. Luftmassenklassifikation nach „BERLINER WETTERKARTE“; A = arktische Luft, P = subpolare Luft, S = subtropische und T = tropische Luft; m = maritime und c = kontinentale Luftmasse.

Der „Steppensommer“ fiel im ohnehin meist niederschlagsarmen Mitteldeutschland trotz einzelner Gewitterschauer erheblich zu trocken aus; hier herrschte bereits seit Februar ein erhebliches Niederschlagsdefizit. In Nordwest- und Süddeutschland blieb es feuchter.

Auswirkungen auf die Wildpflanzen- und Pilzflora

Trotz der Trockenheit und der späten Luft- und Bodenfröste blühten die Bäume reich und fast unbeschadet. Um Jena war eine meist reiche Orchideenblüte zu bewundern; nur die späteren Arten wie Bocksriemenzunge und Bienen- Ragwurz, machten sich rar. Auch viele Ackerwildkräuter, so das Sommer- Adonisröschen, traten nur selten auf. Dafür entwickelten sich Trockenheit vertragende Pflanzen wie das Feld- Mannstreu, Kugel- und Wollkopf- Kratzdisteln, Sichel- und Wilde Möhre, besonders gut. Die meisten Wiesenpflanzen blühten sehr reich; durch geringere Wuchshöhe passten sie sich der Trockenheit an. Anfang August ließ die anhaltende Dürre selbst robuste Pflanzen wie den Gewöhnlichen Beifuß, Löwenzahn- und Wegerich- Arten, verwelken. Bedenklich ist das aber nicht, denn Ähnliches war schon in anderen, zeitweise dürren Sommern wie 2010, 2009, 2006, 2003, 1994, 1983, 1982, 1976 und 1975, zu beobachten. Diese Pflanzen produzieren viele Samen, und ihre Rhizome überdauern fast immer die Trockenheit. Bei einigen Bäumen und Sträuchern färbte sich das Laub teilweise gelb und fiel ab; ein Verdunstungsschutz, um Wasser zu sparen. Die Winterlindenblüte begann in der Stadt Weimar relativ spät (nächste Abbildung):

Abb. 2: Am 21. Juni und damit relativ spät, zeigten sich in der Stadt die ersten Winterlindenblüten. Die verhaltenen Mai- und Junitemperaturen verzögerten den Blühbeginn. Etwa 2 bis 3 Wochen eher blüht die Sommer- Linde. Alle Lindenarten blühten in diesem Jahr reich.

Trotz des heißen Hochsommers konnte der leichte Vegetationsrückstand des Frühjahres auch später nicht völlig aufgeholt werden. Folglich setzte im Weimarer Stadtgebiet auch die Holunderreife 13 Tage später ein, als im Warmjahr 2014:

Abb. 3: Trotz der Juli- Hitze konnte der Vegetationsrückstand des Frühjahrs auch bei der Holunderreife nicht aufgeholt werden. Seit 1998 hat sich die Holunderreife geringfügig verspätet (steigende Trendlinie); dieser Trend ist aber noch nicht vertrauenswürdig (signifikant). Bei der Betrachtung des Zeitraumes ab 1990 (hier nicht gezeigt) hätte sich noch eine leichte Verfrühung ergeben.

Wieder einmal bestätigte sich die alte phänologische Regel: Der Frühling macht die Termine!

Im ersten Augustdrittel begann die Reife der Wildrosen, der Weißdorne und der Kornelkirschen. Mit dem Japanischen Schnurbaum (Sophora japonica) erreichte das letzte Ziergehölz im Stadtgebiet die Vollblüte; diesmal außerordentlich reich. Die Vollblüte der Kanadischen Goldrute wird um den 15. August erwartet. Kirschpflaumen fruchteten überreich.

Für Pilzfreunde war es bislang eine ausgesprochen schlechte Saison. Nur ganz vereinzelt zeigten sich von Mitte Juli bis Anfang August wenige Täublinge, Pfifferlinge und Röhrenpilze. Nur bei ausreichenden Niederschlägen im Frühherbst, die sich aber kaum vorhersagen lassen, könnte sich die Situation bessern. Die Myzelien (Pilzgeflechte) überdauern erfahrungsgemäß die Dürre unbeschadet und bringen nach stärkeren Regenfällen noch Fruchtkörper hervor.

Bei gesamtheitlicher Betrachtung zeigen sich also keine wesentlichen negativen Folgen der Trockenheit auf die Pflanzenwelt, welche sich im Laufe der Jahrtausende immer wieder an solche Bedingungen anpassen musste.

Die Tierwelt (Fauna)

Die Mauersegler als unsere auffälligste Sommervogelart kehrten am 5. Mai nach Weimar zurück und verließen die Region am 5. August bis auf einzelne Nachzügler. 2015 waren besonders viele dieser geschickten Flieger zu beobachten; überhaupt profitierten Insekten fressende Vögel von dem reichhaltigen Nahrungsangebot. Auch seltene, teils exotische Insektenarten wie das Taubenschwänzchen (von oberflächlichen Beobachtern als Kolibri verkannt!) waren und sind noch häufig in diesem Sommer zu bewundern. Viele Schmetterlinge, Spinnen, Wespen und die auf der Roten Liste stehenden, streng geschützten Hornissen, runden das Bild eines insektenreichen Sommers ab. Auch die Wild- und Honigbienen fanden dank der reichen Lindenblüte und des im Frühsommer sehr massiven Blattlausbefalls („Waldhonig“) ideale Bedingungen vor. In Wassernähe wurden Bremsen zeitweise zur massiven Plage, währen Stechmücken nur gelegentlich auftraten. Die größeren Standgewässer trockneten nicht aus; dort waren viele Frösche zu beobachten. Schon im Frühjahr deutete sich zum wiederholten Male eine Mäuseplage an. Im Sommer glichen viele Böschungen, Wegränder und Felder einem Schweizer Käse. Alarmisten behaupten, dies sei eine Folge des „Klimawandels“, insbesondere der milderen Winter und der im trockeneren Sommer. Doch in den vergangenen 30 Jahren sind die Wintertemperaturen kaum milder geworden, und nach den teilweise strengen Wintern 2010/11 (extrem kalter Dezember), 2011/12 (Extrem kalter Februar) sowie 2012/13 (langer, schneereicher Winter bis in den April hinein) vermehrten sich die Mäuse ebenfalls stark. Und wie sieht es mit den angeblich „immer trockeneren Sommern“ aus?

Abb. 4: Seit 1952 veränderten sich die sommerlichen Regenmengen in Erfurt praktisch nicht (der geringe Anstieg ist nicht signifikant).

Die „immer trockeneren Sommer“ sind eine Mär und bislang nicht eingetreten; sie können also auch nicht die Hauptursache der gehäuft auftretenden Mäuseplagen sein. Viel wahrscheinlicher sind es Bewirtschaftungsfehler und die Ausräumung der Agrarlandschaften, welche die Mäuse fördern. Monokulturen aus Mais („Bio- Gas- Lieferant“) und Getreide oder Raps („Bio- Diesel“) bieten viel Nahrung. Feldhecken und Bäume wurden beseitigt. Oft werden Feldraine völlig unnötigerweise schon im Frühling und auch danach immer wieder gemäht, was den Füchsen und Greifvögeln als Feinden der Mäuse ebenfalls die Deckung nimmt; sie meiden solche Reviere. Windräder vergrämen noch den letzten Greifvogel, wenn sie ihn nicht gleich zerhäckseln. Und die pfluglose Bodenbearbeitung spart zwar Wasser, verhindert aber eine Zerstörung der Mäusebaue.

Asiatische Marienkäfer, die vor einigen Jahren zur Blattlausbekämpfung eingeführt worden waren, bereiten ebenfalls zunehmend Probleme. Sie fressen an reifen Früchten, auch an Weintrauben, und machen diese ungenießbar.

Landwirtschaft, Garten- und Obstbau

Die magere Körnerfrucht- und Futterernte konnte wenigstens dank der Trockenheit verlust- und störungsarm geborgen werden. Bei den günstigen Druschbedingungen waren die meisten Ackerflächen schon um den 10. August beräumt. Gärtner ärgerten sich über ihre verbrannten Rasenflächen. Auch hier gilt: Langmut ist oft der bessere Ratgeber. Ein paar Regentage, und das Gras ergrünt wieder. Wer gießen konnte, hatte jedoch eine hervorragende Beerenobst- und Tomatenernte in bester Qualität. Die meisten Obstbäume fruchteten überreich. Von Mitte Juni bis Mitte Juli gab es viele Süßkirschen, im Juli auch gute Sauerkirschen. Ab Ende Juli reiften erste Kornäpfel und Pflaumen. Die Früchte blieben meist klein, weil die Bäume übervoll hingen. Im ersten August- Drittel reiften frühe Apfelsorten und weitere Pflaumen in guter Qualität; die Reife früher Birnensorten steht unmittelbar bevor. Alles Obst wies eine gute Qualität auf, weil Schorf, Monilia, Mehltau und Birnengitterrost selten aufraten. Auch für den weiteren Verlauf des Spätsommers/Frühherbstes ist eine meist gute Obsternte zu erwarten.

Zusammenfassung

Der heiße, trockene Sommer 2015 schadete der Natur insgesamt nicht. Im Gegenteil- höhere Temperaturen begünstigen viele Arten. Gelbe und welke Blätter an den Gehölzen, verdorrte Rasenflächen, vertrocknete Pflanzen und fehlende Pilze sind normale Reaktionen auf die Trockenheit und schon nach wenigen Regentagen vergessen.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Sechs Klima-Schlagzeilen aus dem Jahr 2009, die uns etwas Wichtiges sagen auf dem Weg zur Klima-Konferenz in Paris

Wenn wir die Welt wieder klar erkennen, können wir die Reform von Amerika in Angriff nehmen.

Vor sechs Jahren begann ein neues Kapitel der inkompetentesten Campaigner jemals, nämlich die Vorbereitung auf die Klimakonferenz in Kopenhagen im Dezember 2009 (hier). Die folgenden Schnipsel zeigen den Tenor des massiven Bombardements von Stories, die den Menschen Angst machen und eine Lawine lostreten sollten hinsichtlich weit reichender politischer Maßnahmen, um die Welt zu retten. Diese Schlagzeilen warnten davor, dass die Welt kurz vor ihrem Untergang steht und dass die Zeit abläuft.

(1) „Dem Präsidenten ,bleiben noch vier Jahre, um die Welt zu retten’“, sagt Klimawissenschaftler James Hansen im Guardian am 17. Januar 2009 (hier).

(2) „Die globale Erwärmung hat einen ,kritischen Punkt‘ erreicht“, warnt Prinz Charles im Telegraph am 12. März 2009 (hier). Der Welt bleiben „weniger als 100 Monate“, um den Planeten zu retten.

(3) „Uns bleiben nur noch Stunden, ,um eine Klimakatastrophe abzuwenden“ (hier) sagt Elizabeth May (Abgeordnete im Parlament und Chefin der Grünen Partei) in The Star, Toronto am 24. März 2009. Dies wurde als Nachricht verkauft und nicht als ein Op Ed.

(4) „Nur 96 Monate, um die Welt zu retten“, sagt Prinz Charles in The Independent am 9. Juli 2009 (hier). „Falls die Welt diese Warnungen nicht beachtet, werden wir alle den ,Alptraum erleben, der inzwischen für uns alle am Horizont heraufdämmert‘.“

(5)„Fünf Jahre, um die Welt von dem Klimawandel zu erretten“, sagt der WWF der Australian Broadcasting Company am 18. Oktober 2009 (hier). Daraus folgende Auszüge:

„Karl Mallon, ein Wissenschaftler bei Climate Risk und einer der führenden Autoren des Berichtes sagt, dass das Jahr 2014 als dasjenige berechnet worden sei, ab dem nicht mehr genug Zeit bleibe, die Industrien auf eine Low-Carbon-Ökonomie umzurüsten. Der ,Punkt ohne Wiederkehr‘.

Falls wir bis nach 2014 warten, wie es unsere Modelle zeigen, dann wird es, einfach gesagt, für die Industrien unmöglich sein, das noch in einer Größenordnung zu erreichen während der Zeit, die uns noch bleibt“.

(6)„Gordon Brown sagte, dass den Unterhändlern 50 Tage bleiben, um die Welt vor der globalen Erwärmung zu retten und den ,ausweglosen Punkt‘ zu durchbrechen“ (hier). So zu hören in der BBC am 19. Oktober 2009. Brown war damals UK-Premierminister.

Das Ergebnis

Es war ein fantastischer Erfolg – für die Teilnehmer, von denen sich die Meisten an Ferien auf Staatskosten (= auf Kosten des Steuerzahlers) mit ihren Angehörigen im pittoresken Kopenhagen erfreuten. Hier steht der von ihnen produzierte Wortsalat. Drei Journalisten des Guardian bewerteten die Konferenz hinsichtlich deren Errungenschaften: Niedrige Soll-Vorgaben, fallen gelassene Ziele: Kopenhagen endet mit seinem Scheitern (hier).

[Anmerkung von Hans-Dieter Schmidt: Während der gesamten Zeit der Konferenz lag Mitteleuropa und auch Dänemark im Zustrom extrem kalter Festlandsluft von Osten her, nachdem es dort zuvor einen massiven Schneesturm gegeben hatte. Halt der „Al-Gore-Effekt“]

Typische Ergebnisse einer der inkompetentesten Kampagnen, die jemals losgetreten worden sind (hier)

Sprung nach heute

Sechs Jahre später sind wir immer noch im Stillstand – dem Zustand, dass sich die Erwärmung der Atmosphäre immer weiter verlangsamt (siehe Studien hinsichtlich der Gründe hier) – mit den meisten Erscheinungen von Extremwetter im normalen Bereich (hier und hier).

Ohne etwas aus den gescheiterten Taktiken gelernt zu haben, haben Klimaaktivisten jetzt mit einem Angst-Bombardement begonnen, um eine Lawine von in Panik geratenen Menschen zur Klimakonferenz nach Paris zu erzeugen (Paris! Keine globalen Klimakonferenzen in Chicago oder Birmingham, wo die Veranstaltungen viel billiger wären). Jede Woche erscheinen neue Studien, die im Brustton der Überzeugung prophezeien, dass der Klimawandel immer neue Schrecken hervorbringen wird (komisch, dass nicht eine einzige gute Sache erzeugt wird).

Und als Sahnehäubchen auf diese Nachrichten hören wir dies: „Seine Königliche Hoheit Prinz Charles warnt, dass uns nur noch 35 Jahre bleiben, um den Planeten vor einem katastrophalen Klimawandel zu retten“ (hier). So gesagt am 18. Juli 2015 in den Western Morning News. Nett von Prinz Charles, dass er uns eine Atempause von seinem ursprünglichen Ultimatum im Juni 2017 gönnt.

Schlussfolgerungen

Eine Parallele zu dieser Kampagne ist die Serie von sicheren Prophezeiungen seit 1984, dass Iran in ein paar Jahren über Kernwaffen verfügen werde (hier). Es zeigt sich ein gemeinsames Element von Meinungsbombardement der Linken und der Rechten: Aktivisten verstehen uns. Sie wissen, dass uns nur auf uns selbst bezogene Wahrheiten interessieren, dass wir kaum einmal durch Erfahrung lernen und dass es uns egal ist, wenn unsere Führer uns belügen.

Wenn wir uns ändern und diese Dinge eben nicht länger als wahr ansehen, dann werden wir angefangen haben, die Kontrolle über Amerika zurück zu gewinnen. Mehr hierzu siehe hier: Amerika reformieren: Schritte in Richtung einer neuen Politik.

[Hervorhebung vom Übersetzer]

Weitere Informationen: Alle Beiträge zu Information und Desinformation hier, über die Grundlagen zum Verständnis des Klimawandels hier. Meine Beiträge zum Thema Klimawandel gibt es hier.

Link: http://wattsupwiththat.com/2015/08/08/six-climate-headlines-from-2009-that-tell-us-something-important-about-the-run-up-to-the-2015-paris-climate-conference/

Übersetzt von Chris Frey EIKE




Einfallspinsel = Ausfallspinsel: Staat, Medien und die bildungsfernen Schichten

Im Internet ist der Beitrag unter http://www.deutscherarbeitgeberverband.de/aktuelles/2015_08_10_dav_aktuelles_mittelmass.html erhältlich.

Einfallspinsel = Ausfallspinsel
Staat, Medien und die bildungsfernen Schichten

"Wissen ist Macht. Wir wissen nichts. Macht nichts" hieß es zu Zeiten der 68er. Wie sollte auch jemand – der auf endlosen Hearings, Demos und Wohngemeinschaftssitzungen bis zur Erschöpfung am neuen Menschen modellierte – noch Zeit zu einem sinnvollen Studium, einer fundierten Ausbildung, finden? Wer so selbstlos all seine Lebenskraft in die Zerstörung von Staat und Kapital investierte, hatte am Ende besseres verdient als Maloche und Leistungsdruck.

Da auch für diese Generation die Zeit kam, nach einem geregelten Lebensunterhalt Ausschau zu halten – auch wenn weder Lust auf Arbeit vorlag noch für die Wirtschaft nützliches Wissen, war Phantasie gefragt. Die Lösung: "Der lange Marsch durch die Institutionen". Die Helden und Heldinnen langjähriger Straßenkämpfe und sexueller Experimente ließen sich ermattet nieder als Lehrer, Verwaltungsangestellte, Beamte, Journalisten, machten was "in Medien". Oder entzogen sich als "Kulturarbeiter" gleich völlig dem unzumutbaren Druck regelmäßiger Arbeitszeiten.

Eine ungeheure Masse an Menschen, oft mittelmäßigsten Ausbildungsstandes, fanden nun ihr Auskommen in Politik, öffentlicher  Verwaltung, beim Fernsehen, Rundfunk, in Printmedien und, zu Tausenden, im Kultursektor.

Hans-Magnus Enzensberger hat das Mittelmäßige dieser bildungsfernen Schichten in schönen Sprachbildern  anschaulich gemacht:

"Ich fasse mich kurz und rekapituliere nur ein paar typische Fälle aus diesem unerschöpflichen Repertoire. .. der Referendar am Kammergericht, der immer diese Schwierigkeiten mit den Fremdwörtern hat. Er verwechselt »Diffamierung« mit »Diskriminierung« und »Diagramm« mit »Piktogramm«, und aus irgendeinem Grund sagt er jedesmal »Revelanz«, wenn er »Relevanz« meint. Er kann gar nicht begreifen, warum das den Vorsitzenden Richter derartig irritiert. »Ich kann schließlich«, meint er, »nicht andauernd mit dem Duden unter dem Arm herumlaufen.« Daran ist etwas Wahres.

Ganz zu schweigen von der Bewerberin, die sich in einer Galerie vorstellt, auf ein abgeschlossenes Kunstgeschichte-Studium verweisen kann, aber fest davon überzeugt ist, daß Leonardo und Goya »ungefähr zur gleichen Zeit« gelebt haben, und die sich verblüfft darüber zeigt, daß der Galerist wegen lächerlicher dreihundert Jahre Unterschied »einen solchen Terror macht»; von dem äußerst erfolgreichen, sechsunddreißigjährigen jungen Autor, Jungdramatiker und Jungfilmer, den die Kritiker für ein Genie halten, weil ihm die deutsche Syntax vollkommen fremd ist, und weil er überhaupt mit den Füßen schreibt; von dem kaufmännischen Lehrling, der sich außerstande sieht, eine Dreisatzaufgabe zu lösen, und der eine vorgedruckte Tabelle oder einen Taschenrechner braucht, um die Mehrwertsteuer » auszuwerfen « ; und von einer Million ähnlicher Problemfälle, aus denen Sachbearbeiter und Personalchefs inzwischen einen bunten, aber monoton gemusterten Sagenteppich gewoben haben, eine kulturelle Landkarte der Bundesrepublik im Maßstab eins zu eins, auf der in immer neuen Abwandlungen immer dasselbe zu sehen ist: Unfähigkeit, Analphabetentum und Ignoranz." (Enzensberger: "Über die Ignoranz")

Alimentiert saß nun dieses Mittelmaß am Drücker: im Kulturamt, im Bauamt, am Katheder von Schule und Universität, in den großen und kleinen Zeitungen dieser Republik, machten Regietheater und besetzten die Redaktionen der Funk- und Fernsehhäuser.

Ähnlich Kindern, die mit neuem Spielzeug experimentieren, staunten sie über die vielen Kontrollhebel, unbeschwert von störenden Kenntnissen und beseelt vom eigenen Sendungsbewusstsein, die Welt nun endlich "ein Stückweit" besser machen zu können.  Nach jahrelangem Studium etwa der "Vergleichenden Erziehungswissenschaften Deutsch-Türkisch" dann "was Praktisches" zu machen – kompetente Artikel zu Atomkraft oder Feinstaubbelastungen schreiben oder sogar im Stadtrat den örtlichen Gewerbetreibenden mal so richtig die Grenzen setzen zu können – wer wäre da nicht in heiteren Zukunftsoptimismus verfallen.

Noch ganz im frischen Bewusstsein der Erfahrungen aus Kommune und Kinderladen, der Arbeit am "Bewusstsein" und der zügellosen Experimente zur Befreiung der kindlichen Sexualität wurde zu deren erster Großbaustelle das deutsche Bildungssystem. Von verlässlichen Vorbildern inspiriert – Stalin, Mao, Pol Pot oder auch dem Mordgesellen Che – unter deren Herrschaft jedem, der 3 und 3 in einem Zielkorridor zwischen 5 und 7 einordnen konnte, als reaktionärem Intellektuellen das Lager drohte – wurde nun das deutsche Bildungssystem "modernisiert".

Konsequent orientiert an der eigenen Vorliebe zur Leistungs- und Bildungsverweigerung wurde der verbindliche gesellschaftliche Maßstab bei allen Veränderungen von nun an der jeweils niedrigste Ausgangspunkt.

An ihren neuesten Erfolgen zur Sexualisierung des Schulunterrichts in den deutschen Ländern, dem kindlichen Erlernen des Umgangs mit Dildo und Lederpeitsche statt mit Bunsenbrenner und Dampfmaschine, kann man gut beobachten, wie diese Triebtäter immer wieder zum Ausgangspunkt Ihrer Begierden und Obsessionen zurückkehren.

Meter um Meter haben diese bildungsfernen Schichten inzwischen die Gesellschaft umgepflügt, kein Stein der Erkenntnis blieb mehr auf dem anderen. Die europäische Aufklärung, sapere aude, der ungestüme Wunsch nach Erkenntnis und wissenschaftlichem Fortschritt  wurde von tiefer Technik- und Fortschrittsabneigung und  naturreligiöser Weltsicht ersetzt.

Wissen ist von den bildungsfernen Schichten konsequent ersetzt worden durch Glauben und Angst, das kleine Latinum durch das große Moralium abgelöst, und leider hat auch die 50 Jahre währende Umerziehung "der Massen" Früchte getragen. Die Schweigespirale tut ein Übrigens, weshalb sich der deutsche Michel auch die Nachtmütze tief über die Ohren gezogen hat und fortan, trotz allem Widerwillen, den grünen Frosch küsst, der aber partout kein Prinz werden will sondern weiter quakt und Sumpfbewohner bleibt. So leben trotzdem alle glücklich bis ans Ende aller Zahltage.

Glücklich – und sehr auskömmlich, muss man hinzufügen.

Denn viele Mitglieder der bildungsfernen Schichten haben es bis in den Bundestag und die deutschen Landtage geschafft. Nach 15, 20 Semestern Studium, nicht selten ohne Abschluss, nach "Arbeit" in steuersubventionierten "Initiativen" und Kampagnen zur Niederringung des verachteten Systems,  ist man spätestens mit Fischer 1985 an der Spitze der Geldverteilungsmaschine angekommen.

Die deutsche Variante des chinesischen "großen Sprungs nach vorn", die Deindustrialisierung eines der modernsten und erfolgreichsten Industrieländer der Erde, schreitet mit Riesenschritten voran. Energie, Chemie, Physik, Elektrochemie, Biologie – alles steht unter dem Betroffenheitsvorbehalt der Bildungsfernen. Arbeitsplätze entstehen vor allem in den Kontrollzentren: 9.000 neue Zöllner sind im Gespräch zum Beispiel durch dilettierende, aber vorsätzliche, Gesetzgebungen. Sogar die Flüchtlingsfrage wird, wie gerade zu lesen war, zum "Jobmotor". Sage und schreibe 6.000 neue Arbeitsplätze entstehen. Und wo? Sie haben es erraten, nicht dort, wo Steuern erwirtschaftet werden. Wer diesen "Jobmotor" für leise Ironie hält, vergisst, dass auch Humor etwas mit Bildung zu tun hat.

Eine schier endlose Zahl von Betreuungs- und Kontrolljobs ist entstanden, der Staatapparat zum Platzen aufgebläht mit Frauen- und Gleichstellungsbeauftragten, Mobbingschutz, Flüchtlings-, Migranten und Armutsindustrie, Genderkomikern und natürlich Sozialarbeitern, Sozialarbeitern, Sozialarbeitern.

Am Leben gehalten und befeuert wird diese Nomenklatura von den alten und neuen Seilschaften  – den ebenfalls oft maximal bildungsfernen Kultur- und Medienarbeitern. Gerne auch "Kulturschaffende" genannt.

Woran die größten Geister seit Leonardo da Vinci gescheitert waren, gemeinsam haben sie es geschafft: das Perpetuum mobile. Die sich selbst erhaltende Macht- und Einkommensmaschine.

Schauspieler, Schriftsteller, Modemacher, Strassenkämpfer, Bombenleger und besonders gerne Aussteiger dürfen sich in endlosen Talkrunden und Interviews als Experten an den großen Welterklärungen versuchen. Menschen, die Lohnarbeit nur aus Sekundärliteratur oder aus Gesprächen mit Betroffenen kennen und die mit "Markt" nichts assoziieren als eine Leistungsschau des Biobauern. Nur wer völlig unbeleckt ist von jedem Funken wirtschaftlicher und naturwissenschaftlicher Bildung und zudem über eine, dem Normalmenschen völlig fremde, Selbstüberschätzung verfügt, übernimmt diese Rolle gerne und mit Sendungsbewusstsein.

Wenn dann große Teile der  "Betroffenheit und Angst" verursachenden Industrie das Land verlassen hat und der Kahlschlag bei den Arbeitsplätzen nicht mehr von den Dilettanten aufzuhalten ist, was soll es – es wird trotz allem keine Kehrtwende geben. Denn Dummheit hat zwei enge Begleiter: Verantwortungslosigkeit und die Befreiung von Selbstzweifeln. Auch der Kommunismus in seinem Endstadium neigte nie zur Infragestellung seiner Visionen und Umsetzungsmodelle. Am Ende, die Geschichte hat es gezeigt, werden immer andere dafür zahlen und einstehen.

Und unser bildungsferner Zeitgeist operiert ja heute schon nicht anders als die historischen Vorbilder:

Frage an Radio Eriwan: "Stimmt es, dass in den USA jeder Bürger ein Auto hat?"
"Im Prinzip ja, aber bei uns hat dafür jeder einen Parkplatz"

[1] www.deutscherarbeitgeberverband.de/




Eklat am Rande des Lindauer Nobelpreisträger-Treffen: Fast die Hälfte aller Laureaten unterschreibt politisches Klimaalarm-Manifest nicht.

Nobelpreisträger Ivar Giaever warnte in einem Vortrag in Lindau sogar aktiv vor einer Klimapanikmache. Das gefiel Christian Endt vom Spiegel gar nicht gut und hetzte in einem emotionalen Artikel gegen den ehemaligen Spitzenforscher. Unter Hinweis auf Giaevers Altersgebrechlichkeit versucht er bereits im Enstieg des Artikels dessen Glaubwürdigkeit in Frage zu stellen. Ein Unding:

Mühsam steigt Ivar Giaever die sieben Stufen auf die Bühne des Lindauer Stadttheaters empor. Er geht gebückt, setzt behutsam einen Fuß vor den anderen. Wie die meisten anderen Nobelpreisträger, die zur jährlichen Tagung an den Bodensee gereist sind, ist Giaever ein alter Mann.

Was würde Endt wohl über Steven Hawkins schreiben? Man möchte es lieber nicht wissen. Auch der restliche Text ist gespickt mit respektlosen Phrasen wie “krude Theorien”, “besorgte-Großvater-Miene”, “Als Chiaever [sic!] fertig ist, leert sich der Saal rasch”. Endt schafft es nicht einmal Giaevers Namen richtig zu schreiben, was wenig nobelpreisverdächtig ist. Dem Spiegel-Mann missfällt der Hinweis auf den Erwärmungshiatus seit 1998 und klammert sich an die neuesten Datenmanipulationen der NOAA (siehe “NOAA in Not: Erwärmungspause der letzten 15 Jahre lässt sich nicht so einfach wegtricksen“).

Joachim Müller-Jung von der FAZ wollte genauer wissen, was den Organisator der Unterschriftenaktion, Brian Schmidt, antreibt. Im Rahmen eines Interviews stellte er ihm einige sichtlich unbequeme Fragen:

Ein Australier als Kreuzritter für Forschung und Klimapolitik: Brian Schmidt, Physik-Nobelpreisträger, erzählt, wie es zur „Mainauer Deklaration“ der 36 Laureaten kam und wie mit abtrünnigen Wissenschaftlern umzugehen ist.

MÜLLER-JUNG: Sie stützen sich explizit auf die Publikationen des Weltklimarates IPCC, der in der Vergangenheit auch schon einige Male wegen Fehler und Fehleinschätzungen in die Kritik geraten war.  

Die Antwort von Schmidt fällt wie erwartet aus: Der IPCC ist nicht 100% fehlerfrei, wäre aber höchst glaubwürdig. Müller-Jung hakt nach:

MÜLLER-JUNG: Woher nehmen Sie nun die Sicherheit, dass die Sorgen des IPCC über die Erwärmung, Meeresspiegelanstieg und Ozeanversauerung ernst zu nehmen sind?

Ein guter Punkt. Die Erwärmungsprognosen schießen wegen der Erwärmungspause weit über das Ziel hinaus, der Meeresspiegel steigt laut Pegelmessungen um magere 2 mm pro Jahr an und auch in PunktoOzeanversauerung gab es in letzter Zeit viele entwarnende neue Resultate. Was sagt Brian Schmidt dazu? Er sagt, tja, alles ist komplex, ein System großer Komplexität, eine inakzeptable Entwicklung stünde bevor, uns drohe vielleicht die größte Krise der Menschheit. In seiner Antwort geht Schmidt mit keinem Wort auf die ihm gestellte Frage ein, versucht mit Phrasen die bedeutenden wissenschaftlichen Unsicherheiten wegzulabern. Ein hundertprozentiger Klimaaktivist, dieser Nobelpreis-Schmidt. Von der Sache selber scheint der hauptberufliche Astronom eher wenig Ahnung zu haben. Das bemerkt vermutlich auch Müller-Jung und spricht ihn direkt auf den Knackpunkt an:

MÜLLER-JUNG: Haben Sie das Papier mit Blick auf den Klimagipfel von Paris entworfen, ähnlich wie der Papst die Enzyklika?

SCHMIDT: Ja, denn dieses Jahr ist nun einmal das Jahr, in dem gehandelt werden muss.

Schellnhuber schreibt für den Papst, stellt damit eine mittelalterliche Dreieinigkeit von Obrigkeit (G7), Kirche (Umweltenzyklika) und Wissenschaft (IPCC) her. Und nun schreibt Schmidt für die Nobelpreisträger. Ehemalige Wissenschaftler auf aktivistischen Abwegen. Die letzte Frage war dann offenbar auch Müller-Jung etwas zu entblößend, schnell versucht er Schmidt eine Brücke zu bauen:

MÜLLER-JUNG: Für sie ist die Deklaration offenbar nicht nur ein politisches Dokument, sie sehen es auch als Teil einer Informationskampagne, wenn man Ihre Erklärungen dazu hört. Glauben Sie nicht, dass viele Menschen es schon regelrecht satt haben, davon zu hören?

SCHMIDT: Ich glaube, die Leute sind bereits informiert, aber sie werden schlecht und oft falsch über das Thema unterrichtet. Die meisten informieren sich heute über das Internet, und sie tun das meistens, um eigene Meinungen und Vorurteile bestätigt zu sehen. Es gibt leider sehr viele fragwürdige, widersprüchliche Informationen in diesem Netz. Die Akademien müssen da klar Stellung beziehen und für Klarheit sorgen. Viele Politiker, jedenfalls in meinem Land, verstecken sich immer noch hinter falschen Informationen.  […]

Schmidt hat Angst vor der Wahrheit. Die Print- und TV-/Radio-Medien sind in der Regel fest im Griff der IPCC-Alarmisten, das Internet hingegen lässt sich schlecht auf Linie halten. Also muss man abweichende Blogs diskreditieren, den Autoren schlechte Absichten unterstellen und die Argumentationen pauschal verdammen. Ich bin der IPCC, Dein Gott. Du sollst keine anderen Götter haben neben mir.

Kurious das Ende des Interviews:

MÜLLER-JUNG: Es wäre nicht das erste Mal in der Wissenschaft, dass am Ende ein krasser Außenseiter recht behält.

SCHMIDT: Gut, wenn tatsächlich plötzlich eine Entdeckung gemacht wird, die beweist, dass die Klimaforschung falsch lag und der Klimawandel ausbleibt, dann passiert das halt. Dann bin ich der erste, der zugibt, dass wir falsch gelegen haben. Ich bin aber zu 99 Prozent sicher, dass das nicht passieren wird. […]




„Mehr Fahrrad“: Massiver Anstieg von Unfallrisiken

Mit der jetzt anlaufenden „Decarbonisierung der Gesellschaft“ plädieren die Minister Gabriel und Hendricks dafür, Beamte zur verstärkten Benutzung von Fahrrädern zu animieren und Fuß- und Radwege auszubauen, um so die deutschen CO2-Emissionen um jährlich 1,1 Mio. Tonnen zu verringern [GABR]. Doch was zunächst eher harmlos als Aufruf zu guten Taten erscheint, ist in Wirklichkeit eine Anstiftung zu massenhafter Körperverletzung.

Bild 1 rechts: Jeder zehnte Verkehrstote war mit dem Fahrrad unterwegs

Rutschgeräusche, Scheppern, Aufschlag, Ambulanz: Eine typische Szene für Wintertage mit tückischen Glatteisfallen, denen Radfahrer auf den selten gut geräumten Radwegen allzu häufig zum Opfer fallen. Und zugleich eine Verdeutlich der hohen Risiken, denen Radfahrer selbst dann ausgesetzt sind, wenn kein Auto beteiligt ist. Fahrräder sind wie alle Zweiräder vom Prinzip her instabil, so dass es schon bei kleinsten Anlässen zu Stürzen kommt. Ohne Blechgehäuse oder Knautschzone sind mittlere bis schwerste Verletzungen dann vorprogrammiert. Zehn Prozent aller Verkehrstoten sind Radfahrer. Diese Tatsache wird von dem heutigen gewissenlosen Politikertypus bei ihren Aufrufen zu vermehrtem Radfahren jedoch wider besseres Wissen ignoriert. Dabei genügt schon ein kurzer Blick in die Statistik, um zu erkennen, welch ungleich höheren Risiken Zweiradfahrer im Vergleich zu Autofahrern ausgesetzt sind.

Das Riesen-Risiko der Radfahrer

Das Unfallrisiko für Radfahrer liegt, bezogen auf die zurückgelegte Wegstrecke, mehr als neunmal so hoch wie das für Autofahrer und übertrifft sogar noch dasjenige der bekanntlich hoch gefährdeten Motorradfahrer. Wer also Menschen anhält, vom Auto auf das Fahrrad umzusteigen, nimmt in Kauf, dass die Betreffenden ein fast zehnfach höheres Risiko für Leib und Leben tragen, als wenn sie mit dem PKW unterwegs wären.

Bild 1: Das Unfallrisiko von Radfahrern ist 9,2 Mal so hoch wie das von Autofahrern und übertrifft sogar noch das von Motorradfahrern (Daten: [ADAC/DEST])

Im innerstädtischen Verkehr starben in Deutschland im Jahre 2011 sogar mehr Radfahrer als Fußgänger. Und dabei geht es nicht nur um Todesfälle: Viel schwerer wiegt die hohe Zahl der Schwer- und Leichtverletzten. Zwar geht die Zahl der Todesfälle im Verkehr seit vielen Jahren zurück, doch übersieht man hierbei leicht die viel höheren Zahlen der Schwer- und Leichtverletzten, von denen viele schwere bis schwerste gesundheitliche Langzeitfolgen – bis hin zum lebenslangen Pflegefall – davontragen. So kamen laut Untersuchungen des Statistikdienstes Destatis im Jahre 2011 bei Verkehrsunfällen zwar „nur“ 4009 Menschen zu Tode, doch gab es für jeden Toten 17 Schwerverletzte (insg. 69.000) und sogar 81 (insg. 323.400) Leichtverletzte.

Wo bleiben die Personalvertretungen?

Dabei ist der reine Vergleich von Arbeitswegen nur ein Teil des Gesamtbildes, denn viele Mitarbeiter müssen auch noch Dienstgänge zurücklegen. Nach Erhebungen des ADAC übertrifft die durchschnittliche Länge eines Dienstweges mit 20,4 km sogar noch diejenige des durchschnittlichen Arbeitsweges von 17,7 km. Sollten auch diese Strecken per Fahrrad zurückgelegt werden, dann stiege das persönliche Unfallrisiko nochmals um mehr als ein Drittel zusätzlich an.

Will man die Gesamtrisiken in konkrete Zahlen umrechnen, so muss man berücksichtigen, dass die Beförderungsleistung des Fahrrads nur 3 % der Gesamt-Beförderungsleistung ausmacht, das Auto dagegen 76 % erreicht. Wollte man nur die Hälfte der bisher per Automobil erbrachten Leistungen auf das Fahrrad verlagern, so stiege bei sonst unveränderter Risikostruktur die Zahl der Verkehrstoten von den 4009 des Jahres 2011 auf rund 13.000 an. Die Zahl der Schwerverletzten stiege von 69.000 auf 224.000 und die der Leichtverletzten sogar auf mehr als 1 Mio. Angesichts solcher Zahlen ist schwer nachzuvollziehen, warum sich in dieser Angelegenheit bisher weder Personalvertretungen bzw. Gewerkschaften noch Berufsgenossenschaften oder sonstige Interessenvertretungen mit entsprechenden Stellungnahmen zu Wort gemeldet haben.

Bild 2: Anteile der Beförderungsleistung der verschiedenen Transportmittel im Jahre 2011 (Daten: [DEST])

Zusätzliche Risiken

Nun mag der eine oder andere Vertreter grünsozialistischer Weltanschauungen damit argumentieren, dass mit abnehmender Zahl an Autos im Straßenverkehr sich auch die Risikolage für die Fahrradfahrer und Fußgänger verbessert. Es gibt jedoch eine Reihe von Gründen, warum dies wohl eher Wunschdenken bleiben dürfte. So dürfte mit zunehmendem Radverkehr auch das Risiko für Unfälle zwischen Radfahrern und Fußgängern merklich ansteigen [RADU]. Bereits heute ist vielfach ein oft rücksichtsloses Verhalten von Radfahrern gegenüber anderen Verkehrsteilnehmern festzustellen, bis hin zur Androhung körperlicher Gewalt gegenüber Fußgängern, die sich über die dreiste Benutzung von Fußwegen trotz vorhandener paralleler Radspur beschweren. Zudem dürfte die durchschnittliche Geschwindigkeit der Radfahrer durch die massive Zunahme von Elektrobikes deutlich zunehmen. Bisher lag sie bei rund 10,4 km/h, bei manchen der – oft zusätzlich frisierten – Hochleistungs-E-Bikes werden jedoch die 25 km/h teils deutlich überschritten, mit entsprechend erheblich höheren Unfall- und Verletzungsrisiken sowohl für die Fahrer als auch für Fußgänger. Die rasant steigenden Verkaufszahlen dieser Fahrzeugkategorien machen sich bereits in den Unfallstatistiken bemerkbar. So stieg einem Bericht von Spiegel Online zufolge die Zahl der Verkehrstoten in den ersten 11 Monaten das Jahres 2014 gegenüber dem Vorjahr erstmals seit längerer Zeit wieder an [SPIE]. Dabei stellte der gleichen Meldung zufolge der Deutsche Verkehrssicherheitsrat fest, dass „rund ein Fünftel aller Getöteten im Straßenverkehr auf Motorrädern, Rollern und E-Bikes unterwegs war. Die Zahl der Verkehrstoten auf Zweirädern sei in diesem Zeitraum im Vergleich zum Vorjahr teilweise im zweistelligen Prozentbereich gestiegen, so beispielsweise bei Fahrradfahrern um zwölf Prozent“.

Solche Zusammenhänge sind deutschen Spitzenpolitikern ganz sicher bekannt. Aber derartige unbequeme Wahrheiten wollen „Volksvertreter“ wie Gabriel, Hendricks und Konsorten gar nicht hören… 

Fred F. Mueller

Quellen:

[ADAC] Mobilität in Deutschland – Ausgewählte Ergebnisse. ADAC-Broschüre, Artikelnummer 2830600.

[DEST] BroschuereVerkehrBlick0080006139004Destatis

[GABR] http://www.spiegel.de/politik/deutschland/klimaschutz-wie-sigmar-gabriel-den-co2-ausstoss-bremsen-will-a-1006363.html

[RADU] Urteil Kammergericht Berlin, Beschluss vom 15. 01. 2015, Az. 29 U 18/14

[ROET] http://www.spiegel.de/politik/deutschland/wie-die-deutschen-umweltminister-der-umwelt-schaden-a-823362.html

[SPIE] http://www.spiegel.de/auto/aktuell/unfallstatistik-2014-zahl-der-verkehrstoten-hoeher-als-2013-a-1020389.html




Zyklenanalyse von Klimadaten

Zusammen mit dem dritten Autor Dr. Alexander Hempelmann von der Universitätssternwarte Hamburg haben wir über diese kürzeren Klimazyklen zwei Fachpublikationen in Zeitschriften der Europäischen Geophysikalischen Union (EGU) veröffentlicht [2], [3]. Die erste der beiden Publikationen, erschienen am 22. Feb. 2013, hat sechs der längsten existierenden Thermometermessungen aus Mitteleuropa im Hinblick auf Zyklen hin analysiert sowie zusätzlich eine Stalagmitenreihe und eine antarktische Eisbohrkernreihe. Der untersuchte Zeitraum erstreckt sich von 1757 – 2010. Die zweite Publikation, erschienen am 12. Feb. 2015, umfasst den längeren Zeitraum über 2500 Jahre von 500 v.Chr. bis 2010.

Analyse der letzten 2500 Jahre

Mittels der umfangreichsten  Klimadatenbank für diese Zeit (Daten aus Baumringen, Sedimenten, Stalagmiten etc.) zeigen wir, dass die wesentlichen Temperaturänderungen über den gesamte Zeitraum vom wohlbekannten ~200 jährigen „De Vries / Suess Zyklus“ der Sonne bewirkt wurden. Da die derzeitigen Temperaturen völlig im Bereich des klimahistorisch Normalen liegen, aber behauptet wird, die Erwärmung sei jetzt ungewöhnlich schnell,  verwendeten wir keine direkten Temperaturen sondern Temperaturdifferenzen über jeweils 100 Jahre Dauer, die die Erwärmungs- und Abkühlungsgeschwindigkeit wiedergeben. Diese Methode liefert eine besonders gute Visualisierung der Zyklen im Bereich zwischen etwa 100 bis 400 Jahren Zyklusdauer (Abb. 1) und kommt ohne Fitten oder Glätten aus.

 Abb. 1 (rechts oben): Temperaturänderungen über jeweils 100 Jahre rückwärts (mit linearer Regression), gewonnen aus den Originaldaten. Erläuterung: Das blaue Maximum im Jahre 1429 von 1,56 °C bedeutet beispielsweise 1,56 °C Temperaturzunahme über die 100 Jahre von 1329 bis 1429. Grün –  Büntgen  Zeitreihe [4], braun –  Christiansen Ljungqvist Zeitreihe [5]. Das rote Rechteck im Jahr 2000 zeigt die 100-jährige Temperatursteigerung des 20. Jahrhunderts.

Verglichen mit den Maxima und Minima der weiteren Vergangenheit  zeigen die Maxima und Minima der aktuellen Zeit (Abb. 1), dass die als ungewöhnlich behaupteten Temperatursteigerungen der jüngsten Zeit im klimahistorischen Normalbereich liegen. Insbesondere das 20. Jahrhundert zeigt keine Auffälligkeiten. Wiewohl die beiden Zeitreihen in ihren Maxima und Minima meist übereinstimmen, zeigt es sich, dass offenbar autogene Klimavorgänge von Zeit zu Zeit für Abweichungen vom periodischen Verlauf  sorgen.

Abb. 1 legt bereits dem unbewaffneten Auge nahe, dass Zyklen eine maßgebende Rolle spielen. Dies konnten wir mathematisch bestätigen (Abb. 2). An jede der gezeigten Reihen lässt sich eine einfache Sinusfunktion mit hoher Korrelation anpassen. Die Frequenzen der Sinusse sind dabei die Frequenzen der jeweils stärksten periodischen Komponente  im zugehörigen Spektrum (Fourier-Transformation), die Anpassung ist somit kein Fit. Nur die Phasen wurden optimiert, so dass die Korrelation zwischen Sinus und Datenreihe ein Maximum aufweist. Die Amplituden der Sinusse sind willkürlich, sie wirken sich auf die Korrelation nicht aus. Die Korrelation der beiden Reihen (Abb. 1, 2) ist geringer als die Korrelation mit den Sinusfunktionen. Dies zeigt, dass das wesentliche Charakteristikum der Messreihen die Periodizität ist.

Abb. 2: Sinus-Repräsentationen der Sonnenaktivität und von 3 Proxy-Temperaturreihen. Rot: Sonnenaktivität als 10Be, 14C Produktionsrate, Sinusperiode = 208 Jahre, Korrelation 0,68; grün: Büntgen Reihe [4], Sinusperiode = 186 Jahre, Korrelation 0,49; braun: Christiansen/Ljungqvist  Reihe [5], Sinusperiode = 189 Jahre, Korrelation 0,58; blau: Cook Reihe [6], Sinusperiode = 201 Jahre, Korrelation 0,41. Kurven sind zur besseren Übersicht höhenverschoben.

Als ein aktuelles Ergebnis der guten Wiedergabe von Temperaturreihen über 2500 Jahre durch Sinusfunktionen ist die Annahme berechtigt, dass sich der De Vries / Suess Zyklus auch in Zukunft fortsetzt. Dies bedeutet, dass in den nächsten 60 Jahren globale Abkühlung zu erwarten ist (Abb. 3). Während die Phasenübereinstimmung der beiden nordhemisphärischen Reihen Christiansen/Ljungqvist und Büntgen recht genau ist, weicht die südhemisphärische, sehr viel ungenauere Cook Reihe ab. Dies mag das bekannt unterschiedliche Klimaverhalten von Nord- und Südhemisphäre widerspiegeln.

Abb. 3: Sinusse der Reihen von Christiansen/Ljungqvist [5] (braun) und Büntgen [4] (grün) zusammen mit der antarktischen Reihe [7] (blau) bestätigen, dass der De Vries / Suess Zyklus global wirksam und für die Zukunft Abkühlung zu erwarten ist.

Analyse der letzten 250 Jahre

Die Analysenergebnisse unserer Publikation [2] aus den historischen Thermometerreihen von Kremsmünster, Wien, Prag, Hohenpeißenberg, München und Paris inkl. Eisbohrkern- und Stalagmitenreihe zeigen ausschließlich periodische Klimaänderungen in feinen Details. Es gibt keine Spur von unperiodischen Einflüssen, wie etwa dem des stetig ansteigenden atmosphärischen CO2 ( Abb. 4 ).

 Abb. 4: Mitteleuropäische Temperatur (schwarz, geglättet, stimmt mit antarktischen Temperaturen überein ) und Summe der  6 stärksten Zyklen ( rot ), wie gefunden mit der Zyklenanalyse der schwarzen Kurve. Die perfekte Übereinstimmung von rot und schwarz zeigt, dass nichtzyklische Einflüsse (wie des stetig zunehmenden atmosphärischen CO2) keine Rolle für die Temperatur spielt. Die Zyklen alleine geben die gemessenen Temperaturen korrekt wieder.

Speziell die Erwärmung von 0,7 Grad seit dem Temperaturminimum von 1870, welche offiziell dem CO2 Anstieg zugeschrieben wird, kommt vom Ansteigen des  De Vries / Suess Zyklus. Die wohlbekannte ozeanische Oszillation AMO/PDO mit ihrer 65 Jahr Periode (klar erkennbar in Abb. 4) moduliert den De Vries Zyklus +-10%. Diese beiden Zyklen bestimmen praktisch alleine die Erdtemperaturen. Der besonders starke Anstieg der Temperatur 1970 bis 1995 (Abb. 4), welcher immer als Beweis für einen CO2 Einfluss auf das Erdklima angeführt wird, kommt ganz einfach durch den gleichzeitigen Anstieg des De Vries / Suess Zyklus und der AMO/PDO zustande. Die „Pause“ in der Erderwärmung, die es, genau wie die Temperaturabfälle 1800 bis 1880 und von 1935 bis 1970, gar nicht geben dürfte, da ein wesentlicher Einfluss natürlicher Klimaschwankungen vom Weltklimarat IPCC ausgeschlossen wird, ist ebenfalls die Folge der AMO/PDO, die seit ca. dem Jahr 2000 abnimmt. Des De Vries / Suess Zyklus wegen kann eine generelle Abkühlung von jetzt bis ca. 2080 vorausgesagt werden, etwa auf den Wert des Temperaturminimums von 1870.

Bestätigungen unserer Ergebnisse

Ähnliche wie die unsrigen Ergebnisse wurden bereits in den letzten Jahren in der Sonnenphysikliteratur von anderen Autoren vor uns veröffentlicht und ausführlich diskutiert. Wir verwenden in unseren beiden Arbeiten andersartige Analysen, die aber letztlich zu praktisch gleichen Schlussfolgerungen kommen (s. Literaturangaben in unseren Publikationen). Trotz all dieser klaren, begutachtet veröffentlichten und unwidersprochenen Ergebnisse ignoriert offiziell das IPCC alle diejenigen Einflüsse der Sonne auf das Erdklima, die über die sehr geringe Variation der Solarkonstante hinausgehen. Einschlägige indirekte Mechanismen des Sonneneinflusses auf das Klima, wie beispielsweise von H. Svensmark  [8] nachgewiesen, kommen in den IPCC Berichten nicht vor.   

Abgesehen von unseren Nachweisen (die auf nähere Ursacheninterpretationen verzichten) und der Sonnenliteratur gibt es im Übrigen eine Vielzahl von weiteren publizierten physikalischen Sachverhalten, die  wesentliche Klimaeinflüsse des anthropogenen CO2 ausschließen. Anhand der bisherigen Zunahme von atmosphärischem CO2 müssen z.B. 50% der bis 2100 erwarteten Erwärmung durch CO2, wenn es denn eine solche gäbe, bereits eingetreten sein. Die zukünftige Erwärmung bis 2100 könnte also höchstens 0,7 Grad betragen.

Anmerkungen zu technischen Details

In Kritiken am sachlichen Inhalt unserer beiden Arbeiten ist oft vom „Fit“ bei der verwendeten diskreten Fouriertransformation (DFT) die Rede. Dies ist unzutreffend. Die Fouriertransformation bzw. die DFT sind mathematische Transformationen ohne Informationsverlust. Die Rücktransformation liefert nämlich wieder die ursprüngliche Reihe. Ein Fit ist dagegen grundsätzlich mit Vereinfachung, d.h. mit Informationsverlust verbunden.

Wir möchten ferner die Bedeutung der von uns durchgeführten Monte Carlo Simulationen betonen, die den Zufall bei der von uns aufgefundenen guten Übereinstimmungen von Temperaturdaten mit den gefundenen Zyklen statistisch ausschließen. In der Arbeit von 2013 findet sich der Nachweis unter 6. Confidence level of reconstruction, in der Arbeit von 2015 unter 7. Confidence levels. Diese maßgebenden Abschnitte werden gerne übersehen oder ignoriert. Nur die Cook Daten weichen ab (Abb. 2, blaue Kurve), der Ausschluss von Zufälligkeit mit Hilfe der Monte Carlo Methode ist hier nicht mehr signifikant, und entsprechend ist auch die Korrelation zwischen Sinus und Datenreihe hier am schwächsten.

Literatur

[1] https://de.wikipedia.org/wiki/Milankovi%C4%87-Zyklen

[2]  H.-J. Luedecke, A. Hempelmann, and C. O. Weiss:  Multi-periodic climate dynamics: spectral analysis of long term instrumental and proxy temperature records, Clim. Past 9, 447 – 452 ( 2013 );  http://www.clim-past.net/9/447/2013/cp-9-447-2013.pdf

[3] H.-J. Luedecke, C. O. Weiss, and H.Hempelmann:  Paleoclimate forcing by the solar De Vries / Suess cycle, Clim. Past Discuss. 11, 279 (2015);  http://www.clim-past-discuss.net/11/279/2015/cpd-11-279-2015.pdf

[4] U. Büntgen et al., science, 331, 4. Feb. 2011

[5] B: Christiansen and F. C. Ljungqvist, Clim. Past., 8, 765 – 786 (2012)

[6] E. R. Cook et al., Clim. Dynam., 16, 79 – 91 (2000)

[7] W. Graf et al., Ann. Glaciol., 35, 195 – 201 (2002)

[8] https://en.wikipedia.org/wiki/Henrik_Svensmark




Atomkraft in Japan: Entschieden unentschieden

 

Die Japaner haben da wirklich ein Problem. Dort gehört es sich einfach nicht, andere Menschen zu belästigen. Muss z.B. eine Baufirma für ein Vorhaben den angrenzenden Fußweg sperren, so bekommt sie dafür, wenn es unumgänglich ist, eine Genehmigung. Das genügt aber nicht. Sie beschäftigt einen Mann, als Bauarbeiter verkleidet, muss man sagen. Der arbeitet nämlich nicht, sondern steht nur an der eigentlich eindeutigen Absperrung, um den ganzen Tag lang sich bei den Passanten für seine Firma zu entschuldigen und die Leute zu bitten, die andere Straßenseite zu benutzen.

So fragt der Kernkraftwerksbetreiber noch die Bürgermeister entfernter Dörfer, ob sie mit dem Wiederanfahren einverstanden sind, ohne dazu gesetzlich verpflichtet zu sein. So lästig das in diesem Fall ist, dient es doch als eine der Bremsen gegen Einwanderung. Man kann sich in Japan nicht vorstellen, dass sich Fremde in dieses komplizierte Höflichkeitssystem einfügen. So nehmen viele Gasthöfe keine Ausländer, aus berechtigter Sorge, dass sie sich dort nicht benehmen können. Meine Frau und ich wurden auch schon höflich aufgefordert, ein Restaurant zu verlassen, als wir uns gerade an einem der leeren Tische niedergelassen hatten.

Selbstbedienungsrestaurants, sonst die Rettung für sprachunkundige Ausländer, schreiben manchmal die Preise in den alten Zahlen, die sonst, z.B. in Zeitungen, gar nicht mehr verwendet werden. Ich kann diese Zahlen zwar lesen, berücksichtige aber die Botschaft: Ausländer unerwünscht. 

Allerdings gibt es genügend andere Möglichkeiten, und für ausländische Gäste macht man sogar alle Beschriftungen in S- und U-Bahnen heute in Englisch. Aber die Gäste gehen ja wieder, wie auch die iranischen Gastarbeiter, welche Japan ein paar Jahre lang hatte. 

Die Geburtenzahl in Japan ist niedriger als bei uns. Aber es ist ja nicht so wichtig, wie viele Menschen in einem Land leben, sondern was für welche.

Hannover, den 11.08.2015




Der Stillstand geht ans Eingemachte – neue Stillstand-Rekordlänge: keine Erwärmung seit 18 Jahren und 7 Monaten

Abbildung 1: Die lineare Regression kleinster Quadrate des Trends der globalen monatlichen Temperaturanomalie nach RSS zeigt keine globale Erwärmung seit 18 Jahren und 7 Monaten, also seit Januar 1997.

Die Stillstandsperiode von 18 Jahren und 7 Monaten ist der am weitesten zurück reichende Zeitraum, den man betrachten kann und der immer noch einen Null-Trend zeigt. Das Anfangsdatum ist nicht cherry picked, es ist berechnet. Und die Graphik bedeutet nicht, dass es so etwas wie eine globale Erwärmung nicht gibt. Geht man noch weiter zurück, zeigt sich eine geringe Erwärmungsrate.

Der Stillstand geht inzwischen ins Eingemachte. Im Vorfeld der Klimakonferenz in Paris im Dezember hat die Weigerung der Welt, sich während über der Hälfte der Zeit mit Satellitenbeobachtungen überhaupt zu erwärmen, die Klimaextremisten zu verzweifelten Maßnahmen greifen lassen in dem Versuch, den Stillstand irgendwie zu beseitigen.

Zunächst war da Tom Karl, der mit seiner Studie versucht hat, den Stillstand auszuradieren, indem er willkürlich alle Wassertemperaturmessungen der 3600 in den Ozeanen treibenden ARGO-Bojen drastisch nach oben korrigiert hat. Und Hokuspokus – alle drei der längsten existierenden terrestrischen Temperatur-Datensätze – GISS, HadCRUT4 und NCDC – wurden entsprechend adjustiert, wieder einmal, um mehr globale Erwärmung vorzugaukeln als es tatsächlich der Fall war.

Allerdings sind die gemessenen und aufgezeichneten Fakten nun mal da. Während der 11 ganzen Jahre von April 2004 bis März 2015, während derer die ordnungsgemäß kalibrierten ARGO-Bojen vernünftige, wenn auch unvermeidlich sehr schlecht aufgelöste Daten lieferten (jede Boje muss 200.000 km³ Ozeantemperatur repräsentieren mit nur drei Ablesungen pro Monat), gab es in den oberen 750 m keinerlei Erwärmung und in tieferen Schichten eine nur sehr geringe. Daraus ergibt sich während dieses Zeitraumes ein Erwärmungstrend äquivalent zu 1°C alle 430 Jahre.

Abbildung 1a: fast globale Ozean-Temperaturen pro Schicht, 0 bis 1900 m. Quelle: ARGO-Meeresatlas.

Und in der unteren Troposphäre ergab sich RSS zufolge eine Erwärmungsrate äquivalent zu 1°C alle 700 Jahre.

Abbildung 1b: Der lineare Regressionstrend kleinster Quadrate im UAH-Satelliten-Datensatz der globalen mittleren Temperatur zeigt keinerlei globale Erwärmung seit 18 Jahren und 5 Monaten, also seit März 1997.

Dann erschien eine andere Studie, diesmal mit der Aussage, dass die globale Temperaturaufzeichnung des GISS eine globale Erwärmung während des Stillstands zeigt und dass daher GISS globale Erwärmung während des Stillstands zeigt. Dieses Beispiel eines Zirkelschlusses passierte ohne Schwierigkeiten die Begutachtung, weil die Studie zu der politisch korrekten Schlussfolgerung gekommen war, dass es keinen Stillstand gibt.

Allerdings kam die Studie zu dieser Schlussfolgerung, ohne das Wort „Satellit“ zu erwähnen. Die UAH-Daten zeigen keine Erwärmung seit 18 Jahren und 5 Monaten.

Abbildung 1c: Der lineare Regressionstrend kleinster Quadrate des via Satellit gemessenen Trends der globalen Temperaturanomalie zeigt keine globale Erwärmung seit 18 Jahren und 5 Monaten, also seit März 1997.

Der Vollständigkeit halber folgt hier noch die „Erwärmungs“-Rate der terrestrischen Datensätze seit Januar 1997, obwohl diese völlig unzuverlässig sind:

Abbildung 1d: Der lineare Regressionstrend kleinster Quadrate in der mittleren monatlichen Temperaturanomalie nach GISS, HadCRUT4 und NCDC zeigt eine globale Erwärmung mit einer Rate äquivalent zu etwas über 1°C pro Jahrhundert im Zeitraum des Stillstands von Januar 1997 bis Juli 2015.

Wenn man bedenkt, dass ein Drittel des Strahlungsantriebs von 2,4 W/m² aus allen anthropogenen Quellen während des Stillstands-Zeitraumes stammt, ist eine Erwärmungsrate von etwas mehr als 1°C pro Jahrhundert nicht wirklich alarmierend. Allerdings hat es die Studie, die das vermeintliche Fehlen des Stillstands zeigte, sorgfältig vermieden zu erwähnen, wie gering die Erwärmung in den terrestrischen Datensätzen tatsächlich ist – selbst nach all den zahlreichen Manipulationen.

Wie immer muss man hier aber aufpassen: Nur weil es während der letzten Jahrzehnte keine oder nur eine geringe Erwärmung gegeben hat, kann man daraus nicht folgern, dass die Erwärmung für immer zum Stillstand gekommen ist. Die Trendlinien messen nur das, was geschehen ist; sie sagen nicht voraus, was geschehen wird.

Außerdem hat die lange, allmähliche Bildung des gegenwärtigen El Niño, der nicht vor dem Jahreswechsel seinen Höhepunkt erreichen wird, schon jetzt die tropischen Temperaturen beeinflusst und wird infolge des Wirkens der thermohalinen Zirkulation eventuell auch die globalen Temperaturen beeinflussen.

Obwohl man erwarten kann, dass dieser El Niño von einer La Niña gefolgt wird, was die temporäre Erwärmung wieder aufhebt, ist das nicht immer der Fall. Kurz gesagt, der Stillstand könnte zu Ende gehen und dann verschwinden. Allerdings haben wir hier schon oft zuvor betont, dass der Stillstand – so politisch nützlich er auch für alle sein kann die wünschen, dass die „offizielle“ wissenschaftliche Gemeinschaft seiner Pflicht zum Hinterfragen nachkommt – weit weniger wichtig ist als die immer größer werdende Diskrepanz zwischen den Prophezeiungen der globalen Zirkulationsmodelle und der beobachteten Realität.

Die Diskrepanz zwischen den Modellprophezeiungen im Jahre 1990 (Abbildung 2) und 2005 (Abbildung 3) einerseits und die tatsächlichen Messungen andererseits vergrößert sich immer weiter. Falls sich der Stillstand noch ein wenig weiter fortsetzt, wird die Erwärmungsrate in dem Vierteljahrhundert seit dem ersten IPCC-Zustandsbericht aus dem Jahr 1990 unter ein Äquivalent von 1°C pro Jahrhundert absinken.

Abbildung 2: Echtzeit-Projektionen der Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ des IPCC im Jahre 1990 für die 307 Monate von Januar 1990 bis Juli 2015 (orangefarbener Bereich und rote Trendlinie) im Vergleich zu gemessenen Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von nur 1 K pro Jahrhundert, gemittelt aus den Satelliten-Datensätzen von RSS und UAH.

Abbildung 3: Vorhergesagte Temperaturänderung von Januar 2005 bis Juli 2015 mit einer Rate äquivalent zu 1,7 (1,0; 2,3) K pro Jahrhundert (orangefarbener Bereich mit dicker roter Best Estimate-Trendlinie), verglichen mit den beobachteten, nahe Null liegenden Anomalien (dunkelblau) und Trend (hellblau) der realen Welt, gebildet aus dem Mittel der Temperaturanomalien in der unteren Troposphäre nach RSS und UAH.

Die Liste der Kernfakten über die globale Temperatur (unten) sollte man jedem vorlegen, der weiter daran glaubt, dass – um es mit den Worten von Mr. Obamas Twitterei auszurücken – „die globale Erwärmung real, vom Menschen verursacht und gefährlich“ ist.

In Hintergründe werden die Quellen der IPCC-Vorhersagen aus den Jahren 1990 und 2005 erläutert. Auch wird gezeigt, dass sich die Ozeane den ARGO-Daten zufolge mit einer Rate äquivalent zu weniger als 0,25°C pro Jahrhundert erwärmen.

Kernfakten zur globalen Temperatur

● Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 223 Monaten von Januar 1997 bis Juli 2015 – also während über der Hälfte der 439 Monate langen Satelliten-Aufzeichnungen.

● Es gab keine Erwärmung, obwohl ein Drittel aller anthropogenen Antriebe seit 1750 erst nach Januar 1997 freigesetzt wurden, also während des Stillstands der globalen Erwärmung.

● Der gesamte RSS-Datensatz von Januar 1979 bis heute zeigt eine globale Erwärmung mit einer wirklich nicht alarmierenden Rate von lediglich 1,2°C pro Jahrhundert.

● Seit 1950, also seit dem Zeitpunkt, an dem ein menschlicher Einfluss auf das Klima zum ersten Mal theoretisch möglich ist, lag der Trend der globalen Erwärmung unter einem Äquivalent von 1,2°C pro Jahrhundert.

● Der globale Erwärmungstrend seit dem Jahr 1900 ist äquivalent zu 0,75°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und dürfte mit uns nicht viel zu tun haben.

● Zur höchsten Erwärmungsrate über 15 Jahre oder mehr seit 1950 kam es während der 33 Jahre von 1974 bis 2006. Die Rate lag äquivalent zu 2,0°C pro Jahrhundert.

● Zum Vergleich, die Erwärmung im Temperatur-Datensatz aus Mittelengland während der 40 Jahre von 1694 bis 1733, also lange vor der industriellen Revolution, erreichte ein Äquivalent zu 4,33°C pro Jahrhundert.

● Im Jahre 1990 lag die Mittelfrist-Prognose des IPCC äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel höher als seine jüngste Prognose von 1,7°C pro Jahrhundert.

● Der Erwärmungstrend seit 1990, dem Jahr des 1. IPCC-Zustandsberichtes, ist äquivalent zu 1°C pro Jahrhundert. Das IPCC hat eine zweieinhalb mal so hohe Rate prophezeit.

● Damit die zentrale Prognose des IPCC von einer Erwärmung um 1°C von 1990 bis 2025 doch noch eintrifft, müsste es im nächsten Jahrzehnt zu einer Erwärmung von 0,75°C kommen, also einem Äquivalent zu 7,5°C pro Jahrhundert.

● Obwohl das IPCC seine Erwärmungsprognose im Kurzfristzeitraum zurückgefahren hat, sagt es langfristig bis zum Jahr 2100 bei Business as Usual immer noch eine Erwärmung um 4,8°C voraus.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 liegt deutlich mehr als zweimal so hoch wie die höchste Erwärmungsrate über mehr als 15 Jahre, die seit dem Jahr 1950 gemessen worden ist.

● Die IPCC-Vorhersage von 4,8°C bis 2100 liegt viermal so hoch wie der gemessene globale Erwärmungstrend, seit wir diesen theoretisch hätten beeinflussen können, also seit 1950.

● Die Ozeane erwärmen sich den ARGO-Bojen zufolge mit einer Rate von lediglich 0,02°C pro Jahrzehnt, äquivalent zu 0,23°C pro Jahrhundert oder 1°C in 430 Jahren.

Hintergründe

Unsere jüngste Graphik zeigt die lineare Regression kleinster Quadrate des Trends der monatlichen globalen mittleren Temperaturen, der so weit zurückreicht, wie es möglich ist und immer noch einen Null-Trend findet. Das Anfangsdatum ist nicht cherry picked, um mit der Temperaturspitze des El Niño des Jahres 1998 zusammenzufallen. Stattdessen ist er berechnet, um den längsten Zeitraum mit einem Null-Trend zu finden.

Die Tatsache des langen Stillstands ist ein Hinweis auf die sich stetig vergrößernde Diskrepanz zwischen Prophezeiung und Wirklichkeit bei den Temperaturmessungen.

Die Satelliten-Datensätze sind allgemein deutlich weniger unzuverlässig als andere Datensätze, zeigen sie doch den Großen El Niño klarer als alle anderen Datensätze. Dieses Ereignis verursachte wie seine beiden Vorgänger während der letzten 300 Jahre eine verbreitete Korallenbleiche, was eine unabhängige Verifikation erlaubte, dass Satelliten-Datensätze mehr als alle anderen in der Lage sind, derartige Fluktuationen ohne künstliches Herausfiltern abzubilden.

Terrestrische Temperaturen werden mit Thermometern gemessen. Korrekt in ländlichen Gebieten aufgestellte Thermometer abseits von menschlichen Wärmequellen zeigen Erwärmungsraten, die unter jenen liegen, die veröffentlicht werden. Die Satelliten-Datensätze basieren auf Referenzmessungen mittels der genauesten derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, welche eine unabhängige Verifikation der Temperaturmessungen ermöglichen, indem man mittels ins Weltall gerichteter Spiegel die kosmische Hintergrundstrahlung heranzieht, die etwa 1% des Gefrierpunktes von Wasser beträgt oder einfach 2,73 Grad über dem Absoluten Nullpunkt liegt. Es waren Messungen von minimalen Variationen dieser kosmischen Hintergrundstrahlung, die es der NASA ermöglichten, das Alter des Universums zu berechnen: 13,82 Milliarden Jahre.

Die RSS-Graphik (Abbildung oben rechts) ist akkurat. Die Daten wurden monatlich direkt von der RSS-Website heruntergeladen. Ein Computer-Algorithmus liest sie aus dem File heraus und plottet sie automatisch mittels einer fortschrittlichen Routine, die automatisch das Bildformat des Datenfensters an beide Achsen anpasst, um die Daten der Klarheit halber im maximal möglichen Maßstab zu zeigen.

Der letzte monatliche Datenpunkt wird visuell untersucht um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue, über die gezackte dunkelblaue Linie gelegte Trendlinie zeigt die Daten nach der linearen Regression kleinster Quadrate sowie die den Schnittpunkt mit der Y-Achse und die Neigung der Linie.

Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Das Verfahren ist angemessen, weil die globalen Temperaturaufzeichnungen nur wenig Autoregression zeigen, werden doch die Sommertemperaturen auf der einen Hemisphäre durch die Wintertemperaturen auf der anderen Hemisphäre kompensiert. Daher würde ein AR(n)-Modell Ergebnisse erzeugen, die sich ein wenig vom Trend der kleinsten Quadrate unterscheiden.

Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend in der Graphik und der Korrelationskoeffizient berechnet werden. Dieser ist sehr klein, und obwohl die Daten hoch variabel sind, verläuft der Trend flach.

Bei RSS selbst ist jetzt ernsthaftes Interesse an der Länge des Großen Stillstands aufgekommen. Dr. Carl Mears, der leitende Forschungswissenschaftler bei RSS, diskutiert dieses hier.

Die Ergebnisse von Dr. Mears werden in Abbildung T1 zusammengefasst:

Abbildung T1: Output von 33 IPCC-Modellen (türkis) im Vergleich mit der globalen Temperaturänderung nach RSS (schwarz) von1979 bis 2014. Die vorübergehenden Abkühlungen durch die Vulkanausbrüche des El Chichon (1983) und des Pinatubo (1991) zeichnen sich ab, ebenso wie die Wärmespitze des Großen El Nino von 1998.

Dr. Mears schreibt:

Die Leugner mögen es zu vermuten, dass der Grund für die Diskrepanz zwischen Modellen und Beobachtungen eine Art Problem mit der zugrunde liegenden Modellphysik ist, und sie weisen alle anderen Formen der Erklärung zurück. Dies verleitet sie zu der Schlussfolgerung, sehr wahrscheinlich irrig, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die wachsende Diskrepanz zwischen RSS-Daten und den Modellen ein, führt diese allerdings auf Rosinenpickerei des Anfangsdatums der Graphik der globalen Temperatur zurück:

Jüngst war in einer Anzahl von Artikeln der Mainstream-Presse zu lesen, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben zu haben scheint. Deswegen stellt man uns viele Fragen mit dem Tenor ;Ich habe diese Graphik auf einer Leugner-Website gesehen. Sind das wirklich Ihre Daten?‘ Während einige dieser Berichte den Endzeitpunkt ,cherry-picked‘ haben, um ihre Beweise noch stärker aussehen zu lassen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten IPCC-Simulationen des historischen Klimas im AR 5 vorhergesagt. … Die Leugner mögen es wirklich, die Trends im Jahre 1997 beginnen zulassen, so dass das gewaltige ENSO-Ereignis von 1997/1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der kleinstmöglichen Neigung führt“.

Tatsächlich wird die vom Großen El Niño 1998 verursachte Temperaturspitze aus zwei Gründen fast vollständig bei der Berechnung des linearen Trends ausgeglichen: dem Fehlen einer ähnlichen Spitze beim El Niño 2010 und der schieren Länge des Stillstands selbst.

[Was ist das für ein „Wissenschaftler“, der alle anderen als „Leugner“ bezeichnet, die lediglich zu anderen Erkenntnissen gekommen sind als er selbst? Anm. d. Übers.]

Komischerweise bevorzugt Dr. Mears die terrestrischen Datensätze vor den Satelliten-Datensätzen. Das UK Met.-Office jedoch verwendet die Satellitendaten, um seine eigenen terrestrischen Daten zu kalibrieren.

Die Länge des Stillstands der globalen Erwärmung, so signifikant sie auch daherkommt, ist weit weniger wichtig als die stetig und rasch weiter zunehmende Diskrepanz zwischen den von den Modellen prophezeiten Temperaturtrends und der weit weniger ausgeprägten Temperaturänderung der realen Welt. Der El Niño dieses Jahres kann sich durchaus noch in diesem Jahr verstärken, was die Länge des Großen Stillstands reduziert. Allerdings setzt sich die Verbreiterung des Grabens zwischen Prophezeiung und Beobachtung weiter fort.

Quellen der IPCC-Projektionen in den Abbildungen 2 und 3.

Im Ersten Zustandsbericht des IPCC wurde prophezeit, dass die Temperatur bis zum Jahr 2025 um 1,0 °C (0,7; 1,5°C) steigen würde, was äquivalent ist zu einer Rate von 2,8°C (1,9; 4.2°C) pro Jahrhundert. In der Executive Summary wurde die rhetorische Frage gestellt: „Wie viel Vertrauen haben wir in unsere Prophezeiungen?“ Das IPCC verwies auf einige Unsicherheiten (Wolken, Ozeane usw.), kam aber dennoch zu dem Ergebnis:

Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle zumindest die groben Umrisse des Klimawandels prophezeien können … Es gibt Ähnlichkeiten zwischen Ergebnissen der gekoppelten Modelle mittels einfacher Repräsentationen des Ozeans und jenen komplizierteren Beschreibungen, und unser Verständnis der Differenzen, die es auch gibt, bestärkt uns in dem Vertrauen in unsere Ergebnisse“.

Dieses „substantielle Vertrauen“ war substantielles Über-Vertrauen. Und zwar weil die Rate der globalen Erwärmung seit 1990 – die wichtigsten „groben Umrisse des Klimawandels“, die die Modelle vermeintlich prophezeien sollten – inzwischen weniger als halb so groß ist wie vom IPCC damals prophezeit.

Im Jahre 1990 schrieb das IPCC Folgendes:

Auf der Grundlage der gegenwärtigen Modelle prophezeien wir:

Bei Treibhausgas-Emissionen unter dem Szenario A (Business as Usual) gibt es eine Rate der Zunahme der globalen mittleren Temperatur während des nächsten Jahrhunderts um etwa 0,3°C pro Jahrzehnt (mit einer Unsicherheits-Bandbreite von 0,2°C bis 0,5°C pro Jahrzehnt). Dies ist größer als während der letzten 10.000 Jahre aufgetreten. Dies wird zu einer wahrscheinlichen Erwärmung um etwa 1°C über dem jetzigen Wert bis zum Jahr 2025 und um 3°C vor dem Ende des nächsten Jahrhunderts führen. Der Anstieg wird nicht gleichmäßig verlaufen infolge des Einwirkens anderer Faktoren (S. Xii).

Später hieß es vom IPCC:

Die Zahlen unten basieren auf hoch auflösenden Modellen, skaliert, um mit unserer Best Estimate der globalen mittleren Erwärmung von 1,8°C bis zum Jahr 2030 konsistent zu sein. Für Werte, die konsistent mit anderen Schätzungen des globalen Temperaturanstiegs sind, sollten die Zahlen unten um 30% reduziert werden für die niedrige Schätzung oder um 50% erhöht werden für die hohe Schätzung (S. xxiv).

Der orangefarbene Bereich in Abbildung 2 repräsentiert die mittelfristige IPCC-Schätzung unter Szenario A einer kurzfristigen Erwärmung, d. h. 1,0°C (0,7; 1,5) bis zum Jahr 2025.

Die vom IPCC prophezeite globale Erwärmung während der 25 Jahre ab 1990 bis zur Gegenwart differiert wenig um eine gerade Linie (Abbildung T2)

Abbildung T2: Historische Erwärmung von 1850 bis 1990 sowie prophezeite Erwärmung von 1990 bis 2100 unter dem IPCC-Szenario A (IPCC 1990, S. xxii)

Weil diese Differenz zwischen einer geraden Linie und dem leichten Sprung aufwärts der von IPCC im Zeitraum 1990 bis 2025 prophezeiten Erwärmungsrate so klein ist, kann man das noch in anderer Weise betrachten. Um die zentrale Schätzung von 1 K seit 1990 bis 2025 zu erreichen, müsste es eine doppelt so starke Erwärmung während der nächsten zehn Jahre geben, als es während der letzten 25 Jahre der Fall war. Das ist unwahrscheinlich.

Aber ist der Stillstand vielleicht der Tatsache geschuldet, dass CO2-Emissionen nicht annähernd so stark gestiegen sind wie die IPCC-Prophezeiung unter Szenario A im Jahre 1990 benannt? Nein: Die CO2-Emissionen sind ziemlich deutlich über die unter Szenario A prophezeite Menge gestiegen (Abbildung T3)

Abbildung T3: CO2-Emissionen durch fossile Treibstoffe usw. im Jahre 2012 aus Le Quéré et al. (2014) im Vergleich zur Karte der „anthropogenen Kohlendioxid-Emissionen“ in Milliarden Tonnen Kohlenstoff pro Jahr. Quelle: IPCC 1990

Daher haben sich die CO2-Emissionen seit 1990 als viel näher Szenario A entsprechend erwiesen als an jedes andere Szenario, weil trotz all des Geredes um Reduktionen von CO2-Emissionen die Tatsache besteht, dass die Rate der Ausweitung des Verbrennens fossiler Treibstoffe in China, Indonesien, Indien, Brasilien usw. die geringen Reduktionen in westlichen Ländern bis heute weit in den Schatten stellen.

Es stimmt schon, die Methankonzentration ist nicht so gestiegen wie im Jahre 1990 prophezeit, weil die Methan-Emissionen, obwohl weitgehend ungesteuert, einfach nicht so steigen, wie die Modelle prophezeit hatten. Auch hier war also die Grundlage aller Prophezeiungen abwegig.

Das Gesamtbild ist klar. Szenario A ist das Emissions-Szenario aus dem Jahr 1990, dass der Menge der beobachteten CO2-Emissionen am Nächsten liegt.

Abbildung T4: Methan-Konzentration wie in vier IPCC-Zustandsberichten prophezeit, zusammen mit der beobachteten Konzentration, welche sich entlang der unteren Grenze der Geringst-Prophezeiung bewegt. Diese Graphik erschien in der vorläufig-endgültigen Version von IPCC (2013), wurde jedoch auf mysteriöse Weise aus der veröffentlichten Endversion entfernt, vermutlich weil das IPCC einen solchen direkten Vergleich zwischen absurd übertriebenen Prophezeiungen und der wenig aufregenden Wirklichkeit nicht zeigen wollte.

Um genau zu sein, ein Vierteljahrhundert nach 1990 beträgt die globale Erwärmung bis jetzt 0,27°C, was äquivalent zu etwa über 1°C pro Jahrhundert ist – wenn man es ausdrückt als linearer Regressionstrend kleinster Quadrate des Mittels von RSS und UAH der monatlichen mittleren globalen Temperaturanomalien. Die zentrale Schätzung des IPCC von 0,71°C, also äquivalent zu 2,8°C pro Jahrhundert, welche unter Szenario A im Jahre 1990 mit „substantiellem Vertrauen“ prophezeit worden war, war dreimal zu hoch gegriffen. Tatsächlich liegt die tatsächliche Rate sichtlich deutlich unter selbst der kleinsten Schätzung.

Im Jahre 1990 war die zentrale Prophezeiung der kurzfristigen Erwärmungsrate des IPCC um zwei Drittel höher als dessen heutige Prophezeiung. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert, heute ist es ein solches von 1,7°C pro Jahrhundert – und wie Abbildung T5 zeigt, hat sich selbst das als eine substantielle Übertreibung erwiesen.

Erwärmt sich der Ozean?

Eine oft herangezogene Erklärung des Großen Stillstands lautet, dass das gekoppelte Ozean-Atmosphäre-System weiterhin Wärme akkumuliert hat mit etwa der von den Modellen prophezeiten Rate, aber das die Wärme während der letzten Jahrzehnte durch die Ozeane aus der Atmosphäre herausgefiltert worden ist. Und man hypothetisiert angesichts des Umstands, das die oberflächennahen Schichten weit weniger Erwärmung zeigen als von den Modellen prophezeit, dass das, was man die „fehlende Wärme“ nennt, irgendwie in die kaum vermessenen Tiefen unter 2000 m diffundiert ist, von wo sie irgendwann in Zukunft wieder freigesetzt wird.

Tatsächlich ist unbekannt, ob sich der Ozean erwärmt: jede der automatisierten ARGO-Bojen führt nur drei Messungen pro Monat durch für eine Wassermenge von 200.000 km³ – grob etwa ein 100.000 Quadratmeilen [ca. 259.000 km²] großes Gitterquadrat mit einer Kantenlänge von 316 km und einer Tiefe von 2000 m. Im Klartext, die Ergebnisse einer so geringen Auflösung sind nicht viel besser als Raten. (Willis Eschenbach drückt es so aus: es ist etwa das Äquivalent zu versuchen, eine einzelnes Temperatur- und Salzgehalts-Profil an einem einzigen Punkt im Oberen See einmal pro Jahr zu erstellen).

Unglücklicherweise scheint es, als ob ARGO den Ozean-Datensatz seit Dezember 2014 nicht mehr aktualisiert hat. Allerdings haben wir 11 ganze Jahre mit Daten. Die Ergebnisse zeigt Abbildung T5. Falls die ARGO-Messungen richtig sind, ist die Erwärmung der Ozeane äquivalent zu 0,2°C pro Jahrhundert.

Abbildung T5: Der gesamte, fast globale ARGO-Datensatz der Wassertemperatur der Ozeane in den oberen 2000 m von Januar 2004 bis Dezember 2014 (schwarze gezackte Kurve), zusammen mit dem linearen Regressionstrend kleinster Quadrate, berechnet aus den Daten vom Autor (grüner Pfeil).

Und schließlich, obwohl die ARG-Bojen die Temperaturänderung in den Ozeanen direkt messen, ändert die NOAA die Temperaturänderung künstlich in Zetajoule der Änderung des ozeanischen Wärmegehaltes, wodurch die Änderung viel größer aussieht.

Die erschreckend klingende Änderung des Wärmegehaltes von 260 ZJ im Zeitraum 1970 bis 2014 (Abbildung T6) ist äquivalent zu lediglich 0,2 K pro Jahrhundert globaler Erwärmung. All jene „Hiroshima-Bomben von Wärme“, von denen die extremistischen Klima-Websites reden, sind in Wirklichkeit ein kaum wahrnehmbarer Nadelstich. Der Ozean und dessen Wärmekapazität sind viel größer als so Mancher wahrhaben will.

Abbildung T6: Änderung des ozeanischen Wärmegehaltes von 1957 bis 2013 in Zetajoules vom NODC Ocean Climate Lab der NOAA: http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT, wobei die Werte des Wärmegehaltes zurück konvertiert wurden zu den Änderungen der Wassertemperatur in den Ozeanen in Kelvin, wie sie ursprünglich gemessen worden sind. Die Konversion der NOAA der minimalen Erwärmungszahlen in Zetajoule, kombiniert mit einer übertriebenen vertikalen Achse der Graphik, hat die Auswirkung, dass eine sehr kleine Änderung der Wassertemperatur viel signifikanter aussieht als sie ist.

Die Rück-Konversion der Änderung des ozeanischen Wärmegehaltes in Temperaturänderungen enthüllt eine interessante Diskrepanz zwischen den NOAA-Daten und denen des ARGO-Systems. Während des Zeitraumes der ARGO-Daten von 2004 bis 2014 implizieren die NOAA-Daten eine Erwärmung der Ozeane um 0,05°C pro Jahrzehnt, äquivalent zu 0,5°C pro Jahrhundert – oder eine fast doppelt so hohe Rate wie von ARGO gemessen.

Zwar hat ARGO den besser aufgelösten Datensatz, aber da die Auflösung aller Ozean-Datensätze sehr gering ist, muss man all diese Ergebnisse mit Vorsicht betrachten. Was man sagen kann ist, dass aufgrund solcher Beweise, wie sie diese Datensätze erbringen können, die Differenz zwischen dem zugrunde liegenden Erwärmungstrend des Ozeans und dem der Atmosphäre nicht statistisch signifikant ist. Dies zeigt, dass falls sich die „fehlende Wärme“ wirklich in den Ozeanen versteckt, sie auf magische Weise den Weg in tiefe Schichten gefunden hat, ohne die oberen Schichten auf ihrem Weg zu erwärmen. Ebenfalls aufgrund dieser Daten gibt es keine Beweise für eine rapide oder katastrophale Erwärmung der Ozeane.

Außerdem gibt es bis heute keine empirische, theoretische oder numerische Methode, komplex oder einfach, die erfolgreich mechanistisch spezifiziert hat, wie entweder die durch die anthropogene Anreicherung der Atmosphäre mit Treibhausgasen verursachte Erwärmung die Tiefsee erreicht hat, ohne den Wärmegehalt der durchdrungenen oberen Ozeanschichten wesentlich zu verändern, oder wie die Wärme vom Grund der Ozeane eventuell irgendwie wieder die Klimabedingungen nahe der Oberfläche beeinflussen kann, die für das Leben auf dem Festland der Erde relevant sind.

Die meisten Ozean-Modelle, die zur Berechnung der gekoppelten allgemeinen Modell-Sensitivität herangezogen worden sind, können die meisten der physikalischen Prozesse nicht auflösen, die für die Wärmeaufnahme durch die Ozeane relevant sind. Ultimativ verlangt der Zweite Hauptsatz der Thermodynamik, dass sich jedwede in der Tiefsee akkumulierte Wärme via verschiedener Diffusionsprozesse auflösen muss. Es ist nicht plausibel, dass irgendwelche durch die Tiefsee aufgenommenen Wärmemengen plötzlich die oberen Ozeanschichten erwärmen und damit auch die Atmosphäre.

Falls die „Tiefsee“-Erklärung für den Stillstand korrekt wäre (und diese ist lediglich eine von Dutzenden Anderen, die präsentiert worden sind), haben die komplexen Modelle dabei versagt, dies korrekt abzubilden: anderenfalls wäre die wachsende Diskrepanz zwischen den prophezeiten und beobachteten atmosphärischen Erwärmungsraten nicht so signifikant geworden, wie es der Fall ist.

Warum waren die Modell-Prophezeiungen übertrieben?

Im Jahre 1990 prophezeite das IPCC – unter seinem Szenario A (Business as Usual) – dass es vom Beginn der industriellen Revolution an bis zur Gegenwart einen Strahlungsantrieb von 4 Watt pro Quadratmeter geben würde, der durch den Menschen verursacht ist (Abbildung T7):

Abbildung T7: prophezeite, vom Menschen verursachte Strahlungsantriebe (IPCC 1990).

Allerdings hat sich das IPCC von 1995 an entschlossen, aufgrund dürftiger Beweise zu vermuten, dass anthropogene Aerosole – meist Ruß durch Verbrennung – die Erde abschattet, und zwar stark genug, um einen starken negativen Strahlungsantrieb auszulösen. Auch hat es inzwischen verspätet erkannt, dass seine projizierten Zunahmen der Methan-Konzentration wilde Übertreibungen waren. Als Folge dieser und anderer Änderungen schätzt es jetzt, dass der gesamt-anthropogene Antrieb der industriellen Ära lediglich 2,3 W/m² beträgt oder etwas weniger als halb so groß ist wie laut dessen Prophezeiung im Jahre 1990.

Abbildung T8: Gesamt-anthropogene Antriebe von 1750 bis 1950, 1980 und 2012 (IPCC 2013).

Allerdings könnte selbst das noch eine erhebliche Übertreibung sein, beträgt doch die Best Estimate des tatsächlichen gegenwärtigen Strahlungs-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) lediglich 0,6 W/m² (gesamter natürlicher und anthropogener Antrieb); Abbildung T9:

Abbildung T9: Energiebudget-Diagramm für die Erde nach Stephens et al. (2012).

Kurz gesagt, der größte Anteil des vom IPCC prophezeiten Antriebs ist entweder eine Übertreibung oder hat bereits zu der Temperaturänderung geführt, welcher auch immer, die er verursachen sollte. Es gibt nur wenig globale Erwärmung in der Pipeline als Folge unserer Emissionssünden in Vergangenheit und Gegenwart.

Es kann auch sein, dass das IPCC und die Modelle unablässig die Klimasensitivität übertrieben haben. Eine jüngst erschienene Studie zu dieser Frage von Monckton of Brenchley et al. (2015), kam auf eine Klimasensitivität im Bereich von 1°C pro Verdoppelung des CO2-Gehaltes (man gehe zu www.scibull.com und klicke dort auf „Most Read Articles“). Die Studie identifizierte Fehler in der Art und Weise, wie die Modelle mit Temperatur-Rückkopplungen umgegangen waren, sowie deren Verstärkung, welche für zwei Drittel der Gleichgewichts-Erwärmung verantwortlich waren, die das IPCC prophezeit hatte.

Prof. Ray Bates hat jüngst in Moskau eine Studie veröffentlicht, in der er auf der Grundlage der Analyse von Lindzen & Choi (2009, 2011) zu dem Ergebnis gekommen war (Abbildung T10), dass Temperatur-Rückkopplungen insgesamt negativ sind. Demzufolge hat er die Schlussfolgerungen sowohl von Lindzen & Choi (1990) als auch von Spencer & Braswell (2010, 2011) bestätigt, denen zufolge die Klimasensitivität unter – und vielleicht beträchtlich unter – 1°C pro CO2-Verdoppelung liegt.

Abbildung T10: Realität (Mitte) im Vergleich zu 11 Modellen. Aus Lindzen & Choi (2009).

Eine zunehmende Anzahl begutachteter Studien kommt zu dem Ergebnis, dass die Klimasensitivität deutlich unter den 3°C (1,5; 4,5) pro CO2-Verdoppelung liegt, die zum ersten Mal im Charney-Report aus dem Jahr 1979 für die Academy of Sciences in den USA kolportiert worden war. Hierbei handelt es sich bis heute um die Best Estimate des IPCC.

Auf der Grundlage der bis heute vorliegenden Beweise gibt es daher keine wissenschaftliche Basis, überhaupt irgendwelche Maßnahmen zu ergreifen, um die CO2-Emissionen abzuschwächen.

Und zum Schluss: Wie lange wird es dauern, bevor die Freiheits-Uhr (Abbildung oben rechts!) 20 Jahre ohne jede globale Erwärmung erreicht? Falls das geschieht, wird die Klimaangst unhaltbar werden.

Link: http://wattsupwiththat.com/2015/08/06/the-pause-draws-blood-a-new-record-pause-length-no-warming-for-18-years-7-months/

Übersetzt von Chris Frey EIKE




Zur 70. Jahrestag Hiroshima – Darstellung: Nachgefragt

Wie bei Hinweisen auf verzerrende Darstellungen seitens offizieller Institutionen argumentiert wird, zeigt das Beispiel der Stadt Fürth.

Auf der Homepage der Stadt Fürth erschien zum Gedenktag der folgende Infotext (Hervorhebung durch den Autor):

Pressetext auf der Homepage der Stadt Fürth

70 Jahre nach Hiroshima

Die Stadt Fürth gedenkt am Donnerstag, 6. August, 18 Uhr, der Opfer der Atombombenabwürfe auf Hiroshima und Nagasaki im August 1945, aber auch der Opfer der Atomkatastrophe im japanischen Fukushima im Frühjahr 2011. Dazu sind alle Bürgerinnen und Bürger herzlich eingeladen. 

Nun ist es bestimmt sinnvoll, schlimmen Ereignissen der Geschichte zu gedenken und sie in Erinnerung zu halten. Aber dann sollte die Wahrheit nicht dem guten Zweck geopfert werden.

Der Autor schrieb deshalb an den Verantwortlichen der Stadt Fürth. Anm.: Im Folgenden wurden alle nicht direkt Fukushima betreffenden Texte weggelassen.

Sehr geehrter Herr xxx,

zur Pressemitteilung der Stadt Fürth zum Hiroshima-Gedenktag (Anlage) habe ich ein paar Fragen an die Verantwortlichen:

…… – Es wird der Opfer der Atomkatastrophe in Fukushima gedacht.

Frage: Können Sie bitte Opfer der Atomkatastrophe Fukushima nennen und ev. die Gesamtzahl? Mir sind keine bekannt. Allerdings hat der Tsunami ca. 20.000 Opfer gefordert. Warum wird nicht denen gedacht?

Vielen Dank für die Fakten zur Hiroshima-Gedenktaginformation der Stadt Fürth

Zurück kam die folgende Antwort (Hervorhebung durch den Autor):

Sehr geehrter Herr yyyy, 

……  Bei der Nuklearkatastrophe von Fukushima wurden nachweislich zahlreiche Arbeiter einer sehr hohen Strahlenbelastung ausgesetzt und damit Opfer dieses schrecklichen Unfalls. Da es bei dem Hiroshima-Gedenktag auch um die atomare Technik geht, wird daran erinnert, welche Gefahren von dieser Art der Energiegewinnung ausgehen können.

Darauf erwiderte ich:

Sehr geehrter Herr xxxx,

erst einmal danke für die Rückmeldung. Allerdings kann ich Ihrer Argumentation nicht folgen. 

Im Infotext der Stadt Fürth steht: 

„ …. aber auch der Opfer der Atomkatastrophe im japanischen Fukushima im Frühjahr 2011.“

Bei einer solchen Textpassage, welche direkt hinter den gemeinsamen Opfern von zwei Atombombenabwürfen mit mindestens 232.000 direkten Toten (WIKIPEDIA) steht, „erwartet“ man schon eine besonders hohe Mortalität. Genannt werden aber selbst im Untersuchungsbericht des UNSCEAR-Reports 2013 für Fukushima keine Strahlen-Opfer.

Meinen Sie nicht, dass es eine bewusste textliche Suggestion darstellt, einer Strahlung ausgesetzte Katastrophen-Einsatzkräfte – welche davon keinen letalen Schaden davongetragen haben – in diesem Zusammenhang als Opfer im Sinne des besonderen, im Text ausschließlich einer extremen Atom-Opfer-Zahl bezogenen Gedenktages zu nennen? 

Bezogen auf Ihre Argumentation

„…auch um die atomare Technik geht, wird daran erinnert, welche Gefahren von dieser Art der Energiegewinnung ausgehen können.“

erlaube ich mir anzumerken, dass man bitte nicht Atombombenabwurf und Energiegewinnung in einem „Gedenken“ mischen sollte, nur weil eine gemeinsame Technologiebasis besteht. Dann muss man auch Tsunamis und Wasserkraftwerke so behandeln, wobei die Mortalität dieser extrem schrecklichen Energieform Wasserkraft (alleine der Tsunami 2004 forderte: 230.000 Tote , über 3 Millionen Menschen verloren ihr Zuhause, geborstene Staudämme forderten ebenfalls schon extreme Opferzahlen) dann um ein Vielfaches höher als die der Atomkraft selbst im Kriegseinsatz wäre.

Gerade Fukushima hat gezeigt, dass selbst der schlimmste Gau – mehrere gleichzeitige Kernschmelzen – zu keinem wirklich Bevölkerungs-relevanten Schaden führen muss.

Man mag gegen eine bestimmte Technologie sein (die Präsident Obama aktuell als die Zukunftstechnologie für die USA preist). Es ist aber bestimmt nicht Aufgabe der Stadt Fürth, dies mit falschen Darstellungen zu unterstützen.

Personen, welche keine genaueren Hintergründe kennen – und das ist die überwiegende Mehrheit – werden durch den Gedenktext auf jeden Fall vollkommen falsch informiert.

Fazit: Man sollte den Infotext der Stadt Fürth bezüglich der Darstellung Fukushima unbedingt richtigstellen, oder den Bezug zu Fukushima entfernen.

Als Anlage etwas Information zum Thema Fukushima

Abschließend kam die folgende Antwort

Sehr geehrter Herr yyyy,

ich respektiere Ihre Argumente und Ihre Meinung. Aber aus den in meiner Antwort genannten Gründen werden wir unseren Text nicht ändern.

Viele Grüße

xxx

[1]

Claudia Roth
11. März 2013 um 06:33

Heute vor zwei Jahren ereignete sich die verheerende Atom-Katastrophe von Fukushima, die nach Tschernobyl ein weiteres Mal eine ganze Region und mit ihr die ganze Welt in den atomaren Abgrund blicken ließ. Insgesamt starben bei der Katastrophe in Japan 16.000 Menschen, mehr als 2.700 gelten immer noch als vermisst. Hunderttausende Menschen leben heute fernab ihrer verstrahlten Heimat. Unsere Gedanken sind heute bei den Opfern und ihren Familien. Die Katastrophe von Fukushima hat uns einmal mehr gezeigt, wie unkontrollierbar und tödlich die Hochrisikotechnologie Atom ist. Wir müssen deshalb alles daran setzen, den Atomausstieg in Deutschland, aber auch in Europa und weltweit so schnell wie möglich umzusetzen und die Energiewende voranzubringen, anstatt sie wie Schwarz-Gelb immer wieder zu hintertreiben. Fukushima mahnt.

Heute vor zwei Jahren ereignete sich die verheerende Atom-Katastrophe von Fukushima, die nach Tschernobyl ein weiteres…

Posted by Claudia Roth on Montag, 11. März 2013




Obamas Klimainitiative: Etwas wird ihm schließlich gelingen…..nämlich: Die Energiekosten massiv in die Höhe zu bringen!

Ich wiederhole diese interessanten Diagramme hier:
Link zu den Diagrammen: Viele Leute wissen das nicht

 EU Installationen in erneuerbarer Energie: Megawatt / Million Einwohner.

 

Strompreise in Europa
Private Nutzer incl. Steuern und Abgaben

Interessant, nicht wahr? Aber ich bin ein Zahlenmensch, ich will die Ergebnisse analysieren. Mit den Daten aus diesen Veröffentlichungen und das Hinzufügen der US Daten, habe ich die Beziehung graphisch dargestellt…. Folgende Grafik zeigt das Ergebnis:

 

Grafik Eschenbach: Stromkosten als Funktion der installierten, erneuerbaren Kapazität pro Kopf. nur Wind und Photovoltaik, ohne Wasserkraft [Updated: Australien hinzugefügt und Einheiten korrigiert]

Das ist ein sehr interessantes Ergebnis. Die Kapazität der installierten Erneuerbaren Pro-Kopf erklärt für sich bereits 84% der Variation der Stromkosten. Keine große Überraschung angesichts der verrückt-hohen Kosten der erneuerbaren Energien, aber es ist sehr nützlich für eine weitere Berechnung.

Heute, sagte Präsident Obama, er wolle, dass in Amerika bis zum Jahr 2030 28% der Elektrizität aus erneuerbaren Energien kommt. Er hat seinen Plan nicht detailliert, so dass ich annehme, Wasserkraft ist in Kalifornien und anderen Staaten mit [eigenen] Zielen für Erneuerbare, wie auch bei obiger EU Grafik, nicht in den Zahlen für Erneuerbare enthalten. Und die Energie muss aus Wind und Solar kommen. (Warum? In Kalifornien, erklärten sie, dass Wasserkraft ausgeschlossen wurde, weil es sonst zu einfach wäre, die erneuerbaren Ziele zu erreichen … ernsthaft, das war ihre Erklärung.)

Derzeit erhalten wir etwa 4% unseres Stroms aus Wind und Sonne. Er will es auf 28% anheben, was bedeutet, wir brauchen die installierte Leistung sieben Mal. Derzeit haben wir etwa 231 Watt / Kopf [1] Wind- und Solar installiert (siehe Abbildung 1). Obamas Plan erfordert, dass wir das fast sieben Mal benötigen, 1537 Watt / Kopf [1]. Und unter der Annahme, dass wir die Beziehung in Abbildung 1 verlängern, bedeutet dies, dass der durchschnittliche Strompreis in den USA notgedrungen bis zu nicht weniger als 43 Cent pro Kilowattstunde ansteigt. (Dies umfasst die verborgenen 1,4 Cent / kW Kosten aufgrund der fünf Cent pro Kilowattstunde Zuschuss zu den Solar / Wind Produzenten).

Da die aktuelle durchschnittliche US-Kilowattstunde etwa 12 Cent kostet … bedeutet das, der Preis für Strom wird sich in den nächsten 15 Jahren wahrscheinlich fast vervierfachen

Und da Präsident Obama bekanntlich voraussetzt, dass unter seinem Energieplan die Strompreise zwangsläufig "in die Höhe schnellen" … sieht es so aus, als ob ihm vielleicht endlich etwas gelingen wird.

Da dies illegal oder zumindest stark unsachgemäß durch Obamas präsidialen "Edikt und Erlass" [fiat] geschehen wird, scheint es , das wir nur wenig dagegen tun können, außer, dass Sie Ihre Freunde und Nachbarn wissen lassen, dass dank Obama und der Demokratischen Partei, ihre Stromrechnung in die Höhe schnellt … sonst wird Obama wahrscheinlich alles auf Präsident Bush schieben.

Alles Gute für Sie,

Willis Eschenbach.

Mein übliches Plädoyer: Wenn Sie mit etwas nicht einverstanden sind, zitieren Sie bitte die genauen Worte, denen Sie widersprechen. So können wir alle genau verstehen, gegen was Sie Einwände haben.

Informationen zur Vorhersage: Es ist immer gefährlich, zu versuchen, die Zukunft vorauszusagen. In diesem Fall haben wir ein paar Probleme: Erstens wissen wir nicht, ob diese Beziehungen auch weiterhin in der Zukunft zutreffen werden. Und wir wissen nicht, ob Amerikas Weg wie die der anderen Länder sein wird. Die gute Nachricht ist die Tatsache, dass es 19 Länder gibt, die stark sowohl in der installierten Leistung als auch der wirtschaftlichen Entwicklung abweichen, das gibt einigen Trost.

Als nächstes die Ausreißer. Ich habe getestet, indem ich Dänemark und Deutschland entfernt habe, um zu sehen, ob es den Trend verändert, … es verändert kaum. Das war sehr ermutigend, weil es bedeutet, dass wir die gleiche Beziehung erhalten, wenn wir die Daten von 600 kW / Kopf (Spanien etc.) hochrechnen, auf etwa 1000 kW / Kopf, eine Projektion von etwa 60% mehr. Da die Hochrechnung der projizierten US-Kapazität / Kopf (1000 auf 1500 kW / Kopf) etwa die gleiche Größe ist, erhöht dies das Vertrauen in die Schätzung.

Schließlich müssen wir einige Annahmen über US Stromverbrauch im Jahr 2030 treffen. Es wird sich erhöhen … aber um wie viel? Glücklicherweise ist die unabhängige Variable der erneuerbaren Kapazität pro Kopf fixiert. Dies bedeutet, dass die Verlängerung der Zeile enthält die stillschweigende Annahme enthält, dass der Stromverbrauch sich mit etwa der gleichen Rate wie die Bevölkerung zunimmt Während wir keine Möglichkeit haben um zu wissen ob dies wahr ist, hat der US-Stromverbrauch pro Kopf sich in den letzten zwei Jahrzehnten abgeflacht, so ist es eine vernünftige Annahme.

Erschienen auf WUWT am 3. August 2015

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2015/08/03/obama-may-finally-succeed/

[1] update vom 15.08.2015, Demmig
– im Original kW;  in W korrigiert, siehe #3 Kühn 

Einen ähnlichen Beitrag gab es bereits im April 2014 auf EIKE, allerdings damals noch weniger dramatisch als es Willis Eschenbach beschreibt.

Studie-der-windindustrie-zeigt-strompreise-in-windkraft-staaten-explodieren

http://tinyurl.com/p2jv5q5




Taschenrechner-Klimamodell stellt Milliarden Dollar teure Elektronengehirne in den Schatten

Das unüberbietbar einfache Klimamodell zeigte nicht nur, dass es in diesem Jahrhundert nur zu einer Erwärmung unter 1°C kommen würde anstelle der 2°C bis 6°C, die die „offiziellen“ Modelle prophezeit hatten. Sondern es zeigte auch, warum diese offiziellen Modelle so falsch liegen.

Im April haben die Klima-Campaigner eine Studie veröffentlicht, die darauf abzielte, dieses einfache Modell zu widerlegen, und zwar mit der Aussage, dass die skeptischen Forscher dieses nicht mit gemessenen Temperaturen während des vorigen Jahrhunderts verglichen hätten.

Jetzt haben sich Christopher Monckton of Brenchley, Dr. Willie Soon vom Harvard-Smithsonian Center for Astrophysics, Dr David Legates, Geographieprofessor an der University of Delaware und Dr. Matt Briggs, Statistician to the Stars, mit einer neuen, im Science Bulletin veröffentlichten Studie zu Wort gemeldet. Sie trägt den Titel [übersetzt] „Bleiben wir beim Einfachen: Der Wert eines unüberbietbar einfachen Klimamodells“, welches erklärt, dass ein einfaches Modell nicht mit Temperaturen der Vergangenheit überprüft worden ist, weil es auf der Basis grundlegender physikalischer Prinzipien erstellt worden ist.

Anders als die komplexen Klimamodelle, von denen jedes im Betrieb so viel Strom verbraucht wie eine kleine Stadt, ist das neue „grüne“ Modell – welches seine Konstrukteure auf einem einfachen Solar-Taschenrechner laufen lassen – nicht wiederholt angepasst worden (d. h. nach dem Ereignis verbogen), bis es zu den Daten der Vergangenheit passte.

Lord Monckton, der das neue Modell eingeführt hatte, und Leitautor der Studie sagte: „Jedes Mal, wenn ein Modell erzwungen verbogen wird, um zu Daten der Vergangenheit zu passen, entfernt man sich von wahrer Physik. Die komplexen Modelle werden manipuliert, bis sie zur Vergangenheit passen – aber sie können die Zukunft nicht vorhersagen. Sie übertreiben“.

„Wir haben einen wissenschaftlicheren Weg gewählt, die Physik zu nutzen, und nicht den Weg der Kurven-Anpassung. Aber als die Klima-Campaigner verlangten, dass wir unser Modell mit ,Nachhersagen‘ verifizieren, haben wir vier Testläufe mit unserem Modell durchgeführt – einen davon gegen Prophezeiungen des UN-Klimagremiums im Jahre 1990 und drei gegen aktuelle Daten. Alle vier Male hat unser Modell die Erwärmung der realen Welt im Nachhinein akkurat abgebildet.

Im ersten unserer vier Testläufe lag die Vorhersage aus dem Jahr 1990 durch das IPCC immer sehr viel weiter entfernt von der Realität als die Central Estimate unseres einfachen Modells“.

Bild oben rechts: Vier Testläufe von ,Nachhersagen‘ unseres einfachen Modells (durchgezogen eingerahmte Kästen: links) im Vergleich mit der beobachteten Erwärmung. Abweichungen vom grünen Balken (dem korrekten Wert) in Grad C. Lauf 1: von 1990 bis 2015 im Vergleich zu den IPCC-Prophezeiungen 1990 bis 2015 (gestrichelt eingerahmte Kästen: oben links) auf der Grundlage einer gradlinigen Erwärmung von 1,0°C (0,7; 1,5) bis zum Jahr 2025. Läufe 2 bis 4: auf der Grundlage der aktuellen Schätzungen des IPCC aller anthropogenen Antriebe von 1750 bis 1950 (2); 1980 (3); und 2012 (4). Die Nachhersagen des einfachen Modells (1 bis 4; links) passen durchweg zur Erwärmung in der realen Welt (der grüne Balken), gemessen vom terrestrischen HadCRUT4-Datensatz (Lauf 1) und dem RSS-Satelliten-Datensatz (Läufe 2 bis 4). Aber die IPCC-Prophezeiungen (oben links) haben sich als weit über der wahren Position liegend erwiesen. Dr. Willie Soon war Opfer einer gut finanzierten und zentral koordinierten Kampagne von Verleumdungen bis hin zu dem absurden Vorwurf, er habe nicht angegeben, dass ihm ein Versorgungsunternehmen Geld zugesteckt hat für einen Beitrag für die Studie der skeptischen Forscher im Januar. Ziel diese Kampagne war es, die Aufmerksamkeit von den Ergebnisse dieser Studie abzulenken, die da zeigten, dass der Klimaalarm auf einer Reihe elementarer Fehler beruhte im Zentrum der komplexen Modelle. Tatsächlich haben sich alle vier Forscher an der Januar-Studie beteiligt, in ihrer eigenen Freizeit und auf ihre eigenen Kosten.

Dr. Soon sagte: „Was die Campaigner interessiert, ist die Kampagne, aber was die Wissenschaftler interessiert ist die Wissenschaft. Die Vorhersage unseres kleinen Modells für die nächsten 85 Jahre mit einer Erwärmung von 0,9°C bis zum Jahr 2100 dürfte vermutlich viel näher am wirklichen Wert liegen als die Prophezeiung der Campaigner mit einer Erwärmung von 4°C“:

Dr. Matt Briggs sagte: „Die versuchte Widerlegung der Klima-Campaigner unserer Originalstudie war durchsetzt mit zahlreichen allgemeinen wissenschaftlichen Fehlern. Hier sind nur einige davon gelistet:

● Die Campaigner haben sich ein Szenario herausgepickt anstatt viele Szenarien zu betrachten in dem Versuch zu zeigen, dass die großen Modelle besser sind als unser einfaches Modell. Aber selbst in diesem speziellen Fall waren die großen Modelle kaum besser als unser einfaches Modell.

● Sie haben uns vorgeworfen, unser Modell solange zu verzerren, bis es zu den Daten der Vergangenheit passt. Stattdessen haben wir Physik angewendet.

● Sie sagten, wir sollten unser Modell mit der Erwärmung in der realen Welt vergleichen. Das haben wir getan. Es hat funktioniert.

● Sie haben unser einfaches Modell kritisiert, aber sie hätten viel eher die weit weniger zuverlässigen komplexen Modelle kritisieren sollen.

● Sie beklagten, dass unser einfaches Modell „viele Physikalische Prozesse“ ausgelassen habe. Natürlich hat es das: es war einfach. Sein Vorzug liegt in der Zurückweisung des Unnötigen und in der Konzentration auf die wesentlichen Prozesse.

● Sie vermuteten, dass Erwärmungsraten der Zukunft zuverlässig aus Erwärmungsraten in der Vergangenheit abgeleitet werden können. Und doch gibt es da schwerwiegende Mess- und Bias-Unsicherheiten, vor allem in den Daten vor dem Jahr 1979.

● Sie vermuteten, dass man natürliche und anthropogene Klima-Einflüsse voneinander unterscheiden kann. Man kann nicht.

● Sie sagten, wir hätten nicht einen einzelnen Impuls anthropogenen Antriebs nehmen sollen. Das aber tun die meisten Modelle.

● Sie sagten, dass unser Modell nicht „validiert“ wäre, obwohl ihre eigener Test gezeigt hatte, dass es sehr wohl gut funktioniert hat.

● Sie sagten, sie würden unserem Modell nicht zustimmen, obwohl sie kaum unsere Parameter in Abrede gestellt haben.

● Sie sagten, wir sollten nicht Temperaturtrends der Vergangenheit in die Zukunft projizieren. So etwas haben wir nie getan.

● Sie haben ,kleinste Fehlerquadrat-Statistiken‘ verwendet (RMSE), aber RMSE-Statistik ist ein schlechtes Verfahren zur Validierung.

● Sie bezogen sich fälschlicherweise auf die Verstärkung in einem geschlossenen System als die "Systemverstärkung", aber in rückgekoppelten Systemen ist die Verstärkung des offenen Regelkreises die Systemverstärkung.

● Sie beschrieben unsere Verfahren falsch, mit denen wir eine negative Gesamt-Rückkopplung gefunden hatten.

● Sie behaupteten, dass ein Zeitraum von 810.000 Jahren genauso gut sei wie einer von 55 Millionen Jahren. Das ist falsch.

● Sie sagten, dass wir eine von uns zitierte Studie falsch interpretiert hätten, aber ihr Zitat aus jener Studie hat eine zentrale Aussage ausgelassen, die unsere Interpretation der Ergebnisse der Studie bestätigte.

● Sie sagten, dass insgesamt negative Rückkopplungen niemals das Ende einer Eiszeit gestattet hätten. Und doch beschrieb die von ihnen selbst zitierte Studie zwei Nicht-Rückkopplungs-Gründe für eine plötzliche globale Temperaturänderung.

● Sie sagten, dass Temperatur-Messbojen eine ,Insgesamt-Erwärmung‘ von einem halben Watt pro Quadratmeter in den Ozeanen gefunden hätten: aber Watt pro Quadratmeter messen keine ,Erwärmung‘; sie messen den Wärmefluss.

● Sie implizierten, dass die ,Erwärmung‘ der Ozeane signifikant sei, aber über den gesamten 11-jährigen Zeitraum von zuverlässigen Wassertemperaturwerten der ARGO-Bojen lag die Erwärmungsrate lediglich äquivalent zu nur 1°C pro 430 Jahre.

● Sie sagten, dass die komplexen Modelle die Erwärmung seit dem Jahr 1998 korrekt vorhergesagt hätten, aber seit Januar 1997 hat es keinerlei globale Erwärmung mehr gegeben. Keines der komplexen Modelle hat das vorhergesagt.

● Sie haben die komplexen Modelle gepriesen, hatten aber nicht erwähnt, dass sich die zentrale Vorhersage bzgl. der Erwärmung im Jahre 1990 als fast dreimal so hoch wie die tatsächliche Erwärmung erwiesen hat während der seitdem vergangenen 25 Jahre.

● Sie konnten nicht erklären, wie eine substantielle Reduktion der Temperatur-Rückkopplungen als Folge eines unveränderten Antriebs zu einer unverändert hohen Klimasensitivität führen soll, wie sie es implizieren.

Prof. David Legates sagte: „Wie wir in unserer neuen Studie zeigen, stehen die komplexen allgemeinen Zirkulationsmodelle jetzt vor einer Glaubwürdigkeits-Krise. Es ist irritierend, dass deren Erschaffer immer höheres Vertrauen in diese Modelle zum Ausdruck bringen, erweisen sich diese Modelle doch als immer stärker übertreibend. Es ist an der Zeit, dies zu überdenken. Unser Modell zeigt, dass es kein vom Menschen verursachtes Klimaproblem gibt. Bislang hat es sich als korrekt erwiesen, was mehr ist als man von den Milliarden teuren Supergehirnen sagen kann, die von den Profiteuren des Untergangs betrieben werden“.

Die neue Studie ist frei zugänglich: http://link.springer.com/article/10.1007/s11434-015-0856-2

Halten wir es einfach: Der Wert eines nicht weiter vereinfachbaren Klimamodells

Christopher Monckton of Brenchley,Willie W.-H. Soon,David R. Legates,William M. Briggs

Abstract

Richardson et al. (Sci Bull, 2015. doi:10.​1007/​s11434-015-0806-z) suggerieren, dass das unüberbietbar einfache, von Monckton of Brenchley et al. (Sci Bull 60:122–135, 2015. doi:10.​1007/​s11434-014-0699-2) beschriebene Klimamodell nicht mit Beobachtungen validiert worden ist und sich stattdessen auf synthetische Testdaten stützt auf der Grundlage einer unterschätzten globalen Erwärmung, unlogischer Auswahl von Parametern und fast sofortiger Reaktionen, die im Gegensatz stehen zur Erwärmung der Ozeane und anderer Beobachtungen. Allerdings konnte das einfache Modell mit den von den Autoren eingegebenen Parametern allgemein beobachtete Temperaturänderungen besser abbilden als die Allgemeinen Zirkulationsmodelle, die eine implausibel hohe Klimasensitivität findent. Mit der Auswahl der Parameter seitens des IPCC wird das Modell weiter validiert dadurch, dass es ordnungsgemäß das Sensitivitäts-Intervall des IPCC nachbildet. Auch ist eine schnelle Klimareaktion konsistent mit einer Temperaturrückkopplung, die nahe Null liegt oder negativ ist. Angesichts der großen Unsicherheiten bei den Ausgangsbedingungen und evolutionärer Prozesse, die die Klimasensitivität bestimmen, die Gegenstand offensichtlicher Schwächen eines einfach auf die Sensitivität konzentrierten Modells sind, muss es nicht signifikant weniger Vorhersageleistung zeigen als die allgemeinen Zirkulationsmodelle; und unser Modell tut das auch nicht.

Link: http://wattsupwiththat.com/2015/08/06/pocket-calculator-climate-model-outperforms-billion-dollar-brains/

Übersetzt von Chris Frey EIKE




Fremdkörper im Wald

Bäume werden tatsächlich für alles mögliche gefällt, im Wald jedoch eigentlich nur zur Holzernte, verbunden mit einer Wiederaufforstung. Bauvorhaben sind im Außenbereich in der Regel nicht zulässig, jedenfalls nicht für private Investitionen. Man muß das Umwelt- und Naturschutzrecht schon ganz schön verdrehen, bis Eingriffe im Wald zulässig sind.

Für eine Windkraftanlage werden auch nicht nur drei Bäume umgelegt. Es braucht eine Zufahrt, ein Fundament und ziemlich viel Platz um den Kran für die Errichtung und eine Bühne zu Wartungszwecken aufzustellen. Im unterirdischen Bauraum hat es auch noch Kabel. Im grün-rot regierten Musterländle Baden-Württemberg gibt es bei Simmersfeld im Nordschwarzwald eine Ansammlung von Anlagen im Wald.  Per Luftbild kann der Laie sich ein Bild von der Umweltzerstörung machen. Für eine WKA fallen um die 100 Bäume.

Der eigentliche Höhepunkt der Verwüstung tritt jedoch erst ein, wenn ein 150 bis 200 m hoher Spargel eines schönen Tages nach spätestens 30 Jahren Nutzungsdauer gesprengt werden muß und mit etwa 1.000 bis 3000 Tonnen Gewicht in den Wald kracht. Alleine eine Nabe wiegt bis 350 Tonnen. Es ist ein mittleres Erdbeben, was da herbeigebombt wird.

Die unschuldige Fledermaus ist das Tier, welches sich gut instrumentalisieren läßt. Immer wenn ein Großprojekt verhindert werden soll, wird die Hufeisennase aufgefunden. Die thüringische Umweltministerin Anja Siegesmund verleiht Auszeichnungen für den Fledermausschutz.

Früher wurden auch für die Tötung von Lebewesen Orden verliehen. Warum dekoriert die Ministerin die WKA-Besitzer nicht mit Eisernen Kreuzen für die Fledermausvertilgung mittels sich drehenden Rotorblättern? Nur ein außerhalb von Windparks fliegendes Tier ist eben eine gute Fledermaus. Das böse Flattertier umschwirrt den Grobian oder wie die WKA immer heißt und gefährdet so indirekt das Klima. So die aufgepimpte Zwecklogik der Grünen.

Ein evangelischer Pfarrer beklagte sich bei einem Kollegen über die Fledermaus-Plage in seiner Kirche – er habe alles versucht, um sie zu vertreiben, ohne Erfolg. Darauf der Kollege: “Ich habe meine getauft und konfirmiert – danach kommt keine wieder”  Nun, konfirmieren darf Frau Siegesmund nicht, sie kann nur mit Windmühlenflügeln wild um sich schlagen.

Zuerst erschienen in Prabels Blog hier




Um Antwort wird gebeten: “Kleine Anfrage” bei der Deutschen Bundesregierung zum Klimawandel

1) Sie schreiben:

Naturkatastrophen nehmen zu und verursachen enorme Kosten.

Laut Aussage der Munich Re hat es in den letzten drei Jahren 2012-2014 eher weniger als mehr Naturkatastrophen gegeben. Die Frankfurter Rundschau titelte dazu am 7. Januar 2015: “Wetterextreme: Weniger Schäden durch Naturkatastrophen“.

Siehe: http://www.fr-online.de/klimawandel/wetterextreme-weniger-schaeden-durch-naturkatastrophen,1473244,29500598.html

2) Sie schreiben:
Das Jahr 2014 war weltweit das wärmste seit 1881, dem Beginn der regelmäßigen Messungen. Das ergaben Untersuchungen der US-Weltraumbehörde NASA und des US-Wetteramtes NOAA.”

Die NASA hat sich hier mittlerweile selbst korrigiert und stellt den “Wärmerekord” jetzt offen in Frage. Sie erklärte, aus statistischer Sicht sei es wahrscheinlicher – nämlich zu 62% – dass es keinen neuen globalen Temperaturrekord 2014 gegeben hat. Klimaexperten der BEST-Projekts der University of California in Berkely äußern sich ähnlich: “…it is impossible to conclude from our analysis which of 2014, 2010, or 2005 was actually the warmest year”. (Übersetzung: …es ist unmöglich zusagen, aus unserer Analyse zu folgern, welches der Jahre 2014, 2010 oder 2005 das tatsächlich wärmste Jahr war).

Siehe: http://www.kaltesonne.de/nasa-rudert-zuruck-2014-war-moglicherweise-doch-nicht-das-warmste-jahr-der-messgeschichte-experten-erwarmungspause-setzt-sich-noch-5-10-oder-15-jahre-fort/

3) Sie schreiben (mit Bezug auf Deutschland):

Extreme Wetterereignisse häufen sich

Auf welche wissenschaftlichen Arbeiten und Zeiträume beziehen Sie sich? Meines Wissens fanden die meisten Studien für die vergangenen 100 Jahre KEINE Zunahme der Wetterextreme in Mitteleuropa. Siehe http://www.kaltesonne.de/klimawandel-in-deutschland-eine-geowissenschaftliche-betrachtung/ und z.B. http://www.kaltesonne.de/?p=15331 und http://www.kaltesonne.de/?p=14602

4) Sie führen in den Einschubboxen “Dauerregen und Sturmfluten nehmen zu” und “Die fünf größten Naturkatastrophen 2014” Beispiele für Extremwetterereignisse auf. Derartige Aufstellungen lassen sich nun aber für jedes beliebige Jahr erstellen. Klimatisch relevant sind in diesem Zusammenhang vor allem Langzeittrends der letzten 100-300 Jahre. Wie sehen diese aus? Was ist die Intention Ihrer Auflistungen?

5) Sie schreiben:

“Der Klimawandel verursacht hohe Kosten. Die Gesamtkosten durch Naturkatstrophen lagen 2014 weltweit bei 110 Milliarden Dollar. Ein Zyklon in Indien verursachte zum Beispiel einen Schaden von sieben Milliarden Dollar.”

Wissenschaftliche Arbeiten zeigen jedoch, dass der beobachtete Anstieg der globalen Extremwetterversicherungsschäden fast vollständig auf sozioökonomischen Gründen basiert. Siehe http://www.kaltesonne.de/neue-arbeit-von-roger-pielke-jr-anstieg-der-globalen-extremwetterversicherungsschaden-basiert-fast-vollstandig-auf-soziookonomischen-grunden/

Insbesondere ist keine Zunahme der Zyklone zu beobachten. Siehe: http://www.kaltesonne.de/wer-hatte-das-gedacht-studien-konnen-keine-zunahme-der-tropischen-wirbelsturme-im-indischen-und-pazifischen-ozean-finden/

6) Sie zitieren Peter Höppe von der Munich Re: “Schadensrelevante durch Gewitter bedingte Unwetter nehmen in verschiedenen Regionen wie den USA und in Mitteleuropa nachweislich zu“. Was ist mit anderen Gebieten der Erde? Wie sieht es im globalen Durchschnitt aus? Kann ausgeschlossen werden, dass es sich um natürliche Schwankungen/Verschiebungen handelt? Auf Letzteres deutet z.B. eine Studie aus Brasilien, die fand, dass die Blitzhäufigkeit in Brasilien während der vergangenen 60 Jahre im Takte der Sonnenaktivität variierte.
Siehe: http://www.kaltesonne.de/?p=14624

Mit freundlichen Grüßen

Dr. habil. Sebastian Lüning

———————————

Da wir leider keine Antwort erhielten, versuchten wir es im Juni 2015 erneut über die Plattform direktzu.de. Dort antwortete uns die Kanzlerin Angela Merkel bzw. Ihre Pressestelle, es hätte bereits eine Antwort im März auf die ursprüngliche Anfrage im März gegeben, die jedoch leider nie ankam. Wir haben daher die Bundespressestelle gebeten, uns diese Antwort erneut zuzuleiten. Weiterhin haben wir – wie von Dr. Merkel vorgeschlagen – die Fragen dem Umweltbundesamt vorgelegt. Wir hoffen, von dort endlich Antwort auf diese wichtigen Fragen zu erhalten.

(Siehe Graphik oben rechts!)

———————————

Nachdem wir wegen der vermissten Email noch einmal nachgehakt hatten, erreichte uns am 24. Juni 2015 das folgende Schreiben der Bundespressestelle:

An: Sebastian Lüning
Von: Bundespressestelle

Gesendet: 24.6.2015

Sehr geehrter Herr Dr. Lüning ,

vielen Dank für Ihre E-Mail zu einem Thema der Umweltpolitik. Nach der Aufgabenverteilung innerhalb der Bundesregierung ist das Ministerium für die Bearbeitung von Anfragen und Stellungnahmen zuständig, in dessen Aufgabenbereich das Anliegen fällt. Für viele Themenbereiche und Fragestellungen hat die Bundesregierung ein umfangreiches Informationsangebot entwickelt, das Ihnen einen schnellen Zugriff auf unser Wissen ermöglicht. In Ihrem Fall möchte ich Ihnen dazu den Internetlink http://www.bmub.bund.de/ empfehlen. Sollten Sie hier die gewünschten Informationen bzw. Klärungen nicht finden, möchte ich Ihnen raten, sich mit Ihrem Anliegen direkt an das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) zu wenden. Sie können das Ministerium per E-Mail über service@bmub.bund.de erreichen.

Mit freundlichen Grüßen
Im Auftrag

Sylke Häring

Bürgerservice
Presse- und Informationsamt
der Bundesregierung

Deutschland im Dialog:
Jetzt mitmachen unter
www.gut-leben-in-deutschland.de

———————————

Von: Sebastian Lüning
An: Sylke Häring, Bürgerservice Presse- und Informationsamt der Bundesregierung

Gesendet: 5.7.2015

Sehr geehrte Frau Häring,

Vielen Dank für Ihre Mail, auch wenn Sie mir bei meinen Fragen nicht weiterhelfen konnten. Ich habe mich wie von Ihnen vorgeschlagen an das BMUB und UBA gewandt. Leider habe ich auch von dort keine Antwort erhalten. Woher bekomme ich nun meine Antworten?

Die Sachlage ist klar: Die Bundesregierung hat auf ihrer Webseite einen Artikel veröffentlicht, der wissenschaftlich fragwürdige Behauptungen enthält. Sie sollten sich der Verantwortung stellen und meine Einwände ernst nehmen. Der Klimawandel ist ein zu wichtiges Thema, um beliebige Behauptungen auf staatlichen Webseiten aufzustellen und sich danach bei fachlicher Kritik vor der Diskussion zu drücken. Ich würde Sie daher bitten, mich mit dem Autor des Artikels in Kontakt zu bringen, um die Fragen wissenschaftlich klären zu können. Vielen Dank im voraus.

Mit freundlichen Grüßen

Dr. habil. Sebastian Lüning

———————————

Nachdem wir am 5.7.2015 nachgehakt hatten (siehe oben) teilte uns Ilka Wagner am 31. Juli 2015 mit, dass das BMUB bereits am 24. Juni 2015 detailliert auf unsere Fragen geantwortet hatte. Die Mail muss wohl im Spam-Filter verschwunden sein. Wir bedauern dies sehr und werden entsprechende Verbesserungen unserer Email-Kommunikationspfade vornehmen. Wir freuen uns sehr über die Antwort.

Von: Ursula Fuentes Hutfilter
An: Sebastian Lüning

Gesendet: 24. Juni 2015

Betreff: Ihr Schreiben vom 1. Mai zum Artikel Kampf gegen die Erderwärmung

Sehr geehrter Herr Lüning,

Vielen Dank für Ihr Schreiben vom 1. Mai 2015 an Frau Bundesministerin Dr. Hendricks. In welchem Sie den Artikel „Kampf gegen Erderwärmung: Klimaschutz hat Priorität“ auf der Website der Bundesregierung kritisieren (zugänglich unter: http://www.bundesregierung.de/Content/DE/Artikel/2015/02/2015-02-24-klima-sucht-schutz.html). Ich wurde gebeten Ihnen zu antworten. Dabei werde ich mich eng an Ihre Aussagen halten (jeweils unten abgedruckt) und dann jeweils darauf reagieren.

Ihre Aussage 1:
“Naturkatastrophen nehmen zu und verursachen enorme Kosten.”
Laut Aussage der Munich Re hat es in den letzten drei Jahre 2012-2014 eher weniger als mehr Naturkatastrophen gegeben. Die Frankfurter Rundschau titelte dazu am 7. Januar 2015: “Wetterextreme: Weniger Schäden durch Naturkatastrophen”.
Siehe: http://www.fr-online.de/klimawandel/wetterextreme-weniger-schaeden-durch-naturkatastrophen,1473244,29500598.html

Unsere Antwort:
In dem von Ihnen zitierten Beitrag in der Frankfurter Rundschau heißt es weiter:

„Bei den Schadensstatistiken ist zum einen viel Zufall im Spiel – ob verheerende Stürme über Städte hinweg ziehen oder wie 2014 sich meistens über Ozeanen austoben, sagt Peter Höppe. Rein von der Anzahl her, hat der Risikoforscher der Munich Re 2014 erstmals fast 1000 schadensrelevante Naturkatastrophen registriert, die meist wetterbedingt waren. Im Schnitt der vergangenen zehn Jahre waren es 830 solcher Ereignisse, blickt man auf die letzten drei Jahrzehnte, kommt man sogar nur auf 640. Die Zahl der Naturkatastrophen nimmt also weiter zu und dass das mit dem Klimawandel in Verbindung steht, bezweifelt kein ernsthafter Experte.“

In der zugehörigen Pressemitteilung der Munich Re vom 7.01.2015 ist festgehalten (https://www.munichre.com/de/media-relations/publications/press-releases/2015/2015-01-07-press-release/index.html):

„Insgesamt wurden (2014) 980 schadensrelevante Naturkatastrophen registriert, deutlich mehr als im Durchschnitt der vergangenen 10 und 30 Jahre (830 bzw. 640). Mehr als neun von zehn (92 %) der schadenrelevanten Naturkatastrophen entfielen auf Wetterereignisse. Auffällig war die deutlich unterdurchschnittliche Hurrikan-Saison im Nordatlantik, wo sich nur 8 starke und daher benannte Stürme bildeten; der langfristige Durchschnitt (1950-2013) liegt bei 11. Dagegen war die tropische Wirbelsturmsaison im Ostpazifik von weit überdurchschnittlich vielen Stürmen geprägt, die meist aber nicht auf Land trafen.“

Aus den beiden Zitaten geht hervor, dass es nicht weniger, sondern mehr Naturkatastrophen gegeben hat. Die letzten drei Jahre werden dabei gar nicht thematisiert, sondern die letzten 30, die letzten 10 Jahre sowie 2014 mit Steigerungen von 640, über 830 auf 980 Naturkatastrophen. Im Jahr 2014 gab es lediglich weniger Schäden, was unter anderem damit zusammenhängt, dass Wirbelstürme im Ostpazifik nicht auf Land trafen. Zudem werden die Frühwarnsysteme verbessert, und die Menschen können besser Vorkehrungen treffen.

Ihre Aussage 2:
“Das Jahr 2014 war weltweit das wärmste seit 1881, dem Beginn der regelmäßigen Messungen. Das ergaben Untersuchungen der US-Weltraumbehörde NASA und des US-Wetteramtes NOAA.”
Die NASA hat sich hier mittlerweile selbst korrigiert und stellt den “Wärmerekord” jetzt offen in Frage. Sie erklärte, aus statistischer Sicht sei es wahrscheinlicher – nämlich zu 62% – dass es keinen neuen globalen Temperaturrekord 2014 gegeben hat. Klimaexperten der BEST-Projekts der University of California in Berkely äußern sich ähnlich: “…it is impossible to conclude from our analysis which of 2014, 2010, or 2005 was actually the warmest year”.
Siehe: http://www.kaltesonne.de/nasa-rudert-zuruck-2014-war-moglicherweise-doch-nicht-das-warmste-jahr-der-messgeschichte-experten-erwarmungspause-setzt-sich-noch-5-10-oder-15-jahre-fort/

Unsere Antwort:
Alle drei langjährigen Temperaturzeitreihen der NASA (Goddard Institute for Space Studies – GISS, http://data.giss.nasa.gov/gistemp/graphs_v3/Fig.A2.gif), der Universität von East Anglia und des Britischen Meteorologischen Dienstes (Climate Research Unit at the University of East Anglia und Hadley Center – HadCRUT, http://www.cru.uea.ac.uk/cru/data/temperature/HadCRUT4.png) und der amerikanischen Ozean-Atmosphärenbehörde NOAA (National Oceanic and Atmospheric Administration, http://www.ncdc.noaa.gov/sotc/global/2014/13/supplemental/page-4) weisen 2014 als das wärmste Jahr seit Beginn der regelmäßigen Aufzeichnungen im 19. Jahrhundert aus. Die NOAA teilt dazu im Einzelnen mit (http://www.ncdc.noaa.gov/sotc/global/201413):
„Das Jahr 2014 war, gemittelt über die globale Land- und Ozeanoberfläche, das wärmste Jahr seit Beginn der Aufzeichnungen 1880. Das globale Mittel der bodennahen Lufttemperatur lag 0,69 °C über dem Mittel des 20. Jahrhunderts von 13,9 °C und brach damit unschwer die vorangegangenen Rekorde von 2005 und 2010 um 0,04 °C. Es ist das 38. Jahr in Folge (seit 1977), dessen globales Mittel über dem langjährigen Durchschnitt lag. Mit 2014 traten neun der zehn wärmsten Jahre in der 135-jährigen Geschichte der Aufzeichnungen im 21. Jahrhundert auf. 1998 rangiert gegenwärtig auf Platz 4 der wärmsten Jahre.
Auch die globale Ozeanoberflächentemperatur erreichte 2014 Rekordniveau mit 0,57 °C über dem Mittel des 20. Jahrhunderts von 16,1 °C und mit 0,05 °C über den vorangegangenen Rekorden von 1998 und 2003. Bemerkenswert ist, dass über das gesamte Jahr 2014 ENSO-neutrale Bedingungen herrschten.“

Die folgenden Internetseiten enthalten die den Zeitreihen zugrunde liegenden Temperaturabweichungen zum detaillierteren Vergleich:
HadCRUT: http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.3.0.0.annual_ns_avg.txt
NASA:   http://data.giss.nasa.gov/gistemp/graphs_v3/Fig.A2.txt
NOAA: Die NOAA teilt dazu im einzelnen www.mitncdc.noaa.gov/sotc/global/201413

Ihre Aussage 3:
Sie schreiben (mit Bezug auf Deutschland):
“Extreme Wetterereignisse häufen sich”
Auf welche wissenschaftlichen Arbeiten und Zeiträume beziehen Sie sich? Meines Wissens fanden die meisten Studien für die vergangenen 100 Jahre KEINE Zunahme der Wetterextreme in Mitteleuropa. Siehe http://www.kaltesonne.de/klimawandel-in-deutschland-eine-geowissenschaftliche-betrachtung/ und z.B. http://www.kaltesonne.de/?p=15331 und http://www.kaltesonne.de/?p=14602

Unsere Antwort:
Die Aussage, dass sich extreme Wetterereignisse häufen, ist nicht nur auf Deutschland bezogen, sondern auch auf andere Regionen der Welt. Als Beispiel werden im selben Abschnitt neben Deutschland ja auch extreme Wettereignisse in Form von Starkregenereignissen, Tornados und Gewitterstürmen in Europa genannt. In diesem Zusammenhang heißt es in einer Pressekonferenz des Deutschen Wetterdienstes (http://www.dwd.de/bvbw/generator/DWDWWW/Content/Presse/Pressekonferenzen/2012/PK__03__05__12/Rede__Schreiber__20120503,templateId=raw,property=publicationFile.pdf/Rede_Schreiber_20120503.pdf):

„Die Klimaforscher haben eine Tendenz zur Zunahme von zentral über Mitteleuropa liegenden, feuchten Tiefdruckgebieten beobachtet. Die mittlere jährliche Zahl stieg von 1951 bis 2011 um 20 Prozent. Das wird sich, wenn die Klimaprojektionen Recht behalten, bis zum Ende des Jahrhunderts fortsetzen. Solche Tiefdruckgebiete enthalten überdurchschnittlich hohe Feuchtigkeit – die beste Voraussetzung für gefährliche Starkniederschläge. Wir müssen also künftig mit mehr Überschwemmungen rechnen – wenn wir uns darauf nicht vorbereiten. Kennzeichnend für diese Wetterlagen sind überdurchschnittlich kräftige Niederschläge, im Sommerhalbjahr verbunden mit Gewittern und stürmischen Winden. Diese Wetterlage kann sich immer wieder auch zu sogenannten Vb-Lagen entwickeln. Dabei entsteht ein Tief über dem Mittelmeer und zieht über den Balkan in das östliche Mitteleuropa. Diese Vb-Lagen können sehr hohe Niederschlagsextreme in Mitteleuropa mit riesigen Schäden verursachen. Beispiele sind die Hochwasser an der Oder im Jahr 1997 und an der Elbe im Jahr 2002. Die Szenarien deuten an, dass wir künftig öfter mit solchen extremen Wetterlagen vor allem im Winterhalbjahr rechnen müssen.“

Der 5. Sachstandsbericht des IPCC, in dem ja eine Vielzahl von Studien ausgewertet wurde, stellt die Zunahme bestimmter extremer Wetterereignisse fest (http://ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_Chapter02_FINAL.pdf). Vergleichsweise gut ist die Datenlage im Hinblick auf Temperaturextrema. So wurde über den meisten Landgebieten, die analysiert wurden, eine signifikante Zunahme der Maximum- und Minimumtemperaturen seit 1950 festgestellt. Mit einer Wahrscheinlichkeit von 66 bis 100 % nahm in Europa, Australien und in den meisten Gebieten Asiens, wo ausreichend Daten vorhanden sind, die Häufigkeit von Hitzewellen seit Mitte des 20. Jahrhunderts zu.

In Nordamerika und Europa nahmen entweder Häufigkeit oder Intensität von Starkniederschlägen mit einer Wahrscheinlichkeit von 66 bis 100 % zu. In Nordamerika ist dies wahrscheinlich im gesamten 20. Jahrhundert der Fall. Für Südamerika zeigen viele neuere Studien eine Zunahme von Häufigkeit und Intensität von Starkniederschlägen über dem gesamten Kontinent.

Jedoch ist es unbestritten, dass die Untersuchung von Extremereignissen komplex ist. Schwierigkeiten verursacht unter anderem der Umstand, dass es in der wissenschaftlichen Literatur nicht in jedem Fall allgemeingültige Definitionen von Extremereignissen gibt. So können beispielsweise extreme Ereignisse von Ort zu Ort variieren. Ein heißer Tag in tropischen Regionen ist durch andere Temperaturen gekennzeichnet als ein heißer Tag in mittleren Breiten. Darüber hinaus gibt es Datenlücken, sich mit der Zeit ändernde Untersuchungs- und Beobachtungsmethoden sowie schwer zu verallgemeinernde Aussagen, weil Studien verschiedene Jahreszeiten und Regionen betreffen. Auf dem Gebiet der Erforschung von Extremereignissen gibt es demnach eine Reihe offener Fragen, deren Bearbeitung in näherer Zukunft sicher zu weiteren und vertieften Erkenntnissen führen wird.

Ihre Aussage 4:
4) Sie führen in den Einschubboxen “Dauerregen und Sturmfluten nehmen zu” und “Die fünf größten Naturkatastrophen 2014” Beispiele für Extremwetterereignisse auf. Derartige Aufstellungen lassen sich nun aber für jedes beliebige Jahr erstellen. Klimatisch relevant sind in diesem Zusammenhang vor allem Langzeittrends der letzten 100-300 Jahre. Wie sehen diese aus? Was ist die Intention Ihrer Auflistungen?

Unsere Antwort:
Die Box dient der besseren Veranschaulichung des Sachverhaltes mit Hilfe einiger Beispiele von extremen Wettereignissen in Deutschland. Es ging hier nicht darum, Langzeittrends der letzten Jahrhunderte anzugeben. Zudem begannen regelmäßige Wetteraufzeichnungen erst im 19. Jahrhundert, so dass belastbare Trends extremer Ereignisse über die letzten 200 oder 300 Jahre in den seltensten Fällen vorliegen dürften. Wir empfehlen jedoch, diese Frage an den Deutschen Wetterdienst zu richten. Im Hinblick auf längerfristige Trends extremer Wettereignisse in verschiedenen Regionen der Welt verweisen wir neben unseren Ausführungen zu Ihrer Frage 3 insbesondere auf den 5. Sachstandsbericht des IPCC, Kapitel 2 „Changes in Extreme Events“, S. 208 – 222 und auf den IPCC Sonderbericht “Management des Risikos von Extremereignissen und Katastrophen zur Förderung der Anpassung an den Klimawandel” (Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation – SREX).
http://ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_Chapter02_FINAL.pdf
http://ipcc.ch/report/srex/

Ihre Aussage 5:
5) Sie schreiben:
“Der Klimawandel verursacht hohe Kosten. Die Gesamtkosten durch Naturkatstrophen lagen 2014 weltweit bei 110 Milliarden Dollar. Ein Zyklon in Indien verursachte zum Beispiel einen Schaden von sieben Milliarden Dollar.”
Wissenschaftliche Arbeiten zeigen jedoch, dass der beobachtete Anstieg der globalen Extremwetterversicherungsschäden fast vollständig auf sozioökonomischen Gründen basiert. Siehe http://www.kaltesonne.de/neue-arbeit-von-roger-pielke-jr-anstieg-der-globalen-extremwetterversicherungsschaden-basiert-fast-vollstandig-auf-soziookonomischen-grunden/
Insbesondere ist keine Zunahme der Zyklone zu beobachten. Siehe: http://www.kaltesonne.de/wer-hatte-das-gedacht-studien-konnen-keine-zunahme-der-tropischen-wirbelsturme-im-indischen-und-pazifischen-ozean-finden/

Unsere Antwort:
Für das Schadensausmaß durch Extremwetterereignisse spielen sowohl sozioökonomische Faktoren als auch die Häufigkeit und Intensität von Wetterextremen eine Rolle. Das konkrete Schadensausmaß hängt dabei stark von den regionalen Bedingungen ab: naturräumliche Situation, Bevölkerungsdichte, Gebäudebestand etc. Ein Anstieg von Wetterextremen kann ebenso zu einer Zunahme der (versicherten) Schäden führen wie beispielsweise die Zunahme von Bevölkerungs- oder Bebauungsdichte. Das Verhältnis der Einflussfaktoren auf das Schadensausmaß ist regional unterschiedlich und ändert sich auch im Zeitverlauf.

Ihre Aussage 6:
6) Sie zitieren Peter Höppe von der Munich Re: “Schadensrelevante durch Gewitter bedingte Unwetter nehmen in verschiedenen Regionen wie den USA und in Mitteleuropa nachweislich zu”. Was ist mit anderen Gebieten der Erde? Wie sieht es im globalen Durchschnitt aus? Kann ausgeschlossen werden, dass es sich um natürliche Schwankungen/Verschiebungen handelt? Auf Letzteres deutet z.B. eine Studie aus Brasilien, die fand, dass die Blitzhäufigkeit in Brasilien während der vergangenen 60 Jahre im Takte der Sonnenaktivität variierte. Siehe:
http://www.kaltesonne.de/?p=14624

Unsere Antwort:
Nach gegenwärtigem Erkenntnisstand hat die Anzahl intensiver Niederschlagsereignisse seit etwa dem Jahre 1950 über mehr Regionen des Festlandes zu- als abgenommen, besonders über Nordamerika und Europa, wo – allerdings mit regionalen und jahreszeitlichen Unterschieden – Häufigkeit oder Intensität solcher Ereignisse angewachsen sind (http://ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_Chapter02_FINAL.pdf). Für die Beurteilung der zu erwartenden Schadenssummen bzw. die lokal vorzunehmenden Anpassungsmaßnahmen ist der globale Durchschnitt naturgemäß irrelevant. Auch werden Häufigkeit und Intensität der Unwetterereignisse wie auch alle lokalen/regionalen Klimaänderungen entscheidend von den Veränderungen der atmosphärischen Zirkulation bestimmt, die immanenter Bestandteil des Klimawandels sind.

Grundsätzlich ist aber davon auszugehen, dass im Falle einer Erwärmung der Atmosphäre auch ihr Wasserdampfgehalt und damit die verfügbare Energie für konvektive Umlagerungen (einschließlich schadensrelevanter Gewitter) zunimmt. Diese Prozesse laufen ab, gleich aus welchem Grund sich die Atmosphäre erwärmt, wenn auch ein erheblicher Anteil der gegenwärtigen globalen Erwärmung mit der anthropogenen Zunahme der Treibhausgaskonzentrationen im Zusammenhang steht. Gleichwohl ist es richtig, dass die veränderte Häufigkeit von Unwetterereignissen mehrere Ursachen einschließlich natürlicher (klimasysteminterner) Schwankungen haben kann.

Mit besten Grüßen

Ursula Fuentes

Dr. Ursula Fuentes Hutfilter
Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit
Leiterin Referat KI I 1
Grundsatzangelegenheiten des Klimaschutzes, Klimaschutzplan
Head of Unit KI I 1
Strategic Aspects of Climate Policy, Climate Action Plan
Köthener Str. 2-3, 10963 Berlin

———————————

Von: Sebastian Lüning
An: Ursula Fuentes

Gesendet: 5.8.2015

Sehr geehrte Frau Fuentes,

Herzlichen Dank für Ihre ausführliche Antwort, die ich wie folgt kommentieren möchte:

AUSSAGE 1:
“Naturkatastrophen nehmen zu und verursachen enorme Kosten.”

Es macht in der Tat Sinn, über die letzten drei Jahre hinweg die Daten der letzten 30 Jahre zu betrachten. Sie zitieren hier statistische Daten eines Wirtschaftsunternehmens, der Munich Re. Es bleibt zunächst offen, ob die Zunahme der von der Munich Re verzeichneten schadensrelevanten Naturkatastrophen vielleicht durch eine verbesserte und detailliertere globale Abdeckung zu erklären wäre. Eine lückenlose Satellitenüberwachung liegt nur für einen Teilbereich der letzten 30 Jahre vor. Aus diesem Grund sind für derartige Betrachtungen wissenschaftlich begutachtete Studien auf jeden Fall vorzuziehen. Der IPCC hat die entsprechenden Studien augewertet und kann (bislang noch) keine statistisch robuste Zunahme von Extremwetterereignissen feststellen, mit Ausnahme von Hitzewellen. Mit Ihrer Aussage widersprechen Sie somit den neuesten Erkenntnissen des IPCC. Hier einige wichtige Zitate aus dem 2. Kapitel des IPCC AR5-Berichts:

Insgesamt sind die eindeutigsten globalen Schwankungen der Klimaextreme bei Messungen der täglichen Temperatur zu sehen, einschließlich bis zu einem gewissen Grad Hitzewellen. Extremereignisse bzgl. Niederschlag scheinen ebenfalls zuzunehmen, doch gibt es hier eine große räumliche Variabilität.

● Es gibt nur begrenzt Beweise für Änderungen von Extremen in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts

● Gegenwärtige Datensätze zeigen keine signifikanten beobachteten Trends der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts … Keine robuste Häufung von jährlichen Ereignissen bzgl. tropischer Stürme, Hurrikanen und schweren Hurrikanen konnten während der letzten 100 Jahre im atlantischen Becken ausgemacht werden.

● Allgemein fehlen weiterhin Beweise, so dass nur geringes Vertrauen besteht hinsichtlich der Trendsignale hinsichtlich Größenordnung und/oder Häufigkeit von Überschwemmungen im globalen Maßstab.

Insgesamt gibt es geringes Vertrauen in die beobachteten Trends kleinräumiger Extremereignisse wie Hagel und Gewitter wegen Inhomogenitäten in historischen Daten und Schwachpunkte im Monitoring-System.

Insgesamt kommt man bei einer gegenwärtigen Bestandsaufnahme zu dem Ergebnis, dass nicht mehr als höchstens geringes Vertrauen besteht im global beobachteten Trend von Dürren seit Mitte des vorigen Jahrhunderts. Ursache sind fehlende Beobachtungen, geographische Inkonsistenzen in den Trends und Abhängigkeiten von äußeren Trends bei der Auswahl der Indizes. Auf der Grundlage aktualisierter Studien sind die Schlussfolgerungen im AR 4 hinsichtlich zunehemnder Dürre-Trends seit den siebziger Jahren möglicherweise übertrieben. Allerdings ist es wahrscheinlich, dass die Häufigkeit und Intensität von Dürren im Mittelmeergebiet und in Westafrika zugenommen sowie im zentralen Nordamerika und Nordwest-Australien seit 1950 abgenommen hat.

Insgesamt ist das Vertrauen in großräumige Änderungen der Intensität extremer außertropischer Zyklonen seit dem Jahr 1900 nur gering.

Siehe auch: http://rogerpielkejr.blogspot.de/2013/10/coverage-of-extreme-events-in-ipcc-ar5.html

AUSSAGE 2:

Wärmerekord 2014

Sie schreiben, dass alle drei langjährigen Temperaturzeitreihen von NASA/GISS, Universität von East Anglia/Britischem Meteorologischem Dienst (HadCRUT), und NOAA 2014 als das wärmste Jahr seit Beginn der regelmäßigen Aufzeichnungen im 19. Jahrhundert ausweisen.Wie bereits in meiner urprünglichen Anfrage ausgeführt, sind die entsprechenden Institutionen hier jedoch selber sehr viel vorsichtiger.

NASA & NOAA: Der Leiter des GISS-Temperatursystems Gavin Schmidt räumte am 18. Januar 2015 ein, dass der Rekord keineswegs gesichert ist. Man sei sich nur zu 38% sicher, dass es zum Rekord gekommen ist. Aus statistischer Sicht sei es wahrscheinlicher – nämlich zu 62% – dass es keinen neuen globalen Temperaturrekord 2014 gegeben hat. Schmidt reagierte damit auf die von Ihnen verlinkte NOAA-Meldung, die insofern überholt ist.

HadCRUT: Das Britische MetOffice formulierte von vorneherein viel vorsichtiger. In einer Pressemitteilung vom 26. Januar 2015 schrieb der Britische Wetterdienst:

http://www.metoffice.gov.uk/news/release/archive/2015/2014-global-temperature

Der HadCRUT4-Datensatz (zusammengestellt vom UK Met.-Office und der Universität von East Anglia) zeigt, dass das vorige Jahr um 0,56°C (±0.1°C) über dem vieljährigen Mittel lag (1961 bis 1990). Nominell rangiert das Jahr 2014 unter den wärmsten Jahren des Datensatzes mit dem gleichen Mittelwert wie 2010, aber die Unsicherheits-Bandbreiten bedeuten, dass es nicht möglich ist zu sagen, welches der vielen letzten Jahre das wirklich wärmste war.

In diesem Kontext ist auch eine am 23. Januar 2015 erschiene Zusatzerklärung von Associated Press zu sehen, in der die Unsicherheit bei der Wärmerekord-Zuteilung eingeräumt wird:

http://bigstory.ap.org/article/d7375a310ef6475c9841accc756c4ba4/heat-noaa-nasa-say-2014-warmest-year-record

In unserem Beitrag weisen wir auch darauf hin, dass der NOAA und der NASA zufolge 2014 das wärmste Jahr jemals war. Dabei wird aber nicht der Unzulänglichkeit Rechnung getragen, dass es in anderen Jahren ähnlich hohe Temperaturen gab – und sie alle innerhalb der Fehlerbandbreite, was die Sicherheit schmälert, dass irgendeines davon das wärmste jemals war. In einer früheren Version wurde die Klimawissenschaftlerin Jennifer Francis von der Rutgers University zitiert, die angemerkt hatte, dass die Fehlerbandbreite es fast unmöglich macht zu bestimmen, ob 2014 das wärmste, das zweit-, dritt- oder sechstwärmste Jahr war. Sie sagte, dass der Trend unabhängig davon eine „klare, konsistente und unumkehrbare“ Erwärmung der Erde zeigt. Dieser Hinweis auf die Fehlerbandbreite wurde in späteren Versionen weggelassen.

Auch die Temperaturexperten des BEST-Projekts der University of California in Berkely haben sich zu diesem Thema geäußert. Die Forscher stellen klar, dass es bei solch geringen Temperaturunterschieden statistisch gar nicht möglich ist, einen Spitzenreiter einwandfrei zu bestimmen. Im BEST-Newsletter vom 14. Januar 2015 schreiben die Forscher:

http://static.berkeleyearth.org/memos/Global-Warming-2014-Berkeley-Earth-Newsletter.pdf

Numerisch lautet unsere Best Estimate der globalen Temperatur 2014, dass sie geringfügig über dem bislang wärmsten Jahr 2010 lag (um 0,01°C), doch beträgt die Fehlerbandbreite 0,05°C. Daher ist es unmöglich, aufgrund unserer Analyse zu sagen, welches der Jahre 2014, 2010 oder 2005 wirklich das wärmste jemals war. Die von uns erreichte Fehlerbandbreite war bemerkenswert klein (0,05°C im 95%-Vertrauensintervall). Teilweise wurde dies erreicht durch die Einbeziehung von Daten von über 30.000 Temperatur-Messstationen und durch die Verwendung optimierter statistischer Verfahren. Das ist natürlich ein Hinweis darauf, dass sich die Temperatur der Erde im vergangenen Jahrzehnt nur sehr wenig verändert hat. Man beachte, dass die zehn wärmsten Jahre alle seit 1998 aufgetreten sind.

Im Lichte dieser starken Einschränkungen wird es schwierig sein, das Jahr 2014 als klares Wärmerekordjahr aufrechtzuerhalten.

AUSSAGE 3:

“Extreme Wetterereignisse häufen sich”

Aus dem Kontext erschien mir diese Aussage auf Deutschland bezogen zu sein, insbesondere weil es in der Folge um Anpassungsbemühungen in Deutschland geht. Aber gerne können wir auf Europa erweitern. In Ihrer Antwort sprechen Sie “extreme Wettereignisse in Form von Starkregenereignissen, Tornados und Gewitterstürmen” an. Laut dem neuesten Klimabericht des Umweltbundesamtes (UBA) kann in Deutschland bislang noch kein statistisch gesicherter Anstieg extremer Niederschläge oder von Trockenperioden verzeichnet werden.

http://www.umweltbundesamt.de/publikationen/monitoringbericht-2015

Ähnlich sieht es bei den Winterstürmen in Deutschland aus, die laut Helmholtz-Zentrum Geesthacht noch nicht vom anthropogenen Klimawandel beeiflusst sind.

https://idw-online.de/de/news606456

In Punkto Tornados gibt es aus Europa wenig Literatur. In den USA ist die Lage jedoch besser bekannt. Hier hat die Anzahl der Tornados in den letzten Jahrzehnten trotz Klimaerwärmung signifikant abgenommen.

http://www.kaltesonne.de/die-grose-tornadoflaute-kein-zusammenhang-zwischen-klimawandel-und-tornadohaufigkeit/

Mir ist zudem keine begutachtete wissenschaftliche Arbeit bekannt, die eine langfristige Zunahme von Gewitterstürmen belegen würde.

Sie fürchten weiter, dass hochwasserfördernde Vb-Wetterlagen häufiger werden könnten. Diese Prognose wird in der Fachwelt nicht unbedingt geteilt. Eine Forschergruppe um Katrin Nissen von der Freien Universität Berlin hatte im April 2012 auf einer Tagung der European Geosciences Union eine Prognose zur weiteren Entwicklung von Vb-Wetterlagen vorgestellt. Dabei fanden Nissen und Kollegen, dass bestehende Klimamodelle die Häufigkeit von Vb-Wetterlagen um das doppelte bis dreifache überschätzen. Zudem sagten die Forscher eine Abnahme der Häufigkeit dieses Phänomens vorher.

http://adsabs.harvard.edu/abs/2012EGUGA..14.7040N

Die überaus vorsichtigen Aussagen des IPCC AR5 zur Extremwetterentwicklung hatte ich bereits in der Diskussion zu Punkt 1 erwähnt. Eine Zunahme der Hitzewellen ist durchaus realistisch. Hier fehlt mir jedoch der Vergleich zur vergangenen (natürlichen) Wärmeperiode vor 1000 Jahren, der Mittelalterlichen Wärmeperiode, als es in Deutschland/Europa bereits schon einmal so warm war wie heute. Es ist davon auszugehen, dass es damals mindestens ähnlich viele Hitzewellen gegeben hat.

Sie beschreiben eine Zunahme der Starkniederschläge für Europa, Nordmerika und Südamerika. Mir ist nicht klar, auf welcher Grundlage diese Trends identifiziert wurden. Die mir bekannten Detailstudien können diese Trends nicht nachvollziehen.

Deutschland: UBA-Studie (siehe oben)

Alpen: http://www.kaltesonne.de/monaco/

Italien: http://www.kaltesonne.de/kein-anstieg-der-extremen-niederschlage-in-norditalien-wahrend-der-vergangenen-90-jahre/

Spanien: http://www.kaltesonne.de/analyse-der-hochwasser-in-spanien-ergibt-keinen-trend-fur-die-letzten-40-jahre/

Zudem sind hier zyklische Elemente in der Vergangenheit gerne übersehen worden:

Südamerika: http://www.kaltesonne.de/sonnenaktivitat-steuerte-den-sudamerikanischen-monsunregen-wahrend-der-letzten-1500-jahre/

Brasilien: http://www.kaltesonne.de/forscherteam-findet-tausendjahrige-bond-klimazyklen-vor-der-kuste-brasiliens/

Nordamerika: http://www.kaltesonne.de/millenniumszyklen-vor-florida-neue-arbeit-dokumentiert-bedeutenden-einfluss-der-sonne-auf-das-klima-vor-7000-jahren/

Studien postulieren sogar eine zukünftige Abnahme extremer Hochwässer:

Europa: http://www.kaltesonne.de/neue-begutachtete-studie-in-nature-climate-change-klimawandel-lasst-hochwasser-in-europe-wohl-seltener-werden/

Schweiz: http://www.kaltesonne.de/neue-schweizerische-studien-kunftig-weniger-hochwasser-in-den-zentralalpen-sonnenaktvitat-ubt-signifikanten-einfluss-aus/

AUSSAGE 4:

Einschubbox Extremwetter

Ich bleibe dabei, dass die Einschubbox mit Aufzählung einiger Extremwettereignisse ohne die Kenntnis von Langzeittrends irrelevant ist. Derartige Aufstellungen lassen sich für jedes beliebige Jahr erstellen und können daher nicht als Beleg für Irgendetwas dienen. Natürlich gibt es bereits Erkenntnisse zu bestimmten Langzeittrends, nämlich mithilfe geologischer Methoden. Diese Trends zeigen in der Regel an, dass die heutige Entwicklung den Bereich der natürlichen Schwankungsbreite noch nicht verlassen hat.

AUSSAGE 5:

Kosten für Extremwetterereignisse

Sie beschränken sich an dieser Stelle auf allgemeine Ausführungen. Daher halte ich als Ergebnis fest:

Wissenschaftliche Facharbeiten zeigen, dass der beobachtete Anstieg der globalen Extremwetterversicherungsschäden fast vollständig auf sozioökonomischen Gründen basiert.

http://www.kaltesonne.de/neue-arbeit-von-roger-pielke-jr-anstieg-der-globalen-extremwetterversicherungsschaden-basiert-fast-vollstandig-auf-soziookonomischen-grunden/

http://www.kaltesonne.de/news-xx2-3/ (MunichRe: “Gründe für die starke Zunahme von Schäden durch Wetterkatastrophen [in Ostasien] sind vor allem soziökonomische Faktoren wie das weiterhin hohe Wirtschaftswachstum und der damit verbundene Anstieg an Werten in exponierten Gebieten”)

Eine Zunahme der Zyklone ist nicht zu beobachten.
http://www.kaltesonne.de/wer-hatte-das-gedacht-studien-konnen-keine-zunahme-der-tropischen-wirbelsturme-im-indischen-und-pazifischen-ozean-finden/

AUSSAGE 6:

Unwetterentwicklung

Hier gibt es für mich noch zu unterschiedliche regionale und zeitliche Entwicklungen, um einen generellen Anstieg zu vermuten. Man sollte zunächst natürliche, ggf. zyklische Entwicklungen besser verstehen, bevor voreilige Trends gemutmaßt werden. Siehe u.a. meinen Artikel “Studies of the past as the key to the future? Geological and historical reconstructions provide valuable support for future trend prediction of natural disasters” in Disaster Advances (Oktober 2013).

http://worldresearchjournals.com/disaseditorials/edtoct2013.pdf

Link: http://www.kaltesonne.de/um-antwort-wird-gebeten-kleine-anfrage-bei-der-deutschen-bundesregierung-zum-klimawandel/

Beitrag zuerst erschienen im Blog „die Kalte Sonne“. Übersetzung der englischen Passagen von Chris Frey EIKE