1

Energiewende-Wahnsinn – Das Drama von Irsching

Das Gaskraftwerk im bayrischen Irsching macht schon länger Schlagzeilen. Meist unter dem Titel „Der Irrsinn von Irsching“. Wer im Internet unter Irsching sucht, stößt darauf in vielfältiger Weise. Jetzt hat sich auch die Frankfurter Allgemeine Sonntagszeitung (FAS) des Themas angenommen. Ihren Beitrag serviert sie ebenfalls mit der Schlagzeile „Irrsinn in Irsching“. Einen Titel, der treffender wäre, gibt es auch gar nicht. Der Fall Irsching ist nur ein Beispiel, aber ein besonders krasses. Anderen Kraftwerken, die verlässlichen und preiswerten Strom liefern könnten, aber nicht dürfen, geht es nicht anders. Wem beim Lesen noch immer kein Licht aufgeht, dem ist nicht zu helfen.

Die Energiewende richtet noch mehr Schaden an als die Euro-Rettung

Im Untertitel des Beitrags heißt es: „In Bayern steht die beste, größte, effizienteste Gasturbine der Welt. Dass sie nicht läuft, ist ein Jammer. Und verrät einiges über den Wahnsinn der Energiepolitik.“ Aber sie verrät über diesen Wahnsinn nicht nur einiges, sondern alles. Was die politische Führung mit ihrer „Energiewende“ angerichtet hat und weiterhin anrichtet ist ein „Schilda hoch Zehn“. In ihrer finanziellen Belastung für die Deutschen und die gesamte Volkswirtschaft wird sie die ebenfalls ruinöse Euro-Rettungspolitik noch übertreffen.

Dieses Wunderwerk der Technik darf nicht, was es kann

Irsching liegt einige Kilometer östlich von Ingolstadt im Landkreis Pfaffenhofen. Die FAS schreibt: „Dort steht das modernste Gaskraftwerk Europas mit jener Turbine drin, die gepriesen wurde als das Schönste, Effizienteste, Sauberste, kurz: das Beste, was es in Sachen Turbinen gibt auf der Welt. Ein Wunder. Nur: Die Turbine bewegt sich nicht. Das Kraftwerk in Irsching steht still. Keine Sekunde hat es im vorigen Jahr Strom für den Markt produziert. Ausgerechnet dieses Wunderwerk der Technik hat das Nachsehen gegen den mit Abermilliarden subventionierten Öko-Strom und die Kohle-Dreckschleudern der Republik. Wirtschaftlich vernünftig ist das nicht, ökologisch auch nicht. Als „Irsching-Paradoxon“ geht der Irrsinn in die Geschichte ein, als Unterkapitel zum Wahnsinn der deutschen Energiewende.“

Was Deutschland missachtet, greifen sich andere Länder

Die Gasturbine des Kraftwerks ist ein Wunderwerk deutscher Technik mit einem „Wirkungsgrad von 60,75 Prozent: Weltrekord! Ein Triumph der Präzision im Maschinenbau“, schreibt Autor Georg Meck. Auch ist sie ein Schnellstarter: „Binnen Minuten lässt sich das Kraftwerk rauf und runter fahren, um Stromschwankungen auszugleichen, je nachdem, wie stark die Sonne gerade scheint oder der Wind bläst. Als ‚ideale Brücke ins regenerative Zeitalter’ wurde die Turbine deshalb begrüßt, Effizienz zahle sich auf Dauer aus, das war der vorherrschende Glaube.“ Der Glaube ist dahin. Ein Trost für die Herstellerfirma Siemens ist, dass andere Länder sich um das Technikwunder reißen: „44 Stück des Kraftwerktyps hat Siemens verkauft, nach Amerika, Korea, Japan, Polen, in die Türkei – nur in Deutschland findet die Turbine keine Freunde.“ Lesen Sie hier den ganzen FAS-Beitrag.

Irrsinn erkannt, aber der Spuk wird nicht gebannt

Trotz solcher Tatsachen fordert die FAZ-Redaktion in ihren Kommentaren zu Energiewende, Kernkraftausstieg und Klimaschutz noch immer nicht, den Energiewende-Spuk endlich abzublasen. Warum bloß nicht? Unverstand kann es doch nicht sein. Auch die Bild-Zeitung mag sich dazu nicht durchringen. Wohl schrieb jetzt auch Bild am Sonntag „Wir zahlen Milliarden für Strom, der gar nicht fließt“ (hier). Aber nach wie vor heult auch sie mit den Wölfen des Energiewende-Mainstream: „ Denn dass wir auf Windkraft setzen, ist gut, aber wie wir es tun, macht wenig Sinn, ist teuer, nicht mal ökologisch. Es droht eine ziemlich windige Luftnummer – und raten Sie mal, wer die bezahlt.“ Luftnummer ist stark untertrieben, wenn es um eine ruinöse Politik wie die „Energiewende“ geht. Mit Windkraft wird es stets eine bleiben, solange damit die Stromvollversorgung für ein Industrieland wie Deutschland erzwungen und durchgepaukt wird.

Der Beitrag erschien zuerst im Blog des Autors hier




EnBW warnt vor Stromausfällen wg. Sonnenfinsternis – und schiebt den schwarzen Peter weiter

Hier die Kundenmitteilung im Wortlaut (mit Dank an unseren Autor J. Kowatsch)

Partielle Sonnenfinsternis am 20. März 2015: 

Ihre Stromversorgung ist bei uns in guten Händen.

Sehr geehrte Damen und Herren,

am 20. März 2015 wird es in weiten Teilen Europas zu einer partiellen Sonnenfinsternis kommen. Dieses Naturphänomen hat auch Auswirkungen auf die Stromversorgung. Als Ihr Partner in allen Energiefragen haben wir daher ein paar wichtige Fakten für Sie zusammengestellt.

 

Die Sonnenfinsternis wird in Spanien beginnen und über Skandinavien enden. In Deutschland werden zwischen ca. 9:10 und 12:00 Uhr bis zu 82 % der Sonne durch den Mond verdeckt sein. Bei bewölktem Himmel wären mögliche Auswirkungen auf die Energieversorgung sehr begrenzt. An einem sonnigen Tag jedoch würde die Sonnenfinsternis zunächst zu einem Absinken der Stromerzeugung aus Photovoltaik in Deutschland um bis zu 12.000 Megawatt führen, was der Leistung von 12 großen Kraftwerken entspricht. Ab etwa 10:50 Uhr würde die Leistung innerhalb einer guten Stunde um bis zu 19.000 Megawatt ansteigen.

 

Die vier Übertragungsnetzbetreiber in Deutschland sind dafür verantwortlich, dennoch die gewohnte Systemstabilität zu gewährleisten. Die Herausforderung besteht darin, zunächst den Wegfall und später die erneute, rasche Zunahme der Stromeinspeisung aus Photovoltaik mithilfe vieler flexibler Erzeugungsanlagen vollständig auszugleichen. Darauf haben sich die Übertragungsnetzbetreiber gut vorbereitet. Die Mitarbeiter in den Netzleitstellen und Schaltwarten wurden für diese besondere Situation geschult und die Besetzung der Warten am 20. März 2015 wird verstärkt.

 

Trotzdem sind Störungen nie völlig auszuschließen, wie z.B. Frequenzschwankungen, die empfindliche Anlagen (CNC-Maschinen, Roboter, sonstige computergesteuerte Anlagen etc.) beeinflussen können. Sollten Sie Bedenken haben, empfehlen wir Ihnen daher Ihre Anlagen in einen systemstabilen Zustand zu fahren.

Nähere Informationen finden Sie außerdem in einer gemeinsamen Pressemitteilung der vier Übertragungsnetzbetreiber vom 23. Februar 2015, die wir beigelegt haben. Außerdem finden Sie in „Zeit online“ einen fundierten Artikel zu diesem Thema sowie eine Animation, die sehr gut die möglichen Auswirkungen auf den Leistungsverlauf der Einspeisung aus PV-Anlagen in Deutschland an einem sonnigen Tag zeigt:

http://blog.zeit.de/gruenegeschaefte/2015/03/03/sonnenfinsternis-energiewende/

Haben Sie noch Fragen? Dann rufen Sie mich an. Ich bin gerne für Sie da.

Freundliche Grüße

Sales & Solutions GmbH

i.V. Christoph Schade

Mail: c.schade@EnBW.com

Anlage: Pressemitteilung der vier Übertragungsnetzbetreiber vom 23. Februar 2015

Update vom 21.3.15: Aluminiumhersteller retten Stromnetz

Wie die Welt vom 21.3.15 berichtete schalteten mehrere deutsche Aluherstersteller ihr Produktion geplant und auf Weisung der Netzagentur zur Sicherung der durch das abrupte Abbrechen und  Wiederhochfahrens der Stromeinspeisung von PV-Anagen ab. Die Maßnahme nahm kurzzeitig 800 MW Last vom Netz und war wegen der partiellen Sonnenfinsternis vom selben Tage erforderlich.

Zitat aus dem Welt-Artikel:

Die Stromnetzbetreiber erklärten, es sei eine "große Herausforderung" gewesen, eine Solarstromschwankung von rund 14.000 Megawatt innerhalb von 90 Minuten auszugleichen. Es habe sich ausgezahlt, Kraftwerksbetreiber und große Stromverbraucher vorab über die besondere Situation zu informieren.

Related Files




Was denken die Japaner über Fukushima? Umfrage der Zeitung „Asahi Shimbun“

Frage 2 (siehe Bild rechts): Der Ertrag der Seefischerei im Bezirk Fukushima, 2010 weit über 50.000 t/Jahr, ist zunächst zurückgegangen, erholt sich aber langsam wieder. Um wieviel lag er 2013 unter dem Ertrag von 2010?

Richtige Antwort: 9 %. 3007 Personen, 52,9 % der Teilnehmer, haben diese angeklickt.

Frage 3: Bevölkerung

Am 01.01.2011, also vor dem Unglück, lebten im Regierungsbezirk Fukushima 2.027.138 Personen. Wie viele Menschen lebten dort am 01.01.2015?

(1) Etwa 1.935.000, also 90.000 weniger     (28 %)

(2) Etwa 1.870.000, also 150.000 weniger   (25,5 %)

(3) Etwa 1.800.000, also 225.000 weniger   (46,5 %)

Die richtige Antwort ist (1)

Setzt sich der Bevölkerungsschwund fort?

Praktisch nicht.

{Anmerkung des Übersetzers: Eine geringe Abnahme der Bevölkerungszahl gibt es in Japan außerhalb der Großstädte überall. Die Geburtenrate ist zur Zeit niedriger als bei uns, Masseneinwanderung wird nicht geduldet, Flüchtlinge aus dem Ausland werden nicht aufgenommen, Gastarbeiter wurden konsequent zurückgeschickt}

Frage 4: Gibt es einen Mangel an Arbeitskräften?

Um wieviel müsste die Zahl der Arbeitskräfte gegenüber dem Stand von 2013 vermehrt werden, um wieder alles in Ordnung zu bringen?

(1) Es sind bereits genug           (40,5 %)

(2) 4mal so viele wären nötig    (29,2 %)

(3) 12mal so viele                     (30,2 %)

Richtig ist die Antwort (1)

Frage 5: Todesfälle im Zusammenhang mit der Erdbebenkatastrophe.

Die Zahl der Toten und Vermissten im Regierungsbezirk Fukushima betrug nach dem Stand Ende Januar 2015 etwa 3.600. Keineswegs sind alle diese Personen direkt bei der Erdbebenkatastrophe ums Leben gekommen. Später sind Evakuierte gestorben aufgrund der verschlechterten Lebensbedingungen, Überanstrengung und anderem. Diese muss man zu den Erdbebenopfern rechnen. Wie hoch ist deren Anteil an der Gesamtzahl der Todesopfer im Regierungsbezirk Fukushima?

3, 5, 25 oder 50 %? Nur 24,9 % haben die richtige Antwort gefunden, nämlich 50 %.

Die Toten unter den Evakuierten können nahezu vollständig zu den Erdbebenopfern gerechnet werden, weil die Evakuierung aufgrund des Unfalls im Kernkraftwerk erzwungen wurde, und dieser Unfall eine Folge des Erdbebens war.

{Anmerkung des Übersetzers: Da auch in den evakuierten Gebieten keine Strahlenexpositionen vorkommen, bei welchen Gesundheitsschäden zu beobachten wären, kann man die meisten der über 3.000 Toten unter den Evakuierten als Opfer einer überflüssigen staatlichen Maßnahme betrachten}

Weniger spätere Todesfälle gab es in den nördlich vom Regierungsbezirk Fukushima gelegenen Bezirken Iwate und Miyagi, dort wurden weit weniger Menschen aufgrund der Strahlensituation evakuiert. Die Gesamtzahl an Toten ist dort jedoch wesentlich höher.

Frage 6: Stimmung unter den Evakuierten

Die Zahl der Evakuierten im Regierungsbezirk Fukushima und außerhalb davon betrug am 01.01.2015 etwa 120.000 Personen. Im Jahr 2014 führte die Wiederaufbaubehörde eine Umfrage unter den Evakuierten durch, getrennt nach ihren Herkunftsgebieten, um herauszufinden, welcher Anteil dieser Personen an ihren Heimatort zurückkehren will. Wie groß ist dieser Anteil? 10, 20, 40 oder 80 %?

Die richtige Antwort ist: Ungefähr 20 %. (34,1 %, die relative Mehrheit)

Frage 7: Aufräumarbeiten

Durch das Unglück im Kernkraftwerk Fukushima I der TEPCO wurden Boden und Baumaterialien kontaminiert. Dies Material wird auf eine vom Staat eingerichtete Deponie gebracht. Wie groß ist diese Deponie geplant, im Vergleich zum Tokyo Dome (Traglufthalle für Sport- und Musikveranstaltungen mit 55.000 Zuschauerplätzen)

(1) Ebenso groß          60 Antworten            3,3 %

(2) 18mal größer         342 Antworten          18,6 %

(3) 36mal größer         1.433 Antworten       78,1 %

Richtig ist (2)

Lagerung für maximal 30 Jahre

Die Deponie ist als Zwischenlager für höchstens 30 Jahre geplant. Dort soll Boden und anderes aus dem Bezirk Fukushima gelagert werden. Kontaminiertes brennbares Material wird verbrannt; soweit die Asche eine zu hohe Konzentration an Radionukliden enthält, kommt sie auch auf die Deponie. Diese befindet sich in der Nachbarschaft der Städte Okuma und Futaba. Dort wird ein etwa 16 km² großes Gelände genutzt, um 16 bis 22 Millionen m³ Abfall zu lagern. Das entspricht dem 13- bis 18-fachen Volumen des Tokyo Dome.




Können Temperatur-Korrekturen etwas Falsches richtig stellen?

[Bemerkung: Am Ende ist ein kurzer Auszug aus diesem Beitrag angefügt. Anm. d. Übers.]

Temperaturadjustierungen haben mich gestört, nicht weil sie gemacht werden, sondern weil es eine umfassende Hypothese gibt, dass sie ein Problem geschickt beheben. Irgendwie sind Klimaforscher in der Lage, aus Orangen durch Adjustierungen Äpfel zu machen. Allerdings, wenn Adjustierungen an Temperaturdaten gemacht werden – ob sie TOBS korrigieren oder fehlende Dateneingaben oder fehlerhafte Datenerfassung etc. – sind wir nicht mehr mit [originalen] Daten verlinkt. Wir werden stattdessen mit einem Modell der ursprünglichen Daten konfrontiert. Wie bei allen Modellen gibt es die Frage, wie genau das Modell die Realität spiegelt.

Nach der Lektüre von Mr. Hausfathers Beitrag fragte ich mich, wie gut die TOBS-Anpassungen die vermutlich fehlerhaften ursprünglichen Temperaturdaten korrigieren. In dem Prozess der Suche nach einer Antwort kam ich zu dem (vorläufigen) Schluss, dass TOBS und andere Anpassungen nichts dazu tun, um die Temperaturdaten klarer zu fokussieren, damit globale Temperaturtrends mit der notwendigen Sicherheit berechnet werden können und die Ergebnisse auf die nächsten Hundertstel Grad C zu runden.

Die CRN-Station in Kingston, RI ist ein guter Ort, um die Wirksamkeit der TOBS-Adjustierung zu prüfen, weil es eine von mehreren CRN-Paaren im ganzen Land ist. Kingston 1 NW und Kingston 1 W sind CRN Stationen in Rhode Island und sind knapp 1400 Metern voneinander entfernt. Außerdem ist eine USHCN-Station, deren TOBS von NOAA adjustiert und später homogenisiert wurden, etwa 50 Meter vom Kingston 1 NW entfernt. Die Standorte der Stationen sind auf folgendem Google Earth Bild zu sehen. Fotos der beiden CRN Websites folgen – Kingston 1 W oben und Kingston 1 NW unten (beide mit Genehmigung NCDC).

 

Standorte in Kingston, RI USHCN and CRN Stationen

 

Kingston CRN 1 W

 

Kingston CRN 1 NW

Die folgenden Bilder sind von der Kingston USHCN Website vom Surface Stations Project. Das Projekt ordnet der Station eine Klasse-2-Bewertung für den in Frage kommenden Zeitraum zu: [die Jahre] 2003 – 2014. Stationen mit einer Klasse 1 oder 2 Bewertung wird als Bereitstellung zuverlässiger Daten betrachtet (siehe Klima Reference Network Rating Leitfaden – übernommen vom NCDC Climate Reference Network Handbook, 2002, sSpezifikation der Standortwahl (Abschnitt 2.2.1 der NOAA Climate Reference Network). Nur 11% der im Rahmen des Projekts untersuchten Stationen bekamen eine Klasse 1 oder 2 Bewertungen, die Kingston USHCN Website ist eine der wenigen, deren Daten als zuverlässig betrachtet werden. Bilder in Bodenhöhe von Gary Boden, Luftbilder von Evan Jones.

 

Google EarthI Image zeigt die Standorte der USHCN Stations Überwachungsausrüstung.

 

Vergrößertes Google Earth Image der USHCN Station. Beachten Sie den Standort der Kingston 1 NW CRN Station in der oberen, rechten Markierung.

 

Kingston USHCN Station Blickrichtung Süden.

 

Kingston USHCN Station Blickrichtung Norden. Die Kingston 1 NW CRN Station kann im Hintergrund gesehen werden.

CRN-Daten kann man hier herunterladen. Herunterladen ist umständlich, weil jedes Jahr von Daten in einem separaten Verzeichnis gespeichert ist und jede Datei für eine andere Station steht. Glücklicherweise bezeichnen die Dateinamen Zustand und Stationsnamen, so dass die Zuordnung der in dieser Analyse verwendeten beiden Stationen einfach wird. Nach dem Herunterladen der jährlichen Daten für eine bestimmte Station,müssen sie in einer einzigen Datei zur Analyse verkettet werden.

USHCN Daten können Sie hier herunterladen. Die Rohdaten, TOBS und homogenisierten (52i) Dateien müssen heruntergeladen und in ihren Verzeichnissen entpackt werden. Alle Daten für eine Station finden sich in einer einzigen Datei in den expandierten Verzeichnissen. Die Daten der Kingston USHCN haben einen Dateinamen, der mit USH00374266 beginnt.

Vergleich der Kingston 1 NW and Kingston 1 W Temperaturen

Beide Kingston CRN Stationen begannen mit der Aufnahme von Daten im Dezember 2001. Jedoch waren die Datensätze in jenem Monat unvollständig (es fehlen mehr als 20% der möglichen Daten). Im Jahr 2002 berichtete Kingston 1 NW von unvollständigen Informationen für Mai, Oktober und November, während Kingston 1 W unvollständige Informationen für den Monat Juli hatte. Aus diesem Grund sind CRN Daten von 2001 und 2002 nicht in die Analyse einbezogen.

Die folgende Grafik zeigt die Differenz der Temperaturmessungen zwischen Kingston 1 NW und Kingston 1 W. Die Temperaturen wurden aus dem Durchschnitt von Minimum und Maximum der Temperatur gebildet, wobei die 24-Stunden-Zeiträume von 00 Uhr bis 24 Uhr liefen. Die Y-Achse ist in Grad Celsius mal 100 eingeteilt [140 = 1,4 C]. Der Graubereich ist bei 0 Grad C zentriert und 1 Grad F breit (+/- 0,5 ° F). Ich habe diesen Bereich in allen Charts verwendet, es ist eine bekannte Maßnahme für US-Leser und hilft die Größe der Unterschiede in der Perspektive zu erkennen.

Die y-Achse entspricht Grad. C x 100. Das graue Band ist 1 Grad F breit und in Null C zentriert

Angesichts der großen Nähe der beiden Stationen erwartete ich, dass ihre Aufzeichnungen eng zueinander verlaufen. Ich fand es etwas überraschend, dass sich 22 der Monate – oder 15% – durch ein halbes Grad F und mehr unterschieden. Das stimmt mich nachdenklich, wie sinnvoll (um nicht zu sagen genau) Homogenisierungs-Algorithmen sind, insbesondere diejenigen, die Adjustierungen mit Stationen von bis zu 1200 Kilometer Abstand voneinander machen. Ist es sinnvoll, Stationen, die 50 oder 100 Meilen voneinander entfernt sind, zu homogenisieren, wenn diese Variabilität bereits bei weniger als eine Meile auseinander [liegenden Stationen] in dieser Differenz auftritt?

Vergleich der Kingston 1 NW und Kingston 1 W Datenerfassung

Teilweise sind Unterbrechungen in der Datenerfassung die Ursache der Unterschiede. Trotz der High-Tech-Geräte an beiden Standorten kamen Unterbrechungen vor. Unter Bezugnahme auf das vorhergehende Bild zeigen die roten Punkte Monate, in denen Daten über 24 Stunden oder mehr nicht erfasst wurden. Die Unterbrechungen sind nicht kontinuierlich, ein paar Stunden hier und dort, ein paar fehlende Daten. Die beiden Temperaturausreißer scheinen vor allem auf fehlende 79 und 68 Stunden bzw. Daten zurück zu führen. Allerdings können nicht alle Unterschiede auf fehlende Daten zurückgeführt werden.

In der Periode von 2003 bis 2014 zeichneten die beiden Stationen Temperaturen während mindestens 89% der monatlichen Stunden auf, und in den meisten Monaten wurden mehr als 95% der Stunden protokolliert. Die obige Grafik zeigt, dass die Berechnung eines monatlichen Durchschnitts bei fehlenden 10-11% der Daten ein Ergebnis mit fragwürdiger Genauigkeit ergeben kann. Allerdings berechnet die NOAA Monatsdurchschnitte für GHCN Stationen mit bis zu neun fehlenden Tagen in den Daten (siehe DMFLAG Beschreibung auf ftp://ftp.ncdc.noaa.gov/pub/data/ushcn/v2.5/readme.txt) Je nach Länge des Monats, wird GHCN Mittelwerte berechnen, trotz bis zu einem Drittel fehlender Daten.

Vergleich der Kingston USHCN und CRN Daten

Um die Fähigkeit der TOBS-Anpassung zu testen, die bei der NOAA Kingston USHCN Website angewendet wurde, wurde eine synthetische TOBS-Anpassung für die CRN Website berechnet. Die B91 generierten Formulare für Kingston USHCN von 2003-2014 zeigen einen Messzeitpunkt 16:30 Uhr. Daher wurde eine synthetische CRN 16:30 Beobachtung durch Mittelung der 16:00 und 17:00 Uhr-Beobachtungsdaten erstellt. Die Differenz zwischen den USHCN Rohdaten und der synthetischen CRN 16:30 Uhr Beobachtung wird in der folgenden Abbildung dargestellt. Trotz einer Entfernung von nur etwa 50 Metern erbringen die beiden Stationen sehr unterschiedliche Ergebnisse. Man beachte, dass die 2014er Daten nicht inbegriffen sind. Dies liegt daran, die 2014 USHCN Daten zum Zeitpunkt des Downloads unvollständig waren.

Die y-Achse entspricht Grad. C x 100. Das graue Band ist 1 Grad F breit und in Null C zentriert

Obwohl der Zeitpunkt der Erfassung der Daten sehr unterschiedlich ist, ist vielleicht die Adjustierung auf Mitternacht (TOBS) ähnlich? Die folgende Abbildung zeigt den TOBS-Anpassungsbetrag der Kingston USHCN Station abzüglich der TOBS-Adjustierung für die künstlichen CRN 16:30 Uhr Daten. Der USHCN TOBS Adjustierungsbetrag wurde durch Subtraktion der USHCN Rohdaten von den USHCN TOBS Daten berechnet. Der CRN TOBS-Adjustierungsbetrag wurde durch Subtraktion der synthetischen CRN 16:30 Uhr Daten von den CRN Mitternacht Beobachtungen berechnet. Wie in folgender Abbildung zu sehen ist, sind die TOBS-Anpassungen der USHCN Daten ganz anders als das, was durch die CRN-Daten gewährleistet werden würde.

Die y-Achse entspricht Grad. C x 100. Das graue Band ist 1 Grad F breit und in Null C zentriert

Anpassungseinfluss

Um die Qualität der Adjustierung zu testen, nimmt man am besten die homogenisierten Daten für die Kingston USHCN Station und vergleicht sie mit den Mitternacht Minimum / Maximum-Temperaturdaten der Kingston CRN 1 NW-Station, welche sich ca. 50 m entfernt befindet. Dies ist in der folgenden Abbildung dargestellt. Unter Berücksichtigung der Unterschiede zwischen den Daten der homogenisierten USHCN Station und den gemessenen Daten aus der nahen CRN Station ist nicht ersichtlich, dass die kombinierten TOBS und Homogenisierung Anpassungen ein Ergebnis erzeugen, das die echten Temperaturdaten an dieser Stelle reflektieren.

Die y-Achse entspricht Grad. C x 100. Das graue Band ist 1 Grad F breit und in Null C zentriert

Die Genauigkeit der Mitternachts-TOBS

Egal ob die minimalen und maximalen Temperaturen um Mitternacht oder zu einem anderen Zeitpunkt abgelesen werden, so stellen sie nur zwei Beispiele dar, die verwendet werden, um einen täglichen Durchschnitt zu berechnen. Die genaueste Methode zur Berechnung der Tagesmitteltemperatur wäre es, die Temperaturen kontinuierlich zu erfassen und die Berechnung eines Mittelwertes über alle Daten des Tages zu machen. Die CRN-Stationen erfassen die Temperatur einmal pro Stunde, so werden 24 Daten pro Tag gesammelt. Eine Mittelung der 24 Stundendaten, die während des Tages gesammelt wurden, ergeben eine genauere Messung der Tagesdurchschnitts-temperatur, als nur der Blick auf das Minimum und Maximum der letzten 24 Stunden. Dieses Thema wurde in allen Einzelheiten von Lance Wallace in einem Gastbeitrag vor zweieinhalb Jahren abgedeckt. Dieser ist es wert, noch einmal gelesen zu werden.

Die folgende Grafik zeigt den Unterschied zwischen der Verwendung der CRN stündlichen Temperaturen und der Mitternachts minimale / maximale Temperatur, um den Tagesdurchschnitt zu berechnen. Das Diagramm zeigt, dass die stündlichen Temperaturen einen höheren Tagesdurchschnitt an dieser Station ergeben.

Bild 12 Die y-Achse entspricht Grad. C x 100. Das graue Band ist 1 Grad F breit und in Null C zentriert

Diskussion

Automatisierte Verfahren, um die Rohdaten der Temperaturwerte von USHCN Stationen gesammelt zu adjustieren (und in Erweiterung, GHCN Stationen) sollen die Genauigkeit von regionalen und globalen Temperaturberechnungen erhöhen und zum Teil die Beobachtung von Trends in der Temperaturänderung verbessern. Solche Anpassungen zeigen jedoch fragliche Fähigkeiten bei der Korrektur der vermuteten Schwachstellen in den Rohdaten. Beim Vergleich der Rohdaten und der Adjustierungen von einer USHCN Station zu einer nahe gelegenen anderen CRN-Station ist keine Verbesserung erkennbar. Man könnte argumentieren, dass die Anpassungen die Ergebnisse beeinträchtigen. Darüber hinaus wird zusätzliche Unsicherheit eingeführt, wenn Monatsmittelwerte aus unvollständigen Daten berechnet werden. Diese Unsicherheit wird weitergeführt, wenn später Anpassungen an den Daten vorgenommen werden.

Einschub: Anmerkung der Redaktion

Dass diese Probleme bei allen historischen Temperaturmessungen bestehen, und damit deren Verwendbarkeit für die Berechnung einer globalen Mitteltemperatur wenige Zehntel Grad genau massiv beeinträchtigen, belegt sehr ausführlich das paper von Michael Limburg (hier) Die wichtigste Schlussfolgerung daraus:

Unter Einbeziehung der bereits von P. Frank 2010 und 2011 vorgelegten Analysen addiert dieser Fehler mindestens ±0,23 K zu dem Fehlerband der Anomalie (Differenz zwischen Istwert und Referenzwert) hinzu. Das gesamte Fehlerband vergrößert sich deshalb mindestens auf eine Spanne zwischen ± 1,084 ° C bis ± 2,084 ° C. Da aber viel mehr Fehler bei der Temperaturbestimmung selbst anfallen, muss diese Spanne auf einen Wert, der mindestens 3 bis 5 mal größer ist, als oben genannt, angehoben werden.

Ein Hinweis auf Rosinenpickerei

Unzweifelhaft werden einige behaupten, dass ich die Daten handverlesen habe, um meinen Punkt darzulegen, und sie haben Recht. Ich habe ausdrücklich nach den im kürzest möglichen Abstand befindlichen CRN und USHCN Stationspaaren geschaut mit USHCN Stationen einer Klasse 1 oder 2 Bewertung. Meine Vermutung war, dass die Unterschiede minimiert werden würden. Die Tatsache, dass ein zweite CRN Station sich weniger als eine Meile entfernt befindet, zementierte die Entscheidung, diesen Ort zu untersuchen. Wenn jemand in der Lage ist, ein CRN und USHCN Paar, die näher als 50 Meter nebeneinander liegen, zu lokalisieren ist, werde ich gerne ihre Differenzen analysieren.

Bearbeitet [durch den Autor], um eine Klarstellung der y-Achse Einheiten und die Bedeutung des grauen Bandes auf die Beschreibung der jeweiligen Figur hinzuzufügen.

Bearbeitet [durch den Autor], um Links zu den CRN und USHCN Quelldaten auf das NCDC FTP-Website hinzuzufügen

Erschienen auf WUWT am 6. März 2015

Link: http://wattsupwiththat.com/2015/03/06/can-adjustments-right-a-wrong/

Übersetzt von Andreas Demmig für Eike

Ergänzung:

Verständnis für die Messabweichung zum Zeitpunkt der Beobachtung

Zeke Hausfather

Globale Temperatur [-daten] werden justiert unter Berücksichtigung von Auswirkungen durch standortversetzte Stationen, Instrumentenwechsel , Änderung der [erfassten] Zeiten der Beobachtung (TOBs) und anderen Faktoren (Inhomogenitäten genannt). Diese Ursachen lokalisieren die nicht-klimatischen Ausrichtungen der instrumentellen Aufzeichnung.

Die Auswirkungen der Korrektur dieser Verzerrungen sind global relativ gering (und reduzieren eher den Jahrhundert-Erwärmungstrend, sowie auch Ozeane enthalten sind). Dagegen gibt es bestimmte Regionen in denen die Auswirkungen der Anpassungen auf Temperaturtrends groß sind. Insbesondere die Vereinigten Staaten haben große Anpassungen an Temperatur-Daten, die fast eine Verdoppelung des Erwärmungstrends seit 1900 bewirken. Die USA sind etwas ungewöhnlich, da die meisten seiner historischen Temperaturaufzeichnungen von Freiwilligen gesammelt wurden anstatt durch öffentliche Mitarbeiter. Dies hat den Vorteil, dass die US viel mehr Datensätze als die meisten anderen Teile der Welt aufgezeichnet haben. Es trägt aber auch dazu bei, dass die Stationen in der USA sind in der Regel nicht wenige systemische Inhomogenitäten haben [also viele …, der Übersetzer]

Teilauszug, erschienen am 22. Februar 2015 auf Climate etc.

Link: http://judithcurry.com/2015/02/22/understanding-time-of-observation-bias/

Übersetzt durch Andreas Demmig für Eike




Na so was! Große grundlegende Fehler in CMIP5-Klimamodellen gefunden!

Bild rechts: Sonneneinstrahlung an der Obergrenze der Atmosphäre (TOA Top of Atmosphere)

The HockeySchtick schreibt:

Eine neue Studie findet großen Rechenfehler zur Sonnenstrahlung an der Obergrenze der Atmosphäre in den Klimamodellen.

Eine neue, in den Geophysical Research Letters veröffentlichte Studie findet erstaunlich große Fehler in den am weitesten verbreiteten „state of the art"-Klimamodellen durch falsche Berechnung der Sonneneinstrahlung und der Sonnenzenitwinkel an der Oberfläche der Atmosphäre.

Die Autoren stellen fest,

Die jährliche Sonneneinstrahlung an der Oberseite Atmosphäre (TOA) sollte unabhängig von Längengraden sein. Doch in vielen der CMIP5 Modelle [Modelle der Projektphase 5] finden wir, dass die einfallende Strahlung zonale Schwingungen mit bis zu 30 W / m² von störenden Schwankungen erzeugt. Diese Funktion kann die Interpretation der regionalen Klima und den Tagesgang der CMIP5-Ergebnisse beeinflussen.

Das IPCC behauptet, der angebliche Strahlungsantrieb alles vom Menschen verursachten CO2 seit 1750 wäre 1,68 W / m². Die Autoren haben im Vergleich dazu entdeckt, dass die bis zu 30 W / m² von „unechten Variationen" durch fehlerhaften Berechnung der Sonnenzenitwinkel sind bis zu 18 mal größer sind als die gesamten angeblichen CO2-Strahlungsantriebe seit 1750

Warum ist dieser erstaunliche, große Fehler von grundlegenden astrophysikalischen Berechnungen nicht bereits Milliarden von Dollar vorher gefunden worden, und wie stark hat dieser Fehler die Ergebnisse aller Modellstudien in der Vergangenheit beeinflusst?

Die Studie fügt den Hunderten von Anderen aufgezeigten großen Fehlern weitere Fehler hinzu gegen physikalische Grundlagen, die den so genannten State-of-theArt-Klimamodellen anhaften, einschließlich von Verstößen gegen das zweite Gesetz der Thermodynamik (hier). Darüber hinaus, auch wenn die “Parameterisierungen” (ein schickes Wort für Schummelfaktoren) in den Modellen korrekt waren (sie sind es nicht), müsste die Rastergröße der Modelle eine Auflösung um 1 mm oder weniger haben, um die turbulenten Wechselwirkungen und Klima korrekt zu simulieren (das IPCC verwendet Rastergrößen von 50 bis 100 km, 8 Größenordnungen größer). Wie Dr. Chris Essex zeigt, würde ein Supercomputer für eine einzelne 10 Jahres-Klimasimulation mit dem notwendigen 1 mm Rastermaß länger als das Alter des Universums brauchen, um die Physik des Klimas richtig zu modellieren.

Link zur Studie: On the Incident Solar Radiation in CMIP5 Models
(Über die Sonneneinstrahlung in CMIP5 Modellen]

Linjiong Zhou, Minghua Zhang, Qing Bao, and Yimin Liu1

Die jährliche Sonneneinstrahlung an der Oberseite Atmosphäre (TOA) sollte unabhängig von Längengraden sein. Doch in vielen der CMIP5 Modelle [Modelle der Projektphase 5] finden wir, dass die einfallende Strahlung zonale Schwingungen mit bis zu 30 W / m2 von störenden Schwankungen erzeugt. Diese Funktion kann die Interpretation der regionalen Klima und Tagesgang CMIP5 Ergebnisse beeinflussen.

Diese Schwingung wird auch in der Gemeinschaft der Erdsystemmodelle (CESM) gefunden. Wir zeigen, dass diese Funktion durch zeitliche Intervallfehler bei der Berechnung des Sonnenzenitwinkel verursacht ist. Der Intervallfehler kann zonale Schwingungen der Oberfläche netto kurzwelligen Strahlung von etwa 3 W / m2 bei klarem Himmel verursachen, wenn ein stündliches Intervall für die Strahlung verwendet wird, und 24 W / m2 bei einem 3-stündigen Intervall.

Erschienen auf WUWT am 10 März, 2015

Übersetzt durch Andreas Demmig für Eike

Link zum Original: http://wattsupwiththat.com/2015/03/10/whoops-study-shows-huge-basic-errors-found-in-cmip5-climate-models/

Anmerkung des Übersetzers:

Dieser kurze Beitrag hat mir Spaß gemacht, vor allem die Kommentare.

Einige wenige vom Anfang möchte ich Ihnen hier zur Unterhaltung zweckfrei näherbringen, Namen weggelassen, nur der Text:

• Warum verknüpfst Du den Längengrad und die Sonneneinstrahlung an der Obergrenze? Das ist einfach verrückt.

• Die Sonne scheint nicht in der Nacht (Einfache Antwort auf eine einfache Frage)

• Die Sonne scheint in der Nacht, sie scheint kontinuierlich. Es ist nur so, dass die Erde sich vom Licht wegdreht!

• Unter der Sonne ist es aber immer 12:00 Uhr, nicht wahr?

• Die Modelle warten nicht bis die Sonne über den Jordan ist




Fossile Treibstoffe werden die Welt retten (wirklich!)

Bild rechts: Illustration von Harry Campbell

Heutzutage ist keines der drei Argumente noch stichhaltig. Tatsächlich zeigt eine realistischere Abschätzung unserer Energie- und Umweltsituation, dass wir noch viele Jahrzehnte lang unverändert abhängig sein werden von den fossilen Treibstoffen, die so dramatisch zu Wohlstand und Fortschritt in der Welt beigetragen haben.

Im Jahre 2013 kamen etwa 87% der weltweit verbrauchten Energie aus fossilen Treibstoffen, eine Zahl, die sich gegenüber dem Wert von 10 Jahren zuvor bemerkenswerterweise nicht verändert hat. Dies lässt sich grob in drei Kategorien von Treibstoff und in drei Kategorien des Verbrauchs einteilen: Öl hauptsächlich für Transporte, Gas hauptsächlich zum Heizen und Kohle hauptsächlich zur Stromerzeugung.

Während dieses Zeitraumes ist das Volumen des Verbrauchs fossiler Treibstoffe insgesamt dramatisch gestiegen, jedoch mit einem ermutigenden Umwelttrend: Einer Verringerung der CO2-Emissionen pro Einheit erzeugter Energie. Den größten Beitrag zur Dekarbonisierung des Energiesystems bei der Stromerzeugung hat der Wechsel von kohlenstoffreicher Kohle zu kohlenstoffärmerem Gas geleistet.

Im globalen Maßstab haben erneuerbare Energiequellen wie Wind und Solar kaum etwas zum Rückgang der Kohlenstoffemissionen beigetragen, und ihr Wachstum hat lediglich dazu geführt, die kohlenstofffreie Kernenergie zurückzudrängen. (Der Leser sollte wissen, dass ich ein indirektes Interesse Kohle habe, besitze ich doch Ländereien in Nordengland, auf denen Bergbau betrieben wird, aber nichtsdestotrotz applaudiere ich der Ersetzung von Kohle durch Gas während der letzten Jahre).

Das Argument zu Ende gehender fossiler Treibstoffe ist zumindest für die nächste Zeit zusammengebrochen. Der Kollaps des Ölpreises während der letzten sechs Monate (hier ) ist eine Folge von Überfluss : eine unvermeidliche Konsequenz der hohen Ölpreise der letzten Jahre, welche Innovationen in hydraulischem Brechen, horizontalem Bohren, Seismologie und Informations-Technologie vorangebracht hat. Die USA – das Land mit den ältesten und am besten erschlossenen Kohlenwasserstoff-Feldern – hat sich selbst wieder einmal überraschend an der Spitze der Energie erzeugenden Liga wiedergefunden, hat es doch seine Rivalen Saudi Arabien bzgl. Öl und Russland bzgl. Gas hinter sich gelassen.

Der Schiefer-Geist ist jetzt aus der Flasche heraus. Selbst wenn der gegenwärtige niedrige Preis einige kostenintensive Ölerzeuger aus dem Rennen schubst – in der Nordsee, in Kanada, Russland, Iran und Offshore ebenso wie in Amerika – können die Schiefer-Bohrer sofort wieder loslegen, sobald sich die Preise erholen. Mark Hill von der Allegro Development Corporation hat kürzlich gesagt , dass die Fracker gegenwärtig ihre eigene Version von Moores Gesetz erleben: ein rapider Rückgang der Kosten und der zum Bohren erforderlichen Zeit zusammen mit dem rapiden Anstieg des Volumens der Kohlenwasserstoffe, die zu extrahieren sie in der Lage sind.

Und die Schiefer-Revolution muss sich noch global ausbreiten. Sowie das der Fall ist, werden Öl und Gas in soliden Felsformationen der Welt überreichlich Kohlenwasserstoffe für Jahrzehnte verschaffen, wenn nicht für Jahrhunderte. Und dahinter verborgen lauert für spätere technologische Durchbrüche das Methanhydrat, eine Gasquelle am Meeresboden mit einer Quantität, die über die gesamten Kohle-, Öl- und Gasvorräte der ganzen Welt zusammen hinausgeht.

Jene, die die unmittelbar bevorstehende Erschöpfung fossiler Treibstoffe predigen, wiederholen also lediglich die Fehler der US-Präsidialkommission, die im Jahre 1922 der Ansicht war, dass „schon jetzt die geförderte Gasmenge abnimmt. Die Ölerzeugung kann nicht mehr lange mit der derzeitigen Rate erfolgen“. Oder die Fehler von Präsident Jimmy Carter, der im Jahre 1977 in einer Fernsehansprache sagte, dass „wir alle nachgewiesenen Ölreserven in der ganzen Welt bis zum Ende des nächsten Jahrzehnts aufgebraucht haben werden“.

Dass fossile Treibstoffe begrenzt sind, ist ein Ablenkungsmanöver. Der Atlantische Ozean ist begrenzt, aber das heißt nicht, dass man Gefahr läuft, auf Frankreich zu stoßen, wenn man aus einem Hafen in Maine ausläuft. Die [Anzahl der] Büffel im Westen der USA war unbegrenzt in dem Sinne, dass sie Nachwuchs zeugen konnten, und doch gerieten sie an den Rand der Ausrottung. Es ist eine ironische Wahrheit, dass nicht erneuerbare Ressourcen niemals an ihre Grenzen stießen, während dies bei erneuerbaren Ressourcen – Wale, Kabeljau, Wälder, Brieftauben – schon häufig der Fall war.

Das zweite Argument für das Aufgeben fossiler Treibstoffe lautet, dass neue Rivalen sie in Kürze preislich aus dem Markt drängen werden. Aber das wird nicht geschehen. Die große Hoffnung lag lange Zeit auf Kernenergie, aber selbst bei einem Boom des Baus neuer Kernkraftwerke während der nächsten paar Jahre werden die neuen höchstens die alten Kraftwerke ersetzen, die heruntergefahren werden. Im Jahre 2003 bestand die weltweit verbrauchte Energie zu 6% aus Kernkraft, heute sind es noch 4%. Es gibt Vorhersagen der Energy Information Administration, dass der Anteil bis zum Jahr 2035 wieder auf 6,7% steigt.

Das Problem der Kernkraft sind die Kosten. Um den Sicherheitsanforderungen von Umweltaktivisten, Politikern und Gesetzgebern Rechnung zu tragen, gibt es zusätzliche Vorgaben für mehr Beton, Stahl und Rohrleitungen – und sogar zusätzliche Kosten für Rechtsanwälte, Papierkram und Zeit. [Anm. d. Redaktion: Hier schreibt Matt Ridley den aktuellen Status einfach fort. Schon bei KKW der 3. Generation, aber noch viel mehr bei KKW Kernkraftwerke der 4. Generation benötigt man derartige Vorkehrungen nicht mehr. Damit fallen auch div. Zulassungsbeschränkungen weg, sofern sie nicht – zumindest hierzulande- durch neue politisch motivierte ersetzt werden) Dahinter steckte die Absicht, Kernkraftwerke in riesige und umständliche Zeitverschwendungs-Maschinen zu verwandeln, ohne Wettbewerb oder Experimentieren, um die Kosten zu senken. Kernkraft kann derzeit im Wettbewerb nur mit Subventionen neben fossilen Treibstoffen bestehen.

Kommen wir zu erneuerbarer Energie: Wasserkraft ist der größte und billigste Versorger, aber gleichzeitig auch derjenige mit der geringsten Erweiterungs-Kapazität. Technologien zum Einfangen der Energie von Wellen und der Gezeiten bleiben unbezahlbar und unpraktikabel, und die meisten Experten gehen davon aus, dass sich daran vorerst auch nichts ändert. Und Bioenergie – das heißt Holz, Äthanol aus Mais oder Zuckerrohr oder Diesel aus Palmöl – hat sich als ein ökologisches Desaster herausgestellt. Es führt zu Entwaldung und dramatischen Steigerungen von Preisen für Nahrungsmittel, was verheerende Folgen für die Atmen dieser Welt hat. Außerdem wird bei dieser Art der Energieerzeugung mehr CO2 freigesetzt als bei der Verbrennung von Kohle.

Windenergie hat inzwischen trotz all der Steuergelder für deren Expansion einen Anteil von – Moment – 1 Prozent des Weltenergieverbrauchs im Jahre 2013 erreicht. Solarenergie ist trotz des riesigen Hypes um sie herum noch nicht einmal so weit gekommen: Falls wir auf die nächste ganze Zahl runden, beträgt ihr Anteil am Weltenergieverbrauch 0 Prozent. [Hervorhebung vom Übersetzer]

Sowohl Wind- als auch Solarenergie sind vollständig abhängig von Subventionen bei der ökonomischen Brauchbarkeit, die sie derzeit haben. Weltweit belaufen sich die Subventionen für erneuerbare Energie gegenwärtig auf grob geschätzt 10 Dollar pro Gigajoule. Diese Summen werden von Verbrauchern gezahlt und gehen an die Erzeuger, so dass sie dazu tendieren, von den Armen zu den Reichen zu fließen, oftmals an Landbesitzer. (Ich bin ein Landbesitzer und kann bestätigen, dass ich viele Angebote von risikofreien Wind- und Solarsubventionen bekomme – und ablehne).

Es stimmt, dass einige Länder den Gebrauch fossiler Treibstoffe subventionieren, aber das tun sie mit einer viel geringeren Rate – das weltweite Mittel beträgt etwa 1,20 Dollar pro Gigajoule – und hierbei handelt es sich zumeist um Subventionen für Verbraucher (nicht Erzeuger), so dass diese dazu tendieren, den Armen zu helfen, für die Ausgaben für Energie ein unverhältnismäßig hoher Anteil an ihren Gesamtausgaben ausmachen.

Die Kosten für erneuerbare Energie sinken zwar, vor allem bei Solar. Aber selbst wenn Solarpaneele umsonst wären, würde die von ihnen erzeugte Energie immer noch kaum mit fossilen Treibstoffen im Wettbewerb bestehen können – außer in sehr sonnigen Gebieten – weil die Hauptausrüstung vorhanden sein muss, diese Energie zu konzentrieren und zu transportieren. Darin enthalten sind noch nicht der immense Landverbrauch durch die Installation dieser Paneele sowie die Kosten ausreichender konventioneller Erzeugungskapazität, um die Versorgung auch an einem dunklen, kalten, windstillen Abend sicherzustellen.

Die zwei fundamentalen Probleme erneuerbarer Energie sind, dass sie zu viel Raum beanspruchen und zu wenig Energie erzeugen. Man betrachte Solar Impulse, das solar angetriebene Flugzeug, das derzeit um die Welt fliegt. Trotz der enormen Flügelspannweite (ähnlich einer Boeing 747), geringer Geschwindigkeit und häufigen Zwischenlandungen ist die einzige Fracht, die das Flugzeug tragen kann, die Piloten selbst. Das ist eine gute Metapher für die Grenzen der Erneuerbaren.

Um die US-Wirtschaft komplett mit Windenergie zu versorgen, würde man für den entsprechenden Windpark das Gebiet von Texas, Kalifornien und New Mexico zusammen benötigen – mit Gas als Backup an windstillen Tagen. Um sie mit Holz zu versorgen, bräuchte man einen Wald, der zwei Drittel des Gebietes der USA bedecken würde, den man stark und ununterbrochen roden müsste.

John Constable, der einem neuen Energieinstitut an der University of Buckingham in UK vorstehen wird, weist darauf hin, dass das Rinnsal von Energie, das die Menschen aus Wind, Wasser und Holz vor der Industriellen Revolution extrahieren konnten, eine gewaltige Beschränkung für Entwicklung und Fortschritt war. Die ständige Mühe von Farmarbeitern erzeugte so wenig überschüssige Energie in Form von Nahrungsmitteln für Mensch und Vieh, dass die Akkumulation von Kapital wie etwa der Maschinen-Fuhrpark ein schmerzhaft langsamer Prozess war. Selbst noch Ende des 18. Jahrhunderts war diese energiearme Wirtschaft lediglich ausreichend, um das Leben für einen Bruchteil der Bevölkerung zu bereichern.

Unser alter Feind, der Zweite Hauptsatz der Thermodynamik, ist hier das Problem. Wie das Schlafzimmer eines Teenagers allgemein illustriert, das man sich selbst überlässt, wird alles immer weniger geordnet, chaotischer und tendiert zu Entropie oder thermodynamischem Gleichgewicht. [Als Philosoph kann man es auch so ausdrücken: Jedes allein gelassene Kind in seinem Kinderzimmer beweist das Entropiegesetz. Anm. d. Übers.] Um diese Tendenz umzukehren und etwas Komplexes, Geordnetes und Funktionsfähiges zu erschaffen, ist Arbeit erforderlich. Und Arbeit erfordert Energie.

Je mehr Energie zur Verfügung steht, umso aufwändiger, stärker und komplexer kann man ein System erschaffen. Genau wie der menschliche Körper Energie braucht, um ordentlich zu bestehen, gilt das auch für Gesellschaften. In dieser Hinsicht waren fossile Treibstoffe ein eindeutiger Fortschritt, weil sie es den Menschen erlaubten, außerordentlich komplexe Dinge – Maschinen und Gebäude – zu erzeugen, womit sich ihr Leben enorm verbessert hat.

Die Folge dieses gewaltigen Energieschubs ist das, was die Wirtschaftswissenschaftlerin und Philosophin Deirdre McCloskey die Große Bereicherung nennt. Im Falle der USA gab es grob geschätzt eine Wertzunahme von 9000% bei Gütern und Dienstleistungen für alle Amerikaner seit dem Jahr 1800, die fast vollständig auf fossilen Treibstoffen beruht.

Immer noch haben über eine Milliarde Menschen auf dem Planeten keinen Zugang zu Strom und können daher nicht an dem enormen Schub des Lebensstandards teilhaben, den ausreichend Energie mit sich bringt. Dies ist nicht nur eine Unbequemlichkeit für sie: Luftverschmutzung in Räumen durch Holzfeuer tötet pro Jahr etwa 4 Millionen Menschen. Das nächste Mal, wenn Sie von irgendjemandem belehrt werden über das mögliche schlimme Schicksal Ihrer Enkel, zeigen Sie ihm das Bild eines afrikanischen Kindes, das heute diesen Dreck eines rauchenden Feuers einatmen muss.

Man bedenke auch, auf welch vielfältige Weise fossile Treibstoffe zum Erhalt des Planeten beigetragen haben. Der amerikanische Autor und Befürworter fossiler Treibstoffe Alex Epstein zeigt in einem tapfer gegen den Mainstream kämpfenden Buch mit dem Titel „The Moral Case for Fossil Fuels“, dass der Verbrauch von Kohle die Entwaldung von Europa und Nordamerika zunächst gestoppt und dann umgekehrt hat. Der Gebrauch von Öl sorgte für ein Ende des Abschlachtens von Walen und Seelöwen, um an deren Blubber zu kommen. Auf der Grundlage von Gas erzeugte Düngemittel halbierten den Landverbrauch bei der Erzeugung einer gegebenen Menge von Nahrungsmitteln, was eine wachsende Bevölkerung satt machte und mehr Land für den Naturschutz übrig ließ. [Hervorhebung vom Übersetzer]

Um diese immensen ökonomischen, umweltlichen und moralischen Vorteile über Bord zu werfen, muss man sehr gute Gründe haben. Der heute am häufigsten genannte Grund ist, dass wir das Klima des Planeten zerstören. Aber tun wir das wirklich?

Obwohl sich die Welt sicherlich seit dem 19. Jahrhundert erwärmt hat, war die Rate dieser Erwärmung langsam und erratisch. Es gab keine Zunahme der Häufigkeit und Stärke von Stürmen oder Dürren, keine Beschleunigung des Meeresspiegel-Anstiegs. Das arktische Meereis hat ab-, das antarktische Meereis aber zugenommen. Gleichzeitig haben Wissenschaftler übereinstimmend festgestellt, dass zusätzliches CO2 in der Luft zu einer Verbesserung der Ernteerträge beigetragen hat sowie zu einer Zunahme aller grünen Vegetation um etwa 14% seit dem Jahr 1980.

Das CO2-Emissionen Erwärmung verursachen könnten, ist kein neuer Gedanke. Bereits im Jahre 1938 dachte der britische Wissenschaftler Guy Callender, dass er bereits damals die Erwärmung finden konnte als Folge der CO2-Emissionen. Er räumte allerdings ein, dass sich dies „wahrscheinlich als vorteilhaft für die Menschheit erweisen wird“ durch die Nordverschiebung der Klimazonen, in denen Kultivierung möglich ist.

Erst in den siebziger und achtziger Jahren des vorigen Jahrhunderts haben Wissenschaftler angefangen zu sagen, dass die geringe Erwärmung als direkte Folge der Verbrennung fossiler Treibstoffe – etwa ein Grad Celsius pro Verdoppelung des CO2-Gehaltes in der Atmosphäre – erheblich verstärkt werden könnte durch Wasserdampf und zu einer gefährlichen Erwärmung von zwei bis vier Grad innerhalb eines Jahrhunderts führen könnte. Diese „Rückkopplungs“-Hypothese hoher „Sensitivität“ verbleibt in nahezu allen vom IPCC bis auf den heutigen Tag verwendeten mathematischen Modellen zur Vorhersage des Klimas.

Dabei wird immer klarer, dass dies falsch ist. Wie Patrick Michaels vom libertären Cato Institute geschrieben hat: Seit dem Jahr 2000 sind 14 begutachtete Studien, veröffentlicht von 42 Autoren, von denen viele zentral zu den IPCC-Berichten beigetragen haben, zu dem Ergebnis gekommen, dass die Klimasensitivität gering ist, weil die Gesamt-Rückkopplungen moderat sind. Sie kommen zu diesem Ergebnis auf der Grundlage beobachteter Temperaturänderungen, der Wärmeaufnahme der Ozeane und dem Gleichgewicht wischen erwärmenden und abkühlenden Emissionen (hauptsächlich Sulfat-Aerosole). Im Mittel stellen sie eine um 40% geringere Sensitivität fest als von den Modellen errechnet, auf die sich das IPCC stützt.

Wenn diese Schlussfolgerungen stimmen, würden sie erklären, warum sich die Erde während der letzten 35 Jahre nicht einmal annähernd so stark erwärmt hat wie prophezeit, zu einer Zeit also, als die Erwärmungsrate – trotz des schneller als erwartet steigenden CO2-Niveaus – nicht einmal zwei Zehntelgrad pro Jahrzehnt erreicht und sich während der letzten 15 bis 20 Jahre auf fast nichts verlangsamt hat. Dies ist einer der Gründe, warum im jüngsten IPCC-Bericht kein „Best Estimate“ der Sensitivität angegeben wird und warum die Schätzung der Erwärmung im Kurzfristzeitraum verringert wurde.

Die meisten Wissenschaftler weigern sich jedoch, die Modelle zu verwerfen und vertreten den Standpunkt, dass der gegenwärtige „Stillstand“ die rapide Erwärmung lediglich verzögert hat. Ein Wendepunkt hin zu einer gefährlichen rapiden Erwärmung könnte schon hinter der nächsten Ecke lauern, obwohl sich ein solcher inzwischen hätte zeigen müssen. Es wäre also angebracht, um etwas zur Verringerung unserer Emissionen zu tun, solange es nicht die Armen schädigt und jene, die einen modernen Lebensstandard zu erreichen trachten.

Wir sollten uns hinter die Ersetzung von Kohle durch Gas bei der Stromerzeugung stellen, Anreize für [die Verbesserung der] Energieeffizienz schaffen, Kernkraft wiederbeleben und Solarenergie und Stromspeichermöglichkeiten versuchen weiterzuentwickeln. Wir sollten auch in Forschungen investieren, CO2 aus der Luft zu holen [wieso das denn?! Anm. d. Übers.] durch Düngung der Ozeane oder durch CCS. All diese Maßnahmen machen Sinn. [Schade! Mit dieser Ansicht widerspricht Ridley seinem gesamten Artikel bis hier und entwertet ihn auch. Anm. d. Übers.] Und wir haben allen Grund, unbegrenzt nach völlig unerwarteten neuen Energiequellen zu suchen [stimmt! Anm. d. Übers.]

Was wirklich nicht funktionieren wird, ist das, worauf die Umweltbewegung mit aller Gewalt besteht: nämlich die kumpelhafte Subventionierung von Kapitalisten, um erneuerbare Energiesysteme zu errichten mit geringer Energiedichte, geringem Output, die kapitalintensiv und landhungrig sind, während man gleichzeitig den Armen nahelegt, ihren Traum von einem besseren Leben durch fossile Treibstoffe aufzugeben.

Mr. Ridley is the author of “The Rational Optimist: How Prosperity Evolves” and a member of the British House of Lords. He is a member of the GWPF’s Academic Advisory Council

The Wall Street Journal, 14 March 2015

Link: http://www.thegwpf.com/matt-ridley-fossil-fuels-will-save-the-world-really/

Übersetzt von Chris Frey EIKE




Irreführende Berichterstattung im ARD-Nachtmagazin: Durch den Atomgau von Fukushima kamen mehr als 18.000 Menschen ums Leben

Anmerkung der Redaktion: Die Wahrheit ist, nach allen vorliegenden offiziellen Untersuchungen, kam durch die Strahlung bei der Kraftwerkshavarie kein einziger ums Leben. Hingegen starben die genannten 18.000 Menschen an den Folgen des Tsunami. Weitere rd. 1600 kamen bisher stressbedingt durch die von den Behörden angeordneten Massen-Evakuierungen um Leben, die nach Meinung vieler Strahlungsexperten völlig unnötig war.

Videoausschnitt der skandalös falschen und grob irreführenden Berichterstattung von Nachtmagazin Moderator Gabi Bauer über die Folgen des AtomGau von Fukushima vor vier Jahren: Zitat „Als erstes explodiert Reaktorblock Eins des Atomkraftwerks Fukushima, in drei Blöcken kommt es später zur Kernschmelze. Mehr als 18.000 Menschen werden bei dem Unglück getötet.“ Mit Dank an Michael Krüger für das Herunterladen und Aufbereiten in Youtube. Zuerst erschienen bei ScienceSceptical

♦  Hannovers Oberbürgermeister Stefan Schostok, im Gedenken an die 20.000 Opfer der Atom-Katastrophe in Fukushima

♦  Eltern beim Sex erwischt: Das Bundesumweltministerium erfreut Klimaschützer mit Videokampagne

♦  Deutsche Welle: Tausende Menschen starben wegen Kernschmelze in Fukushima




Schweizer Fernsehen erzählt Märchen über meteorologische Fähigkeiten -Schweizer Unterstützer gesucht zur Korrektur von Falschaussagen beim SRF

Nach erster Ablehnung, Widerspruch und darauf folgendem langem Schweigen erreichte sie.

„am Mittwoch, 11.03.2015 eine erste Antwort von der UBI, die uns u.a. mitteilt, wir sollen doch “zur Sicherheit” bis zum 23.03.2015 mindestens 20 Namen von Schweizer Personen benennen, die unsere Beschwerde unterstützen, damit wir auf jeden Fall die Voraussetzungen einer sog. Popularbeschwerde nach Art. 94 Abs 2 und 3 RTVG erfüllen.

Deshalb unsere heutige Bitte an alle Schweizer: Wenn Sie unsere UBI-Beschwerde vom 04.03.2015 unterstützen wollen und die Notwendigkeit unserer Beschwerde erkennen, füllen Sie bitte das verlinkte Beschwerdeformular mit Ihren Personalien und Ihrer Unterschrift aus und senden uns das Formular bis spätestens Freitag, den 20.03.2015 (Eingang bei uns) per Post an uns zurück, damit wir am Samstag, den 21.03.2015 die Original-Formulare mit den mindestens 20 Unterschriften an die UBI versenden können..“

Weiterlesen und mitmachen hier




Die letzte Schlacht des Klima-Alarmismus‘?

Die Erde hat keine Temperatur, und es gibt keine Möglichkeit, eine wissenschaftlich akzeptable Mitteltemperatur abzuleiten. Es ist unmöglich zu wissen, ob sich die Erde erwärmt oder abkühlt. Außerdem ändert sich das Klima ständig. Nichts davon ist jemals im Gleichgewicht.

Die Spurengase in der Atmosphäre sind nicht gut durchmischt, und ihre Konzentrationen ändern sich ständig an jedem Ort. Es ist nicht möglich, eine mittlere Konzentration auch nur für ein einziges davon abzuleiten. Außerdem hat das Studium der Wissenschaft vom Klima, im Laufe vieler Jahrhunderte als eine Disziplin der Meteorologie, offiziell die Wettervorhersage als Dienstleistung in den meisten Ländern etabliert. Diese Dienstleister messen jetzt viele Klima-Eigenheiten mit einer Vielfalt von Instrumenten einschließlich Satelliten.

Die Messungen fließen in die aktuellsten Computermodelle ein, die auf akzeptierter Physik, Thermodynamik und Statistik basieren. Sie stellen die einzige wissenschaftlich fundierte tägliche Wettervorhersage für jeden Teil der Erde zur Verfügung.

Die Messung des atmosphärischen CO2-Gehaltes hat sich nicht als nützlich erwiesen, und die Dienstleister machen sich nicht einmal die Mühe, ihn zu messen. Es ist einfach nicht möglich, diesen Schwierigkeiten mit ehrlicher Wissenschaft beizukommen. Daher war es notwendig, Schummel, Unehrlichkeit, Verzerrungen, Fabrikation, massive PR und enorme Summen Geldes zu bemühen.

Jim Hansen vom GISS in New York brachte eine globale Pseudo-Temperaturtechnik ins Spiel, die sich für die Betrüger als sehr nützlich erwiesen hat. Er räumt ein, dass es so etwas wie eine Absolute Lufttemperatur an der Erdoberfläche (SAT; er nennt es ,schwer fassbar‘ [elusive]). Meteorologen wissen, dass es unmöglich ist, eine plausible mittlere Oberflächen-Lufttemperatur zu messen. Stattdessen zeichnen sie Maximum und Minimum in einer geschützten Wetterhütte an ihren Stationen auf. Heute messen sie auch unterschiedliche Intervalle.

Diese sind ein nützlicher Weg, Temperaturbedingungen festzustellen.

Hansen und Lebedeff (1987) entschieden sich zu ignorieren, dass das, was Hansen gesagt hatte, unmöglich war. Sie ordneten jeder Wetterstation für einen ganzen Monat eine konstante Temperatur zu und legten fest, dass diese Temperatur auch in einem Radius von 100 km rund um jede Station gültig war. Die gewählte Temperaturen waren die an jener Station einen Monat lang gemessenen totalen Maximum- und Minimum-Temperaturen, aus deren Summe der statistisch unakzeptable jeweilige Mittelwert gebildet wurde.

Sie überlegten sich, dass jede Stationstemperatur mit der nächsten Wetterstation korreliert sein könnte. Aber ihr Korrelations-Koeffizient betrug nur 0,5 oder weniger. Mittels Subtraktion der Mittelwerte von den Stationen in allen Breite/Länge-Gitterpunkten vom Mittelwert in jeder Gitterbox bekamen sie eine Aufzeichnung der jährlichen globalen Temperaturanomalie. Die sehr große Ungenauigkeit dieser Werte wird nicht erwähnt, obwohl diese auf jeden Fall dazugehört, und auch nicht die variierende Anzahl und Qualität der globalen Wetterstationen, sowohl im Augenblick als auch mit der Zeit.

Das IPCC hat den vermeintlichen Trend von popeligen wenigen Zehntelgrad für diese Erfindung herangezogen, um zu beweisen, dass die globale Erwärmung im Gange ist und unvermeidlich gefährlich zunehmen wird. Jetzt ist diese Erfindung zusammengebrochen.

Der Trend hat sich während der letzten 18 Jahre kaum verändert, während [der Anteil der] vermeintlichen Treibhausgase zugenommen hat. Das IPCC hat inzwischen zu verzweifelten Maßnahmen gegriffen. Anstatt uns Sorgen vor einer jährlichen Erwärmung zu machen, müssen wir uns jetzt Sorgen über eine dekadische Erwärmung machen. Bemühungen werden unternommen, um die Zahlen zu frisieren und bei jeder Gelegenheit einen geringen Anstieg von ein paar Hundertstel Grad zu verkünden. Der erforderliche Umgang mit dem atmosphärischen CO2 wurde von Charles Keeling am Scripps Institute of Oceanography La Jolla in Kalifornien propagiert.

Die erheblich vereinfachenden Klimamodelle gehen davon aus, dass der atmosphärische CO2-Gehalt global konstant ist und nur durch mehr menschliche Emissionen zunimmt.

Dies war ein Problem, existieren doch etwa 40.000 frühere Messungen, die bis in das frühe 19. Jahrhundert zurückreichen und in berühmten begutachteten Journalen veröffentlicht worden waren, manchmal durch Gewinner des Nobelpreises. Diese Messungen zeigten, dass die bodennahen CO2-Konzentrationen niemals konstant sind und von einer Stelle zur nächsten sowie mit Tages- und Jahreszeit, aber auch der Windrichtung variieren.

Keeling verschwieg diese frühen Informationen. Er entschuldigte dies damit, dass er eine etwas unterschiedliche Messmethode angewendet und dass er dabei entdeckt hatte, dass es eine Hintergrund-Konzentration gibt, die nahezu konstant war und stetig mit zunehmenden Emissionen stieg. Keeling stellte seine Zahlen auf die Grundlage von Messungen am Vulkan Mauna Loa und an einer Stelle in der Antarktis.

Um einem global konstanten Wert zu jeder beliebigen Zeit möglichst nahe zu kommen, war es erforderlich, dass die meisten anderen Messungen an Küstenstationen bei Seewind erfolgten. Alle Zahlen, die nicht der Linie folgten, wurden als Rauschen ausgesondert.

Eine andere Schwierigkeit war, dass die mit den Jahren stetig zunehmenden Zahlen des CO2-Gehaltes nicht einfach zu dem ziemlich sporadischen Verhalten der genehmigten globalen Temperatur passten. Jetzt ist dieser CO2-Betrug zusammengebrochen.

[Nur dass zumindest uns hier in D diese Information vorenthalten wird. Anm. d. Übers.]

Das NASA-Satellitensystem AIRS liefert jetzt häufig globale Karten der CO2-Konzentrationen. Sie zeigen, dass diese Konzentration nicht gut durchmischt und hoch variabel ist und dazu tendiert, in Regionen mit höheren Emissionen höher zu sein. Der offiziell hoch gehaltene Hintergrund ist nicht mehr relevant, und die Tatsache, dass der vermeintliche Erwärmungseffekt von CO2 mit der Konzentration logarithmisch ist, bedeutet, dass die Zunahme kaum Auswirkungen in Gebieten mit hohen Konzentrationen hat und am effektivsten über Wäldern und Weideland ist, wo sie vorteilhaft wirken.

Die IPCC-Klimamodelle trotzen all diesem kumulierten Wissen der Klimawissenschaft, der gegenwärtig die Meteorologen folgen, und ersetzt es durch ein System von Absurditäten, das erstaunlich erfolgreich war.

Anstelle des sich immer ändernden Klimas, wie wir es wissen, wird es jetzt als statisch vorausgesetzt. Aller Austausch von Wärme erfolgt durch Strahlung. Zugegebenermaßen sind Input und Output Strahlung, aber alles andere beim Klima ist eine Kombination von allen Vorgängen wie Wärmeaustausch, vorherrschendes Leitvermögen, Konvektion und Austausch latenter Wärme.

Von der Sonne wird angenommen, dass sie Tag und Nacht mit gleicher Intensität scheint. Die Erde ist tot, wo lebende Kreaturen unmöglich sind – es sei denn, sie emittieren Treibhausgase. Alle in der Meteorologie bekannten Klimaauswirkungen der Vergangenheit werden parametrisiert und als konstant vorausgesetzt.

Ein solches Modell hat keine Chance, je in der Lage zu sein, das zukünftige Klima vorherzusagen, und selbst das IPCC räumt dies ein. Es sagt, dass die Modelle Projektionen liefern, aber niemals Prophezeiungen.

Anfangs hat das IPCC noch vermieden, als unrecht habend bloßgestellt zu werden, indem sie nur Projektionen so weit in die Zukunft verschoben, dass man sicher sein konnte, dass niemand lange genug leben würde, um das nachzuprüfen. Das IPCC gibt es nunmehr seit 25 Jahren, und die ersten Berichte mussten zeigen, dass die Modelle zu den Temperaturaufzeichnungen passen. Das ist jetzt nicht mehr der Fall.

Auch konnten die Modelle verwendet werden, um die Temperaturen der Hochtroposphäre zu berechnen, aber das funktioniert auch nicht mehr. Daher stecken sie tief in Schwierigkeiten. Alles, was sie jetzt noch tun können ist, die Menschen daran zu hindern, die Wahrheit zu sagen.

[Zum Thema ,Wahrheit‘ fällt mir als Möchtegern-Philosoph alles Mögliche ein. Aber das gehört nicht hierher. Anm. d. Übers.]

Jedes Nachrichten-Bulletin, jede Zeitung muss täglich etwas zur globalen Erwärmung oder dem Kohlenstoff-Fußabdruck bringen [und sei es nur irgendwo in einem Nebensatz wie z. B. in der ,Süddeutschen‘. Anm. d. Übers.]. Oder die Proteste von Klimaaktivisten erdulden, die alle Briefe an die Presse schreiben oder den Aufmarsch von Umwelt-Eiferern an irgendwelchen Diskussionsorten organisieren müssen. Es muss fortwährend Lektionen von all denen geben, die finanziell von diesem Betrug abhängig sind.

Mit Glück wird der Zusammenbruch von Walhall auf dem Pariser Klimatreffen im Dezember stattfinden, wo die Versuche, eine globale Klima-Diktatur zu etablieren, entweder scheitern oder im Sande verlaufen. Welch eine Erleichterung wäre das!

Link: http://www.principia-scientific.org/the-last-battle-of-climate-alarmism.html

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Hoffen wir, dass der Autor Vincent Gray recht hat! Ich habe schon zu viele Beiträge übersetzt, in denen das Ende des Klimaschwindels prophezeit wurde, was aber leider immer noch nicht der Fall ist.




Solarenergie-Propaganda kontra reale Welt

Wenn ein ehemaliger „leitender Kommunikations-Funktionär im Weißen Haus“ einen Blogbeitrag für U.S. News and World Report schreibt, sollte man dem vertrauen können. Aber wenn der Autor feststellt, dass die Keystone-Pipeline (sollte sie je genehmigt werden) nur 19 Wochen lang zeitweilige Arbeitsplätze mit sich bringen werde, ist alles andere, was er schreibt, höchst verdächtig – einschließlich der Behauptung, dass unsere „Energie-Infrastruktur bis zum Jahre 2030 zu 100% solar sein wird“.

Ich habe sowohl mit einem Repräsentanten der Gewerkschaft und einem von TransCanada Kontakt aufgenommen – das ist das Unternehmen hinter der Keystone-Pipeline. Beide bekräftigten, dass der 19-Wochen-Zeitrahmen reine Phantasie ist. Das noch zu bauende Teilstück der Keystone-Pipeline ist 1179 Meilen [ca. 1900 km] lang – der weitaus größte Teil davon in den USA – dessen Bau etwa zwei Jahre lang dauern wird.

Der Sprecher von TransCanada Mark Cooper beantwortete meine Anfrage so: „Während einige Leute diese Arbeitsplätze als zeitweilig verniedlichen, wissen wir, dass wir ohne zeitweilige Jobs beim Bau – und ohne die harte Arbeit der Männer und Frauen, die diese Arbeit leisten – keine Straßen, Autobahnen, Schulen oder Krankenhäuser hätten. Wir würden nicht das Empire State Building haben, die Golden Gate Bridge oder den Hoover-Damm. Ich würde also diesen Verleumdern zurufen: ;Schon in Ordnung, wenn ihr Keystone XL nicht mögt oder unterstützen wollt – aber hört auf, genau die Leute in den Schmutz zu ziehen, die geholfen haben, Amerika zu schaffen!’“.

Die Prämisse des Blogbeitrags On The Edge lautet, dass wir Keystone nicht als einen Erzeuger von Arbeitsplätzen betrachten sollten. Stattdessen, behauptet der Autor, befinden sich die Arbeitsplätze in einer „Solarenergie-Störung [disruption]“. Er ist frustriert, dass die „GOP-Führer* nahezu einhellig diese sich entwickelnde Energiewirtschaft ignorieren oder missachten“. Er schreibt weiter: „Ein Drittel der gesamten neuen Stromerzeugung im Jahre 2014 stammt von Solar. Eine neue Solarinstallation oder ein entsprechendes Projekt ist jetzt irgendwo in den USA im Gange – gebaut von einem Team amerikanischer Arbeiter, die im am schnellsten wachsenden Energiesektor der Welt beschäftigt sind – alle 3 Minuten“.

[GOP = Grand Old Party = die Republikaner]

Das mag ja stimmen, aber wir man sehen wird, werden dabei absichtlich viele wichtige Details übersehen. Es gibt viele Gründe für die Gesetzgeber der Republikaner, das Wachstum erneuerbarer Energie zu „missachten“. Falls „ein Drittel allen erzeugten Stromes im Jahre 2014 aus Solar stammt“, gibt es dafür Gründe – aber eine gesunde Wirtschaftspolitik ist nicht Teil davon.

Erstens, effiziente und effektive Grundlast: Kohlestrom, der den weitaus größten Anteil an Amerikas Strom hat, wird primär durch Vorschriften ausgebremst, die von Umweltlobbyisten angestoßen und von der Obama-Administration verbreitet worden sind. Es ist derzeit praktisch unmöglich, ein neues Kohlekraftwerk in den USA genehmigt zu bekommen. Selbst Gaskraftwerke wie das geplante Werk bei Salem Harbor, um das dort befindliche Kohlekraftwerk zu ersetzen, treffen auf den Widerstand von Gruppen wie Grassroots Against Another Salem Plant, welche sich auf die Fahnen geschrieben hat, „zivilen Ungehorsam an den Tag zu legen, um den Bau des Gaskraftwerkes zu blockieren“. Und natürlich, man versuche mal, ein Kernkraftwerk zu errichten, und alle Angsterzeuger kriechen aus ihren Löchern.

Was bleibt übrig? Erneuerbaren wie Wind und Solar wird eine begünstigende Behandlung zuteil in Gestalt einer Kombination von Verfügungen und Subventionen. Selbst industrielle Wind und Solar haben ihre eigene Opposition innerhalb der Umwelt-Lobbygruppen, weil sie Vögel und Fledermäuse zerschmettern – einschließlich streng geschützter Weißkopf- und Steinadler.

Der brandneue Bericht Solar Power in the U.S. (SPUS) präsentiert eine umfassende Übersicht über die Auswirkungen der Solarenergie auf die Verbraucher der Nation.

Eines geht daraus ganz klar hervor: Ohne die Verfügungen und Subventionen würde es um die „Solarenergie-Disruption“ stockdunkel werden.

Wir haben erlebt, dass Unternehmen wie Solyndra, Abound Solar und Evergreen Solar bankrott gehen, selbst mit Unterstützung von Millionen Dollars seitens staatlicher Stellen (also des Steuerzahlers). Ich habe ausführlich etwas dazu geschrieben (hier) und auch zu der Story um Abengoa – welche die größte staatliche Kreditbürgschaft (2,8 Milliarden Dollar) erhalten hatte, und welche zu fragwürdigen Geschäftspraktiken gegriffen hat, um die Türen offen zu halten (Abengoa ist derzeit Gegenstand von Untersuchungen zahlreicher staatlicher Agenturen).

SPUS zeigt, dass erneuerbare Projekte ohne die Subventionen und Förderungen nicht überlebensfähig sind. Beispiel Australien: Dort gingen die Verkäufe von Solarsystemen „stark zurück, nachdem die Anreize stark gekürzt worden waren“. Seit die australische Regierung angekündigt hat, ihre Ziele bzgl. erneuerbarer Energie zu überdenken, „haben die Investitionen angefangen auszutrocknen“.

Sich der Bedeutung dieser „Anreize“ wohl bewusst wurde die Solarindustrie mittlerweile zu einem massiven Kampagnen-Finanzierer. Sie übt politischen Druck aus und gibt Geld an Kandidaten, die mehr Anreize, Subventionen und Steuervorteile auf den Weg bringen wollen. Jene Kandidaten sind im Allgemeinen Demokraten, ist doch einer der Hauptunterschiede zwischen den beiden Parteien dergestalt, dass die Demokraten dazu tendieren, die Einmischungen der Regierung zu unterstützen.

Im Gegensatz dazu wollen die Republikaner den Einfluss der Regierung zurückdrängen und bestehen auf dem freien Markt. Die Republikaner „missachten“ Solar nicht, aber sie wissen, dass Solar nur wegen der Regierungs-Verfügungen überleben kann, die einen bestimmten Prozentsatz an erneuerbarem Strom und besonders Solarstrom am Energiemix vorschreiben, plus die Subventionen und Steuervorteile, die diesen Strom attraktiv machen. Daher können sie nicht in Begeisterung ausbrechen über die Arbeitsplätze, die erzeugt werden als Folge der unfreiwilligen Investitionen der Steuerzahler oder auch höhere Energiekosten. Es ist ein gewaltiger Unterschied zwischen der Ablehnung von Solarenergie und der Ablehnung der regierungsamtlichen Einmischung, die der Solarenergie auf dem Markt einen unfairen Vorteil verschafft.

In dem Blogbeitrag wird die „Solarenergie-Disruption“ verglichen mit dem, was „passiert, wenn direcTV and Dish anfangen würden, mit dem Kabelfernsehen im Wettbewerb zu stehen. Es würde sich eine größere Auswahl ergeben, und eine Menge neuer Arbeitsplätze würde geschaffen werden“. Allerdings würden diese Arbeitsplätze durch private Investitionen geschaffen und den freien Markt – eine Tatsache, die zusammen mit der Abhängigkeit von Solar von Anreizen niemals erwähnt wird. Auch die Arbeitsplätze beim Bau der Keystone-Pipeline wären privat geschaffen.

Der Autor des Blogs wirbt für diese Behauptung, aus dem Buch Clean Disruption: „Sollte Solar seiner exponentiellen Trajektorie weiter folgen, wird die Energie-Infrastruktur bis zum Jahre 2030 zu 100% solar sein“ – also in 15 Jahren. Selbst falls die Regierung weiterhin Geld in Solarenergie steckt – wobei, wie aus SPUS hervorgeht, die Subventionen schon an verschiedenen Fronten zurückgefahren werden – gibt es in absehbarer Zeit keine Lösung für die Periodizität von Solar.

SPUS erwähnt ausdrücklich das Beispiel von Deutschland, welches weltweit führend war in Solar und anderen Erneuerbaren. Mit der Zeit hat die hohe Durchdringung mit Erneuerbaren dazu beigetragen, dass sich die Strompreise der Bürger mehr als verdoppelt haben. Erneuerbare erhielten einen bevorzugten Status, „Einspeise-Vorrang“ genannt. Dies bedeutet, dass bei Verfügbarkeit erneuerbarer Energie diese zuerst ins Netz gespeist werden muss, was die Leistung thermische Kraftwerke deutlich verändert. Viele moderne heutige Gaskraftwerke können ebenso wie Kohlekraftwerke nicht mehr profitabel betrieben werden. Als Folge wurden viele davon geschlossen, während viele andere dieser Kraftwerke „Kapazitäts-Zahlungen“ der Regierung (also eine Doppelsubvention!) erhalten, um als Backup am Netz zu bleiben, um die Stabilität des Netzes zu gewährleisten. In Deutschland treibt man einen Anteil von 80% erneuerbarer Energie bis zum Jahr 2050 voran, doch hat sich jetzt herausgestellt, dass trotz dieses hohen Anteils von Erneuerbaren angesichts ihrer inhärenten Periodizität eine große Menge an Kohle- und Erdgasstrom erhalten bleiben muss, um die Zuverlässigkeit des Netzes zu erhalten (Kernkraft wird dabei ausgeschlossen).

Wie das deutsche Experiment eindeutig zeigt, ist „100% Solar bis zum Jahre 2030“ ohne einen wesentlichen technologischen Durchbruch bei der Speicherung von Solarstrom nichts weiter als eine Phantasterei mehr.

Der Blogbeitrag endet mit diesen Worten: „Die republikanische Mehrheit im Kongress ignoriert diese neuen Jobs innerhalb eines innovativen, trennenden [disruptive] Energiesektors, der dabei ist, das Land zu überschwemmen – zugunsten einer verschwindend kleinen Anzahl mythischer Keystone-„Arbeitsplätze“, die sich vielleicht niemals materialisieren. Das lässt einen mit der Frage zurück: Warum?“

Die Antworten kann man in SPUS finden, werden doch darin die Politik, Vorschriften und Verbraucherschutz angesprochen, die sich selbst manifestiert haben durch den rapiden Anstieg von Solarenergie und Deals mit noch vielen weiteren Elementen, die hier nicht angesprochen wurden. Die Schlussfolgerung lautet: „Solar ist ein bedeutender Teil unserer Energiezukunft, aber man muss dabei vorausdenken: Zukünftige Kosten, Arbeitsplätze, Energie-Zuverlässigkeit und die Energie-Infrastruktur allgemein müssen bedacht werden. Diese Technologie muss einhergehen mit den Bedürfnissen der Steuerzahler, der Verbraucher und der Stromzahler im Hinterkopf anstatt der Solarindustrie Priorität einzuräumen“.

CFACT policy analyst Marita Noon is the author of Energy Freedom.,

Link: http://www.cfact.org/2015/03/10/solar-power-propaganda-vs-the-real-world/

Übersetzt von Chris Frey EIKE




Climategate Fortsetzung: Wir wir IMMER NOCH mit gefälschten Daten zur globalen Erwärmung hinters Licht geführt werden

Bild rechts: Manipulation! Quelle: w.r.wagner / pixelio.de

Verwirrt durch jene Behauptungen über das Jahr 2014 („das wärmste jemals“), welche angeführt wurden durch den meistgenannten aller fünf offiziellen globalen Temperaturreihen – nämlich der vom GISS – untersuchte Homewood eine Stelle in der Welt, an der die Temperatur den GISS-Daten zufolge stärker gestiegen sein soll als an fast jeder anderen Stelle des Globus‘: Ein großer Gebietsstreifen in Südamerika, der sich von Brasilien bis nach Paraguay erstreckt.

Da er wusste, dass es in diesem Streifen kaum Wetterstationen gab, entschloss er sich, sich auf drei ländliche Stationen zu konzentrieren, die ein großes Gebiet in Paraguay abdecken. GISS zeigte in diesem Gebiet zwischen 1950 und 2014 einen besonders steilen Anstieg der Temperatur von über 1,5°C: das ist doppelt so stark wie die akzeptierte globale Zunahme für das gesamte 20. Jahrhundert.

Aber als Homewood dann in der Lage war, die GISS-Angaben mit den Originaldaten zu vergleichen, aus denen sie abgeleitet worden waren, stellte er fest, dass sie verändert worden waren. Weit entfernt davon, wie die neue Graphik einen Anstieg zu zeigen, ist die Temperatur den Originaldaten zufolge während dieser 65 Jahre um ein ganzes Grad Celsius zurückgegangen. Als er mit den anderen beiden Stationen das Gleiche getan hat, fand er genau das Gleiche. In jedem Falle zeigten die Originaldaten keinen Anstieg, sondern einen Rückgang.

Tatsächlich hatte Homewood einfach ein weiteres Beispiel unter Tausenden von Beweisstücken entdeckt, die während der letzten Jahre ans Licht gekommen waren und zeigten, dass etwas sehr Seltsames mit den Temperaturdaten passiert war, auf die sich die Wissenschaftler der Welt so stützen. Und besonders gilt das für das IPCC, das die größte und teuerste Angstmache aller Zeiten losgetreten hat: den Glauben nämlich, dass sich die Welt im Würgegriff einer beispiellosen Erwärmung befindet.

Wie konnte es dazu kommen, dass man uns gesagt hat, dass die globalen Temperaturen einen großen Sprung nach oben vollzogen haben auf ihr höchstes Niveau seit 1000 Jahren? In Wirklichkeit war der Anstieg nicht stärker als während ihrer Aufwärtssprünge zwischen 1860 und 1880 sowie zwischen 1910 und 1940. Diese Anstiege waren Teil der graduellen natürlichen Erwärmung, seit die Welt aus der Jahrhunderte langen „Kleinen Eiszeit“ herausgekommen war.

Dieser Glaube wurde vollständig auf fünf offizielle Datensätze übertragen. Drei davon basieren auf Messungen an der Erdoberfläche, deren Versionen dann vom GISS, der NOAA und von HadCRUT4 zusammengestellt worden waren. Die anderen beiden Datensätze wurden aus Satellitenmessungen abgeleitet und dann von Remote Sensing Systems (RSS) [Remote Sensing = Fernerkundung] in Kalifornien sowie von der University of Alabama in Huntsville (UAH) zusammengestellt.

Die adjustierte Graphik vom GISS:

Während der letzten Jahre haben diese beiden sehr unterschiedlichen Messverfahren der globalen Temperatur zunehmend ziemlich unterschiedliche Ergebnisse erbracht. Die oberflächenbasierte Aufzeichnung zeigte einen so stark steigenden Temperaturtrend, dass man das Jahr 2014 als „das wärmste jemals seit Beginn von Aufzeichnungen“ nennen konnte. Unterdessen haben RSS und UAH während der letzten 18 Jahre überhaupt keinen Anstieg verzeichnet, und das Jahr 2014 rangierte nur an sechster Stelle der wärmsten Jahre seit 1997.

Eine Überraschung ist, dass diese drei Aufzeichnungen von der Erdoberfläche alle von passionierten Gläubigen an die vom Menschen verursachte globale Erwärmung betrieben worden sind, wobei im Grunde alle Festlandsdaten nur aus einer einzigen Quelle stammen. Dabei handelt es sich um das Global Historical Climate Network (GHCN), betrieben vom US National Climate Data Center der NOAA, welche wiederum dem US Department of Commerce untersteht.

Aber zwei Aspekte dieses Systems der Messung oberflächennaher Temperaturen am Boden haben schon lange eine zunehmende Zahl von Statistikern, Meteorologen und wissenschaftlichen Experten-Bloggern die Stirn runzeln lassen. Ein Aspekt ist, dass das vermeintlich weltweite Netzwerk der Stationen, von denen das GHCN seine Daten bezieht, ein Betrug ist. Bis zu 80% der Erdoberfläche sind überhaupt nicht mit Stationen abgedeckt. Außerdem wurde um das Jahr 1990 die Anzahl der Stationen mehr als halbiert von 12.000 auf weniger als 6000 – und die meisten verbliebenen Stationen konzentrieren sich in städtischen Gebieten oder an Stellen, von denen Studien gezeigt haben, dass sie dank des UHI um etwa 2 K höhere Temperaturen aufweisen als in der ländlichen Umgebung, wo Tausende Stationen einkassiert worden waren.

Hier folgen die Rohdaten in graphischer Form:

Um die riesigen Lücken zu füllen haben jene, die die Aufzeichnungen zusammenstellen das „von Computern berechnete Einfüllen“ eingeführt, wobei die höheren Temperaturen der verbliebenen Stationen auf riesige umgebende Gebiete projiziert worden sind (GISS gibt den Wert von Einzelstationen als für ein Gebiet gültig an, das bis zu 1,6 Millionen Quadratmeilen groß ist). Dieser Vorgang allein ergab schon einen scharfen Temperaturanstieg während der Jahre nach 1990.

Aber noch verwirrender waren die Beweise, dass selbst diese Daten danach Gegenstand fortgesetzter „Adjustierungen“ waren, und zwar ausschließlich in nur eine Richtung. Temperaturen aus früheren Zeiten wurden nach unten, die aus jüngerer Zeit nach oben korrigiert. Daraus ergibt sich der Eindruck, dass die Temperatur viel stärker gestiegen sei als aus den Originaldaten hervorgeht.

Ein frühes herausragendes Beispiel hiervon wurde von Steve McIntyre entdeckt, dem Statistiker, der die Trickserei hinter dem beim IPCC so beliebten „Hockeyschläger-Graph“ bloßgestellt hatte. Dieser zeigte bekanntlich im Gegensatz zu Beweisen zuvor, dass das Jahr 1998 das wärmste Jahr seit 1000 Jahren gewesen sei. Es war McIntyre, der im Jahre 2007 die gesamten nachträglichen Adjustierungen der US-Temperaturen zwischen 1920 und 1999 enthüllt hatte, die vom GISS (damals geleitet vom ausgesprochenen Klimaaktivisten James Hansen) zusammengestellt worden waren. Diese kehrten einen allgemeinen Abkühlungstrend um zu einem 80-jährigen Erwärmungstrend. Selbst Hansen hatte zuvor eingeräumt, dass die „Staubschüssel-Jahre“ in den dreißiger Jahren die wärmste Dekade in den USA im gesamten 20.Jahrhundert war.

Gewissenhafte Forscher haben seitdem zahlreiche ähnlich Beispiele aus der ganzen Welt gefunden, von den USA und Russland bis nach Australien und Neuseeland. In Australien wurden ein Abkühlungstrend von 1°C pro Jahrhundert in einen Erwärmungstrend von 2°C bis 3°C umgewandelt. In Neuseeland gab es einen massiven Aufstand der Akademiker, nachdem sich herausgestellt hatte, dass Daten, die zwischen 1850 und 1998 überhaupt keinen Trend zeigten, so adjustiert worden waren, dass sich ein Erwärmungstrend von 0,9°C pro Jahrhundert ergab. Diese verfälschte Version wurde natürlich in einem IPCC-Bericht hervorgehoben. Dies wurde ausführlicher auf dem Blog WUWT beleuchtet, dem Blog, der eine führende Rolle bei der Aufdeckung derartiger Machenschaften spielte und spielt [ein Hyperlink hierzu war im Original nicht angegeben].

Die bei Weitem umfassendste Dokumentation dieser Vergewaltigung sauberer Wissenschaft findet sich in einer für das Science and Public Policy Institute geschriebenen Studie mit dem Titel: „Surface Temperature Records: Policy-Driven Deception?“ von zwei altgedienten, erfahrenen US-Meteorologen, nämlich Joseph D’Aleo und Anthony Watts [kein Hyperlink genannt]. (Falls Warmisten versucht sind, diesen Artikel online zu kommentieren, wäre es willkommen, wenn sie ihre Kritik auf die Beweise richten könnten anstatt lediglich persönliche Attacken auf alle zu reiten, die ihre eigenen Ansichten nicht teilen).

[Dieser Zusatz von Booker ist an sich schon ein Skandal! Anm. d. Übers.]

Einen der provokativeren Punkte im Zuge der Debatte um 2014 als „dem wärmsten Jahr jemals“ stammt von dem kanadischen Akademiker Dr. Timothy Ball, der in einem kürzlich bei WUWT veröffentlichten Beitrag einen Eisbohrkern heranzog, um mit dessen Daten zu belegen, dass die gegenwärtigen Temperaturen der Erde unter den niedrigsten 3 Prozent aller aufgezeichneten Temperaturen seit dem Ende der letzten Eiszeit vor 10.000 Jahren rangieren.

In Wirklichkeit reichen die Implikationen solcher Verzerrungen von Daten viel weiter, als dass sie lediglich einen der bizarrsten Irrwege der Wissenschaftsgeschichte belegen. Die Tatsache, dass alle unsere Politiker auf diese Angst erzeugenden Schikanen hereingefallen sind, hat in UK [und natürlich nicht nur dort! Anm. d. Übers.] zur selbstmörderischsten Energiepolitik im Vergleich zu allen anderen Ländern geführt [Na, ich denke, da hat er nicht gründlich genug nach D geschaut! Anm. d. Übers.]

Aber mindestens ein Trost bleibt: Falls sie hoffen, im Dezember in Paris einen „universellen Klimavertrag“ unterzeichnen zu können, können wir ziemlich sicher sein, dass dies nicht wahrscheinlicher ist als dass das Jahr 2014 wirklich „das wärmste jemals“ war.

Link: http://www.telegraph.co.uk/comment/11367272/Climategate-the-sequel-How-we-are-STILL-being-tricked-with-flawed-data-on-global-warming.html

Übersetzt von Chris Frey EIKE




Unverminderte planetarische „Erwärmung“ ?

Meiner Ansicht nach ist die einzige Schlussfolgerung, die daraus gezogen werden kann, dass wahrscheinlich der OHC über mehrere Jahrzehnte zugenommen hat, aber der Fehler auf Schätzungen dieser [Temperatur-] Zunahme in gleicher Größenordnung ist wie die "Signale". Untersucht man das weiter, riskiert man, die Daten mit vorgefassten Meinungen zu betrachten.

Die Oberflächentemperaturen der Meere (SST) zeigen seit 1998 keinen signifikanten Trend, und mögliche Erklärungen dafür gibt es viele. Einmal – als sie zwischen den 1970er und den 1990er Jahren anstiegen, war SST war eine der wichtigsten Messgrößen, um "globale Erwärmung" zu messen, und wurde als wichtig erachtet, weil die größere Wärmekapazität der Ozeane bedeuten würde, sie würden mehr Wärme als die flüchtige Atmosphäre absorbieren. Als klar wurde, dass die Oberflächentemperaturen nicht die Erhöhungen zeigten, die einige erwarten, wurde sie durch Ozeanerwärmung ersetzt.

Die Einführung der Argo Reihe von etwa 3750 Tauchbojen hat einen neuen Blick auf die OHC-Änderungen erlaubt. In der neuen von Roemmich et al in Nature Climate Change veröffentlichen Studie verwendet er einen kohärenter Datensatz und drei statistische Methoden, um die Argo Daten in Netzen zu gruppieren und zum OHC zu extrahieren. Sie schließen daraus, dass für die 0 – 2000 m Schicht zwischen [den Jahren] 2006 und 2013 der Wärmegewinn des Meeres 0,4 bis 0,6 W/m² entsprach.

Sie geben an, dass die globale Gesamt-Durchschnittstemperatur in 0 – 500 m Tiefe um 0.005° C zwischen 2006 UND 2013 anstieg und in 500 m bis 2000 m um 0,002 ° C pro Jahr im gleichen Zeitraum. Doch zu keiner dieser Temperaturschätzungen wurde der zugehörige Fehler angegeben. Nach einigen früheren Arbeiten wurde vorgeschlagen, dass zwischen 1971 – 2010 die 0-700 m Schicht sich um 0.015° C erwärmt hat!

Die Genauigkeit, mit der die Argo Temperaturmessungen durchgeführt wurden, hat mich immer stutzig gemacht. Sea-Bird-Electronics, die die Thermometer herstellen, sagen, dass sie unter Laborbedingungen eine Genauigkeit von +/- 0,002 erreichen, wenn sie sorgfältig in einem Kalibrierbad eingestellt wurden. Eindeutig gleicht das Meer nicht Laborbedingungen.

Roemmich et al behaupten, über mehrere Jahrzehnte eine deutlich verstärkte Erwärmung zu sehen, wie sie in ihrer Grafik 2a beschreiben. Man sieht, dass im Jahr 2009 von unten erwärmtes Wasser aufsteigt. Aber ohne einen zugehörigen Fehlerbereich der Temperaturmessungen ist ihre Grafik 2a [siehe oben rechts!] bedeutungslos. Die Temperaturdifferenz, die eine Temperaturmessung in zwei benachbarten Sonden, wie beispielsweise die gelbe von der hellgrüne Tonne trennen könnten, könnte weniger als 0.002° C sein. Und wenn der Messfehler in gleicher Größenordnung ist (ich vermute größer), wird die „von unten kommende Erwärmung über mehrere Jahrzehnte " in Frage gestellt.

Es gibt einen weiteren Punkt zu beachten. Die Angabe der Fehler und der Einsatz von Fehlerbalken auf Graphen sollte die Regel sein. Derzeit gibt es viele Studien, die dieser Praxis nicht folgen. Es ist insbesondere für die OHC-Messungen wichtig zu wissen, wo die beobachteten Veränderungen in etwa gleicher Größenordnungen liegen wie die Messfehler.

Erschienen am 10. Februar 2015, auf The Observatory

Link: http://www.thegwpf.com/unabated-planetary-warming/#sthash.3BbJWZ6o.dpuf

Übersetzt durch Andreas Demmig für das Eike




Stirbt die Kernkraft – stirbt der Mensch! Über die kommende Knappheit an Technetium

Was fällt Ihnen zum Thema Gesundheit ein? Der Verzehr von Obst und Gemüse? Bewegung und Sport? Regelmäßige Vorsorgeuntersuchungen?

Mir kommen solche Gedanken nicht. Mein Körper ist perfekt an meine Couch angepaßt. Gut, das mag jetzt auch an der Konstruktion der Couch liegen. Mein Hunger verlangt nach Steaks und Schnitzeln, nach Pommes und Bratkartoffeln. Arztbesuche vermeide ich nach Möglichkeit. Denn ich bin nicht krank. Ich muß nicht nach etwas streben, was ich schon erreicht habe.

Es ist schwer zu definieren, wann “Gesundheit” vorliegt, wenn man wirklich mehr darunter fassen möchte als die “Abwesenheit von Krankheit”. Der menschliche Körper ist ein hochkomplexes, von rückgekoppelten Prozessen geprägtes System. Da viele dieser Vorgänge noch immer nicht ausreichend verstanden sind, gibt es keine Möglichkeit, einen Idealzustand festzulegen. Allenfalls kann man herausfinden, wann und warum etwas nicht funktioniert, wann und warum Schäden auftreten. Viele medizinische Diagnosemethoden stoßen hier an prinzipielle Grenzen, da sie nur einen momentanen Zustand erfassen und nicht dynamische Änderungen in einer ausreichenden zeitlichen Auflösung. Häufig sind eben Filme erforderlich, um Abläufe zu begreifen. Einzelne Fotos reichen nicht. Das gilt nicht nur für Sportwettkämpfe, sondern auch für den menschlichen Blutkreislauf.

Die Nuklearmedizin gestattet solche Diagnoseverfahren. Ihr Ansatz ist, über Änderungen in der Verteilung bestimmter Stoffe die Vorgänge im Körper sichtbar zu machen. Man kann auf diese Weise Tumore und andere Schäden in verschiedenen Geweben identifizieren, man kann verfolgen, wie Knochen wachsen (oder auch nicht) und wie das Herz arbeitet. Selbst Gehirnfunktionen lassen sich entschlüsseln. Und das ganze erfolgt nichtinvasiv durch den Einsatz von Botenstoffen, deren Position von außen durch entsprechende Kamerasysteme detektierbar ist.

Deswegen fällt mir beim Thema Gesundheit Technetium ein. Genauer gesagt: das metastabile Isotop Technetium 99m.

Es handelt sich hier um einen Gammastrahler, dessen Emissionen den Körper durchdringen und von außen mit etablierter Technologie aufgezeichnet werden können. Seine Halbwertszeit von etwa sechs Stunden ermöglicht längere Untersuchungen, ohne den Patienten dauerhaft einer Gefährdung auszusetzen. Unterschiedliche Quellen geben an, 80-90% aller bildgebenden nuklearmedizinischen Untersuchungen würden mit Technetium 99m durchgeführt. Nach Angaben der Nuclear Energy Agency (NEA) handelt es sich dabei um 30 bis 40 Millionen Anwendungen weltweit pro Jahr.

Dummerweise kommt Technetium 99m in der Natur nicht vor, von sehr geringen Spuren in Uranvorkommen einmal abgesehen. Es ist künstlich herzustellen. Und am Anfang der Produktionskette steht mit einem Kernreaktor die derzeit effizienteste Maschine, die einen ausreichend hohen und stabilen Fluß an freien Neutronen erzeugen kann. Diese werden benötigt, um in einer entsprechend vorbereiteten Probe aus Uran 235 durch Spaltung Molybdän 99 zu erzeugen. Das wiederum mit einer Halbwertszeit von 66 Stunden zu Technetium 99m zerfällt. Die Abbildung verdeutlicht den Ablauf.

Nach etwa sechs Tagen wird die Ausgangsprobe dem Reaktor entnommen und zu einem Verarbeiter transportiert (häufig in unmittelbarer räumlicher Nähe zum herstellenden Reaktor). Dort trennt man mittels chemischer Methoden das Molybdän ab und liefert dieses (meist in flüssiger, gelöster Form) an einen Hersteller geeigneter Transportbehälter. Die gleichzeitig alsGeneratoren fungieren, da in ihnen das stetig entstehende Technetium in einer zur Entnahme geeigneten Weise separiert wird. Der Generator-Hersteller ist häufig derjenige, der den Vertrieb und die Lieferung an den Endkunden organisiert, an Krankenhäuser und medizinische Einrichtungen.

Es ist schon eine bemerkenswerte logistische Kette, in der das gewünschte Produkt aufgrund seiner kurzen Haltbarkeit erst während des Transportes hergestellt wird. Hinzu treten die zahlreichen Sicherheits- und sonstigen Bestimmungen, denn immerhin handelt es sich hier um radioaktives Material. Von der Einbringung der zu bestrahlenden Probe in den Reaktorkern bis hin zur Terminvereinbarung mit dem Patienten in der nuklearmedizinischen Praxis ist der gesamte Ablauf minutiös zu planen.

Zur Herstellung von Molybdän 99 in ausreichenden Mengen eignen sich derzeit nur acht Forschungsreaktoren weltweit. Die Weiterverarbeitung erfolgt in lediglich fünf Einrichtungen. Die folgende Tabelle listet diese auf. Technetium-Generatoren produzieren nur fünf Unternehmen (an sechs Standorten in den USA, in Großbritannien, in Belgien, den Niederlanden und in Australien).

Das System ist nicht nur komplex, sondern auch fragil. Fällt ein Reaktor wegen unvorhergesehener Wartungsarbeiten aus, werden viele Patienten nicht mehr versorgt. Solche Engpässe hat es in der Vergangenheit schon gegeben. Sie könnten in der Zukunft häufiger auftreten, denn die beteiligten Reaktoren sind durchweg betagte Anlagen. Gleichzeitig rechnet die NEA mit einer ansteigenden Nachfrage nach Technetium für die Nuklearmedizin. Von 0,5% Wachstum in den Industrie- und 5% Wachstum in den Schwellenländern ist die Rede – jährlich. Wenn in diesem und im kommenden Jahr der französische OSIRIS (seit 1966 in Betrieb) und der kanadische NRU (seit 1957 in Betrieb) planmäßig außer Dienst gestellt werden, entfallen auf einen Schlag mehr als 40% der weltweiten Produktionskapazitäten. In weiteren 10 Jahren – und das ist ein kurzer Zeitraum in der Kerntechnik – werden dann auch der HFR  und der BR-2, beide Jahrgang 1961, nicht mehr zur Verfügung stehen.

Dies alarmiert natürlich die zuständigen Regierungsbehörden, die seit einigen Jahren in dieser Frage intensive Aktivitäten entfalten. Unbemerkt von der breiten Bevölkerung, jedenfalls in Deutschland. Vor dem Hintergrund von Energiewende und Atomausstieg haben staatliche Stellen erstens davon abgesehen, die Technetium-Krise öffentlich zu thematisieren. Zweitens ist auch kein Fachjournalist auf die Idee gekommen, hier nachzuhaken. Die Vorstellung von Kernkraftwerken, die über Elektrizität hinaus noch andere nützliche Dinge für die Gesellschaft produzieren, ist den Menschen fremd. Selbst die Patienten, bei denen Tumore durch die Nuklearmedizin frühzeitig erkannt und damit erfolgversprechend behandelt werden können, wissen wahrscheinlich häufig nicht, welcher Technologie sie ihre Heilung zu verdanken haben.

Eine ganze Reihe neuer kleiner Reaktoren für die Molybdän-Herstellung ist zwar geplant, mit Ausnahme zweier russischer Einrichtungen, die zusammen nicht die Hälfte der Kapazität des NRU aufweisen, wird aber wohl kaum ein anderes Vorhaben (u.a. in den USA, in Australien, in Korea, China, Brasilien, Argentinien und Frankreich) in den nächsten Jahren realisiert. Eineaktuelle Studie der NEA ist jedenfalls voll mit Formulierungen wie „Construction not yet started“ oder „Preliminary Design“. Bei den Verarbeitern sieht es nicht besser aus. Auch hier haben nur die Russen schon etwas zu bieten. Interessant ist der NEA-Vermerk „seeking financing“ bei einigen Projekten.

Es gibt also einen Markt mit erheblichen Wachstumsaussichten (man denke an Asien und Südamerika). Trotzdem investiert niemand, vor allem nicht von privater Seite.  Weil sich ein Engagement nicht rechnen würde. Die Hersteller und die meisten Verarbeiter sind als staatliche Einrichtungen voll- oder zumindest in Teilen finanziert. Wer dagegen gezwungen ist, kostendeckend zu arbeiten, kann seine Dienstleistung in diesem Umfeld nicht zu wettbewerbsfähigen Preisen anbieten. Die Herstellung der Grundstoffe für die Nuklearmedizin ist ein schönes Beispiel dafür, wie Subventionen Investitionen und Innovationen behindern – und am Ende einen Mangel verursachen.

Nun ist Gesundheit mittlerweile ein von Mythen und Emotionen überfrachtetes Thema in der westlichen Welt. Da es jeden Bürger unmittelbar betrifft oder betreffen kann, ist hier jeder auch engagierter Advokat in eigener Sache. Eine Form der „Gewaltenteilung“ im übertragenen Sinne zwischen Experte und Laie gibt es häufig nicht mehr. Kaum jemand googelt, um anschließend sein Auto selbst zu reparieren. Aber viele googeln, um dem Arzt die Diagnose abzunehmen. Entsprechend kritisch ist das Thema in der politischen Handhabung. Bei Gesundheit sollte man besonders vorsichtig agieren. Für eine Werte und Wertschöpfungsmöglichkeiten vernichtende Energiewende wird man in Deutschland nicht abgewählt. Für eine Unterversorgung von Patienten verantwortlich gemacht zu werden, kann hingegen politische Karrieren abrupt beenden.

Also hat auch Deutschland, vertreten durch das Bundeswirtschaftsministerium, eine gemeinsame Erklärung einiger NEA-Mitgliedsländer unterzeichnet. In der zumindest ein gewisses Problemverständnis erkennbar wird. Die Bedeutung der Versorgungssicherheit mit Technetium 99m unterstreicht der Text ebenso, wie das Risiko eines bevorstehenden Mangels aufgrund der alternden Flotte an herstellenden Forschungsreaktoren. Geradezu revolutionär mutet dann die folgende Passage an:

WE RECOGNISE, on the other part, that an unsustainable economic structure is threatening the reliability of the 99Mo/99mTc supply chain, and that global action to move to full-cost recovery is necessary to ensure economic sustainability and long-term secure supply of medical isotopes.

Man sagt damit tatsächlich, man hätte verstanden, die mögliche künftige Verknappung (und auch alle bisherigen) durch eigenes Verschulden selbst hervorgerufen zu haben. Weil man eben bisher nicht die Rahmenbedingungen setzte, die gewinnorientierten Anbietern einen Eintritt in den Markt gestattet hätten. Nun aber will man das schleunigst ändern:

WE COMMIT, with the aim of jointly promoting an internationally consistent approach to ensuring the long-term secure supply of medical radioisotopes, to implement the HLG-MR principles in a timely and effective manner, and to:

⇒  Take co-ordinated steps, within our countries’ powers, to ensure that 99Mo or 99mTc producers and, where applicable, generator manufacturers in our countries implement a verifiable process for introducing full-cost recovery at all facilities that are part of the global supply chain for 99mTc;

⇒ Encourage the necessary actions undertaken by 99Mo processing facilities or 99mTc producers in our countries to ensure availability of reserve capacity capable of replacing the largest supplier of irradiated targets in their respective supply chain; ⇒ Take the necessary actions to facilitate the availability of 99mTc, produced on an economically sustainable basis, as outlined in the HLG-MR principles; ⇒ Encourage all countries involved in any aspect of the 99mTc supply chain, and that are not party to the present Joint Declaration, to take the same approach in a co-ordinated manner; ⇒ Take the necessary actions described above by the end of December 2014 or as soon as technically and contractually feasible thereafter, aware of the need for early action to avoid potential shortages of medical radioisotopes that could arise from 2016; ⇒ Report on an annual basis to the OECD Nuclear Energy Agency (NEA) on the progress made at the national level and support an annual review of the progress made at the international level, both in light of this Joint Declaration.

Wer nun erwartet, die Bundesregierung würde der deutschen Bevölkerung von sich aus die Hintergründe und Auswirkungen dieser internationalen Vereinbarung erläutern, sieht sich enttäuscht. Auf den Webseiten der drei direkt oder indirekt involvierten Bundesministerien für Wirtschaft, Forschung und Umwelt findet man dazu nichts.

Man verkündet seine Beteiligung an einer auf Spallation beruhenden Neutronenquelle in Dänemark, die laut Pressemitteilung auch irgendwas mit der Erzeugung von Radioisotopen für die Nuklearmedizin zu tun haben könnte (oder in diesem konkreten Fall vielleicht auch nicht), aber auf Technetium 99m geht man in diesem Zusammenhang nicht weiter ein. Das Umweltministerium kommuniziert da schon etwas konkreter. Abhilfe für Versorgungsengpässe soll nach dortigen Vorstellungen durch einen „Aktivitätsrechner“ geschaffen werden:

Um der Gefahr entgegenzuwirken, dass in Zeiten des Technetium-Mangels auf Ersatznuklide mit höherer Strahlenbelastung für Patienten und Personal zurückgegriffen wird, hat das Bundesumweltministerium das Forschungsvorhaben “Optimierung des Radionuklidverbrauchs” gefördert. Das Ziel des Vorhabens war es, die eingesetzte Menge an Radionukliden für nuklearmedizinische Anwendungen in jeder Klinik oder Praxis zu optimieren. Das heißt, dass auf Grundlage der individuellen Untersuchungsanforderungen des jeweiligen Patienten und unter Berücksichtigung des radioaktiven Zerfalls des zur Verfügung stehenden Technetiums ein rechnergesteuerter Patientenplan erstellt wird.

Mehr als die Verwaltung des Mangels hat man nicht zu bieten. Dabei gibt es einen sogar sehr modernen Forschungsreaktor in Deutschland, der für die Erzeugung von Molybdän 99 eingerichtet werden könnte. Gemeint ist der FRM 2 in Garching, der 2005 in Betrieb genommen wurde und immerhin 20 MW Leistung bietet. Die Idee, mit diesem auch Grundstoffe für die Nuklearmedizin herzustellen, ist zwar bereits formuliert, begonnen wurde mit ihrer Umsetzung aber noch nicht. Außerdem entspräche ein solches Vorgehen auch nicht der oben zitierten NEA-Erklärung. Denn diese fordert ja gerade eine Abkehr von einer staatlich subventionierten hin zu einer privatwirtschaftlich und wettbewerblich organisierten Produktionskette.

Die Nuklearmedizin könnte unter solchen Rahmenbedingungen für Innovationen, neue Wertschöpfungsmöglichkeiten und Arbeitsplätze in einer Spitzentechnologie von hoher internationaler Relevanz sorgen. Denn neben den herkömmlichen Reaktoren wären auch andere Konzepte für die Gewinnung von Molybdän 99 geeignet. Man nehme Flüssigsalzreaktoren wie den DFR, über den es in der neuen, fachlich begutachteten Veröffentlichung folgendes zu lesen gibt:

The Nuclear Energy Agency (NEA) estimates the future 99Mo world demand to be 4×1016 6-days-Bq (1066-days-Ci) per year, corresponding to a demand of roughly 1 kg (assuming 10% separation efficiency) directly from the nuclear fission in LWRs providing 99Mo. In contrast, one single DFR produces at least 30 kg 99Mo per year but – more important – already provides it in a separated form, see also Sec. 4.2. This strongly reduces the handling so that a complete on-site medical-clean production of the technetium generators are feasible which further simplifies the logistics of the delivery to the hospitals. This could lead to a cost implosion for the 99mTc radiotracer and therefore to an inflation of applications.

Einen alternativen technischen Ansatz entwickelt derzeit ein Team kanadischer Forscher. Nach einer Meldung aus dem Januar 2015 ist es diesem gelungen, Technetium 99m in einem Zyklotron herzustellen. Mehr als zwanzig derartiger Teilchenbeschleuniger sind in nuklearmedizinischen Einrichtungen in Deutschland bereits installiert.

Wer sich der Versorgungssicherheit für die Patienten verpflichtet fühlt, könnte auf dieser Grundlage handeln. Ein Förderprogramm zur Anregung von Forschung und Entwicklung in Verbindung mit der Schaffung geeigneter gesetzlicher Bedingungen wäre ein möglicher erster Schritt.

Unsere Regierung dagegen hat sich zu ihrer Verantwortung nur auf dem Papier bekannt. Es wird wohl vorerst auch dabei bleiben. Denn für nicht wenige lautstarke Protagonisten aus dem linksgrünen politischen Spektrum bedeutet der Ausstieg aus der Nutzung der Kernenergie zur Stromerzeugung gleichzeitig das Ende jeglicher kerntechnischer Forschung und Entwicklung in Deutschland – oder zumindest einen Hebel, um dieses zu erzwingen. Mutige Wirtschafts- und Gesundheitspolitiker, die sich dagegen zu argumentieren trauen, sind nicht in Sicht. Wer leidet und stirbt, weil er nicht rechtzeitig oder nicht ausreichend nuklearmedizinisch behandelt werden konnte, dem hilft in diesem Land keine mächtige Lobby.




Wer einmal lügt: Erklärung der Bundesregierung zum Klimawandel: Eine Analyse und der Versuch eines Dialogs

Die Bundesregierung schreibt:

Kampf gegen Erderwärmung: Klimaschutz hat Priorität

Zitat

In vielen Teilen der Erde steigen die Temperaturen. Naturkatastrophen nehmen zu und verursachen enorme Kosten. Die Bundesregierung nimmt diese Risiken sehr ernst. Auf dem G7-Gipfel wird sich Bundeskanzlerin Merkel deshalb besonders für den Klimaschutz einsetzen.

Der angesprochene G7-Gipfel wird dieses Jahr von Deutschland ausgerichtet und findet in einer der schönsten Regionen Bayerns, im Schloss Elmau unweit der Isartal Gemeinden Mittenwald und Krün vom 7.-8. Juni 2015 am Fuße des Wettersteingebirges statt. Barack Obama liebt bekanntlich das Klimathema, da möchte Angela Merkel ihm vielleicht einen Gefallen tun und bei einem Glas Wein ein paar schön-schaurige Katastrophenszenarien mit ihm durchdiskutieren.

Aber was ist von den Behauptungen in der Einleitung zu halten? In welchen Teilen der Erde steigen die Temperaturen? Bekanntlich steigen die Temperaturen im weltweiten Durchschnitt seit 17 Jahren nicht mehr. Irgendwo wird es regional sicher wärmer, aber anderswo auch kälter. Statistisch mitteln sich diese beiden Entwicklungen jedoch. Die Behauptung “In vielen Teilen der Erde steigen die Temperaturen” ist daher irreführend.

Naturkatastrophen nehmen angeblich zu? Stimmt das? Die Munich Re hat im Januar 2015 Bilanz gezogen. Das Fazit ist ein ganz Anderes als es die Bundesregierung behauptet. Laut den Münchner Rückversicherern sind die letzten drei Jahre 2012-2014 allesamt ziemlich glimpflich verlaufen. Die Frankfurter Rundschau titelte dazu am 7. Januar 2015: “Wetterextreme: Weniger Schäden durch Naturkatastrophen“.

Kein guter Anfang der Verlautbarung mit gleich zwei bösen Schnitzern. Lesen wir weiter:

Das Jahr 2014 war weltweit das wärmste seit 1881, dem Beginn der regelmäßigen Messungen. Das ergaben Untersuchungen derUS-Weltraumbehörde NASA und des US-Wetteramtes NOAA. Die weltweite Durchschnittstemperatur lag bei 14,6 Grad Celsius und damit etwa 0,8 Grad über dem langjährigen Durchschnitt des 20. Jahrhunderts.

Wieder nicht ganz richtig. Selbst die NASA weist in einem Nachtrag darauf hin, dass der Rekord eher zweifelhaft ist. Aus statistischer Sicht sei es wahrscheinlicher – nämlich zu 62% – dass es keinen neuen globalen Temperaturrekord 2014 gegeben hat (siehe unseren Blogartikel “NASA rudert zurück: 2014 war möglicherweise doch nicht das wärmste Jahr der Messgeschichte. Experten: Erwärmungspause setzt sich noch 5, 10 oder 15 Jahre fort“).

Auch in Deutschland wird es wärmer. Die Durchschnittstemperatur habe erstmals bei 10,3 Grad gelegen, teilte der Deutsche Wetterdienst in seiner vorläufigen Jahresbilanz mit. In Berlin war es 2014 am wärmsten und trockensten. Dort lag die Durchschnittstemperatur bei 11,3 Grad.

Der Hinweis auf den Deutschlandrekord ist korrekt. Allerdings wies das Deutsche Klimakonsortium (DKK) am 18. Dezember 2014 darauf hin, dass Regionalrekorde wie in Deutschland wenig über den globalen Klimawandel aussagen. Lesen wir weiter bei der Bundesregierung:

Klimaschutz ist lebenswichtig

Extreme Wetterereignisse häufen sich. Im Sommer 2014 gab es vor allem im Westen und in der Mitte Deutschlands ungewöhnlich viele Unwetter mit Gewitterstürmen, Tornados und Regenfluten. Das folgenschwerste Ereignis in Europa war ein Hagelsturm im Juni. Das Sturmtief Ela überzog Frankreich, Belgien und den Westen Deutschlands mit bis zu zehn Zentimeter großen Hagelkörnern.

Wo sind die Langzeitreihen, die diese Behauptungen stützen? Wenn man sich die echten Daten anschaut, fällt so manche skizzierte “Häufung” plötzlich in sich zusammen (siehe z.B. unsere Blogartikel “Hessischer Starkregen aus dem Juli 2014 eine Folge des Klimawandels? Eher unwahrscheinlich. Statistiken zeigen eine Abnahme schwerer sommerlicher Regengüsse während der letzten 100 Jahre“, “Neue Studie des Geoforschungszentrums Potsdam: In den letzten 7000 Jahren gab es in Oberösterreich 18 hochwasserreiche Phasen“, “Neue schweizerische Studien: Künftig weniger Hochwasser in den Zentralalpen – Sonnenaktvität übt signifikanten Einfluss aus” und “Klimawandel in Deutschland: Eine geowissenschaftliche Betrachtung“). Weiter im Text der Bundesregierung:

Die Bundesregierung nimmt diese Risiken sehr ernst. “Deshalb haben wir in Deutschland bereits eine Anpassungsstrategie und einen Aktionsplan entwickelt”, sagt Bundesumweltministerin Barbara Hendricks. “Es kostet nicht die Welt, den Planeten zu retten”.

Bundeskanzlerin Angela Merkel bezeichnete das Eindämmen des Klimawandels als gesamtgesellschaftlich zentrale Herausforderung. “Je weiter der Klimawandel voran schreitet, umso schwieriger werden die Kosten für die verheerenden Folgen des Klimawandels zu tragen sein”. Für Deutschlands Präsidentschaft im Kreis der sieben führenden Industrienationen (G7) hat die Bundeskanzlerin deshalb ihren persönlichen Einsatz für den Klimaschutz angekündigt. Es müsse endlich gelingen, neue verbindliche Vereinbarungen zu beschließen.

Auf der Webseite findet sich dann die folgende grau hinterlegte Einschubbox:

Dauerregen und Sturmfluten nehmen zu: Am 1. August 2014 fielen in Münster in sieben Stunden 292 Liter Regen pro Quadratmeter, eine der größten je in so kurzer Zeit gemessene Regenmenge. Durch den nördlich von Frankfurt gelegenen Ort Wallershausen wälzte sich eine Lawine aus Schlamm und Wasser. 
Anfang Januar 2015 blockierte Sturm Elon gleich drei Hauptrouten der Deutschen Bahn: umgestürzte Bäum lagen auf den Gleisen. Innerhalb von drei Tagen brachte die Nordseeküste sechs Sturmfluten hinter sich. Zahlreiche Fährverbindungen zu den Inseln fielen aus. Auf der Insel Wangerooge blieb vom Strand vor den Hotels kaum noch etwas übrig. Eine Sturmflut hatte große Teile des Sandes weggespült. An der Hörnum Odde auf Sylt brachen rund 19 Meter Düne ab.

Eine interessante Zusammenstellung von Extremwetterbesipielen der letzten Zeit. Allerdings hat dies keinerlei Bedeutung für die Klimafrage. Extremwetter hat es immer gegeben und wird es auch in Zukunft geben. Wichtig sind in diesem Zusammenhang vor allem die Trends. Bei den Stürmen in Deutschland ist dies ziemlich klar: Betrachtet man die letzten 150 Jahre gibt es keinen Trend. Ein Wissenschaftlerteam um Sönke Dangendorf von der Universität Siegen hat die Sturmgeschichte der Nordsee für die vergangenen 170 Jahre untersucht und konntekeinen Langzeittrend bei Stürmen und Sturmfluten feststellen. Bereits 2009 hatte eine Gruppe um Hans von Storch darauf hingewiesen, dass bei den Stürmen in der Nordsee starke dekadische Schwankungen auftreten, ohne langfristigen Trend. Noch weiter zurückreichende Sturmrekonstruktionen aus dem mitteleuropäischen Raum zeigen zudem, dass die Kleine Eiszeit generell sogar stürmischer  als heute war.

Wieder zurück zum Text der Bundesregierung:

Klimawandel wird teuer

Der Klimawandel verursacht hohe Kosten. Die Gesamtkosten durch Naturkatstrophen lagen 2014 weltweit bei 110 Milliarden Dollar. Ein Zyklon in Indien verursachte zum Beispiel einen Schaden von sieben Milliarden Dollar.

Das gilt auch für Deutschland: Die Schäden, die das Sturmtief Ela allein hier verursachte, summierten sich auf 880 Millionen Euro. Der Gesamtschaden belief sich auf 3,5 Milliarden Euro.

Zyklone gab es schon immer. Zugenommen haben sie trotz Klimaerwärmung aber nicht. Vermehrte Schäden sind laut Studien mit dem Zuwachs der versicherten Werte und der Bevölkerung in den Gefahrengebieten verbunden (siehe: “Neue Arbeit von Roger Pielke Jr.: Anstieg der globalen Extremwetterversicherungsschäden basiert fast vollständig auf sozioökonomischen Gründen“). Weiter im Text:

“Schadensrelevante durch Gewitter bedingte Unwetter nehmen in verschiedenen Regionen wie den USA und in Mitteleuropa nachweislich zu”, bestätigt Peter Höppe, der Leiter der Geo-Risiko-Forschung der Versicherung Munich Re.

Wiederum muss hier nach den Langzeittrends gefragt werden. Was könnte der Antrieb der Veränderungen sein? Studien sehen hier durchaus natürliche Faktoren als mögliche Übeltäter (siehe “Blitzhäufigkeit in Brasilien pulsierte während der vergangenen 60 Jahre im Takt der Sonne“). Weiter im Text der Bunderegerung:

Der Gesamtverband der Deutschen Versicherungswirtschaft warnt schon länger vor einer Häufung von Wetterkatastrophen in den nächsten Jahrzehnten. Nach einer gemeinsamen Studie von Versicherern und Klimaforschern könnten Sturmschäden bis zum Ende des Jahrhunderts um mehr als 50 Prozent zunehmen. Überschwemmungsschäden könnten sich bis 2100 sogar verdoppeln.

Hätte, könnte, würde. Klimamodelle haben sich als wenig zuverlässig in den letzten Jahren herausgestellt. Kaum eines hat die seit 17 Jahren anhaltende Erwärmungspause vorherzusagen vermocht. Gerade bei den Überschwemmungen gibt es auch gegenteilige Prognosen (siehe “Neue begutachtete Studie in Nature Climate Change: Klimawandel lässt Hochwasser in Europa wohl in Zukunft seltener werden“). Weiter im Text:

Eile ist geboten: Die Mindestkosten einer unterlassenen Anpassung an den Klimawandel werden für die EU als Ganzes für 2020 noch mit 100 Milliarden Euro veranschlagt, für das Jahr 2050 bereits mit 250 Milliarden Euro. Ein Anstieg von zwei Grad über die vorindustrielle Zeit werde 0,2 bis zwei Prozent der Weltwirtschaftsleistung vernichten, so der Weltklimarat.

Sämtliche Berechnungen basieren erneut auf Modellen, die nicht gerade vertrauenserweckend sind. Insbesondere rechnen sie mit einer überhöhten CO2-Klimasensitivität, die nach neueren Untersuchungen wohl deutlich niedriger liegt, als lange angenommen wurde (siehe unseren Blogartikel “2</sub> wohl doch deutlich überschätzt. Offizielle Korrektur steht bevor">Studien aus 2014 geben Hoffnung: Erwärmungswirkung des CO2 wohl doch deutlich überschätzt. Offizielle Korrektur steht bevor“). Der Klimatext der Bundesregierung endet mit einer weiteren grau hinterlegten Box:

Die fünf größten Naturkatastrophen 2014
Indien: Zyklon Hudhud: 84 Tote, 7 Milliarden Dollar Schäden (Oktober 2014)
Japan: Winterschäden, 37 Tote, 9 Milliarden Dollar Schäden (Februar 2014)
Indien und Pakistan: Überschwemmungen 665 Tote, 5,1 Milliarden Dollar (September 2014)
China: Erdbeben, 617 Tote, 5 Milliarden Dollar Schäden (August 2014)
Brasilien: Dürre, 5 Milliarden Dollar Schäden (2014)

Wieder das alte Muster: Eine Aufzählung von Einzelereignissen ohne Trendangabe. Ähnliche Übersichten könnte man für jedes Jahr der menschlichen Geschichte erstellen. Über den Klimawandel sagt die Tabelle nichts aus, was allerdings die wenigsten Leser der Meldung erkennen können.

Im Zuge unserer Bemühungen zur Schaffung eines neuen Klimadialogs wollen wir die Bundesregierung anschreiben und auf die Diskrepanzen hinweisen. Vielleicht kann unsere Volksvertretung hier ein wenig aufklären, wie die Einlassungen gemeint sind…

Hier finden Sie das Kontaktformular der Bundesregierung 




Was ist die optimale Temperatur in Bezug auf die Lebensdauer des Menschen?

Kürzlich unternahm Guo et al. (2014) eine systematische Bewertung der Veränderung des Sterblichkeitsrisikos aus nicht-zufälligen Ursachen in Abhängigkeit von der Tagesmitteltemperatur in 12 Ländern. Die folgenden Abbildungen zeigen die Ergebnisse. Sie verwendeten Sterblichkeitsdaten mehrerer Jahre (im Bereich von 10 Jahren für Thailand bis 38 Jahren für Japan) für 306 Gemeinden in den 12 Ländern, und vereinigten die Daten für die Gemeinden in den einzelnen Ländern um diese Zahlen abzuleiten.

Man beachte, dass die Temperatur auf der x-Achse für jede Kurve in Bezug auf das Perzentil des Temperaturbereichs gemessen ist, anstatt als tatsächliche Temperatur (in °F oder °C). Außerdem wurde ein Verfahren für die in den folgenden 21 Tagen aufgetretenen Todesfälle entwickelt. Es ist bekannt, dass zusätzliche Todesfälle durch Exposition gegenüber hohen oder niedrigen Temperaturen erst einige Tage im Anschluss an die tatsächliche Exposition auftreten [Bei kalten Temperaturen ist dieser Zeitraum länger als bei warmen Temperaturen.] Ihr Verfahren berücksichtigte offensichtlich auch „Verzögerungen der Mortalität“ oder die „Ernte. Hierbei handelt es sich um das Konzept, dass temperaturbezogene Todesfälle, die sich in einer verwundbaren Bevölkerung sofort nach dem Ausgesetztsein der Temperatur ereignen, teilweise ausgeglichen werden durch weniger Todesfälle in dieser Bevölkerung während der nachfolgenden Wochen. [4]

Diese Grafiken zeigen, dass das relative Mortalitätsrisiko für jedes Land bei einem Minimum zwischen dem 66. und 80. Perzentil der mittleren Temperatur liegt. Neun der zwölf Länder haben eine "optimale" Temperatur zwischen dem 72. und 76. Perzentile.

Für jedes Land ist das relative Mortalitätsrisiko wesentlich höher an der 1-Perzentil Temperatur (Kaltende) als an der 99. Perzentile (warmes Ende).

Bemerkenswert ist, das die oben genannten Stichpunkte nicht nur für relativ kalte Länder wie Kanada und Südkorea gelten, sondern auch für die relativ warmen wie Brasilien und Thailand.

Die Studie berichtet auch, dass: „Die minimalen Temperaturen bzgl. Sterblichkeit waren in Ländern mit hoher Temperatur oder in Ländern in der Nähe des Äquators höher."

Dies alles bedeutet, erstens, es gibt(a) mehr Tage im Jahr, die kühler als die optimale [Temperatur] sind, und (b) das relative Risiko ist am kalten Ende höher als am warmen Ende. Mehr Todesfälle sollten eher Temperaturen zugeordnet werden, die kälter als das Optimum sind, als jenen, die wärmer sind. Daraus folgt, wenn die globale Erwärmung jeder Kurve lediglich nach rechts auf der Scala gleitet, sollte die Gesamtmortalität im Laufe des Jahres fallen. Aber in der Tat, globale Erwärmung ist mit wärmeren Wintern mehr als mit wärmeren Sommern verquickt – auch bei Skeptical Science akzeptiert man dies! Deshalb sollten wir eine doppelte Dividende von der globalen Erwärmung in Form von geringerer globaler Sterblichkeit bekommen.

Grafik 1: Relatives Mortalitätsrisiko (y-Achse) als Funktion der mittleren Tagestemperatur, aufgetragen als Perzentil der gesamten Temperaturdaten. Die Daten für die einzelnen Länder wurden zusammengelegt. Quelle Guo et al. (2014).

Zusammenfassend gibt es eine optimale Temperatur, die die Mortalität für jede gegebene Population minimiert, und es ist in Richtung des wärmeren Endes, was die Bevölkerung allgemein erlebt. Insbesondere ist dies bei etwa der 21°C bis 24°C der mittleren Temperatur, die so empfunden wird. Schließlich, wenn es irgendeinen Zweifel gibt, gibt es eine gute gesundheitsbasierte Begründung für:

• Allgemeine Präferenz für warme Temperaturen,

• Verbringen von Winterurlaub an warmen Plätzen und Sommerferien an kalten Orten,

• Für den Ruhestand in wärmere Gefilde! [Stimmt sehr, der Übersetzer]

References

[1] McMichael, Anthony J., et al. “International study of temperature, heat and urban mortality: the ‘ISOTHURM’project.” International journal of epidemiology 37.5 (2008): 1121-1131.

[2] Keatinge, W. R. “Winter mortality and its causes.” International Journal of Circumpolar Health 61.4 (2002).

[3] Guo, Yuming, et al. “Global variation in the effects of ambient temperature on mortality: a systematic evaluation.” Epidemiology 25.6 (2014): 781-789.

[4] Deschenes, Olivier. “Temperature, human health, and adaptation: A review of the empirical literature.” Energy Economics 46 (2014): 606-619.

Note: an earlier version of this essay rfereenced the”y-axis” corrrected to “x-axis”.  h/t to  “joelobryan on March 2, 2015 at 2:49 am.”

Link: http://wattsupwiththat.com/2015/03/02/what-is-the-optimum-temperature-with-respect-to-human-mortality/

Übersetzt durch Andreas Demmig für Eike