1

Klimaschutzweltmeister Deutschland versagt beim „Klimaschutz“

Das war vorhersehbar. Denn seit 2009 sinken die Treibhausgasemissionen in Deutschland nicht mehr. Science-Skeptical hatte bereits 2015 berichtet.

Die Gründe. Dank der Energiewende wird per EEG subventionierter Strom aus Sonne und Wind mit Vorrang und in immer größeren Mengen in die Netze gedrückt, ohne das die Stromnetze und Speicher dafür ausgebaut wurden. Teure Gaskraftwerke, die Sonne und Wind ersetzen könnten, wenn in der Nacht die Sonne nicht scheint und/ oder Flaute herrscht, wurden nicht gebaut, da sie gegenüber den staatlich geförderten Erneuerbaren Energien nicht rentabel sind. Daher laufen die Braunkohlekraftwerke, die kostengüstig Strom erzeugen, allerdings nicht ab- und aufgeregelt werden können durch, auch wenn die Sonne scheint und der Wind weht. Die Folge: die deutschen Kohle-Stromexporte haben sich in den vergangenen fünf Jahren verzehnfacht. Deutschland ist Kohlestrom-Exportweltmeister! Das geht aus einem Gutachten für die Grünen-Bundestagsfraktion aus 2017 hervor. Österreich ist dabei der größte Kohlestromabnehmer aus Deutschland und importiert lieber kostengünstigen Kohlestrom aus Deutschland, als seine eigenen, „klimafreundlichen“, aber teuren Gaskraftwerke einzuschalten. Ähnlich sieht es in anderen Anrainerländern aus. Die CO2-Emissionen nehmen daher nicht nur in Deutschland, sondern europaweit nicht ab!

Video Ergänzung zu den Versprechungen von Kanzlerin Angela Merkel ab 2007 wie Deutschland den „Klimaschutz“ schaffen wird.

Ein weiterer Graund dafür, dass die Klimaschutzziele nicht erreicht werden ist, dass die Ausbauziele der Bundesregierung für Elektromobilität weit, weit verfehlt wurden. E-Autos sind auf deutschen Straßen weiterhin die Ausnahme und nicht die Regel. Der Grund: E-Mobilen mangelt es weiterhin an Reichweite und diese sind weiterhin in der Anschaffung viel zu teuer. Ein E-Mobil eignet sich allenfalls als Zweit-/ Stadtauto und das Ladestellennetz ist unzureichend und unkonfortabel. Die Leute wollen nicht ständig nach Ladestationen suchen und den Stecker in die Dose stecken, die dann vielleicht nicht mal passen, oder funktionieren.

Ebenfalls verfehlt hat die Bundesregierung ihre Energieeffizienzziele. Weder Stromverbrauch noch Energieverbrauch sind in Deutschland zurückgegangen.

energiekonzept

2_abb_entw-stromverbrauch_2018-02-14

2_abb_entw-eev-sektoren_2018-02-14_0

Es könne „sogar noch schlimmer kommen“, sagte die Umweltministerin jetzt der SZ. Mittlerweile hätten viele andere Länder beim Klimaschutz aufgeholt. „Vorreiter waren wir mal, über viele Jahre“, sagte Schulze. „Aber wir sind zu lange stehen geblieben.“

Laut des Climate Action Network (CAN) liegt die Bundesrepublik beim Klimaschutz inzwischen nur noch auf Platz 8 der 28 EU-Länder. Der Verband wirft Deutschland vor, ehrgeizigere Ziele auf EU-Ebene zu bremsen. Die ambitioniertesten Klimaschützer in Europa sind der Rangliste zufolge Schweden vor Portugal und Frankreich.

Der Beitrag erschien zuerst bei ScienceSceptical hier




NASA-Glaziologe Jay Zwally räumt auf: Die Antarktis verzeichnet Eiszuwachs!

Der NASA-Glaziologe Jay Zwally sagt, dass er in seiner neuen Studie wieder einmal nachweisen wird, dass die Eisschilde der östlichen Antarktis so viel Eiszuwachs verzeichnen, dass die Verluste im Westen mehr als ausgeglichen werden.

Schmilzt das Eis in der Antarktis nun, oder nimmt es an Masse zu? Eine neue Studie behauptet, dass der Eisverlust der Antarktis während der letzten Jahre dramatisch zugenommen hat. Aber weitere Forschungen zeigen, dass diese Behauptung auf sehr wackligen Beinen steht.

Zwally hat den „Konsens“ bzgl. der Antarktis zum ersten Mal im Jahre 2015 in Frage gestellt, als er eine Studie veröffentlichte, die nachwies, dass das Wachstum der Eisschilde in der Ostantarktis die Verluste in der Westantarktis mehr als kompensierte. Auf diese Studie hat WUWT bereits in einem Beitrag hingewiesen. In diesem Beitrag kann das paper (open source) heruntergeladen werden. Zur Vereinfachung gleich hier die zwally-antarctica-study von 2015.

Zwally stellt jetzt erneut das vorherrschende Narrativ in Frage, wie die globale Erwärmung den Südpol beeinflusst. Sehr ähnlich wie im Jahre 2015 wendet sich Zwallys demnächst erscheinende Studie gegen den so genannten „Konsens“ einschließlich einer von einem aus 80 Wissenschaftlern bestehenden Team durchgeführten und in Nature veröffentlichten Studie. Darin findet sich die Schätzung, dass die Antarktis insgesamt über 200 Gigatonnen Eis pro Jahr verliert, was 0,02 Inches [ca. 0,5 mm] zum Anstieg des Meeresspiegels beitragen soll.

Im Grunde stimmen wir hinsichtlich der Westantarktis überein“, sagte Zwally. „Die Ostantarktis verzeichnet aber nach wie vor Eiszuwachs, und hier herrscht Dissens“.

Der vermeldete Eisverlust ist zumeist die Folge von Instabilität des westantarktischen Eisschildes, welcher von unten durch warmes Ozeanwasser angegriffen wird. Wissenschaftler neigen übereinstimmend zu der Ansicht, dass der Eisverlust in der Westantarktis und bei der Antarktischen Halbinsel zugenommen hat.

Messungen des ostantarktischen Eisschildes sind jedoch mit großen Unsicherheiten behaftet. Darauf fußt der Dissens. (Siehe den damit zusammenhängenden Beitrag mit dem Titel [übersetzt] „Der größte Eisschild der Erde war Millionen Jahre während einer Warnzeit in der Vergangenheit stabil“).

Unserer Studie zufolge ist das Gebiet der Ostantarktis mit den größten Unsicherheiten der ganzen Antarktis behaftet“, sagte Andrew Sheperd, Leitautor der Studie und Professor an der University of Leeds. „Obwohl es über kürzere Zeiträume eine relativ hohe Variabilität gibt, konnten wir keinen signifikanten langfristigen Trend finden, der über 25 Jahre hinausgeht“.

Nun wird die Studie von Zwally jedoch nachweisen, dass der östliche Eisschild mit einer Rate wächst, die die zunehmenden Verluste im Westen mehr als ausgleicht.

Die Eisschilde befinden sich „sehr nahe eines Zustandes im Gleichgewicht“, sagte Zwally. Er fügte hinzu, dass sich dieses Gleichgewicht ändern könnte, wenn die Gesamt-Schmelze bei stärkerer Erwärmung in der Zukunft zunimmt. Warum also gibt es einen so großen Unterschied zwischen den Forschungsergebnissen von Zwally und dem, was 80 Wissenschaftler jüngst in Nature veröffentlicht hatten?

Dafür gibt es mehrere Gründe, aber am schwersten schlägt zu Buche, wie die Wissenschaftler das machen, was sie Glacial Isostatic Adjustment GIA nennen. Dabei wird die Bewegung der Erde unter den Eisschilden berücksichtigt.

Wissenschaftler ziehen Modelle heran, um die Bewegung von Landmassen zu messen als Reaktion auf Änderungen der Eisschilde oben. Beispielsweise sagte Zwally, dass die ostantarktische Landmasse abgesunken ist als Folge von Massenzuwächsen der Eisschilde.

Jene Landbewegungen beeinträchtigen die Daten der Eisschilde, besonders in der Antarktis, wo kleine GIA-Fehler große Änderungen der Massenbilanz der Eisschilde bewirken können – ob das Eis wächst oder schrumpft. Differenzen gibt es außerdem, wie die Forscher die Bildung von Firn und die Akkumulation von Schneefall modellieren.

Das muss genau bekannt sein“, sagte Zwally. „Es ist ein Fehler zu glauben, dass man dies zu modellieren in der Lage ist. Dies sind Modelle, welche die Bewegungen der Erde unter dem Eis abschätzen“.

Zwallys Studie aus dem Jahr 2015 zeigte, dass eine isostatische Adjustierung von 1,6 mm erforderlich war, um die „gravimetrischen und altimetrischen“ Messungen von Satelliten in Übereinstimmung miteinander zu bringen.

In der Studie von Sheperd wird die Arbeit von Zwally mehrmals zitiert, doch wird darin lediglich von einem Eiszuwachs in der Ostantarktis von 5 Gigatonnen pro Jahr gesprochen – doch ist diese Schätzung mit einer Fehlerbandbreite von 46 Gigatonnen behaftet.

Zwally andererseits behauptet, dass der Eiszuwachs irgendwo zwischen 50 und 200 Gigatonnen pro Jahr liegt.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2018/06/15/nasa-glaciologist-jay-zwally-puts-the-hammer-down-antarctica-is-gaining-ice/




Die Menschen werden immer dümmer – und der Klima­wandel ist nicht schuld daran

Forschung: Menschen werden immer dümmer …

lautete die informative Überschrift einer renommierten Postille [1]. Wissenschaftler in Norwegen haben festgestellt, dass die Bewohner von Norwegen von 1905 bis heute dümmer geworden sind. Sie sind sich darin so sicher, dass sie die Vermutung äußern, der IQ der norwegischen Bevölkerung würde in den nächsten hundert Jahren um weitere sieben, bis zehn Prozent abfallen [5].
BUSINESS INSIDER: [1]Seit Jahren gibt es Anzeichen dafür, dass der durchschnittliche IQ weltweit sinkt. Die norwegischen Forscher Bernt Bratsberg und Ole Røgeberg vom Frisch Centre der Universität Oslo konnten das nun erstmals anhand der norwegischen Bevölkerung nachweisen.
Während der Schnitt seit der Entwicklung des ersten massentauglichen Intelligenztests im Jahr 1905 immer weiter anstieg und im Jahr 1975 sogar einen Durchschnittswert von 102 erreichte, sank er danach bis zum Jahr 1990 stetig auf unter 100 Punkte ab. Wie die Forscher vermuten, könnte der IQ innerhalb der nächsten hundert Jahre sogar um ganze sieben bis zehn Punkte abfallen.

Das sind nicht hoch genug zu achtende Forschungsergebnisse – wie man sie sonst nur aus der modernen Klima(Folgen)-Forschung kennt. Anhand genauer und mit heutigen IQ-Messungen bestimmt vergleichbaren Daten von 1905 wurden komplexe, statistische Analysen durchgeführt [6]. Mit erschreckendem Ergebnis und noch erschreckenderer, aber präziser Hochrechnung für die kommenden 100 Jahre.
Norwegens Bevölkerung ist dann mit einer – dank hochwertiger, wissenschaftlicher Arbeitsweise engen Vorhersage-Genauigkeit, um 8,5 +-1,5 (7 … 10) Intelligenzpunkte dümmer geworden.
Ein solcher „IQ-Proxy“ erlaubt auch eine Hochrechnung auf die Welt-Gesamtpopulation „ ,,, der durchschnittliche IQ weltweit sinkt“.

Nicht Klima- sondern Umweltfaktoren sollen der Grund dafür sein

Klar wurde mit wissenschaftlicher Akribie auch nach den Gründen gesucht. Und es fand sich kein Klimawandel darunter! Es sollen nun „Veränderungen im Bildungswesen“ und Mediennutzungen sein … Wer wäre bisher ohne neue Forschungen nur auf solche weit, weit weg vom Thema liegende Möglichkeiten gekommen?
BUSINESS INSIDER: [1]Für ihre Studie ermittelten die Wissenschaftler den Intelligenzquotienten von Testpersonen … und untersuchten außerdem genetische Veränderungen und Veränderungen, die verschiedenen Umweltfaktoren zuzuschreiben sind … Vielmehr sollen Umweltfaktoren für diesen negativen Trend verantwortlich sein. Dazu zählen den Forschern zufolge Veränderungen im Bildungswesen, bei der Nutzung verschiedener Medien sowie bei der Ernährung …

Statistik

Wenn man schon beim Nachsehen ist, anbei ein paar Daten [7]:
– Singapur hat Rang 1 mit einem IQ von 108
– Deutschland Rang 15 mit einem IQ von 100 (gleichauf mit Österreich)
– Norwegen Rang 19 mit einem IQ von 99
– Frankreich und USA Rang 26/27 mit einem IQ von 98
(der gleiche IQ wählt einmal Trump und einmal Macron. Vielleicht unterscheiden sich die Beiden gar nicht so stark)
– Äquatorialguinea steht an letzter Stelle mit Rang 109 und einem IQ von 56

Obwohl die Norweger also dümmer geworden sind, liegen sie lediglich einen einzigen, wohl kaum unterscheidbaren Punkt niedriger als Deutschland. Nun wäre es interessant zu wissen, wo Deutschland im Jahr 1905 stand.

Es gibt verschiedene Korrelationen

Anbei die Korrelation zwischen den Bildungsausgaben und IQ-Rang eines Landes (Rang 0 ist der Spitzenplatz). Leider ist nicht erkennbar, wie sich diese Bildungsausgaben zusammensetzen. Manche werden ahnen, welche Länder weit links stehen. Der Kontinent mit den meisten Länderprobanden liegt auf dem Globus in Südrichtung direkt unter uns.

Bild 1 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Bildungsausgabe/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt
Fast identisch sieht das Diagramm zwischen dem IQ-Länder-Ranking und mittlerem Einkommen aus.

Bild 2 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Einkommen/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Trotzdem war noch etwas mit Intelligenz und Klima

Laenderdaten.Info: [7]Ist Intelligenz abhängig vom Klima?
Schon seit 1991 besteht die Vermutung, dass über Generationen anhaltende Wärme sich auf den IQ auswirkt. Man ging zunächst davon aus, dass ein Leben in niedrigeren Temperaturen eine höhere körperliche Fitness voraus setzt und höhere soziale Anforderungen an das Leben stellt. Richard Lynn, Professor an der nordirischen University of Ulster geht zudem davon aus, dass die kälteren Temperaturen das Gehirnvolumen ansteigen lassen. Ob die Gehirngröße mit der Intelligenz überhaupt in Verbindung steht, ist allerdings umstritten.
Generell gilt ein heißes Klima als nachteilig für die Entwicklung von Intelligenz. Der Grund hierfür wird heutzutage vorwiegend in dem hohen körperlichen Energiebedarf und dem
dadurch entstehenden Stress gesehen. Insbesondere Kleinkinder verwenden bis zu 90% der Körperenergie für das Gehirn. Wenn in dieser für die Entwicklung wichtigsten Lebensphase die Energie anderweitig benötigt wird, kann sich das Gehirn nicht entsprechend entwickeln.

Dazu die Grafik mit dem Scatterdiagramm zwischen IQ-Rang (Rang 0 ist der Spitzenplatz) und der mittleren Tageshöchsttemperatur. Es zeigt sich ein eindeutiger Zusammenhang. Mehr Tageshitze macht das Landesranking und damit den IQ schlechter.
Nach anderen Ursachen braucht niemand mehr zu suchen, erlauben es sich Klimawandel-Forscher zu solch eindeutigen Diagrammen zu sagen. Diese „eindeutige“ Bild wird nur dadurch gestört, dass die schlimmen Ausreißer erfolgreiche, asiatische Staaten sind.

Bild 3 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), mittlere Tageshöchsttemperatur °C, Lineare Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt
Damit kann jeder relativ leicht entscheiden, ob das Klima (wie es Wissenschaftler vemuten), oder Anderes (mehr) am IQ „dreht“.

Noch etwas Interessantes findet sich auf der IQ-Infoseite. Der IQ schwankt je nach psychischer Verfassung mit einer Spanne von 20 (+-10) Punkten:
Laenderdaten.Info: [7]Der Intelligenzquotient wurde so bemessen, dass der Mittelwert bei 100 liegt. Bei einer Standardabweichung von 15% ist also ein IQ zwischen 85 und 115 als normal anzusehen. Je nach psychischer und physischer Verfassung des Probanden können zudem die Messergebnisse um bis zu 10 Punkte nach oben und unten schwanken.
Nun stelle man sich vor, die psychische Verfassung der Proband*innen hat sich die letzten Jahre durch die dauernde, mediale Klimawandelfolgen-Hysterie verändert. Dann ließen sich die wenigen Punkte „Verdummung“ und der minimale Abstand zu Deutschland leicht erklären.
Mit ganz geringem „Bildungsaufwand“ wäre es dann auch möglich, die Norweger vor dem 8,5 +-1,5 IQ-Punkteverlust in 100 Jahren durch einfache (psychische) Maßnahmen zu heilen.

Quercheck

Keine Sichtung ohne den obligatorischen Quercheck. Gibt es etwa in Deutschland Anzeichen, dass – wie in [7] berichtet wird -, die Temperatur im Babyalter Einfluss auf den IQ hat.
Es findet sich eine Quelle mit umfassender Information:
P.M. Magazin (gekürzt): [8] Der Geburtsmonat prägt unser Leben entscheidend
… Der Geburtsmonat eines Menschen hat nachweislich Einfluss auf seine Entwicklung, Gesundheit, Charakter und Beruf, berichtet die Zeitschrift P.M. MAGAZIN in ihrer Februar-Ausgabe. Eine große Rolle spielen dabei die äußeren Einflüsse, denen ein Kind zum Zeitpunkt der Geburt und in den Monaten zuvor im Mutterleib ausgesetzt ist.
Ausgewählte Merkmale für jeden Geburtsmonat:
Januar: höheres Risiko für Schizophrenie, Epilepsie und Alzheimer; tendenziell Frühaufsteher
Februar: höheres Risiko für Essstörungen und Pollenallergien
März: überdurchschnittlich früh einsetzende Wechseljahre bei Frauen; höheres Risiko für Alkoholismus und Kindheit-Diabetes
April: höhere Kinderzahl und Körpergröße bei Männern; tendenziell geringerer Intelligenzquotient
Mai: überdurchschnittlich viele Selbstmorde; erhöhtes Multiple-Sklerose-Risiko; eher Nachtmenschen
Juni: geringes Geburtsgewicht; viele Nobelpreisträger …

So wirklich Hilfreiches findet sich darin nicht. Im April geborene Männer haben einen geringeren Intelligenzquotient. Aber drei Monate später im Hochsommer Geborene können bereits Nobelpreisträger werden. Das war es aber schon über das gesamte Jahr mit einem Temperatureinfluss. Richtig zwingend Temperatur-korrelativ erscheint dies nicht.
Zur wichtigen Eigenanamnese vor Besuchen beim Arzt oder Psychologen ist diese Listung allerdings gut zu gebrauchen. Man kann sich damit als kompetenter Patient fühlen.

Quellen

[1] BUSINESS INSIDER Deutschland 14.06.2018, Jessica Dawid: Die Menschen werden immer dümmer — jetzt gibt es einen wissenschaftlichen Beweis

[2] EIKE 20.02.2018: Der Klimawandel macht dumm

[3] WUWT October 17, 2012: Claim: CO2 makes you stupid? Ask a submariner that question

[4] EIKE 14. Juni 2018: AfD Abgeordnete führen Ministerin Schulze vor – Auf klare einfache Fragen nur verschwiemelte, ausweichende Antworten

[5] Bernt Bratsberg and Ole Rogeberg, Studie: Flynn effect and its reversal are both environmentally caused

[6] Bernt Bratsberg and Ole Rogeberg: Supplementary Information for “The Flynn effect and its reversal are both environmentally caused” Authors:

[7] Laenderdaten.Info: Der IQ im Ländervergleich

[8] Gruner+Jahr, P.M. Magazin, 16.01.2014: Der Geburtsmonat prägt unser Leben entscheidend




Jenseits ENSO: Neue Signale jahres­zeitlicher und mehr­jähriger Vorhersag­barkeit

Das Climate Forecast Application Network CFAN* hat seine Prognose-Bemühungen auf die Überbrückung dieser Lücke konzentriert, indem es Prognosen extremer Ziel-Abschätzungen des Vertrauens in die Vorhersage abgibt.

[*Man könnte das etwa übersetzen zu Netzwerk der Anwendung von Klima-Prognosen. Anm. d. Übers.]

Abbildung 1: Brauchbarkeit von Vorhersagen für das Risiko-Management

Diese Abbildung illustriert das Konzept der probabilistischen Wettervorhersage mittels eines globalen Prognose-Systems von Ensemble-Modellen.

Für jede Vorhersage errechnet das globale Modell ein Ensemble multipler Vorhersagen, initialisiert mit leicht unterschiedlichen Anfangszuständen. Das Modell der europäischen Wetterzentrale ECMWF hat eine Ensemble-Größe von 51 Vorhersagen. Eine Einzelvorhersage (sagen wir mal der goldene Punkt in Abbildung 2) kann ziemlich weit entfernt liegen vom tatsächlich beobachteten Ergebnis (der rote Punkt). Falls das Ensemble groß genug ist, kann eine bedeutsame probabilistische Vorhersage gegeben werden. Ziel der probabilistischen Vorhersage ist es, das beobachtete Ergebnis (der rote Punkt) in einen Probabilitäts-Raum zu bringen (reflektiert durch die dunkelblaue Fläche), welcher deutlich kleiner ist als der der Klimatologie (hellblaue Fläche).

Die tatsächliche Modellprognose wird durch die grüne Fläche charakterisiert. Die potentielle Vorhersagbarkeit des Modells wird charakterisiert durch die dunkelblaue Fläche. Diese potentielle Vorhersagbarkeit kann sich in einer Vorhersage niederschlagen mittels Kalibrierung der Vorhersage und Verfahren der Interpretation der Ensembles.

Abbildung 2: Ensembles und probabilistische Wettervorhersage

Die Herausforderung der probabilistischen Klimavorhersage ist: um das beobachtete Ergebnis zu erfassen, muss die Ensemble-Größe sehr groß sein und so groß werden wie die Klimatologie. Die Herausforderung wird noch stärker, wenn sich das Klima ändert, etwa in Gestalt einer allmählichem globalen Erwärmung oder einer abrupten Verschiebung in einem Klimaregime wie etwa der Atlantischen Multidekadischen Oszillation AMO.

Abbildung 3: Ensembles und probabilistische Klimavorhersage

Für Wettervorhersagen in einer zeitlichen Größenordnung von 2 Wochen oder weniger können Ensemble-Vorhersagemodelle bedeutsame Probabilitäten liefern. Dieser Zeitrahmen wird zu einem Zeitrahmen kürzer als Jahreszeiten erweitert, potentiell bis zu 6 Wochen. Allerdings zeigen Vorhersagen, die über 2 Monate hinaus gehen, oftmals wenig Bezug zur Wirklichkeit, und derartige probabilistische Vorhersagen können tatsächlich Entscheidungsträger in die Irre führen. Im Zeitrahmen von Jahreszeiten werden typischerweise prognostische Einsichten vermittelt, während ein Prognostiker die Modellprognosen in eine Analyse von Analogien und vielleicht ein paar statistischen Vorhersageverfahren integriert.

Abbildung 4: Vorhersagbarkeit, Vorhersage und Szenarien

Eine Lücke in der Vorhersagbarkeit ist um 1 Jahr erkennbar, sie ist dort nur sehr gering. Vergrößert man den Zeitrahmen, steigt die Vorhersagbarkeit wieder, und zwar assoziiert mit längerfristigen Klima-Regimes. Allerdings werden die Vorhersagen zunehmend unsicher, wenn man den Zeitrahmen immer mehr verlängert.

Mögliche Zukunfts-Szenarien können nummeriert, aber nicht eingeordnet werden, z. B. wegen Unsicherheit.

Eine brauchbare Langfristvorhersage lässt die Möglichkeit offen, falsch oder auch überraschend zu sein in Verbindung mit abrupten Änderungen oder Schwarzer-Schwan-Ereignissen. Es ist höchst sinnvoll, derartige Ereignisse von vornherein als Möglichkeit zuzulassen.

Die entscheidende Herausforderung der Vorhersage ist es, den Zeitrahmen für bedeutsame Probabilitäts-Vorhersagen und für die prognostischen Abschätzungen der Wahrscheinlichkeit zukünftiger Ereignisse auszuweiten.

Wie können wir diese Prognose-Horizonte erweitern?

ECMWF ENSO Prognosegüte

Verbesserungen der globalen Klimamodelle helfen, den Zeitrahmen für bedeutsame probabilistische Vorhersagen auszudehnen.

Die folgende Abbildung vergleicht Vorhersagen der El Nino Southern Oscillation ENSO mittels der jüngsten Version des europäischen Modells ECMWF im Vergleich mit der vorherigen Version dieses Modells. Die Y-Achse ist der Monat der Initiierung, und die X-Achse repräsentiert den Vorhersage-Zeithorizont in Monaten. Die Farben repräsentiert die Stärke der Korrelation zwischen historischen Vorhersagen und Beobachtungen.

Abbildung 5: ECMWF ENSO Prognosegüte

Das bemerkenswerteste Phänomen in diesem Diagramm ist der Einbruch der Vorhersagbarkeit im Frühjahr [ein unter Synoptikern von Anfang an bekanntes Phänomen]. Initialisiert man eine Vorhersage im April, wird die Prognosegüte bis Juli rapide abnehmen, und der Korrelationskoeffizient sinkt unter 0,7 (weiße Fläche). Wird jedoch eine Prognose im Juli initiiert, bleibt die Vorhersagegüte für die folgenden 7 Monate und auch darüber hinaus sehr hoch.

Die Güte der neuen ECMWF-Version findet sich rechts, und man erkennt eine substantielle Verbesserung. Zwar unterscheidet sich das Farbschema etwas, doch kann man erkennen dass die weiße Fläche mit einem Korrelationskoeffizienten unter 0,7 viel kleiner ist. Dies ist ein Anzeichen, dass das Modell hinsichtlich des Einbruchs im Frühjahr viel besser agiert.

Die verbesserte Güte in Version 5 wird Verbesserungen des Ozean-Modells zugeordnet, ebenso wie Parametrisierungen der tropischen Konvektion.

Abbildung 6: Klima-Vorhersage: Signale des Problems des Rauschens

In Zeitrahmen über ein paar Wochen hinaus besteht die Herausforderung darin, die vorhersagbaren Komponenten zu identifizieren. Unter diesen Komponenten sind:

jedweder langfristige Trend

Regimes und Fern-Wechselwirkungen

sowie jedwede zyklische oder jahreszeitliche Effekte.

Hat man vorhersagbare Komponenten erst einmal identifiziert und isoliert, kann man loslegen.

Die Herausforderung besteht darin, die vorhersagbaren Komponenten vom ,Rauschen‘ zu trennen. Darunter sind:

unvorhersagbare chaotische Komponenten

Zufallsvariabilität des Wetters

Modellfehler

Die größte Herausforderung sind Verschiebungen der Regimes, vor allem, wenn diese Verschiebungen durch Zufallsereignisse ausgelöst wurden. Man erinnere sich, im Jahre 2015 sah es wirklich so aus, als würde sich ein El Nino entwickeln. Dessen Entwicklung wurde jedoch vereitelt durch zufällige starke Ostwinde im tropischen Pazifik. Diese fehlgeschlagene Entwicklung des Jahres 2015 bahnte den Weg für den Super El Nino des Jahres 2016.

Abbildung 7: Klimavorhersage: können wir die Klimatologie schlagen?

Die große Frage bei einer Klimavorhersage ist, ob man die Klimatologie schlagen kann. Die Vorhersagegüte ist von vielen Dingen abhängig.

Die Initialisierung einer Vorhersage relativ zum jahreszeitlichen Zyklus ist eine bedeutende Determinante der Güte. Auch ist eine Vorhersage, die während eines fest bestehenden Regimes initialisiert wird wie etwa einem El Nino, besser.

Eine der bedeutendsten prognostischen Erkenntnisse, den ein Prognostiker liefern kann ist, ob die aktuelle Vorhersage die Klimatologie schlagen kann.

Das Vorhersagefenster der Gelegenheit, Fenster bzgl. Raum und Zeit zu identifizieren ist größer, wenn die erwartete Vorhersagegüte größer als gewöhnlich ist, weil dann bestimmte Phasen großräumiger Zirkulationen vorherrschen.

Ich verwende oft eine ,Poker‘-Analogie, wenn ich dies Energiehändlern erkläre – man muss wissen, wie man weitermachen soll [im Original steht hier das unübersetzbare Wortspiel ,hold‘ or ,fold‘. Anm. d. Übers.]. Hinsichtlich einer Vorhersage ist dies der Unterschied zwischen Vorhersagen mit geringem oder hohem Vertrauen.

Abbildung 8: von Daten bestimmte Prognoseverfahren

Statistische Vorhersagen wurden viele Jahrzehnte lang verwendet, bevor globale Klimamodelle entwickelt worden sind, besonders für die Monsunregen in Asien. Traditionelle statistische Vorhersagen waren Zeitreihen auf der Grundlage von Analogien während der Vergangenheit. Während in diese Verfahren Erkenntnisse der Klimadynamik einfließen, haben sie sich als zu simplizistisch erwiesen, und außerdem gibt es nur eine unzureichende Anzahl von Analogien während der Vergangenheit.

Die größte Herausforderung für statistische Vorhersagen ist, dass sie bei einer Verschiebung von Regimes keinerlei Aussagekraft mehr haben. Man erinnere sich an das Jahr 1995, als das statistische Hurrikan-Vorhersagemodell von Bill Gray nicht mehr funktionierte, nachdem sich die atlantische Zirkulation verändert hatte. Ein Beispiel aus jüngerer Zeit ist die Bewertung der Schneebedeckung im Oktober in Sibirien. Diese heranzuziehen funktionierte auch nicht mehr, nachdem sich das Klimaregime verändert hatte.

Gegenwärtig ist die Analytik von Big Data der letzte Schrei bzgl. der Vorhersage von Wetter und Klima. IBM-Watson ist ein Beispiel. Mathematiker und Statistiker bringen Verfahren der Datengewinnung und künstlicher Intelligenz ins Spiel für die Wetter- und Klimavorhersage.

Der Guru künstlicher Intelligenz Richard DeVeaux nennt das folgende Rezept dafür, erfolgreich zu sein:

Gute Daten + Fachkenntnisse + Datengewinnung + Nachdenken = Erfolg

Die eingrenzenden Zutaten sind Fachkenntnis und Nachdenken. Ohne gute Kenntnisse der Klimadynamik wird Katzengold das Ergebnis jedweder Klimavorhersage auf der Grundlage von Datengewinnung sein.

Abbildung 9: Jahreszeitliche bis jährliche Vorhersagen: Prognostische Erkenntnisse → probabilistische Vorhersagen.

Der Weg zu einer Ausdehnung des Zeithorizonts für bedeutsame probabilistische Vorhersagen ist es, globale Klimamodelle mit Erkenntnissen von Vorhersageverfahren auf der Grundlage von Daten zu integrieren.

Das Problem der Klimamodell-Vorhersagen ist, dass sie nach ein paar Monaten unvermeidlich in die Klimatologie abgleiten. Das Problem von Vorhersagen auf der Grundlage von Daten ist deren schlechte räumlich-zeitliche Auflösung.

Diese können integriert werden, indem die Klimamodell-Ensemble-Mitglieder anordnet um Prädiktoren aus auf Daten basierenden Vorhersagen zu Gruppen zusammengefasst werden.

Vertrauensabschätzungen können vorgenommen werden auf der Grundlage der Wahrscheinlichkeit einer Regime-Verschiebung.

Vorhersagen auf Daten-Grundlage: Analyse der Klimadynamik

Bei Verfahren zur Klimavorhersage auf der Grundlage von Daten ist es unabdingbar, die Bandbreite der Klimaregimes zu kennen, welche unsere Vorhersage beeinflussen können. Diese Regimes zeigen die Erhaltensneigung im Klimasystem. Die Herausforderung besteht darin, die geeigneten Regimes zu identifizieren, deren Auswirkung auf die gewünschten Vorhersage-Variablen zu verstehen und die Vorhersage zukünftiger Verschiebungen dieser Regimes.

Die CFAN-Analyse der Klimadynamik enthält die Betrachtung dieser 5 Zeitrahmen und deren damit assoziierten Regimes. Sie reichen vom jährlichen Zyklus bis zu multidekadischen Zeitrahmen.

Zustände der Zirkulation: Quellen der Vorhersagbarkeit

Unsere Bemühungen zur Datengewinnung haben eine Anzahl neuer Zirkulations-Regimes identifiziert, die als Prädiktoren brauchbar sind über eine Bandbreite von Zeitmaßstäben. Darunter sind:

Nordatlantische ARC-Zirkulation

Indo-Pazifik-Atlantik-Zirkulation

Anomalien hemisphärischer stratosphärischer Zirkulation auf beiden Hemisphären

Bipolare Zirkulation in der Stratosphäre

NAOX: Nordatlantische SLP/Windzirkulation

Globale Zirkulationen von Nord-Süd-Winden in der oberen Troposphäre/unteren Stratosphäre

Nordatlantische ARC-Zirkulation

Abbildung 10: Nordatlantische ARC-Zirkulation

Im Atlantik ist aktuell eine faszinierende Entwicklung zu beobachten. Abbildung 10 zeigt Anomalien der Wassertemperatur im Atlantik für den Monat Mai. Man erkennt einen Bogen kalter blauer Temperaturanomalien, welcher sich vom äquatorialen Atlantik entlang der Küste von Afrika erstreckt und dann in ein von Ost nach West verlaufendes Band südlich von Grönland und Island mündet. Diese Verteilung bezeichnet man als die atlantische ARC-Zirkulation.

Abbildung 11: ARC-Wassertemperatur-Anomalien im Nordatlantik

Eine Zeitreihe von Wassertemperatur-Anomalien im ARC-Gebiet seit 1880 zeigt, dass sich Änderungen mit scharfen Verschiebungen manifestieren. Man erkennt derartige Verschiebungen in den Jahren 1902, 1926, 1971 und 1995.

In der unteren Graphik erkennt man, dass die ARC-Temperaturen während der letzten paar Monate einen schroffen Rückgang zeigen. Ist dies jetzt lediglich eine Kalt-Anomalie wie im Jahre 2002? Oder wird hier eine Verschiebung in die Kaltphase eingeläutet?

Die CFAN-Forschungen haben Präzedenzen der Verschiebungen identifiziert. Gegenwärtig arbeiten wir aktiv daran, die jetzige Lage richtig einzuordnen.

Kaltphase der atlantischen AMO: Auswirkungen

Es wird erwartet, dass eine Verschiebung hin zur Kaltphase der AMO ausgeprägte Auswirkungen haben wird. Diese Erwartung speist sich aus Verschiebungen während der Vergangenheit:

verringerte Hurrikan-Aktivität im Atlantik

verstärkte Regenfälle in den USA

verringerte Regenfälle in Indien und der Sahel-Zone

Verschiebung der Fischbestände im Nordatlantik

Beschleunigung des Meeresspiegel-Anstiegs an der nordöstlichen US-Küste

Abbildung 12: Auswirkungen der AMO auf atlantische Hurrikane

Die Atlantische Multidekadische Oszillation übt auf atlantische Hurrikane einen substantiellen Einfluss aus. Die obere Graphik zeigt die Zeitreihe der Anzahl starker Hurrikane seit dem Jahr 1920. Die Warmphasen der AMO sind gelb schattiert. Man erkennt eine substantiell höhere Anzahl starker Hurrikane während der gelb schattierten Zeiträume.

Einen ganz ähnlichen Effekt zeigt die Accumulated Cyclone Energy:

Abbildung 13: Auswirkungen der AMO auf auf das US-Festland übergreifende Hurrikane

Im Gegensatz dazu erkennt man, dass die Warmphasen im Vergleich zu den Kaltphasen der AMO kaum Auswirkungen auf die Häufigkeit von auf das US-Festland übergreifende Hurrikane hat.

Abbildung 14: Auswirkungen der AMO auf Hurrikane in Florida

Allerdings hat die Phase der AMO einen gewaltigen Einfluss auf Florida. Während der vorangegangenen Kaltphase gab es zu keiner Jahreszeit mehr als einen Übertritt auf Florida, während es während der Warmphase mehrere Jahre gab mit drei derartigen Ereignissen oder mehr. Dass ein starker Hurrikan auf Florida übergreift ist mehr als doppelt so wahrscheinlich in einer Warmphase als in der Kaltphase.

Diese Variationen der Übertritte auf das Festland in Verbindung mit Änderungen der AMO haben einen substantiellen Einfluss auf die Entwicklung in Florida. Die Reihe von Hurrikanen des Jahres 1926 tötete den ökonomischen 1920 angefangenen Boom. Bevölkerung und Entwicklung beschleunigten sich während der siebziger Jahre, unterstützt durch eine Periode schwacher Hurrikan-Aktivität.

Die jahreszeitlichen Vorhersagen atlantischer Hurrikane von CFAN

Das CFAN-Verfahren untersucht globale und regionale Wechselwirkungen zwischen Ozean-, Troposphären- und Stratosphären-Zirkulationen. Vorlaufende Prozesse werden identifiziert durch Datenerfassung, interpretiert im Zusammenhang der Klimadynamik-Analyse. Damit werden dann statistische Tests mit Nachhersagen durchgeführt.

Wir betrachten in unserer Analyse drei Perioden, definiert durch gegenwärtige Regimes der Zirkulation:

Die Periode seit 1995, welche mit der Warmphase der AMO korrespondiert

Die Periode seit 2002, definiert durch eine Verschiebung der Nordpazifischen Oszillation im Jahre 2001

Die Periode seit 2008, charakterisiert durch eine Vorherrschaft von El Nino-Ereignissen alle drei Jahre.

Abbildung 15: CFAN-Vorhersage der atlantischen Hurrikan-Saison 2018

Vorige Woche haben wir unsere dritte Vorhersage für die atlantiche Hurrikan-Saison 2018 herausgegeben. Wir prognostizieren eine unternormale Aktivität mit einem ACE-Wert von 63 und 4 Hurrikanen.

Die Graphik rechts zeigt die Nachhersage-Verifikation unserer Juni-Vorhersage bzgl. der Anzahl von Hurrikanen. Die Prognose wird erstellt mittels historischer Daten aus drei verschiedenen Perioden, die jeweils mit den drei oben beschriebenen Regimes korrespondieren.

Abbildung 16: Prädiktoren von CFAN für die jahreszeitliche atlantische Hurrikan-Vorhersage

Die jahreszeitlichen Prädiktoren von CFAN werden für jede Vorhersage ermittelt durch ein Datengewinnungs-Verfahren mit unterschiedlichen Prädiktoren für jeden Zeitraum. Die ausgewählten Prädiktoren werden dann einer Klimadynamik-Analyse unterzogen, um zu verifizieren, dass die Prädiktoren aus verfahrenstechnischer Sicht sinnvoll sind.

Die von uns herangezogenen Prädiktoren sind bezogen auf atmosphärische Zirkulationsmuster. Unsere Prädiktoren unterscheiden sich substantiell von denen, die von anderen Gruppen für statistische Vorhersagen herangezogenen werden, welche sich vorherrschend auf die Wassertemperatur und den Luftdruck über dem Wasser stützen.

Jahreszeitliche Vorhersage 2017

Abbildung 17: Vorhersage atlantischer Hurrikane: worst case-Szenario

Hier folgt die von uns ausgegebene Vorhersage von vor einem Jahr zur Hurrikan-Saison 2017. Wir prognostizierten eine aktive Saison mit 3 Übertritten auf das US-Festland. Diese Anzahl war korrekt, aber wir haben substantiell die ACE unterschätzt.

Aus der Perspektive des Finanzsektors ist es entscheidend, ob wir eine weitere extrem aktive Hurrikan-Saison erleben und wie viele Hurrikane auf das US-Festland übergreifen.

Wir führten ein Datensammel-Verfahren durch, um Verteilungen zu identifizieren, welche die extrem aktiven Saisons der Jahre 1995, 2004, 2005 und 2017 erklären. Unser gegenwärtiges Vorhersagemodell ist zwar hinsichtlich der Extreme in den Jahren 1995 und 2017 korrekt, nicht jedoch für die Jahre 2004 und 2005.

Der einzige Prädiktor, der 2004/2005 auftauchte, war ein Vorgang in der Stratosphäre nahe der Antarktis. Zu diesem Zeitpunkt haben wir keine Ahnung, ob dieser Vorgang ein plausibler Prädiktor auf physikalischer Grundlage für die atlantische Hurrikan-Aktivität ist. Verstörend ist, dass Prädiktoren der polaren Stratosphäre eine extrem aktive Saison 2018 vorhersagen. Dies steht im Gegensatz zu den anderen von uns herangezogenen Prädiktoren.

Fazit: Zu diesem Zeitpunkt wissen wir nicht, ob wir echtes Gold oder Katzengold ausgegraben haben. In jedem Falle ist dies ein gutes Beispiel des Nutzens und der Gefahren bei der Datensammlung.

Link: https://judithcurry.com/2018/06/07/beyond-enso-new-signals-of-seasonal-to-interannual-predictability/

Übersetzt von Chris Frey EIKE




Auszüge aus dem Rundbrief der GWPF vom 13. Juni 2018

Gar nicht mehr grün: Deutschland torpediert ambitionierte EU-Energieziele

Die Wähler in ganz Europa haben das Vertrauen in die Politik verloren – auch aufgrund der „unerreichbaren Ziele“ für erneuerbare Energien, sagte der deutsche Wirtschafts- und Energieminister Peter Altmaier gestern.

Altmaier wies die Forderungen einer Gruppe anderer EU-Länder zurück, den Anteil der erneuerbaren Energien bis 2030 auf 33 bis 35 Prozent des Energiemixes zu erhöhen. Der Minister äußerte sich während eines Austauschs mit den übrigen 27 EU-Energieministern, die gestern in Luxemburg zu einem Treffen des Energierats zusammengekommen waren.

Die Energieminister müssen aktuell eine gemeinsame Position zu drei Gesetzen für saubere Energien erarbeiten, die derzeit in den EU-Institutionen ausgehandelt werden: Die Richtlinie über erneuerbare Energien, die Richtlinie über Energieeffizienz sowie eine Verordnung über die Führung der Energieunion.

„Deutschland unterstützt verantwortungsvolle, aber erreichbare Ziele,“ betonte Altmaier von Anfang an. Er unterstrich außerdem, dass die Bemühungen Berlins, den Anteil der erneuerbaren Energien zu steigern, bisher lediglich dazu geführt hätten, dass dieser Anteil am Gesamtenergiemix des Landes bei nun 15 Prozent liegt.

Allein diese Bemühungen würden die deutschen Steuerzahler bereits 25 Milliarden Euro pro Jahr kosten, so Altmaier. „Wenn wir uns jetzt ein Ziel setzen, das deutlich über 30 Prozent hinausgeht, bedeutet das: Wir müssen unseren Anteil in zehn Jahren deutlich mehr als verdoppeln.“

„Das werden wir nicht schaffen,“ konstatierte der Minister auch mit Blick auf das vormalige Ziel, bis zum Jahr 2020 eine Million Elektroautos auf deutschen Straßen zu haben. Dies werde allerdings auch nirgendwo sonst in Europa erreicht. Altmaier weiter: „Selbst, wenn wir es schaffen würden, hätten wir nicht genügend erneuerbaren Strom, um alle diese Autos zu betreiben.“

Was daher benötigt werde, sei „ein Kompromiss [auf europäischer Ebene], der verhindert, dass wir innerhalb kurzer Zeit wieder ein Ziel haben, das nicht erreicht worden ist.“ Der CDU-Politiker warnte: „Die Bürgerinnen und Bürger in Europa verlieren auch das Vertrauen in die Politik, wenn sie feststellen, dass wir sehr ambitionierte Ziele haben, und einige Jahre später sich herausstellt, dass wir weit von ihrer Erfüllung entfernt sind.“

Altmaiers Kompromissvorschlag ist „erbärmlich“

Claude Turmes, dem Verhandlungsführer des Parlaments über die Energieunion-Verordnung, nannte Altmaiers Erklärung „erbärmlich“. Dennoch dürften die vom Wirtschaftsminister geäußerten deutschen Ansichten die Erwartungen anderer EU-Länder, die mehr Ehrgeiz für das EU-Gesetzgebungspaket für saubere Energie gefordert haben, deutlich enttäuscht haben.

Luxemburg und Spanien, deren Vertreter vor Altmaier sprachen, unterstützen beide die Forderung des Europäischen Parlaments nach mehr Ehrgeiz in Bezug auf erneuerbare Energien und Energieeffizienz. Sie fordern ein Ziel von 35 Prozent für beide Punkte.

Die Niederlande, Frankreich, Dänemark, Schweden, Italien und Portugal gehörten ebenfalls zu denjenigen, die höhere Ambitionen im Bereich der erneuerbaren Energien und der Energieeffizienz anstreben.

Brune Poirson, französische Staatssekretärin für Ökologie, unterstrich die Notwendigkeit „starker Ambitionen“ auf EU-Ebene, um die Ziele des Pariser Klimaabkommens zu erreichen. Frankreich, so Poirson, sei bereit, bei der Energieeffizienz einen Kompromiss von „rund 33 Prozent“ zu unterstützen. Dies wäre ein Mittelweg zwischen den Positionen des Europäischen Parlaments und der EU-Mitgliedstaaten. Zu den erneuerbaren Energien sagte die Staatssekretärin, ein Anteil von 32 Prozent sei „ein guter Kompromiss“.

Ebenso wichtig sei der vorgeschlagene Gap-filler-Mechanismus („Lückenfüller“), sollten die EU-Länder bei der Erreichung des vereinbarten Ziels auf EU-Ebene hinterherhinken. Poirson erhielt in diesem Punkt Unterstützung von Altmaier, der erklärte, Deutschland sei bereit, einen Gap-Filler für beide Ziele – also erneuerbare Energien und Energieeffizienz – zu befürworten.

Auch im Bereich Wärme- und Kältesektor seien Deutschland und der Europäische Rat gewillt, sich „noch einmal ein Stück weit auf das Europäische Parlament zuzubewegen“. Die Gespräche über die drei vorgeschlagenen EU-Gesetze werden voraussichtlich am morgigen Mittwoch im Trilog-Gespräch zwischen dem Europäischen Parlament, dem EU-Rat und der Kommission abgeschlossen.

Widerstand von den Visegrad-Staaten

Die Chancen, in den Trilogen eine „ehrgeizige“ Einigung zu erzielen, die näher an der Position des EU-Parlaments liegt, erscheinen ohne die volle Unterstützung Deutschlands nun allerdings geringer.

Die Visegrad-Gruppe, bestehend aus der Tschechischen Republik, der Slowakei, Ungarn und Polen, bekräftigte ihren Widerstand gegen eine Anhebung der Ziele der EU im Bereich der erneuerbaren Energien und der Energieeffizienz.

Ungarn sagte zum Beispiel, dass jede Erhöhung des Ziels für erneuerbare Energien mit einer neuen Folgenabschätzung der Europäischen Kommission einhergehen sollte – ein langwieriges Verfahren, das die Annahme der Richtlinie weiter verzögern würde.

Aber es sind noch nicht alle Hoffnungen verloren, so Turmes, der darauf hinwies, dass der Wechsel hin zu neuen Regierungen in Spanien und Italien die Sperrminorität gegen ein Ziel von 33 Prozent sowohl für erneuerbare Energien als auch für Energieeffizienz aufgehoben habe. – Frédéric Simon, EurActive.com.

Die ganze Story steht hier.

[Hinweis: Diese Übersetzung aus dem GWPF-Newsletter stammt nicht von mir, sondern ist direkt aus der Quelle EurActive übernommen. Anm. d. Übers.]

—————————————

Deutsche Regierung: Das Klimaziel 2020 wird erheblich verfehlt werden


Die deutsche Regierung steht kurz davor, offiziell einzugestehen, dass sich das Land auf einem Weg befindet, auf welchem es die Klimaziele bis zum Jahr 2020 erheblich verfehlen wird.

Der wirtschaftliche Boom, der Immigrationsdruck sowie hohe Emissionen im Transportsektor bedeuten, dass der Energiewende-Pionier die Treibhausgas-Emissionen nur um 32% verglichen mit dem Jahr 1990 wird reduzieren können. Die steht im Gegensatz zum offiziell verkündeten Ziel einer Reduktion um 40%, jedenfalls dem neuen Klimaschutzbericht der Regierung zufolge. Clean Energy Wire konnte dieses Dokument einsehen, welches am 13.Juni zur Veröffentlichung vorgesehen ist.

Es wird erwartet, dass mit den bis heute durchgeführten Maßnahmen die Treibhausgas-Emissionen bis 2020 um rund 32% abnehmen werden im Vergleich mit 1990“, heißt es darin.

Im Jahre 2014 hat die Regierung ein „Klima-Aktionsprogramm“ initiiert. Aber die dafür erforderliche Politik reichte nicht aus, um die Lücke zu einer Reduktion von 40% bis 2020 zu schließen. Als Gründe werden genannt „eine überraschend starke wirtschaftliche Entwicklung sowie ein überraschend hohes Bevölkerungswachstum“, schreibt die Regierung in dem Report.

Es wird darin sogar davor gewarnt, dass Emissions-Vorhersagen „als ziemlich optimistisch bewertet werden müssen hinsichtlich der gegenwärtigen Klimaschutz-Trends“. – Sören Amelang, Clean Energy Wire.

Die ganze Story steht hier.

[Hinweis: Der Autor dieses Beitrags ist Verfechter von CO2 als vom Menschen verursachtes Haupt-Treibhausgas. Anm. d. Übers.]

—————————————

Deutschlands Energiewende: Eine Warnung für Europa!

Colin Stevens

Deutschland wurde als herausragender Pionier für seine Politik der Energiewende gewürdigt und besonders für die eingegangene Verpflichtung gepriesen, innerhalb der nächsten fünf Jahre vollständig aus der Kernenergie auszusteigen. Und dennoch – obwohl eine „Kohleausstiegs-Kommission“ eine Road Map für den Kohleausstieg präsentieren soll, bleibt Deutschland viel zu sehr abhängig von seinen umfangreichen Braunkohle-Reserven zur Energieversorgung seiner Wirtschaft und für das Backup für Wind- und Solarenergie-Ausfälle.

Trotz der ganzen Angeberei ist Deutschlands Energiewende viel mehr eine Warnung für Europa als eine Erfolgsstory, auf die andere Nationen blicken, um ihre Energiesektoren zu modernisieren. Im Zentrum der Politik liegt eine fundamentale Scheinheiligkeit: Trotz der Verpflichtung, seine Kapazität erneuerbarer Energie immer weiter auszubauen, um die verloren gehenden Kernkraftwerke zu ersetzen, steigen die Kohlenstoff-Emissionen des Landes derzeit.

Die hastige Entscheidung, alle 19 Kernkraftwerke in Deutschland bis zum Jahr 2022 stillzulegen, erfolgte im Zuge der Fukushima-Katastrophe im Jahre 2011 – nur ein Jahr, nachdem Kanzlerin Angela Merkel entschieden hatte, die Lebensdauer dieser Kraftwerke zu verlängern. Diese politische Kehrtwende war an Pläne gekoppelt, den Verbrauch fossiler Treibstoffe zu eliminieren, indem der Anteil von Erneuerbaren am deutschen Energie-Mix bis zum Jahr 2050 auf 60% steigen sollte.

Trotz der scheinbar vernünftigen Grundlagen haben die ersten fünf Jahre der Energiewende die Probleme aufgezeigt, welche das Modell für Deutschland und das übrige Europa birgt. Energiewende ist kaum lediglich ein innerdeutsches Thema: eine der grundlegenden Lehren ist, dass das Land neun Nachbarn hat, mit denen es Energie austauschen kann – entweder, indem man überschüssige Energie an diese Länder verkauft, wenn Erneuerbare zu viel Strom erzeugen, oder Energie von dort importiert, wenn Deutschlands Erneuerbare nichts liefern.

Während es Deutschland geschafft hat, den Anteil Erneuerbarer bei der Stromerzeugung auf 30% zu bringen, hat sich die zuvor stetige Abnahme der Kohlenstoff-Emissionen – um 27% von 1999 bis 2009 – drastisch umgekehrt, seit Deutschland den Ausstieg aus der Kernkraft beschlossen hat. Anstatt weiter zu fallen, sind die Emissionen seitdem um 4% gestiegen. Warum dieser besorgliche Anstieg der Emissionen? Weil erneuerbare Energie immer noch inhärent periodisch ist.

Ohne erhebliche Fortschritte bei der Batterie- und Speicher-Technologie wird Deutschland gezwungen sein, noch Jahrzehnte lang andere heimische Energiequellen zu nutzen. Falls Kernkraft wirklich stillgelegt wird, werden Kohlekraftwerke an deren Stelle weiter betrieben werden und die Atmosphäre bei diesem Prozess verschmutzen. Noch schlimmer ist, dass viele thermische Kraftwerke in Deutschland Braunkohle verbrennen, eine spezielle Art Kohle, welche mehr CO2 emittiert als jeder andere fossile Treibstoff. Während bei der Verbrennung von Erdgas zwischen 150 und 430 g CO2 pro Kilowattstunde emittiert werden, sind es bei Braunkohle atemberaubende 1,1 kg CO2. Kernkraft emittiert lediglich 16 g CO2 pro Kilowattstunde.

Die ganze Story steht hier.




Stimmen der Vernunft im ,Klima-Krieg‘

Matthew Nisbet hat eine provokative neue Studie veröffentlicht:

[Es folgen eine längere Betrachtung sowie ausführliche Zitate aus der gleichen Studie, zu der bereits Anthony Watts Stellung genommen hat {hier, auf Deutsch beim EIKE hier}. Diese Zitate werden hier nicht noch einmal übersetzt. Autorin Judith Curry greift aber die Kommentare auf diese Studie auf und zitiert aus Tweets eines Autors:]

Die Twitter-Angriffe auf Nisbet und Pielke Jr. sind zu zahlreich und langweilig, um sie hier wiederzugeben.

Ted Nordhaus vom The Breakthrough Institute reagierte mit der folgenden Serie von Tweets:

1. Ich möchte dazu Folgendes sagen: Das zugrunde liegende Problem sind nicht die unterschiedlichen Theorien der Änderung, sondern wie wir sowohl mit den Unsicherheiten in Verbindung mit Klimawandel als auch mit unterschiedlichen Bewertungen dieser Unsicherheiten umgehen.

2. Die Bemühungen, Roger herauszuhalten, waren der Höhepunkt jahrelanger Bemühungen von verschiedenen Seiten, seine und unsere Arbeit zu delegitimieren. Die Strategie war a) die grüne Klima-Agenda mit einem Mantel der Klimawissenschaft zu verschmelzen und b) die Debatte zwischen Klima-Befürwortern und -Leugnern auf Null zu reduzieren.

3. Wie ich schon im vorigen Jahr hier geschrieben habe: Falls man die grüne Agenda in Frage stellt, ist man ein „Zauderer“, und falls man den Klima-Katastrophismus in Frage stellt, ist man ein „Leugner“.

4. Rogers spezielle Sünde war es, Behauptungen zu hinterfragen, denen zufolge Katastrophen-Trends AGW zugeordnet werden können. Dies unterminierte langfristige Bemühungen seitens der Befürworter, die politische Dimension des Themas hervorzuheben, eine Strategie, die bereits Mitte der neunziger Jahre begonnen hatte, als man TV-Wettermoderatoren vorschob, um Kyoto hochzujubeln.

5. Es gab niemals irgendwelche besonders überzeugenden Beweise, dass die Strategie aufgegangen ist. Bereits im Jahre 2000 zeigten Forschungen des Frameworks Institute, dass die Kanone dieser Strategie eher nach hinten losgeht. Aber sie diente einer ganzen Reihe anderer weitschweifiger Notwendigkeiten, so dass die Klima-Befürworter sie inbrünstig weiter verfolgten.

6. Aus ähnlichen Gründen wurde die Infragestellung der grünen Politik-Orthodoxie mehr als ein einfacher politischer Disput behandelt. Schon sehr früh haben Befürworter die Klimawissenschaft mit der grünpolitischen Formel verschmolzen, die man angeben könnte mit Vertrag + Vorschriften bzgl. Emissionen + sanfte Energie.

7. Die Infragestellung der Agenda wurde de facto als Klimawandel-Leugnung behandelt. Jedwede Einordnung des Problems in einen anderen Zusammenhang oder eine Lösung desselben musste unterdrückt werden. Und während die Politik dadurch in keiner Weise einfacher gemacht worden ist, wurden andere Ziele erreicht, wie der Report von Matt Nisbet gezeigt hat.

8. Die fortwährenden persönlichen Angriffe, Schuldzuweisungen und Fehlinterpretationen machen einen fertig und ändern einen. Ohne namentlich genannt zu werden, sind einige von uns besser damit fertig geworden, und das ist so im gesamten politischen Spektrum. Auf diese Weise dämonisiert zu werden radikalisiert die Menschen oftmals.

9. Und es hat auch die Klimadebatte radikalisiert. Katastrophismus auf der linken Seite und Nichts-Wissen auf der rechten Seite schaukelten sich gegenseitig hoch. Wie @atrembath und ich selbst im vorigen Jahr geschrieben haben, sammeln sich die Vorteile dieses Tuns primär bei Gegnern von Maßnahmen.

[hier]

10. Können wir den Geist der Polarisierung zurück in die Flasche drücken, auf Klima oder irgendetwas anderes beschränken? Ich weiß es wirklich nicht. Aber ich frage mich, wie diese Befürwortung der weiteren Radikalisierung der Klima-Debatte jemals enden soll.

11. Noch radikalere Forderungen zu erheben mag eine gute Strategie sein, wenn es denn jemanden gäbe, mit dem man verhandeln könnte. Aber beim Betrachten der prominentesten Klima-Falken gibt es niemanden.

12. Auch scheint es nicht so, dass eine breitere Klima-Koalition größere Mehrheiten im Kongress zustande bringt. Jede Klima-Strategie der Demokraten allein muss nicht nur auf gewinnen wollen fußen, sondern auch auf das Halten roter Bereiche über multiplen Wahlen.

13. Dies sind genau die Bereiche, welche die radikalisierte Klima-Rhetorik kulturell gegen sich aufbringt und welche die grüne Politik-Agenda ökonomisch bestrafen. Seit dem Scheitern von cap and trade im Jahre 2010 haben die Klima-Aktivisten die Rhetorik auf 11 [?] gebracht, und was ihnen das eingebracht hat, war Trump.

14. Ich mache mir keine Illusionen, viele der Befürworter dieser Strategien überzeugen zu können. Aber ich hoffe doch, dass wir herausfinden können, wie wir eine zivilisiertere Diskussion über unsere Differenzen führen können.

15. Meiner Ansicht nach muss dies damit beginnen, wie wir über Wissenschaft reden. Man sollte unterscheiden. Klimawissenschaftler sind auch engagierte Bürger. Und sie bringen bedeutendes Expertenwissen mit, welches einer Überlegung wert ist. Aber das ist nicht das Gleiche wie Wissenschaft, geschweige denn wie Konsens-Wissenschaft.

16. Klimaaktivisten haben jedes Recht, hinsichtlich des Potentials für katastrophale Klima-Auswirkungen alarmiert zu sein. Aber das ist nicht Konsens-Wissenschaft. Es gibt keine Konsens-Wissenschaft, welche konsistent ist mit zurückhaltenden Ansichten [lukewarmist views].

17. Und schließlich, Abschwächung ist schwierig nicht einfach, und bringt wirklichen Menschen Nachteile, nicht nur den Koch Brothers und anderen Gemeinschafts-Dämonen. Niemand weiß um die Durchführbarkeit sozio-technologischer Wege. Mehr Bescheidenheit hinsichtlich von Lösungen würde den Bemühungen zur Klima-Abschwächung sehr nützen.

Kommentar von JC dazu: Nun, es gibt sicher einige sehr vernünftige Stimmen da draußen. Man kann nur hoffen, dass die Extremisten auf beiden Seiten aufhören, diese zu dämonisieren und dass sie diese hören.

Link: https://judithcurry.com/2018/06/10/voices-of-reason-in-the-climate-wars/

Übersetzt von Chris Frey EIKE




AfD Abgeordnete führen Ministerin Schulze vor – Auf klare einfache Fragen nur verschwiemelte, ausweichende Antworten

Svenja Schulze, als ehemals freiberufliche Werbe – und PR  Expertin (Wikipedia)  nie um eine -und sei sie auch noch so abwegig- Phrase verlegen, zeigt wieder einmal worauf es beim „MinisterIn“ werden ankommt. Auf Kommando, oder auch ohne, sinnfreies Bla, bla, bla abzusondern – frisch vom Phrasengenerator memoriert- aber auf keinen Fall eine sachliche Frage sachlich zu beantworten. Dafür wären ja Fachkenntnisse nötig, die bei einer solche Laufbahn nur stören und daher unbedingt zu vermeiden sind.

Daher gilt es für diesen Job als Auswahlkriterium Nr. 1, möglichst keinerlei Ahnung vom Fach und seinen Themen zu haben, aber stramm  der Partei-Ideologie zu folgen, der man verpflichtet ist.

Diese besondere Eignung der MinisterIn Svenja Schulze wurde einmal mehr durch 3 Abgeordnete der AfD gefordert, die anlässlich der aktuellen Frage-Stunde zur Vorstellung, des in allen Bereichen seine Ziele verfehlten, „Klimaschutzberichtes“ (hier) der deutschen Bundesregierung, auf vier klar formulierte Fragen, einfache klare Antworten erbaten.

Sehen Sie selbst.

 

Video nicht mehr verfügbar

Videoausschnitt (Originalquelle PHOENIX) mit Fragen der AfD Abgeordneten Steffen Kotré, Karsten Hilse und Dr. Rainer Kraft an die Bundesumweltministerin Svenja Schulze anlässlich der Vorstellung des jährlichen „Klimaschutzberichtes“ der Bundesregierung am 13.6.18 im Bundestag  

Einige Stilblüten der MinisterIn Svenja Schulze aus der Fragerunde:

Auf die Frage (samt Nachfrage Min. 2:30) des Abgeordneten Steffen Kotré, ob die Regierung Beweise dafür hätte, dass das menschgemachte CO2 ursächlich für die Erwärmung nach der kleinen Eiszeit verantwortlich sei:

Antwortete Frau S. Schulze u.a.

„Wir werden uns darauf vorbereiten, dass es Klimaschutzveränderungen (Minute 1:30) gibt“

„Wir haben einen Klimawandel und wir müssen etwas dagegen tun“.

Lt. Abgeordneten Karsten Hilse (ab 3:20) folgt das IPCC einer Ideologie (3:52).

Dagegen verwahrte sich die MinisterIn ausdrücklich und nahm die „Forscherinnen und Forscher“ des IPCC vehement in Schutz (ab 4:28), die

„…betrieben ganz im Sinne ihrer Wissenschaft ihre Forschungen“.

Beifall von den völlig ideologiefreien GrünInnen und anderen im Saal

Um der MinisterIn etwas Nachhilfe zu erteilen hilft es sich mal wieder den Auftrag des IPCC und damit seiner „Forscherinnen und Forscher“ in Erinnerung zu rufen . (Hervorhebungen von mir)

Zum IPCC Mandat:

The IPCC does not conduct any research nor does it monitor climate related data or parameters. Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change, its observed and projected impacts and options for adaptation and mitigation.

 

Das IPCC führt keine Forschung durch oder überwacht klimabezogene Daten oder Parameter. Seine Rolle besteht darin, auf einer umfassenden, objektiven, offenen und transparenten Grundlage die neueste wissenschaftliche, technische und sozioökonomische Literatur zu bewerten, die weltweit für das Verständnis des Risikos des vom Menschen verursachten Klimawandels, seiner beobachteten und prognostizierten Auswirkungen und seiner Anpassungs- und Vermeidungsoptionen relevant ist.

 

Nichts anderes dürfen die IPCC „Forscherinnen und Forscher“ als den „vom Menschen verursachten Klimawandel“ erforschen. Sie finden zwar dafür keinen Beweis, aber dann haben sie eben nicht lange und intensiv genug geforscht. 

Denn, damit auch gar nichts schief geht, bei der Erfüllung des Auftrages an die „Forscherinnen und Forscher“ die Gefahr des menschgemachten Klimawandels um jeden Preis nachzuweisen, hat sich die Mutterorganisation des IPCC, die UN in ihrer UNFCC (United Nations Frame Work Convention on Climate Change) Rahmenvereinbarung, beeilt zu definieren, was das Wort „Klimawandel“ nach ihrem Verständnis nur sein darf:

A change of climate which is attributed directly or indirectly to humanactivity that alters the composition of the global atmosphere andwhich is in addition to natural climate variability observed over comparable time periods.

 

Ein Wandel des Klimas, der direkt oder indirekt auf menschliche Aktivitäten zurückzuführen ist,verändert die Zusammensetzung der globalen Atmosphäre und wird zusätzlich zur natürlichen Klimavariabilität beobachtet über vergleichbare Zeiträume

 

Wann immer man also vom „Klimawandel“ spricht oder schreibt ist damit ausschließlich der menschgemachte Klimawandel gemeint. An etwas anderem darf das IPCC und seine „Forscherinnen und Forscher“ überhaupt nicht forschen. Hier einige weiterführende Erläuterungen zu den völlig schwammigen Grundlagen auf denen das IPCC – per Definition völlig „ideologiefrei“ versteht sich- seine Forschungen aufbaut

Auf den (erneuten) Hinweis von K. Hilse (Minute 4:00) , dass die deutsche Anstrengung bei völliger Dekarbonisierung des Landes, nur eine Minderung hypothetischer zukünftiger Erwärmung um 0,00065 ° C zu Folge hätte, ging die MinisterIn überhaupt nicht ein, sondern schwärmte von der deutschen Vorreiterrolle als führender Techniklieferant.

Wohl dem Lande, das solche MinisterInnen hat.

 

 

 




Das IPCC: Niemals wurde mit so wenig Wissen von so Vielen so viel ange­richtet zu so gewal­tigen Kosten

Man kann sich irgendein Segment des Kohlenstoff-Zyklus‘ herauspicken, welches sie in Abbildung 1 zeigen (ihre Abbildung 6-1 im 5. Zustandsbericht). Keines davon basiert auf tatsächlichen Messungen, also realen Daten. Alles ist nichts als eine Schätzung und kann noch nicht einmal als vernünftige Vermutung durchgehen:

Abbildung 1

Sie erklären dazu:

Zahlen repräsentieren die Größe des Reservoirs, auch ,Kohlenstoff-Speicher‘ genannt PgC (1 PgC = 1015 gC) sowie jährliche Flüsse des Kohlenstoff-Austauschs (in PgC yr–1).

Was sie sagen sollten ist, dass jede einzelne Zahl eine sehr grobe Schätzung ist, verzerrt, um ihre Behauptungen einer unbewiesenen Hypothese zu stützen, der zufolge menschliches CO2 die globale Erwärmung AGW verursacht. Sie müssen in aller Klarheit sagen, dass sie keine tatsächlichen Messungen von irgendwas haben, es gibt keine realen Daten. Sie zeigen lediglich einen sehr vagen Hinweis in Box 2.1 „Unsicherheiten bei Messaufzeichnungen“ in Kapitel 2 des Physical Science Basis Report, aber das ist irreführend und lenkt vom eigentlichen Thema ab.

Die große Mehrheit historischer (und aktueller) Wetterbeobachtungen waren nicht dazu gedacht, zum Zwecke des Klima-Monitoring herangezogen zu werden.

Also sind sogar die Wetterdaten ungeeignet oder unangemessen. Sie müssen auch sagen, dass von den anderen Daten praktisch kein einziges existiert.

Die schwarzen Zahlen repräsentieren die geschätzte Reservoir-Masse und die Austausch-Flüsse für die Zeit vor der industriellen Ära (1750). Das für sich ist schon lächerlich. Sogar heute noch haben wir keine Ahnung von den wirklichen Reserven fossiler Treibstoffe. Saudi Arabien hat es permanent abgelehnt, Auskunft über das Niveau seiner Reserven zu geben. Man würde denken, dass Leute aus der Limits to Growth crowd aus ihrer gescheiterten „Peak Oil“-Kampagne gelernt haben würden, dass man sich auf keine globale Ressourcen-Statistik verlassen darf. Ein Standardprojekt in meiner Vorlesung über Geopolitik war es für die Studenten, die Reserven fossiler Treibstoffe in Kanada und der Welt zu bestimmen. Sie waren fassungslos durch die Bandbreite der Zahlen, auf die sie stießen. Wenn man sich vor Augen führt, dass die beiden vermeintlich genauesten Schätzungen der Weltbevölkerung (aus den USA und von den UN) um fast 6 Millionen Menschen differieren (2011) bekommt man eine Ahnung von der Größenordnung des Problems. Wir haben heute nicht einmal ansatzweise genaue Schätzungen, geschweige denn von vor 268 Jahren. Aber genau diese Menschen sind es, die uns mit einem ängstigenden und vollkommen ungerechtfertigten Grad an Sicherheit mitteilen, dass sie genau wüssten, welche Temperatur global im Jahre 1750 geherrscht hatte.

Ich will hier nur ein Segment des Diagramms betrachten mit der Bezeichnung Vegetation und soils [Böden]. Ich unterstelle, dass mir niemand eine Schätzung der Ausdehnung der Wälder der Welt im Jahre 1750 geben kann mit einer Genauigkeit von nur 20%. Aber genau das ist es, was das IPCC tut.

Das terrestrische Biosphären-Reservoir enthält Kohlenstoff in organischen Verbindungen lebender Biomasse der Vegetation (450 bis 650 PgC; Prentice et al., 2001) und in totem organischen Material in Abfall und Böden (1500 bis 2400 PgC; Batjes, 1996).

Man beachte, das war zum Höhepunkt der Kleinen Eiszeit LIA. Meine Forschungen für das zentrale Kanada auf der Grundlage genauer Karten zeigten, dass sich die Baumgrenze am Nordrand des borealen Waldes zwischen 1772 und 1972 um rund 200 km verschoben hat. Dies ist eine Bewegung von 1 km pro Jahr in einer der härtesten Wachstums-Bedingungen der Welt. Die Verschiebung repräsentiert außerdem eine massive Steigerung der Biomasse nur bei dieser Art der Vegetation.

Eine der großen natürlichen Paradoxa ist, dass der tropische Regenwald auf mit den nährstoffärmsten Böden der Welt wächst. Dass Verständnis, warum das so ist, unterstreicht, warum die IPCC-Behauptungen fälscher nicht sein können. Die meisten Menschen wissen, dass es zwei grundlegende Klassifizierungen aller Bäume gibt – Nadelbäume und Laubbäume; mal mit, mal ohne Laub. Der tropische Regenwald ist beides. Er steht niemals ohne Laub da, aber Blätter fallen ununterbrochen und werden sofort durch neue Blätter ersetzt. Ohne diesen Umstand könnte der Wald nicht existieren. Klimatisch gesehen gibt es eine jährliche Niederschlagsmenge von 2000 mm oder mehr bei einer Mitteltemperatur, die das ganze Jahr über zwischen 20°C und 30°C liegt.

Diese Bedingungen waschen die meisten Mineralien aus dem Boden und lassen nur Eisen und ein wenig Aluminium zurück. Dies sind die roten Laterit-Böden* tropischer Regionen (Abbildung 2). Rodet man den Wald, so dass der Boden frei liegt, wird er entweder durch die schweren tropischen Regenfälle rasch erodiert oder unter der tropischen Sonne steinhart gebacken.

[Wer es genauer wissen will: Zu Laterit steht hier bei Wikipedia mehr, sofern man Wikipedia trauen kann. Anm. d. Übers.]

Abbildung 2: Laterit

Im Grunde existiert der Regenwald nur, weil er sich selbst immer wieder erneuert. Die Blätter fallen kontinuierlich und verrotten rasch, um den Bäumen wieder Nährstoffe zuzuführen. Die beiden größten natürlichen CO2-Quellen sind die Ozeane und die verrottende Vegetation, das tote organische Material beim IPCC. Es gibt eine verstörende Analogie zum IPCC-Verfahren in dieser Sequenz. Sie produziert verrottende Daten, mit denen es sich immer wieder erneuert.

Die Menschen in den tropischen Regenwäldern praktizieren eine einheitliche Landwirtschaft, welche den Prozess beschreibt: „slash and burn“ [einschlagen und verbrennen]. Sie roden eine kleine Fläche und verbrennen das Material, um ausreichend Mineralstoffe für ein paar Jahre Getreideanbau betreiben zu können. Dann geben sie das Gebiet auf und lassen die Vegetation auf der geringen Menge zurück gebliebener Mineralien sich regenerieren. Im 20. Jahrhundert scheiterten drei Experimente der Einführung einer großräumigen Landwirtschaft in den tropischen Regenwäldern, hauptsächlich weil man die unerbittliche Unfruchtbarkeit des Bodens ignoriert hatte.

Das erste Experiment war das von Henry Ford, Gummibäume auf Plantagen in Brasilien anzubauen. Im Zentrum dieser Bemühungen lag eine Gemeinde namens Fordlandia. Das zweite gescheiterte Experiment ist bekannt unter der Bezeichnung Groundnut Scheme [Erdnuss-Schema. ,Groundnut‘ ist britisches Englisch für das amerikanische ,peanut‘. Anm. d. Übers.]. Darin involviert war ein Plan der britischen Regierung, die Versorgung mit dem wichtigsten landwirtschaftlichen Produkt der Welt sicherzustellen – Pflanzenöl. Das Experiment begann in Tanganjika (heute Tansania) und dauerte zehn kurze Jahre. Es scheiterte ebenfalls wegen des nährstoffarmen Bodens. Das dritte gescheiterte Experiment beruhte auf einer Idee des amerikanischen Milliardärs Daniel Ludwig. Er glaubte, dass die Kaltklima-Wälder nicht den Bedarf für Papier aus Holz decken konnten. Also veranlasste er eine Anpflanzung einer rasch wachsenden Baumsorte rund um eine Stadt namens Jari, ebenfalls im Amazonas-Becken.

Hier folgt ein Zitat aus einem im Jahre 2017 veröffentlichten Artikel, in dem atemlos verkündet wird:

Eine von brasilianischen und britischen Forschern durchgeführte, in Nature veröffentlichte Studie zeigte, dass Sumpfgebiete im Amazonas-Regenwald Jahr für Jahr zwischen 15 und 20 Millionen Tonen Methan produzieren – das Äquivalent aller Ozeane zusammen.

Hat das IPCC jene Daten bis zum Niveau des Jahres 1750 zurück extrapoliert? Natürlich nicht! Wie die freigesetzte CO2-Menge durch verrottende Vegetation im Amazonas-Regenwald ist es nichts als eine weitere riesige Unbekannte. Die vom IPCC angeführten Zahlen für CO2 aus den Ozeanen und verrottende Vegetation weisen einen Fehlerfaktor auf, der jeder für sich weit über die gesamte menschliche Produktion hinausgeht. Aber dennoch behauptet es, dass die jährliche Zunahme von CO2[-Emissionen?] – nach seinen eigenen Worten – sehr wahrscheinlich (90 bis 100%) für die Zunahme des atmosphärischen CO2 seit 1950 ursächlich ist. Das passt sehr gut zum Trend des Mauna Loa, aber die Messungen und die verwendete Instrumentierung werden von der Keeling-Familie patentiert und kontrolliert, zuerst der Vater und jetzt der Sohn. Diese Messungen sind die Quelle des vom IPCC herangezogenen atmosphärischen CO2-Niveaus. Der Vater war ein glühender Anhänger des Glaubens an das menschliche CO2 als Ursache der Erwärmung, und der Sohn ist Mitglied des IPCC. In einem perversen Twist zur Sicherstellung der Qualität falscher Daten erzeugt das IPCC seine eigenen Schätzungen der jährlichen Erzeugung von menschlichem CO2.

Falls die Ozeane wirklich die hauptsächliche Quelle und Senke für atmosphärisches CO2 sind, warum zeigen sich dann die warmen El Nino-Ereignisse nicht in den Mauna Loa-Aufzeichnungen? In einer Story aus dem Jahr 2015 über El Nino heißt es:

El Nino spielt in diesem Jahr bei vielen Dingen eine Rolle: Nicht nur, dass das Ereignis dazu beiträgt, das Jahr 2015 zum wärmsten Jahr jemals zu machen, sondern auch, dass es eine zentrale Rolle bei der Hurrikan-Aktivität im Pazifik spielt. Außerdem trägt es zu einem wesentlichen weltweiten Korallensterben bei.

Nichts davon hat sich als korrekt erwiesen.

Dem Vernehmen nach war es im Jahre 1998 zu einem starken El Nino gekommen, welcher die globalen Temperaturen auf einen Höhepunkt seit instrumentellen Aufzeichnungen hat steigen lassen. Warum aber zeigt sich diese Wärmespitze nicht in den Aufzeichnungen des Mauna Loa, während doch die jahreszeitliche Variation der Vegetationsbedeckung so klar zum Ausdruck kommt? (Abbildung 3):

Abbildung 3

Man beachte, dass die Quelle dieser Abbildung das Scripps Institute of Oceanography ist. Dort beschäftigt ist auch der Patentinhaber des Mauna Loa Ralph Keeling und des Befürworters des AGW-Alarmismus‘ Naomi Oreske (Abbildung 4). Wo ist die Reflektion der CO2-Zunahme infolge der dramatischen Ozeanerwärmung, verursacht durch den El Nino?

Abbildung 4: Keeling, Oreske und Talley, photographiert bei Scripps nach der Nominierung zum Nobelpreis (Quelle)

Die gesamte AGW-Hypothese ist der größte Betrug der Geschichte. Es kommt nicht überraschend, dass sie auf dem größten Betrug hinsichtlich tatsächlicher Daten beruht. Die offene und eklatante Repräsentation aller Daten in den IPCC-Berichten als reale Daten ist weit mehr als nur beschämend.

Es ist angemessen, dass der 5. IPCC-Zustandsbericht einen Nachruf auf Stephen Schneider enthält. Er versuchte erstmals, den Gedanken zu rechtfertigen, dass Unehrlichkeit eine Voraussetzung war, um die falsche Story über AGW in Umlauf zu bringen. Er hatte im Jahre 1989 ausgeführt:

Einerseits sind wir als Wissenschaftler ethisch der wissenschaftlichen Methode verpflichtet, die Wahrheit zusagen, die ganze Wahrheit und nichts als die Wahrheit. Das bedeutet, dass wir alle Zweifel, Schwächen, Unsicherheiten usw. ansprechen müssen. Andererseits sind wir aber nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen wollen wir die Welt zu einem besseren Ort machen, was in diesem Zusammenhang bedeutet, dass unsere Arbeit darauf ausgerichtet sein muss, das Risiko eines potentiell gefährlichen Klimawandels zu reduzieren. Um das zu erreichen müssen wir uns um breit angelegte Unterstützung kümmern, um der Vorstellung der Öffentlichkeit zu genügen. Das bedeutet natürlich auch eine umfangreiche Berichterstattung in den Medien. Also müssen wir ängstigende Szenarien an die Wand malen; vereinfachende und dramatische Erklärungen abgeben und nicht die Zweifel ansprechen, die wir vielleicht haben. Diese ,doppelte ethische Bindung‘, in der wir uns immer wieder befinden, kann nicht mittels irgendeiner Formel gelöst werden. Jeder von uns muss für sich entscheiden, welches das richtige Gleichgewicht ist zwischen ehrlich und effektiv zu sein. Ich hoffe, dass beides der Fall ist.

Der vorletzte Satz ist falsch, genau wie die Daten des IPCC. Was er in Wirklichkeit meint ist, dass falls man Klimawissenschaft studiert, man sich entscheiden muss ob man ehrlich oder unehrlich sein will. Wir wissen aufgrund der als realistische Daten präsentierten unrealistischen ,Daten‘, für was sie sich entschieden haben.

Link: https://wattsupwiththat.com/2018/06/the-ipcc-never-has-so-much-been-made-out-of-so-little-by-so-many-at-so-great-a-cost/

Übersetzt von Chris Frey EIKE




Trockengelegte (meliorierte) Moore sind keine klimarelevantes CO2 -Emittenten!

Seinen Aussagen zufolge sind die trockengelegten Moore mit jährlich mehr als 6 Millionen Tonnen CO2, entsprechend 77 % des aus dem Ackerbau stammenden CO2,  die größten Treibhausgasquellen in Mecklenburg-Vorpommern. Diese Aussage, die sich auf 300.000 ha Niedermoor mit einer unterstellten CO2-Emission von 20 t CO2/ha und Jahr bezieht, ist falsch, wissenschaftlich nicht nachvollziehbar, eine Fiktion mit schlimmen Folgen!

Allein die Mengenangabe – 20 t CO2  Emission/ha und Jahr – ist absurd! Das würde chemisch gesehen bedeuten, dass  5,45 t Kohlenstoff mit 14,55 t Sauerstoff (= 10,2 Mill l Sauerstoff bzw. 48,6 Mill. l Luft) im Moorboden oxydiert werden müssten! Um es zu verdeutlichen, es müssten vergleichsweise im feuchten Moorboden unter einer geschlossenen Grasnarbe in der Wachstumsphase in den Sommermonaten Kohlenstoffmengen in der Größenordnung eines hohen Weizenertrages (90 dt Korn und 40 dt Stroh/ha) „verbrannt“ werden!?

Klimarelevant, vergleichbar mit Benzin-, Kohle- und Erdgasverbrennung, wäre nur das CO2, das durch Oxydation des fossilen Moorkohlenstoffs entsteht. Dieser postglazial (nacheiszeitlich)  durch Inkohlung entstandene amorphe Moorkohlenstoff, der die Schwarzfärbung des Moorbodens bedingt, oxydiert – ebenso wie Kohle – nicht bei bloßer Gegenwart von Luft/Luftsauerstoff. Andere, noch zu CO2 umsetzbare fossile Pflanzenreste sind unbedeutend, benötigen ebensovielmal Sauerstoff wie direkte Kohlenstoffverbrennung  und tendieren infolge nicht vorhandener Nachlieferung ohnehin mit der Bewirtschaftungsdauer gegen Null.
Alles andere CO2, das durch Atmung der oberirdischen und unterirdischen lebenden Pflanzenteile (und Tiere) oder durch Umsetzung abgestorbener Biomasse (Wurzelmasse, tote Tiere usw.) entsteht, entstammt zuvor der Atmosphäre und ist Bestandteil des erwünschten und unser Leben garantierenden Kohlendioxydkreislaufes.
Im Gegensatz zur „Verteufelung“ sind insbesondere mit Kulturgräsern als Grasland genutzte Niedermoore bei an Winter-, Bearbeitungs-, Wachstums-  und Erntephasen angepasster Regulation des Wasserstandes besonders ertragsreiche und ertragssichere landwirtschaftliche Nutzflächen mit hoher Bindung von atmosphärischem CO2(12 – 25 t CO2-Äquivalente/ha und Jahr) für produktive Zwecke (Futter-, Energie oder Rohstoffgewinnung). Diese Flächen emittieren keine nennenswerten Mengen klimarelevantes CO2, im Gegenteil, sie haben eine hohe positive ökologische CO2-Bilanz! Diese Nutzungsform ist zugleich der beste Moorschutz, d.h. der Schutz durch sinnvolle Nutzung!

Der eigentliche Wissenschaftsskandal ist, dass „Moorschützer“ die nutzbringende CO2-Bindung im Grünmasseertrag als „Emission“ definieren und haben damit – den Selbstzweck bedienend –  Behörden und Zuwendungsgeber mit bewusst falschen Emissionswerten fehlgeleitet. Im Analogieschluss wäre die land- und forstwirtschaftliche Pflanzenproduktion Emission und müsste renaturiert/vernichtet werden!
Diese „Emission“, den Grünmasseertrag und damit die Wertschöpfung durch CO2-Akkumulation,  hat man in MV auf mehreren Zigtausend Hektar mit Steuer- und Fördermitteln durch erzwungene Wiedervernässung, die sogenannte Renaturierung, nachhaltig beseitigt. Aus ökologischer Sicht wurden  zudem die bedeutende Freisetzung von Sauerstoff zur Regeneration der Atmosphäre, die entwässernde Transpiration und Gewässerreinigung durch Ernteentzug vereitelt und die klimaschädliche Methanemission reaktiviert, sodass Renaturierungsflächen durch die hohe atmosphärische Wirkung des emittierten Methans nicht nur eine hohe negative ökologische Bilanz ausweisen, sondern sind darüber hinaus durch die Zerstörung der Kulturlandschaft und des Lebensraums ein landeskultureller Frevel.

Renaturierung bewirkt im Gegensatz zu Behauptungen keine „Einsparung“ an klimarelevantem CO2 und der CO2-Ablasshandel mit „MoorFutures“ ist Betrug am Käufer, an der Gesellschaft und an der Natur!

Wenigstens ist zu begrüßen, dass der Agrar- und Umweltminister – wenn auch nicht aus Erkenntnis – so doch aus ökonomischen Zwängen diese Niedermoorflächen nicht mehr aus der Nutzung nehmen und der Sukzession anheim fallen lassen kann.

Literatur
http://www.eike-klima-energie.eu/climategate-anzeige/renaturierung-von-mooren-eine-fiktion-mit-verheerenden-folgen/
http://www.eike-klima-energie.eu/climategate-anzeige/die-oekologischen-leistungen-des-kulturpflanzenbaus-und-der-renaturierungsflaechen/

Dr. agr. Arthur Chudy

Lebensraum Peenetal e.V.

achudy@aol.com




Von Frauen, die sich entschließen keine Kinder zu bekommen – um den Planeten zu retten

ANTONIA HOYLE

Oonagh Dalgliesh gibt als erstes zu, dass sie gerne schwanger wäre. Sie ist verzaubert von der Idee, ein Baby aufwachsen zu sehen, dieses erste schiefe Lächeln zu bewundern, diese zaghaften ersten Schritte und die jungen Versuche der Unabhängigkeit, die die Herzen der meisten Mütter zum Schmelzen bringen.

Trotzdem hat sie beschlossen, dass sie nie die Freude erleben will, schwanger zu sein.

Mit 32 ist Oonagh sicher im gebärfähigen Alter. Mit einem gut bezahlten Job als Eventmanagerin ist sie finanziell solvent. Und seit einem Jahr hat sie eine ernsthafte Beziehung zu einem Mann, der sich danach sehnt, Vater zu werden.

Was hat diese wichtige Entscheidung ausgelöst? Einfach ausgedrückt? Ihr Wunsch, den Planeten zu retten.

„Der Mensch ist der größte Einzeltreiber für den Klimawandel und die Treibhausgasbeiträge, für die Entwaldung und den Säuregehalt der Ozeane“, erklärt sie ernst. „Das einzige, was diese Probleme beheben wird, ist, dass weniger Menschen auf dem Planeten leben. Ich sehe es als nicht gerechtfertigt an, mehr Menschen heranwachsen zu lassen, als wir bereits haben. Ja, ich habe einen mütterlichen Instinkt, aber ich werde meine Meinung nie ändern.

Drastisch? Vielleicht. Aber so erstaunlich, wie es klingt, ist Oonagh eine von vielen britischen Frauen, die sich dafür entscheiden, kinderfrei zu bleiben, nicht wegen Karrierewünschen oder der Unfähigkeit, einen Partner zu finden, sondern weil sie wegen der lähmenden Auswirkungen der Überbevölkerung auf die Erde besorgt sind.

Verrückt? Sie dagegen fordern Sie auf, die Fakten zu berücksichtigen. Die Weltbevölkerung wächst alle 12 bis 15 Jahre um eine weitere Milliarde.

Bis zum Jahr 2050 soll die Menschheit um weitere 30 Prozent zugenommen haben.

Während ein Großteil der Bevölkerungsexplosion in Entwicklungsländern stattfindet, wo Mangel an Verhütungswissen und Ausbildung bedeutet, dass Frauen mehr Kinder haben, ist das Thema hier in Großbritannien genauso drängend.

Ihr Beweis? Im vergangenen Jahr verzeichnete die Bevölkerung Großbritanniens den stärksten Anstieg seit fast 70 Jahren.

Obwohl das Amt für nationale Statistiken sagte, dass die internationale Nettozuwanderung der Hauptantrieb für das Wachstum war, gab es auch einen Anstieg der Geburten und weniger Todesfälle. Mit unserem starken Verbrauch fossiler Brennstoffe wie Benzin, Kohle und Gas, so argumentieren sie, nutzen wir derzeit fast das Dreifache der erneuerbaren Ressourcen, die unser Land zur Verfügung stellen kann.

Wir sind auch eines der am stärksten naturbelasteten Länder in Europa und verlieren viele Arten von Wildtieren, über dem globalen Durchschnitt.

Außerdem werden wir daran erinnert, dass wir 200.000 neue Häuser pro Jahr brauchen, um die Anforderungen unserer wachsenden Bevölkerung zu erfüllen, und erstaunlicherweise liegt der dicht besiedelte Südosten Englands an 161ter Stelle von 180 Gebieten weltweit in Bezug auf seine Fähigkeit, ausreichend Wasser für seine Bewohner zu liefern.

Die britische Wohltätigkeitsorganisation Population Matters führt die Kampagnen für das heikle Thema der Bevölkerungskontrolle an.

Sie hat derzeit Tausende von Mitgliedern in Großbritannien und auf der ganzen Welt, mit hochkarätigen Schirmherren – darunter Sir David Attenborough, TV-Naturforscher Chris Packham und der kinderlose Autor Lionel Shriver – die das Wort über die Gefahren der Fortpflanzung auf dem Planeten verbreiten.

Natürlich ist die Weltuntergang – Panikmache zum Bevölkerungswachstum nichts Neues.

Thomas Malthus, ein anglikanischer Geistlicher aus dem 18. Jahrhundert, glaubte, dass eine Bevölkerungsexplosion die Welt einer Hungersnot und einem Desaster aussetzen würde. Die Bevölkerung würde sich alle 20 Jahre verdoppeln, bis die Menschen nicht mehr in der Lage wären, Lebensmittel schnell genug zu produzieren, um sich zu ernähren.

Malthus ‚Theorie, die auf der falschen Annahme basiert, dass die Zahlen stetig und gleichmäßig wachsen, wurde seitdem von Ökonomen diskreditiert, die die industrielle Revolution als Rettung vor dem von ihm vorhergesehenen Untergang bezeichneten. Technologische Innovationen ermöglichten es der modernen Gesellschaft, sich mit ausreichenden Ressourcen auszustatten.

Aber das Problem wird nicht verschwinden. Eine Reihe von Websites, die das Problem der Überbevölkerung thematisieren, sind ebenfalls in den letzten Jahren entstanden, wobei Gespräche mit jungen britischen Männern und Frauen geführt wurden, die es ernst meinen mit ihrem Wunsch, durch die Zeugung nicht zur Belastung des Planeten beizutragen.

In diesen Foren bekennen viele, dass ihre Familien, Freunde und oft auch Partner von ihrer Entschlossenheit enttäuscht sind, keine Familie zu haben.

Es ist zweifellos ein emotionales und spaltendes Problem, aber Oonagh ist entschlossen.

Als engagierte Vegetarierin wurde sie von ihrer Mutter, einer Sonderschullehrerin und ihrem Vater, einem Personalsachbearbeiter, „grün“ erzogen.

Sie entschied, dass sie nach dem Studium von Klimawandel und Energiemanagement an der Universität von West England keine Kinder haben wollte.

„Die Wissenschaft, dass Überbevölkerung den Planeten schädigt, war vorhanden und sobald ich es gelernt hatte, konnte ich nichts anderes tun, da ich wusste, dass es richtig war“, sagt Oonagh aus Bristol.

So überzeugt war sie, dass sie mit ihren späten 20ern begann, die Möglichkeiten zu untersuchen, sich sterilisieren zu lassen.

„Der NHS [staatliche Gesundheitskasse] wird für mich nichts tun, weil sie nicht akzeptieren können, dass ich meine Meinung nicht ändern werde“, sagt sie.

„Die Leute sind überrascht, eine junge Frau zu sehen, die sich so sicher ist, dass sie keine Kinder will. Ich habe meine Gründe nicht genannt – ich denke nicht, dass ich es sollte. „

Jetzt in ihren 30ern, ist sie entschlossen, dem Wunsch nach Kindern nicht nachzugeben, trotz der Tatsache, dass alle ihre Freunde Babys haben.

Aber ihr Freund des vergangenen Jahres, ein 33-jähriger Ingenieur – der, wie sie zugibt, „einen noch größeren Kinderwunsch hat“ als sie – teilt ihre Umweltanliegen nicht.

Wie um alles in der Welt, denkt sie daran, diese heikle Frage zu bewältigen?

„Ich bin mir wirklich nicht sicher“, gibt sie zu, obwohl Adoption eine Möglichkeit sein könnte. „Die Betreuung von Kindern liegt in meiner Natur und es gibt Kinder in Großbritannien ohne liebevolle Familie, deren Auswirkungen auf die Umwelt bereits in Stein gemeißelt sind.“

Was denkt sie über Frauen mit großen Familien?

„Vier oder fünf Kinder zu haben, ist unverantwortlich. Warum sollte man sich für das Recycling interessieren, wenn man fünf Kinder im Wert von Abfall aufzieht?

[Ja, so steht es tatsächlich im Original: „‘Why bother recycling if you’re consuming five kids’ worth of waste?“; der Übersetzer]

„Ich würde mir nicht anmaßen, den Leuten zu sagen, wie sie sich fühlen sollen, aber sie sollten mit dem Wissen über Probleme der Überbevölkerung ausgestattet werden. Ich denke, es gibt einen Mangel an Bewusstsein. Die Beziehung zwischen der Anzahl der Kinder und den Auswirkungen auf die Umwelt wurde ihnen nicht dargelegt.“

Die Anzahl der von britischen Frauen geborenen Kinder ist in den letzten Jahrzehnten zurückgegangen, von durchschnittlich 2,21 bei Frauen die 1944 geboren wurden, bis zu 1,90 für Kinder, die 1971 geboren wurden.

[Zur Info https://de.wikipedia.org/wiki/Liste_der_Länder_nach_Geburtenrate]

Ein Zustrom von Einwanderern im gebärfähigen Alter, die aus Kulturen stammen, in denen Familien tendenziell größer sind, und die Tatsache, dass wir alle länger leben, dürften unsere Bevölkerung von derzeit 65,6 Millionen auf über 70 Millionen steigern bis 2026.

Natürlich ist es nicht nur kontrovers, sondern nahezu unmöglich, Frauen vorzuschreiben, sich nicht fortzupflanzen.

„Man kann die Menschen nicht zwingen, keine Kinder zu haben und das würden wir auch nie tun“, sagt Population Matters Direktor Robin Maynard. „Es geht um positive Überzeugungsarbeit. Wir finden viel Resonanz bei der umweltbewussten Millennium-Generation, von denen viele sagen, dass sie sicherlich bei zwei Kindern aufhören werden. Das Wirkungsvollste was Sie tun können, um Ihren ökologischen Fußabdruck zu reduzieren, ist, ein Kind weniger zu haben.“

  * * *

Aber Experten, die sich gegen Bevölkerungswachstum einsetzen, müssen auch dem Stigma begegnen, dass Frauen, die sich entschließen, keine Kinder zu haben, irgendwie selbstsüchtig sind – ein Stereotyp, den Anna Hughes, 35, zurückweist.

„Man könnte sagen, ich bin selbstlos, wenn ich keine Kinder will, aber ich trage nicht zur Überbevölkerung bei. Das erleichtert es Ihnen und Ihren Kindern, einen Platz in der Kita zu bekommen“,

sagt Anna, eine Ausbilderin fürs Radfahren, wurde mit „Respekt vor der Umwelt“ erzogen und erkannte Anfang 20, dass sie, obwohl sie eine von vier Schwestern mit zwei Nichten und drei Neffen ist, selbst keine Kinder haben will.

„Wir verwenden mehr Ressourcen, als die Erde bereitstellen kann, und wir können nicht exponentiell expandieren – das ist einfache Mathematik“, so Anna, eine Veganerin, die Kleidung aus Wohltätigkeitsgeschäften kauft und in einem Hausboot an einem Kanal in Bath, Somerset, lebt, um ihren eigenen ökologischen Fußabdruck zu begrenzen.

Als sie ihren Freunden zum ersten Mal von ihrer Entscheidung erzählte, gingen sie alle davon aus, dass sie ihre Meinung irgendwann ändern würde – eine Reaktion, die sie bevormundend fand.

„Heute bin ich Mitte 30 und habe meine Meinung immer noch nicht geändert. Die meisten meiner Freunde bewundern mich jetzt, dass ich standhaft geblieben bin. Manche fragen, ob ich ihnen gegenüber kritisch bin, weil sie Kinder haben, aber sie verstehen meine Gründe.“

Es gab nur eine Beziehung, in der Annas Entscheidung, absolut keine Kinder zu bekommen, ein Problem war.

Das war mit einem Mann, mit dem sie zwei Jahre lang mit Mitte 20 zusammen war, und der glaubte, dass sie schließlich zustimmen würde, Nachwuchs zu bekommen. „Nein, wir haben uns getrennt“, sagt sie. Jetzt, als Single, würde sie sich gerne irgendwo niederlassen und hofft, dass ihre Weigerung, Mutter zu werden, ein Bonus ist.

„Heutzutage sind viele Männer, die ich treffe, geschieden und haben oft Kinder. Ich glaube also nicht, dass ich sie nicht nehmen würde. Es wäre schön, Kinder aufzuziehen. Aber sie müssen nicht mein eigenes Fleisch und Blut sein.

Ein Teil ihrer Argumentation dafür, dass sie keine Mutter wird, ist, dass sie fürchtet, welche Zukunft ihre Kinder haben würden, sollten die Auswirkungen der Überbevölkerung anhalten.

„Ich werde nicht mehr sein, bevor das einen wirklichen Einfluss hat, aber ich sorge mich um meine Nichten und Neffen. Wie wird ihre Zukunft sein? Es ist erschreckend.

Sicherlich hat sie Anlass zur Sorge. Aufgrund unserer schnell wachsenden Bevölkerung werden bis 2025 zusätzliche 750.000 Schulplätze in England benötigt.

Und laut den Vereinten Nationen ist England mit 410 Menschen pro Quadratkilometer bereits die am stärksten übervölkerte Nation in der EU.

[Zur Info: https://de.wikipedia.org/wiki/Bevölkerungsdichte]

 * * *

Für Helen Campbell, 40, aus Hay-on-Wye, Südwales, ist die Entscheidung, keine Kinder zu haben, mit ihrem Wunsch verbunden, ihren weniger umweltfreundlichen Aktivitäten entgegenzuwirken.

„Mein Mann Kenny und ich lieben Sportwagen, wir fliegen gerne in den Urlaub und leben in einem großen denkmalgeschützten Gebäude, das keine Doppelverglasung erlaubt. Das erhöht unseren Heizungsbedarf“, sagt Helen, die eine Firma besitzt, die Krüge mit lokalen Künstlern herstellt. „Es muss ein Gleichgewicht geben. Wir können nicht alles machen, was wir wollen, und es geht darum, was ich tun kann, um meinen Einfluss zu verringern.

„Menschen sind schlecht für die Umwelt und ich mag die Idee nicht, dafür verantwortlich zu sein, noch einen weiteren auf den Planeten zu bringen.“

Sie sagt, sie habe sich bereits entschieden, als sie Kenny, 50, einen Sportreporterin für die Formel 1, in der Mitte ihrer 30er traf.

„Freunde und Familie dachten, ich würde irgendwann diesen überwältigenden Drang nach Fortpflanzung verspüren, aber das habe ich nie“, sagt sie.

Sie gibt zu, Feindseligkeit über ihre Ansichten zu erleben. „Ich traf eine Frau bei einem Konzert, die sagte, sie sei „so egoistisch“gewesen wie ich, bevor sie ihren Sohn bekam.

„Eine andere Frau, mit der ich einmal gearbeitet habe, brach in Tränen aus, als ich sagte, dass ich nie Kinder bekommen will, weil sie es wollte aber selbst nicht schwanger werden konnte und daher meine Wahl nicht glauben konnte. Aber ich denke nicht, dass das was ich mache, schlecht ist.“

Ihr Mann Kenny, sagt sie, ist ähnlich eingestellt wie sie, zum Kinder bekommen.

„Für mich ist die Umwelt das große Thema, während für ihn seine anspruchsvolle Arbeit die Elternschaft unmöglich machen würde.“

 * * *

Joe Gray und seine Frau Romita, beide 36 und Absolventen der Cambridge University, lernten sich 2007 als Studenten kennen und heirateten später, bestehen ebenfalls darauf, dass sie kinderfrei bleiben werden.

Joe, ist ein medizinischer Redakteur in St. Albans, Hertfordshire, sagt, dass der Schaden, den die Menschen den Tierarten antun, der treibende Faktor bei seiner Entscheidung ist.

„Ich möchte der menschlichen Spezies nichts hinzufügen – jedes weitere Kind ist eine weitere Person, die Ressourcen verbraucht und mehr von dem schwindenden Raum für sich nimmt, der für die unberührte Natur übrig bleibt. Ich bin nicht anti-menschlich, aber es ist ethisch falsch, andere Spezies zum Aussterben zu treiben.

Seine Frau Romita, ist Gesundheitsökonomin und Diplom Naturwissenschaftlerin, ist ebenfalls besorgt über die Auswirkungen der Überbevölkerung auf die Menschen. Sie gibt zu, dass ihre Mutter ein wenig enttäuscht war von ihrer Entscheidung, keine Kinder zu haben, und dass sie, als sie 30 wurde, sich fragte, ob sie das noch einmal überdenken sollte.

Aber, nach ein paar Monaten wusste sie, dass sie die richtige Wahl getroffen hatte. „Ich würde mich so schuldig fühlen, ein anderes Kind zur Welt zu bringen, das die begrenzten Ressourcen aufbrauchen würde, es würde sich nicht positiv anfühlen.“

Joe gibt jedoch zu, dass er auf Unverständnis trifft. Wenn Leute mich fragen, warum ich keine Kinder habe, sage ich es ihnen. „Die Leute nehmen das Thema nicht ernst und ich werde angeschaut, als wäre ich eine Art Spinner, der will, dass die Menschen aussterben.“

„Dagegen, die Überbevölkerung ernst zu nehmen, bevor es zu spät ist, bietet den Schlüssel für eine langfristigen Zukunft der Menschheit.“

Und, die Vereinten Nationen argumentieren, wenn jede Familie in der Zukunft durchschnittlich ein halbes Kind weniger hätte, als derzeit prognostiziert, wird es bis zum Jahr 2050 eine Milliarde weniger Menschen geben, und bis zum Ende des Jahrhunderts vier Milliarden weniger.

„Wir müssen über die Auswirkungen nachdenken, die ein zusätzliches Kind auf Freunde, Familie und Nachbarn, auf die weitere Gemeinschaft und auf die Welt bedeutet“, sagt Maynard. „Es wird Zeit brauchen, aber wenn wir die Menschen dazu bringen würden, sich mit ein oder zwei Kindern zu beschränken, könnten wir uns auf eine nachhaltige Bevölkerung zubewegen.“

Gefunden auf The Daily Mail vom 8 Juni 2018

Übersetzt durch Andreas Demmig

http://www.dailymail.co.uk/femail/article-5819361/Women-refuse-babies-save-planet.html

* * *

Und hier als Kontrast für unsere Leser:

http://web.archive.org/web/20100531175731/http://www.pi-news.net/2010/05/elternquote-gefordert/




Die Sonne im April 2018: Klima­empfindlich­keit gegen­über CO2 und die Kohle­kommission

Sehr geehrte Damen und Herren,

leider komme ich urlaubsbedingt erst jetzt dazu, Ihnen über den April 2018 zu berichten. Die Sonne war auch im vergangenen April sehr wenig aktiv. An 16 Tagen war die Sonne vollständig fleckenlos; die Sonnenfleckenzahl des Monats betrug weniger als ein Drittel des zu Erwartenden.

In unserem März-Bericht hatten wir die neuesten Forschungsergebnisse zur Klimaempfindlichkeit gegenüber CO2 vorgestellt. Danach ist die Klimaerwärmung bis zu 45 % geringer als uns das IPCC und der mainstream der Klimawissenschaftler glauben lässt. Das Interessante aber war die Reaktion des mainstreams darauf: die Methoden der Arbeit von Curry und Lewis werden nicht angezweifelt. Aber es könnte ja sein,- so der mainstream – dass die Erde in der Zukunft ganz anders, nämlich wärmer auf CO2Emissionen reagiert. Das kann man eher spekulative Wissenschaft nennen, nämlich auf Modelle zu vertrauen, die in der Vergangenheit versagt haben und weder Meeresströmungen noch Wolken abbilden können.

Das Fundament des Pariser Abkommens ist also zusammengebrochen. Bis 2100 werden wir, was immer wir tun, die 2 Grad-Grenze nicht überschreiten. Was passiert nun mit der weltweiten Kohlenutzung? Außer in Europa und Kanada gibt es keinen Abschied von der Kohle. China und Indien dürfen nach dem Pariser Abkommen- wie alle Entwicklungsländer- die Kohlekraftwerkskapazitäten massiv ausweiten. In China kommen 280 000 MW hinzu in Indien 174 000 MW. Zum Vergleich: die gesamte Braunkohlenflotte Deutschlands hat eine Kapazität von 22 700 MW. 1600 Kohlekraftwerke werden weltweit in 62 Ländern gebaut, die meisten übrigens durch chinesische Kraftwerksbauer und mit Hilfe chinesischer Kredite. So etwa 15 300 MW in Pakistan, 16 000 in Bangladesh, selbst Myanmar 5100 MW. (Quelle : South China Morning Post). Insgesamt wird die Kohlekraftwerkskapazität weltweit um 43 % erweitert. Selbst Japan setzt auf Kohle, versucht allerdings mit Hilfe von CCS (Carbon Capture and storage), die CO2-Emissionen nicht weiter ansteigen zu lassen. Daher erscheinen die CO2-Verminderungsziele Japans auch eher bescheiden : 16 % bis 2030 und 25 % bis 2050. Zum Vergleich Deutschland 2030 40 % und 2050 80 bis 95 %.

Was andere Länder nicht schaffen, wollen wir mit Hilfe einer Kohlekommission erreichen, die eben nicht mit Energie-, Netz- und Technologieexperten besetzt ist, sondern mit Greenpeace, BUND und lokalen Bürgerinitiativen gegen Braunkohle. Dass allein in der Lausitz eine jährliche Wertschöpfung von 2 Milliarden € aufs Spiel gesetzt wird, werden die Wähler in diesem Raum im nächsten Jahr bei den Wahlen in Brandenburg und Sachsen nicht vergessen haben, zumal die ehemaligen Ministerpräsidenten von Brandenburg (SPD), Platzeck, und Sachsen (CDU), Tillich, der ehemalige Kanzleramtsminister Pofalla, flankiert von einer ehemaligen grünen Volkswirtin von AGORA an der Spitze der Kommission stehen. Aber was sind schon verlorene Landtagswahlen, wenn es doch um die Rettung der Welt geht ! Und dann sind ja noch die Grüne Gunda Röstel von der Stadtentwässerung Dresden und der Grüne Rainer Priggen, Vorsitzender des Lobbyverbandes Erneuerbare Energien in Nordrhein-Westfalen als Experten in der Kohlekommission. Auf die Idee auch Kritiker der alternativen Windenergie, die mittlerweile die grösste Naturzerstörung in Deutschland seit dem 2. Weltkrieg verursacht hat, ist kein Politiker der Bundesregierung gekommen. Dass die Verdreifachung der Windenergiekapazität in Deutschland zu einem durchschnittlichen Abstand der Windmasten von 2,7 km führt, interessiert die Bundesregierung nicht.

Am Parlament vorbei darf nun Prof. Schellnhuber seinen Traum von der “Grossen Transformation” ausleben. In einem Gutachten für die Bundesregierung hatte der von ihm geleitete Sachverständigenrat WBGU 2011 einen ” Gesellschaftsvertrag für eine Große Transformation” vorgelegt. Die Kernthese des WBGU ist folgende: das gegenwärtige Wirtschaftsmodell (“fossiler industrieller Metabolismus”) sei normativ unhaltbar. Der Umbau der Weltwirtschaft müsse schnell gehen, auf Kernenergie und Kohle sei gleichzeitig und kurzfristig zu verzichten. In Deutschland solle demnach der Klimaschutz allgemeines Staatsziel werden, an dem das Handeln von Legislative, Exekutive und Judikative ausgerichtet werde. “Um Zukunftsinteressen institutionell zu verankern, empfiehlt der WBGU zu erproben, das parlamentarische Gesetzgebungsverfahren um eine deliberative ‘Zukunftskammer’ zu erweitern. Um interessens- und parteipolitische Einmischung zu vermeiden, könnte die Zusammensetzung dieser Kammer beispielsweise durch Losverfahren ermittelt werden.”

Dem Losverfahren kommt die Besetzung der Kommission schon ziemlich nahe. Da es zur Zeit keine wirklich belastbare Alternative durch erneuerbare Energien weder hinsichtlich der Versorgungssicherheit noch der Wettbewerbsfähigkeit gibt, heißt Dekarbonisierung nichts anderes als  Deindustrialisierung. Die Chinesen kommen aus dem Grinsen nicht mehr heraus. Nach dem Motto Frechheit siegt und Dummheit verliert, haben sie nun verlauten lassen, dass ihr massives Kohlekraftwerksprogramm aus dem mit 100 Milliarden Dollar jährlich gespeisten Pariser Green Climate Fund finanziert werden soll. Die 100 Milliarden Dollar sollen von den Industrieländern getragen werden; Deutschland hatte 2016 einen Beitrag von 8,5 Milliarden € ab 2020 in Aussicht gestellt. Trump war clever genug, rechtzeitig aus diesen Pariser Schildbürgerstreichen auszusteigen.

Es grüßt Sie kopfschüttelnd
Ihr
Fritz Vahrenholt




GESCHEITERT: Wohlha­bende Organisa­tionen haben 150 Millionen Dollar versenkt, um die Meinung in den USA bzgl. Klima zu beein­flussen

Autor der Studie war Matthew Nisbet, Professor für Kommunikations-Studien und Gastprofessor für Public Policy and Urban Affairs an der Northeastern University. Er analysierte 556,7 Millionen Dollar, welche „hinter den Kulissen“ an 19 große Umweltstiftungen geflossen waren im Zeitraum 2011 bis 2015, und zwar unmittelbar nach dem Scheitern einer cap-and-trade-Gesetzgebung im Jahre 2010.

Quelle

Nisbet kam zu dem Ergebnis, dass sich über 80% jener Stiftungen das Voranbringen erneuerbarer Energie auf die Fahnen geschrieben haben, ebenso wie Gespräche über Klimawandel und Gegnerschaft zu fossilen Treibstoffen, während lediglich 2% oder 10,5 Millionen Dollar in Technologien wie Kohlenstoff-Abscheidung oder Kernenergie investiert worden waren, welche Kohlenstoff-Emissionen verringern. Die Spenden selbst waren auch sehr konzentriert; über die Hälfte des von den Philanthropen gezahlten Geldes wurde an insgesamt 20 Organisationen geleitet.

Einige der prominenteren, von Nisbet namentlich genannten Zahlungsempfänger sind der Sierra Club, welcher mindestens 48,9 Millionen Dollar erhalten hat, sowie der National Resources Defense Council mit 14,1 Millionen Dollar und der Environmental Defense Fund mit 13,4 Millionen Dollar.

„Eine der Schlussfolgerungen, und vielleicht sogar die Wichtigste aus der Nisbet-Studie lautet, dass es nicht viel Unterstützung der intellektuellen Diversität beim Thema Klima gibt, was eine Schande ist, weil das, was die Welt macht, nicht funktioniert“, sagte Pielke. „Also würde man denken, dass es zumindest ein paar Ressourcen gibt, die sich neuer Verfahren, Alternativen annehmen, selbst wenn sie nur Zufallspläne sind“.

Aber Nisbets Forschungen zufolge ist dies nicht der Bereich, in den die große Mehrheit der Umwelt-Zuwendungen geflossen ist. Die Finanzierung nicht kommerziellen Journalismus‘, von Kommunikationspläne und politischen Kampagnen erscheinen marginal im Vergleich zu den Geldern, die für die Entwicklung neuer Technologien zur Kohlenstoff-Verringerung ausgegeben worden sind. Und dennoch, trotz über 500 Millionen in Werbung investierter Dollar zeigen Umfragen, dass die Kampagne es nicht vermocht hatte, das Thema Klimawandel ganz nach oben in der Liste der politischen Sorgen der Amerikaner zu hieven.

Tatsächlich war eine andere Studie aus jüngerer Zeit zu dem Ergebnis gekommen, dass die Jahrgänge von 1981 bis 2000 wahrscheinlich nicht mehr bzgl. Klimawandel „tun werden“ als Generationen zuvor. Pielke zufolge zeigt dies, dass sich die Art und Weise, wie sich Stiftungen, Aktivisten und politische Experten dieses Themas annehmen, geändert werden muss, rangiert das Thema doch ziemlich am Ende aller 20 Themen, nach denen gefragt worden ist.

Während der Jahre vor dem Zeitrahmen der Nisbet-Studie verschrieben sich große Stiftungen wie die Hewlett Foundation, die Energy Foundation und der Rockefeller Brothers Fund der „Design-to-Win“-Strategie. Dies führte zur kollektiven Kartellbildung von Ressourcen anstatt zu verstreuten, individualisierten Ausschüttungen. Während Pielke sagt, dass die Erzeugung und Verfolgung einer gemeinsamen Klima-Agenda sinnvoll sein könnte, „half dies möglicherweise auch bei der Entwicklung einiger der Monokulturen, welche Nisbet in seiner jüngsten Arbeit dokumentiert“.

„Falls wir uns Sorgen machen würden hinsichtlich der Akkumulation von CO2 in der Atmosphäre, dann müssten wir uns auch Sorgen um die gesamte Politik, um allen Lärm, um all die Wärme – es wäre alles ultimativ ein technologisches Problem“, sagte Pielke. „Um den atmosphärischen CO2-Anteil in der Atmosphäre zu stabilisieren, muss die globale Ökonomie von dem heutigen Anteil von etwa 15% Kohlenstoff-freier Energiequellen bis zum Ende des Jahrhunderts auf einen Anteil von über 90% kommen. Das ist eine große Aufgabe. Ich habe schon immer argumentiert, dass der einzige Weg nicht darin besteht, fossile Energie so teuer zu machen, sondern dass wir uns Alternativen zuwenden müssen. Diese Alternativen müssen so billig gemacht werden, dass wir sie gegenüber fossiler Energie bevorzugen“.

Der Schlüssel zu einem solchen Vorgehen wäre die Charakterisierung von Klimawandel als politisches Thema und ihn zu einer Frage von Investitionen zu machen.

„Falls wir in dieser Hinsicht vorankommen wollen, werden wir Dinge brauchen, die wir jetzt noch nicht haben. Wir werden Module von Kernreaktoren brauchen, große Batterien, die Fähigkeit, Kohlenstoff direkt aus der Atmosphäre zu entfernen zu einem vernünftigen Preis. Und der einzige Weg, diese Art von Technologien zu erhalten ist es, sie zu erfinden“, sagte Pielke. Er verwies darauf, dass das im Paris-Abkommen festgelegte Erreichen von Emissionszielen von Technologien abhängig ist, die es noch gar nicht gibt.

Einer der Hauptgründe für die Stagnation des Klima-Prozesses kann der extremen Polarisierung des Themas zugeordnet werden, die es während der letzten paar Jahrzehnte erfahren hat. Nisbet merkt in seiner Studie an, dass Umweltbelange begannen, Partnerschaften mit anderen Basisthemen einzugehen im Trachten nach „an sozialer Gerechtigkeit orientierten Lösungen des Klimawandel-Problems“. Es sollte eine „bereichsübergreifende“ Strategie entwickelt werden, mit der das Thema mit anderen Dingen in Verbindung gebracht werden sollte, die mehr zu linken Ideologien passen, um eine breitere Bewegung zu erschaffen. Nisbet sagt, dass diese Strategie „wahrscheinlich zur politischen Polarisierung beigetragen hat, taugt sie doch als potentes Symbol für republikanische Spender und Aktivisten“.

Angesichts fehlender Gesetzesinitiativen und des Scheiterns, breit angelegte, überparteiliche Unterstützung für langfristige Lösungen zu finden, wurde die Politik dazu degradiert, Maßnahmen durchzuführen, welche durch eine andere in das Weiße Haus einziehende Regierung rückgängig gemacht werden können.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2018/06/fail-wealthy-organizations-sunk-150-million-to-sway-u-s-climate-opinion/




Verschwunden: Gezeitenmessung mit sinkendem Meeresspiegelanstieg aus der Datenbank entfernt

Diese Geschichte fand ich auf WeatherZone.

Da ich [es war, der vor zwei Jahren] die Daten der Gezeiten aus Fremantle, in einer aktuellen Peer-Review-Arbeit untersuchte (Parker, 2016), überprüfte ich sofort, ob sich die gemessenen Daten geändert hatten, um eine solche Behauptung zu begründen.

Ich habe daher die relativen Meeresspiegeldaten von Fremantle in Australien – die besten Pegelmessungen des Indischen Ozeans, erneut heruntergeladen.

Wie in folgender Abbildung 1 gezeigt, lassen die PSMSL-Daten, die heute am 6. Juni 2018 von https://www.psmsl.org/data/obtaining/stations/111.php heruntergeladen wurden, ungefähr dieselbe Anstiegsrate und dieselbe Beschleunigung vermuten.

Abbildung 1 (oben) Fremantle, relativer mittlerer Meeresspiegel. Lineare und parabolische Fittings der PSMSL RLR Daten, wie sie vorhanden sind oder Lücken aufgefüllt.

(unten) PERT (Perth) GPS-dome [Kuppel, … ~Antenne – nicht mein Fachgebiet, aber offensichtlich handelt es sich um GPS gestützte Bojen, der Übersetzer]. Bild reproduziert und modifiziert von SONEL [Link unten erläutert]

Mit dem Datumsbereich Januar 1897 bis Dezember 2016 beträgt die relative Steigerungsrate +1,67 mm / Jahr und die Beschleunigung ist 0,006 mm / Jahr 2 (die üblichen wenige Mikrometer pro Jahr im Quadrat).

Da die Vollständigkeit des Datensatzes 92% beträgt, habe ich beschlossen, die Lücken zu füllen, indem ich die Daten desselben Monats aus benachbarten Jahren interpoliere. Auf diese Weise berechnete ich eine relative Steigerungsrate von +1,70 mm / Jahr und eine Beschleunigung von +0,005 mm / a 2.

Erwähnenswert ist, dass die Anstiegsrate des Meeresspiegels in Fremantle geringer ist, als die wahrscheinliche Rate des Absinkens des [GPS-gestützten Bojen-] Messinstruments, da SONEL für die nahe gelegene GPS-Kuppel von PERT (Perth) eine Senkungsrate von -2,09 ± 0,38 mm / Jahr berechnet .

(Analyse in www.sonel.org/spip.php?page=gps&idStation=812),

und im ähnlich nahen GPS von HIL1 (Hillarys), wo eine noch größere Senkungsrate von -2,78 ± 0,31 mm / Jahr gemessen wird

(Analyse in http://www.sonel.org/spip.php?page=gps&idStation=1918).

Das Perth-Becken ist tatsächlich Subsidenz ausgesetzt (Featherstone, Penna, Filmer & Williams, 2015; Featherstone, Filmer, Penna, Morgan & Schenk, 2012), und der Meeresspiegel steigt hier [scheinbar] weil das Land absinkt.

[Subsidenz(Geologie), die großräumige Eintiefung eines Bereichs der Erde durch tektonische oder thermische Vorgänge. de.wikipedia]

Daher, nichts Neues aus den Messungen.

 

Was ist also die Neuheit?

Bei der heutigen Analyse habe ich erneut die PSMSL- und die SONEL-Websites besucht und herausgefunden, wie die „adjustocene“ [Wortspiel: Manipulieren und Justiz] in den IPCC Projekten voranschreitet.

  • PSMSL verbindet nicht mehr die Fremantle-Gezeitenmessung-Information mit der SONEL-Seite der PERT-GPS-Dome.
  • SONEL, berechnet [per Computer] den absoluten Meeresspiegelanstieg durch Korrektur der relativen Steigerungsrate aus der Gezeitenmessung mit der Senkungsrate aus der GPS-Überwachung. Die absolute Anstiegsrate für Fremantle wird nicht mehr dargestellt.

Wenn man sich die Bilder von Abbildung 2 unten anschaut, mit dem gleichen Zeitfenster für die Online-Grafik, ist der negative absolute Meeresspiegelanstieg von Fremantle, ähnlich wie der negative absolute Meeresspiegelanstieg einer japanischen Flut, verschwunden. [also Absenkung]

Abbildung 2– Absolute Meeresspiegelanstiegsraten (relative Meeresspiegelanstiegsrate von der Pegelmessung, absolute vertikale Landbewegung (Geschwindigkeit) von Satelliten-GPS) in den Welt Tide-Messungen mit theoretisch gleichen Daten 1900 bis 2013, vor und nach Fremantle wurde eliminiert. Bilder sind reproduziert und modifiziert von SONEL, www.sonel.org .
(oberes) Bild heruntergeladen am 6. Juni 2018.
(unteres) Bild von Parker (2016).
Das unbequeme Ergebnis für Fremantle wäre von den IPCC Wissenschaftlern nicht akzeptiert worden.

Weitere Änderungen können entdeckt werden, wenn auch weniger offensichtliche.

In vielen Regimen verschwinden Dissidenten. In der Klimadiktatur leiden unbequeme Daten unter der gleichen Behandlung.

An australischen Universitäten, von Murry Shelby bis Bob Carter, von Peter Ridd bis zu mir selbst, sind Akademiker, die die politisch gewollten Geschichten nicht unterstützen, einfach gezwungen, auf die eine oder andere Weise wegzugehen oder gar nicht erst anzufangen, wie Björn Lomborg. Ich glaube nicht, dass irgendjemand innerhalb der australischen Universitäten erklären wird, dass der Meeresspiegel in Fremantle seit 1897 ohne signifikante Beschleunigungskomponente gestiegen ist, und in den nächsten 8 Jahren könnte der Meeresspiegel im Durchschnitt nicht einmal um 25 Millimeter, sondern nur um 16 Millimeter steigen …

References

Featherstone, W., Filmer, M., Penna, N., Morgan, L. & Schenk, A. (2012). Anthropogenic land subsidence in the Perth Basin: Challenges for its retrospective geodetic detection. Journal of the Royal Society of Western Australia, 95(1), pp.53-62.

Featherstone, W.E., Penna, N.T., Filmer, M.S. & Williams, S.D.P. (2015). Nonlinear subsidence at Fremantle, a long‐recording tide gauge in the Southern Hemisphere. Journal of Geophysical Research: Oceans, 120(10), pp.7004-7014.

Parker, A., (2016), The Sea Level Rate of Rise and the Subsidence Rate Are Constant in Fremantle, American Journal of Geophysics, Geochemistry and Geosystems, 2(4):43-50.

https://files.aiscience.org/journal/article/pdf/70170032.pdf

Erschienen auf WUWT vom 07. Juni 2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/06/disappeared-tide-gauges-showing-negative-absolute-sea-level-rise-removed-from-data-base/




Russische Arktis war 1920-1940 wärmer als heute

 Abb. 1: Temperaturentwicklung der Arktis während der letzten 40 Jahre. Daten: UAH. Graphik: Climate4You

Wir sehen in den letzten 4 Jahrzehnten eine Erwärmung. Nach einer (El Nino-) Wärmespitze 2016 geht es nun aber wieder stetig bergab. Die kältesten Temperaturen gab es Ende der 1980er und Anfang der 1990er Jahre. Davor war es wärmer. Um 1980 wurden ähnliche Temperaturen gemessen, wie heute. Leider gibt es keine Satellitendaten aus der Zeit von vor 1979, daher ist noch  nicht einmal ein voller 60-Jahres-Ozeanzyklus abgedeckt, was die Zuordnung von anthropogenen und natürlichen Anteilen an der Erwärmung der letzten Jahrzehnte erschwert.

Aber es gab natürlich Wetterstationen vor 1979. Und die haben in der Arktis bereits in den 1930er und 40er Jahren eine Wärmephaseaufgezeichnet, während der es ähnlich warm war wie heute. Beispiel: Opel et al. 2009 rekonstruierten die Temperaturgeschichte in der russischen Arktis für die letzten 100 Jahre anhand eines Eiskerns. Das Wärmemaximum ereignete sich in den 1930er Jahren, nicht etwa heute:

115 Jahre Eiskerndaten von Akademii Nauk Eiskappe, Severnaya Zemlya: hochauflösende Aufzeichnung des eurasischen arktischen Klimawandels
Von 1999 bis 2001 wurde ein 724 m tiefer Eiskern auf der Akademii Nauk Eiskappe, Severnaya Zemlya, gebohrt, um hochauflösende Proxy-Daten aus der zentralen russischen Arktis zu gewinnen. Trotz der starken Schmelzwasserperkolation im Sommer liefert dieser Eiskern wertvolle Informationen über die regionale Klima- und Umweltgeschichte. Wir präsentieren Daten von stabilen Wasserisotopen, Schmelzschichtgehalt und Hauptionen von den obersten 57 m dieses Kerns, die den Zeitraum 1883-1998 abdecken. Die Datierung wurde durch Zählen saisonaler Isotopenzyklen und unter Verwendung von Referenzhorizonten erreicht. Die mehrjährigen δ18O-Werte reflektieren die sub-arktischen und arktischen Oberflächen-Lufttemperaturschwankungen. Wir fanden starke Korrelationen zu Instrumententemperaturdaten von einigen Stationen (z. B. r = 0,62 für Vardø, Nordnorwegen). Die δ18O-Werte zeigen deutliche Temperaturänderungen im 20. Jahrhundert, mit einem starken Anstieg um 1920 und dem absoluten Temperaturmaximum in den 1930er Jahren. Eine kürzliche Abnahme der Deuterium-Überschuss-Zeitreihe deutet auf eine zunehmende Rolle der Karasee als regionale Feuchtigkeitsquelle hin. Aus den mehrjährigen Ionenvariationen haben wir im 20. Jahrhundert abnehmende Meeressalz-Aerosoltrends abgeleitet, die sich in Natrium und Chlorid widerspiegeln, während Sulfat und Nitrat stark von anthropogenen Verschmutzungen betroffen sind.

Abb. 2: Temperaturentwicklung Severnaya Zemlya (russische Arktis) während der letzten 130 Jahre. Ausschläge nach oben=warm. Quelle: Opel et al. 2009

 

Ein Teil der Arktis-Erwärmung geht übrigens auf Maßnahmen zur Reinhaltung der Luft in Europa zurück. Die anthropogenen Sulfatpartikel hatten lange Jahre lang die Temperaturen der Arktis gekühlt wie die Universität Stockholm mitteilte (via Science Daily). Sollen wir aus Klimaschutzgründen jetzt wieder anfangen zu ferkeln?

Europäische Luftreinhaltepolitik entlarvt die Erwärmung der Arktis durch Treibhausgase

Die drastische Verringerung der Sulfatpartikelemissionen in Europa erklärt zum Teil die verstärkte Erwärmung der Arktis seit den 1980er Jahren, wie eine neue Studie in Nature Geoscience zeigt.

Die drastische Verringerung der Sulfatpartikelemissionen in Europa erklärt zum Teil die verstärkte Erwärmung der Arktis seit den 1980er Jahren, wie eine neue Studie in Nature Geoscience zeigt. Das Team, das sich aus Wissenschaftlern der Universität Stockholm und des norwegischen Meteorologischen Instituts zusammensetzt, erklärt, dass ihre überraschende Erkenntnis ein noch dringenderes Bedürfnis nach einer Verringerung der Treibhausgasemissionen zur Abschwächung des Klimawandels in der Arktis zeige. Menschliche Aktivitäten wie industrielle Produktion, Transport, Stromerzeugung und Holzverbrennung emittieren große Mengen winziger Schadstoffpartikel, die z. B. Ruß und Sulfat enthalten, in die Atmosphäre. Hohe Luftmengen dieser Partikel, auch Aerosolpartikel genannt, verursachen in Europa jährlich etwa 400.000 vorzeitige Todesfälle und können über weite Entfernungen transportiert werden. Aerosolpartikel haben unterschiedliche Größen sowie chemische und physikalische Eigenschaften, die alle ihre Klimawirkung bestimmen.

"Rußpartikel absorbieren Sonnenstrahlung und erwärmen das Klima, ähnlich wie Treibhausgase wie Kohlendioxid. Sulfatpartikel dagegen reflektieren die Sonnenstrahlung und wirken als Keime für die Bildung von Wolkentröpfchen und kühlen dadurch das Klima ", sagt Juan Acosta Navarro, Doktorand am Department of Environmental Science and Analytical Chemistry (ACES) und am Bolin Zentrum für Klimaforschung, Universität Stockholm, und Co-Autor der Studie. Er fährt fort: "Die Gesamtwirkung von Aerosolpartikeln menschlichen Ursprungs auf das Klima hat sich im letzten Jahrhundert abgekühlt, was die durch die Zunahme der Treibhausgasemissionen verursachte Erwärmung teilweise verdeckt hat."
Sulfatemissionen, die zum Beispiel sauren Regen verursachen, erreichten in Europa und Nordamerika in den 1980er Jahren ihren Höhepunkt, was zur Einführung strenger Regelungen führte, um diese zu reduzieren. Die neue Studie zeigt, dass diese Politik tiefgreifende Auswirkungen auf die Arktis hatte. "Mithilfe eines numerischen Klimamodells konnten wir feststellen, dass Sulfatreduktionen in Europa zwischen 1980 und 2005 einen beträchtlichen Teil der verstärkten Erwärmung in der Arktis in diesem Zeitraum erklären können, da sich der Ferntransport, atmosphärische Winde und Meeresströmungen verändert haben. Mit anderen Worten, dank der in Europa eingeführten Luftqualitätsvorschriften wurde ein Teil des Maskierungseffekts von Aerosolpartikeln reduziert, was die wahre Erwärmung der Arktis durch Treibhausgase aufzeigt ", sagt Annica Ekman, Professorin am Department of Meteorology (MISU). und Bolin-Zentrum für Klimaforschung, Universität Stockholm, die auch diese Studie mitverfasst hat. Die Wissenschaftler erwarten eine weitere Erwärmung in der Arktis, da die Treibhausgasemissionen weiter ansteigen werden und die Aerosolpartikelemissionen wahrscheinlich abnehmen werden, um die Luftverschmutzung in verschiedenen Teilen der Welt zu bekämpfen.

J. C. Acosta Navarro, V. Varma, I. Riipinen, Ø. Seland, A. Kirkevåg, H. Struthers, T. Iversen, H.-C. Hansson, A. M. L. Ekman. Amplification of Arctic warming by past air pollution reductions in Europe. Nature Geoscience, 2016; DOI: 10.1038/ngeo2673

Aber auch nachträgliche Veränderungen der Messdaten lassen die Arktis heute wärmer erscheinen als sie wohl eigentlich ist (siehe hierund hier). Eine schöne Zusammenfassung zum Klimawandel in der Arktis kann man bei Judith Curry finden.

Der Beitrag erschein zuerst bei „Die kalte Sonne“ hier




Immobilisierung von Plutonium und Cie!

Andersherum war dies der Grund, warum man sich recht früh auf ein „Teststoppabkommen“ in der Atmosphäre geeinigt hat. Es wurden über 2000 Kernwaffentests international durchgeführt. Durch die Zündung von Kernwaffen in der Atmosphäre wurden zig Tonnen Uran, Plutonium und Spaltprodukte über die gesamte Erde verteilt. Auch das wieder als Hinweis, wie schamlos die Propaganda von Greenpeace und Konsorten bezüglich „Atommüll“ ist, von denen ja wenige Gramm ausreichen sollen, die ganze Menschheit auszurotten.

Eine vorübergehende Lagerung

Plutonium wird z. B. in den USA in Fässern aus Edelstahl gelagert. Diese Fässer sind etwa 90 cm hoch und haben einen Durchmesser von 50 cm und beinhalten eine Portion von jeweils etwa 4,4 kg Plutonium. Wegen dessen hoher Dichte eine sehr „luftige“ Verpackung. Dies geschieht aus Sicherheitsgründen, damit auf jeden Fall eine Kettenreaktion verhindert wird. Diese Fässer stehen in ständig überwachten Bunkern. Selbst die kleinste Undichtigkeit würde sofort erkannt werden.

Alle Transurane sind nur schlecht wasserlöslich. Eine Verbreitung über große Strecken ist schon deshalb ausgeschlossen. Dies ist nicht nur eine theoretische Überlegung, sondern auch in unfreiwilligen Großversuchen betätigt: In den Anfangsjahren der Kernwaffenproduktion hat man die gesamte Brühe (Spaltprodukte, Minore Aktinoide usw.) einfach in unterirdischen Tanks (Abschirmung) gelagert. Teilweise sind diese undicht geworden und ein Teil der Ladung ist im Boden versickert. Man verfügt deshalb über jahrzehntelange Messreihen zur Ausbreitung aller Spaltprodukte und von Plutonium im Erdboden. Im Laufe der Jahrzehnte hat sich in diesen Tanks eine Schlammschicht aus „Atommüll“ abgelagert. Diese wird nun kostspielig beseitigt und für eine Endlagerung im WIPP umgeformt. Vor dem Transport zum WIPP werden sie verglast und in endlagerfähige Behälter aus Edelstahl abgegossen.

Die Verglasung

Glas ist ein sehr haltbarer Werkstoff. Wir finden heute noch Glasscherben aus der Antike, die aussehen, als wären sie erst gestern hergestellt worden. In der Fischerei werden deshalb z. B. Glaskugeln als Schwimmkörper eingesetzt. Sie halten Salzwasser und hohen Drücken über Jahrzehnte stand. Zudem ist Glas auch noch billig und einfach (Automatisierung) herstellbar. Jahrzehntelang hat man weltweit Spezialgläser entwickelt, die ein besonders hohes Rückhaltevermögen für Spaltprodukte und Transurane besitzen.

Der plutoniumhaltige Abfall wird kalziniert (bei hohen Temperaturen gebrannt um alle chemischen Verbindungen aufzubrechen und das Kristallwasser auszutreiben) und gemahlen. Parallel wird in einem Schmelzofen eine Glasfritte erzeugt, in die der Abfall eingestreut wird. Der Abfall löst sich wie Zucker im heißen Tee gleichmäßig im flüssigen Glas auf. Je nach Abfallzusammensetzung kann man etwa 20 bis 30% Abfall auflösen. Ist die Mischung homogen, wird sie in Edelstahlbehälter abgegossen. Da Glas eine „unterkühlte Flüssigkeit“ ist, erhält man auch im erkalteten Zustand einen homogenen „Abfallblock“.

Die Abfallmenge, die bisher verglast und bis 2009 in der WIPP eingelagert wurde, enthielt etwa 4,5 to Plutonium. Weitere 17 to stark verunreinigtes Plutonium sind ebenfalls zur direkten Endlagerung in der WIPP vorgesehen.

Bildung von synthetischem Gestein

Eine weitere Methode — die besonders für Plutonium — geeignet erscheint, geht genau einen anderen Weg: Man stellt einen synthetischen Stein her (SynRoc) in dessen Kristallgitter das Plutonium fest eingebaut ist. Diese künstlichen Steine sollen noch einmal um den Faktor eine Million weniger löslich sein als Glas. Man hat in verschiedenen Einrichtungen in den USA und in der Wiederaufbereitungsanlage in Sellafield (GB) mehrere to Plutonium mit dieser Methode eingeschlossen. Es handelt sich dabei um jeweils kleine Mengen Plutonium aus verschiedenen Forschungsprogrammen. Es lohnt nicht, diese „geringen Mengen“ aufwendig mit Spezialverfahren aufzubereiten. Es ist zumindest wirtschaftlicher, diese Mengen mit ins Endlager zu geben.

Bei dem SynRoc-Verfahren wird ein Gestein auf der Basis von ausgewählten Titanaten hergestellt. Diese werden in der richtigen Mischung mit Wasser vermahlen und das Plutonium (bis 30%Gew) zugesetzt. Dieser Schlamm wird getrocknet und bei 750°C kalziniert um ein feines Pulver zu erhalten. Dieses Pulver wird auf einer automatischen Abfüllanlage in kleine, hantelförmige Edelstahldosen abgefüllt, die sofort verschweißt werden. Der entscheidende Verfahrensschritt ist nun ein heißisostatisches Pressen: Die „Hanteln“ werden acht Stunden lang bei 1300°C und einem Druck von 1000 bar gesintert. Heraus kommen schwarze, gesteinsartige Zylinder.

Zurück zur Abrüstung

Wie schon ausgeführt, ist die Lagerung von Plutonium kein großartiges Problem. Das Problem bei reinem Pu239 ist vielmehr, daß man es jederzeit wieder zum Bau neuer Kernwaffen verwenden kann. Das Sicherheitsproblem ist also nicht der Strahlenschutz, sondern der „Diebstahlschutz“. Die National Academy of Sciences erschuf den „Selbstschutz-Standard durch γ-Strahlung“ auf der Basis von „abgebrannten Brennelementen“. Fast das gesamte Strahlungsfeld wurde auf den Zerfall von Cesium-137 mit einer Halbwertszeit von 30 Jahren bezogen.

Nachdem man langsam zu der Erkenntnis gelangte, daß das Mischoxid-Programm völlig aus dem Ruder lief, hat die Obama-Administration 2014 folgende Alternativen vorgeschlagen:

  1. Verdünnung des Plutoniums mit noch vorhandenem Restmüll und anschließende Einlagerung im WIPP.
  2. Der „can in canister“ Ansatz zur Einlagerung in hochaktivem Glas.
  3. Entsorgung in 5000 m tiefen Bohrlöchern, und
  4. Bestrahlung in einem natriumgekühlten Reaktor mit schnellem Neutronenspektrum.

DIE VERDÜNNUNG

Die Verdünnung des Plutoniums durch die Auflösung in noch vorhandenem Restmüll aus der Wiederaufbereitung kann man wohl nur als Schnapsidee bezeichnen. Man erzeugt damit wieder besonders langlebigen „Atommüll“. Zum Glück hat man nur noch kleine Mengen unverglasten Restmüll in den Labors übrig, die nicht ausreichen werden um das „Überschuss Plutonium“ auf diese Art zu beseitigen. Allenfalls geringe Mengen — die auf irgendeine Art besonders schwer zu behandeln sind — sind so gegen Diebstahl zu schützen.

Eine Abwandlung dieses Weges hat das Energieministerium (DOE) schon 2011 beschritten: Über 580 kg Plutoniumoxid Pulver aus den Labors der Savannah River Site wurden mit einem geheimgehaltenen Stoff gemischt, der angeblich besonders schwer wieder zu trennen ist. Diese Mischung — mit einem Anteil von 10% Plutonium — wurde in Rohre von 15 cm Durchmesser abgefüllt, die wiederum einzeln in 200 l Fässern eingeschlossen wurden (“pipe-overpack containers”). Der Gehalt an Plutonium pro Faß wurde auf höchstens 175 gr begrenzt.

Würde man den Gehalt pro Faß auf 340 gr Plutonium erhöhen, wären für 50 to Plutonium rund 150 000 Fässer nötig. Eine — von derzeit sieben Kammern im WIPP Endlager— könnte 90 000 Fässer aufnehmen. Ursprünglich betrug das genehmigte Einlagerungsvolumen für das WIPP 176 000 m3 für Abfall mit Transuranen. Eine Genehmigung für eine Erweiterung ist in Arbeit.

Die Kritik von Sicherheitsexperten über diese Methode zur Einlagerung von waffengrädigem Plutonium ist nicht ganz von der Hand zu weisen: Für den Bau einer „Nagaski Bombe“ wären etwa 20 solcher „Rohre“ mit den Abmessungen von 15 cm Durchmesser und 60 cm Länge nötig. Bei einer Stückzahl von 150 000 Stück, mit diversen verteilten Produktions- und Lagerstätten eine extrem geringe Anzahl. Die bewegt sich schon in in der Größenordnung vorgekommener Buchung- und Bilanzierungsprobleme. Selbst ein reiner Papierverlust wäre eine Katastrophe in der öffentlichen Wahrnehmung.

DAS DOSE IN KANISTER VERFAHREN

Aus dem „Selbstschutz-Gedanken“ wurde das „can in canister“ Verfahren entwickelt. Man mischt etwa 10% Plutonium mit speziellen Stoffen, die besonders schwer trennbare chemische Verbindungen mit ihm eingehen, presst dieses Pulver in Scheiben und sintert diese zu Keramik. Das ergibt die „Immobilisierung“. Diese Scheiben werden in Dosen von etwa 6 cm Durchmesser und 25 cm Höhe gefüllt. Jede dieser Dosen enthält etwa 1 kg Plutonium. Jeweils 28 Dosen kommen in einen Kanister von etwa 3 m Kantenlänge und werden mit flüssigem, strahlenden Glas aus der Beseitigung von hochaktivem „Atommüll“ umgossen. Für die geplant 50 to „Überschussplutonium“ werden also 1800 solcher Kisten benötigt. Genau das ist aber das Problem: Die USA haben gar nicht mehr solche Mengen unbehandelten hochaktiven Müll zur Verfügung.

Das Energieministerium (DOE) hat als Standard für eine „Selbstsicherung“ bei solchen Kanistern eine Strahlendosis von 1 Sv pro Stunde in einem Abstand von einem Meter in 30 Jahren nach der Befüllung definiert. Man würde deshalb für die Kanister über 1,221×1018 Bq Cäsium-137 (rund 225 kg) benötigen. Zur Orientierung: Bei der Tschernobyl-Katastrophe soll eine Aktivität von etwa 8,5×1016 Bq Cs137 freigesetzt worden sein.

BOHRLÖCHER

Seit Jahrzehnten gibt es den Vorschlag „Atommüll“ in tiefen Bohrlöchern (ca. 3000 bis 5000 m tief) einzulagern. Dahinter steckt der Grundgedanke: Tiefe = langer Weg bis zur Oberfläche = lange Zeitdauer. Die angepeilte Tiefe ist etwa die zehnfache Tiefe von bergmännischen Endlagern. Diese große Tiefe stellt eine zusätzliche Sicherheit vor der „Wiedergewinnung“ des „Waffen-Plutoniums“ dar.

Es wurden bereits Demonstrations-Bohrungen durchgeführt und über 110 Standorte in den USA bewertet. Kriterien waren unter anderem: Entfernung zu Siedlungsgebieten, das Vorhandensein von kristallinem Grundgestein ab 2000 m Tiefe, flacher Verlauf der Schicht, geringer geothermischer Wärmestrom und geringer Vulkanismus.

Diese Form der Endlagerung geht davon aus, daß es mindestens drei Gründe gibt, warum ein natürlicher Transport durch Wasser bis an die Oberfläche nahezu ausgeschlossen ist — selbst wenn das Plutonium sich aufgelöst hat:

  1. Der gewaltige Gebirgsdruck in solchen Tiefen schließt etwaige Risse und Spalten sehr schnell, sodaß es nur zu sehr geringen Strömungen von Wasser kommt.
  2. Plutonium hat nur eine äußerst geringe Löslichkeit in solch sauerstoffarmen Tiefenwasser.
  3. Tiefenwasser ist meist mit Mineralien und Salzen gesättigt, was eine hohe Dichte zur Folge hat. Es gibt deshalb wenig Auftrieb, der es überhaupt mit eher oberflächennahem „Trinkwasser“ in Kontakt bringen könnte.

Die Bohrungen sollen auf die Mindesttiefe plus einem zusätzlichen Stück zur Einlagerung abgeteuft werden. Studien haben ergeben, daß so ein „Lagerraum“ von etwa 40 m3 pro Bohrung (Enddurchmesser ca. 16 cm) geschaffen werden kann. Nach Einlagerung wird die Bohrung wieder sorgfältig verfüllt. Ein erprobter Vorgang bei zig Tausend Bohrungen in der Öl- und Gasindustrie.

Bisher ist diese Methode an zu hohen Kosten gescheitert. Allerdings hat die Bohrtechnik in den letzten Jahren einen sehr rasanten Fortschritt erlebt. Inzwischen gibt es sogar schon Studien über horizontale Bohrungen in geeigneten Schichten. Man geht von einem dramatischen Verfall der Kosten aus. In Verbindung mit der ebenfalls rasanten Entwicklung von Robotern, ein durchaus vielversprechender Ansatz auch für die Endlagerung von besonders hochaktivem „Restmüll“.

BESEITIGUNG IN REAKTOREN .

In diesem Blog ist schon vieles über Reaktoren mit schnellem Neutronenspektrum geschrieben worden. Man kann nur hoffen, daß auch die USA den Mut haben, diesen Weg einzuschlagen. Ein guter Start wäre der Bau z. B. eines PRISM als Demonstrationsreaktor für die Beseitigung von überschüssigem Waffen-Plutonium in der Hand des Energieministeriums. Vieles könnte unter den militärischen Bedingungen der Kernwaffenproduktion schnell und problemlos durchgeführt werden. Milliarden Dollar sind durch die ohnehin bereitzustellenden Beseitigungskosten unter dem politischen Druck der Abrüstungsverträge vorhanden. Der Demonstrationsreaktor wäre — ähnlich der Geschichte des Druckwasserreaktors als Antrieb für U-Boote — sehr schnell und kostengünstig in eine zivile Anwendung überführbar. Ist dies vielleicht der wahre Grund, warum „Atomkraftgegner“ so verbissen an der direkten Endlagerung fest halten?

Der Beitrag erschien zuerst auf der Website des Autors hier