1

Der Wonnemonat Mai: Wo ist die Erwärmung?

Bild rechts: Herbst mitten im Mai 2016: Nach den kalten Pfingsttagen färbte sich der junge Austrieb mancher Spitzahorne rot wie im Oktober, erst nach ein paar warmen Tagen wurden diese Blätter wieder grün. Bei Kranichfeld/Thüringen, 18.05.2016. Foto: Stefan Kämpfe

Der Mai wird wieder kälter, der Frühling kommt später als noch vor 20 Jahren und die Eisheiligen in der Monatsmitte sind wieder deutlich wahrnehmbar. Auch der Mai 2016 hat diesen Trend zur Abkühlung trotz einiger sehr warmer Tage nach der Monatsmitte nicht aufhalten können. Betrachten wir zunächst den Mai in den letzten 100 Jahren:

Grafik 1: Über die letzten 100 Jahre zeigt der Monat Mai eine deutliche Kältedelle in der Mitte des letzten Jahrhunderts, erst ab 1965 stiegen die Temperaturen wieder bis zu einem weiteren Wendepunkt um das Jahr 2000. Aber wo stehen wir 2016?

Wir halten fest, in der Gegenwart, also seit dem Jahr 2000 hat der Monat Mai eine deutliche fallende Tendenz, das zeigt die nächste Grafik der Gegenwartsjahre

Grafik 2: Seit der Jahrtausendwende wurde der Mai wieder deutlich kälter, das sind immerhin 17 Maimonate. Die Trendlinie zeigt etwa ein Zehntel Kelvin Abkühlung pro Jahr. Der Trend ist freilich wegen der Kürze des Zeitraumes und der enormen Streuung noch nicht signifikant. Die Angaben sind die Originalangaben des Deutschen Wetterdienstes in Offenbach.

Anlässlich der Unwetter Ende Mai über Deutschland wurde von unwissenden Experten immer wieder der Klimawandel als Grund erwähnt. Wir fragen uns: Wie kann ein Monat kälter werden und zugleich ein Beweis der Klimaerwärmung sein? Und weil die Luft auch im Mai 2016 nicht wärmer, sondern kälter war als früher kann sie auch nicht mehr Wasserdampf aufnehmen, sondern weniger. Und Baden Württemberg, wo Braunsbach bekanntlich liegt, war der Mai 2016 noch um einiges kälter. Laut DWD war BaWü das kühlste aller Bundesländer, noch kälter als Bayern.

Wenden wir uns nun dem Problem zu, bei welchen Jahren sind die derzeitigen Maitemperaturen nach der Abkühlung wieder angekommen? Aus der Grafik 1 ersehen wir, dass es derzeit immer noch wärmer ist als um die Jahrhundertmitte. Konkret: Seit wann hat der Monat Mai eine ebene Trendlinie?

Grafik 3: Der Monat Mai hat seit 1985 eine ebene Trendlinie, das sind immerhin schon 32 Maienjahre.

Beachte: Wir arbeiten mit den Originaltemperaturen des Deutschen Wetterdienstes und diese sind nicht wärmeinselbereinigt. Der Großteil der DWD-Stationen steht logischerweise dort, wo die Menschen leben und arbeiten, und der Mensch bringt durch seine Lebensweise Wärme in die Landschaft ein, welche von den Thermometern der Messstationen automatisch miterfasst werden. Es findet eine schleichende erwärmende Urbanisierung der einstigen freien grünen Fläche Deutschlands statt.

Im Wesentlichen wird dieser etwa 30ig-jährige Stagnationstrend auch von den Daten des Metoffice für Zentralengland bestätigt:

Grafik 4: In Zentralengland blieben die Mai- Temperaturen seit 1987 praktisch unverändert- die minimale Erwärmung um 0,1K ist nicht signifikant.

Mit Amtsberg-Dittersdorf steht uns eine fast Wärmeinselfreie Wetterstation zur Verfügung, welche nur wenig anthropogene Zusatzwärme seit ihrem Bestehen mitbekommen hat. Lediglich der Straßenbau und der Autoverkehr haben zugenommen. Die nächste Grafik zeigt, seit wann die fast WI-freie Station Amtsberg am Fuße des Erzgebirges in Sachsen eine ausgeglichene Trendlinie hat.

Grafik 5: Seit 1979 ist die Trendlinie von Amtsberg eben. Die derzeitigen Maitemperaturen sind wegen der Abkühlung seit dem Jahre 2000 wieder auf dem Stand vom 1979 angekommen.

Eine Erkenntnis aus Grafik 5 wäre, dass in der freien Natur Deutschlands zumindest diese Abkühlungstendenz von Amtsberg besteht, d.h. dort ist die Maiabkühlung viel stärker als in den Städten und Siedlungen, aber auch geringfügig stärker als in Amtsberg selbst.

Und hier können wir als gute Naturbeobachter auf unsere eigenen jahrzehntelangen Wahrnehmungen zurückgreifen

Wir stellen fest: In der freien Fläche Deutschlands ist in den letzten Jahren der eigentliche Wonnemonat Mai wieder so kalt wie um die Jahrhundertmitte, und das war so kalt wie zu Mozarts Zeiten, und der lebte bekanntlich in der kleinen Eiszeit. Alle Lieder und Naturbeschreibungen von damals, die den Mai besingen, passen genau für den Monat Mai der letzten Jahre und geben den Vegetationsstand in der freien Fläche Deutschlands, weitab aller flächenhaften Wärmeregionen, exakt wieder. Als Beispiel sei genannt: „Komm lieber Mai und mache, die Bäume wieder grün“. https://www.youtube.com/watch?v=M_j1il65RY0

Ein noch älteres Lied aus dem 16. Jahrhundert, dem Tiefpunkt der kleinen Eiszeit in Europa, beschreibt den Mai ähnlich: „Grüß Gott du schöner Maien, da bist du wiederum hier: https://www.youtube.com/watch?v=GZG0gqbIG7w

Vergleichen wir die Inhalte und Beschreibungen der Lieder und Maigedichte der kleinen Eiszeit mit heute, dann erhalten wir ein erstaunliches Ergebnis für den heutigen Vegetationszustand in der freien Fläche: In den letzten 500 Jahren scheint sich – vor allem nach der Abkühlungsphase der letzten 16 Jahre- nicht viel geändert zu haben.

Das zeigt auch unsere abschließende Bildfolge aus dem Frankenbachtal in Süddeutschland zwischen den beiden Städten Aalen und Ellwangen, Fotos der Vegetation aufgenommen mitten im (in der freien Fläche) kalten Mai 2016 in Süddeutschland.

Abbildung 6: Vergleich desselben Standortes: oben 8. Mai 2015, unten 8.Mai 2016. Mitten in den Eisheiligen (11. – 15.Mai) zeigt die Vegetation Deutschlands einen deutlichen Rückstand zur Vegetation in den Städten. In Süddeutschland waren die Eisheiligen 2016 in der schönen „Pampa“ diesmal so kalt, dass die Bäume ihre weitere Begrünung kurzzeitig eingestellt haben.

Aufgrund der geschilderten Tatsachen muss der Schluss gezogen werden, dass sogenannte Treibhausgase wie Kohlendioxid entweder gar nicht treibhauswirksam sind oder eine nur sehr unbedeutende Wirkung auf die irdischen Temperaturen haben. Bei der angeblichen Klimaerwärmung mit den dazugehörigen Panikvorhersagen aufgrund des angeblichen Klimakillers CO2 handelt es sich schlichtweg um ein neues deutsches Märchen. Die zentrale deutsche Anlaufstelle der Klimamärchen befindet sich in Potsdam unter Führung der selbsternannten Klimagralshüter Schellnhuber und Rahmstorf, welche von uns teuer bezahlt werden.

Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen und wissenschaftlich nicht konsensfähigen Klimaschutzes, der sich auf getürkte Messdaten, Stichwort “Climategate“, oder selbst geschriebene Computer-Erwärmungsprogramme stützt, weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Umwelt- und Naturschutz sind notwendig, Klimaschutz dagegen ist ein erfundenes und völlig überflüssiges Geschäftsmodell.

Es wird Zeit, dass sich die Naturschutzverbände endlich von diesem falschen Klimawahn distanzieren und wieder echten Naturschutz betreiben. Die Schmetterlinge, Fledermäuse, Vögel und Bienen sterben in Deutschland nicht wegen des Klimawandels, sondern hauptsächlich wegen des Pestizideinsatzes und der Zerstörung der ursprünglichen Landschaftsvielfalt.

Josef Kowatsch, Naturbeobachter und neutraler Klimawissenschaftler

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Die Eisheiligen werden kälter – Nachtrag

http://www.eike-klima-energie.eu/news-cache/die-eisheiligen-werden-immer-kaelter/

http://www.eike-klima-energie.eu/news-cache/die-eisheiligen-werden-kaelter-teil-2/

Anlass der Eisheiligen-Artikel war die Behauptung des Deutschen Wetterdienstes, dass diese fünf Tage laut DWD „in der Gegenwart“, „in jüngster Zeit“, „in den letzten Jahren“ immer wärmer würden und inzwischen kaum ein Unterschied mehr zum Monat Mai bestünde. Besonders im Süden wären die Eisheiligen „in jüngster Zeit“ zu „Heißheiligen“ oder gar „Schweißheiligen“ avanciert. Zur Klarstellung: Mit unseren beiden Artikeln wollten wir nicht den DWD als Ganzes bloßstellen, sondern nur die politisch besetzte Führungsriege, die öfters gegen die eigenen Daten argumentiert. Es wird Zeit, dass diese Führungsriege, insbesondere Vorstand Friedrich, die eigenen Daten zur Kenntnis nimmt.

Die erste Grafik, die auf Sonderwünsche zweier Kommentarschreiber eingeht, kommt aus Dresden Klotzsche. Herr Samuel Hochauf hat neben dem Temperaturmittel der fünf Tage auch noch die Maximaltemperaturen, die Minimumtemperaturen und auch die Minimumtemperaturen in Bodennähe (5cm) seit 1985 dargestellt.

Grafik 1: DWD-Station Dresden Klotzsche. In Blau sind die fünf Eisheiligentagesmittel dargestellt. In Braun die Maximaltemperaturen, in Grau die Minimaltemperaturen und in Gelb die Minimumtemperaturen in Bodennähe.

Auswertung: Die Minimumtemperaturen (gelb) in Bodennähe sind die kältesten und die Maximumtemperaturen (braun) die wärmsten. Wichtiger ist der Blick auf die Trendlinien: Die Trendlinien sind sich sehr ähnlich, sie sind nur parallel verschoben. Im Gegensatz zu manchen Vermutungen scheint es unwesentlich zu sein, welche Temperatur der Eisheiligen dargestellt werden. Alle vier Trendlinien zeigen, dass die Eisheiligen seit 1985 kälter und nicht wärmer wurden. Alle vier Trendlinien zeigen, dass die Aussagen der DWD-Führungsriege falsch sind. Die Eisheiligen werden kälter.

Üblicherweise vergleicht man die Tagesmittel und dafür beträgt die negative Steigung seit 1985: y = -0,0735x. Die Minimumtemperaturen in Bodennähe (gelb) y= -0,0814x

Mit Bad Kreuznach wollen wir eine Station aus dem Süden Deutschlands, aus der sonnigen Oberrheinebene darstellen, deren Werte seit 1991 vorliegen. 1991 war ein sehr kalter Mai mit kalten Eisheiligen. Die Trendlinie der Daten unseres interessierten Wetter- und kritischen Klimabeobachters Matthias Baritz  haben die Steigungen: Gesamtmonat Mai seit 1991 y = 0,037x (positiv steigend), die Eisheiligen hingegen sind negativ ab Messbeginn 1991 mit y = -0,035x. Damit gehen beide Trendlinien seit 26 Jahren scherenschnittartig auseinander.

Grafiken 2a/b im Vergleich. Die Eisheiligen in Bad Kreuznach (Grafik Kowatsch) und die Monatsmittel Mai seit 1991 (Grafik Baritz)

Zur Erinnerung, der DWD behauptet für den Süden genau das Gegenteil der festgestellten Ergebnisse,nämlich im Süden gäbe es fast gar keinen Unterschied mehr.

Zum Schluss noch zwei weitere Grafiken beider Stationen DD-Klotzsche und Bad Kreuznach über die Gegenwart, in welcher laut DWD die Eisheiligen angeblich besonders wärmer geworden wären.

Grafik 3: Auch in der warmen Oberrheinebene sind die Eisheiligen in der Gegenwart deutlich kälter geworden.

Zum Vergleich Dresden-Klotzsche im gleichen Gegenwartszeitraum

Grafik 4: Die Trendlinie ähnelt der von Bad Kreuznach sehr, in der Gegenwart kühlen die Eisheiligen stark ab.

Gesamt: Da beiden Vergleichsstationen DD-Klotzsche und Bad Kreuznach über 450 km auseinander sind, und in der Gegenwart ebenso wie Potsdam und Goldbach deutlich kälter werden, gehen wir davon aus, dass der Deutsche Wetterdienst keine einzige Wetterstation finden wird, die („in der Gegenwart“, „in den letzten Jahren“, in „jüngster Zeit“) positive Steigungen hat, zumal der Gesamtmonat Mai in der Gegenwart, in den letzten Jahren auch kälter wird.

Nächstes Jahr erwarten wir von DWD Vorstand Friedrich folgende Eisheiligenpressemitteilungen: „ Der Monat Mai wird kälter, aber die Eisheiligen werden noch kälter.“ Und als Ergänzung: Die Eisheiligen werden bald wieder so kalt sein wie um die Jahrhundertmitte. Das war vor 60 Jahren.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher




EIKE 9. IKEK-Dr. Armin Huke – Der Dual Fluid Reaktor – Die zukünftige “alternative” Energieerzeugung?

In schnellem Galopp wird dargelegt, dass die sog. „Erneuerbaren“ ohne riesige Subventionen an keinem Markt eine Chance hätten, allein deshalb. weil ihr EROI niemals den Break Even überschreiten kann.

Und dass er noch weiter absinkt, wenn diese erst – nicht wie heute unter Einsatz konventioneller Energieerzeugung produziert würden- sondern unter Verwendung eben dieser  „Erneuerbaren“.

Video des Vortrages von Dr. Armin Huke zur Technologie moderne Kernreaktoren und deren technische wie wirtschaftliche Machbarkeit

Auch der notwendige Einsatz unvermeidbarer, aber technisch nicht vorhandener Speicher, machte diese Technologien noch teurer und damit noch Markt ferner.

Im Gegensatz dazu steht der bereits heute sehr hohe EROI im Einsatz befindlicher Reaktorkonzepte.  Und es besteht die Gewissheit, das es bei Verwendung von Reaktoren der III. und erst der IV. Generation, eine um Zehnerpotenzen höheren Energieausbeute geben wird.

Zu dieser IV Generation gehört der hier vorgestellte Dual Fluid Reaktor.

Mit Gesamtentwicklungskosten von (nur) rd. 10 Mrd €, das ist ca. 1/3 was uns Deutsche die sog. „Erneuerbaren“ an direkten Subventionen bereits jetzt jährlich kosten, ließe sich eine Energieversorgung gewinnen, die Strom erzeugt, der zu billig wäre um per kWh verkauft zu werden,

Ein jährlicher niedriger Grundpreis von wenigen 10 € würde alle Kosten abdecken.

Und es blieb noch genug Prozesswärme übrig um bspw. Kohle oder Gas zu verflüssigen, und andere chemische Prozesse mit qualitativ hochwertiger Prozesswärme zu versorgen. 

Der laufende Exodus der Grundstoff- und chemischen Industrie wäre gestoppt bzw. sogar umgekehrt. 

Ein „Atommüll“-Problem entstünde zudem gar nicht erst. Der Reaktor ist außerdem inhärent sicher. Bei Ausfall der Kühlsysteme ginge er einfach aus. Wie eine Flamme der man den Sauerstoff entzieht.

Statt über die Energiewende in die Armut der vorindustriellen Zeit zurückzufallen, wegen der 10 fach höheren Energiekosten, die sie zwangsläufig erzeugt, würde sich mit diesem Konzept die Armut für die ganze Menschheit beseitigen lassen.

Es geht also und liegt in unserer Hand, unsere Gesellschaft muss es nur wollen.

Weiterführende Informationen zum DFR Konzept hier




PIK-Forscher Rahmstorf hält im ZDF seine eigenen Extremwetter-Vorlesung – IPCC und DWD-Messungen sagen was Anderes !

(1)  RAHMSTORF  zu „Wasserdampf-Verstärkung“ [1] :

„Durch die globale Erwärmung enthält die Atmosphäre mehr Energie und auch mehr Wasserdampf, und dadurch wird das Potential für solche Gewitter-Ereignisse höher.“

Video: Ausschnitt aus der ZDF heute Journal Sendung mit dem Auftritt des PIK Professors Stefan Rahmstorf. Mit Dank an Klimamanifest von Heiligenroth für die Bereitstellung

Diese Behauptung wird durch die Messungen der Wetterdienste weltweit widerlegt:

Eine ausführliche Übersichts-Arbeit zu diesem Thema kommt zu folgendem Ergebnis [2] :

„Zusammenfassung : Bei CO2-Verdoppelung in einer realen, wasserdampf-haltigen Atmosphäre beträgt der zusätzliche Treibhaus-Effekt von CO2 auf der Basis von Labor-Messungen nur etwa ½ Grad. Die Modelle der IPCC-nahen Institute erzielen daher die ständig propagierten 2 … 5 Grad globaler Erwärmung nicht mit CO2, sondern mit Verstärkungs-Hypothesen, insbesondere mit der Wasserdampf-Verstärkung. Daraus folgt: Nach der säkularen Erwärmung im 20. Jahrhundert um ca. 0,7 Grad müßte einerseits die Wasserdampf-Gehalt der Atmosphäre schon meßbar zugenommen haben, andererseits müßte die Temperatur von Jahrzehnt zu Jahrzehnt beschleunigt ansteigen. Beides wird von den meteorologischen Messungen widerlegt: Weder in der Troposphäre noch in der Stratosphäre sind solche Trends zu beobachten, eher ein leichter Trend zu weniger Wasserdampf, und auch zu weniger Verdunstung am Boden. Auch stagniert die Global-Temperatur seit 15 Jahren.“

Daran ändert übrigens auch ein durch das Witterungs-Phänomen ElNino bedingte warme Jahr 2015 nich

Fazit:   Die Behauptung von Stefan Rahmstorf wird durch die Messungen der Wetterdienste widerlegt.

 

(2)  RAHMSTORF zu „Gewitter-Verstärkung global“ [1]  :

„Der Weltklimarat IPCC hat in seinem letzten Bericht gesagt, Studien in aller Welt zeigen, daß die Gewitter-Intensität in den letzten Jahrzehnten zugenommen hat …“

Um das zu widerlegen genügt es, einfach selbst in den IPCC-Bericht rein zu schauen – da steht nämlich das ganze Gegenteil drin [3] über Hagel und Gewitter :

“In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

„Zusammenfassend gibt es [nur] ein geringes Vertrauen in beobachtete Trends bei den Unwetter-Erscheinungen wie Hagel und Gewitter wegen historischen Daten-Inhomogenitäten und Unzulänglichkeiten bei der Systemüberwachung.“

Genau das Gleiche stand übrigens schon im IPCC-Bericht von 2001 [3a] :

“Neue Analysen der Änderungen bei lokalen Unwettern (Tornados, Gewittertage, Blitze und Hagel) in einigen ausgewählten Regionen liefern keinen zwingenden Beweis für weitverbreitete systematische langfristige Änderungen“.

Und schließlich faßt das IPCC zusammen [4] :
“There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

“Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“

Damit ist anhand der wissenschaftlich gehaltenen und damit allein maßgebenden IPCC-Aussagen in den Basisberichten absolut klar:

Extremwetter-Zunahmen im jüngsten Klimazeitraum sind nicht auffindbar von den Wetterdiensten.
Es ist noch anzumerken, daß alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers (hier) fehlen!
F a z i t :   Es bleibt im Dunkeln, woher Stefan Rahmstorf seine Aussagen hat ; im IPCC-Bericht steht was Anderes.

(3)  RAHMSTORF zu  „Gewitter-Verstärkung in Deutschland“ [1] :

“ … und auch für Deutschland ist es gut belegt, daß die Gewitter-Starkregen-Fälle deutlich zugenommen haben.“

Weiß Stefan Rahmstorf mehr als der Deutsche Wetterdienst DWD, weiß er es besser? Der DWD findet nämlich keinen signifikanten Trend – weder bei Gewitter noch bei Starkregen [6]:

Analysen des DWD haben ergeben, daß sich zumindest in Deutschland aus dem Zeitraum 1951 bis 2000 kein eindeutiger Trend zu vermehrten extremen Niederschlags-Ereignissen ableiten läßt.

Zum gleichen Ergebnis kommt der DWD auch noch heute :

Genau darauf weist auch SPIEGEL-online aktuell im Zusammenhang mit der wieder einmal über-schäumenden Klimahysterie hin  :

„Zwar scheint es plausibel, daß Gewitter im Zug der Erwärmung weltweit häufiger werden. In Deutschland aber scheint der Effekt noch klein: Das „heute journal“ unterschlug Daten des Deutschen Wetterdienstes DWD, denen zufolge starke Niederschläge in Deutschland bislang konstant geblieben sind: Es gebe keinen Trend zu heftigeren Regenfällen, schreibt der DWD …“

Eine ausführliche Zusammenstellung zu den jüngsten Aussagen des Klimarates IPCC (2013/14) zu Extremwetter-Ereignissen findet sich hier: [8] .

F a z i t :  Die Behauptungen des PIK-Forschers Stefan Rahmstorf im ZDF-Interview, es gäbe global und auch in Deutschland mehr stärkere Gewitter, sind weder im Klimarat-Bericht noch in den Messungen der Wetterdienste zu finden – das Gegenteil ist dort dokumentiert.

================================================================

Hinweis EIKE-Redaktion:

Der o.st. Artikel sowie die im Text zitierten Übersichten zu „Extremwetter“ im IPCC-Bericht sowie in Deutschland sind zum Download in Anhägen hier verfügbar, zugleich mit besserer Qualität der Abbildungen.

====================================================

Q u e l l e n :

[1] https://www.youtube.com/watch?v=dhvwa4oSg3o&feature=youtu.be

[2] http://www.eike-klima-energie.eu/news-cache/die-achilles-ferse-der-klima-modelle-wasserdampf-verstaerkung/  06.03.2013

[3] IPCC 2013, AR5, WGI, Kapitel 2, Seite 216

[3a] IPCC, 2001, TAR-02-2, Chapt. 2.7.4., Summary, S.163-164

[4] IPCC 2013, AR5, WGI, Kapitel 2, Seite 219

[5]https://www.dwd.de/DE/klimaumwelt/klimawandel/_functions/aktuellemeldungen/140331_ipcc_bericht.html

[6] DWD 2013, Presse-Mitt. 06.06.2013 ; www.dwd.de

[7] http://www.spiegel.de/wissenschaft/natur/unwetter-bringt-ard-und-zdf-in-erklaerungsnot-a-1095023.html

[8]  http://www.eike-klima-energie.eu/climategate-anzeige/pinocchiopresse-luegenpresse-die-deutschen-medien-und-ihre-klimakatastrophen/

=================================================================

Related Files




Die Energieausbeute von Solar PV

Man hat mich aufgefordert, einen Beitrag zu schreiben, in dem das Konzept der Energie-Ausbeute im Verhältnis zur Energie-Investition begutachtet wird, und als Ersten Schritt in diese Richtung habe ich eine E-Mail an meine State-side-Freunde Charlie Hall, Nate Hagens und David Murphy geschrieben mit der Bitte, mir Literatur aus jüngerer Zeit zu übermitteln. Die erste Studie stammt von Ferruccio Ferroni und Robert J. Hopkirk und trägt den Titel [übersetzt; Originaltitel siehe unten] „Energieausbeute im Verhältnis zu Energieinvestition (ERoEI) für Photovoltaik-Solarsysteme in Gebieten mit moderater Einstrahlung (1). Die Ergebnisse sind so Atem beraubend, dass ich diesen Beitrag sofort schreiben musste.

Was also ist ERoEI? Es ist einfach das Verhältnis zwischen Energieausbeute und der Energiemenge, die verbraucht wird zur Erzeugung dieser Energieausbeute:

ERoEI = erzeugte Energie / investierte Energie

Einfach, nicht wahr? Nun, ganz so einfach, wie es auf den ersten Blick aussieht, ist es nicht. Um den Punkt herauszuarbeiten: verwendet man PV, wird die erzeugte Energie abhängig sein von Breite, der Sonnenscheindauer, der Ausrichtung der Paneele und auch von der Lebensdauer der Paneele selbst. Und wie misst man die investierte Energie bzw. zeichnet diese auf? Misst man einfach den von der PV-Fabrik verbrauchten Strom, oder fügt man noch die von den Arbeitern, den Bergbauarbeitern verbrauchte Energie hinzu, die das Silikon und die Kohle abgebaut haben, um den Strom herzustellen? Ferroni und Hopkirk beleuchten all diese Details und kommen auf ein Verhältnis ERoEI von Solarpaneelen in gemäßigten Breiten von 0,83. Solar-PV ist also keine Energiequelle, sondern eine Energiesenke. Das gilt für die Schweiz und Deutschland. In Aberdeen dürfte es noch viel schlechter sein!

Warum ist ERoEI so wichtig? Es ist ein für die meisten Individuen fremdes Konzept, einschließlich vieler Ingenieure, Beschäftigten im Energiesektor, Akademiker und Politiker. Das damit in Beziehung stehende Konzept der Gesamt-Energie [net energy] ist definiert als:

Net Energy = ERoEI – 1 (wobei 1 die investierte Energie ist).

Die Gesamtenergie ist der Überschuss an Energie, der von unserem Energie-Input übrig bleibt und den wir gebrauchen, um die Gesellschaft mit Energie zu versorgen – Krankenhäuser bauen, Schulen, Frachtflugzeuge und zum Anbau von Nahrungsmitteln. In der Vergangenheit lag das ERoEI unserer primären Energiequellen – Öl, Gas und Kohle – wahrscheinlich über 50, das heißt, dass eimerweise billige Energie übrig war, um unsere gesamte Infrastruktur einzurichten und alle Menschen zu ernähren, die heute die Erde bewohnen. Aber mit der Gesamtenergie-Gleichung für Solar-PV sieht es so aus:

0,83 – 1 = – 0,17

… Brüssel, wir haben ein Problem!

Wie in aller Welt kann es also sein, dass wir in großem Umfang Apparate zu installieren, die offensichtlich Energie verbrauchen anstatt sie zu erzeugen? Die einfache Antwort lautet, dass unser Finanzsystem, Gesetze und Subventionen in der Lage sind, die Gesetze von Physik und Thermodynamik so lange zu verbiegen, bis wir ein ausreichend hohes ERoEI erreichen, um das ganze System am Laufen zu halten und um parasitäre Erneuerbare zu subventionieren. Man versuche mal, Silikon abzubauen und zu veredeln mittels einer elektrischen Bergbau-Maschine, die von der Sonne angetrieben wird – und die Gesetze der Physik werden sich sehr rasch wieder etablieren.

Einfach ausgedrückt, die in Nordeuropa installierte PV kann man betrachten als Kohle, die in China verbrannt wird zur Stromerzeugung hierzulande. Sämtliche CO2-Emissionen, die die Motive für PV stützen, erfolgen in China. Nur im Falle eines hohen Energie-Gewinns durch die PV-Paneele würden durch Solar-PV CO2-Emissionen reduziert. Mehr dazu weiter unten.

[Hervorhebung vom Übersetzer].

Energie-Ausbeute

Die Berechnungen basieren alle auf die erzeugte Energie von 1 m² PV.

Theoretische Berechnungen der Hersteller, was PV-Module erzeugen sollten, berücksichtigen nicht die operationelle Einbuße durch Staub auf der Oberfläche. Auch schlechte Ausrichtung, Ausfall einer Einheit oder deren Bruch finden keinen Eingang in die Berechnungen, obwohl derartige Störungen sehr verbreitet sind.

Die tatsächlich erzeugte Energie, errechnet mittels Schweizer Statistiken, ergibt sich zu 106 kWe/m² pro Jahr.

Dann müssen wir noch wissen, wie lange die Paneele halten. Die Hersteller behaupten 30 Jahre, jedoch zeigen empirische Beweise, dass die mittlere Lebensdauer in Deutschland lediglich 17 Jahre beträgt. Ferroni und Hopkirk rechnen großzügig mit einer Lebensdauer von 25 Jahren.

Kombiniert man all diese Faktoren, kommt man auf eine Zahl von 2203 kWe/m² während der Lebenszeit einer Einheit.

Aufgewendete Energie

Die Berechnung der aufgewendeten Energie erfolgt ebenfalls auf der Grundlage von 1 m² PV-Fläche und verwendet die Material-Masse als Proxy für die verbrauchte Energie und das BIP der Energiedichte als Proxy für den Arbeits-Term in der Gleichung.

Zwei verschiedene Verfahren zur Erfassung der aufgewendeten Energie werden beschrieben:

ERoEI (IEA)

ERoEI (Ext)

Dabei steht IEA für die Verfahren der International Energy Agency und Ext für die erweiterte Grenze wie von Murphy und Hall 2010 beschrieben (2, 3). Der Unterschied zwischen beiden Verfahren ist, dass die IEA dazu tendiert, sich auf die beim Industrieprozess verbrauchte Energie zu konzentrieren, während das erweiterte verfahren von Murphy und Hall 2010 auch Aktivitäten wie Bergbau, Veredelung und Transport des Silikon-Rohmaterials enthält.

Meiner Ansicht nach folgen Ferroni und Hopkirk korrekt dem erweiterten ERoEI-Verfahren von Murphy und Hall. In ihre Berechnungen gehen ein:

Material zur Herstellung der Paneele, aber auch zur Aufrichtung und Installation derselben

Arbeit in jedem Stadium des Prozesses, vom Abbau bis zur Entsorgung

Herstellungsprozess, d. h. die in den verschiedenen Fabriken verbrauchte Energie

Fehlerhafte Paneele, die aussortiert werden

Kapital, welches angesehen wird als die Verwertung bereits bestehender Infrastruktur und Energieinvestitionen

Anschluss der lückenhaften PV an das Netz

Und daraus ergibt sich das Resultat von ERoEI:

2203 : 2664 kWe/m² = 0,83

Der einzige Punkt, den ich in Frage stellen möchte, ist der Einbezug der Energiekosten des Kapitals. Alle erzeugte Energie kann unterteilt werden in Energieverbrauch zur Energiegewinnung und Energie für die Gesellschaft, und ich würde fragen, ob die Kapitalkosten nicht in die letztere Kategorie fallen.

Aber es scheint eine wesentliche Auslassung zu geben, und zwar die Energiekosten der Verteilung. In Europa entfallen etwa 50% der Stromkosten (ohne Steuern) auf Netzausbau und Wartung desselben. Würde man dies auch noch in die Rechnung eingehen lassen, ergäbe sich ein weiterer tiefer Zacken im ERoEI.

Dieser ERoEI-Wert ist niedriger als der Wert 2, wie er von Prieto und Hall (4) angegeben wird und erheblich niedriger als der Wert 5 bis 6, den die IEA nennt (5). Ein Grund hierfür ist, dass die jetzige Studie (1) speziell für Mittlere Breiten gilt. Aber Ferroni und Hopkirk führen auch detailliert Auslassungen der IEA auf, die folgendermaßen zusammengefasst werden können:

a) Der Energiefluss über die Systemgrenzen hinweg und dessen Investition für die Arbeit ist nicht enthalten.

b) Der Energiefluss über die Systemgrenzen hinweg und dessen Investition für das Kapital ist nicht enthalten.

c) Die für die Integration des PV-erzeugten Stromes in eine komplexe und flexible Stromversorgung sowie in ein Verteilungssystem aufgewendete Energie ist nicht enthalten (die Energieerzeugung folgt nicht dem Bedarf der Verbraucher).

d) Die IEA-Leitfäden spezifizieren den Gebrauch eines „primären Energie-Äquivalents“ als eine Grundlage. Da jedoch die erzeugte Energie als sekundäre elektrische Energie gemessen wird, nämlich dem Energieträger selbst, und da etwa 64% bis 67% der aufgewendeten Energie für die Herstellung der PV-Module und -Paneele ebenfalls in Form von Strom vorliegt (Weissbach et al.2013), und da außerdem die Gesetze der Konversion vom Träger oder sekundärer Energie zurück zu primärer Energie nicht wissenschaftlich perfekt sind (Giampietro und Sorman 2013), ist es sowohl einfacher als auch angemessener, die aufgewendete Energie als elektrische Energie zu bezeichnen. Der direkte Beitrag fossiler Treibstoffe, zum Beispiel um die Energie für die Prozesswärme zur Verfügung zu stellen, muss ebenfalls in sekundäre Energie konvertiert werden. Die Konversion der internen chemischen Energie in fossilen Treibstoffen zu Strom wird in modernen Kraftwerken erreicht mit einer Effizienz von 38%, jedenfalls dem statistischen Protokoll von BP zufolge (BP Statistical Review of World Energy, June 2015). In dieser Studie wollen wir zur Vermeidung von Fehlern bei der Konversion weiterhin elektrische (d. h. sekundäre) Energie verwenden mit kW he/m² als zugrunde liegende Energieeinheit.

e) Die angegebene Lebensdauer der Paneele von 30 Jahren muss aufgrund der Erfahrungen bis jetzt als unrealistisch angesehen werden.

f) Die Energieausbeute kann und sollte auf tatsächlichen experimentellen Daten beruhen, gemessen auf dem Feld. Wendet man diese Prozedur an, wird man Werte erhalten, die allgemein viel niedriger liegen als die von Investoren und Politikern erwartete Erzeugung.

Den Punkten a), c) und f) würde ich sofort zustimmen. Beim Punkt b) bin ich mir nicht sicher, und Punkt e) wird Gegenstand von Diskussionen sein. d) ist eine sehr komplexe Angelegenheit und im Grunde das, was ich in meinem jüngsten Beitrag hier beschrieben habe. Ich stimme Ferroni und Hopkirk zu, wenn sie schreiben, dass Einheiten von Strom durchweg verwendet werden müssen, aber falls die IEA die verbrauchte Energie für thermische Verluste in Kraftwerken hochgerechnet hat, würde dies ihre investierte Energie zunehmen lassen und ihre Schätzungen von ERoEI drücken und nicht aufblähen. Dieser Punkt bedarf also noch der Klärung.

Auswirkungen auf die Umwelt

Der Hauptgrund für die Hinwendung zu Solar-PV in Europa ist die Reduktion der CO2-Emissionen. Die Europäische Kommission und die meisten Regierungen in Europa haben in Wolkenkuckucksheim geweilt, als sie CO2-intensive Industrien nach China zu übersiedeln erlaubten, damit die Emissionen in Europa zurückgehen, während sie in China steigen, und weil sie uns glauben machen wollten, dass der aus China importierte Stahl irgendwie emissionsfrei ist.

Das Beispiel Solar-PV rückt dies scharf in den Mittelpunkt. Geht man davon aus, dass der Haupt-Energie-Input von Kohle stammt (und schmutziger Kohle mit geringer Effizienz obendrein) und mit einem ERoEI <1, führt die Stromerzeugung mittels PV in Wirklichkeit zu höheren Emissionen, als wenn man die Kohle gleich von Anfang an zur Stromerzeugung verbrannt hätte. Aber es ist noch viel schlimmer. Alle Emissionen, die mit 25 Jahren der Stromerzeugung assoziiert sind, befinden sich jetzt in der Atmosphäre und würden die globale Erwärmung noch viel schlimmer machen als es ohne PV der Fall wäre [so es diese globale Erwärmung wirklich gibt und so sie wirklich schlimm wäre. Anm. d. Übers.]

Und es wird sogar noch schlimmer! Zur Herstellung der PV-Paneele braucht man außerdem noch viele hässliche Chemikalien:

Viele potentiell gefährliche Chemikalien werden während der Herstellung der Solarmodule gebraucht. Erwähnt werden sollen hier Stickstoff-Trifluorid (NF3; Arnold et al.2013). Dieses Gas wird gebraucht, um verbleibende, mit Silizium kontaminierte Zusätze in den Herstellungsräumen zu reinigen. Dem IPCC zufolge hat dieses Gas ein Potential zur globalen Erwärmung 16.600 mal so hoch wie CO2. Zwei weitere, ähnlich unerwünschte „Treibhaus“-Gase sind Hexafluoräthan (C2F6) und Schwefel-Hexafluorid (SF6).

Und:

Das mittlere Gewicht eines PV-Moduls beträgt etwa 16 kg/m² und das Gewicht des stützenden Systems, der Umwandler und dem Gleichgewicht des Systems mindestens 25 kg/m² (Myrans 2009). Das Gewicht des Betons ist nicht enthalten. Auch sind die meisten verwendeten Chemikalien wie Säuren, Basen, Beizen, elementare Gase, Dotierstoffe [?], photo-lithographische Chemikalien usw. nicht enthalten, da deren Verbrauch nur gering ist. Aber wir müssen Salzsäure (HCl) hinzufügen: Die Herstellung des Solar-Siliziums für ein Quadratmeter Paneelfläche erfordert 3,5 kg konzentrierte Salzsäure.

Vergleich mit Kernkraft

Die Studie zeigt einige interessante Vergleiche mit Kernkraft. Schauen wir zunächst auf das pro Einheit erzeugten Stromes benötigte Material:

● PV verbraucht 20,2 g pro kW he (hauptsächlich Aluminiumstahl und Kupfer)

● Ein Kernkraftwerk verbraucht 0,31 g pro kW he (hauptsächlich Stahl) für einen Nutzungsgrad [load factor] von 85%.

kW he = kilowatt hours electrical

Bezüglich der Arbeitskraft stellen die Autoren fest:

Die in der Erneuerbaren-Industrie involvierten Industrien werben mit ihrer Fähigkeit, viele neue Arbeitsplätze zu schaffen.

Während natürlich die beste Energieform so wenig Arbeitskraft wie möglich erfordern sollte. An einem Punkt, wo ERoEI 1 erreicht, ist jedermann im Bereich Energieerzeugung tätig, und die Gesellschaft, so wie wir sie kennen, kollabiert!

● Solar-PV erzeugt 94,4 Arbeitsplätze pro installierter MW, adjustiert für den Kapazitätsfaktor.

● Kernkraft erzeugt 13 Arbeitsplätze pro installierter MW, darin enthalten sind Aufbau, Betrieb und Stilllegung.

Das könnte für Politiker großartig aussehen, aber es ist diese Ineffizienz, die Solar-PV teuer macht und ERoEI killt. Und schaut man auf die Kapitalkosten:

● Solar-PV kostet CHF 6000 pro installiertem KW (CHF = Schweizer Franken)

● Kernkraft kostet CHF 5500 pro installierten KW.

Aber normalisiert hinsichtlich der Kapazitätsfaktoren von 9% für Solar und 85% für Kernkraft erhalten wir als effektive Kapazität

66.667 : 6471 = 10,3

Fazit: Solar-PV ist zehn mal so kapitalintensiv wie Kernkraft.

Energieumsatz

Wenn ERoEI sich 1 nähert oder unter diesen Wert sinkt, betreten wir den Bereich Energieumsatz, der in unserem Energiesystem ziemlich verbreitet ist. Konvertieren wir beispielsweise Kohle zu Strom, verlieren wir etwa 62% der thermischen Energie. Die Konversion von Kohle und anderer Rohmaterialien in ein PV-Paneel könnte unter bestimmten Bedingungen sinnvoll sein. Zum Beispiel können PV und ein Batteriesystem afrikanische Dörfer mit etwas Strom versorgen, wenn diese keinerlei Aussicht haben, in absehbarer Zeit an ein Netz angeschlossen zu werden. Gleiches gilt für eine Berghütte. Individuen, die sich Sorgen bzgl. Blackouts machen, könnten ebenfalls ein PV-Batteriesystem als Backup in Erwägung ziehen.

Aber hinsichtlich des Zieles der Reduktion von CO2-Emissionen scheitert PV kläglich in Mittleren Breiten. Es fügt dem System einfach Kosten und Rauschen hinzu. In sonnigeren Klimaten könnte sich die Lage verbessern.

Abschließende Bemerkungen

Die Ergebnisse dieser einen Studie zeigen, dass die Installation von Solar-PV in Mittleren Breiten, also in Ländern wie Deutschland und UK, eine einzige Verschwendung von Zeit, Energie und Geld ist. Alles, was man erreicht ist, dass die Strompreise steigen und das Netz destabilisiert wird. Verteidiger von erneuerbarer Energie und Solar werden darauf verweisen, dass dies nur eine einzige Studie ist und dass die von Ferroni und Hopkirk verwendeten Eingangsparameter diskussionswürdig sind. Aber es gibt gute Gründe zu glauben, dass die Ergebnisse ziemlich genau der Realität entsprechen. Zum Beispiel fanden Prieto und Hall ein ERoEI für Solar-PV = 2. Schaut man allein auf wolkige hohe und Mittlere Breiten, wird sich diese Zahl substantiell verkleinern.

Und man muss sich nur mal die unten gezeigten Outputs ansehen. Solar-PV erzeugt ein Tröpfeln im Winter und absolut gar nichts mehr bei der Bedarfsspitze gegen 18 Uhr. Und hierfür müssen gewaltige finanzielle Kosten und Energie aufgewendet werden, um dies zu kompensieren – und was die Erneuerbaren-Enthusiasten mit einem Schulterzucken vom Tisch wischen.

Abbildung 1, Quelle: UK Grid Graphed: Die Verteilung von Solarerzeugung in UK hat sich im Verlauf von 4 Jahren versiebenfacht. Aber 7 mal Tröpfeln im Winter ist immer noch tröpfeln. Die große Menge Energie in diesen teuren Objekten bringt uns gar nichts, wenn wir es am meisten brauchen.

Energy Matters hat eine gute Sucheinrichtung oben rechts. Man gebe Solar-PV ein, und ich war überrascht zu sehen, wie viele Artikel Roger und ich geschrieben haben und sie alle mehr oder weniger zu den gleichen Ergebnissen kommen. Ich habe diese Links unten an diesen Beitrag angefügt.

Abbildung 2: Eine typische Solar-Installation in Aberdeen, wo sich die Paneele auf einem nach Osten geneigten Dach befinden, während das ideale, nach Süden zeigende Dach frei davon ist. Dies ist ein Symbol für Dummheit und Ignoranz, die inzwischen auch in der Akademiker-Zunft Einzug hält. Hat irgendjemand eine Universität gesehen, die sich keine Solarpaneele auf das Dach gepappt hat? Ich habe Akademien argumentieren hören, dass die Ausrichtung in Schottland gar keine Rolle spielt, und damit könnten sie recht haben. Ich wage zu sagen, dass es kaum einen Unterschied hinsichtlich des Outputs ausmachen würde, wenn man die Solarpaneele einfach in ihrer Verpackung belässt. Akademiker sind natürlich immer stärker darauf bedacht, die Regierungspolitik zu unterstützen. Man beachte, dass sonnige Tage in Aberdeen nur extrem selten auftreten. Und im Winter geht die Sonne gegen 10 Uhr auf und gegen 15 Uhr unter.

Vor zwei Jahren wetterte ich gegen die Zufalls-Ausrichtung von Solarpaneelen in Aberdeen, und zwar in einem Beitrag mit dem Titel Solar Scotland. Und diese Zufalls-Orientierung wird zweifellos zu ernsthaft geringeren Werten von ERoEI führen. PV-Enthusiasten werden ohne Zweifel in ihren Gesamtenergie-Analysen davon ausgehen, dass alle Solarpaneele optimal ausgerichtet sind, während sie dies in der realen Welt von Ferroni und Hopkirk nicht sind. Ein gutes Rezept hierzu wäre die Streichung der Einspeisetarife für Systeme, die nicht optimal ausgerichtet sind, während man in Zukunft die Solar-PV-Einspeisetarife vollständig streicht.

Aber wie kann man erreichen, dass diese Botschaft auf der politischen Ebene gehört wird? Das finale Interview von David McKay war sehr aufschlussreich:

Der einzige Grund dafür, dass Solar überhaupt ein Thema wurde, war Demokratie. Die Parlaments-Abgeordneten wollten einen Solar-Einspeisetarif. Daher wurde gegen den Ratschlag der Bediensteten in den Ministerien ,Nein, wir sollten solar nicht subventionieren‘ diese Politik in Kraft gesetzt. Es gab außerdem sehr erfolgreiche Lobbyarbeit durch die Solar-Lobbyisten. Und so herrscht jetzt weit verbreitet dieser Glaube, dass Solar etwas Wunderbares ist, obwohl … UK eines der dunkelsten Länder der Welt ist.

Falls die Politiker jetzt nicht auf den Ratschlag eines der berühmtesten und angesehensten Energie-Analysten der Welt hören, dann, so glaube ich, werden sie auf niemanden hören. Aber mit der Zeit wird ihnen allmählich und immer mehr dämmern, welche Konsequenzen es hat, wenn ihre Wähler über die Energie-Klippe stürzen.

References

[1] Ferruccio Ferroni and Robert J. Hopkirk 2016: Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation: Energy Policy 94 (2016) 336–344

[2] Murphy, D.J.R., Hall, C.A.S., 2010. Year in review-EROI or energy return on (energy) invested. Ann. N. Y. Acad. Sci. Spec. Issue Ecol. Econ. Rev. 1185, 102–118.

[3] Murphy, D.J.R., Hall, C.A.S., 2011. Energy return on investment, peak oil and the end of economic growth. Ann. N.Y. Acad. Sci. Spec. Issue Ecol. Econ. 1219, 52–72.

[4] Prieto, P.A., Hall, C.A.S., 2013. Spain’s Photovoltaic Revolution – The Energy Return on Investment. By Pedro A. Prieto and Charles A.S. Hall, Springer.

[5] IEA-PVPS T12, Methodology Guidelines on the Life Cycle Assessment of Photovoltaic Electricity – Report IEA-PVPS T12-03:2011.

Link: http://euanmearns.com/the-energy-return-of-solar-pv/

Übersetzt von Chris Frey EIKE




Die politisch korrekte Wissenschaft

Auftritt Wissenschaftler: “Ich ziehe es vor, meine Kenntnisse aus den autorisierten Informationen unserer Regierung zu beziehen.”

Das schreibt ein gestandener Wissenschaftler in einer Email. Es geht um eine Diskussion in Sachen Klimafragen. Man sieht: Auf unsere Wissenschaftler ist Verlass. Sie lassen sich nicht auf wacklige Aussagen ein, sondern auf das, worauf der Stempel des Amtlichen, des von oben Verordneten prankt. Zitiert und benutzt wird, was die Regierung autorisiert hat. Endlich herrschen wieder geregelte Verhältnisse in deutschen Universitäten.

Dieser Wissenschaftler soll später eine Promotionsarbeit prüfen – ausgerechnet von jenem Doktoranden, dem er früher diese Aussage geschickt hat.

Ort der Handlung: Universität Leipzig. Hierhin zieht es den hoffnungsvollen Doktoranden, an die Fakultät für Physik und Geowissenschaften. Sämtliche Vorbedingungen sind erfüllt. Doktorvater: der damalige Inhaber des Lehrstuhls für physische Geographie, Prof. Dr. Werner Kirstein.

Das Thema verrät zunächst nichts Problematisches, zumindest nicht so, daß die Professoren in helle Aufregung geraten mussten.

“Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme” – so lautete der etwas sperrige Titel. Geschrieben und eingereicht hat sie Michael Limburg, der bis dahin als Ingenieur im Bereich der Meßtechnik und Fehlerstatistik gearbeitet hat.

Er geht in seiner Dissertation der Frage nach, ob die meteorologischen Daten der vergangenen 150 Jahre genau genug sind, um den Verlauf der “Globalen Mitteltemperatur” auf 1/10 Grad Celsius genau zu berechnen.

Dieser Verlauf spielt in der aktuellen Klimadebatte eine wichtige Rolle; belegen die einen damit doch, dass es wärmer, die anderen, dass es kälter wird.

Die wichtige Frage: Läßt sich eine solche Aussage überhaupt treffen?Satelliten vermögen heute sehr genau alle möglichen Wetterdaten wie Temperaturen der verschiedenen Oberflächen zu messen. Sie gibt es allerdings erst seit etwa 35 Jahren.

Davor beruhen die Temperaturangaben auf Messungen unterschiedlicher Mess-Stationen. Bei denen hängt es sehr davon ab, wo und wie die Thermometer angebracht sind. Über einer Wiesenfläche ergeben sich andere Temperaturen als über Asphaltflächen. Ziemlich schwierig, wenn man sehr unterschiedlich zustande gekommene Temperaturaufzeichnungen miteinander vergleichen und Trends herauslesen will.

Das Ergebnis der Dissertation von Limburg: “Dabei kam ich zu dem eindeutigen Ergebnis, dass die verwendeten historischen Wetter-Messdaten dies nicht erlauben. Ich fand heraus, dass die bei der Berechnung der globalen Mitteltemperatur unvermeidliche verbleibende Unsicherheit mindestens genau so groß ist wie die ganze offiziell angegebenen Änderung über 150 Jahre, wahrscheinlich aber sogar ein Vielfaches beträgt. Dies ergibt sich zwangsläufig bei Anwendung aller gängigen und vielfach erprobten Regeln der Messtechnik und der statistischen Fehlerrechnung.”

Das Ergebnis war jetzt allerdings geeignet, die prüfenden Professoren erheblich aufzuschrecken. Es birgt erhebliche Sprengkraft.

Limburg weiter: “Die Arbeit stellte ja indirekt wesentliche Aussagen zur angeblichen ‘menschengemachten Klimaerwärmung’ und damit einen der Hauptgründe für die Förderung der sogenannten ‘Erneuerbaren Energien’ infrage. Für beide Themenkomplexe gibt es jedoch höchst umfangreiche Fördergelder. Vermutlich befürchteten die Verantwortlichen diesbezügliche Nachteile, falls sie einer Arbeit Platz und dem Autor einen akademischen Grad zugestanden, der dem bisherigem Dogma – und sei es auch nur indirekt – widersprach.”

Man kann sich vorstellen, wie der Blutdruck der Herren Professoren hochschnellt.Die erste Kommission, die die Promotionsarbeit prüfen sollte, tritt geschlossen zurück. Begründung: “Weitgehende politische Motivation der Arbeit”.

Folgt Auftritt der Rechtsabteilung der Universität: “Dieser Rücktritt ist illegal”. Denn er verstoße gegen die Promotionsordnung und gegen das Grundrecht des Doktoranden auf Meinungsfreiheit und das allgemeine Grundrecht der Wissenschaftsfreiheit.

Abgang der Universitätsjuristen, die immerhin so etwas wie den Rechtsstaat im Kopf haben.

Auftritt Dekan der Fakultät, Prof. Dr. J Haase. Er beruft eine zweite Promotionskommission ein. Besetzung: ein bereits zurückgetretenes Mitglied der früheren Kommission sowie vollkommen neue Professoren.

Dann lässt Dekan Prof. Haase den Betreuer der Arbeit, Prof. Werner Kirstein, nicht als Gutachter zu.

Auftritt Prorektor Forschung und wissenschaftlicher Nachwuchs. Er schreibt in einem internen Vermerk: “Probleme um den Arbeitskreis Kirstein und die widersprüchliche Antizipation in der Wissenschaftsgemeinschaft haben in der letzten Zeit eine starke Eskalation erfahren.”

Dekan Prof. Haase beruft einen neuen Gutachter aus der Fakultät sowie einen weiteren Externen. Sie werden dem Lager des IPCC zugerechnet.

Einer der beiden Gutachter bezeichnet sich schon mal gleich von vornhereinals nicht ausreichend kompetent für dieses Gebiet: “Leider sehe ich – als Meteorologe mit dem Fachgebiet atmosphärische Strahlung – nicht, wie ich den Aufgaben eines Kommissionsmitgliedes in diesem Fall voll gerecht werden kann…”

Abtritt neuer Gutachter. Von ihm kommt zufällig sein Dissertationsexemplar an die Öffentlichkeit mit wissenschaftlich präzisen handschriftlichen Randbemerkungen wie “Scheiße”, “Bullshit”, “lächerlich” und “Blödsinn”.

Auftritt nächster Gutachter, Prof. Dr. Martin Visbeck, Meereswissenschaftler am GEOMAR in Kiel. Das wiederum ist jener unabhängige Geist, der sich sicherheitshalber an die “autorisierten Informationen unserer Regierung hält”.

Sein Gutachten der Promotionsarbeit fällt entsprechend aus: “Ich bewerte die Dissertation insgesamt aufgrund der Quantität an neuen Erkenntnissen und Qualität der Bearbeitung mit nicht genügend.” Er schließt: “Von mir unbewertet bleibt der Schreibstiel der Arbeit.” (Text unkorrigiert)

Der Doktorand bemerkt anhand der handschriftlichen Anmerkungen, dass der Professor bereits nach wenigen Seiten aufhört, seine Anmerkungen hinzuzufügen.

Ein anderer Professor meint, dass der Doktorand den Treibhauseffekt nicht verstanden habe. Der allerdings spielt in der Arbeit keine Rolle. In der geht es “nur” um die Frage, wie genau denn die Temperaturen der vergangenen 150 Jahre mit den vorhandenen Meßmethoden gemessen worden sein konnten. Die Antwort überzeugt Klimaapostel nicht: “Die große Unsicherheit der Daten läßt keine Zuordnung von Ursachen zu.”

Also: Die Daten sind zu ungenau und haben zu große Meßungenauigkeiten, als daß aus ihnen Schlüsse gezogen werden dürften wie den vom Menschen verursachten Klimawandel.

Eine gefährliche Aussage, hängt davon doch Wohl und Wehe der Universität ab. Gibt es weitere Forschungsgelder oder nicht?

Auftritt Fakultätsrat: Die Dissertation wird abgelehnt!

Doktorand Michael Limburg widerspricht mit Hilfe seines Anwaltes: Zu viele formale Fehler in der Ablehnung!

Zehn Monate dauert es, bis die Fakultät auch diesen Widerspruch als unbegründet ablehnt. Laut Verwaltungsrecht darf sie selbst auch über den Widerspruch ihrer Ablehnung entscheiden, nicht ein externes Gericht.

Auftritt Verwaltungsgericht Leipzig. Der Doktorand hat Klage eingereicht, die Richter luden auch die Gutachter ein.

Doch zum Showdown im Gerichtssaal kommt es nicht mehr. Die Fakultät legt einen Vergleichsvorschlag vor: Die Universität zieht die Ablehnung der Arbeit zurück und entschuldigt sich beim Doktoranden für die Art und Weise der Durchführung des Promotionsverfahrens. Doch die Arbeit gilt damit als nicht eingereicht.

Nächster Ort der Handlung: nächste Universität, diesmal Technische Universität Clausthal. Die Professoren verweigern gar die Annahme der Arbeit. Sie lassen die gerichtliche Rücknahme der Ablehnung seitens der Universität Leipzig für sich nicht gelten.

Abgang entnervter Doktorand. Er stellt die Arbeit zur Diskussion ins Internet. Über die Arbeit und ihre Ergebnisse muss man diskutieren. Das ist Wissenschaft. Aber nicht ablehnen, weil sie nicht in das politische Konzept passt.

“Die Regierung hat doch abgesegnet!” Abgesang hochbezahlter Kader-Wissenschaftler, die einen skandalösen Umgang mit wissenschaftlicher Auseinandersetzung pflegen.

.. Szenenwechsel: Universität Marburg. Früher in ihrer großen Zeit wirkten hier Größen wie der Mediziner und Nobelpreisträger Emil von Bering (“Retter der Kinder”) oder der Chemiker und Nobelpreisträger Adolf Butenandt, der die Basis für die Anti-Baby-Pille legte.

Viele Professoren unterzeichneten seinerzeit übrigens die “Bekenntnisse der Professoren an den deutschen Universitäten und Hochschulen zu Adolf Hitler und dem nationalsozialistischen Staat”.

Heute haben Gender-Dogmatiker das Ruder übernommen. Der Biologe Prof. Ulrich Kutschera von der Uni Kassel sollte in diesem Jahr den Eröffnungsvortrag zum Studium Generale halten. Er sagt in erfrischender Deutlichkeit, was er von dem Gender-Humbug hält: Die Gender-Ideologie “ist eine quasi-religiöse Weltanschauung” und eine “geistige Vergewaltigung des Menschen”….

Weiterlesen bei Tichys Einblick hier

Viele Dokumente zur Dissertationsvereitelung Limburg können Sie hier herunterladen. Bis ganz nach unten scrollen  

Update 4.6.16 zur heutigen und damaligen Lage der Potsdamer Säkularstation:

Wegen der Versuche einiger Kommentatoren dem Autor M. Limburg, wenn auch an einem völligen Nebenkriegsschauplatz, schlampige Recherche zu unterstellen und damit ihn und seine Arbeit insgesamt abzuwerten, finden Sie eine Gegenüberstellung der Säkularstation Potsdam mit ihrer Umgebung bei Gründung und heute. 

Abb 1: Bilder der Säkularstation Postdam und ihrer Umgebung von links nach rechts. Der Pfeil zeigt jeweils die Station.  Links oben: Google Earth Aufnahme der Gegenwart. Rechts oben. Lageansicht der Station aus einer Zeichnung des gesamten Gebietes auf dem Telegrafenberg, zum Zeitpunkt ihrer Gründung (Quelle: Hier). Unten: Ausschnitt aus der Website des PIK für die Station. Deutlich erkennbar: es handelt sich um einen Ausschnitt aus der Zeichnung rechts oben. Ebenso deutlich, während die Gegend der Säkularstation unterhalb bis weit nach links   gut bewaldet war, war dies bei und um die Station nicht so. Es wäre für den Zeichner sicher ein leichtes gewesen den Wald dort auch einzuzeichnen, wenn es ihn gegeben hätte.

Related Files




Technikfehler mit Technik bekämpfen,

….unter dieser Überschrift brachte die „Junge Freiheit“ vor kurzem  (6. Mai 2016) einen aktuellen Bericht über die jetzt laufenden Arbeiten in Tschernobyl. Wer Interesse an dem ganzen Artikel hat, kann sich melden, ich kann dann einen Scan schicken. Hier will ich jetzt mal die Stichpunkte zitieren.

 

Untertitel: „Trotz bedrückender Geschichten verbreitet der Betreiber Optimismus“.

„Das Resümee nach dem SuperGAU fällt trotz allem positiv aus: der Preis war hoch, doch es war Lehrgeld für die Welt“. Igor Gramotkin (der die Arbeiten dort leitet), sagt: „Wir wissen jetzt, dass am Ende selbst die Folgen einer solchen Katastrophe wie in Tschernobyl beherrschbar sind“.

 

Es wird die neue, zweite Schutzhülle beschrieben, 40.000 Tonnen scher, es ist das größte, jemals von Menschen gebaute bewegliche Konstrukt (beweglich, weil es dann über die Reaktor-Ruine geschoben wird). Die Kosten tragen die EU und Russland zum größten Teil(ca. 2 Milliarden so weit ich weiß, im Vergleich dazu, was uns die Energiewende jedes Jahr kostet geradezu Peanuts). Die neue Schutzhülle  wird im November 2017 über den Reaktor geschoben und ist für 100 Jahre ausgelegt, in diesem Zeitraum kann man dann im Innern einiges aufräumen, so ist die Einschätzung.

 

Wer zum ersten Mal nach Tschernobyl kommt wundert sich, wie nahe man herangehen kann, ohne jede Schutzausrüstung (ich hatte auch keine). Die radioaktive Belastung des Kraftwerkareals liegt nur unbedeutend höher als normal, man hat dort auch reichlich Boden ausgetauscht. In übrigen weiteren Bereich soll es aber noch vereinzelt Stellen geben, die eine  hohe Intensität haben (und andere fast keine), also sehr unregelmäßig. Der kontaminierte Niederschlag sinkt pro Jahr etwa 1 cm weiter tiefer in den Boden.Während auf dem Kraftwerksgelände kein Vogelschrei zu hören ist (Vögel sammeln sich lieber da, wo Menschen hausen, da gibt es was zu fressen), gedeiht das Wild in der Sperrzone wie sonst kaum in Europa (naja, da wird auch nicht bejagt, außerdem haben die Tiere das Glück, dass sie nicht lesen können. Es gibt viele interessante Untersuchungen und auch Filmberichte über die dort eingelebte Fauna, alle ehemaligen Zäune haben die Tiere längst entsorgt, die braucht man nicht. Die Fauna dort ist überraschend gesund. Naturschützer sorgen sich eher, weil Teile allmählich wieder von der Landwirtschaft übernommen werden sollen, dann ist das ganz freie Leben für die Tiere vorbei.).

 

Einen weltweiten Ausstieg aus der Kernenergie hält Gramotkin für ausgeschlossen (ich auch). Sein eigentliches Argument ist, dass der technische Fortschritt zu allen Zeiten stärker war als jeder Widerstand (nur in Deutschland hinken wir da deutlich hinterher). Der steigende Energiebedarf der Menschheit wird anders nicht zu decken sein. Nach dem Untergang der Titanic hat man auch nicht beschlossen, die Seefahrt endgültig aufzugeben, natürlich nicht, aus Unfällen muss die Menschheit eben lernen, und das kann sie auch, ein Argument, das ich in meinen Vorträgen auch so bringe.

 

Das zu dem Artikel, und dabei kann ich dann berichten, dass ich mir im Sommer vor zwei Jahren auch so einen Ausflug gegönnt habe, wird von Touristik-Unternehmen so angeboten. Wir waren eine Gruppe von etwa 12 Leuten (ein Japaner wie immer auch dabei) und starteten in einem Kleinbus in Kiew. Es gibt zwei Sperrzonen jeweils mit einem Schlagbaum, eine äu0ere von 30 km und eine innere von 10 km, da ging es aber recht unverkrampft zu. Die äußere Zone ist seit einigen Jahren wieder bewohnt (eine Führerin wohnte auch dort), man sieht die verkommenen Ruinen (Hütten der Bauern) und dazwischen schmucke neue Häuschen, die Ruinen machen einen düsteren Eindruck, aber eben weil die Gebäude über Jahrzehnte verlassen sind und weil, eine russische Sitte, die Leute beim Umziehen Fenster und Türen mitgenommen haben (die waren Mangelartikel im Sozialismus, diese Sitte hat sich so erhalten), da bleibt dann nur das Mauerwerk stehen..

 

In der inneren Zone hat die Führerin (in einem ehemaligen Kindergarten) Messungen gemacht, direkt über dem Boden ist die Strahlung etwa doppelt so stark wie bei einem Interkontinentalflug, in der Luft selbst gibt es keine erhöhte Radioaktivität, deshalb gibt es auch keinerlei Schutzkleidung. Wir wanderten auch durch die Gebäude der verlassenen Stadt (Pripjat), ein merkwürdig unaufgeräumter Eindruck, teilweise wachsen die Bäume vom Wald in die Gebäude hinein, die Natur holt sich ihren Teil zurück. Manche Zerstörungen im Innern, weil man beim Auszug ziemlich rabiat abgebaut hat, mitnehmen konnte man, da die Aktivität ja nur außerhalb der Gebäude war. Ich hatte einen einfachen Geigerzähler mit und dann auch Messungen gemacht, auf einer Straße war einfach nichts mehr zu messen, das war schon richtig enttäuschend (da hatte man neu asphaltiert), aber der Führer war so nett und tröstete mich und führte mich durch ein Waldstück zu einem alten Sportgelände (betonierter Boden), da konnte ich dann endlich mal noch einen Ausschlag beobachten.

 

Man kann bis etwa 200 m an den Reaktor 4 heran (da bin ich auf dem Bild), und wir wanderten auch durch den berühmten Spielpark, ich gönnte mir den Jux, mich mal in einen Autoscooter zu setzen, die fahren allerdings nicht mehr, und einige von uns sind dann auch auf dem Riesenrad herumgeklettert, immerhin, der Eintritt ist jetzt frei, das wollte ich aber nicht auch noch.

 

Die riesige neue Hülle überragt vieles und ist weit zu sehen, eigenartig nur, es waren keine Arbeiter zu sehen, vermutlich weil Urlaubszeit war, die wird dort sehr ausgedehnt genossen. Am späten Nachmittag ging es dann zurück, wir hatten noch einen Imbiss in einem Restaurant in der äußeren Sperrzone, und man fährt an dem unvermeidlichen Lenin-Denkmal vorbei, das steht da immer noch, da müsste man gründlicher dekontaminieren, vor allem ideologisch. Bei jeder der beiden Kontrollposten gibt es zum Ausgang eine Messstelle, durch die man durch muss, aber die Ergebnisse waren bei allen unserer Teilnehmer im normalen Bereich. Gut, gründlich messen, das schadet ja nicht.

 

Alles zusammen für einen Physiker ein interessanter Ausflug, und an diesem Spätsommertag hatten wir schönes Wetter, das einzige, was richtig strahlte, war die Sonne, und das haben wir dankbar genossen.




Ein weiterer falscher Alarm bzgl. Anstieg des Meeresspiegels und Antarktischer Eisschmelze

Berichte in den Medien

Dazu ein Beispiel vom Weather Channel:

Ein antarktischer Gletscher von der Größe von drei Vierteln der Fläche von Texas schmilzt unverändert, und falls er vollständig verschwindet, wird der Meeresspiegel auf der ganzen Welt dramatisch steigen, wie aus einer neuen Studie hervorgeht. Der Totten-Gletscher in der östlichen Antarktis schmilzt rasch und droht zu einem weiteren Sorgenkind zu werden angesichts der steigenden globalen Temperaturen. Die Studie wurde in dem Journal Nature veröffentlicht. Er ist bereits nahe an einen „Kipp-Punkt“, und – der Studie zufolge – falls er ganz kollabiert, könnte der globale Meeresspiegel um fast 10 Fuß steigen [ca. 3 m]… „Ich prophezeie, dass vor Ende dieses Jahrhunderts die großen Städte unseres Planeten in Küstennähe zwei bis drei Meter hohe Deiche um sich herum haben werden“. Das sagte der Autor der Studie Martin Siegert der French Press Agency (Hervorhebung vom Autor).

Aus Science Daily stammt dieser Auszug aus einer Presseerklärung des Imperial College London:

Gegenwärtige Raten des Klimawandels könnten einen großen Gletscher der Antarktis instabil werden lassen, was ultimativ einen Anstieg des Meeresspiegels über 2 Meter nach sich ziehen würde. Bei der Erforschung der Historie der Rückzüge und Vorstöße des Totten-Gletschers haben die Forscher entdeckt, dass falls sich der Klimawandel ohne Abschwächung fortsetzt, der Gletscher eine kritische Grenze während des nächsten Jahrhunderts überschreiten und eine irreversible Periode eines rapiden Rückzugs erleiden könnte. Dies würde ihn sich während der folgenden Jahrhunderte bis zu 300 Kilometer landeinwärts zurückziehen lassen, wobei riesige Wassermengen frei werden würden, die um 2,9 Meter zum globalen Anstieg des Meeresspiegels beitragen könnten. (Hervorhebung vom Autor).

Und schließlich noch die reißerische Schlagzeile von Chris Mooneys Beitrag in der Washington Post vom 18. Mai: ,Fundamental instabil‘: Wissenschaftler bestätigen ihre Befürchtungen hinsichtlich des größten Gletschers der Antarktis.

Aus der Studie

Den größten Teil der Studie macht eine komplexe Analyse der detaillierten gravimetrischen und magnetischen Daten aus, die aus Messungen eines tief fliegenden Flugzeuges gewonnen wurden, das wichtige Komponenten der Geologie unter dem Totten-Gletscher kartographiert hatte.

Es ist hilfreich, den Zusammenhang zu verstehen hinsichtlich eines alarmierenden Meeresspiegel-Anstiegs (SLR). Siehe dazu meinen früheren Beitrag hier. Der SLR beschleunigt sich nicht, weshalb die Warmisten nach zukünftigen Eisschild-,Kipp-Punkten‘ suchen mussten, die einen abrupten SLR auslösen könnten, was dringende Maßnahmen zur Abschwächung der CO2-Emissionen erforderlich machen würde. Grönland stand ursprünglich im Mittelpunkt, aber Grönland kooperiert nicht aufgrund seiner schüsselförmigen Geologie.

Der Westantarktische Eisschild (WAIS) war der nächste Konzentrationspunkt. Das Ronne-Eisschelf erwies sich als fest und stabil, wie in dem oben verlinkten Beitrag zu den Tipping Points beschrieben. ANDRILL zeigte, dass das Ross-Schelfeis ebenso stabil ist, hat sich doch dessen Aufsetzlinie [grounding line] seit vier Jahrtausenden nicht verändert. Die Aufmerksamkeit wandte sich dann der Amundsen-Bucht zu, wo im Jahre 2014 viel Aufhebens gemacht wurde um den fließenden Pine Island-Gletscher (PIG) – bis sich herausstellte, dass der PIG auf einem aktiven Vulkan saß, was nichts mit der globalen Erwärmung zu tun hatte. (Eingelagert in den PIG sind Schichten vulkanischer Asche). Auch der WAIS hat nicht kooperiert. Also verlagerte sich die Aufmerksamkeit jetzt zum Ostantarktischen Eisschild (EAIS), bei dem der Totten-Gletscher das größte Einzugsgebiet hat, welches etwa die Hälfte des von der NASA definierten geologischen Sektors einnimmt (siehe folgernde Karte.Darin auch eingezeichnet ist der Eisschild der Moscow University und der Frost-Gletscher).

Wo der Totten den Südlichen Ozean erreicht, liegt er zumeist in flachen Gewässern auf Grund, die weniger als 500 m tief sind. Dies beeinträchtigt nicht dessen Stabilität (genauso wie beim Ross-Eisschelf), liegt doch die Wassertemperatur der oberen rund 500 m der Antarktischen Küstengewässer um den Gefrierpunkt. Aber wärmeres Meerwasser unterhalb von etwa 500 m schmilzt die Basis des Totten-Gletschers über einem tiefen untermeerischen Tal (hier), das etwa 5 km breit und etwa 800 m tief ist. Es wurde im Jahre 2015 entdeckt (hier). Dieses Abschmelzen verursachte ein langsames Zurückweichen der Aufsetzlinie hinter dem Tal. Der jährliche Rückzug der Aufsetzlinie beträgt gegenwärtig etwa 100 Meter pro Jahr. (Jedoch sind es Aitken in der Washington Post zufolge an manchen Stellen 175 m pro Jahr). Dazu muss man wissen, dass Aitken ein Mit- aber nicht der Leitautor der Studie 2015 war, in der es um das Tal gegangen war.

Dieser Schmelzprozess in der Tiefsee könnte sich im Verlauf von etwa 1500 Jahren etwa 150 km landeinwärts zurückziehen durch das unter dem Gletscher liegende Sabrina-Becken (in der folgenden Abbildung aus der Studie 2015 dunkelblau markiert), bevor er eine Felsenbarriere unter dem Eis erreicht, die lotrecht zum Gletscher nur etwa 200 Meter unter der Meeresoberfläche liegt. Dies würde das Abschmelzen zum Stoppen bringen (befindet sich doch das das Schmelzen verursachende Wasser in Tiefen unter 500 m). Aitken et al. 2016 schätzen, dass dies den Meeresspiegel um 0,9 Meter oder ~6 cm pro Jahrhundert steigen lassen könnte. Keinerlei Grund für Alarm.

Wovon Aitken et al. 2016 berichten, ist ein anderer Fjord-artiger ,Einschnitt‘ in diesem blockierenden Rücken, welcher (im Falle einer unveränderten Schichten-Abfolge der Wassertemperatur) es möglich machen würde, dass sich das Schmelzen an der Basis durch das innere Aurora-Becken unter dem Eis hinter dem Rücken fortsetzt. Dieser Prozess würde sich weitere 350 km lang fortsetzen oder etwa um 40% in das Totten-Becken hinein. Aitken et al haben auch Eis durchdringendes Radar eingesetzt zur Untersuchung des Meeresgrundes sowohl im Sabrina- als auch im Aurora-Becken, um zu bestätigen, dass der Totten-Gletscher tatsächlich durch beide Becken hindurch schon vor 3 Millionen Jahren im Pliozän (vor dem Einsetzen der gegenwärtigen Eiszeiten) geschmolzen war, wobei der CO2-Gehalt etwa 400 ppm betragen hatte. Dies wurde in den PR-Alarm hinein geworfen – es geschah zuvor bei 400 ppm!!! Mit den gegenwärtigen Schmelzraten würde dies etwa 3 Jahrtausende in Anspruch nehmen, was den Meeresspiegel um 2,9 Meter steigen lassen könnte – eine keineswegs alarmierende Rate von 10 cm pro Jahrhundert. Auch das ist möglicherweise noch viel zu hoch gegriffen, müsste doch das gesamte wärmere Wasser aus dem Aurora-Becken ungestört durch den gerade entdeckten Einschnitt im Rücken strömen.

Dies ist KEIN fundamental instabiler Kollaps, der 2 bis 3 m SLR bis zum Ende dieses Jahrhunderts implizieren würde, was die Autoren in ihren Presseerklärungen auch klar bekannt gegeben hatten.

Wie bekommt man einen SLR von 3 Fuß [ca. 0,9 m] durch das Schmelzen im Sabrina-Becken bis zu dem Rücken? Man nehme einfach an, dass das gesamte Eis in dem zurückhaltenden Becken verschwindet, auch das oberhalb des Meeresspiegels, das nicht durch warmes Meerwasser schmilzt. Bis zum Rücken ist das Rückhalte-Becken etwa 200 bis 250 km breit, der Gletscher etwa 100 km breit, dessen Zunge und der vorstehende Eisschild etwa 145 km breit. Diese Annahme ist dubios, aber nicht unplausibel. Es würde einen Eisfluss implizieren von ähnlicher Größenordnung wie bei den Gletschern im nordöstlichen Grönland heutzutage (ein weiterer Favorit der Übertreibung durch Alarmisten) außer dort, wo es heute keine solchen fließenden Gletscher gibt und wo die Temperatur im antarktischen Sommer niemals über den Gefrierpunkt steigt (in den meisten Gebieten von Grönland ist dies sommers kurzzeitig der Fall).

Wie bekommt man 2,9 Meter SLR aus dem roten Oval? Einfach! Just use the same entire catchment assumption to that deeper recessional melting point. [Verzeihung! Eine sinnvolle Übersetzung dieses Satzes habe ich nicht hinbekommen! Mag jemand einen Vorschlag machen? Anm. d. Übers.]

Wie bekommt man ~4 Meter (Washington Post)? Man nehme einfach an, dass falls das Aurora-Becken hinter den Rücken abschmilzt via Eindringens wärmeren Meerwassers durch den Einschnitt, dann wird das gesamte Rückhalte-Becken all sein Eis verlieren because it lost its Totten ‘plug’ (up catchment ice is about 2.5 km thick). [Gleiches Problem! Anm. d. Übers.]

Dies ist die gleiche Hypothese, die Rignot bei seinem PIG-Alarm aufgestellt hat hinsichtlich des Verlustes des gesamten Eises in der Amundsen-Bucht, obwohl sogar seine eigene Studie zeigte, dass dies unmöglich ist.

Dies ist die gleiche Hypothese, die Greenbaum et al. 2015 in der oben genannten Studie aufgestellt haben (bei der Aitken Mitautor war), aufgrund derer Aitken et al. 2016 aufbauen (hier; Abschnitt 8)

Schlussfolgerungen

Die alarmistischen Schätzungen dieser neuen Nature-Studie, vor allem wie sie in den Medien repräsentiert werden, sind ganz schwer falsch, sowohl hinsichtlich der Größenordnung als auch der Rate des Meeresspiegel-Anstiegs, der mit dem Schmelzen des Totten-Gletschers einher gehen könnte.

In den Presseerklärungen und den Interviews der Autoren gibt es völlig ungerechtfertigte Übertreibungen. Es wurden Hypothesen zugrunde gelegt, die niemals erwähnt worden sind außer als Referenz auf zuvor zurück gewiesene Studien durch Rignot. Ein gewebtes Netz des Betruges!

Link: https://judithcurry.com/2016/05/22/another-antarctic-sea-level-rise-false-alarm/

Übersetzt von Chris Frey EIKE