1

EPA Chefin: Ich rede nicht mit Klimaleugnern

McCarthy in einem Facebook-Live-Interview mit Mashable [Uk-US Nachrichtenseite] am Dienstag.:

 "Ich kümmere mich nicht um die flache-Erde-Gesellschaft und ich spreche nicht mit Klimaleugnern. Das ist es. Tut mir leid, ich weiß, dass ich für alle da sein soll, aber meine Geduld ist in den letzten acht Jahren dünn geworden."

McCarthy ist einer der umstrittesten EPA Chefs gewesen, seitdem der Plan gegen globale Erwärmung, genannt Clean Power Plan, unter ihrer Überwachung abgeschlossen wurde. Republikaner forderten sogar ihren Rücktritt im Zuge des von der EPA verursachten Abfluss von giftigen Flüssigkeiten aus der Gold King Mine im Jahr 2015.

Einige Demokraten haben vorgeschlagen, dass McCarthy, zumindest vorübergehend, bei EPA bleiben könnte, wenn die demokratische Präsidentschaftskandidatin Hillary Clinton die Wahl im November gewinnt, aber McCarthy hat jedoch verlauten lassen, dass sie keine Pläne hat, um auf lange Sicht in D.C zu bleiben [dem Standort der EPA].

EPA wird immer wieder kritisiert von Pro-Kohle-Republikanern, dass die Umweltbehörde verantwortlich ist, dass Bergleute ihre Arbeitsplätze verlieren. Kohle Unternehmen sagen, Schließungen von Kraftwerken und Kohleminen haben ihren Grund in den föderalen Vorschriften und billigem Erdgas.

McCarthy sagte Mashable, dass Kohle-Staaten "in Schwierigkeiten" sind, es ging seit den 1980er Jahren mit der Industrie "bergab." "Das ist nicht etwas, was in der Zeit der letzten EPA Leitung stattfand", sagte sie im Interview.

Das stimmt aber nicht, denn die amerikanische Kohleproduktion erreichte im Jahr 2008 ihren Höhepunkt mit etwa 300 short tons [1 short ton sind rd. 907 kg] erreichte. Auf was McCarthy sich wahrscheinlich bezieht, ist die Tatsache, dass Kohlejobs seit den 1980er Jahren aufgrund der gesteigerten Automatisierung und Effizienz stetig zurückgehen.

Dies ist nicht das erste Mal, dass McCarthy "Klimaleugner" ausgegrenzt. Sie sagte:

„…normale Menschen und nicht Skeptiker der globalen Erwärmung werden die Klimadebatte gewinnen“, in einer Rede im Juni-2015 auf einem Gipfeltreffen im Weißen Haus.

"Ich tue das nicht, um Klimaleugner zurückzustoßen, sie können Spaß dabei haben, wenn sie es wollen, aber ich bin schon zu oft gegen die Wand gestoßen, und wenn schon die Wissenschaft ihre Meinung nicht ändern kann, werden sie es nie tun."

Erschienen auf The Daily Caller am 19. Okt. 2016

Übersetzt durch Andreas Demmig

 http://dailycaller.com/2016/10/19/epa-chief-im-not-talking-to-climate-deniers/




EIKE 9.IKEK Dipl.-Ing. Michael Limburg: Aufwand vs. Ertrag – Die Kosten und Nutzen der Energiewende

Bevor die Bilanz von Kosten und Nutzen der Energiewende erfolgt, werden die Größenordnungen im Vergleich von konventionellen und erneuerbaren Energieträgern veranschaulicht. So liegt die Energiedichte bei einem konventionell aufbereiteten Uran-Kernbrennstoff bei etwa 350.000 kWh/kg, bei Gas bei etwa 12 kWh/kg und bei einer Bleibatterie bei etwa 0,033 kWh/kg.

Video des Vortrages von Dip. Ing. Michael Limburg gehalten anlässlich der 9.Internationale Klima- und Energie Konferenz (IKEK) am 11. und 12.12.15 im Haus der Technik, Essen, über „Kosten und Nutzen der Energiewende“. Im Vortrag werden die Ausschüttungen der Netzbetreiber an die Besitzer von EE Anlagen thematisiert. Um Unklarheiten zu vermeiden sei festgestellt, dass die sich aus der kumulierten EEG Umlage und dem kumulierten Erlös den dieser Strom an der Strombörse erzielte, zusammen setzen 

Bei der Stromerzeugung würden 5 große konventionelle Kohlekraftwerke ausreichen, um die bereits installierten etwa 25.000 Windkraftanlagen oder über 1,45 Millionen Solaranlagen zu ersetzen. Natürlich muss man dabei beachten, dass industrielle Wind- und Solarkomplexe eine weitaus größere Fläche – und damit Eingriffe in die Landschaft – benötigen.




WikiLeaks: Hillary Clintons Widersprüchliche Bemerkungen zum Fracking

  1. In Bezug auf Fracking, bieten die öffentlich gewordenen E-Mails einen Einblick in Reden, die sie vor geschlossenen Gruppen gehalten hat, die wir bisher nicht kannten. Eine solche Rede wurde vor der mit Problemen belasteten Deutschen Bank am 24. April 2013 gehalten.

    Dort lobte sie das Fracking als Werkzeug, um "noch mehr Länder mit mehr Energie zu versorgen". Sie erzählte dem Publikum: "Ich habe Fracking an anderen Orten auf der ganzen Welt gefördert." Sie prahlte über "die Vorteile, die auf uns zu kommen, vor allem in der Produktion, weil wir jetzt mehr Öl und Gas bekommen werden."

    Doch alles, was sie in ihrer Kampagne gesagt hat, ergibt ein anderes Bild.

    Ihre erklärte Energiepolitik ist gegen fossile Brennstoffe gerichtet. Die Partei-Basis fordert "eine Zielsetzung von 100 Prozent Strom aus erneuerbaren Quellen bis 2050." Zusätzlich zur Forderung "genug saubere erneuerbare Energie für die Stromversorgung jedes Hauses in Amerika innerhalb von zehn Jahren", umreißt Hillarys Website ihren Wunsch „die Menge an Ölverbrauch in den Vereinigten Staaten und auf der ganzen Welt zu reduzieren" Sie erklärte, dass das Verbot der Gewinnung fossiler Brennstoffe auf öffentlichen Grundstücken "ein erledigtes Geschäft ist." Während sie damit nicht rauskommt und klar sagt, dass sie Fracking verbieten würde, z.B. bei einer CNN-Debatte im März 2006 mit Bernie Sanders in Flint, Michigan.

    Sie erklärte stolz: "Wenn wir alle meine Bedingungen durchbekommen, glaube ich nicht, dass es noch viele Orte in Amerika gibt, wo Fracking weiterhin stattfinden wird. Und sie hat versprochen, “fossile Brennstoffe zu stoppen".

    Dann gibt es ihre Anmerkung über die Finanzierung Grüner Gruppen, die aus Russland kommt. Es ist schon lange vermutet worden, dass Russland seine nationalen Öl-und Gas-Interessen durch die Finanzierung des Anti-Fracking-Aktivismus schützen will – keine neue Idee, aber durch die aktuelle Aufmerksamkeit lohnt es sich, das zu überdenken.

    Meines Wissens, kam Russlands Beteiligung an der Gestaltung der öffentlichen Meinung im Jahr 2010 ans Licht, als verschiedene WikiLeaks Enthüllungen öffentlich gemacht wurden durch Stratfor [private Nachrichtenagentur] – die zuvor einen Hintergrundbericht über Shale Gas [Schiefergas] Aktivitäten veröffentlicht hatten -, der auf russische Finanzierung für den Anti-Fracking Film Gasland spekulierte.

    Im Jahr 2013 wies der Filmemacher Phelim McAleer in seinem Film "FrackNation" auf die "unaufrichtigen Einwände" Russlands hin.

    Darin sagte der britische Journalist James Delingpole: "Russland ist verschnupft, wenn es sein Gas nicht exportieren kann, so dass es für Russland wirklich wichtig ist, dass die Schiefergasrevolution nicht stattfindet, Es ist auch in Russlands Interesse, die Umwelt-Gruppen zu finanzieren, die sich Kampagnen gegen Fracking verpflichten“.

    Im Juni 2014 erklärte Anders Fogh Rasmussen, der frühere dänische Ministerpräsident, in seiner Eigenschaft als amtierender NATO Generalsekretär im Juni 2014, dass er "Verbündete" getroffen habe, die berichten können, dass Russland im Rahmen ihrer anspruchsvollen Informations- und Desinformationsoperationen aktiv miteinbezogen sei. So genannte NGO Umweltorganisationen, die gegen Schiefergas arbeiten, um die europäische Abhängigkeit von importiertem russischem Gas zu erhalten " Gemäß The Guardian, "Er lehne es ab, Details dieser Operationen preiszugeben und sagte:" das ist meine Interpretation".

    Ein paar Monate später, brachte die New York Times (NYT) eine Geschichte mit dem Titel:

    "Russisches Geld wird verdächtigt hinter Fracking Protesten zu stehen."

    Er berichtet von verschiedenen Ländern Osteuropas, die am stärksten von der russischen Energie abhängen, wo Chevron die Explorations – Gasbohrungen vorsah, die dann plötzlich von Protesten von Aktivisten bedroht waren, von denen viele bisher wenig Interesse an Umweltfragen hatten. NYT zitiert den rumänischen Premierminister Victor Ponta:

    "Energie ist heute die effektivste Waffe der Russischen Föderation – viel effektiver als Flugzeuge und Panzer." 

     "Russland“, fügt die NYT hinzu, "hat in der Regel wenig Bedenken hinsichtlich des Umweltschutzes gezeigt und hat eine lange Liste von schikanierten und sogar verhafteten Umweltschützern, die Proteste inszenieren." Bei Fracking jedoch, haben sich die russischen Behörden enthusiastisch grün verhalten, wie Putin im letzten Jahr erklärte, denn ‚Fracking ist ein großes Umweltproblem‘. An Orten wo es erlaubt war, sagte er, "kam nicht mehr Wasser aus ihren Hähnen, sondern ein schwärzlicher Schlamm." "Das russische Fernsehen zielte auf ausländische Zuschauer, übertrug Warnungen über vergiftetes Wasser. Doch die Erkundung im westlichen Rumänien durch Gazprom, Russlands größte Ölfirma, hat nicht zu ähnlichen Massenprotesten geführt. Darüber hinaus haben "pro-russische Separatisten im Osten, die sonst kein Interesse an grünen Fragen gezeigt haben, Fracking als tödliche Gefahr denunziert."

     

    Im Januar 2015 berichtete die Washington Free Beacon über eine Bermuda-Firma, die Verbindungen zu russischen Ölinteressen hatte und Geld für Anti-Fracking-Gruppen in den USA weiterleitete. Es zeigt, wie das Geldwäsche-System funktioniert und fast zusammen: "Die Überschneidungen zwischen den Führungskräften in Unternehmen mit Verbindungen zu russischen Ölinteressen und einem Multi-Millionen-Dollar-Spender für US-Umweltschützer-Gruppen hat einige Experten besorgt, dass die Russen ihre Anti-Fracking-Taktik in Europa verwenden, um die Fracking Praxis in den Vereinigten Staaten anzugreifen.

    Ich habe es im Februar in meiner Spalte adressiert, mit dem Titel : "Benennung der Gegner der US-fossilen Brennstoff-Förderung" – wo ich auch über das Engagement der OPEC, bei der Finanzierung von Anti-Fracking-Aktivitäten berichtet habe.

    Im März 2015, beim Forbes Reinventing America Summit in Chicago [Gipfeltreffen] erklärte Harold Hamm, Chairman und CEO bei Continental Resources – auch bekannt als "Fracking King" – "Russland hat hier viel Geld ausgegeben, um Panik auszulösen In den Vereinigten Staaten über fracking, um es zu stoppen, weil plötzlich ihr Marktanteil weg geht."

    Anti-Fracking-Gruppen wie Greenpeace, lehnen solche Anschuldigungen als "albern" ab.

     

    Trotz aller zahlreichen Verbindungen, die Russland mit Anti-Fracking-Aktivitäten verknüpfen, gibt es kaum harte Beweise.

     

    Aber jetzt, dank WikiLeaks, ist Russlands Anti-Fracking-Finanzierung wieder in den Schlagzeilen: "Durchgesickerte E-Mails zeigen Hillary Clintons Beschuldigung der Russen für die Finanzierung" erfundener "Anti-Fracking-Gruppen", schrieb die Washington Times.

     

    Marita K Noon @energyrabbit

    How they really work: #Steyer agrees to arrange phony green protest requested by Hillary’s campaign chairman! https://twitter.com/EnergyBrief/status/788757357371228160 …

     

    Nur jemand mit Kenntnis und einer hohen Sicherheits-Zugangsstufe und einem Verständnis der Außenbeziehungen, wie ein Staatssekretär, könnte – wie Hillary in einer Juni 2014 Rede in Edmonton Kanada, zu einem Publikum sagen

     

    "Wir waren gegen Russland und ermutigten Oligarchen und andere zum Kauf von Medien und wir waren sogar gegen erfundene Umweltschützer, und ich bin ein großer Umweltschützer, aber diese wurden von den Russen gefördert, um gegen jede Anstrengung, ob diese Pipeline [Keystone und / oder Dakota] oder Fracking, zu bestehen, wie auch immer das ein Problem für Sie sein wird, und eine Menge Geld, das diese Botschaft unterstützt, kam aus Russland. "

     

    Nun, dank WikiLeaks, haben wir die erste "halbamtliche Bestätigung", wie Delingpole es nannte, "zum russischen Sponsoring der großen, einflussreichen und schamlos gut finanzierten Anti-Fracking-Industrie."

     

    McAleer, in einer Pressemitteilung, beschuldigt diese Gruppen „als bezahlte Agenten für eine feindliche ausländische Macht zu handeln."

    Denken Sie daran, diese Gruppen sind große Anhänger von Hillary und sie ist, basierend auf ihrer erklärten öffentlichen Politik, ein großer Unterstützer ihrer Anti-Fracking-Agenda. Wie ich schon sagte, sind wir in einem wirtschaftlichen Krieg und es gibt viele, die nicht wollen, dass Amerika gewinnt. Die billigen Energiepreise dank Fracking, haben der USA einen wirtschaftlichen Vorteil gebracht – daher die Feindseligkeit dem gegenüber.

    Veröffentlicht durch Marita Noon, erhalten per Email am 19.10.2016

    Übersetzt durch Andreas Demmig

     http://energymakesamericagreat.org/




Wetterlagenhäufigkeit und Jahrestemperaturverhalten in Deutschland

Bild rechts: Eiskalt oder mild- Die jeweilige Großwetterlage entscheidet! Bildquelle: wetteronline.de

Neben dem altbewährten, Klassifikationsverfahren nach HESS/BREZOWSKY, welches mit Übergangslagen 30 Großwetterlagen unterscheidet und sich bis 1881, mit Unsicherheiten gar bis 1871 zurück anwenden lässt, wird beim Deutschen Wetterdienst (DWD) seit dem 01. Juli 1979 die sogenannte Objektive Wetterlagenklassifikation mit 40 Wetterlagenklassen durchgeführt. Über das Verfahren nach HESS/BREZOWSKY und dessen Ergebnisse wurde hier schon mehrfach berichtet, unter anderem siehe http://www.eike-klima-energie.eu/klima-anzeige/im-takt-der-amo-und-der-nao-1-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/ Dabei wird die großräumige Luftdruckverteilung über Europa in ihrer Auswirkung auf Mitteleuropa betrachtet; das Verfahren ist subjektiv, was allerdings durch die Zusammenfassung mehrerer verwandter Wetterlagen zu Clustern weitgehend behoben werden kann. Bei der Objektiven Klassifikation steht hingegen die Anströmrichtung über Deutschland und den unmittelbaren Nachbarregionen in der 700hPa- Druckfläche (etwa 3000 Meter Höhe) im Vordergrund. Jede Wetterlagenklasse erhält eine fünfstellige Buchstabenkennung. Die zwei ersten Buchstaben stehen für die Anströmrichtung in 700hPa: XX bedeutet keine vorherrschende Anströmrichtung, NO vorherrschend Nordost, SO Südost, SW Südwest, NW Nordwest. Der dritte Buchstabe steht für die Zyklonalität in 950, der vierte für die in 500 hPa, wobei A jeweils antizyklonal und Z zyklonal bedeutet, und der letzte Buchstabe kennzeichnet den Feuchtegehalt der Troposphäre mit T = trocken oder F = feucht. Somit ergeben sich 40 Wetterlagenklassen von XXAAT bis NWZZF. Näheres zu dem Verfahren siehe auf den Webseiten des DWD unter http://www.dwd.de/DE/leistungen/wetterlagenklassifikation/beschreibung.html;jsessionid=4D3E9F52EAD4CCF9210ECD505085C043.live11042?nn=16102&lsbId=375412 Das Klassifikationsgebiet mit seinen Modellrastern (aktuell wird das GME- Modell verwendet) ist der folgenden Abbildung zu entnehmen:

Abb. 1: Klassifikationsgebiet (blau) für die Objektive Wetterlagenklassifikation.

Aufgrund der unterschiedlichen Herangehensweise lassen sich die beiden Klassifikationsverfahren hinsichtlich ihrer Ergebnisse nicht eindeutig vergleichen, denn das Verfahren nach HESS/BREZOWSKY arbeitet großräumiger. Folgende Abbildung soll das anhand der Bodenwetterkarte vom 28. Januar 2006, 00 UTC verdeutlichen:

Abb. 2: Bodenwetterkarte vom 28. Januar 2006, 01 Uhr MEZ. Kalte Festlandsluft (cP) war wetterbestimmend. Eine Hochdruckzone reichte von den Britischen Inseln über das nordöstliche Mitteleuropa bis zum Balkan. Über Deutschland herrschte weder am Boden noch in 3.000 Metern Höhe eine vorherrschende Windrichtung bei in beiden Niveaus antizyklonalen Bedingungen und trockener Troposphäre- XXAAT nach Objektiver Klassifikation. Nach HESS/BREZOWSKY wurde diese Lage als HB (Hoch Britische Inseln) klassifiziert- eine zu den Nordlagen gehörende Großwetterlage. Bildquelle: DWD, leicht verändert und ergänzt.

Trotz dieser Unterschiede sollten sich getreu dem Motto „Die Zeit heilt Vieles“ längerfristig zumindest Ähnlichkeiten bei der Häufigkeitsentwicklung verwandter Wetterlagen zeigen. Seit 1881 fällt besonders die starke Zunahme der Südwestlagen auf; doch zeigt sich diese auch seit 1980, dem Vorliegen der Objektiven Wetterlagenklassifikation, im Jahresmittel? Die nächste Abbildung beantwortet diese Frage eindeutig mit „Ja“:

Abb. 3: Merkliche Zunahme der Südwestlagen (Tage absolut je Jahr) sowohl nach dem objektiven Klassifikationsverfahren (oben) als auch nach HESS/BREZOWSKY seit 36 Jahren.

Beide „Südwestlagencluster“ zeigen hinsichtlich ihrer Häufigkeit eine signifikante Korrelation zum DWD- Jahresmittel der Lufttemperatur für Deutschland seit 1980, die nach HESS/BREZOWSKY mit einem Bestimmtheitsmaß B von 14,9% aber recht bescheiden ausfällt. Wesentlich deutlicher ist der Zusammenhang, wenn man nur die 6 erwärmend wirkenden SW- Lagen der Objektiven Klassifikation von SWAAT bis SWZAF betrachtet (die 2 SWZZ- Lagen wirken im Jahresmittel leicht kühlend):

Abb. 4: Zu einem guten Drittel lässt sich die Variabilität der Jahresmitteltemperaturen in Deutschland mit der Häufigkeit bestimmter Südwestlagen erklären.

Im Ausgleich zu diesen häufiger werdenden, erwärmend wirkenden SW- Lagen mussten andere, kühlende seltener werden; die nächste Abbildung zeigt 2 Beispiele dafür:

Abb. 5: Im Gegensatz zu den erwärmend wirkenden SW- Lagen nahm die Häufigkeit aller NW- Lagen sowie aller in beiden Höhenniveaus zyklonalen Lagen ab Die starke Häufigkeitsabnahme der NW- Lagen zeigt sich übrigens nach der HESS-BREZOWSKY- Klassifikation seit 1980 nicht; allerdings nahm deren Häufigkeit seit 1881 deutlich ab.

Nun wollen wir der Frage nachgehen, ob sich vielleicht Cluster der Objektiven Wetterlagenklassifikation mit noch größerem Einfluss auf das Temperaturverhalten finden lassen, als die bereits erwähnten 6 SW- Lagen. Auf die richtige Fährte führt diese Abbildung:

Abb. 6: Alle zumindest in 500hPa antizyklonalen Lagen (AA- und ZA- Lagen) und alle feuchten Lagen (F) zeigten eine leichte Häufigkeitszunahme und wirkten ähnlich stark erwärmend, wie die 6 Lagen SWAAT bis SWZAF.

Bildet man nun ein Cluster aus allen mindestens in 500hPa antizyklonalen Lagen, die gleichzeitig feucht sind, so ergibt sich folgender Zusammenhang:

Abb. 7: Die Häufigkeit des Clusters aller mindestens in 500 hPa antizyklonalen (AA und ZA) Lagen, die gleichzeitig feucht sind (insgesamt 10 Wetterlagen), vermag mehr als 40% der Variabilität der Jahresmitteltemperaturen zu erklären; der Korrelationskoeffizient von 0,64 ist hoch signifikant. Ob sich da etwa die „Gegenstrahlung“ des Wasserdampfes stark wärmend bemerkbar macht und dem CO2 den Rang abläuft?

Zuletzt noch eine Prüfung, ob die Zunahme der 20 klassifizierten, mindestens in 500 hPa antizyklonalen Lagen reell ist. Hierzu wurde der Einfachheit halber nur die Tendenz der 500hPa- Höhenlage seit 1980 am relativ zentral gelegenen Gitterpunkt 50°N und 10°E betrachtet. Es zeigt sich eine hoch signifikante Übereinstimmung:

Abb. 8: Sehr gute Übereinstimmung zwischen der Häufigkeitsentwicklung aller mindestens in der Höhe (500 hPa) antizyklonalen Lagen (rosa) und der Entwicklung der Höhenlage der 500 hPa- Fläche am Gitterpunkt 50°N, 10°E.

Zusammenfassung

Beide in Deutschland verwendeten Wetterlagen- Klassifikationsverfahren haben ihre Daseinsberechtigung. Das Verfahren nach HESS/BREZOWSKY wird auch weiterhin genutzt werden müssen, weil nur mit ihm großräumige Verhältnisse über einen sehr langen Zeitraum von mehr als 130 Jahren analysiert werden können. Das Objektive Verfahren erlaubt hingegen eine sehr detaillierte Analyse der Zusammenhänge zwischen der Häufigkeit von Großwetterlagen und den Temperaturverhältnissen in Deutschland. Die Häufigkeitsverhältnisse bestimmter Großwetterlagen- Cluster vermögen 35 bis über 40% der Variabilität der Jahresmitteltemperaturen zu erklären. Die Häufigkeitszunahme bestimmter Südwestlagen, aller mindestens in der Höhe antizyklonalen Lagen und aller feuchten Lagen ist ein wesentlicher Grund für den leichten, keinesfalls besorgniserregenden Temperaturanstieg in Deutschland seit 1980.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Der Strom, die Preise und die Netze

Rund 120 Jahren hat es gedauert, bis ein hervorragendes Stromsystem aufgebaut war. Die erste Überlandleitung für Strom wurde anläßlich der Internationalen Elektro-technischen Ausstellung 1891 in Frankfurt gelegt. Seitdem bauten Ingenieure ein Stromnetz auf, das in Sachen Zuverlässigkeit seinesgleichen suchte. So wenig Stromausfälle wie hierzulande gab es in nur wenigen anderen Ländern. Ebenso lieferte die Kraftwerksindustrie relativ preiswerte Elektroenergie. Voraussetzung für eine erfolgreiche Industrialisierung Deutschlands.

Jetzt also die Frage, wie schnell man das System wieder zerstören kann.

Einmal, indem die Preise immer stärker steigen.

In Deutschland sehen wir die »Erfolge« an ins wahnwitzige gesteigerten Strompreise. Es sind die zweithöchsten in Europa. Rund 1050 Euro kosten jene 3500 kWh, die eine dreiköpfige Familie durchschnittlich im Jahr verbraucht.

Das bedeutet: Strom wird langsam zum Luxusgut. Das merkt jeder im trauten Heim: Eine Viertelstunde Haare föhnen kostet bereits 12 Cents. Der Sonntagsbraten wird ebenso teurer.

Den größten Teil der Summe schluckt mit rund 265 Euro die sogenannte EEG-Umlage. Geld, das eine normale Familie für die sicheren Renditen von acht Prozent der Energiewenden-Gewinnler abdrückt. Die bekommen Geld sogar dann, wenn ihre Photovoltaik-oder Windanlagen keinen Strom produzieren, weil zu viel davon vorhanden ist.

Viele Ärmere können sich Strom kaum noch leisten. Zumal er im kommenden Jahr wieder teurer wird. Die EEG-Umlage steigt, wie wir gerade mitgeteilt bekamen. Nur der Bundestagswahl ist es sicherlich geschuldet, daß sie nicht in noch höhere Dimensionen steigt. Das könnte im darauffolgenden Jahr nachgeholt werden.

Insgesamt, so erregte kürzlich eine Studie des Institutes für Wettbewerbsökonomik an der Universität Düsseldorf Aufsehen, werde die »Energiewende« bis zum Jahre 2025 die unvorstellbare Summe von 520 Milliarden kosten. Das ist deutlich mehr als der Bundeshaushalt ( ca. 300 Milliarden Euro) beträgt. Eine Familie wird dann in diesem Zeitraum 25 000 Euro bezahlt haben.

Die Belastung der durchschnittlichen Haushalte ist so dramatisch gestiegen, daß die Erinnerung an die Kosten jener berühmten Kugel Eis wie Hohn klingt.

Es nützt nichts, wenn jetzt einzelne Forderungen erhoben werden, die Preise zu senken. Das bedeutet gleichzeitig: Abschied von der Energiewende. Denn die kann nur funktionieren, wenn die Betreiber der Anlagen mit Geld zugeschüttet werden. Auf einem freien Markt könnten sich diese Formen niemals behaupten.

Sonne und Wind sind nicht in der Lage, allein die Stromversorgung aufrecht zu erhalten. Dazu müssen konventionelle Großkraftwerke bereit stehen. Das bedeutet doppelte Kosten.

Ökostrom ist nutzlos, liefert einen lächerlich geringen Anteil, obwohl die Landschaft bereits mit Windparks zugekleistert ist. Das zeigt ein Blick auf den Stromverbrauch an einem durchschnittlichen Tag:

( Bild chart 8.10.)

Die großen blauen Anteile sind die Einspeisungen von Kraftwerken. Gelb ist das, was Solaranlagen zeitweise liefern. Dieser Anteil wird sich jetzt im nebligen Herbst und Winter weiter verringern. Fast mit der Lupe suchen muß man den Anteil, der von den Windanlagen kommt.

Erstaunlich, wie rund um den Erdball den Kampf gegen billige Energie geführt wird. Das scheint der neue Klassenkampf zu sein: Strom wird so verteuert, daß er zum Luxusgut mutiert.

Das gleiche Spiel sehen wir in der USA.

»Die Ärmsten tragen die Kosten der grünen Energieträume.« Das sagt in den Vereinigten Staaten William F. Shughart II. Er ist Research Director und Senior Fellow am Independent Institute im kalifornischen Oakland.

http://www.independent.org/newsroom/article.asp?id=8892

Familien mit niedrigen und mittleren Einkommen verdienen so wenig, daß sie höhere Energiepreise nicht ausgleichen können. Sie werden am meisten belastet. Die Geringverdiener tragen also die Kosten der Spielereien der grünen Spitze. Die läßt sich‘s auf dem Rücken der Armen gut gehen.

In den USA hat die berüchtigte Environmental Protection Agency EPA, die amerikanische Umweltbehörde, den Clean Power Plan erlassen, ein »historischer und wichtiger Schritt«, eine Reaktion auf den Klimawandel, wie die EPA betont.

Doch Shughart und Kollegen stellen fest: Der Clean Power Plan wirke sich praktisch nicht aus. Es würde nur eine Temperaturreduktion von lediglich 0,0015 bis zum Jahr 2100 erreicht. Eine ähnliche Studie der American Coalition für Clean Coal Elektricity kommt zu dem Ergebnis, dass die Aktion gerade mal einen Effekt in der Größenordnung habe, wie »wenn sich der Meeresspiegel in der Stärke von ein bis zwei menschliche Haaren anhebe«.

Das einzige Ergebnis des Plans: Der Strom werde deutlich teurer als bisher sein, sagen die Forscher um William Shughart.

Sie werten in erstaunlicher Direktheit die Aktionen der EPA als aggressive Angriffe auf billigen Strom. Dabei werden die Eigentümer von Kohlekraftwerken gezwungen, ihre Kraftwerke zu schließen. Denn die lohnen nicht mehr.

Innerhalb eines Jahres nach der Umsetzung der Pläne würden Kraftwerkskapazitäten in der Größenordnung von 11 Gigawatt Kohleverstromung verschwinden. Das ist die Strommenge, die 2,5 Millionen Haushalte benötigen.

Dabei ist die EPA nicht die einzige staatliche Einrichtung in den USA, die preiswerte Stromquellen attackiert. Das Innenministerium will mit Hilfe einer Stream Protection Rule Kohlekraftwerken den Garaus machen.

Die merkwürdige Begründung: Die Qualität und Quantität von Oberflächenwasser solle geschützt werden. Auch das Grundwasser solle für die – na was wohl – nächsten Generationen geschützt werden. Es werden wie immer hehre Ziele ins Feld geführt; gegen die soll man schwerlich etwas sagen können.

Betroffen von diesen Regulierungen werden vor allem die Menschen in den Appalachen sein. Sie leben in den Mittelgebirgen im Osten Nordamerikas hauptsächlich vom Steinkohlebergbau und bezahlen einen dementsprechend hohen Preis, nämlich den mit Jobverlust. Das kennen wir – ähnlich wie hierzulande die Kohlearbeiter in den Braunkohlengebieten der Lausitz.

Rund 100.000 bis 300.000 Arbeitsplätze im Bergbau könnten verlorengehen. Kohle im Wert bis zu 29 Milliarden Dollar bliebe ungenutzt in der Erde, weil Bürokraten beschlossen hätten, sie dürfe nicht abgebaut werden.

Shughart und Kollegen machen die Rechnung auf: Das entspricht einem Verlust von bis zu 6,4 Milliarden Dollar an Steuereinnahmen.

»Ein sauberer und grüner Planet sind würdige Ziele«, sagen sie. Das dürfe aber nicht blind für die Kosten machen.

Umweltgesetzgebung sei Klassenkampf, da die Geringverdiener die Umweltziele der politischen Elite bezahlen müsse. »Wir müssen uns immer fragen, wen wir schaden, um unsere angeblichen »grünen« Träume zu erreichen.«

Soweit kommt uns das in Deutschland ziemlich bekannt vor.

Die EPA ist jene amerikanische Umweltbehörde, die zur Zeit auch VW zerschießt und sich auf Kosten des deutschen Autoherstellers profilieren will.

An der Spitze dieser Behörde sitzt die Regierungsbeamtin Gina McCarthy, eine studierte Anthropologin. Sie will als Hardcore Umweltkämpferin zu Ruhm und Ehre kommen. Doch geriet sie selbst unter Druck, weil sie 6000 SMS auf ihrem Diensthandy gelöscht hatte, statt sie zu archivieren, wie es eigentlich Vorschrift ist.

Die Industrie wiederum wirft der Behörde vor, Arbeitsplätze zu vernichten. Sogenannte »Umweltschützer« prügeln von der anderen Seite auf sie ein, zu weich zu sein.

Währenddessen sorgten Mitarbeiter der EPA selbst für einen deftigen Umweltskandal, als sie drei Millionen Liter kontaminiertes Wasser in einen Fluß laufen ließen. So kam ihr der VW Diesel Affäre gerade recht, um abzulenken.

Präsident Obama wollte sich einen grünen Anstrich verpassen und ließ in einer seiner letzten Amtsstreiche die USA auf den Klimawandel vorbereiten, den Kohlendioxid-Ausstoß in den USA drastisch verringern und eine Führungsrolle im Klimaschutz einnehmen. Er erklärte tatsächlich seinerzeit CO2 zum Feind.

Obama wollte im Kampf gegen diesen Feind der »Wissenschaft ihren rechtmäßigen Platz zurückgeben« und hatte dazu mit John Holdren ausgerechnet einen der führenden Panikmacher zu seinem wissenschaftlichen Chefberater berufen. Holdren ist ein bizarrer Physiker, der alles tun will, damit »Treibhausgase« reduziert werden, der auch schon mal Zwangssterilisation von Frauen, die zu viele Kinder haben, befürwortet und vor einem überbevölkerten Planeten warnt, ohne aber selbst den Anfang machen zu wollen.

Das Ganze, daran muß immer wieder erinnert werden, weil ein paar Leute die Mär in die Welt gesetzt haben, das Wohl der Menschheit hänge künftig davon ab, CO2 zu verringern. Es ist immer das gleiche Spiel: die bösen Abgase, das böse CO2 der Popanz. »Der Mensch«, der alles versaut. Wären da nicht die »Guten«, die alles retten wollen und dafür Spendengelder brauchen sowie »Staatsknete« für Umweltprojekte.

Und nein, es sind nicht nur umweltbewegte Gruppen und NGOs, die durch ihre unseligen Aktivitäten die Automobilindustrie zerstören wollen. Die Autoindustrie zerstört sich selbst.

So hatte bekanntlich VW eine Stiftung auf die Beine gestellt, mit 2,9 Milliarden an Kapital ausgestattet, um »Gutes« zu tun, zum Beispiel: »Wir stiften Wissen«.

Diese Volkswagenstiftung finanzierte jenes Apokalypsenszenario »Grenzen des Wachstums«, das der Club of Rome 1972 vorstellte. Der Fortgang der Geschichte ist bekannt.

Heute finanzieren viele Industriestiftungen Projekte, nach den am grünen Wesen die Welt genesen soll.

Die Folgen reichen mittlerweile bis in den Produktionssektor, als dort, wo noch das Geld verdient wird. Die deutsche Industrie leidet sehr unter den exorbitanten Stromkosten. Energiepreise sind ein wesentlicher Produktionsfaktor. Rainer Thiele, SPD-Abgeordneter im nordrhein-westfälischen Landtag, sieht diese Entwicklung mit erheblicher Sorge und weist auf eine Studie aus den USA (IHS) hin, die zu dem Ergebnis kommt, dass alleine von 2008 bis 2013 Deutschland bereits ca. 52 Milliarden Euro Nettoexportverluste hinnehmen musste wegen der im internationalen Vergleich stärker gestiegenen Industriestrompreise.

Thiele: »Mir bereitet die Energiewende, so wie sie gemacht wird, große Sorgen. Für unsere Metall- und Chemieindustrie ist neben bezahlbaren Strompreisen die Frage der Versorgungssicherheit mindestens genauso wichtig. Und die ist bei Wind- und Sonnenenergie noch lange nicht gegeben. Trotzdem wird ein gewaltiger Druck aufgebaut, Braunkohlekraftwerke möglichst schnell zu schließen.«

Viele Unternehmen geraten in Schwierigkeiten, weil die Energiepreise die Gewinne auffressen. Für Investitionen bleibt häufig nichts mehr übrig.

Der Vorstand der BASF in Ludwigshafen hat bereits einen Vorstandsbeschluß gefaßt, aufgrund der deutschen Energiekostenperspektive Zukunftsprojekte nicht mehr in Deutschland zu investieren.

Der Direktor der Denkschule für deutsche Energiepolitik »Agora Energiewende«, Patrick Graichen wird in »Die Zeit« vom 4.12.2014 zur Energiewende wie folgt zitiert:

»Wir haben uns geirrt bei der Energiewende. Nicht nur bei ein paar Details, sondern in einem zentralen Punkt. Die vielen neuen Windräder und Solaranlagen, die Deutschland baut, leisten nicht, was wir uns von ihnen versprochen haben. Wir hatten gehofft, dass sie die schmutzigen Kohlekraftwerke ersetzen würden, die schlimmste Quelle von Treibhausgasen. Aber das tun sie nicht.«

Ein Irrtum, den die Stromverbraucher bisher mit 20 Milliarden an Mehrkosten bezahlt haben und weiter sehr teuer bezahlen werden.

Der Vorschlag lag einmal auf dem Tisch, die Erzeuger von Sonnen- und Windstrom daraufhin zu verpflichten, daß sie nicht nur Zufallsstrom liefern können, wann es ihnen paßt – unabhängig davon, ob die Ware Strom jemand braucht oder nicht. So, wie das auf einem Markt eigentlich normal wäre.

Sie müßten – wie jeder Lieferant – auch eine Lieferverpflichtung über Menge und Lieferzeit eingehen und dafür sorgen, daß Strom dann vorhanden ist, wenn er gebraucht wird. Also nicht nur sagen: Hier habt ihr Strom, nehmt ihn, in der nächsten Minute aber haben wir keinen. Schon sähe die Bilanz ganz anders aus. Doch dieser Vorschlag wurde sehr schnell hinweggefegt.

Bleibt jetzt nur die einzige Lösung: Die zerstörerische »Energiewende« muß weg. So schnell wie möglich.

Der Haken: Es verdienen dabei mittlerweile zu viele »Kriegsgewinnler«.

Die 520 Milliarden sind erst der Anfang. 




Wie steht es um den Untergang der Marshall-Inseln?

In der Analysereihe:
[1]-Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
[2]Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2
[3]Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

wurde das Thema zwar umgehend behandelt und (vom Autor) nirgendwo ein Untergang gefunden. Doch das Informationsportal der Klimaberaterin C. Kemfert brachte zum letzten Klimagipfel eine Reportage mit dem Außenminister der Marshall-Inseln, in welcher eigentlich alle Ergebnisse des Autors in Frage gestellt wurden.

Klimaretter.Info: "Die wichtigste Reise meines Lebens"
Ohne das 1,5-Grad-Ziel im neuen Klimavertrag will Tony de Brum, Außenminister der Marshallinseln, vom Paris-Gipfel nicht nach Hause fahren. Der Inselstaat im Pazifik ist vom steigenden Meeresspiegel bedroht, viele Bewohner emigrieren bereits in die USA. Für Tony de Brum, der in diesem Jahr den "Alternativen Nobelpreis" erhielt, entscheidet der Vertrag über das Leben seiner Enkel – ein Scheitern wäre für ihn "eine persönliche Niederlage".
Sie meinen das 1,5-Grad-Ziel, das vor allem die kleinen Inselstaaten fordern?
Ja, in dem neuen Text steht das Ziel als eine Option immer noch drin. Denn zwei Grad durchschnittlicher globaler Erwärmung sind einfach zu viel für uns. Wir spüren heute schon sehr ernste Folgen der Klimaerwärmung und wir sind noch nicht einmal ganz bei einem Grad. Was wird dann erst bei zwei oder drei Grad passieren? Das wollen wir uns gar nicht vorstellen. Es gibt genug politischen Willen, dieses Ziel zu erreichen, da bin ich mir sicher.

Mit dieser Überzeugung steht diese Informationsplattform nicht alleine da, unsere Bundesregierung einschließlich der Kanzlerin sind ebenfalls überzeugt, dass es so sein wird:
DIE BUNDESREGIERUNG Steigender Meeresspiegel Klimawandel bedroht kleine Inseln
Zahlreiche kleine Inselstaaten liegen nur geringfügig über dem Meeresspiegel. Schon jetzt müssen deren Bewohner ihre Wohngebiete an den Küsten verlassen, weil das Wasser ihren Lebensraum einnimmt. Im Süßwasser, das unter einigen der Inseln liegt, steigt der Salzgehalt. Früchte und Gemüse in den Gärten sterben ab, weil die Pflanzen mit Meerwasser in Kontakt kommen.
Die 44 Mitglieder der Allianz der Kleinen Inselstaaten (kurz: Aosis) befürchten, dass sie in einer um zwei Grad wärmeren Welt keine Inseln mehr haben. Deshalb drängen sie nicht erst seit der Klimakonferenz in Lima darauf, den Temperaturanstieg auf 1,5 Grad zu begrenzen. "Für die dort lebenden Menschen wäre ein Versagen der Weltgemeinschaft beim Klimaschutz eine Katastrophe", so Bundeskanzlerin Angela Merkel.

Zwar hatte die Recherchereihe des Autors ermittelt, dass Tony de Brum (und viele andere „Chefs“ kleiner, in der Regel diktatorisch regierter Inselstaaten) genau weiß, welche Gelder ihm erschütternde „Klimawandel-Stories“ ins Land spülen (werden) und es deshalb mit Daten und Übertreibungen – vor allem aber auch Geldforderungen an die „Verursacherländer“ – überhaupt nicht genau nimmt.

Klimaretter.Info: [5] (Tony de Brum) Ich möchte nicht heimfahren ohne einen Vertrag, der unsere Forderungen nicht anerkennt. Wir wollen die 1,5 Grad zumindest als Langfrist-Ziel im Vertrag sehen, eine Überprüfung der Ziele alle fünf Jahre durchsetzen und vernünftige Finanzzusagen bekommen.

… wobei ihm die Durchsetzung von Geldforderungen mit Unterstützung seiner „Freundin“, unserer Umweltministerin Frau Hendricks über den Welt-Klimavertrag auch gelungen ist, aber man kann sich auch irren, oder der Klimawandel hat doch noch plötzlich „zugeschlagen“ und die ursprünglichen Daten sind plötzlich veraltet.

Deshalb eine kurze Information, wie es um den Pegelanstieg derzeit steht.

Tidenpegel

Der Mittelwert von 285 weltweiten Pegelstationen mit Langzeitdaten zeigt einen Anstieg von ca. 12 … 13 cm in 100 Jahren.

NOAA’s 2013 list of 285 long term trend tide stations :
Der Mittelwert des Pegelanstiegs hat den Wert: 1,272 +-0,711 mm / pa

Im folgenden Bild 1 sind der Verlauf des Absolutpegels und der Pegeländerungen aus einer Rekonstruktion (Fundstelle: PSMSL Homepage) gezeigt. Man erkennt die hohen Ungenauigkeiten der Rekonstruktion in historischen Zeiten (aus denen man die genaue Zukunft ableitet), aber keinerlei Anstiegsalarm in der jüngeren Zeit. Vor allem erschließt sich bei dieser Rekonstruktion überhaupt nicht, woraus die Aussage eines „erst in jüngerer Zeit übernatürlichen Anstiegs“ abzuleiten wäre.


Bild 1 PSMSL Jevrejeva et al, 2014, Global Mean Sea Level Reconstruction von 1807 – 2010. Linke Achse: gsl rate (grün), rechte Achse: absoluter Pegel (blau)
PSMSL Datenbeschreibung: This page provides a short description and file with data of global sea level reconstruction for the period 1807-2010 by Jevrejeva, S., J. C. Moore, A. Grinsted, A. P. Matthews and G. Spada. All questions about the data themselves should be addressed to Dr. Svetlana Jevrejeva.

Authors have used 1277 tide gauge records of relative sea level (RSL) monthly mean time series from the Permanent Service for Mean Sea Level (PSMSL) database [Holgate et al, 2013]. Detailed descriptions of the RSL time series are available from the data page at the PSMSL. No inverted barometer correction was applied. RSL data sets were corrected for local datum changes and glacial isostatic adjustment (GIA) of the solid Earth [Peltier, 2004].

Nun das aktuelle Pegelbild der Marshall-Inseln vom Sea-Level Centre (Bild 2). Einige Leser dürfte der aktuelle Pegelstand überrasschen, falls sie nur die Untergangsmeldungen der Medien (und des Umweltministeriums) kennen.


Bild 2 Pegelverlauf Marshall-Inseln. Quelle: PSMSL Catalogue Viewer

Um zu zeigen, dass der Verlauf keine Ausnahme ist, noch weitere von umliegenden Inseln des Süd-Pazifik.

Bild 3 Pegelverlauf Kiribati Christmas Is. 1974 – 7.2015 (2.2015 – 7.2015 Verlauf aus einem 2. Datensatz ergänzt) Gloss Nr.: 146.Bild vom Autor anhand der Daten erstellt. Quelle: UHSLC

Bild 4 Pegelverlauf RAROTONGA B COOK ISLANDS 1993 – 2015. Gloss ID: 139. Quelle: PSMSL Catalogue Viewer

Fazit

Es ist offensichtlich: Die alarmistischen Pegelanstiege sind in den Pegelverläufen „verschwunden“. Man könnte geradezu den Eindruck gewinnen: Nun ist der Welt-Klimavertrag unterschrieben, jetzt dürfen die Pegelstände wieder ihr normales Bild zeigen.

Immer neu muss man es betonen: Der Autor hat trotz jahrelangen, umfangreichen Recherchen noch keine Insel gefunden, welche belegbar wegen einem Klimawandel-bedingt steigendem Meerespegel „untergeht“ oder „versank“. Alle! Darstellungen und Berichte bei NGOs und in Büchern stellten sich beim Nachsehen als Vermutungen bis reine Fälschungen, meistens als fortwährende Wiederholungen alter, ungeprüfter Meldungen heraus. Unter gehen die Inseln ausschließlich in Computersimulationen, wenn man eingibt, dass die Grönlandgletscher abtauen und der Antarktische Festlands-Eispanzer ins Meer rutscht (was sie noch nie in den letzten Millionen Jahren gemacht haben, aber in den nächsten 85 Jahren nach Simulationen des PIK „passieren“ wird).

Hinweis: Es gibt Südsee-Inseln, welche unter Pegeländerungen leiden. Dies sind aber Effekte der Kontinentalplattentektonik. Fast alle Inseln dieser Gegend gibt es nur deswegen (es sind fast alles Vulkaninseln) und sie liegen auf der aktivsten Bruchstelle der Erde. Sie erleben häufiger Erdbeben mit Hebungen / Senkungen im Meter-Bereich, also innerhalb von Tagen mehr Veränderung, als in Hunderten Jahren Pegelverlauf.

Ist das eine neue Erkenntnis?

Nein, sie wird nur konsequent – auch von den Fachstellen – ignoriert. Ohne dieses „bewusste Wegsehen“ wäre der Welt-Klimavertrag sonst nie zustande gekommen.

„kaltesonne“ berichtete schon früher darüber:

kaltesonne 29. Juli 2015: Marschallinseln im Pazifik besonders vom Klimawandel betroffen? In den letzten 2000 Jahren fiel dort der Meeresspiegel um anderthalb Meter

Am 1. September 2014 informierte das deutsche Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) auf seiner Webseite über eine interessante neue internationale Kooperation:
Bundesumweltministerium stärkt Zusammenarbeit mit Pazifikinseln zum Schutz vor Klimawandel
Ein neues Projekt des Bundesumweltministeriums soll Küstenzonen und Ökosysteme auf Pazifikinseln vor den Folgen des Klimawandels schützen. Die Parlamentarische Staatssekretärin Rita Schwarzelühr-Sutter unterzeichnete das entsprechende Abkommen mit dem Generalsekretär des Sekretariats des Pazifischen Umweltprogramms, David Sheppard. Das Treffen fand im Vorfeld des UN-Gipfels zu “kleinen Inselstaaten” auf Samoa statt. Durch den Anstieg des Meeresspiegels, die Versauerung der Meere und Zunahme von Stürmen sind die Lebensgrundlagen vieler Bewohner der pazifischen Inseln in ökosystembasierte Maßnahmen zum Schutz von Küstenzonen und lebenswichtigen Ökosystemen auf pazifischen Inseln. […] Die drei Inselstaaten Fidschi, Vanuatu und die Salomonen dienen hierbei als Pilotgebiete. Das Sekretariat des Pazifischen Umweltprogramms wird die dort gesammelten Erfahrungen mit seinen anderen Mitgliedsstaaten teilen, so dass auch andere pazifische Inseln eigene Anpassungsmaßnahmen entwickeln können. Durch die Internationale Klimaschutzinitiative (IKI) fördert das BMUB eine Reihe von Kooperationsprojekten mit “kleinen Inselstaaten” in den Bereichen Klimaschutz, Erhaltung der biologischen Vielfalt und nachhaltige Energieversorgung mit einem Volumen von ca. 120 Millionen Euro. Das Projekt mit dem Pazifischen Umweltprogramm setzt die erfolgreiche Zusammenarbeit mit der Region bis 2019 fort und ist mit Mitteln im Umfang von fünf Millionen Euro ausgestattet.

Drei Gründe für die Projekte: „Anstieg des Meeresspiegels, die Versauerung der Meere und Zunahme von Stürmen“. Aber sind dies wirklich gute Gründe?
Meeresspiegel: Die Korallenatolle wachsen dem Meeresspiegel hinterher, so wie sie es seit 10.000 Jahren und länger tun. Überflutungsgefahr: Keine.
Versauerung der Meere: Vermutlich weitgehend gefahrlos: Siehe „Back to the roots: Meeresbewohner trotzen der Ozeanversauerung, da sie den abgesenkten pH-Wert bereits aus dem Urozean kennen“ und „Überraschung: Korallen kommen mit der Ozeanversauerung offenbar doch besser zurecht als lange gedacht“.
Stürme: Wohl ein Sturm im Wasserglas. Siehe „Schwerer Wirbelsturm verwüstet Vanuatu. Premierminister sieht es realistisch: “Stürme sind kein neues Phänomen, wir Insulaner leider darunter seit Besiedelung Vanuatus vor 5000 Jahren”“ und „Wer hätte das gedacht: Studien können keine Zunahme der tropischen Wirbelstürme im Indischen und Pazifischen Ozean feststellen“.

Fünf Millionen Euro für fragwürdige Probleme. Vielleicht sollte man das Geld lieber in eine nachhaltige wirtschaftliche Entwicklung der Inseln stecken.
Euronews machte sich im April 2014 große Sorgen um die Marschallinseln:

Klimawandel: Marshallinseln schon jetzt betroffen
Den Bewohnern der Marshallinseln steht das Wasser sprichwörtlich bis zum Hals. Der Inselstaat im Pazifischen Ozean bekommt die Auswirkungen des weltweiten Klimawandels schon jetzt zu spüren. Starke Stürme mit heftigen Niederschlägen nagen an der Küste. Menschen müssen hilflos zusehen, wie Schutzmauern gegen die Flut im Meer versinken. Tony De Brum, verantwortlicher Minister für Energie und Klimafragen: “Wenn die Welt weitermacht, wie bisher und weiter die Umwelt verpestet, stellt sich nicht mehr die Frage, was in hundert Jahren geschieht. Es geht darum, was uns bereits jetzt widerfährt.” Die Küstenerosion geht mit Riesenschritten voran. Für den kleinen Inselstaat hat das geografische und wirtschaftliche Folgen. Genau davor warnt auch der jüngste Weltklimabericht. Tony De Brum appelliert eindringlich an die internationale Gemeinschaft. “Wir sind wie Kanarienvögel, die unter Tage sterben und dadurch Minenarbeiter vor dem Tod warnen. Wenn der Schaden so groß ist, dass wir diese Inseln räumen müssen, dann ist es auch für die Welt zu spät, sich selbst zu retten.”

Entwicklungspolitik Online schlug im Februar 2014 in die gleiche Kerbe:
Bevor die pazifischen Inseln versinken …
“Als ich jung war, wurde unser Garten noch nicht überflutet – und wir erlebten nicht, wie ein tropischer Sturm nach dem nächsten über die tropischen Inseln fegte.” So hat Tommy Remengesau, der Präsident von Palau, die Auswirkungen des Klimawandels auf seine pazifische Heimat wahrgenommen. Viele Menschen auf den pazifischen Inseln erkennen solch dramatische Veränderungen und warnen die Weltgemeinschaft vor den Folgen eines “weiter so” bei klimaschädlichen Emissionen. Sie fürchten, dass sie oder ihre Kinder ihre Heimat verlassen müssen, weil diese im Meer versinken könnte. Von Frank Kürschner-Pelkmann.
Die Marshallinseln gehören zu den Inselgruppen, die besonders stark von den Folgen des Klimawandels betroffen sind. Mitte 2013 litten die Bewohner der nördlichen Inseln unter
Dürre und Wassermangel, während über den Süden starke Stürme mit heftigen Niederschlägen hinwegzogen. Seriöse Klimawissenschaftler sind sich einig, dass weltweit die Extremwetterereignisse durch die globale Erwärmung verstärkt haben und dieser Prozess sich in den nächsten Jahrzehnten noch beschleunigen wird. In der südpazifischen Region lässt sich studieren, wie sich dies konkret auswirkt. Die Weltregion, die am wenigsten zum globalen Klimawandel beigetragen hat, ist am stärksten von seinen Folgen betroffen. Tony de Brum, Regierungsmitglied der Marshallinseln, berichtete im Juni 2013: “Tausende meiner Mitbürger im Norden sind durstig und hungrig, Tausende von uns hier im Süden werden vom Meerwasser durchnässt.” Viele Inseln und Atolle der Marshallinseln und der Nachbarstaaten sind von einer Erosion der Korallenriffe und der Uferzonen betroffen, und vereinzelt dringt bereits Salzwasser in die kostbaren kleinen unterirdischen Süßwasserlinsen ein, ohne die ein Leben auf den Atollen unmöglich wäre. Wenn der Meeresspiegel im Südpazifik tatsächlich bis 2100 um zwei Meter steigen sollte, wäre dies zum Beispiel für die Bewohner der 500 flachen Atolle des mikronesischen Staaten Palau eine Katastrophe.

Zwei Meter Meeresspiegelanstieg bis 2100? Das sagt nicht einmal der IPCC. Derzeit steigt der Meerespiegel um 2-3 mm pro Jahr, was bis 2100 etwa 21 cm Anstieg ergibt. Die Stürme haben in den letzten Jahren keineswegs zugenommen (siehe Links oben). Und Dürren sind im Pazifik keineswegs ein ganz und gar neues Phänomen, vielmehr gibt es hier eine charakteristische Zyklik, die gerne übersehen wird. Siehe „Überraschung: Feucht- und Trockenphasen wechselten im Südpazifik in vorindustrieller Zeit stets ab“ und „Tropfstein aus Tuvalu birgt Überraschung: Niederschläge im Südpazifik schwankten in vorindustrieller Zeit viel dramatischer als heute“.

Bei all der Jammerei zu den Marschallinseln scheint vielen Schreibern nicht klar zu sein, dass sich der Meeresspiegel auf der Inselgruppe in den letzten 2000 Jahren um einen Meter abgesenkt hat (Abbildung 1). Dies zeigen Forschungsresultate eine Studie von Paul Kench und Kollegen, die im Februar 2014 in den Geophysical Research Letters erschienen ist.


Bild 5 Abbildung 1: Meeresspiegelentwicklung auf den Marschallinseln während der vergangenen 6000 Jahre. Quelle: Kench et al. 2014.

Quellen

[1] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

[2] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2
[3] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

[4] kaltesonne: Marschallinseln im Pazifik besonders vom Klimawandel betroffen? In den letzten 2000 Jahren fiel dort der Meeresspiegel um anderthalb Meter

[5] Klimaretter.Info: "Die wichtigste Reise meines Lebens"

[6] EIKE: Falsche Satelliten-Altimetrie? 225 Tidenmessstationen zeigen einen nur um 1,48 mm steigenden Meeresspiegel pro Jahr … weniger als die Hälfte der von Satelliten gemessenen Werte
http://www.eike-klima-energie.eu/news-cache/falsche-satelliten-altimetrie-225-tidenmessstationen-zeigen-einen-nur-um-148-mm-steigenden-meeresspiegel-pro-jahr-weniger-als-die-haelfte-der-von-satelliten-gemessenen-werte/




Landkreis könnte energieautark werden: Wie eine lokale Politikerin dank ausreichendem Nichtwissen das Trassenproblem in Bayern löst

Bild 1 (rechts): Quelle: Bayerischer Windatlas[3]

nordbayern 11.10.2016: [1] Strom vor der Haustür im Fürther Land Landkreis könnte energieautark werden
„Unsere Region muss ein Zeichen setzen“, sagt Gabi Schmidt … Sie greift den Vorschlag auf, den vor ihr schon die Gegner der Stromtrasse hatten: „Statt Strom vom Norden her über hunderte Kilometer hinweg zu uns zu leiten, können wir ihn auch selber sauber vor Ort produzieren. Damit machen wir uns unabhängig und behalten die Wertschöpfung in der Region.“
Schmidt hat zu dem Thema Anfragen an die Staatsregierung gestellt. Die Antworten stimmen die Politikerin optimistisch.

Die Idee der Frau Schmidt ist nicht neu. Wenn man keine Trassen will, erzeugt man den Strom eben lokal. Das kann jedes Kraftwerk. Das will man allerdings auch nicht, also machen es die Grünen Energien – dafür sind sie schließlich da. Und was bitte soll daran schwierig sein? Schließlich wird dies auch vom Nordbayerischen Versorger N-ERGIE und vielen lokalen Protestorganisationen vertreten. Und es gibt Studien, welche beschreiben, dass das (mit vielen, herben Einschränkungen, mit vielen Fragezeichen und auch nicht wirklich autark, jedoch mit sicheren, horrenden Kosten) so in etwa funktionieren könnte. Anmerkung: Die ganz aktuelle Studie N-Ergie zur lokalen Energieversorgung in Franken stellt fest, dass selbst mit gravierenden Maßnahmen und Ausbau lokaler Speicher realistisch nur eine Reduzierung der Trassen auf die Hälfte möglich wäre.

Interessiert hat den Autor jedoch, welche Antwort der Bayerischen Staatsregierung diese energetische Fachfrau (Landwirtin und ehemals Leiterin eines Heimes), doch Betreiberin einer eigenen Photovoltaikanlage, so optimistisch stimmt.
Nach der Recherche müsste es sich bei der Antwort zur Anfrage der Frau Schmidt um den Schriftsatz: „Bayerischer Landtag 31.08.2016 17/12093, Erneuerbare Energien in Mittelfranken“ [2], handeln.
Die Anfrage der energetischen Fachfrau der Freien Wähler ist in dem Stil gehalten, wie ihn auch die Grünen und DIE LINKEN lieben, um den Beamtenapparat kontinuierlich zu beschäftigen und eine Reduzierung desselben zu verhindern:

G. Schmidt: [2] Ich frage die Staatsregierung:
1. Wie hoch ist die Menge an erneuerbarer Energie, die derzeit pro Jahr in Mittelfranken produziert wird (bitte aufgeschlüsselt nach Art der Erzeugung und Landkreisen), und wie hat sie sich im Vergleich zu vor fünf Jahren entwickelt?
2. Welche Menge an erneuerbarer Energie wird derzeit in den Landkreisen Neustadt/Aisch-Bad Windsheim, Erlangen–Höchstadt und Fürth-Land sowie den Städten Fürth und Nürnberg produziert (bitte aufgeschlüsselt nach Art der Erzeugung und Gemeinde) und wie hat sie sich im Vergleich zu vor fünf Jahren entwickelt?
3. Welchen Überschuss (Unterdeckung) haben die genannten Kommunen im Vergleich Erzeugung – Verbrauch im Jahresdurchschnitt und wie haben sich die Zahlen im Vergleich zu vor fünf Jahren entwickelt?
Die Antwort kam. Die Bearbeiter(-innen) waren wirklich fleissig und haben alle Punkte der Anfrage sauber tabelliert dargestellt. Alle Angaben sind jedoch reine Statuswerte, über irgendwelche Ausbauszenarien oder Technisches findet sich keine Silbe.
Daraus die wichtige Information:

Bild 2.1 EEG-Stromerzeugung in Franken im Jahr 2014 [2]

Und nun ist der Autor am Grübeln, was die energetische Fachfrau der Freien Wähler veranlasst hat, den nordbayerischen Nachrichten mitzuteilen: [2] „Die Antworten stimmen die Politikerin optimistisch. Damit machen wir uns unabhängig und behalten die Wertschöpfung in der Region.

Aus der Anlage 1 der Antwort (Bild 2) kann man entnehmen, was die Region an Elektroenergie Erzeugt und „konsumiert“:
27 % des Strombedarfes im Regierungsbezirk Mittelfranken kamen aus EEG-Erzeugung,
3,9 % des Strombedarfes im Regierungsbezirk Mittelfranken kamen aus Windkraft,
12,6 % des Strombedarfes im Regierungsbezirk Mittelfranken kamen aus grundlastfähiger EEG-Erzeugung (Wasserkraft und Biomasse).

Um daraus ein Vorzeigebeispiel von Green-Energie-Versorgung herauszugreifen:
Die „Solarstadt Fürth“ erzielte trotz enthusiastischer Meldungen:
Stadt Fürth Homepage: Sonnige Aussichten für die Solarstadt
Auch 2014 war für die Solarstadt Fürth ein gutes Jahr: 55 Photovoltaikanlagen wurden neu installiert, worauf die Gesamtanzahl damit im Stadtgebiet auf 921 stieg. Auch das Ziel eines Solarstromzuwachses von mehr als einem Megawatt wurde erneut erreicht: Exakt kamen 1,169 Megawatt Solarstrom hinzu. Damit stieg die Gesamtleistung im Stadtgebiet auf über 21 Megawatt an – dies entspricht einem Stromertrag in einer Größenordnung von 21 Fürther Solarbergen.

… im Jahr 2014 gerade einmal 3,5 % seines Bedarfes durch Solarstrom und damit weit weniger als durch Biomasse (in der Stadt!). Man muss dazu anmerken, dass das Ergebnis verfälscht ist, weil ganz neue Solaranlagen viel im Eigenverbrauch fahren und nicht einspeisen, da sich das Einspeisen nicht mehr lohnt. Leider gibt es dazu aber keine Angaben. Darüber kann ein normaler Stromkunde allerdings nur froh sein, denn für die Zappelstrom-Eispeisung des Fürther Solarberges bezahlt er Netto noch ca. 10 Jahre lang über 50 ct / kWh direkt an die Betreiber.

Woher hat nun die energetische Fachfrau ihre Daten? Wir sehen in die Tabelle des Landkreises. In der Anlage 7 sieht man die zwei (von 14) Gemeinden, welche es schaffen, einen EEG-Überschuss zu erzeugen.

Bild 2.2 EEG-Stromerzeugung Landkreis Fürth im Jahr 2014 [2] (mit Ergänzungen durch den Autor)

Den Gemeinden gelingt es allerdings nur, weil es dort keine Industrie und keine größeren Verbraucher gibt.

Gemeinde Großhabersdorf
Einwohnerzahl: 4018
WIKIPEDIA: Durchschnittlicher Stromverbrauch in Deutschland pro Einwohner: 6.648 kWh/a

Die EEG-Vorzeigegemeinde Großhabersdorf erzeugt: 4,73 MWh / a Energie pro Einwohner. Das ist zwar ein Überschuss in dieser Gemeinde, reicht aber nicht im Ansatz, um den mittleren Strombedarf für diese Einwohnerzahl in Deutschland zu decken.

Der „grandiose EEG-Überschuss“ ist also sofort weggeschmolzen, sobald mehr als eine „Schlaf- und Bauerngemeinde“ versorgt werden muss. Würde die Gemeinde vor lauter EEG-Enthusiasmus, bzw. nach Vorschrift der Grünen, noch voll auf Elektroautos umrüsten und diese dann vom eigenen Strom laden müssen, wäre es mit dem Überschuss ebenfalls vorbei. Und dabei ist das Problem der Zwischenspeicherung noch gar nicht angesprochen worden.

Für Bayern sehen die Daten wie folgt aus (Bilder 3 und 4):
Nach dem Energieatlas Bayern betrugen die Anteile der Windenergie im Jahr 2014:
Windenergie Bruttostromerzeugung: 2 % (vom Verbrauch Bayerns)

Windenergie, Verhältnis installierte Leistung / erzeugte Energiemenge: 14 %

Bild 3 Anteil von Windstrom an der Energieversorgung Bayerns im Jahr 2014. Quelle: Energieatlas Bayern Windenergie im Vergleich

Bild 4 Windenergie Bayern, installierte Leistung und Energieertrag. Quelle: Energieatlas Bayern Windenergie im Vergleich

„Damit machen wir uns unabhängig und behalten die Wertschöpfung in der Region“

Um die Landkreise energieautark zu machen, müsste aufgrund der grottenschlechten Ganglinien demnach die EEG-Anschlussleistung ganz grob um das 5 … 10-Fache erhöht werden. Da Wasserkraft und Biogas langsam ihre Ausbaugrenzen erreichen, würde dies einen exzessiven Ausbau der Windkraft erfordern. Damit wäre eine Autarkie aber noch lange nicht erreicht, sondern nur die Ladefähigkeit für die notwendigen Speichersysteme. Solche müssten noch zusätzlich errichtet werden.
In der Antwort steht das alles nicht drin, denn es war auch nicht gefragt. Der Autor vermutet sogar, dass danach nicht gefragt wurde, weil die energetische Fachfrau davon nichts wusste (nicht jede Person welche vom elektrischen Energiesystem keine Ahnung hat, nutzt die umfangreichen und vor allem kostenlos auf EIKE zur Verfügung gestellten Informationen).

Mal sehen was passiert, wenn die Landkreisbewohner mitbekommen, was die Freien Wähler da vorschlagen

Wenn den Landkreisbürgern klar wird, dass die Freien Wähler jetzt vorschlagen, ihre fränkischen Landkreise so wie Deutschlands Norden nun auch konsequent mit Windparks „vollzupflastern“ wo sie eben wegen der (im Gegenzug geringen) Landschaftsverschandelung durch Trassenmasten auf die Straße gegangen sind, werden die Freien Wähler vielleicht einen Gegenwind spüren, wie sie ihn bisher noch nie kennengelernt haben.
Die „landschaftsverschandelnden“ Stromtrassen kann man in den Tälern und Flachland verlegen, so dass man sie nicht von überall sieht, trotzdem sind alle dagegen. Die Windräder in Franken stehen alle! weithin sichtbar auf Höhenzügen (ähnlich dem Bild 5), denn nur dort weht ausreichend Wind. Man muss schon eine enthusiastische Begeisterung für Energielandschaften (Bild 5 und 8) haben, um dies nicht als Landschafts(zer)störend zu empfinden.
Wie die Stimmung dazu beginnt umzukippen, wurde in Der massive – gesetzlich forcierte – Windkraftausbau kostet Wählerstimmen beschreiben. Ob die energetische Fachfrau das so mit ihrem FW-Vorsitzenden, Herrn Aiwanger abgesprochen hat, dass sie das Thema noch vor der kommenden Wahl „lostreten“ will?

Bild 5 Bild aus dem SZ-Artikel: Ihre Frage – Stehen in Franken mehr Windräder, um die Landschaft in Südbayern zu schonen? Originaltext zum Bild: Eine Verschönerung für die Landschaft sind Windräder wirklich nicht. Im Bild: Ein Windpark im Kreis Euskirchen. (Foto: dpa) Anmerkung des Autors: Euskirchen steht nicht in Franken

Das Bild 6 zeigt den berechneten, standortabhängigen Windertrag in Bayern in 100 m Höhe. Nur die Braun hinterlegten Gegenden bieten ausreichende Windgeschwindigkeiten. Man sieht deutlich, dass Südbayern kaum Windstandorte bietet. Das Bild 1 aus dem Bayerischen Energieatlas welches in ganz Bayern Windräder zeigt, ist demnach eine künstlerisch freie Wunsch-Darstellung des Grafikers und hat mit der Wirklichkeit an Windstandorten überhaupt nichts zu tun.
Bild 7 zeigt dagegen, wie es mit der Windanlagendichte aktuell in NRW aussieht. So in etwa könnte die Energiekartierung nach dem Wunsch der Freien Wähler in Zukunft auch für Franken als „Energiebauern-Landkreis“ Bayerns aussehen.


Bild 6 [3] Standorte in Bayern Anteil am Referenzertrag in 100 Meter Höhe. Die Farben zeigen den Anteil in Prozent. Quelle: Bayerischer Windatlas, Abb. 7


Bild 7 Bestand Windenergieanlagen in NRW. Quelle: Energieatlas Nordrhein-Westfalen

Das folgende Bild 8 zeigt, wie ein solches Land dann aussieht. Wohl nur Personen die dort nicht wohnen, finden das schön und wünschen sich solche „Energielandschaften“ auch für Franken sehnlichst herbei.

Bild 8 Screenshot aus dem ARD-Beitrag: Der Kampf um die Windräder – Die Auswüchse der Boombranche

Und das Speicherproblem?

Es bleibt ungelöst. Die energetische Fachfrau spricht das Thema nicht an – wohl, weil es ihr nicht bekannt ist – und die Zeitungsredakteurin fragt nicht danach (zu vermuten ist: aus dem gleichen Grund). Kavernen für Power to Gas mit Rückverstromung oder Druckluftspeicher bietet der fränkische Boden nicht. Bleibt das übrig, was der Nürnberger Versorger N-ERGIE sich wünscht (weil er es über eine eigene Firma verkauft): Jeder stelle sich gefälligst teure Akkus in den Keller, sofern er Wert auf eine sichere Stromversorgung legt. Wer das nicht kann (oder will) bezahlt die exorbitanten Akku-Speicherkosten eben über eine Umlage als Kunde. Denn Ausweichen kann er nicht. Energie-Autarkie bedeutet so schwache Ausgleichsnetze (dagegen wurde ja protestiert), dass externe Bezugsalternativen dann nicht möglich sind und der lokale Versorger seinen Kunden endlich rücksichtslos „auf dem Kopf herum tanzen“ kann (wie es sich der N-ERGIE Vorstand wüscht).

Fazit

Wünsche als Lösungen präsentieren wird zunehmend zur Methode, dies zu tun, ohne eine Spur Ahnung vom Thema zu haben ebenfalls. Leider merken es die Verkünder nicht, da dieses Verfahren von unseren Medien (deren Redaktionen ähnlich besetzt sind) hofiert wird. Und im Landtag, wo man eine solche Partei dafür demonstrativ auslachen könnte, sitzen in den anderen Parteien die gleichen „xxx“ (ein Wort, welches hier stehen soll, bitte selbst denken).
Eine Anmerkung zum Schluss muss noch kommen
Die Bayerische CSU gehört beileibe nicht zu den Hellsten und beherbergt Minister(vor allem -innen), welche oft genug zur Zielscheibe von schlimmem Spott des Autors werden. Doch in der Politik lässt sich alles toppen. Es hat schon seinen Grund, warum die Oppositionsparteien in diesem Bundesland so wenig Stimmanteile bekommen.

Anlagen


Bild 9 Installierte Nettoleistungen Deutschland gruppiert dargestellt. Quelle: Fraunhofer ISE Energy Charts


Bild 10 Installierte Nettoleistungen Deutschland gestapelt dargestellt. Quelle: Fraunhofer ISE Energy Charts

Quellen

[1] nordbayern 11.10.2016: Strom vor der Haustür im Fürther Land Landkreis könnte energieautark werden
http://www.nordbayern.de/region/fuerth/strom-vor-der-haustur-im-further-land-1.5536138

[2] Schriftliche Anfrage der Abgeordneten Gabi Schmidt FREIE WÄHLER vom 19.05.2016, Erneuerbare Energien in Mittelfranken. Bayerischer Landtag Aktenzeichen: 31.08.2016 17/12093

[3] Bayerisches Staatsministerium für Wirtschaft und Medien, Energie und Technologie, Bayerischer Windatlas März 2014: Windernte und Energieertrag.




Stillstand bestätigt: Wissenschaftler geben endlich zu, dass die Klimamodelle falsch sind.

„Es gibt da diese Diskrepanz zwischen dem, was die Klimamodelle erzeugen und dem, was die Beobachtungen und Messungen zeigen“, sagte John Fyfe der Zeitschrift Nature. Fyfe ist kanadischer Klima-Modellierer und Leitautor der neuen Studie. „Das können wir nicht ignorieren“.

„Die Realität hat sich von unseren Erwartungen abgekoppelt – es ist absolut normal, diese Differenz zu erkennen und zu verstehen“, sagte auch Mitautor Ed Hawkins, Klimawissenschaftler in UK, in einem Blogbeitrag.

Dies ist ein umwälzendes Eingeständnis von Klimawissenschaftlern und ein großer Sieg für Skeptiker hinsichtlich der AGW-Theorie, welche schon seit Jahren auf das Missverhältnis zwischen Prophezeiungen der Klimamodelle einerseits und tatsächlichen Temperaturmessungen andererseits hingewiesen hatten.

„Alles in allem ist die Studie ein Eingeständnis seitens prominenter Vertreter der wissenschaftlichen ,Mainstream‘-Gemeinschaft; dass sich nämlich die Temperaturen der Erde während der letzten beiden Jahrzehnte nicht in einer Weise entwickelt haben, wie es mit ziemlicher Sicherheit sowohl von der wissenschaftlichen Gemeinschaft als auch von den Klimamodellen, auf die sie sich verlassen haben, erwartet worden war“, sagt Chip Knappenberger, Klimawissenschaftler am libertären Cato Institute der The Daily Caller News Foundation. „Das ist etwas, worauf die Skeptiker schon seit Jahren hinweisen“.

Knappenberger und sein Kollege bei Cato Patrick Michaels waren prominente Kritiker der Klimamodelle, auf die sich „Mainstream“-Klimawissenschaftler so sehr stützten. Sie sagen, dass die Modelle globale Temperaturanstiege für die letzten sechs Jahrzehnte nicht richtig vorhergesagt hätten (hier).

In einer jüngst veröffentlichen Studie verglichen Michaels und Knappenberger gemessene globale Erwärmungsraten der Temperatur seit dem Jahr 1950 mit Prophezeiungen von 108 Klimamodellen, die von Klimawissenschaftlern der Regierung herangezogen werden. Sie fanden dabei, dass die Klimamodelle viel höhere Erwärmungsraten projiziert hatten als tatsächlich beobachtet.

Michaels und Knappenberger stehen nicht allein da. Aus Satellitenmessungen abgeleitete Temperaturwerte zeigten einen „Stillstand“ der globalen Erwärmung seit mindestens der letzten 18 Jahre, trotz steigender CO2-Emissionen. Während einige Wissenschaftler versuchten, diese Satellitenmessungen zu diskreditieren, waren sie nicht in der Lage, das Fehlen einer signifikanten Erwärmung während der letzten Jahre zu erklären.

„Wenn eine Theorie den Fakten widerspricht, muss man die Theorie ändern“, sagte der Klimawissenschaftler John Christy in einer Anhörung vor dem Kongress im Januar (hier). „Die reale Welt spielt hinsichtlich einer rapiden Erwärmung nicht mit. Die Modelle müssen zurück auf den Prüfstand“.

Christy und sein Kollege Roy Spencer stellen an der University of Alabama in Huntsville (UAH) aus Satellitenmessungen abgeleitete Temperaturdaten zusammen.Ihre Satellitendaten haben seit etwa zwei Jahrzehnten keinerlei Erwärmung gezeigt (hier). Forscher, die hinsichtlich der Behauptungen einer katastrophalen globalen Erwärmung skeptisch sind, hatten wiederholt auf diese Daten hingewiesen.

„Beim Großteil der atmosphärischen Temperatur ist das Signal am stärksten“, sagte Christy in der Anhörung unter Verweis auf den Treibhauseffekt. „Wir haben dafür Messungen – sie passen nicht zu den Modellen. Weil dieses Ergebnis die gegenwärtige Theorie der Treibhausgas-Erwärmung ziemlich geradlinig in Frage stellt, gab es viele gut gestützte Angriffe auf jene von uns, die derartige Datensätze erstellen und heranziehen sowie auf die Datensätze selbst“.

[Hervorhebung vom Übersetzer]

Inzwischen scheint Skeptizismus den Tagessieg davongetragen zu haben – zumindest wenn es darum geht, andere Wissenschaftler davon zu überzeugen, dass es ein großes Problem mit den Klimamodellen gibt.

Fyfes Studie – bei der der wegen seiner „Hockeyschläger-Kurve“ berüchtigte Michael Mann als Mitautor fungierte – widerspricht einer Studie von NOAA-Wissenschaftlern mit der Behauptung, dass es keinen Stillstand der globalen Erwärmung gebe (hier).

„Alles in allem gibt es überzeugende Beweise, dass es eine vorübergehende Verlangsamung der beobachteten globalen Erwärmung gibt“, schrieb Hawkins in einem Blogbeitrag über die Studie. „Die jüngsten 15-Jahre-Trends sind alle positiv, aber niedriger als die meisten ähnlichen Trends der letzten paar Jahrzehnte. Dies ist ein eindeutiger Beweis, dass die Änderungsrate sich seit ihrem Spitzenwert verlangsamt hat“.

Aber selbst mit diesem Eingeständnis sind manche Skeptiker immer noch kritisch, weil die Autoren der Studie Verfahren angewendet hatten, denen sie, die Skeptiker, auch früher schon kritisch gegenüber standen.

„All dies sagt uns, dass die Autoren Verfahren angewendet hatten, um eine Verlangsamung zu zeigen – dass wenn die gleichen Verfahren von Skeptikern angewendet werden, diese dafür harsch kritisiert werden“, sagte Knappenberger. „Dies ist für mich ein Indiz, dass die Mainstream-Gemeinschaft einigen Forschern mehr Freiraum einräumt als anderen“.

Link: http://www.cfact.org/2016/02/26/hiatus-confirmed-as-scientists-finally-admit-climate-model-fail/

Übersetzt von Chris Frey EIKE




Blut-Handys und -Teslas

Inzwischen stellt sich heraus, dass Hybrid- und Elektrofahrzeuge längst nicht so „grün“ und „öko-freundlich“ sind. Gleiches gilt für Handys, Labtops, Windturbinen, Solarpaneele und eine Unmenge von Technologie, die für Batterien, Magnete und andere Komponenten angewendet wird und die Kobalt, Lithium, seltene Erden und andere Metalle benötigen.

Viele dieser Technologien stammen aus Minen, aus Bergbaumethoden und Verfahren, in Ländern, die nicht einmal in die Nähe moderner Standards des Umweltschutzes kommen, in denen es Kinderarbeit gibt und wo „keine soziale Verantwortung“ herrscht. Man kann sie „Blut-Technologien“ und „Konflikt-Metalle“ nennen.

In einem vor kurzem erschienenen Artikel in der Washington Post mit der Schlagzeile „The cobalt pipeline“ wurde versucht, die Ursprünge jenes essentiellen Metalls aufzuspüren, aus umweltlich verheerenden, sogar tödlichen, von Hand gegrabenen Minen in Kongo, die für multiple Verbraucherprodukte benötigt werden. Während in dem Augen öffnenden Artikel von Todd Frankel viele wichtige Dinge fehlten und andere nur aus der vereinfachten Perspektive entwickelter Nationen angesprochen wurden, ist er doch bzgl. moderner Technologien lesenswert.

Lithium-Ionen-Batterien, für die Kobalt unverzichtbar ist, stecken im Amazon Kindle, Apple und anderen Handys und Labtops sowie in Hybrid- und Elektrofahrzeugen von BMW, Chevrolet, Ford, Honda, Tesla und Toyota. Die Mengen reichen von 10 Gramm in Smart Phones und 28 Gramm in Labtops bis zu Mengen wie 15 kg in Elektroautos. All das wird in dem Artikel ausgeführt.

Etwa 60% des Gesamtverbrauchs weltweit stammt aus der Demokratischen Republik Kongo (DRC), schreibt Frankel, und die große Mehrheit davon (72.000 Tonnen Eisenerz im Jahre 2015) wird mittels eines chinesischen Unternehmens (Congo DongFang International Mining) den größten Batterie-Herstellern der Welt geliefert.

Die globale Nachfrage nach Kobalt hat sich seit dem Jahr 2010 verdreifacht. Aber im Jahre 2015 verkauften US-Händler lediglich 115.000 Elektroautos – eine Abnahme um 4% im Vergleich zum Vorjahr und ein Anteil von lediglich 0,7% der 17,5 Millionen Autos und Kleintransporter, die in Amerika verkauft worden waren. Man stelle sich einmal vor, wie viel Kobalt-Erz erforderlich wäre, falls allen Autos in den USA ein Elektroantrieb vorgeschrieben wäre, wie viele Politiker und Umweltaktivisten fordern. [Woran erinnert mich das, wenn ich an D denke? Anm. d. Übers.]

Ferner stelle man sich die Millionen Tonnen Kobalt, Lithium, seltene Erden und andere Metallerze vor, die abgebaut werden müssten – oftmals unter ähnlich unsicheren, verschmutzenden und umweltlich verheerenden Bedingungen an Orten wie DRC oder auch Baotou, Inner Mongolia (siehe Bild oben) – um Millionen Windturbinen und Milliarden Solarpaneele herzustellen, von denen gefordert wird, dass sie fossile Treibstoffe ersetzen durch eine „umweltfreundliche erneuerbare“ Stromerzeugung in den USA, in Europa und anderswo. Man versuche einmal sich vorzustellen, wie viel riesige landschaftliche Flächen davon betroffen wären.

Ich schätzte, dass die Erzeugung lückenhaften Stromes in den USA ein Gebiet beanspruchen würde von der Größe Montanas, das mit einem Gewimmel von ca.120 m hohen Windturbinen gepflastert wäre. Ein anderer Analyst berechnet, dass mehr Landfläche betroffen wäre als Montana und North Dakota zusammen: [umgerechnet] 564.000 km². Vögel und Fledermäuse schlachtende Windturbinen (hier) würden freien Raum dazwischen lassen, aber Vögel röstende (hier) und andere Solar-Einrichtungen würden riesige Gebiete überdecken.

Und falls wir fossile Treibstoffe in primären und in Backup-Kraftwerken eliminieren, müssen wir den Wind- und Solarstrom speichern – was massive Batterie-Kapazitäten erfordert, die Millionen weitere Tonnen Kobalt und Lithium benötigen.

Bergbauexperten sagten mir, das bekannte Lagerstätten in den USA kommerziell abbaubaren Kobalt enthalten. Mit meinen eigenen Forschungen (hier) im Jahre 1994 hat sich ergeben, dass nahezu alle Metalle für diese und andere Technologien in den USA gefunden werden können, die aber für Ausbeutung und Entwicklung tabu sind, weil sie dutzendfach landschaftliche und umweltliche Standards verletzen. Wir können nicht einmal abschätzen, was es dort alles gibt – noch können wir vernünftige politische Entscheidungen treffen, ob die gesamte Bandbreite technologischer, ethischer, umweltlicher und ökonomischer Überlegungen für deren Ausbeutung spricht unter Anwendung moderner Verfahren unter der heutigen rigorosen Vorschriftenlage. Tatsächlich ist es so: selbst wenn Lagerstätten dennoch legal zugänglich wären, ist es zunehmend unmöglich, Genehmigungen für Evaluierung und Abbau zu erhalten. Der Bergbau verlagert sich folglich nach Übersee, weil selbst die leidenschaftlichsten Umweltaktivisten und Politiker es ablehnen, ohne ihre technologischen Wunderdinge zu leben.

Westliche Bergbau-Unternehmen könnten jene Übersee-Lagerstätten ausbeuten unter Vorschriften und Verfahren, die die Umwelt und die Sicherheit der Arbeiter gleichermaßen schützen. Aber oftmals werden sie zu stark verunglimpft und geschmäht, schikaniert und außen vor gelassen – durch leidenschaftliche Umweltaktivisten und Politiker. Das Vakuum wird gefüllt von Unternehmen aus China und anderswoher, die unter weit weniger rigorosen Sicherheits-, Umwelt- und Gesundheitsstandards operieren.

Oder noch schlimmer, es wird gefüllt durch tausende armer „Möchtegern“-Bergarbeiter, die Löcher buddeln und Minen graben mit Handwerkszeugen – unter geringen oder gar keinen Standards für Gesundheit, Sicherheit oder Umwelt, und oftmals auch ohne Genehmigung – um ein paar Dollars am Tag zu ergattern, um ihre Familien zu ernähren und einzukleiden. Die gefährliche, rückenschädliche Arbeit wird oftmals zum Familienunternehmen – wobei Frauen und Kinder Seite an Seite mit ihren Vätern arbeiten – alle eingehüllt in den Staub von Schwermetallen, den sie sogar noch nach Hause bringen und damit Babys und Kleinkinder infizieren.

Das Ergebnis sind hohe Niveaus von Kobalt, Blei und Uran in ihrem Blut, Urin und Organen – sowie multiple Blut- und Atemwegs-Erkrankungen, aber auch Geburtsschäden. Das Risiko schwerer Unfälle mit Todesfolge ist in den Minen allgegenwärtig und akut. Frankel und andere beklagen diese Situation zu Recht. Allerdings ist die nur allzu wirkliche Alternative für Mütter und Töchter die Prostitution, Diebstahl für Väter und Söhne, oder Hunger und Tod für alle.

Kurz- und mittelfristige Lösungen sind schwer zu fassen in Ländern, die so mittellos und dysfunktional sind wie die DRC. Sie werden sogar noch weiter ins Unglück gestürzt durch die gleiche „soziale Verantwortung“ und die „Umwelt“-Aktivisten, die Ruhm und Ehre gewinnen durch ihren Kampf gegen westliche Bergbau-Unternehmen (hier).

Als Doe Run extensive Projekte startete, um das Jahrzehnte lange Erbe entsetzlicher, vom Staat betriebener Blei- und Silberminen in Peru zu modernisieren und sauberer zu machen, erhoben jene Aktivisten schließlich ihre Stimme – um das Unternehmen dafür zu brandmarken, dass es diese Probleme nicht über Nacht beseitigte. Im gleichen Stil sind von Chinesen betriebene Bergbau-Unternehmungen eine Verbesserung gegenüber diesen Kleinst-Bergarbeitern, aber schaut man auf die Gesundheits-, Umwelt- und Menschenrechts-Verhältnisse in Batou, Peking und anderswo, gibt es wenig Grund zu Optimismus.

Mehr noch, die rund 100.000 Kleinst-Bergarbeiter in Kongo bedeuten, dass die Unternehmen keine Löhne zahlen oder sich um die Gemengelage von Gesundheit, Sicherheit und Verschmutzung keine Gedanken machen müssen. Dies macht das Kupfer billiger, was Bergbau-, Verarbeitungs-, Batterie-, Computer- und Auto-Unternehmen Vorteile verschafft – und der labyrinthische Akquisitions-Prozess macht es schlicht unmöglich, die Ursprünge einer bestimmten Menge Chrom zurückzuverfolgen.

Kleine und sogar moderne unternehmerisch betriebene Minen sind inhärent gefährlich und tödlich. Allerdings verabscheuen die globalen Grünen den Tagebau, trotz der weit geringeren Risiken. Erzwungene Umzüge von Familien und Gemeinden sind immer schwierig, wie Frankel beobachtet – sei es nun wegen Kobaltminen oder für TVA-Projekte, Chinas Drei-Schluchten-Damm, Klimaprogramme für Uganda (hier) oder Anti-Holz-Kampagnen, die die ökonomischen Grundlagen vieler Gemeinden zerschlugen.

Unter den Fragen sind jetzt Folgende: Wo und wann beginnt man mit dem Aufräumen dieses Durcheinanders, mit welchem Geld in dieser mittellosen und oft von Kriegen zerrissenen Region? Wie ersetzt oder verbessert man DongFang, oder wie macht man es für westliche Unternehmen attraktiv, gegen die skrupellose, heuchlerische Verunglimpfungs-Kampagnen losgetreten werden mittels der 15-Milliarden-Dollar-pro-Jahr-Kabale von Big Green?

Dies sind die gleichen öko-imperialistischen Aktionsgruppen, die gegen Bohren, Fracking und fossile Treibstoffe sind, selbst dann, wenn dies Familien aus der Armut holen würde; sie sind gegen Pipelines und Bahnlinien für Öltransporte, weil sie nach einer kohlenwasserstoff-freien Zukunft schreien; sie sind gegen DDT und andere Pestizide, um Malaria zu verhindern; sie sind gegen Goldenen Reis und andere GMO-Erträge, die Mangelernährung, Hunger, Armut, Blindheit und Tod vermeiden können. Sie stützen nur minimale ökonomische Entwicklung in Ländern der Dritten Welt und auch nur das, was mit Wind und Solar betrieben werden kann.

Über allem aber steht, dass sie auf unverschämte Weise sicherstellen, dass arme Nationen in Armut, Krankheiten und Tod verbleiben.

All dies sollte wirklich allmählich die Augen der Menschen öffnen. Man sollte umdefinieren, was „grüne“ Energie und Technologie ist, und eine intensive Debatte erzeugen darüber, was wirklich ethisch, umweltfreundlich und sozial verantwortlich ist; was umweltliche Gerechtigkeit und Öko-Rassismus ist. Ob das aber tatsächlich irgendwann geschieht, muss abgewartet werden.

Link: http://www.cfact.org/2016/10/08/blood-cell-phones-and-teslas/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Es ist absolut erschreckend, dass es im Bundestag, wie kürzlich von Herrn Kuntz hier beschrieben, vor diesem Hintergrund keinen einzigen unserer Volksvertreter gibt, der dieses himmelschreiende Gebaren ablehnt oder zumindest hinterfragt. Man stelle sich mal vor, irgendwelche Nazis würden genau das Gleiche machen… C. F.




Die unvermeidliche Evolution schlechter Wissenschaft

Wie auch Andere hier schon angemerkt haben, liegt das Problem darin, dass das, was für individuelle Wissenschaftler gut ist, nicht notwendigerweise auch für die Wissenschaft als Ganzes gut ist. Gegenwärtig ist die Karriere eines Wissenschaftlers abhängig von der Veröffentlichung so vieler Studien wie möglich in den prestigeträchtigsten Journalen. Mehr als alles andere verschafft ihnen dies Prestige, [finanzielle] Zuwendungen und Jobs.

Jetzt stelle man sich vor, man sei ein Forscher, der mit diesem System spielen will. Folgendes wird man tun: man fertige viele kleine und statistisch auf schwachen Füßen stehende Studien an. Man optimiere dann seine Verfahren, um positive Ergebnisse sicherzustellen. Falls man negative Ergebnisse erhält, kehre man sie unter den Teppich. Man versuche niemals, frühere Ergebnisse zu checken; man verfolge nur neue und begeisternde Ergebnisse. Dies ist kein Larifari. Wir wissen, dass es solche Praktiken im Überfluss gibt. Sie sind großartig, um Veröffentlichungen zu lancieren, aber sie verunreinigen auch die wissenschaftliche Aufzeichnung mit Ergebnissen, die tatsächlich nicht wahr sind. Richard Horton, Herausgeber von The Lancet, schrieb einmal: „Niemand wird Anreize bekommen, um Recht zu haben. Stattdessen bekommen Wissenschaftler Anreize, produktiv zu sein“.

Dies ist kein neuer Gedanke. In den siebziger Jahren schrieb der Sozialwissenschaftler Donald Campbell, dass jedwede Qualitäts-Metrik korrumpiert werden kann, falls die Leute anfangen, die Metrik selbst zu priorisieren über die Wesenszüge, die sie vermeintlich reflektiert. „Wir fanden, dass dieses Argument selbst dann funktioniert, falls Individuen nicht versuchen, ihre Metrik zu maximieren“, sagt Smaldino.

Er und McElreath zeigten dies hier, indem sie ein mathematisches Modell erzeugten, in dem simulierte Labore miteinander im Wettbewerb standen und sich entwickelten – man denke an SimAcademia. Die Labore wählten Dinge, die sie studieren wollten, ließen Experimente laufen, um ihre Hypothesen zu testen und versuchten, ihre Ergebnisse zu veröffentlichen. Sie variieren hinsichtlich der Stärke der Bemühungen zum Austesten ihrer Gedanken, was darauf einwirkt, wie viele Ergebnisse sie bekommen und wie zuverlässig diese Ergebnisse sind. Da gibt es einen Zielkonflikt: Mehr Mühe bedeutet richtigere, aber weniger Veröffentlichungen.

Im Modell wie in der Akademia sind positive Ergebnisse leichter zu veröffentlichen als negative, und Labore, die mehr veröffentlichen, bekommen mehr Prestige, Förderung und Studenten. Auch sie geben ihre Verfahren weiter. Mit jeder Generation stirbt eines der ältesten Labore, während sich eines der produktivsten reproduziert und Nachwuchs hervorbringt, der den Forschungsstil seines Doktorvaters nachmacht. Das ist das Äquivalent eines Studenten aus einem erfolgreichen Team, der ein eigenes Labor eröffnet.

Mit der Zeit und über viele Simulationen gleiten die virtuellen Labore unaufhaltsam in Richtung weniger Mühe, schlechtere Verfahren und fast vollständig unzuverlässiger Ergebnisse. Das Wichtige dabei ist: Anders als der hypothetische Forscher, den ich zuvor heraufbeschworen habe, versucht keiner dieser simulierten Wissenschaftler aktiv zu schummeln. Sie wandten keine Strategie an und verhielten sich integer. Und doch glitt die Gemeinschaft in Richtung schlechterer Verfahren. Das Modell zeigt: eine Welt, die Wissenschaftler für Publikationen über allem anderen belohnt – also eine dieser Welt nicht ganz unähnliche – führt auf natürliche Weise zu schwächerer Wissenschaft.

„Das Modell kann sogar optimistisch sein“, sagt Brian Nosek vom Center of Open Science, weil es nicht unsere unglückliche Tendenz in Betracht zieht, den Status Quo zu rechtfertigen und zu verteidigen. Er merkt zum Beispiel an, dass Studien im Bereich der sozialen und biologischen Wissenschaften im Mittel beklagenswert schwach ausgestattet sind – sie sind zu klein, um zuverlässige Ergebnisse zu erbringen.

Geringe statistische Belastbarkeit ist ein offensichtliches Symptom schwacher Forschung. Sie ist leicht zu berechnen, und die Menschen haben darüber seit den sechziger Jahren geredet. Und doch, über 50 Jahre später, hat sich daran überhaupt nichts verbessert. Tatsächlich „gibt es nach wie vor aktiven Widerstand gegen Bemühungen, die statistische Belastbarkeit zu erhöhen, und zwar seitens der Wissenschaftler selbst“, sagt Nosek. „Wenn der Wunsch nach Veröffentlichung höher ist als der Wunsch nach Richtigkeit, werden Forscher geringe statistische Belastbarkeit verteidigen, obwohl dies Null Qualität für die Wissenschaft bedeutet“.

Wichtig: „Solange es die Anreize gibt, wird es Belohnungen für jene geben, die das System täuschen können, ob sie das nun absichtlich machen oder nicht“.

Wissenschaftler haben jetzt mit den Konsequenzen dieser Stagnation zu kämpfen. In vielen Bereichen, darunter Neurowissenschaft, Genetik, Psychologie, Ökologie und Biomedizin, gibt es Gerede über eine Reproduzierbarkeits-Krise, in der schwache und schlechte Studien die Welt mit zweifelhaften Ergebnissen überschwemmt haben. „Wir bringen viel Zeit damit zu, uns über die Kultur der Wissenschaft zu beklagen, aber verbale Diskussionen erlauben es den Leuten, darüber zu reden“, sagt Smaldino. „Ein formelles Modell erlaubt es deutlicher zumachen, worüber man spricht“.

Zum Beispiel haben sich viele Wissenschaftler auf Replikation konzentriert – also der Wiederholung von Studien, um zu sehen, ob deren Ergebnisse stehen – als eine Art, die Zuverlässigkeit der Wissenschaft zu verbessern. Aber das würde dem Modell von Smaldino und McElreath zufolge nichts besser machen. Ihre Labore könnten Zeit damit verbringen, Arbeiten der Vergangenheit zu reproduzieren, und falls diese Versuche scheitern, würden die ursprünglichen Autoren einen erheblichen Rufschaden erleiden. Aber das spielte keine Rolle, „weil es viel mehr Ergebnisse gibt als überhaupt reproduziert werden können“, sagt Smaldino. Langfristig sind Labore damit durchgekommen, wenn sie schlechte Verfahren angewendet hatten, sogar falls andere sie mit ihren dubiosen Ergebnissen konfrontierten.

„Solange es die Anreize gibt, wird es Belohnungen für all jene geben, die das System beschummeln können, ob sie das nun absichtlich tun oder nicht“, sagt Smaldino. Um die Wissenschaft zu verbessern, müssen sich die Anreize ändern.

Und diese Änderungen müssen für alle Bereiche gelten, aber es müssen keine großen Veränderungen sein, sagt Nosek. Beispiel: Wenn Wissenschaftler nach Promotionen streben, werden sie oftmals aufgefordert, eine vollständige Liste ihrer Studien vorzuweisen. Niemand hat die Zeit, alle diese Studien zu lesen, und darum greifen die Mitglieder des Komitees zu an sich unpassenden Dingen wie etwa der Anzahl der Studien oder dem Prestige der Journale. „Eine einfache Änderung wäre es, den Kandidaten aufzufordern drei Artikel einzusenden, welche das Komitee lesen und detailliert bewerten kann“, sagt Nosek. „Das wären Anreize für die Kandidaten, drei herausragende Arbeiten zu erstellen“.

Aber in UK hat man ein solches System bereits aufgelegt, um Wissenschaftler zu beurteilen, und Andrew Higginson sowie Marcus Munafo, zwei Psychologen der Universities of Exeter bzw. Bristol würden verneinen, dass dies besser ist. Sie haben ein anderes mathematisches Modell angewendet, um vorherzusagen, wie sich Wissenschaftler verhalten sollen, um den Wert ihrer Veröffentlichungen für ihre Karriere zu maximieren. Und sie kamen zu dem Ergebnis, dass falls die Leute auf der Grundlage einer kleinen Anzahl von hoch einflussreichen Veröffentlichungen beurteilt werden, es für sie die beste Strategie ist, all ihre Bemühungen auf geringerwertige Studien zu konzentrieren, die sich nur an neuesten Ergebnissen ausrichten ohne die Ergebnisse älterer Studien zu checken. Als Folge davon wird die Hälfte dessen, was sie veröffentlichen, falsch sein.

Es gibt andere Lösungen. Einige Wissenschaftler haben sich für ein System der „Vor-Registrierung“ [pre-registration] stark gemacht, wobei die Arbeit vor dem Hintergrund ihrer Gedanken und Pläne bewertet wird, bevor irgendeine Arbeit tatsächlich angefertigt wird. Sie verpflichten sich, den Plan buchstabengetreu auszuführen, und die Journale verpflichten sich, die Ergebnisse zu veröffentlichen, egal welcher Art diese sind. Das reduziert die Kapazität und den Anreiz, mit Studien Schindluder zu treiben, um die eigenen Chancen auf die Durchführung einer Studie zu erhöhen. Außerdem verschiebt sich der Schwerpunkt weg von augenfälligen Ergebnissen hin zu soliden, zuverlässigen Verfahren. Fast 40 Journale veröffentlichen diese Art von Registered Reports, und es gibt Bemühungen, diese enger an Zuwendungen zu binden (hier), so dass eine einzelne Begutachtung der Verfahren in einer Studie Zuwendungen und Veröffentlichung garantiert.

Das Hauptgewicht auf Transparenz zu legen, kann ebenfalls helfen, sagt Simine Vazire, eine Psychologin an der University of California. „Falls die Autoren verpflichtet werden, mehr Details über ihre Forschungen bekannt zu geben, werden die Journale und die Begutachter besser in der Lage sein, die Qualität dieser Studien zu evaluieren, und es wird viel schwieriger für die Autoren sein, das System vorzuführen“.

Spitzenjournale wie Nature und Science ermutigen Autoren tatsächlich, transparenter zu sein hinsichtlich Daten und Verfahren, während sie Checklisten ausgeben, um es einfacher für die Herausgeber zu machen, die statistischen Qualitäten neuer Studien zu inspizieren. Und das Center for Open Science von Nosek hat Standards für Transparenz, Offenheit und Reproduzierbarkeit erstellt (hier), welche Journale und Geldgeber übernehmen können, sowie Auszeichnungen für gutes Verhalten (hier).

Ultimativ „ist die Änderung von Anreizen über das gesamte Wissenschafts-Ökosystem ein Problem der Koordination“, sagte Nosek. „Institutionen, Geldgeber, Herausgeber, Gesellschaften und die Forscher selbst müssen ihre Erwartungen allesamt etwas ändern. Ohne dies wird keine Änderung effektiv sein“.

Munafo ist voller Hoffnung. „Wir haben Fortschritte gemacht, von der Beschreibung des Problems hin zum Verständnis von dessen Natur“, sagt er. „Das ist ein gutes Zeichen. Hoffen wir, dass es uns Hinweise gibt, wo wir Anreiz-Strukturen am effizientesten ändern können. Wir stecken mitten in einem faszinierenden natürlichen Experiment, wobei viele Innovationen eingeführt oder angestoßen werden. Was funktioniert und was nicht, und was populär ist und was nicht, bleibt abzuwarten“.

„Ich möchte nicht übermäßig pessimistisch sein“, sagt Smaldino. „Es gibt viele wirklich gute Wissenschaftler, die nach Arbeiten mit hoher Qualität streben. Es gibt immer mehr Individuen, die erkennen, dass Qualität tatsächlich bedeutsam ist. Ich hoffe einfach, dass Sentiment vorherrscht“.

Link: http://www.theatlantic.com/science/archive/2016/09/the-inevitable-evolution-of-bad-science/500609/

Übersetzt von Chris Frey EIKE




Gottes Perpetuum Mobile: Blockheizkraftwerk der Diakonie erzeugt mehr Energie als hineingesteckt wird

Nun werden die Wirkungsgrade bei Heizungen addiert, was zu recht kuriosen Ergebnissen führen kann, wie im Folgenden gezeigt werden soll.

Die Diakonie Puschendorf (Mittelfranken) hat jüngst ein Blockheizkraftwerk in Betrieb genommen. Der Dorfschreiber von Puschendorf (so ermittelte es die Recherche des Autors) verfasste dazu eine Reportage und leitete diese an die nordbayerischen Nachrichten weiter, damit diese über die gute Tat berichte.
Daten des BHKW der Diakonie: Betrieb mit Flüssiggas, elektrische Leistung: 20 kW, thermische Leistung: 44 kW

Eine Lokalausgabe der „nordbayerischen Nachrichten“ brachte am 07.10.2016 die Reportage: „Umwelt entlasten und Kosten sparen“.
Darin verkündet die Diakonie Puschendorf und der Heizungsbauer stolz: „Versprochen wird eine Energieeffizienz von etwa 96 % … Durch den zusätzlichen Einsatz der Brennwertnutzung bei den Abgasen lässt sich diese Energieeffizienz auf bis zu 104 % steigern, versichert der Heizungsinstallateur ..

Welch ein Glück, dass der Wirkungsgrad der Heizkörper von fast 100 % nicht auch noch dazu addiert wurde, sonst würde dieses Perpetuum Mobile fast vor Erfolg explodieren.

Eine solche Investition entscheidet und tätigt man heutzutage natürlich nicht mehr „einfach nur so“, sondern wegen einem höheren Auftrag:
„ … durch moderne Regelungstechnik … sind wir in der Lage, die benötigte Energie ... zum Wohle unserer Bewohner und mit der nötigen Verantwortung für unsere Umwelt und der Schöpfung unseres Gottes zu erzeugen“.
Da darf man auch Lücken zeigen:
Der ehrenamtliche Geschäftsführer „ … ist voller Zuversicht, dass sich die Investition innerhalb weniger Jahre amortisiert. Zahlen dazu gab es allerdings keine, ebenso wenig wie zu den Anschaffungskosten. … Die Überproduktion an Strom, die beispielsweise nachts anfällt, kann in das bestehende Stromnetz eingespeist werden“.

Etwas fehlt noch
Ein Artikel in deutschen Medien ohne den Hinweis auf das „giftige“ CO2 ist heute so wenig denkbar, wie ein fehlendes „Amen“ in der katholischen Kirche.
Im Artikel lautete es: „ … sowie einen geringeren CO2-Ausstoß soll die Umwelt spürbar entlastet werden …“.

Wenn alle Beteiligten inclusive der nordbayerischen Nachrichten wirklich überhaupt keine Ahnung haben, von was sie schwafeln, dann schädigt CO2 nicht nur wie üblich das Klima, sondern gleich auch noch die Umwelt.
Alle Hinweise auf den Sinn und die absolute Notwendigkeit von CO2 in der Atmosphäre als lebenswichtige Nahrung für alle Grünpflanzen dieser Erde sind einfach wirkungslos. Aber Fakt ist: Wer diesen das CO2 nimmt, „entlastet“ sie nicht, sondern tötet sie mit eiserner Konsequenz.
Wie soll eine Diakonie das aber jemals erfahren, so lange ihre oberste „Wissensinstanz“, der Papst Herrn Schellnhuber vom PIK als Berater hat.




Interessante Analyse der Klimasensitivität: Verursachen Variationen von CO2 tatsächlich eine signifikante globale Erwärmung?

Abbildung 1 zeigt die Keeling-Kurve, die einen stetigen CO2-Anstieg seit 1959 bis heute zeigt, gemessen am Observatorium auf dem Mauna Loa auf Hawaii:

Abbildung 1: Die Keeling-Kurve des atmosphärischen CO2, Mauna Loa

Man beachte, dass es einen Jahreszyklus gibt, der sich dem allgemein zunehmenden Trend überlagert. Mittelt man die monatlichen Aufzeichnungen dieser Zyklen für jedes Jahr, ergibt sich die Kurve in der kleinen eingebetteten Graphik. Diese zeigt, dass CO2 im Mittel eine maximale Konzentration im Mai erreicht, wenn sich auf der Nordhemisphäre nach der winterlichen Wachstumspause die Pflanzen wieder entwickeln, sowie eine minimale Konzentration im September-Oktober, wenn die Photosynthese während des Sommers einiges CO2 aus der Atmosphäre herausgefiltert hat. Der Unterschied zwischen Maximum und Minimum beträgt etwa 6 ppm.

Ich habe diese eingebettete Kurve für CO2 mit dessen Spitzenwert im Mai als Abbildung 2 reproduziert (blaue Kurve, alle Werte in Prozent):

Abbildung 2: Vergleich der mittleren monatlichen Werte von Temperatur (rot), Ozon (grün) und Kohlendioxid (blau) im Zeitraum 1975 bis 1998.

Ich habe die NOAA-Aufzeichnungen der nordhemisphärischen Temperaturanomalien (rote Kurve, oben) herangezogen und habe sie in der gleichen Weise für den 24-jährigen Zeitraum von 1975 bis 1998 bearbeitet, als sich der Globus dramatisch um fast 1°C erwärmt hatte. Man beachte, dass die Temperaturanomalie ihr Maximum im März erreicht, zwei Monate VOR dem Maximum der CO2-Kurve.

Falls also Variationen der CO2-Konzentration in der Atmosphäre irgendwelche Auswirkungen auf die Temperatur zeitigen würden, würde man erwarten, dass der CO2-Spitzenwert zusammen mit oder vor der Temperaturspitze erreicht wird. In Wirklichkeit zeigt sich diese CO2-Spitze aber erst zwei Monate danach. Dies zeigt, dass Variationen des atmosphärischen CO2-Gehaltes unmöglich einen signifikanten Einfluss auf die Temperatur haben kann. Es zeigt sich allerdings ein sehr kleiner Anstieg bei der Temperaturanomalie im Juni, was zeigt, dass CO2 tatsächlich eine sehr geringe Auswirkung auf die Temperatur hat, aber keine signifikante Auswirkung.

Was zeigt die grüne Kurve? Ich habe den Aufzeichnungen des Ozon-Abbaus von Arosa in der Schweiz der gleichen Behandlung unterzogen für den gleichen Zeitraum rapider Erwärmung von 1975 bis 1998. Man beachte, dass der Spitzenwert im März erreicht wird, also im gleichen Monat wie die Temperaturspitze. Beide Spitzenwerte sind ausgeprägt, was eine starke Relation zwischen diesen beiden Phänomenen nahelegt (der Korrelations-Koeffizient zwischen der roten und der grünen Kurve beträgt 0,92, d. h. er ist sehr hoch).

Dies bedeutet, dass es eine hohe Wahrscheinlichkeit dafür gibt, dass der Ozon-Abbau und nicht CO2 wirklich verantwortlich ist für globale Erwärmung. Der Zeitraum 1975 bis 1988 ist zufälligerweise auch der Zeitraum, in dem Fluorchlorkohlenwasserstoffe (FCKW) in der Atmosphäre freigesetzt worden sind mittels Spraydosen und leckender Kühlschränke, wie in der nächsten Graphik gezeigt wird (effektives Chlor heißt hier alle anthropogenen Quellen von Chlor und Brom):

Abbildung 3: Montreal-Protokoll

Bekanntlich führen die FCKWs im März (auf der Nordhemisphäre) zu polaren stratosphärischen Wolken, und Chlor und Brom verursachen Ozon Abbau und das Ozon-Loch. Das Montreal Protokoll trat in den neunziger Jahren in Kraft und beendete die fortgesetzte Ozon-Zerstörung, aber weil Chlor und Brom das Ozon katalytisch zerstören, befinden sich die meisten dieser Chemikalien immer noch in der Stratosphäre und bauen immer noch Ozon ab, wie obige Graphik zeigt. Daher wird es noch bis mindestens Mitte dieses Jahrhunderts dauern, bevor die Temperaturen wieder Normalwerte erreichen [Nanu, welche Normalwerte sollen das denn sein? Anm. d. Übers.]

Aber warum sollte Ozonabbau globale Erwärmung auslösen? Der einfache Grund hierfür ist, dass die Ozonschicht die Erde vor der solaren ultravioletten B-Strahlung schützt, die 48 mal wärmer ist als die Infrarotstrahlung der Erde. Wird das Ozon abgebaut, kann mehr UV-B bis zur Erdoberfläche durchdringen. Ende des 20. Jahrhunderts war dabei die Sorge vorherrschend, dass dies genetische Schäden und Sonnenbrand verursachen könne, aber niemand dachte daran, dass dies auch zu globaler Erwärmung führen könnte [komisch, dass da bisher noch keiner drauf gekommen ist! Anm. d. Übers.]. Allerdings ist das offensichtlich der Fall, wie die zweite Graphik zeigt.

All dies erklärt sehr gut, warum die Temperatur zum Ende des 20. Jahrhunderts so stark gestiegen ist und warum dieser Anstieg seitdem zum „Stillstand“ gekommen ist (als ob die Erde relativ zu den Klimamodellen etwas Falsches gemacht hat). Aber warum war es im Jahre 2015 erneut zu einem Aufwärts-Temperatursprung gekommen?

Möglicherweise ist die Ursache hierfür, dass einer der nicht-explosiven Vulkane Islands, der Bardabunga, von Mitte 2014 bis Anfang 2015 die größte basaltische Eruption seit Laki im Jahre 1783 hingelegt hat. Die ausgeflossene Lava setzte Chlor und Brom als Hydrogenchlorid und Hydrogenbromid frei, was die gleiche Auswirkung auf die Ozonschicht hatte wie FCKW aus Spraydosen. Sie bauten die Ozonschicht ab, so dass mehr solare UV-B-Strahlung zur Erdoberfläche gelangen konnte. Dieses Ereignis ist jedoch Vergangenheit, so dass sich jetzt wieder „normale“, d. h. „Stillstands“-Bedingungen einstellen können und werden.

Hier sollte noch erwähnt werden, dass explosive Vulkane bekanntlich zu einer globalen Abkühlung führen, weil sie eine Menge Schwefel-Aerosole in die Stratosphäre blasen, welche das Sonnenlicht hinweg reflektieren. Zusammen haben explosive und nicht explosive Vulkane jeweils globale Abkühlung und Erwärmung verursacht während der meisten Zeit der geologischen Geschichte, wie eine sorgfältige Begutachtung geologischer Aufzeichnungen zeigt. [So einfach soll das sein? Keinerlei solare Zyklen? Kaum zu glauben! Anm. d. Übers.]

Unter dem Strich steht, dass die Dämonisierung von CO2 wahrscheinlich ein Fehler und völlig unnötig ist, führte dies doch zu Plänen, alle Arten fossiler Treibstoffe zu ersetzen durch weniger effiziente, teurere, sich umweltlich verheerend auswirkende erneuerbare Energiequellen. Die Wahrscheinlichkeit ist hoch, dass wir mit CO2 dem falschen Ziel nachstreben, und das bedeutet nichts Gutes. Weit wichtiger scheint es sicherzustellen, dass das Montreal-Protokoll gewissenhaft befolgt wird und dass FCKWs genau überwacht werden.

Nur der Vollständigkeit halber: Ich bin kein Freund irgendwelcher Industrien fossiler Treibstoffe, in die ich keinerlei Investments habe. Mir geht es einfach darum, die Wissenschaft ordnungsgemäß durchzuführen.

Anmerkung von Anthony Watts: Als ich diesen Beitrag und dessen Titel das erste Mal sah, dachte ich, dass er vielleicht ein weiteres jener „Totschlag“-Argumente ist. Aber nach der Lektüre und vor dem Hintergrund des Autors kam ich zu der Überzeugung, dass er gehaltvoll und der Diskussion würdig ist. Ich habe der Überschrift das Wort „signifikant“ hinzugefügt, weil der Autor in dem Beitrag schreibt, dass eine geringe Erwärmung erkennbar ist. Zum Autor:

DAVID BENNETT LAING

Author, geologist, Earth systems scientist, ecologist, botanist, professor, sailor, alpine skier, retired, Aspie, Dartmouth ’62, Harvard ’72, progressive online activist, Penobscot Bay, Maine, Charlotte Harbor, Florida, Rio Bueno, Jamaica, park ranger, forest ranger, folksinger, copy editor, Seafarer 38 ketch, house/barn/cottage on 3.5 acres with ocean view, no debts, no regrets

Link: https://wattsupwiththat.com/2016/10/10/interesting-climate-sensitivity-analysis-do-variations-in-co2-actually-cause-global-significant-warming/

Übersetzt von Chris Frey EIKE




Mysterium Sonnenzyklus gelöst?

Das Buch beginnt mit dem folgenden Absatz:

Etwa 400 Jahre vor Christus erhob sich nahe Mt. Lyscabettus im antiken Griechenland die blasse Sonnenscheibe über den Dunst. Seiner Gewohnheit nach zeichnete Meton den Ort der Sonne am Horizont auf. In dieser Zeit, als noch viele Dinge entdeckt werden mussten, hoffte Meton vorhersagbare Änderungen der Orte von Sonnen- und Mondaufgang zu finden. Obwohl regnerisches Wetter seine Beobachtungen einschränkte, entdeckte er an diesem nebligen Morgen Flecken auf der Oberfläche der Sonne, der Höhepunkt derartiger Makel während der letzten Jahre. Einer Eingebung folgend begann Meton seine über 20 Jahre langen Aufzeichnungen der Sonne zu untersuchen. Diese Untersuchungen schienen seine Gedanken zu bestätigen: wenn die Sonne Flecken hat, tendiert das Wetter dazu, regnerischer und nasser zu sein.

Bild rechts: Auf unserem Stern, der Sonne, sieht man die Flecken in einem Gürtel rund um den Äquator. Sonnenflecken sind kühle Regionen, verursacht durch starke Magnetfelder, in denen sich der Hitzefluss verlangsamt. Bild: NASA

Folglich ist der Gedanke, dass Sonnenflecken und der solare Zyklus das Klima bestimmen, mindestens 2400 Jahre alt. In der modernen Zeit wurde den Sonnenflecken erneut im Jahre 1610 Aufmerksamkeit zuteil, und zwar nach Fernrohrbeobachtungen von Galileo, Thomas Harriot und anderen. Der solare Zyklus wurde von Samuel Schwabe im Jahre 1843 nach 17 Jahren der Beobachtung entdeckt, doch datierte die von William Herschel gefundene Korrelation von Sonnenflecken und den Weizenpreisen in England schon aus dem Jahr 1801. Eine Studie aus dem Jahr 2003 von Pustilnik und Din mit dem Titel Influence of Solar Activity on State of Wheat Market in Medieval England bestätigte Herschels Beobachtung.

Der Gedanke, dass die Sonne das Klima kontrolliert, ist leicht genug zu verstehen. Tatsächlich ist das Klima der Erde äußerst sensibel gegenüber Änderungen des solaren Outputs, wie Nir Shaviv 2009 in seiner Studie Using the Oceans as a Calorimeter to Quantify the Solar Radiative Forcing nachgewiesen hat. Prof. Shaviv fand heraus, dass der Gesamt-Strahlungsantrieb im Zusammenhang mit Sonnenzyklen etwa 5 bis 7 mal größer ist als jener, der einfach nur mit Änderungen der Gesamt-Einstrahlung TSI einhergeht.

Wir kennen die Ursachen individueller Sonnenflecken – es hat etwas zu tun mit magnetischen Flüssen, die durch Konvektion aus dem Inneren die Sonnenoberfläche erreichen. Aber die Ursache des Sonnenzyklus‘ selbst blieb ein Mysterium bis zur jüngst erfolgten Veröffentlichung der zweiten Ausgabe von Evidence-Based Climate Science, herausgegeben von dem unermüdlichen Don Easterbrook. Die erste Ausgabe, veröffentlicht im Jahre 2011, enthielt eine Studie von Ed Fix, einem B-52-Pilot im Ruhestand mit dem Titel The Relationship of Sunspot Cycles to Gravitational Stresses on the Sun: Results of a Proof-of-Concept Simulation [etwa: Die Relation von Sonnenflecken-Zyklen zu Gravitationsunterschieden auf der Sonne: Ergebnisse einer Simulation]. Darin wurde die Modulation der Sonnenzyklen durch die Gasplaneten gezeigt. Die zweite Ausgabe geht noch etwas weiter mit einer Studie von Ed und mir selbst mit dem Titel Aspects of Solar Variability and Climate Response, in welcher detailliert die relativen Beiträge jener Planeten dargestellt werden.

Schon lange hatte man vermutet, dass der Sonnenzyklus großenteils durch den Planeten Jupiter beeinflusst wird, und zwar wegen der mittleren Länge des Sonnenzyklus‘ von 11 Jahren und der Umlaufzeit des Jupiters um die Sonne von 11,86 Jahren. Im Jahre 1984 gaben Schwentek und Elling bekannt, dass das „eindeutig dominante Spektralband der Sonnenfleckenzahl, der solare Zyklus von 10,8 Jahren, vorgegeben wird durch die Konfigurations-Periode von Jupiter und Saturn (19,859 Jahre) multipliziert mit dem Verhältnis ihrer Entfernung von der Sonne (0,545)“. Etwas mehr als ein Jahrzehnt später bestätigte Attila Grandpierre, dass was auch immer den Sonnenzyklus treibt, außerhalb der Sonne gesucht werden muss – was die Planeten als auslösenden Faktor übrig ließ.

Die Studie von Ed Fix aus dem Jahr 2011 war bedeutend, weil hier erstmals eine physikalische Erklärung des Verhaltens von Sonnenzyklen angeboten worden ist. Viele der bis dahin aus Beobachtungen abgeleiteten Regeln zur Erklärung der fundamentalen Eigenschaften von Sonnenzyklen wurden bis zum Erscheinen dieser Studie nicht quantifiziert. In großem Umfang beruht die jetzige Solarwissenschaft auf nicht mathematischer Beobachtung, erwiesen durch die verschiedenen Vorhersagen von Dikpati und Hathaway bzgl. der Amplitude solarer Zyklen. Die Behandlung des Sonnenfleckenzyklus‘ in der Studie 2011 als eine ideale Quelle, getrieben von radialer Beschleunigung, bot ein neues Paradigma. Gleichzeitig ist dieses neue Modell konsistent mit der solaren Dynamo-Theorie.

Das Modell von Ed Fix erklärt, warum man über längere Zeiträume aufeinanderfolgende Zunahmen der Amplitude von Sonnenzyklen beobachtet, bevor das System außer Phase gerät und es zu einer Phasen-Destruktion kommt. Individuelle Hale-Zyklen sind keine isolierten magnetischen Ereignisse. Die in dem System gespeicherte Flussmenge ist die Grundlage für die Amplitude des folgenden Zyklus‘. Auf diese Weise ist das ,Gedächtnis‘ der Solaren Zyklen erklärt.

Das Modell erklärt des Weiteren den Waldemeir-Effekt – dass nämlich starke Zyklen innerhalb der kürzesten Zeitperiode ein Amplituden-Maximum erreichen (Die Anti-Korrelation zwischen der Spitzen-Amplitude eines Zyklus‘ und Länge des vorhergehenden Zyklus‘) und den Amplituden-Minimum-Effekt (die Korrelation zwischen Zyklus-Amplitude und dem Aktivitätsniveau im vorhergehenden Minimum). Das Modell von Ed Fix ist nahezu perfekt in der Nachhersage, und dieses sehr enge Verhältnis zeigt trotz der Einfachheit des Modells, dass man zu dessen Vorhersagen sehr viel Vertrauen haben kann.

Einige haben die planetarische Ursache des Sonnenzyklus‘ bezweifelt wegen der schwachen Auswirkungen der individuellen Planeten auf die Sonne. Dies wird sicherlich durch die Arbeiten an der Studie 2016 bekräftigt. Abbildung 1 aus jener Studie zeigt, dass Jupiter selbst kaum Auswirkungen auf die solare Variabilität hat:

Abbildung 1: Simulationsmodell nur mit Jupiter im Vergleich zum ganzen Modell

Genauso zeigt Abbildung 2 den Modelllauf nur mit Saturn, wobei sich eine ähnlich geringe Reaktion der Amplitude zeigt mit der Umlaufzeit des Saturns von 29 Jahren anstatt der lediglich 11 Jahre von Jupiter:

Abbildung 2: Simulationsmodell nur mit Saturn im Vergleich zum ganzen Modell.

Falls also Jupiter und Saturn selbst kaum die Sonne beeinflussen, wie von vielen vorhergesagt, bleibt die Frage nach der Ursache solarer Zyklen! Dieses Mysterium ist bis jetzt noch nicht erklärt worden.

Es stellt sich heraus, dass die Wechselwirkung zwischen Jupiter und Saturn den größten Teil des Sonnenzyklus‘ erklärt. Die Auswirkungen auf die Sonne seitens dieser beiden Planeten ist synergetisch und nicht additiv, wie Abbildung 3 zeigt. Es wurde gesagt, dass Mathematik die Sprache der Physik ist. Was diese Studie klarer hervorgehoben hat, ist die mathematische Grundlage des Sonnenzyklus‘.

Abbildung 3: Simulationsmodell mit Jupiter und Saturn im Vergleich zum ganzen Modell

Die rote Linie zeigt das gesamte Modell unter Einschluss von Uranus und Neptun ebenso wie Jupiter und Saturn. Der Unterschied zwischen der roten und der blauen Linie ist die Auswirkung von Uranus und Neptun. Dies kann additiv oder subtraktiv sein. Während der Zyklen 18 und 22 haben Uranus und Neptun die Amplitude der Sonnenzyklen relativ zum Modelloutput von Jupiter und Saturn allein zunehmen lassen. Während der Zyklen 20 und 24 hatten Uranus und Neptun die Auswirkung einer Reduktion der Größenordnung jener solaren Zyklen. Folglich könnte man die Kaltzeit der siebziger Jahre im Zusammenhang mit Sonnenzyklus 20 als Auswirkung des Einflusses von Uranus und Neptun betrachten.

Und wie geht es jetzt weiter? Nun, es gibt noch ein weiteres großes Mysterium bzgl. der Sonne. Die Hemisphären weisen unterschiedliche Aktivitäten auf, was während vieler Zyklen zutage trat. Dies zeigt die folgende Abbildung:

Abbildung 4: Sonnenflecken-Zone unterschieden nach solaren Hemisphären

Während der letzten drei Zyklen gab es auf der solaren Südhemisphäre größere Gebiete mit Sonnenflecken als auf der Nordhemisphäre. Deren Spitzenwert lag auch später als jene der Nordhemisphäre. Welche Ursache könnte dies haben? Wahrscheinlich ist es die Neigung der Umlaufbahnen der Riesen-Gasplaneten relativ zum solaren Äquator. Diese Neigung beträgt:

Jupiter 6.09%

Saturn 5.51%

Uranus 6.48%

Neptune 6.43%

Es scheint, dass der nächste Schritt die Erstellung einer 3D-Version des Modells von Ed Fix ist.

Link: https://wattsupwiththat.com/2016/10/13/solar-cycle-mystery-solved/

Übersetzt von Chris Frey EIKE




Auch die Schweizer Bürger wählen falsch: Volksbegehren für eine „Grüne Wirtschaft“ in der Schweiz gescheitert

Bild rechts: Screenshot von der Homepage von Global Footprint Network

Die Volksinitiative Grüne Wirtschaft

Im Kern ging es darum, dass NGOs – und die Schweizer Grünen – sich sicher sind, dass ein Schweizer „drei Erden“ benötigt und damit eindeutig ein ökologischer Schuldner ist. Während Staaten ihre Schulden in aller Regel nie zurückzahlen (können), gilt dies natürlich nicht für den Staats-Bürger. Ein „Ordentlicher“ jedenfalls hat zumindest seine Ökoschuld zu tilgen, bedeutet sich so einzuschränken, dass immer eine Erde reicht. Jede Ökoschuld, alternativ Footprint, können NGOs und Grüne selbstverständlich genau berechnen und dem Staat berichten, welcher dann mit Controlling, Verboten und Zusatzsteuern fürsorglich so lange lenkend eingreift, bis der normale Bürger sein Reduktionssoll erreicht und einhält.
Eine Theorie, welche dem Anspruch der Grünen als Überwachungs- und Verbotspartei ideal entgegen kommt. Und klar, dass auch Greenpeace und der WWF bei dieser Kampagne mit mischen.

Neue Zürcher Zeitung: [2] Wir wollen unseren Nachkommen keine zerstörte Erde hinterlassen. Dieses Anliegen der Volksinitiative zur «Grünen Wirtschaft» ist sehr sympathisch. Wenn sich weltweit jeder so verhalte wie der durchschnittliche Schweizer, brauche es längerfristig statt einer Erde etwa drei Planeten, um unsere Spezies auszuhalten: Solche Berechnungen zum «ökologischen Fussabdruck» sind die Basis der Volksinitiative, die bis 2050 eine Senkung des Schweizer Fussabdrucks auf noch eine Erde verlangt. Das bedingt eine Reduktion der massgebenden Umweltbelastungen um etwa zwei Drittel. Unterstellt man ein gewisses Wirtschaftswachstum bis 2050, wäre gar eine Senkung der Belastung je produzierte Einheit um etwa drei Viertel nötig.

Bei den Schweizer Grünen ist es einfacher erklärt: [3] Ziel der Initiative ist, den ökologischen Fussabdruck der Schweiz bis ins Jahr 2050 auf ein nachhaltiges Niveau von einer Erde zu senken. Nur so lässt sich langfristig für alle eine hohe Lebensqualität ermöglichen.
Leider erklären die Grünen nicht, was sie unter „hoher Lebensqualität“ verstehen.

Die Gegner brachten auch Argumente: [4] NEIN zu mehr Staat – NEIN zur Entmachtung der Kantone. Mit der Initiative werden kantonale Kompetenzen auf Bundesebene verschoben. Der Föderalismus wird geschwächt. Zudem müssen viele Vorschriften geschaffen und von einem zusätzlichen Beamtenapparat kontrolliert werden.

Dabei sollen die Forderungen und Einschränkungen in etwa nur denen des Welt-Klimavertrages „Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung entsprechen.
GRUENE.CH: [3] Das Ziel der Initiative entspricht dem 1,5–2°C-Ziel des Pariser Klimaabkommens.

Und so stimmten die Schweizer Bürger über die dem Klimavertrag entsprechenden Maßnahmen ab

Obwohl es nur um eine nationale und nicht internationale Vereinbarung (wie beim Welt-Klimavertrag) ging, war das Abstimmungsergebnis in der Schweiz am 25. September eindeutig.

Abstimmungsergebnis: [5] Nein: 63.6%, Ja: 36.4%

Unser Bundestag stimmte mit 100 % ohne Enthaltungen für „Deutschlands Grüne Wirtschaft unter internationaler Aufsicht“ und zeigte damit ein Abstimmungsergebnis wie in der ehemaligen DDR-Volkskammer.

So stark können sich die Schweizer Bürger und die Deutschen nicht unterscheiden, dass die Berliner Politik behaupten kann, ihr Abstimmungsergebnis war des Bürgers Wille.

Es wäre schon interessant zu wissen, wie Deutschlands Bürger über die massiven Vorgaben, Einschränkungen, Kostenbelastungen und Öko-Sozialistischen Zukunftsprojekte abstimmen würden, wenn sie diese im Rahmen von Volksentscheiden wirklich lesen würden und dann an- aber auch abwählen dürften.
Umweltgutachten 2016 des Sachverständigenrates für Umweltfragen (SRU) der Bundesregierung
Klimaschutzplan 2050 Treibhausgasneutrales Deutschland 2050

Quellen

[1] Global Footprint Network
http://www.footprintnetwork.org/de/

[2] Neue Zürcher Zeitung 29.8.2016: Volksinitiative Grüne Wirtschaft Verzicht auf Fleisch und Flugreisen?
http://www.nzz.ch/wirtschaft/uebersicht-wirtschaftsthemen/volksinitiative-gruene-wirtschaft-verzicht-auf-fleisch-und-flugreisen-ld.113454

[3] GRUENE.CH: Grüne Wirtschaft
http://www.gruene.ch/gruene/de/kampagnen/gruene_wirtschaft.html

[4] Information und Kurzargumentarium zur Volksabstimmung vom 25. September 2016 Nein zur extremen Volksinitiative «Grüne Wirtschaft»
https://my.abstch.ch/page/-/Gr%C3%BCne%20Wirtschaft/DE/Info%20und%20Kurzargumentarium%20Volksinitiative%20Gr%C3%BCne%20Wirtschaft.pdf

[5] Schweizerische Eidgenossenschaft: Volksabstimmung vom 25. September 2016 Vorlage Nr. 605 Vorläufige amtliche Endergebnisse
https://www.admin.ch/ch/d/pore/va/20160925/det605.html




Nun ist es amtlich: Biotreibstoffe sind schlimmere Klimakiller als konventionelle Energiequellen

Flug in den Tod: Wanderung der Fledermäuse endet oft an Windkraftanlagen

Nicht nur Zugvögel fliegen im Herbst Richtung Süden: In den letzten Augusttagen haben sich viele Millionen Fledermäuse im Nordosten Europas auf den Weg gemacht. Wie auf ein geheimes Kommando kommt es nachts zu der bisher wenig erforschten Wanderbewegung. Einige Arten – wie die nur sieben Gramm schwere Rauhautfledermaus – legen Jahr für Jahr über 4000 Kilometer zurück. Doch für viele Hunderttausend Fledermäuse ist die Migration ein Flug in den Tod: Die Langstreckenflieger stürzen im Umkreis von Windkraftanlagen tödlich verletzt vom Himmel.

„Fledermäuse können den Rotoren dank ihrer Ultraschall-Echolotung zwar meistens ausweichen, aber im Unterdruck auf der Rückseite der Anlagen platzen dann ihre Lungen“, sagt Prof. Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. Experten sprechen vom Barotrauma. Die Auswirkungen auf die Art sind immens: Allein in Deutschland fallen Jahr für Jahr bis zu 240.000 Fledermäuse Windkraftanlagen zum Opfer.

Moderne Windkraftanlagen überragen mit einer Höhe von bis zu 200 Metern den Kölner Dom, der „nur“ 158 Meter hoch ist. Die bis zu 60 Meter langen Rotoren durchpflügen den Himmel dabei auf einer Fläche von 10.000 Quadratmetern. Die Spitzen der Rotoren erreichen mit über 200 km/h die Geschwindigkeit eines Sportwagens. Für Fledermäuse, die während der Migration genau in der Höhe fliegen, in der sich die Rotoren drehen, ist eine Windkraftanlage ein unüberwindbares Hindernis. Entweder sie sterben am Barotrauma oder kollidieren direkt mit den Rotorblättern.

„Gerade die Bundesländer Mecklenburg-Vorpommern und Brandenburg haben eine besondere Verantwortung“, sagt Prof. Dr. Vahrenholt. „Man muss nur auf die Landkarte schauen: Windkraftanlagen reihen sich von Frankfurt an der Oder bis Rostock wie eine Perlenkette aneinander – und die Fledermäuse kommen aus ihren Fortpflanzungsstätten im Nordosten Europas und fliegen Richtung Süden oder Westen.“

Die meisten heimischen Fledermausarten stehen auf der Roten Liste – und sie sind nicht die einzigen Opfer: „Neben Fledermäusen gefährden die Anlagen windkraftsensible Vögel wie den extrem seltenen Schreiadler, den Schwarzstorch und den Rotmilan“, sagt Prof. Dr. Fritz Vahrenholt. Er kritisiert: „Fehlentscheidungen der Energiepolitik sind später schwer zu revidieren.“ Für den Alleinvorstand der Deutschen Wildtier Stiftung steht fest: „Rote-Liste-Arten und andere heimische Wildtiere dürfen nicht ohne Not einer unausgegorenen Energie-Politik geopfert werden.“ Das rasante Artensterben und der Schwund der Biodiversität werden leider häufig heruntergespielt und in der Klimadiskussion geopfert.

Zweites Sorgenkind: Biotreibstoffe. Der Springer-Verlag bemängelte am 25. August 2016 in einer Pressemitteilung, dass Biotreibstoffe gar nicht so “grün” sind, wie sie immer dargestellt wurden:

Biotreibstoffe sind nicht so „grün“ wie viele denken

Wissenschaftler dringen darauf, sich bei der Berechnung der Treibhaus-Auswirkung und der Kohlenstoff-Neutralität auf die Grundlagen zu besinnen.

Aussagen der Art, dass Biotreibstoffe kohlenstoffneutral sind, sollten mit großer Vorsicht aufgenommen werden. Dies geht aus einer Studie von Forschern am Energy Institute der University of Michigan hervor, nachdem diese eine rückschauende Evaluierung in nationaler Größenordnung komplettiert hatte, nämlich der Umweltauswirkungen, wenn man Petroleum-Treibstoffe in den USA durch Biotreibstoffe ersetzt. Der Verbrauch von Biotreibstoffen in den USA hat bis heute insgesamt zu einer Zunahme von Kohlendioxid-Emissionen geführt [mal eine gute Nachricht. Anm. d. Übers.]. Dies sagt Leitautor John DeCicco im Springer-Journal Climatic Change.

Der Verbrauch flüssiger Biotreibstoffe im Transportwesen hat sich während des letzten Jahrzehnts ausgeweitet, und zwar als Reaktion auf politische Maßnahmen wie dem Renewable Fuel Standard (RFS) in den gesamten USA sowie dem Low-Carbon Fuel Standard (LCFS) in Kalifornien. Diese Politik basiert auf dem Glauben, dass Biotreibstoffe inhärent kohlenstoffneutral sind, womit gemeint ist, dass nur Treibhausgas-Emissionen in Verbindung mit deren Erzeugung herangezogen werden müssen, wenn man sie mit fossilen Treibstoffen vergleicht.

Diese Hypothese ist eingebettet in eine Analyse des Lebenszyklus‘, einem Modellierungs-Verfahren, das angewendet wird, um diese Politik zu rechtfertigen und zu verwalten. Einfach gesagt, weil Pflanzen bei ihrem Wachstum Kohlendioxid absorbieren, sollten Ernteerträge für Biotreibstoffe das Kohlendioxid absorbieren, das bei der Verbrennung der Treibstoffe entsteht, die man aus ihnen erzeugt. Wendet man dieses Verfahren an, kommt man oftmals zu dem Ergebnis, dass Biotreibstoffe auf der Grundlage von Ernteerträgen wie Äthanol aus Mais und Biodiesel zumindest moderate Reduktionen von Treibhausgas-Emissionen relativ zu Petroleum-Treibstoffen bieten.

Felddaten zur Abschätzung der Gesamt-CO2-Emission von Biotreibstoffen gibt es seit Inkrafttreten des Renewable Fuel Standard im Jahre 2005. Das Team von DeCicco evaluierte die Daten bis zum Jahr 2013 mittels des Annual Basis Carbon (ABC)-Verfahrens, welches es zuvor entwickelt hatte. Es wirft einen begrenzten Blick auf die Änderungen des Kohlenstoff-Flusses, der direkt assoziiert ist mit einem System für Fahrzeug-Treibstoffe. Es behandelt Biotreibstoffe nicht als inhärent kohlenstoffneutral.

Stattdessen bringt das ABC-Verfahren CO2-Emissionen auf die Grundlage von Chemie an den spezifischen Stellen, wo sie auftreten. Das System berücksichtigt den Treibstoff-Verbrauch in Fahrzeugen, Operationen der Treibstoff-Bearbeitung und Ressourcen-Inputs einschließlich des Verbrauches von Ackerland für Biotreibstoffe. Anders als bei der Lebenszyklus-Analyse reflektiert ABC die Speicher-Und-Fließ-Natur des Kohlenstoff-Zyklus‘. Es erkennt, dass Änderungen des atmosphärischen Gehaltes sowohl von Inputs als auch von Outputs abhängen.

DeCiccos Team fand heraus, dass die steigende Aufnahme von Kohlendioxid in Pflanzen wie Mais im Zeitraum 2005 bis 2013 ausreicht, um biogenetische Emissionen mit Beziehung zu Biotreibstoffen nur zu 37 Prozent auszugleichen und nicht 100 Prozent. „Dies zeigt, dass der Verbrauch von Biotreibstoffen alles andere als kohlenstoffneutral ist, sogar auch dann noch, bevor die Emissionen im Verlauf des Prozesses berücksichtigt werden“, sagt DeCicco. In dieser Hinsicht kamen die Forscher zu dem Ergebnis, dass ein steigender Verbrauch von Biotreibstoffen in den USA insgesamt zu einer Zunahme und nicht zu einer Abnahme von CO2-Emissionen geführt hat. Dieses Ergebnis steht im Widerspruch mit den Ergebnissen jener Lebenszyklus-Modelle, welche zeigen, dass auf Pflanzen wie Mais und Soja basierende Biotreibstoffe zu einer moderaten Reduktion von Treibhausgas-Emissionen führen. Die Arbeit von DeCicco zeigt, dass es möglich ist, die notwendigen Bedingungen für einen Biotreibstoff zu evaluieren, damit diese die Vorteile der Kohlendioxid-Abschwächung zeigen [welche Vorteile wären das? Anm. d. Übers.]. „Wenn man das tut, erhält man ein eindeutiges Ergebnis, dass die Notwendigkeit erheblich größerer Vorsicht hinsichtlich der Rolle von Biotreibstoffen bei der Klima-Abschwächung [?] besteht“, folgert DeCicco.

Reference: DeCicco, J.M. et al. (2016). Carbon balance effects of U.S. biofuel production and use, Climatic Change. DOI 10.1007/s10584-016-1764-4

Auch die University of Michigan gab eine Pressemitteilung zur Studie heraus:

Studie: Biotreibstoffe lassen Wärme fangende [??] Kohlendioxid-Emissionen zu- und nicht abnehmen

Eine neue Studie von Forschern an der University of Michigan stellt die weit verbreitete Hypothese in Frage, dass Biotreibstoffe wie Äthanol und Biodiesel inhärent kohlenstoffneutral sind. Im Gegensatz zu dem populären Glauben wird das bei der Verbrennung von Biotreibstoffen emittierte, Wärme fangende [ohne diesen Zusatz würde der University vermutlich der Geldhahn zugedreht! Anm. d. Übers.] Kohlendioxid nicht vollständig ausbalanciert durch die CO2-Aufnahme der Pflanzen während deren Wachstums. Dies geht aus einer Studie von DeCicco et al. am Energy Institute von U-M hervor.

Die Studie auf der Grundlage der Zahlen zur Ernteerzeugung des US-Landwirtschaftsministeriums zeigt, dass während des Zeitraumes, als die Erzeugung von Biotreibstoffen in den USA rapide zugenommen hatte, die gesteigerte Aufnahme von CO2 durch die Pflanzen lediglich ausreichte, um 37% der CO2-Emissionen aufzufangen, die bei der Verbrennung von Biotreibstoffen entstehen. Die Forscher folgern, dass steigender Verbrauch von Biotreibstoffen verbunden ist mit einer Zunahme der Kohlendioxid-Emissionen, welche die globale Erwärmung verursachen [Aua! Das tut ja richtig weh! Anm. d. Übers.] – anstatt zu einer Abnahme, wie viele behauptet haben. Die Ergebnisse wurden am 25. August im Journal Climate Change veröffentlicht. „Dies ist die erste Studie, die sorgfältig den Kohlenstoff auf Ackerland untersucht, wo die Biotreibstoffe angebaut werden anstatt nur Vermutungen darüber anzustellen“, sagte DeCicco. „Sieht man sich an, was tatsächlich auf dem Land passiert, erkennt man, dass nicht genug Kohlenstoff aus der Atmosphäre entfernt wird, um das auszugleichen, was aus dem Auspuff kommt“. [Na, wenigstens etwas Gutes! Anm. d. Übers.]

Der Gebrauch von Biotreibstoffen als Ersatz für Petroleum hat sich im vergangenen Jahrzehnt ausgeweitet, und zwar aufgrund politischer Maßnahmen wie dem Renewable Fuel Standard der USA, welches den Gebrauch von Biotreibstoffen im Transportwesen voranbringt. Der Verbrauch flüssiger Biotreibstoffe – hauptsächlich Mais-Äthanol und Biodiesel – hat in den USA von 4,2 Milliarden Gallonen [1 Gallone = ca. 4 Liter] im Jahre 2005 auf 14,6 Milliarden Gallonen im Jahre 2013 zugenommen. Die Rechtfertigung bzgl. der Umwelt basiert auf der Hypothese, dass Biotreibstoffe als Alternative zu fossilen Treibstoffen inhärent kohlenstoffneutral sind, weil das freigesetzte CO2 im Gleichgewicht steht mit dem von Pflanzen via Photosynthese aufgenommenen CO2 während ihres Wachstums. Die Hypothese ist eingebettet in Modelle des Kohlenstoff-Fußabdrucks, mit denen politische Maßnahmen gerechtfertigt und verwaltet werden. Die Modelle, welche auf der Grundlage eines Verfahrens mit der Bezeichnung Lebenszyklus-Analyse beruhen, sind oft zu dem Ergebnis gekommen, dass auf Pflanzen basierende Biotreibstoffe zumindest eine moderate Reduktion von Treibhausgasen relativ zu fossilen Treibstoffen bieten.

Anstatt die Emissionen zu modellieren haben DeCicco et al. Daten der Ernteerzeugung aus der realen Welt analysiert sowie zur Biotreibstoff-Erzeugung und Fahrzeug-Emissionen – ohne die Vorab-Vermutung, dass Biotreibstoffe kohlenstoffneutral sind. Ihre empirische Arbeit kam zu einer bemerkenswerten Schlussfolgerung. „Wenn es um Emissionen geht, die globale Erwärmung verursachen [wieder dieser Unsinn! Was sind solche Studien wert? Anm. d. Übers.], stellt sich heraus, dass Biotreibstoffe schlimmer sind als Benzin“, sagte DeCicco. „Daher haben die Grundlagen politischer Entscheidungen zum Voranbringen von Biotreibstoffen hinsichtlich des Klimas jetzt als unrichtig herausgestellt. Politiker sollten ihre Unterstützung für Biotreibstoffe überdenken. Darüber ist schon viele Jahre lang debattiert worden. Neu ist, dass es jetzt handfeste Daten direkt von Amerikas Äckern gibt. Sie bestätigen jetzt die schlimmsten Befürchtungen hinsichtlich des Schadens, den Biotreibstoffe dem Planeten zufügen“.

Mittlerweile haben es sogar die Hardcore-Klimaschützer gemerkt: Mit Palmöl ist das Klima nicht zu schützen! Der Klimaretter berichtete am 31. August 2016:

WWF: Ölwechsel reicht nicht
Die Herstellung von Palmöl läuft nicht nachhaltig ab – bei Alternativen wie Kokos- oder Sojaöl ist das aber auch nicht besser, heißt es beim WWF. Die Umweltorganisation will deshalb die Nutzung dieser Pflanzenöle reduzieren und plädiert für Einsparungen und Verkehrsvermeidung. Die Hersteller von Agrokraftstoffen sind nicht begeistert. Sie verbrauchen den Löwenanteil des Palmöls in Deutschland. […]

Das Problem am Palmöl ist nicht das Produkt selbst, sondern der Anbau der Palmen auf Plantagen – die zumeist auf Flächen stehen, auf denen einmal üppiger Regenwald wuchs. Auf mehr als 17 Millionen Hektar – das ist fast die halbe Fläche Deutschlands – werden weltweit jährlich rund 60 Millionen Tonnen Palmöl und Palmkernöl produziert. Nach wie vor wird in Ländern wie Indonesien und Malaysia Regenwald abgebrannt, um neue Plantagen anzulegen. Schätzungen zufolge verursacht die Rodung von Regenwäldern einen jährlichen Ausstoß von rund zwei Milliarden Tonnen Kohlendioxid, doppelt so viel wie die Jahresemissionen Deutschlands. Der Weltklimarat IPCC beziffert den Anteil von Rodungen an den globalen Treibhausgasemissionen auf 17 Prozent. Außerdem wird mit dem Regenwald der Lebensraum vieler Pflanzen und Tiere vernichtet.

Weiterlesen beim Klimaretter.

Link: http://www.kaltesonne.de/nun-ist-es-amtlich-biotreibstoffe-sind-schlimmere-klimakiller-als-konventionelle-energiequellen/

Dieser Beitrag ist zuerst im Blog „Die Kalte Sonne“ erschienen. Übersetzung der englischsprachigen Auszüge von Chris Frey EIKE