1

DDR 2.0 – oder wie ich lernte die Energiewende als Erfolgsgeschichte zu sehen!

„Den Sozialismus in seinem Lauf, halten weder Ochs noch Esel auf“ (hier ein hübsches Video davon, dass sich aber leider nicht einbetten lässt ) hat der späte Honecker noch 1989 frohlockend seinen Bürgern verkündet, als das Ende der DDR schon fest besiegelt war. Was haben wir uns über diesen Naivling gefreut. War er auch Staatschef eines, wie man heute sagen würde, „failed state“, hatte dies aber weder begriffen noch akzeptiert, so hatte er seine Zuversicht, dass der Sozialismus eines Tages siegen würde, doch nie verloren.

Und wir Deppen haben geglaubt, der Mann wüsste nicht wovon er redet. Heute erkennen wir, reichlich spät, eventuell zu spät , dass wir es waren, die nicht wussten, wovon er redet. Honecker meinte nicht unbedingt die DDR, wenn er vom unaufhaltsamen Siegeszug des Sozialismus redete, er meinte den Sozialismus in seiner Reinform, freiwillig praktiziert von einem Staat, dem sich die DDR Bürger kurz nach seiner Rede mit Inbrunst anschlossen. Der Bundesrepublik Deutschland.

Denn wie anders ist zu erklären, dass seinerzeit Kohl´s Mädchen – die ehemalige FDJ Sekretärin für Agitprop und Propaganda [1], dann Umweltministerin, welche der Rio Nachhaltigkeitserklärung zustimmte und heutige Bundeskanzlerin Dr. Angela Merkel – schon 1992 das Stromeinspeisegesetz einführte, mit dem die „Energiewende“ als sozialistisches Element der Planwirtschaft begann. Anschließend wurde sie von der SPD und den Grünen im Jahre 2000 mit dem „Erneuerbare Energiengesetz“ (EEG) drastisch beschleunigt und erweitert, und dann wieder unter Merkels Regie mächtig ausgeweitet, und auf alle Bereiche der Energiewirtschaft ausgedehnt. Und, unter dem Deckmantel des Klimaschutzes, über viele weitere Gesetze und Verordnungen immer weiter ausgeweitet, um schlussendlich die „Dekarbonisierung“ zu erzwingen. Die damit durch die Hintertür eingeführte sozialistische Planwirtschaft erstreckt sich heute auf so gut wie alle Bereiche des täglichen Lebens. Und kaum jemand merkt etwas und nur sehr, sehr wenige tun etwas.

„Wenn der Faschismus wieder kommt, wird er nicht sagen: ich bin der Faschismus, er wird sagen ich bin der Antifaschismus“. In Abwandlung dieses zutreffenden Zitates des italienischen Schriftstellers Ignazio Silone, kann man heute feststellen: „Wenn der Sozialismus wieder kommt, wird er nicht sagen: ich bin der Sozialismus, er wird sagen ich bin der Klimaschutz“.

Womit wir wieder bei Erich Honecker und seiner aus heutiger Sicht bemerkenswerten Weitsicht wären und der großen Transformation, die der Sozialismus, jedoch nur vordergründig, durchlaufen hat.

Halten wir also fest. Der heutige Klimaschützer – besser die heutigen KlimaschützerInnen- sind die SozialistInnen von gestern.

Beispiel gefällig?

Die vierfarbige zwanzigseitige Beilage großer Tageszeitungen, mit dem Titel „Die Energiewende unsere Erfolgsgeschichte“ flatterte unlängst in Millionen Haushalte. Eine Veröffentlichung der Bundesministerin für Wirtschaft und Energie, wie man ganz oben rechts am Rand erkennen kann. Verantwortlich zeichnet Frau Brigitte Zypries, zu der Zeit gerade mal wenige Tage als Ministerin im Amt.

Nun weiß jeder, der mit auch nur einem Funken Sachverstand gesegnet ist, dass die Energiewende gescheitert ist. Gescheitert deswegen, weil man auch als begnadeter Politiker, egal welcher Couleur, selbst als Sozialist, nicht gegen die Naturgesetze gewinnen kann. Sie können weder gebogen noch gebrochen werden. Sie können aber unter sehr hohen Kosten umgangen werde.

Ihr Vorgänger im Amt, das politische Multitalent Siegmar Gabriel[2] hatte dies vor einiger Zeit in einem kurzen Anfall von Wahrheitsliebe auch zugegeben_

  • „Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht.“

  • „Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben.“

  • „Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.“

 

Dem ist eigentlich nichts hinzuzufügen, außer vielleicht die Aufforderung:

„Nun handelt endlich und schafft dieses Monstrum wieder ab.“ !

Das wäre Realpolitik. Die ist aber bei Politikern generell und den Sozialisten insbesondere, äußerst unbeliebt. Ihr Motto heißt daher: Wenn die bisherigen Politik nichts gebracht hat, dann muss es eben mehr davon sein. Und wenn die Realität nicht mitspielt, umso schlechter für die Realität. Und dafür legt die millionenfach verteilte Broschüre „Die Energiewende unsere Erfolgsgeschichte“ beredt Zeugnis ab. Die Wirklichkeit wird geleugnet, dass die Schwarte kracht.

Frei nach dem alten DDR Spruch:„Von der Sowjetunion lernen heißt siegen lernen“

Diese schöne Losung aus der DDR 1.0 ist mir immer noch in Erinnerung.

Von ähnlicher Aussagekraft und Wahrheitsgehalt sind die folgenden Sprüche (Kapitelüberschriften) in der DDR 2.0 Broschüre der Bundeswirschaftsministerin:

Nachhaltig und sicher,

Bezahlbar und planbar

Verlässlich und intelligent

Wettbewerbsfähig

Weltweit wegweisend

Als Krönung lesen wir auch darin:

„Die Broschüre bilanziert die bisherigen Erfolge der Energiewende und gibt einen Ausblick auf die bevorstehenden Schritte.“

Also unterziehen wir einige der genannten Losungen einer kurzen Überprüfung

Nachhaltig und sicher

Mit „nachhaltig“ – dem Modewort seit der Rio-Nachhaltigkeitskonferenz 1992- ist gemeint, dass die „Erneuerbaren“ keine (fossilen) Brennstoffe verbrauchen und als gewünschtem Haupteffekt zum Klimaschutz beitragen (sollen). Das trifft zwar in Bezug auf den Verbrauch von Brennstoffen für die Stromerzeugung zu, jedoch werden für Bau, Betrieb, Unterhalt und Rückbau erhebliche Mengen an hoch veredelten Ressourcen benötigt, die, Dank der sehr geringen Energiedichte der Energielieferanten, wie auch der geringen Lebensdauer dieser Anlagen, fallen diese erheblich größer aus, als für die konventionelle Energieerzeugung. Statt Kohle, Öl, Gas und Kernbrennstoff verbrauchen die „Erneuerbaren“an hochveredelten Rohstoffen jeglicher Art daher ein Mehrfaches pro MW installierter Leistung .

Auch die Hoffnung auf Klimaschutz erfüllt sich nicht,

  1. weil das Klima sich nicht um den CO2 Ausstoß schert

und

  1. weil trotz eines Anteils der „Erneuerbaren“ von rd. 32 % an der Bruttostromerzeugung, die CO2 Emissionen für den Stromsektor nahezu unverändert blieben, während sie insgesamt sogar wieder steigen. Doch für den Fall, dass sie doch sinken würden, die Nachbarstaaten dank des Emissionshandels diese Mengen gern zusätzlich in die Luft blasen würden.

Fazit: Diese Behauptung ist eine Nullnummer für Dummies.

Abbildung 1 Trotz eines Anteils 2016 von rd. 32 % der „Erneuerbaren“ an der Bruttostromerzeugung liegt der Anteil von Wind & Sonne bei läppischen 3,1 % des Primärenergieverbrauches. Bei geplantem 100 % „EE“-Anteil müssten die Wind – und Solaranlagen um den Faktor 28 gesteigert werden. Wasserkraft, Biomasse und Geothermie sind ausgereizt. Wollte man das mit Windrädern allein stemmen und legt man die derzeitige installierte Zahl zugrunde, dann kämen wir überschlägig auf gut 700.000 dieser „Kathedralen der Grünen (Bärbel Höhn). Dann kämen auf jeden bundesdeutschen Quadratkilometer 2 Windkraftanlagen.

„sicher“

Was mit „sicher“ gemeint ist, kann dem Kapitel nicht entnommen werden. Eventuell meint die Überschrift:

Das Ende als Wirtschaftsstandort ist sicher !

Denn es wird darin ein Loblied auf die Pariser Klimabeschlüsse und deren erfolgreiche Umsetzung mittels Dekarbonisierung durch die Berliner Regierung gesungen. Und an deren Ende, wenn wir das zulassen, steht mit Sicherheit das Ende des Industriestandortes Deutschland.

Bezahlbar und planbar

Bezahlbar

Unter „bezahlbar“ versteht Frau Zypries, dass die Verbraucher durch das EEG gezwungen werden, die EE kWh mit z.Zt 6.88 ct/kWh + 19 % Mwst = 8,19 ct/kWh über die EEEG Umlage zu finanzieren. Das ist der rd 3 fache Preis eine kWh ab Braunkohle E-Werk und der rd 4 fache Preis dessen, was der EE Strom derzeit an der Börse wert ist. Hinzu kommen noch rd. 1 ct/kWh für den Netzausbau und die rapide ansteigenden Kosten der Stabilisierungsmaßnahmen, die unter dem Begriff Netzentgelt versteckt werden.

„Infolge der Energiewende müssen die Netze massiv aus- und umgebaut werden – allein im Verteilnetz müssen bis zu 50 Milliarden Euro bis 2032 investiert werden. Hinzu kommt: Steuern, Abgaben und Umlagen auf den Strompreis sind drastisch gestiegen“,

erklärt Stefan Kapferer[3], ein Grüner und Vorsitzender des Energieverbands BDEW.

Summa summarum haben daher die Verbraucher über die Netzbetreiber allein im letzten Jahr rd. 27,5 Mrd € an EEG Umlage, EE Stromwert an die Besitzer von EE Anlagen bezahlt. Insgesamt seit Beginn des EEG sind 201 Mrd € aufgelaufen (Abb. 2a). Und noch schlimmer, auf Grund der 20 jährigen im EEG festgeschriebenen Abnahmegarantie, werden sie für die nächsten 20 Jahre nochmals rd 553 Mrd € (siehe Abb. 2b) aufbringen müssen. Aber nur dann, wenn ab sofort jeglicher Zubau gestoppt würde, sonst wird es jedes Jahr exponentiell mehr.

Abbildung 2a EEG Auszahlungen an „EE“-Besitzer durch die Netzbetreiber blau jährliche Auszahlung. Rot kumuliert, das was wir bisher schon gezahlt haben. Quelle. BMWi Erneuerbare Energien  und eigene Berechnungen für die Jahre nach 2016. Das Düsseldorfer Institut für Wettbewerbsökonomik (was es nicht alles gibt!) berechnet die Gesamtkosten bis 2025 mit 520 Mrd €.

Auszahlungen p.a, Auszahlungen kumuliert, Zahlungsverpflichtungen

Abbildung 2b: EEG jährliche Auszahlungen, kumulierte Auszahlungen und zukünftige Auszahlungsverpflichtungen der Netzbetreiber an „EE“-Besitzer durch die Netzbetreiber in den Jahren 2000, 2016 und 2022. In Summe hätten wir dann 2022 rd. 0,45 Billionen € an die „EE“ Besitzer gezahlt und noch immer eine knappe Billion zu zahlen. Diese gewaltige Zwangshypothek auf die Zukunft, die jeder von uns zu schultern gezwungen wird, „vergessen“ die meisten Studien in ihre Berechnungen einzubeziehen. Quelle. BMWi Erneuerbare Energien

Einen Ausbaustopp will die Regierung aber nicht. Sie will das Gegenteil. Ist es doch feste Absicht der Regierung und u.a. im Klimaschutzplan 2050 fest geschrieben, den Ausbau sogar noch drastisch zu steigern. Bleibt es dabei, dann müssen wir Verbraucher im Jahr 2022 bereits knapp 50 Mrd € für den EE Strom zahlen, hätten bereits für den Stotterstrom 450 Mrd aufgebracht  und haben zusätzlich eine Hypothek Laufzeit 20 Jahre von 940 Mrd € aufgebrummt bekommen.

Das also versteht eine linke Ministerin unter „bezahlbar“.

Der Begriff ist so schön schwammig irreführend, dass man verstehen kann, warum er der Lieblingsbegriff vieler Politiker ist.

Doch merke: Auch ein Ferrari ist bezahlbar, wenn man das nötige Kleingeld dafür hat.

Um aber die Volksverdummung auf die Spitze zu treiben, brüstet sich die Ministerin im Text damit, dass die Einspeisevergütung für „große Photovoltaikanlagen“ im Laufe der Jahre abgesenkt wurde. Ein Aha Erlebnis für alle diejenigen, die des einfachen Dreisatzes nicht kundig sind.

FakeNews der gröberen Art.

Planbar

Unter planbar versteht Frau Zypris nicht etwa die Planbarkeit der Stromeinspeisung. bei der in jeder Sekunde Angebot und Nachfrage ausgeglichen sein müssen, zumindest in dieser Hinsicht macht sie uns nichts vor, sondern allein die Planbarkeit der Einnahmen, wie sie in Abbildung 2 so klar dargestellt sind. Da werden sämtliche EEG Gewinnler vor Freude juchzen, gibt es doch kein besseres Instrument das Geld auch der ärmsten Verbraucher in die Taschen der EEG Gewinnler umzuverteilen. Und die Mehrheit im Lande findet das auch noch gut! Frau Zypris, der Regierung Merkel und allen Parteien die derzeit im Bundestag sitzen sei Dank.

 

Verlässlich und intelligent

Verlässlich

Schon am Anfang gesteht die Ministerin ein, dass Wind und Sonne den Strom nicht verlässlich erzeugen können. Und weil das auch nicht zu ändern ist, münzt sie die bisherige, noch immer hohe Zuverlässigkeit des Stromsystems, die unsere Energiewirtschaft in guten Jahren und in typisch deutschem Überengineering (so gut wie möglich, statt so gut wie nötig) aufgebaut hatte als ihren Verdienst um. Dabei verschweigt sie die bereits jetzt in schwindelnde Höhen angestiegenen Stabilisierungskosten, welche die Maßnahmen der Netzbetreiber bereits heute erzwingen.

„Im Jahr 2011, vor dem Atomausstieg und dem Boom der erneuerbaren Energien, mussten die Netzbetreiber einmal pro Tag eingreifen. Bis 2016 stiegen die Eingriffe auf 17-mal am Tag an; 6000 Interventionen pro Jahr, mit Kosten von rund 500 Millionen“ [4]

Abbildung 3 Redispatchkosten p.a..Quelle Vortrag Prof. Dr. F. Vahrenholt House of Commons  am 17. Januar 2017

Dass diese Redispatchmaßnahmen nicht ewig einen großen Blackout vermeiden können, ist jedem, der sich ein wenig damit beschäftigt, völlig klar. Es geht nicht mehr um das Ob, sondern allein um das Wann! Und wenn er kommt, dann sind seine Folgen gravierend. Auf 600 Mio € pro Stunde werden die Kosten eines bundesweiten Blackouts von Fachleuten geschätzt. Von den zahllosen Tragödien durch Verkehrsunfälle wg. blinder Ampeln oder Signale, oder der Nichtversorgung allein von 60.000 Dialyse Patienten mal ganz abgesehen. Wer sich ein Bild davon machen möchte, dem sei die Lektüre des Thrillers von Marc Elsberg „Blackout“ anempfohlen. Nichts für schwache Nerven, weil streng an den Ergebnissen einer zeitgleich erstellten Studie im Auftrag des Deutschen Bundestages orientiert. Die Story ist erfunden, die sich entwickelnden Zustände auf Grund der Faktenlage jedoch nicht

 

Intelligent

Stattdessen verlagert die Ministerin das Problem der unvermeidlich zunehmenden Instabilität auf den Verbraucher und schwärmt ihm von „intelligenten“ Stromzählern vor. Die bleiben zwar nach gängiger Intelligenzdefinition dumm wie Brot, auch wenn ein eingebauter Chip es gestattet, den vom Zähler überwachten Stromkreis vom Netz zu trennen oder zuzuschalten.

Über „steuerbare Verbrauchseinrichtungen“ wie es euphemistisch im Text weiter heißt.

D.h im Klartext, dass jede „steuerbare Verbrauchseinrichtung“ und die nötigen Gesetze dafür werden bald folgen, also auch ein ganzer Haushalt, eine Fabrik, eine Geflügelzucht oder ein Altenheim eine „steuerbare Verbrauchseinrichtung“ ist, die je nach anfallender Strommenge zu- oder abgeschaltet werden können.

Unter anderen bereiten die Stadtwerke Bielefeld ihre Kunden gerade auf diese Situation vor. Wie man sehr schön beim wdr nachlesen kann.

 

Wettbewerbsfähig; Weltweit wegweisend

Wettbewerbsfähig

Man muss schon völlig blind, dazu noch dumm oder gar böswillig sein – oder alles zusammen- um den noch immer nicht ganz abgeschlossenen rapiden Niedergang der hochsubventionierten Solarindustrie nicht nur nicht zu sehen, sondern auch noch für die hochsubventionierten „EE“- Industrien den Begriff „wettbewerbsfähig“ zu verwenden.

Jede Subvention lässt sich allerdings von einer noch größeren übertrumpfen. Deswegen gilt, solange die Subventionen weiter auf so hohem Niveau bleiben und sie nicht durch ein anderes Land z.B. China, wie bei der Solarindustrie exemplarisch gezeigt, übertrumpft werden, können diese Industrien hierzulande bestehen.

Aber nicht vergessen: Allein durch die EEG Umlage werden diese Arbeitsplätze mit rd. 100.000 € pro Jahr subventioniert. Jedenfalls dann, wenn man die in der offiziellen Statistikreichlich reichlich enthaltenen Schattenarbeitsplätze hinzuzählt. Nach unseren Erhebungen sind es deutlich weniger Jobs, nämlich max. 80.000! Und dann erhöht sich deren EEG Umlagen-Subvention auf rd. 250.000 €/Job und Jahr.

 

Weltweit wegweisend

Den Schlusspunkt bildet die Behauptung: Die Energiewende sei weltweit wegweisend.

Sie könnte ebenso gut aus dem Zentralorgan der SED dem Neuen Deutschland unseliger DDR Zeiten stammen, verdreht sie doch die Fakten solange, bis sie passen. Festgemacht wird diese Behauptung an einer Statistik der Internationalen Energie Agentur (hier hinter Zahlschranke) in der behauptet wird, dass die Investitionen in Erneuerbare mehr als doppelt so hoch waren wie in fossile Energieträger. Nämlich 288 Mrd $US zu 111 Mrd $ US.

Nun, traue keiner Statistik, die Du nicht selbst gefälscht hast.

Zunächst fällt auf, dass die Investitionen in Kernenergie bei dieser Darstellung außen vor geblieben sind. Mit Kosten von rd. 3500 $US/MW (in China) und 60 KKW in Planung oder Bau mit einer Leistung von ca. 60-70 GW dürfte deren Anteil etwa bei 10 bis 20 % der Gesamtkosten von rd. 227 Mrd $US also ca. 22,7 bis 45,2 Mrd $US liegen. Dies sind den konventionellen Kraftwerksinvestitionen hinzuzuzählen. Damit wären wir bei ca. 140 Mrd. $US

Doch auch bei den Investitionen in Wasserkraft wurde getrickst, denn es wurden nur Kleinanlagen bis max. 50 MW berücksichtigt. Nimmt man diese Kleinanlagen heraus (denn Wasserkraft ist in Deutschland gesättigt, eine Steigerung nicht mehr möglich) bleiben für EE Investitionen rd. 210 Mrd $US übrig.

Insgesamt wurden aber weltweit über 33 GW [5]aus neuen Wasserkraftwerken in 33 Ländern installiert, gegenüber rd. 110 GW in Wind + Solar. Die erscheinen in dieser Statistik aber nicht.

Doch die sind nicht 1:1 mit den kontinuierlich bedarfsgesteuerten konventionellen oder Wasserkraft-Anlagen vergleichbar.

Rechnet man nämlich deren geringen Nutzungsgrad ein, bei Wind ca. 20 %, bei Solar bestenfalls 10-15 %, dann bleiben von den in 2015 hinzugekommenen 110 GW gerade mal 20 GWeff. übrig. (Bei 63 GW Wind und 50 GW PV) [6]. Für stolze 210 Mrd $US.

Der Hauptgrund dafür, dass sich die Investitionen in „Erneuerbare“ trotzdem rechnen ist, dass von 160 Ländern, die diese Stromerzeugung mit Höchstsummen fördern allein 108[7] diesem Strom Vorrang einräumen. Die Renditen der Investoren also staatlich garantiert sind.

Fazit:

Es wird sich lohnen diesen Bericht, in bester planwirtschaftlicher Übererfüllungseuphorie geschrieben, die kommenden Jahre aufzuheben. Es ist ein Zeitzeugnis der Verdummung, der Verblendung und der Hybris, wie man es sonst nur gelegentlich in der Hinterlassenschaft von größenwahnsinnigen Ideologen findet.

Dass er aber gleichzeitig den Gemütszustand einer ganzen Regierung, und ganzer Parlamente, auf regionaler wie Bundesebene zeigt, ist die eigentliche Schreckensbotschaft. Hoffentlich dient er dereinst mal – in einem parlamentarischen Untersuchungsausschuss- als Beleg für kriminelles Regierungshandeln.

Wenn also die Energiewende überhaupt eine Weg weist, dann den in den ökonomischen wie politischen Abgrund.

Und das Ausland sieht es genauso. Nicht ein einziges Land auf der Welt folgt in seiner Konsequenz Deutschland auf seinem Irrweg.

Hatte doch Genossin Zypries ehemaliger Chef, der damalige Wirtschaftsminister Gabriel kurz und bündig aber korrekt festgestellt_

„Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.“

 

[1] http://www.n-tv.de/politik/Nichts-verheimlicht-nicht-alles-erzaehlt-article10631536.html

[2] Siegmar Gabriel in Kassel am 17. 4. 2014 vor Vertretern aus Nordhessen (SMA- Managern, SPD- Spitzen uva…

[3] http://www.focus.de/immobilien/energiesparen/strom-ratgeber/netzentgelte-und-oekoumlage-strompreise-steigen-zum-jahreswechsel_id_6037816.html

[4] Zitat aus dem Vortrag Deutschlands Energiewende
ein sich anbahnendes Desaster von Prof. Dr. Fritz Vahrenholt Dieser Vortrag wurde am 17. Januar 2017 im House of Commons, London, gehalten.

[5] chrome-extension://oemmndcbldboiebfnladdacbdfmadadm/https://www.hydropower.org/sites/default/files/publications-docs/2016%20Hydropower%20Status%20Report_1.pdf

[6] Quelle RENEWABLE ENERGY INDICATORS 2015 Seite 19, http://www.ren21.net/wp-content/uploads/2016/06/GSR_2016_Full_Report.pdf

[7] Quelle: Quelle http://www.ren21.net/wp-content/uploads/2015/06/GSR2015_KeyFindings_lowres.pdf S. 7 und 9

 




Die Zukunft fossiler Treibstoffe: Düster oder strahlend?

Konfrontiert mit zunehmend kostenbewusster werdenden und nervösen Finanzministerien – selbst von China hört man, dass es seine Subventionen kürzt – hat die Erneuerbaren-Industrie während der letzten paar Jahre mit heftigen Beteuerungen reagiert, denen zufolge die bisher geleistete öffentliche Unterstützung (in UK beispielsweise über 20 Milliarden Pfund seit dem Jahr 2002) jetzt erste Ergebnisse zeitigt und dass einige Technologien, besonders Wind und Solar, fast schon im Wettbewerb mithalten können ohne weitere Unterstützung. Man muss nicht extra erwähnen, dass die Industrie eilends hinzufügt, dass sie nicht ganz dazu in der Lage ist und dass Subventionen schon noch etwas länger fließen müssen: Da mihi castitatem et continentiam, sed noli modo. [Für des Lateinischen nicht mächtige Leser: „Schenke mir Keuschheit und Enthaltsamkeit – aber nicht gleich!“ Übersetzung aus Wikipedia {hoffentlich nicht zensiert!} Anm. d. Übers.]

Bei näherer Betrachtung erscheinen die Details von vielen dieser Behauptungen längst nicht mehr so solide. Der viel gerühmte Angebots-Preis [bid price] des dänischen Offshore-Windparks bei Krieger’s Flak, 49 Euro pro MWh, stellt sich lediglich als fragwürdiger Beweis von Kostenreduktionen heraus, da der Park tatsächlich sehr nahe der Küste liegt und weil die Entwickler nicht die Kosten der Verbindung zum Netz und Offshore-Transformatorenstellen einbezogen haben (etwa 500 Millionen Pfund) (hier). Selbst zu diesem niedrigen Angebotspreis (ein Fluch des Gewinners?) wird erwartet, dass die Station während der ersten 15 Jahre etwa 400 Millionen Pfund einstreichen muss, was etwa die Hälfte des Einkommens während jener Zeit ausmacht. Mit anderen Worten, dieses Projekt ist eine nahe der Küste gelegene Stelle, einfach zu errichten, hat große Kosteneinsparungen infolge der Subventionen für die Netzanbindung, braucht aber trotzdem erhebliche Unterstützung, um sie existenzfähig zu machen. Kaum so etwas wie eine Revolution.

Selbst Jahresabschlüsse, die als besonnen [sober] angesehen werden können, wie etwa die folgende Graphik aus dem im vorigen Monat veröffentlichten Energy Outlook 2017 von BP, scheinen bei detaillierter Prüfung etwas zu zeigen, das inkompatibel mit ihren Schlagwörtern ist:

Als eine visuelle Graphik lenkt diese Darstellung den Betrachter eindeutig zu der Schlussfolgerung, dass fossil erzeugter Strom immer teurer wird, wobei die roten und schwarzen Balken Kohle und Gas repräsentieren, die stetig über die gesamte Abbildung steigen, während Erneuerbare viel billiger werden. Folglich ist das Wachstum im Sektor der Erneuerbaren implizit spontan und resultiert aus „zunehmender Wettbewerbsfähigkeit“, wie die Graphik suggeriert. Auf den ersten Blick würden man denken, dass neue Kohle- und Gaskraftwerke bis Mitte der zwanziger Jahre dieses Jahrhunderts sehr unwahrscheinlich auf rein ökonomischen Grundlagen stehen.

Allerdings müssen die Anmerkungen zu dieser Graphik berücksichtigt werden. Erstens, der Indizierung zufolge handelt es sich hier um Durchschnittskosten [Levelised Costs] über die gesamte Lebensdauer des Kraftwerkes, eine Tatsache, welche den misstrauischen Leser daran erinnern soll, dass die ökonomische Lebensdauer konventioneller Generatoren gut verstanden ist, während dies für Erneuerbare nicht der Fall ist und diese wirklich kontrovers sind. BP schreibt hier nichts von seiner Hypothese, aber wahrscheinlich handelt es sich um den fragwürdigen Industriestandard in zwanzig Jahren und noch weiter voraus. (Die Subventionen für Krieger’s Flak sind jedoch auf 15 Jahre ausgelegt, was eine bessere Annäherung an die Wahrheit ist).

Zweitens und eher ungewöhnlich sind die „Kostenschätzungen der Systemintegrationskosten“ für Wind und Solar. Das ist ein wichtiger Punkt und aufrichtig zu begrüßen, aber auf der anschließenden Seite bemerken die Autoren von BP, dass die Systemkosten für die bis 2035 projizierten Penetrationsgrade [Anteile der EE an der Energieversorgung] wahrscheinlich relativ niedrig sind. Wer mit den Kosten der Versorgungsnetz-Erweiterung vertraut ist und bei niedrigem Lastfaktor [tatsächlich gelieferte Energie der EE] eine nahezu unveränderte konventionelle Kraftwerkskette zur Gewährleistung der Versorgungssicherheit kennt, wird das etwas unplausibel finden. Die Kosten sind bereits jetzt nicht unbedeutend, aber bis 2035 sind sie wahrscheinlich sehr hoch].

[Dieser Absatz ist nur für Energiefachleute verständlich. Ich möchte mich bei meinem Übersetzer-Kollegen Herrn Andreas Demmig bedanken, der mir als Fachmann bei derÜbersetzung zu Hilfe gekommen ist. Anm. d. Übers.]

Also scheint der Lack schon bei geringem Kratzen an der Oberfläche der in dieser Darstellung projizierten Preisrückgänge für Erneuerbare abzugehen – mit Sicherheit genug, um sich zu fragen, ob die Gesamtkosten für die Verbraucher von Solarstrom in Nordamerika wirklich von 85 Dollar pro MWh im Jahr 2015 auf 55 Dollar pro MWh im Jahre 2035 zurückgehen. Angesichts dessen, dass die billigsten Stellen bereits entwickelt worden sind und die Systemkosten steil steigen mit zunehmender Penetration, scheint dies ziemlich unwahrscheinlich.

Die Zahlen für die fossilen Treibstoffe stellen sich als noch bemerkenswerter heraus. Oben merken die BP-Autoren an, dass sie einen Kohlenstoffpreis „mittlerer Lebensdauer“ von 20 Dollar pro Tonne CO2 abgeschätzt haben, 40 Dollar im Jahre 2025 und 60 Dollar in 2035. Hat man die Emissionen pro Megawattstunde aus Gasturbinen und Kohlestationen im Kopf, kann man berechnen, welche Proportionen der dargestellten Preise in den BP-Projektionen sich ergeben aus der Kohlenstoff-Besteuerung und welche aus technologischen Grundlagen und dem Treibstoffpreis.

Aus der Graphik können wir ablesen, dass der BP-Schätzung zufolge die Strompreise aus neu gebauten Gasturbinen in Nordamerika im Jahre 2015 in der Bandbreite zwischen 32 und 56 Dollar pro MWh lagen. Unter der Annahme, dass BP einen Emissionsfaktor von 0,35 Tonnen emittierten CO2 pro MWh (hier) ansetzt, ergibt dies eine Kohlenstoffsteuer von etwa 7 Dollar pro MWh, was bedeutet, dass die Bandbreite der Preise etwa 25 bis 49 Dollar pro MWh beträgt. Im billigsten Fall ist dies viel weniger als bei jeder anderen Treibstoff-Technologie, und selbst im teuersten Fall ist es immer noch billiger als die mittlere Bandbreite von Wind un d Solar.

Im Jahre 2035 steigen die Preise für Gasturbinen in Nordamerika auf 43 bis 68 Dollar pro MWh, einschließlich einer Kohlenstoffsteuer von 60 Dollar pro Tonne emittierten CO2. Die Emissionen pro MWh einer neu errichteten Combined Cycle Gas Turbine in jenem Jahr sind ungewiss, aber eine gewisse Verbesserung kann erwartet werden, und BP muss das zugestanden werden. Bleiben wir mal auf der konservativen Seite und nehmen an, dass es lediglich eine moderate Verbesserung der thermischen Effizienz gibt und die Emissionen auf auf etwa 0,3 Tonnen emittierten CO2 pro MWh zurückgehen. Dies würde eine Kohlenstoff-Steuerlast ergeben von etwa 18 Dollar pro MWh. Man subtrahiere das von dem projizierten Preis, und die Bandbreite im Jahre 2035 fällt auf 25 bis 49 Dollar pro MWh, was identisch ist mit den fundamentalen Kosten im Jahre 2015 und deutlich unter den Kosten sowohl von Solar- als auch von Windstrom liegt.

Führt man die gleiche grobe Berechnung für Schätzungen des Kohlepreises durch unter der Annahme, dass BP Emissionen von etwa 0,74 Tonnen emittierten CO2 pro MWh für die gegenwärtige super-kritische [?] Kohle ansetzt und 0,67 Tonnen emittierten CO2 pro MWh bei zukünftiger verbesserter superkritischer Kohle [?] [0.74 tCO2e/MWh for current super-critical coal and 0.67 tCO2e/MWh for future advanced supercritical coal], dann zeigt sich das überraschende Ergebnis, dass der in der BP-Graphik geschätzte Kohlenstoffpreis einen signifikanten Rückgang des Preises der Kohle-Erzeugung maskiert. Die Preise im Jahre 2015 lagen zwischen 48 Dollar pro MWh und 73 Dollar pro MWh ohne Kohlenstoffsteuer (15 Dollar pro MWh), während die Preise im Jahre 2035 zwischen 45 Dollar pro MWh und 59 Dollar pro MWh liegen ohne Kohlenstoffsteuer (40 Dollar pro MWh). Derartige Preise machen die Kohle auch im Jahre 2035 wettbewerbsfähig gegenüber Wind und Solar.

Mit anderen Worten, praktisch die gesamte Steigerung der in der BP-Graphik präsentierten Kosten der Kohle- und Gaserzeugung ist das Ergebnis von Kohlenstoff-Besteuerung, nicht von technologischen und Treibstoff-Grundlagen. Eine Graphik, die vordergründig einen stetigen Triumph von Erneuerbaren sogar über die billigsten fossilen Treibstoffe zeigen, zeigt jetzt, dass Strom aus Gas- und sogar aus Kohlekraftwerken wahrscheinlich noch viele Jahrzehnte lang fundamental billig bleiben wird, und dass Erneuerbare nur unter optimistischen Annahmen hinsichtlich Kostensenkungen wettbewerbsfähig werden sowie mit einer willkürlichen und politisch angreifbaren Zwangsabgabe für fossile Treibstoffe in Gestalt einer Kohlenstoffsteuer.

Ich habe nicht den Wunsch, ausschließlich BP einer Einzelkritik zu unterziehen. Darstellungen wie diese werden hundertfach von Unternehmen und Regierungen in der ganze Welt gezeigt. Dies ist Gruppendenken im größten Maßstab. Natürlich glauben dies nicht alle. Mr. Trump hat ambitionierte Pläne einer Re-Militarisierung der USA, zusammen mit einer Agenda niedriger Steuern und Reduktionen bei öffentlichen Ausgaben. Billige fossile Treibstoffe wie jene implizit in der BP-Studie werden diesen Kreis nicht nur quadrieren, sondern werden es dem Präsidenten auch erlauben, gegenüber den Bergarbeitern und Produktions-Mitarbeitern Wort zu halten, welche ihn ins Amt wählten. Der Outlook mag ziemlich konfus daherkommen, aber die Aussichten sind für jedermann klar erkennbar.

Link: http://www.thegwpf.com/the-future-of-fossil-fuels-dark-or-bright/

Übersetzt von Chris Frey EIKE




Wie Trump und der US-Kongress daran arbeiten, Obamas Klima-Agenda rückgängig zu machen

Zwar ist es erst drei Wochen her, dass Trump ins Amt eingeführt worden ist, doch hat der Präsident während dieser Zeit bereits die beiden Pipelines Keystone XL sowie Dakota Access genehmigt, welche von Obama blockiert worden waren, teils wegen Bedenken, wie diese zum Klimawandel beitragen würden.

Trump ist mittels eines Ausführungs-Dekrets gegen andere Vorschriften vorgegangen, während das Weiße Haus vier Maßnahmen unter dem Congressional Review Act zugestimmt hatte, um Vorschriften bzgl. Energie aus der Obama-Ära zu annullieren. Zwei dieser Maßnahmen fanden auch schon die Zustimmung des Senats.

Energie hat sich als ein Bereich entpuppt, in welchem Trump und die Republikaner im Kongress absolut einer Meinung sind, und ihre Maßnahmen haben Energie-Unternehmen und Klimawandel-Aktivisten gleichermaßen signalisiert, dass Trump und die Kongress-Republikaner es ernst meinen damit, eine komplette Änderung des Umgangs der USA mit großen politischen Fragen bzgl. globaler Erwärmung vorzunehmen.

„Ich denke, dass wir großartig begonnen haben“, sagte Senator Steve Daines von den Republikanern aus Montana und Mitglied des Energy and Natural Resources Committee des US-Senats, der sich fortwährend darüber beklagt hatte, dass Obama versucht hat, die Entwicklung von Kohle, Erdgas und Öl zu behindern wegen Bedenken hinsichtlich Klimawandels. „Die Verschiebung geht in Richtung einer Energiepolitik, die dem gesunden Menschenverstand folgt. Die Energiepolitik von Präsident Obama machte keinen Sinn. Präsident Trump leistet dem gesunden Menschenverstand Vorschub und plant, mehr Energieerzeugung in Amerika zu fördern.

Senator Brian Schatz von den Demokraten aus Hawaii, ein ausgesprochener Klima-Aktivist, sagte, dass Trump und seine Leute „in jeder Hinsicht so schlimm agierten wie die Menschen befürchtet haben. Man kann das alles nicht zurückfahren. Es klingt so, als ob es aus einem schlechten Film über Politik stammt“.

Er merkte an, dass zwei der vom Kongress genehmigten Maßnahmen Verpflichtungen eliminieren, denen zufolge Energieunternehmen Zahlungen an auswärtige Regierungen bekanntgeben müssen für die Energieerzeugung, und eine Vorschrift aufheben, Flüsse von Abfall des Kohlebergbaus freizuhalten.

Obama machte den Kampf gegen den Klimawandel in seiner zweiten Amtszeit zur obersten Priorität. Er stütze sich großenteils auf einseitige Maßnahmen wie etwa seinem Clean Power Plan, um CO2-Emissionen aus Kraftwerken zu begrenzen.

Obama unterzeichnete auch Verordnungen, die Methan-Emissionen begrenzen sollten, welches beim Bohren nach Öl und Erdgas anfällt. Er half bei den Verhandlungen zum Pariser Klima-Abkommen, in welchem fast 200 Nationen zustimmten, ihre Treibhausgas-Emissionen zu begrenzen. Außerdem blockierte er zum Betrieb der beiden o. g. Pipelines erforderliche Genehmigungen.

Während seiner Wahlkampagne hat Trump, der den Klimawandel einen Betrug nennt, [was er de facto natürlich so nicht getan hat, sondern er hat lediglich die vermeintliche Ursache des Klimawandels einen Betrug genannt, den Klimawandel selbst aber nie bestritten oder gar geleugnet. Anm. d. Übers.] hat wiederholt versprochen, viele dieser politischen Maßnahmen rückgängig zu machen.

Er hat führende Amtspersonen, die pro fossile Treibstoffe waren, mit der Leitung von maßgeblichen Agenturen beauftragt, darunter den ehemaligen geschäftsführenden Direktor der Exxon Mobil Corp. Rex Tillerson als Außenminister, den Generalstaatsanwalt von Oklahoma Scott Pruitt als Administrator der EPA, den ehemaligen Gouverneur von Texas Rick Perry (Republikaner) als Energieminister sowie den Repräsentanten Ryan Zinke als Innenminister.

Auf dem Capitol Hill arbeiten die Republikaner im Weißen Haus daran zu überprüfen, wie die EPA Wissenschaft missbraucht, um rückgängig zu machen, was sie als ungerechtfertigte Vorschriften ansehen.

Full Story

Link: http://www.thegwpf.com/trump-gop-controlled-congress-working-to-undo-obamas-climate-agenda/

Übersetzt von Chris Frey EIKE




EIKE Website wurde Opfer eines Angriffs!

Offenbar ist unsere Seite vielen Klimagläubigen inzwischen ein dermaßen großer Dorn im Auge, dass sie anstatt die Auseinandersetzung mittels wissenschaftlicher Faktendiskussion mit uns zu führen, auch vor illegalen Methoden der Stilllegung wegen Überlastung der Server nicht mehr scheuen. Denn die Angriffe gingen nach Wiederfreischaltung sofort wieder los: Unser Provider schrieb uns soeben dazu

Wir haben den Account nun wieder freigegeben. Allerdings fiel uns auf, dass sofort wieder einige PHP-Prozesse auf Ihrem Account aktiv waren. Diese verursachen aktuell keine größeren Probleme, sodass der Account vorerst wohl aktiv bleiben kann. Bitte beachten Sie, dass wir unter Umständen den Account erneut sperren müssten, falls wieder Probleme auftreten.

Also dürfen wir damit rechnen in Kürze wieder Opfer eines Angriffes zu werden. Wir sind gespannt. Auch deswegen weil unser Provider in seiner Werbung verspricht Ddos Attacken von sich aus fernzuhalten, wir aber – jedenfalls unserer laienhaften Meinung nach- gerade Opfer einer derartigen Attacke geworden sind.

Wir danken allen Lesern, die sich mit einer Spende an den Aufwendungen für den Erhalt und freien Zugang unserer Website beteiligt haben oder noch beteiligen werden.

 




Das nationale Begleit­gremium zum “Standort­auswahl­gesetz” stellt sich vor“

Am Samstag dem 11.2.17 fand im “Tagungswerk Jerusalemkirche in Berlin” eine Veranstaltung zum “Standortauswahlgesetz” statt.

Was verbirgt sich dahinter?

Wer bisher noch nicht von dieser Institution gehört hat, sollte vielleicht mal deren Internetauftritt besuchen. Mal ehrlich, wer hat überhaupt von dieser Tagung gewußt oder gar eine Einladung erhalten? Dafür war Funk, Fernsehen und Presse reichlich vertreten. Ist ja bald wieder Wahlkampf. Erstaunlich oder eher erschreckend ist auch hier wieder, das neue deutsche Blockparteiensystem. Alle Parteien vereint – unter Führung der Grünen – im Kampf gegen das “Teufelszeug” und den zahlenden Bürger. Ein Lehrstück über gelenkte Demokratie. Man bestimmt ein Gremium aus gleichgesinnten Laien und nennt das “Bürgerbeteiligung”. Sachverstand ist ausdrücklich nicht gewünscht, er stört nur die Politik bei ihrer “großen Transformation”.

Was soll das Standortauswahlgesetz bewirken?

Zumindest eine Partei sieht ihre Wurzeln und ihre Kernkompetenz im “Kampf gegen das Atom”. Zieht man dieses Thema ab, verbleibt nur noch ein bischen (austauschbarer) Sozialismus. Die Transsexualität und die vegetarische Zwangsernährung hat sich bereits in den letzten Wahlkämpfen nicht als der Wahlkampfschlager erwiesen. Also zurück zum Geschäft mit der Angst. Nur ist auch das nicht mehr so einfach zu betreiben wie früher. Durch den “Atomausstieg” und die “Energiewende” ist “Atomkraft-Nein-Danke” auch für wohlwollende Linke nicht mehr so der Aufreger. Also schnell vor der Bundestagswahl noch ein paar Kohlen für die eigene Klientel aufgelegt, indem man ein “Standortauswahlgesetz” im Schweinsgalopp durch die Parlamente treibt. Da alle etablierten Parteien auf den potentiellen Koalitionspartner zum eigenen Machterhalt oder Machterwerb angewiesen scheinen, mit voller Unterstützung der anderen Parteien. Es gibt im Bundestag offensichtlich keine Opposition – und was weit folgenschwerer ist – keinen Sachverstand mehr.

Nachdem wir bereits Milliarden in die Erkundung der Standorte Gorleben und Schacht Konrad investiert haben, soll jetzt noch einmal alles von Neuem gestartet werden. Wohl gemerkt, nicht weil sich diese Standorte als gänzlich ungeeignet erwiesen haben, sondern um die gesamte Republik wieder mit “einem Kampf gegen das Atom” zu überziehen. Wir gönnen uns ja sonst nichts. In diesem Punkt schweigen sogar die Politiker, die sonst ständig von “Kinderarmut”, drohender “Altersarmut” etc. reden.

Was ist das eigentliche Problem?

Wir verfügen an zahlreichen Standorten über unterschiedlichste Stoffe, die ionisierende Strahlung aussenden. Sie stammen aus unterschiedlichsten Quellen: Energieerzeugung, Forschung, Medizin, Produktion und Bergbau (Öl, Gas, Kohle usw.). Damit muß verantwortungsvoll umgegangen werden. Das ist die eigentliche politische Frage, die in den Parlamenten diskutiert und beschlossen werden muß:

  • Was ist Wertstoff und was ist Abfall?
  • Was wird als gefährlich angesehen? Dies betrifft nicht nur die Radioaktivität, sondern auch den chemischen Zustand.
  • Wie hoch sollen die Grenzwerte sein?
  • Sollen die Stoffe “vernichtet” werden und damit dauerhaft aus der Welt geschafft werden oder sollen sie “sicher gelagert” werden?
  • Was ist eine als sicher angesehene Lagerung: Technische Barrieren oder geologische Barrieren oder eine Mischform?
  • Erst wenn über diese Fragen Einigung erzielt worden ist, kann sachlich fundiert über Standorte entschieden werden. Dieser Prozeß muß in einer Demokratie über die Parlamente geschehen. Die Politiker – da grundsätzlich Laien – haben vorher den Sachverstand der Wissenschaft zu konsultieren. Die Entscheidung jedoch, kann ihnen keiner abnehmen.

Ganz nebenbei, die “Endlagerfindung” ist mitnichten die endgültige Lösung. Auch bei einem kompletten Ausstieg aus der Kernenergie und Forschung wird weiterhin mit radioaktiven Stoffen in Medizin und Fertigung umgegangen werden. Radioaktiver Abfall wird weiterhin entstehen.

Die moralische Überhöhung

“Atommüll” sei Teufelszeug, für das die heutige Generation die Verantwortung tragen müßte, da sie auch den Nutzen davon gehabt hätte. Abgesehen davon, daß dies eine eigenartige Auffassung von der Entwicklung der Menschheit ist, ist diese Aussage auch in höchstem Maße zynisch. Diese Denkweise gipfelt in der Forderung eines generellen Exportverbotes für radioaktive Stoffe. Man will die abgebrannten Brennelemente unwiederbringlich verbuddeln. Deutschland will aus der Kernenergie aussteigen, gut, das ist sein Recht. Aber woher nimmt dieses grün-alternative Milieu eigentlich das Recht, dem Rest der Welt seine Sichtweise aufzuzwingen? Für den überwiegenden Teil der Menschheit sind Brennelemente kein Müll, sondern Rohstoff für die Energiegewinnung. Das Recycling ist erprobte Praxis. Wo bleibt da eigentlich die “Nachhaltigkeit”, die sonst immer, wie eine Monstranz vor sich her getragen wird. Allein China baut alle drei Monate einen neuen Kernreaktor. Der Uranbedarf wird entsprechend steigen. Die Urangewinnung erfordert viele menschliche und materielle Ressourcen, aber wir maßen uns an, Wertstoffe durch vergraben dem Weltmarkt zu entziehen. Am Deutschen Wesen, wird die Welt genesen.

Wie in sich unlogisch die Argumentation ist, zeigt sich daran, daß ein grüner Umweltminister sogar fordert, man müsse für die Endlagerung auch ausdrücklich das tail-end (abgereicherter Teilstrom bei der Urananreicherung) aus deutschen Urananreicherungsanlagen einbeziehen. Was bitte, strahlt denn mehr: Uran–235 oder Uran–238? Das abgereicherte Uran strahlt daher weniger als Natururan. Bisher ist es ein frei handelbares Wirtschaftsgut. Wenn wir die Grenzwerte so tief nach unten schrauben, sollten wir schleunigst Zwischenlager für Kohlenasche (aus der wird gerne Zement und Pflastersteine gemacht), Rückstände aus der heimischen Öl- und Gasförderung usw. anlegen. Außerdem müßten wir schleunigst alle Panzer, panzerbrechende Munition und Ausgleichsgewichte in diversen Flugzeugen mit Aufklebern zur Warnung vor Radioaktivität versehen und das Personal mit Dosimetern ausrüsten. Schöne Grüße aus Absurdistan.

Der Müll geht aus

Der bisherige Gesetzentwurf lautet im Untertitel …ein Endlager für Wärme entwickelnde radioaktive Abfälle…. Wahrscheinlich der kleinste gemeinsame Nenner zwischen den Parteien. Durchaus sinnvoll, denn es gibt ja bereits den Standort Konrad für mittelaktiven Abfall. Wenn man nun aber alle Kernkraftwerke abgeschaltet hat, kommt kein neuer (hochaktiver) Müll mehr hinzu. Der bereits zwischengelagerte Abfall aus der Wiederaufbereitung ist schon recht alt. Bis ein Endlager betriebsbereit ist und die erste Einlagerung möglich wird, werden mindestens noch weitere 50 Jahre vergehen. Je länger der Abfall lagert, um so mehr radioaktive Stoffe sind zerfallen. Es bleiben nur die langlebigen über, die aber gerade wegen ihrer Langlebigkeit wenig Wärmeleistung produzieren. Deshalb ist es z.B. kein Problem, eine Oberflächentemperatur von 90°C (z. B. französische Vorschrift für deren Endlager) bei den Gebinden einzuhalten. Der deutsche Gesetzentwurf schweigt sich bisher dazu aus, was durchaus sinnvoll ist, da ja noch keine konkreten geologischen Verhältnisse vorliegen sollen (Entscheidungsfreiheit).

Damit die “Atommüll-Story” weiter am Laufen gehalten werden kann, muß man virtuellen Müll erschaffen. Man redet gewaltige Mengen aus der Asse herbei, die angeblich wieder vollständig ausgebaggert werden muß. Hinzu kommen die Mengen an leicht radioaktiven Abfällen aus den Kernkraftwerken und dem Abbruch der kerntechnischen Anlagen. Es wird dabei tunlichst verschwiegen, daß das Volumen von radioaktivem Müll vollkommen beliebig ist. Man kann durch Nachbehandlung (Dekontaminierung, Verbrennung etc.) und Sortierung das Volumen beliebig verringern. Alles nur eine Frage der Kosten. Die jetzt aufgeworfene Forderung der grünen Problemerschaffungs-Partei, auch dieser Müll müßte in dem geologischen Tiefenlager eingelagert werden, setzt dem Ganzen die Krone auf. Müll, der weltweit auf normalen oberirdischen Sondermülldeponien gelagert wird. Dies nur um den Popanz eines nicht vorhandenen Endlagers aufrecht erhalten zu können. Dieses muß natürlich möglichst groß sein, um den Widerstand in der Region anfachen zu können und gleichzeitig möglichst teuer, um das Märchen von der viel zu teuren Kernenergie erfüllen zu können. Als Nebenprodukt kann man noch ein Endlager erschaffen, das sicherheitstechnisch deutlich hinter internationalen Standards zurückbleibt. Nach dem Murks der Energiewende, noch ein Murks mit radioaktiven Stoffen.

Das erschaffene Endlagerproblem

Das größte Bubenstück der Grünen, war jedoch das Verbot einer Wiederaufbereitung, das jetzt noch einmal durch das Exportverbot für Kernbrennstoffe verschärft werden soll. Man muß es immer wieder betonen, der verglaste Abfall aus der Wiederaufbereitung in Frankreich und England ist nach maximal 100 000 Jahren auf das Niveau von Natururan abgeklungen. Man kann ihn bereits nach wenigen hundert Jahren in die Hand nehmen, wenn man keine Strahlenphobie hat. Genau das, war der sicherheitstechnische Sinn der Wiederaufbereitung: Verkleinere drastisch das Volumen und entschärfe den Abfall durch die Entfernung des Plutoniums.

Durch die jetzt geplante Endlagerung der unbehandelten Brennstäbe hat man wegen des hohen Plutoniumgehaltes einen wesentlich problematischeren Abfall erschaffen. Man kann nicht einfach die Castoren verbuddeln, sondern die Brennelemente müssen aufwendig neu verpackt werden. Verfahren hierfür, die auch nur ansatzweise die gleiche Sicherheit bieten, wie der verglaste Abfall, gibt es nicht. Wer soll die eigentlich entwickeln und wo wird später die Anlage hierfür errichtet?

Zusammenfassung

Es ist der klassische Politikablauf: Erschaffe ein Problem, das du anschließend vorgibst zu lösen. Halte Fachleute fern und laß nach dem Prinzip des Berliner Willi Brand Flughafens Laien vor sich hin wurschteln. Je länger die Sache dauert, je höher sind die Pfründe für alle Günstlinge. Tarne die Angelegenheit über eine “Bürgerbeteiligung”. Gleichzeitig schaffst du dadurch Arbeitsplätze für nicht vom Arbeitsmarkt nachgefragte Akademikergruppen. Diese sind dir deshalb treu ergeben und werden dir den Rücken frei halten. Je besser du die Verantwortungslosigkeit organisiert, je besser ist die Chance wiedergewählt zu werden.

Es wird eine endlose Geschichte inszeniert. Jetzt, wo man sich die Rücklagen für die Entsorgung einverleibt hat, hat man alle Zeit der Welt, das Geld für andere Dinge auszugeben. Politiker als Vermögensverwalter ist genauso, wie gierige Hunde zur Bewachung von Steaks. Ist das Geld weg, wird man die Gesetze ändern. Schacht Konrad und Gorleben laufen ja nicht weg.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Erneuer­bare Energie ist kein Allheil­mittel

Ein Stopp der Verfügungen und Subventionen für erneuerbare Energie, welche unsere ökonomischen Konkurrenten weiterhin fördern (wenngleich auch weniger als früher) wird unsere weitere globale ökonomischen Führerschaft zementieren. Fossile Treibstoffe, über die Amerika üppig verfügt, sind und werden mindestens noch bis zum Jahr 2050 und wahrscheinlich sogar noch darüber hinaus billiger sein als jedwede Form erneuerbarer Energie. Und fossile Treibstoffe sind auch die zuverlässigste Energiequelle. Falls Energie in den USA relativ billig bleibt und das Land aus dem Pariser Klimaabkommen aussteigt, wie es Präsident Trump versprochen hat, dann erwarte man, dass immer mehr Produzenten ihre Operationen in die USA verlagern.

Europa kürzt bereits seine Unterstützung für erneuerbare Energie. Falls Amerika dem folgt und Subventionen und Anreize für Wind- und Solarenergie kürzt, dann wird der größte Markt für Chinas Erzeugnisse für Erneuerbare austrocknen. Falls China mit seiner Erneuerbaren-Expansion fortfährt, wird es allein die hohen Kosten jener Technologien zahlen müssen, wenn diese im Ausland nicht mehr subventioniert werden. Chinas Wirtschaft schrumpft schon jetzt. Ohne die Märkte in den USA und Europa wird es interessant sein zu sehen, wie lange China noch „führend in der Welt“ bzgl. erneuerbarer Energie sein wird, falls dessen zunehmender Gebrauch sich als Bremsklotz der chinesischen Wirtschaft erweist, wie es bereits in Europa und in geringerem Umfang in den USA der Fall war.

Während China beschlossen hat, die Anzahl neu geplanter Kohlekraftwerke für die kommenden Jahre um über 100 zu reduzieren, sind immer noch über 100 in der Planung. Gebaut werden sie mit einer Rate von etwa einem Werk alle zwei Wochen. Ja doch, Indien errichtet Solarparks im Hinterland, aber es werden gleichzeitig ebenfalls rasch neue Kohlekraftwerke gebaut, ebenso wie in anderen Ländern in Asien und Afrika – wo fast 1000 Kohlekraftwerke sich in verschiedenen Stadien des Baus und der Planung befinden.

Sogar Japan, das Land also, welches in vielfacher Hinsicht den Kampf gegen den vermeintlich gefährlichen, vom Menschen verursachten Klimawandel angeführt hat, indem es entwickelte Länder drängte, deren Treibhausgas-Emissionen zu reduzieren, hat Pläne bekannt gegeben, 45 neue Kohlekraftwerke zu errichten, um den Ausfall der Kernkraftwerke nach dem Unfall in Fukushima zu kompensieren.

Aber was ist mit Google, Facebook und Amazon? Wollen sie sich nicht von Fossilen befreien? Kaum. Wie meine Freunde Isaac Orr und Paul Driessen erklären und wie es natürlich auch der gesunde Menschenverstand sagt, weht der Wind nicht immer und scheint die Sonne nicht immer. Wenn das der Fall ist, wird Google sich fossiler Treibstoffe bedienen (oder eventuell in einigen Fällen Kern- oder Wasserkraft), genau wie jeder andere auch. Driessen schreibt: „Kein Unternehmen, dass ununterbrochen 365 Tage im Jahr rund um die Uhr aktiv ist, kann zu 100% mit erneuerbarer Energie betrieben werden … 5 bis 25% über das Jahr verteilt sind weit realistischer. Die restliche Zeit muss der Strom von ,Backup‘-Systemen kommen, welche in der Tat die primären Energiequellen sind“. Orr beschreibt die Verkündung von „100% erneuerbar“ seitens Google als ein „Mätzchen“ und erklärt:

Googles eigener Erklärung seines Planes zufolge läuft es darauf hinaus, dass Google Zertifikate erneuerbarer Energie kauft, was es Google erlaubt, erneuerbare Energie zum Großhandelspreis zu kaufen, was bedeutend billiger ist als die Einzelhandelspreise, und jene Energie dann zum Einzelhandelspreis wieder in das Netz zu speisen.

Googles Ausflug in erneuerbare Energie ist kein altruistisches Unterfangen, um die Welt zu retten. Sondern es ist ein billiger Marketing-Trick, um „grün“ auszusehen, was es dem Unternehmen erlaubt, Profite mit politischen Maßnahmen zu machen, welche erneuerbare Energie subventionieren.

Die Zertifikate erneuerbarer Energie von Google sind nur solange wertvoll, wie sie die Politik unterstützt. Falls die Verordnungen und Subventionen verschwinden, wird der Markt und der Wert der Google’schen Zertifikate kollabieren. Falls dies so kommt, wollen wir um der Steuerzahler willen hoffen, dass die Regierung Google nicht als „too big to fail“ einstuft.

Quellen: Wired.com; Isaac Orr; Paul Driessen und Andrew Follett

—————————————————-

Kurzmeldungen der GWPF zu Kohlekraftwerken in Deutschland:

Hier folgen noch zwei Meldungen aus dem Rundbrief der GWPF über neue Kohlekraftwerke in Deutschland. Offenbar ist man hierzulande mit Hochdruck dabei, das unter dem Teppich zu halten. Aber jeder sollte es wissen:

Gut verborgen: Verbrauch von Strom aus Kohle- und Gaskraftwerken in Deutschland auf 5-Jahre-Hoch

Der Output von Kohle- und Gaskraftwerken in Deutschland hat im Januar den höchsten Stand seit fast fünf Jahren erreicht. Ursachen waren kaltes Wetter, dass der Nachfrage einen kräftigen Schub verlieh, und eine rekord-reduzierte Verfügbarkeit von Kernkraft. Dies geht aus Daten hervor, die das Institut für Solare Energiesysteme der Fraunhofer-Gesellschaft in Freiburg veröffentlicht hat. – Platts, 3 February 2017

—————————————————-

Und zu guter Letzt: Deutschland nimmt demnächst ein weiteres neues Kohlekraftwerk in Betrieb

Das Bezirksgericht Münster genehmigte eine Emissionskontrolle für das Kraftwerk Datteln 4, ein Steinkohlekraftwerk, welches von dem Unternehmen Uniper errichtet wird. Intensive Gerichtsverfahren mit Umweltaktivisten hatten den Bau stark verzögert. Uniper sagte, dass die Strom- und Wärmeerzeugung des 1050-Megawatt-Kraftwerkes in der ersten Hälfte des Jahres 2018 aufgenommen werden soll. Reuters, 19 January 2017

Alles übersetzt von Chris Frey EIKE




Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: “So wenig Strahlung, als vernünftig erreichbar”. Das Wort “vernünftig” wird – wegen der angeblichen Krebsgefahr – als “so gering wie möglich” überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine “normale” Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen, durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn, ist jedoch die Außerkraftsetzung des Grundsatzes : “Die Dosis macht’s”. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche “auf ex” haben soll. Bestenfalls ist dieser Irrglaube auf ein “physikalisches” Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie, war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz “eine Mutation = ein Krebs” ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der “Strahlenschutz” ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der “Walschützer” ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen “Klimaschutz” und andere Machenschaften der “Ökoindustrie” ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle “Gutmenschen” mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich “harte moralische Fakten” von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus “Angst vor Strahlung” verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die “Strahlung” so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von “Strahlenkrankheiten”. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon, als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im “kalten Krieg” die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein “gut” und kein “schlecht”, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis “die Dosis macht’s”, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der “Angstmensch” als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den “Klimawissenschaften”, bei denen “Welt-Temperaturen” mit (bekannt fehlerhaften) “Weltmodellen” berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Der Beitrag erschien zuerst bei NUKEKLAUS hierhttp://nukeklaus.de/home/mediziner-gegen-lnt/




Dr. Judith Curry redet Klartext bzgl. der verhängnis­vollen Fehler der Klima­wissenschaft – sowie deren Scheitern bei der Erkundung und dem Verständnis von Unsicher­heiten

Video nicht mehr verfügbar

Im Verlauf ihres Interviews sprach Dr. Curry die zugrunde liegenden Hypothesen an, die von Anfang an ohne jeden wissenschaftlichen Beweis dafür, dass anthropogene Aktivitäten die „globale Erwärmung“ antrieben, vom IPCC einfach in den Raum gestellt wurden (der Terminus „globale Erwärmung“ wurde später zu „Klimawandel“ modifiziert nach dem „Stillstand“ der globalen Temperatur).

Dieses Thema wurde von ihr effektiv behandelt mittels ihrer Charakterisierung während der Sendung, als sie das völlige Versagen der Klimamodelle ansprach, die natürlichen Klimavariationen vor dem Jahr 1950 darzustellen: „Falls die Wissenschaft Klimaänderungen vor 1950 nicht erklären kann, wie können wir dann den heutigen Klimamodellen vertrauen?“

Sie sagte, dass sich das IPCC niemals die Mühe „harter Arbeit“ gemacht habe, um zu bestimmen, wie natürliche Klimavariationen Klimawandel beeinflussten. Stattdessen verließ es sich auf „Experten-Beurteilungen“, denen zufolge menschliche Aktivitäten dafür ursächlich seien. Damit wurde folglich jede Gelegenheit zunichte gemacht, die Klimawissenschaft in diesem wichtigen Bereich voranzubringen.

Dr. Curry hat dieses Thema bereits in früheren Artikeln angesprochen (hier), in denen sie die höchst fragwürdigen Computer-Modellierungs-Verfahren angesprochen hatte, die versuchen, eine Divergenz zu fabrizieren zwischen Klimamodell-Ensemble-Läufen ohne Antrieb bzw. mit anthropogenem Antrieb.

In diesen früheren Artikeln kam sie zu dem Ergebnis, dass mit der Wahl dieses vom Modell getriebenen Erkennungs- und Zuordnungsverfahrens „das IPCC es nicht vermocht hat, überzeugend eine ,Erkennung‘ zu zeigen“.

„Weil historische Aufzeichnungen nicht lang genug und Paläo-Rekonstruktionen nicht zuverlässig sind, ,erkennen‘ die Klimamodelle AGW mittels Vergleichen von Simulationen mit natürlichen Antrieben mit solchen mit anthropogenen Antrieben“.

Und weiter:

„Das IPCC betrachtet die Divergenz zwischen natürlich getriebenen und anthropogen getriebenen Simulationen nach etwa dem Jahr 1980 als das Zentrum ihres Erkennungs- und Zuordnungs-Argumentes. Siehe Abbildung 10.1 aus dem AR 5 (WG1): a) mit natürlichem und anthropogenen Antrieb, b) ohne anthropogenen Antrieb“:

Dr. Curry verwies folgendermaßen auf eine Anzahl kritischer Fehler in diesen Vergleichen:

„Man beachte besonders, dass die Modelle darin scheitern, die Erwärmung zwischen 1910 und 1940 zu zeigen.

Der schreiende Fehler in seiner [des IPCC] Logik ist Folgender: Falls man versucht, die Erwärmung über einen kurzen Zeitraum, z. B. seit 1980, irgendetwas zuzuordnen, erfordert dies die explizite Berücksichtigung, in welcher Phase der multidekadischen natürlichen internen Variabilität dieser Zeitraum der Erwärmung liegt (z. B. AMO, PDO).

Bei der Zuordnung der Erwärmung zum Ende des 20. Jahrhunderts hat man für das Erkennen derselben nicht berücksichtigt, in welcher Phase von AMO und PDO diese Zeitperiode liegt.

Typischerweise wird argumentiert, dass diese Oszillationen auf und ab schwingen, sich insgesamt aber ausgleichen. Vielleicht, aber sie gleichen sich NICHT aus, wenn man einen Zeitraum heranzieht, der kürzer ist als die multidekadischen Zeitmaßstäbe in Verbindung mit diesen Oszillationen.

Außerdem erfordert es eine überzeugende Zuordnung angesichts der Gegenwart multidekadischer Oszillationen mit einem nominellen Zeitrahmen von 60 bis 80 Jahren, dass man die Variabilität einem Zeitraum von mehr als 60 bis 80 Jahren zuordnen kann, vorzugsweise bis zurück zur Mitte des 19. Jahrhunderts.

Wenn man nicht in der Lage ist, die Zuordnung der Änderung zu Anfang des 20. Jahrhunderts einzuordnen, ist meiner Ansicht nach jede zuverlässige Zuordnung der Änderung zum Ende des 20. Jahrhunderts ausgeschlossen“.

In diesen früheren Artikeln kommt Dr. Curry zu dem Ergebnis, dass die IPCC-Klimamodelle für diesen Zweck nicht geeignet sind, dass sie Zirkelschlüsse bemühen bei der behaupteten Erkennung, und dass sie daran scheitern, den Einfluss von Antriebs-Unsicherheiten hinsichtlich Vermutungen der Zuordnung abzuschätzen.

Während der Sendung sagte Dr. Curry weiter, dass Klimamodelle wie die vom IPCC verwendeten Modelle, welche versuchen, Klimaauswirkungen in Verbindung zu bringen mit menschlichen Aktivitäten, in viele Fällen „sich selbst erfüllende Prophezeiungen“ repräsentieren aus einer politisch getriebenen Agenda, die „jede Objektivität verloren hat“, weil deren Bias bzgl. der Missachtung der natürlichen Klimavariabilität dazu führte, dass sie sich ausschließlich auf anthropogenen Klimawandel konzentrierte.

Dr. Curry sprach während der Sendung auch das jüngste Daten-Debakel der NOAA an. Diese Organisation, welche maßgeblich bei der Messung und Evaluierung globaler Temperaturdaten sein sollte, war extrem schlampig und inkompetent bei der Verwaltung ihrer Temperaturdaten.

Sie sprach im Zusammenhang mit dem Daten-Debakel der NOAA an, dass dieses durch politischen Druck der Obama-Regierung zustande gekommen sei, weil diese Ergebnisse wünschte zur Unterstützung ihrer Aktivitäten auf der Pariser Klimakonferenz.

Sie erwähnte, dass sie während der letzten 18 Monate in Kontakt mit dem NOAA-Wissenschaftler Dr. John Bates stand, mit welchem sie über seine Erfahrungen bzgl. des Fehlens wissenschaftlicher Sorgfalt bei der Behandlung der Datensätze seitens der NOAA diskutierte. Kritische Temperaturdaten wurden nicht angemessen archiviert, eine dokumentierte oder evaluierte Konsistenz mit den von der NOAA selbst etablierten Standards fand nicht statt. Sie bemerkte, dass sie mit Dr. Bates eine extensive Diskussion dieser Datenprobleme der NOAA auf ihrem Blog Climate etc. hatte.

Sie bemerkte weiter, dass angesichts der Bedeutung, welche die NOAA-Temperaturdaten bei der globalen und nationalen Gesetzgebung und politischer Entscheidungen bzgl. Klima-Belange spielen, die Billionen Dollar teuer werden konnten, diese Daten allen Standards der Verwaltung von Daten zu 100% genügen müssen, was hier eindeutig nicht der Fall war.

Sie glaubt, dass die Finanzierung der Studie zur natürlichen Klimavariation erheblich aufgestockt werden muss und dass der politische Druck seitens der Regierungen dafür gesorgt hatte, dass fast die gesamte Finanzierung an anthropogen ausgerichtete Studien geflossen war.

Ihrer Einschätzung nach bewegen sich die Klimaauswirkungen menschlicher CO2-Emissionen im „Winzig-Maßstab“.

Sie ermutigte alle diejenigen, die Bedenken hinsichtlich der Validität von Argumenten für einen vermeintlich anthropogen verursachten Klimawandel hegen, diese ihre Bedenken laut zur Sprache bringen.

Link: https://wattsupwiththat.com/2017/02/09/dr-judith-curry-speaks-out-on-climate-sciences-fatal-flaw-the-failure-to-explore-and-understand-uncertainty/

Übersetzt von Chris Frey EIKE




Daten zur deutschen Stromversorgung 2016

Zur Übersicht: die Nettostromerzeugung im Jahr 2016 betrug in Deutschland ca. 550 Terawattstunden (TWh). Das ist der Strommix, welcher tatsächlich aus der Steckdose kommt. Bei der Bruttostromerzeugung – ca. 650 TWh – berücksichtigt man auch die Eigenerzeugung der Industrie, beispielsweise im Bergbau und in der Chemie; diese hat in den folgenden grafischen Darstellungen keinen Eingang gefunden. Bei den Daten stütze ich mich vor allem auf Erhebungen des Fraunhoferinstituts ISE in Freiburg, auf die Plattform Agora Energiewende in Berlin sowie auf Veröffentlichungen des Bundesministeriums für Wirtschaft und Energie.

In Europa ist Deutschland der größte Stromerzeuger. Die jetzt verfügbaren Zahlen der Nettoproduktionen für das Jahr 2014 ergibt folgende Reihung: Deutschland (592 TWh), Frankreich (539), Großbritannien (322),  Italien (269), Spanien (268), Schweden (150), Polen (145). Die in diesem Blog zitierten Zahlen der verschiedenen Quellen sind (im niedrigen Prozentbereich) leicht different, ohne dass dafür ein Grund angegeben werden kann.

Merke:  1 TWh =1 Terawattstunde

                          =1000 Gigawattstunden (GWh)

                          =1 Million Megawattstunden (MWh)

                          =1 Milliarde Kilowattstunden (KWh)

Einige Grafiken zur Stromwirtschaft

Abb.1: Verteilung der Nettostromerzeugung auf die verschiedenen Energieträger (ISE)

Die Grafik zeigt die acht wichtigsten deutschen Energieträger. Kernenergie, Braunkohle, Steinkohle und Gas werden den konventionellen Energien zugerechnet und liefern insbesondere Konstantstrom im Bereich der Mittel-und Grundlast. Wasserkraft, Biomasse, Wind und Solar gehören zu den erneuerbaren Energien; ihr Beitrag zur gesamten Stromversorgung ist unstetig und u. a. abhängig von Wetter und Standort.

Abb. 2: Veränderung der Nettostromerzeugung 2016 gegenüber Vorjahr 2015 (ISE)

Die Stromproduktion aus Kernkraft ging 2016 – im Vergleich zu 2015 – um 7,8 % zurück; ursächlich war die Abschaltung des KKW Grafenrheinfeld im Juni 2015.

Die Gaskraftwerke haben 2016  ca. 44 TWh netto für die öffentliche Stromversorgung produziert. Dieser markante Aufwärtstrend von 46 % resultiert hauptsächlich aus den niedrigen Gaspreisen. Die Energieeinspeisung aus Braunkohle. Steinkohle, Wind und Solar ging entsprechend zurück.

Abb. 3: Anteile der verschiedenen Stromerzeuger im Jahr 2016 (ISE)

Die wichtigsten Energieträger in Kreisdarstellung.

Merke: im Jahr 2016 haben die erneuerbaren Energien mit ca. einem Drittel zur deutschen Stromversorgung beigetragen.

Abb. 4: Stromexportsaldo 2010 bis 2016 (ISE)

Im Jahr 2016 wurde bei Strom ein Exportüberschuss von ca. 50 TWh erzielt. Dieser Wert stellt nach den alten Rekordjahren 2012 bis 2015 wieder einen neuen Spitzenwert dar und liegt um etwa 2 TWh bzw. 4% über dem Niveau von 2015. Der Großteil der Exporte floss in die Niederlande, die einen Teil nach Belgien und Großbritannien weiter leiteten. Auf Rang zwei folgt die Schweiz, die hauptsächlich als Transitland nach Italien dient. An dritter Stelle liegt Frankreich, wo einige Kernkraftwerke aus Sicherheitsgründen abgeschaltet werden mussten. Rang vier belegt Polen, das einen Teil des Stroms aus den neuen Bundesländern über Tschechien nach Süddeutschland transportiert.

Eingeführter Strom kostet durchschnittlich 37, ausgeführter 35 Euro/MWh. Der durchschnittliche (day-ahead) Börsenstrompreis ist auf 28 Euro/MWh gefallen und liegt inflationsbereinigt ungefähr auf dem Niveau von 2002.

Abb. 5: Stromerzeugung im ersten Quartal 2016 (Agora)

Die Stromerzeugung im ersten Quartal 2016:

hohe Last und Winterstürme zu Beginn des Jahres.

Abb. 6: Stromerzeugung im dritten Quartal 2016 (Agora)

Die Stromerzeugung im dritten Quartal 2016:

ein sonniger Sommer mit wenig Wind

Abb. 7: Haushaltsstrompreise 2007 bis 2017 (Agora)

Die Haushaltsstrompreise werden im Jahr 2017 erstmals die 30-Cent-Marke überschreiten.

Die Ursachen sind gestiegene Netzentgelte, gestiegene EEG-Umlage und hohe Vertriebsmargen.

Ausblick

Die Zukunft der deutschen Stromwirtschaft – für die kommenden 10 bis 15 Jahre – ist schwer einzuschätzen. Relativ gesichert ist die Abschaltung der noch laufenden 8 Kernkraftwerke bis 2022; dafür wurde im Sommer 2011 eigens ein Bundesgesetz erlassen. Demnach wird noch in diesem Jahr  das Kernkraftwerk Gundremmingen B vom Netz genommen werden. Ob man es wagen wird  (im Jahr 2022!) auf einem Schlag die drei leistungsstarken  KKW Isar 2, Emsland und Neckarwestheim II abzuschalten, hängt vom Ausbau der großen Nord-Süd-Gleichstromleitungen ab. Die Inbetriebnahme dieser Trassenprojekte hat sich von 2019 auf 2021/22 verzögert. Außerdem werden sie, wegen des Übergangs auf Erdverkabelung, um den Faktor 5 bis 10 teurer. Damit steigen auch weiterhin die Stromkosten für die Privathaushalte.

Der Ausbau der erneuerbaren Energien (EE), insbesondere für Wind und Solar wird sich wohl verlangsamen, weil künftige Genehmigungen dem Wettbewerb via Auktionen unterliegen. Die gesteckten Ziele – 2030:50 %,  2040:65 % und 2050: 80 % – sind sehr ambitioniert; man darf zweifeln, ob sie erreicht werden. Die Klimaziele, wie in Paris vereinbart, werden sicherlich verfehlt werden, da die Grundversorgung mit Strom (in Abwesenheit von Kernkraftwerken und Großspeichern) und die Stabilhaltung der Netze nur über die CO2-haltigen Energieträger Braunkohle, Steinkohle und Erdgas geschehen kann. Wobei das Zertifikatesystem der Europäischen Union keinen Beitrag zum Klimaschutz liefert, weil es die CO2-Freisetzungen nur räumlich verlagert.

Entscheidend für den Fortgang der Energiewende sind unter anderem die hohen, sich abzeichnenden Kosten. Bei der Einführung des EEG im Jahr 1990 versprach der damalige Umweltminister Jürgen Trittin „Mehrkosten von gerade mal  1 Euro pro Familie und Monat, etwa so viel wie eine Kugel Eis“. Heute beträgt die EEG-Umlage für eine Durchschnittsfamilie allein das 20fache, nämlich ca. 20 Euro pro Monat. Die jährlichen Kosten für die Einspeisevergütung liegen bei 25 Milliarden Euro – die 2 Milliarden für die eingesparten Brennstoffkosten bereits gegen gerechnet. Tendenz: stark steigend! Die Gesamtkosten der Energiewende bezifferte der heutige Kanzleramtsminister Peter Altmeier in seiner früheren Funktion als Umweltminister auf 1 Billion Euro.

Fazit: Eines fernen Tages könnten die Menschen vielleicht nicht mehr bereit (oder in der Lage) sein, diese hohen Kosten zu tragen.

Die deutsche Energiewende würde auf halbem Wege stecken bleiben.




Wie die neue Software der NOAA die regionale Erwärmung antreibt.

Die Offenlegungen von Dr. Bates über Karls ‚Pausebuster‘ der NOAA NCEI Studie haben das ganze Klima Brimborium geschaffen und Rep. Smith sogar dazu getrieben, die Vorlage der NOAA E-Mails erneut zu fordern. Dabei ist die Karl Studie im Vergleich zu anderen NOAA-Betrügereien ziemlich harmlos. Es hat kaum die Erwärmungspause entfernt und zeigt immer noch, dass die CMIP5 Klimamodelle im Vergleich zur Realität zu heiß laufen. Das Wichtigste war vor allem, dass die Politiker im Vorfeld zu Paris über die Widerlegung der Erwärmungspause sprachen.

Hier ist ein Beispiel für einen viel krasseren Vorgang, aber ein weniger beachteter. Es ist ein Auszug aus einem viel längerem Essay: „Wenn keine Daten vorhanden sind“, zu lesen im ebook „Blowing Smoke“. Es ist nicht global und betrifft nur die kontinentalen Vereinigten Staaten (CONUS). Aber es öffnet einem die Augen und ist unwiderlegbar.

NOAA’s USHCN  [U.S. Historical Climatology Network] Stationen werden verwendet, um den US-Teil von GHCN [Global Historical Climatology Network].zu erstellen. Sie werden auch verwendet, um die Temperaturhistorie der Bundesstaaten zu erstellen, die auf der NOAA Webseite zugänglich sind. Eine Studie aus dem Jahr 2011 [1] gab bekannt, dass NOAA bis Ende 2013 auf die aktualisierte und verbesserte CONUS-Software umgestellt wird. Das Programm, das bis zum Upgrade verwendet wurde, heißt Drd964x. Das Upgrade wurde von Ende 2013 bis 2014 in zwei Tranchen gestartet. Ende 2013 kamen die neuen grafischen Schnittstellen, die eine Verbesserung sind. Dann kam im Februar 2014 die neue Datenausgabe, die eine überarbeitete Stationsvorwahl, Homogenisierung und Rasterung beinhaltet. Die neue Version heißt nClimDiv.

Hier sind die Temperaturhistorien von drei Bundesstaaten.

Die erste ist Maine, wobei die Vorher / Nachher-Daten im neuen graphischen Format dargestellt werden.

Quelle WUWT

[Die Grafiken sind leider auch im Original nicht schärfer. Die X-Achse beginnt im gleichen Jahr

 

Quelle WUWT

Die zweite ist Michigan, die die grafischen Unterschiede von alter zu neuer Software zeigt.

 

Quelle WUWT

Und zum Schluss: Kalifornien

 

In jedem dieser Bundesstaaten wurde Null oder sehr geringe Erwärmung in deutliche Erwärmung konvertiert.

Eine selbstverständliche Frage könnte sein, ob eine verbesserte Homogenisierung (unter anderem „Entfernen“ städtischer Wärmeinsel (UHI) -Effekte) verantwortlich ist?

>> Einschub vom Übersetzer:

Der Autor schreibt im englischen Original:

No from first principles, because the NOAA/NASA UHI policy is to warm the past so that current temperatures correspond to current thermometers.

Übersetzen tue ich das mit:

Nein. Weil es zu den ersten politischen Grundsätzen von NOAA / NASA UHI gehört, die Vergangenheit zu erwärmen, damit gegenwärtige Temperaturen den gegenwärtigen Thermometern entsprechen.

Problem:

Nach meiner Meinung werden jedoch die Temperaturen der Vergangenheit abgesenkt, damit heute eine höhere Erwärmung sichtbar wird – so interpretiere ich auch die gezeigten Grafiken.

Vielleicht kann einer unserer Leser hierzu helfen, Danke

Ende Einschub <<

…  (erläutert mit NASA GISS Tokyo in dem viel längeren Buchaufsatz). Dies könnte in Kalifornien angemessen sein, dessen Bevölkerung sich von 1960 bis 2010 (138%) mehr als verdoppelte mit aktueller Dichte von ~ 91 Personen / km2. Maine repräsentiert einen ähnlichen Ozean und Berge Bundesstaat, ist aber viel ländlicher. Mains Bevölkerung wuchs nur um ein Drittel (34%) von 1960 bis 2010 und seine aktuelle Bevölkerungsdichte beträgt nur 16,5 Personen / km2. Maine sollte nicht die gleiche Notwendigkeit oder den Grad der Homogenisierung erfordern. Ohne die neueste Version des US-Teils von GHCN hätte Maine keine Erwärmung; Sein ‚AGW‘ wurde von nClimDiv produziert.

Es ist zwar ermüdend, alle 48 CONUS-Zustände hinsichtlich des Übergangs von Drd964x zu nClimDiv zu analysieren. NOAA gab 40 von 48 Staaten ’neue‘ AGW. Die Drd964x mittelfristige CONUS Erwärmung von 1895 bis 2012 war 0,088F / Jahrzehnt [~ 0,05K] Die neue nClimDiv-Rate von 1895 bis 2014 beträgt 0,135 F / Jahrzehnt, fast doppelt so hoch. Definitiv anthropogen, aber vielleicht keine wirkliche Erwärmung.

[1] Fennimore et. al., Transitioning…, NOAA/NEDIS/NCDC (2011) available at ftp.ncdc.noaa.gov/pub/data/cmb/GrDD-Transition.pdf

Erschienen auf WUWT am 07.02.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/02/07/even-more-on-the-david-rose-bombshell-article-how-noaa-software-spins-the-agw-game/

 




Selbsternannte Klimaapostel sägen an Deutschlands Klimaeichen

Mit ihren NGOs im Hintergrund betrachten diese Deutschland als Spielwiese für ihre Sehnsüchte und sind überzeugt, dass die Bürger sich nach ihren Vorstellungen zu verhalten haben. Um es zu erzwingen, versuchen sie, der Politik ihren Willen vorzuschreiben.
Leider werden sie nicht etwa in die Schranken verwiesen, sondern von den Medien und BeraterInnen unserer Regierung unterstützt, selbst wenn damit rechtswidrige Aktionen verbunden sind, was natürlich kein Zufall ist, denn verschiedene Parteien in Berlin sind ja selbst stolz darauf, zur Durchsetzung ihrer Ideologie Rechtsbrüche zu unterstützen.

Ein Beispiel kann man wieder auf dem bekannten (Des-)Informationsportal unserer offiziellen Regierungs-Klimaberaterin lesen, welches bekannt hemmungslos [4][5] einem reinsten Aktivisten und Klima-Demagogen [3] [2] regelmäßig ihre Plattform anbietet.

[1] klimaretter.info, Hendrik Sander: Deutschlands Klimaretter-Mythos zerstören

Damit der „klimaretter“-Leser gleich weiß, um was es geht, wird zum Artikel die Intention des Autors mitgeliefert:
Dem Aktivisten und Politikwissenschaftler Hendrik Sander geht es beim Klimaschutz nicht nur um die technische Revolution, sondern auch um die soziale. Darauf wartet er nicht gern auf dem Sofa – lieber geht er auf die Straße

Herr Sander ist kein unbeschriebenes Blatt, sondern schreibt öfters unter „Sander in Bewegung“ für „klimaretter“ und er beschreibt dort auch regelmäßig und unverblümt seine Einstellung:
H. Sander: [7] Zum Glück gibt es auch den anderen Teil der Klimabewegung: Er ist graswurzelbewegt, setzt auf direkte Aktionen und kämpft für einen grundlegenden Systemwandel. Dazu gehören etwa die mutigen Klima-Aktivisten von „Ende Gelände“, die im Sommer den Tagebau Garzweiler im Rheinischen Braunkohlerevier stürmten. Auf dem Climate March konnten wir sie an ihren weißen Schutzanzügen erkennen. Sie luden die Mitdemonstrierenden ein, es nicht bei mahnenden Worten an die Regierungen zu belassen, sondern den Klimaschutz selbst in die Hand zu nehmen.

Der Rundumschlag

Aufhänger des Rundumschlages von Hern Sander gegen Deutschlands Klimapolitik ist die nächste Klimakonferenz in Bonn.

H. Sander: [1] Es scheint das perfekte Paar zu sein: Der vom Untergang bedrohte Inselstaat Fidschi leitet offiziell die nächste Weltklimakonferenz im November 2017 und der scheinbare Klimaschutzvorreiter Deutschland fungiert als Gastgeber und Schirmherr des Treffens.
Dieses Märchen verfängt überraschend gut in der internationalen Klimaszene. Selbst von kritischen Klima-Aktivisten aus dem globalen Süden ist immer wieder zu hören, die Bundesrepublik habe doch schon den Umstieg auf 100 Prozent erneuerbare Energien geschafft. Ich bin immer wieder überrascht, wie sehr dieses Traumbild verfängt, obwohl doch Deutschland nach wie vor zu den globalen
„Carbon Majors“ zählt.

Aus dieser Einleitung heraus „zerpflückt“ der Aktivist sodann Berlins Klimapolitik und prangert sie – wie sollte anders sein -, als absolut unzureichend an. Damit ist es aber nicht getan, denn gegen das Klima-Böse – in seinen Augen die nicht ausreichende Klimawandel-Politik – muss unverdrossen und rücksichtslos gekämpft werden.
H. Sander: [1] Es wird deshalb die Aufgabe der Klimabewegung und kritischen Zivilgesellschaft sein, Risse in das Bild des „Klimaretters“ Deutschland zu reißen.

„ … Das wäre doch eine passende Gelegenheit, sich mal wieder vor die zerstörerischen Riesenbagger zu setzen. Und tatsächlich planen die Aktivisten von Ende Gelände, parallel zum Gipfelmarathon einen nahegelegenen Tagebau zum Stillstand zu bringen … “.

Den Blog klimaretter.info stören solche Aufrufe auf ihrer Homepage nicht, denn die Betreiber befürworten solche Aktionen ausdrücklich [5][6][7].

Für einen Aktivisten mit Politikstudium – und klimaretter.info – reicht es nachzuplappern

Es fällt auf, wie viele Aktivisten ein Politikstudium haben und mit diesem „Ausbildungswissen“ den Klimawandel beurteilen. Im Kern läuft diese Beurteilung aber immer auf das Gleiche hinaus:
CO2 ist ein Klimagift und darf vom Menschen nicht mehr emittiert werden. Das gilt als ökoheiliges Dogma, welches zu hinterfragen nicht erlaubt ist. Entsprechend tut jeder Gutes, der mit allem Einsatz für eine CO2-Reduzierung kämpft und umgekehrt. Und zu diesem Ökokreuzzug wird bedingungslos aufgerufen.
H. Sander: [1] … Ein Bundesbürger setzt jedes Jahr durchschnittlich über elf Tonnen CO2-Äquivalent frei, obwohl perspektivisch nur zwei Tonnen global verallgemeinerbar sind ...

Um das zu rechtfertigen, werden alle Metaphern des Klimawandels endlos wiederholt:
H. Sander: [1]
Ich gehe jede Wette ein, dass sich die neue Bundesregierung dann als Retterin der gefährdeten Inselrepublik inszenieren wird, obwohl wir hier mit jedem verbrannten Kilo Kohle, mit jedem neu produzierten Mercedes, mit jedem Fernflug in nach Lateinamerika den Pazifischen Ozean anschwellen lassen, der das Heimatland unserer Gäste schon bald überschwemmen könnte.

Klar, dass die Argumentation nicht nachgeprüft wird. Was einmal auf „klimaretter“ erschien, ist zur „Wahrheit“ mutiert. Und ökologische Betrachtungen zur Sinnhaftigkeit sind dem Aktivisten sowieso vollkommen fremd.
Wie man wirklich leicht nachrechnen kann, verursacht Deutschland mit der aktuellen Emission einen „Erwärmungsbeitrag“ von 0,094 °C in 100 Jahren [8]. Bestätigt wird dies durch einen aktuellen EIKE-Beitrag:
EIKE: Statistiker: UN-Klimavertrag wird 100 Billionen Dollar kosten – und keine Auswirkungen haben – Verschiebung der Erwärmung bis 2100 um weniger als vier Jahre!

Daraus abzuleiten, dass Deutschland „ … mit jedem verbrannten Kilo Kohle, mit jedem neu produzierten Mercedes, mit jedem Fernflug in nach Lateinamerika den Pazifischen Ozean anschwellen lassen … „ ist nicht nur vollkommen falsch, sondern bewusste … Anmerkung: war ein Ausdruck vorgesehen, der nach den neuen Regeln aber unter hate-speech fallen könnte, was inzwischen nur noch bei Zustimmung zur offiziellen Vorgabemeinung oder von Politikern in Richtung Volk erlaubt ist. Dazu gibt es schon ein Gerichtsurteil: „Darf man Claudia Roth als „ekelhaft“ bezeichnen?“; darf man natürlich nicht, aber C. Roth durfte in einer Talkshow sagen „ … wer den Klimawandel leugnet, kann nicht intelligent sein“.

Die gleichen, falschen Berichte endlos kopiert, werden zu Belegen

Was schon Herr Limburg kürzlich auf EIKE angeprangert hat: „Man muss eine Lüge nur oft genug wiederholen, und sie wird zur Wahrheit“, wendet auch der Aktivist Sander konsequent an. Beispielhaft weist die verlinkte „Belegung“: „ … den Pazifischen Ozean anschwellen lassen, der das Heimatland unserer Gäste schon bald überschwemmen könnte “, auf einen (klimaretter-) Artikel, in welcher sich ein Einheimischer Fidschi– selbstverständlich ein NGO-Vertreter – bitter über die Probleme durch den Klimawandel beklagt.
Wie es um die Probleme dort steht, wurde allerdings in einer umfangreichen Artikelreihe gezeigt. Es gibt viele, aber keine wegen eines Klimawandels:
EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
EIKE 26.11.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2
EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

Auch das Fidschi-Atoll und weitere in dieser Region des Pazifik wurden erst kürzlich „angesehen“:
EIKE 20.12.2016: Der Klimawandel wird bildlich gesprochen immer schöner, die Daten darüber nicht
Ein Bild daraus zeigt die Pegelverläufe in dieser Region über die letzten 60 Jahre.

Pegeldaten von Fidschi und weiterer Messstationen im Süd-Pazifik (ohne Normierung). Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Die Aussage dazu: „ … obwohl wir hier mit jedem verbrannten Kilo Kohle … “ sinngemäß den Untergang der in dieser Region liegenden Inseln hervorrufen, ist eindeutig mehr als falsch. Um jedoch trotzdem den Eindruck zu erzeugen, ist jedes Mittel recht:

EIKE: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht: Aus dem Lehrbuch für (Klima-)Statistikbetrug

Es geht auch nicht wirklich um Klima, sondern um die neue sozialistische Revolution im Ökogewand

Dem Aktivisten Sander ist das im Kern wohl auch vollkommen egal, denn ihm geht es um die Zerstörung des verhassten Kapitalismus. Und wäre dazu eine andere Begründung hilfreicher, würde er sicher sofort diese nehmen.

[2] Hendrik Sander, Buch: Auf dem Weg zum grünen Kapitalismus. Die Energiewende nach Fukushima
… Sander sieht in seinem Fazit „keine Kräfte im integralen Staat, die willens und in der Lage wären, eine Transformation in Richtung eines grünen Kapitalismus in der deutschen Energiewende anzuführen“ (263). Abschließend beschreibt er daher „Strategien für einen grünen Sozialismus“ (273). Der Politologe betont am Ende, dass er sich neben den wissenschaftlichen Kriterien in seiner Arbeit auch Zielen wie dem „grundlegenden sozialen, ökologischen und demokratischen Umbau der deutschen Energieversorgung sowie [… der] Entwicklung einer emanzipatorischen, postkapitalistischen Gesellschaft“ „parteilich“ (322) verpflichtet fühle.
Gefördert wurde Sanders Arbeit durch Stipendien der Hans Böckler und der FAZITStiftung. Das Buch ist als erster Band der Reihe „Kritische Wissenschaft“ erschienen.

Nun interessiert Herr Sander bisher niemanden. Dass aber Personen, welche solchen Aktivisten bedenkenlos ihre Plattform bieten, als RegierungsberaterIn ernannt werden [9] und es bleiben, ist das wirklich Erschreckende, wird sich jedoch leider kaum mehr ändern. Denn wer Missstände in seiner Partei nicht bedenkenlos mitträgt, sondern protestiert, sitzt ganz schnell verdammt einsam (Artikel, Bild dazu).

Quellen

[1] klimaretter.info, Hendrik Sander, 03. Februar 2017: Deutschlands Klimaretter-Mythos zerstören
http://www.klimaretter.info/meinungen/kolumnen/sander-in-bewegung/22633-deutschlands-klimaretter-mythos-zerstoeren

[2] Portal für Politikwissenschaft, Buchrezension: Hendrik Sander, Auf dem Weg zum grünen Kapitalismus. Die Energiewende nach Fukushima

[3] Rosa Luxemburg Stiftung, Autorenprofil Hendrik Sander: Hendrik Sander ist Sozialwissenschaftler und lebt in Berlin. Er promoviert zum Thema «Energiewende in Deutschland» und engagiert sich bei Attac und FelS (Für eine linke Strömung).

[4] EIKE 11.10.2016: C. Kemfert, Professorin und Politik-Beraterin für Umwelt und Energie, bekommt Ehrenpreise für Agitation

http://www.eike-klima-energie.eu/news-cache/c-kemfert-professorin-und-politik-beraterin-fuer-umwelt-und-energie-bekommt-ehrenpreise-fuer-agitation/

[5] EIKE 23.07.2016: Der Unterschied in der Klimawandel-Berichterstattung

Kritik an der Berichterstattung des Portals Klimaretter.Info

http://www.eike-klima-energie.eu/news-cache/der-unterschied-in-der-klimawandel-berichterstattung/

betrug

[6] EIKE 20.05.2016: Berichterstattung von Klimaretter.Info über die am Pfingstwochenende durchgeführten Agitationen im Braunkohlerevier

http://www.eike-klima-energie.eu/news-cache/berichterstattung-von-klimaretterinfo-ueber-die-am-pfingstwochenende-durchgefuehrten-agitationen-im-braunkohlerevier/

[7] klimaretter.info, Hendrik Sander: Wir müssen groß, bunt und radikal sein

[8] EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage

http://www.eike-klima-energie.eu/klima-anzeige/mit-co2-reduzierung-retten-wir-die-welt-einige-rechenspiele-nicht-nur-fuer-regnerische-nachmittage/

[9] EIKE 14.05.2016: Umweltgutachten 2016 des Sachverständigenrates für Umweltfragen (SRU) der Bundesregierung




Mehr zum ein­schlägigen Artikel von David Rose: Insta­bilität im Global Historical Climate Network GHCN

Nachdem ich diese beiden Individuen kennen gelernt und ihren Zelotismus gesehen habe, überrascht mich kein einziger der Taschenspielertricks, die David Rose in seinem Artikel ans Tageslicht gebracht hat.

Die Gläubigen behaupteten, dass es keinen Unterschied gebe zwischen den Temperatur-Datensätzen der NOAA und von der HadCRUT, die im Rose-Artikel angesprochen worden waren, und sagen, dass die Differenz ein Grundlagen-Fehler ist. Sei’s drum, und vielleicht war es auch einfach ein Fehler der Graphik-Abteilung bei der Mail on Sunday – ich weiß es nicht.

Wenn man die Grundlinien der Anomalien übereinander legt, verschwindet die Differenz:

Abbildungen: Vergleich der monatlichen globalen Temperatur-Anomalien von HadCRUT4 und NOAA Ozean und Festland bezogen auf die allgemeine Basisperiode 1961 bis 1990. h/t The CarbonBrief

Aber … es gibt weitere ernste Probleme mit den globalen Klimadaten.

Was auch immer man denken mag, NOAA und HadCRUT sind nicht vollständig „unabhängig“. Beide verwenden Daten des GHCN, und das GHCN wurde betrieben von … Trommelwirbel! … Thomas Peterson von der NOAA, also von einem der Mitautoren der „Pausebuster“-Studie von Karl et al. 2015.

Der Fuchs bewacht den Hühnerstall, und wie man unten erkennt, sind die Daten ernstlich dubios.

Paul Matthews schreibt auf der Website CliScep:

Ziel dieses Beitrags ist es, eine der Beschwerden von Bates zu bestätigen. Im Mail-Artikel heißt es, dass „der für die Studie herangezogene Festlands-Temperaturdatensatz mit verheerenden Fehlern in dessen Software behaftet war, welche dessen Ergebnisse ,instabil‘ machten“. Weiter unten liest man: „Außerdem war auch die GHCN-Software von ernsten Fehlern befallen. Diese machten das Ganze so ,instabil‘, dass jedes Mal, wenn die Rohdaten der Temperatur im Computer berechnet wurden, unterschiedliche Ergebnisse herauskamen“.

Da hat Bates so ziemlich recht. Ich selbst habe die Instabilität des Algorithmus‘ der GHCN-Adjustierungen zum ersten Mal im Jahre 2012 entdeckt. Paul Homewood hat die Adjustierungen auf seinem Blog viele Jahre lang hinterfragt, besonders in Island, siehe Beispiele hier, hier, hier und hier. Oftmals wird die Vergangenheit durch diese Adjustierungen kälter, um die Erwärmung stärker aussehen zu lassen als es in den Rohdaten zum Ausdruck kommt. Als ich die Adjustierungen der Werte von Alice Springs in Australien betrachtete, bemerkte ich (siehe meinen Beitrag aus dem Jahr 2012), dass sich die Adjustierungen der Temperaturen in der Vergangenheit oftmals innerhalb nur weniger Wochen ziemlich dramatisch veränderten. Ich denke, dass auch Paul Homewood dies irgendwo auf seinem Blog kommentiert hat. Als wir diese Änderungen zum ersten Mal bemerkten, dachten wir, dass vielleicht der Algorithmus selbst verändert worden wäre. Aber es wurde bald klar, dass sich die Adjustierungen so oft änderten, dass dies nicht der Fall sein konnte, und es war der Algorithmus selbst, der instabil war. Mit anderen Worten, immer wenn dem System jede Woche neue Daten hinzugefügt wurden, wurde der Algorithmus erneut durchlaufen, und die sich daraus ergebenden Temperaturen der Vergangenheit waren jedes Mal ziemlich unterschiedlich.

Hier folgt eine von mir zu jener Zeit erstellte Graphik mit Daten, die von der GHCN ftp site heruntergeladen werden können. (die nicht adjustierten bzw. adjustierten Files sind ghcnm.tavg.latest.qcu.tar.gz bzw. ghcnm.tavg.latest.qca.tar.gz). Sie illustrieren die Instabilität des Adjustierungs-Algorithmus‘:

Die dunkelblaue Linie zeigt die Rohdaten-Temperaturaufzeichnung für Alice Springs. Die grüne Linie zeigt die adjustierten Daten, wie sie im Januar 2012 vom GHCN genannt worden sind. Man sieht, dass die Adjustierungen ziemlich gering sind. Die rote Linie zeigt die adjustierte Temperatur nach Durchlaufen des GHCN-Algorithmus‘, wie sie vom GHCN im März 2012 angegeben wurden. In diesem Falle sind die Temperaturen der Vergangenheit um 2 Grad abgekühlt worden. Im Mai erwärmte der Adjustierungs-Algorithmus die Temperaturen der Vergangenheit, so dass diese etwa 3 Grad höher lagen als die Temperaturen, die sie im März gezeigt hatten! Man beachte, dass alle Graphen am rechten Rand zusammenlaufen, da der Adjustierungs-Algorithmus in der Gegenwart beginnt und rückwärts läuft. Die Divergenz der Linien mit zunehmender Vergangenheit illustriert die Instabilität.

Es gibt einen Blogbeitrag von Peter O’Neill Wanderings of a Marseille January 1978 temperature, according to GHCN-M, in welchem die gleiche Instabilität des Algorithmus‘ gezeigt wird. Er betrachtet adjustierte Temperaturen von Marseille, welche die gleichen offensichtlich zufällig verteilten Sprünge zeigen, wenngleich die Amplitude der Instabilität etwas geringer ist als im Falle Alice Springs. Sein Beitrag zeigt auch, dass jüngere Versionen des GHCN-Codes das Problem nicht gelöst haben, gehen doch seine Graphiken bis zum Jahr 2016. Man findet auf seinem Blog viele ähnliche Beiträge.

Es gibt noch viel mehr zu sagen über die Temperatur-Adjustierungen, aber ich möchte mich in diesem Beitrag auf diesen einen Punkt beschränken. Der GHCN-Algorithmus ist instabil, wie von Bates festgestellt, und erzeugt praktisch bedeutungslose adjustierte Temperaturdaten der Vergangenheit. Die hier gezeigten Graphiken ebenso wie diejenigen von Peter O’Neill belegen dies. Kein ernsthafter Wissenschaftler sollte sich eines derartig instabilen Algorithmus‘ bedienen. Man beachte, dass diese unechten adjustierten Daten danach als Input verwendet werden für weithin gebräuchliche Datensätze wie etwa GISTEMP. Was sogar noch absurder ist: das GISS führt selbst noch weitere Adjustierungen der schon adjustierten GHCN-Daten durch. Es ist unfasslich, dass sich die Klimawissenschaftler bei GHCN und GISS dieses sehr ernsten Probleme bei ihren Verfahren nicht bewusst sind.

Zum Schluss habe ich noch die jüngsten Roh- und adjustierten Temperaturdaten vom GHCN heruntergeladen, bis zum 5. Februar 2017. Hier folgen die Plots für Alice Springs. Es gibt keinen Preis, wenn man richtig rät, welches die Rohdaten und welches die adjustierten Daten sind. Beim GISS gibt es eine sehr ähnliche Graphik.

Der ganze Beitrag dazu steht hier: https://cliscep.com/2017/02/06/instability-of-ghcn-adjustment-algorithm/

Link: https://wattsupwiththat.com/2017/02/07/more-on-the-bombshell-david-rose-article-instability-in-the-global-historical-climate-network/

Übersetzt von Chris Frey EIKE




Klima – Menschengemacht (?)

Die Erde erwärme sich weiter, jubelten auch Schweizer Blätter im Juni 2015: «Eine ­Klimapause gab es nie.» Dass sich die Journalisten darüber freuten, obwohl wegen der wärmeren Temperaturen angeblich die Apokalypse droht, liess sich leicht begründen. Denn zuvor standen die Klimaforscher vor einem Rätsel:

Die Erdtemperatur hielt sich hartnäckig nicht an ihre Modelle – sie stieg von 1998 bis 2014 nicht.**

Die Wissenschaftler stritten diesen Befund erst ab und suchten dann Dutzende von Erklärungen; keine davon hielt aber der Überprüfung stand.

Dann kamen im Juni 2015 – ein halbes Jahr vor der entscheidenden Klimakonferenz von Paris, also gerade noch rechtzeitig – die Forscher der US-amerikanischen Nationalen ­Ozean- und Klimabehörde (NOAA). Sie stellten in einer sensationellen Studie im Journal Science fest, vor allem die Temperaturen auf den Weltmeeren seien falsch gemessen worden, nämlich mit Bojen statt auf den Schiffen.

Und wer richtig messe wie sie, der sehe, dass die Temperatur auch zwischen 1998 und 2014 weiter gestiegen sei. Eben:

Eine Klimapause gab es nie. Das galt dank weltweiter Propaganda fortan als Glaubenssatz, und das Klimaabkommen von Paris war gerettet.

Ein Jahr später ging aber für die amerikanischen Klimaforscher tatsächlich die Welt unter:

Donald Trump kam ins Weisse Haus und griff mit seinen Beratern die politisierte Wissenschaft von Behörden wie der NOAA an; die ­Republikaner, die an der Klimakatastrophe zweifeln, halten jetzt die Mehrheit im Kongress. In Panik sprachen die Forscher schon davon, sie müssten ihre – von den Steuerzahlern finanzierten – Daten vor den «Klimaleugnern» retten.

Was davon zu halten ist, sagte jetzt der ­Wissenschaftler John Bates, bei der NOAA für die Archivierung der Daten zuständig und als Vorbild ausgezeichnet, in der britischen Mail on Sunday und auf dem Blog von Judith Curry (Weltwoche vom 26. Januar 2017):

In ihrem ­Fieber, noch vor der Pariser Konferenz die unaufhaltsame Erwärmung vorzuführen, verletzten die Kollegen alle eigenen Richtlinien und verwendeten fragwürdige Daten.

«Sie nahmen die schlechten Daten der Schiffe und warfen die guten der Bojen raus», sagt John Bates. «Man passt nie gute Daten schlechten an – genau das machten sie aber.»

Das heisst: Mindestens die Erwärmung ­zwischen 1998 und 2014 ist „menschengemacht“.

======================================================================

)**  Original-IPCC-Zitat:

IPCC 2013/14 [1] :

„… Fifteen-year-long hiatus periods are common

in both the observed and CMIP5 historical GMST time series“

[1] IPCC, AR5, Climate Change 2013: Technical Summary, p.61;   http://tinyurl.com/oxtcp4j

=================================================================

)* Anmerkung der EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

Klima: Menschengemacht | Die Weltwoche, Ausgabe 6/2017 | Donnerstag, 9. Februar 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Markus Schär für die Gestattung des ungekürzten Nachdrucks.




10. IKEK – Das Experiment Teil II: Auswertung des 2-tägigen „Al-Gore Experiment“

Dann wiederholte man das „Al Gore – Experiment “ in einem Behältnis mit (auch infrarot-durchlässiger) Plastikabdeckung (Wrap – Plastikfolie einer Küchenrolle) und 100 % CO2 Füllung und versuchte im Anschluss, mittels Feindosierung des CO2 Gehaltes im Behälter mit Verdopplung und Vervierfachung des CO2 Gehaltes die sog. Klimasensitivität zu bestimmen. Für die Erwärmung des Inhaltes wurden alternativ verschiedene Quellen, wie die Sonne, Halogenleuchten bzw. Heizwendeln, verwendet.

Video des Vortrags zum 2. Teil des „Al Gore-Experimentes“ von Jan Eric Solheim mit anschließender Fachdiskussion

100 % CO2

Ein weiterer Vor-Versuch (Min. 3:31) diente der Klärung ob sich eine 100 % CO2 Füllung anders erwärmt als eine solche mit Luft. Ein Unterschied – so Solheim – sei nicht erkennbar. (Anm. der Redaktion: Man sieht aber am Ende der rosa Kurve eine Abweichung von – 0,4 bis -0,5 °C; diese wurde nicht erklärt, es wurde auch nicht danach gefragt)

Außenmessung

Ein weitere Versuchsreihe wurde außen durchgeführt um Unterschiede zwischen den Halogenleuchten auszuschließen. Das war jedoch in Norwegen mit den wenigen Sonnentagen äußerst schwierig.

Klimasensitivität.

Es wurde dann versucht die Klimasensitivität ECS zu bestimmen. Dazu wurde die der CO2 Anteil der inneren Luft verdoppelt, vervierfacht und verachtfacht und jeweils erneut der Anstieg der Temperatur gemessen.
Daraus errechnet sich unter sonnengleichen Erwärmung der (verblüffende) negative Wert unter von – 0,11 ± 0,11 °C.
Das bedeutet, dass das Zuführen von CO2 statt zu Erwärmung zu führen, die Innenatmosphäre kühlt. Eine Erklärung dafür hatte Eric Solheim nicht anzubieten, sondern überließ das dem Publikum.
Um all das zu überprüfen wurde nochmals eine neue Reihe von Kästen gebaut, die kurz vor der Reise nach Berlin in Betrieb gingen. Dabei wurde während eines Versuchs, die Plastikabdeckung durch eine Glasabdeckung ersetzt. Nach der Rückerwärmung zeigte sich, dass die Temperatur im Kasten mit der Glasabdeckung niemals die der Plastikabdeckung überstieg.

Dann wurde der Innenluft CO2 in 100 ml Dosierung zugeführt mit dem Ergebnis, dass die Innentemperatur sank.

CO2 kühlt die Luft im Innern der Kästen.

Auch der nächste Versuch zeigt deutlich sowohl die Kühlwirkung einer Glasabdeckung (gegenüber Plastik) als auch einer 100 % CO2 Füllung (Al Gore Experiment)

Diskussion

Im Folgenden geht Prof. Solheim detaillierter auf das Experiment zur Bestimmung der Klimasensitivität ein. Bei mit präzis bestimmten Energiemengen die mittels Heizwendeln zugeführt werden, ergibt sich ebenfalls eine negative Klimasensitivität, diesmal aber mit einem Wert von -0,3± 0,1 °C. „In diesen Kästen..“ wie der Vortragende nicht vergisst zu erwähnen.

Anschließend begann sofort eine heftige Diskussion. Es gab viele kluge, meist Kontra-Stellungnahmen, aber eine endgültige Erklärung wurde mangels Zeit ggf. unter veränderten Bedingungen den Versuch zu wiederholen, verständlicherweise nicht erreicht.




Eine schnelle Behauptung wirkt oft besser als ein langsamer Beweis – NOAA behauptete die „Pause“ weg; Whistleblower entlarvt Manipulation der Daten

‚The Mail on Sunday‘ [Sonntagszeitung in UK] gibt heute erstaunliche Hinweise darauf, dass die Organisation, die die weltweit führende Klimadatenquelle ist, darauf drängte, eine Leuchtturm Studie zu veröffentlichen, die die globale Erwärmung übertrieb und zeitlich darauf zielte, das historische Pariser Abkommen zum Klimawandel zu beeinflussen.

Ein hochrangiger Whistleblower sagte dieser Zeitung, dass Amerikas National Oceanic and Atmospheric Administration (NOAA) ihre eigenen Regeln für wissenschaftliche Integrität verletzte, als sie den sensationellen, aber fehlerhaften Bericht veröffentlichte, der darauf abzielte, größtmögliche Beeinflussungen der führenden Politiker der Welt inklusive Barack Obama und David Cameron bei der UN-Klimakonferenz in Paris im Jahr 2015 zu erreichen.

Der Bericht erklärt, dass die „Pause“ oder „Verlangsamung“ der globalen Erwärmung in der Zeit seit 1998 – von UN-Wissenschaftlern im Jahr 2013 enthüllt – niemals bestand und dass die Welttemperaturen schneller gestiegen waren, als die Wissenschaftler erwartet hatten. Von NOAA mit einer öffentlichen Fanfare gestartet, spritzte der Bericht über die Medien der Welt und wurde wiederholt von Politikern und politischen Entscheidungsträgern zitiert.

Aber der Whistleblower, Dr. John Bates, ein Top-NOAA-Wissenschaftler mit einem tadellosen Ruf, hat der ‚The Mail am Sonntag‘ unwiderlegbare Beweise gezeigt, dass der Bericht auf irreführenden, ‚unbestätigten‘ Daten beruht.

Dieser Bericht wurde nie dem strengen internen Evaluierungsverfahren der NOAA unterzogen, das Dr. Bates entwarf.

Seine vehementen Einwände gegen die Veröffentlichung der fehlerhaften Daten wurden von seinen NOAA-Vorgesetzten übergangen, was er als einen „eklatanten Versuch zur Intensivierung der Auswirkungen“ beschrieb, dieser Bericht wurde dann als Hoaxbrecher bekannt.

Seine Erklärungen dürften die Entschlossenheit von Präsident Trump verstärken, die „grüne“ Politik seines Vorgängers umzukehren und sich vom Pariser Deal zurückzuziehen – und so ein intensives politisches Spektakel auslösen.

,,,

In einem Exklusivinterview beschuldigte Dr. Bates den leitenden Autor des Artikels Thomas Karl, der bis zum vergangenen Jahr Direktor des NOAA-Sektors war, der die Klimadaten produzierte – nationales Zentren für Umweltinformation (NCEI) -, „auf Entscheidungen zu bestehen, die Erwärmung zu maximierten und die Dokumentation zu minimieren… in dem Bemühen, den Begriff der globalen Erwärmungspause zu diskreditieren, damit diese Publikation Einfluss auf nationale und internationale Beratungen über die Klimapolitik nimmt. Ein eklatanter Versuch, den Einfluss der Studie auf die Entscheidungsträger zu intensivieren

Offizielle Delegationen aus Amerika, Großbritannien und der EU wurden stark durch die fehlerhafte NOAA-Studie beeinflusst, sie boxten das Pariser Abkommen durch – und verpflichteten fortschrittliche Nationen, die Verwendung fossiler Brennstoffe zu reduzieren und jährlich 80 Milliarden Pfund für neue Klimaschutzmaßnahmen auszugeben.

Der Skandal hat störende Anklänge an „Climategate“, die kurz vor dem UN-Klimagipfel 2009 hochkam, als die Veröffentlichung von Tausenden von E-Mails zwischen den Klimawissenschaftlern nahelegte, dass sie Daten manipuliert und versteckt hatten. Einige der Wissenschaftler waren britische Experten an der einflussreichen Climatic Research Unit der University von East Anglia.

Dr. Bates war einer von zwei Chefwissenschaftlern bei NCEI, mit Sitz in Asheville, North Carolina. Er ist nach einer 40-jährigen Karriere in der Meteorologie und Klimaforschung Ende letzten Jahres von der NOAA ausgeschieden. Erst im Jahr 2014 verlieh ihm die Obama-Regierung eine besondere Goldmedaille für seine Arbeit bei der Festlegung neuer, angeblich verbindlicher Standards zur Herstellung und Erhaltung von Klimadatensätzen.

Doch als es darum ging, mit dieser Studie die Pariser Konferenz zu beeinflussen, sagte Dr. Bates, wurden diese Standards offensichtlich ignoriert.

Das Paper wurde im Juni 2015 von der Zeitschrift Science veröffentlicht. Mit dem Titel ‚Mögliche Artefakte von Daten Bias in der jüngsten globalen Erwärmung der Oberfläche‘

In den Wochen nachdem der Pausenbrecher veröffentlicht wurde, führte Dr. Bates selbst eine Untersuchung durch. Seine Ergebnisse waren außergewöhnlich. Nicht nur, dass Herr Karl und seine Kollegen keinem der formellen Verfahren zur Genehmigung und Archivierung ihrer Daten nachkamen, hatten sie eine „hochexperimentelle Version“ eines Programms verwendet, das zwei vorher getrennte Datensätze zu kombinieren versuchte.

Damit hatte er den kritischen Prozess unterlaufen, bekannt als „paarweise Homogenitäts Anpassung“, eine Methode um die Ausreißer Daten von einzelnen Wetterstationen durch Vergleich mit anderen in deren Nähe anzupassen (~ zu verändern).

Allerdings erfordert dieses Verfahren eine umfangreiche und sorgfältige Überprüfung, die erst am Anfang stand, so dass die Daten nicht belastbar waren. Heute, mehr als zwei Jahre nach dem das Pausebuster Paper der Wissenschaft präsentiert wurde, ist die neue Version von GHCN noch immer in Überprüfung.

Darüber hinaus war die GHCN-Software von schweren Software-Bugs betroffen. Diese verursachten eine große Instabilität – jedes Mal, wenn die Ablesungen der „Rohtemperaturen“ durch den Computer durchgeführt wurden, gab es verschiedene Resultate. Eine neue, fehlerfreie Version von GHCN ist noch nicht genehmigt und verteilt. Diese ist bereits „wesentlich anders“ als die von Herrn Karl und seine Co-Autoren verwendet, so Dr. Bates,

Dr. Bates enthüllte, dass das Fehlen der Archivierung und die fehlende Bereitstellung von vollständig dokumentierten Daten nicht nur die NOAA-Regeln verletze, sondern auch die von der Wissenschaft festgelegten. Er fuhr fort, das Problem intern hochzubringen, bevor er im vergangenen Jahr in Ruhestand ging. Dann kam die finale Bombe: Dr. Bates sagte: ‚Ich habe erfahren, dass der Computer, der verwendet wurde, um die Software zu verarbeiten, einen vollständigen Schaden hatte.‘

Der Grund für den Ausfall ist nicht bekannt, aber es bedeutet, dass das Pausebuster Paper niemals von anderen Wissenschaftlern repliziert oder verifiziert werden kann.

Das irreführende „Pausebuster-Diagramm“: Die rote Linie zeigt das aktuelle NOAA-Welttemperatur-Diagramm, das auf den „angepassten“ und unzuverlässigen Seedaten beruht, die in dem fehlerhaften Pausebuster-Paper zitiert wurden. Die Blue Line ist die unabhängige getestete und verifizierte „HadCRUT4“ -Rekordmarke des britischen Met-Büros, die niedrigere monatliche Messwerte und einen jüngeren Trend zeigt

Er entschied sich zu äußern, nachdem er Berichte in Medien gesehen hat, darunter die Washington Post und das Forbes Magazin, die behaupten, dass die Wissenschaftler befürchten, die Trump Administration würde die NOAA Klima Daten nicht behalten und nicht archivieren.

Dr. Bates sagte: „Wie ironisch ist es, dass es jetzt diese Idee verbreitet wird, dass ausgerechnet Trump die Klimadaten wegschmeißen wird – wenn verantwortliche Schlüsselpersonen die Integrität der Daten zu wahren hatten – und selbst Entscheidungen getroffen haben, die dem entgegenlaufen – und damit versagt haben.“

NOAA hat nicht nur versagt, sie vertuschten die Fehler es auch sehr effektiv, als ihre Daten angezweifelt wurden. Nachdem das Papier veröffentlicht wurde, startete das US House of Representatives Science Committee eine Untersuchung bezüglich der Pausebuster-Behauptungen. NOAA verweigerte die Herausgabe der internen E-Mails an den Ausschussvorsitzenden, dem Texas-Republikaner Lamar Smith, und behaupteten fälschlicherweise, dass intern der NOAA niemand Bedenken über das Paper geäußert hatte.

Letzte Nacht dankte Herr Smith Dr. Bates für seinen couragierten Schritt vorwärts, um die Wahrheit über die leitenden Beamten der NOAA zu berichten, die schnell und leichtfertig mit Daten spielen, um eine politisch vorbestimmte Schlussfolgerung zu erreichen“. Er fügte hinzu: „Die Karl-Studie verwendet fehlerhafte Daten, eiligst veröffentlicht, um die Klimawandel-Agenda des Präsidenten Obama zu unterstützen und ignoriert die NOAA eigenen Standards für eine wissenschaftliche Studie.“

Gestern Abend hat Herr Karl zugegeben, dass die Daten nicht archiviert wurden, als die Studie veröffentlicht wurde. Auf die Frage, warum er nicht gewartet hatte, sagte er: »John Bates spricht von einem formellen Vorgang, der lange dauert« Er bestritt, dass er die Studie rechtzeitig nach Paris bringen wollte und sagte: »Es gab keine Diskussion über Paris«

Auch gab er zu, dass der endgültigen, genehmigten und „operativen“ Werte der GHCN-Bodendaten „anders“ seien, als in der Studie verwendet“.

Dieses der Bericht auf WUWT vom 04. Februar 2017

https://wattsupwiththat.com/2017/02/04/bombshell-noaa-whistleblower-says-karl-et-al-pausebuster-paper-was-hyped-broke-procedures/

Er verlinkt auf das gesamte außergewöhnliche Exposé von David Rose:

http://www.dailymail.co.uk/sciencetech/article-4192182/World-leaders-duped-manipulated-global-warming-data.html#ixzz4XlWgDL48

 

Andere Stellungnahmen:

Dr. Judith Curry berichtet, dass unter den von Team Karl genutzten Praktiken auch die „Anpassung“ zuverlässigerer Bojen Daten der Ozeane an die unzuverlässigeren Daten von vorbeifahrenden Schiffen vermutet wird. Weiterhin die Änderung der gemeldeten Temperaturdaten von landgestützten Wetterstationen und die Annahme, dass Temperaturdaten vermerkt wurden, wo überhaupt keine Thermometer vorhanden sind.

 

Rückblick vom 4.Juni 2015 – Climate Depot Spezial Report:

Climate Depot’s Marc Morano: “Ironischerweise, versucht das “global warming Etablishment” die “Pause” abzustreiten, dabei aber zu gleicher Zeit simultan endlose Erklärungen und Entschuldigungen für die “Pause” zu produzieren” Lesen sie: It’s Official – There are now 66 excuses for Temp ‘pause’ – Updated list of 66 excuses for the 18-26 year ‘pause’ in global warming

Es ist offiziell: Es gibt nun 66 Ausreden für die Erwärmungspause – und ein Update an Ausreden für die Jahre 18 bis 26 zur Pause in der globalen Erwärmung.

Die Forschung zeigt kontinuierlich, dass die Computer-Modelle, die für die gesamte globale Erwärmung Kampagne genutzt werden, furchtbar unzuverlässig sind. In der Wissenschaft passen die Forscher ihre Schlussfolgerungen an die Daten an. Sie passen nie die Daten an, um eine bevorzugte Schlussfolgerung zu erreichen- egal wie viel Finanzierung von den Steuerzahlern an dieser Schlussfolgerung hängt.

Präsident Trump sollte eine umfassende unabhängige Prüfung der Klimadaten und -Praktiken der NASA und der NOAA anordnen.

Solide politische Entscheidungen über das Klima können nicht getroffen werden, wenn wir den wissenschaftlichen Daten, auf den die Entscheidungen beruhen, nicht vertrauen können.

Die globale Erwärmung ‚Pause‘ ist lebendig und es geht ihr gut. ‚

Diese jüngste Studie fügt duellierende Datensätze und natürlich Zeitleisten in der Klimadebatte hinzu. Ob Sie mit Meeresspiegelanstieg, Temperatur oder Eis umgehen, die Methode der Messung ergibt unterschiedliche Resultate. (Satellitenüberwachung zeigt einen Anstieg der Beschleunigung des Meeresspiegelanstiegs, Die Gezeitenmessgeräte beispielsweise nicht)

Es scheint jetzt, dass die globale Erwärmung sich in eine Debatte verwandelt, in der beide Seiten ihre eigenen Fakten haben können!

 

Der Physiker Dr. Fred Singer:

„Glauben Sie es nicht. Die Pause ist real und in allen anderen Datensätzen vorhanden. ‚-‚ NCDC-NOAA und Science könnten am Ende belächelt werden („may end up with egg on their collective faces“). Es macht misstrauisch, dass NCDC nach all diesen Jahren, nachdem sie ihre eigenen Wetterstationsdaten „justiert“ hatten, kurz vor der großen politischen Konferenz im Dezember in Paris zu dieser aufwühlenden „Entdeckung“ gelangte.

 

Dr. Pat. Michaels, Dr. Richard Lindzen & Chip Knappenberger:

„Das Ausmaß der größten Anpassung von SST Daten (Sea Surface Temperature) über die Hiatusperiode, spiegelt vermutlich eine kontinuierliche Veränderung der Schiffsbeobachtungen wider (von Thermometern in Eimern bis in den Motor-Einlass-Öffnungen). Das Ausmaß der Anpassung ist nicht durch irgendwelche Beweise gerechtfertigt, evtl. Anpassungen erscheinen wesentlich geringer, wenn überhaupt notwendig.“

 

Beim Recherchieren stieß ich auch auf die Gegenseite, Verfechter der globalen Erwärmung.

Unsere Leser mögen selbst entscheiden, was davon zu halten ist

Hier „The Guardian“, der unter dem Obertitel: … 97% Konsens … praktischerweise mehrere Beiträge listet. Bitte über den Link zur Webseite und dann scrollen.

https://www.theguardian.com/environment/climate-consensus-97-per-cent

Dort ist u.a. zu lesen:

10. Januar 2017: Konservative Medien können nicht aufhören zu bestreiten, dass es keine Erwärmungspause gibt – hier besonders GWPF herausgestellt.

11. Januar 2017: Neue Studie zeigt: Rex Tillerson (der neue Außenminister) liegt falsch, bezüglich des Klimarisikos: Die verbleibenden Unwägbarkeiten des Klimawandels weisen auf höhere Risiken und höhere Dringlichkeit für Maßnahmen hin

17. Januar 2017: Teile der Vereinigten Staaten heizen sich schneller auf als der Globus als Ganzes. Eine neue Studie zeigt, dass die Nordost-USA die gefährliche 2 ° C Erwärmungsschwelle schneller als der meiste Rest des Planeten erreicht.

23. Januar 2017: Wir brechen jetzt alle drei Jahre globale Temperaturrekorde. Verleugnung und „alternative Fakten“ haben die Erde nicht von der Erwärmung auf erschütternde Rekorde abgehalten.

24. Januar 2017: Studie: Wirkliche Tatsachen können „alternative Tatsachen“[Anspielung auf Kellyanne Conways Erklärungen zu Trump Aussagen] schlagen, wenn sie durch Impfung verstärkt werden. In unserem aktuellen „Post-Wahrheits-Klima kann die Impfung den Schlüssel sein, dass Fakten wieder zählen. [Anspielung auf o.g. Studie Karl et. Al.]

26. Januar: Wir können näher an gefährlichen Klimaschwellen sein, als wir denken. Eine neue Studie identifiziert zusätzliche 0,1 ° C der von Menschen verursachten Erwärmung.

27. Januar 2017: Hier ist, warum wir wissen, das Trumps Kabinett falschliegen über die menschlich verursachte globale Erwärmung. Die Forschung ist klar – die Menschen sind verantwortlich für die globale Erwärmung seit 1950.

28. Januar 2017: The Mail ON Sunday schoss im aktuellen Krieg gegen Klimawissenschaftler die erste Salve ab: David Rose pinnte eine Attacke, die Experten für so falsch halten, dass es ist schwer ist zu entscheiden, womit man anfängt.
– Verteidigungsvideo von Dr. Michael Mann (Hockeystick)

 

Zusammengestellt und Übersetzt durch Andreas Demmig