1

Aus weiß macht schwarz — Mogeleien zum Erhalt der Strahlenangst!

Die radioaktiven Stoffe wurden vor etwa einem Jahrhundert entdeckt. Dabei gab es Unfälle mit Todesfolge durch eine hohe Strahlendosis. Also legte man Grenzwerte fest und machte strenge Gesetze. Man wusste, daß ein Photon der Kernstrahlung millionenfach mehr Energie transportiert als ein Photon des Sonnenlichtes, aber die Zusammenhänge mit der Wirkung auf lebende Zellen kannte man noch nicht. Später wurden die ursprünglichen Grenzwerte vermindert, die Gesetze immer strenger. Es wurde das Wort „Strahlenschutz“ erfunden, obwohl gar nicht klar war vor welcher Strahlendosis ein SCHUTZ erforderlich ist. Und es wurde das Wort „Strahlenbelastung“ erfunden, obwohl Strahlung nur bei hoher Dosis in kurzer Zeit eine BELASTUNG bedeutet. Der Satz des Paracelsus „Allein die Dosis macht das Gift“ wurde ignoriert.

So geht das seit einem guten halben Jahrhundert. Strahlenbiologen haben inzwischen erkannt, daß Strahlung von Radioaktivität im Niedrigdosisbereich sehr nützlich für Lebewesen sein kann. Diese Erkenntnisse werden nicht beachtet. Manchmal wird mit offensichtlicher Absicht verschwiegen und gemogelt, wie im Folgenden an einem Beispiel gezeigt werden soll. Die Politik fragt in Sachen Strahlen die hauptamtlichen Strahlenschutzauthoritäten, die von der Gültigkeit überstrenger Gesetze leben. Und so bleiben die vom fachunkundigen Gesetzgeber formulierten Gesetze bestehen, es ist ein Teufelskreis.

Das Kobalt-60-Ereignis von Taiwan: Chen et.al., [1]

In Taiwan gab es ein ungeheuer wichtiges Ereignis zur Wirkung von Strahlung radioaktiver Stoffe auf Menschen, es wurde in EIKE mehrfach darüber berichtet, (hier), (hier). Dort enthielt der Baustahl von Gebäuden Kobalt-60, einen Gammastrahler mit hoher Intensität. Es wurden dort in einem unfreiwilligen Testversuch ca. 10 000 Personen über 9 bis 20 Jahre einer Gamma-Langzeitbestrahlung ausgesetzt, wie es noch nie geschehen war. Die Folge war, daß die exponierten Personen nicht durch die Strahlung geschädigt wurden. Sie war im Gegenteil sehr nützlich für die Gesundheit der Menschen. In einem normalen Kollektiv ohne zusätzliche Strahlung durch Co-60 hätte es in Taiwan unter den Erwachsenen 186 Krebstodesfälle geben müssen. Nach der im Strahlenschutz weltweit geltenden Lehrmeinung, daß jede noch so kleine Strahlendosis Krebs erzeugen kann (LNT-Modell), hätte es durch Strahlung weitere 56 Krebstodesfälle geben müssen. Bisher wurden tatsächlich aber nur 5 Krebstodesfälle beobachtet. Dieses Ereignis ist einzigartig auf der Welt, ein einzigartiger Nachweis zur Nützlichkeit von Niedrigdosisstrahlung. Und es ist ein Versuch an Menschen, der weltweit verboten ist! An den Nukleararbeitern in der Anfangszeit wurde ähnliches gefunden, allerdings nicht so deutlich wie jetzt in Taiwan.

Wie ist diese Strahlenwirkung zu verstehen?

Die Entstehung von Krebs ist eine komplizierte Sache, das meiste davon ist unbekannt, auch wenn oft das einfache Modell von der Erzeugung eines Doppelstrangbruches der DNA durch Strahlung und der daraus folgenden Tumorentwicklung genannt wird. Dieses Modell ignoriert die körpereigenen Reparatursysteme, die durch Strahlung gefordert werden und so deren Reparaturfähigkeiten trainiert. Man kennt heute den Zellzyklus, einen Mechanismus zur ständigen Erneuerung der Zellen im Körper. Durch Fehler bei dieser Erneuerung kann Krebs initiiert werden, daher tritt Krebs besonders bei hoher Zellteilungsrate auf. Bei der Regulierung vom Zellzyklus spielen viele Stoffe eine Rolle, so auch das Protein p53. Es ist ein „tumor suppressor gene“, es kann Krebs verhindern. p53 wird in den Zellen durch Bestrahlung vermehrt, seine Wirkung kann das Kobalt-60-Ereignis von Taiwan zwanglos deuten. Wegen seiner überragenden Eigenschaften wurde p53 im Jahre 1993 zum „Molekül des Jahres“ gewählt. Eine sehr zu empfehlende Darstellung „Radiation and Health“ wurde von einer Gruppe norwegischer Biophysiker gegeben [2]. Bücher und Veröffentlichungen von deutschen Verfassern sollte man sehr kritisch lesen, denn es gibt dazu oft „politische“ Betrachtungen.

Es gibt Gegendarstellungen zum Kobalt-60-Ereignis von Taiwan: Hwang et.al., [3] [4]

Diese Berichte kommen zu dem Schluß, daß die Strahlung vom Co-60 schädlich sei, wie es schon die Lehrmeinung besagt (LNT-Modell). Es wird die Inzidenz von Krebs untersucht, aber dabei wird gemogelt.

Die erste Mogelei

Chen et.al. berichten über ein Kollektiv von ca. 10 000 Personen mit einer mittleren über die gesamte Zeit kumulierten Dosis von 400 mSv pro Person. Hwang et.al. berichten nur von 6246 Personen mit einer mittleren über die gesamte Zeit kumulierten Dosis von 48 mSv pro Person, dazu wird der Medianwert von 6,3 mSv angegeben.

Das passt nicht zusammen. Es folgt aus diesen Zahlen, daß Hwang die Personen mit der höchsten Strahlenexposition nicht in die Untersuchung einbezogen hat. Dieses sind aber gerade diejenigen, bei denen dank regelmäßigem Training des Immunsystems ein positiver Effekt zu erwarten ist. Es wurden hingegen im wesentlichen nur die Personen des Teilkollektives mit der niedrigsten Exposition von 1 bis 5 mSv pro Jahr beachtet. Der Medianwert von 6,3 mSv bedeutet, daß die Hälfte der Personen nahezu KEINE zusätzliche Strahlung erhalten hat. Dann können natürlich auch keine positiven Effekte durch Strahlung aufgetreten sein.

Die zweite Mogelei

Hwang et.al. geben Zahlenwerte für die standarisierte Inzidenzrate SIR an; SIR < 1 bedeutet weniger Krebsfälle als normal, SIR > 1 bedeutet mehr Fälle als normal. In den Überschriften und Zusammenfassungen beider Arbeiten wird von Krebs durch gamma-Strahlen gesprochen [3] [4], aber in der ersten Arbeit [3] findet man in Tabelle III auf Seite 854 genau das Gegenteil, nämlich SIR = 0,7 für „solid cancers“. Das bedeutet weniger Krebs bei Bestrahlung, wie es Chen et.al. berichtet haben (wird im Text erst ganz hinten erwähnt). In der zweiten Arbeit [4] wird ein Risikofaktor >1 für „all solid cancers“ (table 2 auf Seite 145) angegeben, es ist also die ursprünglich niedrigere Krebsrate zu einer höheren Krebsrate geworden. Woher kommt diese gigantische Änderung innerhalb von 2 bis 3 Jahren? – Das wird nicht erläutert. Mohan Doss hat vorgerechnet, daß diese Änderung vorgetäuscht wurde [5].

Die dritte Mogelei

Hwang et.al. haben in der Tabelle III auf Seite 854 [3] die Daten für die Krebse an vielen Organen aufgeführt. Als Mittel über alle Krebse liegt SIR < 1, dennoch wurde bei einigen Organen SIR > 1 gefunden. Unter diesen Fällen mit SIR > 1 sind einige mit einer zur geltenden Lehrmeinung passenden Dosisabhängigkeit. Nur diese Fälle werden als Ergebnis genannt, die anderen werden verschwiegen. Die Zahl der beobachteten Fälle war dabei klein, so lässt sich z.B. bei 4 Fällen keine Statistik begründen, auch wenn das relative Risiko mit 9,0 berechnet worden ist.

Und noch etwas

Es wird nicht diskutiert, aus welchen Grunde die Arbeit von Chen et.al. falsch sei. Es wird dazu gesagt „Chen et.al. (2004) reported a primitive analysis on a similar cohort population…“ [3]. Die Worte „primitive analysis“ lassen nicht den Willen zu einer sachlichen wissenschaftlichen Diskussion erkennen.

Es wurde gemogelt, das ist klar, das kann nur mit voller Absicht geschehen sein. Besonders deutlich sind die Mogeleien aus den Tabellen der ersten Arbeit [3] zu sehen. In der zweiten Arbeit [4] fehlen diese Tabellen, damit ist dort nur die erste Mogelei erkenntlich. Es ergibt sich der Eindruck, daß die follow-up-Arbeit geschrieben wurde, um die besonders offensichtlichen Mogeleien in der ersten Arbeit zu verstecken. Im Internet sind nur die Zusammenfassungen beider Arbeiten frei verfügbar, auch das nährt den Verdacht auf Absicht.

Was ist zu tun?

Es gilt das Ergebnis von Chen et.al. : Ganzkörper Gammabestrahlung ist nützlich, sie kann vor Krebs bewahren. Natürlich muß das Kollektiv der Bewohner in Taiwan weiter beobachtet werden, das sollte ein ganzes Menschenalter lang geschehen. Dabei ist die Inzidenz wie auch die Mortalität bei Krebs zu beachten. Da aber unter den Bewohnern viele junge Menschen sind, kann man nicht ein Menschenalter bis zu endgültigen Ergebnissen warten. Das Handeln sollte schon viel früher beginnen, und zwar sofort. Dieses einzigartige Experiment mit Co-60 in Taiwan sollte wiederholt werden. Dazu müssen die geltenden Verbote der Exposition von Menschen mit Strahlung gemäß der Strahlen“schutz“regeln weg, eine Aufgabe des Gesetzgebers.

Man sollte sich auch daran erinnern, was schon in den 1980-er Jahren von Luckey gefordert wurde:

„Es wird allmählich Zeit, daß sich die für die Volksgesundheit verantwortlichen Stellen darüber Gedanken zu machen beginnen, wie sichergestellt werden kann, daß jeder die Dosis, die er zur Erhaltung seiner Vitalität und Gesundheit benötigt, auch immer erhält.“

Luckey hatte in den 1980-ern 1200 Arbeiten zur biopositiven Wirkung von Strahlung ausgewertet, inzwischen ist deren Anzahl auf 3000 gestiegen. Und es gibt mit „dose-response“ eine Zeitschrift, die sich nur mit der gesundheitsfördernden Wirkung von Strahlung befasst. Zur Gesundheitsvorsorge hat Luckey 60mSv/Jahr als optimale Dosis vorgeschlagen. Es gehört auch das ALARA-Prinzip (as low as reasonable available) auf den Müllhaufen für wissenschaftliche Irrtümer. Alles Schrifttum mit der Überschrift „Nuclear Safety & Security“ muß korrigiert werden, dazu sind die internationalen Organisationen UNSCEAR, IAEA, ICRP und ebenfalls die nationalen Strahlenschutzauthoritäten gefordert. Seit den 1980-er Jahren ist jedoch nichts geschehen, zum Nachteil von Millionen Menschen [6].

In Deutschland sterben jährlich etwa 210 000 Menschen an Krebs, die Inzidenz liegt bei etwa 460 000 jährlich. Es wird also mehr als jeder zweite Bürger bei uns irgendwann mit dem Schrecken „Krebs“ konfrontiert. Das Ereignis in Taiwan lässt hoffen, daß allein in Deutschland jedes Jahr einigen 100 000 Menschen geholfen werden könnte, wenn es die Gesetze erlauben würden. Dringendes Handeln ist erforderlich!!!!

Literatur

[1] W.L. Chen et.al. , “Effects of Cobalt-60 Exposure on Health of Taiwan Residents Suggest New Approach Needed in Radiation Protection” http://tinyurl.com/pjychll oder http://tinyurl.com/yzzdu9p, oder “Is Chronic Radiation an Effective Prophylaxis Against Cancer?”  http://tinyurl.com/9jwnnc3

[2] Thormod Henriksen et.al., „Radiation and Health“, 2012, http://tinyurl.com/nlsm4wm

[3] S.-L. Hwang et.al. , “Cancer risks in a population with prolonged low dose-rate g-radiation exposure in radiocontaminated buildings, 1983 – 2002”, Int. J. Radiat. Biol., Vol. 82, Dec 2006, pp. 849 – 858

[4] S.-L. Hwang et.al. , “Estimates of relative risks for cancers in a population after prolonged low-dose-rate radiation exposure: A follow-up assessment from 1983 to 2005”, Radiation Research 170, 143 – 148 (2008)

[5] M. Doss, “An Analysis of Irradiated Taiwan Apartment Residents’ Cancer Incidence Data”, http://taiwan-apt-cancer-data-analysis.blogspot.de

[6] M. Doss, “Linear no-threshold Model vs. radiation hormesis” dose-response, 11, 2013, 495 – 512

Die Arbeiten von Hwang [3] und [4] können bei Interesse gern über die admin von EIKE angefordert werden.

Related Files




Ein weiteres Narrenschiff? Mehr Verrücktheit über das Antarktische Eis

Mens Journal schreibt:

„Globale Erwärmung erschließt antarktische Wasserstraßen – Am 13. Februar befuhr eine Yacht, die 67-Fuß-Schaluppe[ rd.20m] Selma mit einer Crew aus Polen in der Antarktis die Bucht der Wale. Diese ist traditionell gefroren und in dem Breitengrad nur durch Eisbrecher schiffbar. Es war hundert Meilen weiter südlich als je ein Boot gesegelt ist. Die Temperaturen schwebten um Null Grad Fahrenheit [minus 18°C](es ist der Höhepunkt des Sommers am Südpol), als die Mannschaft abwechselnd die schwere Reifschicht vom Schiffsdeck und den Segeln hackte. Ein Sturm schickte kurze sechs-Meter-Wellen in den Weg, aber die Oberfläche war ruhig, als Selma endlich aufs [freie] Meer lief. „Wir berührten das Eis der Antarktis“, erzählte Skipper Piotr Kuniar Radio Polen. „Wir können nicht weiter segeln.“

Zwei aktuelle Studien erklären, warum es mehr Meer [= weniger Eis] um die Antarktis gibt als je zuvor.

http://www.mensjournal.com/adventure/outdoor/global-warming-opens-up-antarctica-waterways-20150319 [Global Warming erschließt antarktische Wasserstraßen]

Das Traurige über diese Art von hysterischem Gruppendenken ist, dass immer wenn eine Gruppe von Grünen überzeugt ist, dass das Eis geschmolzen ist, sie bis in die Antarktis fahren, um selbst nachzusehen ohne die richtige Vorbereitung. Ein paar von ihnen haben Glück – aber zumindest in einigen Fällen müssen normale Menschen ihr Leben riskieren und fragile wissenschaftliche Zeitpläne unterbrechen, um Gruppen von Idioten zu retten, die es für sinnvoll halten, in die Antarktis ohne richtige Ausrüstung und Vorbereitung zu segeln.

http://wattsupwiththat.com/2014/01/13/akademic-shokalskiy-makes-it-back-to-port-spirtofmawson-fools-still-stuck-in-antarctica/

[Akademik Shokalskiy schafft es zurück zum Hafen, Das Narrenschiff „Spirit of Mawson“ steckt noch in der Antarktis fest]

Erschienen am 20. März 2015 auf WUWT

Link : http://wattsupwiththat.com/2015/03/20/another-ship-of-fools-more-craziness-about-antarctic-ice/

Übersetzt durch Andreas Demmig für Eike




Moskau’s europäische Gas-Strategie funktioniert nicht länger

Unter Berufung auf "Transitrisiken" durch den Transport von Erdgas durch "unzuverlässige Länder", wollen die Russen die Ukraine umgehen und ein System aufbauen, wie es als Turk-Stream durch das Schwarze Meer durch Anatolien bis zum Balkan bekannt ist. Westeuropa, das etwa 30% seines Erdgases aus Russland bekommt, müsse nun mit der Entscheidung leben, wurde Mr. Sefcovic mitgeteilt. "Turk Stream ist jetzt die einzige Pipeline" erklärte Mr. Miller gegenüber Reportern. "Unsere europäischen Partner sind hiervon unterrichtet worden und ihre Aufgabe ist es nun, die notwendige Infrastruktur für Gastransporte ab den Grenzen der Türkei und Griechenlands zu etablieren."

Dennoch wissen Mr. Sefcovic und andere Experten, dass die europäischen Verbraucher keinen wirklichen Grund zur Sorge haben. Mr. Millers polternder Ton reflektiert wenig mehr als die Zwielichtigkeit der plumpen Pipeline-Politik von Gazprom, Tatsache ist, dass der Griff des russischen Energieriesen auf Preise und die Verteilung schwächer wird, wenn die Gas- und Ölpreise sinken und der Wettbewerb steigt.

Viele Europäer haben schlechte Erinnerungen, als Gazprom wegen der Meinungsverschiedenheiten mit der Ukraine über Preise die Lieferungen während der Winter von 2006 und 2009 unterbrochen hatte. Ein Gefühl der Verwundbarkeit wurde durch russische Bemühungen verschärft, mehr Liefersysteme zu entwickeln, die es Moskau erlauben, den Gasfluss in bestimmte Länder direkt steuern zu können: Die Blue-Stream-Pipeline in die Türkei, die Jamal-Pipeline nach Polen und Deutschland sowie Nord Stream nach Deutschland. Dieses erweiterte Netzwerk war Teil von Moskaus kommerzieller und politischer Strategie, eine Strategie, die die Position der Ukraine als wichtigstes Transitland in den Westen aushöhlt; Kiew und die kleineren Staaten Osteuropas verlieren Transitgebühren und ermöglichen es damit Moskau, Lieferungen ungestraft zu beschneiden.

Aber die Strategie der Verwendung von Rohrleitungen als Hebel, um Märkte zu steuern, funktioniert nicht mehr. Seit 2009 ist die Europäische Union bemüht, ihre Energiesicherheit zu verbessern, vor allem durch Aktivitäten, einen einzigen offenen Markt mit Rohrleitungssystemen und neuen Bezugsquellen zu entwickeln. Wird einer der Mitgliedstaaten der Europäischen Union durch Gazprom der Gashahn zugedreht wird, kann Gas einfach von einem anderen Mitgliedsland aus fließen. Die Schwächung von Russlands Einfluss auf die Energiepolitik wurde im Dezember deutlich, als Präsident Wladimir Putin das viel beschworene South-Stream-Projekt aufkündigte, das eine Unterwasser-Pipeline von Russland nach Bulgarien enthielt. Europäische und amerikanische Sanktionen gegen Russland, verbunden mit finanziellen und rechtlichen Problemen, hatte das 40-Milliarden-Dollar-Projekt zur Umgehung der Ukraine unhaltbar gemacht. Anstatt nur die Akte zu schließen, hat Putin Pläne für Turk Stream angekündigt.

Auf den ersten Blick scheint der Schwenk wie ein cleverer Versuch, Ankara näher an Moskau zu bringen, während Europa weiter von russischem Gas abhängig ist und um Kiew für den Bruch mit dem Kreml zu bestrafen. Doch bei näherer Betrachtung sieht es aus wie ein Akt der Verzweiflung.

Im vorigen Jahr, als die Krise um die Krim und die Region Donbass überkochte, sperrte Russland die Gasströme nach Kiew unter Berufung auf Preisstreitigkeiten fast ein halbes Jahr lang. Auch wenn EU-Beamte Moskaus Zusicherung haben, dass der [Energie-]Fluss in diesem Jahr weiterhin sicher erhalten bleibt, öffnet sich der europäische Markt zunehmend anderen Quellen. Norwegen ist nun ein Rivale Russlands um den Titel des größten Gasexporteurs in andere Länder auf dem Kontinent. Auch Algerien ist in der Lage, mehr Gas zu liefern; die ersten Importe von verflüssigtem Erdgas aus Amerika sind nur ein Jahr her, während die Anfänge der Schiefergas-Entwicklung in Polen und Großbritannien zu sehen sind. Darüber hinaus werden Fernleitungsnetze nach Italien und zum Balkan von der Türkei und Aserbaidschan gebaut.

Für Russland, durch taumelnde Öleinnahmen und andere Leiden getroffen, wird die Suche nach Investoren für neue Rohrleitungssystemen bestenfalls schwierig sein. South Stream ist mit vielen Hürden konfrontiert, einschließlich rechtlicher Hindernisse. Die neuen Regeln der Europäischen Union zur Marktliberalisierung erfordern die Trennung der Übertragungsnetze vom Gaslieferanten. Grundsätzlich kann Gazprom sowohl die Rohrleitungen und das Gas nicht legal besitzen, sie hätten sonst die Rohrleitungen durch Osteuropa bis in den wichtigsten Handelsknotenpunkt in Österreich gekauft. Auch wenn Brüssel eine Ausnahme gewähren würde, würde das Unternehmen immer noch aufgefordert werden, Dritten Zugang zu seiner Pipeline zu gewähren. Auch würde Brüssel eine transparente Preisgestaltung für die Nutzung des Systems durch andere Unternehmen fordern. Ein solcher Eingriff wäre ein Gräuel für Moskau.

In gewisser Weise ist das Turk-Stream-Projekt noch problematischer als South Stream. Der russische Vorschlag sieht die Vermeidung von Konflikten mit dem europäischen Recht vor, indem die Kunden von Gazprom die Lieferung an der europäischen Grenze annehmen. Aber diese Hoffnung könnte leicht nach hinten losgehen. Ist das russische Gas einmal in Europa, könnte es überall hin dirigiert werden. Ein Hauptspeicherpunkt, speziell im Sommer, würden die großen Einrichtungen in der Westukraine sein. Turk-Stream könnte den Einfluss von Gazprom weiter verringern, indem ein weiterer Erdgasspeicher eingerichtet wird, der gegen eine russische Sperre immunisiert.

Zuerst erschienen am 13.02. 2015, National Post

Gelesen auf : The Global Warming Policy Forum

Link: http://www.thegwpf.com/moscows-european-gas-strategy-is-no-longer-working/

Übersetzt durch Andreas Demmig für das EIKE

Zusatz des Übersetzers: Ich habe beruflich auch mit Pipeline Projekten zu tun gehabt. Sofern auch der Kunde seine Zusagen (Geld) einhält, haben sowohl die Russen, als auch z.B. die Iraner ihre Verpflichtungen immer sorgfältig eingehalten. Selbst während der politischen „Eiszeit“.

Ob es tatsächlich sinnvoll und wirtschaftlich ist, eine weitere teure Infrastruktur aufzubauen , nur um „unabhängig“ zu sein, ist sicherlich näherer Betrachtung wert.

Unabhängigkeit würde bedeuten, auch die eigenen Lagerstätten zu nutzen.

A. D.




Anatomie eines kollabierenden Klima-Paradigmas

Paradigma:

Ein Rahmen, der die grundlegenden Hypothesen, die Denkweise und die Methodik enthält, die allgemein von den Mitgliedern einer wissenschaftlichen Gemeinschaft akzeptiert werden.

Paradigma-Verschiebung:

Diese Beispiele weisen auf den dritten und grundlegendsten Aspekt der Unvergleichbarkeit miteinander im Wettbewerb stehender Paradigmen hin. In einer Weise, die näher auszuführen ich nicht in der Lage bin, praktizieren die Befürworter ihres jeweiligen Paradigmas dieses in verschiedenen Welten. Eines enthält überstrapazierte Inhalte, die allmählich zusammenfallen, die anderen wiederholen ihre Pendelschläge wieder und immer wieder. In dem einen Paradigma sind Lösungen fest gefügt, in anderen sind es Mixturen. Eines ist eingebettet in eine flache, das andere in eine gekrümmte Matrix im Raum. Da sie in verschiedenen Welten operieren, sehen die beiden Wissenschaftler-Gruppen verschiedene Dinge, wenn sie von der gleichen Stelle aus in die gleiche Richtung blicken. Auch hier heißt das nicht, dass sie irgendetwas sehen, das ihnen gefällt. Beide schauen auf die Welt, und auf was sie blicken hat sich nicht verändert. Aber in manchen Bereichen sehen sie unterschiedliche Dinge, und sie sehen diese in unterschiedlichen Relationen zueinander. Das ist auch der Grund dafür, dass ein Gesetz, das nicht einmal der einen Wissenschaftler-Gruppe demonstriert werden kann, für die andere Gruppe intuitiv offensichtlich aussieht. Und es ist auch der Grund dafür, warum die eine oder die andere Gruppe erst eine Verschiebung des Paradigmas vornehmen muss, um in voller Breite kommunizieren zu können. Nur weil es ein Übergang zwischen Unvergleichbarkeiten ist, kann der Übergang zwischen gegeneinander stehenden Paradigmen nicht mit einem Schritt zu einer bestimmten Zeit erfolgen, erzwungen durch Logik und neutrale Erfahrung. Wie die Gestaltänderung muss der Übergang vollständig (wenngleich auch nicht notwendigerweise sofort) erfolgen, oder er erfolgt überhaupt nicht.

Thomas Kuhn, 1962. The Structure of Scientific Revolutions. Vol. II, No. 2 p. 150

Wie lautet das derzeitige Paradigma?

● Menschliche Aktivitäten, hauptsächlich deren Kohlendioxid-Emissionen, waren der primäre Grund der beobachteten globalen Erwärmung während der letzte 50 bis 150 Jahre.

● Die atmosphärische CO2-Konzentration betrug zu Beginn des Holozäns 270 bis 280 ppmv. Dieser Anteil blieb vor Mitte des 19. Jahrhunderts konstant, bevor fossile Treibstoffe zur primären Energiequelle der industriellen Revolution wurden.

● Anthropogene CO2-Emissionen sorgen dafür, dass die atmosphärische Konzentration gefährlich rasch zunimmt auf Niveaus, wie sie während der letzten 100erten von Tausend bis zu Millionen Jahre beispiellos sind.

● Die Klimasensitivität bei einer Verdoppelung des CO-Gehaltes im Vergleich zu vor der industriellen Revolution „liegt wahrscheinlich im Bereich zwischen 2°C und 4,5°C mit einem Best Estimate von 3°C. Es ist sehr unwahrscheinlich, dass sie unter 1,5°C liegt“ (hier). Vielleicht sind es auch über 4,5°C.

● Sofortige und starke Reduktionen der Treibhausgasemissionen sind notwendig, um eine katastrophale Klimaänderung zu vermeiden.

● Der wissenschaftliche Konsens hinsichtlich dieses Paradigmas ist überwältigend (~97%).

Warum bricht dieses Paradigma zusammen?

● Seit Ende des 20. Jahrhunderts ist die mittlere Temperatur der Erde nicht mehr gestiegen.

● Jede Messung des vorindustriellen CO2-Gehaltes, der nicht aus antarktischen Eisbohrkernen abgeleitet worden ist (hier), zeigt eine höhere und variablere atmosphärische Konzentration (hier).

● Das totale Versagen (hier) der AGW-Klimamodelle.

● Eine rasch wachsende Anzahl von Studien auf der Grundlage von Beobachtungen zeigt, dass die Klimasensitivität im Bereich von 0,5°C bis 2,5°C mit einer Best Estimate von 1,5°C bis 2°C liegt. Es ist sehr unwahrscheinlich, dass sie mehr als 2°C beträgt.

● Eindeutige Beweise, dass das dogmatische Bestehen auf wissenschaftlicher Einigkeit im besten Falle arrangiert und im schlimmsten Falle betrügerisch ist.

Das Paradigma bricht primär aufgrund der Tatsache zusammen, dass das Klima weitaus weniger sensitiv auf Änderungen des atmosphärischen CO2-Gehaltes reagiert als der so genannte wissenschaftliche Konsens es haben wollte.

Eine Gruppe von Wissenschaftlern hat dem CO2-getriebenen Paradigma standhaft widerstanden: Geologen, besonders Petroleum-Geologen. Kuhn schrieb dazu [siehe oben]:

Da sie in verschiedenen Welten operieren, sehen die beiden Wissenschaftler-Gruppen verschiedene Dinge, wenn sie von der gleichen Stelle aus in die gleiche Richtung blicken. Auch hier heißt das nicht, dass sie irgendetwas sehen, das ihnen gefällt. Beide schauen auf die Welt, und auf was sie blicken hat sich nicht verändert. Aber in manchen Bereichen sehen sie unterschiedliche Dinge, und sie sehen diese in unterschiedlichen Relationen zueinander. Das ist auch der Grund dafür, dass ein Gesetz, das nicht einmal der einen Wissenschaftler-Gruppe demonstriert werden kann, für die andere Gruppe intuitiv offensichtlich aussieht.

Petroleum-Geologen tendieren dazu, Sediment-Geologen zu sein, und die Sediment-Geologie ist im Wesentlichen eine Kombination von Paläogeographie und Paläoklimatologie. Abgelagerte Schichten werden definiert durch physikalische Geographie und Klima. Wir operieren buchstäblich in einer anderen Welt, nämlich der Vergangenheit. Geologen sehen die Prozesse der Erde intuitiv als zyklisch an und tendieren auch dazu, die Dinge aus der Sicht sehr langer Zeiträume [„deep time“] zu betrachten. Für jene von uns, die wir im Golf von Mexiko arbeiten, „gehen wir in einer Welt an die Arbeit“, die durch glazio-eustatische und halokinetische Prozesse definiert werden. Und – offen gesagt – die meisten von uns sehen nichts Anomales in jüngsten Klimaänderungen.

Es sollte also keine Überraschung sein, dass Geowissenschaftler durchweg sehr viel mehr der Denkweise folgten, dass Klimaänderungen in moderner Zeit in überwältigender Weise durch natürliche Prozesse getrieben waren…

APEGA ist die Organisation, die für die Zertifizierung und Lizenzierung professioneller Geowissenschaftler und Ingenieure in Alberta, Kanada, verantwortlich ist.

Diese Studie ist sehr interessant, weil sie die Differenz-Rahmen analysiert (Kuhns „unterschiedliche Welten“), in der sich Meinungen bilden. Skeptische Geologen werden höchstwahrscheinlich Klimaänderungen als fast eindeutig natürlichen Ursprungs ansehen. Skeptische Ingenieure werden sie wahrscheinlicher als eine Sache der Ökonomie oder des Fatalismus‘ ansehen. Die Kosten der Dekarbonisierung würden jedwede Vorteile bei Weitem übertreffen und/oder hätten keinen messbaren Einfluss auf Klimaänderung.

Die Besessenheit bzgl. des Konsens‘

Während nahezu 40 Jahre als Erdwissenschaftler habe ich noch nie eine solche Besessenheit bzgl. eines Konsens‘ gesehen. In der Geologie gibt es viele Bereiche, in der es miteinander in Konkurrenz stehende Hypothesen gibt; aber trotzdem gibt es keine Besessenheit hinsichtlich Konformität zu einem Konsens.

Die Akzeptanz der Plattentektonik war relativ neu, als ich noch ein Student war. Dieses Paradigma hatte sich erst kurz zuvor von der geosynklinalen Theorie zur Plattentektonik verschoben. Wir haben immer noch die geosynklinale Theorie im Fach Historische Geologie gelernt, und sie hat auch heute noch einen gewissen Wert. Allerdings kann ich mich an keine einzige veröffentlichte Studie erinnern, in der für eine der beiden Theorien ein Konsens in Anspruch genommen wurde.

Die meisten Geologen glauben, dass Granit vulkanischen und Petroleum organischen Ursprungs ist. Und trotzdem werden Theorien der Granitisierung und der abiotischen Kohlenwasserstoff-Bildung nicht lächerlich gemacht; und deren Anhänger sind auch nicht Gegenstand von „Hexenjagden“.

Eine der am häufigsten angewendeten Verfahren zu versuchen, den so genannten Konsens zum Klimawandel zu quantifizieren und zu rechtfertigen, war die abstrakte Forschung (Meinungen aus zweiter Hand). Ich werde mir nur die Mühe machen, eine dieser Übungen zu begutachten, nämlich den logischen Trugschluss von Cook et al. 2013.

Meinungen aus zweiter Hand

Diese Art von Studien besteht aus abstrakten Begutachtungen. Die Autoren erfassen dann tabellarisch ihre Meinungen, ob die Abstracts das AGW-Paradigma unterstützen oder nicht. Wie Legates et al. 2013 gezeigt haben, hat Cook den Konsens definiert als „die meiste Erwärmung seit 1950 ist anthropogen“. Cook stützte sich dann auf drei verschiedene Niveaus der „Befürwortung“ dieses Konsens‘ und schloss 67% aller betrachteten Abstracts aus, weil der Konsens weder abgelehnt noch befürwortet wurde.

„Die größte Befürworter-Gruppe wurde kategorisiert als „implizite Zustimmung zu AGW, ohne diese zu minimieren“. Sie nannten folgendes Beispiel einer implizierten Befürwortung:

…Kohlenstoff-Abscheidung in der Erde ist wichtig, um eine globale Klimaänderung abzuschwächen.

„Die Kohlenstoff-Abscheidung in der Erde, in Kalkformationen, Meerwasser, maritimen Kalkablagerungen und vielen anderen Dingen waren immer wichtig für die Abschwächung einer großen Vielfalt natürlicher Prozesse. Ich zweifle nicht daran, dass ich implizit den so genannten Konsens auf der Grundlage dieses Beispiels befürwortet habe“, [hieß es aus dieser Gruppe].

Die zweitgrößte Befürworter-Gruppe wurde kategorisiert als „implizit zustimmend, aber ohne sie zu quantifizieren oder minimieren“. Man entschuldige meine Beschränktheit, aber wie in aller Welt kann jemand explizit ohne Quantifizierung die Auffassung befürworten, dass „der größte Teil der Erwärmung seit 1950 anthropogenen Ursprungs ist“? Cook nannte dafür das folgende Beispiel:

Emissionen einer großen Vielfalt von Treibhausgasen über verschiedene Zeiträume tragen zur globalen Klimaänderung bei.

Wow! Ich habe zu ,Romney als Präsident‘ beigetragen… Trotzdem kam die meiste Munition für seinen Wahlkampf nicht von mir. Nach diesem subjektiven Standard habe ich möglicherweise ein paar Mal AGW befürwortet.

Kein Schiefer, Sherlock

Einer der häufigsten Refrains ist die Beteuerung, dass „Klimawissenschaftler“ den so genannten Konsens stärker befürworten als andere Disziplinen und dass das Niveau der Befürwortung proportional zum Umfang der Veröffentlichungen jener Klimawissenschaftler ist. Nun… kein Schiefer, Sherlock! Ich würde eine Flasche guten Weines verwetten, dass die umfangreichsten Veröffentlicher auf UFOs unverhältnismäßig oft dazu tendieren zuzustimmen, dass der Film Close Encounters of the Third Kind [,unheimliche Begegnung der dritten Art‘] eine Dokumentation sei. Eine oberflächliche Suche nach „abiotischen Kohlenwasserstoffen“ auf den Datenseiten von AAPG könnte mich zu der Schlussfolgerung verleiten, dass es ein höheres Niveau der Befürwortung abiotischen Öls gibt unter jenen, die zu diesem Thema etwas veröffentlichen, als unter jenen Petroleum-Geologen, die nichts veröffentlichen.

Diese Machenschaften von Experten-Rosinenpickerei sind ziemlich weit verbreitet. Ein klassisches Beispiel dafür waren Doran and Kendall Zimmerman 2009. Diese Umfrage-Testprobe war begrenzt auf Erdwissenschaftler in Akademien und bei der Regierung. Alle in privaten Bereichen arbeitende Erdwissenschaftler waren ausgeschlossen. Die zwei Schlüsselfragen lauteten:

1. Im Vergleich mit dem Niveau vor dem 19. Jahrhundert – glauben Sie, dass die mittleren globalen Temperaturen allgemein gestiegen, gefallen oder gleich geblieben sind?

2. Glauben Sie, dass menschliche Aktivitäten einen bedeutenden Beitrag zur Änderung der mittleren globalen Temperatur geleistet haben?

Ich würde Frage 1 mit „ja“ beantworten. Meine Antwort auf Frage 2 würde davon abhängen, welche Bedeutung „menschliche Aktivitäten sind ein wesentlicher beitragender Faktor“ hat. Falls ich bemerken würde, dass es eine „Push Poll“* war, würde ich mit „nein“ antworten.

[*Eine angebliche Meinungsumfrage, in der die wirkliche Objektive dazu gedacht ist, die Wähler durch tendenziöse Fragen zu beeinflussen. Quelle]

Interessanterweise waren Wirtschaftsgeologen und Meteorologen die Personen, die am wahrscheinlichsten Frage 2 mit „nein“ beantwortet hätten…

Die beiden Fachbereiche in der Umfrage mit dem geringsten Prozentsatz der Teilnehmer, die Frage 2 bejahten, war ökonomische Geologie mit 47% (48 von 103) und Meteorologie mit 64% (23 von 36)

Die Autoren warfen die Meinungen der Geologen und Meteorologen verächtlich hinaus…

Es scheint, dass die Debatte um die Authentizität der globalen Erwärmung und die Rolle menschlicher Aktivitäten dabei weitgehend nicht existent ist unter jenen, die die Nuancen und die wissenschaftliche Basis langzeitlicher Klimaprozesse verstehen.

Keine Disziplin versteht besser die „Nuancen“ als Meteorologen, und keine Disziplin versteht besser die „wissenschaftliche Basis langzeitlicher Klimaprozesse“ als Geologen.

Die Autoren schließen mit einer „Kein-Schiefer, Sherlock“-Balkengraphik:

Das jüngste Beispiel von Experten-Rosinenpickerei waren Stenhouse et al. 2014.

Der 52%-Konsens unter den Mitgliedern der American Meteorological Society wurde als „wahrgenommener wissenschaftlicher Konsens“, als „politische Ideologie“ und dem Fehlen von „Expertise“ hinweg erklärt…

Während wir herausfanden, dass größere Erfahrung assoziiert war mit einer größeren Wahrscheinlichkeit, die globale Erwärmung als real und schädlich einzustufen, war diese Relation weniger stark als für politische Ideologie und wahrgenommener Konsens. Zumindest für die von uns benutzte Definition des Grades an Erfahrung könnte einen weniger bedeutenden Einfluss zu der Ansicht bzgl. der globalen Erwärmung als vom Menschen verursacht spiegeln im Vergleich zu politischer Ideologie oder dem Konsens sozialer Normen. Mehr als jedes andere Ergebnis der Studie wäre dies ein starker Beweis gegen den Gedanken, dass die Ansichten erfahrener Wissenschaftler zu politisch kontroversen Themen vollkommen objektiv sein können.

Schließlich fanden wir auch, dass der wahrgenommene Konflikt bei der AMS zusammenhing mit einer geringeren Sicherheit hinsichtlich der Ansichten zur globalen Erwärmung als vom Menschen verursacht sowie geringerer Einschätzung der Schäden durch die globale Erwärmung.

Also … eindeutig würden 97% der AMS-Mitglieder den so genannten Konsens befürworten, falls sie liberaler, mehr Akzeptanz gegenüber Einstimmigkeit zeigen und mehr Studien zur Verteidigung der scheiternden Klimamodelle veröffentlichen würden. Kein Schiefer, Sherlock!

Was genau ist ein Klimawissenschaftler?

Vor 35 Jahren war Klimatologie ein Zweig von Physikalischer Geographie. Heutige Klimawissenschaftler können alles sein, von atmosphärischen Physikern und Chemikern über Mathematiker, Computer-Wissenschaftler, Astrophysiker, Ozeanographen, Biologen Umweltwissenschaftler, Ökologen, Meteorologen, Geologen, Geophysiker, Agronomen, Soziologen bis hin zu öffentlichen Politologen [und Eisenbahningenieuren, wenn man an Pachauri denkt. Anm. d. Übers.]

Der oberste Klimawissenschaftler der NASA James Hansen ist Astronom. Der jetzige Gavin Schmidt ist Mathematiker.

Es scheint mir, dass die Klimawissenschaft derzeit dominiert wird von Computer-Modellierern mit wenig Wissen über die natürlichen Klimazyklen, die das Klima während des gesamten Holozäns getrieben haben.

Klimawissenschaftler scheint genauso nebulös wie Cooks Definition von Konsens.

Wie lautet der aktuelle Konsens?

Die vorläufigen Ergebnisse der AMS-Umfrage (hier) sagen uns, dass alles, was wir wissen müssen über den so genannten Konsens…

89% × 59% = 52%… Ein kleiner Abklatsch des oftmals behaupteten 97%-Konsens‘.

Auf der Grundlage der BAMS-Definition findet globale Erwärmung statt. Also wäre ich unter den 89%, die Frage 1 mit „ja“ beantwortet hatten, und unter den 5% die sagten, dass der Grund hauptsächlich natürlich war.

Wenn selbsternannte „Klimawissenschaftler“ und Meteorologen/Atmosphären-Wissenschaftler gesondert betrachtet werden, werden die Ergebnisse sogar noch interessanter…

Nur 45% der Meteorologen und Atmosphärenwissenschaftler befürworten den so genannten Konsens. Im Vergleich zum Jahr 2009 und der Umfrage der American Geophysical Union ragt das kollabierende Paradigma heraus wie ein Polarwirbel…

In Wirklichkeit würden etwa die Hälfte der relevanten Wissenschaftler zustimmen, dass die Menschen verantwortlich waren für >50% der jüngsten Klimaänderungen. Und es könnte sogar einen 97%-Konsens geben, dass menschliche Aktivitäten zu jüngsten Klimaänderungen beigetragen haben

Allerdings gibt es in Wirklichkeit keinen wissenschaftlichen Konsens, wenn man ihn so definiert:

Also – warum ist man so besessen von einem 97%-Konsens? Meine Vermutung lautet, dass der Grund die Ermöglichung einer solchen Demagogie ist.

Link: http://wattsupwiththat.com/2015/03/18/anatomy-of-a-collapsing-climate-paradigm/

Übersetzt von Chris Frey EIKE




Klima – Monitoring

Von einer Veröffentlichung der sich daraus ergebenden Zahlenwerte wurde jedoch abgesehen, da diese suggerierten, dass der Klimawandel selbst in den ersten Jahren des 21. Jahrhunderts mit einer kontinuierlichen durchschnittlichen Erwärmungsrate von 0,015 K noch voll im Gange sei, was im Widerspruch zu der aktuellen Datenlage steht. Darüber verunsichert wandte sich der Verfasser an den DWD (Geschäftsbereich KU).

Dort gab man ihm den Rat, anstelle der 30-jährigen gleitenden globalen Temperaturmittel künftig im Einklang mit dem IPCC 10-jährige gleitende globale Temperaturmittel zu berechnen. Diese sind in der Tabelle aufgeführt.

                     

Dabei hatte sich jedoch eine kleine Komplikation ergeben, die darin bestand, dass die Fortschreibung des Zahlenwerkes über das Jahr 2013 hinaus nicht mehr möglich war, wenn man denn die Angaben der HadCrut4-, der GISS- und der NCDC-Reihen mittelte. Bei der erstgenannten Reihe wurde nämlich das Datenformat so radikal geändert, dass daraus die globalen Mitteltemperaturen nicht mehr direkt entnommen werden konnten. Es wurde deshalb eine Beschränkung auf die beiden US-Reihen der NASA und der NOAA vorgenommen. 

Wie man aus dem vorstehenden Zahlenwerk unschwer erkennen kann, ist der Klimawandel in den letzten Jahren fast zum Stillstand gekommen, was allerdings in der meteorologischen Wissenschaft hinlänglich bekannt ist.

Der im 20. Jahrhundert beobachtete Anstieg der globalen Mitteltemperatur von fast 1 K, der in der letzten Dekade des 20. Jahrhunderts ziemlich ausgeprägt war, kommt in diesen gleitenden Mittelwerten ebenfalls gut zum Ausdruck.

          Keine Korrelation zwischen Temperatur und CO2

Außerdem räumt dieses Zahlenwerk mit dem Irrglauben eines vermeintlichen Zusammenhangs zwischen dem Kohlendioxyd-Gehalt der Atmosphäre und der globalen Erwärmung gründlich auf.

Obwohl sich nämlich der jährliche Kohlendioxydeintrag in die Atmosphäre in den ersten 15 Jahren dieses Jahrhunderts gegenüber den in den letzten Jahren des vergangenen Jahrhunderts beobachteten Werten verdreifacht hat, wurde aktuell keine signifikante Änderung der bisherigen Gleichmäßigkeit der Zunahme des atmosphärischen CO2-Gehaltes beobachtet – geschweige denn eine diesem Tatbestand entsprechende Temperaturzunahme.

Abb. (eingefügt von der Redaktion): Vergleich Anstieg der fossil erzeugten CO2 Emissionen (oben) mit der CO2 Gesamtkonzentration unten.


Es erhebt sich deshalb die Frage nach dem Verbleib des vermehrt freigesetzten Kohlendioxyds. Diese Frage wird neuerdings von der Ozeanographie dahingehend beantwortet, dass das CO2 teilweise vom Ozean aufgenommen wird, wodurch die Meere zunehmend versauern.

Auch für die Frage nach der Ursache für die in den letzten Jahren ausgebliebene globale Erwärmung scheint es jetzt Antworten zu geben : 

Im DWD wurde nämlich erklärt, dass die in den Klimamodellen vorhergesagte Erwärmung gar nicht mehr für die Atmosphäre zur Verfügung stehe, sondern in tiefere Schichten des Ozeans abgeflossen sei. Dort wird man sie allerdings schwerlich nachweisen können.

Der Verfasser, der schon seit geraumer Zeit den anthropogen CO2-bedingten Klimawandel in Zweifel gezogen hatte, vertrat bisher die Meinung, dass die globale Erwärmung durch das ENSO-Phänomen moduliert werde. So hatte er in Anbetracht der sich im Jahr 2014 anbahnenden ENSO-Warmphase (El Nino) ein Ende der gegenwärtigen Erwärmungspause erwartet.

Allerdings zeigt sich der allmählich in den monatlichen Werten deutlich werdende Anstieg der globalen Mitteltemperatur im Jahr 2014 noch wenig überzeugend im 10-jährigen gleitenden globalen Mittel. Dies ist jedoch nicht verwunderlich, da bisher die in Gang gekommene ENSO-Warmphase nur sehr schwach ausgeprägt war.

Abgesehen davon war der Verfasser sehr erstaunt über das Verhalten des Hurrikans ANA im Oktober 2014. Dieser schwächte sich nach der Überquerung der geographischen Breite des Hawaii-Archipels zunächst auf seiner nach Norden gerichteten Zugbahn infolge abnehmender Wasser-Temperaturen zum tropischen Sturm ab, verstärkte sich aber in einem mehr als 1000 km nördlich von Hawaii gelegenen Seegebiet erneut kurzzeitig zum Hurrikan und wurde selbst auf dem 40. Breitengrad noch als tropischer Sturm geführt. Dieses Verhalten ist für tropische Wirbelstürme über dem mittleren Nordpazifik recht ungewöhnlich; es ist auf eine große Ausdehnung eines Gebietes mit erhöhten Wassertemperaturen über weiten Teilen des Nordpazifiks zurückzuführen. Der Verfasser konnte sich zunächst keinen rechten Reim daraus machen, denn er konnte keinen unmittelbaren Zusammenhang mit der sich anbahnenden ENSO-Warmphase erkennen.

                     Problem-Lösung: PDO und IPO

Der Schlüssel zur Lösung des Problems fand sich am 24. Februar 2015. An diesem Tag erschien in dem Blog des Direktors der privaten  Meteorologie-Firma Wunderground, Dr. Jeff Masters, ein Beitrag von Bob Henson zur Pazifischen Dekadischen Oszillation (PDO = Pacific Decadal Oscillation) und der Interdecadal Pacific Oscillation (IPO).

Dabei handelt es sich um Perioden von 10 oder mehr Jahren, in denen großflächig über dem Pazifik Areale mit positiven Wassertemperaturanomalien auftreten bei gleichzeitiger Häufung von starken ENSO-Warm-Phasen, denen entsprechende Zeitabschnitte mit Arealen großflächiger negativer Anomalien folgen, begleitet von nur schwach ausgeprägten ENSO-Warmphasen. Gerade sei eine solche Periode mit einer negativen Anomalie zu Ende gegangen. Deshalb werde sich nunmehr auch der bisher von der Atmosphäre zum Ozean gerichtete Wärmefluss umkehren, weshalb künftig wieder von einer verstärkt einsetzenden globalen Erwärmung auszugehen sei. Eine Erklärung für den Antrieb dieser Modulationen sei jedoch noch nicht gefunden worden.

Es bleibt abzuwarten, ob sich diese Erkenntnisse verifizieren lassen.

Jedenfalls weisen auch sie darauf hin, dass der Klimawandel nicht anthropogen bedingt sein kann und die Bemühungen der Weltgemeinschaft um einen “Klimaschutz“ der Lächerlichkeit preisgegeben sind.

Gegenwärtig hat es den Anschein, dass es in Politik und Gesellschaft weniger um das Klima geht, sondern vielmehr um die Verminderung des Kohlendioxydeintrags in die Atmosphäre. Dabei erhebt sich die Frage, wie diese Denkweise überwunden werden kann, also wer für den Transport der aktuellsten wissenschaftlichen Erkenntnisse in die Politik und in die Gesellschaft in Frage kommen kann. Dies könnten die 4 nachstehenden Player sein :

a) Einzelkämpfer    b) Verbände    c) Parteien   d) Lobbies

Wahrscheinlich läuft alles letzten Endes auf d) hinaus. Eine andere Frage ist dabei noch, ob Politik und Gesellschaft überhaupt willens – oder besser gesagt – fähig sind, sich diese Erkenntnisse anzueignen.

Nicht zuletzt einer verfehlten Bildungspolitik, bei der die heran wachsende Generation mit einer Vielzahl von Sachverhalten konfrontiert wird, die bereits im kindlichen und jugendlichen Alter zu Streß-Situationen führt, ist es zu verdanken, dass die Auseinandersetzung mit dem Stoff weitgehend auf der Strecke bleibt. Damit wird die Gesellschaft zur Manipulations-Masse erzogen. Die wenigen einsamen Rufer in der Wüste haben dann nur geringe Chancen, die Gesellschaft aus ihrer Lethargie und der damit einher gehenden Daten-Blindheit zu erlösen.

—————————————————————————————————————

)* Dr. Horst Walter Christ ist Vorsitzender des Verbandes Deutscher Meteorologen (VDM); Der vorstehende Aufsatz ist erschienen in den MITTEILUNGEN des VDM, Heft 197 (68. Jg.), 21.März 2015, S. 3-10 ;

Wir danken Dr. Christ und dem VDM für die Genehmigung des ungekürzten Nachdruckes;

EIKE-Redaktion.

===================================================




DAS EEG Wettbewerbswidrig – Verfassungswidrig – Europarechtswidrig ?

Aus der Fülle der im  Gutachten von den Autoren untersuchten allgemeinen Bestimmungen und auch Ausführungsbestimmungen des Gesetzes werden wir in diesem Beitrag nur einige wenige aufführen können. Zur besseren Trennung sind alle Originalzitate in kursiver Schrift gesetzt. Wer will, kann sich aber das 96 seitige Gutachten als pdf aus dem  Anhang herunterladen. 

Für den neutralen Beobachter bleibt die schockierende Frage unbeantwortet, warum sich bisher keine Partei, keine Organisation, kein Gremium und keine Firma gefunden hat, dieses Gesetz mit seinen immensen negativen Folgen für die Sicherheit unserer Stromversorgung bei gleichzeitig gewaltigen Lasten die den Verbrauchern aufgebürdet werden,  den zuständigen Gerichten zur Überprüfung in diesen Rechtskategorien vorzulegen. Das aber ist spätestens nach Vorlage dieser Gutachten überfällig.

Zusammenfassung aus dem Gutachten

> Mit der EEG-Umlage hat der Gesetzgeber eine öffentliche Abgabe sui generis geschaffen, jenseits des Finanzverfassungsrechts und der Rechtsprechung des Bundesverfassungsgerichts zur Zulässigkeit von Sonderabgaben. Private werden in Abhängigkeit zum politisch gewollten Finanzvolumen für Gemeinwohlbelange willkürlich belastet, versehen mit einer Anpassungsermächtigung  für die Bundesnetzagentur zur Sicherstellung eines kontinuierlichen Finanzflusses.

> Die EEG-Umlage greift in die Grundrechte der Letztverbraucher von Strom ein und verletzt die Artikel 14, 12 GG und subsidiär Art. 2 des GG. Die Begründetheit des Eingriffs scheitert jeweils an der Verhältnismäßigkeit der Maßnahme, da es mit Blick auf die Zielsetzung des EEG, mögliche Optionen, Alternativen und Umfang an der Geeignetheit, der Erforderlichkeit und der Angemessenheit fehlt. Das Ziel Klima- und Umweltschutz rechtfertigt nicht jedes Mittel unabhängig von seiner Tauglichkeit. Im Übrigen ist der Eingriff in Grundrechte mit einem verfassungswidrigen Mittel – der unzulässigen Sonderabgabe EEG-Umlage – verfassungswidrig.

> Das EEG verstößt gegen den Gleichheitsgrundsatz aus Art. 3 GG. Die Belastungsgleichheit aller Bürger wird aufgehoben und die Ungleichheit der Letztverbraucher durch die Aufstockung der EEG-Umlage für Nichtprivilegierte zur Finanzierung von Privilegien noch gefördert.

> Die Ausgleichszahlungen aus der EEG-Umlage sind eine unzulässige Beihilfe. Die seit 1.7.2014 geltende Rückwirkung der rechtsunverbindlichen Umweltbeihilfeleitlinien und die Anpassung des EEG 2014 an EU Vorgaben ändert nichts an der fehlenden Notifizierung für das EEG 2012

– außer die de facto Akzeptanz der Beihilfeeigenschaft der Ausgleichs- und Fördermaßnahmen aus der Umlage.

> Das EEG hat auf dem nationalen Markt und dem Binnenmarkt eine wettbewerbsverzerrende Wirkung durch zahlreiche Förder- und Ausgleichsregelungen. Die Wettbewerbssituation nicht-privilegierter Letztverbraucher im Verhältnis zu Zuwendungsempfängern aus der EEG-Umlage auf horizontaler und vertikaler Marktebene kann und wird durch das EEG nicht berücksichtigt und gestattet Wettbewerbsvorteile durch Größe. 

Zum Gutachten im Einzelnen und seinen Ergebnissen

Auf den ersten Seiten der Gutachten werden die verwendeten Begriffe definiert und die Aufgabenstellung bezogen auf die jeweiligen Rechtsgebiete detaillierter beschrieben.  Die Ausgangslage wird sehr detailliert beschreiben, damit jeder Leser später dieselben Zahlen und Begrifflichkeiten nutzen muss. Danach wird schon die erste Schlussfolgerung gezogen (S7)

Die EEG-Umlage hat eine Finanzierungsfunktion mit Förderungs- und Ausgleichscharakter.

Im folgenden wird dann von den Autoren eine Typisierung der Umlage – ob Beitrag, Gebühr, Steuer oder Sonderabgabe vorgenommen und die gesetzlichen Bestimmungen und Definition für ihre sichere  Zuordnung benannt. Doch aufgrund der vielfältigen Mischformen bezogen auf die Typen oben, ist ihnen eine eindeutige Zuordnung oft nicht möglich. Deshalb wird schon auf S 14 der Verdacht formuliert:

Die EEG-Umlage könnte schon unter finanzverfassungsrechtlichen Aspekten unwirksam sein.

Diesem Verdacht wird mit Blick auf unsere Finanzverfassung  nach  Art. 104 A FF. GG nachgegangen. Z.B unter Prüfung nach folgenden Gesichtspunkten:

♦        „Die Finanzverfassung des Grundgesetzes geht davon aus, daß Gemeinlasten aus Steuern finanziert werden.“28

        Eine wesentliche Ausprägung rechtsstaatlicher Demokratie ist der fundamentale Grundsatz der Gleichheit der Bürger bei der Auferlegung öffentlicher Lasten i.S.v. Art. 3 GG.44Steuergerechtigkeit soll die Belastungsgleichheit aller Bürger gewährleisten.

       Die Erhebung einer Sonderabgabe steht im Gegensatz zu dem oben genannten Ziel der Belastungsgleichheit, sie wird nicht allen, sondern nur wenigen auferlegt. Aus diesem Grund bedarf es einer besonderen Begründung, warum die Gleichheit aller Bürger in diesem konkreten Belastungsfall aufgehoben werden kann. Es muss ein Abgrenzungskriterium zwischen Belasteten und Nicht-Belasteten geben, eine spezifische Interessenlage, die keine Gemeinschaftsaufgabe aller ist.

        

Um dann zum Schluss nach vielen Seiten des Abwägens von Pro und Kontra auf S 28 festzustellen:

Die EEG-Umlage ist eine öffentliche Abgabe mit wirtschaftslenkender Funktion

Und dann weiter (S 30)

Das EEG-Umlage Konto ist ein quasi-staatlicher Fonds, die EEG-Umlage eine öffentliche Abgabe

Als öffentliche Abgabe, für die nicht die Grundsätze der Finanzverfassung nach Art 104a ff. GG gilt, ist ihre Zulässigkeit an den Anforderungen an eine Sonderabgabe zu messen.

Um dann die nächste Frage zu beantworten

Ist die EEG-Umlage eine zulässige Form der Preisfestsetzung?

Die dann wie folgt festgestellt wird:

Preisfestsetzungen fallen jedoch unter das Kartellverbot aus Art. 101 AEUV i.V.m. § 22 GWB.8182 Danach ist die unmittelbare oder mittelbare Festsetzung der Ankaufs- und Verkaufspreise oder sonstiger Geschäftsbedingungen verboten. Eine Ausnahmeregelung durch eine anwendbare Gruppenfreistellungsverordnung ist ebenfalls ausgeschlossen, da derartige Handelshindernisse unter die sogenannten „Schwarzen Klausel“ als absolute Verbote fallen.83

Mit anderen Worten, im Lichte von Art. 20 III GG hat sich der Gesetzgeber an Recht und Gesetz zu halten und ist eine Preisfestsetzung kartellrechtlich unmöglich. Auch mangelt es an der gegenseitigen vertraglichen Verpflichtung i.S.v. § 145 ff. BGB als weiteres Tatbestandmerkmal. Die EEG-Umlage wird hoheitlich veranlasst und bestimmt…

und später mit klaren Worten weiter:

Es handelt sich um einen Formenmissbrauch zur Refinanzierung gesetzlich gewollter Ziele.84 Die EEG- Umlage wird nicht zur Preisfestsetzung, nur weil der Gesetzgeber das Etikett Preisfestsetzung auf die EEG-Umlage klebt. Die EEG-Umlage ist keine Preisfestsetzungsform, sie hat ausschließlich eine Ausgleichs- und Förderungsfunktion ohne die Eigenschaften eines Preises. In diesem Sinne ist die Umlage nicht gerechtfertigt und das LG Chemnitz stellt zu vorschnell fest, es handele sich um eine zulässige Preisfestsetzung.

Und weiter unten (S 32) die Feststellung:

Die Gelder der EEG-Umlage sind staatliche Mittel, damit ist ihre Erhebung eine öffentliche Abgabe.

Um dann als Zwischenergebnis zu benennen

Zwischenergebnis (S 32)

Wenn die EEG-Umlage keine öffentliche Abgabe wäre und damit auch nicht den Anforderungen an eine Sonderabgabe genügen müsste, dann hätte der Gesetzgeber eine Abgabe sui generis geschaffen, mit der er willkürlich – unabhängig von Finanzverfassung und Rechtsprechung – Gemeinwohlaufgaben finanzieren könnte. Er hätte erfolgreich, aber entgegen der Rechtsprechung des BVerfG, eine formale Eigenschaft – wie die nicht gegebene Haushaltswirksamkeit – zu nutzen versucht, um einen unzulässigen materiellen Spielraum zu gewinnen, der die Belastungsgleichheit aller Bürger in einem Rechtsstaat preisgibt entgegen der Rechtsauffassung des BVerfG.91

Um dann festzustellen

Übertragen auf die EEG-Umlage ist zu folgern, dass die Bezeichnung und Organisation der EEG-Umlage nichts über ihre Qualifizierung aussagt, sondern allein die materielle Ausgestaltung sie zu einer öffentlich-rechtlichen Abgabe macht.94

Dann gehen die Autoren mit gleicher Akribie der Frage nach:

IST DIE EEG-UMLAGE EINE ZULÄSSIGE SONDERABGABE?

Und kommen zu der Schlussfolgerung (S 35) zu gelangen

Die Zwecke des EEG sind als Gemeinwohlbelange durch eine Steuer zu finanzieren. Die EEG-Umlage ist aber keine Steuer sondern eine Sonderabgabe. Somit ist diese Finanzierungsform nicht zulässig. 

Auch die Prüfung des nächsten Kriteriums nämlich der „Belastung einer homogenen Gruppe“ wird nach ausführlicher Prüfung negativ beantwortet. S 36

Die EEG-Umlage ist auch mangels Belastung einer homogenen Gruppe nicht zulässig.

Um dann für das gesamte Kapitel 2 zur Prüfung der Finanzverfassungsmäßigkeit das Ergebnis wie folgt zu formulieren

ERGEBNIS

Die EEG-Umlage ist als öffentliche Abgabe zur Sicherstellung einer öffentlichen Aufgabenerfüllung eine unzulässige Sonderabgabe und damit verfassungswidrig, daran ändert auch das Urteil des BGH vom 25. Juni 2014109 zur EEG-Umlage nichts, wenn entsprechend dem Revisionsverfahren die Feststellungen der Tatsacheninstanzen einfach übernommen werden. Die Bemühungen des Gesetzgebers, die Umlage um den Tatbestand der Sonderabgabe herum zu konstruieren, ändern nichts an ihrer Typisierung als Sonderabgabe und den damit verbundenen engen kompetenzrechtlichen Grenzen, die nicht erfüllt sind.

„… es ist dem Gesetzgeber verfassungsrechtlich versagt, eine öffentliche Aufgabe nach seiner Wahl im Wege der Besteuerung oder durch Erhebung einer „parafiskalischen“ Sonderabgabe zu finanzieren.“110 

Dann nehmen sich die Autoren die Prüfung Vereinbarkeit der EEG-Umlage mit den Grundrechten der Letztverbraucher (Kap. 3) vor. Um auf S 56 nach ausführlicher Würdigung alle Umstände zu dem Ergebnis zu gelangen

ERGEBNIS

Die EEG-Umlage ist ein unzulässiger Eingriff die die Grundrechte aus Art. 14, 12, 2 und 3 GG.

Die Rechtfertigung eines Eingriffs in diese Grundrechte scheitert bereits an der Ziel- und Zweckverfehlung des Eingriffs durch Erhebung und Verteilung der EEG-Umlage. Die pauschale Rechtfertigungshaltung der bisher in der Sache tätigen Gerichte ist angesichts der tatsächlichen Sachlage unverständlich.

Genauso sieht die Beantwortung der Frage (S 57) im Kapitel 4 nach der Vereinbarkeit des EEG mit Art. 107 /AEUV Verbot einer unzulässigen Beihilfe aus

Auch hier kommen die Autoren zu dem Ergebnis: 

Abstrahiert man die Frage der Technologieneutralität bei der Förderung von Anlagen zur Produktion von EE, dann erfüllen die Privilegierungen im EEG für stromintensive Unternehmen den Tatbestand einer Beihilfe nach Art. 107 I AEUV, die Förderung der EE-Anlagenbetreiber jedoch nicht.

Bei der Förderung der EE-Anlagenbetreiber fehlt es an der Begünstigung durch die staatlichen Hilfen in Form von Entgelten, Marktprämie oder Flexibilitätsprämie. Die Besondere Ausgleichregelung erfüllt dagegen alle Kriterien: Es werden durch staatliche Mittel besondere Unternehmen oder Produktionszweige begünstigt, so dass eine Wettbewerbsverfälschung auf dem Binnenmarkt droht. Die Besondere Ausgleichsregelung gem. §§ 40 ff. 2012 und §§ 60 ff. EEG 2014 ist daher eine Beihilfe i.S.v. Art. 107 I AEUV.

Und kommen nach weiterer Prüfung von evtl. Ausnahmeregelungen zu dem Schluss

Die Besondere Ausgleichsregelung für stromintensive Unternehmen ist eine unzulässige Beihilfe gem. Art. 107 I AEUV. Die Ausgleichszahlungen an die Anlagenbetreiber von EE sind keine unzulässige Beihilfe gem. Art. 108 III AEUV wegen Verletzung der Notifizierungspflicht. Die Ausgleichzahlungen sind nicht notifizierungspflichtig, sie erfüllen das Tatbestandsmerkmal Begünstigung i.S.v. Art. 107 I AEUV nicht und sind allein aus diesem Grund keine Beihilfe.

Der Beschluss der EU-Kommission vom 23.Juli 2014 zum EEG 2014 ändert an diesen Feststellungen nichts. Verfahrensrechtlich liegt mit dem erfolgten Notifizierungsverfahren für das EEG 2014 eine zulässige Beihilfe vor, materiell jedoch nicht. Die Umweltbeihilfeleitlinien der EU-Kommission als inhaltliche (selbstentworfene) Orientierungshilfe im Notifizierungsverfahren sind politisch, nicht jedoch sachlich und primärechtskonform geprägt. Entsprechend ist die materielle Seite des EEG 2014 durch die Kommission beurteilt worden und macht aus demselben nicht eine zulässige Beihilfe im Lichte des Primärrechts.

Ergänzend ist festzustellen:

Beihilferechtlich sind die verminderte EEG-Umlage für stromintensive Unternehmen und Eigenversorger nicht vergleichbar.

Um dann abschließend seitens der Autoren festzuhalten

Wurde das Beihilfeverfahren gegen Deutschland und das EEG 2012 eingestellt, würde sich die EU-Kommission europarechtswidrig verhalten und das Primärrecht brechen. Künftige Beihilfeverfahren wären der Lächerlichkeit preisgegeben, wenn man sie vergleichbaren Bedingungen folgen lassen würde:

>      Hohe staatliche Beihilfen

>      ohne Meldung an die Kommission

>      über einen längeren Zeitraum gewähren.

„To big to fail“ oder Systemrelevanz wären die zentralen Motive zur Umgehung des Beihilferegimes.

Vergessen würde nur der Zweck der europäischen Beihilferegelung, nämlich die Verhinderung von Wettbewerbsverzerrungen auf dem Binnenmarkt durch staatliche Hilfen. Eine Einstellung des Beihilfeverfahrens gegen Deutschland aufgrund des jetzt gefundenen Kompromisses für die EEGReform wurde eine entscheidende Säule des europäischen Wirtschaftsraumes wegsprengen und europaweiter Beihilfewillkür die Tür öffnen.

Auch bei der Prüfung der Vereinbarkeit des EEG mit dem Wettbewerbsrecht (ab S 81) kommen die Autoren zu einer negativen Feststellung , diese lautet z.B unter Rechtsfolgen (S 90)

RECHTSFOLGEN

Gegen das Kartellverbot verstoßende Vereinbarungen und Beschlüsse sind nach Art. 101 II AEUV grundsätzlich nichtig.297 Die Besondere Ausgleichsregelung verstößt gegen das Kartellrecht auf dem nationalen Markt und dem Binnenmarkt. Die Besondere Ausgleichsregelung ist wettbewerbswidrig und begünstigt Größen abhängig Bestandsanlagen jenseits von Verursacherprinzip und Klimazielen.

Das Gleiche gilt auch für die Förderung von Anlagenbetreibern. Die Festlegung von Anlagen, Förderbeträgen und Degression der Fördersätze ist statisch und technologiefixiert. Wettbewerbsverzerrungen entstehen zwischen Energieträgern, Anlagenherstellern, Anlagenbetreibern und Energievermarktern. Zusätzlich wird eine hohe Markteintrittsschranke zum EE Markt errichtet, die zwingend innovationsfeindlich wirken muss.

Um dann auf Seite 91 alle Ergebnisse zusammenfassend festzustellen: :

> Mit der EEG-Umlage hat der Gesetzgeber eine öffentliche Abgabe sui generis geschaffen, jenseits des Finanzverfassungsrechts und der Rechtsprechung des Bundesverfassungsgerichts zur Zulässigkeit von Sonderabgaben. Private werden in Abhängigkeit zum politisch gewollten Finanzvolumen für Gemeinwohlbelange willkürlich belastet, versehen mit einer Anpassungsermächtigung  für die Bundesnetzagentur zur Sicherstellung eines kontinuierlichen Finanzflusses.

> Die EEG-Umlage greift in die Grundrechte der Letztverbraucher von Strom ein und verletzt die Artikel 14, 12 GG und subsidiär Art. 2 des GG. Die Begründetheit des Eingriffs scheitert jeweils an der Verhältnismäßigkeit der Maßnahme, da es mit Blick auf die Zielsetzung des EEG, mögliche Optionen, Alternativen und Umfang an der Geeignetheit, der Erforderlichkeit und der Angemessenheit fehlt. Das Ziel Klima- und Umweltschutz rechtfertigt nicht jedes Mittel unabhängig von seiner Tauglichkeit. Im Übrigen ist der Eingriff in Grundrechte mit einem verfassungswidrigen Mittel – der unzulässigen Sonderabgabe EEG-Umlage – verfassungswidrig.

> Das EEG verstößt gegen den Gleichheitsgrundsatz aus Art. 3 GG. Die Belastungsgleichheit aller Bürger wird aufgehoben und die Ungleichheit der Letztverbraucher durch die Aufstockung der EEG-Umlage für Nichtprivilegierte zur Finanzierung von Privilegien noch gefördert.

> Die Ausgleichszahlungen aus der EEG-Umlage sind eine unzulässige Beihilfe. Die seit 1.7.2014 geltende Rückwirkung der rechtsunverbindlichen Umweltbeihilfeleitlinien und die Anpassung des EEG 2014 an EU Vorgaben ändert nichts an der fehlenden Notifizierung für das EEG 2012 außer die de facto Akzeptanz der Beihilfeeigenschaft der Ausgleichs- und Fördermaßnahmen aus der Umlage.

> Das EEG hat auf dem nationalen Markt und dem Binnenmarkt eine wettbewerbsverzerrende Wirkung durch zahlreiche Förder- und Ausgleichsregelungen. Die Wettbewerbssituation nicht-privilegierter Letztverbraucher im Verhältnis zu Zuwendungsempfängern aus der EEG-Umlage auf horizontaler und vertikaler Marktebene kann und wird durch das EEG nicht berücksichtigt und gestattet Wettbewerbsvorteile durch Größe.

> Das EEG verstößt gegen die eigene Zielsetzung, in dem elementare Prinzipien der Umweltpolitik außer Kraft gesetzt werden: Verursacherprinzip, Anreizfunktion, Technologieneutralität, Innovationsförderung.

Dem ist eigentlich nichts mehr hinzufügen. Es fehlt nun nur noch eine schlagkräftige Institution, die diese Ausführungen aufgreift und an den entsprechenden Stellen Klage einreicht. Der Dank von vielen, vielen Bürgern dieser und zukünftiger Generationen wäre ihr gewiss.

Related Files




Sonnenfinsternis: Was haben Mister Spock und Agora Energiewende gemeinsam?

Wie macht man das? Ganz einfach, man kauft beizeiten, planbar bereitstellbare Elektroenergie aus den bekannt immer zuverlässig fossil betriebenen, aber medial verteufelten, Kraftwerken und erwartet den geplanten Einbruch der Solarenergie. Um ganz sicher zu gehen, werden große Stromverbraucher – wieder gegen teures Entgelt- aufgefordert (gezwungen) ihre Produktion für genau bestimmte Zeiten und Dauern stillzulegen. Die wichtigste Feststellung wurde jedoch öffentlich nicht diskutiert. Nämlich- dass wir ohne die unzuverlässige und extrem teure und damit völlig nutzlose Solarstromeinspeisung- die Sonnenfinsternis nur als gewohnt kosmisches Spektakel hätten zur Kenntnis nehmen dürfen. Die jetzt bewältigten geringen Probleme wären– dank präziser Planbarkeit- ohne sie gar nicht erst aufgetreten. Unser Autor Rolf Schuster hat sich die wahren Verhältnisse trotzdem näher angeschaut.

Von Rolf Schuster

Dieser Tage wurde wieder eine mediale Sau, ausgelöst durch eine Pressemeldung von Agora Energiewende.

Am 16.03.2015 veröffentlichte Agora Energiewende folgende Pressemeldung:

Studie: Das Stromsystem muss mit Situationen, wie sie am 20. März nur ausnahmsweise auftreten können, in 15 Jahren regelmäßig zurechtkommen

……………..

Die Sonnenfinsternis lässt sich bewältigen, weil sich die Stromnetzbetreiber frühzeitig vertraglich mit schnell zu- und abregelbarer Stromerzeugung ausgestattet haben. „Wenn das heutige, vergleichsweise inflexible Stromsystem die Sonnenfinsternis meistert, dann wird das Stromsystem des Jahres 2030 mit vergleichbaren Situationen spielend zurechtkommen“, sagt Graichen. „Denn im Rahmen der Energiewende muss das Stromsystem ohnehin deutlicher flexibler werden.“

……………….

http://www.agora-energiewende.de/presse/pressemitteilungen/detailansicht/article/sonnenfinsternis-liefert-vorgeschmack-auf-2030-1/

Auf diese Mitteilung sah sich unsere Medienlandschaft genötigt, folgende Botschaften unter das geneigte Volk zu streuen.

Tagesschau

Sonnenfinsternis und die Stromnetze Je schlechter das Wetter, desto besser

Bei der partiellen Sonnenfinsternis morgen werden in Deutschland bis zu 80 Prozent der Sonne durch den Mond abgedeckt sein. Genau das könnte das Stromnetz ins Wanken bringen. Eine entscheidende Rolle spielt das Wetter. Doch warum?

Die Welt:

Sonnenfinsternis beamt Stromnetze ins Jahr 2030

Wenn sich am Freitag die Sonne verdunkelt, bricht die Solarstrom-Versorgung ein. Es ist, als ob 15 Kraftwerke abgeschaltet werden. Ein absoluter Extremfall – und eine Generalprobe für die Zukunft.

FAZ

Blackout durch Sonnenfinsternis?

Die Sonnenfinsternis am 20. März wird für die Stromnetzbetreiber zur Herausforderung, denn es kann zu enormen Netzschwankungen kommen.

usw. usw

Hier werde ich versuchen, nachzubilden, was tatsächlich geschah.

Bild 1 zeigt den viertelstündigen Verlauf der Einspeisung von Wind und Solarenergie. Für den Zeitraum zwischen 9:30Uhr und 10:30 zeigt sich ein negativer Gradient  von -6.121 MW.  Ab 10:30 Uhr bis 12:00 Uhr ergab sich ein positiver Gradient von beachtlichen 13.759 MW

 

Bild 1: Verlauf der Einspeiseleistung Solar am 20.03.2015

Vergleicht man die Solareinspeisung im Kontext mit der Netzlast des Tages, zeigt die braune Fläche, dass diese Schwankung der Solarenergie, locker von den fossilen und Kernkraftwerken kompensiert wurde.

Die Windenergie stellt für diesen Zeitraum im Prinzip einen Totalausfall der ca. 25.000 Windkraftanlagen dar.

Bild 2 Verlauf der Last, sowie der Einspeisung von Wind.- und Solarenergie

Aus diesem Grunde werden die folgenden Tage im noch jungen Jahr 2015 ausgewählt. Diese Tage zeigen, dass hier von Agora wieder mal aus einem Furz, einen Donnerschlag produziert wurde.

Anmerkung: Da zur Zeit EEX die Netzbetreiber und Entso-E ihre veröffentlichten Daten neu strukturieren, werden die Daten der Last(Load), ab März als Viertelstundenwerte dargestellt.

Für mich stellt sich die Frage, welchem Streßtest wird unsere elektrische Energieversorgung im Alltag unterzogen?

 

Bild 3  ausgewählte Tage im Jahr 2015 

Errechnetet man die stündliche Veränderung der Einspeisung von Wind und Solarenergie (rote Säule) und die Veränderung  der Last (braune Säule), sowie die Addition  von Wind Solar + Last (blaue Fäche), ergibt sich

folgendes Bild:

Bild 4: Veränderung  von Einspeisung Wind + Solarenergie  und Last, sowie Addition der selben

Fazit:

Ich kann nicht erkennen, was für ein außergewöhnliches Ereignis für das deutsche Stromnetz stattgefunden hat.

Viel interessanter wäre es gewesen, wie das deutsche Netz ohne die verlässlichen, aber medial verteufelten

fossilen und Kernkraftwerke reagiert hätte, da der Wind einen Totalausfall war.

Herr Wetzel von der Welt konstatierte, dass das deutsche Stromnetz in das Jahr 2030 gebeamt wurde.

Vielleicht hätte man das Team von Agora Energiewende in das Jahr 2030 beamen müssen. 

Dies hätte mir sicherlich einen entspannten Fernsehabend an diesem Samstag ermöglicht.

In diesem Sinne:

Rolf Schuster

 

 

 

 

 

 

 

 




Neue Studie zur CO2 Konzentration: Anthropogener Anteil irgendwo zwischen 0 und max 30 % -Vortrag von Prof. Murry Salby am 13.3.15 in Essen

Zur Zeit stellt er sich in Australien einem „Tribunal“, das die Vorwürfe gegen ihn aufklären soll. Vorwürfe, die sich auf Forschungs-Budget-Vorgänge beziehen, die Jahrzehnte zurück liegen. 

Abb. 1: Verlauf der Änderung der gesamten globalen CO2 Konzentration pro Jahr (grün) und der allein von den Oberflächen-Eigenschaften (dominante Teile Temperatur + Feuchtigkeit)  induzierten Änderung der CO2 Konzentration (blau). Korrelationskoeffizient 0,93. Im Unterschied zur natürlichen CO2 Emissionen die von den „Oberflächeneigenschaften“ abhängen, tun das die anthropogen Emissionen nicht. Grafik M.Salby 

Was war das Vergehen des Murry  Salby? Nun, Salby wies  methodisch streng und ebenso theoretisch wie durch Beobachtungen gestützt und deshalb sehr gut begründet nach, dass (zu fast 80 % [1]) die Temperatur die CO2 Emissionen, wie auch die  Konzentration des CO2 in der Atmosphäre antreibt. Nicht umgekehrt. Die restlichen 20 % werden in der Hauptsache durch die Feuchtigkeit angetrieben. Beide zusammen wirken auf die Biosphäre und die anderen Quellen und Senken des CO2 Kreislaufs ein. Ein weiterer wesentlicher Aspekt dieser Ergebnisse ist, dass die Verweilzeit zusätzlich eingebrachten CO2 –also auch des anthropogen erzeugten- in der Atmosphäre bei ca. 4-7 Jahren liegt. Das IPCC geht zwar von mehreren 100 Jahren aus und begründet damit, wegen der Langzeitwirkung, u.a. die Forderung nach sofortigem Stop aller anthropogenen CO2 Emissionen,  belegt aber durch die eigenen Angaben, dass die Berechnungen von Salby (und anderen z. B. O. Humlum) stimmen und nicht die Behauptung des IPCC- (Abb 2) Dass das Global Carbon Budget Project zu völlig anderen Ergebnissen kommt, zeigt, dass die Forschung auch zu diesem wichtigen Aspekt zum Treiber der Temperatur noch lange nicht "settled" ist.

Abb. 2: Angaben des IPCC zum Kohlenstoffkreislauf in Gt C/Jahr. Setzt man die angegebenen Werte korrekt zueinander in Beziehung ergibt sich eine Verweilzeit von 4,1 Jahr, nicht von hunderten Jahren. (Abb. 3) Bild IPCC V Bericht

Abb. 3: Angaben des IPCC Bern Modell mit Verweilzeiten von hunderten von Jahren (rot), vs. Beobachtungen (grün) und math. Funktion des Verlaufs. (blau). Grafik Salby

Nach diesen doch sehr neuen und wichtigen Ergebnissen wandte sich Salby in seinem Vortrag der Frage zu, wie hoch denn der anthropogen induzierte Anteil am CO2 der Atmosphäre sei und wie er evtl. bestimmt werden könne. Dieser Teil des Vortrags war sehr umfangreich und sehr theoretisch, jedoch immer ausgehend von den tatsächlichen Beobachtungen. Die erste davon bezieht sich auf die Tatsache, dass die anthropogenen CO2 Emissionen seit dem Jahr 2002 um satte 350 % schneller angestiegen sind als in den Jahren zuvor. Spötter würden sagen, das dies wohl eine ungewollte Nebenwirkung des Kyoto Protokolls, und ein schlechtes Menetekel für die kommende Klimakonferenz in Paris ist. Doch, und das ist die Pointe, der Anstieg der atmosphärischen Gesamt-CO2 Konzentration blieb im selben Zeitraum, vorher wie nachher mit 2,1 ppm/year konstant. Allein das ist lt. Salby ein starker Hinweis darauf, dass die anthropogene Emission keinen wesentlichen oder gar dominierenden Anteil haben können.

Abb. 4: Vergleich Anstieg der fossil erzeugten CO2 Emissionen (oben) mit der CO2 Gesamtkonzentration unten.

Diese beiden Entwicklungen untersuchte er nun anhand der bekannten Isotopenmischungsverhältnisse, sowie anderer Parameter und kam zur Feststellung, das man anhand der vorhandenen Daten und Methoden nur ermitteln könne, wo derzeit die Obergrenze des anthropogen erzeugten CO2 an der Gesamtkonzentration liegen könnte. Und diese Obergrenze bestimmter er anhand komplizierter Berechnungen, durch die er aber das Publikum Schritt für Schritt führte, mit max. 30 %.

Seine Schlussfolgerung daraus: Wegen des Sättigungseffektes bei der Energieaufnahme der CO2 Moleküle bei steigender Konzentration und der kurzen Verweilzeit könne die weitere Steigerung der Temperatur  -folgte  man überhaupt der Treibhaushypothese- deshalb nur bei maximal wenigen Zehntel Grad liegen, wenn überhaupt. Jedoch wären die bekannten fossilen Vorräte bis dahin bereits erschöpft.

Es bleibt abzuwarten, ob diese neuen Erkenntnisse die Anerkennung der weiteren Fachwelt finden. Anlass zu heftiger und bestimmt auch sehr kontroverser Diskussion geben sie sicher.

Bleibt zu ergänzen und dies war sein letzter Hinweis, dass die anthropogenen CO2 Emissionen fast 1:1 mit der Entwicklung der Weltbevölkerung  korrelieren (Abb. 5).

Abb. 5: Entwicklung der Weltbevölkerung  und der CO2 Emissionen aus fossilen Brennstoffen. Grafik Salby

Unausgesprochen  blieb die Konsequenz daraus, dass ohne allgemeine Verfügbarkeit von billigen Alternativen zu den fossilen Energieträgern, wie Sie derzeit evtl. nur die durch die Kernenergie bereitgestellt werden kann, die allseits geforderte Absenkung der fossilen CO2 Emissionen zu einer drastischen Verringerung des Lebensstandards führen muss. Und diese würde insbesondere in den ärmeren Ländern zu einer massiven Erhöhung der Sterberate führen müssen. Der eine oder andere Zuhörer fühlte sich dabei vielleicht an die Worte des hochberühmten Naturschützers und Tauchers Jaques Yves Cousteau erinnert, der 1991 in einer offiziellen UNO Broschüre vorschlagen durfte : "Um den Planeten zu stabilisieren müssen wir 350.000 Menschen täglich eliminieren. Es ist schrecklich das zu sagen, aber genauso schrecklich es nicht zu sagen," Jacques Cousteau, im UNESCO Courier, Nov. 1991.


[1] Für die Puristen unter unseren Lesern: Salby  bestimmt den Korrelationskoeffizienten der Nettoemissionen = dem Anstieg der CO2 Konzentration für die Temperatur, mit knapp 0,8 und  den zusammen mit der Feuchtigkeit auf 0,93.




Das gut versteckte Todesurteil Grüner Energie-Kannibalismus: KWK als erstes Opfer?

Die nicht heilbare Erbkrankheit der „Energiewende“ liegt in der Unmöglichkeit, elektrische Energie in nennenswerten Mengen zu speichern. Wind und Sonne als Hauptlieferanten elektrischer Energie würden nur Sinn machen, wenn man den ständigen chaotischen Wechsel von Überproduktion und Mangel durch gigantische Speicher ausgleichen könnte. Doch die einzige hierfür real nutzbare Technologie, die Pumpspeichertechnik, hat viel zu geringe Kapazitäten, um die Größenordnungen zu bewältigen, die für eine umfassende Umstellung unserer Energieversorgung erforderlich wären. Und zusätzliche Kapazitäten sind weder in Deutschland noch in den Nachbarländern in ausreichendem Maße verfügbar. In der Schweiz beispielsweise werden wegen der deutschen Energiewende bereits geplante Speicherkraftwerksprojekte eingestampft. Und diejenigen, die von Norwegens Wasserkraft als „Batterie der Energiewende“ träumen, sollten sich zunächst einmal die Realitäten ansehen. Norwegen hat momentan so gut wie keine Pumpspeicherkapazitäten und könnte selbst bei maximalem Ausbau nur Bruchteile dessen bereitstellen, was eigentlich benötigt würde. Alle anderen Speichertechnologien, die heute von grüner Seite propagiert werden – Batterien, Power to Gas oder Druckluftspeicherung – halten einer ernsthaften Überprüfung unter technischen ebenso wie unter kaufmännischen Aspekten schlicht nicht stand. Das Gerede von „Verbrauch folgt Produktion“ und „Smart Metern“ ist angesichts der Realitäten einer modernen Industrienation nichts weiter als Dummenfang. Oder soll es in Deutschland demnächst so zugehen?: „Sorry, mit Ihrer Operation müssen wir warten, bis der Wind wieder weht, halten Sie solange durch“, „Feierabend, nächste Woche produzieren wir weiter“, „Duschen bitte erst heute abend, oder morgen, oder übermorgen, oder…“

Bild rechts: Rund 1,2 Mrd. € hat das Großkraftwerk Mannheim soeben erst in sein neues, hochmodernes Kraft-Wärme-Kopplungskraftwerk investiert

Die Kraft-Wärme-Kopplung ist das erste Opfer

Angesichts der immer weiter aufgeblähten sinnlosen Überkapazitäten blüht den Anlagenbetreibern daher ein erbitterter Kampf um den Strommarkt, sobald die Launen der Natur und des Wettergottes dazu führen, dass mehr Strom produziert wird, als die Verbraucher überhaupt abnehmen können. Dieser Kampf hat jetzt offensichtlich ein erstes Opfer gefordert: Die Kraft-Wärme-Kopplung (KWK), die in vielen Industriebetrieben und sogar manchen Mietwohnblocks durchaus sinnvoll genutzt wird. Moderne KWK-Kraftwerke wie der neue Block 9 des Großkraftwerks Mannheim erreichen dank der doppelten Nutzung der Heizleistung fossiler Energieträger durch Stromproduktion und zusätzlicher Nutzung der Restwärme Gesamtnutzungsgrade von bis zu 70 %. Deshalb wurde die Technologie bisher im Rahmen des Kraft-Wärme-Kopplungsgesetzes gefördert. Bisher verkündetes Ziel der Energiepolitik der Bundesregierung war ein KWK-Anteil an der Stromversorgung von 25 % bis 2020 [WIKI].

Doch wer in dem Glauben, man könne sich auf solche Zusicherungen deutscher Politiker verlassen, sein Geld in solche Projekte investiert hatte, dem dürfte in nächster Zeit ein ähnlich harter Aufschlag auf dem Boden einer unerwünscht harten Realität blühen wie der deutschen Stromwirtschaft, der man 2011 einfach aus politischer Opportunität heraus die genehmigten Kernkraftwerke abschaltete. Dabei kümmerte es die Politik nicht im Geringsten, dass man erst kurz vorher eine Laufzeitverlängerung beschlossen hatte. Die Brennelementesteuer, die man der Branche im Gegenzug abgepresst hatte, wurde allerdings nicht zurückgezahlt.

Schmierentheater

Mit der gleichen Unverfrorenheit scheint sich die deutsche Regierung jetzt daranzumachen, die gegenüber den Betreibern von KWK-Anlagen abgegebenen Zusicherungen fallenzulassen. Gegenüber der Öffentlichkeit versteckt man das Ganze geschickt hinter ganz anderen Meldungen im Zusammenhang mit den angeblichen „Klimazielen“. Wie das gemacht wird, zeigt eine Meldung im „Spiegel Online“ vom 20.3.2015 [SPON]. Unter dem Titel „Klimaschutz: Gabriel will neue Abgabe für alte Kohle-Meiler einführen“ wird dort zunächst des Langen und des Breiten über die Einführung einer neuen Sonderabgabe auf den CO2-Ausstoß älterer Kohlekraftwerke berichtet. Es folgt eine genüssliche Aufzählung der Kontroversen, die das Ganze ausgelöst hat. Da ist von „tobenden“ Unionspolitikern die Rede, von vorsichtiger Zustimmung des WWF, von einer „perfiden Mogelpackung“ (Greenpeace) und einem skeptischen Fraktionsvize der Grünen. Und ganz versteckt, nur in einem einzigen Satz, wird so eher nebenher erwähnt, dass die Regierung das erklärte Ausbauziel im KWK-Bereich aufgeben wolle. Damit wird Milliardeninvestitionen der Industrie – allein das Großkraftwerk Mannheim hat rund 1,2 Mrd. € in seinen neuen Block 9 gesteckt – die Kalkulationsgrundlage entzogen.

Typisch ist bei dieser Vorgehensweise, wie geschickt man solche Dinge mit anderen vermengt und zudem durch das Timing dafür sorgt, dass es möglichst nicht zu sehr ins Licht der Öffentlichkeit gerückt wird. So erschien die SPON-Meldung am 20,3, um Mitternacht – genauer gesagt um 00.02 Uhr –, und sie wurde ganz am Schluss einer Meldung eingeflochten, die ganz andere Themen in den Vordergrund rückte. Zudem war die Aufmerksamkeit der Nation gerade an diesem Tag durch die bevorstehende Sonnenfinsternis und ihre eventuellen Auswirkungen auf die Stromnetze eh schon auf ganz andere Themen fixiert. Nach der Ablenkung schon in der Überschrift kam dann noch kräftiger Theaterdonner dank der Gegenüberstellung der Reaktionen verschiedener Interessengruppen unter Verwendung von Begriffen wie „toben“ und „perfide“. Und während alles gebannt auf die Bühne schaute, wurde hinter den Kulissen still und heimlich der Mord an dem erst 13jährigen Hätschelkind deutscher Energiewendepolitik vollzogen, das seinen lieber geliebten Mitgeschwistern „Solar“ und „Wind“ in die Quere zu geraten drohte. Bei Spiegel Online war diese Meldung übrigens schon am gleichen Morgen um 8.20 Uhr wieder aus den Schlagzeilen verschwunden….

Auch wenn man geneigt sein mag, das taktische Geschick zu bewundern, mit dem hier die Öffentlichkeit unter freundlicher Mithilfe deutscher „Qualitätsmedien“ manipuliert wird: Der eine oder andere Beobachter dieser Vorgänge wird sich sicherlich fragen, welche Steigerungsformen es eigentlich für den Begriff „Schmierentheater“ gibt.

Fred F. Mueller

Quellen

[EIKE] http://www.eike-klima-energie.eu/climategate-anzeige/der-marsch-in-den-gruenen-energie-kannibalismus/

[WIKI] http://de.wikipedia.org/wiki/Kraft-W%C3%A4rme-Kopplungsgesetz

[SPON] http://www.spiegel.de/wirtschaft/service/gabriel-neue-klimaschutzabgabe-fuer-kohlekraftwerke-geplant-a-1024554.html




Dank an Raul Grijalva, den Killer eines Narrativs

Mit diesem Beitrag möchte ich Raul Grijalva (Demokrat aus Arizona) meinen herzlichen Dank ausdrücken. Wie die meisten Leser wissen, hat Repräsentant Grijalva eine „Untersuchung“ gegen mich angestrengt (hier), der auf seinem Glauben basiert, dass ich Forschung und Öffentlichkeitsarbeit leiste als Konsequenz von Zahlungen von Unternehmen fossiler Energie über dunkle Kanäle. Lächerlich, ich weiß.

Ich danke dem Repräsentanten Grijalva nicht für die Bloßstellung in den Medien (z. B. NPR, NYT) und auch nicht für den plötzlichen Einbruch* beim Verkauf meiner Bücher (z. B. THB, TCF, D&CC) und noch nicht einmal für die vielen Fan-E-Mails von den äußeren Rändern der Klimadebatte. Nein, ich danke dem Repräsentanten Grijalva dafür, dass er mehr als nötig dafür getan hat, um ein Narrativ zu killen.

[*Pielke benutzt das Wort „bump“. Das kann „plötzlicher Einbruch“ {meine Übersetzung} aber auch „Beule“ oder „Erhebung“ bedeuten. Mir hat sich nicht erschlossen, ob der Verkauf nun eingebrochen oder in die Höhe geschnellt ist. Meistens passiert ja gerade bei Negativ-Schlagzeilen Letzteres. Anm. d. Übers.]

Seit über einem Jahrzehnt haben führende Elemente von Wissenschaft und Medien ein Narrativ propagiert, dem zufolge Konservative dumm und/oder böse sind und allein dafür verantwortlich sind, die Wissenschaft pathologisch politisiert zu haben. Wirklichkeit, so heißt es, hat eine liberale Verzerrung. Es zeigt sich, dass Bedenken hinsichtlich der „Politisierung der Wissenschaft“ selbst Gegenstand von Politisierung sind.

Im Jahre 2003 habe ich hierzu geschrieben:

Die Politisierung der Wissenschaft ist ein Problem unabhängig von der Ideologie derjenigen, die diese Politisierung zu verantworten haben. Unser wissenschaftliches Vorhaben ist zu wichtig, um vermeintliche Bedenken über die Politisierung der Wissenschaft lediglich zu einer weiteren Waffe im Partisanenkrieg werden zu lassen.

Und im Jahre 2005:

Es ist klar, dass es viele Menschen gibt, die Bedenken hinsichtlich der Politisierung der Wissenschaft als politischen Knüppel verwendet haben, um unter der Bush-Administration an Boden zu gewinnen. Klar ist auch, dass es viele andere, mit der Bush-Administration in Einklang stehende Menschen gibt, die genau das Gegenteil tun wollen. Meine Frage lautet, wo sind die Analysten (einschließlich Reporter), die sich um die Politisierung der Wissenschaft kümmern ohne Rücksicht auf mögliche Vorteile, die heutigen politischen Partisanenkämpfen verschafft werden sollen?

Vor einem Jahrzehnt war das Gesicht des „Krieges der Republikaner gegen die Wissenschaft“ ein Journalist namens Chris Mooney, ein damals 20-jähriger Irgendwer, der den Zeitgeist* in einem Buch mit gleichem Titel eingefangen hatte. Im Jahre 2005 habe ich eine detaillierte Kritik an „Krieg gegen die Wissenschaft“ verfasst (hier). Ich denke, diese Kritik ist auch heute noch gültig.

[*Das Wort „Zeitgeist“ steht so klein geschrieben im Original.]

 

Mooney seinerseits ließ seinem Buch „Krieg gegen die Wissenschaft“ ein weiteres bizarres Buch über Eugenik folgen, in dem er behauptet, dass die Konservativen der USA irgendwie genetisch minderwertig waren (hier). Mooney verwandelte seine Rolle beim Schlechtmachen der Republikaner in einen Platz im Direktoren-Gremium der American Geophysical Union (ich scherze nicht) als ein „Experte“ im Bereich wissenschaftliche Kommunikation, angeheuert von der National Science Foundation, um durch das Land zu reisen und junge Wissenschaftler zu trainieren (ich scherze immer noch nicht) sowie ultimativ als ein Reporter für die Washington Post (hier). Keine schlechte Laufbahn für einen englischen Major, der sich an Eugenik versucht hat.

Diese Kritik richtet sich nicht so sehr gegen Mooney, den ich einmal getroffen habe und der ein netter Mensch zu sein schien, sondern hauptsächlich gegen die Macht eines Narrativs. Ein Narrativ, das so vollständig akzeptiert und von bedeutenden Teilen der Wissenschaft und der Medien immer neu belebt worden ist. Mooney hat dieses Narrativ übernommen und ist darauf herumgeritten. Eines Tages wird er hoffentlich zurückblicken auf diese Ära und sich fragen „Was zum Teufel haben wir uns damals gedacht?“

In einem Artikel in The New Republic haben Erik Nisbet und Kelly Garrett (hier) dem Narrativ „Krieg gegen die Wissenschaft“ einen Willkommenstrunk gereicht und gleichzeitig einen Hinweis darauf geliefert, dass das Narrativ vielleicht, nur vielleicht, an seinem Ausverkaufs-Datum angelangt ist:

Politischer Journalismus behandelt Wissenschaft zu oft wie eine politische Angelegenheit, die von Nicht-Experten in vom Fernsehen übertragenen Partisanen-Theatern debattiert wird. Diese Art Abdeckung wissenschaftlicher Themen durch die Medien verschleiert oftmals die aktuellen wissenschaftlichen Beweise und Übereinstimmungen und vertieft unglücklicherweise nur die Polarisierung, indem sowohl Konservativen als auch Liberalen Partisanen-Queues zur Verfügung gestellt werden.

Die Ergebnisse unserer Studie zeigen, dass eine derartig intensive und polarisierende Medien-Aufmerksamkeit das öffentliche Vertrauen in die wissenschaftliche Gemeinschaft unterdrückt, und zwar für Liberale und Konservative gleichermaßen.

Die zweite Lektion ist, dass die wissenschaftlichen Kommunikatoren, die auf die Konservativen zielen und diese als irgendwie einheitlich defizitär ansehen, wenn es um das Verständnis wissenschaftlicher Dinge geht, das Augenmerk auf einen Zusammenprall von Ideologien lenken und sich damit von der Kommunikation entfernen, die ideologische Gräben hinsichtlich wissenschaftlicher Themen überbrückt – und ja, wir sind sicher, dass derartige Gräben überbrückt werden können.

Die Dämonisierung eines Drittels der Bevölkerung in wissenschaftspolitischen Debatten, indem man behauptet, dass sie ein unüberwindliches psychologisches Defizit aufweisen, tut nichts zum Erreichen einer Lösung der Herausforderungen einer effektiven wissenschaftlichen Kommunikation – und repräsentiert unglücklicherweise nur unsere menschlichen Verzerrungen bei der Arbeit.

Nisbet und Garrett berichten über Forschungen, die eine solide empirische Basis für die Zurückweisung der Politisierung der Politisierung der Wissenschaft liefern als Weg, wissenschaftlich oder journalistisch zu arbeiten. Das ist weder akkurat noch effektiv. Unter den Gelehrten, die auf diesem Gebiet exzellente Arbeit leisten, sind Dominique Brossard, Brendan Nyhan, Dan Kahan. Dietram Scheufele und Matt Nisbet. Aber trotz all dieser guten empirischen, historischen und politischen Forschung hat das Narrativ „Krieg gegen die Wissenschaft“ immer noch tiefe Wurzeln und feurige Anhänger.

Was mich zurückführt zu Raul Grijalva. In seiner „Untersuchung“ gegen mich – als jemand, der möglicherweise viele seiner politischen Ansichten teilt einschließlich beim Thema Klima – hat der Repräsentant Grijalva eingeräumt, dass er meine begutachtete Forschung nicht mag (und logischerweise die Zustandsbeschreibungen des IPCC). Es ist schwierig, einen unter den Republikanern einheitlichen „Krieg gegen die Wissenschaft“ aufrecht zu erhalten mit dieser Art höheren Unsinns, der hier an den Tag gelegt wird. Natürlich hat Mooney in seiner Kolumne in der Washington Post eingeräumt, dass das Vorgehen des Repräsentanten Grijalva eine „Hexenjagd“ ist. Möglicherweise etwas irgendwie Minderbemitteltes in seinem Partisanen-Gehirn.

Dabei habe ich oftmals geschrieben, dass es einen „Krieg gegen die Wissenschaft“ weder seitens der Republikaner noch der Demokraten gibt (hier). Allerdings gibt es sehr viel Politik. Politik kann durchgeführt werden auf vielfältige Weise, die zum allgemeinen Interesse beitragen oder auch auf pathologische Weise. Die wissenschaftliche Gemeinde hat seit einem Jahrzehnt Letzteres gemacht. Es ist an der Zeit, sich über die giftige Partisanenschaft der jüngsten Wissenschafts-Kriege zu erheben. Komischerweise hilft uns des Repräsentanten Grijalvas Überreaktion, auf diesem Weg voranzukommen.

Link: http://rogerpielkejr.blogspot.co.uk/2015/03/a-thank-you-to-rep-raul-grijalva.html

Übersetzt von Chris Frey EIKE




Was ist ein „normales“ Klima?

Al Gores Märchenfilm Eine Unbequeme Wahrheit behauptete, dass die globale Temperatur „genau richtig“ sei. Das ist ähnlich der Firma Goldilock, die über Porridge sagte „nicht zu heiß, nicht zu kalt, sondern gerade richtig“. Der Film hat den Oscar mehr als verdient, weil es ein in Hollywood produzierter Märchenfilm war, dem Land unbegrenzter Phantasie. Das große Gorakel erklärt: wir müssen diesen Normalzustand erhalten, weil das böse Hexen-CO2 diesen bedroht. Auf welchem Schloss auch immer er derzeit residiert, er diktiert, den Status Quo zu erhalten, so dass er seinen „normalen“ Lifestyle* weiterleben kann einschließlich der Profite aus dem Verkauf seines Märchens. Mit diebischer Freude bezieht er sich auf Menschen der Vergangenheit wie Arrhenius, Callendar oder Roger Revelle, wobei er bequemerweise die Tatsache ignoriert, dass sie alle in anderen „Normalzuständen“ lebten. Er ignoriert auch die „normalen“ Bedingungen seiner Vorfahren während der Eiszeit.

[*An sich mag ich diesen Begriff, der sich leider auch im Deutschen breit macht, überhaupt nicht. Aber weil ich nicht sicher bin, ob die Übersetzungen „Lebensstil“ oder „Lebensweise“ hier den Nagel auf den Kopf treffen, übernehme ich den Begriff mal. Anm. d. Übers.]

Gore möchte sein „Normal“ erhalten sehen durch die Reduktion der CO2-Menge in der Atmosphäre auf ein vorindustrielles Niveau. Das IPCC sagt, dass die Menge damals 270 ppm betragen hatte. Das ist zwar nicht korrekt, aber nehmen wir einmal an, dass es stimmt, um die Konsequenzen bei Erreichen dieses Niveaus zu betrachten. Nehmen wir also an, dass das IPCC recht hat und dass nahezu die gesamte Zunahme der globalen Temperaturen vom Höhepunkt der Kleinen Eiszeit [dem CO2 geschuldet] ist*, vor allem seit 1950. Dem IPCC zufolge liegt das gegenwärtige Niveau bei 400 ppm, so dass vermutlich das Erreichen des vorindustriellen Niveaus eine Reduktion um 130 ppm erforderlich macht. Dem IPCC und dem Nobelpreis-Gewinner Al Gore zufolge bestimmt das CO2-Niveau die Temperatur, so dass eine solche Reduktion eine Rückkehr zu den Bedingungen während der Kleinen Eiszeit nach sich ziehen würde. Eine Vielzahl von Quellen spezifiziert diese Bedingungen, besonders The Little Ice Age von Jean Grove sowie Links bei CO2Science.org und das Nongovernmental International Panel on Climate Change (NIPCC).

[*Der Satz lautet im Original: Assume also that the IPCC is correct and that virtually all the increase in global temperatures from the nadir of the Little Ice Age, especially since 1950. M. E. ist das kein Satz, weil das Prädikat fehlt. Ich habe meine Vorstellung des ganzen Satzes in eckigen Klammern hinzugefügt. Anm. d. Übers.]

Das IPCC und Gore betrachten nur die Temperatur-Implikationen von CO2, aber es ist unabdingbar für das Pflanzenleben, welches wiederum das Sauerstoff-Niveau bestimmt, das für alle Lebensformen unabdingbar ist. Wie viel Vegetation würde verloren gehen bei einer Reduktion um 130 ppm? Es ist lediglich die Berechnung eines Computermodells, aber das Abstract [einer Studie von] Donohue et al. erklärt:

Satellitenbeobachtungen zeigen ein Ergrünen des Planeten während der letzten Jahrzehnte. Die Rolle des „CO2-Düngungs-Effektes“ – also die gesteigerte Photosynthese infolge des zunehmenden CO2-Niveaus – muss aber noch untersucht werden. Die direkte Auswirkung des CO2-Effektes auf die Vegetation sollte sich am deutlichsten in warmen, ariden Umgebungen zeigen, wo Wasser das dominante Limit des Pflanzenwachstums ist. Mittels der Gas-Austausch-Theorie [gas exchange theory?] sagen wir voraus, dass die Zunahme des atmosphärischen CO2-Gehaltes im Zeitraum von 1982 bis 2010 zu einer Zunahme um 5% bis 10% der Bedeckung mit grünen Pflanzen in warmen, ariden Umgebungen geführt hat. Satellitenbeobachtungen, analysiert um die Effekte variierender Niederschläge zu entfernen, zeigen, dass die Bedeckung dieser Umgebungen um 11% zugenommen hat. Unsere Ergebnisse bestätigen, dass der vermutete CO2-Düngungseffekt stattfindet zusammen mit fortgesetzten anthropogenen Störungen des Kohlenstoff-Zyklus‘, und dass der Düngungseffekt inzwischen zu einem signifikanten Prozess auf dem Festland geworden ist.

Nimmt man erneut an, dass die IPCC-Zahlen korrekt sind, führte eine Zunahme des CO2-Gehaltes um 14% zu einer Zunahme der Vegetation um 11%. Welche Auswirkung würde eine Reduktion um 130 ppm haben? Wie würde der Einfluss reduzierter CO2-Düngung und zurückgehender Temperatur zusammen aussehen? Grove und Andere zeigten die Auswirkung sinkender Temperaturen, nicht CO2.

Als in den siebziger Jahren Konsens hinsichtlich einer globalen Abkühlung bestanden hatte, fertigte Martin Perry Studien über den Einfluss von Abkühlung im Verlauf der Kleinen Eiszeit (Abbildung 1):

Abbildung 1

Abbildung 1 zeigt den Landkreis [county] Berwickshire in der Borders-Region in UK mit einer hohen Prozentzahl von Land, dass der Kultivierung während dieser Zeit verloren gegangen war. Was war normal für die Menschen, die während dieser Zeit gelebt haben? Die Antwort lautet, was immer sie erlebt haben.

Die WMO hat die Normalperiode von 30 Jahren eingeführt mit der Begründung, dem Problem abzuhelfen, was normal ist oder um Mittelwerte für Planungen und andere Anwendungen zur Verfügung zu stellen. Sie erklären:

Die Standard-Klima-Normalwerte unterstützen viele Klima-Serviceleister und Anwendungen einschließlich Klimatologien. Sie komprimieren auch die Referenzperiode für die Evaluierung von Anomalien der Klimavariabilität und -änderung“.

Ein Problem taucht auf, wenn man historische Aufzeichnungen wie z. B. für den Zeitraum von 1781 bis 1810 mit den modernen Normalzeiträumen vergleicht. Welchen modernen Zeitraum würde man heranziehen, 1931 bis 1960 oder den jüngsten 1981 bis 2010? William Wright führte über dieses Problem eine Studie durch, in der er…

…für einen dualen Normalstandard plädierte. CCI-MG konkurriert mit der Schlussfolgerung, dass es die Notwendigkeit häufiger Aktualisierungen bei der Berechnung der Normalwerte für Klima-Applikationen gibt (Vorhersage und Belange der Klimatologie). Dies basiert auf der Notwendigkeit, grundlegende Planungsentscheidungen auf die Grundlage mittlerer und extremer Klimabedingungen zu stellen bei nicht stationären Klimabedingungen“.

Und da haben wir den Kopf des Nagels: „nicht stationäre Klimabedingungen“.

Dann gibt es da noch das Problem der endemischen Adjustierungen all der „offiziellen“ Daten. Die NOAA sagt:

Viele Änderungen und Zusätze wurden den Normalwerten von 1981 bis 2010 hinzugefügt. Monatliche Temperatur- und Niederschlags-Normalwerte basieren auf zugrunde liegenden Datenwerten, die einer zusätzlichen Qualitätskontrolle unterzogen worden sind. Monatliche Temperaturen wurden ebenfalls standardisiert, um den Auswirkungen von Stationsverlagerungen, Änderungen der Instrumentation usw. Rechnung zu tragen“.

Vermutlich bedeutet dies, dass man die Ergebnisse nicht mit jenen früherer „Normalwerte“ vergleichen kann.

Die NOAA informiert uns darüber, dass

Normalwerte eine große Zusammenstellung von Datenprodukten sind, die den User viele Tools zum Verständnis typischer Klimabedingungen zur Verfügung zu stellen. Und zwar für tausende Orten in den gesamten USA“.

Nein, das tun sie nicht! Es sind lediglich 30-Jahres-Mittelwerte, die nichts zum Verständnis typischer Klimabedingungen an irgendeiner Stelle beitragen. Da sich die 30-jährigen Mittelwerte ändern im Zuge von Verfahren, die in Zeiträumen länger als 30 Jahre ablaufen, sagen sie uns einfach nur etwas über das Klima während jenes Zeitraumes. Das Problem illustriert die Auslassung der Milankovitch-Mechanismen seitens des IPCC. Wie berichtet, hat Prof. Lindzen im jüngsten APS-Workshop erklärt:

Die IPCC-Schätzung des anthropogenen Einflusses lautet etwa 2 W/m² im AR 5, und das ist viel weniger als der Milankovitch-Effekt von 100 W/m² auf 65°N, siehe Edvardson et al.

Abbildung 2 zeigt die 100 W/m²-Variabilität auf 65°N, berechnet von Berger 1978 und diskutiert in meinem Beitrag Important But Little Known “Earth “ scientists.”

Abbildung 2: Variationen der Einstrahlung (einfallende Solarstrahlung) auf 65°N.

Quelle: Berger 1978. Langzeitliche Variationen der täglichen Einstrahlung und quaternäre [quaternary?] klimatische Änderungen. J. Atmos. Sci. 35: 2362–2367.

Ein IPCC-Modellierer sagte mir einmal, dass man Milankovitch ausgelassen hätte, weil man den zeitlichen Maßstab als ungeeignet angesehen hatte.

Offensichtlich stellen die Menschen Planungen und Management-Entscheidungen auf die Grundlage dieser „Normalwerte“. NOAA berichtet:

Zusätzlich zu den Wetter- und Klima-Vergleichen werden Normalwerte in scheinbar zahllosen Anwendungen in einer ganzen Palette von Bereichen verwendet. Darunter sind: Vorschriften von Energieunternehmen, Energie-Lastvorhersagen, Ernteauswahl und Pflanzzeiten, die Planung von Konstruktionen, das Design von Gebäuden und viele andere.

Sie nehmen an, dass all diese Bedingungen fortbestehen. Das erinnert mich an eine Präsentation von Michael Schlesinger auf einer Konferenz in Edmonton zur Zukunft des Klimas in der kanadischen Prärie. Ein Bürokrat sagte, man plane die Aufforstung in Teilen des südlichen Alberta, und Ihre Daten zeigen, dass diese Gebiete in 50 Jahren Wüste sind. Wie genau ist diese Vorhersage? Schlesinger erwiderte etwa 50%. Der Bürokrat sagte: „Mein Minister verlangt 98%“.

Das ist heute kein bisschen besser. Abbildung 3 ist eine Karte der Genauigkeit der Niederschlagsvorhersage für 12 Monate in Kanada. Sie liegt in 95% des Gebietes von Kanada unter 40%, wenn man es mit dem 30-jährigen Normalwert 1981 bis 2010 vergleicht.

Abbildung 3

Ich habe es so verstanden, dass man einen Zeitraum von 30 Jahren gewählt hat, weil 30 Jahre eine statistisch signifikante Größe (n) für eine Testreihe für irgendeine Bevölkerung (N) ist. Der Zeitraum ist für Klimaverteilungen wertlos, und die Ursachen, die zu diesen Klimaverteilungen führen, erstrecken sich über viel längere Zeitperioden. Die NOAA räumt dies auch ein, wenn sie schreibt:

Tatsächlich war es so: als die weit verbreitete Praxis der Berechnung von Normalwerten in den dreißiger Jahren begonnen hatte, lautete die allgemein akzeptierte Auffassung des Klimas, dass zugrunde liegende langfristige Mittelwerte der Klima-Zeitreihen konstant wären.

Dieser Gedanke setzte sich durch und wurde zur fundamentalen Auffassung der Öffentlichkeit, dass das Klima konstant ist, was die gegenwärtige Änderung als etwa Anomales erscheinen ließ. Auch wurde die 30-jährige Normalperiode zum Mittelwert für die Wetterleute in Radio und Fernsehen. Die NOAA bestätigt diese Übernahme.

Meteorologen und Klimatologen verwenden Normalwerte regelmäßig für die Übertragung jüngster Klimabedingungen in einen historischen Zusammenhang. Die NOAA-Normalwerte sieht man allgemein bei lokalen Wetternachrichten als Vergleich zu den täglichen Wetterbedingungen.

Wenn Medien-Meteorologen sagen, dass eine Wettervariable heute über dem Normalwert liegt, gilt das üblicherweise nur für den 30-jährigen Mittelwert, nicht aber für die Gesamtdauer der Aufzeichnung an der Station. Dies engt die Bandbreite erheblich ein und erzeugt ein verzerrtes Bild davon, wie stark das Klima variiert. Dies wiederum verstärkt die Effektivität der Behauptungen von Gore und Anderen, dass das gegenwärtige Wetter anomal ist. Der Klima-„Normalwert“ ist jetzt genauso verzerrt wie Goldilocks Gores „Normalwert“. Bei Porridge und Märchen mag es ja funktionieren, aber für das aktuelle Klima funktioniert es nicht. Die Behauptung, dass das Normale anomal ist, ist wirklich eine Absurdität.

Link: http://wattsupwiththat.com/2015/03/17/what-is-a-normal-climate/

Übersetzt von Chris Frey EIKE




Wir proben den Schwarzfall: Modell eines Inselnetzes mit Kopplung an das Verbundnetz

Michael Treml, Bremen

Für alle, die mal ein Inselnetz fahren wollen, ist hier ein Softwaremodell mit einer Windkraftanlage, einem Dieselgenerator, einem Speicher und einer Verbundnetzkupplung. Dazu ist das Programm Projekt1.exe zu starten. Wie man es installiert erfährt man am Ende dieses Beitrags.  Es erscheint dann das Fenster mit den Rahmen Windkraftanlage, Speicher , Dieselgenerator, Inselnetz und Verbundnetz. Beim Start des Programms ist das Inselnetz schwarzgefallen:

Die Anzeigen "Schwarzfall und Netz ist unsicher" stehen an. Es ist jetzt das Netz neu aufzubauen. Die Windanlage kann nur auf ein stabiles Netz geschaltet werden. Deshalb ist der Generatorschalter und die Anwahl nicht aktivierbar. Am einfachsten schaltet man den Kuppelschalter zum Verbundnetz ein und hat damit eine sichere Versorgung der Insel. Die Hinweise Schwarzfall und Netz ist unsicher kann man jetzt durch Klicken auf die beiden Textfelder löschen. Man wählt jetzt die Nennleistung der Windanlage über die Optionbutton1 bis Optionsbutton4. Der Startwert ist 500 kW. Der Generatorschalter der Windanlage sowie der Speicherschalter sind jetzt aktiv. Die Anzeige Netzfrequenz im Rahmen Inselnetz  zeigt jetzt 50 Hz. Mit dem Scrollbar Netzlast kann man jetzt die Netzlast wählen, die Anzeige ändert sich in 1kW oder 10kW Schritten. Wir stellen jetzt 110 kW ein. Da die Insel noch keine eigene Erzeugung hat wird die Leistung voll vom Verbundnetz getragen. Die Anzeige Übergabeleistung im Rahmen Verbundnetz zeigt jetzt –110 kW und entspricht der Netzlast mit negativem Vorzeichen um die Richtung der Leistung zum Inselnetz anzuzeigen.

Jetzt kann die Windanlage gestartet werden. Dazu schaltet man den Generatorschalter ein. Damit verbindet man den Inverter der Windanlage mit dem Netz. Die Steuerung der Windanlage stellt jetzt durch Messung der Netzimpedanz fest ob das Netz sicher ist. Dann schaltet man die Anwahl ein. Damit wird die Windanlage angewiesen automatisch je nach Windverhältnissen zu arbeiten. Das bedeutet :

1.     Einschalten der Erzeugung bei Windgeschwindigkeiten ab 4 m/s. Die Leistung ist proportional dem Kubik der Windgeschwindigkeit.

2.     Begrenzung der Windleistung auf die Nennleistung bei Windgeschwindigkeit von mehr als 13 m/s durch Rotorblattverstellung.

3.     Abschaltung der Erzeugung bei Windgeschwindigkeit von mehr als 25 m/s und Sicherung der Anlage.

4.     Wiederanfahren der Erzeugung bei Windgeschwindigkeit von weniger als 25 m/s.

5.     Automatisches Ausschalten der Anlage bei Windgeschwindigkeit von weniger als 4 m/s.

Mit dem Scrollbar Windgeschwindigkeit kann jetzt die Anlage auf Leistung gebracht werden. Die Anzeige Windgeschwindigkeit ändert sich in 0.1m/s oder 1m/s Schritten. Wir stellen jetzt 7 m/sec ein. Die Generatorleistung ist jetzt 78.06 kW.  Die Generatorleistung wird von der Übergabeleistung abgezogen, verbleibt also im Inselnetz. Die Anzeige Übergabeleistung zeigt jetzt –31,94 kW (110 kW – 78,06 kW).

Im Modellnetz ist der Betreiber der Windanlage verpflichtet einen Speicher vorzuhalten. Dieser soll die Auswirkung der volatilen Erzeugung der Windanlage auf das Inselnetz und Verbundnetz durch Ladung und Entladung auf einem Wert halten, der dem Mittelwert der Erzeugungsleistung der letzten Woche entspricht. Diese Mittelwertberechnung kann nicht Bestandteil dieses Programm sein. Deshalb kann dieser Mittelwert mit dem Scrollbar Mittelwert eingestellt werden. Die Anzeige Mittelwert ändert sich in 1kW oder 10 kW Schritten. Beim Programmstart ist der Mittelwert 100kW und der Füllstand 50 kWh. Der Speicher kann nur von der laufenden Windkraftanlage geladen werden.

Wir schalten jetzt den Speicherschalter ein. Die Speicheranlage will jetzt die Summe aus Windleistung + EntladungLadung auf 100kW bringen. Der Speicher geht auf Entladung von 21,94 kW. Die Summe aus Entladung und Windleistung  ist jetzt 100kW und der Füllstand des Speichers wird langsam entladen. Die Erzeugung der Insel ist jetzt 100kW, die Netzlast ist aber 110 kW. Also müssen 10 kW vom Verbundnetz kommen. Anzeige Übergabeleistung = -10,00 kW.

Jetzt ist die Insel gut versorgt und wir freuen uns. Jetzt kommt der Haken an der Sache. Der Verbundnetzbetreiber verlangt das mindestens 10% der Netzlast im Stundenmittel vom Verbundnetz bezogen werden müssen,  weil der ja die Kabel zur Insel finanzieren und betreiben muss. Das bedeutet das die Übergabeleistung –11 kW sein müßte. Wir stellen jetzt den Mittelwert auf 99 kW und haben dann –11kW Übergabeleistung.

Und wieder haben wir Pech denn der Wind schläft ein, wie stellen die Windgeschwindigkeit schrittweise herunter auf 3m/sec, und die Windanlage wird abgeschaltet. Der Speicher bringt jetzt 99 kW Leistung, aber der Füllstand fällt rapide. Wir wollen nicht solange warten und klicken auf den Commandbutton Leer. Damit stellen wird den Füllstand auf 5% der Kapazität. Mit dem Commandbutton Voll stellt man den Füllstand auf 95% der Kapazität. Der Speicher ist jetzt leer und geht jetzt  in Stillstand. Die Übergabeleistung geht auf –110 kW. Der Strombezug ist jetzt teurer als die Erzeugung mit dem eigenen Dieselgenerator.

Vor dem Start des Dieselgenerators wählt man die Nennleistung des Aggregats durch Click auf die Optionsbutton 400 kW oder 2000 kW an. Wir  starten jetzt den Dieselgenerator durch einen Click auf den Commandbutton Start. Der Diesel läuft an und erreicht nach kurzer Zeit 750 U/min entsprechend 50.000 Hz. Die Maschine wird in Synchronlauf gebracht und der Generatorschalter wird freigegeben. Durch Click auf  die Checkbox Generatorschalter schalten wir den Dieselgenerator ans Inselnetz. Jetzt müssen wir ihn in der Leistung hochfahren. Man stellt dazu durch Click auf  den Scrollbar den Drehzahlsollwert höher. Der Drehzahlsollwert ändert sich in Schritten von 0,1 U/min oder 1 U/min. Bei 751,9 U/min hat die Maschine eine Leistung von 101,33 kW . Die Übergabeleistung  ist jetzt –8,67 kW.

Jetzt probieren wir den reinen Inselbetrieb. Wir Clicken auf Kuppelschalter und schalten damit die Verbindung zum Verbundnetz ab. Die Übergabeleistung ist jetzt 0.0 kW. Die Inselnetzfrequenz wird jetzt vom Dieselgenerator bestimmt. Wir haben jetzt eine Dieselleistung von 110 kW bei 49,989 Hz.

Jetzt kommt wieder Wind auf . Die Summe aus Windleistung + Ladung – Entladung darf jetzt nicht größer werden als die Leistung des Dieselgenerators, sonst geht er über Rückwatt in Störabschaltung. Vorsorglich stellen wir den Mittelwert auf 40 kW, denn wenn Wind aufkommt wird der leere Speicher bei einer Windleistung von mehr als 40kW geladen. Wir stellen jetzt die Windgeschwindigkeit auf 7 m/sec. Die Windleistung ist jetzt 78,06 kW, also über dem Mittelwert. Der Speicher wird geladen mit 38,06 kW. Der Dieselgenerator hat jetz eine Leistung von 70 kW. Die Netzfrequenz liegt auf 50,039 Hz. Solange der  Speicher nicht voll ist kann jetzt der Wind sein Spiel treiben wie er will. Wir probieren es und stellen die Windgeschwindigkeit schrittweise auf 13 m/sec. Jetzt ist die Windanlage auf Vollast mit 500 kW und lädt den Speicher mit 460 kW. Das ist alles sehr schön, aber was passiert wenn der Speicher voll ist ?

Das probieren wir jetz aus. Wir clicken auf den Commandbutton Voll . Der Speicher ist vollgeladen und geht in Stillstand und wir haben dann eine Leistung von 570 kW am Netz, Windleistung + Generatorleistung, aber nur eine Last von 110 kW. Das treibt die Frequenz in kürzester Zeit nach oben. Der Dieselgenerator wirft seine Last von 70 kW ab. Bleiben jetzt noch 500 kW am Netz. Der Dieselgenerator wird jetzt von der Windanlage bei steigender Frequenz  angetrieben und geht nach 5 sec in Rückwatt. Notaus !

Das ist dann der Schwarzfall.

Man wählt jetzt das Programm ab und startet neu. Dann hat man wieder die Startwerte. Man kann dann alle möglichen Szenarien durchspielen und sich seinen letzten Nerv stehlen lassen.

Ich wünsche allen viel Spass.

Wie kommt man jetzt zu dem Programm ?

Update vom 28.3.15

Hallo Freunde,

die erweiterte Software ist fertig.

Wie kommt man jetzt zu dem Programm ?

Estellen Sie ein Verzeichnis mit dem Namen  zB. „Inselnetz“

In dieses Verzeichnis laden Sie die auf 

http://filehorst.de/d/bniFFksg

befindliche Datei „Paket.RAR“ herunter. 

Diese Datei müssen Sie entpacken, zB. mit WinRAR oder WinZIP . Darin befinden sich die Dateien

1.     Projekt1.CAB

2.     Setup.exe

3.     SETUP.LST

4.     Fenster1.jpg

5.     Projekt1.doc

6.     Projekt1.pdf

Dann starten Sie Setup.exe

Es folgt ein für Windows bekanntes Setup.

Ich wünsche Spaß am Programm und keinen Nervenzusammenbruch.

Michael Treml , Bremen

Related Files




USA: Skeptiker zum Schweigen bringen – Alarmisten finanzieren

Die Briefe unterstellen, dass die betroffenen Forscher „Interessenkonflikte“ haben oder Finanzzuwendungen von Unternehmen nicht vollständig offengelegt haben können. Sie sagen, dass derartiger Forscher Aussagen vor Komitees des Kongresses gemacht, Artikel geschrieben oder Vorträge auf Konferenzen gehalten haben, die die Rolle natürlicher Kräfte in Bezug auf den Klimawandel hervorgehoben haben, oder dass sie Beweise und Computermodelle in Frage stellen, die einen vorherrschend menschlichen Einfluss nahelegen.

Mr. Grijalva behauptet, dass die Offenlegung bestimmter Informationen „die Unparteilichkeit der Klimaforschung und politischer Empfehlungen etablieren“. Die Veröffentlichung dieser Informationen im Namen der Institutionen helfen dem Kongress, bessere Gesetze zu machen. „Unternehmen mit direkten finanziellen Interessen an Klima und Luftgüte-Standards finanzieren Umweltforschungen, die staatliche Vorschriften beeinflussen und das Verständnis der Öffentlichkeit für die Klimawissenschaft verändern“. Diese Konflikte müssen offengelegt werden, weil die Kongressmitglieder nicht ihren Pflichten nachkommen können, wenn Forschungen oder Aussagen „von unbekannten finanziellen Beziehungen beeinflusst werden“.

Die betreffenden Institutionen werden aufgefordert, ihre Politik bzgl. finanzieller Dinge zu benennen; ebenso Entwürfe von Aussagen vor dem Kongress oder Agenturen; die Kommunikation zur Vorbereitung von Anhörungen und Quellen „externer Finanzierung“ einschließlich Berater- und Vortragshonorare, Forschungszuwendungen, Ehrungen, Reisekosten und andere Gelder – für jedwede Arbeit, die den Katechismus des vom Menschen verursachten Klima-Kataklysmus in Frage stellt.

Interessenkonflikte können in der Tat problematisch sein. Allerdings sind es eindeutig nicht nur Unternehmen fossiler Treibstoffe, die wesentliche finanzielle oder andere Interessen am Klima und an Luftgüte-Standards haben – und auch nicht ausschließlich Skeptiker bzgl. des anthropogenen Klimawandels, die Konflikte sowie persönliche, finanzielle oder institutionelle Probleme zu diesen Themen haben können.

Unternehmen erneuerbarer Energien wollen die Zuwendungen, Subventionen und Klimastörungs-Behauptungen verlängern, durch die sie solvent bleiben. Versicherungsgesellschaften wollen höhere Beiträge rechtfertigen für Versicherungen gegen vermeintlich steigende Meeresspiegel sowie häufigere und stärkere Stürme. Agenturen der Regierung trachten nach größeren Budgets, mehr Personal, mehr Macht und Kontrolle, mehr Geld für Zuwendungen an Forscher und Aktivisten-Gruppen, die deren Agenden und Vorschriften vorantreiben. Sie trachten nach begrenzter Offenheit, Transparenz und weniger Rechtfertigungsdruck für ihre Aktionen. Von diesen Einrichtungen geförderte Forscher und Organisationen wollen natürlich diese Finanzierungen erhalten sehen.

Man würde daher erwarten, dass diese Kongressmitglieder ähnliche Briefe an Forscher und Institutionen senden würden auf der anderen Seite dieser fortgesetzten Klimakontroverse. Aber das haben sie nicht getan, obwohl sogar der Klimaalarmismus in ernsten Disputen finanzieller, wissenschaftlicher und ethischer Art sowie hinsichtlich Interessenkonflikten steckt.

Dr. Richard Lindzen, emeritierter MIT-Professor der Atmosphärenwissenschaften und einer von Grijalvas Zielen, hat es so ausgedrückt [in deutscher Übersetzung beim EIKE hier]: „Milliarden Dollar wurden für Studien ausgegeben, die den Klimaalarm stützen, und Billionen Dollar waren bei der Korrumpierung der Energiewirtschaft involviert“ – und in deren Ersetzung durch teure, ineffizienten, unzureichenden, Arbeitsplätze vernichtenden und umweltschädliche Wind-, Solar- und Biotreibstoffquellen.

Ihre 1090 Formulare enthüllen, dass im Zeitraum von 2010 bis 2012 sechs Umweltgruppen gewaltige 332 Millionen Dollar von sechs Regierungsagenturen erhalten haben! Das ist 270 mal die Summe, die Dr. Willie Soon und das Harvard-Smithoian Center for Astrophysics von Unternehmen fossiler Treibstoffe während eines Jahrzehnts erhalten haben. Jene Förderungen wurden vermutlich von jenen Politikern verwendet zum Schreiben der Briefe, wenige Tage nachdem Greenpeace seine Attacke gegen Dr. Soon geritten hat.

Die EPA, der Fish & Wildlife Service, die NOAA, der USAID, die Armee und das State Department überwiesen diese Steuergelder an Environmental Defense, Friends of the Earth, Nature Conservancy, Natural Resource Defense Council, National Wildlife Fund und Clean Air Council für Forschungen, Berichte, Presseerklärungen und andere Aktivitäten, die politische Programme und Agenden unterstützen und vorantreiben zu Luftqualität, Klimawandel, Klimaauswirkungen auf die Natur und viele ähnliche Themen, die mit Obamas Krieg gegen die Kohle zusammenhängen. Die Aktivisten haben auch vor dem Kongress ausgesagt und hinter den Kulissen bzgl. dieser Dinge intensive Lobbyarbeit betrieben.

Zwischen2000 und 2013 zahlte die EPA auch der American Lung Association weit über 20 Millionen Dollar und überhäufte ihre Mitglieder des Clean Air Scientific Advisory Committee mit über 180 Millionen Dollar, um die Positionen der Agenturen zu unterstützen. Chesapeake Energy gab dem Sierra Club 26 Millionen Dollar, um dessen Beyond Coal-Kampagne voranzutreiben. Russland zahlte großzügig für Anti-Fracking, Klimawandel und damit verbundene „grüne“ Bemühungen.

Regierungsagenturen und Laboratorien, Universitäten und andere Organisationen haben Milliarden Steuergelder-Dollar erhalten, um Computermodelle zu entwickeln sowie Daten und Berichte so zu frisieren, dass sie die alarmistischen Behauptungen bestätigen. Firmengelder sind ebenfalls überreichlich an Forscher geflossen, die den Klimaalarm befeuern und irgendwelche Zweifel für sich behalten. Hunderte Milliarden flossen an Unternehmen erneuerbarer Energie, von denen später viele bankrott gingen. Wind- und Solarunternehmen wurden von den Gesetzen bzgl. gefährdeter Spezies freigestellt, um sie vor Klagen wegen Zerstörung von Habitaten, Vögeln und Fledermäusen zu schützen. Gab es von dieser Seite jemals volle Offenlegung? Selten, falls überhaupt.

Aus Dankbarkeit und um den Geldfluss am Leben zu halten, spendeten viele dieser Empfänger üppige Summen an Kongress-Kandidaten. Während seiner jüngsten und primären Kampagne erhielt beispielsweise Senator Markey 3,8 Millionen Dollar von Harvard und MIT-Professoren, Regierungs-Vereinigungen, Tom Steyer und einem Dutzend Umweltgruppen (einschließlich Empfänger der rund 332 Millionen Dollar an Steuergeldern) auf dem Wege direkter Unterstützung und via Werbung.

Was die Ethik der Klimakatastrophen-Forscher und die Glaubwürdigkeit ihrer Modelle, Daten und Berichte betrifft, enthüllen die Klimagate-E-Mails dass Forscher verschiedene „Tricks“ benutzt haben, Datensätze durcheinanderzubringen und „den Rückgang zu verstecken“, und zwar der mittleren globalen Temperatur seit 1998. Sie konspirierten, um skeptische wissenschaftliche Studien an der Veröffentlichung in begutachteten Journalen zu hindern, sie löschten potentiell schädliche oder belastende E-Mails und engagierten sich in anderer Weise, um den vom Menschen verursachten Klimaalarm weiter zu befeuern. Das IPCC stellte viele ihrer berüchtigsten Behauptungen zu verschwindenden Eiskappen sowie hinsichtlich von Gletschern und des Regenwaldes auf der Grundlage der Arbeit von Studenten, Zeitschriftenartikeln, E-Mails und anderem Material auf, die keiner Begutachtung unterzogen worden waren. Das IPCC fordert seine Wissenschaftler routinemäßig auf, ihre Originalstudien selbst zu überarbeiten und sie dann in „Summaries for Policymakers“ einfließen zu lassen, die von Politikern und Bürokraten geschrieben werden.

Und doch verlässt sich die EPA-Administratorin Gina McCarthy nahezu vollständig auf diese Müllwissenschaft, um die Politik ihrer Agentur zu rechtfertigen – und wiederholt die Aussagekraft der EPA-Modelle und den Hype um Extremwetter. Dabei weigert sie sich einzuräumen, dass nicht ein einziger Hurrikan der Stärke 3 bis 5 während der letzten 9,3 Jahre auf das US-Festland übergetreten ist – ein Rekord. Ihr ehemaliger Luftqualitäts- und Klimazar bei der EPA John Beale sitzt wegen Betrugs im Gefängnis, und die Agentur hat zahlreiche illegale Luftverschmutzungs-Experimente mit Erwachsenen und sogar Kindern durchgeführt – und die Ergebnisse danach bei Erlass ihrer Vorschriften ignoriert.

Der Langzeit-Vorsitzende des IPCC Rajendra Pachauri ist mit Schimpf und Schande zurückgetreten, nachdem er gesagt hatte, dass die vom Menschen verursachte Klimaänderung „seine Religion, sein Karma“ sei (ein Prinzip der kosmischen Ordnung) und nicht Gegenstand ehrlicher Wissenschaft von hoher Qualität oder einer offenen, robusten Debatte. Der Skandale sind Unzählige, siehe beispielsweise hier, hier, hier, hier und hier.

Es ist nicht verwunderlich, dass die EPA Arbeitsplätze vernichtende und die Wirtschaft schädigende Kohlenstoff-Steuern unterstützt. Und es ist nicht ein bisschen überraschend, dass sich die Alarmisten weigern, mit realistischen Wissenschaftlern zu diskutieren: Die „Skeptiker“ würden ihre Computermodelle der Bedeutungslosigkeit sowie Behauptungen bzgl. einer Klimakatastrophe der Lächerlichkeit überführen und „adjustierte“ oder fabrizierte Beweise offenlegen.

Stattdessen diffamieren die Alarmisten Wissenschaftler, die das Mantra von einem „gefährlichen, vom Menschen verursachten Klimawandel“ in Frage stellen. Die Briefe von Markey und Grijalva „enthalten eine ungenannte, aber eindeutige Drohung: Forschungen, die den Klimaalarm widerlegen, sollte eingestellt werden, es sei denn, die Universitäten, die solche Individuen beschäftigen, wollen massive Erschwernisse und Ausgaben hinnehmen – und Wissenschaftler mit derartigen Ansichten sollten nicht anbieten, vor dem Kongress auszusagen“, schreibt Dr. Richard Lindzen. Und Dr. Soon schreibt: „sie sind eine Warnung an jeden anderen Forscher, der es wagen könnte, auch nur im Mindesten die inbrünstig verkündete Orthodoxie der anthropogenen globalen Erwärmung in Frage zu stellen“. Sei still oder verschwinde!

Jetzt verfolgt das Weiße Haus schon Mitglieder des Kongresses! Auf seiner neuen Klimawandel-Leugner-Website werden die Bürger aufgefordert, Kontakt mit Senatoren und Kongressmitgliedern aufzunehmen und diese zu bedrängen, falls sie es wagen sollten, das Klimadiktat des Weißen Hauses in Frage zu stellen.

Irgendwie jedoch haben Markey, Grijalva et al. keinerlei Interesse erkennen lassen, irgendetwas hiervon zu untersuchen. Die Taktik ist genauso verabscheuungswürdig und destruktiv wie die Müllwissenschaft und die Anti-Energie-Politik des Klimaalarmismus‘. Es ist an der Zeit, das IPCC zu reformieren, ebenso wie die EPA, und diese Klimakrise genannte Geisteskrankheit endlich zu beenden.

Link: http://www.cfact.org/2015/03/08/silencing-skeptics-financing-alarmists/

Übersetzt von Chris Frey EIKE




Der Deutschlandfunk (DLF); Abgeordnete und „Experten“ zur Energiewende „Vier Jahre nach Fukushima“,

…Folgerichtig dreht sich das Gespräch der Teilnehmer -geleitet von Georg Ehring (1)- dieser Runde ausschließlich um die hiesigen Folgen der Kraftwerkshavarie im fernen Japan, den damit begründeten Ausstieg aus der Kernenergie und die vorhersehbar absurden Folgen der Energiewende. Insbesondere die beiden Politikerinnen (Anm. der Redaktion Sylvia Kotting-Uhl, MdB, Bündnis 90/Die Grünen und Martina Werner, MdEP, SPD) glänzten durch völlige Ahnungslosigkeit in der Sache, bei gleichzeitig fester ideologischer Meinung, keiner jedoch verlor jedoch kein Wort des Bedauerns über die wahren Opfer. Die anderen beiden Teilnehmer Manuel Frondel vom RWI und Henning Krumrey hatten zwar schwerwiegende, fast ausschließlich ökonomische Gegenargumente, standen aber auch deswegen von Anfang an auf verlorenem Posten, weil auch sie im Grunde die Energiewende nicht in Frage stellten.

Unser DejaVue: Alle diskutierten, wie die ewigen Sozialisten, über den richtigen Weg zum Sozialismus. Der sei im Grunde ja gut, jedoch bisher (mit ca. 100 Millionen Toten) leider, leider nicht richtig angegangen worden. 

Hörer Peter Würdig-Reetz, schrieb daraufhin dem DLF einen Hörerbrief  

Sehr geehrte Damen und Herren,

durch Zufall stieß ich auf Teile Ihrer Sendung vom Mittwoch-Abend, „Vier Jahre nach Fukushima“, bei dem, was da von den beiden Damen, die weitgehend unbelastet von Fachkenntnissen so von sich geben wird einem schon ziemlich übel, aber ich habe mir das trotzdem angetan und habe die Sendung sehr aufmerksam zum zweiten Mal angehört, was man ja heute durch die Möglichkeiten Ihrer Seite im Internet auch kann, Danke dafür.

Der Moderator erinnerte daran, dass durch den Tsunami fast 20.000 Menschen zu Tode gekommen sind, nicht erwähnt wurde, dass durch die Einwirkungen dieser Naturkatastrophe im Bereich der Reaktoren zwar erhebliche materielle Schäden entstanden sind, aber kein Mensch zu Tode gekommen ist. Dass diese beiden Abgeordneten kein Wort über diese hohe Zahl von Menscnenverlusten verlieren sondern nur immer ihre politische Nabelschau hinsichtlich Atom-Angst („the German Angst“) im Blick haben zeigt deutlich, welchen geringen Wert die Vertreter von SPD und Bündnis-90 dem menschlichen Leben zuordnen, Ideologie ist allemal wichtiger. Das fehlende Mitgefühl mit so viel Leid ist für mich erschreckend.

Richtig war, und das war wohltuend, das mal in solcher Deutlichkeit zu hören, dass der Beschluss zum Atom-Ausstieg ausschließlich wahltaktische Gründe hatte und sonst nichts. Dass dadurch ein erheblicher volkswirtschaftlicher Schaden entstanden ist, den diese Parteien zu vertreten haben und den das Volk bezahlen muss ist auch richtig, aber wenn das Volk so dumm ist und Wahltaktik dieser Art honoriert, dann kann es sich über Schaden nicht beklagen. Über weitere Schwachpunkte in der Diskussion über den Atomausstieg möchte ich hier nichts sagen, da sich das ohnehin einer sachlichen Diskussion entzieht.

Dafür möchte ich auf die vielen Fehler in der Diskussion über die sog. „Energiewende“ eingehen. Schon der Begriff ist unehrlich, was zur Zeit betrieben wird ist bestenfalls eine „Stromwende“, elektrischer Strom hat aber am Gesamt-Energieaufkommen nur einen Anteil von etwa ein Fünftel, von den weiteren vier Fünftel einer „Energiewende“ sind wir bisher, Gott sei Dank, verschont geblieben. 

Von den Diskutanten wurde ausgeführt, dass manches bei der Förderung (Subventionierung, man vermeidet dieses hässliche Wort lieber) falsch ausgeführt worden ist und dass falsche Anreize gesetzt worden sind, aber dann muss man doch mal fragen, warum machen denn diese Parteien das so falsch, und warum machen sie so falsch ungehindert weiter, wohl auch aus wahltaktischen Gründen ?

Dann kommt immer wieder eine völlig falsche Geister-Diskussion auf, die Ausnahmen von der EEG-Umlage. Die Ausnahmen sind weitgehend sinnvoll (die Politik beschließt gelegentlich auch mal etwas Sinnvolles, das kann vorkommen), und es ist völlig egal, ob die Ausnahmen wirklich berechtigt sind oder nicht. Beispiele dazu: die Straßenbahnen von Darmstadt sind von der EEG-Umlage ausgenommen. Wären sie das nicht, müssten sie entsprechend die Fahrpreise erhöhen, es bezahlt also am Ende immer der kleine Mann, mit oder ohne Ausnahme, das ist egal. Oder, eine Hähnchen-Schlachterei ist von der EEG-Umlage ausgenommen, wäre sie das nicht, müssten die Hähnchen teurer werden, trifft auch sonst wieder alle (nur mich nicht, denn ich bin Vegetarier). Den hohen Strompreis bezahlt immer der Verbraucher, ganz egal welche Ausnahmen es gibt.

Nun wird für diesen so hohen Strompreis der sog. „Klimaschutz“ angeführt, das muss man sich denn doch etwas kosten lassen (die Diskussion, ob Einsparung von CO2 etwas bringt oder überflüssig ist, will ich hier mal außen vor lassen). Aber, die von der Regierung eingesetzte Experten-Kommission hat in ihrem Bericht festgestellt, dass die sog. „erneuerbaren Energien“ nichts zum Klimaschutz beitragen und auch sonst keinen Beitrag zur Förderung von Innovation bringen und dass das EEG deswegen umgehend ersatzlos abgeschafft werden müsste. Dieser Bericht existiert schon seit über einem Jahr, aber er wird von den beiden Abgeordneten immer noch nicht zur Kenntnis genommen, und das obwohl auch andere namhafte Fach-Gremien (z.B. das Ifo-Institut von Prof. Sinn) zu derselben Schlussfolgerung kommen. Trotzdem wird uns immer wieder ungerührt das Märchen aufgetragen, das die Erneuerbaren doch gut für „das Klima“ seien, wenn sie schon sonst für nichts nützlich sind. Durchgehendes Ausblenden der Realität, das gehört wohl zum Standard-Verhalten der Vertreter dieser Parteien. 

Man fragt sich, wenn die Sache schon so teuer ist und für nichts wirklich nützlich, warum machen wir das denn überhaupt ?  Da wird dann als letztes Argument vorgetragen, dass wir uns damit unabhängig vom Ausland machen. Das wäre zwar theoretisch richtig, aber das ist nun wirklich überholtes Autarkie-Denken, das passt zum Jahr 1914, die weltpolitische Realität sieht heute ganz anders aus,  heute wird weltweit von vielen Ländern Energie angeboten, jedenfalls erheblich preiswerter, dann macht es doch keinen Sinn, sich so in Kosten zu stürzen.

Nun kommt auch zu Recht der Hinweis, dass dieser deutsche Alleingang zu wenig mit den Nachbarn abgestimmt ist. Dazu hat der Vorsitzende der SPD, Wirtschaftsminister Gabriel, jetzt kürzlich das Richtige gesagt: „Das Ausland hält uns sowieso für bekloppt.“ Das sollte auch die Vertreterin der SPD zur Kenntnis nehmen. Die europäischen Nachbarländer werden sich hüten, bei diesem Alleingang mitzumachen, im Gegenteil, sie werden sich zunehmend gegen Eingriffe wehren. Eine verbesserte Absprache der europäischen Nachbarn untereinander wäre wünschenswert, die gegenwärtige deutsche Politik mit ihrer Sucht auf „Energiewende“ praktiziert weitgehend das Gegenteil davon. Unabhängig davon ist aber der Hinweis, dass eine stärkere Vernetzung die Unzuverlässigkeit der erneuerbaren Energien mindern würde  auch falsch und ändert an dem zu Grunde liegenden Problem praktisch nichts, ist auch nur Wunschdenken. Der Tag- und Nachtrythmus ist für alle europäischen Länder fast gleich, es macht überhaupt keinen Sinn, elektrische Energie, die über PV erzeugt wird, von Portugal zu importieren, nur weil dort die Sonne einige Minuten später untergeht (tut sie gar nicht immer). Wenn man das wollte, müsste man schon PV-Strom aus Australien importieren, man sieht, angesichts der verzweifelten Situation werden die Ideen immer verrückter. Und für den Windstrom bringt das auch nur wenig oder nichts, denn die globalen Wetterlagen sind im europäischen Raum nur mäßig verschieden, da lohnt sich ein weiter Transport, der auch kostet, selten oder nie.

Der verrückteste Begriff, der dann kam, das waren die „flexibleren Netze“. Da sieht man, dass diese Dame von den Vorgängen, von denen sie redet, überhaupt keine Ahnung hat (und Politiker meinen wohl nicht selten, das Sachkenntnis eigentlich nur stört). Dass Sie solch einen Begriff den Hörern unkommentiert zumuten ist schon ein starkes Stück. Elektrische Leistung, die an einem Punkt des Netzes entnommen wird (z.B. jemand schaltet das Licht ein) muss Millisekunden genau an einem anderen Punkt des Netzes von einem Generator eingespeist werden, passiert das nicht, schwanken die Frequenz oder die Spannung oder beide gleichzeitig. Speicher, die große Mengen an elektrischer Energie speichern können, gibt es nicht, und es wird sie in einem überschaubaren Zeitraum auch nicht geben, dagegen sprechen die einfachen Grundlagen der Physik, und das kann man durch politische Beschlüsse nicht ändern (wird trotzdem immer wieder versucht). Die vorhandenen Pumpspeicherwerke sind für ganz andere Zwecke gebaut, und sie sind nach Meinung aller Fachleute für die erneuerbaren Energien (EE) ungeeignet. Allein um ein einziges Kernkraftwerk durch EE zu ersetzen bräuchte man etwa 100 Pumpspeicherwerke, das ist außerhalb jeder Realität (Berechnung des Ifo-Institutes). Es gibt noch einige andere verrückte Ideen, z.B. schlug ein Sender mal vor, die deutschen Kanäle für die Speicherung zu verwenden, dann ist Schifffahrt natürlich nicht mehr möglich, aber so kleinlich soll man ja bei einem so hehren Ziel nicht sein.

Die Realität ist, dass es ein einigermaßen durchdachtes und durchgerechnetes Konzept für die Stromwende (fälschlich „Energiewende“ genannt) nicht gibt, man wurstelt planlos irgendwie weiter, und aus reiner Wahltaktik verspricht man Lösungen, die es nicht gibt und nicht geben wird. Das war eigentlich auch von Anfang an klar, man wollte das nur nicht zugeben. Nun haben wir ein skurriles Gemisch aus EE-Erzeugern und konventionellen Kraftwerken, anders geht es erst mal nicht, da nur so ein stabiles Netz mühsam aufrecht erhalten werden kann, wie lange noch ? Für die konventionellen Kraftwerke wird die Situation wirtschaftlich immer prekärer, da sie am Markt konkurrieren müssen mit Anbietern, die außerhalb des Marktes sozusagen hinten herum finanziert werden, ein klassisches Dumping-System. Statt vorher klare Konzepte zu entwickeln bastelt man nun ziemlich hilflos in dieser Situation herum, die  Folgen für Arbeitsplätze und für die Industrie sind verheerend.

Ähnlich zweifelhaft ist die Sache mit den Zertifikaten, die uns so als Schlüssel für die Lösung präsentiert werden. Ein undurchsichtiges System mit der Schieberei von Geld, bei dem nur eines wirklich klar ist, einige kassieren ab, und wir müssen bezahlen. Das System ist von Wirtschaftswissenschaftlern entwickelt und ist in der Grundidee schon falsch, dahinter steckt der Glaube, dass man mit Geld fast alles machen kann, fast alles kann manchmal richtig sein, alles ist hingegen falsch. Wenn das Ausblasen von CO2 richtig teuer wird, dann wird man in Innovation investieren, und dann geht es eben mit weniger CO2. Das stimmt so aber leider nicht, die meisten industriellen Prozesse sind längst am Ende einer möglichen Innovation angekommen, mehr Geld macht die Sache nur teurer, sonst erreicht man dadurch nichts. Die Innovation wird schon durch den Preis für Rohstoffe erzwungen und durch die mögliche Konkurrenz, da ist für technische Verbesserung heute meistens nichts mehr drin. Ein Beispiel von vielen, vor Jahren schwärmte man vom 3-Liter-Auto, heute ist der Treibstoff wesentlich teurer als damals, am Flottenverbrauch hat sich kaum etwas geändert, ein Pkw, mit dem man auch seine Familie kutschieren kann, ist für 3 Liter nicht zu realisieren, das Ende aller Illusionen ist erreicht.

Mehr Geld für Forschung auszugeben ist im Prinzip richtig, aber da werden auch ganz falsche Vorstellungen geweckt. Forschung bringt primär einen Gewinn an Erkenntnis, das ist schon ein Gewinn, aber Forschung bringt nicht zwangsläufig technische Lösungen, auf die man so sehr hofft, die können kommen oder auch nicht, niemand mag das vorauszusagen. Nicht selten kommt man durch Forschung zu der Erkenntnis, dass ein bestimmtes System, auf das man Hoffnung gesetzt hat, doch nicht praktikabel funktionieren wird, auch dann ist das ein Gewinn, denn es beschützt davor noch weiteres Geld in eine unbrauchbare Planung zu investieren. Technische Gerätschaften und das Können der Ingenieure basieren stets auf naturwissenschaftlichen Gesetzen, und die sind eben nicht käuflich, die Natur ist keine Dirne, wir müssen das respektieren. Der richtige Weg ist eben der, sich auf das zu verlassen und darauf die Planung zu setzen von dem man eine sichere Kenntnis hat. Wenn dann später mal eine neue Erfindung hinzukommt, die einiges leichter macht, ist das schön und man kann sie nutzen, von Anfang an darauf bauen darf man nicht, denn niemand weiß vorher, ob oder wann eine neue Erfindung kommt oder auch nicht. Die Gestaltung der Stromwende, so wie wir sie jetzt erleben, ist das krasse Gegenbeispiel, leider, man hat großmäulig vieles versprochen („wir werden die Energiewende schaffen“), und man stürzt sich dabei in ein teures und in vieler Hinsicht eigentlich sinnloses Chaos.

Bülkau, 13.3.2015,

Peter Würdig, Dipl.-Ing. (Physik)  

Eine Antwort steht aus.

Herr Ehring schlug dann in einer Folgesendung noch einmal zu. Im Kommentar zur Sendung schreibt er:

Weitaus billiger wäre es, den Klimawandel effektiv zu bekämpfen, das haben Wissenschaftler immer wieder vorgerechnet. Erforderlich ist vor allem ein schneller Abschied von Kohle, Öl und Gas zur Energieerzeugung. Der hat in vielen Ländern zwar begonnen, doch es fehlt bisher an Konsequenz und Tempo, um einen katastrophalen Klimawandel noch abzuwenden. Den Schaden haben überwiegend arme Länder wie Vanuatu, die ihrerseits kaum etwas zu dem Problem beigetragen haben.

Unser Hörerbriefschreiber der Physiker Peter Würdig-Reetz, sandte daraufhin die folgende Mail an Herrn Ehring.

Sehr geehrter Herr Ehring,

angesichts Ihres Kommentars vom Montag-Abend frage ich mich, wann will man in der Redaktion endlich mal einfache naturwissenschaftliche Wahrheiten zur Kenntnis nehmen ?

Sie sprechen von dem steigenden Meeresspiegel, wir wohnen hier seit 25 Jahren in der Nähe der Küste, und der Badestrand liegt immer noch an derselben Stelle. Wenn Sie das nicht glauben, laden wir Sie ein, uns mal zu besuchen, dann können Sie sich vor Ort selbst überzeugen. Die Fachleute messen jetzt einen Anstieg von 1,6 mm pro Jahr (das waren früher 3 mm pro Jahr), davon entfallen aber etwa 90 % auf die Nachwirkungen der letzten Zwischeneiszeit, verbleiben etwa 0,16 mm pro Jahr, die auf menschliche Einwirkungen zurückgehen könnten. Da fragt man sich doch, lohnt sich darum ein solcher Alarm, abgesehen mal davon, dass es nicht den geringsten naturwissenschaftlich belegten Zusammenhang zu einem Wirbelsturm in der Pazifik gibt ?

Sie sagen weiter wörtlich:

„Erforderlich ist vor allem ein schneller Abschied von Kohle, Öl und Gas zur Energieerzeugung“

Aber, und auch das sollte bekannt sein, die von der Bundesregierung eingesetzte Expertenkommission hat in ihrem Gutachten festgestellt, dass die sog. „Erneuerbaren“ keinen Beitrag zum Klimaschutz liefern, dies in Übereinstimmung mit den Ergebnissen anderer Fachleute, z.B. das Ifo-Institut. Wie stellen Sie sich nun unter diesen Voraussetzungen die Energieerzeugung in einem hoch-industrialisierten Land wie Deutschland vor, wenn man aus der Kernenergie aussteigt, die als einzige Energie ohne CO2 bereitstellt (seit der Abschaltung der ersten Kernkraftwerke ist der CO2-Ausstoß wieder merklich gestiegen, natürlich), wenn die „Erneuerbaren“ nur einen höchst unsozialen Kostenanstieg mit Umverteilung von unten nach oben bringen und sonst keine nützliche Wirkung haben, und Sie nun auch noch aus der Verwendung der fossilen Energieträger aussteigen wollen ?

Freundliche Grüße,

 Peter Würdig

(1) Georg Ehring Mal: georg.ehring@deutschlandradio.de

Geboren in Münster/Westfalen, Studium der Journalistik an der Universität Dortmund und der Volkswirtschaft an der Fernuniversität Hagen. Seit 1997 beim Deutschlandfunk, vorher Wirtschaftsredakteur bei der Nachrichtenagentur Reuters. Volontariat beim Solinger Tageblatt.




Klimadeal zwischen Obama und China bis 2030 – eine Betrachtung des Ergebnisses

Bild rechts: Prof. Richard Muller

Im Wesentlichen sagt das Abkommen: während man von den Westlichen Nationen erwartet, ihre CO2-Emissionen substantiell zu reduzieren, werden China, Indien und der Rest der Entwicklungsländer ihren CO2-Ausstoß zumindest bis zum Jahr 2030 weiter steigern, um deren fortgesetzte Zunahme des Lebensstandards sicherzustellen, und dass nur China danach die weitere Zunahme der CO2-Emissionen begrenzen werde.

Das Obama-China-Abkommen zum Klima wird nichts bewirken hinsichtlich der rasanten Zunahme von CO2-Emissionen von den Entwicklungsländern, besonders von China. Aber die gegenwärtige Rate der Zunahme wird kaum Auswirkungen auf verbesserte Entwicklungen in den meisten Entwicklungsländern bringen – also für rund 55% der dann zu erwartenden Weltbevölkerung.

Die Auswirkungen steigender CO2-Emissionen der Entwicklungsländer wurde von Prof. Richard Muller auf seiner Präsentation im Oktober 2010 eingeräumt:Diese Anmerkungen benutzen einfach nur bekannte Daten über die weltweiten CO2-Emissionen und die Bevölkerung Ende 2013 und führen eine geradlinige Extrapolation dieser Daten bis zum Jahr 2030 durch, und zwar mit dem Zeitraum von 2000 bis 2013 als Indikator der Änderungsrate. Die Quelle mit den CO2-Daten bis Ende 2013 findet sich hier. Diese Präsentation bezieht sich auf frühere Analysen des Wachstums von CO2-Emissionen hier.

Der Gesamteinfluss der entwickelten Welt und der Entwicklungswelt ausgedrückt in beider Gesamt-CO2-Emissionen und die daraus resultierenden wahrscheinlichen Emissionen pro Kopf der Bevölkerung zeigen folgende Graphiken:

Sowohl diese als auch die früheren Analysen teilen die Nationen der Welt in sieben zusammen hängende Gruppen mit unterschiedlichen Haltungen zur CO2-Kontrolle:

Entwickelte Nationen:

● Die USA mit dem Versuch, die CO2-Emissionen zu kontrollieren unter Obamas EPA und die bereits jetzt eine markante Reduktion ihrer CO2-Emissionen verzeichnen infolge des zunehmenden Verbrauchs von Schiefergas zur Stromerzeugung.

● Die Europäische Union und die EFTA (einschließlich UK), gegenwärtig Gläubige an Maßnahmen zum Kampf gegen die globale Erwärmung, und in denen Umwelt-Aktionsgruppen gegen die Erschließung von Schiefergas und gegen Kernkraft Widerstand leisten.

● Japan, die ehemalige Sowjetunion, Kanada und Australien sind entwickelte Nationen, die gegenwärtig jede Kontrolle von CO2-Emissionen ablehnen.

Entwicklungsländer:

● Fortschrittliche Entwicklungsländer, die sich immer noch rapide entwickeln, einschließlich:

Südkorea, Iran, Südafrika, Mexiko, Saudi Arabien, Brasilien, Indonesien und Taiwan (KR IR ZA MX SA BR ID TW).

Außerdem:

● China und Hongkong, die sich rapide entwickeln,

● Indien: entwickelt sich rapide von einer niedrigen Basis

● Der Rest der Welt (rund 160 Nationen): entwickeln sich ziemlich schnell, aber von einer niedrigen Basis.

Die Ausdehnung der Trends zwischen 2000 und 2013 bis zum Jahr 2030 ergibt folgendes Bild:

Die folgende Tabelle umreißt die direkte Basis der Extrapolation von Daten, die sehr gut aus dem Obama-China-Abkommen resultieren könnten. Im Besonderen wird die Größenordnung gezeigt der radikalen Änderung von 2000 über 2013 bis zum Jahr 2030, wobei die chinesischen Emissionen mit einem Anteil von derzeit 14% an allen globalen Emissionen 2030 einen Anteil von 37% erreichen werden. Der Anteil von EU (27) + EFTA geht im gleichen Zeitraum von rund 17% auf 7% zurück. Die Position der USA wird ebenfalls von rund 25% auf 11% im gleichen Zeitraum reduziert.

[Hinweis: Die Tabelle ist im Original {unten auf den Link klicken} natürlich viel besser zu lesen!]

Kommentar

Dieser Artikel sagt das wahrscheinliche Bild von CO2-Emissionen bis zum Jahr 2030 voraus, dem möglichen Endpunkt des Obama-China-Klimaabkommens. Er verwendet die Entwicklung der CO2-Emissionen von 2000 bis 2013 als Prädiktor für die zukünftige Zunahme von CO2-Emissionen.

Diesen geradlinigen Berechnungen zufolge könnten die Gesamt-CO2-Emissionen weltweit um 36% auf rund 48.000.000.000 Tonnen anwachsen. Die entwickelte Welt würde, falls es auf dem derzeitigen Weg weitergeht, eine Reduktion insgesamt um 711.000.000 Tonen während dieses 16-jährigen Zeitraumes erleben. Im gleichen Zeitraum dürften die Emissionen der Entwicklungsländer die substantielle Zunahme von 13.400.000.000 Tonnen verzeichnen. Nur in der entwickelten Gruppe Japan – Russland – Kanada – Australien würde es zu einer geringen Zunahme der CO2-Emissionen kommen.

Es ist gut möglich, dass die CO2-Emissionen der Entwicklungsländer bis zum Jahr 2030 die Emissionen der entwickelten Länder um das 2½-fache übertreffen.

Den größten Beitrag zu wachsenden Emissionen ist unvermeidlich China mit zusätzlichen 8.020.000.000 Tonnen, gefolgt von anderen sich rasch entwickelnden Ökonomien KR IR ZA MX SA BR ID TW mit einem Viertel dieser Menge. [Die Emissionen in] Indien und den anderen 160 unterentwickelten Nationen würde den Prozentzahlen nach signifikant, den absoluten Zahlen nach aber nur moderat zunehmen.

China wird also im Jahre 2030 für etwa 37% der weltweiten CO2-Emissionen verantwortlich sein, und selbst falls China zu jener Zeit seine Emissionen limitieren sollte, würde dieser Anteil in etwa gleich bleiben, während andere Entwicklungsländer ihre CO2-Emissionen weiter steigern, um die Lebensbedingungen ihrer eigenen Bevölkerungen zu verbessern.

Wichtiger jedoch sind die wahrscheinlichen CO2-Emissionen pro Kopf, was eine bedeutende Maßzahl für das Niveau der nationalen Entwicklung ist. Die Verbrauchszahlen für die USA und Europa werden sich jeweils um 20% verringern, während sie in der anderen Gruppe entwickelter Länder, also Japan, Russland, Kanada und Australien, marginal um vielleicht 6% zunehmen. In dieser Gruppe könnten die Emissionen pro Kopf sehr gut auch über das Niveau in den USA steigen. Chinas Emissionen pro Kopf werden im Jahre 2030 über diejenigen der anderen vier Gruppen hinausgehen und dürften ein ähnliches Niveau erreichen wie in den USA.

Es scheint, dass mit der wachsenden Bevölkerung in Indien und der Entwicklungswelt ihr Gesamt-CO2-Ausstoß pro Kopf ziemlich konstant bleiben wird. Andererseits werden einige der Entwicklungsländer ihre CO2-Emissionen pro Kopf erhöhen, wobei sich China substantiell rund 11,6 Tonnen pro Kopf nähert wegen seiner Gesamteinwohnerzahl im Jahre 2030 von 1,5 Milliarden. Dies wird im Jahre 2030 fast doppelt so viel sein wie in Europa mit 6,2 Tonnen; in den USA werden es dann 14,6 Tonnen pro Kopf sein. Das europäische Niveau wird etwa bei den Werten der anderen sich rapide entwickelten Nationen liegen, also KR IR ZA MX SA BR ID TW.

Europa wird seine CO2-Emissionen pro Kopf wahrscheinlich auf rund 6,4 Tonnen verringern. Das wird dann nahe dem weltweiten Mittelwert liegen und könnte sogar noch übertroffen werden von den sich rapide entwickelten Nationen KR IR ZA MX SA BR ID TW.

Es ist unklar, wie stark die Industriekapazität als Folge dieser reduzierten europäischen Emissionen reduziert wird, aber es könnte der europäischen Wettbewerbsfähigkeit größeren Schaden zufügen im Vergleich mit anderen Märkten in der Entwicklungswelt, die sich viel weniger Gedanken um eine Reduktion ihrer CO2-Emissionen machen als Mittel zur Kontrolle des „Klimawandels“. Auch muss man beachten, dass Deutschland, der größte CO2-Emittent in Europa [!] gegenwärtig seinen CO2-Ausstoß erhöht als Folge des zunehmenden Verbrauchs von Kohle zur Erzeugung grundlastfähigen Stromes. Unter Anderem deswegen könnten die europäischen Emissionsziele eventuell nicht erreicht werden, zumindest nicht in einem Ausmaß, wie es während der nächsten 16 Jahre erwartet wird.

Obwohl die Entwicklungsländer Indien und der Rest der Welt (160 Nationen) ein substantielles Wachstum hinlegen sollten (etwa 50%),muss man die derzeit sehr niedrige Basis berücksichtigen als Grundlage dieser Schätzung. Das Bevölkerungswachstum dort sollte ihre Emissionen pro Kopf nicht wesentlich erhöhen. Sie werden bei rund 2 Tonnen pro Kopf verbleiben, was bedeutet, dass die Bereitstellung von Strom für diese 4,8 Milliarden Menschen, die dann 56% der Weltbevölkerung ausmachen werden, nach wie vor stark begrenzt sein wird.

Sowohl Indien als auch die anderen 160 unterentwickelten Länder werden also weiterhin besseren Zugang zu einer zuverlässigen Stromversorgung fordern. Diese Nachfrage könnte gut die CO2-Emissionen dieser 4,8 Milliarden Menschen zunehmen lassen, was die Schätzung für das Jahr 2030 von rund 48.000.000.000 Tonnen CO2-Emissionen als eine deutliche Unterschätzung erscheinen lassen könnte. Dies ist besonders dann der Fall, wenn diese Entwicklungsländer Zugang zu heimischen verfügbaren Kohlereserven bekommen. Schon eine Verdoppelung des Pro-Kopf-CO2-Ausstoßes auf moderate 4 Tonnen pro Kopf würde die weltweiten CO2-Emissionen von 48.000.000.000 Tonnen um weitere rund 10.000.000.000 Tonnen auf 60.000.000.000 Tonnen steigen lassen.

Konsequenzen für die Temperatur

Bei einer Gesamtemission von 48.000.000.00 Tonnen pro Jahr bis 2030 ergibt sich im Vergleich mit dem Gesamt-CO2-Gehalt der Atmosphäre von heute ein Gewicht von I/600 [diese Angabe verstehe ich nicht. Sind vielleicht 0,06% am Gasgemisch der Atmosphäre gemeint? Anm. d. Übers.]. Aber mindestens die Hälfte davon wird rasch von den Ozeanen absorbiert und wird abgeschieden durch die Verbesserung der Bedingungen für das Pflanzenwachstum auf dem Planeten.

Das gegenwärtige CO2-Niveau beträgt etwa 400 ppmv, aber ein offensichtliche Optimum bzgl. von Pflanzen, wie es beispielsweise in Gewächshäusern der Fall ist, wäre eine Konzentration über 1000 ppmv. Und die Entwicklung in der Vergangenheit zeigt, dass CO2-Konzentrationen von vielen tausend ppmv keine schädlichen Auswirkungen auf das Klima haben und lediglich zu einem sehr üppigen Pflanzenwachstum führen.

Bei einer Emissionsrate von 48.000.000.000 Tonnen pro Jahr wäre dies äquivalent zu einer Jahresrate von 5 ppmv; aber mit der Absorption von 50% würde es über 200 Jahre dauern, um der Atmosphäre soviel CO2 zuzuführen, dass irgendwann 1000 ppmv erreicht werden, falls das überhaupt mit der Verbrennung fossiler Treibstoffe möglich ist. Während der 16 Jahre bis 2030 könnte sich eine Zunahme um weitere 20 bis 30 ppmv der weltweiten CO2-Konzentration ergeben.

Die im nächsten Absatz genannten Zahlen beruhen auf Berechnungen der logarithmischen Verminderung der Effektivität von CO2 als Treibhausgas mittels Zahlen vom IPCC. Gezeigt werden diese Berechnungen hier und hier.

Dieses zusätzliche CO2 bis zu einem Niveau von 1000 ppmv würde lediglich zu einem Temperaturanstieg von 0,4°C bis 0,9°C der weltweiten Mitteltemperatur führen. Und über 1000 ppmv hinausgehende Konzentrationen in der Atmosphäre hätten wirklich kaum noch Auswirkung auf die Temperatur wegen des Effektes der logarithmisch abnehmenden Wirksamkeit hinsichtlich der Temperatur.

Eine deutlich verbesserte Pflanzen-Produktivität, ein geringfügig wärmeres Klima und eine Vergrößerung der landwirtschaftlich nutzbaren Fläche kann man wohl kaum als eine weltweite Katastrophe oder einen unmittelbar bevorstehenden Notfall betrachten. [Hervorhebung im Original].

Schlussfolgerungen

Alle Versuche, die CO2-Emissionen zu reduzieren, haben zur Grundlage, dass jedwede vom Menschen verursachte Erwärmung des Klimas gefährlich ist und dass man dies durch eine Reduktion der menschlichen CO2-Emissionen hauptsächlich in den entwickelten westlichen Nationen kontrollieren könnte. Aber bis zum Jahr 2030 wären diese entwickelten Nationen lediglich für etwa 30% der globalen CO2-Emissionen verantwortlich. Und deren wahrscheinliche Reduktion der Emissionen wäre marginal, weil es nur etwa ein Zwanzigstel der gesteigerten Emissionen aus der Entwicklungswelt ausmacht.

Unabhängig davon ist es klar, dass selbst eine Fortsetzung der derzeitigen Zunahme der CO2-Emissionen im Zusammenhang mit Bevölkerungswachstum im Rest der unterentwickelten Welt nur wenig dazu beitragen wird, das Niveau der Entwicklung für den größeren Teil (rund 55%) der dann globalen Bevölkerung zu erhöhen.

Die öffentliche Meinung in der westlichen Welt hat das CO2 aus der Verbrennung fossiler Treibstoffe als Verschmutzer zusammen mit anderen Verschmutzern verschmolzen (SO2, N2O, Partikel usw). Die öffentliche Weltmeinung hat nicht verstanden, dass das derzeitige CO2-Niveau in der Atmosphäre auf einem historischen Tiefststand liegt [falsch, man hat es ihr verschwiegen oder an maßgeblicher Stelle geleugnet! Anm. d. Übers.], und dass jede reale Reduktion des CO2-Niveaus das Leben auf der Erde torpedieren würde in Gestalt einer Schädigung des Kohlenstoff-Kreislaufes, einer Voraussetzung des Überlebens aller Pflanzen.

Damit wird klar, dass CO2-Emissionen weiterhin zunehmen werden. Keine substantielle Temperaturverringerung oder Kontrolle des Klimawandels kann aus dem Obama-China-Abkommen resultieren. Und außerdem wäre jede Erhöhung des CO2-Niveaus sehr vorteilhaft für die Entwicklung des Lebens auf der Erde.

Und es ist sehr unwahrscheinlich, dass jedwede CO2-Reduktion zur Kontrolle des Klimas geeignet wäre.

Aus Eisbohrkernen, die die gegenwärtige günstige Holozän-Zwischeneiszeit abdecken, geht eindeutig hervor, dass das vorige Millenium von 1000 bis 2000 das kälteste Millenium der letzten 10.000 Jahre war mit einer Temperatur, die um etwa 3°C niedriger lag als das Klimaoptimum des Holozäns vor etwa 9000 Jahren. Mit nunmehr 10.000 Jahren dauert unser gegenwärtiges günstiges Interglazial schon ziemlich lange. Dies würde auf eine kommende reale Vereisung hindeuten, entweder in diesem Jahrhundert, im nächsten Jahrhundert oder in diesem Jahrtausend. Dies zusammen mit der gegenwärtigen Sonnenaktivität ähnlich wie während des Dalton-Minimums lässt eine reale Abkühlung als viel wahrscheinlicher erscheinen als eine Erwärmung.

Jedwede zukünftige Abkühlung wird wahrscheinlich eine Erwärmung, ob nun vom Menschen verursacht oder nicht, die Ende des 20. Jahrhunderts so positive Auswirkungen hatte, trivial und irrelevant aussehen lassen.

Link: http://wattsupwiththat.com/2015/03/13/charting-the-outcome-of-the-obama-china-climate-deal-by-2030/

Übersetzt von Chris Frey EIKE