1

Energiewende: Land unter im Stromsee – Nur hohe Nutzungsgrade machen Sinn

Das Hauptproblem bei den wetterabhängigen Stromerzeugungsverfahren aus Wind und Sonne sind die geringen Nutzungsgrade. Will man z.B. aus Windenergie einen im Jahresmittel definierten Ertrag gewinnen, dann kann man die am Typenschild der Anlagen ablesbare Leistungsangabe nicht heranziehen. Entscheidend ist vielmehr der Nutzungsgrad, eine prozentuale Angabe über den Abschlag, mit dem die Typenschildabgabe multipliziert werden muss. Wie Bild 1 zeigt, würde ein motorisch betriebenes Kraftwerk, das nahezu unterbrechungsfrei arbeiten kann, bei einer nominellen Leistung von 1 MW bis zum Ende eines Betriebsjahres ca. 8600 MWh elektrischer Arbeit abliefern. Bei einer Windenergieanlage mit nominell gleicher Leistung wären es zum Jahresende lediglich 1524 MWh und bei einer Solaranlage sogar lediglich 727 MWh. Ursache ist der miserable Nutzungsgrad der „Erneuerbaren“: Sowohl Wind- als auch Solarkraftwerke liefern nur ganz selten die volle Höchstleistung ab, die weitaus meiste Zeit kommen nur Bruchteile davon aus den Anschlüssen. Bei an Land errichteten Windenergieanlagen liegt der Mittelwert daher bei lediglich 17,4 % statt 100 % des theoretisch möglichen Ertrags, bei Solaranlagen sind es sogar nur 8,3 %.

Bild 1: Vergleich der gelieferten Jahresstrommenge für ein Motorkraftwerk, eine Windenergieanlage und eine Solaranlage, jeweils mit einer Typenschildleistung von 1 MW

Da jedoch 100 % bzw. 8600 MWh benötigt werden, muss man bei EE-Anlagen deshalb eine entsprechend höhere Kapazität installieren, Bild 2. Bei Wind entspricht dies dem Faktor 5,75, bei Solarstrom mit seinem noch deutlich schlechteren Nutzungsgrad von 8,3 % liegt der Faktor sogar bei 12,05.

Bild 2: Gleicher Stromertrag von 1 MW Motorkraft, 5,75 MW Windenergie oder 12 MW Solarpaneelen.

Anders ausgedrückt: Um ein Motorkraftwerk mit nominell 1 MW bei 98,5 % Auslastung zu ersetzen, muss man 5,75 MW Windleistung oder sogar 12 MW Solarleistung installieren – und deren Produktion bei „gutem“ Wetter auch irgendwohin schaffen, wo sie sinnvoll genutzt werden kann.

Strom-Tsunamis sind vorprogrammiert

Direkte Folge der großen Überkapazitäten, die man beim Ersatz konventioneller Stromerzeugungstechnologien durch Wind- und Solaranlagen mit schlechten Nutzungsgraden vorsehen muss, ist eine entsprechend hohe Überproduktion an Strom, wenn es der Wind oder die Sonne mal besonders gut meinen. Während ein konventionelles Kraftwerk mit 1 MW Leistung stets genau diese Leistung zur Verfügung stellt, sieht dies bei einem Windpark ganz anders aus: Es wird je nach Wetterlage zwischen 1 % und 575 % der eigentlich benötigten Leistung ins Netz einspeisen, egal wie hoch der aktuelle Bedarf ist. Bei einem Solarkraftwerk sind es dementsprechend zwischen 0 % und 1200 %.

Allerdings kann man den bei „guter“ Wetterlage zuviel produzierten Strom nicht einfach „wegwerfen“, da man damit im Prinzip die Zeiten schwächerer Produktion ausgleichen muss. Anderenfalls würde man die für das Gesamtjahr benötigte Stromproduktion nicht darstellen können. Das Ganze kann daher nur funktionieren, wenn man die in Zeiten des Überflusses produzierten Strom-Tsunamis irgendwohin leitet, wo sie sinnvoll verwendet werden können. Das könnten in Zukunft irgendwelche Speichersysteme oder – so wie es jetzt gehandhabt wird – einfach die Stromnetze unserer diversen Nachbarländer sein, denen man den Segen mit teils massiven Zuzahlungen auf’s Auge drückt.

Das Problem ist dabei, dass man hierfür die Leitungsnetze entsprechend der im Extremfall zu erwartenden Strommengen überdimensionieren muss. Während für das bereits angesprochene 1-MW-Motorkraftwerk eine Leitung mit einer Transportkapazität von 1 MW völlig ausreichen würde, müsste sie für den Anschluss eines Windparks mit 5,75 MW auch für dessen Maximalkapazität ausgelegt werden, auch wenn im Jahresmittel nur 1 MW Transportkapazität genutzt wird. Anders ausgedrückt: Man muss eine 5,75 MW-Leitung vorsehen, die jedoch statt zu 98,5 % lediglich zu 17,4 % ausgelastet wird. Im Straßenbau entspräche dies dem Bau einer sechsspurigen Autobahn, über die dann im Mittel das Verkehrsaufkommen einer einspurigen Landstraße abgewickelt wird, Bild 3. Noch schlechter sieht es bei Solaranlagen aus, da hier das Verhältnis 1/12 ist. Das entspräche einer 12spurigen Autobahn statt einer Landstraße.

Bild 3: Stromnetz-Analogie: Wo bei konventionellen Kraftwerken eine einspurige Landstraße reichen würde, müsste man bei Windstrom für die Bewältigung des gleichen Jahresstromaufkommens eine sechsspurige Autobahn vorsehen

Ausbauziele für Deutschland

Um abzuschätzen, wie sich die weitere Entwicklung des EEG in den kommenden Jahren auf die Stromproduktion Deutschlands sowie auf die dortigen Stromnetze auswirken dürfte, gehen wir zunächst von der aktuellen Stromproduktion und von den EE-Planungen der Großen Koalition aus. Als Referenz nehmen wir das Jahr 2013 mit einer Gesamt-Stromproduktion von 629 TWh. Während die Stromerzeugung in Deutschland – außer in Kriegs- und Krisenzeiten – stets zunahm, unterstellen wir einmal, dass die aktuellen Sparbemühungen zu einem „Einfrieren“ des Stromverbrauchs auf dem Niveau des Jahres 2013 führen werden. Da die Politik jedoch den Autoverkehr auf elektrische Antriebe umstellen will, muss der hierfür benötigte Strom zusätzlich erzeugt werden. Für 2020 sind 1 Mio. Elektrofahrzeuge geplant, während bis 2050 die gesamte PKW-Flotte von heute rund 44 Mio. Fahrzeugen durch Stromschlucker ersetzt sein soll. Aufgrund dieses zusätzlichen Verbrauchs ergäbe sich dann für 2050 eine Stromerzeugung von 759 TWh. Für 2050 plant die große Koalition einen EE-Anteil an der Stromproduktion von 80 %. Noch weiter gehen Grüne, WWF, Greenpeace und die evangelische Kirche, die 100 % EE-Anteil fordern.

Setzt man die obigen Zahlen um, so lassen sich für die Stromproduktion aus EE-Quellen folgende Zielvorgaben errechnen:

Jahr 2050:      TWh 

Wind Onshore (erforderl. Kapazität 288100 MW, Nutzungsgrad 17,4 %)       439,1

Wind Offshore (erforderl. Kapazität   36010 MW, Nutzungsgrad 34,8 %)    109,8

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)        37,8

Wasser (Kapazität 4300 MW)       20,5

Jahr 2050 bei 100 % EE-Erzeugung (Forderung   ev. Kirchentag)    TWh   

Wind Onshore (erforderl. Kapazität 367800 MW, Nutzungsgrad 17,4 %)       560,6                                            

Wind Offshore (erforderl. Kapazität  46000 MW, Nutzungsgrad 34,8 %)    140,1                                               

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 % )      37,8                                                                

Wasser (Kapazität 4300 MW )        20,5                                                                                      

Diesen Zahlen liegen folgende Annahmen zugrunde: Die Produktion von Strom aus Wasserkraft wird sich in Deutschland kaum noch steigern lassen. Auch der Erzeugung von Strom aus Getreide – vornehm als Biogas bezeichnet – dürfte wegen der Amoralität dieses Tuns in einer hungrigen Welt (man braucht sich nur zu fragen, warum so viele Bootsflüchtlinge auf dem Mittelmeer ihr Leben riskieren) kaum noch großes Wachstum beschieden sein. Und bei Fotovoltaik ist ein Deckel von 52000 MW geplant. Alle künftigen Steigerungen der Erzeugung von EE-Strom können daher im Prinzip fast nur noch durch Ausbau der Windenergie erfolgen. Blieben von den EE-Erzeugern theoretisch also noch Müllverbrennungsanlagen (5,2 TWh in 2013) und Getreidegasanlagen (42,6 TWh in 2013), die parallel zu den Wind- und Solaranlagen einspeisen. Aus naheliegenden Gründen dürfte ihr Anteil in den kommenden Jahrzehnten jedoch gegen Null tendieren, da alle heute existierenden Anlagen bis 2050 aus der Förderung herausfallen und neue Anlagen wohl kaum noch errichtet werden. Die heute noch existierenden Kraft-Wärme-Kopplungsanlagen dürften bis 2050 wegen mangelnder Wirtschaftlichkeit vom Markt verschwunden sein.

Auswirkungen auf die Stromproduktion

Um die konkreten Auswirkungen des beschlossenen Ausbaus von Wind- und Solarstromerzeugung im Jahre 2050 zu veranschaulichen, wurden die realen Zahlen der Stromproduktion des Dezembers 2013 in viertelstündlicher Auflösung zugrunde gelegt. Dann wurden sowohl die vollständige Netzlast als auch die zu erwartende Leistungsbereitstellung durch Wind- und Solarkraftwerke mit Hilfe der oben aufgeführten Zahlen umgerechnet. Bild 4 zeigt die entsprechenden Werte für die Netzlast (entspricht in etwa dem inländischen Verbrauch) sowie für die Summenleistung von Wind- und Solarenergieanlagen plus Wasserkraft. Der Spitzenwert liegt bei 296000 MW.

Bild 4: Projektion der Netzlast (dunkelblau) sowie der kumulierten Leistung von Wind-und Solarstromanlagen im Dezember 2050

Wer beim Blick auf diese Darstellung jetzt annimmt, man könne angesichts der großen Mengen an EE-Strom die Kapazität der konventionellen Kraftwerke stark reduzieren, den wird ein Blick auf Bild 5 enttäuschen. Trotz der riesigen Kapazitäten von Wind- und Solarenergieanlagen gibt es weiterhin zahlreiche kürzere oder auch längere Zeiträume, wo konventionelle Kraftwerke einspringen müssen, weil die Produktion von EE-Strom nicht ausreicht, um Deutschland zu versorgen. In der Spitze müssen konventionelle Kraftwerke bis zu 61000 MW Leistung bereitstellen, damit die Stromversorgung gesichert bleibt. Darüber hinaus müssen zahlreiche Kohle- und Gaskraftwerke sogar kontinuierlich am Netz bleiben, um die Mindestleistung von etwa 28000 MW zu sichern, die benötigt wird, um die zur Stabilisierung des Netzes erforderliche Regelleistung darstellen zu können.

Bild 5: Im fiktiven Dezember 2050 benötigte Leistung aus konventionellen Kraftwerken: Rot für die Tage, an denen die Produktion aus EE-Quellen nicht zur Deckung der Netzlast ausreicht, und blau die zur Aufrechterhaltung der Netzsicherheit erforderliche Mindestleistung

Auswirkung auf die Netze

Würde der Ausbau der Stromproduktion aus sogenannten „Erneuerbaren Energien“ entsprechend der bisherigen Planungen konsequent umgesetzt, so hätte dies erhebliche Konsequenzen auch im Bereich der Hochspannungs-Übertragungsnetze für den erzeugten elektrischen Strom. Charakteristisch für die aktuelle Situation ist die weitgehende Planlosigkeit, mit der offensichtlich agiert wird. Grund hierfür ist sicherlich auch die Tatsache, dass sich bisher keinerlei vertretbare großtechnische Lösung für die Speicherproblematik abzeichnet. Deshalb werden bezüglich der Leitungsnetze zurzeit nur kleinere Lückenfüller wie „SüdLink“ projektiert, mit denen man die auf uns zurollende Erzeugungswelle auf keinen Fall bewältigen kann. Dies zeigt ein Blick auf Bild 6 mit der Simulation der gesamten Erzeugungsleistung des Dezembers einschließlich der Produktion der nach wie vor unverzichtbaren konventionellen Kraftwerke.

Bild 6: Im Dezember 2050 würde die maximale Einspeiseleistung bei weiterer Fortführung der Pläne der Bundesregierung bis zu 319600 MW erreichen

In der Spitze – d.h. bei günstigen Wetterverhältnissen und einer auf die Sicherheitsreserve reduzierten Leistung der konventionellen Kraftwerke – würden bis zu 319600 MW an elektrischer Leistung eingespeist – das ist um den Faktor 3,76 Mal mehr als die 85000 MW an gesicherter Leistung, für die unser Stromversorgungssystem einschließlich der Leitungsnetze ausgelegt ist. Anders ausgedrückt: Wo heute eine Hochspannungsleitung verläuft, dürften es bis 2050 vier sein, Bild 7.

Bild 7: Wo heute nur eine Stromleitung verläuft, könnten es in einigen Jahrzehnten vier sein

Egal ob man diesen Strom jetzt in „Wunderspeicher“ einlagert, die irgendwelche grünen Genies bis dahin noch „mal eben schnell“ erfinden müssen, oder ob man vorhat, damit die Energiewirtschaft diverser Nachbarländer zu beglücken: Diesem massiven Überangebot wäre unser heutiges Übertragungsnetz nicht im Entferntesten gewachsen. Man kann grob über den Daumen schätzen, dass unser Netz für die Bewältigung dieser Strommengen um den oben errechneten Faktor erweitert werden müsste. Ausgehend von der heutigen Länge von rund 38000 km müsste demnach ein Ausbau um 104900 km auf eine Gesamtlänge von 142900 km erfolgen. Bezüglich der Kosten kann man in erster Näherung von dem aktuell veranschlagten Aufwand von bis zu 10 Mrd. € für die rund 800 km lange „SüdLink“-Trasse ausgehen, die dereinst Windstrom von der Nord- und Ostsee nach Grafenrheinfeld transportieren soll. Dabei kann dieser Ansatz noch als konservativ eingestuft werden, wenn man sich das Ausmaß der Kostenüberschreitungen ansieht, die bei Großprojekten wie Stuttgart 21, der Elbphilharmonie oder dem BER-Flughafen die Regel zu sein scheinen. Rechnet man diesen Wert auf die genannten 104900 km hoch, so landet man bei Investitionskosten von etwa 1311 Mrd. € – nur allein für den bis 2050 voraussichtlich erforderlichen Ausbau des Stromnetzes.

Sind „100 % EE“ tatsächlich machbar?

Eine interessante Frage, die sich in diesem Zusammenhang stellt, ist die nach der angeblich möglichen Vollversorgung mit EE-Strom, eine Position, die von diversen politischen Kräften sowie von der Evangelischen Kirche vertreten wird. Auch dieses Szenario lässt sich am Beispiel des Dezembers 2050 durchrechnen. Voraussetzung hierfür ist die Annahme, dass ein „grüner“ Wundereffekt, auf den bisher noch kein Ingenieur gekommen ist, die Stabilisierung des Netzes auch ohne die Stützfunktion konventioneller Kraftwerke bewirken wird. Das vom Übertragungsnetz in diesem Fall zu bewältigende Leistungsangebot von bis zu 376000 MW zeigt Bild 8. Bei diesem Szenario müsste man die Netze um den Faktor 4,4 auf 168000 km erweitern. Dafür wären 1625 Mrd. € aufzubringen. 




Nachruf auf Prof. Dr. Werner Weber (TU Dortmund)

Werner Weber forschte auf dem Gebiet der theoretischen Festkörperphysik, insbesondere der Supraleitung (hier, hier) und engagierte sich, insbesondere nach seinem Ausscheiden aus den aktiven Dienst, aktuellen Fragen der Klimaforschung. So war er u.a. aktiver Teilnehmer einer Gruppe von Experten, die das Potsdamer Institut für Klimafolgenforschung (PIK) zu einem gemeinsamen Seminar eingeladen hatte (hier). Ferner schreib W. Weber einen längeren Gastbeitrag im Buch „Die Kalte Sonne“ von Vahrenholt und Lüning sowie die folgenden zwei begutachteten Fachaufsätze zum Einfluss der Sonne auf Klimaparameter:

W. Weber: Strong Signature of the Active Sun in 100 Years of Terrestrial Insolation Data, Annalen der Physik, 23 (2009) sowie

W. Weber and A. Hempelmann: Correlation between the Sunspot Number, the Total Solar Irradiance, and the Terrestrial Insolation, Solar Physics, doi 10.1007/s11207-011-9905-4 (2011).

Wer Werner Weber persönlich kannte, schätzte seine Kollegialität und insbesondere seinen trockenen Humor. Sein Lachen war ansteckend. Er war ein aufmerksamer, vielseitig beschlagener Gesprächspartner und wegen seiner profunden Kenntnisse der Experimental-Physik nicht ohne Weiteres als "Theoretiker" ausmachbar. Dazu trug wohl auch seine stets von Technik geprägte akademische Umgebung bei (TU Karlsruhe, Bell Laboratories, TU Dortmund).

Persönlich verband mich mit Werner Weber zuerst ein gemeinsames Forschungsprojekt, das inzwischen, von wenigen noch ausstehenden Ergänzungsrechnungen abgesehen und mit Werner Weber als Hauptautor, nahezu fertig vorliegt und von uns beiden zur Einreichung in ein begutachtetes Fachjournal vorgesehen war. Wir waren freilich mehr als nur eine Zweck-Arbeitsgemeinschaft. Weber war Gast im Haus von mir und meiner Fau, und unsere regelmäßigen, oft stundenlangen Telefonate umfassten nicht nur physikalische Themen sondern waren zumindest für mich stets spannende Wanderungen durch die heutige Realität von der Physik bis hin zur Politik. Werner Weber ist mir in der Zeit unserer Zusammenarbeit zu einem Freund geworden, wie man ihn in späten Jahren nicht mehr gewinnt. Sein zu früher, völlig unerwarteter Tod hat mich tief erschüttert.

Prof. Dr. Horst-Joachim Lüdecke (Physiker)
EIKE Pressesprecher

Die Redaktion schließt sich diesem Nachruf aus voller Überzeugung an. Wir sind sehr traurig einen so wertvollen und angenehmen Mitstreiter wie Prof. Werner Weber verloren zu haben. Unsere Gedanken sind bei seiner Familie.

Für die Redaktion: Michael Limburg, Vizepräsident EIKE

 




BGH hält EEG für verfassungskonform

Nun werden Juristen dafür trainiert und bezahlt, dass sie das geschriebene Recht so spitzfindig wie möglich auslegen, um es auf ein bestehendes  Rechtsproblem zu Gunsten ihrer Mandanten anzuwenden. Die Richter – ebenfalls versierte Juristen- sind dann vom Gesetz aufgefordert unter Berücksichtigung der Gesetzeslage nach bestem Wissen und Gewissen neutral und gesetzeskonform zu entscheiden. Also weder den Kläger, noch den Beklagten zu übervorteilen.

Und die Richter des BGH lassen sich in ihrer Spitzfindigkeit wohl von niemandem übertreffen. Doch anders als bei normalem Gerichten sitzt anscheinend der Staat beim BGH nicht nur als Beklagter vor Ihnen, sondern auch als Oberrichter auf der Richterbank dabei.

Auf diese Gedanken muss man kommen, wenn man die Begründung für die Ablehnung (z VIII ZR 169/13).) der Verfassungsklage liest.

Denn, so die Richter des BGH, charakteristisch für eine Sonderabgabe sei, dass die öffentliche Hand von ihr profitiere oder zumindest Einfluss auf die Gelder nehmen könne. „Sämtliche Geldmittel, die durch das EEG 2012 geschaffen und gesteuert würden, bewegten sich ausschließlich zwischen juristischen Personen des Privatrechts“[1], begründeten die Richter ihren Spruch. Der öffentlichen Hand flössen keine Gelder zu.

Für jeden Kenner der Materie ist diese Einschätzung grottenfalsch, weil völlig an der Realität vorbei. Die Gründe dafür sind vielfältig. Ich will nur drei nennen

1.    Das Gesetzgeber zwingt die Netzbetreiber den per EEG gegenüber konventionellen überteuert erzeugten NIE-Strom in jeder angebotenen Menge, zu jeder Zeit, und auf zwanzig Jahre garantiert aufzukaufen. Das ist – anders als das Gericht uns weismachen will- ein direkter Einfluss ..“auf die Geldmittel, die durch das EEG „geschaffen“ und gesteuert“ werden. Denn der Gesetzgeber erzwingt nicht nur die Abnahme, sondern bestimmt auch den (überhöhten) Preis und die Dauer der Abnahmeverpflichtung.

2.   Der Gesetzgeber „erlaubt“ per EEG den Netzbetreibern, die Ihnen entstehenden Kosten durch den Aufkaufzwang von nutzlosem weil qualitativ minderwertigen und überteuerten NIE Strom per Umlage an bestimmte Verbrauchergruppen weiter zu geben. Andere werden ausgenommen. Diese Auswahl bestimmt der Gesetzgeber. Damit nimmt der Gesetzgeber erneut direkten Einfluss auf die Geldmittel und steuert diese auch direkt.

3.   Die Mehrwertsteuer, die auf die EEG Umlage erhoben wird, fließt dem Gesetzgeber direkt zu. Für dieses Jahr erwartet die Bundesregierung daraus Einnahmen in Höhe von 1,61 Milliarden Euro, berichtete kürzlich das Handelsblatt[2]. Für das gesamte EEG-Umlagenaufkommen zahlten private Verbraucher wie Unternehmen allein von Januar bis Mai 2014 6.160 Mill.€ an Umsatzsteuern, wie der Verbraucherschutzverein „Bürger für Technik“ unter Berufung auf Medienberichte soeben berichtet. Dieser „Geldfluss“ wurde also allein durch das vom Gesetzgeber verordnete EEG „geschaffen“ und fließt direkt – also von ihm „gesteuert“-  dem Staat zu.

So zumindest hätte man die Situation einschätzen müssen, wenn man nicht nur der normalen Logik sondern auch der realen Situation und ihrer Auswirkungen auf die Gesetzeslage folgte. Die BHG Richter hätten also dem Kläger eindeutig recht gegen müssen. Wollten Sie aber offensichtlich nicht. Justitia war mal wieder blind und taub, aber nicht stumm. Auch wenn damit das Rechtsempfinden,  wie auch das geltende Recht -meiner unmaßgeblichen Meinung nach- schwer verbogen wurde.

Mit dieser Haltung des BGH wird aber auch jedem bewusst, dass auch andere potentielle Anfechtungen des EEG z.B. wg. Sittenwidrigkeit vor demselben BGH vermutlich wenig Aussicht auf Erfolg haben werden.


[1] Quelle http://www.faz.net/agenturmeldungen/unternehmensnachrichten/bgh-haelt-eeg-umlage-nicht-fuer-verfassungswidrig-13045205.html

[2]Quelle: http://www.handelsblatt.com/politik/deutschland/umsatzsteuer-auf-eeg-umlage-steigende-strompreise-spuelen-geld-in-die-bundeskasse/9770254.html




Meine Tage im Hass (FAZ)

Bevor wir die Ursachen der von Frau Andrea Diener geschilderten (hier) Leser-Anwürfe zu ergründen suchen, möchten wir definieren, wie eine freie Zeitungspresse nach unserer Auffassung aussehen muss:

Sie darf nicht voreingenommen sein, sondern muss sich vielmehr bemühen alle Aspekte eines umstrittenen Problems neutral-gleichgewichtig zu schildern. Sie sollte keine Meinung vertreten, sondern das zu einem Thema gehörende Meinungsspektrum neutral gewichtet von allen Seiten kommentieren und die Meinungsbildung dem Leser überlassen. Falls sie doch eine eigene Meinung äußert, so ist diese als solche klar zu benennen und es sind andere Auffassungen, sofern sachlich begründbar, der eigenen Meinung offen und fair gegenüberzustellen.

Soweit Theorie und Wunsch. Kommt die FAZ dieser Forderungen nach? Wir sagen eindeutig "Nein" und werden diese Behauptung insbesondere an Hand der für unsere Wirtschaft wichtigen Themen "Klima" und "Energie" im Folgenden belegen.

Beginnen wir mit "Klima". Für dieses Thema verantwortlich schaltet und waltet in der FAZ der fachfremde Biologe Müller-Jung (MJ), dessen Berichterstattung nicht objektiv sondern stark voreingenommen ist. MJ gibt im Wesentlichen die Meinung des Potsdamer Instituts für Klimafolgenforschung (PIK) wieder. Dieses Institut tritt mit seinen öffentlichen Äußerungen keineswegs neutral informierend auf, sondern darf zutreffend als mit öffentlichen Mitteln finanzierte Agitationshilfe der wissenschaftlich umstrittenen Auffassungen des IPCC bezeichnet werden.

Keine der üblichen Klima-Katastrophenmeldungen, wie sie immer wieder dem wehrlosen TV-Konsumenten im ZDF durch den unendlich selbstgefälligen TV-Journalisten Claus Kleber mit fingerdick aufgetragener weinerlicher Empathie angedient werden, lässt dementsprechend auch der FAZ Redakteur MJ aus. Der einzige Unterschied zur TV-Berichterstattung, die in ihrer Propagandaintensität der des ehemaligen DDR-Fernsehens kaum nachsteht, ist lediglich die qualitativ bessere Aufbereitung seitens MJ in der FAZ. Sie muss dem intellektuellen Stand eines FAZ-Lesers, verglichen mit dem eines BILD-Lesers, Rechnung tragen und kommt höherwertiger daher. Sachlich sind aber die Beiträge von MJ in der Regel gleich wertlos wie die von C. Kleber: Wiederkäuen sachlichen Unsinns unter dem Motto "menschgemachte Klimakatastrophen", ähnlich wie sie im Spektrum der Wissenschaften oder auf dem Blog von Stefan Rahmstorf (hier) ausgebreitet werden.

Die FAZ als angeblich hochwertiges Tagesperiodikum hat es versäumt, sich von der verkündeten menschgemachten Klimakatastrophe schmelzender Pole, beschleunigter Meeresspiegel-Anstiege und weiteren anthropogenen Klimakatastrophen-Klamauks klug zu distanzieren. Dies hätte, um drei stellvertretende Beispiele zu nennen, darin bestehen können, den großen Teil derjenigen begutachtete Fachliteratur zur Kenntnis zu nehmen, die dem IPCC und dem PIK diametral widerspricht (hier, hier) und diese wissenschaftliche Gegenposition dem FAZ-Leser journalistisch zugänglich zu machen. FAZ Leser sollen ja gemäß FAZ-Werbung vermehrt zum Selberdenken fähig sein – oder doch nicht? Um nicht missverstanden zu werden, kennen diese Teile der Fachliteratur selbstverständlich auch Klimakatastrophen, nur eben KEINE menschgemachten. Es kann nicht genug betont werden, dass bis heute der messtechnische Nachweis eines maßgebenden Einfluss des Menschen auf Klimavorgänge in der begutachteten Fachliteratur aussteht. Das ist der entscheidende Punkt, von dem wir in der FAZ nichts erfahren.

Eine neutrale Berichterstattung der FAZ könnte ferner darin bestehen, die unzähligen Manifeste und Petitionen von Fachwissenschaftlern gegen die IPCC-Agenda zur Kenntnis zu nehmen und der Öffentlichkeit mitzuteilen (hier, hier, hier, hier, hier, hier, hier, hier, hier). Dies ist bezeichnenderweise noch nie in einer deutschen Zeitung erfolgt, was Bände über die Zustände der deutschen Medien spricht. Und es könnten zum Dritten in der FAZ vermehrt Interviews mit solchen Skeptikern am menschgemachten Klimawandel erscheinen, die sich durch Veröffentlichung einschlägiger begutachteter Fachpublikationen hinreichend wissenschaftlich ausgewiesen haben. Nichts von all dem geschieht, von seltenen Ausnahmen wie Beiträgen bzw. Interviews von Mangini, von v. Storch etc. abgesehen!

Unübersehbar folgt die FAZ einer Redaktionslinie, die die unerwünschten Gegenpositionen zum IPCC zensiert. Es würde zu weit führen, über die Gründe dieses Mangels zu spekulieren, die von einer beabsichtigten Redaktionspolitik der FAZ-Eigner bis hin zu Rücksichtnahmen auf Inserenten grüner Energien reichen könnten (deren Portefeuilles aus Steuermitteln bekanntlich gut gefüllt sind). Um noch einmal nicht missverstanden zu werden: Die FAZ kann ja, wenn sie unbedingt meint, die von MJ verbreitete Auffassung vertreten, sie darf aber die wissenschaftlich seriösen Gegenpositionen nicht gänzlich ausblenden. Zumindest nicht, wenn sie wünscht, dass ihr nicht immer mehr Leser davonlaufen und sich anderweitig über das von Politik und grünen Ideologen so sehnlich herbeigewünschte aber nicht nachweisbare Phänomen eines "menschgemachten Klimawandels" informieren.

Mit der Energiewende verhält es sich nur wenig besser als mit dem religiösen Glauben weiter Teile der Öffentlichkeit von der anthropogenen Klimaschädigung. Die FAZ vertritt eine gemäßigte, mit allen Konkurrenzorganen fast schon als abgesprochen zu bezeichnende Pseudokritik der Energiewende. Noch weniger Kritik würde nämlich wirklich zu einem Leseraufstand führen und ist auch angesichts des immer mehr um sich greifenden "Energiewende-Elends" sachlich gar nicht mehr vertretbar. Nur die allerdümmsten Bundesbürger und natürlich die unzähligen wirtschaftlichen Profiteure glauben noch an die sachliche Sinnhaftigkeit der Aktion "Energiewende".

Als höchste fachliche Instanz wird nun von der FAZ – fast unglaublicherweise – eine Frau Claudia Kemfert gepriesen (hier), bei der sich viele Leute schon lange fragen, wie diese Dame eigentlich zu ihrer Professur gelangte (hier). Zumindest über die Energiewende ist nämlich von Frau Kemfert nur stark grünideologisch gewürzter sachlicher Quatsch, unterfüttert mit ein paar unrelevanten oder sachlich unzutreffenden volkswirtschaftlichen Allgemeinplätzen zu vernehmen. Dementsprechend hat ein ehemaliges Mitglied des Vorstands der deutschen physikalischen Gesellschaft (DPG), Prof. Dr. Konrad Kleinknecht, das von der FAZ hochgelobte Buch von Frau Kemfert "Kampf um Strom" auch gründlich verrissen (hier).

Was ist also von mutiger, objektiver Kritik der FAZ an der Energiewende, die nichts ausspart, zu halten? Wir würden diese eher als Aprilscherz bezeichnen! Bei der Energiewende folgt die FAZ den grünen Ideologen und der deutschen Politik, die sich, warum auch immer, zum Schaden unserer Nation nun einmal entschlossen hat, mit den grünen Rattenfängern gemeinsame Sache zu machen. Wo findet man in der FAZ eine umfassende Analyse des technisch-wirtschaftlichen Wahnsinns dieser urdeutschen Aktion namens "Energiewende", etwa wie sie Hans Werner Sinn in seinem Vortrag "Energiewende ins Nichts" an der Münchner Ludwigs-Maximilian-Universität im Detail vortrug? Warum erscheint über diesen Vortrag von H.-W. Sinn, der immerhin gelegentlich in der FAZ zu Wort kommt, nichts in der FAZ? Auf YouTube (hier) ist sein Vortrag in voller Länge zu sehen, aber die FAZ macht sich keine Mühe zu berichten, weil sie es nicht will oder weil die Redakteure es nicht dürfen.

All dies kann kein Zufall sein. Neutrale ENERGIE-FACHLEUTE sind in der FAZ nicht zu vernehmen. Warum wagt es schlussendlich die FAZ nicht, sachgerecht das Tabu-Thema Kernenergie aufzugreifen und einmal etwas über die realen, vorteilhaften biologischen Impacts der radioaktiven Strahlung zu schreiben (Hormesis)? Das wäre schließlich etwas für einen Biologen als Redakteur (MJ?). Auch hier erleben wir augenfällig, wie eine objektive Berichterstattung, die unparteiisch informiert, von der FAZ sorgsam ausgespart wird. Die Welt folgt den deutschen Träumen von grünen Energie nicht, baut neue Kernkraftwerke und lässt auf diesem Sektor Deutschland als unterbelichtete Entwicklungsnation zurück, die sich sogar der Erforschung neuer Kernreaktortypen verweigert … und die FAZ berichtet nichts über diesen Skandal.  

In Summa: Frau Andrea Diener beklagt sich zu Recht über den Ton der Leserkommentare. Über den Inhalt dieser Kommentare und den ihnen zugrunde liegenden Motivationen hat sie sich aber nicht die geringsten Gedanken gemacht. Von alleine kommen solche Leser-Kommentare nicht. Selbst die im Ton übelsten Kommentare haben immer noch einen sachlichen Kern, der ernst zu nehmen ist. Frau Andrea Diener und ihre Redaktionskollegen haben überhaupt nicht begriffen, dass selbst Kommentatoren mit den schlimmsten Formulierungen immer noch KUNDEN der FAZ sind. Jeder Manager, der sein Geld wert ist, weiß, dass Kundenzufriedenheit DAS ERSTE KRITERIUM für das Prosperieren eines Unternehmens ist. Wie reagiert man dagegen bei der FAZ? Mit Empörung über die Art und Weise darüber, wie es ihre Kunden wagen sich darüber zu beschweren, dass die FAZ andauernd gegen die Lesermeinung anschreibt (mit diesem hartnäckigen "Gegen-die-eigenen-Leser-Anschreiben" besitzt sie freilich kein Alleinstellungsmerkmal in der deutschen Zeitungslandschaft). Es scheint so, als ob sich die FAZ (und nicht nur diese) als Erziehungsinstanz ihrer Leser ansieht. Diese Arroganz wird sie auf Dauer teuer zu stehen kommen.

Die Autoren sind der altmodischen Auffassung, dass andauerndes Anschreiben gegen seine eigenen Leser Dummheit und Selbstzerstörung ist. Man muss, um dieser Dummheit abzuhelfen, keineswegs die eigene Auffassung unter den Scheffel stellen. Es darf nur nicht so weit führen, als Medien-Institution unumstößliche "Wahrheiten" zu verkünden und sich damit als die einzige ethisch-moralische Erziehungs-Instanz zu sehen, denen der Leser eben zu folgen hat – basta. Für die FAZ überraschend, nehmen doch tatsächlich Leser der FAZ diesen Standpunkt übel. Wie weit müssen die FAZ-Redakteure von der Einsicht, wie es wirklich in der Welt zugeht, entfernt sein oder aber, wie stark muss der Gleichschaltungsdruck der Redaktionspolitik sein! Beides ist gleich katastrophal!

Es drängt sich hier ein Vergleich mit der letzten Europa-Wahl auf. Ebenso wenig wie die FAZ-Kommentare kommt das gute Abschneiden der Protestpartien bei der letzten Europa-Wahl aus heiterem Himmel, wobei übrigens nur der geringste Teil dieser Protestwähler Rechtsradikale sind, so wie es uns die Politik weismachen will. Mit diesem Phänomen wird die etablierte Politik, die noch nie ein Hehl aus ihrer Verachtung von mündigen, kritischen Bürgern machte, offenbar nicht fertig. Und auch das Phänomen des FAZ-Leser-Shitstorms lässt die FAZ ratlos zurück. Dabei braucht  die FAZ-Redaktion nur mit Verstand den sachlichen Inhalt der Proteste zur Kenntnis zu nehmen, in dem sehr genau zu lesen ist, woran sich die Proteste stoßen. 

Daher: Sehr geehrte Frau Diener und sehr geehrte Redaktion der FAZ, Sie dürfen sich zwar über den unsäglichen Ton vieler Leserkommentare beklagen, wundern dürfen Sie sich aber über den Shit-Storm nicht. Früher konnte man in der FAZ noch Leserkommentare bewerten: z.B. ‚empfehlen‘ anklicken. Diese Empfehlungen wurden gezählt und der Score angegeben, so dass man daraus auf die Meinung der Leser schließen konnte. Da die Lesermeinung in letzter Zeit offensichtlich zu sehr von der veröffentlichten Meinung abwich, hat man diesen Service abgeschafft.

Wenn die Entwicklung so weiter geht wie bisher, wird das Internet immer mehr Zeitungsleser übernehmen, die neutrale Information aber keine Meinungsmache und noch weniger Erziehung wünschen. Dies wäre ein großer Schaden für die Lesekultur und das wirtschaftliche Wohlergehen von Zeitungen, insbesondere der FAZ. Eine gute Zeitung darf nicht davor zurückscheuen, sich mit allen und allem anzulegen, wenn es der neutralen Faktenschilderung dient, so wie es in früheren Zeiten (heute leider nicht mehr) der SPIEGEL einmal vormachte. Von solchem Mut und solcher journalistischen Ehrlichkeit ist die FAZ inzwischen Lichtjahre entfernt.

Da Zeitungen freilich noch nie in der Geschichte wirklich unabhängig und objektiv berichteten, sondern stets mehr oder weniger der inneren und äußeren Zensur der die Richtung bestimmenden politischen Klasse folgten, ist die FAZ in bester historischer Gesellschaft. Es wird sich nichts ändern. Einziger Trost: Die "DDR-like" Propaganda der Süddeutschen Zeitung und der ZEIT geht noch weit gründlicher vor, wie es die folgenden Beispiele belegen (hier), (hier, hier). Diese Artikel sehen wir als hilfreich an, weil sie wertvolle Zeugen für zukünftige Historiker über den Zustand der Zeitungen in einer Demokratie mit angeblicher Pressefreiheit darstellen. Sie werden daher von uns bei jeder sich bietenden Gelegenheit zitiert und in die Erinnerung zurückgerufen. Solche Produkte, die dem ehemaligen "schwarzen Kanal" eines Eduard von Schnitzler in nichts nachstehen, dürfen nicht in Vergessenheit geraten.




Eintauchen in die Tiefen der Dekarbonisierung

Es beginnt mit der folgenden Definition:

Weit reichende Dekarbonisierung [deep decarbonization] erfordert eine sehr grundlegende Transformation von Energiesystemen. Die ultimative Objektive dieser Transformation ist es, die gesamte Verbrennung fossiler Treibstoffe mit unkontrollierten CO2-Emissionen auslaufen zu lassen. Nur fossile Treibstoffe zusammen mit CCS (Kohlenstoff-Sequestrierung)  würde übrig bleiben.

Aber das war nicht der witzige Teil. Das war einfach deprimierend. Der witzige Teil folgte später.

Hier in der realen Welt ist nun der mildeste Weg, diesen Wahnsinn zu beschreiben, also die Nationen der Welt dazu zu zwingen, fossile Treibstoffe aufzugeben, … nun, wenn ich mehr darüber nachdenke, gibt es keine Möglichkeit, diesen Idiotismus anders zu beschreiben als einen pathetischen Witz, der – falls implementiert – zu unsäglichen ökonomischen Störungen, zu Katastrophen und Tod führt.

Wie auch immer, um herauszufinden, wie man „die Verbrennung fossiler Treibstoffe auslaufen lassen“ kann, beschreiben sie etwas, das sie die „hauptsächlichen Treiber“ von CO2-Emissionen nennen, also:

Der einfachste Weg, die weit reichende Dekarbonisierung von Energiesystemen zu beschreiben, ist es, die hauptsächlichen Treiber von energiebezogenen CO2-Emissionen zu benennen – der Einfachheit halber nennen wir es hier einfach CO2-Emissionen, da im Mittelpunkt dieses Kapitels Energiesysteme stehen. CO2-Emissionen können ausgedrückt werden als das Produkt von vier Größen: Bevölkerung, BIP [GDP] pro Kopf, Energieverbrauch pro Einheit BIP und CO2-Emissionen pro Einheit Energie:

An dieser Stelle habe ich aufgehört…

Nun sieht das auf den ersten Blick irgendwie vernünftig aus. Ich meine, Emissionen müssen mit steigender Bevölkerung und mit steigendem BIP pro Kopf zunehmen und mit zunehmender Energieeffizienz wieder abnehmen.

Und aus folgendem Grund habe ich gelacht. Wir wollen diese Gleichung mal den üblichen Regeln der Mathematik unterwerfen. Wir wissen, wenn eine Variable im Zähler und im Nenner eines Bruches auftaucht, können wir sie kürzen. Beginnend von links kann man Bevölkerung [population] im Zähler gegen Bevölkerung im Nenner kürzen. Dann kürzt sich BIP im Zähler gegen BIP im Nenner. Gleiches mit Energie im Zähler und im Nenner… und übrig bleibt…

Ziemlich bahnbrechend, nicht? CO2-Emissionen sind gleich CO2-Emissionen. Wer hätte das gedacht?

[Das kam mir so unglaublich vor, dass ich im PDF selbst nachschauen musste. Aber das steht dort natürlich wirklich, auf Seite {arabisch}12 im Kapitel 3! Für welchen Müll geben wir denn noch unser Geld aus?! Anm. d. Übers. Weiter mit Eschenbach:]

Nun gut, erstellen wir ihre Gleichung noch einmal. Aber an Stelle des BIP verwenden wir diesmal Brutto-Bier-Produkt (GBP).

Man beachte, dass dies identisch und genauso gültig ist mit ihrer genialen Gleichung, in der es auf das gleiche Ergebnis hinausläuft: CO2-Emissionen = CO2-Emissionen.

Und als Ergebnis lautet die klare Schlussfolgerung meiner Analyse, dass der beste Weg zur Bekämpfung der teuflischen Bedrohung durch CO2 das Auffinden einer Möglichkeit ist, dass Bier weniger Energie verbraucht…

Und hier habe ich ein Kohlenstoff-Reduktionsprogramm, hinter das ich mich stellen kann.

Link: http://wattsupwiththat.com/2014/07/09/diving-into-the-deeps-of-decarbonization/#more-112703

Übersetzt von Chris Frey EIKE




‚Gutachter-Betrugskartell‘ aufgeflogen

Der Grund für diesen Massenrückzieher ist Schwindel erregend: Ein „Gutachter- und Referenz-Kartell“ hat offensichtlich den Begutachtungsprozess gekapert, um Artikel veröffentlichen zu können.

Man hat schon von Prostituierten-Ringen gehört, von Spieler- und Erpressungsringen. Jetzt gibt es hier ein „Kartell wissenschaftlicher Begutachtung“.

Nach einer 14-monatigen Untersuchung hat das JVC festgestellt, dass es innerhalb des Kartells „Decknamen“ und falsche E-Mail-Adressen gegeben hat – bis zu 130 davon – in  einem offensichtlich erfolgreichen Prozess, günstige Begutachtungen für eingereichte Artikel zu bekommen und so viele Artikel wie möglich von Chen und seinen Freunden zu veröffentlichen. „In mindestens einem Fall hat Autor Peter Chen seine eigene Studie begutachtet unter einem seiner erfundenen Decknamen“, hieß es in einer Mitteilung von SAGE.

Das Statement erklärt nicht, wie so etwas geschehen kann. Hat das Kartell Namen eingeführt und gesagt, das wären Gelehrte? Haben sie reale Namen und so getan, als ob sie andere Gelehrte seien? Gibt es denn niemanden, der diesem Dingen nachgeht, indem er – sagen wir mal – das Telefon nimmt und den Begutachter anruft?

Mehr: http://www.washingtonpost.com/news/morning-mix/wp/2014/07/10/scholarly-journal-retracts-60-articles-smashes-peer-review-ring/

Link: http://wattsupwiththat.com/2014/07/10/peer-review-ring-busted/

Ergänzung:

Die hoch gerühmte amerikanische Wissenschaftsvereinigung US National Academy of Sciences erlaubt seit April ihren neu ernannten 105 Mitgliedern sich ihre zukünftigen Gutachter und Kommentatoren selbst auszuwählen. Details bei WUWT

Übersetzt von Chris Frey EIKE




Bekenntnisse eines Computer-Modellierers

Nach meinem Master als Umwelt-Ingenieur im Jahre 1982 habe ich die meiste Zeit der folgenden 10 Jahre damit verbracht, großräumige Umwelt-Computermodelle zu konstruieren. Mein erster Job war eine Beratertätigkeit bei der Environmental Protection Agency EPA. Ich wurde eingestellt, um ein Modell zu erstellen, das die Auswirkungen des Construction Grants-Programms der EPA abschätzen sollte, eine landesweite Bemühung in den siebziger und achtziger Jahren, Klärwerke aufzuwerten.

Das Computermodell war gewaltig – es analysierte jeden Fluss, jedes Klärwerk und jede Trinkwasser-Entnahmestelle im Lande. Ich werde nicht mit Details langweilen, aber das Modell zeigte gewaltige Vorteile des Programms, verbesserte sich doch die Wasserqualität dramatisch. Ende der achtziger Jahre jedoch wurden die Vorteile der besseren Verwertung von Abwasser neutralisiert durch die zusätzliche Verschmutzung von Menschen, die die Benutzung von Jauchegruben aufgaben und alles in das öffentliche Abwassernetz leiteten, die den Abfall in die Flüsse leiteten. Im Grunde sagte das Modell, dass wir den Punkt erreicht hatten, an dem die Verschlechterung beginnt.

Als ich die Ergebnisse dem EPA-Funktionär vom Dienst präsentierte, sagte dieser, dass ich zurückgehen und gefälligst „meinen Bleistift spitzen“ sollte. Das habe ich getan. Ich habe Hypothesen begutachtet, Koeffizienten überarbeitet und Daten neu kalibriert. Aber nach einem erneuten Modelllauf nach diesen Änderungen hatte sich das Ergebnis nicht wesentlich geändert. Beim nächsten Treffen hieß mich dieser Funktionär die Zahlen noch einmal zu überarbeiten.

Nach drei weiteren Läufen platzte mir der Kragen: „Nach welcher Zahl suchen Sie eigentlich?“ Er zögerte nicht einen Moment: Er sagte mir, dass er Vorteile in Höhe von 2 Milliarden Dollar vorweisen müsse, damit das Programm verlängert wird. Also drehte ich schließlich an genug Knöpfen, um die von ihm gewünschte Antwort zu erzeugen, und alle waren glücklich.

Hat mich die EPA offiziell aufgefordert zu lügen? Ich musste ihm den Vorteil des Zweifels geben und annehmen, dass er an den Wert bei einer Fortsetzung des Programms glaubte. (Der Kongress setzte dem Programm im Jahre 1990 ein Ende). Er hat mit Sicherheit keine anders lautenden Hinweise gegeben. Ich nehme auch an, dass er die inhärenten Unsicherheiten dieser Art Modelle verstanden hat. Es gibt keine exakten Werte für Koeffizienten in dieser Art von Modell. Es gibt lediglich Bandbreiten potentieller Werte. Indem man ein Bündel dieser Parameter nach der einen oder anderen Seite wichtet, bekommt man normalerweise sehr unterschiedliche Ergebnisse, oftmals (Überraschung) in einer Linie mit unserem ursprünglichen Glauben.

Mir wurde klar, dass meine Arbeit für die EPA nicht die eines Wissenschaftlers war, zumindest nicht in der populären Vorstellung dessen, was ein Wissenschaftler macht. Es war mehr die Arbeit eines Anwalts. Mein Job als ein Modellierer war es, den besten Fall für meinen Klienten hervorzuheben. Die Opposition wird ihren besten Fall für das Gegenargument bilden, und ultimativ sollte die Wahrheit vorherrschen.

Wenn Opponenten nicht mögen, was ich mit den Koeffizienten getan habe, sollten sie diese bearbeiten. Und während meines Jahrzehnts als Umweltberater wurde ich oftmals angeheuert, genau dies zu tun mit einem Modell von jemand anderem. Aber man kann nicht leugnen, dass jemand, der sein Leben auf die Grundlage der Konstruktion von Computermodellen stellt, seinen Auftraggebern dienen muss und nicht der Suche nach der Wahrheit.

Sicherlich wird die wissenschaftliche Gemeinde nicht diesem Druck erliegen wie wir nach Geld grapschenden Berater. Leisten sie nicht Lobbyarbeit für Wissen anstelle für Profit? Falls Sie das glauben – oh Mann, was habe ich für ein tolles Computerprogramm, das ich Ihnen verkaufen könnte.

Die akademische Gemeinschaft buhlt um Zuwendungen, dauerhafte Arbeit und Ansehen; Berater buhlen um Klienten. Und man sollte verstehen, dass die Grenzen zwischen Akademikern und Beratern sehr verschwommen sind, da viele Professoren Nebenbeschäftigungen als Berater, Autoren, TV-Sprecher usw. nachgehen.

Eines möchte ich betonen: Ich sage nicht, dass dies etwas Schlechtes ist. Das Rechtssystem ist ordentlich und funktioniert zum größten Teil. Das gilt auch für die Wissenschaft. Hier also kommt mein Vorschlag: Jene, die überzeugt sind, dass die Menschen drastisch das Klima zum Schlechteren verändern, und jene, die das nicht sind, sollten ein dynamisches, robustes Hin und Her akzeptieren. Man lasse jede Seite ihren besten Fall machen und vertraue darauf, dass die Wahrheit auftauchen wird.

Jene, die wirklich glauben [oder so tun, Anm. d.Übers.], dass die Menschen das Klima treiben, erwidern, dass die Wissenschaft ‚settled‘ ist und das jene, die dem nicht zustimmen, Leugner“ und „Flat-Earthers“ sind. Selbst der Präsident macht sich über diejenigen lustig, die dem nicht zustimmen. Aber ich habe das schon lange getan, und wenn ich eines gelernt habe, dann dies: wie schwer es ist, die Leute mit einem Computermodell zu überzeugen.

Der ganze Kommentar, bei dem nur noch ein kleiner, unwichtiger weiterer Absatz steht

Link: http://www.thegwpf.org/confessions-of-a-computer-modeler/

Übersetzt von Chris Frey EIKE




Die EEG-Subventionierung auch von Altanlagen kann und muss beendet werden

Denn deren Nichtantastung bedeutet, dass die Ausplünderung der Bürger, die zutiefst unsoziale Umverteilung von unten nach oben,  weiter ansteigt, nur etwas langsamer als bisher.

In einem bemerkenswerten Artikel hat Prof. Dr. Ulrich Büdenbender – bis 2013 Inhaber des Lehrstuhls für Bürgerliches Recht, Energiewirtschaftsrecht und Arbeitsrecht der Juristischen Fakultät der T.U.Dresden, seit 2013 Rechtsanwalt und Of-Counsel Clifford Chance, Düsseldorf – diese Ausrede widerlegt (Lit.1).

Zitat: „Die Bundesregierung will aus rechtlichen wie aus politischen Gründen an dem umfassenden 20-jährigen Bestandsschutz der Subvention für bestehende Anlagen festhalten. Rechtlich ist dies keineswegs zwingend; die maßgeblichen Argumente können hier kurz angesprochen werden (10): Verfassungsrechtlich handelt es sich bei der Beseitigung des uneingeschränkten Vertrauensschutzes in die Fortgeltung der bestehenden Förderzusagen um eine unechte Rückwirkung für einen noch nicht abgeschlossenen Sachverhalt. Sie ist unter Beachtung des Verhältnismäßigkeitsgrundsatzes zulässig (11). Betroffen ist hier die Fortgeltung der EEG-Fördersätze, also die einer vertragsgestaltenden Regelung im Verhältnis EEG-Anlagenbetreiber und Netzbetreiber (§§ 8, 16 ff. EEG). Privatrechtliche Schuldverhältnisse aber stehen auch bezüglich ihrer normativen Ausprägung unter dem Vorbehalt sich ändernder Rahmenbedingungen, wie schon ein Blick in das Mietrecht mit häufigen gesetzlichen Änderungen auch für bestehende Mietverträge zeigt.

Dies gilt in besonderem Maße, wenn es um Änderungen von Belastungen zwischen den Vertragsparteien geht, die von Dritten finanziert werden müssen. Der Reduzierung von Begünstigungen für EEG-Altanlagenbetreiber stünde die Reduzierung / Begrenzung von Belastungen für die Gemeinschaft aller Stromverbraucher gegenüber. In diesem Interessenkonflikt ist die erstgenannte Personengruppe keineswegs uneingeschränkt schutzwürdig, wenn dies durch ständig steigende Strompreise zulasten der letztgenannten Gruppe mit erheblichem sozialen und wirtschaftlichen Sprengstoff führt ! Dies gilt erst recht, wenn sich eine gesetzliche Förderregelung mangels rechtzeitiger Anpassung als sachwidrig und nicht mehr aufrechtzuerhalten erweist.

Im Übrigen ist der frühere EEG-Gesetzgeber auch unter dem Aspekt des Demokratieprinzips (Art. 20, Abs. 3 GG) nicht in der Lage, nachfolgende Gesetzgeber über jeweils fünf Legislaturperioden hinweg bezüglich der EEG-Förderung zu binden. 

Anmerkungen

(10): Vgl. dazu näher Büdenbender/Gärditz/Löwer/Ludwigs/Paschke/Stoll/Wolfrum: „Rechtliche Rahmenbedingungen für die Reform der Förderung erneuerbarer Energien in Deutschland“, 2014, Kap.3 (im Druck)“.

(11): Vgl. den Nachweis in Fn.(10)“.

(Ende des Zitats).

Daraus folgt, die Bundesregierung hätte schon längst die EEG-Förderregelungen für Bestandsanlagen ändern können und sie kann – und müsste – es endlich jetzt tun. Auch für Nichtjuristen ist allein das Beispiel mit den Mietverträgen von durchschlagender Überzeugungskraft. Die detaillierten  Ergebnisse der Arbeit von Prof. Büdenbender und Kollegen – siehe seinen Hinweis auf die im Druck befindliche Langfassung – ersparen den Ministerialbeamten von Herrn Gabriel gewiss eine Menge Arbeit.

Handelt die Bundesregierung spätestens jetzt nicht, bedeutet das wohl, dass sie ein Fortbestehen der Umverteilung von unten nach oben wünscht.

Es gibt schon länger Berichte darüber, dass sich auch zahlreiche Abgeordnete mit privaten finanziellen Engagements an Projekten von EEG-begünstigten Anlagen beteiligt haben. Möglicherweise liegt hier eine Erklärung für das unverständliche Zögern.

Es wäre die Aufgabe des Bundestagspräsidenten, in dieser Sache der Frage der Befangenheit  näher nachzugehen. Unangenehm, aber vielleicht nötig.

(Lit.1): Ulrich Büdenbender: „Wirtschaftliche Lastenverteilung für die Förderung erneuerbarer Energien in der Elektrizitätswirtschaft“, Energiewirtschaftliche Tagesfragen 64.Jg (2014) Heft 6

Über den Autor:

Dr. Ing. Günter Keil war viele Jahrzehnte im deutschen Ministerium für Forschung und Bildung an leitender  Stelle tätig. Er ist Autor des Sachbuches "Die Energiewende ist bereits gescheitert" und Hauptautor des  Energiepoltischen Manifestes (s.pdf Anlage) vom März des Jahres

Related Files




Die Rache der Klima-Reparationen

In dieser Hinsicht habe ich heute morgen laut gelacht, und zwar über die Ergebnisse des japanischen IBUKU-Satelliten hinsichtlich CO2-Daten. Sie zeigen einen Gesamtfluss von CO2 (Emission minus Sequestration) in einem Gitternetz von 1° zu 1° für den ganzen Planeten. Auf ihrer Website wird das Projekt so beschrieben:

Der Treibhausgase beobachtende Satellit IBUKU (GOSAT), in Zusammenarbeit entwickelt vom japanischen Umweltministerium, dem National Institute for Environmental Studies und der Japan Aerospace Exploration Agency (hiernach die Drei Beteiligten). Hierbei handelt es sich um den ersten Satelliten, der speziell für die Überwachung des atmosphärischen CO2-und Methan-Gehaltes aus dem Weltall erbaut worden ist.

Der Satellit arbeitet seit dessen Start am 23. Januar 2009. Die drei Beteiligten werden jetzt die Daten des globalen CO2-Flusses veröffentlichen, und zwar auf monatlicher und regionaler Basis für den Zeitraum von einem Jahr zwischen Juni 2009 und Mai 2010. Diese Flusswerte wurden geschätzt aus CO2-Überwachungsdaten am Boden und verbessert mit den auf GOSAT basierenden Daten der CO2-Konzentration.

Es wurde bestätigt, dass Unsicherheiten der geschätzten CO2-Flusswerte durch die Hinzufügung von GOSAT-Daten zu den Bodenbeobachtungen reduziert werden können. Dies ist die erste konkrete Demonstration der Nützlichkeit satellitengestützter Konzentrationsdaten bei der Abschätzung des globalen CO2-Flusses.

Es wird erwartet, dass dieser Fortschritt auf dem Gebiet des globalen Kohlenstoff-Kreislaufes zu verlässlicheren Prognosen der Klimaänderung führt und zur Entwicklung einer effektiven Umweltpolitik, um die globale Erwärmung in der Zukunft abzuschwächen.

Und warum habe ich da so gelacht? Nun, lassen Sie mich die Sache vollständig erzählen. Zunächst folgt hier die Karte mit den Gesamtemissionen des Jahres 2010, dem einzigen vollständigen Kalenderjahr im Datensatz:

Abbildung 1 [siehe rechts!]: Gesamtemissionen durch gridcell, IBUKU-Satellitendaten von CO2.

Nun gibt es hinsichtlich dieser Karte einige interessante Dinge.

Erstens scheint sie ziemlich genau zu sein. Schaut man zum Beispiel auf den unteren rechten Teil von Australien, kann man die zwei Großstädte Sydney und Melbourne als rote Punkte in einem blauen Meer ausmachen.

Als nächstes erkannt man: Während der Pazifik insgesamt ein Emittent von CO2 ist (gelbes Band nördlich Australiens bis nach Südamerika), ist die Innertropische Konvergenzzone unmittelbar nördlich davon insgesamt ein Absorber. Ich spekuliere mal, dass die Ursache hierfür die großen Regenmengen in diesem Gebiet sind. Atmosphärisches CO2 wird in Regen gelöst, weshalb der gesamte Regen leicht sauer ist. Dies absorbiert mehr CO2 als es in den trockeneren Gebieten weiter südlich der Fall ist.

Außerdem erkennt man, dass die Tropen pro Quadratmeter doppelt so viel emittieren wie die gemäßigten Zonen … nicht wirklich das, was ich erwartet hatte.

Weiter. Im Großen und Ganzen wird dort eine Menge CO2 emittiert, wo sich viele Menschen ballen. Ja, es gibt auch menschenarme Gebiete mit CO2-Emissionen … aber allgemein gilt: Menschen = CO2.

Also habe ich mir überlegt, die Daten heranzuziehen und nach Ländern zu sortieren, um zu sehen, wie viel CO2 jedes Land entweder emittiert oder absorbiert. Die Antworten sind ziemlich überraschend … Abbildung 2 zeigt die 20 größten Emittenten von CO2.

Abbildung 2: Gesamtemissionen nach Ländern sortiert.

Darum habe ich zu lachen begonnen … Ich sehe gerade, wie Frankreich Klima-Reparationen von Indien fordert oder UK Reparationen von der „Demokratischen“ Republik Kongo … aber es wird noch besser. Abbildung 3 zeigt die Top 20 der sequestrierenden Nationen…

Abbildung 3: Gesamt-Sequestrierung nach Ländern sortiert.

Es wird immer witziger … Schweden und Norwegen dürfen Reparationen von Russland fordern, Finnland kann den USA eine Rechnung schicken, während Australien in China vorstellig werden kann, um Öko-Megamilliarden zu verlangen.

Wie sind einige dieser Ergebnisse zu verstehen? Ich werde mal spekulieren, da ich keine direkten Daten habe … obwohl behauptet wird, dass diese in den IBUKU-Daten enthalten sind, habe ich sie noch nicht finden können.

Erstens, es gibt zwei große fehlende Dinge bei der vorherrschenden Erfassung von CO2, nämlich Sequestrierung und Verbrennen von Biomasse. In den meisten armen Ländern dieser Welt sind sie so ökologisch bewusst, dass sie hauptsächlich erneuerbare Energie zum Heizen und Kochen nutzen. Und das trotz dieser Öko-Sensitivität und all dieser unzähligen Millionen offener Feuer, die Holz, Zweige und Müll verbrennen, die eine Menge CO2 erzeugen*. Plus ein großer Haufen Verschmutzung, die den „braunen Dunst“ über Asien entstehen lassen, aber das ist eine andere Frage…

Zusätzlich gibt es sowohl in Indien als auch in China gewaltige permanente Feuer im Untergrund, die CO2 (plus eine wirklich schlimme Verschmutzung) freisetzen 24/7. Die andere Wild Card ist die Sequestrierung. Ich spekuliere, dass dies in Australien passiert wegen der riesigen Masse freiliegender Felsen und Sand. Die milde Säure in Regen und Tau lösen Felsen und Sand, was CO2 sequestriert.

In Kanada, Schweden und Finnland muss ich vermuten, dass es etwas zu tun hat mit der exponierten nördlichen Lage und der ausgedehnten Wälder … aber es gibt immer noch viele Fragen ohne Antworten.

Wie auch immer, ich hatte heute früh so viel Spaß …, jemand sollte all dies für die Journale aufschreiben, denke ich, aber ich habe ständig das Gefühl, dass ich mir selbst eine Lobotomie verabreichen muss, um wissenschaftliche Standard-Prosa zu schreiben. [Hyperlink von mir – ich wusste einfach nicht, was das ist. Anm. d. Übers.]

Möchte irgendjemand mit mir zusammen so etwas schreiben und sich um Formulierung und Einreichung kümmern?

Und ich gratuliere meinen argentinischen, brasilianischen und australischen Freunden zum Gewinn der Kohlenstoff-Lotterie; sie können Reparationen von jedem anderen Land der Welt verlangen.

Bonus-Graphiken: jemand fragte nach weißer Farbe auf dem Null-Niveau:

Und hier sortiert nach Ländern…

Code: Es ist grässlich, aber hier. Es ist ein Zip-File mit 18 Mb einschließlich Code, Funktionen, Daten (NCDF-Files) und Produktpalette. Ich glaube, dass es vollständig ist; bei Fragen bitte melden.

Daten der Produktpalette: Ich habe die Daten auf Landschafts-Niveau in einem CSV-File hinzugefügt (hier).

Daten: Es dauerte eine Weile, diese zu finden, weil sie auf einer anderen Website stehen. Man muss sich zuerst registrieren lassen. Danach logge man sich ein, klicke auf „Product Search and Order” und wähle L4A global CO2 flux.

Produktpalette: Die Details zahlreicher CO2-Produkte stehen hier, auf der gleichen Website. Ich bin nicht sicher, ob man sich zuvor einloggen muss. Sie finden sich auch in meinem ZTip-File oben.

Link: http://wattsupwiththat.com/2014/07/05/the-revenge-of-the-climate-reparations/#more-112572

Übersetzt von Chris Frey EIKE




Über diese 30.000 Dollar-Wette, um die globale Erwärmung zu widerlegen

Diese Art Herausforderung taucht immer wieder auf; hier z. B. hinsichtlich Kreationismus.

Das Problem mit der Herausforderung des Klimawandels ist, dass kein Mensch leugnet, dass es wahrscheinlich ein anthropogenes Signal gibt. Die Frage lautet lediglich, wie groß dieses Signal ist.

Dieser Artikel in der Washington Post bringt vielleicht eine der besten Übersichten zu diesem Thema.

Man kann in einem Laboratorium zeigen, dass CO2 IR-Wellen absorbiert, und zwar innerhalb der gleichen Bandbreite, wie sie von der Erde ausgehen. Die Daten zeigen, dass es auf der Nordhemisphäre eine Verschiebung der mittleren Temperatur seit Beginn der industriellen Revolution gegeben hat.

Die weitaus meisten Menschen, die dieses Thema propagieren, versuchen die Skeptiker einzuengen, indem sie das Thema als Alles-oder-Nichts-These präsentieren, und all jene, die skeptische Statements nicht lesen, glauben daran. In der Realität gibt es auf Seiten der Skeptiker eine viel größere Bandbreite von Standpunkten zu diesem Thema; im Folgenden habe ich versucht, diese in Fettdruck hervorzuheben. Es gibt einige Leute, die lächerlich dumme Behauptungen von sich geben, dass es kein anthropogenes Signal gibt, aber das ist nur eine sehr kleine Minderheit. Viele Skeptiker sehen diese Leute als Internet-Trolle, die wir nicht füttern wollen.

Ein besserer Weg, die [Aussagen der] Skeptiker zu untersuchen ist es, sie als wissenschaftliche Kritiker zu betrachten und spezifischer diese Kritik zu evaluieren als Gegenstand, der mit jedem Schritt der wissenschaftlichen Methode folgt. Diese wissenschaftliche Standard-Methode geht so:

Beobachtungen à Hypothese à Experiment à Analyse. Würden wir bis in die neunziger Jahre zurückgehen, könnten wir feststellen, dass dies sparsam ausgeteilt worden ist als…

Beobachtungen: Eine Korrelation zwischen Erwärmung und CO2 und dass CO2 Infrarot absorbiert. In Eisbohrkernen existierte der gleiche Trend,

Hypothese: Emissionen verursachen globale Erwärmung

Experiment: Das Klimamodell

Analyse: eine genaue Untersuchung als Nachhersage, statistisch signifikanter Erwärmungen, Hockeyschläger usw. Die von Ende der neunziger Jahre bis zu Beginn dieses Jahrhunderts ausgerufene Schlussfolgerung, dass die globale Erwärmung real sei, war wissenschaftlich akzeptierbar. Der nächste Schritt wäre normalerweise die Begutachtung und die Sorgfalt, und ab hier geriet die Theorie in Schwierigkeiten.

Die Probleme:

Die Beobachtungen sind vor Ende der siebziger Jahre nicht besonders gut und werden immer schlechter, wenn man bis zu den ersten Aufzeichnungen zurückgeht. Wir haben nicht nach Trends in Zehntelgrad Celsius gesucht und wir haben unsere Instrumente dazu nicht kontrolliert. Stationen wurden verlagert, Städte sind gewachsen usw. All das würde eine Warm-Verzerrung an jenen Stationen hervorrufen. Klar gesagt, die Daten sind von schlechter Qualität. Aber auch andere Probleme tauchten auf. Die Daten aus Eisbohrkernen, gewonnen mit besseren Instrumenten, zeigen in der Tat, dass CO2-Änderungen Temperaturänderungen hinterher laufen (hier). Noch wichtiger, in allen Datensätzen hat die Temperatur aufgehört zu steigen, wohingegen das CO2-Niveau seinen Aufwärtstrend unvermindert fortsetzt. Auch haben wir noch nicht den „Hot Spot“ entdeckt, der ein sicherer Beweis für den anthropogenen Beitrag sein sollte.

Unsere Hypothese, wie das Klimasystem funktioniert, ist im Wesentlichen in den Klimamodellen kodiert. Es gibt davon 114, die vom IPCC benutzt werden, und in allen zeigt sich ein Aufwärtstrend, und zwar schneller als die Messungen hergeben, und die meisten von ihnen sind falsifiziert worden. Aber die Arbeit, sie zu falsifizieren, machte man erst vor sehr kurzer Zeit.

In dieser Studie werden die letzten 20 Jahre Simulationen mit einem Vertrauensintervall bei 90% falsifiziert. Innerhalb des Blogs gibt es eine andere Studie, in der Simulationen mit einem Vertrauensintervall bei 98% falsifiziert werden (hier). Jene Studie verweist auf eine dritte Studie, wo Gleiches beim 95%-Vertrauensintervall gemacht wird. Das bedeutet, die Chance, dass die Wahrscheinlichkeit, dass die Modelle lediglich zufällig falsch liegen, 10%, 2% oder 5% beträgt.

Da die Modelle mathematische Repräsentationen dessen sind, was wir über die Funktionsweise des Klimasystems zu wissen glauben, bedeutet dies, dass die Klimawissenschaftler falsch lagen. Als Reaktion gab es hektische Aktivitäten, mit denen versucht worden ist, den Stillstand mit irgendetwas zu begründen und zu erklären, aber die Erklärung eines Problems mit mathematischen Modellen im Nachhinein und der Behauptung, dass unsere Hypothese immer noch gültig ist, erfordert einen eigenen Zeitraum zur Validierung.

Es gibt bis heute deutlich über 10 unterschiedliche Erklärungen für den Stillstand, wobei die meisten davon ihn einfach hinweg erklären. Dies bedeutet, dass der Stillstand in seinem gegenwärtigen Stadium übererklärt ist und dass mehr als eine jener Studien falsch sein muss. In der Wissenschaft ist es unsere Absicht, zu höchstens 5% falsch zu liegen, aber offensichtlich gilt das nicht für die Klimawissenschaft.

Diese Divergenz hat auch die unter dem Begriff Klimasensitivität bekannte Metrik beeinflusst. Klimasensitivitäten weisen eine thermische Zunahme von 1,2 bis 1,5°C pro Verdoppelung des CO2-Gehaltes auf, das heißt, falls wir von einer Verdoppelung des gegenwärtigen Wertes von 400 ppm ausgehen, würden die Temperaturen etwa um 1,2 bis 1,5°C steigen. Klimasimulationen erzeugen jedoch viel höhere Ergebnisse, nehmen sie doch typischerweise eine Erwärmung zwischen 3 und 4,5°C pro Verdoppelung an [siehe Bild oben rechts]

Schaut man noch tiefer, gibt es weitere wesentliche Probleme um die Modelle, nämlich unsere Experimente selbst. Abhängig vom Compiler, von Betriebssystemen und sogar Hardware kann sich der Modelloutput durch Rundungsfehler verändern (hier). Sie können keine Wolken vorhersagen. Auch haben sie nicht die Auflösung, um viele der Wärme transportierenden Prozesse in der Atmosphäre abzubilden. Aber das sind nur die Klimamodelle selbst. Die beeinflussenden Modelle [impact models] oder integrierte Modelle der Zustandsbeschreibung [integrated assessment models] verfügen über fast keine Daten, auf denen sie ihre Behauptungen basieren können. Das ist der Grund für die Feststellung des IPCC, dass die Kosten der Klimaänderung für eine Erwärmung um 2,5°C etwa 0,2% bis 2% des globalen BIP ausmachen. Auch dies gilt für Vorhersagen für fast 100 Jahre in der Zukunft, die derzeit weder getestet noch falsifiziert werden können.

Wenn man die Kosten der Emission von einer Tonne CO2 evaluiert, hängen die ‚integrated assessment models‘ sehr stark vom Zinsfaktor [discount rate] ab. Die gegenwärtige Administration nennt einen Zinsfaktor von 3% bei 37 Dollar pro Tonne, aber der angemessenste Zinsfaktor, der auch der langzeitliche ist, liegt vermutlich bei 7%. Das bedeutet, die tatsächlichen sozialen Kosten von Kohlenstoff betragen etwa 4 bis 5 Dollar pro Tonne. Wie in einer EPW-Senatsanhörung diskutiert worden ist, hat es die gegenwärtige Administration nicht vermocht, den Zinsfaktor von 7% zu erschaffen, wie es erforderlich ist, sondern stattdessen Raten von 5%, 3% und 2.5% erschaffen. Der Grund für diese so stark variierenden Kosten ist teilweise der Unsicherheit der integrated assessment models geschuldet, denen man die Ergebnisse der GCMs eingibt. Eine allgemein verbreitete Redensart hierzu ist GIGO (Garbage in, Garbage out [zu deutsch MRMR – Müll rein, Müll raus]).

Aber am schlimmsten ist es um die Analyse bestellt. Als Teil der Versuche, die Theorie zu retten, hatte man hier einige sehr grobe statistische Praktiken und Daten-Vergewaltigungen durchgeführt. Die erste hier zu nennende Monstrosität war Michael Manns Hockeyschläger. Er verwendete einen speziellen Algorithmus, um seine Baumringdaten auszuwerten. Dies wurde von Steve McIntyre zerlegt, einem Statistiker, der nicht nur die völlig falsche Wichtung nachweisen konnte, sondern auch den Zeitpunkt der Nahtstelle herausgefunden hatte, an dem die Thermometer- und die Baumringdaten auseinanderliefen.

Seitdem hat es viele weitere Hockeyschläger gegeben, die allesamt als riesige Müllhaufen zugrunde gingen. Trenberths Hockeyschläger, ebenfalls aus Baumringdaten, verschwand in der Versenkung, als offenbar wurde, dass er eine ganz spezielle Auswahl von nur 12 Bäumen herangezogen hatte und dass bei Verwendung des gesamten Datensatzes der Hockeyschläger verschwinden würde. Im Jahre 2013 haben Marcott et al. einen Hockeyschläger veröffentlicht, der multiple Proxydaten gemittelt hatte, außer dass beim Blatt des Hockeyschlägers nur drei dieser Proxys Verwendung fanden. Diese waren statistisch völlig unsicher und wiesen einige Proxy-Re-Arrangements auf, die zufällig mit der industriellen Revolution zusammenfielen.

Man hat die 97% Konsens-Studien erwähnt, die es wirklich gibt, die aber grauenhaft sind. Cook et al. wurden schon sehr oft widerlegt, und tatsächlich empfehle ich dringend, auch einige der Dinge zu lesen, auf die Brandon Schollenberger hingewiesen hat, obwohl dies nicht begutachtet ist. Die frühere 97%-Studie von Doran und Zimmerman war genauso dumm. Das wallstreet journal hat beide angesprochen, aber ich empfehle diese Site für eine ausgewogene Kritik. Tatsächlich ist die Anzahl der Abstracts und Methoden, die ich gelesen habe und die komplett Müll sind, so erstaunlich, dass ich sie hier nicht alle verlinkt habe.

So wird die Frage immer ultimativer: Welcher Beweise bedarf es, bevor man einräumt, dass das Klima nicht so sensitiv auf anthropogene Emissionen reagieren könnte wie ursprünglich gedacht?

Unabhängig von den Problemen ihrer wissenschaftlichen Methodik scheinen auch einige ethische Tatbestände aufzutauchen. Einem Statistiker in Diensten einer linksgerichteten Denkfabrik wurde jüngst gekündigt, nachdem er etwas über die statistischen Schwächen hinsichtlich der anthropogenen Erwärmung geschrieben hatte. Etwa einen Monat zuvor hat der Klimawissenschaftler Lennart Bengtsson versucht, einer konservativeren und klimaskeptischen Denkfabrik beizutreten. Er musste sich bald darauf aber wieder zurückziehen aufgrund von Drohungen, seine Arbeiten zu entfernen und allgemein seiner Sicherheit und seines Wohlbefindens.

Eine seiner Studien, die sich auf die Diskrepanzen zwischen Modellen und Messungen bezog, wurde zurückgewiesen mit der Begründung, dass sie nur teilweise empfohlen werden könnte, weil man das Gefühl hatte, dass andere Teile schädlich seien. Die Begutachter erwähnten auch, dass man Klimamodelle nicht mit beobachteten Daten validieren sollte. Einige Jahre zuvor war es Klimagate.

Eine psychologische Studie versuchte, Skeptiker als Verschwörungstheoretiker hinzustellen, als man angeblich aus ethischen Gründen einen Rückzieher machte. Die Forscher und ihre Gemeinschaft betrachteten das als vollkommen in Ordnung, um Gegner zu erniedrigen, und dass der Rückzieher aufgrund juristischer Einsprüche erfolgt ist. Die wüste Verteidigung geriet so antagonistisch, dass der Herausgeber die Zurückweisung als aufgrund der Verletzung der Ethik in diesen Studien erfolgt begründen musste. Weitere vermeintliche Gründe sollen der Tonfall und der Unwillen oder die Unfähigkeit der Autoren gewesen sein, Änderungen vorzunehmen. Und es gibt die Studie, der zufolge Lügen und Übertreibungen hinsichtlich der Ergebnisse in Ordnung seien.

Falls man bei Skeptical Science hineinschaut, kann man sehen, dass man dort versucht, skeptische Behauptungen zu widerlegen, aber in neun von zehn Fällen benutzt man dafür Strohmänner, Beleidigungen oder Trugschlüsse. Nehmen wir zum Beispiel das gute Argument, dass billige fossile Energie die ärmsten Nationen der Welt erheblich voranbringen könnte und dass es sehr schädlich ist, ihnen den Zugang dazu zu verweigern. Sie bestreiten das mit dem Hinweis, dass projizierte Klimaschäden die ärmsten Länder am meisten betreffen würden. Das kann zwar stimmen, ist aber nicht das gleiche Argument. Wenn man armen Ländern die Energie vorenthält, die sie zum Wachstum brauchen und die sie unabhängiger von Energieimporten macht, damit diese Länder von weniger Stürmen in der Zukunft betroffen werden, ist das schlicht idiotisch.

Aber nehmen wir an, man ist nicht skeptisch hinsichtlich der Ethik oder ihrer methodischen Schummeleien. Nehmen wir an, man beschließt, ab jetzt das Risiko in der Zukunft verhindern zu wollen. Dann kann man immer noch skeptisch sein hinsichtlich der vorgeschlagenen Lösungen. Schauen wir zum Beispiel auf die Energiepolitik. Die billigste, effektivste und einfachste Energiepolitik wäre eine Kohlenstoff-Steuer. 4 Dollar pro Tonne sind genau der Preis für zukünftige Schäden. Sie erlaubt es den Ländern und Märkten auch zu arbeiten anstatt darauf zu hoffen, dass die Bürokraten nicht alles durcheinanderbringen. Im Wesentlichen bestraft eine Kohlenstoff-Steuer den Kohlenstoff für seine aktuellen Kosten anstatt nicht gewählten Funktionären enorme Macht zu verleihen wie jüngst der EPA.

Aber vielleicht glauben Sie nicht an Märkte, vielleicht glauben Sie, dass die Regierung nicht ganz so inkompetent ist, wie sie ständig zu beweisen versucht. Das ist in Ordnung, kann man doch dann immer noch skeptisch sein, wie das Geld ausgegeben wird. In den USA bekommen Solarpaneele eine unglaubliche Markt-Bevorzugung in Gestalt eines Steuernachlasses von 40% auf jede Installation. Außerdem, während alle Sektoren ihre Kapital-Investitionen durch das Abschreiben von Gewinnen mit der Zeit ausgleichen, gleichen sich die Kosten für Solarpaneele innerhalb von 5 Jahren zu 100% aus, das ist weniger Zeit als für einen Bürosessel. Mit diesen Vergünstigungen ist Solarenergie immer noch die teuerste Form der Stromerzeugung (hier).

Wenn man den Anstieg der Kosten für Solarenergie nur um die Steuernachlässe korrigiert, kommt man auf Kosten in Höhe von 140 Dollar pro Megawattstunde für Standard-Installationen. Die gleiche Korrektur angebracht hinsichtlich der Windenergie würde dessen Kosten auf 88 Dollar pro Megawattstunde steigen lassen. Die Periodizität für das Netz ist ein externer Effekt, den man ins Kalkül ziehen sollte. Davon ausgehend muss man den Faktor Abwertung von Wind und Solar als Kostenfaktor berücksichtigen. Integriert man diesen in die Lebensspanne von Wind und Solar, multiplizieren sich die Kosten um fast das 4,5-fache.

Kernkraft mit Kosten von näherungsweise 96 Dollar pro Megawattstunde ist substantiell billiger, bringt viel weniger Kohlenstoff-Emissionen, hat eine längere Lebensdauer und ist sicherer. Aber wir hören ausschließlich von den Beiträgen durch Erneuerbare, obwohl diese buchstäblich in jeder Hinsicht schlechter sind.

All dies sind Dinge, die uns hinsichtlich der Authentizität der Theorie begegnen. Der nächste Schritt wäre die Falsifikation, aber es ist schwierig, ein falsifizierendes Beweisstück zu finden. Egal was derzeit oder in Zukunft hinsichtlich globaler Erwärmung bzw. Klimaänderung passiert – man scheint es vorhergesagt zu haben. Wir erleben sowohl wärmere als auch kältere Frühjahre/Sommer/Herbst/Winter. Es gibt Dürren und Überschwemmungen, kalt und heiß. Im Winter 2009/2010 haben wir gehört, wie der Klimawandel insgesamt zu mehr Schnee im Winter führen wird, wohingegen wenige Jahre zuvor das Ende von winterlichem Schneefall verkündet worden war. Zum Teufel, das war vor vier Jahren, und dennoch macht man in diesem Jahr immer noch immer wildere crappy [hier steht beim LEO die Übersetzung!] Behauptungen zur globalen Erwärmung, wobei man vollständig ignoriert [leugnet?], dass die mittlere Temperatur in jenem Teil Russlands im Februar während des gesamten Aufzeichnungs-Zeitraumes über dem Gefrierpunkt liegt [?]

Inzwischen sind fast zwei Jahrzehnte ohne Temperaturtrend vergangen, und seit etwas über einem Jahrzehnt ist der Trend sogar leicht negativ. Das reicht offensichtlich noch nicht. Es gibt Perioden innerhalb dieser Zwischeneiszeit, in denen es wärmer war, und solche, in denen es kälter war. Was also ist die Referenzperiode für ein klimatisches Normal? Vor ein paar hundert Jahren erreichte die Temperatur eine Wärmespitze ohne Treibhausgas-Emissionen, der Zeitraum von 1914 bis 1940 zeigte einen ähnlichen Trend wie der Zeitraum von 1980 bis 2000 – warum ist letzterer anthropogen und ersterer nicht? Wie kann das CO2 diesmal die treibende Kraft sein, wenn es kaum oder gar keine Beweise gibt, dass es jemals in der Vergangenheit der Haupttreiber war?

Warum sollten wir den Erklärungen oder Korrekturen des Stillstands glauben, wenn die gleichen Individuen noch vor ein paar Jahren darauf verwiesen, wie perfekt die Modelle seien? Es gibt keinen Mechanismus, der Wärme aus der unteren Troposphäre auf magische Weise in die Tiefsee absinken lässt. Messungen aus der Tiefsee haben wir erst seit ein paar Jahren, und sie sind immer noch nicht zuverlässig. Außerdem wird diese Zone begrenzt durch wärmere obere Ozeanschichten und ist außerdem Schauplatz geothermische Erwärmung. Wie soll die Wärme dorthin gelangen, ohne in der oberen, der unteren Atmosphäre oder den oberen Ozeanschichten aufspürbar zu sein? Auch gibt es keinen Mechanismus, der beschreiben könnte, warum sich die gesamte Wärme in der Arktis konzentrieren soll, von wo wir auch keine Messungen haben.

Wo ziehen wir die wissenschaftliche Grenze zwischen natürlichen und künstlichen Trends, und woher wissen wir, dass diese Grenze akkurat ist? Warum ist es in der Klimawissenschaft nicht erforderlich, validiert zu werden? Was falsifiziert die Beweise? Angesichts des Berges von Problemen um die Unsicherheiten, die mangelhafte Methodik und schrecklicher Analysen  bezeichnen die meisten Skeptiker einschließlich ich selbst das ganze Theater als Bullshit.

Link: http://wattsupwiththat.com/2014/07/06/about-that-30000-to-disprove-global-warming-contest/

Übersetzt von Chris Frey EIKE




Energie-Vorlieben werden in US-Wahlen eine große Rolle spielen

Das Thema erreichte einen Siedepunkt, als Präsident Obama kürzlich Bemühungen der Environmental Protection Agency EPA unterstützte, die Durchsetzung strengerer Emissions-Vorschriften zu beschleunigen (hier). Dieses Vorhaben könnte für hunderte Kohlekraftwerke das Aus bedeuten und die Weiterentwicklung fossiler Energie im ganzen Land verzögern.

Das Thema Energie ist in unserer Zeit zu dem geworden, was die Tarife im 19. Jahrhundert waren: eine unerreichbare Aufteilung, die die Amerikaner nach Regionen und Klassen trennt und welche ultimativ die langfristige ökonomische Entwicklung des Landes beeinflussen dürfte.

Natürlich gab es schon immer Energiepolitik – angesichts der regionalen Variationen der Quellen und der Art der Verfügung – aber bis vor Kurzem haben beide Parteien im Allgemeinen die Entwicklung von Öl und Erdgas bevorzugt, hauptsächlich wegen der damit verbundenen Zunahme von Arbeitsplätzen und wegen des Potentials, das Handelsdefizit der Nation zu verringern. Jetzt jedoch ist Energie zunehmend zu einer zutiefst parteistrategischen Sache geworden, wobei die Demokraten zum größten Teil gegen, die Republikaner jedoch für die Weiterentwicklung fossiler Treibstoffe sind.

Diesen Trend hat das Aufkommen opponierender mitwirkender Gruppen reflektiert, dessen vordringlichste Sorge sich um Energie dreht. Auf der republikanischen Seite wurden die Mitarbeiter der Energieindustrie einschließlich der Milliardäre der Koch-Brüder zunehmend dominant.  Über 90 Prozent der Spenden für Kampagnen aus der Öl- und Gasindustrie gingen im Jahre 2012 an die Republikaner.

Gleichzeitig haben es die umweltlich orientierten Mitwirkenden der Demokraten unter Führung des Hedge-Fonds-Managers Tom Steyer für die meisten Kandidaten der Partei unerlässlich gemacht, gegen fossile Treibstoffe zu sein. Steyer und seine Leute wurden zum bevorzugten Platz für Gelder (hier) für den Mehrheitsführer im Senat Harry Reid und andere Spitzen-Demokraten.

Die Energie-Geographie

Die hervorstechendste Teilung – und die politisch relevanteste – ist geographischer Natur. Ein großer Teil des Landes, hauptsächlich entlang der Golfküste, Texas und der Großen Ebenen, wo sich die Schiefergas-Förderung seit 2007 vervierfacht hat, erfreut sich an einem Energie-Boom, der eine Flutwelle anderer Hochlohn-Arbeitsbereiche nach sich zog wie Herstellung und Konstruktion. Mit den Verzögerungen der Genehmigung für die Keystone XL-Pipeline und drohenden neuen Emissionsstandards der EPA versuchen die demokratischen Senatoren und Kandidaten aus diesen Ländern verständlicherweise, sich von der zunehmenden Anti-Fossil-Politik ihrer Partei zu distanzieren.

Noch wichtiger könnte es mit der Zeit sein, wie sich Energie im politischen Hauptschlachtfeld des Landes macht, nämlich den Rust-Belt-Staaten [= die Neuengland-Staaten im Osten der USA]. Die meisten dieser Staaten sind zur Stromerzeugung höchst abhängig von Kohle (hier), und einige wie Pennsylvania, Ohio und West Virginia trachten nach neuen Öl- und Gasfunden. Politische Maßnahmen, die die Entwicklung fossiler Treibstoffe begrenzen, könnten sich in einigen Gebieten zu aggressiven Elementen entwickeln, die die Demokraten viele zusätzliche Sitze im Senat kosten könnten (hier).

Im Gegensatz dazu kommt die eifrigste Unterstützung für eine strikte Gesetzgebung hinsichtlich der Klimaänderung zumeist von Staaten (hier), die nur wenig Energie verbrauchen und relativ wenig Kohlenstoff für die Energieversorgung ihrer Ökonomien benötigen. Diese Staaten brauchen weniger Energie als andere Gebiete, da sie schon jetzt weitgehend deindustrialisiert sind und nur ein sehr geringes Bevölkerungswachstum aufweisen.

Zwei andere ultrablaue [?] Bastionen, nämlich Kalifornien und der Nordwesten am Pazifik, befürworten ebenfalls eine Position für grüne Energie. Der Nordwesten hängt stark ab von Wasserkraft für seinen robusten Industriesektor, was die Abhängigkeit von kohlenstoffbasierter Energie für die Stromerzeugung verringert. Kalifornien, selbst reich an fossilen Treibstoffen, missachtet seine Ressourcen weitgehend, und die Führer bevorzugen es aus ideologischen Gründen, teure erneuerbare Energie zu unterstützen. Grob geschätzt kommt ein Viertel aller in Kalifornien verbrauchter Energie von außerhalb des Staates (hier), vieles davon Kohle. Aber da diese „schmutzige“ Energie anderswoher herkommt, können sich die Fortschrittlichen an Stellen wie Hollywood und Silicon Valley immer noch gut fühlen mit der „erleuchteten“ Politik des Staates, welche Auswirkungen auch immer diese zeitigt.

Die Klassentrennung

Historisch waren die Demokraten immer große Befürworter der Ausweitung des Energiesektors, darunter Dinge wie Staudämme, Kernkraftwerke und Pipelines. Aber der wachsende Einfluss der grünen Bewegung hat diesen Trend umgekehrt. Grüne Politik wird weithin begrüßt durch Kapitalisten-Kumpane an Orten wie Silicon Valley. Sie erfahren auch nahezu einhellige Unterstützung seitens der Akademia, wo Boykotte von Unternehmen fossiler Treibstoffe zunehmend zur Gewohnheit werden (hier). Auch die Medien sind ein Verbündeter, genauso wie die vorhersehbar progressive Unterhaltungsindustrie (hier).

Der ganze Artikel ist hier.

Link: http://www.thegwpf.org/energy-preferences-to-play-big-role-in-us-elections/

Übersetzt von Chris Frey EIKE




Man muss Greenpeace zur Rechenschaft ziehen!

Inzwischen hat der WWF (2013 mit einem globalen Einkommen von 927 Millionen Dollar) formell Anklage erhoben gegen Peabody Energy, weil dieses Unternehmen „Leser mit Anzeigen in die Irre führt“, in denen es heißt, dass Stromerzeugung auf der Grundlage von Kohle das Leben in Entwicklungsländern verbessern könnte. Diese Anzeigen sind „unanständig, nicht ehrlich und entsprechen nicht der Wahrheit“, wie es nach belgischem Recht der Fall sein muss, schnaubten die World-Wildlife-Ethiker. Andere Nicht-Regierungs-Organisationen erhoben ähnliche Vorwürfe.

Das ist eine neuartige Taktik. Aber das Ganze könnte auch kaum mehr sein als ein cleverer Versuch, die Menschen von Entwicklungen abzulenken, die Probleme für die bislang über den Gesetzen stehenden Big-Green-Organisationen bringen könnten.

Ich meine nicht de Verlust von 5,2 Millionen Dollar von Greenpeace International vor einigen Wochen, als ein schurkischer (und danach gefeuerter) Mitarbeiter das Geld der Organisation genutzt hat, um nicht autorisierte Transaktionen auf dem globalen Währungsmarkt abzuwickeln. Andere Ereignisse aus jüngster Zeit deuten auf weit rauere legale und politische Gewässer, die vor den radikalen Öko-Imperialisten liegen, vor allem, falls Länder und Unternehmen einige Seiten mehr aus dem Drehbuch von Big Green heranziehen.

Das Büro des indischen Geheimdienstes hat Greenpeace vor Kurzem als „eine Bedrohung der nationalen wirtschaftlichen Sicherheit“ eingestuft mit der Begründung, dass diese und auch andere Gruppen internationale Protestbewegungen „anzetteln“ und fördern, die zahlreiche Minen blockiert oder den Bergbau behindert hatten, ebenso wie Stromprojekte und andere Infrastruktur-Programme, die dringend gebraucht werden, um Arbeitsplätze zu schaffen und die Leute von Armut und Krankheit zu befreien. Die Anti-Entwicklungs-NGOs bringen dem indischen BIP jedes Jahr Verluste von 2 bis 3%, schätzt das Büro.

Die indische Regierung hat jetzt die direkte Förderung lokaler Kampagnen-Gruppen durch ausländische NGOs wie Greenpeace, dem WWF und dem in den USA ansässigen Center for Media and Democracy verboten. Indien und andere Nationen könnten noch viel mehr tun. Sie könnten einfach diese über-wohlhabenden* Non-Profit-Umweltunternehmen den gleichen ethischen Standards unterwerfen, die diese von Profit-Unternehmen verlangen. Das wäre ein faszinierender Beginn.

[* Im Original steht ‚über-wealthy nonprofit…‘, wo auch immer Driessen als Amerikaner diese Bezeichnung einschließlich des Umlautes her hat. Anm. d. Übers.]

Greenpeace, der WWF und andere Big-Green-Campaigner verlangen andauernd Umwelt- und Klima-Gerechtigkeit für arme Familien. Sie bestehen darauf, dass Profit-Unternehmen sozial verantwortlich sind und hinsichtlich Schäden und Ungerechtigkeiten ehrlich, transparent, verantwortlich und haftbar sind. Diese Schäden und Ungerechtigkeiten haben die Unternehmen den NGOs zufolge vermeintlich verursacht, zum Beispiel durch die Veränderung von Wetter und Klima auf der Erde.

Inzwischen haben über 300 Millionen Inder (die Zahl entspricht in etwa der US-Bevölkerung) immer noch keinen oder nur sporadischen Zugang zu Strom. Genauso wie 700 Millionen Afrikaner, die ebenfalls gar keinen oder nur gelegentlich Zugang zu Strom haben. Weltweit fehlt es fast 2,5 Milliarden Menschen (fast ein Drittel der Erdbevölkerung) an Strom, oder sie müssen sich auf kleine Solarpaneele auf ihren Hütten verlassen, auf eine einzige Windturbine in ihren Dörfern oder auf stark unzuverlässige Netzwerke, um ein Funktelefon oder einen kleinen Kühlschrank zu betreiben oder ein paar Glühlampen brennen zu lassen.

Diese sozial benachteiligten Menschen leiden nicht bloß unter elender Armut. Sie müssen Holz und Dung zum Heizen und Kochen verbrennen, was zu schwächenden Lungenkrankheiten führt, die jedes Jahr eine Million Menschen töten. Ihnen fehlen Kühlmöglichkeiten, eine sichere Wasserversorgung und ordentliche Krankenhäuser. Dies führt zu virulenten Darmkrankheiten, die jährlich fast zwei Millionen Menschen unter die Erde bringen. Die große Mehrheit dieser Opfer sind Frauen und Kinder.

Diese Energie-Entbehrungen sind zu großen Teilen die Folge unerbittlicher, aggressiver und betrügerischer Kampagnen von Öko-Aktivisten gegen Kohlekraftwerke, Erdgas-Turbinen sowie gegen Kern- und Wasserkraft in Indien, Ghana, Südafrika, Uganda und anderswo. Die Obama-Administration sprang Greenpeace bei, hat sie es doch abgelehnt, Kredite für diese überlebenswichtigen Projekte zu unterstützen, und zwar mit Behauptungen über den Klimawandel und über andere Dinge.

Der außerordentliche Professor der American University Caleb Rossiter hat jüngst in einem Artikel des Wall Street Journal gefragt: „Wo bleibt die Gerechtigkeit, wenn die USA die Weltbank drängen, Abstand zu nehmen von Projekten zur Stromerzeugung in Afrika unter Beteiligung fossiler Treibstoffe, oder wenn die Europäische Union eine ‚globale Erwärmungs‘-Steuer auf Frachtflüge erhebt, die leicht verderbliche Waren aus Afrika transportieren?“

Wo bleibt die Gerechtigkeit, wenn Obama-Berater John Holdren sagt, dass ultra-grüne Eliten in reichen Ländern den armen Ländern eine „ökologisch korrekte Entwicklung“ diktieren sollten? Wie die indische Regierung hinsichtlich des Banns auf Förderungen ausländischer NGOs sagte, arme Länder haben „ein Recht auf Wachstum“.

Stellen Sie sich Ihre Leben vor ohne reichlich, zuverlässigen und bezahlbaren Strom und ohne Treibstoffe für Transporte. Stellen Sie sich vor, unter Bedingungen zu leben, die verarmte, mangelernährte und kranke Inder und Afrikaner erdulden müssen, deren Lebenserwartung 49 bis 59 Jahre beträgt. Und dann wagen Sie es, deren Bitten und Hoffnungen abzulehnen auf der Grundlage von Spekulationen und GIGO-Computermodellen hinsichtlich einer „gefährlichen, vom Menschen verursachten globalen Erwärmung“. Wirkliche Verschmutzung durch moderne Kohlekraftwerke (Partikel, Schwefel, Nitrate und so weiter) bildet heute im Vergleich von vor vierzig Jahren nur noch einen winzigen Teil – und ist viel harmloser als Verschmutzungen durch Holzfeuer bei Null-Strom.

Aktivisten von Big Green sagen, dass etwas anderes als Solarpaneele und Vögel mordende Windturbinen nicht „nachhaltig“ seien. Genau wie Klimaänderung ist „Nachhaltigkeit“ unbegrenzt dehn- und verformbar, was es zu einer perfekten Waffe für alle Fortschrittsgegner macht. Was auch immer sie unterstützen, ist nachhaltig. Wogegen auch immer sie sind, das ist alles nicht nachhaltig. Für diese Leute sind offenbar die Krankheiten und Todesraten nachhaltig, gerecht, ethisch und moralisch.

Was auch immer sie befürworten, es wird auch dem Begriff „Vorsorgeprinzip“ unterworfen. Was auch immer sie gering schätzen, verletzt dieses Prinzip. Schlimmer, ihr perverser Leitgedanke konzentriert sich auf die Risiken des Gebrauchs von Technologien – aber niemals auf die Risiken, diese Technologien nicht zu gebrauchen. Sie heben die Risiken hervor, die eine Technologie – Kohlekraftwerke, Biotech-Nahrung oder DDT zum Beispiel – haben könnte und ignorieren die Risiken, die diese Technologien reduzieren oder verhindern würden.

Genetisch erzeugter Goldener Reis enthält ein Gen aus Mais, um ihn mit Beta-Karotin anzureichern, welches vom Menschen in Vitamin A umgewandelt wird und so Blindheit verhindert und Leben rettet. Der Reis würde armen Landwirten kostenlos zur Verfügung gestellt. Nur zwei Ounces [ca. 60 Gramm] würde die Mangelernährung von Kindern praktisch beenden, würden Blindheit und Tod verhindern. Aber Greenpeace und seine „ethischen“ Kollaborateure haben Goldenen Reis seit Jahren bekämpft, während acht Millionen Kinder an Vitamin A-Mangel gestorben sind, seit der Reis eingeführt worden ist.

In Uganda hängen mangelernährte Menschen stark von Bananen ab, die wenig Vitamin A enthalten, genauso wie der herkömmliche Reis in Asien. Eine neue Banane enthält Gene von Wild-Bananen, um den Vitamin A-Gehalt dieser Frucht zu verzehnfachen. Aber Anti-Biotechnologie-Aktivisten üben immer wieder Druck auf Gesetzgeber aus, diese Biotech-Ernten nicht zum Verkauf zuzulassen. Andere Erntegüter sind genetisch verändert, um gegen Insekten, Dürren und Krankheiten resistenter zu sein, was den Einsatz von Pestiziden verringert und den Landwirten erlaubt , mehr Nahrung auf weniger Land und mit weniger Wasser zu erzeugen. Allerdings ist Big Green auch hier natürlich dagegen, während Millionen durch Mangelernährung und Hunger sterben.

Wenn man es in kleinen Mengen auf Häuserwände sprüht, kann DDT Mücken abwehren, und zwar sechs Monate lang oder noch länger. Es tötet jede einzelne, die an diesen Wänden landet und lenkt jene ab, die nicht getötet oder abgewehrt werden. Daher wird in den Häusern niemand gestochen. Keine andere Chemikalie – schon gar nicht zu seinem Preis – ist dazu in der Lage. Wo DDT und andere Insektizide eingesetzt werden, sind die Fälle von Malaria und anderer von Insekten übertragener Krankheiten eingebrochen – um bis zu 80%. Richtig angewendet, ist diese Chemikalie sicher für Menschen und Tiere, und Malaria tragende Mücken bilden viel weniger Resistenzen gegen DDT als gegen andere Pestizide, die immer noch stark in der Landwirtschaft verwendet werden und tatsächlich Gefahren für die Menschen bergen.

Aber in einem weiteren Verbrechen gegen die Menschlichkeit bekämpfen Greenpeace, der WWF und deren Gesinnungsgenossen das DDT – während eine halbe Milliarde Menschen jedes Jahr von Malaria infiziert werden, was sie wochenlang daran hindert, arbeiten zu können, was Millionen mit permanenten Gehirn-Schädigungen zurück lässt, und was eine Million Menschen pro Jahr tötet, zumeist Frauen und Kinder.

Indien und andere Länder können zurückschlagen, indem sie Steuervorteile für diese NGOs streichen, so wie es Kanada mit Greenpeace vorgemacht hat. Sie können die Aktionsgruppen zwingen, die gleichen Standards einzuhalten, die diese für profitorientierte Unternehmen verlangen: Ehrlichkeit, Transparenz, soziale Verantwortung und persönliche Haftung. Sie könnten die Big Green-Gruppen bloßstellen mit deren Verbrechen gegen die Menschlichkeit – und sie bestrafen für all die Mangelernährung, Krankheiten, ökonomische Rückschläge und Todesfälle, die sie anrichten oder weiterführen [unübersetzbares Wortspiel: ‚perpetrate or perpetuate‘]

Derartige Aktionen würde Millionen Leben verbessern und Big Green sowie deren Dollars* etwas Rechenschaft verleihen. [*Noch ein Wortspiel: ‚Big Green(backs)‘. ‚Greenback‘ ist ein amerikanischer Slang-Ausdruck für Dollarnoten.]

————————————————

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of Eco-Imperialism: Green power – Black death.

Anmerkung des Übersetzers: Dieser Kommentar von Paul Driessen ist mehr eine Generalabrechnung mit sog. „grünen“ Gruppen, als dass es um Klima oder Energie geht. Aber es zeigt, wie Kampagnen dieser Marodeure auch in puncto Klima oder Energie einzuordnen sind – nämlich absolut menschenfeindlich.

C. F.

Link: http://wattsupwiththat.com/2014/07/06/holding-greenpeace-accountable/#more-112566

Übersetzt von Chris Frey EIKE




Fracking in USA erfolgreicher in Vermeidung von CO2-Emissionen als alle Windturbinen und Solarpaneele weltweit zusammen

Fracking in den USA hat die Kohlenstoff-Emissionen stärker reduziert als alle Windturbinen und Solarpaneele auf dem gesamten Globus zusammen. Dies ist die einschlägige Tatsache, die auf einer Tagung im Council of Europe in Straßburg präsentiert worden ist.

Chris Faulkner, leitender Direktor des in Texas ansässigen Unternehmens Breitling Energy Corporation, erklärte: „Fracking war dort erfolgreich, wo Kyoto und Kohlenstoff-Steuern versagt haben. Wegen des Schiefer-Booms in den USA hat die Verbrennung sauberen Erdgases die viel schmutzigere Kohle um mehr als 10 Prozent ersetzt. Im Jahre 2012 hat der Übergang zu Gas die CO2-Emissionen um etwa 300 Megatonnen (Mt) verringert.

Man vergleiche dies mit der Tatsache, dass alle Windturbinen und Solarpaneele auf der Welt die CO2-Emissionen maximal um 275 Mt reduzieren. Mit anderen Worten, die US-Schiefergas-Revolution hat allein die globalen Emissionen stärker reduziert als die in bester Absicht errichteten Windparks und Solarpaneele in der Welt“.

Die ökonomischen Auswirkungen von Fracking und Schiefergas sind ebenfalls unbestreitbar: Während sich die Erdgaspreise in der EU seit dem Jahr 2000 verdoppelt haben, sind sie in den USA während der letzten paar Jahre um 75 Prozent gefallen. Jährlich belaufen sich Subventionen auf Solar und Wind auf 60 Milliarden Dollar, während in den USA mindestens 100 Milliarden Dollar durch billigere Energie eingespart werden.

Der Economist sagt voraus, dass die Fracking-Revolution bis zum Jahr 2020 dem amerikanischen BIP 2 bis 4 Prozent hinzugefügt haben (380 bis 690 Milliarden Dollar) und mehr als doppelt so viele Arbeitsplätze schaffen wird, als die Autohersteller heute haben. Das US-BIP liegt heute bei 16 Billionen Dollar; die Autoindustrie beschäftigt etwa 800.000 Menschen.

Chris Faulkner weiter: „Viele Länder in Europa und in der Welt hätten ähnlich große Gelegenheit, ihren Kohlenstoff-Fußabdruck zu reduzieren und die gleichen ökonomischen Vorteile zu erlangen.

Diese Gelegenheiten sollten die Regierungen nicht außer acht lassen, da Kohlenstoff-Reduktionen nicht durch Erneuerbare oder andere derzeitige Energieerzeugungs-Technologien erreicht werden.

Aber Schiefergas ist keine Wunderwaffe, sondern eine Brücken-Technologie, während andere Technologien zur Energieerzeugung entwickelt werden, die die auf Kohlenstoff basierenden Treibstoffe in den kommenden Jahren ersetzen werden.

Gegner von Fracking und der Ausbeutung von Schiefergas führen zahlreiche Risiken an. Dabei wurde an eineinhalb Millionen Stellen in den USA seit 1947 Fracking betrieben, und an 95 Prozent aller Bohrstellen in den USA macht man es heute noch. Es ist eine sehr sichere Methode der Erschließung und Erzeugung. Fracking findet viele tausend Fuß unter den Grundwasser führenden Schichten statt. Es ist für die Fracking-Flüssigkeit praktisch unmöglich, durch die Felsformationen zwischen den Schiefergas-Lagerstätten und dem Grundwasser aufzusteigen.

Und Risiken“, fügt Chris Faulkner hinzu, „gibt es bei jeder Energiequelle. Wenn es jedoch angemessene Vorschriften und Überwachung gibt, können diese Risiken gemanagt und minimiert werden. In vielen US-Staaten gibt es vor Ort effektive Vorschriften und Monitoring“.

Der vollständige Artikel findet sich hier.

Link: http://www.thegwpf.org/u-s-fracking-has-cut-carbon-more-than-the-whole-worlds-wind-and-solar/

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Lügen mit Statistik: Das National Climate Assessment bauscht fälschlich den Eisverlust in Grönland und der Antarktis auf

Das NCA stellt die Rate des Eisverlustes der Eisschilde von Grönland und der Antarktis folgendermaßen dar (im Anhang 4, FAQ-L):

Ziemlich steiler Abfall, nicht wahr? Richtig beängstigend.

Aber wenn es irgendeinen Weg gibt, Trends darzustellen, die garantiert in die Irre führen, dann die Darstellung mit absoluten Zahlen, ohne sie ins richtige Verhältnis zu stellen. Das NCA hätte den Eisverlust entweder in Prozent darstellen können – mit Graphen über die gesamte Spannbreite von 0 bis 100 – oder als Gigatonnen mit einem Bereich von 0 bis zur höchsten Gesamtzahl an beiden Stellen.

Wie würden die so erstellten Graphen aussehen? Um das zu wissen, muss man die Gesamt-Eismasse sowohl in Grönland als auch der Antarktis sowie die jährliche Verlustrate kennen. Nichts davon ist genau bekannt, aber geht man von weithin akzeptierten Zahlen aus, können wir Berechnungen durchführen. Die Ergebnisse?

Grönland verliert etwa 0,1% seiner Eismasse pro Jahrzehnt – das heißt etwa 0,01% pro Jahr. Mit dieser Rate wird es ein Jahrhundert dauern, bis es 1% seiner Eismasse verloren hat.

Die Antarktis verliert etwa 0,0045% seiner Eismasse pro Dekade – etwa 4,5 Zehntausendstel eines Prozentes pro Jahr. Mit dieser Rate würde es etwa 2200 Jahre dauern, bis sie 1% ihrer Masse verloren hat.

Oh – und wie würden die Graphen aussehen, wenn man sie ins Verhältnis setzt? So:

Nein, die Trendlinien fehlen nicht. Das sind die roten Linien auf dem 100%-Niveau der Graphiken. Die Steigung ist so gering, dass man sie im Falle Grönland kaum erkennen kann – und im Falle der Antarktis überhaupt nicht.

Und die Auswirkungen auf den Meeresspiegel? Zusammen etwa 1 Millimeter pro Jahr.

Ist man jetzt weniger verängstigt?

Aber das ist nicht das, was die Obama-Administration will. Jetzt wissen Sie, warum sie die trügerischen Graphiken ins Feld geführt hat!

E. Calvin Beisner, Ph.D., ist Gründer und nationaler Sprecher der Cornwall Alliance for the Stewardship of Creation.

J. C. Keister Jr., Ph.D., ist ein Forscher im Bereich Physik und Mathematikprofessor im Ruhestand. Er schreibt Beiträge für die Cornwall Alliance.

Link: http://wattsupwiththat.com/2014/07/06/lying-with-statistics-the-national-climate-assessment-falsely-hypes-ice-loss-in-greenland-and-antarctica/

Übersetzt von Chris Frey EIKE




Angstmache vs Realität in Deutschland: Wer gewinnt immer? Die Angstmache!

Ersteintrag: 09.11.2013 18:39:33 GMT+01:00

Beschreibung: http://g-ecx.images-amazon.com/images/G/03/x-locale/common/carrot._V192193304_.gifSiegfried Sorglos meint:

"Ohne Radioaktivität kein Universum, keine Erde, kein Leben!"

… und ohne Feuer keine Zivilisation! – Deshalb möchte ich trotzdem nicht verbrennen.

Fragen Sie mal noch lebende Liquidatoren von Tschernobyl, was sie von Radioaktivität halten. Die bilden sich ihre Strahlenkrankheit und den Tod ihrer Kollegen sicherlich nur ein.
Vielleicht gibt es da auch jemanden, der ein verharmlosendes, schlaues Buch geschrieben hat. In jedem Fall gibt es da einen Staat und eine Industrie, welche Fakten gerne unter den Teppich kehren.

Ich kannte mal einen alten Mann, der als Kettenraucher nahezu 90 Jahre alt geworden ist.
Man hätte ihn ein Buch zu den völlig übertriebenen Gefahren des Rauchens schreiben lassen sollen (zur Freude der Tabakindustrie).

Natürlich war es auch nur Einbildung, dass drei homöopathische Kügelchen die Bindehautentzündung meiner damals wenige Monate alten Tochter kurierten. Mit den schulmedizinischen Antibiotikum-Tropfen hatten wir sie zuvor eine Woche lang gequält, aber der zähe, grüne Schleim, welcher die Augen nachts verklebte, kam zurück.

Glauben Sie, was Sie wollen, aber ersparen Sie anderen ihr arrogantes, besserwisserisches Getue. Bedenken Sie: Der Mensch ist mehr als Bildung und Verstand und das Leben mehr als Wissenschaft und Effizienz.

Kommentar von Franz Plich vom 03.07.2014, zur Rezension bei amazon vom 03.06.2013, zum Buch     Das Märchen von der Asse von Hermann Hinsch                                                                                          

Lieber Herr Sorglos,

vorab ein Angebot von mir: Ich schenke Ihnen gerne das Buch „Das Märchen von der Asse“. Für mich war dieses Buch, wie man so schön sagt, der Wendepunkt in meiner Einstellung zu radioaktiver Strahlung. Schreiben Sie mir eine Mail, geben Sie mir eine Lieferadresse an, auch gerne mit Pseudonym, und Sie bekommen das Buch über amazon. Was Sie mit den Informationen aus diesem Buch machen ist natürlich Ihre Sache, informativ ist es allemal. Meine Email: franz-plich@web.de  

Wie gesagt, ich habe ungemein viel aus diesem Buch gelernt und es hat mich dazu gebracht, mich weiter zu informieren, weiter zu bohren, nichts zu glauben, möglichst viel zu überprüfen. Bis zu der Havarie in Japan/Fukushima war ich den Kernkraftwerken reserviert gegenüber, war aber kein Gegner. Ich meinte, die sollten halt bis zum technischen Lebenszeitende Strom produzieren und dann ist es auch gut. Dann wären wir mit anderen Technologien so weit, die KKW’s zu ersetzen. Heute denke ich, dass jene Nationen an der Spitze der Entwicklung und des Wohlstands sein werden, welche die Kernenergie kommerziell zur Stromerzeugung intensiv nutzen. Ich bin also zum Strahlenfreund mutiert. Eine vernünftige alternative Quelle zur Stromerzeugung sehe ich weit und breit nicht.

Das von Ihnen empfohlenen Buch „Die Risikolüge: Warum wir nicht alles glauben dürfen“ habe ich vorhin bestellt. Ich werde es mit Interesse lesen.

Der große Unfall in Fukushima stellt eine Zäsur dar. Es sind nun einmal die Fakten, dass es keine Toten gegeben hat und mit Langzeitschäden für Mensch und Natur nicht zu rechnen ist. Damit muss die Anti-Atombewegung nun umgehen. Mit immer mehr Lügen und Panikmache kann sie Zeit gewinnen aber sonst nix. Die nackten Anti-Atomkaiser werden von immer mehr Menschen durchschaut werden!

Ein großer Fehler war, das Gebiet um das KKW-Fukushima zu evakuieren. Die Strahlenbelastung war dort nie irgendwie gefährlich und ist es auch heute nicht. Die Menschen sollten schnell zurückkehren dürfen, natürlich freiwillig. Das wollen auch viele. Es gibt normal bewohnte Städte auf der Welt, wo die natürliche Strahlenbelastung rund 20 Mal höher ist als im Umfeld von Fukushima heute. Den Menschen in diesen Städten geht es deshalb gesundheitlich nicht schlechter als anderswo. Aufgrund der Evakuierungen starben fast 60 Menschen, von den psychischen und sonstigen Belastungen einer Evakuierung abgesehen.

Dazu eine schlimme Anekdote aus meinem familiären Umfeld. Meine Partnerin sollte im November 2011, also ein paar Monate nach der Fukushimahavarie, beruflich eine Woche nach Tokio. Ihre damals 12-jährige Tochter war deshalb über Wochen verzweifelt. Sie bat ihre Mutter inständig nicht zu fliegen, konnte oft nicht schlafen, weinte viel, hatte Angst um ihre Mutter, die nun verstrahlt werden würde in Tokio. Woher hatte sie das? Ihre Lehrerin in der Lenau-Grundschule im grünen Vorzeigebezirk Berlin-Kreuzberg, hatte die Kinder ihrer Klasse verrückt gemacht mit Anti-Atompanik. Ihre Mutter flog trotzdem und kurz nach ihrer Rückkehr nach Berlin, war im Berliner Tagesspiegel eine Beilage zum Thema „Reisen in Risikogebiete“. Der Tagesspiegel veröffentlichte und verglich die Werte der Strahlung in Tokio gerade für diese Woche. Und das Ergebnis? In Berlin waren die Werte der radioaktiven Strahlung in dieser Woche im November 2011 rund doppelt so hoch wie in Tokio!!!

Da stellt sich die Frage: Wer tötet mehr? Die „böse“ Atomindustrie oder die „gute“ Anti-Atombewegung. Es ist die Anti-Atombewegung, die unfassbar viel Leid den Menschen zufügt. Das ist aber immer so mit fundamentalistischen religiösen Bewegungen, wie es auch die Anti-Atombewegung ist, und diese muss endlich gestoppt und zur Verantwortung gezogen werden!!! Der Welpenschutz ist längst vorbei! Die WHO geht von rund 1 300 grundlosen Angstselbstmorden wegen des Atomunfalls in Fukushima aus. In Deutschland geht man von hunderttausenden in ihrem Leben beeinträchtigte Menschen aus, die wegen der Panikmache an irrationaler Strahlenangst erkrankt sind, bei den Psychotherapeuten Hilfe suchen, ihre Lebensfreude zum Teil verloren haben und/oder nur noch eingeschränkt arbeits- und lebensfähig sind. Ja, ist ja gut, es ist nicht nur die Strahlenangst, auch die vielen anderen Ökolügen, z.B. dass wir permanent von der bösen Nahrungsmittelindustrie vergiftet werden, tragen ihren Teil dazu bei.  

Mit freundlichen Grüßen, Franz Plich, Berlin-Kreuzberg

http://www.amazon.de/review/R6AQWJDPU9CAN/ref=cm_cr_dp_cmt?ie=UTF8&ASIN=384826787X&channel=detail-glance&nodeID=530484031&store=digital-text#wasThisHelpful