1

Warum Nahrungsmittel verschwenden, nur um etwas zu ersetzen, von dem wir schon zu viel haben?

Zum Zeitpunkt der Genehmigung war es unvorstellbar, dass die Amerikaner nur ein Jahrzehnt später weniger Benzin verbrauchen würden anstatt mehr. Anstatt einen bestimmten oder sogar wachsenden Prozentsatz von Äthanol zu verlangen, schrieb das Gesetz eine zunehmende Menge vor – was zu unvorhergesehenen Komplikationen führte.

Seit das Gesetz in Kraft trat, haben wir weniger Benzin verbraucht, hauptsächlich wegen verbesserter Benzin-Effizienz und einer allgemein sich abkühlenden Wirtschaft (d. h. weniger Menschen fahren täglich zur Arbeit und wieder nach Hause). Die Vorschrift zu mehr und mehr Äthanol in weniger und immer weniger Benzin ist nicht das, was das Gesetz erreichen wollte.

Man glaubte, dass der RFS dabei helfen würde, Energieunabhängigkeit zu erreichen und CO2-Emissionen zu reduzieren – beide Ziele entstammen einer anderen Ära.

Der RFS wurde zu einer Zeit in Kraft gesetzt, als die Ölerzeugung in den USA am Tiefpunkt einer Jahrzehnte langen Abnahme angelangt war. Zu jener Zeit wusste niemand, dass die Trendlinie sich komplett umkehren würde, geschuldet der amerikanischen Ingenieurskunst sowie den Innovationen horizontaler Bohrungen und hydraulischen Brechens, die eine neue Ära des Überflusses eingeläutet haben. Außerdem glaubte man, dass auf Mais basierender Treibstoff (welcher die Hauptquelle der Äthanol-Erzeugung in den USA ist) die CO2-Emissionen reduzieren werde – obwohl die Ergebnisse schon damals im besten Falle fragwürdig waren.

Seit der RFS in ein Gesetz gegossen worden ist, wurden zahlreiche Studien durchgeführt, um die umweltlichen Vorteile von Äthanol gegenüber Benzin zu bestimmen – von denen viele zu dem Ergebnis gekommen waren, dass Äthanol tatsächlich schädlicher als Benzin ist. Bei einer Anhörung des House Oversight Committee vor ein paar Tagen hat John DeCicco, ein Forschungsprofessor am Energy Institute der University von Michigan gesagt: „Die Studien mit der Hypothese, dass Biotreibstoffe kohlenstoffneutral sind, sind betrügerisch“. Das Journal Morning Consult schreibt dazu: „Er fand heraus dass die Gesamtemissionen von Äthanol bis zu 70% höher sind als bei traditionellem Benzin“.

Äthanol hat eine ungewöhnliche Koalition von Gegnern. Werbespots der Äthanol-Lobby kolportieren, dass ausschließlich „Big Oil“ die Äthanol-Vorschrift beendet sehen wolle. Dieser Behauptung widerspricht die Website www.FactCheck.org: „Viele verschiedene Umweltgruppen sind ebenfalls schwer dagegen. Ebenso wie eine breite Koalition, unter anderem mit Restaurantbesitzern, die einen Aufwärts-Preisdruck für ihre Speisen befürchten, und Bootsherstellern, die über die Probleme erbost sind, die Äthanol in den Bootsmotoren anrichten kann“.

Trotz dieser Kontroverse behauptet die EPA, dass der RFS ein „Erfolg“ ist. Janet McCabe, Assistenz-Administratorin des Office of Air and Radiation [etwa: Büro für Luft und Strahlung] bei der EPA sagt: „Damit ist die Herstellung von Biotreibstoff sowie der Verbrauch in den USA auf ein höheres Niveau gestiegen als in jeder anderen Nation. Diese Regierung hat sich verpflichtet, das RFS-Programm am Laufen zu halten und damit fortwährendes Wachstum der Produktion und des Verbrauchs von Biotreibstoff zu befeuern. Außerdem sollen die Klimaziele und die Vorteile der Energie-Unabhängigkeit erreicht werden, die dem Kongress mittels dieses Programms vorschweben“.

Wenn man dies alles weiß, kommt es nicht überraschend, dass die Biotreibstoff-Industrie – die ohne die Äthanol-Vorschrift gar nicht existieren würde – nicht glücklich war, als die EPA am 18.Mai ihre Vorschriften zur Beimischung von Äthanol für das Jahr 2017 bekannt gab. Sie machte Gebrauch von ihren Freiheiten bzgl. Adjustierungen, und die Vorschriften verlangten jetzt weniger als das Gesetz, aber mehr, als auf dem Markt nachgefragt wird. Das Wall Street Journal (WSJ) schreibt: „EPA-Funktionäre sagen, dass sie ein Gleichgewicht anstreben zwischen dem Ziel des Kongresses, mehr Äthanol zu verbrauchen und den Realitäten des gegenwärtigen Treibstoff-Marktes und der Infrastruktur“. Stattdessen war niemand glücklich.

Im Biomass Magazine verteidigt McCabe die Maßnahme: „Die Tatsache, dass der Kongress sich entschieden hat, zunehmende und substantielle Mengen erneuerbarer Treibstoffe vorzuschreiben, signalisiert eindeutig dessen Absicht, Anreize zu schaffen, um die Versorgung mit erneuerbarem Treibstoff zunehmen zu lassen und Hindernisse im Markt zu überwinden. Die Standards, die wir vorschlagen, würden jene Anreize bieten“.

Chet Thompson, Präsident der American Fuel & Petrochemical Manufacturers, welche Raffinerien repräsentieren, die diesen Vorschriften folgen, erwiderte: „Die EPA-Vorschläge drohen, Verbraucher dazu zu zwingen, mehr Biotreibstoffe zu verbrauchen, als Fahrzeuge, Maschinen und Treibstoff-Infrastruktur verkraften können. Die vorgeschlagenen Volumina gehen immer noch über die Realitäten des Marktes hinaus“.

Im Gegensatz dazu sagte Chip Bowling, Präsident der National Corn Growers Association: „In der Vergangenheit hat die EPA einen Mangel an Treibstoff-Infrastruktur als einen der Gründe angeführt, warum das Statut nicht erfüllt wurde. Unsere Maisbauern und die Äthanol-Industrie haben reagiert. Während des vorigen Jahres haben wir Millionen Dollar investiert, zusammen mit der Biofuel Infrastructure Partnership im US-Landwirtschaftsministerium, um öffentliche und private Investitionen in neue Äthanol-Pumpen und Treibstoff-Infrastruktur zu bestärken. Tatsache ist, dass der heutige Autofahrer mehr Zugang zu einer Auswahl erneuerbarer Treibstoffe hat als jemals zuvor“.

Hinsichtlich der EPA-Entscheidung vom 18. Mai sagte mir DeCicco: „Die EPA versucht, einen ökonomischen Mittelweg zu gehen zwischen Befürwortern und Gegnern. Aber mit dem RFS wurde die Umwelt aus der Bahn geworfen. Im Gegensatz zu dem, was vom Energieministerium und einigen anderen Regierungs-Agenturen beabsichtigt war, machen Biotreibstoffe die CO2-Emissionen schlimmer als besser“.

Bei der oben erwähnten Anhörung vor dem Weißen Haus bezeichnete der Abgeordnete Jim Jordan von den Republikanern den RFS als „ein klassisches Beispiel, was passiert, wenn man eine Schar von Politikern zusammen bringt, die glauben, klüger zu sein als der Markt“.

Frank Macchiarola vom American Petroleum Institute fordert den Kongress auf, „den RFS außer Kraft zu setzen oder signifikant zu reformieren“. Er stellt fest: „Beide Seiten des Disputes stimmen darin überein, dass dieses Programm gescheitert ist, und wir erneuern unsere Forderung an den Kongress, entsprechend aktiv zu werden“.

Als Beweis für den Standpunkt von Macchiarola und vor Inkrafttreten der neuen Vorschriften 2017 haben die US-Repräsentanten Bill Flores (R-TX), Peter Welch (D-VT), Bob Goodlatte (R-VA), Jim Costa (D-CA), Steve Womack (R-AR) und Cedric Richmond (D-LA) überparteilich eine RFS-Reform vorgeschlagen. Das Food and Fuel Consumer Protection-Gesetz H.R. 5180 begrenzt die RFS-Vorschrift auf ein Niveau, das die Autos, Lastwagen, Boote und andere Kleinmaschinen leicht verkraften können. In der Eingabe „wird die EPA angewiesen, gegenwärtigen Markt-Realitäten Rechnung zu tragen und die maximale Beimengung von Äthanol in Benzin auf 9,7 Prozent des projizierten Benzin-Verbrauches zu begrenzen“. Die Unterstützer dieser Eingabe veröffentlichten ein Statement, in dem der RFS „nicht nachhaltig“ genannt wird.

Es ist an der Zeit, wieder dem freien Markt zu überlassen – und nicht dem Kongress, nicht ungewählten Bürokraten, nicht Vorschriften, nicht künstlich aufgeblähtem Wachstum in einem ausgewählten Industriebereich – welchen Treibstoff wir verwenden wollen. Weil Äthanol ein effektiver Oktan steigernder Zusatz ist, wird es immer Markt-Nachfrage geben. Landwirte, die darin investiert haben, werden nicht aus dem Geschäft gedrängt. Das Food and Fuel Consumer Protection-Gesetz bietet einen vernünftigen Ausweg auf eine in guter Absicht erfolgten, aber gescheiterten Gesetzgebung, wenn man den RFS nicht gleich ganz aufheben möchte (wofür es kaum Zustimmung geben dürfte).

Link: http://oilpro.com/post/24609/why-waste-food-to-replace-something-we-already-have-too-much

Übersetzt von Chris Frey EIKE




Die Eisheiligen werden kälter. Teil 2

Der aktuelle DWD-Artikel enthält drei Aussagen

1) Die Eisheiligen, also die Tage vom 11. – 15 Mai, werden immer wärmer und man könne zunehmend keinen Unterschied zu den anderen Maitagen mehr feststellen.

2) Kalte Tage im Mai gäbe es immer, diese kalten Tage verteilen sich auf den Gesamtmai.

3) Außerdem erweckt der Gesamtartikel den Eindruck: Es würde in der Gegenwart zusammen mit den Eisheiligen auch der Mai immer wärmer.

Irgendwelche Grafiken oder andere Beweise zur Unterstützung der Falschaussagen des Artikels werden nicht aufgeführt. Also wissenschaftlich gesehen einfach nur so daher geschwätzt unter Berufung auf das eigene Archiv und auf den klangvollen Namen „Deutscher Wetterdienst“

Wir wollen die DWD-Behauptungen diesmal anhand der Klimastation Goldbach/Bischofswerda überprüfen. Der kleine Teilort mit etwa 450 E hat sich in den letzten 25 Jahren fast nicht verändert, so dass kaum zusätzliche Wärmeeinflüsse bedingt durch Bebauungen, Heizungen die Thermometer der Wetterstation wesentlich erwärmend beeinflusst haben könnten. Nur der Autoverkehr und der Straßenbau wirken erwärmend. Obwohl es diese Station erst seit 21 Jahren gibt, können wir doch sehr gut den Punkt 1 der DWD-Behauptung überprüfen durch zwei Temperaturgrafiken, eine vom Gesamtmai und eine nur von den Eisheiligen. Die Aussage 1 des DWD lautete: Die Eisheiligen würden immer wärmer, es gäbe fast keinen Temperaturunterschied zum Gesamtmonat Mai mehr.

Grafik 1a und 1b: oben sind die Temperaturmonatsmittel des Mai dargestellt, unten nur der Temperaturschnitt der fünf Eisheiligentage vom 11. – 15. Mai

Ergebnis 1: Die Behauptungen des Deutschen Wetterdienstes sind falsch. Die Eisheiligen wurden auch in Goldbach in den letzten 21 Jahren deutlich kälter als der Monat Mai. Der Maidurchschnitt ist fast um 1 Kelvin höher als der Eisheiligenschnitt.

Betrachten wir nun beide Grafiken „in den letzten Jahren“. Da der DWD keinen genauen Zeitraum angibt, wählen wir das Jahr 2002 als Ausgang.

Grafik 2a: In diesem sehr kurzen Zeitraum, welchen der DWD in seinem Artikel „in den letzten Jahren“ benennt, ist der Mai in Goldbach auch kälter geworden, dies zeigt der direkte Vergleich mit Grafik 1a, die Trendlinienkennlinie wurde negativer. Zuvor y= -0,0234x, bei 15 Jahren y= -0,129x

Grafik 2b: Im gleichen Zeitraum, also in jüngster Zeit wurden die Eisheiligen noch kälter. Der kälteste Eisheiligentag 2016 in Goldbach war der 15.Mai mit 7C. Grafikvergleich, bei 21 Jahren y = – 0,129x bei 15 Jahren y= -0,196x

Ergebnis 2: Auch die weiteren Behauptungen des Presseschreibers des Deutschen Wetterdienstes sind falsch. Die Eisheiligen werden in der Gegenwart bzw. „in jüngster Zeit“ nicht wärmer, sondern immer kälter. Keinesfalls findet eine Angleichung zwischen den fünf Eisheiligentagen und dem Monat Mai statt, sondern ein scherenartiges Auseinandertriften der Trendlinien: Die Eisheiligen wurden in den letzten Jahren deutlich kälter. Sowohl in Goldbach als auch in Potsdam.

Wir haben bewusst mit der Wetterstation Goldbach einen kleinen Ort gewählt, der sehr ländlich geprägt ist. Denn die ländliche freie Fläche macht vom Gesamtgebiet Deutschlands immer noch 90% der Gesamtfläche aus. Und die Vegetation in der freien Fläche orientiert sich nach den tatsächlichen Temperaturen. Wir stellen fest: Wegen des Kälterwerdens der Eisheiligen warten viele Bäume inzwischen die kalten Tage ab und fangen danach erst mit dem Austrieb an, z.B. Eichen, Erlen, Eschen, Hartriegel, Holunder, Birken. Das zeigt die nächste Abbildung aus dem ländlichen Frankenbachtal auf 460m Höhe in Süddeutschland zwischen den Städten Ellwangen und Aalen mitten der schönen Pampa Deutschlands gelegen. Die Aufnahme entstand zwei Tage nach Eisheiligen, nach der „kalten Sophie“, wobei der 16.te Mai diesmal genauso kalt war.

Grafik 3: Die Aufnahme vom 17.Mai 2016 zeigt das Frankenbachtal auf 460m Höhe in der freien Fläche Deutschlands zwischen Aalen und Ellwangen und zwar den sonnenbeschienen Südhang. Die verschiedenen Baumgruppen warten inzwischen die Eisheiligen ab und beginnen danach erst mit dem Blattaustrieb. Typisch sind auch die rotbraunen Blattaustriebe, die während der Kälte gelitten und das Wachstum kurzzeitig eingestellt haben.

Ergebnis 3: Durch das Kälterwerden des Gesamtmonates Mai in der Gegenwart und durch das noch stärkere Kälterwerden der Eisheiligen macht in der freien naturbelassenen „Pampa“ Deutschlands nicht mehr der Anfang Mai die Bäume grün, sondern erst die 2. Maihälte

Das ist eine erstaunliche Erkenntnis und widerspricht dem gesamten Geschwätz der Erwärmungsbehauptung. Das 250 Jahre alte Lied von Wolfgang A. Mozart „Komm lieber Mai und mache die Bäume wieder grün“, war genauso wie die anderen deutschen Frühlingslieder, z.B. „Der Mai ist gekommen, die Bäume schlagen aus“ (1842) auf den Anfang Mai bezogen. https://www.youtube.com/watch?v=M_j1il65RY0

Fazit: Die Eisheiligen sind nach über drei Jahrzehnten Abkühlung inzwischen so kalt geworden, dass die Vegetation vieler Bäume und Sträucher erst nach dem 15 Mai in der freien Fläche außerhalb der Wärmeinseln mit dem Frühlingsstart beginnt. Alle drei Behauptungen der politischen Führungsriege des DWD in dem aktuellen Artikel (Siehe Beginn) sind grottenfalsch.

Zusammenfassung: Wir konnten anhand der Klimastationen Potsdam und Goldbach zeigen: Die Eisheiligen werden in der Gegenwart kälter und nicht wärmer.

Will der DWD weiterhin seinen Artikel auf seiner Homepage belassen, dann muss er endlich Grafiken über die Eisheiligen vorlegen und wissenschaftliche Beweise seiner Behauptungen erbringen. Theoretisch wäre es möglich, dass wir mit Goldbach und Potsdam zwei absolute Ausnahmestationen erwischt hätten.

Josef Kowatsch, aktiver Naturschützer, Naturbeobachter und unabhängiger Klimawissenschaftler




Kurzbericht über einschlägige Eindrücke bei der Generalversammlung der World Farmers‘ Organisation WFO in Livingstone, Sambia.

 Nach dem plötzlichen Herztod des bisherigen Präsidenten der ARP vor 2 Monaten hat der Übergangspräsident zahlreiche Aufgaben delegiert. Er bat mich, die ARP in Sambia zu repräsentieren. Da ich schon seit fast 2 Jahren (kritisches) Mitglied der Climate Change Working Group der WFO bin, wurde ich angefragt, ob ich bereit wäre, als „Panelist“ einen Beitrag zu dem Workshop „Farmers as Agents to solutions to the Climate Change” (einem der 4 parallelen Workshops am Tag vor Asamblea-Beginn) zu leisten. Ich habe zugesagt und eine 15-minütige Präsentation zum Thema „Climate Change Mitigation in Farming Systems: Opportunity or Illusion?“ vorbereitet und gegeben:

http://wfo-oma.com/GA2016/GA2016-workshop.html

(Scroll down, session 1 des Workshops on „Farmers as Agents to solutions to the Climate Change”) 

Nach einem Loblied über CO2 (Ergrünen der Erde laut CSIRO: http://www.csiro.au/en/News/News-releases/2013/Deserts-greening-from-rising-CO2  und NASA: http://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth/ ; Steigerung der landwirtschaftlichen Erträge: http://www.thegwpf.org/content/uploads/2015/10/benefits1.pdf   etc.), und dem Aufzeigen, dass Livestock im Globalen Methanhaushalt ein „Minor Player“ ist (kein Livestock-Signal erkennbar, weder in der geographischen Methanverteilung noch in der historischen Methanentwicklung), sowie der Mitteilung einiger weiterer Wahrheiten (zunehmende Divergenz zwischen IPCC-Modellen und empirischen Temperaturermittlungen trotz steigender CO2-Emissionen; zahlreiche frühere Warmzeiten trotz vorindustrieller CO2-Werte; falsche Anreize könnten falsche Signale setzen und sogar die Welternährung gefährden etc.), bin ich am Ende zu dem Schluss gekommen: „Mitigation opportunities seem to be limited, mitigation illusions might be abundant.“ 

Die Reaktionen waren unterschiedlich: Von Begeisterung bei einigen wenigen bis zum Kopfschütteln und Schweigen und sogar sichtlicher Nervosität bei anderen. Aggressive Reaktionen gab es nicht, nicht einmal fachlich wirklich herausfordernde Fragen, obwohl auch Leute von Internationalen Forschungszentren und Organisationen anwesend waren, die mit diesem Thema Geld machen. Es waren aber meist nur die PR-Leute da, die sichtlich fachlich unsicher waren. Diese haben trotzdem natürlich ihre vorbereiteten Mitteilungen durchgezogen und sich nicht von den Realitäten beirren lassen.

In der Generalversammlung war es mir möglich, eine ganz deutliche Botschaft bei der Strategie-Diskussion im Plenum zu Protokoll zu geben, die ich sauber vorbereitet hatte:

„In the context of the WFO strategic engagement in Climate Smart Agriculture and the Paris Agreement I’d like to recall the beneficial nature of CO2 for agriculture and Nature. CO2 is clearly the most important nutrient of life as it is the only carbon source of all Organic Matter. As farmers should we appreciate CO2 as an important ally, as it is boosting our yields and income, and not consider it as a pollutant. A week ago NASA published on its website a report which shows an increase in Leaf Area Index in most of the earth’s vegetated surface during the past 35 years due to higher CO2-levels in the atmosphere. Considering furthermore, that there are very strong arguments that CO2 is not such a strong driver of climate change as propagated, I’d like to opt for not forgetting the crucial role CO2 plays for global food security in the strategy papers of WFO.” 

In direkter Reaktion darauf meldeten sich der Präsident der National Farmers Union der USA, Roger Johnson und der Präsident des Deutschen Bauernverbands, Joachim Rukwied, zu Wort. Johnson sagte, dass wir diese Frage Experten überlassen sollten. Wir können unsere Strategien nur auf anerkannter wissenschaftlicher Basis aufbauen. Und Rukwied betonte, dass Klimaschutz bereits eine wichtige Komponente und ein wichtiges Standbein in der Landwirtschaft sei.

Als ich später Johnson am Rande der Veranstaltung um seine Visitenkarte bat und ihm anbot, meine Veröffentlichungen zu schicken, gab er sich sehr interessiert und dankbar. Auch mit Rukwied hatte ich noch zwei Gespräche im Verlauf von Abendveranstaltungen, zusammen mit seinen Begleitern, den Präsidenten des niedersächsischen (Werner Hilse) und des bayrischen Bauernverbands (Walter Heidl) eher allgemeiner Natur über die Situation der Landwirtschaft in Deutschland und auch Paraguay. Dabei habe ich herausgehört, dass derzeit der Milchpreis in Deutschland  vielfach unter den Gestehungskosten liegt (wegen des Abbaus der Milchquote und wegen der Russlandsanktionen) und dass Bioenergie als zweites Standbein das Überleben vieler Bauern sichert. Die Herrschaften machen sich jedoch vor allem Sorge um die Bauern, die ganz auf Bioenergieerzeugung umgestiegen sind und alle anderen Produktionszweige aufgegeben haben. Die Preisgarantie für Bioenergie läuft nach 15 Jahren ab und die Kosten für die Erzeugung der Energie (aus quasi-industriellem Anbau von Energiepflanzen) nähern sich jetzt schon vielfach gefährlich den garantierten Abnahmepreisen für die Energie. Ich habe gespürt, dass die Herrschaften den Zusammenbruch vor allem der Betriebe befürchten, die ganz auf Energieerzeugung umgestiegen sind. Daher kommt wohl die Neigung, sich weiterhin für Klimaschutz stark zu machen und sich lieber nicht so sehr für unbequeme wissenschaftliche Fakten zu interessieren. Die Herren zeigten sich beeindruckt, dass ein Deutscher Paraguay bei der Generalversammlung der WFO vertritt (eine Rolle, die mir zugefallen ist und um die ich mich nicht bemüht hatte!) und wir konnten gemeinsame Bekannte (deutsche Inverstoren in Paraguay) identifizieren. Ich werde diesen Herren auf alle Fälle meine Publikationen und knappe und kompakte Argumente gegen Klimaalarmismus zuschicken. 

Meine generelle Beobachtung bei der Generalversammlung er WFO war die, dass bei den Produzenten selbst (d.h. den Farmern) das Thema Klimawandel kaum zur Sprache kommt und bei ihren Sorgen und Prioritäten eine völlig untergeordnete Rolle spielt (außer vielleicht bei den Repräsentanten von Farmerorganisationen aus einigen Industrienationen, die bereits durch eine falsche Subventionspolitik in eine falsche Richtung, um nicht  zu sagen Falle, gelockt worden sind). Dagegen reden die Vertreter von einschlägigen internationalen Organisationen wie IFAD (International Fund for Agricultural Development), FAO (Food & Agriculture Organization), CCAFS (Climate Change, Agriculture and Food Security Program von CGIAR) und GACSA (Global Alliance for Climate Smart Agriculture) fast ununterbrochen vom Klimawandel. Dafür werden sie offensichtlich bezahlt. Noch schlimmer ist das bei irrgeführten Politikern, wie z.B. dem sambischen Staatspräsidenten Edgar Chagwa Lungu, der bei seiner Begrüßungsrede ganz ins Schwärmen kam, als er von der Unterzeichnung des wegweisenden und weltrettenden Abkommens von Paris in New York berichtete. Dieses Abkommen hielt er für sehr wichtig. Sein Landwirtschaftsminister Given Lubinda, eine hochintelligente und eloquente Persönlichkeit mit Charisma, hat dagegen den Begriff Climate Change bei seinen 2 Reden nicht einmal in den Mund genommen. Auch für die sympathische und wortgewandte Präsidentin der WFO, die Sambierin Dr. Evelyn Nguleka, war der Klimawandel allenfalls nebensächlich.  

Von der Sociedad Rural von Argentinien habe ich am Rande der Veranstaltung in Sambia eine Einladung zu einem Vortrag bei einem von ihr organisierten Seminar im Juli nach Palermo erhalten, zu dem auch Henning Steinfeld von der FAO eingeladen wurde, der Hauptautor von „Livestock’s Long Shadow“. Seit Jahren greife ich diesen Bericht stark an. Wird spannend werden. Jedenfalls bin ich es meiner Selbstachtung schuldig, diese herausfordernde Gegenüberstellung anzunehmen. Gerade heute (eine Woche nach der mündlichen Einladung) habe ich die erste Fassung des Programms erhalten (siehe Anhang). Was ich nicht erwartet hatte ist die Tatsache, dass mein Beitrag an zentraler Stelle vorgesehen ist und dass der Generalsekretär der World Farmers‘ Organisation, Marco Marzano, die session moderieren wird. Man möge mir die Daumen drücken, dass meine Ausführungen bei den anwesenden Persönlichkeiten Wirkung zeigen werden und zur Meinungsbildung und zum Realitätsbezug bei „Klimaschutz-Strategien“ beitragen mögen. Meine Haltung ist den Herrschaften bestens bekannt. Dass sie mich dennoch an prominenter Stelle zu Wort kommen lassen, rechne ich ihnen hoch an. Das zeigt durchaus auch ein bisschen die (heimliche) Sympathie, die die Organisatoren meiner kritischen Haltung entgegenbringen. 

Beste Grüße aus dem Chaco Paraguayo

Die Langfassung des Berichtes können Sie als pdf im Anhang herunter laden

Albrecht Glatzle




US Präsidenten Berater Ben Rhodes dreht am Klimawandel

Steigende Ozeane werden „Wellen von Klimaflüchtlingen“ nach Amerika und Europa spülen, hat Präsident Obama erklärt. „Umwelt-Migranten“ fliehen schon jetzt von den im Pazifik versinkenden Inseln, und es ist eine „Verletzung der Pflichten“ für Offiziere des Militärs, die „Realität zu leugnen“ eines gefährlichen, vom Menschen verursachten Klimawandels.

Sogar falls wir den Pariser Klima-„Bemühungen“ folgen (niemand wagt es, dies einen Vertrag zu nennen) und „die Zunahme der globalen Temperaturen verkraften können“, besteht Innenministerin Sally Jewell darauf, dass „sehr rapide“ Klimawandel „die Umsiedlung hunderter Einwohner von Alaska erzwingen“ werden.

Der anthropogene Klimawandel ist ein „Bedrohungs-Vervielfacher“, heißt es in einem Bericht des Pentagon. Er wird viele der Herausforderungen „verschärfen“, vor denen die USA heute stehen, darunter Infektionskrankheiten und Terrorismus, verheerende Extremwetterereignisse, Streitereien darum, wer Rechte an schwindenden Landgebieten und an grundlegenden Ressourcen wie Wasser und Nahrungsmittel und schwerwiegende Meinungsverschiedenheiten, wie man Millionen Klimaflüchtlinge absorbieren kann.

Öko-hörige Journalisten sind lediglich uneins über die Identität der ersten Klimaflüchtlinge von Amerika (hier): Ureinwohner Alaskas in Newtok, die von steigendem Meeresspiegel und schmelzendem Eis überschwemmt werden – oder eher 25 Familien des Biloxi-Chitimacha-Choctaw-Indianerstammes, deren kleine Insel im Mississippi-Delta seit 1950 immer mehr erodierte?

Um nicht ausgestochen zu werden, sagte mir der ultra-liberale Moderator einer Radio-Talkshow Thom Hartmann: „Derzeit gibt es 5 Millionen Klimaflüchtlinge, die nach Europa fliehen, um Dürren in Syrien zu entkommen“. Als ich dies als Unsinn bezeichnete und sagte, dass sie eher vor dem Krieg und den Schlächtern des ISIS flüchteten, die sogar kleine Kinder köpfen, kanzelte er mich ab mit den Worten, dass ich „als Klimaleugner ins Gefängnis gehöre“.

Unglücklicherweise für Rhodes und seine Kumpane machen unbequeme Wahrheiten die Behauptungen eines vom Menschen verursachten Klimachaos‘ bedeutungslos.

Während der gesamten Erd- und Menschheitsgeschichte gab es fortwährend Klimaänderungen von regionalen bis hemisphärischen Ausmaßen; von vorteilhaft zu schädlich und destruktiv. Darunter waren die Römische und die Mittelalterliche Warmzeit, Kleine Eiszeiten und fünf „Mammut-Eiszeiten“, die Kontinente unter Kilometer dicken Eisschichten begruben. Eine natürliche Klimaänderung löste [in den USA] die Staubschüssel-Epoche aus [eine heiße und ausnehmend trockene Phase während der dreißiger Jahre des vorigen Jahrhunderts in den USA. Wer mehr dazu wissen will, der schaue hier bei Wikipedia. Anm. d. Übers.]. Während dieser Zeit wuselten Millionen Amerikaner auf der Suche nach einem besseren Leben durch die USA. Jahrzehnte oder Jahrhunderte lange Dürreperioden zwangen ganze Zivilisationen in die Knie.

Städte und Kulturen der Römer, der Maya, der Mesopotamier, der Ägypter, der Chinesen und vieler anderer blühten während warmer Perioden auf und kollabierten wieder in kalten und Dürrezeiten, wie der Klimahistoriker Dennis Avery erinnert. Dies geschah „wieder und immer wieder, in einem Jahrhunderte langen Rhythmus von Wohlstand, gefolgt von langen Erfolgen, gefolgt von langem und bitterem Niedergang“. Ganze Städte am östlichen Mittelmeer wurden viele Jahrhunderte lang aufgegeben.

Die Unwetteraktivität nahm während der zweiten Hälfte des 16. Jahrhunderts um 85% zu, und zwar während des Maunder-Sonnenflecken-Minimums, während das Auftreten schwerer Stürme um das Vierfache zugenommen hat. Dies schreibt der Historiker Brian Fagan. Logbücher der britischen Marine berichten von mehr als doppelt so vielen großen Hurrikanen in der Karibik, die während der kalten Jahrzehnte des 17. Jahrhunderts auf das Festland getroffen sind verglichen mit den warmen Jahren 1950 bis 2000.

Kleine Eiszeiten und lange Dürreperioden führten zu Ernteausfällen und Massenhungersnöten, schreibt Avery. Die Bürger Roms, zur römischen Glanzzeit 1 Million an der Zahl, war auf kaum noch 30.000 ein Jahrhundert später geschrumpft. Die Zivilisation der Maya fiel von vielleicht 15 Millionen Mayas auf 1 Million, nachdem Städte während einer Jahrhunderte langen Dürre aufgegeben werden mussten.

Klimaschwingungen der letzten 50 Jahre waren weitaus weniger dramatisch als in vielen Jahrtausenden zuvor. Nur wenige Menschen, wenn überhaupt welche, werden vor dem winzigen Anteil am Klimawandel der Zukunft flüchten, den man vielleicht dem Menschen zuordnen kann.

Das Klimakrisen-Konsortium ignoriert diese Äonen, Jahrtausende und Jahrhunderte natürlichen Klimawandels. Es möchte uns glauben machen, dass das Erdklima bis zum Industriellen Zeitalter stabil und freundlich war – und dass die Menschen jetzt Klima und Wetter kontrollieren können einfach durch Drehen an einem einzigen Knopf, nämlich dem Kohlendioxid-Niveau. Das ist alles Hollywood-Quatsch.

Der Ozeanspiegel ist um 400 Fuß [ca. 120 m] gestiegen seit dem Abschmelzen der Gletscher nach der letzten Eiszeit. Pazifische Inseln stiegen gleichlaufend, dehnten doch Korallen ihre Habitate mit jedem weiteren Zentimeter Anstieg weiter aus. Der Meeresspiegel steigt jetzt mit 7 Inches [ca. 18 cm] pro Jahrhundert – und der Clean Power Plan der EPA würde während der nächsten 100 Jahre diesen Anstieg um lediglich 0,01 Inch verlangsamen.

Der grönländische Eisschild schrumpft infolge unterirdischer magmatischer Aktivität – nicht durch globale Erwärmung. Arktische Gebiete waren lange Zeit Schauplatz von Erwärmungs- und Abkühlungszyklen, wie Francis McClintock und andere Walfänger und Entdecker berichtet haben; diese Berichte reichen etwa 300 Jahre zurück. Die Eisbär-Population befindet sich mit 25.000 Tieren auf einem Allzeit-Hoch.

Die antarktischen Eismassen wachsen immer weiter, und die mittlere jährliche Temperatur des Kontinents von -55°F [ca. -48°C] müsste im ganzen Jahr um 88°F [ca. 49 K] steigen, um dieses Eis zum Schmelzen zu bringen. Selbst Al Gore behauptet nicht einmal in seinen wildesten Proklamationen, dass dies wahrscheinlich ist. Also ist die Front seines Hauses am Strand von Kalifornien sicher vor dem Meeresspiegel-Anstieg um 20 Fuß [ca. 6 Meter], den er prophezeit hatte.

Der Meteorologe Anthony Watts folgert, dass die einzige zuverlässige langzeitliche Aufzeichnung von 400 offiziellen ländlichen Thermometer-Messpunkten stammt, die niemals Gegenstand der Änderung von Aufstellungsorten oder dem Wachstum von Städten waren. Jene Stationen zeigen keine signifikante Erwärmung der letzten 80 Jahre. Die „Rekord-Erwärmung“, von der wir immer wieder hören, stammt von Daten, die nach oben „adjustiert“ oder „homogenisiert“ (d. h.manipuliert) worden waren, damit sie mit den Projektionen von Computermodellen, den IPCC-Proklamationen und den Presseerklärungen des Weißen Hauses konform gehen.

Andere Studien haben gezeigt, dass es seit Jahrzehnten keinerlei Zunahme der Stärke oder Häufigkeit von Gewittern, Tornados, Hurrikanen oder winterlicher Blizzards gegeben hat. Tatsächlich ist seit Oktober 2005 kein Hurrikan der Stärke 3 bis 5 mehr auf das US-Festland übergetreten – ein Rekord-Zeitraum der Ruhe vor Hurrikanen, der jeden diesbezüglichen Stillstand seit mindestens dem Jahr 1900 übertrifft.

Malaria war in den USA, in Europa und sogar in Sibirien bis in die fünfziger Jahre des vorigen Jahrhunderts noch weit verbreitet. Fliegennetze vor den Fenstern, DDT und bessere medizinische Versorgung sorgten für das Verschwinden dieser Krankheit. Das hat nichts zu tun mit globaler Erwärmung oder Klimawandel. Dass sie immer noch präsent ist, geht auf inkompetente Gesundheitsministerien zurück, die es ablehnen, aus Erfolgen der Vergangenheit zu lernen.

Das Narrativ, dass eine wärmere Welt mit mehr CO2 in der Atmosphäre Ernteausfälle und Hungersnöte nach sich ziehen wird, ist reine Irreführung. Ein höheres CO2-Niveau macht den Planeten in Wirklichkeit „grüner“ und sorgt dafür, dass Getreide, Wälder und Prärien schneller und besser wachsen. Neues Hybrid- und Biotech-Saatgut in Kombination mit modernen Düngern und landwirtschaftlichen Verfahren führt zu größeren Ernten, selbst in Dürrezeiten, wie Indien derzeit gerade beweist.

Es gibt keine vom Menschen verursachte Klimakrise. Solare, galaktische und ozeanische Zyklen regieren das Klima, nicht Kohlendioxid. Die größte Gefahr für Landwirtschaft und Menschheit würde von einer weiteren Kleinen Eiszeit ausgehen und nicht von einer moderaten Erwärmung.

In Wirklichkeit sind es die enormen Mengen Energie, die in Kohle, Öl, Erdgas und Kernkraft stecken, die unseren Wohlstand erzeugen und die wunderbaren Technologien antreiben, die uns die größten Vorteile verschaffen, die der Menschheit je zur Verfügung standen – zu überleben, sich an Klimawandel und Wetterereignisse anpassen und diesen zu begegnen.

Das Schlimmste, was wir tun können ist, diese zuverlässige, bezahlbare, kompakte Energie verschlossen zu halten – und zu teurer, schwer subventionierter und erheblich unvorhersagbarer Wind- und Solarenergie übergehen … und zu Biotreibstoffen, die Millionen Hektar Land und Milliarden Gallonen Wasser verbrauchen [1 Gallone = ca. 4 Liter]

Jene, die den Zugang zu Energie kontrollieren, kontrollieren unser Leben und unseren Lebensstandard. Gestattet man den Klima-Alarmisten und den Anti-Energie-Zeloten zu diktieren, welche Energiequellen wir benutzen können und wie viel Energie uns „erlaubt“ wird zu verbrauchen, würde uns alle das der Gnade ihrer unverantwortlichen Marotten, Ideologien und betrügerischer Wissenschaft ausliefern.

Ihre gefühllose Politik tötet schon jetzt Millionen Menschen jedes Jahr in verarmten Ländern, indem man diesen die Energie und die Technologien verweigert, die wir als selbstverständlich erachten. Wollen wir wirklich diesbezüglich die Nächsten sein? Sollten wir nicht eher den Armen dieser Welt helfen, den ihnen zustehenden Platz unter den Wohlhabenden einzunehmen?

Den einzigen „Beweis“, den die Alarmisten für ihren Klima-Kataklysmus anführen, sind die Filme von Al Gore, Michael Manns Hockeyschläger, Computer-„Szenarien“, die keinerlei Widerhall bei Ereignissen der Realen Welt finden, und Angst erzeugende Stories vom Romanautor des Weißen Hauses Ben Rhodes.

Wir brauchen einen Präsidenten, der das Pariser Klimaabkommen dem US-Senat vorlegt, wo angemessen darüber diskutiert und es abgelehnt werden kann … und wo man die auf manipulierten Daten und falscher Pseudowissenschaft basierenden Vorschriften der EPA und anderer Quellen annullieren kann … und wo man die Welt vom Abgrund des Klima-Idiotismus wegführen kann.

Link: http://www.cfact.org/2016/05/16/ben-rhodes-spins-climate-change/

Übersetzt von Chris Frey EIKE




Frau Hendricks rettet das Klima erneut – jetzt durch klimafreundliche Schulspeisung

Wenn eine Meldung besonders irre ist, dann ist Misstrauen angebracht – auch wenn sie angeblich vom Bundesumweltministerium (BMU) kommt, von dem man ja einiges gewöhnt ist. Daher war die Nachricht, die ausgerechnet in der BILD vom 23.5.16 unter der Überschrift „Regierung will bei Schul-Essen CO2 einsparen“ erschien, mit Vorsicht zu genießen. Schließlich hat der klassische Grubenhund-Skandal und die Dienstanweisung über den Postwertsack für alle Zeiten den vermuteten Wahrheitsgehalt sämtlicher Pressemeldungen auf deutlich unter 100% sinken lassen.

Entenverdacht also auch hier, aber das Internet spuckte trocken die Pressemitteilung Nr. 108/16 des BMU vom 18.Mai 2016 aus, die das kaum Glaubliche ausführlich bestätigte.

Das Ziel des Projektes KEEKS („Klima- und energieeffiziente Küche in Schulen“), das 1,4 Millionen Euro Steuergeld kosten soll, ist tatsächlich die Einsparung von CO2. „Allein durch eine Änderung der Menüzusammenstellung in Schulküchen kann pro Mahlzeit ein halbes Kilogramm CO2-Äquivalent eingespart werden“ teilt das BMU mit.  Angedachte Umstellungen seien: Weniger Fleisch bzw. Tiefkühlprodukte, mehr regionale/saisonale Lebensmittel. Das KEEKS-Projekt soll an 25 Schulen im Kölner Raum laufen.

Bemerkenswert ist die geradezu überwältigende Betreuung des eher bescheidenen Projektes durch nicht weniger als 4 der Ökoszene nahestehende Institute (IZT, Faktor-10, ifeu, Wuppertal-Inst.) und den Vegetarierbund Deutschland e.V., was zu den richtig teuren Kosten führt. Aber so bekommen diese treuen Vasallen wieder einmal einen schönen Schluck.

Dennoch ist aus der Sicht der Chemie Kritik angebracht. Es wird vermutlich wie bei so vielen gut gemeinten Ökoprojekten eine Art Rückschlag geben, wozu diese Branche die schöne Bezeichnung „Rebound-Effekt“ erfunden hat: Man erreicht das Gegenteil des Angestrebten. Meist sind daran die Menschen schuld, die auf Zwangsbeglückungen ganz anders reagieren, als es von den staatlichen Förderern und ihren Begleitforschern vorhergesagt wurde.

Was hier sträflich vernachlässigt wurde, sind die vom Schul-Mittagsessen unter gewissen Voraussetzungen verursachten Blähungen, die zu spontanen Emissionen führen. Dieser Rebound-Effekt des angeblich klimafreundlichen Menüs könnte darin bestehen, dass regionaler Kohl, Bio-Zwiebeln und Fleischersatz-Hülsenfrüchte zu erheblichen Methanemissionen führen, die dem Klima weh tun, denn das ist leider das besonders berüchtigte Treibhausgas.

Hier muss also noch nachgebessert werden. Also auch weg mit dem Gemüse und am besten nur Ballaststoffe und Vitaminpillen. Wovon die Schüler allerdings leben sollen, klärt die Begleitforschung.

Ein weiterer Rebound-Effekt ist die steigende Arbeitslosigkeit der Kabarettisten, die bei weiterem Wirken dieses BMU wohl keine Zukunft haben.




Der „Healthy-Worker-Effekt“

Heute ist es um den „Healthy-Worker-Effekt“ still geworden, man beobachtet den Effekt nicht mehr und man redet nicht mehr darüber. Die gute medizinische Versorgung gibt es jedoch weiter-hin, also kann die damalige Erklärung nicht stimmen.

Die Zahlen zum „Healthy-Worker-Effekt“ [1]

Es wurde bei den Arbeitern in den Nuklearanlagen eine Abnahme der allgemeinen Sterblichkeit im Bereich von wenigen % bis über 30% beobachtet. Es gab auch eine Abnahme der Sterblichkeit bei Krebs, diese war jedoch meist etwas geringer. Die Strahlendosen erreichten Werte bis ca. 100 mSv, meist jedoch geringer, selten höher. Besonders hervorzuheben sind die Daten aus Oak Ridge National Laboratory, denn von dort wird über eine Zunahme dieser biopositiven Effekte mit der Dosis berichtet. Der beobachtete „Healthy-Worker-Effekt“ widerspricht der LNT-Hypothese (linear-no-treshhold-Hypothese), die eine Zunahme von bionegativen Effekten (Krebs) mit zunehmender Strahlendosis postuliert, d.h. die Beobachtungen an Menschen widersprechen der weltweit gültigen Lehrmeinung im Strahlenschutz.

Wie kann man den „Healthy-Worker-Effekt“ verstehen?

Es stehen sich zwei gegenteilige Meinungen gegenüber:

1.     Die LNT-Hypothese wird begründet mit der Vorstellung, daß jede Spur eines Strahlen-Teilchens innerhalb einer Zelle die Erbsubstanz treffen und dort einen Doppelstrangbruch verursachen kann. Das kann zur Entstehung eines Tumors führen. Diese Lehrmeinung gilt weltweit seit den 1950-er Jahren.

2.     Heute wird die Ursache für Krebs in einem Fehler im Zellzyklus gesehen, der von den zelleigenen Reparaturmechanismen nicht mehr korrigiert werden kann [2]. Strahlung führt in einer Zelle zu einer Vielzahl von Verlagerungen von Bindungselektronen in den Molekülen, die eine Änderung der Chemie bedeuten und die von den Reparaturmechanismen wieder zu korrigieren sind. Vermehrte Strahlung gibt einen Anstoß zu zusätzlicher Aktivierung der Reparaturmechanismen, dann können entstandene Fehler vermehrt repariert werden, das ist ein biopositiver Effekt.

Die Entscheidung, welcher dieser beiden Möglichkeiten die Realität wiedergibt, kann nur das Experiment treffen.

Wo wird der „Healthy-Worker-Effekt“ heute beobachtet?

Heute liegt die kumulierte Dosis der strahlenexponierten Personen in der Nuklearindustrie im Mittel bei 0,6 bis 0,8mSv im Jahr. Das ist so wenig Zusatzdosis im Vergleich zu den Zahlen in [1], daß bei den Nukleararbeitern weder negative noch positive Gesundheitseffekte gefunden werden können. Beim Flugpersonal sind die Strahlendosen viel höher, dort liegen die Mittelwerte bei 2mSv im Jahr, die Höchstwerte bei 9mSv im Jahr. Ergebnisse von Studien beim Flugpersonal liegen vor [3]: Es gibt eine deutlich niedrigere Sterblichkeit an Herzkreislauferkrankungen (ca. 50% niedriger), jedoch keine einheitlichen Ergebnisse bei Krebs. Der beobachtete „Healthy-Worker-Effekt“ bei Herzkreislauferkrankungen ist sehr verständlich, denn es gibt eine Vielzahl von Möglichkeiten, das persönliche Risiko durch gesunde Lebensführung zu vermindern. Dagegen scheint Krebs eher ein Zufallsereignis zu sein, kaum beeinflußbar durch die Lebensweise.

Es gibt allerdings Schwierigkeiten bei diesen Studien: Wenn die normale Todesrate an Herzkreislauferkrankungen die bei etwa 50% liegt, auf ca. 25% reduziert wird, dann muß letztendlich die nächsthöhere Todesrate – das ist Krebs mit ca. 25% – ansteigen. Es besteht die Gefahr der Fehlinterpretation, daß nach etlichen Jahrzehnten beim Ende der Studien eine angestiegene Krebstodesrate der Strahlung zugeschoben wird.

Ist Strahlung im MeV-Bereich schädlich oder nützlich für Lebewesen?

So lautet die Kernfrage, und über diese Frage gibt es Streit seit der Entdeckung der Strahlung aus dem Atomkern. Man hatte schon in den 1920-Jahren mehr Sterbefälle bei Personen beobachtet, die mit dieser Strahlung zu tun hatten. Alle diese Personen waren sehr starken Dosen ausgesetzt. Man führte Grenzwerte ein, im Laufe der Jahrzehnte wurden dann die Grenzwerte immer weiter erniedrigt. Auch bei den Überlebenden von Hiroshima und Nagasaki wurden schädliche Folgen der Strahlung nachgewiesen, aber auch hier war die Dosis hoch und wirkte auf die Menschen innerhalb der sehr kurzen Zeit der Explosion. Die Strahlenschutzgrundsätze beruhen auf der Annahme, daß die Zeit keine Rolle spielt, sich Strahlenwirkungen unabhängig von der Zeit addieren bzw. auswirken.

Die hauptamtlichen Strahlenschützer werden für das „schützen“ bezahlt, und dieses wird ihnen per Gesetz auferlegt. Die Strahlenschützer sehen Strahlung als schädlich an, so verlangt es ihr Beruf.

Die Wissenschaftler auf dem Gebiet der Strahlenbiologie beobachten auch nützliche Wirkungen der Strahlung [2]. Allerdings sind diese Wirkungen meist klein und nicht sehr deutlich zu sehen. Das liegt ins besondere an der Tatsache, daß der Strahlenpegel in der Natur nur geringfügig schwankt, und das auch nur an örtlich recht begrenzten Stellen. Der Mensch wohnt in Häusern, er hält sich an den Stellen mit erhöhter Bodenstrahlung nicht das ganze Jahr auf. Luckey hat viele Beobachtungen von nützlicher Strahlenwirkung zusammen getragen und extrapoliert daraus eine gleichmäßig über das Jahr verteilte Dosis von 60mSv, um nützliche Effekte auf die Gesundheit von Lebewesen zu bewirken [4]. Das ist für Strahlenschützer in der Nuklearindustrie eine sehr erhebliche Dosis, die nicht akzeptiert werden kann, weil sie weit über jeder heute gültigen Grenze liegt.

Gibt es einen Ausweg?

Der Zufall hat zu einem Ereignis von ungeheurer Wichtigkeit geführt: Es gibt inzwischen einen unfreiwilligen Test in Taiwan mit gamma-Langzeitbestrahlung an Menschen durch Co-60 in Baustahl von Gebäuden. Es gibt ein Kollektiv von 10 000 Bewohnern, die dieser Strahlung regelmäßig ausgesetzt waren mit der Folge, daß Krebs fast bis auf NULL verschwand [5]. Die höchsten Dosen lagen anfänglich im Bereich 74 mSv bis 910 mSv im Jahr bei der am höchsten exponierten Gruppe. Die mittlere über die Gesamtzeit von 9 bis 20 Jahren kumulierte Dosis über alle Personen lag bei 400 mSv. Die Dosisleistungen sind nicht angegeben, es ist aber zu schließen, daß sie je nach Nutzung der Räume 50µSv pro Stunde oder gar höher erreicht haben könnten. Solch hohe Dosen wie auch Dosisleistungen sind in der Natur durch natürliche Nuklide nicht möglich, daher wurde bisher niemals ein so deutlicher Effekt gefunden. Es zeigt sich:

1) Die LNT-Hypothese, nach der jede Strahlendosis schädlich sei, ist nicht haltbar.
2) Eine biopositive Wirkung bei gamma-Langzeitbestrahlung an Menschen ist sicher nachgewiesen.


Damit bietet dieses Ereignis – das durch die weltweit gültigen Strahlenschutzgesetze verboten ist – für die hauptamtlichen Strahlenschützer eine ideale Möglichkeit, ohne Gesichtsverlust die jetzt gültigen Strahlenschutzprinzipien auf den Müll zu werfen und die biopositive Wirkung von Niedrigdosisstrahlung bei kleiner Dosisleistung anzuerkennen.

Natürlich muß das Kollektiv in Taiwan noch lange weiter beobachtet werden, aber das dauert. Lehren aus diesem glücklichen Ereignis sollten sofort in die weltweit gültigen Strahlenschutzmaßnahmen einfließen.

Wie ist die biopositive Wirkung bei gamma-Langzeitbestrahlung zu verstehen?

Die Strahlendosis von 1mSv bedeutet, daß jede Zelle von der Spur eines Strahlenteilchens getroffen wird. Daher bedeutet die Dosis von 1mSv im Jahr, daß jede Zelle einmal im Jahr getroffen wird und deren Reparaturmechanismen einmal im Jahr zusätzlich aktiviert werden. Der Zellzyklus läuft in kürzeren Zeiten ab. Nur wenn alle Zellen regelmäßig ein Training ihres Reparatursystems erfahren, kann ein maximaler biopositiver Effekt durch Strahlung entstehen. Daher erscheint die von Luckey vorgeschlagene Dosis von 60mSv im Jahr als ein wöchentliches Training des Reparatursystems gut verständlich zu sein.

Zusammenfassung

1.     Es gibt einen „Healthy-Worker-Effekt“ bei Herzkreislauferkrankungen durch gesunde Lebensführung, jedermann kann sein Risiko dazu vermindern, Eigeninitiative ist erforderlich.

2.     Es gibt einen „Healthy-Worker-Effekt“ bei der allgemeinen Gesundheit einschließlich Krebs durch regelmäßige gamma-Ganzkörperbestrahlung. Dadurch kann das Immunsystem gestärkt werden, und das Risiko für viele Krankheiten vermindert werden. Krebs tritt sehr häufig auf, daher konnte dort der biopositive Effekt zuerst gefunden werden. Es ist auch bei vielen anderen selteneren Krankheiten ein positiver Effekt durch Strahlung zu erwarten.

3.     Die gesamte weltweit gültige Strahlenschutzphilosophie gehört auf den Prüfstand, denn durch das Co-60-Ereignis von Taiwan wurde die LNT-Hypothese als falsch nachgewiesen.

4.     Freisetzung von Radioaktivität ist nicht schädlich sondern nützlich für Menschen. Zwangsevakuierungen bei Reaktorunfällen (Tschernobyl, Fukushima) sollten unterbleiben.

5.     Allen Menschen sollte in freier Entscheidung ermöglicht werden, den Gesundheitszustand ihres Körpers gemäß Punkt 2 zu unterstützen.

Es gibt bedeutende Wissenschaftler, die den derzeitigen Umgang mit Strahlung als den folgenreichsten wissenschaftlichen Irrtum der Neuzeit bezeichnen. Das ist richtig, Korrektur ist erforderlich.

Literaturhinweise

[1] Christian Streffer, Band 12 der Veröffentlichungen der Strahlenschutzkommission, 3.1 „Epidemiologische Untersuchungen an beruflich strahlenexponierten Personen insbesondere in kerntechnischen Anlagen“, Seite 149 bis 170

[2] Thormod Henriksen and Biophysics group at UiO, „Radiation & Health“, http://tinyurl.com/nlsm4wm

[3] Gaël P. Hammer, Maria Blettner, StrahlenschutzPRAXIS 2/2014 S. 15 ff, “Stand der epidemiologischen Forschung beim fliegenden Personal”

[4] T.D. Luckey, “The health effect of low dose ionization radiation”, J. of American Physicians and surgeons Vol. 13, 2, 39-42

0 0 1 1325 8363 Management Consult 121 138 9550 14.0 Normal 0 21 false false false DE JA X-NONE

[5] W.L. Chen et.al., „Effects of Cobalt-60 Exposure on Health of Taiwan Residents Suggest New Approach Needed in Radiation Protection”, http://tinyurl.com/yzzdu9p




USA: Willkürmaßnahmen gegen unliebsame Meinungen

Eine Gruppe Staatsanwälte, die sich „AGs United for Clean Power“ bezeichnet, geht demnach mit dem Segen der Obama-Administration und gemeinsam mit Al Gore gegen Unternehmen und Organisationen vor, die in irgendeiner Weise der herrschenden Klimawandel-Politik entgegenstehen.

So haben diese „Staatsanwälte für saubere Energie“ die Nichtregierungsorganisation Competitive Enterprise Institute (CEI) mit Rechtsmitteln gezwungen, ihre private Kommunikation zwischen 1997 und 2007 zu ExxonMobil und zum Klimawandel offenzulegen. Auch Exxon selbst war schon ihr Ziel, und musste 40 Jahre (!) Firmenkommunikation offenlegen.

Diese Verletzung der US-Verfassung ist Teil einer breit angelegten Strategie der Linken, nicht nur Skeptiker in Wissenschaft und Politik einzuschüchtern und mundtot zu machen, sondern sie auch von Fördergeldern abzuschneiden. So hat Exxon schon 2007 entschieden, sich vom CEI zu trennen.

Auf dem Altar des Klimawandels werden währenddessen Milliarden geopfert – so wird das Pariser Abkommen die USA alleine mindestens 154 Milliarden Dollar kosten. Der größte Teil davon wird in Regulierungen und im Haushalt verschwinden. Geld, das der echten Forschung und Entwicklung fehlen wird. Forschung, wie sie Privatunternehmen wie Exxon schon seit Jahren gefördert haben, von der sie nun aber lieber Abstand nehmen.

Daran sieht man, dass es nicht ernsthaft um den Klimawandel oder die Umwelt geht. Sondern darum, mithilfe eines politischen Themas die Diskurshoheit zu gewinnen, und die Meinungsfreiheit zu beschneiden.

Früher hat man gerne China kritisiert, weil der dortigen Regierung jedes Mittel recht war, Widerspruch zu unterdrücken. Heute arbeiten zentralistische Regierungsbehörden auch in den USA mit beängstigend ähnlichen Methoden daran, Kritiker einzuschüchtern. 




Wunsch und Wirklichkeit beim Elektroauto

Für so was sitzt das Geld locker, für so was wird es verschleudert: für  E l e k t r o a u t o s ! Die Bundesregierung der großen Koalition von Union und SPD hat sich entschieden, den Absatz dieser Autos mit einer Kaufprämie voranzutreiben (hier). Der Bundestag allerdings soll darüber nicht bestimmen dürfen, denn Bundesfinanzminister Schäuble will für die Prämienkosten (600 Millionen Euro) keinen Nachtragshaushalt vorlegen, sondern den Betrag aus dem Klima- und Energiefonds bestreiten. Dem Nachtragshaushalt müsste das Parlament zustimmen, der Finanzierung aus dem Fonds nicht, und dann bekäme der Haushaltsausschuss den Prämienbeschluss der Regierung nur zur Kenntnisnahme (FAZ vom 11. Mai, Seite 17).

Das Geschwätz von gestern

Immerhin aber sind die Bedenken gegen die Prämie in der Unionsfraktion erheblich (FAZ vom 27. April, Seite 1). Bundesfinanzminister Schäuble war lange dagegen, erst Ende März zeigte er Bereitschaft. Abgelehnt hat die Prämie auch der Wissenschaftliche Beirat beim Bundesministerium für Wirtschaft und Energie (hier). Ebenso hatte die frühere Bundesregierung unter Merkel 2012 entschieden – sogar einhellig, also mit Merkel (hier). Und noch zu Beginn der großen Koalition im Herbst 2013 war im Koalitionsvertrag festgeschrieben: „Bei der Unterstützung des Markthochlaufs der Elektromobilität setzen wir auf nutzerorientierte Anreize statt auf Kaufprämien.“ (FAZ vom 27.04.2016, Seite 16). Wir kennen das: Was kümmert mich mein Geschwätz von gestern. Oder gebildeter: Tempora mutantur et nos mutamus in illis. Aber Wunsch und Wirklichkeit klaffen auseinander.

Von 2030 an wollen die „Klimaretter“ nur noch Elektroautos zulassen

Der Wunsch ist dieser: Den federführenden Politikern Barbara Hendricks und Rainer Baake schwebt vor, den Antrieb der Autos bis zum Jahr 2050 völlig auf Strom umzustellen, also den Treibstofftank durch die Batterie zu ersetzen. Hendricks ist Bundesministerin für Umwelt und hat einst Sozialwissenschaften und Geschichte für das Lehramt studiert. Baake ist Staatssekretär für Energie im Bundeswirtschaftsministerium und hat an der Uni Marburg seinen Diplom-Volkswirt gemacht. Da die Nutzungsdauer von Autos bis zu zwanzig Jahre beträgt, sollen nach den Vorstellungen dieser beiden und anderer “Klimaretter” von 2030 an nur noch Autos mit Elektroantrieb zugelassen werden. Gesetzlich verankern will man das bereits in der laufenden Legislaturperiode.

Die irrige Ansicht, Überschussstrom koste nichts

Die Wirklichkeit beschreibt die Stromverbraucherschutzvereinigung NAEB e.V. so: „Die Forderung, per Gesetz Elektromobilität zu erzwingen, sind typische Aktivitäten von ideologisch verblendeten Politikern, die keinen Bezug zur Realität haben.

Aus: Lübecker Nachrichten vom 19. Mai 2016

Sie gehen offensichtlich davon aus, mit dem Bau von weiteren Windstrom-, Solarstrom- und Biogasstromanlagen gäbe es in 15 Jahren Ökostrom im Überfluss, der Autobatterien füllen könne. Dahinter steckt die irrige Ansicht, Überschussstrom koste nichts. Natürlich ist das eine Milchmädchenrechnung. Die Kosten für den Überschussstrom muss der Stromkunde bezahlen, oder die Erzeuger von Ökostrom gehen pleite.“

Elektromobilität allein mit Ökostrom klappt nicht

„Das Laden von Autobatterien mit Ökostrom ist nur möglich, wenn Wind weht und Sonne scheint. Ist das nicht der Fall, müssen konventionelle Kraftwerke den Strom mit Brennstoffen erzeugen. Damit kommt die Frage auf: Gibt es überhaupt genug Strom, um die mehr als 40 Millionen Personenkraftwagen und die rund 2 Millionen Lastkraftwagen elektrisch zu betreiben? Allein die Personenkraftwagen verbrauchen für ihren Antrieb ohne Heizung und Klimaanlage im Jahr mindestens 120 Milliarden Kilowattstunden (kWh), die zusätzlich zu den 600 Milliarden kWh Stromverbrauch in Deutschland hinzukommen. Der Verbrauch für die Lastwagen liegt in einer ähnlichen Größenordnung. Die mehr als 25.000 Windstromanlagen und die Solaranlagen erzeugen zusammen knapp 100 Milliarden kWh Strom im Jahr, die im Mittel mit 15 Cent/kWh nach dem Erneuerbaren-Energien-Gesetz (EEG) vergütet werden. Mit der von der Bundesregierung geplanten Verdreifachung der Ökostromanlagen in Deutschland ist also rein rechnerisch genügend Ökostrom für den Elektroantrieb vorhanden.“

Nur wegen der Elektroautos werden 40 neue Großkraftwerke nötig

„Doch das gilt nur für die Strommengen, also für die Energie. Ganz anders sieht es mit der Verfügbarkeit der Energie aus, der Leistung (kW). Zum Aufladen der Autobatterien wird viel Strom, also eine hohe Leistung benötigt. Die muss zum Ladezeitpunkt vom Stromerzeuger bereitgestellt werden, weil sich Strom in größeren Mengen weder physikalisch noch wirtschaftlich speichern lässt. Dazu sind mindestens 40 neue große Kraftwerke mit je 1000 Megawatt Leistung zusätzlich erforderlich, die jederzeit abgerufen werden kann. Wind- und Solaranlagen sind nicht geeignet, denn nachts scheint keine Sonne und der Wind weht unregelmäßig oder gar nicht. Für elektrisch angetriebene Autos brauchen wir daher neue Großkraftwerke mit Brennstoffen. Dazu müssen auch noch Kernkraftwerke ersetzt werden, die in Deutschland nicht mehr akzeptiert werden. Wenn man also eine Elektromobilität erreichen will, müssen schleunigst neue Kraftwerke zum Betreiben mit Brennstoffen gebaut werden, statt Kohlekraftwerke abzuschalten.“

Elektromobilität wird viel teurer: Allein die Autobatterie kostet 40 000 Euro

„Es ist typisch für die gesamte Energiewende-Diskussion: Die Energiewende muss kommen – über Kosten reden wir nicht. Doch hier sollen die Kosten abgeschätzt werden. Ein Auto mit Elektroantrieb ist preiswerter und einfacher zu fahren als ein Fahrzeug mit Verbrennungsmotor. Dies ist der einzige Pluspunkt. Teuer wird die Batterie. Nach Angabe von NAEB-Mitgliedern, die in diesem Bereich forschen, kosten Batterien heute 500 Euro je 1 kWh Speicherkapazität. Selbst bei einer Halbierung durch Großserienproduktion kostet die Batterie etwa das Gleiche wie das restliche Fahrzeug. Für ein Auto mit einer Fahrleistung von 500 Kilometern braucht man eine Batterie, die 80 kWh speichern kann. Die Batterie kostet rund 40.000 Euro und muss nach etwa 7 Jahren erneuert werden. Die Speicherfähigkeit lässt bereits früher nach, wodurch die Reichweite sinkt.“

Batterie aufladen dauert 8 Stunden, Diesel tanken 3 Minuten

„Aber Elektrofahrzeuge, so wird dem Bürger suggeriert, fahren mit preiswertem Ökostrom. Dies ist falsch. Die Wendepolitik mit dem EEG treibt die Strompreise in die Höhe. Heute kostet Strom bereits 30 Cent/kWh. Und die Kosten steigen mit jeder Ökostromanlage weiter an. Man kann sich das selbst leicht ausrechnen. Mit vier Kilowattstunden Strom, die 1,20 Euro kosten, kommt ein Auto genau so weit wie mit einem Liter Diesel für 1,00 Euro. Der Dieselmotor liefert darüber hinaus reichlich Wärme und Kühlung, während die Reichweite beim Elektroauto drastisch sinkt, wenn das Fahrzeuginnere temperiert werden soll. Die Batterie muss mit einer Leistung von 10 kW aufgeladen werden, damit sie nach 8 Stunden ihre volle Kapazität hat. Für diese hohe Leistung brauchen viele Haushalte eine stärkere Leitung. Der Treibstoff für den Verbrennungsmotor ist dagegen ohne Zusatzkosten für den Autofahrer innerhalb von drei Minuten getankt.“

Die Kaufprämie ändert an der Wirklichkeit nichts

„Trägt man alle Fakten zusammen, kostet ein Elektroauto mindestens doppelt so viel wie ein Fahrzeug mit Verbrennungsmotor. Darüber hinaus muss man warten, bis die Batterie aufgeladen ist. Eine Fahrt quer durch Deutschland geht dann nur noch mit längeren Aufenthalten. Fast alle Autokäufer haben dies begriffen. Auch Kaufprämien von einigen tausend Euro ändern hieran nichts. Denn das Elektroauto ist auch dann noch wesentlich teurer und unzuverlässiger als die Fahrzeuge mit Verbrennungsmotor. Und selbst das Argument, Brennstoffe würden eingespart, stimmt nicht. Der Strom muss überwiegend in Kraftwerken mit Brennstoffen erzeugt werden mit dem gleichen Wirkungsgrad wie beim Verbrennungsmotor. Die Abwärme geht dann ungenutzt ins Freie und die Abgase in die Umwelt. Elektroautos werden daher nur von gut betuchten Technik-Freaks gekauft, die ein solches Gefährt als Zweit- oder Drittauto ausprobieren.“

Elektroautos sind technisch wie auch wirtschaftlich bisherigen Autos unterlegen

„Elektroautos sind technisch und wirtschaftlich den Fahrzeugen mit Verbrennungsmotor unterlegen. Sie bringen auch keine Verbesserung des Umweltschutzes und schonen Brennstoffvorkommen nicht. Die Planung, in Zukunft nur noch Elektromobile zuzulassen, ist sowohl technisch wie auch wirtschaftlich Unsinn. Die Frage lautet: Sind in den Ministerien keine Fachleute mit ausreichenden technischen und wirtschaftlichen Kenntnissen oder werden diese Fachleute zu weitreichenden Entscheidungen nicht gehört? Dem Autokäufer wird das egal sein. Er kann rechnen und wird eine solche unsinnige Politik durch die nächsten Wahlen hoffentlich beenden.“

Soweit die wörtlich zitierte NAEB-PR-Mitteilung zum Elektroauto (hier), nur die Zwischenüberschriften sind von mir hinzugefügt. Ein Professor, der an einer deutschen Hochschule Elektrochemie lehrt, kommentiert: „Die Deutschen werden irgendwann den Betrug erkennen, und ich kann nur hoffen, dass bis dahin kein irreversibler Schaden eingetreten ist. Narren kann man nicht aufhalten.“

Der Bürger und promovierte Diplom-Chemiker Hans Penner in Linkenheim-Hochstetten schrieb in einem Offenen Brief vom 27. April 2016 an Bundeskanzlerin Merkel: „Sehr geehrte Frau Dr. Merkel, das Volk braucht noch etwas Zeit, bis es erkennt, wie schwer es von Ihnen finanziell unnötig belastet wird:
1. Arme Bürger müssen die Elektro-Autos reicher Leute finanzieren.
2. Arme Bürger müssen die Solardächer reicher Leute finanzieren.
3. Hunderttausende von Haushalten können ihre Stromrechnungen nicht mehr bezahlen wegen Ihrer katastrophalen Energiepolitik.
4. Sie haben die Staatsverschuldung dramatisch in die Höhe getrieben.
5. Die Bürger müssen korrupte Banken und Staaten finanzieren.
6. Die Bürger müssen Immigranten finanzieren, die nicht asylberechtigt sind.
7. Die Kriminalität steigt und kostet Geld.
Auch haben viele Bürger Ihre Absicht noch nicht durchschaut, aus Deutschland einen islamischen Staat werden zu lassen, der die Menschenrechte ablehnt.“
Solche Briefe an Merkel hat dieser Bürger über die Jahre viele geschrieben (siehe hier). Es ist ziemlich sicher, dass Frau Merkel keinen dieser Brief je zu Gesicht bekommen hat und mit dem Namen Penner nichts wird anfangen können.

_________________________________________________________________________________

Was zur Kaufprämie konkret vereinbart wurde: „Die Zuschüsse sollen 4000 Euro für reine Elektroautos und 3000 Euro für Hybride mit aufladbarer Batterie plus Verbrennungsmotor betragen. Dabei darf das Basismodell nach Listenpreis nicht teurer als 60 000 Euro sein.  Finanziert werden soll die Prämie je zur Hälfte vom Bund und von der Industrie, wie am Dienstagabend bei einem Treffen im Kanzleramt mit Branchenvertretern vereinbart wurde. „Wer zuerst kommt, bekommt die Förderung“, sagte Schäuble. Wenn die Summe von 1,2 Milliarden Euro ausgeschöpft sei, ende die Prämie. Daimler, Volkswagen und BMW haben eine fünfzigprozentige Beteiligung laut Regierung schon zugesagt. Zum Förderprogramm gehört auch der Aufbau von 15 000 neuen Ladestellen. Dafür stellt der Bund von 2017 bis 2020 rund 300 Millionen Euro bereit. Künftig soll auch jeder fünfte Wagen des Bundes ein Elektroauto sein. Für die Mehrkosten bei der Beschaffung werden 100 Millionen Euro vorgesehen. Wer das Elektroauto an seiner Arbeitsstätte auflädt, muss das nicht als geldwerten Vorteil in der Steuererklärung angeben. Wirtschaftsminister Sigmar Gabriel (SPD) sagte, mit den vereinbarten Maßnahmen hoffe man die Zahl der Elektroautos über die Schwelle von 500 000 zu heben.“ (Die FAZ vom Donnerstag, den 28. April 2016, Seite 1).

DIE ZEIT vom 18. Mai 2016: http://www.zeit.de/politik/deutschland/2016-05/kaufpraemie-elektroautos-bundeskabinett-beschluss-elektromobilitaet   „Die Bundesregierung will den autoverliebten Deutschen die Elektromobilität schmackhaft machen. Das Kabinett beschloss die umstrittene Kaufprämie. 4.000 Euro gibt es demnach für reine Elektroautos und 3.000 Euro für Hybridfahrzeuge mit aufladbarer Batterie plus Verbrennungsmotor. Bedingung ist, dass das Basismodell nach Listenpreis nicht teurer als 60.000 Euro ist. Zudem sollen Käufer von Elektroautos für zehn Jahre von der Kfz-Steuer befreit werden; bislang galt die Steuerbefreiung für fünf Jahre. Außerdem steckt der Bund 300 Millionen Euro in den Aufbau von 15.000 neuen Stromladestellen.  Die Regierung hofft, mindestens 300.000 Elektroautos auf die Straßen zu bringen. Im schwarz-roten Koalitionsvertrag war noch das Ziel ausgerufen worden, dass bis 2020 eine Million Elektrofahrzeuge durch Deutschland rollen.  Die Zuschüsse gibt es nur für Wagen, die nach dem 18. Mai gekauft wurden und mindestens neun Monate behalten werden. Privatpersonen, Unternehmen, Stiftungen und Vereine können sie ausschließlich online beim Bundesamt für Wirtschaft und Ausfuhrkontrolle beantragen. Die Prämie soll so lange ausgeschüttet werden, bis der 1,2-Milliarden-Fördertopf leer ist – spätestens aber Ende Juni 2019. Die Kosten teilen sich Bund und Industrie. Neben deutschen Herstellern werden auch zahlreiche ausländische Autobauer für ihre Elektromodelle die Prämie anbieten.“

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Aussondern der Schiefer-Herde*

Das Wall Street Journal berichtet:

Die in Finanzschwierigkeiten steckenden Betreiber ziehen sich aus North Dakota zurück oder geben diesen Standort ganz auf. Aber die Überlebenden – von denen viele größere Player mit größerer Diversifizierung sind – finden Wege, dass sich die Bakken-Schieferformation sogar bei niedrigen Ölpreisen bezahlt macht. Diese Wege sind die Beschneidung von Budgets, verbesserte Logistik vor Ort und Konzentration auf die besten Lagerstätten.

Man kann Bakken nicht schließen! Die amerikanische Ölindustrie wird immer klüger und effizienter, wenn es darum geht, wo und wie gebohrt wird“, sagte Kathy Neset, eine erfahrene Geologin, die Eigentümerin einer Consulting-Firma in North Dakota ist. … Aktiv bohren u. A. eine Anzahl diversifizierter Unternehmen mit tiefen Taschen wie etwa HessCorp., Statoil ASA of Norway und Exxon MobilCorp. Unit XTO Energy. Sie konzentrieren sich auf ihre reichsten Reservoire, können immer besser die besten Bohrstellen festlegen und verbessern die Logistik der Plattformen. Damit können sie mehr Löcher schneller denn je bohren.

Diese hoch produktiven neuen Bohrungen gleichen teilweise den zurück gehenden Output aus älteren Bohrlöchern aus, einschließlich einiger, die stillgelegt wurden, weil die Betriebskosten über den Marktwert ihres Öls gestiegen sind. Während die Produktion in North Dakota den Erwartungen zufolge Anfang 2017 unter die Marke von einer Million Barrel pro Tag fallen wird – es sei denn, die Preise erholen sich bis über 50 Dollar – hat sie sich besser gehalten als viele Analysten erwartet hatten.

Was mit dem neuen Schiefer-Boom geschehen war, ist vergleichbar mit einer Auslese, sind doch die schwächsten (lies: die am wenigsten profitablen) Projekte verschluckt worden vom unfreundlichen Markt, welcher nur die produktivsten Bohrungen immer noch in Betrieb hält. Koppelt man diesen Effekt mit den Fortschritten der Industrie bzgl. Effizienz, war die Industrie in der Lage, mit weniger, aber viel ergiebigeren Bohrungen mehr zu erzeugen (hier).

Die Zukunft des Ölmarktes zu prophezeien kann einen böse zum Narren halten, so dass wir hier nicht vorgeben zu wissen, wo die Preise am Ende dieses Jahres liegen. Aber man überlege Folgendes: falls sie wieder auf Talfahrt gehen, werden die Fracking-Betreiber genauso getroffen wie jedes Ölversorgungs-Unternehmen (wir schauen auf dich, OPEC!). Falls sie auf dem jetzigen Niveau stagnieren, werden die noch in Betrieb stehenden Schiefer-Firmen damit fortfahren, den Betrieb weiter zu verbessern, um mitzuhalten. Und falls sie viel höher liegen, wird die Entwicklung des Schiefer-Booms nicht mehr in Fesseln liegen, werden es doch Unternehmen dann wieder profitabel finden, mehr Bohrungen niederzubringen.

Was auch immer geschieht, die amerikanische Energiesicherheit ist stärker als seit Jahrzehnten, und das ist ausschließlich dem Schiefer zu verdanken.

Link: http://www.the-american-interest.com/2016/05/18/culling-the-shale-herd/

Übersetzt von Chris Frey EIKE




Die kolossalen Kosten des sporadischen & unzuverlässigen Windstroms

Es gibt drei wesentliche Eigenschaften für die Elektrizitätsversorgung – die Stromquelle für die Belieferung von Haushalten und Unternehmen muss:

1) zuverlässig

2) sichergestellt und

3) erschwinglich sein.

Was bedeutet, dass die Windkraft – als völlig wetterabhängige Stromquelle , die nicht gespeichert werden kann und 3-4 mal so viel kostet wie konventionelle Energie – in allen drei Punkten eine NULL Bewertung erhält.

Erneuerbare Energie: Die Frage der Kapazität

Principia Scientific

Ed Hoskins, 5 April 2016

Einführung

Dieser Artikel befasst sich mit den beiden Hauptformen der wetterabhängigen Erneuerbaren Energien:  Windstrom (Onshore und Offshore) und Photovoltaik-Solarstrom. In Großbritannien beträgt der Anteil dieser beiden ~ 75% aller installierten Erneuerbaren Energien. Die anderen, zur erneuerbaren Energie gezählten Quellen sind traditionelle Wasserkraft mit ~ 8% und der Rest sind Biomasse, Abfall und Deponiegas zu ~ 17%.

 Die Kapazität in Prozent einer Energieerzeugungsanlage wird berechnet als die tatsächlich gelieferte elektrische Energiemenge geteilt durch die nominale Leistung (des Typenschilds). Dieser Artikel basiert auf Schätzungen der USA EIA [Energie-Informationsbehörde] und realen Messungen der gelieferten Energiemengen in Europa ab 2014. Er stellt somit korrekte Vergleiche zur Wirksamkeit von Installationen Erneuerbarer Energiequellen zur Verfügung.

[Hinweis des Übersetzers – Update: Ich habe ein Mail eines Lesers bekommen, der Fehler in meiner nachfolgenden (persönlichen) Erläuterung anmahnt,  unten mit  * gekennzeichnet

Ich bitte um Entschuldigung, zur Information unten eingefügt.

****

Für unsere Leser, die mit den Unterschieden von GW und GWh nicht so vertraut sind, hier eine vorangestellte Erläuterung.

Nennleistung – die maximale Leistung, die auf dem Typenschild steht und nur bei optimalen Wind bzw. Sonneneinstrahlung erreicht werden kann. Danach sind die Schaltanlagen und Netzanschlüsse auszulegen, Angaben in Watt (Kilowatt KW, Gigawatt GW)

* – korrigiert: Gelieferte Leistung – die gelieferte Energiemenge (und abgerechnet) in Wattstunden Wh, im Beitrag wird für die landesweiten Energien in GWh (1.000.000 Kilowattstunden) gerechnet.

Korrektur unseres Lesers: richtig ist: Energie = Leistung * Zeit sowie:  GWh = 1.000.000 kWh = 1.000 MWh

Es sollte also heißen: Gelieferte Energie wird bezahlt. z. B. in D privat mit 29 ct/kWh als Arbeitspreis, jedoch unsere jährlich zu zahlende Zählergebühr ist auch ein Leistungspreis, industrielle Abnehmer zahlen direkt einen Leistungspreis pro MW Inanspruchnahme, d. h. für die Bereitstellung durch das Netz und die Erzeuger. 

* – Korrigiert – Kapazität – das ist die hier genutzte Bezeichnung zum Vergleich in diesem Beitrag genutzt.

Korrektur unseres Lesers: Energie / nom. Leistung = Volllasstunden in h/a (keine Prozent !); z. B. typisch in D:          Ein 3 MW- Windrad onshore liefert 5000 MWh/a Energie bzw. Arbeit; Quotient: 5000/3 = 1667 h/a.

Teilt man die Volllasttunden durch 8760 h/a, ergibt sich die dimensionslose (0,19) oder prozentuale Auslastung von 19 %. Jedoch auch kein konventionelles Kraftwerk erreicht 100 %! Mit Kapazität wird bei uns selten die Energielieferung eines Kraftwerkes bezeichnet, jedoch die Speicherfähigkeit eines Pumpspeicherkraftwerkes, z. B. Goldisthal mit ca. 8 GWh.

Kapazität ….Verhältnis von Gelieferter (jahres-) durchschnittlicher Leistung / Nennleistung – … Dieser Quotient entspricht wieder dem Verhältnis von Volllaststunden zu 8760 h/a, also die Auslastung, die hier mit Kapazität bezeichnet wird. 

* – Korrigiert – Rückrechnung

richtig wäre: ….Verhältnis von Gelieferter (jahres-) durchschnittlicher Leistung / Nennleistung – …
 – kann dann für die Berechnung der Kapazität – zum Vergleich genutzt werden.

***

Der englischsprachige Text ist oftmals umständlicher und sperriger, als die von mir dann gewählte sinngemäße Übersetzung.

Andreas Demmig]

Werden Meldungen über die Entwicklungen von erneuerbaren Energien gemacht, werden sie in der Regel mit der vollen Nennkapazität in Megawatt präsentiert und oft auch unaufrichtig mit der Anzahl der Haushalte, die mit dem „ vollen Niveau elektrischer Nennkapazität“ versorgt werden könnten. Also sind solche Ankündigungen immer auf der optimistischen Seite, weil sie nur die maximale elektrische Leistung angeben, die von der Anlage überhaupt mal erreicht werden könnte, anstatt die Menge an nutzbarer Energie, die tatsächlich produziert wird.

Darüber hinaus, sind die gelieferten Energien der Erneuerbaren entscheidend abhängig von den Launen des Wetters (für Wind) und das Wetter in Kombination mit der Jahreszeit und der Tageszeit (für Solar). Die tatsächliche durch Erneuerbare gelieferte elektrische Energie ist zwangsläufig wesentlich geringer, als die Nennleistung der Anlage. Ein Spitzenstrombedarf tritt in der Regel an Winterabenden auf, wenn die Solarenergie nicht vorhanden ist und die Wetterlage Windgeschwindigkeiten auf praktisch null im ganzen Land reduziert. Es gibt keine Koordination zwischen dem Zeitpunkt der Windenergieproduktion und der Nachfrage nach Strom.

Traditionelle Methoden der Stromerzeugung mit fossilen Energieträgern unterliegen diesen Unwägbarkeiten nicht und können Strom bei Bedarf produzieren um der Kundennachfrage zu entsprechen.

Entscheidend ist: die Stromerzeugung der traditionellen Quellen sind planbar und nicht intermittierend.

In der Berichterstattung über tatsächlich erzeugte Energien aus Erneuerbaren werden häufig nur die Menge an Gigawattstunden (GWh) genannt, die im Vorjahr tatsächlich in das Netz geliefert wurden.

Jahresgigawattstunden können leicht in die entsprechende Vergleichsmenge in Gigawatt [Leistung] umgewandelt werden, indem durch die Anzahl der Stunden im Jahr (365 * 24) = 8760 geteilt wird. Dieser Ausgangswert kann mit der ursprünglichen Nennleistung verglichen werden, um den Prozentsatz der Kapazität jeder Erzeugungsanlage für Vergleichszwecke zu berechnen. So kann die absolute Wirksamkeit einer Erneuerbare-Energien-Installation als das prozentuale Verhältnis der tatsächlichen Stromerzeugung geteilt durch die angegebene Nennkapazität beurteilt werden.

Wichtig ist, dass dieser Prozentsatz nicht für die Nützlichkeit der elektrischen Energie steht, die zu einem bestimmten Zeitpunkt erzeugt wird, um der Nachfrage zu entsprechen! Wegen der unvermeidlichen Sprunghaftigkeit und nicht-vorhandenen Planung von Wind- und Sonnen-Energien. Es ist daher eine großzügige Maßnahme, wenn hier zu Vergleichszwecken der Wirksamkeit, Kapital- und Betriebskosten verwendet werden, um erneuerbare und traditionelle Formen der Stromerzeugung zu vergleichen.

Die Erneuerbare-Energien-Industrie kann nicht ohne Subventionen und Vorzugstarife existieren, die zwangsweise durch die Regierung vorgeschrieben werden. Ohne staatliche Subventionen und Abnahmeverpflichtung bietet die Erneuerbare-Energien-Branche kein tragfähiges Geschäftsmodell.

Ohne das Mandat der Regierung mit staatlichen Subventionen und Eingriffen, würden die wetterabhängigen Erneuerbaren nie ein gewählter Teil des Erzeugungsmix sein, vor allem, wenn man sie von den Bedürfnissen für die Lebensfähigkeit des elektrischen Versorgungsnetzes einer Nation aus betrachtet.

Zusammengefasst, Wetter basierte Erneuerbare Energien sind [beide] sehr teuer und unzuverlässig.

Diese erhebliche Mehrkosten und die vorgehaltenen [systemrelevanten] Back-up Kraftwerke für den Ausfall der Versorgung, obwohl von der Regierung gewollt, sind ernsthafte Kostenbelastungen der Stromverbraucher, sowohl im Inland als auch für die Industrie. Da der Teil von Erneuerbaren im elektrischen Netz wächst, werden sich diese Kostenbelastungen erhöhen.

Messungen der Kapazität der Erneuerbaren Energien

Folgende Datenquellen werden hier verwendet:

US-Regierung, Energie Information Behörde EIA

www.eia.gov  –Tabelle 1

zeigt folgende Kapazitätswerte der Installationen in den USA [Übersetzung folgender Tabelle]

·        Gas und Dampf Kraftwerke           87%

·        Onshore Wind                              36%

·        Offshore Wind                              38%

·        Solar PV am Netz                         25%

·        Moderne Kohlekraftwerke             85%

·        Moderne Kernkraftwerke              90%

EurObservER

EurObservER-Wind-Energy-Barometer-2015-EN-2.pdf

http://www.eurobserv-er.org/wind-energy-barometer-2015/

EurObservER-Photovoltaic-Barometer-2015-EN.pdf

http://www.eurobserv-er.org/photovoltaic-barometer-2015/

 

Diese Veröffentlichungen zeigen die aktuellen Mengen von Installationen der Erneuerbaren in Europa, von Land zu Land und insgesamt für Europa. Die folgenden Prozentsätze zeigen die gemessenen, erreichten Kapazitäten für Solar- und Windenergie:

Man sieht, dass in ganz Europa die Performance der Erneuerbare-Energien wesentlich geringer sind, als die durch die US-EIA veröffentlichten Leistungsniveaus.

Auch wenn die Leistungsfähigkeit von Wind und Solar kombiniert werden, ist der Vergleich der Leistungsfähigkeit zu den konventionellen Energiequellen eindeutig.

Deutschland mit einem Engagement von ~ 37% aller europäischen, installierten Erneuerbaren-Anlagen bis zum Jahr 2014, hatte die am wenigsten leistungsfähigen Erneuerbare Energien in Europa –eine Gesamtkapazität von nur 13,2%. Dies vor allem wegen des großen Aufbaus von Solarstrom, entsprechend 42% aller europäischen Anlagen. Geschaffen wird dies einfach durch eine falsche Förderung, denn Deutschland ist ein [oft] bewölktes nordeuropäisches Land. Spanien, Großbritannien und [selbst] Dänemark haben deutlich bessere Leistungsraten, aber sie haben viel geringere Verpflichtungen/ Installationen von Solarstrom und im Falle von Großbritannien ein größeres Engagement für Offshore-Windenergie.

Die Auswirkungen der installierten Nennleistung zu abgegebene Leistungen für erneuerbare Energien können bei EurObser’ER mit Daten für ganz Europa für das Jahr 2014 gesehen werden.

Weitere detaillierte Analysen finden Sie unter:

European Renewable Energy performance and costs: 2014

Zeitreihen der Erneuerbaren Energie Foundation aus Großbritanien

Die Erneuerbare-Energien-Stiftung in Großbritannien hat umfassende Daten über den Stand der der Erneuerbaren Anlagen in Großbritannien seit 2002 zur Verfügung gestellt. Diese enthalten Gigawatt-Stunden-Schätzungen der elektrischen Abgabeleistung. Darüber hinaus bietet er auch eine Datenbank aller Erneuerbaren Installationen in Großbritannien.

http://www.ref.org.uk/generators/group/index.php?group=yr

Der britische Fortschritt bei der Entwicklung von Erneuerbaren-Anlagen seit 2002 ist nachfolgend dargestellt, in installierter Nennleistung.

Der Fortschritt von abgegebener Leistung im Laufe der Zeit kann unten gesehen werden. Es scheint, dass 2015 besonders unproduktiv für erneuerbare Energien war, vor allem Windkraft [sieht man die Nennleistung installierten Anlagen]. Für weitere Zwecke des Vergleichs, werden die durchschnittliche prozentuale Abgabeleistung, die seit 2002 erreicht wurden, dargestellt, anstatt der jüngsten Ergebnisse.

Das Vergleichsergebnis aus diesen drei Quellen ist nachstehend aufgeführt. Erwartete und gemessene Kapazitäten (Abgabeleistung) für Installationen in USA und Europa

 

Die US- EIA hat großzügigere Erwartungen an die Kapazität der Erneuerbaren als gemessen werden kann und berichtet das sowohl für Europa insgesamt, als auch für Großbritannien. Leider unterscheiden die EurObser’ER Daten derzeit nicht zwischen den Werten von On- und Offshore-Windanlagen. Die Gesamtkapazität von 21,8% [für beide Quellen] sollte eine höhere Wirksamkeit bei Offshore-Windenergie zeigen. Zu sehen ist das in den UK-Daten, wo es ein sehr großes Engagement für Offshore-Windenergie gibt.

Es gibt eine "Faustregel", dass Offshore-Windkraft einen Kapazitätswert von ~ 45% erreicht. Dies ist ganz im Widerspruch nicht nur zu den durch die USA geschätzten Daten, sondern auch zu den niedrigeren, gemessen gesamteuropäischen Werten und den direkte Messungen aus Großbritannien. Die Kapazitätswerte für Großbritannien sind Durchschnittswerte, da die Installationen von Erneuerbaren im Jahr 2002 begannen und nicht die aktuellen Werte von 2015 enthalten. Im Jahr 2015 mit 16,4% insgesamt, war dies ein nicht besonders leistungsfähiges Jahr für wetterbasierte erneuerbare Energien in Großbritannien.

Vergleich der Kosten von Erneuerbaren und deren Wirksamkeit

Die US EIA veröffentlichen auch umfassende, vergleichende Kalkulationsdaten für unterschiedliche elektrische Erzeugungstechnologien in den USA. Die US EIA stellt auch prozentuale Kapazitätsschätzungen bereit.

http://www.eia.gov/forecasts/aeo/electricity_generation.cfm

Zusammenfassend zeigt diese Tabelle vergleichende Kosten für Kapital [Investition] und laufende Kosten in Dollar / MWh. [also für den Betrieb um Energie zu liefern, in Dollar / MWh]

Die Kosten für Gas und Kohle entsprechen denen von 2013 und sind seit dieser Zeit sowohl für Erdgas als auch Kohle wesentlich gesunken. Es wird erwartet, dass diese Preise auch für die absehbare Zukunft relativ niedrig bleiben. Die US EIA veröffentlicht auch die indikativen Kosten verschiedener Stromerzeugungstechnologien als „Base Overnight Costs“ [Herstellungskosten ohne Finanzierung] für das Jahr 2014:

http://www.eia.gov/forecasts/aeo/assumptions/pdf/table_8.2.pdf

Dieses gibt eine realistische Einschätzung von den Gestehungskosten bei Gaskraftwerken von etwa ~ $ 1000 Milliarden / GW. Dieser Wert kann für vergleichende Bewertungen der anderen Erzeugungstechnologien verwendet werden. Darüber hinaus ist es wichtig, dass die Zeit, um ein Gaskraftwerk zu errichten nur etwa 2 Jahre von Konzeption bis zur Fertigstellung beträgt.

 

Vergleich der Kosten von Gaskraftwerken zu Erneuerbaren:

X-Achse: Betriebskosten incl. Brennstoff;

Y-Achse: Nivellierte Kapital und Betriebskosten

Mit den folgenden Annahmen:

·        Die US EIA nivellierten Kostendaten sind für aktuelle Gas- und Kohlepreise angepasst

·        Annahme, die Kapitalkosten einer 1GW Gasanlage die mit 90% Kapazität läuft betragen rund 1 Mrd. Euro

·        Der US $ und der Euro sind in ihren jeweiligen Kontinenten etwa gleichwertig.

Diese geschätzten Investitionen für ganz Europa sind wie folgt:

 

€ bn = € Milliarden

Schlussfolgerungen

Die Kombination der Kapazität zusammen mit Faktoren und der US EIA Kostenvergleiche, sind mit den EurObseER Daten in der folgenden Tabelle zusammengefasst und zeigen die Situation der Erneuerbaren in Europa.

 

Hinweis: Zum Vergleich; Energieerzeugung aus Gaskraftwerken kosten etwa 1 Mrd. Euro je Gigawatt

Dementsprechend kann man sehen, dass die Solarenergie etwa 63-mal so viel kosten kann wie die gleiche Menge an Energie aus gasbetriebenen Kraftwerken; Offshore Windenergie kostet in diesem Vergleich etwa 45-mal so viel, Onshore Windenergie ist effektiver aber kostet auch noch 16-mal so viel.

Werden die Wetter abhängigen Erneuerbaren in ganz Europa in Gesamtkombination bewertet, sind ihre Kapitalkosten etwa 30-mal höher als der für die konventionelle Stromerzeugung aus Erdgas.

Diese Vergleichsquoten berücksichtigen noch nicht die Kosten für die Netzeingriffe aufgrund der unvermeidlichen volatilen und nicht planbaren Leistungsabgaben der erneuerbaren Energien.

Wenn die Ziele um Erneuerbare zu nutzen, nicht mit "um den Planeten vorm Menschen verursachten CO2 zu retten" verwechselt werden würden, die tatsächlichen Kosten und die inhärente Unzuverlässigkeit hätten es für immer ausgeschlossen, sie als Mittel der Stromerzeugung für jede entwickelte Wirtschaft zu berücksichtigen.

Hier hat Ed Hoskin es auf den Punkt gebracht: das Chaos, das von Süd Australien‘s 17 Windparks (Nennkapazität 1.477MW) im November letzten Jahres produziert wurde.

Erschienen auf StopTheseThings am 09. Mai 2016

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2016/05/09/the-colossal-cost-of-intermittent-unreliable-wind-power/




Wie der Bayerische Rundfunk auf die Überschrift einer Pressemitteilung der Munich Re hereinfällt

Jüngst kam wieder einer dieser Beiträge, diesmal über den unaufhaltsamen und bereits – auch in Deutschland – schon schlimmen Klimawandel:

Bayerischer Rundfunk, Homepageinformation am 08.03.2016:

Extremwetter durch Klimawandel: Mehr Starkregen, Dürren, Hitzewellen und Orkane

Extreme Wetterphänomene treten weltweit immer häufiger auf, auch in Deutschland. Wissenschaftler machen auch die Klimaerwärmung dafür verantwortlich. Und sie zeichnen ein düsteres Szenario.

Auf diese „Information“ hin fragte der Autor beim BR zu Belegen nach und bekam als einen (mit einem Zweiten des IPCC) die Information zur jüngsten Pressemeldung der Munich Re genannt:

Vom BR gemeldete Belegstelle zur Zunahme von klimawandel-bedingten Extremwetterereignissen:

Munich RE „Risiken durch anhaltende Extremwetterlagen steigen – „Topics GEO“ analysiert Naturkatastrophen 2014
Was dem BR nicht auffiel: Diese Pressemeldung der Munich Re ist eines der typischen Beispiele, wie ein bewusst alarmistischer Header eine bestimmte Risikoursache suggerieren soll, und in den Ausführungen dann sorgfältig umschrieben wird, dass sich diese Risiken aber nicht (wie man aufgrund der Überschrift meinen könnte) auf den Klimawandel beziehen. Bei „Klima-Alarmmeldungen“ eine übliche Methode, um aus nicht vorhandenen oder schwammigen Belegen doch noch die „gewünschte“ Aussage „herauszukitzeln“ – und als Folge ein typischer „Reinfaller“ für unsere Klimawandel-glaubensgestählten Medien, wie es auch der EIKE-Beitrag „Als der Meeresspiegel doppelt so schnell anstieg – nur weil eine Studie nicht richtig gelesen wurde“ zeigt.

Munich Re Pressemitteilung [1] vom 3. März 2015: Risiken durch anhaltende Extremwetterlagen steigen

In den vergangenen Jahren haben lang anhaltende Extremwetterlagen schwere Naturkatastrophen ausgelöst und Schäden in Milliardenhöhe verursacht. In der Wissenschaft mehren sich Studien, die eine Zunahme von quasi ortsfesten Wetterlagen sowie einen Zusammenhang mit der durch den Klimawandel verursachten starken Erwärmung in der Arktis nahelegen.

Die Klimaapokalypse nimmt seinen vorhergesagten Verlauf und ist zu einem messbaren Risikofaktor geworden – könnte man anhand der Pressemitteilungs-Überschrift meinen.

Allerdings, etwas weiter hinten im Text kommt eine vollkommen andere Information (Hervorhebungen durch den Autor):

MuRe[1] 2014 blieben die Schäden aus Naturkatastrophen zum dritten Mal in Folge unter dem langjährigen Durchschnitt. Auch wenn immer noch 7700 Menschen bei den Naturkatastrophen ums Leben kamen, so waren es zumindest deutlich weniger als im Durchschnitt; die Zahl der Todesopfer lag in einer Größenordnung wie zuletzt 1984 (rund 7000).
So positiv konnte man das nicht stehen lassen, weshalb Erklärungen nachgeschoben kommen – die genau das Vorhergehende bestätigen: Die Schadenssummen und damit der Schadenstrend steigt (… steigenden exponierten Werte), aber nicht die klimabedingten Ereignisse.

MuRe [1]: Jeworrek betonte: „Aus dem Schadenverlauf der vergangenen Jahre auf eine Trendumkehr zu schließen, wäre verfehlt. Der Schadentrend der vergangenen Jahrzehnte zeigt eindeutig nach oben, vor allem getrieben durch die steigenden exponierten Werte.“

Bestätigt wird also genau das, was der Autor schon Anfang des Jahres in der umfangreichen Rezension [3] anhand der Schadensdaten von Munich Re und Swiss Re feststellen konnte – klimabedingte Schadensereignisse nehmen weltweit nicht zu. Damals machte der Autor jedoch einen Fehler, bzw. bei MuRe stand es so: Er gab den aktuellen Stand als vergleichbar dem vom Jahr 1991 an. Munich Re korrigierte dies nun auf 1984 (1980) und datiert es um weitere 10 Jahre vor.

Jemanden, der das Thema verfolgt, wundert dies nicht. Zum Beispiel ist der Stand Tornadoopfer in den USA fast auf dem niedrigsten Stand seit Beginn der Aufzeichnungen um 1875 [20].

Fazit

Die Munich Re stellt fest, dass die aktuelle Mortalität durch Klimaschadens-Ereignisse dem Stand von 1980, also dem vor 35 Jahren entspricht!

Personelle Risiken sind also seit 35 Jahren nicht mehr gestiegen. Allerdings steigen die Risiken für Vermögenswerte, weil immer mehr Urbanität in Risikogebiete gebaut wird.

Steht aber vielleicht im von der Pressemitteilung als Hintergrundinformation angezogenen MuRe Analysepaper doch noch etwas Anderes drin?

Munich Re, Publikation TOPICS CEO, Ausgabe 2015: Naturkatastrophen 2014 Analysen, Bewertungen, Positionen

Im MuRe TOPICS CEO steht das Positive gleich im Vorwort:

TOPICS CEO [2]: Liebe Leserinnen und Leser,

das Jahr 2014 war im Hinblick auf Naturkatastrophen für die Versicherungswirtschaft sicherlich ein Jahr zum Durchatmen. Zum dritten Mal in Folge blieben die Schäden unter dem langjährigen Durchschnitt. Nur einmal, bei den verheerenden Schneestürmen in Japan, erreichten die versicherten Schäden eine Höhe von über drei Milliarden US-Dollar.

Erfreulich war zudem, dass es 2014 vergleichsweise wenige Todesopfer durch Naturkatastrophen gab – die zweitniedrigste Anzahl seit 1980.

Und im weiteren Verlauf wird es noch deutlicher. Beim Lesen dieser Publikation merkt man unverkennbar der Einfluss des PIK. Etliches was man von dort an „vielleicht möglichen, zumindest nicht mit absoluter Sicherheit ausschließbaren Szenarien für die Zukunft kennt“ findet sich auch hier. Der Grund ist erkennbar. Wenn es aktuell keine Apokalypse gibt, muss sie eben in der Zukunft zu finden sein. Und das PIK mit seinem Supercomputer (und als Berater der Munich Re) kann diese Zukunft sicher am besten in allen parametrierbaren Variantenausführungen simulieren.

So wird das wohl liebste Kind des PIK, der Arktische Kipppunkt, lange ausgeführt, endet aber mit der Schlussbemerkung, dass es sich um eine Meinung und eben nicht um gesicherte Erkenntnisse, ja nicht einmal (sofern es überhaupt käme) um ein klimawandel-bedingtes Ereignis handeln müsste (Anm.: Siehe dazu auch [6]):

[2] Nach herrschender Meinung der Klimaforscher sind „Kippeffekte“ mit erheblichen irreversiblen Folgen

nicht auszuschließen, wenn die globale Durchschnittstemperatur gegenüber der vorindustriellen Zeit um mehr als
2 °C zunimmt

Ein – voraussichtlich über Jahrhunderte andauernder – Verlust des Westantarktischen Eisschilds würde den globalen Meeresspiegel um mehr als drei Meter ansteigen lassen. Ob der Beginn des irreversiblen Zerfallsprozesses

des Westantarktischen Eisschilds eindeutig auf die anthropogene Klimaerwärmung zurückzuführen ist, lässt sich derzeit wissenschaftlich nicht eindeutig belegen.

Viel mehr gibt die Publikation zum Thema Klimawandel nicht her, schon gar nicht einen Beleg.

Mangels Belegen werden schreckliche Bilder gezeigt und Szenarien fabuliert

Wie können aber „Risiken durch anhaltende Extremwetterlagen steigen“, wenn die weltgrößte Rückversicherung gleichzeitig „ durchatmet“ und die Anzahl Mortalität durch Naturkatastrophen die zweitniedrigste seit 1980 (niedrigste seit 1983) ist?

Die Pressemitteilung klärt im Innersten etwas auf.

Die Risiken sind nicht wirklich da, sondern Studien „legen es nahe“. Auch sind die letzten richtig großen Schadensereignisse vorwiegend Kälte-bedingt und wollen damit so gar nicht zum „überhitzten Planeten“ passen. Das bemerken die Klimawissenschaftler auch und [1]„ … diskutiert intensiv, ob der Klimawandel und insbesondere die besonders starke Erwärmung in der Arktis für diese veränderten Wettermuster verantwortlich ist.“

Um die schlimme Klima-Umwelt trotzdem zu demonstrieren ist in der Broschüre noch ein Bild der globalen Welttemperatur enthalten (Bild 1).

Vom Autor sind im Bild das Toleranzband der Messgenauigkeit einer elektronischen Station von +- 0,2 Grad und die ungefähre globale Mess-Ungenauigkeit vor 1990 mit ca. +- 1 Grad und ab 1990 von +-0,6 Grad [7] bläulich eingefärbt zugefügt.

Der Temperaturstillstand seit ca. 2000 ist deutlich erkennbar (die geringfügige Erhöhung der Balken ist so weit unterhalb der Messgenauigkeit, dass das bisschen angezeigte Erhöhung eine reine Zufallsaussage darstellt). Anhand der Toleranzbänder kann sich Jeder klar machen, wie un-glaubhaft solche Darstellungen in Wirklichkeit sind und wie wenig diese einen waren Global-Temperaturverlauf repräsentieren.

Bild 1 [2] Verlauf der Globaltemperatur seit 1950. Vom Autor um die Toleranzbänder einer Messstation (rot) und der Globalmessung (blau) ergänzt

Zu den Maximaltemperaturen erklärt MuRe:

[2] Allerdings wurden die bisherigen maximalen Jahres-Durchschnittstemperaturen von 2005 und 2010 nur sehr knapp um 0,04 °C geknackt.

Diese Aussage ist ein Affront an alle, welche noch etwas Minimal-Ahnung von Messtechnik haben. Bei den hohen Temperatur-Messtoleranzen (Bild 1) eine nicht mehr messbare Änderung von 0,04 °C als „geknackt“ anzugeben zeigt überhaupt nichts, außer deutlich das niedrige Wissenschaftsniveau dieser (Populär-)Publizierung und Versagen oder Fehlen aller fachlichen Kontrollinstanzen.

Anm.: Vergleichbares musste der Autor auch bei der Rezension der Vulnerabilitätsstudie Deutschland [8] feststellen.

Warum die Globaltemperatur (falls überhaupt) höher wurde, ist ebenfalls interessant:

[2] Für die Einstufung als global wärmstes Jahr waren ausschließlich die dauerhaft von Juni bis Dezember höchsten je gemessenen Temperaturen der Meeresoberflächen verantwortlich. Über Land erreichte die Erwärmung im globalen Jahresmittel keinen neuen Spitzenwert.

Erinnert man sich an Deutschland, dass laut seiner Umweltministerin „den Klimawandel täglich spürt“, obwohl nun gemeldet wird, dass sich die Landtemperaturen gar nicht erhöht haben. Nun gut, für Deutschland vielleicht um 0,1 Grad in den letzten 33 Jahren [11].

Zuletzt noch der vom Autor aus einer MuRe Darstellung extrahierte jährliche Verlauf wetterbedingter Schadensereignisse (Bild 2). Diesen extrahiert der Autor wegen des Aufwandes nicht neu sondern entnimmt sie aus [4]. Es fehlt damit nur das letzte Jahr. Auch darin ist keine Erhöhung erkennbar, was auch für eine vergleichbare Darstellung von Swiss Re (Bild 3) gilt.

Bild 2 [4] Wetterbedingte Schadenereignisse weltweit 1980 – 2014 mit vom Autor herauskopierten und auf die Grundlinie gesetzten Balken der Gesamtschäden.

Bild 3 [5] Swiss Re Anzahl Naturkatastrophen-Ereignisse (rot) und man-made-events (blau) von 1970 – 2015

Fazit

Wer die Pressemitteilung von Munich Re[1] als Beleg für die Aussage “Extreme Wetterphänomene treten weltweit immer häufiger auf“ anzieht, belegt nur dass er sich keinerlei Mühe gemacht hat hineinzusehen – vielleicht, um nicht Gefahr zu laufen, an seiner vorgefassten Ideologie zweifeln zu müssen.

Und in Deutschland?

Beim Bayerischen Rundfunk heißt es ergänzend „… auch in Deutschland“. Die angegebene „Belegstelle“ sagt dazu nichts aus. Aber es gibt ja genügend Informationsmaterial. Rein zufällig kam gerade auf kaltesonne.de eine Darstellung:

kaltesonne[13]: Steigende Temperaturen in Deutschland? Ja und nein:

Die Eisheiligen werden immer kälter

Forsythien und der Klimawandel: Frühlingsbeginn in Hamburg während der letzten 30 Jahre immer mehr verspätet

Unerklärlich: Weshalb stieg 2015 der Heizbedarf in Deutschland, obwohl es angeblich das zweitwärmste Jahr seit Beginn der Messungen war?

Winter in Deutschland seit 30 Jahren unverändert

Deutschland-Temperaturen 1990-2015: 7 Monate wärmer, 5 Monate kälter

Deutschlandtemperaturen 1995-2015: 8 Monate wärmer, 4 Monate kälter

Winter in Deutschland: Immer wärmer oder immer kälter?

Deutschland-Temperaturen 2000-2015: 7 Monate wärmer, 5 Monate kälter

Meteorologe Christian Zenkl: Im Alpenraum sind die Temperaturen in den Bergen in den letzten 30 Jahren um etwa ein Grad C gesunken

Feuchtere Winter? Kann sein. Aber ist das schlimm? Bei den Extremniederschlägen sind jedenfalls keine Auffälligkeiten zu vermelden:

Klimabericht des Umweltbundesamtes (UBA) zu Deutschland: Kein statistisch gesicherter Anstieg extremer Niederschläge oder von Trockenperioden

Häufigere Wetterextreme? Wohl kaum:

Keine Belege für mehr Extremwetter in Deutschland

Neue Studien geben Entwarnung: Europäische Dürren noch vollständig im Bereich der natürlichen Schwankungsbreite

2014 erneut mit weniger Schäden durch Extremwetter. MunichRe trotzig: “Niemand sollte sich in Sicherheit wiegen”

Wie ist es mit dem Starkregen?

Die umfassendste und bestimmt seriöse Informationsquelle zu Klimaereignissen in Deutschland, der Uba Klimamonitoringbericht 2015[12] sagt zu Starkregen – nichts.

Das lässt nur den einen Schluss zu: Er hat nicht signifikant zugenommen! Das zeigt sich auch wenn man die Daten aus einem Einzelbericht des DWD ansieht (Bild 4). Es lässt sich keine Verschlimmerung feststellen. Stark geregnet hat es immer, die höchste Spitze ist vor dem Jahr 1940, die zweithöchste um 1970 und erst dann kommt ein jüngeres Datum. Auch die Darstellung zum hohen Niederschlag (Bild 5) weist seit 1950 keinen Anstieg aus. Aktuell regnet es so stark wie um 1950.

Alarme stellt man sich anders vor.

Bild 4 Starkregenereignisse Köln Wahn ab 1931. Quelle: DWD „Das Projekt Starkregen DWD/GDV“

Bild 5 Anzahl der Tage mit mindestens 30 mm Niederschlag pro Jahr für Deutschland. Quelle CSC Climate Service Center

Wie steht es mit den Dürren?

Auch dazu sagt der Uba Klimamonitoringbericht nichts, weshalb man die Angaben zu Trockenperioden zu Rate ziehen muss.

Dazu wird vermeldet:

Uba [12]: Wie Abbildung 11 zeigt, ist die Anzahl solcher Trockenperioden im Flächenmittel von Deutschland seit 1951
um ca. 0,3 Ereignisse pro Jahr geringfügig angestiegen. Bereits aufgrund der Seltenheit solcher Ereignisse mit einem Mittelwert von nur 1,3 Fällen pro Jahr im klimatologischen Referenzzeitraum 1961-1990 sowie der extrem
hohen Variabilität von Jahr zu Jahr ist aber auch diese Zunahme bislang statistisch keineswegs gesichert.

Also auch dazu Entwarnung, wie es Bild 6 auch zeigt.

Bild 6 [12] Anzahl von Trockenperioden seit 1960 in Deutschland

Hitzewellen

Uba [12]: Im Rückblick zeichnet sich seit den 1970er Jahren bereits ein Trend zur Zunahme sogenannter „Heißer Tage“ ab, an denen der Tageshöchstwert der Temperatur 30 °C oder mehr beträgt. In „Tropennächten“ sinken die Temperaturen nicht unter 20 °C, eine nächtliche Erholung ist dann insbesondere nach sehr heißen Tagen eingeschränkt. Tropennächte treten bislang in unseren Breiten im Gegensatz zu den Heißen Tagen noch selten auf.

Dies ist die einzige Veränderung, welche in Deutschland überhaupt eine Signifikanz ausweist. Allerdings hat dabei der Wärmeinseleffekt auch einen großen Einfluss und den verursacht nicht das Klima. Unter der Betrachtung, dass die Maximaltemperatur in Deutschland (vielleicht) nach 33 Jahren um 0,1 Grad gestiegen ist, obwohl der Trend ausgerechnet zur Kaltzeit des letzten Jahrhunderts beginnt, relativiert sich jedoch diese Signifikanz.

Bild 7 [12] Gebietsmittel von Heißen Tagen und Tropennächten seit 1970 in Deutschland

Aber die Orkane

Es wird ermüdend, aber der Uba Klimamonitoringbericht [12] sagt auch dazu nichts. Wieder der sichere Beleg, dass kein positiver Trend vorliegt, oder keine brauchbaren Daten (darin ist der Bericht ehrlich).

Also muss man wieder nach einem Ersatzparameter suchen und der findet sich zum Beispiel in der „ungeplanten Holznutzung“. Und siehe da, es gibt keinen gesicherten Trend. Man musste sich für die „notwendige Alarmrichtung“ mit dem „Eindruck“ begnügen.

Uba Klimamonitoringbericht [12]: Auch wenn sich in den zurückliegenden knapp zwanzig Jahren kein statistisch abgesicherter Trend zu einer Zunahme des Umfangs ungeplanter Holznutzungen abzeichnet, entsteht in der Forstwirtschaft zunehmend der Eindruck, dass die Phasen ohne relevante Einflüsse von Zwangsnutzungen immer kürzer werden.

Vielleicht eine viel sicherere, da wesentlich sorgfältiger und genauer registrierte Aussage bieten die Wetter-bedingten Schäden an Freileitungen (Bild 8). Auch diese zeigen keinerlei steigenden Trend sondern das Gegenteil.

Bild 8 [12] Wetterbedingte Unterbrechungen der Stromversorgung

Was den Bürger direkt betrifft, ist die Schadensquote. Aber auch diese zeigt keinen steigenden Trend.

Bild 9 [12] Schäden der Wohngebäudeversicherung

Schlussbetrachtung

Gegenüber der letzten Rezension [3] hat sich nichts verändert. Die Munich Re kann einen Klimawandel-Einfluss für wetterbedingte Schadensereignisse weiterhin nicht finden, sondern nur in der Zukunft simulieren. Man könnte lediglich meinen, dass das fachliche Niveau in den MuRe Publizierungen etwas nachgelassen hat.

Weder für die Welt, noch für Deutschland lässt sich die Meldung des BR bestätigen. Die angegebene Belegstelle sagt ebenfalls das Gegenteil.

Schade ist, dass unsere gut bezahlten und mit extensivem Personalbestand ausgestatteten „Öffentlichen“ zwar auf ihrer Homepage und in Reportagen in vorbildlicher Propaganda-Pflichterfüllung den Klimateufel an die Wand malen, jedoch keinen Anlass sehen dazu zu recherchieren. Für sie reicht es, wenn öffentlich bezahlte Alarm-Publizier-Institute und Firmen welche davon profitieren entsprechende Meldungen über die dpa verteilen. Ihr Vorteil ist: Eine dpa-Agenturmeldung muss nicht geprüft werden. Sie ist über den Weg durch dieses „Wahrheitsinstitut“ (ausschließlich persönliche Meinung des Autors) juristisch gesehen automatisch „wahr“ geworden*. Konsequenzen für nachfolgende Publizierer aus der Berichts-Gehirnwäsche sind damit ausgeschlossen.

* [19] Äußerungs- / Presserecht Prüfung der Quelle

Bei der Übernahme von Informationen aus sog. "privilegierten Quellen" ist die Prüfungspflicht des Journalisten weniger streng. Er darf sich hier i.d.R. darauf verlassen, dass die Information zutreffend und ggf. unter Zugrundelegung des journalistischen Sorgfaltsmaßstabes geprüft wurden.

Beispiele für privilegierte Quellen: Agenturmeldungen, Gerichtsurteile, behördliche Mitteilungen, Mitteilungen über Parlaments- oder Gerichtsverhandlungen.

Was muss Deutschland beim Klima wirklich fürchten?

Dass dieses in sein Verhalten zur vorindustriellen Zeit zurückfällt, wie es von Deutschlands „Intelligenz“ sehnlichst gewünscht wird.

Kaum Jemand denkt beim ständigen Klimaalarmismus-Getrommel daran, dass wir aktuell in einem verblüffend ruhigen und angenehmen Klimavariabilitäts- Zeitalter leben, für das wir dankbar sein sollten. Früher, als das Klima angeblich erstrebenswert natürlich war, verhielt es sich wesentlich grausamer und extensiver. In der EIKE-Publizierung: „Extremhochwasser und Unberechenbarkeit des Wetters“[14] ist das umfassend beschrieben. Ein Bild daraus:

Bild 10 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013. Vom Autor als Grafik anhand von der Stadt Würzburg hinterlegten Daten erstellt. Y-Achse: Pegelhöhe in cm

Frage an die Leser: Wann wurde eine Freiluftveranstaltung in Würzburg vom Hochwasser überflutet und musste abgebrochen werden? – Im Jahr 2013.

Selbstverständlich galt das als ein Menetekel des immer zerstörerischeren Klimawandels. In der EIKE-Publizierug des Autors:

Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis“ ist es detaillierter dargestellt. Anbei der Auszug daraus über das würzburger Festival von 2013:

DIE WELT am 05.12.14: Würzburg (dpa/lby) – Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte Festivalleiter Stefan Oschmann am Freitag in Würzburg.

Damaliger Kommentar des Autors dazu:

Fühlt man sich da nicht verarscht? Der niedrigste Hochwasserpegel seit Menschengedenken und darauf muss man sich nun „einstellen“ weil es immer schlechter wird! Dass man eine Veranstaltung auf einer Fläche errichten lässt, die in einem weit unter 20-jährigem Turnus (nach der Grafik alle 6,6 Jahre) regelmäßig überschwemmt wird, ist ein Armutszeugnis der Planer. Aber diesen Dilettantismus einem Klimawandel zuzuschieben ist unverfroren. Dem „DIE WELT“-Redakteur ist es nicht aufgefallen und die Verantwortlichen vom städtischen Planungsamt haben es aus gutem Grund vermieden, ihn darauf hinzuweisen.

Wer sich sicher ist, dass der Main ein (vom Autor ausgesuchtes) Ausnahmebeispiel wäre, sehe sich den Hochwasserverlauf des Rheins bei Köln an.

Bild 11 Hochwasserpegel Köln 1784 – 2013 nach den Daten der Stadtentwässerungsbetriebe Köln AöR vom Autor als Grafik erstellt). Y-Achse: Rheinpegel (m)

Auf „The European“ kam jüngst ein Artikel, der dieses Thema unter verschiedenen Blickwinkeln darstellt „Der Mythos vom Gleichgewicht der Natur“[17]. Auch wenn der Autor mit einigen Aussagen nicht übereinstimmt, ist er absolut lesenswert – und er bestätigt auch viele Thesen des Autors.

Darin steht zum Beispiel

[17] In der Wissenschaftszeitschrift „Science“ wurde vor Kurzem eine Arbeit veröffentlicht, die belegt, wie der Kaltzeittrend durch die menschengemachte Erwärmung abrupt unterbrochen wurde. Hätte sich die natürliche Abkühlung des Planeten fortgesetzt, wäre es heute ein Grad kälter. Man könnte Nordeuropa nicht mehr bewohnen.

Nun behauptet der Autor dass dies insofern nicht stimmt, weil die mittelalterliche Kaltzeit spätestens um 1600, wenn nicht sogar um 1400 endete und die aktuelle (kleine) Warmzeit damit bestimmt nicht durch menschlichen Einfluss begann „Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende“[18]. Das ändert aber nichts an der Folgerung was passiert wäre, hätte die „gütige Natur“ mit dem vorindustriellen Klima einfach so weiter gemacht.

Nachspann

Herr Limburg hat sich eben auf EIKE beklagt, dass die Jugend so wenig (über Technik) lernt und weiß: „AfD Chefin Frauke Petry muss Oberschülern über den Unterschied zwischen Smog und CO2 belehren“.

Leider liegt dies auch daran, dass im Grün-vermerkelten Deutschland unter der Aufsicht von Herrn Kauder zu viel Wissen praktisch einem Verbot für höhere Ämter gleichkommt. Es ist viel vorteilhafter Theologie, Politik, ev. noch Philosophie studiert zu haben, obwohl ein guter Studienabbruch als Sprungbrett auch nicht schlecht ist.

Immer wieder anschaulich dafür ist die Fachausbildung der Reihe von Umweltminister –innen:

(seit 2014)

Waren die bisherigen allerdings einfach nur von Unkenntnis gezeichnet (zu Herrn Trittin schreibt der Autor seine Meinung nicht öffentlich), scheint die aktuelle Umweltministerin zusätzlich durch das andauernde Klimawandel-Bombardement noch klimawandel-psychisch angeknackst. Wie kann es sonst sein, dass Sie sich mit einem bekannten Klimawandel-Betrüger einlässt und das noch berichtenswert findet:

Zitat aus einem Zeitungsartikel vom 14.12.2015 (Print-Lokalausgabe der nordbayerischen Nachrichten):

Zum wiederholten Male lobt Hendricks das politische Geschick ihres „Freundes Tony de Brum“. Der Außenminister der Marshallinseln, die bei einem weiteren Anstieg des Meeresspiegels im Meer versinken würden, hatte am Morgen Anstecker aus getrockneten Halmen verteilt. Sie sollten Glück bringen. Auch Bundesumweltministerin Frau Hendricks und EU-Klimakommissar Miguel Arias Cañete befestigten ihre Bast-Anstecker am Revers.“ 

Anmerkung: In der Recherche über die Marshall-Inseln[16] wurde gezeigt, dass Herr Tony de Brum eine ganz unrühmliche bis betrügerische Rolle bei der (falschen) Darstellung zur Ursache der Probleme seiner Inseln spielt um an Klimagelder zu gelangen. Aber politisches Geschick hatte ein Herr Blatter auch um an Geld zu kommen – und war zu seinen Zeiten allseits beliebt und geachtet. Und seine früheren Freunde haben zwar viel Geld an ihn gegeben, aber nicht gleich viele Milliarden und auch nicht das der Bürger (Anm.: in den Klimafonds – aktuell mit 100 Milliarden $ pa vorgesehen will Deutschland 10 % einzahlen).

Auch die Darstellungen über die „Recherchequalität“ des Bayerischen Rundfunks zeigen es – Wissen ist eher ein Grund für keine Anstellung.

Welche (auf keinen Fall fachliche, sondern eine als Aktivist) Ausbildung man bei Klimaretter.Info erwaret, ist im Artikel „Berichterstattung von klimaretterinfo ueber die am Pfingstwochenende durchgefuehrten Agitationen im Braunkohlerevier“ anhand der Ausbildungslistung der Redakteure ebenfalls am Schluss gezeigt.

Gehört nicht mehr zum Artikel

Auf ScienceSceptical hat ein Leser den folgenden Kommentarbeitrag eingestellt

Hatten wir nicht in Japan ein Erdbeben bisher unbekannter Stärke?
Und in Südamerika wurde ein neuer Supervulkan entdeckt.
Jetzt das Erdbeben vor Sumatra, auch von gewaltiger Stärke!
Der Ätna, Europas grösster Vulkan, ist aktiv geworden, schon 6 mal in diesem Jahr!!
Die Sonnenflecken verhalten sich ungewöhnlich!!!
In Japan gab es erst vor ein paar Tagen wieder ein Beben, fast gleichzeitig auch eines in Mexiko!
Doch das ist nicht alles: In der letzten Woche zeigten 13 Vulkane Änderungen in ihrer Aktivität und bei 4 Vulkanen wurden neue, ungewöhnliche Aktivitäten festgestellt!

Gewiss handelt es sich hier um GAGA (garantiert anthropogene geologische Aktivität).

Schuld ist natürlich niemand anderes als die Erdölkapitalisten, die rücksichtslos auf der Suche nach dem schnellen Dollar in Gäas Haut herumbohren — jetzt kommt noch das Fracking hinzu —, bis diese allergisch mit Schüttelfrost (Erdbeben) und Ausschlag (Eruptionen) reagiert. Mit Menschen- und Ziegenopfern ist es nicht getan: nur ein sofortiger Stopp aller Grabungs- und Bohrungstätigkeit kann helfen.
Als Übergangsmaßnahme schlage ich einstweilen einen Handel mit Erdzertifikaten vor, um die industrielle Penetration der Erdkruste künstlich zu verteuern und so einzuregeln.

Quellen

[1] Munich Re Rückversicherung 3. März 2015, Pressemitteilung: Risiken durch anhaltende Extremwetterlagen steigen – „Topics GEO“ analysiert Naturkatastrophen 2014

https://www.munichre.com/de/media-relations/publications/press-releases/2015/2015-03-03-press-release/index.html

[2] Munich Re, Publikation TOPICS CEO: Naturkatastrophen 2014 Analysen, Bewertungen, Positionen Ausgabe 2015

[3] EIKE 13.01.2016: Munich Re Presseinfo: Natur fordert mehr Opfer – Naturkatastrophen wie Erdbeben, Überschwemmungen und Hitzewellen haben 2015 deutlich mehr Menschenleben gekostet als im Vorjahr

http://www.eike-klima-energie.eu/climategate-anzeige/munich-re-presseinfo-natur-fordert-mehr-opfer-naturkatastrophen-wie-erdbeben-ueberschwemmungen-und-hitzewellen-haben-2015-deutlich-mehr-menschenleben-gekostet-als-im-vorjahr/

[4] Munich RE, NatCatSERVICE Januar 2015 Foliensatz: Wetterbedingte Schadenereignisse weltweit 1980 – 2014, Gesamtschäden und versicherte Schäden

[5] Swiss Re Zürich: Sigma explorer

http://www.sigma-explorer.com/

[6] EIKE 01.04.2016: PIK-Alarmmeldung: „Meeresspiegelanstieg: Zu groß zum Wegpumpen“, er könnte bis 2100 um 1,3 m steigen

http://www.eike-klima-energie.eu/news-cache/pik-alarmmeldung-meeresspiegelanstieg-zu-gross-zum-wegpumpen-er-koennte-bis-2100-um-13-m-steigen/

[7] EIKE, 26.04.2016: Systematischer Fehler bei Klimamessungen: Die Aufzeichnung der Lufttemperatur an der Erdoberfläche

http://www.eike-klima-energie.eu/klima-anzeige/systematischer-fehler-bei-klimamessungen-die-aufzeichnung-der-lufttemperatur-an-der-erdoberflaeche/

[8] EIKE 07.02.2016: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel

http://www.eike-klima-energie.eu/news-cache/der-himmel-faellt-uns-auf-den-kopf-und-ohne-die-glaskugel-im-computer-wuerden-wir-es-nie-erfahren/

[9] EIKE 10.04.2016: Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?“

http://www.eike-klima-energie.eu/news-cache/nachgefragt-br-programm-1432016-sendung-jetzt-mal-ehrlich-verstrahltes-bayern-wie-viel-wahrheit-ist-uns-zumutbar/

[10] EIKE 10.04.2016 : Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?“

http://www.eike-klima-energie.eu/news-cache/nachgefragt-br-programm-1432016-sendung-jetzt-mal-ehrlich-verstrahltes-bayern-wie-viel-wahrheit-ist-uns-zumutbar/

[11] EIKE 28.07.2015: 5. Juli 2015, der bisher heißeste Tag Deutschlands?

http://www.eike-klima-energie.eu/klima-anzeige/5-juli-2015-der-bisher-heisseste-tag-deutschlands/

[12] Umweltbundesamt: Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel, Bericht der Interministeriellen Arbeitsgruppe Anpassungsstrategie der Bundesregierung

[13] kaltesonne, 21. Mai 2016 : ARD-Doku “Im Land der Lügen – Wie uns Politik und Wirtschaft mit Zahlen manipulieren”, Teil Journalistenworkshop “Klimawandel in Norddeutschland”

http://www.kaltesonne.de/ard-doku-im-land-der-lugen-wie-uns-politik-und-wirtschaft-mit-zahlen-manipulieren/

[14] EIKE, 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

http://www.eike-klima-energie.eu/news-cache/die-bayerische-umweltministerin-frau-scharf-extremwetter-extrem-hochwasser-und-die-unberechenbarkeit-des-wetters-nehmen-zu-doch-stimmt-das-wirklich/

[15] EIKE 29.10.2015 :Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis

http://www.eike-klima-energie.eu/news-cache/kann-man-den-klimawandel-in-deutschland-wirklich-taeglich-spueren-eine-suche-mit-ueberraschendem-ergebnis/

[16] EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

http://www.eike-klima-energie.eu/news-cache/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-3-die-marshall-inselgruppe-kein-beispiel-fuer-einen-untergang/

[17] The European, 16.12.2015: Der Mythos vom Gleichgewicht der Natur

http://www.theeuropean.de/gerd-gantefoer/10602-klimaerwaermung-im-diskurs

[18] EIKE 26.03.2016: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell

http://www.eike-klima-energie.eu/news-cache/rekonstruierte-temperaturverlaeufe-der-vergangenen-zwei-jahrtausende-eine-literatursichtung-von-1990-bis-ganz-aktuell/

[19] böhmanwaltskanzlei: Äußerungs- / Presserecht Prüfung der Quelle

https://www.boehmanwaltskanzlei.de/kompetenzen/medienrecht/presserecht/persoenlichkeitsrechtschutz/schranken-persoenlichkeitsrechtsschutz/journalistische-sorgfaltspflichten/777-pruefung-der-quelle

[20] EIKE 27.03.2016 : Nachgesehen: Anzahl Tornadoopfer in den USA fast auf dem niedrigsten Stand seit Beginn der Zählung um 1875

http://www.eike-klima-energie.eu/news-cache/nachgesehen-anzahl-tornadoopfer-in-den-usa-fast-auf-dem-niedrigsten-stand-seit-beginn-der-zaehlung-um-1875/




Offshore Windparks und Tourismus – eine Studie

CEnREP [Center for Environmental and Resource Economic Policy, der North Carolina State University in Raleigh] – Director, Laura Taylor, und Koautoren Sanja Lutzeyer und Dan Phaneuf, wollten diese Frage zu erforschen und um zu verstehen, wie ein großer Offshore-Windpark sich auf den Küstentourismus auswirken könnte. Insbesondere waren die Forscher daran interessiert, wie Familien, die Ferienhäuser entlang der North Carolina Strände mieten, auf einen am Strand mit großen, sichtbaren Windpark in der Nähe Ihrer Unterkunft reagieren würden.

Um das herauszufinden, befragten Taylor und Koautoren Personen, die gerade ein Ferienobjekt entlang der N. C. Küste gemietet hatten. Im Rahmen der Umfrage wurden die Teilnehmer gefragt, ob sie ihre Urlaubsunterkunft wieder mieten würden, wenn der Blick über den Ozean nur inklusive Windkraftanlagen zu haben wäre. Den Befragten wurden digitale Fotomontagen gezeigt, die entweder 64, 100 oder 144 Windkraftanlagen in 5, 8, 12, oder 18 Meilen entfernt auf dem Meer zeigen (Beispiele unten).

Die Ergebnisse waren überraschend.

Achtzig Prozent der Befragten würden entweder nicht zum gleichen Urlaubsort zurückkommen, wenn dort Windanlagen Offshore gebaut werden, oder sie verlangen so große Preisnachlässe, das die Vermietung unrealistisch wird.

"Wir waren etwas überrascht über die starke Abneigung von Windanlagen bei ihren Ferienunterkünften, vor allem da die große Mehrheit der Befragten angaben, dass sie die Windenergieentwicklung unterstützen", sagte Taylor. Speziell, da 65% der Befragten der Meinung waren, dass die Offshore-Windenergie nach Abschluss der Umfrage in North Carolina‘s Küstengebiet gefördert werden sollte, während nur 14% meinten, es sollte nicht gemacht werden. Die restlichen 21% waren sich nicht sicher oder hatten keine Meinung.

Eine positive Geschichte, vom Standpunkt der Windenergieentwicklung aus ist, dass zwanzig Prozent der Befragten sagten, sie wären bereit, ein Haus an der gleichen Stelle zu mieten, ohne jede Änderung im Preis, wenn die Anlagen weiter als 8 Meilen von der Küste weg wären. "In diesem Fall, auch wenn einige Mieter den Markt verlassen können, würden neue mit Vorlieben wie diese Gruppe ihre Plätze füllen, sollten die Mieten unverändert bleiben ", sagte Taylor. Wenn jedoch 144 Windanlagen 5 Meilen vom Ufer platziert sind, würde diese gleiche Gruppe einen Nachlass von fünf Prozent im Preis fordern und hier wieder ein Ferienhaus zu mieten.

"Windenergie schafft globale öffentliche Vorteile durch den Ausgleich von kohlenstoffintensiven Energiequellen", sagt Taylor, aber die Studie unterstreicht, dass diese Vorteile mit lokalen [Zusatz-] Kosten kommen. Die Kosten für die lokale Tourismus-Wirtschaft werden von der Nähe der Windanlagen zur Küste abhängen. Für Märkte, die sich auf Wochenmiete von Urlaubs Immobilien in der Hochsaison verlassen, sind diese Kosten nicht trivial, wenn großflächige Windparks so nah wie fünf Meilen vom Ufer platziert werden. "Es ist wichtig, sich über die Vor- und Nachteile mit lokalen Kommunen frühzeitig in einer offenen Weise zu verständigen. Wir hoffen, dass unsere Studie hilft, Licht auf mögliche Optionen zu werfen, die für beide von Nutzen sind – sowohl für Windenergie -Entwickler als auch für Küstengemeinden, deren wirtschaftliche Lebensfähigkeit vom Tourismus abhängt".

Beispielbilder aus der Umfrage: Die Bilder wurden am Strand bei Nags Head, NC aufgenommen und digital mit 144 Windenergieanlagen verändert.

 144Windanlagen in 5 Meilen Entfernung

144 Windanlagen in 12 Meilen Entfernung

Erschienen auf Webseite der North Carolina State University in Raleigh, Gruppe Energy Research am 3. April 2016

Übersetzt durch Andreas Demmig

https://cenrep.ncsu.edu/2016/04/03/offshore-wind-tourism/

Studie:

The Amenity Costs of Offshore Wind Farms: Evidence from a Choice Experiment

[Die Kosten der Attraktivität von Offshore Windanlagen: Beweise aus einem Auswahl Experiment]

Sanja Lutzeyer, Daniel Phaneuf, Laura Taylor

https://cenrep.ncsu.edu/publications/amenity-costs-offshore-wind/

Abstrakt:

Wir führten Auswahl-Experimente mit Personen durch, die vor kurzem eine Ferienimmobilie entlang der North Carolina Küste gemietet hatten, um die Auswirkungen eines großflächigen Windparks  auf ihre Mietentscheidungen zu beurteilen. Visualisierungen wurden den Befragten präsentiert, die sowohl die Anzahl der Windanlagen variierten als auch ihre Nähe zum Ufer. Die Ergebnisse zeigen, dass es kein Szenario gibt, für das die Befragten bereit wären mehr zu zahlen, um ein Haus mit Blick auf die Windanlagen zu mieten, verglichen mit keinen Windanlagen in Sicht. Des Weiteren gibt es einen wesentlicher Teil der befragten Bevölkerung, die ihre Urlaubsziele ändern würden, wenn Windanlagen in der Nähe des Strandes platziert werden. Die Mietnachlässe um das Segment der befragten Bevölkerung zu gewinnen, die noch am ehesten für sichtbare Windparks zugänglich sind, zeigen, dass Mietwert Verluste von fünf Prozent oder mehr möglich sind, wenn ein großflächiger Windpark  innerhalb von acht Meilen von der Küste platziert wird.

Zu Ihrer Information, hier weitere Details der Studie auf Seite 6

[Auswahl durch den Übersetzer]

Wir fanden mehrere auffällige Ergebnisse. Im Allgemeinen haben die Mieter starke Präferenzen für einen Blick auf das Meer an ihren Ferienhaus, der keine sichtbaren Windkraftanlagen enthält, trotz der allgemeinen Unterstützung für die Windenergie unter den befragten Personen. Es gibt kein Bevölkerungssegment, das mehr zu zahlen bereit wäre, für ein Haus mit Windanlagen im Blick. Am besten zeigen die Ergebnisse, dass einige der Befragten, so lange keinen Rabatt fordern würden, ein Haus mit Windanlagen im Blick zu mieten, da die Windanlagen weiter als 8 Meilen von der Küste entfernt sind (20 Prozent der Befragten). Bei anderen Befragten würden auch große Rabatte nicht ausreichend sein, um sie zu veranlassen, eine Aussicht zu akzeptieren, die in der Nähe oder weit entfernte Windanlagen enthält. Insbesondere fanden wir, dass 54 Prozent der bestehenden Kunden ihren Urlaubort ändern würde, wenn Windenergieanlagen Offshore gebaut werden. Schließlich in einem verwandten Zusammenhang, berichteten weniger als die Hälfte der Befragten, dass sie 30 Minuten fahren würden, einen Offshore-Windpark zu sehen. Dies zeigt, dass Windparks nicht geeignet sind, … ein Anziehungspunkt für Tagesausflüge … zu sein.

Diese Ergebnisse haben mehrere politische Implikationen. Erstens fanden wir, dass die Platzierung von Windparks weiter auf das Meer hinaus, um ihre negativen visuellen Auswirkungen zu beseitigen, sehr gut eine Kosten-Nutzen-Prüfung besteht. Wir finden, dass die Gewinne es Gemeinwohls von Windparks näher als 3 Meilen gegenüber [dem Aufbau] weiter von der Küste weg (von 5 bis 8 Meilen) die erhöhten Kapitalkosten, dies für ein Gebiet mit nur 1.000 Ferienhäusern aufwiegen (200 direkt am Meer, 800 Nicht -Meeresblick). Da keine aktuellen Angebote in unserem Untersuchungsgebiet vorhanden sind, sind unsere Kostenschätzungen spekulativ und wir können nur die Kapitalkosten erhöhter Verkabelung prüfen, die Kosten zum Bau der einzelnen Anlagen hielten wir konstant. Zweitens finden wir, dass die negativen Auswirkungen von Windparks auf die Nähe zum Ufer zurückzuführen sind und nicht die Anzahl der Windanlagen. Mit Ausnahme von Abständen von 5 Meilen oder weniger, zeigen Bilder mit mehr als das Doppelte der Anzahl der Anlagen keine statistisch signifikanten Veränderungen der Nachfrage. Diese Tatsache, mit unserer Erkenntnis kombiniert, die negativen Auswirkungen jeder Anlagengröße, zu verringern, und schnell einmal mehr als 8 Meilen von der Küste platziert, setzt voraus, dass Windpark-Entwickler die Vorteile von Aufstellungen mit großen Mengen nehmen und die Nachteile vermeiden.

***




Hilft der „Daddy Warbuck“* der Grünen dem Planeten oder sich selbst?

Er benutzt seine Brieftasche, um zu versuchen Kandidaten auszuwählen, die politische und Energiemaßnahmen vorantreiben, die in seinem Sinne sind. Und jener Plan ist „grün“. Wie ich früher schon einmal berichtet habe, gab er fast 75 Millionen Dollar bei den Midterm-Wahlen in den USA aus und beabsichtigt, für den Wahlzyklus 2016 noch mehr Geld locker zu machen. Steyer – viele Jahre lang ein Spender für die Demokraten – war 2008 Unterstützer für Hillary Clinton. Nach dem Scheitern ihrer Kampagne entwickelte er sich zu einer Stütze von Obama im Jahre 2008 und dann wieder 2012. Außerdem spendet er der Clinton Foundation, und im vorigen Jahr betätigte er sich in seinem Haus in San Franciso als teurer Fundraiser für Clintons diesjährige Präsidentschaftskandidatur.

Zusammen mit der Forscherin Christine Lakatos, deren Green Corruption File jüngst auf der Michael-Savage-Show gepriesen worden ist, habe ich wiederholt auf Steyers Beteiligungen hingewiesen mittels unserer Recherchen zu Präsident Obamas Vetternwirtschafts-Skandal bzgl. grüner Energie [Green-Energy Crony-Corruption Scandal]. Immer wenn ein gut gefüllter Geldtopf für grüne Energie zur Verfügung steht, so hat Lakatos herausgefunden, scheint Steyers Name damit in Verbindung zu stehen. Einige der bemerkenswertesten enthalten unter Anderem: Sungevity, ElectraTerm und Project Frog – alle finanziert durch Greener-Capital (jetzt EFW-Capital). Hierbei handelt es sich um eine Venture-Firma die in erneuerbare Energie investiert mit Steyer als bekanntem finanziellen Garanten.

Steyer behauptet, hinsichtlich seines politischen Aktivismus‘ „keinerlei Eigeninteresse“ zu haben. Die Los Angeles Times zitiert ihn mit den Worten: „Wir tun etwas, von dem wir glauben, dass es für jeden von Nutzen ist“. Und trotzdem, wie die Kolumnistin Loren Steffy von Forbes schreibt, gibt er sein Vermögen für „kurzfristige politische Ziele“ aus anstatt für Forschung und Entwicklung, die „darauf abzielen, Erneuerbare ökonomisch lebensfähig zu machen“.

Während er vorgibt, dass das, was er tut, für jeden von Nutzen ist, sind die von ihm befeuerten politischen Maßnahmen von Nutzen für ihn – nicht für „jeden“. Die Washington Post bezeichnete ihn „als den Mann, dem Obama sein Ohr leiht, wenn es um Energie und Klimawandel geht“. In Kalifornien, wo er ein großzügiger Unterstützer grüner Energiepolitik war, half er beim Durchwinken des Senate Bill 350 [ein Gesetz], das verlangt, dass bis zum Jahr 2030 50% des Energiebedarfs durch Erneuerbare gedeckt werden muss. Gegenwärtig liegt die verlangte Quote bis zum Jahr 2020 bei 33 Prozent – ein Ziel, bei dem dem Vernehmen nach die drei Investoren gehörenden Versorger „auf gutem Wege sind, dieses Ziel zu erreichen“. Es ist keine Überraschung, dass man in Kalifornien derzeit mit die höchsten Strompreise der USA zahlt. Einer vorige Woche veröffentlichten Analyse zufolge liegen die Energiepreise in allen Staaten, die eine Politik der Unterstützung grüner Energie verfolgen, deutlich höher als in anderen Staaten. Im Oktober gab Steyer eine sechsstellige Summe Geldes aus (hier) für eine Werbekampagne, in der der nächste Präsident aufgefordert wird, eine nationale Energiepolitik ähnlich der in Kalifornien zu übernehmen: „50 Prozent sauberer Energiemix in den USA bis zum Jahr 2030“ — was natürlich die Strompreise für jeden von uns in die Höhe treiben wird.

Mit Steyers zahlreichen Investments in grüne Energie sind diese die Preise steigen lassenden Pläne gut für ihn, aber schlecht für jedermann sonst – vor allem für jene, die sich dies am wenigsten leisten können. Und es sind die weniger Reichen, auf die er abzielt mit räuberischen Anleihen für Solarpaneele der Firma Kilowatt Financial LLC (KWF) – ein Unternehmen, das ihn als „Manager“ listet. KWF schloss sich kürzlich mit Clean Power Finance zusammen und wurde zu „Spruce“. Dem Wall Street Journal zufolge erlaubt es die Finanzierungs-Struktur den „Hausbesitzern, Solarsysteme zu erhalten ohne Vorlaufkosten und dann monatlich für den Verbrauch des erzeugten Stromes zu zahlen. Für die Hausbesitzer rechnet sich das am Ende mit Einsparungen beim gesamt-Stromverbrauch, während finanzierende Unternehmen 20 Jahre lang stetigen Umsatz machen“. Das WSJ weist darauf hin, dass die Finanzierung „auch Leuten angeboten werden kann, die anderenfalls gar nicht offen dafür sind“.

Nach dem KWF-Modell kommen vertragliche Zahlungen von Hausbesitzern, die „einen stetigen und verlässlichen Einkommens-Strom erzeugen, von dem viel den Venture-Investoren gehört einschließlich Kleiner Perkins“. Über das Arrangement sagte der Chef von KWF und Leitende Direktor Daniel Pillmer: „Kleiner Perkins wird sehr viel Geld verdienen“. Offensichtlich soll dieses Geld durch Verkauf der Anleihen hereinkommen, die dann an der Wall Street verbrieft werden – sehr ähnlich der „Subprime“-Hypotheken-Krise, bei der Menschen Anleihen angeboten wurden, die nicht als „traditionelle Kreditnehmer“ qualifiziert waren. Auf der KWF-Website wird geprahlt: „Wir unterstützen Finanzierungen für nahezu jeden Verbraucher und bieten den Händlern Wege an, am Preisbildungs-Prozess teilzuhaben, um sogar noch mehr Genehmigungen zu bekommen und sogar noch niedrigere Verbrauchsraten zu erreichen“. KWF bietet „sofortige Genehmigungen [Instant Approvals] an, sogar für Verbraucher mit geringerer Kreditwürdigkeit“. Bei dieser Art von Finanzierungsplänen wird eine niedrige Rate normalerweise zu Anfang angeboten. Dann steigt sie rückwirkend, falls nicht alle Klauseln der Anleihe erfüllt werden.

Diesem Modell zufolge gehören den Hausbesitzern die Solarsysteme eigentlich nicht – was bedeutet, dass die KWF die Vorteile der regierungsamtlichen Steueranreize einstreicht wie etwa den „Investment Tax Credit“ in Höhe von 30%, eingerichtet zum Vorteil für den Besitzer des Solarsystems.

Es sind Praktiken wie diese, die den Zorn des Kongresses erregt haben. Viele Kongressabgeordnete der Demokraten sandten einen Brief an das Consumer Financial Protection Bureau [eine Art Verbraucherschutz-Büro. Anm. d. Übers.]. Darin warnten sie vor den Gemeinsamkeiten zwischen der Solarindustrie und dem, was zu der Subprime-Hypotheken-Krise führte: „leicht zu erfüllende Anfangsfinanzierungen, zunehmende Nachfrage und eine rapide expandierende Industrie“. Diese Faktoren bergen ein hohes Risikopotential, dass ultimativ sehr schädlich sein könnte für die Verbraucher. Genauso sandten auch die Republikaner einen Brief an die Federal Trade Commission [eine Handelskommission. Anm. d. Übers.], in dem darauf hingewiesen wurde, dass Druck seitens der Wall Street Unternehmen dazu bringt, „potentiell irreführende Verkaufstaktiken“ anzuwenden – was nicht gerade danach klingt, „von Nutzen für jeden“ zu sein.

Und doch sind es diese speziellen Arten von Finanzprodukten, angetrieben von Steyers Kilowatt Financial, von der Greentech Media berichtet, dass sie sich „gut machen“.

Während Steyer vorgibt, jedem ein „faires Angebot“ machen zu wollen, treibt seine Eigennutz-Politik die Kosten für jedermann nach oben und bietet Wall Street einen Handschlag an. Steyer und seine Milliardärs-Kumpane gewinnen, „jedermann“ sonst verliert. So funktioniert der Vetternwirtschafts-Skandal bzgl. grüner Energie: die Politischen Kumpane profitieren, während die Steuerzahler geschröpft werden.

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc. and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column

Link: http://oilpro.com/post/24480/greens-daddy-warbucks-helping-planet-himself

Übersetzt von Chris Frey EIKE

Ist das nicht bei uns ähnlich? Anm. d. Übers.




Korrelation zwischen globaler Bevölkerung und globalem CO2

Unten stehende Graphik zeigt das CO2-Niveau als eine Funktion der Weltbevölkerung während des Zeitraumes 1960 bis 2015. Man beachte, dass obwohl jeder Datenpunkt ein individuelles Jahr in fortlaufender Reihenfolge repräsentiert, die Zeit nicht explizit in dieser Graphik gezeigt wird, die nichts weiter zeigt als wie das CO2-Niveau mit der Gesamt-Weltbevölkerung in Beziehung steht.

Schon durch bloßen Augenschein wird ziemlich offensichtlich, dass CO2 und Bevölkerung eng korreliert sind. Um dies in analytischerer Weise zu zeigen, können wir eine Trendlinie überlagern, die einfach eine zu den Daten passende mathematische Kurve ist. Nach ein wenig Herumprobieren kam heraus, dass eine Trendlinie, die ein Polynom dritter Ordnung enthält, sehr gut zu den Daten passt. Statistisch ausgedrückt ist der R²-Wert für diese Kurve größer als 0,999, was zeigt, dass die Korrelation mit den Daten eine Genauigkeit über 99,9% erreicht.

Ein Vorteil einer Trendlinie ist, dass wir sie verlängern können, um vorherzusagen, was die Zukunft bereit hält, so wie es in der zweiten Graphik unten gemacht worden ist. Beide Achsen in dieser Kurve wurden hierzu erweitert.

Natürlich hätte man die gleiche Graphik auch mit dem CO2-Niveau auf der horizontalen und der Bevölkerung auf der vertikalen Achse abbilden können, so dass die Bevölkerung als abhängige und CO2 als die unabhängige Variable erscheint. Es würde aber zwischen beiden die gleiche Korrelation bestehen.

Die sich jetzt erhebende Frage lautet, ob die Bevölkerung das CO2-Niveau treibt oder das CO2 die Bevölkerung. Es gibt vier Möglichkeiten, diese Frage zu beantworten:

1. Es gibt keinen Zusammenhang zwischen beidem, der offensichtliche Zusammenhang ist nichts als ein Zufall. Möglich, aber sehr unwahrscheinlich. Diese Möglichkeit kann man wohl ausschließen.

2. Bevölkerung verursacht CO2. Diese ,offensichtliche‘ Erklärung würden wohl die meisten Menschen finden. Je mehr Menschen es auf unserem Planeten gibt, umso mehr CO2-erzeugende Aktivitäten wird es geben wie Stromerzeugung, industrielle Aktivität, Autos, Kochfeuer und so weiter.

3. CO2 verursacht Bevölkerung. Sehr viel Bevölkerungszuwachs wird es in absehbarer Zukunft in Afrika südlich der Sahara geben. Das Bevölkerungswachstum in diesen Gebieten hängt zum großen Teil ab von der Versorgung mit Nahrungsmitteln, und wie wir wissen, steigt die Ernteausbeute mit einem steigenden CO2-Gehalt. Je mehr Nahrungsmittel es gibt, umso mehr Kinder werden geschlechtsreif.

4. Die Verbindung zwischen CO2 und Bevölkerung resultiert aus einer noch nicht spezifizierten Kombination der Punkte 2 und 3.

Meiner persönlichen Meinung nach, die nichts weiter als eine nicht gestützte Vermutung ist, ist Punkt 4 die wahrscheinlichste Antwort.

Welche Schlussfolgerungen kann man daraus ziehen? Nun, zunächst einmal die, dass keine einzige der Maßnahmen der industrialisierten Länder zur Reduktion der CO2-Emissionen irgendeinen merklichen Effekt hat. Und es scheint auch wenig wahrscheinlich, dass diese Maßnahmen in absehbarer Zukunft irgendwelche signifikanten Auswirkungen zeitigen werden.

Zweitens, die gegenwärtigen Bevölkerungs-Projektionen der UN zeigen, dass bis zum Jahr 2038 9 Milliarden Menschen und bis zum Jahr 2056 10 Milliarden Menschen auf der Erde leben werden (hier). Unter der Annahme, dass die Beziehung zwischen Bevölkerung und CO2 auch dann noch vorhanden ist, können wir bis zum Jahr 2038 ein CO2-Niveau von fast 460 ppm und bis zum Jahr 2056 von 500 ppm prophezeien.

Bevölkerungswachstum ist eine Größe, die ziemlich gut ein oder zwei Dekaden im Voraus prophezeit werden kann. Während die Extrapolation einer Kurve zum Zweck von Prophezeiungen immer mit Gefahren behaftet ist, bin ich auf der Grundlage der Daten ziemlich zuversichtlich, dass diese Relation noch ein paar Jahre lang bestehen wird. Langfristig jedoch ist jede Vermutung von anderen so gut wie meine eigene, aber ich denke, dass wir gute Gründe haben zu vermuten, dass wir zur Mitte dieses Jahrhunderts ein CO2-Niveau von 450 bis 500 ppm haben werden. Ob die Welt dann in einer Rauchwolke verschwindet oder in ein neues goldenes Zeitalter beispielloser Ernten eintritt, bleibt abzuwarten.

Roger Graves is a physicist and mathematician who, much to his chagrin, is not associated with big oil, big coal, or big anything else.

Link: https://wattsupwiththat.com/2016/05/17/the-correlation-between-global-population-and-global-co2/

Übersetzt von Chris Frey EIKE




Egypt Air Absturz: Pilot warnt vor Feuergefahr – Li-Ionen-Batterien in Flugzeugen

Im Rahmen dieses Gesprächs wies Cox darauf hin, dass die ihm derzeit bekannten Fakten verwirrend (confusing) seien, auch wenn er hierfür noch keine offizielle Bestätigung vorliegen habe. So habe es zunächst drei Minuten Alarm gegeben, dann vier weitere Minuten Flug mit laufenden Triebwerken, gefolgt von einem zweiminütigen Absturz. „Für ein Feuer wäre dies ein sehr kurzer Zeitraum, für eine Bombe dagegen ein sehr langer“, so Cox. Bisher gebe es noch keine klare Antwort auf die Frage nach den Ursachen. 

Allerdings verwies er auf einige ernüchternde Statistiken. So gebe es Jahr für Jahr zwischen 900 und 1.200 rauchbezogene Vorfälle in US-Flugzeugen: Weltweit gesehen könne man diese Zahlen in etwa verdoppeln. Die meisten endeten gefahrlos, doch habe es auch Abstürze durch Feuer gegeben. Für den Anstieg gebe es zwei Ursachen: Mehr Flüge – und eine steigende Zahl von Passagieren, die Lithium-Ionen-Batterien mit an Bord nähmen. Selbst qualitativ hochwertige Batterien, die eine Ausfallrate von vielleicht 1/10 Mio. hätten, könnten versehentlich beschädigt werden und Feuer auslösen. Und er schätzt, dass Passagiere jährlich 3,5 Milliarden Batterien auf Flügen mitnähmen.

Weiterlesen: http://www.bbc.com/news/world-middle-east-36349096

Fred F. Mueller