1

Emails zeigen die Verzweiflung der US Umweltbehörde EPA über die Klimaagenda

Dementsprechend fordert das Umweltamt, den Schwerpunkt auf Atemwegserkrankungen zu verlagern, als Rechtfertigung für viele Amerikaner, die sonst „viele unserer ordnungspolitischen Maßnahmen ablehnen“ würden.

Aktuell von Anthony Watts auf der beliebten Blog-Website, "Watts Up With That" veröffentlicht, wurde das Memo auf Basis des Informationsfreiheitsgesetz von einem Rechtsanwalt und Chris Horner angefordert, letztes Leitendes Mitglied beim Competitive Enterprise Institute. [CEI, s.u.]
Die Kopie war an "Richard Windsor" gerichtet – ein Alias von EPA Direktor Lisa Jackson für ihr geheimes E-Mail-Konto – welches sie bei der Ermittlung, als Bedarf für persönlichen, inoffiziellen Gebrauch verteidigt hat. Der Titel "Strategische Kommunikation – Gespräch", entlarvt es jedoch eindeutig als Finte.

Quelle: BBC; Klimawandel Umfrage, von 2010

Welche Aussage trifft es am nächsten was Sie denken:

Es ist eine Tatsache, dass der Klimawandel Mensch-gemacht ist:

Zustimmung :

Nov. 2009 41%

Jetzt 2010 26%

Im Memo, das nur wenige Monate nach Amtsantritt von Präsident Obama in Umlauf kam, heißt es: "Die meisten Amerikaner werden nie eine Polkappe sehen, noch haben sie jemals die Chance, einen Eisbären in seinem natürlichen Lebensraum zu erleben. Daher ist es leicht, schwerwiegende Folgen von der Wahrhaftigkeit eines Problems zu lösen. Leider ist Klimawandel in der Zusammenfassung ein zunehmend – und konsequent – nicht überzeugendes Argument ".

Dann schwenkt der Inhalt des Mails vollständig von CO2 Klima-basierten Anti-Fossil Argumenten ab zur ungerechtfertigten Regulierung auf der Grundlage der Partikelemissionen. Es geht weiter mit: „Jedoch, wenn wir anstatt die Polarkappen zum Problem zu machen auf Atemwegserkrankungen in der Nachbarschaft ändern, können wir möglicherweise dieses Thema vielen Amerikanern nahebringen.“

Wie ist denn „dieses Thema“ das sie nicht mit „alles über Polare Eiskappen“ bringen wollen, mit „Atemwegserkrankungen“ verbunden? Es ist offensichtlich das „Gesundheitsargument“ für den Krieg gegen Kohle und andere fossile Elemente, wobei das Memo hinzufügt: „In diesem Jahr wird es viele Gelegenheiten geben, um klimabedingte Auswirkungen zu diskutieren. Dabei müssen wir die menschliche Gesundheit als Argument in den Mittelpunkt stellen.“

Das verschmelzen dieser Assoziation in der öffentlichen Meinung zu den Sorgen über die globale Erwärmung, die Sicherheit von Wasser, das sie trinken und die Luft, die sie atmen – heißt es in der Memo weiter: "Wir müssen damit beginnen, einen ursächlichen Zusammenhang zwischen den Sorgen der Amerikaner und unserer proaktiven Mission herzustellen. " Mit dieser " Mission" ist es der EPA möglich, weitere Regulierungen und Einschränkungen mit jedem und allen [Mittel-n] voranzubringen.

Die Strategie betont die Notwendigkeit, auch die „Außenseiter“ zu erreichen. Das bedeutet, das das EPA nicht nur „weiterhin eine konstante Versorgung des wichtigen Kaders der Reporter sicherstellt“, sondern auch „einen Block von Journalisten, die nicht in die typische Pressegalerie des EPA fallen würde" verfolgt. Speziell erwähnt werden die Presse der ethnischen Minderheiten [Afro-Amerikaner, Spanier, Asiaten und eingeborene [indianische] Amerikaner, Frauen-orientierten Presse, Jugend Presse, Lokalradio, Blogger und die wichtigsten Kolumnisten.

Mit Bezug auf das Engagement der EPA Sympathisanten, die sich bereits um den Schutz der "Karibus [amerikanische Rentiere], Eisbären und Seeotter" sorgen, wird festgestellt, dass [die neue Strategie] "offensichtlich nicht unser Tagesgeschäft widerspiegelt". Die neue Strategie ist es, die EPA "Mission", auf „gleiche Gerechtigkeit“ (equal justice) umzufirmieren. „Es ist für uns wichtig, diese Wahrnehmung zu ändern, vor allem bei denen, die maßgeblich durch „gleiche Gerechtigkeit“ Fragen betroffen sind, ansonsten aber" konfessionslos ". Mit "Konfessionslosen", wird im Memo verdeutlicht, „dass sie nicht einer Gruppe oder Aktivisten angehören, die sich selbst als ,gleiche Gerechtigkeit‘ oder Umweltschützer identifizieren würden."

Im Gespräch mit Anrufern zu Tagesnachrichten bemerkte Chris Horner, dass das Memo der EPA "atemberaubend unaufrichtiges Verhalten" aus dem Versagen ihrer globalen Erwärmungskampagne widerspiegelt, um das Thema zu einer Erkrankung der Atemwege zu machen. Er sagte: "Es zeigt auch die Überzeugung, dass, wenn sie ,saubere Luft‘ und „Kinder" schreien, dieses genügt um ihren Willen für sich, für die Medien und für Grüne Gruppen zu bekommen."

Soweit läuft alles wie geplant. Wir können der EPA danken für die Verschmelzung von CO2 als die Gesundheit beeinflussender „Schadstoff" und für im Jahr 2012 erlassene allererste Vorschriften über Treibhausgas-Emissionen, mit dem neue Clean-Power-Plan [saubere Energie] der Obama-Regierung, welcher drakonische CO2-Beschränkungen auf bestehende Kohlekraftwerke zur Folge haben wird. Dieses hat weder etwas mit Reduzierung von Smog oder schädliches Asthma erregende Partikeln zu tun.

Auf der anderen Seite werden die öffentliche Gesundheit der amerikanischen Wirtschaft und die Budgets der privaten Haushalte stark belastet. Die US-Handelskammer schätzt, durch diese neuen EPA-Vorschriften werden Hunderte von Generatoren abgeschaltet, es kostet die US-Wirtschaft 2,3 Millionen Arbeitsplätze und bringt eine halbe Billion [englisch: Trillion] Verlust im Brutto-Inlands-Produkt in den nächsten 10 Jahren sowie Erhöhung der Verbraucherstromkosten um 289 Mrd. $ und Senkung des verfügbaren Haushaltseinkommen um 586 Mrd. $ im Jahr 2030. Diese Belastungen werden die Ärmsten unter uns am stärksten treffen. "Gleiche Chancen " seid verdammt.

Veröffentlicht bei CFACT, 2. Februar 2015

Link: http://www.cfact.org/2015/02/02/epa-email-shows-desperate-climate-change-agenda/

Übersetzt durch: Andreas Demmig für das EIKE

CEI: [Das CEI ist ein US-amerikanischer, politisch konservativer, libertärer Think Tank. Erklärte Ziele sind die Verbreitung der Prinzipien des Limited Government (d.h. der Einschränkung staatlicher Lenkung), des freien Marktes und der individuellen Freiheit. CEI ist zu den Klimaskeptikern zu zählen; Quelle Wikipedia]




Unsicherheits-Bandbreiten, Fehlerbalken und CIs

Die NYTimes sowie tausende anderer Nachrichtenportale haben sowohl lautstark proklamiert, dass 2014 „das wärmste Jahr jemals“ gewesen ist, aber auch die Klagen gegen diese Proklamationen. Einige, wie der Opinion Blog der NYTimes Dot Earth haben unverhohlen beides abgedeckt.

Dr. David Whitehouse hat über die GWPF in seinem Beitrag bei WUWT hier widersprochen. Sein Beitrag trägt den Titel [übersetzt] „UK Met.-Office: 2014 war NICHT das wärmste Jahr jemals wegen der ,Unsicherheits-Bandbreiten‘ der Daten“:

„Der HadCRUT4-Datensatz (zusammengestellt vom Met.-Office und der CRU an der University of East Anglia) zeigt, dass die Temperatur des vorigen Jahres um 0,56°C (±0,1°C*) über dem langzeitlichen Mittel lag (1961 bis 1990). Nominell platziert dies das Jahr 2014 zusammen mit dem Jahr 2010 auf Rekordniveau, aber die Unsicherheits-Bandbreiten bedeuten, dass es nicht möglich ist definitiv zu sagen, welches der vielen letzten Jahre das Wärmste war“. Und unten auf der Seite: „*0,1°C ist die 95%-Unsicherheits-Bandbreite“.

Der Essay von David Whitehouse enthielt u. A. das folgende Bild: die jährlichen Mittel nach HadCRUT4 mit Balken, die die Unsicherheits-Bandbreite von ±0,1°C repräsentieren:

Das Journal Nature verfolgte lange Zeit eine Politik, die darauf bestand, dass Graphiken mit Fehlerbalken das beschreiben, was die Fehlerbalken repräsentieren. Ich dachte, dass dies in diesem Falle gut wäre, um genau zu sehen, was das Met.-Office mit „Unsicherheits-Bandbreite“ meint.

In den FAQ sagt das Met.-Office:

„Es ist unmöglich, die globale mittlere Temperaturanomalie mit perfekter Genauigkeit zu berechnen, weil die zugrunde liegenden Daten Messfehler enthalten und weil die Messungen nicht den gesamten Globus abdecken. Allerdings ist es möglich, die Genauigkeit zu quantifizieren, mit der wir die globale Temperatur messen können, und das ist ein wichtiger Bestandteil bei der Erstellung des HadCRUT4-Datensatzes. Die Genauigkeit, mit der wir die globale mittlere Temperatur des Jahres 2010 messen können, liegt bei rund einem Zehntel Grad Celsius. Die Differenz zwischen den mittleren Schätzungen für die Jahre 1998 und 2010 liegt bei etwa einem Hundertstel Grad Celsius, was weit unterhalb der Genauigkeit liegt, mit dem beide Werte jeweils berechnet werden können. Dies bedeutet, dass wir nicht sicher wissen können – jedenfalls allein aufgrund dieser Information – welches Jahr das Wärmere war. Allerdings beträgt die Differenz zwischen den Jahren 2010 und 1989 etwa 4 Zehntel Grad Celsius, so dass wir mit viel Vertrauen sagen können, dass das Jahr 2010 wärmer ausgefallen ist als das Jahr 1989 oder tatsächlich irgendein Jahr vor 1996“. (Hervorhebung von mir).

Ich applaudiere dem Met.-Office zu seiner Offenheit und klaren Sprache in diesem einfachen Statement.

Und jetzt zu der Frage, die sich aus dieser Abbildung ergibt:

Diese Graphik wurde aus Daten erstellt, die direkt vom UK Met.-Office stammen, „unberührt von menschlichen Händen“ (keine Zahlen wurden händisch kopiert, umgeschrieben, gerundet oder anderweitig modifiziert). Ich habe die CRUTEM4-Daten vom Festland allein grau dargestellt und sie gerade noch sichtbar zum Vergleich stehen gelassen. Links zu den öffentlich zugänglichen Datensätzen werden sie in der Graphik gezeigt. Ich habe einen Text und zwei graphische Elemente hinzugefügt:

a. In hellblau die Unsicherheitsbalken für den Wert 2014, rückwärtig ausgedehnt auf den gesamten Zeitraum,

b. Ein hellrosa Band, die Breite der Unsicherheit für diese Größe in der Graphik auf eine Weise überlagert, um deren Maximalwerte abzudecken.

Und jetzt die Frage:

Was bedeutet diese Illustration wissenschaftlich?

Genauer: Falls die Zahlen in Ihren Fachbereich fallen würden – Ingenieurswesen, Medizin, Geologie, Chemie, Statistik, Mathematik, Physik – und das Ergebnis längerer Messreihen wären, was würde es Ihnen bedeuten, dass:

a. 11 der 18 Mittelwerte des jüngsten Mittelwertes 2014 innerhalb der Unsicherheits-Balken liegen?

b. alle außer drei Werten (1996, 1999), 2000) überlagert werden können mit einem Band von der Breite der Unsicherheits-Bandbreite für die gemessene Größe?

Es wäre schön, wenn es Antworten gäbe aus so vielen Forschungsbereichen wie möglich.

———————————————————————————————–

Bemerkungen des Autors zu diesem Artikel: Ich habe keine Meinung bzgl. bestimmter Interessen hierzu – und auch keine besondere Erfahrung. (Oh, ich habe eine Meinung, aber die ist nicht gut fundiert). Mich würden Meinungen von Personen mit Forschungserfahrungen in anderen Bereichen interessieren.

Dies ist keine Diskussion der Frage „war 2014 das wärmste Jahr?“ oder irgendetwas dergleichen. Einfache Wiederholungen zu den Glaubensartikeln von beiden Seiten der Globale-Erwärmungs-Kirche würden nichts Wesentliches zu dieser Diskussion beitragen und sollten anderswo gepostet werden.

Um mit Judith Curry zu sprechen: Dies ist ein technischer Beitrag – dazu gedacht, eine Diskussion zu erhalten über wissenschaftliche Methoden zur Erkennung dessen, was Unsicherheits-Bandbreiten, Fehlerbalken und CIs uns über die Forschungsergebnisse verraten können und verraten. Bitte die Kommentare auf diesen Bereich beschränken; vielen Dank.

Soweit dieser Artikel. Auf Bitte von Herrn Limburg werden hierzu abweichend von der üblichen Praxis auch noch ein paar Kommentare übersetzt. Fachlich berühren diese mich nur peripher, aber sie zeigen, wie man sachlich, konstruktiv und trotzdem kontrovers diskutieren kann. Die Hyperlinks hinter den Bezeichnungen der Kommentatoren wurden entfernt. – Anm. d. Übers.

Einige Kommentare zu diesem Artikel:

oz4caster

Ich glaube, dass sie zu vertrauensselig sind hinsichtlich einer Genauigkeit von 0,1°C für jüngste globale Temperaturanomalien. Mein Tipp wären mindestens 0,2°C bis 0,3°C bis zu 0,5°C während der letzten Jahre und möglicherweise bis zu 1,0°C in früheren Jahren in dem Datensatz. Ich habe den Verdacht, dass die größten Unsicherheitsquellen die sehr geringe räumliche Abdeckung, Repräsentativität der Messungen, Veränderungen der Messorte und „Homogenisierung“ sind, die die Unsicherheit eher vergrößern anstatt sie zu verringern. Der genaue Aufstellungsort ist kritisch für repräsentative Messungen, und das USCRN hilft, dieses Problem anzugehen, allerdings nur für einen sehr kleinen Teil des Globus‘.

Erwiderung hierzu:

george e. smith

Aus dem Artikel: „Der HadCRUT4-Datensatz (zusammengestellt vom Met.-Office und der CRU an der University of East Anglia) zeigt, dass die Temperatur des vorigen Jahres um 0,56°C (±0,1°C*) über dem langzeitlichen Mittel lag (1961 bis 1990)“

Nun, mit dieser Feststellung habe ich einige Probleme.

Zunächst: die Bezugsperiode 1961 bis 1990. Dies schließt bequemerweise jene Periode in den siebziger Jahren ein, als man die Klimakrise in Gestalt einer bevorstehenden Eiszeit kolportiert hat, zusammen mit abenteuerlichen Vorschlägen, Ruß auf dem arktischen Eis zu verstreuen, um die vermeintliche Eiszeit abzuwehren. Globale Hungersnöte wurden von genau der gleichen Bande von Kontrollfreaks vorhergesagt, die jetzt versucht, das globale Überkochen zu verhindern.

Außerdem liegt die Hälfte dieser Bezugsperiode vor der Satellitenära, die, glaube ich, etwa um das Jahr 1979 begann, was fast genau zusammenfällt mit der Ausbringung der ersten ozeanischen Messbojen, die in der Lage waren, simultan Messungen der Wassertemperatur an der Oberfläche (bis zu 1 m Tiefe) sowie Lufttemperaturen über der Oberfläche (bis zu 3 m) durchzuführen. 2001 zeigten diese Bojendaten (über etwa 20 Jahre), dass Wasser- und Lufttemperaturen nicht gleich und auch nicht korreliert waren. Warum sollte irgendjemand sich auch nur vorstellen, dass beides doch der Fall war?

Fazit: Ich glaube keinen „globalen“ Klimatemperaturen vor dem Jahr 1980. Und warum hört man mit dem Vergleich 25 Jahre vor heute auf?

Warum verwendet man nicht das Mittel ALLER glaubwürdigen Daten, die man hat? Anderenfalls wären die Zahlen der Bezugsperiode reine Rosinenpickerei.

Man verleihe also den HadCRUT-Daten vor 1980 keinerlei Glaubwürdigkeit oder irgendwelchen anderen Angaben, die man später aus diesen nutzlosen frühen Daten ableiten könnte.

Und schließlich glaube ich nicht, dass irgendeine Strategie bzgl. Stichproben legitim sind, steht dies doch im Gegensatz zur Theorie von Stichproben (man wäre nicht in der Lage, dies zu lesen, falls das nicht der Fall wäre).

Epiphron Elpis

Erwiderung hierauf:

Die Schlussfolgerungen sind unabhängig von der Bezugsperiode. Und irgendeine andere gewählte Bezugsperiode würde die gleichen Trends und die gleichen Temperaturdifferenzen zeigen.

Kip Hansen

Antwort an oz4caster: Ich denke, dass die Unsicherheits-Bandbreite von 0,1°C zu klein ist selbst für Messungen aus jüngster Zeit. Aber für diese Diskussion lasse ich das mal so durchgehen – es ist fast ein Wunder, dass sie eine solche Unsicherheits-Bandbreite überhaupt zugeben.

Ich arbeite langfristig an einem Beitrag, der aktuelle Original-Messfehler erkundet bei der Temperatur der Welt mit der Zeit, und was dies für die globalen Mittelwerte bedeutet.

Zum Beispiel weiß ich, dass die ,krigging‘ [wie übersetzt man dieses Adjektiv?] Ergebnisse von BEST nur maximal zu 0,49°C akkurat sind.

davidmhoffer

Das Erste, was ich bei einer solchen Graphik fragen würde ist, ob das berechnete Mittel überhaupt relevant ist. Da die Temperatur nicht linear mit Strahlung (W/m²) variiert, ist es möglich, unterschiedliche räumliche Temperaturverteilungen zu erhalten, die zwar identische Mittelwerte aufweisen, aber sehr unterschiedliche Energiebilanzen. Beispiel: Zwei Punkte mit einer Temperatur von 280 K bzw. 320 K würden einen Mittelwert von 300 K zeigen und ein Strahlungsgleichgewicht von 471,5 W/m². Aber zwei Punkte mit einer Temperatur von 300 K an beiden Stellen würden ebenfalls einen Mittelwert von 300 K, jedoch ein Strahlungsgleichgewicht von 459,3 W/m² aufweisen.

Damit im Hinterkopf lassen die Fehlerbalken nicht nur keine Schlussfolgerung hinsichtlich des Temperaturtrends zu, d. h. ob er positiv oder nicht bedeutungslos ist, sondern die Fehlerbreite der Gleichgewichts-Energiebilanz ist wegen der nichtlinearen Beziehung zwischen beiden viel größer. Da AGW auf der Prämisse basiert, dass zunehmendes CO2 die Energiebilanz der Erde ändert, ist der Versuch, die Art und Weise zu quantifizieren, mit der es das tut, die Mittelung eines Parameters, der keine direkte Beziehung zur Energiebilanz hat. Damit bleibt die Graphik zurück als selbst bedeutungslos hinsichtlich statistischer Genauigkeit und auch der Physik.

Antwort darauf:

Steven Mosher

Zitat: „Das Erste, was ich bei einer solchen Graphik fragen würde ist, ob das berechnete Mittel überhaupt relevant ist“.

Tatsächlich ist sie überhaupt kein Mittelwert von Temperaturen.

Obwohl die meisten Menschen, die der Klimadiskussion folgen, dies nicht verstehen (tatsächlich verstehen die Meisten, die solche Mittelwerte erstellen, das selbst nicht).

Was ist das globale Temperaturmittel wert, wenn es nicht wirklich ein Mittel ist.

Mathematisch handelt es sich um eine Vorhersage. Es ist eine Vorhersage dessen, was man an instrumentenfreien Standorten messen würde.

„Stationsbeobachtungen werden allgemein verwendet, um Klimavariablen auf Gitternetzen vorherzusagen (predict), wobei der statistische Terminus „Vorhersage“ (prediction) hier benutzt wird als „räumliche Interpolation“ oder „räumlich-zeitliche Interpolation“. Er sollte nicht mit „forecasting“ verwechselt werden*. Gründliche Begutachtungen von in Meteorologie und Klimatologie verwendeten Interpolationsverfahren wurden jüngst von Price et al. (2000), Jarvis und Stuart (2001), Tveito et al. (2006) und Stahl et al. (2006) vorgelegt. Die Literatur zeigt, dass die am meisten verwendeten Interpolationsverfahren in Meteorologie und Klimatologie folgende sind: Verfahren größter Nachbarschaft, Splines [?], Regression und Kriging [?]; aber auch neurale Netzwerke und Machine learning techniques [?].

[*Ich glaube zwar, mich in der englischen Sprache ganz gut auszukennen, aber der hier angesprochene Bedeutungsunterschied zwischen den Wörtern „prediction“ und „forecast“ ist mir unbekannt. Vielleicht weiß jemand Näheres? Auch die am Ende dieses Absatzes stehenden und mit einem Fragezeichen versehenen Fachbegriffe sind mir unbekannt. Anm. d. Übers.]

Aus: Räumlich-zeitliche Interpolation täglicher Temperaturwerte für globale Landgebiete mit einer Auflösung von 1 km. – Autoren: Milan Kilibarda1,*, Tomislav Hengl2, Gerard B. M. Heuvelink3, Benedikt Gräler4, Edzer Pebesma4, Melita Perčec Tadić5 and Branislav Bajat1.

Wenn man also liest, dass das globale Mittel für Dezember 2014 15,34°C beträgt, bedeutet das Folgendes:

Wenn man mit einem perfekten Thermometer an zufälligen Stellen des Globus‘ misst, wird eine Schätzung von 15,34°C den Fehler minimieren.

Wählt man 1000 zufällige Stellen ohne Thermometer aus, minimiert eine Vorhersage (prediction) den Fehler.

Antwort hierzu:

Danny Thomas

Steven,

danke für jene Beschreibung. Um mit BEST so fair wie möglich zu sein – es scheint, als bieten sie mit einiger Sicherheit eine vernünftige Evaluierung ihrer Analyse für 2014 an als eines der fünf wärmsten Jahre. Kip Hansen sagte, dass wir auf der Diskussion der „Unsicherheits-Bandbreiten“ bestehen. Um dies so weit wie möglich zu achten, wären Sie willens zu diskutieren, wie die Entscheidung gefallen ist, das Arbeitsergebnis zu titulieren mit „Die Mittlere Temperatur 2014 von Berkeley Earth“, wenn in Wirklichkeit diese Arbeit prädiktiver Natur ist und nicht das enthält, was der Titel nahelegt? Mit anderen Worten, warum lautet der Titel nicht „das prädiktive Mittel…“ (hier).

MET scheint eine vernünftigere Beschreibung ihrer Arbeit und des Vertrauensniveaus abzugeben. NOAA und NASA aber nicht so sehr, wenn selbst die oberflächlichste Sicht auf ihr Vertrauensniveau entweder zu einem klaren Plan der Irreführung führt im Vergleich zu ihren Schlagzeilen oder zur Befürwortung von AGW-Propaganda trotz fehlender guter wissenschaftlicher Kommentare.

bones

Vor der neuen Mathematik war es gewöhnlich der Fall, dass das arithmetische Mittel auch die Kleinste-Quadrate-Best-Estimate war, welche zufällig verteilte Fehler minimieren würde. Man kann glauben, dass Verfahren unter Verwendung von Kriging, neuralen Netzwerken und machine learning techniques ein Ergebnis zeitigen, das Fehler minimiert, aber man erwarte nicht, dass ich diesen Mist glaube.

davidmhoffer

Zitat: „Tatsächlich ist sie überhaupt kein Mittelwert von Temperaturen.

Obwohl die meisten Menschen, die der Klimadiskussion folgen, dies nicht verstehen (tatsächlich verstehen die Meisten, die solche Mittelwerte erstellen, das selbst nicht).“

Ich verstehe Ihren Punkt und stimme dem auch bis zu einem gewissen Grad zu, obwohl Ihre Vermutung amüsant finde, dass selbst die die Berechnungen durchführenden Menschen nicht verstehen, was das ist. Damit ändert Ihr Standpunkt aber nicht meinen. Mein Punkt ist nicht, wie man einen Mittelwert für einen bestimmten Punkt mit der Zeit berechnet, sondern was die Änderung in jenem Mittelwert impliziert. Man nenne es ein Mittel, man nenne es eine Vorhersage (prediction) einer zufälligen Messung – da jene Messung sich mit der Zeit ändert infolge der nichtlinearen Beziehung zwischen Temperatur und Strahlung, ist die berechnete Änderung sogar noch bedeutungsloser als die Fehlerbalken suggerieren. Die Änderung des Wertes kann nicht die Änderung der Energiebilanz repräsentieren, weil einfache Physik vorschreibt, dass kalte Temperatur-Regimes (Nacht, Winter, hohe Breiten, große Höhe) überrepräsentiert und warme Temperatur-Regimes (Tag, Sommer, niedrige Breiten, geringe Höhe) unterrepräsentiert sind.

Der Rohwert der von Ihnen illustrierten Vorhersage (prediction) ist das Eine; die Änderung jenes Wertes aber etwas Anderes. Jene Änderung hat keine direkte Beziehung zu der interessierenden Metrik (Änderung des Energie-Gleichgewichtes), egal wie Sie es definieren.

Walt D.

Nehmen wir einmal die Antarktis als ein Gebiet mit sehr wenigen Daten. Sie behaupten, dass eine mittlere Temperatur von 15,34°C den Schätzfehler minimiert. Höchst unwahrscheinlich besonders im antarktischen Winter. Es ist absurd zu zeigen, dass die Temperaturen am Südpol und im Death Valley als zufällige Werte angesehen werden können, gewonnen aus der gleichen Verteilung mit dem gleichen Mittel und den gleichen Varianzen. Darum arbeiten die Menschen mit Änderungen der Temperatur und nicht mit den tatsächlichen Temperaturen selbst.

Jeff F

@bones: Tatsache ist, dass die Verwendung von Daten, die mit den zuvor erwähnten Verfahren eingehen, nicht wirklich neue Mathematik ist. Die Verfahren wurden schon geraume Zeit angewendet. Allerdings ist das Problem hier, dass viele Leute diese anwenden, ohne deren Implikationen zu verstehen. Mit vielen dieser Verfahren KANN NICHT gezeigt werden, dass sie Fehler minimieren – außer unter ganz besonderen Umständen. Zum Beispiel ist Kriging nur eine unverzerrte Schätzfunktion, falls der Prozess stationär ist. Schlimmer noch ist, dass es wirklich keine Rechtfertigung dafür gibt, Klimadaten überhaupt als einen stochastischen Prozess zu behandeln.

In anderen Disziplinen, wo wir diese Verfahren für die Datenanalyse anwenden, zeigen wir Beispiele, wo sie funktioniert haben, und überlassen es dem User zu entscheiden, ob die Verfahren für sein Problem geeignet sind. Aber wir stellen KEINE Behauptungen auf über die Optimalität des Verfahrens. Weil wir wissen, dass wir das nicht können. Allerdings habe ich VIEL zu viele klimawissenschaftliche Studien gelesen, die weiter entwickelte Verfahren allein zu dem Zweck angewendet haben, um eine Behauptung über den zugrunde liegenden PROZESS zu rechtfertigen, der die Daten erzeugt hat! Falls wenige Behauptungen über die statistischen Charakteristika der DATEN selbst erhoben werden können, wenn man diese Verfahren anwendet, kann man fast nichts über den PROZESS aus diesen Daten aussagen.

IvanV

@ Steven Mosher & davidmhoffer

Ich versuche gerade, Ihre Punkte nachzuvollziehen und die Unterschiede zwischen ihnen.

Steven Mosher, was Sie sagen, ähnelt einem Fall, wo man zwei Stationen in den Tropen hat mit einem Mittel von 30°C und eine nahe den Polen mit einem Mittel von 0°C. Dann würde die Best Estimate der globalen mittleren Temperatur 15°C betragen, da dies den Fehler zwischen den Messungen minimieren würde?

Davidmhoffer, aus Sicht des Energiegleichgewichtes wäre die Best Estimate der globalen Mitteltemperatur die Temperatur einer Sphäre mit gleichmäßiger Temperatur, die das gleiche Energie-Gesamtgleichgewicht aufweist?

ferdberple

Mathematisch ist es eine Vorhersage (prediction). Es ist eine Vorhersage dessen, was man an nicht mit Instrumenten ausgestatteten Stellen messen würde.

Auf dieser Grundlage wird die Stichproben-Theorie einen realistischeren Wert ergeben als die gegenwärtige Praxis, Stationen zu adjustieren, damit sie statisch aussehen.

Nehmen wir einfach mal an, dass jede Stationsablesung einmalig ist. Dass die Station selbst verlagert werden kann oder anderweitig von einer Messung zur nächsten verändert wird, und dass jeder Versuch von Adjustierungen, um eine kontinuierliche Stationsaufzeichnung zu erhalten einfach noch mehr unbekannte Fehler einführen wird.

Es gibt keine Notwendigkeit. Da man den Wert an unbekannten Punkten vorhersagt (predict), wird eine Stichprobe an bekannten Punkten ausreichen, während die Möglichkeit eingeführter Fehler eliminiert wird. Alles, was erforderlich ist, ist ein Stichproben-Algorithmus, der zu der räumlichen und zeitlichen Verteilung der Erdoberfläche passt.

Und so weiter. Es gibt über 300 weitere Kommentare zu dem Artikel. Als Grundlage für das hier besprochene Problem soll die Übersetzung bis hier aber erst einmal reichen.

Link: http://wattsupwiththat.com/2015/02/01/uncertainty-ranges-error-bars-and-cis/

Übersetzt von Chris Frey EIKE




UN Offizielle enthüllt den wahren Grund der Erwärmungs-Panikmache

Sie sagte: "Dies ist das erste Mal in der Geschichte der Menschheit, dass wir es uns absichtlich zur Aufgabe gemacht haben, innerhalb einer festgelegten Zeitspanne das seit der industriellen Revolution für mindestens 150 Jahren vorherrschende Leitbild zur wirtschaftlichen Entwicklung zu ändern“.
 
 Mit Bezug auf die Hoffnung der Umweltschützer, dass auf der Pariser Konferenz zum Klimawandel noch in diesem Jahr ein neues internationales Abkommen verabschiedet wird,

fügte sie hinzu: "Das ist wahrscheinlich die schwierigste Aufgabe die wir je uns gegeben haben. Absichtlich das Leitbild zur wirtschaftlichen Entwicklung zu transformieren ist das erste Mal in der Geschichte der Menschheit."

Das einzige Wirtschaftsmodell in den letzten 150 Jahren, das überhaupt jemals funktioniert hat, ist der Kapitalismus. Die Beweislage erschließt sich auf den ersten Blick: Aus einer feudalen Ordnung, die mehr als tausend Jahre dauerte, Nullwachstum erzeugte und lange Arbeitstage und kurze Lebensdauer erhielt, genießen die Länder, die den Kapitalismus des freien Marktes angenommen haben, ein System in dem die Produktivität 70-fach höher ist, die Arbeitstage wurden halbiert und die Lebensdauer verdoppelt.

Figueres ist vielleicht die perfekte Person für die Aufgabe, "das Leitbild wirtschaftlicher Entwicklung " zu verändern, weil sie noch nie erlebt hat wie es in der Realität funktioniert.

Veröffentlich in Investor’s Business Daily, 10 Februar 2015

Übersetzung Andreas Demmig für das EIKE




Lebensmittel in Fukushima

Das Ergebnis: Alles im grünen Bereich. Dies zu zeigen, war aber nicht der hauptsächliche Zweck der Arbeit, sondern es geht um ein Problem der Datenerfassung, das man vom allgemeinen Standpunkt aus als eher nebensächlich ansehen kann. Die Arbeit ist aber auch sehr informativ, was mögliche Einwirkungen auf die Gesundheit betrifft.

Das Datenproblem ist jedoch ganz lehrreich, daher werde ich darauf eingehen, ehe ich zu der Gesundheitsfrage komme. Bei dem Datenproblem geht es um die Frage, wie man Strahlenexpositionen, die durch ein ganzes Spektrum von Radionukliden verursacht werden, anhand weniger oder nur eines Leitisotops erfassen kann. Es ist eine Warnung für Leute, welche glauben, Strahlenbelastungen ließen sich einfach auf irgendeinem Geigerzähler ablesen.

Werden durch Bomben oder durch Unfälle in Kernkraftwerken Radionuklide in der Gegend verstreut, dann gibt es zunächst eine hohe Strahlenintensität durch kurzlebige Isotope wie Jod 131. Sie sind aber nach ein paar Wochen weg und haben daher für die Lebensdosis nur eine geringe Bedeutung. Langlebigen Isotopen wie Plutonium 239 ist man zwar lebenslang ausgesetzt, aber Menge und spezifische Aktivität sind unbedeutend. Wesentlich sind nur zwei radioaktive Isotope, Strontium 90 und Caesium 137. Sie haben einige Gemeinsamkeiten. Bei der Kernspaltung entstehen sie in ungefähr gleicher Menge, und sie haben etwa die gleiche Halbwertszeit um 30 Jahre. Das ist es aber schon mit den Gemeinsamkeiten. Caesium hat der menschliche Körper in etwa 70 Tagen zur Hälfte wieder ausgeschieden, Strontium erst nach Jahren. Da ist es zunächst erstaunlich, dass Sr 90 nur als 2,5mal so wirksam wie Cs 137 angesehen wird. Der Grund ist, dass Caesium vollständig vom Darm ins Blut übergeht, Sr 90 aber nur zu 20 – 30 %.

Nun kommt der wesentliche Unterschied, um den es in der vorliegenden Arbeit geht: Cs 137 lässt sich einfach messen, Sr 90 aber nur mit großem Aufwand. Die sonst fleißigen Japaner haben sich deshalb die meisten Strontiummessungen erspart. Zwar haben sie zunächst in mehreren 100 Proben sowohl Caesium als auch Strontium bestimmt. Dabei stellte sich heraus, dass das wenig bewegliche Strontium nur geringfügig in der Gegend verstreut war. Die Strontiumaktivität lag immer um 0,3 % der Caesiumaktivität.

Bei den fast eine Million Lebensmittelproben haben die Japaner daher meist nur Caesium (Cs 137) bestimmt und den Strontiumgehalt (Sr 90) als 0,3 % des Cs-Wertes berechnet. Das wird in Zukunft zu Fehlern führen, kritisieren die Autoren der vorliegenden Arbeit: Strontium hält sich länger als das leicht auszuwaschende Caesium. Damit erhöht sich das Sr/Cs-Verhältnis. Vor dem Unglück von Fukushima wurden die aus Kernwaffenversuchen stammenden Aktivitäten gemessen und dabei Sr/Cs-Verhältnisse über 0,1, sogar bis 2 gefunden. Bleiben die Japaner bei dem Verhältnis Sr/Cs von 0,003, dann werden sie in Zukunft die Strontiumaktivität als zu niedrig bewerten. 

Dies ist ein Beispiel für ein allgemeines Problem: Geigerzähler oder andere Gamma-Messgeräte zeigen selten die ganze Wahrheit. Sr 90 und einige andere Isotope erfassen sie überhaupt nicht.

Nun zur Gefährlichkeit der Lebensmittel. Gemessen werden Becquerel, und die werden in Dosis umgerechnet. Die Ergebnisse müssen mit dem verglichen werden, was wir sowieso von Natur aus an Radionukliden im Körper haben, und mit der daraus resultierenden Strahlendosis. Die Aktivität hängt von der Körpermasse ab. Der niedersächsische Umweltminister, Herr Stefan Wenzel, sagte einmal im Zusammenhang mit der Zwischenlagerung radioaktiver Abfälle laut Hannoverscher Allgemeiner Zeitung vom 31.01.2015: „Frau Merkel und Kanzleramtschef Peter Altmaier müssen ihr Gewicht in die Waagschale werfen.“ Das macht bei Herrn Altmaier weit über 100 Kilogramm und damit über 10 Kilobecquerel. Bei Frau Merkel und anderen weniger eindrucksvollen Menschen sind es um 8.000 Becquerel. Als wesentliche Isotope sind zu nennen: Etwa 4.300 Bq Kalium 40, 3.000 Bq Kohlenstoff 14, 600 Bq Rubidium 87, dazu kommen noch ein paar andere wie Radium. Das bringt eine jährliche Strahlendosis von 0,3 Millisievert (mSv). Dazu erhalten wir etwa 1,7 mSv von außen und durch eingeatmetes Radon, sodass wir im Flachland auf etwa 2 mSv kommen.

Ist Herr Altmaier einer höheren Strahlendosis ausgesetzt als Frau Merkel, da er doch erheblich mehr Radionuklide im Körper hat? Nein, Dosis rechnet pro kg. Im selben Strahlungsfeld erhalten eine Maus und ein Elefant die gleiche Dosis.

Lebensmittel, wie auch der menschliche Körper, enthalten von Natur aus etwa 100 Bq an Radioaktivität. Da erscheinen die in Japan festgesetzten Grenzwerte für Cs 137 nicht hoch:

In festen Lebensmitteln

                        500 Bq/kg bis März 2012

                       100 Bq/kg ab April 2012

 

Trinkwasser und Getränke

                       200 Bq/l bis März 2012

                       10 Bq/l ab April 2012

 

Nur in wenigen Prozent der untersuchten Lebensmittel wurden diese Grenzwerte überschritten, und das nur in speziellen Lebensmitteln, welche man nicht in großen Mengen zu sich nimmt: Getrocknete Teeblätter, Pilze, vor allem getrocknete, Sellerie, Wild, und kurzzeitig im Juli 2011, in Rindfleisch. Ab Herbst 2011 wurden in Rindfleisch keine über den Grenzwerten liegenden Aktivitäten mehr gemessen.

Durch die Aufnahme von radioaktiven Stoffen steigt langfristig die Aktivität im Körper nicht an. Verspeist der Kannibale einen Mitmenschen, hat er damit seine Körperaktivität nicht verdoppelt. Er scheidet alles wieder aus und ist nicht radioaktiver als zuvor. Bei Caesium ist es nicht anders, da man in 70 Tagen die Hälfte schon wieder los ist. Von Strontium wird nur wenig in den Körper aufgenommen, aber was doch bleibt, verschwindet erst in Jahren vollständig. Schließlich ist man aber alles wieder los. Während des Aufenthalts im Körper erzeugt zusätzliche Radioaktivität jedoch Dosis. Ernährt sich jemand ausschließlich von Lebensmitteln mit 100 Bq/kg Cs 137, dann führt das zu einer zusätzlichen Dosis von 1 mSv pro Jahr. Das ist zunächst nicht einzusehen, denn in Lebensmitteln natürlich vorhandene Aktivität beträgt doch auch 100 Bq und erhöht unsere Körperdosis nicht in diesem Maße. Des Rätsels Lösung sind die Dosisfaktoren, mit denen man die Aktivität in Bq multipliziert, um die Dosis in mSv zu erhalten. Diese Faktoren berücksichtigen das Verhalten des betreffenden Isotops während der Verdauung und die Energien der Strahlenteilchen. Für Cs 137 ist der Faktor 1,35 ∙ 10-8 Sv/Bq, für das natürliche Kalium 40 lediglich 5,0 ∙ 10-9 Sv/Bq, also nur etwa ein Drittel.

Was bedeuten diese Messergebnisse für die Einwirkung von Radionukliden aus Kernspaltung auf die menschliche Gesundheit im Allgemeinen und für Fukushima im Besonderen?

Die Ermittlung der Aktivitäten ist nicht einfach, mit entsprechendem Aufwand aber bis zu geringsten Konzentrationen möglich. So wurden vor dem Unfall von Fukushima 0,5 Bq/kg Strontium 90 aus dem Fallout von Kernwaffenversuchen sicher nachgewiesen. Noch einmal zum Vergleich: Von Natur aus findet man in Pflanzen und Tieren etwa 100 Bq/kg, im Erdboden mehr. Das heißt, wo nichts gemessen wird, ist auch nichts. Leukämiehäufungen um kerntechnische Anlagen sind reine statistische Manipulationen, oder anders gesagt: Wirkungen ohne Ursache gehören in das Reich des Aberglaubens. 

Die Autoren der hier besprochenen Arbeit schreiben: „Es erscheint sehr unwahrscheinlich, dass mehr als ganz wenige Personen in Japan einer höheren inneren Strahlenexposition ausgesetzt waren als den erlaubten 1 mSv im Jahr.“ Dazu kommt zwar noch Bestrahlung von außen, aber anderswo leben viele Menschen von Generation zu Generation unter einer natürlichen Strahlenexposition von 10 mSv/Jahr und mehr, ohne dass man bei ihnen zusätzliche Krankheiten findet. So kommen alle seriösen Untersuchungen (WHO, UNSCEAR) zu dem Schluss: Es sind im Bereich von Fukushima keine gesundheitlichen Beeinträchtigungen durch Strahlung zu beobachten und auch für die Zukunft nicht zu erwarten. Dagegen haben die Unannehmlichkeiten der Umsiedlung und die Strahlenangst zu einer Reihe von Todesfällen geführt. 

 




„Killer-Strom“: Die Fledermaus-Vernichter – Die Windkraftanlagen sind Todesmaschinen für die Vogelwelt

Die Tier- und Vogelschützer haben gewarnt. In Medienberichten kamen sie zwar zu Wort, aber nur gelegentlich und vergeblich. Der Bund für Umwelt und Naturschutz Deutschland (BUND) pflegt das Problem zu verharmlosen, Strom aus Wind ist ihm wichtiger als Naturschutz. Doch ein kurioses Ereignis im Raum Lübeck bringt zumindest das Fledermaussterben wieder in öffentliche Wahrnehmung.

Tempo 70 für den Fledermausschutz

Von Lübeck in Richtung Ratzeburg/Mölln ist eine Umgehungsstraße fertig geworden, die neue B 207. Sie entlastet die Ortschaften Groß Grönau, Groß Sarau und Pogeez vom Durchgangsverkehr, der sich hier nur mit 50 Stundenkilometern bewegen darf. Doch auf einem längeren Streckenabschnitt der neuen Bundesstraße fällt auf, dass man dort nicht 100 fahren darf, sondern nur 70. Wie das? Eine Anfrage der FDP-Landtagsfraktion in Kiel brachte es ans Licht: Die Geschwindigkeitsbegrenzung soll die Fledermäuse schützen. So jedenfalls lautet die Antwort des Verkehrsministeriums. Im Amtsdeutsch: Die Tempobegrenzung diene ausschließlich „zur weitgehenden Vermeidung von Kollisionen mit Individuen der vorkommenden Fledermauspopulation“.

Wieso auf einer nagelneuen Umgehungsstraße langsamer fahren?

Die regionale Tageszeitung „Lübecker Nachrichten“ berichtete darüber in ihrer Ausgabe vom 12. Februar und zitierte den FDP-Landtagsabgeordneten Christopher Vogt: Der Neubau der B 207 zwischen Pogeez und Lübeck sei ja grundsätzlich ein sinnvolles Projekt, „aber es ist doch niemandem zu vermitteln, dass eine Bundesstraße für fast 46 Millionen Euro aus drei Orten herausverlegt wird und man dann auf der neugebauten Strecke deutlich langsamer fahren muss als auf jeder gewöhnlichen Kreisstraße“. Ferner ist in dem Blatt zu lesen: „Auch viel weiter nördlich auf der B207, bei Heiligenhafen, sollen im Zuge des vierspurigen Ausbaus hohe Schutzwände für Fledermäuse gebaut und das Tempo gedrosselt werden. In der Nähe eines Fledermausquartiers in Mönchneversdorf wird auf einer Landesstraße monatsweise das Tempo begrenzt.“ Vom Verkehrsminister Reinhard Meyer erfährt man, spezielle Fledermaus-Warnschilder habe man nicht aufstellen können, weil es solche Schilder laut Straßenverkehrsordnung gar nicht gebe. Außerdem sei der Fledermausschutz schon lange ein Thema bei Baumaßnahmen im Land. Eine Schutzzone für Fledermäuse habe Meyer für die A20 bei Bad Segeberg ebenfalls schon in die Debatte gebracht.

Fledermausschutz vor Autos, aber nicht vor Windkraftanlagen?

Sonderbar, sonderbar. Zwar nimmt man wohlgefällig zur Kenntnis, dass den Tieren durch unliebsame Zusammenstöße mit dem einen oder anderen Auto kein Leid geschehen soll. Aber wer schützt die Fledermäuse vor den rotierenden Blättern der vielen, vielen Windkraftanlagen? Schleswig-Holstein ist voll davon, rund 2.400 stehen dort. Im ganzen Bundesgebiet sind es über 24.000. Es ehrt die „Lübecker Nachrichten“, dass sie, der journalistischen Tugend folgend, auf der gleichen Seite ihrer Ausgabe darüber informierten, wie viele Fledermäuse durch die Windkraftanlagen zu Tode kommen („Windräder als Todesfalle“). Das Blatt schreibt:

Windkraftanlagen werden für Fledermäuse immer mehr zur Todesfalle

„Windräder werden immer mehr zur Todesfalle für Fledermäuse, sagen Berliner Forscher um den Biologen Christian Voigt vom Leibniz-Institut für Zoo- und Wildtierforschung (IZW). Allein in Deutschland würden pro Jahr mehr als 250.000 Tiere umkommen, weil die Anlagen ohne Rücksicht auf den Naturschutz betrieben werden, schreiben sie im Fachblatt ‚European Journal of Wildlife Research‘. Die Forscher haben verschiedene Studien gesichtet. Deren Schätzungen, wie viele Fledermäuse im Jahr umkommen, reichen von unter 100.000 bis über 400.000. Tatsächlich könnten es noch mehr Fledermäuse sein, weil sich die Studien bislang nur auf Suchaktionen unterhalb von Windrädern stützen. Dort würden Forscher aber nur Tiere finden, die sofort umkommen, weil sie Knochenbrüche erlitten haben oder erschlagen wurden. In anderen Fällen zerreißen innere Organe durch die großen Luftdruckänderungen. Experten sprechen vom Barotrauma.“

Sie drehen sich friedlich langsam und sind in Wahrheit sehr schnell

Zwar drehen sich die Rotorblätter aus der Ferne gesehen nur langsam und friedlich. Aber, so schreibt der Biologe Dr. Friedrich Buer: „Tatsächlich fegen die Spitzen der Rotorblätter schon bei mäßigem Wind mit 170 Stundenkilometern durch die Luft, und laut Informationstafel am Schellenberg bei Neustadt a. d. Aisch liegt die Spitzengeschwindigkeit bei 272,3 Stundenkilometer. Neuere Anlagen erreichen gar 300 bis 400 Stundenkilometer. Kommt ein Vogel oder eine Fledermaus auch nur in die Nähe des Rotorblatts, saugt sie der Unterdruck unweigerlich gegen das Rotorblatt und es ist um sie geschehen. Dieser Unterdruck baut sich immer dann auf, wenn der Wind langsamer wird und sich das Rotorblatt wegen seines hohen Trägheitsmoments nur verzögert verlangsamen kann. Da der Wind ständig wechselt, wechseln auch der Unterdruck und der resultierende Sog ständig. Verstärkt werden die Druckschwankungen und der Sog durch den Turmschatten‐Effekt, weil immer dann, wenn ein Rotorblatt hinter dem Turm vorbei saust, es durch den Windschatten muss, den der Turm erzeugt.“

Warum man die toten Tiere kaum findet

Das schrieb Buer im Oktober 2011, und die Frage „Aber warum findet man praktisch nie die Opfer?“ beantwortet er so: „Das liegt einmal daran, dass sie nur ausnahmsweise direkt unter das Windrad fallen, sondern von ihm aus einer Höhe von bis zu 180 Metern mit Geschwindigkeiten zwischen 100 und 270 Stundenkilometern und mehr weit weggeschleudert werden und zwar bei Kollisionen oberhalb der Rotornabe nach der einen Seite und unterhalb der Rotornabe nach der anderen Seite. Außerdem werden sie je nach Windrichtung in andere Richtungen geschleudert. So werden die Opfer durch die Rotoren auf einer riesigen Kreisfläche von mehreren Hektar verteilt und sind kaum zu finden. Bei noch höheren Windrädern wird die Suche praktisch aussichtslos, erst recht im Wald oder auf gar auf See.“

Wo bleibt der Aufschrei der Naturschutzverbände?

Es fällt auf, dass sich die Naturschutzverbände weder für die Fledermäuse noch für die Vogelwelt ins Zeug legen, um sie vor dem Massensterben zu bewahren. Ihr Aufschrei und ständiges Mahnen bleiben aus. Der Bund für Umwelt und Naturschutz Deutschland (BUND) beispielsweise pflegt das Problem zu verharmlosen, Strom aus Wind („Ökostrom“) ist ihm offensichtlich wichtiger als Naturschutz. Arm in Arm mit dem Bundesverband Windenergie setzte er sich sogar dafür ein, die „Ausbaupotentiale der Windenergie an Land stärker zu nutzen“. So zum Beispiel in der Pressemitteilung vom 23. Juni 2011.

Der BUND will Vögel vor den Landwirten retten, aber nicht vor der Windindustrie

Wohl warnt der BUND vor einem „Vogelsterben“, wie man auf seiner Web-Seite nach einigem Suchen finden kann, aber nur vor einem Sterben der Vögel, dass durch den immer noch zu hohen Pestizideinsatz in der Landwirtschaft ausgelöst wird (so unter dem Datum 7. Januar 2013). Allein um die „Folgen der industriellen Landwirtschaft“ geht es ihm, nicht um die Folgen der industriellen Windkraftanlagen (so in der Publikation „Vögel retten“ vom 18. Mai 2012). Künftig müsse dem Arten- und Flächenschutz mehr Gewicht beigemessen werden. Welche Verlogenheit.

Bild 1: Immer wieder gern gezeigt. Vogel von Öl befallen

Bild 2: Selten gezeigt: Vogel (einer von jährlich hunderttausenden) von WKA zerhackt. Alle Bilder der Doku von BOB HOYE „CURIOSITIES“ entnommen (s. Anhang)

Verlogen unter den Teppich gekehrt

Diese Verlogenheit kommt auch in der Antwort des Verbandes an einen Leser seines „BUNDmagazin“ zum Ausdruck. BUND-Mitglied H. Hackl hatte sich beklagt: „Warum schreiben Sie nichts von den Abertausenden von Fledermäusen, die zum Beispiel durch Windräder umkommen?“ Die Antwort des Verbandes: „Sie haben natürlich recht: An sich sinnvolle Ziele (wie die verstärkte Nutzung erneuerbarer Energien) haben mitunter unerwünschte Nebenwirkungen, die wir mitnichten unter den Teppich kehren wollen. Wenn der BUND Partei nimmt (wie im aktuellen ‚BUNDmagazin‘), dann immer nur im Sinne des Umwelt- und Naturschutzes.“ Tatsache ist, dass er sie doch unter den Teppich kehrt. Fledermäuse und Vögel vor dem Sterben durch Windkraftanlagen zu bewahren, gilt dem BUND offenbar nicht als Umwelt- und Artenschutz, das scheint für ihn eine andere Art von Schutz zu sein.

Was ein „BUNDmagazin“-Leser dem BUND vorwirft

Die beiden Leser des „BUNDmagazin“ Hans und Waltraud König hielten dem Verband dies vor (Leserbriefe der Ausgabe 3/2012): „Einige Einschätzungen im Beitrag ‚Gutteil der Energiewende’ können nicht unwidersprochen bleiben.

Erstens: Der Autor behauptet, dass an einem Windrad in 35 Jahren nur ein Rotmilan verunglücke. Sehr schön. Rechnet man das auf die zitierten 20.000 Windkraftanlagen hoch, ergibt sich eine Summe von 571 toten Milanen pro Jahr. Dies verschweigt der energiepolitische Sprecher.

Zweitens: Außerdem ignoriert er die von Experten geschätzten circa 220.000 Fledermausopfer pro Jahr an Windrädern.

Drittens: Dass die Gutachten von den Betreibern bezahlt werden und entsprechend ausfallen, ist ihm anscheinend auch nicht bekannt, sonst würde er die regelmäßigen Untersuchungen nicht so positiv darstellen.

Viertens: Dass Repowering den Fledermausschlag reduziert, ist nach wissenschaftlichen Untersuchungen ebenfalls falsch.

Fünftens: Windkraftanlagen in FFH-Gebieten toleriert der BUND, wenn sie den Schutzzweck nicht gefährden. Auch hier beurteilen dies die von den Betreibern beauftragten Gutachter.

Wir empfinden die Aussagen von Werner Neumann als bewusste Verharmlosung und gezielte Manipulation der BUND-Mitglieder. Der BUND macht sich damit – nicht zum ersten Mal – zum Handlanger einer Windenergielobby, die unter dem Deckmantel der Energiewende ungehemmt Natur zerstört. Dem BUND ist zu empfehlen, das ‚N‘ aus seinem Namen zu streichen.“

Windstrom ist in Wahrheit Vogelkiller-Strom

Das führt zu der Frage, die auf der Hand liegt: Aber warum laufen die Natur- und Umweltschutzverbände nicht Sturm gegen Windräder? Warum preisen sie sogar die Wälder als neue Standorte? Friedrich Buer hat darauf diese Antwort (2011): „Diese Verbände stecken in einer Zwickmühle. Jahrelang haben sie die Angst vor der angeblich drohenden Klimakatastrophe geschürt und als Rettungsschirm alternative Energiequellen wie Windräder gefordert. Jetzt zeigt sich: Vögel und Fledermäuse werden durch die Aktivitäten der Verbände nicht geschützt, sondern erschlagen. Windstrom ist in Wahrheit Vogelkiller-Strom. Und zu allem Überfluss wurde es in den letzten zehn Jahren kühler statt wärmer, und das bei weiter steigenden CO2-Emissionen.“

Die Naturschutz-Funktionäre in der Klemme

„Das ist die Zwickmühle, in der vor allem die Spitzenfunktionäre stecken und von der die vielen gutgläubigen Mitglieder der Natur- und Umweltschutzverbände kaum etwas erfahren. Die Funktionäre müssten ihren Irrtum zugeben, aber dann wäre ihre Glaubwürdigkeit dahin, zumal sie mit dem ausufernden Maisanbau für Biogas, der den Artenschwund in Deutschland beschleunigt und den Hunger in der Dritten Welt verschlimmert, noch eine weitere Fehlentwicklung zu verantworten haben. Auch hat sich herumgesprochen, dass wenige Finanzkräftige an den ‚Bürgerwindrädern‘ verdienen und sich als ökologisch vorbildlich feiern lassen und bei den anderen per Stromrechnung kassieren.“ Eine Frage, die Buer nicht aufgreift, ist die, ob das Schweigen der Naturschutzfunktionäre erkauft ist.

Auch bei Windkraft in Wäldern spielen die Funktionäre mit

Buer weiter: „Auch wehren sich immer mehr Bürger, denn niemand will ein Windrad vor seiner Haustür haben. Also müssen die Wälder als Standorte für diese Industrieanlagen her, weil da keiner wohnt und Wälder oft dem Staat gehören, über den die Windrad-Politiker nach Belieben verfügen können. Und wieder machen die Spitzenfunktionäre der Natur- und Umweltschutzverbände widerspruchslos mit und applaudieren sogar.“

Dringend empfohlen: Nachtruhe für Windkraftanlagen

Zurück nach Lübeck und zur Tempobegrenzung von 70 Stundenkilometern auf jenem Teil der neuen B 207. Wie wäre es mit dieser Lösung? Bekanntlich pflegen Fledermäuse tagsüber der Nachtruhe und sind nur in der Abenddämmerung und des Nachts aktiv, um nach Essbarem zu jagen. Folglich sollten die Temposchilder mit dem Zusatz versehen werden: „Nur in der Abenddämmerung und nachts“. Dann können die Autos tagsüber 100 fahren. Aber weit bedrohlicher als die Autos sind die Windkraftanlagen für die Fledermäuse. Daher die dringende Empfehlung: Vor allem für sie muss es von sofort an heißen: Absolute Nachtruhe! Abschalten!

Übernommen vom KPKrauses Blog 

Related Files




Verzicht auf Schiefer Gas wäre ein großer Fehler

Das ist ein Grund, warum ich argumentieren und abstimmen werde, wenn es vor das Oberhaus geht, um der Regierung heute zu helfen, in diesem Land eine Schiefergasindustrie zu ermöglichen für die Verbesserung der Infrastruktur. Als der Antrag im Unterhaus debattiert wurde, scheiterte er an den zunehmend irrationalen Gegnern des Schiefergases und verhinderte damit ein wirksames Moratorium in England, obwohl es in Wales und Schottland durchgesetzt wurde.

Aber sie veränderten den Antrag zur Infrastruktur genug, um die Industrie in neuen und unnötigen bürokratischen Aufwand zu erwürgen. Dieses muss rückgängig gemacht werden, wenn wir heimisches Schiefergas zur Heizung in britischen Häusern haben wollen, zur Zahlung der britischen Löhne, zur Stützung britischer Fabriken, Erzeugung von britischem Strom und wenn wir uns nicht in Abhängigkeit eines gefährlichen Russland begeben wollen.

Als Energiequelle ist Gas viel zuverlässiger als Wind, sauberer als Kohle, flexibler als Photovoltaik, billiger als Kernkraft, sicherer als Biosprit und weniger Land verbrauchend als Wasserkraft. Wir werden es auf Jahrzehnte nutzen können bei richtiger Entscheidung. Das Szenario für die nationale Energiepolitik mit extrem „gone green“ zwingt uns unsere CO2 Emissionen bis 2035 um 60% zu reduzieren, aber wir werden so viel Gas wie heute verbrennen müssen. Wir werden Gas brauchen, was immer auch kommt.

Die inländische Produktion, vor allem aus der Nordsee, ist in den letzten zehn Jahren um 66 Prozent zurückgegangen und jetzt wir müssen die Hälfte unseres Gases importieren. Im Boden unterhalb von Lancashire und Yorkshire, im Bowland Schiefer, liegt eines der reichsten Gasvorkommen, die jemals entdeckt wurden. Nur 10 Prozent davon würden ausreichen, um den britischen Bedarf fast 50 Jahre zu decken. Die Technologie, um es zu nutzen braucht Wasser und Sand, um einen Millimeter breite Risse in Felsen zu bekommen, eine Meile weit und eine halbe nach unten. Einen Monat Arbeit bringt 25 Jahre Gasfluss mit einer ruhigen Vorrichtung, die hinter einer Hecke versteckt werden kann.

Es gibt keine Notwendigkeit, die Hügel permanent mit Betonsockel für 120 m hohe Türme aus Stahl zu schmücken, um ein spärliches Rinnsal von Energie an einem kalten, ruhigen Tag aus dem Wind zu saugen. Schiefergasförderung ist ein Prozess, der sich in den USA sehr sicher und sauber bewährt hat [Anmerkung: ebenso in Deutschland seit 50 Jahren!] Es hat nirgendwo einen Einfluss auf das Grundwasser, Erdbeben oder Oberflächenverschmutzung gegeben. Dies sind übertriebene Mythen, die ständig von wohlhabenden multinationalen Interessengruppen wie Greenpeace und Friends-of-the-Earth [Ableger in Deutschland: BUND!] wiederholt werden, von wohlhabenden Modedesigner und ihrer nicht-vor-meiner-Tür Freunde in den Gin-und-jag [Feiern und saufen] Gegenden und von Wladimir Putin und den anderen Russen mit Interesse an teurem Gas.

In Orten wie Pennsylvania hat Schiefergas Arbeitsplätze und Wohlstand geschaffen und ist von ökologischem Nutzen. Blackpool könnte mehr gut bezahlte Arbeitsplätze brauchen. Einige werden jetzt argumentieren, dass fallende Ölpreise den Streit um britisches Schiefergas akademisch gemacht haben. Die Preise sind so niedrig, dass die Aufwendungen für die Bohrungen und Fracking unwirtschaftlich werden. Sicherlich, wenn das Öl bei $ 50 pro Barrel bleibt, wird die Anzahl von Bohrplattformen in den Schieferölfeldern von Texas und North Dakota weiterhin schnell abnehmen und die Ölförderung (derzeit noch steigend) wird nachlassen. Aber die Schiefergasproduktion stieg trotz anhaltend niedriger Gaspreise in den USA weiter schnell in den letzten Jahren, teilweise aufgrund der raschen Verbesserung von Produktivität und Kosten der Gasquellen, die Praxis der Horizontalbohrungen und Fracking wird perfektioniert. […]

Wir haben eine riesige Chemieindustrie in diesem Land, mit Hunderttausenden direkt und indirekt betroffener Menschen, und es braucht Methan und Ethan als Rohstoff, das aus Erdgasquellen stammt. Diese Industrie wird schnell verschwinden, wenn wir unseren heimisches Schiefergas nicht nutzen. Wir sind bereits wiederholt davor gewarnt worden.

Veröffentlich auf: The global Warming Policy Forum
am 09. Februar 2015

Link: http://www.thegwpf.com/matt-ridley-giving-up-on-shale-would-be-a-big-mistake/

Übersetzt durch Andreas Demmig für EIKE




Närrische Klimaspielereien im Potsdam-Institut PIK

Solch eine Frage zu stellen ist unsittlich, unerhört, unverschämt, politisch unkorrekt, zumal seit Jahrzehnten das Gespenst „Klimakatastrophe“ wie ein Damoklesschwert über dem Kopf der Menschheit schwebt und wie ein Fallbeil jederzeit auf sie niedersauen und sie enthaupten könnte. Die gesamte Klimapolitik bezieht hieraus ihre Legitimation und wie käme die UN-Klimapolitik dazu sich selbst infrage zu stellen? Wenn auch, wie zu erwarten gewesen, die im Jahr 1986 von der Deutschen Physikalischen Gesellschaft e. V. angekündigte „drohende Klimakatastrophe“ ausgeblieben ist, die Propaganda ist zum politischen Geschäftsmodell geworden. Alle mehrheitlich verabschiedeten Maßnahmen zum „Klimaschutz“ sind Augenwischerei und haben nichts, aber auch rein gar nichts am Wetter geändert. Es macht weiter unverändert das, was es will und richtet sich so gar nicht nach unseren Wünschen. Das Wetter ist kein Racheengel, es ist nicht extremer geworden und macht nicht mehr und nicht weniger, als was es schon immer getan hat.

Bei allem, was wir „Klimasünder“, ja „Klimakiller“, dem Klima und damit dem Wetter antun, ist es schon rätselhaft, wie tolerant das Wetter auf die immer schlimmeren anthropogenen Misshandlungen des „Globalklimas“ reagiert. Das tröstet ungemein, zeigt sich doch, dass das Wetter weder dem Klima hörig ist, noch sich von ihm als „Racheengel“ missbrauchen lässt. Der Grund ist eigentlich ganz einfach. Ist das örtliche Klima ein Kunstprodukt, so ist es das „Globalklima“ erst recht. Es ist ein Monstrum. Dies wird aber systematisch von den „Klimaexperten“ verschwiegen, denn diese haben den politischen Auftrag, daher die jährlichen „Klimagipfel“ wie die fünfjährigen IPCC-Berichte, stets aufs Neue „Klimagefahren“ zu konstruieren und „Klimaängste“ emsig zu schüren. 

Die Klimaexperten müssen überaus fleißig sein und ihrer kreativen Phantasie freien Lauf lassen, um ihre eigene Existenz nicht zu gefährden. Sie können keine Entwarnung geben oder gar zugeben, dass ihr gesamtes Klimaschutz-Szenario auf tönernen Füßen steht und das „Treibhaus“ ein Wolkenkuckucksheim oder „Luft-Haus“ darstellt. Sie dürfen nicht müde werden, vor dem „bösen Wolf“ zu warnen. Sie würden ihrer Hauptwaffe, der Angst, den Schrecken nehmen und alle Erziehungsmaßnahmen, die darauf hinauslaufen, uns für die „Große Transformation“ sturmreif zu machen, wären für die Katz. Eine Entwarnung käme für die Betroffenen einem Selbstmord gleich. Aus wäre es mit dem „Weltklimarat“ und seinem Glorienschein als „Friedensnobelpreisträger“. Um diesen zu bekommen hatte der ehemalige US-Vizepräsident Al Gore die Parole ausgegeben, das Klima hätte der Menschheit den „Klimakrieg“ erklärt. Doch schwebt der Friedensengel nicht über den Wassern, sondern über dem Nichts, denn, das weiß jeder Mensch, der wahrhaft frei denkt und nicht bequem fremde Gedanken konsumiert, dass das Klima ein „Kunstgebilde“ ist, das statistisch von Wetterdaten abgeleitet wird. Das Wetter in seinen verschiedensten Formen gab es schon lange, bevor der erste Mensch die irdische Bühne betrat.

Das bedeutet: Nicht am Wettergeschehen und seinem Warum forschen die Potsdamer Klimaexperten, sondern an dem vom Wetter abgeleiteten Klima, das im Gegensatz zum Wetter nicht existiert, sondern nur in unseren Köpfen sein phantasievolles Unwesen treibt. Wer an nicht existenten Objekten forscht, der braucht keine Sachkenntnisse, der muss eine grenzenlose Phantasie haben und einen unerschütterlichen Glauben.

Die Erwärmung kommt, denn die „Klimamodelle entsprechen der Wirklichkeit“

Mit dieser Meldung wartete der Fernsehsender „n-tv“ am 28. Januar 2015 auf. Er bezog sich auf eine Pressemeldung der Max-Planck-Gesellschaft (MPG) vom gleichen Tag unter dem Titel: „Erwärmungspause: Die Klimamodelle machen keinen systematischen Fehler“. So perfekt funktioniert die Zusammenarbeit von Wissenschaft und Medien. Letztere prüfen nicht kritisch die Meldung, sondern dienen blind nur als Nachrichtenübermittler und Verstärker.

Die Meldung der MPG beginnt mit einem beliebten Totschlagargument: „Skeptikern, die noch am menschengemachten Klimawandel zweifeln, bricht nun eines ihrer letzten Argumente weg.“ (hier die Widerlegung). Man beginnt frech mit einer Unterstellung, denn nicht der Klimawandel als Folge des ewigen Wetterwandels wird von den Skeptikern bezweifelt, sondern seine Erklärung durch die „Treibhausgase“. Um die seit nunmehr 18 Jahren bestehende „Kluft zwischen berechneter und gemessener Erwärmung“ zu erklären, geht man nicht mehr von der „Konstanz“ des Klimas aus, sondern erklärt diese damit, dass es „im Klima stets zu zufälligen Schwankungen kommt“. Ein Grund wird nicht genannt! Die „Modelle machen keine systematischen Fehler“. „Im Klima regieren Zufall und Chaos“, diese „beiden unberechenbaren Akteure im Klimageschehen“.  Der Fehler liegt nicht bei den Modellen, denn alle entstammen einem „Ur-Modell“, sondern an der Ignoranz der Klimaexperten, die sie entwickeln und programmieren. In blindem Ehrgeiz wollen sie „Zufall und Chaos“ austricksen und scheitern doch immer wieder an der Unberechenbarkeit dieser Akteure, an dem deterministischen wie stochastischen Chaos. Bei genauerer Analyse ist die MPG Attacke gegen die „Skeptiker“ ein Rohrkrepierer, denn die Quintessenz  ist: Wir wissen zwar nichts, aber die Skeptiker haben unrecht.

Die Unlösbarkeit nichtlinearer Differentialgleichungen ist ein mathematisches Problem, das allerdings nicht erwähnt wird. Man schiebt das auf die Physik ab, um sogleich zu behaupten: „Kein physikalischer Grund erklärt die Streuung der Prognosen“. Das ist pure Dialektik! Doch wer behauptet, dass die „Strahlungsenergie, die von der Sonne auf die Erdoberfläche trifft“ durch den „Treibhauseffekt etwa des Kohlendioxids auf der Erde gespeichert wird“, der sollte mal wieder in alten Physikbüchern Wissen tanken und nicht solchen Unsinn von sich geben. Wenn Kohlenstoffdioxid Sonnenenergie auf der Erde speicherte, dann müsste dies physikalisch erklärt und gemessen werden können. Auch müsste erklärt werden, warum bei global gleichförmigen CO2-Gehalt von 400 ppm oder 0,04 Prozent in der Luft die Erde zeitgleich mal minus und mal plus 50° C aufweist, mit allen möglichen Zwischenstufen. Die „Globaltemperatur“ ist ein Spielwert.

Die Klimamodelle können schon aus einem ganz einfachen Grund nicht der Wirklichkeit entsprechen, weil es keine Klima-Wirklichkeit gibt.  Es gibt nur einen Naturvorgang in der Atmosphäre und diesen nennen wir WETTER. Das ist die einzige Wirklichkeit, die uns umgibt, die wir messen können und überall spüren, von der Wiege bis zum Grab.

Das physikalische Defizit der Klimaphysiker zeigt sich auch daran, dass sie nur von der Lichtstärke ausgehen, von der in einer bestimmten Zeit ausgestrahlten Lichtmenge, der Solarkonstanten von 1368 W/m2.  Doch auf der rotierenden kugelähnlichen Erde kommt es auf die Beleuchtungsstärke an, also auf die Lichtmenge, von der eine Fläche getroffen wird. Die Beleuchtungsstärke ist direkt proportional der Lichtstärke, aber umgekehrt proportional dem Quadrat der Entfernung. Deswegen erhält die Erde Anfang Januar etwa 100 W/m2 mehr Strahlung als Anfang Juli, denn die Umlaufbahn der Erde um die Sonne ist kein Kreis, wie Nikolaus Kopernikus 1543 annahm, sondern nach Johannes Kepler (1571-1630) eine Ellipse!

Bei der Beleuchtungsstärke ist zudem der Winkel oder die Neigung der einfallenden Sonnenstrahlen zu beachten. Fällt das Licht schief auf eine Fläche, so wird diese beleuchtet proportional dem Cosinus des Winkels, um den diese Fläche gegen die Strahlenrichtung geneigt ist. Das bedeutet, dass die Beleuchtung mit der Neigung (gr. Klima) der Fläche gegen den Lichtstrom abnimmt. Man kann dies jeden Tag spüren, wenn zum Abend hin die Sonnenstrahlen in immer flacheren Winkel einfallen und folglich unsere Schatten immer länger werden. Das „solare Klima“ bestimmt, wo äquatoriales und wo polar-boreales Wetter herrscht. Nicht die Lichtstärke der Sonnenstrahlen sondern die Beleuchtungsstärke bestimmt den Grad der Erwärmung der Erdoberflächenstruktur. Ein Modelldefizit ist auch, dass die Klimaphysiker in ihren Betrachtungen die Erde als „Querschnittfläche“ und damit als „Scheibe“ ansehen und nicht als „Kugel“.

Also, die unterschiedliche Beleuchtungsstärke zwischen Äquator und Polen führt zur unterschiedlichen Erwärmung der Erde, zu den Temperatur- und Druckunterschieden, zur Allgemeinen Zirkulation, zu den temporalen und saisonalen Wetterveränderungen. Doch dies alles können die Klimamodelle nicht abbilden. Von ihnen kann man keine Prognosen erwarten, schon gar nicht hinsichtlich das Wetters!

Nach dem „Autofasten“ nun „Essen gegen die Erderwärmung“

Die Klimahysterie beruht im Wesentlichen auf der Verteufelung des Kohlenstoffdioxids als „Klimakiller“.  Dabei kann man gemäß der Klima-Definition dieses weder töten noch killen, weil Klima nur ein errechnetes Konstrukt ist, das in Wirklichkeit nicht existiert. Wir reden zwar wie selbstverständlich vom sich wandelnden Klima, doch das ist genauso falsch, wie wenn wir sagen, die Sonne gehe auf und wieder unter. Dabei ist es die Erde, die sich um die eigene Achse dreht – morgens in den Lichtkegel der Sonne hinein und abends wieder heraus. Was das Element Kohlenstoff C betrifft, so ist es neben Wasserstoff H und Sauerstoff O eines der grundlegenden Lebensstoffe. Wir alle müssen Sauerstoff einatmen, um Nahrung zu verbrennen und atmen Kohlenstoffdioxid wieder aus.

Bei diesem Stoffwechselprozess wird von der Pflanze gespeicherte Sonnenenergie freigesetzt, die unverzichtbar ist für die Stabilisierung unserer Körpertemperatur von 37° C. Ohne diese Energie würden wir rasch unterkühlen und erfrieren. Einzig Pflanzen können Sonnenergie speichern und ihr Appetit auf CO2 ist gigantisch. Grobe Schätzungen liegen bei 150 Gigatonnen +/- 15% pro Jahr. Wer also mit Pflanzen spricht, führt ihnen mit dem Atem über die Spaltöffnungen in den Blättern ihr lebensnotwendiges CO2 als Lebenselixier wieder zu. Wenn die Forderung des WBGU-Vorsitzenden Hans Joachim Schellnhuber tatsächlich erfüllt werden würde, den „Kohlenstoffausstoß bis 2070 auf Null senken“, dann gerieten die grünen Pflanzen in Existenznot. Und wir Menschen ebenfalls! 

Mit der Floskel „Autofasten“ in der Fastenzeit kann man bestenfalls Rohstoffe schonen, denn auch wenn man das Auto in der Garage lässt und zu Fuß geht, ändert man das Wetter nicht. Dieses kennt keinen natürlichen noch zusätzlichen anthropogenen CO2-Einfluss, weder auf Luftdruck, Wind, Temperatur, Wolken, Regen oder Sonne. Nachdem es durch stete Propaganda gelungen ist, das für alles Leben notwendige CO2 zum „Umwelt- und Klimagift“ abzustempeln und diesen Unsinn zum Dogma zu erheben, treibt die CO2-Bekämpfungsmanie immer neue groteske Blüten.

Ganz schlaue Experten preisen inzwischen „Klimateller“ zwecks „Klimaschutz“ an. Dabei werde ich an meine Mutter erinnert, die uns Kindern sagte, immer schön den Teller leer zu essen, denn dann würde tags drauf die Sonne scheinen. Mit dem Slogan „Eine umweltfreundliche Küche braucht Fantasie“, bietet die Compass-Group Schweiz vor allem in den Studentenrestaurants „Klimamenüs“ an nach dem Motto „Essen gegen die Erderwärmung“.  Ziel sei es, bei der Ernährung den „Kohlendioxid-Ausstoß“ bewusst zu machen, denn dieser spiele eine „wichtige Rolle bei der Klimaerwärmung“. Das Schnitzel soll durch ein „Vegi-Produkt“ ersetzt werden. Linsen und Bohnen seien sehr nahrhaft, ebenso wie Sellerie, Kohl und Rüben.

Artikel 9 des kölschen Grundgesetzes besagt, immer zuerst die Universalfrage zu stellen: „Wat süll dä Quatsch“! Die Nahrungskette beginnt bei den grünen Pflanzen. Sie sind die Primärproduzenten. Alle Pflanzennahrung enthält zwangsläufig CO2. Frisst die Kuh Gras und isst der Mensch ein Schnitzel, dann geht mit der Nahrung automatisch das CO2 in den menschlichen Magen und wird bei der Nahrungsverbrennung wieder ausgeatmet. Es ist also völlig „wurscht“, ob man vegetarisch isst oder nicht, immer wird CO2 ausgeatmet. Und wie viel man emittiert, das hängt vom Hunger wie vom täglichen Kalorienbedarf ab und der ist bei einem Sportler doppelt so hoch wie bei einem Faulenzer.

Also lassen Sie sich den „Spaß an der Freud“ an den närrischen Tagen nicht verderben, feiern Sie ausgelassen Fastnacht oder Karneval und schunkeln und tanzen Sie feste mit!  Mit Alaaf und Helau grüßt Sie

Dipl.-Met. Dr. phil. Wolfgang Thüne                       

Oppenheim, den 11. Februar 2015




Neuer Klimawandel-Topberater des UN-Generalsekretärs kommt vom WWF

Bild rechts: Ideologie! Bild: dumman  / pixelio.de

Am 17. Januar 2015 gab es nun eine weitere Episode in dieser wenig ruhmvollen Zusammenarbeit zu bestaunen. Bild Online berichtete:

UN-Generalsekretär Ban Ki Moon hat den ungarischen Umweltexperten Janos Pasztor zu seinem Topberater für Klimawandel ernannt
[…] Pasztor hat derzeit einen ranghohen Posten bei der Organisation World Wildlife Fund International inne. Von 2011 bis 2012 war er Mitglied eines UN-Gremiums zum Thema globale Nachhaltigkeit. Zudem war der Ungar schon für das UN-Umweltprogramm tätig und wirkte an der Klimarahmenkonvention der Vereinten Nationen mit.

Die Verbandelung von WWF und UNO geht also in die nächste Runde. Und man macht sich nicht einmal die Mühe, die fragwürdige Zusammenarbeit zu verstecken. Wie kann bei einer solchen personellen Besetzung die wissenschaftliche Unabhängigkeit der UNO in der wichtigen Klimafrage garantiert werden? Wie können Interessenskonflikte ausgeschlossen werden?

—————————

Der belgische Klimaforscher Jean-Pascal van Ypersele hat derzeit den Vizevorsitz beim IPCC inne. Nun bewarb er sich auf den Präsidentschaften-Posten. Eine Reihe von internationalen Wissenschaftlern hat sich nun an die Belgische Regierung gewandt, damit sie die Kandidatur noch einmal kritisch überprüfen. In einem Brief vom 12. Januar 2015 beklagen sich die Forscher darüber, dass van Ypersele den Dialog mit Andersdenkenden verweigert, klimaskeptische Veranstaltungen verhindert und Klimarealisten abschätzig betitelt habe. Den vollen Wortlaut des Schreibens gibt es auf Occam’s razor.

Wir, die Unterzeichneten, die wir Autoren des Buches „Climate: 15 truths/Climat: 15 Verites qui derangent” sind, stellen hiermit zusammen mit einer Anzahl mit uns verbundener Forscher den Antrag an die Belgische Regierung, die frühere Unterstützung der Regierung für die Bewerbung von Prof. van Ypersele als Präsident des IPCC zu überdenken, der derzeit ein offizieller Kandidat für dieses Amt ist (www.elic.ucl.ac.be/modx/elic/index.php?Id+951 ).

Wir fordern dies in Anbetracht der folgenden Beweise dessen, was wir als fehlende Unparteilichkeit und beabsichtigte Einmischung in freie wissenschaftliche Untersuchungen und die Redefreiheit ansehen, soweit es van Ypersele in folgenden Beispielen betrifft:

1) Ablehnung, sich an öffentlichen Debatten zu beteiligen; öffentliche Herabsetzung und Verunglimpfung angesehener Wissenschaftskollegen: Prof. van Ypersele lehnt es systematisch ab, über relevante Aspekte zum Thema Klimawandel zu reden, sei es auf der politischen oder der wissenschaftlichen Ebene (http://www.rtbf.e/info/emissions/article_l-evolution-climatique-un-debat-scientifique-ou-religieux?id+8100968)

2) Gebrauch von herabsetzender Wortwahl gegen qualifizierte Experten-Kritiker des IPCC: Prof. van Ypersele nennt Kritiker des IPCC ,Leugner‘ [negationists] – ein herabwürdigender Ausdruck für Holocaust-Leugner (http://www.uclouvain.be/46803.html  ).

3) Eingriffe, um Redefreiheit und freie wissenschaftliche/akademische Untersuchungen auf der Ebene von Universitäten zu blockieren: Prof. van Ypersele intervenierte, um eine wissenschaftliche Konferenz an der Universitaire Stitching (Brüssel) zu verhindern, zu der international anerkannte Experten wie Prof. S. Fred Singer (University of Virginia, USA, former project leader of NASA for the atmospheric satellite temperature measurement) und Prof. Claes-Goran (Royal Polytechnic School, University of Stockholm, specialist in atmospheric turbulence and thermodynamics) eingeladen worden waren. Diese üben wie tausende Andere profunde wissenschaftliche Kritik an der offiziellen Position des IPCC.

4) Eskalation öffentlichen Mobbings durch aufhetzende Sprache gegen Wissenschaftler und Kritiker: Prof. van Ypersele ist Mitglied des George Lemaitre Centre for Earth and Climate Research (TECLIM – Universite Catholique de Louvain), einer Organisation, die Kritiker des IPCC als „Verbrechen gegen die Menschheit“ für schuldig befindet – ein Terminus, der üblicherweise für Kriegsverbrecher benutzt wird (http://www.elic.ucl.ac.be/modx/elic/index.php?id=315).

5) Teilnehmer an einer Organisation und einer Online-Petition (die inzwischen zurückgezogen wurde) um zu versuchen, disziplinarische Maßnahmen gegen einen Kollegen an der Universität zu verhängen, der sich in einer freien akademischen Untersuchung engagiert, die die offizielle Position des IPCC kritisiert: Prof. van Ypersele ist ein Mitglied des George Lemaitre Centre for Earth and Climate Research (TECLIM – Universite Catholique de Louvain), das verlangt hat, dass Universitätsfunktionäre disziplinarische Sanktionen gegen seinen Kollegen verhängen sollen.

6) Beweise für verzerrte/fehlende Unparteilichkeit: Als er bereits an der IPCC-Organisation mitwirkte, hat Prof. van Ypersele im Jahre 2004 für die mächtige, nicht regierungsamtliche Umweltorganisation (ENGO) Greenpeace gearbeitet und im Namen dieser Organisation einen Brief geschrieben [übersetzt] „Auswirkung des Klimawandels in Belgien“. Der Bericht stellte in der Introduction ein katastrophales Science-Fiction-Szenario vor, das in einem vermeintlich wissenschaftlichen Dokument nichts zu suchen hat. Greenpeace wurde kürzlich von Indien als eine Bedrohung der nationalen Sicherheit benannt infolge seiner Bemühungen, die ökonomische Entwicklung abzuwürgen und die Verwendung jedweder fossiler Treibstoffe zu unterbinden; Greenpeace in Europa hat den Ausstieg aus dem Verbrauch fossiler Treibstoffe und der Kernkraft verlangt und befürwortet politische Ideologien, die die soziale Sicherheit und das Rentensystem in Belgien zerschlagen würden.

7) Beanspruchung von einem ;wissenschaftlichen Konsens‘, der nicht existiert: Wir, die Unterzeichneten, sehen die Aktionen von Prof. van Ypersele als radikal ökologisch militant an und glauben, dass sein möglicher Aufstieg zum Präsidenten des IPCC zu einer weiteren Politisierung und Vergiftung der wissenschaftlichen Debatte zum Klimawandel führen wird, obwohl eine solche ruhige und zivile Umgangsformen benötigt:

Issued this day in the city of Brussels, Belgium Jan. 12, 2015

Anne Debeil, Civil Engineer Chemistry, engineer-consultant in security & environment

Drieu Godefridi, Lawyer, Doctor of Philosophy, Essayist

Henri Lepage, Economist

Istvan Marko, PhD Chemistry, Professor at Universite Catholique de Louvain (UCL)

Henri Masson, Civil Engineer, Doctor in Applied Sciences, Professor emeritus at Universiteit Antwerpen and Visiting professor at Maastricht School of Management

Lars Myren – Civil Engineer Chemistry, engineer-consultant in security & environment

Alain Preat, Doctor of Geology, Professor at Universite Libre de Bruxelles (ULB)

The signatories act in a personal capacity.

Die Unterzeichneten handeln in persönlicher Verantwortung.

—————————

Weiteres Material gibt es hier: http://belgotopia.blogs.lalibre.be/archive/2015/01/12/communique-du-collectif-15-verites-qui-derangent-1138694.html

und hier: http://jlduret.blog.sfr.fr/2015/01/le-futur-president-du-giec-est-pas-un-perdreau-de-l-annee.html

und hier: http://www.dagelijksestandaard.nl/2015/01/controverse-inzake-kandidatuur-jean-pascal-van-ypersele-voor-voorzitterschap-vn-klimaatpanel/

Außerdem: http://www.ockhams-scheermes.be/190814336

BIOGRAPHIES

Anne Debeil, chemical engineer, Free University of Brussels, post university degree Safety level 1, Antwerp University, expert recognized by the Flemish Environmental Administration for Major Accident Reporting (Seveso Reporting) and former expert for Environmental Impact Reporting (air and water), has been active in her entire career in the environmental and safety field. Engaged since 2006, in promoting an open debate on climate science and energy policies, after the announcement by IPCC protagonists that the “science is settled”.

Drieu Godefridi, master in law, PhD in philosophy (Sorbonne) has authored several books, notably in the field of epistemology. In 2010 he published « Le GIEC est mort, vive la science », translated in English under the title « The IPPC: a scientific body? ». In 2013 he had a debate on Belgian television with Jean-Pascal van Ypersele (https://www.youtube.com/watch?v=iAiQ2OAnAxI), which was one of the first, and the last, contradictory debates to which Prof. van Ypersele ever agreed.

Henri Lepage is a French economist best known for his book “Tomorrow Capitalism”, published in 1978, that played an important role in reviving interest in France for free market market research and neo-liberal theory. Now retired – after serving as an administrator at the European Parliament in Brussels – he devoted most of his career documenting the limits and ineffectiveness of “command and order” public policies compared to market and property-based strategies – in particular as applied to the field of ecology and environmental goods.

Lars Olof Myrén, chemical engineer, Chalmers Gothenburg, former expert recognized by the Flemish Environmental Administration for Major Accident Reporting (Seveso Reporting), has been mainly active in his career in the engineering, energy and process safety field. Engaged since 2006, in promoting an open debate on climate science and energy policies, after the announcement by IPCC protagonists that the “science is settled”.

Istvan E. Marko is professor of chemistry at the Université catholique de Louvain and director of the organic and medicinal chemistry laboratories. Among others, he delivered during five years lectures on the chemistry of the environment. These lectures became an eye opener and he became deeply interested in the science related to climate. He debated with Professor Van Ypersele about climate change at the first “café chimique” organized by the Royal Society of Chemistry. After that, Prof. Van Ypersele refused to debate about climate science with him.  Marko’s position on the climate debate led the warmist community at the UCL to file a petition against him asking for his dismissal from the university.

Henri Masson, M Sc.Chemical Engineering, PhD Chemical Engineering. Professor Emeritus University of Antwerp (Belgium) in environmental and energy technologies, economics & management. Visiting Professor Maastricht school of management (The Netherlands), research methods (with emphasis on non-linear time series and complex systems structure and dynamics). Previously, Visiting Professor of Environmental Management and eco-design-life cycle analysis at EPFL (Ecole Polytechnique Fédérale de Lausanne, Switzerland). Past Director of SEII ( European Society of Engineers and Industrialists). Past Vice-President of FEDDE (European Federation of Ethics and Sustainable Development). Author of more than 150 (peer reviewed) scientific papers and communications at international congresses.

Alain Préat is Professor at the Université libre de Bruxelles (ULB), Faculty of Science, Biogeochemistry and Earth System Laboratory, Department of Earth Sciences and Environment, and at the University of Soran, Kurdistan (Iraq). His research led him to publish about 140 papers in international and national journals, and to present more than 160 conference papers. He is the holder of eight courses at the ULB (5 mandatory and 3 optional), excursions and field stages, he taught at the third cycle in several French universities and led or co-managed a score of 19 Doctoral and Post-doctoral theses and has been the promotor of nearly 50 Masters theses.

Striche

Abschließend noch gute Nachrichten aus den USA: Der texanische Senator und bekennende Klimaskeptiker Ted Cruz leitet nun das Subkomitee für Raumfahrt und Wissenschaft im US-Parlament, wie futurezone.at am13. Januar 2015 meldete.

Link: http://www.kaltesonne.de/news1/

Bericht zuerst erschienen auf „die Kalte Sonne“. Übersetzung der englischen Passagen von Chris Frey EIKE




Der Aufruf für „bezahlbaren Strom“

Ein medialer Renner ist sie nicht gerade gewesen – diese Unterschriftenaktion „Für bezahlbaren Strom und gute Arbeitsplätze“. Trotzdem hätte sie Aufmerksamkeit verdient. Ihr letzter Akt hat vergangene Woche stattgefunden, am 4. Februar als Fototermin. Da wurden die Unterschriften an Bundeswirtschaftsminister Sigmar Gabriel übergeben. Aber nicht die privaten Stromverbraucher hatten sie zusammengetragen. Das zwar hätte nahegelegen, weil doch gerade sie vom staatlich verursachten Strompreisanstieg gebeutelt werden. Aber es ist die Industriegewerkschaft Bergbau Chemie Energie (IG BCE) gewesen. Mitte November 2014 hatte sie die Aktion gestartet und gut 125 000 Unterschriften zusammengebracht. Es geht um die deutsche „Energiewende“. Die Gewerkschaft fürchtet, dass diese Energiewendepolitik Arbeitsplätze vernichtet. Damit hat sie recht. Zugleich jedoch befürwortet sie die „Energiewende“ und befürwortet folglich auch deren erklärtes Ziel, nämlich eine Klimaerwärmung verhindern und das gegenwärtige Klima „schützen“ zu wollen. Damit hat sie unrecht.

Wir wollen, wir wollen …

Die Gewerkschaft BCE streitet für „eine Neuorientierung der Energiepolitik“. Was versteht sie darunter? Ihr Vorsitzender Michael Vassiliadis hat das so formuliert: „Wir brauchen die Innovationskraft gerade der energieintensiven Industrie für eine erfolgreiche Energiewende. Deshalb darf die Energiepolitik Arbeitsplätze in diesen Branchen nicht riskieren, sondern muss sie im Gegenteil sichern und fördern. Wir wollen eine Energiewende mit Wachstum und Klimaschutz. Wir wollen eine Energiepolitik, die mit Stetigkeit und Verlässlichkeit wesentliche Voraussetzungen für langfristige Investitionsentscheidungen schafft, gerade auch für die fossilen Energien. Denn sie bringen Preisstabilität und Versorgungssicherheit in die Energiewende ein.“ (Quelle: hier).

Warum es Wunschdenken ist

Das ist Wunschdenken und käme der Quadratur des Kreises gleich, die bekanntlich unmöglich ist (hier). Weder kann diese Energiewende schon aus Vernunftgründen erfolgreich sein, noch kann sie das durch die „Innovationskraft der energieintensiven Industrie“ je werden. Wer für die deutsche Energiewende eintritt, will die Stromerzeugung aus vergleichsweise billiger Kernkraft und fossilen Brennstoffen abschaffen und Strom mittels Wind und Sonnenschein erzeugt sehen. Aber erstens vermögen Wind und Sonne nur unstetigem Strom zu liefern (Flatterstrom), der das

Stromnetz destabilisiert und folglich die Versorgungssicherheit bedroht. Und zweitens ist dieser Strom dauerhaft teurer als Strom aus Kern- und Fossilbrennstoffen, also technisch zwar möglich, aber wirtschaftlich unsinnig. Daran vermag die energieintensive Industrie nichts zu ändern, selbst wenn sie noch so innovativ wäre. (Nebenbei: Korrekt formuliert ist die Energiewende eine Stromerzeugungswende.)

Die Entlastung der stromintensiven Branchen belastet alle übrigen

Arbeitsplätze in der energieintensiven Industrie gefährdet die Energiewende in der Tat (siehe auch hier). In ihrem Aufruf zur Unterschriftenaktion (hier) schreibt die Gewerkschaft: „Es sind bereits zu viele Arbeitsplätze verloren gegangen.“ Ebendarum verlangt ihr Vorsitzender, die Energiepolitik – er meint die Stromerzeugungspolitik – dürfe die Arbeitsplätze in den stromintensiven Branchen nicht riskieren; sie seien zu sichern und zu fördern. Fördern bedeutet stets subventionieren. Das geschieht bereits, indem für diese Branchen der Strompreis heruntersubventioniert wird. Was diese Branchen für ihren Strom weniger bezahlen, müssen die übrigen Branchen und die privaten Stromverbraucher mehr entrichten, denn ihnen wird die Subvention aufgebürdet.

Die anfänglich nicht wahrnehmbaren Kosten der Wendepolitik

Erst also treibt die politische Führung den Strompreis mit ihrer Wendepolitik mutwillig und ohne Not hoch, was ganze Branchen gefährdet, dann subventioniert sie ihn zu Lasten der anderen Stromverbraucher für diese Branchen wieder herunter. Aber diese „Förderung“ genügt der Gewerkschaft noch nicht, sie denkt verständlicherweise an mehr. Doch nimmt sie damit ungerührt in Kauf, dass Arbeitsplätze in den anderen Branchen riskiert und vernichtet werden, denn keine Branche kommt ohne Strom aus. Und jeder, der für seinen Strom mehr bezahlen muss, kann entsprechend weniger für andere Dinge ausgeben. Das Geld, was ihm fehlt, fehlt dann auch in den Kassen jener Unternehmen, bei denen er diese anderen Dinge zu kaufen pflegt. Diese anfänglich nicht wahrnehmbaren Kosten der Strompolitik werden erst sehr langsam wirksam und sichtbar. Sie laufen ebenfalls auf Arbeitsplatzverluste hinaus. Das schlägt letztlich auch auf die stromintensiven Branchen zurück. Auf lange Sicht also nützt ihnen der heruntersubventionierte Strompreis letztlich nicht.

Nicht Schwäche führt zu Wachstum, sondern Stärke

Was will die Gewerkschaft BCE sonst noch? Sie will „eine Energiewende mit Wachstum und Klimaschutz“. Wie soll das gehen? Wendepolitik mit Klimaschutz bedeutet weg von Kohle, Erdöl und Erdgas. Also weg vom billigen sicheren Strom, hin zum teuren unsicheren. Das ist wachstumsschädlich, denn ohne Strom geht nichts, und der wird unsinnigerweise zu teuer gemacht. Das schwächt die deutsche Wirtschaft im Wettbewerb mit dem Ausland. Nicht Schwäche führt zu Wachstum, sondern Stärke. Und im Inland wird alles teurer, weil in jeder Ware und in jeder Dienstleistung Strom steckt. Damit entsteht ein Verlust an Kaufkraft. Wo Kaufkraft schwindet, schwindet Wachstum. Wohl kann die Gewerkschaft wollen, was sie sagt, aber es wird nicht funktionieren. Sie spekuliert wie die politische Führung auf die Gutgläubigen, auf die Ahnungslosen, auf die durch das Klimaschutz-Gefasel Verführten. Wenn die und ihre Kinder und ihre Enkel merken, wie sie hintergangen wurden, sind die Verführer über alle Berge im Ruhestand und genießen unverdiente Pensionen, die die Verführten ebenfalls noch zu schultern haben.

Stetige und verlässliche Politik taugt nichts, wenn sie schlecht ist

Und noch etwas will die Gewerkschaft: „eine Energiepolitik, die mit Stetigkeit und Verlässlichkeit wesentliche Voraussetzungen für langfristige Investitionsentscheidungen schafft, gerade auch für die fossilen Energien. Denn sie bringen Preisstabilität und Versorgungssicherheit in die Energiewende ein“. Das klingt überaus gut. Wenn die Wendepolitik derart stetig und verlässlich fortgeführt wird wie bisher, können Unternehmen ihre langfristigen Investitionsentscheidungen in der Tat gut daran ausrichten. Doch dürften ihre Entscheidungen in die falsche Richtung gehen: Die Unternehmen werden lieber im Ausland investieren, wo der Strom billiger ist. Und im Inland werden sie sich mit Investitionen zurückhalten, weil sie Kaufkraft und Wachstum schwinden sehen. Der Schuss geht gleichsam nach hinten los. Politik muss zwar stetig und verlässlich sein, aber ist es schlechte Politik, kann sie mit Stetigkeit und Verlässlichkeit nur verlieren. Beides macht nur Sinn mit guter Politik.

Die Lückenbüßer-Kraftwerke

Nicht anders bei den herkömmlichen Kraftwerken, die Strom mit Kohle, Öl und Gas erzeugen. Auch sie wissen um die politische Absicht, an der Wendepolitik partout festzuhalten. Sie sind unerwünscht. Sie dürfen nur noch einspringen, wenn Wind- und Sonnenstrom fehlen. Sie werden immer mehr auf eine Lückenbüßer-Rolle zurückgedrängt. Sie sollen Stromerzeugungskapazität zwar bereithalten, dürfen aber den Strom nur gelegentlich liefern. Und die ganz Unentwegten und die Dogmatiker unter den Klimaschützern wollen den Strom am Ende der Wende sogar zu 100 Prozent mit Wind und Sonnenschein erzeugen (Kritik daran hier). Dann wären die fossilen Lückenbüßer-Kraftwerke letztlich ganz weg vom Fenster.

Nichts wie raus aus dem Geschäft

Stetig und verlässlich ist diese Politik also auch für sie, allerdings verlustbringend. Mit Sonderzahlungen als Entgelt für die Vorhaltekosten versucht sie der Staat zunächst bei der Stange zu halten. Auch diese Zahlungen werden auf den Strompreis für die Allgemeinheit umgelegt. Es sind Subventionen, um den Schaden auszubügeln, den die Wendepolitik mit ihren Folgen anrichtet. Doch Subventionen unterliegen politischer Opportunität. Das wissen auch diese Kraftwerksbetreiber. Wie daher deren „langfristige Investitionsentscheidung“ aussieht, ist nicht schwer zu erraten: nichts wie raus aus dem Geschäft, nicht mehr investieren.

Warum der Vorsitzende Unfug geredet hat

Aber der BCE-Vorsitzende Vassiliadis behauptet: Diese Kraftwerke „bringen Preisstabilität und Versorgungssicherheit in die Energiewende ein.“ Falsch. Als Lückenbüßer verteuern sie den Strom sogar. Versorgungslücken füllen sie nur, solange es genug solcher Werke noch gibt. Darauf, dass die Strompreise stabil bleiben, haben sie keinerlei Einfluss. Die werden vom Winde- und Sonnenstrom bestimmt und von der Politik. Die Strompreise sind politische Preise. Ebenfalls keinen Einfluss haben die Lückenbüßer-Kraftwerke auf die Netzstabilität. Sicher ist die Stromversorgung nur, wenn das Stromnetz stabil ist. Stabil ist es nur, solange die Stromfrequenz 50 Hertz nicht über- oder unterschreitet. Tut sie das, fällt der Strom aus, und alles steht still. Wind- und Sonnenstrom gefährden diese Frequenz ständig. Kurzum, der Vorsitzende hat Unfug geredet.

Was die Gewerkschaft offenbar vergessen hat

Die Profiteure der Wendepolitik sind relativ wenige, die Verlierer der Wendepolitik ist die Masse der Bevölkerung. Mit dieser Politik findet eine Umverteilung von den vielen unten zu den wenigen oben statt. Einstmals haben sich Gewerkschaften über so etwas sehr erregt. Das haben sie offenbar vergessen. Oder sie kapieren es nicht. Oder es ist ihnen gleichgültig geworden.

Die Gewerkschaft verlangt, was unmöglich ist

Im Aufruf der Gewerkschaft zur Unterschriftensammlung heißt es: „Wir wollen eine Energiewende ohne Arbeitsplatzrisiko und politische Preistreiberei. Wir wollen eine Energiewende mit Wachstum und Klimaschutz.“ Schön, dass sie das will. Doch muss sie lernen, dass sie Unmögliches verlangt. Denn die Energiewende bedeutet Arbeitsplatzrisiko und politische Preistreiberei. Die Energiewende bedroht das wirtschaftliche Wachstum. Und dass sie das Klima schützen, also eine Erwärmung der Erde verhindern kann, ist absurd, ein Irrglaube, eine Ersatzreligion.

Zurück zur Vernunft, die Energiewende ist ein Schuss ins eigne Knie

Ebenso steht im Aufruf: „Wir erwarten von den Regierungen im Bund und in den Ländern eine Energiepolitik der wirtschaftlichen und sozialen Vernunft.“ Mit dieser Vernunft muss sie zuerst bei sich selbst beginnen. Auch alle übrigen Energiewende-Bürger müssen zur Vernunft zurückfinden. Sonst rühren sich die Regierungen und die Politiker in Bund und Ländern kein bisschen. Diese Energiewendepolitik ist für Deutschland ein Schuss ins eigene Knie. Daher sollte sich die Gewerkschaft für eine Wende der Wende einsetzen. Hierfür sollte sie bei ihren Mitgliedern und den übrigen Bürgern Überzeugungsarbeit leisten. Hierfür sollte sie Aufrufe formulieren und auf Unterschriftensammlung gehen.

Übernommen von KPKrauses Blog




Fracking und die Öffentlich-rechtlichen: Erst diffamieren dann leise verdrücken

Hier der Link zur Einleitung. Angeblich reagierte der Programmbeirat auf einen FAZ-Artikel, der die reißerische Ankündigung des “Kampagnenjournalismus”-Films auf Arte noch im August 2014, deutlich kritisierte. Doch die Entscheidung der öffentlich-rechtlichen Sender kommt vier Jahre zu spät.

Denn bereits spätestens seit Mai 2011 ist bekannt, dass der “Gasland”-Filmemacher Josh Fox bewusst unwahre Aussagen/Darstellungen in sein Machwerk integriert hat. Das hat der investigative Journalist Phelim McAleer herausgefunden, indem er bei einer Veranstaltung Josh Fox unbequeme Fragen stellte. Im Verlauf der Befragung musste dann Fox eingestehen, dass ihm bekannt war, dass lange vor Fracarbeiten Methan im Grundwasser enthalten war und somit das Phänomen der entflammbaren Wasserhähne altbekannt ist (YouTube-Video “Gasland director hides full facts“).

Auf diesen Sachverhalt wurde in Forenbeiträgen bei Arte und 3sat teilweise noch vor der Ausstrahlung mehrfach hingewiesen, jedoch wurden diese Hinweise konsequent ignoriert. Dieses Ignorieren hatte fatale Folgen, denn das in “Gasland” Dargestellte und Behauptete wurde von zahlreichen Mitbürgern unkritisch als der Realität entsprechend angenommen.

Das hatte zur Folge, dass die ungefähr zum Jahreswechsel 2010/2011 angelaufene und im wesentlichen auf emotionaler Ebene geführte Debatte um die auch in Deutschland seit Jahrzehnten etablierte Technologie des Hydraulic “Fracking” Fracturing verschärft wurde. Ich bin sogar überzeugt davon, dass es ohne diesen Film, an dem quasi nichts Wahres dran ist (siehe “Fracking in den USA – ‘Gasland’ und die Fakten”  hier ScienceSkeptical), es dies Debatte nicht gegeben hätte. Schließlich beriefen sich bereits vor der Ausstrahlung des Films Medienberichte auf Szenen und Behauptungen aus “Gasland”.

Die Debatte, die von durch “Gasland” bzw. durch die genannten Medienberichte verunsicherte Mitbürger angestoßen wurde, erreichte zügig die Politik, angefangen von der kommunalen Ebene bishin zur bundespolitischen. Im Wesentlichen geht es in der Debatte um vermutete, jedoch bislang unerschlossene Erdgasvorkommen in Tongesteinen mit hohen organischen Anteilen (“Schiefergas”) sowie untergeordnet in Kohleflözen (“Coal Bed Methane” bzw. “CBM”).

Dabei ist zur Erschließung der Schiefergaslagerstätten der Einsatz des Hydraulic Fracturing unumgänglich. In CBM-Lagerstätten kann das Speichergestein durch gebirgsmechanische/tektonische Prozesse bereits ausreichend durchlässig sein, um das in den Kohleflözen enthaltene Erdgas ohne den Einsatz künstlicher hydraulischer Risserzeugung gewinnen zu können.

Aber auch das bereits seit fünf Jahrzehnten (!) in Deutschland ohne umweltrelevante Probleme in Sandsteinen unterschiedlicher geologischer Formationen (Buntsandstein, unterpermisches Rotliegendes sowie Karbon und ganz untergeordnet im Jura) sowie auf dem Gebiet der DDR auch im Staßfurtkarbonat des Zechstein durchgeführte Hydraulic Fracturing geriet in den Fokus der Kritik. Für das Jahr 2011 anberaumte Projekte in den Bohrungen “Bötersen Z11″ (Rotliegendes, Landkreis Rotenburg) sowie “Düste Z10″ (Karbon, Landkreis Diepholz) sind bis heute nicht umgesetzt worden.

Lediglich in der Erdölbohrung “E Barth 11″ in Vorpommern konnte im Jahr 2014 durch geschickte Argumentation des Unternehmens CEP Central European Petroleum GmbH (CEP) eine Mehrfach-Fracbehandlung in der horizontalen Bohrstrecke im Speichergestein (Staßfurtkarbonat) durchgeführt werden. CEP distanzierte sich deutlich vom “Fracking” in Schiefergaslagerstätten.

Dabei muss man bedenken, dass der vor 2010/2011 in Deutschland unbekannte Begriff des “Fracking” als Kurzform für “Hydraulic Fracturing” mittlerweile durch Bürgerinitiativen (BI), Umweltverbände und zahlreiche Medien zur Definition des Gesamtprozesses der Schiefergasförderung umgedeutet wurde. Oder auch nicht. Je nachdem, wie es den Gegnern des weltweit über 2,5 Millionen Mal durchgeführten Standardverfahrens gerade ins Konzept passt.

Da in Deutschland irgendwo immer Wahlkampf ist und die gut organisierten BI, Umweltverbände sowie Journalisten wie der “Solarpreisträger für persönliches Engagement” Jürgen Döschner vom zur Neutralität (!) verpflichteten öffentlich-rechtlichen Rundfunk (ARD) es erfolgreich geschafft haben, den Eindruck zu vermitteln, dass der überwiegende Anteil der deutschen Bevölkerung gegen Hydraulic Fracturing eingestellt ist, sah sich die Politik gezwungen, dem vermeintlichen Wählerwillen entsprechend zu handeln.

Dabei kann nicht ausgeschlossen werden, dass die Mehrheit der Deutschen eine ablehnende Haltung gegenüber Hydraulic Fracturing hat. Das ist meiner Ansicht nach eine Folge jahrelanger medialer Desinformation, die mit der unkritischen Berichterstattung über die angeblichen unausweichlichen Folgen der Schiefergasgewinnung begann und sich dabei mit Szenen aus “Gasland” bediente und schließlich in der mehrfachen Ausstrahlung dieses Filmes gipfelte. Wissenschaftler, die über Expertise auf dem Gebiet verfügen, wurden vorsichtshalber nicht in die Berichterstattung einbezogen.

Ohne nachvollziehbaren Grund ist die Politik deshalb bestrebt, die Möglichkeiten zur Durchführung des Hydraulic Fracturings erheblich einzuschränken. Der Satiriker und Kabarettist Dieter Nuhr hat dieses Bestreben folgendermaßen dargestellt:

“Das Umweltbundesamt will das Fracking verbieten, weil sich die Risiken dieser Technologie noch nicht sicher vorhersagen lassen. Also nicht, weil es ein Risiko gäbe, sondern weil es eins geben könnte. […]”

Dieses Zitat ist einem beim WDR ausgestrahlten Podcast entnommenworden. Nuhr erntete für seinen satirischen Beitrag üble Beschimpfungen aus den Kreisen der selbsternannten “Anti-Fracking-Bewegung”, was ich in dem Beitrag “Wegen Satire: Dieter Nuhr erntet üble Beschimpfungen von “Fracking”-Gegnern” beschrieben habe.

Während die Bundesregierung lediglich infolge der von “Gasland” ausgelösten Debatte wie oben geschrieben die Möglichkeiten zur Durchführung des Hydraulic Fracturings erheblich einschränken will, wollen einzelne Landesregierungen das Standartverfahren komplett verbieten. Eine nachvollziehbare, wissenschaftlich begründete Grundlage dafür existiert jedoch nicht.

Zwar hat bereits die vorangegangene Bundesregierung über das meiner Ansicht nach politisierte/ideoligisierte Umweltbundesamt (UBA) eine zweiteilige Risikostudie zum “Fracking” in Auftrag gegeben, aber das Ergebnis, insbesondere des zweiten Teils, entspricht nicht den Vorstellungen des Auftraggebers. Der Geophysiker Prof. Dr. Horst Rüter dazu in seinem bissig-pointierten Beitrag “Fracking – kann die Politik noch sachbezogen handeln?”:

“Es wurden Gutachten und Studien in Auftrag gegeben (NRW und UBA 1 und 2). Die Wissenschaftler wurden sorgfältig so ausgesucht, dass sie von Fracking möglichst keine Ahnung hatten, zumindest aber noch nie etwas zum Thema veröffentlicht hatten. Dennoch entstanden überraschenderweise brauchbare Gutachten, die zum größten Leidwesen der Politik deren populistische Positionen nicht begründeten”.

Der Chefgutachter des zweiten Teiles, Uwe Dannwolf, widersprach sogar öffentlich der Interpretation des Gutachtens seines Auftraggebers, dem UBA. Dieser Widerspruch wurde in einer kleinen Serie des NDR/ARD Magazins “Panorama” sowie dessen Ablegern thematisiert. Im Rahmen dieser Serie wurde dann auch endlich “Gasland” als das dargestellt, was der Film ist: Hochgradig unseriös.

Einer der Beiträge wurde treffenderweise “Fracking: Die Angst der Politik vorm Bürger” genannt. Ich habe diesen Beitrag bewusst verlinkt, da anhand der unter dem Beitrag zu findenden Kommentare hervorgeht, wie die “Fracking”-Gegner reagieren, wenn sich ein Magazin auf sachlicher Ebene einem heiß diskutierten Thema nähert. Ich denke, es ist überflüssig zu erwähnen, dass einige Kommentare an Niveaulosigkeit, ähnlich wie zum Nuhr-Beitrag, kaum zu unterbieten sind.

 Video (in Englisch) zur Befragung der Macher von Gasland durch Phelim McAleer nach den Gründen warum sie die wichtigsten Fakten bezüglich des Methanaustritts aus Wasserhähnen wegließen

NDR/ARD reagierten mit “Die Wucht der Vorwürfe hat uns überrascht”entsprechend irritiert auf die unsachlichen Kommentare der “Fracking”-Gegner. Was ich an dieser Stelle der “Panorama”-Redaktion hoch anrechne ist das Eingeständnis, dass auch sie sich von “Gasland” beeindrucken ließen und die Szene mit den brennenden Wasserhähnen als wahr verkauften. Aber sie hatten den Anstand, diesen Fehler einzugestehen während von Arte und Co. keine Reaktion zu vernehmen war.

Auf die Serie der “Panorama”-Redaktion folgte eine Replik der Kollegen vom “Monitor”-Magazin, an der auch der bereits erwähnte Jürgen Döschner beteiligt war. Dazu habe ich mich ausführlich im ScienceSkeptical-Beitrag“Öffentlich-rechtliche Diffamierung von Wissenschaftlern”ausgelassen. Einen lesenswerten Artikel dazu gibt es auch bei “Die Achse des Guten” mit dem Titel “Fräck ju, Panorama!” von Wolfgang Röhl.

Allerdings erschienen die “Panorama”-Beiträge erst nach der letzten “Gasland”-Ausstrahlung bei Arte. Und diese Ausstrahlung wurde vom grünen Umweltminister von Nordrhein-Westfalen, Johannes Remmel, via Twitter beworben (Filmtipp Remmel). Es ist peinlich, dass von einem Landesminister ein Film beworben wird, der vor nachgewiesenen Unwahrheiten nur so strotzt.

Fataler ist jedoch, dass aufgrund der dank “Gasland” seit inzwischen 4 Jahren anhaltenden Debatte um ein bewährtes Verfahren auf inzwischen sämtlichen politischen Ebenen, die inländische Erdöl-Erdgasindustrie keine Planungssicherheit für Investitionsentscheidungen mehr hat. Dieser Umstand hat zur Folge, dass seit fast vier Jahren keine Fracmaßnahme in Erdgaslagerstätten mehr durchgeführt wurde und Anträge nicht bearbeitet werden, obwohl sich die Gesetzeslage nicht geändert hat. Das wiederum hat zur Folge, dass der seit etwas mehr als 10 Jahren zu verzeichnende Förderabfall beschleunigt hat.

Der ungerechtfertigte Genehmigungsstillstand sowie die wissenschaftlich nicht nachvollziehbaren, da unbegründeten geplanten Erschwerungen der Genehmigungspraxis für hydraulische Stimulationsmaßnahmen haben zudem noch weitere Folgen: Anberaumte Projekte wurden auf Eis gelegt oder sogar komplett in den Orkus geworfen, so dass inzwischen Bohrkontraktoren wie die im niedersächsischen Celle beheimatete ITAG Kurzarbeit einführen mussten oder bei Mitbewerbern wie der KCA Deutag Kurzarbeit ansteht. Hinzu kommt, dass sich der Eigenversorgungsanteil von einst 20 Prozent auf jetzt lediglich nur noch 10 Prozent weiter verringern wird.

Und das alles ohne Not, nur weil es ein längst als unwahr entlarvter Film geschafft hat, große Bevölkerungsteile, von denen sich wiederum einige in Bürgerinitiativen engagieren, zu verunsichern. Diese verunsicherten Bürger haben es wiederum geschafft, teilweise mit befangenen Journalisten, die Politik vor sich herzutreiben, die sogar soweit geht, Ergebnisse von ihr selbst in Auftrag gegebener Studien nicht zu akzeptieren. In anderen Bereichen hätte dies einen politischen Skandal zur Folge, bei dem die Verantwortlichen wie die UBA-Präsidentin Krautzberger (SPD) sowie deren Weisungsbefugte und Parteigenossin, die Umweltministerin Dr. Barbara Hendricks, ihren Hut hätten nehmen müssen. Wenn es um fossile (Energie-) Rohstoffe geht, gelten jedoch anscheinend andere Regeln.

Steven Arndt betreibt die Webseite “Erdöl und Erdgas in Deutschland

Übernommen von ScienceSceptical




Der größte Klimaskandal jemals?

Temperatur-Adjustierungen verändern die Klimahistorie der Arktis

Paul Homewood

Man hat uns gesagt, dass das stärkste Anzeichen des „Klimawandels“ die rapide Erwärmung der Arktis ist, die sogar das Welt-Thermometer genannt worden ist. Sie beweist, dass die globale Erwärmung nicht aufgehört haben kann.

Mit Sicherheit ist der Beweis von GISS hierfür überzeugend:


Es ist allgemein etabliert, dass sich die Arktis während der dreißiger und vierziger Jahre des vorigen Jahrhunderts rapide erwärmt hat, bevor die Temperaturen in den sechziger und siebziger Jahren steil abgefallen sind. James Hansen selbst hat dies erkannt, wie seine folgende Graphik aus seiner Studie des Jahres 1987 zeigt. Seine Studie trägt den Titel [übersetzt] Globale Trends der gemessenen Lufttemperatur (hier)


Wieviel von dem also, was wir während der letzten Jahre gesehen haben, ist lediglich Teil dieses Zyklus‘? Wieviel wärmer ist es derzeit in der Arktis im Vergleich zu vor 80 Jahren?

GISS zufolge ziemlich viel.

Aber kann man den GISS-Zahlen vertrauen? Wir haben zuvor gesehen, wie die Temperaturhistorie von Paraguay und einem großen Teil des Gebietes um dieses Land herum verändert worden ist als Folge von Temperatur-Adjustierungen, welche historische Temperaturen deutlich reduziert und einen Abkühlungstrend in einen Erwärmungstrend umgewandelt haben [sozusagen ein menschlicher Klimawandel auf dem Papier! Anm. d. Übers.]

Ich kann jetzt bestätigen, dass ähnliche „Abkühlung-der-Vergangenheit“-Adjustierungen im Gebiet der Arktis vorgenommen worden sind und dass das Ausmaß und die geographische Ausdehnung hiervon atemberaubend ist. Nahezu jede gegenwärtige Station von Westgrönland bis ins Herz von Sibirien (87°E) sind in dieser Weise verändert worden. Folge hiervon war die weitgehende Eliminierung der Temperaturspitze in den vierziger Jahren, was wiederum zur Folge hatte, dass ein großer Teil der darauf folgenden Abkühlung während der kalten Dekaden verschwunden war.

Bei den betroffenen Stationen handelte es sich um alle Stationen von NUUK (51°W) bis nach Tuhuransk (87°E); mit anderen Worten also ein Halbkreis um die Arktis.

Im Anhang gibt es einen vollständigen Satz der GHCN-Seiten für jede Station, der das Ausmaß der Adjustierungen zeigt, aber die folgenden beiden gegenüber gestellten Graphiken* für NUUK in Grönland und Salehard in Sibirien geben eine Ahnung davon. Man beachte, wie stark die Temperaturen während der vierziger Jahre nach unten korrigiert worden sind:

[*Im Original {Link unten} sind beide Graphiken animiert übereinandergelegt. Da wird es noch deutlicher. Anm. d. Übers.]


http://data.giss.nasa.gov/cgi-bin/gistemp/show_station.cgi?id=222233300000&dt=1&ds=12
http://data.giss.nasa.gov/cgi-bin/gistemp/show_station.cgi?id=222233300002&dt=1&ds=1

http://data.giss.nasa.gov/cgi-bin/gistemp/show_station.cgi?id=431042500000&dt=1&ds=12
http://data.giss.nasa.gov/cgi-bin/gistemp/show_station.cgi?id=431042500000&dt=1&ds=1
Alles in allem: von allen derzeit in Betrieb befindlichen Stationen mit einer Reihe zurück bis zum Jahr 1940, aufgestellt in Grönland, Island, Nordnorwegen, Russland und Sibirien (letztere 3 nördlich von 65°N) gibt es 19 Stationen, die in dieser Weise adjustiert worden sind, um einen künstlichen Erwärmungstrend zu erzeugen. Nur von 4 Stationen blieben die Aufzeichnungen unverändert. Keine einzige Station wurde in die andere Richtung adjustiert. (Klarstellung: abgedeckt wird Sibirien bis 87°E).

Adjustierungen von einem Grad Celsius oder mehr sind die Regel.

Temperatur-Adjustierungen

Können diese Temperatur-Adjustierungen irgendwie gerechtfertigt werden? Das ist kaum glaublich angesichts des Umstands, dass so viele verändert worden sind. Die normale Logik einer Adjustierung erfolgt bei einer Station, die klar als Ausreißer hervortritt. Deren Werte müssen homogenisiert werden, um zum Ensemble zu passen. Eindeutig wurde aber in diesem Falle das Ensemble verändert. In Island beispielsweise sind alle vier Stationen adjustiert worden.

Sogar die Werte der Stationen Lerwick und Stornoway sind adjustiert worden. Mit Sicherheit weist das isländische Met.-Office IMO zurück, dass dessen Temperaturaufzeichnungen falsch seien und einer Adjustierung bedürfen. Man stellte fest, dass einige Adjustierungen „ein grober Irrtum“ waren.

Man hat dort eindeutige Vorstellungen davon, wie dessen Temperaturen über die Jahre verändert worden sind. In ihrem Bericht mit dem Titel [übersetzt] „Temperaturbedingungen in Island in der Vergangenheit“ (hier , von 1798 bis 2007) finden sich u. A. die folgenden Graphiken. Es stellt fest:

Die Zeit ab 1925 wird durch einen sehr großen Zyklus dominiert, der alles in allem keine signifikante Erwärmung zeigt, obwohl der Temperaturanstieg der letzten 20 Jahre deutlich wird.

Die Warmperiode des 20. Jahrhunderts beginnt in den zwanziger Jahren und endet sehr abrupt im Jahre 1965. Sie kann in drei Unterperioden geteilt werden, wobei es bis 1942 sehr warm war, gefolgt von einem kälteren Intervall von 1943 bis 1952; aber es war von 1953 bis 1964 entscheidend wärmer.

Die Kaltzeit von 1965 bis 1995 enthält ebenfalls drei Unterperioden. Die so genannten „Meereis-Jahre“ von 1965 bis 1971, eine geringfügig wärmere Periode von 1972 bis 1978, ein sehr kaltes Intervall von 1979 bis 1986. Danach jedoch wurde es allmählich wärmer, und das letzte kalte Jahr in dieser Sequenz war 1995. Seitdem war es warm mit dem Höhepunkt in den Jahren 2002 und 2003. Allgemein bezieht sich obige Beschreibung auf das ganze Land, jedoch gibt es geringfügig divergierende Details, abhängig von der Quelle der Kaltluft.


Abbildung 1: Jährliche Temperatur in Stykkishólmur von 1798 bis 2007. Man beachte, dass die Werte vor 1845 interpoliert worden sind aus Beobachtungen anderer Stationen. Das Vertrauen in die Werte ist vor 1830 sehr gering; diese Werte sind vorläufig, und man sollte sich nicht auf sie beziehen. Die Arbeit zur Verbesserung ist im Gange. Einige warme und kalte Jahre sind hervorgehoben.


Abbildung 2: 7-jährig gleitendes Mittel der Temperatur an drei Stationen in Island, und zwar Reykjavik (rot), Stykkishólmur (blau) und Akureyri (grün). Kuldakast = Kaltzeit. Die erste der drei markierten Perioden war im Norden am kältesten (Akureyri), die zweite war am kältesten in Reykjavik. (hier ).

Die von der IMO gezeigte Temperaturaufzeichnung zeigt wenig Ähnlichkeit mit der stark adjustierten Version, die jetzt vom GISS gezeigt wird (unten). Die letzten Jahre werden deutlich wärmer dargestellt als die fünfziger Jahre des vorigen Jahrhunderts, und man würde nie darauf kommen, dass es jemals zu den Meereis-Jahren von 1965 bis 1971 gekommen war.


http://data.giss.nasa.gov/cgi-bin/gistemp/show_station.cgi?id=620040630000&dt=1&ds=12
Die Meereis-Jahre sind ein gut belegtes Phänomen und wurden ausgiebig erforscht. Sie traten gleichzeitig mit der Großen Salzgehalt-Anomalie (Great Salinity Anomaly GSA), die wie folgt beschrieben worden ist.

Jedoch ist die GSA mit Sicherheit eines der dramatischsten Ereignisse des Jahrhunderts in der Norwegischen See.

Viele Studien bestätigen auch, dass die klimatischen Änderungen in Island Teil einer viel weiter verbreiteten Abkühlung in Grönland und anderswo war. Es gibt zu viele Studien hierzu, als dass sie hier alle gezeigt werden können, aber man kann sie hier einsehen.

Kurz gesagt, sowohl die Erwärmung der vierziger Jahre als auch die bitterkalten Jahre der sechziger und siebziger Jahre waren reale Ereignisse. Mit Sicherheit hatte Letzteres gewaltige und verheerende Auswirkungen auf die isländische Wirtschaft, vor allem hinsichtlich Landwirtschaft und Fischerei.

Trausti Jonsson ist ein leitender Meteorologe am Met.-Office von Island, der sich auf Klimatologie spezialisiert hat. Er schrieb mir folgenden Kommentar:

Im Jahre 1965 gab es eine reale und sehr plötzliche Klimaänderung in Island (Verschlechterung). Sie war im Norden stärker als im Süden und betraf sowohl die Landwirtschaft als auch die Fischerei – und damit auch die Gesellschaft insgesamt mit rasant steigender Arbeitslosigkeit und einer Abwertung der lokalen Währung um 50%. Das Jahr 1965 wird oben zweimal erwähnt. Es ist absolut traurig, wenn diese signifikante Klimaänderung als ein Beobachtungsfehler interpretiert und so lange adjustiert wird, bis sie aus den Aufzeichnungen verschwunden ist. Ich habe nunmehr über 25 Jahre lang im Bereich historische Klimatologie geforscht. Ich bin schuldig gewesen, eifrig Über-Adjustierungen der Werte der Vergangenheit vorgenommen zu haben. Aber da ich diese großen plötzlichen Klimaverschiebungen selbst erlebt habe, weiß ich, dass sie nur zu real waren.

Hat sich die Arktis seit dem 19. Jahrhundert erwärmt, das man als die kälteste Zeit seit der Eiszeit bezeichnet hat? Definitiv ja.

Hat sich die Arktis erwärmt seit der Kaltphase in den sechziger und siebziger Jahren? Sicherlich.

Aber man entferne diese Temperatur-Adjustierungen, von denen keine jemals rückwirkend gerechtfertigt worden ist. Dann ist fraglich, ob es in der Arktis derzeit wirklich deutlich wärmer ist als in den Dreißigern und Vierzigern.

Man erinnere sich auch daran, dass es in den meisten Gebieten der Arktis überhaupt keine Temperaturmessungen gibt und die Temperaturen einfach von Stationen hinein interpoliert worden sind, die sich Hunderte Meilen entfernt befinden. Dies verleiht den falschen Adjustierungen an Stationen in Grönland, Island und anderswo einen erheblichen verstärkenden Effekt, da der künstlich eingeführte Erwärmungstrend auf diese nicht überwachten Gebiete übertragen wird.


http://data.giss.nasa.gov/cgi-bin/gistemp/nmaps.cgi?sat=4&sst=3&type=anoms&mean_gen=1212&year1=2014&year2=2014&base1=1951&base2=1980&radius=250&pol=pol
Jene warmen Dekaden fielen zeitlich zusammen mit der Warmphase der Atlantischen Multidekadischen Oszillation AMO, genauso wie die derzeitige Warmphase. Genauso hatte die AMO in den Siebzigern ihren Tiefpunkt erreicht. Man braucht wirklich kein Genie zu sein, um zu erkennen, was passieren wird, wenn die AMO in nicht allzu ferner Zukunft erneut in die Kaltphase wechselt.

Ich habe bei GHCN bei vielen Gelegenheiten angefragt, ihre Adjustierungen zu erklären, aber trotz des Eingeständnisses, dass man sie vorgenommen hatte, waren sie bis heute dazu nicht in der Lage. Bis das doch der Fall ist, zeigen alle Beweise, dass die offiziellen Temperaturtrends für die Arktis, wie sie vom GISS und Anderen veröffentlicht werden, hoffnungslos falsch sind.

Gesamter Beitrag nebst Anhängen  

———————————

Global gemittelte Temperaturen auf dem Festland von 1900 bis 2014 (GHCN)

Dave Burton
Christopher Booker glaubt, dass die NOAA global Temperaturdaten vom Festland verzerrt, um die vermeintliche globale Erwärmung aufzublasen und die Flammen des Klimaalarmismus‘ anzufachen.

Dr. Kevin Cowtan vertritt den Standpunkt, dass Booker falsch liegt. Dr. Cowtan vertraut darauf, dass die Adjustierungen der NOAA gerechtfertigt und korrekt sind, und er sagt auch, dass sie zu gering sind, um in Frage gestellt zu werden. „Warum sollten sie das tun?“ fragte er am Ende seines Videos und meint damit, warum sollte irgendjemand einen Betrug begehen für einen inkonsequenten Unterschied im Ergebnis?

Ich weiß nicht mit Sicherheit, ob die NOAA-Adjustierungen korrekt und gerechtfertigt sind, aber ich finde Dr. Cowtans Argument aus zwei Gründen nicht überzeugend.

Der erste Grund ist, dass er voraussetzt, dass die betrügerische Absicht die einzige mögliche Erklärung für verzerrte Ergebnisse ist, aber das stimmt nicht. Falls die Ergebnisse verzerrt worden sind, um Erwärmung zu übertreiben, kann das auch an einem bestätigenden Bias oder einem einfachen Fehler liegen, und zwar von Personen mit den besten Absichten.

Jedoch geht Dr. Cowtans Argument auch davon aus, dass die Adjustierungen keine Konsequenzen haben, und das ist eindeutig nicht so. Ich habe die Endpunkte von einer der Graphiken von Dr. Cowtan digitalisiert mittels WebPlotDigitizer und fand heraus, dass seine eigene Analyse beweist, dass die NOAA-Adjustierungen alles andere als ohne Konsequenzen sind. Im Vergleich der adjustierten und nicht adjustierten Versionen von Dr. Cowtans Graphik der global gemittelten Festlands-Temperaturen fand ich heraus, dass die NOAA-Adjustierungen die vermeintliche Erwärmung um 35% hat zunehmen lassen.

35% sind nicht ,keine Konsequenzen‘.

Hier folgen Bookers jüngste Artikel, in denen er sich über die NOAA-Temperatur-Adjustierungen beklagt:

The Telegraph: 24. Januar 2015
Climategate, the sequel: How we are STILL being tricked with flawed data on global warming
Etwas sehr Seltsames ist mit den Temperaturdaten passiert, auf die sich die Wissenschaftler der Welt stützen“, schreibt Booker.

The Telegraph: 7. Februar 2015
The fiddling with temperature data is the biggest science scandal ever [in deutscher Übersetzung beim EIKE hier)
Hier folgt Dr. Cowtan’s Video, das Booker in seinem Artikel vom 24. Januar so stark kritisiert:
NOAA Paraguay data: Hier folgt die Graphik von Dr. Cowtan (im Video )bei 3:45) plus meine Kommentare (in grün):


Hier steht die Berechnungstabelle mit den digitalisierten Endpunkten von Dr. Cowtans Graphik, und hier die Graphik mit den digitalisierten Dekaden-Daten aus Dr. Cowtans Graphik.
Das digitalisierte Bild, die Kalibrierungs-Daten vom WebPlotDigitizer sowie Anmerkungen stehen hier .
Eine Diskussion über all dies gibt es hier.

Eine Tatsache, die Bookers Verdacht zu bestätigen scheint, dass die NOAA nichts Gutes vorhat mit ihren Bemühungen zu verhindern, dass ihre Daten und Dokumente archiviert werden:

https://stevengoddard.wordpress.com/2012/06/11/giss-blocking-access-to-archived-data-and-hansens-writings/#comment-487575
Full post
Übersetzt von Chris Frey EIKE




Infraschall von Windgeneratoren schädigt Anlieger und Anleger

Windgeneratoren stören durch Schattenschlag  und Windgeräusche der rotierenden riesigen Flügel, durch die ständig blinkenden Warnlichter der bis zu 200 m hohen Generatoren und nicht zuletzt durch die Entwertung der Wohnhäuser im Bereich von Windparks. Darüber hinaus mehren sich nun Berichte über wachsende gesundheitliche Schädigungen durch den Infraschall, der von den Windgeneratoren ausgeht. In Deutschland mit seiner starken und politisch vernetzten Windlobby werden Gefahren durch Infraschall verneint. Man könne Infraschall nicht wahrnehmen, daher sei er auch nicht gesundheitsschädlich,  wurde im letzten Jahr in einer Studie der Universität Halle-Wittenberg unter Mitwirkung des Deutschen Windinstituts in Wilhelmshaven im Auftrag der Deutschen Bundesstiftung Umwelt geäußert. Dies erinnert in fataler Weise an den Umgang mit Röntgenstrahlen. Weil der Mensch Röntgenstrahlen auch nicht wahrnehmen kann, galten sie über mehr als ein halbes Jahrhundert  als ungefährlich.  Menschen, vor allem im medizinischen Bereich, setzten sich ohne Schutz oft stundenlang Röntgenstrahlen aus. Die Langzeitfolgen, zum Beispiel früher Tod durch Leukämie, wurden nicht erkannt. Ein umfassender Strahlenschutz für das Röntgenpersonal wurde erst um1980 eingeführt.

Was ist Infraschall?

Infraschall sind Schallwellen mit weniger als 20 Schwingungen pro Sekunde, also weniger als 20 Hertz (Hz). Schallwellen sind Druckwellen. Ihre Geschwindigkeit in der Luft beträgt etwas mehr als 300 Meter pro Sekunde. Die Wellenlänge von Infraschall ist größer als 15 Meter. Der Mensch muss also den schwankenden Wellendruck  ertragen, da er deutlich kleiner ist als die Wellenlänge. Auf ihn wirken also wechselnde Luftdrücke ein. Im hörbaren Schallbereich wird die Wellenlänge schnell kleiner als der Mensch. Die Druckunterschiede der Wellen umfassen nicht mehr den ganzen Menschen.

Infraschall wird vom Körper registriert. Die Informationen von Schwingungen unter 20 Hz werden aber nicht mehr vom Gehirn als Schall verarbeitet. Daher hören wir diese Schwingungen nicht mehr. Sie können aber zu Störungen unserer Organe und Nerven führen.

Gefährdung der Gesundheit

Dr. med. Bernhard Voigt, Facharzt für Arbeitsmedizin, und der Deutsche Arbeitgeberverband haben die bisherigen Kenntnisse über die Gefährdung durch Infraschall vor allem aus dem Ausland zusammengefasst. Zitiert wurde auch das Bundesamt für Umwelt mit seiner Machbarkeitsstudie zur Wirkung von Infraschall (2014) unter anderen mit folgenden Beschwerden: Müdigkeit, Benommenheit, Apathie, Depressionen, Konzentrationseinbußen, Schwingungen der inneren Organe, Leistungsminderung der Herzmuskelkontraktion, Anstieg des Blutdrucks, Veränderung der Herzraten und der Atemfrequenz, Schwindelanfälle, Schlafstörungen, Schmerzen in der Herzgegend, Atembeschwerden und Verschlechterung des Hörvermögens. Dies gilt auch für den Frequenzbereich unter 10 Hz.

Die Erkenntnis stimmt mit den Grundlagen überein. Windgeneratoren erzeugen Schallwellen in der Größenordnung von 1 Hz, wenn der rotierende Flügel die Luft zum Mast zusammendrückt. Diese Wellen stören die Steuerung von Herzschlag und Atmung, die eine vergleichbare Frequenz haben. Die riesigen Flügel schwingen mit einer  Frequenz von etwa 15 Hz. Dies ist die Eigenfrequenz vieler Organe einschließlich des Gehirns. Die Organe werden so zu übergroßen Schwingungen angeregt, die Fehlfunktionen zur Folge haben.

Danach kann heute kein Bürgermeister, Stadtrat oder Gemeinderat darauf verweisen, er hätte für den Bau eines Windparks gestimmt, weil nach offizieller Verlautbarung Infraschall keinen Einfluss auf die Gesundheit hat.

Stadträte und Bürgermeister haften mit ihrem Privatvermögen

Der Staatsrechtler Prof. Dr. Michael Elicker und sein Doktorand Andreas Langenbahn haben heraus gestellt, nach Art. 2, Abs. 2,  Satz 1 des Grundgesetzes ergibt sich für den Staat die Pflicht, „das Leben und die körperliche Unversehrtheit des Einzelnen zu schützen, d. h. vor allem auch vor rechtswidrigen Angriffen von Seiten  anderer zu bewahren.“ Die Verletzung dieser Schutzpflicht kann von allen  Grundrechtsträgern geltend gemacht werden. Selbst wenn nur ein Ausschnitt der Bevölkerung eine Anfälligkeit für Gesundheitsgefahren durch Infraschall zeigt, muss diese Gefahr beseitigt werden. Lässt der Staat (hierzu gehören auch die Kommunen) Anlagen zu, die gesundheitsschädigenden Ultraschall erzeugen, verletzt er seinen Schutzauftrag und kann für die gesundheitlichen Folgen haftbar gemacht werden. Die Genehmigung zum Bau von Windkraftanlagen liegt bei den Stadt- oder Gemeinderäten. Entsprechend sind sie auch haftbar, wenn als Folge gesundheitliche Schäden auftreten. Die Haftung erstreckt sich auch auf das Privatvermögen der Ratsmitglieder. Die parlamentarische Haftungsfreiheit (Indemnität) steht nämlich nur den Mitgliedern staatlicher Parlamente zu, nicht aber den Mitgliedern der Kommunalparlamente zu.

Bei dieser Rechtslage ist damit zu rechnen, dass der größte Teil der Windkraftanlagen stillgelegt wird, sobald ein erster rechtlicher Erfolg erstritten ist. Dann gibt es große Probleme bei den Profiteuren des Windstroms.

Die Verlierer 

Verluste gibt es in erster Linie bei den Eigentümern und Betreibern von Windkraftanlagen. Die Anlagen bringen keine Einnahmen mehr und haben nur noch Schrottwert. Sie müssen nicht nur abgeschrieben, sondern auch je nach Vertrag vom Betreiber demontiert werden. Dazu gehört auch die Beseitigung der großen Betonfundamente.

Die meisten Betreiber werden dann wohl zahlungsunfähig. Dann bleibt beim Verpächter das Beseitigen des Fundaments.

Viele Banken haben Windkraftanlagen weitgehend finanziert, weil ja nach dem Erneuerbaren Energien Gesetz (EEG) über 20 Jahre hohe Einnahmen garantiert werden. Oft sind mehr als 10 Prozent der Bilanzsumme in Ökostromanlagen geflossen. Diese Gelder müssen abgeschrieben werden, wenn die Banken sich nicht anderen Werten beiden Betreibern und Eigentümern rückversichert haben. Die gesamte Anlagesumme von Banken und Anlegern in Windparks dürfte bei etwa 35 Milliarden Euro liegen.

Die Kommunen müssen auf Gewerbesteuer von Windparks verzichten. Gleichzeitig fällt die Beseitigung der Windkraftanlagen in Ihrem Gebiet auf die Kommunen zurück, wenn die Betreiber zahlungsunfähig sind. Hinzu kommt die Haftung für Gesundheitsschäden, die Ratsmitglieder auch mit ihrem eigenem Vermögen befriedigen müssen.

Die Gewinner

Gewinner werden wir alle sein. Gesundheitsschädigungen durch Infraschall von Windgeneratoren werden aufhören. Und es ist zu hoffen, dass viele Mitbürger sich wieder von ihren Schäden erholen. Die Umweltschädigung durch die Verspargelung unserer Landschaften wird rückgängig gemacht. Aber auch der Strompreis wird sinken, wenn der mit den hohen EEG-Kosten belastete Windstrom nicht mehr in das Netz gepumpt wird.

Vielleicht besinnt sich der Gesetzgeber nach der gesetzlichen Stilllegung der Windgeneratoren auch auf eine Aufhebung des unsozialen und planwirtschaftlichen EEGs und seiner weiteren Ausführungsgesetze, damit endlich wieder die Marktwirtschaft die Energieversorgung übernimmt. Nur dann wird Deutschland eine Zukunft haben.

Prof. Dr. Hans-Günter Appel
2. Vorsitzender und Pressesprecher NAEB e.V. Stromverbraucherschutz

 
Freigegeben zur Veröffentlichung als Leserzuschrift, Lesermeinung,
Kontakt:
hans-guenter.appel@naeb.info

Related Files




Christopher Monckton versus „Süddeutsche Zeitung”

Der Artikel in der SZ steht auf dem Bild rechts (zum Vergrößern anklicken!). Ich habe ihn noch am gleichen Tag ins Englische übersetzt und per Mail an Monckton geschickt, wusste ich doch, dass dieser nun wirklich nicht um Worte verlegen ist. Die englische Übersetzung wird hier nicht gezeigt.

Monckton hat bereits am nächsten Tag eine Erwiderung auf den Artikel geschrieben und an mich gesandt mit der Bitte, ihn ins Deutsche zu übersetzen und ihm danach noch einmal zuzusenden. Es stellte sich nämlich heraus, dass Monckton auch ein wenig Deutsch kann. Das habe ich getan.

Leider ist das Ende aber noch offen. An sich wäre die „Süddeutsche“ laut deutschem Pressegesetz verpflichtet, einen Gegendarstellung abzudrucken. Bis heute habe ich aber nichts dergleichen in der SZ gesehen. Nun will ich der Zeitung aber noch nichts unterstellen, denn meine Anfrage an Monckton, ob er der SZ wirklich die Gegendarstellung hat zukommen lassen, blieb bislang unbeantwortet. Nun ja, der Mann ist sicher anderweitig ausgelastet.

Aber auch ohne Finale: Ich gebe den geneigten Lesern dieses Blogs zur Kenntnis, zu welchen Methoden die SZ inzwischen glaubt greifen zu müssen. Der Originalartikel in der SZ steht, wie gesagt, im Bild oben rechts. Hier folgt zunächst die Erwiderung von Monckton im Original, darunter steht die deutsche Übersetzung.

Zunächst Monckton im Original:

Global warming will be small and harmless

A member of the House of Lords seeks the truth about climate

By The Viscount Monckton of Brenchley

I am grateful for this opportunity to exercise my statutory right of reply to an inaccurate article by Christopher Schrader (January 23), falsely alleging that I err in calling myself a member of the House of Lords, that I am against homosexuals and those with HIV, that a recent paper by me in the Chinese Science Bulletin “ignores simple physics”, that the paper was funded by a conservative think-tank, and that the Science Bulletin is all but unknown in the West.

First, the Peerage. My passport says I am The Viscount Monckton of Brenchley. However, since 1999 most hereditary Peers, including my late beloved father, had their right to sit and vote in the House removed. Nevertheless, the courts have decided until the Letters Patent issued to hereditary Peers are repealed they remain in effect. Süddeutsche Zeitung will extinguish its libel by posting a link to the legal advice that I have received about my peerage.

Secondly, the allegation that I am against homosexuals and those with HIV. On the contrary: in 1986 I argued that there should be worldwide testing to identify those with HIV and that the usual public-health protocol for a new, fatal infection was to isolate all carriers. However, I said, modern western sensibilities would not allow this course, and I was sorry that millions would die. Since then, 36 million have died. Most of them could have been saved. I grieve for them. Likewise, I am sorry that homosexuals suffer because their practices facilitate the transmission of HIV and other infectious diseases, so that some authorities say their lifespan is typically shortened by 10-20 years. With distinguished medical colleagues I am working on an approach to the treatment of infectious diseases that has shown promise and may help, though we have much more research to do. Surely there is nothing wrong in this?

Thirdly, the allegation that our paper explaining why predictions of rapid global warming have not come to pass is bad science. Let me remedy a calculated omission by Herr Schrader and name my three eminent co-authors: Dr Willie Soon, a solar physicist at the Harvard-Smithsonian Center for Astrophysics; Dr David Legates, a hydroclimatologist and Professor of Geography at the University of Delaware; and Matt Briggs, celebrated in New York as the Statistician to the Stars. Furthermore, our paper (in the current issue at www.scibull.com) was accepted on the advice of three anonymous but knowledgeable reviewers, and had been read by numerous eminent scientists on both sides of the debate before it was submitted. One of these, who had previously accepted the “official” estimate of 3.2 Celsius degrees of global warming per CO2 doubling, now joins us in expecting less than 1 degree.

To the nearest tenth of one per cent, there is no CO2 in the air; global sea-ice extent recently reached a satellite-era maximum, making a nonsense of Herr Schrader’s notion that melting ice will greatly amplify global warming; the area of the globe under drought has declined for 30 years; the IPCC admits there has been no change in the frequency, intensity or duration of hurricanes, tropical storms or floods; most supposed sea-level rise comes from improper adjustments to the data (see my paper in the November 2014 Coordinates journal of the marine navigation industry: www.mycoordinates.org); even on the most extreme measure, the ocean warming rate is less than 0.5 Cº/century; and the RSS satellites show no increase in air temperature for 18 years 3 months. Is this a “climate crisis”? No.

Herr Schrader says we have ignored the literature on the paleoclimate and accuses us of making the circular argument that the climate is currently stable, that, therefore, temperature feedbacks dampen warming rather than amplifying it, and that, therefore, the climate is stable. As a Classicist, I should hardly be likely to perpetrate such an elementary fallacy of argumentum ad petitionem principii. Our paper says that in the past 810,000 years of the paleoclimate absolute mean global surface temperature has varied by little more than 3 Cº, or 1%, either side of the mean. That is why we say feedbacks dampen warming: otherwise, the temperature swings would have been much greater.

Also, the modellers’ tripling of the 1 Cº direct warming caused by doubling CO2 in the air arises solely from an equation borrowed from electronic circuit design that is inapplicable to the climate. That invalid equation is the sole reason why climate disaster is erroneously predicted. Take it away and Apocalypse vanishes.

Fourthly, the alleged “funding”. We conducted our research in our own time and at our own expense. However, after the paper had been accepted for publication the Heartland Institute kindly paid the publishers’ open-access fee to make the paper available to all without charge. That was its sole involvement, as Herr Schrader should have made clear.

Fifthly, the borderline-racialist opinion that the Science Bulletin is almost unheard of among Western scientists. In fact, it is jointly sponsored by the Chinese Academy of Sciences (the world’s largest) and the Chinese State Science Funding Council (among the world’s largest). It is the Orient’s leading journal of science. Its Western counterpart, Nature, has forfeited all claim to be a journal of science by having publicly stated that it will not consider any paper that questions catastrophism. In this vital respect, the Science Bulletin is infinitely superior to the West’s once-foremost journal of science.

Our sole aim in writing our paper was to act upon the precept of al-Haytham, a founder of the scientific method, that the scientist must be a seeker after truth, not placing his trust in any consensus, however venerable or widespread. The road to the truth, said al-Haytham, is long and hard, but that – and not the Party Line peddled by the profiteers of doom – is the road we must follow.

In deutscher Übersetzung liest sich das so:

Globale Erwärmung wird gering und harmlos sein

Ein Mitglied des House of Lords sucht die Wahrheit über das Klima

Von The Viscount Monckton of Brenchley

Ich bin dankbar für diese Gelegenheit, mein gesetzlich verbrieftes Recht in Anspruch zu nehmen, auf einen unrichtigen Artikel von Christopher Schrader (23. Januar) zu antworten. Er behauptet fälschlich, dass ich falsch liege, wenn ich mich ein Mitglied des Oberhauses nenne; dass ich gegen Homosexuelle und HIV-Infizierte bin; dass eine jüngst im chinesischen Science Bulletin erschienene Studie von mir „simpelste Physik ignoriert“; dass die Studie von einem konservativen Thinktank finanziert worden ist und dass das Science Bulletin im Westen weitgehend unbekannt ist.

Zunächst zu meinem Adel. Meinem Ausweis zufolge bin ich der Viscount Monckton of Brenchley. Allerdings wurde im Jahre 1999 das Recht der meisten Erb-Adligen einschließlich meines beliebten Vaters, im Oberhaus zu sitzen und abzustimmen, aufgehoben. Nichtsdestotrotz haben die Gerichte geurteilt, dass bis zum Widerruf der an die Adligen ausgegebenen Patente dieses Recht gültig bleibt. Die Süddeutsche Zeitung kann ihre Verleumdung rückgängig machen, indem sie einen Link zu meiner Rechtsberatung nennt, die ich hinsichtlich meines Adels erhalten habe.

Zweitens, der Vorwurf, dass ich gegen Homosexuelle und Aids-Infizierte bin. Im Gegenteil: Im Jahre 1986 habe ich angeregt, dass es weltweit Tests geben sollte, um HIV-Infizierte zu identifizieren und dass die normale Gesundheitsvorsorge für eine neue gefährliche Infektion alle Träger isolieren sollte. Ich sagte, dass moderne westliche Gefühle jedoch dies nicht erlauben würden, und es tat mir leid, dass Millionen sterben müssten. Seitdem sind 36 Millionen Menschen gestorben. Die meisten davon hätten gerettet werden können. Ich fühle Trauer mit ihnen. Genauso tut es mir leid, dass Homosexuelle leiden, weil ihre Praktiken der Verbreitung von HIV und anderen Infektionskrankheiten förderlich sind, so dass einige Behörden sagen, dass ihre Lebenserwartung typischerweise um 10 bis 20 Jahre verkürzt wird. Zusammen mit angesehenen medizinischen Kollegen arbeite ich an einem Verfahren zur Behandlung von Infektionskrankheiten, die sich als vielversprechend erwiesen haben und hilfreich sein können, aber wir müssen noch viele weitere Forschungen durchführen. Da ist doch nichts Unrechtes dabei, oder?

Drittens, der Vorwurf, dass unsere Studie, die erklärt, warum die Vorhersagen einer rapiden globalen Erwärmung bisher nicht eingetroffen sind, ist schlechte Wissenschaft. Lassen Sie mich einer von Herrn Schrader bewusst durchgeführten Auslassung abhelfen und die Namen meiner drei bedeutenden Mitautoren nennen: Dr. Willie Soon, ein Solarphysiker am Harvard-Smithsonian Center for Astrophysics; Dr David Legates, ein Hydroklimatologe und Geographie-Professor an der University of Delaware sowie Matt Briggs, in New York gefeierter Star als Statistiker. Des Weiteren ist unsere Studie (in der jetzigen Form auf www.scibull.com) auf Anraten von drei anonymen, aber sachkundigen Begutachtern akzeptiert worden. Sie wurde von vielen bedeutenden Wissenschaftlern auf beiden Seiten der Debatte gelesen, bevor sie eingereicht worden ist. Einer davon, der zuvor die „offizielle“ Schätzung von 3,2°C globaler Erwärmung pro CO2-Verdoppelung geteilt hatte, erwartet jetzt wie wir nur noch weniger als 1°C Erwärmung.

CO2 ist noch nicht einmal zu einem Zehntel Prozent anteilmäßig in der Atmosphäre vertreten; die globale Ausdehnung von Meereis erreichte gerade ein absolutes Maximum seit Beginn der Satelliten-Ära, was Herrn Schraders Aussage, dass schmelzendes Eis die globale Erwärmung erheblich verstärken werde, als blanken Unsinn entlarvt; die Dürre-Gebiete auf dem Globus sind seit 30 Jahren immer kleiner geworden; das IPCC räumt ein, dass es keine Änderung hinsichtlich Häufigkeit, Intensität oder Dauer von Hurrikanen, tropischen Stürmen oder Überschwemmungen gegeben hat; das Meiste des vermeintlichen Meeresspiegel-Anstiegs stammt aus unsachgemäßen Korrekturen der Daten (siehe meine Studie im Journal Coordinates der Marinenavigation: www.mycoordinates.org, Ausgabe November 2014). Selbst der extremsten Messung zufolge beträgt die Erwärmungsrate der Ozeane weniger als 0,5°C pro Jahrhundert, und die RSS-Satelliten zeigen seit 18 Jahren und 3 Monaten keinerlei Zunahme der Lufttemperatur. Ist das eine „Klimakrise“? Nein!

Herr Schrader sagt, dass wir die Literatur über Paläoklima ignoriert hätten und wirft uns einen Zirkelschluss vor, dass das Klima derzeit stabil ist, dass daher Temperatur-Rückkopplungen eher dämpfend als verstärkend wirken, und dass daher das Klima stabil ist. Als Altphilologe würde ich kaum einen so elementaren Trugschluss argumentum ad petitionem principii begehen. Unserer Studie zufolge hat die Temperatur während der letzten 810.000 Jahre um wenig mehr als 3°C variiert, oder 1% auf beiden Seiten des Mittelwertes. Darum sagen wir, dass Rückkopplungen die Erwärmung dämpfen: anderenfalls wären die Temperaturschwingungen viel größer gewesen.

Außerdem: Die Verdreifachung des 1°C direkter Erwärmung infolge einer Verdoppelung des CO2-Gehaltes der Luft stammt einzig und allein aus einer Gleichung für elektronische Schaltkreise, die hinsichtlich des Klimas nicht angewandt werden kann. Diese ungültige Gleichung ist der einzige Grund, warum die Klimakatastrophe fälschlich vorhergesagt wird. Man entferne diese Gleichung, und die Apokalypse verschwindet.

Viertens, die vermeintliche „Finanzierung“. Wir haben unsere Forschung in unserer Freizeit und auf eigene Kosten durchgeführt. Allerdings hat das Heartland Institute nach der Akzeptanz der Veröffentlichung unserer Studie freundlicherweise die Kosten des Herausgebers getragen, so dass die Studie allen Interessierten frei zugänglich ist. Dies war die einzige Beteiligung, wie Herr Schrader klargestellt haben sollte.

Fünftens, die Meinung, dass das Science Bulletin unter westlichen Wissenschaftlern nahezu unbekannt ist, liegt an der Grenze zu Rassismus. Tatsächlich wird es gemeinsam gesponsert durch die Chinese Academy of Sciences (die größte der Welt) und dem Chinese State Science Funding Council (unter den größten der Welt). Es ist das führende Journal der Wissenschaft im Orient. Sein westliches Gegenstück, Nature, hat alle Behauptungen verspielt, ein Journal der Wissenschaft zu sein, indem das Journal öffentlich bekundet hatte, dass es keine Studie akzeptieren will, die den Katastrophismus in Frage stellt. In dieser vitalen Hinsicht ist das Science Bulletin dem einst führenden westlichen Journal der Wissenschaft unendlich überlegen.

Unser einziges Ziel dieser Studie war es, der Vorgabe von Al-Haytham zu folgen, einem Begründer der wissenschaftlichen Methode, der zufolge der Wissenschaftler ein Suchender nach der Wahrheit sein muss und nicht sein Vertrauen in irgendeinen Konsens stecken darf, wie ehrwürdig oder verbreitet dieser auch sein mag. Der Weg zur Wahrheit, sagt Al-Haytham, ist lang und hart, aber es ist der Weg, dem wir folgen müssen – und nicht der Parteilinie, mit der die Propheten des Untergangs hausieren gehen.

Übersetzung aus dem Englischen: Chris Frey

© Chris Frey, EIKE, Februar 2015




Das Herumfummeln bei den Temperaturdaten ist der größte Wissenschaftsskandal jemals

Bild rechts: Das „Verschwinden“ polaren Eises (und der Polarbären) wurde zu einem Aushängeschild für die Warmisten.

Vor etwa zwei Wochen schrieb ich unter der Überschrift [übersetzt] „wie wir durch geschummelte Daten bzgl. der globalen Erwärmung betrogen werden“ (hier) über Paul Homewood, der auf dem Blog NotALotOfPeopleKnowThat die veröffentlichten Temperaturgraphiken von drei Wetterstationen in Paraguay unter die Lupe genommen hat. Er hat diese mit den ursprünglich gemessenen Werten verglichen. In jedem Fall wurde der tatsächliche Trend in 60 Jahre langen Datenreihen dramatisch umgekehrt, so dass aus einem Abkühlungstrend eine markante Erwärmung wurde.

Das war nur das jüngste von vielen Beispielen einer Praxis, die schon lange von Experten auf der ganzen Welt erkannt worden ist – eines, dass den gesamten offiziellen Temperaturaufzeichnungen ein immer größer werdendes Fragezeichen aufdrückt.

Auf meinen letzten Artikel hat Homewood eine Schar anderer südamerikanischer Wetterstationen rund um die ursprünglichen drei näher beleuchtet. In jedem Fall fand er die gleichen verdächtigen Einbahnstraßen-„Adjustierungen“. Zuerst wurden diese vorgenommen durch das Global Historical Climate Network (GHCN) der US-Regierung. Sie wurden dann erweitert durch zwei der wichtigsten offiziellen Aufzeichnungs-Institutionen, nämlich dem Goddard Institute for Space Studies (GISS) und dem National Climate Data Center (NCDC). Diese haben den Erwärmungstrend dazu benutzt, die Temperaturen in den riesigen Gebieten der Erde ohne Messungen zu schätzen. Und trotzdem sind dies genau die Datenreihen, auf die sich Wissenschaftler und Politiker verlassen hinsichtlich ihres Glaubens an die „globale Erwärmung“.

Homewood hat sich inzwischen den Wetterstationen in weiten Gebieten der Arktis zugewandt, genauer zwischen Kanada (51° West) und dem Herz von Sibirien (87° Ost). Und wieder waren in fast jedem einzelnen Fall die gleichen Einbahnstraßen-Adjustierungen vorgenommen worden, um eine Erwärmung zu zeigen, die um 1°C oder mehr höher ausfiel als aus den tatsächlichen Daten hervorgeht. Dies hat niemanden mehr überrascht als Traust Jonsson, der lange Zeit verantwortlich war für die Klimaforschung am Met.-Office von Island (und mit dem Homewood inzwischen Kontakt aufgenommen hat). Jonsson war mehr als erstaunt zu sehen, wie in der neuen Version Islands „Meereis-Jahre“ um das Jahr 1970 vollständig „verschwunden“ waren. Zu jener Zeit hatte eine Periode extremer Abkühlung fast die Wirtschaft seines kleinen Landes zerstört.

Eines der ersten Beispiele dieser Art von „Adjustierungen“ wurde im Jahre 2007 aufgedeckt, und zwar durch den Statistiker Steve McIntyre, als dieser eine Studie aus dem Jahr 1987 von James Hansen entdeckt hatte, also von dem Wissenschaftler, der viele Jahre lang das GISS geleitet hatte (und der später zu einem fanatischen Klimaaktivist geworden ist). Hansens Originalgraphik zeigte Temperaturen in der Arktis, die um das Jahr 1940 viel höher lagen als jemals seitdem. Aber wie Homewood in seinem Blogbeitrag enthüllt: „Temperatur-Adjustierungen verändern die arktische Historie“. GISS hat dies auf den Kopf gestellt. Arktische Temperaturen seit jener Zeit wurden nach unten korrigiert, und zwar so stark, dass sie gegenüber den Temperaturen der letzten 20 Jahre gar nicht mehr ins Gewicht fallen.

Einer der Gründe für Homewoods Interesse an der Arktis ist, dass das „Verschwinden“ des arktischen Eises (und der Polarbären) zu so einem gewaltigen Aushängeschild für jene geworden ist, die uns zu überreden versuchen, dass wir durch eine Runaway-Erwärmung bedroht werden. Aber er wählte jenen bestimmten Streifen der Arktis, weil es die Region ist, in der das Eis durch wärmeres Wasser beeinflusst wird, das durch zyklische Verschiebungen einer wichtigen atlantischen Strömung dorthin strömt – und die zum letzten Mal genau zu jener Zeit vor 75 Jahren ihr Maximum erreichte, als sich das arktische Eis sogar noch weiter zurückgezogen hatte als heute. Die Eisschmelze ist in keiner Weise steigenden globalen Temperaturen geschuldet.

Von viel ernsterer Bedeutung ist jedoch die Art und Weise, mit der diese gesamte Manipulation der offiziellen Temperaturaufzeichnungen – aus Gründen, die GHCN und GISS niemals plausibel erklärt haben – zum wirklichen Elefanten im Raum der größten und kostspieligsten Angstmache geworden ist, die die Welt jemals gesehen hat. Dies fängt wirklich an auszusehen wie einer der größten Wissenschaftsskandale aller Zeiten.

Link: http://www.telegraph.co.uk/news/earth/environment/globalwarming/11395516/The-fiddling-with-temperature-data-is-the-biggest-science-scandal-ever.html#disqus_thread

Übersetzt von Chris Frey EIKE




Unbequeme Studie: untermeerische Vulkanaktivitäts-Schwankungen könnten das Klima ändern – Modelle vielleicht falsch

Bild rechts: Diese topographische Karte des Ozeanbodens im Atlantischen Ozean zeigt tausende untermeerischer Vulkane entlang des Mittelatlantischen Rückens. Quelle: http://www.sciencemag.org/content/346/6205/32.summary

Das Pulsieren – offenbar gebunden an kurz- und langfristige Änderungen des Erdorbits und an Änderungen des Meeresspiegels – könnte eine Rolle bei der Auslösung natürlicher Klimaschwingungen spielen. Wissenschaftler haben bereits darüber spekuliert, dass vulkanische Zyklen auf dem Festland große Mengen Kohlendioxid freisetzen, die das Klima beeinflussen könnten; aber bislang gab es keine Beweise hinsichtlich untermeerischer Vulkane. Die Ergebnisse zeigen, dass Modelle der natürlichen Klimadynamik der Erde, ausgeweitet auf einen vom Menschen verursachten Klimawandel, überarbeitet werden müssen. Die Studie erschien in der jüngsten Ausgabe der Geophysical Research Letters.

„Man hat untermeerische Vulkane infolge der Ansicht ignoriert, dass ihr Einfluss gering ist – aber das liegt daran, dass man angenommen hatte, sie befänden sich in einem Steady-State-Zustand, aber das ist nicht der Fall“, sagt die Autorin der Studie, die Geophysikerin Maya Tolstoy vom Lamont-Doherty Earth Observatory an der Columbia University. „Sie reagieren sowohl auf sehr große als auch auf sehr kleine Antriebe, und das sagt uns, dass wir sie viel genauer untersuchen müssen“. Eine damit in Beziehung stehende Studie von einem anderen Team, die jüngst im Journal Science vorgestellt worden ist, stützt Tolstoys Studie, zeigt sie doch ähnliche langfristige Verteilungen untermeerischen Vulkanismus‘ in einer Region der Antarktis, die Tolstoy nicht untersucht hat.

Vulkanisch aktive mittelozeanische Rücken laufen über den Grund der Ozeane wie die Nähte auf einem Baseball mit einer Länge von etwa 37.000 Meilen [knapp 60.000 km]. Sie sind die wachsenden Enden gigantischer tektonischer Platten; die austretende Lava bildet neuen Meeresboden, welcher etwa 80% der Planetenkruste ausmacht. Konventionellem Wissen zufolge brechen sie mit ziemlich konstanter Rate aus – aber Tolstoy kommt zu dem Ergebnis, dass sich die Rücken derzeit tatsächlich in einer Schwächephase befinden. Aber selbst dann lassen sie noch etwa acht mal mehr Lava austreten als Vulkane auf dem Festland. Infolge der chemischen Zusammensetzung ihres Magmas ist ihr vermuteter CO2-Ausstoß gleich oder etwas geringer als der von Landvulkanen – etwa 88 Millionen metrische Tonnen pro Jahr. Aber wenn die untermeerischen Ketten auch nur ein wenig aktiver werden, würde ihr CO2-Ausstoß markant steigen, sagt Tolstoy.

Einige Wissenschaftler glauben, dass Vulkane konzertiert agieren mit Milankovitch-Zyklen – wiederholten Änderungen des Erdorbits um die Sonne und die Neigung und Ausrichtung der Erdachse – die plötzliche Warm- und Kaltphasen auslösen. Der Hauptzyklus geht über 100.000 Jahre. Während dieses Zeitraumes ändert sich der Orbit des Planeten um die Sonne von mehr oder weniger kreisförmig zu elliptisch, was es im Jahresverlauf näher an die Sonne bringt oder weiter von ihr entfernt. Jüngste Eiszeiten scheinen sich ausgebildet zu haben während der meisten Zeit des Zyklus‘, aber dann plötzlich erwärmt sich alles um den Punkt der größten Exzentrizität des Orbits. Die Gründe hierfür sind unklar.

Hinsichtlich der Vulkane haben Forscher darauf hingewiesen, dass bei der Bildung von Eiskappen auf dem Festland u. A. der Druck auf darunter liegende Vulkane zunimmt und Eruptionen unterdrückt werden. Aber wenn die Erwärmung irgendwann einsetzt und das Eis zu schmelzen beginnt, nimmt der Druck ab mit der Folge zunehmender Eruptionen. Sie stoßen CO2 aus, das zu mehr Erwärmung führt, welche mehr Eis schmelzen lässt. So entsteht ein sich selbst verstärkender Prozess, der die Erde auf einmal in eine Warmzeit führt. Eine Studie von der Harvard University aus dem Jahr 2009 sagt, dass die Festlandsvulkane weltweit tatsächlich während der jüngsten Deglaziation vor 12.000 bis 7000 Jahren sechs bis acht mal aktiver waren als nach dem Hintergrundniveau. Die Folge wäre, dass untermeerische Vulkane das Gegenteil tun: wenn sich die Erde abkühlt, kann der Meeresspiegel bis zu 100 m fallen, weil so viel Wasser als Eis gebunden wird. Dies verringert den Druck auf untermeerische Vulkane, und sie brechen verstärkt aus. Gibt es dabei einen Punkt, an dem ein zunehmender CO2-Ausstoß von untermeerischen Vulkanen die Erwärmung beginnen lässt, was die die Festlandsvulkane bedeckenden Eiskappen schmelzen lässt?*

[*Man geht hier also von einem stark erwärmend wirkenden CO2 aus. Nun ja. Anm. d. Übers.]

Das war ein Mysterium, teilweise weil untermeerische Eruptionen fast unmöglich zu beobachten sind. Allerdings waren Tolstoy und andere Forscher jüngst in der Lage, 10 untermeerische Eruptionsstellen mittels sensitiver neuer seismischer Instrumente zu überwachen. Sie haben auch neue hoch auflösende Karten erstellt, die die Umrisse vergangener Lavaaustritte kennzeichnen. Tolstoy hat etwa 25 Jahre mit seismischen Daten analysiert von untermeerischen Rücken im Pazifik, dem Atlantik und den Arktischen Ozeanen; außerdem Karten, die die Aktivität in der Vergangenheit im Südpazifik zeigen.

Die langzeitlichen Eruptionsdaten, die sich über mehr als 700.000 Jahre erstrecken, zeigten, dass während der kältesten Phasen, als der Meeresspiegel niedrig war, verstärkt untermeerischer Vulkanismus aufgetreten war, der sichtbare Hügelketten hinterließ. Wenn sich alles erwärmt und der Meeresspiegel auf ähnliche Höhen steigt wie derzeit, fließt Lava langsamer aus und erzeugt niedrigere topographische Ketten. Tolstoy ordnet dies nicht nur dem variierenden Meeresspiegel zu, sondern auch eng Änderungen des Erdorbits. Ist der Orbit elliptischer, wird die Erde gestaucht und gedehnt durch die Gravitationskräfte der Sonne, und zwar mit rapide variierender Rate bei der täglichen Umdrehung – ein Prozess, der ihrer Ansicht nach dazu tendiert, untermeerisches Magma nach oben dringen zu lassen. Dies wiederum hilft, die tektonischen Brüche zu erweitern, durch die sie austritt. Ist der Orbit dagegen mehr kreisförmig (wenn auch niemals ideal kreisförmig), wie es jetzt der Fall ist, wird dieser Dehnungs-/Stauchungseffekt minimiert, und es gibt weniger Eruptionen.

Der Gedanke, dass von außen einwirkende Gravitationskräfte den Vulkanismus beeinflussen, spiegelt sich in den kurzfristigen Daten, sagt Tolstoy. Sie sagt, dass seismische Daten zeigen, dass untermeerische Vulkane hauptsächlich alle zwei Wochen verstärkt aktiv sind. Das passt zu der zeitlichen Abfolge des Zusammenwirkens von Mond und Sonne, bei dem die Gezeiten ihre Tiefpunkte erreichen, was den Druck auf untermeerische Vulkane verringert. Interpretiert man seismische Signale als Eruptionen, folgten diese 14-täglich den Ebben an acht von neun untersuchten Stellen. Außerdem fand Tolstoy, dass alle bekannten Eruptionen in moderner Zeit von Januar bis Juni erfolgten. Im Januar ist die Erde der Sonne am nächsten, im Juli ist sie am weitesten von ihr entfernt – ein Zeitraum ähnlich dem den Druck verstärkenden/abschwächenden Effekt über längerzeitliche Zyklen. „Schaut man auf die heutigen Eruptionen, reagieren Vulkane sogar auf viel geringere Antriebe als diejenigen, die das Klima treiben“, sagte sie.

Daniel Fornari, ein leitender Wissenschaftler an der Woods Hole Oceanographic Institution und nicht in die Forschung involviert, nannte die Studie „einen sehr wichtigen Beitrag“. Er sagte, es sei unklar, ob die zeitweiligen seismischen Messungen aktuelle Lavaflüsse signalisieren oder einfach Bewegungen des Meeresbodens. Aber, sagte er, die Studie „könnte eindeutig bedeutende Implikationen haben für die bessere Quantifizierung und Charakterisierung unserer Abschätzung der Klimavariationen aufgrund von Zyklen über Zeiträume von Jahrzehnten, bis zu hunderttausenden von Jahren“.

Edward Baker, ein leitender Ozeanwissenschaftler bei der NOAA, sagte: „Das Interessanteste an dieser Studie ist, dass sie erneut beweist, dass die feste Erde sowie Luft und Wasser allesamt als ein einziges System operieren“.

———————————————-

Eruptionen aus ozeanischen Rücken als ein Klimaventil

Maya Tolstoy

Abstract:

Eruptionsraten auf dem Meeresboden und Eruptionen fördernde Ströme im Erdmantel können beeinflusst werden durch Meeresspiegel- und Krustenbewegungs-Zyklen im der Größenordnung von zwei Wochen bis zu 100.000 Jahren. Jüngste Eruptionen in mittelozeanischen Rücken ereignen sich primär während Nippfluten und während der ersten 6 Monate eines Jahres, was auf Sensitivität hinsichtlich kleinerer Änderungen des Antriebs durch die Gezeiten und orbitale Exzentrizität hinweist. Eine Periodizität von etwa 100.000 Jahren bei schneller Ausbreitung von Tiefseeboden und relativ geringe Eruptionsraten derzeit in einer Zeit mit hohem Meeresspiegel und abnehmender orbitaler Exzentrizität zeigen eine längerfristige Sensitivität hinsichtlich Variationen des Meeresspiegels und des Orbits im Zusammenhang mit Milankovitch-Zyklen. Das Auseinanderdriften von Meeresboden wird als ein geringer, aber stetiger Beitrag der Freisetzung von CO2 angesehen in Klimazyklen im Zeitmaßstab von 100.000 Jahren. Allerdings lässt dies eine konsistente kurzfristige Eruptionsrate vermuten. Pulsierende vulkanische Aktivität könnte auf Klimazyklen rückwirken, möglicherweise auch zu Eiszeit-/Zwischeneiszeit-Zyklen beitragen sowie zum abrupten Ende von Eiszeiten und zur Dominanz des 100.000-Jahre-Zyklus‘

Die Studie: Tolstoy_inpress_GRL_2015 (PDF)

Daraus die Abbildung 3A:

Link: http://wattsupwiththat.com/2015/02/05/inconvenient-study-seafloor-volcano-pulses-may-alter-climate-models-may-be-wrong/

Übersetzt von Chris Frey EIKE