1

Medienkonzern Greenpeace und das IPCC – die Edenhofer-Ausrede

Was ist die Edenhofer-Ausrede?

Die Argumente Ottmar Edenhofers, die das IPCC unterstützen, widersprechen sich untereinander trotz ihrer Vielfalt, und man kann leicht erkennen, dass sie gemeinhin verstandene wissenschaftliche Standards verletzen. Hier jedoch werden Teile seiner Verteidigung aufgegriffen; einige davon folgen hier:

1. „Das Problem des Gegensatzes, falls es überhaupt einen gibt, ist sehr begrenzt“, „Teske war lediglich ein Autor (und nicht der leitende Autor)“, „es ist ein Bericht von vielen Autoren, der  durch ‚viele’ Begutachtungen gelaufen war“, „der SRREN [SRREN = Special Report Renewable Energy Sources; A. d. Übers.] ist eine massive Anstrengung mit hunderten von Seiten gewesen“

2. das Szenario von Greenpeace war ‚lediglich eines von 164 Szenarien’. Die bewertet worden waren

3. Sven Teske war lediglich einer der Autoren des Greenpeace-Szenarios

4. Das Greenpeace-Szenario stammt eigentlich von der DLR in Deutschland [Oberpfaffenhofen bei München]. Greenpeace hat es lediglich übernommen.

Das Abschwächungsargument

Die „abschwächenden Argumente” zu den Problemen, die sich aus der Autorenschaft von Sven Teske ergeben, sind in der Tat bedauerlich. Es wird sofort klar, dass die Verteidiger des IPCC in dieser Episode die Natur des Problems, das vor ihnen liegt, in vollem Umfang erkennen. Konsequenterweise macht es ihre anderen Argumente zur Verteidigung zunichte.

Noch wichtiger, diese Herangehensweise – nämlich Schaden vom IPCC abzuwenden, indem man die mutmaßlich begrenzte Natur der Einwirkung von Greenpeace unterstreicht – ist einfach falsch, wie gleich gezeigt wird. Es ist bemerkenswert, dass Mark Lynas in seinem Kommentar im gleichen Journal in die gleiche Kerbe haut und Edenhofer so beiläufig eine Gelegenheit zum Rückzug bietet:

Zur Debatte stand eine Auswahl von vier ‚illustrativen Szenarien’ in Kapitel 10 des SRREN, von denen eines auf dem Bericht zu einer Kampagne von Greenpeace basierte, genannt Energy (R)evolution, von dem eine spätere Version auch in dem Journal Energy Efficiency veröffentlicht worden ist.

Eine genaue Betrachtung des IPCC-Berichtes macht jedoch sofort klar, dass die Fakten ganz anders aussehen. Das Greenpeace-EREC-Szenario, das an prominenter Stelle in jedem Kapitel des Berichtes – und nicht nur in Kapitel 10 – vorgestellt wird, wurde in Kapitel 10 lediglich zum de facto großen End-Szenario. In diesen Kapiteln wird es als ‚lediglich eine weitere’ brauchbare Alternative vorgestellt, was einen Kontrapunkt zu anderen Studien darstellt. Bei mehr als einer Gelegenheit taucht das Greenpeace-Szenario als das einzige Szenario auf, das numerische Daten liefert, ohne irgendwelche dazu passende andere Daten zum ‚Vergleich’.

1) In Kapitel 3 zur direkten Solarenergie stellt das IPCC die Behauptung auf, dass bzgl. des Wachstums von Sonnenenergie „in alternativen Szenarien eine erhebliche Zunahme zu erwarten ist, die zu einer noch erheblicheren Transformation des Sektors globale Energie hin zu niedrigeren Kohlenstoffemissionen führt“. Dies wird unterstützt durch eine Übersicht der verschiedenen Greenpeace-Szenarien:

Tabelle 3.7  S. 545 IPCC SRREN

Drei unterschiedliche Szenarien von Teske et al. werden ‚verglichen’ mit einem von der IEA, dem sogar grundlegende projizierte Abschätzungen der Abnahme von Strom aus  solarer Wärme, Photovoltaik und Sonnenfarmen fehlen. Die Tabelle und die zugrunde liegende Schlussfolgerung des IPCC zur künftigen Abnahme von direkter Sonnenenergie sind im Endeffekt direkt aus dem Greenpeace-EREC-Bericht übernommen.

2)     In Kapitel 5 über Wasserkraft werden Abschätzungen der ‚geglätteten [levelized ?] Kosten von Energie’ (LCOE) aus dem von Greenpeace beauftragten Studien von Teske et al. und Krewitt et al. präsentiert.

Tabelle 5.7a   S. 676 IPCC SRREN

Table 5.7b p 677 IPCC SRREN

3) In Kapitel 6 geht es um Energie aus den Ozeanen (einschließlich thermischer Energie aus den Ozeanen sowie Energie aus Tidenhub und Wellenbewegung), wobei die Greenpeace-Szenarien wieder einmal fast die einzigen Quellen für Abschätzungen des Weltenergieverbrauchs aus ozeanischen Quellen sind.

Tabelle 6.5   S. 743 IPCC SRREN

4)     In Kapitel 7 über Windenergie, in dem Greenpeace die globale Ausbeute von Windenergie und dessen ‚regionale Aufschlüsselung’ abschätzt, wird dieses mit zwei anderen Szenarien verglichen:

Tabelle 7.7   S. 836 IPCC SRREN

5) In Kapitel 4, in dem es um den Beitrag geothermischer Energie geht, den Greenpeace auf 4,59 Exajoules/Jahr schätzt – eine Schätzung, die noch mehr als sieben mal höher liegt als eine vergleichbare Schätzung der IEA, wird vom IPCC als bis zum Jahr 2030 erreichbar zitiert.

6) Im gleichen Kapitel 4 wird das im Auftrag von Greenpeace erstellte Papier von Krewitt et al. für die IPCC-Behauptung herangezogen, dass geothermische Energie als Stromquelle zwischen den Jahren 2005 und 2030 eine „jährliche Wachstumsrate von 10,4%“ erfahren könnte.

7) In Kapitel 7 über Windenergie stellt das IPCC die Behauptung auf, dass „Literatur zu den Szenarien ebenfalls zeigt, dass Windenergie eine signifikante langzeitliche Rolle bei der Reduzierung der THG-Emissionen spielen könnte“, und zwar aufgrund der Schätzung von Teske et al. aus dem Jahr 2010 von 31 exajoules/Jahr bis 2050.

8) In Kapitel 10, also dem IPCC-Kapitel über Kosten und ‚Abschwächungspotentiale’ ist das Greenpeace-Szenario nicht nur Grundlage für die Behauptung, dass 80% des Weltenergiebedarfs mit ‚erneuerbaren Quellen’ gedeckt werden könnten, sondern auch für eine ganze Reihe anderer Vergleiche und Schlussfolgerungen. Bei Abschätzungen des zukünftigen Beitrags erneuerbarer Energie für Heizzwecke, im Transportsektor, wie verschiedene Regionen erneuerbare Energiequellen nutzen, wie viele Gigatonnen CO2 pro Jahr global ‚eingespart’ werden können sowie zu globalen Kosten in Milliarden US-Dollar/Dekade zitiert das IPCC wiederholt aus individuellen Zahlen aus dem Greenpeace-EREC-Bericht.

Welche Lehren können wir über Greenpeace aus dem SRREN ziehen?

Aus oben Gesagtem wird klar, dass das IPCC aus im Auftrag von Greenpeace erstellten Dokumenten zitiert, und zwar über eine riesige Bandbreite von Behauptungen zu erneuerbaren Energiequellen und in vielen Kapiteln. Das Greenpeace-Szenario beschränkt sich keineswegs nur auf Kapitel 10, sondern wird zur Basis für viele haupt- und nebensächliche Schlussfolgerungen und Vergleiche durch den gesamten 1544 Seiten starken Bericht. Tatsächlich werden in vielen der involvierten Passagen die aufgestellten Behauptungen zusätzlich zu den im Schlüsselkapitel 10 genannten Szenarien untermauert.

Daher ist die Präsentation von Edenhofer, dass das von Teske et al. verfasste Greenpeace-Szenario nur einen kleinen Teil im IPCC-Bericht zu Erneuerbaren ausmacht, nicht haltbar. Das gilt auch für Argumente, dass es sich dabei um ‚eine falsch zitierte IPCC-Presseerklärung’ handelt.

Edenhofer behauptet, dass in „allen IPCC-Zustandsberichten Teams führender Experten große Mengen an Literatur berücksichtigt haben“, und dass der Beschluss des IPCC, aus den 164 untersuchten Studien das Greenpeace-Szenario „mit größerer Tiefe“ zu analysieren, „vom Team gefasst wurde und nicht von einem einzelnen Autor“.

Im Gegensatz dazu ist es jedoch sehr offensichtlich, dass eine ähnliche Entscheidung, nämlich die von Teske et al. abgeleiteten Szenarien in den Mittelpunkt zu stellen, nicht nur von den Autoren von Kapitel 10, von denen Teske einer war, sondern auch von Autorenteams fast aller anderen Kapitel getroffen wurde. In Kapitel 10 wird dieser Trend nur immer schlimmer. Autoren vieler Kapitel haben sicherlich ‚große Mengen Literatur’ analysiert, aber sie alle entschlossen sich übereinstimmend dazu, prominente Schlussfolgerungen aus einem sehr kleinen Teil davon zu ziehen, d. h. aus jenem aus den Greenpeace-Studien abgeleiteten Szenario.

Weiter unten überlässt Edenhofer freundlichst einigen Raum für Aktivisten, um alles abzusichern. „Die Struktur der Autorenteams sowie der Erstellungs- und Begutachtungsprozesse“, erklärt er, „verhindert, dass die Ansichten eines Einzelautors den Zustandsbericht dominieren“. Es scheint, dass die Struktur vieler Verfasserteams und der Begutachtungsprozess wenig getan hat, um die Greenpeace-Dominanz abzuschwächen.

Dies spricht für ein den ganzen Bericht umfassendes Phänomen der Annäherung an Greenpeace-Literatur im IPCC-SRREN und Material von Lobbygruppen allgemein.

Shub Niggurath

Übersetzt von Chris Frey für EIKE

Literatur:

IPCC Special Report on Renewable Energy Sources and Climate Change Mitigation [O. Edenhofer, R. Pichs‐Madruga, Y. Sokona, K. Seyboth, P. Matschoss, S. Kadner, T. Zwickel, P. Eickemeier, G. Hansen, S. Schlömer, C. von Stechow (eds)], Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

Teske et al Energy Efficiency (2011) 4:409–433

Krewitt et al Energy Policy 34 (2009) 5764–5775

Different views ensure IPCC balance Edenhofer O, Nature Climate Change Jul 2011 (Online at http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate1178.html)

Conflicted roles over renewables Lynas M, Nature Climate Change Jul 2011 (Online at http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate1177.html)

Latest climate change kerfuffle pits expertise vs. conflict of interest Niemeyer K, Arstechnica Jul 2011 (Online at http://arstechnica.com/science/news/2011/07/greenclimategate-conflict-of-interest-or-manufactured-controversy.ars)

The IPCC renewables controversy – where have we got to? Lynas M, marklynas.org blog Jun 2011 (Online at http://www.marklynas.org/2011/06/the-ipcc-renewables-controversy-where-have-we-got-to/)

Responses from IPCC SRREN McIntyre S, climateaudit.org Jun 2011 (Online at http://climateaudit.org/2011/06/16/responses-from-ipcc-srren/)

Link zum Original: http://wattsupwiththat.com/2011/07/24/greenpeace-and-the-ipcc-the-edenhofer-excuse/




Der DWD verschweigt: Deutschland wird kühler! Aber dafür in 90 Jahren wieder wärmer!

Denn die Daten des DWD selbst zeigen keine Erwärmung, sondern eine Abkühlung in den letzten 11 Jahren. (hier die Daten für die nebenstehende Grafik):
Trotz weiter massiv gestiegener Emissionen ist Deutschland kühler geworden (und die weltweite Temperatur stagniert).

Auf diese Datenlage wird in den zahlreichen Unterlagen der Pressekonferenz des DWD v. 26.06.2011 nicht eingegangen. Das wirft die Frage nach der Glaubwürdigkeit des DWD auf.

Der Politblog Politically incorrect hat die immer merkwürdigeren und unwissenschaftlichen Prognosen des DWD auf Korn genommen:Quotenqueen schreibt dort:

In 90 Jahren wieder schönes Wetter!

 

Wenn Hagelkörner ans Fenster klopfen und man Ende Juli überlegt zu heizen, sollte man sich wenigstens warme Gedanken machen. Der deutsche Wetterdienst hilft dabei und verspricht eine deutliche Wetterbesserung für das Jahr 2100. Dann soll es wieder 4 Grad wärmer sein – also wieder so warm, wie zuletzt im Mittelalter, als man an großen Tafeln zum Wildschweinbraten  literweise schottischen Wein kredenzte und unanständige Lieder gröhlte. Endlich mal eine gute Nachricht!

Die WELT berichtet:

Deutschland erwärmt sich nach Angaben des Deutschen Wetterdienstes (DWD) bis zum Jahr 2100 um weitere zwei bis vier Grad. Das hätten Klimasimulationen gezeigt, teilte der Wetterdienst in Berlin mit. Außerdem erwarten die Experten trockenere Sommer, nassere Winter und mehr extremen Wetterereignisse. Der Klimawandel habe auch Folgen für die Bauwirtschaft und erfordere ein Umdenken bei Stadtplanern.

Bemühungen griesgrämiger Politiker, uns das schöne Wetter durch teure CO2-Sparmaßnahmen zu versalzen, zeigen sich glücklicherweise als wirkungslos. Lediglich die GRÜNEN haben durch ihren Einsatz für eine saubere Luft mitgeholfen, dass das Regenwetter in 90 Jahren aufhört:

Zugleich trage eine bessere Luftqualität zur Klimaerwärmung bei, erklärte Adrian. In den westlichen Industrieländern sei die Verschmutzung mit Staub und Ruß durch Kraftwerke, Hausbrand oder Verkehr gesunken.

„Damit reduziert sich zugleich die abkühlende Wirkung solcher Aerosole“, erläuterte der Experte. Allein dies führe zu einem Anstieg der weltweiten Jahresdurchschnittstemperatur um ein Grad.

 

So kann man mit Recht sagen: Es war nicht alles schlecht, was die GRÜNEN gemacht haben. Schon 2050 könnte der Dauerregen nachlassen:

 

„Ab etwa 2050 wird der Klimawandel wahrscheinlich mehr Niederschläge im Winter bringen. Im Sommer könnte es trockener werden“, sagte Adrian. (…)

Besonders in Städten werden sich die steigenden Temperaturen ab Mitte des Jahrhunderts durch häufigere Wärmestaus bemerkbar machen. Deshalb müssten Stadtplaner stärker auf Frischluftschneisen, Grün- und Wasserflächen und eine aufgelockerte Bauweise setzen, betonte DWD-Vizepräsident Paul Becker.

 

Hmmm … naja … als es zuletzt wie erwähnt im Mittelalter vier Grad wärmer war, hat man eher auf andere Baukonzepte gesetzt. Man besuche einmal die Altstädte spanischer Städte. Nicht gerade eine aufgelockerte Bauweise. Aber natürlich sind unsere Stadtplaner ja heute viel klüger als die damals.

Unsere Hoffnung auf eine langfristige Wetteränderung lassen wir uns auch nicht dadurch vermiesen, dass die objektiven Daten eher in die andere Richtung weisen. Die Experten vom Wetterdienst machen vor, wie es geht: man misst die Temperaturen einfach so lang es warm ist, und hört auf, wenn es kälter wird:

 

Aus den Daten des DWD geht zudem hervor, dass das Jahr 2010 in Deutschland kälter als üblich war, das erste Halbjahr 2011 hingegen zu warm. Dieses Frühjahr war mit 10,1 Grad Durchschnittstemperatur sogar das zweitwärmste je gemessene in Deutschland, nur im Jahr 2007 war es im diese Jahreszeit wärmer.

Im ersten Halbjahr 2011 registrierten die Wetter-Experten überdurchschnittliche Temperaturen in Deutschland. „Die erste Jahreshälfte fiel in Deutschland 1,5 Grad wärmer aus als es hierzulande typisch ist“, erklärte Klimaanalytiker Gerhard Müller-Westermeier in Berlin.

Alle sechs Monate seien zu warm gewesen. Das Halbjahr war das zweitsonnigste und neunttrockenste seit Beginn der Messungen 1881. Es zeige, dass der Erwärmungstrend in Deutschland wie auch weltweit ungebrochen ist.

Dagegen lag die Jahresmitteltemperatur 2010 in Deutschland um 0,4 Grad Celsius unter dem langjährigen Mittel von 8,2 Grad Celsius. Beim DWD habe diese Entwicklung bereits zu Fragen geführt, ob die befürchtete Klimaerwärmung überhaupt stattfindet.

 

Nana, wer wird denn gleich an der Religion der menschengemachten Klimaerwärmung zweifeln, nur weil die messbaren Daten etwas anderes sagen? Unser Bauchgefühl bleibt optimistisch. Wir glauben ganz fest an schönes Wetter in 90 Jahren! Und die Wetterfrösche, die diese mutige Prognose machen und das Wetter in ferner Zukunft auf 4 Grad genau vorhersagen können, obwohl sie bei der Vorhersage für nächste Woche kaum eine höhere Trefferquote haben als jeder Würfler in der Eckkneipe, sind gut beraten, ebenfalls nicht zu zweifeln. Sie erwärmt sich doch! Sonst gibt´s nämlich keine Steuergelder mehr.

 




Windkraft – populär durch Gehinwäsche!

Gesteuerte Auswahl von Informationen

Indoktrinieren bedeutet, Menschen durch gesteuerte Auswahl von Informationen zu manipu- lieren, um ideologische Absichten durchzusetzen. Es geht darum, sie psychologisch, teils auch massiv, so zu beeinflussen, dass sie scheinbar von sich aus zu jener Meinung, Ansicht oder Einstellung kommen, die ihnen aufgenötigt werden soll. Bei Wikipedia ist zu lesen: „Die Form der Informationsdarbietung ist hier einseitig verzerrt, die Gesamtheit der verfügbaren Informationen wird zensiert, die der Ideologie widersprechenden Angaben werden zurückge- halten Die Form der Informationsdarbietung ist hier einseitig verzerrt, die Gesamtheit der verfügbaren Informationen wird zensiert, die der Ideologie widersprechenden Angaben wer- den zurückgehalten.“
Tatsachen, die unterschlagen oder verharmlost werden
Populär ist der Windkraftstrom, weil viele Tatsachen, die gegen den Windstrom (und auch gegen Stromerzeugung mittels Fotovoltaik) sprechen, unterschlagen oder verharmlost werden, darunter diese:
Auf die Windkraft ist kein Verlass. Bei Windstärken unter 3 m/s erzeugen die Generatoren überhaupt keinen Strom. Erst von 14 m/s an erreichen sie überhaupt ihre Nennleistung. Ihre Flügelkonstruktion bewirkt, dass sie diese Nennleistung konstant bis zu Windgeschwindigkei- ten von 25 m/s abgeben. Bei höheren Windgeschwindigkeiten muss der Windgenerator automatisch abgeschaltet werden. Damit erreichen sie im Jahresdurchschnitt nur 20 Prozent ihrer Nennleistung. Diese Nennleistung schaffen sie erst bei derjenigen Windstärke, für die sie ausgelegt sind. Wenig Strom liefern die Windkraftanlagen erfahrungsgemäß im Frühjahr und Sommer.

Für die Profiteure wie Gelddruckmaschinen

Ihre schwankende fehlende Leistung von durchschnittlich 80 Prozent muss ständig durch her- kömmliche Kraftwerke bereitgestellt werden – betrieben mit Kohle, Gas oder Kernenergie. Diese müssen, häufig außerhalb ihres günstigen Wirkungsgradbereiches gefahren werden, weil der Windstromanteil schwankt und die Stabilität des Stromnetzes erhalten bleiben muss. Je größer die installierte Windleistung ist, desto mehr Reserven müssen für die windlose Zeit bereitgehalten werden. Aber weil die Windräder für alle ihre Profiteure wie Gelddruckma- schinen sind, setzen die Betreiber sie auch dort hin, wo der Wind nicht stark genug und nicht beständig genug weht, auch in dicht besiedelte Gebiete wie die Wetterau. Die Baugenehmi- gung für Windräder ist unverantwortlich stark erleichtert. Demgegenüber werden andere Ge- werbetreibende und gewöhnliche Sterbliche mit ihren Bauvorhaben diskriminiert.

Mit immer mehr Windgeneratoren droht Stromausfall

Die nachgefragten Strommengen im deutschen Stromnetz liegen bei 40 000 bis 45 000 Me- gawatt (MW). Mehr als die Hälfte dieser Leistung müssen, um das Netz stabil zu halten, die Kern-, Kohle – und Gaskraftwerke als sogenannte Grund– und Regellast liefern. Das deutsche Stromnetz kann dann also maximal nur Windstromleistungen von 20 000 MW verkraften. Aber bereits 2009 haben alle installierten Windstromanlagen bei Starkwind 22 000 MW abgegeben (Quelle: Prof. Dr. Helmut Alt, Ingenieurwissenschaftler, Fachhochschule Aachen). Nimmt die Zahl der Windgeneratoren immer weiter zu, droht das Stromnetz zusammenzubrechen. Das bedeutet dann Stromausfall.

Überlastungsgefahr für das Stromnetz

Die Folgerung daraus: Das Einspeisen von Windstrom in das deutsche Stromnetz hat seine technische Grenze erreicht. Werden noch mehr Windgeneratoren aufgestellt, muss ihre Erzeugung (wie schon heute) zum Teil mit Verlusten exportiert oder bei Starkwind zum Teil abgeschaltet werden, um das Netz nicht zu überlasten. Dadurch verteuert sich der Windstrom noch weiter und seine CO2–Bilanz wird, um die sich die „Grünen“ in allen politischen Parteien und in unserer Bevölkerung doch so schrecklich sorgen, noch schlechter. Steigt Deutschland aus der Kernenergie aus, wird die deutsche Stromversorgung vom Stromimport noch abhängiger.

Auf einen Stromausfall schlecht vorbereitet

Auf einen massiven Stromausfall ist Deutschland schlecht vorbereitet. Das geht aus einem vertraulichen Bericht des Büros für Technikfolgen-Abschätzung beim Bundestag hervor, wie der linken Berliner „tageszeitung” (taz) vom 6. April zu entnehmen war. Darin wird gewarnt, dass ein solcher Fall in aktuellen Gesetzen und Verordnungen nur ungenügend berücksichtigt wird. Die Folgen eines weiträumigen Stromausfalls für Krankenhäuser und Pflegeheime würden dramatisch sein. Nach wenigen Tagen sei mit einem weitgehenden Zusammenbrechen der medizinischen und pharmazeutischen Versorgung zu rechnen. Kommunikationssysteme von Rettungsdienst und Polizei seien “denkbar schlecht vorbereitet”.

Umverteilung von unten nach oben

Die überaus starke Subventionierung von Strom aus Windkraft und Fotovoltaik ist eine Umverteilung von Geld aus den Taschen vieler in die Taschen weniger, eine Umverteilung von unten nach oben, von Ärmeren zu Reicheren. Windkraftstrom nützt nur den Betreibern und ihren Verbänden, den Herstellern, den Finanzierungsgesellschaften, den Grundeigentümern, die ihr Land als Standort für die Anlagen verpachten, und dem Fiskus.

Bei Windkraft ist den Grünen der Umweltschutz schnurzegal

Es gibt noch viele andere Tatsachen, die gegen diese Form der Windkraftnutzung sprechen. Ich habe sie in vorangegangenen Beiträgen schon ausgebreitet und will sie hier nicht ebenfalls wiederholen. Höchst seltsam ist, dass Grüne und Umweltverbände gegenüber den Umweltgefahren, die von der Stromerzeugung durch industrielle Windkraftanlagen an Land und auf See ausgehen, jegliche Empfindlichkeit verloren haben. Genügen ihnen sonst nicht schon ein Hamster, Kröten oder Fledermäuse, wichtige Infrastrukturprojekte zu blockieren? Bei Windkraft ist den Grünen in allen Parteien der Umweltschutz schnurzegal.
Woher der Strom kommen muss und woher nicht

Ein Leser in meiner Lokalzeitung, der sich gegen Kernkraftstrom äußerte, schrieb: „Es genügt nicht zu sagen, dass man gegen Windräder ist, man muss auch sagen, woher die Energie der Zukunft denn kommen soll.“ Natürlich muss sie woher kommen, nämlich aus Kohle, Erdgas und Kernkraft. Aber bitte nicht aus fehlsubventionierter superteurer Windkraft und Fotovoltaik. Die medial hochgepeitschte Angst vor Strom aus Kernkraft – nun auch noch befeuert durch die Tsunami-Folgen im Fukushima-Kernkraftwerk – hat geradezu absurde Züge angenommen.

Der Droge Windkraft verfallen

Windkraft ist für deren Befürworter wie eine Droge. Sie leben im Rausch der Droge Windkraft. Sie genießen den Rausch, weil sie sich dann als Gutmenschen vorkommen. Daher wollen sie sich dem Rausch nicht mehr entziehen. Sie sind dieser Droge verfallen wie Süchtige dem Rauschgift Kokain. Eben darum setzen sie sich über alle Tatsachen hinweg, die massiv gegen die Windkraft sprechen. Sie wollen Tatsachen nicht wahrhaben, weil die ihren Rausch stören. Wer sie von der Droge befreien will, den denunzieren sie als Umweltzerstörer und Schädling der Gesellschaft. Derweilen richten sie weiterhin heillose Zerstörungen an, unter denen die ganze Bevölkerung zu leiden haben wird. Und durch die unnötig hochgetriebenen Strompreise schon jetzt leidet.

Scheinheiligkeit als neue Heiligkeit

Aus einer mir zugegangenen Mail habe ich zum Thema diese Bemerkung herausgefischt: „Die Mühe, Licht in das Dunkel Deutschlands zu bringen, wird nichts fruchten. Wenn Deutschland marschiert, dann marschieren alle mit, Kirchen, alle Parteien, die Wirtschaft und ihre Verbände, das Deutsche Atomforum und so gut wie alle Wissenschaftler als “willige Helfer”. Scheinheiligkeit ist hier die neue Heiligkeit – es kann einem grausen, wer da alles in schöner Eintracht auf dem Kreuzweg kriecht. Die falschen Priester stacheln das Volk auf und es wird laufen wie damals, als Pontius Pilatus fragte: ‚Welchen wollt ihr unter diesen zweien, den ich euch soll losgeben?’ Und das Volk schrie: ‚Barabam’.“ (Hanna Thiele am 21. Januar 2011

Gesucht: ein Öko-Sarrazin

In einem FAZ-Leserbrief war zu lesen: „Die deutschen Autofahrer verweigern der Regierung beim Einsatz von Biosprit die Gefolgschaft" – und die Präsidentin des Bundesamtes für Naturschutz (BfN) warnt vor Umweltgefahren durch Offshore-Windräder. Bahn sich hier womöglich etwas an? Beginnen die Bundesbürger zu begreifen, welchen ökologisch oft nur camouflierten, in Wahrheit von beinharten politischen und finanziellen Interessen gesteuerten Schalmeienklängen sie bislang gefolgt sind? … Könnte es sein, dass es nur noch eines Tropfens bedarf, um das Fass allgemeinen Öko-Überdrusses überlaufen zu lassen?

In jahrelanger, bewundernswert konsequent betriebener Lobby- und Medienarbeit ist es den politisch und kommerziell Interessierten gelungen, eine spezifisch deutsche, für sie ausgesprochen einträgliche Form der Ökomanie gewissermaßen zum Inhalt der ‚Leitkultur’ zu machen, der sich jedermann, will er nicht als ‚politically incorrect’ im moralischen Abseits landen, anzupassen hat. Etwas Ähnliches gab es doch schon einmal: Stichwort Integration. Auch dort hatten es Politik und Verbände verstanden, die offenkundigen Probleme jahrzehntelang unter einen selbstgeknüpften Wohlverhaltensteppich zu kehren – bis Thilo Sarrazin die Schleusen für eine freimütige Diskussion öffnete. Dann war kein Halten mehr. Brauchen wir also so etwas wie einen Öko-Sarrazin, der uns in Umweltfragen endlich aus der ideologischen Zwangsjacke befreit und nüchtern nach Kosten, Umwelteffizienz und Arbeitsplätzen fragen lässt?“ (Dr. Hans Christoph von Rohr am 22. März 2011)

„Erhebt euch massenhaft – levez en masse“

Ein anderer Leser jubelte zur Frage, ob wir einen Öko-Sarrazin brauchen: „Ja, ja und nochmals ja. Unter dem Mäntelchen der Ökologie halten Planwirtschaft und Jakobinertum wieder Einzug und schreiben uns immer mehr vor: Quecksilberhaltige Energiespar- statt Glühlampe, motorschädlichen Kraftstoff mit eher negativer Umweltbilanz und wer weiß, was noch folgt.

Mit regenerativer Energie verfolgen viele Gutsituierte ihre eigenen wirtschaftlichen Interessen: Attraktive Renditen für einen überschaubaren Kreis von Investoren zahlen alle, gerade auch Geringverdiener und Familien. So wie ich es schon getan habe, sollten wir alle unseren Abgeordneten deutlich machen, dass wir nicht länger so mit uns umspringen lassen. Meinen Leserbrief darf man dazu gerne abschreiben. Erhebt euch massenhaft – levez en masse!“ (Dr. Roland Vogel am 12. April 2011)

Aber nach Wahrheit haben die Massen nie gedürstet

Patent omnibus veritas – Die Wahrheit ist allen zugänglich. Doch zu viele wollen sie gar nicht wissen. Der Arzt und Begründer der Massenpsychologie Gustave Le Bon (1841 bis 1931) hat das so formuliert: “Nie haben die Massen nach Wahrheit gedürstet.

Von den Tatsachen, die ihnen missfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht stets ihr Opfer.” Man muss eine Unwahrheit nur oft genug wiederholen, bis sie als Wahrheit geglaubt wird. Und vom Physik-Nobelpreisträger Niels Bohr stammt die Bemer-
kung: „Alles ist möglich, vorausgesetzt, dass es genügend unvernünftig ist.“ Ebenso geschieht es mit der Hinwendung zur Stromerzeugung aus Wind- und Sonnenkraft und der deutschen Abwendung vom Strom aus Kernkraft.

Ergänzend hierzu zwei vorzügliche Kommentare aus der FAZ vom 12. April, die hier zu finden sind:

(Kosten der Energiewende. Von Holger Steltzner)
(Warnung vor dem Paradies. Von Stefan Dietrich)

von Dr. Klaus Peter Krause

Email: privat@kpk-kpk.de erschienen hier

mit freundlicher Genehmigung
Blog: www.kpkrause.de

Über den Autor

Geboren 1936 in Rostock. Vater Rechtsanwalt und Notar, Mutter gelernte Sportlehrerin und Hausfrau. Aufgewachsen in Bützow und Neustrelitz. 1945 Flucht nach Schwerin. 1946 von Schwerin nach Lübeck zur väterlichen Verwandtschaft. Dort Weiterbesuch der Volksschule, dann Katharineum-Gymnasium bis 1957 zum Abitur.
Bis 1959 kaufmännische Lehre als Industriekaufmann und anschließend Studium der Wirt- schaftswissenschaften in Kiel und Marburg. Abschluß als Diplom-Volkswirt mit Promotion zum Dr. rer. pol.
Gleich danach zur Frankfurter Allgemeinen Zeitung. Dort Wirtschaftsredakteur von 1966 bis Ende 2001, davon seit 1991 knapp elf Jahre verantwortlich für die FAZ- Wirtschaftsberichter- stattung. Daneben von 1994 bis Ende 2003 auch Geschäftsführer der Fazit-Stiftung, die die Mehrheit an der Frankfurter Allgemeine Zeitung GmbH und der Frankfurter Societäts-Druckerei hält. Seit 2004 als selbständiger Journalist, Publizist und Autor tätig. Verheiratet seit 1966. Ehefrau Lehrerin. Kinder: Zwei Söhne, eine Tochter




Korrelation zwischen SST und AGW – Stützen die Aufzeichnungen der Wassertemperatur (SST) die Hypothese von der anthropogenen globalen Erwärmung?

Dieser Beitrag steht inhaltlich auch mit dem Beitrag How Can Things So Obvious Be Overlooked By The Climate Science Community? in Zusammenhang. Hier stelle ich jedoch einen besseren Weg vor, und zwar mit der Unterteilung in dekadenübergreifende Perioden, die einmal vom Ende des El Niño der Jahre 1986/87/88 bis zum Beginn des El Niño 1997/98 sowie vom Ende des El Niño 1997/98 bis zum Beginn des El Niño von 2009/2010. Dies ermöglicht einen viel konsistenteren Weg, um die aktuellen SST-Anomalien der übrigen Welt zwischen diesen bedeutenden El Niño-Ereignissen zu ermitteln.

DIE ANTWORT AUF DIE TITELFRAGE BESTEHT NUR AUS EINEM EINZIGEN WORT: NEIN!

Die seit Beginn des Satellitenzeitalters ermittelten Temperaturaufzeichnungen deuten darauf hin, dass die SST nur als Reaktion auf bedeutende El Niño-Ereignisse gestiegen waren. Mit anderen Worten, die SST-Daten widersprechen der IPCC-Hypothese, dass der größte Teil des Anstiegs von den anthropogenen Treibhausgasen verursacht worden ist.

Die Tatsache, dass die per Satellit gemessenen SST-Anomalien AGW nicht stützen, kann man sehr leicht mit den beiden Graphen in Abbildung 1 illustrieren. Sie zeigen die per Satellit gemessenen SST-Anomalien in zwei Bereichen der globalen Ozeane, und zwar unter Verwendung der Reynolds OI.v2 SST-Daten von November 1981 (Beginn der Datenreihe) bis zum Mai 2011. Der Graph links zeigt die vulkanbereinigten SST für den Ostpazifik von Pol zu Pol (90°N bis 90°S; 180° bis 80°W). Das Gebiet repräsentiert etwa 33% der globalen Ozeanfläche. Es gibt wesentliche Variationen von Jahr zu Jahr, verursacht durch El Niño und La Niña-Ereignisse, aber ihr linearer Trend ist nahezu flach bei einer Steigung von +0,003°C pro Dekade. Mit anderen Worten, es hat während fast 30 Jahren keinen Anstieg der vulkanbereinigten SST-Daten für diesen Teil der globalen Ozeane gegeben. Der Graph rechts zeigt die vulkanbereinigten SST-Anomalien für alle übrigen Gebiete der Welt. Die SST-Anomalien in diesem Teil des Globus zeigen zwei deutliche Anstiege mit Perioden von fast keinem Anstieg dazwischen. Die Anstiege werden durch die mittleren SST-Anomalien für den Zeitraum zwischen den durch El Niño-Southern Oscillation-Ereignissen verursachten Anstiegen verdeutlicht. Es gibt einen Anstieg im Jahre 1987 als Reaktion des El Niño von 1986/87/88, sowie einen weiteren im Jahre 1997 als Reaktion auf den El Niño von 1997/98. Man erkennt auch, wie die SST-Daten in der übrigen Welt als Reaktion auf El Niño von 2009/2010 erneut steigen.

Abbildung 1

Die Abbildungen 2 und 3 zeigen die beiden Graphen in voller Größe. Diese Datensätze habe ich zum ersten Mal in meinem Beitrag Sea Surface Temperature Anomalies – East Pacific Versus The Rest Of The World besprochen, und sie erschienen seitdem in meinen monatlichen Aktualisierungen der SST-Anomalien. Zwei Anmerkungen: Der SST-Datensatz in diesem Beitrag stammt aus der NOAA Optimum Interpolation, Version 2 SST, auch bekannt als Reynolds OI.v2. Und wie in der Diskussion zu Abbildung 1 schon angemerkt, wurden beide Datensätze von den Effekten der Vulkanexplosionen von El Chichon 1982 und Mount Pinatubo 1991 bereinigt. Ich führte eine lineare Regressionsanalyse der globalen SST-Anomalien durch, um den Einflüssen der vulkanischen Aerosole Rechnung zu tragen. Näheres hierzu in dem o. g. Beitrag.

Abbildung 2

############################################

Abbildung 3

Der Trend der SST in der übrigen Welt zwischen den signifikanten El Niño-Ereignissen

Oben habe ich gezeigt, dass die SST-Daten der übrigen Welt zwei deutliche Anstiege zeigen und fast keine Änderung im Zeitraum dazwischen. Tatsächlich beträgt der Trend zwischen den El Niño-Ereignissen von 1986/87/88 und 1997/98 -0,01°C pro Dekade und der zwischen dem letztgenannten und dem El Niño von 2009/2010 +0,001°C pro Dekade. Mit anderen Worten, diese SST-Daten waren als Reaktion auf die signifikanten El Niño-Ereignisse der achtziger und neunziger Jahre angestiegen und zeigten keinen Anstieg im über eine Dekade langen Zeitraum dazwischen.

Abbildung 4

Um die Zeiträume zwischen den El Niño-Ereignissen abzugrenzen, habe ich den Oceanic Nino Index (ONI) von NOAA genutzt, um offiziell die Monate der drei El Niño-Ereignisse festlegen zu können.  Es gibt eine zeitliche Lücke von 6 Monaten zwischen den NINO3.4 SST-Anomalien und der Reaktion der SST in der übrigen Welt während der Entwicklungsphase des El Niño von 1997/98. Also verlegte ich die ONI-Daten ebenfalls um sechs Monate und alle SST-Daten aus der übrigen Welt, die mit den drei genannten El Niño-Ereignissen korrespondieren. Dann führte ich die Trendanalyse für die beiden verbleibenden Zeiträume durch.

Es wird sicher welche geben, die versuchen, die Trendanalysen der Abbildung 4 herunter zu spielen, und zwar mit der Bemerkung, dass ich die Daten nach Juni 2009 ausgeschlossen habe, um einen Anstieg der SST-Daten zu verschleiern. In Wirklichkeit habe ich diese Daten aber nur ausgeschlossen, weil durch das El Niño-Ereignis von 2009/2010 offenbar ein weiterer Anstieg erfolgte, wie in Abbildung 3 ersichtlich.

Schlussbemerkungen

Wenn nicht allein die anthropogenen Treibhausgase die SST-Anomalien während der El Niño-Ereignisse von 1986/87/88 und 1997/98 beeinflusst haben, gibt es in den per Satellit gemessenen SST-Daten keinen Beweis einer anthropogenen globalen Erwärmung. Die vulkanbereinigten SST-Anomalien im Ostpazifik sind während der letzten 30 Jahre nicht größer geworden. In der übrigen Welt sind die vulkanbereinigten SST-Anomalien nur während der beiden erwähnten El Niño-Ereignisse größer geworden, während sie in den Zwischenzeiten keine Änderung gezeigt hatten.

Ich habe die ENSO-Ereignisse sowie die vieljährigen Folgewirkungen von ENSO während der letzten Jahre in vielen Beiträgen beschrieben und präsentiert. Links dazu sind unter der Überschrift „Weitere Informationen“ unten aufgelistet.

ENSO ist ein Prozess, bei dem periodisch Wärme aus den Ozeanen abgeleitet und warmes Wasser aus dem tropischen Pazifik neu verteilt wird. ENSO sorgt auch dafür, dass die Wärme aus dem tropischen Pazifik durch eine periodische Zunahme von kurzwelliger Strahlung stromabwärts regeneriert wird. In dieser Hinsicht nehmen ENSO-Ereignisse ihre Energie aus einer periodischen Zunahme des natürlichen Strahlungsantriebs (solare Energie) über dem tropischen Pazifik. Wenn El Niño-Ereignisse sich über einen multidekadischen Zeitraum erstrecken, was darauf hindeutet, dass der tropische Pazifik mehr ozeanische Wärme als „normal“ freisetzt und weit verteilt, steigen die globalen Temperaturen. Das Gegenteil ist der Fall, wenn La Niña-Ereignisse dominieren.

Quellen

Daten der SST-Anomalien sind auf der NOAA NOMADS-Website verfügbar:
http://nomad1.ncep.noaa.gov/cgi-bin/pdisp_sst.sh
oder:
http://nomad3.ncep.noaa.gov/cgi-bin/pdisp_sst.sh?lite

Daten zur optischen Dicke des globalen stratosphärischen Aerosols von GISS findet man hier:

http://data.giss.nasa.gov/modelforce/strataer/tau_line.txt

Früherer Beitrag von Tisdale, auf den er sich in der Einführung bezieht:

Sea Surface Temperature Anomalies – East Pacific Versus The Rest Of The Worl d

Weitere Information

Meine ersten detaillierten Beiträge der vieljährigen Nachwirkungen von ENSO sind:
Can El Nino Events Explain All of the Global Warming Since 1976? – Part 1
und:
Can El Nino Events Explain All of the Global Warming Since 1976? – Part 2
und:
Supplement To “Can El Nino Events Explain All Of The Warming Since 1976?”
und:
Supplement 2 To “Can El Nino Events Explain All Of The Warming Since 1976?”

Und für jene, die visuelle Hilfsmittel bevorzugen, gibt es hier zwei Videos:                 

La Niña Is Not The Opposite Of El Niño – The Videos.

Die Auswirkungen dieser El Niño-Ereignisse auf den Nordatlantik werden hier behandelt:
There Are Also El Nino-Induced Step Changes In The North Atlantic
und:
Atlantic Meridional Overturning Circulation Data

Ich habe auch eine Erwiderung auf den Beitrag Tamino’s AMO Post geschrieben. Ich hoffe, demnächst einen neuen beitrag zum Nordatlantik fertigt zu haben.

Die Beiträge über die Auswirkungen von ENSO und Wärmegehalt der Ozeane sind hier:
ENSO Dominates NODC Ocean Heat Content (0-700 Meters) Data
und:
North Atlantic Ocean Heat Content (0-700 Meters) Is Governed By Natural Variables

Zusätzliche detaillierte technische Diskussionen findet man hier:
More Detail On The Multiyear Aftereffects Of ENSO – Part 1 – El Nino Events Warm The Oceans
und:
More Detail On The Multiyear Aftereffects Of ENSO – Part 2 – La Nina Events Recharge The Heat Released By El Nino Events AND…During Major Traditional ENSO Events, Warm Water Is Redistributed Via Ocean Currents.
und:
More Detail On The Multiyear Aftereffects Of ENSO – Part 3 – East Indian & West Pacific Oceans Can Warm In Response To Both El Nino & La Nina Events

Alle Beiträge des Autors Bob Tisdale

Link: http://wattsupwiththat.com/2011/07/10/tisdale-on-sst-correlation-with-agw/

Übersetzt von Chris Frey für EIKE

 




Energiearmut kommt- Studien zeigen: Energiewende kostet mindestens 335 Milliarden Euro

Dabei hat Deutschland heute schon -nach Dänemark- die höchsten Strompreise in Europa. Die Studien unterstellen zudem, dass  alle ihre Annahmen zutreffen, u.a. die, dass der "Umbau" hin zum "erneuerbaren Zeitalter" (Originalton Merkel) reibungslos vonstatten geht. Davon ist jedoch nicht auszugehen, verstößt doch u.a. die damit verbundene Landschaftszerstörung gegen fast alle Naturschutzgesetze. Beonders aber auch gegen wichtige Grundrechte, wie dem besonderen Schutz des Eigentums. Mit Widerstand ist also fest zu rechnen.

Hinzu kommt, dass die damit einhergehende, politisch gewollte, rapide Preissteigerung der Elektrizität Millionen Haushalte mit niedrigeren Einkommen dazu bringen wird, dass sie ihre Stromrechnungen nicht mehr bezahlen können. Entweder, weil die Hauptverdiener ihren Arbeitsplatz z.B. in der Grundstoffindustrie (rd. 1 Mio Arbeitsplätze stehen dort kurz vor ihrer Vernichtung) verlieren werden, oder weil ihre sonstigen Einkünfte z.B. aus Transferzahlungen nicht mehr ausreichen. Dies ist heute schon bei ungefähre 800.000 Haushalten ganz oder zeitweise die Regel.

"Der zu erwartende Anstieg der Industriestrompreise gefährdet ganze Industriezweige", sagte VBW-Hauptgeschäftsführer Bertram Brossardt der "Welt". "Das können wir nicht hinnehmen."

Der VBW (Verband der Bayerischen Wirtschaft) ist der Auftraggeber der Gutachten.

Das Gespenst der Energie-Armut macht sich bald in Deutschland breit. Dies ist politisch zwar so gewollt, aber wenn es erst mal losgelassen ist, kann es nicht wieder -wie weiland bei Goethes Zauberlehrling- eingefangen werden. Politische Rattenfänger werden dann noch mehr Umverteilung fordern. Wir alle werden die extrem teure Rechnung zu bezahlen haben. Wollen wir das wirklich?

Michael Limburg EIKE

Diverse Hinweise und Kommentare hierzu finden Sie hier

Lesen Sie auch den aktuellen Beitrag in -Welt Online-

Ausstieg aus der Realität

von Sonja Margolina




Englischer Berater empfiehlt: Das Thema Klimawandel sollte aus den Lehrplänen verschwinden!

Wenn man den Klimawandel aus dem Curriculum herausnimmt, könnten skeptische Lehrer ihren Schülern nichts mehr über den Klimawandel beibringen. „Das wäre dann so, wie wenn ein kreationistischer Lehrer nicht mehr über die Erschaffung der Welt unterrichten dürfte,“ sagte Bob Ward.

Der Klimawandel sollte nicht Bestandteil des nationalen Curriculums sein, sagte der mit der Überarbeitung des Schul-Lehrplans für England beauftragte Regierungsberater, Tim Oates, dessen weitreichende Überprüfung des Curriculums für die fünf bis 16Jährigen später in diesem Jahr veröffentlicht werden wird. Er meint, es müssen den Schulen überlassen bleiben, ob und wie sie über den Klimawandel unterrichten und auch über andere Lehrgegenstände über die wissenschaftlichen Verfahren, die auf unser Leben einwirken.

In einem Interview mit dem GUARDIAN forderte Oates, dass das nationale Curriculum wieder zur „Wissenschaft“ im Fach „Wissenschaft“ zurückkehren sollte. „Wir glauben, dass das nationale Curriculum mit aktuellen Problemstellungen auf der Höhe der Zeit gehalten werden muss, aber Themen wie Oxidation oder Schwerkraft finden nicht mehr statt“, sagte er. „Wir wollen ja nicht ein Jahrhundert zurück, wir wollen aber zu den Kernthemen zurück. Das Curriculum wurde immer mehr auf Instrumentalismus verengt.“

Sein Standpunkt bildet einen Wendepunkt in der Weiterentwicklung des nationalen Curriculums. Oates’ Absicht ist die inhaltliche Verkleinerung des nationalen Curriculums. Unter der vorherigen Regierung wurde das Curriculum um fast 500 Seiten dicker. Seine Bemerkungen zeigen, dass er eine Rückbesinnung von den von der Labour-Regierung gesetzten Schwerpunkten wünscht. Die hatte die Lehrer ermutigt, größeren Wert auf wissenschaftliche „Probleme“ zu legen und nicht auf naturwissenschaftliche Kenntnisse.

Der Klimawandel steht seit 1995 im nationalen Curriculum. Die Inhalte „Kulturelles Verständnis von Naturwissenschaft“ und „Anwendungen und Implikationen der Naturwissenschaften“ wurden 2007 für die 11 bis 14Jährigen hinzugefügt.

Aber schon warnte Bob Ward, der für Grundsatz und Öffentlichkeitsarbeit zuständiger Leiter des “Grantham Research Institutes on Climate Change and the Environment” an der “London School of Economics”, dass die Ideen von Herrn Oates nicht im wohlverstandenen Interesse der Schüler sein könnten und die Naturwissenschaften für die Schülern weniger interessant machen könnten.

“die Betonung des Klimawandels im Curriculum verbindet die naturwissenschaftlichen Kernkonzepte mit Problembereichen,“ sagte er. „Manche Politiker mögen das Thema Klimawandel nicht. Ich hoffe, dass dies kein Zeichen für eine neu beginnende politische Richtung ist.“

Weiter führte er aus, dass die Herausnahme des Klimawandels aus dem nationalen Curriculum klimawandel-skeptische Lehrer ermutigen könnte, das Thema überhaupt nicht mehr zu unterrichten. „Das wäre nicht zum Besten der Schüler. Das wäre, wie wenn ein kreationistischer Lehrer die Evolution überhaupt nicht behandeln würde. Der Klimawandel ist ein naturwissenschaftliches Thema. Wenn man ihn aus dem naturwissenschaftlichen Kontext herausnimmt, macht man ihn für die Kinder weniger interessant.“

Annette Smith, Leiterin des Verbandes Association for Science Education, teilte die Meinung von Oates von der Überfrachtung des Curriculums. "Was ich aber nicht vermissen möchte, ist die Vorstellung, dass die Naturwissenschaften sich stets fortentwickeln und dass sie unser Leben beeinflussen," sagte sie.

Oates aber, Forschungsdirektor beim “Cambridge Assessment”, einem der größten Auswertungsgremien in Europa, sagte, die das Interesse der Kinder fesselnden wissenschaftlichen Themen änderten sich "dramatisch“ von Jahr zu Jahr. "Das nationale Curriculum sollte gar nicht erst versuchen, damit Schritt zu halten, sonst würde es sich dauernd verändern." Die Lehrer wüssten selbst am besten, welche aktuellen wissenschaftlichen Probleme die Schüler interessierten, sagte er. Und weiter: "Ein Großteil davon sollte gar nicht im nationalen Curriculum stehen. Seit der letzten Überarbeitung wurde im Curriculum eine Menge Schaden angerichtet.“

“Wenn man in einer Stadt mit viel Fertigungsindustrie lebt, können die Lehrer das als Kontext für eine Diskussion über die sozialen Folgen der Naturwissenschaften benutzen; andere Gruppen von Schülern sind vielleicht eher daran interessiert, wie die pharmazeutische Industrie Arzneimittel herstellt. Es ist nur wichtig, dass die Schüler die sozialen Auswirkungen der Wissenschaften durchdenken, die genauen Themen aber … müssen nicht vom Staat vorgeschrieben werden.“

Oates setzte sich auch dafür ein, die Algebra bereits in jüngeren Klassen zu lehren. „Die Algebra ist während der vergangenen Jahrzehnte immer mehr nach später verschoben worden. Wir sollten schon mit einer Art Prä-Algebra bei jüngeren Schülern beginnen – zum Beispiel bei 8Jährigen. Mit 11 könnten Kinder schon einfache algebraische Gleichungen lösen.

Dadurch würde England zu einigen Nationen in Asien aufschließen. „Algebra ist so wichtig, weil sie die Grundlage von viel Mathematischem ist. In anderen Nationen rechnen bereits die Kinder mit Gleichungen und algebraischen Ausdrücken.“

Er sagte, dass gewisse mathematische Themen nur bei älteren Kindern gelehrt werden sollten, weil die Lehrer in den Grundschulen sich nicht zutrauten, sie zu lehren.

Die im Januar begonnene Überprüfung des Curriculum betrifft 12 Fächer, darunter Mathematik, Englisch, Naturwissenschaften, Kunst und Design. Sie wird sich auch dem Thema widmen, welche Fächer in welchem Alter Pflichtfächer sein sollten.

Anlässlich des Starts der Überprüfung sagte Bildungsminister Michael Gove, das nationale Curriculum wäre "zu umfangreich … es bevormunde die Lehrer und ersticke Innovationen." Er fuhr fort: „Die Seiten sind mit irrelevantem Zeug vollgestopft – hauptsächlich mit hochtrabend klingenden Zielen, wie z. B. die Forderung ‚Ungerechtigkeiten zu bekämpfen’. Das klingt wunderbar in Politikerreden, trägt aber nichts dazu bei, Schülern bei der Vertiefung ihres Wissens zu helfen.“

Der Klimawandel im derzeitigen Curriculum

Was die Kinder laut nationalem Curriculum über den Klimawandel und Umweltschutz lernen sollten:

Jahrgangsstufen 5-11: Die Schüler müssen die Achtung der Umwelt als Thema der Lebensvorgänge und des Lebens überhaupt erlernen.

Jahrgangsstufen 11-14: Die Schüler müssen erkennen, wie die menschliche Aktivität und natürliche Vorgänge zu Veränderungen in der Umwelt führen und Maßnahmen kennen, wie das Leben und die Umwelt geschützt werden muss. Die Lehrer werden ermutigt, sich mit Themen zu befassen, wie der Endlichkeit der verfügbaren Ressourcen, der Verminderung des Abfalls, dem Recycling, den Erneuerbaren Energien, der Umweltverschmutzung.

Schüler beweisen außergewöhnliche Leistungen, wenn sie „die Wichtigkeit einer großen Spannweite von Anwendungen und Implikationen der Naturwissenschaften in bekannten und unbekannten Kontexten beschreiben und erklären können, so zum Beispiel, wenn sie Probleme benennen können, die vom globalen Klimawandel herrühren“. 

Jahrgangsstufen 14-16: Die Schüler müssen lernen, dass die Erdoberfläche und die Atmosphäre sich seit Beginn stets verändern. Sie sollten sich auch damit beschäftigen, wie die Auswirkung der menschlichen Tätigkeit auf die Umwelt beurteilt werden kann, indem lebende und tote Indikatoren benutzt werden. Unter der Überschrift „Anwendungen und Implikationen der Wissenschaften“ sollten Schüler die Entscheidungsvorgänge in Wissenschaft und Technologie erkennen und verstehen lernen, auch solche, die ethische Fragen aufwerfen, auch die sozialen, wirtschaftlichen und umweltbezogenen Auswirkungen derartiger Entscheidungen“.

Der Klimawandel taucht auch im Lehrplan für Geografie auf und kann im Fach Religion behandelt werden.

Jessica Shepherd Guardian am 16.6.11 hier  

Die Übersetzung besorgte Helmut Jäger EIKE




Windkraftanlagenerrichtung bricht Grundrecht auf Eigentumsschutz. Kläger Gresens erzählt aus seiner täglichen Erfahrung!

Aus der Reihe Strandgespräche: Das Interview führte EIKE Präsident Dr. Holger Thuss mit Herrn Gresen Ende März 2011

Alle Videos von EIKE finden Sie hier




CERN macht Physiker in einem Klimaexperiment mit kosmischen Strahlen ‚mundtot‘

Was bedeuten diese Ergebnisse? Es ist verboten, Ihnen das zu sagen!

Der Direktor des CERN Rolf-Dieter Heuer sagte Welt online, dass die Wissenschaftler davon Abstand nehmen sollten, aus dem jüngsten Experiment Schlussfolgerungen zu ziehen.

Heuer sagte hier: „Ich habe die Kollegen gebeten, die Ergebnisse klar dazustellen aber nicht zu interpretieren”. Warum?

„Weil”, wie Heuer sagt, „man sich damit sofort in die hochpolitische Arena der Klimawandeldiskussion begeben würde. Man muss sich darüber klar sein, dass es sich bei der Höhenstrahlung nur um einen von sehr vielen Parametern handelt“.

Der ungewöhnliche “Maulkorberlass” könnte ausgegeben worden sein, weil die Ergebnisse von CLOUD wirklich, wirklich langweilig seien, macht sich der Wissenschaftsveteran Nigel Calder darüber lustig. Oder, es könnte sein, dass das Experiment eine politisch unakzeptable Hypothese zum Klima bestätigt hat.

Das CLOUD-Experiment bezieht sich auf frühere Experimente des dänischen Physikers Henrik Svensmark, der gezeigt hat, dass kosmische Strahlen als Kondensationskerne für Wolken fungieren. Kleine Änderungen der Wolkenbedeckung könnten für Temperaturänderungen in Höhe von mehreren Grad in Frage kommen. Die Menge ultrafeiner Kondensationskerne (Ultra Fine Condensation Nuclei UFCN) hängt ab von der Größenordnung der Hintergrundstrahlung, die wiederum in Abhängigkeit von der Stärke des solaren und des irdischen Magnetfeldes steht.

Enge Korrelation zwischen dem Eindringen kosmischer Strahlen und der Temperatur.

Aber um wie viel? Auf einer privaten Zusammenkunft früher in diesem Jahr wäre Svensmark,  der mit CLOUD nichts zu tun hat, nicht als Redner genannt worden. Er sagte, er dachte, dass diese Strahlen einer von vier wichtigen Faktoren seien: menschliche Faktoren, Vulkane, eine „Klimaverschiebung“ Mitte der siebziger Jahre und kosmische Strahlen.

Die Größenordnung kosmischer Strahlen hat also einen Einfluss auf das Klima, spielt aber bei dem „Konsens“ des IPCC nicht die geringste Rolle.

Calder:

“CERN” hat sich in eine lange Reihe geringerer Institutionen eingereiht, die sich politisch korrekt gegenüber der anthropogenen globalen Erwärmung verhalten. Es ist in Ordnung, ‚die hoch politische Arena der Debatte um die Klimaänderung’ unter der Voraussetzung zu betreten, dass ihre Ergebnisse die menschengemachte Erwärmung bestätigen, aber nicht, wenn sie Svensmarks Häresie stützen, nämlich dass die Sonne durch Beeinflussung der einfallenden kosmischen Strahlung und der davon abhängigen Wolkenbildung für Klimaänderungen verantwortlich ist.

Hoffen wir, dass er falsch zitiert wurde. Die Vorgänger sind nicht glücklich (aren’t happy. ®)

Andrew OrlowskiMehr von diesem Autor

Beitrag in Science, 18th July 2011 12:01 GMT

Link: http://www.theregister.co.uk/2011/07/18/cern_cosmic_ray_gag/

Anmerkung des Übersetzers: Das Erlassen eines solchen “Maulkorbes” ist an sich ein Skandal erster Güte. Es war fast zu erwarten, dass die deutschen Medien sich darüber laut ausschweigen.  Das ist beispielsweise in der englischsprachigen Presse, wie schon seit längerer Zeit, anders. Und dort klingt es auch noch griffiger. Lesen Sie, was Dennis Avery bei Canadian Free Press (Link siehe unten) dazu schreibt:

Die nächste Bombe in der Klimadiskussion

CERN in Genf wird demnächst bekannt geben, dass mehr kosmische Strahlen tatsächlich zu verstärkter Wolkenbildung in der Erdatmosphäre führen. Mehr kosmische Strahlen bedeutet: kühlerer Planet.

Machen Sie sich fertig für die nächste große Bombe in der Debatte um die anthropogen verursachte Erwärmung. Das größte Labor zum Studium von Teilchen – CERN in Genf – wird demnächst bekannt geben, dass mehr kosmische Strahlen tatsächlich zu verstärkter Wolkenbildung in der Erdatmosphäre führen. Mehr kosmische Strahlen bedeutet: kühlerer Planet. Damit wird der solare Antrieb des langen, 1500-jährigen Klimazyklus’ der Erde schließlich erklärt.

Kosmische Strahlen und der Sonnenwind sind interessante Phänomene – aber sie sind noch viel interessanter, wenn eine unbewiesene Theorie die Energiekosten einer Gesellschaft vervierfacht. Das IPCC möchte 10 Dollar für Treibstoff [$10 gasoline] und „gen Himmel stürmende“ Energiekosten, um die Temperatur der Erde zu reduzieren, und zwar um einen so kleinen Betrag, dass er mit den meisten Thermometern gar nicht gemessen werden kann.

Als Fred Singer und ich 2007 [das Buch] ‚Unaufhaltbare globale Erwärmung alle 1500 Jahre‘ veröffentlicht hatten, hatten wir nicht gerade die kosmischen Strahlen im Kopf. Wir wussten, dass der natürliche, moderate Klimazyklus real war, und zwar aus Beweisen aus Eisbohrkernen, Sedimenten am Grund der Ozeane, fossilen Pollen und Stalagmiten in Höhlen. Der Zyklus war der bedeutende Faktor, der der Hysterie des IPCC um die menschengemachte Erwärmung zugrunde lag.

Als Willi Dansgaard und Hans Oeschger den 1500-Jahres-Zyklus 1984 in Eisbohrkernen aus Grönland entdeckten, wussten sie sofort, dass die Sonne die Ursache dafür war. Sie haben genau den gleichen Zyklus mit Hilfe der Carbon-14-Methode in Bäumen und in Beryllium-10-Molekülen in Eiskernen gefunden. Beide Arten von Molekülen bilden sich, wenn kosmische Strahlen auf die Erdatmosphäre treffen. Der Zyklus hat zu einer ganzen Serie von dramatischen Klimaänderungen geführt, von der Mittelalterlichen Warmzeit bis zur Kleinen Eiszeit.

Das IPCC seinerseits hat verkündet, dass die Sonne nicht der treibende Faktor hinter irgendeiner großen Klimaänderung sein kann, weil die Solarstrahlung zu klein sei. Jedoch hat das IPCC nicht andere solare Variationen berücksichtigt, die die solare Strahlung verstärken könnte. Auch hat das IPCC in seinen berühmten Computermodellen nicht die Erkenntnisse aus der Mittelalterlichen Warmzeit (950 bis 1200 n. Chr.), der Römischen Warmzeit (200 v. bis 600 n. Chr.) oder die großen Warmzeiten des Holozäns zwischen 6000 und 8000 v. Chr. berücksichtigt.

Das IPCC wollte die Sonne als Klimafaktor offensichtlich verwerfen – um Raum zu schaffen für einen CO2-Faktor, der nur zu 22% mit den Thermometeraufzeichnungen der Vergangenheit korreliert. Korrelation ist nicht Kausalität – aber das Fehlen einer CO2-Korrelation ist tödlich für die IPCC-Theorie.

Henrik Svensmark vom Danish Space Research Institute fügte der Klimazyklusgeschichte ein weiteres Kapitel hinzu, unmittelbar bevor unser Buch veröffentlicht worden ist. Sein Nebelkammerexperiment zeigte, dass natürliche kosmische Strahlen sehr schnell eine große Menge kleiner „Wolkensamen“ erzeugten, wenn unsere Mischung atmosphärischer Gase mit ultraviolettem Licht bombardiert wurde. Da Wolken oft etwa 30 Prozent der Erdoberfläche bedecken, kann eine moderate Änderung der Wolkenbedeckung eindeutig den Erwärmungs-/Abkühlungszyklus erklären.

Svensmark wies auf den gigantischen “Sonnenwind” bei einer aktiven Sonne hin  – der in der Folge viele der kosmischen Strahlen blockiert, die sonst auf die Erdatmosphäre treffen würden. Schwächelt die Sonne, wird auch der Sonnenwind schwächer. Vor Kurzem hat das US Solar Observatory eine sehr lange Periode einer „ruhigen Sonne“ bekannt gegeben und eine Abkühlung für die nächsten 30 Jahre prognostiziert.

Im vorigen Jahr bestätigte ein anderes Experiment an der dänischen University of Aarhus mit einem Teilchenbeschleuniger in vollem Umfang Svensmarks Hypothese: Kosmische Strahlen führen zu verstärkter Wolkenbildung und damit zur Abkühlung der Erde.

Das CERN-Experiment ist dazu ausersehen, die Svensmark-Theorie einem grundlegenden Test zu unterziehen. Es ist dabei bezeichnend, dass der Leiter des CERN, Rolf-Dieter Heuer, gerade der Zeitung „Die Welt“ gesagt hat, dass er seinen Forschern verboten hat, die zu erwartenden Ergebnisse zu „interpretieren“. Mit anderen Worten, der Bericht von CERN wird eine „nur die Tatsachen nennende“ Liste der Ergebnisse sein. Diese Ergebnisse müssen Svensmark stützen, sonst hätte Heuer niemals  eine so harte Anordnung bzgl. eines so wichtigen Experiments getroffen.

Bleiben Sie dran!

Weiterführend auch Nigel Calder zu CERN hier

Dennis Avery Most recent columns

Dennis T. Avery ist führendes Mitglied am Hudson Institute in Washington.  Er ist Direktor von Global Food Issues cgfi.org. Zuvor war er leitender Analyst beim State Department.

Seine e-mail-Adresse: letters@canadafreepress.com

Link:  http://canadafreepress.com/index.php/article/38627

Beide Beiträge übersetzt von Chris Frey für EIKE




76 Billionen Dollar: Die Kosten der UN für das “Ergrünen” explodieren

Dem Bericht und der Presseerklärung der UN zufolge (welche aktuell durch das UNO-Büro in Genf veröffentlicht werden) muss die „Menschheit“ während der nächsten 40 Jahre etwa 76 Billionen – Billionen! – Dollar blechen. Dies gilt jedenfalls, wenn die Welt die globale von der Bürokratie angeführte „große grüne Technologietransformation“ erreichen will. Dieses „wir-wissen-was-für-die-Welt-gut-ist“-Gefasel ist wohl der arroganteste Blödsinn, der jemals von den UN gekommen ist. Und das hat sie ausgiebig getan. Es ist auch der teuerste Blödsinn.

Gerade mal vor zwei Jahren konnte das globale „Ergrünen” noch mit Kosten in Höhe von etwa 600 Milliarden Dollar pro Jahr während der nächsten Dekade erreicht werden. Dem Bericht zufolge braucht  die Welt dringend  unter Anderem „vermehrt saubere Energietechnologien“, um eine „technologische Runderneuerung … von einer Größenordnung ähnlich der ersten industriellen Revolution“ durchzuführen. Nicht durch individuelle kapitalistische Innovation und Brillanz angeführt, sondern durch strategische Planung seitens der UN. Wetten, dass dies das erste Mal wäre, dass Sie „strategisch“ und „Planung der UN“ in einem Satz zusammen sehen? Dafür gibt es triftige Gründe– wie ein genauerer Blick auf Behauptungen im Bericht zeigt.

Wenn Sie zum Kern des Berichtes vorstoßen, offenbart sich das  gesamte Spektrum des UNO-Kauderwelschs Was die Autoren mit „Ergrünen“ meinen, ist nicht nur mehr Investition in „saubere Energie“. Die Bewegung dorthin beansprucht auch, die „Armut zu beenden“ (nanu, alle Armut?), den Hunger in der Welt, die „katastrophalen Auswirkungen des Klimawandels“ (die wären?) und die „Umweltzerstörung“ (was immer das sein soll). Das Auslöschen der Armut und des Hungers in der Welt sind nun in den Kampf gegen die Klimaänderung eingebracht worden. Wir erfahren, dass „etwa 40 Prozent der Menschheit oder 2,7 Milliarden Menschen von traditioneller Biomasse wie Holz, Dung und Kohle für ihren Energiebedarf abhängig sind. Und 20 Prozent haben keinen Strom, hauptsächlich in Südasien und in Afrika südlich der Sahara“. Die Autoren des Berichtes fordern einen „viel größeren ökonomischen Fortschritt“ im Krieg gegen den Klimawandel, welcher diese historischen Missstände heilen wird, so die Behauptungen

Aber genauso wenig, wie man gute Leute niederhalten kann, kann man eine schlechte Bürokratie von Sozial-Ingenieuren davon abhalten, eine ganze Menge Geld anderer Leute auszugeben. Der UN-Bericht will die Agenda für die Sause anläßlich der „Konferenz zur nachhaltigen Entwicklung“ in Rio de Janeiro 2012 setzen. Mit dieser Konferenz im Hinterkopf hat Rob Vos, leitender Autor des Berichtes, festgestellt, dass „Weitermachen wie bisher keine Option ist“. Vos meint damit nicht den Hofstaat der UNO und die politischen Würdenträger, die nach Rio fliegen wegen ein bisschen Ruhe und Erholung in den Fünf-Sterne-Hotels, müssen Sie wissen.  Vos meint den Rest der Welt – ausgenommen Konferenzteilnehmer und die Bonus-Meilen-Sammler der UNO, wie es scheint – der Rest der Welt muss mit dem Umher-Jetten und dem Emittieren von Tonnen von Kohlenstoff in die Atmosphäre aufhören und mit dem Ferienmachen, besonders mit Fernreisen wie z. B. … na ja, zum Beispiel nach Rio.

Obwohl der Bericht einen Schub hin zur „grünen Ökonomie” fordert, räumt er ein, dass es keine übereinstimmende Definition dafür gibt, was das eigentlich ist. Trotzdem wird die „grüne Ökonomie“ grandios als „das neue Paradigma“ gestempelt, das „auf der Überzeugung beruht, dass die Vorteile der Investition in Umwelt-Nachhaltigkeit die Kosten des Nichtstuns übersteigen werden“. Im Klartext: Es dürfte hier keine Überlegungen zu einer ‚Schuldenobergrenze’ geben; gebt einfach die Dollars her und wir werdenden Job schon erledigen. Wer wird die Zeche begleichen ? „Für eine Hälfte”, heißt es im Bericht, „müssen die Entwicklungsländer aufkommen”.  Erinnern wir uns: es sind schiere 38 Billionen Dollars an Zuwendungen, die an die Entwicklungsländer gehen müssen. Selbst für die UN-Bürokraten ist das des Guten zuviel. Es scheint, dass sie nichts vom griechischen und jetzt vomitalienischen“Über-die-Verhältnisse-leben“ gehört haben, geschweige denn von den Debatten in den USA, die einen historischen Knall hinterlassen werden.

Und, um das Maß voll zu machen, falls die Emissionsminderungsziele nicht erreicht werden, dann könnten „Obergrenzen für den Energieverbrauch… notwendig werden“. „Das könnte nicht gerade attraktiv sein“, wie der Bericht zugibt, Richtig! Vor allem für die Millionen Menschen, die  unter Brennstoffknappheit leiden und die vermutlich als direkte Folge erfrieren werden.

Darin steckt eine große Ironie. Falls die Beseitigung von Hunger und Armut in der Welt aufrichtige Ziele der UN wären, würde der gleiche billige Strom aus der Kohleverbrennung, der zur ersten industriellen Revolution geführt hatte, das gleiche für „Südasien“ und die „Afrika südlich der Sahara“ tun, was er für die übrige Welt getan hat. Aber das würde einfach eine Kombination von billigem Strom und eines freien Marktes für die Menschen in Asien und Afrika erfordern, damit das geschieht, was wir hier in den westlichen Staaten erlebt haben. Und dazu müsste man der icht gewählten Oligarchie der UN in den Hintern treten, die bürokratischen Pläne und all das hinausfeuern.

Aber wir wissen alle, das wird nicht geschehen!

Nicht, wenn die UN die einmalige Gelegenheit erhält, auf der populären Welle der „sauberen Energie“ zu reiten und mal eben so 76 Billionen Dollar plus einzustreichen, um ihren erweiterten Status als eine  „windige“ Welt-Regierung zu finanzieren. Das macht die Agenda 21 der UN – und ihr anderer, weniger bekannte „strategischer Umweltplan“ – nur allzu klar. Die Agenda-21-Ziele fußen auf der UNO-Konferenz für Umwelt und Entwicklung 1992 ebenfalls in Rio . Ihre Ziele wurzeln, wie der Bericht 2011 bestätigt, vollständig im „Vorsorgeprinzip“. Dekodiert: Es spielt keine Rolle, wie die wahre Wissenschaft zum Klimawandel aussieht, wir sollten das Geld für den Kampf dagegen ausgeben, um ‚für alle Fälle’ gerüstet zu sein.

Wie arrogant und wie heimtückisch von Leuten, die vorgeben,  für das öffentliche Wohl zu arbeiten!

Peter Glover

Original hier Link: http://www.energytribune.com/articles.cfm/7993/$76-Trillion-UNs-Cost-of-Going-Green-Soars

Übersetzt von Chris Frey für EIKE. Dazu HINWEIS: im Original wurde ein sehr „verslangtes“ Englisch benutzt. Ganz herzlich möchte ich mich bei Herrn Helmut Jäger bedanken, der mir bei der Übersetzung sehr geholfen hat!   C. F.




Dümmer gehts nümmer! UN Sicherheitsrat: Klimawandel bedroht den Weltfrieden!

Deutschland hatte im vergangenen Jahrhundert zweimal maßgeblich dazu beigetragen den Weltfrieden – so es den je gegeben hat- massiv zu zerstören. Beide Male durch von Deutschland ausgehende bzw. maßgeblich unterstützte Weltkriege. So gesehen ist es verständlich und von der überwältigenden Mehrheit der Deutschen gewünscht und unterstützt, dass sich Deutschland für eine Verbesserung der Weltfriedenssituation einsetzt. Zumindest für eine Verminderung der ständigen Kriege. Dies tut man am Besten durch Stärkung der Friedlichen und durch Sanktionierung der Kriegerischen. An sich ganz einfach! Aber nicht immer, jedenfalls nicht für den deutschen Außenminister: Die deutsche Stimmenthaltung bei der Unterstützung der libyschen Aufständischen ist noch in schlechter Erinnerung.

Auch deswegen hält sich leider kaum ein Staat an diese simple Regel. Es gibt dafür viele, manchmal sogar akzeptable, Gründe.

Nur muss man sich fragen, welcher Teufel den deutschen Außenminister geritten hat die edle Unterstützung des Weltfriedens mit der Frage nach den Gründen, gar der Vermeidung des Klimawandels, zu verbinden. Die Antwort gibt sein Statement dass man auf der Website des Außenministeriums abrufen kann:

O-Ton Westerwelle in einer PM vom 21.7.11 des Auswärtigen Amtes:

„Knappe Ressourcen und Verteilungskämpfe infolge des Klimawandels können den Frieden in vielen Regionen der Welt nachhaltig gefährden. Schon jetzt sind solche Folgen der Klimaveränderungen spürbar. Sie werden weiter zunehmen. Dass jetzt auch der Sicherheitsrat die Gefahren des Klimawandels anerkannt hat, ist ein wichtiger Erfolg der deutschen Klimadiplomatie“.

Folgt man der darin formulierten Gedankenkette, dann ist, weil der Klimawandel nach gängiger Politmeinung ja menschgemacht ist, die Klimawandelvermeidung eine Aufgabe für den UN-Sicherheitsrat. Der hat nun die vom Klimawandel ausgehenden (menschgemachte) Gefahren endlich anerkannt und das dank des unermüdlichen Einsatzes der deutschen Politik. Gratuliere! Wie blind waren wir alle zuvor!

Hier wird sogar postuliert, dass beide voneinander abhängen. Der Mensch erzeugt den Klimawandel, dieser erzeugt Gefahren durch Verteilungskämpfe und die muss der UN-Sicherheitsrat als solche erkennen und ggf. bekämpfen. Oder besser: der Klimawandel selbst muss bekämpft werden.

Die Frage lautet: Wie kann jemand auf diese absurde, jeder historischen Erfahrung widersprechende Idee kommen, gar als Bundesregierung?

Vielleicht liegt es daran, dass gesunder Menschenverstand, geschult durch naturwissenschaftliche Erziehung humboldtscher Prägung nicht unbedingt zur Primärausstattung erfolgreicher Politiker gehört. Auch bei Journalisten soll diese Erziehung heute seltener anzutreffen sein, als man es sich wünschen würde. Deswegen wohl verschreibt man sich diesem Ziel und feiert sich für diesen „Durchbruch“.

 

Ausriss aus die Welt vom 22.7.11

Nun kann niemand leugnen, dass der Klimawandel – aber immer nur dann wenn es kalt wurde- eine Gefahr für Wohlergehen und die Gesundheit vieler Menschen bedeuten kann. Das belegen sämtliche geschichtlichen Erfahrungen. Ob nun die ollen Germanen durch die Kaltzeit (Klimapessimum genannt), ab dem  4. Jahrhundert  mittels der Völkerwanderung nach Süden getrieben wurden, oder ob das  nächste Klimapessimum zwischen 1500 und 1850 -auch die kleine Eiszeit genannt …große soziale Unruhen, Missernten und Hungersnöte sowie eine Anzahl umwälzender Ereignisse (Dreißigjähriger Krieg, Französische Revolution)… auslösten, immer waren es Kaltzeiten die Anpassungsbewegungen an den Klimawandel erforderten. Die Ernten gingen drastisch zurück, die Menschen hungerten und verhungerten; Krieg und Not und Wanderung waren die Folge.

Wenn es also das war, was die Deutsche Regierung beim Verlesen Ihrer bahnbrechenden Erklärung im UN Sicherheitrat vertrat, dann fragt man sich, ob hier nicht nur schlicht die Vorzeichen verwechselt wurden? Der Klimawandel solle also keine kalte Periode zur Folge haben: Nein, das war es wohl nicht. Zuvor nämlich hatte – wieder auf Betreiben der deutschen Regierung, namentlich der seitdem Klimadonna genannten Kanzlerin, Frau Dr. Merkel-  die Staats- und Regierungschefs beim G8-Gipfel im Juli 2009 im italienischen L’Aquila einheitlich dem Erdklima (Gaia lässt grüßen) versprochen, dass es sich um nicht mehr als 2 ° C erwärmen dürfe, dafür werde man schon sorgen.  Also nicht etwa eine Abkühlung solle verhindert werden, sondern eine Erwärmung! Warum die schädlich sein soll, besonders aber wie man das anstellen will, konnte bisher niemand darlegen. Schließlich fährt halb Europa im kühlen nassen Winter gern mal in den warmen Süden. Die CO2 Konzentration steigt ungebremst mit knapp 2 ppm/Jahr, aber die Erdtemperatur steigt nicht mit, sondern fällt sachte.

Ungeachtet dieser klaren Signale hat das deutsche Parlament, wegen des Klimaschutzes, die umgehende Vernichtung der deutschen konventionellen Energieversorgung  beschlossen. Einfach mal so! Und nur mit 7 Gegenstimmen aus der Koalition! Alternativen -zwar per „Anreiz“ massivst auf Kosten der Verbraucher gefördert-  sind an keiner Stelle (außer als massive Störung) vorhanden, oder auch nur sichtbar.

Aber so funktioniert Politk eben, sagt man. Besonders die deutsche Welt- und -Klima- und Schutzpolitik.

Wer denkt dabei nicht an Heinrich Heine …denk ich an Deutschland in der Nacht…bin ich um den Schlaf gebracht.

Michael Limburg EIKE

Wie die Medien über diesen Geniestreich berichten hier




Neues wissenschaftliches Experiment widerlegt „Treibhauseffekt“!

Nun ist das nichts weiter als wissenschaftlicher verbrämter Unsinn, was seriösen Wissenschaftlern, auch solchen die überzeugt dem IPCC zuarbeiten, seit langem bekannt ist. Trotzdem darf dieser Unsinn heute in keinem Schulbuch fehlen. Doch schon vor über 100 Jahren hat der amerikanische Experimentalphysiker Robert W. Wood  an der Hopkins Universität nachgewiesen, dass dies alles nicht stimmt und einer wissenschaftlichen Überprüfung nicht standhält. 

Jetzt hat Professor Nahle im mexikanischen Monterrey mit Unterstützung eines Teams von internationalen Wissenschaftlern originalgetreu sein berühmtes Experiment aus dem Jahr 1909 wiederholt, um zu belegen, dass der "Treibhauseffekt" nicht der Grund für eine globale Erwärmung sein kann!

Erstaunlicherweise wurde das Treibhausexperiment, das 1909 zum ersten Mal von Prof. Robert W. Wood an der John Hopkins University durchgeführt worden war, ein Jahrhundert lang nicht wiederholt*. Und das, obwohl inzwischen über 100 Milliarden Dollar durch die Industrie der anthropogen verursachten globalen Erwärmung ausgegeben worden sind, um zu beweisen, dass Kohlendioxid ein gefährlicher atmosphärischer Verschmutzer ist.

Die verwendete und eingängig plausible Analogie war, dass sog. Treibhausgase (z. B. CO2) sich wie das Glas in einem Treibhaus verhalten, die die Wärme in der Erdatmosphäre gefangen halten und (wegen der menschlichen industriellen Emissionen) den Planeten gefährlich überhitzen.

An den Biology Cabinet Laboratories konnte Professor Nahle nun Woods erstaunliche Ergebnis bestätigen: Dieser hatte die ganze Zeit recht! Nach der wissenschaftlichen Begutachtung bestätigen die Ergebnisse, dass der sog. „Treibhauseffekt“ allein durch die Blockierung des konvektiven Wärmetransfers innerhalb der Umgebung, in der er sich abspielt, verursacht wird. In diesem Fall war das ein Laborkasten aus Karton. Mit einem Deckel aus unterschiedlichen lichtdurchlässigen Materialien. Aber undurchlässig bzw. durchlässig für Infrarot. Sie sind in jedem Zubehörhandel zu bekommen.

Zitat Tatsächlich ist es nur das Bedeckung der Laborbox (umfunktioniert zum ‚Treibhaus’), dass die Wärme die ganze Zeit „eingefangen“ hat. Die Box (oder "Treibhaus") ist etwas, das die Wissenschaftler ein ‚geschlossenes System‘ nennen; wohingegen die Erdatmosphäre überhaupt nicht geschlossen ist, sondern ziemlich weit zum Weltraum hin offen ist, so dass die Wärme frei entweichen kann.

Die Ergebnisse von Nahle zertrümmern nicht die Phantastereien eines Latif sondern z.B. auch die Behauptungen eines Professor Pratt von der Stanford University, dessen eigene Wiederholung von Woods Experiment, als die erste offizielle Rekonstruktion von Woods Test seit einem Jahrhundert beworben worden ist. Pratt hatte behauptet, dass er Woods Ergebnisse widerlegt hat.

„Das ist der Grund für meinen Entschluss, das Experiment von Professor Pratt zu wiederholen, um seine Ergebnisse und damit die von Professor Wood zu bestätigen oder zu widerlegen”, sagt Nahle von Biology Cabinet.

In der Einführung zu seiner Arbeit schreibt  Nahle hier

von Nasif S. Nahle Universitätsprofessor, Scientist, Scientific Research Director bei Biology Cabinet © Monterrey, N. L., Mexiko.

Nahle, Nasif S. Wiederholbarkeit des von Professor Robert W. Wood ’s 1909 durchgeführten Experiments zur Theorie des Treibhauses. 12. Juni 2011. Biologie Cabinet Online, Academic Resources. Monterrey, N. L.

* Der Autor ist dankbar für die Principia Scientific International Team für die freundliche Unterstützung mit dem Text, trotzdem sind Fehler in den Text mir allein.

Abbildung 1: Darstellung der Messboxen

Kurzfassung:

Durch diese kontrollierte Experiment demonstriere ich, dass die wärmende Wirkung in einem echten Treibhaus nicht durch langwellige Infrarot-Strahlung die im Inneren des Treibhauses eingeschlossen wird, erzeugt wird, sondern durch die Blockade der konvektiven Wärmeübertragung mit der Umgebung, wie von Professor Wood in seinem 1909 Experiment bewiesen.

Einleitung:

Im Jahre 1909 führte Professor Wood ein Experiment aus bezogen auf die erhöhte Temperatur in einem Treibhaus bei Sonneneinstrahlung, zur Überprüfung der Wirkung der langwelligen Infrarot-Strahlung, die in einem Treibhaus eingeschlossen ist, 

Sein Experiment ist in einem Artikel beschrieben, der in der Zeitschrift Philosophical Magazine im Jahr 1909. (Siehe Referenz [1] veröffentlicht wurde.

Durch sein Experiment, fand Professor Wood, dass die Erhöhung der Temperatur in einem Gewächshaus nicht durch eingeschlossene Strahlung, sondern durch die Blockade der konvektiven Wärmeübertragung zwischen dem Inneren des Gewächshauses und der offenen Atmosphäre erfolgte.

Da es von anderen Wissenschaftlern keine anderen Dokumente gibt, die versuchten, das Experiment von Professor Wood zu wiederholen, es sei denn das Experiment von Professor Pratt [2], das im Widerspruch zu den Ergebnissen von  Professor Woods Experiment steht, ist eine andere wissenschaftliche Untersuchung durch einen dritten Schiedsrichter nicht nur empfehlenswert, sondern auch notwendig. Dies ist der Grund, dass ich beschloss, das Experiment von Professor Pratt zu wiederholen, um ihn oder Professor entweder zu widerlegen oder ihre Ergebnisse zu bestätigen 

Die folgenden Zeilen beschreiben die Versuche die von mir durchgeführt  wurden und ihre Ergebnisse. Alle Details siehe hier http://www.biocab.org/Experiment_on_Greenhouse_Effect.pdf

Abbildung 2: Hier werden die Messergebnisse  der verschiedenen "Treibhäuser" gezeigt mit Deckeln, die tlw. aus unterschiedlichen Materialien bestanden. Infrarot durchlässig und nicht durchlässig. Im Vergleich dazu eine offene Box. Deutlich sichtbar. Kein signifikanter Unterschied, zwischen den verschiedenen Materialien

Im Paper beschreibt Nahle seine Arbeit im Forschungsinstitut in Monterrey in der er Woods Test über den Effekt der langwelligen infraroten Strahlung wiederholt, die in einem Treibhaus eingefangen war. Anders als Pratt  fand er, dass Woods Ergebnisse korrekt, absolut gültig und systematisch wiederholbar waren. Der Mann von Bio Cab bestätigte:

„Der Treibhauseffekt, wie er in vielen didaktischen Büchern und Artikeln beschrieben wird, existiert nicht“.

Einfach gesagt: einige der zuvor erwähnten Professoren haben ihre Reputation gefährlich aufs Spiel gesetzt, und Nahle verlangt zu Recht nach einer Erklärung von seinem Kontrahenten Pratt in den USA. Ein Hinweis vorweg auf das Ergebnis: Pratt war zu dieser Arbeit nicht wissenschaftlich qualifiziert – er ist ein Erwärmungsanhänger und Mathematiker, der sich auf Computer spezialisiert hat.

Satellitenaufzeichnungen stützen die mexikanischen Ergebnisse

Die Ergebnisse von Professor Nahle werden für niemanden eine Überraschung sein, der auf dem neuesten Stand der jüngsten Klimaergebnisse ist, Sie lassen erhebliche Zweifel am sog. "Treibhauseffekt" aufkomme. Die NASA gibt jetzt zu, dass derzeit trotz des ungebremsten CO2-Anstiegs keine globale Erwärmung im Gange ist.

Unverständlicherweise gibt die einst so erhabene US-Weltraumagentur China die Schuld an der fehlenden Erwärmung. Die rapide Industrialisierung dieser Nation emittiert so viel Schwefeldioxid, dass es unsere Erde „abkühlt“, sagen sie.

Hintergrund der Mythologie vom Treibhausgas

Die Wissenschaft von Professor Wood setzte sich bis Mitte der dreißiger Jahre durch, nachdem er bewiesen hatte, dass die Blockierung des konvektiven Wärmetransfers mit der Umgebung zu einer Temperaturzunahme innerhalb des Treibhauses um 10,03°C führte, unter Berücksichtigung der Umgebungstemperatur.

Nach dem Zweiten Weltkrieg erwachte das Interesse an der THE These kurzzeitig erneut. Aber die American Meteorological Society verwarf diese These im Jahre 1951, nachdem sie alle verfügbaren Daten begutachtet hatte, und veröffentlichte das „Compendium of Meteorology“, um die kultischen Behauptungen abzuwürgen.

Allerdings gelang es den Angstmachern Mitte der achtziger Jahre, die Idee eines THE wieder zum Leben zu erwecken. Die Gründung des IPCC 1988 war die unmittelbare Folge. Die Riokonferenz 1992 zur Nachhaltigkeit bereitete den internationalen politischen Boden vor, unter aktiver Beteiligung der jetzigen Bundeskanzlerin Frau Dr. Merkel. Ihre Energiegesetzgebung, vor allem mit dem "Klimaschutz" begründet und dem Ziel die konventionelle Energieversorgung nachhaltig zu zerstören, ist die unmittelbare, gezielt angestrebte Folge dieser Märchens vom "Treibauseffekt".  Es ist nicht nur höchste Zeit für ein Umschreiben der Schulbücher, sondern insbesondere für einen Politkwechsel. Denn es ist bereits fünf nach zwölf.

Michael Limburg unter Verwendung von Textsegmenten von John O´Sullivan. Übersetzt von Chris Frey für EIKE. 

O´Sullivans Orginalbeitrag finden Sie hier

(1) Bild-Zeitung vom 20.09.07 Seite 13

Update 23.7.11 

* Wie Leser W. Erley in dankenswerter Weise hinwies wurde bereits 2 Jahre vor Nahle das Experiment von Wood von E. Look mit im Wesentlichen denselben Ergebnis und sehr ausführlich beschrieben, wiederholt. Details dazu hier.

Leser Ermecke weist mit unverständlicher Empörung darauf hin dass ….es die Autoren Gerlich/Tscheuschner waren, …die Prof. Wood und das "Woodsche Experiment" aus dunkler Vergangenheit wieder ans Licht und in die wissenschaftliche Diskussion gebracht hatten. Dies sei hiermit pflichtschuldigst nachgeholt. 

Links:

Co2sceptic (Site Admin)

 http://climaterealists.com/index.php?id=8073




Zur Radioaktivität und Strahlen– einige Fakten!

Erhellendes hat auch die Bundestagsabgeordnete und atompolitische Sprecherin der Grünen, Sylvia Kotting-Uhl, beizutragen.

In einem Interview sagte sie:

„Wir haben außerhalb der Schutzzone gemessen, weil es dort eine breite Schneise von Fukushima-Daiichi aus Richtung Nord-Westen gibt, die stark kontaminiert ist. Wir waren an einem Ort, an dem noch ungefähr zehn Prozent der Menschen leben. Es sieht aber nicht so aus, als wären die Verbliebenen schon am Packen, sondern sie verrichten ganz normal ihren Alltag. Wir haben dort elf Mikrosievert gemessen, unter einem Abflussrohr sogar 500. Wenn ein Mensch ein Jahr lang dort leben würde (unter einem Abflussrohr?), käme er auf eine Jahresdosis von 89 mSv. Das ist mehr als das Vierfache der Grenzwertdosis, der ein Arbeiter in Atomkraftwerken ausgesetzt sein darf.“

Nach ihrer Meinung beträgt der Grenzwert wohl 20 mSv.

Auf den Punkt bringt es infamerweise der Umweltminister:

„Das war eine Gelegenheit, und wir haben zugegriffen“, sagte Röttgen. (2)

Ziehen wir ein kurzes Zwischenfazit.

Frau Merkel hat neue fundamentale physikalische Erkenntnisse gewonnen. Deren Wert betrachten wir gleich.

Für den Grünen Untersteller sind Tschernobyl und Fukushima gleich, Dies beweist entweder völlige Unkenntnis oder totale Volksverdummung. Seine Parteifreundin hat revolutionäre Messungen durch- und wundersame Rechnungen ausgeführt, denn weder 11 µSv, 500 µSv noch 511/2 µSv ergibt pro Jahr 89 mSv.

Der Tod von 25.000-27.000 Opfern, primär durch den Tsunami verursacht, war für Röttgen die herbeigesehnte Gelegenheit. Man liest förmlich zwischen den Zeilen, mit ein paar Nukleartoten wäre dies noch besser gewesen.

Bevor wir uns den physikalischen Aspekten zuwenden, sei zum Anfang an eine Aussage von Paracelsus erinnert.

Nach Paracelsus ist jeder Stoff ein Gift für den Körper, es kommt nur auf die Dosis an.

Auf den folgenden Seiten bis zum Kasten auf Seite 6 werden physikalische Grundlagen betrachtet. Wer will kann diese erst einmal überspringen und sie später lesen.

Die wenigen englischen Passagen stammen aus dem Buch „Radiation and Reason“ von Prof. Wade Allison. Er lehrt seit mehr als 40 Jahren medizinische und Strahlenphysik an der Universität von Oxford in England.

Eindringtiefe und Wechselwirkung von α-Strahlung mit Materie

Ein α-Teilchen ist ein zweifach ionisiertes He-Atom, welches auf seinem Weg eine Ionisierung von anderen Atomen bewirkt. Die Reichweite ist ziemlich gering, wie der nachstehenden Tabelle entnommen werden kann, deshalb ist es leicht abzuschirmen, aber mögliche Sekundärstrahlung muss beachtet werden.

Eindringtiefe und Wechselwirkung von β-Strahlung mit Materie

Ein β-Strahler emittiert Elektronen, die bei einer Kernspaltung freigesetzt wer-den. Deren Wechselwirkung mit Materie ist kleiner als die von  α-Strahlung und folglich ist die Anzahl der erzeugten Ionenpaare pro Länge geringer und die Rechweite größer.

Eindringtiefe und Wechselwirkung von  γ-Strahlung mit Materie

Die γ-Strahlung besteht aus hochenergetischen Photonen, die durch Absorption ein oder mehrere Elektronen aus einem Atomverband lösen können (Photoeffekt). Auf Grund der Energie geschieht dies bevorzugt für die inneren Niveaus. Dieser Prozess dominiert bei relativ geringen Energien. Bei mittleren Energien überwiegt die Comptonstreuung, bei der das Photon ein Elektron entfernt und seine Richtung ändert.Bei hohen Energien (E > 1.022 MeV) tritt Paarbildung auf, bei der ein Elektron-Positronpaar gebildet wird. Hierzu ist minimal eine Energie von 1.022MeV notwendig. Die restliche Energie geht in die kinetische Energie der Teilchen ü-ber. Die Eindringtiefe ist material- und energieabhängig, wie die folgende Ta-belle der Halbwertsschichten, die Hälfte der Strahlung wird absorbiert, zeigt.

Eindringtiefe und Wechselwirkung von Neutronen mit Materie

Die Wechselwirkung von Neutronen mit Materie erfolgt entweder durch elastische und inelastische Stöße oder durch das Einfangen eines Neutrons im Kern. Beim elastischen Stoß bleibt für die Stoßpartner die Gesamtenergie erhalten. Der „ruhende“ Atomkern kann dabei aber soviel Energie erhalten, dass er den Atomverband verlässt und dabei andere Atome ionisiert. Beim inelastischen Stoß erfolgt eine Anregung des Kerns und eine Abbremsung des Neutrons. Durch Relaxation geht der Kern später wieder in den Grundzustand, wobei ein gamma-Quant ausgestrahlt wird. Die Abbremsung ist dann am größten, wenn die Stoßpartner gleiche Massen haben. Deshalb wird in den meisten AKW Wasser als Moderator verwendet. Als elektrisch neutrale Teilchen dringen Neutronen tief in Materie ein – viele Zentimeter in den typischen technischen Strukturmaterialien. Als freie Teilchen sind Neutronen allerdings aufgrund der schwachen Wechsel-wirkung nicht stabil und zerfallen in ein Proton, ein Elektron und ein Antineutrino mit einer Halbwertszeit von ca. 890 s.

Kernspaltung

Wir beschränken uns hier auf die Kernspaltung von 235U, weil dies das wichtigste Reaktormaterial ist. Bei der Kernspaltung von Uran-235 wird durch Einfan-gen eines Neutrons der Urankern zur Spaltung angeregt. Dabei entstehen im Allgemeinen zwei – seltener drei – Spaltprodukte, zwei bis drei Neutronen und Energie. Dies ist schematisch in der folgenden Graphik dargestellt.

235U hat eine natürliche Halbwertszeit von 703,8 Mio. Jahre. Es steht am Beginn der Uran-Actinium-Reihe und tritt mit einem Anteil von etwa 0,7 % in natürlichem Uranvorkommen.

Die Spaltung erfolgt, weil die Bindungsenergie für die Nukleonen in den Spalt-produkten größer als im Uran ist.

Energie wird bei dem Prozess freigesetzt, weil es einen Massendefekt gibt (Delta E=  Delta m· c2). Je größer der Massendefekt ist, desto stabiler ist der Atomkern, da mehr Energie zu seiner Zerlegung aufgewendet werden muss. Die dabei frei werdende Energie ist gegenüber chemischen Prozessen, die durch Elektronen-austausch erfolgen, um Größenordnungen höher.

Bei der Spaltung von einem Kilogramm 235U wird somit eine nutzbare (abzüglich der Neutrinos, die extremst selten eine Wechselwirkung mit Materie zeigen) Energie von rund 21 Millionen kWh freigesetzt. Dies entspricht einer Verbrennungsenergie von 2600 Tonnen kg Steinkohle (1 Steinkohleeinheit = 7000 kcal pro kg). Eine Tonne Steinkohle kostete im 4. Quartal 2010 rund 93€, was für 2600 t rund eine viertel Million ergibt. Der Preis pro kg Uran betrug ungefähr 120 $, was annähernd den Preis einer Tonne Steinkohle entspricht. Nach einer amerikanischen Studie gibt ein 1GW Kohlekraftwerk pro Jahr bis zu 5.2t Uran und 12.8t Thorium an die Umwelt ab. (3) In Ungarn zeigten Messungen in der Umgebung von KKW eine bis zu fünfmal über den natürlichen Anteil liegende Konzentration von den Radionukliden 238U, 226Rn, 232Th, 137Cs und 40K. 4 Dies übersteigt die Belastungen in der Nähe von Kernkraftwerken um ein Vielfaches, wie durch die nächste Abbildung für die Schweiz demonstriert wird.

Trotzdem demonstrieren die Grünen gegen AKW wegen der Radioaktivität aber nicht gegen KKW, obwohl sie doch generell gegen Radioaktivität sind. Die KKW werden von ihnen verteufelt wegen des Ausstoßes des lebenswichtigen CO2, aber nicht wegen der radioaktiven Materialien. Logik ist offensichtlich kein Bestandteil grüner Politik. Obwohl die Kernenergie billig und zuverlässig ist, steigt Deutschland komplett und unumkehrbar, die Welt wundert sich und die Zukunft wird darüber lachen, aus. Begründet wird dies stets mit Tschernobyl und als Anlass dient Fukushima. In Japan gab es bis heute keinen Strahlentoten und vermutlich auch keinen bedrohlich Verstrahlten.

Der letzte UN-Bericht („The Chernobyl Forum“) zu Tschernobyl stammt vom Februar 2011. In ihm steht:

„Some of the reactor staff and emergency workers received, on 26 April 1986, high doses of external gamma radiation estimated to vary from 2 to 20 Gy, and as a result 28 of them died within first four months from radiation and thermal burns, and another 19 died over the years up to 2004.”

GREENPEACE macht aus 47 Opfern 90.000 Tote.

Soviel zu deren Glaubwürdigkeit. Die Dosis und die Mortalität der in Tschernobyl eingesetzten Arbeiter sind in der folgenden Graphik abgebildet. Man beachte, dass ein nichtlinearer Zusam-menhang besteht und dass ganz klar ein Schwellwertverhalten vorliegt. Von den 140 Verstrahlten mit einer Dosis kleiner 2000 mSv starb keiner und von den 55, die eine Dosis zwischen 2.000 und 4.000 mSv erhalten haben, überlebten 54.

Wir erinnern uns an die grüne atompolitische Sprecherin, die von dramatischen 11 µSv (5 Größenordnungen kleiner!) bzw. 500 µSv unter einem Rohr berichtet. Wie sie allerdings daraus 89 mSv pro Jahr errechnet, bleibt ihr Geheimnis. Ohne Angabe, was die Strahlung verursacht (Jod hat eine Halbwertszeit von 8 Tagen, was bedeutet, dass es relativ viel Energie (Sv) in kurzer Zeit von sich gibt, während Cs mit 30 Jahren wenig über lange Zeiten emittiert), ist die Aussage Null und Nichtig.

Dies wird auch deutlich, wenn man sich die Strahlendosis für die Ukraine und Weißrussland ansieht.

Im UN-Bericht steht dazu:

„Doses that could only be estimated some time after they occurred by careful evaluation of all available information were 17mSv on average to Ukrainian evacuees, with doses to individuals ranging from 0.1 to 380mSv. The average dose to Belarusian evacuees was 31mSv, with the highest average dose in two villages being about 300mSv.”

Es sei hier erwähnt, dass die Dosen niedriger sind, als die natürliche in vielen bekannten Gebieten in der Welt (China, Indien Iran, Brasilien). In Bad Gastein (Österreich), z.B., beträgt die natürliche in der Ortsmitte 20-80 mSv. Für das Personal der Badebetriebe ist der Wert noch deutlich höher. Ob den grünen Kur- und Badegästen dies schon einmal aufgefallen ist?

Weiterhin wird festgehalten:

“Because of the generally low doses received, however, there of any measurable effect of Chernobyl radiation exposures general population except for childhood thyroid cancer, since gland were received by children in contaminated areas.”“For the 1152 thyroid cancer cases diagnosed among children in Belarus during1986–2002 and treated, the survival rate was 98.8%. Eight patients (0.7%) died due to progression of the thyroid cancer, and 6 children (0.5%) died from other causes.”

Es ist zu vermuten, dass auch diese Kinder hätten gerettet werden können, wenn erstens die Russen ihre Nachbarn informiert und diese den Betroffenen rechtzeitig Jodtabletten gegeben hätten.

Die Tabletten hätten die Inkorporation des radioaktiven Jods in die Schilddrüse verhindert. Da sie aber zu spät verabreicht wurden, bewirkten sie das Gegenteil, denn nun wurde das Ausscheiden vermindert.

Die Zahl der möglichen zukünftigen Strahlentoten durch Tschernobyl wird durch die UN auf 4.000 beziffert. Da aber in den betroffenen Gebieten (gesamte betroffene nördliche Hemisphäre) in den nächsten 70 Jahren rund 650 Millionen an natürlichen Krebs sterben werden (5) , können nur grüne Rechenkünstler diese statistisch herausfiltern.

Aber selbst diese relativ kleine Zahl von potentiellen Opfern, einer auf 162.500 (0.006‰) natürlichen Krebsopfern, könnte noch zu groß sein, wenn man die Erfahrungen, die durch Hiroshima und Nagasaki gesammelt wurden, ins Kalkül zieht.

Die folgende Tabelle zeigt die Krebstoten durch die Bombenabwürfe verglichen mit einer Bevölkerungsgruppe, die den Einwohnern der beiden Städte entspricht, aber nicht von der Strahlung betroffen wurde. Die erste Spalte gibt die Dosis wieder, die die einzelnen Gruppen der Überlebenden der Abwürfe erhalten haben. Die dritte Spalte beinhaltet die an Krebs gestorben in Hiroshima und Nagasaki, während die 4., die an Krebs gestorbenen in der nicht betroffenen Region enthält. Der gesamte Unterschied beträgt 480 oder rund 0.5% der Überlebenden von Hiroshima und Nagasaki starben infolge der Strahlung an Krebs. 6

Im vergangenen Jahrhundert waren Uhren deren Ziffern nachts leuchteten in Mode. Die Luminosität wurde hierbei durch alpha-Strahlung emittierendes Radium erzeugt. Gefährlich wurde dies für die Ziffernblattmaler deshalb, weil sie den Pinsel mit dem Mund anspitzten. Dadurch gelang das Radium in den Körper, wo es sich in den Knochen ablagerte und in dem die komplette Energie absorbiert wurde.

Untersuchungen zeigten nun, dass von den 191 Arbeitern, die mehr als 10 Gy (100Sv, D=10) im Laufe ihres Arbeitslebens akkumulierten 46 an Knochenkrebs starben. Jedoch unter den 1339 Arbeitern, die weniger als 10 Gy erhielten, gab es keinen Fall von Knochenkrebs. Ein vielleicht noch erstaunlicheres Ergebnis fand man für eine große Anzahl von Beschäftigten (174.541), die in diversen Berufen einer erhöhten Strahlendosis von 24.9 mSv im Mittel über der normalen pro Jahr, ausgesetzt waren.

Die Sterblichkeitsrate an Krebs betrug unter diesen 81-84% (!) gegenüber der vergleichbaren Bevölkerung. Also, Strahlung kann sogar gesund sein. Viele Heilbäder beruhen auf den Effekt, siehe Bad Gastein, Bad Karlsbad (Karoly Vary) etc.

Wie kann man dies verstehen? Es kommt eben immer auf die Dosis an. Strahlung an sich führt nicht zu irreparablen Schäden. Leben hat sich in einer strahlenden Umgebung entwickelt und daran angepasst. Die Natur hat Reparaturmethoden entwickelt, welche ganz effektiv sind, falls nicht kritische Schwellwerte überschritten werden und genügend Reparaturzeit zur Verfügung steht. Deshalb kann ein „Training“ durch unterkritische Bestrahlung zu einer Erhöhung des Schwellwertes führen.

So ein Mechanismus ist in der Physik wohlbekannt und firmiert dort unter den Namen optisches Härten. Dabei wird der Zerstörschwellwert von optischen Materialien gegenüber Laserstrahlung durch gezieltes, vielfaches Bestrahlen mit unterkritischer Laserstrahlung gegenüber unbehandelten Proben erhöht.

So wie der Schwellwert für optische Strahlung stark zwischen den verschiedenen Materialien variiert, gibt es in der Natur auch keinen einheitlichen Wert bezüglich der radioaktiven Strahlung. Die Dosis, bei der nach kurzzeitiger Ganzkörperbestrahlung 50% der Individuen innerhalb von 30 Tagen sterben beträgt für den Mensch 7 Sv, für den Hamster 9 Gy, für die Schnecke 200 Gy und für die Amöbe 1000 Gy. 7Selbst diese hohen Dosen sind keine Absolutwerte. In der Chemotherapie werden häufig viel höhere Dosen eingesetzt um das Leben der Patienten zu retten und nicht um sie umzubringen.

Herr W. (ich habe seinen Bericht vorliegen, möchte aber seine Anonymität wahren) erhielt z.B. vor 2 Jahren 44 Gy ins Gesicht und erfreut sich inzwischen bester Gesundheit. 44 Gy, dieser Wert ist 4 Millionen Mal höher als die von der grünen Expertin gemessene und als dramatisch empfundene Dosis von Fukushima.

Es wäre sicher hilfreicher gewesen, wenn sie statt auf Steuerkosten nach Fukushima zu jetten, man denke nur an den CO2-Ausstoß, eine Strahlenklinik in Deutschland besucht hätte.

Ziehen wir ein Fazit: Der Mensch hat kein Organ zur Wahrnehmung von radioaktiver Strahlung.

Deshalb hat er Jahrtausende furchtlos mit ihr Leben können. Nach deren Entdeckung durch die Curies, den Bau und Einsatz von Atombomben und der poli-tisch gewollten Verknüpfung von atomaren Waffen und AKW hat sich dies grundlegend geändert. Dies ist aber ein politisches und kein physikalisches Problem.

Fukushima hat keine neuen physikalischen Erkenntnisse gebracht. Es hat aber bewiesen, dass ein AKW unbeschädigt ein Erdbeben der Stärke 9 überstehen kann, obwohl es „nur“ für eine Stärke von 8.2 konzipiert war. Das Problem war der Tsunami, der zu dem Ausfall der elektrischen Versorgung führte, und die Knallgasexplosion, welche durch den Einsatz elektrischer Rekombinatoren ver-ursacht wurde. In deutschen AKW werden autarke Rekombinatoren eingesetzt.

Übrigens hat die Bundesregierung gerade eine Gefährdung der unteririschen CO2-Speicherung durch Erdbeben in Deutschland ausgeschlossen. (8)

Aber für oberirdische AKW besteht sie. Frau Merkels Logik wird wohl immer grüner. Eine Verteufelung der Radioaktivität per se ist wider die Natur. Radioaktivität gibt es überall und zwar mit einer ganz großen Bandbreite. Mehr noch, Radioaktivität kann in milden Dosen, die aber ein Vielfaches der angeblichen grünen Grenzwerte betragen, gesundheitsfördernd sein, wie Heilbäder seit Jahrhunderten bezeugen.

Aber auch in sehr hohen Dosen, wie sie in der Krebsbekämpfung verwendet werden, kann sie lebensrettend eingesetzt werden.Der unmotivierte Ausstieg aus der Kernenergie ist wissenschaftlich nicht begründbar und volkswirtschaftlich ein Desaster.

Dr. rer. nat. Bernd Hüttner für EIKE

Ergänzung: Leser Dr. Hinsch – des Japanischen mächtig schreibt uns zu den Berichten über die Strahlenopfer in Fukushima folgendes:

An alle Ungläubigen gegenüber der heutigen Öko-Staatsreligion!  

Am 24. März 2011 ging durch alle Medien ein Bericht, drei AkW-Arbeiter in Fukushima wären schwer verstrahlt worden. Aber was hatte das für Folgen? Nach meiner Kenntnis wurde das von den deutschen Medien unterschlagen. Falls es doch Berichte gibt, die mir entgangen sind, wäre ich für einen Hinweis dankbar.

Da ich aus dem Japanischen übersetzen kann, habe ich die Ereignisse von Fukushima auch anhand der Internetausgabe der "Asahi Shimbun" verfolgt, Japans zweitgrößter Tageszeitung. Da wurde folgendermaßen berichtet:

"Im Block 3 des Kernkraftwerks Fukushima 1 wurden die Arbeiten zur Wiederherstellung der Stromversorgung fortgeführt. 3 mutige Arbeiter setzten sich bei der Verlegung von Kabeln erheblichen Strahlenbelastungen aus"

Und weiter:

"Die Strahlendosen in der oberen Körperhälfte lagen im Bereich von 173 bis 180  mSv (Als Maximalwert hatte man 250 mSv festgesetzt). Bei zwei Arbeitern zeigten sich jeweils an beiden Füßen Symptome, welche auf eine Strahleneinwirkung hindeuteten. Man brachte alle drei in ein Krankenhaus der Stadt Fukushima."

Soweit die Zeitung. 2 Arbeiter waren ohne Gummistiefel in 30 cm hohem Wasser herumgewatet.

Drei Tage später, am 27. März 2011, konnte "Asahi Shimbun" berichten:

"Die 3 Arbeiter, welche mit radioaktivem Wasser in Berührung gekommen waren, werden aus dem Krankenhaus entlassen. Sie hatten Dosen von 2 – 3 Sievert abbekommen.

Das auf Strahlenmedizin spezialisierte Krankenhaus Hoiyaken gab heute bekannt: Die 3 Arbeiter, welche eingeliefert wurden, nachdem sie bei Wiederherstellungsarbeiten im Kernkraftwerk Fukushima 1 mit stark radioaktivem Wasser in Berührung gekommen waren, werden am 28. März 2011 entlassen. Ihre Körper sind gänzlich ohne medizinischen Befund. Zunächst angenommene verbrennungsähnliche Symptome, über die man sich Sorgen gemacht hatte, existieren nicht.

2 von den 3 Arbeitern waren mit ihren Füßen in radioaktivem Wasser gewesen. Die Dosis, welche ihre Füße dabei erhalten hatten, wurde so genau wie möglich ermittelt. Sie lag wahrscheinlich im Bereich von 2 bis 3 Sievert. In den Richtlinien für Arbeitssicherheit ist der obere Grenzwert bei Katastrophen auf 1 Sievert festgesetzt (Anmerkung: Für Hände und Füße); dieser Grenzwert wurde hier um das zwei- bis dreifache überschritten. Bei der Einlieferung ins Krankenhaus hatte man zunächst eine Dosis von 2 bis 6 Sievert angenommen. Durch das Herumlaufen in radioaktivem Wasser könnte auch Radioaktivität in die Körper der betreffenden Arbeiter gelangt sein. Im Krankenhaus wurde berechnet, wie viel das sein kann. Für einen merklichen Einfluss auf die Gesundheit ist es zu wenig."

Wer kann dazu etwas sagen?

Dr. Hermann Hinsch 

Quellen zum Beitrag von Dr. Hüttner:

1 http://www.bundesregierung.de/nn_1264/Content/DE/Rede/2011/06/2011-06-20-bkin-jahreskonferenz-rat-nachhaltige-entwicklung.html

2 http://www.tagesspiegel.de/politik/merkel-einsichten-die-ich-heute-teile/4306078.html

3 A Gabbard ORNL Review 26 (1993) 3 and 4

4 Papp et al. – J. of environmental radioactivity 59 (2002) 191

5 PSI Energiespiegel Nr. 13 (2005)

6 D L Preston et al. –Radiation Research 162 (2004) 377-389

7 http://www-user.tu-chemnitz.de/~mhie/Kerne_Elementarteilchen/KP_ET_10.pdf

8 Deutscher Bundestag Drucksache 17/6149

Der Beitrag kann als pdf im Anhang heruntergeladen werden

Related Files




Klimageld – Zusammenfassung für politische Entscheidungsträger

Trotz der Milliarden: „Audits“ der Wissenschaft werden unbezahlten Freiwilligen überlassen.

Eine bestimmte, aber weitgehend unkoordinierte Basisbewegung von Wissenschaftlern ist um den Globus gejettet, um die Integrität der Theorie zu prüfen und sich mit einem gut finanzierten und wohlorganisierten Klimamonopol anzulegen. Sie haben erhebliche Irrtümer bloßgestellt.

Der Kohlenstoffhandel weltweit erreichte 2008 126 Milliarden Dollar. Banken rufen nach noch mehr Kohlenstoffhandel. Und Experten erwarten, dass der Kohlenstoffmarkt noch 2 bis 10 Billionen Dollar [trillions] erreicht, was den Kohlenstoff zum größten gehandelten Einzelposten macht.*

*Siehe Bemerkung weiter unten vor dem entsprechenden Abschnitt. A. d. Übers.

Auf einem ablenkenden Nebenschauplatz wird inzwischen die Exxon-Mobil-Corp. wiederholt angegriffen, weil sie insgesamt 23 Millionen Dollar an Skeptiker gezahlt haben sollweniger als ein Tausendstel dessen, was die US-Regierung gezahlt hat, und weniger als fünf Tausendstel des Wertes des Kohlenstoffhandels allein im Jahre 2008.

Der riesige Aufwand, der bei der Suche nach einem Zusammenhang zwischen Kohlenstoff und Klima betrieben wird, erzeugt eine enorme Eigendynamik und ein mächtiges Kartell fest begründeter Interessen.

Indem wir so viel Geld in  eine Frage gepumpt haben – haben wir da nicht aus Versehen eine sich selbst erfüllende Prophezeiung geschaffen anstatt einer unvoreingenommenen Untersuchung?

Kann die Wissenschaft eine solche schraubstockartige Umklammerung von Politik und Finanzwelt überleben?

Milliarden im Namen des „Klimas“

Insgesamt wird die US-Regierung während der letzten 20 Jahre bis zum Ende des Finanzjahres 2009 32 Milliarden Dollar [1,2] für die Klimaforschung ausgegeben haben – und weitere 36 Milliarden [3,4,5] für die Entwicklung von Technologien in Bezug auf das Klima. Dies sind aktuelle Zahlen, entnommen den Berichten der Regierung und nicht inflationsbereinigt. Zuwendungen anderer Regierungen oder der globalen Industrie sind darin nicht enthalten.

1989 wurde die erste US-Agentur gegründet, die sich speziell mit dem Thema Klima befassen sollte, mit einem jährlichen Budget in Höhe von 134 Millionen Dollar. Heute hat die Finanzierung die 7000 Millionen-Dollar-Grenze pro Jahr übersprungen, also 50 mal mehr. Steuerkonzessionen kommen dabei noch hinzu (siehe Anhang 1 für Details und Quellen).

Die Ausgaben zeigen also einen sehr steilen Anstieg. Mit enormen Steuererleichterungen und Rettungsfonds, die jetzt im Spiel sind, ist es schwierig herauszufinden, um wie viel wir über der 7-Milliarden-Marke im Finanzjahr 2009 insgesamt liegen. Zum Beispiel beliefen sich die Kosten für Experimente zur Abscheidung von Kohlenstoff allein auf bis zu 3,4 Milliarden [6] im American Recovery and Reinvestment Act aus dem Jahr 2009. (Diese sind bei den 7 Milliarden noch nicht enthalten).

Der bedeutendste Punkt ist, dass nach einer Ausgabe von 30 Milliarden für reine wissenschaftliche Forschung noch niemand in der Lage ist, auch nur einen einzigen Beweis dafür vorzulegen, dass das anthropogene CO2 einen signifikanten Einfluss auf das Klima hat [7]

Falls Kohlenstoff nur ein geringer Mitspieler beim globalen Klima ist, wie es das Fehlen von Beweisen nahe legt, würden die Programme „Climate Change Science Program (CCSP)“ und das „Climate Change Technology Program(CCTP)“ sowie einige Anreize für grüne Belange und Steuererleichterungen wenige, geringe oder gar keine Grundlagen für ihre Existenz haben. Während die Vorhersage von Wetter und Klima kritisch ist und es andere gute Gründe gibt, alternative Energiequellen zu entwickeln – niemand kann behaupten, dass die Tausende Mitspieler, die diese Dollarmilliarden erhalten haben, irgendeinen realen Trieb verspüren zu „verkünden“, die Nichtsignifikanz der Rolle des Kohlenstoffs gefunden zu haben.

Ausgaben der US-Regierung von 1989 bis 2009

(Millionen Dollar)

Wissenschaft

Technologie

Hilfe für Ausland

Steuererleichterungen*

Insgesamt

32 508

36 136

  3 506

  6 919

79 069

*2003 bis 2008, ohne die Multimilliarden Dollar Finanzzuschüsse [financial recovery packages] vom Oktober 2008 und Februar 2009

 

Durch das Errichten von Handelsnetzwerken, Steuerkonzessionen und internationalen Bürokratien, bevor Beweise vorgelegt werden konnten, haben wir damit nicht sichergestellt, dass unser Verständnis von der Rolle des Kohlenstoffs in der Klimawissenschaft vorankommt, aber dass sich unser Verständnis jedes anderen Aspektes der Klimawissenschaft nicht in gleichem Maße verringert?

Die monopolistische Förderung erzeugt einen Sperrriegeleffekt, bei dem selbst über die unbedeutendsten Ergebnisse der AGW-Ergebnisse berichtet wird, und zwar wiederholt, mit Triumphgeschrei und mit absoluter Sicherheit, während jedwedes Ergebnis, das gegen AGW spricht, eine Lüge ist, von unqualifizierten Leuten stammt, ignoriert und verzögert wird. Die Begutachtung von AGW ist so unterfinanziert, dass es zum größten Teil unbezahlten Bloggern vorbehalten ist, die online Spenden von besorgten Bürgern sammeln. Diese Auditoren, oftmals Wissenschaftler im Ruhestand, stellen der Gesellschaft kostenlos einen wertvollen Service zur Verfügung, und doch werden sie im Gegenzug angegriffen, missbraucht und beleidigt.

Am Ende wird die Wahrheit herauskommen, aber wie viel Schaden wird angerichtet sein, während wir auf Freiwillige warten, um die Behauptungen der finanziell Überfütterten einer Begutachtung zu unterziehen?

Der verstohlene Masseneintritt von Bankiers und Händlern in den Hintergrund der wissenschaftlichen „Debatte“ stellen schwere Bedrohungen des wissenschaftlichen Prozesses dar.

Das „Milliarden-Dollar“-Versprechen für die Rohstoffmärkte – mit allem finanziellen Potential dafür, dass die menschlichen Emissionen von Kohlendioxid eine signifikante Rolle beim Klima spielen – kann man sicher mit einer Schlammdecke vergleichen, die über einer offenen leidenschaftslosen Analyse liegt.

All das bedeutet, dass wir große Extrasorgfalt aufwenden müssen, um uns nur auf die Beweise zu konzentrieren, die Wissenschaft, die empirischen Daten. Unlogik und Unvernunft umwölken eine Debatte, die ohnehin schon vollgeladen mit Verzerrungen ist. Wenn es so viele Anreize gibt, die Unklarheiten und Überkomplexitäten ermutigen, braucht die einfache Wahrheit viel Hilfe, um an die Spitze zu rücken. Aber wer fördert die Gegen-PR-Kampagne – wenn jetzt selbst Exxon aus dem Theater der Wissenschaft hinaus gebrüllt wurde? Es gibt kaum irgendwelche Gelder, um die natürlichen Gründe der Klimaänderungen zu erforschen, während für die Erforschung unnatürlicher Kräfte Milliarden über Billionen ausgegeben werden.

In dieser wissenschaftlichen Diskussion ist die eine Seite geknebelt, während die andere Seite über eine von der Regierung geförderte Medienkampagne verfügt.

 

30 Milliarden Dollar für eine monopolistische Wissenschaft

Ein Prozess ohne Verteidigung ist Betrug

Wirtschaft ohne Wettbewerb ist ein Monopol

Wissenschaft ohne Diskussion ist Propaganda

 

Der wissenschaftliche Prozess wurde deformiert. Eine Seite der Theorie erhielt Milliarden, während die andere Seite so ärmlich finanziert ist, dass die Überwachung dieser Forschung als Gemeinschaftsservice übrig bleibt, und zwar für Leute mit der Erfahrung von Experten, einer dicken Haut und Leidenschaft aus Passion. Eine Art von „sich eines Irrtums annehmen“.

Kann die Wissenschaft diesen Klammergriff von Politik und Großfinanz überleben?

Trotz der Milliarden schweren Dollarunterstützung wurden himmelschreiende Fehler gemacht. Besonders einer der Heuler [howler] schrieb die Geschichte um und kam damit jahrelang durch, bis ein engagierter, ohne Bezahlung arbeitender Untersucher den Betrug um den Hockeyschläger aufgedeckt hatte. Mittlerweile sind Agenturen wie das Goddard Institute of Space Studies GISS nicht in der Lage, Temperaturfühler zu installieren, die ihren eigenen Vorschriften genügen, weil die Arbeiter kaum ausgebildet und lediglich mit Gartenschippen und Spaten ausgerüstet sind. NOAA „adjustiert“ die Daten nach der Messung – offensichtlich, um die [Werte der] Sensoren zu kompensieren, die zu dicht an den Austrittsöffnungen von Lüftungsanlagen oder Parkplätzen liegen, und doch erhebt sich die Frage: Wenn das Klima das größte Problem ist, dem wir derzeit gegenüber stehen; und falls die Milliarden von Dollar gebraucht werden, warum können wir die Thermometer nicht ordnungsgemäß installieren?

Wie ernst ist es ihnen, ordentliche Daten zu erhalten? Oder sind sie nur darauf aus, die „richtigen“ Daten zu bekommen?

Die Gesamtzahl von Interessengruppen in der Klimawissenschaft ist viel größer als nur die Wissenschaftler, die echte Forschung betreiben. In der Unterstützung in Höhe von 30 Milliarden Dollar (Abbildung oben) für die CCSP sind noch nicht Arbeiten für grüne Technologien wie Verbesserung von Solarzellen oder das Verpressen eines harmlosen Gases in den Untergrund enthalten. Die Zuwendungen für Klimatechnologien liegen buchstäblich doppelt so hoch wie die involvierten Gelder und füttern einen viel größeren Pool von ehrbar aussehenden Leuten mit einem eindrucksvollen wissenschaftlichen Gehabe, die noch mehr Presseverlautbarungen ausgeben – wovon die meisten wenig mit grundlegender atmosphärischer Physik zu tun haben, sondern immer nur die Hypothese wiederholen, dass sich das Klima wegen der menschlichen Emissionen erwärmen wird. Mit anderen Worten: eine 30 Milliarden Dollar teure Jubeleinheit.

Eine große Menge einseitiger Forschung sorgt nicht für eine faire Diskussion

Die von der Regierung bezahlten Wissenschaftler müssen nicht unehrlich gegenüber der Wissenschaft sein, um verzerrte Ergebnisse zu liefern. Sie müssen einfach nur ihre Arbeit machen. Wenn wir 100 Leute beauftragen, nach Eidechsen im Dschungel zu suchen, würde es da jemanden überraschen, wenn er einen Elefanten auf der Ebene sieht? Wenige Leute werden bezahlt oder belohnt, um das IPCC oder damit verbundene Organisationen zu überwachen. Wo befindet sich die Abteilung für solare Einflüsse oder das Institut für natürliche Klimaänderungen?

Tausende Wissenschaftler erhielten Zuwendungen, um eine Verbindung zu finden zwischen menschlichen Kohlenstoffemissionen und dem Klima. Kaum jemand wurde dafür bezahlt, das Gegenteil zu finden. Man wende 30 Milliarden Dollar zur Beantwortung einer Frage auf, wie kann es dann sein, das brilliante, überzeugte Leute 800 Seiten von Verbindungen, Links, Vorhersagen, Projektionen und Szenarien nicht finden konnten? (Wobei wirklich erstaunlich ist, was sie noch nicht gefunden haben: empirische Beweise!)

Und Wissenschaftler sind menschlich, sie haben Hypotheken und Kinder. Falls das Geld von Exxon irgendeine Anziehungskraft hat, muss das Geld von der Regierung auch „ziehen“.

Ich kann es nicht besser ausdrücken als Al Gore in einem Film Eine unbequeme Wahrheit:

Es ist schwierig, einen Menschen dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängt, dass er es nicht versteht. – Upton Sinclair, 1935

Ironischerweise war es Al Gore selbst, der sicher stellte, dass das US Global Change Research Program (USGCRP) von 1993 bis 2000 so umfangreich gefördert worden ist. Wir haben Milliarden dafür aufgewendet, herausragende Gehirne auf einen Blickwinkel, ein Thema, einen Grund zu konzentrieren. Das ist eine Menge Holz!

 

Milliarden für „das Klima“, aber die Überwachung wird unbezahlten Freiwilligen überlassen

Die besten Beispiele für unbezahlte Begutachtungen sind die Arbeiten von unabhängigen Wissenschaftlern wie Steve McIntyre [8] und Anthony Watts. Hier haben wir die ironische Situation, in der erfahrene Arbeiter einen kostenlosen Beratungsservice zur Verfügung stellen, um der größten Einzelinstanz des Planeten zu „assistieren“.

Steve McIntyre hatte eine mathematische Ausbildung und arbeitete 30 Jahre lang in der Erkundung von Mineralien [9] (und hat niemals trotz gegenteiliger Behauptungen für die Ölindustrie gearbeitet). Hier folgt die Hockeyschlägerkurve aus dem Zustandsbericht des IPCC 2001:

Die in die Irre führende „Hockeyschläger“- kurve

McIntyre kam die Hockeyschlägerkurve verdächtig vor, weil sie ihn an einen Bre-X–Schwindel [?] erinnerte. Er ist im Ruhestand und arbeitete mit großem eigenen personellen Aufwand ohne jede Bezahlung [10].

McIntyre fand empörende Fehler [11] in der Hockeyschlägerkurve, einer Kurve, die jahrhundertelange historische Aufzeichnungen, archäologische Tatsachenbefunde und Daten von fast allen anderen Quellen außer unzuverlässigen „Baumringen“ einfach auslöschte. (Baumringe werden auch durch die Regenmenge und das Angebot an Nährstoffen beeinflusst). McIntyre fand, dass der von Michael Mann erzeugte und wiederholt im IPCC-Bericht 2001 zitierte Graph so schlecht konstruiert war, dass es möglich war, beliebige Daten als „Rauschen einzugeben und immer wieder ein Hockeyschläger herauskam. Eine wirkliche wissenschaftliche Begutachtung hätte darauf hinweisen müssen! Statt dessen stand der Graph drei oder vier Jahre lang im Mittelpunkt, bis ein entschlossenes skeptisches Individuum die Daten in Frage stellte (welche erst unangebracht, dann ungenau, dann inkonsistent waren) und die Statistiken genau unter die Lupe nahm.

McIntyre und Ross McKitrick fuhren fort, wissenschaftlich begutachtete Studien zu veröffentlichen [12, 13, 14]. Wegman und andere unabhängige Statistikexperten unterstützten McIntyre und McKitrick [15]. Craig Loehl untersuchte den gleichen Zeitraum mit anderen Proxies als Baumringen, und die Tatsache der Mittelalterlichen Warmzeit und der Kleinen Eiszeit stachen wieder heraus [16].

Die Kombination von 18 Reihen nicht aus Baumringen stammender Daten der letzten 2000 Jahre zeigt eindeutig die Mittelalterliche Warmzeit und die Kleine Eiszeit und demonstriert offenkundig, wie sehr der „Hockeyschläger“ in die Irre führt.

Ganz ähnlich hat Anthony Watts, ein ehemaliger Fernsehmeteorologe, eine Gruppe von 650 Freiwilligen rekrutiert, die mehr als 800 Temperatursensoren des United States Historical Climatological Network (USHCN) [18] fotografieren und beschreiben sollten – was eigentlich Aufgabe der NOAA [National Oceanic and Atmospheric Administration, die US-amerikanische Wetterbehörde] selbst wäre. Obwohl sie rund 4 Milliarden Dollar pro Jahr an Zuwendungen erhalten hatte, unternimmt die NOAA keine umfassenden Untersuchungen der Aufstellungsorte, um sicherzustellen, dass die Sensoren den erforderlichen Standards genügen.

Die Mehrzahl der Temperaturfühler der NOAA liegt neben Abluftschächten, Parkplätzen, Gebäuden und anderen künstlichen Wärmequellen.

Das sind keine kleinen Abweichungen der Messpunkte, die Anthonys Team von Freiwilligen fotografiert hat. Stationen für die Aufzeichnungen stehen neben Abluftschächten (Abbildung 5), über Asphalt von Parkplätzen, auf kochend heißen Dachspitzen aus Beton und neben geheizten Gebäuden.

Die Untersucher fanden, dass 89% aller bisher untersuchten Stationen nicht die vom Nationalen Wetterbüro selbst aufgestellten Standards erfüllten. [20]

Erneut sind die Mängel systematisch. Da als Sensor anstelle der Thermometer heute elektronische Messfühler die Daten anzeigen, wurden sie durch Leute installiert, die lediglich mit Kreuzhacken und Schaufeln ausgerüstet waren. Wurden frühere Sensoren im Freien über Gras und weit entfernt von einem Parkplatz errichtet, sind die neuen Messfühler elektronischer Natur, d. h. sie benötigen Stromversorgung aus Gebäuden. So war es keine Überraschung, dass sie an weniger idealen Stellen viel dichter am Gebäude aufgestellt wurden. Wer würde sich schon per Hand nur mit einem Spaten bewaffnet durch einen asphaltierten Parkplatz wühlen, um Platz für das Kabel zu schaffen?

Das Team bei der NOAA zieht es vor, „mathematische Anpassungen“ vorzunehmen, um die Nachteile der Lokalität und den „urbanen Wärmeinseleffekt“ auszugleichen. Wenn sie wirklich daran interessiert wären, die Daten korrekt zu ermitteln, hätten sie dann nicht einfach alle Stationen ausschließen sollen, die an nicht geeigneten Plätzen stehen, bis zu der Zeit, an der diese Ausgleichswerte ordnungsgemäß ermittelt sind? Hätten sie nicht für einen Gräben ziehenden Bagger zahlen sollen?

Das monopolistische Zuwendungs-„Raster“

Es muss sich nicht unbedingt um eine Verschwörung handeln. Es bedarf nicht irgendeines zentral gesteuerten Betrugs oder verdeckter Instruktionen. Stattdessen ist es das Fehlen von Zuwendungen an Alternativen, das ein Vakuum hinterlässt und systematisches Scheitern erzeugt. Die Kraft monopolistischer Förderung wirkt wie ein Rastersystem auf die Wissenschaft. Die Ergebnisse können in beide Richtungen weisen, aber die Förderung bedeutet, dass nur Ergebnisse von einer Seite der Gleichung „Zugkraft“ entfalten.

Gedanken, die die Rolle des Kohlenstoffs beim Klima in Frage stellen, werden mit einem feinen Kamm durch große Teams bezahlter Forscher durchgekämmt. Werden echte Irrtümer gefunden, werden sie laut und wiederholt verkündet; und falls es sich um irrelevante oder imaginäre Irrtümer handelt, werden diese auch verkündet, manchmal sogar mit noch mehr Lärm. Aber Gedanken, die die Rolle des Kohlenstoffs beim Klima stützen, sind Gegen­stand einer ganz anderen Art der Analyse. Die im AGW-Team schauen nach, ob sie die Rolle des Einflusses von Kohlenstoff unterschätzt haben, oder befinden sich in einem so offensichtlichen Irrtum, dass es „das Team“ in eine peinliche Lage bringt. Da es nur eine kleine Anzahl von Forschern gibt, die die natürlichen Gründe untersuchen, oder Leute, die von der Verteidigung nicht kohlenstoffbasierter Gründe  profitieren, gibt es niemanden, der a priori motiviert ist, intensiv nach nicht so offensichtlichen Fehlern zu suchen. Daher können die pro-AGW-Gedanken nur kurz eingehender untersucht werden sowie durch unbezahlte Ruheständler, auf Spenden angewiesene Blogger oder bei der Regierung angestellten Wissenschaftlern, die in anderen Bereichen arbeiten – wie z. B. Geologen, die allen Grund haben, skeptisch zu sein, die aber nicht notwendigerweise in, sagen wir, atmosphärischer Physik geübt sind.

Normalerweise ist das kein großes Problem, weil die Verlockung von Ruhm und Glück durch das kategorische Zersprengen eines weithin akzeptierten Gedankens für einige Leute attraktiv ist. In den meisten Bereichen der Wissenschaft werden diejenigen, die eine große Studie in Nature oder Science zerpflücken, plötzlich öfter zitiert; sind die Nächsten in der Reihe der Promotion und haben es leichter, Zuwendungen zu erhalten. Sie motivieren PhD-Studenten, ihnen zu helfen, werden eingeladen, auf mehr Tagungen zu sprechen und in der Programmfolge weiter nach oben gehievt. In der Klimawissenschaft dagegen besteht die Belohnung in persönlichen Angriffen auf Sites wie Desmog [21], ExxonSecrets [22] oder Sourcewatch [23]. Diese Sites wurden geschaffen, um jeden einzelnen Fehler zu jedem Thema aufzulisten, das sie bearbeitet haben, um  Verbindungen anzuzeigen, die sie vielleicht mit der Industrie fossiler Energie gehabt haben könnten, wobei es keinen Unterschied macht, vor wie langer Zeit die jeweilige Arbeit erschienen ist, oder wie prekär. Diese Kampfhunde-Sites greifen auch Ihre religiösen Überzeugungen an, sofern Sie welche haben. Roy Spencer beispielsweise wurde wiederholt angegriffen, weil er Christ ist (allerdings hat bisher niemand einen Grund dafür genannt, warum das seine Satellitendaten beeinflussen könnte).

Ironischerweise werden die „aktivistischen“ Websites von bezahlten Bloggern betrieben. DeSmog ist ein bezahlter Ableger einer professionellen PR-Gruppe Hoggan und Associates [24] (welche bezahlt werden, um Kunden wie die David Suzuki Foundation, ethische Gruppen sowie Kompanien, die alternative Energiequellen wie Wasserkraft, Wasserstoff und Brennstoffzellen verkaufen, zu fördern) [25]. ExxonSecrets wird durch Greenpeace unterstützt [26] (die von Spenden leben, um den Planet zu „retten“ und die vermutlich besser dran wären, wenn der Planet wirklich Rettung brauchen würde).

In den meisten wissenschaftlichen Bereichen sucht man nach Antworten und versucht nicht, nur eine Seite einer Hypothese zu beweisen. Es gibt einige wenige Forscher, die bezahlt werden, um die Hypothese der globalen Erwärmung zu widerlegen, und die meisten davon werden einer Untersuchung unterzogen und an den Pranger gestellt, als ob sie sich wie ein Politiker auf offizielle Ämter bewerben. So funktioniert Wissenschaft nicht, durch persönliche Angriffe!

Die Einschüchterung, Respektlosigkeit und die Ausgrenzung und Ächtung, denen Menschen ausgesetzt sind, die renitente Fragen stellen, gleicht einem Akt der Zensur. Nicht viele Bereiche der Wissenschaft haben Wissenschaftlern schmierige Sites gewidmet. Geld zählt!

Der angesehene MIT-Klimatologe Richard Lindzen [MIT = Massachusetts Institute for Technology. A. d. Übers.] hat sich gegen den Druck ausgesprochen, mit den Wölfen zu heulen, und beklagt sich über den Verlust großer Forscher:

Leider ist dies nur die Spitze eines niemals schmelzenden Eisbergs. In Europa wurde Henk Tennekes als Forschungsdirektor der Royal Dutch Meteorological Society abgelöst, nachdem er die wissenschaftlichen Belege für die globale Erwärmung in Frage gestellt hatte. Aksel Winn-Nielsen, der frühere Direktor der Weltorganisation für Meteorologie (WMO) bei den UN wurde von Bert Brolin, erster Leiter des IPCC, als ein Werkzeug der Kohleindustrie gebrandmarkt, nur weil er den Klimaalarmismus in Frage gestellt hatte. Die angesehenen italienischen Professoren Alfonso Sutera und Antonio Speranza verschwanden 1991 aus der Diskussion, offensichtlich weil man ihnen die Förderungen strich, weil sie Fragen gestellt hatten.

Die Kombination von fehlender finanzieller Unterstützung plus eine garantierte voreingenommene Prüfung sowie Drohungen mit dem Verlust des Arbeitsplatzes würde ausreichen, um viele zu entmutigen, die sich der umstrittenen Seite des Feldes annehmen oder ihre Meinung frei aussprechen, wenn sie den „Glauben“ in Frage stellen.

Schließlich fehlt es den Freiwilligen und isolierten Forschern an Infrastruktur. Obwohl die Theorie des Main Stream einigen Verifikationen unterzogen wird, stehen den meisten Wissenschaftlern, die Fehler finden, keine bezahlten Teams von PR-Experten zur Verfügung, um zahlreiche Presseerklärungen zu veröffentlichen, oder die Stunden und Monate aufzuwenden, die erforderlich sind, um Studien in Magazinen zu veröffentlichen. Das heißt, wenn ein Fehler gefunden wird, würden das nur wenige außerhalb der Industrie mitbekommen.

Die monopolistische Fördermaschine stellt sicher, dass selbst unwichtige oder falsche Analysen von Faktoren, die das Klima antreiben, länger unterstützt werden können als sie sollten, während die wirklichen Probleme  klein geredet, ignoriert und verzögert werden.

In einem so neuen Bereich wie der Klimawissenschaft können sich viele Dinge im Laufe von zehn Jahren ändern. Der Fortschritt zum Verständnis des planetarischen Klimas hat sich auf Schneckentempo verlangsamt.

Welche Motivation steckt dahinter zu beweisen, dass AGW falsch ist?

Wie viele Experten würden ihren Weg verlassen, um ihre eigene Expertise und Erfahrung weniger bedeutsam zu machen? Vor dem Hintergrund, dass die Förderung von dem Beweis abhängt, dass Kohlenstoff das Klima kontrolliert und damit die Klimawissenschaft selbst von entscheidender Bedeutung ist, ist es ein Kreislauf sich selbst sanktionierender Interessengruppen. Ja, schlaue Klimawissenschaftler können in anderen Bereichen beschäftigt werden. Aber wenn den Wählern plötzlich klar wird, dass Kohlenstoffemissionen nur eine geringe Rolle spielen und die Menschen nur einen kleinen Einfluss haben, würden Tausende Menschen bzgl. ihrer Arbeit etwas zu ändern haben, und Änderung ist schmerzhaft. In keiner Industrie ist es möglich, damit zu argumentieren, dass die Spezialisten es vorziehen würden, die halbe Förderung und den halben Status zu haben. Die meisten von ihnen würden auch bei der nächsten Gehaltserhöhung leer ausgehen, könnten ihre Arbeit verlieren oder zumindest Einiges von ihrer Kaufkraft. Sie bekommen nicht die verbesserte Ausrüstung, die sie sich wünschen, oder sie verlieren an Statur, weil, nun, Klimatologie „wichtig“ ist, aber da wir nicht das Wetter ändern können, laden wir ausgewiesene Experten nicht in unsere Komitees ein oder zu genauso vielen Konferenzen.

Man kann getrost davon ausgehen, dass die meisten Wissenschaftler ehrlich sind und hart arbeiten, aber selbst dann, wer würde sich darüber lustig machen, dass sie genauso viel Zeit und Mühe dafür aufwenden würden, AGW zu widerlegen, wie aufgewendet wird, AGW zu beweisen? Wenn ihre Reputation und ihre Förderung auf dem Spiel stehen, schwitzen und schaffen sie bis spät in die Nacht, um herauszufinden, warum sie recht haben und die anderen unrecht. Wettbewerb bringt auf beiden Seiten die Besten hervor.

Einige behaupten, dass sie dem wissenschaftlichen Prozess als solchen vertrauen, und dass sich die richtigen Antworten mit der Zeit herausstellen – was vermutlich stimmt. Aber wie John Maynard Keynes in seinem berühmten Ausspruch sagte: „Langfristig müssen wir alle sterben“. Es gibt bessere Wege, als auf das Nachleben zu warten. Verspätete Wissenschaft ist abgelehnte Wissenschaft.

Verlangsamung der Wissenschaft ist endlos fortgesetzte Propaganda [Science slowed is propaganda perpetuated].

 

Das „Wer-ist-schuld“-Spiel von Exxon ist ein ablenkender Nebenschauplatz

Viel Aufmerksamkeit in den Medien wurde schonungslos auf den Einfluss von „Big Oil“ konzentriert – aber die Zahlen rechnen sich nicht. Exxon Mobile wird nach wie vor verunglimpft [28], weil es angeblich über einen Zeitraum von etwa zehn Jahren um die 23 Millionen Dollar an Skeptiker des verstärkten Treibhauseffektes gezahlt haben soll. Das sind etwa 2 Millionen pro Jahr, verglichen mit den Ausgaben der US-Regierung in Höhe von etwa 2 Milliarden Dollar pro Jahr. Die gesamte von Exxon zur Verfügung gestellte Förderung beläuft sich auf weniger als ein Fünftausendstel des Wertes des Kohlenstoffhandels im Jahr 2008 allein.

Offensichtlich hat Exxon mit kaum 0,8% dessen, was die US-Regierung in jedem Jahr in die Klimaindustrie pumpt, die „Debatte sehr stark verzerrt“. (Falls das so sein sollte, ist es ein weiterer vernichtender Beweis dafür, wie effektiv die Förderung durch die Regierung wirklich ist).

Ein Beispiel zum Vergleich: Fast dreimal so viel wie das, was Exxon ins Spiel gebracht hatte, wurde in das Projekt zur Abscheidung von Kohlenstoff gesteckt [Big Sky Sequestration Project] [29], um gerade mal 0,1% des jährlich in den USA anfallenden Kohlendioxids in ein Loch im Boden zu pressen. Die australische Regierung ist der Förderung durch Exxon mit gerade mal einer Wohlfühlkampagne begegnet unter dem Motto „Denk ans Klima! Denk an die Änderung! [Think Climate! Think Change], (aber mach dir keine Gedanken über die Details)!

Hätte sich Exxon die gnadenlosen Angriffe vielleicht erspart, wenn es Geld sowohl pro als auch kontra AGW ausgegeben hätte?  Vermutlich nicht, denn es hat mehr als viermal so viel ausgegeben für das Global Climate and Energy Project (GCEP) in Stanford [32, 33]. Das schwere Verbrechen von Exxon besteht offenbar darin, den Skeptikern überhaupt zu irgendeiner Stimme zu verhelfen. Die Zensur muss vollständig bleiben.

Die Gifterei gegen Exxon kam von 2005 bis 2008 auf Hochtouren. Umweltgruppen drängten auf einen Boykott von Exxon wegen deren Ansichten zur globalen Erwärmung [34]. Die Firma wurde als ein Feind des Planeten abgestempelt [35]. James Hansen machte sich dafür stark, die Vorstandsmitglieder fossiler Energiefirmen wegen schwerer Verbrechen gegen die Menschlichkeit und gegen die Natur anzuklagen. Im nächsten Atemzug nannte er Exxon.

Selbst die Royal Society, die eigentlich für Wissenschaftler offen sein und auch für einwandfreie Standards der Logik stehen sollte, stimmte in den Chor gegen Exxon mit ein und bat die Firma inständig, sich bei ihren Äußerungen zu mäßigen [to censor its speech] [37]. Der beispiellose Brief dieser 350 Jahre alten Institution listete vielfältige Appelle an die Behörden, nannte aber keinen einzigen empirischen Beweis, der die Behauptung, dass der Zusammenhang zwischen Kohlenstoff und Temperatur jenseits aller Diskussionen und Zweifel sei, gestützt hätte. Die Royal Society behauptet von sich, dass sie Wissenschaftler unterstützt, aber wenn sie sich auf die trügerischen Aussagen der Behörden verlässt, wie kann sie dann jemals die ‚Whistle blowers’ unterstützen, die definitionsgemäß die „Autoritäten“ in Frage stellen?

Während Exxon wiederholt dafür angegriffen wurde, diese unbedeutende Menge an Geld aufgewendet zu haben, gibt es nur wenige, die jemals die Zuwendungen pro AGW aufgelistet haben. Wo sind die Fragen stellenden Journalisten? Geld, das vom Steuerzahler kommt, ist irgendwie Ansporn, während jedwedes Geld von Big Oil in einem freien Markt der Ideen automatisch ein „Verbrechen“ ist. Die Ironie liegt darin, dass das Geld des Steuerzahlers sofort gewaltsam abgeschöpft wird*, während Exxon das Geld durch Tausende freiwilliger Transaktionen verdienen muss.

*Das ist keine Übertreibung! Versuchen Sie mal, „keine Steuern zu zahlen“! Anm. im Original!

Diejenigen, die Exxon wegen deren 2 Millionen Dollar pro Jahr angreifen, ziehen die Aufmerksamkeit ungewollt von den wirklichen Machtspielchen ab und agieren als unbezahlte PR-Agenten für riesige Handelshäuser und große Banken, die es durchaus aushalten mit etwas Unbequemlichkeit durch Grüne [greenies] und Umweltaktivisten. An anderen Tagen werfen einige dieser Gruppen Steine auf die Bankiers.

Der Nebenschauplatz der Schuldzuweisung an Big Oil verschleiert die Wahrheit: Dass es nämlich wirklich nur darum geht, ob es irgendeinen Beweis gibt, und dass die Skeptiker eine Basisbewegung sind mit sehr angesehenen Wissenschaftlern und einer wachsenden Zahl unbezahlter Freiwilliger.

Noch größeres Geld kommt ins Spiel

Vorbemerkung des Übersetzers zu diesem Abschnitt: Der ganze Aufsatz datiert vom Juli 2009 und bezieht sich auf die USA. Damals war dort  der Traum vom großen Geld durch den Kohlenstoffhandel noch nicht ausgeträumt. Der folgende Abschnitt ist in dieser Hinsicht also überholt. Jedoch erscheint es sehr interessant, welche Träume selbst gestandene „Fachleute“ damals hatten und was davon übrig geblieben ist – vor dem Hintergrund, dass der Kohlenstoffhandel in den USA inzwischen nicht mehr existiert.

Finanzielle Rettungsaktionen und Steuernachlässe schlucken, was übrig ist.

Neue Provisionen der Förderung seit der Finanzkrise vom September 2008 sind in der obigen Tabelle nicht enthalten. Es ist schwierig, die Angaben strikt nach Finanzjahren zu trennen – und doch sind die Zahlen gigantisch und erreichen auf dem Graphen der Förderung potentiell die Skala sprengende Dimensionen.

Die Gesetzgebung zur finanziellen Erholung, die Präsident Bush am 3. Oktober 2008 unterzeichnet hatte [38] schloss das Gesetz zur Steigerung der Energieeffizienz und –ausweitung aus dem Jahr 2008 mit ein [39], in welchem etwa 17 Milliarden Dollar Steuergelder [40] für saubere Energien enthalten waren.

Dann, im Februar 2009, kam das 787 Milliarden Dollar teure Gesetz zur amerikanischen Erholung und Reinvestitionen [41], in dem um 110 Milliarden teure Investitionen [42] in saubere Energie enthalten sind. Viele dieser Investitionen trotzen einer einfachen Katalogisierung. Zum Beispiel ist die Forschung zu den alternativen Energien wertvoll, unabhängig davon, ob Kohlendioxid ein Problem ist oder nicht – obwohl es nicht so dringend ist. Aber Ausgaben in Höhe von 3,4 Milliarden Dollar zur Abscheidung von Kohlenstoff haben keine anderen Ziele oder Nutzen. Sie hängen zu 100% von der Hypothese ab, dass Kohlendioxid ein gefährlicher Luftverschmutzer ist.

Größer als die Große Regierung – Große Banken

Obwohl die Regierung während der letzten 20 Jahre etwa 70 Milliarden Dollar an Einfluss aufgewendet hat, verblasst diese Zahl im Vergleich mit der rasant wachsenden Kraft des Kohlenstoffhandels. Der Weltbank zufolge verdoppelte sich der Umsatz von 63 Milliarden im Jahre 2007 auf 126 Milliarden im Jahre 2008* [43].

Es ist keine Überraschung, dass die Banken das tun, was sie tun sollten: sie folgen dem Versprechen von Profiten und drängen daher die Regierungen, den Kohlenstoffhandel zu übernehmen [44, 45]. Obwohl sich Banken als gute und kooperierungswillige Mitbürger gerieren, finden sie den Gedanken einer nicht handelbaren Kohlenstoffsteuer als nicht ansprechend. Es könnte „dem Planeten helfen“, würde aber nicht ihren Bilanzen helfen.

Das Potential, das in einer völlig neuen verordneten Währung steckt, treibt Banken und Finanzinstitute „total unter eine Decke“ mit einer wissenschaftlichen Theorie [46].

Der 10-Billionen-Dollar-Gorilla in der Küche

Kommissionsmitglied Bart Chilton, Leiter des Beratungsgremiums für die Energie- und Umweltmärkte des Commodity Futures Trading Commission (CFTC), hat prognostiziert, dass der Kohlenstoffmarkt innerhalb der nächsten fünf Jahre jeden Markt marginalisieren wird, den seine Agentur derzeit reguliert: „Ich kann im Kohlenstoffhandel einen 2 Billionen-Dollar-Markt erkennen“ [47]. „Der größte Rohstoffmarkt der Welt“ [48]

Chilton entwirft folgende Perspektive: „Er würde nicht so groß sein wie einige der Finanzmärkte, aber er wäre größer als jeder echte Rohstoffmarkt“ [49].

Der in London ansässige Investitionsberater New Carbon Finance, der den Markt verfolgt, prognostiziert, dass der Kohlenstoffmarkt bis 2020 3 Billionen Dollar erreichen wird [50].

Richard L. Sandor, Vorsitzender und geschäftsführender Direktor von Climate Exchange Plc, dem die größte Kohlendioxidhandelsbörse gehört, sieht sogar einen noch größeren Markt:

„Wir werden einen weltweiten Markt bekommen, und Kohlenstoff wird eindeutig die größte nicht-kommerzielle Handelsware der Welt sein“. Er prognostiziert ein Handelsvolumen von insgesamt 10 Billionen Dollar pro Jahr [51].

Mit anderen Worten, der Kohlenstoffhandel wird größer als Öl, und selbst die Aussicht auf einen so massiven und lukrativen Markt repräsentiert ein wesentliches Interesse.

Wie Bart Chilton sagt: „Diese Angelegenheit ist so wichtig für unsere Wirtschaft und unsere Welt, dass wir es von Anfang an richtig anstellen müssen“.

Das „von Anfang an“ beginnt mit der Wissenschaft. Sollte es keinen Beweis dafür geben, dass wir [den Ausstoß von] Kohlenstoff einschränken müssen, gibt es keine Notwendigkeit, damit zu handeln.

 

Es steht und fällt mit dem Beweis

Selbst wenn die monopolistische Förderung die Wissenschaft beeinflusst wurde, sagt uns die Gesamtsumme Geldes, die an jede Seite gezahlt wurde, nichts darüber aus, ob sich das Klima der Erde wirklich erwärmt oder ob diese Erwärmung wegen des Kohlendioxids erfolgt.

Diese Studie möchte zum Ausdruck bringen, dass der wissenschaftliche Prozess (wie jedes menschliche Unternehmen) durch eine massiv einseitige Förderung durch Geld verzerrt werden kann.

Welchen Nutzen sollte das Geld haben, wenn es keinen Einfluss hätte?

Die Gefahr der Verzerrung im wissenschaftlichen Prozess bedeutet, dass wir uns strikt auf die Frage des Beweises konzentrieren müssen. Diese Studie ruft nach mehr Aufmerksamkeit, die man empirischen Beweisen zukommen lassen muss, und danach, Wege zu suchen, die Wissenschaft so zu motivieren, dass sie uns hilft zu entdecken, wie die Welt funktioniert, und zwar auf die bestmögliche und effizienteste Art und Weise.

Falls sich George Bush unwohl dabei gefühlt hatte zu unterschreiben, dass sich die USA an globalen Plänen zur Reduzierung von Kohlenstoffemissionen beteiligen würden, bestand sein vermutlich größter Fehler darin, nicht ein Institut zur Natürlichen Klimaänderung gegründet zu haben, das nach Beweisen für den Einfluss natürlicher Kräfte suchen sollte, und das die wissenschaftlichen Ergebnisse des IPCC sowie von Institutionen wie NOAA und NASA begutachten sollte.

Es fällt schwer sich vorzustellen, dass wir so viel Geld ausgeben, eine Hypothese zu untersuchen und kein Ergebnis erzielen. Monopolistische Förderung testet die Art und Weise, wie wir die Wissenschaft betreiben.

Es wird Zeit, ernsthaft die Wissenschaft zu begutachten, vor allem dann, wenn es um eine Wissenschaft geht, die riesige Regierungsprogramme und riesige Märkte rechtfertigen soll. Wer begutachtet das IPCC?

Alle Hervorhebungen, außer denen in eckigen Klammern, im Original!

Anhang

 

Autorin Joanne Nova

 

 

 Übersetzt von Chris Frey für EIKE 




Windkraft schädigt Tourismus auf Sylt. Interview mit Fürst Hohenlohe Präsident des Bundesverbandes Landschaftschutz

Aus der Reihe Strandgespräche: Fürst Hohenlohe Präsident des Bundesverbandes Landschaftsschutz im Gespräch mit Wolfgang Müller Ende März 2011. Den falschen Untertitel bitten wir zu entschuldigen.

Alle Videos von EIKE finden Sie hier




Wissenschaftlich erneut bestätigt: “Kein globaler Temperaturanstieg zwischen 1998 und 2008!

Die Studie von Kaufmann et al. aus dem Jahr 2011 (Beachte: Michael L. Mann ist Mitautor, aber nicht identisch mit jenem Michael E. Mann, der durch den Hockeyschläger berühmt wurde) wurde zunächst zurückgehalten, aber dank Dr. Benny Peiser haben wir hier eine Kopie.

Die PDF-Datei kann hier angeklickt werden: pnas.201102467

Auszug aus der Übersicht:

Vor dem Hintergrund des weithin bekannten Erwärmungseffektes wegen des zunehmenden Ausstoßes von Treibhausgasen war es unklar, warum die globale Temperatur zwischen 1998 und 2008 nicht gestiegen ist.

Und in der Schlussfolgerung:

Das Ergebnis, dass die jüngste Pause bei der Erwärmung hauptsächlich durch natürliche Faktoren ausgelöst worden ist, stellt keinen Widerspruch zur Hypothese dar: „Zum größten Teil ist die beobachtete Zunahme der globalen Mitteltemperatur seit Mitte des 20. Jahrhunderts sehr wahrscheinlich eine Folge der beobachteten zunehmenden Konzentrationen anthropogener Treibhausgase“ [14]

Von der GWPF:

Kommentar von Dr. David Whitehouse zur PNAS-Studie von Kaufmann et al.

Anthropogene Klimaänderung in Einklang bringen mit der beobachteten Temperatur von 1998 bis 2008

Es ist eine gute Nachricht, dass die Autoren erkannt haben, dass es seit 1998 keine globale Zunahme der Temperatur mehr gegeben hat. Obwohl diese Tatsache wieder und immer wieder in wissenschaftlich begutachteten Studien angesprochen wird, leugnen viele Kommentatoren diese Realität immer noch. Wir leben im wärmsten Jahrzehnt, seit vor 150 Jahren Aufzeichnungen mit Thermometern begannen, aber mindestens ein Jahrzehnt lang ist es nicht wärmer geworden.

Die Forscher haben ein veraltetes Computermodell optimiert und sich aus den Simulationen die Rosinen herausgepickt, die das gewünschte Ergebnis zeigen.  Die jüngsten Daten des Einflusses der Sonne auf die Erde haben sie nicht mit einbezogen, was ihre Ergebnisse lediglich von akademischem Interesse sein lässt.

Sie machen die zunehmende Kohleverbrennung in China verantwortlich, indem sie sagen, dass der Eintrag der Russpartikel in die Atmosphäre das Sonnenlicht reflektiert und sich der Planet dadurch abkühlt. Der Effekt von Aerosolen und deren Wechselwirkung mit anderen Partikeln der Luftverschmutzung stellt eine wesentliche Unsicherheit in Klimamodellen dar. Mehr noch, trotz der Kohleverbrennung in China deuten die Daten darauf hin, dass die Anzahl der Aerosole in der Atmosphäre während des letzten Jahrzehnts nicht zugenommen hat.

Die Forscher versuchen den Temperaturstillstand zwischen 1998 und 2008 zu erklären. Sie sagen, dass die globale Temperatur seitdem [seit 2008] zugenommen hat.

Dies ist irreführend. Es gab 2010 ein starkes El Nino-Ereignis (eine natürliche zyklische Erwärmung), aber selbst dadurch war die Temperatur nicht über die Werte von 1998 gestiegen. Tatsächlich hat sich der Stillstand auch 2010 und 2011 fortgesetzt, und es sieht so aus, als würde 2011 ein noch kühleres Jahr sein als alle zehn Jahre zuvor.

Das Optimieren von Computermodellen wie dieses beweist gar nichts. Der wirkliche Test findet mit den realen Daten statt. Die Temperatur hat seit über einem Jahrzehnt nicht mehr zugenommen. Daher gibt es keinerlei Vertrauen in die zugrunde liegenden wissenschaftlichen Hypothesen, dass die Welt bald beginnt, sich zu erwärmen, und zwar mit einer steileren Rate, um den Stillstand der letzten Dekade zu kompensieren.

Trotz allem, was die Autoren nach dem Herumspielen mit einem veralteten Modell sagen, gibt es bis jetzt immer noch keine überzeugende Erklärung für den Stillstand der globalen Erwärmung während des letzten Jahrzehnts.

Entweder haben anthropogene und natürliche Auswirkungen gemeinsam die Erwärmung zum Stillstand gebracht, die es wegen der Zunahme der Treibhausgase während des letzten Jahrzehnts gegeben haben müsste, oder wir haben die ‚Klimasensitivität’ bzgl. der Treibhausgase viel zu groß geschätzt.

Dies ist keine extreme oder ‚skeptische’ Position, aber sie repräsentiert die Verschiedenheit wissenschaftlicher Meinungen, die dem IPCC zugemeldet werden, und über die selten berichtet wird.

Dr David Whitehouse

The Global Warming Policy Foundation

e-mail: david.whitehouse@thegwpf.org

=============================================================

Anthony Watts fasst es so zusammen: „Wir wissen nicht, was los ist, aber das geben wir nicht zu!”

============================================================

Von Ryan Maue:  Beispiel einer Schlagzeile in den Mainstream Medien:

Verschmutzung in Asien sorgt für Stillstand bei der Erwärmung: Studie – von Reuters

blah blah blah — Zitat aus der Schlussfolgerung: „Die langzeitliche Erwärmung wird sich fortsetzen, wenn die Emissionen nicht reduziert werden”, sagte Peter Scott, Leiter des Klimamonitoring beim Britischen Met Office.

Nun, d.h. frei nach dem AC/DC Klassiker Hells Bells: "Egal, jeder Widerspruch zwecklos!"

Originalartikel hier: http://wattsupwiththat.com/2011/07/04/a-peer-reviewed-admission-that-global-surface-temperatures-did-not-rise-dr-david-whitehouse-on-the-pnas-paper-kaufmann-et-al-2011/

Weiterführender Link: Klimaforscher Pat Michaels zum Paper von Kaumann hier

Auszug daraus:

..The United Nations’ Intergovernmental Panel on Climate Change, which grants itself climate authority, states that our “Level of Scientific Understanding” of the (aerosol) effects range between “low” and “very low,” with a possible cooling between zero (none)  and a whopping 3.5 degrees (C) when the climate comes to equilibrium (which it will never do).  That’s a plenty large range from which to pick out a number to cancel about as much warming as you’d like…

Weitere Literatur dazu hier

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE