1

Untersuchung der Mechanismen zur Festsetzung der Kohlenstoffsteuer

Hier folgt ein Hinweis: Die Welt hat sich seit 1680 in einem Erwärmungstrend befunden, seit den Tiefen der Kleinen Eiszeit. Es hat sich seitdem stetig erwärmt, etwa ein halbes Grad pro Jahrhundert. Innerhalb dieses Trends gab es 25 bis 30 Jahre mit Erwärmung, denen 25 bis 30 Jahre einer moderaten Abkühlung folgten. Wir befinden uns gerade am Ende einer Erwärmungsperiode, die 1975 begonnen hatte, und so stehen die Chancen gut auf eine moderate Abkühlung für die kommenden paar Jahrzehnte. Aber es gab keine SUVs im Jahre 1680! Menschliche CO2-Emissionen waren vor 1850 winzig, fast alle erfolgten nach dem 2. Weltkrieg und ein Viertel seit 1998. Und doch war der Erwärmungstrend im 18. und 19. Jahrhundert genauso stark wie im 20. Jahrhundert.

Die Theorie einer anthropogenen globalen Erwärmung hält nicht einmal einer oberflächlichen Beweisaufnahme stand. Es bedarf Gläubiger, um die überwältigenden Beweise von deren Unhaltbarkeit zu ignorieren oder zu leugnen. Die Gläubigen müssen durch eine massive Propaganda dazu gebracht werden, gewisse Dinge nicht zu bemerken und jeden zu ignorieren und zu beschimpfen, der auf diese Dinge hinweist.

Tatsächlich gibt es bislang keinen einzigen Beweis, dass die globale Erwärmung hauptsächlich anthropogenen Ursprungs ist. Zig Milliarden Dollar wurden bereits ausgegeben, um danach zu suchen.

Klimawissenschaftler geben gerne zu, dass es keinen direkten Beweis dafür gibt, dass die Erwärmung durch unser Kohlendioxid verursacht wird. Statt dessen sagen sie, dass unser Wissen darüber, wie das Klima funktioniert, in ihren Klimamodellen steckt, und dass die Klimamodelle sagen, dass die Erwärmung anthropogen verursacht ist.

Modelle gleichen logischerweise  jemandem, der Zahlen ausstanzt und Summen mit einem Taschenrechner bildet – Modelle sind Berechnungen, keine Beweise. Das Problem liegt darin, dass die Modelle viele Abschätzungen und Hypothesen darüber enthalten, wie die Dinge vor sich gehen, und einige davon sind falsch.

Hier kommen vier Beweisstücke, dass die Klimamodelle fundamental fehlerhaft sind

Erstens haben sie eine Reihe von Aufzeichnungen mit erheblich übertriebenen Temperaturanstiegen. Den Angstmythos vor der globalen Erwärmung hat James Hansen bei seiner Präsentation 1988 vor dem US-Kongress begonnen, und wenn man seine Vorhersagen mit den tatsächlich eingetretenen Werten verglich, zeigte sich, dass der aktuelle Temperaturanstieg nur etwa ein Drittel der Größenordnung seiner Vorhersage ausmachte. Man erinnere sich, es hieß, die „Wissenschaft ist eindeutig“ [science is settled] seit den frühen achtziger Jahren, und die heutigen Modelle sind im Wesentlichen auch heute das, was sie damals waren.

Weiterhin haben Hansens Modelle den Temperaturanstieg vorhergesagt, falls menschliche CO2-Emissionen nicht drastisch reduziert werden würden, beginnend 1988, so dass das atmosphärische CO2-Niveau im Jahre 2000 überhaupt nicht mehr steigen würde. Aber in Wirklichkeit ist die Temperatur gar nicht in dem Maße gestiegen. Dies beweist, dass die Modelle keine Ahnung von den Auswirkungen von Kohlendioxid auf die Temperatur der Welt haben.

Hansens Klimamodellvorhersagen von 1988

Zweitens sagen die Klimamodelle vorher, dass sich die Ozeane erwärmen. Saubere Messungen der Ozeantemperatur gibt es aber erst seit 2003 mit dem ARGO-System. In diesem System taucht eine Boje rasch bis 2000 m ab, um dann langsam wieder nach oben zu steigen. Während dieses Aufstiegs misst sie die Temperatur und übermittelt die Daten via Satellit an die Zentrale. Dreitausend ARGO-Bojen führen diese Messungen weltweit konstant durch. Sie sagen, dass sich die Temperatur der Ozeane seit 2003 praktisch nicht verändert hat. Und wieder sieht die Realität ganz anders aus, als die Klimamodelle vorgeben.

 

ARGO-Bojen messen den Wärmegehalt der oberen 700 m in den Ozeanen der Welt.

Drittens, die Klimamodelle prophezeien eine bestimmte Verteilung der atmosphärischen Erwärmung während Erwärmungsperioden. Im Besonderen ist die bekannteste Änderung, die sie vorhersagen, eine Erwärmung in einer Höhe von etwa 10 km über den Tropen, dem sog. „Hot Spot“.  Aber seit den sechziger Jahren wurden die Temperaturen in der freien Atmosphäre mit Wetterballonen gemessen, und Millionen dieser Wetterballone sagen, dass es in der jüngsten Erwärmungsperiode von 1975 bis 2001 nicht einmal ansatzweise einen solchen Hot Spot gegeben hatte. Diese Hot Spots sind tragender Bestandteil ihrer Theorie, weil es ein Beweis für die zusätzliche Verdunstung und die Verdickung der Wasserdampfschicht wäre, die etwa zwei Drittel der Erwärmung in den Klimamodellen verursachen sollte – Das Kohlendioxid selbst trägt nur zu einem Drittel zur Erwärmung bei, wird aber in den Modellen durch den Wasserdampf modifiziert. Aber in Wirklichkeit gibt es keinen Hot Spot, daher keine Modifizierung, weshalb die Modelle die Temperaturzunahme so übertrieben haben.

 

Die Klimamodelle simulieren einen Hot Spot, der den Radiosondenaufstiegen zufolge vollständig fehlt.

Datenquelle: Das US Climate Change Science Program aus dem Jahr 2006, Teil E von Abbildung 5.7 auf Seite 116. Die Daten stammen von Millionen Radiosonden (Wetterballonen) seit den sechziger Jahren. Es gibt keine anderen Daten aus dieser Zeit, und wir können keine Daten zur atmosphärischen Erwärmung sammeln, solange die Erwärmung nicht wieder einsetzt. Das sind die einzigen Daten, die es gibt.

Quelle der Modellvorhersage: Jedes Klimamodell, beispielsweise aus dem 4. IPCC-Zustandsbericht, 2007, Kapitel 9, Seite 675.

Erklärung: Der Hot Spot in den Modellen entsteht durch eine Verdickung der Wasserdampfschicht während der globalen Erwärmung, wenn mehr Wasser verdunstet und warme, feuchte Luft die kalte trockene Luft in der Höhe verdrängt. Diese Verdickung sorgt für 2/3 der Erwärmung in den Modellen. Aber da es in Wirklichkeit keinen Hot Spot gibt, übertreiben die Modelle den Temperaturanstieg mindestens um den Faktor 3.

(Übrigens wurde dies schon Mitte der neunziger Jahre bekannt, so dass die Theorie der anthropogenen globalen Erwärmung schon damals hätte verworfen werden sollen. Aber es waren zu viel Geld, Bürokratie, Ideologie, Handelsprofite und Erneuerbare im Güterzug, um diesen zu stoppen.)

Viertens, Satelliten haben die Ausstrahlung der Erde gemessen und herausgefunden, dass die Erde mehr Wärme abstrahlt, wenn die Atmosphäre wärmer ist und weniger Wärme in den Monaten, in denen die Erde kühler ist. Wer hätte das gedacht? Aber die Klimamodelle sagen genau das Gegenteil, dass nämlich die Erde weniger Wärme abstrahlt, wenn die Atmosphäre wärmer ist, weil die Wärme zu stark zurückgehalten wird (positives Feedback). Und wieder stehen die Klimamodelle drastisch im Gegensatz zur Realität.

 

Ausstrahlung der Erde (vertikale Achse) im Verhältnis zur Wassertemperatur (horizontale Achse), wie sie vom ERBE-Satelliten (oben links) gemessen worden sind und wie sie von 11 Klimamodellen „vorhergesagt“ worden waren (alle anderen Graphen). Quelle: Lindzen and Choi 2009, Geophysical Research Letters Vol. 36.

Dies sind unabhängig voneinander vier Beweisstücke, dass die Klimamodelle fundamental fehlerhaft sind. Jedes einzelne von ihnen widerlegt per se die Theorie der anthropogenen globalen Erwärmung. Es gibt noch andere, komplexere Beweise. Man erinnere sich, es gibt hingegen bislang keinen einzigen Beweis, dass die Menschen die globale Erwärmung verursachen. Wenn also die Klimamodelle falsch sind, ist es die Theorie auch.

Lassen Sie mich jetzt erklären, wie verhindert wird, dass der Betrug ans Licht kommt

Der Trick besteht darin, dass sie niemals einen alarmistischen Klimawissenschaftler schicken, um einem sachkundigen Kritiker zu antworten.

Um ihre Theorie in der Öffentlichkeit zu verteidigen schicken die Alarmisten typischerweise Leute wie Tim Flannery oder Tony Jones, die fast nichts davon wissen, wie Klimamodelle funktionieren. Wenn sie dann mit Beweisen konfrontiert werden, sagen diese Gläubigen sofort „Aber die Klimawissenschaftler sagen…“. Sie argumentieren mit der Autorität. Das ist die gleiche Struktur, mit der der Streit zwischen Galileo und dem Papst zelebriert worden ist – Beweise auf der einen Seite und massive politische und religiöse Autorität auf der anderen Seite. Man beachte, der Papst hatte auch auf seiner Seite „Wissenschaftler“, tatsächlich sogar in überwältigender Mehrheit, und sie bildeten den „Konsens“. Es ist einfach, mit so viel Geld und Macht einen Konsens zu fabrizieren.

Alarmistische Wissenschaftler treten öffentlich auf, aber niemals in einer Situation, bei der sie mit bohrenden Fragen oder Kritik von irgendjemandem konfrontiert werden, der etwas von Modellrechnungen versteht. Sie haben seit Jahrzehnten jede wirkliche Diskussion in der Öffentlichkeit vermieden – diese Alarmisten wurden niemals zur Verantwortung gezogen, und sie mussten niemals Leuten antworten, die die Probleme um ihre Theorie kannten. Sie mussten sich auch niemals einer Anhörung stellen, einer Untersuchung, einer königlichen Kommission oder selbst einem kritischen Interview – und doch werden sie mit Megadollars bezahlt und beauftragt, dem Rest von uns zu erzählen, wie wir zu leben haben.

Die alarmistischen Klimawissenschaftler der Regierung sagen, dass sie lediglich das wiedergeben, was in den wissenschaftlich begutachteten Zeitschriften veröffentlicht worden ist. Aber diese Decke wurde lautstark im Klimagate-Skandal von 2009 zerblasen, wurde doch dabei mit ihren eigenen Worten enthüllt, dass sie die Journale unter Druck setzen, irgendwelche kritischen Artikel nicht zu bringen. Darum fahren sie immer weiter fort mit ihrem wissenschaftlich begutachtet – es ist ihr Mechanismus, Kritik außen vor zu lassen.

Die Klimawissenschaftler und ihre gläubigen Anhänger sind übrigens mehr als glücklich, wenn sie mit unwissenden Kritikern diskutieren dürfen – mit Kritikern, die wissen, dass irgendetwas nicht stimmt, aber nicht das Hintergrundwissen haben, um Modelle zu verstehen oder die Schwachpunkte der Alarmisten zu erkennen. Für die Klimawissenschaftler ist es eine reine Freude, wissender und viel „wissenschaftlicher“ gegenüber vereinter Kritik zu sein, weil ihnen das das Gefühl gibt, echte Wissenschaftler und keine Scharlatane zu sein, und weil es eine großartige PR für ihren Fall ist.

All das trägt sehr religiöse oder mittelalterliche Züge. Galileos Fall führte zur Aufklärung, bei der der Beweis über die politische Autorität triumphierte. In aufgeklärten Gesellschaften müssen die Leute nichts glauben, nur weil einige politische oder religiöse Autoritäten es sagen – der Beweis bestimmt, was wahr ist und was nicht.

Aber hinsichtlich des Klimas kehrt unsere Gesellschaft die Aufklärung um und gleitet zurück in das Mittelalter. Sicher haben wir Smart Phones, aber unsere Mittel, die Wahrheit zu bestimmen, fielen zurück auf politische Autoritäten und ihre willfährigen Wissenschaftler, die erklären, was wahr ist, Beweise leugnen und die Ungläubigen verunglimpfen.

Es wird schlimmer. Nicht nur, dass wir die Werte der Aufklärung umkehren, sondern auch, dass wir uns deindustrialisieren. Diese betrügerischen Künstler, geführt von diesen technologischen Blödmännern, den Grünen, wollen, dass wir unsere billigen und verlässlichen Energiequellen schließen und zu unzuverlässigen und schwankenden Windmühlen zurück gehen. Wie im Mittelalter wären wir von der Gnade des Windes abhängig und müssten Muskelkraft einsetzen, wo immer es möglich ist. Diese Leute bezeichnen sich selbst als „progressiv“, was eine total krankhafte Parodie der Wahrheit ist, wie alles andere zu diesem Thema auch.

Diese Korruption muss ein Ende haben! Wir haben wiederholt nach einer unabhängigen Kommission [a Royal Commission] in der Wissenschaft gerufen, bevor irgendwelche Aktivitäten gestartet worden sind, wurden aber natürlich ignoriert.

Also rufe ich jetzt nach einer Diskussion

Professor Andy Pitman ist der führende Klimawissenschaftler in Australien. Etwa 20 PhD-Studenten arbeiten für ihn; er verfügte über Millionen Dollar an Forschungsgeldern und hielt eine Menge prestigeträchtiger Positionen im Klima-Establishment. Er lehnte es vor kurzem ab, mit William Kininmonth zu diskutieren, und zwar auf die übliche Art und Weise „Ich diskutiere nicht mit Leuten, die nicht an die Gravitation glauben!“ Kininmonth war 12 Jahre lang Vorsitzender des National Climate Centre in Australien und arbeitete 38 Jahre lang im australischen Bureau of Meteorology.

Also, Andy, komm und debattiere mit uns! Ihre Seite sagt, dass die Beweise für die anthropogene globale Erwärmung überwältigend sind, also sollte es Ihnen ein Leichtes sein. Wo liegt das Problem? Der australische Steuerzahler [und natürlich auch die Steuerzahler hierzulande, A. d. Übers.] schauen sehr genau auf Sie, weshalb Sie sich ohne Weiteres ab und zu mal erklären sollten.

Die Regierung und die ALP [die australische Labour Partei] könnten solche Diskussionen sehr interessant finden. Wie ich in der Zeitschrift The Australian schon 2008 geschrieben hatte:

“Was wird im nächsten Jahrzehnt passieren, wenn die globalen Temperaturen nicht weiter steigen? Die Labor-Regierung ist drauf und dran, absichtlich unsere Wirtschaft zu ruinieren, um Kohlenstoffemissionen zu reduzieren. Wenn sich die Gründe später als Unsinn herausstellen sollten, werden die Wähler lange Zeit keine weitere Labor-Regierung wählen. Wenn ans Licht kommt, dass der Kohlenstoffbetrug schon 2008 bekannt war, wird die ALP als kriminell fahrlässig oder ideologisch dumm gehalten werden, weil sie keinen Durchblick gehabt hatte“.

Dr David Evans

Dr. David Evans wirkte vollzeitlich im Australian Greenhouse Office von 1999 bis 2005 und teilzeitlich im Department of Climate Change von 2008 bis 2010, wo er [die Wirkung des] australischen Kohlenstoffs auf Pflanzen, Trümmer, Mulch, Boden und Wälder sowie landwirtschaftliche Produkte modellierte. Evans ist Mathematiker und Ingenieur mit sechs Universitätsgraden einschließlich eines PhD der Stanford University.

Link zum Original: hier

Übersetzt von Chris Frey für EIKE




Wasserkraft für Deutsche Bahn? Offener Brief an Vorstandschef Grube!

Auf der Website der Bahn finden wir erläuternd von Dr. Rüdiger Grube: „Klimaschutz ist uns ein sehr wichtiges Anliegen, denn die Bahn steht wie kein anderes Verkehrsmittel für umweltfreundliche Mobilität. Wir freuen uns, dass wir gemeinsam mit RWE unseren Bahnstrom noch ‚grüner’ machen und die CO2-Emissionen so weiter senken können. Damit kommen wir unserer Vision, die Bahnstromversorgung bis 2050 komplett auf regenerative Energien umzustellen, ein ganzes Stück näher.“

Dazu der offene Brief  von Prof. Dr.-Ing. Helmut Alt vom 19.9.11

An den Vorsitzenden des Vorstandes

Herrn Dr. Grube

Deutsche Bahn 

Stephensonstr. 1

60326 Frankfurt am Main 

Bahncard 50 Nr. 7081 4101 2185 2998 HX 969 bis 22.11.11.

Sehr geehrter Herr Dr. Grube, 

mit großem Verständnis habe ich die Notwendigkeit einer Preiserhöhung durch Wegfall der kos­tengünstigen bahneigenen Kernkraftwerks-Stromerzeugungsanteile zur Kenntnis genommen.

Kein Verständnis kann ich allerdings als bisheriger Dauer-Bahnfahrkunde dafür aufbringen, dass Sie sich so wenig bzw. überhaupt nicht zur Verteidigung der kostengünstigsten und in unserem Land sehr sicheren Stromerzeugungsart „Kernenergiestrom“ eingesetzt haben.

Entsetzt war ich, als Sie mit Stolz verkündeten, nun einen langfristigen Strombezugsvertrag mit RWE über Wasserkraftwerksstrom exklusiv für den Bahnbetrieb abgeschlossen zu haben und auf dessen Basis sogar wahrheitswidrig irgendwelche CO2 – Ersparnisse fiktiv errechnen und die nicht sachkundigen Bahnkunden so vorsätzlich in die Irre führen. RWE hat klug gehandelt und einen Teil seiner Wasserkraftstromerzeugung wertsteigernd an den Kunden: „Deutsche Bahn“ gebracht.

Tatsache ist, dass RWE noch nie auch nur einen einzigen verfügbaren Kubikmeter Wasser in ei­nem der zahlreichen Wasserkraftwerke der RWE AG an der Turbine vorbei hat laufen lassen und diesen nicht zur Stromerzeugung genutzt hätte. Nun gehört nur noch Ihnen dieser größere Anteil guter Wasserkraftwerksstrom und alle anderen RWE Kunden erhalten entsprechend mehr Kohle oder Kernenergiestrom.

Zum Dank dürfen diese dann, sofern sie nicht mit dem Auto, sondern mit der Bahn fahren, dem­nächst etwas höhere Preise für ihr Bahnticket bezahlen.  Welch einen Schwindel haben nun auch Sie sich, Herr Dr. Grube, zu Eigen gemacht?

Ich kann Ihnen versichern, dass ich bereits meine morgige Fahrt von Aachen zum KIT in Karlsruhe zu einer Konferenz über Energiefragen wieder mit dem Auto – anstatt wie bisher üblich mit der Bahn – tätigen werde. Bei weiter steigenden Bahnpreisen werden viele mir folgen.

Leider ohne Hoffnung, dass unsere derzeitigen Wirtschaftsführer und Politiker dieser Generation aus dem singulären deutschen Zeitgeist, nachdem einerseits „Energie zum Luxusgut erklärt wurde“ und anderseits die friedliche Nutzung der Kernenergie verteufelt wurde, wieder zur wahrheitsbasierten aufklärenden Verantwortlichkeit zurück finden, verbleibe ich,

mit freundlichem Gruß,

Prof. Dr. Ing. Helmut Alt

PS. Das Zurückfinden aus diesem Irrweg wird unseren Kindern zufallen, wahrscheinlich hat Herr Prof. Dr.C.C. von Weizsäcker die Situation treffend erkannt, als er mir kürzlich zu unserer derzeitigen Energiethema­tik u.a. folgendes schrieb:

 „.…Deutschland wird deindustrialisiert und die Chinesen lachen sich ins Fäustchen. Bei einem hinreichend weit ge­gangenen Verarmungsstand kommt dann vielleicht eine Wende in der Meinung“. 

Im Sinne der Nachhaltigkeit zu beachten ist auch der englische Politiker David Lloyd George:

"Jede Generation hat ihren Tagesmarsch auf der Straße des Fortschritts zu vollenden. Eine Generation, die auf dem schon gewonnenen Grund wieder rückwärts schreitet, verdoppelt den Marsch für ihre Kinder".

Dies sollten wir unseren Kindern wohl ersparen

Related Files




DWD beklagt erhebliche Störungen des Wetterradars durch Windräder!




Merkels Energiekonzept schadet der Industrie!

Dies gilt besonders für die energieintensiven Industrien Chemie, Aluminium, Eisen und Stahl, Nichteisenmetalle, Papier, Zement und Glas.  Dies sind Industrien, deren Energiekosten einen Anteil von mehr als 25 Prozent an der Bruttowertschöpfung erreichen. Sie werden schon durch den Emissionshandel zusätzlich belastet. Durch den überhasteten Ausstieg aus der Kernenergie und die überzogenen Ziele bei Wind- und Solarstrom kommen zu teure, global nicht wettbewerbsfähige Energiepreise hinzu. (Einen Vortrag von D. Ameling zum Thema finden Sie hier)

Beide zusätzlichen Belastungen führen zu einem leisen Abschied der Industrie aus Deutschland. Dieser Abschied hat in einigen Branchen bereits begonnen. Das gilt für Stahl mit dem Bau eines Stahlwerks in Brasilien. Das gilt für Aluminium mit der Stilllegung der Aluminiumhütte in Neuss.

Der Stahlindustrie in Deutschland drohen mit dem Energiekonzept der Bundesregierung zusätzliche Kostenbelastungen in Höhe von knapp 2 Milliarden Euro pro Jahr. Dieser Betrag entspricht in etwa der Investitionssumme dieser Branche in Deutschland. Die sich daraus ergebende Konsequenz, dass nicht mehr investiert wird, führt zu einer weiteren Schwächung der globalen Wettbewerbsfähigkeit. Dies wird den Auszug beschleunigen. Ein Rückzug dieser Werkstoffindustrien aus Deutschland würde eine ganz erhebliche Schwächung der Wertschöpfungskette vom Werkstoff bis zum fertigen Automobil, bis zur fertigen Maschine oder bis zum fertigen Haushaltsgerät bedeuten. Nur im schnellen Dialog zwischen Werkstoffherstellern und Werkstoffverwendern können die Innovationen realisiert werden, die die Abnehmerindustrien brauchen, um auch ihre Wettbewerbsfähigkeit global zu erhalten.

Noch beträgt der Anteil der industriellen Wertschöpfung an der Bruttowertschöpfung in Deutschland insgesamt etwa knapp 25 Prozent. Frankreich und Großbritannien liegen unter der Hälfte dieses Wertes. Wenn auch Deutschland diesem Beispiel folgt, drohen in Zukunft britische Verhältnisse.

Alle Industrieunternehmen haben in den vergangenen 10 bis 20 Jahren Dienstleistungen ausgegliedert an externe Unternehmen. Das gilt z. B. für die Datenverarbeitung oder Instandhaltungsleistungen. Dieser Teil industrieller Wertschöpfung erscheint in der Statistik konsequenterweise bei den Dienstleistungen. Geschätzt sind es zusammen genommen etwa 10 Prozent, die aus dem Dienstleistungsanteil der Volkswirtschaft dem Anteil der Industrie konsequenterweise zugeschlagen werden müssten, zumal diese Dienstleistungen auch wegfallen, wenn die betreffende Industrie nicht mehr da ist. In Wahrheit also beträgt der industrielle Wertschöpfungsanteil nicht 25 Prozent, sondern 35 Prozent. Ein Drittel unserer Volkswirtschaft hängt also ab von der industriellen Aktivität.

Die Bedeutung der industriellen Wertschöpfung in einer Volkswirtschaft wie Deutschland kann man auch daran erkennen, wie schnell die Industrie in unserem Land die Krise des Jahres 2009 überwunden hat. Ohne diese industrielle Leistungsfähigkeit, mit geringerer industrieller Wertschöpfung also, wären wir heute noch da, wo Frankreich und Großbritannien verharren. Anfang Juli erschien im „Daily Mirror“ in London ein Artikel mit der Überschrift „A quarter of Brits are living in fuel poverty as energy bills rocket (Ein Viertel aller Briten lebt in Energiearmut, seit die Energierechnungen wie eine Rakete stiegen)“. Wir in Deutschland dürfen dies nicht zulassen. Die Politik ist auf dem Irrweg.

Wohlstand und soziale Sicherheit hängen in starkem Maße von der Wettbewerbsfähigkeit der Industrie im eigenen Lande ab. Wer seine energieintensiven Industrien bewusst zusätzlich belastet, schwächt die Wertschöpfungskette, schwächt die Volkswirtschaft insgesamt. Dabei wird allzu leicht übersehen, dass mit einer schrumpfenden Volkswirtschaft auch Werte wie Immobilien verzehrt werden. Es kommt nicht nur darauf an, dass unsere Energie bezahlbar ist, nein, global wettbewerbsfähig muss sie sein. Die Wettbewerbsfähigkeit muss in Deutschland erhalten bleiben. Unsere Position als Exportnation Nr. 1 haben wir schon abgetreten an China. Jetzt gilt es, mindestens unser Exportvolumen zu halten.

Wenn Ottmar Edenhofer vom Potsdam-Institut für Klimafolgenforschung in der F.A.Z. schreibt, „Klimapolitik hat nichts mehr mit Umweltschutz zu tun. Wir verteilen das Weltvermögen um“– natürlich von oben nach unten –, dann irrt er gewaltig. Das Gegenteil – von unten nach oben – wird eintreten, siehe Großbritannien. Die überzogene Förderung von Windstrom und Photovoltaik verteilt das Vermögen von unten nach oben, füllt die Taschen der wohlhabenden Investoren, und dies zu Lasten der Mieter. Wer überdies die Industrie schwächt, verringert den Wohlstand, schädigt das soziale Netz.

Prof. Dr. Dieter Ameling

zuerst erschienen unter Standpunkte in der FAZ vom 11.10.11

mit freundlicher Genehmigung des Autors




Neue wissenschaftlich begutachtete Studie: Wolken haben einen großen Abkühlungseffekt auf die Strahlungsbilanz der Erde

…es hat sich herausgestellt, dass der strahlungsbedingte Abkühlungseffekt der Wolken infolge Reflektion kurzwelliger Strahlung den langwelligen Erwärmungseffekt überkompensiert, was zu einer Abkühlung des Klimasystems von -21 W/m² führt.

Abbildung rechts: (a) kurzwellige Strahlung (SW), (b) langwellige Strahlung (LW) und (c) Strahlungseffekte im Vergleich mit wolkenlosem Himmel, berechnet aus den CERES-Satellitendaten während der Periode 2001 bis 2007. Fehlende Daten sind grau schattiert. Diese Abbildung findet sich bei Colour Online hier.

Nach all dem Heulen und Zähneklappern (hier) über die Studie von Spencer and Braswell (auf Deutsch bei EIKE hier) in Remote Sensing und dem Purzelbaum durch dessen früheren Herausgeber, der mit der Begründung, der Begutachtungsprozess war ein Fehlschlag, zurückgetreten war (hier), wurde nun vorige Woche in dem Journal Meteorological Applications eine weitere Studie veröffentlicht, die mit Spencer und Braswell in guter Übereinstimmung steht.

Diese neue Studie von Richard P. Allan an der University of Reading zeigt mittels einer Kombination von Satellitenbeobachtungen und Modellen, dass der Abkühlungseffekt der Wolken den langwelligen Erwärmungs- oder „Treibhaus“-Effekt weit überkompensiert. Während Dessler und Trenberth (neben anderen) behaupten, dass Wolken alles in allem einen positiven Feedback-Erwärmungseffekt wegen des Zurückhaltens langwelliger Wärmestrahlung haben, zeigt diese neue Studie, dass Wolken einen großen Gesamtabkühlungseffekt haben, indem sie die einfallende Sonnenstrahlung blockieren und die radiative Abkühlung außerhalb der Tropen zunehmen lassen. Dies ist entscheidend, denn da Wolken ein negatives Feedback erzeugen, wie es in dieser Studie neben denen von Spencer und Braswell bzw. Lindzen und Choi gezeigt wird, macht dies einen dicken Strich durch die Klimamodell-Maschinerie, die da ein katastrophales Niveau positiven Feedbacks zeigt mit einer beschleunigten globalen Erwärmung infolge steigendem CO2-Gehalt.

Über die Abschätzung der Strahlungseffekte von Wolken an der Erdoberfläche und in der freien Atmosphäre mittels einer Kombination von Modell- und Satellitendaten

Richard P. Allan

Abstract: Mit Hilfe von Satellitenmessungen und einer Analyse numerischer Modellvorhersagen wird eine Neuabschätzung des globalen vieljährigen Mittels der Strahlungsbilanz vorgenommen, die sich aus den Auswirkungen der Bewölkung am Boden und in der Atmosphäre ergibt. Der radiative Abkühlungseffekt durch Reflektion kurzwelliger Strahlung dominiert über den langwelligen Erwärmungseffekt, was insgesamt zu einer Abkühlung um -21 W/m² führt. Der abkühlende Effekt kurzwelliger Strahlung durch die Reflektion an den Wolken wird hauptsächlich als Reduktion der an der Erdoberfläche absorbierten Solarstrahlung in Höhe von -53 W/m² manifest. Die Wolken beeinflussen die langwellige Strahlung, die die feuchte tropische Atmosphäre erwärmt (bis zu 40 W/m² im globalen Mittel), während sie die radiative Abkühlung der Atmosphäre in anderen Gebieten verstärken, besonders in höheren Breiten und im Bereich von Stratocumulus-Feldern über subtropischen Meeresgebieten. Während die Wolken tagsüber abkühlend wirken, wird es nachts durch den Treibhauseffekt der Wolken wärmer. Der Einfluss von Strahlungseffekten der Wolken und die Bestimmung von deren Feedbacks sowie Änderungen im Wasserkreislauf werden hier diskutiert.

Einführung
Die Strahlungsbilanz der Erde (absorbierte solare Strahlungsenergie und terrestrische Ausstrahlung in den Weltraum) bestimmt den Ablauf von Wetter und Klima, dessen Komplexität durch die Beobachtung sich bildender und auflösender Wolkenstrukturen mittels Satelliten deutlich wird. Die Berechnung der physikalischen Prozesse, die zur Bildung bzw. Auflösung von Wolken führen, ist in der numerischen Wetter- und Klimavorhersage von vitaler Bedeutung. Dennoch muss man viele Annäherungen in diesen detaillierten Modellen unserer Atmosphäre machen (Bony et al. 2006, Allan et al. 2007). Beobachtungen von Charakteristika der Wolken durch Messinstrumente in Satelliten sowie durch Beobachtungen am Boden sind von grundlegender Bedeutung für das Verständnis der Wolkenprozesse und deren Bedeutung für die Strahlungsbilanz der Erde (Sohn, 1999; Jensen et al., 2008; Su et al., 2010). Der Energieaustausch, der mit der Wolken- und Niederschlagsbildung verbunden ist, ist ebenfalls eine Schlüsselkomponente des globalen Wasserkreislaufs, und er ist von Bedeutung für Klimaänderungen (Trenberth, 2011). In dieser Studie, die ursprünglich auf einem gemeinsamen Treffen der Royal Meteorological Society und dem Institute of Physics on Clouds and Earth’s Radiation Balance (Barber 2011) präsentiert worden ist, wird die Brauchbarkeit der Kombination von numerischen Wettervorhersagen mit Satellitendaten zur Abschätzung der Strahlungseffekte von Wolken beleuchtet. Mit dieser Kombination soll eine einfache Frage beantwortet werden: Wie beeinflussen Wolken die Strahlungsbilanz von Atmosphäre und Erdoberfläche?

Als Beispiel für die Auswirkung von Wolken auf den Strahlungshaushalt zeigt Abbildung 1 Satellitenbilder im infraroten sowie im sichtbaren Spektralbereich über Europa, und zwar mit dem Infra-Red Imager (SEVIRI) an Bord des Satelliten Meteosat 9 (Schmetz et al. 2002).

 

Abbildung 1: Satellitenbilder von SEVIRI am geostationären Satellit (a) im Infrarotkanal 10,8 μm und (b) im sichtbaren Kanal 0,8 μm am 2. März 2011 um 12 UTC. (Copyright 2011, EUMETSAT/the Met Office).

In beiden Bildern erscheinen die Wolken hell: dies deutet auf eine relativ geringe infrarote Emission und eine relativ hohe Reflektion des sichtbaren Sonnenlichts in das Weltall. Die heißen, allgemein wolkenfreien Gebiete Nordafrikas sind ebenfalls in beiden Bildern erkennbar, weil sie verbunden sind mit einer substantiellen thermischen Emission in das Weltall (dunkle Gebiete im Infrarotbild) und hoher Reflektion an der Erdoberfläche (hell im Bild mit dem sichtbaren Bereich). Die hellsten Wolken im thermischen Bild korrespondieren (1) mit einer Kaltfront, die sich von der norwegischen Küste über Schottland hinweg bis zum westlichen Irland erstreckt, (2) mit einem sich entwickelnden Tiefdruckgebiet westlich von Island und (3) mit einem Tiefdrucksystem mit Zentrum über Sardinien.

Dies sind Regionen mit aufsteigender Luft bis in relativ große Höhen und niedrigen Temperaturen an der Wolkenobergrenze, welche die thermische Emission in den Weltraum im Vergleich mit den umgebenden wolkenfreien Gebieten unterdrücken. Jedoch gibt es noch zahlreiche weitere Wolkenstrukturen. Es gibt eine Vorherrschaft tiefer Wolken über den Ozeanen: diese Wolken enthalten große Mengen an Wassertröpfchen, die hoch reflektiv sind (Stephens et al. 1978). Die Bilder zeigen die komplexe zellulare Struktur dieser Wolken (Jensen et al. 2008) im Gebiet um die Kanarischen Inseln. Man nimmt an, dass diese Typen von Bewölkung stark zu den Unsicherheiten in den Klimaprojektionen beitragen. Während auch diese Wolken die Infrarotstrahlung stark dämpfen, sind ihre Auswirkungen auf die thermische Ausstrahlung in das Weltall moderat, da die Temperatur an der Wolkenobergrenze nicht unähnlich den Nachttemperaturen am Boden sind. Also können sie nicht signifikant zu dem starken natürlichen Treibhauseffekt der wolkenfreien Atmosphäre beitragen.

Die Höhe und optische Dichte der Wolken bestimmt den Gesamtstrahlungseinfluss der Wolken, eine Kombination des wärmenden Treibhauseffektes und dem kühlenden Schatteneffekt an der Erdoberfläche. Und doch steht ein sogar noch stärkerer Einfluss möglicherweise gar nicht mit der Wolke selbst im Zusammenhang. Tages- und Jahreszeit diktieren die einfallende Solarstrahlung und modulieren damit die Stärke der kurzwelligen Reflektion: nachts fehlt eindeutig jeder solare Einfluss.

7. Schlussfolgerungen
Die Auswertung von Satellitenmessungen und die Kombination der Ergebnisse mit NWP-Modellen durch die Assimilation der verfügbaren Beobachtungen ergibt die Auswirkung der Wolken auf die Strahlungsenergiebilanz an der Erdoberfläche und innerhalb der Atmosphäre, die für das gegenwärtige Klima quantifiziert werden können. In Konsistenz mit früheren Arbeiten (Ramanathan et al. 1989, Su et al. 2010) zeigt sich, dass der strahlungsbedingte Abkühlungseffekt der Wolken durch Reflektion kurzwelliger Strahlung den langwelligen Erwärmungseffekt überkompensiert, was zu einer Abkühlung insgesamt im Klimasystem von -21 W/m² führt.

Der kurzwellige Strahlungseffekt der Bewölkung macht sich hauptsächlich durch eine Reduktion der an der Erdoberfläche absorbierten Solarstrahlung um etwa -53 W/m² im globalen vieljährigen Mittel bemerkbar. Die Größenordnung dieses Effektes ist stark abhängig von der einfallenden Solarstrahlung und der Dominanz kurzwelliger Abkühlungseffekte über die langwelligen Treibhauseffekte. Maximal wird dies am Mittag (Nowicki und Merchant, 2004), während nachts der langwellige Erwärmungseffekt dominiert.

Der langwellige Treibhauseffekt der Bewölkung, gemessen an der Obergrenze der Atmosphäre [= Troposphäre?] macht sich hauptsächlich durch das Aufheizen der Atmosphäre in den feuchten Tropen bemerkbar, was mit Berechnungen von Sohn 1999 konsistent ist.

Über den maritimen Gebieten mit Stratocumulus sowie in höheren Breiten wird die wolkenbasierte Rückstrahlung zur Erdoberfläche substantiell und dominiert über die reduzierte abgestrahlte langwellige Strahlung in das Weltall, was zu einer verstärkten Strahlungsabkühlung der Atmosphäre und Erwärmung der Oberfläche führt. Der Strahlungseinfluss der Bewölkung auf den Austausch von Strahlungsflüssen zwischen der Atmosphäre und der Erdoberfläche ist eng verbunden mit dem Wasserkreislauf, und zwar über die strahlungskonvektive Balance. Während hohe Wolken über den Tropen stabilisierend auf die atmosphärischen Strahlungsprofile wirken, tendieren die Wolken über den Polargebieten dazu, die Atmosphäre zu kühlen und die Oberfläche durch erhöhte langwellige Strahlung zur Erde zu erwärmen. In zukünftigen Studien würde es informativ sein, diese Effekte in Abhängigkeit von der Wolkenart zu kategorisieren (Futyan et al. 2005) und mit Modellsimulationen zu vergleichen. Diese Analysen sind Voraussetzung, um Feedback-Prozesse der Wolken weiter zu stützen und sie mit zukünftigen Änderungen des Wasserkreislaufs zu kombinieren (Stephens, 2005; Bony et al., 2006; John et al., 2009).

Eine spezielle Herausforderung ist die genaue Quantifizierung von Strahlungsflüssen an der Oberfläche wegen des spärlichen Netzes von Beobachtungen (Rösch et al. 2011) und auch das Monitoring jüngster Änderungen der Strahlungseffekte durch Wolken in den Satellitendaten, Analysen und Modellen (Wielicki et al. 2002). Die Kombination meteorologischer Analysen mit Satellitendaten und Bodenbeobachtungen stellt eine grundlegende Methodik dar, diesen Herausforderungen zu begegnen.

Das Abstract ist hier!

Die ganze Studie findet man hier!

Update [von Anthony Watts]: Einige Leute einschließlich Dr. Roy Spencer (und auch Dr. Richard Allen, während ich dies schrieb) schlugen in Kommentaren vor, dass es in der Studie nicht um Feedback geht (zumindest in den Augen der IPCC-Interpretationen, aber Spencer fügt hinzu, „es könnte sein“). Also habe ich dieses Wort aus der Überschrift entfernt, um solchen Klagen Rechnung zu tragen. Meine Ansicht ist, dass Wolken sowohl ein Feedback als auch ein Antrieb darstellen. Andere stimmen dem nicht zu. Diese Angelegenheit wird uns alle eine Weile beschäftigen, da bin ich sicher.

Hinsichtlich der Feedbacks der Wolken folgt hier, was ich in der Studie im Abschnitt 6, fast am Ende, notiert habe. Allan bezieht sich auf Abbildung 7 (unten), die (a) die globale Strahlung und (b) den Strahlungsantrieb der Wolken zeigt:

Substantielle negative Anomalien des Strahlungsflusses von ERA Interim sind in den Jahren 1998 und 2010 offensichtlich. Beides waren El Niño-Jahre, was nahelegt, dass die substantielle Reorganisation der atmosphärischen und ozeanischen Zirkulation bewirken, dass Energie von der Erde während dieser Zeiträume abgestrahlt wird.

Abbildung 7: Jahreszeitbereinigte monatliche Anomalien (a) der Strahlung und (b) des Strahlungsantriebs der Bewölkung auf fast dem gesamten Globus (60°N bis 60°S) aus der ERA Interim-Analyse, dem ERBS- Übersichtsinstrument und dem CERES-Instrument an Bord von TERRA: ERBS WFOV; CERES Ed2.5Lite; ERA Interim; ERA Interim, clear-sky.

Man kann die berühmte Doppelspitze des 1998-El Niño klar erkennen, aber sie ist invers. Für mich sieht das aus wie die Wirkung eines Thermostats, und nicht nach einer Blockade elektrischer Kontakte, d. h. einem negativen Feedback.

Link: hier

Übersetzt von Chris Frey für EIKE




Weltklimarat IPCC: Wirklich Expertengremium oder nur ungezogener Teenager?

Was hier wie eine maßlose Übertreibung klingt, ist nach Ansicht der Journalistin Donna Laframboise eine reale Umschreibung der Beziehung zwischen der Weltstaatengemeinschaft und ihrem klimawissenschaftlichen Wunschkind, dem Intergovernmental Panel on Climate Change (IPCC).

Ihr neues Buch „The Delinquent Teenager  who was mistaken for the world’s top climate expert“ führt seine Leser durch die weithin unbekannten Details der Organisation, Arbeitsweise und Politik des IPCC. Kritikfähigkeit? Fehlanzeige. Expertise?

So mancher verantwortlicher Autor hat erst die Gelegenheit ergriffen ganze Gutachtenkapitel beim IPCC abzuliefert bevor er die Muße hatte sein Universitätsstudium mit dem Master abzuschließen oder erste Forschungserfahrungen beim Verfassen einer Doktorarbeit zu sammeln. Politische Korrektheit, Herkunft und Geschlecht sind mindestens ebenso wichtige Auswahlkriterien wie der „richtige“ Standpunkt zu Klima- und Umweltfragen.

Weltbekannten Fachleuten mit langjähriger Forschungsreputation wird dagegen die Tür gewiesen, wenn nur der Verdacht besteht, sie könnten wissenschaftlich unabhängig sein oder konträre Positionen zur herrschenden Meinung der Klimaforschung einnehmen.

Interessenkonflikte? Nicht wenige Autoren sind Umweltaktivisten oder haben langjährige und intensive Verbindungen zu Umweltschutzverbänden in ihrer Vita. (Details dazu auch hier "Wie der WWF das IPCC unterwandert hat; Anmerkung der Redaktion)

Im durch und durch politisierten Klimarat wird nur das akzeptiert, was die Botschaft von der Klimakatastrophe untermauert. Dafür sorgt die handverlesene Autorenschaft schon selbst und die verantwortlichen Politikvertreter erledigen zum Schluß den Rest. Am Ende stehen politische Pamphlete, die sich hinter dem Deckmäntelchen der Wissenschaftlichkeit verbergen. Das alles wäre weniger ein Problem, wenn wenigstens Medien und Öffentlichkeit immer wieder einen kritischen Blick hinter diese Kulissen des IPCC gewagt hätten. Doch hier herrschte lange Jahre Fehlanzeige. Stattdessen regnete es Lobhudelei, wurden jedem noch so spekulativen Bericht des Gremiums uneingeschränkte wissenschaftliche Autorität zugewiesen und Kritiker reflexartig mundtot gemacht. Ein Friedensnobelpreis sollte dem dann schließlich die Adelskrone der Unfehlbarkeit aufgesetzen.

Seit geraumer Zeit, dank der unermüdlichen Aktivitäten der Blogosphäre und der akribischen Recherche von Autoren wie Donna Lafromboise, hat die Öffentlichkeit aber auch die Gelegenheit ihre Blicke hinter die Kulissen der politischen Entstehungsgeschichte der Klimakatastrophe zu werfen. Höchste Zeit, denn der Preis für eine kritiklose Akzeptanz rigider Klimapolitik, die sich sehr gern über den Verweis auf die wissenschaftliche Verkündung des IPCC legitimiert, geht schon jetzt Milliardenhöhe.

Autor Steffen Hentrich;  zuerst erschienen im Denken für die Freiheit 

Das sehr lesenswerte Buch von Donna Framboise " The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert [Kindle Edition]" ist als  Kindle Ausgabe bei Amazon erschienen und kann für 4,88 € heruntergeladen werden. 




Endlager für atomare Abfälle am Beispiel des Salzstocks Gorleben

1. Vorwort

Vor einiger Zeit wurde ich angefragt, ob ich bereit wäre, die unten aufgeführten Artikel von Bräuer (2009) [12] und Bornemann et al. (2008) [10] zu kommentieren bzw. für eine breitere Leserschaft aufzuarbeiten. Mit meiner Antwort zögerte ich etwas bezüglich einer Zusage, weil mir bewusst war, wie verantwortungsvoll eine solche Aufgabe ist. Letztendlich sagte ich zu, weil mich schon allein der Sachverhalt dazu bewog, dass bei allen öffentlichen Debatten über das Für und Wider von Endlagern wie z. B. jenes von Gorleben das Wort von allen möglichen Personen geführt wird, jedoch sehr selten von den dafür prädestinierten Spezialisten. Für meine Zusage sprach also weiter, dass die genannten Spezialisten größtenteils meine Berufskollegen sind, so dass eine Stellungnahme meinerseits unter der Bedingung der Wahrung des Respekts gegenüber geleisteter Arbeit Dritter nur recht und billig ist, was immerhin besser wäre, als wenn dies von von Hause aus fachlich inkompetenten Journalisten, Philosophen, Schriftstellern o. ä. Personen bewerkstelligt werden würde. Schnell wurde mir klar, dass die Auseinandersetzung mit den o. g. Arbeiten natürlich bei weitem nicht ausreichend ist, um sich einen umfassenden Überblick über die Problematik der Endlagerung zu verschaffen. Insofern stellen die beiden Arbeiten nur die Spitze des Eisberges dar.

Das Ansinnen des vorliegenden Artikels besteht vor allem darin, anhand des bestehenden riesigen Informationsfundus hinreichend kurz und verständlich relevante Sachverhalte der Endlagerung im tiefen geologischen Untergrund einem erweiterten Kreis von Interessenten zugänglich zu machen. Das ist keineswegs eine leichte Aufgabe. Es erweist sich als äußerst schwierig, sich hierfür in kurzer Zeit ein objektives Bild zu machen und sich dementsprechend ein kompetentes Urteilsvermögen zu erarbeiten. In wie weit mir die Bewältigung dieser Aufgabe gelang, mag u. a. auch der Leser beurteilen.

Im Zuge der fachlichen Auseinandersetzung mit dem Thema stößt man zwangsläufig auf die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR), welche von Beginn an federführend für die Untersuchungsarbeiten u. a. am Salzstock Gorleben verantwortlich zeichnet. Die aktuellen Kenntnisse über die Salzstruktur von Gorleben basieren auf einer weit über 30 Jahre währenden Geschichte, die mit hochkomplexen Projekten vieler Untersuchungsetappen, entsprechenden Untersuchungsarbeiten und Phasen der Berichterstattung und mit anderen zahlreichen Nebenprojekten im Zusammenhang stehen. Dabei zeigt sich, dass die Bearbeitung vorliegender Problematik ein Werk vieler Fachleute hauptsächlich geowissenschaftlicher Disziplinen ist wie der Geophysik (komplexe Oberflächenmessungen, Messungen in Bohrungen und bergbaulichen Hohlräumen u. a.), Ingenieurgeologie (Standsichherheitsfragen, mechanisches Langzeitverhalten, thermische Eigenschaften u. a.), Hydrogeologie (Einfluss von Grundwässern, Langzeitbetrachtung der Grundwasserdynamik u. a.), allgemeine Geologie (geologische Struktur, Stratigraphie, Genese u. a.), um hier nur die wichtigsten zu nennen. Selbstredend basieren die Arbeiten auf den modernsten naturwissenschaftlichen Herangehensweisen  und auch gesellschaftswissenschaftlichen Erkenntnissen. Als selbstverständlich ist dabei der Einsatz modernster Laboranalytik, Bohrtechnik, Rechentechnik (Hard- und Software) anzusehen. Ganz deutlich tritt zu Tage, dass die Aufgaben im Zusammenhang mit der Untersuchung von potentiellen Endlagerstandorten keinesfalls von einer kleineren Gruppe von Bearbeitern weder fachlich noch physisch zu bewältigen sind.

Bei der Erarbeitung des Artikels wurden natürlich die Möglichkeiten des Internets genutzt so auch die Internetenzyklopädie Wikipedia. Dies erwies sich auch als sehr hilfreich, so dass sich somit Informationen sowie deren Vollständigkeit beispielsweise über die potentiellen Möglichkeiten der Endlagerung atomarer Abfälle erlangen bzw. gewährleisten ließen. Hinsichtlich Fragen der Endlagerung von Atommüll, der Kernkraft usw. zog sich jedoch durch jeden Artikel wie ein roter Faden die Handschrift der strikten Gegnerschaft gegen Kernkraft und die ins Auge gefassten Varianten der Endlagerung atomaren Abfalls, trotz des ersten Anscheins von Ausgewogenheit so, als wenn die objektive Wahrheit per se auf der Seite der kritischen Verfasser läge.

Was die Möglichkeit dessen betrifft, dass sich die übernommene Aufgabe als undankbar erweisen könne, spreche ich hier aus ureigener Erfahrung. Sehr oft zeigte sich diesbezüglich das Phänomen, dass Menschen mit ganz zweifellos hohen moralischen und intellektuellen Ansprüchen sich selbst und ihrer Umgebung gegenüber besonders aus der nicht naturwissenschaftlichen Sphäre nicht mehr in ihrer weiteren Meinungsbildung beeinflussbar sind und dabei äußerste Resistenz gegenüber naturwissenschaftlich basierten Argumenten zeigen.

2. Über die Notwendigkeit der Einrichtung von Endlagern

Im Zeitraum von 1957 bis 2004 wurden auf dem heutigen Territorium der Bundesrepublik insgesamt ca. 110 kerntechnische Anlagen errichtet und in Betrieb genommen. Zu diesen Anlagen zählen Kraftwerke wie auch Forschungsreaktoren , welche nicht der Energiegewinnung dienen. Zum jetzigen Zeitpunkt sind davon in Deutschland noch 17 Anlagen in Betrieb (9 Kernkraftwerke, 8 Forschungsreaktoren) [5]. Durch diesen Betrieb fallen zwangsläufig radioaktive Abfälle an. Diese Abfälle stuft man vorrangig nach ihrem Gehalt an radioaktiven Stoffen und der damit verbundenen Wärmeentwicklung ein. International werden radioaktive Abfälle in schwach-, mittel- und hochradioaktive Abfälle klassifiziert. Wärmeentwickelnd sind vor allem Abfälle aus der Wiederaufarbeitung, in denen hohe Konzentrationen hochaktiver Spaltprodukte enthalten sind. In Atomkraftwerken der Bundesrepublik Deutschland wurden bisher jährlich ca. 450 Tonnen Abfall in Form abgebrannter Brennelemente (stark radioaktiv) erzeugt [1].

Ganz unabhängig davon, wie man sich zur Rolle der Kernkraft bei der Energiegewinnung verhalten mag, müssen alle Seiten letztendlich den Fakt anerkennen, dass im Lande einerseits beträchtliche Mengen radioaktiver Abfälle angefallen sind, auch künftig noch anfallen werden und andererseits ihre dauerhafte sichere Endlagerung der bisher praktizierten Alternative ihrer Zwischenlagerung auf unbestimmte Zeit vorzuziehen ist.

3. Anforderungen an Endlager

Die Kriterien für die Einrichtung und Nutzung von Endlagern für radioaktive Abfälle beruhen auf ihren für die Biosphäre schädlichen Eigenschaften, die hauptsächlich mit den langen Halbwertzeiten einiger radioaktiver Elemente bzw. ihrer Isotope in Zusammenhang stehen. Deshalb muss bei der Endlagerung dieser Abfälle ein direkter oder indirekter Kontakt mit der Biosphäre weitgehend bzw. am besten gänzlich verhindert werden. Nach neuerlichen Äußerungen von politischer Seite [2] wird die Gewährleistung einer effektiven Abschirmung über die Dauer von einer Million Jahren gefordert.

Die gesetzlichen Anforderungen an Endlager für radioaktive Abfälle aus kerntechnischen Anlagen basieren auf dem Atomgesetz (AtG) [3]. In einem Dokument des BMU sind die „Sicherheitsanforderungen an die Endlagerung wärmeentwickelnder radioaktiver Abfälle“ (Stand 30. September 2010) [4] dargelegt. Darin sind u. a. die Sicherheitsprinzipien für die Einrichtung und den Betrieb entsprechender Endlager formuliert:

                  „Der dauerhafte Schutz von Mensch und Umwelt ist unter Beachtung folgender Sicherheitsprinzipien zu erreichen:

4.1        Die radioaktiven und sonstigen Schadstoffe in den Abfällen müssen im         einschlusswirksamen Gebirgsbereich konzentriert und eingeschlossen und damit möglichst lange von der Biosphäre ferngehalten werden.

4.2        Die Endlagerung muss sicherstellen, dass Freisetzungen radioaktiver Stoffe aus dem Endlager langfristig die aus der natürlichen Strahlenexposition resultieren den Risiken nur sehr wenig erhöhen.

4.3        Die Endlagerung darf die Artenvielfalt nicht gefährden. Dabei wird davon ausgegangen, dass auch terrestrische Ökosysteme sowie andere Spezies in ihrer Art geschützt werden, wenn der Mensch als Individuum vor ionisierender Strahlung geschützt ist.

4.4        Die anderweitige Nutzung der natürlichen Ressourcen darf nicht unnötig eingeschränkt werden.

4.5        Die Auswirkungen der Endlagerung auf Mensch und Umwelt dürfen außerhalb der Grenzen Deutschlands nicht größer sein als innerhalb Deutschlands zulässig. Zur Vermeidung unzumutbarer Lasten und Verpflichtungen für zukünftige Generationen sind folgende Sicherheitsprinzipien zu beachten:

4.6        Das Endlager ist so zu errichten und so zu betreiben, dass für den zuverlässigen langfristigen Einschluss der radioaktiven Abfälle im einschlusswirksamen Gebirgsbereich in der Nachverschlussphase keine Eingriffe oder Wartungsarbeiten erforderlich werden.

4.7        Es ist eine möglichst zügige Errichtung des Endlagers zu realisieren.

4.8        Für Errichtung und Betrieb einschließlich Stilllegung des Endlagers müssen die erforderlich werdenden finanziellen Mittel zeitgerecht zur Verfügung stehen.“

4. Praktiken und Möglichkeiten der Entsorgung und Endlagerung radioaktiver Abfälle

 An dieser Stelle seien kurz die Praktiken und Möglichkeiten der Entsorgung und Endlagerung radioaktiver bzw. anderer schädlichen Abfälle [5] aufgeführt. Eine Kommentierung dieser Möglichkeiten erübrigt sich z. T. von selbst.

Endlagerung im Eisschild der Antarktis

Bei dieser Idee wird davon ausgegangen, dass durch den mächtigen Eispanzer der Antarktis dort verbrachte radioaktive Stoffe wirksam von der Biosphäre isoliert gelagert werden können. Dem widerspricht jedoch die Wärmeentwicklung der Abfälle sowie die nach international verbindlichen Verträgen hohen Umweltauflagen für diese Region.

Entsorgung in den Weltmeeren

Bis 1994 konnten feste radioaktive Abfälle legal in den Meeren verklappt werden. Bisher ist es nach internationalem Recht noch legal, radioaktiv belastete Wässer in die Meere einzuleiten (Wiederaufbereitungsanlage La Hague, Nuklearkomplex Sellafield).

Lagerung unter freiem Himmel

Diese Variante der Lagerung radioaktiver Stoffe wird in großen Flächenländern wie Russland und in einigen GUS-Staaten bis heute praktiziert, weil man dort über relativ große unbesiedelte Territorien verfügt. Diese Herangehensweise birgt ganz ohne Zweifel ein hohes Gefahrenpotential für die Biosphäre.

Entsorgung im Weltraum

Entsprechend dieser Idee wird vorgeschlagen, atomaren Abfall mit Hilfe von Raketen auf andere Himmelskörper (Planeten, Asteroiden) und auch in Richtung Sonne zu transportieren. Dieser Lösungsvorschlag ist jedoch mit hohen Risiken (Gefahren in der Startphase im Bereich des Einflusses des Gravitationsfeldes der Erde) und extrem hohen Kosten verbunden.

Wiederverwertung

Im Falle der weiteren Energiegewinnung mittels Kernspaltung kann als atomarer Abfall angesehenes Material nach entsprechender Aufarbeitung einer industriellen Kernenergiegewinnung wieder zugeführt werden. Den atomaren Müll kann man insofern auch als wertvollen künftigen Rohstoff für die Gewinnung von Kernbrennstoffen ansehen.

Dieser Kategorie ist auch die Nutzungsart zuzuordnen, bei der Anreicherung und Energiegewinnung angefallenes abgereichertes Material (Uran) zur Herstellung von Uranmunition mit militärisch gewollter erhöhter Durchschlagskraft, erhöhter Toxizität und negativen Spätfolgen der Radioaktivität zu verwenden.

Transmutation

Bei diesem Verfahren sollen aus hochaktiven langlebigen Nukliden durch Neutronenbeschuss kurzlebige Nuklide hergestellt werden, womit die notwendige Dauer ihrer Abschirmung von der Biosphäre erheblich verkürzt werden würde. Forschungen dazu sind jedoch noch in ihren Anfängen, so dass derzeit auf der Basis der Transmutation noch keine industriell betriebenen Anlagen existieren.

Endlagerung im tiefen geologischen Untergrund

Entsprechend dieser Variante der Endlagerung wird die Deponierung radioaktiver Abfälle in geologisch stabilen Gesteinsschichten vorgesehen. In Deutschland wird in fachlich kompetenten Kreisen die Endlagerung radioaktiver Abfälle im tiefen geologischen Untergrund unter dem Vorzug von Salzstöcken als beste Entsorgungsvariante favorisiert. Neben der Endlagerung in Salzstöcken fasst man diese auch in Graniten, tonigen Gesteinen u. a. als so genannte Wirtsgesteine ins Auge. Beispielsweise konzentriert man sich in Frankreich auf die Suche von für die Endlagerung geeigneten Strukturen mit tonigen Gesteinen. Dies ist vor allem der Tatsache geschuldet, dass auf dem Territorium von Frankreich nur wenige, anders genutzte oder für eine Endlagerung ungeeignete Salzstöcke existieren!

Konditionierung

An dieser Stelle soll kurz auf die so genannte Konditionierung von radioaktiven Abfällen eingegangen werden. Mit der Konditionierung werden die Abfälle so behandelt, dass sie in einen chemisch inerten Zustand versetzt werden und beispielsweise in Wasser unlöslich sind. Zum Beispiel werden hochradioaktive Abfälle dazu in Glas eingeschmolzen und wasserdicht in Edelstahlbehältern verpackt.

……………….

11. Fazit

Wahrlich, es hat den Anschein, dass der Standort Gorleben vorrangig aus politischen Gründen zur Auswahl kam. Man sehe sich nur die geografische Lage von Gorleben an! In den 1970-er Jahren „tobte“ noch der kalte Krieg…In diesem Zusammenhang wäre vorstellbar, dass der Standort Gorleben nicht die erste Wahl hätte darstellen können. Dem ist jedoch nicht so (s. Tab. 2). Dies ist außerdem keinesfalls ein ernsthaftes Kriterium für eine generelle Nichteignung des Standorts als atomares Endlager. Andererseits wurden immerhin für die Erkundung des Standorts Milliardenausgaben aus Rücklagen der Atomenergieerzeuger getätigt. Auch das Moratorium hatte über 10 Jahre lang seinen jährlichen Preis von ca. 22 Millionen Euro.

Selbst wenn sich erwiese, dass der Standort Gorleben als atomares Endlager nicht optimal wäre (was keineswegs heißen sollte, dass er generell nicht geeignet sei), so scheint m. E. das Prinzip, dass es für alle sachlichen Probleme eine optimale ingenieurtechnische Lösung gibt, im Fall Gorleben wenig bzw. nicht erschöpfende Anwendung zu finden. Hiermit sind vor allem die Möglichkeiten der Herstellung verschiedenster technischer Barrieren gemeint, wie es beispielsweise in der bundesdeutschen Abfallwirtschaft z. B. bei der Errichtung von Sondermülldeponien bisher geübte Praxis war und auch im internationalen Maßstab als äußerst vorbildlich gilt.

Bei intensiverer Beschäftigung mit der vorliegenden Materie unter ständigen Bemühungen Neutralität zu wahren, eigene Voreingenommenheit zu unterdrücken, gelang es mir jedoch nicht, mich des Eindrucks zu erwehren, dass bestimmte Personen, bestimmte Kreise wahrscheinlich aus persönlichem Profilierungsdruck heraus sowie auf jeden Fall aus Gründen politischen Kalküls mit dem Ziel politischer Machtausübung und Einflussnahme, objektiv betrachtet, auf meist unkonstruktive Weise permanent bestrebt sind, ganz fadenscheinig und häufig fachlich absurde „Haare in der Suppe“ aufzuzeigen. Das Fatale besteht hier darin, dass mit dieser demagogischen Art und Weise auf gesellschaftlicher Basis ganz offensichtlich erfolgreich politische Mehrheiten zu erringen sind.

Das letzte Wort über die Eignung oder Nichteignung des Standorts Gorleben sollte hierzu jedoch den Spezialisten – den Projektanten, den Erkundern, den Auswertern der Untersuchungsergebnisse usw. gehören unter der Bedingung, dass dazu eine sachliche Aufklärung der Öffentlichkeit erfolgte und auch sachlich möglich wäre, infolge derer ein weitgehender gesellschaftlicher Konsens erzielt werden könnte. Aber dies scheint in Deutschland gegenwärtig eine utopische Idealvorstellung zu sein…

Mit der Erarbeitung des vorliegenden Aufsatzes innerhalb der gegeben Zeit tat ich mich vor allem deshalb schwer, weil sich die Materie als sehr vielschichtig und umfangreich erwies. Außerdem hatte ich ständig das Gefühl im Nacken, einer Verantwortung, einem quasi Versprechen nicht gerecht werden zu können, ohnmächtig zu sein, einerseits angesichts der von anderen über einige Jahrzehnte geleisteten Detailarbeiten, den dabei angehäuften immensen Datenmengen, die mühevoll zu einem plausiblen Großen und Ganzen zusammengesetzt werden müssen. Andererseits dachte ich ständig an die sich in der Mehrheit befindenden Opponenten, wie schwer man sich dort wohl erfahrungsgemäß ernsthaften Argumenten gegenüber täte..?

Der gesellschaftliche Hintergrund ist besonders in Deutschland von politischen Weichenstellungen der nationalen Energiepolitik und einer paradoxerweise damit im Einklang stehenden vorherrschenden öffentlichen Meinung geprägt, die fast hoffnungslos von einer absurden, eigentlich perfiden Ideologie der Dekarbonisierung sowie einer aktionistisch betriebenen Politik physikalisch unsinnig so genannter erneuerbarer Energien indoktriniert scheint. Gleichzeitig grassiert weltweit eine Finanz- und Wirtschaftskrise. Das ist die Ausgangssituation, in der weitere Untersuchungsarbeiten am Salzstock Gorleben und damit zusammenhängende grundlegende Entscheidungen in naher Zukunft bevorstehen. Wie werden die Würfel fallen? Es ist abzuwarten! Bleibt zu hoffen übrig, dass in der Zukunft, was in der Menschheitsgeschichte schon vorgekommen sein soll, die Nüchternheit über die Benommenheit, die Sachlichkeit über die Verbohrtheit, die Offenheit über die Beschränktheit, die Vernunft über die Dummheit, Wissen über Glauben letztendlich die Oberhand gewinnt.

Glück Auf!

Dr. Bernd Hartmann für EIKE

Lesen Sie den ganzen Beitrag 

als pdf im Anhang

Related Files




Langzeit-Temperaturreihen, Stalagmiten und Baumringe widersprechen einer maßgebenden anthropogenen Erwärmung

Die von uns als pdf beigefügte Version des Artikels, inzwischen auch in ArXiv veröffentlicht, ist gegenüber der E & E Originalversion geringfügig erweitert und um neuere Literatur ergänzt, denn zwischen dem Einreichen der Arbeit und der Veröffentlichung durch E & E lag etwa ein halbes Jahr. Der Aufsatz ist, wie praktisch alle naturwissenschaftlichen Fachaufsätze, in Englisch. Wir geben hier nur eine kurze deutsche Zusammenfassung an. Englisch ist heute bekanntlich die „lingua franca“ der Wissenschaft, es gibt so gut wie keine wissenschaftlichen Fachaufsätze mit weiterer Verbreitung mehr in individuellen Landessprachen. Da die fachlichen Inhalte des Aufsatzes vorwiegend Physiker ansprechen, denen ohnehin Fachenglisch geläufig ist, verzichten wir auf eine Übersetzung ins Deutsche und bitten weiter interessierte Leser den Aufsatz im Original heranzuziehen. 

Übersicht und Inhaltszusammenfassung

Politik und Medien, gestützt durch das IPCC, betonen eine ungewöhnliche, rezente Temperatursteigerung der Erde, die maßgeblich durch anthropogenes CO2 verursacht sein soll. Zur Abhilfe weiterer Temperatursteigerungen, es wird sogar ein nur politisch als relevant anzusehendes Ziel von max. 2 °C angegeben, werden volkswirtschaftlich einschneidende CO2-Reduktionen propagiert (Energiewende). Treffen die Verlautbarungen vom gefährlichen Temperaturanstieg aber überhaupt zu? Können uns ferner Vergangenheitstemperaturen etwas über den gegenwärtigen Trend aussagen?

Bis höchstens 250 Jahre zurück gibt es nur fünf verlässliche lokale Monatsreihen der Nordhemisphäre, d.s. Hohenpeissenberg, Prag, München, Wien und Paris. Noch weiter in die Vergangenheit zurück stehen rekonstruierte Temperaturen zur Verfügung, vorwiegend aus Stalagmiten und Baumringen, meist als „Proxies“ bezeichnet. Die fünf Langzeit-Thermometerreihen zeigen im 19. Jahrhundert einen etwa gleich starken Temperaturabfall wie den sehr viel bekannteren Anstieg im 20. Jahrhundert. Nimmt man anthropogenes CO2 als Ursache des Anstiegs im 20. Jahrhundert an, entsteht ein Ursachenproblem für das 19. Jahrhundert. Tatsächlich sind die Ursachen beider Jahrhundert-Fluktuationen bis heute ungeklärt.

Die Arbeit unternimmt die Trendanalyse der fünf Langzeit-Thermometerreihen und ferner einer hochqualitativen Stalagmiten- sowie Baumring-Temperaturkurve. Ein Trend wird in üblicher Weise an Hand linearer Regression definiert. Die Größe ∆ [°C] (in dieser Arbeit, von einer Ausnahme abgesehen, stets über den Zeitraum von 100 Jahren) ist dabei der Temperatur-Anstieg bzw. -Abfall der Regressionsgeraden. Die relative Temperatur­änderung ∆/s, mit s als der Standardabweichung um die Regressionsgerade herum, ermöglicht schließlich den sinnvollen Vergleich unterschiedlicher Reihen und die Trendanalyse.

Der Vergleich der Thermometer- mit den rekonstruierten Reihen zeigt, dass letztere über rund 2000 Jahre lang oft weit stärkere ∆/s Maxima- bzw. Minima als die Thermometerreihen aufweisen. Die relativen 100-Jahres-Trends des 19. und 20. Jahrhunderts sind daher im langzeitlichen Vergleich völlig normal. Dieses Teilergebnis widerspricht bereits der Behauptung, die Erwärmung im 20. Jahrhundert sei ungewöhnlich.

Die allen Temperaturreihen innewohnende Autokorrelation (Persistenz) bewirkt, dass größere ∆/s Werte mit entsprechend höherer Wahrscheinlichkeit auf ganz natürliche Weise auftreten können. Damit sind sie aber nicht mehr von einem externen Trend zu unterscheiden, wie er z.B. durch UHI oder anthropogenes CO2 verursacht sein könnte. Mit der Detrended Fluctuation Analysis (DFA), mit Monte-Carlo-Simulation und mit Hilfe synthetischer Reihen ist es jüngst gelungen, aus dem ∆/s und dem sog. HURST-Exponenten einer Temperaturreihe quantitativ anzugeben, wie natürlich (zufällig) der gemessene ∆/s Wert der Reihe ist. Liegt die Wahrscheinlichkeit für Zufälligkeit unter einer definierten Vertrauensschwelle, wird ein externer Trend angenommen. Damit liegt erstmals ein quantifizierbares Unterscheidungskriterium zwischen „Zufall“ und „Trend“ vor. Es ist zu betonen, dass über Ursache und Art des evtl. vorhandenen Trends das Verfahren, das auch in der vorliegenden Arbeit verwendet wird, nichts aussagt.

Die Analyse zeigt, dass alle 5 Thermometerreihen einen externen Trend beinhalten. Im Gegensatz dazu enthalten die beiden Proxy-Reihen keinen Trend und sind zudem wesentlich stärker autokorreliert. Damit liegt ein Widerspruch zwischen den Thermometer- und den Proxy-Daten vor, der nicht ohne weiteres zu beseitigen ist. Die viel stärkere Autokorrelation der Stalagmiten- und Baumring-Reihen, die hier bis zu 600 Jahren Dauer nachgewiesen wurde, kann nicht durch Artefakte bei der Gewinnung dieser Temperaturdaten erklärt werden.

In der Arbeit wurde erstmals die Hypothese aufgestellt, dass die vorbeschriebene Diskrepanz durch einen niederfrequenten Klimaeinfluss der Sonne verursacht wird (sich änderndes Sonnenmagnetfeld). Die DFA-Analyse von Monatsreihen bis etwa 230 Jahren Länge kann grundsätzlich nur Autokorrelation bis höchstens 50 Jahre nachweisen. Ein langsamer Sonneneinfluss mit Änderungen, die sich erst über mehrere Jahrzehnte bemerkbar machen, wird daher automatisch von der DFA als „linearer Trend“ aus der Reihe entfernt. Dies ändert sich grundlegend mit der DFA-Analyse der 2000 Jahre langen rekonstruierten Temperatur-Reihen (Jahresmittelwerte im Gegensatz zu Monatswerten), in denen kein Trend aufgefunden wird. Die Analyse führt hier zu wesentlich höheren Wahrscheinlichkeiten starker ∆/s Fluktuationen, die in den beiden Proxies tatsächlich beobachtet werden. Mit anderen Worten: Der Sonneneinfluss ist in den Monats-Thermometerdaten ein (relativ langsamer) linearer externer Trend, der von der DFA bei der Analyse automatisch entfernt wird. Die Sonnenfluktuationen in den rekonstruierten Jahres-Daten sind dagegen jetzt Fluktuationen mit 12 mal so hoher Frequenz und werden daher von der DFA nicht mehr als langsamer Trend erkannt. Sie gehören zum Gesamt-Ensemble aller naturgegebenen Einflüsse, die die stärkere Autokorrelation (höheren HURST-Exponent) der rekonstruierten Reihen ausmachen. 

Um die Hypothese vom Sonneneinfluss zu überprüfen, wurde eine ca. 1500 Jahre lange synthetische Temperatur-Monatsreihe erzeugt, die die Autokorrelationseigenschaft der Thermometerreihen aufweist und dann mit der Sonnenfleckenreihe überlagert wurde. Die DFA-Analyse der synthetischen Reihe stützt die hier vorgestellte Hypothese. Sie zeigt ein Cross-Over der Autokorrelation bei etwa 60 Jahren und enthält damit sowohl das Autokorrelationsmerkmal der Thermometerreihen als auch der beiden rekonstruierten Reihen. Es darf daher vermutet werden, dass 100-Jahres-Temperaturanstiege oder -Abfälle vorwiegend auf den Einfluss des sich ändernden Sonnemagnetfelds zurückgehen und kaum mit anthropogenen Einflüssen zusammenhängen.

Das Ergebnis der Arbeit wird von jüngsten Veröffentlichungen gestützt, die keine Trendverstärkung zwischen der ersten und zweiten Hälfte des 20. Jahrhunderts auffinden. So heißt es beispielsweise in der Conclusion der Publikation „S. Lennartz, and A. Bunde, Trend evaluation in records with long-term memory: Application to global warming, Geophys. Res. Lett., Vol. 36, L16706 (2009)”:

Our result yields only weak support for the thesis that the trend in the last 50 years changed its character compared with the first 50 years, since only 1/3 of the records show a remarkable change.

Oder anders gesagt: Stimmt die Hypothese von einer maßgebenden Temperaturwirkung des anthropogenen CO2 (ein kleiner, im wes. unmaßgeblicher Erwärmungseffekt wird von niemandem bestritten), müsste der Erwärmungstrend in der zweiten Hälfte des 20. Jahrhunderts wesentlich stärker ausfallen als in der ersten Hälfte, denn da stiegen die CO2 Emissionen besonders stark an. Dies wurde von Lennartz/Bunde nicht aufgefunden.

In ihrer jüngsten Veröffentlichung „S. Lennartz, and A. Bunde, Distribution of natural trends in long-term correlated records: A scaling approach, Phys. Rev. E 84, 021129 (2011)” bestätigen die Autoren auf S. 7

We consider it as a surprise that the measured temperature increase in the records considered still does not show a significant trend on the 500-month scale

Michael Limburg EIKE

Related Files




„Clean Development Mechanism“ Plan der UN „IM GRUNDE EINE FARCE”

In diesem Programm gab es von Anfang an einen wild wuchernden Betrug, was natürlich mehr ein Feature als eine Unstimmigkeit der UN ist. Natürlich möchten die UN dieses Programm ausweiten und die Geldmenge, die reiche Länder an arme Länder schicken, erhöhen. Ein führender deutscher Klimadiplomat, Otmar Edenhofer, hat es letzten Herbst taktlos so ausgedrückt: „Aber man muss ganz klar sagen, dass wir de facto durch die Klimapolitik das Weltvermögen umverteilen. Offensichtlich sind die Besitzer von Kohle und Öl darüber nicht enthusiastisch. Man muss sich von der Illusion freimachen, dass die internationale Klimapolitik Umweltpolitik ist. Sie hat fast nichts mehr mit Umweltpolitik zu tun“.

Der lustigste Aspekt dieser Geschichte liegt darin, dass die schädliche Information aus WIKILEAKS stammt. Offensichtlich haben sie nicht verstanden, dass sie nur linken Umtrieben dienen. Der Artikel in Nature könnte hinter einer Firewall verborgen sein, daher folgen hier die relevanten Abschnitte:

 (Das CDM) erlaubt es reichen Ländern, einige ihrer Kohlenstoffemissionen auszugleichen, indem sie in klimafreundliche Projekte investieren, wie z. B. Wasserkraftwerke und Windfarmen in den Entwicklungsländern. Verifizierte Projekte verdienen zertifizierte Emissions-Reduktionen – Kohlenstoffgutscheine, die gekauft und verkauft werden und die auf das Ziel der reichen Nationen, Kohlenstoffemissionen zu reduzieren, angerechnet werden.

Aber eine im vorigen Monat auf WikiLeaks veröffentlichte diplomatische Depesche enthüllt, dass die meisten CDM-Projekte in Indien nicht hätten zertifiziert werden dürfen, weil die Emissionen dort nicht über das Maß hinaus reduziert worden waren, das man auch ohne diese auswärtigen Investitionen erreicht hätte. Indischen Funktionären war das Problem offenbar seit zwei Jahren bekannt.

“Was jetzt enthüllt worden ist, bestätigt unsere Ansicht, dass das CDM in seiner jetzigen Form eine Farce ist”, sagt Eva Filzmoser, die Programmdirektorin von CDM Watch, einer in Brüssel ansässigen Überwachungsorganisation [ a watchdog organization]. Die Enthüllungen zeigen auch, dass Millionen Tonnen behaupteter Reduktionen von Treibhausgasen reine Phantome sind, sagt sie, und potentiell Zweifel erregen über die Prinzipien des Kohlenstoffhandels. „Angesichts dieser Kommentare ist es kein Wunder, dass die USA aus dem Emissionshandel ausgestiegen sind“, sagt Filzmoser.

Steven Hayward; den Originalartikel finden Sie hier : 

Übersetzt von Chris Frey für EIKE




Klimaforscher Latif spricht in Leipzig über Vorhersagen der 1. und 2. Art.

Fakultätskolloquium How predictable is climate?

In der Ankündigung heißt es:

Individuelle Wetterphänomene wie Tiefdruck-Systeme oder ein Hurrikan sind im Durchschnitt nur bis zu einer Vorlaufzeit von etwa zwei Wochen vorhersagbar . Dies ist so, aufgrund der chaotischen Natur der Atmosphäre, die sehr empfindlich auf Fehler in den Anfangsbedingungen ist.

Wie kann es dann möglich sein, dass wir die globale Erwärmung und ihre Folgen vorhersagen? Man kann konzeptionell zwischen der Vorhersagbarkeit der ersten und zweiten Art zu unterscheiden. Mathematisch ergibt sich die erstere aus den Annahmen der Anfangswerte, während sich die letztere aus den Randbedingungen ergibt. Das berühmteste Beispiel für die Berechenbarkeit der ersten Art ist die Wettervorhersage. Das Klima als Reaktion auf verstärkte atmosphärische Konzentration von Treibhausgasen ist ein Beispiel für die Vorhersagbarkeit der zweiten Art. Solche als Projektionen bezeichnete Berechnungen versuchen, die Änderung in der Statistik des Wetters in Reaktion auf die veränderte Zusammensetzung der Erdatmosphäre zu berechnen. Der Klimawandel Prognosen für die nächsten Jahrzehnte sind ein Beispiel für das gemischte Problem, da sowohl die ursprünglichen Zustand und Veränderungen in der Zusammensetzung der Atmosphäre wird es wichtig sein.

Hier der Originaltext 

Individual weather phenomena such as a low pressure system or a hurricane are predictable on average only up to a lead time of about two weeks. This is due to the chaotic nature of the atmosphere which is highly sensitive to errors in the initial conditions. How then can it be possible that we predict global warming and its consequences? One can conceptually distinguish between the predictability of the first and second kind. Mathematically, the former arises from the initial, while the latter from the boundary conditions. The most famous example of the predictability of the first kind is the weather forecast. The climate response to enhanced atmospheric greenhouse gas concentrations is an example of the predictability of the second kind. Such calculations termed projections attempt to compute the change in the statistics of weather in response to the changed composition of the Earth’s atmosphere. Climate change projections for the next few decades are an example of the mixed problem, as both the initial state and changes in atmospheric composition will be important.

Leitung:
Prof. Dr. Jürgen Haase

Öffentliche Veranstaltung

Veranstaltungsort:
Fakultät für Physik und Geowissenschaften
Hörsaal für Theoretische Physik
Linnéstraße 5
04103 Leipzig

Die Redaktion mit Dank an Spürnase Dr. Ufer EIKE

Update 19.10.11

ausgewählte Zitate des Vortragenden Prof. Dr. Mojib Latif vom Geomar in Kiel:

"Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben"

Quelle SPON am 1.4.2000
http://tinyurl.com/yjqhkht

Und: "Die Erwärmung entwickelt sich wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen"

und:
" Die Skeptiker verstehen nicht warum CO2 überhaupt klimawirksam ist. Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt – es lässt die Wärme nicht entweichen. Je mehr CO2, desto dichter oder dicker das Glas und umso größer die Erwärmung." 

Quelle beide Zitate :-Bild-Zeitung vom 20.09.07 Seite 13.




US-Klimaforscher James Hansen: „Die Skeptiker gewinnen den Kampf“

Seiner Ansicht nach beschäftigen die Skeptiker Medienprofis, während den „Wissenschaftlern“ (womit er zweifellos nur die AGW-linientreuen Wissenschaftler, aber nicht die vielen skeptischen Wissenschaftler meint) nur beschränkte Möglichkeiten der Öffentlichkeitsarbeit zur Verfügung stünden.

Hansen offenbart an dieser Stelle einmal mehr einen frappierenden Grad von Realitätsverlust: Die Massenmedien sind nach wie vo auf AGW-Linie, ständig hört und liest man trotz entgegenstehender Tatsachen (Abkühlung seit 10 Jahren, Sonne-kosmische Strahlung-Wolken-Verbindung) etwas über „Klimaschutz“, „Klimakiller CO₂“, weitere Erwärmung, Verschwinden des arktischen Eises usw. Aber in Hansens Bewußtsein sind diese falschen Behauptungen vermutlich Tatsachen, so daß er ihre ständige Wiederholung nicht als unterstützende Propaganda, sondern als sachliche Berichte begreift.

Bemerkenswerterweise hält (auch) er den deutschen Atomausstieg für einen Fehler und glaubt, daß auch Bundeskanzlerin Merkel um diesen Fehler weiß und nur dem Druck der politischen Großwetterlage nach 30 Jahren Anti-Atom-Propaganda und der hysterischen Berichterstattung nach Fukushima nachgeben mußte.

Der The Independent schreibt:

Der Vater der grünen Bewegung sagte, dass Wissenschaftler zu wenig PR-Fähigkeiten hätten, um öffentlich gehört zu werden

"Die Klimaskeptiker gewinnen die Auseinandersetzung  über die globale Erwärmung in der Öffentlichkeit" sagte James Hansen, der weltweit am meisten gefeierte Klimaforscher von der NASA, gestern in London.

"Das passiert, obwohl die Klimawissenschaft selbst immer deutlicher zu zeigt, dass die Erde sich in wachsende Gefahr befindet", so Dr. Hansen, der das NASA Goddard Institute of Space Studies leitet. Er wird häufig als "Vater der globalen Erwärmung" bezeichnet – dank seiner dramatische Warnung über den Klimawandel bei Anhörungen im Juli 1988 im US-Senat kam das Problem auf die Agenda der Welt.

Seitdem ist er einer der schärfsten Verfechter für drastische Klimaschutzmaßnahmen und hat gestern auch öffentlich Deutschland kritisiert für die jüngste Entscheidung, seine Kernkraftwerke, früher ein wichtiger Teil der deutschen Klimaschutz-Maßnahmen, im Zuge der Fukushima-Atomkatastrophe in Japan zu Beginn dieses Jahres, aufgeben zu wollen. 

"Ich denke, das war ein großer Fehler", sagte er. "Und ich denke, der Premierminister [die deutsche Bundeskanzlerin Angela Merkel] weiß das, weil sie Physikerin ist, aber ich denke, dass die politische Realität ist, dass sie nicht im Amt bleiben würde, wenn sie diese Meinung zum Ausdruck gebracht hätte."
In einem Briefing, dass er in der Royal Society gab, sprach er offen über den Erfolg in der öffentlichen Meinung, die die "Klima-Gegner", bei der effektiven Verringerung der öffentlichen Besorgnis über die globale Erwärmung hätten. Er sagte: "Sie haben die Auseinandersetzung für mehrere Jahre gewonnen, obwohl die Wissenschaft klarer geworden."

Die Wissenschaft ist klarer geworden? Vielleicht in seiner Phantasiewelt der Datenmanipulation und zurechtgeschusterten Temperaturdaten. In der wirklichen Welt gibt es seit 10 Jahren trotz munter zunehmender CO₂-Emissionen keine Erwärmung mehr. Der Meeresspiegel fällt auch weiter

"Es gibt eine sehr starke Kampagne, von denen, die mit fossilen Brennstoffen, business as usual ‚ betreiben wollen, und die wissenschaftliche Geschichte war wohl nicht stark genug, um diese Verschiebung der öffentlichen Meinung zu verhindern."

Hier offenbart Hansen die Schere in seinem Kopf: Er „wußte“ schon bevor er die globale Erwärmung durch CO₂ erfunden hat, daß das Verbrennen fossiler Energieträger böse ist. Vor 40 Jahren allerdings behauptete er noch, deswegen stünde eine Eiszeit bevor.

"Ein Teil des Problems sei", so sagte er war, "…dass die Klimaskeptiker Lobby Kommunikationsprofis beschäftigt", während "die Wissenschaftler kaum kompetent bei der Kommunikation mit der Öffentlichkeit sind und nicht über das nötige Kleingeld verfügen, um es zu werden."

"Das Ergebnis war", sagte er,"… dass in den letzten Jahren eine Lücke zwischen dem, was über die globale Erwärmung, durch die maßgebliche wissenschaftliche Gemeinschaft verstanden, und was den Menschen, die es wissen müssen bekannt wurde – und das ist der Öffentlichkeit. Doch es gibt nichts, was geschehen ist, um unsere wissenschaftliche Schlussfolgerungen zu ändern. Wir treiben das System in der Tat, in sehr gefährliches Gebiet. Diese Schlussfolgerung sei im selben Zeitraum stärker geworden. Gefragt, ob irgend etwas die Öffentlichkeit wegen der Gefahren des Klimawandels realarmieren könne, sagte Dr. Hansen nur: "Mutter Natur".

Und da haben wir das Dilemma der Alarmisten um James Hansen, Al Gore und andere: Sie haben der Welt über 20 Jahre lang erfolgreich eingeredet, CO₂ werde zu katastrophaler Erwärmung führen. Leider hat Mutter Natur nicht mitgespielt und die (zusätzlichen) Katastrophen sind nicht nur ausgeblieben, sondern vielfach weniger geworden. Das ganze alarmistische Kartenhaus bricht zusammen. Das ist der Grund dafür, daß zumindest Teile der Öffentlichkeit nicht mehr auf hysterische Warnungen vor angeblich bevorstehenden Katastrophen hören wollen – nicht die fehlende (und in Wahrheit weit überlegene) Medienmacht der Alarmisten und derer, die ihren Unsinn nachplappern oder daraus Gewinn schlagen (Solarlobby, Energieversorger, Politik, …).

Mit Dank an Klimaskeptiker-Info Original hier

 Quelle (englisch, externer Link) (1967)




A New Basic 1-Dimension 1-Layer Model Obtains Excellent Agreement With the Observed Earth Temperature

Abstract:
The Earth radiation and energy budget is calculated by a manifold of
rather complex Global Circulation Models. Their outcome mostly
cannot identify radiation in the atmosphere or energy budget
relations. Therefore it is reasonable to look at more basic models
to identify the main aspects of the model results.
account. It is shown that this basic model is in excellent agreement
with the observed integrated global energy budget.
The simplest one of all of those is a 1-dimensional 1-layer model. However, most of
these models – two are discussed here – suffer the drawback that
they do not include essential contributions and relations between
the atmospheric layer and the Earth. The 1-dimensional 1-layer model
presented here integrates sensible and latent heat, the absorption
of solar radiation in the atmosphere and the direct emission of the
long wave radiation to space in addition to the standard
correlations. For the atmospheric layer two different long wave
fluxes are included, top of atmosphere to space and bulk emission to
Earth. The reflections of long wave radiations are taken into account. It is shown that this basic model is in excellent agreement with the observed integrated global energy budget.

Related Files




Anmerkungen zu Herrn Prof. Dr. Lüdeckes Charakterisierung der Medien und der Politik

Unsere Bevölkerung hat die Regeln des demokratischen Politik- und Medienbetriebes so erfolgreich gelernt und verinnerlicht, dass es selbst mit noch so viel Fakten kaum gelingt, Normalbürger davon zu überzeugen, dass die Medien – jedenfalls die meisten, und zum Glück gibt es manchmal Ausnahmen – über die Bereiche Klima und Energie nicht mehr objektiv berichten, sondern mit Wort, Bild und Ton indoktrinieren. Und wenn sie es in einem Bereich tun, der einem bekannt ist und den man beurteilen kann, schließt man nicht mehr aus, dass sie es auch bei anderen Themen praktizieren. Das Vertrauen in die Objektivität geht verloren. Das ist schlimm, denn ohne sie ist die Demokratie in Gefahr. Es ist sogar eine bedenkliche Entwicklung zu konstatieren: Unter Honecker und den Vorgängern wurde den Medien noch mitgeteilt, was nicht bekannt werden durfte, heute wissen sie schon ohne Anweisung, wie man Informationen auswählt, um den Main-Stream wirkungsvoll zu unterstützen. Die Politik verhält sich ähnlich: Beim Klimawandel gilt nur, was die offiziellen und mit Steuergeldern finanzierten Institute verbreiten. Das folgende Beispiel ist dafür typisch. 

Anlässlich einer Reise auf Einladung des örtlichen Bundestagsabgeordneten wurde das Bundesumweltministerium besucht. Der Vortrag enthielt die übliche Angstmache mit ständig steigenden Welttemperaturen. Auf den Einwand, es gäbe namhafte Wissenschaftler, die nachgewiesen haben, dass der anthropogen verursachte Temperaturanstieg nicht stattfindet, belehrte der Vortragende seine Gäste wie folgt: Das  BMU bezahlt die verlässlichen Institutionen und Institute in der Welt und in Deutschland, die dafür gesicherte Zahlen liefern. Abweichler davon würden nicht zur Kenntnis genommen. Das erklärt auch, warum zugesandte faktenreiche Dokumentationen, die den Klimawandel widerlegt haben, unberücksichtigt geblieben sind.

In einem Bundesministerium sollte man wissen, dass die Politik mit ihren Zielen schon oft kräftig auf dem Holzweg war und dass Wissenschaftler zu allen Zeiten auch furchtbare Taten der Obrigkeit – nicht zuletzt auch zu ihrem Nutzen – verteidigt und gerechtfertigt haben. Diese Erfahrungen sollten jede Regierung veranlassen, das „Man höre beide Teile“ zu befolgen, „um Schaden vom Deutschen Volke abzuwenden“. Keinem würde einfallen, selbst bei einfachen Anschaffungen Alternativen ungeprüft zu lassen. Die Regierung macht das – es geht ja auch nicht um Cents, sondern nur um Milliarden. Der Versuch, das Erdklima schützen zu wollen, ist unsinnig und teuer, und da ist es ebenso unverständlich wie undemokratisch ausgerechnet nur der Seite zu vertrauen, die davon lebt, das Phantom Klimawandel geschaffen zu haben und mit der Fortsetzung von Panikmache die eigene Finanzierung zu sichern.

Prof. Dr. Friedrich-Karl Ewert

Diplom-Geologe




Klimawandel in der öffentlichen Meinung in Amerika

Ebell schildert die Lage zur Klimaschutz-Gesetzgebung in den USA und betrachtet die Haltungen der derzeit absehbaren republikanischen Präsidentschaftskandidaten zum Klimawandel. Er hält nur Rick Perry für geeignet und stark genug, die aus Sicht Ebells unheilvollen Obama-Gesetze wieder zurückzudrehen.

Lesen Sie den vollständigen Aufsatz. Myron Ebell

Wie sich die öffentliche Meinung in den USA zum Klimawandel geändert hat.

Der Klimawandel-Wahn schwindet. Und die Mehrheit der Amerikaner hat ver­standen, dass ein mögliches politisches Gegensteuern die Energiepreise substantiell bis enorm erhöht. Der Schwenk in der öffentlichen Meinung verschafft einem republikanischen Gegner Obamas bei den Präsidentschaftswahlen im November 2012 einen immensen Vorteil. Ob der Republikanische Kandidat die Gelegenheit ergreift, hängt von zwei Faktoren ab.

Erstens: Wird das Argument überhaupt gebraucht?. Der augenfällige Zusammenbruch von Amerikas schwach wiederbelebter Wirtschaft und die Tatsache, dass Obamas Wirtschaftspolitik durchgängig kontraproduktiv ist, könnten zu dessen überwältigender Niederlage führen. Un­terschiede in der Politik würden dann keine Rolle spielen.
Zweitens: nicht alle Kandidaten für die Nominierung sind in der Lage, diese Frage herauszu­stellen – und zu thematisieren, was für Amerikas Zukunft auf dem Spiel steht. Meiner Ansicht nach kann Rick Perry, Gouverneur von Texas, aus der Sache etwas machen, Mitt Romney, ehe­maliger Gouverneur von Massachusetts, überhaupt nicht.

Dennoch könnte dies der erste Präsidentschaftswahlkampf werden, wo die Politik in Sachen Klimawandel eine Hauptrolle spielen könnte, genauer gesagt, die Energie-Rationierungspolitik, die zur Bekämpfung des Klimawandels empfohlen wird. Möglicherweise hat Al Gore deswegen gegen George W. Bush 2000 verloren. Aber nicht etwa, weil Gore die Sache in den Vordergrund gespielt hätte. Er hatte sich ja schon vor seiner Nominierung zum Vizepräsidenten durch Bill Clinton 1992 zum politischen Anführer der Klimawandel-Bewegung gemacht, brachte dennoch das Problem im 2000er Wahlkampf kaum zur Sprache. Seine politischen Berater hatten er­kannt, dass dies ein Verliererthema bei der amerikanischen Wählerschaft war. Wenn Gore West Virginia gewonnen hätte – dieser Bundesstaat war bis dahin fest in der Hand der Demokraten – hätte er eine Mehrheit im Wahlmännergremium gehabt und er wäre Präsident geworden. Er verlor, weil seine Wähler gemerkt hatten, dass das erste Opfer von Gores Klima-Politik West Virginias Hauptindustriezweig sein würde, die Kohle!

Der Klimawandel spielte auch keine Rolle in den 2004er und 2008er Präsidentschaftswahl­kämpfen. Der wirklich an den Klimawandel glaubende Senator John Kerry erwähnte ihn kaum gegen Präsiden Bush, der eine inkohärente Mittelposition in dieser Frage bezogen hatte. Bush akzeptierte den Klimawandel als globales Problem, aber er meinte, dass es viel zu kostspielig sei, auch nur irgendetwas dagegen tun zu wollen. Gleichzeitig aber führte er scheibchenweise einige kleinere Maßnahmen zur Reduktion von Treibhausgasen durch.

Im 2008er Wahlkampf war der republikanische Kandidat John McCain im Senat der Haupttrei­ber hinter der Klimawandel-Alarmschlägerei und einer Emissionszertifikat-Gesetzgebung. Der jüngere Senator Barack Obama dagegen hatte nie besonderes Interesse für Umweltfragen ge­zeigt. Während der Kampagne hielt McCain mit seinen Ansichten hinter dem Berg, um der re­publikanischen konservativen Basis die Stange zu halten, Obama aber bezog grüne Standardpositionen, um die demokratische Basis zufrieden zu stellen. Als Konsequenz konnte keiner der Kandidaten einen Vorteil aus dem öffentlichen Aufschrei über hohe Benzinpreise zie­hen, dem brennendsten Problem im frühen Wahlkampf, bevor noch die Wallstreet-Panik im Au­gust die Wirtschaft und den Ölpreis zum Absturz brachte.

Kandidat Obama machte still und leise zwei ehrliche Aussagen über seine Energiepolitik: Einer Zeitung aus San Francisco sagte er im Januar 2008: "Ein von mir geplantes Emissionshandels­system wird die Elektrizitätspreise notwendigerweise hoch in den Himmel steigen lassen." Und als die Benzinpreise im Juni jenes Jahres mit über $4 pro Gallone ihre Spitze erreichten, sagte Obama, dass dies kein Problem der Höhe sei, sondern dass die Preise schneller hochgeschos­sen wären, als sich das Volk hätte daran gewöhnen können. "Eine sanftere Anpassung wäre mir lieber gewesen," sagte er.

Diese beiden Aussagen enthalten die Essenz dessen, was Obama seit dem Beginn seiner Prä­sidentschaft getan hat. Mit großen demokratischen Mehrheiten im Kongress und im Senat hatte Obama 2009 und 2010 zunächst eine Emissionshandels-Gesetzgebung angestoßen, welche die Treibhausgasemissionen mit Hilfe steigender Preise für konventionelle Energieerzeugung aus Kohle, Öl und Erdgas vermindert hätte. Höhere Preise zwingen die Verbraucher zu geringerem Verbrauch und machen teurere Alternativen, wie z. B. Wind, Sonne und Biotreibstoffe wettbe­werbsfähiger.

Ein dem europäischen Emissionshandel ähnliches Emissionshandelsgesetz war im Juni 2009 mit knapper Mehrheit im Kongress verabschiedet worden. Amerikaweit und besonders in den Zentren der energieabhängigen Industrien reagierte die Bevölkerung mit überwältigender Ab­lehnung auf die Kongressgesetzgebung. Nachdem die Senatoren nach Gesprächen mit ihren Wählerschaften aus ihren Bundesstaaten nach Washington zurückgekehrt waren, fassten sie die Kongressvorlage nicht mehr an. Sie wandten sich stattdessen der Reform des Gesundheits­systems zu, wo es breitere öffentliche Zustimmung gab.

Seitdem ist der Emissionshandel tot. Eine Weile noch versuchten die Befürworter es unter an­derem Namen wiederzubeleben, sie nannten es "Initiative zur Verminderung der Umweltver­schmutzung". Doch die Menschen ließen sich nicht zum Narren halten. Sie merkten, dass dies nur eine Umschreibung für eine neue hohe indirekte Besteuerung war.

Mit den Kongresswahlen 2010 und dem Zurückholen der republikanischen Mehrheit im Kon­gress war das Ende des Emissionshandelsgesetzes besiegelt. Mehrere prominente demokrati­sche Kandidaten, die dafür gestimmt hatten, verloren deutlich.

Damit ist die Geschichte noch nicht beendet. Präsident Obama und seine Demokraten im Kon­gress haben sich stark und umfassend in einer Politik engagiert, die die konventionelle Ener­gieerzeugung und den Verbrauch vermindern soll. Energieeffizienz und verstärkter Einsatz alternativer Energieformen sollen begünstigt werden. Die Menschen sollen zum Bezahlen von höheren Preisen für Elektrizität und Treibstoffe gezwungen werden. Gleichermaßen ist die Be­gründung für diese Politik aus der öffentlichen Diskussion verschwunden. Umfragen zeigen, dass die meisten Menschen nicht mehr daran glauben, dass der Klimawandel eine zu lösende Krise wäre.

Die Ursache ist in der Wirtschaftskrise zu suchen, aber nur zum Teil. Trotz der fortwährenden Wiederholung von einem angeblichen wissenschaftlichen Konsens mit Beweisen für einen ka­tastrophalen Klimawandel – verbreitet von den etablierten Medien und den amerikanischen Eli­ten der Ost- und Westküste – glauben diejenigen Menschen nicht mehr daran, die ständig die Dinge für das tägliche Leben produzieren. Sie lassen sich nicht mehr für dumm verkaufen, und sie haben mehr praktische Vernunft als die diejenigen, die mit Worten oder Finanzdaten jon­glieren.

Sie haben ja hinter diesen "wissenschaftlichen Konsens" schauen können, vor allem im Kli­magate-Skandal, und sie wissen, dass die globalen Temperaturen nur ganz gering gestiegen sind, anders als die Computer-Modellierer seit Anfang der 1980er Jahre vorhersagten und auch weiter predigen. Sie wissen auch, dass die jüngsten Temperaturen nicht höher sind als in der Mittelalterlichen Warmperiode, einer Zeit des Wohlergehens für die Menschen. Und sie wissen auch, dass die schrecklichen Folgen einer Erwärmung, Anstieg des Meeresspiegels z. B., weit übertrieben sind, oder gar nicht stattfinden werden.

Um die auf wissenschaftlich tönernen Füßen stehende Argumentation für den Alarmismus noch zusätzlich zu schwächen, wissen inzwischen viele Menschen, dass wärmeres Klima ange­nehmer und gesünder ist. Weswegen gehen denn Amerikaner nach Phoenix in Arizona oder nach Florida, wenn sie in Rente sind? Wenn der Klimawandel käme, die Theorie bestätigt und die Winter milder würden, wären sie vielleicht nicht so scharf darauf, aus Michigan oder New York wegzuziehen.

Deshalb hat Präsident Obama den Klimawandel gestrichen und spricht lieber von einer Trans­formation von Amerikas alter, auf fossiler Energie beruhenden Wirtschaft in eine aufregend neue, auf sauberer Energie beruhenden Wirtschaft. Damit würden die schmutzigen Arbeitsplät­ze des Kohleförderns, des Ölbohrens durch "grüne" Jobs ersetzt, die genau so erstrebenswert wären, wie Tätigkeiten in der Rechtssprechung (zugegeben, das ist übertrieben!). Wie hat er doch im Juni 2010 gesagt: "Während wir aus dieser Rezession herauskommen, bietet uns der Übergang zu sauberer Energiegewinnung die Möglichkeit für Wirtschaftswachstum und für die Schaffung von Millionen von Arbeitsplätzen." Und diejenigen, die sich nicht von seiner Vision umgarnen lassen wollen, warnte Obama, dass sie im Wettlauf mit China verlieren würden, wenn sie sich weiter weigerten, reicher zu werden durch den Ersatz billiger fossiler Energie­quellen und dem Aufbau der Technologie von Morgen. (Anzumerken ist, dass China 80 Prozent seiner Energie aus Kohle gewinnt, die USA nur etwas weniger als Hälfte.)

Umfragen haben gezeigt, dass die Amerikaner für saubere Energie zu begeistern sind, bis sie merken, wie teurer das wird. Der Lack vom neuen Argumentationsmuster ist ab, seit sich die Behauptungen vom Wachstum der "grünen" Jobs als Lüge entpuppt hat. Die Krone hat dem Ganzen im September die Pleite der Solarfirma Solyndra aufgesetzt, die $527 Mio. an Regie­rungskrediten erhalten hatte. Riskante Kredite sind nur ein Teil des überaus teuren Firmen-Wohlfahrtssystems, das für die Erneuerbaren Energien geschaffen worden ist. Wind, Sonnen­ergie, Ethanol erhalten Milliarden an Steuergeldern pro Jahr. Der Zusammenbruch von Solyn­dra war so schockierend, dass der Präsident in seinem neuen Arbeitsbeschaffungsprogramm vor dem Kongress "grüne" Jobs oder "saubere" Energie gar nicht mehr ansprach. Stattdessen betonte er neue Autobahnprojekte.

Mit dem Gerede ist es vorbei, nicht mit der Politik. Unmittelbar nach der deutlichen Niederlage der Demokraten bei den 2010er Kongresswahlen sagte Obama: "Der Emissionshandel ist nur eine Möglichkeit, wie man Tiger zähmt." Die Regierung will angesichts eines feindlichen Kon­gresses eine atemberaubende Liste neuer Regelungen durchdrücken, um die Tiger zu bändi­gen: d. h. man will die fossile Energieerzeugung und deren Nutzung aushungern.

Die Umweltbehörde EPA hat die gesetzlichen Regelungen für saubere Luft fertiggestellt. Damit sollen die Treibhausgasemissionen reguliert werden. Auf vielen Ebenen werden neue Auflagen für die weitere Dämpfung konventioneller Luftverschmutzung erlassen, so z. B. aus Elektrizi­tätswerken, aus industriellen Wärmeerzeugern, Zementfabriken. Auch werden höhere Stan­dards gegen Luftverschmutzung erlassen, wenn sie aus dem Ursprungs-Bundesstaat in einen Nachbarstaat geweht werden. Öffentliche Versorger haben bereits die Schließung von Kohle­kraftwerken angekündigt. Eine neue Auslegung des Gesetzes für sauberes Wasser wurde aus­geheckt, um Genehmigungen für neuen oberirdischen Kohleabbau in den Appalachen einschließlich West Virginias zu verhindern (Seit Al Gore wurde West Virginia zu einem sicheren republikanischen Staat bei der Präsidentenwahl).

Die Regierung setzt alles daran, um die Erdöl- und Erdgasförderung auf bundeseigenem Land und in bundeseigenen Hochseegebieten zu drosseln. Die vor Beginn der Bohrungen notwendi­ge Erteilung der Umwelt-Erlaubnis wird bis zum Sankt-Nimmerleinstag verzögert. Das sind er­folgreiche Maßnahmen. Das Energieministerium sagt einen Niedergang der heimischen nationalen Erdölförderung für die nahe Zukunft voraus, trotz der zunehmenden Förderung auf privatem Land.

Die wirtschaftlichen Folgen einer abnehmenden Energieproduktion sind offensichtlich. Die EPA spricht dagegen seit langem über die Kosten der Umweltregulierungen. Lisa Jackson, Chefin von Obamas EPA, hat vor dem Kongress ausgesagt, dass all die neuen Regulierungen eine Menge neuer "grüner" Jobs schaffen würden. Zu guter Letzt sagte Jackson mit unschuldiger Miene, dass die Firmen neue Angestellte einstellen müssten, um die erforderlichen Vorrichtun­gen gegen Umweltverschmutzung zu bauen, und dass die EPA zusätzliches Überwachungsper­sonal einstellen müsste, um den Papierkram zur Einhaltung der Vorschriften zu erledigen.

Obama hat mit seinem haarsträubendem Unsinn immer weiter gemacht bis zur Aufschiebung eines neuen Gesetzes zur Luftreinheit bis 2013. Der Grund: die Einhaltung des neuen Gesetzes für niedrigere Grenzen beim Ozon (oder Smog) zieht schätzungsweise Kosten von einer Billion US-Dollar nach sich. Die gesamte US-Wirtschaft hat den Wert von $15 Billionen. Obama will das Gesetz immer noch, aber erst nach seiner Wiederwahl.

Gegen seine Wiederwahl steht der republikanische Herausforderer. Hat auch nur einer von den republikanischen Anwärtern die Kenntnis und die rednerische Fähigkeit, die richtigen Zusam­menhänge herzustellen und die wahre Ursache zu zeigen, warum Investoren und Firmen von Investitionen in Amerika wegen Obamas regulatorischen Angriffen zurückschrecken? Ist auch nur einer von ihnen fähig, die Wähler zu überzeugen, dass er die nötige Entschlusskraft hat, Obamas Maßnahmen zurückzudrehen?

Die republikanischen Herausforderer reden leichthin. Tatsache ist, dass jeglicher Versuch zu einer noch so kleinen Reform von Gesetzen in der Vergangenheit immer schief gegangen ist. Die Wirtschaft ist in so kläglichem Zustand und die neuen derzeit in Einführung begriffenen Re­gulierungen sind so zerstörerisch, dass viel mehr als nur eine Reform gebraucht wird. Ich ver­mute, dass die Wähler den großen Worten wenig Vertrauen schenken, wenn nicht davon überzeugt sind, dass der Kandidat es mit der regulierenden Bürokratie aufnehmen will, mit den Umweltaktivisten und den etablierten Medien.

Man kann nicht leicht feststellen, ob ein Kandidat stark genug ist, um die Regierung wieder zurück auf den rechten Pfad zu bringen: dass ein freies Volk auf freien Märkten agiert, und Amerika auf den Weg eines robusten andauernden Wachstums zu bringen. Es scheint, dass viele konservative Wähler sich wie in einem Lackmus-Test darauf verlassen, wie die Kandidaten auf die Bramabrasierungen vom Klimawandel reagiert haben. Zum Beispiel Newt Gingrich, frü­herer Sprecher des Kongresses: Er hatte vorgeschlagen die EPA aufzulösen. Das war kühn und weit vorausschauend. Doch vor nur mehr kaum vier Jahren hat Gingrich, beim Fernsehen auf einem weichen Sofa mit der Sprecherin der Demokraten Nancy Pelosi sitzend, eine Fernseh­werbung für Al Gore gemacht und die Zusammenarbeit Aller zur Lösung des Klimawandels be­fürwortet. Damals schien die Politik des Klimawandels kurz vor ihrem Durchbruch zu stehen. Schade, Newt, Sie sind nicht der Richtige für das Amt.

Dann gibt es den ehemaligen Gouverneur Mitt Romney. Als der sich 2008 um die Präsident­schaftskandidatur bewarb, war Romney nicht wie McCain scharf darauf, etwas gegen den Kli­mawandel zu tun, aber er hat Präsident Bush kritisiert, zu wenig unternommen zu haben. Heute, da der Klimawandel ein Sache der Verlierer ist, hat Romney Bushs Position eingenom­men. Den Klimawandel hält er für ein Problem, aber dagegen vorzugehen für viel zu teuer. Romney hat sogar ehemalige Bush-Offizielle dazu gebracht, ihn in dieser Problematik zu bera­ten. Wenn aber schon Präsident Bush nicht der Richtige für diese Aufgabe war, dann ist es Romney noch weniger.

Wenn man einen Menschen mit Stehvermögen sucht, was ist mit dem ehemaligen Gouverneur von Utah, Jon Huntsman? Der ist ein wahrer Gläubiger des Klimawandels und er ist gegen Rick Perry gegangen, weil der gegenüber den Wissenschaftlern zu ungläubig wäre. Huntsman sagte in einer Diskussion Mitte September: "Wenn man Aussagen macht, die 98 von 100 Klimatolo­gen glatt widersprechen, dann … alles, was ich sagen kann ist, wenn die Republikaner gewin­nen wollen, können wir die Wissenschaft nicht missachten." Wenn Huntsman gewinnen will, dann muss er mehr als ein Prozent der republikanischen Wähler von seiner Eignung für die Auf­gabe überzeugen.

Mancher von den aussichtsreichen Kandidaten hat standhaft gegen den Klimawandel-Murks opponiert, aber die konservativen Wähler scheinen sich auf einen von den zwei Kandidaten ei­nigen zu wollen, die am deutlichsten dagegen waren, und die demzufolge die Eignung zur Ret­tung der Wirtschaft zu haben scheinen. Rick Perry und die Abgeordnete Michele Bachmann. Beide sind hart wie Stahl, mutig und Konservative vom Schlage des "weniger-Regierung-mehr-Freiheit". Der Hauptunterschied zwischen ihnen ist die fehlende Regierungserfahrung von Bachmann, Perry war zehn Jahre lang Gouverneur des wirtschaftlich erfolgreichsten Bundes­staates. Bachmann hatte aber kurz die Führung im Rennen übernommen, als sie im Frühsom­mer startete. Als Perry im August Kandidat wurde, schoss er an die Spitze der Umfragewerte hoch.

Hier ist z. B. Perrys Antwort auf Huntsman in einer Diskussion: "Die Idee, Amerika wirtschaft­liche an den Rand des Abgrunds zu bringen aufgrund einer wissenschaftlich unbewiesenen Theorie, ist für mich einfach Unsinn. Und nur, weil es da eine Gruppe von Wissenschaftlern gibt, die es einfach gewagt haben zu sagen ’das ist Tatsache’ … auch gegen Galileo stand eine Mehrheitsmeinung!"

Perrys Antwort war unklar, aber er kam auf die beiden Hauptpunkte der Diskussion zu spre­chen. Erstens: die wissenschaftliche Autorität ist nicht sakrosankt. Es ist doch Tatsache, dass es einen wissenschaftlichen Konsens über den Klimawandel nicht gibt. Es gibt nur einen Kon­sens bei etablierten Wissenschaftlern, von denen die meisten gar keine Fachleute in den Kli­mawissenschaften sind. Aber viele davon sind Anhänger einer Ausweitung der Regierungsbürokratien.

Weiter: es ist unverantwortlich und dumm, sich auf eine Politik festzulegen, die die Menschen Billionen von Dollar kosten wird, nur auf der Grundlage des Vertrauens in Wissenschaftler. Leu­te mit Verantwortung sind ja häufig glaubwürdig, aber es ist klug, davon auszugehen, dass sie das nicht sind. Präsident Reagans Motto für den Umgang mit sowjetischen Führern ist besser geeignet: "Vertrauen ist gut, aber man muss verifizieren!" Eine der augenscheinlichsten Cha­rakteristiken vieler führender Wissenschaftler, die Alarm wegen des Klimawandels schlagen, ist deren unnachgiebige Abwehr aller Versuche, ihre Schlussfolgerungen zu verifizieren.

Myron Ebel CEI President of Freedom Action

and Director, Center for Energy and Environment Competitive Enterprise Institute

Das Original erschien im "Standpoint" hier




Greenpeace Gründer Patrick Moore: „Eine einfache Frage an Greenpeace“

„Heute ist ein historischer Tag in Deutschland und für die grüne Energie weltweit. Der deutsche Bundestag hat einen Präzedenzfall geschaffen – er hat nicht nur einen Plan zur Stilllegung aller Kernkraftwerke bis 2022 beschlossen, sondern auch deren Ersetzung durch Wind- und Solarkraft. Die Entscheidung wird Deutschland helfen, sein Ziel einer 40-prozentigen Reduktion seiner Kohlenstoffverschmutzung bis 2020 zu erreichen, was auch einen bedeutenden Schritt weg von Kohlekraftwerken darstellt.“

so Phil Radford, Executive Director of Greenpeace USA am 30. Juni 2011 Quelle hier

Die Wahrheit ist, dass Deutschland sich der 13-Gigawatt-Marke nähert (dem Äquivalent von etwa 13 Kernkraftwerken), die von Kraftwerken durch fossile Energieträger erzeugt werden, und man plant zusätzlich den Bau weiterer 10 Gigawatt leistender fossiler Kraftwerke (äquivalent zu weiteren 10 Kernkraftwerken), um den Energieverlust auszugleichen. Also ist die erneuerbare Energie nur ein Feigenblatt, um die Tatsache zu verdecken, dass Deutschland plant, saubere Kernenergie ohne Kohlenstoffausstoß durch verschmutzende, erhebliche Mengen Kohlenstoff ausstoßende Kohlekraftwerke zu ersetzen.

 „Einige 10 GW thermischer Energieerzeugungskapazität müssen in Deutschland bis 2020 errichtet werden, zusätzlich zu den bereits im Bau befindlichen Kapazitäten, um eine ausreichende Reserve zur Verfügung zu haben“, erklärte die Bundesregierung in ihrer Entscheidung, alle Kernkraftwerke in Deutschland bis 2022 zu schließen.

Platts Daten zufolge befinden sich rund 13 GW thermischer Kraftwerke (hauptsächlich Kohle, aber auch ein wenig Braunkohle und Gas) in verschiedenen Baustadien in Deutschland.

Es ist unwahrscheinlich, dass vier von neun Kohlekraftwerken und ein im Bau befindliches Braunkohlekraftwerk wie geplant 2011 und 2012 bestellt werden, und zwar wegen Problemen bei der Konstruktion des Heizkessels.

Betroffen sind die beiden Kraftwerkseinheiten von Vattenfall in Hamburg-Moorburg (840 MW) und das Braunkohlekraftwerk in Boxberg (675 MW), das Werk von GdF Suez in Wilhelmshaven (830 MW), die beiden 800 MW-Blöcke in Hamm und der 790 MW-Block von Evonik in Walsum“.

Henry Edwardes-Evans, “Germany ‘Needs 10 GW of New Plant’ Following Nuclear Phase-Out”, Platts, May 31, 2011 

Warum hilft Greenpeace Deutschland bei der Täuschung, dass Deutschland „sich von Kohlekraftwerken verabschieden wird“ und behauptet, dass D damit dem Ziel näher kommt, 40% der „Kohlenstoffverschmutzung“ bis 2020 zu reduzieren, wenn es doch offensichtlich zu einer erheblichen Zunahme der Kohlenstoffemissionen kommen wird, und zwar als Ergebnis der Schließung von Kernkraftwerken und der Inbetriebnahme der gleichen Menge von Kohle- und Gaskraftwerken? Könnte es sein, dass der Grund darin zu suchen ist, dass Deutschland der größte Geldgeber für Greenpeace ist, und dass Greenpeace die Öffentlichkeit glauben machen will, dass dies ein großer Sieg für die Umweltbewegung ist?

Patrick Moore

Zum Autor: Patrick Moore ist Mitbegründer von Greenpeace, inzwischen jedoch ein Kritiker dieser Organisation. Siehe hier:

Diese Beitrag erschien als Hinweis zuerst bei ACHGUT 

Übersetzt von Chris Frey für EIKE